JPH07311545A - Finger language interpretation device - Google Patents

Finger language interpretation device

Info

Publication number
JPH07311545A
JPH07311545A JP6101097A JP10109794A JPH07311545A JP H07311545 A JPH07311545 A JP H07311545A JP 6101097 A JP6101097 A JP 6101097A JP 10109794 A JP10109794 A JP 10109794A JP H07311545 A JPH07311545 A JP H07311545A
Authority
JP
Japan
Prior art keywords
sign language
boundary
data
hand
sentence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6101097A
Other languages
Japanese (ja)
Other versions
JP3669515B2 (en
Inventor
Hirohiko Sagawa
浩彦 佐川
Masaru Oki
優 大木
Eiji Ohira
栄二 大平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GIJUTSU KENKYU KUMIAI SHINJIYO
GIJUTSU KENKYU KUMIAI SHINJIYOUHOU SHIYORI KAIHATSU KIKO
Hitachi Ltd
Original Assignee
GIJUTSU KENKYU KUMIAI SHINJIYO
GIJUTSU KENKYU KUMIAI SHINJIYOUHOU SHIYORI KAIHATSU KIKO
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GIJUTSU KENKYU KUMIAI SHINJIYO, GIJUTSU KENKYU KUMIAI SHINJIYOUHOU SHIYORI KAIHATSU KIKO, Hitachi Ltd filed Critical GIJUTSU KENKYU KUMIAI SHINJIYO
Priority to JP10109794A priority Critical patent/JP3669515B2/en
Publication of JPH07311545A publication Critical patent/JPH07311545A/en
Application granted granted Critical
Publication of JP3669515B2 publication Critical patent/JP3669515B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE:To provide a finger language interpretation device which enables a user to input finger language in a finger language sentence unit and to recog nize the finger language with good accuracy even if person to input the finger language changes or posture to make the finger language changes. CONSTITUTION:The time of the boundary of finger language words composing a finger language sentence is detected in a boundary detector 3. This boundary detector 3 sends a detection signal d2 to a finger language data memory device 4 when the detector detects the boundary of the finger language words. The normalized finger language data sent from a normalizing device 2 is previously stored in the finger language data memory device 4 which sends the finger language data stored thus far to a finger language recognizer 5 when the detection signal d2 is set to the memory device. What finger language is the inputted finger language is recognized in this finger language recognizer 5 by using the finger language data of every finger language word inputted from the finger language memory device 4 and the finger language word data stored in a finger language word dictionary 6. The recognized results are sent to an output device 7 and are outputted in the form of characters and voices.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、手話、つまり手話とし
ての身振りを認識して、手話単語の接続からなる手話文
を日本語の文に翻訳するための手話通訳装置に関し、特
に手話単語の境界を検出するとともに、正規化すること
により、不特定者が手話を行った場合でも、正確に手話
文を日本語文に変換する手話通訳装置に関するものであ
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a sign language interpreter for recognizing a sign language, that is, a gesture as a sign language, and translating a sign language sentence consisting of connection of sign language words into a Japanese sentence. The present invention relates to a sign language interpreting device that accurately detects a boundary and normalizes it so that a sign language sentence can be converted into a Japanese sentence even when an unspecified person performs sign language.

【0002】[0002]

【従来の技術】手話は、手話単語を連続して複数個接続
することにより、1つのまとまった文章からなる会話を
形成する。手話通訳装置は、このような連続する手話単
語からなる手話文を日本語文に翻訳して出力する装置で
ある。従来の手話通訳装置では、手話単語を単独で入力
し認識する方法が一般的であった。すなわち、手話単語
を1つ入力すると、これを翻訳してこれに対応する日本
語単語を1つ出力するようにして、これを繰り返すこと
により、手話文を通訳するものであった。その中には、
通常の手話会話文における手話単語が連続的に表現され
た手話の認識技術もあるが、これらは小数の限られた文
に対してのみ実験が行なわれている程度である。手話の
認識に使用される手話データは、手話入力装置、例えば
データグローブと呼ばれる手振りを関節等の部分毎に検
出する検出部からなる手話入力装置より入力された手話
データを、そのまま翻訳のための手話データとして使用
している。なお、手話を、顔画像認識装置の表情認識方
法として把握したものは、例えば特願平4−24728
5号明細書および図面がある。また、手話単語を単語辞
書に格納されている単語データを用いて、入力された手
話単語を認識するものは、例えば、特願平4−2356
33号明細書および図面がある。
2. Description of the Related Art In sign language, a plurality of sign language words are continuously connected to form a conversation composed of one sentence. The sign language interpreter is a device that translates and outputs a sign language sentence composed of such continuous sign language words into a Japanese sentence. In a conventional sign language interpreter, a method of inputting and recognizing a sign language word is generally used. That is, when one sign language word is input, this is translated, one Japanese word corresponding to this is output, and by repeating this, the sign language sentence is translated. Among them are
There are sign language recognition techniques in which sign language words in a normal sign language conversation sentence are continuously expressed, but these are only to the extent that experiments are performed only on a small number of sentences. Sign language data used for sign language recognition is a sign language input device, for example, the sign language data input from a sign language input device consisting of a detector called a data glove that detects a hand gesture for each part such as a joint. It is used as sign language data. In addition, what grasped the sign language as the facial expression recognition method of the facial image recognition device is, for example, Japanese Patent Application No. 4-24728.
There is a specification and a drawing. Further, one that recognizes an input sign language word by using the sign data stored in the word dictionary is, for example, Japanese Patent Application No. 4-2356.
No. 33 and drawings.

【0003】[0003]

【発明が解決しようとする課題】一般的な手話を通訳す
るためには、いくつかの手話単語の列によって表現され
る手話文を認識できなければならない。しかし、従来の
手話認識では、手話単語を単独に入力することにより、
手話単語1つずつ認識する方法が通常であるため、一般
的な手話の通訳、つまり高速度で連続的に入力される手
話文の翻訳はできないという問題がある。一方、連続的
な手話文を認識する試みもあるが、手話単語を連続的に
表現すると、手話単語境界付近を中心に手話データの変
化が大きくなり、認識率が低下するという問題がある。
また、手話単語の位置、つまり単語の手振りを行う手の
位置と手話単語の境界の区別をつけることが容易ではな
いという問題もある。また、手話入力装置から入力され
る手話データは、手話を行なう人の体格や、手話を行な
う位置、方向によってさまざまに変化する。従来の手話
認識方法では、手話入力装置から入力された手話データ
をそのまま用いて認識を行なっている。そのため、手話
を行なう人の姿勢が途中から変わったり、背の高い人や
低い人が手話を行う場合には、認識率が大幅に低下して
しまい、あらかじめシステムに手話データを登録した人
でなければ、高い認識率が得られないという問題があっ
た。本発明の第1の目的は、これら従来の課題を解決
し、手話文単位で手話の入力を行なうことができ、手話
文の認識を精度良く行なえる手話通訳装置を提供するこ
とにある。本発明の第2の目的は、手話を入力する人が
変わったり、手話を行なう人の姿勢が変わった場合で
も、精度良く手話を認識できる手話通訳装置を提供する
ことにある。
In order to interpret general sign language, it is necessary to recognize a sign language sentence expressed by a sequence of several sign language words. However, in conventional sign language recognition, by inputting each sign language word,
Since a method of recognizing each sign language word is usually used, there is a problem that a general sign language interpreter, that is, a sign language sentence continuously input at high speed cannot be translated. On the other hand, there are attempts to recognize continuous sign language sentences, but when sign language words are continuously expressed, there is a problem that the sign language data changes largely around the boundaries of the sign language words and the recognition rate decreases.
There is also a problem that it is not easy to distinguish the position of the sign language word, that is, the position of the hand gesturing the word from the boundary of the sign language word. Further, the sign language data input from the sign language input device changes variously depending on the physique of the person who performs the sign language, the position and the direction in which the sign language is performed. In the conventional sign language recognition method, the sign language data input from the sign language input device is used as it is for recognition. Therefore, if the posture of the person who performs sign language changes from the middle, or if a taller person or a shorter person performs sign language, the recognition rate will drop significantly, and only the person who has registered the sign language data in the system in advance. Then, there was a problem that a high recognition rate could not be obtained. A first object of the present invention is to solve these conventional problems and to provide a sign language interpreter capable of inputting sign language in units of sign language sentences and recognizing sign language sentences with high accuracy. A second object of the present invention is to provide a sign language interpreting device that can accurately recognize sign language even if the person who inputs the sign language changes or the posture of the person who performs the sign language changes.

【0004】[0004]

【課題を解決するための手段】上記目的を達成するため
に、本発明の手話通訳装置では、手話文で連続的に表現
される手話単語を精度良く認識するために、手話単語の
境界に特定の手振りや表情を挿入したり、手話単語の境
界で別の入力装置から信号を入力することによって、手
話単語の境界を明確にし、手話文の認識を手話単語単位
の認識によって行なえるようにする。また、手話を入力
する姿勢の変化や手話を行なう人の体格による差を吸収
するために、手話を入力する前にあらかじめ特定の位置
や方向を入力しておくことによって、新しく入力される
手話データを正規化する。
In order to achieve the above object, the sign language interpreting apparatus of the present invention specifies a sign language word boundary in order to accurately recognize sign language words continuously expressed in a sign language sentence. By clarifying the boundaries of the sign language words by inserting gestures and facial expressions, or by inputting a signal from another input device at the boundaries of the sign language words, recognition of sign language sentences can be performed by recognition of each sign language word. . In addition, in order to absorb changes in the posture in which sign language is input and differences in the physique of the person who performs sign language, by entering a specific position and direction in advance before entering sign language, new sign language data can be entered. Normalize.

【0005】[0005]

【作用】本発明においては、認識を行なう前に、手話文
を手話単語に正確に分割できるので、手話単語境界によ
る誤認識を低減することができ、精度良く手話文を認識
して日本語文に変換することが可能になる。また、手話
の入力を行なうまえに、手話データを正規化することに
よって、手話を行なう人の体格や、手話を行なう姿勢に
よる手話データの変化を吸収することができるため、特
定の人によらずに、精度よく手話単語の認識、手話文の
認識を行ない、日本語文に翻訳することが可能になる。
In the present invention, since the sign language sentence can be accurately divided into the sign language words before recognition, it is possible to reduce the misrecognition due to the sign language word boundary, and to recognize the sign language sentence with high accuracy into a Japanese sentence It will be possible to convert. In addition, by normalizing the sign language data before inputting the sign language, it is possible to absorb changes in the sign language data due to the physique of the person who performs the sign language and the posture of performing the sign language, so it is possible to In addition, it is possible to accurately recognize sign language words and sign language sentences and translate them into Japanese sentences.

【0006】[0006]

【実施例】以下、本発明の一実施例を、図面により詳細
に説明する。図1は、本発明の一実施例を示す手話通訳
装置の全体ブロック図である。図1において、1は手話
を入力するための手話入力装置、例えば手袋(データグ
ローブ)(商標)のように、手振りを関節毎に検出して
座標、角度のデータを入力する入力装置、2は入力され
た手話データを正規化するための正規化装置、例えば手
話を行なった人の体格、位置等を記録したテーブルを格
納するメモリ、3は入力された手話データから手話単語
の境界を検出するための境界検出装置、例えば手の停止
を検出する手段、境界を表す表情を検出する手段、ある
いは境界を表す手振りを検出する手段等、4は手話単語
毎の手話データを記憶する手話データ記憶装置、例えば
境界検出装置3からの情報d2を受け取って連続入力さ
れた手話データを手話単語毎に区切り、次の手話認識装
置に送出する装置、5は入力された手話データから手話
単語を認識する手話認識装置、例えば手話単語辞書に同
一の単語があるか否かを比較参照することにより、一致
する単語であることを判断する装置、6は認識に使用さ
れる手話単語辞書、例えば後述の図3に示すように正規
化のための手話を行なう人の位置座標と、手話単語の手
振りを関節毎に検出した座標、角度等のデータと、それ
に対応する手話単語の名称を記憶した単語辞書、7は認
識した手話単語を出力する出力装置、例えば表示装置、
スピーカあるいはプリンタである。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described in detail below with reference to the drawings. FIG. 1 is an overall block diagram of a sign language interpreter showing an embodiment of the present invention. In FIG. 1, reference numeral 1 denotes a sign language input device for inputting sign language, for example, an input device such as a glove (data glove) (trademark) that detects a hand gesture for each joint and inputs coordinate and angle data. A normalization device for normalizing the input sign language data, for example, a memory storing a table that records the physique, position, etc. of the person who performed the sign language, 3 detects the boundaries of the sign language words from the input sign language data A boundary detection device, such as a means for detecting a stop of a hand, a means for detecting a facial expression indicating a boundary, or a means for detecting a hand gesture indicating a boundary, 4 is a sign language data storage device for storing sign language data for each sign language word. For example, the device 5 which receives the information d2 from the boundary detection device 3 and divides the continuously input sign language data into sign language words and sends it to the next sign language recognition device 5 is the input sign language data? A sign language recognition device for recognizing a sign language word, for example, a device for determining a matching word by comparing and referring to the same word in the sign language word dictionary, 6 is a sign language word dictionary used for recognition For example, as shown in FIG. 3, which will be described later, the position coordinates of a person who performs sign language for normalization, data such as coordinates and angles at which the gesture of the sign language word is detected for each joint, and the name of the corresponding sign language word are shown. The stored word dictionary, 7 is an output device for outputting the recognized sign language words, for example, a display device,
It is a speaker or a printer.

【0007】図2は、図1における手話入力装置から入
力される手話データd1のデータ構造を示す図である。
手話入力装置1は、前述のように手の各指の曲がり具
合、手の位置、および方向を電気信号に変換する仕掛け
を持つ手袋(データグローブ)として良く知られてい
る。データ構造は、右手および左手毎に、手の位置x,
y,z(座標)、手の方向α,β,γ(ベクトル)、指
の曲げ角度α1,β1〜α5,β5(角度)から成り立
っている。21、22、23は、それぞれサンプリング
時刻T0、T1、Tnにおけるデータの格納場所(アド
レス)、24、25は、それぞれ右手データ、左手デー
タの格納場所を示す。2411は右手のx座標の位置を
表すデータ、2412は右手のy座標の位置を表すデー
タ、2413は右手のz座標の位置を表すデータであ
る。2421は右手の掌に垂直なベクトル(後述の図6
の61参照)のx座標の成分を表すデータ、2422は
右手の掌に垂直なベクトルのy座標の成分を表すデー
タ、2423は右手の掌に垂直なベクトルのz座標の成
分を表すデータ、2431は右手の掌に並行で指先方向
のベクトル(後述の図6の62参照)のx座標の成分を
表すデータ、2432は右手の掌に並行で指先方向のベ
クトルのy座標の成分を表すデータ、2433は右手の
掌に並行で指先方向のベクトルのz座標の成分を表すデ
ータ、2441は右手の掌に並行で親指側の側面に垂直
なベクトル(後述の図6の63参照)のx座標の成分を
表すデータ、2442は右手の掌に並行で親指側の側面
に垂直なベクトルのy座標の成分を表すデータ、244
3は右手の掌に並行で親指側の側面に垂直なベクトルの
z座標の成分を表すデータである。2451は右手の第
1指の第1関節(拳の中央にある関節)の角度を表すデ
ータ、2452は右手の第1指の第2関節(各指の中央
にある関節)の角度を表すデータ、2453は右手の第
5指の第1関節の角度を表すデータ、2454は右手の
第1指の第2関節の角度を表すデータである。
FIG. 2 is a diagram showing the data structure of the sign language data d1 input from the sign language input device in FIG.
The sign language input device 1 is well known as a glove (data glove) having a device for converting the bending state of each finger of the hand, the position and direction of the hand into an electric signal as described above. The data structure has a hand position x, for each of the right and left hands.
It is composed of y, z (coordinates), hand directions α, β, γ (vectors), and finger bending angles α1, β1 to α5, β5 (angles). Reference numerals 21, 22, and 23 indicate storage locations (addresses) of data at sampling times T0, T1, and Tn, and 24 and 25 indicate storage locations of right-hand data and left-hand data, respectively. 2411 is data representing the x-coordinate position of the right hand, 2412 is data representing the y-coordinate position of the right hand, and 2413 is data representing the z-coordinate position of the right hand. 2421 is a vector perpendicular to the palm of the right hand (see FIG.
24) is data representing the y-coordinate component of the vector perpendicular to the palm of the right hand, 2423 is the data representing the z-coordinate component of the vector perpendicular to the palm of the right hand, 2431 Is data representing the x-coordinate component of a vector (see 62 in FIG. 6 described later) parallel to the palm of the right hand, and 2432 is data representing the y-coordinate component of the vector in the fingertip direction parallel to the palm of the right hand, 2433 is data representing the z-coordinate component of the vector in the fingertip direction parallel to the palm of the right hand, and 2441 is the x-coordinate of the vector parallel to the palm of the right hand and perpendicular to the side surface on the thumb side (see 63 in FIG. 6 described later). Data representing the component, 2442 is data representing the component of the y coordinate of a vector parallel to the palm of the right hand and perpendicular to the side surface on the thumb side, 244.
Data 3 represents the z-coordinate component of a vector parallel to the palm of the right hand and perpendicular to the side surface on the thumb side. 2451 is data representing the angle of the first joint of the first finger of the right hand (joint in the center of the fist), and 2452 is data representing the angle of the second joint of the first finger of the right hand (joint in the center of each finger). , 2453 is data representing the angle of the first joint of the fifth finger of the right hand, and 2454 is data representing the angle of the second joint of the first finger of the right hand.

【0008】図3は、認識に使用される手話単語辞書の
データ構造を示す図である。手話単語辞書6に記録され
ているデータは、手話単語毎に手話入力装置1から読み
込んだ手話データと、手話データの正規化のために使用
されるデータである。図3において、31は正規化のた
めの基準となる頭頂の位置、つまり手話を行った人の頭
頂の位置座標、32は正規化のための基準となる右肩の
位置、33は正規化のための基準となる左肩の位置、3
4は正規化のための基準となるへその位置(後述の図4
の44参照)、35は正規化のための基準となる腕をま
っすぐ前方に伸ばした時の手の位置(後述の図4の45
参照)、36は手話単語のデータである。361、36
2、363は各手話単語毎のデータであり、内部は図2
のデータ構造と同じように、右手と左手毎に、手の位置
(座標)、手の方向(ベクトル)および指の曲げ角度
(角度)と、それに対応する手話単語の名称が記憶され
ている。
FIG. 3 is a diagram showing a data structure of a sign language word dictionary used for recognition. The data recorded in the sign language word dictionary 6 are the sign language data read from the sign language input device 1 for each sign language word, and the data used for normalizing the sign language data. In FIG. 3, 31 is the position of the parietal region that serves as a reference for normalization, that is, the position coordinates of the parietal region of the person who performed the sign language, 32 is the position of the right shoulder that is the reference for normalization, and 33 is Left shoulder position, which is the reference for 3
4 is the position of the navel which serves as a reference for normalization (see FIG.
44), and 35 is the position of the hand when the arm serving as a reference for normalization is extended straight forward (45 in FIG. 4, which will be described later).
), 36 is data of sign language words. 361, 36
2, 363 is data for each sign language word, and the inside is shown in FIG.
Similar to the data structure of, the hand position (coordinates), hand direction (vector), finger bending angle (angle), and corresponding sign language word names are stored for each right hand and left hand.

【0009】図1の手話通訳装置の動作を説明する。図
4は、手話の位置および体格の正規化を行なうために入
力する基準点を示す図である。手話入力装置1から入力
された手話データは、正規化装置2に入力され、位置、
方向、体格に関する正規化が行なわれる。正規化装置の
動作を図4から図10を用いて説明する。まず、体格お
よび位置の正規化を行なうために、図4のように、頭頂
41、右肩42、左肩43、へそ44、腕をまっすぐに
前方へ伸ばした時の手45の位置の座標を入力する。手
の位置は右手、左手いずれでもよい。入力された頭頂の
位置を(Xh、Yh、Zh)、右肩の位置を(Xsr、
Ysr、Zsr)、左肩の位置を(Xsl、Ysl、Z
sl)、へその位置を(Xn、Yn、Zn)、腕を前方
にまっすぐ伸ばした時の手の位置を(Xp、Yp、Z
p)とする。また、手話単語辞書6に記録されている頭
頂、両肩、へそ、腕を前方に伸ばした時の手の位置を読
み込む。手話単語辞書6に記録されている頭頂の位置を
(xh、yh、zh)、右肩の位置を(xsr、ys
r、zsr)、左肩の位置を(xsl、ysl、zs
l)、へその位置を(xn、yn、zn)、腕を前方に
伸ばした時の手の位置を(xp、yp、zp)とする。
まず、手話を行なう位置のずれを吸収するために、手話
データ中の位置データを頭頂からの相対位置として表
す。すなわち、変換前の位置を(X0、Y0、Z0)と
変換後の位置(X1、Y1、Z1)とすれば、変換後の
位置は、(数1)のように表される。
The operation of the sign language interpreter of FIG. 1 will be described. FIG. 4 is a diagram showing reference points input to normalize the sign language position and physique. The sign language data input from the sign language input device 1 is input to the normalization device 2 and the position,
The direction and physique are normalized. The operation of the normalization device will be described with reference to FIGS. First, in order to normalize the physique and position, as shown in FIG. 4, the coordinates of the position of the crown 41, the right shoulder 42, the left shoulder 43, the navel 44, and the position of the hand 45 when the arm is straightened forward are input. To do. The position of the hand may be either the right hand or the left hand. Input the position of the crown (Xh, Yh, Zh) and the position of the right shoulder (Xsr,
Ysr, Zsr), the position of the left shoulder (Xsl, Ysl, Z
sl), the navel position (Xn, Yn, Zn), and the hand position when the arm is straightened forward (Xp, Yp, Z
p). Also, the positions of the hands recorded when the crown, both shoulders, navel and arm are extended forward are recorded in the sign language word dictionary 6. The position of the crown recorded in the sign language word dictionary 6 is (xh, yh, zh), and the position of the right shoulder is (xsr, ys).
r, zsr), the position of the left shoulder is (xsl, ysl, zs
l), the navel position is (xn, yn, zn), and the hand position when the arm is extended forward is (xp, yp, zp).
First, the position data in the sign language data is expressed as a relative position from the top of the head in order to absorb the deviation of the position where the sign language is performed. That is, if the position before conversion is (X0, Y0, Z0) and the position after conversion (X1, Y1, Z1), the position after conversion is expressed by (Equation 1).

【数1】 [Equation 1]

【0010】図5は、位置の正規化による座標系の変換
を示す図であり、図6は、手の方向を表すべクトルを示
す図であり、図7は、手を体の正面で合わせた場合の手
の方向と座標系との関係を示す図である。この正規化に
よる変換によって、図5の座標系511、512で表現
されていた位置データは、座標系521、522によっ
て表現されることになる。すなわち、入力された位置デ
ータ(511,512)は、頭頂の位置を基準とした座
標系に変換される。また、位置の基準としては、頭頂で
はなく、へその位置を用いても良い。すなわち、ヘその
位置を基準とした座標系に変換することもできる。ま
た、手話の入力を常に椅子に座った状態で行なうような
場合は、へその位置の変わりに膝に手をおいた時の手の
位置を基準として用いることができる。
FIG. 5 is a diagram showing the transformation of the coordinate system by normalizing the position, FIG. 6 is a diagram showing a vector representing the direction of the hand, and FIG. 7 is a view showing the hand in front of the body. It is a figure which shows the relationship between the direction of a hand and a coordinate system in the case of. By the conversion by the normalization, the position data represented by the coordinate systems 511 and 512 in FIG. 5 is represented by the coordinate systems 521 and 522. That is, the input position data (511, 512) is converted into a coordinate system with the position of the crown as a reference. Further, as the position reference, the navel position may be used instead of the crown. That is, it can be converted into a coordinate system with the position as a reference. Further, when the sign language is always input while sitting on a chair, the position of the hand when the hand is placed on the knee instead of the position of the navel can be used as a reference.

【0011】次に、手話を行なっている方向の正規化を
行なう。手話を行なう方向の変換は、図5のような座標
系521、522を用いた場合にはxy平面上に限られ
るため、xy平面上の基準となる方向を入力できれば良
い。すなわち、図5から明らかなように、ベクトルを上
方向のzから見るとx,y方向のみの動作となる。この
ため、両手を体の正面で合わせた状態における左右の手
の方向を入力し、それらからxy平面上の方向を求め
る。良く知られている手袋による入力装置から入力され
る方向のデータを、図6のように、掌に垂直な方向のベ
クトル61、掌の指先方向のベクトル62、それらに垂
直な掌の側面方向のベクトル63に変換することができ
る。掌を体の正面で合わせた状態では、図7のように、
掌の指先方向71あるいは掌の側面方向のベクトル72
のxy平面の写像が大きくなる。ここで写像とは、上か
ら見たx,y方向の軌跡である。z方向からx,y方向
の軌跡を見ると、zに対するx方向の角度よりもy方向
の角度の方が大きいため、x方向への写像が大となる。
そこで、まず、掌の指先方向71および掌の側面方向の
ベクトル72のうち、x軸への写像が大きい方のベクト
ル(図7では71)を選択し、右手と左手のベクトルの
平均ベクトルを求める。これにより、人の正面の方向を
求めることができる。すなわち、両手を合わせた状態で
は、掌と体の前後方向が並行になっているため、平均ベ
クトルのxy平面への写像は体の正面の方向を表すこと
になる。
Next, normalization of the sign language is performed. When the coordinate systems 521 and 522 as shown in FIG. 5 are used, the conversion of the sign language direction is limited to the xy plane, so it is sufficient to input the reference direction on the xy plane. That is, as is apparent from FIG. 5, when the vector is viewed from the upward direction z, the operation is performed only in the x and y directions. For this reason, the directions of the left and right hands in a state where both hands are brought together on the front of the body are input, and the directions on the xy plane are obtained from them. As shown in FIG. 6, the data of the direction input from a well-known glove input device is used to calculate the vector 61 of the direction perpendicular to the palm, the vector 62 of the direction of the fingertips of the palm, and the lateral direction of the palm perpendicular to them. It can be converted into a vector 63. With the palms in front of you, as shown in Figure 7,
Palm tip direction 71 or palm side vector 72
The mapping of the xy plane of becomes large. Here, the map is a locus in the x and y directions seen from above. Looking at the loci in the x and y directions from the z direction, the angle in the y direction is larger than the angle in the x direction with respect to z, and thus the mapping in the x direction is large.
Therefore, first, of the palm fingertip direction 71 and the palm lateral direction vector 72, the vector having the larger mapping to the x axis (71 in FIG. 7) is selected, and the average vector of the right hand and left hand vectors is calculated. . Thereby, the direction of the front of the person can be obtained. That is, in the state in which both hands are put together, the palm and the front-back direction of the body are parallel to each other, so that the mapping of the average vector onto the xy plane represents the front direction of the body.

【0012】図8は、体の方向と座標系との関係を示す
図である。図8のように、この平均ベクトル81のxy
平面への写像のx軸成分、y軸成分をそれぞれXa8
2、Ya83とすると、体の向きΘ84は(数2)によ
って与えられる。
FIG. 8 is a diagram showing the relationship between the body direction and the coordinate system. As shown in FIG. 8, xy of this average vector 81
The x-axis component and the y-axis component of the mapping on the plane are respectively Xa8
2, and Ya83, the body direction Θ84 is given by (Equation 2).

【数2】 この体の向きによるデータの変化を吸収するために、位
置の正規化を行なった後の位置のxy平面の座標(X
1、Y1)を、x軸851、y軸852をΘだけ回転し
たx’軸861、y’軸862における位置に変換す
る。この変換動作は、(数3)によって与えられる。ま
た、手の方向を表す3種類のベクトルに対しても、ベク
トルのx軸、y軸、z軸方向の成分について、(数3)
の変換を行なうことによって正規化することができる。
この変換によって、手話データは、常に頭頂を原点と
し、体の正面方向をx軸とした座標系におけるデータに
変換される。なお、方向の正規化としては、両手を合わ
せた時の方向を用いる他に、左右いずれかの掌を胸に置
くなど、手の方向が体に対して常に同じ方向になるよう
な場所に手を置いた場合の方向を使用することができ
る。この場合にも、全く同様な方法で正規化を行なうこ
とができる。
[Equation 2] In order to absorb the change in the data depending on the orientation of the body, the coordinates of the position after the position normalization (X plane) (X
1, Y1) is converted into a position on the x ′ axis 861 and the y ′ axis 862, which is obtained by rotating the x axis 851 and the y axis 852 by Θ. This conversion operation is given by (Equation 3). Also, for three types of vectors representing the direction of the hand, the components of the vector in the x-axis, y-axis, and z-axis directions are given by
Can be normalized by performing the conversion of.
By this conversion, the sign language data is always converted into data in the coordinate system with the crown as the origin and the front direction of the body as the x-axis. In addition to normalizing the direction, in addition to using the direction when both hands are put together, place the hand in a place where the direction of the hand is always the same with respect to the body, such as placing the left or right palm on the chest. You can use the orientation when you place. Also in this case, the normalization can be performed by the same method.

【数3】 [Equation 3]

【0013】図9は、体格の正規化によるデータの伸縮
を示す図である。本実施例では、さらに、体格によって
生じる動作の大きさの違いや、体の各部分との位置のず
れを吸収するために、頭頂、両肩、へそ、腕を前方にま
っすぐ伸ばした時の手の位置を使って、手の位置の正規
化を行なう。このため、まず、(数4)に示すようなX
軸、Y軸、Z軸方向の比、rx、ry、rzを求める。
FIG. 9 is a diagram showing expansion / contraction of data by normalization of physique. In the present embodiment, in addition, in order to absorb the difference in the size of the movement caused by the physique and the displacement between the body and each part of the body, the hands when the head, shoulders, navel, and arm are straightened forward. The position of is used to normalize the position of the hand. Therefore, first, X as shown in (Equation 4)
The ratios of the axes, the Y-axis and the Z-axis direction, rx, ry and rz are obtained.

【数4】 (数4)で求められる比は、図9に示すように、手話単
語辞書6のデータを入力した人の頭頂911、右肩91
2、左肩913、へそ914、手の位置915で作られ
る四角形931、932と、認識用の手話を入力した人
の頭頂921、右肩922、左肩923、へそ924、
手の位置925で作られる四角形941、942の各辺
の長さの比である。この式(数4)では、認識用の手話
を入力している人と、手話単語辞書6のデータを入力し
た人の体の大きさのX軸、Y軸、Z軸方向の大きさの比
を表している。手話単語辞書6のデータと新しく入力さ
れた認識用の手話データの手の位置の各座標軸における
大きさの比は、(数4)で表される比と同じであるの
で、(数5)によって正規化を行うことにより、体格に
よるデータの変化を吸収したデータ(X3、Y3、Z
3)を得ることができる。
[Equation 4] The ratio obtained by (Equation 4) is, as shown in FIG. 9, the top 911 and the right shoulder 91 of the person who inputs the data of the sign language word dictionary 6.
2, squares 931 and 932 formed by the left shoulder 913, the navel 914, and the hand position 915, and the crown 921, the right shoulder 922, the left shoulder 923, and the navel 924 of the person who has input the sign language for recognition.
It is the ratio of the lengths of the sides of the squares 941 and 942 made at the hand position 925. In this formula (Equation 4), the ratio of the body size of the person who inputs the sign language for recognition to the body size of the person who inputs the data of the sign language word dictionary 6 in the X-axis, Y-axis, and Z-axis directions. Is represented. Since the ratio of the size of the hand position on each coordinate axis of the data of the sign language word dictionary 6 and the newly input sign language data for recognition is the same as the ratio represented by (Formula 4), Data (X3, Y3, Z) that absorbs changes in data due to physique by performing normalization
3) can be obtained.

【数5】 [Equation 5]

【0014】図10は、方向の正規化を省略できる磁界
発生装置の取り付け位置を示す図である。図5〜図9に
述べた変換により得られた手話データが、正規化の行な
われたデータとして手話の認識に使用される。手話単語
辞書6の手話データについても、あらかじめ同じような
変換を行なっておくことにより、体格や手話を行なう位
置、方向に依存しない認識を行なうことができるように
なる。また、良く知られている手袋による手話入力装置
では、位置および方向の検出は、磁界を発生する装置を
任意の場所に設置し、その磁界を手袋につけたセンサー
で検出することによって行なっている。そのため、磁界
を発生する装置を、図10のように手話を行なう人の身
体上101、あるいは手話を行なうために座る椅子10
2に設置することにより、センサーと磁界の発生装置と
の関係は手話を行なう向きとは無関係となる。すなわ
ち、通常は、原点以外の位置に磁界発生装置を置いて検
出器でこれを検出するのであるが、図10では、原点に
磁界発生装置を配置するので、原点に対する座標変換
(正規化)を行う必要がなくなる。これによって、手話
を行なう方向による正規化、すなわち、(数3)による
正規化を省略することができるようになる。さらに、磁
界を発生する装置を手話を行なう人の頭頂やへそのよう
に、体格を規定する基準となる部分に設置した場合に
は、その位置を原点として体格による正規化を行なうこ
とができるため、(数1)による位置の正規化を行なう
必要がなくなる。
FIG. 10 is a view showing the mounting position of the magnetic field generator in which the normalization of the direction can be omitted. The sign language data obtained by the conversion described in FIGS. 5 to 9 is used for the recognition of the sign language as the normalized data. By performing similar conversion on the sign language data of the sign language word dictionary 6 in advance, it is possible to perform recognition that does not depend on the physique, the position where the sign language is performed, and the direction. Further, in the well-known sign language input device using gloves, the position and direction are detected by installing a device for generating a magnetic field at an arbitrary place and detecting the magnetic field by a sensor attached to the glove. Therefore, a device for generating a magnetic field is installed on the body 101 of a person who performs sign language as shown in FIG. 10, or a chair 10 for sitting for sign language.
When installed in No. 2, the relationship between the sensor and the magnetic field generator is independent of the direction of sign language. That is, normally, the magnetic field generator is placed at a position other than the origin and this is detected by the detector. However, in FIG. 10, since the magnetic field generator is arranged at the origin, coordinate conversion (normalization) with respect to the origin is performed. There is no need to do it. This makes it possible to omit the normalization according to the direction of sign language, that is, the normalization by (Equation 3). Furthermore, if the device that generates the magnetic field is installed at the top of the sign or the navel of a person who performs sign language, such as the reference point that defines the physique, the position can be used as the origin for normalization by the physique. , (Equation 1), there is no need to normalize the position.

【0015】(数1)から(数5)によって正規化され
た手話データは、次に図1に示す境界検出装置3および
手話データ記憶装置4に入力される。境界検出装置3の
動作を、図11から図13を用いて説明する。図11
は、ホームポジションとその検出範囲の関係を示す図で
ある。境界検出装置3では、手話文を構成する手話単語
の境界の時刻を検出する。手話の入力の際に、手話単語
の境界では必ず手の位置が特定の場所すなわちホームポ
ジションに戻るというよう決められている場合、境界検
出装置3は常に入力されてくる手話データの各時刻にお
ける手の位置をチェックする。そして、入力されてきた
手の位置がホームポジションからある範囲内に、ある時
間連続して存在している場合のみ手話単語境界であると
認識する。ホームポジションの座標を(x0、y0、z
0)、ある時刻tの手話データの位置座標を(x
(t)、y(t)、z(t))、ホームポジションであ
ると判断する範囲をTHpとすると、
The sign language data normalized by (Equation 1) to (Equation 5) is then input to the boundary detection device 3 and the sign language data storage device 4 shown in FIG. The operation of the boundary detection device 3 will be described with reference to FIGS. 11 to 13. Figure 11
FIG. 6 is a diagram showing a relationship between a home position and its detection range. The boundary detection device 3 detects the time at the boundary of the sign language words forming the sign language sentence. When inputting sign language, if it is determined that the position of the hand always returns to a specific position, that is, the home position at the boundary of the sign language words, the boundary detection device 3 always detects the sign language data of the input sign language data at each time. Check the position of. Then, only when the input hand position exists within a certain range from the home position for a certain period of time, it is recognized as the sign language word boundary. Set the home position coordinates to (x0, y0, z
0), the position coordinate of the sign language data at a certain time t is (x
(T), y (t), z (t)), and letting THp be the range in which the home position is determined,

【数6】 となる時刻が、ある時間Ttだけ連続した場合を手話単
語境界として検出する。すなわち、図11において、ホ
ームポジション111を中心とした半径THpの球11
2に位置座標が含まれた場合を検出する。そして、手話
単語境界を検出した時刻を、境界検出信号d2として手
話データ記憶部4に送る。
[Equation 6] The case where the following time continues for a certain time Tt is detected as a sign language word boundary. That is, in FIG. 11, the sphere 11 centered on the home position 111 and having a radius THp
The case where 2 includes the position coordinates is detected. Then, the time when the sign language word boundary is detected is sent to the sign language data storage unit 4 as a boundary detection signal d2.

【0016】図12は、身体に手話単語境界検出用スイ
ッチを取り付けた場合の取り付け位置を示す図である。
境界検出のパラメータとして、手の位置のみでなく、特
定の手の方向や特定の手の形状を用いることもできる。
この場合の検出方法は、全く同じように、データグロー
ブにより入力されたデータを手話単語境界検出装置で検
出することにより、行なうことができる。また、手話を
行なう際に、手話単語の境界で必ず手が停止するという
ように決めることもできる。この場合は、手話データの
各時刻における速度を計算し、速度がある値以下の時刻
が、ある時間連続した場合を境界として認識するように
すればよい。すなわち、ある時刻tの手話データの位置
座標を(x(t)、y(t)、z(t))、速度の閾値
をTHvとすれば、
FIG. 12 is a view showing a mounting position when the sign language word boundary detecting switch is mounted on the body.
As a parameter for boundary detection, not only the position of the hand but also the direction of the specific hand or the shape of the specific hand can be used.
The detection method in this case can be performed by detecting the data input by the data grove with the sign language word boundary detection device in the same manner. In addition, when sign language is performed, it can be decided that the hand always stops at the boundary of the sign language words. In this case, the velocity of the sign language data at each time may be calculated, and the case where the velocity is equal to or less than a certain value continues for a certain time may be recognized as a boundary. That is, if the position coordinates of the sign language data at a certain time t are (x (t), y (t), z (t)) and the speed threshold is THv,

【数7】 となる時刻がある時間Tvだけ連続した場合を手話単語
境界として検出すればよい。また、手の位置だけでな
く、手の方向、手の形状についても同様に速度を求め、
これを利用してもよい。さらに、境界検出装置3とし
て、図12に示すように、足に取りつけたスイッチ12
1や首に取りつけたスイッチ122を用いて、これらの
スイッチからの入力を検出信号とすることによって、手
話単語の境界の検出を行なうことも可能である。スイッ
チを取りつける位置は、手話の表現に関係なく動かせる
場所であればどこでも良い。図12の左側では、手話を
行なっている人が足でスイッチ121を踏むことによ
り、手話単語の境界を検出している。また、図12の右
側では、首の横にスイッチ122を取り付けておくこと
により、手話を行なっている人が首を横にすることによ
り、手話単語の境界を検出している。
[Equation 7] It is only necessary to detect the case where the following time continues for a certain time Tv as a sign language word boundary. In addition, not only the position of the hand, but also the direction and shape of the hand, the speed is calculated in the same way.
You may use this. Further, as the boundary detection device 3, as shown in FIG. 12, the switch 12 attached to the foot is used.
It is also possible to detect the boundaries of the sign language words by using the switches 122 attached to 1 or the neck and inputting these switches as detection signals. The position where the switch is attached may be anywhere as long as it can be moved regardless of the sign language expression. In the left side of FIG. 12, the sign language person detects the boundary of the sign language words by stepping on the switch 121 with his / her foot. Further, on the right side of FIG. 12, the switch 122 is attached to the side of the neck so that the person who is performing the sign language detects the boundary of the sign language words by placing the side of the neck.

【0017】図13は、表情による手話単語境界の検出
を行なう場合の境界検出装置の構成を示す図である。図
13のように、境界検出装置3としてテレビカメラ13
1および顔画像認識装置132を用いて、手話単語境界
で特定の表情を行ない、これをテレビカメラ131から
入力した顔画像を認識装置132で認識することによっ
て、手話単語の境界の検出を行なうこともできる。顔画
像認識装置132における表情認識方法としては、既に
ある技術(例えば、前述の特願平4−247285号明
細書および図面)を用いればよい。手話単語の境界を検
出すると、境界検出装置3は検出信号d2を手話データ
記憶装置4に送る。手話データ記憶装置4では、正規化
装置2から送られてくる正規化された手話データを記憶
している。この時、検出信号d2が送られてくると、そ
れまで記憶していた手話データを手話認識装置5に送
る。これによって、手話データ記憶装置4は検出信号と
検出信号の間の手話データ、すなわち手話単語毎のデー
タを記憶し、それを手話認識装置5に送ることになる。
手話認識装置5では、手話データ記憶装置4から入力さ
れてくる手話単語毎の手話データと手話単語辞書6に格
納されている手話単語データを用いて、入力された手話
がどのような手話であるかを認識する。手話を認識する
方法としては、既にある技術(例えば、特願平4−23
5633号明細書および図面)を用いれば良い。手話を
認識した結果は、出力装置7に送られ、文字や音声とし
て出力される。
FIG. 13 is a diagram showing a structure of a boundary detection device for detecting a sign language word boundary by a facial expression. As shown in FIG. 13, the television camera 13 is used as the boundary detection device 3.
1 and the face image recognition device 132 are used to perform a specific facial expression at the sign language word boundary, and the recognition device 132 recognizes the face image input from the television camera 131 to detect the boundary of the sign language words. You can also As a facial expression recognition method in the face image recognition device 132, an existing technique (for example, the above-mentioned Japanese Patent Application No. 4-247285 and drawings) may be used. When the boundary of the sign language words is detected, the boundary detection device 3 sends the detection signal d2 to the sign language data storage device 4. The sign language data storage device 4 stores the normalized sign language data sent from the normalization device 2. At this time, when the detection signal d2 is sent, the sign language data stored until then is sent to the sign language recognition device 5. As a result, the sign language data storage device 4 stores the sign language data between the detection signals, that is, the data for each sign language word, and sends it to the sign language recognition device 5.
The sign language recognition device 5 uses the sign language data for each sign language word input from the sign language data storage device 4 and the sign language word data stored in the sign language word dictionary 6 to determine what sign language the input sign language is. Recognize As a method for recognizing sign language, there is an existing technique (for example, Japanese Patent Application No. 4-23
No. 5633 specification and drawings) may be used. The result of recognizing the sign language is sent to the output device 7 and is output as characters or voice.

【0018】上記の実施例では、手話文を構成する手話
単語間の境界しか検出していなかったが、これに加え
て、手話文の始点・終点の検出も同様な方法を用いて行
なうことができる。すなわち、手話文の始点・終点でも
特定の位置や方向、形状による動作を行なうか、手の動
きを止めるか(図11参照)、身体に取り付けられたス
イッチで入力するか(図12参照)、あるいは、特定の
表情を行なうようにすればよい(図13参照)。特定の
位置や方向、形状を用いる場合や、特定の表情を用いる
場合は、手話単語の境界検出用の位置、方向、形状ある
いは表情と異なる位置、方向、形状あるいは表情を行な
うことにすれば、それぞれに対応した異なる検出信号を
使用して、手話単語境界や手話文の始点・終点の検出を
行なうことができる。また、手話単語の境界検出と手話
文の始点・終点の検出を同じ位置、方向、形状あるいは
表情で行なう場合や、動きを止めることによって行なう
場合、スイッチによる入力によって行なう場合は、入力
信号は同じになるため、検出信号の継続する時間を用い
ればよい。すなわち、手話単語境界の検出のための継続
時間の閾値をTHw、手話文の始点・終点の検出のため
の継続時間の閾値をTHs、検出信号の継続時間をtと
すれば、(数8)のような条件で、手話単語の境界およ
び手話文の始点・終点を検出することができる。
In the above embodiment, only the boundaries between the sign language words forming the sign language sentence are detected, but in addition to this, the start and end points of the sign language sentence can be detected using the same method. it can. That is, whether to perform a motion according to a specific position, direction, or shape at the start point / end point of the sign language sentence, stop the movement of the hand (see FIG. 11), or input with a switch attached to the body (see FIG. 12). Alternatively, a specific facial expression may be performed (see FIG. 13). When a specific position, direction, or shape is used, or when a specific facial expression is used, if a position, direction, shape, or facial expression different from the position, direction, shape, or facial expression for boundary detection of sign language words is used, It is possible to detect a sign language word boundary and a start point / end point of a sign language sentence by using different detection signals corresponding to each. The same input signal is used when detecting the boundaries of sign language words and detecting the start and end points of a sign language sentence at the same position, direction, shape, or facial expression, when stopping motion, or when inputting with a switch. Therefore, the duration of the detection signal may be used. That is, if THw is the threshold value of the duration time for detecting the sign language word boundary, THs is the threshold value of the duration time for detecting the start point / end point of the sign language sentence, and t is the duration time of the detection signal, then (Equation 8) Under such conditions, the boundaries of the sign language words and the start and end points of the sign language sentence can be detected.

【数8】 これにより、精度良く手話文の認識を行なうことができ
るようになる。
[Equation 8] As a result, it is possible to accurately recognize the sign language sentence.

【0019】[0019]

【発明の効果】以上説明したように、本発明によれば、
認識を行なう前に、手話文を手話単語に分割できるの
で、手話単語境界による誤認識を低減することができ、
精度良く手話文の認識を行うことが可能になる。また、
手話の入力を行なう前に手話データを正規化することに
よって、手話を行なう人の体格や、手話を行なう姿勢に
よる手話データの変化を吸収することができるので、特
定の人によらずに、精度のよい認識を行なうことが可能
になる。
As described above, according to the present invention,
Before recognizing, sign language sentences can be divided into sign language words, which can reduce false recognition due to sign language word boundaries.
It is possible to accurately recognize the sign language sentence. Also,
By normalizing the sign language data before inputting the sign language, it is possible to absorb changes in the sign language data due to the physique of the person who performs the sign language and the posture in which the sign language is used. It becomes possible to make a good recognition of.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例を示す手話通訳装置の全体構
成を示す図である。
FIG. 1 is a diagram showing an overall configuration of a sign language interpreting apparatus showing an embodiment of the present invention.

【図2】本発明における手話データの構造を示す図であ
る。
FIG. 2 is a diagram showing a structure of sign language data in the present invention.

【図3】図1における手話単語辞書に格納されているデ
ータの構造を示す図である。
FIG. 3 is a diagram showing a structure of data stored in a sign language word dictionary in FIG.

【図4】位置および体格の正規化を行なうために入力す
る基準点を示す図である。
FIG. 4 is a diagram showing reference points input for normalizing a position and a physique.

【図5】位置の正規化による座標系の変換を示す図であ
る。
FIG. 5 is a diagram showing conversion of a coordinate system by position normalization.

【図6】手の方向を表すベクトルを示す図である。FIG. 6 is a diagram showing a vector representing a direction of a hand.

【図7】手を体の正面で合わせた場合の手の方向と座標
系との関係を示す図である。
FIG. 7 is a diagram showing the relationship between the direction of the hand and the coordinate system when the hand is placed in front of the body.

【図8】体の方向と座標系との関係を示す図である。FIG. 8 is a diagram showing a relationship between a body direction and a coordinate system.

【図9】体格の正規化によるデータの伸縮を示す図であ
る。
FIG. 9 is a diagram showing expansion / contraction of data by normalization of physique.

【図10】方向の正規化を省略できる磁界発生装置の取
り付け位置を示す図である。
FIG. 10 is a diagram showing a mounting position of a magnetic field generator in which direction normalization can be omitted.

【図11】ホームポジションとその検出範囲の関係を示
す図である。
FIG. 11 is a diagram showing a relationship between a home position and its detection range.

【図12】身体に手話単語境界検出用のスイッチを取り
付ける場合の取り付け例を示す図である。
FIG. 12 is a diagram showing an example of attachment when a switch for sign language word boundary detection is attached to the body.

【図13】表情による手話単語境界の検出を行なう場合
の境界検出装置の構成を示す図である。
FIG. 13 is a diagram showing a configuration of a boundary detection device when detecting a sign language word boundary by a facial expression.

【符号の説明】[Explanation of symbols]

1 手話入力装置、2 正規化装置、3 境界検出装
置、4 手話データ記憶装置、5 手話認識装置、6
手話単語辞書、7 出力装置、41 頭頂、42 右
肩、43 左肩、44 へそ、45 伸ばしたときの手
の位置、61 掌に垂直な方向のベクトル、62 掌の
指先方向のベクトル、63 掌の側面方向のベクトル、
71 掌の指先方向、72 掌の側面方向、101 身
体上、102 椅子、111 ホームポジション、11
2 球、121,122 スイッチ、131 テレビカ
メラ、132 顔画像認識装置。
1 Sign Language Input Device, 2 Normalization Device, 3 Boundary Detection Device, 4 Sign Language Data Storage Device, 5 Sign Language Recognition Device, 6
Sign language dictionary, 7 output device, 41 crown, 42 right shoulder, 43 left shoulder, 44 navel, 45 hand position when extended, 61 vector perpendicular to palm, 62 palm fingertip direction vector, 63 palm Lateral direction vector,
71 palm direction, 72 palm lateral direction, 101 body position, 102 chair, 111 home position, 11
2 balls, 121, 122 switch, 131 TV camera, 132 Face image recognition device.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 大木 優 東京都国分寺市東恋ケ窪1丁目280番地 株式会社日立製作所中央研究所内 (72)発明者 大平 栄二 東京都国分寺市東恋ケ窪1丁目280番地 株式会社日立製作所中央研究所内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Yu Oki 1-280, Higashi Koikeku, Kokubunji, Tokyo, Central Research Laboratory, Hitachi, Ltd. (72) Eiji Ohira 1-280, Higashi Koikeku, Kokubunji, Tokyo Hitachi, Ltd. Central Research Center

Claims (16)

【特許請求の範囲】[Claims] 【請求項1】手話の手の位置等を電気信号に変換した手
話データを入力する手話入力手段と、入力された手話デ
ータから手話単語を認識する手話認識手段と、手話単語
の認識結果を出力する出力手段と、手話文を構成する手
話単語の境界を検出する境界検出手段とを有することを
特徴とする手話通訳装置。
1. A sign language input means for inputting sign language data obtained by converting the position of a hand in sign language into an electric signal, a sign language recognition means for recognizing a sign language word from the input sign language data, and a recognition result of the sign language word. A sign language interpreting device, comprising: an output unit for outputting the boundary and a boundary detecting unit for detecting a boundary between the sign language words forming the sign language sentence.
【請求項2】請求項1に記載の手話通訳装置において、
前記境界検出手段は、あらかじめ定めた手の位置、方
向、形状、手振りのいずれか、ないしそれらの組合せを
設定しておき、手話文を構成する全ての手話単語の境界
において必ず設定した上記手の位置、方向、形状、ある
いは手振りを行なうことにより、手話単語の境界を検出
することを特徴とする手話通訳装置。
2. The sign language interpreting device according to claim 1,
The boundary detection means sets a predetermined position, direction, shape, or gesture of the hand, or a combination thereof, and the hand that is always set at the boundary of all the sign language words forming the sign language sentence. A sign language interpreter characterized by detecting the boundaries of sign language words by performing position, direction, shape, or gesture.
【請求項3】請求項1に記載の手話通訳装置において、
前記境界検出手段は、手話単語の境界で必ず手の動きを
停止し、所定の時間だけ手の動きの停止を検出すること
により、手話単語の境界を検出することを特徴とする手
話通訳装置。
3. The sign language interpreter according to claim 1,
The sign language interpreting device, wherein the boundary detection means detects the boundary of the sign language word by detecting the boundary of the sign language word without stopping the motion of the hand and detecting the stop of the motion of the hand for a predetermined time.
【請求項4】請求項1に記載の手話通訳装置において、
前記境界検出手段は、手話を行う人の身体ないし手話を
行う人の近辺の床にスイッチを設置しておき、手話を行
う人が手話単語の境界と判断した時点で、設置したスイ
ッチを用いて信号を送ることによって手話単語の境界を
検出することを特徴とする手話通訳装置。
4. The sign language interpreter according to claim 1,
The boundary detecting means has a switch installed on the floor of the body of the person who performs sign language or on the floor near the person who performs sign language, and when the person who performs the sign language determines that it is the boundary of the sign language words, the switch that is installed is used. A sign language interpreter characterized by detecting the boundaries of a sign language word by sending a signal.
【請求項5】請求項1に記載の手話通訳装置において、
前記境界検出手段は、手話を行う人が手話単語の境界と
判断した時点であらかじめ定めた表情を行ない、その表
情を検出することにより手話単語の境界を検出すること
を特徴とする手話通訳装置。
5. The sign language interpreter according to claim 1,
The sign language interpreting device, wherein the boundary detecting means performs a predetermined facial expression when the person who performs the sign language determines the boundary of the sign language word, and detects the boundary of the sign language word by detecting the facial expression.
【請求項6】手話の手の位置等を電気信号に変換した手
話データを入力する手話入力手段と、入力された手話デ
ータから手話単語を認識する手話認識手段と、手話単語
の認識結果を出力する出力手段と、手話文の始点および
終点を検出する手話文境界検出手段を有することを特徴
とする手話通訳装置。
6. A sign language input means for inputting sign language data obtained by converting the position of a hand of sign language into an electric signal, a sign language recognition means for recognizing a sign language word from the input sign language data, and a recognition result of the sign language word. And a sign language sentence boundary detection means for detecting the start point and the end point of the sign language sentence.
【請求項7】請求項6に記載の手話通訳装置において、
前記手話文境界検出手段は、あらかじめ定めた手の位
置、方向、形状、手振りのいずれか、またはそれらの組
合せを設定しておき、手話文の始点および終点において
必ず設定した手の位置、方向、形状、あるいは手振りを
行なうことによって、手話文の始点および終点を検出す
ることを特徴とする手話通訳装置。
7. The sign language interpreting device according to claim 6,
The sign language sentence boundary detection means sets a predetermined hand position, direction, shape, or gesture, or a combination thereof, and the hand position and direction that are always set at the start point and the end point of the sign language sentence, A sign language interpreting device, which detects a start point and an end point of a sign language sentence by performing a shape or a gesture.
【請求項8】請求項6に記載の手話通訳装置において、
前記手話文境界検出手段は、手話文の始点および終点で
必ず手の動きを停止し、あらかじめ定めた時間だけ手の
動きの停止を検出することにより、手話文の始点および
終点を検出することを特徴とする手話通訳装置。
8. The sign language interpreter according to claim 6,
The sign language sentence boundary detection means detects the start point and the end point of the sign language sentence by always stopping the hand movement at the start point and the end point of the sign language sentence and detecting the stop of the hand movement for a predetermined time. A featured sign language interpreter.
【請求項9】請求項6に記載の手話通訳装置において、
前記手話文境界検出手段は、手話を行う人の身体ないし
手話を行う人の近辺の床にスイッチを設置しておき、手
話を行う人が手話文の始点および終点と判断した時点
で、設置したスイッチを用いて信号を送ることによって
手話文の始点および終点を検出することを特徴とする手
話通訳装置。
9. The sign language interpreter according to claim 6,
The sign language sentence boundary detection means has a switch installed on the body of the person who performs the sign language or on the floor near the person who performs the sign language, and is installed when the person who performs the sign language determines the start point and the end point of the sign language sentence. A sign language interpreting device, which detects a start point and an end point of a sign language sentence by sending a signal using a switch.
【請求項10】請求項6に記載の手話通訳装置におい
て、前記手話文境界検出手段は、手話を行う人が手話文
の始点および終点と判断した時点であらかじめ定めた表
情を行ない、その表情を検出することにより手話文の始
点および終点を検出することを特徴とする手話通訳装
置。
10. The sign language interpreting apparatus according to claim 6, wherein the sign language sentence boundary detecting means performs a predetermined facial expression at the time when the person who performs the sign language determines the start point and the end point of the sign language sentence, and displays the facial expression. A sign language interpreter characterized by detecting the start and end points of a sign language sentence.
【請求項11】手話の手の位置等を電気信号に変換した
手話データを入力する手話入力手段と、手話を行う人の
体格によるデータの変化を吸収するため、入力した手話
データを正規化する正規化手段と、入力された手話デー
タから手話単語を認識する手話認識手段と、手話単語の
認識結果を出力する出力手段とを有することを特徴とす
る手話通訳装置。
11. A sign language input means for inputting sign language data obtained by converting the position of a hand in sign language into an electric signal, and normalizing the input sign language data in order to absorb changes in the data due to the physique of the person who performs the sign language. A sign language interpreting device comprising: a normalization means, a sign language recognition means for recognizing a sign language word from input sign language data, and an output means for outputting a recognition result of the sign language word.
【請求項12】請求項11に記載の手話通訳装置におい
て、前記正規化手段は、あらかじめ基準となる少数の位
置を入力することによって、手話を行う人の体の大きさ
や手話を行なう位置による手話データの差を正規化する
ことを特徴とする手話通訳装置。
12. The sign language interpreting apparatus according to claim 11, wherein the normalizing means inputs a small number of positions as a reference in advance, so that the sign language depends on the body size of the person performing the sign language or the position where the sign language is performed. A sign language interpreter characterized by normalizing data differences.
【請求項13】請求項12に記載の手話通訳装置におい
て、前記正規化手段は、頭の位置、左右の肩の位置、腰
の位置、へその位置、腕をまっすぐ前方に伸ばした時の
手の位置を入力することにより、手話を行う人の体の大
きさや手話を行なう位置による手話データの差を正規化
することを特徴とする手話通訳装置。
13. The sign language interpreting apparatus according to claim 12, wherein the normalizing means includes a head position, left and right shoulder positions, waist positions, navel positions, and hands when the arm is straightened forward. A sign language interpreting device characterized by normalizing the difference in the sign language data depending on the size of the body of the person performing the sign language or the position where the sign language is performed by inputting the position.
【請求項14】請求項11に記載の手話通訳装置におい
て、前記正規化手段は、あらかじめ基準となる手の方向
を入力することにより、手話を行なう方向による手話デ
ータの差を正規化することを特徴とする手話通訳装置。
14. The sign language interpreting apparatus according to claim 11, wherein the normalizing means normalizes a difference between the sign language data depending on the direction in which the sign language is performed by inputting a reference hand direction in advance. A featured sign language interpreter.
【請求項15】請求項14に記載の手話通訳装置におい
て、前記正規化手段は、体の正面で両手を合わせた時の
手の方向から、手話を行なう方向による手話データの差
を正規化することを特徴とする手話通訳装置。
15. The sign language interpreting apparatus according to claim 14, wherein the normalizing means normalizes the difference in the sign language data depending on the direction in which the sign language is performed, from the direction of the hands when both hands are brought together in front of the body. A sign language interpreter characterized by the above.
【請求項16】請求項11に記載の手話通訳装置におい
て、前記正規化手段は、位置や向きを検出する手段を手
話を行なう人の身体あるいは手話を行なうために座る椅
子に設置することにより、手話を行なう位置や方向によ
る手話データの差を正規化することを特徴とする手話通
訳装置。
16. The sign language interpreting apparatus according to claim 11, wherein the normalizing means installs a means for detecting a position and a direction on a body of a person who performs sign language or a chair which is sitting for performing sign language. A sign language interpreter characterized by normalizing the difference in sign language data depending on the position and direction of sign language.
JP10109794A 1994-05-16 1994-05-16 Sign language interpreter Expired - Lifetime JP3669515B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10109794A JP3669515B2 (en) 1994-05-16 1994-05-16 Sign language interpreter

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10109794A JP3669515B2 (en) 1994-05-16 1994-05-16 Sign language interpreter

Publications (2)

Publication Number Publication Date
JPH07311545A true JPH07311545A (en) 1995-11-28
JP3669515B2 JP3669515B2 (en) 2005-07-06

Family

ID=14291598

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10109794A Expired - Lifetime JP3669515B2 (en) 1994-05-16 1994-05-16 Sign language interpreter

Country Status (1)

Country Link
JP (1) JP3669515B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09198164A (en) * 1996-01-16 1997-07-31 M S A:Kk Wearing computer
US5990878A (en) * 1995-05-18 1999-11-23 Hitachi, Ltd. Sign language editing apparatus
JP2000284682A (en) * 1999-03-30 2000-10-13 Hitachi Ltd Method and device for recognizing dactylology
JP2003295754A (en) * 2002-04-05 2003-10-15 Hitachi Ltd Sign language teaching system and program for realizing the system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04156610A (en) * 1990-10-19 1992-05-29 Fujitsu Ltd Automatic recognition device for man action using neural network
JPH04222014A (en) * 1990-12-25 1992-08-12 Nippon Telegr & Teleph Corp <Ntt> Automatic finger talking translating device using neural network and its translating method
JPH06337629A (en) * 1993-05-31 1994-12-06 Hitachi Ltd Sign language recognizing device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04156610A (en) * 1990-10-19 1992-05-29 Fujitsu Ltd Automatic recognition device for man action using neural network
JPH04222014A (en) * 1990-12-25 1992-08-12 Nippon Telegr & Teleph Corp <Ntt> Automatic finger talking translating device using neural network and its translating method
JPH06337629A (en) * 1993-05-31 1994-12-06 Hitachi Ltd Sign language recognizing device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5990878A (en) * 1995-05-18 1999-11-23 Hitachi, Ltd. Sign language editing apparatus
JPH09198164A (en) * 1996-01-16 1997-07-31 M S A:Kk Wearing computer
JP2000284682A (en) * 1999-03-30 2000-10-13 Hitachi Ltd Method and device for recognizing dactylology
JP2003295754A (en) * 2002-04-05 2003-10-15 Hitachi Ltd Sign language teaching system and program for realizing the system

Also Published As

Publication number Publication date
JP3669515B2 (en) 2005-07-06

Similar Documents

Publication Publication Date Title
US11707336B2 (en) Method and system for hand tracking in a robotic system
US7565295B1 (en) Method and apparatus for translating hand gestures
US10446059B2 (en) Hand motion interpretation and communication apparatus
US5751260A (en) Sensory integrated data interface
US20100023314A1 (en) ASL Glove with 3-Axis Accelerometers
Starner et al. A wearable computer based american sign language recognizer
Hsu et al. An inertial pen with dynamic time warping recognizer for handwriting and gesture recognition
EP0666544B1 (en) Gesture input method and apparatus
Pavlovic et al. Visual interpretation of hand gestures for human-computer interaction: A review
Davis et al. Recognizing hand gestures
US20080036737A1 (en) Arm Skeleton for Capturing Arm Position and Movement
US8010911B2 (en) Command input method using motion recognition device
TWI457793B (en) Real-time motion recognition method and inertia sensing and trajectory
US20110234384A1 (en) Apparatus for instantaneous translation of sign language
EP3092968A2 (en) System for hand presence detection in a minimally invasive surgical system
KR20070060580A (en) Apparatus and method for handwriting recognition using acceleration sensor
Masood et al. Dynamic time wrapping based gesture recognition
Matsuo et al. The recognition algorithm with non-contact for Japanese sign language using morphological analysis
JP2000187553A (en) Input device and head mount display for input device
JPH07311545A (en) Finger language interpretation device
JP2002006874A (en) Voice processor, moving picture processor, voice and moving picture processor, and recording medium with voice and moving picture processing program recorded
Blumrosen et al. Back to finger-writing: Fingertip writing technology based on pressure sensing
Sagawa et al. Pattern recognition and synthesis for a sign language translation system
Pradhan et al. Hand-gesture computing for the hearing and speech impaired
KR20150075481A (en) Method and System for providing user interaction interface using hand posture recognition

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040618

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041228

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050325

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050407

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090422

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090422

Year of fee payment: 4

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090422

Year of fee payment: 4

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090422

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100422

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100422

Year of fee payment: 5

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100422

Year of fee payment: 5

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term