JPH06230716A - Device and method for finger language translation - Google Patents

Device and method for finger language translation

Info

Publication number
JPH06230716A
JPH06230716A JP5015234A JP1523493A JPH06230716A JP H06230716 A JPH06230716 A JP H06230716A JP 5015234 A JP5015234 A JP 5015234A JP 1523493 A JP1523493 A JP 1523493A JP H06230716 A JPH06230716 A JP H06230716A
Authority
JP
Japan
Prior art keywords
sentence
sign language
person
hearing
language
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5015234A
Other languages
Japanese (ja)
Other versions
JP3345070B2 (en
Inventor
Eiji Ohira
栄二 大平
Masahiro Abe
正博 阿部
Asako Sakiyama
朝子 崎山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP01523493A priority Critical patent/JP3345070B2/en
Publication of JPH06230716A publication Critical patent/JPH06230716A/en
Application granted granted Critical
Publication of JP3345070B2 publication Critical patent/JP3345070B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To provide a finger language translation device by which a dialogue between an aurally handicapped person and an aurally healthy person can be quickly and accurately performed without performing the interpret processing of finger language, and the aurally healthy person can learn the finger language by the dialogue. CONSTITUTION:A response text prediction part 15 estimates a response text by the aurally handicapped person for the input of the analysis result of the input of the natural language of the aurally healthy person from the result, and provides a result of conversion to the finger language by a finger language conversion part 14 to both the aurally healthy person and the aurally handicapped person with an input text. A simplified input part 16 performs the display of an image by which a routine text can be associated and that of the routine text for a position designated on the image.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、コミュニケーション手
段として主に手話を用いる聴覚障害者と自然言語を用い
る健聴者との間の通訳を行なう手話通訳装置および方法
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a sign language interpreter and method for interpreting between a deaf person who mainly uses sign language as a communication means and a normal hearing person who uses natural language.

【0002】[0002]

【従来の技術】聴覚障害者と健聴者との通訳は、聴覚障
害者から健聴者への通訳と、健聴者から聴覚障害者への
通訳の双方の通訳が必要である。従来、前者は、カメラ
などで撮られた聴覚障害者の手話動作を認識することに
より、例えば、特開平2−144675号に記載のよう
に、聴覚障害者から健聴者への通訳を行なっている。ま
た、後者は、音声やキーから入力される自然言語を認
識、解析することにより、健聴者から聴覚障害者への通
訳を行なっている。
2. Description of the Related Art Interpretation between a hearing-impaired person and a hearing-impaired person requires interpretation both from the hearing-impaired person to the hearing-impaired person and from the hearing-impaired person to the hearing-impaired person. Conventionally, the former recognizes a sign language motion of a hearing impaired person taken by a camera or the like, thereby interpreting from a hearing impaired person to a normal hearing person, as described in, for example, Japanese Patent Application Laid-Open No. 2-144675. . The latter interprets a natural language input from a voice or a key and analyzes the natural language to interpret from a hearing person to a hearing impaired person.

【0003】[0003]

【発明が解決しようとする課題】上記従来技術のうち、
まず、聴覚障害者から健聴者への通訳の際に用いる手話
の認識や、健聴者から聴覚障害者への通訳の際に用いる
音声の認識は、人によって表現方法が異なる(例えば方
言により)などの問題があり、十分な認識結果が得られ
ず、このため、十分な性能を持つ装置を実現できないと
いう問題があった。
Of the above-mentioned conventional techniques,
First, the recognition method of sign language used when interpreting from a hearing-impaired person to a hearing-impaired person, and the recognition of a speech used when interpreting from a hearing-impaired person to a hearing-impaired person differ depending on the person (for example, depending on the dialect). However, there is a problem that a sufficient recognition result cannot be obtained, and thus a device having sufficient performance cannot be realized.

【0004】このため、例えば、健聴者は曖昧性のない
キィで自然言語文を入力することが最も確実な入力手法
となるが、キィ・オペレーションを日常的に行なってい
る人を除いて、キィからの入力は非常に煩わしいという
問題がある。特に、日常良く使われる文をいちいちキィ
から入力することは非常に煩わしい。
For this reason, for example, the most reliable input method is for a hearing person to input a natural language sentence with unambiguous keys. However, except for those who perform key operations on a daily basis, There is a problem that input from is very troublesome. In particular, it is very annoying to enter sentences that are frequently used on a daily basis.

【0005】また、理想的には健聴者が手話を理解し、
手話で聴覚障害者とコミュニケーションできることが望
ましいが、従来技術では、手話の学習と手話によるコミ
ュニケーションは、それぞれ個別の装置で行う必要があ
り、手話通訳システム自身には健聴者が手話を学習でき
る機能を考慮していない。
Further, ideally, a hearing person understands sign language,
Although it is desirable to be able to communicate with a deaf person by sign language, in the conventional technology, sign language learning and sign language communication must be performed by separate devices, and the sign language interpreter system itself has a function that allows a hearing-impaired person to learn sign language. Do not consider.

【0006】本発明の目的は、聴覚障害者と健聴者との
対話を行なう手話通訳装置において、対話性を向上させ
ることにある。
An object of the present invention is to improve the interactivity of a sign language interpreting device for conducting a dialogue between a deaf person and a hearing person.

【0007】[0007]

【課題を解決するための手段】上記目的を達成するた
め、健聴者から入力される自然言語文を解析し、解析さ
れた結果を手話により表現される文に変換し、手話で表
現された文を健聴者と聴覚障害者の双方に表示すると共
に、入力文に対する1ないし複数の応答文を予測し、そ
の応答文をも自然言語、手話、アニメーション等の複数
の形態で健聴者と聴覚障害者双方に表示し、両者のうち
どちらかが表示された応答文のうちの1つを指定した場
合、他方にもその選択が確認できるようにする。
[Means for Solving the Problems] In order to achieve the above object, a natural language sentence input from a normal hearing person is analyzed, the analyzed result is converted into a sentence expressed in sign language, and the sentence expressed in sign language is converted. Is displayed to both a hearing-impaired person and a hearing-impaired person, and one or more response sentences to the input sentence are predicted, and the response sentence is also in a plurality of forms such as natural language, sign language, and animation. When one of the response sentences displayed on both sides and one of the two is designated, the selection can be confirmed on the other side.

【0008】対話の対象となる物(例えば人の体)を表
示し、表示された物(人の体)のどこか一部(例えば
頭)をマウス等で指定することにより、その箇所に関す
る、あるいはその指定位置から連想が可能である1ない
し複数の質問文(例えば、熱があるか)や属性の設定を
行なうための文を表示し、健聴者がマウス等により表示
された文の1つを選択することにより、その文を健聴者
からの入力文として処理する。
By displaying an object (for example, a human body) to be interacted with and designating some part (for example, a head) of the displayed object (human body) with a mouse or the like, Alternatively, one or more question sentences (for example, whether there is heat) that can be associated from the designated position or a sentence for setting attributes are displayed, and one of the sentences displayed by a hearing-impaired person with a mouse or the like. By selecting, the sentence is processed as an input sentence from a hearing person.

【0009】健聴者から入力された自然言語文の解析結
果を表示し、健聴者からある一定時間以内に解析結果が
正しいか否かの意思表示がない場合には、解析結果が正
しいとして処理を続行する。
The analysis result of the natural language sentence input by the normal hearing person is displayed, and if there is no intention from the normal hearing person whether the analysis result is correct or not, it is determined that the analysis result is correct. continue.

【0010】[0010]

【作用】まず、入力に対する応答文を表示することによ
り、聴覚障害者はその内の1つを答えることになるた
め、曖昧性のないコミュニケーションが実現できる。こ
こで、応答文に例えば「どれでもない」を入れておけ
ば、柔軟性を失うことなく実現可能である。また、入力
と応答文の翻訳結果が健聴者にも示されるため、聴覚障
害者が応答文のいずれかをマウス等で選択するのでな
く、仮に手話で応答しても、健聴者は手話表示された応
答文と対比することにより、理解することが可能であ
る。さらに、これを通して、手話を学習することができ
る。
First, by displaying the response sentence to the input, the hearing impaired person answers one of them, so that unambiguous communication can be realized. Here, for example, if "none" is included in the response sentence, it can be realized without losing flexibility. In addition, since the translation results of the input and the response sentence are also shown to the normal hearing person, even if the hearing impaired person does not select one of the response sentences with the mouse etc. It is possible to understand by comparing with the response sentence. In addition, sign language can be learned through this.

【0011】また、対話の対象となる物との連想で、良
く使われる入力文を取り出し、入力できるため、会話の
リズムを壊すことのない迅速な入力が可能となる。
Further, since frequently used input sentences can be taken out and inputted in association with the object to be interacted with, it is possible to perform prompt input without breaking the rhythm of conversation.

【0012】また、自然言語文の解析結果の確認に際し
て、結果が正しい場合には何もしなくて良いため、操作
の煩わしさが低減できる。
Further, when confirming the analysis result of the natural language sentence, if the result is correct, nothing needs to be done, so that the troublesome operation can be reduced.

【0013】[0013]

【実施例】以下、本発明の実施例を図1、2を用いて説
明する。
Embodiments of the present invention will be described below with reference to FIGS.

【0014】図1、2は、本発明の一実施例を示す手話
通訳装置の構成図である。図1のように、聴覚障害者と
健聴者は互いに、タッチパネル2、6、マウス3、7、
キィ4、8、およびディスプレイ5、9を用いて、手話
通訳処理部1を介して対話する。尚、図示していない
が、健聴者側に音声入力装置、音声出力装置を備えてお
き、手話通訳処理部1にて健聴者の音声を認識したり、
聴覚障害者からの情報を音声合成することにより聴覚障
害者とコミュニケーションを行なうことも考えられる。
また、聴覚障害者側にデータを入力する手袋やTVカメ
ラを備えておき、手話通訳処理部1にて聴覚障害者の手
話動作を認識することにより健聴者とコミュニケーショ
ンを行なうことも考えられる。
1 and 2 are block diagrams of a sign language interpreter showing an embodiment of the present invention. As shown in FIG. 1, the hearing-impaired person and the hearing-impaired person touch each other with the touch panels 2 and 6, the mice 3 and 7,
Using the keys 4 and 8 and the displays 5 and 9, dialogue is performed via the sign language interpreter processing unit 1. Although not shown in the figure, a sound input device and a sound output device are provided on the side of a normal hearing person so that the sign language interpretation processing unit 1 recognizes the sound of the normal hearing person.
It may be possible to communicate with the hearing impaired person by synthesizing information from the hearing impaired person.
It is also conceivable that the deaf person has a glove or a TV camera for inputting data, and the sign language interpreting processing unit 1 recognizes the sign language operation of the deaf person to communicate with a hearing person.

【0015】図2は、手話通訳処理部1の構成を示した
もので、タッチパネル2、6、マウス3、7、およびキ
ィ4、8などからの入力の受付や、ディスプレイ5、9
への表示はインタフェース部11において処理される。
FIG. 2 shows the configuration of the sign language interpreter processing unit 1, which accepts inputs from the touch panels 2 and 6, the mice 3 and 7, the keys 4 and 8, and the displays 5 and 9.
Is displayed on the interface unit 11.

【0016】図2において、健聴者から自然言語による
文がインタフェース部11を通して入力されると、自然
言語解析部12は文の解析を行ない、解析結果を解析結
果確認部13に送る。解析結果確認部13は、健聴者に
解析結果に対する確認を行ない、解析結果が承認される
と、その結果を出力する。手話変換部14は、入力の解
析結果を手話の言語へ変換し、その変換結果がインタフ
ェース部11を通して、ディスプレイ5、9に表示され
る。尚、応答文予測部15(質問−応答対応辞書15
1)、簡易入力部16等については後述する。
In FIG. 2, when a sentence in a natural language is input from a normal hearing person through the interface unit 11, the natural language analysis unit 12 analyzes the sentence and sends the analysis result to the analysis result confirmation unit 13. The analysis result confirmation unit 13 confirms the analysis result with a hearing person, and outputs the result when the analysis result is approved. The sign language conversion unit 14 converts the input analysis result into a sign language, and the conversion result is displayed on the displays 5 and 9 through the interface unit 11. The response sentence prediction unit 15 (question-response correspondence dictionary 15
1), the simple input unit 16 and the like will be described later.

【0017】自然言語解析部12は、従来の自然言語処
理技術で実現可能である。次に、解析結果確認部13
は、解析結果に応じて図3のような手順で解析結果の確
認を行なう。まず、ステップ1301では、文が一意に
解釈できたか否かを判定する。解釈が1つであった場合
には、ステップ1302で、その解釈が正しいかどうか
の問い合わせを行ない、ステップ1303で正しいとの
応答があった場合には、その解釈を出力し、終了する。
もし、間違いとの応答があった場合には、ステップ13
04で、再入力または入力の修正を要求する。ここで、
解釈の確認の応答において、ある一定時間以内に正否の
応答がなかった場合は、正しいとの応答であると判断す
る。
The natural language analysis unit 12 can be realized by a conventional natural language processing technique. Next, the analysis result confirmation unit 13
Confirms the analysis result in the procedure as shown in FIG. 3 according to the analysis result. First, in step 1301, it is determined whether the sentence could be uniquely interpreted. If there is only one interpretation, an inquiry is made as to whether the interpretation is correct in step 1302, and if a response that the interpretation is correct is given in step 1303, the interpretation is output and the processing ends.
If there is a response to the mistake, step 13
At 04, re-entry or correction of entry is requested. here,
In the response to the confirmation of the interpretation, if there is no right or wrong response within a certain period of time, it is determined to be correct.

【0018】次に、複数の解釈があった場合には、ステ
ップ1305で各解釈の信頼度を求める。例えば、「食
欲がありますか」の解釈としては、「食事はとれます
か」と「お腹が空いていますか」のどちらとも解釈でき
る。ここで、病院における診察の場合を想定すると、後
者の解釈は不自然であり、前者の解釈に比べて信頼度が
低くなる。ステップ1306では、飛び抜けて信頼度が
高い解釈があるかどうかを調べ、もし、あれば、ステッ
プ1307、1308で、その信頼度が高い解釈が正し
いかどうかの問い合わせを行なう。ここで、間違いとの
応答があった場合には、問い合わせをしなかった信頼度
の低かった残りの解釈の確認を行なう。ステップ130
9では、全ての解釈を提示し、意図した解釈を選択させ
る。もし、意図した解釈がなかった場合には(ステップ
1310)、ステップ1311で再入力を要求する。
Next, when there are a plurality of interpretations, the reliability of each interpretation is obtained in step 1305. For example, the interpretation of "Do you have a good appetite?" Can be interpreted as "Can you eat?" Or "Are you hungry?" Here, assuming the case of a medical examination in a hospital, the latter interpretation is unnatural, and the reliability is lower than the former interpretation. In step 1306, it is checked whether or not there is a highly reliable interpretation, and if there is, an inquiry is made in steps 1307 and 1308 as to whether or not the highly reliable interpretation is correct. Here, if there is a response to the error, the rest of the interpretation with low reliability that did not make an inquiry is confirmed. Step 130
At 9, all interpretations are presented and the intended interpretation is selected. If there is no intended interpretation (step 1310), re-input is requested in step 1311.

【0019】手話においては、例えば、「好き」も「〜
して欲しい」も、「好き」を表す手話の動作(以降これ
を手話単語と呼び、通常自然言語で定義されている単語
を音声単語と呼ぶことにする)で表現する。すなわち、
複数の音声単語が1つの手話単語で表現されることが多
い。また、逆に、音声単語では、字面が同じでも異なる
手話単語を使う必要があることもある。例えば、図4
は、図2の手話変換辞書141の例を示したものである
が、音声単語「ある」は、「食欲がある」の場合は、手
話単語の「大丈夫」に、「熱等がある」の場合は、手話
単語の「どうですか」にする必要がある。手話変換部1
4は、「食欲がある」が入力されると、手話変換辞書1
41に基づいて、「食べる(名詞)、大丈夫」の手話単
語列に変換する。そして、実際に各手話単語を表現する
ジェスチャの画像データ(あるいはアニメーション)を
手話データ142から検索し、インタフェース部11を
通して、ディスプレイ5、9に表示する。
In sign language, for example, "like" and "~"
"I want you to do" is also expressed by a sign language operation expressing "like" (hereinafter, this is called a sign language word, and a word normally defined in natural language is called a voice word). That is,
A plurality of voice words are often expressed by one sign language word. On the contrary, it may be necessary to use sign language words that have the same character face but different sign language words. For example, in FIG.
2 shows an example of the sign language conversion dictionary 141 of FIG. 2, but when the voice word “Aru” is “I have an appetite”, the sign language word “OK” has “Fever etc.” You need to use the sign language word "How are you?" Sign language converter 1
4 is a sign language conversion dictionary 1 when "I have an appetite" is input.
Based on 41, it is converted into a sign language word string of "eat (noun), okay". Then, the image data (or animation) of the gesture that actually expresses each sign language word is retrieved from the sign language data 142 and displayed on the displays 5 and 9 through the interface unit 11.

【0020】ここで、手話データ142には、例えば、
データを入力する手袋により採られた手話単語のジェス
チャの画像データ(例えば、指の各関節の位置データの
時間変化パタン)が、図5のように、その属性データを
伴って格納される。属性データとしては、データを検索
するための手話単語の見出しと品詞、データを採取した
ときの、始終点座標(X、Y、Z座標)、および表示さ
れる中心位置座標、後述する表示概要位置のいずれか1
つの概要位置に移動したときの表示される中心位置座
標、ならびにそのデータの方向性を示すフラグなどであ
る。
Here, in the sign language data 142, for example,
Image data of a gesture of a sign language word taken by a glove for inputting data (for example, a time change pattern of position data of each joint of a finger) is stored together with its attribute data as shown in FIG. As the attribute data, headline and part-of-speech of a sign language word for searching data, start and end point coordinates (X, Y, Z coordinates) when data is collected, and displayed center position coordinates, display summary position described later. One of
The center position coordinates displayed when moving to one of the outline positions and a flag indicating the directionality of the data are included.

【0021】ここで、中心位置座標とは、例えば、手話
単語「口」は、口のまわりを指でぐるぐると描く動作を
するが、この単語の中心位置座標は、口の真中の座標と
する。実際に、手話を生成する場合、手首や指の位置は
検出可能な実在するものであるが、この中心位置座標は
実在しない仮想の位置である。しかし、我々が、手話を
表現する場合、その大体の位置を把握するときに、この
中心位置が重要な役割を果たしている。このため、この
中心位置座標を基準として登録する。同様に、始終点座
標も、具体的な手首や指の位置ではなく、単語の始点や
終点における表現の中心位置である。次に、方向性は、
表示の際の位置や方向の変更の程度で、例えば、次のよ
うに分類する。
Here, the center position coordinates are, for example, the sign language word "mouth" is drawn around the mouth with a finger, and the center position coordinates of this word are the coordinates in the middle of the mouth. . Actually, when the sign language is generated, the position of the wrist or the finger is a real position that can be detected, but the center position coordinate is a virtual position that does not exist. However, this central position plays an important role in grasping the general position of sign language when we express it. Therefore, the center position coordinates are registered as a reference. Similarly, the start / end coordinates are not the specific positions of the wrist or finger, but the center position of the expression at the start or end of the word. Next, the direction is
The degree of change in the position or direction at the time of display is classified as follows, for example.

【0022】(1)登録された位置のまま表示される単
語(思う、口など) (2)表示位置のみが移動する単語(彼、家) (3)表示位置と手のひらの向きが変わる単語(痛い) (4)表示位置と方向の移動を伴うが、起点の移動は少
ない単語(渡す) (5)表示位置と方向の移動を伴い、起点も大きく移動
する単語(話す) 画像データは、左右の手のデータを格納するが、片手の
みで表現する手話の場合は、反対の手のデータに、nu
llなどのデータを格納する。
(1) A word that is displayed in the registered position (think, mouth, etc.) (2) A word that moves only in the display position (he, house) (3) A word in which the display position and the direction of the palm change ( (Pain) (4) A word that moves with the display position and direction, but the movement of the starting point is small (passing) (5) A word that moves with the display position and direction and also moves the starting point greatly (speaking) The data of the hand of the other hand is stored, but in the case of sign language in which only one hand is expressed, nu
Stores data such as ll.

【0023】さて、手話変換部14は、次にような手順
で手話の画像データを生成する。一般に、手話では、ま
ず表現しようとする文の登場人物や物(以下、事象と呼
ぶ)の表現位置を設定し、方向性のある動詞により、そ
の事象間に及ぼされる動作の作用の方向を表現(関係表
現とここでは呼ぶ)しているように思われる。図6の配
置戦略部1401は、上述した単語変換部1400で手
話単語に変換された手話単語列と単語間の依存関係の情
報を入力として、配置規則1404を用いて各単語の表
現位置を決定する。ここで決める表示位置とは、大体の
概要位置であり、例えば、横方向を(右、真中、左)、
縦方向を(上、中、下)、前後方向を(手前、奥)に分
割した位置である。このため、(横方向、縦方向、前後
方向)の形で指定する。例えば、(真中、下、手前)で
あり、これが上述した表示概要位置である。そして、各
表示概要位置毎にその中心点をあらかじめ設定してお
く。手話データ142の構成で示したように、単語に
は、方向性が記述されている。まず、名詞のような方向
の移動を伴わない単語(分類2)は、単にその表示概要
位置を決定する。次に、「渡す」のような動詞は、動作
の方向が変化し(分類4)、「痛い」や「痛む」のよう
な形容詞や動詞は、表現位置が変化する(分類3)。前
者では、単語名と動作の始点の事象と終点の事象からな
る3つ組みの構造、後者では、単語名と、その主格の対
の構造を生成する。例えば、文「彼が彼女に本をあげ
た」では、(あげる、本、彼女)、文「頭が痛い」で
は、(痛い、頭)である。ここで、起点の移動をも伴う
「話す」(分類5)では、例えば、文「彼が彼女に話
す」は、(話す、彼、彼女)と変換する。
The sign language conversion unit 14 generates sign language image data in the following procedure. Generally, in sign language, the expression position of the character or thing (hereinafter referred to as an event) of the sentence to be expressed is first set, and the direction of the action of the action exerted between the events is expressed by a directional verb. (It's called a relational expression here). The placement strategy unit 1401 of FIG. 6 determines the expression position of each word by using the placement rule 1404 with the information of the sign language word string converted into the sign language word by the word conversion unit 1400 and the information of the dependency relation between the words as input. To do. The display position determined here is a general outline position, and for example, the horizontal direction (right, middle, left),
It is a position where the vertical direction is divided into (top, middle, and bottom) and the front-rear direction is divided into (front, back). Therefore, specify in the form of (horizontal direction, vertical direction, front-back direction). For example, (middle, bottom, front), which is the above-mentioned display outline position. Then, the center point is set in advance for each display outline position. As shown in the structure of the sign language data 142, the direction is described in each word. First, for a word that does not move in a direction like a noun (classification 2), its display outline position is simply determined. Next, a verb such as "pass" changes its motion direction (classification 4), and an adjective or verb such as "pain" or "pain" changes its expression position (classification 3). In the former case, a triplet structure consisting of a word name and an event at the starting point and an event at the end point of the action is generated, and in the latter case, a structure of a word name and its nominative pair is generated. For example, in the sentence "He gave her a book," (Give, book, she), and in the sentence "Head hurts," it hurts (head). Here, in “speaking” (classification 5) that also involves movement of the starting point, for example, the sentence “he speaks to her” is converted to (speak, he, she).

【0024】次に、実座標決定部1402は、上述した
手話データ142を検索し、実際に表示する座標位置を
決定する。まず、事象を表現する単語の場合は、手話デ
ータ142からその単語データを検索し、その中心位置
座標を配置戦略部1401で指定された表示概要位置の
中心点に合わせることにより、空間表現を実現する。す
なわち、指定された表示概要位置の中心点と、単語の中
心位置座標から座標の移動量が求まる。この移動量に基
づいて、始終点などの座標が計算可能である。
Next, the real coordinate determination unit 1402 searches the above-mentioned sign language data 142 and determines the coordinate position to be actually displayed. First, in the case of a word expressing an event, the word data is retrieved from the sign language data 142, and the center position coordinates thereof are aligned with the center point of the display outline position designated by the placement strategy unit 1401 to realize a spatial expression. To do. That is, the movement amount of the coordinates is obtained from the center point of the specified display outline position and the center position coordinates of the word. Coordinates such as the start and end points can be calculated based on this movement amount.

【0025】つぎに関係を表現する単語のうち、動作の
方向が変化する単語は、(単語名、始点の事象、終点の
事象)の形式で渡される。このため、その単語データを
検索し、始点の事象と終点の事象のそれぞれの中心位置
を結ぶ線上に単語データの始点と終点座標がくるように
計算し、変換する。また、位置のみが変化する単語は、
(単語名、主格)の形式で渡される。この場合は、主格
の事象が表現される中心位置座標に表現する。また、単
語「思う」(分類1)などは、変化しない単語であるた
め、手話データ142から検索されたままで表現され
る。また、ここでは、片手で表現する手話の場合、どち
らの手で行うかも決定する。さらに、「彼(左手)」、
「彼女(右手)」、「本(両手)」、「あげる(両
手)」の表現で、「彼女(右手)」を表現するとき、左
手は、「彼」を表示し続けるのか、待機位置に戻すかな
どの決定も行う。
Next, among the words expressing the relationship, the words whose movement direction changes are passed in the form of (word name, event at start point, event at end point). Therefore, the word data is searched and calculated so that the start point and end point coordinates of the word data are located on the line connecting the center positions of the start point event and the end point event, and then converted. Also, the words that change only in position are
Passed in the format (word name, nominative). In this case, it is expressed in the central position coordinates where the nominative event is expressed. Further, the word “think” (classification 1) and the like are words that do not change, and thus are expressed as they are retrieved from the sign language data 142. In addition, in the case of one-handed sign language, it is also determined which hand is used. Furthermore, "he (left hand)",
When expressing "she (right hand)" in the expressions "she (right hand)", "book (both hands)", and "raising (both hands)", the left hand will keep displaying "he" or in the standby position. Also decide whether to return.

【0026】補間処理部1403は、実座標決定部14
02で決定された手話単語位置に基づいて、隣接する手
話単語の画像データがスムーズにつながるよう、補間処
理を行う。ここで、手のみならず、腕やからだのモデル
を従来のコンピュータグラフィック技術を用いて構成し
ておく。そして、手話単語は、前述したデータグローブ
で採った手話単語の手などの動きのデータに基づいて、
上記モデルを動作させることにより表示する。これによ
り、手話単語の画像データ間の補間処理も、そのモデル
に基づいておこなう。すなわち、前の手話単語の終端の
手や腕の位置から、後続する手話単語の始端の手や腕の
位置に、モデルの手や腕を動作させることにより実現出
来る。ここで、手話単語の画像データ間の補間におい
て、もし、前ステップの概要位置設定において決定した
位置に、スムーズに接続できない場合には、決定した位
置を修正しながら接続可能とする。このようにして、手
話の画像表示が実現できる。
The interpolation processing unit 1403 is used by the real coordinate determining unit 14
Based on the sign language word position determined in 02, interpolation processing is performed so that image data of adjacent sign language words can be smoothly connected. Here, not only the hands but also the models of the arms and the body are constructed by using the conventional computer graphic technology. Then, the sign language word is based on the movement data of the hand or the like of the sign language word taken by the above-mentioned data globe,
It is displayed by operating the above model. As a result, the interpolation process between the image data of the sign language words is also performed based on the model. That is, it can be realized by moving the hand or arm of the model from the position of the hand or arm at the end of the previous sign language word to the position of the hand or arm at the start of the subsequent sign language word. Here, in the interpolation between the image data of the sign language words, if it is not possible to connect smoothly to the position determined in the outline position setting in the previous step, the determined position can be corrected and then connected. In this way, the sign language image display can be realized.

【0027】図2の応答文予測部15は、自然言語解析
部12の解析結果に基づいて、その応答文を質問−応答
対応辞書151から検索する。図7は質問−応答対応辞
書151の一例を示したものである。図で、括弧で示し
たものは手話単語の表記である。ここには、質問とその
応答が格納されており、解析された質問をキィとして、
対応する音声単語と手話単語の応答文をとりだすことが
できる。この結果は、手話変換部14で画像データに変
換された後、図8に示すように入力された質問と共に、
音声言語と手話により聴覚障害者と健聴者の双方に表示
される。
The response sentence prediction unit 15 of FIG. 2 retrieves the response sentence from the question-response correspondence dictionary 151 based on the analysis result of the natural language analysis unit 12. FIG. 7 shows an example of the question-answer correspondence dictionary 151. In the figure, what is shown in parentheses is the notation of sign language words. Questions and their responses are stored here, and the analyzed question is used as a key.
It is possible to extract the response sentence of the corresponding voice word and sign language word. This result is converted into image data by the sign language conversion unit 14, and then, together with the input question as shown in FIG.
It will be displayed to both deaf and hearing-impaired people by means of spoken language and sign language.

【0028】このように、入力の翻訳結果と応答文が健
聴者にも示されるため、聴覚障害者が応答文のいずれか
をマウス7等で選択するのでなく、仮に手話で応答して
も、健聴者は手話表示された応答文と対比することによ
り、応答を理解することが可能である。さらに、これを
通して、装置を利用しながら手話を学習することができ
る。
In this way, since the translation result of the input and the response sentence are also shown to the normal hearing person, even if the hearing impaired person does not select one of the response sentences with the mouse 7 or the like, even if he / she responds by sign language, A hearing person can understand the response by comparing it with the response sentence displayed in sign language. In addition, through this, sign language can be learned while using the device.

【0029】健聴者はキィで自然言語文を入力すること
になるが、キィからの入力は非常に煩わしい。特に、良
く使われる文をいちいちキィから入力することは非常に
煩わしい。簡易入力部16は、例えば、病院での診察の
場合、人の体の画像データを対象画像161から取り出
し、ディスプレイ5に表示する。そして、健聴者がディ
スプレイ5上のいずれかの位置をマウス3などにより指
定すると、その位置(具体的にはある範囲の区間)に対
応する定型文を定型文辞書162から検索し、図9のよ
うにメニュー形式で表示する。このうちの1つの文を健
聴者がマウス3などにより指定することにより、簡易入
力部16は、その文を入力文として出力する。具体的に
は、定型文辞書162は、図10のように、定型文を区
間名との対で登録しておく。また、区間名の各区間はデ
ィスプレイ5上の実座標(例えば、区間1は点{X座標
=500、Y座標=700}を左上の角とする幅=10
0、高さ=100の区間)との対応を示す表を登録して
おく。区間1は、人の体の頭の位置に設定する。これに
より、ディスプレイ5上で頭の位置、例えば{X座標=
550、Y座標=650}の点が指定されると、前記表
からこの点が区間1内の点であることが求められる。そ
して、区間1の対となった定型文を図10の定型文辞書
162から検索することにより、図9のような表示が可
能である。
A hearing person inputs a natural language sentence with a key, but the input from the key is very troublesome. Especially, it is very troublesome to input frequently used sentences one by one. For example, in the case of a medical examination at a hospital, the simple input unit 16 extracts image data of a human body from the target image 161, and displays it on the display 5. When the hearing-impaired person specifies any position on the display 5 with the mouse 3 or the like, the fixed phrase corresponding to the position (specifically, a section of a certain range) is searched from the fixed phrase dictionary 162, and the fixed phrase is displayed in FIG. As in the menu format. When one of these sentences is designated by a hearing person with the mouse 3 or the like, the simple input unit 16 outputs the sentence as an input sentence. Specifically, as shown in FIG. 10, the fixed phrase dictionary 162 registers fixed phrases in pairs with section names. In addition, each section of the section name has actual coordinates on the display 5 (for example, section 1 has a point {X coordinate = 500, Y coordinate = 700} as an upper left corner and width = 10.
A table showing the correspondence with 0, height = 100 section) is registered. Section 1 is set at the position of the head of the human body. As a result, the position of the head on the display 5, for example, {X coordinate =
When a point of 550, Y coordinate = 650} is designated, this point is required to be a point within the section 1 from the above table. Then, by searching the fixed sentence dictionary 162 of FIG. 10 for the fixed sentence paired in the section 1, the display as shown in FIG. 9 is possible.

【0030】このように、自然言語による問い合わせを
キィ4入力でなく、マウス3で指定することのみにより
入力できるため、迅速かつ間違いのない入力が可能にな
る。
As described above, since the inquiry in the natural language can be input only by designating with the mouse 3 instead of the key 4, the prompt and correct input is possible.

【0031】[0031]

【発明の効果】本発明によれば、手話の理解処理を行な
うことなく聴覚障害者と健聴者との対話を実現でき、健
聴者は迅速、かつ正確に文を入力可能となるほか、これ
を通して、手話を学習することもできる効果がある。
According to the present invention, a dialogue between a deaf person and a normal hearing person can be realized without performing sign language understanding processing, and the normal hearing person can quickly and accurately input a sentence. There is also an effect that you can learn sign language.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例の手話通訳装置の構成を示す
図である。
FIG. 1 is a diagram showing a configuration of a sign language interpreter according to an embodiment of the present invention.

【図2】手話通訳処理部の構成を示す図である。FIG. 2 is a diagram showing a configuration of a sign language interpreting processing unit.

【図3】自然言語入力の解析結果の確認処理を示す図で
ある。
FIG. 3 is a diagram showing confirmation processing of a result of analysis of natural language input.

【図4】手話変換辞書の構成を示す図である。FIG. 4 is a diagram showing a configuration of a sign language conversion dictionary.

【図5】手話データの構造を示す図である。FIG. 5 is a diagram showing a structure of sign language data.

【図6】手話変換部の構成を示す図である。FIG. 6 is a diagram showing a configuration of a sign language conversion unit.

【図7】質問−応答対応辞書の構成を示す図である。FIG. 7 is a diagram showing a configuration of a question-answer correspondence dictionary.

【図8】健聴者の入力の翻訳結果の表示例を示す図であ
る。
FIG. 8 is a diagram showing a display example of a translation result of an input by a normal hearing person.

【図9】簡易入力画面の表示例を示す図である。FIG. 9 is a diagram showing a display example of a simple input screen.

【図10】定型文辞書の構成を示す図である。FIG. 10 is a diagram showing a configuration of a fixed phrase dictionary.

【符号の説明】[Explanation of symbols]

1‥手話通訳処理部、2、6‥タッチパネル、3、7‥
マウス、4、8‥キィ、5、9‥ディスプレイ、11‥
インタフェース部、12‥自然言語解析部、13‥解析
結果確認部、14‥手話変換部、141‥手話変換辞
書、142‥手話データ、15‥応答文予測部、151
‥質問−応答対応辞書、16‥簡易入力部、161‥対
象画像、162‥定型文辞書。
1 Sign language interpreter, 2, 6 ... Touch panel, 3, 7 ...
Mouse 4,8 ... Key, 5,9 ... Display, 11 ...
Interface unit, 12 natural language analysis unit, 13 analysis result confirmation unit, 14 sign language conversion unit, 141 sign language conversion dictionary, 142 sign language data, 15 response sentence prediction unit, 151
Question-response dictionary, 16 simple input unit, 161, target image, 162 fixed phrase dictionary.

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】健聴者から入力された自然言語文を解析す
る手段と、解析された結果を手話により表現される文に
変換する手段と、手話により表現された文と入力された
自然言語文を健聴者と聴覚障害者双方に表示する手段
と、自然言語文の解析結果から、その文に対する応答文
を予測する手段と、該応答文を自然言語文、手話の画像
等の複数の形態で健聴者と聴覚障害者双方に表示する手
段と、表示された応答文を確認する手段とを有すること
を特徴とする手話通訳装置。
1. A means for analyzing a natural language sentence input by a hearing-impaired person, a means for converting the analyzed result into a sentence expressed in sign language, and a sentence expressed in sign language and the input natural language sentence. Means for both the hearing-impaired person and the deaf person, means for predicting a response sentence to the sentence from the analysis result of the natural language sentence, and the response sentence in a plurality of forms such as a natural language sentence and a sign language image. A sign language interpreting device comprising means for displaying to both a hearing person and a hearing impaired person, and means for confirming the displayed response sentence.
【請求項2】請求項1記載の手話通訳装置において、入
力された自然言語文の解析結果から、その文に対する複
数の応答文を予測する手段と、該複数の応答文を自然言
語文、手話の画像等の複数の形態で健聴者と聴覚障害者
双方に表示する手段と、表示された複数の応答文のうち
1つを指定する手段とを有することを特徴とする手話通
訳装置。
2. A sign language interpreting apparatus according to claim 1, wherein a means for predicting a plurality of response sentences to the sentence from an analysis result of the input natural language sentence, and a plurality of the response sentences for the natural language sentence and the sign language. A sign language interpreter having means for displaying to both a hearing person and a deaf person in a plurality of forms such as images, and means for designating one of the plurality of displayed response sentences.
【請求項3】請求項1記載の手話通訳装置において、対
話の対象となる物を表示する手段を有し、表示された物
の一部をマウス等で指定することにより、その箇所に関
する質問文や属性の設定を行なうための文を表示し、表
示された文を健聴者からの自然言語文として入力するこ
とを特徴とする手話通訳装置。
3. The sign language interpreting device according to claim 1, further comprising means for displaying an object to be interacted with, and by designating a part of the displayed object with a mouse or the like, a question sentence about the part is displayed. A sign language interpreting device, which displays a sentence for setting attributes and attributes, and inputs the displayed sentence as a natural language sentence from a hearing-impaired person.
【請求項4】請求項1記載の手話通訳装置において、健
聴者から入力された自然言語文の解析結果を表示する手
段を有し、健聴者からある一定時間以内に解析結果が正
しいか否かの意思表示がない場合には、解析結果が正し
いとして処理を続行することを特徴とする手話通訳装
置。
4. The sign language interpreting apparatus according to claim 1, further comprising means for displaying an analysis result of a natural language sentence input by a normal hearing person, and whether the analysis result is correct within a certain time from the normal hearing person. A sign language interpreter characterized by continuing the processing assuming that the analysis result is correct when there is no intention display.
【請求項5】請求項1記載の手話通訳装置において、手
話の画像データを、方向性の必要な単語データと不要な
単語データに区別可能な形で格納する手段と、単語の画
像データの表示の概要位置を決定した後、詳細位置の決
定を行う手話画像の生成手段を有することを特徴とする
手話通訳装置。
5. A sign language interpreter according to claim 1, wherein the sign language image data is stored in a form in which it can be discriminated into word data that needs directionality and word data that does not need directionality, and display of the image data of words. A sign language interpreter having a sign language image generation means for determining the detailed position after determining the outline position of the.
【請求項6】健聴者から入力された自然言語文を解析
し、解析された結果を手話により表現される文に変換
し、手話により表現された文と入力された自然言語文を
健聴者と聴覚障害者双方に表示し、自然言語文の解析結
果から、その文に対する応答文を予測し、該応答文を自
然言語文、手話の画像等の複数の形態で健聴者と聴覚障
害者双方に表示し、表示された応答文を確認することを
特徴とする手話通訳方法。
6. A natural language sentence input from a normal hearing person is analyzed, the analyzed result is converted into a sentence expressed in sign language, and the sentence expressed in sign language and the input natural language sentence are regarded as a normal hearing person. It is displayed to both deaf and hearing-impaired persons, and the response sentence to the sentence is predicted from the analysis result of the natural-language sentence. A sign language interpreting method characterized by displaying and confirming the displayed response sentence.
JP01523493A 1993-02-02 1993-02-02 Sign language interpreting apparatus and method Expired - Fee Related JP3345070B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP01523493A JP3345070B2 (en) 1993-02-02 1993-02-02 Sign language interpreting apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP01523493A JP3345070B2 (en) 1993-02-02 1993-02-02 Sign language interpreting apparatus and method

Publications (2)

Publication Number Publication Date
JPH06230716A true JPH06230716A (en) 1994-08-19
JP3345070B2 JP3345070B2 (en) 2002-11-18

Family

ID=11883183

Family Applications (1)

Application Number Title Priority Date Filing Date
JP01523493A Expired - Fee Related JP3345070B2 (en) 1993-02-02 1993-02-02 Sign language interpreting apparatus and method

Country Status (1)

Country Link
JP (1) JP3345070B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5734923A (en) * 1993-09-22 1998-03-31 Hitachi, Ltd. Apparatus for interactively editing and outputting sign language information using graphical user interface
JP2012239602A (en) * 2011-05-18 2012-12-10 Toshiyuki Matsui Medical interview device and program
JP2016027390A (en) * 2014-06-24 2016-02-18 エーピーアイ株式会社 Communication Support System
KR102104294B1 (en) * 2019-10-31 2020-04-24 주식회사 멀틱스 Sign language video chatbot application stored on computer-readable storage media
KR20220126305A (en) * 2021-03-08 2022-09-16 주식회사 와이즈에스엔티 Device For Translating Sign Language

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5734923A (en) * 1993-09-22 1998-03-31 Hitachi, Ltd. Apparatus for interactively editing and outputting sign language information using graphical user interface
JP2012239602A (en) * 2011-05-18 2012-12-10 Toshiyuki Matsui Medical interview device and program
JP2016027390A (en) * 2014-06-24 2016-02-18 エーピーアイ株式会社 Communication Support System
KR102104294B1 (en) * 2019-10-31 2020-04-24 주식회사 멀틱스 Sign language video chatbot application stored on computer-readable storage media
KR20220126305A (en) * 2021-03-08 2022-09-16 주식회사 와이즈에스엔티 Device For Translating Sign Language

Also Published As

Publication number Publication date
JP3345070B2 (en) 2002-11-18

Similar Documents

Publication Publication Date Title
KR0180333B1 (en) Electronic interpreter utilizing linked sets of sentences
Oviatt et al. Perceptual user interfaces: multimodal interfaces that process what comes naturally
Oviatt Multimodal interfaces
de Ruirer 14 The production of gesture and speech
McGuire et al. Towards a one-way American sign language translator
US7047195B2 (en) Speech translation device and computer readable medium
US20080059147A1 (en) Methods and apparatus for context adaptation of speech-to-speech translation systems
Oviatt User-centered modeling and evaluation of multimodal interfaces
Sears et al. Hands-free, speech-based navigation during dictation: difficulties, consequences, and solutions
JP7252690B2 (en) Conversation processing device, conversation processing system, conversation processing method and program
JP2007206888A (en) Apparatus, method and program for generating answer
Dhanjal et al. An automatic conversion of Punjabi text to Indian sign language
JP3345070B2 (en) Sign language interpreting apparatus and method
Smith et al. Multimodal input for computer access and augmentative communication
JP2005525609A (en) Problem solving apparatus and method using intelligent agent
JP2021051693A (en) Utterance system, utterance recommendation device, utterance recommendation program, and utterance recommendation method
McCoy Interface and language issues in intelligent systems for people with disabilities
Schmauks et al. Generating multimodal output-Conditions, advantages and problems
JPH06337627A (en) Sign language interpreting device
Perzanowski et al. Towards seamless integration in a multi-modal interface
JP2673831B2 (en) Conversational etiquette education system
Goodenough-Trepagnier et al. Towards a method for computer interface design using speech recognition
JP4437778B2 (en) Vertical relationship determination method, vertical relationship determination device, vertical relationship determination program, and recording medium
DV et al. Eye gaze controlled adaptive virtual keyboard for users with SSMI
Hill et al. Augmentative and alternative communication technology

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees