JP2000089660A - Sign language study supporting device and recording medium with sign language study supporting program recorded therein - Google Patents

Sign language study supporting device and recording medium with sign language study supporting program recorded therein

Info

Publication number
JP2000089660A
JP2000089660A JP10255170A JP25517098A JP2000089660A JP 2000089660 A JP2000089660 A JP 2000089660A JP 10255170 A JP10255170 A JP 10255170A JP 25517098 A JP25517098 A JP 25517098A JP 2000089660 A JP2000089660 A JP 2000089660A
Authority
JP
Japan
Prior art keywords
sign language
image
conversation
learning
word
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10255170A
Other languages
Japanese (ja)
Inventor
Yuji Takada
雄二 高田
Hideaki Matsuo
英明 松尾
Yuji Nagashima
祐二 長嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP10255170A priority Critical patent/JP2000089660A/en
Publication of JP2000089660A publication Critical patent/JP2000089660A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To facilitate study of sign language. SOLUTION: When key words and hand form data are inputted from an input part 101 and a sign language word for a study object is designated, each part is operated under the control of an entire control part 102 as follows: a sign language retrieval part 103 acquires a sign language word data from a sign language dictionary part 104 and a sign language image retrieval part acquires a sign language image from a sign language image storage part 108, respectively, and also a background retrieval part 105 acquires background information for sign language gesture explanation from a background dictionary part 106, and an animation generation part 109 acquires a material data and a scenario for generating the animation from an animation data storage part 110, and a background animation is generated which visually expresses a meaning of a sign language word for study. And, based on the synthesis information in a synthesis information storage part 113, a background image synthesis part 112 synthesizes the sign language image and the background animation and displays them on a display connected with an output part 111 together with the sign language word data, etc.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、手話の学習を支援
する装置に関する。
The present invention relates to an apparatus for supporting learning of sign language.

【0002】[0002]

【従来の技術】現在、手話を知らない聴覚障害者、もし
く健聴者が手話を学習する場合には、手話を知っている
聴覚障害者から直接学習するか、もしくは、ビデオやテ
キストなどを用いて学習を行っている。最近では、CD
−ROMなどを利用した学習システムもある。
2. Description of the Related Art At present, when a hearing-impaired person who does not know a sign language or a hearing-impaired person learns a sign language, he or she learns directly from a hearing-impaired person who knows a sign language, or uses a video or text. Learning. Recently, CD
-There is also a learning system using a ROM or the like.

【0003】手話の学習システムには、手話による会話
及び各手話単語の動作の映像を表示したり、動作の解説
を文字によって説明しているシステム(例えば、日本I
BM株式会社より販売されているCD−ROM「NHK
みんなの手話」)がある。また、手話動作の背景等の
情報を文字列によって説明する「手話学習装置」が特開
平6−83264号公報に開示されている。
[0003] Sign language learning systems include a system that displays a video of conversation in sign language and the operation of each sign language word, and explains the operation in characters using characters (for example, Japan I).
CD-ROM “NHK” sold by BM Co., Ltd.
There is a sign language for everyone. Japanese Patent Laid-Open Publication No. Hei 6-83264 discloses a "sign language learning apparatus" which describes information such as the background of a sign language operation using a character string.

【0004】[0004]

【発明が解決しようとする課題】手話の学習において
は、手話の動作やその時の手の形の意味するイメージが
非常に大切である。しかし、従来の手話の学習システム
には、動作の解説や手話動作の背景等の情報を文字によ
って説明しているものがあり、このようなシステムで
は、動作や手形状の意味するイメージがつかみにくい。
また、実際の会話において使用する手話の動作が、標準
的な動作から変化した動作となることが多い。このた
め、標準的な動作のみを学習しても、日常の会話ができ
ない。
In sign language learning, the sign language movement and the image of the hand shape at that time are very important. However, there is a conventional sign language learning system in which information such as explanations of actions and backgrounds of sign language actions are described by characters, and in such a system, it is difficult to grasp an image meaning of actions and hand shapes. .
In addition, the operation of sign language used in actual conversation often changes from a standard operation. For this reason, even if only the standard operation is learned, daily conversation cannot be performed.

【0005】そこで本発明は、手話の動作や手形状の意
味するイメージをつかみやすくして手話単語の動作の意
味等を理解しやすくすることにより、手話動作の学習を
容易にし、また、手話が実際に使用されるときの手話動
作の変形についても学習できるようにした手話学習支援
装置を提供することを目的とする。
Accordingly, the present invention facilitates learning of sign language movements by making it easier to grasp the meaning of sign language movements and the meanings of hand shapes and to make it easier to understand the meaning of sign language word movements. It is an object of the present invention to provide a sign language learning support device capable of learning a deformation of a sign language operation when actually used.

【0006】[0006]

【課題を解決するための手段および発明の効果】第1の
発明は、手話の学習を支援する手話学習支援装置であっ
て、学習対象の手話単語を指定する入力情報を取得する
ための手段と、前記入力情報に基づき前記学習対象の手
話単語に対する手話動作を表す手話画像を表示する手段
と、前記入力情報に基づき前記学習対象の手話単語の意
味を視覚的に表現するアニメーションを表示する手段
と、を備えることを特徴とする。このような第1の発明
によれば、学習対象の手話単語につき、手話動作を示す
画像が表示されるとともに、その意味が背景アニメーシ
ョンにより視覚的に表現されるため、手話単語の動作の
意味が理解しやすくなり、手話動作を容易に学習するこ
とができる。
Means for Solving the Problems and Effects of the Invention A first invention is a sign language learning support device for supporting sign language learning, comprising means for acquiring input information for designating a sign language word to be learned. A means for displaying a sign language image representing a sign language action for the learning target sign language word based on the input information; and a means for displaying an animation for visually expressing the meaning of the learning target sign language word based on the input information. , Is provided. According to the first aspect, an image showing the sign language operation is displayed for the sign language word to be learned, and the meaning is visually represented by the background animation. It is easy to understand, and the sign language operation can be easily learned.

【0007】第2の発明は、手話の学習を支援する手話
学習支援装置であって、学習対象の手話単語を指定する
入力情報を取得するための入力手段と、各手話単語の意
味を表す文字情報である意味情報を蓄積している手話辞
書部と、各手話単語に対する手話動作を表す手話画像を
蓄積している手話画像蓄積手段と、アニメーションに使
用する素材を示す素材データと該素材を動作させて各手
話単語の意味を視覚的に表現するためのシナリオとを蓄
積しているアニメデータ蓄積手段と、前記手話辞書部か
ら意味情報を検索する手話検索手段と、前記手話画像蓄
積手段から手話画像を検索する手話画像検索手段と、前
記アニメデータ蓄積手段から素材データおよびシナリオ
を取り出し、該シナリオに基づき該素材データを用いて
アニメーションを生成するアニメ生成手段と、画像およ
び文字を表示する出力手段と、前記入力情報に基づき、
前記学習対象の手話単語の意味情報を前記手話検索手段
により取得し、前記学習対象の手話単語に対応する手話
画像を前記手話画像検索手段により取得し、前記学習対
象の手話単語の意味を視覚的に表現するアニメーション
を背景アニメーションとして前記アニメ生成手段に生成
させ、前記意味情報、前記手話画像および前記背景アニ
メーションを前記出力手段に表示させる制御手段と、を
備えることを特徴とする。このような第2の発明によれ
ば、学習対象の手話単語につき、手話動作を示す画像が
表示され、その意味を示す文字情報が表示されるととも
に、その意味を視覚的に表現するアニメーションが背景
アニメーションとして表示される。これにより、手話単
語の動作の意味等が理解しやすくなり、手話動作を容易
に学習することができる。
A second invention is a sign language learning support device for supporting sign language learning, comprising input means for acquiring input information for specifying a sign language word to be learned, and a character representing the meaning of each sign language word. Sign language dictionary section storing semantic information as information, sign language image storing means storing a sign language image representing a sign language operation for each sign language word, material data indicating a material used for animation, and operation of the material. Animation data storage means for storing a scenario for visually expressing the meaning of each sign language word; sign language search means for searching the sign language dictionary for semantic information; and sign language from the sign language image storage means. A material language and a scenario are retrieved from a sign language image retrieval unit for retrieving an image and the animation data storage unit, and an animation is performed using the material data based on the scenario. And animation generating means for forming an output means for displaying an image and a character based on the input information,
The meaning information of the learning target sign language word is acquired by the sign language searching unit, the sign language image corresponding to the learning target sign language word is acquired by the sign language image searching unit, and the meaning of the learning target sign language word is visually determined. And a control unit for causing the animation generation unit to generate an animation expressed as a background animation and displaying the semantic information, the sign language image, and the background animation on the output unit. According to the second aspect, for each sign language word to be learned, an image indicating a sign language operation is displayed, character information indicating the meaning is displayed, and an animation that visually expresses the meaning is displayed on the background. Displayed as animation. Thereby, the meaning of the operation of the sign language word can be easily understood, and the sign language operation can be easily learned.

【0008】第3の発明は、第2の発明において、各手
話単語に対する手話動作を説明する文字情報である背景
説明文を蓄積している背景辞書部と、前記背景辞書部か
ら背景説明文を検索する背景検索手段とを更に備え、前
記制御手段は、前記入力情報に基づき、前記学習対象の
手話単語に対応する背景説明文を前記背景検索手段によ
り取得し、該背景説明文をも前記出力手段に表示させる
ことを特徴とする。このような第3の発明によれば、学
習対象の手話単語に対する手話動作を説明する背景説明
文も表示されるため、手話単語の動作の意味等が更に理
解しやすくなり、手話動作を容易に学習することができ
る。
In a third aspect based on the second aspect, the background dictionary section stores a background explanation sentence which is character information for explaining a sign language operation for each sign language word, and a background explanation sentence is stored from the background dictionary section. A background search means for searching, wherein the control means acquires a background description corresponding to the sign language word to be learned by the background search means based on the input information, and also outputs the background description. It is characterized by displaying on means. According to the third aspect of the present invention, since the background explanation explaining the sign language operation for the sign language word to be learned is also displayed, the meaning of the operation of the sign language word can be further easily understood, and the sign language operation can be easily performed. You can learn.

【0009】第4の発明は、第2または第3の発明にお
いて、前記手話画像検索手段により得られる手話画像と
前記アニメ生成手段により生成されるアニメーションと
を合成して合成画像を生成する背景画像合成手段を更に
備え、前記制御手段は、前記入力情報に基づき、前記背
景アニメーションを、背景画像合成手段により前記学習
対象の手話単語の手話画像と合成した合成画像として前
記出力手段に表示させることを特徴とする。このような
第4の発明によれば、学習対象の手話単語の意味を視覚
的に表現する背景アニメーションが、その手話単語の手
話画像と合成された合成画像として表示されるため、手
話単語に対する手話動作とその手話単語の意味を表現す
る背景アニメーションとの結びつきが分かりやすくな
り、手話動作を更に容易に学習することができる。
In a fourth aspect based on the second or third aspect, the background image for generating a composite image by synthesizing the sign language image obtained by the sign language image search means and the animation generated by the animation generation means. A synthesizing unit, wherein the control unit displays the background animation on the output unit as a synthesized image synthesized with the sign language image of the sign language word to be learned by the background image synthesizing unit based on the input information. Features. According to the fourth aspect, the background animation that visually represents the meaning of the sign language word to be learned is displayed as a composite image synthesized with the sign language image of the sign language word. The connection between the action and the background animation expressing the meaning of the sign language word can be easily understood, and the sign language action can be more easily learned.

【0010】第5の発明は、第4の発明において、前記
背景画像合成手段による合成は、前記手話画像における
手の部分から前記アニメーションにおいて前記手に対応
する素材の部分へのモーフィング処理を伴うことを特徴
とする。第5の発明によれば、背景アニメーションが学
習対象の手話単語の手話画像と合成される際に、手話画
像における手の部分から背景アニメーションにおいて手
に対応する素材の部分へのモーフィング処理を伴うた
め、手話単語に対する手話動作とその手話単語の意味を
表現する背景アニメーションとの結びつきが更に分かり
やすくなる。
In a fifth aspect based on the fourth aspect, the combining by the background image combining means involves a morphing process from a hand portion in the sign language image to a material portion corresponding to the hand in the animation. It is characterized by. According to the fifth aspect, when the background animation is synthesized with the sign language image of the sign language word to be learned, morphing processing is performed from the hand part in the sign language image to the material part corresponding to the hand in the background animation. In addition, the connection between the sign language operation for the sign language word and the background animation expressing the meaning of the sign language word can be more easily understood.

【0011】第6の発明は、第2または第4の発明にお
いて、各手話単語に対する手話動作の変形を説明する文
字情報である変形説明文を蓄積している手話変形辞書部
と、前記手話変形辞書部から前記変形説明文を検索する
変形検索手段とを更に備え、前記制御手段は、前記入力
情報に基づき、前記学習対象の手話単語に対応する変形
説明文を前記変形検索手段により取得し、該変形説明文
を前記出力手段に表示させることを特徴とする。このよ
うな第6の発明によれば、学習対象の手話単語につき変
形説明文が表示されるため、手話が実際に使用されると
きの手話動作の変形について学習することができる。
According to a sixth aspect of the present invention, in the second or fourth aspect, a sign language modification dictionary unit storing a modification explanation sentence which is character information for explaining a modification of a sign language operation for each sign language word; Further comprising a modification search means for searching the modification explanation sentence from the dictionary unit, wherein the control means acquires a modification explanation sentence corresponding to the sign language word to be learned by the modification search means based on the input information; The modified explanation is displayed on the output means. According to the sixth aspect of the present invention, since the modified explanatory sentence is displayed for the sign language word to be learned, it is possible to learn about the modification of the sign language operation when the sign language is actually used.

【0012】第7の発明は、第2または第4の発明にお
いて、各種の会話文と各種の会話文における手話動作の
変形を説明する文字情報である個別変形説明文とを手話
単語に対応付けて蓄積している会話辞書部と、前記会話
辞書部から会話文および個別変形説明文を検索する会話
検索手段とを更に備え、前記制御手段は、前記入力情報
に基づき、前記学習対象の手話単語に対応する会話文お
よび個別変形説明文を前記会話検索手段により取得し、
該会話文を該会話文に対する該個別変形説明文と共に前
記出力手段に表示させることを特徴とする。このような
第7の発明によれば、学習対象の手話単語に対応する会
話文と共にその会話文に対する個別変形説明文が表示さ
れるため、実際の使用における変形がより分かり易くな
る。
In a seventh aspect based on the second or fourth aspect, each of the various conversational sentences and the individual transformed explanatory sentence which is character information for explaining the deformation of the sign language operation in each of the various conversational sentences are associated with the sign language word. Further comprising: a conversation dictionary section that has been accumulated and stored; and conversation retrieval means for retrieving a conversation sentence and an individual deformation explanation from the conversation dictionary section. The control means, based on the input information, Acquiring the conversation sentence and the individual transformation explanation corresponding to the conversation search means,
The conversation sentence is displayed on the output means together with the individual transformation explanation sentence for the conversation sentence. According to the seventh aspect, since the individual sentence for the conversation sentence is displayed together with the conversation sentence corresponding to the sign language word to be learned, the deformation in the actual use is more easily understood.

【0013】第8の発明は、第7の発明において、前記
会話辞書部に蓄積されている各会話文の意味する内容を
表す画像である会話環境画像を蓄積している環境画像蓄
積手段と、前記環境画像蓄積手段から会話環境画像を検
索する環境画像検索手段とを更に備え、前記制御手段
は、前記出力手段に表示される会話文に対応する会話環
境画像を前記環境画像検索手段により取得し、該会話環
境画像を前記出力手段に表示させることを特徴とする。
このような第8の発明によれば、学習対象の手話単語に
対応する会話文およびその会話文に対する個別変形説明
文と共に、その会話文の意味する内容を表す会話環境画
像が表示されるため、実際の使用における手話動作の変
形が視覚的に理解し易くなる。
In an eighth aspect based on the seventh aspect, an environment image storage means for storing a conversation environment image, which is an image representing the meaning of each conversation sentence stored in the conversation dictionary section, Environment image retrieval means for retrieving a conversation environment image from the environment image storage means, wherein the control means acquires a conversation environment image corresponding to a conversation sentence displayed on the output means by the environment image retrieval means. And displaying the conversation environment image on the output means.
According to the eighth aspect, a conversation environment image representing the meaning of the conversation sentence is displayed together with the conversation sentence corresponding to the sign language word to be learned and the individual deformation explanation for the conversation sentence. It becomes easy to visually understand the deformation of the sign language operation in actual use.

【0014】第9の発明は、第7の発明において、各手
話単語に対する手話動作を前記会話辞書部に蓄積されて
いる各会話文に合わせて変形させた手話動作の画像を変
形手話画像として蓄積している変形手話画像蓄積手段
と、前記変形手話画像蓄積手段から変形手話画像を検索
する変形手話画像検索手段と、前記会話辞書部に蓄積さ
れている各会話文の意味する内容を表す画像における素
材を示す素材データを蓄積している環境素材蓄積手段
と、与えられた会話文に応じて、前記変形手話画像検索
手段により変形手話画像を取得するとともに前記環境素
材蓄積手段から素材データを取得し、取得した前記変形
手話画像に取得した素材データの示す素材を合成した環
境合成画像を生成する環境合成手段とを備え、前記制御
手段は、前記出力手段に表示される会話文に応じた環境
合成画像を前記環境合成手段に生成させ、該環境合成画
像を前記出力手段に表示させることを特徴とする。この
ような第9の発明によれば、学習対象の手話単語に対応
する会話文およびその会話文に対する個別変形説明文と
共に、その会話文に合わせて変形させた変形手話画像に
その会話文の意味する内容を表す画像の素材が合成され
た環境合成画像が表示されるため、手話動作の変形の生
じた理由を容易に理解することができる。
According to a ninth aspect, in the seventh aspect, an image of the sign language action obtained by transforming the sign language action for each sign language word according to each conversation sentence stored in the conversation dictionary unit is stored as a modified sign language image. A modified sign language image accumulating means, a modified sign language image retrieving means for retrieving a modified sign language image from the modified sign language image accumulating means, and an image representing the meaning of each conversation sentence stored in the conversation dictionary unit. Environmental material storage means for storing material data indicating a material, and in accordance with a given conversation sentence, the transformed sign language image retrieval means acquires a transformed sign language image and acquires material data from the environmental material accumulation means. Environment synthesizing means for generating an environment synthesized image obtained by synthesizing the material indicated by the obtained material data with the obtained deformed sign language image, wherein the control means comprises the output means Environmental composite image corresponding to the conversational sentence displayed is generated in said environment combining means, and wherein the displaying the environment combined image to the output unit. According to the ninth aspect, the conversational sentence corresponding to the sign language word to be learned and the individual transformation explanation for the conversational sentence, and the meaning of the conversational sentence are displayed in the modified sign language image transformed according to the conversational sentence. Since the environment synthesized image in which the material of the image representing the content to be performed is synthesized is displayed, it is possible to easily understand the reason why the deformation of the sign language operation has occurred.

【0015】第10の発明は、手話の学習を支援する手
話学習支援プログラムを、コンピュータ装置において実
行されるプログラムとして記録した記録媒体であって、
学習対象の手話単語を指定する入力情報を取得するステ
ップと、前記入力情報に基づき前記学習対象の手話単語
に対する手話動作を表す手話画像を表示するステップ
と、前記入力情報に基づき前記学習対象の手話単語の意
味を視覚的に表現するアニメーションを表示するステッ
プと、を含む動作環境を前記コンピュータ装置上で実現
するための手話学習支援プログラムを記録したことを特
徴とする。
A tenth invention is a recording medium storing a sign language learning support program for supporting learning of a sign language as a program executed in a computer device,
Obtaining input information specifying a sign language word to be learned; displaying a sign language image representing a sign language action for the sign language word to be learned based on the input information; and sign language of the learning target based on the input information Displaying an animation for visually expressing the meaning of a word, and a sign language learning support program for realizing an operating environment on the computer device.

【0016】第11の発明は、手話の学習を支援する手
話学習支援プログラムを、コンピュータ装置において実
行されるプログラムとして記録した記録媒体であって、
学習対象の手話単語を指定する入力情報を取得するステ
ップと、各手話単語の意味を表す文字情報である意味情
報を蓄積している手話辞書部から、前記入力情報に基づ
き前記学習対象の手話単語の意味情報を取得するステッ
プと、各手話単語に対する手話動作を表す手話画像を蓄
積している手話画像蓄積手段から、前記入力情報に基づ
き前記学習対象の手話単語に対応する手話画像を取得す
るステップと、アニメーションに使用する素材を示す素
材データと該素材を動作させて各手話単語の意味を視覚
的に表現するためのシナリオとを蓄積しているアニメデ
ータ蓄積手段から、前記入力情報に基づき前記学習対象
の手話単語に対応する素材データおよびシナリオを取り
出し、該シナリオに基づき該素材データを用いて、前記
学習対象の手話単語の意味を視覚的に表現するアニメー
ションを背景アニメーションとして生成するステップ
と、前記学習対象の手話単語の意味情報、前記学習対象
の手話単語の手話画像、および前記背景アニメーション
を表示するステップと、を含む動作環境を前記コンピュ
ータ装置上で実現するための手話学習支援プログラムを
記録したことを特徴とする。
An eleventh invention is a recording medium storing a sign language learning support program for supporting learning of a sign language as a program executed in a computer device,
Obtaining input information that specifies a sign language word to be learned; and sign language words to be learned based on the input information from a sign language dictionary unit that stores semantic information that is character information representing the meaning of each sign language word. Acquiring the sign language image corresponding to the learning target sign language word based on the input information from the sign language image storage unit storing the sign language image representing the sign language operation for each sign language word. And animation data storage means that stores material data indicating a material to be used for animation and a scenario for visually expressing the meaning of each sign language word by operating the material. Material data and a scenario corresponding to the sign language word to be learned are extracted, and the sign language unit to be learned is used by using the material data based on the scenario. Generating an animation that visually expresses the meaning of the background language as a background animation, and displaying the meaning information of the learning target sign language word, the sign language image of the learning target sign language word, and the background animation. A sign language learning support program for realizing an operating environment on the computer device is recorded.

【0017】第12の発明は、第11の発明において、
前記動作環境は、前記学習対象の手話単語に対応する手
話画像と前記背景アニメーションとを合成して合成画像
を生成するステップを更に含み、前記意味情報、前記手
話画像および前記背景アニメーションを表示する前記ス
テップにおいて、前記合成画像を表示することにより前
記背景アニメーションを表示することを特徴とする。
According to a twelfth aspect, in the eleventh aspect,
The operating environment further includes a step of generating a synthesized image by synthesizing a sign language image corresponding to the learning target sign language word and the background animation, and displaying the semantic information, the sign language image, and the background animation. In the step, the background animation is displayed by displaying the composite image.

【0018】第13の発明は、第11または第12の発
明において、前記動作環境は、各手話単語に対する手話
動作の変形を説明する文字情報である変形説明文を蓄積
している手話変形辞書部から、前記入力情報に基づき前
記学習対象の手話単語に対応する変形説明文を取得する
ステップを更に含み、前記意味情報、前記手話画像およ
び前記背景アニメーションを表示する前記ステップにお
いて、前記学習対象の手話単語に対応する変形説明文を
表示することを特徴とする。
In a thirteenth aspect based on the eleventh or twelfth aspect, the operating environment is a sign-language transformation dictionary unit which stores a transformation explanation sentence which is character information for explaining a transformation of a sign language operation for each sign language word. Further comprising the step of: acquiring a deformed explanatory sentence corresponding to the learning target sign language word based on the input information, wherein the displaying the semantic information, the sign language image and the background animation comprises: A modified description corresponding to a word is displayed.

【0019】第14の発明は、第11または第12の発
明において、前記動作環境は、各種の会話文と各種の会
話文における手話動作の変形を説明する文字情報である
個別変形説明文とを手話単語に対応付けて蓄積している
会話辞書部から、前記入力情報に基づき前記学習対象の
手話単語に対応する会話文および個別変形説明文を取得
するステップと、前記学習対象の手話単語に対応する会
話文を該会話文に対する個別変形説明文と共に表示する
ステップと、を更に含むことを特徴とする。
In a fourteenth aspect based on the eleventh or twelfth aspect, the operating environment includes a variety of conversational sentences and an individual transformation description sentence which is character information for explaining a modification of the sign language operation in the various conversational sentences. Acquiring, from the conversation dictionary unit stored in association with the sign language word, a conversation sentence and an individual deformation explanation sentence corresponding to the learning target sign language word based on the input information; And displaying the conversation sentence to be performed together with the individual modified explanation for the conversation sentence.

【0020】第15の発明は、第14の発明において、
前記動作環境は、前記会話辞書部に蓄積されている各会
話文の意味する内容を表す画像である会話環境画像を蓄
積している環境画像蓄積手段から、前記個別変形説明文
と共に表示される前記会話文に対応する会話環境画像を
取得するステップと、前記ステップで取得される会話環
境画像を表示するステップと、を更に含むことを特徴と
する。
According to a fifteenth aspect, in the fourteenth aspect,
The operation environment is displayed together with the individual deformation explanation from an environment image storage unit that stores a conversation environment image that is an image representing the meaning of each conversation sentence stored in the conversation dictionary unit. The method further includes a step of acquiring a conversation environment image corresponding to the conversation sentence, and a step of displaying the conversation environment image acquired in the step.

【0021】第16の発明は、第14の発明において、
前記動作環境は、前記会話辞書部に蓄積されている各会
話文の意味する内容を表す画像における素材を示す素材
データを蓄積している環境素材蓄積手段から、前記個別
変形説明文と共に表示される前記会話文に応じた素材デ
ータを取得するステップと、各手話単語に対する手話動
作を前記会話辞書部に蓄積されている各会話文に合わせ
て変形させた手話動作の画像を変形手話画像として蓄積
している変形手話画像蓄積手段から、前記個別変形説明
文と共に表示される前記会話文に合わせて変形させた変
形手話画像を取得するステップと、取得された前記素材
データの示す素材を取得された前記変形手話画像に合成
した環境合成画像を生成するステップと、前記環境合成
画像を表示するステップと、を更に含むことを特徴とす
る。
According to a sixteenth aspect, in the fourteenth aspect,
The operating environment is displayed together with the individual deformation explanation from an environment material storage unit that stores material data indicating a material in an image representing the meaning of each conversation sentence stored in the conversation dictionary unit. Acquiring material data corresponding to the conversation sentence, and storing a sign language operation image obtained by transforming the sign language operation for each sign language word according to each conversation sentence stored in the conversation dictionary unit as a modified sign language image. Obtaining a modified sign language image deformed in accordance with the conversational sentence displayed together with the individual deformation explanation sentence from the modified sign language image storing means, and obtaining the material indicated by the obtained material data. The method further includes a step of generating an environment composite image synthesized with the transformed sign language image, and a step of displaying the environment composite image.

【0022】[0022]

【発明の実施の形態】以下、本発明の各実施形態につい
て添付図面を参照して説明する。
Embodiments of the present invention will be described below with reference to the accompanying drawings.

【0023】<実施形態の手話学習支援装置の構成>図
1は、本発明の一実施形態である手話学習支援装置の構
成を示すブロック図である。本実施形態の手話学習支援
装置は、入力部101と、全体制御部102と、手話検
索部103と、手話辞書部104と、背景検索部105
と、背景辞書部106と、手話画像検索部107と、手
話画像蓄積部108と、アニメ生成部109と、アニメ
データ蓄積部110と、出力部111と、背景画像合成
部112と、合成情報蓄積部113と、変形検索部11
4と、変形辞書部115と、会話検索部116と、会話
辞書部117と、環境生成部118と、環境画像蓄積部
119と、環境合成部120と、環境素材蓄積部121
とを備えている。
<Configuration of Sign Language Learning Support Apparatus According to Embodiment> FIG. 1 is a block diagram showing a configuration of a sign language learning support apparatus according to an embodiment of the present invention. The sign language learning support device according to the present embodiment includes an input unit 101, an overall control unit 102, a sign language search unit 103, a sign language dictionary unit 104, and a background search unit 105.
, A background dictionary unit 106, a sign language image search unit 107, a sign language image storage unit 108, an animation generation unit 109, an animation data storage unit 110, an output unit 111, a background image synthesis unit 112, and synthesis information storage. Unit 113 and transformation search unit 11
4, a transformation dictionary unit 115, a conversation search unit 116, a conversation dictionary unit 117, an environment generation unit 118, an environment image storage unit 119, an environment synthesis unit 120, and an environment material storage unit 121.
And

【0024】上記構成の手話学習支援装置では、キーワ
ードや手形状データ等の学習条件が、入力部101から
入力されて全体制御部102に送られる。全体制御部1
02は、この入力情報に基づき、各部を制御して学習に
必要なデータを生成し出力部111に送る。手話検索部
103は、この入力情報に基づき、手話辞書部104か
ら手話単語データを抽出する。背景検索部105は、こ
の手話単語データに基づき、背景辞書部106から背景
データを抽出する。手話画像検索部107は、この手話
単語データに基づき、手話画像蓄積部108から手話画
像を取り出す。アニメ生成部109は、アニメデータ蓄
積部110に蓄積されているデータを用いて背景アニメ
ーションを生成する。背景画像合成部112は、合成情
報蓄積部113に蓄積されている合成情報に基づき、手
話画像と背景アニメーションとの合成画像を生成する。
変形検索部114は、手話変形辞書部115から変形デ
ータを取り出す。会話検索部116は、会話辞書部11
7から会話データと変形関係データを取り出す。環境生
成部118は、環境画像蓄積部119から環境画像を取
り出す。環境合成部120は、環境素材蓄積部121に
蓄積された環境素材データの示す素材を上記環境画像に
合成した環境合成画像を生成する。全体制御部102
は、このようにして得られた手話データ、背景データ、
手話画像、背景アニメーション、合成画像、変形デー
タ、会話データ、会話変形対応データ、環境画像および
環境合成画像を出力部111に送る。出力部111は、
接続されているディスプレイ等の出力装置に、これら手
話データ、背景データ、手話画像、背景アニメーショ
ン、合成画像、変形データ、会話データ、会話変形対応
データ、環境画像、環境合成画像のいずれかもしくは全
てを出力する。
In the sign language learning support device having the above configuration, learning conditions such as keywords and hand shape data are input from the input unit 101 and sent to the overall control unit 102. Overall control unit 1
In step 02, based on the input information, each unit is controlled to generate data necessary for learning, and sends the data to the output unit 111. The sign language search unit 103 extracts sign language word data from the sign language dictionary unit 104 based on the input information. The background search unit 105 extracts background data from the background dictionary unit 106 based on the sign language word data. The sign language image search unit 107 extracts a sign language image from the sign language image storage unit 108 based on the sign language word data. The animation generation unit 109 generates a background animation using the data stored in the animation data storage unit 110. The background image combining unit 112 generates a combined image of the sign language image and the background animation based on the combined information stored in the combined information storage unit 113.
The transformation search unit 114 extracts transformation data from the sign language transformation dictionary unit 115. The conversation search unit 116 is a conversation dictionary unit 11
7, the conversation data and the deformation relation data are extracted. The environment generation unit 118 extracts an environment image from the environment image storage unit 119. The environment synthesis unit 120 generates an environment synthesis image obtained by synthesizing the material indicated by the environment material data stored in the environment material storage unit 121 with the environment image. Overall control unit 102
Is the sign language data, background data,
The output unit 111 sends the sign language image, the background animation, the composite image, the deformation data, the conversation data, the conversation deformation correspondence data, the environment image, and the environment composite image. The output unit 111
Any or all of these sign language data, background data, sign language image, background animation, composite image, transformation data, conversation data, conversation transformation correspondence data, environment image, environment composition image are output to an output device such as a connected display. Output.

【0025】入力部101、全体制御部102、手話検
索部103、背景検索部105、手話画像検索部10
7、アニメ生成部109、出力部111、背景画像合成
部112、変形検索部114、会話検索部116、環境
生成部118、環境合成部120は、1台もしくは複数
台のコンピュータによって実現可能であって、コンピュ
ータ内のCPUが所定のプログラム(以下「手話学習支
援プログラム」という)を実行することにより、これら
各部の機能を実現することができる。ここで、CPUが
実行する手話学習支援プログラムは、典型的には、当該
プログラムを記憶した記憶媒体(フレキシブルディス
ク、CD−ROM、DVD等)によって提供される。す
なわち、ユーザは、購入した記憶媒体を上記コンピュー
タにセットし、そこに記憶されている手話学習支援プロ
グラムを読み取らせて、そのコンピュータにおけるハー
ドディスク装置等の記憶装置にインストールする。ま
た、通信回線を介してオンラインで伝送されてくる手話
学習支援プログラムを記憶装置にインストールするよう
にしてもよい。さらに、メーカがコンピュータを手話学
習支援装置として出荷する前に、予め記憶装置に手話学
習支援プログラムをインストールしておくようにしても
よい。手話辞書部104、背景辞書部106、手話画像
蓄積部108、アニメデータ蓄積部110、手話変形辞
書部115、会話辞書部117、環境画像蓄積部11
9、環境素材蓄積部121は、コンピュータに接続され
たハードディスク、CD−ROM,DVD等の記録装置
によって実現可能である。
Input unit 101, overall control unit 102, sign language search unit 103, background search unit 105, sign language image search unit 10
7. The animation generation unit 109, the output unit 111, the background image synthesis unit 112, the transformation search unit 114, the conversation search unit 116, the environment generation unit 118, and the environment synthesis unit 120 can be realized by one or a plurality of computers. By executing a predetermined program (hereinafter referred to as a "sign language learning support program") by the CPU in the computer, the functions of these units can be realized. Here, the sign language learning support program executed by the CPU is typically provided by a storage medium (flexible disk, CD-ROM, DVD, or the like) storing the program. That is, the user sets the purchased storage medium in the computer, reads the sign language learning support program stored therein, and installs the program in a storage device such as a hard disk device in the computer. Further, a sign language learning support program transmitted online via a communication line may be installed in the storage device. Furthermore, before the manufacturer ships the computer as a sign language learning support device, a sign language learning support program may be installed in a storage device in advance. Sign language dictionary 104, background dictionary 106, sign language image storage 108, animation data storage 110, sign language transformation dictionary 115, conversation dictionary 117, environment image storage 11
9. The environmental material storage unit 121 can be realized by a recording device such as a hard disk, a CD-ROM, and a DVD connected to a computer.

【0026】入力部101には、文字情報等を入力する
ための入力装置が接続される。本実施形態では、入力装
置としてキーボードおよびマウスが接続されているもの
とする。出力部111には、画像、文字、音声を出力す
るための出力装置が接続可能である。本実施形態では、
出力装置として、ディスプレイが接続されているものと
する。
The input unit 101 is connected to an input device for inputting character information and the like. In the present embodiment, it is assumed that a keyboard and a mouse are connected as input devices. An output device for outputting images, characters, and sounds can be connected to the output unit 111. In this embodiment,
It is assumed that a display is connected as an output device.

【0027】上記のように構成された本実施形態の手話
学習支援装置は、複数の動作モードを有し、入力部10
1から入力される指示情報に基づき動作モードが選択さ
れ、選択された各動作モードに応じた各種の態様で手話
の学習を支援する。以下、本実施形態の手話学習支援装
置の各動作モードにおける処理について説明する。
The sign language learning support apparatus according to the present embodiment having the above-described configuration has a plurality of operation modes,
An operation mode is selected based on the instruction information input from step 1, and learning of sign language is supported in various modes according to each selected operation mode. Hereinafter, processing in each operation mode of the sign language learning support device of the present embodiment will be described.

【0028】<第1の動作モード>図2は、本実施形態
の手話学習支援装置の第1の動作モードにおける処理を
示すフローチャートである。以下、学習条件としてキー
ワードの「会う」とそれに関連する手形状とを設定して
この手話学習支援装置により学習を行う手順を、図2の
フローチャートにおける各ステップに沿って説明する。
<First Operation Mode> FIG. 2 is a flowchart showing processing in the first operation mode of the sign language learning support device of the present embodiment. Hereinafter, a procedure of setting the keyword "meet" as a learning condition and a hand shape related thereto and performing learning by the sign language learning support device will be described along each step in the flowchart of FIG.

【0029】(1)ステップS001の処理 入力部101に接続されたキーボードおよびマウスを用
いて学習条件を入力情報として入力する(以下、この入
力情報を符号「Iinf 」で示すものとする)。このとき
ディスプレイには、学習条件設定画面が表示される。本
実施形態では、入力情報Iinf としてキーワードおよび
手形状データを入力する(以下、入力情報Iinf として
入力されるキーワードを符号「Kwd」で、手形状データ
を符号「Hdat 」で表すものとする)。図3に、学習条
件設定画面18の一例を示す。この学習条件設定画面1
8には、文字入力部301と、手形状リスト302と、
リセットボタン303と、学習開始ボタン304とが表
示される。学習条件として、文字入力部301と手形状
リスト302のうち必要な項目を1項目以上設定する。
(1) Processing in Step S001 The learning condition is input as input information using a keyboard and a mouse connected to the input unit 101 (hereinafter, this input information is indicated by a symbol "Iinf"). At this time, a learning condition setting screen is displayed on the display. In the present embodiment, a keyword and hand shape data are input as input information Iinf (hereinafter, a keyword input as input information Iinf is denoted by a code “Kwd” and hand shape data is denoted by a code “Hdat”). FIG. 3 shows an example of the learning condition setting screen 18. This learning condition setting screen 1
8, a character input unit 301, a hand shape list 302,
A reset button 303 and a learning start button 304 are displayed. As learning conditions, one or more necessary items of the character input unit 301 and the hand shape list 302 are set.

【0030】或る意味や単語等の或るキーワードに関係
する手話を学習したい場合、キーボードから、キーワー
ドの文字列を入力する。入力された文字列は、入力情報
Iinf を構成するキーワードKwdとしてセットされる。
或る手形状の手話を学習したい場合、手形状リスト30
2から学習したい手形状をマウスを使って選択する。選
択された手形状は、背景が黒で表示され(図では斜線を
付すことにより背景が黒で表示されていることを示して
いる。他の図においても同様。)、選択されていない手
形状は、背景が白で表示される。選択された手形状は、
入力情報 Iinfを構成する手形状データHdat に追加さ
れる。手形状リスト302の下部にはスクロールバーが
設けられており、これを使うことにより、手形状リスト
302に表示されている手形状を切り替えることができ
る。表示されている手形状のうち背景が白の手形状の上
にカーソルを移動しマウスのボタンを押すことで、学習
したい手形状を選択する。背景が黒の手形状の上にカー
ソルを移動させてマウスのボタンを押すと、背景が白に
変わり、その手形状が、入力情報Iinf の手形状データ
Hdatから削除される。手形状データHdatには複数の手
形状を設定することが可能である。
When learning a sign language related to a certain keyword such as a certain meaning or a word, a character string of the keyword is input from a keyboard. The input character string is set as a keyword Kwd constituting the input information Iinf.
When learning a sign language of a certain hand shape, the hand shape list 30
Select the hand shape you want to learn from step 2 using the mouse. The selected hand shape is displayed with a black background (shaded in the drawing to indicate that the background is displayed in black; the same applies to other drawings), and a hand shape that is not selected. Is displayed with a white background. The selected hand shape is
The input information Iinf is added to the hand shape data Hdat constituting the inf. A scroll bar is provided below the hand shape list 302. By using the scroll bar, the hand shapes displayed on the hand shape list 302 can be switched. By moving the cursor over a hand shape with a white background among the displayed hand shapes and pressing a mouse button, the hand shape to be learned is selected. When the cursor is moved over a hand shape having a black background and the mouse button is pressed, the background changes to white, and the hand shape is deleted from the hand shape data Hdat of the input information Iinf. A plurality of hand shapes can be set in the hand shape data Hdat.

【0031】設定を最初からやり直す場合は、リセット
ボタン303を押す。リセットボタン303が押される
と、文字入力部301および手形状リスト302の内容
が初期化され、入力情報IinfのキーワードKwdおよび
手形状データHdatの内容がクリアされる。
To reset the settings from the beginning, a reset button 303 is pressed. When the reset button 303 is pressed, the contents of the character input section 301 and the hand shape list 302 are initialized, and the contents of the keyword Kwd and the hand shape data Hdat of the input information Iinf are cleared.

【0032】文字入力部301および手形状リスト30
2の設定終了後、学習開始ボタン304を押す。学習開
始ボタン304が押されると、入力情報Iinf が入力部
101から全体制御部102に送られる。
Character input unit 301 and hand shape list 30
After the setting of 2, the learning start button 304 is pressed. When the learning start button 304 is pressed, input information Iinf is sent from the input unit 101 to the overall control unit 102.

【0033】手形状データHdat は手形状に対応する手
形状番号で表現されており、この手形状番号が全体制御
部102に送られる。図4に、手形状に対応する手形状
番号の一例を示す。図4は、1つの手形状に対し1つの
番号を付けているが、手形状をグループに分けて1つの
グループに対して1つの番号を付けることも可能であ
る。図4に含まれない手形状に対しても、同様に手形状
番号を定義する。
The hand shape data Hdat is represented by a hand shape number corresponding to the hand shape, and the hand shape number is sent to the overall control unit 102. FIG. 4 shows an example of a hand shape number corresponding to the hand shape. In FIG. 4, one number is assigned to one hand shape, but it is also possible to divide the hand shapes into groups and assign one number to one group. Hand shape numbers are similarly defined for hand shapes not included in FIG.

【0034】例えば、「会う」という行動に関係する手
形状番号“6”の手話単語を学習する場合、文字入力部
301に「会う」と入力し、手形状リストから手形状番
号“6”の手形状を選択する。設定後、学習開始ボタン
304を押すと、キーワードKwdとして「会う」が、手
形状データHdatとして“6”が入力情報Iinfとしてそ
れぞれセットされ、この入力情報Iinf が全体制御部1
02に送られる。上記のようにして学習条件が設定され
ると、ステップS002に進む。
For example, when learning a sign language word with a hand shape number “6” related to the action of “meeting”, enter “meeting” in the character input section 301, and enter the hand shape number “6” from the hand shape list. Select a hand shape. When the learning start button 304 is pressed after the setting, "meet" is set as the keyword Kwd, and "6" is set as the hand shape data Hdat as the input information Iinf.
02. When the learning conditions are set as described above, the process proceeds to step S002.

【0035】(2)ステップSS002の処理 手話検索部103が、手話辞書部104から、入力情報
Iinf の内容に基づき学習を行う手話単語の手話単語デ
ータを抽出する。手話辞書部104には、手話情報21
が蓄積されている。図5に、手話辞書部104に蓄積さ
れている手話情報21の一例を示す。この手話情報21
は、手話番号501と手形状情報502と意味データ5
03とキーワード504とから成る。手話番号501
は、手話辞書部104に蓄積されている各手話単語に一
つずつ割り当てられる。手形状は、片手で行う手話の場
合は1つだけ設定されている。両手で行う手話の場合
は、利き腕側の手(以下「強手」という)の手形状、利き
腕と反対側の手(以下「弱手」という)の手形状の順に
設定されている。意味データ503としては、手話単語
に対応する日本語の意味が設定されている。複数の意味
を持つ場合は、セパレータ“;”の後にくり返し意味が
設定されている。キーワード504としては、手話単語
の分類や関係するキーワード等が設定されている。複数
のキーワードを設定する場合は、意味データ503と同
様にセパレータ“;”の後にくり返しキーワードが設定
される。
(2) Processing of Step SS002 The sign language search unit 103 extracts, from the sign language dictionary unit 104, sign language word data of a sign language word to be learned based on the contents of the input information Iinf. The sign language dictionary unit 104 includes the sign language information 21.
Has been accumulated. FIG. 5 shows an example of the sign language information 21 stored in the sign language dictionary unit 104. This sign language information 21
Is sign language number 501, hand shape information 502, and semantic data 5
03 and a keyword 504. Sign language number 501
Is assigned to each sign language word stored in the sign language dictionary unit 104 one by one. Only one hand shape is set in the case of sign language performed with one hand. In the case of sign language performed with both hands, the hand shape of the hand on the dominant arm side (hereinafter referred to as “strong hand”) and the hand shape of the hand opposite to the dominant arm (hereinafter referred to as “weak hand”) are set. As the meaning data 503, a Japanese meaning corresponding to the sign language word is set. If there is more than one meaning, the meaning is set repeatedly after the separator ";". As the keywords 504, classification of sign language words, related keywords, and the like are set. When a plurality of keywords are set, similar to the semantic data 503, a repeated keyword is set after the separator ";".

【0036】入力情報IinfのキーワードKwdに文字列
が含まれている場合、入力情報IinfのキーワードKwd
と、意味データ503として設定されている文字列とを
比較し、手話辞書部104の手話情報21のうち一致す
る文字列を含むデータをキー一致データとして抽出す
る。次に、入力情報Iinf のキーワードKwdと、キーワ
ード504に設定されている文字列とを比較し、手話辞
書部104の手話情報21から一致する文字列を含むデ
ータをキー一致データに追加する。
When the keyword Kwd of the input information Iinf contains a character string, the keyword Kwd of the input information Iinf
Is compared with the character string set as the semantic data 503, and data including the matching character string in the sign language information 21 of the sign language dictionary unit 104 is extracted as key match data. Next, the keyword Kwd of the input information Iinf is compared with the character string set in the keyword 504, and data including a matching character string from the sign language information 21 of the sign language dictionary unit 104 is added to the key match data.

【0037】入力情報Iinf の手形状データHdatに手
形状が含まれる場合、入力情報Iinfの手形状データHd
at の手形状番号と手形状情報502の手形状番号とを
比較し、手話辞書部104の手話情報21のうち一致す
る手形状を含むデータを手形状一致データとして抽出す
る。学習条件として複数の手形状番号が設定されている
場合は、設定されている手形状のうち少なくともいずれ
か一つを含むデータを全て抽出する。
If the hand shape data Hdat of the input information Iinf includes a hand shape, the hand shape data Hd of the input information Iinf
The hand shape number of at is compared with the hand shape number of the hand shape information 502, and data including the matching hand shape in the sign language information 21 of the sign language dictionary unit 104 is extracted as hand shape matching data. When a plurality of hand shape numbers are set as learning conditions, all data including at least one of the set hand shapes is extracted.

【0038】抽出したキー一致データと手形状一致デー
タとを比較し、共通に含まれる手話情報を抽出手話単語
データとして全体制御部102に返す。
The extracted key match data and the hand shape match data are compared, and sign language information included in common is returned to the overall control unit 102 as extracted sign language word data.

【0039】例えば、入力情報IinfのキーワードKwd
に「会う」、手形状データHdatに“6”が設定されて
いる場合について説明する。意味データ503に「会
う」と設定されている手話単語として、手話単語<aU
>(本実施形態においては、手話単語に対して日本語の
代表的な意味を先頭の文字のみを小文字にしたアルファ
ベットで記述して<>で括ったラベルによって表現す
る)のデータがキー一致データとして抽出される。次
に、キーワード504に「会う」と設定されている手話
単語として、例えば、<bASYO>,<eKI>,<
oTOKO>,<oNNNA>,<hAHA>,<cH
ICHI>,<iKU>のデータがキー一致データに追
加される。
For example, the keyword Kwd of the input information Iinf
The case where “6” is set in the hand shape data Hdat will be described. As a sign language word set to "meet" in the meaning data 503, a sign language word <aU
> (In the present embodiment, the representative meaning of Japanese for the sign language word is described by an alphabet in which only the first character is lowercase and expressed by a label enclosed by <>) is key matching data. Is extracted as Next, as a sign language word set to “meet” in the keyword 504, for example, <bASYO>, <eKI>, <
oTOKO>, <oNNNA>, <hAHA>, <cH
ICHI> and <iKU> are added to the key match data.

【0040】次に、手話辞書部104の手話情報21か
ら、手形状情報502に“6”が設定されている手話単
語として、例えば、手話ラベルが<aU>,<iKU
>,<aKA>のデータが手形状一致データとして抽出
される。
Next, from the sign language information 21 of the sign language dictionary unit 104, as a sign language word in which the sign shape information 502 is set to “6”, for example, the sign language labels are <aU>, <iKU
>, <AKA> are extracted as hand shape matching data.

【0041】キー一致データの{<aU>,<bASY
O>,<eKI>,<oTOKO>,<oNNNA>,
<hAHA>,<cHICHI>,<iKU>}と、手
形状一致データの{<aU>,<iKU>,<aKA
>}のうち、<aU>,<iKU>が抽出手話単語デー
タとして全体制御部102に送られる。このようにして
手話単語データが抽出されると、ステップS003に進
む。
{<AU>, <bASY of key match data
O>, <eKI>, <oTOKO>, <oNNNA>,
<HAHA>, <cHICHI>, <iKU>} and hand shape matching data {<aU>, <iKU>, <aKA
Of <>, <aU> and <iKU> are sent to the overall control unit 102 as extracted sign language word data. When the sign language word data is extracted in this way, the process proceeds to step S003.

【0042】(3)ステップS003の処理 全体制御部102が、抽出手話単語データを出力部11
1に送る。出力部111は、出力部111に接続されて
いるディスプレイに、抽出手話表示画面25を表示す
る。図6に、抽出手話表示画面25の一例を示す。この
抽出手話表示画面25には、手話情報数601と抽出手
話情報リスト602と学習開始ボタン603と初期画面
復帰ボタン604とが表示されている。手話情報数60
1としては、抽出された手話単語の数が表示される。抽
出手話情報リスト602としては、全ての抽出手話単語
データの手話番号と意味データが表示される。
(3) Step S 003 The overall control unit 102 outputs the extracted sign language word data to the output unit 11.
Send to 1. The output unit 111 displays the extracted sign language display screen 25 on a display connected to the output unit 111. FIG. 6 shows an example of the extracted sign language display screen 25. The extracted sign language display screen 25 displays the number of sign language information 601, an extracted sign language information list 602, a learning start button 603, and an initial screen return button 604. Sign language information 60
As 1, the number of the extracted sign language words is displayed. The extracted sign language information list 602 displays the sign language numbers and the meaning data of all the extracted sign language word data.

【0043】抽出手話単語データに含まれるデータ数が
0の場合、学習条件に対応する手話情報が存在しないこ
とを、出力部111に接続されたディスプレイに表示す
る。図7に、入力情報Iinf に一致するデータがないこ
とを示す条件不一致表示画面の一例を示す。この画面に
は初期画面復帰ボタン701が表示されている。初期画
面復帰ボタン701が押されるとステップS001に戻
る。
When the number of data included in the extracted sign language word data is 0, the fact that there is no sign language information corresponding to the learning condition is displayed on a display connected to the output unit 111. FIG. 7 shows an example of a condition mismatch display screen showing that there is no data matching the input information Iinf. On this screen, an initial screen return button 701 is displayed. When the initial screen return button 701 is pressed, the process returns to step S001.

【0044】手話情報リスト602の中から、学習を行
う手話単語の手話情報をマウスによって選択する。選択
された手話情報は、背景が黒に変化し、学習手話単語デ
ータにとしてセットされる。その後、手話情報リスト6
02における未選択の手話情報を更に選択すると、その
手話情報も、背景が黒に変化し、学習手話単語データに
追加される。学習手話単語データは複数個選択可能であ
る。選択されている手話情報を再度マウスで選択する
と、背景が白に変化し、学習手話単語データから削除さ
れる。
From the sign language information list 602, sign language information of a sign language word to be learned is selected by a mouse. The selected sign language information changes its background to black and is set as learning sign language word data. After that, sign language information list 6
When the unselected sign language information in 02 is further selected, the background of the sign language information also changes to black and is added to the learning sign language word data. A plurality of learning sign language word data can be selected. When the selected sign language information is selected again with the mouse, the background changes to white and is deleted from the learning sign language word data.

【0045】学習開始ボタン603を押すと、学習手話
単語データの手話番号が学習手話リストにセットされ
る。初期入力画面ボタン604を押すと、ステップS0
01に戻る。
When the learning start button 603 is pressed, the sign language number of the learning sign language word data is set in the learning sign language list. When the initial input screen button 604 is pressed, a step S0
Return to 01.

【0046】例えば、図6の抽出手話情報リスト602
の{<aU>,<iKU>}から、<aU>を選択し、
学習開始ボタン603を押すと、手話番号“1”が学習
手話リストにセットされた後、ステップS004に進
む。
For example, the extracted sign language information list 602 in FIG.
From <aU>, <iKU>}, select <aU>
When the learning start button 603 is pressed, the sign language number "1" is set in the learning sign language list, and the process proceeds to step S004.

【0047】(4)ステップS004の処理 学習手話リストの先頭データの手話番号を学習手話番号
として設定する。例えば、学習手話リストの先頭のデー
タが、<aU>の場合、学習手話番号として“1”を設
定する。このようにして学習手話番号が設定されると、
ステップS005に進む。
(4) Processing of Step S004 The sign language number of the head data of the learning sign language list is set as the learning sign language number. For example, when the head data of the learning sign language list is <aU>, “1” is set as the learning sign language number. When the learning sign language number is set in this way,
Proceed to step S005.

【0048】(5)ステップS005の処理 背景検索部105が、学習手話番号に基づき背景辞書部
106に蓄積された背景情報29から、表示する手話に
関する背景データを取得する。図8に、背景辞書部10
6に蓄積されている背景情報29の一例を示す。この背
景情報29は、背景番号801と手話番号802と強手
の対応803と弱手の対応804と背景説明文805と
から成る。背景検索部105は、学習手話番号と手話番
号802の番号とが一致するデータを背景データとして
セットする。一致するデータが存在しなかった場合、背
景データに含まれる背景番号を0にセットする。
(5) Processing of Step S005 The background search unit 105 acquires background data relating to the sign language to be displayed from the background information 29 stored in the background dictionary unit 106 based on the learning sign language number. FIG. 8 shows the background dictionary unit 10.
6 shows an example of the background information 29 stored in No. 6. The background information 29 includes a background number 801, a sign language number 802, a strong hand correspondence 803, a weak hand correspondence 804, and a background description 805. The background search unit 105 sets data in which the learning sign language number and the sign language number 802 match each other as background data. If there is no matching data, the background number included in the background data is set to 0.

【0049】例えば学習手話番号が“1”の場合、手話
単語番号802が“1”である背景番号“1”のデータ
を背景データとしてセットする。このようにして背景デ
ータが設定されると、ステップS006に進む。
For example, when the learning sign language number is “1”, the data of the background number “1” whose sign language word number 802 is “1” is set as the background data. When the background data is set in this way, the process proceeds to step S006.

【0050】(6)ステップS006の処理 手話画像検索部107が、学習手話番号に基づき、手話
画像蓄積部108に蓄積されている手話画像情報から、
表示する手話単語の手話画像を取得する。手話画像蓄積
部108には、手話単語の動作を撮影した画像である手
話画像の画像データ、および、手話単語と手話画像との
対応を示す手話画像テーブル33が蓄積されている。図
9に、手話画像テーブル33の一例を示す。この手話画
像テーブル33は、手話番号901と手話画像名902
とから成る。上記画像データは、手話画像名902の名
前で手話画像蓄積部108に保存されている。この保存
の形式は、標準化された画像形式であり、本実施形態で
はAVIフォーマットが採用されている。手話画像検索
部107は、手話番号901が学習手話番号と一致する
データの手話画像名902を手話画像テーブル33から
取り出して出力手話画像名としてセットする。そして手
話画像蓄積部108に蓄積された画像データから出力手
話画像名の画像を取り出し、出力手話画像としてセット
する。
(6) Processing in Step S 006 The sign language image search unit 107 extracts the sign language image information stored in the sign language image storage unit 108 based on the learning sign language number.
Acquire a sign language image of the sign language word to be displayed. The sign language image storage unit 108 stores image data of a sign language image, which is an image of the action of the sign language word, and a sign language image table 33 indicating the correspondence between the sign language word and the sign language image. FIG. 9 shows an example of the sign language image table 33. The sign language image table 33 includes a sign language number 901 and a sign language image name 902.
Consisting of The image data is stored in the sign language image storage unit 108 under the name of the sign language image name 902. This storage format is a standardized image format, and in the present embodiment, the AVI format is adopted. The sign language image search unit 107 extracts the sign language image name 902 of the data whose sign language number 901 matches the learning sign language number from the sign language image table 33 and sets it as the output sign language image name. Then, an image having the output sign language image name is extracted from the image data stored in the sign language image storage unit 108 and set as an output sign language image.

【0051】例えば学習手話番号が“1”の場合、手話
画像テーブル33から手話番号901が“1”であるデ
ータを検索し、出力手話画像名として“Meet.av
i”をセットする。そして手話画像蓄積部108から
“Meet.avi”の画像を取り出し、出力手話画像
としてセットする。
For example, when the learning sign language number is “1”, the data whose sign language number 901 is “1” is searched from the sign language image table 33, and “Meet.av” is output as the sign language image name.
i ”is set, and“ Meet. avi "is taken out and set as an output sign language image.

【0052】なお、上記では、手話単語の動作を撮影し
た手話画像の画像データが手話画像蓄積部108に蓄積
されているが、手話単語の動作を撮影する代わりに、各
手話単語に対する手話画像をコンピュータグラフィック
スにより生成しておき、生成した手話画像の画像データ
を手話画像蓄積部108に蓄積するようにしてもよい。
このようにして出力手話画像が設定されると、ステップ
S007に進む。
In the above description, the image data of the sign language image obtained by capturing the operation of the sign language word is stored in the sign language image storage unit 108. Instead of capturing the operation of the sign language word, the sign language image corresponding to each sign language word is stored. The image data of the generated sign language image may be stored in the sign language image storage unit 108 in advance by using computer graphics.
When the output sign language image is set in this way, the process proceeds to step S007.

【0053】(7)ステップS007の処理 アニメ生成部109が背景データの背景番号を調べる。
この背景番号が0でない場合、アニメデータ蓄積部11
0に蓄積されているデータを用いて背景アニメーション
を生成する。アニメデータ蓄積部110には、情景画
像、アニメ素材、背景記述シナリオ、および背景画像テ
ーブルが蓄積されている。図10に、背景画像テーブル
38の一例を示す。この背景画像テーブル38は、手話
番号1001と情景画像名1002と背景記述シナリオ
名1003とから成る。情景画像は、情景画像名100
2の名前でJPEG等の画像フォーマットによって蓄積
されている。背景記述シナリオは、背景記述シナリオ名
1003の名前でテキスト形式で蓄積されている。アニ
メ生成部109は、背景画像テーブル38において、手
話番号1001が学習手話番号と一致するデータ(以下
「背景画像データ」という)を検索する。
(7) Step S007 The animation generation unit 109 checks the background number of the background data.
If the background number is not 0, the animation data storage 11
A background animation is generated by using the data stored in “0”. The animation data storage unit 110 stores a scene image, an animation material, a background description scenario, and a background image table. FIG. 10 shows an example of the background image table 38. The background image table 38 includes a sign language number 1001, a scene image name 1002, and a background description scenario name 1003. The scene image is a scene image name 100
2 and stored in an image format such as JPEG. The background description scenario is stored in a text format under the name of the background description scenario name 1003. The animation generation unit 109 searches the background image table 38 for data in which the sign language number 1001 matches the learning sign language number (hereinafter, referred to as “background image data”).

【0054】背景画像データが存在した場合、背景画像
データの情景画像名1002の情景画像をアニメデータ
蓄積部110から取り出す。次に、背景画像データの背
景記述シナリオ名1003の背景記述シナリオをアニメ
データ蓄積部110から取り出す。背景記述シナリオに
は、各手話単語の意味を視覚的に表現する背景アニメー
ションを作成するために必要なアニメ素材のデータ名と
アニメ素材の動作命令が記述されている。
If background image data exists, the scene image having the scene image name 1002 of the background image data is extracted from the animation data storage unit 110. Next, the background description scenario of the background description scenario name 1003 of the background image data is extracted from the animation data storage unit 110. The background description scenario describes a data name of an animation material and an operation instruction of the animation material necessary for creating a background animation that visually expresses the meaning of each sign language word.

【0055】背景記述シナリオの記述フォーマットの一
例について説明する。背景記述シナリオでは、アニメ素
材の動作が“START”と“END”の間に記述され
る(以下、このような動作を記述した行を「動作記述
行」という)。“START”の前の行、及び“EN
D”の後ろの行は、コメント行として無視される。動作
記述行は、各動作に対して1行で記述され、データ名、
動作命令が記述される。例えば、アニメ素材のデータ名
が「MAN」で左に歩く動作を記述する動作記述行は、 MAN WALKTOLEFT 550,240 35
0,200 と記述される。“WALKTOLEFT”が左向きに歩
く命令を示し、その後に、開始点と終了点を記述する。
必要な数だけ動作記述行を“START”と“END”
の間に記述する。この記述フォーマットは、一例であ
り、背景アニメーションを作成するためのアニメ素材の
動作について記述できるものであれば、他のフォーマッ
トでもよい。
An example of a description format of the background description scenario will be described. In the background description scenario, the operation of the animation material is described between “START” and “END” (hereinafter, a line describing such an operation is referred to as an “operation description line”). The line before “START” and “EN”
The line after D "is ignored as a comment line. The operation description line is described in one line for each operation, and includes a data name,
An operation instruction is described. For example, an action description line that describes an action of walking to the left with the data name of the animation material “MAN” is MAN WALKTOLEFT 550, 240 35
0,200. “WALKTOLEFT” indicates a command to walk to the left, followed by a start point and an end point.
The required number of operation description lines are "START" and "END"
Describe between. This description format is an example, and any other format may be used as long as the operation of the animation material for creating the background animation can be described.

【0056】アニメ生成部109は、情景画像に、背景
記述シナリオに従って動作させたアニメ素材を合成し、
合成画像を出力背景アニメーションとしてセットする。
The animation generation unit 109 synthesizes the scene image with the animation material operated according to the background description scenario,
Set the composite image as the output background animation.

【0057】例えば、学習手話番号が“1”の場合、背
景画像テーブル38の手話番号1001が“1”である
データを検索し、情景画像“Meet_Bk. jpg”
をアニメデータ蓄積部110から取り出す。次に、背景
記述シナリオ“Meet.sce”をアニメーデータ蓄
積部110から取り出す。背景記述シナリオ“Mee
t.sce”には、例えば次のように記述されている。 START MAN WALKTOLEFT 550,240 35
0,240 MAN WALKTORIGHT 100,240 30
0,240 END
For example, when the learning sign language number is “1”, data in which the sign language number 1001 is “1” in the background image table 38 is searched, and the scene image “Meet_Bk.jpg” is retrieved.
From the animation data storage unit 110. Next, the background description scenario “Meet.sce” is extracted from the animation data storage unit 110. Background description scenario "Mee
t. For example, the following is described in “sce”: START MAN WALKTOLEFT 550, 240 35
0,240 MAN WALKTORIGHT 100,240 30
0,240 END

【0058】図11は、手話単語<aU>の出力背景ア
ニメーションの作成手順を示す概略図である。図11に
おいて、1101は情景画像を示し、1102はアニメ
素材“MAN”を示し、1103は作成された、手話単
語<aU>の背景アニメーションを示している。図11
に示す例では、アニメ生成部109は、アニメデータ蓄
積部110から、情景画像1101と、データ名が“M
AN”である男性の素材1102とを取り出す。そし
て、取り出した情景画像1101の中で、(550,2
40)から(350,240)まで左向きに歩く男性
と、(100,240)から(300,240)まで右
向きに歩く男性を合成した背景アニメーション1103
を生成し、これを出力背景アニメーションとしてセット
する。このようにして背景アニメーションの生成・設定
が行われると、ステップS008に進む。
FIG. 11 is a schematic diagram showing a procedure for creating an output background animation of the sign language word <aU>. In FIG. 11, 1101 indicates a scene image, 1102 indicates an animation material “MAN”, and 1103 indicates a background animation of the created sign language word <aU>. FIG.
In the example shown in FIG. 7, the animation generation unit 109 stores the scene image 1101 and the data name “M” from the animation data storage unit 110.
AN "is extracted from the male material 1102. In the extracted scene image 1101, (550, 2
Background animation 1103 combining a man walking left from 40) to (350, 240) and a man walking right from (100, 240) to (300, 240).
And set this as the output background animation. When the background animation is generated and set in this way, the process proceeds to step S008.

【0059】(8)ステップS008の処理 出力部111が、手話学習情報表示画面44をディスプ
レイに表示する。図12に、手話学習情報表示画面44
の一例を示す。この手話学習情報表示画面44は、手話
番号表示部1201と意味表示部1202と背景説明文
表示部1203と画像表示部1204と動作画像出力ボ
タン1205と背景画像出力ボタン1206と次単語表
示ボタン1207と学習終了ボタン1208とを備えて
いる。ただし、学習手話リスト内のデータの数が1つの
場合、次単語表示ボタン1207は表示されない。手話
番号表示部1201には、学習手話番号が表示される。
意味表示部1202には、学習手話番号の手話単語の手
話情報に設定されている意味データの文字列が表示され
る。背景説明文表示部1203には、学習手話番号の手
話の背景情報に設定されている背景説明文の文字列が表
示される。
(8) Processing in Step S008 The output unit 111 displays the sign language learning information display screen 44 on the display. FIG. 12 shows a sign language learning information display screen 44.
An example is shown below. The sign language learning information display screen 44 includes a sign language number display unit 1201, a meaning display unit 1202, a background description display unit 1203, an image display unit 1204, an operation image output button 1205, a background image output button 1206, a next word display button 1207, A learning end button 1208 is provided. However, when the number of data in the learning sign language list is one, the next word display button 1207 is not displayed. The sign language number display section 1201 displays the learning sign language number.
The meaning display section 1202 displays a character string of the meaning data set in the sign language information of the sign language word of the learning sign language number. The background description display section 1203 displays a character string of the background description set in the background information of the sign language of the learning sign language number.

【0060】例えば学習手話番号が“1”の場合、手話
番号表示部1201に“1”、意味表示部1202に
「会う、挨拶する。」、背景説明文表示部1203に
「人と人が近づいて会った状態を表す。」と表示され
る。このようにして手話学習情報が画面に表示される
と、ステップS009に進む。
For example, when the learning sign language number is “1”, “1” is displayed on the sign language number display unit 1201, “meet and greet” on the meaning display unit 1202, and “people are approaching” on the background description display unit 1203. Represents the state where they met. " When the sign language learning information is displayed on the screen in this way, the process proceeds to step S009.

【0061】(9)ステップS009の処理 手話学習情報表示画面44において押されるボタンの種
類を判定し、その判定結果に応じて次のように動作す
る。動作画像出力ボタン1205が押されると、ステッ
プS010に進む。背景画像出力ボタン1206が押さ
れると、ステップS011に進む。次単語表示ボタン1
207が押されると、ステップS012に進む。学習終
了ボタン1208が押されると、全てを初期状態に戻
し、ステップS001に進む。
(9) Processing in Step S009 The type of button pressed on the sign language learning information display screen 44 is determined, and the following operation is performed according to the determination result. When the operation image output button 1205 is pressed, the process proceeds to step S010. When the background image output button 1206 is pressed, the process proceeds to step S011. Next word display button 1
When 207 is pressed, the process proceeds to step S012. When the learning end button 1208 is pressed, all are returned to the initial state, and the process proceeds to step S001.

【0062】(10)ステップS010の処理 全体制御部102が、出力手話画像を出力部111に送
り、手話学習情報表示画面44の画像表示部1204に
表示する。出力手話画像が最後まで表示されると、ステ
ップS009に進む。
(10) Processing in Step S010 The overall control unit 102 sends the output sign language image to the output unit 111 and displays it on the image display unit 1204 of the sign language learning information display screen 44. When the output sign language image is displayed to the end, the process proceeds to step S009.

【0063】例えば学習手話番号が“1”の場合、出力
手話画像としてセットされている画像“Meet.av
i”が画像表示部1204に表示される。
For example, when the learning sign language number is “1”, the image “Meet.av” set as the output sign language image
“i” is displayed on the image display unit 1204.

【0064】(11)ステップS011の処理 全体制御部102が、出力背景アニメーションを出力部
111に送り、手話学習情報表示画面44の画像表示部
1204に表示する。出力背景アニメーションが最後ま
で表示されると、ステップS009に進む。
(11) Processing of Step S011 The overall control unit 102 sends the output background animation to the output unit 111 and displays it on the image display unit 1204 of the sign language learning information display screen 44. When the output background animation is displayed to the end, the process proceeds to step S009.

【0065】例えば学習手話番号が“1”の場合、出力
背景アニメーションにセットされている背景アニメーシ
ョン1103が表示される。
For example, when the learning sign language number is “1”, the background animation 1103 set as the output background animation is displayed.

【0066】(12)ステップS012の処理 学習手話リストの次のデータの手話番号を次の学習手話
番号として設定する。ただし、現時点の学習手話番号が
学習手話リストの最後のデータに相当する場合は、学習
手話リストの先頭のデータの手話番号を次の学習手話番
号として設定する。このようにして次の学習手話番号が
設定されると、ステップS005に進む。
(12) Processing in Step S012 The sign language number of the next data in the learning sign language list is set as the next learning sign language number. However, if the current learning sign language number corresponds to the last data of the learning sign language list, the sign language number of the first data in the learning sign language list is set as the next learning sign language number. When the next learning sign language number is set in this way, the process proceeds to step S005.

【0067】ステップS003で、<aU>の他に<i
KU>も選択していた場合、学習手話リストには“1”
に続いて、<iKU>の手話番号“4”が設定されてい
る。この場合において学習手話番号に手話番号“1”が
設定されているときは、次単語表示ボタン1207が押
されると、ステップS012で学習手話番号に“4”が
設定され、ステップS005に進む。
In step S003, in addition to <aU>, <iU
If KU> is also selected, “1” is displayed in the learning sign language list.
Then, the sign language number “4” of <iKU> is set. In this case, when the sign language number “1” is set as the learning sign language number and the next word display button 1207 is pressed, “4” is set as the learning sign language number in step S012, and the process proceeds to step S005.

【0068】以上説明したステップS001からステッ
プS012の手順により、手話単語の学習を行うことが
できる。
According to the procedure of steps S001 to S012 described above, sign language words can be learned.

【0069】このような本実施形態における第1の動作
モードによれば、手話単語に対する手話動作が背景説明
文により説明されるとともに、手話単語の意味が背景ア
ニメーションにより視覚的に表現されるため、手話単語
の動作の意味等が理解しやすくなり、手話動作を容易に
学習することができる。
According to the first operation mode in this embodiment, the sign language operation for the sign language word is explained by the background explanation, and the meaning of the sign language word is visually expressed by the background animation. The meaning of the operation of the sign language word can be easily understood, and the sign language operation can be easily learned.

【0070】<第2の動作モード>図13は、本実施形
態の手話学習支援装置の第2の動作モードにおける処理
を示すフローチャートである。第2の動作モードにおけ
る処理は、上記第1の動作モードにおける処理を示すフ
ローチャートのステップS008からステップS012
の一部の手順を次に説明するステップに置き換えること
で実現される。以下、この第2の動作モードにおける処
理手順について図13のステップに沿って説明する。
<Second Operation Mode> FIG. 13 is a flowchart showing processing in the second operation mode of the sign language learning support device of the present embodiment. The processing in the second operation mode includes steps S008 to S012 of the flowchart showing the processing in the first operation mode.
Is realized by replacing a part of the procedure with the steps described below. Hereinafter, the processing procedure in the second operation mode will be described along the steps in FIG.

【0071】第2の動作モードにおいても、まず、第1
の動作モードの場合と同様、上述のステップS001か
らステップS007の手順に沿って処理を行う。そして
ステップS007の終了後、ステップS101に進む。
In the second operation mode, first, the first
As in the case of the operation mode described above, the processing is performed according to the procedure of steps S001 to S007. Then, after the end of step S007, the process proceeds to step S101.

【0072】(1)ステップS101の処理 背景画像合成部112が、合成情報蓄積部113に蓄積
されている合成情報から、合成を行う画像に関する合成
データを検索する。図14に、合成情報6の一例を示
す。この合成情報6は、手話番号1401と手話先頭フ
レーム番号1402と背景先頭フレーム番号1403と
背景終了フレーム番号1404とから成る。背景画像合
成部112は、手話番号1401が学習手話番号と一致
するデータを検索する。そして背景画像合成部112
は、検索によって得られた合成データに基づいて合成画
像を生成する。
(1) Process of Step S101 The background image synthesizing section 112 searches the synthesizing information stored in the synthesizing information accumulating section 113 for synthesizing data relating to the image to be synthesized. FIG. 14 shows an example of the synthesis information 6. The synthesis information 6 includes a sign language number 1401, a sign language head frame number 1402, a background head frame number 1403, and a background end frame number 1404. The background image synthesizing unit 112 searches for data in which the sign language number 1401 matches the learning sign language number. Then, the background image synthesizing unit 112
Generates a composite image based on the composite data obtained by the search.

【0073】合成画像の生成方法を手話単語<aU>を例
にとって2通り示す。図15は、手話単語<aU>に関す
る合成画像の合成手順を示す概略図である。図15にお
いて、1501は手話画像を示し、1502は背景アニ
メーションの画像(以下「背景アニメ画像」という)を
示し、1503は手話先頭フレーム画像を示し、150
4は合成中間画像を示し、1505は背景先頭フレーム
画像を示し、1506はパターン1の方法により生成し
た合成画像(以下「パターン1合成画像」という)を示
し、1507はパターン2の方法により生成した合成画
像(以下「パターン2合成画像」という)を示してい
る。
Two methods of generating a composite image will be described using the sign language word <aU> as an example. FIG. 15 is a schematic diagram showing a procedure for synthesizing a composite image related to the sign language word <aU>. In FIG. 15, reference numeral 1501 denotes a sign language image, 1502 denotes a background animation image (hereinafter referred to as “background animation image”), 1503 denotes a sign language top frame image, 150
Reference numeral 4 denotes a composite intermediate image, 1505 denotes a background top frame image, 1506 denotes a composite image generated by the method of pattern 1 (hereinafter referred to as “pattern 1 composite image”), and 1507 denotes a composite image generated by the method of pattern 2 A composite image (hereinafter, referred to as “pattern 2 composite image”) is shown.

【0074】まず、パターン1の方法による合成画像の
生成について説明する。背景画像合成部112は、合成
情報6の検索によって得られた合成データの手話先頭フ
レーム番号1402をS0とし、背景先頭フレーム番号
1403をB0として、手話画像のフレームS0の画像
から背景アニメ画像のフレームB0の画像へのモーフィ
ング処理により合成画像を生成する。すなわち、まず、
ステップS007で抽出した背景記述シナリオ中の強手
及び弱手に対応するアニメ素材“MAN”と手話先頭フ
レーム画像1503における手の部分とにモーフィング
処理を行い、手話先頭フレーム画像1503から合成中
間画像1504までの画像列を生成する。次にステップ
S007で抽出した情景画像“Meet_Bk. jp
g”と合成中間画像1504のアニメ素材“MAN”以
外の部分とにモーフィング処理を行い、合成中間画像1
504から背景先頭フレーム画像1505までの画像列
を生成する。手話先頭画像1503から合成中間画像1
504までの画像列、合成中間画像1504から背景先
頭フレーム画像1505までの画像列を、順にパターン
1合成画像1506のフレームI0からIkにセットす
る。モーフィングによる画像のフレーム数はk+1であ
る。背景アニメ画像のフレームB0の次のフレームか
ら、合成データの背景終了フレーム番号1404の番号
のフレームBnまでの画像を、パターン1合成画像15
06のフレームI(k+1)以降にセットする。このよう
にして得られるパターン1合成画像1506を出力合成
画像としてセットする。
First, generation of a composite image by the method of pattern 1 will be described. The background image synthesizing unit 112 sets the sign language head frame number 1402 of the synthesized data obtained by the search for the synthesis information 6 to S0, sets the background head frame number 1403 to B0, and converts the sign language image frame S0 to the background animation image frame. A composite image is generated by morphing the image of B0. That is, first,
The morphing process is performed on the animation material “MAN” corresponding to the strong hand and the weak hand in the background description scenario extracted in step S007 and the hand portion in the sign language head frame image 1503, and from the sign language head frame image 1503 to the synthesized intermediate image 1504 Generate an image sequence. Next, the scene image “Meet_Bk.jp” extracted in step S007
g ”and a portion of the composite intermediate image 1504 other than the animation material“ MAN ”are subjected to morphing processing to obtain a composite intermediate image 1
An image sequence from 504 to the background top frame image 1505 is generated. Synthetic intermediate image 1 from sign language top image 1503
The image sequence up to 504 and the image sequence from the composite intermediate image 1504 to the background top frame image 1505 are set in order to frames I0 to Ik of the pattern 1 composite image 1506. The number of frames of the morphed image is k + 1. The images from the frame following the frame B0 of the background animation image to the frame Bn with the number of the background end frame number 1404 of the composite data are converted to the pattern 1 composite image 15
It is set after the frame I (k + 1) 06. The pattern 1 composite image 1506 thus obtained is set as an output composite image.

【0075】次に、パターン2の方法による合成画像の
生成について説明する。まず、手話先頭フレーム画像1
503から合成中間画像1504までの画像列を上述の
方法で作成する。作成した画像列を、パターン2合成画
像1507のフレームI0からIkにセットする。次
に、手話画像1501のフレーム番号“S0+1”以降
の画像における手の部分をアニメ素材“MAN”に置き
換えた画像を作成し、順にパターン2合成画像1507
のフレームI(k+1)以降にセットする。このように
して得られるパターン2合成画像1507を出力合成画
像としてセットする。このようなパターン2の方法で出
力合成画像を生成することにより、手話動作における手
のイメージが理解しやすくなる。
Next, generation of a composite image by the method of pattern 2 will be described. First, sign language top frame image 1
An image sequence from 503 to the combined intermediate image 1504 is created by the above-described method. The created image sequence is set in frames I0 to Ik of the pattern 2 composite image 1507. Next, an image is created in which the hand portion in the image after the frame number “S0 + 1” of the sign language image 1501 is replaced with the animation material “MAN”, and the pattern 2 composite image 1507 is sequentially created.
Is set after frame I (k + 1). The pattern 2 composite image 1507 thus obtained is set as an output composite image. By generating the output composite image by the method of the pattern 2, the image of the hand in the sign language operation can be easily understood.

【0076】上記パターン1もしくはパターン2のいず
れかの方法により出力合成画像を生成し、その後にステ
ップS008に進む。
An output composite image is generated by either the pattern 1 or the pattern 2 described above, and thereafter, the flow advances to step S008.

【0077】ステップS008では、第1の動作モード
の場合と同様、手話学習情報が画面に表示され(図12
参照)、その後、ステップS009へ進む。
In step S008, sign language learning information is displayed on the screen as in the case of the first operation mode (FIG. 12).
Then, the process proceeds to step S009.

【0078】ステップS009の処理内容も、第1の動
作モードの場合と同様であって、手話学習情報表示画面
44におけるいずれのボタンが押されたかに応じて、ス
テップS010、S102、またはS012のいずれか
のステップへ進む。ここで、背景画像出力ボタン120
6が押された場合、第1の動作モードではステップS0
11へ進むが、第2の動作モードでは、これに代えてス
テップS102に進む。他の場合に進むステップは第1
の動作モードの場合と同様である。そこで、ステップS
102についてのみ以下に説明する。
The processing content of step S009 is the same as that in the first operation mode. Depending on which button on the sign language learning information display screen 44 is pressed, any one of steps S010, S102 and S012 is performed. Proceed to that step. Here, the background image output button 120
If No. 6 is pressed, step S0 is performed in the first operation mode.
Then, in the second operation mode, the process proceeds to step S102 instead. Steps to proceed in other cases are first
Is the same as in the case of the operation mode. Therefore, step S
Only 102 will be described below.

【0079】(2)ステップS102の処理 全体制御部102が、出力合成画像を出力部111に送
り、手話学習情報表示画面44の画像表示部1204に
表示する。出力合成画像が最後まで表示されると、ステ
ップS009に進む。
(2) Processing in Step S 102 The overall control unit 102 sends the output composite image to the output unit 111 and displays it on the image display unit 1204 of the sign language learning information display screen 44. When the output composite image has been displayed to the end, the process proceeds to step S009.

【0080】以上の手順により第2の動作モードの処理
が実現され、これにより手話単語の学習を行うことがで
きる。このような第2の動作モードによれば、手話画像
と背景アニメ画像とを合成することにより、手話単語に
対する手話動作とその手話単語の意味を表現する背景ア
ニメーションとの結びつきをより分かりやすくすること
ができ、さらに手話動作を容易に学習することができ
る。
The processing in the second operation mode is realized by the above-described procedure, whereby learning of a sign language word can be performed. According to such a second operation mode, by synthesizing the sign language image and the background animation image, the connection between the sign language operation for the sign language word and the background animation expressing the meaning of the sign language word can be more easily understood. And the sign language operation can be easily learned.

【0081】<第3の動作モード>図16は、本実施形
態の手話学習支援装置の第3の動作モードにおける処理
を示すフローチャートである。第3の動作モードにおけ
る処理は、上記第2の動作モードにおける処理を示すフ
ローチャートのステップS005とステップS006の
間に次のステップS201を追加し、ステップS008
をステップS202に変更することにより、実現され
る。
<Third Operation Mode> FIG. 16 is a flowchart showing processing in the third operation mode of the sign language learning support device of the present embodiment. In the processing in the third operation mode, the following step S201 is added between steps S005 and S006 of the flowchart showing the processing in the second operation mode, and step S008 is performed.
Is changed to step S202.

【0082】最初に、追加するステップS201につい
て説明する。 (1)ステップS201の処理 変形検索部114が、手話変形辞書部115に蓄積され
た変形情報を検索する。図17に、変形情報46の一例
を示す。この変形情報46は、変形データ番号1701
と手話番号1702と変形説明文1703とから成る。
変形検索部114は、変形情報46から、手話番号17
02が学習手話番号と一致するデータを取り出して、学
習変形データとしてセットする。学習手話番号と一致す
る手話番号1702が変形情報46に存在しなかった場
合、学習変形データに含まれる変形データ番号を0にセ
ットする。
First, the additional step S201 will be described. (1) Processing in Step S201 The deformation search unit 114 searches for the deformation information stored in the sign language deformation dictionary unit 115. FIG. 17 shows an example of the deformation information 46. This deformation information 46 has a deformation data number 1701
And a sign language number 1702 and a modified description 1703.
The transformation search unit 114 obtains the sign language number 17 from the transformation information 46.
02 retrieves data that matches the learning sign language number and sets it as learning transformation data. If the sign language number 1702 that matches the learning sign language number does not exist in the deformation information 46, the deformation data number included in the learning deformation data is set to 0.

【0083】例えば学習手話番号が“1”の場合、変形
検索部114は、手話変形辞書部115から、手話番号
1702に“1”が設定されているデータを取り出し
て、すなわち、変形データ番号1701が“1”のデー
タと変形データ番号1701が“2”のデータとを取り
出して、学習変形データとしてセットする。
For example, when the learning sign language number is “1”, the transformation search unit 114 extracts data in which the sign language number 1702 is set to “1” from the sign language transformation dictionary unit 115, that is, the transformation data number 1701. Is extracted and data having a modified data number 1701 of "2" is extracted and set as learning modified data.

【0084】このようにして学習変形データを設定した
後は、ステップS006へ進む。そしてステップS00
6、S007およびS101を順に実行するが、これら
のステップの処理内容は第2の動作モードの場合と同様
である。
After setting the learning deformation data in this way, the process proceeds to step S006. And step S00
6, S007 and S101 are executed in order, and the processing contents of these steps are the same as those in the case of the second operation mode.

【0085】次に、ステップS008と置き換えられる
ステップS202について説明する。 (2)ステップS202の処理 出力部111が、手話学習情報表示画面47をディスプ
レイに表示する。図18に、第3の動作モードにおける
手話学習情報表示画面47の一例を示す。この手話学習
情報表示画面47は、手話番号表示部1801と意味表
示部1802と背景説明文表示部1803と変形説明文
表示部1804と画像表示部1805と動作画像出力ボ
タン1806と背景画像出力ボタン1807と次単語表
示ボタン1808と学習終了ボタン1809とを備えて
いる。ただし、学習手話リスト内のデータの数が1つの
場合、次単語表示ボタン1808は表示されない。手話
番号表示部1801には、学習手話番号が表示される。
意味表示部1802には、学習手話番号の手話単語の手
話情報に設定されている意味データの文字列が表示され
る。背景説明文表示部1803には、学習手話番号の手
話の背景情報に設定されている背景説明文の文字列が表
示される。変形説明文表示部1804には、学習手話番
号の手話の変形情報に設定されている変形説明文の文字
列が表示される。
Next, step S202, which replaces step S008, will be described. (2) Processing in Step S202 The output unit 111 displays the sign language learning information display screen 47 on the display. FIG. 18 shows an example of the sign language learning information display screen 47 in the third operation mode. The sign language learning information display screen 47 includes a sign language number display section 1801, a meaning display section 1802, a background description display section 1803, a modified description display section 1804, an image display section 1805, an operation image output button 1806, and a background image output button 1807. And a next word display button 1808 and a learning end button 1809. However, when the number of data in the learning sign language list is one, the next word display button 1808 is not displayed. The sign language number display section 1801 displays the learning sign language number.
The meaning display section 1802 displays a character string of the meaning data set in the sign language information of the sign language word of the learning sign language number. The background description display section 1803 displays a character string of the background description set in the background information of the sign language of the learning sign language number. The modified explanatory note display unit 1804 displays a character string of the modified explanatory note set in the sign language modification information of the learning sign language number.

【0086】例えば学習手話番号が“1”の場合、手話
番号表示部1801に“1”、意味表示部1802に
「会う、挨拶する。」、背景説明文表示部1803に
「人と人が近づいて会った状態を表す。」、変形説明文
表示部1804には、「会う人の場所によって手の位置
が変化する。会う人の性別によって手形状が変化す
る。」と表示される。
For example, when the learning sign language number is “1”, “1” is displayed on the sign language number display section 1801, “meet and say hello” on the meaning display section 1802, and “People are approaching” on the background description display section 1803. "The position of the hand changes according to the location of the person to meet. The hand shape changes according to the sex of the person to meet."

【0087】このようにして手話学習情報が画面に表示
されると、ステップS009に進む。以降の処理は第2
の動作モードの場合と同様である。
When the sign language learning information is displayed on the screen in this way, the process proceeds to step S009. Subsequent processing is the second
Is the same as in the case of the operation mode.

【0088】以上の手順により第3の動作モードの処理
が実現され、これにより手話単語を学習することができ
る。このような第3の動作モードによれば、学習対象の
手話単語につき変形説明文が表示されるため、手話が実
際に使用されるときの手話動作の変形について学習する
ことができる。
The processing in the third operation mode is realized by the above-described procedure, whereby the sign language word can be learned. According to such a third operation mode, since a modified explanatory sentence is displayed for each sign language word to be learned, it is possible to learn about a modification of the sign language operation when the sign language is actually used.

【0089】<第4の動作モード>図19は、本実施形
態の手話学習支援装置の第4の動作モードにおける処理
を示すフローチャートである。第4の動作モードにおけ
る処理では、上記第3の動作モードにおける処理を示す
フローチャートのステップS201の後にステップS3
01、ステップS302を追加している。また、ステッ
プS202をステップS303に置き換え、ステップS
009をステップS304に置き換えるとともに、ステ
ップS305を追加している。
<Fourth Operation Mode> FIG. 19 is a flowchart showing processing in the fourth operation mode of the sign language learning support device of the present embodiment. In the processing in the fourth operation mode, step S3 is performed after step S201 in the flowchart showing the processing in the third operation mode.
01 and step S302 are added. Step S202 is replaced with step S303, and step S303 is performed.
009 is replaced with step S304, and step S305 is added.

【0090】以下、これらの追加ステップや置き換えの
ステップについて説明する。 (1)ステップS301の処理 会話検索部116が、会話辞書部117から変形関係デ
ータを検索する。会話辞書部117には、変形関係情報
が蓄積されている。図20に、変形関係情報49の一例
を示す。この変形関係情報49は、変形関係データ番号
2001と手話番号2002と変形データ番号2003
と会話データ番号2004と個別変形説明文2005と
から成る。会話探索部116は、変形関係情報49の手
話番号2002が学習手話番号と一致するデータを変形
関係データとしてすべて抽出する。そして変形関係デー
タとして抽出された数を変形数としてセットする。
Hereinafter, these additional steps and replacement steps will be described. (1) Processing of Step S301 The conversation search unit 116 searches the conversation dictionary unit 117 for deformation-related data. The conversation dictionary unit 117 stores deformation related information. FIG. 20 shows an example of the deformation relationship information 49. The transformation relation information 49 includes a transformation relation data number 2001, a sign language number 2002, and a transformation data number 2003.
And a conversation data number 2004 and an individual deformation explanation 2005. The conversation search unit 116 extracts all data in which the sign language number 2002 of the transformation relation information 49 matches the learning sign language number as transformation relation data. Then, the number extracted as the deformation relation data is set as the deformation number.

【0091】例えば学習手話番号が“1”の場合、会話
検索部116は、手話番号2002に“1”が設定され
ているデータを抽出して、すなわち、変形関係データ番
号2001が“1”のデータと変形関係データ番号20
01が“2”のデータとを抽出して変形関係データとし
てセットし、変形数として“2”をセットする。このよ
うにして変形関係データが抽出されると、ステップS3
02に進む。
For example, when the learning sign language number is “1”, the conversation search unit 116 extracts data in which the sign language number 2002 is set to “1”, that is, the transformation relation data number 2001 is “1”. Data and deformation relation data number 20
01 is "2" and is extracted and set as deformation-related data, and "2" is set as the number of deformations. When the deformation relation data is extracted in this manner, step S3
Go to 02.

【0092】(2)ステップS302の処理 会話検索部116が、会話辞書部117から会話データ
を抽出する。会話辞書部117には会話情報が蓄積され
ている。図21に、会話情報51の一例を示す。この会
話情報51は、会話データ番号2101と会話文210
2とから成る。会話文中の単語のうち変形関係情報49
にデータが存在する単語は<>で囲み、最初の括弧<の
直後に、対応する変形関係情報の変形関係データ番号2
001を記述する。変形関係データとしてセットされて
いる全ての会話データ番号のデータを学習会話データと
して抽出する。この学習会話データの数を会話数として
セットする。
(2) Processing in Step S302 The conversation search unit 116 extracts conversation data from the conversation dictionary unit 117. The conversation dictionary 117 stores conversation information. FIG. 21 shows an example of the conversation information 51. The conversation information 51 includes a conversation data number 2101 and a conversation sentence 210
2 Deformation-related information 49 among words in a conversation sentence
Are enclosed in <>, and immediately after the first parenthesis <, the modification relation data number 2 of the corresponding modification relation information
001 is described. Data of all conversation data numbers set as deformation relation data is extracted as learning conversation data. The number of learning conversation data is set as the number of conversations.

【0093】例えば学習手話番号が“1”の場合、変形
関係データの会話データ番号2004に“1”,“2”
が設定されているため、会話情報51における会話デー
タ番号2101が“1”のデータと“2”のデータとを
学習会話データとしてセットし、会話数として“2”を
セットする。
For example, when the learning sign language number is “1”, “1” and “2” are added to the conversation data number 2004 of the transformation relation data.
Is set, the data having the conversation data number 2101 in the conversation information 51 of "1" and the data of "2" are set as learning conversation data, and "2" is set as the number of conversations.

【0094】このようにして学習会話データが設定され
ると、ステップS006に進む。以降、第3の動作モー
ドの場合と同様、ステップS006、S007、S10
1を実行し、その後、ステップS303を実行する。こ
のステップS303は、第3の動作モードにおけるステ
ップS202を置き換えたものである。
When the learning conversation data is set as described above, the process proceeds to step S006. Thereafter, as in the case of the third operation mode, steps S006, S007, S10
1 and then execute step S303. This step S303 replaces step S202 in the third operation mode.

【0095】(3)ステップS303の処理 出力部111が、手話学習情報表示画面44bをディス
プレイに表示する。図22に、第4の動作モードにおけ
る手話学習情報表示画面44bの一例を示す。手話学習
情報表示画面44bは、手話番号表示部2201と意味
表示部2202と背景説明文表示部2203と変形説明
文表示部2204と画像表示部2205と動作画像出力
ボタン2206と背景画像出力ボタン2207と会話例
出力ボタン2208と次単語表示ボタン2209と学習
終了ボタン2210とを備えている。ただし、学習手話
リスト内のデータの数が1つの場合、次単語表示ボタン
2209は表示されない。手話番号表示部2201に
は、学習手話番号が表示される。意味表示部2202に
は、学習手話番号の手話単語の手話情報に設定されてい
る意味データの文字列が表示される。背景説明文表示部
2203には、学習手話番号の手話の背景情報に設定さ
れている背景説明文の文字列が表示される。変形説明文
表示部2204には、学習手話番号の手話の変形情報に
設定されている変形説明文の文字列が表示される。
(3) Processing in Step S303 The output unit 111 displays the sign language learning information display screen 44b on the display. FIG. 22 shows an example of the sign language learning information display screen 44b in the fourth operation mode. The sign language learning information display screen 44b includes a sign language number display unit 2201, a meaning display unit 2202, a background description display unit 2203, a modified description display unit 2204, an image display unit 2205, an operation image output button 2206, a background image output button 2207, A conversation example output button 2208, a next word display button 2209, and a learning end button 2210 are provided. However, when the number of data in the learning sign language list is one, the next word display button 2209 is not displayed. The sign language number display section 2201 displays the learning sign language number. The meaning display unit 2202 displays a character string of the meaning data set in the sign language information of the sign language word of the learning sign language number. The background description display unit 2203 displays the character string of the background description set in the background information of the sign language of the learning sign language number. The modified explanatory note display unit 2204 displays the character string of the modified explanatory note set in the sign language modification information of the learning sign language number.

【0096】例えば学習手話番号が“1”の場合、手話
番号表示部2201に“1”、意味表示部2202に
「会う、挨拶する。」、背景説明文表示部2203に
「人と人が近づいて会った状態を表す。」、変形説明文
表示部2204には、「会う人の場所によって手の位置
が変化する。会う人の性別によって手形状が変化す
る。」と表示される。
For example, when the learning sign language number is “1”, “1” is displayed on the sign language number display section 2201, “meet and greet” on the meaning display section 2202, and “People are approaching” on the background description display section 2203. The modified description display unit 2204 displays "The hand position changes depending on the location of the meeting person. The hand shape changes depending on the sex of the meeting person."

【0097】このようにして手話学習情報が画面に表示
されると、ステップS304に進む。このステップS3
04は、第3の動作モードにおけるステップS009を
置き換えたものである。
When the sign language learning information is displayed on the screen in this way, the process proceeds to step S304. This step S3
Step 04 replaces step S009 in the third operation mode.

【0098】(4)ステップS304の処理 手話学習情報表示画面44bにおいて押されるボタンの
種類を判定し、その判定結果に応じて次のように動作す
る。動作画像出力ボタン2206が押されるとステップ
S010に進む。背景画像出力ボタン2207が押され
るとステップS102に進む。会話例出力ボタン220
8が押されるとステップS305に進む。次単語表示ボ
タン2209が押されるとステップS012に進む。学
習終了ボタン2210が押されると全てを初期状態に戻
し、ステップS001に進む。
(4) Processing in Step S304 The type of button pressed on the sign language learning information display screen 44b is determined, and the following operation is performed according to the determination result. When the operation image output button 2206 is pressed, the process proceeds to step S010. When the background image output button 2207 is pressed, the process proceeds to step S102. Conversation example output button 220
When 8 is pressed, the process proceeds to step S305. When the next word display button 2209 is pressed, the process proceeds to step S012. When the learning end button 2210 is pressed, everything is returned to the initial state, and the process proceeds to step S001.

【0099】ここで、ステップS010、S102、S
012の処理内容は、第3の動作モードの場合と同様で
ある。ステップS305は第4の動作モードで追加され
たステップであるので、このステップの処理を以下に説
明する。
Here, steps S010, S102, S
The processing contents of 012 are the same as those in the third operation mode. Since step S305 is a step added in the fourth operation mode, the processing of this step will be described below.

【0100】(5)ステップS305の処理 出力部111が、会話例表示画面53をディスプレイに
表示する。図23に、会話例表示画面53の一例を示
す。この会話例表示画面53は、手話番号表示部230
1と意味表示部2302と会話文表示部2303と変形
説明文表示部2304と会話例文選択ボタン2305と
画面消去ボタン2306とを備える。手話番号表示部2
301には、学習手話番号が表示される。意味表示部2
302には、手話番号表示部2301における学習手話
番号の手話単語の意味が表示される。会話例文選択ボタ
ン2305により会話例文を選択すると、会話文表示部
2303には、選択された会話例文として対応する学習
会話データの会話文が表示される。会話例文選択ボタン
2305には、ステップS302で抽出された学習会話
データの数(会話数)だけボタンが表示され、会話数が
6以上の場合すなわち6個以上の会話例文が存在する場
合は、会話例文選択ボタン2305の下端の下向き三角
のボタンを押すと、次の5個の会話例文を選択するボタ
ンが表示される。選択された会話例文は、対応する会話
文において<>で囲まれた部分が下線付きで表示され、
下線の下には<の後ろの数字が丸で囲まれて表示され
る。変形説明文表示部2304には、会話文表示部23
03に表示された会話例文中の下線付きの部分に対応す
る変形関係データの個別変形説明文2005の文字列が
表示される。画面消去ボタン2306を押すと、会話例
表示画面53は消去され、ステップS303に戻る。
(5) Processing in Step S305 The output unit 111 displays the conversation example display screen 53 on the display. FIG. 23 shows an example of the conversation example display screen 53. The conversation example display screen 53 includes a sign language number display section 230.
1, a meaning display unit 2302, a conversation display unit 2303, a modified explanation display unit 2304, a conversation example selection button 2305, and a screen deletion button 2306. Sign language number display 2
At 301, a learning sign language number is displayed. Meaning display part 2
In 302, the meaning of the sign language word of the learning sign language number in the sign language number display unit 2301 is displayed. When a conversation example sentence is selected by the conversation example sentence selection button 2305, the conversation sentence of the learning conversation data corresponding to the selected conversation example sentence is displayed on the conversation sentence display section 2303. As the conversation example sentence selection button 2305, buttons are displayed by the number of learning conversation data (the number of conversations) extracted in step S302. If the number of conversations is 6 or more, that is, if there are 6 or more conversation example sentences, the conversation When the downward triangle button at the lower end of the example sentence selection button 2305 is pressed, buttons for selecting the next five conversation example sentences are displayed. In the selected conversation example sentence, the part enclosed in <> in the corresponding conversation sentence is displayed with an underline,
The number after <is circled below the underline. The modified sentence display unit 2304 includes a conversation sentence display unit 23
The character string of the individual deformation explanation 2005 of the deformation relation data corresponding to the underlined part in the conversation example sentence displayed in 03 is displayed. When the screen deletion button 2306 is pressed, the conversation example display screen 53 is deleted, and the process returns to step S303.

【0101】例えば学習手話番号が“1”の場合、手話
番号表示部2301に“1”、意味表示部2302に
「会う、挨拶する。」が表示される。会話例文選択ボタ
ン2305で例1を選択すると、会話文表示部2303
には、会話データ番号2101が“1”の会話文が会話
例文として表示される。この会話例文は、会話データ番
号2101が“1”の会話文の中で<>で囲まれた「会
う」は下線付きで表示され、<の後に設定されている番
号1が丸で囲まれて下線の下に表示される。変形説明表
示部2304には、丸で囲まれた“1”の表示に続いて
「父を示した位置に依存。」と表示される。
For example, when the learning sign language number is “1”, “1” is displayed on the sign language number display section 2301 and “meet and say hello.” Is displayed on the meaning display section 2302. When example 1 is selected with the conversation example sentence selection button 2305, the conversation sentence display section 2303
, A conversation sentence with a conversation data number 2101 of “1” is displayed as a conversation example sentence. In this conversation example sentence, in the conversation sentence with conversation data number 2101 of “1”, “meet” surrounded by <> is displayed with an underline, and number 1 set after <is surrounded by a circle. Displayed under the underline. In the modification explanation display portion 2304, "Depending on the position indicating the father" is displayed following the display of "1" surrounded by a circle.

【0102】以上の手順により第4の動作モードの処理
が実現され、これにより手話単語を学習することができ
る。このような第4の動作モードによれば、図23の会
話例表示画面53に示すように会話文と個別変形説明文
を結び付けて表示することにより、実際の使用における
変形をより分かり易くすることができる。
The processing in the fourth operation mode is realized by the above-described procedure, whereby the sign language word can be learned. According to such a fourth operation mode, a conversation sentence and an individual deformation explanation are linked and displayed as shown in a conversation example display screen 53 in FIG. 23, thereby making it easier to understand the deformation in actual use. Can be.

【0103】<第5の動作モード>図24は、本実施形
態の手話学習支援装置の第5の動作モードにおける処理
を示すフローチャートである。第5の動作モードにおけ
る処理では、上記第4の動作モードにおける処理を示す
フローチャートのステップS007の後にステップS4
01が追加されている。まず、このステップS401に
ついて説明する。
<Fifth Operation Mode> FIG. 24 is a flowchart showing processing in the fifth operation mode of the sign language learning support device of the present embodiment. In the processing in the fifth operation mode, step S4 is performed after step S007 in the flowchart showing the processing in the fourth operation mode.
01 has been added. First, step S401 will be described.

【0104】(1)ステップS401の処理 環境生成部118が、環境画像蓄積部119から会話環
境画像を取り出す。環境画像蓄積部119には環境画像
テーブルと環境画像ファイルが蓄積されている。図25
に、環境画像テーブル56の一例を示す。この環境画像
テーブル56は、会話データ番号2501と環境画像フ
ァイル名2502とから成る。会話データ番号2501
は、会話情報蓄積部117に蓄積されている会話データ
番号2101と同一である。環境画像ファイルは、ファ
イル名が環境画像ファイル名2502の画像ファイルと
して、標準の画像ファイルフォーマットで蓄積されてい
る。本実施形態では、AVI形式で蓄積されているもの
とする。画像は、実際の映像でも、コンピュータで作成
した2次元もしくは3次元のコンピュータグラフィック
でもよい。環境生成部118は、ステップS302で抽
出された学習会話データの会話データ番号と一致する会
話データ番号2501を環境画像テーブル56において
検索し、一致する会話データ番号2501に対応する環
境画像ファイル名2502を環境画像テーブル56から
得る。そして、その環境画像ファイル名2502の環境
画像ファイルを環境画像蓄積部119から取り出し、会
話環境画像としてセットする。
(1) Processing in Step S401 The environment generation unit 118 extracts a conversation environment image from the environment image storage unit 119. The environment image storage unit 119 stores an environment image table and an environment image file. FIG.
An example of the environment image table 56 is shown in FIG. The environment image table 56 includes a conversation data number 2501 and an environment image file name 2502. Conversation data number 2501
Is the same as the conversation data number 2101 stored in the conversation information storage unit 117. The environment image file is stored in a standard image file format as an image file having the environment file name 2502. In the present embodiment, it is assumed that the data is stored in the AVI format. The image may be an actual video or a two-dimensional or three-dimensional computer graphic created by a computer. The environment generating unit 118 searches the environment image table 56 for a conversation data number 2501 that matches the conversation data number of the learning conversation data extracted in step S302, and finds an environment image file name 2502 corresponding to the matching conversation data number 2501. Obtained from the environment image table 56. Then, the environment image file having the environment image file name 2502 is extracted from the environment image storage unit 119 and set as a conversation environment image.

【0105】例えば学習手話番号が“1”の場合、学習
会話データの会話データ番号“1”,“2”の画像“E
XP001.avi”と“EXP002.avi”を取
り出し、会話環境画像としてセットする。
For example, when the learning sign language number is “1”, the image “E” of the conversation data numbers “1” and “2” of the learning conversation data
XP001. av "and" EXP002. avi "is taken out and set as a conversation environment image.

【0106】このようにして会話環境画像が設定される
と、ステップS101へ進む。以降、第4の動作モード
の場合と同様、ステップS101、S303を実行す
る。次のステップS304の動作も第4の動作モードの
場合と同様であって、図22の学習情報表示画面44b
において押されるボタンの種類に応じて各ステップへ分
岐するが、会話例出力ボタン2208が押された場合、
第5の動作モードでは、ステップS305に代えてステ
ップS402へ進む。以下、ステップS402以降の処
理について説明する。
When the conversation environment image is set as described above, the flow advances to step S101. Thereafter, steps S101 and S303 are executed as in the case of the fourth operation mode. The operation in the next step S304 is the same as that in the fourth operation mode, and the learning information display screen 44b in FIG.
The process branches to each step according to the type of the button to be pressed in the step. However, when the conversation example output button 2208 is pressed,
In the fifth operation mode, the process proceeds to step S402 instead of step S305. Hereinafter, the processing after step S402 will be described.

【0107】(2)ステップS402の処理 出力部111が、会話例表示画面58をディスプレイに
表示する。図26に、第5の動作モードにおける会話例
表示画面58の一例を示す。この会話例表示画面58
は、手話番号表示部2601と意味表示部2602と会
話文表示部2603と変形説明文表示部2604と会話
環境画像表示部2605と会話例文選択ボタン2606
と会話画像再生ボタン2607と画面消去ボタン260
8とを備える。手話番号表示部2601には、学習手話
番号が表示される。意味表示部2602には、学習手話
番号の手話単語の手話情報に設定されている意味データ
の文字列が表示される。
(2) Processing in Step S402 The output unit 111 displays the conversation example display screen 58 on the display. FIG. 26 shows an example of the conversation example display screen 58 in the fifth operation mode. This conversation example display screen 58
Is a sign language number display section 2601, a meaning display section 2602, a conversation sentence display section 2603, a modified explanation display section 2604, a conversation environment image display section 2605, and a conversation example sentence selection button 2606.
And conversation image playback button 2607 and screen erase button 260
8 is provided. The sign language number display section 2601 displays a learning sign language number. The meaning display section 2602 displays a character string of the meaning data set in the sign language information of the sign language word of the learning sign language number.

【0108】会話例文選択ボタン2606により会話例
文を選択すると、会話文表示部2603には、選択され
た会話例文として対応する学習会話データの会話文が表
示される。会話例文選択ボタン2606には、ステップ
S302で抽出された学習会話データの数(会話数)だ
けボタンが表示され、会話数が6以上の場合すなわち6
個以上の会話例文が存在する場合は、会話例文選択ボタ
ン2606の下端の下向き三角のボタンを押すと、次の
5個の会話例文を選択するボタンが表示される。選択さ
れた会話例文は、対応する会話文において<>で囲まれ
た部分は下線付きで表示され、下線の下には、<の後ろ
の数字が丸で囲まれて表示される。変形説明文表示部2
604には、会話例文中の下線付きの部分に対応する変
形関係データに設定されている個別変形説明文2005
の文字列が表示される。
When a conversation example sentence is selected by the conversation example sentence selection button 2606, the conversation sentence of the corresponding learning conversation data is displayed on the conversation sentence display section 2603 as the selected conversation example sentence. The number of conversation example sentence selection buttons 2606 is displayed as many as the number of conversation data (the number of conversations) extracted in step S302.
If there is more than one conversation example sentence, pressing the downward triangle button at the lower end of the conversation example sentence selection button 2606 displays a button for selecting the next five conversation example sentences. In the selected conversation example sentence, a portion surrounded by <> in the corresponding conversation sentence is displayed with an underline, and under the underline, a number after <is circled and displayed. Descriptive explanation display part 2
Reference numeral 604 denotes an individual deformation description sentence 2005 set in the deformation relation data corresponding to the underlined portion in the conversation example sentence.
Is displayed.

【0109】例えば、学習手話番号が“1”の場合、手
話番号表示部2601に“1”、意味表示部2602に
「会う、挨拶する。」が表示される。会話例文選択ボタ
ン2606で例文1を選択すると、会話例文表示部26
03には、会話データ番号が“1”の会話文が会話例文
として表示される。この会話例文は、会話データ番号2
101が“1”の会話文の中で、<>で囲まれた「会
う」は下線付きで表示され、<の後に設定されている番
号“1”が丸で囲まれて下線の下に表示される。変形説
明表示部2604には、丸で囲まれた“1”の表示に続
いて「父を示した位置に依存。」と表示される。このよ
うな会話例表示画面58が表示されると、ステップS4
03へ進む。
For example, when the learning sign language number is “1”, “1” is displayed on the sign language number display section 2601 and “meet and say hello.” Is displayed on the meaning display section 2602. When example sentence 1 is selected with conversation example sentence selection button 2606, conversation example sentence display section 26
In 03, a conversation sentence with a conversation data number “1” is displayed as a conversation example sentence. This conversation example sentence is conversation data number 2
In the conversation sentence where 101 is “1”, “meet” surrounded by <> is displayed with an underline, and the number “1” set after <is circled and displayed under the underline. Is done. In the modification explanation display unit 2604, "Depending on the position indicating the father" is displayed following the display of "1" surrounded by a circle. When such a conversation example display screen 58 is displayed, step S4 is performed.
Go to 03.

【0110】(3)ステップS403の処理 会話例表示画面58において押されるボタンの種類を判
定し、その判定結果に応じて次のように動作する。会話
画像再生ボタン2607が押されると、ステップS40
4に進む。画面消去ボタン2608が押されると、会話
例表示画面58が消去され、ステップS303に戻る。
(3) Processing in Step S403 The type of button pressed on the conversation example display screen 58 is determined, and the following operation is performed according to the determination result. When the conversation image playback button 2607 is pressed, step S40 is performed.
Proceed to 4. When the screen deletion button 2608 is pressed, the conversation example display screen 58 is deleted, and the process returns to step S303.

【0111】(4)ステップS404の処理 会話環境画像表示部2605に、会話例文選択ボタン2
606で選択された会話例文の会話環境画像を表示す
る。例えば、学習手話番号が“1”で、例文1が選択さ
れていた場合、“EXP001.avi”の画像が会話
環境画像表示部2605に表示される。すなわち、図2
7(a)に示す手話画像に対する会話環境画像として、
図27(b)から(d)へと変化する動画像が表示され
る。この会話環境画像は、会話例文選択ボタン2606
で選択された例文1の意味する内容を表すものであっ
て、学習手話番号に対応する手話動作が例文1の会話文
の文脈によってどのように変形するかを説明するために
表示される。「会う」という手話は、通常、前に手を動
かすことで表現されるが、実際の会話内容に応じて手話
動作が変形する。すなわち、会話途中で父を表現したと
すると、その会話の間は、父を表現した位置に父が存在
する状態となり、「父に会いに行く」というときの「会
う」は、手を動かす方向が前ではなく、父を表現した位
置(図27に示した例では話し手から見て右前)に向け
て動かす。この場合の会話環境画像は、図27(b)〜
(d)に示すように、手話で父を表した右前の位置に父
が居て、左奥の初期位置に自分が居て、自分が父の居る
右前に歩いて移動することを表す映像となる。なお、図
27(b)〜(d)に示した会話環境画像では、父の後
方に父の家の周囲の素材が配置されているが、これを省
略してもよい。会話環境画像が最後まで表示されると、
ステップS402に戻る。
(4) Processing in Step S404 A conversation example sentence selection button 2 is displayed on the conversation environment image display unit 2605.
A conversation environment image of the conversation example sentence selected in 606 is displayed. For example, when the learning sign language number is “1” and the example sentence 1 is selected, an image of “EXP001.avi” is displayed on the conversation environment image display unit 2605. That is, FIG.
As a conversation environment image for the sign language image shown in FIG.
A moving image that changes from FIG. 27 (b) to (d) is displayed. This conversation environment image is a conversation example sentence selection button 2606
Is displayed in order to explain how the sign language action corresponding to the learning sign language number is changed depending on the context of the conversation sentence of the example sentence 1. The sign language of "meet" is usually expressed by moving the hand forward, but the sign language action is changed according to the actual conversation content. In other words, if you express your father in the middle of a conversation, during that conversation your father will be at the position where you expressed your father, and when you say "go to see my father", "meet" will be in the direction of moving your hand. Move not toward the front but toward a position expressing the father (in the example shown in FIG. 27, to the front right as viewed from the speaker). The conversation environment images in this case are shown in FIGS.
As shown in (d), an image showing that the father is at the right front position expressing the father in sign language, that he is at the initial position at the back left, and that he walks and moves to the right front where his father is located, Become. In the conversation environment images shown in FIGS. 27B to 27D, the material around the father's house is arranged behind the father, but this may be omitted. When the conversation environment image is displayed to the end,
It returns to step S402.

【0112】以上の手順により第5の動作モードの処理
が実現され、これにより手話単語の学習を行うことがで
きる。このような第5の動作モードによれば、手話動作
の変形を伴う実際の会話の意味する内容が会話環境画像
として表示されるため、実際の使用における手話動作の
変形を視覚的に理解し易くすることができる。
The processing in the fifth operation mode is realized by the above-described procedure, whereby learning of the sign language word can be performed. According to the fifth operation mode, the meaning of the actual conversation accompanied by the deformation of the sign language operation is displayed as the conversation environment image, so that it is easy to visually understand the deformation of the sign language operation in actual use. can do.

【0113】<第6の動作モード>図28は、本実施形
態の手話学習支援装置の第6の動作モードにおける処理
を示すフローチャートである。第6の動作モードでは、
第5の動作モードにおける処理を示すフローチャートの
ステップS404をステップS501およびステップS
502に置き換える。以下、これらのステップS501
およびS502について説明する。
<Sixth Operation Mode> FIG. 28 is a flowchart showing processing in the sixth operation mode of the sign language learning support device of the present embodiment. In the sixth operation mode,
Steps S404 and S501 of the flowchart showing the processing in the fifth operation mode are described in steps S501 and S501.
Replace with 502. Hereinafter, these steps S501
And S502 will be described.

【0114】(1)ステップS501の処理 環境合成部120が、環境素材蓄積部121から会話環
境合成素材を取り出し、これを手話画像蓄積部108か
ら取り出された変形手話画像と合成することにより、会
話環境合成画像を生成する。
(1) Processing in Step S501 The environment synthesizing unit 120 extracts the conversational environment synthetic material from the environmental material accumulating unit 121, and synthesizes this with the transformed sign language image extracted from the sign language image accumulating unit 108, thereby forming a conversation. Generate an environment composite image.

【0115】環境素材蓄積部121には、会話環境テー
ブルと会話環境合成素材が蓄積されている。図29に、
会話環境テーブル61の一例を示す。この会話環境テー
ブル61は、会話環境データ番号2801と会話データ
番号2802と素材ファイル名2803と合成命令28
04と合成パラメータ2805と合成開始フレーム番号
2806と合成終了フレーム番号2807とから成る。
会話データ番号2802には、素材を合成する会話の会
話番号2501(図25の環境画像テーブル参照)が設
定されている。素材ファイル名2803には、素材デー
タを蓄積しているファイル名が設定されている。合成命
令2804には、会話環境合成素材を合成する際の会話
環境合成素材の動きを規定する素材合成命令が設定され
ている。合成パラメータ2805には、素材合成命令を
実行するために必要なパラメータが設定されている。合
成開始フレーム番号2806には、素材の合成の最初の
フレーム番号が設定されている。合成終了フレーム番号
2807には、素材の合成を終了するフレーム番号が設
定されている。会話環境画像の最終フレームまで合成す
る場合は、“FF”と設定する。“FF”でなくても、
最終フレームまでを明示できれば、他の文字列もしくは
空としてもよい。
The environment material storage unit 121 stores a conversation environment table and a conversation environment synthesis material. In FIG.
6 shows an example of a conversation environment table 61. The conversation environment table 61 includes a conversation environment data number 2801, a conversation data number 2802, a material file name 2803, and
04, a combination parameter 2805, a combination start frame number 2806, and a combination end frame number 2807.
In the conversation data number 2802, a conversation number 2501 (see the environment image table in FIG. 25) of the conversation for combining the materials is set. In the material file name 2803, the name of a file storing material data is set. In the combining command 2804, a material combining command that defines the movement of the conversation environment combining material when combining the conversation environment combining material is set. In the combination parameter 2805, parameters necessary for executing the material combination instruction are set. In the combination start frame number 2806, the first frame number of the combination of the materials is set. In the combination end frame number 2807, a frame number for ending the combination of the materials is set. To combine up to the last frame of the conversation environment image, “FF” is set. Even if it is not “FF”,
Other character strings or empty may be used as long as the last frame can be specified.

【0116】手話画像蓄積部108には、既述のように
各手話単語に対する手話動作を撮影した手話画像の画像
データが蓄積されている他、これらの手話動作を会話辞
書部117に蓄積されている各会話文に応じて変形させ
た手話動作の画像である変形手話画像の画像データが、
各会話文の会話データ番号と対応付けて蓄積されてい
る。この変形手話画像の画像データの形式にもAVIフ
ォーマットが採用されている。
The sign language image storage unit 108 stores image data of a sign language image obtained by capturing the sign language operation for each sign language word as described above, and further stores these sign language operations in the conversation dictionary unit 117. The image data of the transformed sign language image, which is the image of the sign language operation transformed according to each conversation sentence,
It is stored in association with the conversation data number of each conversation sentence. The AVI format is also used as the format of the image data of the modified sign language image.

【0117】なお、手話画像蓄積部108に蓄積する変
形手話画像の画像データは、各手話単語に対する手話動
作を各会話文に合わせて変形させた手話動作を撮影する
ことにより作成される。しかし、変形させた手話動作を
撮影する代わりに、各会話文に応じた変形手話画像をコ
ンピュータグラフィックスにより生成しておき、生成し
た変形手話画像の画像データを手話画像蓄積部108に
蓄積するようにしてもよい。
Note that the image data of the transformed sign language image stored in the sign language image storage unit 108 is created by photographing a sign language operation in which the sign language operation for each sign language word is transformed according to each conversational sentence. However, instead of photographing the transformed sign language motion, a transformed sign language image corresponding to each conversation sentence is generated by computer graphics, and the image data of the generated transformed sign language image is stored in the sign language image storage unit 108. It may be.

【0118】会話環境合成素材は、手話動作の変形を説
明するためのものであって、前記第5の動作モードにお
ける会話環境画像の素材に相当し、図29に示した会話
環境テーブル61により会話データと対応づけられてい
る。環境合成部120は、会話環境テーブル61から、
会話データ番号2802がステップS402で選択され
ている会話例文の会話データ番号と一致するデータをす
べて抽出し、会話環境データとしてセットする。そし
て、会話環境データの1データの会話データ番号、素材
ファイル名、合成命令、合成パラメータ、合成開始フレ
ーム番号、合成終了フレーム番号を取り出し、これらの
情報に基づいて会話環境合成画像を生成する。すなわ
ち、まず、その素材ファイル名のファイルを環境合成部
120が環境素材蓄積部121から抽出するとともに、
その会話データ番号の会話文に応じて変形させた変形手
話画像を手話画像検索部107が手話画像蓄積部108
から抽出する。そして環境合成部120が、その変形手
話画像における合成開始フレーム番号から合成終了フレ
ーム番号までの全フレームの画像に、その合成命令に従
って素材を合成する。このようにして会話環境データの
全ての素材データの示す素材を対応する変形手話画像に
合成することにより、会話環境合成画像を生成する。
The conversation environment synthesis material is for explaining the deformation of the sign language operation, and corresponds to the material of the conversation environment image in the fifth operation mode. The conversation environment composite material is used in the conversation environment table 61 shown in FIG. It is associated with the data. From the conversation environment table 61, the environment synthesis unit 120
All data whose conversation data number 2802 matches the conversation data number of the conversation example sentence selected in step S402 is extracted and set as conversation environment data. Then, a conversation data number, a material file name, a composition command, a composition parameter, a composition start frame number, and a composition end frame number of one piece of conversation environment data are extracted, and a conversation environment composite image is generated based on these information. That is, first, the environment synthesizing unit 120 extracts the file with the material file name from the environmental material storage unit 121, and
The sign language image retrieval unit 107 converts the sign language image transformed according to the conversation sentence of the conversation data number into the sign language image storage unit 108.
Extract from Then, the environment composition unit 120 composes the material with the images of all the frames from the composition start frame number to the composition end frame number in the modified sign language image according to the composition command. In this way, by combining the materials indicated by all the material data of the conversation environment data with the corresponding transformed sign language images, a conversation environment combined image is generated.

【0119】学習手話番号が“1”で例文1が選択され
ていた場合の会話環境合成画像の作成例について説明す
る。この場合、会話環境テーブル61から、会話データ
番号2802が“1”のデータを会話環境データとして
全て抽出し、抽出した会話環境データに基づいて会話環
境合成画像を生成する。すなわち、まず、会話環境テー
ブル61に設定されているファイル名“Man1.da
t”の素材データを環境素材蓄積部121から取り出
す。次に、手話単語<aU>の動作を例文1の会話文に
合わせて変形させた変形手話画像を手話画像蓄積部10
8から取り出す。そして、この変形手話画像における1
0フレームから最終フレームまでの画像中に“Man
1.dat”の素材データの示す素材を合成する。この
とき、会話環境データの合成命令として設定された命令
“LineMove”に従って合成する。“LineM
ove”は、直線運動命令であり、会話環境データの合
成パラメータに設定された開始位置と終了位置の間を直
線運動させる。図29の例では、開始位置が(500,
240)、終了位置が(100,350)となっている
ので、10フレームから最終フレームまでの間に、(5
00、240)から(100、350)まで直線運動す
るように、“Man1.dat”の示す素材を合成す
る。同様にして、“Father.dat”および“H
ouse.dat”の示す各素材が合成される。このと
き、図29の例における合成命令の“Static”は
静止命令であり、合成パラメータに設定された位置に素
材を静止させる。したがって、“Father.da
t”の示す素材は(50,350)の位置に、“Hou
se.dat”の示す素材は(50,250)の位置
に、10フレームから最終フレームまで合成される。こ
のようにして会話環境合成画像が生成されると、ステッ
プS502に進む。
A description will be given of an example of creating a conversation environment composite image when the learning sign language number is “1” and the example sentence 1 is selected. In this case, all the data having the conversation data number 2802 of “1” is extracted from the conversation environment table 61 as conversation environment data, and a conversation environment composite image is generated based on the extracted conversation environment data. That is, first, the file name “Man1.da” set in the conversation environment table 61 is set.
The material data of "t" is extracted from the environmental material storage unit 121. Next, the sign language word <aU> is transformed into a modified sign language image in accordance with the conversation sentence of the example sentence 1, and the sign language image storage unit 10
Remove from 8. And 1 in this transformed sign language image
"Man" in the image from the 0th frame to the last frame
1. The material indicated by the material data of “dat” is synthesized at this time, in accordance with the instruction “LineMove” set as the synthesis instruction of the conversation environment data.
“ove” is a linear motion command, which causes a linear motion between the start position and the end position set in the synthesis parameter of the conversation environment data. In the example of FIG. 29, the start position is (500,
240), the end position is (100, 350), so (5
The material indicated by “Man1.dat” is synthesized so as to linearly move from (00, 240) to (100, 350). Similarly, “Father.dat” and “H
use. At this time, the “Static” of the combining command in the example of FIG. 29 is a still command, and the material is stopped at the position set in the combining parameter. da
The material indicated by “t” is “Hou” at the position (50, 350).
se. The material indicated by "dat" is synthesized from the 10th frame to the last frame at the position of (50, 250). When the conversation environment synthesized image is generated in this manner, the process proceeds to step S502.

【0120】(2)ステップS502の処理 ステップS501で生成した会話環境合成画像を、図2
6に示した会話例文表示画面58の会話環境画像表示部
2605に表示する。
(2) Processing in Step S502 The conversation environment composite image generated in step S501 is
6 is displayed on the conversation environment image display unit 2605 of the conversation example sentence display screen 58 shown in FIG.

【0121】例えば、学習手話番号が“1”で例文1が
選択されていた場合、手話単語<aU>の動作を例文1
の会話文に合わせて変形させた変形手話画像に、“Ma
n1.dat”、“Father.dat”および“H
ouse.dat”の示す各素材を前述の作成例のよう
にして合成した会話環境合成画像が表示される。すなわ
ち、図30(a)に示す手話画像に対する会話環境合成
画像として、図30(b)から(d)へと変化する動画
像が合成され、この会話環境合成画像が、例文1の会話
文の文脈によって手話動作がどのように変形するかを説
明する画像として表示される。
For example, if the learning sign language number is “1” and example sentence 1 is selected, the operation of the sign language word <aU> is
"Ma" in the transformed sign language image transformed according to the conversation sentence
n1. dat "," Father. dat ”and“ H
use. 30 (a) is displayed as a conversation environment composite image for the sign language image shown in FIG. 30 (a). The moving image that changes to (d) is synthesized, and the conversation environment synthesized image is displayed as an image that describes how the sign language action is deformed depending on the context of the conversation sentence of Example Sentence 1.

【0122】このような会話環境合成画像の全てのフレ
ームを表示し終えた後、ステップS402に戻る。
After displaying all the frames of the conversation environment composite image, the process returns to step S402.

【0123】以上の手順により第6の動作モードの処理
が実現され、これにより手話単語の学習を行うことがで
きる。このような第6の動作モードによれば、手話動作
の変形を伴う実際の会話の手話画像中に説明用の素材が
合成されるため、変形の起こった理由をより容易に理解
することができる。
The processing in the sixth operation mode is realized by the above procedure, whereby the learning of the sign language word can be performed. According to the sixth operation mode, the explanatory material is synthesized in the sign language image of the actual conversation with the deformation of the sign language operation, so that the reason why the deformation has occurred can be more easily understood. .

【0124】<変形例>以上説明した実施形態では、各
種の画像データを所定のフォーマットで予め所定の蓄積
部に蓄積しておき、学習対象の手話単語や選択された会
話例文等に応じて必要な画像データを蓄積部から検索し
抽出していたが、これに代えて、コンピュータグラフィ
ックスにより、学習対象の手話単語や選択された会話例
文等に応じて、所定の画像を生成するようにしてもよ
い。例えば、上記実施形態では、手話単語の動作を撮影
した手話画像やその動作を各会話文に合わせて変形させ
た手話動作の画像である変形手話画像の画像データが手
話画像蓄積部108に蓄積されているが、このように画
像データを蓄積する代わりに、コンピュータグラフィッ
クスにより、学習対象の手話単語に応じて手話画像を生
成するとともに、選択された会話例文に応じて変形手話
画像を生成し、生成したこれらの画像を手話学習情報表
示画面44や会話例表示画面58に表示するようにして
もよい。
<Modification> In the embodiment described above, various types of image data are stored in a predetermined storage unit in a predetermined format in advance, and the image data is required according to the sign language word to be learned and the selected conversation example sentence. In this case, a predetermined image is generated by computer graphics in accordance with the sign language word to be learned, the selected conversation example sentence, and the like. Is also good. For example, in the above-described embodiment, the sign language image obtained by capturing the action of the sign language word and the image data of the modified sign language image that is the image of the sign language action obtained by transforming the action according to each conversational sentence are stored in the sign language image storage unit 108. However, instead of accumulating image data in this way, computer graphics generates a sign language image according to the sign language word to be learned, and generates a modified sign language image according to the selected conversation example sentence, These generated images may be displayed on the sign language learning information display screen 44 or the conversation example display screen 58.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態である手話学習支援装置の
構成を示すブロック図。
FIG. 1 is a block diagram showing a configuration of a sign language learning support device according to an embodiment of the present invention.

【図2】上記実施形態の第1の動作モードにおける処理
を示すフローチャート。
FIG. 2 is a flowchart showing processing in a first operation mode of the embodiment.

【図3】上記実施形態における学習条件設定画面の一例
を示す図。
FIG. 3 is a view showing an example of a learning condition setting screen in the embodiment.

【図4】手形状に対応する手形状番号の一例を示す図。FIG. 4 is a diagram showing an example of a hand shape number corresponding to a hand shape.

【図5】上記実施形態における手話辞書部に蓄積されて
いる手話情報の一例を示す図。
FIG. 5 is a view showing an example of sign language information stored in a sign language dictionary unit in the embodiment.

【図6】上記実施形態における抽出手話表示画面の一例
を示す図。
FIG. 6 is a view showing an example of an extracted sign language display screen in the embodiment.

【図7】上記実施形態において入力情報に一致するデー
タがないことを示す条件不一致表示画面の一例を示す
図。
FIG. 7 is a view showing an example of a condition mismatch display screen indicating that there is no data matching input information in the embodiment.

【図8】上記実施形態における背景辞書部に蓄積されて
いる背景情報の一例を示す図。
FIG. 8 is a view showing an example of background information stored in a background dictionary unit in the embodiment.

【図9】上記実施形態における手話画像テーブルの一例
を示す図。
FIG. 9 is a view showing an example of a sign language image table in the embodiment.

【図10】上記実施形態における背景画像テーブルの一
例を示す図。
FIG. 10 is a view showing an example of a background image table in the embodiment.

【図11】上記実施形態における背景アニメーションの
作成手順の一例を示す概略図。
FIG. 11 is an exemplary diagram showing an example of a procedure for creating a background animation in the embodiment.

【図12】上記実施形態の第1および第2の動作モード
における手話学習情報表示画面の一例を示す図。
FIG. 12 is a view showing an example of a sign language learning information display screen in the first and second operation modes of the embodiment.

【図13】上記実施形態の第2の動作モードにおける処
理を示すフローチャート。
FIG. 13 is a flowchart showing processing in a second operation mode of the embodiment.

【図14】上記実施形態における合成情報蓄積部に蓄積
されている合成情報の一例を示す図。
FIG. 14 is a view showing an example of composite information stored in a composite information storage unit in the embodiment.

【図15】上記実施形態における背景画像合成部による
合成手順の一例を示す概略図。
FIG. 15 is an exemplary diagram showing an example of a combining procedure by a background image combining unit in the embodiment.

【図16】上記実施形態の第3の動作モードにおける処
理を示すフローチャート。
FIG. 16 is a flowchart showing processing in a third operation mode of the embodiment.

【図17】上記実施形態における変形情報蓄積部に蓄積
されている変形情報の一例を示す図。
FIG. 17 is a diagram showing an example of deformation information stored in a deformation information storage unit in the embodiment.

【図18】上記実施形態の第3の動作モードにおける手
話学習情報表示画面の一例を示す図。
FIG. 18 is a view showing an example of a sign language learning information display screen in a third operation mode of the embodiment.

【図19】上記実施形態の第4の動作モードにおける処
理を示すフローチャート。
FIG. 19 is a flowchart showing processing in a fourth operation mode of the embodiment.

【図20】上記実施形態における会話辞書部に蓄積され
ている変形関係情報の一例を示す図。
FIG. 20 is a view showing an example of deformation relation information stored in a conversation dictionary unit in the embodiment.

【図21】上記実施形態における会話辞書部に蓄積され
ている会話情報の一例を示す図。
FIG. 21 is a diagram showing an example of conversation information stored in the conversation dictionary unit in the embodiment.

【図22】上記実施形態の第4の動作モードにおける手
話学習情報表示画面の一例を示す図。
FIG. 22 is a view showing an example of a sign language learning information display screen in a fourth operation mode of the embodiment.

【図23】上記実施形態の第4の動作モードにおける会
話例表示画面の一例を示す図。
FIG. 23 is a view showing an example of a conversation example display screen in a fourth operation mode of the embodiment.

【図24】上記実施形態の第5の動作モードにおける処
理を示すフローチャート。
FIG. 24 is a flowchart showing processing in a fifth operation mode of the embodiment.

【図25】上記実施形態における環境画像蓄積部に蓄積
されている環境画像テーブルの一例を示す図。
FIG. 25 is a diagram showing an example of an environment image table stored in an environment image storage unit in the embodiment.

【図26】上記実施形態の第5の動作モードにおける会
話例表示画面の一例を示す図。
FIG. 26 is a view showing an example of a conversation example display screen in a fifth operation mode of the embodiment.

【図27】上記実施形態の第5の動作モードにおける会
話環境画像の一例を示す図。
FIG. 27 is a view showing an example of a conversation environment image in a fifth operation mode of the embodiment.

【図28】上記実施形態の第6の動作モードにおける処
理を示すフローチャート。
FIG. 28 is a flowchart showing processing in a sixth operation mode of the embodiment.

【図29】上記実施形態における環境素材蓄積部に蓄積
されている会話環境テーブルの一例を示す図。
FIG. 29 is a view showing an example of a conversation environment table stored in an environmental material storage unit in the embodiment.

【図30】上記実施形態の第6の動作モードにおける会
話環境合成画像の一例を示す図。
FIG. 30 is a view showing an example of a conversation environment composite image in a sixth operation mode of the embodiment.

【符号の説明】[Explanation of symbols]

18 …学習条件設定画面 21 …手話情報 25 …抽出手話表示画面 29 …背景情報 44,44b…手話学習情報表示画面 46 …変形情報 49 …変形関係情報 51 …会話情報 58,53 …会話例表示画面 101 …入力部 102 …全体制御部 103 …手話検索部 104 …手話辞書部 105 …背景検索部 106 …背景辞書部 107 …手話画像検索部 108 …手話画像蓄積部 109 …アニメ生成部 110 …アニメデータ蓄積部 111 …出力部 112 …背景画像合成部 113 …合成情報蓄積部 114 …変形検索部 115 …手話変形辞書部 116 …会話検索部 117 …会話辞書部 118 …環境生成部 119 …環境画像蓄積部 120 …環境合成部 121 …環境素材蓄積部 503 …意味データ 805 …背景説明文 1101 …情景画像 1102 …アニメ素材データ 1202 …意味表示部 1203 …背景説明文表示部 1204 …画像表示部 1501 …手話画像 1502 …背景アニメ画像 1703 …変形説明文 1804 …変形説明文表示部 2005 …個別変形説明文 2303 …会話文表示部 2304 …変形説明文表示部 2605 …会話環境画像表示部 18 ... learning condition setting screen 21 ... sign language information 25 ... extracted sign language display screen 29 ... background information 44, 44b ... sign language learning information display screen 46 ... deformation information 49 ... deformation related information 51 ... conversation information 58, 53 ... conversation example display screen 101 input unit 102 overall control unit 103 sign language search unit 104 sign language dictionary unit 105 background search unit 106 background dictionary unit 107 sign language image search unit 108 sign language image storage unit 109 animation generation unit 110 animation data Storage unit 111 Output unit 112 Background image synthesis unit 113 Synthetic information storage unit 114 Deformation search unit 115 Sign language deformation dictionary unit 116 Conversation search unit 117 Conversation dictionary unit 118 Environment generation unit 119 Environmental image storage unit 120… Environmental synthesis unit 121… Environmental material storage unit 503… Semantic data 805… Background explanation 1 01 ... Scene image 1102 ... Animation material data 1202 ... Meaning display unit 1203 ... Background description display unit 1204 ... Image display unit 1501 ... Sign language image 1502 ... Background animation image 1703 ... Deformation description 1804 ... Deformation description display unit 2005 ... Individual Modified explanatory sentence 2303 ... Conversation sentence display unit 2304 ... Modified explanatory sentence display unit 2605 ... Conversation environment image display unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 長嶋 祐二 東京都武蔵野市境4丁目16番19号 M2ハ イツ102 Fターム(参考) 2C028 AA12 BA01 BB04 BC01 BD03 CA12  ────────────────────────────────────────────────── ─── Continued on the front page (72) Inventor Yuji Nagashima 4-16-19 Sakai, Musashino-shi, Tokyo M2 Heights 102 F-term (reference) 2C028 AA12 BA01 BB04 BC01 BD03 CA12

Claims (16)

【特許請求の範囲】[Claims] 【請求項1】 手話の学習を支援する手話学習支援装置
であって、 学習対象の手話単語を指定する入力情報を取得するため
の手段と、 前記入力情報に基づき前記学習対象の手話単語に対する
手話動作を表す手話画像を表示する手段と、 前記入力情報に基づき前記学習対象の手話単語の意味を
視覚的に表現するアニメーションを表示する手段と、を
備えることを特徴とする手話学習支援装置。
1. A sign language learning support device for supporting learning of a sign language, comprising: means for acquiring input information for specifying a sign language word to be learned; and sign language for the sign language word to be learned based on the input information. A sign language learning support device comprising: means for displaying a sign language image representing an action; and means for displaying an animation for visually expressing the meaning of the sign language word to be learned based on the input information.
【請求項2】 手話の学習を支援する手話学習支援装置
であって、 学習対象の手話単語を指定する入力情報を取得するため
の入力手段と、 各手話単語の意味を表す文字情報である意味情報を蓄積
している手話辞書部と、 各手話単語に対する手話動作を表す手話画像を蓄積して
いる手話画像蓄積手段と、 アニメーションに使用する素材を示す素材データと該素
材を動作させて各手話単語の意味を視覚的に表現するた
めのシナリオとを蓄積しているアニメデータ蓄積手段
と、 前記手話辞書部から意味情報を検索する手話検索手段
と、 前記手話画像蓄積手段から手話画像を検索する手話画像
検索手段と、 前記アニメデータ蓄積手段から素材データおよびシナリ
オを取り出し、該シナリオに基づき該素材データを用い
てアニメーションを生成するアニメ生成手段と、 画像および文字を表示する出力手段と、 前記入力情報に基づき、前記学習対象の手話単語の意味
情報を前記手話検索手段により取得し、前記学習対象の
手話単語に対応する手話画像を前記手話画像検索手段に
より取得し、前記学習対象の手話単語の意味を視覚的に
表現するアニメーションを背景アニメーションとして前
記アニメ生成手段に生成させ、前記意味情報、前記手話
画像および前記背景アニメーションを前記出力手段に表
示させる制御手段と、を備えることを特徴とする手話学
習支援装置。
2. A sign language learning support device for supporting sign language learning, comprising: input means for acquiring input information for designating a sign language word to be learned; and a meaning being character information representing the meaning of each sign language word. Sign language dictionary section storing information, sign language image storage means storing sign language images representing the sign language action for each sign language word, material data indicating a material used for animation, and each sign language by operating the material Anime data storage means for storing a scenario for visually expressing the meaning of a word; sign language search means for searching semantic information from the sign language dictionary unit; and searching for a sign language image from the sign language image storage means. Material data and a scenario are extracted from the sign language image search means and the animation data storage means, and an animation is generated using the material data based on the scenario. A name generating means; an output means for displaying images and characters; and a sign language image corresponding to the sign language word to be learned, the semantic information of the sign language word to be learned is acquired by the sign language search means based on the input information. Is acquired by the sign language image search means, and the animation generation means generates an animation that visually represents the meaning of the sign language word to be learned as a background animation, and the semantic information, the sign language image, and the background animation are generated. A sign language learning support device, comprising: control means for displaying on an output means.
【請求項3】 各手話単語に対する手話動作を説明する
文字情報である背景説明文を蓄積している背景辞書部
と、 前記背景辞書部から背景説明文を検索する背景検索手段
とを更に備え、 前記制御手段は、前記入力情報に基づき、前記学習対象
の手話単語に対応する背景説明文を前記背景検索手段に
より取得し、該背景説明文をも前記出力手段に表示させ
ることを特徴とする請求項2に記載の手話学習支援装
置。
3. A background dictionary unit that stores a background description sentence, which is character information describing a sign language operation for each sign language word, and a background search unit that searches the background dictionary for a background description sentence, The control means obtains a background description corresponding to the sign language word to be learned by the background search means based on the input information, and causes the output means to display the background description. Item 3. The sign language learning support device according to Item 2.
【請求項4】 前記手話画像検索手段により得られる手
話画像と前記アニメ生成手段により生成されるアニメー
ションとを合成して合成画像を生成する背景画像合成手
段を更に備え、 前記制御手段は、前記入力情報に基づき、前記背景アニ
メーションを、背景画像合成手段により前記学習対象の
手話単語の手話画像と合成した合成画像として前記出力
手段に表示させることを特徴とする請求項2または3に
記載の手話学習支援装置。
4. A background image synthesizing means for synthesizing a sign language image obtained by the sign language image searching means and an animation generated by the animation generating means to generate a synthesized image, wherein the control means comprises: The sign language learning according to claim 2 or 3, wherein the background animation is displayed on the output unit as a synthesized image obtained by synthesizing the background animation with the sign language image of the sign language word to be learned by the background image synthesizing unit based on the information. Support device.
【請求項5】 前記背景画像合成手段による合成は、前
記手話画像における手の部分から前記アニメーションに
おいて前記手に対応する素材の部分へのモーフィング処
理を伴うことを特徴とする請求項4に記載の手話学習支
援装置。
5. The composition according to claim 4, wherein the composition by the background image composition means includes a morphing process from a hand portion in the sign language image to a material portion corresponding to the hand in the animation. Sign language learning support device.
【請求項6】 各手話単語に対する手話動作の変形を説
明する文字情報である変形説明文を蓄積している手話変
形辞書部と、 前記手話変形辞書部から前記変形説明文を検索する変形
検索手段とを更に備え、 前記制御手段は、前記入力情報に基づき、前記学習対象
の手話単語に対応する変形説明文を前記変形検索手段に
より取得し、該変形説明文を前記出力手段に表示させる
ことを特徴とする請求項2または4に記載の手話学習支
援装置。
6. A sign language transformation dictionary storing character transformation explanations as character information for explaining transformation of a sign language operation for each sign language word, and a transformation search means for retrieving the transformation explanation from the sign language transformation dictionary. The control unit acquires a modified explanatory sentence corresponding to the learning target sign language word by the modified search unit based on the input information, and displays the modified explanatory sentence on the output unit. The sign language learning support device according to claim 2 or 4, wherein:
【請求項7】 各種の会話文と各種の会話文における手
話動作の変形を説明する文字情報である個別変形説明文
とを手話単語に対応付けて蓄積している会話辞書部と、 前記会話辞書部から会話文および個別変形説明文を検索
する会話検索手段とを更に備え、 前記制御手段は、前記入力情報に基づき、前記学習対象
の手話単語に対応する会話文および個別変形説明文を前
記会話検索手段により取得し、該会話文を該会話文に対
する該個別変形説明文と共に前記出力手段に表示させる
ことを特徴とする請求項2または4に記載の手話学習支
援装置。
7. A conversation dictionary unit that stores various conversational sentences and individual transformation explanations, which are character information for explaining transformations of sign language operations in various conversational sentences, in association with sign language words, and the conversation dictionary. A conversation search unit for searching a conversation sentence and an individual deformation explanation sentence from the unit, wherein the control unit converts the conversation sentence and the individual deformation explanation corresponding to the sign language word to be learned based on the input information into the conversation. 5. The sign language learning support device according to claim 2, wherein said sign is acquired by a retrieval unit, and said conversation sentence is displayed on said output unit together with said individual transformation explanation for said conversation sentence.
【請求項8】 前記会話辞書部に蓄積されている各会話
文の意味する内容を表す画像である会話環境画像を蓄積
している環境画像蓄積手段と、 前記環境画像蓄積手段から会話環境画像を検索する環境
画像検索手段とを更に備え、 前記制御手段は、前記出力手段に表示される会話文に対
応する会話環境画像を前記環境画像検索手段により取得
し、該会話環境画像を前記出力手段に表示させることを
特徴とする請求項7に記載の手話学習支援装置。
8. An environment image storage means for storing a conversation environment image which is an image representing the meaning of each conversation sentence stored in the conversation dictionary unit; and a conversation environment image from the environment image storage means. Environment image search means for searching, wherein the control means acquires a conversation environment image corresponding to a conversation sentence displayed on the output means by the environment image search means, and outputs the conversation environment image to the output means. The sign language learning support device according to claim 7, wherein the device is displayed.
【請求項9】 各手話単語に対する手話動作を前記会話
辞書部に蓄積されている各会話文に合わせて変形させた
手話動作の画像を変形手話画像として蓄積している変形
手話画像蓄積手段と、 前記変形手話画像蓄積手段から変形手話画像を検索する
変形手話画像検索手段と、 前記会話辞書部に蓄積されている各会話文の意味する内
容を表す画像における素材を示す素材データを蓄積して
いる環境素材蓄積手段と、 与えられた会話文に応じて、前記変形手話画像検索手段
により変形手話画像を取得するとともに前記環境素材蓄
積手段から素材データを取得し、取得した前記変形手話
画像に取得した素材データの示す素材を合成した環境合
成画像を生成する環境合成手段とを備え、 前記制御手段は、前記出力手段に表示される会話文に応
じた環境合成画像を前記環境合成手段に生成させ、該環
境合成画像を前記出力手段に表示させることを特徴とす
る請求項7に記載の手話学習支援装置。
9. A modified sign language image storing means for storing, as a modified sign language image, an image of the sign language operation obtained by transforming the sign language operation for each sign language word according to each conversation sentence stored in the conversation dictionary unit, A modified sign language image retrieval unit for retrieving a modified sign language image from the modified sign language image storage unit; and material data indicating a material in an image representing the meaning of each conversation sentence stored in the conversation dictionary unit. Environmental material accumulating means and, in accordance with a given conversation sentence, acquiring a modified sign language image by the modified sign language image retrieving means and acquiring material data from the environmental material accumulating means, acquiring the acquired modified sign language image. Environment synthesizing means for generating an environment synthesized image obtained by synthesizing the material indicated by the material data; The formed image is generated on the environment combining means, sign language learning support system according to the environment combined image to claim 7, characterized in that to be displayed on the output unit.
【請求項10】 手話の学習を支援する手話学習支援プ
ログラムを、コンピュータ装置において実行されるプロ
グラムとして記録した記録媒体であって、 学習対象の手話単語を指定する入力情報を取得するステ
ップと、 前記入力情報に基づき前記学習対象の手話単語に対する
手話動作を表す手話画像を表示するステップと、 前記入力情報に基づき前記学習対象の手話単語の意味を
視覚的に表現するアニメーションを表示するステップ
と、 を含む動作環境を前記コンピュータ装置上で実現するた
めの手話学習支援プログラムを記録した記録媒体。
10. A recording medium on which a sign language learning support program for supporting learning of a sign language is recorded as a program executed in a computer device, wherein input information for specifying a sign language word to be learned is obtained; A step of displaying a sign language image representing a sign language action for the sign language word of the learning target based on the input information; and a step of displaying an animation visually expressing the meaning of the sign language word of the learning target based on the input information. A recording medium recording a sign language learning support program for realizing an operating environment including the above on a computer device.
【請求項11】 手話の学習を支援する手話学習支援プ
ログラムを、コンピュータ装置において実行されるプロ
グラムとして記録した記録媒体であって、 学習対象の手話単語を指定する入力情報を取得するステ
ップと、 各手話単語の意味を表す文字情報である意味情報を蓄積
している手話辞書部から、前記入力情報に基づき前記学
習対象の手話単語の意味情報を取得するステップと、 各手話単語に対する手話動作を表す手話画像を蓄積して
いる手話画像蓄積手段から、前記入力情報に基づき前記
学習対象の手話単語に対応する手話画像を取得するステ
ップと、 アニメーションに使用する素材を示す素材データと該素
材を動作させて各手話単語の意味を視覚的に表現するた
めのシナリオとを蓄積しているアニメデータ蓄積手段か
ら、前記入力情報に基づき前記学習対象の手話単語に対
応する素材データおよびシナリオを取り出し、該シナリ
オに基づき該素材データを用いて、前記学習対象の手話
単語の意味を視覚的に表現するアニメーションを背景ア
ニメーションとして生成するステップと、 前記学習対象の手話単語の意味情報、前記学習対象の手
話単語の手話画像、および前記背景アニメーションを表
示するステップと、 を含む動作環境を前記コンピュータ装置上で実現するた
めの手話学習支援プログラムを記録した記録媒体。
11. A recording medium on which a sign language learning support program for supporting sign language learning is recorded as a program to be executed in a computer device, wherein input information for specifying a sign language word to be learned is obtained. Acquiring the meaning information of the sign language word to be learned based on the input information from a sign language dictionary unit that stores semantic information that is character information representing the meaning of the sign language word; and representing the sign language operation for each sign language word. Acquiring a sign language image corresponding to the sign language word to be learned based on the input information from a sign language image accumulating unit that accumulates the sign language image; and operating the material data indicating the material used for the animation and the material. From the animation data storage means storing a scenario for visually expressing the meaning of each sign language word. Based on the information, material data and a scenario corresponding to the learning target sign language word are extracted, and an animation for visually expressing the meaning of the learning target sign language word is generated as a background animation using the material data based on the scenario. Displaying the sign language word of the learning target, the sign language image of the learning target sign language word, and the background animation. A recording medium on which a support program is recorded.
【請求項12】 前記動作環境は、前記学習対象の手話
単語に対応する手話画像と前記背景アニメーションとを
合成して合成画像を生成するステップを更に含み、 前記意味情報、前記手話画像および前記背景アニメーシ
ョンを表示する前記ステップにおいて、前記合成画像を
表示することにより前記背景アニメーションを表示する
ことを特徴とする請求項11に記載の手話学習支援プロ
グラムを記録した記録媒体。
12. The operating environment further includes a step of synthesizing a sign language image corresponding to the learning target sign language word and the background animation to generate a synthesized image, wherein the semantic information, the sign language image, and the background are generated. 12. The recording medium according to claim 11, wherein the background animation is displayed by displaying the composite image in the step of displaying an animation.
【請求項13】 前記動作環境は、各手話単語に対する
手話動作の変形を説明する文字情報である変形説明文を
蓄積している手話変形辞書部から、前記入力情報に基づ
き前記学習対象の手話単語に対応する変形説明文を取得
するステップを更に含み、 前記意味情報、前記手話画像および前記背景アニメーシ
ョンを表示する前記ステップにおいて、前記学習対象の
手話単語に対応する変形説明文を表示することを特徴と
する請求項11または12に記載の手話学習支援プログ
ラムを記録した記録媒体。
13. The learning environment for a sign language word to be learned based on the input information from a sign language transformation dictionary unit storing a transformation explanation sentence which is character information for explaining a transformation of a sign language operation for each sign language word. Further comprising a step of acquiring a modified explanatory sentence corresponding to the above, wherein in the displaying the semantic information, the sign language image and the background animation, a modified explanatory sentence corresponding to the sign language word to be learned is displayed. A recording medium on which the sign language learning support program according to claim 11 or 12 is recorded.
【請求項14】 前記動作環境は、 各種の会話文と各種の会話文における手話動作の変形を
説明する文字情報である個別変形説明文とを手話単語に
対応付けて蓄積している会話辞書部から、前記入力情報
に基づき前記学習対象の手話単語に対応する会話文およ
び個別変形説明文を取得するステップと、 前記学習対象の手話単語に対応する会話文を該会話文に
対する個別変形説明文と共に表示するステップと、を更
に含むことを特徴とする請求項11または12に記載の
手話学習支援プログラムを記録した記録媒体。
14. A conversation dictionary unit which stores various conversational sentences and individual transformation explanations, which are character information for explaining transformations of the sign language operation in the various conversational sentences, in association with sign language words. Acquiring a conversation sentence and an individual deformation explanation corresponding to the learning target sign language word based on the input information; and a conversation sentence corresponding to the learning target sign language word together with the individual deformation explanation for the conversation sentence. 13. The recording medium according to claim 11, further comprising a step of displaying the sign language learning support program.
【請求項15】 前記動作環境は、 前記会話辞書部に蓄積されている各会話文の意味する内
容を表す画像である会話環境画像を蓄積している環境画
像蓄積手段から、前記個別変形説明文と共に表示される
前記会話文に対応する会話環境画像を取得するステップ
と、 前記ステップで取得される会話環境画像を表示するステ
ップと、を更に含むことを特徴とする請求項14に記載
の手話学習支援プログラムを記録した記録媒体。
15. The individual deformation description sentence is stored in an environment image storage unit that stores a conversation environment image that is an image representing the meaning of each conversation sentence stored in the conversation dictionary unit. 15. The sign language learning according to claim 14, further comprising: obtaining a conversation environment image corresponding to the conversation sentence displayed together with the conversation sentence; and displaying the conversation environment image acquired in the step. A recording medium on which a support program is recorded.
【請求項16】 前記動作環境は、 前記会話辞書部に蓄積されている各会話文の意味する内
容を表す画像における素材を示す素材データを蓄積して
いる環境素材蓄積手段から、前記個別変形説明文と共に
表示される前記会話文に応じた素材データを取得するス
テップと、 各手話単語に対する手話動作を前記会話辞書部に蓄積さ
れている各会話文に合わせて変形させた手話動作の画像
を変形手話画像として蓄積している変形手話画像蓄積手
段から、前記個別変形説明文と共に表示される前記会話
文に合わせて変形させた変形手話画像を取得するステッ
プと、 取得された前記素材データの示す素材を取得された前記
変形手話画像に合成した環境合成画像を生成するステッ
プと、 前記環境合成画像を表示するステップと、を更に含むこ
とを特徴とする請求項14に記載の手話学習支援プログ
ラムを記録した記録媒体。
16. The individual deformation explanation from an environment material storage unit that stores material data indicating a material in an image representing the meaning of each conversation sentence stored in the conversation dictionary unit. Acquiring material data corresponding to the conversation sentence displayed together with the sentence; and transforming an image of the sign language operation in which the sign language operation for each sign language word is transformed according to each conversation sentence stored in the conversation dictionary unit. Acquiring, from the modified sign language image storage means stored as a sign language image, a transformed sign language image transformed in accordance with the conversation sentence displayed together with the individual transformation explanatory note; and a material indicated by the acquired material data. Generating an environment composite image synthesized with the acquired transformed sign language image, and displaying the environment composite image. Recording medium for recording a sign language learning support program according to claim 14 that.
JP10255170A 1998-09-09 1998-09-09 Sign language study supporting device and recording medium with sign language study supporting program recorded therein Pending JP2000089660A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10255170A JP2000089660A (en) 1998-09-09 1998-09-09 Sign language study supporting device and recording medium with sign language study supporting program recorded therein

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10255170A JP2000089660A (en) 1998-09-09 1998-09-09 Sign language study supporting device and recording medium with sign language study supporting program recorded therein

Publications (1)

Publication Number Publication Date
JP2000089660A true JP2000089660A (en) 2000-03-31

Family

ID=17275034

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10255170A Pending JP2000089660A (en) 1998-09-09 1998-09-09 Sign language study supporting device and recording medium with sign language study supporting program recorded therein

Country Status (1)

Country Link
JP (1) JP2000089660A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010511896A (en) * 2006-12-01 2010-04-15 チョイ,ジェ−ボン Language learning content provision system using partial images
WO2010087301A1 (en) * 2009-01-27 2010-08-05 Ohki Junto Sign language keyboard and sign language searching device using same
KR101312058B1 (en) 2013-03-26 2013-09-25 서창원 Apparatus for studying korean language using visual phonics and method thereof
KR101435477B1 (en) * 2013-02-19 2014-08-28 곽태진 Talking method using application program
KR101511527B1 (en) 2014-10-16 2015-04-13 서창원 Apparatus for studying korean language using cued speech and method thereof
TWI501205B (en) * 2014-07-04 2015-09-21 Sabuz Tech Co Ltd Sign language image input method and device
WO2020227971A1 (en) * 2019-05-15 2020-11-19 Microsoft Technology Licensing, Llc Image generation

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010511896A (en) * 2006-12-01 2010-04-15 チョイ,ジェ−ボン Language learning content provision system using partial images
WO2010087301A1 (en) * 2009-01-27 2010-08-05 Ohki Junto Sign language keyboard and sign language searching device using same
KR101298926B1 (en) * 2009-01-27 2013-08-22 준토 오오키 Sign language keyboard and sign language searching device using same
US8711100B2 (en) 2009-01-27 2014-04-29 Junto Ohki Sign language keyboard and sign language searching apparatus using the same
KR101435477B1 (en) * 2013-02-19 2014-08-28 곽태진 Talking method using application program
KR101312058B1 (en) 2013-03-26 2013-09-25 서창원 Apparatus for studying korean language using visual phonics and method thereof
TWI501205B (en) * 2014-07-04 2015-09-21 Sabuz Tech Co Ltd Sign language image input method and device
US9524656B2 (en) 2014-07-04 2016-12-20 Sabuz Tech. Co., Ltd. Sign language image input method and device
KR101511527B1 (en) 2014-10-16 2015-04-13 서창원 Apparatus for studying korean language using cued speech and method thereof
WO2020227971A1 (en) * 2019-05-15 2020-11-19 Microsoft Technology Licensing, Llc Image generation

Similar Documents

Publication Publication Date Title
US5659764A (en) Sign language generation apparatus and sign language translation apparatus
JP4689670B2 (en) Interactive manuals, systems and methods for vehicles and other complex devices
US9431027B2 (en) Synchronized gesture and speech production for humanoid robots using random numbers
US6549887B1 (en) Apparatus capable of processing sign language information
US20160139786A1 (en) System, apparatus and method for the creation and visualization of a manuscript from text and/or other media
Gibet et al. Interactive editing in french sign language dedicated to virtual signers: Requirements and challenges
JPH06138815A (en) Finger language/word conversion system
JPH08315185A (en) Sign language editing device
JP2011175598A (en) Device and program for generating sign language animation
JP2016038601A (en) Cg character interaction device and cg character interaction program
JP2003295754A (en) Sign language teaching system and program for realizing the system
JP2014109988A (en) Motion video generation device and motion video generation program
JP2000089660A (en) Sign language study supporting device and recording medium with sign language study supporting program recorded therein
WO2008023819A1 (en) Computer system and operation control method
JP2000330467A (en) Sign language teaching device, sign language teaching method and recording medium recorded with the method
JP2019197084A (en) Sign language cg interpretation and edit system, and program
JP3222283B2 (en) Guidance device
JPH11184370A (en) Finger language information presenting device
JP4885569B2 (en) Style sheet generating apparatus and style sheet generating program
JP2003271532A (en) Communication system, data transfer method of the system, server of the system, processing program for the system and record medium
Mukashev et al. Facial expression generation of 3D avatar based on semantic analysis
JP3591309B2 (en) Sign language teaching device and computer readable recording medium recording sign language teaching program
JP4548313B2 (en) Video creation device and video creation method
JPH09305787A (en) Animation production and reproduction device and animation retrieval device
JP2005099977A (en) Sign language editing method and device