WO2010087301A1 - 手話キーボードおよびそれを用いた手話検索装置 - Google Patents

手話キーボードおよびそれを用いた手話検索装置 Download PDF

Info

Publication number
WO2010087301A1
WO2010087301A1 PCT/JP2010/050897 JP2010050897W WO2010087301A1 WO 2010087301 A1 WO2010087301 A1 WO 2010087301A1 JP 2010050897 W JP2010050897 W JP 2010050897W WO 2010087301 A1 WO2010087301 A1 WO 2010087301A1
Authority
WO
WIPO (PCT)
Prior art keywords
input
finger
sign language
input area
upper body
Prior art date
Application number
PCT/JP2010/050897
Other languages
English (en)
French (fr)
Inventor
洵人 大木
Original Assignee
Ohki Junto
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ohki Junto filed Critical Ohki Junto
Priority to JP2010548492A priority Critical patent/JP5628691B2/ja
Priority to KR1020117019697A priority patent/KR101298926B1/ko
Priority to US13/146,533 priority patent/US8711100B2/en
Priority to EP20100735769 priority patent/EP2392989A4/en
Publication of WO2010087301A1 publication Critical patent/WO2010087301A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M11/00Coding in connection with keyboards or like devices, i.e. coding of the position of operated keys
    • H03M11/02Details
    • H03M11/04Coding of multifunction keys
    • H03M11/06Coding of multifunction keys by operating the multifunction key itself in different ways
    • H03M11/08Coding of multifunction keys by operating the multifunction key itself in different ways by operating selected combinations of multifunction keys
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/0202Constructional details or processes of manufacture of the input device
    • G06F3/0219Special purpose keyboards
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute

Definitions

  • the present invention relates to a sign language keyboard used for visual communication expressed in sign language and a sign language search device using the same.
  • sign language is often used as an information transmission means for hearing impaired people (deaf people).
  • Sign language is a visual language that uses both finger movement and non-finger movement at the same time, and is a language that is in line with speech language.
  • how to associate these sign language expressions with electronic information has been a challenge.
  • Patent Document 1 in order for both the normal hearing person and the hearing-impaired person to grasp the information content easily, quickly and accurately, the text data is subjected to morphological analysis and keyword Is extracted from this keyword and converted into bulleted text data and fragmented sign language video data, and visually displayed to the deaf person.
  • Sign language shows semantic content in conjunction with finger and non-finger movements, but it is difficult to guess the meaning of sign language from these two movements, and it was divided into finger movements and non-finger movements in advance. The only way to learn these meanings was to prepare cards.
  • the present invention has been made in view of such circumstances, and its first problem is to focus on the characteristic that sign language is composed of finger movements and non-finger movements, and to provide input means capable of simple input. It is to provide.
  • a second object of the present invention is to provide a search means capable of searching for the meaning content of sign language from finger movements and non-hand movements.
  • the present invention comprises the following means.
  • Claim 1 of the present invention is an input device for inputting sign language information that expresses the semantic content in conjunction with finger movements and non-finger movements, and at least a plurality of upper body parts in which the upper body part of the speaker is disassembled and displayed.
  • Wrist states that represent the input area, the finger input area with each finger shape assigned to it, the movement of the speaker's wrist vertically upward, the vertical downward movement, and the horizontal movement
  • the input identification means identifies the input area, the shape of the finger input in the finger input area, the upper body part subsequently input, and the wrist movement input as necessary, and dynamically
  • This is an input device capable of inputting a changing sign language expression.
  • the input device is divided into the upper body input area, the finger input area, and the wrist state input area, it is possible to smoothly input the finger movement and the non-finger movement in conjunction with each other. It is possible to input the information meaning as follows.
  • the upper body input area, the finger input area, and the wrist state input area are each assigned to a general-purpose keyboard.
  • a general-purpose keyboard By assigning each area to a general-purpose keyboard in this manner, inexpensive and simple sign language input can be performed without redesigning the physical configuration of the hardware.
  • the upper body input area is arranged on the left side of the keyboard with respect to the sign language input person, the finger input area is arranged on the right side of the keyboard, and the wrist state input area is arranged on the upper part of the keyboard. It is characterized by being.
  • the upper body input area, the finger input area, and the wrist state input area are each displayed on the touch panel screen as a keyboard image on a flat input screen.
  • Claim 5 of the present invention is a retrieval device for retrieving semantic information of sign language from finger movements and non-finger movements, comprising at least a plurality of upper body input areas in which the upper body part of the speaker is disassembled and displayed, and the shape of the fingers.
  • An input means having a finger input area assigned to each one; a wrist state input area that represents a movement in which the wrist of the speaker is vertically upward; a movement in which the speaker is vertically downward; and a movement in the horizontal direction; , After acquiring the finger movement information by the input of the finger input area of the input means, the non-hand movement information that may be combined with the finger movement information, that is, the input from the upper body input area and the wrist state input area Control means for predicting the input of the input and reading a significant word consisting of a combination of finger movement information and non-finger movement information stored in the storage means and displaying the significant word on the display means It is a sign language search apparatus.
  • the control means acquires the finger movement information, reads a significant word consisting of a combination of finger movement information and non-hand movement information stored in the storage means, and displays the significant word on the display means.
  • the search for the significant words is performed by combining the finger movement information and the upper body input information and / or wrist state input information.
  • the sign language keyboard of the present invention it is possible to more easily and accurately search for expressions in sign language and their meaning contents.
  • Explanatory drawing which shows arrangement
  • Explanatory drawing which shows the upper body input area of an Example Explanatory drawing which shows the input procedure of an Example (1)
  • Explanatory drawing which shows the input procedure of an Example (2)
  • Explanatory drawing which shows the input procedure of an Example (3)
  • Explanatory drawing which shows the input procedure of an Example (4)
  • Explanatory drawing which shows the input procedure of an Example (5)
  • Explanatory drawing which shows the search procedure of an Example (2)
  • the sign language keyboard of the present invention is a general-purpose keyboard device having a key top shown in FIG. 1, and an upper body input area, a finger input area, and a wrist state input area are allocated to each key top.
  • the upper body input area (101 to 109) is arranged on the left side when viewed from the input side (front side) of the keyboard, the finger input area (201 to 224) is arranged on the right side, and Wrist state input areas (301 to 305) are arranged.
  • the upper body input area is composed of nine keys indicated by the key tops 101 to 109, where 101 is the upper left head, 102 is the central upper head, 103 is the upper right head, 104 is the left shoulder, and 105 is the lower face. , 106 is the right shoulder, 107 is the left hand, 108 is the abdomen, and 109 is the right hand.
  • the finger input area is composed of 24 keys indicated by the key tops 201 to 224, and each key top is displayed with a finger shape used as sign language assigned thereto.
  • the wrist state input area is composed of five keys indicated by the key tops 301 to 305.
  • the left shift key 401 is a key for selecting the shape of the hand of the left hand. After the left shift key 401 is pressed, the finger input keys 201 to 224 are pressed to realize the left hand finger input. Yes. For the right hand, when the left shift key 401 is not pressed, the finger input mode for the right hand is set. Furthermore, the left finger input mode may be always used by using Caps Lock (a function realized by simultaneously pressing the shift key “Shift” and the control key “Ctrl”).
  • a key (finger bending key 402) on which “L-shaped figure” for bending a finger is displayed on the key top is also prepared.
  • the finger bending key 402 is pressed once, a bending operation is input.
  • an operation of returning the bent finger is input. If the finger is bent 90 degrees or more, it is assumed that the finger is bent. If the finger is bent slightly, it is determined that the finger is not bent on the keyboard.
  • the wrist state input keys 301 and 302 display a small circle and a large circle on the key top, and mean “small” and “large” indicating the size of the sign language.
  • the wrist state input keys 303 to 305 mean the angle of the wrist, and a key 303 with the wrist vertically downward, a key 304 horizontal, and a key 305 vertically upward are arranged.
  • keys other than the keys described above may be assigned functions as abbreviated keys such as conjunctions such as “is” and “but”.
  • the sign language keyboard is connected to a general-purpose personal computer through a wireless interface such as a USB interface, Bluetooth, or infrared communication.
  • the personal computer is connected to a central processing unit (CPU) through a bus (BUS), a main memory (MM), and a hard disk device (HD) as a large-scale storage device.
  • a display device (DISP) as an output device, a printer device (PRN), and the like.
  • an application program (APL) is installed together with an operating system (OS).
  • the application program (APL) is read into the central processing unit (CPU) via the bus (BUS) and the main memory (MM) and sequentially executed.
  • This application program has a function of converting sign language information input with a sign language keyboard into a sentence meaning it, and a sentence registered in a conversion table based on an analysis algorithm module according to the sign language grammar. Information is output to a display device (DISP).
  • the analysis algorithm module may be provided in the sign language keyboard, and the converted sentence information may be input as a text code to the personal computer.
  • the sign language “Thank you for your work” is a sign language in which both hands are made goo and the right hand is moved down from the neck toward the left hand placed in front of the chest.
  • the left shift key 401 for selecting the left hand is pressed, then the key 201 meaning “go” of the finger keys is pressed, and the key 107 at the position of the left hand of the upper body input key is pressed.
  • the key 201 that means “Goo” of the finger key again, and mean the chest position with the upper body input key 105 indicating the neck position pressed
  • the upper body input key 108 is pressed.
  • FIG. 4 shows a procedure for inputting a sign language meaning “together” using a sign language keyboard. “Standing up the index fingers of both hands, spreading them to the left and right of the chest, bringing the fingers close together, and sticking the sides of the fingers” Represents the operation.
  • Fig. 5 shows the procedure for inputting a sign language meaning "small” using the sign language keyboard. Raise the left index finger, raise the right index finger and middle finger, and place them on the left and right index fingers of the left hand. To make a “small” kanji.
  • FIG. 6 shows a procedure for inputting the sign language “search” with the sign language keyboard, and represents an operation of “making a ring with the index finger and the thumb and moving it from left to right at the height of the face”.
  • FIG. 8 shows a procedure for inputting a sign language meaning “camp” using a sign language keyboard.
  • “Camp” requires a complicated movement because it changes the shape of the hand while changing the position of the hand in sign language. Specifically, “Let the back of the left hand up, place the left arm parallel to the body in front of the chest, open the finger of the right hand, place it on the back of the left hand, and raise the hand to the position of the neck. Perform the action.
  • the sign language keyboard device in which the upper body input key and the finger key are assigned to the general-purpose keyboard device has been described.
  • the keyboard is not necessarily provided with a mechanical key pressing mechanism.
  • an image displayed on a touch panel display device may be used.
  • the keyboard shown in FIG. 1 may be printed on the surface of the touchpad which inputs with a touch pen, and it may have the function which can perform the same input as a keyboard in the touch position of a touch pen.
  • an embodiment in which the sign language keyboard of the present embodiment is used as input means of a search device will be described.
  • the keyboard is connected to a personal computer (not shown) via an interface such as a USB.
  • the personal computer is a general-purpose computer, and has a central processing unit and a hard disk device, a display device, and the like connected by a bus with a main memory as a center.
  • the hard disk device stores an operating system, a sign language application program, sign language video data, a word database expressed by a combination of finger and non-hand movements, and the sign language application program is stored via a bus and main memory.
  • the central processing unit sequentially reads and executes the processing, thereby realizing the functions of the present embodiment described below.
  • the keyboard (see FIG. 1) described in the present embodiment is connected to the bus via a USB interface. When performing a sign language search using a keyboard, the central processing unit first reads a sign language application program and waits for an interrupt process from the keyboard.
  • the sign language application program detects an interrupt code of the hand key and uses the hand key Are displayed from the word database and the candidate words are displayed on the display device together with the sign language image (see FIG. 9).
  • the word database displays only a group of frequently used words by a learning function.
  • six words that can be expressed by using the finger movement of the finger key 203 that is, “I”, “sign language”, “tomorrow”, “think”, “listen” and “play” are characters. It is displayed with a sign language image. If a search target word is found at this stage, the search ends.
  • a key indicating a non-finger movement for example, an upper body input key 101 (a key indicating the upper right of the head) is pressed following the input of the finger movement of the finger key 203. .
  • candidate words that are signified by sign language with the index finger positioned at the upper right of the head are narrowed down and displayed on the display device together with the sign language image (FIG. 10). If the refinement search has not yet been completed by the refinement search shown in FIG. 10, words can be refined by further restricting the sign language operation by inputting a non-hand key. For example, as shown in FIG.
  • the index finger of the left hand can be designated and input by pressing the finger key 203 while pressing the shift key 401 following the finger key 203 ⁇ upper body input key 101 (see FIG. 11).
  • the word corresponding to the sign language using the left index finger is narrowed down while the right index finger is placed at the upper right of the head.
  • pressing the upper body input key 103 representing the upper left of the head means a sign language action in which the index finger of the left hand is placed on the upper left of the head. Narrow down to the sign language action that means the word “play” to be placed on (see FIG.
  • the sign language action is narrowed down and the corresponding words are narrowed down each time the key is pressed sequentially, such as the finger key 203 ⁇ the upper body input key 101 ⁇ the shift key 401 + the finger key 203 ⁇ the upper body input key 103.
  • the present invention is not limited to this, and the key as shown in FIG. As long as a keyboard having a layout is provided, it may be realized by an electronic dictionary, a smart phone, or the like.
  • the sign language application program has been described in the case where it is installed in a hard disk device of a personal computer.
  • the present invention is not limited to this, and the program is installed in a server, and input results and search results are obtained via a communication network such as the Internet. You may make it display on a terminal device.
  • the sign language keyboard of the present invention can be used as an input system or search system for meaning contents expressed in sign language, or as an electronic dictionary for sign language.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Computer Hardware Design (AREA)
  • Input From Keyboards Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 手話による表現をより簡易かつ確実に入力できるようにし、その検索も可能にする。汎用のキーボードにおいて、手指の形状をそれぞれのキートップに割り当てた手指入力領域と、手話者の上半身を分割してキートップに割り当てた上半身入力領域とに分けて、それぞれの領域のキー入力の連携で手話の意味する情報をキーボードを通じて入力できるようにした。

Description

手話キーボードおよびそれを用いた手話検索装置
 本発明は手話で表現される視覚的な意思伝達に利用される手話キーボードおよびそれを用いた手話検索装置に関する。
 従来、聴覚障害者(ろう者)のための情報伝達手段として手話が多く用いられている。手話は、手指動作と非手指動作とを同時に使う視覚言語であり、音声言語と並ぶ言語であるが、これらの手話による表現と電子情報をどのように関連付けるかが課題であった。
 たとえば、特開2008-216397号(特許文献1)では、健聴者および聴覚障害者の双方が情報内容を簡単かつ迅速にしかも正確に把握できるようにするために、文章データを形態素解析してキーワードを抽出し、このキーワードから箇条書きテキストデータと断片手話映像データに変換してろう者に視覚的に表示する技術が開示されている。
 また、手話者の上半身を動画として撮影して、これを画像解析して単語や文章に変換するような技術が提案されてくることも当業者であれば容易に創到するであろう。
特開2008-216397号公報
 しかしながら、前述の文献1の技術は、入力され文書データを形態素解析する処理と、その結果をさらにあらかじめ用意された断片手話映像データに変換するといった複数の作業が必要なために、文書データの意味内容が正確に断片手話映像に反映されにくい問題があった。
 さらに、手話者の動作を動画で撮影して、これを画像解析する技術は、手話者も個性によって微妙に手指動作と非手指動作が異なり、かつ両者の連係動作についても個性があるため、画像解析が難しいという問題があった。
 さらに、手話による表現は両手を上半身の大きな動きを必要とするため、手指や腕に障害を負ったり、年齢を重ねたろう者には体力的に難しいという懸念もあった。
 すなわち、少なくとも一方がろう者である場合の、手話をインターフェースとしたコミュニケーションにおいては、情報入力に際してより簡略な入力方式の登場が望まれていた。
 一方、手話は手指動作と非指動作とが連動して意味内容を示すものであるが、これらの両動作から手話の意味内容を推測するのは難しく、あらかじめ手指動作と非指動作に分けたカード等を用意してこれらの意味内容を学習するしか方法がなかった。
 本発明は、斯かる実情に鑑みてなされたものであり、その第1の課題は手話が手指動作と非手指動作から成り立っているという特性に着目して、簡易に入力が可能な入力手段を提供することにある。
 本発明の第2の課題は手指動作と非手指動作とから手話の意味内容を検索可能な検索手段を提供することにある。
 本発明は以下の手段からなる。
 本発明の請求項1は、手指動作と非手指動作とを連動して意味内容を表現する手話情報を入力するための入力装置であって、少なくとも話者の上半身部位を分解表示した複数の上半身入力領域と、手指の形状をその一つずつに割り当てた手指入力領域と、話者の手首を垂直上方にした動作と、垂直下方にした動作と、水平方向にした動作とをそれぞれ表す手首状態入力領域と、前記手指入力領域で入力された手指の形状と、それに引き続いて入力された上半身の部位と、必要に応じて入力された手首の動作とを入力識別手段で識別して動的に変化する手話表現の入力を可能とした入力装置である。
 これによれば、入力装置が上半身入力領域と、手指入力領域と、手首状態入力領域とに分割されているため、手指動作と非手指動作とが連動してスムーズに入力することができ、手話の意味する情報の入力を極めて簡便に行うことが可能となる。
 本発明の請求項2は、前記上半身入力領域と、手指入力領域と、手首状態入力領域はそれぞれ汎用キーボードに割り当てられているキーボードである。このように汎用のキーボードに各領域を割り当てることによって、ハードウエアの物理的構成を改めて設計し直すことなく、安価で簡易な手話入力が可能となる。
 本発明の請求項3は、前記上半身入力領域は手話入力者に対してキーボードの左側に配置され、前記手指入力領域はキーボードの右側に配置され、手首状態入力領域はキーボードの上部に配置されていることを特徴とするものである。
 これによれば、手話入力のために汎用のキーボードを用いる場合に最適な配置を得ることができる。
 本発明の請求項4は、前記上半身入力領域と、手指入力領域と、手首状態入力領域はそれぞれ平面的な入力画面にキーボード画像としてタッチパネル画面に表示されているものである。
 これによれば、物理的な入力装置としてタッチパネル表示画面を有するパーソナルコンピュータやパッド面上に印刷で領域が表示されたタッチパッド等を用いることができ、キーボード装置の物理的な構造にとらわれないで各領域の配置が可能となる。
 本発明の請求項5は、手指動作と非手指動作とから手話の意味情報を検索する検索装置であって、少なくとも話者の上半身部分を分解表示した複数の上半身入力領域と、手指の形状をその一つずつに割り当てた手指入力領域と、話者の手首を垂直上方にした動作と、垂直下方にした動作と、水平方向にした動作とをそれぞれ表す手首状態入力領域とを有する入力手段と、前記入力手段の手指入力領域の入力により手指動作情報を取得した後に、当該手指動作情報と組み合わされる可能性のある非手指動作情報、すなわち前記上半身入力領域からの入力と前記手首状態入力領域からの入力を予測して、記憶手段に記憶されている手指動作情報と非手指動作情報との組み合わせからなる有意単語を読み出して表示手段に表示する制御手段とを有する手話検索装置である。
 これによれば、まず手指動作が当てはめられた手指入力領域を指定するだけで、この手指動作を出発動作として組み合わされる非手指動作が予想され、その組み合わせが意味する有意単語が表示手段に表示されるため、手話検索が可能となる。
 本発明の請求項6は、前記制御手段は、前記手指動作情報を取得して前記記憶手段に記憶されている手指動作情報と非手指動作情報との組み合わせからなる有意単語を読み出して表示手段に表示した後に、さらに上半身入力領域および/または手首状態入力領域からの入力があったときには、前記手指動作情報と当該上半身入力情報および/または手首状態入力情報との組み合わせにより前記有意単語の絞り込み検索を行い、検索結果情報を前記表示手段に表示させる請求項5記載の手話検索装置である。
 これによれば、手指入力領域からの入力に続いて、上半身入力領域と手首状態入力領域の入力によってさらに単語候補を絞り込むことができる。
 本発明の手話キーボードによれば、手話による表現やその意味内容の検索をより簡易かつ的確にすることができる。
本発明の実施例であるキーボードの配置を示す説明図 実施例の上半身入力領域を示す説明図 実施例の入力手順を示す説明図(1) 実施例の入力手順を示す説明図(2) 実施例の入力手順を示す説明図(3) 実施例の入力手順を示す説明図(4) 実施例の入力手順を示す説明図(5) 実施例の入力手順を示す説明図(6) 実施例の検索手順を示す説明図(1) 実施例の検索手順を示す説明図(2) 実施例の検索手順を示す説明図(3)
 以下、本発明の実施の形態を添付図面を参照して説明する。
 本発明の手話キーボードは図1に示すキートップを備えた汎用のキーボード装置であり、その各キートップにそれぞれ上半身入力領域と、手指入力領域と、手首状態入力領域を割り当てて配置している。
 より具体的には、図1においてキーボードの入力者側(手前側)からみて左側に上半身入力領域(101~109)が配置され、右側に手指入力領域(201~224)が配置され、上部に手首状態入力領域(301~305)が配置されている。
 上半身入力領域は、キートップ101~109が示す9個のキーで構成されており、101が左上頭部、102が中央上頭部、103が右上頭部、104が左肩部、105が下顔部、106が右肩部、107が左手部、108が腹部、109が右手部をそれぞれ表示している。
 手指入力領域は、キートップ201~224が示す24個のキーで構成されており、それぞれのキートップには手話として用いられる手指形状がそれぞれ割り当てられて表示されている。
 また、手首状態入力領域は、キートップ301~305が示す5個のキーで構成されている。
 なお、左シフトキー401は、左手の手の形を選択するためのキーで、当該左シフトキー401を押した後に、手指入力キー201~224を押すことで左手の手指入力が実現するようになっている。また、右手に関しては、左シフトキー401を押していない時が右手の手指入力モードとなっている。さらに、Caps Lock(シフトキー「Shift」とコントロールキー「Ctrl」を同時に押すと実現する機能)を用いて常時左手による手指入力モードとしてもよい。
 さらに、指を曲げるという「L字状の図形」をキートップに表示したキー(指曲げキー402)も用意する。基本的に指を曲げるものは少ないので、手指入力キー201~224のいずれかを押した後に、この指曲げキー402を1回押すと、曲がるの動作が入力されることになる。また、この指曲げキー402を再度押すと曲げた指が戻るという動作を入力したことになる。なお、指が90度以上曲がった場合は曲がったとし、若干曲げる程度のものは、キーボード上では、曲がってないと判断する。
 なお、手首状態入力キーの一部301と302は、小さな円形と大きな円形をキートップに表示しており、手話の大きさを表す「小」、「大」を意味する。手首状態入力キー303~305は、手首の角度を意味しており、手首を垂直下に向けたキー303、水平にしたキー304、垂直上に向けたキー305が配置されている。
 なお、キートップへの表示は省略したが、以上に説明したキー以外のキーは「です」や「しかし」などの、接続詞などの短縮キーとしての機能を割り当ててもよい。
 手話キーボードは、汎用のパーソナルコンピュータにUSBインターフェース、ルートゥース、赤外線通信等の無線インターフェースで接続されている。当該パーソナルコンピュータには、図示は省略するが、中央処理装置(CPU)を中心に、バス(BUS)を介して接続された、メインメモリ(MM)、大規模記憶装置としてのハードディスク装置(HD)、出力装置としてのディスプレイ装置(DISP)、プリンタ装置(PRN)等を有している。
 前記ハードディスク装置(HD)内にはオペレーティングシステム(OS)とともに、アプリケーションプログラム(APL)がインストールされている。当該アプリケーションプログラム(APL)はバス(BUS)およびメインメモリ(MM)を介して中央処理装置(CPU)に読み込まれて順次実行処理される。
 このアプリケーションプログラム(APL)は、手話キーボードで入力された手話情報をそれを意味する文章に変換する機能を有しており、手話文法に従った解析アルゴリズムモジュールに基づいて変換テーブルに登録された文章情報をディスプレイ装置(DISP)に出力するようになっている。なおこの解析アルゴリズムモジュールは手話キーボード内に設けておき、パーソナルコンピュータには変換後の文章情報をテキストコードとして入力するようにしてもよい。
 以下は、当該手話キーボードが機能として備える解析アルゴリズムによる解析手順を手話キーボードの入力手順にしたがって説明する。
 表現したい言葉が二つの動作から成り立っている手話の場合(例:なぜ?=理由→何?)、最初の手の形(手指キー201~224で特定)および位置(上半身入力キー101~109で特定)を押した後に、特に何もせずに、各キーから指を話し、次の手話の手の形(手指キー201~224で特定)・位置(上半身入力キー101~109で特定)を特定した後、エンターキーで確定する。
 一方、連続した動作の手話の場合、たとえば「よろしく=良い+お願い」等の場合、最初の手の形(手指キー201~224で特定)・位置(上半身入力キー101~109で特定)を押した後に、これらのキーから指を離さずに押しながら、次の手の形、位置を選択する。
 以下にさらに詳細な文章を手話キーボードで入力する場合について説明する。
 たとえば、「お疲れ様」という手話は、両手をグーにし、右手を首のあたりから、胸の前に置いた左手に向かって下ろす動作を行う手話である。これを本実施例の手話キーボードで入力する場合、まず左手を選択する左シフトキー401を押し、次に手指キーの「グー」を意味するキー201を押し、上半身入力キーの左手の位置のキー107を押した後にこれらのキーの押し下げ状態を離し、次に再度手指キーの「グー」を意味するキー201を押し、首の位置を示す上半身入力キー105を押した状態のまま胸の位置を意味する上半身入力キー108を押す。これらの動作によって、「左手を胸の前にグーの形で置き、右手をグーにし、首から胸にかけて移動させた手話」ということになる。以上の手順をキートップを押す手順で示したのが図3である。
 図4は、「一緒」を意味する手話を手話キーボードで入力する手順を示したものであり、「両手の人差指を立て、胸の左右に広げ、指を近づけていき、指の脇をくっつける」という動作を表している。
 すなわち、「左シフトキー401→手指キー224→上半身入力キー109を押したままキー108を押して一旦キーを離す。次に、手指キー224→上半身入力キー108を押したままキー107を押した後各キーを離す」という動作を表している。
 図5は、「小さい」を意味する手話を手話キーボードで入力する手順を示したものであり、左手の人差指を立て、右手の人差指と中指を立て、それで左の手の人差指の左右に置くことによって漢字の「小」を作る。
 これを実施例の手話キーボードで入力する場合、「左シフトキー401→手指キー224→上半身入力キー105」の順序で押した後、各キーを開放し、次に、「手指キー210→上半身入力キー105」を押す。
 図6は、「探す」という手話を手話キーボードで入力する手順を示したものであり、「人差指と親指で輪を作って、顔の高さで左から右へ動かす」という動作を表している。
 具体的には、「手指キー214→上半身入力キー103を押した状態のまま、キー102およびキー101を順次押す」ことで入力可能である。
 また、「小」(小キー301)と「大」(大キー302)を使う場合の手話について説明すると、「さっき」、「以前」、「ずっと前」の手話は掌を少し丸め、後ろに向けて後ろに引く動作が共通である。しかし、その動作を小さく行えば、「さっき」、大きく行えば「ずっと前」、普通におこうと「以前」となる。つまり、掌をすぼめた形は手指キー217であるので、「手指キー217→上半身入力キー101」(図7)の入力で「以前」に変換され、「手指キー217→上半身入力キー101→小キー301」が「さっき」(または「先ほど))に変換され、「手指キー217→上半身入力キー101→大キー302」が「ずっと前」に変換されてパーソナルコンピュータに入力されることになる。
 図8は、「キャンプ」を意味する手話を手話キーボードで入力する手順を示したものである。「キャンプ」は手話では手の位置を変えながら、手の形も変えるため、複雑な動きを必要とする。具体的には、「左手の甲を上に向け、胸の前で体と平行に左腕を置き、右手の指を開いて、左手の甲の上に置き、手をすぼめながら首の位置まで上げる」という動作を行う。
 手話キーボードでは、「左シフトキー401→手指キー217→上半身入力キー108」と押した後に各キーを離し、次いで「手指キー219を押しながらキー223を押す」。さらに「上半身入力キー108を押しながらキー105を押す」というキー入力によって「キャンプ」という単語に変換されてパーソナルコンピュータに入力されることになる。
 なお、以上に説明したキーの配置や操作手順はあくまでも一例であり本実施例に限定されるものではない。要するに、上半身の部位を示すキーが分割表示されて、かつ各指の形がそれぞれのキーに割り当てられていればよい。
 さらに、以上の実施例の説明では、汎用のキーボード装置に上半身入力キーや手指キーを割り当てて配置した手話キーボード装置で説明したが、キーボードは必ずしも機械的なキーの押し下げ機構を備えたものである必要はなく、たとえばタッチパネルディスプレイ装置に画像表示されたものであってもよい。また、タッチペンで入力するタッチパッドの表面に図1に示したキーボードが印刷され、タッチペンのタッチ位置でキーボードと同じ入力が可能な機能を有するものであってもよい。
 次に、本実施形態の手話キーボードを検索装置の入力手段として用いた場合の実施形態について説明する。
 当該キーボードは、図示しないパーソナルコンピュータにUSB等のインターフェースを介して接続されている。
 パーソナルコンピュータは汎用のコンピュータであり、中央処理装置およびメインメモリを中心にバスで接続されたハードディスク装置、ディスプレイ装置等を有している。
 ハードディスク装置内には、オペレーティングシステムとともに、手話アプリケーションプログラム、手話動画データ、手指動作と非手指動作の組み合わせにより表現される単語データベース等が格納されており、この手話アプリケーションプログラムをバスおよびメインメモリを介して中央処理装置が順次読み込んで実行処理することによって、以下に説明する本実施形態の機能が実現される。
 本実施形態で説明したキーボード(図1参照)は、USBインターフェースを介して前記バスに接続されている。
 キーボードを用いた手話検索を行う場合、まず中央処理装置は手話アプリケーションプログラムを読み込んでキーボードからの割り込み処理を待つ。
 まず、キーボードの手指入力キー、ここでは人差し指を上方にした状態のキー、すなわち手指キー203が押されると、手話アプリケーションプログラムは、当該手指キーの割り込みコードを検出して、この手指キーを用いる単語を単語データベースから読み出してその候補単語を手話画像とともにディスプレイ装置に表示する(図9参照)。このとき、単語データベースは学習機能により、使用頻度の高い単語のグループのみを表示する。図9では、前記手指キー203の手指動作を使うことによって表現可能な6個の単語、すなわち「私」、「手話」、「明日」、「考える」、「聴く」および「遊ぶ」が文字と手話画像とで表示されている。
 この段階で検索目的の単語が見つかった場合には検索は終了する。
 当該検索結果が大量に索出された場合には、前記手指キー203の手指動作の入力に続いて、非手指動作を意味するキー、たとえば上半身入力キー101(頭の右上を示すキー)を押す。これによって、人差し指を頭の右上に位置させた状態の手話が意味する候補単語に絞り込まれてこれらの絞り込み候補単語が手話画像とともにディスプレイ装置に表示される(図10)。
 上記図10に示した絞り込み検索でもまだ絞り込みが完了しない場合には、さらに非手指キーの入力によって、手話の動作を限定することで単語を絞り込むことができる。たとえば図11に示すように、手指キー203→上半身入力キー101に続いて、シフトキー401を押しながら手指キー203を押すことによって、左手の人差し指を指定入力することができる(図11参照)。この段階で、右手の人差し指を頭の右上に配置させながら左手の人差し指を使う手話に該当する単語に絞り込みが行われる。この結果同図に示すように、「聴」と「遊ぶ」の単語に絞り込まれることになる。
 最後に、頭の左上を表す上半身入力キー103を押すことによって、左手の人差し指を頭の左上に配置させる手話動作を意味することになり、これによって最終的に両手の人差し指を頭のそれぞれの上方に配置させる「遊ぶ」という単語を意味する手話動作に絞り込まれる(図11参照)
 このように、手指キー203→上半身入力キー101→シフトキー401+手指キー203→上半身入力キー103と順次キーが押されていく段階毎に手話動作が絞り込まれそれに該当する単語も絞り込みが行われていく。
 以上の実施形態では、独立したキーボードがUSB規格等のインターフェースで手話アプリケーションプログラムをインストールしたパーソナルコンピュータに接続した場合で説明したが、これに限定されるものではなく、図1に示したようなキー配置を有するキーボードを備えたものであれば、電子辞書、スマートホン等で実現してもよい。
 さらに、手話アプリケーションプログラムは、パーソナルコンピュータのハードディスク装置にインストールした場合で説明したが、これに限らず、当該プログラムはサーバにインストールされており、インターネット等の通信網を介して入力結果や検索結果を端末装置に表示させるようにしてもよい。
 本発明の手話キーボードは、手話により表現される意味内容の入力システムまたは検索システム、手話の電子辞書として利用することができる。
101~106 上半身入力領域(上半身入力キー)
210~224 手指入力領域(手指入力キー)
301~305 手首状態入力領域(手首状態入力キー)
401 左シフトキー
402 指曲げキー

Claims (6)

  1.  手指動作と非手指動作とを連動して意味内容を表現する手話情報を入力するための入力装置であって、
     少なくとも話者の上半身部位を分解表示した複数の上半身入力領域と、
     手指の形状をその一つずつに割り当てた手指入力領域と、
     話者の手首を垂直上方にした動作と、垂直下方にした動作と、水平方向にした動作とをそれぞれ表す手首状態入力領域と、
     前記手指入力領域で入力された手指の形状と、それに引き続いて入力された上半身の部位と、必要に応じて入力された手首の動作とを入力識別手段で識別して動的に変化する手話表現の入力を可能とした入力装置。
  2.  前記上半身入力領域と、手指入力領域と、手首状態入力領域はそれぞれ汎用キーボードに割り当てられているキーボードであることを特徴とする請求項1記載の入力装置。
  3.  前記上半身入力領域は手話入力者に対してキーボードの左側に配置され、前記手指入力領域はキーボードの右側に配置され、手首状態入力領域はキーボードの上部に配置されていることを特徴とする請求項2記載の入力装置。
  4.  前記上半身入力領域と、手指入力領域と、手首状態入力領域はそれぞれ平面的な入力画面にキーボード画像としてタッチパネル画面に表示されている請求項1記載の入力装置。
  5.  手指動作と非手指動作とから手話の意味情報を検索する検索装置であって、
     少なくとも話者の上半身部分を分解表示した複数の上半身入力領域と、
     手指の形状をその一つずつに割り当てた手指入力領域と、
     話者の手首を垂直上方にした動作と、垂直下方にした動作と、水平方向にした動作とをそれぞれ表す手首状態入力領域とを有する入力手段と、
     前記入力手段の手指入力領域の入力により手指動作情報を取得した後に、当該手指動作情報と組み合わされる可能性のある非手指動作情報、すなわち前記上半身入力領域からの入力と前記手首状態入力領域からの入力を予測して、記憶手段に記憶されている手指動作情報と非手指動作情報との組み合わせからなる有意単語を読み出して表示手段に表示する制御手段と
    を有する手話検索装置。
  6.  前記制御手段は、前記手指動作情報を取得して前記記憶手段に記憶されている手指動作情報と非手指動作情報との組み合わせからなる有意単語を読み出して表示手段に表示した後に、
     さらに上半身入力領域および/または手首状態入力領域からの入力があったときには、前記手指動作情報と当該上半身入力情報および/または手首状態入力情報との組み合わせにより前記有意単語の絞り込み検索を行い、検索結果情報を前記表示手段に表示させる請求項5記載の手話検索装置。
PCT/JP2010/050897 2009-01-27 2010-01-25 手話キーボードおよびそれを用いた手話検索装置 WO2010087301A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2010548492A JP5628691B2 (ja) 2009-01-27 2010-01-25 手話キーボードおよびそれを用いた手話検索装置
KR1020117019697A KR101298926B1 (ko) 2009-01-27 2010-01-25 수화 키보드 및 이를 이용한 수화 검색 장치
US13/146,533 US8711100B2 (en) 2009-01-27 2010-01-25 Sign language keyboard and sign language searching apparatus using the same
EP20100735769 EP2392989A4 (en) 2009-01-27 2010-01-25 SIGN LANGUAGE KEYBOARD AND SIGN LANGUAGE SEARCHING DEVICE USING THE SAME

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009035850 2009-01-27
JP2009-035850 2009-01-27

Publications (1)

Publication Number Publication Date
WO2010087301A1 true WO2010087301A1 (ja) 2010-08-05

Family

ID=42395562

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/050897 WO2010087301A1 (ja) 2009-01-27 2010-01-25 手話キーボードおよびそれを用いた手話検索装置

Country Status (5)

Country Link
US (1) US8711100B2 (ja)
EP (1) EP2392989A4 (ja)
JP (1) JP5628691B2 (ja)
KR (1) KR101298926B1 (ja)
WO (1) WO2010087301A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102088909B1 (ko) * 2013-03-15 2020-04-14 엘지전자 주식회사 이동 단말기 및 그의 변형 키패드 운용방법
US9495351B1 (en) * 2013-10-20 2016-11-15 Mary Shawver Writing a visual language
TWI501205B (zh) * 2014-07-04 2015-09-21 Sabuz Tech Co Ltd 手語圖像輸入方法及裝置
US11836299B1 (en) * 2022-10-04 2023-12-05 Lenovo (Singapore) Pte. Ltd. Virtual sign language system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000089660A (ja) * 1998-09-09 2000-03-31 Matsushita Electric Ind Co Ltd 手話学習支援装置および手話学習支援プログラムを記録した記録媒体
JP2003044203A (ja) * 2001-08-02 2003-02-14 Canon I-Tech Inc 情報処理装置
JP2005099977A (ja) * 2003-09-24 2005-04-14 Hitachi Ltd 手話編集方法および装置
JP2008216397A (ja) 2007-02-28 2008-09-18 Nippon Telegr & Teleph Corp <Ntt> 情報を提示する装置と方法及びその提示情報を作成する装置と方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5659764A (en) * 1993-02-25 1997-08-19 Hitachi, Ltd. Sign language generation apparatus and sign language translation apparatus
JPH08315185A (ja) * 1995-05-18 1996-11-29 Hitachi Ltd 手話編集装置
JPH1139300A (ja) * 1997-07-24 1999-02-12 Toshiba Corp 文字列予測装置、文字列予測方法及び文字列予測プログラムを記録した記録媒体
US6116907A (en) * 1998-01-13 2000-09-12 Sorenson Vision, Inc. System and method for encoding and retrieving visual signals
JP2008134919A (ja) * 2006-11-29 2008-06-12 Alpine Electronics Inc 文字入力装置
US8862988B2 (en) * 2006-12-18 2014-10-14 Semantic Compaction Systems, Inc. Pictorial keyboard with polysemous keys for Chinese character output
CN101663880A (zh) * 2007-04-27 2010-03-03 吴谊镇 用于输入中文字符的方法和设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000089660A (ja) * 1998-09-09 2000-03-31 Matsushita Electric Ind Co Ltd 手話学習支援装置および手話学習支援プログラムを記録した記録媒体
JP2003044203A (ja) * 2001-08-02 2003-02-14 Canon I-Tech Inc 情報処理装置
JP2005099977A (ja) * 2003-09-24 2005-04-14 Hitachi Ltd 手話編集方法および装置
JP2008216397A (ja) 2007-02-28 2008-09-18 Nippon Telegr & Teleph Corp <Ntt> 情報を提示する装置と方法及びその提示情報を作成する装置と方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2392989A4

Also Published As

Publication number Publication date
EP2392989A1 (en) 2011-12-07
EP2392989A4 (en) 2014-01-08
JPWO2010087301A1 (ja) 2012-08-02
JP5628691B2 (ja) 2014-11-19
KR20110111504A (ko) 2011-10-11
US8711100B2 (en) 2014-04-29
KR101298926B1 (ko) 2013-08-22
US20110285635A1 (en) 2011-11-24

Similar Documents

Publication Publication Date Title
US7088861B2 (en) System and method for chinese input using a joystick
US20110201387A1 (en) Real-time typing assistance
US8199112B2 (en) Character input device
KR20180102148A (ko) 그래픽 키보드 내에서의 도형 심볼 검색
US20080180283A1 (en) System and method of cross media input for chinese character input in electronic equipment
KR20080106265A (ko) 컴퓨팅 시스템에 데이터를 입력하는 시스템 및 방법
JPWO2005101235A1 (ja) 対話支援装置
JP2005508031A (ja) 部首に基づいた、適合化可能な画の書き順システム
JP2008546045A (ja) 情報通信端末機の漢字入力方法及び入力装置
KR20100003831A (ko) 중국어 입력 장치 및 그 입력 방법
JP5628691B2 (ja) 手話キーボードおよびそれを用いた手話検索装置
JP2010517159A (ja) 電気電子機器のボタン効率増大方法
JP2011076384A (ja) 情報出力装置及び情報出力プログラム
JP2012098891A (ja) 情報処理システムおよび情報処理方法
US20040186729A1 (en) Apparatus for and method of inputting Korean vowels
JP2012118643A (ja) 点字式墨字入力方法、点字式墨字入力プログラム及び点字式墨字入力装置
JP5008248B2 (ja) 表示処理装置、表示処理方法、表示処理プログラム、および記録媒体
KR101018821B1 (ko) 중국어 문자 생성 방법 및 이에 사용되는 키입력 장치
Jüngling et al. Innovation potential for human computer interaction domains in the digital enterprise
Rakhmetulla et al. Using Action-Level Metrics to Report the Performance of Multi-Step Keyboards
JP7109498B2 (ja) 音声入力装置
US20080294652A1 (en) Personalized Identification Of System Resources
Marques BRAILLESHAPES: efficient text input on smartwatches for blind people
Dey et al. Voice key board: multimodal indic text input
Fareed et al. Translation Tool for Alternative Communicators using Natural Language Processing

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10735769

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010548492

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 13146533

Country of ref document: US

Ref document number: 2010735769

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 20117019697

Country of ref document: KR

Kind code of ref document: A