JP2006139138A - Information terminal and base station - Google Patents

Information terminal and base station Download PDF

Info

Publication number
JP2006139138A
JP2006139138A JP2004329570A JP2004329570A JP2006139138A JP 2006139138 A JP2006139138 A JP 2006139138A JP 2004329570 A JP2004329570 A JP 2004329570A JP 2004329570 A JP2004329570 A JP 2004329570A JP 2006139138 A JP2006139138 A JP 2006139138A
Authority
JP
Japan
Prior art keywords
sign language
image
speech
information
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004329570A
Other languages
Japanese (ja)
Inventor
Natsuki Kurokawa
夏樹 黒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2004329570A priority Critical patent/JP2006139138A/en
Publication of JP2006139138A publication Critical patent/JP2006139138A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To realize a conversation in real time between a person with hearing difficulties and a hearing able-bodied person. <P>SOLUTION: The information terminal is equipped with a speech recognition section 22 which recognizes speech, a sign language image conversion section 23 which converts the recognized speech to a sign language image by referencing the correspondence table of the speech signal and the sign language image, an image display element 24 which displays the converted sign language image, an image photographing section 25 which photographs the image, a sign language recognition section 26 which recognizes the sign language information from the photographed image, a sign language-speech conversion section 27 which converts the recognized sign language information to speech by referencing the correspondence table of the sign language information and the speech information, and a communication controller 21 which communicatably outputs the converted speech. <P>COPYRIGHT: (C)2006,JPO&amp;NCIPI

Description

本発明は移動体通信端末等の情報端末および基地局に関する。   The present invention relates to an information terminal such as a mobile communication terminal and a base station.

聴覚障害者の場合には通常の会話を行うことが困難であるため、聴覚が不要な手話を用いて会話を行う場合が多い。しかし、手話をマスターしている聴覚障害者は多いが、聴覚健常者の中で手話をマスターしている人は少ないため、手話をマスターした特別な聴覚健常者でない限り、聴覚障害者との間で手話を用いて会話するのは困難である。そこで、例えば特許文献1に開示された技術では、テレビカメラなどを用いて手話の手の動きを検出し、手話の内容を認識し、手話の内容を文字としてコンピュータの画面に表示することを提案している。
特許第3289304号公報
In the case of a hearing-impaired person, it is difficult to conduct a normal conversation, and therefore, the conversation is often performed using sign language that does not require hearing. However, there are many hearing-impaired people who have mastered sign language, but there are few people with normal hearing who have mastered sign language, so unless you are a special hearing person who has mastered sign language, It is difficult to talk using sign language. Therefore, for example, the technique disclosed in Patent Document 1 proposes to detect the movement of sign language using a TV camera, recognize the sign language content, and display the sign language content as characters on the computer screen. is doing.
Japanese Patent No. 3289304

しかしながら、例えば携帯電話のような通信手段を利用して聴覚障害者が会話を行おうとする場合には、望ましい通信手段が存在しないのが実情である。例えば、テレビ電話の通信が可能な携帯電話などの端末同士の間で通信する場合には、手話の画像を転送することができるが、この場合にも聴覚障害者の通信相手となる聴覚健常者が手話をマスターしていない限り会話はできない。また、特許文献1の技術を利用すれば手話を文字情報として表示できるが、一方向の情報伝達だけしかできないので、聴覚健常者から聴覚障害者側に適当な情報を伝えることができない。例えば、聴覚健常者から聴覚障害者側に文字として情報を伝えることができる場合であっても、一方の通信は手話でもう一方の通信は筆談のような形式になるため不自然であり、自然に近い会話は不可能である。   However, when a hearing-impaired person wants to talk using a communication means such as a cellular phone, for example, there is actually no desirable communication means. For example, when communicating between terminals such as mobile phones capable of videophone communication, a sign language image can be transferred. In this case as well, a normal hearing person who is a communication partner of a hearing impaired person You can't talk unless you master sign language. Moreover, although the sign language can be displayed as character information by using the technique of Patent Document 1, since only one-way information transmission can be performed, appropriate information cannot be transmitted from the normal hearing person to the hearing impaired person. For example, even if information can be transmitted as text from a normal hearing person to the hearing impaired person, one communication is in sign language and the other communication is in a form of writing, which is unnatural. Conversation close to is impossible.

本発明の目的は、聴覚障害者と聴覚健常者との間でリアルタイムの会話を実現することにある。   An object of the present invention is to realize a real-time conversation between a hearing impaired person and a healthy hearing person.

本発明の情報端末は、音声を認識する手段と、音声信号と手話画像との対応表を参照して、認識した音声を手話画像に変換する手段と、変換した手話画像を表示する手段とを備える。また、画像を撮影する手段と、撮影した画像から手話情報を認識する手段と、手話情報と音声信号との対応表を参照して、認識した手話情報を音声に変換する手段と、変換した音声を出力する手段とを備える。この構成によれば、音声信号と手話画像との対応表を参照して、音声と手話画像との変換が可能になるため、聴覚障害者と聴覚健常者との間でリアルタイムの会話を実現することができる。   The information terminal according to the present invention includes means for recognizing sound, means for converting the recognized sound into a sign language image with reference to a correspondence table between the sound signal and the sign language image, and means for displaying the converted sign language image. Prepare. Further, means for capturing an image, means for recognizing sign language information from the captured image, means for converting the recognized sign language information into speech with reference to a correspondence table between the sign language information and the sound signal, and converted speech Is provided. According to this configuration, since it is possible to convert between voice and sign language images with reference to the correspondence table between voice signals and sign language images, real-time conversation between a hearing impaired person and a normal hearing person is realized. be able to.

本発明の基地局は、通信端末を移動体通信網にアクセスさせるための基地局であって、通信端末から送信される音声を認識する手段と、音声信号と手話画像との対応表を参照して、認識した音声を手話画像に変換する手段と、変換した手話画像を通信可能に出力する手段と、通信端末から送信される画像から手話画像を認識する手段と、手話情報と音声信号との対応表を参照して、認識した手話情報を音声に変換する手段と、変換した音声を通信可能に出力する手段とを備える。この構成によれば、基地局が音声と手話画像との変換機能を備えるため、通信端末を用いて聴覚障害者と聴覚健常者との間でリアルタイムの会話を実現することができる。   The base station of the present invention is a base station for allowing a communication terminal to access a mobile communication network, and refers to a correspondence table between a means for recognizing voice transmitted from the communication terminal and a voice signal and a sign language image. A means for converting the recognized speech into a sign language image, a means for outputting the converted sign language image in a communicable manner, a means for recognizing a sign language image from an image transmitted from the communication terminal, and sign language information and an audio signal. Referring to the correspondence table, a means for converting the recognized sign language information into speech and a means for outputting the converted speech in a communicable manner are provided. According to this configuration, since the base station has a function of converting voice and sign language images, real-time conversation can be realized between the hearing impaired person and the healthy hearing person using the communication terminal.

本発明によれば、音声と手話画像との変換が可能になるため、聴覚障害者と聴覚健常者との間でリアルタイムの会話を実現することができる。   According to the present invention, since conversion between voice and a sign language image becomes possible, real-time conversation can be realized between a hearing impaired person and a normal hearing person.

(第1の実施の形態)
図1は本発明の情報端末が使用されるシステムの構成を示すブロック図であり、図2に示すような通信システムを用いて聴覚健常者40と聴覚障害者50との間で通信を行う場合を想定している。すなわち、聴覚健常者40は携帯通信端末10を使用し、聴覚障害者50は携帯通信端末20を使用し、移動体通信網30を経由して携帯通信端末10と携帯通信端末20との間で通信を行う。図2に示す例では、携帯通信端末10はその近くに存在する無線基地局31との間に無線回線を形成し、携帯通信端末20はその近くに存在する無線基地局32との間に無線回線を形成する。無線基地局31及び無線基地局32は所定の通信網33を介して互いに接続されている。また、この例では聴覚障害者50は手話を用いて会話することを想定しており、一方、聴覚健常者40としては手話をマスターしていない普通の人を想定している。
(First embodiment)
FIG. 1 is a block diagram showing the configuration of a system in which the information terminal of the present invention is used. When communication is performed between a healthy hearing person 40 and a hearing impaired person 50 using a communication system as shown in FIG. Is assumed. That is, the healthy hearing person 40 uses the mobile communication terminal 10, and the hearing impaired person 50 uses the mobile communication terminal 20, between the mobile communication terminal 10 and the mobile communication terminal 20 via the mobile communication network 30. Communicate. In the example shown in FIG. 2, the mobile communication terminal 10 forms a radio line with the radio base station 31 that exists nearby, and the mobile communication terminal 20 communicates with the radio base station 32 that exists nearby. Form a line. The radio base station 31 and the radio base station 32 are connected to each other via a predetermined communication network 33. In this example, it is assumed that the hearing-impaired person 50 has a conversation using sign language, while the normal hearing person 40 is assumed to be a normal person who does not master sign language.

図1に示すように、聴覚健常者40が用いる携帯通信端末10としては一般的な携帯電話と同様に、音声入力部11,音声出力部12,画像表示部13及び通信制御部14を備えている。なお、図1においては携帯通信端末10,20の構成として最小限の主要な要素だけを示してあるが、実際には一般的な携帯電話と同様に図示しない様々な構成要素が搭載される。   As shown in FIG. 1, the mobile communication terminal 10 used by the healthy hearing person 40 includes a voice input unit 11, a voice output unit 12, an image display unit 13, and a communication control unit 14, as in a general mobile phone. Yes. In FIG. 1, only the minimum main elements are shown as the configuration of the mobile communication terminals 10 and 20, but actually various components not shown are mounted as in the case of a general mobile phone.

音声入力部11としてはマイクなどが用いられる。音声入力部11は聴覚健常者40の話す音声を検出して音声の電気信号として出力する。音声入力部11が出力する音声の電気信号は通信制御部14を介して送信され、移動体通信網30を経由して携帯通信端末20に送られる。携帯通信端末20から送信される音声の電気信号は、移動体通信網30を経由して携帯通信端末10の通信制御部14で受信され、音声出力部12から音声として出力される。音声出力部12としてはスピーカなどが用いられる。また、端末同士の間で画像や文字情報を伝送することもできる。携帯通信端末10は受信した画像や文字情報を画像表示部13に表示する。画像表示部13としては画像や文字の表示が可能な液晶表示器などが用いられる。従って、一般的な構成の携帯電話を携帯通信端末10として使用することも可能である。   A microphone or the like is used as the voice input unit 11. The voice input unit 11 detects the voice spoken by the healthy hearing person 40 and outputs the voice as an electrical signal. The audio electrical signal output from the audio input unit 11 is transmitted via the communication control unit 14 and is transmitted to the mobile communication terminal 20 via the mobile communication network 30. The audio electrical signal transmitted from the mobile communication terminal 20 is received by the communication control unit 14 of the mobile communication terminal 10 via the mobile communication network 30 and output from the audio output unit 12 as audio. A speaker or the like is used as the audio output unit 12. Also, images and text information can be transmitted between terminals. The mobile communication terminal 10 displays the received image and character information on the image display unit 13. As the image display unit 13, a liquid crystal display capable of displaying images and characters is used. Accordingly, a mobile phone having a general configuration can be used as the mobile communication terminal 10.

一方、聴覚障害者50が使用する携帯通信端末20には、通信制御部21,音声認識部22,手話画像変換部23,画像表示部24,画像撮影部25,手話認識部26,手話音声変換部27及び手話通信用辞書28が備わっている。聴覚健常者40の使用する携帯通信端末10から送信される音声の信号は、移動体通信網30を経由して通信制御部21で受信され、音声認識部22に入力される。音声認識部22は、公知の音声認識技術を採用しており、入力された音声の内容を認識し、認識結果を文字列情報として出力する。なお、音声認識の際には手話通信用辞書28に保持されている認識用の辞書を参照する。音声認識部22が出力する認識結果は手話画像変換部23に入力される。   On the other hand, the mobile communication terminal 20 used by the hearing impaired person 50 includes a communication control unit 21, a voice recognition unit 22, a sign language image conversion unit 23, an image display unit 24, an image photographing unit 25, a sign language recognition unit 26, and a sign language voice conversion. A unit 27 and a sign language communication dictionary 28 are provided. A voice signal transmitted from the mobile communication terminal 10 used by the healthy hearing person 40 is received by the communication control unit 21 via the mobile communication network 30 and input to the voice recognition unit 22. The voice recognition unit 22 employs a known voice recognition technique, recognizes the content of the input voice, and outputs the recognition result as character string information. In the case of voice recognition, the recognition dictionary held in the sign language communication dictionary 28 is referred to. The recognition result output by the voice recognition unit 22 is input to the sign language image conversion unit 23.

手話画像変換部23は、受信した音声を表す文字列情報に対応する手話画像を生成する。すなわち、人間が言葉を手話で表現する場合とよく似た像を表す画像の情報を生成する。具体的には、人間の体や顔の像を背景として両腕,両手及び全ての指に相当する像あるいは図形を重ねると共に、各部の位置関係,向き,曲がり具合などが標準的な手話の表現に近づくような動画を順次に生成し、入力された音声に従って画像の内容を変更する。手話画像変換部23が手話画像を生成する際には、予め定められた規則などの辞書情報を手話通信用辞書28から取得して、音声認識部22から入力された文字列情報の内容と照合しながら順次に画像に変換する。   The sign language image conversion unit 23 generates a sign language image corresponding to character string information representing the received voice. That is, image information representing an image that is similar to the case where a human expresses a word in sign language is generated. Specifically, the images or figures corresponding to both arms, hands, and all fingers are layered against the background of the human body and face, and the standard sign language expression includes the positional relationship, orientation, and bending of each part. A moving image that approaches is sequentially generated, and the content of the image is changed according to the input voice. When the sign language image conversion unit 23 generates a sign language image, dictionary information such as predetermined rules is acquired from the sign language communication dictionary 28 and collated with the contents of the character string information input from the speech recognition unit 22. The images are converted to images sequentially.

画像表示部24は、手話画像変換部23が生成した画像の情報を動画として画面上に表示する。この動画の内容は、携帯通信端末10から送信された聴覚健常者40の話す音声に相当するので、携帯通信端末20を使用する聴覚障害者50は、画像表示部24の画面を参照することにより、聴覚健常者40の話す言葉を手話として画像から認識することができる。
画像撮影部25は、携帯通信端末20に内蔵されたテレビカメラであり、通話をする際には連続的に撮影を行う。手話通信を行う場合には、画像撮影部25の撮影方向を使用者である聴覚障害者50自身に向けて、聴覚障害者50の両腕,両手,全ての指を含む上半身のほぼ全域が写るように視野を調節しておく。
The image display unit 24 displays the image information generated by the sign language image conversion unit 23 on the screen as a moving image. Since the content of this moving image corresponds to the voice spoken by the healthy hearing person 40 transmitted from the mobile communication terminal 10, the hearing impaired person 50 using the mobile communication terminal 20 refers to the screen of the image display unit 24. The words spoken by the healthy hearing person 40 can be recognized from the image as sign language.
The image photographing unit 25 is a television camera built in the mobile communication terminal 20 and continuously performs photographing when making a call. When sign language communication is performed, the imaging direction of the image capturing unit 25 is directed toward the hearing impaired person 50 who is the user, and almost the entire upper body including both arms, both hands, and all fingers of the hearing impaired person 50 is captured. Adjust the field of view so that.

手話認識部26は、画像撮影部25から連続的に出力される画像、すなわち手話を撮影した動画の情報を順次に画像処理することにより、手話で表現された言葉の内容を認識する。手話認識部26が手話を認識する際には、手話通信用辞書28に保持されている辞書情報を参照して処理を行う。なお、手話認識部26における処理に関しては、例えば引用文献1に開示されている技術を採用すればよい。手話認識部26の認識結果である手話の内容は、その言葉を表す文字列情報として手話音声変換部27に入力される。手話音声変換部27は、公知の音声合成技術を用いて、入力された文字列情報に対応する音声信号を生成する。手話音声変換部27が生成した音声信号は、通信制御部21を介して送信され、移動体通信網30を経由して携帯通信端末10に届く。   The sign language recognition unit 26 recognizes the content of words expressed in sign language by sequentially performing image processing on images continuously output from the image capturing unit 25, that is, information on moving images in which sign language is captured. When the sign language recognition unit 26 recognizes the sign language, the sign language communication unit 28 performs processing with reference to the dictionary information held in the sign language communication dictionary 28. For the processing in the sign language recognition unit 26, for example, the technique disclosed in the cited document 1 may be employed. The sign language content, which is the recognition result of the sign language recognition unit 26, is input to the sign language voice conversion unit 27 as character string information representing the word. The sign language speech conversion unit 27 generates a speech signal corresponding to the input character string information using a known speech synthesis technique. The voice signal generated by the sign language voice conversion unit 27 is transmitted via the communication control unit 21 and reaches the mobile communication terminal 10 via the mobile communication network 30.

従って、携帯通信端末20の利用者である聴覚障害者50が画像撮影部25に向かって手話で言葉を表現すると、その手話の内容に相当する音声が自動的に生成され、音声信号として携帯通信端末10に送信される。つまり、携帯通信端末10の使用者である聴覚健常者40は、聴覚障害者50の表現した手話の内容を直接音声として音声出力部12から聞くことができるので、聴覚健常者40同士が会話する場合と同様に聴覚障害者50との間で会話することができる。   Therefore, when a hearing impaired person 50 who is a user of the mobile communication terminal 20 expresses a word in sign language toward the image capturing unit 25, a sound corresponding to the content of the sign language is automatically generated, and the mobile communication is performed as an audio signal. It is transmitted to the terminal 10. That is, the healthy hearing person 40 who is the user of the mobile communication terminal 10 can hear the contents of the sign language expressed by the hearing impaired person 50 as a direct voice from the voice output unit 12, so that the healthy hearing person 40 has a conversation. As with the case, it is possible to have a conversation with the hearing impaired person 50.

図1に示す装置を用いる場合には、聴覚障害者50は送信及び受信の双方向の通信について手話で通信相手と会話することができる。しかし、送信及び受信の何れか一方の通信だけを手話で実現しても十分な効果が期待できる。例えば、携帯通信端末20から画像撮影部25,手話認識部26及び手話音声変換部27の機能を省略した場合であっても、聴覚障害者50は通信相手の聴覚健常者40が話す言葉の内容を手話画像から認識できるので、それに応答し会話に参加することができる。この場合の聴覚障害者50からの応答については、例えば電子メールなどを利用して文字情報として送信することが考えられる。また、逆に手話画像を音声に変換して送信する機能だけを残して、携帯通信端末20から音声認識部22,手話画像変換部23及び画像表示部24の機能を省略した場合には、聴覚障害者50が表現した手話の内容が音声に変換されて送信されるので、聴覚健常者40は聴覚障害者50の送信した手話の内容を理解することができる。この場合には、携帯通信端末10から携帯通信端末20に向けて文字情報を電子メールなどの機能を用いて送信することにより、聴覚障害者50は聴覚健常者40からの送信内容を理解することができるので、双方向の通信が実現する。   When the apparatus shown in FIG. 1 is used, the hearing impaired person 50 can talk with the communication partner in sign language for two-way transmission and reception. However, a sufficient effect can be expected even if only one of the transmission and reception communication is realized by sign language. For example, even if the functions of the image capturing unit 25, the sign language recognition unit 26, and the sign language voice conversion unit 27 are omitted from the mobile communication terminal 20, the hearing impaired person 50 is the content of the words spoken by the normal hearing person 40 as the communication partner. Can be recognized from the sign language image, and can respond to it and participate in the conversation. In this case, the response from the hearing impaired person 50 may be transmitted as text information using e-mail, for example. Conversely, if the functions of the speech recognition unit 22, the sign language image conversion unit 23, and the image display unit 24 are omitted from the mobile communication terminal 20 while leaving only the function of converting the sign language image into sound and transmitting it, the auditory sense Since the sign language content expressed by the handicapped person 50 is converted into voice and transmitted, the healthy hearing person 40 can understand the sign language content transmitted by the hearing handicapped person 50. In this case, the hearing impaired person 50 understands the transmission contents from the healthy hearing person 40 by transmitting character information from the mobile communication terminal 10 to the mobile communication terminal 20 by using a function such as e-mail. Therefore, two-way communication is realized.

(第2の実施の形態)
図3は本発明の基地局が使用されるシステムの構成を示すブロック図である。図3において第1の実施の形態と対応する要素には同一の符号を付けて示してある。変更された部分について以下に説明する。この形態では、音声から手話画像を生成する機能と、手話画像から音声を生成する機能とを携帯通信端末20Bの通信を中継する無線基地局60に設けてある。従って、それらの機能を携帯通信端末20Bに設ける必要はなく、携帯通信端末20Bには通信制御部21,画像表示部24及び画像撮影部25のみが設けてある。
(Second Embodiment)
FIG. 3 is a block diagram showing the configuration of a system in which the base station of the present invention is used. In FIG. 3, elements corresponding to those in the first embodiment are denoted by the same reference numerals. The changed part will be described below. In this embodiment, a function for generating a sign language image from voice and a function for generating voice from a sign language image are provided in the radio base station 60 that relays communication of the mobile communication terminal 20B. Therefore, it is not necessary to provide these functions in the mobile communication terminal 20B, and only the communication control unit 21, the image display unit 24, and the image capturing unit 25 are provided in the mobile communication terminal 20B.

無線基地局60に設けられた音声認識部22,手話画像変換部23,手話認識部26,手話音声変換部27及び手話通信用辞書28については、それぞれ第1の実施の形態の場合と同様の機能を果たす。通信制御部61は無線基地局60と通信網33との間の通信を制御し、通信制御部62は無線基地局60と携帯通信端末20Bとの間の通信を制御する。従って、無線基地局60は携帯通信端末10から送信された音声の信号を音声認識部22及び手話画像変換部23で手話画像に変換し、画像情報として携帯通信端末20Bに送信する。そのため、聴覚障害者50が使用する携帯通信端末20Bの画像表示部24には聴覚健常者40からの音声に相当する手話画像が表示される。   The speech recognition unit 22, the sign language image conversion unit 23, the sign language recognition unit 26, the sign language speech conversion unit 27, and the sign language communication dictionary 28 provided in the radio base station 60 are the same as those in the first embodiment. Fulfills the function. The communication control unit 61 controls communication between the radio base station 60 and the communication network 33, and the communication control unit 62 controls communication between the radio base station 60 and the mobile communication terminal 20B. Accordingly, the radio base station 60 converts the audio signal transmitted from the mobile communication terminal 10 into a sign language image by the audio recognition unit 22 and the sign language image conversion unit 23, and transmits it as image information to the mobile communication terminal 20B. Therefore, a sign language image corresponding to the sound from the healthy hearing person 40 is displayed on the image display unit 24 of the mobile communication terminal 20B used by the hearing impaired person 50.

また、携帯通信端末20Bは画像撮影部25で聴覚障害者50自身を撮影して得られた手話画像を画像情報として無線基地局60に送信するので、無線基地局60は携帯通信端末20Bから送信された手話画像を手話認識部26及び手話音声変換部27で音声に変換し、音声信号として携帯通信端末10に送信するので、聴覚健常者40は聴覚障害者50の表現した手話の内容を音声として音声出力部12から聞くことができる。   Further, since the mobile communication terminal 20B transmits a sign language image obtained by capturing the hearing impaired person 50 by the image capturing unit 25 to the wireless base station 60 as image information, the wireless base station 60 transmits from the mobile communication terminal 20B. The sign language image thus converted is converted into speech by the sign language recognition unit 26 and the sign language speech conversion unit 27 and transmitted to the mobile communication terminal 10 as a speech signal, so that the healthy hearing person 40 can hear the sign language content expressed by the hearing impaired person 50 as speech. Can be heard from the voice output unit 12.

この形態では、画像処理や音声認識のように負荷の大きい処理を無線基地局60上に配置してあるため、携帯通信端末20Bの構成を単純化することができ、携帯通信端末20Bの小型化や電力消費の抑制が可能になる。また、従来より存在する携帯電話のような端末の構成や動作をほとんど変更することなく携帯通信端末20Bとして利用することも可能になる。   In this embodiment, since processing with a large load such as image processing and voice recognition is arranged on the radio base station 60, the configuration of the mobile communication terminal 20B can be simplified, and the mobile communication terminal 20B can be downsized. And power consumption can be reduced. Further, it can be used as the mobile communication terminal 20B with almost no change in the configuration and operation of a conventional mobile phone terminal.

本発明の情報端末及び基地局は、音声と手話画像との変換が可能になるため、聴覚障害者と聴覚健常者との間でリアルタイムの会話を実現することができるという効果を有し、移動体通信端末等の情報端末および基地局等として有用である。   Since the information terminal and the base station of the present invention can convert voice and sign language images, the information terminal and the base station have an effect that a real-time conversation can be realized between a hearing impaired person and a normal hearing person. It is useful as an information terminal such as a body communication terminal and a base station.

第1の実施の形態の構成を示すブロック図The block diagram which shows the structure of 1st Embodiment 通信システムの構成例を示すブロック図Block diagram showing a configuration example of a communication system 第2の実施の形態の構成を示すブロック図The block diagram which shows the structure of 2nd Embodiment

符号の説明Explanation of symbols

10,20 携帯通信端末
11 音声入力部
12 音声出力部
13 画像表示部
14,21 通信制御部
22 音声認識部
23 手話画像変換部
24 画像表示部
25 画像撮影部
26 手話認識部
27 手話音声変換部
28 手話通信用辞書
30 移動体通信網
31,32,60 無線基地局
33 通信網
40 聴覚健常者
50 聴覚障害者
61,62 通信制御部
DESCRIPTION OF SYMBOLS 10,20 Mobile communication terminal 11 Voice input part 12 Voice output part 13 Image display part 14,21 Communication control part 22 Voice recognition part 23 Sign language image conversion part 24 Image display part 25 Image photographing part 26 Sign language recognition part 27 Sign language voice conversion part 28 Dictionary for Sign Language Communication 30 Mobile Communication Network 31, 32, 60 Wireless Base Station 33 Communication Network 40 Healthy Hearing Person 50 Hearing Impaired Person 61, 62 Communication Control Unit

Claims (4)

音声を認識する手段と、
音声信号と手話画像との対応表を参照して、認識した音声を手話画像に変換する手段と、
変換した手話画像を表示する手段と、
を備える情報端末。
A means of recognizing speech,
Means for converting the recognized voice into a sign language image with reference to a correspondence table between the voice signal and the sign language image;
Means for displaying the converted sign language image;
An information terminal comprising:
画像を撮影する手段と、
撮影した画像から手話情報を認識する手段と、
手話情報と音声信号との対応表を参照して、認識した手話情報を音声に変換する手段と、
変換した音声を出力する手段と、
を備える情報端末。
Means for taking an image;
Means for recognizing sign language information from captured images;
Means for converting the recognized sign language information into speech with reference to the correspondence table between the sign language information and the audio signal;
Means for outputting the converted audio;
An information terminal comprising:
請求項1記載の情報端末および請求項2記載の情報端末を搭載する情報端末。   An information terminal equipped with the information terminal according to claim 1 and the information terminal according to claim 2. 通信端末を移動体通信網にアクセスさせるための基地局であって、
通信端末から送信される音声を認識する手段と、
音声信号と手話画像との対応表を参照して、認識した音声を手話画像に変換する手段と、
変換した手話画像を通信可能に出力する手段と、
通信端末から送信される画像から手話画像を認識する手段と、
手話情報と音声信号との対応表を参照して、認識した手話情報を音声に変換する手段と、
変換した音声を通信可能に出力する手段と、
を備える基地局。
A base station for allowing a communication terminal to access a mobile communication network,
Means for recognizing the voice transmitted from the communication terminal;
Means for converting the recognized voice into a sign language image with reference to a correspondence table between the voice signal and the sign language image;
Means for outputting the converted sign language image in a communicable manner;
Means for recognizing a sign language image from an image transmitted from a communication terminal;
Means for converting the recognized sign language information into speech with reference to a correspondence table between the sign language information and the audio signal;
A means for outputting the converted voice in a communicable manner;
A base station comprising:
JP2004329570A 2004-11-12 2004-11-12 Information terminal and base station Withdrawn JP2006139138A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004329570A JP2006139138A (en) 2004-11-12 2004-11-12 Information terminal and base station

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004329570A JP2006139138A (en) 2004-11-12 2004-11-12 Information terminal and base station

Publications (1)

Publication Number Publication Date
JP2006139138A true JP2006139138A (en) 2006-06-01

Family

ID=36619999

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004329570A Withdrawn JP2006139138A (en) 2004-11-12 2004-11-12 Information terminal and base station

Country Status (1)

Country Link
JP (1) JP2006139138A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012182637A (en) * 2011-03-01 2012-09-20 Nec Casio Mobile Communications Ltd Electronic apparatus, sound output method, transmission method, conversion method, and program
CN102708866A (en) * 2012-06-01 2012-10-03 武汉大学 Semantic-computing-based interaction system and method for person with hearing or language disorder
JP2015169814A (en) * 2014-03-07 2015-09-28 サカタインクス株式会社 Method and system for supporting communication
CN107566863A (en) * 2016-06-30 2018-01-09 中兴通讯股份有限公司 A kind of exchange of information methods of exhibiting, device and equipment, set top box
JP2019535059A (en) * 2016-09-13 2019-12-05 マジック リープ, インコーポレイテッドMagic Leap,Inc. Sensory eyewear
CN111754828A (en) * 2020-07-01 2020-10-09 刘虎 Teaching auxiliary equipment based on internet

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012182637A (en) * 2011-03-01 2012-09-20 Nec Casio Mobile Communications Ltd Electronic apparatus, sound output method, transmission method, conversion method, and program
CN102708866A (en) * 2012-06-01 2012-10-03 武汉大学 Semantic-computing-based interaction system and method for person with hearing or language disorder
JP2015169814A (en) * 2014-03-07 2015-09-28 サカタインクス株式会社 Method and system for supporting communication
CN107566863A (en) * 2016-06-30 2018-01-09 中兴通讯股份有限公司 A kind of exchange of information methods of exhibiting, device and equipment, set top box
JP2019535059A (en) * 2016-09-13 2019-12-05 マジック リープ, インコーポレイテッドMagic Leap,Inc. Sensory eyewear
US11410392B2 (en) 2016-09-13 2022-08-09 Magic Leap, Inc. Information display in augmented reality systems
US11747618B2 (en) 2016-09-13 2023-09-05 Magic Leap, Inc. Systems and methods for sign language recognition
CN111754828A (en) * 2020-07-01 2020-10-09 刘虎 Teaching auxiliary equipment based on internet

Similar Documents

Publication Publication Date Title
EP2574220B1 (en) Hand-held communication aid for individuals with auditory, speech and visual impairments
US20140171036A1 (en) Method of communication
AU2003264435B2 (en) A videophone sign language interpretation assistance device and a sign language interpretation system using the same.
US11489351B2 (en) Wireless earphone device and method for using the same
TW200406123A (en) Image input apparatus for sign language talk, image input/output apparatus for sign language talk, and system for sign language translation
JP2000068882A (en) Radio communication equipment
JP2009218950A (en) Portable terminal device with camera
JP2006139138A (en) Information terminal and base station
US20160203818A1 (en) Wireless caption communication service system
KR101609585B1 (en) Mobile terminal for hearing impaired person
KR101400754B1 (en) System for providing wireless captioned conversation service
JP2004254218A (en) Cellular phone, communication method, and communication program
JP2004015478A (en) Speech communication terminal device
JP2004015250A (en) Mobile terminal
JP2004248022A (en) Mobile phone and communicating method using the same
JP2932027B2 (en) Videophone equipment
JP2981179B2 (en) Portable information transmission device
JP2007114582A (en) Communication terminal
JP2000004304A (en) Speech communication device enabling communication with different means
JP2003188948A (en) Portable terminal device
JP2006140596A (en) Communication terminal
WO2024070550A1 (en) System, electronic device, system control method, and program
JP2000184077A (en) Intercom system
KR20070071854A (en) Communication aiding method between dumb person and normal person in mobile telecommunication terminal
KR20230109000A (en) Smart Glass System for the Hearing Impaired and Method for controlling the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070801

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20071113

RD04 Notification of resignation of power of attorney

Effective date: 20071120

Free format text: JAPANESE INTERMEDIATE CODE: A7424

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20091009