JP2007147855A - 発声発音練習支援システム - Google Patents

発声発音練習支援システム Download PDF

Info

Publication number
JP2007147855A
JP2007147855A JP2005340302A JP2005340302A JP2007147855A JP 2007147855 A JP2007147855 A JP 2007147855A JP 2005340302 A JP2005340302 A JP 2005340302A JP 2005340302 A JP2005340302 A JP 2005340302A JP 2007147855 A JP2007147855 A JP 2007147855A
Authority
JP
Japan
Prior art keywords
tag
information
unit
article
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005340302A
Other languages
English (en)
Inventor
Yoshiaki Ide
義章 井手
Kojiro Ono
宏二郎 小野
Daisuke Kakihisa
大輔 蠣久
Taira Wakamiya
平 若宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toppan Edge Inc
Original Assignee
Toppan Forms Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toppan Forms Co Ltd filed Critical Toppan Forms Co Ltd
Priority to JP2005340302A priority Critical patent/JP2007147855A/ja
Publication of JP2007147855A publication Critical patent/JP2007147855A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)

Abstract

【課題】失語症患者が任意に選んだ物に対して発声発音の練習を行う。
【解決手段】固有の識別情報となるタグIDが読み取り可能に書き込まれたICタグ10と、ICタグ10が取り付けられた物品10aの名称をICタグ10のタグIDと対応づけて管理しておき、ICタグ10からタグIDを読み取り、読み取ったタグIDに対応づけて管理している物品10aの名称を音声情報として出力する携帯端末20とを有する。
【選択図】図1

Description

本発明は、失語症患者に対して発声発音の練習を支援する発声発音練習支援システムに関し、特に、失語症患者に聴覚によって発声発音を練習させるための発声発音練習支援システムに関する。
失語症とは、脳卒中等の病気や事故によって脳が損傷を受けた結果、それまでに脳に記憶された言葉の能力が失われ、物の名称が言えなくなったり、間違えて言ってしまったりする障害である。このような障害を持つ失語症患者に対しては、従来より様々な言語練習プログラムが考えられており、それを用いたリハビリテーションが行われている。
例えば、特許文献1には、指定された母音を発音させたり、継続して息を出させたり、一定の大きさで声を出させたりする発声発音練習装置が記載されている。この発声発音練習装置においては、言語聴覚士やCD−ROMに格納されたソフトウェアによって発声動作が指定され、失語症患者はそれに応じた発声動作を行うことになる。
特開平11−352875号公報
上述したような発声発音練習装置においては、言語聴覚士やCD−ROMに格納されたソフトウェアによって、失語症患者が行う発声動作が一義的に決められてしまうため、失語症患者が自分で任意に選んだ物に対して発声発音の練習を行うことができないという問題点がある。
本発明は、上述したような従来の技術が有する問題点に鑑みてなされたものであって、失語症患者が任意に選んだ物に対して発声発音の練習を行うことができる発声発音練習支援システムを提供することを目的とする。
上記目的を達成するために本発明は、
音声情報を出力し、該音声情報を用いて発声発音の練習を支援する発声発音練習支援システムであって、
固有の識別情報を読み取り可能に保持する情報保持体と、
前記情報保持体から前記識別情報を読み取る情報読取手段と、
前記識別情報と対応づけて言語情報を管理し、前記情報読取手段にて読み取られた識別情報に対応づけて管理している言語情報を音声情報として出力する音声処理手段とを有する。
上記のように構成された本発明においては、物品に取り付けられた情報保持体に保持された識別情報が情報読取手段にて読み取られると、読み取られた識別情報は音声処理手段に与えられる。音声処理手段においては、情報保持体に保持された識別情報毎に、その識別情報が保持された情報保持体が取り付けられる物品の名称が言語情報として対応づけて管理されており、情報読取手段にて読み取られた識別情報に対応づけて管理された言語情報が音声情報として出力される。
このように、物品に取り付けられた情報保持体から識別情報が読み取られると、その物品の名称が音声情報として出力されるので、失語症患者が任意の物品に対して、出力される音声情報を用いて発声発音の練習を行うことができるようになる。
以上説明したように本発明においては、物品に取り付けられた情報保持体から識別情報を読み取ることによりその物品の名称が音声情報として出力される構成としたため、失語症患者が任意に選んだ物品に取り付けられた情報保持体から識別情報を読み取るだけでその物品の名称が音声情報として出力されることとなり、失語症患者が任意に選んだ物に対して発声発音の練習を行うことができる。また、その際、失語症患者が実際に物品を手に取って識別情報を読み取ることにより、聴覚のみでなく視覚や触覚によっても失語症患者の脳に刺激を与え、発声発音の練習の効果を高めることができる。
以下に、本発明の実施の形態について図面を参照して説明する。
(第1の実施の形態)
図1は、本発明の発声発音練習支援システムの第1の実施の形態を示す図である。
本形態は図1に示すように、物品10aに取り付けられ、非接触状態にて情報の読み取りが可能な情報保持体であるICタグ10と、ICタグ10から情報を読み取り、読み取った情報を用いて物品10aの名称を音声及び表示出力するリストバンド型の携帯端末20とから構成されている。ICタグ10には、固有の識別情報となるタグIDが書き込まれ、このタグIDが非接触状態にて読み取り可能なICチップ(不図示)が内蔵されるとともに、このICチップに書き込まれたタグIDを外部から読み取るためのアンテナ(不図示)が設けられている。このICタグ10は、取り付けられる物品10aの形状に応じて、ラベル状として物品10aに貼付することにより取り付けられることや、物品10aに設けられた嵌合部に嵌め込まれることにより取り付けられること等が考えられる。また、携帯端末20は、本体部20aとバンド部20bとから構成され、利用者がバンド部20bを腕に巻き付けることにより携帯して利用することができる。
図2は、図1に示した携帯端末20の本体部20aの構成を示すブロック図である。
本形態における携帯端末20の本体部20aは図2に示すように、アンテナ21と、情報読取部22と、言語情報管理部23と、操作部24と、言語情報抽出部25と、音声変換部26と、音声出力部27と、表示部28とから構成されており、言語情報管理部23、言語情報抽出部25、音声変換部26及び音声出力部27から音声処理部29が構成される。
情報読取部22は、ICタグ10に書き込まれたタグIDを読み取るものであり、ICタグ10に書き込まれたタグIDをアンテナ21を介して非接触状態にて読み取る。その方式としては、電磁誘導方式や電波方式等、様々なものが考えられる。
言語情報管理部23は、メモリ(不図示)を有し、ICタグ10のICチップに書き込まれたICタグ10固有の識別情報となるタグIDと、そのICタグ10が取り付けられる物品10aの名称とを対応づけてそのメモリに登録して管理する。この物品10aの名称は、本発明の言語情報となるものであって、テキスト情報としてメモリに登録される。
操作部24は、ICタグ10が取り付けられる物品10aの名称や、この携帯端末20を所持して利用する利用者の障害のレベル及び属性を入力するためのものである。
言語情報抽出部25は、言語情報管理部23にて管理されている言語情報の中から、情報読取部22にて読み取られたタグIDに対応づけられて管理され、かつ操作部24を介して入力された利用者の障害のレベル及び属性に応じた言語情報を抽出する。
音声変換部26は、言語情報抽出部25にて抽出された言語情報を音声変換ソフトウェアによって音声情報に変換する。
音声出力部27は、スピーカからなり、音声変換部26にて変換された音声情報を出力する。
表示部28は、ディスプレイ及びドライバからなり、言語情報抽出部25にて抽出された言語情報を表示出力する。
以下に、上記のように構成された発声発音練習支援システムの利用方法について説明する。
まず、携帯端末20の言語情報管理部23における言語情報の管理方法について説明する。
ICタグ10を発行する際、そのICタグ10のICチップに書き込まれたICタグ10固有のタグIDを読み取り、このタグIDと、ICタグ10が取り付けられる物品10aの名称とを携帯端末20に与える。携帯端末20においては、例えば、情報読取部22にてタグIDが読み取られ、また、操作部24を介して物品10aの名称が入力される。この際、物品10aの名称については、利用者の障害のレベル及び属性に応じて選択可能となるように複数入力される。例えば、障害のレベルについては、物品10aの名称全てと物品10aの名称のうち一部とが、障害のレベルを特定するための「A」,「B」等といった情報に対応づけてそれぞれ入力される。また、属性については、物品10aの名称を日本語で表現した場合と英語で表現した場合とが、属性を特定するための「日本語」,「英語」等といった情報に対応づけてそれぞれ入力される。このような操作部24を介しての情報の入力は、携帯端末20に予め格納されたユーザインターフェースに従って行われることになる。
言語情報管理部23においては、このようにして与えられたタグIDと物品10aの名称とが、利用者の障害のレベル及び属性によって対応づけてメモリに登録されて管理される。
図3は、図2に示した言語情報管理部23にて管理される言語情報を示す図である。
図3に示すように、図2に示した言語情報管理部23においては、物品10aに取り付けられるICタグ10のタグIDに対応づけて物品10aの名称が言語情報となるメッセージとして管理される。また、1つのタグID、すなわち1つの物品10aに対して、利用者の障害のレベル及び属性毎にそれぞれ2つずつのメッセージが登録されている。
図3に示した例においては、タグIDが「012」のICタグ10が「水」に取り付けられる場合であって、そのメッセージとして、日本語では「ミズ」、英語では「ウォーター」が登録されている。また、これらのメッセージのそれぞれに対して、利用者の障害のレベルに応じて2つずつのメッセージが登録されている。日本語の「ミズ」に対しては、障害のレベルが「A」の場合として「ミズ」、障害のレベルが「B」の場合として「ミ」がそれぞれ登録されており、英語の「ウォーター」に対しては、障害のレベルが「A」の場合として「ウォーター」、障害のレベルが「B」の場合として「ウォ」がそれぞれ登録されている。これは、障害のレベルが「A」の場合は、利用者の障害のレベルが高く、ICタグ10が取り付けられた物品10aの名称の全てをメッセージとして音声出力する必要があり、また、障害のレベルが「B」の場合は、利用者の障害のレベルが低く、ICタグ10が取り付けられた物品10aの名称の一部をメッセージとして音声出力すればよいためである。
次に、上述したように言語情報が携帯端末20に登録された発声発音練習支援システムの利用方法について説明する。
図4は、図1及び図2に示した発声発音練習支援システムの利用方法を説明するためのフローチャートである。
まず、携帯端末20のバンド部20bを腕に巻き付けることにより携帯端末20を所持した利用者は、携帯端末20の操作部24を介して、利用者の障害のレベルと属性とを入力する。
すると、言語情報抽出部25において、操作部24を介して入力された利用者の障害のレベルと属性とが、言語情報管理部23にて管理されている言語情報となるメッセージを抽出する際の条件として設定される。本形態においては、利用者の障害のレベルとして「A」が設定され、属性として「日本語」が設定されるものとする。
そして、利用者が、携帯端末20を物品10aに取り付けられたICタグ10に近接させると、ICタグ10のICチップに書き込まれたタグIDがアンテナ21を介して情報読取部22にて読み取られる(ステップS1)。
すると、言語情報抽出部25において、言語情報管理部23にて管理されているメッセージの中から、情報読取部22にて読み取られたタグIDに対応づけられて管理され、かつ操作部24を介して入力された利用者のレベル及び属性によって設定された条件に応じたメッセージが検索、抽出される(ステップS2)。上述したように本形態においては、利用者の障害のレベルとして「A」が設定され、属性として「日本語」が設定されているため、ステップS1にて読み取られたタグIDが「012」であれば、「ミズ」というメッセージが抽出されることになる。
その後、音声変換部26において、言語情報抽出部25にて抽出されたメッセージが音声情報に変換され(ステップS3)、「ミズ」の音声情報として音声出力部27から出力される(ステップS4)。これにより、利用者は、携帯端末20を近接させた物品10aの名称である「ミズ」というメッセージを聴覚により認識することになり、このメッセージに倣って「ミズ」と発声練習することができる。
また、表示部28において、言語情報抽出部25にて抽出されたメッセージが表示出力される(ステップS5)。これにより、利用者は、携帯端末20を近接させた物品10aの名称である「ミズ」というメッセージを視覚によっても認識することができる。
また、利用者の障害レベルが「B」の場合は、「ミ」というメッセージが、音声出力部27から音声出力されるとともに表示部28にて表示出力され、利用者は、ICタグ10が取り付けられた物品10aの名称の一部が「ミ」であることから「ミズ」を発想し、「ミズ」と発声練習することができる。
なお、本形態においては、1つのタグIDに対して、利用者の障害のレベル及び属性毎にそれぞれ2つずつのメッセージを登録しておき、その後、操作部24を介して入力された利用者の障害のレベルと属性とが、言語情報管理部23にて管理されているメッセージを抽出する際の条件として設定されるが、言語情報管理部23にメッセージを登録する際に、1つのタグIDに対して、利用者の障害レベル及び属性に応じたメッセージのみを登録しておくことも考えられる。ただし、本形態のように、1つのタグIDに対して、利用者の障害のレベル及び属性毎にそれぞれ2つずつのメッセージを登録しておけば、利用者の障害のレベルと属性とを後に指定することになるため、障害のレベルや属性が異なる複数の利用者が利用することができる。
また、本形態においては、言語情報抽出部25にて抽出されたメッセージが、音声変換部26にて音声情報に変換されて音声出力部27を介して出力されるとともに、表示部28にて表示されるものを例に挙げて説明したが、言語情報抽出部25にて抽出されたメッセージが音声変換部26にて音声情報に変換されて音声出力部27を介して出力される構成であれば、表示部28における表示出力は必ずしも行わなくてもよい。また、表示部28における表示出力は、言語情報抽出部25にて抽出されたメッセージ以外の情報を出力するものであってもよい。
また、図3に示した情報は、携帯端末20の直接入力されるものではなく、パーソナルコンピュータ等の情報処理機器に入力された後、携帯端末20に送信する等して付与することも考えられる。
(第2の実施の形態)
図5は、本発明の発声発音練習支援システムの第2の実施の形態を示す図である。
本形態は図5に示すように、物品110aに取り付けられ、非接触状態にて情報の読み取りが可能な情報保持体であるICタグ110と、ICタグ110から情報を読み取るリストバンド型の携帯端末120と、携帯端末120にて読み取られた情報を用いて物品110aの名称を音声及び表示出力するノートPC130とから構成されている。ICタグ110には、固有の識別情報となるタグIDが書き込まれ、このタグIDが非接触状態にて読み取り可能なICチップ(不図示)が内蔵されるとともに、このICチップに書き込まれたタグIDを外部から読み取るためのアンテナ(不図示)が設けられている。このICタグ110は、取り付けられる物品110aの形状に応じて、ラベル状として物品110aに貼付することにより取り付けられることや、物品110aに設けられた嵌合部に嵌め込まれることにより取り付けられること等が考えられる。また、携帯端末120は、本体部120aとバンド部120bとから構成され、利用者がバンド部120bを腕に巻き付けることにより携帯して利用することができる。
図6は、図5に示した携帯端末120の本体部120aの構成を示すブロック図である。
本形態における携帯端末120の本体部120aは図6に示すように、アンテナ121と、情報読取部122と、操作部123と、利用者情報管理部124と、制御部125と、通信部126とから構成されている。
情報読取部122は、ICタグ110に書き込まれたタグIDを読み取るものであり、ICタグ110に書き込まれたタグIDをアンテナ121を介して非接触状態にて読み取る。その方式としては、電磁誘導方式や電波方式等、様々なものが考えられる。
操作部123は、利用者の障害のレベル及び属性を入力するためのものである。
利用者情報管理部124は、操作部123を介して入力された利用者の障害のレベル及び属性を管理する。
通信部126は、ノートPC130と同一の通信プロトコル、例えばBlouetoothインターフェースによってノートPC130と通信を行い、情報読取部122にて読み取られたタグIDと利用者情報管理部124にて管理されている利用者の障害のレベル及び属性をノートPC130に送信する。
制御部125は、情報読取部122にて読み取られたタグIDと利用者情報管理部124にて管理されている利用者の障害のレベル及び属性を通信部126に与える。
図7は、図5に示したノートPC130の構成を示すブロック図である。
本形態におけるノートPC130は図7に示すように、操作部131と、通信部132と、言語情報管理部133と、言語情報抽出部134と、音声変換部135と、音声出力部136と、表示部137とから構成されており、言語情報管理部133、言語情報抽出部134、音声変換部135及び音声出力部136から音声処理部138が構成される。
操作部131は、ICタグ110が取り付けられる物品110aの名称を入力するためのものである。
通信部132は、携帯端末120と同一の通信プロトコル、例えばBlouetoothインターフェースによって携帯端末120と通信を行い、携帯端末120から送信されてきたタグIDや、利用者の障害のレベル及び属性を受信する。
言語情報管理部133は、メモリ(不図示)を有し、ICタグ110のICチップに書き込まれたICタグ110固有の識別情報となるタグIDと、そのICタグ110が取り付けられる物品110aの名称とを対応づけてそのメモリに登録して管理する。この物品110aの名称は、本発明の言語情報となるものであって、テキスト情報としてメモリに登録される。
言語情報抽出部134は、言語情報管理部134にて管理されている言語情報の中から、通信部132を介して受信されたタグID、利用者の障害のレベル及び属性に応じた言語情報を抽出する。
音声変換部135は、言語情報抽出部134にて抽出された言語情報を音声変換ソフトウェアによって音声情報に変換する。
音声出力部136は、スピーカからなり、音声変換部135にて変換された音声情報を出力する。
表示部137は、ディスプレイ及びドライバからなり、言語情報抽出部134にて抽出された言語情報を表示出力する。
以下に、上記のように構成された発声発音練習支援システムの利用方法について説明する。
まず、ノートPC130の言語情報管理部133における言語情報の管理方法について説明する。
ICタグ110を発行する際、そのICタグ110のICチップに書き込まれたICタグ110固有のタグIDを読み取り、このタグIDと、ICタグ110が取り付けられる物品110aの名称とをノートPC130に与える。ノートPC130においては、例えば、ノートPC130に接続されたリーダ(不図示)にてタグIDが読み取られ、また、操作部131を介して物品110aの名称が入力される。この際、物品110aの名称については、利用者の障害のレベル及び属性に応じて選択可能となるように複数入力される。例えば、障害のレベルについては、物品110aの名称全てと物品110aの名称のうち一部とが、障害のレベルを特定するための「A」,「B」等といった情報に対応づけてそれぞれ入力される。また、属性については、物品110aの名称を日本語で表現した場合と英語で表現した場合とが、属性を特定するための「日本語」,「英語」等といった情報に対応づけてそれぞれ入力される。このような操作部131を介しての情報の入力は、ノートPC130に予め格納されたユーザインターフェースに従って行われることになる。
言語情報管理部133においては、このようにして与えられたタグIDと物品110aの名称とが、図3に示したものと同様に、利用者の障害のレベル及び属性によって対応づけてメモリに登録されて管理される。
次に、上述したように言語情報が携帯端末20に登録された発声発音練習支援システムの利用方法について説明する。
図8は、図5〜図7に示した発声発音練習支援システムの利用方法を説明するためのフローチャートである。
まず、携帯端末120のバンド部120bを腕に巻き付けることにより携帯端末120を所持した利用者は、携帯端末120の操作部123を介して、利用者の障害のレベルと属性とを入力する。
すると、利用者情報管理部124において、操作部123を介して入力された利用者の障害のレベルと属性とが登録、管理される。本形態においては、利用者の障害のレベルとして「A」が登録され、属性として「日本語」が登録されるものとする。
そして、利用者が、携帯端末120を物品110aに取り付けられたICタグ110に近接させると、ICタグ110のICチップに書き込まれたタグIDがアンテナ121を介して情報読取部122にて読み取られる(ステップS11)。
すると、制御部125において、情報読取部122にて読み取られたタグIDと、利用者情報管理部124にて管理されている利用者の障害のレベル及び属性とが通信部126に与えられ、これらの情報が通信部126を介して送信される(ステップS12)。
携帯端末120の通信部126を介して送信された、タグID、並びに利用者の障害のレベル及び属性は、ノートPC130の通信部132を介して受信される(ステップS13)。
すると、言語情報抽出部134において、言語情報管理部133にて管理されているメッセージの中から、通信部132を介して受信されたタグID、並びに利用者の障害のレベル及び属性に対応づけられて管理されたメッセージが検索、抽出される(ステップS14)。上述したように本形態においては、障害のレベルとして「A」が設定され、属性として「日本語」が設定されているため、通信部132を介して受信されたタグIDが「012」であれば、「ミズ」というメッセージが抽出されることになる。
その後、音声変換部135において、言語情報抽出部134にて抽出されたメッセージが音声情報に変換され(ステップS15)、「ミズ」の音声情報として音声出力部136から出力される(ステップS16)。これにより、利用者は、携帯端末120を近接させた物品110aの名称である「ミズ」というメッセージを聴覚により認識することになり、このメッセージに倣って「ミズ」と発声練習することができる。
また、表示部137において、言語情報抽出部134にて抽出されたメッセージが表示出力される(ステップS17)。これにより、利用者は、携帯端末120を近接させた物品110aの名称である「ミズ」というメッセージを視覚によっても認識することができる。
また、利用者の障害レベルが「B」の場合は、「ミ」というメッセージが、音声出力部136から音声出力されるとともに表示部137にて表示出力され、利用者は、ICタグ110が取り付けられた物品110aの名称の一部が「ミ」であることから「ミズ」を発想し、「ミズ」と発声練習することができる。
なお、本形態においては、利用者の障害のレベル及び属性を携帯端末120にて管理しておき、ICタグ110からタグIDが読み取られた際に、このタグIDとともに利用者の障害のレベル及び属性をノートPC130に送信するものを例に挙げて説明したが、ノートPC130において、利用者の障害のレベル及び属性をその利用者が所持する携帯端末120固有の端末IDと対応づけて管理しておき、携帯端末120にてICタグ110からタグIDが読み取られた際に、このタグIDとともに携帯端末120の端末IDをノートPC130に送信し、ノートPC130において、携帯端末120から送信されてきた携帯端末120の端末IDに対応づけて管理された利用者の障害のレベル及び属性を抽出することも考えられる。
また、本形態においては、言語情報抽出部134にて抽出されたメッセージが、音声変換部135にて音声情報に変換されて音声出力部136を介して出力されるとともに、表示部137にて表示されるものを例に挙げて説明したが、言語情報抽出部134にて抽出されたメッセージが音声変換部138にて音声情報に変換されて音声出力部136を介して出力される構成であれば、表示部137における表示出力は必ずしも行わなくてもよい。また、表示部137における表示出力は、言語情報抽出部134にて抽出されたメッセージ以外の情報を出力するものであってもよい。例えば、ノートPC130に、音声情報を入力するためのマイクを接続し、音声出力部136を介して出力された音声情報を利用者に発声させてマイクを介して入力し、この入力された発声情報と音声出力部136を介して出力された音声情報とが一致した場合に「正しく発音できました」等といったメッセージを表示すること等が考えられる。また、マイクを介して入力された発声情報と音声出力部136を介して出力された音声情報とが不一致であった場合、音声情報を音声出力部136を介して再度出力するように制御することも考えられる。
また、上述した2つの実施の形態においては、1つの物品10a,110aについて、利用者の属性に合わせて「日本語」及び「英語」の2つのメッセージが入力されるが、携帯端末20やノートPC130に翻訳ソフトウェアをインストールし、この翻訳ソフトウェアを用いて、1つの物品10a,110aについて「日本語」のみのメッセージを登録することにより、この物品10a,110aについて「英語」のメッセージを自動的に登録するような構成とすることも考えられる。
また、1つの物品10a,110aについて、利用者の障害のレベルに合わせて物品10a,110aの名称全てと物品10a,110aの名称のうち一部とがそれぞれ入力されるが、物品10a,110aの名称全てのみを入力し、携帯端末20やノートPC130において、入力された物品10a,110aの名称から一部のみを抽出し、この抽出した情報と入力された情報とを登録しておく構成とすることも考えられる。
また、上述した2つの実施の形態においては、利用者の障害のレベル及び属性を2つに分けているが、その数は2つに限らない。
また、上述した2つの実施の形態においては、物品10a,110aに取り付けられる情報保持体として、固有の識別情報となるタグIDが書き込まれ、このタグIDが非接触状態にて読み取り可能なICタグ10,110を例に挙げて説明したが、本発明の情報保持体はこれに限らず、固有の識別情報が読み取り可能に書き込まれているものであれば、バーコードや二次元コードが記載されたラベルやタグ等であってもよい。
本発明は、上述したように失語症患者の発声発音の練習に利用することができるとともに、高齢者の物忘れ防止や治療手段としても利用することができる。また、視覚障害者向けの物品識別や物体存在の音声通知をする訓練システムとして、あるいは、子供向けに、物品の名称と発声を学ばせる学習教材としても利用することができる。
本発明の発声発音練習支援システムの第1の実施の形態を示す図である。 図1に示した携帯端末の本体部の構成を示すブロック図である。 図2に示した言語情報管理部にて管理される言語情報を示す図である。 図1及び図2に示した発声発音練習支援システムの利用方法を説明するためのフローチャートである。 本発明の発声発音練習支援システムの第2の実施の形態を示す図である。 図5に示した携帯端末の本体部の構成を示すブロック図である。 図5に示したノートPCの構成を示すブロック図である。 図5〜図7に示した発声発音練習支援システムの利用方法を説明するためのフローチャートである。
符号の説明
10,110 ICタグ
10a,110a 物品
20,120 携帯端末
20a,120a 本体部
20b,120b バンド部
21,121 アンテナ
22,122 情報読取部
23,133 言語情報管理部
24,123,131 操作部
25,134 言語情報抽出部
26,135 音声変換部
27,136 音声出力部
28,137 表示部
29,138 音声処理部
124 利用者情報管理部
125 制御部
126,132 通信部
130 ノートPC

Claims (1)

  1. 音声情報を出力し、該音声情報を用いて発声発音の練習を支援する発声発音練習支援システムであって、
    固有の識別情報を読み取り可能に保持する情報保持体と、
    前記情報保持体から前記識別情報を読み取る情報読取手段と、
    前記識別情報と対応づけて言語情報を管理し、前記情報読取手段にて読み取られた識別情報に対応づけて管理している言語情報を音声情報として出力する音声処理手段とを有する発声発音練習支援システム。
JP2005340302A 2005-11-25 2005-11-25 発声発音練習支援システム Pending JP2007147855A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005340302A JP2007147855A (ja) 2005-11-25 2005-11-25 発声発音練習支援システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005340302A JP2007147855A (ja) 2005-11-25 2005-11-25 発声発音練習支援システム

Publications (1)

Publication Number Publication Date
JP2007147855A true JP2007147855A (ja) 2007-06-14

Family

ID=38209347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005340302A Pending JP2007147855A (ja) 2005-11-25 2005-11-25 発声発音練習支援システム

Country Status (1)

Country Link
JP (1) JP2007147855A (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60162281A (ja) * 1984-02-02 1985-08-24 松下電器産業株式会社 発音練習装置
JPS6178356U (ja) * 1984-10-25 1986-05-26
JP2003271157A (ja) * 2002-12-26 2003-09-25 Kyuhoku Electronics Corp 視覚障害者用物品識別装置
JP2005309603A (ja) * 2004-04-19 2005-11-04 Casio Comput Co Ltd 非接触データ読み取りシステム、電子機器

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60162281A (ja) * 1984-02-02 1985-08-24 松下電器産業株式会社 発音練習装置
JPS6178356U (ja) * 1984-10-25 1986-05-26
JP2003271157A (ja) * 2002-12-26 2003-09-25 Kyuhoku Electronics Corp 視覚障害者用物品識別装置
JP2005309603A (ja) * 2004-04-19 2005-11-04 Casio Comput Co Ltd 非接触データ読み取りシステム、電子機器

Similar Documents

Publication Publication Date Title
CN106575500B (zh) 基于面部结构合成话音的方法和装置
Dhanjal et al. Tools and techniques of assistive technology for hearing impaired people
CN101105894A (zh) 多功能语言学习机
FI20010792A (fi) Käyttäjäriippumattoman puheentunnistuksen järjestäminen
Hussain et al. Supporting deafblind in congregational prayer using speech recognition and vibro-tactile stimuli
Karkar et al. Mobile assistive technologies for visual impaired users: A survey
CN101494816A (zh) 一种适用于全聋患者的助听装置与方法
BR102015017668A2 (pt) sistema e método para tradução de linguagens de sinais em vozes sintéticas
Reed et al. Haptic Communication of Language
KR102112822B1 (ko) 보완 대체 의사소통 시스템
CN111009234B (zh) 语音转换方法、装置和设备
Gul et al. Two-way smart communication system for deaf & dumb and normal people
Loomis Sensory replacement and sensory substitution: Overview and prospects for the future
Neerincx et al. Attuning speech-enabled interfaces to user and context for inclusive design: technology, methodology and practice
Shanmugam et al. A critical analysis and review of assistive technology: advancements, laws, and impact on improving the rehabilitation of dysarthric patients
JP2014228644A (ja) 報知装置
JP2007147855A (ja) 発声発音練習支援システム
CN107203539B (zh) 复数字词学习机的语音评测装置及其评测与连续语音图像化方法
Kaczmarek et al. LEON KACZMAREK'S THEORY OF SPEECH AND ITS SIGNIFICANCE FOR CONTEMPORARY NEUROPSYCHOLOGY.
Saleem et al. Full duplex smart system for Deaf & Dumb and normal people
Powers et al. MANA for the Ageing
JP2022525341A (ja) 聴覚障害者のための触覚的および視覚的意思疎通システム
Lee et al. AI TTS smartphone app for communication of speech impaired people
Annamalai et al. User Acceptance of'Let's Talk Now'Mobile App for Dysarthric Children.
JP2016146870A (ja) 救命支援装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081002

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100921

A521 Written amendment

Effective date: 20101104

Free format text: JAPANESE INTERMEDIATE CODE: A523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110413

A02 Decision of refusal

Effective date: 20110803

Free format text: JAPANESE INTERMEDIATE CODE: A02