JP2006098810A - 通訳装置、通訳システム、通訳方法、その通訳方法をコンピュータに実行させることができるプログラム、及びそのプログラムを記録した記録媒体 - Google Patents

通訳装置、通訳システム、通訳方法、その通訳方法をコンピュータに実行させることができるプログラム、及びそのプログラムを記録した記録媒体 Download PDF

Info

Publication number
JP2006098810A
JP2006098810A JP2004285709A JP2004285709A JP2006098810A JP 2006098810 A JP2006098810 A JP 2006098810A JP 2004285709 A JP2004285709 A JP 2004285709A JP 2004285709 A JP2004285709 A JP 2004285709A JP 2006098810 A JP2006098810 A JP 2006098810A
Authority
JP
Japan
Prior art keywords
interpreter
sign language
content
user
expressed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004285709A
Other languages
English (en)
Inventor
Michito Matsumoto
三千人 松本
Akito Teraoka
章人 寺岡
Toru Ninomiya
徹 二宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TISCO JAPAN KK
Original Assignee
TISCO JAPAN KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TISCO JAPAN KK filed Critical TISCO JAPAN KK
Priority to JP2004285709A priority Critical patent/JP2006098810A/ja
Publication of JP2006098810A publication Critical patent/JP2006098810A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】 手話通訳において誤訳のような表現上の差異が生じることを前提としつつも、ろう者に対してその表現上の差異を正す機会を担保する通訳方法等を提供する。
【解決手段】 通訳方法では、ろう者のようなユーザが表現した手話の内容が通訳者により通訳されて音声によって表現され、音声認識部によりその音声によって表現された内容を自動音声認識し、認識された内容をユーザが視認できるように文字によって表示し(ステップS2)、表示された内容と表現した手話の内容との間に表現上の差異が生じていることをユーザが認識した結果(ステップS3)、ユーザが所定の入力操作を行うことにより表現上の差異が生じている旨を通訳者に報知する(ステップS4)。
【選択図】 図4

Description

本発明は、通訳装置、通訳システム、通訳方法、その通訳方法をコンピュータに実行させることができるプログラム、及びそのプログラムを記録した記録媒体に関し、特に手話についての通訳装置等に関する。
近年、ろう者或いはろうあ者のような聴覚障害者と健聴者との間を通訳するサービスが提供されてきている。その通訳を介するコミュニケーションの際には、ろう者等が手話を用いて表現された内容を通訳者が見て、内容を理解した通訳者が健聴者に対して音声によりその内容を伝え、また健聴者が音声により表現した内容を通訳者が聞いて、内容を理解した通訳者がろう者等に対して手話を用いてその内容が伝えられる。
このようなサービスでは、例えば通訳者をセンターに配置するためにテレビ電話が利用されて行われる(非特許文献1、非特許文献2、非特許文献3参照)。
日本経済新聞 2004年3月30日(火曜日) 日刊 毎日新聞 2004年3月30日(火曜日) 日刊 西日本新聞 2004年3月30日(火曜日) 日刊
しかしながら、テレビ等の普及により音声による言語が標準化されてきたため健聴者同士が音声によりコミュニケーションをとることは比較的容易化している一方、ろう者等と通訳者との間では、方言、年齢、育った環境、性格などの違いがそれぞれの手話による表現内容にも反映してしまい、コミュニケーションがとりづらい場合が生じている。特に、初対面同士では、コミュニケーションがとりづらいことが頻繁に生じる可能性が大きい。
その原因には、以下のことが挙げられる。通訳者が健聴者に対してろう者等が手話で表現した内容を音声で伝える場合に誤訳のような表現上の差異を生じさせても、ろう者等は音声による認識が困難なためその差異を把握できない。また、通訳者がろう者等に対して健聴者が音声で表現した内容を手話で伝える場合に誤訳のような表現上の差異を生じさせても、ろう者等はこの場合もその差異を把握できない。
そして、上記誤訳のような表現上の差異が生じてしまい、ろう者等と健聴者間の会話に一旦齟齬が生まれると、その修復は健聴者同士のコミュニケーションの場合とは異なり極めて困難であるという問題がある。このような問題により、場合によってはろう者等は表現上の差異を正すことを諦めてしまうという場合も起こっている。
ゆえに、本発明は、上記誤訳のような表現上の差異が生じることを前提としつつも、ろう者等に対してその表現上の差異を正す機会を担保する通訳装置、通訳システム、通訳方法、その通訳方法をコンピュータに実行させることができるプログラム、及びそのプログラムを記録した記録媒体を提供することを目的とする。
請求項1に係る発明は、通訳装置であって、ユーザが表現した手話の内容が通訳者により通訳されて音声によって表現され、その音声によって表現された内容を自動音声認識する音声認識手段と、前記音声認識手段により認識された内容を前記ユーザが視認できるように文字によって表示する表示手段と、前記表示手段により表示された内容と前記表現した手話の内容との間に表現上の差異が生じていることを前記ユーザが認識した結果、前記ユーザが所定の入力操作を行うことにより表現上の差異が生じている旨を前記通訳者に報知する報知手段と、を備える。
請求項2に係る発明は、請求項1において、前記報知手段が前記ユーザに対しては表現上の差異が生じている旨を視認可能な状態で報知できることを特徴とする。
請求項3に係る発明は、請求項1又は2において、前記報知手段が前記通訳者によって通訳されて音声によって表現された内容を聞く者に対しも表現上の差異が生じている旨を報知することを特徴とする。
請求項4に係る発明は、請求項1において、前記ユーザが表現する手話の内容を録画可能であり、前記音声認識手段が自動音声認識する内容も記録可能であり、前記ユーザが所定の入力操作を行うことに応答して、前記ユーザが表現した内容の時点まで遡って録画すると共に、対応する自動音声認識された内容も記録することを特徴とする。
請求項5に係る発明は、通訳装置であって、音声により表現された内容が通訳者により通訳されて手話によって表現されると共に音声により復唱され、その復唱された内容を自動音声認識する音声認識手段と、前記音声認識手段により認識された内容を手話により会話するユーザが視認できるように文字によって表示する表示手段と、前記表示手段により表示された内容と前記通訳されて手話によって表現された内容との間に表現上の差異が生じていることを前記ユーザが認識した結果、前記ユーザが所定の入力操作を行うことにより表現上の差異が生じている旨を前記通訳者に報知する報知手段と、を備える。
請求項6に係る発明は、請求項5において、前記報知手段が前記ユーザに対しては表現上の差異が生じている旨を視認可能な状態で報知できることを特徴とする。
請求項7に係る発明は、請求項5において、前記通訳者が通訳して手話によって表現される内容を録画可能であり、前記音声認識手段が自動音声認識する内容も記録可能であり、前記ユーザが所定の入力操作を行うことに応答して、前記通訳者が通訳して手話によって表現した内容の時点まで遡って録画すると共に、対応する自動音声認識された内容も記録することを特徴とする。
請求項8に係る発明は、請求項1又は5の通訳装置における音声認識手段及び報知手段を有する通訳者用情報端末と、前記通訳者用情報端末と情報通信ネットワークを介して接続し且つ請求項1又は5の通訳装置における表示手段を有するユーザ用情報端末と、を備える通訳システムである。
請求項9に係る発明は、請求項8において、複数の通訳者のそれぞれの属性を示す属性情報を記録するサーバを備え、前記サーバが前記ユーザ用情報端末の位置情報及び前記各通訳者の属性情報に基づいて決定される通訳者リストであって各通訳者を示す画像付きのリストを作成し、前記ユーザ用情報端末が前記情報通信ネットワークを介して前記サーバが作成したリストを取得して表示可能であることを特徴とする通訳システムである。
請求項10に係る発明は、通訳方法であって、ユーザが表現した手話の内容が通訳者により通訳されて音声によって表現され、音声認識手段がその音声によって表現された内容を自動音声認識するステップと、表示手段が前記音声認識手段により認識された内容を前記ユーザが視認できるように文字によって表示するステップと、前記表示手段により表示された内容と前記表現した手話の内容との間に表現上の差異が生じていることを前記ユーザが認識した結果、報知手段により前記ユーザが所定の入力操作を行うことにより表現上の差異が生じている旨を前記通訳者に報知するステップと、を含む。
請求項11に係る発明は、通訳方法であって、音声により表現された内容が通訳者により通訳されて手話によって表現されると共に音声により復唱され、音声認識手段がその復唱された内容を自動音声認識するステップと、表示手段が前記音声認識手段により認識された内容を手話により会話するユーザが視認できるように文字によって表示するステップと、前記表示手段により表示された内容と前記通訳されて手話によって表現された内容との間に表現上の差異が生じていることを前記ユーザが認識した結果、報知手段により前記ユーザが所定の入力操作を行うことにより表現上の差異が生じている旨を前記通訳者に報知するステップと、を含む。
請求項12に係る発明は、請求項10又は11記載の通訳方法をコンピュータに実行させることが可能なプログラムである。
請求項13に係る発明は、請求項12記載のプログラムをコンピュータが実行することが可能にて記録した記録媒体である。
この発明によれば、ユーザが表現した手話の内容が通訳者により通訳されて音声によって表現され、音声認識手段がその音声によって表現された内容を自動音声認識し、表示手段が音声認識手段により認識された内容をユーザが視認できるように文字によって表示し、表示手段により表示された内容とユーザが表現した手話の内容との間に表現上の差異が生じていることをユーザが認識した結果、報知手段によりユーザが所定の入力操作を行うことにより表現上の差異が生じている旨を通訳者に報知する。また、音声により表現された内容が通訳者により通訳されて手話によって表現されると共に音声により復唱され、音声認識手段がその復唱された内容を自動音声認識し、表示手段が音声認識手段により認識された内容を手話により会話するユーザが視認できるように文字によって表示し、表示手段により表示された内容と通訳されて手話によって表現された内容との間に表現上の差異が生じていることをユーザが認識した結果、報知手段によりユーザが所定の入力操作を行うことにより表現上の差異が生じている旨を通訳者に報知する。したがって、ユーザとしてのろう者等に対してその表現上の差異を正す機会を担保することが可能となる。
この発明によれば、ユーザが表現する手話の内容を録画可能であり、音声認識手段が自動音声認識する内容も記録可能であり、ユーザが所定の入力操作を行うことに応答して、ユーザが表現した内容の時点まで遡って録画すると共に、対応する自動音声認識された内容も記録する。また、通訳者が通訳して手話によって表現される内容を録画可能であり、音声認識手段が自動音声認識する内容も記録可能であり、ユーザが所定の入力操作を行うことに応答して、通訳者が通訳して手話によって表現した内容の時点まで遡って録画すると共に、対応する自動音声認識された内容も記録する。したがって、記録内容から表現上の差異を生じた事例分析をすることも可能となる。
図1は、本発明の実施の形態に係る通訳システムの概略を示した図である。
通訳システム1は、手話通訳センター3と、手話通訳センター5と、在宅手話通訳者39が使用する通訳者用情報端末7と、ろう者用情報端末43と(以下、説明の便宜上、聴覚障害者としての「ろう者」、「ろうあ者」のうちの「ろう者」を例にとる。)、ろう者用情報端末49と、ろう者用情報端末55と、ろう者用情報端末61とを備える。手話通訳センター3内には、手話通訳者19が使用する通訳者用情報端末21と、手話通訳者23が使用する通訳者用情報端末25と、サーバー27とが設けられている。手話通訳センター5内には、手話通訳者29が使用する通訳者用情報端末31と、手話通訳者33が使用する通訳者用情報端末35と、サーバー37とが設けられている。これらは、情報通信ネットワーク9を介して接続し、音声データと画像データ(動画データを含む)を互いに通信できる。
ろう者用情報端末43はろう者41に対して応対する対応者45が居る例えば店舗11に設置される。ろう者用情報端末49はろう者47に対して応対する対応者51が居る例えば空港13に設置される。ろう者用情報端末55はろう者53に対して応対する対応者57が居る例えば病院15に設置される。ろう者用情報端末61はろう者59に対して応対する対応者63が居る例えば地方自治体関連施設17に設置される。
図2は、図1の通訳者用情報端末21の構成を説明するための図である。
通訳者用情報端末21は、マイク21a、スピーカ21b、音声認識部21c、報知部21d、記録部21e、及び表示部21fを備え、カメラ22に接続する。通訳者用情報端末25、通訳者用情報端末31、通訳者用情報端末35、通訳者用情報端末7も、同様な構成をしている。
図3は、図1のろう者用情報端末43の構成を説明するための図である。
ろう者用情報端末43は、マイク43a、スピーカ43b、報知部43c、記録部43d、操作部43e、及び表示部43fを備え、カメラ44に接続する。表示部43fには、文字表示領域43gが形成されている。ろう者用情報端末49、ろう者用情報端末55、ろう者用情報端末61も、同様な構成をしている。
以下、図2及び図3に示した各構成の動作について、ろう者41と対応者45との間の会話を手話通訳者19が通訳する場合を例にして説明する。
マイク21aは手話通訳者19の音声を集音する。マイク43aはろう者41に応対する対応者45の音声を集音する。スピーカ21bは、マイク43aが集音した対応者45の音声を発する。スピーカ43bは、マイク21aが集音した手話通訳者19の音声を発する。これにより、対応者45と手話通訳者19との間の音声による会話が可能になっている。
音声認識部21cは手話通訳者19が発した音声を自動音声認識し、表示部43の文字表示領域43gには手話通訳者19が音声にて発した内容が認識結果として文字にて表示される。報知部21dは手話通訳者19が手話通訳の際に誤訳のような表現上の差異を生じさせてしまった場合にその旨を手話通訳者19に報知するものであり、報知部43cは上記旨をろう者41或いは対応者45に報知するものであり、その報知はろう者が上記表現上の差異を認識してボタンのような操作部43eを使った入力操作を行うことに応答して行われる。
なお、報知部21dが手話通訳者19に報知する手法は音、ランプの点滅、点灯、消灯などの手法、可能であれば振動を使った手法でもよいが、報知部43cがろう者41に報知する手法はランプの点滅等の視覚により認識可能な手法が好ましい。また、報知部43cが必ずしもろう者41及び対応者45に対して共通の報知部としての役割を果たす必要はなく、例えば報知部43cはろう者41用とし別の報知手段を対応者45用に設けてもよい。さらに、報知部43cは対応者45用として音により報知するようにしておき、ろう者41用には、手話通訳者19との共用という形で報知部21dをランプという形態とし、或いは報知部21dとは異なる別のランプという形態とし、そのランプがカメラ22により撮像されて表示部43fに映し出されて、点滅等により報知する手法でもよい。
カメラ22は手話通訳者19の姿を撮像するものであり、カメラ44はろう者41の姿を撮像するものであり、カメラ22により撮像された手話通訳者19の姿が表示部43fに映し出され、カメラ44により撮像されたろう者41の姿が表示部21fに映し出され、これらにより手話通訳者19とろう者41とは手話による会話が可能になっている。
記憶部21eと記憶部43dの動作は後述する。
図4は、ろう者41と対応者45との間の会話を手話通訳者19が通訳する場合を例にした通訳処理において、手話通訳者19が誤訳のような表現上の差異を生じさせたときの処理も含めたフロー図である。
まず、ろう者41が対応者45に対して話しかける処理を説明する。
ろう者41がろう者用情報端末43を利用して手話により手話通訳者19に問いかける(ステップS1)。手話通訳者19は、通訳者用情報端末21を利用してろう者41が問いかけた手話内容を理解して、言語表現によってその内容を通訳して音声により対応者45に伝える。その際、手話通訳者19が発した音声内容が音声認識部21cによる自動音声認識により認識されて、その内容が図3の文字表示領域43gに文字表示によりろう者41に示される(ステップS2)。
ろう者41は、文字表示された内容と手話により表現した内容とを比較し、その内容が一致するか否かをチェック可能であり(ステップS3)、手話通訳者19が誤訳のような表現上の差異を生じてしまい、対応者45に伝えるべき内容が適切でないと判断すれば、操作部43eを使った入力操作により報知部21dを動作させて手話通訳者19にその旨を伝えることが可能であり、報知部43cを動作させて対応者45にその旨を伝えることが可能である(ステップS4)。
次に、対応者45がろう者41に対して話かける処理について説明する。
対応者45は、ろう者41から問いかけられた内容を理解して、返答を音声により手話通訳者19に伝える(ステップST1)。手話通訳者19は、その内容を通訳して手話表現によってろう者41に伝える。その際、手話通訳者19は対応者45から聞いた内容を復唱し、復唱された内容は音声認識部21cにより自動音声認識される。手話内容は表示部43fに表示され、自動音声認識された内容は文字表示領域43gに文字表示される(ステップST2)。
ろう者41は、表示された手話内容と文字表示された内容との間に表現上の差異があるときには、操作部43eを使った入力操作により報知部21dを動作させて手話通訳者19にその旨を伝えることが可能であり、報知部43cを動作させて対応者45にその旨を伝えることが可能である(ステップST4)。
このようなろう者41による指摘により、誤訳のような表現上の差違を正す機会がろう者41に担保されることになり、ろう者41が対応者45との間のコミュニケーションを適切に図ることができるばかりか、手話通訳者19との間のコミュニケーションを円滑に図ることも可能になる。
図5は、図4に示したフロー図の処理に加え、図2の記録部21e及び図3の記録部43dが動作する処理も示したフロー図である。以下、図4と異なる処理を主に説明する。
ろう者41が操作部43eを使った入力操作を行うと(ステップS3)、ステップS1における時点まで遡って記録部21e及び記録部43dにより記録が開始され、ステップS1におけるろう者41の手話内容の画像が録画され、ステップS2における文字表示領域43gに示された文字表示内容が記録され、さらにろう者41が正しい通訳がなされたと判断して操作部43eを使った他の入力操作が行われるまでの表示部21fに映し出された画像及び表示部43fに映し出された画像が録画される(ステップS5)。ここで、文字表示領域43gに示される文字表示内容は、文字表示領域43gに映し出される画像として録画されてもよく、音声認識部21cが認識した音声認識データとして記録されてもよい。
同様に、ろう者41が操作部43eを使った入力操作を行うと(ステップST3)、ステップST2における時点まで遡って記録部21e及び記録部43dにより記録が開始され、ステップST2における手話通訳者19の手話内容の画像が録画され、文字表示領域43gに示された文字表示内容が記録され、さらにろう者41が表現上の差違が抑えられて適切な表現となったと判断して操作部43eを使った他の入力操作が行われるまでの表示部21fに映し出された画像及び表示部43fに映し出された画像が録画される(ステップST5)。ここで、文字表示領域43gに示される文字表示内容は、文字表示領域43gに映し出される画像として録画されてもよく、音声認識部21cが認識した音声認識データとして記録されてもよい。
なお、ステップS5において、上記と異なり、ステップS1におけるろう者41の手話内容の画像が録画され、ステップS2における文字表示領域43gに示された文字表示内容が記録される時点で記録(録画)を終えてもよい。同様に、ステップST5においては、上記と異なり、ステップST2における手話通訳者19の手話内容の画像が録画され、文字表示領域43gに示された文字表示内容が記録される時点で記録(録画)を終了してもよい。
また、図2及び図3に示した例では、記録部21e及び記録部43dを設けたが、情報通信ネットワーク9を介して接続しているのでいずれか一方でもよい。さらに、遡って記録する記録部は通訳者用情報端末21及びろう者用情報端末43には設けず、サーバー27のようにデータ管理側に設けてもよい。
このような記録(録画)が行われることにより、事案が蓄えられれば蓄えられるほど手話と音声言語との間の表現上の差違を事例分析できるため、手話の地域性を把握でき、或いはろう者若しくは手話通訳者の個人的な手話の特徴を把握でき、その結果を利用して手話通訳者の能力向上のための訓練を行うこともでき、また後述するろう者と手話通訳者との間のマッチングの向上を図ることができ、さらに好ましい通訳システムの構築を目指すことができる。
図6は、ろう者と手話通訳者とのマッチング処理及びろう者による手話通訳の評価処理を含む手話通訳の全体処理を示した図である。
図1のサーバー27、サーバー37は、複数の手話通訳者19、23、29、33、39のそれぞれの属性を示す属性情報とスケジュール情報を管理し、ろう者41、47、53、59のそれぞれからの通訳サービスの予約を受け付けて管理する。ここで、図6では属性情報65には、氏名、年齢、顔などを写した写真、活動地域、使用手話の種類、手話通訳履歴、ろう者による評価結果データが含まれる。なお、手話通訳履歴は、本サービスにおいていずれのろう者に対してサービスを担当したかについての履歴のほか、本サービス以外のボランティア等での過去の実績についての履歴も含まれる。
図6に戻って、ステップT1では、例えばろう者用情報端末43から通訳サービスを受けるための手話通訳者についての問い合わせが例えばサーバー27に対して行われる。サーバー27は手話通訳者のリストを作成するリスト作成部を有しており、各手話通訳者の写真を含むリストがろう者用情報端末43の表示部43fに表示される。ろう者41は、リストから写真などをもとにして手話通訳者を任意に選択し(ステップT3)、希望する手話通訳者を決定する(ステップT4)。
そして、決定された手話通訳者との間での手話通訳が開始され(ステップT5)、前述した処理により手話通訳サービスが実行されて、その後手話通訳が終了すると(ステップT6)、ろう者による通訳の評価が行われてそのデータ入力により(ステップT7)、サーバー27等はろう者評価についての属性情報をデータ更新する。
このようなろう者と手話通訳者とのマッチング処理及びろう者による手話通訳の評価処理が行われることにより、通訳サービスをろう者にとってより適切なものとできる。
なお、上記ではろう者が手話通訳者を決定可能としたが、初めてこのサービスを受けるろう者にとっては手話通訳者を決定することが困難な場合があるため、例えば選択動作が一定時間行われない場合には提示されたリストにおける第一候補の手話通訳者と自動的に回線が接続してろう者が手話できるようにしてもよい。
また、リストに掲載される手話通訳者は、アクセスしてきたろう者用情報端末の所在地についての位置情報に基づいて決定されてもよい。この場合は、手話における地域性が考慮されたリスト内容となり、地域性に伴う前述した表現上の差違が生じてしまう可能性を抑えることができる。
さらに、リストに掲載される手話通訳者については、事前に各手話通訳者が通訳サービスに従事できる時間帯をサーバー27等に登録しておき、そのスケジュールに合致することも考慮されることが好ましい(図7参照)。
さらに、リストに掲載される手話通訳者については、初めてサービスを利用したろう者に対してID番号(携帯電話番号など)を付与しておき、そのID番号をろう者が入力することにより、過去にサービスを受けた手話通訳者が優先的にリストアップされるようにしてもよい。
図7は、サーバー27にろう者がサービスを受けるための予約を行うこと及びサーバー27に手話通訳者がサービスに従事できる時間帯を登録することをさらに説明するための図である。
ろう者は、携帯電話67或いは自宅のパーソナルコンピュータなどから予約のための電子メールをサーバー27に送ることにより、或いはサーバー27のホームページにアクセスすることにより予約の受付が可能になっている。手話通訳者も、携帯電話67、手話通訳用情報端末21或いは自宅のパーソナルコンピュータなどからサービスに従事できる時間帯の登録のための電子メールをサーバー27に送ることにより、或いはサーバー27のホームページにアクセスすることによりスケジュールの登録が可能になっている。
図8はろう者用情報端末にカメラが2台接続する場合を示す図であり、図9はこの場合において通訳者用情報端末の表示部の状態を示す図である。
図2及び図3とは異なり、ろう者用情報端末43にはカメラ44aとカメラ44bとが接続され、通訳者用情報端末の表示部21fにはカメラ44aの映像とカメラ44bの映像が映し出される。このように2カメラにすることにより、例えばろう者がカタログ、資料などを使って手話を行う場合であっても、例えばカメラ44aによりろう者の姿を撮像して映し出しつつ、カメラ44bによりカタログ等を映し出すことができる。
図10は、図3のカメラ44或いは図8のカメラ44a及びカメラ44bを遠隔操作するための構成を示すブロック図である。
手話通訳者19は、通訳用情報端末21に内蔵された或いは外部接続するろう者カメラ制御装置67を用いてろう者用情報端末43に内蔵された或いは外部接続するパン制御部69、チルト制御部71、ズーム制御部73に制御信号を送り、ろう者用情報端末43に接続するカメラ44(或いはカメラ44a、44b)の向き、ズーム等を遠隔操作可能である。このような遠隔操作により、ろう者がカメラ位置などを考慮していない場合であっても、手話に最適な状況へのセッティングが可能となる。
なお、上記の実施の形態では、ろう者用情報端末には手話通訳者側の映像のみを表示させ、通訳者用情報端末にはろう者側の映像のみを表示させることとしたが、これに限らない。例えば、ろう者用情報端末と通訳者用情報端末とのそれぞれに、手話通訳者側の映像及びろう者側の映像の両方が表示されてもよい。さらに、ろう者用情報端末に1台のカメラを追加接続し、手話通訳者側の映像として手話通訳者に関する映像に加えて対応者に関する映像を表示してもよい。
また、上記実施の形態では、ろう者用情報端末と通訳者用情報端末を情報通信ネットワークで接続したが、ろう者、手話通訳者及び対応者のいずれもが互いに遠方に居るなどの理由から対応者用情報端末も情報通信ネットワークに接続したシステム構成であってもよい。
さらに、上記実施の形態では、手話通訳者の数に限りがあることから手話通訳者を手話通訳センターに配置してろう者と手話通訳者とが互いに遠方に居ることを想定したシステム構成としたが、ろう者、手話通訳者及び対応者が例えば同じ店舗内にて1台の情報端末を通訳装置として利用した形態であってもよい。その場合には、図2に示した構成と図3に示した構成のうち、音声認識部及び表示部における文字表示領域以外の構成は必要に応じて共通化等により簡素化されればよい。
本発明の実施の形態に係る通訳システムの概略を示した図である。 図1の通訳者用情報端末21の構成を説明するための図である。 図1のろう者用情報端末43の構成を説明するための図である。 ろう者41と対応者45との間の会話を手話通訳者19が通訳する場合を例にした通訳処理において、手話通訳者19が誤訳のような表現上の差異を生じさせたときの処理も含めたフロー図である。 図4に示したフロー図の処理に加え、図2の記録部21e及び図3の記録部43dが動作する処理も示したフロー図である。 ろう者と手話通訳者とのマッチング処理及びろう者による手話通訳の評価処理を含む手話通訳の全体処理を示した図である。 サーバー27にろう者がサービスを受けるための予約を行うこと及びサーバー27に手話通訳者がサービスに従事できる時間帯を登録することをさらに説明するための図である。 ろう者用情報端末にカメラが2台接続する場合を示す図である。 図8の場合において通訳者用情報端末の表示部の状態を示す図である。 図3のカメラ44或いは図8のカメラ44a及びカメラ44bを遠隔操作するための構成を示すブロック図である。
符号の説明
1 通訳システム
7、21、25、31、35 通訳者用情報端末
21c 音声認識部
21d、43c 報知部
27、37 サーバー
43、49、55、61 ろう者用情報端末
43e 操作部
43g 文字表示領域


Claims (13)

  1. 通訳装置であって、
    ユーザが表現した手話の内容が通訳者により通訳されて音声によって表現され、その音声によって表現された内容を自動音声認識する音声認識手段と、
    前記音声認識手段により認識された内容を前記ユーザが視認できるように文字によって表示する表示手段と、
    前記表示手段により表示された内容と前記表現した手話の内容との間に表現上の差異が生じていることを前記ユーザが認識した結果、前記ユーザが所定の入力操作を行うことにより表現上の差異が生じている旨を前記通訳者に報知する報知手段と、
    を備えた通訳装置。
  2. 前記報知手段は、前記ユーザに対しては表現上の差異が生じている旨を視認可能な状態で報知できることを特徴とする、請求項1記載の通訳装置。
  3. 前記報知手段は、前記通訳者によって通訳されて音声によって表現された内容を聞く者に対しも表現上の差異が生じている旨を報知することを特徴とする、請求項1又は2記載の通訳装置。
  4. 前記ユーザが表現する手話の内容を録画可能であり、
    前記音声認識手段が自動音声認識する内容も記録可能であり、
    前記ユーザが所定の入力操作を行うことに応答して、前記ユーザが表現した内容の時点まで遡って録画すると共に、対応する自動音声認識された内容も記録することを特徴とする、請求項1記載の通訳装置。
  5. 通訳装置であって、
    音声により表現された内容が通訳者により通訳されて手話によって表現されると共に音声により復唱され、その復唱された内容を自動音声認識する音声認識手段と、
    前記音声認識手段により認識された内容を手話により会話するユーザが視認できるように文字によって表示する表示手段と、
    前記表示手段により表示された内容と前記通訳されて手話によって表現された内容との間に表現上の差異が生じていることを前記ユーザが認識した結果、前記ユーザが所定の入力操作を行うことにより表現上の差異が生じている旨を前記通訳者に報知する報知手段と、
    を備えた通訳装置。
  6. 前記報知手段は、前記ユーザに対しては表現上の差異が生じている旨を視認可能な状態で報知できることを特徴とする、請求項5記載の通訳装置。
  7. 前記通訳者が通訳して手話によって表現される内容を録画可能であり、
    前記音声認識手段が自動音声認識する内容も記録可能であり、
    前記ユーザが所定の入力操作を行うことに応答して、前記通訳者が通訳して手話によって表現した内容の時点まで遡って録画すると共に、対応する自動音声認識された内容も記録することを特徴とする、請求項5記載の通訳装置。
  8. 請求項1又は5の通訳装置における音声認識手段及び報知手段を有する通訳者用情報端末と、
    前記通訳者用情報端末と情報通信ネットワークを介して接続し且つ請求項1又は5の通訳装置における表示手段を有するユーザ用情報端末と、
    を備えた通訳システム。
  9. 複数の通訳者のそれぞれの属性を示す属性情報を記録するサーバを備え、
    前記サーバは、前記ユーザ用情報端末の位置情報及び前記各通訳者の属性情報に基づいて決定される通訳者リストであって各通訳者を示す画像付きのリストを作成し、
    前記ユーザ用情報端末は、前記情報通信ネットワークを介して前記サーバが作成したリストを取得して表示可能であることを特徴とする、請求項8記載の通訳システム。
  10. 通訳方法であって、
    ユーザが表現した手話の内容が通訳者により通訳されて音声によって表現され、音声認識手段がその音声によって表現された内容を自動音声認識するステップと、
    表示手段が前記音声認識手段により認識された内容を前記ユーザが視認できるように文字によって表示するステップと、
    前記表示手段により表示された内容と前記表現した手話の内容との間に表現上の差異が生じていることを前記ユーザが認識した結果、報知手段により前記ユーザが所定の入力操作を行うことにより表現上の差異が生じている旨を前記通訳者に報知するステップとを含む、通訳方法。
  11. 通訳方法であって、
    音声により表現された内容が通訳者により通訳されて手話によって表現されると共に音声により復唱され、音声認識手段がその復唱された内容を自動音声認識するステップと、
    表示手段が前記音声認識手段により認識された内容を手話により会話するユーザが視認できるように文字によって表示するステップと、
    前記表示手段により表示された内容と前記通訳されて手話によって表現された内容との間に表現上の差異が生じていることを前記ユーザが認識した結果、報知手段により前記ユーザが所定の入力操作を行うことにより表現上の差異が生じている旨を前記通訳者に報知するステップとを含む、通訳方法。
  12. 請求項10又は11記載の通訳方法をコンピュータに実行させることが可能なプログラム。
  13. 請求項12記載のプログラムをコンピュータが実行することが可能にて記録した記録媒体。









JP2004285709A 2004-09-30 2004-09-30 通訳装置、通訳システム、通訳方法、その通訳方法をコンピュータに実行させることができるプログラム、及びそのプログラムを記録した記録媒体 Pending JP2006098810A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004285709A JP2006098810A (ja) 2004-09-30 2004-09-30 通訳装置、通訳システム、通訳方法、その通訳方法をコンピュータに実行させることができるプログラム、及びそのプログラムを記録した記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004285709A JP2006098810A (ja) 2004-09-30 2004-09-30 通訳装置、通訳システム、通訳方法、その通訳方法をコンピュータに実行させることができるプログラム、及びそのプログラムを記録した記録媒体

Publications (1)

Publication Number Publication Date
JP2006098810A true JP2006098810A (ja) 2006-04-13

Family

ID=36238682

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004285709A Pending JP2006098810A (ja) 2004-09-30 2004-09-30 通訳装置、通訳システム、通訳方法、その通訳方法をコンピュータに実行させることができるプログラム、及びそのプログラムを記録した記録媒体

Country Status (1)

Country Link
JP (1) JP2006098810A (ja)

Similar Documents

Publication Publication Date Title
CN112075075B (zh) 用于促进远程会议的方法和计算机化智能助理
US9971984B2 (en) Observation platform for using structured communications
US8515728B2 (en) Language translation of visual and audio input
KR101917648B1 (ko) 단말 및 그 제어 방법
US20170277993A1 (en) Virtual assistant escalation
KR102002979B1 (ko) 사람-대-사람 교류들을 가능하게 하기 위한 헤드 마운티드 디스플레이들의 레버리징
US9053096B2 (en) Language translation based on speaker-related information
WO2018043114A1 (ja) 情報処理装置、情報処理方法、プログラム
JP6432177B2 (ja) 対話型通信システム、端末装置およびプログラム
JP2019533181A (ja) 通訳装置及び方法(device and method of translating a language)
JP2018205638A (ja) 集中度評価機構
CN112653902A (zh) 说话人识别方法、装置及电子设备
CN101485188A (zh) 用于提供语音分析服务的方法和系统及其装置
JP7207425B2 (ja) 対話装置、対話システムおよび対話プログラム
EP2503545A1 (en) Arrangement and method relating to audio recognition
CN111261139A (zh) 文字拟人化播报方法及系统
JP2017064853A (ja) ロボット、コンテンツ決定装置、コンテンツ決定方法、及びプログラム
JP2010109898A (ja) 撮影制御装置、撮影制御方法及びプログラム
JPWO2017175442A1 (ja) 情報処理装置、および情報処理方法
US11318373B2 (en) Natural speech data generation systems and methods
JP2019015837A (ja) 猫の性格を持つ会話型ロボット及び猫の性格を発現させる対話管理プログラム
WO2017051577A1 (ja) 感情誘導システム、および感情誘導方法
JP2006030513A (ja) 教育支援装置及び教育情報管理サーバ
US9697851B2 (en) Note-taking assistance system, information delivery device, terminal, note-taking assistance method, and computer-readable recording medium
CN112565913B (zh) 视频通话方法、装置和电子设备