JP2009175803A - 障がい者向けパーソナルコンピュータ要約者支援方法及び装置及びプログラム - Google Patents

障がい者向けパーソナルコンピュータ要約者支援方法及び装置及びプログラム Download PDF

Info

Publication number
JP2009175803A
JP2009175803A JP2008010866A JP2008010866A JP2009175803A JP 2009175803 A JP2009175803 A JP 2009175803A JP 2008010866 A JP2008010866 A JP 2008010866A JP 2008010866 A JP2008010866 A JP 2008010866A JP 2009175803 A JP2009175803 A JP 2009175803A
Authority
JP
Japan
Prior art keywords
instruction
information
pronoun
summarizer
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008010866A
Other languages
English (en)
Inventor
Shigeyoshi Iizuka
重善 飯塚
Noboru Onishi
昇 大西
Yoshinori Takeuchi
義則 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagoya University NUC
Nippon Telegraph and Telephone Corp
Original Assignee
Nagoya University NUC
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagoya University NUC, Nippon Telegraph and Telephone Corp filed Critical Nagoya University NUC
Priority to JP2008010866A priority Critical patent/JP2009175803A/ja
Publication of JP2009175803A publication Critical patent/JP2009175803A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)

Abstract

【課題】指示代名詞が含まれる発話音声から聴覚障がい者に提示する要約を作成する際に、指示代名詞に対応する図、写真、式等も含めた要約を作成する。
【解決手段】本発明は、取得した話者音声情報から指示代名詞及び指示代名詞の指示対象カテゴリを抽出し、取得した話者映像情報から指示動作を抽出し、描画情報から指示対象候補を抽出し、指示代名詞及び指示代名詞の指示対象カテゴリと、指示対象候補を合成して、描画情報認識結果を生成し、入力テキストから指示代名詞を検出し、指示代名詞の指示対象カテゴリと描画情報認識結果との適合性に基づいて、指示対象を絞り込み、表示手段に表示し、要約者によって選択された指示対象を入力テキストと共に、聴覚障がい者の表示装置に適切な形式で表示する。
【選択図】図1

Description

本発明は、障がい者向けパーソナルコンピュータ(PC)要約者支援方法及び装置及びプログラムに係り、特に、聴覚障がい者に対する情報保障のための、講演・会議・講義・研究発表会などにおけるパーソナルコンピュータ(PC)要約投入者に対する障がい者向けパーソナルコンピュータ要約者支援方法及び装置及びプログラムに関する。
近年、講演会・講義・研究発表会・会議における聴覚障がい者に提供する情報保障のため、発話内容をPCなどで要約テキスト投入し、補助情報として表示する方式が増えてきつつある。ここで、通常の要約は、話者のいる会場で作業が行われているが、要約者の利便性を鑑み、ネットワーク通じて要約者が遠隔地より要約テキストを投入するシステムも実現されつつある(例えば、非特許文献1参照)。
今後は、このような情報保障に関する技術、システムは、ユニバーサルデザイン的な観点からますます、普及させていく必要がある。
「聴覚障がい者の情報保障におけるパソコン要約筆記入力者に対するキーワード提示」加藤、他、ヒューマンインタフェース学会論文誌、Vol.9, No.2, pp.125-133 (2007).
しかしながら、このような従来の遠隔地からのPC要約方法・装置では、要約テキストが表示されるまでに、無視できない時間差(10秒前後)が生じたり、何を指しているのかが見えなかったりしており、このため、指示代名詞(「この式」「こちらの図」「この方式」など)が、どのような対象を指し示しているかが不明となるため、聴覚障がい者の理解を著しく阻害していた。あるいは、要約者自らが、指示代名詞の指示対象を特定し、投入要約テキストにできる範囲で含めなくてはならないという過剰な負荷が要約者にかかっていた。
本発明は、上記の点に鑑みなされたもので、要約テキストの表示時間差のため、聴覚障がい者の理解を著しく低下させる、ないしは、要約者の投入稼動を著しく増大させる、指示代名詞の使用について、指示対象候補を推定・提示し、最終的に選択された正解指示対象を要約テキストない、または、補助情報として表示することによって、聴覚障がい者の著しい理解低下やPC要約者の稼動増大を解消することが可能な障がい者向けPC要約者支援方法及び装置及びプログラムを提供することを目的とする。
より具体的には、話者の描画情報を分析し、必要に応じて発生情報や話者動作映像情報を利用して、指示対象となりうる候補をセグメント化し、話者動作映像情報、発声情報または要約者投入テキスト情報の少なくとも一つから指示代名詞を検出し、指示対象候補を要約者に提示・選択させることによって、正解指示対象を取得し、聴覚障がい者への表示テキスト内、または、補助情報として適切に表示するための障がい者向けPC要約者支援方法及び装置及びプログラムを提供することを目的とする。
図1は、本発明の原理構成図である。
本発明(請求項1)は、聴覚障がい者に対する情報保障のためのPC要約者による要約の投入を支援する障がい者向けPC要約者支援方法であって、
話者音声情報を取得して、該話者音声情報から指示代名詞及び該指示代名詞の指示対象カテゴリを抽出する指示音声推定ステップ(ステップ1)と、
話者映像情報と描画情報を取得して、該話者映像情報から指示動作を抽出し、該描画情報から必要に応じて話者動作映像情報と発声情報のうちいずれか1つ以上を利用して、指示対象候補を抽出する指示動作推定ステップ(ステップ2)と、
指示音声推定ステップ(ステップ1)で抽出された指示代名詞及び指示代名詞の指示対象カテゴリと、指示対象候補抽出ステップ(ステップ2)で抽出された指示対象候補を合成して、描画情報認識結果を生成する指示推定情報合成ステップ(ステップ3)と、
要約者から入力された指示代名詞と指示対象カテゴリが含まれる入力テキストから指示代名詞を検出する指示代名詞検出ステップ(ステップ4)と、
指示代名詞検出ステップで検出された指示代名詞の指示対象カテゴリと描画情報認識結果の指示対象カテゴリとの適合性に基づいて、指示対象を絞り込み(ステップ5)、表示手段に表示する絞込みステップ(ステップ6)と、
表示手段に表示された指示対象から要約者によって選択された指示対象を入力テキストと共に、聴覚障がい者の表示装置に適切な形式で表示する指示対象表示ステップ(ステップ7)と、を行う。
また、本発明(請求項2)は、指示音声推定ステップ(ステップ1)において、話者音声情報から指示発話の尤度を測定し、
指示動作推定ステップ(ステップ2)において、話者映像情報から指示動作である尤度を計算し、
指示推定情報合成ステップ(ステップ3)において、指示発話の尤度と指示動作である尤度の和が所定の値より大きい場合に、指示発話と判定し、指示動作推定ステップ(ステップ2)で抽出された指示対象候補と指示音声推定ステップ(ステップ1)で抽出されたカテゴリ情報とを描画情報認識結果とする。
また、本発明(請求項3)は、絞込みステップ(ステップ6)において、
指示代名詞のカテゴリ情報と、描画情報認識結果のカテゴリ情報との適合度を求め、上位N個の指示対象候補、または、該適合度が所定のレベルに達した指示対象候補を選択し、表示手段に表示する。
図2は、本発明の原理構成図である。
本発明(請求項4)は、聴覚障がい者に対する情報保障のためのPC要約者による要約の投入を支援する障がい者向けPC要約者支援装置であって、
話者音声情報を取得して、該話者音声情報から指示代名詞及び該指示代名詞の指示対象カテゴリを抽出する指示音声推定手段111と、
話者映像情報と話者の描画情報を取得して、該話者映像情報から指示動作を抽出し、該描画情報から必要に応じて話者動作映像情報と発声情報のうちいずれか1つ以上を利用して、指示対象候補を抽出する指示動作推定手段112と、
指示音声推定手段111で抽出された指示代名詞及び指示代名詞の指示対象カテゴリと、指示動作推定手段112で抽出された指示対象候補を合成して、描画情報認識結果を生成する指示推定情報合成手段113と、
要約者から入力された指示代名詞と指示対象カテゴリが含まれる入力テキストから指示代名詞を検出する指示代名詞検出手段121と、
指示代名詞の指示対象カテゴリと描画情報認識結果との適合性に基づいて、指示対象を絞り込み、表示手段に表示し、該表示手段に表示された該指示対象から要約者によって選択された指示対象を入力テキストと共に、聴覚障がい者の表示装置に適切な形式で表示する指示対象候補絞込み・提示手段122と、を有する。
また、本発明(請求項5)は、指示音声推定手段111において、話者音声情報から指示発話の尤度を測定する手段を含み、
指示動作推定手段112において、話者映像情報から指示動作である尤度を計算する手段を含み、
指示推定情報合成手段113において、指示発話の尤度と指示動作である尤度の和が所定の値より大きい場合に、指示発話と判定し、指示動作推定手段112で抽出された指示対象候補と指示音声推定手段111で抽出されたカテゴリ情報とを描画情報認識結果として、指示対象候補絞込み・提示手段122に出力する手段を含む。
また、本発明(請求項6)は、指示対象候補絞込み・提示手段122において、
指示代名詞のカテゴリ情報と、描画情報認識結果のカテゴリ情報との適合度を求め、上位N個の指示対象候補、または、該適合度が所定のレベルに達した指示対象候補を選択し、表示手段に表示する手段を含む。
本発明(請求項7)は、請求項4乃至6のいずれか1項に記載の障がい者向けPC要約者支援装置を構成する各手段としてコンピュータを機能させる障がい者向けPC要約者支援プログラムである。
上記のように、本発明によれば、時間差の生じている要約テキスト内の指示代名詞の指示対象(図、写真、式など)が具体的な形で聴覚障がい者に提示され、理解のしやすさを飛躍的に向上させることができる。あるいは、従来要約者が、可能な範囲で指示代名詞の指示対象を自ら推定し、投入テキストに反映させていた稼動を軽減することが可能となる。
以下、図面と共に本発明の実施の形態を説明する。
以下の説明において、「話者」とは講演・会議・講義・研究発表会において、発話している人物を指し、「発声」とは、話者の発話音声そのものを指す。「要約者」とは、発声を要約し、その内容を文字でPCに投入するPC要約者、及び、PC要約原稿をPCにて編集するPC要約編集者を指す。話者が黒板などに記述する板書情報やPCを利用してプレゼンテーションを行っているプレゼンテーションコンテンツそのものなどを、一括して「描画情報」と呼ぶ。
本実施の形態では、指示対象の候補を抽出する際に、描画情報と音声情報の両方を利用した場合である。
図3は、本発明の一実施の形態における障がい者向けPC用役者支援システムの構成を示す。同図に示す障がい者向けPC要約者支援システム100は、指示情報推定装置110と要約者・編集者入出力端末120から構成される。
指示情報推定装置110は、話者音声情報11、話者映像情報12、描画情報13が格納された講義情報DB10及び要約者・編集者入出力端末120に接続され、講義情報DB10からこれらの情報を取得し、処理結果を要約者・編集者入出力端末に出力する。
要約者・編集者入出力端末120は、PC要約結果表示装置20に接続され、処理された結果をPC要約結果表示装置20に出力する。
図4は、本発明の一実施の形態における指示情報推定装置の構成を示す。指示情報推定装置110は、指示音声推定部111、指示動作推定部112、指示推定情報合成部113から構成される。
指示音声推定部111は、講義情報DB10から話者音声情報11を取得し、指示発話の尤度を測定し、図や写真や式などの指示対象物のカテゴリを抽出する。なお、指示音声推定部111は、測定された尤度を一時的に格納するメモリ(図示せず)を有する。
指示動作推定部112は、講義情報DB10から話者映像情報12を取得し、話者映像情報12から指示動作である尤度を計算し、講義情報DB10の描画情報13を取得して指示対象候補を少なくとも一つ抽出する。なお、指示動作推定部112は、計算された尤度を一時的に格納するメモリ(図示せず)を有する。
指示推定情報合成部113は、指示音声推定部111と指示動作推定部112で求められた2つの尤度の和によって指示発話尤度を計算し、当該指示発話尤度が所定の閾値より大きいとき『指示発話』であると判定され、指示音声推定部111で抽出されたカテゴリ情報を要約者・編集者入出力端末120に送る。
図5は、本発明の一実施の形態における要約者・編集者入出力端末の構成を示す。同図に示す要約者・編集者入出力端末120は、指示代名詞検出部121と指示対象候補絞込み・提示部122から構成される。
指示代名詞検出部121は、要約者または、編集者からテキストが入力されると、入力テキスト中から指示代名詞(指示連体詞)を検出し、当該指示代名詞に続く図や写真、式などのカテゴリ情報と共に指示対象候補絞込み・提示部122に送る。
指示対象候補絞込み・提示部122は、指示情報推定装置110の指示推定情報合成部113から取得した指示対象候補のカテゴリ情報と指示代名詞検出部121で検出された指示代名詞のカテゴリ情報とのマッチングを行い、適合度を計算し、指示対象候補毎にメモリ(図示せず)に格納する。当該適合度の上位N個の指示対象候補または、適合度が所定のレベルに達した指示対象候補を選択して、要約者・編集者入出力端末120の画面上に提示する。これにより、要約者または編集者は、適切なものを指示対象候補から選択してする。指示対象候補絞込み・提示部122は、選択された候補を適切な大きさに編集してPC要約結果表示装置20に出力する。
次に、上記の障がい者向けPC要約者支援システムの一連の動作を説明する。
最初に、指示情報推定装置110の動作を説明する。
図6は、本発明の一実施の形態における指示情報推定装置の処理のフローチャートである。
ステップ101) 指示情報推定装置110の指示音声推定部111及び指示動作推定部112は、講義情報DB10から講義情報を取得する。
ステップ102) 指示音声推定部111は、講義情報DB10から取得した発話音声情報から、文献『「音声の感性情報に着目したマルチメディアコンテンツ要約技術」、日高他、インターラクション2003予稿集、pp17-24 (2003)』等の技術を用いて、指示発話の尤度Laを測定し、メモリ(図示せず)に格納する。
ステップ103) さらに、指示音声推定部111は、発話音声情報に付加されている指示対象物のカテゴリ情報(図、写真、式等)を抽出する。
ステップ104) 指示動作推定部112は、講義情報DB10から取得した話者映像情報12から、文献『「講義における教材中の指示対象の抽出」、丸谷、他、電子情報通信学会論文誌、D, Vol. J90-D No.5 pp.1238-1248 (2007)』等の技術を用いて、指示動作である尤度Lvを計算し、メモリ(図示せず)に格納する。
ステップ105) さらに、指示動作推定部112は、文献『「指示棒による指示領域の検出」、先山、他、MIRU2000, Vol. I, pp. I-283-288, 2000』等の技術を用いて、講義情報DB10から取得した描画情報13から指示対象候補を少なくとも1つ抽出する。
ステップ106) 指示推定情報合成部113は、ステップ102で求められた尤度Laとステップ104で求められた尤度Lvをそれぞれメモリ(図示せず)から読み出して、
LP=La+Lv
により指示発話の尤度LPを計算する。
ステップ107) 指示推定情報合成部113は、ステップ106で求められた指示発話の尤度LPが所定の閾値TPより大きいかを判定し、LP>TPである場合には、ステップ108に移行し、LP≦TPである場合は処理を終了する。
ステップ108) 指示推定情報合成部113は、LP>TPである場合は、指示発話と判定し、指示動作推定部112によりステップ105で抽出された指示対象候補と、指示音声推定部111によりステップ103で抽出されたカテゴリ情報が、その指示対象候補のカテゴリ情報として要約者・編集者入出力端末120の指示対象候補絞込み・提示部122に送る。
上記に引き続き、要約者・編集者入出力端末120の動作を説明する。
図7は、本発明の一実施の形態における要約者・編集者入出力端末の処理のフローチャートである。
ステップ201) 要約者・編集者入出力端末120の指示代名詞検出部121は、要約者からのテキスト入力を受け付ける。
ステップ202) 指示代名詞検出部121は、入力テキストから「この、あの、その」などの指示代名詞(指示連体詞)を検出する。
ステップ203) 指示代名詞検出部121は、指示代名詞(指示連体詞)が検出された場合に、その指示代名詞(指示連体詞)を、その指示代名詞(指示連体詞)に続くカテゴリ情報(図、写真、式など)と共に指示対象候補絞込み部122に送る。
ステップ204) 指示対象候補絞込み部122は、指示代名詞のカテゴリ情報と、ステップ108において指示音声推定部111から送られてきた指示対象候補のカテゴリ情報とのマッチングを行い、適合度Fを計算し、メモリ(図示せず)に格納する。
ステップ205) 指示対象候補絞込み部122は、メモリ(図示せず)から上位Nc個の指示対象候補、もしくは、適合度が予め決められたレベルLcに達した指示対象候補を選択する。
ステップ206) ステップ205で選択された指示対象候補を要約者・編集者入出力端末120の画面上に表示する。
以降、要約者または編集者は、指示代名詞の対象として適切なものを候補より選択する。これにより、指示対象候補絞込み部122は、選択された候補(図、写真、式等)は、適切な大きさにスケールされ、投入テキストと共に、PC要約結果表示装置20に出力される。
PC要約結果表示装置20に表示された例を図8に示す。図8の表示例では、テキスト情報と表示サイズが調整されたグラフや写真が表示されている。
上記のように、話者の発生に含まれる指示代名詞の指示対象候補(図、写真、式など)を要約者の端末上に表示し、要約者に選択させることにより、要約者の投入稼動を低減することができ、また、要約者により選択された指示対象を聴覚障がい者の表示装置に表示することにより、時間差があり、これまで理解しにくかった要約テキスト情報が、より理解しやすい内容となる。
なお、上記の実施の形態では、指示情報推定装置110と要約者・編集者入出力端末120に分けた構成としているが、これらを1つの装置として構成してもよい。
また、指示情報推定装置110と要約者・編集者入出力端末120の各構成要素の動作をプログラムとして構築し、これらの装置として利用されるコンピュータにインストールして実行させる、または、ネットワークを介して流通させることも可能である。
また、構築されたプログラムをハードディスクや、フレキシブルディスク・CD−ROM等の可搬記憶媒体に格納し、コンピュータにインストールする、または、配布することが可能である。
なお、本発明は、上記の実施の形態に限定されることなく、特許請求の範囲内において種々変更・応用が可能である。
本発明は、講演・会議・講義・研究発表会等において、聴覚障がい者向けにプレゼンテーションの要約を作成する際に、当該プレゼンテーションに含まれる指示代名詞に対応する指示対象を抽出する技術はもとより、入力された音声情報から指示代名詞を抽出し、映像情報から当該指示代名詞に対応する内容を抽出する技術に適用可能である。
本発明の原理を説明するための図である。 本発明の原理構成図である。 本発明の一実施の形態における障がい者向けPC要約支援システムの構成図である。 本発明の一実施の形態における指示情報推定装置の構成図である。 本発明の一実施の形態における要約者・編集者入出力端末の構成図である。 本発明の一実施の形態における指示情報推定装置の処理のフローチャートである。 本発明の一実施の形態における要約者・編集者入出力端末の処理のフローチャートである。 本発明の一実施の形態におけるPC要約結果表示装置に表示される選択された指示対象候補の例である。
符号の説明
10 講義情報DB
11 話者音声情報
12 話者映像情報
13 描画情報
20 PC要約結果表示装置
100 障がい者向けPC要約者支援システム
110 指示情報推定装置
111 指示音声推定手段、指示音声推定部
112 指示動作推定手段、指示動作推定部
113 指示推定情報合成手段、指示推定情報合成部
120 要約者・編集者入出力端末
121 指示代名詞検出手段、指示代名詞検出部
122 指示対象候補絞込み・表示手段、指示対象候補絞込み・提示部

Claims (7)

  1. 聴覚障がい者に対する情報保障のためのパーソナルコンピュータ(PC)要約者による要約の投入を支援する障がい者向けPC要約者支援方法であって、
    話者音声情報を取得して、該話者音声情報から指示代名詞及び害指示代名詞の指示対象カテゴリを抽出する指示音声推定ステップと、
    話者映像情報と話者の描画情報を取得して、該話者映像情報から指示動作を抽出し、該描画情報から必要に応じて話者動作映像情報と発声情報のうちいずれか1つ以上を利用して、指示対象候補を抽出する指示動作推定ステップと、
    前記指示音声推定ステップで抽出された前記指示代名詞及び前記指示代名詞の指示対象カテゴリと、前記指示動作推定ステップで抽出された前記指示対象候補を合成して、描画情報認識結果を生成する指示推定情報合成ステップと、
    前記要約者から入力された指示代名詞と指示対象カテゴリが含まれる入力テキストから指示代名詞を検出する指示代名詞検出ステップと、
    前記指示代名詞検出ステップで検出された前記指示代名詞の指示対象カテゴリと前記描画情報認識結果の指示対象カテゴリとの適合性に基づいて、指示対象を絞り込み、表示手段に表示する絞込みステップと、
    前記表示手段に表示された前記指示対象から前記要約者によって選択された指示対象を前記入力テキストと共に、聴覚障がい者の表示装置に適切な形式で表示する指示対象表示ステップと、
    を行うことを特徴とする障がい者向けPC要約者支援方法。
  2. 前記指示音声推定ステップにおいて、前記話者音声情報から指示発話の尤度を測定し、
    前記指示動作推定ステップにおいて、前記話者映像情報から指示動作である尤度を計算し、
    前記指示推定情報合成ステップにおいて、前記指示発話の尤度と前記指示動作である尤度の和が所定の値より大きい場合に、指示発話と判定し、前記指示動作推定ステップで抽出された指示対象候補と、前記指示音声推定ステップで抽出されたカテゴリ情報を前記描画情報認識結果とする
    請求項1記載の障がい者向けPC要約者支援方法。
  3. 前記絞込みステップにおいて、
    前記指示代名詞のカテゴリ情報と、前記描画情報認識結果のカテゴリ情報との適合度を求め、上位N個の指示対象候補、または、該適合度が所定のレベルに達した指示対象候補を選択し、前記表示手段に表示する
    請求項1記載の障がい者向けPC要約者支援方法。
  4. 聴覚障がい者に対する情報保障のためのPC要約者による要約の投入を支援する障がい者向けPC要約者支援装置であって、
    話者音声情報を取得して、該話者音声情報から指示代名詞及び害指示代名詞の指示対象カテゴリを抽出する指示音声推定手段と、
    話者映像情報と話者の描画情報を取得して、該話者映像情報から指示動作を抽出し、該描画情報から必要に応じて話者動作映像情報と発声情報のうちいずれか1つ以上を利用して、指示対象候補を抽出する指示動作推定手段と、
    前記指示音声推定手段で抽出された前記指示代名詞及び前記指示代名詞の指示対象カテゴリと、前記指示動作推定手段で抽出された前記指示対象候補を合成して、描画情報認識結果を生成する指示推定情報合成手段と、
    前記要約者から入力された指示代名詞と指示対象カテゴリが含まれる入力テキストから指示代名詞を検出する指示代名詞検出手段と、
    前記指示代名詞検出手段で検出された前記指示代名詞の指示対象カテゴリと前記描画情報認識結果の指示対象カテゴリとの適合性に基づいて、指示対象を絞り込み、表示手段に表示し、該表示手段に表示された該指示対象から前記要約者によって選択された指示対象を前記入力テキストと共に、聴覚障がい者の表示装置に適切な形式で表示する指示対象候補絞込み・提示手段と、
    を有することを特徴とする障がい者向けPC要約者支援装置。
  5. 前記指示音声推定手段は、前記話者音声情報から指示発話の尤度を測定する手段を含み、
    前記指示動作推定手段は、前記話者映像情報から指示動作である尤度を計算する手段を含み、
    前記指示推定情報合成手段は、前記指示発話の尤度と前記指示動作である尤度の和が所定の値より大きい場合に、指示発話と判定し、前記指示動作推定手段で抽出された指示対象候補と前記指示音声推定手段で抽出されたカテゴリ情報とを前記描画情報認識結果として、前記指示対象候補絞込み・提示手段に出力する手段を含む
    請求項4記載の障がい者向けPC要約者支援装置。
  6. 前記指示対象候補絞込み・提示手段は、
    前記指示代名詞のカテゴリ情報と、前記描画情報認識結果の前記カテゴリ情報との適合度を求め、上位N個の指示対象候補、または、該適合度が所定のレベルに達した指示対象候補を選択し、前記表示手段に表示する手段を含む
    請求項4記載の障がい者向けPC要約者支援装置。
  7. 請求項4乃至6のいずれか1項に記載の障がい者向けPC要約者支援装置を構成する各手段としてコンピュータを機能させる障がい者向けPC要約者支援プログラム。
JP2008010866A 2008-01-21 2008-01-21 障がい者向けパーソナルコンピュータ要約者支援方法及び装置及びプログラム Pending JP2009175803A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008010866A JP2009175803A (ja) 2008-01-21 2008-01-21 障がい者向けパーソナルコンピュータ要約者支援方法及び装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008010866A JP2009175803A (ja) 2008-01-21 2008-01-21 障がい者向けパーソナルコンピュータ要約者支援方法及び装置及びプログラム

Publications (1)

Publication Number Publication Date
JP2009175803A true JP2009175803A (ja) 2009-08-06

Family

ID=41030862

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008010866A Pending JP2009175803A (ja) 2008-01-21 2008-01-21 障がい者向けパーソナルコンピュータ要約者支援方法及び装置及びプログラム

Country Status (1)

Country Link
JP (1) JP2009175803A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011071809A (ja) * 2009-09-28 2011-04-07 Toshiba Corp テレビジョン受像装置及びテレビジョン受像方法
JP2011193483A (ja) * 2011-04-14 2011-09-29 Toshiba Corp テレビジョン受像装置及びテレビジョン受像方法
KR20200066134A (ko) * 2018-11-30 2020-06-09 한국과학기술원 멀티모달 다중 화자 대화 속 인물 식별 방법 및 장치

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011071809A (ja) * 2009-09-28 2011-04-07 Toshiba Corp テレビジョン受像装置及びテレビジョン受像方法
US8035744B2 (en) 2009-09-28 2011-10-11 Kabushiki Kaisha Toshiba Television receiver and method of receiving television broadcasting
JP2011193483A (ja) * 2011-04-14 2011-09-29 Toshiba Corp テレビジョン受像装置及びテレビジョン受像方法
KR20200066134A (ko) * 2018-11-30 2020-06-09 한국과학기술원 멀티모달 다중 화자 대화 속 인물 식별 방법 및 장치
KR102192342B1 (ko) * 2018-11-30 2020-12-17 한국과학기술원 멀티모달 다중 화자 대화 속 인물 식별 방법 및 장치

Similar Documents

Publication Publication Date Title
US8645121B2 (en) Language translation of visual and audio input
EP3226245B1 (en) System and method to insert visual subtitles in videos
EP1865426A2 (en) Information processing apparatus, information processing method, and computer program
US11281707B2 (en) System, summarization apparatus, summarization system, and method of controlling summarization apparatus, for acquiring summary information
US8521007B2 (en) Information processing method, information processing device, scene metadata extraction device, loss recovery information generation device, and programs
US20110157299A1 (en) Apparatus and method of video conference to distinguish speaker from participants
Mirzaei et al. Combining augmented reality and speech technologies to help deaf and hard of hearing people
CN108073572B (zh) 信息处理方法及其装置、同声翻译系统
Mirzaei et al. Audio-visual speech recognition techniques in augmented reality environments
KR101789221B1 (ko) 동영상 제공 장치, 동영상 제공 방법, 및 컴퓨터 프로그램
WO2018105373A1 (ja) 情報処理装置、情報処理方法、および情報処理システム
Alkhalifa et al. Enssat: wearable technology application for the deaf and hard of hearing
JP2009175803A (ja) 障がい者向けパーソナルコンピュータ要約者支援方法及び装置及びプログラム
US10123090B2 (en) Visually representing speech and motion
US9697851B2 (en) Note-taking assistance system, information delivery device, terminal, note-taking assistance method, and computer-readable recording medium
WO2022131270A1 (ja) 視聴支援システム、視聴支援方法およびプログラム
KR20200010927A (ko) 배리어프리 오페라 제작시스템 및 방법
JPWO2018105373A1 (ja) 情報処理装置、情報処理方法、および情報処理システム
JP2016082355A (ja) 入力情報支援装置、入力情報支援方法および入力情報支援プログラム
JP6962849B2 (ja) 会議支援装置、会議支援制御方法およびプログラム
KR20150060348A (ko) 장애인 사이의 의사소통 장치 및 방법
KR102160117B1 (ko) 장애인을 위한 실시간 방송 컨텐츠 제작 시스템
KR20170119321A (ko) 동영상 제공 장치, 동영상 제공 방법, 및 컴퓨터 프로그램
JP7288491B2 (ja) 情報処理装置、及び制御方法
JP2015022357A (ja) 情報処理システム、情報処理方法および情報処理装置