JP2010198247A - 支援装置、支援プログラム、および支援方法 - Google Patents

支援装置、支援プログラム、および支援方法 Download PDF

Info

Publication number
JP2010198247A
JP2010198247A JP2009041464A JP2009041464A JP2010198247A JP 2010198247 A JP2010198247 A JP 2010198247A JP 2009041464 A JP2009041464 A JP 2009041464A JP 2009041464 A JP2009041464 A JP 2009041464A JP 2010198247 A JP2010198247 A JP 2010198247A
Authority
JP
Japan
Prior art keywords
data
original data
conversion
phrase
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009041464A
Other languages
English (en)
Other versions
JP4958120B2 (ja
Inventor
Hiroaki Kosegi
浩昭 小瀬木
Kotaro Miyamoto
晃太郎 宮本
Takashi Saito
隆 斉藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Priority to JP2009041464A priority Critical patent/JP4958120B2/ja
Priority to US12/709,642 priority patent/US8401857B2/en
Publication of JP2010198247A publication Critical patent/JP2010198247A/ja
Application granted granted Critical
Publication of JP4958120B2 publication Critical patent/JP4958120B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440236Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by media transcoding, e.g. video is transformed into a slideshow of still pictures, audio is converted into text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Document Processing Apparatus (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】作業者が元データから作業済データを作成する作業を支援する。
【解決手段】元データから作業済データを作成する作業を支援する支援装置であって、元データの内容を作業者に対して秘匿するべく、元データを変換データに変換する変換部と、変換データを作業者に提供して、変換データを元に作業させて作業済の変換データを作成させるインターフェイス部と、作業済の変換データを逆変換して作業済データを生成する逆変換部と、を備える支援装置を提供する。
【選択図】図2

Description

本発明は、支援装置、支援プログラム、および支援方法に関する。
従来、ニュースまたは映画等の音声付動画像の中には、字幕が付されて放送または上映等されるものがある。そこで、字幕編集者は、放送等の前に音声付動画像を見て、字幕を付さなければならない。なお、現時点で先行技術文献の存在を認識していないので、先行技術文献に関する記載を省略する。
ニュース等の中には、放送までは内容を秘密にすべきものがある。しかしながら、従来の方法では、ニュース等の内容が放送前に字幕編集者に知られてしまう。例えば、ある企業の不祥事のニュースを証券取引所がクローズした後に放送する予定である場合に、字幕編集者は、証券取引所がクローズする前からニュース映像に字幕を付すことがありうる。この場合、字幕編集者は、証券取引所が開いている間にニュースの内容を知ってしまうので、ニュースの内容を悪用しうる立場となってしまう。また例えば、字幕編集者が、未公開映画に字幕を付ける場合がある。この場合、字幕編集者は、映画の公開前から映画のストーリーおよび結末を知ってしまうので、公開前に映画のストーリーまたは結末を漏洩しうる立場となってしまう。
上記課題を解決するために、本発明の第1の態様においては、元データから作業済データを作成する作業を支援する支援装置であって、前記元データの内容を作業者に対して秘匿するべく、前記元データを変換データに変換する変換部と、前記変換データを作業者に提供して、前記変換データを元に作業させて作業済の前記変換データを作成させるインターフェイス部と、作業済の前記変換データを逆変換して前記作業済データを生成する逆変換部と、を備える支援装置、並びに、当該支援装置に関する支援プログラムおよび支援方法を提供する。
本発明の第2の態様においては、元データから作業済データを作成する作業を支援する支援装置であって、複数の語句のそれぞれに対応付けて、当該語句を作業者に提示してよい提示タイミングを記憶する語句記憶部と、前記元データにおける、前記語句記憶部に記憶された語句を含む部分を、当該語句に対応する前記提示タイミングを満たすタイミングで作業者に提示して、前記元データにおける当該部分について作業させるインターフェイス部と、を備える支援装置、並びに、当該支援装置に関する支援プログラムおよび支援方法を提供する。
本発明の第3の態様においては、音声付動画の映像および音声を含む元データから前記音声付動画に付加する字幕のテキストを含む作業済データを作成する作業を支援する支援装置であって、前記元データの音声を音声認識して、音声認識テキストを生成する音声認識部と、前記元データの内容を作業者に対して秘匿するべく、前記元データおよび前記元データの音声認識テキストを変換データおよび前記変換データの音声認識テキストに変換する変換部と、前記変換部が生成した前記変換データの音声における、音の高さ、音の強さ、および発話速度のうちの少なくとも1つを均一化する均一化部と、前記変換データおよび前記変換データの音声認識テキストを作業者に提供して、前記変換データの音声認識テキストを編集させて音声に応じた字幕のテキストを含む作業済の前記変換データを作成させるインターフェイス部と、作業済の前記変換データを逆変換して前記作業済データを生成する逆変換部と、を備え、前記変換部は、前記元データの音声および前記元データの音声認識テキストの少なくとも1箇所に、他の音声および他のテキストを挿入すると共に、前記元データおよび前記元データの音声認識テキストをそれぞれ並び替えて前記変換データおよび前記変換データの音声認識テキストを生成し、前記逆変換部は、作業済の前記変換データを元の順序に並べ直すと共に、作業済の前記変換データから前記他の音声および前記他のテキストに対応する部分を取り除いて前記作業済データを生成する支援装置、並びに、当該支援装置に関する支援プログラムおよび支援方法を提供する。
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
図1は、本実施形態に係る支援システム10の構成を示す。支援システム10は、1または複数の作業者120が例えばニュースの音声付動画像に字幕を付す等の作業をする場合に、1または複数の作業者120に対してニュースの内容を秘匿しつつ、字幕編集作業をさせる。
支援システム10は、支援装置100と、1または複数の作業者120a〜cにより使用される1または複数の端末110a〜cと、ネットワーク130とを備える。支援装置100は、音声付動画像等の元データから、字幕が付された音声付動画像等の作業済データを作成する作業を支援する。本実施形態においては、音声付動画像に字幕を付す作業を例に説明するが、支援システム10は、元データを作業者に参照させて作業済データを作成させる各種の作業を支援してもよい。このような作業の例として、支援システム10は、音声、静止画像、動画像、または音声付動画像に解説または翻訳した音声等の音声を付加する作業、または手話の映像を付加する作業を支援しうる。また、支援システム10は、テキストの元データを翻訳してテキストの作業済データを作成する作業、およびテキストの元データを読み上げて音声の作業済データを作成する作業等も支援しうる。
端末110a〜c(以下端末110と総称する)のそれぞれは、作業者120a〜c(以下作業者120と総称する)のそれぞれが支援装置100による支援を受けながら元データから作業済データを作成する作業をするために用いられ、対応する作業者120との間で情報を授受する。ネットワーク130は、1または複数の端末110と、支援装置100との間を接続する。ネットワーク130は、有線及び/又は無線のインターネット、イントラネット、およびローカルエリアネットワーク等であってよい。
図2は、本実施形態に係る支援装置100の構成を示す。支援装置100は、元データ記憶部200と、音声認識部210と、変換部220と、語句記憶部230と、均一化部240と、インターフェイス部250と、作業者情報記憶部260と、語句登録部270と、逆変換部280と、作業済データ記憶部290とを備える。元データ記憶部200は、作業前の元データの一例として、音声付動画データを記憶する。音声認識部210は、元データの音声を音声認識して、音声認識テキストを生成する。音声を音声認識して音声認識テキストを生成する方法は、従来技術であるので、本明細書においては説明を省略する。
変換部220は、元データの内容を作業者120a〜cに対して秘匿するべく、元データを変換データに変換する。本実施形態において、変換部220は、音声付動画の映像および音声を含む元データを変換データに変換する。また、変換部220は、元データの音声認識テキストを変換データの音声認識テキストに変換する。
具体的には、変換部220は、元データの音声付動画、音声、および音声認識テキストを、ニュース等のトピック単位、文単位、及び/又は語句単位等の予め定められた単位で区切り、区切り毎に語句記憶部230に格納された秘密にするべき語句が含まれているか否かを判断する。そして、変換部220は、秘密にするべき語句が含まれている区切りに対して、以下に概説する内容不推定化処理および内容不完全化処理の少なくとも1つを施して、作業者に対し内容を秘匿する。
(1)内容不推定化処理
変換部220は、元データの音声および元データの音声認識テキストの少なくとも1つの対応する箇所、より好ましくは元データの内容を隠蔽するのに十分な数の対応する箇所に、他の音声および他のテキストを挿入して変換データおよび変換データの音声認識テキストを生成する。これにより、変換部220は、変換データのどの部分が元データに対応するものかを作業者が把握できないようにして、元データの内容を隠蔽する。
(2)内容不完全化処理
変換部220は、元データおよび元データの音声認識テキストをそれぞれ同様に並び替えて変換データおよび変換データの音声認識テキストを生成する。これにより、変換部220は、複数のニュース、複数の文、または複数の語句等が並び替えられて入り混じった変換データ等を生成することができ、作業者が元の順番に並べ直して元データの内容を把握するのを困難にする。
語句記憶部230は、複数の語句のそれぞれについて、当該語句の秘密度(例えば、当該語句を作業者120a〜cに対して秘密にするべきか否か、及び/又は当該語句の秘密を守るべき度合)と、当該語句を作業者120a〜cに提示してよい提示タイミングとを記憶する。均一化部240は、変換部220が出力する変換データおよび変換データの音声認識テキストに対して、以下に概説する話者不特定か処理を施して、作業者に対して内容を秘匿する。
(3)話者不特定化処理
均一化部240は、変換部220が生成した変換データの音声における、音の高さ、音の強さ、および発話速度のうちの少なくとも1つを均一化する。これにより、均一化部240は、内容不推定化処理によってダミーの音声等が挿入された変換データ、及び/又は内容不完全化処理によって並び替えられた変換データののそれぞれの部分における話者を区別困難とする。この結果、変換部220は、作業者が特定話者の音声部分を抽出できなくして、作業者に対して内容を秘匿する。
インターフェイス部250は、1または複数のネットワーク130を介して変換データを1または複数の作業者120に提供して、作業者により変換データを元に作業させて作業済の変換データを作成させる。ニュース等に字幕を付す作業を支援する場合、インターフェイス部250は、変換データを作業者120に提供して、変換データを元に音声に応じた字幕のテキストを含む作業済の変換データを作成させる。ここで、作業者120による作業は、例えば変換データのテキストを編集して作業済の変換データとする場合のように、変換データの少なくとも一部が作業済の変換データにも含まれるものであってよい。これに代えて、作業者120による作業は、例えば変換データのテキストを見ながら、新たな翻訳テキストを作成する場合のように、変換データとは全く異なる作業済の変換データ、換言すれば変換データに対する作業済データを作成するものであってもよい。
作業者情報記憶部260は、複数の作業者120のそれぞれに対して提示してよい語句の秘密度の上限を記憶する。語句登録部270は、作業者による作業の結果、秘密にすべき語句を新たに見つけた場合に、当該語句を語句記憶部230に登録する。
逆変換部280は、作業済の変換データを逆変換して作業済データを生成する。ニュース等に字幕を付す作業を支援する場合、逆変換部280は、作業済の変換データを逆変換して音声付動画に付加する字幕のテキストを含む作業済データを生成する。ここで、内容不推定化処理が施されている場合には、逆変換部280は、作業済の変換データから他の音声および他のテキストに対応する部分を取り除いて作業済データを生成する。また、内容不完全化処理が施されている場合には、逆変換部280は、作業済の変換データを元の順序に並べ直して作業済データを生成する。
作業済データ記憶部290は、逆変換部280が出力する作業済データを格納する。格納された作業済データは、後に放送または上映等される。また、変換部220は、既に逆変換部280に格納された作業済データを、後の内容不推定化処理において元データに挿入する他の音声及び/又はテキストとして用いてもよい。
以上に示した支援装置100によれば、元データに対して内容不推定化処理、内容不完全化処理、および話者不特定化処理の少なくとも1つを施して変換データに変換して作業者に作業させて、作業後に逆変換して作業済データを生成することができる。これにより、支援装置100は、元データの内容を作業者に対して秘匿することができる。
なお、音声またはテキストの元データから、音声またはテキストの作業済データを作成する作業を支援する場合、変換部220は、音声またはテキストの元データを音声またはテキストの変換データに変換する。そして、逆変換部280は、音声またはテキストの作業済の変換データを逆変換して音声またはテキストの作業済データを生成する。また、音声の元データからテキストの作業済データを作成する作業を支援する場合、変換部220は、音声の元データを音声の変換データに変換する。次に、インターフェイス部250は、変換データを作業者120に提供して、変換データの音声を元に作業済の変換データのテキストを作成させる。そして、逆変換部280は、作業済の変換データを逆変換して、テキストの作業済データを生成する。
図3は、本実施形態に係る語句記憶部230の内容の一例を示す。語句記憶部230は、1または複数の語句のそれぞれに対応付けて、当該語句を作業者に対して秘密にするべきか否か、及び/又は当該語句の秘密度を示す「リスク係数」と、当該語句を作業者に提示してよい提示タイミングを示す「処理制限時間」と、当該語句を含む区切りに対して適用すべき処理を示す「リスク対応」とを記憶する。
例えば、図中元データにおける語句W1には、リスク係数「高」が付されている。また、当該語句W1には、処理制限時間は3時間であるから対応するニュースを放送する3時間前以前に作業者に提供してはならない旨の制限が付されている。また、当該語句W1には、「ニュース単位でセキュア字幕処理」を、セキュア度「高」で実行すべきことが付されている。
また例えば、図中元データにおける語句WC3、WC4、およびWC5の組には、リスク係数「高」が付されている。また、処理制限時間は1時間である。そして、当該語句WC3、WC4、およびWC5を含む区切りについては、「1文単位でセキュア情報処理」を、セキュア度「高」で実行すべきことが付されている。
語句記憶部230に登録されるべき語句は、その語句を含むトピック、文、及び/又は文節等が正式な放送または公開等の前に知られると、不正に利用されて第三者に被害が及ぶ等の悪影響が生じうるものである。このような語句の一例としては、「情報漏えい」、「工場火災」、および「不正取引」等の企業のインサイダー情報となりうるもの、並びに、「氏名」、「住所」、「電話番号」、および「メールアドレス」等の個人情報に関するもの等が挙げられる。
以上において、語句記憶部230は、提供タイミングの一例として、放送時刻を基準として、当該放送時刻よりどれだけ前から登録語句を作業者120に提供してよいかを示す処理制限時間を記憶している。これに代えて、語句記憶部230は、提供タイミングの一例として、例えば元データの作成日時または元データ記憶部200への書き込み日時を基準として、語句記憶部230に登録された語句を作業者120に提供してはならない期間を示す処理制限時間を記憶してもよい。また、語句記憶部230は、提供タイミングの一例として、予め定められた各種の時点を基準として、語句記憶部230に登録された語句を作業者120に提供してよくなるタイミングを示す情報を保持してもよい。
図4は、本実施形態に係る作業者情報記憶部260の内容の一例を示す。作業者情報記憶部260は、複数の作業者のそれぞれについて、作業者を識別する識別情報である「作業者ID」と、当該作業者に対して提示してよい元データ中の語句の秘密度の上限を示す「リスク係数上限」とを記憶する。
例えば、作業者120aは、作業者IDが「A」であり、リスク係数上限は「高」である。したがって、支援装置100は、作業者120aに対して元データにおける秘密度「高」以下の語句を含む部分を提示してもよい。
また、作業者120bは、作業者IDが「B」であり、リスク係数上限は「中」である。したがって、支援装置100は、作業者120bに対して元データにおける秘密度「中」以下の語句を含む部分を提示してもよいが、秘密度「高」の語句を含む部分を提示することができない。
なお、本実施形態において秘密度は、「高」、「中」、「低」に分類される。これに代えて秘密度は、数値によって秘密の度合を表したものでもよく、ブール値によって秘密か否かを示したものであってもよい。
図5は、本実施形態に係る支援装置100の動作フローを示す。まず、音声認識部210は、元データ記憶部200から音声付動画データ等の元データを読み出す。そして音声認識部210は、元データの音声を音声認識して、音声認識テキストを生成する(ステップS500)。
次に、変換部220は、元データの動画、音声、および音声認識テキストのトピック単位、文単位、及び/又は語句単位等の予め定められた単位毎の区切りを検出する(S510)。変換部220は、音声データ中の発話されていない空白期間の長さが基準空白時間であることを条件として、文区切り及び/又はトピック区切りを検出してよい。また、変換部220は、例えば「次のニュースです。」および「さて、スポーツコーナーです。」等といった予め設定された区切り定型語句が発話されたことを条件として、トピック区切りを検出してもよい。これに代えて、またはこれに加えて、変換部220は、映像が予め設定された基準変化量以上変化している映像の切り替わりを検出したかどうかを評価して、トピック区切りの検出精度を高めてもよい。また、変換部220は、音声認識における形態素解析結果を利用して、文区切り及び/又は語句区切りを検出してもよい。
次に、変換部220は、区切り毎に、秘密にするべき語句が含まれているか否かを判断する(S520)。一例として変換部220は、音声認識テキスト中に語句記憶部230に記憶された登録語句と一致する語句が含まれているかどうか、及び/又は音声認識テキスト中に登録語句と予め設定された評価値以上の類似度を有する語句が含まれているかどうかを検索する。
そして、変換部220は、音声認識テキスト中に登録語句とマッチする語句が含まれている場合に、音声認識テキスト中の対応する区切り部分に、当該登録語句に対応付けられたリスク係数で示される秘密度を割り当てる。ある区切り部分に2以上の登録語句がマッチする場合には、変換部220は、当該区切り部分に当該2以上の登録語句に応じたリスク係数のうち、最大のリスク係数を割り当てる。なお、変換部220は、当該登録語句に対応付けて語句記憶部230に記憶されたリスク対応の設定に応じ、当該登録語句を含むトピック全体、文、文節、及び/又は語句等のうちどの範囲の区切りをセキュア処理の対象とするかを決定してよい。
次に、変換部220は、秘密が含まれている区切り部分の動画、音声、及び音声認識テキストに対して、内容不推定化処理、および内容不完全化処理等のセキュア処理を施す(S530)。また、均一化部240は、変換部220が出力する変換データの音声に対して、話者不特定化処理を施す。ここで、変換部220および均一化部240は、秘密が含まれていない区切り部分については、セキュア処理を施さず、作業者120への秘匿無しに字幕作成作業ができるよう元データのまま維持してよい。
次に、インターフェイス部250は、変換部220および均一化部240により変換された動画および音声を含む変換データ、および変換データの音声認識テキストを1または複数の作業者120に提供して、変換データの音声認識テキストを編集させて変換データの音声に応じた字幕を作成させる(S540)。複数の作業者120で作業を分担する場合には、インターフェイス部250は、変換データを分割した複数の分割データを複数の作業者120a〜cに分散して提供して、複数の作業者120のそれぞれにより分割データを元に作業させる。そしてインターフェイス部250は、複数の作業済の分割データを集約して作業済の変換データを生成する。
次に、語句登録部270は、作業済の音声認識テキストを検索して、音声認識テキスト中に、語句記憶部230に記憶された登録語句に書き換えられた語句があるかどうかを検出する(S550)。少なくとも一人の作業者120がインターフェイス部250を介して変換データの音声認識テキスト中のある語句を、秘密にするべき登録語句に書き換えていた場合、語句登録部270は、書き換え前のこの語句を秘密にするべき語句として語句記憶部230に登録する(S560)。これにより語句登録部270は、以降において音声認識で同様の誤認識が発生した場合においても、誤認識した語句を秘密にすべきリスク語句として特定可能とする。
逆変換部280は、作業済の音声認識テキストを逆変換して、字幕用のテキストデータを生成する。そして、逆変換部280は、作成した字幕用のテキストデータを、音声付動画の元データの対応する箇所に付加する(S570)。
以上に示した支援装置100によれば、音声付動画データを元データとして変換データおよび変換データの音声認識テキストを生成することにより、元データの内容を作業者に対して秘匿した状態で作業者に字幕の編集作業をさせることができる。そして、支援装置100は、編集された字幕用のテキストデータを、音声付動画の元データに付加することにより、作業者に対して内容を秘匿しつつ、字幕が付された音声付動画を作成することができる。
以上において、支援装置100は、区切り毎に秘密にするべき語句が含まれているかどうかを判断せずに、元データ全体に対してセキュア処理を施してもよい。この場合、例えば「桜の開花」等の作業者に対して秘密にしなくてもよいトピック等に対してもセキュア処理をするので、作業の負担が大きくなる可能性がある。その一方で、支援装置100は、秘密にすべきトピック等が語句記憶部230の登録語句を含まない場合であっても、一律にセキュア処理を施すから、安全性を高めうる。
また、変換部220及び/又はインターフェイス部250は、元データ中における秘密にすべき区切り部分の動画については、作業者に提供しないようにしてもよい。これにより、支援装置100は、元データの内容をより高い秘密度で保護することができる。
図6は、本実施形態に係る支援装置100による字幕編集作業の一例を示す。音声認識部210は、元データの音声を音声認識して、音声認識テキストを生成する。変換部220は、音声認識テキスト上で、ニュース単位等のトピック区切り、文単位の文区切り、および語句単位の語句区切り等を検出する。ここで、変換部220は、前述のように区切り定型語句からトピック区切りを検出してもよく、音声認識における形態素解析の結果から文区切り等を検出してもよい。更に変換部220は、音声の空白期間を調査して結果をフィードバックして、検出した区切り位置を調整してもよい。
次に、インターフェイス部250は、変換部220および均一化部240によりセキュア処理された変換データの音声認識テキストを1または複数の作業者120に提供して、編集作業をさせる。作業者120は、変換済データの動画および音声と、変換済データの音声認識テキストとを参照して、音声認識テキストを編集して修正する。この結果、インターフェイス部250は、修正された作業済テキストを得ることができる。本図においては、説明を簡単にするために、音声認識テキストに対してセキュア処理が施されていない例を挙げている。本図の例では、作業者120は、誤認識された「XZ」を「XX」に修正しており、また、「漏ネい事件」を「漏洩事件」に修正している。
ここで「XX」がリスク語句として語句記憶部230に登録されている場合、語句登録部270は、作業者によって「XX」に書き換えられた「XZ」を語句記憶部230に登録する。語句登録部270は、「XZ」に対しても、「XX」と同様のリスク係数、処理制限時間、およびリスク対応を付与してよい。これにより、以後の音声認識において「XX」が「XZ」に誤認識された場合に、支援装置100は、「XZ」をもリスク語句として認識することができ、適切なセキュア処理を施すことができる。
図7は、本実施形態に係る支援装置100による変換処理の第1例として、内容不完全化処理を示す。本図において、元データは、文、文節、及び/又は語句等の区切りS1−S3を順に含むニュースN1と、区切りS4−S7を順に含むニュースN2と、区切りS8−S10を順に含むニュースN3とを、この順に有する。
変換部220は、内容不完全化処理において、元データの動画および音声と、元データの音声認識テキストとをそれぞれ並べ替えて、変換データを生成する。本図の例において、変換部220は、ニュースN3の区切りS8をニュースN2の区切りS4の前に移動させ、ニュースN2の区切りS7をニュースN3の区切りS9の後に移動させて変換データおよび音声認識テキストを生成している。
ここで、変換部220は、元データおよび元データの音声認識テキストの中において秘密にするべき語句を分散させるようにしてもよい。すなわち、変換部220は、区切り毎に含まれるリスク語句から算出した区切り毎の秘密度の分布を平準化するように、リスク語句を元データおよび元データの音声認識テキスト中に分散配置させる。
更に、インターフェイス部250は、生成された変換データおよび音声認識テキストを分割して、複数の分割データを複数の作業者120に分散して提供する。本図の例において、インターフェイス部250は、ニュースN1の区切りS1を作業者120aに、区切りS2を作業者120bに、区切りS3を作業者120cに、並べ替えにより移動されたニュースN3の区切りS8とニュースN2の区切りS4とを作業者120aに、…という様に、内容不完全化処理済の変換データを区切り毎にほぼインタリーブして複数の作業者120に分散している。このように、インターフェイス部250は、変換データを複数の作業者120に分散させることによって、変換データの一部を受け取った作業者120が元データの内容を把握するのを更に困難にすることができる。
ここで、インターフェイス部250は、それぞれの分割データに含まれる語句の秘密度に応じて、当該分割データを提供する作業者120a〜cを選択してもよい。ニュースN2の区切りS4の秘密度が「高」であった場合、インターフェイス部250は、区切りS4をリスク係数上限が「中」の作業者120bに分配せず、本図に例示したように秘密度の条件を満たすことができる作業者120a等に分配してよい。
また、インターフェイス部250は、変換データおよび変換データの音声認識テキストにおける、提示タイミングに対応付けられた登録語句を含む部分を検索して、当該部分を当該提示タイミングを満たすタイミングで作業者120に提示する。これを実現するために、インターフェイス部250は、並べ替えられた各区切りを作業者120に提供するタイミングを、当該区切りについての提示タイミングに応じて遅延させてよい。これに代えて、インターフェイス部250は、各区切りが対応する提示タイミングを満たすように、複数の区切りを並べ替えてもよい。例えば、インターフェイス部250は、提示タイミングの制約がない区切り、およびより早くに提示可能な提示タイミングを有する区切りをより前に移動させ、より遅くまで提示できない提示タイミングを有する区切りをより後ろに移動させてもよい。この場合においてインターフェイス部250は、全ての区切りについて提示タイミングを満たすようにする。
以上に例示した処理により、支援装置100は、複数のトピックの内容が入り混じった変換データの一部ずつを各作業者に分散させることができる。これにより支援装置100は、元データの内容が漏洩するのを防ぐことができる。なお、以上の処理において、変換部220は、元データおよび音声認識テキストの順序を並べ替えるだけでなく、並べ替えた区切り同士の間の時間的間隔を各区切り部分の秘密度に応じて更に変更してもよい。
なお、変換部220は、上記の並べ替えをした場合に、一例として変換前の元データにおける各区切りが、変換データにおけるどの位置に移動されたかを示す対応表を生成して、均一化部240およびインターフェイス部250を介して逆変換部280へと渡してよい。これにより、逆変換部280は、当該対応表を参照して、変換データにおける各区切りを元データにおける順序に並べ直すことができる。
図8は、本実施形態に係る支援装置100による変換処理の第2例として、内容不推定化処理を示す。本図において、元データは、文、文節、及び/又は語句等の区切りS1−S3を順に含むニュースN1と、区切りS4−S7を順に含むニュースN2と、区切りS8−S10を順に含むニュースN3とを、この順に有する。説明を簡潔にするため、本図においては作業者120aに提供する変換済データに関する内容不推定化処理を例示する。
変換部220は、内容不推定化処理において、元データの動画および音声と、元データの音声認識テキストのそれぞれの対応する少なくとも1つの箇所に他の動画および音声、並びに他のテキストを挿入する。本図のパターン1は、元データのニュース間に、他のニュースのデータを挿入した例である。また、本図のパターン2は、元データのニュース間に、既に字幕が付された他のニュースのデータを挿入した例である。変換部220は、以前に字幕を付した他のニュースのデータを作業済データ記憶部290から読み出して、字幕のテキストを除いて現在処理中の元データのニュース間に追加してよい。
以上のように、変換部220は、元データのトピック、文、文節、及び/又は語句の間に、他のトピック、文、文節、及び/又は語句を挿入する。これにより、変換部220は、いずれのトピック、文、文節、及び/又は語句が元データに対応するものかを判別できなくして、元データの内容を隠蔽することができる。更に、変換部220は、内容不推定化処理によって元データの音声等および音声認識テキストに他の音声および音声認識テキストを挿入して、更に内容不完全化処理によって音声等および音声認識テキストを並び替えることによって、元データの内容を更に特定しにくくしてもよい。
以上において、変換部220は、元データの音声等および元データの音声認識テキスト中に作業者120に対して秘匿すべき固有名詞が含まれると判断した場合に、元データの音声等および元データの音声認識テキストの少なくとも1箇所に、他の固有名詞の音声等およびテキストを挿入して変換データおよび変換データの音声認識テキストを生成してもよい。例えば、変換部220は、元データの音声等および音声認識テキスト中に会社名が含まれる場合には元データに他の会社名を挿入して、人名が含まれる場合には元データに他の人名を挿入して、地名が含まれる場合には元データに他の地名を挿入してもよい。これにより、変換部220は、ニュース等の中で現れる会社名、人名、および地名等の固有名詞を特定できなくして、元データの内容を隠蔽することができる。
なお、変換部220は、元データの音声等および音声認識テキスト中に他の音声等およびテキストを挿入した場合に、挿入した音声等またはテキストを元データの音声等および音声認識テキストと区別できる情報を付与してもよい。これにより、逆変換部280は、当該情報が付された部分を検査して、変換済データの音声等および音声認識テキストから削除することができる。
図9は、本実施形態に係るコンピュータ1900のハードウェア構成の一例を示す。本実施形態に係るコンピュータ1900は、ホスト・コントローラ2082により相互に接続されるCPU2000、RAM2020、グラフィック・コントローラ2075、及び表示装置2080を有するCPU周辺部と、入出力コントローラ2084によりホスト・コントローラ2082に接続される通信インターフェイス2030、ハードディスクドライブ2040、及びDVDドライブ2060を有する入出力部と、入出力コントローラ2084に接続されるROM2010、フレキシブルディスク・ドライブ2050、及び入出力チップ2070を有するレガシー入出力部とを備える。
ホスト・コントローラ2082は、RAM2020と、高い転送レートでRAM2020をアクセスするCPU2000及びグラフィック・コントローラ2075とを接続する。CPU2000は、ROM2010及びRAM2020に格納されたプログラムに基づいて動作し、各部の制御を行う。グラフィック・コントローラ2075は、CPU2000等がRAM2020内に設けたフレーム・バッファ上に生成する画像データを取得し、表示装置2080上に表示させる。これに代えて、グラフィック・コントローラ2075は、CPU2000等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。
入出力コントローラ2084は、ホスト・コントローラ2082と、比較的高速な入出力装置である通信インターフェイス2030、ハードディスクドライブ2040、DVDドライブ2060を接続する。通信インターフェイス2030は、ネットワークを介して他の装置と通信する。ハードディスクドライブ2040は、コンピュータ1900内のCPU2000が使用するプログラム及びデータを格納する。DVDドライブ2060は、DVD2095からプログラム又はデータを読み取り、RAM2020を介してハードディスクドライブ2040に提供する。
また、入出力コントローラ2084には、ROM2010と、フレキシブルディスク・ドライブ2050、及び入出力チップ2070の比較的低速な入出力装置とが接続される。ROM2010は、コンピュータ1900が起動時に実行するブート・プログラム、及び/又は、コンピュータ1900のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ2050は、フレキシブルディスク2090からプログラム又はデータを読み取り、RAM2020を介してハードディスクドライブ2040に提供する。入出力チップ2070は、フレキシブルディスク・ドライブ2050を入出力コントローラ2084へと接続すると共に、例えばパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を入出力コントローラ2084へと接続する。
RAM2020を介してハードディスクドライブ2040に提供されるプログラムは、フレキシブルディスク2090、DVD2095、又はICカード等の記録媒体に格納されて利用者によって提供される。プログラムは、記録媒体から読み出され、RAM2020を介してコンピュータ1900内のハードディスクドライブ2040にインストールされ、CPU2000において実行される。
コンピュータ1900にインストールされ、コンピュータ1900を支援装置100として機能させるプログラムは、元データ記憶部200を管理する元データ記憶管理モジュールと、音声認識モジュールと、変換モジュールと、語句記憶部230を管理する語句記憶管理モジュールと、均一化モジュールと、インターフェイスモジュールと、作業者情報記憶部260を管理する作業者情報記憶管理モジュールと、語句登録モジュールと、逆変換モジュールと、作業済データ記憶部290を管理する作業済データ記憶管理モジュールとを備える。これらのプログラム又はモジュールは、CPU2000等に働きかけて、コンピュータ1900を、元データ記憶部200と、音声認識部210と、変換部220と、語句記憶部230と、均一化部240と、インターフェイス部250と、作業者情報記憶部260と、語句登録部270と、逆変換部280と、作業済データ記憶部290としてそれぞれ機能させる。
これらのプログラムに記述された情報処理は、コンピュータ1900に読込まれることにより、ソフトウェアと上述した各種のハードウェア資源とが協働した具体的手段である音声認識部210と、変換部220と、均一化部240と、インターフェイス部250と、語句登録部270と、逆変換部280として機能する。そして、これらの具体的手段によって、本実施形態におけるコンピュータ1900の使用目的に応じた情報の演算又は加工を実現することにより、使用目的に応じた特有の支援装置100が構築される。
一例として、コンピュータ1900と外部の装置等との間で通信を行う場合には、CPU2000は、RAM2020上にロードされた通信プログラムを実行し、通信プログラムに記述された処理内容に基づいて、通信インターフェイス2030に対して通信処理を指示する。通信インターフェイス2030は、CPU2000の制御を受けて、RAM2020、ハードディスクドライブ2040、フレキシブルディスク2090、又はDVD2095等の記憶装置上に設けた送信バッファ領域等に記憶された送信データを読み出してネットワークへと送信し、もしくは、ネットワークから受信した受信データを記憶装置上に設けた受信バッファ領域等へと書き込む。このように、通信インターフェイス2030は、DMA(ダイレクト・メモリ・アクセス)方式により記憶装置との間で送受信データを転送してもよく、これに代えて、CPU2000が転送元の記憶装置又は通信インターフェイス2030からデータを読み出し、転送先の通信インターフェイス2030又は記憶装置へとデータを書き込むことにより送受信データを転送してもよい。
また、CPU2000は、ハードディスクドライブ2040、DVDドライブ2060(DVD2095)、フレキシブルディスク・ドライブ2050(フレキシブルディスク2090)等の外部記憶装置に格納されたファイルまたはデータベース等の中から、全部または必要な部分をDMA転送等によりRAM2020へと読み込ませ、RAM2020上のデータに対して各種の処理を行う。そして、CPU2000は、処理を終えたデータを、DMA転送等により外部記憶装置へと書き戻す。このような処理において、RAM2020は、外部記憶装置の内容を一時的に保持するものとみなせるから、本実施形態においてはRAM2020および外部記憶装置等をメモリ、記憶部、または記憶装置等と総称する。本実施形態における各種のプログラム、データ、テーブル、データベース等の各種の情報は、このような記憶装置上に格納されて、情報処理の対象となる。なお、CPU2000は、RAM2020の一部をキャッシュメモリに保持し、キャッシュメモリ上で読み書きを行うこともできる。このような形態においても、キャッシュメモリはRAM2020の機能の一部を担うから、本実施形態においては、区別して示す場合を除き、キャッシュメモリもRAM2020、メモリ、及び/又は記憶装置に含まれるものとする。
また、CPU2000は、RAM2020から読み出したデータに対して、プログラムの命令列により指定された、本実施形態中に記載した各種の演算、情報の加工、条件判断、情報の検索・置換等を含む各種の処理を行い、RAM2020へと書き戻す。例えば、CPU2000は、条件判断を行う場合においては、本実施形態において示した各種の変数が、他の変数または定数と比較して、大きい、小さい、以上、以下、等しい等の条件を満たすかどうかを判断し、条件が成立した場合(又は不成立であった場合)に、異なる命令列へと分岐し、またはサブルーチンを呼び出す。
また、CPU2000は、記憶装置内のファイルまたはデータベース等に格納された情報を検索することができる。例えば、第1属性の属性値に対し第2属性の属性値がそれぞれ対応付けられた複数のエントリが記憶装置に格納されている場合において、CPU2000は、記憶装置に格納されている複数のエントリの中から第1属性の属性値が指定された条件と一致するエントリを検索し、そのエントリに格納されている第2属性の属性値を読み出すことにより、所定の条件を満たす第1属性に対応付けられた第2属性の属性値を得ることができる。
以上に示したプログラム又はモジュールは、外部の記録媒体に格納されてもよい。記録媒体としては、フレキシブルディスク2090、DVD2095の他に、DVD又はCD等の光学記録媒体、MO等の光磁気記録媒体、テープ媒体、ICカード等の半導体メモリ等を用いることができる。また、専用通信ネットワーク又はインターネットに接続されたサーバシステムに設けたハードディスク又はRAM等の記憶装置を記録媒体として使用し、ネットワークを介してプログラムをコンピュータ1900に提供してもよい。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
本発明の実施形態に係る支援システム10の構成を示す。 本発明の実施形態に係る支援装置100の構成を示す。 本発明の実施形態に係る語句記憶部230の内容の一例を示す。 本発明の実施形態に係る作業者情報記憶部260の内容の一例を示す。 本発明の実施形態に係る支援装置100の動作フローを示す。 本発明の実施形態に係る支援装置100による字幕編集作業の一例を示す。 本発明の実施形態に係る支援装置100による変換処理の第1例を示す。 本発明の実施形態に係る支援装置100による変換処理の第2例を示す。 本発明の実施形態に係るコンピュータ1900のハードウェア構成の一例を示す。
10 支援システム、100 支援装置、110a〜c 端末、120a〜c 作業者、130 ネットワーク、200 元データ記憶部、210 音声認識部、220 変換部、230 語句記憶部、240 均一化部、250 インターフェイス部、260 作業者情報記憶部、270 語句登録部、280 逆変換部、290 作業済データ記憶部、1900 コンピュータ、2000 CPU、2010 ROM、2020 RAM、2030 通信インターフェイス、2040 ハードディスクドライブ、2050 フレキシブルディスク・ドライブ、2060 DVDドライブ、2070 入出力チップ、2075 グラフィック・コントローラ、2080 表示装置、2082 ホスト・コントローラ、2084 入出力コントローラ、2090 フレキシブルディスク、2095 DVD

Claims (20)

  1. 元データから作業済データを作成する作業を支援する支援装置であって、
    前記元データの内容を作業者に対して秘匿するべく、前記元データを変換データに変換する変換部と、
    前記変換データを作業者に提供して、前記変換データを元に作業させて作業済の前記変換データを作成させるインターフェイス部と、
    作業済の前記変換データを逆変換して前記作業済データを生成する逆変換部と、
    を備える支援装置。
  2. 前記変換部は、音声またはテキストの前記元データを音声またはテキストの前記変換データに変換し、
    前記逆変換部は、音声またはテキストの作業済の前記変換データを逆変換して音声またはテキストの前記作業済データを生成する
    請求項1に記載の支援装置。
  3. 前記変換部は、音声の前記元データを音声の前記変換データに変換し、
    前記インターフェイス部は、前記変換データを作業者に提供して、前記変換データの音声を元に作業済の前記変換データのテキストを作成させ、
    前記逆変換部は、作業済の前記変換データを逆変換して、テキストの前記作業済データを生成する
    請求項1または2に記載の支援装置。
  4. 前記変換部は、音声付動画の映像および音声を含む前記元データを前記変換データに変換し、
    前記インターフェイス部は、前記変換データを作業者に提供して、前記変換データを元に音声に応じた字幕のテキストを含む作業済の前記変換データを作成させ、
    前記逆変換部は、作業済の前記変換データを逆変換して前記音声付動画に付加する字幕のテキストを含む前記作業済データを生成する
    請求項1から3のいずれかに記載の支援装置。
  5. 前記元データの音声を音声認識して、音声認識テキストを生成する音声認識部を更に備え、
    前記変換部は、前記元データおよび前記元データの音声認識テキストを前記変換データおよび前記変換データの音声認識テキストに変換し、
    前記インターフェイス部は、前記変換データおよび前記変換データの音声認識テキストを作業者に提供して、前記変換データの音声認識テキストを編集させて前記変換データの音声に応じた字幕を作成させる
    請求項4に記載の支援装置。
  6. 前記変換部は、前記元データの音声および前記元データの音声認識テキストの少なくとも1箇所に、他の音声および他のテキストを挿入して前記変換データおよび前記変換データの音声認識テキストを生成し、
    前記逆変換部は、作業済の前記変換データから前記他の音声および前記他のテキストに対応する部分を取り除いて前記作業済データを生成する
    請求項5に記載の支援装置。
  7. 前記変換部は、前記元データの音声および前記元データの音声認識テキスト中に作業者に対して秘匿すべき固有名詞が含まれると判断した場合に、前記元データの音声および前記元データの音声認識テキストの少なくとも1箇所に、他の固有名詞の音声およびテキストを挿入して前記変換データおよび前記変換データの音声認識テキストを生成する
    請求項6に記載の支援装置。
  8. 前記変換部は、前記元データおよび前記元データの音声認識テキストをそれぞれ並び替えて前記変換データおよび前記変換データの音声認識テキストを生成し、
    前記逆変換部は、作業済の前記変換データを元の順序に並べ直して前記作業済データを生成する
    請求項5から7のいずれかに記載の支援装置。
  9. 複数の語句のそれぞれについて、当該語句を作業者に対して秘密にするべきか否かを記憶する語句記憶部を更に備え、
    前記変換部は、前記元データおよび前記元データの音声認識テキストをそれぞれ並び替えて、前記元データおよび前記元データの音声認識テキストの中において秘密にするべき語句を分散させる
    請求項8に記載の支援装置。
  10. 作業者が前記インターフェイス部を介して前記変換データの音声認識テキスト中の一の語句を、秘密にするべき語句に書き換えた場合に、前記一の語句を秘密にするべき語句として前記語句記憶部に登録する語句登録部をさらに備える請求項9に記載の支援装置。
  11. 前記語句記憶部は、複数の語句のそれぞれについて、当該語句を作業者に提示してよい提示タイミングを更に記憶し、
    前記インターフェイス部は、前記変換データおよび前記変換データの音声認識テキストにおける、前記提示タイミングに対応付けられた語句を含む部分を、当該提示タイミングを満たすタイミングで作業者に提示する
    請求項9または10に記載の支援装置。
  12. 前記変換部が生成した前記変換データの音声における、音の高さ、音の強さ、および発話速度のうちの少なくとも1つを均一化する均一化部を更に備える請求項5から11のいずれかに記載の支援装置。
  13. 前記インターフェイス部は、前記変換データを分割した複数の分割データを複数の作業者に分散して提供して、前記複数の作業者のそれぞれにより前記分割データを元に作業させ、複数の作業済の前記分割データを集約して作業済の前記変換データを生成する請求項1から8のいずれかに記載の支援装置。
  14. 複数の語句のそれぞれについて、当該語句の秘密度を記憶する語句記憶部と、
    前記複数の作業者のそれぞれに対して提示してよい語句の秘密度の上限を記憶する作業者情報記憶部と、
    を更に備え、
    前記インターフェイス部は、それぞれの前記分割データに含まれる語句の秘密度に応じて、当該分割データを提供する作業者を選択する請求項13に記載の支援装置。
  15. 元データから作業済データを作成する作業を支援する支援装置であって、
    複数の語句のそれぞれに対応付けて、当該語句を作業者に提示してよい提示タイミングを記憶する語句記憶部と、
    前記元データにおける、前記語句記憶部に記憶された語句を含む部分を、当該語句に対応する前記提示タイミングを満たすタイミングで作業者に提示して、前記元データにおける当該部分について作業させるインターフェイス部と、
    を備える支援装置。
  16. 音声付動画の映像および音声を含む元データから前記音声付動画に付加する字幕のテキストを含む作業済データを作成する作業を支援する支援装置であって、
    前記元データの音声を音声認識して、音声認識テキストを生成する音声認識部と、
    前記元データの内容を作業者に対して秘匿するべく、前記元データおよび前記元データの音声認識テキストを変換データおよび前記変換データの音声認識テキストに変換する変換部と、
    前記変換部が生成した前記変換データの音声における、音の高さ、音の強さ、および発話速度のうちの少なくとも1つを均一化する均一化部と、
    前記変換データおよび前記変換データの音声認識テキストを作業者に提供して、前記変換データの音声認識テキストを編集させて音声に応じた字幕のテキストを含む作業済の前記変換データを作成させるインターフェイス部と、
    作業済の前記変換データを逆変換して前記作業済データを生成する逆変換部と、
    を備え、
    前記変換部は、前記元データの音声および前記元データの音声認識テキストの少なくとも1箇所に、他の音声および他のテキストを挿入すると共に、前記元データおよび前記元データの音声認識テキストをそれぞれ並び替えて前記変換データおよび前記変換データの音声認識テキストを生成し、
    前記逆変換部は、作業済の前記変換データを元の順序に並べ直すと共に、作業済の前記変換データから前記他の音声および前記他のテキストに対応する部分を取り除いて前記作業済データを生成する
    支援装置。
  17. コンピュータを、元データから作業済データを作成する作業を支援する支援装置として機能させるための支援プログラムであって、
    当該支援プログラムは、前記コンピュータを、
    前記元データの内容を作業者に対して秘匿するべく、前記元データを変換データに変換する変換部と、
    前記変換データを作業者に提供して、前記変換データを元に作業させて作業済の前記変換データを作成させるインターフェイス部と、
    作業済の前記変換データを逆変換して前記作業済データを生成する逆変換部と、
    して機能させる支援プログラム。
  18. 元データから作業済データを作成する作業を支援装置により支援する支援方法であって、
    前記支援装置が、前記元データの内容を作業者に対して秘匿するべく、前記元データを変換データに変換する変換段階と、
    前記支援装置が、前記変換データを作業者に提供して、前記変換データを元に作業させて作業済の前記変換データを作成させるインターフェイス段階と、
    前記支援装置が、作業済の前記変換データを逆変換して前記作業済データを生成する逆変換段階と、
    を備える支援方法。
  19. コンピュータを、元データから作業済データを作成する作業を支援する支援装置として機能させるための支援プログラムであって、
    当該支援プログラムは、前記コンピュータを、
    複数の語句のそれぞれに対応付けて、当該語句を作業者に提示してよい提示タイミングを記憶する語句記憶部と、
    前記元データにおける、前記語句記憶部に記憶された語句を含む部分を、当該語句に対応する前記提示タイミングを満たすタイミングで作業者に提示して、前記元データにおける当該部分について作業させるインターフェイス部と、
    して機能させる支援プログラム。
  20. 元データから作業済データを作成する作業を支援装置により支援する支援方法であって、
    前記支援装置が、複数の語句のそれぞれに対応付けて、当該語句を作業者に提示してよい提示タイミングを語句記憶部に記憶する語句記憶段階と、
    前記支援装置が、前記元データにおける、前記語句記憶部に記憶された語句を含む部分を、当該語句に対応する前記提示タイミングを満たすタイミングで作業者に提示して、前記元データにおける当該部分について作業させるインターフェイス段階と、
    を備える支援方法。
JP2009041464A 2009-02-24 2009-02-24 支援装置、支援プログラム、および支援方法 Expired - Fee Related JP4958120B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009041464A JP4958120B2 (ja) 2009-02-24 2009-02-24 支援装置、支援プログラム、および支援方法
US12/709,642 US8401857B2 (en) 2009-02-24 2010-02-22 Assisting apparatus generating task-completed data while keeping some original data secret from the operator in charge of the task

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009041464A JP4958120B2 (ja) 2009-02-24 2009-02-24 支援装置、支援プログラム、および支援方法

Publications (2)

Publication Number Publication Date
JP2010198247A true JP2010198247A (ja) 2010-09-09
JP4958120B2 JP4958120B2 (ja) 2012-06-20

Family

ID=42630661

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009041464A Expired - Fee Related JP4958120B2 (ja) 2009-02-24 2009-02-24 支援装置、支援プログラム、および支援方法

Country Status (2)

Country Link
US (1) US8401857B2 (ja)
JP (1) JP4958120B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012123163A (ja) * 2010-12-08 2012-06-28 Internatl Business Mach Corp <Ibm> 秘匿情報をフィルタリングする情報処理装置、方法およびプログラム
JP2020072367A (ja) * 2018-10-31 2020-05-07 株式会社ジェイ・エックス・ウィンド 情報処理システムおよび文字起こし方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011085387A2 (en) * 2010-01-11 2011-07-14 Everspeech, Inc. Integrated data processing and transcription service
US9727748B1 (en) * 2011-05-03 2017-08-08 Open Invention Network Llc Apparatus, method, and computer program for providing document security
KR101632221B1 (ko) * 2014-02-27 2016-07-01 엘지전자 주식회사 디지털 디바이스 및 그의 서비스 처리 방법
US10861463B2 (en) * 2018-01-09 2020-12-08 Sennheiser Electronic Gmbh & Co. Kg Method for speech processing and speech processing device
US10891939B2 (en) * 2018-11-26 2021-01-12 International Business Machines Corporation Sharing confidential information with privacy using a mobile phone

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006244315A (ja) * 2005-03-04 2006-09-14 Aidekku:Kk データエントリーシステム
JP2008040587A (ja) * 2006-08-02 2008-02-21 Fuji Xerox Co Ltd 文書管理装置およびプログラム
JP2008096842A (ja) * 2006-10-13 2008-04-24 Internatl Business Mach Corp <Ibm> 音声、動画および静止画を含むコンテンツを無害化するための装置および方法。

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5960447A (en) * 1995-11-13 1999-09-28 Holt; Douglas Word tagging and editing system for speech recognition
US6678822B1 (en) * 1997-09-25 2004-01-13 International Business Machines Corporation Method and apparatus for securely transporting an information container from a trusted environment to an unrestricted environment
US5960080A (en) * 1997-11-07 1999-09-28 Justsystem Pittsburgh Research Center Method for transforming message containing sensitive information
JP4434465B2 (ja) * 1999-11-16 2010-03-17 キヤノン株式会社 通信装置及び方法並びに記憶媒体
US7293175B2 (en) * 2000-06-29 2007-11-06 Lockheed Martin Corporation Automatic information sanitizer
US7103915B2 (en) * 2000-11-13 2006-09-05 Digital Doors, Inc. Data security system and method
US7305444B2 (en) * 2002-01-23 2007-12-04 International Business Machines Corporation Method and system for controlling delivery of information in a forum
US9167087B2 (en) * 2004-07-13 2015-10-20 International Business Machines Corporation Dynamic media content for collaborators including disparate location representations
US7487209B2 (en) * 2004-07-13 2009-02-03 International Business Machines Corporation Delivering dynamic media content for collaborators to purposeful devices
JP4419871B2 (ja) * 2005-03-02 2010-02-24 富士ゼロックス株式会社 翻訳依頼装置およびプログラム
US20070244700A1 (en) * 2006-04-12 2007-10-18 Jonathan Kahn Session File Modification with Selective Replacement of Session File Components
US7934160B2 (en) * 2006-07-31 2011-04-26 Litrell Bros. Limited Liability Company Slide kit creation and collaboration system with multimedia interface
US8078595B2 (en) * 2007-10-09 2011-12-13 Oracle International Corporation Secure normal forms

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006244315A (ja) * 2005-03-04 2006-09-14 Aidekku:Kk データエントリーシステム
JP2008040587A (ja) * 2006-08-02 2008-02-21 Fuji Xerox Co Ltd 文書管理装置およびプログラム
JP2008096842A (ja) * 2006-10-13 2008-04-24 Internatl Business Mach Corp <Ibm> 音声、動画および静止画を含むコンテンツを無害化するための装置および方法。

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012123163A (ja) * 2010-12-08 2012-06-28 Internatl Business Mach Corp <Ibm> 秘匿情報をフィルタリングする情報処理装置、方法およびプログラム
US8913744B2 (en) 2010-12-08 2014-12-16 Nuance Communications, Inc. Filtering confidential information in voice and image data
US9330267B2 (en) 2010-12-08 2016-05-03 Nuance Communications, Inc. Filtering confidential information in voice and image data
JP2020072367A (ja) * 2018-10-31 2020-05-07 株式会社ジェイ・エックス・ウィンド 情報処理システムおよび文字起こし方法

Also Published As

Publication number Publication date
US20100214476A1 (en) 2010-08-26
US8401857B2 (en) 2013-03-19
JP4958120B2 (ja) 2012-06-20

Similar Documents

Publication Publication Date Title
JP4958120B2 (ja) 支援装置、支援プログラム、および支援方法
US20050143994A1 (en) Recognizing speech, and processing data
CN112632326B (zh) 一种基于视频脚本语义识别的视频生产方法及装置
US20080270437A1 (en) Session File Divide, Scramble, or Both for Manual or Automated Processing by One or More Processing Nodes
JP2007517338A (ja) サーチ品質の改善システムおよび改善方法
US11138970B1 (en) System, method, and computer program for creating a complete transcription of an audio recording from separately transcribed redacted and unredacted words
US20080262841A1 (en) Apparatus and method for rendering contents, containing sound data, moving image data and static image data, harmless
US11822589B2 (en) Method and system for performing summarization of text
US11361759B2 (en) Methods and systems for automatic generation and convergence of keywords and/or keyphrases from a media
KR102036721B1 (ko) 녹음 음성에 대한 빠른 검색을 지원하는 단말 장치 및 그 동작 방법
WO2022083132A1 (zh) 一种基于文字段落的动画草稿生成方法与装置
KR101709693B1 (ko) 크라우드 소싱을 이용한 웹툰 언어 자동 번역 방법
US11182553B2 (en) Method, program, and information processing apparatus for presenting correction candidates in voice input system
JP2010003219A (ja) 関連クエリ導出装置、関連クエリ導出方法及びプログラム
WO2021153403A1 (ja) テキスト情報編集装置及びテキスト情報編集方法
JP6903365B1 (ja) サーバおよびデータ割り当て方法
JP6626029B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP4444141B2 (ja) 情報処理装置、情報処理方法、情報処理プログラム及びこれを記録したコンピュータ読み取り可能な記録媒体
JP2015022406A (ja) テキストによる視覚表現を含む文書を分析する装置、方法およびプログラム
JP6342792B2 (ja) 音声認識方法、音声認識装置及び音声認識プログラム
CN110717091B (zh) 基于人脸识别的词条数据扩充方法及装置
US20240048821A1 (en) System and method for generating a synopsis video of a requested duration
CN117573870B (zh) 一种多模态数据的文本标签提取方法、装置、设备及介质
JP2003173335A (ja) 自然言語対話装置及び方法並びに記憶媒体
CN110969026A (zh) 译文输出方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120221

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

RD14 Notification of resignation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7434

Effective date: 20120222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120313

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150330

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees