JP2015184564A - 音声書起支援システム、サーバ、装置、方法及びプログラム - Google Patents

音声書起支援システム、サーバ、装置、方法及びプログラム Download PDF

Info

Publication number
JP2015184564A
JP2015184564A JP2014062277A JP2014062277A JP2015184564A JP 2015184564 A JP2015184564 A JP 2015184564A JP 2014062277 A JP2014062277 A JP 2014062277A JP 2014062277 A JP2014062277 A JP 2014062277A JP 2015184564 A JP2015184564 A JP 2015184564A
Authority
JP
Japan
Prior art keywords
data
text data
voice
accepting
editing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014062277A
Other languages
English (en)
Other versions
JP6430137B2 (ja
Inventor
鈴木 綾
Aya Suzuki
綾 鈴木
雅巳 中村
Masami Nakamura
雅巳 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Advanced Media Inc
Original Assignee
Advanced Media Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Advanced Media Inc filed Critical Advanced Media Inc
Priority to JP2014062277A priority Critical patent/JP6430137B2/ja
Publication of JP2015184564A publication Critical patent/JP2015184564A/ja
Application granted granted Critical
Publication of JP6430137B2 publication Critical patent/JP6430137B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Document Processing Apparatus (AREA)
  • Machine Translation (AREA)

Abstract

【課題】音声の書き起こしに関して、作業性を向上させながらも品質を向上させ、かつ、作業時間の短縮を図ること。
【解決手段】音声書起支援システムSは、音声データから、テキストデータに書き起こすシステムであり、音声認識処理部133と、入力検出部151と、入力検出部171と、を備える。音声認識処理部133は、音声データを入力して音声認識処理を行い、テキストデータを生成する。入力検出部151テキストデータ生成手段により生成されたテキストデータが音声データに即しているか否かの正誤判定を受け付ける。入力検出部171は、入力検出部151により受け付けられたテキストデータの正誤判定の結果に基づいて、当該テキストデータの編集を受け付ける。
【選択図】図4

Description

本発明は、音声の書き起こしを支援する音声書起支援システム、サーバ、装置、方法及びプログラムに関する。
従来より、例えば、会議等を録音した音声を音声認識して、文字列に変換した音声を書き起こしたものを議事録等として利用することが行われている。音声認識に関しては、必ずしも適切に文字列に変換されることがないために、誤変換した文字列を確認・修正する必要がある。このような要求に応えるべく、例えば、特許文献1乃至5には、音声を再生確認して、音声認識された文字列が誤っていれば正しく修正して、音声認識した文字列が音声に即しているかを確認する技術が開示されている。さらに、特許文献6及び非特許文献1には、誤変換箇所を効率的に探すために、過去の修正事例を活用する技術や、誤変換箇所を範囲指定する手間を省いて効率よく修正する技術が開示されている。
特開2008−107624号公報 特開2008−009693号公報 特開2006−267319号公報 特開2005−228178号公報 特開2005−165066号公報 特開2011−002656号公報
株式会社 O−RID KYBER、" 手書きメモの高精度 OCR クラウドサービス「KYBER」"、[online]、2011年9月21日、ASCII.jp、平成26年2月13日検索日、インターネット(URL:http://ascii.jp/elem/000/000/635/635625/)
しかしながら、上述した特許文献1乃至6、及び非特許文献1の技術において、音声認識した文字列の修正は、音声と音声認識された文字列とを確認して、文字列が誤っていれば正しく修正するという作業の特性上、音声の確認から文字列との対比・修正までの作業が同一の作業者によって行われていた。このため、作業者に高いスキルが必要であり、作業時間も多く必要であった。即ち、作業者個人の能力に左右され、かつ、省力化が図りにくかった。結果として、音声の書き起こしにかかるコストを抑えることの妨げにもなっていた。
本発明は、音声の書き起こしに関して、作業性を向上させながらも品質を向上させ、かつ、作業時間の短縮を図ることを目的とする。
本発明者らは、上述した音声の確認から文字列との対比・修正までの作業が音声認識により誤変換した箇所を見つけるという作業と、誤変換箇所を修正する作業とに分けられることを見出した。音声認識により誤変換した箇所を見つけるという作業は、作業者の能力に左右されにくい単純な作業であり、単純な作業と、そうでない誤変換箇所を修正する作業とを同じ作業者が行っていたことによる以下のような弊害(1)乃至(4)があることも見出した。
弊害(1)誤変換箇所の見逃しや修正間違いの可能性があること。それを防ぐためには別途、校正する人が必要となること。
弊害(2)誤変換箇所を見つけるという単純な作業が、修正作業(タイピング)に割り込まれてしまうため、効率的ではないこと。
弊害(3)誤変換箇所を見つけるという単純な作業も、誤変換箇所を修正するというタイピング技能を要する作業者が行うためにコストに反映されてしまうこと。
弊害(4)音声は時系列データであるため、意味のある聞き取れる単位でないと確認が困難であるため、OCR(画像認識)等による文字単位での文字認識結果のチェック方法をそのまま採用することはできない。
即ち、単純な作業と、そうでない単純でない作業とを一連の作業としてではなく別の作業として行わせることで、単純な作業での作業の効率化を図ることができ、さらに、単純でない作業が単純な作業と共に行われていたことによる作業精度の低下を回避することができ、単純な作業と単純でない作業との作業の特化によって、音声の書き起こし全体の作業精度の向上や作業時間の短縮を図ることができることを見出し、本発明を完成するに至った。
上記目的を達成するため、本発明の一態様の音声書起支援システムは、
音声データから、テキストデータに書き起こす音声書起支援システムにおいて、
音声データを入力して音声認識処理を行い、テキストデータを生成する生成手段と、
前記生成手段により生成されたテキストデータが音声データに即しているか否かの正誤判定を受け付ける第1の受付手段と、
前記第1の受付手段により受け付けられた前記テキストデータの正誤判定の結果に基づいて、当該テキストデータの編集を受け付ける第2の受付手段と、を備えることを特徴とする。
また、上記目的を達成するため、本発明の一態様の音声書起支援方法は、
音声データから、テキストデータに書き起こす音声書起支援システムで実行される音声書起支援方法において、
音声データを入力して音声認識処理を行い、テキストデータを生成する生成ステップと、
前記生成ステップにより生成されたテキストデータが音声データに即しているか否かの正誤判定を受け付ける第1の受付ステップと、
前記第1の受付ステップにより受け付けられた前記テキストデータの正誤判定の結果に基づいて、当該テキストデータの編集を受け付ける第2の受付ステップと、
を含むことを特徴とする。
また、上記目的を達成するため、本発明の一態様のプログラムは、
音声データから、テキストデータに書き起こす音声書起支援システムを制御するコンピュータを、
音声データを入力して音声認識処理を行い、テキストデータを生成する生成手段、
前記生成手段により生成されたテキストデータが音声データに即しているか否かの正誤判定を受け付ける第1の受付手段、
前記第1の受付手段により受け付けられた前記テキストデータの正誤判定の結果に基づいて、当該テキストデータの編集を受け付ける第2の受付手段、
として機能させることを特徴とする。
また、上記目的を達成するため、本発明の一態様のサーバは、
音声データを入力して音声認識処理を行って生成されたテキストデータと、生成された前記テキストデータが音声データに即しているか否かの正誤判定の結果を受け付けたデータと、当該テキストデータの正誤判定の結果に基づいて、当該テキストデータの編集を受け付けたデータとを一元的に管理する管理手段と、
前記管理手段による管理の結果、更新されたデータを外部装置に出力する出力手段と、
を備えることを特徴とする。
また、上記目的を達成するため、本発明の一態様の管理方法は、
サーバで実行されるデータ管理方法であって、
音声データを入力して音声認識処理を行って生成されたテキストデータと、生成された前記テキストデータが音声データに即しているか否かの正誤判定の結果を受け付けたデータと、当該テキストデータの正誤判定の結果に基づいて、当該テキストデータの編集を受け付けたデータとを一元的に管理する管理ステップと、
前記管理ステップによる管理の結果、更新されたデータを外部装置に出力する出力ステップと、
を含むことを特徴とする。
また、上記目的を達成するため、本発明の一態様のプログラムは、
サーバを制御するコンピュータを、
音声データを入力して音声認識処理を行って生成されたテキストデータと、生成された前記テキストデータが音声データに即しているか否かの正誤判定の結果を受け付けたデータと、当該テキストデータの正誤判定の結果に基づいて、当該テキストデータの編集を受け付けたデータとを一元的に管理する管理手段、
前記管理手段による管理の結果、更新されたデータを外部装置に出力する出力手段、
として機能させることを特徴とする。
また、上記目的を達成するため、本発明の一態様の正誤判定装置は、
音声認識処理で生成されたテキストデータが音声データに即しているか否かの正誤判定を受け付ける受付手段と、
前記受付手段により受け付けられた前記正誤判定の結果を、当該テキストデータの編集用に出力する出力手段と、
を備えることを特徴とする。
また、上記目的を達成するため、本発明の一態様の正誤判定方法は、
正誤判定装置で実行される正誤判定方法であって、
音声認識処理で生成されたテキストデータが音声データに即しているか否かの正誤判定を受け付ける受付ステップと、
前記受付ステップにより受け付けられた前記正誤判定の結果を、当該テキストデータの編集用に出力する出力ステップと、
を含むことを特徴とする。
また、上記目的を達成するため、本発明の一態様のプログラムは、
正誤判定装置を制御するコンピュータを、
音声認識処理で生成されたテキストデータが音声データに即しているか否かの正誤判定を受け付ける受付手段、
前記受付手段により受け付けられた前記正誤判定の結果を、当該テキストデータの編集用に出力する出力手段、
として機能させることを特徴とする。
また、上記目的を達成するため、本発明の一態様の編集装置は、
音声認識処理で生成されたテキストデータが音声データに即しているか否かの正誤判定の結果を受け付ける第1の受付手段と、
前記第1の受付手段により受け付けられた前記テキストデータの正誤判定の結果に基づいて、当該テキストデータの編集を受け付ける第2の受付手段と、
を備えることを特徴とする。
また、上記目的を達成するため、本発明の一態様の編集方法は、
編集装置で実行される編集方法であって、
音声認識処理で生成されたテキストデータが音声データに即しているか否かの正誤判定の結果を受け付ける第1の受付ステップと、
前記第1の受付ステップにより受け付けられた前記テキストデータの正誤判定の結果に基づいて、当該テキストデータの編集を受け付ける第2の受付ステップと、
を含むことを特徴とする。
また、上記目的を達成するため、本発明の一態様のプログラムは、
編集装置を制御するコンピュータを、
音声認識処理で生成されたテキストデータが音声データに即しているか否かの正誤判定の結果を受け付ける第1の受付手段、
前記第1の受付手段により受け付けられた前記テキストデータの正誤判定の結果に基づいて、当該テキストデータの編集を受け付ける第2の受付手段、
として機能させることを特徴とする。
本発明によれば、音声の書き起こしに関して、作業性を向上させながらも品質を向上させ、かつ、作業時間の短縮を図ることができる。
本発明の一実施形態に係る音声書き起こしの手法の具体例を示す概念図である。 本発明の一実施形態に係る音声書き起こしの手法の他の具体例を示す概念図である。 日常会話192発話の認識精度別の頻度分布を示す図である。 本発明の一実施形態に係る音声書起支援システムにおけるシステム構成を示すシステム構成図である。 正誤判定を行うための操作画面を示す模式図である。 編集を行うための操作画面を示す模式図である。 復唱を行うための操作画面を示す模式図である。 出力データを示す模式図である。 音声書起支援システムのうち、サーバ装置のハードウェア構成を示すハードウェア構成図である。 音声書起支援システムのうち、情報処理端末のハードウェア構成を示すハードウェア構成図である。 図4の入稿納品サーバの機能的構成のうち、入稿納品処理を実行するための機能的構成を示す機能ブロック図である。 図4の管理サーバの機能的構成のうち、データ管理処理を実行するための機能的構成を示す機能ブロック図である。 図4の音声認識サーバの機能的構成のうち、音声認識データ生成処理を実行するための機能的構成を示す機能ブロック図である。 図4の正誤判定端末の機能的構成のうち、正誤判定処理を実行するための機能的構成を示す機能ブロック図である。 図4の編集端末の機能的構成のうち、編集処理を実行するための機能的構成を示す機能ブロック図である。 図4の復唱端末の機能的構成のうち、復唱処理を実行するための機能的構成を示す機能ブロック図である。 図4の全体校正端末の機能的構成のうち、全体校正処理を実行するための機能的構成を示す機能ブロック図である。 図11の機能的構成を有する図4の入稿納品サーバが実行する入稿納品処理の流れを説明するフローチャートである。 図12の機能的構成を有する図4の管理サーバが実行するデータ管理処理の流れを説明するフローチャートである。 図13の機能的構成を有する図4の音声認識サーバが実行するタグ付きテキストデータ生成処理の流れを説明するフローチャートである。 図14の機能的構成を有する図4の正誤判定端末が実行する正誤判定処理の流れを説明するフローチャートである。 図15の機能的構成を有する図4の編集端末が実行する編集処理の流れを説明するフローチャートである。 図16の機能的構成を有する図4の復唱端末が実行する復唱処理の流れを説明するフローチャートである。 図17の機能的構成を有する図4の全体校正端末が実行する全体校正処理の流れを説明するフローチャートである。
以下、本発明の実施形態について図面を用いて説明する。
<音声書き起こしの手法>
本実施形態の音声書き起こしの手法について説明する。
本実施形態の音声書き起こしの手法は、取得した音声データの音声認識をして文字列データを自動生成し、その後、音声認識結果が適切か否かの正誤判定を行い、当該正誤判定の結果に基づいて、文字列の修正・校正を行って、音声データに即した文字列データを生成することで行われる。
したがって、音声書き起こしの手法では、音声認識により自動生成された文字列データが適切か否かの確認・編集の行程においては、文字列データが適切か否かの正誤のみを判定する行程と、正誤の結果に基づいて、編集を行う行程とに分かれる。
これにより、音声書き起こしの手法では、編集を担当する者は、誤の判定がなされた部分のみを確認すればよいため、時間の短縮等の効果を得られる。
また、文字列データが適切か否かの正誤のみを判定する行程で、編集を行わずに、正誤のみの判定に特化させることで、確認の時間を短縮することができ、従来、多くの時間がかかり、かつ、特殊なスキルを要した行程での確認の担当者の負担軽減を行うことができ、軽作業化を図ることができる。
その結果、音声書き起こしの手法では、音声書き起こしに係る時間を大幅に短縮できると共に、音声に即した精度の高い書き起こしを実現することができる。
図1は、本発明の一実施形態に係る音声書き起こしの手法の具体例を示す概念図である。
具体的には、本実施形態の音声書き起こしの手法は、図1に示すように以下のような手順[1]乃至[8]で行われる。
手順[1]音声を音声認識し、その結果である発話単位で分割された音声とそれに対応する音声認識結果の文字列をペアのデータにして正誤判定者に送る。
手順[2]正誤判定者はそのデータの音声を再生して聞いて、音声認識結果の文字列が正しいかどうか判定(正誤判定)する。
手順[3]2名が2の作業を行って2名とも正しいという判断の場合はそこで終了する。データに完了フラグを付けて管理スペースに保管する。
手順[4]正誤判定の作業(手順[2])の結果、1名以上が正しくないと判断した場合は編集作業(書き起こし)者に送る。
手順[5]編集作業者は送られてきた発話単位の音声を聞いてそれに対応する音声認識結果の文字列を編集し、もう一度、正誤判定作業者に送る。
手順[6]編集された文字列データに対し、正誤判定者が判定し、2名とも正しいという判断の場合はそこで終了する。その後、データに完了フラグを付けて管理スペースに保管する。なお、本例においては、正誤判定作業者を2名(複数)とするチェックの体制が組まれるように構成される。複数のチェックとすることで、正誤判定の精度を上げることができる。
手順[7]1名以上が正しくないと判断した場合は先とは別の編集作業者に送り、手順[5]以降の手順を繰り返す。
手順[8]編集作業が終了した文字列データに対し、校正作業者が校正を行う。校正が完了した文字列データは、納品物として納品される。
また、上述した図1の例では、第1正誤判定を経た後に、第2正誤判定を経るように直列的に正誤判定を行う。このように構成することで、第2正誤判定では第1正誤判定に基づくことになり、正誤判定の時間を削減することができるように構成する。
図2は、本発明の一実施形態に係る音声書き起こしの手法の他の具体例を示す概念図である。
図2の例では、第1正誤判定と第2正誤判定を並列的に行う。このように構成することで、正誤判定の箇所が重複してコストはかかるが、個別の正誤判定の結果を得られるために、正誤判定作業者の並列化による時間短縮ができ、より軽作業化を計ることができるように構成する。
<音声書き起こしの手法を採用した場合の効果>
以上のような音声書き起こしの手法を実現することで、以下のような効果(1)乃至(7)を奏することができる。
効果(1)正誤判定を専任者が行うため、誤変換箇所の見逃しが少ないこと。また、2名の正誤判定者を置くことでより見逃しが少なくなる。さらに、編集後も正誤判定するため、編集間違いの可能性が少ないこと。
効果(2)誤変換箇所を見つけるという単純な作業と、編集作業は完全に別の作業者が行うため、同じ作業を集中して行え、効率化を図ることができること。
効果(3)誤変換箇所を見つけるという単純な作業は、特別なスキルが必要ないためコストの安い作業者が行い、編集能力やタイピング技能等を持つ作業者は誤変換箇所を編集入力するという作業に集中できるため、全体的にコストが削減できること。
効果(4)編集作業者は、正誤判定で正と判断された発話は編集対象外となり、音声再生をして確認をする必要がないため、作業時間が削減される。音声認識精度が向上すればするほど、この削減効果は大きくなること。
また、効果(4)については、次のような実験データに基づいた裏付けがなされている。例えば、日常会話の合計192発話を録音し音声認識した結果は、平均音声認識精度は76.6%であったが、そのうち正誤判定で正とされた発話(正しく変換された発話)は72発話(全体の約38%)にも上るという実験結果が得られている。即ち、192発話中72発話は正誤判定で正と判断されるため、編集作業対象から外される。音声認識の特性として、まんべんなく誤変換の文字が全ての発話に現れるのではなく、誤変換された場合は続く言葉も誤変換する可能性が高いので誤変換の文字が連続することが多い。誤変換発生箇所には集中の偏りがあるため、その分、全て正しく変換される発話が増加する。
したがって、本方法は音声認識の特性を生かした方法であることがいえる。参考情報として、日常会話の認識精度別の頻度分布を図3に示す。なお、図3は、日常会話192発話の認識精度別の頻度分布を示す図である。
ここでの音声認識精度は文字認識精度と呼ばれているもので、以下の式(1)で計算される。
文字認識率=((正解#)−(誤挿入#)−(誤削除#)−(誤置換#))/(正解#)・・・(1)
なお、「#」は文字数を示すものである。
(認識精度の計算例)
正解:用紙に去年 払った医療費を書いて
結果:要旨見きわめ払った医療費 書いて(下線は誤変換箇所を示す。)
SSSSSI D
正解文字数(R):15文字
誤挿入文字数(I):1文字
誤削除文字数(D):1文字
誤置換文字数(S):5文字
したがって、上記の例では文字認識率は、式(1)に当てはめると、
(15−1−1−5)/15=0.533=53.3%
となる。
効果(5)編集作業の後、その結果を正誤判定作業にフィードバックするため、編集作業者の品質チェック(ベリファイ)も行うことができるため、編集作業者の能力判定にそのデータを活用することができること。
効果(6)正誤判定者を設けることで全体校正の行程での作業が軽減される。これは、正誤判定者によりチェック済みであるため、例えば、表記レベルの編集間違いをチェックする作業は省略できることによること。
効果(7)正誤判定作業と編集作業を分業とすることにより、各作業の効率化を図ることができ、作業性や質が向上し、作業時間を短縮することができること。
<音声書起支援システムのシステム構成>
上述したような音声書き起こしの手法を実現することができる音声書起支援システムについて説明する。
図4は、本発明の一実施形態に係る音声書起支援システムSにおけるシステム構成を示すシステム構成図である。
音声書起支援システムSは、図4に示すように、入稿納品サーバ1と、管理サーバ2と、音声認識サーバ3と、正誤判定端末4と、編集端末5と、復唱端末6と、全体校正端末7と、を備える。
入稿納品サーバ1は、インターネットに接続され、音声データの受け付けと、作成した納品用データをインターネット上にアップロードすることで納品する。
また、入稿納品サーバ1は、管理サーバ2に受け付けた音声データを出力したり、管理サーバ2から納品用データを取得してインターネットからダウンロード可能にデータをアップロードしたりする。
管理サーバ2は、入稿納品サーバ1から音声データを取得すると共に、入稿納品サーバ1に対して作成した納品用データを出力する。
また、管理サーバ2は、音声認識サーバ3から音声データを音声認識して得たテキストデータを保持し、当該保持しているテキストデータが正誤判定端末4と、編集端末5と、復唱端末6と、全体校正端末7からリアルタイムに修正可能になるようにデータを管理する。
また、管理サーバ2では、編集されたデータに対して正誤判定において正しくないと判定された編集前テキストデータAとその編集作業者名を記憶しておき、最終的に正しいと判定されたテキストデータBと比較処理を行って、正解率を計算し、その編集作業者の能力判定結果をすることができる。なお、正解率の計算方法は、本実施形態においては、上述した文字認識精度の計算方法と同じに行う。
音声認識サーバ3は、管理サーバ2から音声データを取得し、取得した音声データを音声認識して、テキストデータを生成する。また、音声認識サーバ3は、生成したテキストデータを管理サーバ2に出力する。
また、音声認識サーバ3では、例えば、息継ぎ時の発話が途切れている箇所を、音量レベルがある閾値よりも小さくなったことを検知したり、雑音があって音量レベルだけでは判断できないときは周波数解析により音声ではないと判定したりすることで、発話の区切りとみなして発話区間を検出する。
正誤判定端末4は、管理サーバ2に保持されるテキストデータにおいて、テキストが音声と一致しているか否かの一致の有無をチェックする情報をユーザに提供する。また、正誤判定端末4は、ユーザのチェック結果を受け付けて、管理サーバ2に保持されるデータの変更指示を行う。
また、正誤判定端末4では、発話単位で再生される音声が出力される。ユーザは、それに対応して表示される変換文字を見て、音声認識結果の文字列が正しいかどうか判定することになる。
また、正誤判定端末4では、検出された発話区間のみの音声を再生するので、発話区間以外は自動的にスキップする。このため、ユーザの音声を聞く時間を短縮できる。また、正誤判定端末4では、音声の再生速度を変える機能をもつので再生速度を上げることで音声を聞く時間を短縮することができ、聞き取りにくい発話は再生速度を遅くすることで正確に聞くことができ、判断時間を短縮することができる。
また、正誤判定端末4では、2名の正誤判定結果が何れも「正」であれば発話単位で分割された発話データに完了フラグを立て、管理サーバ2に保管する。1名以上が正しくないと判断したときは、編集端末5での編集の対象となる。
編集端末5は、管理サーバ2に保持されるテキストデータにおいて、正誤判定端末4のチェック結果を利用して、テキストデータをユーザにより編集する操作を受け付ける。また、編集端末5は、受け付けた編集結果を受け付けて、管理サーバ2に保持されるデータの変更指示を行う。
また、編集端末5では、発話単位で音声を出力する。音声を聞いた編集作業者がそれに対応して表示される変換文字の誤変換箇所を編集することになる。
また、編集端末5では、正誤判定端末4で正しくない(誤)と判定された発話のみの音声を出力し、正しいと判断された発話や発話していない区間は自動的にスキップする。このため、ユーザが音声を聞く時間を短縮できる。また、編集端末5では、音声の再生速度を変える機能をもつので再生速度を上げることで音声を聞く時間を短縮することができ、聞き取りにくい発話は再生速度を遅くすることで正確に聞くことができ、判断時間を短縮することができる。
復唱端末6は、音声データのうち、聞き取りが困難な箇所や音声認識できない箇所がある場合に、新たにユーザが復唱して読み上げた音声を取得する。また、復唱端末6は、取得した音声データを管理サーバ2に保持される音声データの該当箇所に差し替える指示を行う。
全体校正端末7は、正誤判定・編集の行程を経た文字列を、ユーザが表記揺れや体裁を整えて校正して納品用データに変更する操作を受け付ける。また、全体校正端末7は、管理サーバ2に保持されるテキストデータを納品用データに変更する指示を行う。
<音声書起支援システムにおける各作業者の位置付け>
正誤判定作業者は、正誤判定端末4を操作して、音声認識の結果で生成された文字列が適切であるかの正誤判定を発話単位で行い、当該正誤判定の結果を入力する作業者である。
編集作業者は、編集端末5を操作して、正誤判定作業者による正誤判定を経た文字列の編集を行い、当該編集結果を入力する作業者である。
復唱作業者は、復唱端末6を操作して、音声認識が行えない箇所や聞き取り困難な箇所がある場合に、音声に基づいて、復唱を行い、復唱した音声を入力する作業者である。
全体校正作業者は、全体校正端末7を操作して、編集作業を経た入稿データに対応する文字列群に対して、表記揺れ等の体裁を整えたりして校正を行い、当該校正結果を入力する作業者である。
<正誤判定を行うための操作画面>
図5は、正誤判定を行うための操作画面を示す模式図である。
正誤判定を行うための操作画面は、図5に示すように、音声波形エリアR1と、音声認識結果表示エリアR2と、編集エリアR3と、により構成される。
音声波形エリアR1は、画面の上部に設けられるエリアで、音声データを音声波形として表示する。表示される音声波形は、右に行くほど時間が進むように時系列に表示される。
また、音声波形の発話単位を音声波形の上部に設けられるバー(以下、「発話区間バー」という。)で音声波形に対応付けて表示している。発話区間バーによって、発話区間を認識でき、直感的に発話区間の長さを認識することができる。
音声認識結果表示エリアR2は、発話区間に対応して、時系列に、音声認識の結果が適切か否かを示すチェックの結果を示す正誤判定エリアR21と、音声認識の結果を示す音声認識結果エリアR22と、編集結果を示す編集結果エリアR23からなる。
正誤判定エリアR21は、正誤判定作業者の作業フィールドであり、対応する音声を聞いた上で、音声認識結果エリアの表示が適切であるか否かの正誤判定結果が選択的に入力作業を行う。正誤判定により、適切であるとされた場合には、「〇」を選択し、適切でないとされた場合には、「×」を選択する。
また、正誤判定エリアR21の判定結果に基づいて、編集作業者は、対応する文字列の編集を行う。具体的な内容の評価を行わずに、適否のみをチェックする行程を加えることで、編集の時間を短縮すると共に、編集の精度を高めることができ、効率的に高品質な納品用データを作成することができる。
音声認識結果エリアR22は、「話者名」と、「開始時刻」・「終了時刻」と、「認識結果」の項目を表示するエリアである。
「話者名」には、発話が誰によって行われたかの人物名等が表示される。「開始時刻」・「終了時刻」には、発話区間の開始と終了時刻が表示される。「認識結果」には、発話区間に対応した音声認識結果が表示される。
編集結果エリアR23は、編集作業者により編集作業が行われた場合に、編集した文字列に対応して編集後の文字列が表示される。
編集エリアR3は、アクティブにした発話単位の箇所においての「編集結果」の項目の内容を編集可能に表示するエリアである。表示されたテキストを編集することで、対応する「編集結果」に編集結果が反映される。
このように構成される正誤判定を行うための操作画面では、正誤判定作業者は、まず、発話単位の認識結果を選択する。これにより、対応する音声波形と、発話区間バーの色が反転してアクティブとなった旨が表示される。そして、自動的に対応する発話音声が再生される。
次に、正誤判定作業者は、正誤判定結果の選択(〇×チェックを入力)を行う。その後、自動的に次の時間の発話が選択されて、発話音声が再生されることとなる。
この作業を順次繰り返して、正誤判定作業者による正誤判定が行われる。
<編集を行うための操作画面>
図6は、編集を行うための操作画面を示す模式図である。
編集を行うための操作画面は、図6に示すように、画面構成は図5の正誤判定を行うための操作画面と同様である。
編集を行うための操作画面では、編集作業者は、まず、発話単位の認識結果を選択する。これにより、対応する音声波形と、発話区間バーの色が反転してアクティブとなった旨が表示される。そして、自動的に対応する発話音声が再生される。
次に、編集作業者は、編集エリアR3に表示される文字列の誤変換箇所を正しい文字列に修正入力をして確定する。その後、「編集結果」に編集した文字列が表示される。その後、自動的に次の×の発話が選択されて、発話音声が再生されることとなる。
この作業を順次繰り返して、編集作業者による編集が行われる。
<復唱を行うための操作画面>
図7は、復唱を行うための操作画面を示す模式図である。
復唱を行うための操作画面は、図7に示すように、画面構成は図5の正誤判定を行うための操作画面と同様である。
復唱を行うための操作画面では、復唱作業者は、まず、発話単位の認識結果を選択する。これにより、対応する音声波形と、発話区間バーの色が反転してアクティブとなった旨が表示される。そして、自動的に対応する発話音声が再生される。
次に、復唱作業者は、復唱をして音声を入力する。その後、復唱して入力した音声の音声認識が行われて「認識結果」に新たな文字列が表示される。その後、自動的に次の×の発話が選択されて、発話音声が再生されることとなる。
この作業を順次繰り返して、復唱作業者による復唱が行われる。
<全体校正を経た出力データ>
図8は、出力データを示す模式図である。
全体校正を経た出力データは、図8に示すように、図5等の表示画面に表示されたデータのうち、話者と、発話単位の文字列からなるテキストデータである。発話単位の文字列は、発話単位に改行されて出力されるのではなく、文章毎に改行されて出力される。
具体的には、「話者:議長」「話者に対応する文字列:ただいまから本日の会議を開きます。」等が出力されることとなる。
<音声書起支援システムのハードウェア構成(サーバ装置)>
図9は、音声書起支援システムSのうち、サーバ装置のハードウェア構成を示すハードウェア構成図である。サーバ装置は、PC(Personal Computer)により構成される。
音声書起支援システムSでは、図9に示すように、入稿納品サーバ1と、管理サーバ2と、音声認識サーバ3とが、サーバ装置として、同一のハードウェア構成となる。
サーバ装置1乃至3は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、入力部16と、出力部17と、記憶部18と、通信部19と、ドライブ20と、を備えている。
CPU11は、ROM12に記録されているプログラム、又は、記憶部18からRAM13にロードされたプログラムに従って各種の処理を実行する。
RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、入力部16、出力部17、記憶部18、通信部19及びドライブ20が接続されている。
入力部16は、各種釦等で構成され、ユーザの指示操作に応じて各種情報を入力する。
出力部17は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
記憶部18は、ハードディスク或いはDRAM(Dynamic Random Access Memory)等で構成され、各種画像のデータを記憶する。
通信部19は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
ドライブ20には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア31が適宜装着される。ドライブ20によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部18にインストールされる。また、リムーバブルメディア31は、記憶部18に記憶されている画像のデータ等の各種データも、記憶部18と同様に記憶することができる。
なお、以下において、入稿納品サーバ1と、管理サーバ2と、音声認識サーバ3としてハードウェア構成を個別に扱う場合には、符号の後に、入稿納品サーバ1のときには「−1」を付し、管理サーバ2のときには「−2」を付し、音声認識サーバ3ときには「−3」を付すものとする。
<音声書起支援システムのハードウェア構成(情報処理端末)>
図10は、音声書起支援システムSのうち、情報処理端末のハードウェア構成を示すハードウェア構成図である。情報処理端末は、PC(Personal Computer)により構成される。
音声書起支援システムSでは、図10に示すように、正誤判定端末4と、編集端末5と、復唱端末6と、全体校正端末7とが、情報処理端末4乃至7として、同一のハードウェア構成となる。
以下、情報処理端末4乃至7において、サーバ装置1乃至3と同一のハードウェア構成の説明は省略する。即ち、情報処理端末4乃至7とサーバ装置1乃至3とは、CPU11乃至リムーバブルメディア31において同一のハードウェア構成となるため説明は省略する。
音声入出力部21は、例えば、マイクロフォンを備え、入力された音声をアナログ電気信号に変換する。なお、音声のアナログ信号は、A/D変換処理が施されて、音声データを表すデジタル信号に変換される。このA/D変換処理の実行主体は、特に限定されず、CPU11であってもよいし、図示せぬ専用のハードウェアであってもよいが、本実施形態では説明の便宜上、音声入出力部21であるものとする。即ち、本実施形態では、音声入出力部21は、入力された音声に基づく音声データをCPU11等に出力する。
また、音声入出力部21は、例えばスピーカを備え、音声のアナログ信号を音声として出力する。なお、音声のアナログ信号は音声データを表すデジタル信号を基に生成されるが、音声データを表すデジタル信号を音声のアナログ信号に変換するD/A変換処理の実行主体は、A/D変換処理と同様に、CPU11、図示せぬ専用のハードウェア或いは音声入出力部21の何れであってもよい。本実施形態では、A/D変換処理と同様に、音声入出力部21がD/A変換処理を実行するものとする。
なお、以下において、正誤判定端末4と、編集端末5と、復唱端末6と、全体校正端末7としてハードウェア構成を個別に扱う場合には、符号の後に、正誤判定端末4のときには「−4」を付し、編集端末5のときには「−5」を付し、復唱端末6ときには「−6」を付し、全体校正端末7のときには「−7」を付すものとする。
<音声書起支援システムの各種の機能構成>
図11は、図4の入稿納品サーバ1の機能的構成のうち、入稿納品処理を実行するための機能的構成を示す機能ブロック図である。
入稿納品処理が実行される場合には、CPU11−1において、通信制御部51と、記憶制御部52と、が機能する。
記憶部18−2の一領域には、入稿データ記憶部71と、納品データ記憶部72と、が設けられる。
入稿データ記憶部71には、例えば、会議の音声を録音した音声データからなる入稿データが記憶される。入稿データ記憶部71は、外部からアクセス可能に構成され、インターネットを介して、外部から音声データのアップロードが可能に構成される。
納品データ記憶部72には、音声データに基づいて作成された納品用データが記憶される。納品データ記憶部72に記憶されたデータは、インターネット上に公開されて、外部からダウンロード可能な状態となる。
通信制御部51は、外部装置や管理サーバ2との通信を行うように通信部19−1を制御する。
記憶制御部52は、外部からのアップロードや管理サーバ2からの要請により、各種データを記憶するように記憶部18−1を制御する。
図12は、図4の管理サーバ2の機能的構成のうち、データ管理処理を実行するための機能的構成を示す機能ブロック図である。
データ管理処理が実行される場合には、CPU11−2において、通信制御部91と、記憶制御部92と、データ管理部93と、が機能する。
記憶部18−2の一領域には、入稿データ記憶部111と、書き起こしデータ記憶部112と、が設けられる。
入稿データ記憶部111には、入稿データが記憶される。
書き起こしデータ記憶部112には、タグ付きテキストデータや編集データ等の書き起こしデータが記憶される。
通信制御部91は、入稿納品サーバ1、音声認識サーバ3、各端末(正誤判定端末4・編集端末・復唱端末・全体校正端末)との通信を行うように通信部19−1を制御する。
記憶制御部92は、音声認識サーバ3や各端末(正誤判定端末4・編集端末・復唱端末・全体校正端末)の要請により各種データを記憶や更新をするように記憶部18−2を制御する。
データ管理部93は、記憶されたデータの管理を行う。具体的には、データ管理部93は、編集データのリアルタイム更新に係るデータ管理や作業者の評価等のデータ管理を行う。
図13は、図4の音声認識サーバ3の機能的構成のうち、タグ付きテキストデータ生成処理を実行するための機能的構成を示す機能ブロック図である。
音声認識データ生成処理が実行される場合には、CPU11−3において、通信制御部131と、発話区間検出部132と、音声認識処理部133と、タグ付きテキストデータ生成部134と、が機能する。
通信制御部131は、管理サーバ2との通信を行うように通信部19−3を制御する。
発話区間検出部132は、例えば、息継ぎ時の発話が途切れている箇所を、音量レベルがある閾値よりも小さくなったことを検知したり、雑音があって音量レベルだけでは判断できないときは周波数解析により音声ではないと判定したりすることで、発話の区切りとみなして発話区間を検出する。
音声認識処理部133は、検出された発話区間毎に、音声認識の処理を実行し、テキストデータを生成する。
タグ付きテキストデータ生成部134は、テキストデータに話者や発話区間毎の時刻を対応付けて、タグ付きテキストデータを生成する。
図14は、図4の正誤判定端末4の機能的構成のうち、正誤判定処理を実行するための機能的構成を示す機能ブロック図である。
正誤判定処理が実行される場合には、CPU11−4において、入力検出部151と、表示制御部152と、音声出力制御部153と、が機能する。
入力検出部151は、入力部16−4からの入力操作を検出する。
表示制御部152は、管理サーバ2から編集データを表示するように出力部17−4を制御する。
音声出力制御部153は、音声データを出力するように音声入出力部21−4を制御する。
図15は、図4の編集端末5の機能的構成のうち、編集処理を実行するための機能的構成を示す機能ブロック図である。
編集処理が実行される場合には、CPU11−5において、入力検出部171と、表示制御部172と、音声出力制御部173と、が機能する。
入力検出部171は、入力部16−5からの入力操作を検出する。
表示制御部172は、管理サーバ2から編集データを表示するように出力部17−5を制御する。
音声出力制御部173は、音声データを出力するように音声入出力部21−5を制御する。
図16は、図4の復唱端末6の機能的構成のうち、復唱処理を実行するための機能的構成を示す機能ブロック図である。
復唱処理が実行される場合には、CPU11−6において、入力検出部191と、表示制御部192と、音声出力制御部193と、音声入力制御部194と、が機能する。
入力検出部191は、入力部16−6からの入力操作を検出する。
表示制御部192は、管理サーバ2から編集データを表示するように出力部17−6を制御する。
音声出力制御部193は、音声データを出力するように音声入出力部21−6を制御する。
音声入力制御部194は、音声データを入力するように音声入出力部21−6を制御する。
図17は、図4の全体校正端末7の機能的構成のうち、全体校正処理を実行するための機能的構成を示す機能ブロック図である。
全体校正処理が実行される場合には、CPU11−7において、入力検出部211と、表示制御部212と、が機能する。
入力検出部211は、入力部16−7からの入力操作を検出する。
表示制御部212は、管理サーバ2から編集データを表示するように出力部17−7を制御する。
<音声書起支援システムの各処理の動作>
図18は、図11の機能的構成を有する図4の入稿納品サーバ1が実行する入稿納品処理の流れを説明するフローチャートである。
入稿納品処理は、ユーザによる入力部16−1への入稿納品処理開始の操作により開始される。
ステップS11において、通信制御部51は、音声データのアップロードの要求があったか否かを判定する。
アップロードの要求がない場合には、ステップS11においてNOと判定されて、待機状態となる。
アップロードの要求があった場合には、ステップS11においてYESと判定されて、処理はステップS12に進む。
ステップS12において、記憶制御部52は、音声データを記憶するように入稿データ記憶部71を制御する。その結果、入稿データ記憶部71に外部からアップロードされた音声データが記憶される。
ステップS13において、通信制御部51は、管理サーバ2に当該音声データを送信するように通信部19−1を制御する。
ステップS14において、通信制御部51は、管理サーバ2から納品用データの受け付けがあったか否かを判定する。
納品用データの受け付けがない場合には、ステップS14においてNOと判定されて、待機状態となる。
納品用データの受け付けがあった場合には、ステップS14においてYESと判定されて、処理はステップS15に進む。
ステップS15において、記憶制御部52は、納品用データを記憶するように納品データ記憶部72を制御する。その結果、納品データ記憶部72に外部からダウンロード可能な状態で納品用データが記憶される。外部からダウンロード可能な状態となることで、納品用データの納品状態となる。
その後、入稿納品処理は、終了する。
図19は、図12の機能的構成を有する図4の管理サーバ2が実行するデータ管理処理の流れを説明するフローチャートである。
データ管理処理は、ユーザによる入力部16−2へのデータ管理処理開始の操作により開始される。
ステップS31において、通信制御部91は、入稿データを入稿納品サーバ1から受信したか否かを判定する。
入稿データを受信していない場合には、ステップS31においてNOと判定されて、待機状態となる。
入稿データを受信した場合には、ステップS31においてYESと判定されて、処理はステップS32に進む。
ステップS32において、記憶制御部92は、入稿データを記憶させるように入稿データ記憶部111を制御する。その結果、入稿データ記憶部111に入稿データが記憶される。
ステップS33において、通信制御部91は、入稿データを音声認識サーバ3に送信するように通信部19−2を制御する。
ステップS34において、通信制御部91は、音声認識サーバ3からタグ付きテキストデータを受信したか否かを判定する。
文字変換データを受信していない場合には、ステップS34においてNOと判定されて、待機状態となる。
文字変換データを受信した場合には、ステップS34においてYESと判定されて、処理はステップS35に進む。
ステップS35において、記憶制御部92は、タグ付きテキストデータを記憶させるように書き起こししデータ記憶部112を制御する。その結果、書き起こしデータ記憶部112に文字変換データを記憶される。
ステップS36において、データ管理部93は、各端末4乃至7から編集データの更新があったか否かを判定する。詳細には、データ管理部93は、各端末4乃至7から編集データの更新要請を受け取ったか否かを判定する。
編集データの更新がない場合には、ステップS36においてNOと判定されて、待機状態となる。
編集データの更新があった場合には、ステップS36においてYESと判定されて、処理はステップS37に進む。
ステップS37において、記憶制御部92は、編集データを更新させるように書き起こししデータ記憶部112を制御する。その結果、書き起こしデータ記憶部112の編集データが更新される。
ステップS38において、通信制御部91は、納品用データを全体校正端末7から受信したか否かを判定する。
納品用データを受信していない場合には、ステップS38においてNOと判定されて、待機状態となる。
納品用データを受信した場合には、ステップS38においてYESと判定されて、処理はステップS39に進む。
ステップS39において、記憶制御部92は、納品用データを記憶させるように書き起こししデータ記憶部112を制御する。その結果、書き起こしデータ記憶部112に納品用データを記憶される。
ステップS40において、データ管理部93は、作業者の評価等の管理データに変更があったか否かを判定する。
管理データに変更がない場合には、ステップS40においてNOと判定されて、待機状態となる。
管理データに変更があった場合には、ステップS40においてYESと判定されて、処理はステップS41に進む。
ステップS41において、通信制御部91は、入稿納品サーバ1に納品用データを送信するように通信部19−2を制御する。その結果、納品用データが入稿納品サーバ1に送信される。
その後、データ管理処理は、終了する。
図20は、図13の機能的構成を有する図4の音声認識サーバ3が実行するタグ付きテキストデータ生成処理の流れを説明するフローチャートである。
タグ付きテキストデータ生成処理は、ユーザによる入力部16−3へのタグ付きテキストデータ生成処理開始の操作により開始される。
ステップS61において、通信制御部131は、入稿データを管理サーバ2から受信したか否かを判定する。
入稿データを受信していない場合には、ステップS61においてNOと判定されて、待機状態となる。
入稿データを受信した場合には、ステップS61においてYESと判定されて、処理はステップS62に進む。
ステップS62において、発話区間検出部132は、発話区間を検出する。
ステップS63において、音声認識処理部133は、検出された発話区間毎に、音声認識の処理を実行する。その結果、テキストデータが生成される。
ステップS64において、タグ付きテキストデータ生成部134は、テキストデータに話者や発話区間毎の時刻を対応付けて、タグ付きテキストデータを生成する。
ステップS65において、通信制御部131は、管理サーバ2にタグ付きテキストデータを送信するように通信部19−3を制御する。その結果、タグ付きテキストデータが管理サーバ2に送信される。
その後、文字認識処理は、終了する。
図21は、図14の機能的構成を有する図4の正誤判定端末4が実行する正誤判定処理の流れを説明するフローチャートである。
正誤判定処理は、ユーザによる入力部16−4への正誤判定処理開始の操作により開始される。
ステップS81において、表示制御部152は、編集データを表示するように出力部17−5を制御する。その結果、出力部17−4には、図5に示すような編集画面が表示される。なお、編集データは、管理サーバ2から随時取得して表示し、編集データの更新があった際にも即座に表示を更新することで各端末での作業がリアルタイムに表示される(以下、他の処理においても同じ)。
ステップS82において、入力検出部151は、音声出力の操作があったか否かを判定する。
音声出力の操作がない場合には、ステップS82においてNOと判定されて、待機状態となる。
音声出力の操作あった場合には、ステップS82においてYESと判定されて、処理はステップS83に進む。
ステップS83において、音声出力制御部153は、対応する音声を出力するように音声入出力部21−4を制御する。
ステップS84において、入力検出部151は、正誤判定の操作があったか否かを判定する。
正誤判定の操作がない場合には、ステップS84においてNOと判定されて、待機状態となる。
正誤判定の操作あった場合には、ステップS84においてYESと判定されて、処理はステップS85に進む。操作あったことを受けて、操作結果を編集データに反映する要求を管理サーバ2に対して行う(以下、他の端末での処理においても同じ。)。
ステップS85において、表示制御部152は、編集データを更新表示するように出力部17−4を制御する。
ステップS86において、入力検出部151は、入力操作が終了したか否かを判定する。
入力操作が終了していない場合には、ステップS86においてNOと判定されて、処理はステップS82に戻る。
入力操作が終了した場合には、ステップS86においてYESと判定されて、正誤判定処理は、終了する。
図22は、図15の機能的構成を有する図4の編集端末5が実行する編集処理の流れを説明するフローチャートである。
編集処理は、ユーザによる入力部16−5への編集処理開始の操作により開始される。
ステップS101において、表示制御部172は、編集データを表示するように出力部17−6を制御する。その結果、出力部17−5には、図6に示すような編集画面が表示される。
ステップS102において、入力検出部171は、音声出力の操作があったか否かを判定する。
音声出力の操作がない場合には、ステップS102においてNOと判定されて、待機状態となる。
音声出力の操作あった場合には、ステップS102においてYESと判定されて、処理はステップS103に進む。
ステップS103において、音声出力制御部173は、対応する音声を出力するように音声入出力部21−5を制御する。
ステップS104において、入力検出部171は、編集入力の操作があったか否かを判定する。
編集入力の操作がない場合には、ステップS104においてNOと判定されて、待機状態となる。
編集入力の操作あった場合には、ステップS104においてYESと判定されて、処理はステップS105に進む。
ステップS105において、表示制御部172は、編集データを更新表示するように出力部17−5を制御する。
ステップS106において、入力検出部171は、入力操作が終了したか否かを判定する。
入力操作が終了していない場合には、ステップS106においてNOと判定されて、処理はステップS102に戻る。
入力操作が終了した場合には、ステップS106においてYESと判定されて、編集処理は、終了する。
図23は、図16の機能的構成を有する図4の復唱端末6が実行する復唱処理の流れを説明するフローチャートである。
復唱処理は、ユーザによる入力部16−6への復唱処理開始の操作により開始される。
ステップS121において、表示制御部192は、編集データを表示するように出力部17−6を制御する。その結果、出力部17−6には、図7に示すような編集画面が表示される。
ステップS122において、入力検出部191は、音声出力の操作があったか否かを判定する。
音声出力の操作がない場合には、ステップS122においてNOと判定されて、待機状態となる。
音声出力の操作あった場合には、ステップS122においてYESと判定されて、処理はステップS123に進む。
ステップS123において、音声出力制御部193は、対応する音声を出力するように音声入出力部21−6を制御する。
ステップS124において、音声出力制御部193は、ユーザからの音声を入力するように音声入出力部21−6を制御する。
ステップS125において、表示制御部192は、編集データを更新表示するように出力部17−6を制御する。
ステップS126において、入力検出部191は、入力操作が終了したか否かを判定する。
入力操作が終了していない場合には、ステップS126においてNOと判定されて、処理はステップS122に戻る。
入力操作が終了した場合には、ステップS126においてYESと判定されて、復唱処理は、終了する。
図24は、図17の機能的構成を有する図4の全体校正端末7が実行する全体校正処理の流れを説明するフローチャートである。
全体校正処理は、ユーザによる入力部16−7への全体校正処理開始の操作により開始される。
ステップS141において、表示制御部212は、編集データを表示するように出力部17−6を制御する。
ステップS142において、入力検出部211は、全体校正の操作があったか否かを判定する。
全体校正の操作がない場合には、ステップS142においてNOと判定されて、待機状態となる。
全体校正の操作あった場合には、ステップS142においてYESと判定されて、処理はステップS143に進む。
ステップS143において、表示制御部212は、編集データを更新表示するように出力部17−7を制御する。その後、編集データを図8に示すような出力データを納品用データとして出力する。
ステップS144において、入力検出部211は、入力操作が終了したか否かを判定する。
入力操作が終了していない場合には、ステップS144においてNOと判定されて、処理はステップS142に戻る。
入力操作が終了した場合には、ステップS144においてYESと判定されて、全体校正処理は、終了する。
<変形例>
上述した実施形態を、雑音等で音声認識が困難な音声は復唱者が明瞭な発話で復唱(リスピーク)して音声認識するように構成し、正誤判定の結果が誤[×]である比率が、所定の割合よりも高ければ、音声認識が困難な音声であると判断し、その音声全体を自動的に復唱すべき音声と判定するように構成してもよい。
また、上述した実施形態を、正誤判定で誤[×]の発話を編集端末5の編集作業ではなく、復唱端末6の復唱作業に送って、復唱して音声認識するように構成してもよい。その場合、復唱するだけなのでキーボード入力の遅い作業者であればより早く編集ができるようになる。
また、上述した実施形態を、修正作業の能力が高ければ(作業品質が高ければ)、編集作業(書き起こし)の後、その結果を正誤判定作業にフィードバックしないように構成してもよい。
また、上述した実施形態を、正誤判定で誤[×]である発話を編集した結果、必ず或いは一定の高い比率である単語が含まれていた場合、その単語は音声認識の辞書に登録されていない可能性が高いので、自動的に音声認識の辞書に登録するように構成してもよい。それにより、自動的に音声認識精度を向上させることができる。
また、上述した実施形態を、正誤判定で誤[×]である発話を修正した結果、必ず或いは一定の高い比率である文字列Aが決まった文字列Bに誤変換されていた場合、文字列Bを自動的に文字列Aに置換することで自動修正を行うように構成してもよい。
以上説明したように、本実施形態に係る音声書起支援システムSは、音声データから、テキストデータに書き起こすシステムであり、音声認識処理部133と、入力検出部151と、入力検出部171と、を備える。
音声認識処理部133は、音声データを入力して音声認識処理を行い、テキストデータを生成する。
入力検出部151テキストデータ生成手段により生成されたテキストデータが音声データに即しているか否かの正誤判定を受け付ける。
入力検出部171は、入力検出部151により受け付けられたテキストデータの正誤判定の結果に基づいて、当該テキストデータの編集を受け付ける。
これにより、音声書起支援システムSにおいては、品質を低下させることなく作業性を向上させ、かつ、作業時間の短縮を図ることができる。
また、音声書起支援システムSは、音声データを出力する音声入出力部21を備える。
入力検出部151は、音声入出力部21からの出力に基づいた正誤判定を受け付ける。
これにより、音声書起支援システムSでは、音声とそれに対応する音声認識結果の文字列をペアにし、正誤判定作業者が音声認識結果の文字列が正しいかどうか判定するため、精度の高い正誤判定を行うことができる。
また、音声認識処理部133は、発話単位でテキストデータを生成する。
入力検出部151は、正誤判定を発話単位で受け付ける。
これにより、音声書起支援システムSでは、発話の所定の単位で正誤判定を行うため、正誤判定をより単純化でき、作業負担を軽減すると共に、精度の高い正誤判定を行うことができる。
また、音声認識処理部133は、音声データのうち、話者の息継ぎ単位を発話単位とする。なお、発話単位で分割するための方法として、息継ぎの箇所を検出する。息継ぎ箇所の検出は、例えば、無音がある一定時間経過した場合に息継ぎと判断する。この場合の無音とは発話者の音声がない状態である。一般的には周囲に雑音がある場合でも、音声信号のパワーや発話の周波数成分を分析することで音声か雑音化の判別が可能となる。
これにより、音声書起支援システムSでは、話者の息継ぎ単位を発話単位としているため、正誤判定作業者は、自己の感覚と一致させやすくなる。このため、違和感のある作業とならずに、精度の高い正誤判定を行うことができる。
また、入力検出部151は、複数の正誤判定を受け付ける。
入力検出部171は、入力検出部151により受け付けた全ての正誤判定が音声データに即していないと判定された場合に、テキストデータの編集を受け付ける。
これにより、音声書起支援システムSでは、複数の正誤判定を受け付けることで、正誤判定が音声データに即していないと判定されたもののみ、編集作業を行うために、編集作業者の作業負担を軽減することができる。
また、入力検出部151は、直列的又は並列的に判定された正誤判定を受け付ける。
これにより、音声書起支援システムSでは、複数の正誤判定であるため判定精度が高いものであると共に、直列的に正誤判定を受け付けた場合には、前者が「誤」の判定をした場合に、後者の正誤判定をスキップすることができるため、後者の作業負担を軽減することができより判定精度が高くすることができると共に、並列的に正誤判定を受け付けた場合には、正誤判定の箇所が重複してコストはかかるが、個別の正誤判定の結果を得られるために、時間短縮ができ、より軽作業化を計ることができる。
また、入力検出部151は、入力検出部171が受け付けた編集の結果に基づいた再度の正誤判定を受け付ける。
これにより、音声書起支援システムSでは、品質の向上を図ることができる。
また、音声認識処理部133は、音声データを復唱した音声を、再度音声認識処理してテキストデータを再生成する。
これにより、音声書起支援システムSでは、品質の向上を図ることができる。
また、音声書起支援システムSは、手段の各々は、個別の装置又は、重複して同一の装置に設けられる。
これにより、音声書起支援システムSでは、同時並行的に複数の作業を行うことができる。
また、音声書起支援システムSは、テキストデータ及び音声データの更新がリアルタイムにシステム全体に反映される。
これにより、音声書起支援システムSでは、即時性の高い作業を行うことができる。
なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
上述の実施形態では、音声出力の操作をもって、音声を出力させるように構成していたが、これに限られず、自動で音声出力するように構成することができる。
具体的には、ステップS82のような音声出力の操作の検出処理を省略して自動で音声出力するステップに変更することができる。
また、上述の実施形態では、正誤判定の操作や編集入力の操作がなかった場合には、単に待機状態となるように構成したが、これに限られず、待機状態のとき、再度確認のために音声出力させたい(聞き直したい)場合を想定して、再度の音声出力の操作も受け付けるように構成することができる。
具体的には、ステップS84(又はステップS104)においてNOと判定された場合に、処理がステップS82(又はステップS102)に戻るように構成してもよい。
上述の実施形態では、情報処理端末4乃至7は、据え置き型のPCを想定して説明したがこれに限られず、タブレット端末や携帯端末等の端末で構成してもよい。
また、上述の実施形態では、サーバ装置1乃至3、情報処理端末4乃至7を異なる装置で構成するように説明したが、同一の装置で構成したり、一部が同一となるように装置で構成したりするようにしてもよい。
また、上述の実施形態では、本発明が適用されるサーバ装置及び情報処理端末として、PCを例として説明したが、特にこれに限定されない。
例えば、本発明は、音声入力を受け付け可能な電子機器一般に適用することができる。具体的には、本発明は、携帯型ナビゲーション装置、携帯電話機、ポータブルゲーム、デジタルカメラ、プリンタ、テレビジョン受像機、ビデオカメラ等に適用可能である。
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図11乃至図17の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が音声書起支援システムSの各サーバ1乃至3・各端末4乃至7に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図11乃至図17の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図2のリムーバブルメディア31により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア31は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図9及び図10のROM12や、図9及び図10の記憶部18に含まれるDRAM等で構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
1・・・入稿納品サーバ,2・・・管理サーバ,3・・・音声認識サーバ,4・・・正誤判定端末,5・・・編集端末,6・・・復唱端末,7・・・全体校正端末,11・・・CPU,12・・・ROM,13・・・RAM,14・・・バス,15・・・入出力インターフェース,16・・・入力部,17・・・出力部,18・・・記憶部,19・・・通信部,20・・・ドライブ,21・・・音声入出力部,31・・・リムーバブルメディア,51・・・通信制御部,52・・・記憶制御部,71・・・入稿データ記憶部,72・・・納品データ記憶部,91・・・通信制御部,92・・・記憶制御部,93・・・データ管理部,111・・・入稿データ記憶部,112・・・書き起こしデータ記憶部,131・・・通信制御部,132・・・発話区間検出部,133・・・音声認識処理部,134・・・タグ付きテキストデータ生成部,151・・・入力検出部151・・・表示制御部,153・・・音声出力制御部,171・・・入力検出部171・・・表示制御部,173・・・音声出力制御部,191・・・入力検出部191・・・表示制御部,193・・・音声出力制御部,194・・・音声入力制御部,211・・・入力検出部211・・・表示制御部,S・・・音声書起支援システム

Claims (21)

  1. 音声データから、テキストデータに書き起こす音声書起支援システムにおいて、
    音声データを入力して音声認識処理を行い、テキストデータを生成する生成手段と、
    前記生成手段により生成されたテキストデータが音声データに即しているか否かの正誤判定を受け付ける第1の受付手段と、
    前記第1の受付手段により受け付けられた前記テキストデータの正誤判定の結果に基づいて、当該テキストデータの編集を受け付ける第2の受付手段と、を備えることを特徴とする音声書起支援システム。
  2. 音声データを出力する出力手段を備え、
    前記第1の受付手段は、前記出力手段からの出力に基づいた前記正誤判定を受け付ける、
    ことを特徴とする請求項1に記載の音声書起支援システム。
  3. 前記生成手段は、発話単位でテキストデータを生成し、
    前記第1の受付手段は、前記正誤判定を前記発話単位で受け付ける、
    ことを特徴とする請求項1又は2に記載の音声書起支援システム。
  4. 前記生成手段は、音声データのうち、話者の息継ぎ単位を発話単位とする、
    ことを特徴とする請求項3に記載の音声書起支援システム。
  5. 前記第1の受付手段は、複数の正誤判定を受け付け、
    前記第2の受付手段は、前記第1の受付手段により受け付けた全ての正誤判定が前記音声データに即していないと判定された場合に、前記テキストデータの編集を受け付ける、
    ことを特徴とする請求項1乃至4の何れか1項に記載の音声書起支援システム。
  6. 前記第1の受付手段は、直列的又は並列的に判定された正誤判定を受け付ける、
    ことを特徴とする請求項5に記載の音声書起支援システム。
  7. 前記第1の受付手段は、前記第2の受付手段が受け付けた編集の結果に基づいた再度の正誤判定を受け付ける、
    ことを特徴とする請求項1乃至6の何れか1項に記載の音声書起支援システム。
  8. 前記生成手段は、前記音声データを復唱した音声を、再度音声認識処理してテキストデータを再生成する、
    ことを特徴とする請求項1乃至7の何れか1項に記載の音声書起支援システム。
  9. 前記テキストデータ及び音声データの更新がリアルタイムにシステム全体に反映される、
    ことを特徴とする請求項1乃至8の何れか1項に記載の音声書起支援システム。
  10. 手段の各々は、個別の装置又は、重複して同一の装置に設けられること、
    を特徴とする請求項1乃至9の何れか1項に記載の音声書起支援システム。
  11. 音声データから、テキストデータに書き起こす音声書起支援システムで実行される音声書起支援方法において、
    音声データを入力して音声認識処理を行い、テキストデータを生成する生成ステップと、
    前記生成ステップにより生成されたテキストデータが音声データに即しているか否かの正誤判定を受け付ける第1の受付ステップと、
    前記第1の受付ステップにより受け付けられた前記テキストデータの正誤判定の結果に基づいて、当該テキストデータの編集を受け付ける第2の受付ステップと、
    を含むことを特徴とする音声書起支援方法。
  12. 音声データから、テキストデータに書き起こす音声書起支援システムを制御するコンピュータを、
    音声データを入力して音声認識処理を行い、テキストデータを生成する生成手段、
    前記生成手段により生成されたテキストデータが音声データに即しているか否かの正誤判定を受け付ける第1の受付手段、
    前記第1の受付手段により受け付けられた前記テキストデータの正誤判定の結果に基づいて、当該テキストデータの編集を受け付ける第2の受付手段、
    として機能させることを特徴とするプログラム。
  13. 音声データを入力して音声認識処理を行って生成されたテキストデータと、生成された前記テキストデータが音声データに即しているか否かの正誤判定の結果を受け付けたデータと、当該テキストデータの正誤判定の結果に基づいて、当該テキストデータの編集を受け付けたデータとを一元的に管理する管理手段と、
    前記管理手段による管理の結果、更新されたデータを外部装置に出力する出力手段と、
    を備えることを特徴とするサーバ。
  14. サーバで実行されるデータ管理方法であって、
    音声データを入力して音声認識処理を行って生成されたテキストデータと、生成された前記テキストデータが音声データに即しているか否かの正誤判定の結果を受け付けたデータと、当該テキストデータの正誤判定の結果に基づいて、当該テキストデータの編集を受け付けたデータとを一元的に管理する管理ステップと、
    前記管理ステップによる管理の結果、更新されたデータを外部装置に出力する出力ステップと、
    を含むことを特徴とする管理方法。
  15. サーバを制御するコンピュータを、
    音声データを入力して音声認識処理を行って生成されたテキストデータと、生成された前記テキストデータが音声データに即しているか否かの正誤判定の結果を受け付けたデータと、当該テキストデータの正誤判定の結果に基づいて、当該テキストデータの編集を受け付けたデータとを一元的に管理する管理手段、
    前記管理手段による管理の結果、更新されたデータを外部装置に出力する出力手段、
    として機能させることを特徴とするプログラム。
  16. 音声認識処理で生成されたテキストデータが音声データに即しているか否かの正誤判定を受け付ける受付手段と、
    前記受付手段により受け付けられた前記正誤判定の結果を、当該テキストデータの編集用に出力する出力手段と、
    を備えることを特徴とする正誤判定装置。
  17. 正誤判定装置で実行される正誤判定方法であって、
    音声認識処理で生成されたテキストデータが音声データに即しているか否かの正誤判定を受け付ける受付ステップと、
    前記受付ステップにより受け付けられた前記正誤判定の結果を、当該テキストデータの編集用に出力する出力ステップと、
    を含むことを特徴とする正誤判定方法。
  18. 正誤判定装置を制御するコンピュータを、
    音声認識処理で生成されたテキストデータが音声データに即しているか否かの正誤判定を受け付ける受付手段、
    前記受付手段により受け付けられた前記正誤判定の結果を、当該テキストデータの編集用に出力する出力手段、
    として機能させることを特徴とするプログラム。
  19. 音声認識処理で生成されたテキストデータが音声データに即しているか否かの正誤判定の結果を受け付ける第1の受付手段と、
    前記第1の受付手段により受け付けられた前記テキストデータの正誤判定の結果に基づいて、当該テキストデータの編集を受け付ける第2の受付手段と、
    を備えることを特徴とする編集装置。
  20. 編集装置で実行される編集方法であって、
    音声認識処理で生成されたテキストデータが音声データに即しているか否かの正誤判定の結果を受け付ける第1の受付ステップと、
    前記第1の受付ステップにより受け付けられた前記テキストデータの正誤判定の結果に基づいて、当該テキストデータの編集を受け付ける第2の受付ステップと、
    を含むことを特徴とする編集方法。
  21. 編集装置を制御するコンピュータを、
    音声認識処理で生成されたテキストデータが音声データに即しているか否かの正誤判定の結果を受け付ける第1の受付手段、
    前記第1の受付手段により受け付けられた前記テキストデータの正誤判定の結果に基づいて、当該テキストデータの編集を受け付ける第2の受付手段、
    として機能させることを特徴とするプログラム。
JP2014062277A 2014-03-25 2014-03-25 音声書起支援システム、サーバ、装置、方法及びプログラム Active JP6430137B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014062277A JP6430137B2 (ja) 2014-03-25 2014-03-25 音声書起支援システム、サーバ、装置、方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014062277A JP6430137B2 (ja) 2014-03-25 2014-03-25 音声書起支援システム、サーバ、装置、方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2015184564A true JP2015184564A (ja) 2015-10-22
JP6430137B2 JP6430137B2 (ja) 2018-11-28

Family

ID=54351133

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014062277A Active JP6430137B2 (ja) 2014-03-25 2014-03-25 音声書起支援システム、サーバ、装置、方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6430137B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019148681A (ja) * 2018-02-27 2019-09-05 富士通株式会社 テキスト修正装置、テキスト修正方法およびテキスト修正プログラム
JP2019197210A (ja) * 2018-05-08 2019-11-14 日本放送協会 音声認識誤り修正支援装置およびそのプログラム
JP2020072367A (ja) * 2018-10-31 2020-05-07 株式会社ジェイ・エックス・ウィンド 情報処理システムおよび文字起こし方法
JP2020201909A (ja) * 2019-06-13 2020-12-17 株式会社リコー 表示端末、共用システム、表示制御方法およびプログラム
JP2021009253A (ja) * 2019-07-02 2021-01-28 富士通株式会社 プログラム、情報処理装置、及び情報処理方法
JPWO2021059968A1 (ja) * 2019-09-27 2021-04-01
JP7288530B1 (ja) 2022-03-09 2023-06-07 陸 荒川 システムおよびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001060192A (ja) * 1999-08-20 2001-03-06 Nippon Hoso Kyokai <Nhk> 文字データ修正装置および記憶媒体
JP2004144898A (ja) * 2002-10-23 2004-05-20 Kansai Paint Co Ltd ヒューマンエラー防止システム
JP2004151614A (ja) * 2002-11-01 2004-05-27 Nippon Hoso Kyokai <Nhk> 文字データ修正装置、その方法及びそのプログラム、並びに、字幕の生成方法
JP2012032917A (ja) * 2010-07-29 2012-02-16 Railway Technical Research Institute 多重確認システム及びそれによる多重確認方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001060192A (ja) * 1999-08-20 2001-03-06 Nippon Hoso Kyokai <Nhk> 文字データ修正装置および記憶媒体
JP2004144898A (ja) * 2002-10-23 2004-05-20 Kansai Paint Co Ltd ヒューマンエラー防止システム
JP2004151614A (ja) * 2002-11-01 2004-05-27 Nippon Hoso Kyokai <Nhk> 文字データ修正装置、その方法及びそのプログラム、並びに、字幕の生成方法
JP2012032917A (ja) * 2010-07-29 2012-02-16 Railway Technical Research Institute 多重確認システム及びそれによる多重確認方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
安藤 彰男 AKIO ANDO: "音声認識を利用した放送用ニュース字幕制作システム A Simultaneous Subtitling System for Broadcast New", 電子情報通信学会論文誌 (J84−D−II) 第6号 THE TRANSACTIONS OF THE INSTITUTE OF ELECTRONI, vol. 第J84-D-II巻, JPN6018004331, 1 June 2001 (2001-06-01), JP, pages 77 - 887 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019148681A (ja) * 2018-02-27 2019-09-05 富士通株式会社 テキスト修正装置、テキスト修正方法およびテキスト修正プログラム
JP2019197210A (ja) * 2018-05-08 2019-11-14 日本放送協会 音声認識誤り修正支援装置およびそのプログラム
JP2020072367A (ja) * 2018-10-31 2020-05-07 株式会社ジェイ・エックス・ウィンド 情報処理システムおよび文字起こし方法
JP2020201909A (ja) * 2019-06-13 2020-12-17 株式会社リコー 表示端末、共用システム、表示制御方法およびプログラム
JP7314635B2 (ja) 2019-06-13 2023-07-26 株式会社リコー 表示端末、共用システム、表示制御方法およびプログラム
JP2021009253A (ja) * 2019-07-02 2021-01-28 富士通株式会社 プログラム、情報処理装置、及び情報処理方法
JP7326931B2 (ja) 2019-07-02 2023-08-16 富士通株式会社 プログラム、情報処理装置、及び情報処理方法
US11798558B2 (en) 2019-07-02 2023-10-24 Fujitsu Limited Recording medium recording program, information processing apparatus, and information processing method for transcription
JPWO2021059968A1 (ja) * 2019-09-27 2021-04-01
JP7416078B2 (ja) 2019-09-27 2024-01-17 日本電気株式会社 音声認識装置、音声認識方法、およびプログラム
JP7288530B1 (ja) 2022-03-09 2023-06-07 陸 荒川 システムおよびプログラム
JP2023131648A (ja) * 2022-03-09 2023-09-22 陸 荒川 システムおよびプログラム

Also Published As

Publication number Publication date
JP6430137B2 (ja) 2018-11-28

Similar Documents

Publication Publication Date Title
JP6430137B2 (ja) 音声書起支援システム、サーバ、装置、方法及びプログラム
US9947313B2 (en) Method for substantial ongoing cumulative voice recognition error reduction
US8548618B1 (en) Systems and methods for creating narration audio
JP4558308B2 (ja) 音声認識システム、データ処理装置、そのデータ処理方法及びプログラム
Janin et al. The ICSI meeting corpus
JP6074050B2 (ja) 音声検索システム、音声検索方法、及びコンピュータ読み取り可能な記憶媒体
CN106716466B (zh) 会议信息储存装置以及方法
JP6172769B2 (ja) 理解支援システム、理解支援サーバ、理解支援方法、及びプログラム
US10922484B1 (en) Error detection in human voice recordings of manuscripts
JP2014240940A (ja) 書き起こし支援装置、方法、及びプログラム
JP2013152365A (ja) 書き起こし支援システムおよび書き起こし支援方法
US9472186B1 (en) Automated training of a user audio profile using transcribed medical record recordings
US20210193147A1 (en) Automated generation of transcripts through independent transcription
KR20150001189A (ko) 음성인식을 이용한 외국어 말하기 능력의 훈련 및 평가 방법과 그 장치
JP2006330170A (ja) 記録文書作成支援システム
US20140278404A1 (en) Audio merge tags
Alapetite Impact of noise and other factors on speech recognition in anaesthesia
JP2014142501A (ja) テキスト再生装置、方法、及びプログラム
JP2014038150A (ja) 音声対話システム及び音声対話方法
JP5791124B2 (ja) 要約筆記支援システム、要約筆記支援装置、要約筆記支援方法、及びプログラム
KR101883365B1 (ko) 전문가 교정이 가능한 발음 학습 시스템
Wald Concurrent collaborative captioning
JP6957069B1 (ja) 学習支援システム
KR101957045B1 (ko) 동시통역 자습 보조방법 및 이를 수행하기 위한 기록매체
Janin Meeting recorder

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180213

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181031

R150 Certificate of patent or registration of utility model

Ref document number: 6430137

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250