JP2010510556A - 編集可能なオーディオストリームにおける音声の認識 - Google Patents
編集可能なオーディオストリームにおける音声の認識 Download PDFInfo
- Publication number
- JP2010510556A JP2010510556A JP2009538525A JP2009538525A JP2010510556A JP 2010510556 A JP2010510556 A JP 2010510556A JP 2009538525 A JP2009538525 A JP 2009538525A JP 2009538525 A JP2009538525 A JP 2009538525A JP 2010510556 A JP2010510556 A JP 2010510556A
- Authority
- JP
- Japan
- Prior art keywords
- audio stream
- partial audio
- dictation
- stream
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 57
- 230000004044 response Effects 0.000 claims abstract description 7
- 230000000977 initiatory effect Effects 0.000 claims 1
- 239000000725 suspension Substances 0.000 claims 1
- 230000008569 process Effects 0.000 abstract description 14
- 238000012545 processing Methods 0.000 abstract description 9
- 238000013518 transcription Methods 0.000 description 10
- 230000035897 transcription Effects 0.000 description 10
- 238000012546 transfer Methods 0.000 description 7
- 238000004590 computer program Methods 0.000 description 6
- 230000000875 corresponding effect Effects 0.000 description 5
- 238000012552 review Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 239000012141 concentrate Substances 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 230000009118 appropriate response Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
- G11B27/036—Insert-editing
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/102—Programmed access in sequence to addressed parts of tracks of operating record carriers
- G11B27/105—Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
Abstract
コンシューマは、オーディオストリームが、以前に送信された部分的なオーディオストリームを無効にする編集操作を含むとしても、オーディオストリームを、それが生成され送信される間に、処理することが可能であり、それにより、完全なオーディオストリームのディクテーションとコンサンプションとの間のターンアラウンドタイムをより短くすることを可能にする。
【解決手段】
音声処理システムは、話されたオーディオストリームを部分的なオーディオストリーム(「スニペット」)に分ける。該システムは、話者が、一時停止し、次に録音を再開する。コンシューマは、スニペットが受信される際、スニペットを処理する(例えば、認識するまたは再生する)ことが可能である。コンシューマは、スニペットに反映された編集操作に反応して出力を修正することが可能である。
【選択図】 図1
Description
本出願は、2006年11月22日に申請された、「Recognition of Speech in Editable Audio Streams」という名称の、米国仮特許出願第60/867,105号の利益を主張する。
Claims (24)
- コンピュータで実現される方法であって、
(A)話者の第1の音声を表す第1の部分的なオーディオストリームを生成するステップと、
(B)前記第1の部分的なオーディオストリームを、前記第1の部分的なオーディオストリームが一部分であるディクテーションストリームの参照点に相対する第1の時間と関連付けるステップと、
(C)前記話者の第2の音声を表す第2の部分的なオーディオストリームを生成するステップと、
(D)前記第2の部分的なオーディオストリームを、前記第2の部分的なオーディオストリームが一部分である前記ディクテーションストリームの参照点に相対する第2の時間と関連付けるステップであって、前記第1および第2の部分的なオーディオストリームは、前記参照点に対して時間が連続的ではない、ステップと、
(E)コンシューマで、
(1)前記第1の部分的なオーディオストリームを受信するステップと、
(2)前記第1の時間に基づいた場所で、前記第1の部分的なオーディオストリームを有(3)効ディクテーションストリームに書き込むステップと、
(4)前記第2の部分的なオーディオストリームを受信するステップと、
(5)前記第2の時間に基づいた場所で、前記第2の部分的なオーディオストリームを前記有効ディクテーションストリームに書き込むステップと、
(E)(4)を完了する前に出力を作るために、前記有効ディクテーションの少なくとも一部分をコンシュームするステップと、を含むことを特徴とする方法。 - (E)(5)は、(E)(3)の完了の前に出力を作るために、前記有効ディクテーションの少なくとも一部分をコンシュームするステップを含むことを特徴とする請求項1に記載の方法。
- (E)(2)は、(C)が完了する前に完了することを特徴とする請求項1に記載の方法。
- (E)(1)は、(A)が完了する前に、開始されることを特徴とする請求項1に記載の方法。
- (B)は、前記第1の部分的なオーディオストリームを、前記ディクテーションストリームの開始時間に相対する第1の開始時間と関連付けるステップを含み、(D)は、前記第2の部分的なオーディオストリームを、前記ディクテーションストリームの前記開始時間に相対する第2の開始時間と関連付けるステップを含むことを特徴とする請求項1に記載の方法。
- (E)(1)は、ネットワーク上の前記第1の部分的なオーディオストリームを受信するステップを含むことを特徴とする請求項1に記載の方法。
- (F) (C)の前に、前記ディクテーションストリーム上で編集操作を指定する前記話者からの入力を受信するステップと、
(G) 前記編集操作入力に応答して前記第1の部分的なオーディオストリームを終了し、前記第2の部分的なオーディオストリームを開始するステップと、をさらに含むことを特徴とする請求項1に記載の方法。 - (F)は、前記ディクテーションストリームの相対的開始時間は、新規相対的開始時間に変更されるということを指定する前記話者からの第1の入力を受信するステップと、前記ディクテーションストリームが前記新規相対的開始時間で再開されるということを指定する前記話者からの第2の入力を受信するステップと、を含み、
前記第2の部分的なオーディオストリームの前記第2の時間は、前記第1の部分的なオーディオストリームの前記第1の時間よりも、前記ディクテーションストリームにおける参照点に相対して早いことを特徴とする請求項7に記載の方法。 - (E)(5)は、前記有効ディクテーションの少なくとも一部分を再生するステップを含むことを特徴とする請求項1に記載の方法。
- (E)(5)は、前記有効ディクテーションのトランスクリプトを生成するために、自動音声認識を前記有効ディクテーションに適用するステップを含むことを特徴とする請求項1に記載の方法。
- (E)(5)は、(E)(4)が完了した後にのみ、前記トランスクリプトをユーザへ表示するステップをさらに含むことを特徴とする請求項10に記載の方法。
- (E)(4)は、
(E)(4)(a) 前記第2の部分的なオーディオストリームの前記第2の時間の既定の閾値内である時間で、前記有効ディクテーション内の言葉の一時停止を識別するステップと、
(E)(4)(b) (E)(4)(a)で識別された時間で、前記第2の部分的なオーディオストリームを前記有効ディクテーションに書き込むステップと、を含むことを特徴とする請求項11に記載の方法。 - (F)前記第1の部分的なオーディオストリームと関連付けられる文脈情報を識別するステップと、
(G)前記第1の部分的なオーディオストリームの前記第1の時間を前記文脈情報と関連付けるステップと、
(H) 前記コンシューマで、前記第1の部分的なオーディオストリームの前記第1の時間と関連する前記文脈情報を受信するステップと、をさらに含むことを特徴とする請求項1に記載の方法。 - (E)(5)は、前記第1の部分的なオーディオストリームおよび前記文脈情報を反映する出力を作るために、前記第1の部分的なオーディオストリームおよび前記文脈情報をコンシュームするステップを含むことを特徴とする請求項13に記載の方法。
- (F)は、前記文脈情報を識別する前記話者からの入力を受信するステップを含むことを特徴とする請求項13に記載の方法。
- 前記文脈情報は、画像を含むことを特徴とする請求項13に記載の方法。
- 装置であって、
話者の第1の音声を表す第1の部分的なオーディオストリームを生成するための第1の部分的なオーディオストリーム生成手段と、
前記第1の部分的なオーディオストリームを、前記第1の部分的なオーディオストリームが一部分であるディクテーションストリームにおける参照点に相対する第1の時間と関連付けるための、第1の相対的時間手段と、
前記話者の第2の音声を表す第2の部分的なオーディオストリームを生成するための第2の部分的なオーディオストリーム生成手段と、
前記第2の部分的なオーディオストリームを、前記第2の部分的なオーディオストリームが一部分である前記ディクテーションストリームにおける参照点に相対する第2の時間と関連付け、前記第1および第2の部分的なオーディオストリームは前記参照点に対して時間が連続しない、第2の相対的時間手段と、
コンシューマであって、
前記第1の部分的なオーディオストリームを受信するための第1の受信手段と、
前記第1の時間に基づいた場所で、前記第1の部分的なオーディオストリームを有効ディクテーションストリームに書き込むための第1の書き込み手段と、
前記第2の部分的なオーディオストリームを受信するための第2の受信手段と、
前記第2の時間に基づいた場所で、前記第2の部分的なオーディオストリームを前記有効ディクテーションストリームに書き込むための第2の書き込み手段と、
前記第2の部分的なオーディオストリームの書き込みが完了する前に、出力を作るために、前記有効ディクテーションの少なくとも一部分をコンシュームするためのコンサンプション手段と、を含むコンシューマと、を含むことを特徴とする装置。 - 前記コンサンプション手段は、前記第2の部分的なオーディオストリームの受信が完了する前に、出力を作るために、前記有効ディクテーションの少なくとも一部分をコンシュームするための手段を含むことを特徴とする請求項17に記載の装置。
- 前記第1の書き込み手段は、前記第2の部分的なオーディオストリームの生成が完了する前に、前記第1の部分的なオーディオストリームを書き込むための手段を含むことを特徴とする請求項17に記載の装置。
- 前記第1の受信手段は、前記第1の部分的なオーディオストリームの生成が完了する前に、前記第1の部分的なオーディオストリームの受信を開始するための手段を含むことを特徴とする請求項17に記載の装置。
- コンピュータで実行される方法であって、
(A) 話者の第1の音声を表す第1の部分的なオーディオストリームを生成するステップと、
(B) 前記第1の部分的なオーディオストリームを、前記第1の部分的なオーディオストリームが一部分であるディクテーションストリームにおける参照点に相対する第1の時間と関連付けるステップと、
(C) 前記話者の第2の音声を表す第2の部分的なオーディオストリームを生成するステップと、
(D) 前記第2の部分的なオーディオストリームを、前記第2の部分的なオーディオストリームが一部分である前記ディクテーションストリームにおける参照点に相対する第2の時間と関連付けるステップと、
(E)コンシューマで、
ネットワーク上の前記第1の部分的なオーディオストリームを受信するステップと、
前記第1の時間に基づいた場所で、前記第1の部分的なオーディオストリームを有効ディクテーションストリームに書き込むステップと、
前記ネットワーク上で前記第2の部分的なオーディオストリームを受信するステップと、
前記第2の時間に基づいた場所で、前記第2の部分的なオーディオストリームを前記有効ディクテーションストリームに書き込むステップと、
(E)(4)の完了の前に出力を作るために、前記有効ディクテーションの少なくとも一部分をコンシュームするステップと、を含むことを特徴とする方法。 - (C)の前に、前記ディクテーションストリームの一時停止を指定する前記話者からの第1の入力を受信するステップと、前記ディクテーションストリームの再開を指定する前記話者からの第2の入力を受信するステップと、をさらに含むことを特徴とする請求項21に記載の方法。
- 装置であって、
話者の第1の音声を表す第1の部分的なオーディオストリームを生成するための第1の生成手段と、
前記第1の部分的なオーディオストリームを、前記第1の部分的なオーディオストリームが一部分であるディクテーションストリームにおける参照点に相対する第1の時間と関連付けるための、第1の関連付け手段と、
前記話者の第2の音声を表す第2の部分的なオーディオストリームを生成するための第2の生成手段と、
前記第2の部分的なオーディオストリームを、前記第2の部分的なオーディオストリームが一部分であるディクテーションストリームにおける参照点に相対する第2の時間と関連付けるための、第2の関連付け手段と、
コンシューマであって、
ネットワーク上の前記第1の部分的なオーディオストリームを受信するための第1の受信手段と、
前記第1の時間に基づいた場所で、前記第1の部分的なオーディオストリームを有効ディクテーションストリームに書き込むための第1の書き込み手段と、
前記ネットワーク上の前記第2の部分的なオーディオストリームを受信するための第2の受信手段と、
前記第2の時間に基づいた場所で、前記第2の部分的なオーディオストリームを前記有効ディクテーションストリームに書き込むための第2の書き込み手段と、
前記第2の部分的なオーディオストリームの書き込みの完了の前に、出力を作るために、前記有効ディクテーションの少なくとも一部分をコンシュームするためのコンサンプション手段と、を含むコンシューマと、を含むことを特徴とする装置。 - 前記第2の部分的なオーディオストリームの生成の前に、前記ディクテーションストリームの一時停止を指定する、前記話者からの第1の入力を受信するための第3の受信手段と、
前記ディクテーションストリームの再開を指定する前記話者からの第2の入力を受信するための第4の受信手段と、をさらに含むことを特徴とする請求項23に記載の装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US86710506P | 2006-11-22 | 2006-11-22 | |
US60/867,105 | 2006-11-22 | ||
PCT/US2007/085472 WO2008064358A2 (en) | 2006-11-22 | 2007-11-23 | Recognition of speech in editable audio streams |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010510556A true JP2010510556A (ja) | 2010-04-02 |
JP4875752B2 JP4875752B2 (ja) | 2012-02-15 |
Family
ID=39430616
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009538525A Expired - Fee Related JP4875752B2 (ja) | 2006-11-22 | 2007-11-23 | 編集可能なオーディオストリームにおける音声の認識 |
Country Status (5)
Country | Link |
---|---|
US (1) | US7869996B2 (ja) |
EP (1) | EP2095363A4 (ja) |
JP (1) | JP4875752B2 (ja) |
CA (1) | CA2662564C (ja) |
WO (1) | WO2008064358A2 (ja) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7844464B2 (en) * | 2005-07-22 | 2010-11-30 | Multimodal Technologies, Inc. | Content-based audio playback emphasis |
US8335688B2 (en) * | 2004-08-20 | 2012-12-18 | Multimodal Technologies, Llc | Document transcription system training |
US7502741B2 (en) * | 2005-02-23 | 2009-03-10 | Multimodal Technologies, Inc. | Audio signal de-identification |
US7640158B2 (en) | 2005-11-08 | 2009-12-29 | Multimodal Technologies, Inc. | Automatic detection and application of editing patterns in draft documents |
US7831423B2 (en) * | 2006-05-25 | 2010-11-09 | Multimodal Technologies, Inc. | Replacing text representing a concept with an alternate written form of the concept |
JP5385134B2 (ja) * | 2006-06-22 | 2014-01-08 | マルチモーダル・テクノロジーズ・エルエルシー | コンピュータ実装方法 |
US20080177623A1 (en) * | 2007-01-24 | 2008-07-24 | Juergen Fritsch | Monitoring User Interactions With A Document Editing System |
US8019608B2 (en) | 2008-08-29 | 2011-09-13 | Multimodal Technologies, Inc. | Distributed speech recognition using one way communication |
US8572488B2 (en) * | 2010-03-29 | 2013-10-29 | Avid Technology, Inc. | Spot dialog editor |
US8158870B2 (en) | 2010-06-29 | 2012-04-17 | Google Inc. | Intervalgram representation of audio for melody recognition |
US8805683B1 (en) | 2012-02-24 | 2014-08-12 | Google Inc. | Real-time audio recognition protocol |
US8959102B2 (en) | 2010-10-08 | 2015-02-17 | Mmodal Ip Llc | Structured searching of dynamic structured document corpuses |
JP5404726B2 (ja) * | 2011-09-26 | 2014-02-05 | 株式会社東芝 | 情報処理装置、情報処理方法およびプログラム |
US9384734B1 (en) | 2012-02-24 | 2016-07-05 | Google Inc. | Real-time audio recognition using multiple recognizers |
US9208225B1 (en) | 2012-02-24 | 2015-12-08 | Google Inc. | Incentive-based check-in |
US9280599B1 (en) | 2012-02-24 | 2016-03-08 | Google Inc. | Interface for real-time audio recognition |
US9412372B2 (en) * | 2012-05-08 | 2016-08-09 | SpeakWrite, LLC | Method and system for audio-video integration |
US9812130B1 (en) * | 2014-03-11 | 2017-11-07 | Nvoq Incorporated | Apparatus and methods for dynamically changing a language model based on recognized text |
US10643616B1 (en) * | 2014-03-11 | 2020-05-05 | Nvoq Incorporated | Apparatus and methods for dynamically changing a speech resource based on recognized text |
CN104038827B (zh) * | 2014-06-06 | 2018-02-02 | 小米科技有限责任公司 | 多媒体播放方法及装置 |
US9886423B2 (en) * | 2015-06-19 | 2018-02-06 | International Business Machines Corporation | Reconciliation of transcripts |
US11158322B2 (en) | 2019-09-06 | 2021-10-26 | Verbit Software Ltd. | Human resolution of repeated phrases in a hybrid transcription system |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001228897A (ja) * | 2000-02-18 | 2001-08-24 | Canon Inc | 音声入力装置及びその制御方法並びにプログラムコードを格納した記憶媒体 |
JP2005079821A (ja) * | 2003-08-29 | 2005-03-24 | Nec Corp | 留守録欠落防止方式及びその方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5179627A (en) * | 1987-02-10 | 1993-01-12 | Dictaphone Corporation | Digital dictation system |
US5231670A (en) * | 1987-06-01 | 1993-07-27 | Kurzweil Applied Intelligence, Inc. | Voice controlled system and method for generating text from a voice controlled input |
US5008871A (en) * | 1988-12-22 | 1991-04-16 | Howells Joseph A | Dictate/transcribe control for digital dictation system |
JPH09298944A (ja) | 1996-05-14 | 1997-11-25 | Tsutsunaka Plast Ind Co Ltd | 植物栽培方法および植物栽培用シート |
US5899976A (en) * | 1996-10-31 | 1999-05-04 | Microsoft Corporation | Method and system for buffering recognized words during speech recognition |
US5970460A (en) * | 1997-12-05 | 1999-10-19 | Lernout & Hauspie Speech Products N.V. | Speech recognition and editing system |
US6298326B1 (en) * | 1999-05-13 | 2001-10-02 | Alan Feller | Off-site data entry system |
JP2001082024A (ja) | 1999-09-17 | 2001-03-27 | Toyota Auto Body Co Ltd | 引戸装置 |
US6581033B1 (en) * | 1999-10-19 | 2003-06-17 | Microsoft Corporation | System and method for correction of speech recognition mode errors |
US6975990B2 (en) * | 2001-01-03 | 2005-12-13 | Mudakara Global Solutions | Sequential-data synchronization at real-time on an analog and a digital medium |
JP4687936B2 (ja) * | 2001-03-22 | 2011-05-25 | ソニー株式会社 | 音声出力装置および音声出力方法、並びにプログラムおよび記録媒体 |
US7236931B2 (en) * | 2002-05-01 | 2007-06-26 | Usb Ag, Stamford Branch | Systems and methods for automatic acoustic speaker adaptation in computer-assisted transcription systems |
US7292975B2 (en) * | 2002-05-01 | 2007-11-06 | Nuance Communications, Inc. | Systems and methods for evaluating speaker suitability for automatic speech recognition aided transcription |
US20040243415A1 (en) * | 2003-06-02 | 2004-12-02 | International Business Machines Corporation | Architecture for a speech input method editor for handheld portable devices |
-
2007
- 2007-11-23 US US11/944,517 patent/US7869996B2/en not_active Expired - Fee Related
- 2007-11-23 EP EP07864749A patent/EP2095363A4/en not_active Ceased
- 2007-11-23 JP JP2009538525A patent/JP4875752B2/ja not_active Expired - Fee Related
- 2007-11-23 WO PCT/US2007/085472 patent/WO2008064358A2/en active Application Filing
- 2007-11-23 CA CA2662564A patent/CA2662564C/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001228897A (ja) * | 2000-02-18 | 2001-08-24 | Canon Inc | 音声入力装置及びその制御方法並びにプログラムコードを格納した記憶媒体 |
JP2005079821A (ja) * | 2003-08-29 | 2005-03-24 | Nec Corp | 留守録欠落防止方式及びその方法 |
Also Published As
Publication number | Publication date |
---|---|
CA2662564A1 (en) | 2008-05-29 |
EP2095363A2 (en) | 2009-09-02 |
US7869996B2 (en) | 2011-01-11 |
WO2008064358A3 (en) | 2008-07-10 |
EP2095363A4 (en) | 2011-07-20 |
WO2008064358A2 (en) | 2008-05-29 |
US20080221881A1 (en) | 2008-09-11 |
JP4875752B2 (ja) | 2012-02-15 |
CA2662564C (en) | 2011-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4875752B2 (ja) | 編集可能なオーディオストリームにおける音声の認識 | |
US12020708B2 (en) | Method and system for conversation transcription with metadata | |
CN110858408B (zh) | 动画制作系统 | |
US8966360B2 (en) | Transcript editor | |
US20190196666A1 (en) | Systems and Methods Document Narration | |
US8548618B1 (en) | Systems and methods for creating narration audio | |
US8498866B2 (en) | Systems and methods for multiple language document narration | |
US8862473B2 (en) | Comment recording apparatus, method, program, and storage medium that conduct a voice recognition process on voice data | |
JP2018077870A (ja) | 音声認識方法 | |
US20130144625A1 (en) | Systems and methods document narration | |
US8972269B2 (en) | Methods and systems for interfaces allowing limited edits to transcripts | |
WO2009075754A1 (en) | Recording audio metadata for stored images | |
US10560656B2 (en) | Media message creation with automatic titling | |
US20110113357A1 (en) | Manipulating results of a media archive search | |
WO2022166801A1 (zh) | 数据处理方法、装置、设备以及介质 | |
JP7236570B1 (ja) | システム、通信端末、及び方法 | |
CN115209214B (zh) | 从视频中识别并移除受限信息 | |
US12125487B2 (en) | Method and system for conversation transcription with metadata | |
US20230064035A1 (en) | Text-Based Video Re-take System and Methods | |
JP2005341138A (ja) | 映像要約方法及びプログラム及びそのプログラムを格納した記憶媒体 | |
US9471205B1 (en) | Computer-implemented method for providing a media accompaniment for segmented activities |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101122 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20101122 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20101208 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110201 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20110425 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20110506 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110523 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110628 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110926 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111031 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111125 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141202 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4875752 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141202 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141202 Year of fee payment: 3 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141202 Year of fee payment: 3 |
|
R370 | Written measure of declining of transfer procedure |
Free format text: JAPANESE INTERMEDIATE CODE: R370 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141202 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |