JP4875752B2 - 編集可能なオーディオストリームにおける音声の認識 - Google Patents
編集可能なオーディオストリームにおける音声の認識 Download PDFInfo
- Publication number
- JP4875752B2 JP4875752B2 JP2009538525A JP2009538525A JP4875752B2 JP 4875752 B2 JP4875752 B2 JP 4875752B2 JP 2009538525 A JP2009538525 A JP 2009538525A JP 2009538525 A JP2009538525 A JP 2009538525A JP 4875752 B2 JP4875752 B2 JP 4875752B2
- Authority
- JP
- Japan
- Prior art keywords
- audio stream
- partial audio
- dictation
- stream
- start time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
- G11B27/036—Insert-editing
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/102—Programmed access in sequence to addressed parts of tracks of operating record carriers
- G11B27/105—Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
Description
本出願は、2006年11月22日に申請された、「Recognition of Speech in Editable Audio Streams」という名称の、米国仮特許出願第60/867,105号の利益を主張する。
Claims (23)
- コンピュータで実現される方法であって、
(A)話者の第1の音声を表す第1の部分的なオーディオストリームを生成するステップと、
(B)前記第1の部分的なオーディオストリームを、前記第1の部分的なオーディオストリームが一部分であるディクテーションストリームの開始時間に相対する第1の開始時間と関連付けるステップと、
(C)前記第1の部分的なオーディオストリームの終了後に続く前記話者の第2の音声を表す第2の部分的なオーディオストリームを生成するステップと、
(D)前記第2の部分的なオーディオストリームを、前記第2の部分的なオーディオストリームが一部分である前記ディクテーションストリームの開始時間に相対する第2の開始時間と関連付けるステップであって、巻き戻しの時間に対応する量によって、前記ディクテーションストリームの開始時間に相対する、前記第1の部分的なオーディオストリームの第1の終了時間よりも早くなるように前記第2の開始時間を設定することが可能である、ステップと、
(E)自動音声認識機器で、
(1)前記第1の部分的なオーディオストリームを受信するステップと、
(2)前記第1の開始時間に基づいた場所で、前記第1の部分的なオーディオストリームを有効ディクテーションストリームに書き込むステップと、
(3)前記第2の部分的なオーディオストリームを受信するステップと、
(4)前記第2の開始時間に基づいた場所で、前記第2の部分的なオーディオストリームを前記有効ディクテーションストリームに書き込むステップと、
(5)前記(E)(4)のステップを完了する前に前記有効ディクテーションのトランスクリプトを生成するために、前記有効ディクテーションの少なくとも一部分に自動音声認識処理を適用するステップと、を含むことを特徴とする方法。 - 前記(E)(5)のステップは、前記(E)(3)のステップの完了の前に出力を作るために、前記有効ディクテーションの少なくとも一部分に自動音声認識処理を適用するステップを含むことを特徴とする請求項1に記載の方法。
- 前記(E)(2)のステップは、前記(C)のステップが完了する前に完了することを特徴とする請求項1に記載の方法。
- 前記(E)(1)のステップは、前記(A)のステップが完了する前に、開始されることを特徴とする請求項1に記載の方法。
- 前記(D)のステップは、挿入される他の部分的なオーディオストリームの時間に対応する量によって、前記第1の終了時間から前記第2の開始時間を増加させるように設定することがさらに可能であることを特徴とする請求項1に記載の方法。
- 前記(E)(1)のステップは、ネットワーク上の前記第1の部分的なオーディオストリームを受信するステップを含むことを特徴とする請求項1に記載の方法。
- (F)前記(C)のステップの前に、前記ディクテーションストリーム上で編集操作を指定する前記話者からの入力を受信するステップと、
(G)前記編集操作入力に応答して前記第1の部分的なオーディオストリームを終了し、前記第2の部分的なオーディオストリームを開始するステップと、をさらに含むことを特徴とする請求項1に記載の方法。 - 前記(F)のステップは、前記ディクテーションストリームの相対的開始時間は、新規相対的開始時間に変更されるということを指定する前記話者からの第1の入力を受信するステップと、前記ディクテーションストリームが前記新規相対的開始時間で再開されるということを指定する前記話者からの第2の入力を受信するステップと、を含み、
前記第2の部分的なオーディオストリームの前記第2の開始時間は、前記第1の部分的なオーディオストリームの前記第1の開始時間よりも、前記ディクテーションストリームにおける開始時間に相対して早いことを特徴とする請求項7に記載の方法。 - 前記(E)(5)のステップは、前記有効ディクテーションの少なくとも一部分を再生するステップを含むことを特徴とする請求項1に記載の方法。
- 前記(E)(5)のステップは、前記(E)(4)のステップが完了した後にのみ、前記トランスクリプトをユーザへ表示するステップをさらに含むことを特徴とする請求項1に記載の方法。
- 前記(E)(4)のステップは、
(E)(4)(a)前記第2の部分的なオーディオストリームの前記第2の開始時間の既定の閾値内である時間で、前記有効ディクテーション内の沈黙の間としての言葉の一時停止を識別するステップと、
(E)(4)(b)前記(E)(4)(a)のステップで識別された時間で、前記第2の部分的なオーディオストリームを前記有効ディクテーションに書き込むステップと、を含むことを特徴とする請求項10に記載の方法。 - (F)前記第1の部分的なオーディオストリームと関連付けられる文脈情報を識別するステップと、
(G)前記第1の部分的なオーディオストリームの前記第1の開始時間を前記文脈情報と関連付けるステップと、
(H)前記自動音声認識機器で、前記第1の部分的なオーディオストリームの前記第1の開始時間と関連する前記文脈情報を受信するステップと、をさらに含むことを特徴とする請求項1に記載の方法。 - 前記(E)(5)のステップは、前記第1の部分的なオーディオストリームおよび前記文脈情報を反映する出力を作るために、前記第1の部分的なオーディオストリームおよび前記文脈情報に自動音声認識処理を適用するステップを含むことを特徴とする請求項12に記載の方法。
- 前記(F)のステップは、前記文脈情報を識別する前記話者からの入力を受信するステップを含むことを特徴とする請求項12に記載の方法。
- 前記文脈情報は、画像を含むことを特徴とする請求項12に記載の方法。
- 装置であって、
話者の第1の音声を表す第1の部分的なオーディオストリームを生成するための第1の部分的なオーディオストリーム生成手段と、
前記第1の部分的なオーディオストリームを、前記第1の部分的なオーディオストリームが一部分であるディクテーションストリームにおける開始時間に相対する第1の開始時間と関連付けるための、第1の相対的時間手段と、
前記第1の部分的なオーディオストリームの終了後に続く前記話者の第2の音声を表す第2の部分的なオーディオストリームを生成するための第2の部分的なオーディオストリーム生成手段と、
前記第2の部分的なオーディオストリームを、前記第2の部分的なオーディオストリームが一部分である前記ディクテーションストリームにおける開始時間に相対する第2の開始時間と関連付け、巻き戻しの時間に対応する量によって、前記ディクテーションストリームの開始時間に相対する、前記第1の部分的なオーディオストリームの終了時間よりも早くなるように前記第2の開始時間を設定することが可能である、第2の相対的時間手段と、
自動音声認識機器であって、
前記第1の部分的なオーディオストリームを受信するための第1の受信手段と、
前記第1の開始時間に基づいた場所で、前記第1の部分的なオーディオストリームを有効ディクテーションストリームに書き込むための第1の書き込み手段と、
前記第2の部分的なオーディオストリームを受信するための第2の受信手段と、
前記第2の開始時間に基づいた場所で、前記第2の部分的なオーディオストリームを前記有効ディクテーションストリームに書き込むための第2の書き込み手段と、
前記第2の部分的なオーディオストリームの書き込みが完了する前に、前記有効ディクテーションのトランスクリプトを生成するために、前記有効ディクテーションの少なくとも一部分に自動音声認識処理を適用するための自動音声認識処理手段と、を含む自動音声認識機器と、を含むことを特徴とする装置。 - 前記音声認識手段は、前記第2の部分的なオーディオストリームの受信が完了する前に、前記有効ディクテーションのトランスクリプトを生成するために、前記有効ディクテーションの少なくとも一部分に自動音声認識処理を適用するための手段を含むことを特徴とする請求項16に記載の装置。
- 前記第1の書き込み手段は、前記第2の部分的なオーディオストリームの生成が完了する前に、前記第1の部分的なオーディオストリームを書き込むための手段を含むことを特徴とする請求項16に記載の装置。
- 前記第1の受信手段は、前記第1の部分的なオーディオストリームの生成が完了する前に、前記第1の部分的なオーディオストリームの受信を開始するための手段を含むことを特徴とする請求項16に記載の装置。
- コンピュータで実行される方法であって、
(A)話者の第1の音声を表す第1の部分的なオーディオストリームを生成するステップと、
(B)前記第1の部分的なオーディオストリームを、前記第1の部分的なオーディオストリームが一部分であるディクテーションストリームにおける開始時間に相対する第1の開始時間と関連付けるステップと、
(C)前記第1の部分的なオーディオストリームの終了後に続く前記話者の第2の音声を表す第2の部分的なオーディオストリームを生成するステップと、
(D)前記第2の部分的なオーディオストリームを、前記第2の部分的なオーディオストリームが一部分である前記ディクテーションストリームにおける開始時間に相対する第2の開始時間と関連付けるステップであって、巻き戻しの時間に対応する量によって、前記ディクテーションストリームの開始時間に相対する、前記第1の部分的なオーディオストリームの第1の終了時間よりも早くなるように前記第2の開始時間を設定することが可能である、ステップと、
(E)自動音声認識機器で、
(1)ネットワーク上の前記第1の部分的なオーディオストリームを受信するステップと、
(2)前記第1の開始時間に基づいた場所で、前記第1の部分的なオーディオストリームを有効ディクテーションストリームに書き込むステップと、
(3)前記ネットワーク上で前記第2の部分的なオーディオストリームを受信するステップと、
(4)前記第2の開始時間に基づいた場所で、前記第2の部分的なオーディオストリームを前記有効ディクテーションストリームに書き込むステップと、
(5)前記(E)(4)のステップの完了の前に前記有効ディクテーションのトランスクリプトを生成するために、前記有効ディクテーションの少なくとも一部分に自動音声認識処理を適用するステップと、を含むことを特徴とする方法。 - (F)前記(C)のステップの前に、前記ディクテーションストリームの一時停止を指定する前記話者からの第1の入力を受信するステップと、前記ディクテーションストリームの再開を指定する前記話者からの第2の入力を受信するステップと、をさらに含むことを特徴とする請求項20に記載の方法。
- 装置であって、
話者の第1の音声を表す第1の部分的なオーディオストリームを生成するための第1の生成手段と、
前記第1の部分的なオーディオストリームを、前記第1の部分的なオーディオストリームが一部分であるディクテーションストリームにおける開始時間に相対する第1の開始時間と関連付けるための、第1の関連付け手段と、
前記第1の部分的なオーディオストリームの終了後に続く前記話者の第2の音声を表す第2の部分的なオーディオストリームを生成するための第2の生成手段と、
前記第2の部分的なオーディオストリームを、前記第2の部分的なオーディオストリームが一部分であるディクテーションストリームにおける開始時間に相対する第2の開始時間と関連付け、巻き戻しの時間に対応する量によって、前記ディクテーションストリームの開始時間に相対する、前記第1の部分的なオーディオストリームの終了時間よりも早くなるように前記第2の開始時間を設定することが可能である、第2の関連付け手段と、
自動音声認識機器であって、
ネットワーク上の前記第1の部分的なオーディオストリームを受信するための第1の受信手段と、
前記第1の開始時間に基づいた場所で、前記第1の部分的なオーディオストリームを有効ディクテーションストリームに書き込むための第1の書き込み手段と、
前記ネットワーク上の前記第2の部分的なオーディオストリームを受信するための第2の受信手段と、
前記第2の開始時間に基づいた場所で、前記第2の部分的なオーディオストリームを前記有効ディクテーションストリームに書き込むための第2の書き込み手段と、
前記第2の部分的なオーディオストリームの書き込みの完了の前に、前記有効ディクテーションのトランスクリプトを生成するために、前記有効ディクテーションの少なくとも一部分に自動音声認識処理を適用するための自動音声認識処理手段と、を含む自動音声認識機器と、を含むことを特徴とする装置。 - 前記第2の部分的なオーディオストリームの生成の前に、前記ディクテーションストリームの一時停止を指定する、前記話者からの第1の入力を受信するための第3の受信手段と、
前記ディクテーションストリームの再開を指定する前記話者からの第2の入力を受信するための第4の受信手段と、をさらに含むことを特徴とする請求項22に記載の装置。
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US86710506P | 2006-11-22 | 2006-11-22 | |
| US60/867,105 | 2006-11-22 | ||
| PCT/US2007/085472 WO2008064358A2 (en) | 2006-11-22 | 2007-11-23 | Recognition of speech in editable audio streams |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2010510556A JP2010510556A (ja) | 2010-04-02 |
| JP4875752B2 true JP4875752B2 (ja) | 2012-02-15 |
Family
ID=39430616
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2009538525A Expired - Fee Related JP4875752B2 (ja) | 2006-11-22 | 2007-11-23 | 編集可能なオーディオストリームにおける音声の認識 |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US7869996B2 (ja) |
| EP (1) | EP2095363A4 (ja) |
| JP (1) | JP4875752B2 (ja) |
| CA (1) | CA2662564C (ja) |
| WO (1) | WO2008064358A2 (ja) |
Families Citing this family (23)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7844464B2 (en) * | 2005-07-22 | 2010-11-30 | Multimodal Technologies, Inc. | Content-based audio playback emphasis |
| US8335688B2 (en) * | 2004-08-20 | 2012-12-18 | Multimodal Technologies, Llc | Document transcription system training |
| US7502741B2 (en) * | 2005-02-23 | 2009-03-10 | Multimodal Technologies, Inc. | Audio signal de-identification |
| US7640158B2 (en) | 2005-11-08 | 2009-12-29 | Multimodal Technologies, Inc. | Automatic detection and application of editing patterns in draft documents |
| US7831423B2 (en) * | 2006-05-25 | 2010-11-09 | Multimodal Technologies, Inc. | Replacing text representing a concept with an alternate written form of the concept |
| US7716040B2 (en) * | 2006-06-22 | 2010-05-11 | Multimodal Technologies, Inc. | Verification of extracted data |
| US20080177623A1 (en) * | 2007-01-24 | 2008-07-24 | Juergen Fritsch | Monitoring User Interactions With A Document Editing System |
| US8019608B2 (en) | 2008-08-29 | 2011-09-13 | Multimodal Technologies, Inc. | Distributed speech recognition using one way communication |
| US8572488B2 (en) * | 2010-03-29 | 2013-10-29 | Avid Technology, Inc. | Spot dialog editor |
| US8158870B2 (en) * | 2010-06-29 | 2012-04-17 | Google Inc. | Intervalgram representation of audio for melody recognition |
| US8805683B1 (en) | 2012-02-24 | 2014-08-12 | Google Inc. | Real-time audio recognition protocol |
| US8959102B2 (en) | 2010-10-08 | 2015-02-17 | Mmodal Ip Llc | Structured searching of dynamic structured document corpuses |
| JP5404726B2 (ja) * | 2011-09-26 | 2014-02-05 | 株式会社東芝 | 情報処理装置、情報処理方法およびプログラム |
| US9280599B1 (en) | 2012-02-24 | 2016-03-08 | Google Inc. | Interface for real-time audio recognition |
| US9208225B1 (en) | 2012-02-24 | 2015-12-08 | Google Inc. | Incentive-based check-in |
| US9384734B1 (en) | 2012-02-24 | 2016-07-05 | Google Inc. | Real-time audio recognition using multiple recognizers |
| US9412372B2 (en) * | 2012-05-08 | 2016-08-09 | SpeakWrite, LLC | Method and system for audio-video integration |
| US10643616B1 (en) * | 2014-03-11 | 2020-05-05 | Nvoq Incorporated | Apparatus and methods for dynamically changing a speech resource based on recognized text |
| US9812130B1 (en) * | 2014-03-11 | 2017-11-07 | Nvoq Incorporated | Apparatus and methods for dynamically changing a language model based on recognized text |
| CN104038827B (zh) * | 2014-06-06 | 2018-02-02 | 小米科技有限责任公司 | 多媒体播放方法及装置 |
| US9886423B2 (en) * | 2015-06-19 | 2018-02-06 | International Business Machines Corporation | Reconciliation of transcripts |
| CN109417583B (zh) * | 2017-04-24 | 2022-01-28 | 北京嘀嘀无限科技发展有限公司 | 一种将音频信号实时转录为文本的系统和方法 |
| US10614809B1 (en) * | 2019-09-06 | 2020-04-07 | Verbit Software Ltd. | Quality estimation of hybrid transcription of audio |
Family Cites Families (16)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5179627A (en) * | 1987-02-10 | 1993-01-12 | Dictaphone Corporation | Digital dictation system |
| US5231670A (en) * | 1987-06-01 | 1993-07-27 | Kurzweil Applied Intelligence, Inc. | Voice controlled system and method for generating text from a voice controlled input |
| US5008871A (en) * | 1988-12-22 | 1991-04-16 | Howells Joseph A | Dictate/transcribe control for digital dictation system |
| JPH09298944A (ja) | 1996-05-14 | 1997-11-25 | Tsutsunaka Plast Ind Co Ltd | 植物栽培方法および植物栽培用シート |
| US5899976A (en) * | 1996-10-31 | 1999-05-04 | Microsoft Corporation | Method and system for buffering recognized words during speech recognition |
| US5970460A (en) * | 1997-12-05 | 1999-10-19 | Lernout & Hauspie Speech Products N.V. | Speech recognition and editing system |
| US6298326B1 (en) * | 1999-05-13 | 2001-10-02 | Alan Feller | Off-site data entry system |
| JP2001082024A (ja) | 1999-09-17 | 2001-03-27 | Toyota Auto Body Co Ltd | 引戸装置 |
| US6581033B1 (en) * | 1999-10-19 | 2003-06-17 | Microsoft Corporation | System and method for correction of speech recognition mode errors |
| JP2001228897A (ja) * | 2000-02-18 | 2001-08-24 | Canon Inc | 音声入力装置及びその制御方法並びにプログラムコードを格納した記憶媒体 |
| US6975990B2 (en) * | 2001-01-03 | 2005-12-13 | Mudakara Global Solutions | Sequential-data synchronization at real-time on an analog and a digital medium |
| JP4687936B2 (ja) * | 2001-03-22 | 2011-05-25 | ソニー株式会社 | 音声出力装置および音声出力方法、並びにプログラムおよび記録媒体 |
| US7292975B2 (en) * | 2002-05-01 | 2007-11-06 | Nuance Communications, Inc. | Systems and methods for evaluating speaker suitability for automatic speech recognition aided transcription |
| US7236931B2 (en) * | 2002-05-01 | 2007-06-26 | Usb Ag, Stamford Branch | Systems and methods for automatic acoustic speaker adaptation in computer-assisted transcription systems |
| US20040243415A1 (en) | 2003-06-02 | 2004-12-02 | International Business Machines Corporation | Architecture for a speech input method editor for handheld portable devices |
| JP4186161B2 (ja) * | 2003-08-29 | 2008-11-26 | 日本電気株式会社 | 留守録欠落防止方式及びその方法 |
-
2007
- 2007-11-23 WO PCT/US2007/085472 patent/WO2008064358A2/en not_active Ceased
- 2007-11-23 JP JP2009538525A patent/JP4875752B2/ja not_active Expired - Fee Related
- 2007-11-23 CA CA2662564A patent/CA2662564C/en not_active Expired - Fee Related
- 2007-11-23 EP EP07864749A patent/EP2095363A4/en not_active Ceased
- 2007-11-23 US US11/944,517 patent/US7869996B2/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| CA2662564C (en) | 2011-06-28 |
| WO2008064358A2 (en) | 2008-05-29 |
| WO2008064358A3 (en) | 2008-07-10 |
| US20080221881A1 (en) | 2008-09-11 |
| JP2010510556A (ja) | 2010-04-02 |
| US7869996B2 (en) | 2011-01-11 |
| CA2662564A1 (en) | 2008-05-29 |
| EP2095363A2 (en) | 2009-09-02 |
| EP2095363A4 (en) | 2011-07-20 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4875752B2 (ja) | 編集可能なオーディオストリームにおける音声の認識 | |
| US12125487B2 (en) | Method and system for conversation transcription with metadata | |
| CN110858408B (zh) | 动画制作系统 | |
| US8966360B2 (en) | Transcript editor | |
| US8548618B1 (en) | Systems and methods for creating narration audio | |
| US8359202B2 (en) | Character models for document narration | |
| US8370151B2 (en) | Systems and methods for multiple voice document narration | |
| JP2018077870A (ja) | 音声認識方法 | |
| KR101492816B1 (ko) | 애니메이션 립싱크 자동화 장치 및 방법 | |
| US8972269B2 (en) | Methods and systems for interfaces allowing limited edits to transcripts | |
| JP2009503560A (ja) | コンテンツベースの音声再生強調 | |
| WO2022166801A1 (zh) | 数据处理方法、装置、设备以及介质 | |
| US20110113357A1 (en) | Manipulating results of a media archive search | |
| CN113761865A (zh) | 声文重对齐及信息呈现方法、装置、电子设备和存储介质 | |
| CN115082267A (zh) | 具有角色扮演的语言学习方法、装置、计算机设备及存储介质 | |
| JP7236570B1 (ja) | システム、通信端末、及び方法 | |
| CN116469367A (zh) | 声音合成训练数据的采集方法、装置、服务器及存储介质 | |
| CN115209214A (zh) | 从视频中识别并移除受限信息 | |
| US20250372078A1 (en) | Methods and servers for training a model to perform speaker change detection | |
| US20230064035A1 (en) | Text-Based Video Re-take System and Methods | |
| WO2026026819A1 (zh) | 用于处理视频的方法、装置、设备、介质和程序产品 | |
| WO2025042388A1 (en) | Video context aware editing agent |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101122 |
|
| A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20101122 |
|
| A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20101208 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110201 |
|
| A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20110425 |
|
| A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20110506 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110523 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110628 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110926 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111031 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111125 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141202 Year of fee payment: 3 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 4875752 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141202 Year of fee payment: 3 |
|
| S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141202 Year of fee payment: 3 |
|
| R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141202 Year of fee payment: 3 |
|
| R370 | Written measure of declining of transfer procedure |
Free format text: JAPANESE INTERMEDIATE CODE: R370 |
|
| S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141202 Year of fee payment: 3 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| LAPS | Cancellation because of no payment of annual fees |