JP7544858B2 - ストリーミングメディアからのデータの変換 - Google Patents
ストリーミングメディアからのデータの変換 Download PDFInfo
- Publication number
- JP7544858B2 JP7544858B2 JP2022568898A JP2022568898A JP7544858B2 JP 7544858 B2 JP7544858 B2 JP 7544858B2 JP 2022568898 A JP2022568898 A JP 2022568898A JP 2022568898 A JP2022568898 A JP 2022568898A JP 7544858 B2 JP7544858 B2 JP 7544858B2
- Authority
- JP
- Japan
- Prior art keywords
- audio
- content
- text
- words
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/683—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/685—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using automatically derived transcript of audio data, e.g. lyrics
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/61—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/54—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for retrieval
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Library & Information Science (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Signal Processing (AREA)
- Quality & Reliability (AREA)
- Software Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Information Transfer Between Computers (AREA)
Description
本出願は、2020年10月30日に出願された米国仮出願第63/107,943号に対する優先権を主張する。前述の出願の開示は、参照によりその全体が本明細書に組み込まれる。
102 ネットワーク
104 電子ドキュメントサーバ
105 電子ドキュメント
106 ユーザデバイス
108 要求
110 デジタルコンポーネント配信システム
112 デジタルコンポーネントデータベース
114 応答データ、応答
120 テキスト読上げシステム
130 マッチングおよび選択システム
140 コンテンツ配信システム
200 データフロー
202 非テキストメディアコンテンツ、ポッドキャスト、オーディオコンテンツ
204 出力テキストデータ、テキスト出力、テキストデータ
206 デジタルコンテンツ
300 プロセス
400 コンピュータシステム
410 プロセッサ
420 メモリ
430 ストレージデバイス
440 入力/出力デバイス
450 システムバス
460 ディスプレイデバイス
Claims (18)
- 第1のオーディオを取得するステップと、
検索可能なデータベースに前記第1のオーディオのテキスト転写を記憶するステップと、
第2のオーディオを含むメディアコンテンツを取得するステップと、
前記第2のオーディオ内の話し言葉を検出するステップと、
前記第2のオーディオの1つまたは複数のオーディオ特性を分析するステップと、
前記1つまたは複数のオーディオ特性の前記分析に基づいて前記話し言葉の中から1つまたは複数の単語の重要性を調整するステップと、
前記話し言葉を表すテキストコンテンツを生成するステップと、
前記1つまたは複数の単語を表す前記テキストコンテンツに、前記1つまたは複数の単語の前記調整された重要性を割り当てるステップと、
前記検索可能なデータベースの検索に基づいて、前記第2のオーディオの前記テキストコンテンツが前記第1のオーディオの前記テキスト転写と一致すると決定するステップと、
前記第2のオーディオの前記テキストコンテンツが前記第1のオーディオの前記テキスト転写と一致するという前記決定に応答して、拡張コンテンツストリームを作成するために前記第1のオーディオを前記メディアコンテンツに挿入するステップと
を含む、コンピュータ実装方法。 - 第1のオーディオを取得するステップと、
検索可能なデータベースに前記第1のオーディオのテキスト転写を記憶するステップと、
第2のオーディオを含むメディアコンテンツを取得するステップと、
前記第2のオーディオをテキストコンテンツに変換するステップと、
前記検索可能なデータベースの検索に基づいて、前記第2のオーディオの前記テキストコンテンツが前記第1のオーディオの前記テキスト転写と一致すると決定するステップと、
前記第2のオーディオの前記テキストコンテンツが前記第1のオーディオの前記テキスト転写と一致するという前記決定に応答して、拡張コンテンツストリームを作成するために前記第1のオーディオを前記メディアコンテンツに挿入するステップと、
前記第2のオーディオの除外ゾーンを識別するステップと、
前記第2のオーディオの前記テキストコンテンツから前記除外ゾーン中に話された単語を省略するステップと
を含む、コンピュータ実装方法。 - 前記第1のオーディオの前記テキスト転写に基づいて前記第1のオーディオの第1のコンテキストを決定するステップと、
前記第2のオーディオの前記テキストコンテンツに基づいて前記第2のオーディオの第2のコンテキストを決定するステップと
をさらに含み、
前記第2のオーディオの前記テキストコンテンツが前記第1のオーディオの前記テキスト転写と一致すると決定するステップが、前記第1のコンテキストが前記第2のコンテキストと一致すると決定するステップを含む、請求項1または2に記載の方法。 - 前記第2のオーディオの前記1つまたは複数のオーディオ特性を分析するステップが、前記1つまたは複数の単語の強調の可聴インジケーションを検出するステップを含み、
前記1つまたは複数の単語の前記重要性を調整するステップが、強調の前記可聴インジケーションに基づいて前記1つまたは複数の単語の前記重要性を高めるステップを含み、
前記第2のオーディオの前記第2のコンテキストを決定するステップが、前記1つまたは複数の単語を表す前記テキストコンテンツに割り当てられた前記1つまたは複数の単語の前記調整された重要性に基づいて、前記第1のオーディオのトピックを決定するステップを含む、請求項1に従属する請求項3に記載の方法。 - 1つまたは複数のオーディオ特性を分析するステップが、前記第2のオーディオ内のホストの声によって話された前記話し言葉の第1の部分と、前記第2のオーディオ内のゲストの声によって話された前記話し言葉の第2の部分とを区別するステップを含み、
前記1つまたは複数の単語の前記重要性を調整するステップが、前記話し言葉の前記第2の部分の前記重要性に対して、前記話し言葉の前記第1の部分の前記重要性を高めるステップを含む、請求項4に記載の方法。 - 前記第2のオーディオ内の製品名を検出するステップと、
前記第2のオーディオの前記テキストコンテンツから、前記第2のオーディオ内の前記製品名の位置の指定された時間の長さ内に話された単語を省略するステップと
をさらに含む、請求項1または2に記載の方法。 - 1つまたは複数のプロセッサと、
命令を含む1つまたは複数のメモリ要素と
を備え、前記命令は、実行されると、前記1つまたは複数のプロセッサに、
第1のオーディオを取得することと、
検索可能なデータベースに前記第1のオーディオのテキスト転写を記憶することと、
第2のオーディオを含むメディアコンテンツを取得することと、
前記第2のオーディオ内の話し言葉を検出することと、
前記第2のオーディオの1つまたは複数のオーディオ特性を分析することと、
前記1つまたは複数のオーディオ特性の前記分析に基づいて前記話し言葉の中から1つまたは複数の単語の重要性を調整することと、
前記話し言葉を表すテキストコンテンツを生成することと、
前記1つまたは複数の単語を表す前記テキストコンテンツに、前記1つまたは複数の単語の前記調整された重要性を割り当てることと、
前記検索可能なデータベースの検索に基づいて、前記第2のオーディオの前記テキストコンテンツが前記第1のオーディオの前記テキスト転写と一致すると決定することと、
前記第2のオーディオの前記テキストコンテンツが前記第1のオーディオの前記テキスト転写と一致するという前記決定に応答して、拡張コンテンツストリームを作成するために前記第1のオーディオを前記メディアコンテンツに挿入することと
を含む動作を実行させる、システム。 - 1つまたは複数のプロセッサと、
命令を含む1つまたは複数のメモリ要素と
を備え、前記命令は、実行されると、前記1つまたは複数のプロセッサに、
第1のオーディオを取得することと、
検索可能なデータベースに前記第1のオーディオのテキスト転写を記憶することと、
第2のオーディオを含むメディアコンテンツを取得することと、
前記第2のオーディオをテキストコンテンツに変換することと、
前記検索可能なデータベースの検索に基づいて、前記第2のオーディオの前記テキストコンテンツが前記第1のオーディオの前記テキスト転写と一致すると決定することと、
前記第2のオーディオの前記テキストコンテンツが前記第1のオーディオの前記テキスト転写と一致するという前記決定に応答して、拡張コンテンツストリームを作成するために前記第1のオーディオを前記メディアコンテンツに挿入することと、
前記第2のオーディオの除外ゾーンを識別することと、
前記第2のオーディオの前記テキストコンテンツから前記除外ゾーン中に話された単語を省略することと、
を含む動作を実行させる、システム。 - 前記動作が、
前記第1のオーディオの前記テキスト転写に基づいて前記第1のオーディオの第1のコンテキストを決定することと、
前記第2のオーディオの前記テキストコンテンツに基づいて前記第2のオーディオの第2のコンテキストを決定することと
をさらに含み、
前記第2のオーディオの前記テキストコンテンツが前記第1のオーディオの前記テキスト転写と一致すると決定することが、前記第1のコンテキストが前記第2のコンテキストと一致すると決定することを含む、請求項7または8に記載のシステム。 - 前記第2のオーディオの前記1つまたは複数のオーディオ特性を分析することが、前記1つまたは複数の単語の強調の可聴インジケーションを検出することを含み、
前記1つまたは複数の単語の前記重要性を調整することが、強調の前記可聴インジケーションに基づいて前記1つまたは複数の単語の前記重要性を高めることを含み、
前記第2のオーディオの前記第2のコンテキストを決定することが、前記1つまたは複数の単語を表す前記テキストコンテンツに割り当てられた前記1つまたは複数の単語の前記調整された重要性に基づいて、前記第1のオーディオのトピックを決定することを含む、請求項7に従属する請求項9に記載のシステム。 - 1つまたは複数のオーディオ特性を分析することが、前記第2のオーディオ内のホストの声によって話された前記話し言葉の第1の部分と、前記第2のオーディオ内のゲストの声によって話された前記話し言葉の第2の部分とを区別することを含み、
前記1つまたは複数の単語の前記重要性を調整することが、前記話し言葉の前記第2の部分の前記重要性に対して、前記話し言葉の前記第1の部分の前記重要性を高めることを含む、請求項10に記載のシステム。 - 前記動作が、
前記第2のオーディオ内の製品名を検出することと、
前記第2のオーディオの前記テキストコンテンツから、前記第2のオーディオ内の前記製品名の位置の指定された時間の長さ内に話された単語を省略することと
をさらに含む、請求項7または8に記載のシステム。 - 分散コンピューティングシステムによって実行されると、前記分散コンピューティングシステムに、
第1のオーディオを取得することと、
検索可能なデータベースに前記第1のオーディオのテキスト転写を記憶することと、
第2のオーディオを含むメディアコンテンツを取得することと、
前記第2のオーディオ内の話し言葉を検出することと、
前記第2のオーディオの1つまたは複数のオーディオ特性を分析することと、
前記1つまたは複数のオーディオ特性の前記分析に基づいて前記話し言葉の中から1つまたは複数の単語の重要性を調整することと、
前記話し言葉を表すテキストコンテンツを生成することと、
前記1つまたは複数の単語を表す前記テキストコンテンツに、前記1つまたは複数の単語の前記調整された重要性を割り当てることと、
前記検索可能なデータベースの検索に基づいて、前記第2のオーディオの前記テキストコンテンツが前記第1のオーディオの前記テキスト転写と一致すると決定することと、
前記第2のオーディオの前記テキストコンテンツが前記第1のオーディオの前記テキスト転写と一致するという前記決定に応答して、拡張コンテンツストリームを作成するために前記第1のオーディオを前記メディアコンテンツに挿入することと
を含む動作を実行させる命令でエンコードされたコンピュータ可読記憶媒体。 - 分散コンピューティングシステムによって実行されると、前記分散コンピューティングシステムに、
第1のオーディオを取得することと、
検索可能なデータベースに前記第1のオーディオのテキスト転写を記憶することと、
第2のオーディオを含むメディアコンテンツを取得することと、
前記第2のオーディオをテキストコンテンツに変換することと、
前記検索可能なデータベースの検索に基づいて、前記第2のオーディオの前記テキストコンテンツが前記第1のオーディオの前記テキスト転写と一致すると決定することと、
前記第2のオーディオの前記テキストコンテンツが前記第1のオーディオの前記テキスト転写と一致するという前記決定に応答して、拡張コンテンツストリームを作成するために前記第1のオーディオを前記メディアコンテンツに挿入することと、
前記第2のオーディオの除外ゾーンを識別することと、
前記第2のオーディオの前記テキストコンテンツから前記除外ゾーン中に話された単語を省略することと
を含む動作を実行させる命令でエンコードされたコンピュータ可読記憶媒体。 - 前記動作が、
前記第1のオーディオの前記テキスト転写に基づいて前記第1のオーディオの第1のコンテキストを決定することと、
前記第2のオーディオの前記テキストコンテンツに基づいて前記第2のオーディオの第2のコンテキストを決定することと
をさらに含み、
前記第2のオーディオの前記テキストコンテンツが前記第1のオーディオの前記テキスト転写と一致すると決定することが、前記第1のコンテキストが前記第2のコンテキストと一致すると決定することを含む、
請求項13または14に記載のコンピュータ可読記憶媒体。 - 前記第2のオーディオの前記1つまたは複数のオーディオ特性を分析することが、前記1つまたは複数の単語の強調の可聴インジケーションを検出することを含み、
前記1つまたは複数の単語の前記重要性を調整することが、強調の前記可聴インジケーションに基づいて前記1つまたは複数の単語の前記重要性を高めることを含み、
前記第2のオーディオの前記第2のコンテキストを決定することが、前記1つまたは複数の単語を表す前記テキストコンテンツに割り当てられた前記1つまたは複数の単語の前記調整された重要性に基づいて、前記第1のオーディオのトピックを決定することを含む、請求項13に従属する請求項15に記載のコンピュータ可読記憶媒体。 - 1つまたは複数のオーディオ特性を分析することが、前記第2のオーディオ内のホストの声によって話された前記話し言葉の第1の部分と、前記第2のオーディオ内のゲストの声によって話された前記話し言葉の第2の部分とを区別することを含み、
前記1つまたは複数の単語の前記重要性を調整することが、前記話し言葉の前記第2の部分の前記重要性に対して、前記話し言葉の前記第1の部分の前記重要性を高めることを含む、請求項16に記載のコンピュータ可読記憶媒体。 - 前記動作が、
前記第2のオーディオ内の製品名を検出することと、
前記第2のオーディオの前記テキストコンテンツから、前記第2のオーディオ内の前記製品名の位置の指定された時間の長さ内に話された単語を省略することと
をさらに含む、請求項13または14に記載のコンピュータ可読記憶媒体。
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US202063107943P | 2020-10-30 | 2020-10-30 | |
| US63/107,943 | 2020-10-30 | ||
| PCT/US2021/051864 WO2022093453A1 (en) | 2020-10-30 | 2021-09-24 | Transforming data from streaming media |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2023533902A JP2023533902A (ja) | 2023-08-07 |
| JP7544858B2 true JP7544858B2 (ja) | 2024-09-03 |
Family
ID=78414741
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022568898A Active JP7544858B2 (ja) | 2020-10-30 | 2021-09-24 | ストリーミングメディアからのデータの変換 |
Country Status (7)
| Country | Link |
|---|---|
| US (1) | US20230244716A1 (ja) |
| EP (1) | EP4133387B1 (ja) |
| JP (1) | JP7544858B2 (ja) |
| KR (1) | KR20220157505A (ja) |
| CN (1) | CN115552394A (ja) |
| CA (1) | CA3178823A1 (ja) |
| WO (1) | WO2022093453A1 (ja) |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US12026199B1 (en) * | 2022-03-09 | 2024-07-02 | Amazon Technologies, Inc. | Generating description pages for media entities |
| US20240062020A1 (en) * | 2022-08-16 | 2024-02-22 | Microsoft Technology Licensing, Llc | Unified natural language model with segmented and aggregate attention |
| US20250278561A1 (en) * | 2024-03-01 | 2025-09-04 | Hitachi, Ltd. | Defect knowledge circulation system |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20060212897A1 (en) | 2005-03-18 | 2006-09-21 | Microsoft Corporation | System and method for utilizing the content of audio/video files to select advertising content for display |
| US20080201361A1 (en) | 2007-02-16 | 2008-08-21 | Alexander Castro | Targeted insertion of an audio - video advertising into a multimedia object |
Family Cites Families (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20080065602A1 (en) * | 2006-09-12 | 2008-03-13 | Brian John Cragun | Selecting advertisements for search results |
| JP5581309B2 (ja) * | 2008-03-24 | 2014-08-27 | スー カン,ミン | 放送サービスシステムの情報処理方法、その情報処理方法を実施する放送サービスシステム及びその情報処理方法に関する記録媒体 |
| EP2541963B1 (en) * | 2009-12-29 | 2021-03-17 | Inscape Data, Inc. | Method for identifying video segments and displaying contextually targeted content on a connected television |
| US20120197648A1 (en) * | 2011-01-27 | 2012-08-02 | David Moloney | Audio annotation |
| US8612211B1 (en) * | 2012-09-10 | 2013-12-17 | Google Inc. | Speech recognition and summarization |
| US9123335B2 (en) * | 2013-02-20 | 2015-09-01 | Jinni Media Limited | System apparatus circuit method and associated computer executable code for natural language understanding and semantic content discovery |
| US20160179831A1 (en) * | 2013-07-15 | 2016-06-23 | Vocavu Solutions Ltd. | Systems and methods for textual content creation from sources of audio that contain speech |
| US10049666B2 (en) * | 2016-01-06 | 2018-08-14 | Google Llc | Voice recognition system |
| EP3252769B8 (en) * | 2016-06-03 | 2020-04-01 | Sony Corporation | Adding background sound to speech-containing audio data |
| US10564817B2 (en) * | 2016-12-15 | 2020-02-18 | Descript, Inc. | Techniques for creating and presenting media content |
| CN106792003B (zh) * | 2016-12-27 | 2020-04-14 | 西安石油大学 | 一种智能广告插播方法、装置及服务器 |
| US11183195B2 (en) * | 2018-09-27 | 2021-11-23 | Snackable Inc. | Audio content processing systems and methods |
-
2021
- 2021-09-24 WO PCT/US2021/051864 patent/WO2022093453A1/en not_active Ceased
- 2021-09-24 CN CN202180034022.8A patent/CN115552394A/zh active Pending
- 2021-09-24 US US17/918,974 patent/US20230244716A1/en active Pending
- 2021-09-24 JP JP2022568898A patent/JP7544858B2/ja active Active
- 2021-09-24 CA CA3178823A patent/CA3178823A1/en active Pending
- 2021-09-24 KR KR1020227038447A patent/KR20220157505A/ko active Pending
- 2021-09-24 EP EP21799399.7A patent/EP4133387B1/en active Active
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20060212897A1 (en) | 2005-03-18 | 2006-09-21 | Microsoft Corporation | System and method for utilizing the content of audio/video files to select advertising content for display |
| US20080201361A1 (en) | 2007-02-16 | 2008-08-21 | Alexander Castro | Targeted insertion of an audio - video advertising into a multimedia object |
Also Published As
| Publication number | Publication date |
|---|---|
| CN115552394A (zh) | 2022-12-30 |
| WO2022093453A1 (en) | 2022-05-05 |
| KR20220157505A (ko) | 2022-11-29 |
| JP2023533902A (ja) | 2023-08-07 |
| EP4133387B1 (en) | 2025-09-10 |
| CA3178823A1 (en) | 2022-05-05 |
| EP4133387A1 (en) | 2023-02-15 |
| US20230244716A1 (en) | 2023-08-03 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7171911B2 (ja) | ビジュアルコンテンツからのインタラクティブなオーディオトラックの生成 | |
| JP7335062B2 (ja) | 音声サービス提供方法および装置 | |
| JP7544858B2 (ja) | ストリーミングメディアからのデータの変換 | |
| US20200105245A1 (en) | Systems and methods for providing notifications within a media asset without breaking immersion | |
| US10346455B2 (en) | Method and system for generating a summary of the digital content | |
| US11908462B2 (en) | Adaptive interface in a voice-activated network | |
| US20170062010A1 (en) | Computerized system and method for formatted transcription of multimedia content | |
| US20220398276A1 (en) | Automatically enhancing streaming media using content transformation | |
| US11003720B1 (en) | Relevance-ordered message search | |
| US12380160B2 (en) | Responding to queries with voice recordings | |
| CN118764681B (zh) | 针对视频的交互方法和针对视频的处理方法、装置 | |
| WO2025137255A1 (en) | Utilizing generative model in generating summary of long-form content | |
| EP4143674A1 (en) | Bit vector-based content matching for third-party digital assistant actions | |
| EP4650984A1 (en) | Audio content segmentation and naming | |
| JP7652480B1 (ja) | 情報処理システム、情報処理方法及びプログラム | |
| US12106330B1 (en) | Adaptive text-to-speech synthesis for dynamic advertising insertion in podcasts and broadcasts | |
| WO2025085179A1 (en) | Efficient response generation using refinement queries and artificial intelligence | |
| WO2025030115A1 (en) | Image generation using prompt chains | |
| US20170372393A1 (en) | Method, Apparatus and Computer-Readable Medium for Question Answer Advertising |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230111 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230111 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240124 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240213 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240513 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240729 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240822 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7544858 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |