JP6361351B2 - 発話ワードをランク付けする方法、プログラム及び計算処理システム - Google Patents
発話ワードをランク付けする方法、プログラム及び計算処理システム Download PDFInfo
- Publication number
- JP6361351B2 JP6361351B2 JP2014152053A JP2014152053A JP6361351B2 JP 6361351 B2 JP6361351 B2 JP 6361351B2 JP 2014152053 A JP2014152053 A JP 2014152053A JP 2014152053 A JP2014152053 A JP 2014152053A JP 6361351 B2 JP6361351 B2 JP 6361351B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- words
- text
- videos
- extracted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
- G10L15/05—Word boundary detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7834—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using audio features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
- G06V20/635—Overlay text, e.g. embedded captions in a TV program
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/19—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
- G11B27/28—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
- H04N21/2343—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
- H04N21/234336—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by media transcoding, e.g. video is transformed into a slideshow of still pictures or audio is converted into text
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
- H04N21/4402—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
- H04N21/440236—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by media transcoding, e.g. video is transformed into a slideshow of still pictures, audio is converted into text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/08—Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
- H04N7/087—Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only
- H04N7/088—Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital
- H04N7/0882—Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital for the transmission of character code signals, e.g. for teletext
Description
実施形態の1つもしくは複数において、外部情報ソースは、利用可能な発話テキスト(CCもしくはASRトランスクリプト)と組み合わせられる。外部ソースの役割はどの発話用語がビデオコンテンツをより適切に説明する確率が高いかについての情報を与えることである。すなわち、より適切に説明する用語を残して、発話トランスクリプトに現れる一般的な用語の検索への負の影響を低減することが目的である。説明するモデル化アプローチは外部ソースの用語と発話用語との共起性を分析する。1つもしくは複数の実施形態において、潜在変数モデル化は各モーダルのワード間のもっとも重要な共起性を識別するために使用され、その後、ビデオの関連テキスト及びテキストクエリに基づいてビデオをランク付けするためにモデルを使用することが可能である。
情報検索のためのベクトル空間モデル(VSM)は、テキストの「袋」としてドキュメントを扱い、当業者にはよく知られているルシーン(Lucene)などの最先端テキストサーチシステムを駆動する。ベクトル空間モデルの詳細は、非特許文献2に記載されている。テキストベクトルとしてドキュメントを表現することは、マトリックスとしてドキュメントコーパスを見ることにつながる。ドキュメントコーパスをモデル化する線形代数法の歴史は長い。図1(a)はマトリックスを示し、マトリックスの行にワード(w)によるインデックスが付加され、マトリックスの列にドキュメント(doc)によるインデックスが付加されている。
1.2.1 関連ワーク
研究者は、トピックモデル化をマルチモーダル領域にも拡張することを試みている。画像及び対応する注釈は、PLSAの変形及び非特許文献6に記載されているマルチモーダルLDA及び非特許文献7に記載されている対応LDA(Corr-LDA: correspondence LDA)などの潜在的ディリクレ配分法(LDA)を用いてモデル化されている。マルチモーダルLDAにおいて、画像領域デスクリプター及び注釈ワード(すなわち、タグ)は、共通の基礎となるトピック分布を用いて、ジョイントモデル化されている。一方、Corr−LDAは、まず、領域デスクリプターを生成し、次に、ワードを生成する処理をモデル化する。(ワードの各々は領域の1つにリンクされている。)これらの方法とは異なり、開示の技術の1つもしくは複数の実施形態において、コーパスの生成モデルは生成されていない。むしろ、生成モデルは、モーダルの各々及びそれらの共起性において観察されるワードのために構築される。実施形態のいくつかは、LDAではなく、PLSAを使用するので、モデルトレーニングのために必要とされる複雑で多様な推定及びサンプリング方法を用いないで済ませることが可能である。
非特許文献5で記述されているワードトピックモデルは行及び列の双方についてワードによってインデックスが付加されるので、マルチモーダルテキストデータに直接的に拡張される。 詳細には、ASRによって供給される発話ワードを潜在的にフィルタリングするかもしくは重み付けするために対象モデルを検討する。
Qwsl={w:w∈Tsp(v)∧w∈Tsl(v)}
である。
トレーニングの結果は、コーパス内でのスライド及び発話ワードの出現についての生成的なモデルである。これは、検索に使用される3つの要素を含む。モデルはトピックに関する条件を有するモーダルの各々の用語についての分布psl(w|z)及びpsp(w|z)を提供する。モデルの3番目の要素はビデオ特定トピック分布である。
2.1 データセット
非特許文献1で使用されているデータを利用する制御された実験のためにコーパスが生成される。詳細には、カンファレンスウェブサイトをクローリングすることにより、209個のレクチャービデオが収集された。レクチャービデオは、
1.ビデオ
2.PPT、PDF、HTML5のスライド
3.クローズドキャプショントランスクリプト
4.ASRトランスクリプト
5.OCRで抽出されたスライドテキスト
を含む。
第1の実験は、当業者にはよく知られている最先端フルテキストサーチシステムルシーンを用いて、ビデオ検索のASRトランスクリプトと比較する。性能を表1のVSMコラムに示す。ビデオのスライド及び発話テキストについてのジョイントモデルを与えられる発話テキストを生成する確率に従ってビデオをランク付けする一面的な手法で、説明されたモデルは展開された。まず、200潜在変数モデル(a 200 latent variable model)がビデオコーパス全体からのASR及びOCRテキストを用いてトレーニングされた。詳細には、ビデオ全体にわたるASR用語及びOCR用語の共起性(大域的共起性)の表を作成した。続いて、スライドから取得された発話テキスト及びOCRテキストのASRトランスクリプトを使用して、セクション1.2のEMの繰り返しが行われた。次に、上記式(7)がクエリの各々のビデオランク付け基準として使用された。
2.3 マルチモーダルビデオ検索
図5は、マルチモーダルレクチャービデオのインデックス付加を強化するために、ビデオフレームのオーディオトラック及びスライドのスピーチから導出されるテキストを統合するための計算処理システム500の例示的実施形態を示す。1つもしくは複数の実施形態において、計算処理システム500はよく知られているサーバコンピュータシステムもしくはデスクトップコンピュータのフォームファクター内で実装されてもよい。代替的な実施形態において、計算処理システム500は、ラップトップコンピュータ、ノートブックコンピュータもしくはスマートフォンまたはタブレットコンピュータなどのモバイル計算処理デバイスに基づいて実装されてもよい。
基本サービスシステムを実装し、計算処理システム500の様々なハードウェア構成要素を制御する。オペレーティングシステム513の例示的な実施形態はよく知られており、現在知られているもしくは今後開発されるオペレーティングシステムを含むことが可能である。
例えば、計算処理システム500のプロセッサ501によって実行されるソフトウェアアプリケーションセットを含むことが可能であり、ディスプレイデバイス526にユーザインターフェイスを表示する、ビデオ及びスライドテキストから抽出された発話ワードを用いてビデオファイルのインデックス付加を実行する、などの所定の機能を計算処理システム500に実行させる。1つもしくは複数の実施形態において、アプリケーション514は、開示の技術のビデオインデックス付加アプリケーション515を含んでいてもよい。
例えば、プレゼンテーションのビデオファイルを含む様々なビデオファイルを保存するためのビデオファイルストレージ522及び、例えば、OCR技術を用いてプレゼンテーションスライドから抽出されるテキストを保存するストレージ523を含むことが可能である。代替的に、ストレージ523はオリジナルのプレゼンテーションスライドから抽出されるテキストを保存してもよい。さらに、データストレージ521は、例えば、ASR技術を用いてビデオファイルのオーディオトラックから抽出されるテキストを保存するストレージ524を含んでいてもよい。代替的に、このテキストはビデオ媒体の各々に付随するクローズドキャプション情報から抽出されてもよい。
517 OCR/抽出モジュール
518 ASR/CCモジュール
519 ランク付け/インデックス付加モジュール
522 ビデオファイル
Claims (19)
- プロセッサが、
(a)複数のビデオの発話ワード及び複数の前記ビデオに関連する外部テキストの共起性についてマルチモーダル言語モデルを生成し、
(b)第1ビデオの少なくとも部分を選択し、
(c)前記第1ビデオの選択された部分から複数の発話ワードを抽出し、
(d)前記第1ビデオの選択された部分と関連する第1外部テキストを取得し、
(e)生成された前記マルチモーダル言語モデルを用いて、取得された前記第1外部テキストを条件とする発生確率に基づいて抽出された複数の前記発話ワードをランク付けする、
方法。 - 前記第1外部テキストを取得することは、前記第1ビデオの選択された部分で表示されるテキストから前記第1外部テキストを抽出する、ことを含む、請求項1に記載の方法。
- 前記外部テキストは複数の前記ビデオの少なくとも1つで表示される、請求項1に記載の方法。
- 前記外部テキストは複数の前記ビデオの少なくとも1つに関連するコンテンツに含まれている、請求項1に記載の方法。
- 複数の前記ビデオの各々は、前記外部テキストを含む複数のプレゼンテーションスライドを含む、請求項1〜4のいずれか1項に記載の方法。
- 前記マルチモーダル言語モデルを生成することは、複数の前記ビデオのすべてから発話ワードのすべてを抽出すること、及び、複数の前記ビデオに表示されている前記外部テキストを抽出すること、抽出した前記発話ワードの各々と抽出した前記外部テキストの各々との共起性の複数の確率を算出すること、を含む、請求項1〜5のいずれか1項に記載の方法。
- 前記マルチモーダル言語モデルはマトリックスフォームで保存される、請求項1〜6のいずれか1項に記載の方法。
- 複数の前記発話ワードは、自動音声認識を用いて、前記第1ビデオの選択された部分から抽出される、請求項1〜7のいずれか1項に記載の方法。
- 複数の前記発話ワードは、前記第1ビデオに関連するクローズドキャプション情報を用いて、前記第1ビデオの選択された前記部分から抽出される、請求項1〜7のいずれか1項に記載の方法。
- 前記第1ビデオの選択された部分に関連する第1外部テキストを取得することは、前記第1ビデオの選択された部分のスライドを検出し、光学文字認識を用いて、検出された前記スライドから前記第1外部テキストを抽出すること、を含む、請求項1〜9のいずれか1項に記載の方法。
- 前記プロセッサは、さらに、
ユーザに対してランク付けされた複数の前記発話ワードを提示し、
提示された複数の前記発話ワードの少なくとも1つの選択をユーザから受信し、
前記第1ビデオの注釈として、提示された複数の前記発話ワードの少なくとも1つの受信した前記選択を用いる、
請求項1〜10のいずれか1項に記載の方法。 - 前記プロセッサは、さらに、
複数の前記ビデオの少なくともいくつかにインデックスを付加するために前記注釈を使用する、
請求項11に記載の方法。 - 前記プロセッサは、さらに、
複数の前記ビデオの少なくともいくつかにインデックスを付加するためにランク付けされ抽出された複数の前記発話ワードを用いる、
請求項1〜12のいずれか1項に記載の方法。 - 前記プロセッサは、さらに、
複数の前記ビデオの少なくともいくつかにインデックスを付加するためにランク付けされ抽出された複数の前記発話ワードから上位にランク付けされたワードを使用する、
請求項1〜12のいずれか1項に記載の方法。 - 抽出された複数の前記発話ワードはフレーズを含む、請求項1〜14のいずれか1項に記載の方法。
- 抽出された複数の前記発話ワードはセンテンスを含む、請求項1〜14のいずれか1項に記載の方法。
- 前記第1ビデオの選択された部分は、前記第1ビデオのコンテクストについて意味を有するセグメントを含む、請求項1〜16のいずれか1項に記載の方法。
- 複数のビデオの発話ワード及び複数の前記ビデオと関連する外部テキストの共起性についてマルチモーダル言語モデルを生成し、
第1ビデオの少なくとも部分を選択し、
前記第1ビデオの選択された部分から複数の発話ワードを抽出し、
前記第1ビデオの選択された部分と関連する第1外部テキストを取得し、
生成した前記マルチモーダル言語モデルを使用して、取得した前記第1外部テキストを条件とする発生確率に基づいて抽出された複数の前記発話ワードをランク付けする、
ことをコンピュータに実行させるためのプログラム。 - プロセッサと、
命令セットを記憶しているメモリと、
を備え、
前記命令セットが前記プロセッサによって実行されることにより、
前記プロセッサが、
複数のビデオの発話ワードと複数の前記ビデオに関連する外部テキストとの共起性についてマルチモーダル言語モデルを生成し、
第1ビデオの少なくとも部分を選択し、
前記第1ビデオの選択された部分から複数の発話ワードを抽出し、
前記第1ビデオの選択された部分に関連する第1外部テキストを取得し、
生成した前記マルチモーダル言語モデルを用いて、取得した前記第1外部テキストを条件とする発生確率に基づいて、抽出した複数の前記発話ワードをランク付けする、
計算処理システム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/192,861 US9542934B2 (en) | 2014-02-27 | 2014-02-27 | Systems and methods for using latent variable modeling for multi-modal video indexing |
US14/192,861 | 2014-02-27 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015162244A JP2015162244A (ja) | 2015-09-07 |
JP6361351B2 true JP6361351B2 (ja) | 2018-07-25 |
Family
ID=53882818
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014152053A Active JP6361351B2 (ja) | 2014-02-27 | 2014-07-25 | 発話ワードをランク付けする方法、プログラム及び計算処理システム |
Country Status (2)
Country | Link |
---|---|
US (1) | US9542934B2 (ja) |
JP (1) | JP6361351B2 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8463053B1 (en) | 2008-08-08 | 2013-06-11 | The Research Foundation Of State University Of New York | Enhanced max margin learning on multimodal data mining in a multimedia database |
US9727619B1 (en) * | 2013-05-02 | 2017-08-08 | Intelligent Language, LLC | Automated search |
EP3195146A4 (en) * | 2014-09-18 | 2018-04-18 | Empire Technology Development LLC | Three-dimensional latent semantic analysis |
US10068617B2 (en) | 2016-02-10 | 2018-09-04 | Microsoft Technology Licensing, Llc | Adding content to a media timeline |
US20170249970A1 (en) * | 2016-02-25 | 2017-08-31 | Linkedin Corporation | Creating realtime annotations for video |
CN107943781B (zh) * | 2016-10-13 | 2021-08-13 | 北京国双科技有限公司 | 关键词识别方法及装置 |
US10642889B2 (en) * | 2017-02-20 | 2020-05-05 | Gong I.O Ltd. | Unsupervised automated topic detection, segmentation and labeling of conversations |
WO2019060199A1 (en) * | 2017-09-19 | 2019-03-28 | Dharma Platform, Inc. | AUTOMATIC DATA SWITCHING |
KR102345625B1 (ko) * | 2019-02-01 | 2021-12-31 | 삼성전자주식회사 | 자막 생성 방법 및 이를 수행하는 장치 |
CA3081168A1 (en) * | 2019-05-22 | 2020-11-22 | Royal Bank Of Canada | System and method for machine learning architecture for partially-observed multimodal data |
EP3944234A1 (en) * | 2020-07-24 | 2022-01-26 | Atos Global IT Solutions and Services Private Limited | Method for processing a video file comprising audio content and visual content comprising text content |
KR20220114379A (ko) | 2021-02-08 | 2022-08-17 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
US11682415B2 (en) * | 2021-03-19 | 2023-06-20 | International Business Machines Corporation | Automatic video tagging |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8073700B2 (en) * | 2005-09-12 | 2011-12-06 | Nuance Communications, Inc. | Retrieval and presentation of network service results for mobile device using a multimodal browser |
US7756708B2 (en) * | 2006-04-03 | 2010-07-13 | Google Inc. | Automatic language model update |
JP5226241B2 (ja) * | 2007-04-16 | 2013-07-03 | ヤフー株式会社 | タグを付与する方法 |
US9332319B2 (en) * | 2010-09-27 | 2016-05-03 | Unisys Corporation | Amalgamating multimedia transcripts for closed captioning from a plurality of text to speech conversions |
-
2014
- 2014-02-27 US US14/192,861 patent/US9542934B2/en active Active
- 2014-07-25 JP JP2014152053A patent/JP6361351B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015162244A (ja) | 2015-09-07 |
US9542934B2 (en) | 2017-01-10 |
US20150243276A1 (en) | 2015-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6361351B2 (ja) | 発話ワードをランク付けする方法、プログラム及び計算処理システム | |
US20220214775A1 (en) | Method for extracting salient dialog usage from live data | |
CN110717017B (zh) | 一种处理语料的方法 | |
KR102354716B1 (ko) | 딥 러닝 모델을 이용한 상황 의존 검색 기법 | |
CN107066464B (zh) | 语义自然语言向量空间 | |
CN106973244B (zh) | 使用弱监督数据自动生成图像字幕的方法和系统 | |
US11645314B2 (en) | Interactive information retrieval using knowledge graphs | |
US11615308B2 (en) | Generating responses to queries about videos utilizing a multi-modal neural network with attention | |
CN109196496B (zh) | 未知词预测器和内容整合的翻译器 | |
US10657332B2 (en) | Language-agnostic understanding | |
US11734375B2 (en) | Automatic navigation of interactive web documents | |
US10303768B2 (en) | Exploiting multi-modal affect and semantics to assess the persuasiveness of a video | |
US10474962B2 (en) | Semantic entity relation detection classifier training | |
CN106575503B (zh) | 用于对话理解系统的会话上下文建模的方法和系统 | |
CN106462640B (zh) | 对多媒体内容进行的场境搜索 | |
US20200134398A1 (en) | Determining intent from multimodal content embedded in a common geometric space | |
US20220405484A1 (en) | Methods for Reinforcement Document Transformer for Multimodal Conversations and Devices Thereof | |
AU2018250372A1 (en) | Method to construct content based on a content repository | |
US20240037941A1 (en) | Search results within segmented communication session content | |
CN110580294A (zh) | 实体融合方法、装置、设备及存储介质 | |
JP6676700B2 (ja) | 予約語及び属性言語間の関連度を用いた情報提供方法及び装置 | |
KR20210120203A (ko) | 웹 페이지에 기반한 메타데이터 생성방법 | |
KR102251513B1 (ko) | 기계학습을 이용한 셀럽의 소셜미디어 정보 기반 학습용 콘텐츠 생성 방법 및 장치 | |
KR102546331B1 (ko) | 이미지 기반 크롤링 방법 및 그 시스템 | |
US20230260533A1 (en) | Automated segmentation of digital presentation data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170621 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180410 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180529 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180611 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6361351 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |