JP6361351B2 - 発話ワードをランク付けする方法、プログラム及び計算処理システム - Google Patents

発話ワードをランク付けする方法、プログラム及び計算処理システム Download PDF

Info

Publication number
JP6361351B2
JP6361351B2 JP2014152053A JP2014152053A JP6361351B2 JP 6361351 B2 JP6361351 B2 JP 6361351B2 JP 2014152053 A JP2014152053 A JP 2014152053A JP 2014152053 A JP2014152053 A JP 2014152053A JP 6361351 B2 JP6361351 B2 JP 6361351B2
Authority
JP
Japan
Prior art keywords
video
words
text
videos
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014152053A
Other languages
English (en)
Other versions
JP2015162244A (ja
Inventor
クーパー マシュー
クーパー マシュー
ジョシ ディラジ
ジョシ ディラジ
チェン ホイゾォン
チェン ホイゾォン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Publication of JP2015162244A publication Critical patent/JP2015162244A/ja
Application granted granted Critical
Publication of JP6361351B2 publication Critical patent/JP6361351B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • G10L15/05Word boundary detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7834Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using audio features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/635Overlay text, e.g. embedded captions in a TV program
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234336Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by media transcoding, e.g. video is transformed into a slideshow of still pictures or audio is converted into text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440236Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by media transcoding, e.g. video is transformed into a slideshow of still pictures, audio is converted into text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • H04N7/087Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only
    • H04N7/088Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital
    • H04N7/0882Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital for the transmission of character code signals, e.g. for teletext

Description

開示の技術は、ビデオに含まれる発話ワードをランク付けする方法、プログラム及び計算処理プログラムに関する。
ビデオカメラ、スマートフォン及びデジタルカメラなどのデバイスを所有することがより一般的になってきたため、現在、ビデオ記録は、毎日行われている。さらに、サービス及びビデオを扱うことが可能なインフラの拡充によって、オンライン上のビデオを容易に探し出し、視聴することが可能である。しかしながら、日付、製作者、キーワードもしくは説明などのメタデータをまったく有さないビデオを、一般的なサーチエンジンを用いて探し出すことは困難である。メタデータは、通常、マニュアルで付加され、そのプロセスにはたいへん時間がかかる。さらに、ビデオをそのメタデータによって探し出すことが可能であったとしても、通常、サーチエンジンがビデオ内の関心対象の特定のシーンを探し出すことは困難である。
特許文献1は、レクチャービデオサーチエンジンについて記載している。このシステムは、レクチャービデオジャンルにフォーカスし、スライドによるビデオ構造を利用する点で、他のサーチエンジンとは異なる。記載されたシステムは、自動的に、ビデオ内のスライドを検出し、光学文字認識(OCR:optical character recognition)を用いて、そのテキストを抽出するためにスライドフレームを処理する。このパワフルなスライドキーフレームベースインターフェイスによって、ユーザは、テキストベースサーチを用いて、ビデオ内で効率的に検索を行うことが可能である。
ビデオのより広いクラスを説明するテキストの他のソースは、例えば、自動音声認識(ASR:automatic speech recognition)を用いたオーディオトラックからのテキスト抽出である。非特許文献1では、スライドから導出されるテキストの特性及び音声から導出されるテキストの特性が設定され、マニュアルグランドトゥルース(ground truth:正解を記録したデータ)を用いて制御される実験で対比されている。ASRからの発話テキストもしくはクローズドキャプションは、一般的に、密度が高く、俄仕立てであり、一般的な用語を含む。ASRにおけるエラーは、音響ミスマッチによってワードレベルで生じるものであり、検索性能を劣化させる。スライドファイルもしくはOCRを用いてスライドから抽出したスライドテキストは相対的に密度が低いが、作成プロセスの成果として区別可能な用語を含む。自動的に抽出されたスライドの用語におけるエラーは文字レベルで生じ検索に与える影響は少ない。
米国特許第8280158号明細書
クーパー(Cooper)、「自動的にリカバーされたスライド及び発話テキストを用いたプレゼンテーションビデオ検索(Presentation video retrieval using automatically recovered slide and spoken text)」、SPIE抄録(Proc. SPIE)、2013年、vol.8667 マニング(Manning)ら、「情報検索入門(Introduction to information retrieval)」、ケンブリッジ大学出版(Cambridge University Press)、2008年 ベリー(Berry)ら、「知能情報検索のための線形代数(Using linear algebra for intelligent information retrieval)、SIAMレビュー(SIAM review)、1995年、37(4)、頁573〜頁595 ホフマン(Hofmann)、「確率的潜在意味解析による教師なし学習(Unsupervised learning by probabilistic latent semantic analysis)」、機械学習(Mach. Learn.)、2001年1月、42(1/2)、頁177〜頁196 チェン(Chen)、「発話ドキュメント検索及びトランスクリプションのためのワードトピックモデル(Word topic models for spoken document retrieval and transcription)、アジア言語情報処理に関するACMトランザクション(ACM Transactions on Asian Language Information Processing)、2009年3月、8(1)、2:1−2:27 バーナード(Barnard)ら、「ワード及びピクチャのマッチング(Matching words and pictures)」、機械学習研究ジャーナル(J. Mach. Learn. Res.)、2003年3月、3:1107−1135 ブレイ(Blei)ら、「潜在的ディリクレ配分(Latent dirichlet allocation)」、機械学習研究ジャーナル(J. Mach. Learn. Res.)、2003年3月、3:993−1022 ジェオン(Jeon)ら、「クロスメディア関連モデルを用いた自動画像注釈付け及び検索(Automatic image annotation and retrieval using cross-media relevance models)」、情報検索における研究開発に関する第26回年次国際ACM SIGIRカンファレンス抄録(Proceedings of the 26th annual international ACM SIGIR conference on Research and development in information retrieval)、USA、2003年、頁119〜126 リーンハート(Lienhart)ら、「マルチモーダル画像検索のためのマルチレイヤーPLSA(Multilayer plsa for multimodal image retrieval)、画像及びビデオ検索に関するACM国際カンファレンス抄録(Proceedings of the ACM International Conference on Image and Video Retrieval)、USA、2009年、頁9:1〜9:8 ラシワシア(Rasiwasia)ら、「クロスモーダルマルチメディア検索への新しいアプローチ(A new approach to cross-modal multimedia retrieval)、マルチメディアに関する国際会議抄録(Proceedings of the international conference on Multimedia)、USA、2010年、頁:251−260 チュアン(Chuang)ら、「非重要ワードクラッタ不要:テキスト視覚化のための説明的キーフレーズ(Without the clutter of unimportant words: Descriptive keyphrasesfor text visualization)、コンピュータヒューマンインタラクションに関するACMトランザクション(ACM Trans, Comput.-Hum. Interact.)、2012年10月、19(3)、頁19:1〜19:29
新しく改良されるシステム及び方法は、マルチモーダルビデオへのインデックス付加を強化するために、オーディオトラックの音声及びビデオフレームのスライドから取得されるテキストを統合することを必要とする。
本発明の第1の態様は、方法であって、(a)複数のビデオの発話ワード及び複数の前記ビデオに関連する外部テキストの共起性についてマルチモーダル言語モデルを生成し、(b)第1ビデオの少なくとも部分を選択し、(c)前記第1ビデオの選択された部分から複数の発話ワードを抽出し、(d)前記第1ビデオの選択された部分と関連する第1外部テキストを取得し、(e)生成された前記マルチモーダル言語モデルを用いて、取得された前記第1外部テキストを条件とする発生確率に基づいて抽出された複数の前記発話ワードをランク付けする。
本発明の第2の態様は、第1の態様の方法であって、前記第1外部テキストを取得することは、前記第1ビデオの選択された部分で表示されるテキストから前記第1外部テキストを抽出する、ことを含む。
本発明の第3の態様は、第1の態様の方法であって、前記外部テキストは複数の前記ビデオの少なくとも1つで表示される。
本発明の第4の態様は、第1の態様の方法であって、前記外部テキストは複数の前記ビデオの少なくとも1つに関連するコンテンツに含まれている。
本発明の第5の態様は、第1〜第4のいずれかの態様の方法であって、複数の前記ビデオの各々は、前記外部テキストを含む複数のプレゼンテーションスライドを含む。
本発明の第6の態様は、第1〜第5のいずれかの態様の方法であって、前記マルチモーダル言語モデルを生成することは、複数の前記ビデオのすべてから発話ワードのすべてを抽出すること、及び、複数の前記ビデオに表示されている前記外部テキストを抽出すること、抽出した前記発話ワードの各々と抽出した前記外部テキストの各々との共起性の複数の確率を算出すること、を含む。
本発明の第7の態様は、第1〜第6のいずれかの態様の方法であって、前記マルチモーダル言語モデルはマトリックスフォームで保存される。
本発明の第8の態様は、第1〜第7のいずれかの態様の方法であって、複数の前記発話ワードは、自動音声認識を用いて、前記第1ビデオの選択された部分から抽出される。
本発明の第9の態様は、第1〜第7のいずれかの態様の方法であって、複数の前記発話ワードは、前記第1ビデオに関連するクローズドキャプション情報を用いて、前記第1ビデオの選択された前記部分から抽出される。
本発明の第10の態様は、第1〜第9のいずれかの態様の方法であって、前記第1ビデオの選択された部分に関連する第1外部テキストを取得することは、前記第1ビデオの選択された部分のスライドを検出し、光学文字認識を用いて、検出された前記スライドから前記第1外部テキストを抽出すること、を含む。
本発明の第11の態様は、第1〜第10のいずれかの態様の方法であって、前記プロセッサは、さらに、ユーザに対してランク付けされた複数の前記発話ワードを提示し、提示された複数の前記発話ワードの少なくとも1つの選択をユーザから受信し、前記第1ビデオの注釈として、提示された複数の前記発話ワードの少なくとも1つの受信した前記選択を用いる。
本発明の第12の態様は、第11の態様の方法であって、前記プロセッサは、さらに、複数の前記ビデオの少なくともいくつかにインデックスを付加するために前記注釈を使用する。
本発明の第13の態様は、第1〜第12のいずれかの態様の方法であって、前記プロセッサは、さらに、複数の前記ビデオの少なくともいくつかにインデックスを付加するためにランク付けされ抽出された複数の前記発話ワードを用いる。
本発明の第14の態様は、第1〜第12のいずれかの態様の方法であって、前記プロセッサは、さらに、複数の前記ビデオの少なくともいくつかにインデックスを付加するためにランク付けされ抽出された複数の前記発話ワードから上位にランク付けされたワードを使用する。
本発明の第15の態様は、第1〜第14のいずれかの態様の方法であって、抽出された複数の前記発話ワードはフレーズを含む。
本発明の第16の態様は、第1〜第14のいずれかの態様の方法であって、抽出された複数の前記発話ワードはセンテンスを含む。
本発明の第17の態様は、第1〜第16のいずれかの態様の方法であって、前記第1ビデオの選択された部分は、前記第1ビデオのコンテクストについて意味を有するセグメントを含む。
本発明の第18の態様は、プログラムであって、複数のビデオの発話ワード及び複数の前記ビデオと関連する外部テキストの共起性についてマルチモーダル言語モデルを生成し、第1ビデオの少なくとも部分を選択し、前記第1ビデオの選択された部分から複数の発話ワードを抽出し、前記第1ビデオの選択された部分と関連する第1外部テキストを取得し、生成した前記マルチモーダル言語モデルを使用して、取得した前記第1外部テキストを条件とする発生確率に基づいて抽出された複数の前記発話ワードをランク付けする、ことをコンピュータに実行させる。
本発明の第19の態様は、計算処理システムであって、プロセッサと、命令セットを記憶しているメモリと、を備え、前記命令セットが前記プロセッサによって実行されることにより、前記プロセッサが、複数のビデオの発話ワードと複数の前記ビデオに関連する外部テキストとの共起性についてマルチモーダル言語モデルを生成し、第1ビデオの少なくとも部分を選択し、前記第1ビデオの選択された部分から複数の発話ワードを抽出し、前記第1ビデオの選択された部分に関連する第1外部テキストを取得し、生成した前記マルチモーダル言語モデルを用いて、取得した前記第1外部テキストを条件とする発生確率に基づいて、抽出した複数の前記発話ワードをランク付けする。
開示の技術によれば、オーディオトラックの音声及びビデオフレームのスライドから取得されるテキストを適切に統合することが可能となる。
(a)はPLSA及びLDAを用いてモデル化されているワードドキュメントマトリックスを示し、(b)はワードトピックモデル化で処理されているマトリックスを示し、(c)はドキュメントの代わりに観察関数Oが使用されているマルチモーダル変形を示す。 潜在変数モデルトレーニングプロセスのオペレーティングシーケンスを例示する。 もっとも関連する発話ワードを識別するため及び誤認識ワードもしくは他の無関係な用語を抑制するためのスライドテキストを用いる方法のオペレーティングシーケンスを例示する。 マルチモーダル言語モデルを用いたビデオに対する注釈を生成するアプリケーションのユーザインターフェイスを例示する。 様々な形態を実施することが可能な計算処理システムの実施例を示す。
以下の詳細な説明において、添付の図面を参照する。図面において、同様の機能を有する構成要素は同様の参照符号で示される。上記添付の図面は例示のために示され、限定のために示されるのではない。特定の実施形態及び実装は本発明の原理と矛盾しない。これらの実装は、当業者が本発明を実施することが可能な程度に十分詳細に説明される。他の実装が利用可能であり、本発明の範囲及び思想から逸脱することなく、構成の変更及び/もしくは様々な構成要素の置換が可能である。したがって、以下の詳細な説明は、限定的な意味で解釈されるべきものではない。さらに、本発明の様々な実施形態は、説明されるように、汎用目的コンピュータで稼動するソフトウェアの形態、特定用途ハードウェアの形態、もしくは、ソフトウェア及びハードウェアの組み合わせで実装されてもよい。
実施形態の1態様によれば、マルチモーダルレクチャービデオインデックス付加を強化するために、ビデオレクチャープレゼンテーションのオーディオトラックの音声及びビデオフレームのスライドから導出されるテキストを統合する計算処理システム及びコンピュータ実装方法が提供される。実施形態の1つもしくは複数において、テキストドキュメントインデックス付加のための確立されている潜在変数モデル化アプローチが、プレゼンターのスライド及びスピーチのワードの共起性をモデル化するために採用される。実施形態の1つにおいて、上記マルチモーダルアプローチがレクチャービデオ検索に適用される。
1.潜在変数モデル
実施形態の1つもしくは複数において、外部情報ソースは、利用可能な発話テキスト(CCもしくはASRトランスクリプト)と組み合わせられる。外部ソースの役割はどの発話用語がビデオコンテンツをより適切に説明する確率が高いかについての情報を与えることである。すなわち、より適切に説明する用語を残して、発話トランスクリプトに現れる一般的な用語の検索への負の影響を低減することが目的である。説明するモデル化アプローチは外部ソースの用語と発話用語との共起性を分析する。1つもしくは複数の実施形態において、潜在変数モデル化は各モーダルのワード間のもっとも重要な共起性を識別するために使用され、その後、ビデオの関連テキスト及びテキストクエリに基づいてビデオをランク付けするためにモデルを使用することが可能である。
実施形態の1つにおいて、スライドテキスト(スライド自身からOCRを用いて抽出された、もしくは、プレゼンテーションファイルから取得された)が、上記外部情報ソースとして使用される。結果は、スライド及び発話トランスクリプトにおける用語の共起性のモデルである。代替的な実施形態では、スライドなしのレクチャーのために外部テキストを利用することが可能である。教育的な設定において、このテキストソースは記録されたレクチャーに関連するテキストブックであってもよい。外部テキストに関する主な制限は、コーパス内にテキスト(例えば、チャプター)から特定のビデオへのマッピング(例えば、シラバス)があることである。実施形態の1つにおいて、ビデオはスライドセット及びオーディオトランスクリプトに直接的に関係する。
1.1 単一モーダルコーパスモデル化
情報検索のためのベクトル空間モデル(VSM)は、テキストの「袋」としてドキュメントを扱い、当業者にはよく知られているルシーン(Lucene)などの最先端テキストサーチシステムを駆動する。ベクトル空間モデルの詳細は、非特許文献2に記載されている。テキストベクトルとしてドキュメントを表現することは、マトリックスとしてドキュメントコーパスを見ることにつながる。ドキュメントコーパスをモデル化する線形代数法の歴史は長い。図1(a)はマトリックスを示し、マトリックスの行にワード(w)によるインデックスが付加され、マトリックスの列にドキュメント(doc)によるインデックスが付加されている。
1つもしくは複数の実施形態において、潜在意味解析(LSA)を含む方法及び確率的潜在意味解析(PLSA)がテキストドキュメント検索のマトリックスを処理するために使用される。潜在意味解析の詳細は非特許文献3に、確率的潜在意味解析の詳細は非特許文献4に記載されている。用語間の意味関係はドキュメント内の用語の共起性によって暗示される。コーパスはワードの共起性の観察セットを示す。ワードドキュメントマトリックスへの低ランク近似は、擬似的な共起性を廃棄し、基本意味的ワード間関係を維持する。モデルトレーニングは潜在変数もしくは態様のセットを用いてこれらの関係を符号化する(すなわち、ドキュメントで現実には共起することのない2つのワードが1つもしくは複数の隠れたトピックによってつながる可能性がある。)。
図1(a)はPLSA及びLDAを用いてモデル化されている従来のワードドキュメントマトリックスを示す。図1(b)は非特許文献5に記載されているワードトピックモデル化で処理されるマトリックスを示す。図1(c)は、ドキュメントの代わりに、観察関数Oが使用される開示の技術の実施形態によるマルチモーダル変形を示す。
このアイディアをより局在的にしたアイディアが図1(b)に示されている(詳細は、非特許文献5参照)。図1(a)のように、ドキュメントによってマトリックスの列にインデックスを付加するのではなく、列はワードw∈W(語彙)のローカル(サブドキュメント)近傍O(w)を示す。処理は変更されないが、意味はより局在的な用語の共起性から導出される。このマトリックスの要素はワード対各々の確率P(w,O(w))を取得する。マトリックスは|W|×|W|次元の正方行列である。図1(a)のドキュメントと同様に、マトリックスの対応する列に基づいて、モデルMとワードの各々とを関連付ける。PLSAは条件付確率を生成する。
1.2 マルチモーダルモデル化
1.2.1 関連ワーク
研究者は、トピックモデル化をマルチモーダル領域にも拡張することを試みている。画像及び対応する注釈は、PLSAの変形及び非特許文献6に記載されているマルチモーダルLDA及び非特許文献7に記載されている対応LDA(Corr-LDA: correspondence LDA)などの潜在的ディリクレ配分法(LDA)を用いてモデル化されている。マルチモーダルLDAにおいて、画像領域デスクリプター及び注釈ワード(すなわち、タグ)は、共通の基礎となるトピック分布を用いて、ジョイントモデル化されている。一方、Corr−LDAは、まず、領域デスクリプターを生成し、次に、ワードを生成する処理をモデル化する。(ワードの各々は領域の1つにリンクされている。)これらの方法とは異なり、開示の技術の1つもしくは複数の実施形態において、コーパスの生成モデルは生成されていない。むしろ、生成モデルは、モーダルの各々及びそれらの共起性において観察されるワードのために構築される。実施形態のいくつかは、LDAではなく、PLSAを使用するので、モデルトレーニングのために必要とされる複雑で多様な推定及びサンプリング方法を用いないで済ませることが可能である。
クロスメディアリファレンスモデルが画像及びタグのジョイントモデル化のために提案されている(非特許文献8)。潜在変数モデルとは異なり、この技術は、任意の潜在変数への依存を強いたり、領域とタグとの間の一対一対応を仮定したりすることなく、画像領域をジョイントモデル化する。ジョイントモデル化は本質的にシンプルであり、著者は普及している潜在トピックベースジョイントモデル化アプローチとこれらの技術とを直接比較しない。非特許文献9に記載のマルチレイヤーPLSAアプローチがビジュアルワード及びタグをモデル化するために提案されている。マルチモーダルLDAモデルと基本的に同様であるが、マルチレイヤーモデリングは(2つのモーダル間に共通な)潜在変数の2つのレイヤーをジョイントモデリングに導入する。著者らは、マルチモーダルLDAモデルをジョイントするのとは異なり、マルチレイヤーPLSAが、画像と関連するタグがビジュアルコンテンツを必ず記述することを必要としない、ことに言及する。開示の技術の実施形態のいくつかはPLSAも使用するが、非特許文献4に記載されるアプローチと異なり、検索のためのプロシージャに複雑なフォールディングもしくは非特許文献9に記載されているようなモデルトレーニングを加速するための初期化のためのスキームを必要としない。非特許文献10は、2つのモーダル(ワード及びピクチャ)にわたってサイズの低減を共に実行することによって、マルチモーダルデータをモデル化するために正準相関分析(CCA)を使用する。CCAは2つのモーダルの間の相関が最大化されるジョイント空間へのマルチモーダルデータのマッピングを検出することを試みる。上記方法はマルチモーダル情報をモデル化するために設計されているが、上記実施形態とは異なるポイントがある。CCAはモーダル間の相関が高いサブスペースを検出することを試みる。一方、開示の技術の1つもしくは複数の実施形態は相関を最適化せず、条件付き確率として明示的なモデル依存を最適化する。CCAは、異なるモーダルの表現間で自然な対応がない場合のシナリオに適しており、中間サブスペースのサーチを必要とする。
開示の技術における1つもしくは複数の実施形態によれば、複数モーダルの用語の共起性のより直接的(かつシンプルな)モデルが提供される。すなわち、上記実施形態の1つもしくは複数は、非特許文献9及び10で使用されている中間サブスペースを利用する必要なしで済ませることが可能である。代替的に、確立されている確率的潜在変数法が、スライドの語彙全体及びコーパスの発話トランスクリプトにわたって共起性情報を示すために適用される。このアプローチは、ビデオに関連付けられている利用可能なテキストを条件とする1つのモーダルにおいて(クエリ)テキストを生成する確率を探求するフレキシビリティを提供する。検索時に、このアプローチは、特定のビデオと関連付けられているマルチモーダルデータの共起性を条件とするいずれかのモーダルにおいて現れるクエリテキストの確率を結合する。以下で詳細に説明する。
1.2.2 モデリング詳細
非特許文献5で記述されているワードトピックモデルは行及び列の双方についてワードによってインデックスが付加されるので、マルチモーダルテキストデータに直接的に拡張される。 詳細には、ASRによって供給される発話ワードを潜在的にフィルタリングするかもしくは重み付けするために対象モデルを検討する。
αは、Tslにおけるwslの頻度の重みである。Tslはビデオの利用可能なスライド、wspはビデオの利用可能な発話テキストを示す。この条件付確率は個々のスライドワードwsl∈Tslから構築されるので、ワードがトレーニングデータに現れる限り、まだ見ていないスライドテキストについても構築される。モデルの効果は、クエリとして、構成用語によってドキュメントが表現されることである。これは、非特許文献4に記載されているドキュメント検索のためのPLSAを使用するために要求される「フォールディングイン(folding-in)」プロシージャを不要とする。
無視されていた問題は、図1(c)のマトリックスにおいてスライドと発話テキストをどのように関連付けるかである。単一モーダルデータについて、我々は固定ウィンドウを使用した。スライドワードの各々について、類似ドキュメントとして処理する発話ワードセットQを識別する必要がある。いくつかの共起性がある。
1.大域的共起性:この場合、発話ワードw及びスライドワードwslが各々、特定のビデオのスライド及び発話トランスクリプトに現れるならば、ビデオvについて、
wsl={w:w∈Tsp(v)∧w∈Tsl(v)}
である。
2.固定ウィンドウ共起性:ビデオ分析を用いて、スライドの各々と特定の時間セグメントとを関連付けることが可能であり、CCもしくはASRのタイプスタンプを使用することが可能である。固定時間間隔内のビデオにスライドワード及び発話が現れる場合、発話用語を含めることが可能である。
3.セグメント共起性:上記と同様であるが、発話テキストトランスクリプトを分割するために検出されたスライドから導出される一時的なセグメンテーションを使用する。同一のセグメントに現れるスライドワード及び発話ワードが関連付けられる。
これまで、経験的に、大域的アプローチがもっとも適切に働いてきた。図1(c)のマトリックスを構築するための規則を定義すると仮定すると、このモデルのEM推定を繰り返すことが可能である。
Eステップ:アップデート
Mステップ:アップデート
図2は、潜在変数モデルトレーニング処理のオペレーティングシーケンス200の例示的な実施形態を示す。ステップ201で、レクチャービデオなどのビデオのコーパスが取得される。ステップ202で、コーパスのビデオの各々について、発話ワードが、ASRを用いて抽出されるか、もしくは、代替的に、ビデオの各々に関連するクローズドキャプション(CC)情報から抽出される。ステップ203で、スライドは当業者によく知られている技術を用いてコーパスビデオの各々のビデオフレームで検出される。ステップ204で、検出されたスライドの各々について、スライドに現れるワードは、例えば、前記OCR技術を用いて検出される。代替的な実施形態において、スライドを含む対応するプレゼンテーションファイルが利用可能であれば、スライドテキストは当該プレゼンテーションファイルから直接的に抽出されてもよい。ステップ205で、上記技術に従って、抽出された発話ワード及びスライドテキストがスライドのワード及び発話ワードの共起性について潜在変数モデルを生成するために使用される。最後に、ステップ206で、生成された潜在変数モデルが、例えば、マトリックスフォームで、保存される。
1.3 ランク付けスコア
トレーニングの結果は、コーパス内でのスライド及び発話ワードの出現についての生成的なモデルである。これは、検索に使用される3つの要素を含む。モデルはトピックに関する条件を有するモーダルの各々の用語についての分布psl(w|z)及びpsp(w|z)を提供する。モデルの3番目の要素はビデオ特定トピック分布である。
これは、式(3)の完全尤度から計算される。αは特定の用語(wsl,wsp)及び(Tsl,Tsp)によって代表されるビデオとの間の関係を示すファクターである。これは、単純に、組み合わされたビデオトランスクリプトの用語対の頻度である。
このモデルを直接的に適用する際の最終的な困難さは、記述したモデルがスライドワードから発話ワードを生成する場合もあるし、発話ワードからスライドワードを生成する場合もあることである。残念ながら、ユーザの言語モデルはこれらのモデルのいずれにも直接的に対応しない。クエリTを与えるビデオをランク付けするために最終的なスコアを推定するため、ランク付けスコアは2つの量を結合する。

顕著な実装の詳細は、式(7)及び式(8)のワードwsp及びwslをわたる合計が(Tsl,Tsp)によって代表されるビデオ毎に1度推定されることが可能であり、クエリが行われたときに、その後の参照のために保存されることが可能である。これらは、条件付のビデオ毎の潜在変数分布である。式(9)への寄与はクエリに依存しない。
図3は、もっとも関係のある発話ワードを識別し、誤認識されるワードもしくは他の無関係な用語を抑制するために、スライドテキストを用いるための方法のオペレーティングシーケンス300の例示的な実施形態を示す。ステップ301で、例えば、モバイルコンピューティングデバイスにインストールされているビデオ再生アプリケーションを用いて、ビデオがユーザに対して再生される。ステップ302で、ユーザのリクエストに応じて、ビデオは一旦停止され、再生ビデオの部分が選択される。実施形態の1つにおいて、ビデオの選択された部分は、ビデオが一旦停止されたときの、現在時点に関連する時間のビデオセグメントである。実施形態の1つもしくは複数において、ビデオの選択された部分は関連するオーディオトラックと共に1つのもしくは複数のビデオフレームを含んでもよい。様々な実施形態において、ビデオの選択された部分は、特定のプレゼンテーションスライドが示され、及び/もしくは検討されるビデオセグメントなどのビデオのコンテクストについて意味を有する時間のセグメントに対応してもよい。様々な実施形態において、ビデオのコンテクストについて意味を有する時間的なセグメントは単一のスライド、プレゼンテーションチャプター、トピック、セクションもしくはプレゼンテーション全体に対応してもよい。ステップ303で、発話ワードは、例えば、上記ASR技術を用いてビデオの選択された部分から抽出される。他の実施形態において、発話ワードは上記CC情報を用いて抽出されてもよい。ステップ304で、ビデオの選択された部分のビデオフレームのスライドが検出される。ステップ305で、スライドテキストは、例えば、OCR技術を用いて、検出されたスライドから抽出される。代替的な実施形態において、スライドを含む対応するプレゼンテーションファイルが利用可能であれば、スライドテキストは当該プレゼンテーションファイルから直接的に抽出されてもよい。
ステップ306で、検出されたスライドテキストを条件とする選択されたビデオ部分での出現確率に従って、予めトレーニングされた潜在変数モデルが抽出された発話ワード(もしくはセンテンス)をランク付けするために使用される。ステップ307で、ワード、フレーズもしくはセンテンスのランク付けされたリストがユーザに提供される。ステップ308で、ランク付けされたリストからのアイテムのユーザ選択が受信され、ビデオもしくはビデオの特定のポイントへの注釈として使用されることで、モバイルデバイスについて一般的に困難である注釈などのタイピングの必要性を不要にする。目的は、キーとなる発話ワードを識別し、誤認識されたワードもしくは他の無関係な用語を抑制するためにスライドテキストを使用することである。図2に示されるトレーニングアルゴリズムとの主な違いは、単一のビデオ内の1つの時点に関連する限定されたテキストだけが処理されることである。一方、トレーニングの間は、全てのビデオからの全てのテキストが使用される。
図4は、記述されたマルチモーダル言語モデルを用いて、ビデオの注釈を生成するためのアプリケーションのユーザインターフェイスの例示的な実施形態を示す。ユーザインターフェイスの実施形態において、ビデオがユーザインターフェイスウィンドウ401を用いてユーザに対して再生される。従来の時間的なビデオナビゲーションツール402(スライダー)が時間的なビデオナビゲーションを可能にするためにユーザに提供される。さらに、ビデオに注釈を付加するためにボタン403が提供される。
ユーザが注釈生成ボタン403をクリック(もしくはタッチ)すると、アプリケーションは再生ビデオを一時停止し、ビデオへの注釈として含めるための候補発話ワードの1つもしくは複数の選択示唆406を含む注釈推奨ウィンドウ405をユーザに対して表示するように構成されている。様々な実施形態において、用語「発話ワード」は単一のワード(例えば、「constant」)であってもよいし、フレーズ(例えば、「Ag prime prime」)であってもよいし、センテンス全体(例えば、「We could factor out that c1 is a constant and we get c1 times Ag prime prime plus Bg prime plus Cg(定数であるc1を括り出すことができ、c1×(Ag’’+Bg’+Cg)が導かれる」)であってもよい。
ユーザは提供されるワード、フレーズもしくはセンテンスをクリックすることが可能であり、ユーザが選択したアイテムは自動的に注釈としてビデオに関連付けられる。代替的な実施形態において、候補ワード、フレーズ、もしくはセンテンス406はユーザによってクリックされることが可能なランク付けされたリストの形態で提供されてもよい。ユーザ選択注釈は次に将来のサーチ及び検索を容易にするためにビデオもしくはビデオの部分にインデックスを付加するために使用される。
代替的な実施形態において、上記方法を用いて識別される上位にランク付けされた(例えば、所定の閾値を越えるランクの)ワード、フレーズもしくはセンテンスは、注釈のマニュアル選択をユーザが実行する必要なく、ビデオのインデックスを付加するために自動的に選択されてもよい。
2.実験
2.1 データセット
非特許文献1で使用されているデータを利用する制御された実験のためにコーパスが生成される。詳細には、カンファレンスウェブサイトをクローリングすることにより、209個のレクチャービデオが収集された。レクチャービデオは、
1.ビデオ
2.PPT、PDF、HTML5のスライド
3.クローズドキャプショントランスクリプト
4.ASRトランスクリプト
5.OCRで抽出されたスライドテキスト
を含む。
例えば、非特許文献11に記載されるように、トークが提供されているウェブページにあるトークの説明を用いて、技術的な用語がまず抽出され、より記述的ではない質のクエリを取り除くためにフィルタリングされる。マニュアルでグラウンドトゥルース関連判定が、209個全てのビデオにわたる275個の残りのクエリ全てについてまとめられた。例えば、非特許文献2に記載される平均適合率平均を全体にわたる評価測度として使用した。
2.2 スライドテキストを用いた発話ドキュメント検索の改良
第1の実験は、当業者にはよく知られている最先端フルテキストサーチシステムルシーンを用いて、ビデオ検索のASRトランスクリプトと比較する。性能を表1のVSMコラムに示す。ビデオのスライド及び発話テキストについてのジョイントモデルを与えられる発話テキストを生成する確率に従ってビデオをランク付けする一面的な手法で、説明されたモデルは展開された。まず、200潜在変数モデル(a 200 latent variable model)がビデオコーパス全体からのASR及びOCRテキストを用いてトレーニングされた。詳細には、ビデオ全体にわたるASR用語及びOCR用語の共起性(大域的共起性)の表を作成した。続いて、スライドから取得された発話テキスト及びOCRテキストのASRトランスクリプトを使用して、セクション1.2のEMの繰り返しが行われた。次に、上記式(7)がクエリの各々のビデオランク付け基準として使用された。
表1は、ASRトランスクリプトにインデックスを直接付加するためにルシーンを用いた発話ドキュメント検索(VSM)及びコーパスを用いたマルチモーダル言語モデリング(中央及び右コラム)の結果である。当該アプローチのランク付けは式(7)に対応する。表1は結果の2つのバージョンを含む。中央のコラムにおいて、ビデオの各々は、学習したモデルと矛盾しない、自動的に抽出されたACR及びOCRテキスト(TASR,TOCR)によって示されている。この手法で自動的に抽出されたスライドテキストを用いることは、より適切にビデオを説明する発話用語を強調することをスライドが支援することを示唆するASRベースラインにわたる改善を示す。また、(雑音の多いテキストによってトレーニングされた)同一のモデルが使用されたが、ビデオの各々はグラウンドトゥルーススライド及び発話テキスト(TPPT,TCC)によって表現された。もっとも右のコラムは、さらなる改善を示すこれらの結果を示す。これは、抽出されたテキストの品質が改善されると、ここで記述されたモデルの実施形態の検索性能を改善することが可能であることを示す。

2.3 マルチモーダルビデオ検索
209個のビデオを含む同一のコーパス及び275個のクエリセットを用いたマルチモーダル検索実験も行われた。ルシーンはベースラインを示し、単一モーダル構成及びマルチモーダル構成を評価する。マルチモーダルのケースでは、前期及び後期のフュージョン戦略の双方が検討された。前期のフュージョンについては、インデックスを付加する前に、ビデオの各々を示すために、利用可能なスライド及び発話テキストが連結される。後期のフュージョンについては、2つの単一モーダルのインデックスからスライド及び発話検索スコアを連結するために、凸状の重み(convex weighting)を最適化するために、クロス確認(cross validation)が使用された。
説明したランク付けスキームによる実験について、式(9)がテキストクエリTの各々のビデオをランク付けするために使用された。コンセプトの証明として、200潜在変数モデルが、発話テキスト及びスライドテキストについて、マニュアルテキストトランスクリプト、CC及びPPTを用いて、トレーニングされた。表2は、クローズドキャプション(CC)及びスライドファイル(PPT)トランスクリプトにインデックスを直接的に付加するためのルシーン(VSM)を用いたレクチャービデオ検索の結果及び2010年〜2012年のグーグルI/Oコーパスを用いたマルチモーダルモデリング(右コラム)の結果を示す。表2は、同一のCC及びPPTテキストを用いてベースラインシステムの結果を示す。右コラムは、開示の技術のシステムの2セットの結果を示す。コラム(TASR,TOCR)は、自動トランスクリプト、ASR及びOCRから雑音の多いテキストによってビデオの各々を示す場合に、説明されたランク付けを用いた結果を示す。これらの結果は、マルチモーダルVSM/フュージョンベースラインと比較して性能が劣ることを示す。トレーニング時のビデオ表現とテスト時のビデオ表現との間のミスマッチは、モデルの検索性能を明らかに低下させる。コラム(TCC,TPPT)はマニュアルトランスクリプト、CC及びPPTからのテキストによってビデオの各々を表現する場合の上記ランク付けを用いた結果を示す。このケースでは、上記アプローチはVSM/フュージョンベースラインよりもよい性能を示す。
これらの実験は、ビデオの各々を表現するためにASR及びOCRから自動的に抽出されたテキストを用いてトレーニングされた200潜在変数モデルを用いて、繰り返された。結果を表3に示す。表3は、ASR及びOCRトランスクリプトに直接インデックスを付加するためにルシーンを用いたレクチャービデオ検索の結果(VSM)及び2010年〜2012年グーグルI/Oコーパスを用いたマルチモーダルモデリング(右コラム)を示す。開示の技術のアプローチのランク付けは式(9)に対応する。このケースでは、自動単一モーダルランク付けの後期フュージョンはビデオを表現するための自動テキスト(TASR,TOCR)を用いた上記マルチモーダルアプローチとほぼ同様のレベルの性能を示す。マニュアルテキストトランスクリプトがビデオを表現するために使用された場合、結果は著しい改善を示す。結果は、雑音が多いテキストデータでトレーニングされた場合であっても、上記モデルがより高品質のテキストトランスクリプトを用いたテスト時によりよい性能を示すことを示唆している。
表4は、さらに、上記モデルの性能と自動トランスクリプトの正確さとの間の関係を示す。表4は、ASR及びOCRトランスクリプトに直接インデックスを付加するためにルシーンを用いたレクチャービデオ検索の結果(VSM)及び2011年グーグルI/Oコーパスを用いたマルチモーダルモデリング(右コラム)を示す。開示の技術のアプローチのランク付けは式(9)に対応する。この結果は、2011年グーグルI/Oカンファレンスからの74個のビデオセットに注目する。これらのビデオについて、ルシーンを用いたASR/VSM検索性能(map@5の0.687)は、より高品質であるASRトランスクリプトを示唆する2010年〜2012年を連結した結果(map@5の0.633)と比較して実質的に高い。OCR/VSMの結果も2011年はよりよいが、改善のマージンはより小さい(2011年は0.805、2010年〜2012年は0.777)。ASR及びOCRから自動的に抽出したテキストを用いたトレーニング及びテスト時に開示の技術のモデルを適用した結果は、すべてのVSMベースラインを越えて改善している。
これらの実験からの結論は、低品質自動テキストトランスクリプトによってトレーニング及びテストされる場合、上記モデルはベースラインのいずれより悪くない、ということである。品質がいくらかよい場合、検索のための上記モデルの追加される価値がより大きくなることを予想することが可能である。
3.システムハードウェアの例示的実施形態
図5は、マルチモーダルレクチャービデオのインデックス付加を強化するために、ビデオフレームのオーディオトラック及びスライドのスピーチから導出されるテキストを統合するための計算処理システム500の例示的実施形態を示す。1つもしくは複数の実施形態において、計算処理システム500はよく知られているサーバコンピュータシステムもしくはデスクトップコンピュータのフォームファクター内で実装されてもよい。代替的な実施形態において、計算処理システム500は、ラップトップコンピュータ、ノートブックコンピュータもしくはスマートフォンまたはタブレットコンピュータなどのモバイル計算処理デバイスに基づいて実装されてもよい。
計算処理システム500は、計算処理システム500の様々なハードウェア構成要素をわたって、もしくは、様々なハードウェア構成要素間で情報を伝達するためのデータバス504もしくは他の相互接続もしくは通信機構、情報を処理し、他の計算タスク及び制御タスクを実行するためにデータバス504に電気的に接続されている中央処理ユニット(CPUもしくはシンプルにプロセッサ)501を含んでいてもよい。計算処理システム500は、様々な情報及びプロセッサ501によって実行される命令を保存するために、データバス504に接続されている、ランダムアクセスメモリ(RAM)もしくは他のダイナミックストレージデバイスなどのメモリ512も含む。メモリ512は、磁気ディスク、光ディスク、ソリッドステートフラッシュメモリデバイスもしくは他の不揮発性ソリッドステートストレージデバイスなどの永続的ストレージデバイスを含む。
1つもしくは複数の実施形態において、プロセッサ501によって命令が実行されている間、メモリ512は一時的な変数もしくは他の中間情報を保存するために使用されてもよい。オプションで、計算処理システム500は、さらに、計算処理システム500のオペレーションに必要とされるファームウェア、基本入出力システム(BIOS)、計算処理システム500の様々な構成パラメータなどのスタティック情報及びプロセッサ501で実行される命令を保存するためにデータバス504に接続されているリードオンリーメモリ(ROMもしくはEPROM)502もしくは他のスタティックストレージデバイスを含んでいてもよい。
1つもしくは複数の実施形態において、計算処理システム500はディスプレイデバイス526を含んでいてもよい。計算処理システム500のユーザに対して、その実施形態が図4に示されているユーザインターフェイスなどの様々な情報を表示するために、ディスプレイデバイス526は、データバス504にも電気的に接続されていてよい。代替的な実施形態において、ディスプレイデバイス526はグラフィックコントローラ及び/もしくはグラフィックプロセッサ(図示せず)と関連付けられていてもよい。ディスプレイデバイス526は、例えば、よく知られているTFT(Thin-Film Transistor)技術もしくはOLED(Organic Light Emitting Diode)技術を用いて製造されたLCD(Liquid Crystal Display)として実装されてもよい。様々な実施形態において、ディスプレイデバイス526は計算処理システム500の残りの構成要素と同一の汎用的な筺体に組み込まれていてもよい。代替的な実施形態において、ディスプレイデバイス526はこのような筺体の外部、テーブルもしくはデスクの面上などに位置してもよい。1つもしくは複数の実施形態において、計算処理システム500は、さらに、ディスプレイ面上に、上記ユーザインターフェイスなどの情報を投影するように構成されているプロジェクタもしくはミニプロジェクタ(図示せず)を含んでいてもよい。
1つもしくは複数の実施形態において、計算処理システム500は、さらに、データバス504に電気的に接続され、よく知られているMPEG−3ファイルなどの様々なオーディオファイルもしくはMPEG−4ファイルなどの様々なビデオファイルのオーディオトラックを再生するように構成されているオーディオ再生デバイス525を含んでいてもよい。計算処理システム500は波形もしくはサウンドプロセッサもしくは同様のデバイス(図示せず)も含んでいてよい。計算処理システム500は、さらに、データバス504に電気的に接続され、よく知られているMPEG−3ファイルなどの様々なオーディオファイルもしくはMPEG−4ファイルなどの様々なビデオファイルのオーディオトラックを録音するように構成されているオーディオ録音デバイス503を含んでいてもよい。
1つもしくは複数の実施形態において、計算処理システム500は、方向情報及びコマンド選択をプロセッサ501に伝達するため、及びディスプレイデバイス526上のカーソルの移動を制御するためのマウス、トラックボール、タッチパッドもしくはカーソル方向キーなどのマウス/ポインティングデバイス510などの1つもしくは複数の入力デバイスを含んでいてもよい。この入力デバイスは、一般的に、第1の軸(例えば、x)及び第2の軸(例えば、y)の2軸の2つの自由度を有する。これにより、デバイスは平面上の位置を特定することが可能となる。
計算処理システム500は、静止画像及びプレゼンテーションのビデオを含む様々なオブジェクトのビデオを取得するためのカメラ511及びキーボード506をさらに含んでいてもよい。カメラ511及びキーボード506は、情報を伝達するために、データバス504に接続されていてもよい。情報は、画像、ビデオ及びプロセッサ501への(ジェスチャを含む)ユーザコマンドを含むが、これらに限定されるものではない。
1つもしくは複数の実施形態において、計算処理システム500はさらにデータバス504に接続されているネットワークインターフェイス505などの通信インターフェイスを含んでいてもよい。ネットワークインターフェイス505は、WiFiインターフェイス(アダプタ)507、携帯電話ネットワーク(GSM(登録商標)もしくはCDMA)アダプタ508及び/もしくはローカルエリアネットワーク(LAN)アダプタ509の少なくとも1つを用いて、計算処理システム500及びインターネット527の間の接続を確立するように構成されていてもよい。ネットワークインターフェイス505は、計算処理システム500及びインターネット527の間の2方向データ通信を可能にするように構成されていてもよい。WiFiアダプタ507は、よく知られている802.11a、802.11b、802.11g及び/もしくは802.11nプロトコル、及び、Bluetooth(登録商標)プロトコルに準拠して動作してもよい。計算処理システム500のLANアダプタ509は、例えば、ISDN(Integrated Services Digital Network)カードもしくは対応するタイプの電話回線にデータ通信接続を提供するためのモデムを用いて、実装されてもよい。当該モデムは、インターネットサービスプロバイダーのハードウェア(図示せず)を用いてインターネット527と接続されている。他の例として、LANアダプタ509は、互換性のあるLAN及びインターネット527へのデータ通信接続を提供するためにローカルエリアネットワークインターフェイスカード(LAN NIC)であってもよい。例示的な実装において、WiFiアダプタ507、携帯電話ネットワーク(GSM(登録商標)もしくはCDMA)アダプタ508及び/もしくはLANアダプタ509は電気信号もしくは電磁信号を送受信する。電気信号もしくは電磁信号は様々なタイプの情報を示すデジタルデータストリームを搬送する。
1つもしくは複数の実施形態において、インターネット527は、一般的に、他のネットワークリソースに1つもしくは複数のサブネットワークを介してデータ通信を提供する。すなわち、計算処理システム500は、リモートメディアサーバ、ウェブサーバ、他のコンテンツサーバ、及び他のネットワークデータストレージリソースなどの、インターネット527のどこかにある様々なネットワークリソースにアクセスすることが可能である。1つもしくは複数の実施形態において、計算処理システム500はメッセージ、メディア及びビデオファイル及びアプリケーションコードを含む他のデータを、ネットワークインターフェイス505によってインターネット527を含む様々なネットワークを介して送受信するように構成されている。インターネットの例において、計算処理システム500がネットワーククライアントとして動作する場合、計算処理システム500で実行されるアプリケーションプログラムのためにコードもしくはデータが要求される場合がある。同様に、サーバとして、他のネットワークリソースに様々なデータもしくはコンピュータコードが送信される可能性がある。
1つもしくは複数の実施形態において、ここで説明された機能は、メモリ512に含まれている1つもしくは複数の命令の1つもしくは複数のシーケンスを実行するプロセッサ501に応じて、計算処理システム500によって実装される。このような命令は、他のコンピュータ可読媒体からメモリ512に読み込まれてもよい。メモリ512に含まれている命令シーケンスを実行すると、ここで説明された様々な処理ステップをプロセッサ501が実行する。代替的な実施形態において、ハードウェア回路がソフトウェア命令の代わりに、もしくはソフトウェア命令と共に、本発明の実施形態を実装するために使用されてもよい。説明した本発明の実施形態は、特定のハードウェア回路及び/もしくはソフトウェアのいずれかに限定されるものではない。
用語「コンピュータ可読媒体」はプロセッサ501で実行される命令をプロセッサ501に提供する任意の媒体であってよい。コンピュータ可読媒体は、機械可読媒体の単なる一例であり、機械可読媒体は、開示の技術の方法及び/もしく技術のいずれかを実装するための命令を搬送することが可能である。このような媒体は多くの形態を採ることができ、不揮発性媒体及び揮発性媒体を含んでもよいが、これらに限定されるものではない。
非一時的コンピュータ可読媒体の一般的な形態は、例えば、フロッピー(登録商標)ディスク、フレキシブルディスク、ハードディスク、磁気テープ、もしくは他の任意の磁気媒体、CD−ROM、他の任意の光媒体、パンチカード、紙テープ、穴のパターンを有する他の任意の物理的媒体、RAM、PROM、EPROM、フラッシュEPROM、フラッシュドライブ、メモリカード、他の任意のメモリチップもしくはカートリッジ、もしくはコンピュータが読むことが可能な他の任意の媒体を含む。コンピュータ可読媒体の様々な形態は、プロセッサ501で実行する1つもしくは複数の命令の1つもしくは複数のシーケンスをプロセッサ501に搬送するために使用されてもよい。例えば、命令は、リモートコンピュータから磁気ディスクにまず搬送されてもよい。代替的に、リモートコンピュータは動的メモリに命令をロードし、インターネット527を介して命令を送信することが可能である。詳細には、コンピュータ命令は、よく知られている様々なネットワークデータ通信プロトコルを用いてインターネット527を介してリモートコンピュータから計算処理システム500のメモリ512にダウンロードされてもよい。
1つもしくは複数の実施形態において、計算処理システム500のメモリ512は以下のソフトウェアプログラム、アプリケーションもしくはモジュールのいずれかを記憶していてもよい。
1.オペレーティングシステム(OS)513
基本サービスシステムを実装し、計算処理システム500の様々なハードウェア構成要素を制御する。オペレーティングシステム513の例示的な実施形態はよく知られており、現在知られているもしくは今後開発されるオペレーティングシステムを含むことが可能である。
2.アプリケーション514
例えば、計算処理システム500のプロセッサ501によって実行されるソフトウェアアプリケーションセットを含むことが可能であり、ディスプレイデバイス526にユーザインターフェイスを表示する、ビデオ及びスライドテキストから抽出された発話ワードを用いてビデオファイルのインデックス付加を実行する、などの所定の機能を計算処理システム500に実行させる。1つもしくは複数の実施形態において、アプリケーション514は、開示の技術のビデオインデックス付加アプリケーション515を含んでいてもよい。
3.データストレージ521
例えば、プレゼンテーションのビデオファイルを含む様々なビデオファイルを保存するためのビデオファイルストレージ522及び、例えば、OCR技術を用いてプレゼンテーションスライドから抽出されるテキストを保存するストレージ523を含むことが可能である。代替的に、ストレージ523はオリジナルのプレゼンテーションスライドから抽出されるテキストを保存してもよい。さらに、データストレージ521は、例えば、ASR技術を用いてビデオファイルのオーディオトラックから抽出されるテキストを保存するストレージ524を含んでいてもよい。代替的に、このテキストはビデオ媒体の各々に付随するクローズドキャプション情報から抽出されてもよい。
1つもしくは複数の実施形態において、開示の技術のビデオインデックス付加アプリケーション515は、計算処理システム500のディスプレイデバイス526を用いて、図4に例示するユーザインターフェイスを生成するように構成されているユーザインターフェイス生成モジュール516を含む。開示の技術のビデオインデックス付加アプリケーション515は、プレゼンテーションビデオに示されているスライドから、もしくはスライドからテキストを抽出するOCR/抽出モジュール517をさらに含んでいてもよい。開示の技術のビデオインデックス付加アプリケーション515は、ビデオファイルのオーディオトラックに適用される自動音声認識を用いて発話ワードを取得するASRモジュール518をさらに含んでいてもよい。代替的に、モジュール518は、ビデオファイルに関連するクローズドキャプション情報を用いて発話ワードを抽出するように構成されていてもよい。代替的に、抽出されたスライドテキストに基づいて検出された発話ワードのランク付けオペレーション及び上記技術によってビデオファイルへのインデックス付加オペレーションを実行するランク付け/インデックス付加モジュール519が提供されてもよい。最後に、上記技術によって動作されるように構成されている潜在変数モデルのトレーニングを実行するトレーニングモジュール520が提供されてもよい。
最後に、説明した処理及び技術は任意の特定の装置に固有に関連するものではなく、任意の適切な構成要素の組み合わせによって実装されてもよい。さらに、様々なタイプの汎用目的デバイスが説明した開示によって使用されてもよい。説明した方法ステップを実行するために特定用途装置を構築することは効果的である。本発明は、特定の例に関連して説明されたが、当該説明は、制限することではなく、例示することを意図している。ハードウェア、ソフトウェア、及びファームウェアの多くの異なる組み合わせが、本発明を実施するために適している。例えば、説明したソフトウェアは、アセンブラ、C/C++、オブジェクティブC、perl、shell、PHP、Java(登録商標)及び任意の現在知られているもしくは今後開発されるプログラミング言語もしくは記述言語などの様々な広い範囲にわたるプログラミング言語もしくは記述言語で実装されてもよい。
さらに、詳細の検討及び開示された発明の実施から、本発明の様々な実装が可能であることは明らかである。説明した実施形態の様々な態様及び/もしくは構成要素はマルチモーダルビデオインデックス付加のためのシステム及び方法において、単体でもしくは任意の組み合わせで使用されてもよい。詳細及び例は、例示だけを目的としており、本発明の範囲及び思想は特許請求の範囲に示されている。
501 CPU
517 OCR/抽出モジュール
518 ASR/CCモジュール
519 ランク付け/インデックス付加モジュール
522 ビデオファイル

Claims (19)

  1. プロセッサが、
    (a)複数のビデオの発話ワード及び複数の前記ビデオに関連する外部テキストの共起性についてマルチモーダル言語モデルを生成し、
    (b)第1ビデオの少なくとも部分を選択し、
    (c)前記第1ビデオの選択された部分から複数の発話ワードを抽出し、
    (d)前記第1ビデオの選択された部分と関連する第1外部テキストを取得し、
    (e)生成された前記マルチモーダル言語モデルを用いて、取得された前記第1外部テキストを条件とする発生確率に基づいて抽出された複数の前記発話ワードをランク付けする、
    方法。
  2. 前記第1外部テキストを取得することは、前記第1ビデオの選択された部分で表示されるテキストから前記第1外部テキストを抽出する、ことを含む、請求項1に記載の方法。
  3. 前記外部テキストは複数の前記ビデオの少なくとも1つで表示される、請求項1に記載の方法。
  4. 前記外部テキストは複数の前記ビデオの少なくとも1つに関連するコンテンツに含まれている、請求項1に記載の方法。
  5. 複数の前記ビデオの各々は、前記外部テキストを含む複数のプレゼンテーションスライドを含む、請求項1〜4のいずれか1項に記載の方法。
  6. 前記マルチモーダル言語モデルを生成することは、複数の前記ビデオのすべてから発話ワードのすべてを抽出すること、及び、複数の前記ビデオに表示されている前記外部テキストを抽出すること、抽出した前記発話ワードの各々と抽出した前記外部テキストの各々との共起性の複数の確率を算出すること、を含む、請求項1〜5のいずれか1項に記載の方法。
  7. 前記マルチモーダル言語モデルはマトリックスフォームで保存される、請求項1〜6のいずれか1項に記載の方法。
  8. 複数の前記発話ワードは、自動音声認識を用いて、前記第1ビデオの選択された部分から抽出される、請求項1〜7のいずれか1項に記載の方法。
  9. 複数の前記発話ワードは、前記第1ビデオに関連するクローズドキャプション情報を用いて、前記第1ビデオの選択された前記部分から抽出される、請求項1〜7のいずれか1項に記載の方法。
  10. 前記第1ビデオの選択された部分に関連する第1外部テキストを取得することは、前記第1ビデオの選択された部分のスライドを検出し、光学文字認識を用いて、検出された前記スライドから前記第1外部テキストを抽出すること、を含む、請求項1〜9のいずれか1項に記載の方法。
  11. 前記プロセッサは、さらに、
    ユーザに対してランク付けされた複数の前記発話ワードを提示し、
    提示された複数の前記発話ワードの少なくとも1つの選択をユーザから受信し、
    前記第1ビデオの注釈として、提示された複数の前記発話ワードの少なくとも1つの受信した前記選択を用いる、
    請求項1〜10のいずれか1項に記載の方法。
  12. 前記プロセッサは、さらに、
    複数の前記ビデオの少なくともいくつかにインデックスを付加するために前記注釈を使用する、
    請求項11に記載の方法。
  13. 前記プロセッサは、さらに、
    複数の前記ビデオの少なくともいくつかにインデックスを付加するためにランク付けされ抽出された複数の前記発話ワードを用いる、
    請求項1〜12のいずれか1項に記載の方法。
  14. 前記プロセッサは、さらに、
    複数の前記ビデオの少なくともいくつかにインデックスを付加するためにランク付けされ抽出された複数の前記発話ワードから上位にランク付けされたワードを使用する、
    請求項1〜12のいずれか1項に記載の方法。
  15. 抽出された複数の前記発話ワードはフレーズを含む、請求項1〜14のいずれか1項に記載の方法。
  16. 抽出された複数の前記発話ワードはセンテンスを含む、請求項1〜14のいずれか1項に記載の方法。
  17. 前記第1ビデオの選択された部分は、前記第1ビデオのコンテクストについて意味を有するセグメントを含む、請求項1〜16のいずれか1項に記載の方法。
  18. 複数のビデオの発話ワード及び複数の前記ビデオと関連する外部テキストの共起性についてマルチモーダル言語モデルを生成し、
    第1ビデオの少なくとも部分を選択し、
    前記第1ビデオの選択された部分から複数の発話ワードを抽出し、
    前記第1ビデオの選択された部分と関連する第1外部テキストを取得し、
    生成した前記マルチモーダル言語モデルを使用して、取得した前記第1外部テキストを条件とする発生確率に基づいて抽出された複数の前記発話ワードをランク付けする、
    ことをコンピュータに実行させるためのプログラム。
  19. プロセッサと、
    命令セットを記憶しているメモリと、
    を備え、
    前記命令セットが前記プロセッサによって実行されることにより、
    前記プロセッサが、
    複数のビデオの発話ワードと複数の前記ビデオに関連する外部テキストとの共起性についてマルチモーダル言語モデルを生成し、
    第1ビデオの少なくとも部分を選択し、
    前記第1ビデオの選択された部分から複数の発話ワードを抽出し、
    前記第1ビデオの選択された部分に関連する第1外部テキストを取得し、
    生成した前記マルチモーダル言語モデルを用いて、取得した前記第1外部テキストを条件とする発生確率に基づいて、抽出した複数の前記発話ワードをランク付けする、
    計算処理システム。
JP2014152053A 2014-02-27 2014-07-25 発話ワードをランク付けする方法、プログラム及び計算処理システム Active JP6361351B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/192,861 US9542934B2 (en) 2014-02-27 2014-02-27 Systems and methods for using latent variable modeling for multi-modal video indexing
US14/192,861 2014-02-27

Publications (2)

Publication Number Publication Date
JP2015162244A JP2015162244A (ja) 2015-09-07
JP6361351B2 true JP6361351B2 (ja) 2018-07-25

Family

ID=53882818

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014152053A Active JP6361351B2 (ja) 2014-02-27 2014-07-25 発話ワードをランク付けする方法、プログラム及び計算処理システム

Country Status (2)

Country Link
US (1) US9542934B2 (ja)
JP (1) JP6361351B2 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8463053B1 (en) 2008-08-08 2013-06-11 The Research Foundation Of State University Of New York Enhanced max margin learning on multimodal data mining in a multimedia database
US9727619B1 (en) * 2013-05-02 2017-08-08 Intelligent Language, LLC Automated search
EP3195146A4 (en) * 2014-09-18 2018-04-18 Empire Technology Development LLC Three-dimensional latent semantic analysis
US10068617B2 (en) 2016-02-10 2018-09-04 Microsoft Technology Licensing, Llc Adding content to a media timeline
US20170249970A1 (en) * 2016-02-25 2017-08-31 Linkedin Corporation Creating realtime annotations for video
CN107943781B (zh) * 2016-10-13 2021-08-13 北京国双科技有限公司 关键词识别方法及装置
US10642889B2 (en) * 2017-02-20 2020-05-05 Gong I.O Ltd. Unsupervised automated topic detection, segmentation and labeling of conversations
WO2019060199A1 (en) * 2017-09-19 2019-03-28 Dharma Platform, Inc. AUTOMATIC DATA SWITCHING
KR102345625B1 (ko) * 2019-02-01 2021-12-31 삼성전자주식회사 자막 생성 방법 및 이를 수행하는 장치
CA3081168A1 (en) * 2019-05-22 2020-11-22 Royal Bank Of Canada System and method for machine learning architecture for partially-observed multimodal data
EP3944234A1 (en) * 2020-07-24 2022-01-26 Atos Global IT Solutions and Services Private Limited Method for processing a video file comprising audio content and visual content comprising text content
KR20220114379A (ko) 2021-02-08 2022-08-17 삼성전자주식회사 전자 장치 및 그 제어 방법
US11682415B2 (en) * 2021-03-19 2023-06-20 International Business Machines Corporation Automatic video tagging

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8073700B2 (en) * 2005-09-12 2011-12-06 Nuance Communications, Inc. Retrieval and presentation of network service results for mobile device using a multimodal browser
US7756708B2 (en) * 2006-04-03 2010-07-13 Google Inc. Automatic language model update
JP5226241B2 (ja) * 2007-04-16 2013-07-03 ヤフー株式会社 タグを付与する方法
US9332319B2 (en) * 2010-09-27 2016-05-03 Unisys Corporation Amalgamating multimedia transcripts for closed captioning from a plurality of text to speech conversions

Also Published As

Publication number Publication date
JP2015162244A (ja) 2015-09-07
US9542934B2 (en) 2017-01-10
US20150243276A1 (en) 2015-08-27

Similar Documents

Publication Publication Date Title
JP6361351B2 (ja) 発話ワードをランク付けする方法、プログラム及び計算処理システム
US20220214775A1 (en) Method for extracting salient dialog usage from live data
CN110717017B (zh) 一种处理语料的方法
KR102354716B1 (ko) 딥 러닝 모델을 이용한 상황 의존 검색 기법
CN107066464B (zh) 语义自然语言向量空间
CN106973244B (zh) 使用弱监督数据自动生成图像字幕的方法和系统
US11645314B2 (en) Interactive information retrieval using knowledge graphs
US11615308B2 (en) Generating responses to queries about videos utilizing a multi-modal neural network with attention
CN109196496B (zh) 未知词预测器和内容整合的翻译器
US10657332B2 (en) Language-agnostic understanding
US11734375B2 (en) Automatic navigation of interactive web documents
US10303768B2 (en) Exploiting multi-modal affect and semantics to assess the persuasiveness of a video
US10474962B2 (en) Semantic entity relation detection classifier training
CN106575503B (zh) 用于对话理解系统的会话上下文建模的方法和系统
CN106462640B (zh) 对多媒体内容进行的场境搜索
US20200134398A1 (en) Determining intent from multimodal content embedded in a common geometric space
US20220405484A1 (en) Methods for Reinforcement Document Transformer for Multimodal Conversations and Devices Thereof
AU2018250372A1 (en) Method to construct content based on a content repository
US20240037941A1 (en) Search results within segmented communication session content
CN110580294A (zh) 实体融合方法、装置、设备及存储介质
JP6676700B2 (ja) 予約語及び属性言語間の関連度を用いた情報提供方法及び装置
KR20210120203A (ko) 웹 페이지에 기반한 메타데이터 생성방법
KR102251513B1 (ko) 기계학습을 이용한 셀럽의 소셜미디어 정보 기반 학습용 콘텐츠 생성 방법 및 장치
KR102546331B1 (ko) 이미지 기반 크롤링 방법 및 그 시스템
US20230260533A1 (en) Automated segmentation of digital presentation data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180529

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180611

R150 Certificate of patent or registration of utility model

Ref document number: 6361351

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350