JP2019008684A - 情報処理装置、情報処理システム、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理システム、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2019008684A
JP2019008684A JP2017125787A JP2017125787A JP2019008684A JP 2019008684 A JP2019008684 A JP 2019008684A JP 2017125787 A JP2017125787 A JP 2017125787A JP 2017125787 A JP2017125787 A JP 2017125787A JP 2019008684 A JP2019008684 A JP 2019008684A
Authority
JP
Japan
Prior art keywords
moving image
name
paragraph
text
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017125787A
Other languages
English (en)
Inventor
克繁 中田
Katsushige Nakada
克繁 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Canon IT Solutions Inc
Original Assignee
Canon Marketing Japan Inc
Canon IT Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc, Canon IT Solutions Inc filed Critical Canon Marketing Japan Inc
Priority to JP2017125787A priority Critical patent/JP2019008684A/ja
Publication of JP2019008684A publication Critical patent/JP2019008684A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】大量の動画データとテキストデータを自動的に関連付けることができ、動画・文章の相互検索を容易におこなうことが可能な仕組みを提供する。【解決手段】動画像と文章を管理する情報処理装置であって、一つもしくは断片化された動画像毎に画像解析し、動画像内に存在する一つもしくは複数の物を検出して、検出される物の名称を特定する。また、文章の段落毎にテキスト解析し、段落内に存在する一つもしくは複数の物の名称を抽出し、抽出されたテキストの物の名称と、動画像内で特定された物の名称とが類似する段落および動画像を相互検索可能とすることを特徴とする。【選択図】図3

Description

本発明は、動画と文章を対応付ける情報処理装置、情報処理システム、情報処理方法およびプログラムの技術に関する。
文章マニュアルと動画を用いた、組み立て作業等の解説、教育をおこなうシステムが存在する。このシステムを用いた組み立て作業の教育では、動画で作業の動作や概要を説明し、文章マニュアルにて詳細に説明している。
このようなシステムをウェブアプリケーションとして構築する場合、システム作成者は文章マニュアルの中に動画などが埋め込み、学習者は文章と動画を交互に参照しながら学習を進めていく。
動画ではないが類似するものとして、写真と新聞記事を関連付けたデータベースがある。これは、戦前等の過去の写真と、その当時の新聞を関係付けるためのデータベースで、当時の状況をより詳細に伝えるための資料として作成されている。
特許文献1では、再生中の動画に関連付けられた文章情報を、時間順に一覧表示するシステムが記載されている。
特開2005−94709号公報
上記特許文献1のシステムでは、現在再生中の動画を構成する各ブロックに関連付けられた文章タイトルを時間順に一覧表示する。また動画再生時には、再生時刻の進行に合わせて、タイムライン上で該当する時刻位置を表示する。タイトル一覧の中からある一つをユーザが選択すると、選択されたタイトルと関連付けられた動画ブロックの位置に移動するとともに、そのブロックの代表画像を表示する。
しかしながら、特許文献1のシステムでは、関連する動画やその再生位置をユーザが検索するためには、動画情報とテキスト情報をあらかじめ開発側で関連付けておく必要があるが、その作業は自動化されておらず、手動でおこなわなければならない。そのため、関連付ける対象となる動画データおよびテキストデータが膨大になればなるほど、関連付け作業の負担が大きくなる。
また特許文献1のシステムでは、関連付け作業をしていない動画データおよびテキストデータに対しては、ユーザは検索することができない。つまり、関連付けされていない大量の動画およびテキスト情報を相互に検索するようなシステムには適用できない。
そこで、本発明の目的は、大量の動画データとテキストデータを自動的に関連付けることができ、動画・文章の相互検索を容易におこなうことが可能な仕組みを提供することである。
本発明は、動画像と文章を管理する情報処理装置であって、一つもしくは断片化された動画像毎に画像解析し、該動画像内に存在する一つもしくは複数の物を検出する物検出手段と、前記物検出手段により検出される前記一つもしくは断片化された動画像内の一つもしくは複数の物の名称を特定する動画像内物名称特定手段と、前記文章の段落毎にテキスト解析し、該段落内に存在する一つもしくは複数の物の名称を抽出する物名称抽出手段と、前記物名称抽出手段で抽出された第1の物の名称と、前記動画像内物名称特定手段で特定された第2の物の名称とが類似する段落および動画像を相互検索する段落動画像相互検索手段と、を有することを特徴とする。
本発明によれば、大量の動画データとテキストデータを自動的に関連付けることができ、動画・文章の相互検索を容易におこなうことが可能な仕組みを提供することができる。
また、動画とテキストを相互に検索できるため、文章マニュアルと関連する作業動画や、作業動画と関連する文章マニュアルを見つけやすくなることで、組み立て作業等の解説や教育を効率化することが可能となる。
本発明の一実施形態に係る情報処理システムのシステム構成を示す模式図である。 本発明の一実施形態に係る情報処理装置のハードウェア構成を示すブロック図である。 本発明の一実施形態に係る情報処理システムのソフトウェア構成を示すブロック図である。 本発明のアプリケーションサーバ102における動画・文章管理の制御処理手順の一例を示すフローチャートである。 本発明の動画解析サーバ103における動画解析の制御処理手順の一例を示すフローチャートである。 本発明のテキスト解析サーバ105における文章管理の制御処理手順の一例を示すフローチャートである。 本発明のアプリケーションサーバ102におけるコンテキストスコア照合の制御処理手順の一例を示すフローチャートである。 本発明の動画管理サーバ104、文章マニュアル管理サーバ106において、動画及び文章を管理しているデータの一例を示す模式図である。 本発明の情報処理システム100において、動画及び文章を管理しているデータの一例を示す模式図である。 本発明の情報処理システム100において、動画及び文章を管理しているデータの一例を示す模式図である。 本発明のアプリケーションサーバ102において、動画と文章マニュアルの検索システムが読み込む、タグ記述形式の設定ファイルの一例を示す模式図である。 本発明の操作端末PC101のディスプレイ部210に出力される画面イメージの一例を示す模式図である。 本発明の操作端末PC101のディスプレイ部210に出力される画面イメージの一例を示す模式図である。 本発明の情報処理システム100における動画のフレームごとに撮影される物体の出入りを説明する模式図である。 本発明の情報処理システム100における動画のフォーカスエリアを説明する模式図である。 本発明の情報処理システム100における文章解析を説明する模式図である。
まず、図1を参照して、本発明のシステム構成の一例を説明する。
図1は、本発明の一実施形態に係る情報処理システムのシステム構成を示す模式図である。
本発明のシステム100は、102として、システム100を統括するアプリケーションサーバを有し、また、ユーザの操作を受け付ける操作端末PC101や動画解析サーバ103、動画管理サーバ104、テキスト解析サーバ105、文章マニュアル管理サーバ106、動画解析サーバ103及びテキスト解析サーバ105により解析されたコンテキストスコアを管理するコンテキストスコアデータベース107を有している。
本処理は、操作端末PC101からウェブブラウザを用いて、アプリケーションサーバ102上のウェブ操作画面に専用URLでアクセスし、動画および文章マニュアルの検索操作をおこなう。動画の解析処理は、動画解析サーバ103で実行し、その解析結果は関連性の近い文章マニュアルの照合に使用される。文章マニュアルの解析処理は、テキスト解析サーバ105で実行し、その解析結果は関連性の近い動画の照合に使用される。関連性の近い文章マニュアルおよび動画の照合は、それぞれの解析結果に応じて自動的におこなわれる。解析結果の照合は、コンテキストスコアデータベース107上にあらかじめ登録しておいた解析結果に対しておこなうほか、必要に応じてインターネット等からリアルタイムで文章マニュアルおよび動画を取得・解析し、その結果に対しておこなってもよい。
操作端末PC101は、動画の再生、動画の詳細を記載する文章マニュアルの表示、動画と関連する文章マニュアルの検索についての各操作をおこなうための端末であり、ネットワーク上に存在する。これらの操作には、ウェブ操作画面(ウェブブラウザ上で操作)を使用し、ネットワークを介してアプリケーションサーバ102に接続する。
アプリケーションサーバ102は、動画の再生、動画の詳細を記載する文章マニュアルの表示、動画と関連する文章マニュアルの検索についての制御をおこなうためのサーバであり、ネットワーク上に構築されている。アプリケーションサーバ102へは、操作端末PC101が接続する。
アプリケーションサーバ102は、操作端末PC101から動画に関連する文章マニュアルの検索操作がおこなわれた場合は、動画解析サーバ103へ動画データを送信して解析結果を受信し、その解析結果をもとにコンテキストスコアデータベース107から関連すると思われる文章マニュアル情報を取得し、取得した文章マニュアル情報をもとに文章マニュアル管理サーバからテキストデータを取得し、取得したテキストデータを操作端末PC101へ返信する。
アプリケーションサーバ102は、操作端末PC101から文章マニュアルに関連する動画の検索操作がおこなわれた場合は、テキスト解析サーバ105へ文章マニュアルのテキストデータを送信して解析結果を受信し、その解析結果をもとにコンテキストスコアデータベース107から関連すると思われる動画情報を取得し、取得した動画情報をもとに動画管理サーバから動画データを取得し、取得した動画データを操作端末PC101へ返信する。
動画解析サーバ103は、動画の解析をおこなうためのサーバであり、ネットワーク上に構築されている。
動画解析サーバ103は、操作端末PC101から動画データを受信した場合、受信した動画データを解析し、その解析結果を返信する。
動画解析サーバ103は、動画管理サーバ104から動画データを受信した場合、受信した動画データを解析し、その解析結果をコンテキストスコアデータベース107へ送信する。
動画解析サーバ103上の動画解析部(動画像内物名称特定部)は、Deep Learning等の画像認識部(物検出部)など、動画を解析できるものであれば特に指定しない。動画解析部(物体とその名称を紐付ける機能)で学習が必要なものを使用する場合、事前に学習を済ませていることが望ましいが、必要であれば学習機能をシステムに実装しても良い。
動画管理サーバ104は、動画データの管理をおこなうためのサーバであり、ネットワーク上に構築されている。
動画管理サーバ104は、操作端末PC101から動画情報を受信すると、それに該当する動画データを返信する。
動画管理サーバ104は、動画データが新規に格納された場合、その動画データを保存するとともに、動画解析サーバ103へ保存した動画データを送信する。なお、動画データは、一つであっても良いし、時間毎に区切られた(断片化された)動画であっても良い。
動画管理サーバ104の動画データは、コンテキストスコアの照合結果にもとづき、検索元の文章マニュアルと関連性が高いと思われるものについて、操作端末PC101上で表示される。動画管理サーバ104に新規に動画が格納された場合、動画解析サーバ103へ動画データを入力してコンテキストスコアを算出し、コンテキストスコアデータベース107へ登録しておく。
テキスト解析サーバ105は、テキストの解析をおこなうためのサーバであり、ネットワーク上に構築されている。
テキスト解析サーバ105は、操作端末PC101からテキストデータを受信した場合、受信したテキストデータを解析し、その解析結果を返信する。
テキスト解析サーバ105は、文章マニュアル管理サーバ106からテキストデータを受信した場合、受信したテキストデータを解析し、その解析結果をコンテキストスコアデータベース107へ送信する。
テキスト解析サーバ105上の文章解析部(物名称抽出部)は、テキストマイニングなど、文章を解析できるものとテキスト辞書があれば特に指定しない。
文章マニュアル管理サーバ106は、文章マニュアルのテキストデータの管理をおこなうためのサーバであり、ネットワーク上に構築されている。
文章マニュアル管理サーバ106は、操作端末PC101から文章マニュアル情報を受信すると、それに該当するテキストデータを返信する。
文章マニュアル管理サーバ106は、文章マニュアルのテキストデータが新規に格納された場合、そのテキストデータを保存するとともに、テキスト解析サーバ105へ保存したテキストデータを送信する。
文章マニュアル管理サーバ106の文章マニュアルデータは、コンテキストスコアの照合結果にもとづき、検索元の動画と関連性が高いと思われるものについて、操作端末PC101上で表示される。文章マニュアル管理サーバ106に新規に文章マニュアルが格納された場合、テキスト解析サーバ105へ文章マニュアルのテキストデータを入力してコンテキストスコアを算出し、コンテキストスコアデータベース107へ登録しておく。
コンテキストスコアデータベース107は、アプリケーションサーバ102の操作にもとづいて動画情報とテキスト情報の照合と管理、動画解析サーバ103の操作にもとづいて動画情報を記憶、テキスト解析サーバ105の操作にもとづいてテキスト情報を記憶するサーバであり、ネットワーク上に構築されている。
コンテキストスコアデータベース107は、動画および文章マニュアルを特定するための管理情報のほか、それらの内容をスコア化した情報(以下、コンテキストスコア)を記憶する。
コンテキストスコアデータベース107は、アプリケーションサーバ102、動画解析サーバ103、テキスト解析サーバ105からの接続のみ許可する。
コンテキストスコアデータベース107の動画、文章マニュアルのコンテキストスコアは、動画管理サーバ104で管理される動画、および文章マニュアル管理サーバで管理される文章マニュアルを解析した結果であり、それらは動画解析サーバ103およびテキスト解析サーバ105で算出される。
以上のシステム構成により、動画データとテキストデータを手動で関連付けることなく、動画・文章の相互検索を容易におこなうことができる。
なお、これらのサーバやデータベース、操作端末PCは、それぞれ1つの筐体であっても良いし複数が一つの筐体となっていても良く、全ての機能が1つの筐体にまとまっていても良い。
次に、図2を参照して、本発明の一実施形態に係る情報処理装置のハードウェア構成を示すブロック図である。
図2は、本発明の実施形態における操作端末PC101、アプリケーションサーバ102、動画解析サーバ103、動画管理サーバ104、テキスト解析サーバ105、文章マニュアル管理サーバ106、コンテキストスコアデータベース107に適用可能な情報処理装置のハードウェア構成図である。
図2において、201はCPUで、システムバス204に接続される各デバイスやコントローラを統括的に制御する。また、ROM203あるいは外部メモリ211には、CPU201の制御プログラムであるBIOS(Basic Input / Output System)やオペレーティングシステムプログラム(以下、OS)や、画像管理を実行する機能を実現するために必要な後述する各種プログラム等が記憶されている。
202はRAMで、CPU201の主メモリ、ワークエリア等として機能する。CPU201は、処理の実行に際して必要なプログラム等をROM203あるいは外部メモリ211からRAM202にロードして、該ロードしたプログラムを実行することで各種動作を実現するものである。
また、205は入力コントローラで、キーボードやポインティングデバイス等の入力装置209からの入力を制御する。206はビデオコントローラで、ディスプレイ部210等の表示器への表示を制御する。これらは必要に応じて操作者が使用するものである。
207はメモリコントローラで、ブートプログラム,各種のアプリケーション,フォントデータ,ユーザファイル,編集ファイル,各種データ等を記憶するハードディスク(HD)や、フレキシブルディスク(FD)、或いはPCMCIAカードスロットにアダプタを介して接続されるコンパクトフラッシュ(登録商標)メモリ等の外部メモリ211へのアクセスを制御する。
また、外部メモリ211のハードディスク(HD)は、情報処理装置において、録画された音声付動画や音声ファイルを記憶する大容量のメモリ領域を有している。
208は通信I/F(インタフェース)コントローラで、ネットワーク(例えば、無線LANなど)を介して外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いた通信等が可能である。
なお、CPU201は、例えばRAM202内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、ディスプレイ部210上での表示を可能としている。また、CPU201は、ディスプレイ部210上の不図示のマウスカーソル等でのユーザ指示を可能とする。
本発明を実現するための後述するフローチャートに示す各ステップの処理は、コンピュータで読み取り実行可能なプログラムにより実行され、そのプログラムは外部メモリ211に記録されている。そして、必要に応じてRAM202にロードされることによりCPU201によって実行されるものである。さらに、上記プログラムの実行時に用いられる定義ファイル及び各種情報テーブル等も、外部メモリ211に格納されており、これらについての詳細な説明も後述する。
次に、図3を参照して、本発明の一実施形態に係る情報処理システムのソフトウェア構成を説明する。
図3は、本発明の一実施形態に係る情報処理システムのソフトウェア構成を示すブロック図である。
図3のように、本発明の情報処理システム100は、物検出部301を有し、撮像されている動画像内に存在する物体を検出することができる。また、検出した物体の名称を特定する動画像内物名称特定部302を有する。
さらに、物名称抽出部303を有し、文章の特定の段落毎に存在する物体の名称を抽出する。動画像内物名称特定部302で特定した物体の名称と、物名称抽出部303で抽出した物体の名称とが類似する動画像と文章の特定の段落を検索する段落動画像相互検索部304を有する。
また、動画像内や所定の範囲内に物検出部301で検出された物体が出入りすることを判断する物出入判断部305と、文章の特定の段落に物体の名称が出現したかどうかどうかを判断する物名称出現判断部を有し、物体の出入りと物体の名称の出現とが一致している場合に、段落動画像相互検索部304は動画像と文章の特定の段落が類似している結果と判断する。
また、動画像内の所定の範囲内(具体的には中心部分)に物検出部301で検出された物体が存在する場合には、物体の重みを高くする物検出重み設定部307と、文章の特定の段落に出現する物体の名称の頻度から物体の名称の重みを高くする物名称重み算出部308とを有し、物検出重み設定部307で設定された物体の重みと、物名称重み算出部308で算出された物体の名称の重みとが類似している結果を段落動画像相互検索部304が検索する検索結果とする。
以上の構成により、本発明は、動画データとテキストデータを手動で関連付けることなく、動画・文章の相互検索を容易におこなうことが可能とする効果が生じる。
次に、図4〜図7のフローチャートを参照して、情報処理システム100が動画像を管理する際に実行する処理について説明する。
図4は、本発明のアプリケーションサーバ102における動画管理の制御処理手順の一例を示すフローチャートであり、それぞれのステップは、アプリケーションサーバ102のCPU201により実行される。
図4のフローチャートの処理は、動画管理サーバに動画像が保存され、文章マニュアル管理サーバに文章マニュアルが保存された状態で、本発明のアプリケーションがアプリケーションサーバ102において起動され、操作端末PC101のディスプレイ部210に表示される検索ボタンが押下されると開始されるフローチャートである。起動されたアプリケーションの画面イメージを図12を参照して説明する。
図12は、本発明の操作端末PC101のディスプレイ部210に出力される画面イメージの一例を示す模式図である。
図12の1200は、本発明におけるディスプレイ部210に出力される画面イメージの一例であり、1201には、たとえば現在再生中の動画などが表示されている。1200で、たとえば、映像領域1201内を図示しないマウスなどでクリックし、動画を一時停止する。その後、「解説文章 検索」ボタン1202を押下すると、図4のフローチャートが開始される。図4のフローチャートの説明に戻る。
まず、図4のステップS401において、アプリケーションサーバ102のCPU201は、検索ボタンが押下された際の解析対象情報を操作端末PC101から受信する。解析対象情報の種類には、動画と文章マニュアルがある。解析対象の動画情報は、動画そのもののデータ、動画ID、検索対象の再生時刻情報で構成される(図8の(a))。文章マニュアル情報の場合は、文章マニュアルのテキストデータ、文章マニュアルID、検索対象の節・段落情報で構成される(図8の(b))。図12の場合は、1201のように動画が指定されて検索ボタン1202が押下されているので、解析対象情報は動画である。別の例を図13を参照して説明する。
図13は、本発明の操作端末PC101のディスプレイ部210に出力される画面イメージの一例を示す模式図である。
図13の1300は、本発明におけるディスプレイ部210に出力される画面イメージの一例であり、1301には、たとえば現在ユーザが読んでいるマニュアルが表示されている。1300で、たとえばユーザが1302のように文章の範囲を選択し、「解説動画 検索」ボタン1303を押下すると、図4のフローチャートが開始される。図4のフローチャートの説明に戻る。
図13の例では、ステップS401において、検索ボタンが押下された際の解析対象情報がマニュアルであるので、解析対象情報は文章マニュアルとなる。
次に、ステップS402へと処理を遷移すると、アプリケーションサーバ102のCPU201は、ステップS401で受信した解析対象情報の種別を判定する。
解析対象情報が動画情報であった場合は、ステップS403へと処理を遷移し、解析対象情報が文章(マニュアル)情報であった場合は、ステップS404へと処理を遷移する。
ステップS403へと処理を遷移すると、アプリケーションサーバ102のCPU201は、動画解析サーバ103の動画解析処理へと処理を移行する。ステップS403の処理の詳細を図5を参照して説明する。
図5は、本発明の動画解析サーバ103における動画解析の制御処理手順の一例を示すフローチャートであり、それぞれのステップは、動画解析サーバ103のCPU201により実行される。
図5では、動画解析サーバ103において、ステップS401で受信した解析対象データが動画データの場合に画像解析を実行し、その動画のコンテキストスコアを算出する。動画データのコンテキストスコアを算出することで、その動画と関連性が高いと思われる文章マニュアルのコンテキストスコアとの照合の自動化を実現する。
図5のフローチャートの処理は、図4のステップS403へと処理が遷移すると開始される。
まずステップS501において、動画解析サーバ103のCPU201は、一時停止された動画の前後のシーン情報を生成する。生成されるシーン情報は、検索対象の再生時刻(一時停止時刻)をもとに、Focus−Scene、Pre−Scene、Post−Sceneの3つがある(図14)。
Focus−Sceneは、再生時刻を中心に、前後の複数フレームで構成されたシーン情報(秒単位)である。フレーム数の指定は、設定ファイルのパラメータで指定してもよい。設定ファイルの詳細については、図11で説明する。
Pre−Sceneは、Focus−Sceneの直前に存在するシーン情報(秒単位)で、Focus−Sceneと同様に複数フレームで構成される。
Post−Sceneは、Focus−Sceneの直後に存在するシーン情報(秒単位)で、Focus−Sceneと同様に複数フレームで構成される。生成された3つのシーン情報は、後述するステップS503とステップS505において解析され、何の物体がどのエリアに映り込んでいるのかを特定される。
ステップS502では、動画解析サーバ103のCPU201は、生成されたすべてのシーン情報について解析し終えたかを判断する。解析し終えた場合は、ステップS505でFocus−Sceneに映り込むすべての物体に対して、コンテキストスコアを算出する。解析し終えていない場合は、ステップS503で未解析のシーン情報に対して、映り込む物体の抽出処理を実行する。
ステップS503では、動画解析サーバ103のCPU201は、生成した各シーン情報に映り込む物体と、座標位置の情報を抽出する。情報の抽出には、画像認識部(物検出部)を使用する。画像認識部は、Deep Learningなど、物体が認識、抽出できれば特に指定はしない。
ステップS504では、動画解析サーバ103のCPU201は、ステップS503で抽出した、物体と映り込んでいる座標位置をもとに、コンテキストスコア生成に使用する、シーン物体情報を生成する。シーン物体情報は、シーン内で抽出された各物体の名称、映り込んでいる座標位置、フォーカスエリア内外情報で構成される。フォーカスエリア内外情報は、物体の座標位置をもとに、フォーカスエリア内に物体が存在しているかの情報として生成する。フォーカスエリアの指定は、設定ファイルのパラメータで指定してもよい。設定ファイルの詳細については、図11で説明する。ステップS504の後は、ステップS502へと処理を戻し、生成されたすべてのシーン情報について解析し終えたかを判断する。
ステップS502で生成されたすべてのシーン情報について解析し終えた場合、ステップS505へと処理を遷移する。
ステップS505では、動画解析サーバ103のCPU201は、ステップS504で生成した各シーンの物体情報をもとに、動画の検索対象の再生時刻における、コンテキストスコアを算出する(物検出重み設定部)。コンテキストスコアは、Focus−Sceneに映り込むすべての物体の、どれだけ文脈(話題)の中心となっているかの度合いを示すスコア情報と、前後シーンに映り込んでいるかをもとにしたIN/OUT情報、動画IDで構成される(図9の(a))。
物体スコア情報の算出方法は、ここではフォーカスエリア内外のどちらなのか、またフォーカスエリア内であれば中心からどのくらい離れているかを基準に算出している(図15)。図中の例では、映り込む物体が、フォーカスエリア内の中心に近い範囲にある場合はスコアを3、それより外側なら2を付与する。また、フォーカスエリア外においても同様に、中心に近い範囲にある場合はスコアを1、それより外側なら0.5を付与する。
図15では、設定ファイルで指定しているのはフォーカスエリアの範囲だけであり、各エリアの詳細な範囲情報およびスコア値は固定としているが、状況により設定ファイルのパラメータで指定することも考えられる。
IN/OUT情報は、Focus−Sceneに映り込む物体が、前後のシーンで映り込んでいるかの情報を示す。例えば、Focus−Sceneに存在する物体で、Pre−Sceneにはない場合(図14ではPre−Contextとして表記)はIN、Post−Sceneに存在しない場合(図14ではPost−Contextとして表記)はOUTとして取り扱う(物出入判断部)。
動画IDは、動画を参照するためのIDとして、ユニークに付与されている。
算出したコンテキストスコアは、ステップS405にて、文章マニュアルから算出したコンテキストスコアとの照合処理に使用する。以上で図5のフローチャートの説明を終了し、図4のフローチャートの説明に戻る。
次に、図4のステップS404の処理について説明する。ステップS401で受信した解析対象情報が文章(マニュアル)情報であり、ステップS404へと処理を遷移すると、アプリケーションサーバ102のCPU201は、テキスト解析サーバ105のテキスト解析処理へと処理を移行する。ステップS404の処理の詳細を図6を参照して説明する。
図6は、本発明のテキスト解析サーバ105におけるテキスト解析の制御処理手順の一例を示すフローチャートであり、それぞれのステップは、テキスト解析サーバ105のCPU201により実行される。
図6では、テキスト解析サーバ105において、ステップS401で受信した解析対象情報が文章マニュアルデータの場合にテキスト解析を実行し、その文章マニュアルのコンテキストスコアを算出する。文章マニュアルデータのコンテキストスコアを算出することで、その文章マニュアルと関連性が高いと思われる動画のコンテキストスコアとの照合の自動化を実現する。
図6のフローチャートの処理は、図4のステップS404へと処理が遷移すると開始される。
まずステップS601において、テキスト解析サーバ105のCPU201は、解析対象の段落が所属している節について、節全体を通して焦点を当てられている、組み立て対象の物体(名称)が何かを解析、抽出する。物体の抽出には、文章解析部(物名称抽出部)を使用する。文章解析部は、テキストマイニングなど、文章を解析できるものであれば特に指定しない。
ステップS602では、テキスト解析サーバ105のCPU201は、解析対象の段落をすべて解析し終えたのかを判断する。文章マニュアルデータの中には、検索対象の節・段落の情報が含まれており、解析対象の段落は、検索対象の段落と、その前後の段落のことを示している。
解析対象の段落をすべて解析し終えている場合は、ステップS605に遷移し、検索対象の段落に登場するすべての物体に対して、コンテキストスコアを算出する。解析し終えていない場合は、ステップS603で未解析の段落に対して、登場する物体の抽出と、その中で焦点が当てられている物体の特定をおこなう。
ステップS603では、テキスト解析サーバ105のCPU201は、解析対象の段落について、作業で使用される物体(名称)と、作業の中心となっている(その段落で最も焦点が当てられている)物体(名称)を抽出する。物体の抽出には、文章解析部を使用する。文章解析部は、テキストマイニングなど、文章を解析できるものであれば特に指定しない。
ステップS604では、テキスト解析サーバ105のCPU201は、ステップS603で抽出した情報をもとに、コンテキストスコア生成に使用する、段落内容情報を生成する。段落内容情報は、節内容をテキスト解析で抽出された組み立て対象の物体、段落内容解析で抽出された作業の中心となる物体と、段落内容解析で抽出された作業で使用される物体の情報で構成される。ステップS604の後は、ステップS602へと処理を戻し、また対象段落のすべてについて解析し終えたかを判断する。
ステップS602で対象段落の全ての解析が終えている場合、ステップS605へと処理を遷移する。
ステップS605では、テキスト解析サーバ105のCPU201は、ステップS604で生成した各段落の内容情報をもとに、文章テキストの検索対象の段落における、コンテキストスコアを算出する(物名称重み算出部)。コンテキストスコアは、検索対象段落に登場するすべての物体の、どれだけ文脈(話題)の中心となっているかの度合いを示す物体スコア情報と、前後の段落で登場しているかをもとにしたIN/OUT情報、文章マニュアルIDで構成される(図9の(b))。
物体スコア情報の算出方法は、ここでは組み立て対象なのか、作業の中心なのか、作業で使用するものなのかを基準に算出している(図16)。図中の例では、解析対象となる段落を中心にテキストを解析し、スコアを算出している。まず節に注目すると、「バイス」という物体名が記載されていることから、「バイス」に関する内容と判断し、どの段落においても「バイス」はスコアが1加算させる。次に、解析対象の段落に注目すると、段落としては、「ドライバ」という物体名が頻出していることから、「ドライバ」を使用する作業内容と判断し、この段落での「ドライバ」のスコアは2としている。
IN/OUT情報は、検索対象の段落に登場する物体が、前後の段落においても登場しているかの情報を示す。例えば、検索対象の段落に登場する物体で、前の段落にない場合はIN、後の段落にない場合はOUTとして取り扱う(図16)図中の例では、解析対象の段落に登場する「ドライバ」は、前段落では記載はなく、また後段落では記載があるため、この場合は“IN”を付与する。(物名称出現判断部)
文章マニュアルIDは、文章マニュアルを参照するためのIDとして、ユニークに付与されている。
算出したコンテキストスコアは、ステップS405にて、動画から算出したコンテキストスコアとの照合処理に使用する。以上で図6のフローチャートの説明を終了し、図4のフローチャートの説明に戻る。
図4のステップS403もしくはS404の処理を終了すると、次のステップS405の処理へと遷移する。
ステップS405において、アプリケーションサーバ102のCPU201は、ステップS403またはステップS404で算出したコンテキストスコアに対し、内容が類似する動画情報または文章マニュアルがあるのかの照合処理をおこなう。照合対象のコンテキストスコアは、コンテキストスコアデータベース107に登録済みのもののほか、必要に応じてインターネット等からリアルタイムで取得した動画および文章マニュアルの解析結果として算出したコンテキストスコアでもよい。コンテキストスコア照合処理の詳細を図7を参照して説明する。
図7は、本発明のアプリケーションサーバ102におけるコンテキストスコア照合の制御処理手順の一例を示すフローチャートであり、それぞれのステップは、アプリケーションサーバ102のCPU201により実行される。
図7では、アプリケーションサーバ102において、ステップS403で算出された動画のコンテキストスコア、またはS404で算出された文章マニュアルのコンテキストスコアに対して、関連性の高い動画または文章マニュアルを特定するための照合処理をおこなう。
図7のフローチャートの処理は、図4のステップS405の処理へと遷移した際に開始されるフローチャートである。
まず、ステップS701において、アプリケーションサーバ102のCPU201は、照合元のコンテキストスコアの種別を判断する。照合元が文章マニュアルから算出されたコンテキストスコアの場合、ステップS702で動画のコンテキストスコアを照合先のスコアとして取得する。動画から算出されたコンテキストスコアの場合、ステップS703で文章マニュアルのコンテキストスコアを照合先のスコアとして取得する。
ステップS702では、アプリケーションサーバ102のCPU201は、コンテキストスコアデータベース107へ問い合わせて、動画のコンテキストスコアを取得する。取得するコンテキストスコアは、照合元の文章マニュアルのコンテキストスコア(ステップS605で算出されたコンテキストスコア)と同じ物体のスコアを持つ、ユーザへ提示する対象の動画のコンテキストスコアとする。取得した動画のコンテキストスコアは、ステップS705で類似度判定処理をおこなう。
ステップS703では、アプリケーションサーバ102のCPU201は、コンテキストスコアデータベース107へ問い合わせて、文章マニュアルのコンテキストスコアを取得する。取得するコンテキストスコアは、照合元の動画のコンテキストスコア(ステップS505で算出されたコンテキストスコア)と同じ物体のスコアを持つ、ユーザへ提示する対象の文章マニュアルのコンテキストスコアとする。取得した文章マニュアルのコンテキストスコアは、ステップS705で類似度判定処理をおこなう。
ステップS704では、アプリケーションサーバ102のCPU201は、ステップS702やステップS703で取得したすべてのコンテキストスコアに対し、ステップS705の類似度判定処理をおこなったか判断する。すべてのコンテキストスコアに対して類似度判定処理をしていた場合、コンテキストスコアの照合処理を終了する。類似度判定処理をしていないコンテキストスコアがある場合は、そのコンテキストスコアに対してステップS705の類似度判定処理を実行する。
ステップS705では、アプリケーションサーバ102のCPU201は、ステップS702またはステップS703で取得したコンテキストスコアに対して、類似度判定処理を実行する。類似度判定処理は、ステップS403もしくはステップS404の解析処理で算出したコンテキストスコアと、物体の種類が一致しているか、また物体のスコア情報と、物体のIN/OUT情報を比較して判定する。
物体のスコア情報の比較では、それらの物体のスコアの値がどれだけ近いかを基準にする。物体のスコア値がどれだけ近いのかの判定の際、差分のしきい値は、設定ファイルのパラメータで指定してもよい。設定ファイルの詳細については、図11で後述する。
物体のIN/OUT情報の比較では、各物体のIN/OUTが一致しているのかを基準にする。
ステップS706では、アプリケーションサーバ102のCPU201は、ステップS705の類似度判定処理の結果、ステップS702またはステップS703で取得したコンテキストデータが類似しているかを判断する。類似していると判断した場合は、ステップS707で提示データの種別を判断する。類似していないと判断した場合は、ステップ704の判定処理に戻る。
ステップS707では、アプリケーションサーバ102のCPU201は、ステップS706で類似していると判断した、コンテキストスコアの算出元であるデータの種別を判断する。算出元が動画データの場合は、ステップS708で動画データの参照情報を生成する。算出元が文章マニュアルデータの場合は、ステップS709で文章マニュアルデータの参照情報を生成する。
ステップS708では、アプリケーションサーバ102のCPU201は、ステップS706で類似していると判断した動画のコンテキストスコアをもとに、動作データを取得するための参照情報を生成する。動画データ参照情報は、コンテキストスコアの算出元の動画ID、再生時刻情報、類似度、動画タイトルで構成される(図10の(a))。動画IDは、動画データの参照に使用する。再生時刻情報は、解析対象の文章マニュアルのテキスト情報と合致した動画データの再生位置を示す。類似度は解析対象のテキスト内容との合致の度合いを示す。動画タイトルは、その動画のタイトルを示す。
生成された動画データ参照情報は、ステップS408の動画データ取得処理で使用される。
ステップS709では、アプリケーションサーバ102のCPU201は、ステップS706で類似していると判断した文章マニュアルのコンテキストスコアをもとに、文章マニュアルデータを取得するための参照情報を生成する。文章マニュアルデータ参照情報は、コンテキストスコアの算出元の文章マニュアルID、節・段落情報、解析元の動画との類似度、文章マニュアルタイトルで構成される(図10の(b))。文章マニュアルIDは、文章マニュアルデータの参照に使用する。節・段落情報は、解析対象の動画再生位置と合致した節・段落を示す。類似度は解析対象の動画内容との合致の度合いを示す。文章マニュアルタイトルは、その文章マニュアルのタイトルを示す。
生成された文章マニュアルデータ参照情報は、ステップS409の文章マニュアルデータ取得処理で使用される。以上の処理により、動画情報及び文章マニュアル情報に対応する相互の検索結果に合う情報を取得する(段落動画像相互検索部)。図4のフローチャートの説明に戻る。
図4のステップS405のコンテキストスコア照合処理が終了すると、次のステップS406では、アプリケーションサーバ102のCPU201は、ステップS405で照合したコンテキストスコアの結果について、内容が類似する動画または文章マニュアルが存在するか判断する。存在する場合は、ステップS407で照合結果のコンテキストスコアの算出元データの種別を判断する。存在しない場合は、操作端末PC101への提示対象データもないため、処理を終了する。
ステップS407では、アプリケーションサーバ102のCPU201は、ステップS405の照合結果として取得したデータ参照情報の種別を判断する。動画データ参照情報の場合はステップS408において、ステップS708で生成した動画データの情報を取得する。文章マニュアルデータ参照情報の場合はステップS409において、ステップS709で生成した文章マニュアルデータの情報を取得する。
ステップS408では、アプリケーションサーバ102のCPU201は、ステップS405の照合結果として取得した動画データ参照情報(ステップS708より取得)をもとに、操作端末PC101へ送信する動画データを取得する。動画データは、動画データ参照情報の動画IDを動画管理サーバ104に問い合わせ、取得する。
取得した動画データは、ステップS410で提示対象データとして操作端末PC101へ送信する。
ステップS409では、アプリケーションサーバ102のCPU201は、ステップS405の照合結果として取得した文章マニュアルデータ参照情報(ステップS709より取得)をもとに、操作端末PC101へ送信する文章マニュアルデータを取得する。文章マニュアルデータは、文章マニュアルデータ参照情報の文章マニュアルIDを文章マニュアル管理サーバ106に問い合わせ、取得する。
取得した文章マニュアルデータは、ステップS410で提示対象データの一覧として操作端末PC101へ送信する。
ステップS410では、アプリケーションサーバ102のCPU201は、ステップS408で取得した動画データまたはステップS409で取得した文章マニュアルデータを、ユーザへの提示対象データとして、操作端末PC101へ送信する。
本実施例では、ステップS405でコンテキストスコア照合処理のあと、類似しているデータすべてに対し、ステップS408およびステップS409ですぐに取得、操作端末PC101へ送信しているが、操作端末PC101上でユーザから求められた範囲のデータのみ取得するようにしてもよい。
提示対象データを受信した操作端末PC101は、受信した情報をウェブブラウザ上の検索画面で表示する。動画から文章マニュアルを検索する画面の詳細は図12、文章マニュアルから動画を検索する画面の詳細は図13で後述する。
以下、図11を参照して、本実施形態の動画と文章マニュアルの検索システム100における、設定パラメータの構成例について説明する。
図11は、本発明のアプリケーションサーバ102において、動画と文章マニュアルの検索システムが読み込む、タグ記述形式の設定ファイルの一例を示す模式図である。
動画を解析する際のSceneの単位の長さは、「scene_frame_num」タグ1101で指定する。ここで指定する値は動画のフレーム数であり、この例では1秒を30フレームとして、60フレーム(2秒)で指定している。
動画を解析する際のフォーカスエリアの範囲は、「focus_area」タグ1102で指定する。「focus_area」タグ1102は、「lower_x」タグ1103、「upper_x」タグ1104、「lower_y」タグ1105、「upper_y」タグ1106の4つを指定する必要がある。
「lower_x」タグ1103は、図15にあるlower_xの位置を、ピクセル数で指定する。この例では、x方向の最小範囲として、320ピクセルを指定している。
「uppser_x」タグ1104は、図15にあるupper_xの位置を、ピクセル数で指定する。この例では、x方向の最大範囲として、960ピクセルを指定している。
「lower_y」タグ1105は、図15にあるlower_yの位置を、ピクセル数で指定する。この例では、y方向の最小範囲として、256ピクセルを指定している。
「uppser_y」タグ1106は、図15にあるupper_yの位置を、ピクセル数で指定する。この例では、y方向の最大範囲として、768ピクセルを指定している。
コンテキストスコア照合処理の際のスコア値の差分のしきい値は、「object_score_threshold」タグ1107で指定する。この例では、スコア値の差分のしきい値として、1を指定している。
以下、図12を参照して、本実施形態の動画から文章マニュアルを検索する際に使用する、画面のイメージ例について説明する。
図12は、本発明の操作端末PC101のディスプレイ部210に出力される画面イメージの一例を示す模式図である。
動画から文章マニュアルを検索する画面1200は、検索対象の動画表示部1201、検索結果表示部1203、テキスト表示部1204から構成される。
検索対象の動画表示部1201は、検索対象の動画を表示、再生する。ユーザは検索対象の動画を再生し、解説文章を探したい場面で動画を一時停止し、下部の検索ボタン1202をクリックすることで、動画に対応する文章マニュアルの検索をおこなえる。
検索結果表示部1203は、文章マニュアル検索の結果である文章マニュアル情報の一覧を表示する。この例では、2種類の検索結果をタブ形式で表示している。
解説文章タブ1205では、手動により動画と関連付けられている文章マニュアル情報を表示する。この例では、文章マニュアルのタイトル情報やサムネイル画像を表示しており、文章マニュアルのタイトル(1206)をクリックすると、動画の再生位置に対応する文章マニュアルの節・段落部分がテキスト表示部1204に表示される。
類似文章タブ1207では、本発明の処理により関連性が高いと判断された文章マニュアル情報を表示する。表示内容については、解説文章タブと同様である。このタブの用途として、似た作業内容を記載しているテキストの一覧情報を取得する、などが考えられる。
テキスト表示部1204は、検索結果表示部1203でユーザによりクリックされた文章マニュアルのテキストを表示する。この例では、動画の再生位置に対応する文章マニュアルの節・段落部分のテキストを中心に表示する。テキスト表示は、動画の再生位置に対応する部分を強調表示したり、再生に合わせてテキスト表示をスクロールしたりしてもよい。
以下、図13を参照して、本実施形態の文章マニュアルから動画を検索する際に使用する、画面のイメージ例について説明する。
図13は、本発明の操作端末PC101のディスプレイ部210に出力される画面イメージの一例を示す模式図である。
文章マニュアルから動画を検索する画面1300は、検索対象の文章マニュアルのテキスト表示部1301、検索結果表示部1304、動画表示部1305から構成される。
検索対象の文章マニュアルのテキスト表示部1301は、検索対象の文章マニュアルの節・段落に対応したテキストを表示する。節・段落のテキストは検索対象として選択可能(1302)であり、ユーザは解説動画を探したい節・段落のテキストをクリックして選択状態(1302)にし、下部の検索ボタン1303をクリックすることで、その節・段落のテキストに対応する動画の検索をおこなえる。
検索結果表示部1304は、動画検索の結果である、動画情報の一覧を表示する。この例では、2種類の検索結果をタブ形式で表示する。
解説動画タブ1306では、手動により文章マニュアルと関連付けられている動画情報を表示する。この例では、動画のタイトル情報やサムネイル画像を表示しており、動画タイトル(1307)をクリックすると、文章マニュアルの節・段落のテキストに対応する動画の再生位置が動画表示部1305に表示される。
類似動画タブでは、本発明の処理により関連性が高いと判断された動画情報を表示する。表示内容については、解説動画タブと同様である。このタブの用途として、似た作業内容を撮影した動画の一覧情報を取得する、などが考えられる。
動画表示部1305は、検索結果表示部1304でユーザによりクリックされた動画を再生する。この例では、ユーザが選択状態にしている文章マニュアルの節・段落のテキスト1302に対応した再生位置から、動画を再生する。動画再生時には文章マニュアルのテキスト表示部1301と連動して、動画の再生位置に対応する節・段落のテキストを強調表示してもよく、また再生に合わせてテキスト表示をスクロールしてもよい。
以上の処理により、大量の動画データとテキストデータを自動的に関連付けることができ、動画・文章の相互検索を容易におこなうことが可能な仕組みを提供することができる。
上記実施形態では、複数台のサーバにより運用する場合で説明したが、1台で動作する情報処理装置であっても良いし、幾つかの機能は実現しなくても本発明の目的は達成することができる。
なお、特に図示しないが、記録媒体に記憶されるプログラム群を管理する情報、例えばバ−ジョン情報,作成者等も記憶され、かつ、プログラム読み出し側のOS等に依存する情報、例えばプログラムを識別表示するアイコン等も記憶される場合もある。
さらに、各種プログラムに従属するデータも上記ディレクトリに管理されている。また、インスト−ルするプログラムやデータが圧縮されている場合に、解凍するプログラム等も記憶される場合もある。
本実施形態における図4〜図7に示す機能が外部からインスト−ルされるプログラムによって、ホストコンピュ−タにより遂行されていてもよい。そして、その場合、CD−ROMやフラッシュメモリやFD等の記録媒体により、あるいはネットワークを介して外部の記録媒体から、プログラムを含む情報群を出力装置に供給される場合でも本発明は適用されるものである。
以上のように、前述した実施形態の機能を実現するソフトウェアのプログラムコ−ドを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュ−タ(またはCPUやMPU)が記録媒体に格納されたプログラムコ−ドを読出し実行することによっても、本発明の目的が達成されることは言うまでもない。
この場合、記録媒体から読み出されたプログラムコ−ド自体が本発明の新規な機能を実現することになり、そのプログラムコ−ドを記憶した記録媒体は本発明を構成することになる。
プログラムコ−ドを供給するための記録媒体としては、例えば、フレキシブルディスク,ハードディスク,光ディスク,光磁気ディスク,CD−ROM,CD−R,DVD−ROM,磁気テ−プ,不揮発性のメモリカ−ド,ROM,EEPROM,シリコンディスク等を用いることができる。
また、コンピュ−タが読み出したプログラムコ−ドを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコ−ドの指示に基づき、コンピュ−タ上で稼働しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記録媒体から読み出されたプログラムコ−ドが、コンピュ−タに挿入された機能拡張ボ−ドやコンピュ−タに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコ−ドの指示に基づき、その機能拡張ボ−ドや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。また、本発明は、システムあるいは装置にプログラムを供給することによって達成される場合にも適応できることは言うまでもない。この場合、本発明を達成するためのソフトウェアによって表されるプログラムを格納した記録媒体を該システムあるいは装置に読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。
さらに、本発明を達成するためのソフトウェアによって表されるプログラムをネットワーク上のサーバ,データベ−ス等から通信プログラムによりダウンロードして読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。
なお、上述した各実施形態およびその変形例を組み合わせた構成も全て本発明に含まれるものである。
100 情報処理システム
301 物検出部
302 動画像内物名称特定部
303 物名称抽出部
304 段落動画像相互検索部
305 物出入判断部
306 物名称出現判断部
307 物検出重み設定部
308 物名称重み算出部

Claims (9)

  1. 動画像と文章を管理する情報処理装置であって、
    一つもしくは断片化された動画像毎に画像解析し、該動画像内に存在する一つもしくは複数の物を検出する物検出手段と、
    前記物検出手段により検出される前記一つもしくは断片化された動画像内の一つもしくは複数の物の名称を特定する動画像内物名称特定手段と、
    前記文章の段落毎にテキスト解析し、該段落内に存在する一つもしくは複数の物の名称を抽出する物名称抽出手段と、
    前記物名称抽出手段で抽出された第1の物の名称と、前記動画像内物名称特定手段で特定された第2の物の名称とが類似する段落および動画像を相互検索する段落動画像相互検索手段と、
    を有することを特徴とする情報処理装置。
  2. 前記動画像内で前記物検出手段により検出される第2の物の名称に対応する物の出入りを判断する物出入判断手段と、
    前記文章の段落毎において、前記物名称抽出手段により抽出される第1の物の名称の出現を判断する物名称出現判断手段と、
    前記段落動画像相互検索手段は、前記物出入判断手段で判断された第2の物の名称に対応する物の出入りと、前記物名称出現判断手段により判断される第1の物の名称の出現とが類似する段落および動画像を相互検索することを特徴とする請求項1に記載の情報処理装置。
  3. 前記物検出手段により検出される第2の物の名称に対応する物の内、前記動画像内の所定の範囲内に存在している物の重み(第2の物の名称の重み)を高くする設定する物検出重み設定手段と、
    前記文章の段落毎において、前記物名称抽出手段により抽出される第1の物の名称の出現する頻度により、物の名称の重みを算出する物名称重み算出手段と、
    前記段落動画像相互検索手段は、前記物検出重み設定手段により設定された第2の物の名称の重みと、前記物名称重み算出手段により算出された第1の物の名称の重みとが類似する段落及び動画像を相互検索することを特徴とする請求項1又は2に記載の情報処理装置。
  4. 前記物出入判断手段は、前記動画像内の所定の範囲内に第2の物の名称に対応する物が出入りすることにより判断することを特徴とする請求項2に記載の情報処理装置。
  5. 前記物名称重み算出手段は、前記段落のタイトルもしくは節内容に指定されている前記第1の物の名称の重みを高く算出することを特徴とする請求項3又は4に記載の情報処理装置。
  6. 前記物名称重み算出手段は、前記段落内に存在する前記第1の物の名称の出現する頻度によって、前記第1の物の名称の重みを算出することを特徴とする請求項3乃至5に記載の情報処理装置。
  7. 動画像と文章を管理する情報処理装置からなる情報処理システムであって、
    一つもしくは断片化された動画像毎に画像解析し、該動画像内に存在する一つもしくは複数の物を検出する物検出手段と、
    前記物検出手段により検出される前記一つもしくは断片化された動画像内の一つもしくは複数の物の名称を特定する動画像内物名称特定手段と、
    前記文章の段落毎にテキスト解析し、該段落内に存在する一つもしくは複数の物の名称を抽出する物名称抽出手段と、
    前記物名称抽出手段で抽出された第1の物の名称と、前記動画像内物名称特定手段で特定された第2の物の名称とが類似する段落および動画像を相互検索する段落動画像相互検索手段と、
    を有することを特徴とする情報処理システム。
  8. 動画像と文章を管理する情報処理装置における情報処理方法であって、
    一つもしくは断片化された動画像毎に画像解析し、該動画像内に存在する一つもしくは複数の物を検出する物検出ステップと、
    前記物検出ステップにより検出される前記一つもしくは断片化された動画像内の一つもしくは複数の物の名称を特定する動画像内物名称特定ステップと、
    前記文章の段落毎にテキスト解析し、該段落内に存在する一つもしくは複数の物の名称を抽出する物名称抽出ステップと、
    前記物名称抽出ステップで抽出された第1の物の名称と、前記動画像内物名称特定ステップで特定された第2の物の名称とが類似する段落および動画像を相互検索する段落動画像相互検索ステップと、
    を有することを特徴とする情報処理方法。
  9. 請求項8に記載された情報処理方法を実行するためのプログラム。
JP2017125787A 2017-06-28 2017-06-28 情報処理装置、情報処理システム、情報処理方法およびプログラム Pending JP2019008684A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017125787A JP2019008684A (ja) 2017-06-28 2017-06-28 情報処理装置、情報処理システム、情報処理方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017125787A JP2019008684A (ja) 2017-06-28 2017-06-28 情報処理装置、情報処理システム、情報処理方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2019008684A true JP2019008684A (ja) 2019-01-17

Family

ID=65029490

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017125787A Pending JP2019008684A (ja) 2017-06-28 2017-06-28 情報処理装置、情報処理システム、情報処理方法およびプログラム

Country Status (1)

Country Link
JP (1) JP2019008684A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022505320A (ja) * 2019-09-29 2022-01-14 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド 検索方法及び検索装置、記憶媒体
JP7076521B1 (ja) 2020-11-27 2022-05-27 楽天グループ株式会社 情報処理システム、情報処理方法およびプログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022505320A (ja) * 2019-09-29 2022-01-14 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド 検索方法及び検索装置、記憶媒体
JP7181999B2 (ja) 2019-09-29 2022-12-01 ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド 検索方法及び検索装置、記憶媒体
JP7076521B1 (ja) 2020-11-27 2022-05-27 楽天グループ株式会社 情報処理システム、情報処理方法およびプログラム
JP2022085253A (ja) * 2020-11-27 2022-06-08 楽天グループ株式会社 情報処理システム、情報処理方法およびプログラム
JP2022109313A (ja) * 2020-11-27 2022-07-27 楽天グループ株式会社 情報処理システム、情報処理方法およびプログラム
JP7345012B2 (ja) 2020-11-27 2023-09-14 楽天グループ株式会社 情報処理システム、情報処理方法およびプログラム
US12046065B2 (en) 2020-11-27 2024-07-23 Rakuten Group, Inc. Information processing system, information processing method, and information storage medium

Similar Documents

Publication Publication Date Title
US6834371B1 (en) System and method for controlling synchronization of a time-based presentation and its associated assets
US6839059B1 (en) System and method for manipulation and interaction of time-based mixed media formats
US6922702B1 (en) System and method for assembling discrete data files into an executable file and for processing the executable file
US9372843B2 (en) Document association device, document association method, and non-transitory computer readable medium
US8931002B2 (en) Explanatory-description adding apparatus, computer program product, and explanatory-description adding method
US20060047647A1 (en) Method and apparatus for retrieving data
US20090070364A1 (en) Multimedia data recording method and apparatus for automatically generating/updating metadata
JP4697913B2 (ja) データ検索装置及び方法
JP4197014B2 (ja) 映像の検索方法および装置
US20130094697A1 (en) Capturing, annotating, and sharing multimedia tips
JP2002082684A (ja) プレゼンテーションシステム及びプレゼンテーションデータ生成方法、並びに記録媒体
KR20220135901A (ko) 맞춤형 교육 콘텐츠 제공 장치, 방법 및 프로그램
US20150010288A1 (en) Media information server, apparatus and method for searching for media information related to media content, and computer-readable recording medium
JP2019008684A (ja) 情報処理装置、情報処理システム、情報処理方法およびプログラム
KR101640317B1 (ko) 오디오 및 비디오 데이터를 포함하는 영상의 저장 및 검색 장치와 저장 및 검색 방법
US20240033626A1 (en) Game plot interaction method, apparatus, and system
JP2017021672A (ja) 検索装置
JP5644814B2 (ja) 情報処理装置、情報処理システム、制御方法、情報処理方法およびそのプログラム
JP2000236493A (ja) 画像処理装置及びその方法、コンピュータ可読メモリ
JP2015032905A (ja) 情報処理装置、情報処理方法、プログラム
JP2009022018A (ja) 映像の検索方法および装置
EP3252770A1 (en) Automated identification and processing of audiovisual data
KR20140033667A (ko) 객체 기반 동영상 편집 장치 및 방법
JP4326753B2 (ja) 映像情報インデキシング支援システム、プログラム及び記憶媒体
JP3931890B2 (ja) 映像の検索方法および装置

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180703

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181031

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190115