JP2003330935A - マルチモーダル情報システム及びマルチモーダル情報検索方法 - Google Patents

マルチモーダル情報システム及びマルチモーダル情報検索方法

Info

Publication number
JP2003330935A
JP2003330935A JP2002140425A JP2002140425A JP2003330935A JP 2003330935 A JP2003330935 A JP 2003330935A JP 2002140425 A JP2002140425 A JP 2002140425A JP 2002140425 A JP2002140425 A JP 2002140425A JP 2003330935 A JP2003330935 A JP 2003330935A
Authority
JP
Japan
Prior art keywords
information
multimodal
modal
unit
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002140425A
Other languages
English (en)
Inventor
Hiroyuki Tsuboi
井 宏 之 坪
Yoichi Takebayashi
林 洋 一 竹
Masaru Suzuki
木 優 鈴
Toshiki Kitsu
津 俊 樹 岐
Takayuki Miyazawa
澤 隆 幸 宮
Koji Urata
田 耕 二 浦
Yuzo Tamada
田 雄 三 玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2002140425A priority Critical patent/JP2003330935A/ja
Publication of JP2003330935A publication Critical patent/JP2003330935A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 人物の動画情報、音声情報及び資料情報を相
互に関連づけて蓄積しておき、必要に応じて所望の情報
を簡易かつ迅速に検索できるようにする。 【解決手段】 本発明に係るマルチモーダル情報システ
ムは、マルチモーダル情報入力部1と、マルチモーダル
構造情報抽出部2と、マルチモーダル構造情報蓄積部3
と、マルチモーダル情報蓄積部4と、検索情報入力部5
と、マルチモーダル情報検索部6と、編集情報入力部7
と、マルチモーダル情報編集部8と、提示シナリオ入力
部9と、マルチモーダル情報提示シナリオ部10と、マ
ルチモーダル情報出力部11を備えている。マルチモー
ダル構造情報に基づいてマルチモーダル情報の検索を行
うようにしたため、複数種類の情報を相互に関連付けて
提供することができ、各情報の理解度を高めることがで
きる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、人物の動画情報、
音声情報及び資料情報を相互に関連づけるマルチモーダ
ル情報システム及びマルチモーダル情報検索方法に関
し、例えば、教師や講演者などが資料を利用して説明し
た内容を必要に応じて再生したり、関連する情報を検索
できるようにしたマルチモーダル情報システム及びマル
チモーダル情報検索方法に関する。
【0002】
【従来の技術】従来、講演内容の記録メディアや教育学
習メディアは、一連の連続した再生のみが可能であり、
知りたい内容が出ている場所を探すには、連続したメデ
ィアを用いて再生して探す必要があった。また、講演者
の声は音声でしか再生できないことが多く、内容を把握
しづらいという欠点があった。
【0003】一方、教育メディアとして、絵文字情報を
利用した教育システムが数多く利用されているが、内容
の重要な部分や強調すべきところも、予め絵文字情報で
表現しておく必要があり、教育システムの作成に時間と
コストがかかっていた。
【0004】近年、音声認識、顔認識及び感情認識など
の技術が進展したことで、音声を文字に変換したり、人
物の表情や音声から感情を抽出できるようになってき
た。
【0005】
【発明が解決しようとする課題】しかしながら、これら
の技術と従来の教育メディアとの統合は実現されておら
ず、絵文字情報、講演者の動作、音声及び講演資料を同
時に提示して、それらを相互に関係づける機能は実現さ
れていない。このため、講演内容の構成、重要な部分及
び関連する部分を再生しながら、必要に応じて、関連す
る情報のみを抽出したり、重要な部分のみを再生した
り、分からない部分について検索したりすることが容易
にはできなかった。
【0006】学習を行う場合、資料の提示だけではな
く、人物による説明が重要であり、話している人物を映
した場面の映像ストリーム、その人物の音声、その人物
が利用している資料、及び人物の動作などを相互に関連
づけることが重要である。
【0007】しかしながら、話している内容と映像との
対応関係や、話している内容、映像及び資料の構造との
対応関係を抽出して蓄積しておき、学習する際に利用で
きるシステムは従来なかった。
【0008】また、講演者等が一方的に説明する内容だ
けでなく、対話や質疑応答などの複数の人がやり取りす
る内容自体も、学習を理解する上で極めて重要である。
ところが、対話や質疑応答などの内容を、講演者等が説
明する内容と対応づけて蓄積するシステムも従来存在し
ていない。
【0009】さらに、システムだけではなく、コンテン
ツが重要であるが、コンテンツ作成の専門家が作成する
システムだけでは、コンテンツ不足の状況は解消されな
い。日常の講演、教育、企業活動、さらには一般の日常
生活の場にも様々な知りたいコンテンツや共有学習すべ
きコンテンツとなり得る素材があり、その素材をもとに
容易にコンテンツを構築できる環境を提供することが重
要である。
【0010】Web環境は、個々人が作成したものが蓄積
されて膨大なコンテンツの宝庫となっている。しかしな
がら、Webで得られる情報は、文字情報をベースとし
て、htmlにより構造を持たせたものになっているが、構
造の作成支援機能、それらの構造の対応関係を作成支援
する機能、さらには映像などのストリーム情報を同様に
扱える機能は持っていない。ただし、ストリーム情報の
構造化記述言語はあるが、上記のような機能を実現する
目的では利用されていない。
【0011】本発明は、このような点に鑑みてなされた
ものであり、その目的は、人物の動画情報、音声情報及
び資料情報を相互に関連づけて蓄積しておき、必要に応
じて関連性のある情報を簡易かつ迅速に検索して提供す
ることで、学習効果を高めるようにしたマルチモーダル
情報システム及びマルチモーダル情報検索方法を提供す
ることにある。
【0012】
【課題を解決するための手段】上述した課題を解決する
ために、本発明は、人物の動画情報、前記人物の音声情
報、及び前記人物が使用した資料に関連する資料情報
を、マルチモーダル情報として蓄積するマルチモーダル
情報蓄積部と、前記動画情報、前記音声情報及び前記資
料情報に含まれる特徴的な情報をマルチモーダル構造情
報として抽出する抽出部と、前記マルチモーダル情報に
ついての検索条件を指定する検索条件指定部と、前記指
定された検索条件に合致するマルチモーダル情報を前記
マルチモーダル構造情報に基づいて検索する検索部と、
を備える。
【0013】本発明では、マルチモーダル構造情報を利
用してマルチモーダル情報の検索を行うため、異なる種
類の情報を互いに関連付けて提供することができる。
【0014】
【発明の実施の形態】以下、本発明に係るマルチモーダ
ル情報システム及びマルチモーダル情報検索方法につい
て、図面を参照しながら具体的に説明する。
【0015】図1は本発明に係るマルチモーダル情報シ
ステムの一実施形態の概略構成を示すブロック図であ
る。図1のマルチモーダル情報システムは、マルチモー
ダル情報入力部1と、マルチモーダル構造情報抽出部2
と、マルチモーダル構造情報蓄積部3と、マルチモーダ
ル情報蓄積部4と、検索情報入力部5と、マルチモーダ
ル情報検索部6と、編集情報入力部7と、マルチモーダ
ル情報編集部8と、提示シナリオ入力部9と、マルチモ
ーダル情報提示シナリオ部10と、マルチモーダル情報
出力部11を備えている。
【0016】マルチモーダル情報入力部1は、図2に詳
細な内部構成を示すように、ビデオカメラ等を用いて人
物の動画像を取り込む場面動画入力部12と、マイク等
を用いて人物の音声を取り込む音声入力部13と、人物
が講演等で利用した資料等に関する情報を入力する資料
入力部14と、その他の付属情報を入力する付属情報入
力部15とを有する。
【0017】なお、マルチモーダル情報入力部1が各種
の情報を入力する具体的な手段は特に限定されない。ま
た、資料情報の入力には、CD-ROM等の記録媒体を利用し
てもよいし、ウェブにアクセスして必要な情報を取得し
てもよいし、あるいは手入力してもよい。
【0018】マルチモーダル構造情報抽出部2は、図2
に詳細な内部構成を示すように、場面情報抽出部21
と、人物抽出部22と、場面動画部分区間情報抽出部2
3と、音声区間抽出部24と、音声認識部25と、話者
認識部26と、感情認識部27と、音声部分区間情報抽
出部28と、対話情報抽出部29と、質疑情報抽出部3
0と、話提情報抽出部31と、資料構造情報抽出部32
と、指示位置解析部33とを有する。以下では、マルチ
モーダル構造情報抽出部2で抽出及び解析された各情報
を、総称してマルチモーダル構造情報と呼ぶ。
【0019】場面情報抽出部21は、動画情報の中から
場面の切り替わりを検出し、各場面を抽出する。人物抽
出部22は、動画情報の中から人物を抽出する。具体的
には、パターンマッチング等の手法により人物を抽出す
る。場面動画部分区間情報抽出部23は、各場面の部分
区間ごとに含まれる動画情報を抽出する。
【0020】音声区間抽出部24は、音声情報の区切り
を検出し、各音声区間の開始時刻と終了時刻を抽出す
る。音声認識部25は音声認識を行い、話者認識部26
は話者を特定し、感情認識部27は音声の高低や強弱か
ら話者の感情を認識する。
【0021】音声部分区間情報抽出部28は、音声区間
抽出部24、音声認識部25、話者認識部26及び感情
認識部27の出力を利用して、各音声区間ごとに音声情
報を抽出する。対話情報抽出部29は対話している内容
を抽出し、質疑情報抽出部30は質疑している内容を抽
出し、話提情報抽出部31は話題の内容を抽出する。
【0022】資料構造情報抽出部32は、資料に関する
具体的な情報、例えば、著者、発行日、出版社、刊行
日、資料の入手先などの情報を抽出する。
【0023】指示位置解析部33は、講演者等がポイン
タやマウス等により資料の特定箇所を指示したときに、
その指示箇所を解析する。
【0024】図1のマルチモーダル構造情報蓄積部3
は、図2に詳細な内部構成を示すように、場面動画部分
区間情報蓄積部41と、音声部分区間情報蓄積部42
と、対話情報蓄積部43と、質疑情報蓄積部44と、話
提情報蓄積部45と、資料構造情報蓄積部46と、付属
情報蓄積部47とを有する。
【0025】場面動画部分区間情報蓄積部41は、マル
チモーダル情報抽出部内の場面動画部分区間情報抽出部
23で抽出された情報を保存する。同様に、音声部分区
間情報蓄積部42は音声部分区間情報抽出部28で抽出
された情報を保存し、対話情報蓄積部43は対話情報抽
出部29で抽出された情報を保存し、質疑情報蓄積部4
4は質疑情報抽出部30で抽出された情報を保存し、話
提情報蓄積部45は話提情報抽出部31で抽出された情
報を保存し、資料構造情報蓄積部46は資料構造情報抽
出部32で抽出された情報を保存し、付属情報蓄積部4
7は付属情報抽出部で抽出された情報を保存する。
【0026】マルチモーダル構造情報蓄積部3は、マル
チモーダル構造情報を時間を基準として相互に関連付け
て保存する。図3はマルチモーダル構造情報蓄積部3に
保存される各種情報の関連付けを示す図である。図3で
は、人物が講演等で使用した表示資料の種類と、人物を
映した動画像の種類と、人物が資料の特定の場所を指し
示すために使用したポインタの座標と、人物の音声と、
話者を特定する情報と、動画像に映っている人物の数
と、動画像に映っている各人物を特定する表示人物情報
と、音声認識結果とを、時間を基準として相互に関連付
けている。
【0027】図3の例では、表示資料は時刻T5で切り
替わり、画像は時刻T4で切り替わり、ポインタは時刻
T2,T6で切り替わり、音声は時刻T3,T5で切り
替わり、話者は時刻T3,T5で切り替わり、人数は時
刻T4で切り替わり、表示人物情報は時刻T4で切り替
わり、音声認識結果は時刻T3,T5で切り替わってい
る。
【0028】マルチモーダル構造情報抽出部2内の場面
動画部分区間情報抽出部23と音声部分区間情報抽出部
28は、時刻に関する情報を保存している。これによ
り、マルチモーダル情報を出力する際に、同一時刻に関
する複数種類の情報を相互に関連づけて出力することが
できる。
【0029】図1のマルチモーダル情報蓄積部4は、図
2に詳細な内部構成を示すように、場面動画情報蓄積部
51と、音声情報蓄積部52と、資料情報蓄積部53と
を有する。マルチモーダル情報蓄積部4は、マルチモー
ダル情報入力部1内の場面動画入力部12にて入力され
た場面動画情報と、音声入力部13にて入力された音声
情報と、資料入力部14にて入力された資料情報とを保
存する。
【0030】以下、講演者が講演している状況をマルチ
モーダル情報入力部1に入力し、その内容を参照して講
演内容の理解を支援する場合を例に取って、本実施形態
のマルチモーダル情報システムの動作を説明する。
【0031】マルチモーダル情報入力部1は、講演者の
手元に置かれており、講演者が講演を開始するときに、
講演者自身でマルチモーダル情報入力部1に対して入力
開始を指示する。これにより、マルチモーダル情報入力
部1内の場面動画入力部12、音声入力部13、資料入
力部14及び付属情報入力部15は、それぞれの情報入
力を開始する。
【0032】また、マウスの動作や資料画面の切り替え
動作など電子的な講演資料の操作もマルチモーダル情報
入力部1に入力され、マウス等により提示している部分
が分かる情報、例えば資料のページ数などが、資料の講
演の映像、音声及び時刻情報とともにマルチモーダル情
報入力部1に入力される。
【0033】マルチモーダル情報入力部1から入力され
た人物動画像、音声、資料情報及び資料操作情報など
は、マルチモーダル情報蓄積部4とマルチモーダル情報
抽出部に伝送される。
【0034】マルチモーダル情報蓄積部4は、人物の映
っている場面動画情報と、語っている人物の音声情報
と、語っている人物が資料として使用している資料情報
とをそれぞれ保存する。
【0035】マルチモーダル情報抽出部は、各情報の構
造を分析して、情報の種類ごとに各情報を抽出する作業
を行う。抽出された各情報はマルチモーダル構造情報蓄
積部3に伝送され、情報の種類ごとに分類して保存され
る。例えば、講演者がポインタを用いて資料を指し示し
たり、マウスカーソルによって資料の内容を示した場合
には、マルチモーダル情報抽出部内の指示位置解析部3
3により、講演中に映し出された資料中のマウスの指示
箇所を抽出する。
【0036】マルチモーダル構造情報抽出部2は、講演
者の映像から人物像を抽出し、人物の人数と予め登録し
ておいた顔情報から人物認識を行い、マルチモーダル情
報として登録する。ただし、講演資料や講演式次第など
から講演者を識別できるときには、講演資料を優先した
情報抽出をおこなう。
【0037】また、マルチモーダル構造情報抽出部2
は、講演者の移動状況を動画像の場面分割技術によって
抽出し、人物移動情報に変換してマルチモーダル構造情
報として時間的な対応を保存する。
【0038】また、マルチモーダル構造情報抽出部2内
の音声区間抽出部24は、マルチモーダル情報として記
録された講演者の音声情報から、発声している区間を検
出して音声区間情報の抽出を行う。また、話者認識部2
6は検出された音声ごとに予め登録された話者ごとの音
声情報から話者認識を行い、話者情報をマルチモーダル
情報として抽出し、音声部分区間情報蓄積部42に保存
する。
【0039】また、マルチモーダル構造情報抽出部2
は、音声認識部25、話者認識部26、感情認識部27
及び資料構造情報抽出部32にて、音声認識、発声者の
話者認識、人物の感情の認識、及び資料の内容の構造抽
出なども行う。これらの機能によって抽出された情報
は、人物動画の部分区間情報として分割するための情報
を抽出したり、音声情報からは、一人の人物が話してい
る場合には話しの内容や構成などを抽出し、話題の変化
や内容の構成情報とする。複数の人物が対話している場
合には対話情報を抽出する。また、複数の人物が質問し
たり、それに回答している場面では、その質疑応答情報
を抽出する。これらの抽出された情報は、マルチモーダ
ル構造情報としてマルチモーダル情報蓄積部4に蓄積さ
れるとともに、動画情報、音声情報及び資料情報がマル
チモーダル情報としてマルチモーダル情報蓄積部4に蓄
積される。
【0040】マルチモーダル情報蓄積部4に蓄積された
マルチモーダル情報は、利用者が再生指示を行ったとき
に、マルチモーダル構造情報蓄積部3に蓄積されている
マルチモーダル構造情報を参照して、マルチモーダル情
報出力部11から出力される。このとき、人物の発声か
ら抽出された内容情報が動画像部分区間情報とともに関
連付けて表示される。これにより、動画像の再生時に内
容を文字情報として確認できる。
【0041】マルチモーダル情報出力部11は、マルチ
メディア構造情報に蓄積された人物の興奮度に基づいて
表示を変化させてもよく、これにより、利用者は重要な
内容であることを確認できる。
【0042】また、利用者が時間がない場合に重要なと
ころだけを確認できるように、マルチモーダル情報出力
部11は、マルチモーダル構造情報に蓄積された重要度
にしたがって、マルチモーダル情報を出力してもよい。
これにより、利用者は重要度の高い情報だけを再生する
ことができる。
【0043】このように、本実施形態では、絵文字情報
だけでなく、講演者等が話をする場面の動画を表示しな
がら、講演者の動作、音声及び講演資料を同時に提示
し、さらにそれらの関係づけを行って、講演内容の構
成、重要な部分及び関連する部分の関係付けを行い、再
生しながら必要に応じて、関連する情報のみを抽出した
り、重要な部分のみを再生したり、分からない部分につ
いて検索したりすることができるため、マルチモーダル
情報を有効に活用でき、学習効果を高めることができ
る。
【0044】例えば、講演の内容を再生する場合は、講
演で使用した資料、講演者の動画像及び講演者の音声を
相互に関連付けて提供するため、講演者に対する近親感
や信頼感も高まって、講演の内容を把握しやすくなる。
また、講演の中で特に重要な点や注意すべき点を強調す
ることができるため、学習効果をよりいっそう高めるこ
とができる。
【0045】また、複数の人物間の対話、たとえば、コ
ーチングの際の映像を再生することによって、コーチン
グ技術の実例の分類、分類の頻度、良い事例及び悪い事
例などの分類とコーチングの流れなどを記録再生するこ
とができ、コーチング技術の習得に役立てることができ
る。
【0046】さらに、講演会における質問や応答場面を
記録することによって、質疑応答内容の検索結果とし
て、実際の質問応答場面を見ることができ、文字情報の
みによる理解に比べて、格段に理解を深めることができ
る。
【0047】上述した実施形態において、マルチモーダ
ル構造情報は、動画情報、音声情報及び資料情報に含ま
れる特徴的な情報であればよく、図2に示したものに限
定されない。
【0048】また、上述したマルチモーダル情報は、人
物の動画情報、音声情報及び資料情報を最低限含んでい
ればよく、それ以外の情報を含んでいてもよい。
【0049】
【発明の効果】以上詳細に説明したように、本発明によ
れば、マルチモーダル構造情報を利用してマルチモーダ
ル情報の検索を行うようにしたため、異なる種類の情報
を互いに関連付けて提供することができ、一種類の情報
を提供する場合に比べて学習効果を高めることができ
る。
【図面の簡単な説明】
【図1】本発明に係るマルチモーダル情報システムの一
実施形態の概略構成を示すブロック図。
【図2】マルチモーダル情報入力部、マルチモーダル構
造情報抽出部、マルチモーダル構造情報蓄積部及びマル
チモーダル情報蓄積部の詳細な内部構成を示すブロック
図。
【図3】マルチモーダル構造情報蓄積部3に保存される
各種情報の関連付けを示す図。
【符号の説明】
1 マルチモーダル情報入力部 2 マルチモーダル構造情報抽出部 3 マルチモーダル構造情報蓄積部 4 マルチモーダル情報蓄積部 5 検索情報入力部 6 マルチモーダル情報検索部 7 編集情報入力部 8 マルチモーダル情報編集部 9 提示シナリオ入力部 10 マルチモーダル情報提示シナリオ蓄積部 11 マルチモーダル情報出力部
フロントページの続き (72)発明者 鈴 木 優 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 (72)発明者 岐 津 俊 樹 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 (72)発明者 宮 澤 隆 幸 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 (72)発明者 浦 田 耕 二 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 (72)発明者 玉 田 雄 三 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 Fターム(参考) 2C028 AA12 BD02 5B075 ND16 NK39 NK44 NR06 NR20 UU40 5C052 AA01 AB02 AB03 AB04 AC08 CC01 CC06 DD03 DD04 DD06 EE02 EE03

Claims (9)

    【特許請求の範囲】
  1. 【請求項1】人物の動画情報、前記人物の音声情報、及
    び前記人物が使用した資料に関連する資料情報を、マル
    チモーダル情報として蓄積するマルチモーダル情報蓄積
    部と、 前記動画情報、前記音声情報及び前記資料情報に含まれ
    る特徴的な情報をマルチモーダル構造情報として抽出す
    る抽出部と、 前記マルチモーダル情報についての検索条件を指定する
    検索条件指定部と、 前記指定された検索条件に合致するマルチモーダル情報
    を前記マルチモーダル構造情報に基づいて検索する検索
    部と、を備えることを特徴とするマルチモーダル情報シ
    ステム。
  2. 【請求項2】前記検索部により検索されたマルチモーダ
    ル情報を少なくとも前記動画情報及び前記音声情報に関
    連づけて出力する出力部を備えることを特徴とする請求
    項1に記載のマルチモーダル情報システム。
  3. 【請求項3】前記抽出部は、前記動画情報に基づいて、
    前記人物の顔の特徴と表情の変化とを前記マルチモーダ
    ル構造情報として抽出することを特徴とする請求項1ま
    たは2に記載のマルチモーダル情報システム。
  4. 【請求項4】前記抽出部は、前記音声情報に基づいて、
    音声認識、話者認識及び感情認識の少なくとも一つを行
    った結果を前記マルチモーダル構造情報として抽出する
    ことを特徴とする請求項1及至3のいずれかに記載のマ
    ルチモーダル情報システム。
  5. 【請求項5】前記抽出部は、前記動画情報に含まれる場
    面の切り替わりと前記音声情報に含まれる音声区間の区
    切りとを前記マルチモーダル構造情報として抽出するこ
    とを特徴とする請求項1及至4のいずれかに記載のマル
    チモーダル情報システム。
  6. 【請求項6】前記抽出部は、前記音声情報に含まれる前
    記人物の発話内容を前記マルチモーダル構造情報として
    抽出することを特徴とする請求項1及至5のいずれかに
    記載のマルチモーダル情報システム。
  7. 【請求項7】前記マルチモーダル情報及び前記マルチモ
    ーダル構造情報の少なくとも一方を編集する編集部を備
    えることを特徴とする請求項1及至6のいずれかに記載
    のマルチモーダル情報システム。
  8. 【請求項8】前記動画情報、前記音声情報及び前記資料
    情報の少なくとも一つの特定部分を指し示す提示シナリ
    オ入力部と、 前記指し示された特定部分に関する情報を蓄積する提示
    シナリオ蓄積部と、を備えることを特徴とする請求項1
    及至7のいずれかに記載のマルチモーダル情報システ
    ム。
  9. 【請求項9】人物の動画情報、前記人物の音声情報、及
    び前記人物が使用した資料に関連する資料情報を、マル
    チモーダル情報として蓄積するステップと、 前記動画情報、前記音声情報及び前記資料情報に含まれ
    る特徴的な情報をマルチモーダル構造情報として抽出す
    るステップと、 前記マルチモーダル情報についての検索条件を指定する
    ステップと、 前記指定された検索条件に合致するマルチモーダル情報
    を前記マルチモーダル構造情報に基づいて検索するステ
    ップと、を備えることを特徴とするマルチモーダル情報
    検索方法。
JP2002140425A 2002-05-15 2002-05-15 マルチモーダル情報システム及びマルチモーダル情報検索方法 Pending JP2003330935A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002140425A JP2003330935A (ja) 2002-05-15 2002-05-15 マルチモーダル情報システム及びマルチモーダル情報検索方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002140425A JP2003330935A (ja) 2002-05-15 2002-05-15 マルチモーダル情報システム及びマルチモーダル情報検索方法

Publications (1)

Publication Number Publication Date
JP2003330935A true JP2003330935A (ja) 2003-11-21

Family

ID=29701314

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002140425A Pending JP2003330935A (ja) 2002-05-15 2002-05-15 マルチモーダル情報システム及びマルチモーダル情報検索方法

Country Status (1)

Country Link
JP (1) JP2003330935A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006178087A (ja) * 2004-12-21 2006-07-06 Internatl Business Mach Corp <Ibm> 字幕生成装置、検索装置、文書処理と音声処理とを融合する方法、及びプログラム
JP2006293038A (ja) * 2005-04-11 2006-10-26 Toyohashi Univ Of Technology 講義支援システム、講義支援方法及び講義支援用コンピュータプログラム。
KR100785928B1 (ko) 2006-07-04 2007-12-17 삼성전자주식회사 멀티모달 정보를 이용한 사진 검색 방법 및 사진 검색시스템
JP2013525916A (ja) * 2010-04-26 2013-06-20 マイクロソフト コーポレーション コンテンツ検出、検索、および、情報集約によるオンラインビデオの充実

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006178087A (ja) * 2004-12-21 2006-07-06 Internatl Business Mach Corp <Ibm> 字幕生成装置、検索装置、文書処理と音声処理とを融合する方法、及びプログラム
JP2006293038A (ja) * 2005-04-11 2006-10-26 Toyohashi Univ Of Technology 講義支援システム、講義支援方法及び講義支援用コンピュータプログラム。
KR100785928B1 (ko) 2006-07-04 2007-12-17 삼성전자주식회사 멀티모달 정보를 이용한 사진 검색 방법 및 사진 검색시스템
JP2013525916A (ja) * 2010-04-26 2013-06-20 マイクロソフト コーポレーション コンテンツ検出、検索、および、情報集約によるオンラインビデオの充実
US9443147B2 (en) 2010-04-26 2016-09-13 Microsoft Technology Licensing, Llc Enriching online videos by content detection, searching, and information aggregation

Similar Documents

Publication Publication Date Title
US7536300B2 (en) Method and apparatus to determine and use audience affinity and aptitude
Armes Action and Image: dramatic structure in cinema
McKee Sound matters: Notes toward the analysis and design of sound in multimodal webtexts
Harbert American Music Documentary: Five Case Studies of Ciné-Ethnomusicology
Anderson Toward a resonant material vocality for digital composition
Bruti Teaching learners how to use pragmatic routines through audiovisual material
JPWO2018043112A1 (ja) 情報提示装置、および情報提示方法
Pauletto The sound design of cinematic voices
Gaudreault et al. Enunciation and narration
Branigan Soundtrack in mind
Jean-Francois Julius Eastman: The sonority of blackness otherwise
Feaster “The following record”: Making sense of phonographic performance, 1877–1908
JP2003330935A (ja) マルチモーダル情報システム及びマルチモーダル情報検索方法
JP2005321706A (ja) 電子書籍の再生方法及びその装置
Sayad Flesh for the author: Filmic presence in the documentaries of Eduardo Coutinho
Batcho Revisiting the Howard Dean scream: sound exclusivity in broadcast news
Kerry ‘The Birth of the Virtual Choir’: Exploring the multimodal realisation of the Covid-19 liminal space in a YouTube virtual choir performance
Ma There is no soundtrack: Rethinking art, media, and the audio-visual contract
JP2005189846A (ja) 音声制御スクリーンシステム
Friesen The academic lecture (1800–present): subject, medium and performance 1
JPH08235209A (ja) マルチメディア情報処理装置
WO2022209211A1 (ja) 情報処理装置、生成方法、およびプログラム
WO2021235246A1 (ja) 情報処理装置、生成方法、およびプログラム
Capo et al. Interview: Anna Deavere Smith on “fires in the mirror”
Clarke Reviver Voce: the voice, technology, and death

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060602

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060728

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060822