JP4045768B2 - Video processing device - Google Patents

Video processing device Download PDF

Info

Publication number
JP4045768B2
JP4045768B2 JP2001308282A JP2001308282A JP4045768B2 JP 4045768 B2 JP4045768 B2 JP 4045768B2 JP 2001308282 A JP2001308282 A JP 2001308282A JP 2001308282 A JP2001308282 A JP 2001308282A JP 4045768 B2 JP4045768 B2 JP 4045768B2
Authority
JP
Japan
Prior art keywords
data
video data
video
partial
link
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001308282A
Other languages
Japanese (ja)
Other versions
JP2003116095A (en
JP2003116095A5 (en
Inventor
宏樹 吉村
和貴 平田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2001308282A priority Critical patent/JP4045768B2/en
Publication of JP2003116095A publication Critical patent/JP2003116095A/en
Publication of JP2003116095A5 publication Critical patent/JP2003116095A5/ja
Application granted granted Critical
Publication of JP4045768B2 publication Critical patent/JP4045768B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Television Signal Processing For Recording (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、映像処理装置における映像データに対するリンクの提示に関する装置または方法に関し、特に、作業領域を確保して、映像データから部分映像データを抽出し、当該部分映像データに対して、テキスト・データ、音声データ、画像データ、関連資料ファイルデータ、映像データなどをリンク・データの内容として、リンク・データを利用者または利用者間で容易かつ適切に関連付けさせることが可能な映像処理装置および映像処理方法に関する。
【0002】
【従来の技術】
近年、インターネットを介してマルチメディア・データを利用した意思伝達のためのコミュニケーション・ツールや会議システム情報共有が個人や企業において進展している。その中で、従来の印刷物にマーカーやメモの書き込みを行うのと同様にデジタル・ドキュメントやビデオ映像にテキスト注釈を付加するシステムが提案されている。特開平8−272989号公報「映像仕様による資料作成支援システム」では、公報でテキスト情報と映像情報とを関連付けて資料として取り扱うことが可能である。以下、この技術を第1の従来技術と呼ぶことにする。
【0003】
次に、特開2000−250864号公報「協調作業支援システム」では、さまざまな形式の注釈が可能な技術として、プレゼンテーション資料などストリーミング・データに対して、メモや質問などのテキスト・データが付加可能でかつ複数のクライアント間で共有可能である。以下、この技術を第2の従来技術と呼ぶことにする。
【0004】
また、特開平6−274552号公報「マルチメディアデータリンク方式」では、画面に表示されている動画像中の任意エリアまたは一連の動画像データ中の任意画面を指定することにより、当該画面にデータを表示可能である。以下、この技術を第3の従来技術と呼ぶことにする。
【0005】
さらに、Y.Yamamoto,CHI2001「Time-ART」では、ビデオや音声データを視聴中に自由にクリッピングできるユーザ・インターフェイスを備え、テキストによる注釈機能を持ったツールが提案されている。以下、この技術を第4の従来技術と呼ぶことにする。
一方、特開平10−21029号公報「テロップ表示装置」では、テロップを簡単に利用者が作成でき、音声情報や画像情報を付加情報として簡単に追加できる表示装置が存在する。以下、この技術を第5の従来技術と呼ぶことにする。
【0006】
また、従来、ワールド・ワイド・ウェブを閲覧するためのウェブ・ブラウザでホーム・ぺ一ジを閲覧する場合、そのホーム・ぺ一ジにいわゆるイメージ・マップとしてリンク情報が埋め込まれる場合がある。利用者はウェブ・ブラウザで提示されるホーム・ぺ一ジのイメージ・マップを構成している領域上にマウスを移動させ、マウスをクリックすることにより、リンクされている情報にアクセスすることが可能である。以下、この技術を第6の従来技術と呼ぶことにする。
【0007】
特開平8−329096号公報「画像データ検索装置」では、画像データに、付加情報として、その画像の特徴を簡潔に表すアイコンを設定する手段を有し、そのアイコンを1次元以上の軸を有するマップ上の所定の位置に配置し、そのアイコンを用いて係るアイコンに関連する画像データを検索する画像データ検索装置の技術が公開されている。以下、この技術を第7の従来技術と呼ぶことにする。
【0008】
さらに、特開平8−329097号公報「画像データ検索装置」では、画像データに、付加情報として、その画像に対するキーワードを設定する手段を有し、そのキーワードを用いて、画像データを検索する画像データ検索装置の技術が公開されている。以下、この技術を第8の従来技術と呼ぶことにする。
【0009】
また、特開平8−329098号公報「画像データ検索装置」では、1次元以上の軸を有する第1のマップ上の画像データと1次元以上の軸を有する第2のマップ上の付加情報とを関連付けて、画像データを検索することができる画像データ検索装置の技術が公開されている。以下、この技術を第9の従来技術と呼ぶことにする。
【0010】
特開平11−39120号公報「コンテンツ表示・選択装置およびコンテンツ表示・選択方法、並びにコンテンツ表示・選択方法のプログラムが記録された記録媒体」では、HTML文書コンテンツを二次元配列に配置することにより、マウス・ポインタなしでブラウジング(内容の一覧)を可能とする技術が公開されている。以下、この技術を第10の従来技術と呼ぶことにする。
【0011】
【発明が解決しようとする課題】
しかしながら、従来の技術では、以下に示すような種々な問題があった。
まず、上述した第1から第5までの従来システムの共通な問題点として、利用者は映像データの再生中に別の画面に部分映像データを抽出して、当該映像データの内容に、音声データなどから参照しながらリンク・データを付加することができないという問題があった。
【0012】
また、部分映像データに付加したリンク・データについて、部分映像データ上の任意の場所にリンク・データを付加することができず、どこに付加したのか分からないという問題があった。例えば、映像データに、人物と資料などのオブジェクトが複数映っているときに、当該部分映像データに対して、リンク・データを付加する場合、従来技術では、リンク・データのコメントが、どのオブジェクトを指しているか判別できないといった問題があった。
さらに、関連するリンク・データの付加情報を部分画像データの任意指定部分に、複数リンク・データの重ね合わせができないという問題点があった。
【0013】
次に、前記の第6の従来技術では、イメージ・マップを含むHTML文書コンテンツを利用者に提示する場合、利用者がブラウザ内のイメージ・マップを含むHTML文書コンテンツの領域上にマウスを移動しなければ、イメージ・マップの存在を利用者が知ることはできなかった。
【0014】
次に、第7、第8および第9の従来技術は、画像データに対して、アイコンやテキスト・データあるいは付加情報などを関連付けられるものの、利用者に対してリンクの視覚的なフィードバックを与える技術ではなく、同一の画像データに対して、複数のリンクを付加した場合に、利用者に視覚的なフィードバックを与えて、各リンクを区別し、リンクされた情報を利用できるものではない。
【0015】
同じく、第10の従来技術を用いても、利用者はHTML文書コンテンツ中、特に画像データや映像データ中に表現されている人や物など特定領域に関連付けられたイメージ・マップの存在を利用者に提示できないという問題があった。
また、第6から第10までの従来技術のいずれを用いても、映像データ中に表現されている人や物などの特定領域といわゆる電子掲示板システムあるいは電話など通話・通信システムと連携して利用することはできないという問題があった。
【0016】
本発明は、このような従来の課題を解決するためになされたもので、映像データから特定される部分映像データに対して当該部分映像データに関連付けられたデータの存在を提示することに関して有効な映像処理装置などを提供することを目的とする。
【0017】
【課題を解決するための手段】
上記目的を達成するため、本発明に係る映像処理装置では、部分映像データ特定手段が映像データから当該映像データの部分である部分映像データを特定し、データ関連付け手段が特定した部分映像データに対してデータを当該データの存在を提示可能なように関連付ける。
従って、映像データから部分映像データを特定して当該部分映像データに対してデータをその存在が提示可能な態様で関連付けることができ、これにより、当該部分映像データに関連付けられたデータの存在を提示可能とすることができる。
【0018】
ここで、映像処理装置としては、種々な装置として構成されてもよく、例えばコンピュータを用いて構成することができる。
また、映像データとしては、例えば時間的に連続した映像データが用いられ、具体的には、フレーム内の平面的な画像データが時間的に連続して変化していくようなデータが用いられ、この場合、フレーム内の位置を表す座標(横軸及び縦軸)の値と時間軸の値とで映像データ中の一点を示すことができる。
【0019】
また、部分映像データとしては、種々なデータが用いられてもよく、例えば、1つのフレームの画像データや、1つのフレームの画像データ中の特定の対象のデータや、時間幅を有したフレームの画像データつまり時間的に連続した複数のフレームの画像データや、時間幅を有した特定の対象のデータなどを用いることができる。
【0020】
また、部分映像データを特定する仕方としては、種々な仕方が用いられてもよく、例えばユーザからの指定に基づいて特定する仕方や、映像処理装置が予め定められた手順で自動的に特定する仕方や、これら両方を併用する仕方などを用いることができる。
【0021】
また、部分映像データに対して関連付けるデータとしては、種々なデータが用いられてもよく、テキストのデータや、音声のデータや、画像のデータなどを用いることができる。
また、部分映像データに対して関連付けるデータの数としては、単数であってもよく、複数であってもよい。
【0022】
また、本発明に係る映像処理装置では、部分映像データ特定手段は、映像データに含まれる同一の対象のデータについての時間幅を有する部分映像データを特定する。
従って、映像データに含まれる時間幅を有する同一の対象のデータに対してデータを関連付けることができる。
【0023】
ここで、同一の対象のデータとしては、種々な対象のデータが用いられてもよく、例えば人物を対象とするデータや、物を対象とするデータや、フレーム内の所定の領域を対象とするデータなどを用いることができる。なお、同一の対象を特定する仕方としては、種々な仕方が用いられてもよく、例えば静止しているものについては同一の場所に存するものを同一の対象とみなす仕方を用いることができ、動作を行うものについては同一の形状などの特徴を有するものを同一の対象とみなす仕方を用いることができる。
また、時間幅としては、種々な時間幅を用いることができる。
【0024】
また、本発明に係る映像処理装置では、映像データは音声データと対応している。そして、部分映像データ特定手段は、映像データに含まれる単数又は複数の人物のデータについて、当該人物のデータに対応した音声データが有効である時間幅を有する部分映像データを特定する。
従って、単数又は複数の人物を対象として、当該対象に対応した音声が有効である時間幅を有するデータを部分映像データとして特定することができる。
【0025】
ここで、音声データとしては、例えば対応する映像データ中の人物などにより発せられる音声のデータが用いられ、例えば当該映像データと時間軸で対応する。
また、単数の人物のデータについては、例えば当該人物が発するとみなされる音声が連続的に続く間の時間幅或いは所定の閾値未満の無音声期間を除いて当該人物が発するとみなされる音声が連続的に続く間の時間幅などを、当該人物のデータに対応した音声データが有効である時間幅として決定することができる。
【0026】
同様に、複数の人物のデータについては、例えばこれら複数の人物の中の少なくとも一人の人物が音声を発しているとみなされる状態が連続的に続く間の時間幅或いは所定の閾値未満の無音声期間を除いてこのような状態が連続的に続く間の時間幅などを、当該複数の人物のデータに対応した音声データが有効である時間幅として決定することができる。
【0027】
また、本発明に係る映像処理装置では、部分映像データ特定手段は、映像データのフレーム内で部分映像データが位置する領域を特定するデータを用いて当該部分映像データを特定する。
従って、例えばフレーム内での座標位置のデータなどを用いることにより、部分映像データを構成する各フレーム内の画像領域を特定して当該部分映像データを特定することができる。
【0028】
また、本発明に係る映像処理装置では、部分映像データ特定手段は、部分映像データ候補特定手段により複数の部分映像データの候補を特定し、部分映像データ指定受付手段により特定した部分映像データ候補に含まれる部分映像データの指定をユーザから受け付け、そして、指定を受け付けた部分映像データを特定した部分映像データとする。
従って、映像処理装置により自動的に部分映像データの候補を複数特定した後に、これら複数の候補の中からユーザにより部分映像データを指定する仕方により、当該指定された部分映像データを最終的に特定した部分映像データとすることができる。
【0029】
ここで、部分映像データの候補の数としては、種々な数が用いられてもよく、例えば単数である場合があってもよい。
また、部分映像データの候補を特定する仕方としては、種々な仕方が用いられてもよく、例えば映像データのフレーム内に存する各対象毎のデータをそれぞれ部分映像データの候補として特定することができる。
また、部分映像データ指定受付手段としては、例えばユーザにより操作されるキーボードやマウスなどを用いることができる。
【0030】
また、本発明に係る映像処理装置では、関連部分映像データ特定手段が、部分映像データに関連付けられたデータから当該部分映像データを特定する。
従って、例えば部分映像データに関連付けられたデータがユーザにより指定された場合などに、当該データが関連付けられた当該部分映像データを特定することができる。
【0031】
また、本発明に係る映像処理装置では、関連データ提示手段が、部分映像データに関連付けられたデータの存在を示すデータを、映像データ中の当該部分映像データと視覚的に関連付けて提示する。
従って、部分映像データに関連付けられたデータの存在を当該部分映像データと視覚的に関連付けて提示することができ、これにより、当該関連付けられたデータの存在や当該関連付けをユーザに対して視覚的に把握可能とすることができる。
【0032】
ここで、部分映像データに関連付けられたデータの存在を示すデータとしては、例えばアイコンのデータを用いることができ、また、後述するように種々なデータを用いることができる。
また、部分映像データに関連付けられたデータの存在を示すデータと当該部分映像データとを視覚的に関連付ける仕方としては、種々な仕方が用いられてもよく、例えばこれらのデータを近隣に配置する仕方や、これらのデータの一部を重ねて配置する仕方などを用いることができる。
また、提示の仕方としては、例えば画面に表示出力する仕方や、紙面に印刷出力する仕方などを用いることができる。
【0033】
また、本発明に係る映像処理装置では、関連データ提示手段は、部分映像データに関連付けられたデータの存在を示すデータとして、当該部分映像データの形状に基づく形状を有するデータを提示する。
従って、部分映像データの形状に基づく形状を有するデータを提示することにより、当該データと当該部分映像データとの関連付けをユーザにより視覚的に把握し易くすることができる。
【0034】
ここで、部分映像データの形状に基づく形状を有するデータとしては、種々なデータが用いられてもよく、例えば部分映像データの形状に基づく形状を有する影のデータなどを用いることができる。
【0035】
また、本発明に係る映像処理装置では、関連データ提示手段は、部分映像データに関連付けられたデータの存在を示すデータとして、映像データのフレームの外側であって当該フレームの外側に設けられた枠の内側に、当該部分映像データのフレーム内での水平位置を示すデータ及び垂直位置を示すデータを提示する。
従って、映像データのフレーム内ではなくフレーム外に設けられた枠に、部分映像データに関連付けられたデータの存在を示すデータが提示されるため、フレーム内の画像をそのまま見易いものとすることができる。また、提示されるデータにより、部分映像データのフレーム内での水平位置及び垂直位置を示すことができる。
【0036】
映像データのフレームの外側に設けられた枠としては、種々な枠が用いられてもよく、例えば映像データのフレームと比べて一回り大きいような枠が用いられ、当該フレームの外側であって当該枠の内側には映像データは提示されない。
また、部分映像データは、その水平位置での垂直線とその垂直位置での水平線とが直交する位置に存することとなる。
【0037】
また、本発明に係る映像処理装置では、部分映像データに関連付けられたデータの存在を示すデータと所定の処理とが対応付けられている。そして、提示データ指定受付手段が提示されたデータ(部分映像データに関連付けられたデータの存在を示すデータ)の指定をユーザから受け付け、提示データ対応処理実行手段が指定を受け付けたデータに対応付けられた処理を実行する。
従って、ユーザは、提示されたデータを指定することにより、当該データに対応付けられた処理を実行させることができる。
【0038】
ここで、所定の処理としては、種々な処理が用いられてもよく、例えば提示されたデータに関連する文書処理やメールやインターネットなどに関するプログラムを起動する処理や、これにより提示されたデータに関連するデータを表示や送信などする処理などを用いることができ、更に具体的には、例えば提示されたデータに関連するデータを画面上に表示する処理や、当該データを電子メールにより設定されたアドレスに対して送信する処理や、当該データを電話により設定された電話番号に対して音声送信する処理などを用いることができる。
また、提示データ指定受付手段としては、例えばユーザにより操作されるキーボードやマウスなどを用いることができる。
【0039】
また、本発明に係る映像処理装置では、複数の端末装置により同一の映像データに関する操作を実行することが可能である。
従って、例えば一つの端末装置(例えば一人のユーザ)により同一の映像データに関する操作を実行することばかりでなく、複数の端末装置(例えば複数のユーザ)により同一の映像データに関する操作を実行することができ、これにより、同一の映像データに関する部分映像データや当該部分映像データに関連付けられるデータなどを共有することや共同で編集することなどができる。
【0040】
ここで、端末装置としては、種々な装置が用いられてもよく、例えばコンピュータを用いることができる。
また、複数の端末装置の数としては、種々な数が用いられてもよい。
また、同一の映像データに関する操作としては、種々な操作が用いられてもよく、例えば映像データから部分映像データを特定する操作や、特定された部分映像データにデータを関連付ける操作などを用いることができる。
【0041】
また、一構成例として、複数の端末装置は有線や無線のネットワークなどを介して通信可能に接続され、これら複数の端末装置によりアクセス可能な共通の記憶装置が設けられて、当該記憶装置に操作対象となるデータが保存される。
【0042】
また、本発明に係る映像処理装置では、複数関連データ提示手段が、映像データから特定された当該映像データの部分である部分映像データに関連付けられた複数のデータの存在を示すデータを、当該映像データ中の当該部分映像データと視覚的に関連付けて提示する。
従って、部分映像データに関連付けられた複数のデータの存在を当該部分映像データと視覚的に関連付けて提示することができ、これにより、当該関連付けられた複数のデータの存在や当該関連付けをユーザに対して視覚的に把握可能とすることができる。
【0043】
ここで、部分映像データに関連付けられた複数のデータの数としては、種々な数が用いられてもよい。
また、部分映像データに関連付けられた複数のデータの存在を示すデータとしては、例えば部分映像データに単数のデータが関連付けられた場合とは異なるデータが用いられ、更に好ましい態様例として、部分映像データに関連付けられた複数のデータの数を表すデータが用いられる。
【0044】
また、本発明に係る映像処理装置では、複数関連データ提示手段は、部分映像データに関連付けられた複数のデータの存在を示すデータとして、当該関連付けられたデータの数と同数のデータを提示する。
従って、部分映像データに関連付けられたデータの数をユーザにより視覚的に把握可能に提示することができる。
【0045】
ここで、部分映像データに関連付けられたデータの数と同数のデータとしては、好ましい態様例としてそれぞれが同一又は類似の形状を有するデータを用いることができ、或いは、例えばそれぞれが異なる形状を有するデータが用いられてもよい。
【0046】
また、本発明に係る映像処理装置では、複数関連データ提示手段は、部分映像データに関連付けられた各データの存在を示すデータを当該関連付けられた各データ毎に識別可能な態様で提示する。
従って、部分映像データに関連付けられた各データ毎に、その存在を示すデータをユーザにより視覚的に識別可能とすることができる。
【0047】
ここで、部分映像データに関連付けられた各データ毎にその存在を示すデータが識別可能な態様としては、例えば当該各データ毎にその存在を示すデータの形状や色や輝度や配置位置などを異ならせるような態様を用いることができる。
【0048】
なお、以上に示した本発明と同様に同一の画像のデータに関連付けられた複数のデータの存在を示すデータを当該画像データと視覚的に関連付けて提示する技術や当該複数と同数のデータを提示する技術や当該各データ毎に識別可能とする技術などは、必ずしも映像データから特定された部分映像データに限られずに、種々な画像データに適用することが可能であり、例えば当該画像データとして静止画像のデータに適用することも可能である。
【0049】
また、本発明では、以上に示したような各種の処理を実現する映像処理方法を提供する。
例えば、本発明に係る映像処理方法では、映像データから当該映像データの部分である部分映像データを特定し、特定した部分映像データに対してデータを当該データの存在を提示可能なように関連付ける。
また、本発明に係る映像処理方法では、映像データから特定された当該映像データの部分である部分映像データに関連付けられた複数のデータの存在を示すデータを、当該映像データ中の当該部分映像データと視覚的に関連付けて提示する。
【0050】
また、本発明では、以上に示したような各種の処理を実現するプログラムを提供する。なお、本発明では、このようなプログラムを格納した記憶媒体を提供することも可能である。
例えば、本発明に係るプログラムでは、映像データから当該映像データの部分である部分映像データを特定する処理と、特定した部分映像データに対してデータを当該データの存在を提示可能なように関連付ける処理とをコンピュータに実行させる。
また、本発明に係るプログラムでは、映像データから特定された当該映像データの部分である部分映像データに関連付けられた複数のデータの存在を示すデータを当該映像データ中の当該部分映像データと視覚的に関連付けて提示する処理をコンピュータに実行させる。
【0051】
【発明の実施の形態】
本発明に係る実施例を図面を参照して説明する。
まず、本発明の第1実施例に係る映像処理装置や映像処理方法を説明する。
図1は、本発明に係る映像処理装置の一例を示すブロック図である。映像処理装置1は、記憶部11と、リンク対象領域指定部12と、リンク生成部13と、映像提示部14と、リンク管理部15とから構成される。
【0052】
記憶部11は、一般的な記憶装置から構成され、リンク(関連付け)される一方の対象となる映像データ(以下、単に映像データと記述することもある)およびリンク・データ(関連付けに関するデータ)並びにリンクされるもう一方の対象となる被リンク・データを保持する。
リンク対象領域指定部12は、マウスやデジタイザなどの座標入力装置から構成され、利用者(ユーザ)から映像データ中のリンク対象となる領域の座標データ(以下、リンク対象領域座標データと記述することもある)を入力し、係るリンク対象領域座標データをリンク生成部13に出カする。
【0053】
リンク生成部13は、利用者からダイアログ形式のユーザ・インタフェースによって入カされる被リンク・データの識別子あるいは名前を入力する。また、リンク生成部13は、リンク対象領域指定部12から入カされたリンク対象領域座標データと利用者から入力された被リンク・データとをリンクしてリンク・データとして記憶部11に出力する。
映像提示部14は、ディスプレイから構成され、視覚化されたリンク・データおよび映像データを利用者に提示する。
リンク管理部15は、記憶部11、リンク対象領域指定部12、リンク生成部13、映像提供部14を管理し、制御する。
【0054】
本例では、映像データは、動画データおよび音声データが組み合わされたデータ、または、動画データまたは音声データのいずれか一方のデータを意味することとして、説明を行う。また、本例では、部分映像データは、映像データ中の時間的または空間的(領域的)な一部分のデータを意味する。
なお、本発明に言う映像データは、例えば画像のみのデータから構成され、また、例えば当該画像データに対して音声などのデータが対応付けられる場合も含む。
【0055】
図2は、図1の映像処理装置を詳細化したブロック図である。
図2に示すように、記憶部11は、映像記憶装置21およびリンク・データ記憶装置26から構成される。リンク対象領域指定部12は、(任意)部分映像データ指定装置23および部分映像データ提示装置24から構成される。リンク生成部13は、リンク・データ付加装置25から構成される。映像提示部14は、映像データ提示装置22、部分映像データ提示装置24、およびリンク・データ提示装置27から構成される。
【0056】
映像記憶装置21は、一般的なメモリで構成され、入力された映像データを保持する。
映像データ提示装置22は、ディスプレイで構成され、映像記憶装置21に保持されている映像データを利用者に提示する。
【0057】
部分映像データ指定装置23は、マウスなどの座標入カ装置によって構成され、映像データ提示装置22によって提示されている映像データの任意の一部を指定し、その指定された部分映像データを、部分映像データ提示装置24に転送する。
部分映像データ提示装置24は、部分映像データ指定装置23から転送された部分映像データを提示する。
【0058】
リンク・データ付加装置25は、部分映像データ提示装置24によって提示されている部分映像データに対して、リンク・データを付加し、リンク・データ記憶装置26に転送する。
リンク・データ記憶装置26は、リンク・データ付加装置25によって付加されたリンク・データ、及び部分映像データを保持する。
リンク・データ提示装置27は、リンク・データ付加装置25によって付加されたリンク・データならびにリンク・データ群を提示する。
【0059】
ここで、映像データ中の任意の部分映像データの抽出について説明する。
映像データから部分映像データを抽出する形態としては、利用者が映像データ処理装置1の提供するユーザ・インタフェースを通して、人手で部分映像データの画像上の外形(輪郭)もしくは外接矩捗を指定することによって部分映像データを抽出する方法や、映像処理装置1により自動的に抽出された部分映像データの侯補を利用者が選択する方法などの形態がある。
【0060】
ここでは、映像処理装置1が自動的に部分映像データの候補を抽出する場合における部分映像データの抽出方法について説明する。
部分映像データを抽出するべき映像データが図3に示されるような場合を想定する。つまり、映像データ(Video.mpg)31の或るフレーム(本例では、フレーム番号120から150までの31フレーム)のフレーム上の矩形領域(x-y直交座標の表現で{(1O,30),(1O,10),(20,10),(20,30)})の内部に部分映像データの候補として抽出されるべき人が記録されているとする。なお、同図には、水平方向を表すx座標の軸と、垂直方向を表すy座標の軸と、時間の流れを表す時間tの軸を示してある。
【0061】
この部分映像データ抽出手続きは、図4に示すように、各フレームにおける輪郭抽出処理(ステップS1)、各フレームにおける外接矩形計算処理(ステップS2)、フレーム間差分算出処理(ステップS3)、部分映像データ検出処理(ステップS4)、部分映像データ候補提示処理(ステップS5)からなる。
【0062】
具体的には、まず、各フレームにおける輪郭抽出処理では、部分映像データの矩形領域を特定するために、映像処理装置1は、映像データ31中の各フレームにおいて輪郭抽出処理を行う(ステップS1)。輪郭抽出は、通常の画像処理で用いられるいわゆる微分フィルタを用いることにより人の画像のエッジを抽出し、そのエッジを連結することで輪郭を抽出することが可能である。また、輪郭抽出処理によって、人が複数の小領域に分割されている場合でも、従来の領域分割・統合処理によって人単位の領域(輪郭)を抽出することが可能である。
【0063】
次に、この人単位の輪郭を抽出した後、各フレームにおける外接矩形計算処理において当該輪郭を包含する外接矩形33を算出する(ステップS2)。ここで、この外接矩形算出処理によって、フレーム番号120から150までの31フレームにおいて、フレーム上の座標表現で{(10,30),(10,10),(20,10),(20,30)}の外接矩形33を計算することができる。
【0064】
続いて、フレーム間差分算出処理および部分映像データ検出処理において、各フレームを比較して、同一の部分映像データ中の人を単一のオブジェクト(部分映像データ)として取り扱えるか否かの検査を行う(ステップS3、ステップS4)。つまり、MPEG2などで用いられているような各フレーム間のフレーム差分を計算することによって、或るフレームと次のフレームで記録されているものが同一か否かを判断する。
【0065】
具体的には、フレーム間差分算出処理において(ステップS3)、フレーム番号119のフレームとフレーム番号120とのフレーム差分では、フレーム番号119のフレームには人が記録されず、フレーム番号120のフレームには人が記録されているため、フレーム差分の結果(例えば、各画素の差分の総和)は大きな値を持つことになる。同じように、フレーム番号150のフレームとフレーム番号151のフレームとのフレーム差分も大きな値を持つことになる。それに対して、フレーム番号120から150までのフレームでは、先の同一の矩形領域33に人が記録されているため、そのフレームにおけるフレーム差分は小さな値を持つ。
【0066】
部分映像データ検出処理において(ステップS4)、以上のフレーム差分の値と矩形領域33が存在するか否かの情報から、フレーム番号120から150までのフレームには、部分映像データの候補となる人が記録されていることが分かる。
そこで、部分映像データ候補提示処理において、それらのフレームの当該矩形領域33の部分を単一の部分映像データ32として映像処理装置1の利用者に提示する。
【0067】
次に、図5に示すように、本例に係る映像処理装置1の処理手順について説明する。
この処理手順は、映像の提示(ステップS11)、部分映像の指定(ステップS12)、部分映像の提示(ステップS13)、リンク・データ付加(ステップS14)、およびリンク・データ保存(ステップS15)からなる。
【0068】
まず、映像提示においては、映像データ提示装置22は映像処理装置1の映像記憶装置21に保持されている映像データを提示する(ステップS11)。
次に、部分映像の指定においては、部分映像データ指定装置23を使って利用者によって指定される映像データのいわゆるタイム・コードまたはフレーム番号、および座標データを取得する(ステップS12)。
【0069】
続いて、部分映像の提示においては、部分映像データ提示装置23は、利用者によって指定された部分映像データを提示する(ステップS13)。
リンク・データ付加においては、利用者は部分映像データ提示装置23により提示された部分映像データに対して、リンク・データ付加装置25を使って、関連するデータ(リンク・データ)を付加する(ステップS14)。
最後に、リンク・データ保存においては、リンク・データ記憶装置26は、利用者によって付加されたリンク・データ、および映像データのいわゆるタイム・コードまたはフレーム番号、および座標データを保持する(ステップS15)。
【0070】
図6は、リンク・データ記憶装置26に記憶されるデータのデータ構造を示す。また、図7は、リンク・データ記憶装置26に記憶されるデータの拡張されたデータ構造を示す。
リンク・データ記憶装置26は、部分画像データのタイム・コード41を保持し、リンク・データ付加装置25によって入力された被リンク対象データ43、部分映像データ提示装置24で指定された任意の座標データ42、記憶装置名44、部分画像アイコン・データ45を格納し、拡張されたデータ構造では、更に、協調作業などを行うために利用者データ46を格納する。
【0071】
例えば、タイム・コード41には、或るフレームの静止画像部分からリンク・データが付加される場合は、部分映像データ提示装置24の映像データのその地点のタイム・コードが記録される。また、「ここからここまで」という指定の場合は、リンク・データを付加する開始点と終了点の情報がタイム・コード41に記録される。
【0072】
座標データ42は、部分映像データ提示装置24に、リンク対象領域座標として(x1,y1)、(x1,y2)、(x2,y2)、( x2,y1)の2次元座標を与え、マウスなどの入力装置によってプロットされたテキスト・データや部分画像アイコンを、(x1,y1)、(x1,y2)、(x2,y2)、(x2,y1)として、リンク対象領域座標の2次元座標値を保持する。
被リンク対象データ43は、コメントや電子データファイルの情報や、テキスト・データやファイル格納先の情報を保持する。
【0073】
次に、図8の本例に係るユーザ・インタフェース例を用いて操作手順について説明する。
利用者は、映像データ提示画面51に提示されている映像から、リンク・データを付加したい部分映像を指定することにより、部分映像データ提示画面52に、指定した部分映像が映し出される。
【0074】
部分映像データ提示画面52上の利用者が指定した任意の場所において、リンク・データ付加画面53から、当該提示画像に複数のテキスト・データによるコメントや電子データファイルを部分画像アイコン61a〜61cとして付加することが可能である。この場合、図6や図7が示すとおり、リンク・データが付加される指定時間をタイム・コード41で保存し、部分映像データ提示画面52上のどの部分に利用者がリンク・データを付加したかを示す場所情報を座標データ42で保持し、付加したテキスト・データによるコメントや電子データファイルを被リンク対象データ43として保持して、これら3つを1つのデータとして保持するデータ構造を持つ。
【0075】
図9は、部分映像データにリンク・データが付加された後のデータ構造を示す。
図9は、タイム・コード(00:01:00.00)において、3つのリンク・データ(「質問について」ならびに「このコメントがポイント」のコメント(テキスト・データ)と“abc.mpg"という名称の関連映像データ)を保持していることを示す。このように、指定した任意の部分映像データ毎にデータが保持されているので、一時的に付加されたリンク・データを部分映像データ上から消去することも可能な構造を持つ。
【0076】
また、保管先として、記憶装置先を指定できる。これは、リンク・データを付加した映像データを記憶装置名44のように公開(Public)サーバまたは非公開(Private)サーバに保管する場合、および複数の利用者間で同一の映像データに対して協調してリンク・データの付加作業を行う場合に利用される。
【0077】
さらに、図8に示されるように、部分映像データ提示画面52上の指定した任意の領域に同一の関連したデータとしてリンク・データを付加する場合、テキスト・データのコメントや関連電子データなどのリンク・データの重ね合わせが可能である。ここでは、座標位置に対して、アイコンやコメントが重なるだけでなく、関連したリンク・データをグループとして登録することも可能である。図9のリンク・データの“*"を付したものが、グループ化された情報で保持される。
【0078】
図10に示すように、部分映像データ提示画面52上の人物のオブジェクト71や場所のオブジェクト72に対してリンク・データを付加した場合、当該オブジェクト71、72にリンク・データを付加するとメッセージを送ることが可能である。
例えば、人物71に対してリンク・データを付加する場合は、人物用メッセージ送付用リンク・データ73を用いる。これによると、会議を行った映像データに対して或る参加者に質問するには、利用者は、部分映像データ提示画面上に表示される参加者に対してコメントと電子メールアドレスを付加することにより、当該参加者にメッセージを送ることが可能である。また、当該メッセージを送付する場合、コメントのみならず利用者がリンク・データを付加した当該リンク・データも送付することが可能である。これにより、どのような状況での質問であるかや、指定時間やその場の状況を端的かつ適切に把握することが可能となる。
【0079】
また、場所のオブジェクトに対してリンク・データを付加する場合は、場所空間用メッセージ送付用リンク・データ74を用いる。利用方法としては次のような想定をしている。すなわち、指定した任意の部分映像データが重要な人物のコメントを保持していて、その情報を未来の会議で利用したい場合に、会議が行われる場所に対して電子メールのようなメッセージサービスを利用してデータを送付する。実際に利用するときは、当該場所にある端末または利用者の端末を利用して開示する。
【0080】
被リンク対象データ提示画面54には、当該映像データの中で利用者によって付加されたリンク・データ付きの部分映像データ提示画面62a〜62eが複数提示されている。また、被リンク対象データ提示画面54に提示されたリンク・データ群として、当該映像データから抽出したリンク・データのみならず、当該映像データ以外のリンク・データも指定可能である。
【0081】
次に、複数の利用者間でネットワークを介して映像データやリンク・データを付加する手順について説明する。
図11は、複数の利用者間で利用する場合に主に利用される装置およびユーザ・インタフェースの一例を示す。
利用者Aおよび利用者Bは、映像記憶装置21から映像データを取り出して、リンク・データを付加する任意の部分映像データを指定する。
【0082】
図11では、同じ部分映像データに対して、利用者Aは、リンク・データ付加用入カダイアログ(リンク・データ付加画面)53を用いて、1個のリンク・データ「この人はX氏」を付加し、利用者Bは、リンク・データ付加用入カダイアログ53を用いて、2個のリンク・データ「この会話の関連映像」(テキスト・データ)と“xyz.mpg"(映像データ)を付加することを示している。これらデータは、リンク・データ記憶装置26に保持される。そのデータ構造は図12で表され、利用者Aおよび利用者Bのタイム・コードや座標データなどがそれぞれ保持されている。図13は、利用者Aおよび利用者Bが付加したリンク・データを表現する部分画像アイコン81a、83a〜83cを同時に提示したイメージ図を示す。なお、各利用者A、Bの被リンク対象データ提示画面53には、それぞれのリンクデータ付きの部分画像データ82a〜82c、84a〜84dが示される。
【0083】
また、事前に利用者Aがリンク・データを付加する部分映像データを指定して、後で利用者Bに対して、当該部分映像データの存在場所を電子メールなどで伝えて、リンク・データを付加するような、非同期的な協調作業が可能である。さらに、利用者単体もしくは複数の利用者間で、リンクデータ記憶装置26にアクセスして、事前に作成した部分映像データやリンク・データの再編集が可能である。
【0084】
また、利用者単体または複数の利用者間で、リンク・データを付加、保持ならびに提示可能とするために、図14のような構成を用いることが可能である。この構成では、利用者Aの端末装置と、利用者Bの端末装置と、利用者間で共有されるリンク・データ記憶装置98と、利用者間で共有される映像記憶装置97とがネットワークを介して接続されている。また、各利用者A、Bの装置には、それぞれ、映像データ提示装置91a、91bと、(任意)部分映像データ指定装置92a、92bと、部分映像データ提示装置93a、93bと、リンク・データ付加装置94a、94bと、リンク・データ提示装置95a、95bと、リンク・データ記憶装置96a、96bとが備えられている。
【0085】
図15および図16を参照して、被リンク対象データと映像データで構成される事前に作成した映像データ1と映像データ2を再利用して合成された映像データを作成する場合について説明する。
図15は、映像データ101に被リンク対象データ102がリンクされている様子を示す。
【0086】
図16は、本例の映像処理装置1を用いて、映像データを再利用して編集する例を示す。
或る会議が開催される前に会議の主催者などは、これまでの経緯を短時間のうちに理解ならびに参加者間で共有するために、この会議に関連する事前に作成した映像データ1と映像データ2にアクセスして、個々の被リンク対象データ114a、115a、115b、116a〜116c、124a、125a〜125c、126aである会議議事録や資料を閲覧しながら、複数ある映像データ111〜113、121〜123の中からもっとも関連する映像データを取り出して並べ替えなどの編集を行って、合成された映像データを制作することが可能である。
【0087】
続いて、映像データからリンク・データの対象となる映像フレームを自動抽出する処理について説明する。
リンク・データ付加装置25は、前述のとおり利用者が部分映像データを指定することを可能とする以外に、指定した任意の部分映像データの後の映像データ中の動画データや当該動画データ中の動画オブジェクトならびに音声データを解析して、リンク・データを指定した部分映像データの当該フレーム上で、同一人物の発言と推定される部分音声データならびに複数の人物間の対話で同一の内容であると推定される部分音声データを抜き出して、抜き出した部分音声データに対応した部分の映像データ(部分映像データ)とリンク・データを付加する。
【0088】
例えば、図17は、同一人物の発言推測の開始点と終了点を抽出する一例である。
この場合、時間tの軸に対して連続した複数のフレームF1〜F7の中で、被リンク対象データを付加したいフレーム(例えば、フレームF1或いはフレームF4)の音声データが次のフレーム(例えば、フレームF2或いはフレームF7)をまたがっていてそして音声データが途切れるところまでを発言推測箇所T1、T2として提示して、その音声データの開始点と終了点にあたる映像フレームを被リンク対象データを付加するフレームとする。
【0089】
図18は、複数の人物間の対話推測の開始点と終了点を抽出する一例である。この場合も、時間tの軸に対して連続した複数のフレームF11〜F17の中で、図17の場合と同様に、対話推測箇所T11〜T14を抽出する。ただし、本例では、この場合には、対話中に生じる会話T21、T22の間の部分の時間をΔtとして、図19に示すとおり、当該Δtが或る一定の間隔より短ければ、これを同一の対話部分と推測する。
【0090】
次に、本発明の第2実施例に係る映像処理装置や映像処理方法を説明する。
なお、本例の映像処理装置1の概略的な構成や動作は、例えば上記した第1実施例で示したものと同様であり、本例では、異なる部分について詳しく説明する。
【0091】
図20は、本例に係るリンク・データのデータ構造の一例を示すブロック図である。
本例のリンク・データは、識別子131、映像データのファイル名132、フレーム開始番号133、フレーム終了番号134、リンク対象領域座標135、被リンク対象データ名(例えばURL)136、および視覚的フィードバック・データ137から構成される。
【0092】
識別子131は、リンク・データ自身を区別するためのデータであり、リンク管理部15によって、リンク・データ毎に割り当てられる。
映像データのファイル名132は、リンクの対象となる映像データを特定する。
フレーム開始番号133は、係る映像データのリンク対象となるフレームの開始番号である。
フレーム終了番号134は、係る映像データのリンク対象となるフレームの終了番号である。
【0093】
リンク対象領域座標135は、利用者によって指定される映像データ中のリンク対象となる座標データである。
被リンク対象データ名136は、係る映像データにリンクされるデータの名前である。
視覚的フィードバック・データ137は、映像データに対してリンクが存在することを利用者に視覚的にフィードバックするために利用されるデータである。
【0094】
ここで、識別子131は、リンク管理部15によって設定される。
映像データ名132、フレーム開始番号133、フレーム終了番号134、およびリンク対象領域座標135は、リンク対象領域指定部12によって利用者から入カされる。
また、被リンク対象データ名136は、リンク生成部13によって利用者からダイアログ形式のユーザ・インタフェースを使って入力される。
視覚的フィードバック・データ137は、リンク生成部13によって生成される。
【0095】
図21は、本例に係る主要なユーザ・インタフェースを示す図である。
主要なユーザ・インタフェース141は、映像提示画面142、映像再生ボタン143、映像停止ボタン144、リンク開始ボタン145、リンク終了ボタン146、被リンク対象データ名入カダイアログ147から構成される。
【0096】
映像提示画面142は、記憶部11に保持されている映像データを利用者に対して提示する。
映像再生ボタン143は、利用者がマウスなどでクリックすることにより、係る映像データの再生を開始することを可能とする。
映像終了ボタン17は、利用者がマウスなどでクリックすることにより、係る映像データの再生を停止することを可能とする。
【0097】
リンク開始ボタン145は、利用者がマウスなどでクリックすることにより、リンクされるべき係る再生中の映像データの開始フレームを指定することを可能とする。
リンク終了ボタン146は、利用者がマウスなどでクリックすることにより、リンクされるべき係る再生中の映像データの終了フレームを指定することを可能とする。
被リンク対象データ名入カダイアログ147は、利用者が係る映像データに対して、リンクされるべき被リンク対象データ名をダイアログを通して入力することを可能とする。
【0098】
図22は、本例の映像処理装置1のリンク付け処理の一例を示すフローチャート図である。
図22に示すように、リンク付け処理は、初期化処理(ステップS21)、映像再生検知処理(ステップS22)、リンク開始検知処理(ステップS23)、リンク終了検知処理(ステップS24)、リンク対象領域定義処理(ステップS25)、被リンク対象入力処理(ステップS26)、リンク生成処理(ステップS27)、リンク提示処理(ステップS28)、および映像停止検知処理(ステップS29)から構成される。
【0099】
続いて、図22のフローチャート図を用いて、本例の映像処理装置1の処理手順を説明する。
まず、初期化処理においては、映像処理装置1の記憶部11、リンク対象領域指定部12、リンク生成部13、映像提示部14、およびリンク管理部15の各部が初期化される(ステップS21)。
【0100】
つまり、まず、リンク管理部15によってリンク・データが生成され、初期化される。具体的には、ダイアログ入力を用いるなどして、記憶部11に保持されている利用する映像データのファイル名を映像データ名132の値としてリンク・データに設定する。また、リンク・データの識別子131は、リンク管理部15により、当該映像処理装置1に固有な識別子が設定される。リンク・データのフレーム開始番号133およびフレーム終了番号134は既定値として0などの値がリンク管理部15によって設定される。同じく、リンク・データのリンク対象領域座標135、被リンク対象データ名136、および視覚的フィードバック・データ137の既定の値がリンク管理部15によって設定される。リンク管理部15によって生成されたリンク・データは記憶部11によって保持される。
【0101】
次に、映像再生検知処理においては、利用者によって指定された映像データに対して、利用者からのマウスまたはタブレットを使用した映像再生ボタン143のクリックを検知することによって再生を開始する(ステップS22)。
続いて、リンク開始検知処理においては、リンク管理部15は、利用者からのリンク開始ボタン145のクリックを検知することにより、映像データに対するリンク領域を定義するためのフレーム開始番号を決定し、その値をリンク・データのフレーム開始番号133として設定する(ステップS23)。
【0102】
続いて、リンク終了検知処理においては、リンク管理部15は、利用者からのリンク終了ボタン146のクリックを検知することにより、映像データに対するリンク領域を定義するためのフレーム終了番号を決定し、その値をリンク・データのフレーム終了番号134として設定する(ステップS24)。ここで、リンク管理部15は、映像データの再生を一時停止する。
【0103】
リンク対象領域定義処理においては、リンク管理部15は、まず、利用者に対して、映像提示画面142にリンク対象領域の定義が可能であることを、そのメッセージと映像データを重ね合わせるなどして通知する。また、リンク対象領域指定部12は、利用者からのマウスによる指定によって映像提示画面142に提示されている映像データのリンク対象となる領域の座標データを取得する。ここで、リンク対象領域指定部12は、利用者の指定した領域を白線で囲むなどの視覚的フィードバックを利用者に与える。リンク対象領域指定部12は、利用者から取得したリンク対象領域を定義する座標データ(以下、リンク対象領域定義座標データと記述することもある。)を、記憶部11に保持されているリンク・データのリンク対象領域座標135の値として設定する(ステップS25)。
【0104】
被リンク対象入力処理においては、リンク管理部15は、利用者から被リンク対象データ名入カダイアログによって指定される被リンク対象データ名を取得し、記憶部11に保持されているリンク・データの被リンク対象データ名136の値として設定する(ステップS26)。
リンク生成処理においては、リンク生成部13は、記憶部11に保持されているリンク・データのリンク対象領域座標135の値およびフレーム開始番号133からフレーム終了番号134までに対応する映像データから、利用者に対する視覚的フィードバック用の画像データおよび関連座標データを生成する。当該画像データおよび関連座標データをリンク・データの視覚的フィードバック・データとして設定する(ステップS27)。
【0105】
リンク提示処理においては、リンク・データの視覚的フィードバック・データ137の関連座標データを用いて、映像データに係る画像データを重ね合わせて映像提示画面142に提示する(ステップS28)。
映像停止検知処理においては、利用者が映像停止ボタンをマウスでクリックしたか否かを検知し、クリックした場合においては、映像データの提示を停止し、リンク付け処理を終了する(ステップS29)。一方、クリックをしていない場合においては、再度、リンク開始検知処理以降の処理を行う(ステップS23〜ステップS29)。
【0106】
ここで、図23から図31を用いて、リンク対象領域定義処理(ステップS25)およびリンク生成処理(ステップS27)を詳述する。
図23は、部分映像データとしてリンクされる映像オブジェクト(文字「Y」のロゴ)151の例を示す。
この図23は、記憶部11に保持されているフレーム開始番号133からフレーム終了番号134までに対応する映像データ(各フレームにおいては、静止画像データ)を示す。
【0107】
図24は、利用者によるマウス操作によって、当該映像オブジェクト151が選択されている様子を枠152によって映像提示画面142を使って利用者に提示している図を示す。
図25は、当該映像オブジェクト151を画像処理により斜めに倒した映像オブジェクト153の図を示す。
図26は、図25の斜めにされた映像オブジェクト153をエッジ抽出(境界抽出)および色変換の画像処理により影データ154を生成した図を示す。
【0108】
図27は、図23のオリジナルの映像オブジェクト151と図26の影データ154とを合成した図を示す。
図28は、映像提示画面142を使って利用者に提示すべき領域を図27のデータから抽出した図を示す。
【0109】
リンク対象領域定義処理(ステップS25)では、前述したように、まず、映像オブジェクトに対してリンク付け可能であることを、映像提示画面142の枠の色を変更するあるいはリンク開始ボタン145の色を変更するなどして、利用者に通知する。
次に、利用者は映像提示画面142に提示されている図23の映像オブジェクト151を参照しつつ、マウスを操作して、リンク付けを行うべき映像オブジェクト(ここでは、「Y」のロゴ)151を選択する。選択結果は、図24に示す枠152で示される。
【0110】
この枠152を表現する座標(例えば、左上角および右下角の座標)はリンク対象領域定義座標データとして、記憶部11に保持されているリンク・データのリンク対象領域座標135に設定される。
続いて、リンク生成処理においては(ステップS27)、図24の画像を射影変換するなどの画像処理を行い図23のオリジナルの映像オブジェクト151と区別可能にする。さらに、斜めにされた映像オブジェクト153に対する微分フィルタを用いた輪郭抽出などをして、映像オブジェクト153と背景の境界を決定し、映像オブジェクト153の領域の色変換を行うことによって、影データ154を生成する。
【0111】
さらに、図23のオリジナルの映像オブジェクト151と生成した影データ154を合成することによって図27の画像を得る。
最後に、利用者に対して映像提示画面142に提示すべき領域のクリッピング処理を行うことによって視覚的フィードバック・データ137を生成する。当該クリッピングされた影データ155の背景ないしオリジナルの映像オブジェクト151との境界の座標値を関連座標データとして、影データ154とともに記憶部11において保持されている視覚的フィードバック・データ137として設定する。続いて、リンク生成処理では(ステップS27)、図28の映像を映像提示画面142に提示する。
【0112】
ここで、1つの映像オブジェクトに複数のリンク付けをする場合のリンク生成処理(ステップS27)について説明する。
1つの映像オブジェクトに対してリンク付けを複数行う場合には、図29に示すように、異なる角度で斜めにした映像オブジェクトを複数生成し、影の色を変更するなどしてそれぞれの影データ156a、156bを生成することにより、利用者にそれぞれのリンクを区別可能とする。その影データ156a、156bを図30に示すように図23のオリジナルの映像データ151と重ね合わせ、さらに図31のようにクリッピング処理を行うことによって、当該クリッピング処理後の映像157a、157bを用いて視覚的フィードバック・データ137を生成する。
【0113】
続いて、利用者が視覚的フィードバックによって提示されている影データをマウスによって指定することでリンク対象提示を指示した場合のユーザ・インタフェースの様子について説明する。
まず、映像提示画面142に提示されている映像オブジェクトにリンクが関連付けられている場合、前述したように影データが重ね合わせて表示されている。利用者がマウスを用いてこの影データをクリックした場合、リンク管理部15は、リンク・データ中の識別子131、映像データ名132、フレーム開始番号133、フレーム終了番号134、および視覚的フィードバック・データ137に一致ないし包含されるか否かを判断し、一致ないし包含されている場合、被リンク対象データ名136の値を被リンク対象データ名入カダイアログ147に表示することによって、利用者が被リンク対象データにアクセス可能とする。あるいは、被リンク対象データ名136の内容を別のウィンドウないしディスプレイに(例えば、映像提示画面142を画面分割して、その1つの画面に)提示する。
【0114】
以上の説明においては、映像データおよび被リンク対象データが同一の映像処理装置1の記憶部11に保持されていることを前提に説明したが、映像データまたは被リンク対象データが例えばネットワークを介して係る映像処理装置1に接続されて、映像処理装置1から当該映像データまたは被リンク対象データにアクセスするように構成することも可能である。この場合、図20の映像データ名132または被リンク対象データ名136は、それぞれ、映像データのアクセス先を表現するいわゆるURLまたは被リンク対象データのアクセス先を表現するURLとして構成することができる。
【0115】
また、映像データおよび被リンク対象データが同一の映像処理装置1の記憶部11に保持されていることを前提に説明したが、図32に示すように、クライアント161およびサーバ162がネットワーク163を介して接続され、クライアント161またはサーバ162に前述した映像処理装置1の各部の機能を分離配置し、リンク付けを行うように構成することができる。例えば、図32に示すように、リンク生成部173をサーバ162に配置し、他の処理部である記憶部171、リンク対象指定部172、映像指示部174、リンク管理部175をクライアント161に配置する構成とすることも可能である。
【0116】
図33は、ネットワークに伝送されるリンク・データの形式の例を示す。
図33に示すように図20のリンク・データの構造を例えばいわゆるXML形式に変換してネットワークに伝送することによって、図32のようなクライアント161とサーバ162をネットワーク163を介して接続した場合にリンク・データを転送して利用することが可能となる。
【0117】
同じく、図34は、ネットワークに伝送されるリンク・データの形式の他の例を示す。図34では、被リンク対象データとして、リンク・データが指定されている様子を示す。
具体的には、〈resource-name〉要素として、LlNK001のリンク・データの識別子が設定されている。このように被リンク対象データとしてリンク・データを指定した場合、リンク管理部175は、図34のXML形式のリンク・データ(識別子がLINK003のリンク・データ)を解釈し、L1NK001のリンク・データを取得する。さらに、リンク管理部175は、図33のXML形式のリンク・データ(識別子がLlNKOO1のリンク・データ)を解釈し、<audiovisual-data>要素にVideo.mpgのデータが設定され、かつ<resource-name>要素にAnnotation.txtのデータが設定されていることを検知する。
【0118】
続いて、リンク管理部175は、利用者に対してVideo.mpgのデータかAnnotation.txtのデータかのいずれを利用するかを選択させ、選択されたデータを映像提示画面142に提示する。仮に〈resource-name〉要素として、さらにリンク・データの識別子が設定されている場合には、同様の動作を繰り返して、リンクをたどっていく。このように、被リンク対象データ名136または〈resource-name〉要素にリンク・データの識別子を設定することによって、リンク・データを再利用することができる。また、XML形式化されたリンク・データを電子メールなどで転送し、転送された利用者の映像処理装置1で当該XML形式化されたリンク・データを利用することにより、リンク・データを再利用することも可能である。
【0119】
次に、リンクされたテキスト・データ、音声データ、または映像データなどの電子データからリンクされる任意の部分映像データを特定する手段およびステップについて説明する。
ここで、図35に示すようなリンク・データが記憶部11に保持されているとする。
つまり、リンク識別子131に“LlNK001”の値が設定され、映像データ名132に“Video.mpg”の値が設定され、フレーム開始番号133に“120”の値が設定され、フレーム終了番号134に“150”の値が設定され、リンク対象領域座標135に“{(1O,30),(10,10),(20,10),(20,30)}”の値が設定され、被リンク対象データ名136に“Annotation.txt”の値が設定され、視覚的フィードバック・データ137に“Visual.dat”が設定されていたとする。
【0120】
利用者がリンクされたテキスト・データ、音声データまたは映像データなどの電子データから任意の部分映像データを特定する場合、まず、利用者は図21の被リンク対象データ名入カダイアログ147から所望の被リンク対象データ名(当該電子データの名前)を入力する。つまり、利用者は被リンク対象データ名入カダイアログ147を使って“Annotation.txt”を入力する。被リンク対象データ名入カダイアログ147から被リンク対象データ名が入力されると、映像処理装置1のリンク管理部15は、記憶装置11に保持されているリンク・データの中から、被リンクデータ名の値が一致するリンク・データを検索し、取得する。
【0121】
次に、リンク管理部15は、当該リンク・データの映像データ名132を参照し、映像データ名に一致する映像データを記憶部11から取得する。つまり、リンク管理部15は、当該リンク・データ中の映像データ名132の値“Video.mpg”を参照し、当該“Video.mpg”に一致する映像データを記憶部11から取得する。
【0122】
続いて、リンク管理部15は、リンク・データ中のフレーム開始番号133およびフレーム終了番号134の値“120”および“150”を参照して、映像データ中から抽出すべきフレーム、すなわち、フレーム番号120から150までのフレームを抽出する。さらに、リンク管理部15は、リンク・データを参照してリンク対象領域座標135を参照し、リンク対象領域座標として“{(10,30),(1O,1O),(20,1O),(20,30)}”の値を得る。
【0123】
そこで、リンク管理部15は、前述の抽出した各フレームのリンク対象領域座標に一致する領域、ここでは(10,30),(10,10),(20,10),(20,30)の各座標に囲まれる領域に対して、リンク・データの視覚的フィードバック・データ137に対応するデータを配置し、映像提示画面142に提示する。
そこで、利用者は、被リンク対象データ名“Annotation.txt”に対応した、映像データ“Video.mpg”中の視覚的フィードバックで示される領域を特定することができる。
【0124】
次に、リンクされたテキスト・データ、音声データまたは映像データなどの電子データを電子掲示板システムまたは電話などの通話ないし通信システムに転送し、リンクされた任意の部分映像データに関連する対象に当該電子データを引き渡す手段およびステップについて説明する。
【0125】
図36は、図1の映像処理装置1と同様に記憶部191とリンク対象領域指定部192とリンク生成部193と映像提示部194とリンク管理部195とを備えた構成に、リンク・データ転送部196および電話通話部197を付加した拡張した映像処理装置181の一例を示すブロック図である。
【0126】
リンク・データ転送部196は、CPUおよびバッファ記憶装置から構成され、記憶部191から転送すべき被リンク対象データを入力し、電話通話部197に転送する。
電話通話部197は、通常の電話の通話機能を有するサブシステムであり、リンク・データ転送部196から入力された被リンク対象データを外部の電話に送信する。
【0127】
ここで、図37に示すようなリンク・データが記憶部191に保持されているとする。つまり、リンク識別子131に“LlNK002”の値が設定され、映像データ名132に“Video.mpg”の値が設定され、フレーム開始番号133に“120”の値が設定され、フレーム終了番号134に“150”の値が設定され、リンク対象領域座標135に“{(10,30),(10,10),(20,1O),(20,30)}”の値が設定され、被リンク対象データ名136に“Voice.dat”の値が設定され、視覚的フィードバック・データ137に“Visual2.dat”が設定されていたとする。また、音声データであるVoice.datは記憶部191に保持され、“Voice.dat”と組み合わせて、当該音声データ“Voice.dat”に対応する通話用の電話番号“O120-123-4567”が同じく記憶部191に保持されているとする。
【0128】
利用者が映像提示画面142に提示されている視覚的フィードバックにより、識別子“Link002”で識別されるリンク・データをマウスを使って選択したとする。
リンク管理部195は、記憶部191に保持されているリンク・データを参照し、被リンク対象データが音声データである“Voice.dat”であることを特定すると、当該“Voice.dat”に対応する通話用の電話番号“O120-123-4567”を取得する。
【0129】
次に、リンク管理部195は、“Voice.dat”をリンク・データ転送部196に転送する。続いて、電話通話部197は、取得した電話番号“0120-123-4567”を使って通話先を呼び出し、呼び出しがあった場合、“Voice.dat”を音声データとして再生し、通話を完了する。
【0130】
ここでは、通常の公衆電話網の電話に接続することを想定したが、電話通話部197に代えて、データ送出機能を準備し、被リンク対象データがテキスト・データである場合には、電子掲示板に転送するように構成することもできる。同じく、通常の電話機能に代えて、いわゆるインターネット電話機能を持つデータ送出機能を準備し、インターネット電話に対して被リンク対象データを送出するように構成することも可能である。
【0131】
次に、本発明の第3実施例に係る映像処理装置や映像処理方法を説明する。
図38および図39は、本例の映像処理装置1の映像提示画面201に映像オブジェクト203が1個である映像データおよび枠202並びに視覚的フィードバック204a、204b、205a、205b、206a、206bが提示されているユーザ・インタフェースの例を示す図である。
図40は、本例の映像処理装置1の映像提示画面201に映像オブジェクト203、207が2個である映像データおよび枠202並びに視覚的フィードバック205a、205b、206a、206b、208a、208bが提示されているユーザ・インタフェースの例を示す図である。
【0132】
図38は、映像オブジェクト(“Y”のロゴ)203に対して、1個のリンクが設定されている場合を示す。
一方、図39は、同一の映像オブジェクト(“Y”のロゴ)203に対して、2個のリンクが設定されている場合を示す。このように複数のリンクが設定されている場合には、相異なる色の図形を映像提示画面201の枠202に提示することにより、リンクを区別することが可能となる。
【0133】
図38、図39、および図40に示すように、リンクが設定されている映像オブジェクト(“Y”のロゴ)203、207から距離が短い枠202の二辺であって当該映像オブジェクト203、207の水平位置(例えば、横軸)及び垂直位置(例えば、縦軸)に対応する位置にそれぞれリンクを示す図形204a、204b、205a、205b、206a、206b、208a、208bを配置することにより、利用者はリンクの存在を示す視覚的フィードバックを得ることが可能となる。
【0134】
以上のように、本発明の実施例に係る映像処理装置や映像処理方法では、映像データ中の任意の部分映像データを指定する手段と、映像データと指定した任意の部分映像データを同時に提示する手段と、指定した任意の部分映像データに対してリンク・データを付加する手段と、指定した任意の部分映像データ上にリンクされる対象データを提示する手段を備えた構成において、指定した任意の部分映像データに対して1個以上の関連するリンク・データを付加し、当該リンク・データを示す1個以上の部分画像アイコンを重ねて提示する、または、隣接してもしくは重ね合わせて視覚的にリンクの存在を提示する手段を備えた。
【0135】
そして、映像データに対してテキスト・データによるコメントや利用された関連した資料などを付加して映像データを提示し、注釈を付加する任意の部分映像データを指定し、当該映像データと指定した部分映像データを同時に提示し、指定した部分映像データに対してリンク・データを付加し、付加したリンク・データをリンクされる任意の部分映像データに隣接してまたは重ね合わせて視覚的にリンクの存在を提示する。
【0136】
従って、リンク・データをリンクされる任意の部分映像データに隣接してまたは重ね合わせて視覚的にリンクの存在を提示することによって、任意の部分映像データにリンク・データが存在していることを利用者に対して視覚的にフィードバックすることができる。
また、利用者は指定したフレームを抽出する部分映像データについて、リンク・データを付加したい当該部分映像データに対して、テキスト・データ、音声データ、画像データ、関連資料ファイルデータ、動画像データなどを容易かつ適切に関連付けることが可能となる。
また、関連付けを行うユーザ・インタフェースは、映像データと任意部分映像データを両方表示して、当該映像データを再生することにより、利用者は抽出した部分映像データを参照しながらリンク・データを付加することが可能となる。
【0137】
また、本発明の実施例に係る映像処理装置や映像処理方法では、リンク・データは部分映像データの時間範囲を含み、リンク・データを付加する手段は当該部分映像データの時間範囲を指定する手段を備えた。
従って、リンク・データを付加する部分映像データの指定範囲として、映像データの時間範囲も指定することができる。
【0138】
また、本発明の実施例に係る映像処理装置や映像処理方法では、リンク・データ或いは部分映像データは部分映像データの映像データにおける領域情報を含み、リンク・データを付加する手段は、部分映像データ上の領域情報を取得し、リンク・データを構成する。
従って、リンク・データを付加する手段により、部分映像データ上の領域情報を含んだリンク・データを構成することが可能となる。
【0139】
また、本発明の実施例に係る映像処理装置や映像処理方法では、リンク・データの提示手段は、1個以上の部分画像アイコンを時間軸上、映像データ上(空間軸上)に提示する。
従って、1個以上の部分画像アイコンを時間軸上、映像データ上(空間軸上)に提示することが可能となる。
【0140】
また、本発明の実施例に係る映像処理装置や映像処理方法では、リンクされる任意の部分映像データに隣接してまたは重ね合わせて視覚的にリンクの存在を提示する手段は、係る任意の部分映像データまたは当該領域中の映像対象の影、または類似する形状の輝度変化によって、視覚的にリンクの存在を提示する。
従って、係る任意の部分映像データまたは当該領域中の映像対象の影または類似形状の輝度変化による視覚的フィードバックを利用者に提供することによって、係る任意の部分映像データまたは当該領域中の映像対象の形状に対応した影または類似形状の輝度変化による視覚的フィードバックを利用者に提供することができる。
【0141】
また、本発明の実施例に係る映像処理装置や映像処理方法では、映像の任意部分データ中にある任意の場所に対して、複数の関連するデータを示す場合に、部分画像を重ねて付加する手段を備えた。
従って、映像データ中の任意の部分データ中にある任意の映像対象に対して、複数のリンク・データが関連する場合に、部分画像アイコンなどによってリンク・データを重ね合わせて付加することが可能となる。
【0142】
また、本発明の実施例に係る映像処理装置や映像処理方法では、任意の部分映像データまたは当該領域中の映像対象の影または類似形状の輝度変化としては、当該任意の部分映像データまたは当該領域中の映像対象の形状から提示すべき影の形状または類似した形状などを生成する。
従って、任意の部分映像データまたは当該領域中の映像対象の影または類似形状の輝度変化として、当該任意の部分映像データまたは当該領域中の映像対象の形状から提示すべき影の形状または類似した形状などを生成することによって、オリジナルの映像データに対して違和感のない視覚的フィードバックを利用者に提供することができる。
【0143】
また、本発明の実施例に係る映像処理装置や映像処理方法では、同一の画像データに対して複数のリンクを付加した場合に、利用者に視覚的なフィードバックを与えて、各リンクを区別し、リンクされた情報を有効に利用させることができる。
【0144】
また、本発明の実施例に係る映像処理装置や映像処理方法では、リンクされる任意の部分映像データに隣接してまたは重ね合わせて視覚的にリンクの存在を提示する手段は、任意の部分映像データ内の輝度変化から映像対象を抽出する手段を備えた。
従って、任意の部分映像データの映像対象を、当該任意の部分映像データ内の輝度から抽出することができる。
【0145】
また、本発明の実施例に係る映像処理装置や映像処理方法では、リンク・データを付加する手段は、映像データの輝度変化などから抽出された映像データ中の映像対象を利用者により選択させる。
従って、映像データの輝度変化などから抽出された映像データ中の映像対象を利用者が選択することが可能となる。
【0146】
また、本発明の実施例に係る映像処理装置や映像処理方法では、リンクされる任意の部分映像データに隣接してまたは重ね合わせて視覚的にリンクの存在を提示する手段は、2つ以上のリンクを提示する場合に、係る任意の部分映像データまたは当該領域中の映像対象の相異なる影または相異なる類似形状の輝度変化もしくは色の変化などによって、視覚的にリンクの存在を提示する。
従って、同一の部分映像データに複数のリンク・データが付加された場合に、これら複数のリンクを識別可能に提示することができる。
【0147】
また、本発明の実施例に係る映像処理装置や映像処理方法では、任意部分映像データに指定したリンク・データを付加すると同時に、部分映像データにリンク・データを単独ならびに重ね合わせて提示することにより、任意の部分映像データの指定部分画像に対して、関連するリンク・データを付加することに加えて、リンク・データを指定部分画像に重ね合わせることが可能となる。
【0148】
また、本発明の実施例に係る映像処理装置や映像処理方法では、付加されたリンク・データは、他の任意の部分映像データや他の任意の部分映像データに付加されたリンク・データに対して、リンク・データのリンク・データを生成する手段を備えた。
従って、付加されたリンク・データにより、他の任意の部分映像データや他の任意の部分映像データに付加されたリンク・データに対して、関連付けが可能となる。
【0149】
このように、本発明の実施例に係る映像処理装置や映像処理方法では、映像データ中の同一の領域または当該領域中の同一の映像対象に対して複数のリンクを関連付けることができ、また、リンク・データが付加された指定した任意の部分映像データを、映像データ中の他の任意の部分映像データや他のリンク・データに対して関連付けることが可能となる。
【0150】
また、本発明の実施例に係る映像処理装置や映像処理方法では、リンク・データの内容として、テキスト・データ、音声データもしくは映像データなどの電子データや、電子ファイルまたはリンク・データなどをリンク対象とすることを記述する。
従って、映像データにリンクされるデータの内容として、テキスト・データ、音声データまたは映像データなどの電子データなどをリンクすることができる。
【0151】
このように、本発明の実施例に係る映像処理装置や映像処理方法では、指定した任意の部分映像データに、関連する電子メールなどの既存の電子文書や、会議で用いられた画像データ、関連した部分音声データ、映像データなどの電子ファイルを関連付けさせることができる。
【0152】
また、本発明の実施例に係る映像処理装置や映像処理方法では、単独または複数の利用者がリンク・データを付加、共有、提示または配布する手段を備えた。
従って、例えば、利用者は、保存されたリンク・データについて、情報携帯端末およびリンク・データを付加、共有、提示または配布する手段を利用して、リンク・データを取得し、リンクされた映像データに対してリンクを付加するなどの種々な再編集を行うことが可能となる。また、利用者は、複数の利用者間でリンク・データを付加、共有、提示または配布する手段を利用してリンク・データならびにリンク・データが付加された映像データまたは被リンク対象データを取得して、これにより、リンク・データ、リンク・データが付加された映像データまたは被リンク対象データを合成するなどの種々な再編集を行うことが可能となる。
【0153】
また、本発明の実施例に係る映像処理装置や映像処理方法では、リンク・データを付加する手段は、指定した任意の部分映像データ中の単一または複数の人物に対して、音声データが有効であるときに、当該動画データおよび音声データから部分映像データの時間範囲を抽出する手段を備えた。
従って、リンク・データを付加する手段により、指定された任意の部分映像データ中の音声データなどを解析して、同一人物の発言の部分やあるいは質疑応答などの複数人物間の対話で同一の内容である部分を推測して切り出し、当該部分のデータに相当する部分映像データを抽出して、当該部分映像データに対してリンク・データを付加することが可能となる。
【0154】
また、本発明の実施例に係る映像処理装置や映像処理方法では、リンクされたテキスト・データ、音声データまたは映像データなどの電子データなどからリンクされる任意の部分映像データを特定する手段を備えた。
従って、リンクされたテキスト・データ、音声データまたは映像データなどの電子データなどからリンクされる任意の部分映像データを特定することにより、リンクされた電子データなどからリンクされる任意の部分映像データを参照することが可能となる。
【0155】
また、本発明の実施例に係る映像処理装置や映像処理方法では、利用者が部分映像データまたは部分映像データ内の映像対象を指定することによって、リンクされたテキスト・データ、音声データまたは映像データなどの電子データなどを電子掲示板システムや、電話または電子メールなどの通話ないし通信システムに転送し、リンクされた任意の部分映像データに関連する対象に当該電子データなどを引き渡す手段を備えた。
従って、任意の部分映像データから、係る電子掲示板システムまたは電話ないし通信システムを利用して、任意の部分映像データに関連する相手側のデータを参照することや、当該相手に対して当該電子データなどを通知ないし転送することが可能となる。
【0156】
また、本発明の実施例に係る映像処理装置や映像処理方法では、映像データを提示し、当該映像データに対してリンク・データを保持し、処理する構成において、リンク・データがリンクされる任意の部分映像データに対応して、映像データの外枠に視覚的にリンクの存在を提示する手段を備えた。
従って、提示される映像データを邪魔することなく、その外枠を用いて部分映像データに対するリンクの存在を提示することができる。
【0157】
以上のように、本発明の実施例に係る映像処理装置や映像処理方法では、リンク・データがリンクされた映像データを利用者に提示する場合に、例えば利用者が映像処理装置内の映像提示画面に提示されている映像データの領域上にマウスを移動しなくても、利用者に対してリンクの視覚的なフィードバックを与えることができ、単数または複数のリンクの存在を利用者に知らせることができる。また、リンクされたテキスト・データ、音声データまたは映像データなどの電子データなどから任意の部分映像データを参照することが可能となる。さらに、視覚的なフィードバックを通して、任意の部分映像データから、電子掲示板システムまたは電話ないし通信システムを介して、当該任意の部分映像データに関連する対象を参照または利用すること、などが可能となる。
【0158】
なお、本発明の実施例に係る映像処理装置などでは、映像データから部分映像データを特定するリンク対象領域指定部12などの機能により部分映像データ特定手段が構成されており、部分映像データと他のデータとを関連付ける(リンクする)リンク生成部13などの機能によりデータ関連付け手段が構成されている。
また、本発明の実施例に係る映像処理装置などの部分映像データ特定手段では、部分映像データの候補を特定する機能により部分映像データ候補特定手段が構成されており、当該候補の中から部分映像データの指定をユーザから受け付ける機能により部分映像データ指定受付手段が構成されている。
【0159】
また、本発明の実施例に係る映像処理装置などでは、部分映像データに関連付けられたデータから当該部分映像データを特定するリンク管理部15などの機能により関連部分映像データ特定手段が構成されており、部分映像データに関連付けられたデータの存在を示すデータ(視覚的フィードバック・データ)を当該部分映像データと視覚的に関連付けて提示する映像提示部14などの機能により関連データ提示手段が構成されている。
【0160】
また、本発明の実施例に係る映像処理装置などでは、視覚的フィードバック・データと所定の処理とが記憶部11において対応付けられており、提示された視覚的フィードバック・データの指定をユーザから受け付ける映像提示部14などの機能により提示データ指定受付手段が構成されており、指定を受け付けた視覚的フィードバック・データに対応付けられた処理を実行するリンク管理部15などの機能により提示データ対応処理実行手段が構成されている。
【0161】
また、本発明の実施例に係る映像処理装置などでは、部分映像データに関連付けられた複数のデータの存在を示す例えば複数の視覚的フィードバック・データを当該部分映像データと視覚的に関連付けて提示する映像提示部14などの機能により複数関連データ提示手段が構成されている。
【0162】
ここで、本発明に係る映像処理装置や映像処理方法などの構成や態様としては、必ずしも以上に示したものに限られず、種々な構成や態様が用いられてもよい。
また、本発明の適用分野としては、必ずしも以上に示したものに限られず、本発明は、種々な分野に適用することが可能なものである。
【0163】
また、本発明に係る映像処理装置や映像処理方法などにおいて行われる各種の処理としては、例えばプロセッサやメモリ等を備えたハードウエア資源においてプロセッサがROM(Read Only Memory)に格納された制御プログラムを実行することにより制御される構成が用いられてもよく、また、例えば当該処理を実行するための各機能手段が独立したハードウエア回路として構成されてもよい。
また、本発明は上記の制御プログラムを格納したフロッピー(登録商標)ディスクやCD(Compact Disc)−ROM等のコンピュータにより読み取り可能な記録媒体や当該プログラム(自体)として把握することもでき、当該制御プログラムを記録媒体からコンピュータに入力してプロセッサに実行させることにより、本発明に係る処理を遂行させることができる。
【0164】
【発明の効果】
以上説明したように、本発明に係る映像処理装置や映像処理方法などでは、例えば、映像データから当該映像データの部分である部分映像データを特定し、特定した部分映像データに対してデータを当該データの存在を提示可能なように関連付けるようにしたため、当該部分映像データに関連付けられたデータの存在を提示可能とすることができる。
つまり、本発明に係る映像処理装置や映像処理方法などでは、例えば、部分映像データに関連付けられたデータの存在を示すデータを、映像データ中の当該部分映像データと視覚的に関連付けて提示するようにしたため、当該関連付けられたデータの存在や当該関連付けをユーザに対して視覚的に把握可能とすることができる。
【0165】
また、本発明に係る映像処理装置や映像処理方法などでは、例えば、映像データから特定された当該映像データの部分である部分映像データに関連付けられた複数のデータの存在を示すデータを、当該映像データ中の当該部分映像データと視覚的に関連付けて提示するようにしたため、当該関連付けられた複数のデータの存在や当該関連付けをユーザに対して視覚的に把握可能とすることができる。
【図面の簡単な説明】
【図1】 本発明に係る映像処理装置の構成例を示す図である。
【図2】 本発明に係る映像処理装置の詳細な構成例を示す図である。
【図3】 映像データから部分映像データを抽出する様子を示す図である。
【図4】 部分映像データを抽出する処理の手順の一例を示す図である。
【図5】 部分映像データにリンク・データを付加する処理の手順の一例を示す図である。
【図6】 リンク・データ付加記憶装置のデータ構造の一例を示す図である。
【図7】 リンク・データ付加記憶装置の拡張されたデータ構造の一例を示す図である。
【図8】 ユーザ・インタフェースの一例を示す図である。
【図9】 部分映像データにリンク・データを付加した後のデータ構造の一例を示す図である。
【図10】 リンク・データ付加提示のユーザ・インタフェースの一例を示す図である。
【図11】 協調作業における装置構成とユーザ・インタフェースの具体例を示す図である。
【図12】 部分映像データにリンク・データを付加した後のデータ構造の他の一例を示す図である。
【図13】 複数の利用者により付加されたリンク・データを表現する部分画像アイコンを提示した一例を示す図である。
【図14】 編集作業を行うシステムの構成例を示す図である。
【図15】 被リンク・対象データと映像データの構造の一例を示す図である。
【図16】 複数の映像データの部分から合成した映像データを生成する様子の一例を示す図である。
【図17】 リンク・データ付加時における発言推測の一例を示す図である。
【図18】 リンク・データ付加時における対話推測の一例を示す図である。
【図19】 リンク・データ付加時における対話推測の仕方の一例を説明するための図である。
【図20】 リンク・データのデータ構造の一例を示す図である。
【図21】 ユーザ・インタフェースの一例を示す図である。
【図22】 リンク付け処理の手順の一例を示す図である。
【図23】 映像オブジェクトの一例を示す図である。
【図24】 映像オブジェクトを枠で囲んだものの一例を示す図である。
【図25】 映像オブジェクトを斜めに倒したものの一例を示した図である。
【図26】 影データの一例を示した図である。
【図27】 映像オブジェクトと影データとを合成したものの一例を示す図である。
【図28】 映像オブジェクトと影データの提示すべき領域を抽出したものの一例を示す図である。
【図29】 複数の影データの一例を示す図である。
【図30】 映像オブジェクトと複数の影データとを合成したものの一例を示す図である。
【図31】 映像オブジェクトと複数の影データの提示すべき領域を抽出したものの一例を示す図である。
【図32】 ネットワークを介してリンク付け処理を行う構成の一例を示す図である。
【図33】 ネットワークに伝送されるリンク・データの形式の一例を示す図である。
【図34】 ネットワークに伝送されるリンク・データの形式の他の一例を示す図である。
【図35】 リンク・データの値の一例を示す図である。
【図36】 拡張した映像処理装置の構成例を示す図である。
【図37】 リンク・データの値の一例を示す図である。
【図38】 映像処理装置の映像提示画面に映像オブジェクトが1個である映像データ及び枠並びに視覚的フィードバックが提示されているユーザ・インタフェースの一例を示す図である。
【図39】 映像処理装置の映像提示画面に映像オブジェクトが1個である映像データ及び枠並びに視覚的フィードバックが提示されているユーザ・インタフェースの一例を示す図である。
【図40】 映像処理装置の映像提示画面に映像オブジェクトが2個である映像データ及び枠並びに視覚的フィードバックが提示されているユーザ・インタフェースの一例を示す図である。
【符号の説明】
1、181・・映像処理装置、 11、171、191・・記憶部、
12、172、192・・リンク対象領域指定部、
13、173、193・・リンク生成部、
14、174、194・・映像提示部、
15、175、195・・リンク管理部、 21、97・・映像記憶装置、
22、91a、91b・・映像データ提示装置、
23、92a、92b・・任意部分映像データ指定装置、
24、93a、93b・・部分映像データ提示装置、
25、94a、94b・・リンク・データ付加装置、
26、96a、96b、98・・リンク・データ記憶装置、
27、95a、95b・・リンク・データ提示装置、
31、101、111〜113、121〜123、F1〜F7、F11〜F17・・映像データ、
32・・部分映像データ、 33・・外接矩形、 41・・タイム・コード、
42・・座標データ、
43、102、114a、115a、115b、116a、116b、116c、124a、125a、125b、125c、126a・・被リンク対象データ、
44・・記憶装置名、 45・・部分画像アイコン・データ、
46・・利用者データ、 51・・映像データ提示画面、
52・・部分映像データ提示画面、 53・・リンク・データ付加画面、
54・・被リンク対象データ提示画面、
62a〜62e、82a〜82c、84a〜84d・・リンク・データ付きの部分映像データ、
71、72・・オブジェクト、
73、74・・メッセージ送付用リンク・データ、
81a、83a〜83c・・部分画像アイコン、
T1、T2・・発言推測箇所、
T11〜T14、T21、T22・・対話推測箇所、 131・・識別子、
132・・映像データ名、 133・・フレーム開始番号、
134・・フレーム終了番号、 135・・リンク対象領域座標、
136・・被リンク対象データ名、
137・・視覚的フィードバック・データ、
141・・ユーザ・インタフェース、 142、201・・映像提示画面、
143・・映像再生ボタン、 144・・映像停止ボタン、
145・・リンク開始ボタン、 146・・リンク終了ボタン、
147・・被リンク対象データ名入力ダイアログ、
151、203、207・・映像オブジェクト、 152・・枠、
153・・斜めに倒した映像オブジェクト、
154、156a、156b、157a、157b・・影データ、
155・・影データの提示すべき領域を抽出したもの、
161・・クライアント、 162・・サーバ、 163・・ネットワーク、
196・・リンク・データ転送部、 197・・電話通話部、
202・・映像提示画面の枠、
204a、204b、205a、205b、206a、206b、208a、208b・・視覚的フィードバック、
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an apparatus or method relating to presentation of a link to video data in a video processing apparatus, and in particular, secures a work area, extracts partial video data from video data, and extracts text data from the partial video data. , Audio data, image data, related document file data, video data, etc. as link data contents, video processing apparatus and video processing capable of easily and appropriately associating link data between users or users Regarding the method.
[0002]
[Prior art]
In recent years, communication tools and conference system information sharing for communication using multimedia data via the Internet have progressed in individuals and companies. Among them, a system for adding a text annotation to a digital document or video image has been proposed in the same way as writing a marker or memo on a conventional printed matter. In Japanese Laid-Open Patent Publication No. Hei 8-272789 “Material Creation Support System Based on Video Specifications”, text information and video information can be associated with each other and handled as materials in the publication. Hereinafter, this technique will be referred to as a first conventional technique.
[0003]
Next, Japanese Patent Laid-Open No. 2000-250864 “Collaborative Work Support System” can add text data such as memos and questions to streaming data such as presentation materials as a technology that allows annotation in various formats. And can be shared among multiple clients. Hereinafter, this technique will be referred to as a second conventional technique.
[0004]
In Japanese Patent Application Laid-Open No. Hei 6-274552, “Multimedia Data Link System”, an arbitrary area in a moving image displayed on a screen or an arbitrary screen in a series of moving image data is designated, whereby data is displayed on the screen. Can be displayed. Hereinafter, this technique will be referred to as a third conventional technique.
[0005]
further, Y.Yamamoto , CHI2001 "Time-ART" has proposed a tool that has a user interface that can be clipped freely while viewing video and audio data, and has a text annotation function. Hereinafter, this technique will be referred to as a fourth conventional technique.
On the other hand, in Japanese Patent Laid-Open No. 10-21029, “telop display device”, there is a display device that allows a user to easily create a telop and easily add audio information and image information as additional information. Hereinafter, this technique will be referred to as a fifth conventional technique.
[0006]
Conventionally, when a home page is browsed by a web browser for browsing the World Wide Web, link information may be embedded as a so-called image map in the home page. Users can access the linked information by moving the mouse over the area composing the image map of the home page presented by the web browser and clicking the mouse. It is. Hereinafter, this technique will be referred to as a sixth conventional technique.
[0007]
Japanese Patent Laid-Open No. 8-329096 “Image Data Retrieval Device” has means for setting an icon that briefly represents the feature of the image as additional information in the image data, and the icon has a one-dimensional or higher axis. A technique of an image data search apparatus that is arranged at a predetermined position on a map and searches for image data related to the icon using the icon is disclosed. Hereinafter, this technique will be referred to as a seventh conventional technique.
[0008]
Further, Japanese Patent Laid-Open No. 8-329097 “Image Data Retrieval Device” has means for setting a keyword for the image as additional information in the image data, and the image data for retrieving the image data using the keyword. The technology of the search device has been released. Hereinafter, this technique will be referred to as an eighth conventional technique.
[0009]
Japanese Patent Laid-Open No. 8-329098 “Image Data Retrieval Device” includes image data on a first map having one or more axes and additional information on a second map having one or more axes. A technology of an image data search apparatus that can search image data in association with each other is disclosed. Hereinafter, this technique will be referred to as a ninth conventional technique.
[0010]
In Japanese Patent Laid-Open No. 11-39120 “Content Display / Selection Device and Content Display / Selection Method, and Recording Medium on which Content Display / Selection Method Program is Recorded”, the HTML document content is arranged in a two-dimensional array, Technologies that enable browsing (list of contents) without a mouse pointer have been released. Hereinafter, this technique will be referred to as a tenth conventional technique.
[0011]
[Problems to be solved by the invention]
However, the conventional techniques have various problems as described below.
First, as a common problem in the first to fifth conventional systems described above, the user extracts partial video data to another screen during playback of video data, and the content of the video data includes audio data. There was a problem that link data could not be added while referring to it.
[0012]
Further, the link data added to the partial video data has a problem that the link data cannot be added to an arbitrary location on the partial video data, and it is not known where it is added. For example, when multiple pieces of objects such as people and documents are shown in video data, when link data is added to the partial video data, in the prior art, the link data comment indicates which object There was a problem that it was not possible to determine if it was pointing.
Furthermore, there is a problem that the additional information of the related link data cannot be superimposed on the arbitrarily designated portion of the partial image data.
[0013]
Next, in the sixth prior art, when the HTML document content including the image map is presented to the user, the user moves the mouse over the area of the HTML document content including the image map in the browser. Without it, the user could not know the existence of the image map.
[0014]
Next, the seventh, eighth, and ninth prior arts can associate an icon, text data, or additional information with image data, but provide a visual feedback of a link to the user. Instead, when a plurality of links are added to the same image data, it is not possible to give visual feedback to the user, distinguish each link, and use the linked information.
[0015]
Similarly, even if the tenth prior art is used, the user can recognize the presence of an image map associated with a specific area such as a person or object represented in the HTML document content, particularly image data or video data. There was a problem that could not be presented.
Also, using any of the sixth to tenth prior arts, it is used in cooperation with a specific area such as a person or an object represented in the video data and a so-called electronic bulletin board system or a telephone / communication system such as a telephone. There was a problem that you can't.
[0016]
The present invention has been made to solve such conventional problems, and is effective for presenting the existence of data associated with the partial video data for the partial video data specified from the video data. An object is to provide a video processing apparatus and the like.
[0017]
[Means for Solving the Problems]
In order to achieve the above object, in the video processing apparatus according to the present invention, the partial video data specifying means specifies the partial video data that is a part of the video data from the video data, and the partial video data specified by the data association means The data so that the presence of the data can be presented.
Therefore, it is possible to identify partial video data from the video data and associate the data with the partial video data in a manner capable of presenting the presence thereof, thereby presenting the existence of data associated with the partial video data. Can be possible.
[0018]
Here, the video processing apparatus may be configured as various apparatuses, for example, using a computer.
Further, as the video data, for example, temporally continuous video data is used, and specifically, data in which planar image data in a frame continuously changes in time is used. In this case, one point in the video data can be indicated by the value of the coordinates (horizontal axis and vertical axis) representing the position in the frame and the value of the time axis.
[0019]
Various data may be used as the partial video data. For example, image data of one frame, data of a specific target in image data of one frame, or a frame having a time width is used. Image data, that is, image data of a plurality of temporally continuous frames, specific target data having a time width, or the like can be used.
[0020]
Various methods may be used as the method of specifying the partial video data. For example, the method of specifying based on the designation from the user, or the video processing device automatically specifies in accordance with a predetermined procedure. It is possible to use a method, a method using both of these, or the like.
[0021]
Various data may be used as data associated with the partial video data, and text data, audio data, image data, and the like can be used.
Further, the number of data associated with the partial video data may be singular or plural.
[0022]
In the video processing apparatus according to the present invention, the partial video data specifying unit specifies partial video data having a time width for the same target data included in the video data.
Therefore, the data can be associated with the same target data having the time width included in the video data.
[0023]
Here, various target data may be used as the same target data, for example, data targeting a person, data targeting an object, or a predetermined area in a frame. Data etc. can be used. Various methods may be used as a method for specifying the same object. For example, for a stationary object, a method in which an object existing in the same place is regarded as the same object can be used. For those performing the above, it is possible to use a method in which those having characteristics such as the same shape are regarded as the same object.
Various time widths can be used as the time width.
[0024]
In the video processing apparatus according to the present invention, the video data corresponds to audio data. Then, the partial video data specifying means specifies partial video data having a time width in which audio data corresponding to the data of the person is valid for the data of one or a plurality of persons included in the video data.
Therefore, for a single person or a plurality of persons, data having a time width in which sound corresponding to the target is valid can be specified as partial video data.
[0025]
Here, as the audio data, for example, audio data emitted by a person or the like in the corresponding video data is used, and corresponds to the video data on the time axis, for example.
In addition, for data of a single person, for example, a voice that is considered to be emitted by the person except for a time width during which voices considered to be emitted by the person continuously continues or a silent period less than a predetermined threshold is continuous. For example, the time width during which the voice data continues can be determined as the time width in which the audio data corresponding to the data of the person is valid.
[0026]
Similarly, with respect to data of a plurality of persons, for example, a time duration during which a state in which at least one of the plurality of persons is considered to emit sound continues continuously or no sound less than a predetermined threshold is used. A time width during which such a state continues continuously except for a period can be determined as a time width in which audio data corresponding to the data of the plurality of persons is valid.
[0027]
In the video processing apparatus according to the present invention, the partial video data specifying means specifies the partial video data using data for specifying a region where the partial video data is located in the frame of the video data.
Therefore, for example, by using coordinate position data in a frame, it is possible to specify the image area in each frame constituting the partial video data and specify the partial video data.
[0028]
In the video processing apparatus according to the present invention, the partial video data specifying unit specifies a plurality of partial video data candidates by the partial video data candidate specifying unit, and sets the partial video data candidates specified by the partial video data designation receiving unit. The designation of the included partial video data is accepted from the user, and the partial video data for which the designation is accepted is set as the specified partial video data.
Therefore, after automatically specifying a plurality of partial video data candidates by the video processing device, the specified partial video data is finally specified by the method of specifying the partial video data from the plurality of candidates by the user. Partial video data.
[0029]
Here, as the number of partial video data candidates, various numbers may be used, for example, the number may be singular.
In addition, various methods may be used as methods for specifying partial video data candidates. For example, data for each target existing in a frame of video data can be specified as partial video data candidates. .
Further, as the partial video data designation receiving means, for example, a keyboard or a mouse operated by the user can be used.
[0030]
In the video processing apparatus according to the present invention, the related partial video data specifying unit specifies the partial video data from the data associated with the partial video data.
Therefore, for example, when the data associated with the partial video data is designated by the user, the partial video data associated with the data can be specified.
[0031]
In the video processing apparatus according to the present invention, the related data presenting means presents data indicating the presence of data associated with the partial video data in a visual association with the partial video data in the video data.
Therefore, the presence of data associated with the partial video data can be presented in a visual association with the partial video data, whereby the presence or association of the associated data is visually indicated to the user. It can be grasped.
[0032]
Here, as data indicating the existence of data associated with the partial video data, for example, icon data can be used, and various data can be used as described later.
Further, as a method of visually associating data indicating the presence of data associated with partial video data and the partial video data, various methods may be used. For example, how to arrange these data in the vicinity Alternatively, it is possible to use a method of arranging a part of these data in an overlapping manner.
Further, as a presentation method, for example, a method of displaying and outputting on a screen or a method of printing and outputting on a paper surface can be used.
[0033]
In the video processing apparatus according to the present invention, the related data presenting means presents data having a shape based on the shape of the partial video data as data indicating the presence of data associated with the partial video data.
Therefore, by presenting data having a shape based on the shape of the partial video data, it is possible to make it easier for the user to visually grasp the association between the data and the partial video data.
[0034]
Here, various data may be used as the data having a shape based on the shape of the partial video data. For example, shadow data having a shape based on the shape of the partial video data may be used.
[0035]
In the video processing apparatus according to the present invention, the related data presenting means is a frame provided outside the frame of the video data and outside the frame as data indicating the presence of data associated with the partial video data. The data indicating the horizontal position and the data indicating the vertical position within the frame of the partial video data are presented on the inside.
Accordingly, data indicating the presence of data associated with the partial video data is presented in a frame provided outside the frame, not within the frame of the video data, so that the image in the frame can be easily viewed as it is. . In addition, the presented data can indicate the horizontal position and the vertical position within the frame of the partial video data.
[0036]
Various frames may be used as the frame provided outside the frame of the video data. For example, a frame that is slightly larger than the frame of the video data is used. Video data is not presented inside the frame.
In addition, the partial video data exists at a position where the vertical line at the horizontal position and the horizontal line at the vertical position are orthogonal to each other.
[0037]
In the video processing apparatus according to the present invention, data indicating the presence of data associated with the partial video data is associated with a predetermined process. And the designation of the data presented by the presentation data designation accepting means (data indicating the existence of data associated with the partial video data) is accepted from the user, and the presentation data corresponding process execution means is associated with the data accepted by the designation. Execute the process.
Therefore, the user can execute processing associated with the data by designating the presented data.
[0038]
Here, various processes may be used as the predetermined process. For example, a document process related to the presented data, a process for starting a program related to e-mail, the Internet, etc., or a process related to the presented data. For example, a process for displaying or transmitting data to be displayed can be used. More specifically, for example, a process for displaying data related to the presented data on the screen, or an address set by e-mail for the data. Or a process for transmitting the data by voice to a telephone number set by telephone.
As the presentation data designation receiving means, for example, a keyboard or a mouse operated by the user can be used.
[0039]
Further, in the video processing apparatus according to the present invention, it is possible to execute an operation related to the same video data by a plurality of terminal devices.
Accordingly, for example, not only the operation related to the same video data is performed by one terminal device (for example, one user) but also the operation related to the same video data is performed by a plurality of terminal devices (for example, a plurality of users). Thus, partial video data related to the same video data, data associated with the partial video data, and the like can be shared and edited together.
[0040]
Here, various devices may be used as the terminal device, and for example, a computer can be used.
Various numbers may be used as the number of terminal devices.
Various operations relating to the same video data may be used. For example, an operation for specifying partial video data from video data or an operation for associating data with the specified partial video data may be used. it can.
[0041]
As one configuration example, a plurality of terminal devices are communicably connected via a wired or wireless network, and a common storage device accessible by the plurality of terminal devices is provided to operate the storage device. The target data is saved.
[0042]
Further, in the video processing device according to the present invention, the plurality of related data presenting means displays the data indicating the existence of the plurality of data associated with the partial video data that is a part of the video data specified from the video data. It is presented visually associated with the partial video data in the data.
Accordingly, it is possible to present the presence of a plurality of data associated with the partial video data in a visual association with the partial video data, so that the existence of the plurality of associated data and the association can be indicated to the user. Can be visually grasped.
[0043]
Here, various numbers may be used as the number of pieces of data associated with the partial video data.
Further, as the data indicating the presence of a plurality of data associated with the partial video data, for example, data different from the case where a single data is associated with the partial video data is used. Data representing the number of pieces of data associated with is used.
[0044]
In the video processing apparatus according to the present invention, the plurality of related data presenting means presents the same number of data as the number of the associated data as data indicating the presence of the plurality of data associated with the partial video data.
Therefore, the number of data associated with the partial video data can be presented so as to be visually grasped by the user.
[0045]
Here, as the same number of data as the number of data associated with the partial video data, data having the same or similar shape can be used as a preferred embodiment example, or, for example, data having different shapes. May be used.
[0046]
Further, in the video processing apparatus according to the present invention, the plurality of related data presenting means presents data indicating the presence of each data associated with the partial video data in an identifiable manner for each associated data.
Therefore, for each piece of data associated with the partial video data, the data indicating the presence can be visually identified by the user.
[0047]
Here, as an aspect in which the data indicating the existence of each piece of data associated with the partial video data can be identified, for example, the shape, color, brightness, arrangement position, etc. of the data indicating the existence are different for each piece of data. In such a manner, it can be used.
[0048]
As in the present invention described above, a technique for presenting data indicating the presence of a plurality of data associated with data of the same image visually associated with the image data and the same number of data as the plurality of data are presented. However, the technology that enables identification for each piece of data is not necessarily limited to the partial video data specified from the video data, and can be applied to various types of image data. It is also possible to apply to image data.
[0049]
In addition, the present invention provides a video processing method for realizing various processes as described above.
For example, in the video processing method according to the present invention, partial video data that is a part of the video data is specified from the video data, and the data is associated with the specified partial video data so that the presence of the data can be presented.
In the video processing method according to the present invention, data indicating the presence of a plurality of data associated with partial video data that is a part of the video data identified from the video data is used as the partial video data in the video data. And present them in a visual association.
[0050]
Further, the present invention provides a program that realizes various processes as described above. In the present invention, a storage medium storing such a program can also be provided.
For example, in the program according to the present invention, a process of specifying partial video data that is a part of the video data from the video data, and a process of associating data with the specified partial video data so that the presence of the data can be presented And let the computer run.
Further, in the program according to the present invention, data indicating the presence of a plurality of data associated with partial video data that is a portion of the video data specified from the video data is visually compared with the partial video data in the video data. Causes the computer to execute processing to be presented in association with.
[0051]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments according to the present invention will be described with reference to the drawings.
First, a video processing apparatus and a video processing method according to the first embodiment of the present invention will be described.
FIG. 1 is a block diagram showing an example of a video processing apparatus according to the present invention. The video processing device 1 includes a storage unit 11, a link target area designation unit 12, a link generation unit 13, a video presentation unit 14, and a link management unit 15.
[0052]
The storage unit 11 is composed of a general storage device, and is linked (associated) with one target video data (hereinafter also simply referred to as video data), link data (association data), and Holds the linked data to be linked to the other target.
The link target area designating unit 12 is composed of a coordinate input device such as a mouse or a digitizer, and is described by the user (user) as coordinate data of an area to be linked in the video data (hereinafter referred to as link target area coordinate data). The link target area coordinate data is output to the link generation unit 13.
[0053]
The link generation unit 13 inputs the identifier or name of the linked data input from the user through the dialog-type user interface. Further, the link generation unit 13 links the link target area coordinate data input from the link target area specifying unit 12 and the linked data input from the user, and outputs the link data to the storage unit 11 as link data. .
The video presentation unit 14 includes a display, and presents the visualized link data and video data to the user.
The link management unit 15 manages and controls the storage unit 11, the link target area specifying unit 12, the link generation unit 13, and the video providing unit 14.
[0054]
In this example, video data will be described as meaning data that is a combination of moving image data and audio data, or one of moving image data and audio data. Further, in this example, the partial video data means a part of temporal or spatial (regional) data in the video data.
Note that the video data referred to in the present invention includes, for example, image-only data, and includes, for example, a case where data such as audio is associated with the image data.
[0055]
FIG. 2 is a detailed block diagram of the video processing apparatus of FIG.
As shown in FIG. 2, the storage unit 11 includes a video storage device 21 and a link data storage device 26. The link target area specifying unit 12 includes an (arbitrary) partial video data specifying device 23 and a partial video data presentation device 24. The link generation unit 13 includes a link / data addition device 25. The video presentation unit 14 includes a video data presentation device 22, a partial video data presentation device 24, and a link / data presentation device 27.
[0056]
The video storage device 21 is configured by a general memory and holds input video data.
The video data presentation device 22 includes a display and presents video data held in the video storage device 21 to the user.
[0057]
The partial video data designating device 23 is constituted by a coordinate input device such as a mouse, designates an arbitrary part of the video data presented by the video data presentation device 22, and designates the designated partial video data as a partial video data. Transfer to the video data presentation device 24.
The partial video data presentation device 24 presents the partial video data transferred from the partial video data designation device 23.
[0058]
The link data adding device 25 adds link data to the partial video data presented by the partial video data presenting device 24 and transfers it to the link data storage device 26.
The link data storage device 26 holds the link data added by the link data adding device 25 and the partial video data.
The link data presentation device 27 presents the link data added by the link data addition device 25 and the link data group.
[0059]
Here, extraction of arbitrary partial video data from video data will be described.
As a form of extracting the partial video data from the video data, the user manually designates the external shape (contour) or circumscribed rectangular progress on the image of the partial video data through the user interface provided by the video data processing device 1. There are forms such as a method of extracting partial video data by the method, and a method of selecting a supplement of partial video data automatically extracted by the video processing apparatus 1 by the user.
[0060]
Here, a method of extracting partial video data when the video processing apparatus 1 automatically extracts partial video data candidates will be described.
Assume that the video data from which the partial video data is to be extracted is as shown in FIG. That is, a rectangular area (x (yO, 30) in the xy orthogonal coordinates) on a frame of a certain frame of video data (Video.mpg) 31 (31 frames with frame numbers 120 to 150 in this example). , (1O, 10), (20, 10), (20, 30)}) are recorded as persons to be extracted as partial video data candidates. The figure shows an x-coordinate axis representing the horizontal direction, a y-coordinate axis representing the vertical direction, and a time t axis representing the flow of time.
[0061]
As shown in FIG. 4, this partial video data extraction procedure includes contour extraction processing in each frame (step S1), circumscribed rectangle calculation processing in each frame (step S2), inter-frame difference calculation processing (step S3), partial video It consists of data detection processing (step S4) and partial video data candidate presentation processing (step S5).
[0062]
Specifically, first, in the contour extraction process in each frame, the video processing device 1 performs the contour extraction process in each frame in the video data 31 in order to specify the rectangular area of the partial video data (step S1). . Contour extraction can extract a contour by extracting edges of a human image by using a so-called differential filter used in normal image processing and connecting the edges. Further, even when a person is divided into a plurality of small regions by the contour extraction process, it is possible to extract a region (contour) in units of people by a conventional region division / integration process.
[0063]
Next, after extracting the contour of the person unit, the circumscribed rectangle 33 including the contour is calculated in the circumscribed rectangle calculation process in each frame (step S2). Here, by this circumscribed rectangle calculation process, in the 31 frames from frame numbers 120 to 150, {(10,30), (10,10), (20,10), (20,30) )} Circumscribed rectangle 33 can be calculated.
[0064]
Subsequently, in the inter-frame difference calculation process and the partial video data detection process, each frame is compared to check whether a person in the same partial video data can be handled as a single object (partial video data). (Step S3, Step S4). That is, by calculating the frame difference between each frame as used in MPEG2 or the like, it is determined whether or not the recorded one frame and the next frame are the same.
[0065]
Specifically, in the inter-frame difference calculation process (step S3), in the frame difference between the frame with the frame number 119 and the frame number 120, no person is recorded in the frame with the frame number 119, and the frame with the frame number 120 is displayed. Since people are recorded, the result of the frame difference (for example, the sum of the differences of each pixel) has a large value. Similarly, the frame difference between the frame with frame number 150 and the frame with frame number 151 also has a large value. On the other hand, in the frames with frame numbers 120 to 150, since a person is recorded in the same rectangular area 33, the frame difference in that frame has a small value.
[0066]
In the partial video data detection process (step S4), based on the above frame difference value and whether or not the rectangular area 33 exists, the frame number 120 to 150 is a candidate for partial video data. It can be seen that is recorded.
Therefore, in the partial video data candidate presentation processing, the portion of the rectangular area 33 of these frames is presented as a single partial video data 32 to the user of the video processing apparatus 1.
[0067]
Next, as shown in FIG. 5, the processing procedure of the video processing apparatus 1 according to this example will be described.
This processing procedure includes video presentation (step S11), partial video designation (step S12), partial video presentation (step S13), link data addition (step S14), and link data storage (step S15). Become.
[0068]
First, in video presentation, the video data presentation device 22 presents video data held in the video storage device 21 of the video processing device 1 (step S11).
Next, in the designation of the partial video, so-called time code or frame number of the video data designated by the user and coordinate data are acquired using the partial video data designation device 23 (step S12).
[0069]
Subsequently, in the presentation of the partial video, the partial video data presentation device 23 presents the partial video data designated by the user (step S13).
In link data addition, the user adds related data (link data) to the partial video data presented by the partial video data presentation device 23 using the link data addition device 25 (step). S14).
Finally, in the link data storage, the link data storage device 26 holds the link data added by the user, the so-called time code or frame number of the video data, and the coordinate data (step S15). .
[0070]
FIG. 6 shows the data structure of data stored in the link data storage device 26. FIG. 7 also shows an expanded data structure of data stored in the link data storage device 26.
The link data storage device 26 holds the time code 41 of the partial image data, and is linked data 43 input by the link data adding device 25 and arbitrary coordinate data designated by the partial video data presentation device 24. 42, a storage device name 44, and partial image icon data 45 are stored. In the expanded data structure, user data 46 is further stored to perform collaborative work.
[0071]
For example, when the link data is added from the still image portion of a certain frame, the time code of the point of the video data of the partial video data presentation device 24 is recorded in the time code 41. In the case of designation of “from here to here”, information on the start point and end point to which link data is added is recorded in the time code 41.
[0072]
The coordinate data 42 gives the two-dimensional coordinates (x1, y1), (x1, y2), (x2, y2), (x2, y1) as the link target area coordinates to the partial video data presentation device 24, such as a mouse. The text data and partial image icons plotted by the input device are (x1, y1), (x1, y2), (x2, y2), (x2, y1) Hold.
The linked data 43 holds comments, electronic data file information, text data, and file storage location information.
[0073]
Next, an operation procedure will be described using the user interface example according to this example of FIG.
The user designates a partial video to which link data is to be added from the video presented on the video data presentation screen 51, whereby the designated partial video is displayed on the partial video data presentation screen 52.
[0074]
At any place designated by the user on the partial video data presentation screen 52, a comment or electronic data file with a plurality of text data is added to the presented image as partial image icons 61a to 61c from the link data addition screen 53. Is possible. In this case, as shown in FIG. 6 and FIG. 7, the specified time for adding the link data is stored as the time code 41, and the user adds the link data to any part on the partial video data presentation screen 52. Is stored in the coordinate data 42, and a comment or electronic data file based on the added text data is held as the link target data 43, and these three are held as one data.
[0075]
FIG. 9 shows a data structure after the link data is added to the partial video data.
Figure 9 shows the relationship between the three link data ("Question" and "This comment is a point" comment (text data) and the name "abc.mpg" in the time code (00: 01: 00.00) Video data). As described above, since the data is held for each designated arbitrary partial video data, the temporarily added link data can be erased from the partial video data.
[0076]
In addition, a storage device destination can be designated as the storage destination. This is because when video data with link data added is stored in a public server or private server like the storage device name 44, and for the same video data among a plurality of users. This is used when link data is added in cooperation.
[0077]
Furthermore, as shown in FIG. 8, when link data is added as the same related data to an arbitrary area designated on the partial video data presentation screen 52, links such as text data comments and related electronic data are linked. -Data can be superimposed. Here, not only icons and comments overlap the coordinate position, but also related link data can be registered as a group. The link data with “*” in FIG. 9 is held as grouped information.
[0078]
As shown in FIG. 10, when link data is added to a person object 71 or a place object 72 on the partial video data presentation screen 52, a message is sent when link data is added to the objects 71 and 72. It is possible.
For example, when adding link data to the person 71, the person message sending link data 73 is used. According to this, in order to ask a certain participant about video data for which a meeting has been held, the user adds a comment and an e-mail address to the participant displayed on the partial video data presentation screen. It is possible to send a message to the participant. Further, when sending the message, it is possible to send not only the comment but also the link data to which the user has added the link data. As a result, it is possible to grasp in a simple and appropriate manner what kind of situation the question is, the specified time, and the situation at the spot.
[0079]
When link data is added to a place object, place space message sending link data 74 is used. The usage is assumed as follows. In other words, if any specified partial video data holds an important person's comment and wants to use that information in a future meeting, use a message service such as e-mail for the meeting place. And send the data. When actually used, it is disclosed using the terminal at the location or the user's terminal.
[0080]
On the linked data presentation screen 54, a plurality of partial video data presentation screens 62a to 62e with link data added by the user in the video data are presented. Further, as the link data group presented on the link target data presentation screen 54, not only link data extracted from the video data but also link data other than the video data can be designated.
[0081]
Next, a procedure for adding video data and link data between a plurality of users via a network will be described.
FIG. 11 shows an example of a device and a user interface that are mainly used when used among a plurality of users.
User A and user B take out video data from the video storage device 21 and designate arbitrary partial video data to which link data is added.
[0082]
In FIG. 11, for the same partial video data, the user A uses a link data addition input dialog (link data addition screen) 53 to generate one piece of link data “this person is Mr. X”. The user B uses the link data addition input dialog 53 to add two pieces of link data “related video of this conversation” (text data) and “xyz.mpg” (video data). Is added. These data are held in the link data storage device 26. The data structure is shown in FIG. 12, and the time codes and coordinate data of user A and user B are held respectively. FIG. 13 shows an image diagram in which partial image icons 81a and 83a to 83c representing link data added by the user A and the user B are simultaneously presented. The linked object data presentation screen 53 of each user A and B shows partial image data 82a to 82c and 84a to 84d with respective link data.
[0083]
Also, user A designates partial video data to which link data is added in advance, and later tells user B the location of the partial video data by e-mail etc. Asynchronous collaborative work is possible. Furthermore, it is possible to re-edit partial video data and link data created in advance by accessing the link data storage device 26 between a single user or a plurality of users.
[0084]
Further, in order to be able to add, hold and present link data between a single user or a plurality of users, a configuration as shown in FIG. 14 can be used. In this configuration, the terminal device of user A, the terminal device of user B, the link / data storage device 98 shared among the users, and the video storage device 97 shared among the users are networked. Connected through. The devices of users A and B include video data presentation devices 91a and 91b, (optional) partial video data designating devices 92a and 92b, partial video data presentation devices 93a and 93b, and link data, respectively. Additional devices 94a and 94b, link data presentation devices 95a and 95b, and link data storage devices 96a and 96b are provided.
[0085]
With reference to FIG. 15 and FIG. 16, a description will be given of a case where video data synthesized by reusing video data 1 and video data 2 created in advance composed of linked data and video data is created.
FIG. 15 shows a state in which the link target data 102 is linked to the video data 101.
[0086]
FIG. 16 shows an example in which video data is reused and edited using the video processing apparatus 1 of this example.
Before a certain meeting is held, the meeting organizer and the like can understand the process up to now and share the video data 1 created in advance related to this meeting in order to share it among the participants. While accessing the video data 2 and browsing the meeting minutes and materials which are the individual linked target data 114a, 115a, 115b, 116a-116c, 124a, 125a-125c, 126a, a plurality of video data 111-113 , 121-123, the most relevant video data can be taken out and edited, such as rearranged, to produce synthesized video data.
[0087]
Next, a process of automatically extracting a video frame that is a target of link data from video data will be described.
As described above, the link data adding device 25 allows the user to designate the partial video data, as well as the video data in the video data after the specified arbitrary partial video data, and the video data in the video data. When the video object and audio data are analyzed, the partial audio data estimated to be the same person's utterance and the same content in the dialogue between multiple persons on the corresponding frame of the partial video data for which link data is specified The estimated partial audio data is extracted, and video data (partial video data) and link data corresponding to the extracted partial audio data are added.
[0088]
For example, FIG. 17 is an example of extracting the start point and the end point of speech estimation of the same person.
In this case, among a plurality of frames F1 to F7 that are continuous with respect to the axis of time t, the audio data of the frame (for example, the frame F1 or the frame F4) to which the link target data is to be added is the next frame (for example, the frame F2 or the frame F7) and the point where the audio data is interrupted are presented as the speech estimation points T1 and T2, and the video frames corresponding to the start and end points of the audio data are added to the link target data. To do.
[0089]
FIG. 18 is an example of extracting the start point and the end point of the dialog estimation between a plurality of persons. Also in this case, the dialog estimated locations T11 to T14 are extracted from a plurality of frames F11 to F17 continuous with respect to the axis of time t, as in the case of FIG. However, in this example, in this case, if the time between the conversations T21 and T22 occurring during the conversation is Δt, as shown in FIG. 19, this is the same if Δt is shorter than a certain interval. Guess the dialogue part.
[0090]
Next, a video processing apparatus and a video processing method according to the second embodiment of the present invention will be described.
The schematic configuration and operation of the video processing apparatus 1 of this example are the same as those shown in the first embodiment, for example, and in this example, different parts will be described in detail.
[0091]
FIG. 20 is a block diagram showing an example of the data structure of the link data according to this example.
The link data of this example includes an identifier 131, a video data file name 132, a frame start number 133, a frame end number 134, a link target area coordinate 135, a link target data name (for example, URL) 136, and visual feedback It consists of data 137.
[0092]
The identifier 131 is data for distinguishing the link data itself, and is assigned by the link management unit 15 for each link data.
The video data file name 132 identifies video data to be linked.
The frame start number 133 is a start number of a frame to be linked with the video data.
The frame end number 134 is the end number of the frame to be linked with the video data.
[0093]
The link target area coordinates 135 are coordinate data to be linked in the video data designated by the user.
The linked target data name 136 is a name of data linked to the video data.
The visual feedback data 137 is data used for visually giving feedback to the user that there is a link to the video data.
[0094]
Here, the identifier 131 is set by the link management unit 15.
The video data name 132, the frame start number 133, the frame end number 134, and the link target area coordinates 135 are input from the user by the link target area specifying unit 12.
The link target data name 136 is input from the user by the link generation unit 13 using a dialog-type user interface.
The visual feedback data 137 is generated by the link generation unit 13.
[0095]
FIG. 21 is a diagram showing a main user interface according to the present example.
The main user interface 141 includes a video presentation screen 142, a video playback button 143, a video stop button 144, a link start button 145, a link end button 146, and a link target data name input dialog 147.
[0096]
The video presentation screen 142 presents video data held in the storage unit 11 to the user.
The video playback button 143 makes it possible to start playback of the video data when the user clicks with the mouse or the like.
The video end button 17 enables the reproduction of the video data to be stopped when the user clicks with a mouse or the like.
[0097]
The link start button 145 allows the user to specify the start frame of the video data being reproduced to be linked by clicking with the mouse or the like.
The link end button 146 allows the user to specify the end frame of the video data being reproduced to be linked by clicking with the mouse or the like.
The linked target data name input dialog 147 allows the user to input the linked target data name to be linked to the video data through the dialog.
[0098]
FIG. 22 is a flowchart showing an example of the linking process of the video processing apparatus 1 of this example.
As shown in FIG. 22, the linking process includes an initialization process (step S21), a video reproduction detection process (step S22), a link start detection process (step S23), a link end detection process (step S24), and a link target area. It consists of definition processing (step S25), linked target input processing (step S26), link generation processing (step S27), link presentation processing (step S28), and video stop detection processing (step S29).
[0099]
Next, the processing procedure of the video processing apparatus 1 of this example will be described using the flowchart of FIG.
First, in the initialization process, the storage unit 11, the link target area designating unit 12, the link generation unit 13, the video presentation unit 14, and the link management unit 15 of the video processing device 1 are initialized (step S21). .
[0100]
That is, first, link data is generated and initialized by the link management unit 15. Specifically, the file name of the video data to be used held in the storage unit 11 is set as the value of the video data name 132 in the link data by using dialog input or the like. As the link data identifier 131, an identifier unique to the video processing apparatus 1 is set by the link management unit 15. The link management unit 15 sets values such as 0 as default values for the frame start number 133 and the frame end number 134 of the link data. Similarly, the link management unit 15 sets predetermined values for the link target area coordinates 135 of the link data, the linked target data name 136, and the visual feedback data 137. The link data generated by the link management unit 15 is held by the storage unit 11.
[0101]
Next, in the video playback detection process, playback of the video data designated by the user is started by detecting the click of the video playback button 143 using the mouse or tablet from the user (step S22). ).
Subsequently, in the link start detection process, the link management unit 15 determines the frame start number for defining the link area for the video data by detecting the click of the link start button 145 from the user. The value is set as the frame start number 133 of the link data (step S23).
[0102]
Subsequently, in the link end detection process, the link management unit 15 determines the frame end number for defining the link area for the video data by detecting the click of the link end button 146 from the user. The value is set as the frame end number 134 of the link data (step S24). Here, the link management unit 15 temporarily stops the reproduction of the video data.
[0103]
In the link target area definition process, the link management unit 15 first superimposes the message and video data on the fact that the link target area can be defined on the video presentation screen 142 for the user. Notice. Further, the link target area designating unit 12 acquires coordinate data of an area to be linked to video data presented on the video presentation screen 142 by designation with the mouse from the user. Here, the link target area designating unit 12 gives the user visual feedback such as surrounding the area designated by the user with a white line. The link target area designating unit 12 stores coordinate data defining the link target area acquired from the user (hereinafter also referred to as link target area defining coordinate data) in the storage unit 11. The value is set as the value of the link target area coordinate 135 of the data (step S25).
[0104]
In the linked target input process, the link management unit 15 obtains the linked target data name specified by the linked target data name input dialog from the user, and stores the link data stored in the storage unit 11. It is set as the value of the linked target data name 136 (step S26).
In the link generation process, the link generation unit 13 uses the value of the link target area coordinates 135 of the link data held in the storage unit 11 and the video data corresponding to the frame start number 133 to the frame end number 134. Image data and related coordinate data for visual feedback to a person are generated. The image data and related coordinate data are set as visual feedback data of link data (step S27).
[0105]
In the link presentation process, the image data related to the video data is superimposed and presented on the video presentation screen 142 using the related coordinate data of the visual feedback data 137 of the link data (step S28).
In the video stop detection process, it is detected whether or not the user has clicked the video stop button with the mouse. If the user has clicked, the presentation of the video data is stopped and the linking process is terminated (step S29). On the other hand, if the user has not clicked, the process after the link start detection process is performed again (steps S23 to S29).
[0106]
Here, the link target area definition process (step S25) and the link generation process (step S27) will be described in detail with reference to FIGS.
FIG. 23 shows an example of a video object (logo “Y”) 151 linked as partial video data.
FIG. 23 shows video data (still image data in each frame) corresponding to the frame start number 133 to the frame end number 134 held in the storage unit 11.
[0107]
FIG. 24 shows a diagram in which the video object 151 is being displayed to the user using the video presentation screen 142 by a frame 152 by the user operating the mouse.
FIG. 25 shows a diagram of a video object 153 in which the video object 151 is tilted obliquely by image processing.
FIG. 26 shows a diagram in which shadow data 154 is generated by image processing of edge extraction (boundary extraction) and color conversion of the slanted video object 153 of FIG.
[0108]
FIG. 27 shows a diagram in which the original video object 151 in FIG. 23 and the shadow data 154 in FIG. 26 are combined.
FIG. 28 shows a diagram in which an area to be presented to the user using the video presentation screen 142 is extracted from the data of FIG.
[0109]
In the link target area definition process (step S25), as described above, first, it is possible to link to the video object, the color of the frame of the video presentation screen 142 is changed, or the color of the link start button 145 is changed. Notify users by making changes.
Next, the user operates the mouse while referring to the video object 151 shown in FIG. 23 presented on the video presentation screen 142, and the video object (here, “Y” logo) 151 to be linked. Select. The selection result is indicated by a frame 152 shown in FIG.
[0110]
The coordinates representing the frame 152 (for example, the coordinates of the upper left corner and the lower right corner) are set as the link target area coordinates 135 of the link data held in the storage unit 11 as the link target area definition coordinate data.
Subsequently, in the link generation process (step S27), image processing such as projective transformation of the image in FIG. 24 is performed to make it distinguishable from the original video object 151 in FIG. Furthermore, the shadow data 154 is obtained by performing contour extraction using a differential filter on the slanted video object 153, determining the boundary between the video object 153 and the background, and performing color conversion of the area of the video object 153. Generate.
[0111]
Further, the image of FIG. 27 is obtained by combining the original video object 151 of FIG. 23 and the generated shadow data 154.
Finally, visual feedback data 137 is generated by clipping the region to be presented on the video presentation screen 142 to the user. The coordinate value of the boundary of the clipped shadow data 155 with the background or the original video object 151 is set as related coordinate data as the visual feedback data 137 held in the storage unit 11 together with the shadow data 154. Subsequently, in the link generation process (step S27), the video of FIG. 28 is presented on the video presentation screen 142.
[0112]
Here, the link generation processing (step S27) when a plurality of links are made to one video object will be described.
When a plurality of links are made to one video object, as shown in FIG. 29, a plurality of video objects inclined at different angles are generated, and the shadow data 156a is changed by changing the shadow color. By generating 156b, the user can distinguish each link. The shadow data 156a and 156b are superimposed on the original video data 151 of FIG. 23 as shown in FIG. 30 and further subjected to clipping processing as shown in FIG. 31, thereby using the images 157a and 157b after the clipping processing. Visual feedback data 137 is generated.
[0113]
Next, a description will be given of the state of the user interface when the user instructs the link target presentation by designating the shadow data presented by visual feedback with the mouse.
First, when a link is associated with the video object presented on the video presentation screen 142, the shadow data is superimposed and displayed as described above. When the user clicks the shadow data with the mouse, the link management unit 15 uses the identifier 131 in the link data, the video data name 132, the frame start number 133, the frame end number 134, and the visual feedback data. 137 is determined whether or not included, and if it matches or included, the value of the linked data name 136 is displayed in the linked data name input dialog 147 so that the user can Make the link target data accessible. Alternatively, the contents of the linked target data name 136 are presented on another window or display (for example, the video presentation screen 142 is divided into screens and displayed on the one screen).
[0114]
In the above description, the video data and the link target data have been described on the premise that they are stored in the storage unit 11 of the same video processing device 1, but the video data or the link target data is, for example, via a network. The video processing apparatus 1 may be connected to the video processing apparatus 1 to access the video data or the link target data. In this case, the video data name 132 or the link target data name 136 in FIG. 20 can be configured as a so-called URL that represents the access destination of the video data or a URL that represents the access destination of the link target data, respectively.
[0115]
Further, the description has been made on the assumption that the video data and the link target data are held in the storage unit 11 of the same video processing apparatus 1, but as shown in FIG. 32, the client 161 and the server 162 are connected via the network 163. The functions of the respective units of the video processing device 1 described above can be separately arranged in the client 161 or the server 162 and linked. For example, as shown in FIG. 32, the link generation unit 173 is arranged in the server 162, and the storage unit 171, the link target designation unit 172, the video instruction unit 174, and the link management unit 175, which are other processing units, are arranged in the client 161. It is also possible to adopt a configuration.
[0116]
FIG. 33 shows an example of the format of link data transmitted to the network.
As shown in FIG. 33, when the client 161 and server 162 as shown in FIG. 32 are connected via the network 163 by converting the link data structure of FIG. 20 into, for example, the so-called XML format and transmitting it to the network. Link data can be transferred and used.
[0117]
Similarly, FIG. 34 shows another example of the format of link data transmitted to the network. FIG. 34 shows a state in which link data is designated as linked data.
Specifically, the link data identifier of LlNK001 is set as the <resource-name> element. When link data is designated as linked data in this way, the link management unit 175 interprets the XML format link data (link data with an identifier of LINK003) in FIG. 34 and converts the link data of L1NK001 into the link data. get. Further, the link management unit 175 interprets the XML format link data (link data with the identifier LlNKOO1) in FIG. Video.mpg data is set in the <audiovisual-data> element, and Detect that Annotation.txt data is set in <resource-name> element.
[0118]
Subsequently, the link management unit 175 causes the user to select whether to use Video.mpg data or Annotation.txt data, and presents the selected data on the video presentation screen 142. If a link data identifier is further set as a <resource-name> element, the same operation is repeated to follow the link. In this way, link data can be reused by setting the link data identifier in the linked data name 136 or the <resource-name> element. In addition, link data that has been XML formatted is transferred by e-mail or the like, and the link data that has been XML formatted is used by the transferred video processing device 1 of the user so that the link data can be reused. It is also possible to do.
[0119]
Next, means and steps for identifying any partial video data linked from electronic data such as linked text data, audio data, or video data will be described.
Here, it is assumed that link data as shown in FIG.
That is, the value “LlNK001” is set in the link identifier 131, the value “Video.mpg” is set in the video data name 132, the value “120” is set in the frame start number 133, and the frame end number 134 is set. The value of “150” is set, the value of “{(1O, 30), (10,10), (20,10), (20,30)}” is set in the link target area coordinate 135, and the linked It is assumed that the value “Annotation.txt” is set in the target data name 136 and “Visual.dat” is set in the visual feedback data 137.
[0120]
When a user specifies arbitrary partial video data from electronic data such as linked text data, audio data, or video data, the user first selects a desired data from the linked target data name input dialog 147 in FIG. Enter the linked data name (name of the electronic data). That is, the user inputs “Annotation.txt” using the linked target data name input dialog 147. When the link target data name is input from the link target data name input dialog 147, the link management unit 15 of the video processing device 1 selects the linked data from the link data held in the storage device 11. Searches and retrieves link data that matches the name value.
[0121]
Next, the link management unit 15 refers to the video data name 132 of the link data and acquires video data that matches the video data name from the storage unit 11. That is, the link management unit 15 refers to the value “Video.mpg” of the video data name 132 in the link data, and acquires the video data matching the “Video.mpg” from the storage unit 11.
[0122]
Subsequently, the link management unit 15 refers to the values “120” and “150” of the frame start number 133 and the frame end number 134 in the link data, that is, the frame to be extracted from the video data, that is, the frame number. Extract 120 to 150 frames. Furthermore, the link management unit 15 refers to the link data, refers to the link target area coordinates 135, and uses “{(10,30), (1O, 1O), (20,1O), ( 20,30)} ”.
[0123]
Therefore, the link management unit 15 matches the above-described extracted link target area coordinates of each frame, here (10, 30), (10, 10), (20, 10), (20, 30). Data corresponding to the visual feedback data 137 of the link data is arranged in the area surrounded by the coordinates and presented on the video presentation screen 142.
Therefore, the user can specify an area indicated by visual feedback in the video data “Video.mpg” corresponding to the linked target data name “Annotation.txt”.
[0124]
Next, electronic data such as linked text data, audio data, or video data is transferred to a telephone or communication system such as an electronic bulletin board system or a telephone, and the electronic data is transmitted to an object related to any linked partial video data. The means and steps for delivering data will be described.
[0125]
36 is similar to the video processing apparatus 1 of FIG. 1 in that a storage unit 191, a link target area designating unit 192, a link generation unit 193, a video presentation unit 194, and a link management unit 195 are provided. It is a block diagram showing an example of an expanded video processing device 181 to which a unit 196 and a telephone call unit 197 are added.
[0126]
The link / data transfer unit 196 is composed of a CPU and a buffer storage device. The link / data transfer unit 196 inputs link target data to be transferred from the storage unit 191, and transfers it to the telephone call unit 197.
The telephone call unit 197 is a subsystem having a normal telephone call function, and transmits the link target data input from the link / data transfer unit 196 to an external telephone.
[0127]
Here, it is assumed that link data as shown in FIG. That is, the value “LlNK002” is set in the link identifier 131, the value “Video.mpg” is set in the video data name 132, the value “120” is set in the frame start number 133, and the frame end number 134 is set. A value of “150” is set, and a value of “{(10,30), (10,10), (20,1O), (20,30)}” is set in the link target area coordinate 135 and the linked target It is assumed that the value “Voice.dat” is set in the target data name 136 and “Visual2.dat” is set in the visual feedback data 137. Voice.dat, which is voice data, is stored in the storage unit 191, and in combination with “Voice.dat”, a telephone number “O120-123-4567” for a call corresponding to the voice data “Voice.dat” is stored. Similarly, it is assumed that it is held in the storage unit 191.
[0128]
It is assumed that the user selects link data identified by the identifier “Link002” using the mouse by visual feedback presented on the video presentation screen 142.
When the link management unit 195 refers to the link data held in the storage unit 191 and specifies that the data to be linked is “Voice.dat” which is voice data, the link management unit 195 corresponds to the “Voice.dat”. The telephone number “O120-123-4567” for the call to be obtained is acquired.
[0129]
Next, the link management unit 195 transfers “Voice.dat” to the link data transfer unit 196. Subsequently, the telephone call unit 197 uses the acquired telephone number “0120-123-4567” to call the call destination, and when there is a call, reproduces “Voice.dat” as voice data and completes the call. .
[0130]
Here, it is assumed that the telephone is connected to a telephone of a normal public telephone network. However, instead of the telephone call unit 197, a data transmission function is prepared, and when the link target data is text data, an electronic bulletin board is used. It can also be configured to forward to. Similarly, it is possible to prepare a data transmission function having a so-called Internet telephone function instead of the normal telephone function, and transmit the link target data to the Internet telephone.
[0131]
Next, a video processing apparatus and a video processing method according to the third embodiment of the present invention will be described.
38 and 39 show video data and a frame 202 with one video object 203 and visual feedback 204a, 204b, 205a, 205b, 206a, 206b on the video presentation screen 201 of the video processing apparatus 1 of this example. It is a figure which shows the example of the user interface made.
In FIG. 40, video data and a frame 202 having two video objects 203 and 207 and visual feedback 205a, 205b, 206a, 206b, 208a and 208b are presented on the video presentation screen 201 of the video processing apparatus 1 of this example. It is a figure which shows the example of the user interface which is connected.
[0132]
FIG. 38 shows a case where one link is set for the video object (“Y” logo) 203.
On the other hand, FIG. 39 shows a case where two links are set for the same video object (“Y” logo) 203. When a plurality of links are set in this way, it is possible to distinguish the links by presenting graphics of different colors on the frame 202 of the video presentation screen 201.
[0133]
As shown in FIGS. 38, 39, and 40, the video objects 203, 207 are two sides of a frame 202 having a short distance from the video object (“Y” logo) 203, 207 to which the link is set. By placing figures 204a, 204b, 205a, 205b, 206a, 206b, 208a, 208b showing links at positions corresponding to horizontal positions (for example, horizontal axis) and vertical positions (for example, vertical axis) The person can get visual feedback indicating the presence of the link.
[0134]
As described above, in the video processing apparatus and the video processing method according to the embodiment of the present invention, the means for designating any partial video data in the video data and the video data and the designated partial video data are simultaneously presented. In a configuration comprising means, means for adding link data to specified arbitrary partial video data, and means for presenting target data linked to the specified arbitrary partial video data, One or more related link data is added to the partial video data, and one or more partial image icons indicating the link data are superimposed and presented, or visually adjacent to or superimposed on the partial video data. A means for presenting the existence of the link was provided.
[0135]
Then, the video data is presented by adding comments or related materials used for the text data to the video data, and any partial video data to which the annotation is to be added is specified. Present video data at the same time, add link data to specified partial video data, and visually add link data to adjacent partial video data to be linked or superimposed Present.
[0136]
Therefore, the link data is present in any partial video data by visually presenting the presence of the link adjacent to or overlaying any partial video data to be linked. Visual feedback can be provided to the user.
Also, the user can add text data, audio data, image data, related material file data, moving image data, etc. to the partial video data to which link data is to be added. It becomes possible to relate easily and appropriately.
In addition, the user interface for associating displays both video data and arbitrary partial video data, and reproduces the video data, so that the user adds link data while referring to the extracted partial video data. It becomes possible.
[0137]
In the video processing apparatus and the video processing method according to the embodiments of the present invention, the link data includes a time range of the partial video data, and the means for adding the link data is a means for specifying the time range of the partial video data. Equipped with.
Accordingly, the time range of the video data can also be specified as the specified range of the partial video data to which the link data is added.
[0138]
In the video processing apparatus and the video processing method according to the embodiments of the present invention, the link data or the partial video data includes area information in the video data of the partial video data, and the means for adding the link data is the partial video data. Get the region information above and compose the link data.
Therefore, the link data including the area information on the partial video data can be configured by the means for adding the link data.
[0139]
Further, in the video processing apparatus and the video processing method according to the embodiments of the present invention, the link data presentation means presents one or more partial image icons on the time axis and on the video data (on the space axis).
Therefore, it is possible to present one or more partial image icons on the time axis and on the video data (on the space axis).
[0140]
Further, in the video processing apparatus and the video processing method according to the embodiment of the present invention, the means for visually presenting the presence of the link adjacent to or overlapping the arbitrary partial video data to be linked is the arbitrary part The presence of the link is visually indicated by the video data, the shadow of the video object in the area, or the luminance change of a similar shape.
Therefore, by providing the user with visual feedback based on the luminance change of the shadow of the video object in the area or the shadow of the video object in the area or the similar shape, the video object in the area or the video object in the area Visual feedback can be provided to the user by the brightness change of the shadow corresponding to the shape or the similar shape.
[0141]
In addition, in the video processing apparatus and the video processing method according to the embodiment of the present invention, when a plurality of related data is indicated to an arbitrary location in the arbitrary partial data of the video, the partial images are added in an overlapping manner. Provided with means.
Therefore, when a plurality of link data are related to an arbitrary video object in an arbitrary partial data in the video data, the link data can be superimposed and added using a partial image icon or the like. Become.
[0142]
Further, in the video processing apparatus and the video processing method according to the embodiment of the present invention, the arbitrary partial video data or the region may include any partial video data or the luminance change of the shadow or similar shape of the video object in the region. A shadow shape to be presented or a similar shape is generated from the shape of the video object in the image.
Therefore, the shape of a shadow or similar shape to be presented from the shape of the video object in the arbitrary partial video data or the region as the luminance change of the shadow or similar shape of the video object in the region or the arbitrary partial video data By generating the above, it is possible to provide the user with visual feedback that does not feel uncomfortable with the original video data.
[0143]
Further, in the video processing apparatus and the video processing method according to the embodiment of the present invention, when a plurality of links are added to the same image data, a visual feedback is given to the user to distinguish each link. The linked information can be used effectively.
[0144]
Further, in the video processing apparatus and the video processing method according to the embodiment of the present invention, the means for visually presenting the presence of the link adjacent to or overlapping the arbitrary partial video data to be linked is the arbitrary partial video. A means for extracting a video object from a luminance change in the data is provided.
Therefore, the video object of arbitrary partial video data can be extracted from the luminance in the arbitrary partial video data.
[0145]
Further, in the video processing apparatus and the video processing method according to the embodiment of the present invention, the means for adding the link data allows the user to select the video target in the video data extracted from the luminance change of the video data.
Therefore, the user can select a video object in the video data extracted from the luminance change of the video data.
[0146]
Further, in the video processing apparatus and the video processing method according to the embodiment of the present invention, there are two or more means for visually presenting the presence of the link adjacent to or overlapping with any partial video data to be linked. When presenting a link, the presence of the link is visually presented based on such arbitrary partial video data or a different shadow or different similar shape luminance change or color change of the video object in the region.
Therefore, when a plurality of link data is added to the same partial video data, the plurality of links can be presented in an identifiable manner.
[0147]
Further, in the video processing apparatus and the video processing method according to the embodiment of the present invention, by adding the specified link data to the arbitrary partial video data, and simultaneously presenting the link data to the partial video data individually and in combination. In addition to adding related link data to a designated partial image of arbitrary partial video data, link data can be superimposed on the designated partial image.
[0148]
Further, in the video processing apparatus and the video processing method according to the embodiment of the present invention, the added link data is relative to the link data added to other arbitrary partial video data or other arbitrary partial video data. And means for generating link data of the link data.
Therefore, the link data added can be associated with other arbitrary partial video data and link data added to other arbitrary partial video data.
[0149]
As described above, in the video processing apparatus and the video processing method according to the embodiment of the present invention, a plurality of links can be associated with the same area in the video data or the same video object in the area, The specified arbitrary partial video data to which the link data is added can be associated with other arbitrary partial video data and other link data in the video data.
[0150]
In addition, in the video processing apparatus and the video processing method according to the embodiment of the present invention, as the contents of the link data, electronic data such as text data, audio data or video data, or an electronic file or link data is linked. Is described.
Accordingly, electronic data such as text data, audio data, or video data can be linked as the contents of data linked to the video data.
[0151]
As described above, in the video processing apparatus and the video processing method according to the embodiment of the present invention, an existing electronic document such as an associated e-mail, image data used in a conference, It is possible to associate electronic files such as partial audio data and video data.
[0152]
In addition, the video processing apparatus and the video processing method according to the embodiments of the present invention include means for adding, sharing, presenting, or distributing link data by one or a plurality of users.
Thus, for example, the user obtains link data using the portable information terminal and a means for adding, sharing, presenting or distributing the link data with respect to the stored link data, and linked video data. Various re-editing such as adding a link can be performed. In addition, the user obtains the link data and the video data to which the link data is added or the data to be linked by using means for adding, sharing, presenting or distributing the link data among a plurality of users. Thus, various re-editing operations such as compositing link data, video data to which link data is added, or data to be linked can be performed.
[0153]
Further, in the video processing apparatus and the video processing method according to the embodiment of the present invention, the means for adding the link data is such that the audio data is effective for a single person or a plurality of persons in any specified partial video data. In this case, there is provided means for extracting a time range of the partial video data from the moving image data and the audio data.
Therefore, by analyzing the audio data in any specified partial video data by means of adding link data, the same content in the dialogue between multiple persons such as the part of the same person's remarks or questions and answers It is possible to guess and cut out a portion that is, extract partial video data corresponding to the data of the portion, and add link data to the partial video data.
[0154]
The video processing apparatus and the video processing method according to the embodiments of the present invention further include means for specifying any partial video data to be linked from electronic data such as linked text data, audio data, or video data. It was.
Therefore, by specifying any partial video data linked from electronic data such as linked text data, audio data or video data, any partial video data linked from the linked electronic data etc. It becomes possible to refer to it.
[0155]
Further, in the video processing apparatus and the video processing method according to the embodiment of the present invention, the user designates the partial video data or the video target in the partial video data, so that the linked text data, audio data, or video data is specified. The electronic data is transferred to an electronic bulletin board system, a call or communication system such as a telephone or electronic mail, and the electronic data is delivered to an object related to any linked partial video data.
Therefore, referring to the other party's data related to the arbitrary partial video data from the arbitrary partial video data using the electronic bulletin board system or the telephone or communication system, the electronic data etc. Can be notified or transferred.
[0156]
Further, in the video processing apparatus and the video processing method according to the embodiments of the present invention, any configuration in which link data is linked in a configuration in which video data is presented, link data is held and processed with respect to the video data. Corresponding to the partial video data, there is provided means for visually presenting the presence of a link in the outer frame of the video data.
Therefore, the presence of a link to the partial video data can be presented using the outer frame without disturbing the presented video data.
[0157]
As described above, in the video processing apparatus and the video processing method according to the embodiment of the present invention, when video data linked with link data is presented to the user, for example, the user presents video in the video processing apparatus. Visual feedback of the link can be given to the user without moving the mouse over the area of the video data presented on the screen, informing the user of the presence of one or more links Can do. In addition, it is possible to refer to arbitrary partial video data from electronic data such as linked text data, audio data, or video data. Furthermore, it is possible to refer to or use an object related to the arbitrary partial video data from the arbitrary partial video data through the electronic bulletin board system or the telephone or the communication system through visual feedback.
[0158]
In the video processing apparatus according to the embodiment of the present invention, the partial video data specifying means is configured by the function of the link target area specifying unit 12 for specifying the partial video data from the video data. Data associating means is constituted by functions such as the link generation unit 13 for associating (linking) with the data.
Further, in the partial video data specifying means such as the video processing apparatus according to the embodiment of the present invention, the partial video data candidate specifying means is configured by the function of specifying the partial video data candidates, and the partial video data is selected from the candidates. The partial video data designation accepting means is configured by the function of accepting data designation from the user.
[0159]
In the video processing apparatus according to the embodiment of the present invention, the related partial video data specifying unit is configured by the function of the link management unit 15 that specifies the partial video data from the data associated with the partial video data. The related data presenting means is configured by the function of the video presenting unit 14 that visually presents data (visual feedback data) indicating the presence of data associated with the partial video data in association with the partial video data. Yes.
[0160]
In the video processing apparatus according to the embodiment of the present invention, visual feedback data and predetermined processing are associated with each other in the storage unit 11, and the designation of the presented visual feedback data is received from the user. The presentation data designation receiving means is configured by the function of the video presentation unit 14 and the like, and the presentation data corresponding process is executed by the function of the link management unit 15 that executes the process associated with the visual feedback data that has received the designation. Means are configured.
[0161]
In addition, in the video processing apparatus according to the embodiment of the present invention, for example, a plurality of visual feedback data indicating the presence of a plurality of data associated with the partial video data is presented in association with the partial video data. A plurality of related data presenting means is configured by the functions of the video presenting unit 14 and the like.
[0162]
Here, the configurations and modes of the video processing apparatus and the video processing method according to the present invention are not necessarily limited to those described above, and various configurations and modes may be used.
The application field of the present invention is not necessarily limited to the above-described fields, and the present invention can be applied to various fields.
[0163]
In addition, various processes performed in the video processing apparatus and the video processing method according to the present invention include, for example, a control program stored in a ROM (Read Only Memory) in a hardware resource including a processor and a memory. A configuration controlled by execution may be used, and for example, each functional unit for executing the processing may be configured as an independent hardware circuit.
Further, the present invention can also be grasped as a computer-readable recording medium such as a floppy (registered trademark) disk or a CD (Compact Disc) -ROM storing the above control program, or the program (itself). The processing according to the present invention can be performed by inputting a program from a recording medium to a computer and causing the processor to execute the program.
[0164]
【The invention's effect】
As described above, in the video processing apparatus and the video processing method according to the present invention, for example, partial video data that is a part of the video data is specified from the video data, and the data is specified for the specified partial video data. Since the existence of data is associated so as to be presented, the existence of data associated with the partial video data can be presented.
That is, in the video processing apparatus and the video processing method according to the present invention, for example, data indicating the presence of data associated with the partial video data is presented in a visual association with the partial video data in the video data. Therefore, the existence of the associated data and the association can be visually grasped by the user.
[0165]
Further, in the video processing apparatus and the video processing method according to the present invention, for example, data indicating the presence of a plurality of data associated with partial video data that is a part of the video data specified from the video data is stored in the video. Since the partial video data in the data is presented in a visually correlated manner, the presence of the plurality of associated data and the association can be visually recognized by the user.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a configuration example of a video processing apparatus according to the present invention.
FIG. 2 is a diagram showing a detailed configuration example of a video processing apparatus according to the present invention.
FIG. 3 is a diagram illustrating a state in which partial video data is extracted from video data.
FIG. 4 is a diagram illustrating an example of a processing procedure for extracting partial video data.
FIG. 5 is a diagram illustrating an example of a processing procedure for adding link data to partial video data;
FIG. 6 is a diagram illustrating an example of a data structure of a link data additional storage device;
FIG. 7 is a diagram showing an example of an extended data structure of a link data additional storage device.
FIG. 8 is a diagram illustrating an example of a user interface.
FIG. 9 is a diagram illustrating an example of a data structure after link data is added to partial video data.
FIG. 10 is a diagram showing an example of a user interface for link data addition presentation;
FIG. 11 is a diagram illustrating a specific example of a device configuration and a user interface in cooperative work.
FIG. 12 is a diagram showing another example of a data structure after link data is added to partial video data.
FIG. 13 is a diagram showing an example in which partial image icons representing link data added by a plurality of users are presented.
FIG. 14 is a diagram illustrating a configuration example of a system that performs editing work;
FIG. 15 is a diagram illustrating an example of a structure of linked data / target data and video data;
FIG. 16 is a diagram illustrating an example of a state in which video data synthesized from a plurality of video data portions is generated.
FIG. 17 is a diagram showing an example of speech estimation when link data is added.
FIG. 18 is a diagram showing an example of dialog estimation when link data is added.
FIG. 19 is a diagram for explaining an example of a method of guessing a dialog when link data is added.
FIG. 20 is a diagram illustrating an example of a data structure of link data.
FIG. 21 is a diagram illustrating an example of a user interface.
FIG. 22 is a diagram illustrating an example of a procedure of a linking process.
FIG. 23 is a diagram illustrating an example of a video object.
FIG. 24 is a diagram illustrating an example of a video object surrounded by a frame.
FIG. 25 is a diagram showing an example in which a video object is tilted obliquely.
FIG. 26 is a diagram showing an example of shadow data.
FIG. 27 is a diagram illustrating an example of a composition of a video object and shadow data.
FIG. 28 is a diagram illustrating an example of an extracted region where video objects and shadow data should be presented.
FIG. 29 is a diagram illustrating an example of a plurality of shadow data.
FIG. 30 is a diagram illustrating an example of a composite of a video object and a plurality of shadow data.
FIG. 31 is a diagram illustrating an example of an extracted region where video objects and a plurality of shadow data are to be presented;
FIG. 32 is a diagram illustrating an example of a configuration for performing a linking process via a network.
FIG. 33 is a diagram illustrating an example of a format of link data transmitted to a network.
FIG. 34 is a diagram showing another example of the format of link data transmitted to the network.
FIG. 35 is a diagram illustrating an example of link data values;
FIG. 36 is a diagram illustrating a configuration example of an extended video processing apparatus.
FIG. 37 is a diagram illustrating an example of link data values;
FIG. 38 is a diagram illustrating an example of a user interface in which video data including one video object, a frame, and visual feedback are presented on a video presentation screen of the video processing apparatus.
FIG. 39 is a diagram illustrating an example of a user interface in which video data including one video object, a frame, and visual feedback are presented on a video presentation screen of the video processing apparatus.
FIG. 40 is a diagram illustrating an example of a user interface in which video data including two video objects, a frame, and visual feedback are presented on a video presentation screen of the video processing apparatus.
[Explanation of symbols]
1, 181... Video processing device 11, 171, 191.
12, 172, 192 .. link target area designating part,
13, 173, 193 .. link generation unit,
14, 174, 194 .. Video presentation part,
15, 175, 195 ··· link management unit, 21, 97 ·· video storage device,
22, 91a, 91b .. video data presentation device,
23, 92a, 92b .. Arbitrary partial video data designation device,
24, 93a, 93b .. Partial video data presentation device,
25, 94a, 94b,.
26, 96a, 96b, 98... Link data storage device,
27, 95a, 95b .. link data presentation device,
31, 101, 111-113, 121-123, F1-F7, F11-F17 ..video data,
32 ... Partial video data 33 ... circumscribed rectangle 41 ... time code
42 .. coordinate data,
43, 102, 114a, 115a, 115b, 116a, 116b, 116c, 124a, 125a, 125b, 125c, 126a ...
44 .. Storage device name 45.. Partial image icon data
46 ・ ・ User data, 51 ・ ・ Video data presentation screen,
52..Partial video data presentation screen, 53.Link data addition screen,
54 ..Linked data presentation screen,
62a to 62e, 82a to 82c, 84a to 84d, partial video data with link data,
71, 72 ... objects,
73, 74 .. Link data for sending messages,
81a, 83a to 83c, partial image icons,
T1, T2,.
T11 to T14, T21, T22 .. dialog guessing point, 131 .. identifier,
132 .. Video data name 133.. Frame start number
134-Frame end number, 135-Link target area coordinates,
136 ..Linked data name,
137 .. Visual feedback data.
141..User interface 142, 201..Video presentation screen,
143 ... Video playback button, 144 Video stop button,
145 ... Link start button, 146 ... Link end button,
147 .... Link target data name input dialog,
151, 203, 207 ... Video object, 152 ... Frame
153 .. Video object tilted diagonally,
154, 156a, 156b, 157a, 157b, shadow data,
155 .. Extracted area to be presented with shadow data,
161..Client, 162..Server, 163..Network,
196 ··· Link and data transfer section, 197 · · Telephone call section,
202 .. Frame of video presentation screen,
204a, 204b, 205a, 205b, 206a, 206b, 208a, 208b .. visual feedback,

Claims (13)

映像データから当該映像データの部分である部分映像データを特定する部分映像データ特定手段と、
特定した部分映像データに対してデータ関連付けるデータ関連付け手段と、
部分映像データに関連付けられたデータの存在を示すデータを映像データ中の当該部分映像データと視覚的に関連付けて提示する関連データ提示手段と、を備え、
関連データ提示手段は、部分映像データに関連付けられたデータの存在を示すデータとして、当該部分映像データの形状に基づく形状を有する影のデータを提示する、
ことを特徴とする映像処理装置。
Partial video data specifying means for specifying partial video data that is a part of the video data from the video data;
Data association means for associating data with the identified partial video data;
Associated data presenting means for visually presenting data indicating the presence of data associated with the partial video data in association with the partial video data in the video data;
The related data presenting means presents shadow data having a shape based on the shape of the partial video data as data indicating the presence of data associated with the partial video data.
A video processing apparatus characterized by that.
映像データから当該映像データの部分である部分映像データを特定する部分映像データ特定手段と、
特定した部分映像データに対してデータ関連付けるデータ関連付け手段と、
部分映像データに関連付けられたデータの存在を示すデータを映像データ中の当該部分映像データと視覚的に関連付けて提示する関連データ提示手段と、を備え、
関連データ提示手段は、部分映像データに関連付けられたデータの存在を示すデータとして、映像データのフレームの外側であって当該フレームの外側に設けられた枠の内側に、当該部分映像データのフレーム内での水平位置を示すデータ及び垂直位置を示すデータを提示する、
ことを特徴とする映像処理装置。
Partial video data specifying means for specifying partial video data that is a part of the video data from the video data;
Data association means for associating data with the identified partial video data;
Associated data presenting means for visually presenting data indicating the presence of data associated with the partial video data in association with the partial video data in the video data;
The related data presenting means is a data indicating the presence of data associated with the partial video data. Presents data indicating the horizontal position and data indicating the vertical position at
A video processing apparatus characterized by that.
請求項1又は請求項2に記載の映像処理装置において、
部分映像データ特定手段は、映像データに含まれる同一の対象のデータについての時間幅を有する部分映像データを特定する、
ことを特徴とする映像処理装置。
In the video processing device according to claim 1 or 2,
The partial video data specifying means specifies partial video data having a time width for the same target data included in the video data.
A video processing apparatus characterized by that.
請求項3に記載の映像処理装置において、
映像データは音声データと対応しており、
部分映像データ特定手段は、映像データに含まれる単数又は複数の人物のデータについて、当該人物のデータに対応した音声データが有効である時間幅を有する部分映像データを特定する、
ことを特徴とする映像処理装置。
The video processing apparatus according to claim 3.
Video data is compatible with audio data,
The partial video data specifying means specifies partial video data having a time width in which audio data corresponding to the data of the person is valid for the data of one or more persons included in the video data.
A video processing apparatus characterized by that.
請求項1乃至請求項4のいずれか1項に記載の映像処理装置において、
部分映像データ特定手段は、映像データのフレーム内で部分映像データが位置する領域を特定するデータを用いて当該部分映像データを特定する、
ことを特徴とする映像処理装置。
The video processing apparatus according to any one of claims 1 to 4,
The partial video data specifying means specifies the partial video data using data for specifying an area where the partial video data is located in the frame of the video data.
A video processing apparatus characterized by that.
請求項1乃至請求項5のいずれか1項に記載の映像処理装置において、
部分映像データ特定手段は、複数の部分映像データの候補を特定する部分映像データ候補特定手段と、特定した部分映像データ候補に含まれる部分映像データの指定をユーザから受け付ける部分映像データ指定受付手段とを有し、指定を受け付けた部分映像データを特定した部分映像データとする、
ことを特徴とする映像処理装置。
The video processing apparatus according to any one of claims 1 to 5,
The partial video data specifying means includes a partial video data candidate specifying means for specifying a plurality of partial video data candidates, a partial video data designation receiving means for receiving designation of partial video data included in the specified partial video data candidates from a user, and And the specified partial video data is designated as partial video data.
A video processing apparatus characterized by that.
請求項1乃至請求項6のいずれか1項に記載の映像処理装置において、
部分映像データに関連付けられたデータから当該部分映像データを特定する関連部分映像データ特定手段を備えた、
ことを特徴とする映像処理装置。
The video processing apparatus according to any one of claims 1 to 6,
Provided with related partial video data specifying means for specifying the partial video data from the data associated with the partial video data;
A video processing apparatus characterized by that.
請求項1乃至請求項7のいずれか1項に記載の映像処理装置において、
部分映像データに関連付けられたデータの存在を示すデータと所定の処理とが対応付けられており、
提示された部分映像データに関連付けられたデータの存在を示すデータの指定をユーザから受け付ける提示データ指定受付手段と、
指定を受け付けたデータに対応付けられた処理を実行する提示データ対応処理実行手段と、
を備えたことを特徴とする映像処理装置。
The video processing apparatus according to any one of claims 1 to 7,
Data indicating the presence of data associated with the partial video data is associated with a predetermined process,
Presenting data designation accepting means for accepting designation of data indicating the presence of data associated with the presented partial video data from the user;
A presentation data corresponding process execution means for executing a process associated with the data for which the designation has been received;
A video processing apparatus comprising:
請求項1乃至請求項8のいずれか1項に記載の映像処理装置において、
複数の端末装置により同一の映像データに関する操作を実行することが可能である、
ことを特徴とする映像処理装置。
The video processing apparatus according to any one of claims 1 to 8,
It is possible to execute operations related to the same video data by a plurality of terminal devices.
A video processing apparatus characterized by that.
映像処理装置に備えられた部分映像データ特定手段が、映像データから当該映像データの部分である部分映像データを特定し、
前記映像処理装置に備えられたデータ関連付け手段が、特定した部分映像データに対してデータ関連付け、
前記映像処理装置に備えられた関連データ提示手段が、部分映像データに関連付けられたデータの存在を示すデータとして、当該部分映像データの形状に基づく形状を有する影のデータを、映像データ中の当該部分映像データと視覚的に関連付けて提示する、
ことを特徴とする映像処理方法。
The partial video data specifying means provided in the video processing device specifies the partial video data that is a part of the video data from the video data,
Data associated means provided in the image processing apparatus associates the data to the specified partial image data,
The related data presenting means provided in the video processing device, as data indicating the presence of the data associated with the partial video data, the shadow data having a shape based on the shape of the partial video data, Presented in visual association with partial video data,
And a video processing method.
映像処理装置に備えられた部分映像データ特定手段が、映像データから当該映像データの部分である部分映像データを特定し、
前記映像処理装置に備えられたデータ関連付け手段が、特定した部分映像データに対してデータ関連付け、
前記映像処理装置に備えられた関連データ提示手段が、部分映像データに関連付けられたデータの存在を示すデータとして、映像データのフレームの外側であって当該フレームの外側に設けられた枠の内側に、当該部分映像データのフレーム内での水平位置を示すデータ及び垂直位置を示すデータを、映像データ中の当該部分映像データと視覚的に関連付けて提示する、
ことを特徴とする映像処理方法。
The partial video data specifying means provided in the video processing device specifies the partial video data that is a part of the video data from the video data,
Data associated means provided in the image processing apparatus associates the data to the specified partial image data,
The related data presenting means provided in the video processing device, as data indicating the presence of data associated with the partial video data, is outside the frame of the video data and inside the frame provided outside the frame. , Presenting the data indicating the horizontal position and the data indicating the vertical position within the frame of the partial video data in a visual association with the partial video data in the video data,
And a video processing method.
映像処理装置を構成するコンピュータに実行させるプログラムであって、
映像データから当該映像データの部分である部分映像データを特定する機能と、
特定した部分映像データに対してデータ関連付ける機能と、
部分映像データに関連付けられたデータの存在を示すデータとして、当該部分映像データの形状に基づく形状を有する影のデータを、映像データ中の当該部分映像データと視覚的に関連付けて提示する機能を、当該コンピュータに実現させる、
ことを特徴とするプログラム。
A program to be executed by a computer constituting the video processing device,
A function for identifying partial video data that is a part of the video data from the video data;
A function for associating data with specified partial video data;
A function for presenting shadow data having a shape based on the shape of the partial video data as a data indicating the presence of data associated with the partial video data, visually associated with the partial video data in the video data, Make it happen on the computer,
A program characterized by that.
映像処理装置を構成するコンピュータに実行させるプログラムであって、
映像データから当該映像データの部分である部分映像データを特定する機能と、
特定した部分映像データに対してデータ関連付ける機能と、
部分映像データに関連付けられたデータの存在を示すデータとして、映像データのフレームの外側であって当該フレームの外側に設けられた枠の内側に、当該部分映像データのフレーム内での水平位置を示すデータ及び垂直位置を示すデータを、映像データ中の当該部分映像データと視覚的に関連付けて提示する機能を、当該コンピュータに実現させる、
ことを特徴とするプログラム。
A program to be executed by a computer constituting the video processing device,
A function for identifying partial video data that is a part of the video data from the video data;
A function for associating data with specified partial video data;
As data indicating the presence of data associated with the partial video data, the horizontal position within the frame of the partial video data is indicated outside the frame of the video data and inside the frame provided outside the frame. Causing the computer to realize a function of presenting data and data indicating a vertical position in a visual association with the partial video data in the video data,
A program characterized by that.
JP2001308282A 2001-10-04 2001-10-04 Video processing device Expired - Fee Related JP4045768B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001308282A JP4045768B2 (en) 2001-10-04 2001-10-04 Video processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001308282A JP4045768B2 (en) 2001-10-04 2001-10-04 Video processing device

Publications (3)

Publication Number Publication Date
JP2003116095A JP2003116095A (en) 2003-04-18
JP2003116095A5 JP2003116095A5 (en) 2005-06-23
JP4045768B2 true JP4045768B2 (en) 2008-02-13

Family

ID=19127618

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001308282A Expired - Fee Related JP4045768B2 (en) 2001-10-04 2001-10-04 Video processing device

Country Status (1)

Country Link
JP (1) JP4045768B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12046043B2 (en) 2017-03-30 2024-07-23 Nec Corporation Information processing apparatus, control method, and program

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4081680B2 (en) * 2003-11-10 2008-04-30 ソニー株式会社 Recording apparatus, recording method, recording medium, reproducing apparatus, reproducing method, and content transmission method
JP2006127367A (en) * 2004-11-01 2006-05-18 Sony Corp Information management method, information management program, and information management apparatus
JP4434094B2 (en) * 2005-07-06 2010-03-17 ソニー株式会社 Tag information generation apparatus, tag information generation method and program
JP2007018198A (en) * 2005-07-06 2007-01-25 Sony Corp Device for generating index information with link information, device for generating image data with tag information, method for generating index information with link information, method for generating image data with tag information, and program
JP2007079809A (en) * 2005-09-13 2007-03-29 Fuji Xerox Co Ltd Electronic paper system
JP5002997B2 (en) * 2006-03-30 2012-08-15 カシオ計算機株式会社 Projection apparatus and program
US8826322B2 (en) 2010-05-17 2014-09-02 Amazon Technologies, Inc. Selective content presentation engine
KR102297919B1 (en) 2013-12-09 2021-09-02 파로님 가부시키가이샤 Interface device for link designation, interface device for viewer, and computer program
JP6565409B2 (en) * 2015-07-17 2019-08-28 沖電気工業株式会社 Communication support apparatus, communication support method and program
JP2017169222A (en) * 2017-05-10 2017-09-21 合同会社IP Bridge1号 Interface device for designating link destination, interface device for viewer, and computer program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12046043B2 (en) 2017-03-30 2024-07-23 Nec Corporation Information processing apparatus, control method, and program
US12046044B2 (en) * 2017-03-30 2024-07-23 Nec Corporation Information processing apparatus, control method, and program
US12106571B2 (en) 2017-03-30 2024-10-01 Nec Corporation Information processing apparatus, control method, and program

Also Published As

Publication number Publication date
JP2003116095A (en) 2003-04-18

Similar Documents

Publication Publication Date Title
US6557027B1 (en) System and method for managing on-line discussion having multiple topics in a collaborative data processing environment
US7996776B2 (en) Shared telepointer
US7562302B1 (en) System and method for automatic generation of visual representations and links in a hierarchical messaging system
JP3546705B2 (en) Method and apparatus for associating annotation data with application window, system, and storage medium storing program for controlling association of annotation data with application window
US7356563B1 (en) Methods of annotating a collaborative application display
US7310657B2 (en) Owner identification of collaboration work object
US7225227B2 (en) Conference support apparatus, information processor, teleconference system and computer product
JP3280330B2 (en) Communication method, client terminal, server, communication system, recording medium storing software product for controlling communication
US20060161624A1 (en) Methods and apparatuses for dynamically sharing a portion of a display for application based screen sampling
US20070054679A1 (en) Mobile communication terminal and method of the same for outputting short message
US20030182375A1 (en) Rich multi-media format for use in a collaborative computing system
JP4045768B2 (en) Video processing device
US20060161622A1 (en) Methods and apparatuses for selectively sharing a portion of a display for application based screen sampling using direct draw applications
JP2008084110A (en) Information display device, information display method and information display program
WO2004028652A1 (en) Communication device, communication method, program, and information recording medium
WO2017140242A1 (en) Information processing method and client
US20060161623A1 (en) Methods and apparatuses for selectively sharing a portion of a display for application based screen sampling
JP2019053566A (en) Display control device, display control method, and program
WO2009067889A1 (en) Display system and method for display panel
JP2000099524A (en) Multimedia information viewing device
JP3601314B2 (en) Multimedia information processing device
JP2001344613A (en) Device and method for processing picture information, and recording medium recorded with its processing
JP4348831B2 (en) Handwritten input data display system, coordinate data input device, display device, and handwritten input data display device
JP2760289B2 (en) Graphical user interface operating device for the visually impaired
JP2000267639A (en) Information processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040917

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041005

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070206

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070522

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070719

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20071003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071030

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071112

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101130

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111130

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111130

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121130

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121130

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131130

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees