JP2007142644A - 対応付け装置 - Google Patents

対応付け装置 Download PDF

Info

Publication number
JP2007142644A
JP2007142644A JP2005331694A JP2005331694A JP2007142644A JP 2007142644 A JP2007142644 A JP 2007142644A JP 2005331694 A JP2005331694 A JP 2005331694A JP 2005331694 A JP2005331694 A JP 2005331694A JP 2007142644 A JP2007142644 A JP 2007142644A
Authority
JP
Japan
Prior art keywords
input
cut
time
memo
word
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005331694A
Other languages
English (en)
Other versions
JP2007142644A5 (ja
JP4820627B2 (ja
Inventor
Yuka Ozawa
由佳 小澤
Mitsuhiro Kageyama
光宏 影山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2005331694A priority Critical patent/JP4820627B2/ja
Priority to US12/093,877 priority patent/US8134592B2/en
Priority to CNA2006800429398A priority patent/CN101310516A/zh
Priority to PCT/JP2006/322880 priority patent/WO2007058268A1/ja
Publication of JP2007142644A publication Critical patent/JP2007142644A/ja
Publication of JP2007142644A5 publication Critical patent/JP2007142644A5/ja
Application granted granted Critical
Publication of JP4820627B2 publication Critical patent/JP4820627B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8211Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being a sound signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Library & Information Science (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】映像素材との対応を意識することなく、映像素材毎にメモ情報の入力を行うことを可能にする。
【解決手段】入力された単語の入力開始時刻情報と撮影された映像素材の撮影時間情報を用いて、単語と映像素材とを対応付ける対応関係判定部40を備える。
【選択図】図2

Description

本発明は、取得した複数のデータを互いに対応付ける対応付け装置に関する。
放送局などの番組制作の現場では、1つの番組を制作する場合、予め必要な映像素材を準備しておき、その後の編集作業において必要な映像素材を選択、編集して所定時間の番組を構成する。映像素材を準備するには、スタジオや屋外のロケ地など、各地で多種多様な映像を撮影する必要があり、例えば、45分の番組では200以上もの映像素材が撮影されることもある。そのため、撮影した膨大な数量の映像素材から所望の映像を迅速に探し出せるか否か、即ち映像素材の検索時間の短縮化が効率的な番組制作の要諦となっている。
映像素材の検索方法としては、どのような対象を撮影した映像であるか、またどのような撮影状態であったかなどという映像素材の内容等に関するメモ情報を、撮影指示者またはその補助者が撮影中やその後に撮影素材と対応付けて記録しておき、編集時にはそのメモ情報を頼りに検索を行うという手法が一般的である。
撮影素材とメモ情報を対応付けて記録するため、従来は、メモ入力の際にメモの入力者が、どの撮影素材に対するメモであるかを特定するための撮影素材識別情報を付与する必要があった。例えば、映像素材を撮影中にメモを入力する場合、メモ入力者は撮影素材識別情報を付与するために、現在撮影中の素材の識別情報を例えば撮影中のカメラを操作して撮影中素材の識別情報をカメラのモニタやファインダに表示して確認をとり、該当素材識別情報をメモとして入力した上で、本来記述したかったメモを入力する、という作業が必要になる。このため、メモ入力時の作業負担が大きいのが課題であった。なお、入力した文字を所定の文字列単位で記憶、管理することができる文書作成装置として、例えば、特許文献1に記載されるものがある。
特開平8−185452号公報 第3頁〜第8頁 図2
本発明は、上記従来の事情に鑑みてなされたものであって、メモ入力者がメモ入力時にどの映像素材に対応するメモであるかを特定するための情報を明示的に付与しなくても、メモと撮影素材を対応付けることが可能な対応付け装置を提供することにより、メモ入力の作業工数を増やすことなく、素材の検索時間を短縮出来ることを目的とする。
本発明の対応付け装置は、取得した複数のデータを互いに対応付ける対応付け装置であって、入力された単語の入力開始時刻情報と撮影された映像素材の撮影時間情報とを用いて、前記単語と前記映像素材とを対応付ける対応関係判定手段を備える。
上記構成によれば、単語の入力時刻情報に基づいて単語と映像素材との対応付けを行うことにより、映像素材の撮影中に入力が開始された単語は、当該映像素材に対するメモとして、撮影素材と対応付けられる為、単語の入力者が映像素材との対応を意識することなく従来手書きしていたのと同じ感覚で単語を入力するだけで、入力したメモ情報が該当する映像素材毎に対応付けられる。したがって、メモ入力における労力を増やすことなく、すなわち、メモ記入者が明示的に該当メモに対応する映像素材の識別情報を調べてメモと同時に記入するなどの作業を不要として、映像素材毎にメモ情報を対応付けることができる。また、メモ情報を検索キーとして所望の映像素材を迅速に検索することができる。例えば、200本の映像素材から所望の映像素材を検索する際、従来は、撮影日をもとに検索して10〜20本に絞った上で、これらの映像素材を全て視聴して所望の映像素材を探していたのに対し、本発明によれば、映像素材について入力しておいた最適なキーワードを検索キーとすることができるため、映像素材を視聴することなく1〜2本に絞ることができ、作業時間を約1/10に短縮することが可能になる。
また、本発明の対応付け装置は、入力された複数の単語間の関連性を判定することにより単語のグループ化を行う単語間関連性判定手段を備え、前記対応関係判定手段が、グループ化された単語群と前記映像素材とを対応付けるものである。
上記構成によれば、複数の単語が同一のカットに対するメモ情報としてグループ化されるため、メモ情報の入力者が本来意図したメモと映像素材とを適切に対応付けることができる。
また、本発明の対応付け装置は、前記グループ化された単語群間の関連性を判定するグループ間関連性判定手段を備え、前記対応関係判定手段は、前記グループ間関連性判定手段の判定結果に基づいて、グループ化された単語群と前記映像素材とを対応付けるものである。
上記構成によれば、複数の単語群の関係に基づいてメモと映像素材とを適切に対応付けることができる。
また、本発明の対応付け装置は、前記グループ間関連性判定手段が、修正履歴情報を用いて前記グループ化された単語群間の関連性を判定するものである。
上記構成によれば、修正履歴情報を用いて単語群間の関連性を判定することにより、たとえ単語の入力時刻が近接していなくとも、最初に入力したメモへの追記入力は同一のカットに対するメモであると判定するなど、複数の単語群の関係に基づいてメモと映像素材とを適切に対応付けることができる。
また、本発明の対応付け装置は、前記グループ間関連性判定手段が、単語が入力された際の位置情報を用いて前記グループ化された単語群間の関連性を判定するものである。
上記構成によれば、たとえ単語の入力時刻が近接していても、異なる場所で入力されたメモは関連性が低いため同一のカットに対するメモではないと判定するなど、複数の単語群の関係に基づいてメモと映像素材とを適切に対応付けることができる。
また、本発明の対応付け装置は、前記対応関係判定手段が、前記映像素材の再生動作に関する操作ログを参照して前記単語と前記映像素材とを対応付けるものである。
上記構成によれば、映像素材の撮影時間情報のみならず、映像素材再生時の再生時間情報を用いて単語と映像素材の関連性を判定するので、より高い精度で単語と映像素材の対応付けを行うことができる。
また、本発明の対応付けシステムは、本発明の対応付け装置と、単語ごとの入力開始時刻を取得、管理する入力管理装置と、前記撮影素材を撮影する撮像装置と、を備える。
さらに、本発明の入力装置は、本発明の対応付け装置に接続される入力管理装置であって、単語ごとの入力開始時刻を取得、管理する。
本発明によれば、単語の入力時刻情報に基づいて単語と映像素材との対応付けを行うことにより、映像素材の撮影中に入力が開始された単語は、当該映像素材に対するメモとして、撮影素材と対応付けられる為、単語の入力者が映像素材との対応を意識することなく従来手書きしていたのと同じ感覚で単語を入力するだけで、入力したメモ情報が該当する映像素材毎に対応付けられる。
以下、本発明の実施形態について図面を参照して説明する。
[実施の形態1]
図1は、本発明の実施の形態1に係る対応付けシステムの概要を示す図である。図1に示す対応付けシステムは、映像素材と映像素材に関するメモデータとの関連付けを行うものであり、対応付け装置100、撮影装置200、入力装置300を備える。
撮影装置200は、動画や静止画の画像データを生成可能な公知の撮像手段を含む装置である。また、入力装置300は、入力用キーやテキストエディタプログラムを装備し、テキスト編集が可能な公知の入力手段を含む装置である。
対応付け装置100は、撮影装置200が撮影する映像データと、当該映像データの撮影時間情報を含む映像素材メタデータとを撮影装置200から取得する。また、入力装置300の操作者は、どのような対象を撮影した映像であるか、またどのような撮影状態であったかなどという映像素材の内容等に関するメモ情報(以下、メモデータと称する)を入力装置に入力するが、対応付け装置100は、このメモデータの編集履歴を示す情報(以降、編集履歴データと称する)を入力装置300から取得する。
対応付け装置100は、取得したメモデータが、撮影された複数の映像素材(以降、カットと称する)のどれについて説明されたものであるかを、以下に説明する手段により適切に判定し、カットごとにメモデータを対応付ける。
尚、メモデータの入力は、撮影装置200による撮影と並行して行われる場合もあるし、撮影後に映像内容の確認のために実施する再生の際に行われる場合もある。後述するが、再生中に行われるメモデータの入力は、撮影装置200に再生時間情報などの操作ログを出力する機能が装備されている場合のみ、映像素材との対応付けを行うことができる。
尚、メモデータの送信は、図1に示すように無線通信機能を備えた携帯型の入力装置300(例えば、公知の携帯電話端末を代用し、メモデータをメール本文もしくは添付ファイルとして送信することも可能)から行ってもよいし、入力装置300と対応付け装置100とを有線で接続して行ってもよい。
図2は、本発明の実施の形態1における対応付け装置の内部構成を示すブロック図である。対応付け装置100は、データ取得部10、タイムスタンプ算出部20、単語間関連性判定部30、対応関係判定部40で構成される。
データ取得部10は、撮影装置200から出力される映像素材メタデータを取得する。また、入力装置300から出力される編集履歴データを取得する。尚、編集履歴データは、入力装置300に装備されたテキストエディタ用プログラム(アプリケーションソフトウェア)などで容易に生成されるものであり、決定キーが押下される毎に履歴が保存される。編集履歴データの生成は、文字の入力や削除等の履歴を蓄積しておくという公知の機能に基づくものであるため、詳細な説明は省略する。
タイムスタンプ算出部20は、データ取得部10が取得した編集履歴データに基づいて、編集終了後のメモデータの入力開始時刻情報及び入力終了時刻情報を単語や文節単位で出力する。
単語間関連性判定部30は、所定の条件に基づいて単語間の関連性を判定し、関連性のある単語を「同一のカットに対するメモ(単語グループ)」としてグループ化する。また、グループ化された複数の単語のタイムスタンプをもとに、単語グループの入力開始時刻情報を抽出する。尚、後述するが、所定の条件とは「単語間の入力間隔が短い単語は、互いに同一カットに対するメモであると判断する」などの条件である。
対応関係判定部40は、取得した映像素材のカットごとの撮影時間情報(撮影開始時刻および撮影終了時刻を含む情報)または再生時間情報(再生開始時刻および再生終了時刻を含む情報)と、単語グループに付与されたタイムスタンプ(入力開始時刻情報を含む)とを参照して、単語グループと映像素材のカットとの対応付けを行う。
次に、上記構成の対応付け装置の動作について説明する。
図3は、本発明の実施の形態1における対応付け装置の対応付け動作の手順を示すフローチャートである。はじめに、対応付け装置100のデータ取得部10は、入力装置300からメモデータの編集履歴データを取得する(ステップS101)。図4は、入力装置300に操作者が入力するメモデータの入力例を示す図である。一方、図5は、データ取得部10が取得する編集履歴データのデータ構造を模式的に示す図である。図4に示すようなメモ入力に対して、入力開始時刻や入力終了時刻、入力位置(行、列)などの編集履歴情報が単語や文節単位で保持されている。
データ取得部10は、同様に撮影装置200から、撮影装置の動作や撮影映像(カット)の撮影時刻等に関する映像素材メタデータを取得する(ステップS102)。図6は取得した一つの撮影素材の撮影素材メタデータのデータ構造を模式的に示す図である。例えば、デジタルビデオカメラで撮影されたMPEG−2ムービーは、素材ファイルプロパティ情報として、ファイル名、種別、データサイズ、データ作成日時、長さなどの情報を素材ファイル内に保持している。従って、撮影素材ファイルのヘッダ部分を解析することにより、ファイル名、種別、データサイズ、データ作成日時、長さなどの撮影素材メタデータを取得することが可能である。
また、撮影機器として「DVCPRO P2cam」を用いた場合には、撮影と同時にClipメタデータと呼ばれる素材メタデータが生成されるため、撮影素材ファイルの解析を行うことなく撮影素材メタデータを取得することが可能である。
図7は、全ての撮影素材について、図6に示した撮影素材メタデータからメモとの対応付けに必要となる情報のみを抽出した撮影素材メタデータの一例である。撮影における「開始時刻」および「終了時刻」情報を用いてメモとの対応付けを行うため、本実施例では撮影素材メタデータの「ファイル名」を「対象カット」、「作成日時」の時刻情報を「開始時間」、「作成日時」に「長さ」を足した時刻情報を「終了時刻」として使用している。
図8は操作ログの一例を示す図である。操作ログとしては、再生、再生終了、早送り、早送り終了などの「動作」と動作が行われた「時刻」とともに、再生については「対象カット」が保持されている。
図9は、内部処理により「撮影」と「再生」について時系列で統合された映像素材メタデータのデータ構造を模式的に示す図である。尚、図8および図9では、操作ログの生成が可能な撮影装置200から取得した映像素材メタデータの例を示している。即ち、撮影動作時だけでなく、撮影後に行う再生確認時についてもカットの再生時間等に関するデータが保持される。本実施例では、再生開始後に一時停止、巻き戻し、早送りなどを繰り返し、最終的に当該カットの再生を停止するまでの動作を「再生確認」動作と定義し、すべての当該動作の開始から終了までの時刻をそれぞれ開始時刻、終了時刻として保持するようにしている。例えば、図8において対象カット「カットA」に対して、「再生」が「20:10」に行われ、「再生終了」が「20:20」に行われているため、図9において対象カット「カットA」の再生確認の開始時刻は「20:10」、終了時刻は「20:20」である。また、対象カット「カットB」に対して、「再生」が「20:20」に行われ、「早送り」が「20:22」に行われ、「早送り終了」が「20:23」に行われ、「再生終了」が「20:27」に行われているため、図9において対象カット「カットB」の再生確認の開始時刻は「20:20」、終了時刻は「20:27」である。図に示すように、撮影順と再生確認順は必ずしも同じとは限らず、また、同一カットが複数回再生確認されたり、任意のカットが一度も再生確認されなかったりすることもある。
次に、タイムスタンプ算出部20は、データ取得部10が取得した編集履歴データに基づいて、入力開始時刻情報及び入力終了時刻情報、即ち、タイムスタンプを編集終了後のメモデータについて単語や文節単位で算出する(ステップS103)。図10は、タイムスタンプ算出部20の算出動作手順を示すフローチャートである。
はじめに、タイムスタンプ算出部20は、すべての編集履歴データの読み込みが完了したか否かを判定する(ステップS201)。読み込みが完了していない場合、タイムスタンプ算出部20は、1つ分の編集履歴データを読み込む(ステップS202)。次に、読み込んだ編集履歴データの「動作」が「入力」であるか否かを判定し(ステップS203)、「入力」である場合は更に、同一の位置情報を持つ文字列が内部テーブルに存在するか否かを判定する(ステップS204)。
同一の位置情報を持つ文字列が内部テーブルに存在する場合、タイムスタンプ算出部20は、対象の内部テーブルの文字列に当該編集履歴データの対象文字を追加し(ステップS205)、追加により移動した内部テーブルの入力位置を修正する(ステップS206)。一方、同一の位置情報を持つ文字列が内部テーブルに存在しない場合、当該編集履歴データの対象文字列、入力開始時刻、入力終了時刻、入力文字の位置に関する情報(即ち、行・列の情報)を内部テーブルに保存する(ステップS207)。
一方、ステップS203の判定において、動作が「入力」でない場合、次にタイムスタンプ算出部20は、動作が「削除」であるか否かを判定する(ステップS208)。動作が「削除」である場合、内部テーブルの入力文字列から削除対象の文字を消去し(ステップS209)、削除により移動した内部テーブルの入力位置を修正する(ステップS210)。
例えば、図11は、図5に示す編集履歴データの6行目までが読み込まれた時点の内部テーブルのデータ構造を模式的に示す図であるが、次に、図5に示す編集履歴データの7行目が読み込まれると、内部テーブルは図12に示すように変更される。つまり、動作が「入力」であり、且つ「同一の位置情報を持つ文字列が内部テーブルに存在しない」ため、データが1行追加された。一方、図5に示す編集履歴データの9行目までが読み込まれると、内部テーブルは図13に示すように変更される。この場合、動作が「削除」であるので、1行目のデータの“部屋”という文字列が空白に変更された。その際、削除に伴って、“部屋”という文字列に続く“の”と“様子”の文字列は「入力位置」が移動するため、内部テーブルの2、3行目の「列」の数値も変更された。更に、図5に示す編集履歴データの10行目までが読み込まれると、内部テーブルは図14に示すように変更される。動作が「入力」であり、且つ「同一の位置情報を持つ文字列が内部テーブルに存在する」ため、対象の内部テーブルの文字列、即ち1行目のデータの「文字列」(空白)に“書斎”が追加された。その際、追加に伴って、“書斎”という文字列に続く“の”と“様子”の文字列の「入力位置」が再び移動するため、内部テーブルの2、3行目の「列」の数値も変更された。
ステップS206、ステップS207、ステップS210のそれぞれの処理終了後や、ステップS208の判定において動作が「削除」でない場合は、再びステップS201へ戻り、同様の手順を繰り返す。一方、ステップS201において全ての編集履歴データの読み込みが完了した場合、タイムスタンプ算出部20は内部テーブルを出力して(ステップS210)、動作を終了する。
図15は、タイムスタンプ算出部20の出力データのデータ構造を模式的に示す図である。入力開始時刻および入力終了時刻のデータが、追記や削除などの編集が反映された単語に関して抽出されている。
次に、図3のフローチャートに戻り、単語間関連性判定部30は、タイムスタンプ算出部20の出力データに対して、所定の条件に基づいて単語間の関連性を判定し、単語を、同一のカットに対する1つのメモ(単語グループ)にグループ化する(ステップS104)。関連性の判定には、さまざまな条件を設定することが可能であるが、一例として平均入力文字数により単語間の関連性を判定する方法について説明する。例えば、「書斎」、「の」、「様子」という3つの単語は、本来、同一のカットに対する1つのメモ、即ち「書斎の様子」である。ところが、編集履歴データでは最小単位の単語ごとに区別されてしまっている。そこで、「入力速度が特定値(実施例では平均値)を下回るまでに入力された複数の単語は、同じメモの一部である確率が高い」という推定に基づいて、単語間の関連性を判定し、単語グループとしてグループ化する。
図16は、単語間関連性判定部30の単語間関連性判定動作手順を示すフローチャートである。はじめに、単語間関連性判定部30は、編集履歴データから一定期間毎の平均入力文字数を算出する(ステップS301)。そして、平均入力文字数が任意の閾値を下回った点で認識されている単語をグループ分けする。図17は、単語のグループ分けの概要を示す図である。図の例では、一分ごとの入力文字数を算出した結果をグラフ化している。そして一分間の入力文字数が平均入力文字数を下回った時点から次に平均入力文字数を下回った時点までを一つの単語グループとしてまとめている。
なお、今回は前述のように一定期間ごとの平均入力文字数を算出し、一分間の入力文字数が平均入力文字数を下回った時点で単語グループを区切っているが、単語をグループ化する方法はこれに限定しない。例えば、平均入力文字数ではなく、任意の入力文字数を下回った場合で単語を区切ってグループ化してもよい。例えば、一文字一文字の文字の入力間隔を算出し、入力間隔の平均値を上回ったり、任意に定めた入力間隔を上回ったりした時点を文字の区切れ目と判定してグループ化してもよい。例えば、文字列中に改行、句読点、空白などがあれば、それを単語の区切れ目と判定してグループ化してもよい。
尚、単語のグループ化が行われると、入力開始時刻および入力終了時刻の情報も統合される。図18は、単語間関連性判定部30の出力データのデータ構造を模式的に示す図である。入力開始時刻および入力終了時刻のデータが、グループ化された単語グループに関して整理されている。
次に、再び図3のフローチャートに戻り、対応関係判定部40は、映像素材メタデータ(図9参照)とメモデータ(図18参照)を参照して、カットの撮影時間または再生時間と単語グループの入力開始時刻との関連性を判定し、カットとメモデータの対応付けを行う(ステップS105)。
ここで、図19は、単語グループの入力開始時刻と、カットの撮影時間または再生時間の関係を時間経過で整理した図である。任意の単語グループがどのカットについて記述したメモデータであるかは、次の基準に従って判定される。
図20は、後述する撮影時間情報を用いた対応付け動作における判定基準である「メモデータの入力時刻とカットの撮影時間との対応関係」を説明するための図である。本実施の形態1では、任意カットの撮影中に入力が開始されたメモデータは当該カットに関する情報であると推定する。また、異なる2つのカットの撮影の合間に入力が開始されたメモデータは前後いずれかのカットに関する情報であると推定する。但し、後述するように、異なる2つのカットの撮影の合間に入力が開始される場合、合間の時間を適切な条件で二分し、前の時間は直前に撮影されたカットに関する情報であると推定し、後の時間は直後に撮影されるカットに関する情報であると推定するように設定してもかまわない。
次に、対応関係判定部40の具体的な判定動作について説明する。図21は、撮影時間情報を用いた対応付け動作の手順を示すフローチャートである。また、図22は、撮影時間情報を用いた対応付け動作による対応付け候補判定結果を模式的に示す図である。はじめに、「C=カット数」及び「N=1」の初期設定を行う(ステップS401およびステップS402)。次に、対応関係判定部40は、「撮影開始前に入力されるメモデータは、その後撮影が開始されるカットについてのメモである確率が高い」という推定に基づいて、N番目のカット(ここではN=1であるので最初のカットを意味する)の撮影開始時刻以前に入力開始時刻を持つメモの対応付け候補にカットNを追加する(ステップS403)。
次に、対応関係判定部40は、「撮影中に入力されるメモデータは、現在撮影中のカットについてのメモである確率が高い」という推定に基づいて、N番目のカットの撮影開始から撮影終了までの時間内に入力開始時刻を持つメモの対応付け候補にカットNを追加する(ステップS404)。例えば、カットAは撮影時間が13:00から13:10までで(図9参照)、また「書斎の様子」というメモは入力開始時刻が13:01であるため(図18参照)、「書斎の様子」というメモの対応付け候補に“カットA”が追加される(図22参照)。
次に、M=N+1番目のカットの撮影開始時刻−N番目のカットの撮影終了時刻のMを算出し(ステップS405)、更に対応関係判定部40は、「撮影終了後所定の経過時間以内に入力されるメモデータは、その撮影が終了したカットについてのメモである確率が高い」という推定に基づいて、N番目のカットの撮影終了時刻からM×X時間内に入力開始時刻を持つメモの対応付け候補にカットNを追加する(ステップS406)。ここでXは、撮影終了後の経過時間を任意に設定するための係数である。例えば、カットAの撮影終了時刻13:10から次のカットBの撮影開始時刻13:30までの時間Mは20分で(図9参照)、また「照明なし」というメモは入力開始時刻が13:12で(図18参照)、13:10から20分×0.5=10分以内であるため、このメモの対応付け候補に“カットA”が追加される(図22参照)。尚、ここではN番目のカットの撮影終了時刻からN+1番目のカットの撮影開始時刻までの時間を丁度二等分する例(X=0.5)を用いたが、番組のジャンル、撮影スタイルによっては係数Xの値が変わるため、該当係数Xは利用者により設定可能とする。ここで係数Xの設定方法は本発明の主眼ではないため説明を省略する。
次に、対応関係判定部40は、「撮影終了後所定の経過時間以降で、且つ次のカットの撮影開始前に入力されるメモデータは、その撮影が終了したカットについてのメモであるか、またはその後撮影が開始されるカットについてのメモである確率が高い」という推定に基づいて、N番目のカットの撮影終了時刻からM×X時間以降かつN+1番目のカットの撮影開始時刻内に入力開始時刻を持つメモの対応付け候補にカットNとカットN+1を追加する(ステップS407)。例えば、カットBの撮影終了時刻13:40から次のカットCの撮影開始時刻14:00までの時間Mは20分で(図9参照)、また「漁港とカモメ」というメモは入力開始時刻が13:55で(図18参照)、13:40+20分×0.5=13:50以降であるため、このメモの対応付け候補に“カットBとカットC”が追加される(図22参照)。尚、ここではN番目のカットの撮影終了時刻からN+1番目のカットの撮影開始時刻までの時間を丁度二等分する例(X=0.5)を用いた。
次に、対応関係判定部40は、Nの数値を1だけインクリメントして(ステップS408)、Nの値がCの値に到達したか否かを判定する(ステップS409)。
Nの値がCの値に到達していない場合(ステップS409のNO)、対応関係判定部40は、ステップS404に戻り、上記と同様の処理を次のカットに対して再度実行する。
一方、Nの値がCの値に到達した場合(ステップS409のYES)、即ち最後のカットとなった場合、対応関係判定部40は、「最後のカットの撮影中に入力されるメモデータは、撮影中の最後のカットについてのメモである確率が高い」という推定に基づいて、N番目のカット(ここでは最後のカットを意味する)の撮影開始から撮影終了までの時間内に入力開始時刻を持つメモの対応付け候補にカットNを追加する(ステップS410)。
次に、対応関係判定部40は、最後のカットの撮影終了後に入力されるメモデータは、最後に撮影したカットについてのメモである確率が高い」という推定に基づいて、N番目のカット(ここでは最後のカットを意味する)の撮影終了以後に入力開始時刻を持つメモの対応付け候補にカットNを追加する(ステップS411)。例えば、カットEの撮影終了時刻は14:35で(図9参照)、また「薄暗い」というメモは入力開始時刻が20:15であるため(図18参照)、このメモの対応付け候補に“カットE”が追加される(図22参照)。
以上の手順により、撮影を行ったカットと入力されたメモデータの対応付けが行われる。尚、上記の手順では、撮影の合間の時間を割合で区切っているが、別の方法で区切りを検出しても良い。例えば、撮影の合間に書かれたメモの入力間隔を調べて、一番間隔が開いている箇所を区切れ目としても良い。また、図14で示したように、合間の時間に入力開始されたメモには、前後に撮影された2つのカット両方を候補として対応付けるようにしてもよい。ところで、本実施例では、M×0.5時間以内のメモは直前のカットに、それ以降のメモは両方のカットに対応付けているが、これは割り当ての一例である。尚、撮影の合間に入力されたメモは、図20で示したように、前後両方のカットに対応付けても良い(X=0の場合がこれに該当)し、M×X時間以内のメモは直前のカットに、それ以降のメモは直後のカットにのみ対応付けるようにしてもよい。
次に、図23は、再生時間情報を用いた対応付け動作の手順を示すフローチャートである。また、図24は、再生時間情報を用いた対応付け動作による対応付け候補判定結果を模式的に示す図である。はじめに、「C=再生確認した延べカット数」及び「N=1」の初期設定を行う(ステップS501およびステップS502)。
次に、対応関係判定部40は、「再生中に入力されるメモデータは、現在再生中のカットについてのメモである確率が高い」という推定に基づいて、N番目のカットの再生確認時間内に入力開始時刻を持つメモの対応付け候補にカットNを追加する(ステップS503)。例えば、カットAの再生確認時間は20:10から20:20までで(図9参照)、また「薄暗い」というメモは入力開始時刻が20:15であるため(図18参照)、このメモの対応付け候補に“カットA”が追加される(図24参照)。
次に、対応関係判定部40は、「任意のカットの再生終了後から次の別カットの再生開始前にまでに入力されるメモデータは、直前に再生を終了したカットについてのメモである確率が高い」という推定に基づいて、N番目のカットの再生確認終了後からN+1番目のカットの再生確認以前に入力開始時刻を持つメモの対応付け候補にカットNを追加する(ステップS504)。
次に、対応関係判定部40は、Nの数値を1だけインクリメントして(ステップS505)、Nの値がCの値に到達したか否かを判定する(ステップS506)。
Nの値がCの値に到達していない場合(ステップS506のNO)、対応関係判定部40は、ステップS503に戻り、上記と同様の処理を次のカットに対して再度実行する。
一方、Nの値がCの値に到達した場合(ステップS506のYES)、即ち最後のカットとなった場合、対応関係判定部40は、「最後のカットの再生中または再生終了後に入力されるメモデータは、最後に再生したカットについてのメモである確率が高い」という推定に基づいて、N番目のカット(ここでは最後のカットを意味する)の再生確認時間内もしくは再生確認終了後に入力開始時刻を持つメモの対応付け候補にカットNを追加する(ステップS507)。例えば、カットEの再生確認時間は21:30から21:35までで(図9参照)、また「手振れNG」というメモは入力開始時刻が21:33であるため(図18参照)、このメモの対応付け候補に“カットE”が追加される(図24参照)。
以上の手順により、再生を行ったカットと入力されたメモデータの対応付けが行われる。
対応関係判定部40は、「撮影時間情報を用いた対応付け」および「再生時間情報を用いた対応付け」の対応付け候補判定結果に基づいて、最終的な対応付けを決定する。図25は、カットとメモデータの最終的な対応付け結果を模式的に示す図である。尚、本実施の形態では、最後に撮影したカットの撮影終了後に入力されたメモデータについては、再生時間による対応付け候補が優先されるように設定している。従って、「撮影時間情報を用いた対応付け」では“カットE”と判定されていた「薄暗い」というメモは、「再生時間情報を用いた対応付け」で“カットA”と判定されたため、最終的に“カットA”と判定されている。同様に、「テロップ」というメモも“カットE”から“カットA”に判定が変更されている。図26は、カットに対応付けられたメモデータを概念的に示す図である。
以上説明したように、本実施の形態に係る対応付けシステムによれば、単語の入力時刻情報に基づいて単語と映像素材との対応付けを行うことにより、映像素材の撮影中や撮影直後に入力が開始された単語および、再生確認中に入力された単語は、当該映像素材に対するメモとして、撮影素材と対応付けられる。すなわち、メモ入力者がメモ入力を行う際に、どの映像素材に対応するメモであるかを特定するための撮影素材識別情報を調べたり、調べた撮影素材識別情報をメモとともに入力したりという作業を必要とせずに、メモした単語と撮影素材を対応付けることが出来る。また、映像素材の撮影時間情報のみならず、映像素材再生時の再生時間情報を用いて単語と映像素材の対応関係を判定することにより、より高い精度で単語と映像素材の対応付けを行うことができる。また、素材検索時には、メモした単語をキーワードとして、素材の意図する素材を素早く見つけることが可能である。
[実施の形態2]
図27は、本発明の実施の形態2に係る対応付けシステムの概要を示す図である。対応付けシステムは、対応付け装置110、撮影装置200、入力装置310を備える。撮影装置200は、実施の形態1で用いた撮影装置と同じであるため説明を省略する。
入力装置310は、入力用キーやテキストエディタプログラムを装備し、テキスト編集が可能な入力手段を含む装置である。図に示すように、入力装置310は、主に、ユーザ入力受付部311、編集履歴付与部312、時刻管理部313、メタデータ保持部314、メタデータ登録部315などで構成される。
ユーザ入力受付部311は、入力装置の操作者からの入力を受け付ける。編集履歴付与部312は、時計機能を有する時刻管理部313を参照して、テキストの入力に関する編集履歴を付与する。メタデータ保持部314は、編集履歴に関するメタデータを生成、保持する。メタデータ登録部315は、生成したメタデータを登録する。つまり、本実施の形態では、メモデータの入力に関する編集履歴データが入力装置310で生成される。
対応付け装置110は、撮影装置200が撮影する映像データと、当該映像データの撮影時間情報を含む映像素材メタデータとを撮影装置200から取得する。また、入力装置310の操作者が入力したメモデータの編集履歴データを入力装置310から取得する。
対応付け装置110は、取得したメモデータが、撮影された複数のカットのどれについて説明されたものであるかを、以下に説明する手段により適切に判定し、カットごとにメモデータを対応付ける。
尚、メモデータの入力は、撮影装置200による撮影と同時に並行して行われる場合もあるし、撮影後に映像内容の確認のために実施する再生の際に行われる場合もある。後述するが、再生中に行われるメモデータの入力は、撮影装置200に再生時間情報などの操作ログを出力する機能が装備されている場合のみ、映像素材との対応付けを行うことができる。
尚、入力装置310と撮影装置200はそれぞれの機能を有する同一の装置としてもよい。
対応付け装置110は、データ取得部10、タイムスタンプ算出部20、単語間関連性判定部30、対応関係判定部40、およびグループ間関連性判定部50で構成される。つまり、実施の形態2で用いる対応付け装置110は、実施の形態1で用いた対応付け装置100にグループ間関連性判定部50が追加された構成となっている。
データ取得部10は、撮影装置200から出力される映像素材メタデータを取得する。また、入力装置300から出力されるメモデータの編集履歴データを取得する。
タイムスタンプ算出部20は、データ取得部10が取得した編集履歴データに基づいて、編集終了後のメモデータの入力開始時刻情報及び入力終了時刻情報を単語や文節単位で出力する。
単語間関連性判定部30は、所定の条件に基づいて単語間の関連性を判定し、関連性のある単語を「同一のカットに対するメモ(単語グループ)」としてグループ化する。また、グループ化された複数の単語のタイムスタンプをもとに、単語グループの入力開始時刻情報を抽出する。
グループ間関連性判定部50は、メモデータとカットの対応付け精度を向上させるため、単語間関連性判定部30でグループ化された単語グループについて、メモデータの修正履歴に基づいてそれぞれの関連性を判定する。例えば、メモデータの入力時刻情報に基づく判定ではカットとの対応付けが適切に行えない単語グループがある場合、もし当該単語グループと関連性が高い別の単語グループの存在が確認できれば、別の単語グループが対応付けられているカットを当該単語グループにも適用することができる。
従って、実施の形態2では、対応関係判定部40は、カットの撮影時間情報または再生時間情報と、単語グループの入力開始時刻情報に加え、単語グループ間の関連性情報を参照して、単語グループと映像素材のカットとの対応付けを行う。
次に、上記構成のシステムにおける対応付け装置の動作について説明する。
図28は、本発明の実施の形態2における対応付け装置の対応付け動作の手順を示すフローチャートである。はじめに、対応付け装置110のデータ取得部10は、入力装置300からメモデータの編集履歴データを取得する(ステップS601)。図29は、入力装置310に操作者が入力するメモデータの入力例を示す図である。
ここで、入力装置310におけるメモデータ入力動作について説明する。図30は、実施の形態2で用いる入力装置310のメモデータ入力動作手順を示すフローチャートである。はじめに、ユーザ入力受付部311は、文字を入力するための文字入力ボタンが押下されたか否かを判定する(ステップS701)。押下された場合、編集履歴付与部312は、時刻管理部313を参照して入力開始時刻を取得する(ステップS702)。
次に、ユーザ入力受付部311は、入力を確定するための決定ボタンが押下されたか否かを判定する(ステップS703)。押下された場合、編集履歴付与部312は、同様に入力終了時刻を取得し(ステップS704)、「動作」を“入力”として、文字列、行、列の情報を保存する(ステップS705)。更に、入力開始時刻/入力終了時刻を動作開始時刻/動作終了時刻として保存し(ステップS706)、入力された文字以降の文字列について行、列の情報を修正する(ステップS707)。これは、文字の入力が記述の最後尾ではなく、文中であった場合に、それ以降に予め書かれている文字の位置情報(行、列)を修正するための処理である。例えば、メモ内の任意文字の左隣に1文字を追記すると、当該任意文字は右側に1文字分ずれることになるので、その(行、列)情報は、列を+1とする。
一方、文字入力ボタンが押下されたか否かの判定においてボタンが押下されていない場合、次にユーザ入力受付部311は、入力した文字を削除するための削除ボタンが押下されたか否かを判定する(ステップS708)。押下された場合、編集履歴付与部312は、削除終了時刻を取得し(ステップS709)、「動作」を“削除”として、文字列、行、列の情報を保存する(ステップS710)。更に、削除終了時刻を動作終了時刻として保存し(ステップS711)、削除された文字以降の文字列について行、列の情報を修正する(ステップS712)。これは、削除した文字が最後尾の文字ではなく、文中であった場合に、それ以降に予め書かれている文字の位置情報(行、列)を修正するための処理である。例えば、メモ内の任意文字の左隣の1文字を削除すると、当該任意文字は左側に1文字分ずれることになるので、その(行、列)情報は、列を−1とする。
図31は、対応付け装置110のデータ取得部10が入力装置310から取得する編集履歴データのデータ構造を模式的に示す図である。図29に示すようなメモ入力に対して、入力開始時刻や入力終了時刻、入力位置(行、列)などの編集履歴情報が単語や文節単位で保持されている。
図28のフローチャートに戻り、データ取得部10は、同様に撮影装置200から、撮影装置の動作やカットの撮影時刻等に関する映像素材メタデータを取得する(ステップS602)。図32は、取得した映像素材メタデータのデータ構造を模式的に示す図である。また、図33は、内部処理により「撮影」と「再生」について時系列で統合された映像素材メタデータのデータ構造を模式的に示す図である。尚、図32および図33では、操作ログの生成が可能な撮影装置200から取得した映像素材メタデータの例を示している。即ち、撮影動作時だけでなく、撮影後に行う再生確認動作時についてもカットの再生時刻等に関するデータが保持される。図32および図33の例では、再生開始後に一時停止、巻き戻し、早送りなどを繰り返し、最終的に当該カットを停止するまでの動作を「再生確認」動作と定義し、すべての当該動作の開始から終了までの時刻をそれぞれ開始時刻、終了時刻として保持するようにしている。図に示すように、撮影順と再生確認順は必ずしも同じとは限らず、また、同一カットが複数回再生確認されたり、任意のカットが一度も再生確認されなかったりすることもある。
次に、タイムスタンプ算出部20は、データ取得部10が取得した編集履歴データに基づいて、入力開始時刻情報及び入力終了時刻情報、即ち、タイムスタンプを編集終了後のメモデータについて単語や文節単位で算出する(ステップS603)。図34は、タイムスタンプ算出部20の算出動作手順を示すフローチャートである。
はじめに、タイムスタンプ算出部20は、すべての編集履歴データの読み込みが完了したか否かを判定する(ステップS801)。読み込みが完了していない場合、タイムスタンプ算出部20は、1つ分の編集履歴データを読み込む(ステップS802)。次に、読み込んだ編集履歴データの「動作」が「入力」であるか否かを判定し(ステップS803)、「入力」である場合は更に、同一の位置情報を持つ文字列が内部テーブルに存在するか否かを判定する(ステップS804)。
同一の位置情報を持つ文字列が内部テーブルに存在する場合、タイムスタンプ算出部20は、対象の内部テーブルの文字列に当該編集履歴データの対象文字を追加し(ステップS805)、対象の内部テーブルの編集時刻に動作開始時刻を保存する(ステップS806)そして、追加により移動した内部テーブルの入力位置を修正する(ステップS807)。一方、同一の位置情報を持つ文字列が内部テーブルに存在しない場合、当該編集履歴データの対象文字列、動作開始時刻、動作終了時刻、入力文字の位置に関する情報(即ち、行・列の情報)を内部テーブルに保存する(ステップS808)。
一方、ステップS803の判定において、動作が「入力」でない場合、次にタイムスタンプ算出部20は、動作が「削除」であるか否かを判定する(ステップS809)。動作が「削除」である場合、内部テーブルの入力文字列から削除対象の文字を消去し(ステップS810)、対象の内部テーブルの編集時刻に動作終了時刻を保存する(ステップS811)。更に、削除により移動した内部テーブルの入力位置を修正する(実施例1と同様。)(ステップS812)。
ステップS807、ステップS808、ステップS812のそれぞれの処理終了後や、ステップS809の判定において動作が「削除」でない場合は、再びステップS801へ戻り、同様の手順を繰り返す。一方、ステップS801において全ての編集履歴データの読み込みが完了した場合、タイムスタンプ算出部20は内部テーブルを出力して(ステップS813)、動作を終了する。
図35は、タイムスタンプ算出部20の出力データのデータ構造を模式的に示す図である。入力開始時刻および入力終了時刻に加え、編集が行われた時刻のデータが、追記や削除などの編集が反映された単語に関して抽出されている。
次に、図28のフローチャートに戻り、単語間関連性判定部30は、タイムスタンプ算出部20の出力データに対して、所定の条件に基づいて単語間の関連性を判定し、関連性のある単語を「同一のカットに対するメモ(単語グループ)」としてグループ化する(ステップS604)。関連性の判定には、さまざまな条件を設定することが可能であるが、一例として平均入力文字数により単語間の関連性を判定する方法を用いる。尚、この方法の詳細については実施の形態1で記述したので説明を省略する。
尚、単語のグループ化が行われると、入力開始時刻および入力終了時刻の情報も統合される。図36は、単語間関連性判定部30の出力データのデータ構造を模式的に示す図である。入力開始時刻および入力終了時刻のデータが、単語グループに関して整理されている。
次に、再び図28のフローチャートに戻り、グループ間関連性判定部50は、メモデータの修正履歴に基づいて、単語間関連性判定部30でグループ化された単語グループそれぞれの関連性を判定する(ステップS605)。図37は、修正履歴に基づくグループ間関連性判定動作の手順を示すフローチャートである。グループ間関連性判定部50は、修正履歴ありの単語グループについて以下の作業を繰り返す(ステップS901)。
はじめに、グループ間関連性判定部50は、対象の単語グループの修正時刻の前後X分以内と入力開始時刻から入力終了時刻までの時間が重なっている単語グループがあるか否かを判定する(ステップS902)。該当する単語グループがある場合、グループ間関連性判定部50は、対象の単語グループと該当する単語グループとの関連性を「高」に設定する(ステップS903)。グループ間関連性判定部50は、ステップS902からステップS903までの判定動作を、修正履歴を持つすべての単語グループに繰り返す(ステップS904)。尚、上記においてXは任意の数値を設定してよい。
図38は、グループ間関連性判定部50の出力データのデータ構造を模式的に示す図である。単語グループ間の関連性は、相互に関連する単語グループの文字列の番号で把握できる。例えば、No.1の単語グループ「書斎の様子」の関連性「4」は、“No.4の単語グループ「ナレーション挿入」と関連性が高い”ことを示す。尚、本実施の形態では、関連性を「高/低(無し)」だけで判定したが、図37のステップS902の判定手順において重なり具合が大きいものほど数値を高くするなど、数値を用いて関連性を表現するようにしてもよい。その際は、任意に設定した閾値を超過した場合に関連性が高いと判定する。
次に、再び図28のフローチャートに戻り、対応関係判定部40は、映像素材メタデータ(図33参照)とメモデータ(図38参照)を参照して、カットの撮影時間または再生時間と単語グループの入力開始時刻との関連性、単語グループ間の関連性、をそれぞれ判定し、カットとメモデータの対応付けを行う(ステップS606)。
ここで、図39は、単語グループの入力開始時刻と、カットの撮影時間または再生時間の関係を時間経過で整理した図である。実施の形態1と比較して、単語グループごとの関連性をカットとメモデータの対応付けに用いることができるので、より精度の高い対応付けが行える。
任意の単語グループがどのカットについて記述したメモデータであるかは、実施の形態1で示したのと同じ次の基準に従って判定される。即ち、任意カットの撮影中に入力が開始されたメモデータは当該カットに関する情報であると推定する。また、異なる2つのカットの撮影の合間に入力が開始されたメモデータは前後いずれかのカットに関する情報であると推定する。但し、後述するように、異なる2つのカットの撮影の合間に入力が開始される場合、合間の時間を適切な条件で二分し、前の時間は直前に撮影されたカットに関する情報であると推定し、後の時間は直後に撮影されるカットに関する情報であると推定するように設定してもかまわない。
次に、対応関係判定部40の具体的な判定動作について説明する。図40は、撮影時間情報を用いた対応付け動作の手順を示すフローチャートである。また、図41は、撮影時間情報を用いた対応付け動作による対応付け候補判定結果を模式的に示す図である。はじめに、「C=カット数」及び「N=1」の初期設定を行う(ステップS1001およびステップS1002)。次に、対応関係判定部40は、「撮影開始前に入力されるメモデータは、その後撮影が開始されるカットについてのメモである確率が高い」という推定に基づいて、N番目のカット(ここではN=1であるので最初のカットを意味する)の撮影開始時刻以前に入力開始時刻を持つメモの対応付け候補にカットNを追加する(ステップS1003)。
次に、対応関係判定部40は、「撮影中に入力されるメモデータは、現在撮影中のカットについてのメモである確率が高い」という推定に基づいて、N番目のカットの撮影開始から撮影終了までの時間内に入力開始時刻を持つメモの対応付け候補にカットNを追加する(ステップS1004)。例えば、カットAは撮影時間が13:00から13:10までで(図33参照)、また「書斎の様子」というメモは入力開始時刻が13:01であるため(図38参照)、このメモの対応付け候補に“カットA”が追加される(図41参照)。
次に、対応関係判定部40は、Nの数値を1だけインクリメントして(ステップS1005)、Nの値がCの値に到達したか否かを判定する(ステップS1006)。
Nの値がCの値に到達していない場合(ステップS1006のNO)、対応関係判定部40は、ステップS1004に戻り、上記と同様の処理を次のカットに対して再度実行する。
一方、Nの値がCの値に到達した場合(ステップS1006のYES)、即ち最後のカットとなった場合、対応関係判定部40は、「最後のカットの撮影中に入力されるメモデータは、撮影中の最後のカットについてのメモである確率が高い」という推定に基づいて、N番目のカット(ここでは最後のカットを意味する)の撮影開始から撮影終了までの時間内に入力開始時刻を持つメモの対応付け候補にカットNを追加する(ステップS1007)。
次に、対応関係判定部40は、最後のカットの撮影終了後に入力されるメモデータは、最後に撮影したカットについてのメモである確率が高い」という推定に基づいて、N番目のカット(ここでは最後のカットを意味する)の撮影終了以後に入力開始時刻を持つメモの対応付け候補にカットNを追加する(ステップS1008)。例えば、カットEの撮影終了時刻は14:35で(図33参照)、また「薄暗い」というメモは入力開始時刻が20:15であるため(図38参照)、このメモの対応付け候補に“カットE”が追加される(図41参照)。
以上の手順により、撮影を行ったカットと入力されたメモデータの対応付けが行われる。尚、上記の手順では、撮影の合間の時間を割合で区切っているが、別の方法で区切りを検出しても良い。例えば、撮影の合間に書かれたメモの入力間隔を調べて、一番間隔が開いている箇所を区切れ目としても良い。また、前述の基準に従って、合間の時間に入力開始されたメモには、前後に撮影された2つのカット両方を候補として対応付けるようにしてもよい。
次に、再生時間情報を用いた対応付け動作について説明する。この対応付け動作では、実施の形態1における対応付け動作手順のフローチャート(図23参照)を用いて対応付けを行い、その後撮影時間情報を用いた対応付け候補と再生時間情報を用いた対応付け候補とをマージする方法を用いてもよい。しかし、ここでは「再生中に入力されるメモデータは、現在再生中のカットについてのメモである確率が撮影時間情報を用いた対応結果よりも高い」という推定に基づいて対応付けを実行することにより、より精度の高い対応付けを行う例について説明する。図42は、再生時間情報を用いた対応付け動作の手順を示すフローチャートである。はじめに、「C=再生確認した延べカット数」及び「N=1」の初期設定を行う(ステップS1101およびステップS1102)。
次に、対応関係判定部40は、「再生中に入力されるメモデータは、現在再生中のカットについてのメモである確率が、撮影時刻による対応付けの結果よりも高い」という推定に基づいて、N番目のカット(ここではN=1であるので最初のカットを意味する)の再生確認時間内に入力開始時刻を持つメモについて、録画時間による対応付け候補を削除し、対応付け候補にカットNを追加する(ステップS1103)。例えば、最初のカットAの再生時間は20:10から20:20までで(図33参照)、また「薄暗い」というメモは入力開始時刻が20:15であるため(図38参照)、撮影時間による対応付けの結果このメモの対応付け候補となっていた“カットE”を削除し、“カットA”が採用される(図41参照)。
次に、対応関係判定部40は、「任意のカットの再生終了後から次の別カットの再生開始前にまでに入力されるメモデータは、直前に再生を終了したカットについてのメモである確率が、撮影時刻による対応付けの結果よりも高い」という推定に基づいて、N番目のカット(ここではN=1であるので最初のカットを意味する)の再生確認終了後からN+1番目のカット(同様に、ここでは2番目のカットを意味する)の再生確認以前に入力開始時刻を持つメモについて、録画時間による対応付け候補を削除し、対応付け候補にカットNを追加する(ステップS1104)。
次に、対応関係判定部40は、「再生中にメモの修正が実行されるメモデータは、現在再生中のカットについてのメモである確率が高い」という推定に基づいて、N番目のカットの再生確認時間内に修正時刻を持つメモについて、録画時間による対応付け候補にカットNが含まれていればカットN以外の対応付け候補を削除する(ステップS1105)。
更に、対応関係判定部40は、「任意のカットの再生終了後から次の別カットの再生開始前にまでにメモの修正が実行されるメモデータは、直前に再生を終了したカットについてのメモである確率が高い」という推定に基づいて、N番目のカットの再生確認終了後からN+1番目のカットの再生確認以前に修正時刻を持つメモについて、録画時間にカットNが含まれていればカットN以外の対応付け候補を削除する(ステップS1106)。
次に、対応関係判定部40は、Nの数値を1だけインクリメントして(ステップS1107)、Nの値がCの値に到達したか否かを判定する(ステップS1108)。
Nの値がCの値に到達していない場合(ステップS1108のNO)、対応関係判定部40は、ステップS1105に戻り、上記と同様の処理を次のカットに対して再度実行する。
一方、Nの値がCの値に到達した場合(ステップS1108のYES)、即ち最後のカットとなった場合、対応関係判定部40は、「最後のカットの再生中または再生終了後に入力されるメモデータは、最後に再生したカットについてのメモである確率が、撮影時刻による対応付けの結果よりも高い」という推定に基づいて、N番目のカット(ここでは最後のカットを意味する)の再生確認時間内もしくは再生確認終了後に入力開始時刻を持つメモについて、録画時間による対応付け候補を削除し、対応付け候補にカットNを追加する(ステップS1109)。
更に、対応関係判定部40は、「最後のカットの再生中または再生終了後にメモの修正が実行されるメモデータは、最後に再生したカットについてのメモである確率が、撮影時刻による対応付けの結果よりも高い」という推定に基づいて、N番目のカット(ここでは最後のカットを意味する)の再生確認時間内もしくは再生確認終了後に修正時刻を持つメモについて、録画時間による対応付け候補にカットNが含まれていればカットN以外の対応付け候補を削除する(ステップS1110)。
以上の手順により、再生を行ったカットと入力されたメモデータの対応付けが行われる。図43は、再生時間情報を用いた対応付け動作による対応付け候補判定結果を模式的に示す図である。
対応関係判定部40は、「撮影時間情報を用いた対応付け」と「再生時間情報を用いた対応付け」それぞれの対応付け候補判定結果を統合して、メモデータの入力時刻に基づいた対応付けを決定する。図44は、カットとメモデータとのメモデータの入力時刻に基づいた対応付け結果を模式的に示す図である。
次に、対応関係判定部40は、単語グループ間の関連性に基づいた対応付け候補の判定を行う。図45は、単語グループ間関連性情報を用いた対応付け動作の手順を示すフローチャートである。対応関係判定部40は、対応付け候補が2つ以上あるメモについて以下の作業を繰り返す(ステップS1201)。例えば、図44に示すように、「ナレーション挿入」には、カットA、カットBという二つの対応付け候補が存在する。以下、この「ナレーション挿入」というメモを具体例として説明する。
はじめに、対応関係判定部40は、相互に関連性の高い単語グループが存在するか否かを判定する(ステップS1202)。図38に示すように「ナレーション挿入」には、関連性の高いグループとして、「書斎の様子」が存在する。存在する場合、対応関係判定部40は、更に関連性の高い単語グループと共通の対応付け候補が有るか否かを判定する(ステップS1203)。図44に示すように、「ナレーション挿入」と関連性の高い単語グループである「書斎の様子」とは、対応付け候補としてカットAが共通する。共通の対応付け候補が有る場合、対応関係判定部40は、関連性の高い単語グループと非共通の対応付け候補を削除し(ステップS1204)、共通の対応付け候補だけにする。すなわち、「ナレーション挿入」については、関連性の高い「書斎の様子」と非共通の対応付け候補であるカットBを削除し、共通の対応付け候補であるカットAを対応付ける。対応関係判定部40は、ステップS1202からステップS1204までの判定動作を、対応付け候補が2つ以上あるすべてのメモについて繰り返す(ステップS1205)。
図46は、単語グループ間の関連性を用いた対応付け候補判定結果を模式的に示す図である。例えば、上述したように、当初、図44のカットとメモデータとのメモデータの入力時刻に基づいた対応付け結果により“カットAとカットB”が対応付けられていた「ナレーション挿入」は、図38に示すグループ間関連性判定部50の出力データに基づいて、“カットA”に対応付けが変更されている。図47は、カットに対応付けられたメモデータを概念的に示す図である。
以上説明したように、本実施の形態に係る対応付けシステムによれば、修正履歴情報を用いて、複数の単語が同一のカットに対するメモ情報としてグループ化されるため、メモ情報の入力者が本来意図したメモと映像素材とを適切に対応付けることができる。
[実施の形態3]
次に、実施の形態2で説明したグループ間関連性判定部50で、入力装置310の位置情報に基づいてグループ間関連性の判定を行う例について説明する。図48は、本発明の実施の形態3に係る対応付けシステムの概要を示す図である。対応付けシステムは、対応付け装置110、撮影装置200、入力装置320を備える。実施の形態2の構成と比較して、入力装置320に位置情報取得部316が追加されている点が異なる。
位置情報取得部316は、GPS(Global Positioning System)により、入力装置320本体の現在位置情報を所定の周期で出力する。その他の内部構成および各部の機能は実施の形態2のそれらと同様であるため、説明を省略する。尚、位置情報取得部を、撮像装置内部に設けてもよいし、別装置として構成しディレクター等に装着させてもよい。
次に、上記構成のシステムにおける対応付け装置の動作について説明する。
図49は、本発明の実施の形態3における対応付け装置の対応付け動作の手順を示すフローチャートである。はじめに、対応付け装置110のデータ取得部10は、入力装置320からメモデータの編集履歴データとGPSからの位置情報を取得する(ステップS1301)。編集履歴データの取得方法は、実施の形態2と同様であるので説明を省略する。図50は、データ取得部10が取得する位置情報のデータ構造を模式的に示す図である。入力装置320の緯度と軽度に関するデータが所定周期で出力される。
次のステップS1302からステップS1304までの手順は、実施の形態2の図28のフローチャートにおけるステップS602からステップS604までの手順と同様であるので説明を省略する。
次に、グループ間関連性判定部50は、メモデータの修正履歴と位置情報に基づいて、単語間関連性判定部30でグループ化された単語グループそれぞれの関連性を判定する(ステップS1305)。尚、修正履歴に基づくグループ間関連性の判定は実施の形態2の方法と同じであるため、説明を省略する。ここでは、位置情報に基づくグループ間関連性の判定について説明する。
図51は、位置情報に基づくグループ間関連性判定動作の手順を示すフローチャートである。グループ間関連性判定部50は、取得した位置情報から一定期間ごとの移動量を算出する(ステップS1401)。本実施例では、一定期間を一分として、一分ごとの移動量を算出している。次に、算出した移動量から平均移動量を算出する(ステップS1402)。これにより、入力装置320の操作者がほぼ静止した状態にあるのか、または車中などで移動している状態にあるのかなどが把握できる。従って、2つのメモデータの入力時刻が近接していても、例えば、メモを入力した場所が異なると判定される場合、それら2つのメモは同じカットについて入力されたものではなく、別々のカットについて入力されたメモデータである可能性が高いと推定できる。
なお、一定期間を一分としているが、この値は変更可能である。
本実施例では、ドキュメンタリー番組の制作における一回の撮影(録画開始から停止まで)時間がおよそ一分であるため、一分ごとの移動量を算出することで移動中と静止中の検出を行っているが、一回の撮影時間が短いジャンルの番組を制作する場合には、作業量算出間隔を短くすればよい。
次に、グループ間関連性判定部50は、平均移動距離が所定の閾値を下回った時刻を入力装置の状態(移動中または静止中)の区切りと判定する(ステップS1403)。即ち、閾値より移動量が少ない場合、当該入力装置320の操作者はほぼ静止した状態であると判定され、移動量が閾値を超過している場合、当該入力装置320の操作者は移動中であると判定される。
図52は、位置情報に基づくグループ間関連性判定の状況を説明するための図である。上記の判定動作により、入力装置が移動中であるか静止中であるかが区別される。この区切りを参照して、例えば、移動中に入力されたメモデータと静止中に入力されたメモデータとは関連性が低い(即ち、同じカットについて入力したメモデータではない)と判定できる。一般的な番組制作では、ロケ地に到着すると撮影準備を行い、その後撮影を行い、次のロケ地に移動するといったフローが繰り返される。したがって、移動中はロケ地の移動であり、静止中は撮影準備もしくは撮影中である可能性が高い。移動中は直前に撮影したカットのメモを書いている可能性が高く、撮影準備中はこれから撮影するカットのメモを書いている可能性が高い。したがって、撮影の合間に移動中と静止中の切れ目がある場合には、この以前と以降で別のカットに関するメモが書かれている可能性が高い。
図53は、グループ間関連性判定部50の出力データのデータ構造を模式的に示す図である。位置的な区切りがある(即ち、入力位置が異なる)ので相互に関連性が低いと推定される単語グループは、単語グループの文字列の番号で把握できる。例えば、No.7の単語グループ「後半◎」とNo.8の単語グループ「漁港とカモメ」は、関連性が低いことを示す。尚、ここでは修正履歴に基づく単語グループ間の関連性判定結果は省略してある。
次に、再び図49のフローチャートに戻り、対応関係判定部40は、映像素材メタデータとメモデータを参照して、カットの撮影時間または再生時間と単語グループの入力開始時刻との関連性、単語グループ間の関連性(修正履歴や位置情報)、をそれぞれ判定し、カットとメモデータの対応付けを行う(ステップS1306)。
ここで、図54は、単語グループの入力開始時刻と、カットの撮影時間または再生時間の関係を時間経過で整理した図である。GPSの位置情報に基づいて、入力した場所の異なるメモは関連性が低い、即ち、別のカットについてのメモであると判定できるので、実施の形態1と比較してより精度の高い対応付けが行える。対応関係判定部40の具体的な判定動作のうち、以下では位置情報を用いた対応付け動作についてのみ説明する。
図55は、位置情報を用いた対応付け動作の手順を示すフローチャートである。対応関係判定部40は、対応付け候補が2つ以上あるメモについて以下の作業を繰り返す(ステップS1501)。
はじめに、対応関係判定部40は、相互に関連性の低い単語グループが存在するか否かを判定する(ステップS1502)。存在する場合、対応関係判定部40は、更に関連性の低い単語グループと共通の対応付け候補が有るか否かを判定する(ステップS1503)。共通の対応付け候補が有る場合、対応関係判定部40は、関連性の低い単語グループと共通の対応付け候補を削除する(ステップS1504)。対応関係判定部40は、ステップS1402からステップS1404までの判定動作を、対応付け候補が2つ以上あるすべてのメモについて繰り返す(ステップS1505)。
図56は、単語グループ間の関連性を用いた対応付け候補判定結果を模式的に示す図である。「後半◎」と「漁港とカモメ」は関連性が低く、同じカットについてのメモではないと判定されたため、当初“カットBとカットC”が対応付けられていた「漁港とカモメ」は“カットC”に対応付けが変更されている。尚、ここでは修正履歴に基づく単語グループ間の関連性判定結果は別途反映されるものとする。図57は、カットに対応付けられたメモデータを概念的に示す図である。
以上説明したように、本実施の形態に係る対応付けシステムによれば、入力装置の位置情報を用いることにより、たとえ単語の入力時刻が近接していても、異なる場所で入力されたメモ情報は関連性が低いためグループ化しないと判定するなど、複数の単語を同一のカットに対するメモ情報として適切にグループ化することができる。
なお、本実施例では、文字入力装置を使用して入力したメモが文字列として管理されているが、撮影素材と対応付けるメモが文字列でなくても、本発明の対応付け装置により撮影素材と対応付けることができる。例えば、ペンタブレット等を用いて入力されたメモを撮影素材と対応付けることも可能である。ここでペンタブレットとは、板状の本体であるタブレットの上で専用のペン型入力端末等を動かすことにより、手書き入力された軌跡をデジタルデータとして管理出来る入力端末である。入力されたデータは、特定もしくは不特定な時間間隔ごとに、その時間内に入力された軌跡を入力データとして入力時刻情報とともに管理している。したがって、この1つ1つの入力データを本実施例における1つの単語とし、本発明の対応付け装置によって、入力データのグループ化、撮影素材との対応付けを行うことで、ペンタブレット等を用いて入力されたメモを撮影素材と対応付けることも可能である。このように、入力データと入力時刻情報とを管理する機能を有する入力装置であれば、いずれの入力装置を使用して入力したデータであっても、映像素材との対応付けが可能である。
本発明の対応付け装置は、単語の入力時刻情報に基づいて単語と映像素材との対応付けを行うことにより、映像素材の撮影中に入力が開始された単語は、当該映像素材に対するメモとして、撮影素材と対応付けられる為、単語の入力者が映像素材との対応を意識することなく従来手書きしていたのと同じ感覚で単語を入力するだけで、入力したメモ情報が該当する映像素材毎に対応付けられ、メモをキーワードとして、素材の検索を迅速に行える効果を有し、取得した複数のデータを互いに対応付ける対応付け装置等に有用である。
本発明の実施の形態1に係る対応付けシステムの概要を示す図 本発明の実施の形態1における対応付け装置の内部構成を示すブロック図 本発明の実施の形態1における対応付け装置の対応付け動作の手順を示すフローチャート 入力装置に操作者が入力するメモデータの入力例を示す図 データ取得部が取得する編集履歴データのデータ構造を模式的に示す図 取得した一つの撮影素材の撮影素材メタデータのデータ構造を模式的に示す図 全ての撮影素材について、撮影素材メタデータからメモとの対応付けに必要となる情報のみを抽出した撮影素材メタデータの一例を示す図 操作ログの一例を示す図 内部処理により「撮影」と「再生」について時系列で統合された映像素材メタデータのデータ構造を模式的に示す図 タイムスタンプ算出部の算出動作手順を示すフローチャート 図5に示す編集履歴データの6行目までが読み込まれた時点の内部テーブルのデータ構造を模式的に示す図 図5に示す編集履歴データの7行目までが読み込まれた時点の内部テーブルのデータ構造を模式的に示す図 図5に示す編集履歴データの9行目までが読み込まれた時点の内部テーブルのデータ構造を模式的に示す図 図5に示す編集履歴データの10行目までが読み込まれた時点の内部テーブルのデータ構造を模式的に示す図 タイムスタンプ算出部の出力データのデータ構造を模式的に示す図 単語間関連性判定部の単語間関連性判定動作手順を示すフローチャート 単語のグループ分けの概要を示す図 単語間関連性判定部の出力データのデータ構造を模式的に示す図 単語グループの入力開始時刻と、カットの撮影時間または再生時間の関係を時間経過で整理した図 メモデータの入力時刻とカットの撮影時間との対応関係を説明するための図 撮影時間情報を用いた対応付け動作の手順を示すフローチャート 撮影時間情報を用いた対応付け動作による対応付け候補判定結果を模式的に示す図 再生時間情報を用いた対応付け動作の手順を示すフローチャート 再生時間情報を用いた対応付け動作による対応付け候補判定結果を模式的に示す図 カットとメモデータの最終的な対応付け結果を模式的に示す図 カットに対応付けられたメモデータを概念的に示す図 本発明の実施の形態2に係る対応付けシステムの概要を示す図 本発明の実施の形態2における対応付け装置の対応付け動作の手順を示すフローチャート 入力装置に操作者が入力するメモデータの入力例を示す図 実施の形態2で用いる入力装置のメモデータ入力動作手順を示すフローチャート 対応付け装置のデータ取得部が入力装置から取得する編集履歴データのデータ構造を模式的に示す図 取得した映像素材メタデータのデータ構造を模式的に示す図 内部処理により「撮影」と「再生」について時系列で統合された映像素材メタデータのデータ構造を模式的に示す図 タイムスタンプ算出部の算出動作手順を示すフローチャート タイムスタンプ算出部の出力データのデータ構造を模式的に示す図 単語間関連性判定部の出力データのデータ構造を模式的に示す図 修正履歴に基づくグループ間関連性判定動作の手順を示すフローチャート グループ間関連性判定部50の出力データのデータ構造を模式的に示す図 単語グループの入力開始時刻と、カットの撮影時間または再生時間の関係を時間経過で整理した図 撮影時間情報を用いた対応付け動作の手順を示すフローチャート 撮影時間情報を用いた対応付け動作による対応付け候補判定結果を模式的に示す図 再生時間情報を用いた対応付け動作の手順を示すフローチャート 再生時間情報を用いた対応付け動作による対応付け候補判定結果を模式的に示す図 カットとメモデータとのメモデータの入力時刻に基づいた対応付け結果を模式的に示す図 単語グループ間関連性情報を用いた対応付け動作の手順を示すフローチャート 単語グループ間の関連性を用いた対応付け候補判定結果を模式的に示す図 カットに対応付けられたメモデータを概念的に示す図 本発明の実施の形態3に係る対応付けシステムの概要を示す図 本発明の実施の形態3における対応付け装置の対応付け動作の手順を示すフローチャート データ取得部が取得する位置情報のデータ構造を模式的に示す図 位置情報に基づくグループ間関連性判定動作の手順を示すフローチャート 位置情報に基づくグループ間関連性判定の状況を説明するための図 グループ間関連性判定部50の出力データのデータ構造を模式的に示す図 単語グループの入力開始時刻と、カットの撮影時間または再生時間の関係を時間経過で整理した図 位置情報を用いた対応付け動作の手順を示すフローチャート 単語グループ間の関連性を用いた対応付け候補判定結果を模式的に示す図 カットに対応付けられたメモデータを概念的に示す図
符号の説明
10 データ取得部
20 タイムスタンプ算出部
30 単語間関連性判定部
40 対応関係判定部
50グループ間関連性判定部
100、110 対応付け装置
200 撮影装置
300、310、320 入力装置
311 ユーザ入力受付部
312 編集履歴付与部
313 時刻管理部
314 メタデータ保持部
315 メタデータ登録部
316 位置情報取得部

Claims (8)

  1. 取得した複数のデータを互いに対応付ける対応付け装置であって、
    入力された単語の入力開始時刻情報と撮影された映像素材の撮影時間情報とを用いて、前記単語と前記映像素材とを対応付ける対応関係判定手段を備える対応付け装置。
  2. 入力された複数の単語間の関連性を判定することにより単語のグループ化を行う単語間関連性判定手段を備え、
    前記対応関係判定手段は、グループ化された単語群と前記映像素材とを対応付ける請求項1記載の対応付け装置。
  3. 前記グループ化された単語群間の関連性を判定するグループ間関連性判定手段を備え、
    前記対応関係判定手段は、前記グループ間関連性判定手段の判定結果に基づいて、グループ化された単語群と前記映像素材とを対応付ける請求項2記載の対応付け装置。
  4. 前記グループ間関連性判定手段は、修正履歴情報を用いて前記グループ化された単語群間の関連性を判定する請求項3記載の対応付け装置。
  5. 前記グループ間関連性判定手段は、単語が入力された際の位置情報を用いて前記グループ化された単語群間の関連性を判定する請求項3記載の対応付け装置。
  6. 前記対応関係判定手段は、前記映像素材の再生動作に関する操作ログを参照して前記単語と前記映像素材とを対応付ける請求項1ないし5のいずれか一項記載の対応付け装置。
  7. 請求項1ないし6のいずれか一項記載の対応付け装置と、単語ごとの入力開始時刻を取得、管理する入力管理装置と、前記撮影素材を撮影する撮像装置と、を備える対応付けシステム。
  8. 請求項1ないし6のいずれか一項記載の対応付け装置に接続される入力管理装置であって、
    単語ごとの入力開始時刻を取得、管理する入力管理装置。
JP2005331694A 2005-11-16 2005-11-16 対応付け装置 Active JP4820627B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2005331694A JP4820627B2 (ja) 2005-11-16 2005-11-16 対応付け装置
US12/093,877 US8134592B2 (en) 2005-11-16 2006-11-16 Associating device
CNA2006800429398A CN101310516A (zh) 2005-11-16 2006-11-16 关联装置
PCT/JP2006/322880 WO2007058268A1 (ja) 2005-11-16 2006-11-16 対応付け装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005331694A JP4820627B2 (ja) 2005-11-16 2005-11-16 対応付け装置

Publications (3)

Publication Number Publication Date
JP2007142644A true JP2007142644A (ja) 2007-06-07
JP2007142644A5 JP2007142644A5 (ja) 2008-12-18
JP4820627B2 JP4820627B2 (ja) 2011-11-24

Family

ID=38048652

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005331694A Active JP4820627B2 (ja) 2005-11-16 2005-11-16 対応付け装置

Country Status (4)

Country Link
US (1) US8134592B2 (ja)
JP (1) JP4820627B2 (ja)
CN (1) CN101310516A (ja)
WO (1) WO2007058268A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011227800A (ja) * 2010-04-22 2011-11-10 Sharp Corp 電子機器、表示方法、および表示プログラム
JP2015119320A (ja) * 2013-12-18 2015-06-25 富士ゼロックス株式会社 情報処理システム及びプログラム
JP2017228249A (ja) * 2016-06-24 2017-12-28 古河電気工業株式会社 点検支援システム、情報端末、点検支援方法、およびプログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101718027B1 (ko) * 2010-09-09 2017-03-20 엘지전자 주식회사 이동 단말기 및 그의 메모 관리방법
CN105068981A (zh) * 2015-08-10 2015-11-18 联想(北京)有限公司 一种信息处理方法、电子设备及电子装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09198396A (ja) * 1996-01-16 1997-07-31 Fuji Xerox Co Ltd 文書検索装置
JPH1042177A (ja) * 1996-07-26 1998-02-13 Nec Corp 取材用映像音声記録カメラ及び専用再生装置
JP2002082684A (ja) * 2000-09-07 2002-03-22 Sony Corp プレゼンテーションシステム及びプレゼンテーションデータ生成方法、並びに記録媒体
JP2002092032A (ja) * 2000-09-12 2002-03-29 Nippon Telegr & Teleph Corp <Ntt> 次検索候補単語提示方法および装置と次検索候補単語提示プログラムを記録した記録媒体

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5717468A (en) * 1994-12-02 1998-02-10 International Business Machines Corporation System and method for dynamically recording and displaying comments for a video movie
JPH08185452A (ja) * 1994-12-28 1996-07-16 Sharp Corp 文書作成装置
JP3376314B2 (ja) * 1999-05-12 2003-02-10 株式会社東芝 デジタル映像情報媒体、デジタル映像情報記録再生装置およびデジタル映像情報処理方法
JP2001282813A (ja) 2000-03-29 2001-10-12 Toshiba Corp マルチメディアデータ検索方法、インデックス情報提供方法、マルチメディアデータ検索装置、インデックスサーバ及びマルチメディアデータ検索サーバ
US6937295B2 (en) * 2001-05-07 2005-08-30 Junaid Islam Realistic replication of a live performance at remote locations
JP2003339006A (ja) 2002-05-21 2003-11-28 Sony Corp コンテンツ記録再生装置又はコンテンツ記録再生方法、情報処理装置又は情報処理方法、並びにコンピュータ・プログラム
US6988245B2 (en) * 2002-06-18 2006-01-17 Koninklijke Philips Electronics N.V. System and method for providing videomarks for a video program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09198396A (ja) * 1996-01-16 1997-07-31 Fuji Xerox Co Ltd 文書検索装置
JPH1042177A (ja) * 1996-07-26 1998-02-13 Nec Corp 取材用映像音声記録カメラ及び専用再生装置
JP2002082684A (ja) * 2000-09-07 2002-03-22 Sony Corp プレゼンテーションシステム及びプレゼンテーションデータ生成方法、並びに記録媒体
JP2002092032A (ja) * 2000-09-12 2002-03-29 Nippon Telegr & Teleph Corp <Ntt> 次検索候補単語提示方法および装置と次検索候補単語提示プログラムを記録した記録媒体

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011227800A (ja) * 2010-04-22 2011-11-10 Sharp Corp 電子機器、表示方法、および表示プログラム
JP2015119320A (ja) * 2013-12-18 2015-06-25 富士ゼロックス株式会社 情報処理システム及びプログラム
JP2017228249A (ja) * 2016-06-24 2017-12-28 古河電気工業株式会社 点検支援システム、情報端末、点検支援方法、およびプログラム

Also Published As

Publication number Publication date
WO2007058268A1 (ja) 2007-05-24
JP4820627B2 (ja) 2011-11-24
US8134592B2 (en) 2012-03-13
CN101310516A (zh) 2008-11-19
US20090268017A1 (en) 2009-10-29

Similar Documents

Publication Publication Date Title
JP4335492B2 (ja) 動画像管理方法及び装置
JP5289151B2 (ja) データ管理装置、その制御方法及びプログラム
JP2006155384A (ja) 映像コメント入力・表示方法及び装置及びプログラム及びプログラムを格納した記憶媒体
JP4755156B2 (ja) 画像提供装置及び画像提供プログラム
JP4820627B2 (ja) 対応付け装置
CN102129448A (zh) 图像管理设备及其控制方法
EP1785996A1 (en) Image information recording device and image information display device
US9449646B2 (en) Methods and systems for media file management
JP2006135590A (ja) デジタルカメラおよびコンピュータプログラム
JPWO2008136466A1 (ja) 動画編集装置
JP2000092419A (ja) 番組情報管理編集システムとそれに使用される階層化番組情報蓄積管理装置
JP2006279118A (ja) 画像再生装置及びプログラム
JP4331706B2 (ja) 編集装置及び編集方法
WO2005041043A1 (ja) ファイル生成方法及びファイル検索方法
JP4233362B2 (ja) 情報配信装置、情報配信方法、および情報配信プログラム
JP2003224791A (ja) 映像の検索方法および装置
JP2006215811A (ja) ファイリング装置、検索管理方法、及びプログラム
JP4016424B2 (ja) 動画像編集装置および動画像編集方法
JP4366486B2 (ja) 画像再生装置
CN105608104B (zh) 图像添加方法、图像添加装置和终端
JP2006133947A (ja) 携帯装置及び画像ファイル検索方法
JP5153054B2 (ja) ファイル生成方法及びファイル検索方法
JP2023125031A (ja) 映像作成プログラム
JP2023125032A (ja) 映像作成プログラム
JP4250662B2 (ja) デジタルデータ編集装置

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20071113

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081105

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110809

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110905

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140909

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4820627

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350