JP2011061263A - ダイジェスト映像作成装置およびダイジェスト映像作成プログラム - Google Patents

ダイジェスト映像作成装置およびダイジェスト映像作成プログラム Download PDF

Info

Publication number
JP2011061263A
JP2011061263A JP2009205454A JP2009205454A JP2011061263A JP 2011061263 A JP2011061263 A JP 2011061263A JP 2009205454 A JP2009205454 A JP 2009205454A JP 2009205454 A JP2009205454 A JP 2009205454A JP 2011061263 A JP2011061263 A JP 2011061263A
Authority
JP
Japan
Prior art keywords
digest
video
digest video
scene
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009205454A
Other languages
English (en)
Inventor
Yasuhiko Miyazaki
泰彦 宮崎
Kota Hidaka
浩太 日高
Akira Kojima
明 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2009205454A priority Critical patent/JP2011061263A/ja
Publication of JP2011061263A publication Critical patent/JP2011061263A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】映像データから重要なシーンを抽出してダイジェスト映像を作成するにあたって,映像から抽出される区間の時間的・シーン的な偏りが生じないようにする。
【解決手段】強調度算出部10は,ダイジェスト映像の作成対象となる映像内の区間ごとに,その強調されている度合いを算出する。分割指定部11は,映像を複数のシーンに分割するための分割点を取得する。ダイジェスト区間選択部12は,指定されたシーンごとに,指定されたダイジェスト映像長となるように,強調されている度合いの高い区間を選択する。ダイジェスト映像作成部13は,ダイジェスト区間選択部12が選択した区間を結合してダイジェスト映像を作成する。
【選択図】図1

Description

本発明は,映像データから重要なシーンを抽出してダイジェスト映像を作成する装置に関するものであり,特に,抽出される区間の時間的・シーン的な偏りを解消する技術に関する。
従来,長時間の映像データを時間的に短縮して視聴するために,重要なシーンを自動抽出してダイジェスト映像を作成する技術として,特許文献1あるいは非特許文献1のような技術があった。
これらの文献で述べられている方法は,まず,音声段落ごとの強調されている度合いに関して数値化し,その数値を用いて,利用者が指定した長さのダイジェスト映像を生成するという方法である。
まず,数値化として,特許文献1に述べられているのは,映像データの中の音声情報に着目し,基本周波数・パワー・動的特徴量の時間変化特性,およびこれらのフレーム間差分といった特徴量から,音声小段落ごとの「強調状態となる確率」,「平静状態となる確率」を自動的に算出する。さらに,非特許文献1では,これらの数値を使って,次式で示される「強調度KX 」という値を使うことが記載されている。
X =(log PXemp−log PXnrm)/L
なお,Xは分析区間を表し,Lは分析区間Xに含まれる分析フレーム数を表す。PXempは,分析区間Xの強調確率,PXnrmは分析区間Xの平静確率である。
次に,ダイジェスト生成については,特許文献1の段落0055から段落0073に「第2実施例」として,「強調状態となる確率」と「平静状態となる確率」の比の閾値を調整することにより,目的の長さとなるダイジェスト映像を生成する方法が述べられている。さらに,非特許文献1の2.4章(第508頁)では,これと本質的に同等でより簡易な処理方法として,「強調度KX 」を用い,音声段落ごとの強調度をソーティングし,強調度の高い音声段落から順に指定された時間となるまで選ぶことで,同様の効果を得る方法が記載されている。
特許第3803311号公報
日高,他「音声の強調情報を利用したビデオコンテンツ短縮視聴方法の検討」画像電子学会誌第34巻第5号, pp505-511, 2005
図2は,従来技術による強調度の算出結果の例,図3は,従来技術によるダイジェスト抽出結果の例,図4は,図3の抽出結果を意味的シーンで分類した例を示している。
従来技術として,非特許文献1に記載されている「強調度KX 」を,約1時間のホームビデオから取り込んだサンプル映像に対して計算した結果をグラフに示したものが図2である。
さらに,非特許文献1に記載されている方法により,その算出結果から,強調度の数値が高い音声段落区間を,約3分間の長さになるよう選択した結果は,図3のとおりとなる。図3が示していることは,ダイジェストとして抽出された区間に偏りがあるということであり,それを詳細に分析すると図4のとおりとなる。
つまり,このサンプルホームビデオコンテンツは,「自宅のシーン」「入園式のシーン」「家族旅行のシーン」を含んでいるのに対し,従来技術により抽出できる約3分間のダイジェスト映像は,すべて「入園式のシーン」,特に後半の「遊戯のシーン」から選ばれており,「自宅のシーン」や「家族旅行のシーン」からはまったく選ばれていない。すなわち,このように生成されたダイジェスト映像を見る限りでは,このホームビデオは単に「入園式」を撮っただけの映像であるようになってしまい,3つのシーンを含んだ映像のダイジェストとしては適切とはいえない。
このような出力結果になってしまうのは,特許文献1に記載されている「強調状態・平静状態確率」あるいはそこから計算される「強調度KX 」が,シーンによって全体的に高くなる場合や全体的に高くならない場合が起こるからである。例えば,このサンプルの場合,主に一人の子供がしゃべっていることの多いシーン(自宅および公園のシーン),家族間の会話が中心のシーン(家族旅行のシーン)と比較して,大勢の人が集まっており必然的に注目を集めるためにより強調した話し方を多用するシーン(入園式,特に遊戯のシーン)のほうが,算出される「強調度KX 」が全体的に高くなるからである。
このように,「強調度KX 」は,一般に撮影された状況に依存して,全体的に数値が高めに算出される傾向の強いシーンや,数値が低めに算出される傾向の強いシーンが存在し得るため,従来技術によりダイジェスト区間を選択すると,「全体的に数値が高めに算出される傾向の強いシーン」に偏った出力結果となる。
このような不適切なダイジェストを出力するのは,サンプル映像に限ったことではなく,ホームビデオのように,いくつかのまったく異なるシーンが含まれるような映像ファイルを,従来技術で処理した場合に起こり得る可能性が高い課題である。すなわち,ホームビデオでは,その撮影の意図として,さまざまなシーンの記録という側面があるため,抽出されるダイジェストに対しても,ある程度のシーンの網羅性が期待されているのに対し,従来技術では偏りが発生しやすいという課題がある。
なお,映像ファイルに含まれる意味的なシーンを人間の判断によらずに計算機等で自動的に抽出することは,一般に非常に困難である。
本発明は上記課題を解決し,映像データから重要なシーンを抽出してダイジェスト映像を作成するにあたって,映像から抽出される区間の時間的・シーン的な偏りが生じないようにすることを目的とする。
上述のように,音声の強調度合いで映像を要約すると,偏りが発生する。元の映像がオムニバス的に複数の話題・場面の集合体であれば,要約もそれぞれの映像部分から取ってくることが望ましい。本発明は,この課題を解決するために,元の映像を区間に区切り,各映像区間から要約を作成する。この映像区間の選択では,例えば算出された「強調度」をもとに,時間的に均等に分割してダイジェスト対象の区間を選ぶことを行う。または,各区間の撮影日付といった情報をもとにシーンを推定し,そのシーンごとにダイジェスト対象区間を選ぶことを行う。
詳しくは,本発明は,映像データから特定のシーンを抽出してダイジェスト映像を作成する装置において,ダイジェスト映像の作成対象となる映像内の区間ごとに,その強調されている度合いを算出する強調度算出手段と,前記映像を複数のシーンに分割するための分割点を取得する分割指定手段と,前記分割指定手段で指定されたシーンごとに,指定されたダイジェスト映像長となるように,前記強調度算出手段で算出された度合いの高い区間を選択するダイジェスト区間選択手段と,前記ダイジェスト区間選択手段が選択した区間を結合してダイジェスト映像を作成するダイジェスト映像作成手段とを備えることを特徴とする。
上記の発明において,前記強調度算出手段は,前記映像内の区間として音声段落を抽出し,その音声段落区間ごとに,音声データを用いて強調されている度合いを算出する手段として構成することができる。
また,上記の発明において,前記分割指定手段は,指定された2以上の整数値Nにより,前記映像を時間的にN等分したシーン分割点を算出する手段として構成することができる。また,前記分割指定手段は,前記映像を構成するショットの撮影時刻データを取得し,ショット間の撮影時刻に指定された閾値以上の差があること,または日付情報に差があること,という条件を満たす箇所を抽出し,それをシーン分割点として取得する手段として構成することもできる。さらに,ユーザの入力により指定される箇所をシーン分割点として取得する手段として構成することもできる。
さらに,上記の発明において,前記ダイジェスト映像作成手段は,前記ダイジェスト区間選択手段が選択した区間を所定の映像効果を掛けながら結合する手段として構成することができる。
本発明によってダイジェスト対象区間を選ぶことにより,時間的・シーン的な偏りを解消し,ある程度網羅性を保ったダイジェスト映像の作成が可能となる。
本発明の全体的な装置構成例を示す図である。 従来技術による強調度の算出結果の例を示す図である。 従来技術によるダイジェスト抽出結果の例を示す図である。 図3の抽出結果を意味的シーンで分類した例を示す図である。 強調度算出結果データの例を示す図である。 ショットとシーンについての説明図である。 分割指定部の処理フローを示す図である。 分割指定結果データの例を示す図である。 ダイジェスト区間選択部の処理フローを示す図である。 区間選択結果データの例を示す図である。 映像を5等分した場合の処理結果の例を示す図である。 日付によるシーン分類の場合の処理結果の例を示す図である。 ユーザ入力によるシーン分割の場合の処理結果の例を示す図である。
以下に本発明を実施する形態について述べる。図1は,本発明の全体的な装置構成例を示す図である。ここでは,本発明を,1つの計算機上のソフトウェアプログラムとして実施する形態として記載する。この場合,映像データとしては,MPEGなどの汎用的な形式でエンコードされたデジタルデータとして処理される。
ダイジェスト映像作成装置1は,CPUおよびメモリ等のハードウェアとソフトウェアプログラムとによって実現される強調度算出部10,分割指定部11,ダイジェスト区間選択部12,ダイジェスト映像作成部13を備える。
また,強調度算出結果データ14は,強調度算出部10の出力データであり,分割指定結果データ15は,分割指定部11の出力データであり,区間選択結果データ16は,ダイジェスト区間選択部12の出力データである。これらの各処理部の出力は,例えばファイルやメモリ等に格納され,次の処理部の入力として引き継がれる。
元映像データ記憶装置2は,ダイジェスト映像の作成元となる映像ファイルが格納されている記憶装置である。また,ダイジェスト映像データ記憶装置3は,作成されたダイジェスト映像ファイルが格納される記憶装置である。
強調度算出部10は,非特許文献1の「2.2強調度抽出処理」「2.3音声段落抽出処理」に記載されている方法などの従来技術を利用して実施することができる。例えば,映像データの中の音声情報に着目し,音声の平均基本周波数,平均パワー,動的尺度のピーク本数などの音声特徴量から強調音声の韻律特徴を抽出して,統計処理により求めた分析区間Xごとの強調確率PXemp,平静確率PXnrmを用いて,分析区間Xごとの強調度KX を次式により算出する。
X =(log PXemp−log PXnrm)/L
Lは分析区間Xに含まれる分析フレーム数を表す。さらに,連続する強調音声区間から音声段落ごとの強調度を求める。なお,分析区間Xは,例えば1秒というような音声の分析対象となる区間であり,音声段落は,無声が所定の時間長以上連続する無声区間で囲まれた複数の連続する分析区間である。詳しい内容については,上記非特許文献1に記載されているので,ここでのさらに詳しい説明は省略する。この方法により,元映像データ記憶装置2に格納されている映像ファイルから,各音声段落ごとの強調度が算出される。音声段落は,それぞれの開始点と終了点の映像ファイル中のタイムスタンプ値で指定することができるので,強調度算出部10により,図5に示す強調度算出結果データ14のようなテーブル形式の出力結果を得ることができる。
分割指定部11は,最も単純な実施形態としては,「N等分分割」のNの値を,プログラム起動時のパラメータ引数として読み込めるようにすることである。あるいは,プログラム起動後に,キーボード等の計算機上の入力装置から入力できるようにしてもよい。
また,他の分割指定部11の実施形態としては,何らかの情報により,元映像をシーン分割して,その分割を使用する形態も考えられる。
図6は,ショットとシーンについての説明図である。例えば,近年のデジタルビデオカメラで映像を撮影する場合には,各ショットごとの撮影時刻が同時に記録されることが多い。なお,ここでは,ビデオカメラで「撮影」ボタンを押してから「停止」ボタンを押すまでの間に撮影された断片的な映像を「ショット」と呼ぶ。いくつかの「ショット」を繋いで意味的に連続性のある「シーン」が構成され,1つの映像ファイルには,図6に示すように「シーン」が単数または複数含まれている。そのため,この場合,撮影時刻が近い「ショット」は同じ「シーン」に属すると考えることができる。具体的には,ある閾値を設け,ショット間の撮影時刻がその閾値より小さい場合には,シーンが継続していると判断する方法や,ショットの撮影時刻のうち「日付」が同一なショットで1つの擬似的な「シーン」を構成する,とすることもできる。
図7は,分割指定部11がシーン分割点を「日付」で判断する場合の処理フローチャートである。分割指定部11は,例えば以下のような処理によって映像を複数のシーンに分割する。
まず,先頭ショット分の「終了タイムスタンプ値」と「撮影時刻」のデータを取り出す(ステップS10)。取り出した「終了タイムスタンプ値」をS0とし,「撮影時刻」をT0とする(ステップS11)。次のショットがある間,ステップS20〜S24を繰り返す(ステップS12)。ショットごとの繰り返し処理が終了したならば,「S0の値」の値を最終フレームの分の分割指定結果データ15として出力する(ステップS13)。
ショットごとの繰り返し処理では,まず,次のショットの「終了タイムスタンプ値」と「撮影時刻」のデータを取り出す(ステップS20)。取り出した「終了タイムスタンプ値」をS1とし,「撮影時刻」をT1とする(ステップS21)。T1とT0の日付部分が一致するかどうかを判定し,日付部分が一致する場合には,S0=S1,T0=T1とする(ステップS23)。すなわち,S1の値を新たにS0にセットし,T1の値をT0にセットして,次のショットの処理に移る。日付部分が一致しない場合に,「S0」の値を出力する(ステップS24)。すなわち,「S0」の値をショット分割点を示す分割指定結果データ15として出力する。その後,ステップS23へ進み,同様に処理を繰り返す。
なお,この方法は厳密に意味的なシーンを抽出する方法ではなく,例えば,図6の場合に,簡易な「日付ごとでシーンとする」という処理を行うと,2009/04/01撮影分として,自宅のシーンと入園式のシーンは同一のシーンと判定されてしまう。しかしながら,そもそもユーザが意味的に解釈するシーンを定義し,それを計算機上のプログラムとして厳密な結果を出すことは困難であり,後に示すように,このような簡易な「シーン分割」の方法により本発明を実施してもその効果はある。このようにして,擬似的なシーン抽出を行った結果としては,シーン分割点を,1 本につながった映像ファイル上のタイムスタンプ値として算出することができる。
さらに別の実施例としては,このようなシーンの分割点を,ユーザがキーボードやマウス等の入力装置を通じて,入力できるようにする方法も考えられる。この場合も,ユーザが指定したシーン分割点を映像ファイル上のタイムスタンプ値として取得する。
以上述べたような方法を用いることにより,分割指定部11は,図8に示すような分割指定結果データ15を出力することができる。この場合,最終行には,最終ショットの終了タイムスタンプ,すなわち,処理対象となる映像ファイルの長さが入るようにしてある。なお,「N等分分割」の場合も,「k(=1,2,…,N)番目のシーン」の分割点は,「映像ファイル長÷N×k」で計算されるので,このように指定された場合も含めて図8のような出力結果を得るとして,以降の実施形態について述べる。
図9は,ダイジェスト区間選択部12の処理フローチャートである。ダイジェスト区間選択部12は,以下の処理によってダイジェスト映像の作成に用いるダイジェスト区間を選択する。
最初に,ダイジェスト目標秒数Dを取得する(ステップS31)。ダイジェスト映像長となるダイジェスト目標秒数Dは,プログラム起動時のパラメータ引数から取得するようにしてもよく,また,キーボード等のユーザの入力装置から入力して取得するようにしてもよい。
次に,図8に示したような分割指定結果データ15を読み込み,各データを配列c[]にセットする。すなわち,ショット分割点の数がN個であるとすると,そのショット分割点の値(秒)を先頭のデータから順番にc[1],c[2],…,c[N]にセットする。また,c[0]には0(秒)をセットする(ステップS32)。
次に,k=1,2,…,Nについて,各k番目の分割区間のダイジェスト目標秒数d[k]を,次の式で算出する(ステップS33)。
d[k]=D×(c[k]−c[k−1])÷c[N]
その後,k=1,2,…,Nの各々に対して,ステップS40〜S42の処理を繰り返し,これにより得られた結果をダイジェスト区間選択部12の出力である区間選択結果データ16とする(ステップS34)。
この繰り返し処理では,まず,図5に示した強調度算出結果データ14から,次の条件を満たすデータを取得する(ステップS40)。
c[k−1]≦開始秒<c[k]
次に,取得されたデータを強調度の降順でソートする(ステップS41)。その後,ソートされた順に,ステップS50〜S52の処理を繰り返す(ステップS42)。
ソート順処理では,ソートされたデータの先頭から順番に次の処理を繰り返す。まず,データの「開始秒」,「終了秒」の組を区間選択結果データ16として出力する(ステップS50)。次に,d[k]の値を,次の式によって更新する(ステップS51)。
d[k]=d[k]−(終了秒−開始秒)
d[k]の更新によって,d[k]が負の値になったかどうかを判定し,負の値になった場合には,ソート順処理を打ち切り,負の値になっていない場合には,次のデータについて,ソートされたデータがなくなるか,d[k]が負の値になるまで,同様に処理を繰り返す(ステップS52)。
なお,この例では,ステップS33において,分割区間kごとのダイジェスト目標秒数d[k]を求めるにあたり,それぞれの区間長(c[k]−c[k−1])で目標秒数を比例配分して求めているが,他の実施方法をとることも可能である。例えば,単純にD÷Nで求めてもよい。
また,図9に示す処理ステップのうち,ステップS41,S42,S50〜S52の部分の処理は,「c[k−1]〜c[k]間の映像から,d[k]秒のダイジェスト区間を選択する」という処理と同じ処理であるので,その目的となるような他の処理方式とすることも可能である。例えば,フローに示した処理方式では,d[k]秒を超えるまでの長さのダイジェスト区間が選択されるので,通常,d[k]秒よりは若干長くなることになる。このため,特許文献1の段落0060に記載されているような「±数%」とする方法や,段落0062に記載されているような方法により,厳密にd[k]秒とする方法などでも実施可能である。
ダイジェスト区間選択部12の出力結果である区間選択結果データの例を図10に示す。なお,図の右側に表している(強調度)の欄は,説明のために記載しているだけであって,実際に図9の処理フローの場合には本欄は出力されない。
ダイジェスト映像作成部13は,図10のようなダイジェスト区間選択部12の出力である区間選択結果データ16を読み込み,これを開始秒で昇順にソートし,その順に元映像データ記憶装置2に格納されている元映像から「開始秒」〜「終了秒」間の映像データを切り出して,順次結合することでダイジェスト映像を作成する。結合するにあたって,その結合部をフェードアウト・フェードインでつなぐという映像効果や,ディゾルブと呼ばれる手法で連続的に次の区間へ遷移させるといった映像効果を入れることは,ダイジェスト映像の完成度を上げる効果がある。MPEGなどの形式となったデータを処理するためのライブラリは広く実装されているため,このような処理を行うソフトウェアモジュールを構成することは容易に実施可能である。
なお,本実施例の説明では,各処理部がそれぞれ独立のソフトウェアとして実施され,ある処理部の結果をファイル等で出力し,それを別の処理部が読み込んで処理を行うような方式として記載しているが,本発明の実施にあたっては,このような方式に限定されることはない。別の実施方法としては,ファイルではなく,データベースのテーブルを使って実施することも可能であるし,また,内部のメモリ域に結果を書き込み,それを別の処理部が読み出して処理することも可能である。あるいは,各処理部は,ソフトウェアのライブラリモジュールとして実施され,それらを順次関数コールの形式で呼び出して処理を行うことも可能である。また,実施にあたって,これらのソフトウェアが同一の計算機上にある必要性もなく,一部あるいは全部の処理部がLAN等で接続された別々の計算機上で実施され,一つの処理部の処理結果を,LAN等を通じて別の処理部へ通信することによって実施する形態も可能である。
以上述べた実施形態による図2のコンテンツの処理結果を図11から図13に示す。以下,図11から図13までの処理結果に従って,本発明の実施例による効果について説明する。
図11は,映像を「5等分」に分割して処理した場合の処理結果の例であるが,このような単純な処理方式においても,各シーンを含むダイジェスト映像が作成でき,従来技術よりも網羅性が向上する。
図12は,「日付による分類」を適用した場合の処理結果の例であるが,この場合には,「2009/04/01分」としてまとめられたために,「自宅のシーン」からの選択がされていないが,「家族旅行のシーン」からは選択されている。このように,この例でも網羅性は向上している。なお,この映像が「2009/04/01のできごとのシーン」と「2009/04/05のできごとのシーン」からなっている,と考える場合には,各シーンからの選択がなされており,それぞれに対してより強調度の高い区間がとられているという点では,図11より網羅性の効果がある。
図13は,シーン分割点がユーザにより入力された場合の処理結果の例である。このように本実施例の場合には,シーン分割においてユーザが意図した分割点を入力値として与えることができるため,ユーザの意図に合わせて,網羅性を保ったダイジェスト生成が可能となる。
1 ダイジェスト映像作成装置
10 強調度算出部
11 分割指定部
12 ダイジェスト区間選択部
13 ダイジェスト映像作成部
14 強調度算出結果データ
15 分割指定結果データ
16 区間選択結果データ
2 元映像データ記憶装置
3 ダイジェスト映像データ記憶装置

Claims (7)

  1. 映像データから特定のシーンを抽出してダイジェスト映像を作成する装置において,
    ダイジェスト映像の作成対象となる映像内の区間ごとに,その強調されている度合いを算出する強調度算出手段と,
    前記映像を複数のシーンに分割するための分割点を取得する分割指定手段と,
    前記分割指定手段で指定されたシーンごとに,指定されたダイジェスト映像長となるように,前記強調度算出手段で算出された度合いの高い区間を選択するダイジェスト区間選択手段と,
    前記ダイジェスト区間選択手段が選択した区間を結合してダイジェスト映像を作成するダイジェスト映像作成手段とを備える
    ことを特徴とするダイジェスト映像作成装置。
  2. 請求項1記載のダイジェスト映像作成装置であって,
    前記強調度算出手段は,
    前記映像内の区間として音声段落を抽出し,その音声段落区間ごとに,音声データを用いて強調されている度合いを算出する手段である
    ことを特徴とするダイジェスト映像作成装置。
  3. 請求項1または請求項2記載のダイジェスト映像作成装置であって,
    前記分割指定手段は,
    指定された2以上の整数値Nにより,前記映像を時間的にN等分したシーン分割点を算出する手段である
    ことを特徴とするダイジェスト映像作成装置。
  4. 請求項1または請求項2記載のダイジェスト映像作成装置であって,
    前記分割指定手段は,
    前記映像を構成するショットの撮影時刻データを取得し,ショット間の撮影時刻に指定された閾値以上の差があること,または日付情報に差があること,という条件を満たす箇所を抽出し,それをシーン分割点として取得する手段である
    ことを特徴とするダイジェスト映像作成装置。
  5. 請求項1または請求項2記載のダイジェスト映像作成装置であって,
    前記分割指定手段は,
    ユーザの入力により指定される箇所をシーン分割点として取得する手段である
    ことを特徴とするダイジェスト映像作成装置。
  6. 請求項1から請求項5までのいずれか1項に記載のダイジェスト映像作成装置であって,
    前記ダイジェスト映像作成手段は,
    前記ダイジェスト区間選択手段が選択した区間を所定の映像効果を掛けながら結合する手段である
    ことを特徴とするダイジェスト映像作成装置。
  7. 計算機を,請求項1から請求項6までのいずれか1項に記載のダイジェスト映像作成装置が備える各手段として機能させるためのダイジェスト映像作成プログラム。
JP2009205454A 2009-09-07 2009-09-07 ダイジェスト映像作成装置およびダイジェスト映像作成プログラム Pending JP2011061263A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009205454A JP2011061263A (ja) 2009-09-07 2009-09-07 ダイジェスト映像作成装置およびダイジェスト映像作成プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009205454A JP2011061263A (ja) 2009-09-07 2009-09-07 ダイジェスト映像作成装置およびダイジェスト映像作成プログラム

Publications (1)

Publication Number Publication Date
JP2011061263A true JP2011061263A (ja) 2011-03-24

Family

ID=43948443

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009205454A Pending JP2011061263A (ja) 2009-09-07 2009-09-07 ダイジェスト映像作成装置およびダイジェスト映像作成プログラム

Country Status (1)

Country Link
JP (1) JP2011061263A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016036078A (ja) * 2014-08-01 2016-03-17 株式会社ミクシィ 情報処理装置、情報処理装置の制御方法及び制御プログラム
US11226209B2 (en) 2018-12-03 2022-01-18 Toyota Jidosha Kabushiki Kaisha Information processing system, program, and control method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07111630A (ja) * 1993-10-14 1995-04-25 Matsushita Electric Ind Co Ltd 動画像編集装置及びカット統合方法
JP2003316378A (ja) * 2001-08-08 2003-11-07 Nippon Telegr & Teleph Corp <Ntt> 音声処理方法及びその方法を使用した装置及びそのプログラム
JP2005277531A (ja) * 2004-03-23 2005-10-06 Seiko Epson Corp 動画像処理装置
JP2008283317A (ja) * 2007-05-08 2008-11-20 Sharp Corp 携帯通信端末
JP2009017598A (ja) * 2008-10-02 2009-01-22 Sony Corp 撮像装置、および情報処理方法、並びにコンピュータ・プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07111630A (ja) * 1993-10-14 1995-04-25 Matsushita Electric Ind Co Ltd 動画像編集装置及びカット統合方法
JP2003316378A (ja) * 2001-08-08 2003-11-07 Nippon Telegr & Teleph Corp <Ntt> 音声処理方法及びその方法を使用した装置及びそのプログラム
JP2005277531A (ja) * 2004-03-23 2005-10-06 Seiko Epson Corp 動画像処理装置
JP2008283317A (ja) * 2007-05-08 2008-11-20 Sharp Corp 携帯通信端末
JP2009017598A (ja) * 2008-10-02 2009-01-22 Sony Corp 撮像装置、および情報処理方法、並びにコンピュータ・プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016036078A (ja) * 2014-08-01 2016-03-17 株式会社ミクシィ 情報処理装置、情報処理装置の制御方法及び制御プログラム
US11226209B2 (en) 2018-12-03 2022-01-18 Toyota Jidosha Kabushiki Kaisha Information processing system, program, and control method

Similar Documents

Publication Publication Date Title
JP4920395B2 (ja) 動画要約自動作成装置、方法、及びコンピュータ・プログラム
JP4334977B2 (ja) ビデオを自動的に編集するためのシステムおよび方法
US8938393B2 (en) Extended videolens media engine for audio recognition
JP5092000B2 (ja) 映像処理装置、方法、及び映像処理システム
JP5460709B2 (ja) 音響信号処理装置および方法
JP2008185626A (ja) ハイライトシーン検出装置
JP2010011409A (ja) 映像ダイジェスト装置及び映像編集プログラム
JP2009217802A (ja) 文書処理装置、文書処理プログラムおよび記録媒体
CN110691271A (zh) 一种新闻视频生成方法、系统、装置和存储介质
JP2007101945A (ja) 音声付き映像データ処理装置、音声付き映像データ処理方法及び音声付き映像データ処理用プログラム
JP4812733B2 (ja) 情報編集装置、情報編集方法、情報編集プログラムおよびそのプログラムを記録した記録媒体
JP2011124681A (ja) 映像編集装置,映像編集方法および映像編集プログラム
JP5096259B2 (ja) 要約コンテンツ生成装置および要約コンテンツ生成プログラム
JP4965371B2 (ja) 音声再生装置
JP2011061263A (ja) ダイジェスト映像作成装置およびダイジェスト映像作成プログラム
JP2018206292A (ja) 要約映像生成装置及びプログラム
JP2000285242A (ja) 信号処理方法及び映像音声処理装置
JP6793169B2 (ja) サムネイル出力装置、サムネイル出力方法およびサムネイル出力プログラム
KR100863122B1 (ko) 오디오 신호 특성을 이용한 멀티미디어 동영상 색인 방법
CN113032616B (zh) 音频推荐的方法、装置、计算机设备和存储介质
JP5054608B2 (ja) コンテンツ評価方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体
JP2007079736A (ja) データ編集装置、データ編集方法およびデータ編集プログラム
JP5054653B2 (ja) 視聴印象推定方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体
EP2136314A1 (en) Method and system for generating multimedia descriptors
KR102636708B1 (ko) 프레젠테이션 문서에 대한 수어 발표 영상을 제작할 수 있는 전자 단말 장치 및 그 동작 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110901

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120925

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130205