JP6583285B2 - 情報処理方法、映像処理装置及びプログラム - Google Patents

情報処理方法、映像処理装置及びプログラム Download PDF

Info

Publication number
JP6583285B2
JP6583285B2 JP2016564725A JP2016564725A JP6583285B2 JP 6583285 B2 JP6583285 B2 JP 6583285B2 JP 2016564725 A JP2016564725 A JP 2016564725A JP 2016564725 A JP2016564725 A JP 2016564725A JP 6583285 B2 JP6583285 B2 JP 6583285B2
Authority
JP
Japan
Prior art keywords
video
unit
section
adopted
music
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016564725A
Other languages
English (en)
Other versions
JPWO2016098458A1 (ja
Inventor
和博 嶋内
和博 嶋内
広志 池田
広志 池田
伸穂 池田
伸穂 池田
篤史 木村
篤史 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2016098458A1 publication Critical patent/JPWO2016098458A1/ja
Application granted granted Critical
Publication of JP6583285B2 publication Critical patent/JP6583285B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • G06V20/47Detecting features for summarising video content
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor

Description

本開示は、情報処理方法、映像処理装置及びプログラムに関する。
近年、ウェアラブルカメラやアクションカメラといった種類のカメラがスポーツ等の分野において広く用いられている。このようなカメラでは、長時間連続して撮影されることが多く、また構図が単調になりやすいことから、撮影された映像そのままでは鑑賞に堪えない場合がある。そのため、撮影された映像の見どころを短くまとめた要約映像を生成するための技術の開発が望まれている。
そのような技術に関して、例えば下記特許文献1、2、3及び4に開示されているように、もとの映像の中から要約映像に採用する区間を選択するための技術が開発されている。詳しくは、下記特許文献1では、もとの映像の中から注目すべき区間を検出するための技術が開示されている。
特開2008−312215号公報 特開2007−335984号公報 特開2006−14084号公報 特開平11−136637号公報
しかし、上記特許文献1に開示された技術では、もとの映像の中から注目すべき区間を検出することが可能であるに過ぎなかった。そのため、例えば検出された区間がそのまま採用された要約映像が生成されていた。そこで、本開示では、要約映像に採用される候補として抽出された区間の各々について、実際に要約映像に採用する区間を設定することが可能な、新規かつ改良された情報処理方法、映像処理装置及びプログラムを提案する。
本開示によれば、入力された映像の内容を解析することと、音楽の区間の情報と解析された前記映像のシーン情報とに基づいて、前記映像から採用する採用区間の位置を設定すること、を含む情報処理方法が提供される。
また、本開示によれば、入力された映像の内容を解析する映像解析部と、音楽の区間の情報と解析された前記映像のシーン情報とに基づいて、前記映像から採用する採用区間の位置を設定する抽出部と、を備える映像処理装置が提供される。
また、本開示によれば、コンピュータを、入力された映像の内容を解析する映像解析部と、音楽の区間の情報と解析された前記映像のシーン情報とに基づいて、前記映像から採用する採用区間の位置を設定する抽出部と、として機能させるためのプログラムが提供される。
以上説明したように本開示によれば、要約映像に採用される候補として抽出された区間の各々について、実際に要約映像に採用する区間を設定することが可能である。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本実施形態に係る映像処理装置の概要を説明するための図である。 本実施形態に係る映像処理装置において実行される映像解析処理の概要を説明するための図である。 本実施形態に係る映像処理装置において実行される編集情報生成処理及び要約映像生成処理の概要を説明するための図である。 本実施形態に係る映像処理装置の論理的な構成の一例を示すブロック図である。 本実施形態に係る単位映像の抽出処理を説明するための図である。 本実施形態に係る単位映像の切り替えタイミングの設定処理を説明するための図である。 本実施形態に係る映像処理装置の動作モードの一例を説明するための図である。 本実施形態に係る単位映像の選択処理を説明するための図である。 本実施形態に係る単位映像の選択処理を説明するための図である。 本実施形態に係る採用区間の設定処理を説明するための図である。 本実施形態に係る採用区間の設定処理を説明するための図である。 本実施形態に係る採用区間の設定処理を説明するための図である。 本実施形態に係る映像処理装置において実行される要約映像の生成処理の流れの一例を示すフローチャートである。 本実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書及び図面において、実質的に同一の機能構成を有する要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。例えば、実質的に同一の機能構成を有する複数の要素を、必要に応じて映像処理装置100A、100B及び100Cのように区別する。ただし、実質的に同一の機能構成を有する複数の要素の各々を特に区別する必要がない場合、同一符号のみを付する。例えば、映像処理装置100A、100B及び100Cを特に区別する必要が無い場合には、単に映像処理装置100と称する。
なお、説明は以下の順序で行うものとする。
1.概要
2.基本構成
3.機能詳細
3.1.単位映像の抽出処理
3.2.切り替えタイミングの設定処理
3.3.動作モードの決定処理
3.4.単位映像の選択処理
3.5.採用区間の設定処理
4.動作処理
5.ハードウェア構成例
6.まとめ
<1.概要>
まず、図1〜図3を参照して、本実施形態に係る映像処理装置の概要を説明する。
図1は、本実施形態に係る映像処理装置100の概要を説明するための図である。図1では、映像処理装置100を用いるユーザの動作、及び映像処理装置100において行われる処理の推移を示しており、時間は左から右へ流れる。図1に示すように、映像処理装置100は、ユーザにより撮影された映像10から要約映像50を生成する。要約映像50とは、ユーザにより撮影された映像を要約したダイジェスト版の映像である。映像処理装置100は、撮影された映像10から任意の採用基準を用いて採用した区間を、入力された音楽30に応じて切り替えて連結することで、要約映像50を生成する。なお、本明細書では、映像は画像(静止画像/動画像)データ及び音声データを含むものとする。以下、映像処理装置100において実行される要約映像50の生成処理の概要を説明する。
まず、ユーザにより撮影が行われる期間、映像処理装置100は、撮影された映像10を記録する記録処理を行うと共に、映像10を解析する映像解析処理を行う。例えば、映像処理装置100は、映像解析処理として、撮影中のユーザ操作の解析を行ったり、笑顔検出、色検出及び動きベクトルの検出等の画像解析を行ったり、撮影中のセンサ情報に基づく被写体の動作の解析を行ったりする。
次いで、映像処理装置100は、映像解析処理の結果を示す映像解析結果情報20及び入力された音楽30に基づいて編集情報生成処理を行う。映像解析結果情報20とは、ハイライトとして特定或いは抽出すべき注目イベント(区間、期間)に関する情報であって、より具体的には、ジャンプ若しくはターンなどの特定の動作、笑顔、又は歓声が沸いた、イベントの盛り上がったシーンを示す、シーン情報の一例である。例えば、映像処理装置100は、任意の採用基準を用いて映像解析結果情報20を評価することで、映像10から要約映像50に採用する単位映像を選択する。単位映像とは、一続きの映像であり、ショットとも称される。そして、映像処理装置100は、採用した単位映像を、音楽30に応じて切り替えるための編集情報40を生成する。編集情報40とは、どの音楽30のどの区間をBGM(background music)として、どの単位映像を、どのタイミングで切り替えるか、を規定する情報である。映像処理装置100は、音楽理論に基づいて音楽30を解析することで、音楽30のメロディやリズム、拍又は盛り上がり等に応じたタイミングで単位映像が切り替わるよう、編集情報40を生成する。
そして、映像処理装置100は、編集情報40に基づいて要約映像生成処理を行う。例えば、映像処理装置100は、編集情報40により指定された音楽30をBGMとして、編集情報40により指定された単位映像を指定されたタイミングで切り替えて連結することで、要約映像50を生成する。映像処理装置100は、要約映像50を再生したり、記録したり、他の機器へ送信したりすることも可能である。
なお、図1に示した映像解析処理は、ユーザによる撮影と並行して行われてもよいし、撮影後に行われてもよい。また、映像解析処理、編集情報生成処理及び要約映像生成処理は、連続的に行われてもよいし、非連続的に行われてもよい。また、映像処理装置100は、複数の映像及び音楽30をBGMとする要約映像50を生成してもよい。
以上、要約映像50の生成処理の概要を説明した。続いて、図2及び図3を参照して、要約映像50の生成処理をより詳細に説明する。
図2は、本実施形態に係る映像処理装置100において実行される映像解析処理の概要を説明するための図である。図2に示した図では、映像10はユーザの1日の映像であり、映像解析結果情報20はハイライト21及びシーンセグメント22といった、映像の属性を示す情報を含む。映像10には、海に到着した映像、サーフィンを行っている映像、休憩中の映像、ランチでの映像、ホテルでの映像、及び夕日の映像が含まれている。ハイライト21とは、映像10における見どころを示す区間である。見どころとしては、例えば、ジャンプやターンなどの特定の動作や笑顔、歓声が沸いたイベントの盛り上がったシーン、結婚式のケーキカットや指輪交換等の特定のイベントにおける重要なシーンなどが挙げられる。シーンセグメント22とは、映像10を所定の条件で分割する区間である。例えば、シーンセグメント22は、色に基づいて分割された、同一系統の色が連続する区間であってもよい。また、シーンセグメント22は、カメラワークに基づいて分割された、同一のカメラワークが連続する区間であってもよい。また、シーンセグメント22は、日時に基づいて分割された、近しい日時で撮影された区間であってもよい。また、シーンセグメント22は、場所に基づいて分割された、同一又は近しい場所で撮影された区間であってもよい。一例として、図2では、シーンセグメント22が、色に基づいて分割された例を示している。セグメント化される色は、例えば白系、青系、緑系及び赤系などであってもよい。映像処理装置100は、映像解析処理により、ハイライト21及びシーンセグメント22といった映像の属性を解析する。
図3は、本実施形態に係る映像処理装置100において実行される編集情報生成処理及び要約映像生成処理の概要を説明するための図である。まず、映像処理装置100は、シーンセグメント22が同一である一続きの映像を単位映像として抽出する。そして、映像処理装置100は、単位映像の中からハイライト21を優先的に採用しつつ、所定の方針に従って単位映像を採用する。例えば、映像処理装置100は、視覚的な偏りを低減するために、シーンセグメント22が分散する単位映像を採用してもよい。また、映像処理装置100は、ユーザにより指定されたサーフィンやスノーボード等のテーマに沿って単位映像を採用してもよい。具体的には、サーフィンの場合、映像処理装置100は、食事よりもサーフィン中のターン等のハイライトの割合が多くなるよう、また、青系、海に近い場所、波が高い時間帯のシーンセグメントの割合が多くなるよう、単位映像を採用してもよい。また、映像処理装置100は、音楽理論に基づいて音楽30(BGM)を解析して、単位映像を切り替えるべきタイミングを設定する。これらの処理を経て、映像処理装置100は、設定したタイミングで、採用した単位映像を切り替えるための編集情報40を生成する。そして、映像処理装置100は、編集情報40に基づいて要約映像50を生成する。なお、要約映像50に含まれる単位映像は、時系列に沿っていてもよいし、沿っていなくてもよい。
例えば、映像処理装置100は、アクションカメラやウェアラブルカメラ等のカメラとして実現され得る。アクションカメラやウェアラブルカメラ等のカメラは、長時間連続して撮影される場合が多く、また構図が単調になりやすい。このため、このようなカメラで撮影された映像は、見どころをまとめた要約映像に編集されることが望ましい。しかし、このようなカメラは小型であったりUIがシンプルであったりする場合が多いので、映像を確認しながら手動で編集することが困難な場合がある。そのため、長時間連続して撮影された、構図が単調な映像であっても、適切な要約映像が生成されることが望ましい。この点、本実施形態に係る映像処理装置100は、そのような映像であっても、属性が分散され、ユーザにより指定されたテーマに沿った、ハイライトを含むショットがBGMに応じて切り替わる要約映像を生成することが可能である。なお、映像処理装置100は、一般的なビデオカメラ等として実現されてもよいし、カメラとは別箇のPC(Personal Computer)又はネットワーク上のサーバ等の情報処理装置として実現されてもよい。
以上、本実施形態に係る映像処理装置100の概要を説明した。続いて、図4を参照して、本実施形態に係る映像処理装置100の基本的な構成例を説明する。
<2.基本構成>
図4は、本実施形態に係る映像処理装置100の論理的な構成の一例を示すブロック図である。図4に示すように、映像処理装置100は、入力部110、記憶部120、出力部130及び制御部140を含む。
(1)入力部110
入力部110は、外部からの各種情報の入力を受け付ける機能を有する。図4に示すように、入力部110は、センサ部111、操作部112、映像取得部113及び音楽取得部114を含む。
(1.1)センサ部111
センサ部111は、被写体の動作を検出する機能を有する。例えば、センサ部111は、ジャイロセンサ、加速度センサ及び重力センサを含み得る。被写体とは、撮影対象であり、撮影者(ユーザ)も含むものとする。センサ部111は、GPS(Global Positioning System)、赤外線センサ、近接センサ、タッチセンサ等の任意のセンサを含んでいてもよい。センサ部111は、センシング結果を示すセンサ情報を制御部140へ出力する。なお、センサ部111は、映像処理装置100と一体的に形成されていなくてもよい。例えば、センサ部111は、被写体に装着されたセンサから有線又は無線通信を介してセンサ情報を取得してもよい。
(1.2)操作部112
操作部112は、ユーザ操作を受け付ける機能を有する。例えば、操作部112は、ボタン及びタッチパッド等により実現される。操作部112は、撮影中のズーム操作や撮影モードの設定操作などの操作を受け付け得る。撮影モードとしては、例えば動画を撮影する通常モード、及び動画及び静止画を同時に撮影する同時撮影モードなどが考えられる。他にも、操作部112は、撮影中又は撮影後に、要約映像に含めるべき区間を指定する編集指示を受け付け得る。操作部112は、ユーザ操作の内容を示す操作情報を制御部140へ出力する。
(1.3)映像取得部113
映像取得部113は、映像を取得する機能を有する。例えば、映像取得部113は、撮像装置として実現され、デジタル信号とされた撮影画像(動画像/静止画像)のデータを出力する。映像取得部113は、周囲の音を収音し、アンプ及びADC(Analog Digital Converter)を介してデジタル信号に変換した音データを取得するマイクをさらに含んでいてもよい。その場合、映像取得部113は、周囲の音が付随する映像データを出力する。
(1.4)音楽取得部114
音楽取得部114は、要約映像のBGMとなる音楽データを取得する機能を有する。例えば、音楽取得部114は、有線又は無線のインタフェースとして実現され、PC又はサーバ等の他の装置から音楽データを取得する。有線のインタフェースとしては、例えばUSB(Universal Serial Bus)等の規格に準拠したコネクタが挙げられる。無線のインタフェースとしては、例えばBluetooth(登録商標)又はWi−Fi(登録商標)等の通信規格に準拠した通信装置が挙げられる。音楽取得部114は、取得した音楽データを制御部140へ出力する。
(2)記憶部120
記憶部120は、各種情報を記憶する機能を有する。例えば、記憶部120は、入力部110から出力された情報、及び制御部140により生成される情報を記憶する。
(3)出力部130
出力部130は、各種情報を出力する機能を有する。例えば、出力部130は、後述する要約映像生成部146により生成された要約映像を再生する機能を有していてもよい。その場合、出力部130は、表示部及びスピーカを含み得る。他にも、出力部130は、後述する編集部144により生成された編集情報を出力する機能を有していてもよい。その場合、出力部130は、有線又は無線のインタフェースを含み得る。
(4)制御部140
制御部140は、演算処理装置および制御装置として機能し、各種プログラムに従って映像処理装置100内の動作全般を制御する。図4に示すように、制御部140は、音楽解析部141、映像解析部142、抽出部143、編集部144、動作モード制御部145及び要約映像生成部146を含む。
(4.1)音楽解析部141
音楽解析部141は、入力された音楽の内容を解析する機能を有する。詳しくは、音楽解析部141は、音楽取得部114により取得された音楽データを対象として、音楽理論に基づく解析を行う。
音楽解析部141は、音楽の構造を解析してもよい。例えば、音楽解析部141は、音楽の構造を解析することで、所定の条件を満たす部分を特定する。例えば、音楽解析部141は、音楽理論に基づいて、音楽のイントロ(Intro)部分、メロディ(Verse)部分、コーラス(サビとも称される)(Chorus)部分、間奏(Interlude)部分、ソロ(Solo)部分、エンディング(Outro)部分等の構成要素を特定し得る。メロディ部分には、Aメロディ(Melody A)やBメロディ(Melody B)に区分されてもよい。さらに、音楽解析部141は、特定した音楽の各構成要素におけるコード進行を検出してもよく、検出したコード信号に基づいて、コーラス部分の中でも特に重要な部分(区間)を特定してもよい。他にも、音楽解析部141は、コーラス部分の中でも、ボーカルの歌い始めの区間、最もボーカルの音程が高い区間等を、特に重要な部分として特定してもよい。
また、音楽解析部141は、音楽のリズムを解析してもよい。例えば、音楽解析部141は、音楽の拍(ビート)を解析したり、小節を解析したりする。例えば4拍子であれば、ひとつの小節に等間隔で4つの拍が含まれ、そのうち始めの拍が小節の始めと一致する。小節の始めと一致する拍を、以下では小節頭の拍とも称する。
音楽解析部141は、解析結果を示す音楽解析結果情報を、編集部144へ出力する。なお、音楽解析結果情報(音楽の区間の情報)は、例えば音楽データにおける各構成要素の位置、特に重要な部分の位置、各拍の位置、及び各小節の位置を示す情報を含む。
(4.2)映像解析部142
映像解析部142は、入力された映像の内容を解析する機能を有する。詳しくは、映像解析部142は、映像取得部113により取得された映像データを対象として、内容の解析を行う。そして、映像解析部142は、映像の内容の解析結果を示す映像解析結果情報を抽出部143へ出力する。
・ハイライトの検出
例えば、映像解析部142は、入力部110により入力された情報に基づいてハイライトを検出し、検出したハイライトを示す情報を映像解析結果情報に含めて出力する。一例として、映像解析部142が、被写体動作、ユーザ操作、並びに顔及び笑顔に関するハイライトを検出する例を説明する。
例えば、映像解析部142は、センサ部111により取得されたセンサ情報に基づいて、被写体の所定の動作を検出する。例えば、映像解析部142は、センサ情報に基づいて、被写体の跳躍(ジャンプ)、進行方向の転換(ターン)、走行、加速又は減速等の被写体の動作を検出し得る。また、映像解析部142は、映像取得部113により取得された映像データを対象として画像認識処理を行うことで、被写体の所定の動作を検出してもよい。被写体動作の検出処理に関して、映像解析結果情報は、検出された被写体の動作を示す情報、及び映像データにおいて当該動作が検出される区間を示す情報を含み得る。
例えば、映像解析部142は、操作部112により取得された操作情報に基づいて、ユーザ操作を検出する。例えば、映像解析部142は、撮影中に取得された操作情報に基づいて、ズーム操作や撮影モードの設定操作などの所定の操作などを検出する。ユーザ操作の検出処理に関して、映像解析結果情報は、検出されたユーザ操作を示す情報、及び映像データにおいて当該ユーザ操作が検出される区間を示す情報を含み得る。他にも、映像解析部142は、撮影中又は撮影後に取得された操作情報に基づいて、編集指示を検出する。この場合、映像解析結果情報は、ユーザにより要約映像に含めるべき区間として指定された区間を示す情報を含み得る。
例えば、映像解析部142は、映像取得部113により取得された映像データを対象として画像認識処理を行うことで、被写体の顔及び笑顔を検出する。顔及び笑顔の検出処理に関して、映像解析結果情報は、映像データにおいて顔及び笑顔が検出される区間、領域、並びに顔及び笑顔の数を示す情報を含み得る。
例えば、映像解析部142は、映像取得部113により取得された映像データを対象として音声認識処理を行うことで、歓声が沸いた区間を検出する。歓声の検出処理に関して、映像解析結果情報は、映像データにおいて歓声が検出される区間、並びに音量を示す情報を含み得る。
例えば、映像解析部142は、映像取得部113により取得された映像データを対象として画像認識処理を行うことで、特定のイベントにおける重要シーンを検出する。重要シーンとしては、結婚式におけるケーキカットや指輪交換等が挙げられる。重要シーンの検出処理に関して、映像解析結果情報は、映像データにおいて重要シーンが検出される区間、並びに重要度を示す情報を含み得る。
・シーンセグメントのための情報の検出
例えば、映像解析部142は、入力部110により入力された情報に基づいてシーンセグメントのための情報を検出し、検出したシーンセグメントのための情報を映像解析結果情報に含めて出力する。一例として、映像解析部142が、色、カメラワーク、日時及び場所に関するシーンセグメントのための情報を検出する例を説明する。
例えば、映像解析部142は、映像取得部113により取得された映像データを対象として画像認識処理を行うことで、映像の色を検出し得る。詳しくは、映像解析部142は、映像のYUV又はRGB等を解析して、カラーヒストグラムを各フレーム又は複数のフレームごとに検出する。そして、映像解析部142は、各フレームにおいて支配的な色を当該フレームの色として検出する。なお、検出された色を識別するための識別情報を、色IDとも称する。色の検出処理に関して、映像解析結果情報は、各区間の色IDを示す情報を含み得る。
例えば、映像解析部142は、映像取得部113により取得された映像データを対象として画像認識処理を行うことで、カメラワークを検出し得る。例えば、映像解析部142は、各フレーム又は複数のフレームごとに動きベクトルを検出することで、静止、上下又は左右といったカメラワークを検出する。なお、検出されたカメラワークを識別するための識別情報を、カメラワークIDとも称する。カメラワークの検出処理に関して、映像解析結果情報は、各区間のカメラワークIDを示す情報を含み得る。
例えば、映像解析部142は、センサ部111に含まれるGPS又は映像取得部113に含まれるカメラ等に内蔵された時計により取得された撮影日時を検出し得る。なお、検出された撮影日時を識別するための識別情報を、撮影日時IDとも称する。同一又は近しい日時に撮影された区間には、同一の撮影日時IDが付されるものとする。撮影日時の検出処理に関して、映像解析結果情報は、撮影日時セグメントの各々の撮影日時ID及び区間を示す情報を含み得る。
例えば、映像解析部142は、センサ部111含まれるGPSにより取得された位置情報に基づいて、撮影された場所を検出し得る。なお、検出された撮影場所を識別するための識別情報を、撮影場所IDとも称する。同一又は近しい場所に撮影された区間には、同一の撮影場所IDが付されるものとする。撮影場所の検出処理に関して、映像解析結果情報は、各区間の撮影場所IDを示す情報を含み得る。
(4.3)抽出部143
抽出部143は、入力された映像から複数の単位映像を抽出する機能を有する。詳しくは、抽出部143は、映像解析部142による解析結果に基づいて、映像取得部113により取得された映像データから複数の単位映像を抽出する。詳しくは、抽出部143は、解析結果情報が示す映像の属性が同一である一続きの映像を、単位映像として抽出する。
例えば、抽出部143は、シーンセグメントが同一である一続きの映像を単位映像として抽出してもよい。また、抽出部143は、ハイライトが検出された映像を単位映像として抽出してもよい。詳しくは、抽出部143は、被写体のジャンプ等の所定の動作が検出された区間を、ひとつの単位映像として抽出してもよい。また、抽出部143は、ズーム操作や撮影モードの設定操作等の所定の操作が検出された区間、又はユーザにより要約映像に含めるべき区間として指定された区間を、それぞれひとつの単位映像として抽出してもよい。その際、抽出部143は、ズーム操作であればズーム後の区間を単位映像として抽出してもよく、撮影モードの設定操作であれば同時撮影モードで撮影された区間を単位映像として抽出してもよい。また、抽出部143は、被写体の顔又は笑顔が検出された区間、即ち被写体の状態が笑顔である又はカメラに顔を向けている等の所定の状態であると検出された区間、又はその前後の区間を、ひとつの単位映像として抽出してもよい。また、抽出部143は、歓声が沸いている区間を、ひとつの単位映像として抽出してもよい。また、抽出部143は、特定のイベントにおける重要シーンが撮影された区間を、ひとつの単位映像として抽出してもよい。抽出部143は、これらの抽出基準を組み合わせて用いてもよい。
抽出部143は、映像解析部142による解析結果に基づいて、抽出した単位映像に注目度を設定してもよい。例えば、抽出部143は、ハイライトに相当する区間の単位映像に高い注目度を設定する。詳しくは、抽出部143は、映像解析部142により、単位映像の撮影区間における被写体の動作が所定の動作であると解析された場合、被写体の状態が所定の状態であると解析された場合又は所定の操作があったと解析された場合に、当該単位映像に高い注目度を設定する。他にも、抽出部143は、映像解析部142により、単位映像の撮影区間において歓声が沸いたと解析された場合、重要シーンであったと解析された場合に、当該単位映像に高い注目度を設定する。これにより、被写体のジャンプ等の所定の動作が検出された区間に該当する単位映像に、高い注目度が設定される。また、被写体の状態が笑顔である又はカメラに顔を向けている等の所定の状態であると検出された区間に該当する単位映像に、高い注目度が設定される。また、ズーム操作や撮影モードの設定操作等の所定の操作が検出された区間に該当する単位映像に、高い注目度が設定される。また、歓声が沸いた区間に該当する単位映像に高い注目度が設定される。また、結婚式のケーキカットや指輪交換等の特定のイベントにおける重要なシーンが検出された区間に該当する単位映像に、高い注目度が設定される。他にも、抽出部143は、ユーザにより要約映像に含めるべき区間として指定された区間に該当する単位映像に、高い注目度を設定してもよい。そして、抽出部143は、上述した以外の他の場合に低い注目度を設定する。以下では、注目度が高い単位映像を、ハイライトショットとも称する。また、注目度が低い単位映像を、サブショットとも称する。また、抽出されたハイライトショットの種類を識別するための識別情報を、ハイライトIDとも称する。例えば、ハイライトIDは、ジャンプ、ズーム操作、歓声、重要シーン、ユーザにより指定された等のハイライトの種類に応じて異なるIDが設定され得る。
(4.4)編集部144
編集部144は、抽出部143により抽出された単位映像を、入力された音楽に応じて切り替えるための編集情報を生成する機能を有する。例えば、編集部144は、入力されたどの音楽のどの区間をBGMとするかを設定する。そして、編集部144は、BGMにする音楽を音楽解析部141による音楽解析結果により区切り、各区間に抽出部143により抽出された単位映像を割り当てる。これにより、要約映像において、音楽が区切られたタイミングで単位映像が切り替わることとなる。単位映像の割り当ての際、編集部144は、抽出部143により抽出された単位映像から全部又は一部を要約映像に採用する単位映像として決定し、採用した単位映像を各区間に割り当て得る。なお、編集部144は、原則撮影時刻の順に単位映像を割り当てるものとする。もちろん、編集部144は、撮影時刻に依存せずに単位映像を割り当ててもよい。このように、編集部144は、入力されたどの音楽のどの区間をBGMとして、どの単位映像をどのタイミングで切り替えるかを設定することで、編集情報を生成する。編集部144による処理の詳細については、後に詳しく説明する。
(4.5)動作モード制御部145
動作モード制御部145は、抽出部143及び編集部144における動作モードを制御する機能を有する。動作モード制御部145は、抽出部143による単位映像の抽出結果、及び編集部144による切り替えタイミングの設定結果に応じて、動作モードを制御する。動作モード制御部145による処理の詳細については、後に詳しく説明する。
(4.6)要約映像生成部146
要約映像生成部146は、音楽と編集情報に基づいて切り替わる単位映像とから成る要約映像を生成する機能を有する。例えば、要約映像生成部146は、編集情報により指定された音楽をBGMとして、編集情報により指定された単位映像を指定されたタイミングで切り替えて連結することで、要約映像を生成する。
<3.機能詳細>
以上、本実施形態に係る映像処理装置100の基本構成を説明した。続いて、映像処理装置100が有する機能を詳細に説明する。
[3.1.単位映像の抽出処理]
抽出部143は、映像解析部142による解析結果に基づいて、映像取得部113により取得された映像データから複数の単位映像を抽出する。具体的には、抽出部143は、映像解析部142により解析された映像の属性に応じて単位映像を抽出する。例えば、抽出部143は、シーンセグメントのための情報及びハイライトを示す情報に基づいて、映像データからハイライトショット及びサブショットを抽出する。以下、図5を参照して、映像解析結果に基づく単位映像の抽出処理を具体的に説明する。
図5は、本実施形態に係る単位映像の抽出処理を説明するための図である。図5では、抽出部143がハイライトショット240A〜240E及びサブショット250A〜250Gを抽出する処理を概略的に示している。図5に示すように、抽出部143は、まずシーンセグメントのための情報に基づいて、シーンセグメント210を生成する。例えば、抽出部143は、色IDが同一の区間をセグメント化することで、シーンセグメント210を生成する。抽出部143は、シーンセグメントのための情報を複数用いてもよく、例えば、色ID、カメラワークID、撮影場所ID及び撮影日時IDが同一の区間をセグメント化することで、シーンセグメント210を生成してもよい。次いで、抽出部143は、シーンセグメント210とハイライト220との紐付けを行い、入力された映像230からハイライトショット240A〜240Eを抽出する。そして、抽出部143は、入力された映像230のシーンセグメント210により区分される区間をサブショットとして抽出する。ただし、抽出部143は、ハイライトショット240と重なる、時間が短い(例えば、後述する最長の割り当て区間の長さより短い)、極端に明るい若しくは暗い、又はカメラワークが安定しない区間を除外することで、サブショット250を抽出してもよい。以下では、映像結果情報に基づいて抽出部143により抽出された単位映像、即ちハイライトショット及びサブショットの数を、抽出数とも称する。


[3.2.切り替えタイミングの設定処理]
編集部144は、音楽解析部141から出力された音楽解析結果情報に基づいて、入力された音楽に応じて単位映像の切り替えタイミングを設定する。例えば、編集部144は、抽出部143により抽出された単位映像を、音楽解析部141により解析された構成要素に応じて、小節に応じて、又は拍に応じて切り替えるための編集情報を生成してもよい。具体的には、編集部144は、入力された音楽を、構成要素が切り替わるタイミング、小節が切り替わるタイミング、又は拍に応じたタイミングで区切り、その区切った位置に単位映像の切り替えタイミングを設定する。
例えば、拍に応じたタイミングとして、編集部144は、単位映像を1拍ごとに切り替えるための編集情報を生成してもよい。その場合、単位映像がテンポ良くスピード感を持って切り替わることとなり、鑑賞者の感情を盛り上げることが可能となる。ただし、編集部144は、音楽の拍の速さが閾値を超える場合に、単位映像を複数拍ごとに切り替えるための編集情報を生成してもよい。例えば、2拍ごとに単位映像が切り替わってもよい。これにより、BGMがテンポの速い音楽である場合に、単位映像があまりに早く切り替わってしまうことが防止されるので、鑑賞者にせわしない印象を与えてしまうことを回避することができる。
例えば、編集部144は、音楽解析部141により解析された音楽の構造の種類ごとに、拍に応じた単位映像の切り替えの実施回数を設定してもよい。具体的には、編集部144は、イントロ部分及びコーラス部分といった音楽の構成要素ごとに、拍に応じた単位映像の切り替えの実施回数を設定してもよい。さらに、編集部144は、前記音楽解析部により特定された所定の条件を満たす部分で、拍に応じた単位映像の切り替えを実施してもよい。具体的には、編集部144は、コーラス部分の中でも、ボーカルの歌い始めの部分、最もボーカルの音程が高い部分等の特に重要な部分で、拍に応じた単位映像の切り替えを実施してもよい。これにより、BGMの盛り上がりに合わせて拍に応じた単位映像の切り替えを実施することが可能となり、より効果的に鑑賞者の感情を盛り上げることが可能となる。
例えば、編集部144は、音楽解析部141により解析された音楽の小節の単位で、拍に応じた単位映像の切り替えの実施有無を選択してもよい。この場合、小節の単位で拍に応じた単位映像の切り替えが行われることとなる。人は意識的又は無意識的にしろ、小節を意識しながら音楽を聴き、展開を予測するものであると考えられる。そのため、小節の単位で拍に応じた単位映像の切り替えは、鑑賞者に受け入れられやすいので、容易に鑑賞者の感情を盛り上げることが可能となる。さらに、小節の単位での拍に応じた単位映像の切り替えは、小節の単位での単位映像の切り替えと整合性が良い。また、編集部144は、拍に応じた単位映像の切り替えを実施する小節同士を離間させてもよい。これにより、拍に応じた単位映像の切り替えが連続する複数の小節で行われることがなくなり、過度の切り替えが防止される。
なお、設定された切り替えタイミングにより音楽が区切られる区間を、以下では割り当て区間とも称する。つまり、切り替えタイミングを設定することは、各単位映像をどのくらいの長さ要約映像に割り当てるか、という割り当て区間を設定することに相当する。割り当て区間のうち最長の区間を、以下では最長の割り当て区間とも称する。
上述した、単位映像の切り替えタイミングの設定は、例えば予め設定された確率テーブルに基づいて設定されてもよい。その際、編集部144は、音楽の構成要素の切り替わりのタイミングでは必ず単位映像を切り替えること、最長の割り当て区間の長さの設定等のルールに従ってもよい。
なお、ひとつの小節内で拍に応じて切り替わる前記単位映像は、互いに類似することが望ましい。これにより、鑑賞者に煩雑な印象を与えてしまうことを回避することが可能となる。互いに類似するとは、例えば被写体の動作、撮影日時、撮影場所、色又はカメラワークの少なくともいずれかが近いことを指す。例えば、色が同一でカメラワークが右から左へ移動する単位映像と左から右へ単位映像とは、互いに類似すると言える。また、被写体がジャンプしている単位映像同士は、互いに類似すると言える。また、互いに類似するとは、例えば単位映像に特定の被写体が含まれることを指していてもよい。例えば、同一人物や同一チームの人物が含まれる単位映像は類似すると言える。ここで、ひとつの小節内で拍に応じて切り替わる単位映像の少なくともひとつは、ひとつの小節内で2回以上採用されてもよい。例えば4拍子であれば、単位映像A、単位映像B、単位映像A、単位映像Bの順に採用されてもよいし、単位映像A、単位映像A、単位映像A、単位映像Aの順に採用されてもよい。これにより、鑑賞者に煩雑な印象を与えてしまうことを回避することがより容易になる。もちろん、ひとつの小節内で拍に応じて切り替わる単位映像は、それぞれ異なっていてもよい。例えば4拍子であれば、単位映像A、単位映像B、単位映像C、単位映像Dの順に採用されてもよい。
以下、図6を参照して、音楽解析結果に基づく単位映像の切り替えタイミングの設定処理を具体的に説明する。
図6は、本実施形態に係る単位映像の切り替えタイミングの設定処理を説明するための図である。図6では、音楽のうちBGMとして使用される区間310の構成要素320、及び設定される切り替えタイミング330を示している。切り替えタイミング330の区分け線が切り替えタイミングを示しており、区分け線により区分される区間が、割り当て区間を示している。図6に示すように、構成要素320としてメロディ部分、コーラス部分及びエンディング部分が含まれている。また、図6に示した音楽は、ひとつの小節343に1つの小節頭の拍342及び3つの拍341が含まれる4拍子の音楽である。図6に示した例では、編集部144は、構成要素320がメロディからコーラスに切り替わるタイミング、及びコーラスからエンディングに切り替わるタイミングで、単位映像の切り替えタイミングを設定している。また、編集部144は、1小節単位の割り当て区間351A〜351Dを設定し、2小節単位の割り当て区間352を設定し、3小節単位の割り当て区間353を設定し、1拍単位の割り当て区間354を設定している。そのため、区間354において、1拍ごとに単位映像が切り替えられる。この場合、最長の割り当て区間360は3小節分である。
下記の表1に、図6に示した例における、BGM全体において及び各構成要素において採用される単位映像の個数を、切り替えタイミングの種類(割り当て区間の長さ)ごとに示した。
Figure 0006583285
なお、1拍ごとに単位映像が切り替えられる場合、ひとつの単位映像が複数回採用される場合も考えられるので、選択される単位映像の個数は最大4個となる。表1を参照すると、図6に示した例では、全体で最大10個の単位映像が要約映像に採用される。また、図6に示した例では、最長の割り当て区間は3小節分である。
このように、要約映像に採用される単位映像の数は、編集部144が音楽解析結果情報に基づいて設定した切り替えタイミングにより定まる割り当て区間の数、即ち音楽が区切られた数により定まる。以下では、音楽解析結果情報に基づいて編集部144により音楽が区切られた数を、採用数とも称する。例えば、図6に示した例では、採用数は最大10個である。より詳しくは、拍に応じた切り替えの内容が、単位映像A、単位映像B、単位映像C、単位映像Dであれば、採用数は10個となる。また、拍に応じた切り替えの内容が、単位映像A、単位映像B、単位映像A、単位映像Bであれば、採用数は8個となる
編集部144は、切り替えタイミングの設定処理において設定した切り替えタイミングで、抽出部143により抽出された単位映像を切り替えてもよい。他にも、編集部144は、切り替えタイミングの設定処理において設定した切り替えタイミングを変更してもよい。例えば、編集部144は、切り替えタイミングの設定処理において設定した、割り当て区間の総数(採用数に相当)及び割り当て区間の長さごとの数を保持しつつ、割り当て区間の順序を入れ換えてもよい。そのような例については、後述する採用区間の設定処理において説明する。
[3.3.動作モードの決定処理]
上述した、切り替えタイミングの設定処理と単位映像の抽出処理との順番は任意である。
切り替えタイミングの設定処理が先である場合、単位映像の抽出処理には、切り替えタイミングの設定処理に係る制限が課されることとなる。例えば、抽出部143は、少なくとも採用数以上の数の単位映像を抽出する、という制限が課され得る。本制限により、要約映像内では、単位映像が重複することなく切り替わることとなる。また、抽出部143は、抽出した各単位映像がどのタイミングで用いられてもよいように、最長の割り当て区間(図6に示した例では3小節分)以上の長さの単位映像を抽出する、という制限が課され得る。本制限によれば、抽出したどの単位映像であっても、最長の割り当て区間に割り当て可能となる。
単位映像の抽出処理が先である場合、切り替えタイミングの設定処理には、単位映像の抽出処理に係る制限が課されることとなる。例えば、編集部144は、抽出部143により抽出された単位映像の数より少ない数の単位映像を割り当てるよう、切り替えタイミングを設定する、という制限が課される。本制限により、要約映像内では、単位映像が重複することなく切り替わることとなる。また、編集部144は、抽出部143により抽出された各単位映像の長さに応じた長さの割り当て区間となるよう、切り替えタイミングを設定する、という制限が課され得る。本制限によれば、抽出部143により抽出された各単位映像に、適した割り当て区間を割り当てることができる。
動作モード制御部145は、このような制限を満たすために、抽出部143及び編集部144の動作モードを変更し得る。以下では、切り替えタイミングの設定処理が先に行われる場合について説明する。
まず、動作モード制御部145は、動作モードを通常処理モード(第1の動作モード)として、抽出部143及び編集部144を動作させる。通常処理モードにおいては、編集部144は、上述した通り音楽解析結果情報を利用して単位映像の切り替えタイミングを設定する。また、抽出部143は、上述した通り映像解析結果情報を利用して単位映像を抽出する。
動作モード制御部145は、通常処理モードにおける、抽出数と採用数との大小関係に応じて、抽出部143による再度の抽出処理又は編集部144による再度の採用処理の少なくともいずれかを、動作モードを変更して実施させる否かを判定する。ここでの抽出処理とは、上述した単位映像の抽出処理を指す。また、ここでの採用処理とは、上述した切り替えタイミングの設定処理を指す。抽出数と採用数との大小関係に関しては、上述したように抽出数が採用数以上であるという制限がある。動作モード制御部145は、本制限が満たされていない場合に、動作モードを変更することで本制限を満たすことを可能にする。
例えば、動作モード制御部145は、通常処理モードにおける採用数と抽出数とが等しい又は抽出数の方が多い場合に、動作モードの変更を行わないと判定する。つまり、動作モード制御部145は、抽出数が採用数以上である場合に、動作モードの変更を行わないと判定する。動作モードを変更せずとも、上述した抽出数が採用数以上である、制限が満たされているためである。
一方で、動作モード制御部145は、通常処理モードにおける抽出数が採用数よりも少ない場合に、動作モードを他の動作モードに変更し得る。例えば、動作モード制御部145は、動作モードを分割処理モード(第2の動作モード)、又はリトライ処理モード(第5の動作モード)に変更し得る。
分割処理モードにおいては、抽出部143は、通常処理モードにおいて抽出された単位映像のうち少なくともいずれかを2以上の単位映像に分割する。例えば、抽出部143は、通常処理モードにおいて抽出された単位映像のうち、長さが閾値を超える単位映像を分割の対象としてもよい。また、抽出部143は、分割後の単位映像が、最長の割り当て区間以上となるよう、分割数を決定してもよい。分割処理モードにより、抽出数が増加することになるので、抽出数が採用数以上である、という制限が満たされ得る。
リトライ処理モードにおいては、編集部144は、所定の間隔で音楽を区切ることで、切り替えタイミングを設定する。また、抽出部143は、映像を所定の間隔で区切った単位映像を抽出する。例えば、編集部144は、入力された音楽を等間隔で、又は予め設定された間隔で区切り、その区切りのタイミングを切り替えタイミングとして設定する。また、抽出部143は、入力された映像を等間隔で、又は予め設定された間隔で区切ることで、その区切った映像を単位映像として抽出する。つまり、抽出部143は、ハイライトを考慮せずに単位映像を抽出する。リトライ処理モードは、区切る間隔を調節することで採用数及び抽出数を任意に調節可能であるので、抽出数が採用数以上である、という制限が満たされ得る。
以上説明した各動作モードを、図7を参照しながら比較説明する。図7は、本実施形態に係る映像処理装置100の動作モードの一例を説明するための図である。図7に示すように、通常処理モードでは、映像解析結果情報及び音楽解析結果情報が利用され、映像品質が「高」の要約映像が生成されることとなる。分割処理モードでは、映像解析結果情報が修正して利用される。具体的には、図7に示すように、通常処理モードにおいて抽出された単位映像410が単位映像411及び412に分割される。同様に、単位映像420が単位映像421、422及び423に分割され、単位映像430が単位映像431、432及び433に分割される。分割処理モードでは、本来ひとつであった単位映像が複数に分割されてそれぞれが要約映像に採用され得る。つまり、似た単位映像が要約映像に採用され得るので、要約映像の映像品質は「中」となる。リトライ処理モードでは、映像解析結果情報及び音楽解析結果情報が無視される。具体的には、図7に示すように、切り替えタイミングは等間隔となり、単位映像は入力された映像を等間隔で区切ったものとなる。そのため、リトライ処理モードにおいて生成される要約映像は単調なものとなるので、映像品質は「低」となる。
動作モード制御部145は、通常処理モードにおける抽出数が採用数よりも少ない場合に、動作モードを分割処理モード及びリトライ処理モード以外の他の動作モードに変更してもよい。例えば、動作モード制御部145は、動作モードを最長割り当て区間短縮処理モード(第3の動作モード)、又はサブショット条件緩和処理モード(第4の動作モード)に変更し得る。
最長割り当て区間短縮処理モードにおいては、編集部144は、通常処理モードと比較して、最長の割り当て区間を短くする。これにより、抽出部143は、通常処理モードよりも短い最長の割り当て区間以上の長さで単位映像を抽出することとなる。図6に示した例では、抽出部143は、通常処理モードにおいては3小節分以上の長さで単位映像を抽出する。一方、抽出部143は、最長割り当て区間短縮処理モードにおいては、例えば2小節分以上の長さで単位映像を抽出する。これにより、抽出部143は、通常処理モードにおいては2小節分しかなく、短いためサブショットとして抽出されなかった区間の映像を、サブショットして抽出することが可能となる。このように、最長割り当て区間短縮処理モードでは、抽出数が増加することになるので、抽出数が採用数以上である、という制限が満たされ得る。
サブショット条件緩和処理モードにおいては、抽出部143は、通常処理モードと比較して単位映像を抽出するための映像解析部142による解析結果に関する条件を緩和する。例えば、抽出部143は、時間が短い区間であっても単位映像として抽出したり、極端に明るい若しくは暗い区間であっても単位映像として抽出したり、カメラワークが安定しない区間であっても単位映像として抽出する。このように、サブショット条件緩和処理モードでは、抽出数が増加することになるので、抽出数が採用数以上である、という制限が満たされ得る。
上記挙げた動作モードの順序は任意である。例えば、動作モード制御部145は、通常処理モードの後に、分割処理モード、最長割り当て区間短縮処理モード、サブショット条件緩和処理モード、リトライ処理モードの順に動作モードを変更してもよい。また、動作モード制御部145は、上述した動作モードを任意に組み合わせて用いてもよい。さらに、動作モード制御部145は、上述した動作モードの全部又は一部を採用した処理を並列的に行わせ、最も品質が高い結果を得られる動作モードを選択してもよい。
[3.4.単位映像の選択処理]
(概要)
編集部144は、抽出部143により抽出された単位映像の中から、要約映像に採用する単位映像を選択する。例えば、編集部144は、ハイライトを優先して、採用数分の単位映像を選択する。以下、図8及び図9を参照して、単位映像の選択処理を説明する。
図8は、本実施形態に係る単位映像の選択処理を説明するための図である。図8に示すように、まず、編集部144は、要約映像に採用する単位映像の候補として、ひとつ以上のサブショット510を選択する。選択ショット520は、要約映像に採用する単位映像の候補として選択された単位映像である。編集部144は、例えばシーンセグメントが分散し、及び/又はユーザにより指定されたテーマに沿うようにサブショット510を選択し得る。例えば、編集部144は、後に説明する評価関数による評価値が高い順にサブショット510を選択する。図中の[1][2][3][4][5][6][7]は、評価関数を用いた選択順序を示している。また、採用数は7であるものとする。図8に示すように、編集部144は、選択ショット520においては、選択した単位映像を撮影された時刻に沿って並べる。
図9は、本実施形態に係る単位映像の選択処理を説明するための図である。図9に示すように、編集部144は、要約映像に採用する単位映像の候補として、ハイライトショット530を選択する。編集部144は、例えば選択ショットにおいて隣り合う単位映像が同一のハイライトとならないよう、ハイライトショット530を選択し得る。例えば、編集部144は、後に説明する評価関数による評価値が高い順にハイライトショット530を選択する。また、編集部144は、ハイライトショット530を選択する代わりに、既に選択されたサブショットの中から優先度の低いサブショット540を除去する。優先度が低いサブショット540としては、例えば選択順序が遅かったサブショットが挙げられる。図中の[1][2]は、評価関数を用いた選択順序及び除去順序を示している。
(サブショットの評価関数)
以下では、サブショットの選択のために用いられる評価関数の一例を説明する。例えば、編集部144は、下記の数式1に示す評価関数を用いて、サブショットを選択し得る。
Figure 0006583285
上記数式1におけるWsiSi及びWssSsは、シーンセグメントに関する項である。記号Wsi及び記号Wssは、各項の重みであり、編集部144により任意に設定され得る。記号Siは、シーンセグメントのセグメントIDに関する値(スコア)である。例えば、記号Siは、シーンセグメントのために用いられた色ID、カメラワークID、撮影日時ID及び/又は場所IDに基づいて計算される。例えば、事前に設定されたテーマに沿うために、事前に設定されたテーマに沿ったセグメントIDの割合に近づくようにスコアが計算され得る。また、視覚的な偏りを低減するために、各セグメントIDが均等に選択されるようなスコアが計算され得る。記号Ssは、シーンセグメントの安定度に関するスコアである。記号Ssは、シーンセグメントのために用いられた色及び/又はカメラワークの安定度(時間変化量の少なさ)に基づいて計算される。例えば、安定度が高いほど、高いスコアが計算されてもよい。他にも、編集部144は、選択元の映像ファイルを分散させるべく、選択元の映像ファイルに関する項を上記数式1に追加してもよい。また、編集部144は、撮影時刻の分散を分散させるべく、選択済みの前後の選択ショットまでの時間に関する項を上記数式1に追加してもよい。
編集部144は、サブショットをひとつ選択する度に、上記数式1に示した評価関数を未選択の各サブショットについて計算し、評価値が最も高いサブショットを選択する。なお、各記号のスコアは、すでに選択されたサブショットとの関係で変動し得る。
(ハイライトショットの評価関数)
以下では、ハイライトショットの選択のために用いられる評価関数の一例を説明する。例えば、編集部144は、下記の数式2に示す評価関数を用いて、ハイライトショットを選択し得る。
Figure 0006583285
上記数式2におけるWhiHi及びWhsHsは、ハイライトに関する項である。記号Whi及び記号Whsは、各項の重みであり、編集部144により任意に設定され得る。記号HiはハイライトIDに関するスコアである。例えば、記号Hiは、ハイライトIDに基づいて計算される。例えば、事前に設定されたテーマに沿うために、事前に設定されたテーマに沿ったハイライトIDの割合に近づくようにスコアが計算され得る。また、視覚的な偏りを低減するために、各ハイライトIDが均等に選択されるようなスコアが計算され得る。記号Hsは、ハイライトショットの価値に関するスコアである。記号Hsは、例えばスノーボードのジャンプであれば、滞空時間が長いほど、また回転量が多い程、高いスコアが計算され得る。他の記号については、上記数式1と同様である。
編集部144は、ハイライトショットをひとつ選択する度に、上記数式2に示した評価関数を未選択の各ハイライトショットについて計算し、評価値が最も高いハイライトショットを選択する。そして、編集部144は、既に選択されたサブショットの中から選択順序が遅かったサブショットを除去する。なお、各記号のスコアは、すでに選択されたハイライトショットとの関係で変動し得る。
編集部144は、記号Hiを用いることで、例えばジャンプのハイライトショットが連続することを回避することができる。なお、ユーザにより要約映像に含めるべき区間として指定された区間に係るハイライトショットに関しては、記号Hiに係るスコアは無視されてもよい。その場合、例えばユーザによりハイライトとして指定されたジャンプの単位映像が連続し得る。また、編集部144は、記号Hsを用いることで、価値が高いハイライトショットを優先的に選択することが可能となる。
なお、編集部144は、同一ハイライトIDのハイライトショットの選択数を、予め設定あれた回数未満としてもよい。例えば、編集部144は、下記の数式を満たすハイライトショットを選択してもよい。下記数式によれば、例えば本来はジャンプのハイライトショットは2回まで選択可能であっても、記号Hsのスコアが高いジャンプについては選択回数が3回以上になり得、記号Hsのスコアが低いジャンプについては選択回数が2回未満になり得る。
ハイライトスコアHs−減衰係数×選択回数≧閾値 …(数式3)
以上、単位映像の選択処理の一例を説明した。上記では、まずサブショットを選択し、続いてハイライトショットを選択する例を説明したが、本技術はかかる例に限定されない。例えば、編集部144は、まずハイライトショットを選択し、続いてサブショットを選択してもよい。その場合、編集部144は、まずハイライトショットを選択して、選択したハイライトショットの数を採用数から差し引いた数のサブショットを選択する。他にも、編集部144は、ハイライトショットとサブショットとを同時に選択してもよい。その場合、編集部144は、ハイライトショットとサブショットとで共通の評価関数を適用し得る。なお、サブショットについては、ハイライトID及びハイライトショットの価値に関するスコア(記号Hi及びHs)は存在しないため、対応する項を任意の値(例えば0)に設定することで、共通の評価関数が適用可能となる。
[3.5.採用区間の設定処理]
編集部144は、抽出部143により抽出された単位映像に当該単位映像の内容に応じた採用区間を設定し、複数の単位映像の各々について設定した採用区間を採用するための編集情報を生成する。例えば、編集部144は、単位映像の内容に応じて、要約映像に採用すべき採用区間を設定し、設定した採用区間を連結するための編集情報を生成する。なお、採用区間の位置とは、単位映像のうち、要約映像に採用される区間である。採用区間は単位映像の全部であってもよいし、一部であってもよい。
例えば、編集部144は、単位映像の内容に応じて当該単位映像における採用区間の位置を設定してもよい。例えば、編集部144は、単位映像がハイライトショットであるか若しくはサブショットであるか、ハイライトID、色ID、カメラワークID等の属性は何か、といった単位映像の内容に応じて採用区間の位置を設定し得る。採用区間の位置とは、単位映像全体における当該単位映像のうち採用区間として設定される区間の位置を示し、例えば単位映像の前半、中盤、又は後半等が挙げられる。これにより、例えば鑑賞者の感情を盛り上げるためにより適切な区間が、単位映像の内容に応じて設定され、要約映像に採用されることとなる。
例えば、編集部144は、映像解析部142により解析された映像の被写体の動作に応じて単位映像における採用区間の位置を設定してもよい。例えば、スノーボードのジャンプに係るハイライトショットを想定する。編集部144は、映像解析部142により被写体の動作がジャンプであると解析された単位映像に関しては、助走中、助走中から滞空中まで、滞空中、滞空中から着地後、又は着地から着地後までのいずれかの位置に採用区間を設定してもよい。その場合、編集部144は、ジャンプの様々な注目すべき見どころに着目した採用区間を設定することが可能である。他の例として、スノーボードのターン(移動方向の転換)に係るハイライトショットを想定する。編集部144は、映像解析部142により被写体の動作が移動方向の転換であると解析された単位映像に関しては、転換前から転換中まで、転換中、又は転換中から転換後までのいずれかの位置に採用区間を設定してもよい。その場合、編集部144は、ターンの様々な注目すべき見どころに着目した採用区間を設定することが可能である。
例えば、編集部144は、同じ種類(同じハイライトID)の2以上のハイライトショットに採用区間を設定する場合、2以上のハイライトショットの各々における採用区間の位置を分散させてもよい。例えば、編集部144は、選択ショットに複数のスノーボードのジャンプに係るハイライトショットが含まれる場合、助走中、助走中から滞空中まで、滞空中、滞空中から着地後、又は着地から着地後までといった、採用区間の位置を分散させてもよい。同様に、編集部144は、選択ショットに複数のスノーボードのターンに係るハイライトショットが含まれる場合、転換前から転換中まで、転換中、又は転換中から転換後までといった、採用区間の位置を分散させてもよい。その場合、同じ種類のハイライトショットであっても異なる観点で採用区間が設定されるので、鑑賞者は飽きることなく要約映像を鑑賞することが可能となる。
例えば、編集部144は、ハイライトショットと他の種類のハイライトショット又はサブショットとを連結するよう編集情報を生成してもよい。例えば、編集部144は、同じハイライトIDのハイライトショットを連続しないように割り当てたり、連続する場合には間にサブショットを割り当てたりする。これにより、要約映像は抑揚が効いたものとなるので、鑑賞者は飽きることなく要約映像を鑑賞することが可能となる。
例えば、編集部144は、ハイライトショットの採用区間の長さをサブショットの採用区間の長さより長く設定してもよい。例えば、編集部144は、長い割り当て区間には優先的にハイライトショットを割り当てる。これにより、鑑賞者はより長い時間ハイライトショットを鑑賞することが可能となるので、より効果的に鑑賞者の感情を盛り上げることができる。
以下、図10〜図12を参照して、採用区間の設定処理を具体的に説明する。図10〜図12は、本実施形態に係る採用区間の設定処理を説明するための図である。特に、図10では、長い割り当て区間に優先的にハイライトショットを割り当てる例を説明する。
図10に示すように、切り替えタイミングの設定処理において設定された割り当て区間710の内訳は、1小節単位の割り当て区間711が2個、2小節単位の割り当て区間712が4個、3小節単位の割り当て区間713が1個である場合を想定する。例えば、編集部144は、下記の表2に示す規則に従って、長い割り当て区間には優先的にハイライトショットを割り当てる。なお、ハイライトの種類やシーンセグメントの種類等に応じて、下記表2に示す規則はさらに細分化されてもよい。
Figure 0006583285
図10に示すように、選択ショット720の内訳は、サブショット721A、ハイライトショット722A、サブショット721B、ハイライトショット722B、サブショット721C、サブショット721D及びハイライトショット722Cの順であるものとする。編集部144は、以下に説明するように各単位映像に割り当て区間を割り当てることで、どの単位映像をどのタイミングで切り替えるかを設定する編集情報730を生成する。
まず、編集部144は、1つ目の選択ショット720であるサブショット721Aには、残りの割り当て区間のうち最も優先度が高い1小節単位の割り当て区間711Aを割り当てる。次いで、編集部144は、2つ目の選択ショット720であるハイライトショット722Aには、残りの割り当て区間のうち最も優先度が高い3小節単位の割り当て区間713を割り当てる。次に、編集部144は、3つ目の選択ショット720であるサブショット721Bには、残りの割り当て区間のうち最も優先度が高い1小節単位の割り当て区間711Bを割り当てる。次いで、編集部144は、4つ目の選択ショット720であるハイライトショット722Bには、残りの割り当て区間のうち最も優先度が高い2小節単位の割り当て区間712Aを割り当てる。次に、編集部144は、5つ目の選択ショット720であるサブショット721Cには、残りの割り当て区間のうち最も優先度が高い2小節単位の割り当て区間712Bを割り当てる。次いで、編集部144は、6つ目の選択ショット720であるサブショット721Dには、残りの割り当て区間のうち最も優先度が高い2小節単位の割り当て区間712Cを割り当てる。最後に、編集部144は、7つ目の選択ショット720であるハイライトショット722Cには、残った2小節単位の割り当て区間712Dを割り当てる。
なお、上述した割り当てはメロディ等のひとつの構成要素ごとに行われるものとする。その場合、構成要素内でどのような割り当てが行われるにしろ、構成要素が切り替わるタイミングで単位映像が切り替わることが保証される。
続いて、図11及び図12を参照して、ひとつの単位映像における採用区間を設定する例を説明する。例えば、図11に示すように、編集部144は、基本的には単位映像740の中央部分に採用区間750を設定する。一方で、図12に示すように、編集部144は、ターン等のハイライトショットについては、単位映像740の前半部分、中央部分、又は後半部分に採用区間750を設定してもよい。ここで、編集部144が設定する採用区間750の長さは、図10を参照して説明した、各単位映像に割り当てられた割り当て区間の長さに相当する。
以上、本実施形態に係る映像処理装置100が有する機能について詳細に説明した。続いて、図13を参照して、本実施形態に係る映像処理装置100の動作処理例を説明する。
<4.動作処理>
図13は、本実施形態に係る映像処理装置100において実行される要約映像の生成処理の流れの一例を示すフローチャートである。
図13に示すように、まず、ステップS102で、音楽解析部141は、入力された音楽を解析する。例えば、音楽解析部141は、音楽理論に基づいて、イントロ部分やコーラス部分等の音楽の構造を解析したり、コーラス部分の中でも特に重要な部分を特定したり、拍や小節を解析したりする。
次いで、ステップS104で、映像解析部142は、入力された映像を解析する。例えば、映像解析部142は、被写体動作を検出したり、ユーザ操作を検出したり、顔及び笑顔を検出したり、色を検出したり、カメラワークを検出したりする。
次に、ステップS106で、編集部144は、単位映像の切り替えタイミングを設定する。例えば、編集部144は、ステップS102における音楽解析結果に基づいて、拍毎、1小節ごと、又は複数小節ごとに切り替えタイミングを設定する。その際、編集部144は、コーラス部分の中でも特に重要な部分で拍に応じた切り替えが行われるよう設定し得る。本ステップにより、最長の割り当て区間長が定まる。
次いで、ステップS108で、編集部144は、要約映像へ採用される単位映像の数(採用数)を計算する。例えば、編集部144は、上記ステップS106において設定した切り替えタイミングにより定まる割り当て区間の数に基づいて採用数を計算する。詳しくは、編集部144は、単位映像に重複がない場合は割り当て区間の数をそのまま採用数とし、重複が有る場合はその分を割り当て区間の数から差し引くことで、採用数を計算する。
次に、ステップS110で、抽出部143は、単位映像を抽出する。例えば、抽出部143は、上記ステップS104における映像解析結果に基づいて、ハイライトショット及びサブショットを抽出する。その際、抽出部143は、上記ステップS106において設定された切り替えタイミングにより定まる割り当て区間のうち最長の割り当て区間以上の長さで単位映像を抽出する。また、抽出部143は、抽出したハイライトショット及びサブショットの総数を、抽出数として計算する。
次いで、ステップS112で、動作モード制御部145は、抽出数が採用数以上であるか否かを判定する。
抽出数が採用数以上ではないと判定された場合(S112/NO)、ステップS114で、動作モード制御部145は、動作モードを変更する。例えば、動作モード制御部145は、変更前が通常動作モードであれば、分割処理モードに変更する。そして、処理はステップS106へ戻る。このように、抽出数が採用数以上となるまで、動作モード制御部145は動作モードを変更して処理をステップS106へ戻す。なお、どの動作モードであっても抽出数が採用数以上とならない場合、映像処理装置100は、エラーを出力して処理を停止してもよい。
抽出数が採用数以上であると判定された場合(S112/YES)、ステップS116で、編集部144は、要約映像へ採用する単位映像を選択する。例えば、編集部144は、抽出部143により抽出された単位映像の中から、視覚的な偏りを低減するために属性が分散する単位映像を採用したり、ユーザにより指定されたテーマに沿うように単位映像を選択したりする。なお、編集部144は、サブショットと比較してハイライトショットを優先的に採用してもよい。
次に、ステップS118で、編集部144は、各単位映像の採用区間を設定する。例えば、編集部144は、上記ステップS116において選択した各単位映像のうち、要約映像に採用すべき採用区間を設定する。その際、編集部144は、単位映像の内容に応じて、例えば特に注目すべき区間が要約映像に採用されるよう、適切な位置に採用区間を設定する。なお、編集部144は、以上説明した処理結果を編集情報に格納する。
そして、ステップS120で、要約映像生成部146は、要約映像を生成する。例えば、要約映像生成部146は、編集情報により指定された音楽をBGMとして、編集情報により指定された単位映像を指定されたタイミングで切り替えて連結することで、要約映像を生成する。
以上、本実施形態に係る要約映像の生成処理の流れの一例を説明した。
<5.ハードウェア構成例>
最後に、図14を参照して、本実施形態に係る情報処理装置のハードウェア構成について説明する。図14は、本実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。なお、図14に示す情報処理装置900は、例えば、図4に示した映像処理装置100を実現し得る。本実施形態に係る映像処理装置100による情報処理は、ソフトウェアと、以下に説明するハードウェアとの協働により実現される。
図14に示すように、情報処理装置900は、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、RAM(Random Access Memory)903及びホストバス904aを備える。また、情報処理装置900は、ブリッジ904、外部バス904b、インタフェース905、入力装置906、出力装置907、ストレージ装置908、ドライブ909、接続ポート911、通信装置913及びセンサ915を備える。情報処理装置900は、CPU901に代えて、又はこれとともに、DSP若しくはASIC等の処理回路を有してもよい。
CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置900内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。CPU901は、例えば、図4に示す制御部140を形成し得る。
CPU901、ROM902及びRAM903は、CPUバスなどを含むホストバス904aにより相互に接続されている。ホストバス904aは、ブリッジ904を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス904bに接続されている。なお、必ずしもホストバス904a、ブリッジ904および外部バス904bを分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
入力装置906は、例えば、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチ及びレバー等、ユーザによって情報が入力される装置によって実現される。また、入力装置906は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話やPDA等の外部接続機器であってもよい。さらに、入力装置906は、例えば、上記の入力手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などを含んでいてもよい。情報処理装置900のユーザは、この入力装置906を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。入力装置906は、例えば、図4に示す操作部112を形成し得る。
出力装置907は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で形成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置及びランプ等の表示装置や、スピーカ及びヘッドホン等の音声出力装置や、プリンタ装置等がある。出力装置907は、例えば、情報処理装置900が行った各種処理により得られた結果を出力する。具体的には、表示装置は、情報処理装置900が行った各種処理により得られた結果を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。上記表示装置及び上記音声出力装置は、例えば、図4に示す出力部130を形成し得る。
ストレージ装置908は、情報処理装置900の記憶部の一例として形成されたデータ格納用の装置である。ストレージ装置908は、例えば、HDD等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により実現される。ストレージ装置908は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。このストレージ装置908は、CPU901が実行するプログラムや各種データ及び外部から取得した各種のデータ等を格納する。ストレージ装置908は、例えば、図4に示す記憶部120を形成し得る。
ドライブ909は、記憶媒体用リーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ909は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体に記録されている情報を読み出して、RAM903に出力する。また、ドライブ909は、リムーバブル記憶媒体に情報を書き込むこともできる。
接続ポート911は、外部機器と接続されるインタフェースであって、例えばUSB(Universal Serial Bus)などによりデータ伝送可能な外部機器との接続口である。接続ポート911は、例えば、図4に示す音楽取得部114を形成し得る。
通信装置913は、例えば、ネットワーク920に接続するための通信デバイス等で形成された通信インタフェースである。通信装置913は、例えば、有線若しくは無線LAN(Local Area Network)、LTE(Long Term Evolution)、Bluetooth(登録商標)又はWUSB(Wireless USB)用の通信カード等である。また、通信装置913は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ又は各種通信用のモデム等であってもよい。この通信装置913は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。通信装置913は、例えば、図4に示す音楽取得部114を形成し得る。
なお、ネットワーク920は、ネットワーク920に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、ネットワーク920は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク920は、IP−VPN(Internet Protocol−Virtual Private Network)などの専用回線網を含んでもよい。
センサ915は、例えば、加速度センサ、ジャイロセンサ、地磁気センサ、光センサ、音センサ、測距センサ、力センサ等の各種のセンサである。センサ915は、情報処理装置900の姿勢、移動速度等、情報処理装置900自身の状態に関する情報や、情報処理装置900の周辺の明るさや騒音等、情報処理装置900の周辺環境に関する情報を取得する。また、センサ915は、GPS信号を受信して装置の緯度、経度及び高度を測定するGPSセンサを含んでもよい。センサ915は、例えば、図4に示すセンサ部111を形成し得る。本実施形態においては、センサ915は、情報処理装置900と分離していてもよい。例えば、センサ915は被写体に装着され、情報処理装置900は、被写体をセンシングした結果を示す情報を有線又は無線通信により取得してもよい。
撮像装置917は、撮像レンズ、絞り、ズームレンズ、及びフォーカスレンズ等により構成されるレンズ系、レンズ系に対してフォーカス動作やズーム動作を行わせる駆動系、レンズ系で得られる撮像光を光電変換して撮像信号を生成する固体撮像素子アレイ等を有する。固体撮像素子アレイは、例えばCCD(Charge Coupled Device)センサアレイや、CMOS(Complementary Metal Oxide Semiconductor)センサアレイにより実現されてもよい。撮像装置917は、デジタル信号とされた撮影画像のデータを出力する。撮像装置917は、例えば、図4に示す映像取得部113を形成し得る。
以上、本実施形態に係る情報処理装置900の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて実現されていてもよいし、各構成要素の機能に特化したハードウェアにより実現されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。
なお、上述のような本実施形態に係る情報処理装置900の各機能を実現するためのコンピュータプログラムを作製し、PC等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
<6.まとめ>
以上、図1〜図14を参照して、本開示の一実施形態について詳細に説明した。上記説明したように、本実施形態に係る映像処理装置100は、音楽に合わせた適切なタイミングで適切な単位映像が切り替わることで、鑑賞者の感情を盛り上げることが可能な要約映像を生成することが可能である。
より詳しくは、映像処理装置100は、入力された音楽の拍を解析し、入力された映像から複数の単位映像を抽出し、抽出した単位映像を拍に応じて切り替えるための編集情報を生成する。これにより、拍に応じた速いタイミングで単位映像が切り替わるので、鑑賞者の感情をより効果的に盛り上げることが可能である。
また、映像処理装置100は、抽出した単位映像に当該単位映像の内容に応じた採用区間を設定し、複数の単位映像の各々について設定した採用区間を採用するための編集情報を生成する。これにより、映像処理装置100は、要約映像に採用される候補として抽出された区間の各々について、抽出された区間の各々のうち特に鑑賞すべき区間に、実際に要約映像に採用する区間を設定することが可能となる。よって、例えば鑑賞者の感情を盛り上げるためにより適切な区間が、要約映像に採用されることとなる。
また、映像処理装置100は、入力された映像から単位映像を抽出する処理、及び入力された音楽に応じて単位映像を切り替えるタイミングを設定する処理に関する動作モードを制御する。これにより、映像処理装置100は、音楽に応じて映像を切り替える要約映像の生成を適切な動作モードで行うことが可能である。具体的には、映像処理装置100は、採用数と抽出数とが等しい又は抽出数の方が多い状態となるよう動作モードを切り替えることにより、設定した切り替えタイミングでそれぞれ異なる単位映像を切り替えることができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、本明細書において説明した各装置は、単独の装置として実現されてもよく、一部または全部が別々の装置として実現されても良い。例えば、図4に示した映像処理装置100の機能構成例のうち、記憶部120及び制御部140が、入力部110及び出力部130とネットワーク等で接続されたサーバ等の装置に備えられていても良い。
また、本明細書においてフローチャート及びシーケンス図を用いて説明した処理は、必ずしも図示された順序で実行されなくてもよい。いくつかの処理ステップは、並列的に実行されてもよい。また、追加的な処理ステップが採用されてもよく、一部の処理ステップが省略されてもよい。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
入力された映像の内容を解析することと、
前記映像の解析結果に基づいて前記映像から複数の単位映像を抽出することと、
抽出された前記単位映像に前記単位映像の内容に応じた採用区間を設定し、複数の前記単位映像の各々について設定した前記採用区間を採用するための編集情報をプロセッサにより生成することと、
を含む映像処理方法。
(2)
前記編集情報を生成することにおいて、前記単位映像の内容に応じて前記単位映像における前記採用区間の位置を設定する、前記(1)に記載の映像処理方法。
(3)
前記編集情報を生成することにおいて、前記映像の解析結果が示す前記映像の被写体の動作に応じて前記単位映像における前記採用区間の位置を設定する、前記(2)に記載の映像処理方法。
(4)
前記編集情報を生成することにおいて、前記映像の被写体の動作がジャンプであると解析された前記単位映像に関しては、助走中、助走中から滞空中まで、滞空中、滞空中から着地後、又は着地から着地後までのいずれかの位置に前記採用区間を設定する、前記(3)に記載の映像処理方法。
(5)
前記編集情報を生成することにおいて、前記映像の被写体の動作が移動方向の転換であると解析された前記単位映像に関しては、転換前から転換中まで、転換中、又は転換中から転換後までのいずれかの位置に前記採用区間を設定する、前記(3)又は(4)に記載の映像処理方法。
(6)
前記単位映像を抽出することにおいて、前記映像の解析結果に基づいて前記単位映像の注目度を設定する、前記(1)〜(5)のいずれか一項に記載の映像処理方法。
(7)
前記編集情報を生成することにおいて、同じ種類の2以上の注目度が高い前記単位映像に前記採用区間を設定する場合、2以上の前記単位映像の各々における前記採用区間の位置を分散させる、前記(6)に記載の映像処理方法。
(8)
前記編集情報を生成することにおいて、注目度が高い前記単位映像の前記採用区間と注目度が高い他の種類の前記単位映像又は注目度が低い前記単位映像の前記採用区間とを連結する、前記(6)又は(7)に記載の映像処理方法。
(9)
前記編集情報を生成することにおいて、注目度が高い前記単位映像の前記採用区間の長さを注目度が低い前記単位映像の前記採用区間の長さより長く設定する、前記(6)〜(8)のいずれか一項に記載の映像処理方法。
(10)
前記単位映像を抽出することにおいて、前記単位映像の撮影区間における被写体の動作が所定の動作であると解析された場合、被写体の状態が所定の状態であると解析された場合又は所定の操作があったと解析された場合に、当該単位映像に高い注目度を設定し、他の場合に低い注目度を設定する、前記(6)〜(9)のいずれか一項に記載の映像処理方法。
(11)
入力された映像の内容を解析する映像解析部と、
前記映像解析部による解析結果に基づいて前記映像から複数の単位映像を抽出する抽出部と、
前記抽出部により抽出された前記単位映像に前記単位映像の内容に応じた採用区間を設定し、複数の前記単位映像の各々について設定した前記採用区間を採用するための編集情報を生成する編集部と、
を備える映像処理装置。
(12)
前記編集部は、前記単位映像の内容に応じて前記単位映像における前記採用区間の位置を設定する、前記(11)に記載の映像処理装置。
(13)
前記編集部は、前記映像解析部により解析された前記映像の被写体の動作に応じて前記単位映像における前記採用区間の位置を設定する、前記(12)に記載の映像処理装置。
(14)
前記編集部は、前記映像解析部により被写体の動作がジャンプであると解析された前記単位映像に関しては、助走中、助走中から滞空中まで、滞空中、滞空中から着地後、又は着地から着地後までのいずれかの位置に前記採用区間を設定する、前記(13)に記載の映像処理装置。
(15)
コンピュータを、
入力された映像の内容を解析する映像解析部と、
前記映像解析部による解析結果に基づいて前記映像から複数の単位映像を抽出する抽出部と、
前記抽出部により抽出された前記単位映像に前記単位映像の内容に応じた採用区間を設定し、複数の前記単位映像の各々について設定した前記採用区間を採用するための編集情報を生成する編集部と、
として機能させるためのプログラム。
さらに、以下のような構成も本開示の技術的範囲に属する。
(1)
入力された映像から複数の単位映像を抽出することと、
抽出された前記単位映像から採用した前記単位映像を、入力された音楽に応じて切り替
えるための編集情報を生成することと、
前記単位映像を抽出する抽出処理及び前記単位映像を採用する採用処理における動作モ
ードをプロセッサにより制御することと、
を含む映像処理方法。
(2)
前記動作モードを制御することにおいて、第1の動作モードにおける、抽出される前記
単位映像の抽出数と採用される前記単位映像の採用数との大小関係に応じて、再度の前記
抽出処理又は再度の前記採用処理の少なくともいずれかを、前記動作モードを変更して実
施させる否かを判定する、前記(1)に記載の映像処理方法。
(3)
前記映像処理方法は、
前記音楽の内容を解析することと、
前記映像の内容を解析することと、
をさらに含み、
前記抽出数は、前記映像の解析結果に基づいて抽出された前記単位映像の数であり、
前記採用数は、前記音楽の解析結果に基づいて前記音楽が区切られた数である、前記(
2)に記載の映像処理方法。
(4)
前記動作モードを制御することにおいて、前記第1の動作モードにおける前記採用数と
前記抽出数とが等しい又は前記抽出数の方が多い場合に、前記動作モードの変更を行わな
いと判定する、前記(3)に記載の映像処理方法。
(5)
前記動作モードを制御することにおいて、前記第1の動作モードにおける前記抽出数が
前記採用数よりも少ない場合に、前記動作モードを第2の動作モードとし、
前記抽出処理において、前記第2の動作モードの場合、前記第1の動作モードにおいて
抽出された前記単位映像のうち少なくともいずれかを2以上の前記単位映像に分割する、
前記(4)に記載の映像処理方法。
(6)
前記抽出処理において、前記音楽が区切られる最長の区間以上の長さの前記単位映像を
抽出する、前記(4)又は(5)に記載の映像処理方法。
(7)
前記動作モードを制御することにおいて、前記第1の動作モードにおける前記抽出数が
前記採用数よりも少ない場合に、前記動作モードを第3の動作モードとし、
前記採用処理は、前記第3の動作モードの場合、前記第1の動作モードと比較して前記
音楽が区切られる最長の区間を短くする、前記(6)に記載の映像処理方法。
(8)
前記動作モードを制御することにおいて、前記第1の動作モードにおける前記抽出数が

前記採用数よりも少ない場合に、前記動作モードを第4の動作モードとし、
前記抽出処理において、前記第4の動作モードの場合、前記第1の動作モードと比較し
て前記単位映像を抽出するための前記映像の解析結果に関する条件を緩和する、前記(4
)〜(7)のいずれか一項に記載の映像処理方法。
(9)
前記動作モードを制御することにおいて、前記第1の動作モードにおける前記抽出数が
前記採用数よりも少ない場合に、前記動作モードを第5の動作モードとし、
前記採用処理において、前記第5の動作モードの場合、所定の間隔で前記音楽を区切り
前記抽出処理において、前記第5の動作モードの場合、前記映像を前記所定の間隔で区
切った前記単位映像を抽出する、前記(4)〜(8)のいずれか一項に記載の映像処理方
法。
(10)
入力された映像から複数の単位映像を抽出する抽出部と、
前記抽出部により抽出された前記単位映像から採用した前記単位映像を、入力された音
楽に応じて切り替えるための編集情報を生成する編集部と、
前記抽出部及び前記編集部における動作モードを制御する動作モード制御部と、
を備える映像処理装置。
(11)
前記動作モード制御部は、第1の動作モードにおける、前記抽出部により抽出される前
記単位映像の抽出数と前記編集部により採用される前記単位映像の採用数との大小関係に
応じて、前記抽出部による再度の抽出処理又は前記編集部による再度の採用処理の少なく
ともいずれかを、前記動作モードを変更して実施させる否かを判定する、前記(10)に
記載の映像処理装置。
(12)
前記映像処理装置は、
前記音楽の内容を解析する音楽解析部と、
前記映像の内容を解析する映像解析部と、
をさらに備え、
前記抽出数は、前記映像解析部による解析結果に基づいて前記抽出部により抽出された
前記単位映像の数であり、
前記採用数は、前記音楽解析部による解析結果に基づいて前記編集部により前記音楽が
区切られた数である、前記(11)に記載の映像処理装置。
(13)
前記動作モード制御部は、前記第1の動作モードにおける前記採用数と前記抽出数とが
等しい又は前記抽出数の方が多い場合に、前記動作モードの変更を行わないと判定する、
前記(12)に記載の映像処理装置。
(14)
コンピュータを、
入力された映像から複数の単位映像を抽出する抽出部と、
前記抽出部により抽出された前記単位映像から採用した前記単位映像を、入力された音
楽に応じて切り替えるための編集情報を生成する編集部と、
前記抽出部及び前記編集部における動作モードを制御する動作モード制御部と、
として機能させるためのプログラム。
(1)
入力された映像の内容を解析することと、
音楽の区間の情報と解析された前記映像のシーン情報とに基づいて、前記映像から採用する採用区間の位置を設定すること、を含む情報処理方法。
(2)
前記採用区間を設定するための編集情報を生成すること、を含む前記(1)に記載の情報処理方法。
(3)
前記映像の解析結果が示す前記映像の被写体の動作に応じて前記映像における前記採用区間の位置を設定すること、を含む前記(1)又は(2)に記載の情報処理方法。

(4)
前記映像の被写体の動作がジャンプであると解析された前記映像に関しては、助走中、助走中から滞空中まで、滞空中、滞空中から着地後、又は着地から着地後までのいずれかの位置に前記採用区間を設定すること、を含む前記(3)に記載の情報処理方法。
(5)
前記映像の被写体の動作が移動方向の転換であると解析された前記映像に関しては、転換前から転換中まで、転換中、又は転換中から転換後までのいずれかの位置に前記採用区間を設定すること、を含む前記(4)に記載の情報処理方法。
(6)
第1の採用区間に対応する第1の音楽の区間の直後の第2の音楽の区間に対応する第2の採用区間を設定すること、を含む前記(1)に記載の情報処理方法。
(7)
前記の音楽の構成要素に基づいて前記の音楽の区間の情報を生成すること、を含む前記(1)に記載の情報処理方法。
(8)
前記音楽の区間は少なくとも小節区間、ビート区間を含むこと、を含む前記(1)又は(7)に記載の情報処理方法。
(9)
前記映像の解析によって設定された注目度と前記採用区間を関連付けること、を含む前記(1)に記載の情報処理方法。
(10)
複数の前記採用区間を連結する際に、前記シーン情報が同じ種類の前記採用区間は位置を分散させること、を含む前記(1)又は(9)に記載の情報処理方法。
(11)
高い注目度に関連付いた前記採用区間と高い注目度に関連付いた他の種類の前記採用区間、又は低い注目度に関連付いた前記採用区間とを連結すること、を含む前記(9)に記載の情報処理方法。
(12)
高い注目度に関連付いた前記採用区間の長さを、低い注目度に関連付いた前記採用区間の長さより長く設定すること、を含む前記(9)又は(11)に記載の情報処理方法。
(13)
前記映像内の被写体の動作が所定の動作又は状態であると解析された場合、又は所定の操作があったと解析された場合に、前記映像に高い注目度を設定すること、を含む前記(1)又は(3)〜(5)に記載の情報処理方法。
(14)
前記映像から単位映像を抽出し、前記単位映像から採用する前記採用区間の位置を設定することと、
前記映像の解析結果に基づいて前記単位映像の注目度を設定することと、を含む前記(1)又は(9)に記載の情報処理方法。
(15)
入力された映像の内容を解析する映像解析部と、
音楽の区間の情報と解析された前記映像のシーン情報とに基づいて、前記映像から採用する採用区間の位置を設定する抽出部と、
を備える映像処理装置。
(16)
コンピュータを、
入力された映像の内容を解析する映像解析部と、
音楽の区間の情報と解析された前記映像のシーン情報とに基づいて、前記映像から採用する採用区間の位置を設定する抽出部と、
として機能させるためのプログラム。
10 映像
20 映像解析結果情報
30 音楽
40 編集情報
50 要約映像
100 映像処理装置
110 入力部
111 センサ部
112 操作部
113 映像取得部
114 音楽取得部
120 記憶部
130 出力部
140 制御部
141 音楽解析部
142 映像解析部
143 抽出部
144 編集部
145 動作モード制御部
146 要約映像生成部

Claims (16)

  1. 入力された映像の内容を解析することと、
    前記映像の解析結果に基づいて、前記映像から複数の単位映像を抽出することと、
    音楽の解析情報に基づいて、複数の単位映像を入力された音楽に応じて切り替える切り替えタイミングを設定することと、
    前記切り替えタイミングにより定まる前記音楽が区切られる割り当て区間の数に基づいて、単位映像の採用数を計算することと、
    単位映像が抽出される数である抽出数が前記採用数以上となるように、前記単位映像を抽出する処理、及び前記切り替えタイミングを設定する処理に関する動作モードを制御することと、
    前記複数の単位映像の各々について、前記映像のシーン情報に基づいて、当該単位映像のうち要約映像に採用される区間である採用区間の位置を設定すること、
    を含む情報処理方法。
  2. 前記採用区間を設定するための編集情報を生成すること、を含む請求項1に記載の情報処理方法。
  3. 前記映像の解析結果が示す前記映像の被写体の動作に応じて前記映像における前記採用区間の位置を設定すること、を含む請求項1又は2に記載の情報処理方法。
  4. 前記映像の被写体の動作がジャンプであると解析された前記映像に関しては、助走中、助走中から滞空中まで、滞空中、滞空中から着地後、又は着地から着地後までのいずれかの位置に前記採用区間を設定すること、を含む請求項3に記載の情報処理方法。
  5. 前記映像の被写体の動作が移動方向の転換であると解析された前記映像に関しては、転換前から転換中まで、転換中、又は転換中から転換後までのいずれかの位置に前記採用区間を設定すること、を含む請求項3又は4に記載の情報処理方法。
  6. 第1の採用区間に対応する第1の音楽の区間の直後の第2の音楽の区間に対応する第2の採用区間を設定すること、を含む請求項1に記載の情報処理方法。
  7. 前記の音楽の構成要素に基づいて前記の音楽の区間の情報を生成すること、を含む請求項1に記載の情報処理方法。
  8. 前記音楽の区間は少なくとも小節区間、ビート区間を含むこと、を含む請求項1〜7のいずれか一項に記載の情報処理方法。
  9. 前記映像の解析によって設定された注目度と前記採用区間を関連付けること、を含む請求項1に記載の情報処理方法。
  10. 複数の前記採用区間を連結する際に、前記シーン情報が同じ種類の前記採用区間は位置を分散させること、を含む請求項1〜9のいずれか一項に記載の情報処理方法。
  11. 高い注目度に関連付いた前記採用区間と高い注目度に関連付いた他の種類の前記採用区間、又は低い注目度に関連付いた前記採用区間とを連結すること、を含む請求項9に記載の情報処理方法。
  12. 高い注目度に関連付いた前記採用区間の長さを、低い注目度に関連付いた前記採用区間の長さより長く設定すること、を含む請求項9又は11に記載の情報処理方法。
  13. 前記映像内の被写体の動作が所定の動作又は状態であると解析された場合、又は所定の操作があったと解析された場合に、前記映像に高い注目度を設定すること、を含む請求項1又は請求項3〜5のいずれか一項に記載の情報処理方法。
  14. 記映像の解析結果に基づいて前記単位映像の注目度を設定することと、を含む請求項1〜9のいずれか一項に記載の情報処理方法。
  15. 入力された映像の内容を解析する映像解析部と、
    前記映像の解析結果に基づいて、前記映像から複数の単位映像を抽出する抽出部と、
    音楽の解析情報に基づいて、複数の単位映像を入力された音楽に応じて切り替える切り替えタイミングを設定し、
    前記切り替えタイミングにより定まる前記音楽が区切られる割り当て区間の数に基づいて、単位映像の採用数を計算し、
    前記複数の単位映像の各々について、前記映像のシーン情報に基づいて、当該単位映像のうち要約映像に採用される区間である採用区間の位置を設定する編集部と、
    単位映像が抽出される数である抽出数が前記採用数以上となるように、前記単位映像を抽出する処理、及び前記切り替えタイミングを設定する処理に関する動作モードを制御する動作モード制御部と、
    を備える映像処理装置。
  16. コンピュータを、
    入力された映像の内容を解析する映像解析部と、
    前記映像の解析結果に基づいて、前記映像から複数の単位映像を抽出する抽出部と、
    音楽の解析情報に基づいて、複数の単位映像を入力された音楽に応じて切り替える切り替えタイミングを設定し、
    前記切り替えタイミングにより定まる前記音楽が区切られる割り当て区間の数に基づいて、単位映像の採用数を計算し、
    前記複数の単位映像の各々について、前記映像のシーン情報に基づいて、当該単位映像のうち要約映像に採用される区間である採用区間の位置を設定する編集部と、
    単位映像が抽出される数である抽出数が前記採用数以上となるように、前記単位映像を抽出する処理、及び前記切り替えタイミングを設定する処理に関する動作モードを制御する動作モード制御部と
    を備える映像処理装置
    として機能させるためのプログラム。
JP2016564725A 2014-12-15 2015-10-28 情報処理方法、映像処理装置及びプログラム Active JP6583285B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014253213 2014-12-15
JP2014253213 2014-12-15
PCT/JP2015/080315 WO2016098458A1 (ja) 2014-12-15 2015-10-28 情報処理方法、映像処理装置及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2016098458A1 JPWO2016098458A1 (ja) 2017-09-28
JP6583285B2 true JP6583285B2 (ja) 2019-10-02

Family

ID=56126360

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016564725A Active JP6583285B2 (ja) 2014-12-15 2015-10-28 情報処理方法、映像処理装置及びプログラム

Country Status (5)

Country Link
US (1) US10984248B2 (ja)
EP (1) EP3223516A4 (ja)
JP (1) JP6583285B2 (ja)
CN (1) CN107005676A (ja)
WO (1) WO2016098458A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102637599B1 (ko) * 2018-10-08 2024-02-19 주식회사 에이치엘클레무브 차량간 통신 정보를 이용한 차선변경 제어장치 및 방법과, 그를 위한 성향 정보 산출 장치
US11610609B2 (en) * 2019-11-21 2023-03-21 Vooks, Inc. Systems and methods for enhanced video books
JP7369739B2 (ja) * 2021-06-28 2023-10-26 エヌ・ティ・ティ・コミュニケーションズ株式会社 動画要約装置、動画要約方法、及びプログラム

Family Cites Families (111)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3325809B2 (ja) * 1997-08-15 2002-09-17 日本電信電話株式会社 映像制作方法及び装置及びこの方法を記録した記録媒体
AUPO960197A0 (en) * 1997-10-03 1997-10-30 Canon Information Systems Research Australia Pty Ltd Multi-media editing method and apparatus
JP3534592B2 (ja) 1997-10-24 2004-06-07 松下電器産業株式会社 代表画像生成装置
AUPP603798A0 (en) * 1998-09-18 1998-10-15 Canon Kabushiki Kaisha Automated image interpretation and retrieval system
US6535639B1 (en) * 1999-03-12 2003-03-18 Fuji Xerox Co., Ltd. Automatic video summarization using a measure of shot importance and a frame-packing method
US6557042B1 (en) * 1999-03-19 2003-04-29 Microsoft Corporation Multimedia summary generation employing user feedback
US7293280B1 (en) * 1999-07-08 2007-11-06 Microsoft Corporation Skimming continuous multimedia content
US7181757B1 (en) * 1999-10-11 2007-02-20 Electronics And Telecommunications Research Institute Video summary description scheme and method and system of video summary description data generation for efficient overview and browsing
AUPQ464099A0 (en) * 1999-12-14 2000-01-13 Canon Kabushiki Kaisha Emotive editing system
US6925455B2 (en) * 2000-12-12 2005-08-02 Nec Corporation Creating audio-centric, image-centric, and integrated audio-visual summaries
US20020147834A1 (en) * 2000-12-19 2002-10-10 Shih-Ping Liou Streaming videos over connections with narrow bandwidth
US6639649B2 (en) * 2001-08-06 2003-10-28 Eastman Kodak Company Synchronization of music and images in a camera with audio capabilities
WO2003017145A1 (en) * 2001-08-21 2003-02-27 Yesvideo, Inc. Creation of slideshow based on characteristic of audio content used to produce accompanying audio display
US7068723B2 (en) * 2002-02-28 2006-06-27 Fuji Xerox Co., Ltd. Method for automatically producing optimal summaries of linear media
US7027124B2 (en) * 2002-02-28 2006-04-11 Fuji Xerox Co., Ltd. Method for automatically producing music videos
EP1361577A1 (en) * 2002-05-08 2003-11-12 Deutsche Thomson-Brandt Gmbh Appliance-guided edit-operations in advanced digital video recording systems
AU2003249663A1 (en) * 2002-05-28 2003-12-12 Yesvideo, Inc. Summarization of a visual recording
US7149755B2 (en) * 2002-07-29 2006-12-12 Hewlett-Packard Development Company, Lp. Presenting a collection of media objects
US7383509B2 (en) * 2002-09-13 2008-06-03 Fuji Xerox Co., Ltd. Automatic generation of multimedia presentation
US7127120B2 (en) * 2002-11-01 2006-10-24 Microsoft Corporation Systems and methods for automatically editing a video
US20040088723A1 (en) * 2002-11-01 2004-05-06 Yu-Fei Ma Systems and methods for generating a video summary
JP2004187029A (ja) * 2002-12-04 2004-07-02 Toshiba Corp 要約映像追いかけ再生装置
US20040122539A1 (en) * 2002-12-20 2004-06-24 Ainsworth Heather C. Synchronization of music and images in a digital multimedia device system
US7941009B2 (en) * 2003-04-08 2011-05-10 The Penn State Research Foundation Real-time computerized annotation of pictures
JP4196816B2 (ja) * 2003-12-08 2008-12-17 ソニー株式会社 データ編集装置およびデータ編集方法
AU2004311841B2 (en) * 2003-12-24 2008-10-09 Walker Digital, Llc Method and apparatus for automatically capturing and managing images
FR2864858A1 (fr) * 2004-01-06 2005-07-08 Thomson Licensing Sa Dispositif et procede de creation de condenses de documents multimedias
US20050182503A1 (en) * 2004-02-12 2005-08-18 Yu-Ru Lin System and method for the automatic and semi-automatic media editing
JP2005277531A (ja) 2004-03-23 2005-10-06 Seiko Epson Corp 動画像処理装置
US7026536B2 (en) * 2004-03-25 2006-04-11 Microsoft Corporation Beat analysis of musical signals
US7301092B1 (en) * 2004-04-01 2007-11-27 Pinnacle Systems, Inc. Method and apparatus for synchronizing audio and video components of multimedia presentations by identifying beats in a music signal
JP2005328516A (ja) * 2004-04-15 2005-11-24 Fuji Photo Film Co Ltd スライドショー生成装置および方法並びにプログラム
JP4032122B2 (ja) 2004-06-28 2008-01-16 国立大学法人広島大学 映像編集装置、映像編集プログラム、記録媒体、および映像編集方法
US20060095340A1 (en) * 2004-09-24 2006-05-04 Pio, Llc. Personalized event multimedia capture system
US20060078288A1 (en) * 2004-10-12 2006-04-13 Huang Jau H System and method for embedding multimedia editing information in a multimedia bitstream
JP4622479B2 (ja) * 2004-11-25 2011-02-02 ソニー株式会社 再生装置および再生方法
US7756362B2 (en) * 2005-01-28 2010-07-13 Canon Kabushiki Kaisha Image processing apparatus, control method therefor, computer program, and computer-readable storage medium
US20060277098A1 (en) * 2005-06-06 2006-12-07 Chung Tze D Media playing system and method for delivering multimedia content with up-to-date and targeted marketing messages over a communication network
WO2007011308A1 (en) * 2005-07-22 2007-01-25 Agency For Science, Technology And Research Automatic creation of thumbnails for music videos
FR2889016A1 (fr) * 2005-07-25 2007-01-26 Thomson Licensing Sas Procede de creation d'un resume d'un document en fonction de criteres introduits par l'utilisateur, et dispositif audiovisuel associe au procede
JP4871550B2 (ja) * 2005-08-30 2012-02-08 株式会社日立製作所 録画再生装置
US20070061727A1 (en) * 2005-09-15 2007-03-15 Honeywell International Inc. Adaptive key frame extraction from video data
US7739599B2 (en) * 2005-09-23 2010-06-15 Microsoft Corporation Automatic capturing and editing of a video
NO327155B1 (no) * 2005-10-19 2009-05-04 Fast Search & Transfer Asa Fremgangsmåte for å vise videodata innenfor resultatpresentasjoner i systemer for aksessering og søking av informasjon
US8572088B2 (en) * 2005-10-21 2013-10-29 Microsoft Corporation Automated rich presentation of a semantic topic
US8180826B2 (en) * 2005-10-31 2012-05-15 Microsoft Corporation Media sharing and authoring on the web
JP4379409B2 (ja) * 2005-11-08 2009-12-09 ソニー株式会社 撮像装置、および情報処理方法、並びにコンピュータ・プログラム
US7796860B2 (en) * 2006-02-23 2010-09-14 Mitsubishi Electric Research Laboratories, Inc. Method and system for playing back videos at speeds adapted to content
JP2007335984A (ja) 2006-06-12 2007-12-27 Matsushita Electric Ind Co Ltd イベント終了点抽出装置、イベント終了点抽出方法および抽出プログラム
US7945142B2 (en) * 2006-06-15 2011-05-17 Microsoft Corporation Audio/visual editing tool
US8196045B2 (en) * 2006-10-05 2012-06-05 Blinkx Uk Limited Various methods and apparatus for moving thumbnails with metadata
CN101193248A (zh) * 2006-11-21 2008-06-04 明基电通股份有限公司 依据场景变化进行影像数据分段的方法
US20080155422A1 (en) * 2006-12-20 2008-06-26 Joseph Anthony Manico Automated production of multiple output products
US20080159383A1 (en) * 2006-12-27 2008-07-03 Yahoo! Inc. Tagboard for video tagging
US20080306995A1 (en) * 2007-06-05 2008-12-11 Newell Catherine D Automatic story creation using semantic classifiers for images and associated meta data
CN101329766B (zh) 2007-06-18 2012-05-30 索尼(中国)有限公司 运动图像分析装置、方法及系统
JP4811433B2 (ja) 2007-09-05 2011-11-09 ソニー株式会社 画像選択装置、画像選択方法、およびプログラム
US7569761B1 (en) * 2007-09-21 2009-08-04 Adobe Systems Inc. Video editing matched to musical beats
US8200063B2 (en) * 2007-09-24 2012-06-12 Fuji Xerox Co., Ltd. System and method for video summarization
EP2257057B1 (en) * 2008-03-19 2019-05-08 National University Corporation Hokkaido University Dynamic image search device and dynamic image search program
JP2012507189A (ja) * 2008-10-26 2012-03-22 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. コンテンツベース・フィルタリング及びテーマベース・クラスタリングを用いたページ内へのイメージの配置
US8495074B2 (en) * 2008-12-30 2013-07-23 Apple Inc. Effects application based on object clustering
JP5326910B2 (ja) * 2009-01-20 2013-10-30 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2010220203A (ja) * 2009-02-17 2010-09-30 Nikon Corp 動画再生装置および動画再生プログラム
JP5421627B2 (ja) * 2009-03-19 2014-02-19 キヤノン株式会社 映像データ表示装置及びその方法
JP2012525076A (ja) * 2009-04-24 2012-10-18 デルタ・ヴィディオ・インコーポレイテッド デジタルビデオ配信システムにおける即時マルチチャネルビデオコンテンツブラウジングのためのシステム、方法、およびコンピュータ可読媒体
JP5552769B2 (ja) 2009-07-29 2014-07-16 ソニー株式会社 画像編集装置、画像編集方法及びプログラム
US20110063440A1 (en) * 2009-09-11 2011-03-17 Neustaedter Carman G Time shifted video communications
US8451292B2 (en) * 2009-11-23 2013-05-28 National Cheng Kung University Video summarization method based on mining story structure and semantic relations among concept entities thereof
US9009163B2 (en) * 2009-12-08 2015-04-14 Intellectual Ventures Fund 83 Llc Lazy evaluation of semantic indexing
US9554111B2 (en) * 2010-03-08 2017-01-24 Magisto Ltd. System and method for semi-automatic video editing
US8346767B2 (en) * 2010-04-21 2013-01-01 Microsoft Corporation Image search result summarization with informative priors
US8446490B2 (en) * 2010-05-25 2013-05-21 Intellectual Ventures Fund 83 Llc Video capture system producing a video summary
US9171578B2 (en) * 2010-08-06 2015-10-27 Futurewei Technologies, Inc. Video skimming methods and systems
JP5092000B2 (ja) * 2010-09-24 2012-12-05 株式会社東芝 映像処理装置、方法、及び映像処理システム
US9659313B2 (en) * 2010-09-27 2017-05-23 Unisys Corporation Systems and methods for managing interactive features associated with multimedia content
KR101692399B1 (ko) * 2010-10-14 2017-01-03 삼성전자주식회사 감성 기반의 영상을 얻을 수 있는 디지털 영상 처리 장치 및 디지털 영상 처리 방법
US9454341B2 (en) * 2010-11-18 2016-09-27 Kodak Alaris Inc. Digital image display device with automatically adjusted image display durations
US20140036088A1 (en) * 2011-03-23 2014-02-06 Jeffrey Gabriel Interactive Wireless Media System
US9916538B2 (en) * 2012-09-15 2018-03-13 Z Advanced Computing, Inc. Method and system for feature detection
US9111519B1 (en) * 2011-10-26 2015-08-18 Mixwolf LLC System and method for generating cuepoints for mixing song data
WO2013076720A1 (en) * 2011-11-27 2013-05-30 Spoton-Video Ltd. A system and methods for personalizing an image
US20150058709A1 (en) * 2012-01-26 2015-02-26 Michael Edward Zaletel Method of creating a media composition and apparatus therefore
JP2015513858A (ja) * 2012-03-02 2015-05-14 エイチ4 エンジニアリング, インコーポレイテッドH4 Engineering, Inc. 多機能自動ビデオ記録装置
US8958645B2 (en) * 2012-04-19 2015-02-17 Canon Kabushiki Kaisha Systems and methods for topic-specific video presentation
ITVI20120104A1 (it) * 2012-05-03 2013-11-04 St Microelectronics Srl Metodo e apparato per generare in tempo reale uno storyboard visuale
US20130330062A1 (en) * 2012-06-08 2013-12-12 Mymusaic Inc. Automatic creation of movie with images synchronized to music
US9076043B2 (en) * 2012-08-03 2015-07-07 Kodak Alaris Inc. Video summarization using group sparsity analysis
GB2506399A (en) * 2012-09-28 2014-04-02 Frameblast Ltd Video clip editing system using mobile phone with touch screen
EP2948850A4 (en) * 2013-01-23 2016-10-19 Fleye Inc STORAGE AND EDITING OF VIDEO AND SENSOR DATA FROM SPORTING SERVICES OF SEVERAL PEOPLE AT ONE EVENT VENUE
US9729920B2 (en) * 2013-03-15 2017-08-08 Arris Enterprises, Inc. Attention estimation to control the delivery of data and audio/video content
US20140317480A1 (en) * 2013-04-23 2014-10-23 Microsoft Corporation Automatic music video creation from a set of photos
US9369662B2 (en) * 2013-04-25 2016-06-14 Microsoft Technology Licensing, Llc Smart gallery and automatic music video creation from a set of photos
US9792951B2 (en) * 2013-05-08 2017-10-17 Vieu Labs, Inc. Systems and methods for identifying potentially interesting events in extended recordings
US9928877B2 (en) * 2013-11-11 2018-03-27 Magisto Ltd. Method and system for automatic generation of an animated message from one or more images
US9639978B2 (en) * 2013-12-04 2017-05-02 Verizon Telematics Inc. Method and system for avatar replay based on mobile sensor information
WO2015120333A1 (en) * 2014-02-10 2015-08-13 Google Inc. Method and system for providing a transition between video clips that are combined with a sound track
US9779775B2 (en) * 2014-02-24 2017-10-03 Lyve Minds, Inc. Automatic generation of compilation videos from an original video based on metadata associated with the original video
US20160071549A1 (en) * 2014-02-24 2016-03-10 Lyve Minds, Inc. Synopsis video creation based on relevance score
US11170037B2 (en) * 2014-06-11 2021-11-09 Kodak Alaris Inc. Method for creating view-based representations from multimedia collections
US20150370474A1 (en) * 2014-06-19 2015-12-24 BrightSky Labs, Inc. Multiple view interface for video editing system
US9685194B2 (en) * 2014-07-23 2017-06-20 Gopro, Inc. Voice-based video tagging
US10074013B2 (en) * 2014-07-23 2018-09-11 Gopro, Inc. Scene and activity identification in video summary generation
US10452713B2 (en) * 2014-09-30 2019-10-22 Apple Inc. Video analysis techniques for improved editing, navigation, and summarization
US10433030B2 (en) * 2014-10-09 2019-10-01 Thuuz, Inc. Generating a customized highlight sequence depicting multiple events
WO2016073992A1 (en) * 2014-11-07 2016-05-12 H4 Engineering, Inc. Editing systems
KR20160057864A (ko) * 2014-11-14 2016-05-24 삼성전자주식회사 요약 컨텐츠를 생성하는 전자 장치 및 그 방법
GB2539875B (en) * 2015-06-22 2017-09-20 Time Machine Capital Ltd Music Context System, Audio Track Structure and method of Real-Time Synchronization of Musical Content
US10658006B2 (en) * 2015-11-18 2020-05-19 Casio Computer Co., Ltd. Image processing apparatus that selects images according to total playback time of image data, image selection method, and computer-readable medium
US20170148488A1 (en) * 2015-11-20 2017-05-25 Mediatek Inc. Video data processing system and associated method for analyzing and summarizing recorded video data
US9818451B1 (en) * 2015-12-21 2017-11-14 Amazon Technologies, Inc. Frame selection of video data

Also Published As

Publication number Publication date
US20170337428A1 (en) 2017-11-23
EP3223516A1 (en) 2017-09-27
JPWO2016098458A1 (ja) 2017-09-28
EP3223516A4 (en) 2018-08-01
US10984248B2 (en) 2021-04-20
WO2016098458A1 (ja) 2016-06-23
CN107005676A (zh) 2017-08-01

Similar Documents

Publication Publication Date Title
JP6569687B2 (ja) 情報処理方法、映像処理装置及びプログラム
US10706892B2 (en) Method and apparatus for finding and using video portions that are relevant to adjacent still images
US9672411B2 (en) Information processing apparatus and method, and program
EP2710594B1 (en) Video summary including a feature of interest
US8782563B2 (en) Information processing apparatus and method, and program
KR102091848B1 (ko) 전자 장치에서 사용자의 감정 정보를 제공하기 위한 장치 및 방법
EP1816649B1 (en) Imaging device, information processing method, and computer program
US20100094441A1 (en) Image selection apparatus, image selection method and program
US8897603B2 (en) Image processing apparatus that selects a plurality of video frames and creates an image based on a plurality of images extracted and selected from the frames
CN105874780A (zh) 对一组图像生成文本色彩的方法和装置
KR102045575B1 (ko) 스마트 미러 디스플레이 장치
US11782572B2 (en) Prioritization for presentation of media based on sensor data collected by wearable sensor devices
JP6583285B2 (ja) 情報処理方法、映像処理装置及びプログラム
CN105556947A (zh) 用于色彩检测以生成文本色彩的方法和装置
JP2020127714A (ja) ビデオゲーム映像からオーディオビジュアルコンテンツを生成する方法およびシステム
JP2004056397A (ja) 画像処理装置および方法
EP3506191A1 (en) Display control device, display control method, and program
JP2016116073A (ja) 映像処理方法、映像処理装置及びプログラム
US8463052B2 (en) Electronic apparatus and image search method
JP5550447B2 (ja) 電子機器及び方法
WO2019187493A1 (ja) 情報処理装置、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181023

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181023

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190222

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190819

R151 Written notification of patent or utility model registration

Ref document number: 6583285

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151