JP2017183883A - 端末装置および編集データ生成方法 - Google Patents
端末装置および編集データ生成方法 Download PDFInfo
- Publication number
- JP2017183883A JP2017183883A JP2016065460A JP2016065460A JP2017183883A JP 2017183883 A JP2017183883 A JP 2017183883A JP 2016065460 A JP2016065460 A JP 2016065460A JP 2016065460 A JP2016065460 A JP 2016065460A JP 2017183883 A JP2017183883 A JP 2017183883A
- Authority
- JP
- Japan
- Prior art keywords
- data
- recorded
- recording
- user
- moving image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
- Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
Abstract
【課題】複数の利用者の動作が相互に調和した動画を含む好適な編集データを生成する。【解決手段】複数の端末装置14の各々が、他装置で収録された動画RAおよび音声RBを表す収録データRを取得し、自装置の収録装置が収録している動画と、取得した収録データRの動画RAとを表示装置に表示させ、収録装置が収録した動画RAおよび音声RBを表す収録データRを生成する一方、管理システム12が、複数の端末装置14の各々が生成した収録データRを取得し、複数の収録データRを使用して編集データEを生成する【選択図】図1
Description
本発明は、動画および音を表す複数の収録データを収録および処理する技術に関する。
動画や音声等の複数の素材を編集する技術が従来から提案されている。例えば特許文献1には、複数の利用者が個別に収録した動画や音声を相互に連結することで動画データを生成する構成が開示されている。特許文献1の技術によれば、複数の利用者による歌唱音声やメッセージを含む動画データを、例えば誕生日の利用者に贈呈することが可能である。
特許文献1の技術では、別個の端末装置で収録された複数の素材(動画や音)を時系列に配列した動画データが生成される。しかし、個々の利用者が自身の収録時に他の利用者の収録時の様子を確認できないため、複数の利用者が相互に調和した好適な動画の生成は実際には困難である。以上の事情を考慮して、本発明は、複数の利用者の動作が相互に調和した動画を含む好適な編集データの生成を目的とする。
以上の課題を解決するために、本発明の好適な態様に係る端末装置は、動画および音を表す複数の収録データを使用した編集データの生成のために収録データを生成可能な端末装置であって、他装置で収録された動画および音を表す収録データを取得する収録データ取得部と、自装置の収録装置が収録している動画と、収録データ取得部が取得した収録データの動画とを表示装置に表示させる再生制御部と、収録装置が収録した動画および音を表す収録データを生成する収録処理部とを具備する。以上の態様では、他装置による収録済の動画と自装置の収録装置が収録している動画とが表示装置に表示されるから、利用者は、他の利用者の様子を確認しながら自身の動画を収録できる。したがって、複数の利用者の動作が相互に調和した動画を含む好適な編集データを生成することが可能である。
本発明の好適な態様において、再生制御部は、収録装置による収録前に他装置が生成した複数の収録データの各々の動画と、収録装置が収録している動画とを、表示装置に表示させる。以上の態様では、収録済の複数の収録データの各々の動画と収録装置が収録している動画とが表示装置に表示されるから、複数の利用者の動作が相互に調和した動画を含む好適な編集データを生成できるという効果は各別に顕著である。
本発明の好適な態様において、再生制御部は、収録データ取得部が取得した収録データの動画と比較して大きい表示サイズで、収録装置が収録している動画を表示する。以上の態様では、収録済の動画と比較して大きい表示サイズで、収録装置が収録している動画が表示されるから、端末装置の利用者は自身の収録結果を優先的に確認しながら、他の利用者の動作に調和した動画を収録することが可能である。
本発明の好適な態様において、収録処理部は、特定の利用者に提供される編集データの生成に使用される収録データと、収録装置が収録した動画および音を表すデータであって特定の利用者が視聴可能な個別データとを生成する。以上の態様では、特定の利用者に視聴が許可される個別データが生成されるから、他の利用者に知られずに特定の利用者に対して動画および音を提供することが可能である。
本発明の好適な態様に係る編集データ生成方法は、複数の端末装置の各々が、他装置で収録された動画および音を表す収録データを取得し、自装置の収録装置が収録している動画と、取得した収録データの動画とを表示装置に表示させ、収録装置が収録した動画および音を表す収録データを生成する一方、管理システムが、複数の端末装置の各々が生成した収録データを取得し、複数の収録データを使用して編集データを生成する。以上の態様では、他装置による収録済の動画と自装置の収録装置が収録している動画とが表示装置に表示された状態で、収録装置が収録した動画および音を表す収録データが生成され、各端末装置が生成した複数の収録データを使用して編集データが生成される。したがって、複数の利用者の動作が相互に調和した動画を含む好適な編集データを生成することが可能である。
本発明の好適な態様に係る編集データ生成方法において、管理システムは、収録データの総数に応じて、編集データにおける各収録データの動画の配置パターンを変更する。以上の態様では、編集データにおける各収録データの動画の配置パターンが収録データの総数に応じて変更されるから、複数の収録データの動画が好適な配置パターンで配置された編集データを生成することが可能である。
本発明の好適な態様に係る編集データ生成方法において、管理システムは、複数の収録データの各々が表す動画を画像調整後に配置した編集動画と、複数の収録データの各々が表す音を音響調整後に混合した編集音声とを表す編集データを生成する。以上の態様では、複数の収録データが表す動画が画像調整後に配置され、複数の収録データが表す音が音響調整後に混合される。したがって、例えば利用者毎の動画や音の特性の相違を低減した統一感のある編集データを生成することが可能である。
本発明の好適な態様に係る編集データ生成方法において、管理システムは、第1端末装置と、第1端末装置の利用者が指定した複数の利用者の第2端末装置とを含む複数の端末装置の各々が生成した収録データを取得し、第1端末装置の利用者が指定した提供先に編集データを提供する。以上の態様では、第1端末装置の利用者と当該利用者が指定した他の利用者とを含む複数の利用者の収録データから編集データが生成され、第1端末装置の利用者の所望の提供先に編集データが提供される。したがって、第1端末装置の利用者を発起人として複数の利用者により共同で作成された編集データを所望の提供先に提供することが可能である。
<第1実施形態>
図1は、第1実施形態における編集システム100の構成図である。編集システム100は、相異なる動画および音声を表す複数の収録データRを素材として編集データEを生成するコンピュータシステムであり、管理システム12と複数の端末装置14とを具備する。複数の端末装置14の各々は、利用者U(UA1〜UA4,UT)が使用する通信端末であり、移動体通信網やインターネット等を含む通信網18を介して管理システム12と通信する。端末装置14の好適例は、例えば携帯電話機やスマートフォン、タブレット端末、パーソナルコンピュータ等の可搬型の通信端末であるが、据置型の情報処理装置で端末装置14を実現することも可能である。なお、以下の説明では、複数の端末装置14のうち特定の1個の端末装置14に着目した場合に、当該端末装置14を「自装置」と表記し、自装置以外の端末装置14を「他装置」と表記する場合がある。
図1は、第1実施形態における編集システム100の構成図である。編集システム100は、相異なる動画および音声を表す複数の収録データRを素材として編集データEを生成するコンピュータシステムであり、管理システム12と複数の端末装置14とを具備する。複数の端末装置14の各々は、利用者U(UA1〜UA4,UT)が使用する通信端末であり、移動体通信網やインターネット等を含む通信網18を介して管理システム12と通信する。端末装置14の好適例は、例えば携帯電話機やスマートフォン、タブレット端末、パーソナルコンピュータ等の可搬型の通信端末であるが、据置型の情報処理装置で端末装置14を実現することも可能である。なお、以下の説明では、複数の端末装置14のうち特定の1個の端末装置14に着目した場合に、当該端末装置14を「自装置」と表記し、自装置以外の端末装置14を「他装置」と表記する場合がある。
図1に例示される通り、概略的には、各利用者UA(UA1〜UA4)の端末装置14により生成された収録データRが管理システム12に送信され、複数の収録データRから生成された編集データEが管理システム12から利用者UTの端末装置14に送信される。第1実施形態の1個の収録データRは、各利用者UAが特定の楽曲(以下「対象楽曲」という)を歌唱する様子を収録した動画RAと音声RBとを表すファイルである。
第1実施形態では、図2に例示される通り、複数の収録データRの各々の動画RAを並行に配置した編集動画EAと、複数の収録データRの各々の音声RBを混合した編集音声EBとを表す編集データEが生成される。すなわち、複数の利用者UAが共通の対象楽曲を歌唱した音声RBを含む編集音声EB(すなわち合唱音声)と、各利用者UAの歌唱の様子を撮影した動画RAを配列した編集動画EAとを表す編集データEが生成されて、利用者UTの端末装置14に提供される。例えば、利用者UTの誕生日を祝う対象楽曲(バースデーソング)を複数の利用者UAが歌唱する編集動画EAおよび編集音声EBの編集データEが利用者UTに提供される。以上の説明から理解される通り、第1実施形態では、複数の利用者UAが共同で作成したコンテンツの編集データEが利用者UTに贈呈される。編集データEの生成を希望する特定の利用者UA1が、編集データEの作成に参加すべき他の利用者UA2〜UA4と、編集データEの提供先である利用者UTとを指定する。なお、収録データRの作成を担当する利用者UAの総数は任意であるが、以下の説明では、4人の利用者UA1〜UA4が収録データRを生成する場合を便宜的に例示する。
図3は、任意の1個の端末装置14の構成図である。図3に例示される通り、端末装置14は、制御装置22と記憶装置24と通信装置26と入力装置28と収録装置32と再生装置34とを具備する。制御装置22は、例えばCPU(Central Processing Unit)を含む処理回路であり、端末装置14の各要素を統括的に制御する。記憶装置24は、例えば磁気記録媒体や半導体記録媒体等の公知の記録媒体または複数種の記録媒体の組合せで構成され、制御装置22が実行するプログラムや制御装置22が使用する各種のデータを記憶する。通信装置26は、通信網18を介して管理システム12と通信する。入力装置28は、利用者Uによる操作を受付ける。例えば利用者Uが操作する複数の操作子や利用者Uによる接触を検知するタッチパネルが入力装置28として好適に利用される。
収録装置32は、制御装置22による制御のもとで利用者Uの様子を収録する入力機器である。第1実施形態の収録装置32は、動画を撮影する撮影装置322と、音声を収音する収音装置324(マイクロホン)とを具備する。具体的には、撮影装置322は、撮像素子の受光量に応じた画像信号を生成し、収音装置324は、周囲の音声に応じた音響信号を生成する。
他方、再生装置34は、制御装置22による制御のもとで動画や音声を再生する出力機器である。第1実施形態の再生装置34は、画像信号に応じた動画を表示する表示装置342(例えば液晶表示パネル)と、音響信号に応じた音声を放音する放音装置344(例えばスピーカやヘッドホン)とを具備する。なお、図3の例示のように収録装置32および再生装置34を端末装置14に搭載した構成が好適であるが、端末装置14とは別体の収録装置32や再生装置34を有線または無線により端末装置14に接続することも可能である。
収録データRの作成者である各利用者UAが使用する端末装置14の制御装置22は、記憶装置24に記憶されたプログラムを実行することで、収録データRの生成のための複数の機能(通信制御部42,再生制御部44,収録処理部46)を実現する。なお、制御装置22の一部の機能を専用の電子回路で実現した構成や、制御装置22の機能を複数の装置に分散した構成も採用され得る。
収録処理部46は、収録装置32が収録した動画RAおよび音声RBを表す収録データRを生成する。具体的には、収録処理部46は、収録装置32から供給される画像信号と収音装置324から供給される音響信号との符号化により収録データRを生成する。なお、収録データRの符号化の形式は任意である。以上に説明した通り、第1実施形態では、利用者UAの様子を収録して収録データRを生成する処理(以下「収録処理」という)が個々の端末装置14にて実行される。
通信制御部42は、通信装置26を介した管理システム12との通信を制御する。具体的には、通信制御部42は、収録処理部46が収録処理で生成した収録データRを通信装置26から管理システム12に送信する。すなわち、各利用者UAを収録した複数の収録データRが管理システム12に集約される。また、通信制御部42は、他装置が収録処理で生成した収録データR(後述の再生データP)を管理システム12から通信装置26により受信する。自装置による収録処理の実行前に、複数の他装置により収録データRが生成されている場合、通信制御部42は、他装置による収録済の複数の収録データRを取得する。以上の説明から理解される通り、第1実施形態の通信制御部42は、他装置で収録された収録データRを取得する手段(収録データ取得部)として機能する。
再生制御部44は、再生装置34による動画および音声の再生を制御する。具体的には、再生制御部44は、表示装置342に対する画像信号の供給により任意の画像を表示させ、放音装置344に対する音響信号の供給により任意の音声を放音させる。例えば、再生制御部44は、編集データEを再生装置34に再生させる。すなわち、再生制御部44は、編集データEが表す編集動画EAを表示装置342に表示させるとともに編集音声EBを放音装置344に放音させる。
また、第1実施形態の再生制御部44は、自装置の収録処理部46による収録処理の実行中に、図4の収録画面GRを表示装置342に表示させる。図4に例示される通り、収録画面GRは、第1領域GR1と第2領域GR2とを包含する。なお、図4では第1領域GR1と第2領域GR2とを別個の領域としたが、例えば第1領域GR1の内側に第2領域GR2を画定することも可能である。
図4に例示される通り、第1領域GR1には、自装置の収録装置32(撮影装置322)が現時点で収録している利用者UA自身の動画Lが実時間的に表示(すなわちライブビュー表示)される。他方、第2領域GR2には、他装置による収録済の各収録データRの動画RAが表示される。他装置による収録済の複数の収録データRを通信制御部42が取得した場合、第2領域GR2には、複数の収録データRの動画RAが表示される。図4では、利用者UA4の収録処理の段階で利用者UA1〜UA3の収録処理が実行済である場合が想定されている。したがって、利用者UA4の動画Lが第1領域GR1に表示されるとともに、利用者UA1〜UA3の収録済の動画RAが第2領域GR2に表示される。
以上の説明から理解される通り、第1実施形態の再生制御部44は、自装置の収録装置32が収録している動画L(第1領域GR1)と、他装置による収録済の収録データRの動画RA(第2領域GR2)とが表示装置342に並行に表示される。第1実施形態の再生制御部44は、図4に例示される通り、他装置による収録済の収録データRの動画RAと比較して大きい表示サイズで、収録装置32による収録中の動画Lを表示させる。したがって、端末装置14の利用者は、自分自身の動画Lを優先的に確認しながら、他の利用者UAの動作に調和した動画RAを収録することが可能である。
また、再生制御部44は、自装置の収録処理部46による収録処理の実行中に、他装置による収録済の各収録データRが表す音声RBを放音装置344に放音させる。以上の説明から理解される通り、各端末装置14の利用者UAは、他の利用者UAが対象楽曲を歌唱する動画RAと音声RBとを視聴しながら対象楽曲を歌唱する。したがって、各利用者UAが相異なる場所および時間にて個別に歌唱を収録する構成にも関わらず、複数の利用者UAが相互に調和した好適な編集データEを生成することが可能である。
図5は、第1実施形態における管理システム12の構成図である。図5に例示される通り、管理システム12は、制御装置62と記憶装置64と通信装置66とを具備する。なお、管理システム12は、単体のコンピュータとして実現されるほか、相互に別体に構成された複数のコンピュータを含むシステムとしても実現され得る。
制御装置62は、例えばCPUを含む処理回路であり、管理システム12の各要素を統括的に制御する。通信装置66は、通信網18を介して各端末装置14と通信する。記憶装置64は、例えば磁気記録媒体や半導体記録媒体等の公知の記録媒体で構成され、制御装置62が実行するプログラムや制御装置62が使用する各種のデータを記憶する。
第1実施形態の記憶装置64は、編集データEのテンプレートとして利用される複数の素材データMを記憶する。任意の1個の素材データMは、背景画像MAと楽曲の演奏音MBとを表す。背景画像MAは、図2から理解される通り、編集データEが表す編集動画EAにおいて各収録データRの動画RAの背景に配置される画像(フレーム画像)である。複数の素材データMのうち利用者UA1が指定した1個の素材データMが編集データEの生成に適用される。
管理システム12の制御装置62は、記憶装置64に記憶されたプログラムを実行することで、編集データEの生成や提供のための複数の機能(通信制御部72,編集処理部74)を実現する。なお、制御装置62の一部の機能を専用の電子回路で実現した構成や、制御装置62の機能を複数の装置に分散した構成も採用され得る。
通信制御部72は、通信装置66を介した各端末装置14とのデータの授受を制御する。具体的には、通信制御部72は、利用者UAの各端末装置14から通信装置66が受信した収録データRを順次に取得して記憶装置64に格納する。また、通信制御部72は、複数の収録データRから生成された編集データEを利用者UTの端末装置14に送信する。
図5の編集処理部74は、通信制御部72が各利用者UAの端末装置14から取得した複数の収録データRを使用して編集データEを生成する。図6は、第1実施形態の編集処理部74が複数の収録データRから編集データEを生成する処理(以下「編集処理」という)SEのフローチャートである。通信制御部72が利用者UAの端末装置14から収録データRを取得するたびに、その時点で収録済の複数の収録データRを使用した編集処理SEが実行される。
編集処理SEを開始すると、編集処理部74は、記憶装置64に記憶された複数の収録データRについて音声RBの特性を調整する処理(以下「音響調整」という)を実行する(SE1)。例えば、編集処理部74は、複数の収録データRにおける音声RBを均一な音量に調整する。複数の収録データRの音声RBを単純に混合すると音量が過大となり得るから、音響調整SE1において各音声RBの音量を低減することも可能である。各収録データRの音声RBについて音量以外の特性(例えば周波数特性等)を編集処理部74が調整する構成も採用され得る。なお、収録済の収録データRが1個である場合、当該収録データRの音声RBについて音量等の特性を調整する音響調整SE1が実行される。
編集処理部74は、記憶装置64に記憶された複数の収録データRについて動画RAを調整する処理(以下「画像調整」という)を実行する(SE2)。例えば、編集処理部74は、複数の収録データRにおける動画RAを均一な明度や色調に調整する。なお、画像調整SE2の対象となる特性は明度や色調に限定されない。例えば、動画RAの拡大/縮小やトリミング等により、撮影範囲に対する被写体のサイズ(すなわち構図)を複数の収録データRの動画RAについて調整することも可能である。また、収録済の収録データRが1個である場合、当該収録データRの動画RAについて特性を調整する画像調整SE2が実行される。なお、画像調整SE2の実行後に音響調整SE1を実行することも可能である。
編集処理部74は、音響調整SE1および画像調整SE2の実行後の複数の収録データRと利用者UA1が選択した素材データMとを利用して編集データEを生成する(SE3)。具体的には、編集処理部74は、素材データMが表す背景画像MAに各収録データRの動画RAを配置することで編集データEの編集動画EAを生成する。また、編集処理部74は、素材データMが表す演奏音MBと各収録データRの音声RBとを混合することで編集データEの編集音声EBを生成する。以上の手順で生成された編集データEが記憶装置64に記憶されて利用者UTの端末装置14に送信される。
図7は、第1実施形態の編集システム100の全体的な動作(編集データ生成方法)のフローチャートである。利用者UTに対する編集データEの提供を希望する利用者UA1が端末装置14(第1端末装置の例示)に所定の操作を付与すると、端末装置14の制御装置22(再生制御部44)は、図8の設定画面GSを表示装置342に表示させる(SA1)。設定画面GSは、編集データEのタイトルと、収録期限τと、編集データEの作成者(UA2〜UA4)と、編集データEの提供先(利用者UT)と、編集データEの生成に使用する素材データMとを、利用者UA1が指定するための画面である。利用者UA1は、入力装置28を適宜に操作することで、設定画面GSに表示された各項目を任意に指定する。収録期限τは、編集データEの作成に参加する利用者UAの端末装置14が収録データRを収録する期限である。素材データM(背景画像MAと演奏音MBとの組合せ)は、管理システム12の記憶装置64に記憶された複数の候補から選択される。なお、背景画像MAと演奏音MBとを利用者UA1が個別に指定できる構成も好適である。
また、設定画面GSにおける作成者および提供先の指定には、例えば既存のSNS(Social Networking Service)に登録された利用者間の相関関係(ソーシャルグラフ)を利用することが可能である。具体的には、利用者UA1は、自身が利用するSNSの相関関係(友達関係,交流関係)の範囲内で作成者および提供先となる利用者Uを指定する。編集データEの作成に参加する利用者UAの総数(発起人である利用者UA1を含む人数)は、所定値を下回る範囲内で可変に設定される。また、第1実施形態では、1人の利用者UTを提供先として指定する場合を便宜的に例示するが、複数の利用者UTを編集データEの提供先として指定することも可能である。
設定画面GSにて利用者UA1が項目毎に指定した内容を示す設定情報Q1が端末装置14の通信装置26から管理システム12に送信される(SA2)。管理システム12の制御装置62(編集処理部74)は、利用者UA1の端末装置14から受信した設定情報Q1を記憶装置64に記憶するとともに暫定的な編集データEを記憶装置64に記憶する(SA3)。また、制御装置62(通信制御部72)は、編集データEの作成に参加することを要求するメッセージを、設定情報Q1で指定された各利用者UA(UA2〜UA4)の端末装置14(第2端末装置の例示)に送信する(SA4)。設定画面GSにおいて利用者UA1が作成者として指定した利用者UA(UA2〜UA4)は、端末装置14が管理システム12から受信したメッセージにより、編集データEの作成者として自分が指定されたことを認識する。
編集データEの作成者となる各利用者UA(UA1〜UA4)は、任意の時点で入力装置28を適宜に操作することで、収録データRの生成の開始を自身の端末装置14に指示することが可能である。利用者UAからの指示を契機として、以下の例示の通り、利用者UAの収録データRを生成するための処理αが各利用者UAの端末装置14にて順次に実行される。図7では、利用者UA1の端末装置14のみについて処理αの詳細が図示されているが、利用者UA2〜UA4の各々の端末装置14においても同様の処理αが順次に実行される。
収録データRの生成が指示されると、端末装置14の制御装置22(通信制御部42)は、他装置による収録済の収録データRを要求する情報要求Q2を管理システム12に送信する(SB1)。通信装置66が受信した情報要求Q2を取得すると、管理システム12の制御装置62(通信制御部72)は、要求元の端末装置14に再生データPを送信する(SB2)。再生データPは、端末装置14での収録処理に使用されるデータであり、他装置による収録済の収録データRを包含する。例えば、編集処理SEのうち音響調整SE1および画像調整SE2の実行後の各収録データRが再生データPに内包される。なお、何れの端末装置14においても収録データRが収録されていない段階では、収録データRは再生データPに含まれない。
第1実施形態の再生データPは、以上に例示した収録データRのほかに、設定情報Q1で指定された素材データMの演奏音MBと、編集データEを表象する識別用の画像(以下「識別画像」という)Dとを表すデータを包含する。端末装置14の制御装置22(通信制御部42)は、管理システム12から送信された再生データPを通信装置26から取得する。
制御装置22(再生制御部44)は、再生データPが示す識別画像Dを表示装置342に表示させる(SB3)。識別画像Dは、図9に例示される通り、収録データRの動画RAを構成する1個の画像rA(静止画)を生成済の各収録データRについて配置した画像(すなわち、編集データEを表象するアイコン)である。すなわち、収録データRの収録済の各利用者UAの代表的な画像rAが、設定情報Q1で指定された素材データMが表す背景画像MAに配置される。したがって、利用者UAは、識別画像Dを視認することで現時点の編集データEの概略を把握することが可能である。なお、各端末装置14において識別画像Dを生成することも可能である。
識別画像Dを確認した利用者UAが入力装置28に所定の操作を付与すると、収録処理SRが開始される。図10は、収録処理SRのフローチャートである。収録処理SRを開始すると、制御装置22(再生制御部44)は、第1領域GR1と第2領域GR2とを含む図4の収録画面GRを表示装置342に表示させる(SR1)。前述の通り、収録装置32が現時点で収録している利用者UA自身の動画Lが収録画面GRの第1領域GR1に実時間的に表示される。他方、収録画面GRの第2領域GR2には、管理システム12から受信した収録済の各収録データRの動画RAが表示される。また、制御装置22(再生制御部44)は、収録済の各収録データRの音声RBと、再生データP内の素材データMが表す対象楽曲の演奏音MBとの混合音を放音装置344に放音させる(SR2)。端末装置14の利用者UAは、第1領域GR1に表示される自身の現在の動画Lと第2領域GR2に表示される収録済の他の利用者UAの動画RAとを視認し、他の利用者UAが対象楽曲を歌唱する音声RBと対象楽曲の演奏音MBとを聴取しながら対象楽曲を歌唱する。制御装置22(収録処理部46)は、収録装置32が収録した動画RAおよび音声RBを表す収録データRを生成する(SR3)。なお、利用者UAは、収録処理SRで生成された収録データRを再生装置34により再生し、その視聴の結果に応じて収録処理SRを再実行する(すなわち、自身の動画RAおよび音声RBを収録し直す)ことも可能である。
図11は、端末装置14の表示装置342に表示される識別画像Dおよび収録画面GRの遷移の説明図である。利用者UA1→利用者UA2→利用者UA3→利用者UA4の順番で収録処理SRが実行された場合が図11では便宜的に例示されている。
利用者UA1の端末装置14による収録処理SRの時点では、何れの端末装置14においても収録データRは収録されていない。したがって、素材データMが表す背景画像MAが、識別画像Dとして利用者UA1の端末装置14の表示装置342に表示される。また、利用者UA1の端末装置14による収録処理SRの実行中には、他装置により収録された動画RAは表示されない。すなわち、自装置の収録装置32が収録している利用者UA1自身の動画Lが第1領域GR1に表示される。放音装置344からは、素材データMが表す演奏音MBが放音される。
他方、利用者UA2の端末装置14による収録処理SRの時点では、利用者UA1の端末装置14により利用者UA1の収録データRが生成されている。したがって、図11に例示される通り、利用者UA1の画像rAを背景画像MAに配置した識別画像Dが利用者UA2の端末装置14の表示装置342に表示される。また、利用者UA2の端末装置14による収録処理SRの実行中には、自装置の収録装置32が収録する利用者UA2自身の動画Lが第1領域GR1に表示されるとともに、収録済の利用者UA1の動画RAが第2領域GR2に表示される。放音装置344からは、素材データMが表す演奏音MBと、収録済の利用者UA1の音声RBとの混合音が放音される。
利用者UA3の端末装置14による収録処理SRの時点では、利用者UA1および利用者UA2の各々の端末装置14により収録データRが生成されている。したがって、図11に例示される通り、利用者UA1および利用者UA2の画像rAを背景画像MAに配置した識別画像Dが利用者UA3の端末装置14の表示装置342に表示される。また、利用者UA3の端末装置14による収録処理SRの実行中には、利用者UA3自身の動画Lが第1領域GR1に表示されるとともに、利用者UA1および利用者UA2の各々の動画RAが第2領域GR2に表示される。放音装置344からは、素材データMが表す演奏音MBと、収録済の利用者UA1および利用者UA2の音声RBとの混合音が放音される。
利用者UA4の端末装置14による収録処理SRの実行前には、図11に例示される通り、利用者UA1〜UA3の3人の画像rAを含む識別画像Dが利用者UA4の端末装置14の表示装置342に表示される。また、利用者UA4の端末装置14による収録処理SRの実行中には、利用者UA4自身の動画Lと、利用者UA1〜UA3の各々の動画RAとが表示される。放音装置344からは、利用者UA1〜UA3の音声RBの混合音と演奏音MBとの混合音が放音される。
以上に例示した収録処理SRで収録データRが生成されると、制御装置22(通信制御部42)は、図7に例示される通り、収録データRを通信装置26から管理システム12に送信する(SB4)。編集データEの生成に参加する複数の利用者UAの各々について以上の処理αが順次に反復されることで、相異なる利用者UAを収録した複数の収録データRが管理システム12に集約される。端末装置14から送信された収録データRを通信装置66が受信すると、管理システム12の制御装置62(編集処理部74)は、図6に例示した編集処理SEにより新規な編集データEを生成する。
第1実施形態の編集処理部74は、編集処理SEで生成される編集動画EAにおける各収録データRの動画RAの配置パターンを、収録済の収録データRの総数(すなわち収録処理SRを実行した利用者UAの総数)に応じて変更する。図12は、収録データRの総数に応じた編集動画EAの説明図である。図12に例示される通り、編集処理部74は、収録データRの総数が多いほど、編集動画EAにおける各収録データRの動画RAの表示サイズを縮小する。また、背景画像MAに対する各動画RAの位置(すなわち複数の動画RAのレイアウト)も、収録済の収録データRの総数に応じて変更される。以上の態様では、編集データEにおける各収録データRの動画RAの配置パターンが収録データRの総数に応じて変更されるから、各収録データRの動画RAが適切な配置パターンで配置された編集データEを生成することが可能である。なお、各利用者UAからの指示に応じて編集動画EAに装飾用の画像を付加することも可能である。
管理システム12による設定情報Q1の受信後(SA2)、設定情報Q1で指定された収録期限τが到来した場合、制御装置62(通信制御部72)は、以下に例示される通り、その時点で記憶装置64に格納されている編集データEを利用者UTに提供する。なお、収録期限τの到来前に何れかの利用者UAから編集データEの確定が指示された場合に、収録期限τの到来前でも編集データEの提供を実行することも可能である。
第1実施形態では、利用者UTからの要求を契機として管理システム12から端末装置14に編集データEを提供する場合を想定する。具体的には、管理システム12の制御装置62(通信制御部72)は、利用者UTのための編集データEが作成されたことを通知するメッセージを、設定画面GSで利用者UA1が指定した利用者UTの端末装置14に対して通信装置66から送信する(SC1)。管理システム12からの通知を確認した利用者UTが端末装置14に所定の操作を付与すると、端末装置14から管理システム12に情報要求Q3が送信される(SC2)。情報要求Q3を受信すると、管理システム12の制御装置62(通信制御部72)は、要求元の端末装置14に対して編集データEを送信する(SC3)。利用者UTの端末装置14は、管理システム12から受信した編集データEを再生する(SC4)。具体的には、編集データEが示す編集動画EAの表示と編集音声EBの放音とが実行される。すなわち、利用者UA1〜UA4が共同で作成したコンテンツ(編集データE)を利用者UTが視聴する。なお、編集データEの送信および再生の方式は任意である。例えば、管理システム12からストリーミング方式で編集データEを端末装置14に送信して再生させる構成や、編集データEを端末装置14の記憶装置24に記憶させたうえで再生させる構成が採用され得る。
編集動画EAおよび編集音声EBを視聴した利用者UTは、各利用者UAに対する応答(例えばお礼)の動画および音声を端末装置14により収録する。利用者UTの端末装置14が収録した動画および音声を表す応答用のデータは管理システム12に送信され、各利用者UAからの要求に応じて当該利用者UAの端末装置14に送信される。したがって、各利用者UAは、利用者UTからの応答の動画および音声を視聴することが可能である。
以上に説明した通り、第1実施形態では、他装置による収録済の動画RAと自装置の収録装置32が収録している動画Lとが表示装置342に表示されるから、各利用者UAは、他の利用者UAの様子を確認しながら自身の動画や音声を収録できる。したがって、複数の利用者の動作が相互に調和した動画RAを含む好適な編集データEを生成することが可能である。第1実施形態では特に、収録済の複数の収録データRの各々の動画RAが、収録装置32による収録中の動画Lとともに表示装置342に表示される。したがって、複数の利用者UAの動作が相互に調和した動画を含む好適な編集データEを生成できるという効果は各別に顕著である。
また、第1実施形態では、複数の収録データRが表す動画RAを画像調整SE2の実行後に配置した編集動画EAと、複数の収録データRが表す音声RBを音響調整SE1の実行後に混合した編集音声EBとが編集処理SEにて生成される。したがって、例えば利用者UA毎の動画や音声の相違を低減した統一感のある編集データEを生成できるという利点がある。
第1実施形態では、特定の利用者UA1とその利用者UA1が指定した他の利用者UA2〜UA4とを含む複数の利用者UAの収録データRから編集データEが生成され、利用者UA1が指定した所望の利用者(対象者)UTに編集データEが提供される。したがって、利用者UA1を発起人として複数の利用者UAにより共同で作成された編集データEを所望の利用者UTに提供することが可能である。
<第2実施形態>
本発明の第2実施形態について説明する。なお、以下に例示する各形態において作用や機能が第1実施形態と同様である要素については、第1実施形態の説明で使用した符号を流用して各々の詳細な説明を適宜に省略する。
本発明の第2実施形態について説明する。なお、以下に例示する各形態において作用や機能が第1実施形態と同様である要素については、第1実施形態の説明で使用した符号を流用して各々の詳細な説明を適宜に省略する。
図13は、第2実施形態における収録処理SRのフローチャートである。図13に例示される通り、各利用者UAの端末装置14の制御装置22(収録処理部46)は、第1実施形態と同様の手順(SR1〜SR3)で収録データRを生成すると、収録装置32が収録した動画および音声を表す個別データXを生成する(SR4)。収録データRが他の収録データRとともに編集データEの生成に使用されるのに対し、個別データXは、編集データEの提供先である利用者UTに対する利用者UAからの個人的なメッセージである。各利用者UAの個別データXは、収録データRと同様に端末装置14から管理システム12に送信される(SB4)。管理システム12の制御装置62(通信制御部72)は、通信装置66が端末装置14から受信した収録データRおよび個別データXを記憶装置64に格納する。なお、収録データRの生成(SR1〜SR3)前に個別データXを収録することも可能である。
各利用者UAの個別データXは、編集データEとともに利用者UTの端末装置14に送信される(SC3)。利用者UTの端末装置14は、管理システム12から受信した編集データEと個別データXとを順次に再生する(SC4)。例えば、複数の利用者UAが共同で作成した編集データEの再生後に、複数の利用者UAの各々が作成した個別データXが順次に再生される。なお、編集データEの再生後に各利用者UAの個別データXを管理システム12から利用者UTの端末装置14に送信することも可能である。
編集データEは、その提供先の利用者UTが視聴できるほか、作成者である任意の利用者UAも利用者UTと同様に視聴することが可能である。他方、個別データXは、その個別データXを収録した利用者UA(すなわち収録者)本人と提供先の利用者UTとに限定して視聴が許可され、他の利用者UAの視聴は禁止される。すなわち、管理システム12の通信制御部72は、収録者本人または利用者UTの端末装置14からの要求に対しては個別データXを送信するが、他の利用者UAの端末装置14からの要求に対しては個別データXを送信しない。なお、個別データXを収録した利用者UA本人の視聴を禁止することも可能である。
第1実施形態においても第2実施形態と同様の効果が実現される。第2実施形態では、利用者UTに限定して視聴が許可される個別データXが生成されるから、他の利用者UAに知られることなく、利用者UAが利用者UTに対して個人的なメッセージを伝達することが可能である。
<変形例>
以上に例示した各態様は多様に変形され得る。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2個以上の態様は、相互に矛盾しない範囲で適宜に併合され得る。
以上に例示した各態様は多様に変形され得る。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2個以上の態様は、相互に矛盾しない範囲で適宜に併合され得る。
(1)前述の各形態では、各収録データRの音声RBの音量を調整する処理を音響調整SE1として例示したが、音響調整SE1の具体的な内容は以上の例示に限定されない。例えば、雑音抑圧や残響抑圧等の音響処理を音響調整SE1として実行することも可能である。収録データRの各音声RBのうち、収録中に放音装置344から放音される演奏音MBや他の利用者UAの音声RBを音響調整SE1にて抑圧することも可能である。また、前述の各形態では、各収録データRの動画RAの明度や色調を調整する処理を画像調整SE2として例示したが、画像調整SE2の具体的な内容は以上の例示に限定されない。例えば、露出補正や美肌補正等の各種の補正処理を画像調整SE2として実行することも可能である。
複数の収録データRに対する処理は、以上に例示した音響調整SE1や画像調整SE2に限定されない。例えば、複数の収録データRを時間軸上で相互に同期させる同期処理を編集処理部74が編集処理SEのなかで実行することも可能である。複数の収録データRは、対象楽曲の演奏音MBの音響成分を共通に含有する。したがって、演奏音MBの音響成分の任意の時点が複数の収録データRにわたり共通の時点となるように各収録データRの時間軸上の位置を調整する同期処理により、複数の収録データRを相互に同期させることが可能である。
(2)編集動画EAにおける各利用者UAの動画RAの配置パターンが経時的に変化するように編集処理部74が編集データEを生成することも可能である。例えば、編集動画EAにおける各動画RAの配置パターン(例えば動画RAの個数,位置,表示サイズ)が対象楽曲の再生の進行とともに変化するように、編集処理SEにより編集データEが生成される。
(3)前述の各形態では、管理システム12が編集処理SEを実行する構成を例示したが、編集処理SEの一部または全部を端末装置14にて実行することも可能である。例えば、音響調整SE1または画像調整SE2(あるいは前述の同期処理)は、各端末装置14による収録処理SRの実行後にその端末装置14において実行され得る。
(4)前述の各形態では、端末装置14とは別体の管理システム12を例示したが、管理システム12の機能を端末装置14に搭載する(すなわち、端末装置14を管理システム12として利用する)ことも可能である。例えば、利用者UA1の端末装置14が、他の利用者UAの端末装置14から収録データRを取得し、編集処理SEにより編集データEを生成して利用者UTの端末装置14に送信することも可能である。
(5)前述の各形態では、編集データEの作成者である各利用者UAの音声RBを収録したが、収録データRが表す音の種類は、利用者UAが発音する音声RBに限定されない。例えば、例えば利用者UAが演奏する楽器の演奏音(楽音)を収録して収録データRを生成することも可能である。
(6)前述の各形態で例示した端末装置14は、前述の通り制御装置22とプログラムとの協働で実現される。プログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされ得る。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、RAM(Random Access Memory)やROM(Read Only Memory)等の半導体記録媒体が好適であるが、光学式記録媒体や磁気記録媒体等の公知の任意の形式の記録媒体を包含し得る。また、以上に例示したプログラムは、通信網を介した配信の形態で提供されてコンピュータにインストールされ得る。
(7)本発明は、前述の各形態に係る編集システム100の動作方法(編集データ生成方法)としても特定され得る。具体的には、本発明の好適な態様に係る編集データ生成方法においては、複数の端末装置14の各々が、他装置で収録された動画および音を表す収録データRを取得し(SB2)、自装置の収録装置32が収録した動画Lと、当該取得した収録データRの動画RAとを表示装置342に表示させ(SR1)、収録装置32が収録した動画および音を表す収録データを生成する一方(SR3)、管理システム12が、複数の端末装置14の各々が生成した収録データRを取得し(SB4)、複数の収録データRを使用して編集データEを生成する(SE)。
100…編集システム、12…管理システム、14…端末装置、18…通信網、22,62…制御装置、24,64…記憶装置、26,66…通信装置、28…入力装置、32…収録装置、322…撮影装置、324…収音装置、34…再生装置、342…表示装置、344…放音装置、42…通信制御部、44…再生制御部、46…収録処理部、72…通信制御部、74…編集処理部。
Claims (8)
- 動画および音を表す複数の収録データを使用した編集データの生成のために収録データを生成可能な端末装置であって、
他装置で収録された動画および音を表す収録データを取得する収録データ取得部と、
自装置の収録装置が収録している動画と、前記収録データ取得部が取得した収録データの動画とを表示装置に表示させる再生制御部と、
前記収録装置が収録した動画および音を表す収録データを生成する収録処理部と
を具備する端末装置。 - 前記再生制御部は、前記収録装置による収録前に他装置が生成した複数の収録データの各々の動画と、前記収録装置が収録している動画とを、前記表示装置に表示させる
請求項1の端末装置。 - 前記再生制御部は、前記収録データ取得部が取得した収録データの動画と比較して大きい表示サイズで、前記収録装置が収録している動画を表示する
請求項1または請求項2の端末装置。 - 前記収録処理部は、特定の利用者に提供される前記編集データの生成に使用される前記収録データと、前記収録装置が収録した動画および音を表すデータであって前記特定の利用者が視聴可能な個別データとを生成する
請求項1から請求項3の何れかの端末装置。 - 複数の端末装置の各々が、
他装置で収録された動画および音を表す収録データを取得し、
自装置の収録装置が収録している動画と、前記取得した収録データの動画とを表示装置に表示させ、
前記収録装置が収録した動画および音を表す収録データを生成する一方、
管理システムが、
前記複数の端末装置の各々が生成した収録データを取得し、
前記複数の収録データを使用して編集データを生成する
編集データ生成方法。 - 前記管理システムは、前記収録データの総数に応じて、前記編集データにおける各収録データの動画の配置パターンを変更する
請求項5の編集データ生成方法。 - 前記管理システムは、前記複数の収録データの各々が表す動画を画像調整後に配置した編集動画と、前記複数の収録データの各々が表す音を音響調整後に混合した編集音声とを表す編集データを生成する
請求項5または請求項6の編集データ生成方法。 - 前記管理システムは、
第1端末装置と、前記第1端末装置の利用者が指定した複数の利用者の第2端末装置とを含む前記複数の端末装置の各々が生成した収録データを取得し、
前記第1端末装置の利用者が指定した提供先に前記編集データを提供する
請求項5から請求項7の何れかの編集データ生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016065460A JP2017183883A (ja) | 2016-03-29 | 2016-03-29 | 端末装置および編集データ生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016065460A JP2017183883A (ja) | 2016-03-29 | 2016-03-29 | 端末装置および編集データ生成方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017183883A true JP2017183883A (ja) | 2017-10-05 |
Family
ID=60007629
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016065460A Pending JP2017183883A (ja) | 2016-03-29 | 2016-03-29 | 端末装置および編集データ生成方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017183883A (ja) |
-
2016
- 2016-03-29 JP JP2016065460A patent/JP2017183883A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101643482B1 (ko) | 가라오케 및/또는 포토 부스 특징들을 갖는 디지털 주크박스 디바이스, 및 연관된 방법들 | |
US8917972B2 (en) | Modifying audio in an interactive video using RFID tags | |
JP6662063B2 (ja) | 収録データ処理方法 | |
US20170092253A1 (en) | Karaoke system | |
JP2006041886A (ja) | 情報処理装置および方法、記録媒体、並びにプログラム | |
JP6191572B2 (ja) | 収録システム、収録方法およびプログラム | |
JP2014186177A (ja) | 再生装置 | |
JP6227456B2 (ja) | 楽曲演奏装置及びプログラム | |
JP2021021870A (ja) | コンテンツ収集・配信システム | |
JP2017183883A (ja) | 端末装置および編集データ生成方法 | |
Freeth et al. | Musical meshworks: from networked performance to cultures of exchange | |
JP5794934B2 (ja) | コラボレーション歌唱の録画システム | |
JP6220576B2 (ja) | 複数人による通信デュエットに特徴を有する通信カラオケシステム | |
KR102625045B1 (ko) | 영상 편집 장치, 영상 편집 방법 및 컴퓨터 프로그램 | |
JP6544147B2 (ja) | 歌唱動画作成装置及び歌唱動画作成システム | |
JP6610030B2 (ja) | 映像処理装置および映像処理方法 | |
JP2014235301A (ja) | ジェスチャーによるコマンド入力識別システム | |
JP2014235303A (ja) | カラオケシステム | |
US20240103799A1 (en) | Immersive audio experiences based on visual content or objects | |
WO2022079853A1 (ja) | 音楽データ処理方法 | |
JP4642685B2 (ja) | 歌曲録音作品を随所で随時に再生できる通信カラオケシステム、カラオケ装置、方法 | |
KR20080029424A (ko) | 디지털 음반 생성 방법 및 시스템 | |
JP6648464B2 (ja) | カラオケシステム及び複合投稿情報作成方法 | |
JP2022130028A (ja) | カラオケシステム | |
JP6020830B2 (ja) | カラオケ装置及びカラオケ用ホスト装置 |