JP2017017423A - Video processing apparatus - Google Patents
Video processing apparatus Download PDFInfo
- Publication number
- JP2017017423A JP2017017423A JP2015129970A JP2015129970A JP2017017423A JP 2017017423 A JP2017017423 A JP 2017017423A JP 2015129970 A JP2015129970 A JP 2015129970A JP 2015129970 A JP2015129970 A JP 2015129970A JP 2017017423 A JP2017017423 A JP 2017017423A
- Authority
- JP
- Japan
- Prior art keywords
- material data
- recorded material
- video processing
- recording
- recorded
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000000463 material Substances 0.000 claims abstract description 131
- 238000004891 communication Methods 0.000 claims abstract description 78
- 238000000034 method Methods 0.000 claims description 26
- 230000008569 process Effects 0.000 claims description 14
- 238000010586 diagram Methods 0.000 description 11
- 230000008901 benefit Effects 0.000 description 7
- 230000001360 synchronised effect Effects 0.000 description 4
- 238000003672 processing method Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000001960 triggered effect Effects 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 235000021167 banquet Nutrition 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
Description
本発明は、音響および動画を処理する技術に関する。 The present invention relates to a technique for processing sound and moving images.
音響と動画とを含む素材を収録および編集する各種の技術が従来から提案されている。例えば特許文献1には、相異なる位置に設置された複数のカメラで撮影された映像を適宜に切替えて再生可能なマルチアングルビデオを生成する技術が開示されている。 Various techniques for recording and editing materials including sound and video have been proposed. For example, Patent Document 1 discloses a technique for generating a multi-angle video that can be played back by appropriately switching videos captured by a plurality of cameras installed at different positions.
しかし、特許文献1の技術では、複数のカメラやマイクをケーブルで映像記録装置に接続した大規模な収録システムが必要であり、運搬や配置等の取扱いが煩雑であるという問題がある。以上の事情を考慮して、本発明は、相異なる位置で収録された複数の素材を利用したコンテンツを簡便に生成することを目的とする。 However, the technique of Patent Document 1 requires a large-scale recording system in which a plurality of cameras and microphones are connected to a video recording apparatus with cables, and there is a problem that handling such as transportation and arrangement is complicated. In view of the above circumstances, an object of the present invention is to easily generate content using a plurality of materials recorded at different positions.
以上の課題を解決するために、本発明の映像処理装置は、音響および動画を含む収録素材データを収録可能な複数の端末装置から無線通信により収録素材データを受信する無線通信部と、無線通信部が受信した複数の収録素材データに対する編集処理でコンテンツを生成する編集処理部と、無線通信部および編集処理部を収容する可搬型の筐体とを具備する。以上の態様では、無線通信部と編集処理部とが可搬型の筐体に収容され、複数の端末装置から無線通信で受信した複数の収録素材データに対する編集処理でコンテンツが生成される。すなわち、可搬型の映像処理装置を運搬および配置することで、複数の収録素材データの取得と複数の収録素材データに対する編集処理とが実現される。したがって、特許文献1の技術で必要となる大規模な収録システムを必要とせずに、相異なる位置で収録された音響や動画を含むコンテンツを簡便に生成できるという利点がある。 In order to solve the above problems, a video processing apparatus of the present invention includes a wireless communication unit that receives recorded material data by wireless communication from a plurality of terminal devices capable of recording recorded material data including sound and moving images, and wireless communication. An editing processing unit that generates content through editing processing on a plurality of recorded material data received by the unit, and a portable housing that houses the wireless communication unit and the editing processing unit. In the above aspect, the wireless communication unit and the editing processing unit are accommodated in the portable housing, and the content is generated by editing the plurality of recorded material data received from the plurality of terminal devices by wireless communication. That is, by transporting and arranging a portable video processing apparatus, acquisition of a plurality of recorded material data and editing processing for the plurality of recorded material data are realized. Therefore, there is an advantage that content including sound and moving images recorded at different positions can be easily generated without requiring a large-scale recording system required by the technique of Patent Document 1.
本発明の好適な態様において、無線通信部は、端末装置にて収録素材データに付加される共通の識別情報を収録素材データの収録前に複数の端末装置に無線通信で送信し、編集処理部は、識別情報が付加された収録素材データを対象として編集処理を実行する。以上の態様では、各端末装置による収録素材データの収録前に複数の端末装置に共通の識別情報が送信され、当該識別情報が付加された収録素材データを対象として編集処理が実行される。したがって、例えば端末装置で過去に収録された無関係な音響や動画が編集処理の対象とされる可能性を低減できる。 In a preferred aspect of the present invention, the wireless communication unit transmits common identification information added to the recorded material data by the terminal device to the plurality of terminal devices before recording the recorded material data, and an editing processing unit. Performs the editing process on the recorded material data to which the identification information is added. In the above aspect, common identification information is transmitted to a plurality of terminal devices before recording material data is recorded by each terminal device, and editing processing is executed on the recording material data to which the identification information is added. Therefore, for example, it is possible to reduce the possibility that an irrelevant sound or moving image recorded in the past by the terminal device is the target of the editing process.
本発明の好適な態様において、無線通信部は、端末装置に対する利用者からの指示に応じた制御データを端末装置から受信し、編集処理部は、制御データを適用した編集処理を実行する。以上の態様では、端末装置に対する利用者からの指示に応じた制御データが編集処理に適用されるから、端末装置の利用者の意図を反映したコンテンツを生成できるという利点がある。 In a preferred aspect of the present invention, the wireless communication unit receives control data corresponding to an instruction from the user for the terminal device from the terminal device, and the editing processing unit executes editing processing to which the control data is applied. In the above aspect, since the control data according to the instruction from the user with respect to the terminal device is applied to the editing process, there is an advantage that the content reflecting the intention of the user of the terminal device can be generated.
本発明の好適な態様に係る映像処理装置は、収録素材データの音響を利用して複数の収録素材データを相互に同期させる同期処理部を具備し、編集処理部は、同期処理部による処理後の複数の収録素材データに対する編集処理でコンテンツを生成する。以上の態様では、編集処理の実行前に複数の収録素材データを相互に同期させるから、時間的に相互に整合した複数の収録素材データを統合した適切なコンテンツを生成できるという利点がある。 The video processing apparatus according to a preferred aspect of the present invention includes a synchronization processing unit that synchronizes a plurality of recorded material data with each other using the sound of the recorded material data, and the editing processing unit is processed after the processing by the synchronous processing unit. The content is generated by editing the plurality of recorded material data. In the above aspect, since a plurality of recorded material data are synchronized with each other before execution of the editing process, there is an advantage that it is possible to generate appropriate content that integrates a plurality of recorded material data that are temporally aligned with each other.
本発明は、以上に例示した各形態に係る映像処理装置の動作方法(映像処理方法)としても特定され得る。本発明の好適な態様に係る映像処理方法は、無線通信部と編集処理部とを収容する可搬型の筐体を具備する映像処理装置により、無線通信部が、音響および動画を含む収録素材データを収録可能な複数の端末装置から無線通信により前記収録素材データを受信し、編集処理部が、前記無線通信部が受信した複数の収録素材データに対する編集処理でコンテンツを生成する。 The present invention can also be specified as an operation method (video processing method) of the video processing device according to each of the embodiments exemplified above. According to a preferred aspect of the present invention, there is provided a video processing method comprising: a video processing apparatus including a portable housing that accommodates a wireless communication unit and an editing processing unit, wherein the wireless communication unit includes recorded material data including sound and video. The recording material data is received by wireless communication from a plurality of terminal devices capable of recording the content, and the editing processing unit generates content by editing the plurality of recording material data received by the wireless communication unit.
図1は、本発明の好適な態様に係る映像処理システム100の構成図である。映像処理システム100は、例えば演奏会や講演会等の種々のイベントの収録に利用されるコンピュータシステムであり、図1に例示される通り、映像処理装置12と複数の端末装置14とを具備する。複数の端末装置14の各々は、例えば携帯電話機やスマートフォン、タブレット端末、パーソナルコンピュータ等の可搬型の通信端末である。概略的には、複数の端末装置14の各々が収録した音響および動画のデータ(以下「収録素材データ」という)を映像処理装置12が収集および編集することで1個のコンテンツが生成される。
FIG. 1 is a configuration diagram of a
図2は、任意の1個の端末装置14を例示する構成図である。図2に例示される通り、端末装置14は、制御装置20と記憶装置22と通信装置24と収録装置26と操作装置28と再生装置30とを具備する。制御装置20は、端末装置14の各要素を統括的に制御する演算処理装置(例えばCPU)である。記憶装置22は、磁気記録媒体や半導体記録媒体等の公知の記録媒体で構成され、制御装置20が実行するプログラムや制御装置20が使用する各種のデータを記憶する。
FIG. 2 is a configuration diagram illustrating an arbitrary one
再生装置30は、制御装置20から指示された画像を表示する表示装置32と、制御装置20から指示された音響を放音する放音装置34とを包含する。操作装置28は、端末装置14の利用者からの指示を受付ける入力機器である。利用者が操作可能な複数の操作子や表示装置32の表示面に対する接触を検知するタッチパネルが操作装置28として利用される。
The
収録装置26は、収録素材データDを生成する映像機器である。本実施形態の収録装置26は、音響を収音する収音装置と動画を撮像する撮像装置とを具備し、収音装置が収音した音響と撮像装置が撮像した動画とを表す収録素材データDを生成する。各端末装置14の利用者は、当該端末装置14の収録装置26を利用して、例えば相異なる位置で共通の収録対象(例えば演奏会等のイベント)の音響および動画を並列に収録する。すなわち、各端末装置14の収録装置26は、音響ホール等の共通の音響空間の相異なる地点に配置され、各々が別個の角度から例えば舞台や観客の様子を収録して収録素材データDを生成する。
The
図3には、各端末装置14の収録装置26が生成する複数の収録素材データD(D1,D2,D3)が例示されている。図3に例示される通り、任意の1個の収録素材データDは、相互に並列に収録された音響および動画を包含する。音響や動画の収録の開始点は複数の収録素材データDの間で相違し得る。また、複数の収録素材データDは、相互に共通の音響(ただし音量等の音響特性は相違し得る)を含有する。
FIG. 3 illustrates a plurality of recorded material data D (D1, D2, D3) generated by the
図2の通信装置24は、映像処理装置12と通信する通信機器である。本実施形態の通信装置24は、例えばWi-Fi(登録商標)やBluetooth(登録商標)等の公知の近距離無線通信により映像処理装置12と通信する。具体的には、通信装置24は、収録装置26が生成した収録素材データDを近距離無線通信により映像処理装置12に送信する。なお、端末装置14と映像処理装置12との間の通信方式は任意である。
The
図4は、映像処理装置12を例示する構成図である。本実施形態の映像処理装置12は、各端末装置14が生成した複数の収録素材データDを処理するコンピュータシステムであり、図4に例示される通り、制御装置40と記憶装置42と通信装置44と操作装置46とを具備する。制御装置40と記憶装置42と通信装置44とは図1の可搬型の筐体120に収容され、操作装置46は筐体120に設置される(図1では図示略)。本実施形態の映像処理装置12は、例えば管理者(例えば収録対象のイベントの運営者)が人力で運搬可能な一体の可搬型装置である。具体的には、図1に例示される通り、管理者が把持可能な把持部122(取っ手)が筐体120の頂面に設置され、管理者は把持部122を把持した状態で映像処理装置12を任意の位置に運搬および配置することが可能である。具体的には、演奏会や講演会等の種々のイベントが開催される場所に映像処理装置12が運搬および配置される。
FIG. 4 is a configuration diagram illustrating the
図4の操作装置46は、映像処理装置12に対する指示を映像処理装置12の管理者から受付ける入力機器である。なお、管理者が端末装置14を利用して映像処理装置12に各種の指示を遠隔で付与することも可能である。したがって、映像処理装置12から操作装置46は省略され得る。通信装置(無線通信部の例示)44は、複数の端末装置14の各々と通信する。具体的には、通信装置44は、複数の端末装置14から近距離無線通信により収録素材データDを受信する。以上の説明から理解される通り、本実施形態では、映像処理装置12と各端末装置14との間の無線通信の方式として、移動体通信網やインターネット等の通信網が装置間に介在しない近距離無線通信を例示する。
The
記憶装置42は、例えば磁気記録媒体や半導体記録媒体等の公知の記録媒体で構成され、制御装置40が実行するプログラムや制御装置40が使用する各種のデータを記憶する。なお、映像処理装置12が通信可能なサーバに記憶装置42(すなわちクラウドストレージ)を設置することも可能である。すなわち、映像処理装置12から記憶装置42は省略され得る。記憶装置42は、通信装置44が複数の端末装置14から受信した複数の収録素材データDを記憶する。
The
制御装置40は、映像処理装置12の各要素を統括的に制御する演算処理装置(例えばCPU)である。本実施形態の制御装置40は、記憶装置42に記憶されたプログラムを実行することで、通信装置44が端末装置14から受信した複数の収録素材データDを処理するための複数の機能(同期処理部52,編集処理部54)を実現する。前述の説明から理解される通り、同期処理部52および編集処理部54は筐体120に収容される。なお、制御装置40の一部の機能を音響処理または画像処理の専用の電子回路で実現した構成や、制御装置40の機能を複数の装置に分散した構成も採用され得る。
The
図4の同期処理部52は、複数の端末装置14から受信した複数の収録素材データDを相互に同期させる。複数の収録素材データDの同期とは、各収録素材データDの音響および動画の時間軸が複数の収録素材データDにわたり相互に合致する状態を意味する。すなわち、同期処理部52は、図5に例示される通り、各収録素材データDにおける特定の時刻が複数の収録素材データDにわたり時間軸上の共通の時点となるように各収録素材データDの時間軸上の位置を調整する。複数の収録素材データDの同期には公知の技術が任意に採用され得るが、例えば図5の例示からも理解される通り、各収録素材データDの音響を解析することで複数の収録素材データDを相互に同期させる構成が好適である。すなわち、各収録素材データDの音響の時間変動が複数の収録素材データDにわたり時間軸上で整合するように各収録素材データDの時間軸上の位置が調整される。
4 synchronizes the plurality of recorded material data D received from the plurality of
図4の編集処理部54は、同期処理部52による同期処理後の複数の収録素材データDに対する処理(以下「編集処理」という)でコンテンツを生成する。編集処理は、収録素材データDの音響を調整する音響処理と、収録素材データDの動画を編集する動画処理とを包含する。音響処理は、複数の収録素材データDの音響に対するミキシングやマスタリング等の処理を包含する。動画処理は、複数の収録素材データDの各々の動画の一部(以下「選択区間」という)を時間軸上で相互に連結する処理である。編集処理部54が生成するコンテンツは、以上に例示した音響処理後の音響と動画処理後の動画(すなわち、複数の収録素材データDの何れかに順次に切替わる動画)とを包含する。なお、複数の収録素材データDの何れかの音響を音響処理により調整してコンテンツに利用することも可能である。
4 generates content by processing (hereinafter referred to as “editing processing”) for a plurality of recorded material data D after the synchronization processing by the
図4に例示される通り、本実施形態の編集処理部54は、第1処理部541と第2処理部542とを包含する。第1処理部541は、複数の収録素材データDの編集処理に適用される制御データCを生成する。図6は、制御データCの模式図である。図6に例示される通り、制御データCは、音響制御データC1と動画制御データC2とを包含する。音響制御データC1は、前述の音響処理(ミキシングやマスタリング)に適用される各変数の数値を指定する。第1処理部541は、例えば、音響処理の各変数が初期値に設定された初期的な音響制御データC1を生成する。
As illustrated in FIG. 4, the
他方、動画制御データC2は、各収録素材データDの各選択区間(すなわちコンテンツを構成する部分)を指定する。具体的には、動画制御データC2は、図6に例示される通り、相異なる選択区間に対応する複数の単位データUの時系列で構成される。任意の1個の選択区間に対応する単位データUは、当該選択区間を含む1個の収録素材データDの識別情報と、当該選択区間の始点および終点とを指定する。第1処理部541は、同期処理後の複数の収録素材データDの間で選択区間が相互に重複しないように各収録素材データDからランダムに抽出された選択区間を指定する初期的な動画制御データC2を生成する。
On the other hand, the moving image control data C2 designates each selected section (that is, a part constituting the content) of each recorded material data D. Specifically, the moving image control data C2 is configured by a time series of a plurality of unit data U corresponding to different selection sections, as illustrated in FIG. The unit data U corresponding to any one selected section designates identification information of one recorded material data D including the selected section, and the start point and end point of the selected section. The
第1処理部541が生成した初期的な制御データC(音響制御データC1,動画制御データC2)は、端末装置14に対する利用者からの指示に応じて更新される。図4の第2処理部542は、更新後の制御データCを適用した複数の収録素材データDに対する編集処理でコンテンツ(例えば動画ファイル)を生成する。編集処理部54(第2処理部542)が生成したコンテンツが例えば通信装置44から端末装置14に近距離無線通信により送信されて当該端末装置14の再生装置30で再生される。
Initial control data C (acoustic control data C1, moving image control data C2) generated by the
図7は、映像処理システム100の動作の説明図である。各端末装置14の記憶装置22に記憶されたプログラム(アプリケーションプログラム)が利用者からの指示に応じて起動された状態で、映像処理装置12の操作装置46に対する管理者からの所定の操作(動作開始の指示)を契機として図7の処理が開始される。
FIG. 7 is an explanatory diagram of the operation of the
まず、映像処理装置12の通信装置44は、当該映像処理装置12の周囲に位置する複数の端末装置14に対して近距離無線通信で識別情報Xを送信する(S1)。識別情報Xは、今回の映像処理装置12の一連の動作を識別するための符号である。以上の説明から理解される通り、各端末装置14の収録装置26による収録動作の実行前に、映像処理装置12の周囲の複数の端末装置14に対して共通の識別情報Xが送信される。識別情報Xは、各端末装置14の通信装置24により受信されたうえで記憶装置22に格納される(S2)。
First, the
各端末装置14の収録装置26は、操作装置28に対する利用者からの操作を契機として音響および動画の収録動作を実行して収録素材データDを生成する(S3)。例えば、収録対象のイベントの開始を契機として複数の端末装置14により並列に収録が開始される。収録装置26が生成した収録素材データDは、映像処理装置12から受信した識別情報Xが付加された状態で記憶装置22に格納される。すなわち、複数の端末装置14により収録される複数の収録素材データDに共通の識別情報Xが付加される。
The
収録装置26による収録動作が終了すると、通信装置24は、記憶装置22に記憶された収録素材データDを識別情報Xとともに近距離無線通信で映像処理装置12に送信する(S4)。例えば、操作装置28に対する利用者からの操作(収録動作の終了の指示)を契機として、収録素材データDと識別情報Xとが通信装置24から映像処理装置12に送信される。ただし、収録動作の終了および収録素材データDの送信の契機は、利用者からの指示に限定されない。例えば、識別情報Xの受信から所定の有効期間が経過した時点や所定の時刻(例えばイベントの終了時刻)が到来した時点で、各端末装置14が収録動作を終了して収録素材データDを映像処理装置12に送信することも可能である。また、映像処理装置12から送信された終了指示の受信を契機として収録素材データDの送信を開始することも可能である。複数の端末装置14から並列に送信された複数の収録素材データDは、映像処理装置12の通信装置44により受信されたうえで記憶装置42に格納される(S5)。
When the recording operation by the
映像処理装置12の同期処理部52は、端末装置14から受信した複数の収録素材データDの音響を相互に照合することで各収録素材データDを相互に同期させる(S6)。また、編集処理部54の第1処理部541は、同期処理部52による同期処理後の各収録素材データDについて初期的な制御データC(音響制御データC1,動画制御データC2)を生成する(S7)。
The
他方、制御データCの調整(コンテンツの編集)を所望する利用者(管理者を含む)は、端末装置14の操作装置28に対する操作で調整開始を指示する。調整開始が指示されると、端末装置14の通信装置24は、調整要求を映像処理装置12に送信する(S8)。端末装置14から調整要求を受信すると、映像処理装置12の通信装置44は、記憶装置42に記憶された複数の収録素材データDと第1処理部541が生成した初期的な制御データCとを要求元の端末装置14に送信する(S9)。映像処理装置12から送信された複数の収録素材データDと制御データCとは、端末装置14の通信装置24により受信されて記憶装置22に格納される(S10)。なお、複数の収録素材データDに対してデータ量の削減のための処理を実行したうえで端末装置14に送信することも可能である。
On the other hand, a user (including an administrator) who desires adjustment of the control data C (content editing) instructs the start of adjustment by operating the
端末装置14の制御装置20は、操作装置28に対する利用者からの指示に応じて制御データCを調整する(S11)。図8は、利用者による制御データCの調整のために端末装置14の表示装置32に表示される画面(以下「調整画面」という)322の模式図である。調整画面322の表示には、例えば汎用のウェブブラウザが利用される。
The
図8に例示される通り、調整画面322は、相異なる収録素材データDの動画を表象する複数の単位画像324を包含する。具体的には、収録素材データDの動画に包含される複数の画像(キャプチャ画像)の時系列が、当該収録素材データDの単位画像324として表示される。任意の1個の収録素材データDの単位画像324には、制御データCの動画制御データC2が当該収録素材データDに指定する選択区間の始点TSと終点TEとが表示される。利用者は、調整画面322を視認することで、各収録素材データDの動画の概略と当該収録素材データDのうちコンテンツに使用される選択区間とを確認することが可能である。
As illustrated in FIG. 8, the
利用者は、操作装置28を適宜に操作することで、所望の収録素材データDの始点TSまたは終点TEを時間軸上で適宜に移動させることが可能である。任意の収録素材データDの1個の選択区間の始点TSの移動に連動して他の収録素材データDの直前の選択区間の終点TEが移動し、任意の収録素材データDの1個の選択区間の終点TEの移動に連動して他の収録素材データDの直後の選択区間の始点TSが移動する。また、利用者は、各収録素材データDに対応する複数の単位画像324の表示の順序(上下)を、操作装置28に対する操作で任意に変更することが可能である。なお、利用者による編集中の収録素材データDに対応する単位画像324を他の単位画像324とは別個の態様(例えば階調や色彩)で表示する構成も採用される。
The user can appropriately move the start point TS or the end point TE of the desired recorded material data D on the time axis by appropriately operating the
また、利用者は、操作装置28を適宜に操作することで、音響制御データC1が指定する音響処理の各変数の数値を任意に調整することが可能である。具体的には、各収録素材データDの音響のレベル(ミキシングレベル)や当該音響に付与される音響効果等が指定される。また、音響処理の各変数について事前に用意された設定値(プリセット)を利用者が選択することも可能である。利用者は、操作装置28を適宜に操作することで、当該時点での調整内容を反映した音響および動画を再生装置30に再生(プレビュー)させることが可能である。
In addition, the user can arbitrarily adjust the numerical value of each variable of the acoustic processing specified by the acoustic control data C1 by appropriately operating the
制御データCの調整が完了すると、利用者は、調整後の制御データCを適用した編集処理を操作装置28に対する操作で指示する。端末装置14の制御装置20は、当該指示の時点での調整内容を表す制御データCを生成する。具体的には、利用者による調整後の各変数の数値を指定する音響制御データC1と、利用者による調整後の各収録素材データDの選択区間を指定する動画制御データC2とが生成される。通信装置24は、制御装置20が生成した制御データCを映像処理装置12に送信する(S12)。端末装置14から送信された制御データCは、映像処理装置12の通信装置44により受信されて記憶装置42に格納される(S13)。以上の説明から理解される通り、第1処理部541が生成した初期的な制御データCを端末装置14の利用者からの指示に応じて更新した制御データCが映像処理装置12の記憶装置42に格納される。
When the adjustment of the control data C is completed, the user instructs an editing process to which the adjusted control data C is applied by operating the
映像処理装置12における編集処理部54の第2処理部542は、利用者による調整後の制御データCを適用した編集処理を同期処理後の複数の収録素材データDに対して実行することでコンテンツを生成する(S14)。具体的には、第2処理部542は、音響制御データC1で規定される音響処理を収録素材データDの音響に対して実行することでコンテンツの音響を生成する。また、第2処理部542は、動画制御データC2で規定される各収録素材データDの動画の選択区間を時間軸上で相互に連結することでコンテンツの動画を生成する。
The
編集処理部54(第2処理部542)が生成したコンテンツは、例えば通信装置44から近距離無線通信で端末装置14に送信されて当該端末装置14の再生装置30で再生される。また、編集処理部54が生成したコンテンツを例えば動画投稿サイトにアップロードし、任意の情報端末を利用して再生することも可能である。
The content generated by the editing processing unit 54 (second processing unit 542) is transmitted from the
以上に説明した通り、本実施形態では、映像処理装置12の各要素(制御装置40,記憶装置42,通信装置44)が可搬型の筐体120に収容され、複数の端末装置14から通信装置44が無線通信で受信した複数の収録素材データDに対する編集処理でコンテンツが生成される。すなわち、映像処理装置12を適切な位置に運搬および配置することで、複数の収録素材データDの取得と複数の収録素材データDに対する編集処理とが実現される。したがって、特許文献1の技術で必要となる大規模な収録システムを必要とせずに、相異なる位置で収録された複数の音響や動画を含むコンテンツを簡便に生成できるという利点がある。
As described above, in this embodiment, each element (the
各端末装置14による収録素材データDの収録前に複数の端末装置14に共通の識別情報Xが送信され、当該識別情報Xが付加された収録素材データDを対象として編集処理が実行される。したがって、例えば端末装置14で過去に収録された無関係な音響や動画が編集処理の対象とされてコンテンツに含められる可能性を低減できるという利点がある。
Before the recording material data D is recorded by each
端末装置14に対する利用者からの指示に応じた制御データCを映像処理装置12の通信装置44が受信し、当該制御データCを適用した編集処理でコンテンツが生成される。したがって、端末装置14の利用者の意図を反映したコンテンツを生成できるという利点がある。例えば、個々の利用者が特に注目する特定の被写体(例えば自分の子供やペット)を含むコンテンツを生成することが可能である。また、編集処理の実行前に複数の収録素材データDを相互に同期させるから、時間的に相互に整合した複数の収録素材データDを統合した適切なコンテンツを生成できるという利点がある。
The
本実施形態の映像処理システム100は、例えば以下の場面で好適に利用される。
(1)音楽ライブ
映像処理装置12がライブ会場に運搬および配置される。各演奏者は端末装置14を利用して自身の演奏の様子を収録し、各観客は自身の端末装置14を利用して自分の観客席からライブの様子を収録する。端末装置14が生成した複数の収録素材データDを映像処理装置12にて受信および編集することで、各演奏者に注目した動画と観客席から撮影された動画とが順次に切替わるコンテンツが生成される。当該コンテンツは、例えば動画投稿サイトにアップロードされて任意の情報端末で再生することが可能である。
The
(1) Music live The
(2)実演会(例えば学芸会,演奏会,講演会)
映像処理装置12が実演会の会場に運搬および配置される。管理者は端末装置14を利用して舞台の全体的な様子を収録し、各観覧者は特定の出演者(例えば学芸会ならば自分の子供)を重点的に収録する。端末装置14が生成した複数の収録素材データDを映像処理装置12にて受信および編集することで、特定の出演者に注目した動画と舞台の全体を撮影した動画とが順次に切替わるコンテンツが生成される。当該コンテンツは有料または無料で希望者に提供される。例えば政治家による街頭演説(いわゆる辻立ち)を収録したコンテンツを生成することも可能である。以上の手順で生成されたコンテンツは、例えば動画投稿サイトにアップロードされて任意の情報端末で再生され得る。
(2) Demonstration (for example, a school, a concert, a lecture)
The
また、例えばダンス(社交ダンスやストリートダンス,日本舞踊,バレエ等の任意の舞踊を含む)の収録にも映像処理システム100が好適に利用され得る。例えば、模範的な実演者が舞踊する舞台の全体的な様子と実演者の身体の特定の部位(例えば手足等)の動作とを複数の端末装置14で多面的に収録し、収録後の複数の収録素材データDを映像処理装置12にて受信および編集することで、実演者の身体の特定の部位に順次に着目したコンテンツを生成することが可能である。したがって、実演者の全身を撮影した動画のみを参照する場合と比較して練習者がダンスを効果的に習得できる。
For example, the
(3)結婚式(冠婚葬祭)
映像処理装置12が結婚式や披露宴の会場に運搬および配置される。撮影業者等の管理者は端末装置14を利用して結婚式や披露宴の様子を収録し、各出席者は所望の場面を自身の端末装置14で収録する。端末装置14が生成した複数の収録素材データDを映像処理装置12にて受信および編集することで、結婚式や披露宴の様子を多様な角度および範囲で収録した動画が順次に切替わるコンテンツが生成され、例えば披露宴の歓談時や退席時に随時に再生される。
(3) Wedding (ceremonial occasion)
The
<変形例>
以上に例示した形態は多様に変形され得る。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2個以上の態様は、相互に矛盾しない範囲で適宜に併合され得る。
<Modification>
The form illustrated above can be variously modified. Specific modifications are exemplified below. Two or more modes arbitrarily selected from the following examples can be appropriately combined within a range that does not contradict each other.
(1)前述の形態では、音響および動画の双方を含む収録素材データDを例示したが、音響および動画の一方のみを含む収録素材データDを、音響および動画の双方を含む収録素材データDとともに利用してコンテンツを生成することも可能である。音響のみを含む収録素材データDに対する音響処理でコンテンツの音響が生成され、動画のみを含む収録素材データDに対する動画処理でコンテンツの動画が生成される。映像処理装置12に接続または装着された収音装置(例えばICレコーダ)を利用して、音響のみを含む収録素材データDを生成することも可能である。
(1) In the above-described embodiment, the recording material data D including both the sound and the moving image is exemplified. However, the recording material data D including only the sound and the moving image is combined with the recording material data D including both the sound and the moving image. It is also possible to generate content using it. The sound of the content is generated by the sound processing for the recorded material data D including only the sound, and the moving image of the content is generated by the moving image processing for the recorded material data D including only the moving image. It is also possible to generate recording material data D including only sound using a sound collecting device (for example, an IC recorder) connected to or attached to the
(2)識別情報Xを各端末装置14に提供するための構成は、前述の形態での例示に限定されない。例えば、映像処理装置12に近接(タッチ)した端末装置14と通信する短距離無線通信(NFC:Near Field Communication)を利用して端末装置14に識別情報Xを送信する構成や、例えば各利用者に対する頒布物に印刷されたQRコード(登録商標)の読取により端末装置14が識別情報Xを取得する構成も採用され得る。
(2) The configuration for providing the identification information X to each
なお、識別情報Xを前述の例示の同様に無線通信(例えば短距離無線通信を含む近距離無線通信)で端末装置14に送信する一方、収録素材データDや制御データCについては、識別情報Xの授受とは別方式の通信により映像処理装置12と端末装置14との間で授受する(S4,S9,S12)ことも可能である。以上の構成でも、映像処理装置12の周囲に位置する端末装置14に限定して識別情報Xを提供する(ひいては複数の収録素材データDの編集で所望の映像を作成するサービスに参加する)ことが可能である。なお、映像処理装置12と端末装置14との間における収録素材データDや制御データCの授受には、移動体通信網やインターネット等の通信網を介した通信が採用され得る。
The identification information X is transmitted to the
(3)前述の形態では、利用者が動画を調整する作業として選択区間(始点TS,終点TE)の移動を例示したが、利用者からの指示に応じた動画の調整は以上の例示に限定されない。例えば、端末装置14に保持された音響(例えば音楽)や動画を、収録素材データDの音響や動画とともにコンテンツに挿入することも可能である。
(3) In the above-described embodiment, the movement of the selected section (start point TS, end point TE) is exemplified as the work for the user to adjust the moving image. However, the adjustment of the moving image according to the instruction from the user is limited to the above examples. Not. For example, it is also possible to insert sound (for example, music) and a moving image held in the
(4)前述の形態では、通信装置44を筐体120に収容したが、通信装置44を筐体120の外部に配置することも可能である。通信装置44は、端末装置14から無線で受信した収録素材データDを、有線または無線により筐体120内の制御装置40に送信する。以上の構成によれば、映像処理装置12が収録素材データDを収集可能な端末装置14の範囲を拡大することが可能である。
(4) In the above-described embodiment, the
(5)以上に例示した映像処理装置12は、前述の通り制御装置40とプログラムとの協働で実現される。プログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされ得る。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体や磁気記録媒体等の公知の任意の形式の記録媒体を包含し得る。また、以上に例示したプログラムは、通信網を介した配信の形態で提供されてコンピュータにインストールされ得る。また、前述の形態に係る映像処理装置12の動作方法(映像処理方法)としても本発明は特定される。
(5) The
100……映像処理システム、12……映像処理装置、120……筐体、122……把持部、14……端末装置、20……制御装置、22……記憶装置、24……通信装置(無線通信部)、26……収録装置、28……操作装置、30……再生装置、32……表示装置、34……放音装置、40……制御装置、42……記憶装置、44……通信装置、46……操作装置、52……同期処理部、54……編集処理部、541……第1処理部、542……第2処理部。
DESCRIPTION OF
Claims (4)
前記無線通信部が受信した複数の収録素材データに対する編集処理でコンテンツを生成する編集処理部と、
前記無線通信部および前記編集処理部を収容する可搬型の筐体と
を具備する映像処理装置。 A wireless communication unit for receiving the recorded material data by wireless communication from a plurality of terminal devices capable of recording recorded data including sound and moving images;
An editing processing unit for generating content in editing processing for a plurality of recorded material data received by the wireless communication unit;
A video processing apparatus comprising: a portable housing that houses the wireless communication unit and the editing processing unit.
前記編集処理部は、前記識別情報が付加された収録素材データを対象として前記編集処理を実行する
請求項1の映像処理装置。 The wireless communication unit transmits common identification information added to the recorded material data in the terminal device to the plurality of terminal devices before recording the recorded material data by wireless communication,
The video processing apparatus according to claim 1, wherein the editing processing unit executes the editing process on recording material data to which the identification information is added.
前記編集処理部は、前記制御データを適用した前記編集処理を実行する
請求項1または請求項2の映像処理装置。 The wireless communication unit receives control data from the terminal device according to an instruction from a user for the terminal device,
The video processing device according to claim 1, wherein the editing processing unit executes the editing processing to which the control data is applied.
前記編集処理部は、前記同期処理部による処理後の複数の収録素材データに対する編集処理でコンテンツを生成する
請求項1から請求項3の何れかの映像処理装置。
A synchronization processing unit that synchronizes the plurality of recorded material data with each other using the sound of the recorded material data,
The video processing apparatus according to any one of claims 1 to 3, wherein the editing processing unit generates content by editing processing on a plurality of recorded material data after processing by the synchronization processing unit.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015129970A JP6610030B2 (en) | 2015-06-29 | 2015-06-29 | Video processing apparatus and video processing method |
PCT/JP2016/069175 WO2017002821A1 (en) | 2015-06-29 | 2016-06-28 | Video processing device, video processing method, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015129970A JP6610030B2 (en) | 2015-06-29 | 2015-06-29 | Video processing apparatus and video processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017017423A true JP2017017423A (en) | 2017-01-19 |
JP6610030B2 JP6610030B2 (en) | 2019-11-27 |
Family
ID=57608668
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015129970A Expired - Fee Related JP6610030B2 (en) | 2015-06-29 | 2015-06-29 | Video processing apparatus and video processing method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6610030B2 (en) |
WO (1) | WO2017002821A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019169852A (en) * | 2018-03-23 | 2019-10-03 | ヤマハ株式会社 | Information processing method and information processing unit |
WO2022209648A1 (en) * | 2021-03-31 | 2022-10-06 | ソニーグループ株式会社 | Information processing device, information processing method, and non-transitory computer-readable medium |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0970009A (en) * | 1995-09-04 | 1997-03-11 | Nippon Telegr & Teleph Corp <Ntt> | Moving image program edit method |
JP2003078864A (en) * | 2001-08-30 | 2003-03-14 | Nec Corp | System for providing camera image and time correction method for camera image |
JP2004134862A (en) * | 2002-10-08 | 2004-04-30 | Bunkyo Studio:Kk | Image distribution system and image distribution method |
JP2004247937A (en) * | 2003-02-13 | 2004-09-02 | Canon Inc | Image pickup device |
JP2006197223A (en) * | 2005-01-13 | 2006-07-27 | Mitsubishi Electric Corp | Image monitoring system and image monitoring method |
JP2009267773A (en) * | 2008-04-25 | 2009-11-12 | Hitachi Ltd | Video editing device, photographic device, and video-editing method |
JP2013080989A (en) * | 2011-09-30 | 2013-05-02 | Jvc Kenwood Corp | Moving image editing device, moving image editing method, and computer program |
JP2013131871A (en) * | 2011-12-20 | 2013-07-04 | Sharp Corp | Editing device, remote controller, television receiver, specific audio signal, editing system, editing method, program, and recording medium |
JP2015046756A (en) * | 2013-08-28 | 2015-03-12 | 株式会社ニコン | System, server, electronic apparatus, and program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6281737B2 (en) * | 2013-05-29 | 2018-02-21 | カシオ計算機株式会社 | Image processing apparatus, image processing system, image processing method, and program |
-
2015
- 2015-06-29 JP JP2015129970A patent/JP6610030B2/en not_active Expired - Fee Related
-
2016
- 2016-06-28 WO PCT/JP2016/069175 patent/WO2017002821A1/en active Application Filing
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0970009A (en) * | 1995-09-04 | 1997-03-11 | Nippon Telegr & Teleph Corp <Ntt> | Moving image program edit method |
JP2003078864A (en) * | 2001-08-30 | 2003-03-14 | Nec Corp | System for providing camera image and time correction method for camera image |
JP2004134862A (en) * | 2002-10-08 | 2004-04-30 | Bunkyo Studio:Kk | Image distribution system and image distribution method |
JP2004247937A (en) * | 2003-02-13 | 2004-09-02 | Canon Inc | Image pickup device |
JP2006197223A (en) * | 2005-01-13 | 2006-07-27 | Mitsubishi Electric Corp | Image monitoring system and image monitoring method |
JP2009267773A (en) * | 2008-04-25 | 2009-11-12 | Hitachi Ltd | Video editing device, photographic device, and video-editing method |
JP2013080989A (en) * | 2011-09-30 | 2013-05-02 | Jvc Kenwood Corp | Moving image editing device, moving image editing method, and computer program |
JP2013131871A (en) * | 2011-12-20 | 2013-07-04 | Sharp Corp | Editing device, remote controller, television receiver, specific audio signal, editing system, editing method, program, and recording medium |
JP2015046756A (en) * | 2013-08-28 | 2015-03-12 | 株式会社ニコン | System, server, electronic apparatus, and program |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019169852A (en) * | 2018-03-23 | 2019-10-03 | ヤマハ株式会社 | Information processing method and information processing unit |
WO2022209648A1 (en) * | 2021-03-31 | 2022-10-06 | ソニーグループ株式会社 | Information processing device, information processing method, and non-transitory computer-readable medium |
Also Published As
Publication number | Publication date |
---|---|
JP6610030B2 (en) | 2019-11-27 |
WO2017002821A1 (en) | 2017-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10887673B2 (en) | Method and system for associating recorded videos with highlight and event tags to facilitate replay services | |
JP6662063B2 (en) | Recording data processing method | |
JP2005341064A (en) | Information sender, information sending method, program, recording medium, display controller, and displaying method | |
JP2009003446A (en) | Content generation system, content generation device, and content generation program | |
WO2017157135A1 (en) | Media information processing method, media information processing device and storage medium | |
CN106385614A (en) | Picture synthesis method and apparatus | |
US10262693B2 (en) | Direct media feed enhanced recordings | |
KR20120040816A (en) | Operating method for file synthesis and portable device supporting the same | |
JP6610030B2 (en) | Video processing apparatus and video processing method | |
EP3258640A1 (en) | Location based authentication | |
CN113473224A (en) | Video processing method and device, electronic equipment and computer readable storage medium | |
JP2016063477A (en) | Conference system, information processing method and program | |
JP2023153790A (en) | program | |
JP2018085692A (en) | Image transmission device, image reception device, control method thereof, and image communication system | |
JP2013183280A (en) | Information processing device, imaging device, and program | |
JP2018533233A (en) | Content generation method and apparatus | |
WO2016184193A1 (en) | Method and apparatus for generating media files | |
JP7167629B2 (en) | guide system | |
JP2014212439A (en) | Display control device, control method, and program | |
JP2018146762A (en) | Karaoke device, remote controller | |
JP2018074337A (en) | Moving image processing device, moving image processing method, and program | |
KR101511868B1 (en) | Multimedia shot method and system by using multi camera device | |
JP2015179377A (en) | Imaging image editing device, imaging image editing method and program, as well as imaging image editing system | |
WO2022176633A1 (en) | Video editing device, video editing method, and computer program | |
JP2015159392A (en) | Operator terminal, mobile terminal, method for transmitting instruction, and operator terminal program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180419 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190326 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190527 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190716 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190912 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191001 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191014 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6610030 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |