JP2017017423A - Video processing apparatus - Google Patents

Video processing apparatus Download PDF

Info

Publication number
JP2017017423A
JP2017017423A JP2015129970A JP2015129970A JP2017017423A JP 2017017423 A JP2017017423 A JP 2017017423A JP 2015129970 A JP2015129970 A JP 2015129970A JP 2015129970 A JP2015129970 A JP 2015129970A JP 2017017423 A JP2017017423 A JP 2017017423A
Authority
JP
Japan
Prior art keywords
material data
recorded material
video processing
recording
recorded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015129970A
Other languages
Japanese (ja)
Other versions
JP6610030B2 (en
Inventor
祐 高橋
Yu Takahashi
祐 高橋
近藤 多伸
Kazunobu Kondo
多伸 近藤
佳孝 浦谷
Yoshitaka Uratani
佳孝 浦谷
健一 山内
Kenichi Yamauchi
健一 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2015129970A priority Critical patent/JP6610030B2/en
Priority to PCT/JP2016/069175 priority patent/WO2017002821A1/en
Publication of JP2017017423A publication Critical patent/JP2017017423A/en
Application granted granted Critical
Publication of JP6610030B2 publication Critical patent/JP6610030B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

PROBLEM TO BE SOLVED: To simply generate a content using plural materials recorded at positions different from each other.SOLUTION: A video processing apparatus 12 comprises: a communication apparatus 44 which receives recorded material data by wireless communication from plural terminal apparatuses 14 capable of recording the recorded material data including a sound and a moving image; an editing processing part 54 which generates a content by editing processing on plural pieces of recorded material data received by the communication apparatus 44; and a portable casing 120 which houses the communication apparatus 44 and the editing processing part 54.SELECTED DRAWING: Figure 4

Description

本発明は、音響および動画を処理する技術に関する。   The present invention relates to a technique for processing sound and moving images.

音響と動画とを含む素材を収録および編集する各種の技術が従来から提案されている。例えば特許文献1には、相異なる位置に設置された複数のカメラで撮影された映像を適宜に切替えて再生可能なマルチアングルビデオを生成する技術が開示されている。   Various techniques for recording and editing materials including sound and video have been proposed. For example, Patent Document 1 discloses a technique for generating a multi-angle video that can be played back by appropriately switching videos captured by a plurality of cameras installed at different positions.

特開2002−135706号公報JP 2002-135706 A

しかし、特許文献1の技術では、複数のカメラやマイクをケーブルで映像記録装置に接続した大規模な収録システムが必要であり、運搬や配置等の取扱いが煩雑であるという問題がある。以上の事情を考慮して、本発明は、相異なる位置で収録された複数の素材を利用したコンテンツを簡便に生成することを目的とする。   However, the technique of Patent Document 1 requires a large-scale recording system in which a plurality of cameras and microphones are connected to a video recording apparatus with cables, and there is a problem that handling such as transportation and arrangement is complicated. In view of the above circumstances, an object of the present invention is to easily generate content using a plurality of materials recorded at different positions.

以上の課題を解決するために、本発明の映像処理装置は、音響および動画を含む収録素材データを収録可能な複数の端末装置から無線通信により収録素材データを受信する無線通信部と、無線通信部が受信した複数の収録素材データに対する編集処理でコンテンツを生成する編集処理部と、無線通信部および編集処理部を収容する可搬型の筐体とを具備する。以上の態様では、無線通信部と編集処理部とが可搬型の筐体に収容され、複数の端末装置から無線通信で受信した複数の収録素材データに対する編集処理でコンテンツが生成される。すなわち、可搬型の映像処理装置を運搬および配置することで、複数の収録素材データの取得と複数の収録素材データに対する編集処理とが実現される。したがって、特許文献1の技術で必要となる大規模な収録システムを必要とせずに、相異なる位置で収録された音響や動画を含むコンテンツを簡便に生成できるという利点がある。   In order to solve the above problems, a video processing apparatus of the present invention includes a wireless communication unit that receives recorded material data by wireless communication from a plurality of terminal devices capable of recording recorded material data including sound and moving images, and wireless communication. An editing processing unit that generates content through editing processing on a plurality of recorded material data received by the unit, and a portable housing that houses the wireless communication unit and the editing processing unit. In the above aspect, the wireless communication unit and the editing processing unit are accommodated in the portable housing, and the content is generated by editing the plurality of recorded material data received from the plurality of terminal devices by wireless communication. That is, by transporting and arranging a portable video processing apparatus, acquisition of a plurality of recorded material data and editing processing for the plurality of recorded material data are realized. Therefore, there is an advantage that content including sound and moving images recorded at different positions can be easily generated without requiring a large-scale recording system required by the technique of Patent Document 1.

本発明の好適な態様において、無線通信部は、端末装置にて収録素材データに付加される共通の識別情報を収録素材データの収録前に複数の端末装置に無線通信で送信し、編集処理部は、識別情報が付加された収録素材データを対象として編集処理を実行する。以上の態様では、各端末装置による収録素材データの収録前に複数の端末装置に共通の識別情報が送信され、当該識別情報が付加された収録素材データを対象として編集処理が実行される。したがって、例えば端末装置で過去に収録された無関係な音響や動画が編集処理の対象とされる可能性を低減できる。   In a preferred aspect of the present invention, the wireless communication unit transmits common identification information added to the recorded material data by the terminal device to the plurality of terminal devices before recording the recorded material data, and an editing processing unit. Performs the editing process on the recorded material data to which the identification information is added. In the above aspect, common identification information is transmitted to a plurality of terminal devices before recording material data is recorded by each terminal device, and editing processing is executed on the recording material data to which the identification information is added. Therefore, for example, it is possible to reduce the possibility that an irrelevant sound or moving image recorded in the past by the terminal device is the target of the editing process.

本発明の好適な態様において、無線通信部は、端末装置に対する利用者からの指示に応じた制御データを端末装置から受信し、編集処理部は、制御データを適用した編集処理を実行する。以上の態様では、端末装置に対する利用者からの指示に応じた制御データが編集処理に適用されるから、端末装置の利用者の意図を反映したコンテンツを生成できるという利点がある。   In a preferred aspect of the present invention, the wireless communication unit receives control data corresponding to an instruction from the user for the terminal device from the terminal device, and the editing processing unit executes editing processing to which the control data is applied. In the above aspect, since the control data according to the instruction from the user with respect to the terminal device is applied to the editing process, there is an advantage that the content reflecting the intention of the user of the terminal device can be generated.

本発明の好適な態様に係る映像処理装置は、収録素材データの音響を利用して複数の収録素材データを相互に同期させる同期処理部を具備し、編集処理部は、同期処理部による処理後の複数の収録素材データに対する編集処理でコンテンツを生成する。以上の態様では、編集処理の実行前に複数の収録素材データを相互に同期させるから、時間的に相互に整合した複数の収録素材データを統合した適切なコンテンツを生成できるという利点がある。   The video processing apparatus according to a preferred aspect of the present invention includes a synchronization processing unit that synchronizes a plurality of recorded material data with each other using the sound of the recorded material data, and the editing processing unit is processed after the processing by the synchronous processing unit. The content is generated by editing the plurality of recorded material data. In the above aspect, since a plurality of recorded material data are synchronized with each other before execution of the editing process, there is an advantage that it is possible to generate appropriate content that integrates a plurality of recorded material data that are temporally aligned with each other.

本発明は、以上に例示した各形態に係る映像処理装置の動作方法(映像処理方法)としても特定され得る。本発明の好適な態様に係る映像処理方法は、無線通信部と編集処理部とを収容する可搬型の筐体を具備する映像処理装置により、無線通信部が、音響および動画を含む収録素材データを収録可能な複数の端末装置から無線通信により前記収録素材データを受信し、編集処理部が、前記無線通信部が受信した複数の収録素材データに対する編集処理でコンテンツを生成する。   The present invention can also be specified as an operation method (video processing method) of the video processing device according to each of the embodiments exemplified above. According to a preferred aspect of the present invention, there is provided a video processing method comprising: a video processing apparatus including a portable housing that accommodates a wireless communication unit and an editing processing unit, wherein the wireless communication unit includes recorded material data including sound and video. The recording material data is received by wireless communication from a plurality of terminal devices capable of recording the content, and the editing processing unit generates content by editing the plurality of recording material data received by the wireless communication unit.

本発明の実施形態に係る映像処理システムの構成図である。1 is a configuration diagram of a video processing system according to an embodiment of the present invention. 端末装置の構成図である。It is a block diagram of a terminal device. 複数の収録素材データの説明図である。It is explanatory drawing of several recording material data. 映像処理装置の構成図である。It is a block diagram of a video processing apparatus. 複数の収録素材データを相互に同期させる処理の説明図である。It is explanatory drawing of the process which mutually synchronizes several recording material data. 制御データの模式図である。It is a schematic diagram of control data. 映像処理システムの動作の説明図である。It is explanatory drawing of operation | movement of a video processing system. 調整画面の模式図である。It is a schematic diagram of an adjustment screen.

図1は、本発明の好適な態様に係る映像処理システム100の構成図である。映像処理システム100は、例えば演奏会や講演会等の種々のイベントの収録に利用されるコンピュータシステムであり、図1に例示される通り、映像処理装置12と複数の端末装置14とを具備する。複数の端末装置14の各々は、例えば携帯電話機やスマートフォン、タブレット端末、パーソナルコンピュータ等の可搬型の通信端末である。概略的には、複数の端末装置14の各々が収録した音響および動画のデータ(以下「収録素材データ」という)を映像処理装置12が収集および編集することで1個のコンテンツが生成される。   FIG. 1 is a configuration diagram of a video processing system 100 according to a preferred aspect of the present invention. The video processing system 100 is a computer system used for recording various events such as concerts and lectures, and includes a video processing device 12 and a plurality of terminal devices 14 as illustrated in FIG. . Each of the plurality of terminal devices 14 is a portable communication terminal such as a mobile phone, a smartphone, a tablet terminal, or a personal computer. Schematically, the video processing device 12 collects and edits audio and video data (hereinafter referred to as “recorded material data”) recorded by each of the plurality of terminal devices 14 to generate one content.

図2は、任意の1個の端末装置14を例示する構成図である。図2に例示される通り、端末装置14は、制御装置20と記憶装置22と通信装置24と収録装置26と操作装置28と再生装置30とを具備する。制御装置20は、端末装置14の各要素を統括的に制御する演算処理装置(例えばCPU)である。記憶装置22は、磁気記録媒体や半導体記録媒体等の公知の記録媒体で構成され、制御装置20が実行するプログラムや制御装置20が使用する各種のデータを記憶する。   FIG. 2 is a configuration diagram illustrating an arbitrary one terminal device 14. As illustrated in FIG. 2, the terminal device 14 includes a control device 20, a storage device 22, a communication device 24, a recording device 26, an operation device 28, and a playback device 30. The control device 20 is an arithmetic processing device (for example, CPU) that comprehensively controls each element of the terminal device 14. The storage device 22 is configured by a known recording medium such as a magnetic recording medium or a semiconductor recording medium, and stores a program executed by the control device 20 and various data used by the control device 20.

再生装置30は、制御装置20から指示された画像を表示する表示装置32と、制御装置20から指示された音響を放音する放音装置34とを包含する。操作装置28は、端末装置14の利用者からの指示を受付ける入力機器である。利用者が操作可能な複数の操作子や表示装置32の表示面に対する接触を検知するタッチパネルが操作装置28として利用される。   The playback device 30 includes a display device 32 that displays an image instructed by the control device 20 and a sound emitting device 34 that emits sound instructed by the control device 20. The operation device 28 is an input device that receives an instruction from a user of the terminal device 14. A plurality of operators that can be operated by the user and a touch panel that detects contact with the display surface of the display device 32 are used as the operation device 28.

収録装置26は、収録素材データDを生成する映像機器である。本実施形態の収録装置26は、音響を収音する収音装置と動画を撮像する撮像装置とを具備し、収音装置が収音した音響と撮像装置が撮像した動画とを表す収録素材データDを生成する。各端末装置14の利用者は、当該端末装置14の収録装置26を利用して、例えば相異なる位置で共通の収録対象(例えば演奏会等のイベント)の音響および動画を並列に収録する。すなわち、各端末装置14の収録装置26は、音響ホール等の共通の音響空間の相異なる地点に配置され、各々が別個の角度から例えば舞台や観客の様子を収録して収録素材データDを生成する。   The recording device 26 is a video device that generates recording material data D. The recording device 26 according to the present embodiment includes a sound collecting device that collects sound and an imaging device that picks up a moving image, and recording material data that represents the sound collected by the sound collecting device and the moving image picked up by the imaging device. D is generated. A user of each terminal device 14 uses the recording device 26 of the terminal device 14 to record sound and moving images of a common recording target (for example, an event such as a concert) in parallel at different positions, for example. That is, the recording devices 26 of each terminal device 14 are arranged at different points in a common acoustic space such as an acoustic hall, and each of them records, for example, the state of the stage and the audience from different angles to generate the recording material data D To do.

図3には、各端末装置14の収録装置26が生成する複数の収録素材データD(D1,D2,D3)が例示されている。図3に例示される通り、任意の1個の収録素材データDは、相互に並列に収録された音響および動画を包含する。音響や動画の収録の開始点は複数の収録素材データDの間で相違し得る。また、複数の収録素材データDは、相互に共通の音響(ただし音量等の音響特性は相違し得る)を含有する。   FIG. 3 illustrates a plurality of recorded material data D (D1, D2, D3) generated by the recording device 26 of each terminal device 14. As illustrated in FIG. 3, any one recorded material data D includes sound and moving images recorded in parallel with each other. The starting point of recording of sound and moving images can be different among a plurality of recorded material data D. In addition, the plurality of recorded material data D contain sounds common to each other (however, sound characteristics such as volume may be different).

図2の通信装置24は、映像処理装置12と通信する通信機器である。本実施形態の通信装置24は、例えばWi-Fi(登録商標)やBluetooth(登録商標)等の公知の近距離無線通信により映像処理装置12と通信する。具体的には、通信装置24は、収録装置26が生成した収録素材データDを近距離無線通信により映像処理装置12に送信する。なお、端末装置14と映像処理装置12との間の通信方式は任意である。   The communication device 24 in FIG. 2 is a communication device that communicates with the video processing device 12. The communication device 24 of the present embodiment communicates with the video processing device 12 by known short-range wireless communication such as Wi-Fi (registered trademark) or Bluetooth (registered trademark). Specifically, the communication device 24 transmits the recording material data D generated by the recording device 26 to the video processing device 12 by short-range wireless communication. The communication method between the terminal device 14 and the video processing device 12 is arbitrary.

図4は、映像処理装置12を例示する構成図である。本実施形態の映像処理装置12は、各端末装置14が生成した複数の収録素材データDを処理するコンピュータシステムであり、図4に例示される通り、制御装置40と記憶装置42と通信装置44と操作装置46とを具備する。制御装置40と記憶装置42と通信装置44とは図1の可搬型の筐体120に収容され、操作装置46は筐体120に設置される(図1では図示略)。本実施形態の映像処理装置12は、例えば管理者(例えば収録対象のイベントの運営者)が人力で運搬可能な一体の可搬型装置である。具体的には、図1に例示される通り、管理者が把持可能な把持部122(取っ手)が筐体120の頂面に設置され、管理者は把持部122を把持した状態で映像処理装置12を任意の位置に運搬および配置することが可能である。具体的には、演奏会や講演会等の種々のイベントが開催される場所に映像処理装置12が運搬および配置される。   FIG. 4 is a configuration diagram illustrating the video processing device 12. The video processing device 12 according to the present embodiment is a computer system that processes a plurality of recorded material data D generated by each terminal device 14. As illustrated in FIG. 4, the control device 40, the storage device 42, and the communication device 44. And an operating device 46. The control device 40, the storage device 42, and the communication device 44 are accommodated in the portable housing 120 of FIG. 1, and the operation device 46 is installed in the housing 120 (not shown in FIG. 1). The video processing apparatus 12 according to the present embodiment is an integral portable apparatus that can be transported manually by, for example, an administrator (for example, an operator of an event to be recorded). Specifically, as illustrated in FIG. 1, a grip unit 122 (handle) that can be gripped by the administrator is installed on the top surface of the housing 120, and the video processing apparatus is in a state where the administrator grips the grip unit 122. It is possible to transport and place 12 at any location. Specifically, the video processing device 12 is transported and arranged at a place where various events such as a concert and a lecture are held.

図4の操作装置46は、映像処理装置12に対する指示を映像処理装置12の管理者から受付ける入力機器である。なお、管理者が端末装置14を利用して映像処理装置12に各種の指示を遠隔で付与することも可能である。したがって、映像処理装置12から操作装置46は省略され得る。通信装置(無線通信部の例示)44は、複数の端末装置14の各々と通信する。具体的には、通信装置44は、複数の端末装置14から近距離無線通信により収録素材データDを受信する。以上の説明から理解される通り、本実施形態では、映像処理装置12と各端末装置14との間の無線通信の方式として、移動体通信網やインターネット等の通信網が装置間に介在しない近距離無線通信を例示する。   The operation device 46 in FIG. 4 is an input device that receives an instruction for the video processing device 12 from the administrator of the video processing device 12. Note that the administrator can remotely give various instructions to the video processing device 12 using the terminal device 14. Accordingly, the operation device 46 can be omitted from the video processing device 12. A communication device (an example of a wireless communication unit) 44 communicates with each of the plurality of terminal devices 14. Specifically, the communication device 44 receives the recorded material data D from the plurality of terminal devices 14 by short-range wireless communication. As understood from the above description, in the present embodiment, as a method of wireless communication between the video processing device 12 and each terminal device 14, a communication network such as a mobile communication network or the Internet is not interposed between the devices. The distance wireless communication is illustrated.

記憶装置42は、例えば磁気記録媒体や半導体記録媒体等の公知の記録媒体で構成され、制御装置40が実行するプログラムや制御装置40が使用する各種のデータを記憶する。なお、映像処理装置12が通信可能なサーバに記憶装置42(すなわちクラウドストレージ)を設置することも可能である。すなわち、映像処理装置12から記憶装置42は省略され得る。記憶装置42は、通信装置44が複数の端末装置14から受信した複数の収録素材データDを記憶する。   The storage device 42 is composed of a known recording medium such as a magnetic recording medium or a semiconductor recording medium, and stores a program executed by the control device 40 and various data used by the control device 40. Note that the storage device 42 (that is, a cloud storage) can be installed in a server with which the video processing device 12 can communicate. That is, the storage device 42 can be omitted from the video processing device 12. The storage device 42 stores a plurality of recorded material data D received by the communication device 44 from the plurality of terminal devices 14.

制御装置40は、映像処理装置12の各要素を統括的に制御する演算処理装置(例えばCPU)である。本実施形態の制御装置40は、記憶装置42に記憶されたプログラムを実行することで、通信装置44が端末装置14から受信した複数の収録素材データDを処理するための複数の機能(同期処理部52,編集処理部54)を実現する。前述の説明から理解される通り、同期処理部52および編集処理部54は筐体120に収容される。なお、制御装置40の一部の機能を音響処理または画像処理の専用の電子回路で実現した構成や、制御装置40の機能を複数の装置に分散した構成も採用され得る。   The control device 40 is an arithmetic processing device (for example, CPU) that controls each element of the video processing device 12 in an integrated manner. The control device 40 according to the present embodiment executes a program stored in the storage device 42 to thereby execute a plurality of functions (synchronization processing) for processing a plurality of recorded material data D received by the communication device 44 from the terminal device 14. Unit 52 and edit processing unit 54). As understood from the above description, the synchronization processing unit 52 and the editing processing unit 54 are accommodated in the housing 120. A configuration in which a part of the function of the control device 40 is realized by an electronic circuit dedicated to sound processing or image processing, or a configuration in which the function of the control device 40 is distributed to a plurality of devices may be employed.

図4の同期処理部52は、複数の端末装置14から受信した複数の収録素材データDを相互に同期させる。複数の収録素材データDの同期とは、各収録素材データDの音響および動画の時間軸が複数の収録素材データDにわたり相互に合致する状態を意味する。すなわち、同期処理部52は、図5に例示される通り、各収録素材データDにおける特定の時刻が複数の収録素材データDにわたり時間軸上の共通の時点となるように各収録素材データDの時間軸上の位置を調整する。複数の収録素材データDの同期には公知の技術が任意に採用され得るが、例えば図5の例示からも理解される通り、各収録素材データDの音響を解析することで複数の収録素材データDを相互に同期させる構成が好適である。すなわち、各収録素材データDの音響の時間変動が複数の収録素材データDにわたり時間軸上で整合するように各収録素材データDの時間軸上の位置が調整される。   4 synchronizes the plurality of recorded material data D received from the plurality of terminal devices 14 with each other. The synchronization of a plurality of recorded material data D means a state in which the sound and moving image time axes of the recorded material data D coincide with each other over the plurality of recorded material data D. That is, as illustrated in FIG. 5, the synchronization processing unit 52 stores each recorded material data D so that a specific time in each recorded material data D is a common time point on the time axis over a plurality of recorded material data D. Adjust the position on the time axis. A known technique can be arbitrarily employed for synchronizing a plurality of recorded material data D. For example, as understood from the example of FIG. 5, a plurality of recorded material data are analyzed by analyzing the sound of each recorded material data D. A configuration in which Ds are synchronized with each other is preferable. That is, the position of each recording material data D on the time axis is adjusted so that the time variation of the sound of each recording material data D is consistent over the plurality of recording material data D on the time axis.

図4の編集処理部54は、同期処理部52による同期処理後の複数の収録素材データDに対する処理(以下「編集処理」という)でコンテンツを生成する。編集処理は、収録素材データDの音響を調整する音響処理と、収録素材データDの動画を編集する動画処理とを包含する。音響処理は、複数の収録素材データDの音響に対するミキシングやマスタリング等の処理を包含する。動画処理は、複数の収録素材データDの各々の動画の一部(以下「選択区間」という)を時間軸上で相互に連結する処理である。編集処理部54が生成するコンテンツは、以上に例示した音響処理後の音響と動画処理後の動画(すなわち、複数の収録素材データDの何れかに順次に切替わる動画)とを包含する。なお、複数の収録素材データDの何れかの音響を音響処理により調整してコンテンツに利用することも可能である。   4 generates content by processing (hereinafter referred to as “editing processing”) for a plurality of recorded material data D after the synchronization processing by the synchronization processing unit 52. The editing process includes an acoustic process for adjusting the sound of the recorded material data D and a moving image process for editing a moving image of the recorded material data D. The sound processing includes processing such as mixing and mastering for the sound of the plurality of recorded material data D. The moving image processing is processing for connecting a part of each moving image of the plurality of recorded material data D (hereinafter referred to as “selected section”) on the time axis. The content generated by the editing processing unit 54 includes the sound after the sound processing exemplified above and the moving image after the moving image processing (that is, the moving image sequentially switched to any one of the plurality of recorded material data D). Note that any sound of the plurality of recorded material data D can be adjusted by sound processing and used for content.

図4に例示される通り、本実施形態の編集処理部54は、第1処理部541と第2処理部542とを包含する。第1処理部541は、複数の収録素材データDの編集処理に適用される制御データCを生成する。図6は、制御データCの模式図である。図6に例示される通り、制御データCは、音響制御データC1と動画制御データC2とを包含する。音響制御データC1は、前述の音響処理(ミキシングやマスタリング)に適用される各変数の数値を指定する。第1処理部541は、例えば、音響処理の各変数が初期値に設定された初期的な音響制御データC1を生成する。   As illustrated in FIG. 4, the edit processing unit 54 of the present embodiment includes a first processing unit 541 and a second processing unit 542. The first processing unit 541 generates control data C that is applied to editing processing of a plurality of recorded material data D. FIG. 6 is a schematic diagram of the control data C. As illustrated in FIG. 6, the control data C includes acoustic control data C1 and moving image control data C2. The acoustic control data C1 designates the numerical value of each variable applied to the above-described acoustic processing (mixing or mastering). For example, the first processing unit 541 generates initial acoustic control data C1 in which each variable of acoustic processing is set to an initial value.

他方、動画制御データC2は、各収録素材データDの各選択区間(すなわちコンテンツを構成する部分)を指定する。具体的には、動画制御データC2は、図6に例示される通り、相異なる選択区間に対応する複数の単位データUの時系列で構成される。任意の1個の選択区間に対応する単位データUは、当該選択区間を含む1個の収録素材データDの識別情報と、当該選択区間の始点および終点とを指定する。第1処理部541は、同期処理後の複数の収録素材データDの間で選択区間が相互に重複しないように各収録素材データDからランダムに抽出された選択区間を指定する初期的な動画制御データC2を生成する。   On the other hand, the moving image control data C2 designates each selected section (that is, a part constituting the content) of each recorded material data D. Specifically, the moving image control data C2 is configured by a time series of a plurality of unit data U corresponding to different selection sections, as illustrated in FIG. The unit data U corresponding to any one selected section designates identification information of one recorded material data D including the selected section, and the start point and end point of the selected section. The first processing unit 541 is an initial video control that designates a selection section randomly extracted from each recording material data D so that the selection sections do not overlap each other among the plurality of recording material data D after the synchronization processing. Data C2 is generated.

第1処理部541が生成した初期的な制御データC(音響制御データC1,動画制御データC2)は、端末装置14に対する利用者からの指示に応じて更新される。図4の第2処理部542は、更新後の制御データCを適用した複数の収録素材データDに対する編集処理でコンテンツ(例えば動画ファイル)を生成する。編集処理部54(第2処理部542)が生成したコンテンツが例えば通信装置44から端末装置14に近距離無線通信により送信されて当該端末装置14の再生装置30で再生される。   Initial control data C (acoustic control data C1, moving image control data C2) generated by the first processing unit 541 is updated according to an instruction from the user to the terminal device 14. The second processing unit 542 in FIG. 4 generates content (for example, a moving image file) by editing the plurality of recorded material data D to which the updated control data C is applied. The content generated by the editing processing unit 54 (second processing unit 542) is transmitted, for example, from the communication device 44 to the terminal device 14 by short-range wireless communication and is played back by the playback device 30 of the terminal device 14.

図7は、映像処理システム100の動作の説明図である。各端末装置14の記憶装置22に記憶されたプログラム(アプリケーションプログラム)が利用者からの指示に応じて起動された状態で、映像処理装置12の操作装置46に対する管理者からの所定の操作(動作開始の指示)を契機として図7の処理が開始される。   FIG. 7 is an explanatory diagram of the operation of the video processing system 100. In a state where a program (application program) stored in the storage device 22 of each terminal device 14 is activated in accordance with an instruction from the user, a predetermined operation (operation) from the administrator to the operation device 46 of the video processing device 12 is performed. The process of FIG. 7 is started with a start instruction).

まず、映像処理装置12の通信装置44は、当該映像処理装置12の周囲に位置する複数の端末装置14に対して近距離無線通信で識別情報Xを送信する(S1)。識別情報Xは、今回の映像処理装置12の一連の動作を識別するための符号である。以上の説明から理解される通り、各端末装置14の収録装置26による収録動作の実行前に、映像処理装置12の周囲の複数の端末装置14に対して共通の識別情報Xが送信される。識別情報Xは、各端末装置14の通信装置24により受信されたうえで記憶装置22に格納される(S2)。   First, the communication device 44 of the video processing device 12 transmits identification information X to the plurality of terminal devices 14 located around the video processing device 12 by short-range wireless communication (S1). The identification information X is a code for identifying a series of operations of the current video processing device 12. As understood from the above description, the common identification information X is transmitted to the plurality of terminal devices 14 around the video processing device 12 before the recording operation by the recording device 26 of each terminal device 14 is executed. The identification information X is received by the communication device 24 of each terminal device 14 and then stored in the storage device 22 (S2).

各端末装置14の収録装置26は、操作装置28に対する利用者からの操作を契機として音響および動画の収録動作を実行して収録素材データDを生成する(S3)。例えば、収録対象のイベントの開始を契機として複数の端末装置14により並列に収録が開始される。収録装置26が生成した収録素材データDは、映像処理装置12から受信した識別情報Xが付加された状態で記憶装置22に格納される。すなわち、複数の端末装置14により収録される複数の収録素材データDに共通の識別情報Xが付加される。   The recording device 26 of each terminal device 14 generates recording material data D by executing a recording operation of sound and moving images triggered by a user operation on the operation device 28 (S3). For example, recording is started in parallel by a plurality of terminal devices 14 triggered by the start of an event to be recorded. The recording material data D generated by the recording device 26 is stored in the storage device 22 with the identification information X received from the video processing device 12 added. That is, common identification information X is added to a plurality of recorded material data D recorded by a plurality of terminal devices 14.

収録装置26による収録動作が終了すると、通信装置24は、記憶装置22に記憶された収録素材データDを識別情報Xとともに近距離無線通信で映像処理装置12に送信する(S4)。例えば、操作装置28に対する利用者からの操作(収録動作の終了の指示)を契機として、収録素材データDと識別情報Xとが通信装置24から映像処理装置12に送信される。ただし、収録動作の終了および収録素材データDの送信の契機は、利用者からの指示に限定されない。例えば、識別情報Xの受信から所定の有効期間が経過した時点や所定の時刻(例えばイベントの終了時刻)が到来した時点で、各端末装置14が収録動作を終了して収録素材データDを映像処理装置12に送信することも可能である。また、映像処理装置12から送信された終了指示の受信を契機として収録素材データDの送信を開始することも可能である。複数の端末装置14から並列に送信された複数の収録素材データDは、映像処理装置12の通信装置44により受信されたうえで記憶装置42に格納される(S5)。   When the recording operation by the recording device 26 is completed, the communication device 24 transmits the recording material data D stored in the storage device 22 together with the identification information X to the video processing device 12 by short-range wireless communication (S4). For example, the recording material data D and the identification information X are transmitted from the communication device 24 to the video processing device 12 in response to an operation from the user (an instruction to end the recording operation) on the operation device 28. However, the trigger for the end of the recording operation and the transmission of the recording material data D is not limited to the instruction from the user. For example, when a predetermined valid period has elapsed since the reception of the identification information X or when a predetermined time (for example, the end time of the event) has arrived, each terminal device 14 ends the recording operation and displays the recorded material data D as video. It is also possible to transmit to the processing device 12. It is also possible to start transmission of recorded material data D triggered by reception of an end instruction transmitted from the video processing device 12. The plurality of recorded material data D transmitted in parallel from the plurality of terminal devices 14 is received by the communication device 44 of the video processing device 12 and then stored in the storage device 42 (S5).

映像処理装置12の同期処理部52は、端末装置14から受信した複数の収録素材データDの音響を相互に照合することで各収録素材データDを相互に同期させる(S6)。また、編集処理部54の第1処理部541は、同期処理部52による同期処理後の各収録素材データDについて初期的な制御データC(音響制御データC1,動画制御データC2)を生成する(S7)。   The synchronization processing unit 52 of the video processing device 12 synchronizes the recording material data D with each other by collating the sounds of the plurality of recording material data D received from the terminal device 14 (S6). The first processing unit 541 of the editing processing unit 54 generates initial control data C (acoustic control data C1, moving image control data C2) for each recording material data D after the synchronization processing by the synchronization processing unit 52 ( S7).

他方、制御データCの調整(コンテンツの編集)を所望する利用者(管理者を含む)は、端末装置14の操作装置28に対する操作で調整開始を指示する。調整開始が指示されると、端末装置14の通信装置24は、調整要求を映像処理装置12に送信する(S8)。端末装置14から調整要求を受信すると、映像処理装置12の通信装置44は、記憶装置42に記憶された複数の収録素材データDと第1処理部541が生成した初期的な制御データCとを要求元の端末装置14に送信する(S9)。映像処理装置12から送信された複数の収録素材データDと制御データCとは、端末装置14の通信装置24により受信されて記憶装置22に格納される(S10)。なお、複数の収録素材データDに対してデータ量の削減のための処理を実行したうえで端末装置14に送信することも可能である。   On the other hand, a user (including an administrator) who desires adjustment of the control data C (content editing) instructs the start of adjustment by operating the operation device 28 of the terminal device 14. When the adjustment start is instructed, the communication device 24 of the terminal device 14 transmits an adjustment request to the video processing device 12 (S8). When receiving the adjustment request from the terminal device 14, the communication device 44 of the video processing device 12 receives the plurality of recorded material data D stored in the storage device 42 and the initial control data C generated by the first processing unit 541. The data is transmitted to the requesting terminal device 14 (S9). The plurality of recorded material data D and control data C transmitted from the video processing device 12 are received by the communication device 24 of the terminal device 14 and stored in the storage device 22 (S10). Note that it is also possible to perform processing for reducing the amount of data on a plurality of recorded material data D and transmit the data to the terminal device 14.

端末装置14の制御装置20は、操作装置28に対する利用者からの指示に応じて制御データCを調整する(S11)。図8は、利用者による制御データCの調整のために端末装置14の表示装置32に表示される画面(以下「調整画面」という)322の模式図である。調整画面322の表示には、例えば汎用のウェブブラウザが利用される。   The control device 20 of the terminal device 14 adjusts the control data C in accordance with an instruction from the user to the operation device 28 (S11). FIG. 8 is a schematic diagram of a screen (hereinafter, referred to as “adjustment screen”) 322 displayed on the display device 32 of the terminal device 14 for adjustment of the control data C by the user. For example, a general-purpose web browser is used to display the adjustment screen 322.

図8に例示される通り、調整画面322は、相異なる収録素材データDの動画を表象する複数の単位画像324を包含する。具体的には、収録素材データDの動画に包含される複数の画像(キャプチャ画像)の時系列が、当該収録素材データDの単位画像324として表示される。任意の1個の収録素材データDの単位画像324には、制御データCの動画制御データC2が当該収録素材データDに指定する選択区間の始点TSと終点TEとが表示される。利用者は、調整画面322を視認することで、各収録素材データDの動画の概略と当該収録素材データDのうちコンテンツに使用される選択区間とを確認することが可能である。   As illustrated in FIG. 8, the adjustment screen 322 includes a plurality of unit images 324 representing moving images of different recording material data D. Specifically, a time series of a plurality of images (capture images) included in the moving image of the recorded material data D is displayed as a unit image 324 of the recorded material data D. In the unit image 324 of any one recorded material data D, the start point TS and the end point TE of the selected section designated by the moving image control data C2 of the control data C for the recorded material data D are displayed. By visually recognizing the adjustment screen 322, the user can confirm the outline of the moving image of each recorded material data D and the selected section used for the content in the recorded material data D.

利用者は、操作装置28を適宜に操作することで、所望の収録素材データDの始点TSまたは終点TEを時間軸上で適宜に移動させることが可能である。任意の収録素材データDの1個の選択区間の始点TSの移動に連動して他の収録素材データDの直前の選択区間の終点TEが移動し、任意の収録素材データDの1個の選択区間の終点TEの移動に連動して他の収録素材データDの直後の選択区間の始点TSが移動する。また、利用者は、各収録素材データDに対応する複数の単位画像324の表示の順序(上下)を、操作装置28に対する操作で任意に変更することが可能である。なお、利用者による編集中の収録素材データDに対応する単位画像324を他の単位画像324とは別個の態様(例えば階調や色彩)で表示する構成も採用される。   The user can appropriately move the start point TS or the end point TE of the desired recorded material data D on the time axis by appropriately operating the operation device 28. In conjunction with the movement of the start point TS of one selected section of any recorded material data D, the end point TE of the selected section immediately before the other recorded material data D moves to select one of the selected recorded material data D. The start point TS of the selected section immediately after the other recorded material data D is moved in conjunction with the movement of the end point TE of the section. Further, the user can arbitrarily change the display order (up and down) of the plurality of unit images 324 corresponding to each recorded material data D by operating the operation device 28. A configuration in which the unit image 324 corresponding to the recording material data D being edited by the user is displayed in a mode (for example, gradation or color) different from the other unit images 324 is also employed.

また、利用者は、操作装置28を適宜に操作することで、音響制御データC1が指定する音響処理の各変数の数値を任意に調整することが可能である。具体的には、各収録素材データDの音響のレベル(ミキシングレベル)や当該音響に付与される音響効果等が指定される。また、音響処理の各変数について事前に用意された設定値(プリセット)を利用者が選択することも可能である。利用者は、操作装置28を適宜に操作することで、当該時点での調整内容を反映した音響および動画を再生装置30に再生(プレビュー)させることが可能である。   In addition, the user can arbitrarily adjust the numerical value of each variable of the acoustic processing specified by the acoustic control data C1 by appropriately operating the operation device 28. Specifically, the sound level (mixing level) of each recorded material data D, the sound effect imparted to the sound, and the like are designated. In addition, the user can select a set value (preset) prepared in advance for each variable of the acoustic processing. By appropriately operating the operation device 28, the user can cause the playback device 30 to play back (preview) the sound and the moving image reflecting the adjustment content at that time.

制御データCの調整が完了すると、利用者は、調整後の制御データCを適用した編集処理を操作装置28に対する操作で指示する。端末装置14の制御装置20は、当該指示の時点での調整内容を表す制御データCを生成する。具体的には、利用者による調整後の各変数の数値を指定する音響制御データC1と、利用者による調整後の各収録素材データDの選択区間を指定する動画制御データC2とが生成される。通信装置24は、制御装置20が生成した制御データCを映像処理装置12に送信する(S12)。端末装置14から送信された制御データCは、映像処理装置12の通信装置44により受信されて記憶装置42に格納される(S13)。以上の説明から理解される通り、第1処理部541が生成した初期的な制御データCを端末装置14の利用者からの指示に応じて更新した制御データCが映像処理装置12の記憶装置42に格納される。   When the adjustment of the control data C is completed, the user instructs an editing process to which the adjusted control data C is applied by operating the operation device 28. The control device 20 of the terminal device 14 generates control data C representing the adjustment content at the time of the instruction. Specifically, acoustic control data C1 that specifies the numerical value of each variable after adjustment by the user, and moving image control data C2 that specifies a selection section of each recording material data D after adjustment by the user are generated. . The communication device 24 transmits the control data C generated by the control device 20 to the video processing device 12 (S12). The control data C transmitted from the terminal device 14 is received by the communication device 44 of the video processing device 12 and stored in the storage device 42 (S13). As can be understood from the above description, the control data C obtained by updating the initial control data C generated by the first processing unit 541 in accordance with an instruction from the user of the terminal device 14 is the storage device 42 of the video processing device 12. Stored in

映像処理装置12における編集処理部54の第2処理部542は、利用者による調整後の制御データCを適用した編集処理を同期処理後の複数の収録素材データDに対して実行することでコンテンツを生成する(S14)。具体的には、第2処理部542は、音響制御データC1で規定される音響処理を収録素材データDの音響に対して実行することでコンテンツの音響を生成する。また、第2処理部542は、動画制御データC2で規定される各収録素材データDの動画の選択区間を時間軸上で相互に連結することでコンテンツの動画を生成する。   The second processing unit 542 of the editing processing unit 54 in the video processing apparatus 12 executes editing processing to which the control data C after adjustment by the user is applied to a plurality of recorded material data D after the synchronization processing, so that the content is processed. Is generated (S14). Specifically, the second processing unit 542 generates the sound of the content by executing the sound process defined by the sound control data C1 on the sound of the recorded material data D. Further, the second processing unit 542 generates a moving image of the content by connecting the moving image selection sections of the respective recording material data D defined by the moving image control data C2 on the time axis.

編集処理部54(第2処理部542)が生成したコンテンツは、例えば通信装置44から近距離無線通信で端末装置14に送信されて当該端末装置14の再生装置30で再生される。また、編集処理部54が生成したコンテンツを例えば動画投稿サイトにアップロードし、任意の情報端末を利用して再生することも可能である。   The content generated by the editing processing unit 54 (second processing unit 542) is transmitted from the communication device 44 to the terminal device 14 through short-range wireless communication, for example, and is played back by the playback device 30 of the terminal device 14. In addition, the content generated by the editing processing unit 54 can be uploaded to, for example, a video posting site and played back using an arbitrary information terminal.

以上に説明した通り、本実施形態では、映像処理装置12の各要素(制御装置40,記憶装置42,通信装置44)が可搬型の筐体120に収容され、複数の端末装置14から通信装置44が無線通信で受信した複数の収録素材データDに対する編集処理でコンテンツが生成される。すなわち、映像処理装置12を適切な位置に運搬および配置することで、複数の収録素材データDの取得と複数の収録素材データDに対する編集処理とが実現される。したがって、特許文献1の技術で必要となる大規模な収録システムを必要とせずに、相異なる位置で収録された複数の音響や動画を含むコンテンツを簡便に生成できるという利点がある。   As described above, in this embodiment, each element (the control device 40, the storage device 42, and the communication device 44) of the video processing device 12 is accommodated in the portable casing 120, and the communication devices are connected from the plurality of terminal devices 14. Content is generated by editing the plurality of recorded material data D received by the wireless communication 44. That is, by acquiring and arranging the video processing device 12 at an appropriate position, acquisition of a plurality of recorded material data D and editing processing for the plurality of recorded material data D are realized. Therefore, there is an advantage that content including a plurality of sounds and moving images recorded at different positions can be easily generated without requiring a large-scale recording system required by the technique of Patent Document 1.

各端末装置14による収録素材データDの収録前に複数の端末装置14に共通の識別情報Xが送信され、当該識別情報Xが付加された収録素材データDを対象として編集処理が実行される。したがって、例えば端末装置14で過去に収録された無関係な音響や動画が編集処理の対象とされてコンテンツに含められる可能性を低減できるという利点がある。   Before the recording material data D is recorded by each terminal device 14, the common identification information X is transmitted to the plurality of terminal devices 14, and the editing processing is executed on the recording material data D to which the identification information X is added. Therefore, for example, there is an advantage that it is possible to reduce the possibility that an irrelevant sound or moving image recorded in the past by the terminal device 14 is a target of editing processing and included in the content.

端末装置14に対する利用者からの指示に応じた制御データCを映像処理装置12の通信装置44が受信し、当該制御データCを適用した編集処理でコンテンツが生成される。したがって、端末装置14の利用者の意図を反映したコンテンツを生成できるという利点がある。例えば、個々の利用者が特に注目する特定の被写体(例えば自分の子供やペット)を含むコンテンツを生成することが可能である。また、編集処理の実行前に複数の収録素材データDを相互に同期させるから、時間的に相互に整合した複数の収録素材データDを統合した適切なコンテンツを生成できるという利点がある。   The communication device 44 of the video processing device 12 receives control data C corresponding to an instruction from the user to the terminal device 14, and content is generated by editing processing to which the control data C is applied. Therefore, there is an advantage that content reflecting the intention of the user of the terminal device 14 can be generated. For example, it is possible to generate content including a specific subject (for example, one's own child or pet) that an individual user particularly pays attention to. In addition, since the plurality of recorded material data D are synchronized with each other before the editing process is performed, there is an advantage that it is possible to generate appropriate content that integrates the plurality of recorded material data D that are temporally aligned with each other.

本実施形態の映像処理システム100は、例えば以下の場面で好適に利用される。
(1)音楽ライブ
映像処理装置12がライブ会場に運搬および配置される。各演奏者は端末装置14を利用して自身の演奏の様子を収録し、各観客は自身の端末装置14を利用して自分の観客席からライブの様子を収録する。端末装置14が生成した複数の収録素材データDを映像処理装置12にて受信および編集することで、各演奏者に注目した動画と観客席から撮影された動画とが順次に切替わるコンテンツが生成される。当該コンテンツは、例えば動画投稿サイトにアップロードされて任意の情報端末で再生することが可能である。
The video processing system 100 of the present embodiment is suitably used in the following scenes, for example.
(1) Music live The video processing device 12 is transported and arranged in a live venue. Each performer records his performance using the terminal device 14, and each spectator records his live performance from his spectator seat using his terminal device 14. The video processing device 12 receives and edits a plurality of recorded material data D generated by the terminal device 14, thereby generating content that sequentially switches between a video focused on each performer and a video shot from a spectator seat. Is done. The content can be uploaded to, for example, a video posting site and reproduced on any information terminal.

(2)実演会(例えば学芸会,演奏会,講演会)
映像処理装置12が実演会の会場に運搬および配置される。管理者は端末装置14を利用して舞台の全体的な様子を収録し、各観覧者は特定の出演者(例えば学芸会ならば自分の子供)を重点的に収録する。端末装置14が生成した複数の収録素材データDを映像処理装置12にて受信および編集することで、特定の出演者に注目した動画と舞台の全体を撮影した動画とが順次に切替わるコンテンツが生成される。当該コンテンツは有料または無料で希望者に提供される。例えば政治家による街頭演説(いわゆる辻立ち)を収録したコンテンツを生成することも可能である。以上の手順で生成されたコンテンツは、例えば動画投稿サイトにアップロードされて任意の情報端末で再生され得る。
(2) Demonstration (for example, a school, a concert, a lecture)
The video processing device 12 is transported and arranged at the venue for the demonstration. The manager uses the terminal device 14 to record the overall state of the stage, and each viewer focuses on a specific performer (for example, his / her child in the case of a school party). By receiving and editing a plurality of recorded material data D generated by the terminal device 14 with the video processing device 12, content that sequentially switches between a video that focuses on a specific performer and a video that captures the entire stage. Generated. The content is provided to the applicant for a fee or free of charge. For example, it is also possible to generate content that contains street speeches (so-called standing) by politicians. The content generated by the above procedure can be uploaded to, for example, a video posting site and reproduced on any information terminal.

また、例えばダンス(社交ダンスやストリートダンス,日本舞踊,バレエ等の任意の舞踊を含む)の収録にも映像処理システム100が好適に利用され得る。例えば、模範的な実演者が舞踊する舞台の全体的な様子と実演者の身体の特定の部位(例えば手足等)の動作とを複数の端末装置14で多面的に収録し、収録後の複数の収録素材データDを映像処理装置12にて受信および編集することで、実演者の身体の特定の部位に順次に着目したコンテンツを生成することが可能である。したがって、実演者の全身を撮影した動画のみを参照する場合と比較して練習者がダンスを効果的に習得できる。   For example, the video processing system 100 can be suitably used for recording dances (including any dances such as ballroom dance, street dance, Japanese dance, and ballet). For example, the overall appearance of the stage where an exemplary performer dances and the movements of specific parts of the performer's body (for example, limbs) are recorded in a multifaceted manner by a plurality of terminal devices 14, and a plurality of recorded recordings are recorded. The video processing apparatus 12 receives and edits the recorded material data D of the above, so that it is possible to generate content that focuses on specific parts of the performer's body sequentially. Therefore, the practitioner can effectively learn the dance as compared with the case where only the moving image in which the performer's whole body is photographed is referred to.

(3)結婚式(冠婚葬祭)
映像処理装置12が結婚式や披露宴の会場に運搬および配置される。撮影業者等の管理者は端末装置14を利用して結婚式や披露宴の様子を収録し、各出席者は所望の場面を自身の端末装置14で収録する。端末装置14が生成した複数の収録素材データDを映像処理装置12にて受信および編集することで、結婚式や披露宴の様子を多様な角度および範囲で収録した動画が順次に切替わるコンテンツが生成され、例えば披露宴の歓談時や退席時に随時に再生される。
(3) Wedding (ceremonial occasion)
The video processing device 12 is transported and arranged at a wedding or reception hall. A manager such as a photographer uses the terminal device 14 to record a wedding or reception, and each attendee records a desired scene using his / her terminal device 14. A plurality of recorded material data D generated by the terminal device 14 is received and edited by the video processing device 12 to generate content in which videos recorded at various angles and ranges of weddings and receptions are sequentially switched. For example, it is replayed at any time during a banquet chat or leaving.

<変形例>
以上に例示した形態は多様に変形され得る。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2個以上の態様は、相互に矛盾しない範囲で適宜に併合され得る。
<Modification>
The form illustrated above can be variously modified. Specific modifications are exemplified below. Two or more modes arbitrarily selected from the following examples can be appropriately combined within a range that does not contradict each other.

(1)前述の形態では、音響および動画の双方を含む収録素材データDを例示したが、音響および動画の一方のみを含む収録素材データDを、音響および動画の双方を含む収録素材データDとともに利用してコンテンツを生成することも可能である。音響のみを含む収録素材データDに対する音響処理でコンテンツの音響が生成され、動画のみを含む収録素材データDに対する動画処理でコンテンツの動画が生成される。映像処理装置12に接続または装着された収音装置(例えばICレコーダ)を利用して、音響のみを含む収録素材データDを生成することも可能である。 (1) In the above-described embodiment, the recording material data D including both the sound and the moving image is exemplified. However, the recording material data D including only the sound and the moving image is combined with the recording material data D including both the sound and the moving image. It is also possible to generate content using it. The sound of the content is generated by the sound processing for the recorded material data D including only the sound, and the moving image of the content is generated by the moving image processing for the recorded material data D including only the moving image. It is also possible to generate recording material data D including only sound using a sound collecting device (for example, an IC recorder) connected to or attached to the video processing device 12.

(2)識別情報Xを各端末装置14に提供するための構成は、前述の形態での例示に限定されない。例えば、映像処理装置12に近接(タッチ)した端末装置14と通信する短距離無線通信(NFC:Near Field Communication)を利用して端末装置14に識別情報Xを送信する構成や、例えば各利用者に対する頒布物に印刷されたQRコード(登録商標)の読取により端末装置14が識別情報Xを取得する構成も採用され得る。 (2) The configuration for providing the identification information X to each terminal device 14 is not limited to the example in the above-described form. For example, a configuration in which identification information X is transmitted to the terminal device 14 using short-field wireless communication (NFC: Near Field Communication) that communicates with the terminal device 14 that is in close proximity (touch) to the video processing device 12, for example, each user The terminal device 14 may acquire the identification information X by reading a QR code (registered trademark) printed on the cloth.

なお、識別情報Xを前述の例示の同様に無線通信(例えば短距離無線通信を含む近距離無線通信)で端末装置14に送信する一方、収録素材データDや制御データCについては、識別情報Xの授受とは別方式の通信により映像処理装置12と端末装置14との間で授受する(S4,S9,S12)ことも可能である。以上の構成でも、映像処理装置12の周囲に位置する端末装置14に限定して識別情報Xを提供する(ひいては複数の収録素材データDの編集で所望の映像を作成するサービスに参加する)ことが可能である。なお、映像処理装置12と端末装置14との間における収録素材データDや制御データCの授受には、移動体通信網やインターネット等の通信網を介した通信が採用され得る。   The identification information X is transmitted to the terminal device 14 by wireless communication (for example, short-range wireless communication including short-range wireless communication) in the same manner as in the above example, while the recorded material data D and control data C are identified by the identification information X It is also possible to send and receive between the video processing device 12 and the terminal device 14 by means of communication different from the sending and receiving (S4, S9, S12). Even in the above configuration, the identification information X is provided only to the terminal devices 14 located around the video processing device 12 (and thus participates in a service for creating a desired video by editing a plurality of recorded material data D). Is possible. In order to exchange the recording material data D and the control data C between the video processing device 12 and the terminal device 14, communication via a communication network such as a mobile communication network or the Internet can be employed.

(3)前述の形態では、利用者が動画を調整する作業として選択区間(始点TS,終点TE)の移動を例示したが、利用者からの指示に応じた動画の調整は以上の例示に限定されない。例えば、端末装置14に保持された音響(例えば音楽)や動画を、収録素材データDの音響や動画とともにコンテンツに挿入することも可能である。 (3) In the above-described embodiment, the movement of the selected section (start point TS, end point TE) is exemplified as the work for the user to adjust the moving image. However, the adjustment of the moving image according to the instruction from the user is limited to the above examples. Not. For example, it is also possible to insert sound (for example, music) and a moving image held in the terminal device 14 into the content together with the sound and moving image of the recorded material data D.

(4)前述の形態では、通信装置44を筐体120に収容したが、通信装置44を筐体120の外部に配置することも可能である。通信装置44は、端末装置14から無線で受信した収録素材データDを、有線または無線により筐体120内の制御装置40に送信する。以上の構成によれば、映像処理装置12が収録素材データDを収集可能な端末装置14の範囲を拡大することが可能である。 (4) In the above-described embodiment, the communication device 44 is accommodated in the housing 120, but the communication device 44 may be disposed outside the housing 120. The communication device 44 transmits the recording material data D received wirelessly from the terminal device 14 to the control device 40 in the housing 120 by wire or wirelessly. According to the above configuration, the range of the terminal device 14 in which the video processing device 12 can collect the recorded material data D can be expanded.

(5)以上に例示した映像処理装置12は、前述の通り制御装置40とプログラムとの協働で実現される。プログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされ得る。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体や磁気記録媒体等の公知の任意の形式の記録媒体を包含し得る。また、以上に例示したプログラムは、通信網を介した配信の形態で提供されてコンピュータにインストールされ得る。また、前述の形態に係る映像処理装置12の動作方法(映像処理方法)としても本発明は特定される。 (5) The video processing device 12 exemplified above is realized by the cooperation of the control device 40 and the program as described above. The program may be provided in a form stored in a computer-readable recording medium and installed in the computer. The recording medium is, for example, a non-transitory recording medium, and an optical recording medium (optical disk) such as a CD-ROM is a good example, but a known arbitrary one such as a semiconductor recording medium or a magnetic recording medium This type of recording medium can be included. Further, the program exemplified above can be provided in the form of distribution via a communication network and installed in a computer. The present invention is also specified as an operation method (video processing method) of the video processing device 12 according to the above-described embodiment.

100……映像処理システム、12……映像処理装置、120……筐体、122……把持部、14……端末装置、20……制御装置、22……記憶装置、24……通信装置(無線通信部)、26……収録装置、28……操作装置、30……再生装置、32……表示装置、34……放音装置、40……制御装置、42……記憶装置、44……通信装置、46……操作装置、52……同期処理部、54……編集処理部、541……第1処理部、542……第2処理部。

DESCRIPTION OF SYMBOLS 100 ... Video processing system, 12 ... Video processing apparatus, 120 ... Case, 122 ... Holding part, 14 ... Terminal device, 20 ... Control device, 22 ... Storage device, 24 ... Communication device ( Wireless communication unit), 26 ... recording device, 28 ... control device, 30 ... reproducing device, 32 ... display device, 34 ... sound emitting device, 40 ... control device, 42 ... storage device, 44 ... ... Communication device, 46 ... Operating device, 52 ... Synchronization processing unit, 54 ... Editing processing unit, 541 ... First processing unit, 542 ... Second processing unit.

Claims (4)

音響および動画を含む収録素材データを収録可能な複数の端末装置から無線通信により前記収録素材データを受信する無線通信部と、
前記無線通信部が受信した複数の収録素材データに対する編集処理でコンテンツを生成する編集処理部と、
前記無線通信部および前記編集処理部を収容する可搬型の筐体と
を具備する映像処理装置。
A wireless communication unit for receiving the recorded material data by wireless communication from a plurality of terminal devices capable of recording recorded data including sound and moving images;
An editing processing unit for generating content in editing processing for a plurality of recorded material data received by the wireless communication unit;
A video processing apparatus comprising: a portable housing that houses the wireless communication unit and the editing processing unit.
前記無線通信部は、前記端末装置にて前記収録素材データに付加される共通の識別情報を前記収録素材データの収録前に前記複数の端末装置に無線通信で送信し、
前記編集処理部は、前記識別情報が付加された収録素材データを対象として前記編集処理を実行する
請求項1の映像処理装置。
The wireless communication unit transmits common identification information added to the recorded material data in the terminal device to the plurality of terminal devices before recording the recorded material data by wireless communication,
The video processing apparatus according to claim 1, wherein the editing processing unit executes the editing process on recording material data to which the identification information is added.
前記無線通信部は、前記端末装置に対する利用者からの指示に応じた制御データを前記端末装置から受信し、
前記編集処理部は、前記制御データを適用した前記編集処理を実行する
請求項1または請求項2の映像処理装置。
The wireless communication unit receives control data from the terminal device according to an instruction from a user for the terminal device,
The video processing device according to claim 1, wherein the editing processing unit executes the editing processing to which the control data is applied.
前記収録素材データの音響を利用して前記複数の収録素材データを相互に同期させる同期処理部を具備し、
前記編集処理部は、前記同期処理部による処理後の複数の収録素材データに対する編集処理でコンテンツを生成する
請求項1から請求項3の何れかの映像処理装置。

A synchronization processing unit that synchronizes the plurality of recorded material data with each other using the sound of the recorded material data,
The video processing apparatus according to any one of claims 1 to 3, wherein the editing processing unit generates content by editing processing on a plurality of recorded material data after processing by the synchronization processing unit.

JP2015129970A 2015-06-29 2015-06-29 Video processing apparatus and video processing method Expired - Fee Related JP6610030B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015129970A JP6610030B2 (en) 2015-06-29 2015-06-29 Video processing apparatus and video processing method
PCT/JP2016/069175 WO2017002821A1 (en) 2015-06-29 2016-06-28 Video processing device, video processing method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015129970A JP6610030B2 (en) 2015-06-29 2015-06-29 Video processing apparatus and video processing method

Publications (2)

Publication Number Publication Date
JP2017017423A true JP2017017423A (en) 2017-01-19
JP6610030B2 JP6610030B2 (en) 2019-11-27

Family

ID=57608668

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015129970A Expired - Fee Related JP6610030B2 (en) 2015-06-29 2015-06-29 Video processing apparatus and video processing method

Country Status (2)

Country Link
JP (1) JP6610030B2 (en)
WO (1) WO2017002821A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019169852A (en) * 2018-03-23 2019-10-03 ヤマハ株式会社 Information processing method and information processing unit
WO2022209648A1 (en) * 2021-03-31 2022-10-06 ソニーグループ株式会社 Information processing device, information processing method, and non-transitory computer-readable medium

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0970009A (en) * 1995-09-04 1997-03-11 Nippon Telegr & Teleph Corp <Ntt> Moving image program edit method
JP2003078864A (en) * 2001-08-30 2003-03-14 Nec Corp System for providing camera image and time correction method for camera image
JP2004134862A (en) * 2002-10-08 2004-04-30 Bunkyo Studio:Kk Image distribution system and image distribution method
JP2004247937A (en) * 2003-02-13 2004-09-02 Canon Inc Image pickup device
JP2006197223A (en) * 2005-01-13 2006-07-27 Mitsubishi Electric Corp Image monitoring system and image monitoring method
JP2009267773A (en) * 2008-04-25 2009-11-12 Hitachi Ltd Video editing device, photographic device, and video-editing method
JP2013080989A (en) * 2011-09-30 2013-05-02 Jvc Kenwood Corp Moving image editing device, moving image editing method, and computer program
JP2013131871A (en) * 2011-12-20 2013-07-04 Sharp Corp Editing device, remote controller, television receiver, specific audio signal, editing system, editing method, program, and recording medium
JP2015046756A (en) * 2013-08-28 2015-03-12 株式会社ニコン System, server, electronic apparatus, and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6281737B2 (en) * 2013-05-29 2018-02-21 カシオ計算機株式会社 Image processing apparatus, image processing system, image processing method, and program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0970009A (en) * 1995-09-04 1997-03-11 Nippon Telegr & Teleph Corp <Ntt> Moving image program edit method
JP2003078864A (en) * 2001-08-30 2003-03-14 Nec Corp System for providing camera image and time correction method for camera image
JP2004134862A (en) * 2002-10-08 2004-04-30 Bunkyo Studio:Kk Image distribution system and image distribution method
JP2004247937A (en) * 2003-02-13 2004-09-02 Canon Inc Image pickup device
JP2006197223A (en) * 2005-01-13 2006-07-27 Mitsubishi Electric Corp Image monitoring system and image monitoring method
JP2009267773A (en) * 2008-04-25 2009-11-12 Hitachi Ltd Video editing device, photographic device, and video-editing method
JP2013080989A (en) * 2011-09-30 2013-05-02 Jvc Kenwood Corp Moving image editing device, moving image editing method, and computer program
JP2013131871A (en) * 2011-12-20 2013-07-04 Sharp Corp Editing device, remote controller, television receiver, specific audio signal, editing system, editing method, program, and recording medium
JP2015046756A (en) * 2013-08-28 2015-03-12 株式会社ニコン System, server, electronic apparatus, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019169852A (en) * 2018-03-23 2019-10-03 ヤマハ株式会社 Information processing method and information processing unit
WO2022209648A1 (en) * 2021-03-31 2022-10-06 ソニーグループ株式会社 Information processing device, information processing method, and non-transitory computer-readable medium

Also Published As

Publication number Publication date
JP6610030B2 (en) 2019-11-27
WO2017002821A1 (en) 2017-01-05

Similar Documents

Publication Publication Date Title
US10887673B2 (en) Method and system for associating recorded videos with highlight and event tags to facilitate replay services
JP6662063B2 (en) Recording data processing method
JP2005341064A (en) Information sender, information sending method, program, recording medium, display controller, and displaying method
JP2009003446A (en) Content generation system, content generation device, and content generation program
WO2017157135A1 (en) Media information processing method, media information processing device and storage medium
CN106385614A (en) Picture synthesis method and apparatus
US10262693B2 (en) Direct media feed enhanced recordings
KR20120040816A (en) Operating method for file synthesis and portable device supporting the same
JP6610030B2 (en) Video processing apparatus and video processing method
EP3258640A1 (en) Location based authentication
CN113473224A (en) Video processing method and device, electronic equipment and computer readable storage medium
JP2016063477A (en) Conference system, information processing method and program
JP2023153790A (en) program
JP2018085692A (en) Image transmission device, image reception device, control method thereof, and image communication system
JP2013183280A (en) Information processing device, imaging device, and program
JP2018533233A (en) Content generation method and apparatus
WO2016184193A1 (en) Method and apparatus for generating media files
JP7167629B2 (en) guide system
JP2014212439A (en) Display control device, control method, and program
JP2018146762A (en) Karaoke device, remote controller
JP2018074337A (en) Moving image processing device, moving image processing method, and program
KR101511868B1 (en) Multimedia shot method and system by using multi camera device
JP2015179377A (en) Imaging image editing device, imaging image editing method and program, as well as imaging image editing system
WO2022176633A1 (en) Video editing device, video editing method, and computer program
JP2015159392A (en) Operator terminal, mobile terminal, method for transmitting instruction, and operator terminal program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191014

R151 Written notification of patent or utility model registration

Ref document number: 6610030

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees