JP2015029213A - Recording/reproducing device - Google Patents

Recording/reproducing device Download PDF

Info

Publication number
JP2015029213A
JP2015029213A JP2013158005A JP2013158005A JP2015029213A JP 2015029213 A JP2015029213 A JP 2015029213A JP 2013158005 A JP2013158005 A JP 2013158005A JP 2013158005 A JP2013158005 A JP 2013158005A JP 2015029213 A JP2015029213 A JP 2015029213A
Authority
JP
Japan
Prior art keywords
video
combined
editing
recording
video data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013158005A
Other languages
Japanese (ja)
Inventor
片山 達嗣
Tatsushi Katayama
達嗣 片山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013158005A priority Critical patent/JP2015029213A/en
Publication of JP2015029213A publication Critical patent/JP2015029213A/en
Pending legal-status Critical Current

Links

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a recording/reproducing device that efficiently edits video in cooperation with a video editing server.SOLUTION: It is determined whether to execute combination editing in a recording/reproducing device or on a video editing server, and a combination editing command, identification information, and video data around a combination part of each video are transmitted to the video editing server in accordance with the determination result. Then, the video data around the combination part combined by the video editing server is received and inserted into video data in the recording/reproducing device on the basis of the identification information to generate combined video data.

Description

本発明は、ネットワークを介してサーバーと通信しながら編集を実行する機能を有する記録再生装置に関するものである。   The present invention relates to a recording / reproducing apparatus having a function of executing editing while communicating with a server via a network.

近年、ビデオカメラやデジタルカメラ等で撮影した映像データを所望の区間で切り出して新たな映像データを作成したり、複数の映像データを結合して新たな映像データを作り出すなどの編集機能を活用して、ユーザーが所望の映像を作成することが可能となってきている。   In recent years, we have used editing functions such as creating new video data by cutting out video data shot with a video camera, digital camera, etc. in a desired section, or creating new video data by combining multiple video data. Thus, a user can create a desired video.

しかしながら、編集機能の中にはビデオカメラ等の機器本体内で実行するにはメモリ容量等の制約により実現困難な場合がある。その1つに結合編集機能がある。結合編集の例としてストリームAとストリームBを結合して、新たなストリームCを生成する場合について概略を説明する。   However, some editing functions may be difficult to implement in a device body such as a video camera due to restrictions on memory capacity and the like. One of them is a combined editing function. As an example of combined editing, an outline of a case where stream A and stream B are combined to generate a new stream C will be described.

2つのストリームを結合するために、まずストリームAの最後の符号化データとストリームBの先頭の符号化データを復号、伸張してメモリ上に展開する。次に、展開した映像データを再エンコードして符号化することにより1つのストリームとして連結することができる。   In order to combine the two streams, first, the last encoded data of stream A and the first encoded data of stream B are decoded, expanded, and expanded on the memory. Next, the expanded video data can be re-encoded and encoded to be combined as one stream.

上記過程の中で、再エンコードの際に結合部の非圧縮の映像データを展開するメモリ容量が必要となる、しかし十分なメモリ容量を確保できないカメラやビデオカメラ等のモバイル機器では実現できないことがあった。   During the above process, a memory capacity to expand the uncompressed video data at the coupling part is required at the time of re-encoding, but it cannot be realized by a mobile device such as a camera or a video camera that cannot secure a sufficient memory capacity. there were.

これに対して、カメラからの映像をネットワークを介したサーバーで受信して、サーバー側で編集機能を実現するシステムが提案されている(特許文献1参照)。   On the other hand, a system has been proposed in which video from a camera is received by a server via a network and an editing function is realized on the server side (see Patent Document 1).

特開2007−166074号公報JP 2007-166074 A

上記従来技術では、カメラからの映像データをネットワークを介して受信して蓄積する映像蓄積サーバーと、この映像蓄積サーバーからの映像データを受信して表示する映像表示端末とから構成されている。映像表示端末で前記サーバーに蓄積されている映像データに対して、映像データと切り出し時間を特定する編集リストを作成して、前記サーバーに送信する。映像蓄積サーバーでは、受信した編集リストに基づいて映像データを編集して蓄積保存するものである。   The prior art includes a video storage server that receives and stores video data from a camera via a network, and a video display terminal that receives and displays video data from the video storage server. For the video data stored in the server at the video display terminal, an edit list specifying the video data and the cut-out time is created and transmitted to the server. The video storage server edits and stores video data based on the received edit list.

しかしながら、上記従来技術では予めカメラで撮影した映像データを映像蓄積サーバーに送信しておく必要があり、既に蓄積された映像に対して編集リストを作成して送信するという手順を踏むことが必要になる。従って、カメラから撮影映像データを送信する期間は、その状態で待機していなければならない。動画の映像データは数ギガバイトの容量になる場合もあり、映像データをすべて送信し終えるまでには相当の時間を要することになる。また、前記映像データの送信中に撮影動作に移行できない場合、撮影機会を逃してしまう可能性があった。さらに編集する場合には、ネットワークを介して編集対象の映像を選択して、編集内容を指示するという煩雑な操作が必要になり、ユーザーの操作感が著しく劣化することが想定される。   However, in the above-described prior art, it is necessary to transmit video data captured by the camera in advance to the video storage server, and it is necessary to follow a procedure of creating and transmitting an edit list for the video that has already been stored. Become. Therefore, it is necessary to wait in this state for the period during which captured video data is transmitted from the camera. The video data of a moving image may have a capacity of several gigabytes, and it takes a considerable time to complete transmission of the video data. In addition, if it is not possible to shift to the shooting operation during the transmission of the video data, there is a possibility that the shooting opportunity will be missed. Further, when editing, a complicated operation of selecting a video to be edited via the network and instructing editing contents is required, and it is assumed that the user's operational feeling is significantly deteriorated.

そこで本発明は、映像編集サーバーと連携して効率的に映像の編集を行う記録再生装置を提供することを目的とする。   Accordingly, an object of the present invention is to provide a recording / reproducing apparatus that efficiently edits video in cooperation with a video editing server.

本発明は、編集機能の少なくとも一部を代替可能な映像編集サーバーと通信して、所定の情報を送受信可能な記録再生装置において、複数の映像の結合編集において、結合する各映像の情報、前記記録再生装置のメモリ容量、装置のモード情報を基に結合編集を前記記録再生装置内で実行するか、または前記映像編集サーバーで実行するかのいずれかを判断する手段と、前記判断する手段の判断結果に応じて前記映像編集サーバーに結合編集コマンド、識別情報及び各映像の結合部近傍の映像データを送信する手段と、前記映像編集サーバーで結合された前記結合部近傍の映像データを受信して、前記識別情報に基づいて前記記録再生装置の映像データに挿入して結合映像データを生成することを特徴とする。   The present invention provides a recording / playback apparatus capable of transmitting and receiving predetermined information by communicating with a video editing server capable of substituting at least a part of an editing function, and information of each video to be combined in a combined editing of a plurality of videos, Means for determining whether combined editing is executed in the recording / reproducing apparatus or in the video editing server based on memory capacity of the recording / reproducing apparatus and mode information of the apparatus; and According to the determination result, the video editing server receives the combined editing command, the identification information, and the video data in the vicinity of the coupling portion of each video, and receives the video data in the vicinity of the coupling portion combined in the video editing server. The combined video data is generated by inserting the video data of the recording / reproducing apparatus based on the identification information.

本発明によれば、カメラ等の装置内で所定の編集機能が実現可能かを自動的に判断し、ネットワークを介したサーバーと連携して編集機能を実現する場合、必要な情報のみ送受信して処理するので操作性が向上する。また撮影動作への移行も簡潔に実行できるので利便性が向上する。   According to the present invention, it is automatically determined whether a predetermined editing function can be realized in a device such as a camera, and when the editing function is realized in cooperation with a server via a network, only necessary information is transmitted / received. Since it is processed, operability is improved. In addition, since the transition to the shooting operation can be performed simply, convenience is improved.

本発明に係る第一の実施例の装置ブロック図。The apparatus block diagram of the 1st Example which concerns on this invention. 本発明の装置とサーバーの構成を説明する図。The figure explaining the structure of the apparatus and server of this invention. 結合編集時の再エンコードの概略を説明する図。The figure explaining the outline of the re-encoding at the time of joint edit. 本発明に係る第一の実施例のフローチャート。The flowchart of the 1st Example which concerns on this invention. 本発明の編集映像の選択手順を説明する図。The figure explaining the selection procedure of the edit image | video of this invention. 本発明に係る第二の実施例のフローチャート。The flowchart of the 2nd Example which concerns on this invention. 映像データ復号とバッファ占有量の関係を示す図。The figure which shows the relationship between video data decoding and buffer occupation amount. 結合編集の概略を説明する図。The figure explaining the outline of a joint edit. 結合編集時の動作を説明する図。The figure explaining the operation | movement at the time of joint edit.

以下、図面を参照しながら本発明の好適な実施の形態を説明する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.

[実施例1]
図1は、本発明に係る第一の実施例の記録再生装置10のブロック図である。図1において、101はレンズ等の光学系でありズームレンズ等を用いることができる。102は撮像部であり、CMOSセンサやCCDセンサなどの撮像素子、AD変換器等から構成される。103は信号処理部であり、撮像した信号の変換等の処理を行う。
[Example 1]
FIG. 1 is a block diagram of a recording / reproducing apparatus 10 according to the first embodiment of the present invention. In FIG. 1, reference numeral 101 denotes an optical system such as a lens, and a zoom lens or the like can be used. Reference numeral 102 denotes an imaging unit, which includes an imaging device such as a CMOS sensor or a CCD sensor, an AD converter, and the like. A signal processing unit 103 performs processing such as conversion of the captured signal.

106はメモリであり、映像データ、符号化データ、制御データ等を保持する。107は、グラフィック処理部であり撮影画像に重畳するアイコン、文字等のGUI部品を生成し、メモリ106の所定の領域に描画する。   A memory 106 holds video data, encoded data, control data, and the like. Reference numeral 107 denotes a graphic processing unit that generates GUI parts such as icons and characters to be superimposed on the captured image and draws them in a predetermined area of the memory 106.

108は、ビデオ信号処理部であり、撮像光学系を介して得られる撮影中の映像データ及びグラフィック処理部107が描画したGUI部品を合成して表示パネル109に出力する。   Reference numeral 108 denotes a video signal processing unit that synthesizes video data being shot obtained through the imaging optical system and a GUI component drawn by the graphic processing unit 107 and outputs the resultant to the display panel 109.

表示パネル109は、ビデオ信号処理部108で合成された映像信号を表示する。表示パネルとしては液晶パネル、有機ELパネル等を用いることができる。   The display panel 109 displays the video signal synthesized by the video signal processing unit 108. As the display panel, a liquid crystal panel, an organic EL panel, or the like can be used.

110は符号化処理部であり、メモリ106に保持されている映像データを圧縮符号化してメモリ106に保持する。また再生の際には、記録媒体から読み出されてメモリ106に保持されている圧縮符号化されたデータを復号化してメモリ106に保持する。   An encoding processing unit 110 compresses and encodes the video data held in the memory 106 and holds it in the memory 106. At the time of reproduction, the compressed and encoded data read from the recording medium and held in the memory 106 is decoded and held in the memory 106.

111は記録再生処理部であり、メモリ106に保持されている符号化データの記録媒体112への書込み処理を行う。また、記録媒体112に記録されているデータの読み出し処理を行う。   Reference numeral 111 denotes a recording / playback processing unit that performs a process of writing encoded data held in the memory 106 to the recording medium 112. In addition, a process for reading data recorded on the recording medium 112 is performed.

112は記録媒体であり、フラッシュメモリやSDカード等の半導体メモリ、あるいはDVDやBD等の光ディスク、またハードディスク等を用いることができる。   Reference numeral 112 denotes a recording medium, which can be a semiconductor memory such as a flash memory or an SD card, an optical disk such as a DVD or a BD, a hard disk, or the like.

104は操作部であり、ボタン、スイッチ等の部材の操作状態を検出する。また表示パネル109の上にタッチパネルを貼りあわせるような構成では、タッチパネルに対する指あるいはペンでのタッチ操作、及び動き等を検出する。   An operation unit 104 detects an operation state of members such as buttons and switches. In a configuration in which a touch panel is pasted on the display panel 109, a touch operation with a finger or a pen on the touch panel, a movement, and the like are detected.

105はMPU(マイクロプロセッサ)であり、不図示の制御バスを介して各処理ブロックを制御することが可能で、また各種演算処理等を行い、装置全体の制御を行う。   Reference numeral 105 denotes an MPU (microprocessor), which can control each processing block via a control bus (not shown), performs various arithmetic processes, and controls the entire apparatus.

さらに装置10は、被写体を撮影する撮影モード、撮影した映像を閲覧する再生モード、映像を編集する編集モードなど複数のモードを有しており、MPU105は装置のモード情報を管理し、各モードにおける制御及びモード間の遷移処理を行う。   Furthermore, the apparatus 10 has a plurality of modes such as a shooting mode for shooting a subject, a playback mode for browsing the shot video, and an editing mode for editing the video. The MPU 105 manages the mode information of the apparatus, and in each mode. Transition processing between control and mode is performed.

113は通信処理部であり、所定のプロトコルに従ってデータを変換して無線LAN等の通信手段により外部通信ネットワークとの間で、データの送受信を行う。
本実施例の記録再生装置10は、無線LAN等のネットワークを介して図2に示すように映像編集サーバーに接続して、映像データ及び編集情報の送受信を行う。
A communication processing unit 113 converts data according to a predetermined protocol and transmits / receives data to / from an external communication network by communication means such as a wireless LAN.
The recording / reproducing apparatus 10 of this embodiment is connected to a video editing server as shown in FIG. 2 via a network such as a wireless LAN, and transmits / receives video data and editing information.

次に図4のフローチャートにより、本実施例の装置の動作について説明する。図4においてS400で操作部104の操作部材を操作して編集モードに移行し、結合編集が開始される。S401では、結合編集の対象となる映像データを選択する。   Next, the operation of the apparatus of this embodiment will be described with reference to the flowchart of FIG. In FIG. 4, the operation member of the operation unit 104 is operated in S400 to shift to the edit mode, and the combined editing is started. In S401, video data to be combined and edited is selected.

ここで、S401での映像データの選択手順について説明する。映像データの選択は、図5に示すように行うことができる。図5(A)は、ストリームAの後にストリームBを繋げる場合である。また図5(B)は、ストリームAの領域A1とストリームBの領域B1を切り出して繋げる場合である。   Here, the video data selection procedure in S401 will be described. Selection of video data can be performed as shown in FIG. FIG. 5A shows a case where stream B is connected after stream A. FIG. 5B shows a case where the area A1 of the stream A and the area B1 of the stream B are cut out and connected.

図5(A)の場合では、画面501において、ストリームAの後にストリームBを選択してボタン502を不図示の操作部材を用いて決定することで、結合する映像データの選択が完了する。図5(B)では、ストリームA及びストリームBから結合する領域A1及びB1を切り出す操作を行う。これは図5(B)の画面505に示すように、ストリームAの時間軸バー507上で切り出しの開始点を設定する。開始点は、不図示の操作部材を操作することで、時間軸バー507のポインタ506を移動して位置を決める。   In the case of FIG. 5A, selection of video data to be combined is completed by selecting stream B after stream A and determining button 502 using an operation member (not shown) on screen 501. In FIG. 5B, an operation of cutting out the areas A1 and B1 to be combined from the stream A and the stream B is performed. As shown in a screen 505 in FIG. 5B, this sets the start point of clipping on the time axis bar 507 of the stream A. The starting point is determined by moving the pointer 506 of the time axis bar 507 by operating an operation member (not shown).

この際に、ポインタ506の位置に該当するフレームの映像508が、画面の上部に表示される。これによりユーザーは、映像を確認しながら切り出しの開始点を設定することができる。開始点が決まったら、ボタン502により決定して開始点を確定する。終了点も同様の操作なので説明は省略する。   At this time, a frame image 508 corresponding to the position of the pointer 506 is displayed at the top of the screen. As a result, the user can set the cutout start point while checking the video. When the starting point is determined, the button 502 is used to determine the starting point. Since the end point is the same operation, the description is omitted.

ストリームBについても、上記と同様の手順を繰り返すことにより結合する領域B1を決定する。S402では、サーバーで結合編集処理を実行するか、装置内で実行するかの判断を行う。ここでサーバーで結合処理しない場合には、S404に移行して装置内で結合編集を実行する。装置内で結合が完了したらS411に移行して結合編集を終了する。   For the stream B, the region B1 to be combined is determined by repeating the same procedure as described above. In S402, it is determined whether the combined editing process is executed on the server or in the apparatus. Here, if the server does not perform the combining process, the process proceeds to S404 and the combined editing is executed in the apparatus. When the combination is completed in the apparatus, the process proceeds to S411 and the combination editing is terminated.

ここで、S402の結合編集を映像編集サーバーで処理するか、あるいは装置内で処理するかを判断する方法について説明する。   Here, a method for determining whether the combined editing in S402 is processed by the video editing server or in the apparatus will be described.

まず、図3により映像データの結合編集の概略について説明する。図3(A)は結合する2つのストリームA及びBの模式図である。結合する際にはストリームAの最後のGOP(Group Of Pictures)301とストリームBの先頭のGOP302を抽出する。図3(B)は、GOP301及びGOP302の概略図である。   First, an outline of combined editing of video data will be described with reference to FIG. FIG. 3A is a schematic diagram of two streams A and B to be combined. When combining, the last GOP (Group Of Pictures) 301 of stream A and the first GOP 302 of stream B are extracted. FIG. 3B is a schematic diagram of the GOP 301 and the GOP 302.

結合編集する際には、上記GOP301及びGOP302を符号化処理部110により復号化することにより、図3(C)の非圧縮フレーム303及び304を生成する。そして非圧縮フレームを再エンコードしてGOP305及びGOP306を生成する。   When the combined editing is performed, the GOP 301 and the GOP 302 are decoded by the encoding processing unit 110 to generate the uncompressed frames 303 and 304 in FIG. Then, the GOP 305 and the GOP 306 are generated by re-encoding the uncompressed frame.

図7により再エンコード処理の概略を示す。図7(A)は、図3(C)の非圧縮フレーム303の復号化時のバッファ占有量を模式的に示したものである。また図7(B)は図3(C)のフレーム304の復号化時のバッファ占有量を示したものである。符号化方式としてはMPEG2、H.264等の公知の技術を用いるものとする。   FIG. 7 shows an outline of the re-encoding process. FIG. 7A schematically shows the buffer occupancy at the time of decoding the uncompressed frame 303 in FIG. FIG. 7B shows the buffer occupancy at the time of decoding the frame 304 in FIG. As an encoding method, MPEG2, H.264 or the like is used. A known technique such as H.264 is used.

図7(A)において、記録媒体112より符号化された映像データが所定のレートでバッファに蓄積されている。傾きαは記録媒体からの読み出しレートを示す量である。バッファに蓄積された符号化データは、所定間隔1/30秒で符号化処理部110に読み出され復号化される。図7(A)に示す符号量は、符号化処理部110に読み出される1フレーム分の符号化データ量である。映像データを圧縮符号化する際には、復号化の際にバッファ量の上限Vを超えないように符号量の割当を制御している。   In FIG. 7A, video data encoded from the recording medium 112 is accumulated in a buffer at a predetermined rate. The slope α is an amount indicating the reading rate from the recording medium. The encoded data stored in the buffer is read and decoded by the encoding processing unit 110 at a predetermined interval of 1/30 seconds. The code amount shown in FIG. 7A is the amount of encoded data for one frame read to the encoding processing unit 110. When compressing and encoding video data, code amount allocation is controlled so that the upper limit V of the buffer amount is not exceeded during decoding.

ここで図7(C)は図3(B)のGOP301とGOP302を連続して復号化して表示する場合のバッファ占有量の推移を示したものである。時刻T1でGOP301の復号化が実行され、次にGOP302の復号化に移行する。ここで、連続した動画として表示するためには、時刻T1の1/30秒後の時刻T2において符号化処理部110による復号化を行う必要がある。しかし時刻T2の時点では記録媒体から符号化データの読み出しが完了していないために復号化処理を始めることができない。その結果、GOP301の最後のフレームの映像を表示パネル109に表示した状態で画面が更新されない状態が発生してしまう。   Here, FIG. 7C shows the transition of the buffer occupancy when the GOP 301 and GOP 302 of FIG. 3B are successively decoded and displayed. Decoding of GOP301 is executed at time T1, and then the process proceeds to decoding of GOP302. Here, in order to display as a continuous moving image, it is necessary to perform decoding by the encoding processing unit 110 at time T2 after 1/30 second after time T1. However, the decoding process cannot be started because the reading of the encoded data from the recording medium is not completed at the time T2. As a result, a state in which the screen is not updated while the video of the last frame of GOP 301 is displayed on the display panel 109 occurs.

上記のような状況を回避するために、符号化されたGOP301及びGOP302を復号化して一旦メモリ104に展開した後に再度符号化処理部110によりエンコード処理を行う。これにより各フレームに割り当てる符号量を制御して図7(D)に示すように時刻T1の1/30秒後に復号化処理を実行できるようにする。   In order to avoid the above situation, the encoded GOP 301 and GOP 302 are decoded and once expanded in the memory 104, and then the encoding processing unit 110 performs the encoding process again. As a result, the code amount allocated to each frame is controlled so that the decoding process can be executed after 1/30 second of time T1, as shown in FIG.

再エンコードされた符号化データGOP305及びGOP306は、図3(D)に示すように元の符号化データとつなぎ合わせて1つのストリームCを生成する。   The re-encoded encoded data GOP 305 and GOP 306 are joined with the original encoded data as shown in FIG. 3D to generate one stream C.

上記一連の処理を装置内で行うためには、復号化した映像データを展開するためのメモリ容量が必要になる。   In order to perform the above-described series of processing in the apparatus, a memory capacity for developing the decoded video data is required.

非圧縮フレームの1フレームサイズは、例えばHD映像のYUV422のフォーマットで
1920×1080×2(バイト)=約4MB
となり、図3のGOP301及びGOP302は合計で24フレームから構成されるので、非圧縮フレームの全体容量は
4(MB)×24(フレーム)=96MB
となり、大容量のメモリが必要となるため装置内に十分な容量のメモリを備えていなければならない。
また、SD映像の場合には
720×480×2(バイト)=約700KB
となり、図3のGOP301及びGOP302は合計で24フレームでは
・ 7(MB)×24(フレーム)=17MB
となり、通常の録再時のストリームバッファの容量で収まる可能性が高い。
One frame size of the uncompressed frame is, for example, 1920 × 1080 × 2 (bytes) = about 4 MB in the HD video YUV422 format.
Since GOP 301 and GOP 302 in FIG. 3 are composed of a total of 24 frames, the total capacity of uncompressed frames is 4 (MB) × 24 (frames) = 96 MB.
Therefore, since a large-capacity memory is required, a sufficient capacity of memory must be provided in the apparatus.
In the case of SD video, 720 × 480 × 2 (bytes) = about 700 KB
3 and GOP 301 and GOP 302 in FIG. 3 are 24 frames in total. 7 (MB) × 24 (frames) = 17 MB
Therefore, there is a high possibility that the capacity of the stream buffer during normal recording / playback will fit.

従って、本実施例の装置では図4のS402において結合する映像データがHD映像の場合には、結合編集のための処理を映像編集サーバーで行い、SD映像の場合には装置内で行うものと判断する。   Therefore, in the apparatus of this embodiment, when the video data to be combined in S402 in FIG. 4 is HD video, the processing for combined editing is performed in the video editing server, and in the case of SD video, it is performed in the apparatus. to decide.

ここではHD映像またはSD映像であるかを検出して結合編集を装置内か映像編集サーバーかを判断しているが、他の方法で判断することも可能である。   Here, whether the video is HD video or SD video is detected to determine whether the combined editing is in the apparatus or the video editing server, but it is also possible to determine by other methods.

他の例を以下に示す。装置内のメモリ106において、結合編集の際に非圧縮映像データの展開に利用可能な容量をSとする。次に、結合編集で再エンコードするGOPのフレーム数及びHDあるいはSD映像の種別を検出すると、上記のように映像データを復号してメモリに展開するのに必要な容量を見積もることができる。これをMとする。   Another example is shown below. In the memory 106 in the apparatus, S is a capacity that can be used for developing uncompressed video data during combined editing. Next, when the number of GOP frames to be re-encoded by combined editing and the type of HD or SD video are detected, it is possible to estimate the capacity required to decode the video data and expand it in the memory as described above. This is M.

装置内で結合編集が可能か否かは、前記メモリ容量SとMを下記により比較することで判断することができる。
S ≧ M である場合は、装置内で結合編集可能
S < M である場合は、装置内で結合編集不可能
上記の大小判定の結果から、結合編集をサーバーで実行するか装置内で実行するかを判断してもよい。尚、上記メモリ容量Mには所定のマージンを加えて評価することにより確実な判断が可能であることは言うまでもない。
Whether combined editing is possible in the apparatus can be determined by comparing the memory capacities S and M as follows.
If S ≧ M, combined editing is possible in the device. If S <M, combined editing is not possible in the device. Based on the result of the above-mentioned size determination, combined editing is executed in the server or in the device. It may be judged. It goes without saying that a reliable determination can be made by evaluating the memory capacity M with a predetermined margin added.

さらに、上記ではメモリ106で利用可能な容量を基に見積りを行っているが、記録媒体112の一部をメモリと見なして動作させる仮想メモリの技術を用いることも可能である。   Further, in the above description, the estimation is made based on the capacity available in the memory 106, but it is also possible to use a virtual memory technique in which a part of the recording medium 112 is operated as a memory.

仮想メモリの方式については公知の技術により実現するものとして説明は省略する。
仮想メモリを用いる場合には、上記メモリ容量Sとしてメモリ106に加えて記録媒体112で利用可能な仮想メモリの容量を用いるものとする。
The description of the virtual memory system is omitted as it is realized by a known technique.
When a virtual memory is used, the capacity of the virtual memory that can be used by the recording medium 112 in addition to the memory 106 is used as the memory capacity S.

これにより、装置内で結合編集を実行可能な場合が増えることになる。S402において、サーバーで結合編集を実行すると判断したらS403に移行する。   This increases the number of cases where combined editing can be executed in the apparatus. If it is determined in S402 that combined editing is to be executed by the server, the process proceeds to S403.

S403では、結合する2つのストリームA及びストリームB(またはその一部)の結合部近傍の符号化データ等のサーバーに送信するデータを準備する。データの準備が完了したら、S405に移行する。   In S403, data to be transmitted to the server, such as encoded data in the vicinity of the combined portion of the two streams A and B (or a part thereof) to be combined, is prepared. When the data preparation is completed, the process proceeds to S405.

S403で準備するサーバーに送信するデータの概略について図8を用いて説明する。図8(A)に示すようにサーバーに転送する映像データは、ストリームAの最終GOP301とストリームBの先頭GOP302である。従って、ストリームAの管理情報をMPU105で解析して最終GOP301の位置までシークし、その位置から最終GOP301のサイズ分をメモリ106にコピーする。   An outline of data to be transmitted to the server prepared in S403 will be described with reference to FIG. As shown in FIG. 8A, the video data transferred to the server is the last GOP 301 of stream A and the first GOP 302 of stream B. Therefore, the management information of the stream A is analyzed by the MPU 105 and seeks to the position of the final GOP 301, and the size of the final GOP 301 is copied from the position to the memory 106.

同時に図8(B)の結合編集用の管理情報810を生成して、“識別番号”をセットし、次に“転送GOP1の領域”として前記シーク位置及びサイズの値を保持する。   At the same time, management information 810 for combined editing shown in FIG. 8B is generated, “identification number” is set, and then the seek position and size values are held as “transfer GOP1 area”.

ストリームBについても同様に管理情報を解析してGOP302のデータをコピーして、管理情報810の“転送GOP2の領域”として、位置及びサイズの値を保持する。   Similarly, for stream B, the management information is analyzed, the data of GOP 302 is copied, and the position and size values are held as the “area of transfer GOP 2” of management information 810.

また、サーバーで処理されたデータを合成して1つのストリームを生成するために下記の情報を管理情報810に設定、保持する。“結合ファイル名1”としてストリームAのファイル名を保持する。“結合ファイル名2”としてストリームBのファイル名を設定、保持する。   Further, the following information is set and held in the management information 810 in order to synthesize the data processed by the server and generate one stream. The file name of stream A is held as “combined file name 1”. The file name of stream B is set and held as “combined file name 2”.

管理情報810の所定の項目について値を設定したら、前述のGOP301、GOP302及び管理情報810の識別番号をサーバーに転送するデータとして準備する。尚、サーバーに転送する際のデータフォーマットについては、任意に定めることが可能である。   When values are set for predetermined items of the management information 810, the identification numbers of the GOP 301, GOP 302 and management information 810 are prepared as data to be transferred to the server. The data format for transferring to the server can be arbitrarily determined.

さらにS403では、サーバーで処理された映像データを受信した後に元の映像と合成して生成されるストリーム分の容量を、記録媒体112上に確保する。図8(C)に示すように合成されるストリームは、元のストリームAの一部であるストリームA1、元のストリームBの一部であるストリームB1、サーバーで再エンコードされるGOP305及びGOP306の容量を足し合わせた容量となる。従って、この容量分の領域を記録媒体112上で確保して、他の処理により使用されないようにMPU105が制御する。   In step S403, a capacity for a stream generated by combining the original video after receiving the video data processed by the server is secured on the recording medium 112. As shown in FIG. 8C, the streams to be combined are a stream A1 that is a part of the original stream A, a stream B1 that is a part of the original stream B, and the capacities of the GOP 305 and GOP 306 that are re-encoded by the server. Is the total capacity. Therefore, the MPU 105 controls such that an area for this capacity is secured on the recording medium 112 and is not used by other processing.

S405では映像編集サーバーとの通信を開始する。S406では、映像編集サーバーとの接続が完了したか否かを検出する。接続が完了するまで検出を繰り返す。尚、接続の完了の検出は、所定間隔毎に行うことで装置の処理負荷を低減するように制御しても良い。また、所定回数繰り返しても接続の完了が検出できない場合には、タイムアウトエラーとしてユーザーに告知することも可能である。   In S405, communication with the video editing server is started. In S406, it is detected whether or not the connection with the video editing server is completed. Repeat detection until connection is complete. The detection of the completion of connection may be controlled at a predetermined interval so as to reduce the processing load on the apparatus. In addition, if the completion of the connection cannot be detected even after being repeated a predetermined number of times, it is possible to notify the user as a timeout error.

S406でサーバーとの接続が完了したら、S407に移行してS403で準備したGOPデータ、識別番号及びサーバーに結合編集を指示するコマンドからなる送信データを映像編集サーバーに送信する。送信が完了したらS412に移行して装置電源がOFFされたかをMPU105で判定する。   When the connection with the server is completed in S406, the process proceeds to S407, and transmission data including the GOP data prepared in S403, the identification number, and a command for instructing the server to perform combined editing is transmitted to the video editing server. When the transmission is completed, the process proceeds to S412 and the MPU 105 determines whether the apparatus power is turned off.

サーバーで結合編集中に装置10の電源をOFFするような場合には、図4のS412で電源OFFを検出して、S413において図8(B)の管理情報810を記録媒体112に記録して、結合編集を終了する。   When the power of the apparatus 10 is turned off during the combined editing at the server, the power off is detected in S412 of FIG. 4, and the management information 810 of FIG. 8B is recorded on the recording medium 112 in S413. , The combined editing ends.

そして、次に電源ONされたときに、管理情報810の有無を検出する。管理情報810が存在するときには、サーバーで処理中のデータが存在するのでサーバーとの通信を行い結合編集完了したデータを受信する。受信したデータは管理情報810の“識別番号”と照合して対応するストリームと合成して結合編集を完了することができる。   When the power is turned on next time, the presence / absence of the management information 810 is detected. When the management information 810 exists, the data being processed by the server exists, and communication with the server is performed to receive the data that has been combined and edited. The received data can be compared with the “identification number” of the management information 810 and combined with the corresponding stream to complete the combined editing.

尚、ここでは電源OFFする場合について示しているが、サーバーで結合編集中に装置内での編集作業を終了したい場合も同様の手順で対応可能である。この場合には、再度編集モードに移行したときに、上記電源ON時と同様に管理情報の有無を判別して結合編集を継続するようにしても良い。   Although the case where the power is turned off is shown here, the same procedure can be used when it is desired to end the editing operation in the apparatus during the combined editing at the server. In this case, when the mode is again changed to the edit mode, the combined editing may be continued by determining the presence / absence of management information in the same manner as when the power is turned on.

S412において電源OFFされていないと判定したらS408に移行する。S408では、映像編集サーバーでの結合編集が完了しているかを問い合わせする。結合編集が完了しているかは、装置から映像編集サーバーに送信する際に、映像データと共に送信した識別情報を用いて問い合わせを行うことができる。結合編集が完了しているか否かを所定の間隔で映像編集サーバーに問い合わせて、完了している場合はS409に移行する。   If it is determined in S412 that the power is not turned off, the process proceeds to S408. In S408, an inquiry is made as to whether the combined editing at the video editing server has been completed. Whether the combined editing is completed can be inquired using the identification information transmitted together with the video data when transmitting from the apparatus to the video editing server. The video editing server is inquired at a predetermined interval as to whether or not combined editing has been completed. If it has been completed, the process proceeds to S409.

ここで、S408においてサーバーで結合編集の完了待ちの間でも装置内で続けて作業できるように、結合部のGOP領域に一時的にストリームをはめ込む場合について図9を用いて説明する。   Here, a case where a stream is temporarily inserted in the GOP area of the combining unit so that the server can continue working in the apparatus while waiting for completion of the combined editing in S408 will be described with reference to FIG.

図9において、図9(A)のストリームA1及びストリームB1は、前記図8で示した映像編集サーバーに送信した領域を除くストリームデータである。また、ストリーム901は映像編集サーバーに送信したGOP領域に対応するデータを示す。   9, stream A1 and stream B1 in FIG. 9A are stream data excluding the area transmitted to the video editing server shown in FIG. A stream 901 indicates data corresponding to the GOP area transmitted to the video editing server.

図9(B)は、ストリーム901近傍に対応する映像フレームを模式的に示したものである。但し図9(B)の各映像フレームは、元の映像から所定間隔で抜き出した映像フレームを並べたものである。   FIG. 9B schematically shows video frames corresponding to the vicinity of the stream 901. However, each video frame in FIG. 9B is obtained by arranging video frames extracted from the original video at predetermined intervals.

本実施例の装置では、サーバーで編集中のストリーム901に対応する映像を表示パネル109の画面に表示する場合、図9(B)に示すようにサーバーで処理中であることを示す映像を重畳してユーザーに明示する。尚、映像の重畳はOSD(オン・スクリーン・ディスプレイ)用の映像フレームを用いて、グラフィック処理部107により文字、記号等の要素を描画したものをビデオ信号処理部108により合成することにより動作する。   In the apparatus according to the present embodiment, when an image corresponding to the stream 901 being edited by the server is displayed on the screen of the display panel 109, an image indicating that the server is processing is superimposed as shown in FIG. 9B. And make it clear to the user. The superimposition of the video is performed by using the video frame for OSD (on-screen display), and by combining the video signal processing unit 108 that has drawn elements such as characters and symbols by the graphic processing unit 107. .

図9(B)では、ストリーム901に対応する映像フレームに“サーバー処理中”の文字を重畳している。これによりサーバーで結合編集中であることを認識することができ、また他の編集作業を継続することができる。   In FIG. 9B, the characters “server processing” are superimposed on the video frame corresponding to the stream 901. As a result, the server can recognize that the combined editing is being performed, and can continue other editing operations.

また、S408においてサーバーでの結合編集の完了待ちの間に、装置内で継続して編集作業を行っているとき、前記結合編集の対象となっているストリームを削除することも可能である。例えば前記図8のストリームAまたはストリームBが操作部104により選択され、削除を指示されたことをMPU105が検出すると、表示パネル109に結合編集の対象であることを警告する表示をする。   Further, when the editing operation is continuously performed in the apparatus while waiting for the completion of combined editing at the server in S408, it is possible to delete the stream that is the target of the combined editing. For example, when the MPU 105 detects that the stream A or the stream B shown in FIG. 8 is selected by the operation unit 104 and is instructed to be deleted, a warning is displayed on the display panel 109 that the stream is to be edited.

そこでユーザーが削除することに同意すると、装置10の記録媒体112から対象となるストリームを削除すると共に、映像編集サーバー11に図8(B)の識別番号及び結合編集中止を支持するコマンドを送信する。   When the user agrees to delete the target stream, the target stream is deleted from the recording medium 112 of the apparatus 10 and the command for supporting the identification number and the combined editing stop in FIG. .

映像編集サーバー11は、コマンドを受け付けると所定の処理を実行し、結合編集の中止処理が完了すると、装置10に確認用のコマンドを返信する。装置10は前記確認用のコマンドを受信して結合編集中止を完了することができる。   When the video editing server 11 receives the command, the video editing server 11 executes a predetermined process. When the combined editing stop process is completed, the video editing server 11 returns a confirmation command to the apparatus 10. The apparatus 10 can receive the confirmation command and complete the combined editing stop.

S409では、識別情報に基づいて映像編集サーバーから結合編集された映像データを受信する。S410では受信した映像データと元の映像データをつなぎ合わせて1つの映像データに合成する。合成した映像データは記録媒体に記録し、S411で結合編集を終了する。   In step S409, the video data combined and edited from the video editing server based on the identification information is received. In S410, the received video data and the original video data are connected and combined into one video data. The synthesized video data is recorded on the recording medium, and the combined editing is finished in S411.

ここで、S410においてサーバーから受信した映像データを元の映像データと合成する処理について説明する。   Here, the process of synthesizing the video data received from the server in S410 with the original video data will be described.

前述の図3で説明したように、映像編集サーバー11で結合編集された映像データ(GOP305及びGOP306)を受信したら図8(C)に示すようにストリームA1、GOP305+GOP306、ストリームB1を合成して1つのストリームを生成する。   As described above with reference to FIG. 3, when video data (GOP 305 and GOP 306) combined and edited by the video editing server 11 is received, stream A1, GOP 305 + GOP 306, and stream B1 are combined as shown in FIG. Create one stream.

そのために、まずストリームA1及びストリームB1を抽出する。ストリームA1は、管理情報810を用いてファイル1の結合領域から転送GOP1の領域を除くことにより抽出できる。ストリームB1は、ファイル2の結合領域から転送GOP2の領域を除くことにより抽出できる。   For this purpose, first, the stream A1 and the stream B1 are extracted. The stream A1 can be extracted by removing the transfer GOP1 area from the combined area of the file 1 using the management information 810. Stream B1 can be extracted by excluding the transfer GOP2 area from the file 2 combination area.

これら3つのデータを図8(C)に示すようにつなぎ合わせることにより図3の結合されたストリームCが生成される。ストリームCは新たなファイルとして記録媒体112に記録する。   By combining these three pieces of data as shown in FIG. 8C, the combined stream C shown in FIG. 3 is generated. Stream C is recorded on the recording medium 112 as a new file.

以上のように本実施例の装置では、結合編集を装置内で実行するか映像編集サーバーで実行するかを映像データ、メモリ容量等から自動的に判断して動作するので利便性が向上する。またサーバー処理中での電源OFF及び装置内での編集作業の終了に対しても柔軟に対応することができる。   As described above, the apparatus according to the present embodiment operates by automatically determining whether to perform combined editing in the apparatus or in the video editing server from the video data, the memory capacity, etc., so that convenience is improved. Further, it is possible to flexibly cope with power-off during server processing and termination of editing work in the apparatus.

[実施例2]
本発明に係る第二の実施例について下記に示す。本実施例の特長は、装置内で結合編集中に処理を映像編集サーバーでの処理に切り換える点にある。また、映像編集サーバーでの処理に条件を付与して、装置内での結合編集の負荷低減を図る点にある。図4及び図6のフローチャートにより動作について説明する。
[Example 2]
A second embodiment according to the present invention will be described below. The feature of this embodiment is that processing is switched to processing at the video editing server during combined editing in the apparatus. Another object is to reduce the load of combined editing in the apparatus by giving conditions to the processing in the video editing server. The operation will be described with reference to the flowcharts of FIGS.

図4のフローチャートにおいて、S402でサーバーで結合処理するかの判断を行いNoの場合にはS404に移行して装置内で結合編集を実行する。図6はS404の装置内での結合編集及び映像編集サーバーへの処理の切り換えに関するフローチャートである。   In the flowchart of FIG. 4, it is determined whether or not the server performs the combining process in S <b> 402. FIG. 6 is a flowchart relating to combined editing and switching of processing to the video editing server in the apparatus in S404.

S601で装置内での結合編集を開始する。S602でユーザーが操作部104の不図示のボタン等を操作して撮影モードに移行したかをMPU105で判断する。撮影モードへの移行要求が無い場合には装置内での結合編集を継続して、S604で結合編集が完了したかを判断する。未完了の場合にはS602に移行して撮影モード要求の有無判断に戻る。S604で結合編集の完了を検出したらS614に移行して結合編集を終了する。   In step S601, combination editing in the apparatus is started. In step S <b> 602, the MPU 105 determines whether the user has operated a button or the like (not shown) of the operation unit 104 to shift to the shooting mode. If there is no request for shifting to the shooting mode, the combined editing in the apparatus is continued, and it is determined in S604 whether the combined editing is completed. If it is not completed, the process proceeds to S602 and returns to the determination of whether or not there is a shooting mode request. If the completion of combined editing is detected in S604, the flow proceeds to S614, and the combined editing is terminated.

S602で撮影モード移行の要求が有る場合には、S603に移行して装置内での編集を停止する。S604では、前記図8で説明したようにサーバーに送信するデータを準備する。S606では映像編集サーバーとの通信を開始する。S607でサーバーとの接続が完了したかを検出し、接続が確認できたらS608に移行する。   If there is a request for switching to the shooting mode in S602, the process proceeds to S603 and editing in the apparatus is stopped. In S604, data to be transmitted to the server is prepared as described with reference to FIG. In step S606, communication with the video editing server is started. In step S607, it is detected whether the connection with the server is completed. If the connection is confirmed, the process proceeds to step S608.

S608では結合部のGOPデータ、識別番号、結合編集を指示するコマンドに加えてサーバー側で処理する際の処理条件を送信する。ここでの処理条件として、送信するGOPデータと再エンコードした結果得られるGOPデータの容量が同じになるように条件を付ける。即ち図8において、
容量(GOP301+GOP302)=容量(GOP305+GOP306)
となる。
In step S608, in addition to the GOP data of the coupling unit, the identification number, and a command for instructing coupling editing, processing conditions for processing on the server side are transmitted. The processing conditions here are such that the GOP data to be transmitted and the GOP data obtained as a result of re-encoding have the same capacity. That is, in FIG.
Capacity (GOP301 + GOP302) = Capacity (GOP305 + GOP306)
It becomes.

この条件に従って映像編集サーバーで再エンコードしたGOPデータは、元のGOPデータと単に置き換えることにより合成することができる。また、再エンコードされたGOPデータと共に、GOP内の映像フレームの位置を示すアドレス情報をサーバーから取得する。装置側では、取得したGOPデータを置き換えると共に、ストリームを管理するための管理情報を上記アドレス情報を基に更新する。装置内ではGOP305及びGOP306に対応する管理情報のみ更新すればよく、他の領域に関する管理情報は元のまま利用できるので、装置側での処理負荷を低減することができる。   The GOP data re-encoded by the video editing server according to this condition can be synthesized by simply replacing the original GOP data. In addition to the re-encoded GOP data, address information indicating the position of the video frame in the GOP is acquired from the server. On the device side, the acquired GOP data is replaced, and management information for managing the stream is updated based on the address information. Only the management information corresponding to GOP 305 and GOP 306 needs to be updated in the apparatus, and the management information relating to other areas can be used as it is, so that the processing load on the apparatus side can be reduced.

データ送信後S609において装置を撮影モードに切り換える。S610では、現在のモードが撮影モードであるか判断する。撮影モードの間はS610で待機している。撮影モードから別のモードに切り替わったことを検出したらS611に移行する。   In step S609 after data transmission, the apparatus is switched to the shooting mode. In S610, it is determined whether the current mode is a shooting mode. During the shooting mode, the process stands by in S610. If it is detected that the shooting mode has been switched to another mode, the process proceeds to S611.

S611では映像編集サーバーでの処理が完了したかを問い合わせる。未完了の場合はS610に遷移する。完了済みであることを検出したらS612に移行する。尚、サーバーに処理の完了を問い合わせる場合には、前述の識別番号をサーバーに送信して、サーバー側では識別番号を基に処理が完了済みであるかを照会する。   In step S611, an inquiry is made as to whether processing at the video editing server is completed. If not completed, the process proceeds to S610. If it is detected that the process has been completed, the process proceeds to S612. When making an inquiry about the completion of the process to the server, the above identification number is transmitted to the server, and the server inquires whether the process has been completed based on the identification number.

S612では、識別情報を用いてサーバーから再エンコードされた映像データ及び上記で示したGOP内の映像フレームの位置を示すアドレス情報を受信する。尚、アドレス情報は、サーバーから常に返信するようにしても良いし、サーバー側に結合編集を指示する際に、アドレス情報を返信するように条件を付与した場合のみ返信しても良い。   In step S612, the video data re-encoded from the server using the identification information and the address information indicating the position of the video frame in the GOP described above are received. Note that the address information may always be returned from the server, or may be returned only when a condition is given so that the address information is returned when the server side is instructed to perform combined editing.

次にS613において前記図8に示すように元の映像データとサーバーで再エンコードされた映像を合成して1つのストリームを生成する。この際に、上記に示したように再エンコードされた映像データの容量が送信した元の映像データの容量と同じであるかを確認する。元の映像データの容量と同じであると確認できたら、データの置換えと再エンコード部のみ管理情報を更新することで合成処理が完了する。   In step S613, as shown in FIG. 8, the original video data and the video re-encoded by the server are combined to generate one stream. At this time, as shown above, it is confirmed whether the capacity of the re-encoded video data is the same as the capacity of the transmitted original video data. If it can be confirmed that the capacity of the original video data is the same, the composition processing is completed by updating the management information only for the data replacement and re-encoding unit.

合成処理が完了したらS614に移行して結合編集を終了する。尚、このフローチャートではS610で撮影モード判定した後にサーバーへの問い合わせを行っているが、この順番を入れ換えてサーバーでの処理完了を確認後に撮影モードを判定してデータの受信を行うようにしてもよい。   When the synthesizing process is completed, the process proceeds to S614 to finish the combination editing. In this flowchart, the server is inquired after the shooting mode is determined in step S610. However, the order may be changed so that the shooting mode is determined and data is received after confirming the completion of processing at the server. Good.

以上のように装置内での結合編集中に撮影を行いたい状況が起こっても、結合編集をサーバーでの処理に自動的に切り換えることにより、結合編集を継続しながら撮影動作に移行することができ利便性が向上する。   As described above, even if there is a situation where you want to shoot during combined editing in the device, you can move to shooting while continuing combined editing by automatically switching combined processing to processing at the server. And convenience is improved.

10・・・記録再生装置
101・・・光学系
102・・・撮像部
103・・・信号処理部
104・・・操作部
105・・・MPU
106・・・メモリ
107・・・グラフィック処理部
108・・・ビデオ信号処理部
109・・・表示パネル
110・・・符号化処理部
111・・・記録再生処理部
112・・・記録媒体
113・・・通信処理部
DESCRIPTION OF SYMBOLS 10 ... Recording / reproducing apparatus 101 ... Optical system 102 ... Imaging part 103 ... Signal processing part 104 ... Operation part 105 ... MPU
106 ... Memory 107 ... Graphic processing unit 108 ... Video signal processing unit 109 ... Display panel 110 ... Encoding processing unit 111 ... Recording / playback processing unit 112 ... Recording medium 113 ..Communication processor

Claims (8)

編集機能の少なくとも一部を代替可能な映像編集サーバーと通信して、所定の情報を送受信可能な記録再生装置において、
複数の映像の結合編集において、結合する各映像の情報、前記記録再生装置のメモリ容量、装置のモード情報を基に結合編集を前記記録再生装置内で実行するか、または前記映像編集サーバーで実行するかのいずれかを判断する手段と、
前記判断する手段の判断結果に応じて前記映像編集サーバーに結合編集コマンド、識別情報及び各映像の結合部近傍の映像データを送信する手段と、
前記映像編集サーバーで結合された前記結合部近傍の映像データを受信して、前記識別情報に基づいて前記記録再生装置の映像データに挿入して結合映像データを生成することを特徴とする記録再生装置。
In a recording / playback apparatus capable of transmitting and receiving predetermined information by communicating with a video editing server capable of substituting at least a part of the editing function,
In combined editing of a plurality of videos, combined editing is executed in the recording / playback apparatus based on information of each video to be combined, memory capacity of the recording / playback apparatus, and mode information of the apparatus, or is executed in the video editing server Means for determining whether to do,
Means for transmitting a combined editing command, identification information and video data in the vicinity of the combined portion of each video to the video editing server according to a determination result of the determining means;
Recording / playback comprising receiving video data in the vicinity of the coupling unit coupled by the video editing server and inserting the video data into video data of the recording / playback device based on the identification information to generate combined video data apparatus.
前記結合する映像の情報がHD映像であるかSD映像であるかを判定する手段を有し、
前記判定手段によりHD映像であると判定した場合には前記映像編集サーバーで結合編集を実行するための処理に移行する請求項1に記載の記録再生装置。
Means for determining whether the video information to be combined is HD video or SD video;
The recording / reproducing apparatus according to claim 1, wherein when the determination unit determines that the video is HD video, the video editing server shifts to processing for executing combined editing.
撮影モードへの切り換えを検出する手段を有し、
前記結合編集を前記記録再生装置内で実行している場合に、前記撮影モードへの切り換えを検出した場合、前記映像編集サーバーでの結合編集を実行するための処理に移行する請求項1に記載の記録再生装置。
A means for detecting the switching to the shooting mode;
2. The process according to claim 1, wherein when the combined editing is executed in the recording / reproducing apparatus, when switching to the shooting mode is detected, the process proceeds to a process for executing the combined editing in the video editing server. Recording and playback device.
撮影モードであるか否かを検出する手段を有し、
前記映像編集サーバーで結合された前記結合部近傍の映像データを撮影モード以外のときに受信する請求項1に記載の記録再生装置。
A means for detecting whether or not the shooting mode is set;
The recording / reproducing apparatus according to claim 1, wherein the video data in the vicinity of the coupling unit coupled by the video editing server is received in a mode other than the shooting mode.
記録媒体及び記録媒体への記録手段、
前記記録媒体の一部を仮想メモリとして用いるように制御する手段、
前記記録再生装置のメモリ容量に加えて、前記仮想メモリの容量を基に結合編集を前記記録再生装置内で実行するか、または前記映像編集サーバーで実行するかのいずれかを判断する請求項1に記載の記録再生装置。
Recording medium and recording means for recording medium,
Means for controlling a part of the recording medium to be used as a virtual memory;
2. It is determined whether to perform combined editing in the recording / reproducing apparatus or in the video editing server based on the capacity of the virtual memory in addition to the memory capacity of the recording / reproducing apparatus. The recording / reproducing apparatus described in 1.
記録媒体及び記録媒体への記録手段、
前記結合映像データの容量を見積もる手段を有し、
前記映像編集サーバーでの結合編集を実行するための処理において、前記結合映像データの容量分の領域を前記記録媒体上に確保する請求項1に記載の記録再生装置。
Recording medium and recording means for recording medium,
Means for estimating the capacity of the combined video data;
The recording / reproducing apparatus according to claim 1, wherein an area corresponding to the capacity of the combined video data is secured on the recording medium in the process for executing combined editing in the video editing server.
映像データを削除する手段を有し、
前記映像編集サーバーで結合編集された映像データを受信するまでの期間に、
前記映像編集サーバーに送信した前記結合する各映像の結合部近傍を含む映像データが削除された場合、前記映像編集サーバーに結合編集の停止コマンドを送信する請求項1に記載の記録再生装置。
Means for deleting video data;
In the period until the video data combined and edited by the video editing server is received,
2. The recording / reproducing apparatus according to claim 1, wherein when video data including a vicinity of a coupling portion of each video to be coupled transmitted to the video editing server is deleted, a combination editing stop command is transmitted to the video editing server.
前記映像編集サーバーに、前記各映像の結合部近傍の映像データと前記映像編集サーバーで結合された前記結合部近傍の映像データが同じ容量になるように指示する手段、
前記映像編集サーバーで結合された前記結合部近傍の映像データ内の各映像フレームの位置を示すアドレス情報を受信し、前記受信した結合部近傍の映像データに対応する管理情報を更新する請求項1に記載の記録再生装置。
Means for instructing the video editing server so that the video data in the vicinity of the coupling portion of each video and the video data in the vicinity of the coupling portion combined in the video editing server have the same capacity;
The address information indicating the position of each video frame in the video data in the vicinity of the combining unit combined by the video editing server is received, and the management information corresponding to the received video data in the vicinity of the combining unit is updated. The recording / reproducing apparatus described in 1.
JP2013158005A 2013-07-30 2013-07-30 Recording/reproducing device Pending JP2015029213A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013158005A JP2015029213A (en) 2013-07-30 2013-07-30 Recording/reproducing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013158005A JP2015029213A (en) 2013-07-30 2013-07-30 Recording/reproducing device

Publications (1)

Publication Number Publication Date
JP2015029213A true JP2015029213A (en) 2015-02-12

Family

ID=52492653

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013158005A Pending JP2015029213A (en) 2013-07-30 2013-07-30 Recording/reproducing device

Country Status (1)

Country Link
JP (1) JP2015029213A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021513819A (en) * 2018-09-30 2021-05-27 北京微播視界科技有限公司Beijing Microlive Vision Technology Co.,Ltd. Video acquisition methods, devices, terminals and media

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021513819A (en) * 2018-09-30 2021-05-27 北京微播視界科技有限公司Beijing Microlive Vision Technology Co.,Ltd. Video acquisition methods, devices, terminals and media
JP7157177B2 (en) 2018-09-30 2022-10-19 北京微播視界科技有限公司 Video Acquisition Method, Apparatus, Terminal and Medium
US11670339B2 (en) 2018-09-30 2023-06-06 Beijing Microlive Vision Technology Co., Ltd Video acquisition method and device, terminal and medium

Similar Documents

Publication Publication Date Title
US9990958B2 (en) Playback apparatus, method for the same, and recording medium
JP6472253B2 (en) Image processing apparatus and control method thereof
US8724959B2 (en) Image recording apparatus and image displaying method
KR20060124767A (en) Electronic device and function assigning method
JP6270555B2 (en) Image processing system, imaging apparatus, and control method thereof
JP5082973B2 (en) Video recording system and imaging apparatus
JP5930748B2 (en) Recording apparatus, recording method, and recording system
JP2023171880A (en) Communication device, control method therefor, and program
JP6527582B2 (en) Image pickup apparatus and image recording method
JP2015029213A (en) Recording/reproducing device
JP4761555B2 (en) Data recording apparatus and control method thereof
JP2008283708A (en) Playback apparatus
RU2584687C2 (en) Image processing device
JP2001145020A (en) Image editor and method
JP2014036402A (en) Recording device and recording method
JP5522972B2 (en) Reproducing apparatus and control method thereof
WO2017169293A1 (en) Video processing device, video processing system, video processing method, and video output device
JP4332811B2 (en) IMAGING DEVICE, MOBILE TELEPHONE DEVICE, AND IMAGE DATA REPRODUCING METHOD
JP5414844B2 (en) Imaging device
JP7213657B2 (en) IMAGING DEVICE, CONTROL METHOD AND PROGRAM THEREOF
JP2007072210A (en) Imaging apparatus, its control method, and program
US8818168B2 (en) Image capture apparatus, record/playback device, and menu-operating method
JP4240127B2 (en) Playback apparatus and image data playback method
JP2006180411A (en) Recording reproducing apparatus and digital camera
JP2005347895A (en) Information recording device and information recording/reproducing system