JP6548500B2 - File name conversion apparatus, method, program, and recording system - Google Patents

File name conversion apparatus, method, program, and recording system Download PDF

Info

Publication number
JP6548500B2
JP6548500B2 JP2015151335A JP2015151335A JP6548500B2 JP 6548500 B2 JP6548500 B2 JP 6548500B2 JP 2015151335 A JP2015151335 A JP 2015151335A JP 2015151335 A JP2015151335 A JP 2015151335A JP 6548500 B2 JP6548500 B2 JP 6548500B2
Authority
JP
Japan
Prior art keywords
moving image
file name
file
information
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015151335A
Other languages
Japanese (ja)
Other versions
JP2017034418A (en
Inventor
北村 和也
和也 北村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015151335A priority Critical patent/JP6548500B2/en
Publication of JP2017034418A publication Critical patent/JP2017034418A/en
Application granted granted Critical
Publication of JP6548500B2 publication Critical patent/JP6548500B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ファイル名変換装置、方法及びプログラム並びに記録システムに関する。   The present invention relates to a file name conversion apparatus, method, program, and recording system.

近年、フルハイビジョンの4倍の解像度を有する高解像度の動画像(いわゆる4K動画像)を表示可能な高解像度テレビが普及し始め、4K動画像の放送も開始されるようになってきた。さらに、フルハイビジョンの16倍の解像度を有する超高解像度の動画像(いわゆる8K動画像)のシステムが2020年の導入を目指して開発されている。このシステムでは、あたかもその場にいるかのような臨場感あふれる動画像を実現できる。   In recent years, high-resolution televisions capable of displaying high-resolution moving images (so-called 4K moving images) having a resolution four times that of full high-definition television have begun to spread and broadcasting of 4K moving images has also started. Furthermore, a system of ultra-high resolution moving images (so-called 8K moving images) having a resolution 16 times that of full high vision is being developed aiming for introduction in 2020. With this system, it is possible to realize immersive moving images as if they were on the spot.

ビデオカメラにおいて8K動画像を撮像するには、大量の動画像データをリアルタイムで現像処理できる高スペックなシステムが要求される。しかしながら、このようなシステムは非常に高価になる。そこで、膨大な処理負荷を必要とするリアルタイム現像処理は行わず、ビデオカメラは撮像センサからの画像データ(未現像の画像データ)をRAWデータとして記録装置に出力するシステムが採用されている。これにより、ビデオカメラの負荷を軽減しつつ、システムを複雑化することなく8K動画像を撮像及び記録できるようになる。映像制作業界では、記録したRAWデータの現像処理を後工程で行うことで動画像を完成する。   To capture an 8K moving image with a video camera, a high-spec system capable of processing a large amount of moving image data in real time is required. However, such systems are very expensive. Therefore, a system is employed in which a video camera outputs image data (undeveloped image data) from an imaging sensor as RAW data to a recording apparatus without performing real-time development processing requiring a huge processing load. This makes it possible to capture and record 8K moving images without making the system complicated while reducing the load on the video camera. In the video production industry, moving images are completed by performing development processing of recorded RAW data in a later step.

ただし、放送業界では、動画像を完成させるために時間とコストをかけられないことから、リアルタイムに現像したRAWデータを記録することが望まれている。このような用途では、ビデオカメラとは別にリアルタイム現像処理装置を用意し、ビデオカメラから出力されるRAWデータを当該リアルタイム現像処理装置で現像し、記録するシステム構成が用いられる。   However, in the broadcast industry, it is desirable to record RAW data developed in real time, since it can not spend time and cost to complete moving images. In such an application, a system configuration is used in which a real-time development processing device is prepared separately from the video camera, and RAW data output from the video camera is developed and recorded by the real-time development processing device.

映像制作業界及び放送業界のどちらでも、SMPTE(Society of Motion Picture and Television Engineers)の動画像伝送規格SDIが用いられる。SDI(Serial Digital Interface)では、ケーブル1本で3Gbpsまで伝送可能な3G−SDIが実用化されており、近年、より高レートの伝送が可能な6G−SDIの規格化が行われた。   In both the video production industry and the broadcast industry, the motion picture transmission standard SDI of the SMPTE (Society of Motion Picture and Television Engineers) is used. In SDI (Serial Digital Interface), 3G-SDI capable of transmitting up to 3 Gbps with one cable has been put into practical use, and in recent years, standardization of 6G-SDI capable of higher rate transmission has been performed.

しかし、8K動画像のような大容量の動画像データをSDIケーブル1本で伝送するには転送レートが足りない。これに対し、動画像データを複数のデータに分割し、複数本のケーブルを使用して並列伝送することで、必要なデータ転送レートを確保する方法が提案されている(特許文献1参照)。   However, in order to transmit large capacity moving image data such as 8K moving image with one SDI cable, the transfer rate is insufficient. On the other hand, there has been proposed a method of securing a necessary data transfer rate by dividing moving image data into a plurality of pieces of data and performing parallel transmission using a plurality of cables (see Patent Document 1).

特開2014−3492号公報JP, 2014-3492, A

例えば、8K動画像を4つの4K動画像に分割し、4本のSDIケーブルで並列出力するビデオカメラを使用することが考えられる。4つのSDIを有する記録装置を用意することで8K動画像を記録できるが、このような記録装置は非常に高価である。他方、4K動画像に対応する記録装置を4台用意することでも、実質的に8K動画像を記録できる。4K動画像に対応する記録装置は既に十分に普及していることから、必要なシステムを安価に構築できる。4K動画像に対応する記録装置が4K動画像のRAWデータを記録する場合、別途用意する編集装置で現像処理を行い、4つの4K画像を画面上で合成することで、8K動画像を復元できる。   For example, it is conceivable to use a video camera which divides an 8K moving image into four 4K moving images and outputs them in parallel with four SDI cables. Although an 8K moving image can be recorded by preparing a recording device having four SDIs, such a recording device is very expensive. On the other hand, 8K moving images can be substantially recorded by preparing four recording devices corresponding to 4K moving images. Since recording devices compatible with 4K moving images are already in widespread use, necessary systems can be constructed inexpensively. When a recording device compatible with 4K moving images records RAW data of 4K moving images, an 8K moving image can be restored by performing development processing with a separately prepared editing device and combining four 4K images on the screen. .

オリジナルの動画像を複数の動画像(分割動画像)に分割し、各分割動画像を個別の記録装置で記録する記録システムでは、各記録装置に記録される分割動画像のファイルレベルで事後的に識別できるようにする必要がある。そうでないと、記録後の管理・編集が非常に面倒になるからである。例えば、分割記録する各ファイルのファイル名またはその一部を予め決めておくか、一定の規則の下で命名する方法が考えられる。   In a recording system in which an original moving image is divided into a plurality of moving images (divided moving images) and each divided moving image is recorded by an individual recording device, the file level of the divided moving image recorded in each recording device is a posteriori Need to be identifiable. Otherwise, management and editing after recording would be very troublesome. For example, the file name of each file to be divided and recorded or a part thereof may be determined in advance, or may be named under a certain rule.

予めファイル名を設定した場合でも、撮像中に移動してセットを組み直した際にケーブルを挿し間違えたりすると、分割動画像とファイル名との対応が崩れてしまう。そのため、ユーザは、撮像のたびにケーブルの接続と記録装置の設定を確認しなければならず、その作業に時間をとられてしまう。   Even when the file name is set in advance, if the cable is inserted incorrectly when moving and reassembling the set during imaging, the correspondence between the divided moving image and the file name is lost. Therefore, the user must check the connection of the cable and the setting of the recording device each time imaging is performed, which takes time for the work.

本発明は、このような不都合を解消し、分割動画像のファイル名の一貫性を確保できるファイル名変換装置、方法及びプログラム並びに記録システムを提示することを目的とする。   An object of the present invention is to present a file name conversion device, method, program, and recording system capable of solving such problems and ensuring consistency of file names of divided moving images.

上記目的を達成するために、本発明に係るファイル名変換装置は、動画像を空間及び時間のいずれかまたは両方で分割することにより生成される動画像ファイルであって、前記空間及び時間のいずれかまたは両方での分割位置を示す分割情報をメタデータとして保持する動画像ファイルを読み込む手段と、前記動画像ファイルのメタデータから前記分割情報を検出する手段と、前記分割情報に従い、前記動画像ファイルのファイル名を変更する変更手段とを有することを特徴とする。   In order to achieve the above object, a file name conversion device according to the present invention is a moving image file generated by dividing a moving image in space and / or time, and any of the space and time. Means for reading a moving image file holding, as metadata, division information indicating division positions in one or both, means for detecting the division information from metadata of the moving image file, and the moving image according to the division information And changing means for changing the file name of the file.

本発明によれば、メタデータに含まれる分割情報に従いファイル名を変更するので、オリジナルの動画像を分割して得られる複数の動画像ファイルの編集・管理が容易になる。   According to the present invention, the file name is changed according to the division information included in the metadata, so editing and management of a plurality of moving image files obtained by dividing the original moving image can be facilitated.

実施例1における撮像装置100の概略構成の一例を説明するためのブロック図である。FIG. 1 is a block diagram for explaining an example of a schematic configuration of an imaging device 100 according to a first embodiment. 撮像素子のベイヤー構造配列の一例を説明するための図である。It is a figure for demonstrating an example of the Bayer structure array of an image pick-up element. 図1に示す撮像装置100の信号処理部の概略構成の一例を説明するためのブロック図である。It is a block diagram for demonstrating an example of schematic structure of the signal processing part of the imaging device 100 shown in FIG. 図1に示す撮像装置100の撮像素子の有効画素領域を示す模式図である。It is a schematic diagram which shows the effective pixel area of the image pick-up element of the imaging device 100 shown in FIG. RAWフレームを構成する各色の画素データ配置を示す模式図である。It is a schematic diagram which shows the pixel data arrangement | positioning of each color which comprises a RAW flame | frame. 図3に示す信号処理部の多重部の概略構成の一例を説明するためのブロック図である。It is a block diagram for demonstrating an example of schematic structure of the multiplexing part of the signal processing part shown in FIG. 有効映像期間に多重される画素データの配分例を示す図である。It is a figure which shows the example of allocation of the pixel data multiplexed to an effective imaging | video period. 1ラインの画素データから生成される4チャネルのデータストリームの構成例である。It is an example of a structure of the data stream of 4 channels produced | generated from the pixel data of 1 line. ANCパケットの構成例を示す模式図である。It is a schematic diagram which shows the structural example of an ANC packet. ANCパケットを多重したデータストリームのデータ構成例を示す模式図である。It is a schematic diagram which shows the data structural example of the data stream which multiplexed the ANC packet. 図1に示す撮像装置100の16チャネル出力画像を8台の記録装置で記録する構成を示す図である。It is a figure which shows the structure which records the 16-channel output image of the imaging device 100 shown in FIG. 1 by eight recording devices. 図11に示す記録装置1110−1〜1110−8の概略構成の一例を説明するためのブロック図である。It is a block diagram for demonstrating an example of schematic structure of the recording devices 1110-1 to 1110-8 shown in FIG. 図11に示す記録装置1110−1〜1110−8の動作の一例を示すフローチャートである。14 is a flowchart showing an example of the operation of the recording apparatuses 1110-1 to 1110-8 shown in FIG. 図11に示す記録装置1110−1〜1110−8に記録された動画像ファイルのファイル名を変更するパーソナルコンピュータ(PC)の概略構成の一例を説明するためのブロック図である。It is a block diagram for demonstrating an example of a schematic structure of a personal computer (PC) which changes the file name of the moving image file recorded on the recording devices 1110-1 to 1110-8 shown in FIG. 図14に示すPCによるファイル名変更処理の一例を示すフローチャートである。It is a flowchart which shows an example of the file name change process by PC shown in FIG.

以下、図面を参照して本発明の実施例を説明する。ただし、本発明は、以下に説明する実施例に限定されない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the present invention is not limited to the embodiments described below.

図1は、実施例1における記録システムに使用される撮像装置100の概略構成の一例を説明するためのブロック図である。   FIG. 1 is a block diagram for explaining an example of a schematic configuration of an imaging apparatus 100 used for the recording system in the first embodiment.

ユーザが操作部116を操作して電源オンの指示を入力すると、電源供給部が撮像装置100の各構成要素に電力を供給する。   When the user operates the operation unit 116 to input a power on instruction, the power supply unit supplies power to each component of the imaging apparatus 100.

撮像部101は、撮像レンズ102、シャッタ103、撮像素子104、前置処理回路105、A/D変換器106、後置処理回路107及びROM108から構成される。   The imaging unit 101 includes an imaging lens 102, a shutter 103, an imaging device 104, a pre-processing circuit 105, an A / D converter 106, a post-processing circuit 107, and a ROM 108.

撮像レンズ102は、ズームレンズおよびフォーカスレンズを含む。シャッタ103は絞り機能を兼ねる。撮像素子104は図2に示すようなベイヤー構造の、CCD撮像センサまたはCMOS撮像センサからなり、光学像を電気信号に変換する。撮像素子104は、制御部113から供給されるクロックのタイミング(実施例1では、1/120秒)で、蓄積した電荷量の電気信号をプログレッシブで前置処理回路105に供給する。前置処理回路105は、撮像素子104の出力に含まれるノイズを除去するCDS(相関2重サンプリング)回路、及びAGC(自動利得制御)回路を含む。前置処理回路105は、撮像素子104からの画像信号のノイズを除去するとともにレベルを調整する。A/D変換器106は、前置処理回路105から出力されるアナログ画像信号をデジタル画像信号に変換する。   The imaging lens 102 includes a zoom lens and a focus lens. The shutter 103 doubles as an aperture function. The imaging device 104 is a CCD imaging sensor or a CMOS imaging sensor having a Bayer structure as shown in FIG. 2 and converts an optical image into an electrical signal. The imaging element 104 progressively supplies the electric signal of the accumulated charge amount to the pre-processing circuit 105 at the timing of the clock supplied from the control unit 113 (1/120 seconds in the first embodiment). The pre-processing circuit 105 includes a CDS (correlated double sampling) circuit that removes noise included in the output of the imaging device 104 and an AGC (automatic gain control) circuit. The pre-processing circuit 105 removes noise from the image signal from the image sensor 104 and adjusts the level. The A / D converter 106 converts an analog image signal output from the pre-processing circuit 105 into a digital image signal.

後置処理回路107は、A/D変換器106からのデジタル画像信号を色ごとの画素プレーン、すなわち、R(赤)、Gr(緑)、Gb(緑)及びB(青)の4つの画素プレーンに分離する。後置処理回路107はさらに、各色成分に色再現のリニアマトリックス処理を適用した後、各色10ビットの画素データを信号処理部109に供給する。   The post-processing processing circuit 107 converts the digital image signal from the A / D converter 106 into pixel planes for each color, that is, four pixels of R (red), Gr (green), Gb (green) and B (blue). Split into planes. The post-position processing circuit 107 further applies linear matrix processing of color reproduction to each color component, and then supplies pixel data of 10 bits of each color to the signal processing unit 109.

ROM108は、撮像素子104に関する情報として、総画素数、縦横のサイズ及び有効ピクセルの位置などを記憶する。   The ROM 108 stores, as information related to the image sensor 104, the total number of pixels, the size in the vertical and horizontal directions, the position of the effective pixel, and the like.

信号処理部109は、撮像部101(後置処理回路107)に読み出しクロックを供給して各色(R、Gr、Gb、B)の画素データを読み出し、SDI伝送のためのデータストリームを生成し、マルチプレクサ110に供給する。マルチプレクサ110は、信号処理部109からのデータストリームを多重してシリアライザ111に出力する。シリアライザ111は、マルチプレクサ110からの多重化デジタルストリームをシリアルデータに変換する。シリアライザ111により生成されるシリアルデータは、BNC端子で構成される外部インターフェース112を介して外部に出力される。   The signal processing unit 109 supplies a read clock to the imaging unit 101 (post-processing circuit 107), reads pixel data of each color (R, Gr, Gb, B), and generates a data stream for SDI transmission, The signal is supplied to the multiplexer 110. The multiplexer 110 multiplexes the data stream from the signal processing unit 109 and outputs the multiplexed data stream to the serializer 111. The serializer 111 converts the multiplexed digital stream from the multiplexer 110 into serial data. The serial data generated by the serializer 111 is output to the outside through the external interface 112 configured by the BNC terminal.

制御部113は、撮像装置100が有するすべての構成要素を制御することができる。例えば、制御部113は、操作部116によるユーザの操作を検出し、撮像部101、信号処理部109及びマルチプレクサ110を、タイミングの同期をとりながら制御する。制御部113は、各種処理で作成されたデータを一時的にRAM115に書き込み、必要に応じて参照のために読み込む。   The control unit 113 can control all the components of the imaging apparatus 100. For example, the control unit 113 detects an operation of the user by the operation unit 116, and controls the imaging unit 101, the signal processing unit 109, and the multiplexer 110 while synchronizing timing. The control unit 113 temporarily writes the data created by the various processes in the RAM 115, and reads it for reference as needed.

フラッシュメモリ114は、電気的に消去・記録可能な記憶手段であり、制御部113を動作させるために必要なプログラム及び撮像装置100に固有の調整データ等が予め書きこまれている。   The flash memory 114 is an electrically erasable and recordable storage unit, and a program necessary for operating the control unit 113 and adjustment data unique to the imaging apparatus 100 are written in advance.

撮像装置100の各構成要素は、各構成要素間の制御信号とデータ信号のための伝送路となる内部バス117に接続する。   Each component of the imaging device 100 is connected to an internal bus 117 serving as a transmission path for control signals and data signals between the components.

図3は、信号処理部109の概略構成の一例を説明するためのブロック図である。RAM303は、撮像部101の後置処理回路107から読み込んだ各色の画素データを一時的に保存するメモリである。読出しクロック供給部302が、後置処理回路107に各色の画素のデータの読み出しクロックを供給する。信号処理部109は、制御部113の制御下で、後置処理回路107から読み込んだ各色の画素データを、有効画素の画素データと周辺画素の画素データに分けてRAM303に書き込む。画素データ読出し部301は、RAM303に記憶される1画面の画素データを4つに分割して読み出し、16個の信号多重部304−1〜304−16にデータを供給する。4色ある画素データを1画面で4分割することから、16群の画素データに分割されることになり、信号処理部109は、並列な16個の信号多重部304−1〜304−16を有する。   FIG. 3 is a block diagram for explaining an example of a schematic configuration of the signal processing unit 109. As shown in FIG. The RAM 303 is a memory for temporarily storing pixel data of each color read from the post-processing circuit 107 of the imaging unit 101. The read clock supply unit 302 supplies the post-processing circuit 107 with a read clock of the data of each color pixel. The signal processing unit 109 divides the pixel data of each color read from the post-processing circuit 107 into pixel data of an effective pixel and pixel data of peripheral pixels under the control of the control unit 113 and writes the divided data into the RAM 303. The pixel data reading unit 301 divides the pixel data of one screen stored in the RAM 303 into four and reads the data, and supplies the data to 16 signal multiplexing units 304-1 to 304-16. Since the pixel data having four colors is divided into four in one screen, it is divided into 16 groups of pixel data, and the signal processing unit 109 comprises 16 parallel signal multiplexing units 304-1 to 304-16. Have.

信号多重部304−1〜304−16は同じ構成からなり、それぞれ、入力する画素データから動画像データストリームを生成する。例えば、各信号多重部304−1〜304−16は、入力画素データを並び替え、映像タイミング基準コードSAV(Start of Active Video),EAV(End of Active Video)を多重し、各種のアンシラリーデータを多重する。   The signal multiplexing units 304-1 to 304-16 have the same configuration, and respectively generate moving image data streams from input pixel data. For example, each signal multiplexing unit 304-1 to 304-16 rearranges input pixel data, multiplexes video timing reference codes SAV (Start of Active Video) and EAV (End of Active Video), and various ancillary data. Multiplex.

8K動画像を例に信号多重部304−1〜304−16の動作を説明する。撮像部101により撮像される画像が、図4に示すように、横(水平)8192画素、縦(垂直)4320画素という画素サイズであるとする。色フィルタは、図2に示したようなベイヤー配列になっているとする。この全体エリアから1回にデータ取得可能な画素データ群をRAWフレームと定義する。以下では、横8192画素、縦4320画素分のデータを8K画像データと記述し、横4096画素、縦2160画素分のデータを4K画像データと記述する。   The operation of the signal multiplexing units 304-1 to 304-16 will be described by taking an 8K moving image as an example. It is assumed that the image captured by the imaging unit 101 has a pixel size of 8192 horizontal pixels (horizontal) and 4320 vertical pixels (vertical) as shown in FIG. 4. The color filters are assumed to be in the Bayer arrangement as shown in FIG. A pixel data group capable of acquiring data at one time from the entire area is defined as a RAW frame. In the following, data of 8192 pixels in width and 4320 pixels in height are described as 8K image data, and data of 4096 pixels in width and 2160 pixels in height are described as 4K image data.

撮像部101は、1秒間あたり120枚のRAWフレームを出力できるとする。以下では、1秒間あたりにnフレームの画素データを伝送する場合、nPと表現する。例えば、1秒間あたり120フレーム分の画素データを伝送する場合、120Pと記述する。   The imaging unit 101 can output 120 RAW frames per second. In the following, when transmitting pixel data of n frames per second, it is expressed as nP. For example, when transmitting pixel data of 120 frames per second, it is described as 120P.

制御部113は、撮像部101のROM108から撮像センサの画素の縦横幅及びベイヤー構造の各画素の配列に関する情報などを読み込み、この情報に従いRAM303への書き込みとそのタイミングを制御する。この制御により、後置処理回路107から供給される画素データのうち、有効画素の画素データがRAM303に書き込まれる。図5は、RAM303に書き込まれる有効画素の画素データであって、RAWフレームを構成する各色(R、Gr、Gb、B)成分の画素データを示す。各色の画素データは、横4096画素、縦2160画素である。   The control unit 113 reads, from the ROM 108 of the imaging unit 101, information on the vertical width and the horizontal width of the pixels of the imaging sensor and the arrangement of pixels of the Bayer structure, and controls writing to the RAM 303 and timing thereof according to this information. Among the pixel data supplied from the post-processing circuit 107, the pixel data of the effective pixel is written to the RAM 303 by this control. FIG. 5 shows pixel data of effective pixels to be written to the RAM 303, and pixel data of each color (R, Gr, Gb, B) constituting a RAW frame. The pixel data of each color is 4096 pixels horizontally and 2160 pixels vertically.

制御部113は、RAM303に書き込まれた有効画素の画素データを16分割して読み出し、各分割画素データを信号多重部304−1〜304−16に供給する。16分割は、画面内の4分割と時間軸方向での4分割からなる。この動作の一例を説明する。ここでは、RAM303に書き込まれた1フレームの画素データを、図4に(0,0)、(1,0)、(0,1)、(1,1)と記すように横と縦のそれぞれで2分割する。(0,0)、(1,0)、(0,1)及び(1,1)は、それぞれ、8K画像を4分割して得られる4K画像の位置座標を示す。すなわち、1つの8K画像データを画面上で空間的に4つの4K画像データに分割する。制御部113は、座標(0,0)の画素データを信号多重部304−1〜304−4に、座標(1,0)の画素データを信号多重部304−5〜304−8にそれぞれ分配する。同様に、制御部113は、座標(0,1)の画素データを信号多重部304−9〜304−12に、座標(1,1)の画素データを信号多重部304−13〜304−16にそれぞれ分配する。   The control unit 113 divides the pixel data of the effective pixel written in the RAM 303 into 16 and reads the divided pixel data, and supplies each of the divided pixel data to the signal multiplexing units 304-1 to 304-16. The sixteen divisions consist of four divisions in the screen and four divisions in the time axis direction. An example of this operation will be described. Here, the pixel data of one frame written in the RAM 303 is shown in horizontal and vertical respectively as indicated by (0, 0), (1, 0), (0, 1) and (1, 1) in FIG. Divide into two. (0, 0), (1, 0), (0, 1) and (1, 1) respectively indicate position coordinates of a 4K image obtained by dividing an 8K image into four. That is, one 8K image data is spatially divided into four 4K image data on the screen. The control unit 113 distributes pixel data of coordinates (0, 0) to the signal multiplexing units 304-1 to 304-4 and pixel data of coordinates (1, 0) to the signal multiplexing units 304-5 to 304-8. Do. Similarly, the control unit 113 sets pixel data of coordinates (0, 1) to the signal multiplexing units 304-9 to 304-12 and sets pixel data of coordinates (1, 1) to the signal multiplexing units 304-13 to 304-16. Distribute to each

実施例1では、このように空間的な4分割で得られる動画像データをさらに、時間軸上でも分割する。例えば、120フレーム/秒の動画像データを4本の30フレーム/秒の動画像データに分割する。   In the first embodiment, moving image data obtained by such spatial four division is further divided on the time axis. For example, moving image data of 120 frames / second is divided into four 30 frames / second moving image data.

RAM303には、120フレーム/秒の動画像データが格納される。制御部113は、30フレーム/秒の4つの動画像データに分割し、各30フレーム/秒の動画像データを4つの信号多重部304−1〜304−4,304−5〜404−8,304−9〜304−12,304−13〜304−16に分配する。例えば、RAM303に格納される1枚目のフレームを信号多重部304−1に、2枚目のフレームを信号多重部304−2に、3枚目のフレームを信号多重部304−3に、4枚目のフレームを信号多重部304−4に分配する。そして、5枚目のフレームを信号多重部304−1に、6枚目のフレームのデータを信号多重部305、7枚目のフレームのデータを信号多重部306、8枚目のフレームのデータを信号多重部307というように分割して出力する。   The RAM 303 stores moving image data of 120 frames per second. The control unit 113 divides the moving image data of 30 frames / second into four signal multiplexing units 304-1 to 304-4, 304-5 to 404-8, and divides the moving image data of 30 frames / second into four. 304-9-304-12, 304-13-304-16. For example, the first frame stored in the RAM 303 is the signal multiplexer 304-1, the second frame is the signal multiplexer 304-2, and the third frame is the signal multiplexer 304-3. The first frame is distributed to the signal multiplexing unit 304-4. Then, the fifth frame is sent to the signal multiplexing unit 304-1, the data for the sixth frame is sent to the signal multiplexing unit 305, the data for the seventh frame is sent to the signal multiplexing unit 306, and the data for the eighth frame is sent The signal multiplexer 307 divides the signal and outputs it.

このように、制御部113は、RAM303に格納される120P・8K動画像データを30P・4K動画像データに16分割し、各4K動画像データを信号多重部304−1〜304−16に分配する。   As described above, the control unit 113 divides the 120P · 8K moving image data stored in the RAM 303 into 30P · 4K moving image data into 16 and distributes each 4K moving image data to the signal multiplexing units 304-1 to 304-16. Do.

信号多重部304−1〜304−16の動作を説明する。信号多重部304は、並列に配置される4つの多重部320,321,322,323を有する。多重部320,321,322,323は同じ構成からなり、図6は多重部320〜323の概略構成の一例を説明するためのブロック図である。   The operation of the signal multiplexing units 304-1 to 304-16 will be described. The signal multiplexing unit 304 has four multiplexing units 320, 321, 322 and 323 arranged in parallel. The multiplexing units 320, 321, 322 and 323 have the same configuration, and FIG. 6 is a block diagram for explaining an example of a schematic configuration of the multiplexing units 320 to 323.

多重部320〜323は原理的にはFIFO(First−In First−Out)メモリであり、制御部113から供給される書き込みクロックのタイミングで、RAM303からの画素データを記憶する。このとき、制御部113は、SDI伝送で適用する画素データ多重化構造に応じて、各色の画素データを多重部320〜323に配分する。例えば、SDIの伝送方法としてSMPTE ST 425(3G−SDI)のレベルBに準拠し、SMPTE ST 372(Dual Link)のR'G'B'+A 10ビットの多重化構造を適用して、各画素データを配分する。また、画素のサンプルフォーマットは、SMPTE ST 2048−2で規定された2048×1080/30Pに準拠する。   The multiplexing units 320 to 323 are, in principle, FIFO (First-In First-Out) memories, and store pixel data from the RAM 303 at the timing of the write clock supplied from the control unit 113. At this time, the control unit 113 distributes pixel data of each color to the multiplexing units 320 to 323 according to the pixel data multiplexing structure applied in the SDI transmission. For example, according to SMPTE ST 425 (3G-SDI) level B as a transmission method of SDI, the multiplexing structure of SMPTE ST 372 (Dual Link) R'G'B '+ A 10 bits is applied, and each pixel is applied. Allocate data. Also, the sample format of the pixel conforms to 2048 × 1080/30 P specified by SMPTE ST 2048-2.

図7は、このSMPTE規格に従って、有効映像期間に多重される画素データの配分状況を示す。制御部113は、データストリームを生成する各多重部320,321,322,323に、RAM303から読み出した画素データを順番に供給する。例えば、多重部320は、画素データGbをGb(1)、Gb(2)、・・、Gb(2048)の順番に受け取り、Link Aのデータストリーム1を生成する。   FIG. 7 shows the distribution of pixel data multiplexed in the effective video period according to the SMPTE standard. The control unit 113 sequentially supplies the pixel data read from the RAM 303 to the multiplexing units 320, 321, 322, and 323 that generate data streams. For example, the multiplexing unit 320 receives the pixel data Gb in the order of Gb (1), Gb (2), ..., Gb (2048), and generates the data stream 1 of Link A.

ライン計算部601は、SDIの信号を受信する受信装置に対して、画像信号の区切り位置を認識するためのSAV、EAV、LN(Line Number)及び巡回冗長コードCRCCを計算する。SAV/EAVタイミングパルス発生部602は、制御部113から画素データを読み出すタイミングを制御する読出しクロックと、有効映像期間と垂直/水平ブランキング領域の期間のタイミング情報を受信する。有効映像期間のタイミング情報は、データストリームの信号に有効画素データを多重する期間を示す。ブランキング領域の期間のタイミング情報は、アンシラリーデータを多重する期間を示す。SAV/EAVタイミングパルス発生部602はまた、画素データを多重するタイミングパルスを発生する。   The line calculation unit 601 calculates SAV, EAV, LN (Line Number) and cyclic redundancy code CRCC for recognizing the division position of the image signal with respect to the receiving apparatus that receives the signal of SDI. The SAV / EAV timing pulse generation unit 602 receives a read clock for controlling the timing of reading pixel data from the control unit 113 and timing information of a period of an effective video period and a vertical / horizontal blanking region. The timing information of the effective video period indicates a period in which the effective pixel data is multiplexed to the signal of the data stream. The timing information of the blanking area period indicates a period for multiplexing ancillary data. The SAV / EAV timing pulse generator 602 also generates timing pulses for multiplexing pixel data.

切り替え制御部603は、RAM303からの入力データとライン計算部601の出力データの一方を選択する。選択されたデータはRAM604に書き込まれる。切り替え制御部603は、SAV/EAVタイミングパルス発生部602から供給されたタイミングパルスに基づいて、RAM303から画素データを読み出すタイミングを切り替える。切り替え制御部603は、RAM303の読み出しタイミングを切り替えながら、生成中のデータストリームに画素データとSAV、EAV、LN及びCRCCを切り替えながら多重する。   The switching control unit 603 selects one of the input data from the RAM 303 and the output data of the line calculation unit 601. The selected data is written to the RAM 604. The switching control unit 603 switches the timing of reading pixel data from the RAM 303 based on the timing pulse supplied from the SAV / EAV timing pulse generation unit 602. The switching control unit 603 switches pixel data and SAV, EAV, LN, and CRCC to the data stream being generated while switching the reading timing of the RAM 303 while multiplexing.

このような動作により、各多重部320〜323において、生成されたデータストリームがRAM604に書き込まれ、アンシラリー多重部324に出力される。   By such an operation, the generated data stream is written to the RAM 604 in each of the multiplexing units 320 to 323, and is output to the ancillary multiplexing unit 324.

図8は、図4で示す画素構成の各画素プレーンにおける1ラインの画素データを、4本のデータストリームに配分した結果を示す。各色の括弧内の番号は、その色の画素プレーンの左端の画素からの順番を示す。例えば、Gb(3)の括弧内の番号「3」は、Gbの画素プレーンの左端の画素データから3番目であることを示す。ここでは、RAWフレームを構成する2ラインに配置されるR、Gr、Gb及びBの画素データが4本のデータストリームに配分されている。   FIG. 8 shows the result of allocating pixel data of one line in each pixel plane of the pixel configuration shown in FIG. 4 to four data streams. The numbers in parentheses for each color indicate the order from the pixel at the left end of the pixel plane of that color. For example, the number “3” in the parentheses of Gb (3) indicates that it is the third from the pixel data at the left end of the Gb pixel plane. Here, pixel data of R, Gr, Gb, and B arranged in two lines constituting a RAW frame are distributed to four data streams.

アンシラリー多重部324は、多重部320〜323からのデータストリームにタイムコード、ペイロードID、撮像年月日、ユーザ定義名、リール番号、シーン番号、テイク番号、ショット番号及び分割情報などの付加情報を多重する。多重方法は、SMPTE291に準拠する。アンシラリー多重部324は、多重結果をマルチプレクサ110に出力する。   The ancillary multiplexing unit 324 adds additional information such as time code, payload ID, imaging date, user-defined name, reel number, scene number, take number, shot number, and division information to the data stream from the multiplexing units 320 to 323. Multiplex. The multiplexing method conforms to SMPTE 291. The ancillary multiplexing unit 324 outputs the multiplexed result to the multiplexer 110.

タイムコードはビデオ信号のフレーム毎につけられる情報であり、「時、分、秒及びフレーム」の単位で表される。ペイロードIDはフレームレート、解像度、ビット深度及び信号構成など、記録・伝送動画像フォーマットに関する情報を示す。リール番号、シーン番号及びテイク番号は、それぞれ記録メディアごとに異なる番号であり、シーン及びテイクごとにユーザが設定する。ショット番号は、動画像の記録開始または記録停止によりインクリメントされる番号である。   The time code is information attached to each frame of the video signal and is expressed in units of "hour, minute, second and frame". The payload ID indicates information on a recording / transmission moving image format such as frame rate, resolution, bit depth and signal configuration. The reel number, the scene number and the take number are different numbers for each recording medium, and are set by the user for each scene and take. The shot number is a number incremented by recording start or recording stop of the moving image.

分割情報は、上述した空間的な分割と時間的な分割の分割位置に関する情報からなる。分割情報はここでは、空間的な分割位置に関して左右方向の分割数、縦方向の分割数及び位置座標の情報を含み、時間的な分割位置に関してフレーム分割数とフレーム情報の情報を含む。120P・8K動画像データを16個の30P・4K動画像データに分割する場合、次のようになる。すなわち、空間分割の左右方向分割数が2、縦方向分割数が2、時間分割のフレーム分割数が4となる。各信号多重部304では、多重部320の処理対象が、位置座標が(0,0)、フレーム番号が1となる。また、多重部321,322,323の処理対象はそれぞれ、フレーム番号が2,3,4となる。   The division information includes information on the division positions of the above-described spatial division and temporal division. Here, the division information includes information on the number of divisions in the horizontal direction, the number of divisions in the vertical direction, and the position coordinates regarding spatial division positions, and includes information on the number of frame divisions and frame information regarding temporal division positions. In the case of dividing 120P · 8K moving image data into sixteen 30P · 4K moving image data, the following occurs. That is, the number of horizontal divisions in space division is 2, the number of vertical divisions is 2, and the number of frame divisions in time division is 4. In each signal multiplexing unit 304, the processing target of the multiplexing unit 320 is (0, 0) in position coordinates, and the frame number is 1. Further, frame numbers of the process targets of the multiplexing units 321, 322, and 323 are 2, 3, and 4, respectively.

アンシラリー多重部324は、図9で示すType2のアンシラリーパケット(ANCパケット)の各10ビットで構成されるユーザデータワード(User Data Words)に分割情報を格納する。格納するデータの形式は、それぞれの情報が値として取得できるものであれば、どのような形式であってもよい。ANCパケットの種類を識別するためのヘッダ領域DID,SDIDには、それぞれ、多重する情報ことに所定の値を設定する。なお、アンシラリー多重部324による多重の方法としては、DIDとSDIDを用いたパケット構造をとらず、特定の情報をブランキング領域の特定の位置に多重する方法を採用しても良い。例えば、アンシラリー多重部324は、Link Aのデータストリーム1のライン番号6で指定される水平ブランキング領域に、上述したタイムコード等の付加情報を多重する。   The ancillary multiplexing unit 324 stores division information in User Data Words composed of 10 bits of each Type 2 ancillary packet (ANC packet) shown in FIG. The format of the stored data may be any format as long as each information can be obtained as a value. In the header areas DID and SDID for identifying the type of ANC packet, predetermined values are set for information to be multiplexed. Note that, as a method of multiplexing by the ancillary multiplexing unit 324, a method may be adopted in which specific information is multiplexed at a specific position in the blanking area without adopting a packet structure using DID and SDID. For example, the ancillary multiplexing unit 324 multiplexes additional information such as the above-described time code in the horizontal blanking area specified by the line number 6 of the data stream 1 of Link A.

図10は、ANCパケットを多重したデータストリームのデータ構成の一例である。マルチプレクサ110は、信号多重部304−1〜304−16の出力ごとにアンシラリー多重部324により各種ANCパケットが多重された4本のデータストリームを単一のデータストリームとなるように、ワード単位で交互に多重化する。多重化方式はSMPTE ST 425に準拠する。マルチプレクサ110は、多重化したデータをシリアライザ111に出力する。シリアライザ111は、マルチプレクサ110からの各データをシリアルデータに変換し、外部インターフェース112から16個のBNC端子を介して外部に出力する。   FIG. 10 shows an example of the data configuration of a data stream in which ANC packets are multiplexed. The multiplexer 110 alternates word by word so that four data streams in which various ANC packets are multiplexed by the ancillary multiplexing unit 324 become a single data stream for each output of the signal multiplexing units 304-1 to 304-16. Multiplexed to The multiplexing scheme conforms to SMPTE ST 425. The multiplexer 110 outputs the multiplexed data to the serializer 111. The serializer 111 converts each data from the multiplexer 110 into serial data, and outputs the serial data from the external interface 112 to the outside through 16 BNC terminals.

図11は、撮像装置100と、撮像装置100の出力画像データを記録する8台の記録装置1110−1〜1110−8との接続構成例を示す。8台の記録装置1110−1〜1110−8は30P・4K動画像データを入力可能な2個のBNC端子を有する。撮像装置100の16個のBNC出力は、同軸ケーブル1112−1〜1112−8,同軸ケーブル1114−1〜1114−8を介して対応する記録装置1110−1〜1110−8に接続する。同軸ケーブル1本あたりでは、撮像装置100は、30P・4K動画像データを所定の動画像形式で出力する。記録装置1110−1〜1110−8は、同軸ケーブル1112−1〜1112−8及び1114−1〜1114−8から入力する2チャネルの30P・4L動画像データを多重化し、60P・4K動画像データを生成して記録媒体に記録する。1チャネルの30P・4K動画像データを記録する記録装置を使う場合、その記録装置を16台、用意することになる。   FIG. 11 shows a connection configuration example of the imaging device 100 and eight recording devices 1110-1 to 1110-8 that record output image data of the imaging device 100. The eight recording apparatuses 1110-1 to 1110-8 have two BNC terminals capable of inputting 30P · 4K moving image data. The 16 BNC outputs of the imaging device 100 are connected to the corresponding recording devices 1110-1 to 1110-8 via coaxial cables 1112-1 to 1112-8 and coaxial cables 1114-1 to 1114-8. The imaging device 100 outputs 30P / 4K moving image data in a predetermined moving image format per coaxial cable. The recording devices 1110-1 to 1110-8 multiplex two channels of 30P · 4L moving image data input from the coaxial cables 1112-1 to 1112-8 and 1114-1 to 1114-8 to generate 60P · 4K moving image data. Is generated and recorded on a recording medium. When using a recording apparatus for recording 30P / 4K moving image data of one channel, 16 units of the recording apparatus are prepared.

図12は、記録装置1110−n(n=1〜8。以下同様。)の概略構成の一例を説明するためのブロック図である。   FIG. 12 is a block diagram for explaining an example of a schematic configuration of the recording apparatus 1110-n (n = 1 to 8. The same applies in the following.).

ユーザが操作部1208を操作して電源オンの指示を入力すると、記録装置1110−nの電源部が記録装置1110−nの各構成要素に電力を供給する。これにより、記録装置1110−nが起動する。   When the user operates the operation unit 1208 to input a power-on instruction, the power supply unit of the printing apparatus 1110-n supplies power to each component of the printing apparatus 1110-n. As a result, the recording device 1110-n is activated.

制御部1206は、記録装置1110−nが有するすべての構成要素を制御することができる。例えば、制御部1206は、操作部1208の操作及び動作状態に従い、デシリアライザ1202、デマルチプレクサ1203、記録媒体1204及び信号解析部1207を所定のタイミング同期の下で制御する。制御部1206は、各種処理で作成したデータを一時的にRAM1209に書き込み、必要に応じて読み出す。   The control unit 1206 can control all the components of the recording device 1110-n. For example, the control unit 1206 controls the deserializer 1202, the demultiplexer 1203, the recording medium 1204, and the signal analysis unit 1207 under predetermined timing synchronization in accordance with the operation and operation state of the operation unit 1208. The control unit 1206 temporarily writes the data created in the various processes in the RAM 1209 and reads it as necessary.

フラッシュメモリ1210は、電気的に消去・記録可能な記憶媒体である。フラッシュメモリ1210には、制御部1206を動作させるために必要なプログラム及び記録装置1110−nに固有の調整データ等が予め書きこまれている。   The flash memory 1210 is an electrically erasable and recordable storage medium. Programs necessary for operating the control unit 1206 and adjustment data unique to the recording device 1110-n are written in the flash memory 1210 in advance.

外部インターフェース1201は2個のBNC端子を有し、撮像装置100の2チャネルの出力信号が、2本の同軸ケーブルを介して外部インターフェース1201に入力する。   The external interface 1201 has two BNC terminals, and output signals of two channels of the imaging device 100 are input to the external interface 1201 through two coaxial cables.

記録装置1110−nの各構成要素は、各構成要素間の制御信号やデータ信号のための伝送路である内部バス1212と接続する。   Each component of the recording device 1110-n is connected to an internal bus 1212 which is a transmission path for control signals and data signals between the components.

デシリアライザ1202は、外部インターフェース1201から入力された2チャネルのシリアル信号をそれぞれパラレルデータに変換し、デマルチプレクサ1203に入力する。デマルチプレクサ1203は、デシリアライザ1202から供給される2チャネルのパラレルデータについて、図8から図10を参照して説明したのと逆の分離動作を行い、SDI伝送のもととなるデータストリームを復元する。   The deserializer 1202 converts serial signals of two channels input from the external interface 1201 into parallel data, respectively, and inputs the parallel data to the demultiplexer 1203. The demultiplexer 1203 performs separation operation reverse to that described with reference to FIGS. 8 to 10 on parallel data of two channels supplied from the deserializer 1202, and restores a data stream that is the source of SDI transmission. .

記録再生部1211は、デマルチプレクサ1203で生成された画像データ及びANCパケットデータ等を、1フレーム1ファイルとして、UDF、FATまたはNTFS等のファイルシステムの記録媒体1204に記録する。記録媒体1204は、画像データ及びANCパケットデータ等を記録できる媒体であればよう、例えば、磁気ディスク、光学式ディスクまたは半導体メモリなどのあらゆる方式の記録媒体を含む。記録の開始および停止は、ユーザが操作部1208を操作することで行われるか、または、信号解析部1207の信号解析結果に基づき行われる。記録再生部1211はまた、ユーザによる操作部1208の操作に従い、記録媒体1204に記録された画像データ及びANCパケットデータ等を読み出す。   The recording / reproducing unit 1211 records the image data and the ANC packet data and the like generated by the demultiplexer 1203 as one frame and one file on the recording medium 1204 of the file system such as UDF, FAT or NTFS. The recording medium 1204 includes, for example, any recording medium such as a magnetic disk, an optical disk, or a semiconductor memory, as long as the medium can record image data, ANC packet data, and the like. The start and stop of recording are performed by the user operating the operation unit 1208 or performed based on the signal analysis result of the signal analysis unit 1207. The recording / reproducing unit 1211 also reads out the image data, the ANC packet data, etc. recorded on the recording medium 1204 according to the operation of the operation unit 1208 by the user.

信号解析部1207は、ANCパケットの種類を識別するためのヘッダであるDIDとSDIDの値に基づき、デマルチプレクサ1203で生成されたデータストリームに含まれるANCパケットデータを抽出し解析する。信号解析部1207は、得られたタイムコード、ペイロードID、撮像年月日、リール番号、シーン番号、テイク番号、ショット番号及び分割情報などの情報等の付加情報を制御部1206に送る。   The signal analysis unit 1207 extracts and analyzes ANC packet data included in the data stream generated by the demultiplexer 1203 based on the values of DID and SDID, which are headers for identifying the type of ANC packet. The signal analysis unit 1207 sends, to the control unit 1206, additional information such as information such as the obtained time code, payload ID, imaging date, reel number, scene number, take number, shot number, and division information.

制御部1206は、信号解析部1207から受け取った各種情報を、デマルチプレクサ1203の出力データストリームに付随するメタデータとして記録媒体1204に記録する。   The control unit 1206 records various information received from the signal analysis unit 1207 on the recording medium 1204 as metadata attached to the output data stream of the demultiplexer 1203.

また、制御部1206は、信号解析部1207から受け取った各種情報に基いたファイル名を、記録媒体1204に記録される動画像ファイルのファイル名に設定する。ファイル名の設定方法の詳細は後述する。   Further, the control unit 1206 sets a file name based on various information received from the signal analysis unit 1207 as a file name of a moving image file recorded on the recording medium 1204. Details of the file name setting method will be described later.

記録媒体1204に記録されたデータファイルは、外部インターフェース1205を介して外部に転送できる。換言すると、外部の情報機器は、外部インターフェース1205を介して記録媒体1204にアクセスし、所望のデータファイルを読み込むことが出来る。外部インターフェース1205は、記録媒体1204に記録されたデータを外部装置が読み書きできるものであればよく、例えばUSB端子等のように、記録装置1110−nに周辺機器を接続できるあらゆるインターフェースを含む。   The data file recorded on the recording medium 1204 can be transferred to the outside via the external interface 1205. In other words, an external information device can access the recording medium 1204 via the external interface 1205 and read a desired data file. The external interface 1205 may be any one as long as the external device can read / write the data recorded in the recording medium 1204, and includes any interface capable of connecting a peripheral device to the recording device 1110-n, such as a USB terminal.

図13に示すフローチャートを参照して、記録媒体1204に記録される動画像ファイルのファイル名を設定する制御部1206の動作を説明する。   The operation of the control unit 1206 for setting the file name of the moving image file recorded on the recording medium 1204 will be described with reference to the flowchart shown in FIG.

S1301では、制御部1206は、信号解析部1207におけるアンシラリパケットデータの解析により得られた各種情報を信号解析部1207から受信する。   In S1301, the control unit 1206 receives, from the signal analysis unit 1207, various types of information obtained by analysis of ancillary packet data in the signal analysis unit 1207.

S1302では、制御部1206は、ファイル名関連情報が存在するか否かを判定する。ここでファイル名関連情報は、信号解析部1207のアンシラリパケットデータの解析により得られた各種情報のうち、ユーザ定義名、リール番号、シーン番号、テイク番号及びショット番号を指す。ファイル名関連情報はいわば、撮像装置100におけるオリジナルの動画像とその画素数及びフレームレート等の特性とを特定する動画像特定情報である。ファイル名関連情報が存在する場合、制御部1206は、S1303に進み、ファイル名関連情報のいずれも存在しない場合、制御部1206は、S1304に進む。   In step S1302, the control unit 1206 determines whether file name related information exists. Here, the file name related information indicates a user-defined name, a reel number, a scene number, a take number and a shot number among various information obtained by analysis of ancillary packet data by the signal analysis unit 1207. The file name related information is, so to speak, moving image specifying information specifying the original moving image in the imaging apparatus 100 and the characteristics such as the number of pixels and the frame rate. If the file name related information exists, the control unit 1206 proceeds to S1303, and if none of the file name related information exists, the control unit 1206 proceeds to S1304.

S1303では、制御部1206は、記録すべきファイルのファイル名(拡張子を除くボディ部)を、上述したファイル関連情報を含む文字列に設定し、S1305に進む。例えば、全てのファイル名関連情報が存在している場合、制御部1206は、「USER0_R001_S002_T003_004」という文字列を生成し、これをファイル名とする。ここで、「USER0」がユーザ定義名、「R001」がリール番号、「S002」がシーン番号、「T003」がテイク番号、「004」がショット番号をそれぞれ示す。S1301におけるアンシラリパケット解析の結果、ファイル名関連情報の中で多重されていないものがあった場合、制御部1206は、不在の情報に基づく名称部分を詰めてファイル名を作成する。例えば、テイク番号が存在していなかった場合、前記の例では、「USER0_R001_S002_004」というファイル名になる。   In step S1303, the control unit 1206 sets the file name (body part excluding the extension) of the file to be recorded to the character string including the file related information described above, and the process advances to step S1305. For example, when all the file name related information exists, the control unit 1206 generates a character string “USER0_R001_S002_T003_004” and sets it as a file name. Here, “USER0” indicates a user-defined name, “R001” indicates a reel number, “S002” indicates a scene number, “T003” indicates a take number, and “004” indicates a shot number. As a result of the ancillary packet analysis in S1301, when there is a file name related information that is not multiplexed, the control unit 1206 prepares a file name by stuffing the name portion based on the absent information. For example, when the take number does not exist, in the above example, the file name is “USER0_R001_S002_004”.

S1304では、制御部1206は、記録装置1110−nに予め設定されたファイル名を採用し、S1305に進む。設定されるファイル名は、例えば、撮像装置100で設定するものと同様に、ユーザが設定するユーザ定義名、リール番号、シーン番号、テイク番号、及び、記録開始のたびにインクリメントされるショット番号などから構成される。   In step S1304, the control unit 1206 adopts a file name preset in the recording device 1110-n, and proceeds to step S1305. The file name to be set is, for example, a user-defined name set by the user, a reel number, a scene number, a take number, a shot number incremented each time recording starts, etc. It consists of

S1305では、制御部1206は、信号解析部1207のアンシラリパケットデータの解析により得られた各種情報に撮像年月日情報が含まれているか判定する。撮像年月日情報が含まれている場合(S1305)、制御部1206は、S1306に進み、含まれていない場合(S1305)、制御部1206は、S1307に進む。S1306では、制御部1206は、ファイル名に撮像年月日情報を追加し、S1308に進む。S1307では、記録装置1110−nが保持する年月日情報を記録年月日情報としてファイル名に追加し、S1308に進む。ファイル名は例えば、「USER0_R001_S002_T003_004_150917」というファイル名になる。追加された「15」が西暦年の下2桁、「09」が月、「17」が日付をそれぞれ示す。   In step S1305, the control unit 1206 determines whether imaging date information is included in various types of information obtained by analysis of ancillary packet data by the signal analysis unit 1207. If the imaging date information is included (S1305), the control unit 1206 proceeds to S1306, and if not included (S1305), the control unit 1206 proceeds to S1307. In step S1306, the control unit 1206 adds imaging date information to the file name, and the process advances to step S1308. In S1307, the date information held by the recording device 1110-n is added to the file name as recording date information, and the process proceeds to S1308. The file name is, for example, the file name "USER0_R001_S002_T003_004_150917". The added "15" indicates the last two digits of the year, "09" indicates the month, and "17" indicates the date.

S1308では、制御部1206は、信号解析部1207のアンシラリパケットデータの解析により得られた各種情報にタイムコードが含まれているか判定する。タイムコードが含まれている場合(S1308)、制御部1206は、S1309に進み、含まれていない場合(S1308)、制御部1206は、S1310に進む。S1309では、制御部1206は、ファイル名にタイムコードを追加し、S1311に進む。S1310では、制御部1206は、記録装置1110−nが保持するタイムコードをファイル名に追加し、S1311に進む。ファイル名は例えば、「USER0_R001_S002_T003_004_150917_19154512」というファイル名になる。「19」が時刻の時を示し、「15」が分、「45」が秒をそれぞれ示し、「12」がフレーム番号を示す。   In step S1308, the control unit 1206 determines whether time code is included in various information obtained by analysis of ancillary packet data of the signal analysis unit 1207. If the time code is included (S1308), the control unit 1206 proceeds to S1309, and if not included (S1308), the control unit 1206 proceeds to S1310. In S1309, the control unit 1206 adds a time code to the file name, and proceeds to S1311. In S1310, the control unit 1206 adds the time code held by the recording device 1110-n to the file name, and the processing proceeds to S1311. The file name is, for example, the file name “USER0_R001_S002_T003_004_150917_19154512”. “19” indicates the time, “15” indicates the minute, “45” indicates the second, and “12” indicates the frame number.

S1311では、制御部1206は、信号解析部1207のアンシラリパケットデータの解析により得られた各種情報に、フレーム分割情報が含まれているかどうかを判定する。フレーム分割情報が含まれている場合(S1311)、制御部1206は、S1312に進み、含まれていない場合(あ1311)、制御部1206は、S1313に進む。S1312では、制御部1206は、ファイル名にフレーム分割情報を追加し、S1313に進む。   In S1311, the control unit 1206 determines whether or not frame division information is included in various types of information obtained by analysis of ancillary packet data by the signal analysis unit 1207. If frame division information is included (S1311), the control unit 1206 proceeds to S1312, and if not included (A 1311), the control unit 1206 proceeds to S1313. In S1312, the control unit 1206 adds frame division information to the file name, and proceeds to S1313.

S1313では、制御部1206は、信号解析部1207のアンシラリパケットデータの解析により得られた各種情報に画面分割情報が含まれているかどうかを判定する。画面分割情報が含まれている場合(S1313)、制御部1206は、S1314に進み、含まれていない場合(S1313)、制御部1206は、S1315に進む。S1314では、制御部1206は、ファイル名に位置座標情報を追加し、S1315に進む。ファイル名は例えば、「USER0_R001_S002_T003_004_150917_19154512_F1X0Y0」というファイル名になる。「F1」がフレーム番号を示し、「X0Y0」が位置座標(0、0)を示す。   In step S1313, the control unit 1206 determines whether screen division information is included in various types of information obtained by analysis of ancillary packet data by the signal analysis unit 1207. If the screen division information is included (S1313), the control unit 1206 proceeds to S1314. If not included (S1313), the control unit 1206 proceeds to S1315. In step S1314, the control unit 1206 adds position coordinate information to the file name, and the process advances to step S1315. The file name is, for example, a file name "USER0_R001_S002_T003_004_150917_19154512_F1X0Y0". “F1” indicates a frame number, and “X0Y0” indicates position coordinates (0, 0).

S1315では、制御部1206は、S1315までのフローで生成されたファイル名と同じファイル名のファイルが記録媒体1204にすでに存在しているか否かを判定する。同じファイル名のファイルがすでに存在している場合(S1315)、制御部1206は、S1316に進み、存在していない場合(S1315)、制御部1206は、ファイル名の設定を終了する。S1316では、制御部1206は、1ずつインクリメントする値をファイル名に追加する。例えば、タイムコードが同一のまま変化せず、「USER0_R001_S002_T003_004_150917_19154512_F1X0Y0」というファイルがすでに存在している場合、このファイル名に「_00001」という文字列を追加する。そして、この追加結果を、記録しようとするファイルのファイル名とする。「_00001」を追加したファイル名のファイルが既に存在する場合、制御部1206は、「USER0_R001_S002_T003_004_150917_19154512_F1X0Y0_00002」というファイル名を採用する。   In S1315, the control unit 1206 determines whether a file having the same file name as the file name generated in the flow up to S1315 already exists in the recording medium 1204. If a file having the same file name already exists (S1315), the control unit 1206 proceeds to S1316, and if it does not exist (S1315), the control unit 1206 ends the setting of the file name. In S1316, the control unit 1206 adds a value incremented by one to the file name. For example, if the time code remains the same and the file "USER0_R001_S002_T003_004_150917_19154512_F1X0Y0" already exists, a character string "_00001" is added to this file name. Then, this added result is taken as the file name of the file to be recorded. If a file having a file name to which “_00001” is added already exists, the control unit 1206 adopts the file name “USER0_R001_S002_T003_004_150917_191515412_F1X0Y0_00002”.

撮像装置100から供給される動画像データにファイル名を設定する元となる情報がなく、記録装置1110−nにも、ファイル名を生成する元となるユーザ設定の情報が無い場合、記録装置1110−nは、一般的な規則に従いファイル名を生成する。また、予め記録装置で設定した名称の末尾に、分割情報を追加してファイル名を設定する構成にしてもよい。   If the moving image data supplied from the imaging device 100 has no information as a source for setting a file name, and the recording device 1110-n also has no user setting information as a source for generating a file name, the recording device 1110 -N generates a file name according to the general rules. Further, division information may be added to the end of the name set in advance by the recording apparatus to set the file name.

各記録装置1110−1〜1110−8が、図13を参照して説明した手順で記録すべきファイルのファイル名を決定する。これにより、撮像装置100で撮像された8K・120Pの動画像データが記録装置1110−1〜1110−8にそれぞれ60P・4K動画像データとして分割して記録されるものの、そのファイル名の一部が共通化され、復元のための情報も含まれる。ファイル名の一部が共通化されることで、同じ動画像の分割記録であることが明確になる。また、オリジナルの動画像の空間上の分割位置と時間軸上の分割位置を示す情報をファイル名が含むことで、オリジナルの動画像を復元するための空間上の合成と時間軸上の合成も自動化可能になる。例えば、記録装置1110−1〜1110−8から各ファイルを読み出した場合に、元の8K・120Pの動画像データに戻すことも容易になる。例えば、「USER0_R001_S002_T003_004_150917_19154512_F1」という共通の名称を含み、末尾がそれぞれ「X0Y0」、「X0Y1」、「X1Y0」及び「X1Y1」となっているファイル名の動画像を合成する。この合成により、8K動画像を復元できる。   Each of the recording devices 1110-1 to 1110-8 determines the file name of the file to be recorded according to the procedure described with reference to FIG. 13. Thus, although the 8K / 120P moving image data captured by the imaging device 100 is divided and recorded as 60P / 4K moving image data in the recording devices 1110-1 to 1110-8 respectively, part of the file name Are standardized and information for restoration is also included. By sharing part of the file name, it becomes clear that the same moving image is divided and recorded. In addition, since the file name includes information indicating the dividing position of the original moving image in space and the dividing position on the time axis, the synthesis on space and the synthesis on the time axis for restoring the original moving image are also performed. It can be automated. For example, when each file is read from the recording apparatuses 1110-1 to 1110-8, it is also easy to restore the original 8K · 120P moving image data. For example, a moving image having a file name including the common name “USER0_R001_S002_T003_004_150917_19154512_F1” and ending in “X0Y0”, “X0Y1”, “X1Y0”, and “X1Y1” is synthesized. This combination can restore an 8K moving image.

図12に示す構成では、記録再生部1211は、デマルチプレクサ1203で生成された画像データを記録媒体1204に記録したが、デマルチプレクサ1203の出力を現像処理部で現像したデータを記録媒体1204に記録するとしてもよい。   In the configuration shown in FIG. 12, the recording / reproducing unit 1211 records the image data generated by the demultiplexer 1203 on the recording medium 1204, but the output of the demultiplexer 1203 is developed by the development processing unit and the data is recorded on the recording medium 1204. You may.

記録装置1110−1〜1110−8に分割記録された動画像ファイル(分割動画像ファイル)のファイル名を変換する動作を説明する。図14は、ファイル名変換装置として動作するパーソナルコンピュータ(PC)の概略構成の一例を説明するためのブロック図である、図15は、ファイル名変換処理の一例を示すフローチャートである。   An operation of converting file names of moving image files (division moving image files) which are divided and recorded in the recording devices 1110-1 to 1110-8 will be described. FIG. 14 is a block diagram for explaining an example of a schematic configuration of a personal computer (PC) operating as a file name conversion device. FIG. 15 is a flowchart showing an example of file name conversion processing.

図14に示すPC1400では、CPU(Central Processing Unit)1401が、各構成要素間の制御信号やデータ信号のための伝送路である内部バス1402と接続し、各構成要素とデータの通信を行い、計算と制御を行う。メモリ1403は、CPU1401が制御プログラムを実行する際の作業領域となる。CPU1401は、図15に示すフローチャートで示されるファイル名変換プログラムを読み込み実行することで、以下の機能を実現する。   In the PC 1400 shown in FIG. 14, a CPU (Central Processing Unit) 1401 is connected to an internal bus 1402 which is a transmission path for control signals and data signals between the respective components, and communicates data with the respective components, Perform calculations and control. The memory 1403 is a work area when the CPU 1401 executes a control program. The CPU 1401 implements the following functions by reading and executing the file name conversion program shown by the flowchart shown in FIG.

入力装置1404は、ユーザが操作を行うための装置であり、マウス及びキーボードで構成される。出力装置1405は、ユーザにデータや処理の結果を通知するための装置であり、ディスプレイ等で構成される。   The input device 1404 is a device for the user to operate, and is configured of a mouse and a keyboard. The output device 1405 is a device for notifying the user of data and the result of processing, and is configured of a display or the like.

記憶装置1406は、PC1400のOS(オペレーティングシステム)、アプリケーションソフトウエア及び動画像ファイル等が格納される装置であって、HDD(ハードディスクドライブ)またはSSD(ソリッドステートドライブ)等から構成される。   The storage device 1406 is a device in which the OS (operating system) of the PC 1400, application software, moving image files, and the like are stored, and is configured of an HDD (hard disk drive) or an SSD (solid state drive).

外部インターフェース1407は、他の機器と通信してデータの読み書き行うためのインターフェースであり、USB端子等の、情報機器に周辺機器を接続するためのあらゆるインターフェースを含む。   The external interface 1407 is an interface for communicating with another device to read / write data, and includes any interface for connecting a peripheral device to an information device such as a USB terminal.

CPU1401は、図15に示すファイル名変換処理を実現するプログラムをメモリ1403にロードして実行する。   The CPU 1401 loads a program for realizing the file name conversion process shown in FIG.

S1501では、CPU1401は、ファイル名を変更する対象とするファイル群を読み込み、S1502に進む。S1501で読み込むファイルは、記録装置1110−1〜1110−8に記録される分割動画像ファイルである。これら分割動画像ファイルは、撮像時の各種情報をメタデータとして含んでいる。   In S1501, the CPU 1401 reads a file group to be changed in file name, and proceeds to S1502. The file read in S1501 is a divided moving image file recorded in the recording devices 1110-1 to 1110-8. These divided moving image files include various information at the time of imaging as metadata.

S1502では、CPU1401は、読み込んだ動画像ファイルのメタデータを解析し、解析結果を後の処理で用いるためにメモリ1403に記憶し、S1503に進む。   In S1502, the CPU 1401 analyzes the metadata of the read moving image file, stores the analysis result in the memory 1403 for use in later processing, and proceeds to S1503.

S1503では、CPU1401は、メタデータ解析結果の分割情報により分割動画像ファイルか否かを判定する。メタデータ解析結果の空間的分割数及び時間的分割数が共に0であるか、または分割数に関する情報がない場合、CPU1401は、分割動画像ファイルではないと判定し、ファイル名の変更をせずに図15に示すフローを終了する。分割動画像ファイルである場合、CPU1401は、S1504に進む。   In S1503, the CPU 1401 determines whether or not the file is a divided moving image file based on the division information of the metadata analysis result. If both the number of spatial divisions and the number of temporal divisions of the metadata analysis result are 0 or there is no information on the number of divisions, the CPU 1401 determines that the file is not a divided moving image file and does not change the file name End the flow shown in FIG. If the file is a divided moving image file, the CPU 1401 proceeds to S1504.

S1504では、CPU1401は、合成対象の分割動画像ファイルが揃っているか否かを判定する。例えば、メタ情報の内、分割によっても変更されない所定の要素について同じ内容を有する分割数に相当する動画像ファイルを取得できている場合、復元に必要な動画像ファイルが揃っていることになる。そのような、分割によっても変更されない情報には、タイムコード、ペイロードID、撮像年月日、ユーザ定義名、リール番号、シーン番号、テイク番号及びショット番号などがある。分割された全ての分割動画像ファイルが揃っている場合、CPU1401は、S1505に進み、揃っていない場合、CPU1401は、S1506に進む。   In step S1504, the CPU 1401 determines whether or not divided moving image files to be combined are present. For example, in the case where it is possible to acquire moving image files corresponding to the number of divisions having the same content for a predetermined element which is not changed even by division in the meta information, moving image files necessary for restoration are complete. Such information that is not changed even by division includes time code, payload ID, imaging date, user-defined name, reel number, scene number, take number and shot number. If all divided moving image files divided are complete, the CPU 1401 advances to S1505, and if not, the CPU 1401 advances to S1506.

S1506では、CPU1401は、もとのファイル名に分割情報を追加して、図15に示すフローを終了する。例えば、「元のファイル名_F3X1Y0」という名称のファイル名に対象ファイルを変更する。   In S1506, the CPU 1401 adds division information to the original file name, and ends the flow shown in FIG. For example, the target file is changed to a file name of “original file name _F3X1Y0”.

S1505では、CPU1401は、取得した動画像ファイルの中に、分割情報が同じでかつタイムコードが同じファイルがあるか否かを判定する。撮像装置または記録装置の設定または状態により、記録開始の数フレーム間か記録停止までにタイムコードが歩進しない状態が発生する場合があるからである。タイムコードが同じファイルがある場合、CPU1401はS1507に進み、ない場合、CPU1401はS1508に進む。   In S1505, the CPU 1401 determines whether or not there is a file having the same division information and the same time code in the acquired moving image file. This is because, depending on the setting or status of the imaging device or the recording device, a state in which the time code does not advance may occur in a few frames of the recording start or until the recording stop. If there is a file having the same time code, the CPU 1401 advances to S1507, and if not, the CPU 1401 advances to S1508.

S1507では、CPU1401は、分割情報とタイムコードの両方が同じファイルについて、そのうちの一つを除き、ファイル名を、元のファイル名に分割情報を追加した名称に変更する。例えば、「元のファイル名_F3X1Y0」という名称のファイル名に対象ファイルのファイル名を変更する。   In S1507, the CPU 1401 changes the file name to a name obtained by adding the division information to the original file name, except for one of the files in which both the division information and the time code are the same. For example, the file name of the target file is changed to a file name of “original file name _F3X1Y0”.

S1508では、CPU1401は、分割情報とタイムコードのいずれか一方または両方が異なるファイルのファイル名を「共通のファイル名_分割情報」に変更する。ここで、共通のファイル名は、例えばユーザ定義名、リール番号、シーン番号、テイク番号、ショット番号、撮像年月日及びタイムコードにより構成されるが、別途、ユーザが設定した名称としてもよい。これにより、ファイル名は例えば、「USER0_R001_S002_T003_004_150917_19154512_F1」という共通名称を含み、末尾がそれぞれ「X0Y0」、「X0Y1」、「X1Y0」または「X1Y1」となる。共通名称を含むこれのファイルの動画像を合成することで、8K動画像を復元できる。   In S1508, the CPU 1401 changes the file name of a file in which one or both of the division information and the time code are different to “common file name_division information”. Here, the common file name includes, for example, a user-defined name, a reel number, a scene number, a take number, a shot number, an imaging date, and a time code, but may be a name separately set by the user. As a result, the file name includes, for example, the common name “USER0_R001_S002_T003_004_150917_19154512_F1”, and the end becomes “X0Y0”, “X0Y1”, “X1Y0” or “X1Y1”, respectively. The 8K moving image can be restored by combining the moving image of the file including the common name.

例えば、120Pの8K動画像を分割記録した分割動画像ファイルのファイル名を上述の手順で変更したとする。この場合、タイムコードの末尾が00、01、…、28、29となっていて、各タイムコードに対し「_F1」「_F2」「_F3」「_F4」という名称を含むファイルが生成される。これらのファイルが、1秒間あたりに撮像された120フレーム分の動画像となる。   For example, it is assumed that the file name of a divided moving image file obtained by dividing and recording an 120K 8K moving image is changed in the above-described procedure. In this case, the end of the time code is 00, 01, ..., 28, 29, and a file including the names "_F1", "_F2", "_F3" and "_F4" is generated for each time code. These files become moving images of 120 frames captured per second.

以上のようなファイル名変更により、複数の記録装置に分割して記録された動画像ファイルのファイル名を、相互の関連性が分かりやすい名称に変更できるので、動画像ファイルの編集・管理が容易になる。   By changing the file name as described above, it is possible to change the file names of moving image files divided and recorded in a plurality of recording devices into names that can easily relate to each other, so editing and management of moving image files is easy. become.

図15に示すファイル名変換処理は、分割動画像ファイルを収容するディレクトリまたはフォルダの名称にも適用可能である。   The file name conversion process shown in FIG. 15 is also applicable to the names of directories or folders that accommodate divided moving image files.

記録装置1110−1〜1110−8に記録された動画像ファイルのファイル名をPC1400により変換する実施例を説明したが、図15を参照して説明したファイル名変換機能を記録装置1110−1〜1110−8に組み込んでもよい。例えば、記録装置1110−1〜1110−8は、入力する動画像を暫定ファイル名で記録し、記録完了後にこの暫定ファイル名を図15に示すファイル名変換処理により決定されるファイル名に変更する。   Although the embodiment has been described in which the file name of the moving image file recorded in the recording apparatus 1110-1 to 1110-8 is converted by the PC 1400, the file name conversion function described with reference to FIG. It may be incorporated into 1110-8. For example, the recording devices 1110-1 to 1110-8 record the moving image to be input as a temporary file name, and change the temporary file name to a file name determined by the file name conversion process shown in FIG. .

1フレームの画素構成を8K4K、フレームレートを120Pとした動画像を16分割する例を説明したが、1画面の画素数、フレームレート及び分割数は、この例に限定されない。また、空間内の分割数及び時間軸上の分割数も上記実施例で説明した例に限定されない。   Although the example of dividing a moving image into 16 pixels with a pixel configuration of one frame of 8K4K and a frame rate of 120P has been described, the number of pixels of one screen, the frame rate, and the number of divisions are not limited to this example. Further, the number of divisions in space and the number of divisions on the time axis are not limited to the examples described in the above embodiments.

Claims (7)

動画像を空間及び時間のいずれかまたは両方で分割することにより生成される動画像ファイルであって、前記空間及び時間のいずれかまたは両方での分割位置を示す分割情報をメタデータとして保持する動画像ファイルを読み込む手段と、
前記動画像ファイルのメタデータから前記分割情報を検出する手段と、
前記分割情報に従い、前記動画像ファイルのファイル名を変更する変更手段と
を有することを特徴とするファイル名変換装置。
A moving image file generated by dividing a moving image in space and / or time, and holding division information as metadata indicating division positions in the space and / or time Means for reading an image file,
A unit for detecting the division information from metadata of the moving image file;
A file name conversion device comprising: changing means for changing a file name of the moving image file according to the division information.
前記変更手段は、前記動画像ファイルのファイル名に、前記分割情報の内容を示す文字列を追加することで、前記ファイル名を変更することを特徴とする請求項1に記載のファイル名変換装置。   The file name conversion apparatus according to claim 1, wherein the changing unit changes the file name by adding a character string indicating the content of the division information to the file name of the moving image file. . さらに、前記読み込み手段で読み込まれた複数の動画像ファイルが同じ動画像から分割されたものかどうかを判定する判定手段を有し、
前記変更手段は、同じ動画像から分割により生成された複数の動画像ファイルのファイル名を、共通の文字列と、前記複数の動画像ファイルのそれぞれの前記分割情報から決定された文字列とを組み合わせたものに変更する
ことを特徴とする請求項1または2に記載のファイル名変換装置。
The image processing apparatus further includes a determination unit that determines whether a plurality of moving image files read by the reading unit are divided from the same moving image.
The changing means includes file names of a plurality of moving image files generated by division from the same moving image, a common character string, and a character string determined from the division information of each of the plurality of moving image files. The file name conversion device according to claim 1 or 2, wherein the combination is changed.
前記判定手段は、前記読み込み手段で読み込まれた複数の動画像ファイルのそれぞれのメタ情報において、タイムコード、フレームレート、解像度、ビット深度、信号構成、撮像年月日、ユーザ定義名、リール番号、シーン番号、テイク番号及びショット番号のうちの所定の情報が同一である場合に、前記読み込み手段で読み込まれた複数の動画像ファイルが同じ動画像から分割されたものと判定することを特徴とする請求項3に記載のファイル名変換装置。   The determination means is a time code, a frame rate, a resolution, a bit depth, a signal configuration, an imaging date, a user-defined name, a reel number, in meta information of each of a plurality of moving image files read by the reading means. When predetermined information among the scene number, the take number and the shot number is the same, it is determined that a plurality of moving image files read by the reading unit are divided from the same moving image. The file name conversion device according to claim 3. 動画像を空間及び時間のいずれかまたは両方で分割することにより生成される動画像ファイルを、前記空間及び時間のいずれかまたは両方での分割を示す分割情報を含むメタデータと共に読み込むステップと、
前記動画像ファイルのメタデータから前記分割情報を検出するステップと、
前記分割情報に従い、前記動画像ファイルのファイル名を変更する変更ステップと
を有することを特徴とするファイル名変換方法。
Reading a moving image file generated by dividing the moving image in space and / or time together with metadata including division information indicating the division in either or both of the space and / or time;
Detecting the division information from metadata of the moving image file;
And changing the file name of the moving image file according to the division information.
動画像を空間及び時間のいずれかまたは両方で分割することにより生成される動画像ファイルのファイル名を変換するファイル名変換プログラムであって、
コンピュータを、
前記動画像ファイルを、前記空間及び時間のいずれかまたは両方での分割を示す分割情報を含むメタデータと共に読み込む手段と、
前記動画像ファイルのメタデータから前記分割情報を検出する手段と、
前記分割情報に従い、前記動画像ファイルのファイル名を変更する変更手段
として機能させるファイル名変換プログラム。
A file name conversion program for converting a file name of a moving image file generated by dividing a moving image in space and / or time or both.
Computer,
Means for reading the moving image file together with metadata including division information indicating division in the space and / or time;
A unit for detecting the division information from metadata of the moving image file;
A file name conversion program which functions as changing means for changing a file name of the moving image file according to the division information.
動画像を空間及び時間のいずれかまたは両方で分割した分割動画像を並列に出力する撮像装置と、前記撮像装置から出力される各分割動画像を記録する複数の記録装置とからなる記録システムであって、
前記撮像装置は、撮像手段と、前記撮像手段が出力する動画像を空間及び時間のいずれかまたは両方で分割し、各分割動画像に、前記動画像を特定する画像特定情報と、前記空間及び時間のいずれかまたは両方での分割の分割位置を示す分割情報とを含む付加情報を付加し、所定の動画像形式で並列に出力する出力手段とを有し、
前記記録装置は、前記撮像装置から出力される前記所定の動画像形式の分割動画像を取り込む手段と、取り込んだ前記分割動画像を記録媒体に記録する記録手段と、取り込んだ前記分割動画像から前記付加情報を分離する手段と、前記分割動画像から分離した前記付加情報を参照して、前記分割動画像のファイル名を決定する手段とを有する
ことを特徴とする記録システム。
A recording system comprising an imaging device for outputting in parallel divided moving images obtained by dividing a moving image in space or time or both, and a plurality of recording devices for recording each of the divided moving images output from the imaging device There,
The image pickup apparatus divides the moving image output from the image pickup means by either or both of an image pickup means, the image pickup means, and image specifying information for specifying the moving image in each divided moving image, the space, and Output means for adding additional information including division information indicating division positions of division in any one or both of time and outputting in parallel in a predetermined moving image format,
The recording apparatus comprises means for taking in a divided moving image of the predetermined moving image format output from the imaging device, recording means for recording the taken in divided moving image on a recording medium, and from the taken in divided video A recording system comprising: means for separating the additional information; and means for determining a file name of the divided moving image with reference to the additional information separated from the divided moving image.
JP2015151335A 2015-07-30 2015-07-30 File name conversion apparatus, method, program, and recording system Active JP6548500B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015151335A JP6548500B2 (en) 2015-07-30 2015-07-30 File name conversion apparatus, method, program, and recording system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015151335A JP6548500B2 (en) 2015-07-30 2015-07-30 File name conversion apparatus, method, program, and recording system

Publications (2)

Publication Number Publication Date
JP2017034418A JP2017034418A (en) 2017-02-09
JP6548500B2 true JP6548500B2 (en) 2019-07-24

Family

ID=57987249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015151335A Active JP6548500B2 (en) 2015-07-30 2015-07-30 File name conversion apparatus, method, program, and recording system

Country Status (1)

Country Link
JP (1) JP6548500B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2560921B (en) 2017-03-27 2020-04-08 Canon Kk Method and apparatus for encoding media data comprising generated content
CN113411651A (en) * 2021-06-17 2021-09-17 康佳集团股份有限公司 Video processing method, player and computer readable storage medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004328034A (en) * 2003-04-21 2004-11-18 Casio Comput Co Ltd Imaging apparatus, recording control method of recording and controlling moving image file and program
JP4616135B2 (en) * 2005-09-21 2011-01-19 オリンパス株式会社 Imaging apparatus and image recording apparatus
JP2013141065A (en) * 2011-12-28 2013-07-18 Jvc Kenwood Corp Image pickup device and control method
JP6055262B2 (en) * 2012-10-11 2016-12-27 日本放送協会 Video recording apparatus and program thereof

Also Published As

Publication number Publication date
JP2017034418A (en) 2017-02-09

Similar Documents

Publication Publication Date Title
JP6032919B2 (en) Image processing device
US9071375B2 (en) Signal transmitting apparatus, signal transmitting method, signal receiving apparatus, signal receiving method, and signal transmission system
JP2017211827A (en) Information processing unit, control method and program
JP2008160748A5 (en)
US9445085B2 (en) Imaging apparatus, method for controlling imaging apparatus, and system therefor
JP2008166862A (en) Encoding and decoding system, encoding system, and decoding system
CN108243318B (en) Method and device for realizing live broadcast of multiple image acquisition devices through single interface
JP6548500B2 (en) File name conversion apparatus, method, program, and recording system
US9277197B2 (en) Recording apparatus, recording method, and recording system
US10552980B2 (en) Image processing apparatus, image processing method, and storage medium
JP4893849B2 (en) Image processing system
KR102012717B1 (en) Image conversion device and system for generating 360 VR image in real time
WO2017158850A1 (en) Image processing device and image processing method
JP2012147288A (en) Broadcasting system
JP5973766B2 (en) Image processing device
US9338388B2 (en) Recording apparatus
GB2541713A (en) Processing of high frame rate video data
KR101652095B1 (en) Realtime remote monitoring and playing system using digital video recoder, and method thereof
KR102599664B1 (en) System operating method for transfering multiview video and system of thereof
JP2013162486A (en) Recording apparatus, recording method, and recording system
JP5803814B2 (en) Recording apparatus and recording control method
US10880475B2 (en) Video conversion apparatus and system for generating 360-degree virtual reality video in real time
KR100615384B1 (en) Method and apparatus for reducing dependency between record frame rate and transmission frame rate
JP2018201106A (en) Imaging System
JP2009194758A (en) Video recording apparatus, video reproducing apparatus, video recording/reproducing system, method and program

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20180227

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180727

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190625

R151 Written notification of patent or utility model registration

Ref document number: 6548500

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151