WO2011099273A1 - コンテンツ通信装置及びコンテンツ加工装置並びにコンテンツ通信システム - Google Patents

コンテンツ通信装置及びコンテンツ加工装置並びにコンテンツ通信システム Download PDF

Info

Publication number
WO2011099273A1
WO2011099273A1 PCT/JP2011/000711 JP2011000711W WO2011099273A1 WO 2011099273 A1 WO2011099273 A1 WO 2011099273A1 JP 2011000711 W JP2011000711 W JP 2011000711W WO 2011099273 A1 WO2011099273 A1 WO 2011099273A1
Authority
WO
WIPO (PCT)
Prior art keywords
content
unit
encoded data
data
broadcast
Prior art date
Application number
PCT/JP2011/000711
Other languages
English (en)
French (fr)
Inventor
平野 純
利幸 森井
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to CN2011800092900A priority Critical patent/CN102754445A/zh
Priority to EP11742023A priority patent/EP2538671A1/en
Priority to JP2011553755A priority patent/JP5607084B2/ja
Priority to US13/576,527 priority patent/US20120307913A1/en
Publication of WO2011099273A1 publication Critical patent/WO2011099273A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234327Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into layers, e.g. base layer and one or more enhancement layers

Definitions

  • the present invention relates to a content communication device, a content processing device, and a content communication system for encoding and transmitting content data.
  • 3rd Generation Partnership Program supports mobility (high-speed movement of terminal equipment), broadband (high-speed movement) to provide wireless communication services in a very wide range.
  • Throughput Data communication support has been developed to enable transmission of multimedia data such as video as well as voice.
  • the data to be communicated such as audio and video
  • the data to be communicated is encoded and transmitted to improve efficiency and stability in various points such as bandwidth consumption of the communication channel and characteristics of the communication channel. Is realized.
  • data encoding methods there is a hierarchical encoding technique.
  • Non-Patent Document 1 A technique described in Non-Patent Document 1 below is given as a precedent for a system that has already been used internationally as a voice hierarchical coding technique.
  • Video / audio data used for such broadcasting / distribution is called content.
  • the content is transmitted from a remote location to a broadcasting station or the like where the content is shaped and edited, and then combined with the content shot in the studio (or the relay content alone) and switched.
  • video captured at a relay destination (contents from a remote location) is superimposed on content captured in a studio using PinP (Picture-in-Picture), or video captured at a relay location
  • the content is synthesized by superimposing characters or figures (generally called telop) on (content from a remote location).
  • shooting locations of content such as remote locations and relay locations are called shooting locations, and facilities for shaping and editing content (TV station editing devices, switching devices) , Facilities that send out for broadcasting, distribution, etc., adjacent shooting studios (coordinating station studios) are called coordinating stations, and points that handle data as content during transmission from the shooting location to the coordinating station are called relay stations .
  • the relay station is not simply a data relay or wireless communication relay, but is a facility that relays content in a narrow sense. It refers to a remote studio. This relay station is deployed as necessary, and deployment is not essential. Specifically, a system configuration as shown in FIG. 10 is assumed.
  • FIG. 10 is a diagram illustrating an example of a general configuration of a broadcasting system when relaying from a remote shooting location is performed.
  • Video and audio shot at the shooting location are transmitted as shooting contents to the coordinating station via the relay station.
  • this shooting content is output so that the coordinating station studio can browse and listen, and the state of the coordinating station studio is inserted into the video of the shooting content with PinP, or other information (telop Etc.) is inserted to generate broadcast content to be finally broadcast, and broadcast through broadcast waves.
  • Broadcast content broadcast by broadcast waves is processed by a broadcast receiving terminal that receives the broadcast waves, and video display and audio output are performed.
  • the person at the shooting location checks the content synthesized at the coordinating station (the content that will eventually be broadcast). May be required.
  • the operator of a device such as a camera or a microphone, or a performer (person to be photographed) to be photographed at the photographing location is adjusted with the content photographed at the photographing location. It is necessary to check the content (final broadcast content) synthesized with information from the station's studio and BGM (Background Music).
  • the person to be photographed mainly interacts with the person in the studio of the coordinating station, and when adjusting the timing of the content that is finally broadcasted, natural comment insertion, confirmation of the start timing of the relay, It is necessary to check the overlap with the utterance of the person to be photographed with respect to the sound at the adjusting station studio, such as adjustment of breathing (between) for natural interaction and BGM.
  • the operator of the apparatus needs to mainly check the content shooting method and timing in the content that is finally broadcast.
  • the shooting location may receive instructions from the coordinating station or relay station. (These are communication details at the time of shooting, and are not necessarily reflected in the final content. ).
  • This kind of confirmation at the shooting location is not limited to the timing at which the coordinating studio studios comment on the timing at the shooting location, the timing when the content is finally broadcast, and the instructions from the coordinating and relay stations. Needed to delay.
  • the operator at the shooting location and the shooting target person need to adjust their own operation timing in accordance with the timing of the content that is finally broadcast.
  • the operator or subject in the shooting location can check the timing of the start of the relay, adjust the breathing (between) for natural interaction with the studio, and the subject of shooting for the sound in the adjusting station studio such as BGM. It is necessary to check the overlap with the user's utterance, adjust the composition in consideration of the telop, character information, the composite screen, etc. (adjust the imaging direction of the camera or adjust the standing position in the screen).
  • ITU-T International Telecommunication Union-Telecommunication sector
  • FIG. 11 is a sequence chart showing an example of content processing in a conventional broadcasting system. Note that this sequence chart is illustrated with attention paid to content data at a certain time, but actually, data including shooting content, broadcast content, and the like is sequentially transmitted and processed.
  • Step S5002 There is a camera for shooting at the shooting location, shooting the shooting location.
  • the captured content photographed by the photographing camera is transmitted to the coordinating station (step S5002) after undergoing an encoding process or the like (step S5001).
  • the photographed content is once decoded (this process is not shown), and then, for example, the photographed content is output to a monitor in the coordinating station studio (step S5003), and the action for the photographed content (human reaction in the studio) ) (Step S5004), the video is superimposed on the shooting content at the shooting location with PinP, or a telop or other information is superimposed on the shooting content at the shooting location, or other codes.
  • Broadcast content is created by performing the conversion process (step S5005).
  • the broadcast content is broadcast through the broadcast wave (step S5006), and the broadcast content is viewed on a broadcast receiving terminal (for example, a broadcast receiving terminal that can be viewed by the operator at the shooting location or the person to be shot). Is possible.
  • a broadcast receiving terminal for example, a broadcast receiving terminal that can be viewed by the operator at the shooting location or the person to be shot. Is possible.
  • the operator at the shooting location and the shooting target person can check how the operation performed by the user is reflected in the broadcast content.
  • the operator and target person at the shooting location can check how the shooting content shot at the shooting location is used in the actual broadcast content (how it is reflected in the actual broadcast).
  • the time Tp is delayed by a time such as data transmission or encoding processing.
  • the broadcast content reflecting the operation can be viewed through the broadcast wave after time Tp.
  • the operator and the person to be photographed at the photographing location can view the broadcast content through the broadcast wave, but the photographed content included in the broadcast content has a certain operation (step S5001).
  • the operation before the operation reflected in the captured content encoded in (1) is reflected, and is not suitable as content for adjustment use.
  • the delay time for example, when receiving a broadcast wave such as an analog broadcast in Japan in a television broadcast, it is possible to check the content at the shooting location with a relatively low delay.
  • the delay time is large, and it is difficult to avoid the inconveniences described above.
  • the present invention enables the shooting side to quickly determine how the operation performed at the shooting location (shooting side) is reflected as broadcast content when relay broadcasting from the shooting location is performed. It is an object of the present invention to provide a content communication device, a content processing device, and a content communication system for enabling confirmation.
  • a content communication apparatus of the present invention is a content communication apparatus that transmits photographed content data shot at a shooting location to a content processing apparatus that edits broadcast content, A shooting content acquisition unit for acquiring the shooting content data; A first encoding unit that encodes the captured content data acquired by the captured content acquisition unit with a predetermined quality to generate first encoded data; A first transmitter that sequentially transmits the first encoded data generated by the first encoder to the content processing device; A second encoding unit that extracts and encodes additional information for improving the quality of video included in the first encoded data from the captured content data, and generates second encoded data; A second transmitter that transmits the second encoded data generated by the second encoder to the content processing device; Have.
  • the shooting side can quickly confirm how the action performed at the shooting location (shooting side) is reflected as broadcast content. Information can be transmitted from the shooting location to the coordinating station.
  • a content communication apparatus of the present invention is a content communication apparatus that transmits photographed content data shot at a shooting location to a content processing apparatus that edits broadcast content, A shooting content acquisition unit for acquiring the shooting content data; A shooting content transmission unit that transmits the shooting content data acquired by the shooting content acquisition unit to the content processing device; In the content processing device, an adjustment content receiving unit that receives the adjustment content that is returned after a part or all of the editing reflected in the actual broadcast content is performed on the captured content; An adjustment content output unit that outputs the adjustment content so that a user at the shooting location can confirm the content; Have.
  • the shooting side can quickly confirm how the action performed at the shooting location (shooting side) is reflected as broadcast content. Information can be transmitted from the shooting location to the coordinating station.
  • a content processing apparatus of the present invention is a content processing apparatus for editing broadcast content, First encoding for receiving, from the content communication device, first encoded data generated by the content communication device that has acquired the captured content data shot at the shooting location by encoding the shot content data with a predetermined quality.
  • An adjustment content transmission unit that transmits the decoded first encoded data edited by the editing processing unit as adjustment content to the content communication device; Have.
  • a content processing apparatus of the present invention is a content processing apparatus for editing broadcast content, A shooting content data receiving unit that receives shooting content data shot at a shooting location from the content communication device; An editing processing unit that performs part or all of the editing reflected on the actual broadcast content with respect to the received shooting content data; An adjustment content transmitting unit that transmits the captured content data edited by the editing / processing unit to the content communication device as adjustment content; Have.
  • a content communication system includes a content processing device that edits broadcast content and a content communication device that transmits photographed content data photographed at a photographing location to the content processing device.
  • a content communication system comprising: The content communication device is A shooting content acquisition unit for acquiring the shooting content data; A first encoding unit that encodes the captured content data acquired by the captured content acquisition unit with a predetermined quality to generate first encoded data; A first transmitter that sequentially transmits the first encoded data generated by the first encoder to the content processing device; A second encoding unit that extracts and encodes additional information for improving the quality of video included in the first encoded data from the captured content data, and generates second encoded data; A second transmitter that transmits the second encoded data generated by the second encoder to the content processing device; In the content processing device, an adjustment content receiving unit that receives the adjustment content that is sent back to the first encoded data after being partly or entirely edited to be reflected in the actual broadcast content; An adjustment content output unit that outputs the adjustment content
  • a content communication system includes a content processing device that edits broadcast content and a content communication device that transmits photographed content data photographed at a photographing location to the content processing device.
  • a content communication system comprising: The content communication device is A shooting content acquisition unit for acquiring the shooting content data; A transmission unit that transmits the captured content data acquired by the captured content acquisition unit to the content processing device; In the content processing device, an adjustment content receiving unit that receives the adjustment content that is returned after a part or all of the editing reflected in the actual broadcast content is performed on the captured content; An adjustment content output unit that outputs the adjustment content so that a user at the shooting location can confirm the content;
  • the content processing apparatus is A shooting content data receiving unit for receiving the shooting content data from the content communication device; An editing processing unit that performs part or all of the editing reflected on the actual broadcast content with respect to the received photographed content data; An adjustment content transmission unit that transmits the captured content data edited by the editing processing unit as the adjustment content to the content communication device; A broadcast content output unit
  • the present invention has the above-described configuration, and when performing broadcast broadcasting from the shooting location, the shooting side quickly determines how the operation performed at the shooting location (shooting side) is reflected as broadcast content. It has the effect of making it possible to confirm.
  • the sequence chart which shows an example of the content processing in the broadcasting system of the 1st Embodiment of this invention The sequence chart which shows an example of the content processing in the broadcasting system of the 2nd Embodiment of this invention
  • the block diagram which shows the 1st example of a structure of the content communication apparatus for adjustment stations in embodiment of this invention The block diagram which shows the 2nd example of a structure of the content communication apparatus for coordinating stations in embodiment of this invention.
  • FIG. 9 is a block diagram showing an example of the configuration of a captured content encoder according to the second embodiment of the present invention.
  • the block diagram which shows an example of a structure of the broadcast level raw material content decoder in the 2nd Embodiment of this invention, and a return content encoder.
  • the figure which shows an example of the general structure of a broadcasting system in case relay is performed from a remote shooting location Sequence chart showing an example of content processing in a conventional broadcasting system
  • FIG. 1 is a sequence chart showing an example of content processing in the broadcasting system according to the first embodiment of the present invention. Note that this sequence chart is illustrated focusing on content data at a certain time, but in reality, data including shooting content, adjustment content, broadcast content, and the like are sequentially transmitted and processed. . In addition, this sequence chart includes both operations when synthesizing the action of the coordinating station studio as it is at the coordinating station and when synthesizing in synchronization with the response at the coordinating station studio (according to the contents of the response). Yes. Regarding the content transmission for adjustment, one or both of the above can be used depending on the application, and it is common to use one according to the system configuration to be described later or the form of broadcasting as the content used for broadcasting. Is.
  • the captured content photographed by the photographing camera is transmitted to the coordinating station (step S1002) after undergoing an encoding process or the like (step S1001).
  • the photographed content is output to a monitor in the coordinating station studio (step S1007), while the action of the coordinating station studio acquired in parallel is performed.
  • Photographing human reaction in the coordinating station studio
  • the video / audio is superimposed on the photographing content at the photographing location with PinP, or the telop or other various information is photographed at the photographing location.
  • the final content (content used as broadcast content) is created by performing processing such as superimposing on the screen or other encoding processing (step S1004).
  • the final content created in this way is broadcast through a broadcast wave (step S1006)
  • the broadcast content is transmitted using a communication path different from the broadcast wave (a transmission path through which content can be transmitted to the shooting location). Is transmitted from the coordinating station to the shooting location as the adjustment content (step S1005), and the operator and the shooting target at the shooting location quickly receive the adjustment content (the same content as the broadcast content) including the shooting content obtained by shooting a certain operation. You will be able to check at the timing.
  • the adjustment content is content that includes the same content as the broadcast content, but considering the throughput of the communication path from the adjustment station to the shooting location, the data volume of the adjustment content is reduced, and the processing load is low. It is desirable to use coding to reduce delay.
  • the content of the coordinating station acquired in step S1008 is used.
  • the video / audio and the captured content received from the shooting location in step S1001 are combined and encoded (step S1009), and then transmitted as adjustment content (and broadcast content) from the adjustment station (steps S1010, S1011). ).
  • the adjustment content is content that includes the same content as the broadcast content, but considering the throughput of the communication path from the adjustment station to the shooting location, the data volume of the adjustment content is reduced, and the processing load is low. It is desirable to use coding to reduce delay.
  • step S1007 and step S1008 are greatly drawn.
  • the coordinating station and the coordinating station studio are generally adjacent to each other, and step S1007 is common.
  • step S1008 is considered to be very short.
  • the photographed content reflecting a certain action at the photographing location is included in the broadcast content broadcasted in step S1011.
  • the action of the coordinating station studio is performed.
  • broadcast content is created using only the shooting content shot at the shooting station, or when shooting content is shot at the shooting station, the shooting site operator or shooting target person can select the shooting content shot for a certain action.
  • the adjustment content including the content that can be viewed after the time Ta can be watched, and when it is synthesized in synchronism with the response in the coordinating station studio (according to the content of the response)
  • the content for use can be viewed after time Tb.
  • both the adjustment content that is not synchronized with the response at the coordinating station studio and the adjustment content that is synchronized with the response at the coordinating station studio may be sent back to the shooting location. Further, in one adjustment content, a portion synchronized with a response in the adjustment station studio and a portion not synchronized may be mixed. Also, the response of the coordinating station studio to a certain operation can be watched after time Tb. That is, the operator at the shooting location and the shooting target can quickly check the broadcast content as compared with the conventional technique.
  • the video / audio that captures the action of the coordinating station studio is included in the broadcast content.
  • the captured content from the shooting location is broadcast as it is (if the video is the entire broadcast screen)
  • the video / audio of the coordinating station studio is not necessarily included in the broadcasting content. That is, the content transmission in steps S1003, S1007, and S1008 is not essential.
  • the coordinating station immediately uses the captured content received from the shooting location (particularly, the video / audio of the coordinating station studio is acquired simultaneously in parallel).
  • the shooting location By creating broadcast content, content that can be used for adjustment at the shooting location (shooting content that reflects certain actions at the shooting location) can be viewed quickly compared to conventional techniques. become.
  • the coordinating station sends content that can be used for adjustment more quickly at the shooting location by sending the same content as the broadcast content back to the shooting location as the adjustment content using a communication channel different from the broadcast content. You can watch it.
  • the adjustment content can be viewed quickly at the shooting location as compared with the conventional technique.
  • the effect is sufficiently exhibited under specific conditions. May not be.
  • One of the conditions is a case where the throughput of the communication path between the shooting location (or relay station) and the coordinating station is limited.
  • the shooting location is quicker compared to the case where the conventional technique is used for either the reception of the adjustment content from the adjustment station or the reception of the broadcast content by the broadcast wave.
  • the broadcast content included in the broadcast wave is viewed for adjustment (when the adjustment content is not transmitted)
  • the broadcast content is affected by the delay associated with the transmission and processing of the broadcast wave.
  • the delay time increases, which may cause inconvenience for the operator at the shooting location and the person to be shot.
  • analog broadcasting the delay time will be shorter than if digital broadcasting is used.
  • the shooting location (or relay station) and adjustment Both stations are forced to introduce equipment that uses analog broadcasting and communication lines such as radio frequencies as special equipment for adjustment purposes.
  • the adjustment content when the adjustment content is transmitted using a communication path different from the broadcast wave, it is not affected by the delay that is latent in the digital broadcast, and more quickly. It should be possible to transmit content for adjustment.
  • a relay line in transmission between a shooting location or a relay station and a coordinating station may be via wireless communication, and it is not always possible to construct an environment in which sufficient throughput can be obtained. Therefore, it is necessary to compress the data of the adjustment content transmitted from the adjustment station to the shooting location.
  • the adjustment content having the same level of quality as the broadcast content is transmitted in a low-throughput environment, the adjustment content Therefore, there is a possibility that a large delay related to encoding and data compression is added.
  • the throughput of the communication path between the shooting location (or relay station) and the coordinating station and the encoding for increasing the data compression rate are in a trade-off relationship, and an efficient encoding method is used. It is necessary to adopt appropriately.
  • FIG. 2 is a sequence chart showing an example of content processing in the broadcasting system according to the second embodiment of the present invention. Note that this sequence chart is illustrated focusing on content data at a certain time, but in reality, data including shooting content, adjustment content, broadcast content, and the like are sequentially transmitted and processed. .
  • step S2002 There is a camera for shooting at the shooting location, shooting the shooting location.
  • the captured content photographed by the photographing camera is transmitted to the coordinating station (step S2002) after undergoing an encoding process or the like (step S2001).
  • a hierarchical encoding method is applied to the method of encoding photographed content, and the photographed content is layered into a coarse material (core) layer and a broadcast level material (extended) layer and encoded.
  • the coarse material layer and the broadcast level material layer are separable and can be transmitted and received individually, and by combining them, it is possible to obtain the original encoded data group (captured content). Note that, in this specification, the case of hierarchizing into two layers will be mainly described, but it may be hierarchized into three or more layers.
  • the coarse material (core) layer performs coding of a coding parameter set capable of high-speed coding such as low pixel count, narrow band, monochrome, and monaural, and performs high-speed sequential transmission such as frame-by-frame transmission.
  • the data is divided into transmission units that shorten the data transmission unit time, such as each scanning line, each scanning line group, each phoneme segment, and each phoneme group.
  • encoded data belonging to the coarse material (core) layer is referred to as coarse material content encoded data.
  • the broadcast level material (extended) layer encodes the parameter set necessary for the final content such as high pixel count, wideband, stereo, and wide color gamut, and performs high compression encoding including inter-frame compression. May be.
  • the final content must be encoded and transmitted within a range that satisfies the delay when broadcasting and distributing the final content (delay determined from a point of view different from sending back, etc.) and is set in consideration of the operation and delay time of the entire system. It is desirable that In this specification, encoded data belonging to the broadcast level material (extension) layer is called broadcast level material content encoded data, and both the coarse material content encoded data and the broadcast level material content encoded data are decoded. Decoding processing that enables confirmation of original photographed content is called broadcast level material content decoding, and content decoded by broadcast level material content decoding is called broadcast level material content.
  • FIG. 3 is a diagram showing a schematic image of the encoding and transmission method according to the second embodiment of the present invention.
  • hierarchical encoding is applied to certain data to be encoded, high-speed encoding of the raw material layer is performed for each predetermined processing unit, and the generated raw material content encoded data is sequentially transmitted to the adjustment station.
  • the broadcast level material layer since advanced coding is also performed, the coarse material layer content encoded data is encoded later than the corresponding coarse material content and transmitted to the coordinating station.
  • the broadcast level material layer does not need to be transmitted sequentially unlike the coarse material layer. For example, inter-frame high compression encoding may be performed in consideration of transmission efficiency.
  • the raw material content encoded data created by the high-speed encoding is sequentially transmitted from the shooting location, and the broadcast level material content encoded data is transmitted later.
  • the coordinating bureau uses the raw material content encoded data that arrives first to convert the actions of the studio (acceptance and answer in the coordinating station studio), BGM, sound effects, telop composition, processing, etc. into the raw material content encoded data. Then, adjustment content (return content) is created (step S2004) and sent back to the shooting location (step S2005). At this time, depending on the editing and processing system at the coordinating station, composition for the final content (content used as broadcast content) is performed at the content data level, as well as at the time stamp and other metadata levels. You may go. That is, the coordinating station may perform the process of synthesizing or switching the coarse material content encoded data by a method that is easy to synthesize with the broadcast level material content data that comes a little later.
  • the video / audio at the coordinating station studio is also acquired in parallel (step S2003) and reflected in the adjustment content.
  • the video / audio data from the coordinating station studio to the coordinating station is also coarsely encoded by hierarchical coding. It may be divided into a material layer and a broadcast level material layer.
  • the coordinating station further synthesizes broadcast level material layers received later to generate broadcast / distribution data, and processes it into broadcast / distribution content (step S2004). This is performed (step S2006).
  • CM content or the like may be inserted into the final content, and the content for broadcasting / distribution is archived as master content for further editing and transcoding (format conversion for distribution)
  • the content created by editing the coarse material layer that arrives first is sent back to the shooting location as adjustment content, and is delayed from the coarse material layer that arrives earlier.
  • the final content is created using the fact that the photographed content can be obtained by combining the incoming broadcast level material layer. There are several possible methods for such synthesis.
  • the original coarse material content layer and the broadcast level material content layer are synthesized, and then video / audio data or the like in the coordinating station studio is acquired (video / audio data that matches the timing of the response) Can be obtained).
  • the video / audio of the shooting location (coarse material) and the video / audio of the adjustment station studio (which may be the raw material content) are edited and processed to create adjustment content, and broadcast
  • the final content is created by editing and processing the video / audio of the shooting location (coarse material), the video / audio of the shooting location (broadcast level material), and the newly acquired video / audio of the adjustment station studio. May be.
  • photographed content (may be coarse material content or broadcast level material content combined with broadcast level material) is output to the coordinating station studio (step S2007).
  • video / audio data including the behavior of the studio for the content is acquired by the coordinating station (step S2008)
  • broadcast content is created using the video / audio data that matches the timing of the response (step S2009).
  • Broadcasting may be performed using broadcast waves (step S2011).
  • step S2011 the time required for one round trip of step S2007 and step S2008 is greatly drawn.
  • the coordinating station and the coordinating station studio are generally adjacent to each other, and step S2007 is common.
  • the time required for the processing in step S2008 is considered to be very short.
  • Content may be created.
  • the operator at the shooting location and the shooting target can view the studio's reaction to the shooting content transmitted in step S2001 (the action of the adjusting station studio) at the timing of transmission of the adjustment content (step S2012). It is.
  • the video / audio from the shooting location and the action of the coordinating station studio may be directly combined at the coordinating station.
  • the video / audio from the shooting location may be synthesized (in accordance with the content of the response) so as to be synchronized with the response at the adjusting station studio.
  • the action of the coordinating station studio is synthesized as it is at the coordinating station, or when the broadcast content is created using only the photographed content photographed at the photographing place, the photographing place is used.
  • the operator and the person to be photographed can view the adjustment content including the photographed content obtained by photographing a certain operation after the time Tc, and in synchronization with the response at the coordinating station studio (according to the content of the response). )
  • the adjustment station studio's response to a certain operation can be viewed after time Td (at the timing of viewing the adjustment content received in step S2012).
  • both the adjustment content that is not synchronized with the response at the coordinating station studio and the adjustment content that is synchronized with the response at the coordinating station studio may be sent back to the shooting location.
  • a portion synchronized with a response in the adjustment station studio and a portion not synchronized may be mixed.
  • the operator at the shooting location and the shooting target can quickly check the broadcast content as compared with the conventional technique, and further, compared with the above-described first embodiment of the present invention.
  • the delay time becomes shorter.
  • any transmission technology can be used in the communication path between the shooting location and the coordinating station, for example, when using a 3GPP line, QoS (Quality) that differs between coarse material and broadcast level material.
  • QoS Quality
  • Service service quality
  • the encoded data of the raw material content is transmitted as data that does not allow delay, and the encoded data of the broadcast level material content can accurately transmit a large amount of data while allowing some delay time.
  • data transmission management such as bearer, PDN (Packet Data Network) connection, session, etc. is also separate.
  • the coordinating station applies hierarchical coding at the shooting location, and controls the layer and timing to be transmitted, and transmits the shot content.
  • the raw material content immediately and creating content that can be used for adjustment at the shooting location (adjustment content that reflects certain actions at the shooting location) and sending it back to the shooting location.
  • the coordinating station performs the same editing and processing as the broadcast content to be broadcast afterwards on the coarse material content at least with respect to timing, additional information, composition, etc.
  • the shooting location is the shooting content. Can be accurately and quickly grasped from the adjustment content how the image is reflected in the final broadcast content.
  • FIG. 4 is a block diagram showing an example of the configuration of the content communication terminal for shooting location according to the second embodiment of the present invention.
  • the content communication terminal 100 for shooting location shown in FIG. 4 includes a shooting content acquisition unit 110, a shooting content encoding unit 120, a shooting content transmission unit 130, a return content reception unit 140, a return content decoding unit 150, and a return content output unit 160. It is configured.
  • the photographed content acquisition unit 110 has a function of capturing photographed content photographed at the photographing location.
  • the shooting location content communication terminal 100 itself includes a camera, a microphone, and other sensors, the shooting content acquisition unit 110 captures information from each device.
  • the captured information video, audio, other data strings, etc.
  • the shooting location content communication terminal 100 itself is not equipped with a camera, microphone, or other sensor
  • the shooting content acquisition unit 110 uses the shooting location content via an interface or the like for inputting necessary information.
  • Information is taken into the communication terminal 100.
  • any video, audio, and data interface such as DVI (registered trademark), HDMI (registered trademark), component / composite, stereo jack, and serial can be used.
  • Shooting content acquisition unit 110 outputs the acquired content to shooting content encoding unit 120. Note that, if necessary, the level and format conversion is performed and the result is output to the captured content encoding unit 120. In addition, when it is not necessary to encode the captured content (for example, when there are a plurality of different modes such as external encoding and storage / transmission), the captured content acquisition unit 110 directly transmits the captured content to the captured content transmission unit 130. It may be configured to send.
  • the photographed content encoding unit 120 has a function of encoding the photographed content provided from the photographed content acquisition unit 110, and includes a coarse material content encoding unit 121, a broadcast level material content encoding unit 122, and a hierarchy.
  • the encoding management unit 123 is configured. It should be noted that the method, quality, and parameters of encoding in the photographed content encoding unit 120 (encoding in each of the coarse material content encoding unit 121 and the broadcast level material content encoding unit 122) are controlled externally or via a communication line. It is desirable that it is configured to be possible.
  • the content encoded data encoded by the captured content encoding unit 120 is output to the captured content transmission unit 130.
  • the coarse material content encoding unit 121 has a function of encoding photographed content with emphasis on shortening the delay time.
  • the coarse material content encoding unit 121 encodes the captured content in a set short-term processing unit (one frame unit, scanning line unit, several milliseconds unit, etc.).
  • Each processing unit is encoded by a method that does not depend on at least subsequent information (for example, compression within a frame or differential code with already processed data) so that processing can be performed without waiting for data of the subsequent processing unit at the time of decoding. It is desirable that Note that data generated by being encoded by the coarse material content encoding unit 121 is referred to as coarse material content encoded data.
  • the encoding parameters are set so that parameters related to the delay time, such as the size of the raw material content encoded data and the processing time required for encoding and decoding, become small. For example, if it is intended to be used for sending back content used for composition confirmation and timing confirmation at the shooting location, the number of video pixels can be compared with broadcast-level material by encoding the shooting content with an emphasis on shortening the delay time. It may be rough, the color gamut may be monochrome, and the audio may be mono.
  • hierarchical coding generally increases the overhead as the number of hierarchical units increases, and the number of processing units increases as the number of processing units cut out increases. In some cases, the efficiency may be reduced. Therefore, it is desirable to set the short-term processing unit so that the entire processing time is shortened from a comprehensive viewpoint.
  • the raw material content encoded data after being encoded by the raw material content encoding unit 121 is sequentially transmitted, the raw material content encoded data is added once in consideration of overhead related to other transmissions. If there is an excess or deficiency in the transmission unit (for example, the transmission data size assigned to the transmission cycle of the communication terminal, the packet size unit of the transmission packet, etc.) May be transmitted at the same time despite being divided (the overhead may increase due to the division into processing units) or divided into smaller transmission units (further lower (It may be possible to expect a delay). Therefore, the overall design is preferably a processing unit that also takes into account the transmission unit. For example, the short-term processing unit and the transmission unit are the same, or one is a multiple of the other. Is desirable.
  • the raw material content encoded data encoded by the raw material content encoding unit 121 is passed from the raw material content encoding unit 121 to the photographed content transmission unit 130 so that transmission processing is immediately performed each time. Is desirable.
  • the coarse material content encoding unit 121 performs control (dynamic parameter setting, management information setting) so that the relationship with the corresponding layer (broadcast level material layer) can be encoded from the layer encoding management unit 123. And the like, and information may be exchanged with the broadcast level material content encoding unit 122.
  • the broadcast level material content encoding unit 122 has a function of encoding photographed content with required quality and parameters in order to generate necessary broadcast level material layer information. Note that if there are multiple layers of broadcast level material content in hierarchical encoding, an encoding unit may be required for each layer, but here there is one broadcast level material content encoding unit 122 This will be described as an example. That is, a plurality of broadcast level material content encoding units 122 may exist depending on each layer in hierarchical encoding.
  • the data generated by encoding by the broadcast level material content encoding unit 122 is referred to as broadcast level material content encoded data.
  • the broadcast level material content encoding unit 122 Since the original (captured) video content can be considered that part of the information is encoded in the coarse material content encoding unit 121, the broadcast level material content encoding unit 122 is the original. The difference between the video content and the information encoded in the raw material content encoding unit 121 may be encoded.
  • the broadcast level material content encoding unit 122 for example, encoding for monochrome, encoding for luminance information, encoding for a high resolution portion for low resolution video, encoding stereo audio difference for monaural audio, and extended band audio for narrowband audio. Are encoded, and interpolated data is encoded with respect to coarse sampling data to generate broadcast level material content encoded data.
  • the broadcast level material content may also need to be set for encoding.
  • the preceding data frame is processed in order to process a plurality of frames collectively.
  • the entire data transmission is delayed for the period of staying in the processing buffer.
  • inter-frame compression is generally irreversible (a decoding error between frames is left at the time of decoding), it has an influence in terms of image quality degradation in the subsequent editing process.
  • what kind of encoding is performed as broadcast level material content encoding depends on the use of the content, it may not necessarily have a hierarchical structure in which a plurality of frames as shown in FIG. 3 are combined.
  • Broadcast level material content encoding has a larger encoding delay and a larger data size than the coarse material content encoding from the above points.
  • the broadcast level material content encoded data obtained by the encoding by the broadcast level material content encoding unit 123 is passed to the photographed content transmission unit 130 (in units of a plurality of frames encoded together). .
  • the broadcast level material content encoding unit 122 performs control (dynamic setting of parameters, management information) so that the relationship with the corresponding layer (coarse material content) can be encoded from the hierarchical encoding management unit 123.
  • the information may be exchanged with the coarse material content encoding unit 121.
  • the hierarchical encoding management unit 123 manages each encoding in the coarse material content encoding unit 121 and the broadcast level material content encoding unit 122, hierarchizes the codes in each encoding, and generates a series of encoded data ( (Hierarchical code). Specifically, the hierarchical encoding management unit 123, when the captured content is processed by the coarse material content encoding unit 121 in a short-time processing unit, is handled by the broadcast level material content encoding unit 122. Alternatively, it has a function of managing the correspondence with a plurality of short-term processing units and adding (or encoding) an additional information element as a hierarchical encoding structure.
  • the hierarchical encoding management unit 123 relates the encoded data encoded by the coarse material content encoding unit 121 and the broadcast level material content encoding unit 122, and In some cases, control of each encoding unit is performed (dynamic setting of parameters, addition of management information, etc.), and control of information transfer.
  • the photographed content transmitting unit 130 has a function for sending the encoded data output from the photographed content encoding unit 120 to the coordinating station (coordinating station content communication apparatus), or a communication module for transmission. Of the interface (when the communication device itself is connected to the outside of the shooting location content communication terminal 100).
  • the captured content transmission unit 130 includes an encoded data acquisition unit 131, a coarse material content encoded data transmission unit 132, and a broadcast level material content encoded data transmission unit 133.
  • the encoded data acquisition unit 131 has a function of acquiring encoded data output from the captured content encoding unit 120. Also, the encoded data acquisition unit 131 passes the coarse material content encoded data to the coarse material content encoded data transmission unit 132 with respect to the acquired encoded data, and encodes the broadcast level material content encoded data to the broadcast level material content encoding. It has a function of passing to the data transmission unit 133. From the viewpoint of shortening the delay time, at least encoded data obtained by encoding the raw material content (encoded data by the raw material content encoding unit 121) does not stay (if possible, a temporary buffer or the like can be used). It is desirable to pass the data to the raw material content encoded data transmission unit 132 (without going through).
  • the coarse material content encoded data transmission unit 132 has a function of transmitting the coarse material content encoded data among the encoded data acquired by the encoded data acquisition unit 131 to the content communication device for the adjustment station. .
  • the communication of coarse material content encoded data by the coarse material content encoded data transmission unit 132 and the communication of broadcast level material content encoded data by the broadcast level material content encoded data transmission unit 133 are different from each other. May be sent. That is, it is desirable to process the transmission of the raw material content encoded data from the raw material content encoded data transmission unit 132 with priority on reducing the delay time. For example, the delay time is short as a communication path.
  • Communication channel setting processing may be performed so as to set the time short, or communication processing (bearer, session, connection setting, etc.) different from data communication including other encoded data may be performed.
  • the broadcast level material content encoded data transmission unit 133 has a function of transmitting the broadcast level material content encoded data among the encoded data acquired by the encoded data acquisition unit 131 to the content communication device for the adjustment station. ing.
  • For broadcast level material content encoded data it is necessary to manage the delay time in order to be able to withstand broadcasting (or to be able to withstand communication with the coordinating station and the coordinating station studio). Transmission processing can be performed under conditions that are relaxed compared to the delay time conditions required for the transmission delay of the material content.
  • the data amount of the broadcast level material content encoded data may be larger than the data amount of the encoded data of the coarse material content, and transmission requirements related to the broadcast level material content encoded data (transmission error) (Requirements such as packet loss) are considered to be stricter than the encoded data of the raw material content.
  • transmission error transmission error
  • Requirements such as packet loss transmission requirements related to the broadcast level material content encoded data
  • data such as the number of frames may be thinned out, or a certain amount of loss may be allowed. Therefore, for encoded data of broadcast-level material content, it is possible to select a communication path (communication module, interface, etc.) and set parameters so that a large amount of data can be accurately transmitted while allowing some delay time. desirable.
  • the communication level is substantially (broadcast level material content code).
  • the encrypted data transmission unit 133 it is possible to process the time required to acquire and transmit the broadcast level material content encoded data as short as possible as in the coarse material content encoded data transmission unit 132. desirable.
  • the broadcast level material content encoded data transmission unit 133 may transmit with the same communication settings as the coarse material content encoded data transmission unit 132, but as management of communication, bearer, session, It is desirable that connections and the like are managed separately for coarse material content and broadcast level material content.
  • the return content receiving unit 140 has a function of receiving the return content transmitted from the content communication device for the coordinating station.
  • the return content is adjusted and edited at the same timing as the actual broadcast content, but the resolution, frame rate, color, and audio are simplified or low-rate as long as they meet the requirements of the shooting site. It is what has been made.
  • the return content receiving unit 140 can also receive data other than the return content, such as control audio (including video and other data).
  • the data other than the content to be sent back includes, for example, instructions from the coordinating station, instructions from the relay station, broadcasting / others (CM (commercial) period, relay from the coordinating station studio and other relay destinations), etc. For example, a signal indicating a period of time).
  • the return content received by the return content receiving unit 140 is transferred to the return content decoding unit 150, and other data is transferred to a function (not shown in FIG. 4) for handling various data.
  • the return content decrypting unit 150 has a function of decrypting the return content received by the return content receiving unit 140.
  • the sending back content decoding unit 150 decodes the sending back content based on the encoding method in the coordinating station content communication device. For example, in the coordinating station content communication device, the same as the coarse material content coding unit 121 is performed. It is conceivable that an encoding method is used.
  • the return content decrypted by the return content decoding unit 150 is passed to the return content output unit 160.
  • the send back content output unit 160 has a function of outputting the send back content decrypted by the send back content decrypting unit 150 (further, information processed along with the send back content) through a necessary interface.
  • the return content output unit 160 is an output device (such as a monitor, a speaker, or a headphone) installed in the shooting location content communication terminal 100 or an output device installed in various devices connected to the shooting location content communication terminal 100.
  • the content is sent back so that the person (operator or person to be photographed) at the photographing location can confirm from the device or other external interface. It is desirable that the return content output unit 160 can output the return content separately from other data and content, and it is desirable that they can be mixed and output as necessary.
  • the shooting location content communication terminal 100 illustrated in FIG. 4 is merely an example.
  • the shooting location content communication terminal (or a plurality of devices connected through the interface) transmits data that can be sequentially encoded of the raw material content related to the shooting content with emphasis on delay, and further, for the coarse material content.
  • a certain functional block may be realized as a part of another functional block, or a certain functional block may be mounted on another external device that can be connected through an interface.
  • FIG. 5 is a block diagram showing a first example of the configuration of the content communication device for a coordinating station in the embodiment of the present invention.
  • the adjustment station content communication apparatus 200 shown in FIG. 5 includes a photographed content reception unit 210, an adjustment station content acquisition unit 220, a return content generation unit 230, an editing / processing interface unit 232, a final content generation unit 240, and a return content output unit 250.
  • the final content output unit 260 is included.
  • the photographed content receiving unit 210 receives the encoded photographed content from the photographing location (photographing location content communication terminal 100). Note that the raw material content encoded data and the broadcast level material content encoded data are received from the shooting location content communication terminal 100 as the shooting content, but the respective encoded data are related (the same shooting location content). While maintaining the association information of the encoded data of a plurality of layers corresponding to the hierarchical structure from the communication device), each can be handled as an independent processing unit. Further, it is desirable to also have a function of temporarily storing the encoded data of the photographed content received from reception of the photographed content until decoding, other processing, and output of the final content (broadcast content). .
  • the return content generation unit 230 has a function of decoding the raw material content encoded data and generating the return content using the decoded data.
  • the photographed content output unit 231, the coarse material content decoding unit 233, and the return The content composition unit 234 and the return content encoding unit 235 are configured.
  • the photographed content output unit 231 has a function of outputting (displaying) the received photographed content (the coarse material content decrypted by the coarse material content decrypting unit 233).
  • the photographed content output unit 231 may output (such as a monitor) the photographed content to an external interface.
  • the block corresponding to this function may be in the final content generation unit 240.
  • the coarse material content decoding unit 233 has a function of acquiring the coarse material content from the received coarse material content encoded data. For example, the coarse material content decoding unit 233 decodes the content from the system layer of the encoded data, and performs decoding together with information indicating the correspondence relationship with the broadcast level material content such as a time stamp and a frame number.
  • the coarse material content decryption unit 233 delivers the decrypted coarse material content to the photographed content output unit 231 in accordance with, for example, an instruction from the editing processing interface unit 232 or other control (when output in the state of the coarse material content).
  • the coarse material content decryption unit 233 passes the decrypted coarse material content to the final content generation unit 240 and is also used for synthesis of the final content in the final content generation unit 240.
  • the send-back content composition unit 234 has a function of synthesizing the send-back content using the coarse material content in accordance with an instruction from the editing processing interface unit 232 and other controls. It should be noted that it is desirable to reduce processing delay and transmission delay for the return content, and the return content is content that is processed in a short time when encoded and becomes encoded data with a small amount of data. Is desirable.
  • the return content composition unit 234 synthesizes the return content (that is, adjustment content) by performing composition adjustment on the raw material content in accordance with an instruction from the editing / processing interface unit 232 and other controls. . Further, when the equipment for editing and processing is in an externally connected format, the send back content composition unit 234 may only acquire the send back content that has been synthesized. Since this depends on the entire system configuration of the coordinating station, the coordinating station content communication apparatus 200 includes a configuration in which only a function for acquiring the send-back content is present. A function of the content composition unit 234 is used. That is, the send back content combining unit 234 may be realized as a send back content acquiring unit that simply performs an acquisition operation without synthesizing the send back content due to the system configuration.
  • the return content encoding unit 235 has a function of encoding the return content synthesized by the return content synthesis unit 234.
  • the send back content encoding unit 235 sends the encoded data to the send back content output unit 250.
  • the send back content encoding unit 235 may perform encoding by an encoding method equivalent to the encoding method related to the coarse material content encoded data decoded by the coarse material content decoding unit 233.
  • the editing / processing interface unit 232 is an interface for performing control for switching to or synthesizing contents of a studio of another coordinating station.
  • the edit processing interface unit 232 operates in cooperation with other editing equipment and transmission equipment of the coordinating station in synchronization with the time stamp of the content.
  • the block that arrives at this function may be in the return content generation unit 230 or the final content generation unit 240.
  • the configuration in this case is shown in FIGS. Will be described later with reference to FIG.
  • the final content generation unit 240 has a function of decoding broadcast level material content and generating final content using the content, and includes a broadcast level material content decoding unit 241, a hierarchical encoding management unit 242, a final content
  • the content composition unit 243 is configured.
  • the broadcast level material content decoding unit 241 has a function of acquiring broadcast level material content from the received broadcast level material content encoded data (and coarse material content encoded data). For example, the broadcast level material content decoding unit 241 decodes the content from the system layer of the encoded data, and performs decoding together with information indicating the correspondence with the rough material content such as a time stamp and a frame number. The broadcast level material content decoding unit 241 generates decoded data (broadcast level material content) by synthesizing and adding the layered information to the coarse material content according to the information of the hierarchical coding management unit 242.
  • the hierarchical encoding management unit 242 also has a function of managing (holding) the correspondence between the coarse material content and the broadcast level material content, and controlling the broadcast level material content to be decoded with a correct combination of hierarchical structures. is doing.
  • the final content composition unit 243 has a function of composing the final content in accordance with instructions from the editing / processing interface unit 232 and other controls.
  • the final content composition unit 243 performs the same composition adjustment as that performed when composing the return content in accordance with an instruction from the editing / processing interface unit 232 and other controls, so that the return content (that is, The adjustment content) and the final content can be matched.
  • the return content output unit 250 has a function of transmitting the encoded data of the return content encoded by the return content encoding unit 235 to the content communication terminal 100 for shooting location.
  • the transmission path for sending back the content to the shooting location content communication terminal 100 may be the same interface as the interface that received the content from the shooting location content communication terminal 100 (in the case of bidirectional communication). It is desirable that a more appropriate interface can be selected as a transmission path from the station to the shooting location in terms of delay, stability, and the like. It is also desirable that parameter settings relating to transmission such as QoS can be set appropriately.
  • the final content output unit 260 has a function of outputting the synthesized final content (depending on the device configuration, the broadcast level material content itself). This final content (or content further processed by an external editing device) is used as broadcast content.
  • the adjustment station content communication apparatus 200 shown in FIG. 5 performs video editing such as, for example, superimposing the video of the adjustment station studio (coordination station content) with PinP or inserting a telop.
  • the configuration is based on the assumption that it will be performed using external editing equipment. That is, in the content communication apparatus for coordinating station 201 shown in FIG. 5, the editing process is performed by an external editing device, or is completed (completed without excess or deficiency) by the return content composition unit 234 or the final content composition unit 243. This is based on the assumption that
  • another configuration example of the coordinating station content communication apparatuses 201 and 202 illustrated in FIGS. 6 and 7 to be described later includes the coordinating station content acquisition unit 220 and adjusts to the return content and the final content. The process of synthesizing the station content can be performed in the content communication apparatus for coordinating station 200.
  • FIG. 6 is a block diagram showing a second example of the configuration of the content communication device for the coordinating station in the embodiment of the present invention.
  • the coordinating station content communication apparatus 201 shown in FIG. 6 includes a photographed content receiving unit 210, a coordinating station content acquisition unit 220, a return content generation unit 230, a final content generation unit 240, a return content output unit 250, and a final content output unit 260. Have.
  • the coordinating station content acquisition unit 220 has a function of acquiring necessary content (such as the content of the coordinating station studio) other than the shooting content transmitted from the shooting site content communication terminal 100.
  • This coordinating station content acquisition unit 220 is used when content other than the photographed content is unnecessary, or when editing processing is completed (completed without excess or deficiency) by an external device, the return content synthesis unit 234, or the final content synthesis unit 243. Need not be installed.
  • each block of the coordinating station content communication apparatus 201 shown in FIG. 6 is basically the same as the above-described function, but the major difference is that the shooting content output unit 231 and the editing / processing interface unit 232 send back the content generation unit. 230 is incorporated. That is, in the coordinating station content communication apparatus 201 shown in FIG. 6, the coarse material content is output from a monitor or the like, and the editing processing is completed on the coarse material content through the editing processing interface unit 232, while the final content is displayed. At the time of generation, the final content combining unit 243 combines the editing processing result for the return content with the broadcast level material content obtained by the simple decoding process related to the hierarchically encoded data.
  • FIG. 7 is a block diagram showing a third example of the configuration of the content communication device for a coordinating station in the embodiment of the present invention.
  • the content communication apparatus 202 for the adjustment station shown in FIG. 7 similarly includes the photographed content reception unit 210, the adjustment station content acquisition unit 220, the return content generation unit 230, the final content generation unit 240, the return content output unit 250, and the final content output unit.
  • 260, the photographed content output unit 231 and the editing / processing interface unit 232 are incorporated in the final content generation unit 240, and the editing / processing interface unit 232 performs editing processing of both the return content and the final content. It is significantly different from the content communication apparatus for coordinating station 201 shown in FIG. 6 in that it can be configured.
  • the editing of the coarse material content and the broadcast level material content is performed through the editing / processing interface unit 232 while confirming the video having the same image quality as the broadcast level material content on the monitor. It is configured so that it can be processed. Also, editing processing is possible at the timing after the broadcast level material content equivalent to the quality of the final content is synthesized. For example, only the layout of the PinP window is determined in the return content, and immediately before the final content is synthesized. Then, by acquiring video data and the like in the adjustment station studio from the adjustment station content acquisition unit 220 and fitting it in the PinP window, it becomes possible to synthesize video / audio data that matches the timing of the answer.
  • the configurations of the coordinating station content communication apparatuses 200, 201, and 202 shown in FIGS. 5 to 7 are merely examples.
  • the content communication device for the coordinating station (or a plurality of devices connected through the interface) generates and transmits the content to be sent back by synthesizing the editing processing applied to the actual broadcast content with the raw material content,
  • the editing process applied to the raw material content may be combined with the final content (actual broadcast content) corresponding to the raw material content.
  • the configurations shown in FIGS. 5 to 7 may be used in combination.
  • a certain functional block may be realized as a part of another functional block, or a certain functional block may be mounted on another external device that can be connected through an interface.
  • FIG. 8 is a block diagram showing an example of the configuration of a captured content encoder according to the second embodiment of the present invention. 8 can be disposed in the content-for-capture content communication terminal 100 shown in FIG. 4, but FIG. 8 is a rough encoding from the shot content using hierarchical encoding technology. It is illustrated with a focus on the function of creating material content encoded data and broadcast level material content encoded data.
  • the 8 includes a core encoder 501, a core decoder 502, a difference component extractor 503, and an extension encoder 504.
  • the core encoder 501, the core decoder 502, and the extension encoder 504 correspond to a coarse material content encoder, a coarse material content decoder, and a broadcast level material content encoder, respectively.
  • the photographed content input to the photographed content encoder 500 is supplied to the core encoder 501 and the difference component extractor 503.
  • the core encoder 501 encodes the photographed content, and the raw material content. Generate encoded data.
  • the raw material content encoded data generated by the core encoder 501 is supplied to the core decoder 502, and the core decoder 502 performs a decoding process on the supplied raw material content encoded data to generate the raw material content. Then, the raw material content is supplied to the difference component extractor 503.
  • the difference component extractor 503 extracts the difference component between the supplied captured content and the raw material content, and supplies the difference component to the extension encoder 504.
  • the extension encoder 504 encodes the supplied difference component to generate broadcast level material content encoded data. Then, the raw material content encoded data obtained by the core encoder 501 and the broadcast level material content encoded data obtained by the extension encoder 504 are output.
  • the encoded data is output and transmitted from the photographic content encoder 500 so as to be transmitted immediately when the raw material content encoded data is obtained in consideration of shortening of the delay time.
  • broadcast level material content encoded data obtained after the remaining processing is output from the captured content encoder 500.
  • the extended decoder part of the broadcast level material content decoder
  • the remaining code broadcast level material content encoded data
  • FIG. 9 is a block diagram showing an example of the configuration of the broadcast level material content decoder and the return content encoder in the second embodiment of the present invention.
  • the core decoder 601, the return content encoder 602, and the broadcast level material content decoder 610 shown in FIG. 9 can be arranged in the content communication devices 200, 201, and 202 for the coordinating station shown in FIGS.
  • FIG. 9 shows the function of creating the coarse material content from the coarse material content encoded data, and the broadcast level material content from the coarse material content encoded data and the broadcast level material encoded data using the hierarchical encoding technology.
  • the drawing is focused on the function of creating and the function of creating the return content encoded data from the return content.
  • the core decoder 601 and the core decoder 612 have the same function of decoding the raw material content encoded data, and may be realized by the same decoder.
  • the broadcast level material content decoder 610 shown in FIG. 9 includes a hierarchical decoder 611, a core decoder 612, an extended decoder 613, and an adder 614.
  • the coarse material content encoded data and the broadcast level material content encoded data are input to the hierarchical decoder 611 that grasps only the system layer of the hierarchical encoded data. Then, under the control of the hierarchical decoder 611 (management of the correspondence relationship of each hierarchically encoded data), the core decoder (decoder equivalent to the coarse material content decoder) 612 is first used using all of the encoded data. In this case, the raw material content is obtained by decoding, and then the extended decoder 613 performs decoding to obtain data corresponding to the difference component from the photographed content (data belonging to the broadcast level material layer). And these data are added in the adder 614, and a broadcast level material content is acquired.
  • the crude material content decoder can be configured to operate in parallel or in advance for the generation of the return content separately, instead of the core decoder, the crude material content decoder is simply encoded.
  • the output of the raw material content decoder that only performs data decryption processing can be used.
  • the raw material content (the raw material content decoded by the core decoder 601) decoded in advance for generating the return content is supplied to the hierarchical decoder 611, the core decoder 612 or the adder 614.
  • the broadcast level material content decoder 610 can perform the same processing.
  • the raw material content encoded data and the broadcast level material content encoded data are decoded (as a result, broadcast level material content is obtained), and the broadcast level material content thus obtained is edited and processed. If the final content is the final content, it can be easily processed. On the other hand, for example, edit processing is performed on the decoded raw material content encoded data, and the final content is obtained using data obtained by decoding the broadcast level material content encoded data. In some cases, special processing or codecs may be required.
  • the present invention is described on the premise of television broadcasting or network distribution.
  • the encoding method, the sending back method, the transmission system, and the like according to the present invention are other existing data communication technologies. It can be applied to various data communication technologies that will be developed in the future.
  • data communication where individuals possessing mobile terminals can distribute and distribute content taken in various places regardless of the general public or specific members, personal data distribution methods, intermediate distribution It can be widely used as a service providing method.
  • the present invention can be applied even when the content is single, such as only audio (such as radio broadcasting) or only video (monitoring).
  • the present invention is described using expressions such as transmission to the shooting location and transmission to the adjusting station. Communication is performed with the side communication device.
  • the shooting location and the coordinating station there may be a device that can implement various functions in the relay station due to the system configuration.
  • the shooting content encoding unit and the shooting content transmission unit described as being installed in the shooting site side communication terminal for example, the hierarchical encoding process and the encoded data that are the core of the present invention
  • Transmission processing may be implemented in the relay station apparatus, and only reception content (adjustment content) is received, decoded, and displayed at the shooting location.
  • the apparatus of the present invention operates before and after the start of broadcast relay.
  • the content shot at the shooting location is received (and stored) by the coordinating station.
  • the content that is actually broadcast / distributed that is, only the content captured in the coordinating station studio and not combined with the content captured
  • the relay start timing is transmitted. Since adjustment work such as measurement is performed, it is practically unnecessary to synthesize / process photographed content (both coarse material content and broadcast level material content).
  • the content communication device for the coordinating station does not encode the return content based on the coarse material content (send-back content obtained by synthesizing and processing the coarse material content), but rather the coarse material content or the broadcast level material.
  • the content is output to the equipment of the coordinating station, and the return content such as the photographed content in the coordinating station studio is input, encoded and sent back.
  • Such an operation mode is referred to as an idling mode.
  • the above-described normal relay mode and idling mode may be switched at the relay start / end timing, respectively.
  • hierarchical coding is applied so that the sum of the coarse material content and the broadcast level material content matches the captured content without excess or shortage.
  • the ground side communication terminal has a function of generating and transmitting the raw material content to the coordinating station, and the coordinating station (decoding side) can decode the captured content
  • the hierarchical coding technology Redundant data encoding that does not match may be performed.
  • the extension encoder 504 may generate broadcast level material content encoded data that includes content that overlaps part or all of the coarse material content.
  • the process may be performed on the assumption that some or all of the coarse material content is included in the broadcast level material content encoded data.
  • the captured content encoder 500 when encoding is performed so that the entire coarse material content is included in the broadcast level material content encoded data, includes the core encoder 501 and the entire input captured content. It has a coder (captured content coder) for encoding and transmits the raw material content encoded data immediately and transmits the encoded data of the entire captured content with a delay.
  • coder captured content coder
  • each functional block used in the above description of the embodiment of the present invention is typically realized as an LSI (Large Scale Integration) which is an integrated circuit. These may be individually made into one chip, or may be made into one chip so as to include a part or all of them.
  • LSI Large Scale Integration
  • IC Integrated Circuit
  • system LSI super LSI
  • ultra LSI ultra LSI depending on the degree of integration.
  • the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor.
  • An FPGA Field Programmable Gate Array
  • a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.
  • the present invention has an effect of enabling a shooting side to quickly confirm how an operation performed at a shooting location (shooting side) is reflected as broadcast content when relay broadcasting from the shooting location is performed. And is applicable to a technology for encoding and transmitting content data.

Abstract

撮影地からの中継放送を行う場合に、撮影地(撮影側)で行われた動作がどのように放送コンテンツとして反映されるかを、撮影側が迅速に確認できるようにする技術が開示され、その技術によれば撮影地のコンテンツ通信装置は、階層符号化によって、撮影コンテンツデータをコアレイヤの粗素材コンテンツ符号化データと、拡張レイヤの放送レベル素材コンテンツ符号化データに符号化する。粗素材コンテンツ符号化データは、即座に調整局のコンテンツ加工装置へ送信される。コンテンツ加工装置は、粗素材コンテンツに対して、実際の放送において行われる編集加工処理(の一部だけでもよい)を施して、そのコンテンツを調整用コンテンツとして返送する。調整用コンテンツは、例えば実際の放送コンテンツと同じ構図(合成情報の位置などが同じ)であり、撮影地では、調整用コンテンツに基づいて、最終の放送内容に基づく調整を行うことができる。

Description

コンテンツ通信装置及びコンテンツ加工装置並びにコンテンツ通信システム
 本発明は、コンテンツデータの符号化及び伝送を行うためのコンテンツ通信装置及びコンテンツ加工装置並びにコンテンツ通信システムに関する。
 移動通信の進歩に伴って、第3世代パートナーシッププログラム(3GPP:3rd Generation Partnership Program)では、非常に広範囲において無線通信サービスを提供するうえで、モビリティ(端末装置の高速な移動)サポート、広帯域(高スループット)データ通信サポートなど、音声のみならず、映像などのマルチメディアデータの伝送が可能となるまでに発達している。
 マルチメディアデータの通信においては、音声、映像など、通信対象となるデータを符号化して伝送することで、通信路の帯域消費、通信路の特性など、様々な点での効率化、安定化などが実現される。こうしたデータの符号化方法の1つとして、階層符号化技術が存在する。
 階層符号化技術においては、映像、音声を品質、用途などで分類し、各レベルにより階層化することで、基本となるデータに対して付加的な情報が分離可能な情報ブロックとして符号化される。それぞれの情報ブロックは個別に送受信でき、必要に応じて合成することで1つの符号化データ群が様々な環境で利用できるようになる。なお、音声の階層符号化技術として国際的に既に使用されている方式の先例として、下記の非特許文献1に記載されている技術が挙げられる。
 また、音声や映像を伝送する方法としては、テレビ放送などの映像/音声の放送・配信が挙げられる。このような放送・配信などに用いる映像/音声のデータをコンテンツと呼ぶ。このコンテンツの収録、中継の方法として、コンテンツを整形、編集する放送局などの設備までに遠隔地からコンテンツを伝送し、それをスタジオで撮影しているコンテンツと合成(あるいは中継コンテンツ単独)、切り替えることがある。例えば、中継先で撮影された映像(遠隔地からのコンテンツ)の画面内に、スタジオで撮影しているコンテンツをPinP(ピーインピー:Picture in Picture)を用いて重ねたり、中継地で撮影された映像(遠隔地からのコンテンツ)に文字や図形など(一般的にテロップと呼ばれる)をスーパーインポーズしたりすることで、コンテンツを合成することが行われる。
 一般に生中継と呼ばれる、遠隔地での撮影コンテンツをリアルタイムに放送する場合も、多くは撮影地から直接放送することはせず、遠隔地での撮影コンテンツは、テレビ放送であればテレビ局、ネットワーク配信であれば配信サーバのある設備などへいったん伝送される。また、収録コンテンツ内での中継など、最終のコンテンツの形態としては生中継でないような場合でも、コンテンツの中継(調整局への伝送)が行われる。
 以降、本明細書では、用語をできるだけ簡易にするために、遠隔地、中継地などのコンテンツの撮影地点を撮影地と呼び、コンテンツを整形、編集するための設備(テレビ局の編集装置、スイッチング装置、放送、配信などのために送出する設備、隣接する撮影スタジオ(調整局スタジオ)など)を調整局と呼び、撮影地から調整局への伝送途中にコンテンツとしてデータを扱う地点を中継局と呼ぶ。なお、中継局は、単にデータ中継や無線通信の中継を行うという意味ではなく、狭義にコンテンツを扱ううえで中継を行う設備であり、テレビ放送であれば、中継車と呼ばれる設備や調整局から離れたスタジオなどを指している。この中継局は、必要に応じて配備されるものであって、配備が必須なものではない。具体的には、図10に示すようなシステム構成を前提とする。
 図10は、遠隔の撮影地からの中継が行われる場合における放送システムの一般的な構成の一例を示す図である。撮影地で撮影された映像や音声は撮影コンテンツとして、中継局を経由して調整局へ送信される。調整局では、例えば、調整局スタジオにて閲覧や聴取が可能となるようこの撮影コンテンツを出力するとともに、撮影コンテンツの映像内に調整局スタジオの様子をPinPで挿入したり、その他の情報(テロップなど)を挿入したりすることで、最終的に放送される放送コンテンツを生成し、放送波を通じて放送を行う。放送波によって放送される放送コンテンツは、その放送波を受信した放送受信端末で処理され、映像表示や音声出力が行われる。
 撮影地で撮影されたコンテンツを調整局へ伝送する場合(特に、生中継の場合)には、撮影地にいる人間は、調整局において合成されたコンテンツ(最終的に放送されるコンテンツ)の確認が必要となることがある。例えば、テレビ放送などの中継放送であれば、撮影地において、カメラ、マイクなどの装置の操作者や、撮影対象となる出演者(撮影対象者)が、撮影地で撮影されたコンテンツと、調整局のスタジオからの情報やBGM(バックグラウンドミュージック:BackGround Music)などとが合成されたコンテンツ(最終の放送内容)を確認する必要がある。
 撮影対象者は主に調整局のスタジオの人間との掛け合いを行うことが考えられ、最終的に放送されるコンテンツにおけるタイミングの調整において、自然なコメントの挿入、中継開始のタイミングの確認、スタジオとの自然な掛け合いのための呼吸(間)の調整、BGMなど、調整局スタジオでの音声に対して撮影対象者の発話とのオーバラップ確認などを行う必要がある。また、装置の操作者は、最終的に放送されるコンテンツにおいて、主にコンテンツの撮影方法やタイミングの確認を行う必要がある。なお、最終の放送内容などのコンテンツのほか、撮影地は、調整局、中継局からの指示を受けることも考えられる(これらは、撮影の際の通信内容なので、必ずしも最終のコンテンツには反映されない)。
 こうした撮影地側における確認は、撮影地におけるタイミングに対して、調整局のスタジオの人間がコメントを行うタイミング、最終的にコンテンツが放送されるタイミング、調整局や中継局からの指示などが少なからず遅延するために必要となる。すなわち、撮影地の操作者や撮影対象者は、最終的に放送されるコンテンツのタイミングに合わせて、自分の動作タイミングの調整を行う必要がある。このように撮影地側の操作者や撮影対象者は、中継開始のタイミング確認、スタジオとの自然な掛け合いのための呼吸(間)調整、BGMなどの調整局スタジオでの音声に対して撮影対象者の発話とのオーバラップの確認、テロップ、文字情報、合成画面などを考慮した構図調整(カメラの撮像方向の調整や、画面内での立ち位置の調整)などを行う必要がある。
特開2004-357205号公報 特開2005-277950号公報
ITU-T(International Telecommunication Union - Telecommunication sector)標準G.729.1規格書、2006年5月
 しかしながら、中継放送などにおいて、撮影地においてコンテンツ(最終的に放送されるコンテンツ)を確認するための遅延が大きくなると、視聴上自然な中継、掛け合いが困難となり、
・撮影地からの発話と、調整局のスタジオでの発話とがぶつかる
・調整局で挿入するBGMや効果音のタイミングと撮影地の音声とのタイミングがずれる
・調整局で挿入する字幕、記号、付加情報などの領域と撮影対象者(対象物)とが重なる
・中継放送の切り替えタイミングがずれる
・撮影地(撮影対象者)で意図しないタイミングで放送が開始されてしまう
 などの不都合が発生してしまう。
 撮影地の操作者や撮影対象者は、例えば、撮影地において実際のテレビ放送波を受信し、その映像を参照して調整を行うことが可能である。図11は、従来の技術の放送システムにおけるコンテンツ処理の一例を示すシーケンスチャートである。なお、このシーケンスチャートは、ある時刻におけるコンテンツのデータに着目して図示されているが、実際には、撮影コンテンツ、放送コンテンツなどを始めとするデータは逐次伝送及び処理されている。
 撮影地には撮影用カメラがあり、撮影地の様子を撮影している。撮影用カメラによって撮影された撮影コンテンツは、符号化処理などを経た後(ステップS5001)、調整局へ送信される(ステップS5002)。調整局では、撮影コンテンツはいったん復号された後(この処理は不図示)、例えば調整局スタジオ内のモニタに撮影コンテンツを出力し(ステップS5003)、その撮影コンテンツに対する行動(スタジオ内の人間の反応)を撮影して(ステップS5004)、その映像を撮影地の撮影コンテンツにPinPで重ね合わせたり、あるいは、テロップやその他の各種情報を撮影地の撮影コンテンツに重ね合わせたりする処理や、その他の符号化処理などを行うことで放送コンテンツを作成する(ステップS5005)。そして、放送コンテンツは放送波を通じて放送され(ステップS5006)、放送波が受信可能な放送受信端末(例えば、撮影地の操作者や撮影対象者が視聴可能な放送受信端末)において、放送コンテンツの視聴が可能となる。この時点で(ある動作から時間Tp後)、撮影地の操作者や撮影対象者は、自分が行った動作がどのように放送コンテンツに反映されているのかを確認することが可能となる。
 撮影地における操作者や撮影対象者が、撮影地で撮影された撮影コンテンツが実際の放送コンテンツにおいてどのように利用されているか(実際の放送においてどのように映っているか)を確認することができる時間Tpは、データ伝送や符号化処理などの時間分だけ遅れる。すなわち、撮影地における操作者や撮影対象者が何らかの動作を行った場合、その動作が反映された放送コンテンツは、時間Tp後に放送波を通じて視聴可能となる。なお、時間Tp経過前においても、撮影地における操作者や撮影対象者は、放送波を通じて放送コンテンツの視聴が可能であるが、その放送コンテンツに含まれている撮影コンテンツは、ある動作(ステップS5001で符号化された撮影コンテンツに反映されている動作)よりも前の動作を映したものであり、調整用途のコンテンツとしては不向きである。撮影地における操作者や撮影対象者は、ある動作を行った場合にその動作が反映されたコンテンツを調整用途として利用する必要がある。
 ここで、遅延時間に注目すると、例えば、テレビ放送において、日本におけるアナログ放送などの放送波を受信する場合は、比較的低遅延で撮影地でのコンテンツ確認が可能であるが、デジタル放送などを利用する(アナログ放送が終了した場合などで利用せざるを得ない)場合は、遅延時間が大きく、上述のような不都合を避けることが困難になってしまう。
 また、デジタル放送による遅延だけではなく、最近では、スループットが限られるような状況(無線IP接続)での中継シーンも増加しつつある。低スループット環境は、利用形態によっては遅延時間の増大をもたらすため、低スループット環境における効率的なデータ伝送を十分に考慮する必要がある。
 本発明は、上記課題を解決するため、撮影地からの中継放送を行う場合に、撮影地(撮影側)で行われた動作がどのように放送コンテンツとして反映されるかを、撮影側が迅速に確認できるようにするためのコンテンツ通信装置及びコンテンツ加工装置並びにコンテンツ通信システムを提供することを目的とする。
 上記目的を達成するため、本発明のコンテンツ通信装置は、撮影地で撮影された撮影コンテンツデータを、放送コンテンツの編集を行うコンテンツ加工装置へ送信するコンテンツ通信装置であって、
 前記撮影コンテンツデータを取得する撮影コンテンツ取得部と、
 前記撮影コンテンツ取得部で取得された前記撮影コンテンツデータを所定の品質で符号化して第1符号化データを生成する第1符号化部と、
 前記第1符号化部で生成された前記第1符号化データを、前記コンテンツ加工装置へ向けて逐次送信する第1送信部と、
 前記第1符号化データに含まれる映像の品質を上げる付加情報を前記撮影コンテンツデータから抽出して符号化し、第2符号化データを生成する第2符号化部と、
 前記第2符号化部で生成された前記第2符号化データを前記コンテンツ加工装置へ向けて送信する第2送信部とを、
 有している。
 この構成により、撮影地からの中継放送を行う場合に、撮影地(撮影側)で行われた動作がどのように放送コンテンツとして反映されるかを、撮影側が迅速に確認できるようにするための情報を撮影地から調整局へ送信することが可能となる。
 上記目的を達成するため、本発明のコンテンツ通信装置は、撮影地で撮影された撮影コンテンツデータを、放送コンテンツの編集を行うコンテンツ加工装置へ送信するコンテンツ通信装置であって、
 前記撮影コンテンツデータを取得する撮影コンテンツ取得部と、
 前記撮影コンテンツ取得部で取得された前記撮影コンテンツデータを前記コンテンツ加工装置へ向けて送信する撮影コンテンツ送信部と、
 前記コンテンツ加工装置において、前記撮影コンテンツに対して実際の放送コンテンツに反映される編集が一部又は全部行われて返送されてくる調整用コンテンツを受信する調整用コンテンツ受信部と、
 前記調整用コンテンツを前記撮影地のユーザが確認できるよう出力する調整用コンテンツ出力部とを、
 有している。
 この構成により、撮影地からの中継放送を行う場合に、撮影地(撮影側)で行われた動作がどのように放送コンテンツとして反映されるかを、撮影側が迅速に確認できるようにするための情報を撮影地から調整局へ送信することが可能となる。
 また、上記目的を達成するため、本発明のコンテンツ加工装置は、放送コンテンツの編集を行うコンテンツ加工装置であって、
 撮影地で撮影された撮影コンテンツデータを取得したコンテンツ通信装置が前記撮影コンテンツデータに対して所定の品質で符号化して生成した第1符号化データを、前記コンテンツ通信装置から受信する第1符号化データ受信部と、
 前記第1符号化データを復号する第1符号化データ復号部と、
 前記復号後の第1符号化データに対して実際の放送コンテンツに反映される編集を一部又は全部行う編集加工部と、
 前記編集加工部で編集された前記復号後の第1符号化データを調整用コンテンツとして前記コンテンツ通信装置に向けて送信する調整用コンテンツ送信部とを、
 有している。
 この構成により、撮影地からの中継放送を行う場合に、撮影地(撮影側)で行われた動作がどのように放送コンテンツとして反映されるかを、撮影側が迅速に確認できるようになる。
 また、上記目的を達成するため、本発明のコンテンツ加工装置は、放送コンテンツの編集を行うコンテンツ加工装置であって、
 撮影地で撮影された撮影コンテンツデータを、前記コンテンツ通信装置から受信する撮影コンテンツデータ受信部と、
 前記受信した撮影コンテンツデータに対して実際の放送コンテンツに反映される編集を一部又は全部行う編集加工部と、
 前記編集加工部で編集された前記撮影コンテンツデータを調整用コンテンツとして前記コンテンツ通信装置に向けて送信する調整用コンテンツ送信部とを、
 有している。
 この構成により、撮影地からの中継放送を行う場合に、撮影地(撮影側)で行われた動作がどのように放送コンテンツとして反映されるかを、撮影側が迅速に確認できるようになる。
 また、上記目的を達成するため、本発明のコンテンツ通信システムは、放送コンテンツの編集を行うコンテンツ加工装置と、撮影地で撮影された撮影コンテンツデータを前記コンテンツ加工装置へ送信するコンテンツ通信装置とによって構成されるコンテンツ通信システムであって、
 前記コンテンツ通信装置が、
 前記撮影コンテンツデータを取得する撮影コンテンツ取得部と、
 前記撮影コンテンツ取得部で取得された前記撮影コンテンツデータを所定の品質で符号化して第1符号化データを生成する第1符号化部と、
 前記第1符号化部で生成された前記第1符号化データを、前記コンテンツ加工装置へ向けて逐次送信する第1送信部と、
 前記第1符号化データに含まれる映像の品質を上げる付加情報を前記撮影コンテンツデータから抽出して符号化し、第2符号化データを生成する第2符号化部と、
 前記第2符号化部で生成された前記第2符号化データを前記コンテンツ加工装置へ向けて送信する第2送信部と、
 前記コンテンツ加工装置において、前記第1符号化データに対して実際の放送コンテンツに反映される編集が一部又は全部行われて返送されてくる調整用コンテンツを受信する調整用コンテンツ受信部と、
 前記調整用コンテンツを前記撮影地のユーザが確認できるよう出力する調整用コンテンツ出力部とを有し、
 前記コンテンツ加工装置が、
 前記コンテンツ通信装置から前記第1符号化データを受信する第1符号化データ受信部と、
 前記第1符号化データを復号する第1符号化データ復号部と、
 前記復号後の第1符号化データに対して実際の放送コンテンツに反映される編集を一部又は全部行う編集加工部と、
 前記編集加工部で編集された前記復号後の第1符号化データを前記調整用コンテンツとして前記コンテンツ通信装置に向けて送信する調整用コンテンツ送信部と、
 前記コンテンツ通信装置から前記第2符号化データを受信する第2符号化データ受信部と、
 前記第2符号化データを復号する第2符号化データ復号部と、
 前記復号後の第1符号化データと前記復号後の第2符号化データとを加算して得られたコンテンツに前記編集加工部で行われた編集を行って得られるコンテンツ、又は、前記調整用コンテンツに前記復号後の第2符号化データを反映して得られるコンテンツを、実際に放送される放送コンテンツとして出力する放送コンテンツ出力部とを、
 有している。
 この構成により、撮影地からの中継放送を行う場合に、撮影地(撮影側)で行われた動作がどのように放送コンテンツとして反映されるかを、撮影側が迅速に確認できるようになる。
 また、上記目的を達成するため、本発明のコンテンツ通信システムは、放送コンテンツの編集を行うコンテンツ加工装置と、撮影地で撮影された撮影コンテンツデータを前記コンテンツ加工装置へ送信するコンテンツ通信装置とによって構成されるコンテンツ通信システムであって、
 前記コンテンツ通信装置が、
 前記撮影コンテンツデータを取得する撮影コンテンツ取得部と、
 前記撮影コンテンツ取得部で取得された前記撮影コンテンツデータを、前記コンテンツ加工装置へ向けて送信する送信部と、
 前記コンテンツ加工装置において、前記撮影コンテンツに対して実際の放送コンテンツに反映される編集が一部又は全部行われて返送されてくる調整用コンテンツを受信する調整用コンテンツ受信部と、
 前記調整用コンテンツを前記撮影地のユーザが確認できるよう出力する調整用コンテンツ出力部とを有し、
 前記コンテンツ加工装置が、
 前記コンテンツ通信装置から前記撮影コンテンツデータを受信する撮影コンテンツデータ受信部と、
 前記受信した撮影コンテンツデータに対して実際の放送コンテンツに反映される編集を一部又は全部行う編集加工部と、
 前記編集加工部で編集された前記撮影コンテンツデータを前記調整用コンテンツとして前記コンテンツ通信装置に向けて送信する調整用コンテンツ送信部と、
 前記編集加工部における編集内容を反映した放送コンテンツを作成して出力する放送コンテンツ出力部とを、
 有している。
 この構成により、撮影地からの中継放送を行う場合に、撮影地(撮影側)で行われた動作がどのように放送コンテンツとして反映されるかを、撮影側が迅速に確認できるようになる。
 本発明は、上記構成を有しており、撮影地からの中継放送を行う場合に、撮影地(撮影側)で行われた動作がどのように放送コンテンツとして反映されるかを、撮影側が迅速に確認できるようにするという効果を有する。
本発明の第1の実施の形態の放送システムにおけるコンテンツ処理の一例を示すシーケンスチャート 本発明の第2の実施の形態の放送システムにおけるコンテンツ処理の一例を示すシーケンスチャート 本発明の第2の実施の形態における符号化及び伝送方法の模式的なイメージを示す図 本発明の第2の実施の形態における撮影地用コンテンツ通信端末の構成の一例を示す図 本発明の実施の形態における調整局用コンテンツ通信装置の構成の第1の例を示すブロック図 本発明の実施の形態における調整局用コンテンツ通信装置の構成の第2の例を示すブロック図 本発明の実施の形態における調整局用コンテンツ通信装置の構成の第3の例を示すブロック図 本発明の第2の実施の形態における撮影コンテンツ符号化器の構成の一例を示すブロック図 本発明の第2の実施の形態における放送レベル素材コンテンツ復号器及び送り返しコンテンツ符号化器の構成の一例を示すブロック図 遠隔の撮影地からの中継が行われる場合における放送システムの一般的な構成の一例を示す図 従来の技術の放送システムにおけるコンテンツ処理の一例を示すシーケンスチャート
 以下、図面を参照しながら、本発明の実施の形態について説明する。
  <本発明の第1の実施の形態>
 まず、本発明の第1の実施の形態について説明する。図1は、本発明の第1の実施の形態の放送システムにおけるコンテンツ処理の一例を示すシーケンスチャートである。なお、このシーケンスチャートは、ある時刻におけるコンテンツのデータに着目して図示されているが、実際には、撮影コンテンツ、調整用コンテンツ、放送コンテンツなどを始めとするデータは逐次伝送及び処理されている。また、このシーケンスチャートは、調整局スタジオの行動を調整局でそのまま合成する場合と、調整局スタジオでの応答に同期して(応答の内容に合わせて)合成する場合の両方の動作を含んでいる。調整用コンテンツ伝送については、上述の一方若しくは両方を用途に応じて利用することができ、放送に使用するコンテンツとしては、後述のシステム構成や、放送の形態に応じて一方を利用するのが一般的である。
 撮影地には撮影用カメラがあり、撮影地の様子を撮影している。撮影用カメラによって撮影された撮影コンテンツは、符号化処理などを経た後(ステップS1001)、調整局へ送信される(ステップS1002)。調整局では、撮影コンテンツはいったん復号された後(この処理は不図示)、例えば調整局スタジオ内のモニタに撮影コンテンツを出力する一方(ステップS1007)、同時並行して取得した調整局スタジオの行動(調整局スタジオ内の人間の反応)を撮影して(ステップS1003)、その映像/音声を撮影地の撮影コンテンツにPinPで重ね合わせたり、あるいは、テロップやその他の各種情報を撮影地の撮影コンテンツに重ね合わせたりする処理や、その他の符号化処理などを行うことで最終コンテンツ(放送コンテンツとして用いられるコンテンツ)を作成する(ステップS1004)。このようにして作成された最終コンテンツは放送波を通じて放送されるが(ステップS1006)、放送波とは別の通信路(撮影地に対してコンテンツを送信できる伝送経路)を利用して、放送コンテンツを調整用コンテンツとして調整局から撮影地へ伝送し(ステップS1005)、撮影地の操作者や撮影対象者は、ある動作を撮影した撮影コンテンツを含む調整用コンテンツ(放送コンテンツと同一コンテンツ)を早いタイミングで確認できるようになる。このとき、調整用コンテンツは、放送コンテンツと同一内容を含むコンテンツであるが、調整局から撮影地への通信路のスループットを考慮して、調整用コンテンツのデータ容量を低減させ、処理負荷の少ない符号化を用いて遅延を少なくすることが望ましい。
 また、ステップS1001で送信された撮影コンテンツに対する調整局スタジオの行動(ステップS1008で取得される調整局スタジオ内の人間の反応)に同期するコンテンツとする場合は、ステップS1008で取得された調整局の映像/音声と、ステップS1001で撮影地から受信した撮影コンテンツとが合成されて符号化された後(ステップS1009)、調整用コンテンツ(及び放送コンテンツ)として調整局から送信される(ステップS1010、S1011)。このとき、調整用コンテンツは、放送コンテンツと同一内容を含むコンテンツであるが、調整局から撮影地への通信路のスループットを考慮して、調整用コンテンツのデータ容量を低減させ、処理負荷の少ない符号化を用いて遅延を少なくすることが望ましい。なお、図面上では、ステップS1007及びステップS1008の一往復に要する時間が大きく描かれているが、実際には、調整局と調整局スタジオとは隣接していることが一般的であり、ステップS1007及びステップS1008の処理に要する時間はわずかであると考えられる。
 従来の技術によれば、撮影地におけるある動作が反映された撮影コンテンツは、ステップS1011で放送される放送コンテンツに含まれるが、本発明の第1の実施の形態では、調整局スタジオの行動を調整局でそのまま合成した場合や撮影地で撮影された撮影コンテンツのみを用いて放送コンテンツが作成される場合などには、撮影地の操作者や撮影対象者は、ある動作を撮影した撮影コンテンツを含む調整用コンテンツを時間Ta後に視聴できるようになり、また、調整局スタジオでの応答に同期して(応答の内容に合わせて)合成した場合には、ある動作を撮影した撮影コンテンツを含む調整用コンテンツを時間Tb後に視聴できるようになる。なお、調整局スタジオでの応答に同期しない調整コンテンツ、及び、調整局スタジオでの応答に同期した調整コンテンツの両方を撮影地へ送り返してもよい。また、1つの調整コンテンツ内で、調整局スタジオでの応答に同期した部分と同期していない部分とが混在してもよい。また、ある動作に対する調整局スタジオの反応については、時間Tb後に視聴できるようになる。すなわち、撮影地の操作者や撮影対象者は、従来の技術と比較して、迅速に放送コンテンツを確認できるようになる。
 また、図1では、調整局スタジオの行動を撮影した映像/音声が放送コンテンツに含まれるように図示されているが、例えば、撮影地からの撮影コンテンツをそのまま放送(映像であれば放送画面全体で撮影コンテンツを放送)するような場合、調整局スタジオの映像/音声は必ずしも放送コンテンツに含まれる必要はない。すなわち、ステップS1003、S1007、S1008のコンテンツ伝送は必須ではない。
 以上のように、本発明の第1の実施の形態によれば、調整局は、撮影地から受信した撮影コンテンツを即座に利用して(特に、調整局スタジオの映像/音声を同時並行で取得して)放送コンテンツを作成することにより、撮影地において調整用に利用可能なコンテンツ(撮影地におけるある動作が反映された撮影コンテンツ)を従来の技術と比較して迅速に視聴することができるようになる。また、調整局は、放送コンテンツとは別の通信路を用いて、放送コンテンツと同一のコンテンツを調整用コンテンツとして撮影地へ送り返すことにより、撮影地においてさらに迅速に調整用に利用可能なコンテンツを視聴することができるようになる。
  <本発明の第2の実施の形態>
 次に、本発明の第2の実施の形態について説明する。なお、本発明の第2の実施の形態は、上述した第1の実施の形態に対してコンテンツの符号化方法に工夫を施すことで、撮影地における調整用コンテンツの視聴をさらに迅速に行えるようにするものである。
 上述の第1の実施の形態によれば、従来の技術と比較して、撮影地における調整用コンテンツの視聴を迅速に行えるようになるが、特定の条件下においては、その効果が十分に発揮されない場合がある。その条件の1つとして、撮影地(又は中継局)と調整局との間の通信路のスループットに制限がある場合が挙げられる。
 上述の第1の実施の形態では、撮影地は、調整局からの調整用コンテンツの受信、あるいは、放送波による放送コンテンツの受信のいずれについても、従来の技術を利用した場合と比較して迅速に調整用途のコンテンツを視聴できるはずである。しかしながら、放送波に含まれる放送コンテンツを調整用に視聴する場合(調整用コンテンツの伝送が行われない場合)には、結局、放送波の伝送及び処理に係る遅延の影響を受けることになる。特に、デジタル放送を利用する場合には、その遅延時間は大きくなってしまい、撮影地の操作者や撮影対象者にとって不都合が生じてしまう可能性がある。なお、アナログ放送を利用すれば、デジタル放送を利用した場合よりも遅延時間が小さくなるが、アナログ放送の利用は終了となるため容易に利用できる状況ではなくなり、撮影地(又は中継局)及び調整局共に、アナログ放送を利用する機器及び無線周波数などの通信回線を調整用途の特別な機器として導入せざるを得なくなる。
 また、上述の第1の実施の形態において、放送波とは別の通信路を用いて調整用コンテンツの伝送を行う場合には、デジタル放送に潜在する遅延の影響を受けることはなくなり、より迅速な調整用コンテンツの伝送が可能となるはずである。しかしながら、撮影地若しくは中継局と調整局との間の伝送における中継回線は、無線通信を介することがあり、必ずしも十分なスループットが得られる環境が構築できるわけではない。したがって、調整局から撮影地へ伝送される調整用コンテンツのデータ圧縮を行う必要も生じるが、放送コンテンツと同一レベルの品質の調整用コンテンツを低スループットの環境で伝送する場合には、調整用コンテンツのデータ圧縮率を上げる必要があり、符号化及びデータ圧縮に係る大きな遅延が加わってしまう可能性がある。このように、撮影地(又は中継局)と調整局との間の通信路のスループットと、データ圧縮率を上げるための符号化とは、トレードオフの関係にあり、効率の良い符号化方法を適切に採用する必要がある。
 そこで、本発明の第2の実施の形態では、撮影地と調整局との間で伝送される撮影コンテンツ及び調整用コンテンツの符号化方法として、階層符号化技術を応用することで、より効率の良い放送システムの構築を実現する。
 図2は、本発明の第2の実施の形態の放送システムにおけるコンテンツ処理の一例を示すシーケンスチャートである。なお、このシーケンスチャートは、ある時刻におけるコンテンツのデータに着目して図示されているが、実際には、撮影コンテンツ、調整用コンテンツ、放送コンテンツなどを始めとするデータは逐次伝送及び処理されている。
 撮影地には撮影用カメラがあり、撮影地の様子を撮影している。撮影用カメラによって撮影された撮影コンテンツは、符号化処理などを経た後(ステップS2001)、調整局へ送信される(ステップS2002)。
 ここで、撮影地からの撮影コンテンツの符号化方法として、スループットが低下した状態においても高画質・高圧縮のフレームをまたぐような符号化方法を採用するのではなく、粗素材の逐次符号化可能なデータを撮影地から逐次送信することで、遅延低減を重視する。具体的には、撮影コンテンツの符号化方法に関して階層符号化方法を応用し、撮影コンテンツを粗素材(コア)レイヤと放送レベル素材(拡張)レイヤに階層化して符号化を行う。粗素材レイヤと放送レベル素材レイヤは分離可能であって、それぞれ個別に送受信でき、また、これらを合成することで、元の符号化データ群(撮影コンテンツ)を得ることが可能である。なお、本明細書では、2つのレイヤに階層化する場合について主に説明を行うが、3つ以上のレイヤに階層化してもよい。
 粗素材(コア)レイヤは、低画素数、狭帯域、モノクロ、モノラルなどの高速符号化が可能な符号化パラメータセットの符号化を行い、フレーム毎送信などの高速逐次送信を行う。なお、高速逐次送信においては、走査線毎、走査線グループ毎、音素片毎、音素片グループ毎などのデータ送信単位時間が短くなる送信単位に分割を行うようにする。なお、本明細書では、粗素材(コア)レイヤに属する符号化データを粗素材コンテンツ符号化データと呼ぶ。
 一方、放送レベル素材(拡張)レイヤは、高画素数、広帯域、ステレオ、広色域カラーなどの最終コンテンツに必要なパラメータセットの符号化を行い、フレーム間圧縮も含めた高圧縮符号化を行ってもよい。なお、最終コンテンツを放送、配信する際の遅延(送り返しなどとは別の観点から定まる遅延)を満たす範囲で符号化、送信される必要があり、システム全体の動作や遅延時間を考慮して設定が行われることが望ましい。なお、本明細書では、放送レベル素材(拡張)レイヤに属する符号化データを放送レベル素材コンテンツ符号化データと呼び、粗素材コンテンツ符号化データ及び放送レベル素材コンテンツ符号化データの両方を復号して元の撮影コンテンツを確認できるようにする復号処理を放送レベル素材コンテンツ復号と呼び、放送レベル素材コンテンツ復号によって復号されたコンテンツを放送レベル素材コンテンツと呼ぶ。
 図3は、本発明の第2の実施の形態における符号化及び伝送方法の模式的なイメージを示す図である。撮影地では、ある符号化対象データに対して階層符号化を適用し、所定の処理単位毎に粗素材レイヤの高速符号化を行って、作成された粗素材コンテンツ符号化データを逐次調整局へ送信する。一方、放送レベル素材レイヤに関しては、高度な符号化なども行うことから、粗素材レイヤコンテンツ符号化データは、対応する粗素材コンテンツよりも遅れて符号化され、調整局へ送信される。なお、放送レベル素材レイヤは、粗素材レイヤと異なり逐次送信する必要はなく、例えば、伝送効率などを考慮してフレーム間高圧縮符号化などが行われてもよい。これにより、撮影地からは、高速符号化によって作成された粗素材コンテンツ符号化データが逐次送信されるとともに、その後遅れて、放送レベル素材コンテンツ符号化データが送信される。
 調整局では、先に到着する粗素材コンテンツ符号化データを使って、スタジオの行動(調整局スタジオでの受け答え)、BGM、効果音、テロップ合成、加工の処理などを粗素材コンテンツ符号化データに対して行って調整用コンテンツ(送り返しコンテンツ)を作成し(ステップS2004)、撮影地へ送り返す(ステップS2005)。この際、調整局での編集、加工システムに依存するが、最終コンテンツ(放送コンテンツとして用いられるコンテンツ)に向けての合成は、コンテンツデータのレベルで行うほか、タイムスタンプ、その他のメタデータレベルで行ってもよい。つまり、調整局は、少し遅れてやってくる放送レベル素材コンテンツデータと合成しやすい方法で、粗素材コンテンツ符号化データの合成や切り替えの処理を行ってもよい。なお、調整局スタジオにおける映像/音声も同時並行で取得して(ステップS2003)、調整用コンテンツに反映されるが、調整局スタジオから調整局への映像/音声データも同様に階層符号化によって粗素材レイヤと放送レベル素材レイヤとに分けられていてもよい。
 さらに、調整局では、後から受信される放送レベル素材レイヤをさらに合成して放送/配信用データを生成して、放送/配信用のコンテンツへと加工し(ステップS2004)、放送コンテンツとして放送を行う(ステップS2006)。なお、テレビ放送などでは、さらに、CMコンテンツなどを挿入して最終コンテンツとする場合もあり、放送/配信用のコンテンツはマスタコンテンツとしてアーカイブし、更なる編集、トランスコーディング(配信の際のフォーマット変換など)をさらに行うことがあるが、それぞれの調整局の通常のワークフローに係る処理の部分であって、任意の処理が採用可能である。
 調整局では、基本的に、先に到着する粗素材レイヤに対して編集加工を施して作成されるコンテンツを調整用コンテンツとして撮影地へ送り返し、また、先に到着する粗素材レイヤと、遅れて到着する放送レベル素材レイヤとを合成することで撮影コンテンツが得られることを利用して最終コンテンツを作成するという動作を行う。こうした合成の方法については、いくつかの方法が考えられる。
 例えば、合成の方法によっては、元の粗素材コンテンツレイヤと放送レベル素材コンテンツレイヤとを合成した後、調整局スタジオにおける映像/音声データなどを取得して(受け答えのタイミングに一致した映像/音声データを取得してもよい)合成することが可能である。すなわち、粗素材レイヤの受信時に、撮影地の映像/音声(粗素材)及び調整局スタジオの映像/音声(粗素材コンテンツであってもよい)を編集加工して調整用コンテンツを作成し、放送レベル素材レイヤの受信時には、撮影地の映像/音声(粗素材)、撮影地の映像/音声(放送レベル素材)、新たに取得した調整局スタジオの映像/音声を編集加工して最終コンテンツを作成してもよい。図2においては、例えば、撮影コンテンツ(粗素材コンテンツであってもよく、また、放送レベル素材と合成された放送レベル素材コンテンツであってもよい)が調整局スタジオへ出力され(ステップS2007)、そのコンテンツに対するスタジオの行動を含む映像/音声データが調整局で取得できた時点で(ステップS2008)、受け答えのタイミングに一致した映像/音声データを利用した放送コンテンツの作成を行って(ステップS2009)、放送波により放送を行ってもよい(ステップS2011)。なお、図面上では、ステップS2007及びステップS2008の一往復に要する時間が大きく描かれているが、実際には、調整局と調整局スタジオとは隣接していることが一般的であり、ステップS2007及びステップS2008の処理に要する時間はわずかであると考えられる。
 また、階層的に上位へ重ねていくことが可能なコーデックであれば、粗素材レイヤ受信時には、撮影地の映像/音声(粗素材)及び調整局スタジオの映像/音声(粗素材)の各映像/音声を編集加工して調整用コンテンツを作成し、拡張レイヤ受信時には、撮影地の映像(放送レベル素材)、調整局スタジオの映像/音声(放送レベル素材)を調整用コンテンツに加えて、最終コンテンツを作成してもよい。
 なお、撮影地の操作者や撮影対象者は、ステップS2001で送信した撮影コンテンツに対するスタジオの反応(調整局スタジオの行動)を、調整用コンテンツの伝送(ステップS2012)のタイミングで視聴することが可能である。
 本発明の第2の実施の形態は、上述の本発明の第1の実施の形態と同様に、撮影地からの映像/音声と調整局スタジオの行動とを調整局でそのまま合成してもよく、撮影地からの映像/音声が調整局スタジオでの応答に同期するよう(応答の内容に合わせて)合成してもよい。本発明の第2の実施の形態では、調整局スタジオの行動を調整局でそのまま合成した場合や撮影地で撮影された撮影コンテンツのみを用いて放送コンテンツが作成される場合などには、撮影地の操作者や撮影対象者は、ある動作を撮影した撮影コンテンツを含む調整用コンテンツを時間Tc後に視聴できるようになり、また、調整局スタジオでの応答に同期して(応答の内容に合わせて)合成した場合には、ある動作に対する調整局スタジオの反応を時間Td後に(ステップS2012で受信した調整用コンテンツを視聴するタイミングで)視聴できるようになる。なお、調整局スタジオでの応答に同期しない調整コンテンツ、及び、調整局スタジオでの応答に同期した調整コンテンツの両方を撮影地へ送り返してもよい。また、1つの調整コンテンツ内で、調整局スタジオでの応答に同期した部分と同期していない部分とが混在してもよい。すなわち、撮影地の操作者や撮影対象者は、従来の技術と比較して、迅速に放送コンテンツを確認できるようになり、さらに、上述の本発明の第1の実施の形態と比較しても遅延時間はより短縮されるようになる。
 なお、撮影地と調整局との間の通信路において任意の伝送技術を利用することが可能であるが、例えば3GPP回線を利用する場合には、粗素材と放送レベル素材とで異なるQoS(Quality of Service:サービス品質)の設定が行われることが望ましい。具体的には、粗素材コンテンツ符号化データは遅延を許さないデータとして伝送され、放送レベル素材コンテンツの符号化データは、多少の遅延時間は許しつつも、大容量のデータを正確に伝送できることが望ましい。また、ベアラ、PDN(パケットデータネットワーク:Packet Data Network)コネクション、セッションなどデータの伝送管理も別々になっていることが望ましい。
 以上のように、本発明の第2の実施の形態における動作によれば、調整局は、撮影地で階層符号化を応用し、送信する階層とタイミングを制御して送信した撮影コンテンツのうちの粗素材コンテンツを即座に利用し、撮影地において調整用に利用可能なコンテンツ(撮影地におけるある動作が反映された調整用コンテンツ)を作成して撮影地へ送り返すことで、撮影地において、従来の技術と比較して迅速に視聴することができるようになる。なお、調整局は、少なくともタイミング、付加情報、構図などに関して、この粗素材コンテンツに対して、その後放送する放送コンテンツと同一の編集加工を行って調整用コンテンツとするため、撮影地は、撮影コンテンツがどのように最終的な放送コンテンツに反映されるかを、調整用コンテンツから正確かつ迅速に把握できるようになる。
 次に、撮影地用コンテンツ通信端末の構成例について説明する。なお、以下の説明では、1台の撮影地用コンテンツ通信端末にすべての機能ブロックが実装されているように図示されているが、各機能ブロックは、インタフェースを通じて接続された複数の装置に分散して実装されていてもよい。
 図4は、本発明の第2の実施の形態における撮影地用コンテンツ通信端末の構成の一例を示すブロック図である。図4に示す撮影地用コンテンツ通信端末100は、撮影コンテンツ取得部110、撮影コンテンツ符号化部120、撮影コンテンツ送信部130、送り返しコンテンツ受信部140、送り返しコンテンツ復号部150、送り返しコンテンツ出力部160によって構成されている。
 撮影コンテンツ取得部110は、撮影地において撮影された撮影コンテンツを取り込む機能を有している。撮影地用コンテンツ通信端末100自体にカメラ、マイク、その他のセンサが備えられている場合、撮影コンテンツ取得部110は、それぞれのデバイスからの情報を取り込む。なお、取り込まれた情報(映像、音声、その他のデータ列など)はそれぞれが個別に扱われてもよく、また、統合されたマルチメディアデータとして一括で扱われてもよい。
 また、撮影地用コンテンツ通信端末100自体にカメラ、マイク、その他のセンサが備えられていない場合は、撮影コンテンツ取得部110は、必要な情報を入力するためのインタフェースなどを介して撮影地用コンテンツ通信端末100内に情報を取り込む。この場合のインタフェースとしては、DVI(登録商標)、HDMI(登録商標)、コンポーネント/コンポジット、ステレオジャック、シリアルなど、任意の映像、音声、データインタフェースを利用することが可能である。
 撮影コンテンツ取得部110は、取得したコンテンツを撮影コンテンツ符号化部120へ出力する。なお、必要であれば、レベル、フォーマット変換などを行ったうえで撮影コンテンツ符号化部120へ出力する。また、撮影コンテンツの符号化が必要のない場合(例えば、外部符号化、蓄積伝送など複数の異なるモードがある場合など)は、撮影コンテンツ取得部110は、撮影コンテンツを撮影コンテンツ送信部130へ直接送るように構成されていてもよい。
 なお、本発明の第2の実施の形態では、単にコンテンツ/コンテンツ符号化データとして説明を行うが、情報の種類毎に処理エンティティを複数実施するか、一括で実施するかは設計上の差異に過ぎない。また、複数のエンティティで並行して処理する場合は、時間経過に対して同期するためのタイムスタンプなどの情報交換を各エンティティ間で行う必要があるかもしれないが、同期処理系により処理を行うか、タイムスタンプ情報を各データ列に付加することで最終的なコンテンツ同期を行うかなど、複数のエンティティで並行して処理するための同期方法に関しては本発明の範囲外であり、任意の同期方法を利用することが可能である。
 また、撮影コンテンツ符号化部120は、撮影コンテンツ取得部110から提供される撮影コンテンツを符号化する機能を有しており、粗素材コンテンツ符号化部121、放送レベル素材コンテンツ符号化部122、階層符号化管理部123によって構成されている。なお、撮影コンテンツ符号化部120における符号化(粗素材コンテンツ符号化部121及び放送レベル素材コンテンツ符号化部122のそれぞれにおける符号化)の方法や品質、パラメータに関して、外部若しくは通信回線を介して制御が可能となるよう構成されていることが望ましい。撮影コンテンツ符号化部120によって符号化されたコンテンツ符号化データは、撮影コンテンツ送信部130へ出力される。
 粗素材コンテンツ符号化部121は、遅延時間の短縮を重視して撮影コンテンツを符号化する機能を有している。粗素材コンテンツ符号化部121は、設定された短期間の処理単位(1フレーム単位、走査線単位、数ミリ秒単位など)で撮影コンテンツを符号化する。それぞれの処理単位は、復号時に後続の処理単位のデータを待つ必要なく処理できるように、少なくとも後続の情報に依存しない方法(例えば、フレーム内圧縮や既処理データとの差分符号など)で符号化されることが望ましい。なお、粗素材コンテンツ符号化部121で符号化されて生成されたデータを粗素材コンテンツ符号化データと呼ぶ。
 また、符号化のパラメータとしては、粗素材コンテンツ符号化データのサイズ、符号化及び復号に要する処理時間など、遅延時間に関連するパラメータが小さくなるように設定されることが望ましい。例えば、撮影地での構図確認やタイミング確認に使用する送り返しコンテンツに利用する目的であれば、遅延時間の短縮を重視した撮影コンテンツの符号化によって、映像の画素数を放送レベル素材に比較して粗くしてもよく、色域もモノクロで音声はモノラルとしてもよいかもしれない。
 このように必要最小限の処理データ単位とすることで、処理時間を短縮することが可能である。ただし、階層符号化はその構造上、階層の単位が増加すると、一般にオーバヘッドが増加し、また、切り出す処理単位が短くなると相対的に処理単位数が増えるためにオーバヘッドが増加したり、符号化の効率が低下したりするといった影響を及ぼす場合がある。したがって、短期間の処理単位の設定は、総合的な観点から全体の処理時間が短縮されるように設定されることが望ましい。
 また、粗素材コンテンツ符号化部121で符号化された後の粗素材コンテンツ符号化データが逐次伝送されるため、粗素材コンテンツ符号化データがその他の伝送に関わるオーバヘッドを加味したうえで、一回の伝送単位(例えば、通信端末の送信周期に割り当てられる送信データサイズ、伝送パケットのパケットサイズ単位など)に対して、過不足がある場合は、短期間の処理単位と整合せず、処理単位としては分割したにもかかわらず実質的には同時に送信されてしまう(処理単位に分割したためにオーバヘッドが増加してしまうかもしれない)ようになったり、さらに小さな伝送単位に分割される(更なる低遅延化が見込めるかもしれない)ようになったりすることが考えられる。したがって、全体の設計としては、伝送単位も考慮した処理単位とすることが望ましく、例えば、短期間の処理単位と伝送単位とが一致しているか、あるいは、一方が他方の逓倍となっていることが望ましい。
 また、粗素材コンテンツ符号化部121によって符号化された粗素材コンテンツ符号化データは、都度、即座に送信処理が行われるように粗素材コンテンツ符号化部121から撮影コンテンツ送信部130へ渡されることが望ましい。
 また、粗素材コンテンツ符号化部121は、階層符号化管理部123から、対応する階層(放送レベル素材レイヤ)との関係性を符号化できるような制御(パラメータの動的な設定、管理情報の付加など)を受けるよう構成されていてもよく、また、放送レベル素材コンテンツ符号化部122との間で情報の受け渡しが行われるよう構成されていてもよい。
 また、放送レベル素材コンテンツ符号化部122は、必要な放送レベル素材レイヤの情報を生成するために、必要とされる品質及びパラメータで撮影コンテンツを符号化する機能を有している。なお、階層符号化において放送レベル素材コンテンツのレイヤが複数あれば、それぞれのレイヤに対して符号化部が必要となるかもしれないが、ここでは、1つの放送レベル素材コンテンツ符号化部122が存在する場合を一例として説明する。すなわち、階層符号化における各レイヤに応じて、放送レベル素材コンテンツ符号化部122は、複数存在していてもよい。なお、放送レベル素材コンテンツ符号化部122で符号化されて生成されたデータを放送レベル素材コンテンツ符号化データと呼ぶ。
 元となる(取り込んだ)映像コンテンツは、粗素材コンテンツ符号化部121においてその情報の一部は符号化されていると考えることができるので、放送レベル素材コンテンツ符号化部122は、元となる映像コンテンツと粗素材コンテンツ符号化部121における符号化済みの情報との差分を符号化すればよい。放送レベル素材コンテンツ符号化部122は、例えば、モノクロに対するカラー、輝度情報に関する符号化、低解像度映像に対する高解像度部分に関する符号化、モノラル音声に対するステレオ音声差分の符号化、狭帯域音声に対する拡張帯域音声の符号化、粗サンプリングデータに対する補間データの符号化などを行って、放送レベル素材コンテンツ符号化データを生成する。
 限られた伝送帯域(スループット)の通信路を利用する場合は、必要な放送レベル素材の品質と、符号化におけるデータ圧縮比、処理に要する遅延時間(粗素材コンテンツほどではないにしても、一定の遅延時間内に収める必要があるかもしれない)は相互に相関関係を持つため、放送レベル素材コンテンツも符号化に関する設定を行う必要があるかもしれない。例えば、データ圧縮率を上げるために、複数のフレームの相関を基にして映像を圧縮する手法(一般にフレーム間圧縮と呼ばれる)を使用すると、複数のフレームをまとめて処理するために先行データフレームが処理バッファに滞留する期間だけ全体のデータ伝送が遅延することになる。また、一般にフレーム間圧縮は不可逆(復号時にフレーム間の復号誤差を残す)であるため、後の編集加工作業において画質劣化などの点で影響を及ぼす。このように、放送レベル素材コンテンツ符号化としてどのような符号化を行うかは、コンテンツの用途に依存するため、必ずしも図3のような複数フレームをまとめた階層構造にはならないかもしれない。
 放送レベル素材コンテンツ符号化は、上述のような点から、粗素材コンテンツ符号化に比べて符号化遅延が大きく、また、データサイズも大きい。放送レベル素材コンテンツ符号化部123による符号化で得られた放送レベル素材コンテンツ符号化データは、(複数フレームをまとめて符号化したものであればその単位で)、撮影コンテンツ送信部130へ渡される。
 また、放送レベル素材コンテンツ符号化部122は、階層符号化管理部123から、対応する階層(粗素材コンテンツ)との関係性を符号化できるような制御(パラメータの動的な設定、管理情報の付加など)を受けるよう構成されていてもよく、また、粗素材コンテンツ符号化部121との間で情報の受け渡しが行われるよう構成されていてもよい。
 また、階層符号化管理部123は、粗素材コンテンツ符号化部121及び放送レベル素材コンテンツ符号化部122における各符号化を管理し、各符号化における符号を階層化して、一連の符号化データ(階層符号)として構成する機能を有している。具体的には、階層符号化管理部123は、取り込んだ撮影コンテンツを粗素材コンテンツ符号化部121において短期間の処理単位で処理するときに、放送レベル素材コンテンツ符号化部122において対応する1つ若しくは複数の短期間の処理単位との対応関係を管理し、階層符号化の構造として付加的な情報要素を付加(若しくは符号化)する機能を有している。なお、これはシステムレイヤとも呼ばれることがあり、階層符号化管理部123は、粗素材コンテンツ符号化部121及び放送レベル素材コンテンツ符号化部122で符号化された各符号化データを関係付け、また、それぞれの符号化部の制御を行ったり(パラメータの動的な設定、管理情報の付加など)、情報の受け渡しの制御を行ったりすることもある。
 また、撮影コンテンツ送信部130は、撮影コンテンツ符号化部120から出力される符号化データを調整局(調整局用コンテンツ通信装置)に対して送り出すための機能、若しくは、伝送のための通信モジュールとのインタフェース(通信機そのものが撮影地用コンテンツ通信端末100の外部に接続されるような場合)に対して出力する機能を有している。撮影コンテンツ送信部130は、符号化データ取得部131、粗素材コンテンツ符号化データ送信部132、放送レベル素材コンテンツ符号化データ送信部133によって構成されている。
 符号化データ取得部131は、撮影コンテンツ符号化部120から出力される符号化データを取得する機能を有している。また、符号化データ取得部131は、取得した符号化データに関して、粗素材コンテンツ符号化データを粗素材コンテンツ符号化データ送信部132へ渡し、放送レベル素材コンテンツ符号化データを放送レベル素材コンテンツ符号化データ送信部133へ渡す機能を有している。なお、遅延時間の短縮化の観点から、少なくとも粗素材コンテンツを符号化した符号化データ(粗素材コンテンツ符号化部121による符号化データ)は滞留なく(可能であれば、一時的なバッファなども経由することなく)粗素材コンテンツ符号化データ送信部132に渡されることが望ましい。
 また、粗素材コンテンツ符号化データ送信部132は、符号化データ取得部131で取得した符号化データのうち、粗素材コンテンツ符号化データを調整局用コンテンツ通信装置へ送信する機能を有している。なお、粗素材コンテンツ符号化データ送信部132による粗素材コンテンツ符号化データの通信と、放送レベル素材コンテンツ符号化データ送信部133による放送レベル素材コンテンツ符号化データの通信とは、それぞれ異なる通信方法で送信されてもよい。すなわち、粗素材コンテンツ符号化データ送信部132からの粗素材コンテンツ符号化データの送信については、遅延時間を短縮することを優先して処理することが望ましく、例えば、通信経路として、遅延時間が短い経路(通信モジュール、インタフェースなど)を選択したり、通信経路のパラメータ設定が可能であるような場合(通信路を管理するノードに対してQoSパラメータなどの要求を行える場合なども含む)に、遅延時間を短く設定するように通信路設定の処理を行ったり、あるいは、他の符号化データを含むデータ通信とは異なる通信処理(ベアラ、セッション、コネクションの設定など)を行ったりしてもよい。
 また、放送レベル素材コンテンツ符号化データ送信部133は、符号化データ取得部131で取得した符号化データのうち、放送レベル素材コンテンツ符号化データを調整局用コンテンツ通信装置へ送信する機能を有している。なお、放送レベル素材コンテンツ符号化データに関しても、放送に耐え得るよう(若しくは、調整局や調整局のスタジオとの掛け合い、コミュニケーションに耐え得るよう)遅延時間の管理は同様に必要であるが、粗素材コンテンツの伝送遅延に求められる遅延時間の条件に比較して緩和された条件下で送信処理を行うことができる。
 また、放送レベル素材コンテンツ符号化データのデータ量は粗素材コンテンツの符号化データのデータ量に比較して大きくなることが考えられ、放送レベル素材コンテンツ符号化データに係る伝送の要求条件(伝送エラー、パケットロスなどの要求条件)は粗素材コンテンツの符号化データに比べて厳しいと考えられる。なお、逆に、粗素材コンテンツはそもそもフレーム数など、データが間引かれていたり、ある程度のロスを許容したりするかもしれない。そのため、放送レベル素材コンテンツの符号化データに関しては、多少の遅延時間は許しつつも、大容量のデータを正確に伝送できるよう通信経路(通信モジュール、インタフェースなど)の選択やパラメータ設定を行うことが望ましい。
 なお、放送レベル素材コンテンツは処理するデータ量が大きく、放送レベル素材コンテンツ符号化部122での符号化自体に時間を要することも考えられるため、実質的に、通信部分では(放送レベル素材コンテンツ符号化データ送信部133においては)、放送レベル素材コンテンツ符号化データを取得してから送信するまでに要する時間を粗素材コンテンツ符号化データ送信部132と同様にできるだけ遅延時間を短くするよう処理できることが望ましい。
 その結果として、放送レベル素材コンテンツ符号化データ送信部133は、粗素材コンテンツ符号化データ送信部132と同様の通信設定で送信することになるかもしれないが、通信の管理として、ベアラ、セッション、コネクションなどは粗素材コンテンツと放送レベル素材コンテンツとでは区別して管理されていることが望ましい。
 また、送り返しコンテンツ受信部140は、調整局用コンテンツ通信装置から送信されてくる送り返しコンテンツを受信する機能を有している。送り返しコンテンツは、実際の放送コンテンツと同じタイミングで調整、編集加工などが行われているが、解像度、フレームレート、色、音声の面で、撮影現場における必要条件を満たす範囲で簡素化若しくは低レート化されているものである。なお、送り返しコンテンツ受信部140は、その他、制御用の音声(映像、その他のデータを含む)など、送り返しコンテンツ以外のデータも受信することが可能である。送り返しコンテンツ以外のデータとしては、例えば、調整局からの指示、中継局からの指示、放送中/それ以外(CM(コマーシャル)の期間、調整局のスタジオやその他の中継先からの中継などが行われている期間)を示す信号などが挙げられる。送り返しコンテンツ受信部140が受信した送り返しコンテンツは、送り返しコンテンツ復号部150に渡され、また、その他のデータは、各種データを取り扱う機能(図4には不図示)に渡される。
 また、送り返しコンテンツ復号部150は、送り返しコンテンツ受信部140で受信した送り返しコンテンツの復号処理を行う機能を有している。なお、送り返しコンテンツ復号部150は、調整局用コンテンツ通信装置における符号化方法に基づいて送り返しコンテンツの復号を行うが、例えば、調整局用コンテンツ通信装置においても粗素材コンテンツ符号化部121と同様の符号化方法が利用されることが考えられる。送り返しコンテンツ復号部150で復号した送り返しコンテンツは、送り返しコンテンツ出力部160へ渡される。
 また、送り返しコンテンツ出力部160は、送り返しコンテンツ復号部150で復号した送り返しコンテンツ(さらには、送り返しコンテンツに付随して処理された情報など)を必要なインタフェースなどを通じて出力する機能を有している。送り返しコンテンツ出力部160は、撮影地用コンテンツ通信端末100に設置された出力用デバイス(モニタ、スピーカ、ヘッドホンなど)や、撮影地用コンテンツ通信端末100に接続された各種装置に設置された出力用デバイス、その他の外部インタフェースなどから、撮影地の人間(操作者や撮影対象者)が確認可能となるように送り返しコンテンツを出力する。なお、送り返しコンテンツ出力部160は、送り返しコンテンツとそれ以外のデータ、コンテンツとを区別して出力できることが望ましく、また、必要に応じてそれらを混合して出力できることが望ましい。
 なお、図4に図示されている撮影地用コンテンツ通信端末100の構成は一例に過ぎない。撮影地用コンテンツ通信端末(あるいは、インタフェースを通じて接続された複数の装置)は、撮影コンテンツに関連する粗素材コンテンツの逐次符号化可能なデータを遅延重視で送信し、さらに、その粗素材コンテンツに対して実際の放送コンテンツと同じ編集加工が施された送り返しコンテンツ(調整用コンテンツ)を受信及び出力するよう構成されていればよい。また、ある機能ブロックを別の機能ブロックの一部として実現したり、ある機能ブロックをインタフェースを通じて接続可能な別の外部機材に実装させたりしてもよい。
 次に、調整局用コンテンツ通信装置の構成例について説明する。なお、以下の説明では、1台の調整局用コンテンツ通信装置にすべての機能ブロックが実装されているように図示されているが、各機能ブロックは、インタフェースを通じて接続された複数の装置に分散して実装されていてもよい。
 図5は、本発明の実施の形態における調整局用コンテンツ通信装置の構成の第1の例を示すブロック図である。図5に示す調整局用コンテンツ通信装置200は、撮影コンテンツ受信部210、調整局コンテンツ取得部220、送り返しコンテンツ生成部230、編集加工用インタフェース部232、最終コンテンツ生成部240、送り返しコンテンツ出力部250、最終コンテンツ出力部260を有している。
 撮影コンテンツ受信部210は、撮影地(撮影地用コンテンツ通信端末100)から、符号化された撮影コンテンツを受信する。なお、撮影地用コンテンツ通信端末100からは、撮影コンテンツとして、粗素材コンテンツ符号化データ及び放送レベル素材コンテンツ符号化データを受信するが、それぞれの符号化データは、関連性(同じ撮影地用コンテンツ通信装置からの階層構造の対応する複数のレイヤの符号化データの関連付け情報など)を維持しつつも、それぞれが独立した処理単位として扱えるよう構成される。また、撮影コンテンツを受信してから、復号、その他の処理、最終コンテンツ(放送コンテンツ)の出力までの間、一時的に受信した撮影コンテンツの符号化データを保持しておく機能を兼ねることが望ましい。
 また、送り返しコンテンツ生成部230は、粗素材コンテンツ符号化データを復号し、それを利用して送り返しコンテンツを生成する機能を有しており、撮影コンテンツ出力部231、粗素材コンテンツ復号部233、送り返しコンテンツ合成部234、送り返しコンテンツ符号化部235によって構成されている。
 撮影コンテンツ出力部231は、受信した撮影コンテンツ(粗素材コンテンツ復号部233で復号された粗素材コンテンツ)を出力(表示)する機能を有する。撮影コンテンツ出力部231は、外部インタフェースに撮影コンテンツを出力(モニタなど)してもよい。なお、編集加工などの調整局でのワークフローによっては、この機能に相当するブロックは最終コンテンツ生成部240にあってもよい。
 また、粗素材コンテンツ復号部233は、受信した粗素材コンテンツ符号化データから、粗素材コンテンツを取得する機能を有している。粗素材コンテンツ復号部233は、例えば、符号化データのシステムレイヤからコンテンツの復号を行い、タイムスタンプやフレームナンバーなどの放送レベル素材コンテンツとの対応関係を示す情報と共に復号を行う。粗素材コンテンツ復号部233は、例えば編集加工用インタフェース部232からの指示やその他の制御に従って、復号した粗素材コンテンツを撮影コンテンツ出力部231へ渡す(粗素材コンテンツの状態で出力する場合)。また、粗素材コンテンツ復号部233は、復号した粗素材コンテンツを最終コンテンツ生成部240に渡し、最終コンテンツ生成部240における最終コンテンツの合成にも用いられる。
 また、送り返しコンテンツ合成部234は、編集加工用インタフェース部232からの指示やその他の制御に従い、粗素材コンテンツを用いて送り返しコンテンツの合成を行う機能を有している。なお、送り返しコンテンツについても処理遅延や伝送遅延を小さくすることが望ましく、送り返しコンテンツは、符号化する際に短時間で処理され、かつ、少ないデータ量の符号化データとなるようなコンテンツであることが望ましい。
 なお、送り返しコンテンツ合成部234は、編集加工用インタフェース部232からの指示やその他の制御に従い、粗素材コンテンツに対して構図調整などを行うことで、送り返しコンテンツ(すなわち、調整用コンテンツ)を合成する。また、編集加工のための機材が外部接続する形式である場合は、送り返しコンテンツ合成部234は、合成済みの送り返しコンテンツを取得するのみの場合もある。これは調整局の全体のシステム構成に依存するものであるから、調整局用コンテンツ通信装置200には、送り返しコンテンツを取得する機能のみが存在するような実施の構成もあることを含めて、送り返しコンテンツ合成部234の機能とする。すなわち、送り返しコンテンツ合成部234は、システム構成上、送り返しコンテンツの合成は行わずに単に取得するだけの動作を行う送り返しコンテンツ取得部として実現可能な場合もある。
 また、送り返しコンテンツ符号化部235は、送り返しコンテンツ合成部234で合成された送り返しコンテンツを符号化する機能を有している。送り返しコンテンツ符号化部235は、符号化した符号化データを送り返しコンテンツ出力部250へ渡す。なお、送り返しコンテンツ符号化部235は、粗素材コンテンツ復号部233で復号した粗素材コンテンツ符号化データに係る符号化方法と同等の符号化方法によって符号化を行ってもよい。
 また、編集加工用インタフェース部232は、他の調整局のスタジオのコンテンツなどとの切り替えや合成などを行うための制御を行うためのインタフェースである。編集加工用インタフェース部232は、コンテンツのタイムスタンプなどと同期して調整局の他の編集機材、送出機材と協調して動作する。なお、編集加工などの調整局でのワークフローによっては、この機能に想到するブロックは送り返しコンテンツ生成部230や最終コンテンツ生成部240にあってもよく、この場合の構成については、図6及び図7を参照しながら後述する。
 また、最終コンテンツ生成部240は、放送レベル素材コンテンツを復号し、それを利用して最終コンテンツを生成する機能を有しており、放送レベル素材コンテンツ復号部241、階層符号化管理部242、最終コンテンツ合成部243によって構成されている。
 放送レベル素材コンテンツ復号部241は、受信した放送レベル素材コンテンツ符号化データ(及び粗素材コンテンツ符号化データ)から、放送レベル素材コンテンツを取得する機能を有している。放送レベル素材コンテンツ復号部241は、例えば、符号化データのシステムレイヤからコンテンツの復号を行い、タイムスタンプやフレームナンバーなどの粗素材コンテンツとの対応関係を示す情報と共に復号を行う。放送レベル素材コンテンツ復号部241は、階層符号化管理部242の情報に従って、粗素材コンテンツに階層化された情報を合成して加算することで、復号データ(放送レベル素材コンテンツ)を生成する。
 また、階層符号化管理部242は、粗素材コンテンツと放送レベル素材コンテンツとの対応関係を管理(保持)し、正しい階層構造の組み合わせで放送レベル素材コンテンツが復号されるように制御する機能を有している。
 また、最終コンテンツ合成部243は、編集加工用インタフェース部232からの指示やその他の制御に従い、最終コンテンツの合成を行う機能を有している。なお、最終コンテンツ合成部243は、編集加工用インタフェース部232からの指示やその他の制御に従い、送り返しコンテンツを合成する際に施されたものと同一の構図調整など行うことで、送り返しコンテンツ(すなわち、調整用コンテンツ)と最終コンテンツとを一致させることができる。また、編集加工が外部の編集機材により行われる場合は、編集加工用インタフェース部232からの指示やその他の制御に従い、放送レベル素材コンテンツを最終コンテンツ出力部260に渡すのみでよい場合もあり得る。
 また、送り返しコンテンツ出力部250は、送り返しコンテンツ符号化部235で符号化した送り返しコンテンツの符号化データを撮影地用コンテンツ通信端末100に対して送信する機能を有している。なお、撮影地用コンテンツ通信端末100へ送り返しコンテンツ送信するための伝送路は、撮影地用コンテンツ通信端末100からコンテンツを受信したインタフェースと同一インタフェースからでよいが(双方向通信であれば)、調整局から撮影地に向けての伝送路として、遅延、安定性などの観点から、より適切なインタフェースが選択できるようになっていることが望ましい。また、QoSなどの伝送に関するパラメータ設定も適切に設定できることが望ましい。
 また、最終コンテンツ出力部260は、合成された最終コンテンツ(装置構成によっては、放送レベル素材コンテンツそのもの)を出力する機能を有する。この最終コンテンツ(あるいは、さらに外部の編集機材によって加工されたコンテンツ)は、放送コンテンツとして用いられる。
 なお、この図5に図示されている調整局用コンテンツ通信装置200は、例えば調整局スタジオの映像(調整局コンテンツ)をPinPで重ね合わせたり、テロップを挿入したりするなどの映像編集については、外部の編集機材で行うことを前提とした構成となっている。すなわち、図5に図示されている調整局用コンテンツ通信装置201は、編集加工が外部の編集機材で行われたり、送り返しコンテンツ合成部234や最終コンテンツ合成部243で完結(過不足なく完了)したりする場合などを前提としている。一方、後述の図6や図7に図示されている調整局用コンテンツ通信装置201、202の別の構成例においては、調整局コンテンツ取得部220を有しており、送り返しコンテンツや最終コンテンツに調整局コンテンツを合成する処理を、調整局用コンテンツ通信装置200内で行うことが可能である。
 また、図6は、本発明の実施の形態における調整局用コンテンツ通信装置の構成の第2の例を示すブロック図である。図6に示す調整局用コンテンツ通信装置201は、撮影コンテンツ受信部210、調整局コンテンツ取得部220、送り返しコンテンツ生成部230、最終コンテンツ生成部240、送り返しコンテンツ出力部250、最終コンテンツ出力部260を有している。
 なお、調整局コンテンツ取得部220は、撮影地用コンテンツ通信端末100から送られてくる撮影コンテンツ以外の必要なコンテンツ(調整局のスタジオのコンテンツなど)を取得する機能を有している。この調整局コンテンツ取得部220は、撮影コンテンツ以外のコンテンツが不要な場合や、編集加工が外部の装置や送り返しコンテンツ合成部234、最終コンテンツ合成部243で完結(過不足なく完了)する場合などにおいては、必ずしも設置されている必要はない。
 図6に示す調整局用コンテンツ通信装置201の各ブロックの機能は、上述した機能と基本的に同一であるが、大きな違いは、撮影コンテンツ出力部231及び編集加工インタフェース部232が送り返しコンテンツ生成部230に組み込まれている点である。すなわち、図6に示す調整局用コンテンツ通信装置201では、粗素材コンテンツがモニタなどから出力されるとともに、編集加工用インタフェース部232を通じて粗素材コンテンツに対して編集加工を完了する一方、最終コンテンツを生成する際には、階層符号化データに係る単純な復号処理で得られた放送レベル素材コンテンツに対して、送り返しコンテンツに対する編集加工結果を最終コンテンツ合成部243にて合成するよう構成されている。
 また、図7は、本発明の実施の形態における調整局用コンテンツ通信装置の構成の第3の例を示すブロック図である。図7に示す調整局用コンテンツ通信装置202も同様に、撮影コンテンツ受信部210、調整局コンテンツ取得部220、送り返しコンテンツ生成部230、最終コンテンツ生成部240、送り返しコンテンツ出力部250、最終コンテンツ出力部260を有しているが、撮影コンテンツ出力部231及び編集加工インタフェース部232が最終コンテンツ生成部240に組み込まれており、かつ、編集加工インタフェース部232で送り返しコンテンツ及び最終コンテンツの両方の編集加工が行えるよう構成されている点で、図6に示す調整局用コンテンツ通信装置201と大きく異なっている。
 すなわち、図7に示す調整局用コンテンツ通信装置202では、放送レベル素材コンテンツと同等の画質の映像をモニタなどで確認しながら、編集加工用インタフェース部232を通じて粗素材コンテンツや放送レベル素材コンテンツの編集加工を行えるように構成されている。また、最終コンテンツの品質と同等の放送レベル素材コンテンツを合成した後のタイミングにおいても編集加工が可能であり、例えば、送り返しコンテンツにおいてPinPの窓の配置のみ定めておき、最終コンテンツを合成する直前に、調整局コンテンツ取得部220から調整局スタジオにおける映像データなどを取得してPinPの窓にはめ込むことで、受け答えのタイミングに一致した映像・音声データを合成することも可能となる。
 なお、図5~図7に図示されている調整局用コンテンツ通信装置200、201、202の構成は一例に過ぎない。調整局用コンテンツ通信装置(あるいは、インタフェースを通じて接続された複数の装置)は、実際の放送コンテンツに施される編集加工を粗素材コンテンツに対して合成して送り返しコンテンツを生成及び送信し、さらに、粗素材コンテンツに対して施した編集加工を、その粗素材コンテンツに対応した最終コンテンツ(実際の放送コンテンツ)において合成するよう構成されていればよい。また、図5~図7に図示されている構成を組み合わせて使用してもよい。さらに、ある機能ブロックを別の機能ブロックの一部として実現したり、ある機能ブロックをインタフェースを通じて接続可能な別の外部機材に実装させたりしてもよい。
 図8は、本発明の第2の実施の形態における撮影コンテンツ符号化器の構成の一例を示すブロック図である。なお、図8に示す撮影コンテンツ符号化器500は、図4に示す撮影地用コンテンツ通信端末100内に配置され得るものであるが、図8は、階層符号化技術を用いて撮影コンテンツから粗素材コンテンツ符号化データ及び放送レベル素材コンテンツ符号化データを作成する機能に着目して図示されている。
 図8に示す撮影コンテンツ符号化器500は、コア符号化器501、コア復号器502、差成分抽出器503、拡張符号化器504を有している。なお、コア符号化器501、コア復号器502、拡張符号化器504はそれぞれ、粗素材コンテンツ符号化器、粗素材コンテンツ復号器、放送レベル素材コンテンツ符号化器に対応している。
 撮影コンテンツ符号化器500に入力された撮影コンテンツは、コア符号化器501及び差成分抽出器503に供給される、まず、コア符号化器501が撮影コンテンツの符号化を行って、粗素材コンテンツ符号化データを生成する。コア符号化器501で生成された粗素材コンテンツ符号化データは、コア復号器502に供給され、コア復号器502は、供給された粗素材コンテンツ符号化データの復号処理を行って粗素材コンテンツを得て、差成分抽出器503へ粗素材コンテンツを供給する。
 差成分抽出器503は、供給された撮影コンテンツと粗素材コンテンツとの差成分を抽出し、その差成分を拡張符号化器504へ供給する。拡張符号化器504は、供給された差成分を符号化して放送レベル素材コンテンツ符号化データを生成する。そして、コア符号化器501で得られた粗素材コンテンツ符号化データ、拡張符号化器504で得られた放送レベル素材コンテンツ符号化データがそれぞれ出力される。
 なお、符号化データの出力及び伝送のタイミングとしては、遅延時間の短縮を考慮し、まず、粗素材コンテンツ符号化データが得られた時点で即座に伝送するよう撮影コンテンツ符号化器500より出力し、次に、残りの処理を行った後に得られる放送レベル素材コンテンツ符号化データを撮影コンテンツ符号化器500より出力する。この階層符号化により、伝送後の復号側の処理においては、得られた符号化データのうち一部(粗素材コンテンツ符号化データ)を用いたコア復号器(粗素材コンテンツ復号器)による復号で粗素材コンテンツが得られ、これに残りの符号(放送レベル素材コンテンツ符号化データ)を用いた拡張復号器(放送レベル素材コンテンツ復号器の一部)による復号で得られる成分を加算することにより、元の撮影コンテンツが復号され、放送レベル素材コンテンツを得ることができる。
 図9は、本発明の第2の実施の形態における放送レベル素材コンテンツ復号器及び送り返しコンテンツ符号化器の構成の一例を示すブロック図である。なお、図9に示すコア復号器601、送り返しコンテンツ符号化器602、放送レベル素材コンテンツ復号器610は、図5~図7に示す調整局用コンテンツ通信装置200、201、202内に配置され得るものであるが、図9は、粗素材コンテンツ符号化データから粗素材コンテンツを作成する機能、階層符号化技術を用いて粗素材コンテンツ符号化データ及び放送レベル素材符号化データから放送レベル素材コンテンツを作成する機能、送り返しコンテンツから送り返しコンテンツ符号化データを作成する機能に着目して図示されている。また、コア復号器601とコア復号器612は、粗素材コンテンツ符号化データを復号するという同一機能を有しており、同一の復号器によって実現されてもよい。
 図9において、階層符号器(図8に示す撮影コンテンツ符号化器500)で得られた符号データの一部(粗素材コンテンツ符号化データ)を受信すると、コア復号器601に即座に入力され、コア復号器601による復号で粗素材コンテンツが得られる。さらに、こうして得られた粗素材コンテンツは調整用コンテンツ(送り返しコンテンツ)として使用可能となるよう編集加工される。送り返しコンテンツは、送り返しコンテンツ符号化器602によって符号化され、符号化後のデータ(送り返しコンテンツ符号化データ)は、撮影地用コンテンツ通信端末100へ送り返される。なお、送り返しコンテンツは伝送先(すなわち、図8に示す撮影コンテンツ符号化器500)で高品質を必要としないので、低レートで符号化を行うことが可能である。
 また、図9に示す放送レベル素材コンテンツ復号器610は、階層型復号器611、コア復号器612、拡張復号器613、加算器614を有している。
 粗素材コンテンツ符号化データ及び放送レベル素材コンテンツ符号化データは、階層符号化データのシステムレイヤのみを把握する階層型復号器611に入力される。そして、階層型復号器611の制御(各階層符号化データの対応関係などの管理)によって、符号化データの全てを用いて、まずコア復号器(粗素材コンテンツ復号器と等価の復号器)612で復号を行って粗素材コンテンツを取得し、次に拡張復号器613で復号を行って撮影コンテンツとの差成分に相当するデータ(放送レベル素材レイヤに属するデータ)を取得する。そして、これらのデータは、加算器614において加算されることで、放送レベル素材コンテンツが取得される。
 本発明の使用形態においては、粗素材コンテンツ復号器が別途送り返しコンテンツの生成のために並行、若しくは先行して動作しているよう構成できるので、コア復号器の代わりに、単に粗素材コンテンツ符号化データの復号処理を行うだけの粗素材コンテンツ復号器の出力を用いることができる。また、送り返しコンテンツの生成のために先行して復号された粗素材コンテンツ(コア復号器601で復号された粗素材コンテンツ)を階層型復号器611、コア復号器612あるいは加算器614へ供給することで、放送レベル素材コンテンツ復号器610において同様の処理が行われるようにすることも可能である。
 なお、最終コンテンツの作成において、粗素材コンテンツ符号化データと放送レベル素材コンテンツ符号化データとを復号し(その結果、放送レベル素材コンテンツが得られる)、こうして得られた放送レベル素材コンテンツを編集加工したものを最終コンテンツとする場合には、容易に処理が可能である。一方、例えば、粗素材コンテンツ符号化データを復号したものに対して編集加工を施し、さらに、放送レベル素材コンテンツ符号化データを復号して得られたデータを利用して最終コンテンツを得ようとする場合には、特殊な処理やコーデックが必要となるかもしれない。
 なお、上述の各実施の形態では、テレビ放送やネットワーク配信を前提として本発明の説明を行っているが、本発明に係る符号化方法、送り返し方法、伝送システムなどは、その他既存のデータ通信技術、及び、将来発展するであろう様々なデータ通信技術に適用することができる。特に、携帯端末を所持する個人が様々な場所で撮影したコンテンツを一般公衆又は特定メンバを問わずに配布、配信することが可能となりつつあるデータ通信においては、個人のデータ配信方法、中間の配信サービス提供方法としても広く利用可能である。また、音声のみ(ラジオ放送など)や映像のみ(監視)など、コンテンツが単一の場合にも本発明の適用が可能であることは明らかである。
 また、説明を簡単にするため、撮影地に送信、調整局に送信などの表現を用いて本発明の説明を行っている箇所があるが、実際は、本発明の撮影地側通信端末と調整局側通信装置との間で通信が行われる。また、システム構成上、撮影地、調整局のほかに、中継局に様々な機能を実装できる装置が搭載されていることがある。このような場合には、例えば、撮影地側通信端末に実装されていると説明した撮影コンテンツ符号化部及び撮影コンテンツ送信部(例えば、本発明の核となる階層符号化処理及び符号化データの送信処理)を中継局の装置に実装し、撮影地では送り返しコンテンツ(調整用コンテンツ)の受信、復号、表示のみを行うようにしてもよい。
 また、実際の使用環境において、本発明の装置が、放送の中継の開始前後も含めて動作していることが考えられるが、この場合、撮影地での撮影コンテンツは調整局で受信(および保存など)されるものの、送り返しコンテンツとしては、実際に放送/配信がなされるもの(つまり、調整局スタジオでの撮影コンテンツのみで、撮影コンテンツとの合成等がない)を送り返し、中継の開始のタイミングを計るなどの調整作業を行うため、実質的には撮影コンテンツ(粗素材コンテンツ、放送レベル素材コンテンツ共に)の合成/加工を必要としない。この場合、調整局用コンテンツ通信装置では、粗素材コンテンツを元にした送り返しコンテンツ(粗素材コンテンツの合成、加工を行った送り返しコンテンツ)の符号化を行うのではなく、粗素材コンテンツ若しくは放送レベル素材コンテンツを調整局の機材に対して出力するとともに、調整局スタジオでの撮影コンテンツなどの送り返しコンテンツを入力とし、それを符号化して送り返す。なお、このような動作モードを、アイドリングのモードと呼ぶことにする。上述した通常の中継を行うモードと、アイドリングのモードとは、中継開始/終了のタイミングでそれぞれ切り替わるようにしてもよい。
 また、上述の第2の実施の形態では、階層符号化を応用して、粗素材コンテンツと放送レベル素材コンテンツとを加算したものが、過不足なく撮影コンテンツに一致するようにしているが、撮影地側通信端末が、粗素材コンテンツを生成して調整局へ送信する機能を有し、かつ、調整局(復号側)が撮影コンテンツの復号を行うことが可能であれば、階層符号化技術と一致しない冗長なデータ符号化が行われてもよい。例えば、図5に示す撮影コンテンツ符号化器500において、拡張符号化器504は、粗素材コンテンツの一部又は全部と重複する内容を含む放送レベル素材コンテンツ符号化データを生成してもよい。この場合、復号側においては、放送レベル素材コンテンツ符号化データに重複して粗素材コンテンツの一部又は全部が含まれていることを前提とした処理を行えばよい。また、粗素材コンテンツの全部が放送レベル素材コンテンツ符号化データに含まれるよう符号化が行われる場合には、撮影コンテンツ符号化器500は、コア符号化器501と、入力される撮影コンテンツ全体を符号化する符号化器(撮影コンテンツ符号化器)とを有し、粗素材コンテンツ符号化データを即座に送信するとともに、遅れて、撮影コンテンツ全体を符号化したデータを送信すればよい。
 なお、上記の本発明の実施の形態の説明で用いた各機能ブロックは、典型的には集積回路であるLSI(Large Scale Integration)として実現される。これらは個別に1チップ化されてもよいし、一部又はすべてを含むように1チップ化されてもよい。なお、ここでは、LSIとしたが、集積度の違いにより、IC(Integrated Circuit)、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
 また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
 さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。例えば、バイオ技術の適応などが可能性としてあり得る。
 本発明は、撮影地からの中継放送を行う場合に、撮影地(撮影側)で行われた動作がどのように放送コンテンツとして反映されるかを、撮影側が迅速に確認できるようにするという効果を有しており、コンテンツデータの符号化及び伝送を行う技術に適用可能である。

Claims (25)

  1.  撮影地で撮影された撮影コンテンツデータを、放送コンテンツの編集を行うコンテンツ加工装置へ送信するコンテンツ通信装置であって、
     前記撮影コンテンツデータを取得する撮影コンテンツ取得部と、
     前記撮影コンテンツ取得部で取得された前記撮影コンテンツデータを所定の品質で符号化して第1符号化データを生成する第1符号化部と、
     前記第1符号化部で生成された前記第1符号化データを、前記コンテンツ加工装置へ向けて逐次送信する第1送信部と、
     前記第1符号化データに含まれる映像の品質を上げる付加情報を前記撮影コンテンツデータから抽出して符号化し、第2符号化データを生成する第2符号化部と、
     前記第2符号化部で生成された前記第2符号化データを前記コンテンツ加工装置へ向けて送信する第2送信部とを、
     有するコンテンツ通信装置。
  2.  前記第1送信部による前記第1符号化データの通信方法と、前記第2送信部による前記第2符号化データの通信方法とがそれぞれ異なるように構成されている請求項1に記載のコンテンツ通信装置。
  3.  前記第1送信部による前記第1符号化データの通信に係る前記コンテンツ加工装置への通信経路と、前記第2送信部による前記第2符号化データの通信に係る前記コンテンツ加工装置への通信経路とがそれぞれ異なるように構成されている請求項2に記載のコンテンツ通信装置。
  4.  前記第1送信部による前記第1符号化データの通信に係る前記コンテンツ加工装置へのQoS設定と、前記第2送信部による前記第2符号化データの通信に係る前記コンテンツ加工装置へのQoS設定とがそれぞれ異なるように構成されている請求項2に記載のコンテンツ通信装置。
  5.  前記第1符号化部及び前記第2符号化部が、前記映像コンテンツデータの階層符号化を行い、前記第1符号化部が、前記階層符号化のコアレイヤの符号化データを前記第1符号化データとして生成し、前記第2符号化部が、前記階層符号化の拡張レイヤの符号化データを前記第2符号化データとして生成するよう構成されている請求項1に記載のコンテンツ通信装置。
  6.  前記第1符号化部で生成された前記第1符号化データを復号して復号データを生成する復号部と、
     前記撮影コンテンツ取得部で取得された前記撮影コンテンツデータと、前記復号部で生成された前記復号データとの差成分を抽出して差成分データを生成する差成分抽出部とを、
     有し、
     前記第2符号化部が、前記差成分抽出部で生成された前記差成分データを前記階層符号化の拡張レイヤの符号化データとして、前記第2符号化データを生成するように構成されている請求項5に記載のコンテンツ通信装置。
  7.  前記第1符号化部が、前記第1送信部における送信単位に合わせて前記第1符号化データを生成するように構成されている請求項1に記載のコンテンツ通信装置。
  8.  前記第1符号化部によって生成される前記第1符号化データの符号化単位、及び、前記第1送信部における前記送信単位に関して、一方が他方の逓倍となるように構成されている請求項7に記載のコンテンツ通信装置。
  9.  前記第2符号化部が、前記第1符号化部によって生成される前記第1符号化データの符号化単位の複数に対応する情報をまとめて符号化して、前記第2符号化データを生成するように構成されている請求項1に記載のコンテンツ通信装置。
  10.  前記第1符号化部がフレーム毎圧縮による符号化を行い、前記第2符号化部がフレーム間圧縮による符号化を行うように構成されている請求項9に記載のコンテンツ通信装置。
  11.  前記第1符号化部が、前記撮影コンテンツに含まれる映像の分割単位に合わせて前記撮影コンテンツに含まれる音声の分割単位を定め、前記第1符号化データを生成するように構成されている請求項1に記載のコンテンツ通信装置。
  12.  前記コンテンツ加工装置において、前記第1符号化データに対して実際の放送コンテンツに反映される編集が一部又は全部行われて返送されてくる調整用コンテンツを受信する調整用コンテンツ受信部と、
     前記調整用コンテンツを前記撮影地のユーザが確認できるよう出力する調整用コンテンツ出力部とを、
     有する請求項1に記載のコンテンツ通信装置。
  13.  撮影地で撮影された撮影コンテンツデータを、放送コンテンツの編集を行うコンテンツ加工装置へ送信するコンテンツ通信装置であって、
     前記撮影コンテンツデータを取得する撮影コンテンツ取得部と、
     前記撮影コンテンツ取得部で取得された前記撮影コンテンツデータを前記コンテンツ加工装置へ向けて送信する撮影コンテンツ送信部と、
     前記コンテンツ加工装置において、前記撮影コンテンツに対して実際の放送コンテンツに反映される編集が一部又は全部行われて返送されてくる調整用コンテンツを受信する調整用コンテンツ受信部と、
     前記調整用コンテンツを前記撮影地のユーザが確認できるよう出力する調整用コンテンツ出力部とを、
     有するコンテンツ通信装置。
  14.  放送コンテンツの編集を行うコンテンツ加工装置であって、
     撮影地で撮影された撮影コンテンツデータを取得したコンテンツ通信装置が前記撮影コンテンツデータに対して所定の品質で符号化して生成した第1符号化データを、前記コンテンツ通信装置から受信する第1符号化データ受信部と、
     前記第1符号化データを復号する第1符号化データ復号部と、
     前記復号後の第1符号化データに対して実際の放送コンテンツに反映される編集を一部又は全部行う編集加工部と、
     前記編集加工部で編集された前記復号後の第1符号化データを調整用コンテンツとして前記コンテンツ通信装置に向けて送信する調整用コンテンツ送信部とを、
     有するコンテンツ加工装置。
  15.  前記編集加工部で編集された前記復号後の第1符号化データを、前記第1符号化データに係る符号化方法と同一の方法で符号化して、前記調整用コンテンツを生成する符号化部を有する請求項14に記載のコンテンツ加工装置。
  16.  前記コンテンツ通信装置が前記第1符号化データに含まれる映像の品質を上げる付加情報を前記撮影コンテンツデータから抽出し、符号化して生成した第2符号化データを、前記コンテンツ通信装置から受信する第2符号化データ受信部と、
     前記第2符号化データを復号する第2符号化データ復号部とを、
     有する請求項14に記載のコンテンツ加工装置。
  17.  前記復号後の第1符号化データと前記復号後の第2符号化データとを加算して得られたコンテンツに前記編集加工部で行われた編集を行って得られるコンテンツ、又は、前記調整用コンテンツに前記復号後の第2符号化データを反映して得られるコンテンツを、実際に放送される放送コンテンツとして出力する放送コンテンツ出力部とを、
     有する請求項16に記載のコンテンツ加工装置。
  18.  前記第1符号化データ復号部による復号後の第1符号化データと、前記第2符号化データ復号部による復号後の第2符号化データとに基づいてコンテンツを取得するコンテンツデータ取得部と、
     前記コンテンツデータ取得部で取得された前記コンテンツに対して編集を行う放送用編集加工部と、
     前記放送用編集加工部による編集後のコンテンツを、実際に放送される放送コンテンツとして出力する放送コンテンツ出力部とを、
     有する請求項16に記載のコンテンツ加工装置。
  19.  前記第1符号化データ復号部及び前記第2符号化データ復号部が階層符号化データの復号を行い、前記第1符号化データ復号部が、前記第1符号化データから前記階層符号化のコアレイヤのデータを取得し、前記第2符号化データ復号部が、前記第2符号化データから前記階層符号化の拡張レイヤのデータを取得して、前記コアレイヤのデータ及び前記拡張レイヤのデータに基づいてコンテンツを取得するよう構成されている請求項16に記載のコンテンツ加工装置。
  20.  外部コンテンツを取得する外部コンテンツ取得部を有し、
     前記編集加工部が、前記編集時に前記復号後の第1符号化データに、既に取得している前記外部コンテンツを合成するよう構成されている請求項14に記載のコンテンツ加工装置。
  21.  外部コンテンツを取得する外部コンテンツ取得部と、
     前記編集加工部における前記編集時に前記外部コンテンツの合成を行う際に、前記撮影コンテンツデータ及び前記外部コンテンツを同期させる同期制御部とを、
     有し、
     前記編集加工部が、前記同期制御部による同期制御に基づいて、前記編集として前記復号後の第1符号化データに、前記外部コンテンツを合成するよう構成されている請求項14に記載のコンテンツ加工装置。
  22.  外部コンテンツを取得する外部コンテンツ取得部と、
     前記外部コンテンツを調整用コンテンツとして前記コンテンツ通信装置に向けて送信する外部コンテンツ送信部とを、
     有し、
     前記撮影地で撮影された撮影コンテンツデータを実際の放送に使用する場合には、前記調整用コンテンツ送信部による前記調整コンテンツの送信を行い、前記撮影地で撮影された撮影コンテンツデータを実際の放送に使用しない場合には、前記外部コンテンツ送信部による前記調整コンテンツの送信を行うように構成されている請求項14に記載のコンテンツ加工装置。
  23.  放送コンテンツの編集を行うコンテンツ加工装置であって、
     撮影地で撮影された撮影コンテンツデータを、前記コンテンツ通信装置から受信する撮影コンテンツデータ受信部と、
     前記受信した撮影コンテンツデータに対して実際の放送コンテンツに反映される編集を一部又は全部行う編集加工部と、
     前記編集加工部で編集された前記撮影コンテンツデータを調整用コンテンツとして前記コンテンツ通信装置に向けて送信する調整用コンテンツ送信部とを、
     有するコンテンツ加工装置。
  24.  放送コンテンツの編集を行うコンテンツ加工装置と、撮影地で撮影された撮影コンテンツデータを前記コンテンツ加工装置へ送信するコンテンツ通信装置とによって構成されるコンテンツ通信システムであって、
     前記コンテンツ通信装置が、
     前記撮影コンテンツデータを取得する撮影コンテンツ取得部と、
     前記撮影コンテンツ取得部で取得された前記撮影コンテンツデータを所定の品質で符号化して第1符号化データを生成する第1符号化部と、
     前記第1符号化部で生成された前記第1符号化データを、前記コンテンツ加工装置へ向けて逐次送信する第1送信部と、
     前記第1符号化データに含まれる映像の品質を上げる付加情報を前記撮影コンテンツデータから抽出して符号化し、第2符号化データを生成する第2符号化部と、
     前記第2符号化部で生成された前記第2符号化データを前記コンテンツ加工装置へ向けて送信する第2送信部と、
     前記コンテンツ加工装置において、前記第1符号化データに対して実際の放送コンテンツに反映される編集が一部又は全部行われて返送されてくる調整用コンテンツを受信する調整用コンテンツ受信部と、
     前記調整用コンテンツを前記撮影地のユーザが確認できるよう出力する調整用コンテンツ出力部とを有し、
     前記コンテンツ加工装置が、
     前記コンテンツ通信装置から前記第1符号化データを受信する第1符号化データ受信部と、
     前記第1符号化データを復号する第1符号化データ復号部と、
     前記復号後の第1符号化データに対して実際の放送コンテンツに反映される編集を一部又は全部行う編集加工部と、
     前記編集加工部で編集された前記復号後の第1符号化データを前記調整用コンテンツとして前記コンテンツ通信装置に向けて送信する調整用コンテンツ送信部と、
     前記コンテンツ通信装置から前記第2符号化データ受信する第2符号化データ受信部と、
     前記第2符号化データを復号する第2符号化データ復号部と、
     前記復号後の第1符号化データと前記復号後の第2符号化データとを加算して得られたコンテンツに前記編集加工部で行われた編集を行って得られるコンテンツ、又は、前記調整用コンテンツに前記復号後の第2符号化データを反映して得られるコンテンツを、実際に放送される放送コンテンツとして出力する放送コンテンツ出力部とを、
     有するコンテンツ通信システム。
  25.  放送コンテンツの編集を行うコンテンツ加工装置と、撮影地で撮影された撮影コンテンツデータを前記コンテンツ加工装置へ送信するコンテンツ通信装置とによって構成されるコンテンツ通信システムであって、
     前記コンテンツ通信装置が、
     前記撮影コンテンツデータを取得する撮影コンテンツ取得部と、
     前記撮影コンテンツ取得部で取得された前記撮影コンテンツデータを、前記コンテンツ加工装置へ向けて送信する送信部と、
     前記コンテンツ加工装置において、前記撮影コンテンツに対して実際の放送コンテンツに反映される編集が一部又は全部行われて返送されてくる調整用コンテンツを受信する調整用コンテンツ受信部と、
     前記調整用コンテンツを前記撮影地のユーザが確認できるよう出力する調整用コンテンツ出力部とを有し、
     前記コンテンツ加工装置が、
     前記コンテンツ通信装置から前記撮影コンテンツデータを受信する撮影コンテンツデータ受信部と、
     前記受信した撮影コンテンツデータに対して実際の放送コンテンツに反映される編集を一部又は全部行う編集加工部と、
     前記編集加工部で編集された前記撮影コンテンツデータを前記調整用コンテンツとして前記コンテンツ通信装置に向けて送信する調整用コンテンツ送信部と、
     前記編集加工部における編集内容を反映した放送コンテンツを作成して出力する放送コンテンツ出力部とを、
     有するコンテンツ通信システム。
PCT/JP2011/000711 2010-02-15 2011-02-09 コンテンツ通信装置及びコンテンツ加工装置並びにコンテンツ通信システム WO2011099273A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN2011800092900A CN102754445A (zh) 2010-02-15 2011-02-09 内容通信装置、内容加工装置和内容通信系统
EP11742023A EP2538671A1 (en) 2010-02-15 2011-02-09 Content communication device, content processing device and content communication system
JP2011553755A JP5607084B2 (ja) 2010-02-15 2011-02-09 コンテンツ通信装置及びコンテンツ加工装置並びにコンテンツ通信システム
US13/576,527 US20120307913A1 (en) 2010-02-15 2011-02-09 Content communication device, content processing device and content communication system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-030230 2010-02-15
JP2010030230 2010-02-15

Publications (1)

Publication Number Publication Date
WO2011099273A1 true WO2011099273A1 (ja) 2011-08-18

Family

ID=44367559

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/000711 WO2011099273A1 (ja) 2010-02-15 2011-02-09 コンテンツ通信装置及びコンテンツ加工装置並びにコンテンツ通信システム

Country Status (5)

Country Link
US (1) US20120307913A1 (ja)
EP (1) EP2538671A1 (ja)
JP (1) JP5607084B2 (ja)
CN (1) CN102754445A (ja)
WO (1) WO2011099273A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013187606A (ja) * 2012-03-06 2013-09-19 Sony Corp 撮像装置および画像伝送方法
JP2015142275A (ja) * 2014-01-29 2015-08-03 キヤノン株式会社 画像処理装置、画像処理方法、表示装置、表示方法、及び、プログラム
JP2019087895A (ja) * 2017-11-07 2019-06-06 株式会社日立国際電気 放送伝送システム
WO2023281665A1 (ja) * 2021-07-07 2023-01-12 日本電信電話株式会社 メディア同期制御装置、メディア同期制御方法及びメディア同期制御プログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130018701A1 (en) * 2010-08-17 2013-01-17 Matthew Dusig Capturing and processing data responsive to a task associated with consumer research, survey, or poll
JP6307856B2 (ja) * 2013-11-28 2018-04-11 ソニー株式会社 送信装置、広色域画像データ送信方法、受信装置、広色域画像データ受信方法およびプログラム
EP3481142B1 (en) * 2016-08-08 2020-10-28 Huawei Technologies Co., Ltd. Data transmission method and transmitting terminal device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07307711A (ja) * 1994-05-16 1995-11-21 Nippon Hoso Kyokai <Nhk> 多重伝送システム
JPH09266460A (ja) * 1996-03-28 1997-10-07 Sony Corp 送受信システム
JP2004289718A (ja) * 2003-03-25 2004-10-14 Nippon Hoso Kyokai <Nhk> 撮影映像編集方法およびその装置
JP2004357205A (ja) 2002-06-04 2004-12-16 Matsushita Electric Ind Co Ltd 画像データ伝送装置及び方法、画像データ再生装置及び方法
JP2005277950A (ja) 2004-03-25 2005-10-06 Sony Corp 送信装置および方法、受信装置および方法、並びにプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3231493B2 (ja) * 1993-07-14 2001-11-19 松下電送システム株式会社 シート切断装置及びこれを備えたファクシミリ装置
EP0905976A4 (en) * 1997-03-17 2010-09-29 Panasonic Corp METHOD FOR PROCESSING, TRANSMITTING AND RECEIVING DATA OF DYNAMIC IMAGES AND RELATED DEVICE
US6104720A (en) * 1997-04-28 2000-08-15 Intel Corporation Dynamic communication path selection for data transmission between computers
US6798756B1 (en) * 1997-05-30 2004-09-28 Sony Corporation Data transmission system and method, and data receiving method and device
JP2003209807A (ja) * 2002-01-10 2003-07-25 Canon Inc 動画再生方法及び装置
US7450646B2 (en) * 2002-06-04 2008-11-11 Panasonic Corporation Image data transmitting apparatus and method and image data reproducing apparatus and method
JP4128438B2 (ja) * 2002-12-13 2008-07-30 株式会社リコー 画像処理装置、プログラム、記憶媒体及び画像編集方法
JP2004289918A (ja) * 2003-03-20 2004-10-14 Fujitsu Ltd 電力供給方法
JP4243140B2 (ja) * 2003-06-11 2009-03-25 日本放送協会 データ送信装置、データ送信プログラムおよびデータ受信装置、データ受信プログラムならびにデータ送受信方法
EP1679895A1 (en) * 2003-10-16 2006-07-12 NEC Corporation Medium signal transmission method, reception method, transmission/reception method, and device
US7627184B2 (en) * 2003-11-21 2009-12-01 Nec Corporation Content distribution/reception device, content transmission/reception method, and content distribution/reception program
JP2010011287A (ja) * 2008-06-30 2010-01-14 Panasonic Corp 映像伝送方法および端末装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07307711A (ja) * 1994-05-16 1995-11-21 Nippon Hoso Kyokai <Nhk> 多重伝送システム
JPH09266460A (ja) * 1996-03-28 1997-10-07 Sony Corp 送受信システム
JP2004357205A (ja) 2002-06-04 2004-12-16 Matsushita Electric Ind Co Ltd 画像データ伝送装置及び方法、画像データ再生装置及び方法
JP2004289718A (ja) * 2003-03-25 2004-10-14 Nippon Hoso Kyokai <Nhk> 撮影映像編集方法およびその装置
JP2005277950A (ja) 2004-03-25 2005-10-06 Sony Corp 送信装置および方法、受信装置および方法、並びにプログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013187606A (ja) * 2012-03-06 2013-09-19 Sony Corp 撮像装置および画像伝送方法
JP2015142275A (ja) * 2014-01-29 2015-08-03 キヤノン株式会社 画像処理装置、画像処理方法、表示装置、表示方法、及び、プログラム
JP2019087895A (ja) * 2017-11-07 2019-06-06 株式会社日立国際電気 放送伝送システム
JP6994359B2 (ja) 2017-11-07 2022-01-14 株式会社日立国際電気 放送伝送システム
WO2023281665A1 (ja) * 2021-07-07 2023-01-12 日本電信電話株式会社 メディア同期制御装置、メディア同期制御方法及びメディア同期制御プログラム

Also Published As

Publication number Publication date
JP5607084B2 (ja) 2014-10-15
US20120307913A1 (en) 2012-12-06
CN102754445A (zh) 2012-10-24
JPWO2011099273A1 (ja) 2013-06-13
EP2538671A1 (en) 2012-12-26

Similar Documents

Publication Publication Date Title
JP5607084B2 (ja) コンテンツ通信装置及びコンテンツ加工装置並びにコンテンツ通信システム
US8477950B2 (en) Home theater component for a virtualized home theater system
WO2011126586A1 (en) Video content distribution
KR20170074866A (ko) 수신 장치, 송신 장치, 및 데이터 처리 방법
Järvinen et al. Media coding for the next generation mobile system LTE
US20230319371A1 (en) Distribution of Multiple Signals of Video Content Independently over a Network
US20140002598A1 (en) Transport system and client system for hybrid 3d content service
CN113507574A (zh) 一种超高清视频的制播处理系统
US9204123B2 (en) Video content generation
KR20120006676A (ko) 화상회의 장치 및 화상회의 서비스 제공 방법
KR101697385B1 (ko) 채널 적응형 계층적 방송 장치 및 방법
WO2011099254A1 (ja) データ処理装置及びデータ符号化装置
KR20170130883A (ko) 하이브리드 망 기반의 가상 현실 방송 서비스 방법 및 장치
EP2175643A1 (en) Personal recording apparatus and control method thereof
CN102957893B (zh) 用于在连续呈现会议中的视频流之间切换的方法和系统
KR20150057149A (ko) 재전송망에 기초한 3d 방송 서비스 제공 시스템 및 방법
CA2824708C (en) Video content generation
JP2008016894A (ja) 送信装置及び受信装置
Kuwabara et al. Demonstration on Next-Generation Immersive Audio in a Live Broadcast Workflow
KR101012760B1 (ko) 다시점 비디오의 송수신 시스템 및 방법
JP2014060625A (ja) 映像信号送信方法、映像信号受信装置及び映像信号受信方法
Kim et al. Synchronous 2D/3D Switching System for Service‐Compatible 3DTV Broadcasting
Monnier et al. H2B2VS (HEVC Hybrid Broadcast Broadband Video Services)-Building Innovative Solutions over Hybrid Networks
Kim et al. Requirements for developing ultra-realistic live streaming systems
JP2006352306A (ja) コンテンツデータ配信装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180009290.0

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11742023

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011553755

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 13576527

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2011742023

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE