JP2010011287A - Image transmission method and terminal device - Google Patents

Image transmission method and terminal device Download PDF

Info

Publication number
JP2010011287A
JP2010011287A JP2008170371A JP2008170371A JP2010011287A JP 2010011287 A JP2010011287 A JP 2010011287A JP 2008170371 A JP2008170371 A JP 2008170371A JP 2008170371 A JP2008170371 A JP 2008170371A JP 2010011287 A JP2010011287 A JP 2010011287A
Authority
JP
Japan
Prior art keywords
video
sub
terminal device
data
video data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008170371A
Other languages
Japanese (ja)
Inventor
Hiromasa Hoshino
弘雅 星野
Seiji Hotta
誠司 堀田
Toshinari Suma
俊成 須間
Masanori Miko
正則 三皷
Daisuke Hayashi
大介 林
Tadataka Ueda
恭敬 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2008170371A priority Critical patent/JP2010011287A/en
Publication of JP2010011287A publication Critical patent/JP2010011287A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image transmission method allowing a user of one-side terminal device to appropriately and rapidly confirm that an image transmitted from the one-side terminal device is surely received by the other-side terminal device. <P>SOLUTION: In this image transmission method, a camera 100 transmits image data and a server 300 receives main image data thereof (S108); and the server 300 generates proxy image data corresponding to the received image data (S110), detects a delay time of data transmission/reception (S106), adjusts the data volume thereof so that the longer the detected delay time is, the more the data volume of the generated proxy image data is reduced (S110), and transmits the proxy image data to the camera 100; and the camera 100 receives the proxy image data from the server 300 (S112). <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、ビデオカメラなどの映像を記録する端末装置が、ネットワークを介し、記録した映像を遠隔地にある他の端末装置に送信する映像伝送方法に関する。   The present invention relates to a video transmission method in which a terminal device that records video such as a video camera transmits the recorded video to another terminal device at a remote location via a network.

近年、携帯電話やWiMAX(Worldwide Interoperability for Microwave Access)といった無線ネットワーク技術が急速に普及している。このような無線ネットワークを使用して、デジタルカメラで撮影した映像などのデジタルデータを送受信することが行われている。このような無線ネットワークによるデータ伝送の技術において、IP(Internet Protocol)技術がその代表として挙げられるように、データをパケット化して送受信を行うことが一般的となっている。パケット化は、ネットワークの帯域を効率よく複数のユーザで共有する有効な手段となっているものの、その時々の共有状況に応じて伝送レートが変動するため、パケット到着の遅延やパケット損失が発生する可能性がある。その結果、送信される映像に遅れや乱れが発生してしまう。   In recent years, wireless network technologies such as mobile phones and WiMAX (Worldwide Interoperability for Microwave Access) are rapidly spreading. Using such a wireless network, digital data such as video shot by a digital camera is transmitted and received. In such a data transmission technique using a wireless network, it is common to perform transmission / reception by packetizing data so that an IP (Internet Protocol) technique can be cited as a representative example. Although packetization is an effective means of efficiently sharing the network bandwidth among multiple users, the transmission rate varies depending on the sharing situation at that time, resulting in packet arrival delay and packet loss. there is a possibility. As a result, the transmitted video is delayed or disturbed.

そこで、ネットワーク上での通信異常を検出し、一方の端末装置から送信されて他方の端末装置で現に再生されている送信映像の状態を、その一方の端末装置で再現表示する仕組みが提案されている(例えば、特許文献1参照。)。   Therefore, a mechanism has been proposed in which a communication abnormality on the network is detected, and the state of the transmission video transmitted from one terminal device and actually reproduced on the other terminal device is reproduced and displayed on the one terminal device. (For example, refer to Patent Document 1).

具体的には、上記特許文献1の映像伝送方法では、映像の撮影、再生および送受信が可能な二つの端末装置が用いられる。これらの端末装置はそれぞれ、撮影して得られた映像を相手の端末装置に送信し、相手の端末装置から送信された映像を受信して再生する。さらに、それぞれの端末装置は、相手の端末装置から送信された映像とともに、自らの端末装置で撮影して得られた映像も確認用として再生する。その際、それぞれの端末装置は、ネットワーク状態の悪化によって生じる、受信した映像上の乱れなどを示す情報を相手の端末装置に送る。そして、それぞれの端末装置は、相手の端末装置からその情報を受け取ると、自らの端末装置で撮影して得られた確認用の映像の再生に、その受け取った情報により示される乱れなどを反映させる。   Specifically, in the video transmission method disclosed in Patent Document 1, two terminal devices capable of capturing, playing back, and transmitting and receiving video are used. Each of these terminal devices transmits a video obtained by photographing to the partner terminal device, and receives and reproduces the video transmitted from the partner terminal device. Further, each terminal device reproduces a video obtained by photographing with its own terminal device as well as a video transmitted from the partner terminal device for confirmation. At that time, each terminal device sends information indicating disturbance on the received video, which is caused by the deterioration of the network state, to the partner terminal device. When each terminal device receives the information from the partner terminal device, each terminal device reflects the disturbance or the like indicated by the received information in the reproduction of the confirmation video obtained by shooting with its own terminal device. .

こうすることで、それぞれの端末装置は、自らの端末装置から送信されて相手の端末装置で再生されている映像を、その自らの端末装置にてリアルタイムで再現表示できる。さらに、それぞれの端末装置のユーザは、お互いのネットワーク状態をリアルタイムで確認することができる。
特開2007−150916号公報
By doing so, each terminal device can reproduce and display the video transmitted from its own terminal device and reproduced by the other terminal device in real time on its own terminal device. Furthermore, the user of each terminal device can confirm each other's network state in real time.
JP 2007-150916 A

しかしながら、上記特許文献1の映像伝送方法では、一方の端末装置のユーザは、その一方の端末装置から送信された映像が他方の端末装置に確かに受信されているかを適切に確認することができないという問題がある。   However, in the video transmission method disclosed in Patent Document 1, the user of one terminal device cannot appropriately confirm whether the video transmitted from the one terminal device is reliably received by the other terminal device. There is a problem.

つまり、上記特許文献1の映像伝送方法では、一方の端末装置は、撮影して得られた映像を確認用に再生するが、その映像は、その一方の端末装置によって得られた映像そのものであって、他方の端末装置に実際に受信された映像ではない。また、その確認用の映像には、上述の情報に基づいて乱れが反映されるが、その乱れが反映されても、確認用の映像は、他方の端末装置に実際に受信されている映像ではなく、他方の端末装置に受信されている映像の模擬的な映像である。   That is, in the video transmission method of Patent Document 1, one terminal device reproduces a video obtained by shooting for confirmation, but the video is the video itself obtained by the one terminal device. Thus, the video is not actually received by the other terminal device. In addition, the confirmation video reflects disturbance based on the above information, but even if the disturbance is reflected, the confirmation video is not actually received by the other terminal device. It is a simulated video of the video received by the other terminal device.

そこで、例えば、一方の端末装置が送信して他方の端末装置に受信された映像を、その他方の端末装置から一方の端末装置に送り返してもらう映像伝送方法が想定される。この映像伝送方法では、一方の端末装置は、他方の端末装置に受信されて送り返された映像を受信して確認用の映像として再生する。したがって、一方の端末装置のユーザは、その一方の端末装置によって撮影されて得られた映像を、他方の端末装置に確かに受信されていることを確認することができる。   Thus, for example, a video transmission method is assumed in which a video transmitted from one terminal device and received by the other terminal device is sent back from the other terminal device to the one terminal device. In this video transmission method, one terminal device receives the video received and sent back by the other terminal device, and reproduces it as a confirmation video. Therefore, the user of one terminal device can confirm that the video obtained by photographing with the one terminal device is surely received by the other terminal device.

ところが、このような映像伝送方法であっても、他方の端末装置に受信されているか否かの確認に遅れが生じてしまうという問題がある。   However, even with such a video transmission method, there is a problem in that there is a delay in confirming whether or not the other terminal device is receiving.

このような問題について、上述の一方の端末装置がビデオカメラであり、他方の端末装置がサーバであるとして、以下に説明する。   Such a problem will be described below on the assumption that one terminal device described above is a video camera and the other terminal device is a server.

一般的に、ビデオカメラは、映像を記録する場合、映像を示す映像データをファイル化してDVD−R(Digital Versatile Disk Recordable)やSD(Secure Digital)(登録商標)カードなどのランダムアクセス可能な記録メディアへ記録する。そして、このようなビデオカメラは、その映像を送信する場合には、ファイル化された映像データである映像ファイルをその記録メディアから読み出して送信する。   In general, when a video camera records video, video data representing the video is converted into a file and recorded in a random accessible manner such as a DVD-R (Digital Versatile Disk Recordable) or SD (Secure Digital) (registered trademark) card. Record to media. Such a video camera, when transmitting the video, reads a video file, which is filed video data, from the recording medium and transmits it.

しかしながら、サーバは、一般的に、映像ファイルを利用する場合、その映像ファイルに元々格納されているデータをすべて受信しないと、その映像ファイルが途中までしか受信されていない、もしくは映像ファイルが壊れていると認識し、その映像ファイルを利用することができない。特に、ファイルのファイル形式には、SMPTE−377Mに準拠したMXF(Material eXchange Format)などがあり、そのファイル形式のファイルでは、そのファイルの先頭や末尾にあるヘッダやフッタに、そのファイルに格納しているデータの種類、フレーム周波数、およびデータサイズなどの情報が含まれている。したがって、パケット損失や送信中断により映像ファイルの送信が途中で切れると、サーバは、そのヘッダまたはフッタに含まれる情報を得ることができずに、その映像ファイルのデータの種類を判明できないことが起こり得る。   However, in general, when a server uses a video file, if all the data originally stored in the video file is not received, the video file is received only halfway or the video file is damaged. The video file cannot be used. In particular, the file format includes MXF (Material eXchange Format) conforming to SMPTE-377M, and the file format is stored in the header or footer at the beginning or end of the file. It contains information such as the type of data, frame frequency, and data size. Therefore, if transmission of a video file is interrupted due to packet loss or transmission interruption, the server cannot obtain the information contained in the header or footer and cannot determine the data type of the video file. obtain.

一方で、前述のように無線ネットワークでは、伝送レートが変動するため、パケット到着の遅延やパケット損失が必然的に発生する。   On the other hand, as described above, in the wireless network, the transmission rate fluctuates, so that packet arrival delay and packet loss inevitably occur.

したがって、ビデオカメラが撮影した映像をサーバに送信し、サーバがその映像を受信してビデオカメラに送り返すような映像伝送方法では、送受信される映像ファイルのデータ量が多いために伝送レートが低下し易く、パケットの遅延や損失が著しく生じることがある。さらに、上述のように、パケット損失が生じると、映像ファイルを利用することができないため、その損失したパケットを再送する必要がある。その結果、パケットの遅延、つまり、ビデオカメラにより再生される確認用の映像がさらに遅れてしまう。言い換えれば、ビデオカメラでは、撮影されて表示されている動画像に対して、サーバから送り返された確認用の動画像が大幅に遅れて再生されてしまう。   Therefore, in a video transmission method in which video captured by the video camera is transmitted to the server, and the server receives the video and sends it back to the video camera, the transmission rate decreases due to the large amount of data in the video file to be transmitted and received. This can easily cause packet delay and loss. Furthermore, as described above, if a packet loss occurs, the video file cannot be used, so that the lost packet needs to be retransmitted. As a result, the packet delay, that is, the confirmation video reproduced by the video camera is further delayed. In other words, in the video camera, the confirmation moving image sent back from the server is reproduced with a large delay with respect to the captured moving image.

これにより、ビデオカメラでは映像の撮影および送信がとっくに完了しているにもかかわらず、ビデオカメラのユーザは、確認用の映像の再生が終了するまで待たされることになる。   As a result, the video camera user waits until the reproduction of the confirmation video ends, although the video camera has completed the shooting and transmission of the video.

さらに、テレビ放送や映像制作業界においては、MPEG−2(ISO/IEC 13818)やDVCPRO−HD(SMPTE−370M)など、ビットレートが50Mbpsを越す高レートな映像データが扱われており、そのような映像データを送信して確認するには非常に長い時間を要してしまう。   Furthermore, in the television broadcasting and video production industries, high-rate video data with a bit rate exceeding 50 Mbps, such as MPEG-2 (ISO / IEC 13818) and DVCPRO-HD (SMPTE-370M), is handled. It takes a very long time to send and check video data.

このような問題は、例えば、ビデオカメラのユーザがそのビデオカメラで撮影されたニュース映像を、放送局に無線ネットワークを使って一刻も早くかつ確実に送信し、次の撮影に取りかかりたいというような場合に深刻となる。   Such a problem is, for example, that a video camera user wants to send a news video shot by the video camera to a broadcasting station as soon as possible using a wireless network, and start the next shooting. If you get serious.

そこで、本発明は、かかる問題に鑑みてなされたものであって、一方の端末装置から送信された映像が他方の端末装置に確かに受信されているかを、その一方の端末装置のユーザが適切で且つ迅速に確認することができる映像伝送方法を提供することを目的とする。   Therefore, the present invention has been made in view of such a problem, and the user of one terminal device appropriately determines whether the video transmitted from one terminal device is reliably received by the other terminal device. It is another object of the present invention to provide a video transmission method that can be confirmed quickly.

上記目的を達成するために、本発明に係る映像伝送方法は、第1および第2の端末装置の間で映像に関するデータを送受信する映像伝送方法であって、前記第1の端末装置が前記第2の端末装置に主映像を示す主映像データを送信する主映像送信ステップと、前記第2の端末装置が前記第1の端末装置から前記主映像データを受信する主映像受信ステップと、前記第2の端末装置が、受信した前記主映像データの示す主映像に対応する副映像を示す副映像データを生成する副映像生成ステップと、前記第2の端末装置が、前記第1の端末装置との間でのデータ送受信の遅延時間を検出する遅延時間検出ステップと、前記第2の端末装置が、検出した前記遅延時間が長いほど、前記副映像生成ステップで生成される副映像データのデータ量が少なくなるように前記データ量を調整する調整ステップと、前記第2の端末装置が前記第1の端末装置に前記副映像データを送信する副映像送信ステップと、前記第1の端末装置が前記第2の端末装置から前記副映像データを受信する副映像受信ステップとを含むことを特徴とする。ここで、前記調整ステップでは、前記第2の端末装置は、検出した前記遅延時間が長いほど、前記副映像データのデータ量を少なくして、前記副映像送信ステップで送信される前記副映像データのビットレートを低下させる。   In order to achieve the above object, a video transmission method according to the present invention is a video transmission method for transmitting and receiving data relating to a video between a first and a second terminal device, wherein the first terminal device is the first terminal device. A main video transmission step of transmitting main video data indicating the main video to the second terminal device; a main video reception step of receiving the main video data from the first terminal device by the second terminal device; A sub-picture generating step of generating sub-picture data indicating a sub-picture corresponding to the main video indicated by the received main video data; and the second terminal apparatus is configured to The amount of sub-picture data generated in the sub-picture generation step as the delay time detected by the second terminal device increases, Less An adjustment step of adjusting the data amount so that the second terminal device transmits the sub-video data to the first terminal device, and the first terminal device includes the first terminal device. And a sub-picture receiving step of receiving the sub-picture data from the two terminal devices. Here, in the adjustment step, the second terminal device decreases the sub video data amount as the detected delay time is longer, and transmits the sub video data transmitted in the sub video transmission step. Reduce the bit rate.

これにより、第1の端末装置が送信した主映像データが副映像データとして第2の端末装置から送り返されるため、第1の端末装置のユーザは、その送信された主映像データが第2の端末装置に確かに受信されていることを適切に確認することができる。さらに、データ送受信の遅延時間、つまり、第1および第2の端末装置がネットワークを介してデータの送受信をしているときには、ネットワークの遅延時間が検出され、その遅延時間が長いほど、第2の端末装置から第1の端末装置に送信される副映像データのデータ量が削減されるため、第1の端末装置によるその副映像データの受信が遅れるのを防ぐことができる。したがって、第1の端末装置のユーザは、第1の端末装置から送信された映像データが第2の端末装置に確かに受信されているかを、適切で且つ迅速に確認することができる。   Accordingly, since the main video data transmitted from the first terminal device is sent back as sub-video data from the second terminal device, the user of the first terminal device can send the transmitted main video data to the second terminal. It is possible to properly confirm that the device is surely receiving it. Furthermore, when the data transmission / reception delay time, that is, when the first and second terminal devices are transmitting / receiving data via the network, the network delay time is detected. Since the amount of sub-video data transmitted from the terminal device to the first terminal device is reduced, it is possible to prevent the reception of the sub-video data by the first terminal device from being delayed. Therefore, the user of the first terminal device can appropriately and quickly confirm whether the video data transmitted from the first terminal device is reliably received by the second terminal device.

また、前記副映像生成ステップでは、前記第2の端末装置は、前記主映像データの示す主映像の解像度を低下させることにより前記副映像データを生成することを特徴としてもよい。   Further, in the sub video generation step, the second terminal device may generate the sub video data by reducing the resolution of the main video indicated by the main video data.

これにより、主映像データの示す主映像が低解像度化されることにより、その主映像に対応する所謂プロキシ映像を示す副映像データが生成される。その結果、主映像データよりも副映像データの方がデータ量が少ないため、主映像データおよび副映像データの送受信によるトラフィックの輻輳を抑えることができ、その送受信の遅延をさらに抑えることができる。   As a result, the resolution of the main video indicated by the main video data is reduced, so that sub-video data indicating a so-called proxy video corresponding to the main video is generated. As a result, since the sub-video data has a smaller data amount than the main video data, it is possible to suppress traffic congestion due to transmission / reception of the main video data and sub-video data, and to further suppress the transmission / reception delay.

また、前記映像伝送方法は、さらに、前記第2の端末装置が、検出した前記遅延時間が予め定められたしきい値以上であるか否かを判別する遅延判別ステップを含み、前記調整ステップでは、前記第2の端末装置は、前記遅延判別ステップで前記遅延時間が前記しきい値以上であると判別したときに、前記副映像データのデータ量を、前記遅延時間が前記しきい値未満であったときの前記副映像データのデータ量よりも少なくすることを特徴としてもよい。   The video transmission method further includes a delay determination step in which the second terminal apparatus determines whether or not the detected delay time is equal to or greater than a predetermined threshold value. When the second terminal apparatus determines that the delay time is equal to or greater than the threshold value in the delay determination step, the second terminal apparatus determines the data amount of the sub-picture data to be less than the threshold value. The amount of sub-picture data may be smaller than the amount of sub-picture data at that time.

これにより、第2の端末装置は、遅延時間がしきい値以上になったときだけ、副映像データのデータ量を少なくすればいいので、複雑な制御を行うことなく、副映像データのデータ量を簡単に調整することができる。   As a result, the second terminal device only needs to reduce the data amount of the sub-picture data only when the delay time is equal to or greater than the threshold value. Can be adjusted easily.

また、前記遅延時間検出ステップでは、前記第2の端末装置は、前記第1の端末装置に第1のデータを送信し、前記データが前記第1の端末装置に受信されたことを通知するための第2のデータ(例えば、ACKパケット)を前記第1の端末装置から受信し、前記第1のデータが送信されてから前記第2のデータが受信されるまでの時間を計測することにより前記遅延時間を検出することを特徴としてもよい。例えば、前記遅延時間検出ステップでは、前記第2の端末装置は、前記副映像生成ステップで生成された前記副映像データを前記第1のデータとして前記第1の端末装置に送信する。つまり、第2の端末装置は、この遅延時間検出ステップで副映像データを第1の端末装置に送信して遅延時間を検出し、次に、主映像データを再び受信したときに、その主映像データに対応して生成すべき副映像データのデータ量を、先に検出しておいた遅延時間に応じて調整する。   In the delay time detecting step, the second terminal device transmits first data to the first terminal device, and notifies the first terminal device that the data has been received. Second data (for example, ACK packet) is received from the first terminal device, and the time from when the first data is transmitted to when the second data is received is measured. The delay time may be detected. For example, in the delay time detecting step, the second terminal device transmits the sub-video data generated in the sub-video generating step as the first data to the first terminal device. That is, the second terminal device transmits the sub-video data to the first terminal device in this delay time detection step to detect the delay time, and then receives the main video data again when the main video data is received again. The amount of sub-picture data to be generated corresponding to the data is adjusted according to the previously detected delay time.

これにより、実際にデータを送受信して遅延時間を計測するため、第2の端末装置はその遅延時間を正確に検出することができる。   Thereby, since data is actually transmitted / received and delay time is measured, the 2nd terminal device can detect the delay time correctly.

また、前記調整ステップでは、前記第2の端末装置は、受信した前記主映像データを構成する複数のピクチャから何れかのピクチャを間引くことにより、前記副映像データのデータ量を少なくする。   In the adjustment step, the second terminal apparatus reduces the data amount of the sub-picture data by thinning out any picture from a plurality of pictures constituting the received main picture data.

これにより、副映像データを生成する前に、その副映像データの元になる主映像データからピクチャが間引かれるため、副映像データを生成した後にその副映像データのデータ量を削減するよりも、副映像データを生成するための処理負担を軽減することができる。   As a result, since the picture is thinned out from the main video data that is the source of the sub-video data before the sub-video data is generated, the amount of data of the sub-video data is reduced after the sub-video data is generated. The processing load for generating sub-picture data can be reduced.

また、前記映像伝送方法は、さらに、前記第1の端末装置が、受信した前記副映像データの示す副映像の画質がしきい値未満となっている、前記副映像データの時間軸上の区間を低画質区間として特定する区間特定ステップと、前記第1の端末装置が、特定した前記低画質区間を示す区間情報を記録媒体に記録する記録ステップとを含むことを特徴としてもよい。例えば、前記区間特定ステップでは、前記第1の端末装置は、前記副映像データを受信している間、前記副映像データのビットレートを検出し、前記ビットレートがレートしきい値未満となっている区間を前記低画質区間として特定する。   The video transmission method may further include a section on the time axis of the sub-video data in which the first terminal device has an image quality of the sub-video indicated by the received sub-video data that is less than a threshold value. May be included as a low image quality section, and a recording step in which the first terminal device records section information indicating the specified low image quality section on a recording medium. For example, in the section specifying step, the first terminal device detects a bit rate of the sub video data while receiving the sub video data, and the bit rate becomes less than a rate threshold value. Is specified as the low image quality interval.

これにより、区間情報が記録媒体に記録されているため、第1の端末装置のユーザは、その区間情報の示す低画質区間を確認することができる。例えば、第1の端末装置が副映像データを再生して副映像を表示しているときに低画質区間があっても、ユーザはその低画質区間を十分に確認することができない場合がある。このような場合に、ユーザは記録されている区間情報を使って低画質区間を確認することができる。   Thereby, since the section information is recorded on the recording medium, the user of the first terminal device can confirm the low image quality section indicated by the section information. For example, even when there is a low-quality section when the first terminal device reproduces sub-picture data and displays a sub-picture, the user may not be able to fully check the low-quality section. In such a case, the user can confirm the low image quality section using the recorded section information.

また、前記映像伝送方法は、さらに、前記第1の端末装置が、前記記録媒体から前記区間情報を読み出す区間読出ステップと、前記第1の端末装置が、読み出した前記区間情報により示される低画質区間に対応する前記主映像データの区間の主映像を表示する区間表示ステップとを含むことを特徴としてもよい。   The video transmission method may further include a section reading step in which the first terminal device reads the section information from the recording medium, and a low image quality indicated by the section information read out by the first terminal device. And a section display step for displaying a main video of the section of the main video data corresponding to the section.

これにより、第1の端末装置のユーザは、低画質区間に対応する主映像データの区間の主映像を確認することができる。したがって、その主映像データが第1の端末装置に記録されていれば、ユーザは、その確認結果に基づいて、その区間の主映像は重要だから、その主映像データを保存しておくべきと判断したり、その区間の主映像は重要でないから、その主映像データを削除してもよいと判断することができる。このように、ユーザの利便性を向上することができる。   Thereby, the user of the first terminal device can confirm the main video in the section of the main video data corresponding to the low image quality section. Therefore, if the main video data is recorded in the first terminal device, the user determines that the main video data should be saved because the main video of the section is important based on the confirmation result. It is possible to determine that the main video data may be deleted because the main video of the section is not important. Thus, user convenience can be improved.

また、前記映像伝送方法は、さらに、前記第1の端末装置が撮影することにより前記主映像データを生成する主映像生成ステップを含むことを特徴としてもよい。   The video transmission method may further include a main video generation step of generating the main video data by photographing with the first terminal device.

これにより、第1の端末装置のユーザは、第1の端末装置をビデオカメラとして利用し、そのビデオカメラで撮影して得られた主映像データを、第2の端末装置であるサーバなどに送信することができる。   Thereby, the user of the first terminal device uses the first terminal device as a video camera, and transmits the main video data obtained by shooting with the video camera to a server or the like as the second terminal device. can do.

また、前記映像伝送方法は、さらに、前記第1の端末装置が、撮影により生成される前記主映像データの主映像と、受信する前記副映像データの副映像とを表示する映像表示ステップを含むことを特徴としてもよい。   The video transmission method further includes a video display step in which the first terminal device displays a main video of the main video data generated by shooting and a sub-video of the received sub-video data. This may be a feature.

これにより、第1の端末装置のユーザは、主映像と副映像とを比較して見ることができ、撮影されている映像と、第2の端末装置で受信されている映像とを同時に確認することができる。さらに、ユーザは、副映像が主映像からどれだけ遅れているかを容易に把握することができる。つまり、ユーザは、第2の端末装置で受信される主映像データの進行状況を、その第1の端末装置に表示される副映像を見て容易に把握することができる。   As a result, the user of the first terminal device can view the main video and the sub-video in comparison, and simultaneously confirms the video being shot and the video received by the second terminal device. be able to. Furthermore, the user can easily grasp how much the sub-video is delayed from the main video. That is, the user can easily grasp the progress status of the main video data received by the second terminal device by viewing the sub-video displayed on the first terminal device.

なお、本発明は、このような映像伝送方法として実現することができるだけでなく、その方法に用いられる端末装置や、集積回路、その端末装置がデータを送受信する方法、その方法でデータを送受信するためのプログラム、そのプログラムを格納する記憶媒体としても実現することができる。   The present invention can be realized not only as such a video transmission method but also as a terminal device used in the method, an integrated circuit, a method of transmitting / receiving data by the terminal device, and transmitting / receiving data by the method. The present invention can also be realized as a program for storing the program and a storage medium for storing the program.

本発明に係る映像伝送方法では、一方の端末装置から送信された映像が他方の端末装置に確かに受信されているかを、その一方の端末装置のユーザが適切で且つ迅速に確認することができるという作用効果を奏する。   In the video transmission method according to the present invention, the user of one terminal device can appropriately and quickly confirm whether the video transmitted from one terminal device is reliably received by the other terminal device. There is an operational effect.

以下、本発明の実施の形態について図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の実施の形態における映像伝送システムの構成を示す図である。   FIG. 1 is a diagram showing a configuration of a video transmission system according to an embodiment of the present invention.

この映像伝送システム10は、無線ネットワーク400を介して互いに通信するカメラ100とサーバ300とを備えている。   The video transmission system 10 includes a camera 100 and a server 300 that communicate with each other via a wireless network 400.

カメラ100は、撮影することによって動画像を示す映像データを生成し、その映像データを記録メディアに記録する。ここで、映像データは、符号化された複数のピクチャからなる。つまり、カメラ100は、映像データを構成する上述のピクチャを生成するごとに、そのピクチャを記録メディアに順次記録する。   The camera 100 generates video data indicating a moving image by shooting, and records the video data on a recording medium. Here, the video data is composed of a plurality of encoded pictures. That is, every time the above-described picture constituting the video data is generated, the camera 100 sequentially records the picture on the recording medium.

なお、上述の映像データの示す動画像を、以下、撮影映像という。また、本実施の形態では、カメラ100は第1の端末装置に相当し、映像データおよび撮影映像は、それぞれ主映像データおよび主映像に相当する。   Hereinafter, the moving image indicated by the video data is referred to as a captured video. In the present embodiment, camera 100 corresponds to a first terminal device, and video data and captured video correspond to main video data and main video, respectively.

さらに、カメラ100は、無線通信機能を有し、無線ネットワーク400を介して、その生成した映像データをサーバ300に送信する。具体的には、カメラ100は、映像データを構成するデータ単位を生成するごとに、そのデータ単位をパケット化してサーバ300に送信する。つまり、映像データは、複数のパケットに分けられ、ストリームとしてサーバ300に送信される。   Furthermore, the camera 100 has a wireless communication function, and transmits the generated video data to the server 300 via the wireless network 400. Specifically, every time the data unit forming the video data is generated, the camera 100 packetizes the data unit and transmits the packet to the server 300. That is, the video data is divided into a plurality of packets and transmitted to the server 300 as a stream.

また、カメラ100は、映像データを生成しながら、その生成される映像データをリアルタイムで再生することにより撮影映像を表示する。具体的には、カメラ100は、映像データを構成するピクチャを生成するごとに、既に生成されているピクチャを順次再生する。   In addition, the camera 100 displays the captured video by reproducing the generated video data in real time while generating the video data. Specifically, the camera 100 sequentially reproduces the already generated pictures every time a picture constituting the video data is generated.

さらに、カメラ100は、無線ネットワーク400を介してサーバ300から後述するプロキシ映像データを受信すると、そのプロキシ映像データを再生することにより、そのプロキシ映像データにより示される動画像(以下、プロキシ映像という)を、上述の撮影映像とともに表示する。ここで、プロキシ映像データは、そのプロキシ映像データを構成するデータ単位ごとにパケット化されて、ストリームとしてカメラ100に送信されている。つまり、カメラ100は、プロキシ映像データのパケットを順次受信して、それらのパケットからピクチャを構成するごとに、そのピクチャを撮影映像のピクチャよりも小さいサイズで表示する。   Furthermore, when the camera 100 receives proxy video data (to be described later) from the server 300 via the wireless network 400, the camera 100 reproduces the proxy video data, thereby moving a moving image (hereinafter referred to as proxy video) indicated by the proxy video data. Are displayed together with the above-described captured video. Here, the proxy video data is packetized for each data unit constituting the proxy video data and transmitted to the camera 100 as a stream. That is, the camera 100 sequentially receives packets of proxy video data, and each time a picture is formed from these packets, the picture is displayed in a size smaller than the picture of the shot video.

なお、本実施の形態では、プロキシ映像データおよびプロキシ映像は、それぞれ副映像データおよび副映像に相当する。   In the present embodiment, proxy video data and proxy video correspond to sub-video data and sub-video, respectively.

サーバ300は、無線ネットワーク400を介してカメラ100から送信される映像データを受信すると、その映像データをプロキシ映像データに変換する。プロキシ映像データは、複数の符号化されたピクチャからなり、そのピクチャの画素数は、映像データのピクチャの画素数よりも少ない。つまり、サーバ300は、映像データのピクチャを復号して低解像度化し、さらに符号化することにより、その映像データをプロキシ映像データに変換している。   When the server 300 receives the video data transmitted from the camera 100 via the wireless network 400, the server 300 converts the video data into proxy video data. The proxy video data is composed of a plurality of encoded pictures, and the number of pixels of the picture is smaller than the number of pixels of the picture of the video data. That is, the server 300 converts the video data into proxy video data by decoding a picture of the video data to reduce the resolution and further encoding the picture.

そして、サーバ300は、そのプロキシ映像データを所定のデータ単位ごとにパケット化して、各パケットをカメラ100に順次送信する。   Then, the server 300 packetizes the proxy video data for each predetermined data unit, and sequentially transmits each packet to the camera 100.

なお、本実施の形態では、サーバ300は第2の端末装置に相当する。   In the present embodiment, server 300 corresponds to a second terminal device.

このような映像伝送システム10では、カメラ100が映像データを生成してサーバ300に送信し、サーバ300がその映像データをプロキシ映像データに変換してカメラ100に送り返し、カメラ100にプロキシ映像を表示させている。これにより、カメラ100のユーザは、カメラ100に表示されるプロキシ映像を見ることによって、カメラ100から送信された映像データがサーバ300に受信されていることを確認することができる。   In such a video transmission system 10, the camera 100 generates video data and transmits it to the server 300. The server 300 converts the video data into proxy video data and sends it back to the camera 100, and displays the proxy video on the camera 100. I am letting. Accordingly, the user of the camera 100 can confirm that the video data transmitted from the camera 100 is received by the server 300 by viewing the proxy video displayed on the camera 100.

また、本実施の形態では、サーバ300がプロキシ映像データのデータ量を調整してそのビットレートを制御する点に特徴があり、これによって、プロキシ映像の表示が撮影映像の表示から遅れるのを防ぐことができる。   Further, the present embodiment is characterized in that the server 300 adjusts the data amount of the proxy video data and controls the bit rate, thereby preventing the proxy video display from being delayed from the captured video display. be able to.

以下、本実施の形態におけるカメラ100およびサーバ300の構成および動作を詳細に説明する。   Hereinafter, configurations and operations of the camera 100 and the server 300 in the present embodiment will be described in detail.

図2は、本実施の形態におけるカメラ100の構成を示すブロック図である。   FIG. 2 is a block diagram showing a configuration of the camera 100 in the present embodiment.

このカメラ100は、システム制御部110と、I/Oバス120と、記録メディア131と、記録メディアI/F部130と、入力部140と、表示部141と、映像入力部143と、映像エンコーダ142と、映像デコーダ144と、送受信部150とを含む。   The camera 100 includes a system control unit 110, an I / O bus 120, a recording medium 131, a recording medium I / F unit 130, an input unit 140, a display unit 141, a video input unit 143, and a video encoder. 142, a video decoder 144, and a transmission / reception unit 150.

入力部140は、撮影の開始または終了の指示をユーザから受け付ける。   The input unit 140 receives an instruction to start or end shooting from the user.

I/Oバス120は、カメラ100に含まれる上記各構成要素間におけるデータの入力および出力を可能にする。   The I / O bus 120 enables data input and output between the above-described components included in the camera 100.

送受信部150は、WiMAXなどによって無線ネットワーク400に接続し、記録メディア131に格納されている上述の映像データをパケット化してサーバ300に送信したり、パケット化されたプロキシ映像データをサーバ300から受信したりする。また、送受信部150は、サーバ300から受信したプロキシ映像データをシステム制御部110に出力する。   The transmission / reception unit 150 is connected to the wireless network 400 by WiMAX or the like, packetizes the above-described video data stored in the recording medium 131 and transmits the packetized data to the server 300, or receives packetized proxy video data from the server 300. To do. Further, the transmission / reception unit 150 outputs the proxy video data received from the server 300 to the system control unit 110.

さらに、送受信部150は、サーバ300との間で行われる通信のプロトコルとして、例えばTCP(Transmission Control Protocol)を用い、サーバ300からプロキシ映像データのパケットを正しく受信すると、正しく受け取ったことを通知するためのACK(ACKnowledgement)パケットをサーバ300に送信する。   Further, the transmission / reception unit 150 uses, for example, TCP (Transmission Control Protocol) as a protocol for communication with the server 300, and when the proxy video data packet is correctly received from the server 300, the transmission / reception unit 150 notifies that the packet has been correctly received. ACK (ACKnowledgement) packet is transmitted to server 300.

記録メディア131は、例えばPCMCIA(Personal Computer Memory Card International Association)によって定められた形状であって、カメラ100に着脱可能に構成されている。つまり、記録メディア131は、カメラ100に設けられた記録メディア装着部としてのカードスロットに挿入されることにより、記録メディアI/F部130と接続する。また、記録メディア131はFAT(File Allocation Tables)16などのファイルシステムでフォーマットされている。   The recording medium 131 has a shape determined by, for example, PCMCIA (Personal Computer Memory Card International Association), and is configured to be detachable from the camera 100. That is, the recording medium 131 is connected to the recording medium I / F unit 130 by being inserted into a card slot as a recording medium mounting unit provided in the camera 100. The recording medium 131 is formatted by a file system such as FAT (File Allocation Tables) 16.

記録メディアI/F部130は、カードバス規格に準拠しており、記録メディア131と接続する。そして、記録メディアI/F部130は、システム制御部110と記録メディア131との間のインタフェースを図る。   The recording medium I / F unit 130 conforms to the card bus standard and is connected to the recording medium 131. The recording media I / F unit 130 serves as an interface between the system control unit 110 and the recording medium 131.

映像入力部143は、例えばCCD(Charge Coupled Devices)などを備えて構成されており、光信号を電気信号である映像信号に変換して、その映像信号を映像エンコーダ142に出力する。   The video input unit 143 includes, for example, a CCD (Charge Coupled Devices) and the like, converts an optical signal into a video signal that is an electrical signal, and outputs the video signal to the video encoder 142.

映像エンコーダ142は、映像入力部143から出力された映像信号を取得し、その映像信号を圧縮符号化する。その結果、映像エンコーダ142は、例えばDVCPRO−HD(SMPTE−370M)形式の圧縮データを上述の映像データとして出力する。   The video encoder 142 acquires the video signal output from the video input unit 143 and compresses and encodes the video signal. As a result, the video encoder 142 outputs, for example, compressed data in the DVCPRO-HD (SMPTE-370M) format as the above-described video data.

映像デコーダ144は、記録メディア131に格納されている映像データを復号して、その復号された映像データを表示部141に出力する。さらに、映像デコーダ144は、送受信部150からシステム制御部110を介してプロキシ映像データを取得すると、そのプロキシ映像データも符号化されているため、そのプロキシ映像データを復号し、その復号されたプロキシ映像データを表示部141に出力する。   The video decoder 144 decodes the video data stored in the recording medium 131 and outputs the decoded video data to the display unit 141. Further, when the video decoder 144 obtains the proxy video data from the transmission / reception unit 150 via the system control unit 110, the proxy video data is also encoded. Therefore, the video decoder 144 decodes the proxy video data, and the decoded proxy Video data is output to the display unit 141.

表示部141は、例えば液晶画面を有し、映像デコーダ144から復号された映像データを取得すると、その映像データの示す撮影映像を表示する。さらに、表示部141は、映像デコーダ144から復号されたプロキシ映像データを取得すると、そのプロキシ映像データの示すプロキシ映像を表示する。ここで、表示部141は、撮影映像を表示しているときに、プロキシ映像を表示するときには、例えば、撮影映像の隅にプロキシ映像を表示する。   The display unit 141 has, for example, a liquid crystal screen. When the video data decoded from the video decoder 144 is acquired, the display unit 141 displays a captured video indicated by the video data. Further, when the display unit 141 acquires the proxy video data decoded from the video decoder 144, the display unit 141 displays the proxy video indicated by the proxy video data. Here, the display unit 141 displays the proxy video in the corner of the captured video, for example, when displaying the proxy video while displaying the captured video.

システム制御部110は、例えばCPU(Central Processing Unit)とメモリとを含むコンピュータによって実現され、カメラ100に含まれる各構成要素を制御する。このシステム制御部110は、機能的な構成要素として、映像ファイル処理部111と、ファイルシステム管理部112とを備えている。   The system control unit 110 is realized by a computer including, for example, a CPU (Central Processing Unit) and a memory, and controls each component included in the camera 100. The system control unit 110 includes a video file processing unit 111 and a file system management unit 112 as functional components.

なお、これらの機能的な構成要素は、CPUが各種のプログラムを実行することによって実現される。また、システム制御部110に含まれる各メモリの実現形態は、1つの実現形態に限定されるものではない。例えば、システム制御部110は、用途ごとにそれぞれメモリを備えてもよく、単一のメモリだけを備えて、用途ごとにそのメモリの領域を分けて使ってもよい。   These functional components are realized by the CPU executing various programs. In addition, the implementation form of each memory included in the system control unit 110 is not limited to one implementation form. For example, the system control unit 110 may include a memory for each use, or may include only a single memory and use the memory area separately for each use.

ファイルシステム管理部112は、記録メディア131に映像データがファイルとして書き込まれるときには、そのファイルを管理するためのFATの管理情報を更新する。   When video data is written as a file on the recording medium 131, the file system management unit 112 updates FAT management information for managing the file.

映像ファイル処理部111は、入力部140に撮影開始の指示が受け付けられると、映像入力部143および映像エンコーダ142に上述の処理を実行させて、映像データ(DVCPRO−HDの圧縮データ)を出力させる。そして、映像ファイル処理部111は、入力部140に撮影終了の指示が受け付けられると、映像入力部143および映像エンコーダ142に上述の処理を終了させて、映像データの出力を停止させる。ここで、映像ファイル処理部111は、映像データが出力されてから停止されるまでの間、ファイルシステム管理部112にFATの管理情報を更新させながら、その映像データをファイルとして記録メディア131に書き込んでいく。   When the input unit 140 receives an instruction to start shooting, the video file processing unit 111 causes the video input unit 143 and the video encoder 142 to execute the above-described processing, and outputs video data (DVCPRO-HD compressed data). . When the video file processing unit 111 receives an instruction to end shooting, the video input processing unit 143 and the video encoder 142 terminate the above-described processing and stop outputting video data. Here, the video file processing unit 111 writes the video data as a file to the recording medium 131 while updating the FAT management information in the file system management unit 112 from when the video data is output until it is stopped. Go.

つまり、映像ファイル処理部111は、撮影開始の指示があった場合には、ファイルシステム管理部112を介して、ファイルをオープンし、そのファイルに映像データを記録していく。そして、映像ファイル処理部111は、撮影終了の指示があった場合には、そのファイルをクローズする。このような一連の記録動作の実行によって、映像データが映像ファイルとして新規に記録メディア131に作成される。   That is, when there is an instruction to start shooting, the video file processing unit 111 opens a file via the file system management unit 112 and records video data in the file. Then, when there is an instruction to end shooting, the video file processing unit 111 closes the file. By executing such a series of recording operations, video data is newly created on the recording medium 131 as a video file.

また、映像ファイル処理部111は、記録メディア131への映像データの書き込みと並行して、ファイルシステム管理部112を介して、記録メディア131からの映像データの読み出しを行い、その映像データを送受信部150からサーバ300に送信させるとともに、その映像データの復号を映像デコーダ144に実行させる。さらに、映像ファイル処理部111は、送受信部150にプロキシ映像データが受信されると、そのプロキシ映像データの復号も映像デコーダ144に実行させる。その結果、表示部141に、撮影映像とプロキシ映像とが表示される。   In parallel with the writing of the video data to the recording medium 131, the video file processing unit 111 reads the video data from the recording medium 131 via the file system management unit 112 and transmits the video data to the transmission / reception unit. 150 transmits the data to the server 300 and causes the video decoder 144 to decode the video data. Furthermore, when the proxy video data is received by the transmission / reception unit 150, the video file processing unit 111 also causes the video decoder 144 to execute decoding of the proxy video data. As a result, the captured image and the proxy image are displayed on the display unit 141.

図3は、表示部141に表示される撮影映像とプロキシ映像の一例を示す図である。   FIG. 3 is a diagram illustrating an example of a captured video and a proxy video displayed on the display unit 141.

表示部141は、例えば図3に示すように、映像データの示す撮影映像V1を画面全体に表示し、プロキシ映像データの示すプロキシ映像V2を、画面の右隅(図3に向かって右隅)に、撮影映像V1の一部に重畳させて表示する。   For example, as shown in FIG. 3, the display unit 141 displays a captured video V1 indicated by the video data on the entire screen, and displays the proxy video V2 indicated by the proxy video data on the right corner of the screen (right corner as viewed in FIG. 3). And superimposed on a part of the photographed video V1.

カメラ100のユーザは、このような表示部141に表示される撮影映像V1とプロキシ映像V2を見ることにより、カメラ100によって撮影されて記録されている映像と、サーバ300に受信されている映像とを確認することができる。さらに、ユーザは、現時点において表示されている撮影映像V1とプロキシ映像V2とが異なっている場合には、サーバ300に受信されている映像データが、カメラ100で記録されている映像データよりも遅れていることを把握することができる。また、ユーザは、現時点において表示されているプロキシ映像V2と、そのプロキシ映像V2に対応する過去の時点に表示された撮影映像V1との時間差から、映像データの受信がどの程度遅れているかを確認することができる。   The user of the camera 100 views the captured video V1 and the proxy video V2 displayed on the display unit 141 as described above, and the video captured and recorded by the camera 100 and the video received by the server 300 Can be confirmed. Further, when the captured video V1 and the proxy video V2 displayed at the present time are different, the user delays the video data received by the server 300 from the video data recorded by the camera 100. I can grasp that. Further, the user confirms how much the reception of the video data is delayed from the time difference between the proxy video V2 currently displayed and the captured video V1 displayed at the past time corresponding to the proxy video V2. can do.

図4は、本実施の形態におけるサーバ300の構成を示すブロック図である。   FIG. 4 is a block diagram showing a configuration of server 300 in the present embodiment.

このサーバ300は、システム制御部310と、I/Oバス320と、記録メディア330と、映像エンコーダ341と、映像デコーダ340と、送受信部350とを含む。   The server 300 includes a system control unit 310, an I / O bus 320, a recording medium 330, a video encoder 341, a video decoder 340, and a transmission / reception unit 350.

記録メディア330は、例えばHDD(Hard Disk Drive)のような大容量でランダムアクセス可能な記録メディアであって、NTFS(New Technology File System)などのファイルシステムでフォーマットされている。   The recording medium 330 is a large-capacity, randomly accessible recording medium such as an HDD (Hard Disk Drive), and is formatted by a file system such as NTFS (New Technology File System).

I/Oバス320は、サーバ300に含まれる上記各構成要素間におけるデータの入力および出力を可能にする。   The I / O bus 320 enables data input and output between the above-described components included in the server 300.

映像デコーダ340は、記録メディア330に格納されている映像データを復号して、その復号された映像データを映像エンコーダ341に出力する。   The video decoder 340 decodes the video data stored in the recording medium 330 and outputs the decoded video data to the video encoder 341.

映像エンコーダ341は、映像デコーダ340から復号された映像データを取得すると、その復号された映像データに対して、低解像度化を行うとともに、カメラ100で用いられた圧縮形式(例えばDVCPRO−HD(SMPTE−370M))よりも高い圧縮率の圧縮形式で符号化を行う。例えば、映像エンコーダ341は、その復号された映像データの画像サイズをQVGA(Quarter VGA)サイズに低解像度化してから、その低解像度化された映像データをMPEG−4(ISO/IEC 14496)形式で符号化することによって、画像サイズがQVGAサイズの圧縮データを上述のプロキシ映像データとして生成して出力する。   When the video encoder 341 obtains the decoded video data from the video decoder 340, the video encoder 341 reduces the resolution of the decoded video data and uses a compression format (for example, DVCPRO-HD (SMPTE) used in the camera 100. Encoding is performed in a compression format with a higher compression ratio than -370M)). For example, the video encoder 341 reduces the image size of the decoded video data to a QVGA (Quarter VGA) size, and then converts the reduced video data in the MPEG-4 (ISO / IEC 14496) format. By encoding, compressed data having an image size of QVGA is generated and output as the proxy video data.

送受信部350は、カメラ100から無線ネットワーク400を介して送信された映像データを受信してシステム制御部310に出力する。   The transmission / reception unit 350 receives video data transmitted from the camera 100 via the wireless network 400 and outputs the video data to the system control unit 310.

さらに、送受信部350は、記録メディア330に格納されるプロキシ映像データをパケット化し、無線ネットワーク400を介して、そのプロキシ映像データのパケットをカメラ100に順次送信する。また、送受信部350は、送信したプロキシ映像データのパケットに対してカメラ100からACKパケットが送信されると、そのACKパケットを受信する。そして、送受信部350は、プロキシ映像データのパケットの送信のタイミングと、そのパケットに対応するACKパケットの受信のタイミングとをシステム制御部310に通知する。   Further, the transmission / reception unit 350 packetizes the proxy video data stored in the recording medium 330 and sequentially transmits the proxy video data packets to the camera 100 via the wireless network 400. In addition, when an ACK packet is transmitted from the camera 100 to the transmitted proxy video data packet, the transmission / reception unit 350 receives the ACK packet. Then, the transmission / reception unit 350 notifies the system control unit 310 of the transmission timing of the proxy video data packet and the reception timing of the ACK packet corresponding to the packet.

システム制御部310は、例えばCPUとメモリとを含むコンピュータによって実現され、サーバ300に含まれる各構成要素を制御する。このシステム制御部310は、機能的な構成要素として、映像ファイル処理部311と、ファイルシステム管理部312と、送受信状況確認部313と、フレーム間引部314とを備えている。   The system control unit 310 is realized by a computer including a CPU and a memory, for example, and controls each component included in the server 300. The system control unit 310 includes a video file processing unit 311, a file system management unit 312, a transmission / reception status confirmation unit 313, and a frame thinning unit 314 as functional components.

なお、これらの機能的な構成要素の実現方法や、システム制御部310に含まれる各メモリの実現形態は、カメラ100のシステム制御部110の実現方法または実現形態と同様である。   Note that the implementation method of these functional components and the implementation form of each memory included in the system control unit 310 are the same as the implementation method or implementation form of the system control unit 110 of the camera 100.

ファイルシステム管理部312は、記録メディア330に映像データやプロキシ映像データがファイルとして書き込まれるときには、それらのファイルを管理するためのファイルシステムの管理情報を更新する。   When video data or proxy video data is written as a file on the recording medium 330, the file system management unit 312 updates management information of the file system for managing those files.

映像ファイル処理部311は、ファイルシステム管理部312にファイルシステムの管理情報を更新させながら、映像エンコーダ341から出力されるプロキシ映像データをファイルとして記録メディア330に書き込む。また、映像ファイル処理部311は、上述のプロキシ映像データの書き込みと並行して、ファイルシステム管理部312を介して、記録メディア330からのプロキシ映像データの読み出しを実行し、そのプロキシ映像データを送受信部350に出力する。   The video file processing unit 311 writes the proxy video data output from the video encoder 341 to the recording medium 330 as a file while causing the file system management unit 312 to update the management information of the file system. The video file processing unit 311 reads proxy video data from the recording medium 330 via the file system management unit 312 in parallel with the writing of the proxy video data described above, and transmits and receives the proxy video data. To the unit 350.

さらに、映像ファイル処理部311は、送受信部350から映像データを取得すると、ファイルシステム管理部312にファイルシステムの管理情報を更新させながら、その映像データをファイルとし記録メディア330に書き込む。また、映像ファイル処理部311は、上述の映像データの書き込みと並行して、ファイルシステム管理部312を介して、記録メディア330からの映像データの読み出しを実行し、その映像データを映像デコーダ340に出力する。   Further, when the video file processing unit 311 acquires the video data from the transmission / reception unit 350, the video file processing unit 311 writes the video data as a file to the recording medium 330 while the file system management unit 312 updates the management information of the file system. The video file processing unit 311 reads the video data from the recording medium 330 via the file system management unit 312 in parallel with the video data writing described above, and sends the video data to the video decoder 340. Output.

送受信状況確認部313は、送受信部350から通知されるタイミングに基づいて、プロキシ映像データのパケットが送信されてから、そのパケットに対応するACKパケットが受信されるまでの時間を計測することにより、無線ネットワーク400を介したデータ送受信の遅延時間を検出する。   Based on the timing notified from the transmission / reception unit 350, the transmission / reception status confirmation unit 313 measures the time from when the proxy video data packet is transmitted until the ACK packet corresponding to the packet is received, A delay time of data transmission / reception via the wireless network 400 is detected.

フレーム間引部314は、上述のように検出された遅延時間がしきい値以上であるか否かを判別し、しきい値以上であると判別すると、映像エンコーダ341により生成されるプロキシ映像データのピクチャ(またはフレーム)を間引く。具体的には、フレーム間引部314は、映像エンコーダ341に取得される復号された映像データに含まれるピクチャを間引き、残されたピクチャに対する低解像度化および符号化をその映像エンコーダ341に実行させる。例えば、フレーム間引部314は、映像データに含まれるピクチャを1ピクチャおきに間引き、2倍速再生に利用されるようなピクチャだけを残し、その残されたピクチャに対する低解像度化などを映像エンコーダ341に実行させる。以下、このようにピクチャが間引かれる処理をフレーム間引という。   The frame decimation unit 314 determines whether or not the delay time detected as described above is equal to or greater than a threshold value. If it is determined that the delay time is equal to or greater than the threshold value, proxy video data generated by the video encoder 341 is determined. Thin out the picture (or frame). Specifically, the frame thinning unit 314 thins out the pictures included in the decoded video data acquired by the video encoder 341, and causes the video encoder 341 to reduce the resolution and encode the remaining pictures. . For example, the frame decimation unit 314 decimates every other picture included in the video data, leaves only a picture that is used for double-speed playback, and performs video encoder 341 to reduce the resolution of the remaining picture. To run. Hereinafter, the process of thinning pictures in this way is referred to as frame thinning.

したがって、プロキシ映像データに含まれる各ピクチャは、送受信部350からカメラ100に順次送信されるが、遅延時間がしきい値以上になると、例えば、2枚に1枚の割合で間引かれて送信される。つまり、プロキシ映像データのビットレートが1/2に低下する。   Accordingly, each picture included in the proxy video data is sequentially transmitted from the transmission / reception unit 350 to the camera 100. When the delay time is equal to or greater than a threshold value, for example, one picture is thinned out at a rate of two and transmitted. Is done. That is, the bit rate of proxy video data is reduced to ½.

さらに、フレーム間引部314は、しきい値以上になっていた遅延時間がしきい値未満になると、上述のフレーム間引を終了する。   Further, the frame thinning unit 314 ends the above-described frame thinning when the delay time that is equal to or greater than the threshold value becomes less than the threshold value.

なお、フレーム間引部314は、予め定められた上述のしきい値を保持していてもよく、利用される無線ネットワーク400の帯域に応じて適応的にしきい値を変更してもよい。   Note that the frame thinning unit 314 may hold a predetermined threshold value as described above, or may adaptively change the threshold value according to the band of the wireless network 400 to be used.

ここで、サーバ300の送受信状況確認部313による遅延時間の検出について詳細に説明する。   Here, the detection of the delay time by the transmission / reception status confirmation unit 313 of the server 300 will be described in detail.

図5は、カメラ100とサーバ300との間におけるパケットの送受信を示すシーケンス図である。   FIG. 5 is a sequence diagram showing packet transmission / reception between the camera 100 and the server 300.

カメラ100は、映像データのパケットa1,a2,…,anをサーバ300に順次送信する。   The camera 100 sequentially transmits video data packets a1, a2,..., An to the server 300.

次に、サーバ300は、それらのパケットa1,a2,…,anを受信すると、それらのパケットa1,a2,…,anに対応するプロキシ映像データのパケットb1,b2,…,bmを生成してカメラ100に順次送信する。   Next, when receiving the packets a1, a2,..., An, the server 300 generates proxy video data packets b1, b2,..., Bm corresponding to the packets a1, a2,. It transmits to the camera 100 sequentially.

ここで、サーバ300は、プロキシ映像データのパケットを順次送信するときには、パケットを送信して、カメラ100からそのパケットに対して送信されたACKパケットを受信した後に、プロキシ映像データの次のパケットを送信する。   Here, when the server 300 sequentially transmits packets of proxy video data, the server 300 transmits the packet, receives the ACK packet transmitted from the camera 100 for the packet, and then transmits the next packet of proxy video data. Send.

具体的には、サーバ300は、まず、プロキシ映像データのパケットb1をカメラ100に送信する。カメラ100は、そのパケットb1を正しく受信すると、そのパケットb1に対するACKパケットB1をサーバ300に送信する。次に、サーバ300は、そのACKパケットB1を受信すると、プロキシ映像データの次のパケットb2をカメラ100に送信する。   Specifically, the server 300 first transmits a packet b 1 of proxy video data to the camera 100. When the camera 100 correctly receives the packet b1, the camera 100 transmits an ACK packet B1 corresponding to the packet b1 to the server 300. Next, when the server 300 receives the ACK packet B1, the server 300 transmits the next packet b2 of the proxy video data to the camera 100.

このように、サーバ300は、ACKパケットの受信によって、送信したプロキシ映像データのパケットがカメラ100に正しく受信されたことを確認しながら、プロキシ映像データのパケットb1,b2,…,bmをカメラ100に順次送信している。   As described above, the server 300 confirms that the transmitted proxy video data packet is correctly received by the camera 100 by receiving the ACK packet, and transmits the proxy video data packets b1, b2,. Are sent sequentially.

ここで、サーバ300の送受信状況確認部313は、プロキシ映像データのパケットb1が送信されると、そのパケットb1が送信されてから、そのパケットb1に対応するACKパケットB1が受信されるまでの時間を、遅延計測時間td1として計測する。同様に、送受信状況確認部313は、プロキシ映像データのパケットb2が送信されると、そのパケットb2が送信されてから、そのパケットb2に対応するACKパケットB2が受信されるまでの時間を、遅延計測時間td2として計測する。   Here, when the proxy video data packet b1 is transmitted, the transmission / reception status confirmation unit 313 of the server 300 is the time from when the packet b1 is transmitted until the ACK packet B1 corresponding to the packet b1 is received. Is measured as a delay measurement time td1. Similarly, when the proxy video data packet b2 is transmitted, the transmission / reception status confirmation unit 313 delays the time from when the packet b2 is transmitted until the ACK packet B2 corresponding to the packet b2 is received. Measurement is performed as a measurement time td2.

このように、送受信状況確認部313は、プロキシ映像データのパケットが送信されるごとに、遅延計測時間td1,tb2,…,tdnを計測し、例えば、それらの平均値を算出することによって、上述の遅延時間を検出する。   In this way, the transmission / reception status confirmation unit 313 measures the delay measurement times td1, tb2,..., Tdn each time a proxy video data packet is transmitted, and calculates the average value thereof, for example, thereby calculating the above-described values. Detect the delay time.

その後、カメラ100は、上述と同様、映像データのパケットa11,a12,…,a1nをサーバ300に順次送信し、サーバ300は、その送信されたパケットa11,a12,…,a1nを順次受信する。   After that, the camera 100 sequentially transmits video data packets a11, a12,..., A1n to the server 300, and the server 300 sequentially receives the transmitted packets a11, a12,.

以上のように、カメラ100とサーバ300との間では、カメラ100からの映像データの送信が終了するまで、映像データおよびプロキシ映像データのそれぞれのパケットとACKパケットとの送受信が繰り返し行われる。そして、送受信状況確認部313は、そのような送受信が行われている中で、上述の遅延時間を検出している。   As described above, between the camera 100 and the server 300, transmission / reception of each packet of video data and proxy video data and an ACK packet is repeatedly performed until transmission of video data from the camera 100 is completed. The transmission / reception status confirmation unit 313 detects the above-described delay time while such transmission / reception is performed.

また、サーバ300の映像エンコーダ341およびフレーム間引部314は、このように送受信状況確認部313で検出された遅延時間に応じて、映像データに対する処理を変更し、プロキシ映像データを生成している。   Further, the video encoder 341 and the frame decimation unit 314 of the server 300 change the processing for the video data according to the delay time detected by the transmission / reception status confirmation unit 313 in this way, and generate proxy video data. .

図6は、映像データおよびプロキシ映像データに含まれるピクチャを示す図である。   FIG. 6 is a diagram illustrating pictures included in video data and proxy video data.

映像エンコーダ341は、復号された映像データに含まれるピクチャp1,p2,…を取得する。そして、映像エンコーダ341は、それらのピクチャp1,p2,…を低解像度化して符号化することにより、ピクチャpa1,pa2,…を含むプロキシ映像データを生成する。なお、プロキシ映像データのピクチャpa1,pa2,…のそれぞれの表示時刻は、映像データのピクチャp1,p2,…のそれぞれの表示時刻と一致している。   The video encoder 341 acquires pictures p1, p2,... Included in the decoded video data. The video encoder 341 generates proxy video data including the pictures pa1, pa2,... By encoding the pictures p1, p2,. The display times of the proxy video data pictures pa1, pa2,... Coincide with the display times of the video data pictures p1, p2,.

ここで、フレーム間引部314は、上述のように検出された遅延時間がしきい値以上であると判別すると、映像エンコーダ341に取得された映像データに対してフレーム間引を行う。例えば、フレーム間引部314は、映像データのピクチャp1,p2,p3,p4,p5,p6…のうち、2枚に1枚の割合でピクチャp2,p4,p6,…を間引き、ピクチャp1,p3,p5…を残す。   Here, if the frame thinning unit 314 determines that the delay time detected as described above is equal to or greater than the threshold value, the frame thinning unit 314 performs frame thinning on the video data acquired by the video encoder 341. For example, the frame thinning unit 314 thins out the pictures p2, p4, p6,... At a rate of one out of two pictures p1, p2, p3, p4, p5, p6. Leave p3, p5 ....

その結果、映像エンコーダ341は、遅延時間がしきい値以上のときには、残された映像データのピクチャp1,p3,p5…だけを低解像度化して符号化することにより、フレーム間引が行われたプロキシ映像データ、つまり、ピクチャpa1,pa3,pa5…を含むプロキシ映像データを生成する。   As a result, when the delay time is equal to or greater than the threshold value, the video encoder 341 performs frame thinning by reducing only the pictures p1, p3, p5. Proxy video data, that is, proxy video data including pictures pa1, pa3, pa5.

次に、カメラ100に受信されるプロキシ映像データの遅延と、その遅延が短縮されることについて、図7および図8を用いて説明する。   Next, the delay of proxy video data received by the camera 100 and the reduction of the delay will be described with reference to FIGS.

図7は、ある時点においてカメラ100およびサーバ300により送受信された映像データおよびプロキシ映像データの一例を示す図である。   FIG. 7 is a diagram illustrating an example of video data and proxy video data transmitted and received by the camera 100 and the server 300 at a certain point in time.

カメラ100は、図7の(a)に示すように、映像データの先頭位置から位置500までの区間を既に送信している。   The camera 100 has already transmitted the section from the head position of the video data to the position 500 as shown in FIG.

このとき、サーバ300は、図7の(b)に示すように、映像データの先頭位置から位置501までの区間を受信している。つまり、映像データの位置501から上述の位置500までの区間(遅延部分510)は、サーバ300に受信されておらず遅延している。   At this time, the server 300 receives a section from the head position of the video data to the position 501 as shown in FIG. That is, the section (delayed portion 510) from the position 501 of the video data to the position 500 described above is not received by the server 300 and is delayed.

また、サーバ300は、受信した映像データの一部の区間を用い、その区間に対応する一部のプロキシ映像データを生成し、図7の(c)に示すように、プロキシ映像データの先頭位置から位置502までの区間を既に送信している。   Further, the server 300 uses a part of the received video data, generates a part of the proxy video data corresponding to the part, and, as shown in FIG. To the position 502 has already been transmitted.

そして、このとき、カメラ100は、図7の(d)に示すように、プロキシ映像データの先頭位置から位置503までの区間を受信している。つまり、プロキシ映像データの位置503から上述の位置502までの区間(遅延部分511)は、カメラ100に受信されておらず遅延している。また、図7の(b)に示すように、サーバ300には、映像データが先頭位置から位置501まで受信されているが、図7の(d)に示すように、カメラ100には、プロキシ映像データが先頭位置から位置503までしか受信されていない。したがって、カメラ100のユーザは、映像データの位置503から位置501がサーバ300に受信されているにもかかわらず、その受信を確認できていない。   At this time, the camera 100 receives a section from the leading position of the proxy video data to the position 503 as shown in FIG. That is, the section (delayed portion 511) from the position 503 of the proxy video data to the position 502 described above is not received by the camera 100 and is delayed. Further, as shown in FIG. 7B, the server 300 receives video data from the head position to the position 501, but as shown in FIG. Video data is received only from the head position to position 503. Therefore, the user of the camera 100 has not confirmed the reception of the video data even though the positions 503 to 501 of the video data are received by the server 300.

そこで、サーバ300の送受信状況確認部313は、プロキシ映像データの遅延部分511が全てカメラ100に受信されるまでの時間を、上述の遅延時間として検出している。   Therefore, the transmission / reception status confirmation unit 313 of the server 300 detects the time until the camera 100 receives all the delay portions 511 of the proxy video data as the above-described delay time.

なお、送受信状況確認部313は、プロキシ映像データのパケットを送信してから、そのパケットに対応するACKパケットを受信するまでの時間を計測し、その計測結果に基づいて遅延時間を検出したが、上述のような、プロキシ映像データの位置503および位置502に基づいて遅延時間を検出してもよい。   The transmission / reception status confirmation unit 313 measures the time from when the proxy video data packet is transmitted until the ACK packet corresponding to the packet is received, and detects the delay time based on the measurement result. The delay time may be detected based on the position 503 and the position 502 of the proxy video data as described above.

つまり、送受信状況確認部313は、サーバ300からプロキシ映像データのパケットが送信されるときには、サーバ300でのプロキシ映像データの送信位置(図7の位置502)を、そのパケットに相当するデータの末尾に移動させる。その後、送受信状況確認部313は、そのパケットに対応するACKパケットを受信すると、カメラ100でのプロキシ映像データの受信位置(図7の位置503)を求める。そして、送受信状況確認部313は、プロキシ映像データの受信位置(図7の位置503)から送信位置(図7の位置502)までの区間を遅延部分511として算出し、その遅延部分511をカメラ100が受信するのに要する時間を上述の遅延時間として検出する。   That is, when the proxy video data packet is transmitted from the server 300, the transmission / reception status confirmation unit 313 sets the proxy video data transmission position (position 502 in FIG. 7) in the server 300 to the end of the data corresponding to the packet. Move to. Thereafter, when receiving the ACK packet corresponding to the packet, the transmission / reception status confirmation unit 313 obtains the reception position (position 503 in FIG. 7) of the proxy video data in the camera 100. Then, the transmission / reception status confirmation unit 313 calculates a section from the proxy video data reception position (position 503 in FIG. 7) to the transmission position (position 502 in FIG. 7) as a delay portion 511, and the delay portion 511 is calculated as the camera 100. Is detected as the above-mentioned delay time.

このように遅延時間が検出された結果、フレーム間引部314は、その遅延時間がしきい値以上であると判別すると、フレーム間引によってその遅延時間を縮める。つまり、フレーム間引部314は、サーバ300による受信がカメラ100側で確認されていない映像データの区間(位置503から位置501までの区間)を縮めようとする。   As a result of detecting the delay time as described above, if the frame thinning unit 314 determines that the delay time is equal to or greater than the threshold value, the frame thinning unit 314 shortens the delay time by frame thinning. In other words, the frame thinning unit 314 tries to shorten the section of video data (the section from the position 503 to the position 501) for which reception by the server 300 is not confirmed on the camera 100 side.

図8は、他の時点においてカメラ100およびサーバ300により送受信された映像データおよびプロキシ映像データの一例を示す図である。なお、この図8によって示される映像データおよびプロキシ映像データの状態は、図7に示すように映像データおよびプロキシ映像データが送受信された時点から、フレーム間引部314によってフレーム間引が開始され、所定時間経過した後の状態である。   FIG. 8 is a diagram illustrating an example of video data and proxy video data transmitted and received by the camera 100 and the server 300 at other points in time. Note that the state of the video data and proxy video data shown in FIG. 8 is such that frame thinning is started by the frame thinning unit 314 from the time when the video data and proxy video data are transmitted and received as shown in FIG. This is a state after a predetermined time has elapsed.

具体的には、カメラ100は、この時点では、図8の(a)に示すように、映像データの先頭位置から、上述の位置500よりも後方の位置600までの区間を既に送信している。   Specifically, at this time, the camera 100 has already transmitted a section from the head position of the video data to the position 600 behind the above-described position 500 as shown in FIG. .

このとき、サーバ300は、図8の(b)に示すように、映像データの先頭位置から、上述の位置501よりも後方の位置601までの区間を受信している。つまり、映像データの位置601から上述の位置600までの区間(遅延部分610)は、サーバ300に受信されておらず遅延している。なお、このときの無線ネットワーク400の伝送レートは、図7に示す状態のときと比べて回復しており、遅延部分610は、図7に示す遅延部分510よりも短くなっている。   At this time, as shown in FIG. 8B, the server 300 has received a section from the head position of the video data to a position 601 behind the position 501 described above. That is, the section (delayed portion 610) from the position 601 of the video data to the position 600 described above is not received by the server 300 and is delayed. Note that the transmission rate of the wireless network 400 at this time is restored as compared with the state shown in FIG. 7, and the delay portion 610 is shorter than the delay portion 510 shown in FIG.

また、サーバ300は、受信された映像データの一部の区間を用い、その区間に対応する一部のプロキシ映像データを生成し、図8の(c)に示すように、プロキシ映像データの先頭位置から位置602までの区間を既に送信している。   Further, the server 300 uses a part of the received video data, generates a part of the proxy video data corresponding to the part, and, as shown in FIG. The section from the position to the position 602 has already been transmitted.

ここで、サーバ300は、プロキシ映像データの先頭位置から位置502までの区間では、その区間に対応する映像データの区間に含まれる全てのピクチャを、プロキシ映像データのピクチャに変換して順次送信している。そして、サーバ300は、プロキシ映像データのその位置502から位置602までの区間では、その区間に対応する映像データの区間に含まれる全てのピクチャから幾つかのピクチャを間引いて、残りのピクチャをプロキシ映像データのピクチャに変換して順次送信している。   Here, in the section from the beginning position of proxy video data to position 502, server 300 converts all the pictures included in the section of video data corresponding to the section into pictures of proxy video data and sequentially transmits them. ing. Then, in the section from the position 502 to the position 602 of the proxy video data, the server 300 thins out some pictures from all the pictures included in the section of the video data corresponding to the section and proxy the remaining pictures. The video data is converted into a picture and sequentially transmitted.

つまり、フレーム間引部314は、プロキシ映像データが先頭位置から位置502まで送信されたときに、遅延時間がしきい値以上であると判別し、フレーム間引を開始している。その結果、サーバ300の送受信部350は、位置502から位置602までの区間のプロキシ映像データを送信するときには、そのビットレートを、それまでのプロキシ映像データのビットレートよりも下げて送信している。   That is, the frame thinning unit 314 determines that the delay time is equal to or greater than the threshold when proxy video data is transmitted from the head position to the position 502, and starts frame thinning. As a result, when transmitting / receiving the proxy video data in the section from the position 502 to the position 602, the transmission / reception unit 350 of the server 300 transmits the proxy video data at a lower bit rate than the previous proxy video data. .

また、上述のように、プロキシ映像データの位置502から位置602までの区間では、映像データに含まれるピクチャのうち幾つかのピクチャが間引かれ、残りのピクチャに対して低解像度化および符号化が行われている。したがって、サーバ300の映像エンコーダ341では、位置502以降のプロキシ映像データの生成にかかる処理負担が軽減されている。その結果、図8の(b)に示す、サーバ300に受信された映像データのうち、それに対応するプロキシ映像データが送信されていない区間(位置602から位置601までの区間)は、図7に示す区間(位置502から位置501までの区間)よりも短くなっている。   Further, as described above, in the section from the position 502 to the position 602 of the proxy video data, some of the pictures included in the video data are thinned out, and the resolution and coding of the remaining pictures are reduced. Has been done. Therefore, in the video encoder 341 of the server 300, the processing load related to generation of proxy video data after the position 502 is reduced. As a result, in the video data received by the server 300 shown in FIG. 8B, a section where the corresponding proxy video data is not transmitted (section from the position 602 to the position 601) is shown in FIG. It is shorter than the section shown (section from position 502 to position 501).

そして、このとき、カメラ100は、図8の(d)に示すように、プロキシ映像データの先頭位置から位置603までの区間を受信している。ここで、カメラ100は、プロキシ映像データの先頭位置から位置502までの区間を、高ビットレートで受信し、その位置502から位置603までの区間を、低ビットレートで受信している。つまり、単位時間あたりに受信されるプロキシ映像データのピクチャの枚数が、プロキシ映像データの位置502から位置603までの区間では、それまでの区間よりも少なくなっている。   At this time, the camera 100 receives a section from the leading position of the proxy video data to the position 603 as shown in FIG. Here, the camera 100 receives a section from the leading position of the proxy video data to the position 502 at a high bit rate, and receives a section from the position 502 to the position 603 at a low bit rate. That is, the number of pictures of proxy video data received per unit time is smaller in the section from the position 502 to the position 603 of the proxy video data than in the previous section.

その結果、プロキシ映像データの位置603から位置602までの区間(遅延部分611)は、ビットレートの低下によって、図7に示す遅延部分511よりも短くなっている。なお、このときの無線ネットワーク400の伝送レートは、上述のように、図7に示す状態のときと比べて回復している。したがって、遅延部分611は、この伝送レートの回復にも影響されて短くなっている。   As a result, the section (delay portion 611) from the position 603 to the position 602 of the proxy video data is shorter than the delay portion 511 shown in FIG. 7 due to the decrease in the bit rate. Note that the transmission rate of the wireless network 400 at this time is recovered as compared with the state shown in FIG. 7 as described above. Therefore, the delay portion 611 is shortened by being influenced by the recovery of the transmission rate.

このように、本実施の形態では、サーバ300に受信された映像データのうち、それに対応するプロキシ映像データが送信されていない区間(位置602から位置601までの区間)を短くすることができるとともに、プロキシ映像データの遅延部分611を短くすることができる。その結果、サーバ300による受信がカメラ100側で確認されていない映像データの区間(位置603から位置601までの区間)を縮めることができる。   As described above, in the present embodiment, among the video data received by the server 300, a section where the corresponding proxy video data is not transmitted (section from the position 602 to the position 601) can be shortened. The delay part 611 of the proxy video data can be shortened. As a result, it is possible to shorten the section of video data (the section from the position 603 to the position 601) for which reception by the server 300 is not confirmed on the camera 100 side.

したがって、カメラ100はプロキシ映像データを速く受信することができるとともに、プロキシ映像データのピクチャが間引かれた区間を速く再生することができるため、プロキシ映像の遅延を取り戻して、撮影映像の進行状況に近づけることが可能となる。   Accordingly, the camera 100 can receive proxy video data quickly and can quickly reproduce a section in which the picture of the proxy video data is thinned out. It becomes possible to approach.

図9は、本実施の形態における全体的な映像伝送方法を説明するための図である。   FIG. 9 is a diagram for explaining an overall video transmission method according to the present embodiment.

カメラ100は映像データのパケットをサーバ300に順次送信し、サーバ300はその送信されたパケットを順次受信する(ステップS100)。   The camera 100 sequentially transmits video data packets to the server 300, and the server 300 sequentially receives the transmitted packets (step S100).

サーバ300は、それらの受信されたパケットに含まれる部分の映像データを復号し、低解像度化および符号化することにより、その部分に対応する一部のプロキシ映像データを生成する(ステップS102)。   The server 300 decodes the video data of the part included in the received packets, and lowers the resolution and encodes it, thereby generating a part of the proxy video data corresponding to the part (step S102).

そして、サーバ300は、その一部のプロキシ映像データをパケット化して、プロキシ映像データのパケットをカメラ100に順次送信し、カメラ100は、そのパケットを正しく受信するごとに、そのパケットに対応するACKパケットをサーバ300に送信する(ステップS104)。   Then, the server 300 packetizes a part of the proxy video data and sequentially transmits the proxy video data packet to the camera 100. Each time the camera 100 correctly receives the packet, the server 300 transmits an ACK corresponding to the packet. The packet is transmitted to the server 300 (step S104).

ここで、サーバ300は、プロキシ映像データのパケットの送信およびACKパケットの受信のタイミングに基づいて遅延時間を検出する(ステップS106)。そして、サーバ300は、その検出した遅延時間がしきい値以上であると判別すると、以後、プロキシ映像データを生成するときには、フレーム間引を行う。   Here, the server 300 detects the delay time based on the transmission timing of the proxy video data packet and the reception timing of the ACK packet (step S106). If the server 300 determines that the detected delay time is equal to or greater than the threshold value, then the server 300 performs frame thinning when generating proxy video data.

次に、上記ステップS100と同様、カメラ100が映像データの続きのパケットをサーバ300に順次送信すると、サーバ300はその送信されたパケットを順次受信する(ステップS108)。   Next, when the camera 100 sequentially transmits subsequent packets of video data to the server 300 as in step S100, the server 300 sequentially receives the transmitted packets (step S108).

サーバ300は、上記ステップS102と同様、それらの受信されたパケットに含まれる部分の映像データを復号し、低解像度化および符号化することにより、その部分に対応する一部のプロキシ映像データを生成する(ステップS110)。このとき、サーバ300は、上述のようにステップS106で検出された遅延時間がしきい値以上であるため、その一部のプロキシ映像データを生成するときには、フレーム間引を行っている。   As in step S102, the server 300 decodes the video data of the portion included in the received packet, generates a part of the proxy video data corresponding to the portion by reducing and encoding the video data. (Step S110). At this time, since the delay time detected in step S106 is equal to or greater than the threshold value as described above, the server 300 performs frame thinning when generating a part of the proxy video data.

そして、サーバ300は、その一部のプロキシ映像データをパケット化して、プロキシ映像データのパケットをカメラ100に順次送信し、カメラ100は、そのパケットを正しく受信するごとに、そのパケットに対応するACKパケットをサーバ300に送信する(ステップS112)。このステップS112では、先のステップS110でフレーム間引が行われているため、サーバ300は、上記ステップS104で送信されるプロキシ映像データのピクチャ数よりも少ない数のピクチャ分のプロキシ映像データをパケット化して送信している。つまり、サーバ300は、低ビットレートでその一部のプロキシ映像データをカメラ100に送信している。   Then, the server 300 packetizes a part of the proxy video data and sequentially transmits the proxy video data packet to the camera 100. Each time the camera 100 correctly receives the packet, the server 300 transmits an ACK corresponding to the packet. The packet is transmitted to the server 300 (step S112). In this step S112, since frame thinning is performed in the previous step S110, the server 300 packetizes proxy video data for a number of pictures smaller than the number of pictures of the proxy video data transmitted in step S104. And send it. That is, the server 300 transmits a part of the proxy video data to the camera 100 at a low bit rate.

また、サーバ300は、上記ステップS106と同様、プロキシ映像データのパケットの送信およびACKパケットの受信のタイミングに基づいて遅延時間を検出する(ステップS114)。そして、前回と同様に、その検出した遅延時間がしきい値以上であるとサーバ300で判別されると、カメラ100およびサーバ300は、ステップS108〜S114までの処理を繰り返し実行する。   Similarly to step S106, the server 300 detects the delay time based on the transmission timing of the proxy video data packet and the reception timing of the ACK packet (step S114). Then, similarly to the previous time, when the server 300 determines that the detected delay time is equal to or greater than the threshold value, the camera 100 and the server 300 repeatedly execute the processes from step S108 to S114.

その後、サーバ300は、遅延時間を検出し(ステップS116)、その遅延時間がしきい値未満であると判別すると、以後、プロキシ映像データを生成するときには、フレーム間引を行わない。   Thereafter, the server 300 detects the delay time (step S116), and if it is determined that the delay time is less than the threshold value, thereafter, when generating proxy video data, frame decimation is not performed.

したがって、カメラ100から映像データの続きのパケットが送信されると(ステップS118)、カメラ100およびサーバ300は、ステップS102〜S106と同様の処理を繰り返し実行する(ステップS120〜S124)。   Therefore, when a continuous packet of video data is transmitted from the camera 100 (step S118), the camera 100 and the server 300 repeatedly execute the same processing as steps S102 to S106 (steps S120 to S124).

図10は、本実施の形態におけるサーバ300の動作を示すフローチャートである。   FIG. 10 is a flowchart showing the operation of the server 300 in the present embodiment.

まず、サーバ300は、遅延時間を0に初期設定しておく(ステップS200)。そして、サーバ300は、カメラ100から映像データのパケットを受信したか否かを判別する(ステップS202)。ここで、サーバ300は、受信していないと判別すると(ステップS202のN)、処理を終了し、受信したと判別すると(ステップS202のY)、さらに、遅延時間がしきい値以上であるか否かを判別する(ステップS206)。   First, the server 300 initializes the delay time to 0 (step S200). Then, the server 300 determines whether a video data packet has been received from the camera 100 (step S202). If the server 300 determines that it has not been received (N in step S202), it ends the process, and if it is determined that it has been received (Y in step S202), whether the delay time is equal to or greater than a threshold value. It is determined whether or not (step S206).

サーバ300は、遅延時間がしきい値未満であると判別すると(ステップS206のN)、その受信した映像データのパケットに対応する一部のプロキシ映像データを、フレーム間引することなく生成する(ステップS208)。一方、サーバ300は、遅延時間がしきい値以上であると判別すると(ステップS206のY)、その受信した映像データのパケットに対応する一部のプロキシ映像データを、フレーム間引を行いながら生成する(ステップS210)。   If the server 300 determines that the delay time is less than the threshold (N in step S206), the server 300 generates a part of the proxy video data corresponding to the received video data packet without thinning out the frames ( Step S208). On the other hand, if the server 300 determines that the delay time is equal to or greater than the threshold (Y in step S206), the server 300 generates part of the proxy video data corresponding to the received video data packet while performing frame thinning. (Step S210).

そして、サーバ300は、ステップS208またはステップS210で生成されたプロキシ映像データのパケットをカメラ100に送信し(ステップS212)、そのパケットに対応するACKパケットをカメラ100から受信する(ステップS214)。その後、サーバ300は、ステップS208またはステップS210で生成された一部のプロキシ映像データの最後のパケットを送信したか否かを判別する(ステップS216)。   Then, the server 300 transmits the proxy video data packet generated in step S208 or step S210 to the camera 100 (step S212), and receives an ACK packet corresponding to the packet from the camera 100 (step S214). Thereafter, the server 300 determines whether or not the last packet of the partial proxy video data generated in step S208 or step S210 has been transmitted (step S216).

ここで、サーバ300は、最後のパケットを送信していないと判別すると(ステップS216のN)、ステップS212からの処理を繰り返し実行する。一方、サーバ300は、最後のパケットを送信したと判別すると(ステップS216のY)、ステップS212およびステップS214のタイミングに基づいて遅延時間を検出する(ステップS218)。ステップS218で遅延時間を検出すると、サーバ300は、再びステップS202からの処理を繰り返し実行する。   Here, when determining that the last packet has not been transmitted (N in Step S216), the server 300 repeatedly executes the processes from Step S212. On the other hand, when determining that the last packet has been transmitted (Y in step S216), the server 300 detects a delay time based on the timings in steps S212 and S214 (step S218). When the delay time is detected in step S218, the server 300 repeatedly executes the processing from step S202 again.

以上のように、本実施の形態では、カメラ100が送信した映像データがプロキシ映像データとしてサーバ300から送り返されるため、カメラ100のユーザは、その送信した映像データがサーバ300に確かに受信されていることを適切に確認することができる。つまり、ユーザは、カメラ100に映し出されるプロキシ映像を見て、サーバ300に受信されている映像データの進行状況を適切に確認することができる。   As described above, in this embodiment, since the video data transmitted by the camera 100 is sent back from the server 300 as proxy video data, the user of the camera 100 is surely received by the server 300 of the transmitted video data. Can be confirmed appropriately. That is, the user can appropriately check the progress of the video data received by the server 300 by looking at the proxy video displayed on the camera 100.

さらに、無線ネットワーク400の遅延時間が検出され、その遅延時間が長いほど、サーバ300からカメラ100に送信されるプロキシ映像データのデータ量が削減されるため、遅延時間が長くなっても、カメラ100によるそのプロキシ映像データの受信が遅れるのを防ぐことができる。言い換えれば、プロキシ映像の画質を低くすることで、その遅れを取り戻すことができる。   Furthermore, since the delay time of the wireless network 400 is detected and the amount of proxy video data transmitted from the server 300 to the camera 100 is reduced as the delay time increases, the camera 100 can be used even if the delay time increases. It is possible to prevent the reception of the proxy video data from being delayed. In other words, the delay can be recovered by reducing the image quality of the proxy video.

したがって、カメラ100のユーザは、カメラ100から送信された映像データ(撮影映像)がサーバ300に確かに受信されているかを、適切で且つ迅速に確認することができる。   Therefore, the user of the camera 100 can appropriately and quickly confirm whether the video data (captured video) transmitted from the camera 100 is reliably received by the server 300.

また、本実施の形態では、フレーム間引部314が、フレーム間引を実行するときには、低解像度化および符号化が行われる前の映像データからピクチャを間引くため、生成されたプロキシ映像データからピクチャを間引く場合と比べて、低解像度化および符号化の処理負担を減らすことができる。その結果、サーバ300はプロキシ映像データをカメラ100に迅速に送信することができる。   In the present embodiment, when the frame thinning unit 314 performs frame thinning, the picture is thinned out from the video data before the resolution reduction and encoding are performed. Compared with the case of thinning out, it is possible to reduce the processing load for resolution reduction and encoding. As a result, the server 300 can quickly transmit the proxy video data to the camera 100.

(変形例)
上記実施の形態では、遅延時間が長くなった時に、ピクチャが間引かれながらプロキシ映像データが生成されて送信される。その結果、ピクチャが間引かれている区間では、そのプロキシ映像データの示すプロキシ映像の画質は低下してしまう。したがって、映像データがサーバ300に受信されたことをユーザが十分に確認できない可能性がある。そこで、本変形例では、プロキシ映像データにおいて、低画質でプロキシ映像が表示された区間(以下、低画質区間という)を特定し、その区間を示す情報をリストファイル(区間情報)として記録する。これにより、ユーザは、そのリストファイルの示す低画質区間を利用し、映像データ(映像ファイル)を保存しておくべきか、削除してもよいかなどを判断することができ、ユーザの利便性を向上することができる。
(Modification)
In the above embodiment, when the delay time becomes long, the proxy video data is generated and transmitted while the picture is thinned out. As a result, in the section where the picture is thinned out, the image quality of the proxy video indicated by the proxy video data is degraded. Therefore, there is a possibility that the user cannot sufficiently confirm that the video data has been received by the server 300. Therefore, in the present modification, a section in which proxy video is displayed with low image quality (hereinafter referred to as a low image quality section) is specified in proxy video data, and information indicating the section is recorded as a list file (section information). Thus, the user can determine whether the video data (video file) should be saved or deleted using the low image quality interval indicated by the list file, and the convenience of the user can be determined. Can be improved.

このような本変形例について、以下、詳細に説明する。   Such a modification will be described in detail below.

図11は、本変形例に係るカメラの構成を示すブロック図である。   FIG. 11 is a block diagram illustrating a configuration of a camera according to this modification.

本変形例に係るカメラ700は、上記実施の形態のカメラ100のシステム制御部110の代わりに、そのシステム制御部110と機能が異なるシステム制御部710を備え、カメラ100のシステム制御部110を除く他の構成要素と同一の構成要素を有している。なお、カメラ700に含まれる構成要素のうち、カメラ100に含まれる構成要素と同一の構成要素については、詳細な説明を省略する。   A camera 700 according to this modification includes a system control unit 710 having a function different from that of the system control unit 110 instead of the system control unit 110 of the camera 100 of the above embodiment, and excludes the system control unit 110 of the camera 100. It has the same components as the other components. Of the constituent elements included in the camera 700, the same constituent elements as those included in the camera 100 will not be described in detail.

システム制御部710は、上記実施の形態のシステム制御部110に含まれている映像ファイル処理部111およびファイルシステム管理部112を備えているとともに、リストファイル処理部713も備えている。   The system control unit 710 includes a video file processing unit 111 and a file system management unit 112 included in the system control unit 110 of the above embodiment, and also includes a list file processing unit 713.

リストファイル処理部713は、送受信部150に受信されるプロキシ映像データのビットレートを監視する。そして、リストファイル処理部713は、プロキシ映像データにおいて、ビットレートが所定のレートしきい値よりも低くなっている区間を上述の低画質区間として特定し、その低画質区間を示すリストファイルを生成して記録メディア131に記録する。   The list file processing unit 713 monitors the bit rate of proxy video data received by the transmission / reception unit 150. Then, the list file processing unit 713 specifies a section where the bit rate is lower than a predetermined rate threshold in the proxy video data as the above-described low image quality section, and generates a list file indicating the low image quality section To the recording medium 131.

図12は、プロキシ映像データのビットレートとリストファイルの一例を示す図である。   FIG. 12 is a diagram illustrating an example of the bit rate of proxy video data and a list file.

リストファイル処理部713は、図12(a)に示すように、送受信部150にプロキシ映像データが受信されている間、そのプロキシ映像データのビットレートを監視している。そして、リストファイル処理部713は、ビットレートがレートしきい値以上からレートしきい値未満に変化した低下時刻と、ビットレートがレートしきい値未満からレートしきい値以上に変化した上昇時刻とを特定する。具体的には、リストファイル処理部713は、低下時刻として時刻t1,t3,t5を特定し、上昇時刻として時刻t2,t4,t6を特定する。   As shown in FIG. 12A, the list file processing unit 713 monitors the bit rate of the proxy video data while the proxy video data is received by the transmission / reception unit 150. The list file processing unit 713 then includes a decrease time when the bit rate changes from the rate threshold value to less than the rate threshold value, and a rise time when the bit rate changes from less than the rate threshold value to the rate threshold value. Is identified. Specifically, the list file processing unit 713 specifies times t1, t3, and t5 as the fall times, and specifies times t2, t4, and t6 as the rise times.

なお、レートしきい値は、例えば、フレーム間引が行われることなく生成されたプロキシ映像データが受信されるときのビットレートを標準ビットレートとした場合、その標準ビットレートの1/2のビットレートである。   Note that the rate threshold is, for example, a bit that is ½ of the standard bit rate when the bit rate when the proxy video data generated without frame decimation is received is the standard bit rate. Rate.

さらに、リストファイル処理部713は、図12(b)に示すように、上述のように特定された低下時刻から上昇時刻までの区間を低画質区間として示すリストファイルLfを生成する。例えば、リストファイル処理部713は、特定された低下時刻、およびその直後の上昇時刻を、それぞれIN点およびOUT点として扱い、そのIN点およびOUT点からなる組をリストファイルLfに順次記録していく。   Further, as shown in FIG. 12B, the list file processing unit 713 generates a list file Lf that indicates a section from the fall time specified as described above to the rise time as a low image quality section. For example, the list file processing unit 713 treats the specified decrease time and the immediately subsequent increase time as an IN point and an OUT point, respectively, and sequentially records a set of the IN point and the OUT point in the list file Lf. Go.

具体的には、リストファイル処理部713は、1番目の組(IN点t1,OUT点t2)、2番目の組(IN点t3,OUT点t4)および3番目の組(IN点t5,OUT点t6)をそれぞれ順にリストファイルLfに記録する。   Specifically, the list file processing unit 713 executes the first group (IN point t1, OUT point t2), the second group (IN point t3, OUT point t4), and the third group (IN point t5, OUT point). The points t6) are recorded in the list file Lf in order.

このように生成されたリストファイルLfは、各組の示すIN点からOUT点までの区間が、フレーム間引が行われて生成されたプロキシ映像データの区間、すなわちプロキシ映像が低画質で表示された低画質区間であることを示す。さらに、そのIN点およびOUT点は、プロキシ映像の低画質区間、または、その低画質区間に対応する撮影映像(映像データ)の区間の始点および終点にあるピクチャに対応している。   In the list file Lf generated in this way, the section from the IN point to the OUT point indicated by each group displays the section of the proxy video data generated by frame thinning, that is, the proxy video is displayed with low image quality. Indicates a low-quality section. Furthermore, the IN point and the OUT point correspond to the pictures at the start point and the end point of the low-quality section of the proxy video or the section of the captured video (video data) corresponding to the low-quality section.

また、リストファイル処理部713は、生成したリストファイルLfにファイル名を付けるときには、そのファイル名に含まれる拡張子以外の部分を、映像ファイルのファイル名に含まれる拡張子以外の部分と同じにしておく。なお、その映像ファイルは、そのリストファイルLfの生成に用いられたプロキシ映像データに対応する映像ファイルである。例えば、送信された映像ファイルのファイル名が001a.mxfであった場合、リストファイル処理部713は、リストファイルLfのファイル名を001a.txtとしておく。こうすることで、リストファイルLfを映像ファイルに関連付けることができ、リストファイル処理部713は、リストファイルLfがどの映像ファイルのIN点およびOUT点の組を示しているかを把握することができる。   Further, when the list file processing unit 713 assigns a file name to the generated list file Lf, the part other than the extension included in the file name is made the same as the part other than the extension included in the file name of the video file. Keep it. The video file is a video file corresponding to the proxy video data used to generate the list file Lf. For example, the file name of the transmitted video file is 001a. If it is mxf, the list file processing unit 713 changes the file name of the list file Lf to 001a. It is set as txt. By doing so, the list file Lf can be associated with the video file, and the list file processing unit 713 can grasp which video file indicates the set of the IN point and OUT point of the list file Lf.

さらに、リストファイル処理部713は、入力部140にユーザからの再確認の指示が受け付けられると、記録メディア131に記録されているリストファイルLfからIN点およびOUT点の組を順次読み出し、各組を示すアイコンを表示部141に表示させる。   Further, when the reconfirmation instruction from the user is received in the input unit 140, the list file processing unit 713 sequentially reads out the set of IN point and OUT point from the list file Lf recorded on the recording medium 131, and sets each set. Is displayed on the display unit 141.

図13は、表示部141に表示されるアイコンの一例を示す図である。   FIG. 13 is a diagram illustrating an example of icons displayed on the display unit 141.

リストファイル処理部713は、例えば図12(b)に示すリストファイルLfを記録メディア131から読み出すと、そのリストファイルLfに配列さている1番目、2番目および3番目の組をそれぞれ示すアイコンI1,I2,I3を表示部141に表示させる。   When the list file processing unit 713 reads out, for example, the list file Lf shown in FIG. 12B from the recording medium 131, the icon I1, which indicates the first, second, and third pairs arranged in the list file Lf, respectively. I2 and I3 are displayed on the display unit 141.

ここで、ユーザが入力部140を操作することで何れかのアイコンを選択すると、リストファイル処理部713は、選択されたアイコンの示す組により特定される映像データの区間を記録メディア131から読み出し、その区間分の映像データを映像デコーダ144に復号させて撮影映像を表示部141に表示させる。   Here, when the user selects one of the icons by operating the input unit 140, the list file processing unit 713 reads the section of the video data specified by the set indicated by the selected icon from the recording medium 131, The video data for the section is decoded by the video decoder 144 and the captured video is displayed on the display unit 141.

このように、本変形例では、ユーザは、映像データがサーバ300に受信されたかをプロキシ映像で確認できなかった低画質区間を、記録されている映像データの撮影映像で確認することができる。したがって、ユーザは、サーバ300に確実に受信されたか不安が残る映像ファイルを残したり、確実に受信されたかどうか不明だが重要なシーンがないので映像ファイルを削除したりと、ファイル削除の判断を容易に行うことができる。   As described above, in this modification, the user can check the low-quality section in which the video data has been received by the server 300 using the captured video of the recorded video data. Therefore, the user can easily decide whether to delete the file, such as leaving a video file in which the server 300 is surely received or uneasy, or deleting the video file because there is no important scene although it is unknown whether it was received reliably. Can be done.

以上、本発明に係る映像伝送方法について、上記実施の形態およびその変形例を用いて説明したが、本発明は、これらに限定されるものではない。   As described above, the video transmission method according to the present invention has been described using the above-described embodiment and its modifications, but the present invention is not limited to these.

例えば、本実施の形態およびその変形例では、無線ネットワークを利用したデータの伝送を行ったが、ADSL(Asymmetric Digital Subscriber Line)やFTTx(Fiber To The x)などの有線ネットワークであっても、無線ネットワークと有線ネットワークの組み合わせであっても構わない。   For example, in the present embodiment and its modifications, data is transmitted using a wireless network. However, even in a wired network such as ADSL (Asymmetric Digital Subscriber Line) or FTTx (Fiber To The x) It may be a combination of a network and a wired network.

また、本実施の形態およびその変形例では、映像データのパケットとACKパケットを同じ無線ネットワークで伝送したが、ACKパケットの伝送をネットワーク遅延が小さい別のネットワークで行ってもよい。例えば、携帯電話で採用されているCDMA(Code Division Multiple Access)方式の無線ネットワークを利用してACKパケットを伝送してもよい。   In the present embodiment and its modification, the video data packet and the ACK packet are transmitted on the same wireless network, but the ACK packet may be transmitted on another network having a small network delay. For example, an ACK packet may be transmitted using a CDMA (Code Division Multiple Access) wireless network employed in mobile phones.

また、本実施の形態およびその変形例では、ACKパケットを用いてデータの受信位置を把握すると説明したが、ACKパケットに限定されるものではなく、例えばデータの受信位置情報自体を送信してもよい。   Further, in the present embodiment and its modification, it has been described that the reception position of data is grasped by using an ACK packet. However, the present invention is not limited to the ACK packet, and for example, the reception position information of the data itself may be transmitted. Good.

なお、確認用映像のプロキシ映像データのフレーム間引では、ビットレートを1/2にしてエンコードすると説明したが、ネットワーク遅延(遅延時間)の値によって段階的にビットレートを変化させてもよい。   In the frame thinning of the proxy video data of the confirmation video, it has been described that the bit rate is halved. However, the bit rate may be changed stepwise depending on the value of the network delay (delay time).

また、フレーム間引では、単に1ピクチャ(フレーム)おきにピクチャを間引くのではなく、MPEGのようなフレーム間圧縮を行う形式ではIピクチャだけを残してPピクチャやBピクチャを間引くようにしてもよい。さらに、フレーム間引の処理単位を1GOP(Group Of Pictures)単位でもよく、複数のGOP単位としてもよい。   Also, in frame thinning, pictures are not thinned out every other picture (frame), but in a format that performs interframe compression such as MPEG, P pictures and B pictures may be thinned out leaving only I pictures. Good. Further, the frame thinning processing unit may be a 1 GOP (Group Of Pictures) unit or a plurality of GOP units.

また、本実施の形態およびその変形例では、カメラが記録する映像データの圧縮形式をDVCPRO−HD形式とし、プロキシ映像データの圧縮形式をMPEG−4形式としたが、その圧縮形式に限定されるものではない。   Further, in this embodiment and its modification, the compression format of the video data recorded by the camera is the DVCPRO-HD format and the compression format of the proxy video data is the MPEG-4 format. However, the compression format is limited to the compression format. It is not a thing.

また、本実施の形態およびその変形例では、プロキシ映像データの送信先を、その元となる映像データを送信したカメラとしたが、そのカメラ以外の装置としてもよく、複数の装置としてもよい。例えば、同じ撮影現場にある無線ネットワーク機能を持つモバイル編集機にプロキシ映像データを送信して、そのモバイル編集機で、映像データの送信進行状況を確認してもよい。   Further, in the present embodiment and its modification, the proxy video data is transmitted to the camera that transmits the original video data, but may be a device other than the camera or a plurality of devices. For example, proxy video data may be transmitted to a mobile editing machine having a wireless network function at the same shooting site, and the transmission progress of the video data may be confirmed by the mobile editing machine.

また、本実施の形態およびその変形例では、映像データの記録を行ったカメラがその映像を送信したが、映像データを記録した記録メディアを別の装置に移して、その装置から映像データを送信してプロキシ映像を受信してもよい。   In this embodiment and its modification, the camera that recorded the video data transmitted the video. However, the recording medium on which the video data was recorded was transferred to another device, and the video data was transmitted from the device. Then, proxy video may be received.

また、本実施の形態およびその変形例では、図3に示すように確認用映像であるプロキシ映像を右下の小さな領域に表示したが、ユーザの指示によってその領域を移動したり、プロキシ映像の表示と非表示とを切り替えたりしてもよく、その小さな領域での表示を、撮影用の大きな画面での表示に切り替えるようにしてもよい。   Further, in the present embodiment and its modification, the proxy video that is the confirmation video is displayed in the lower right small area as shown in FIG. 3, but the area is moved by the user's instruction or the proxy video is displayed. Display and non-display may be switched, and display in the small area may be switched to display on a large screen for photographing.

また、本実施の形態および変形例では、映像データをファイルとして着脱可能な記録メディアに記録したが、記録メディアはカメラに内蔵されたHDやフラッシュメモリでもよく、USB(Universal Serial Bus)などのインタフェースでカメラに接続されたHDなどであってもよい。   In the present embodiment and the modification, the video data is recorded as a file on a removable recording medium. However, the recording medium may be an HD or a flash memory built in the camera, and an interface such as a USB (Universal Serial Bus). Or an HD connected to the camera.

また、上記変形例では、ビットレートが標準ビットレートの1/2未満であるかどうかに応じて、IN点とOUT点を設定したが、1/2という数字に限定されるものではなく、ユーザによって自由に設定できるようにしてもよい。   In the above modification, the IN point and the OUT point are set according to whether or not the bit rate is less than ½ of the standard bit rate. May be set freely.

また、上記変形例では、リストファイルを記録メディアに記録すると説明したが、カメラに内蔵されているフラッシュメモリなどの不揮発メモリに記録してもよい。   In the above modification, the list file is described as being recorded on the recording medium. However, the list file may be recorded in a nonvolatile memory such as a flash memory built in the camera.

また、上記変形例では、リストファイルと映像ファイルとの関連付けを、ファイル名の拡張子以外の部分を同じにすることで行ったが、リストファイル名は任意にしておいてリストファイル内に映像ファイルのファイル名を記録することで関連付けを行ってもよい。その場合、リストファイルを映像ファイル毎に作る必要がなく、一つのリストファイルだけを作成し、そのリストファイルに、映像ファイルごとに、その映像ファイルのファイル名と、その映像ファイルに対応するIN点およびOUT点の組とを記録してもよい。   In the above modification, the list file is associated with the video file by making the part other than the file name extension the same, but the list file name is arbitrary and the video file is included in the list file. The file name may be recorded for association. In that case, there is no need to create a list file for each video file, only one list file is created, and for each video file, the file name of the video file and the IN point corresponding to the video file are created. And a set of OUT points may be recorded.

また、本変形例では、リストファイルに載っているIN点およびOUT点の組をアイコンで表示させたが、単にリストファイルの内容を表示させるだけでもよい。また、アイコンとして、IN点に相当する映像データのピクチャ(フレーム)のサムネイルを表示させてもよく、さらには、IN点から数秒だけ再生した映像データのピクチャ(フレーム)のサムネイルを表示させてもよい。   In this modification, the set of IN points and OUT points on the list file is displayed as icons, but the contents of the list file may be simply displayed. Further, a thumbnail of a picture (frame) of video data corresponding to the IN point may be displayed as an icon, and further, a thumbnail of a picture (frame) of video data reproduced for a few seconds from the IN point may be displayed. Good.

また、本変形例では、カメラ700は低画質区間に対応する映像データの区間を記録メディア131から読み出して再生したが、その映像データの区間をサーバ300に再送してもよい。これにより、カメラ700のユーザは、映像データを確実にサーバ300に送信することができる。   In this modification, the camera 700 reads and reproduces the video data section corresponding to the low image quality section from the recording medium 131, but the video data section may be retransmitted to the server 300. Thereby, the user of the camera 700 can reliably transmit the video data to the server 300.

本発明に係る映像伝送方法は、ファイルとして記録した映像データを確実にネットワーク送信する用途において有用であり、例えば、通信機能を有するカメラと、そのカメラと通信するサーバとを有するシステムなどに適用することができ、特に、放送用や業務用のビデオカメラで行われる撮影のように、放送局に撮影した映像データを確実に送信するとともに、すぐに次の撮影に取りかかりたい場合に適している。   The video transmission method according to the present invention is useful for the purpose of reliably transmitting video data recorded as a file over a network. For example, the video transmission method is applied to a system having a camera having a communication function and a server communicating with the camera. In particular, it is suitable for the case where video data shot to a broadcasting station is reliably transmitted and the next shooting is started immediately, such as shooting performed with a video camera for broadcasting or business use.

本発明の実施の形態における映像伝送システムの構成を示す図である。It is a figure which shows the structure of the video transmission system in embodiment of this invention. 本発明の実施の形態におけるカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the camera in embodiment of this invention. 本発明の実施の形態における表示部に表示される撮影映像とプロキシ映像の一例を示す図である。It is a figure which shows an example of the picked-up image and proxy image | video displayed on the display part in embodiment of this invention. 本発明の実施の形態におけるサーバの構成を示すブロック図である。It is a block diagram which shows the structure of the server in embodiment of this invention. 本発明の実施の形態のカメラとサーバとの間におけるパケットの送受信を示すシーケンス図である。It is a sequence diagram which shows transmission / reception of the packet between the camera of embodiment of this invention, and a server. 本発明の実施の形態の映像データおよびプロキシ映像データに含まれるピクチャを示す図である。It is a figure which shows the picture contained in the video data and proxy video data of embodiment of this invention. 本発明の実施の形態のある時点においてカメラおよびサーバにより送受信された映像データおよびプロキシ映像データの一例を示す図である。It is a figure which shows an example of the video data and proxy video data which were transmitted / received by the camera and the server at a certain time of embodiment of this invention. 本発明の実施の形態の他の時点においてカメラおよびサーバにより送受信された映像データおよびプロキシ映像データの一例を示す図である。It is a figure which shows an example of the video data and proxy video data which were transmitted / received by the camera and server at the other time of embodiment of this invention. 本発明の実施の形態における全体的な映像伝送方法を説明するための図である。It is a figure for demonstrating the whole video transmission method in embodiment of this invention. 本発明の実施の形態におけるサーバの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the server in embodiment of this invention. 本発明の実施の形態の変形例に係るカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the camera which concerns on the modification of embodiment of this invention. 本発明の実施の形態の変形例に係るプロキシ映像データのビットレートとリストファイルの一例を示す図である。It is a figure which shows an example of the bit rate and list file of proxy video data which concern on the modification of embodiment of this invention. 本発明の実施の形態の変形例に係る表示部に表示されるアイコンの一例を示す図である。It is a figure which shows an example of the icon displayed on the display part which concerns on the modification of embodiment of this invention.

符号の説明Explanation of symbols

100 カメラ
110 システム制御部
111 映像ファイル処理部
112 ファイルシステム管理部
120 I/Oバス
130 記録メディアI/F部
131 記録メディア
140 入力部
141 表示部
142 映像エンコーダ
143 映像入力部
144 映像デコーダ
150 送受信部
300 サーバ
310 システム制御部
311 映像ファイル処理部
312 ファイルシステム管理部
313 送受信状況確認部
314 フレーム間引部
320 I/Oバス
330 記録メディア
340 映像デコーダ
341 映像エンコーダ
350 送受信部
700 カメラ
710 システム制御部
713 リストファイル処理部
DESCRIPTION OF SYMBOLS 100 Camera 110 System control part 111 Video file processing part 112 File system management part 120 I / O bus 130 Recording media I / F part 131 Recording medium 140 Input part 141 Display part 142 Video encoder 143 Video input part 144 Video decoder 150 Transmission / reception part 300 server 310 system control unit 311 video file processing unit 312 file system management unit 313 transmission / reception status confirmation unit 314 frame thinning unit 320 I / O bus 330 recording medium 340 video decoder 341 video encoder 350 transmission / reception unit 700 camera 710 system control unit 713 List file processing section

Claims (16)

第1および第2の端末装置の間で映像に関するデータを送受信する映像伝送方法であって、
前記第1の端末装置が前記第2の端末装置に主映像を示す主映像データを送信する主映像送信ステップと、
前記第2の端末装置が前記第1の端末装置から前記主映像データを受信する主映像受信ステップと、
前記第2の端末装置が、受信した前記主映像データの示す主映像に対応する副映像を示す副映像データを生成する副映像生成ステップと、
前記第2の端末装置が、前記第1の端末装置との間でのデータ送受信の遅延時間を検出する遅延時間検出ステップと、
前記第2の端末装置が、検出した前記遅延時間が長いほど、前記副映像生成ステップで生成される副映像データのデータ量が少なくなるように前記データ量を調整する調整ステップと、
前記第2の端末装置が前記第1の端末装置に前記副映像データを送信する副映像送信ステップと、
前記第1の端末装置が前記第2の端末装置から前記副映像データを受信する副映像受信ステップと
を含む映像伝送方法。
A video transmission method for transmitting and receiving data related to a video between first and second terminal devices,
A main video transmission step in which the first terminal device transmits main video data indicating a main video to the second terminal device;
A main video receiving step in which the second terminal device receives the main video data from the first terminal device;
A sub-picture generating step in which the second terminal device generates sub-picture data indicating a sub-picture corresponding to the main picture indicated by the received main video data;
A delay time detecting step in which the second terminal device detects a delay time of data transmission / reception with the first terminal device;
An adjustment step of adjusting the data amount so that the amount of sub-picture data generated in the sub-picture generation step decreases as the detected delay time increases.
A sub-video transmission step in which the second terminal device transmits the sub-video data to the first terminal device;
A sub-picture receiving step in which the first terminal apparatus receives the sub-picture data from the second terminal apparatus.
前記副映像生成ステップでは、
前記第2の端末装置は、前記主映像データの示す主映像の解像度を低下させることにより前記副映像データを生成する
請求項1記載の映像伝送方法。
In the sub-picture generation step,
The video transmission method according to claim 1, wherein the second terminal device generates the sub-video data by reducing a resolution of a main video indicated by the main video data.
前記調整ステップでは、
前記第2の端末装置は、検出した前記遅延時間が長いほど、前記副映像データのデータ量を少なくして、前記副映像送信ステップで送信される前記副映像データのビットレートを低下させる
請求項1記載の映像伝送方法。
In the adjustment step,
The second terminal apparatus decreases a bit rate of the sub-picture data transmitted in the sub-picture transmission step by reducing a data amount of the sub-picture data as the detected delay time is longer. The video transmission method according to 1.
前記映像伝送方法は、さらに、
前記第2の端末装置が、検出した前記遅延時間が予め定められたしきい値以上であるか否かを判別する遅延判別ステップを含み、
前記調整ステップでは、
前記第2の端末装置は、
前記遅延判別ステップで前記遅延時間が前記しきい値以上であると判別したときに、前記副映像データのデータ量を、前記遅延時間が前記しきい値未満であったときの前記副映像データのデータ量よりも少なくする
請求項1記載の映像伝送方法。
The video transmission method further includes:
A delay determination step of determining whether or not the detected delay time is equal to or greater than a predetermined threshold value by the second terminal device;
In the adjustment step,
The second terminal device is:
When it is determined in the delay determining step that the delay time is equal to or greater than the threshold value, the data amount of the sub-video data is determined based on the amount of sub-video data when the delay time is less than the threshold value. The video transmission method according to claim 1, wherein the video transmission method is less than the data amount.
前記遅延時間検出ステップでは、
前記第2の端末装置は、
前記第1の端末装置に第1のデータを送信し、
前記データが前記第1の端末装置に受信されたことを通知するための第2のデータを前記第1の端末装置から受信し、
前記第1のデータが送信されてから前記第2のデータが受信されるまでの時間を計測することにより前記遅延時間を検出する
請求項1記載の映像伝送方法。
In the delay time detecting step,
The second terminal device is:
Transmitting first data to the first terminal device;
Receiving from the first terminal device second data for notifying that the data has been received by the first terminal device;
The video transmission method according to claim 1, wherein the delay time is detected by measuring a time from when the first data is transmitted to when the second data is received.
前記遅延時間検出ステップでは、
前記第2の端末装置は、
前記副映像生成ステップで生成された前記副映像データを前記第1のデータとして前記第1の端末装置に送信する
請求項5記載の映像伝送方法。
In the delay time detecting step,
The second terminal device is:
The video transmission method according to claim 5, wherein the sub-video data generated in the sub-video generation step is transmitted to the first terminal device as the first data.
前記調整ステップでは、
前記第2の端末装置は、
受信した前記主映像データを構成する複数のピクチャから何れかのピクチャを間引くことにより、前記副映像データのデータ量を少なくする
請求項1記載の映像伝送方法。
In the adjustment step,
The second terminal device is:
The video transmission method according to claim 1, wherein a data amount of the sub-video data is reduced by thinning out any picture from a plurality of pictures constituting the received main video data.
前記映像伝送方法は、さらに、
前記第1の端末装置が、受信した前記副映像データの示す副映像の画質がしきい値未満となっている、前記副映像データの時間軸上の区間を低画質区間として特定する区間特定ステップと、
前記第1の端末装置が、特定した前記低画質区間を示す区間情報を記録媒体に記録する記録ステップとを含む
請求項1記載の映像伝送方法。
The video transmission method further includes:
A section specifying step in which the first terminal device specifies a section on the time axis of the sub-video data as a low-quality section in which the image quality of the sub-picture indicated by the received sub-picture data is less than a threshold value. When,
The video transmission method according to claim 1, further comprising: a recording step in which the first terminal device records section information indicating the identified low image quality section on a recording medium.
前記区間特定ステップでは、
前記第1の端末装置は、
前記副映像データを受信している間、前記副映像データのビットレートを検出し、前記ビットレートがレートしきい値未満となっている区間を前記低画質区間として特定する
請求項8記載の映像伝送方法。
In the section specifying step,
The first terminal device is:
9. The video according to claim 8, wherein a bit rate of the sub video data is detected while the sub video data is received, and a section in which the bit rate is less than a rate threshold is specified as the low image quality section. Transmission method.
前記映像伝送方法は、さらに、
前記第1の端末装置が、前記記録媒体から前記区間情報を読み出す区間読出ステップと、
前記第1の端末装置が、読み出した前記区間情報により示される低画質区間に対応する前記主映像データの区間の主映像を表示する区間表示ステップとを含む
請求項8記載の映像伝送方法。
The video transmission method further includes:
A section reading step in which the first terminal device reads the section information from the recording medium;
The video transmission method according to claim 8, further comprising: a section display step in which the first terminal device displays a main video of the section of the main video data corresponding to the low image quality section indicated by the read section information.
前記映像伝送方法は、さらに、
前記第1の端末装置が撮影することにより前記主映像データを生成する主映像生成ステップを含む
請求項1記載の映像伝送方法。
The video transmission method further includes:
The video transmission method according to claim 1, further comprising a main video generation step of generating the main video data by photographing the first terminal device.
前記映像伝送方法は、さらに、
前記第1の端末装置が、撮影により生成される前記主映像データの主映像と、受信する前記副映像データの副映像とを表示する映像表示ステップを含む
請求項11記載の映像伝送方法。
The video transmission method further includes:
The video transmission method according to claim 11, further comprising: a video display step in which the first terminal device displays a main video of the main video data generated by shooting and a sub-video of the received sub-video data.
端末装置が他の端末装置との間で映像に関するデータを送受信する映像伝送方法であって、
前記他の端末装置から、主映像を示す主映像データを受信する主映像受信ステップと、
受信した前記主映像データの示す主映像に対応する副映像を示す副映像データを生成する副映像生成ステップと、
前記他の端末装置との間でのデータ送受信の遅延時間を検出する遅延時間検出ステップと、
検出した前記遅延時間が長いほど、前記副映像生成ステップで生成される副映像データのデータ量が少なくなるように前記データ量を調整する調整ステップと、
前記他の端末装置に前記副映像データを送信する副映像送信ステップと
を含む映像伝送方法。
A video transmission method in which a terminal device transmits / receives data related to video to / from another terminal device,
A main video receiving step of receiving main video data indicating the main video from the other terminal device;
A sub video generation step of generating sub video data indicating a sub video corresponding to the main video indicated by the received main video data;
A delay time detecting step of detecting a delay time of data transmission / reception with the other terminal device;
An adjustment step of adjusting the data amount so that the longer the detected delay time, the smaller the data amount of the sub-video data generated in the sub-video generation step;
And a sub-video transmission step of transmitting the sub-video data to the other terminal device.
他の端末装置との間で映像に関するデータを送受信する端末装置であって、
前記他の端末装置から、主映像を示す主映像データを受信する主映像受信部と、
受信した前記主映像データの示す主映像に対応する副映像を示す副映像データを生成する副映像生成部と、
前記他の端末装置との間でのデータ送受信の遅延時間を検出する遅延時間検出部と、
検出した前記遅延時間が長いほど、前記副映像生成部で生成される副映像データのデータ量が少なくなるように前記データ量を調整する調整部と、
前記他の端末装置に前記副映像データを送信する副映像送信部と
を備える端末装置。
A terminal device that transmits and receives video-related data to and from other terminal devices,
A main video receiver that receives main video data indicating the main video from the other terminal device;
A sub-video generating unit that generates sub-video data indicating a sub-video corresponding to the main video indicated by the received main video data;
A delay time detecting unit for detecting a delay time of data transmission / reception with the other terminal device;
An adjustment unit that adjusts the amount of data so that the amount of sub-picture data generated by the sub-picture generation unit decreases as the detected delay time increases;
A terminal device comprising: a sub-video transmission unit that transmits the sub-video data to the other terminal device.
端末装置が他の端末装置との間で映像に関するデータを送受信するためのプログラムであって、
前記他の端末装置から、主映像を示す主映像データを受信する主映像受信ステップと、
受信した前記主映像データの示す主映像に対応する副映像を示す副映像データを生成する副映像生成ステップと、
前記他の端末装置との間でのデータ送受信の遅延時間を検出する遅延時間検出ステップと、
検出した前記遅延時間が長いほど、前記副映像生成ステップで生成される副映像データのデータ量が少なくなるように前記データ量を調整する調整ステップと、
前記他の端末装置に前記副映像データを送信する副映像送信ステップと
を前記端末装置のコンピュータに実行させるプログラム。
A program for a terminal device to transmit and receive data related to video with other terminal devices,
A main video receiving step of receiving main video data indicating the main video from the other terminal device;
A sub video generation step of generating sub video data indicating a sub video corresponding to the main video indicated by the received main video data;
A delay time detecting step of detecting a delay time of data transmission / reception with the other terminal device;
An adjustment step of adjusting the data amount so that the longer the detected delay time, the smaller the data amount of the sub-video data generated in the sub-video generation step;
A program for causing a computer of the terminal device to execute a sub-video transmission step of transmitting the sub-video data to the other terminal device.
端末装置との間で映像に関するデータを送受信する集積回路であって、
前記端末装置から、主映像を示す主映像データを受信する主映像受信部と、
受信した前記主映像データの示す主映像に対応する副映像を示す副映像データを生成する副映像生成部と、
前記端末装置との間でのデータ送受信の遅延時間を検出する遅延時間検出部と、
検出した前記遅延時間が長いほど、前記副映像生成部で生成される副映像データのデータ量が少なくなるように前記データ量を調整する調整部と、
前記端末装置に前記副映像データを送信する副映像送信部と
を備える集積回路。
An integrated circuit that transmits and receives video data to and from a terminal device,
A main video receiving unit that receives main video data indicating the main video from the terminal device;
A sub-video generating unit that generates sub-video data indicating a sub-video corresponding to the main video indicated by the received main video data;
A delay time detection unit for detecting a delay time of data transmission / reception with the terminal device;
An adjustment unit that adjusts the amount of data so that the amount of sub-picture data generated by the sub-picture generation unit decreases as the detected delay time increases;
An integrated circuit comprising: a sub-video transmission unit that transmits the sub-video data to the terminal device.
JP2008170371A 2008-06-30 2008-06-30 Image transmission method and terminal device Pending JP2010011287A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008170371A JP2010011287A (en) 2008-06-30 2008-06-30 Image transmission method and terminal device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008170371A JP2010011287A (en) 2008-06-30 2008-06-30 Image transmission method and terminal device

Publications (1)

Publication Number Publication Date
JP2010011287A true JP2010011287A (en) 2010-01-14

Family

ID=41591198

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008170371A Pending JP2010011287A (en) 2008-06-30 2008-06-30 Image transmission method and terminal device

Country Status (1)

Country Link
JP (1) JP2010011287A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5607084B2 (en) * 2010-02-15 2014-10-15 パナソニック株式会社 Content communication apparatus, content processing apparatus, and content communication system
JP2017092646A (en) * 2015-11-06 2017-05-25 株式会社リコー Information processing system, information processing apparatus, information processing method, and program
JP2017112455A (en) * 2015-12-15 2017-06-22 キヤノン株式会社 Information processing unit
US9729867B2 (en) 2011-07-29 2017-08-08 Panasonic Intellectual Property Management Co., Ltd. Wireless communication terminal and communication control method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5607084B2 (en) * 2010-02-15 2014-10-15 パナソニック株式会社 Content communication apparatus, content processing apparatus, and content communication system
US9729867B2 (en) 2011-07-29 2017-08-08 Panasonic Intellectual Property Management Co., Ltd. Wireless communication terminal and communication control method
JP2017092646A (en) * 2015-11-06 2017-05-25 株式会社リコー Information processing system, information processing apparatus, information processing method, and program
JP2017112455A (en) * 2015-12-15 2017-06-22 キヤノン株式会社 Information processing unit

Similar Documents

Publication Publication Date Title
US8875208B1 (en) High quality multimedia transmission from a mobile device for live and on-demand viewing
TWI643502B (en) Content reproduction system, content reproduction apparatus, program, content reproduction method, and providing content server
US9699518B2 (en) Information processing apparatus, information processing system, recording medium, and method for transmission and reception of moving image data
US20150373075A1 (en) Multiple network transport sessions to provide context adaptive video streaming
KR20160110472A (en) Streaming multiple encodings encoded using different encoding parameters
US9153127B2 (en) Video transmitting apparatus, video receiving apparatus, and video transmission system
TW201238356A (en) Adaptive bit rate control based on scenes
JP6481206B2 (en) Information processing apparatus, content request method, and computer program
JP2007274443A (en) Image transmitting method, transmitter, receiver and image transmitting system
JP4526294B2 (en) STREAM DATA TRANSMITTING DEVICE, RECEIVING DEVICE, RECORDING MEDIUM CONTAINING PROGRAM, AND SYSTEM
JP2010011287A (en) Image transmission method and terminal device
EP2538670B1 (en) Data processing unit
US20160100132A1 (en) Reception apparatus, reception method, and program thereof, image capturing apparatus, image capturing method, and program thereof, and transmission apparatus, transmission method, and program thereof
US20110317758A1 (en) Image processing apparatus and method of processing image and video
JP6355634B2 (en) Data processing apparatus, data processing method, program, recording medium, and data processing system
KR101830882B1 (en) Method and apparatus for generating control packet
JP5488694B2 (en) Remote mobile communication system, server device, and remote mobile communication system control method
JP6400163B2 (en) Reception device, reception method, transmission device, transmission method, and program
WO2014076823A1 (en) Information processing device, information processing system, information processing program, and video data transmission/reception method
JP2004349743A (en) Video stream switching system, method, and video image monitoring and video image distribution system including video stream switching system
US12003887B2 (en) Image encoding method, image encoder and image transmission system
US20210400233A1 (en) Encoding method, image encoder and image transmission system
JP2009290790A (en) Apparatus and method for video image transmission
JP2009164964A (en) Information processing apparatus, information processing method, information processing system, and information processing program
JP2002369055A (en) Image pickup recorder