WO2014057555A1 - 情報処理装置、情報処理システム、情報処理プログラム、及び動画データ送受信方法 - Google Patents

情報処理装置、情報処理システム、情報処理プログラム、及び動画データ送受信方法 Download PDF

Info

Publication number
WO2014057555A1
WO2014057555A1 PCT/JP2012/076255 JP2012076255W WO2014057555A1 WO 2014057555 A1 WO2014057555 A1 WO 2014057555A1 JP 2012076255 W JP2012076255 W JP 2012076255W WO 2014057555 A1 WO2014057555 A1 WO 2014057555A1
Authority
WO
WIPO (PCT)
Prior art keywords
frame
moving image
image data
information
deleted
Prior art date
Application number
PCT/JP2012/076255
Other languages
English (en)
French (fr)
Inventor
大櫃敏郎
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to PCT/JP2012/076255 priority Critical patent/WO2014057555A1/ja
Priority to JP2014540685A priority patent/JPWO2014057555A1/ja
Priority to EP12886418.8A priority patent/EP2908547B1/en
Publication of WO2014057555A1 publication Critical patent/WO2014057555A1/ja
Priority to US14/665,300 priority patent/US9699518B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234381Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the temporal resolution, e.g. decreasing the frame rate by frame skipping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/647Control signaling between network components and server or clients; Network processes for video distribution between server and clients, e.g. controlling the quality of the video stream, by dropping packets, protecting content from unauthorised alteration within the network, monitoring of network load, bridging between two different networks, e.g. between IP and wireless
    • H04N21/64784Data processing by the network
    • H04N21/64792Controlling the complexity of the content stream, e.g. by dropping packets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/164Feedback from the receiver or from the transmission channel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/23406Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving management of server-side video buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234363Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the spatial resolution, e.g. for clients with a lower screen resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/24Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests
    • H04N21/2402Monitoring of the downstream path of the transmission network, e.g. bandwidth available
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44245Monitoring the upstream path of the transmission network, e.g. its availability, bandwidth
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/4425Monitoring of client processing errors or hardware failure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4621Controlling the complexity of the content stream or additional data, e.g. lowering the resolution or bit-rate of the video stream for a mobile client with a small screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/633Control signals issued by server directed to the network components or client
    • H04N21/6338Control signals issued by server directed to the network components or client directed to network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/637Control signals issued by the client directed to the server or network components
    • H04N21/6377Control signals issued by the client directed to the server or network components directed to server
    • H04N21/6379Control signals issued by the client directed to the server or network components directed to server directed to encoder, e.g. for requesting a lower encoding rate
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/647Control signaling between network components and server or clients; Network processes for video distribution between server and clients, e.g. controlling the quality of the video stream, by dropping packets, protecting content from unauthorised alteration within the network, monitoring of network load, bridging between two different networks, e.g. between IP and wireless
    • H04N21/64723Monitoring of network processes or resources, e.g. monitoring of network load
    • H04N21/64738Monitoring network characteristics, e.g. bandwidth, congestion level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/65Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using error resilience
    • H04N19/68Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using error resilience involving the insertion of resynchronisation markers into the bitstream

Definitions

  • the present invention relates to video data transmission / reception technology.
  • mobile terminal devices such as smartphones (hereinafter referred to as mobile terminals) that can be taken out and driven by a battery can shoot videos with a built-in camera and view them on the mobile terminal. Some have graphic performance that can be done.
  • a mobile terminal also has a video playback function and an Internet connection function, and can view content of a video site on the Internet.
  • mobile terminals that can view personal photos and videos stored in an auxiliary storage device of a personal computer (hereinafter referred to as a personal computer) in the home via the Internet are provided.
  • the frame rate of TV moving image content is, for example, 24 fps (frame per second), and such transfer of moving image content significantly increases the amount of network traffic.
  • a LAN Local Area Network
  • a network delay For example, since the LAN bandwidth in the home is often small, network delay is likely to occur.
  • the network transmission rate may be lower than the moving image playback rate, which may result in missing frames during playback of the moving image.
  • This system is composed of a multimedia streaming server and a multimedia streaming client.
  • the multimedia streaming server streams multimedia data according to a predetermined service quality level according to the analysis result of metadata corresponding to the multimedia data to be serviced and the network bandwidth information input from the outside.
  • the multimedia streaming client measures the bandwidth of the network to which the multimedia streaming server is connected using the time when the multimedia data is received and the size information of the multimedia data.
  • the multimedia streaming client transmits the measured network bandwidth information to the multimedia streaming server.
  • An information processing system includes a moving image distribution server, a relay server including a moving image reproduction program for reproducing moving image data distributed from the moving image distribution server, and a client terminal that receives the screen information corresponding to the reproduction data of the moving image data from the relay server and outputs the screen. Is provided. Then, the information processing system performs traffic control among the moving image distribution server, the relay server, and the client terminal.
  • the information processing system also includes a quality measuring unit that measures the communication quality of the communication line A between the relay server and the client terminal.
  • the information processing system distributes the moving image data on the communication line B between the moving image distribution server and the relay server corresponding to the amount of screen information of the communication data amount allowed by the measured communication quality a of the communication line A.
  • An upstream identification means for identifying the quantity is provided.
  • the information processing system includes upstream control means for controlling the amount of moving image data distributed from the moving image distribution server to the relay server via the communication line B as much as possible to the specified distribution amount of moving image data.
  • any of the above configurations is a configuration that changes the quality of streaming service according to the bandwidth of the network, and in a network environment where the transmission rate is lower than the playback rate of the moving image, compared with the original image quality of the data before transmission, Image quality during playback is reduced.
  • an object of the present invention is to improve the reproduction quality of moving image data transmitted from a storage destination via a network with a narrow bandwidth.
  • the first information processing apparatus includes a storage unit, a monitoring unit, a deletion unit, a frame information generation unit, and a transmission unit.
  • the storage unit stores first moving image data.
  • the monitoring unit monitors the state of the communication network.
  • the deletion unit changes the first frame rate indicating the first number of frames per unit time of the first moving image data from the first frame rate, which is smaller than the first frame rate, according to the monitoring result.
  • any frame of the first moving image data is deleted to generate second moving image data.
  • the frame information generation unit generates frame information regarding the deleted frame.
  • the transmission unit transmits the second moving image data and the frame information.
  • the second information processing apparatus includes a receiving unit, a complementary image generating unit, and a moving image data generating unit.
  • the receiving unit sets the first moving image data so that the first frame rate indicating the first number of frames per unit time of the first moving image data becomes a second frame rate less than the first number of frames.
  • the second moving image data generated by deleting any one of the frames and the frame information regarding the deleted frames are received.
  • the complementary image generation unit generates a complementary image that complements the deleted frame image using the frame information.
  • the moving image data generation unit inserts the complementary image at the position of the deleted frame of the second moving image data, and generates moving image data of the first frame rate.
  • the information processing system can improve the reproduction quality of moving image data transmitted from the storage destination via the network.
  • FIG. 1 shows an example of the configuration of an information processing system according to the present embodiment.
  • An example of the structure of the meta-information of video data is shown.
  • An example of the sequence diagram (the 1) of the information processing system concerning this embodiment is shown.
  • An example of the sequence diagram (the 2) of the information processing system concerning this embodiment is shown.
  • the figure for demonstrating adjustment of the frame rate in the transmission terminal of moving image data is shown.
  • 6 shows a flowchart of a frame reduction process.
  • the figure for demonstrating the frame deletion method is shown.
  • movement flowchart in the frame deletion of a transmission terminal is shown.
  • movement when a deletion frame is not found is shown.
  • the figure for demonstrating the decoding process of a receiving terminal is shown. It is a flowchart of frame reconstruction by a receiving terminal. The operation
  • restoration of a receiving terminal is shown.
  • An example of the structure of the moving image server in this embodiment is shown.
  • 2 shows an example of a hardware configuration of a server or a personal computer according to the present embodiment. An example of the hardware constitutions of the mobile terminal which concerns on this embodiment is shown.
  • An example of the structure of the information processing system in this embodiment (modification) is shown.
  • FIG. 1 is an example of a functional block diagram of the information processing system according to the present embodiment.
  • the first information processing apparatus 1 includes a storage unit 2, a monitoring unit 3, a deletion unit 4, a frame information generation unit 5, and a transmission unit 6.
  • the storage unit 2 stores first moving image data.
  • the monitoring unit 3 monitors the state of the communication network 11. In addition, the monitoring unit 3 monitors the bandwidth of the communication network 11.
  • the deletion unit 4 changes from the first frame rate indicating the first number of frames per unit time of the first moving image data to a second frame rate lower than the first frame rate according to the monitoring result. As described above, any frame of the first moving image data is deleted to generate second moving image data. In addition, the deletion unit 4 deletes any of the consecutive frames whose similarity is equal to or greater than a predetermined threshold between consecutive frames. Further, the deletion unit 4 adjusts the second frame rate by deleting the frame, and adjusts the resolution of the moving image data, thereby reducing the transmission rate of the distributed moving image data to a predetermined value or less according to the bandwidth. And
  • the frame information generation unit 5 generates frame information related to the deleted frame. Further, the frame information generation unit 5 adds the frame information to the meta information related to the second moving image data.
  • the frame information includes the start number of the deleted frame and the period of the deleted frame.
  • the transmission unit 6 transmits the second moving image data and frame information. In addition, the transmission unit 6 transmits meta information.
  • the second information processing apparatus 7 includes a receiving unit 8, a complementary image generating unit 9, and a moving image data generating unit 10.
  • the receiving unit 8 sets the first moving image so that the first frame rate indicating the first number of frames per unit time of the first moving image data becomes a second frame rate smaller than the first frame number.
  • the second moving image data generated by deleting one of the frames of the data and the frame information regarding the deleted frame are received.
  • the complementary image generation unit 9 generates a complementary image that complements the deleted frame image using the frame information. Further, the complementary image generation unit 10 generates a complementary image based on the change points of the frames before and after the deleted frame.
  • the moving image data generation unit 10 inserts the complementary image at the position of the deleted frame of the second moving image data, and generates moving image data at the first frame rate.
  • the transmission rate or frame rate of moving image data can be changed according to the network bandwidth. Furthermore, even if video data is received via a network environment where the transmission rate is lower than the video playback rate, and the receiver does not have enough buffer for video playback, the original frame of video data before transmission It becomes possible to reproduce moving image data at a rate. Moreover, the quality of the moving image data restored
  • FIG. 2 shows an example of the configuration of the information processing system according to the present embodiment.
  • the information processing system includes a personal computer 33 that stores video data, a server 31 that receives the video data from the personal computer 33 and transfers it to the mobile terminal 35, and a mobile terminal 35 that can reproduce the video data received from the server 31.
  • the personal computer 33 is an example of a first information processing apparatus.
  • the server 31 is an example of a first information processing apparatus and a second information processing apparatus.
  • the mobile terminal 35 is an example of a second information processing apparatus.
  • a personal computer 33 existing on the LAN (Local Area Network) side in the home is connected to the WAN (Wide Area Network) side via the router 32. Further, the mobile terminal 35 and the server 31 are connected through the communication carrier 34.
  • the personal computer 33 is disposed in a home, for example, and is connected to the server 31 via a network.
  • the personal computer 33 stores moving image data accessed from the mobile terminal 35 via the server 31. Access from the server 31 to the personal computer 33 is restricted by the authentication function.
  • the personal computer 33 holds a file including a list of moving image files that can be provided to the server 31 for each accessed server 31. Or the personal computer 33 may hold
  • the personal computer 33 receives the monitoring result of the network status from the server 31, deletes the frame of the moving image file according to the monitoring status, and distributes it to the server 31.
  • the personal computer 33 may be a host computer having the server 31 function, or a storage device that stores a moving image file and is connected to a network.
  • the server 31 is connected to the personal computer 33 and the mobile terminal 35 via a network.
  • the server 31 receives a viewing request for a moving image file stored in the personal computer 33 from the mobile terminal 35.
  • the server 31 has an authentication function for establishing a connection with the mobile terminal 35.
  • the server 31 acquires the moving image file requested for viewing from the personal computer 33 and transfers it to the mobile terminal 35.
  • the server 31 has a function of integrally monitoring the network bandwidth between the server 31 and the mobile terminal 35 and between the server 31 and the personal computer 33.
  • the server 31 deletes the frame of the moving image file according to the network monitoring status and distributes it to the mobile terminal 35.
  • the mobile terminal 35 is connected to the server 31 via a network.
  • the mobile terminal 35 accepts designation of a playback moving image stored in the personal computer 33 from the user.
  • the mobile terminal 35 receives designation of the resolution of the moving image to be reproduced from the user.
  • the mobile terminal 35 receives the moving image data from the server 31 in a streaming format, and if there is a frame deleted at the time of transmission in the received moving image data, the mobile terminal 35 generates a complementary frame corresponding to the frame and inserts it into the moving image data. .
  • the moving image data before deleting the frame in the personal computer 33 is irreversibly restored.
  • the mobile terminal 35 reproduces the restored moving image data.
  • the mobile terminal 35 reproduces the moving image data at the same frame rate as the moving image data stored in the personal computer 33.
  • the distribution of data from the personal computer 33 to the server 31 may be referred to as “upload”, and the transmission of data from the server 31 to the mobile terminal 35 may be referred to as “downlink” (download).
  • the personal computer 33 or the server 31 that is the transmission source of the moving image data may be referred to as a transmission terminal
  • the server 31 or the mobile terminal 35 that is the reception side of the moving image data may be referred to as a reception terminal.
  • a frame deleted in the personal computer 33 may be referred to as a deleted frame.
  • the meta information of the video data is sent from the transmitting terminal to the receiving terminal together with the video data.
  • the personal computer 33 adds the deleted frame information to the meta information, and the mobile terminal 35 restores the moving image data using the meta information.
  • FIG. 3 shows an example of the structure of meta information of video data.
  • Meta information is information about moving image data and is associated with moving image data.
  • the meta information includes a format size (content resolution) 144, a video title 145, a video time 146, a creation date 147, contents 148, a deletion frame start number 141, a deletion frame period (number of frames) 142, and a time stamp 143.
  • the format size (content resolution) 144, the video title 145, the video time 146, the creation date 147, and the contents 148 are included in the moving image data stored in the personal computer 33.
  • the format size (content resolution) 144, the video title 145, the video time 146, the creation date 147, and the content 148 are respectively the format size (content resolution), video title, video time, creation date, and content of the corresponding video data. is there.
  • the deleted frame start number 141, the deleted frame period (number of frames) 142, and the time stamp 143 are data items added to the metadata when the transmitting terminal deletes a frame.
  • the deletion frame start number 141 is a frame number of a frame deleted by the transmission terminal.
  • the deletion frame period (the number of frames) 142 indicates a period when the frames to be deleted are continuous, and is represented by, for example, the number of consecutive deleted frames.
  • the time stamp 143 is a time stamp of the deleted frame, and the time stamp 143 is defined by adding the number of seconds from the start of reproduction to each video frame.
  • the deleted frame start number 141, the deleted frame period (number of frames) 142, and the time stamp 143 are information on a deleted frame every predetermined period (for example, every 1 second). Therefore, when there are a plurality of deleted frames within a predetermined period, the data items of the deleted frame start number 141, the deleted frame period 142, and the time stamp 143 associated with each deleted frame are added to the meta information.
  • the deletion frame start number 141, the deletion frame period (number of frames) 142, and the time stamp 143 may be the frame number of the restart frame, the period of the restart frame (number of frames), and the time stamp of the restart frame.
  • the video frames to be deleted are continuous, if there is information on the frame number to be started and the frame period, the frame start number to be deleted when the mobile terminal 35 reproduces the video, The period can be recognized in advance. For this reason, the mobile terminal 35 may complement the start number of the deleted frame and its period.
  • the time stamp 143 may be configured not to be included in the meta information by complementing using the deleted frame start number 141 and the time stamp of the audio frame corresponding to the deleted frame.
  • 4A and 4B are sequence diagrams of the information processing system according to the present embodiment.
  • 4A and 4B show a personal computer 33 in which video data is stored, a mobile terminal 35 that can acquire video data from the personal computer 33 and view the video, and a server that relays data transfer between the mobile terminal 35 and the personal computer 33.
  • 31 represents an operational relationship.
  • the mobile terminal 35 connects to the server 31 that relays between the mobile terminal 35 and the personal computer 33 in order to acquire the moving image data stored in the personal computer 33 (S401).
  • the server 31 performs authentication in order to confirm the validity of the mobile terminal 35 that requested the connection (S402). Further, the server 31 recognizes the resolution of the mobile terminal 35 simultaneously with the authentication of the mobile terminal 35. If the authentication is successful, the server 31 sends a device approval response to the mobile terminal 35 (S403).
  • the server 31 connects to the personal computer 33 in which the moving image data requested from the mobile terminal 35 is stored (S404). Even when the connection between the personal computer 33 and the server 31 is established, authentication for confirming the validity of the connection is performed. If the authentication is successful, the personal computer 33 transmits a connection response to the server 31 (S405).
  • the personal computer 33 notifies the mobile terminal 35 of list information of videos that can be provided via the server 31 (S406).
  • a list of videos that can be provided may be preset for each mobile terminal 35 or for each server 31 and stored as a file in the personal computer 33.
  • the resolution information of the mobile terminal 35 may be received from the server 31, and the personal computer 33 may determine a video that the mobile terminal 35 can reproduce from the video data according to the information.
  • the user When the notified list is displayed on the screen of the mobile terminal 35, the user operates the mobile terminal 35 to select a video to be played back.
  • the mobile terminal 35 makes a delivery request for the selected playback video (hereinafter referred to as a playback video request) to the server 31 (S407).
  • the server 31 performs information collection work for monitoring the network bandwidth between the mobile terminal 35 and the server 31 and between the personal computer 33 and the server 31 (S408, S409).
  • the server 31 transmits the playback video request received from the mobile terminal 35 to the personal computer 33 (S410).
  • the personal computer 33 notifies the server 31 of meta information related to the video specified by the playback video request (S411).
  • the server 31 performs quality monitoring of moving picture transmission between the personal computer 33 and the server 31 (hereinafter referred to as upstream distribution quality monitoring) (S412). Specifically, the frame rate of the moving image data is determined so that the data amount of the moving image data transmitted by the personal computer 33 falls within the range of the data amount that can be stably transmitted and received. That is, the server 31 determines an adjustment amount for adjusting the frame rate of the moving image data to be transmitted so that the bandwidth used for moving image transfer is equal to or less than the network bandwidth.
  • upstream distribution quality monitoring quality monitoring
  • the server 31 notifies the personal computer 33 of the frame rate of the transmission video determined in the distribution quality monitoring (S413). Further, the server 31 notifies the personal computer 33 of the resolution of the mobile terminal 35 recognized in S402, and instructs the personal computer 33 to change the resolution of the moving image data in accordance with the resolution of the mobile terminal 35 (S414).
  • the personal computer 33 Upon receiving the upstream distribution quality monitoring result and the resolution change request, the personal computer 33 adjusts the frame rate of the moving image to be distributed and changes the resolution according to the received result and request (S415).
  • the frame rate is adjusted by deleting frames based on the similarity between consecutive frames.
  • the personal computer 33 adds the deleted frame information to the meta information, and reflects the changed resolution information in the meta information (S416). Then, the personal computer 33 notifies the server 31 of the changed meta information (S417).
  • the server 31 When the server 31 receives the meta information from the personal computer 33, the server 31 performs quality monitoring (hereinafter referred to as downlink distribution quality monitoring) of moving image transmission between the server 31 and the mobile terminal 35 (S418). Specifically, the adjustment amount for adjusting the frame rate of the moving image data to be transmitted by the server 31 so that the bandwidth used for moving image transfer is equal to or less than the bandwidth of the network between the server 31 and the mobile terminal 35. To decide. At this time, the server 31 notifies the mobile terminal 35 of the video data change information as a playback information change request so that the mobile terminal 35 can recognize the video data change information changed by the personal computer 33 (S419). Then, the server 31 notifies the personal computer 33 of the frame rate of the transmission moving image determined in the downlink distribution quality monitoring (S420).
  • quality monitoring hereinafter referred to as downlink distribution quality monitoring
  • the personal computer 33 When receiving the downstream distribution quality result, the personal computer 33 adjusts the frame rate of the moving image to be distributed according to the reception result (S421). The frame rate is adjusted by deleting frames based on the similarity between consecutive frames. Then, the personal computer 33 adds the deleted frame information to the meta information (S422). Then, the personal computer 33 notifies the server 31 of the changed meta information (S423).
  • the server 31 notifies the mobile terminal 35 of distribution video change information (S424).
  • the mobile terminal 35 recognizes the change of the distribution video and sends a reproduction setting response to the server 31 (S425).
  • the server 31 notifies the personal computer 33 of a streaming start request (S426).
  • the personal computer 33 Upon receiving the streaming start request from the server 31, the personal computer 33 sends a streaming start response to the mobile terminal 35 via the server 31 (S427). Then, the personal computer 33 delivers the streaming data to the server 31 (S428).
  • the server 31 distributes the streaming data to the mobile terminal 35 (S429).
  • the mobile terminal 35 When receiving the streaming data, the mobile terminal 35 decodes the received data (S430). Then, the mobile terminal 35 restores the moving image data by generating a complementary frame corresponding to the frame deleted in S415 and S421 and inserting it into the moving image data (S431). Then, the mobile terminal 35 reproduces the restored moving image data (S432).
  • the server 31 notifies the personal computer 33 of the results of the upstream distribution quality monitoring and the downstream distribution quality monitoring individually. However, the server 31 simultaneously performs the upstream distribution quality monitoring and the downstream distribution quality monitoring. The results may be collectively notified to the personal computer 33. In that case, the server 31 compares the frame rate of the distribution video determined by the upstream distribution quality monitoring with the frame rate of the distribution video determined by the downlink distribution quality monitoring, and sets the value of the lower frame rate to the personal computer 33. Notify Then, the personal computer 33 adjusts the frame rate of the distribution video so as to be the received frame rate.
  • the operation of adjusting the frame rate of the distribution video (S421, S422) in response to the result of the downstream distribution quality monitoring is executed by the personal computer 33, but the server 31 receives the streaming data from the personal computer 33. (S428) The server 31 may execute this later. Further, the personal computer 33 may inquire of the mobile terminal 35 whether or not to change the frame rate before the operation of adjusting the frame rate (S421, S422). In that case, the mobile terminal receives an instruction from the user as to whether or not to adjust the frame rate, and transfers the result to the mobile terminal.
  • the mobile terminal 35 may receive an instruction to change the resolution of the moving image or an instruction to change the connected line instead of adjusting the frame rate, and may transfer the result to the mobile terminal.
  • connection operation (S401, S404) between the mobile terminal 35 and the server 31, and between the server 31 and the personal computer 33 will be described in detail.
  • the mobile terminal 35 is installed with an application program (hereinafter referred to as an application) for reproducing a moving image, and is connected to the target server 31 by the application.
  • the designation of the target server 31 may be selected by the user, or may be set in advance in the application.
  • the mobile terminal 35 when the mobile terminal 35 is connected like a 3G (3rd generation) line, it can specify the line and connect to the Internet.
  • the mobile terminal 35 and the personal computer 33 enable P2P (Peer to Peer) connection via the Internet.
  • Authentication is performed when a connection is established between the server 31 and the mobile terminal 35 and between the server 31 and the personal computer 33.
  • Authentication information used there is, for example, specific device information such as an IP address and a MAC address of each device. .
  • the authentication information is managed on the server 31, and the IP address and unique device information are stored grouped for each mobile terminal 35 in association with the mobile terminal 35 and the personal computer 33 to which the mobile terminal 35 can be connected.
  • One personal computer 33 may be associated with one mobile terminal 35 or may be associated with a plurality.
  • the server 31 collates the IP address or unique device information of the mobile terminal 35 that has made the connection request with the IP address or unique device information stored in the server 31. If the collation results match, the server 31 establishes a connection assuming that the authentication is successful.
  • Various authentication techniques may be used for authentication, and a password authentication method, an electronic certificate authentication method, or the like may be used.
  • the server 31 After establishing the connection with the mobile terminal 35, the server 31 connects to the personal computer 33 corresponding to the mobile terminal 35. Specifically, when one personal computer 33 is associated with one mobile terminal 35 in the authentication information stored in the server 31, the server 31 confirms the authentication information and corresponds to the mobile terminal 35. Connect to PC 33. Alternatively, when the mobile terminal 35 establishes a connection with the server 31, the mobile terminal 35 may designate a personal computer 33 as a connection destination, and the server 31 may be connected to the designated personal computer 33.
  • the personal computer 33 that has received the connection request from the server 31 authenticates whether or not the server 31 that requested the access is legitimate.
  • Various authentication techniques are used for the authentication, as in the authentication performed by the server 31 for the mobile terminal 35.
  • access control may be performed by granting access authority to a moving image file held by the personal computer 33 or a directory (folder) of the personal computer 33.
  • the personal computer 33 and the server 31, and the server 31 and the mobile terminal 35 may be connected using a high security network technology such as VPN (Virtual Private Network). Furthermore, in data transmission between the personal computer 33 and the server 31, and between the server 31 and the mobile terminal 35, the transmitted data may be encrypted by various encryption techniques.
  • the server 31 and the personal computer 33 may be arranged in the same intranet.
  • the server 31 monitors the bandwidth between the mobile terminal 35 and the server 31 and between the personal computer 33 and the server 31. First, bandwidth monitoring between the mobile terminal 35 and the server 31 will be described.
  • the server 31 transmits a bandwidth detection packet to the mobile terminal 35 in order to detect the bandwidth of the network connected to the mobile terminal 35.
  • the time when the server 31 transmits is recorded.
  • the mobile terminal 35 receives the packet, it measures the reception time and compares it with the transmission time recorded in the packet. Thereby, the mobile terminal 35 can calculate the time required for a certain amount of packets to reach the mobile terminal 35 from the server 31.
  • the mobile terminal 35 transfers the bandwidth monitoring information obtained here to the server 31.
  • the server 31 divides a predetermined amount of data into a plurality of packets, and measures the time required for the mobile terminal 35 to receive the last packet after the server 31 transmits the first packet. Bandwidth monitoring information may be acquired.
  • the server 31 instructs the personal computer 33 to transmit a packet for bandwidth monitoring to the server 31.
  • the personal computer 33 transmits a band detection packet to the server 31.
  • the transmission packet records the time when the personal computer 33 transmits the packet.
  • the server 31 receives the packet, it measures the reception time, and compares it with the transmission time recorded in the packet, thereby calculating the time required for a certain amount of packets to reach the server 31 from the personal computer 33.
  • the personal computer 33 divides a certain amount of data into a plurality of packets, and measures the time required from the transmission of the first packet by the personal computer 33 until the server 31 receives the last packet. Bandwidth monitoring information may be acquired.
  • packet transmission for bandwidth monitoring is performed within a range where there is no problem in reproduction of actual moving image.
  • the bandwidth may be monitored by sending a command for monitoring the bandwidth, or may be sent by sending a command such as ping and measuring the response time.
  • the bandwidth between the personal computer 33 and the server 31 and between the server 31 and the mobile terminal 35 may be monitored at a time by sending a packet from the personal computer 33 to the mobile terminal 35 via the server 31.
  • not only bandwidth monitoring but also line traffic monitoring may be performed based on transmission delay.
  • the server 31 determines the data amount (usage amount) that can be stably transmitted / received per unit time based on the prescribed information amount and the bandwidth monitoring information.
  • the server 31 transmits the monitoring result to the mobile terminal 35, and the user confirms the bandwidth monitoring result by the mobile terminal 35 and designates the resolution of the moving image to be played back. May be. In that case, the designated resolution information is used in distribution quality monitoring.
  • the server 31 compares the data amount of the moving image to be transmitted with the data amount that can be stably transmitted / received, and the data amount of the moving image to be transmitted falls within the range of the data amount that can be stably transmitted / received. Then, the adjustment amount of the frame rate of the moving image data is determined.
  • the frame rate of the moving image data determined here is referred to as a transmission frame rate in the following description.
  • the frame rate of the moving image data to be transmitted is set so that the amount of moving image data transmitted from the personal computer 33 is within the range of the data amount that can be stably transmitted and received in the network between the server 31 and the personal computer 33.
  • Determine the adjustment amount First, the server 31 determines the available bandwidth between the server 31 and the personal computer 33 from the result of bandwidth monitoring between the server 31 and the personal computer 33. Alternatively, the server 31 determines an available bandwidth from the result of bandwidth monitoring and the transmission path capacity of the line. Then, the server 31 calculates the transmission bit rate of the moving image data from the resolution, bit color, compression rate, and frame rate of the moving image data. Then, the server 31 derives the deletion amount of the frame rate of the moving image data so that the calculated transmission bit rate falls within the usable bandwidth.
  • the moving image data to be transmitted so that the data amount of the moving image transmitted from the server 31 is within the range of the data amount that can be stably transmitted and received in the network between the server 31 and the mobile terminal 35.
  • the amount of adjustment of the frame rate is determined.
  • the server 31 determines the usable bandwidth between the server 31 and the mobile terminal 35 from the result of bandwidth monitoring between the server 31 and the mobile terminal 35.
  • the usable bandwidth is determined from the result of bandwidth monitoring and the transmission path capacity of the line.
  • the server 31 calculates the transmission bit rate of the moving image data from the resolution, bit color, compression rate, activity level, and frame rate of the moving image data.
  • the server 31 derives the amount of deletion of the frame rate of the moving image data so that the calculated transmission bit rate falls within the usable bandwidth.
  • the activity level is the frequency of packet transmission with respect to the stream, and varies depending on, for example, the content of the moving image data. For example, in the case of silent video data, there is no need to transmit an audio stream, and the activity level of the audio stream is zero.
  • the line between the server 31 and the personal computer 33 is assumed to be an optical line with a maximum bandwidth of 94 Mbps.
  • moving image data is encoded at a fixed bit rate in the codec.
  • the moving image data has a resolution of 1280 [dot per inch (dpi)] ⁇ 720 [dpi] full HD (full high definition), a bit color of 8, and a frame rate of 24 fps.
  • MPEG Motion Picture Experts Group
  • full I picture Intra picture
  • 1/2 size P picture Predictive picture
  • 1/4 size B picture Bi-directional
  • the compression rate of moving image data is about 11/30.
  • the original video data is content to be displayed on a device with a high resolution
  • video data is played back on the mobile terminal 35 with a low resolution
  • the appearance changes even if the resolution of the video data is reduced to the resolution of the mobile terminal 35.
  • the performance of the video playback chip of the mobile terminal 35 often cannot use all the amount of information included in the moving image data, and cannot reproduce fine changes in video.
  • the resolution based on the resolution of the mobile terminal 35 recognized by the server 31 is A, and the number of frames is B.
  • the frame deletion process may not be performed.
  • the frame rate of the video data is adjusted so that the amount of video data to be transmitted falls within the range of data that can be stably transmitted and received. Determine the amount.
  • the communication standard between the server 31 and the mobile terminal 35 is LTE (Long Term Evolution).
  • the bandwidth in this case is assumed to be 75 Mbps at the maximum.
  • the ratio of the bandwidth guaranteed for video distribution to the maximum transmission speed of the line is defined as Z%.
  • Z 1, the downstream band is 77 Mbps.
  • the transmitting terminal transmits a frame by dropping the frame so that the transmission bit rate of the moving image data is equal to or less than the downstream bandwidth.
  • the adjustment of the frame rate between the server 31 and the personal computer 33 takes into account the bandwidth between the server 31 and the mobile terminal 35 as well as the bandwidth between the server 31 and the personal computer 33, and adjusts to the smaller bandwidth. May be adjusted.
  • the server 31 may be switched to a line with a different bandwidth according to the result of the distribution quality monitoring. In this case, the server 31 searches for a network line that can be stably transmitted at the transmission rate of the moving image calculated by the distribution quality monitoring, and switches to that network line.
  • FIG. 5 is a diagram for explaining the adjustment of the frame rate in the moving picture data transmission terminal.
  • the adjustment of the frame rate is performed by a moving picture transmission terminal, that is, the personal computer 33 or the server 31 in this embodiment.
  • the file decoder 51 separates the streaming data into video data and audio data. Then, the file decoder 51 outputs the separated video data to the video encoder 53 and outputs the separated audio data to the audio encoder 55. Further, the file decoder 51 transmits the meta information of the streaming data to the frame control unit 52.
  • the frame control unit 52 determines a frame to be deleted from the video data so that the frame rate is equal to or lower than the transmission frame rate. Then, the frame control unit 52 adds information regarding the deleted frame to the meta information. That is, the frame control unit 52 stores the deleted frame information in the deleted frame start number 141, the deleted frame period (number of frames) 142, and the time stamp 143 of the meta information.
  • the video data output from the file decoder 51 is input to the video encoder 53.
  • the video encoder 53 deletes the deleted frame determined by the frame control unit 52 from the video data, and constructs a frame again. Then, the video encoder 53 encodes the reconstructed frame into a transmission format.
  • the encoded video data is divided or aggregated into, for example, RTMP (Real Time ⁇ ⁇ ⁇ ⁇ Messaging Protocol) format packets.
  • RTMP Real Time ⁇ ⁇ ⁇ ⁇ Messaging Protocol
  • the audio data separated by the file decoder 51 is input to the audio encoder 55.
  • the audio encoder 55 converts the received audio data into a sending format and outputs it to the audio memory 56.
  • the encoded audio data is transmitted from the audio memory 56 to the receiving terminal.
  • the audio data corresponding to the deleted frame is not deleted, and the meta information of the audio data is transmitted without being changed. This is because the number of frames returns to the number before frame deletion when the streaming data is played back on the mobile terminal 35.
  • FIG. 6 shows a flowchart of the frame reduction process.
  • the transmitting terminal reads video data to be transmitted (S61).
  • the transmission terminal confirms the result of distribution quality monitoring by the server 31 and recognizes the frame rate for transmission (S62).
  • the transmitting terminal confirms the number of frames to be deleted from the transmission frame rate (S63).
  • the transmitting terminal checks whether or not there is a deleted frame (S64). If there is no deleted frame (No in S64), the buffer period is increased (S65), and it is confirmed again whether there is a deleted frame (S64). If there is a deleted frame (S64), the corresponding frame is deleted, and the deleted frame information is stored in the meta information (S66). Then, the video data is re-encoded for delivery and distributed (S67).
  • the data transmission size without timelessness is confirmed.
  • the original frame is 24 frames, and if it is impossible to distribute without timeless if it is not dropped to 17 frames from here, it is necessary to delete 7 frames.
  • FIG. 7 is a diagram for explaining a frame deletion method.
  • the deletion of the frame is performed using the closeness with the previous and subsequent frames in the time series of the moving image data.
  • the AK frames are stored in the work buffer of the transmitting terminal.
  • the work buffer does not need to store all the frames of the moving image data, and may have an area where the frame rate can be made equal to or less than the frame rate determined by the distribution quality monitoring by performing the frame deletion process.
  • the transmitting terminal calculates the similarity to the frame immediately before each frame (in the case of frame B, frame A corresponds to the immediately preceding frame). Various methods may be used for the calculation of the similarity.
  • the similarity may be a similarity obtained by comparing the video frame with the immediately preceding frame, or the sum of squares of differences in pixel values (SSD: Sum The degree of similarity may be calculated by calculating using “Squared” Differences).
  • the similarity is calculated at the transmitting terminal. As shown in the similarity 71 of FIG. 7, the similarity of B to A is “60”, the similarity of C to B is “70”, the similarity of D to C is “90”, and so on. Is as shown in the similarity 71.
  • the sending terminal deletes a frame whose similarity to the immediately preceding frame is greater than or equal to a predetermined threshold.
  • the example of FIG. 7 shows a case where the threshold is 90, and frames D, H, and I having a similarity of 90 or more with respect to the immediately preceding frame are deleted.
  • the deletion is performed even if the immediately preceding frame is the frame to be deleted (frame H).
  • the frames H and I to be deleted may be continuous.
  • the frame rate of the moving image needs to be equal to or lower than the frame rate determined by the distribution quality monitoring. Details of the operation in this case will be described later.
  • the transmitting terminal uploads to the server 31 with meta information in which the deleted frame information is added appended to the frame.
  • the uploaded data is downloaded to the mobile terminal 35 of the receiving terminal.
  • the mobile terminal 35 receives the video data with the frames D, H and I deleted.
  • the mobile terminal 35 receives the meta information simultaneously with the video data, and recognizes the deletion information of the frames D, H, and I in the meta information.
  • the mobile terminal 35 specifies the deleted frame from the information of the deleted frame number 141, the deleted frame period (number of frames) 142, and the time stamp 143 of the meta information.
  • the mobile terminal 35 generates a complementary frame of the deleted frames D, H, and I, and inserts the complementary frame at the position of the deleted frame of the moving image data, thereby performing moving image data restoration processing.
  • Supplementary frame generation processing is executed by averaging the frame change points before and after the deleted frame. That is, in the case of the complementary frame generation processing for frame D, the change points of frame C and frame E are averaged to generate a complementary frame. Specifically, first, the pixel values of the pixels corresponding to the positions in the frame C and the frame E are compared to determine whether there is a difference in the pixel values.
  • the pixel value is, for example, various color spaces such as RGB color system, XYZ color system, xyY color system, L * a * b * color system, L * u * v * color system. Etc.
  • the average of the two pixel values is set as the pixel value of the pixel at the corresponding position in the generated complementary frame.
  • the pixel value of the pixel at the corresponding position is the same value as the previous and subsequent frames.
  • the complementary frame generation process is performed by averaging the change points of the frames not deleted before and after the deleted frames.
  • the deleted frames H and I are continuous frames
  • the complementary frame H and the complementary frame I corresponding to the frames H and I are equivalent images. This is because the complementary frames H and I are restored by averaging the change points of the frames G and J.
  • the mobile terminal 35 is reproduced with no deterioration in image quality even in a place where the video changes greatly because the resolution is low and the number of frames is complemented and the apparent number of frames is secured.
  • a complementation frame may be produced
  • the frame that has not been deleted immediately before (immediately after) the deleted frame is referred to as a previous (after) frame.
  • the change amount per unit time of the pixel value of the change point of the previous and subsequent frames is obtained, and the value obtained by multiplying the change amount by the start time of the deleted frame from the start time of the previous frame is obtained as the pixel value of the previous frame.
  • the pixel value of the complementary frame may be obtained.
  • the mobile terminal 35 inserts the complementary frame at the position of the corresponding deleted frame. Specifically, the mobile terminal 35 inserts a complementary frame at the position of the deleted frame specified from the information of the deleted frame start number 141, the deleted frame period (number of frames) 142, and the time stamp 143 of the corresponding meta information.
  • the transmission terminal responds by increasing the work buffer used in the frame deletion work.
  • the frames are deleted so that the frame rate of the moving image data during the frame period that can be stored in the work buffer is equal to or less than the frame rate determined by the distribution quality monitoring.
  • the frames L to V are further buffered in the work buffer, and the frames whose similarity is equal to or more than the threshold are selected. delete. Then, it is confirmed whether or not the frame rate is equal to or less than the frame rate determined by the distribution quality monitoring during the period of frames A to V.
  • FIG. 8 is an operation flowchart in frame deletion of the transmitting terminal.
  • the frame number of the target frame of the deletion process is assumed to be n.
  • the transmitting terminal recognizes the number of frames to be deleted indicated by the result of distribution quality monitoring (S81). Then, the transmitting terminal buffers the frame with the frame number n ⁇ 1 (S82). Next, the transmitting terminal buffers the frame whose frame number is n (S83). Then, the transmitting terminal calculates the similarity between the frame having the frame number n-1 and the frame having the frame number n (S84), and determines whether or not it is equal to or greater than a predetermined threshold (90% in this example) (S85). ). If the similarity is less than the predetermined threshold (No in S85), the value of n is incremented, and the process proceeds to step S82.
  • a predetermined threshold 90% in this example
  • step S85 If the similarity is equal to or greater than the predetermined threshold in S85 (Yes in S85), the frame with frame number n is deleted, and the information of the deleted frame is added to the meta information (S86). Then, the value of n is incremented, and the process proceeds to step S82. The process ends when all frames are buffered.
  • FIG. 9 is a diagram for explaining the deletion processing operation when a deletion frame is not found.
  • the transmitting terminal in order to delete a certain number of frames from the original frame at a certain rate, the transmitting terminal has a buffer function capable of accumulating images for a certain period of time and is compatible with streaming distribution.
  • the streaming server 151 in the video server 31 stores video data to be distributed.
  • the moving image server 31 can confirm the amount of data that can be distributed in a certain period by bandwidth monitoring.
  • the buffer control unit 152 finds a frame that can be deleted by buffering the subsequent frame.
  • the decoder timing control unit 153 starts distributing the moving image data from which the frame has been deleted.
  • the video data from which the frame has been deleted is encoded by the encoder server 154 and distributed to the mobile terminal 35.
  • each data from the video memory and the audio memory may be encoded as one data and transmitted.
  • the mobile terminal 35 receives the encoded video from the server 31 by the file decoder 91.
  • the frame deletion processing performed in this embodiment is different from the compression method used in MPEG2 or the like.
  • the amount of information can be greatly reduced as compared with a compression method such as MPEG2 because the frame with a small amount of change between the previous and subsequent frames is deleted.
  • FIG. 10 is a diagram for explaining the decoding process of the receiving terminal.
  • the decoding processing unit includes a file decoder 91, a frame control unit 92, a video decoder 93, a video memory 94, an audio decoder 95, and an audio memory 96.
  • the file decoder 91 separates the streaming data received from the transmitting terminal into video data and audio data. Then, the file decoder 91 outputs the separated video data to the video decoder 93 and outputs the audio data to the audio decoder 95. In addition, the file decoder 91 extracts meta information from the received streaming data and transmits it to the frame control unit 92.
  • the frame control unit 92 recognizes the deleted frame from the meta information received from the file decoder 91, and outputs the deleted frame information to the video decoder 93.
  • the deleted frame information includes, for example, a deleted frame start number 141, a deleted frame period (number of frames) 142, and a deleted frame time stamp 143.
  • the frame control unit 92 receives the time stamp of the audio data and the time stamp of the video data. Further, the frame control unit 92 performs lip sync adjustment according to the reconstruction of the deleted frame.
  • the video decoder 93 receives video data from the file decoder 91 and receives deletion frame information from the frame control unit 92.
  • the video decoder 93 decodes video data.
  • the video decoder 93 generates a complementary frame of the deleted frame from the video data and the deleted frame information, and reconstructs the frame.
  • the video decoder 93 outputs the reconstructed video data to the video memory 94.
  • the audio decoder 95 receives audio data from the file decoder 91 and performs a decoding process. Then, the audio data is output to the audio memory 96.
  • FIG. 11 is a flowchart of frame reconstruction by the receiving terminal.
  • the video decoder 95 executes a complementary frame generation process for the deleted frame (S101).
  • the video decoder 95 receives information related to the deleted frame from the frame processing unit 92.
  • the information on the deleted frame includes, for example, a deleted frame start number 141, a deleted frame period (number of frames) 142, and a time stamp 143. Then, the video decoder 95 recognizes the deletion frame number or the restart frame number and the time of the frame from the information regarding the deletion frame (S102).
  • the video decoder 95 assigns a frame number to the generated complementary frame based on the recognized deletion frame number or restart frame number (S103).
  • the video decoder 95 detects a predetermined section of the frame (S104), that is, when a frame of a predetermined period is detected, the time stamp of the frame of the audio data and the frame of the video data is matched with the meta information (S105). As a result, the lip sync is adjusted, and the video and audio can be synchronized. Then, the video decoder 95 notifies the video reproduction application of the restored frame and the audio data for which the lip sync processing has been completed (S106). Using this data, the mobile terminal 35 reproduces the video.
  • Lip sync is the difference between audio and video in a video.
  • the lip sync adjustment is to adjust the audio frame and the video frame so that the viewer watching the displayed person can feel as if he / she is speaking without feeling uncomfortable.
  • the mobile terminal 35 can match the time stamp of the video frame added at the reception terminal and the corresponding audio frame based on the original time stamp information. adjust. Therefore, when the meta information is changed along with the frame deletion of the transmitting terminal, the time stamp of the audio frame is not changed. Therefore, some audio frames that do not have a corresponding video frame are generated. Therefore, the meta information changed at the transmitting terminal is information on the video frame.
  • FIG. 12 is an operation flowchart in the moving image data restoration processing of the receiving terminal. In FIG. 12, the description will be made assuming that the frame number of the target frame for the restoration process is n + 1.
  • the receiving terminal confirms the presence of the deleted frame from the metadata (S111). That is, the receiving terminal recognizes the deletion frame start number 141, the deletion frame period (number of frames) 142, and the time stamp 143 of the deletion frame included in the metadata. Then, the receiving terminal buffers the frame (n frame) having the frame number immediately before the deleted frame start number 141 (S112). Next, the receiving terminal buffers the frame (n + 2 frame) having the frame number immediately after the deletion frame start number 141 (S113). Then, the receiving terminal averages the change points of the n frame and the n + 2 frame to generate a deletion frame complement frame (n + 1 frame), and assigns a deletion frame start number 141 and a time stamp 143 to the complement frame (S114). Thereafter, the receiving terminal outputs n frames (S115), and then outputs n + 1 frames (S116).
  • FIG. 13 shows an example of the configuration of the server 31 in this embodiment.
  • the server 31 includes a decoding processing unit 131, an arithmetic processing unit 132, a storage 133, a content server 134, and a streaming server 135.
  • the decode processing unit 131 decodes video data uploaded from a terminal device such as the personal computer 33.
  • a terminal device such as the personal computer 33.
  • decoding processing is performed to restore the moving image data.
  • the arithmetic processing unit 132 performs bandwidth monitoring and distribution quality management, and performs a frame data deletion process and a meta information change process according to the result.
  • the storage 133 stores an operating system, middleware, and applications, which are read into the memory by the arithmetic processing unit 132 and executed.
  • the content server 134 manages content prepared for streaming reproduction, and the mobile terminal 35 can select a moving image to be reproduced from the managed content.
  • the streaming server 135 distributes the moving image data to the mobile terminal 35.
  • the moving image data the moving image data from which the frame is deleted is received from the arithmetic processing unit 132.
  • the streaming server 135 is divided according to protocols used for distribution, such as HTTP (HyperText Transfer Protocol) and HTTP / RTMP.
  • FIG. 14 shows an example of the hardware configuration of the server 31 or the personal computer 33 according to the present embodiment.
  • the server 31 or the personal computer 33 includes a CPU (Central Processing Unit) 161, an SDRAM (Synchronous Dynamic Random Access Memory) 162, a serial port 163, a flash memory 164, a digital I / O, and an analog I / O 165.
  • the server 31 or the personal computer 33 includes a storage 166, a chip set 167, a communication card 168, a CF (Compact Flash (registered trademark)) interface card 169, and a real time clock 170.
  • CF Compact Flash
  • the CPU 161 uses the SDRAM 162 or the flash memory 164 to execute a program describing the procedure of the above-described flowchart stored in the storage 166. Further, the CPU 161 exchanges data with the communication card 168, the CF interface card 169, and the real time clock 170 via the chip set 167.
  • the server 31 or the personal computer 33 inputs and outputs moving image data from the serial port 163, digital I / O, or analog I / O 165 via a communication card.
  • the CPU 161 provides some or all of the functions of the monitoring unit 3, the deletion unit 4, the frame information generation unit 5, the transmission unit 6, the reception unit 8, the complementary image generation unit 9, and the moving image data generation unit 10.
  • the CPU 161 performs encoding / decoding of the moving image data, lip sync, authentication operation for establishing a connection, and reproduction of the moving image data.
  • the storage 166 provides a part or all of the functions of the storage unit 2.
  • the CPU 161 can use the SDRAM 162 as a temporary data storage area (working buffer) for performing frame deletion processing of moving image data and restoration processing of moving image data.
  • the SDRAM 162 is not limited to this and can be various RAMs (Random Access Memory).
  • the flash memory 164 stores a kernel, applications in the server 31, setting files, and the like.
  • the flash memory has an expansion area, and can be used as a temporary data storage area (working buffer) for performing frame deletion processing of moving image data and restoration processing of moving image data.
  • the CF (Compact Flash (registered trademark)) interface 169 is used as an auxiliary function for use in maintenance of the server 31. Since the storage is built-in, this is used for data processing between many personal computers 33 and mobile terminals 35.
  • the real-time clock 170 is a dedicated chip having a function as a computer clock.
  • the time stamp of the frame is set according to the clock of the real time clock 170.
  • a part of the first information processing apparatus 1 and the second information processing apparatus 7 of the embodiment may be realized by hardware.
  • the information processing apparatus 1 and the second information processing apparatus 7 of the embodiment may be realized by a combination of software and hardware.
  • FIG. 15 shows an example of the hardware configuration of the mobile terminal 35 according to the present embodiment.
  • the mobile terminal 35 includes a CPU 201, a memory 202, a storage unit 203, a reading unit 204, a communication interface 206, an input / output unit 207, and a display unit 208.
  • the CPU 201, the memory 202, the storage unit 203, the reading unit 204, the communication interface 206, the input / output unit 207, and the display unit 208 are connected to each other via a bus 209, for example.
  • the CPU 201 uses the memory 202 to execute a program describing the above-described flowchart procedure.
  • the CPU 201 provides some or all of the functions of the receiving unit 8, the complementary image generating unit 9, and the moving image data generating unit 10.
  • the CPU 201 also decodes moving image data, lip sync, and reproduces moving image data.
  • the memory 202 is, for example, a semiconductor memory, and includes a RAM area and a ROM area.
  • the storage unit 203 is a hard disk, for example. Note that the storage unit 203 may be a semiconductor memory such as a flash memory.
  • An application for reproducing moving image data is stored in the memory 202 or the storage unit 203 and executed by the CPU 201.
  • the mobile terminal 35 may be configured without the storage unit 203.
  • the reading unit 204 accesses the removable recording medium 205 in accordance with an instruction from the CPU 201.
  • the detachable recording medium 205 is, for example, a semiconductor device (USB memory or the like), a medium (such as a magnetic disk) to which information is input / output by a magnetic action, or a medium (CD-ROM, For example, a DVD).
  • the communication interface 206 transmits and receives data via the network in accordance with instructions from the CPU 201.
  • the communication interface 206 receives moving image data.
  • the input / output unit 207 corresponds to, for example, a device that receives an instruction from the user. The user can use the input / output unit 207 to specify the moving image data to be reproduced and the resolution of the moving image data.
  • the display unit 208 displays the reproduced moving image data.
  • An information processing program for realizing the embodiment is provided, for example, in the following form in the mobile terminal 35.
  • FIG. 16 shows an example of the configuration of the information processing system in this embodiment (modification).
  • the receiving terminal is in the form of a terminal device such as a personal computer 33, for example. Even in the same personal computer 33, image quality degradation may be confirmed depending on the bandwidth of the Internet. In such a case, the present invention is applied.
  • the moving image data to be distributed may be moving image data without sound. In this case, since there is no sound, lip sync adjustment is not necessary.
  • the server 31 may perform the processing performed by the personal computer 33 and the processing corresponding thereto in the present embodiment.
  • the personal computer 33 has a storage unit for storing moving image data. In that case, the process performed between the personal computer 33 and the server 31 in this embodiment can be omitted.
  • the mobile terminal 35 may be a thin client terminal. Further, the decoding in the present embodiment may be performed in accordance with a standard such as MPEG2.
  • the moving image is distributed from the personal computer 33 to the mobile terminal 35 in the streaming format.
  • the distribution method is not limited to the streaming format.
  • this embodiment is not limited to the embodiment described above, and can take various configurations or embodiments without departing from the gist of the present embodiment.

Abstract

 帯域幅の狭いネットワークを介して保存先から送信された動画データの再生品質を向上させる。第1の情報処理装置は、通信ネットワークの状態を監視し、監視の結果に応じて、第1の動画データの単位時間当たりの第1のフレーム数を示す第1のフレームレートから、第1のフレームレートより少ない第2のフレームレートになるように、第1の動画データのいずれかのフレームを削除して、第2の動画データを生成し、削除されたフレームに関するフレーム情報を生成し、第2の動画データとフレーム情報とを送信し、第2の情報処理装置は、送信された、第2の動画データとフレーム情報とを受信し、フレーム情報を用いて削除されたフレームの画像を補完する補完画像を生成し、補完画像を第2の動画データの削除されたフレームの位置に挿入し、第1のフレームレートの動画像データを生成する。

Description

情報処理装置、情報処理システム、情報処理プログラム、及び動画データ送受信方法
 本発明は、動画データの送受信技術に関する。
 現在、外部に持ち出して電池により駆動することができるスマートフォンのような移動端末機器(以下、移動端末と記述)には、例えば内蔵カメラによって動画を撮影し、それを同移動端末で視聴することができるグラフィック性能を持つものがある。このような移動端末は動画再生機能、インターネット接続機能も持ち、インターネット上にある動画サイトのコンテンツを視聴することができる。また、移動端末には、インターネットを介して家庭内のパーソナルコンピュータ(以下、パソコンと記述)の補助記憶装置等に記憶された個人的な写真や動画の視聴ができるものが提供されている。
 TV動画コンテンツのフレームレートは例えば24fps(frame per second)であり、このような動画コンテンツの転送は、ネットワークのトラフィック量を著しく増大させる。一方、ネットワーク環境によっては、TV動画コンテンツを転送することによりLAN(Local Area Network)帯域が過度に圧迫され、ネットワーク遅延が生ずる可能性がある。例えば、家庭内のLAN帯域は小さいことが多いため、ネットワーク遅延が生じ易い。
 インターネット経由でパソコンに保存された動画を移動端末によりストリーミング形式で視聴すると、動画の再生レートよりもネットワーク伝送レートが低くなる場合があり、動画の再生時にフレームの欠落を招く虞がある。
 このようなフレーム欠落を防ぐための方法として、映像表示側の移動端末のハードウェアに、バッファを設けるようにすることが考えられる。しかしながら、携帯移動端末は動画の受信に十分なバッファを実装するためのスペースを確保できない。
 一方、ネットワーク帯域幅の変化に応じて適応的に伝送率を変化させてマルチメディアストリーミングサービスを提供するシステムがある。このシステムは、マルチメディアストリーミングサーバとマルチメディアストリーミングクライアントとから構成される。マルチメディアストリーミングサーバは、サービスしようとするマルチメディアデータに対応するメタデータの分析結果及び外部から入力されたネットワーク帯域幅情報に応じて、所定のサービス品質レベルに応じたマルチメディアデータをストリーミングする。そして、マルチメディアストリーミングクライアントは、マルチメディアデータを受信した時間及びマルチメディアデータのサイズ情報を利用して、マルチメディアストリーミングサーバが接続されたネットワークの帯域幅を測定する。マルチメディアストリーミングクライアントは、この測定したネットワーク帯域幅情報をマルチメディアストリーミングサーバに伝送する。
 また、以下のようなトラフィック制御を行う情報処理システムがある。情報処理システムは、動画配信サーバ、動画配信サーバから配信される動画データを再生する動画再生プログラムを備える中継サーバ、中継サーバから動画データの再生データに応じた画面情報を受け取って画面出力するクライアント端末を備える。そして、情報処理システムは、動画配信サーバ、中継サーバ、クライアント端末の間におけるトラフィック制御を行う。また、情報処理システムは、中継サーバとクライアント端末との間の通信回線Aについて通信品質を測定する品質測定手段を備える。また、情報処理システムは、測定した通信回線Aの通信品質aが許容する通信データ量の画面情報の量に対応した、動画配信サーバと中継サーバとの間の通信回線Bでの動画データの配信量を特定する上流特定手段を備える。さらに、情報処理システムは、通信回線Bを介して動画配信サーバから中継サーバへ配信される動画データの量が、特定した動画データの配信量となるべく制御する上流制御手段を備える。
特開2004-112789号公報 特開2009-060425号公報 特開平10-155149号公報
 しかしながら、上記いずれの構成もネットワークの帯域幅に応じてストリーミングのサービスの品質を変更する構成であり、動画の再生レートより伝送レートが低いネットワーク環境では、伝送前のデータ本来の画質と比較すると、再生時の画質が低下する。
 そこで、1つの側面では、本発明は、帯域幅の狭いネットワークを介して保存先から送信された動画データの再生品質を向上させることを目的とする。
 一態様の第1の情報処理装置は、記憶部、監視部、削除部、フレーム情報生成部、及び送信部を含む。記憶部は、第1の動画データを記憶する。監視部は、通信ネットワークの状態を監視する。削除部は、監視の結果に応じて、第1の動画データの単位時間当たりの第1のフレーム数を示す第1のフレームレートから、第1のフレームレートより少ない第2のフレームレートになるように、第1の動画データのいずれかのフレームを削除して、第2の動画データを生成する。フレーム情報生成部は、削除されたフレームに関するフレーム情報を生成する。送信部は、第2の動画データとフレーム情報とを送信する。
 第2の情報処理装置は、受信部、補完画像生成部、及び動画データ生成部を含む。受信部は、第1の動画データの単位時間当たりの第1のフレーム数を示す第1のフレームレートから、第1のフレーム数より少ない第2のフレームレートになるように、第1の動画データのいずれかのフレームが削除されて生成された第2の動画データと削除されたフレームに関するフレーム情報とを受信する。補完画像生成部は、フレーム情報を用いて削除されたフレームの画像を補完する補完画像を生成する。動画データ生成部は、補完画像を第2の動画データの削除されたフレームの位置に挿入し、第1のフレームレートの動画データを生成する。
 本実施形態に係る情報処理システムによれば、保存先からネットワークを介して送信された動画データの再生品質を向上させることができる。
本実施形態に係る情報処理システムのブロック図の一例を示す。 本実施形態に係る情報処理システムの構成の一例を示す。 ビデオデータのメタ情報の構造の一例を示す。 本実施形態に係る情報処理システムのシーケンス図(その1)の一例を示す。 本実施形態に係る情報処理システムのシーケンス図(その2)の一例を示す。 動画データの送信端末におけるフレームレートの調整を説明するための図を示す。 フレームの削減処理のフローチャートを示す。 フレーム削除方法について説明するための図を示す。 送信端末のフレーム削除における動作フローチャートを示す。 削除フレームが見つからない場合の削除処理動作を説明するための図を示す。 受信端末のデコード処理を説明するための図を示す。 受信端末によるフレーム再構築のフローチャートである。 受信端末のフレーム復元における動作フローチャートを示す。 本実施形態における動画サーバの構成の一例を示す。 本実施形態に係るサーバまたはパソコンのハードウェア構成の一例を示す。 本実施形態に係る移動端末のハードウェア構成の一例を示す。 本実施形態(変形例)における情報処理システムの構成の一例を示す。
 図1は、本実施形態に係る情報処理システムの機能ブロック図の一例である。第1の情報処理装置1は、記憶部2、監視部3、削除部4、フレーム情報生成部5、送信部6を含む。記憶部2は、第1の動画データを記憶する。監視部3は、通信ネットワーク11の状態を監視する。また、監視部3は、通信ネットワーク11の帯域幅を監視する。
 削除部4は、監視の結果に応じて、第1の動画データの単位時間当たりの第1のフレーム数を示す第1のフレームレートから、第1のフレームレートより少ない第2のフレームレートになるように、第1の動画データのいずれかのフレームを削除して、第2の動画データを生成する。また、削除部4は、連続するフレーム間で、類似度が所定の閾値以上である連続するフレームのいずれかを削除する。また、削除部4は、フレームを削除して第2のフレームレートを調整し、動画データの解像度を調整することにより、配信される動画データの伝送レートを前記帯域幅に応じた所定の値以下とする。
 フレーム情報生成部5は、削除されたフレームに関するフレーム情報を生成する。また、フレーム情報生成部5は、フレーム情報を第2の動画データに関するメタ情報に付加する。また、フレーム情報は、削除されたフレームの開始番号と削除されたフレームの期間を含む。送信部6は、第2の動画データとフレーム情報とを送信する。また、送信部6はメタ情報を送信する。
 第2の情報処理装置7は、受信部8、補完画像生成部9、及び動画データ生成部10を含む。受信部8は、第1の動画データの単位時間当たりの第1のフレーム数を示す第1のフレームレートから、第1のフレーム数より少ない第2のフレームレートになるように、第1の動画データのいずれかのフレームが削除されて生成された第2の動画データと削除されたフレームに関するフレーム情報とを受信する。補完画像生成部9は、フレーム情報を用いて削除されたフレームの画像を補完する補完画像を生成する。また、補完画像生成部10は、削除されたフレームの前後のフレームの変化点に基いて補完画像を生成する。動画データ生成部10は、補完画像を第2の動画データの削除されたフレームの位置に挿入し、第1のフレームレートの動画データを生成する。
 このような構成とすることで、ネットワークの帯域幅に応じて動画データの伝送レートまたはフレームレートを変更することができる。さらに、動画の再生レートより伝送レートが低いネットワーク環境を介して動画データを受信し、受信側で十分な動画再生のためのバッファを確保できない場合であっても、送信前の動画データ本来のフレームレートで動画データを再生することが可能となる。また、送信前に削除するフレームを、連続するフレーム間で、類似度が所定の閾値以上であるフレームとすることで、受信側で復元する動画データの品質を向上させることができる。
 本実施形態のシステム構成の一例を説明する。図2は、本実施形態に係る情報処理システムの構成の一例を示す。
 情報処理システムは、動画データを保存するパソコン33、パソコン33から動画データを受信し移動端末35に転送するサーバ31、サーバ31から受信した動画データを再生可能な移動端末35、を含む。パソコン33は、第1の情報処理装置の一例である。サーバ31は、第1の情報処理装置及び第2の情報処理装置の一例である。移動端末35は、第2の情報処理装置の一例である。家庭内のLAN(Local Area Network)側に存在するパソコン33はルータ32を介してWAN(Wide Area Network)側へ接続される。また、通信キャリア34を通じて移動端末35とサーバ31は接続される。
 パソコン33は、例えば家庭内に配置され、ネットワークを介してサーバ31に接続される。パソコン33は移動端末35からサーバ31を介してアクセスされる動画データを格納する。サーバ31からパソコン33へのアクセスは、認証機能によりアクセス制限される。また、パソコン33は、アクセスされるサーバ31毎にそのサーバ31に対して提供可能な動画ファイルの一覧情報を含むファイルを保持する。または、パソコン33は、サーバ31をアクセスする移動端末35毎に移動端末35に提供可能な動画ファイルの一覧情報を含むファイルを保持してもよい。パソコン33は、サーバ31からネットワークの状態の監視結果を受信し、監視状況に応じて動画ファイルのフレームを削除してサーバ31に配信する。尚、パソコン33は、サーバ31機能を有するホストコンピュータでもよいし、動画ファイルを格納しネットワークに接続されたストレージ装置でもよい。
 サーバ31は、パソコン33及び移動端末35にネットワークを介して接続される。サーバ31は、移動端末35からパソコン33に保存された動画ファイルに対する視聴要求を受信する。サーバ31は移動端末35との接続を確立するための認証機能を有する。サーバ31は視聴要求のあった動画ファイルをパソコン33から取得し、移動端末35に転送する。サーバ31は、サーバ31と移動端末35間及びサーバ31とパソコン33間のネットワークの帯域を統合的に監視する機能を有する。サーバ31はネットワークの監視状況に応じて動画ファイルのフレームを削除して移動端末35に配信する。
 移動端末35は、ネットワークを介してサーバ31に接続される。移動端末35はパソコン33に保存された再生動画の指定をユーザから受け付ける。また、移動端末35は、再生する動画の解像度の指定をユーザから受け付ける。移動端末35は、サーバ31から動画データをストリーミング形式で受信し、受信した動画データのうち送信時に削除されたフレームがあれば、そのフレームに対応する補完フレームを生成して、動画データに挿入する。それにより、パソコン33においてフレームを削除する前の動画データを不可逆的に復元する。そして、移動端末35は復元した動画データを再生する。復元処理を行うことで、移動端末35は動画データをパソコン33に保存されていた動画データと同じフレームレートで再生する。
 尚、以下の説明では、パソコン33からサーバ31に対してデータを配信することを上り(アップロード)と記し、サーバ31から移動端末35にデータを送信することを下り(ダウンロード)と記すことがある。また、動画データの送信元となるパソコン33またはサーバ31を送信端末、動画データの受信側となるサーバ31または移動端末35を受信端末と記すことがある。さらに、パソコン33において削除されるフレームを削除フレームと記すことがある。
 ここでビデオデータのメタ情報の構造を説明する。ビデオデータのメタ情報はビデオデータとともに送信端末から受信端末へと送付される。パソコン33は削除したフレームの情報をメタ情報に付加させ、移動端末35はこのメタ情報を用いて動画データを復元する。図3は、ビデオデータのメタ情報の構造の一例を示す。
 メタ情報は、動画データに関する情報であり動画データに対応付けられる。メタ情報は、フォーマットサイズ(コンテンツ解像度)144、映像タイトル145、映像時間146、作成日147、内容148、削除フレーム開始番号141、削除フレーム期間(フレーム数)142、タイムスタンプ143を含む。
 フォーマットサイズ(コンテンツ解像度)144、映像タイトル145、映像時間146、作成日147、内容148は、パソコン33に保存された動画データが有するものである。フォーマットサイズ(コンテンツ解像度)144、映像タイトル145、映像時間146、作成日147、内容148は、それぞれ、対応する動画データの、フォーマットサイズ(コンテンツ解像度)、映像タイトル、映像時間、作成日、内容である。
 削除フレーム開始番号141、削除フレーム期間(フレーム数)142、タイムスタンプ143は、送信端末においてフレームを削除する場合に、メタデータに付加されるデータ項目である。削除フレーム開始番号141は、送信端末により削除されるフレームのフレーム番号である。削除フレーム期間(フレーム数)142は、削除されるフレームが連続する場合の期間を示し、例えば、削除フレームの連続数で表される。タイムスタンプ143は、削除フレームのタイムスタンプであり、タイムスタンプ143は、映像フレーム単位に再生開始からの秒数をつけ定義するものである。
 削除フレーム開始番号141、削除フレーム期間(フレーム数)142、タイムスタンプ143は、所定期間毎(例えば1秒毎)の削除フレームの情報である。よって、所定期間内に削除フレームが複数ある場合には、削除フレーム毎に対応付けた、削除フレーム開始番号141、削除フレーム期間142、タイムスタンプ143のデータ項目が、メタ情報に付加される。
 ここで、削除フレーム開始番号141、削除フレーム期間(フレーム数)142、タイムスタンプ143は、再開始フレームのフレーム番号、再開始フレームの期間(フレーム数)、再開始フレームのタイムスタンプでもよい。本実施形態では、削除される映像フレームは連続するものであるため、開始されるフレーム番号とそのフレーム期間の情報があれば、移動端末35での映像再生のときに削除されるフレーム開始番号とその期間を事前に認識できる。そのため、移動端末35で削除フレームの開始番号とその期間の補完を行ってもよい。また、タイムスタンプ143は、削除フレーム開始番号141及び削除フレームに対応するオーディオフレームのタイムスタンプを用いて補完することにより、メタ情報に含めない構成としてもよい。
 図4A、図4Bは本実施形態にかかる情報処理システムのシーケンス図である。図4A、図4Bは、動画データが保存されるパソコン33と、パソコン33から動画データを取得して動画を視聴可能な移動端末35と、移動端末35とパソコン33とのデータ転送を中継するサーバ31と、の動作関係を表している。
 移動端末35はパソコン33に保存された動画データを取得するために、移動端末35とパソコン33とを中継するサーバ31に接続を行う(S401)。接続の確立前に、サーバ31は接続要求のあった移動端末35の正当性を確認するために認証を行う(S402)。また、サーバ31は移動端末35の認証と同時に、移動端末35の解像度を認識する。認証が成功した場合、サーバ31は移動端末35に機器承認応答を行う(S403)。
 次に、サーバ31は移動端末35から要求のあった動画データが保存されているパソコン33に接続を行う(S404)。パソコン33とサーバ31の接続確立時にも接続の正当性を確認するための認証が行われる。認証が成功した場合、パソコン33は接続応答をサーバ31に送信する(S405)。
 次に、パソコン33は提供可能な動画の一覧情報を、サーバ31を介して移動端末35に通知する(S406)。提供可能な動画の一覧は、移動端末35毎に、または、サーバ31毎に予め設定して、パソコン33にファイルとして保存されてもよい。また、移動端末35の解像度の情報をサーバ31から受信し、その情報に応じて、パソコン33は、動画データのうち移動端末35が再生することができる動画を判定してもよい。
 通知された一覧が移動端末35の画面に表示されると、ユーザは、移動端末35を操作して、再生する動画を選択する。移動端末35は、サーバ31に対して、選択された再生動画の配信要求(以下、再生動画要求と記す)を行う(S407)。
 次に、サーバ31は移動端末35とサーバ31間及びパソコン33とサーバ31間のネットワークの帯域幅を監視するための情報収集作業を行う(S408、S409)。
 次に、サーバ31は移動端末35から受信した再生動画要求をパソコン33に対して送信する(S410)。パソコン33は再生動画要求を受信すると、再生動画要求で指定のあった動画に関するメタ情報をサーバ31に通知する(S411)。
 次に、サーバ31はパソコン33とサーバ31間の動画送信の品質監視(以下、上り配信品質監視と記す)を行う(S412)。具体的には、パソコン33が送信する動画データのデータ量が、安定的に送受信可能なデータ量の範囲内に収まるように、動画データのフレームレートを決定する。すなわち、動画の転送で使用する帯域幅が、ネットワークの帯域幅以下となるように、サーバ31は送信する動画データのフレームレートを調整するための調整量を決定する。
 次に、サーバ31は配信品質監視において決定した送信動画のフレームレートをパソコン33に通知する(S413)。さらにサーバ31は、S402で認識した移動端末35の解像度をパソコン33に通知し、動画データの解像度を移動端末35の解像度に合わせて変更するようにパソコン33に指示する(S414)。
 パソコン33は、上り配信品質監視結果と解像度の変更要求を受信すると、受信した結果及び要求に応じて、配信する動画のフレームレートの調整と解像度の変更を行う(S415)。フレームレートの調整は、連続するフレームの類似度に基いてフレームを削除することで行う。そして、パソコン33は削除したフレームの情報をメタ情報に付加し、変更した解像度の情報をメタ情報に反映する(S416)。そして、パソコン33は変更したメタ情報をサーバ31に通知する(S417)。
 サーバ31はパソコン33からメタ情報を受信すると、サーバ31と移動端末35間の動画送信の品質監視(以下、下り配信品質監視と記す)を行う(S418)。具体的には、動画の転送で使用する帯域幅が、サーバ31と移動端末35間のネットワークの帯域幅以下となるように、サーバ31は送信する動画データのフレームレートを調整するための調整量を決定する。このときサーバ31は、パソコン33で変更した動画データの変更情報を移動端末35が動画再生時に認識できるように、動画データの変更情報を再生情報変更要求として移動端末35に通知する(S419)。そして、サーバ31は下り配信品質監視において決定した送信動画のフレームレートをパソコン33に通知する(S420)。
 パソコン33は、下り配信品質結果を受信すると、受信の結果に応じて配信する動画のフレームレートの調整を行う(S421)。フレームレートの調整は、連続するフレームの類似度に基いてフレームを削除することで行う。そして、パソコン33は削除したフレームの情報をメタ情報に付加する(S422)。そして、パソコン33は変更したメタ情報をサーバ31に通知する(S423)。
 次に、サーバ31は配信動画の変更情報を移動端末35に通知する(S424)。移動端末35はサーバ31から再生情報通知を受信すると、配信動画の変更を認識し、再生設定応答をサーバ31に行う(S425)。
 次に、サーバ31はストリーミング開始要求をパソコン33に通知する(S426)。パソコン33はサーバ31からストリーミング開始要求を受信すると、サーバ31を介して移動端末35にストリーミング開始応答を行う(S427)。そしてパソコン33はサーバ31に対してストリーミングデータを配信する(S428)。そしてサーバ31はストリーミングデータを受信すると、移動端末35に対してストリーミングデータの配信を行う(S429)。
 移動端末35はストリーミングデータを受信すると、受信したデータをデコード(S430)する。そして、移動端末35は、S415、S421で削除されたフレームに対応する補完フレームを生成し動画データに挿入することにより、動画データを復元する(S431)。そして、移動端末35は、復元した動画データを再生する(S432)。
 そして、所定のデータ量ごとにS408~S432の動作が繰り返され、パソコン33による動画データのストリーミング配信と移動端末35による再生が行われる。
 尚、図4A、図4Bでは、サーバ31は、上り配信品質監視と下り配信品質監視の結果を個別にパソコン33に通知しているが、上り配信品質監視と下り配信品質監視を同時に行い、その結果をまとめてパソコン33に通知してもよい。その場合、サーバ31は、上り配信品質監視で決定される配信動画のフレームレートと、下り配信品質監視で決定される配信動画のフレームレートとを比較し、フレームレートの低い方の値をパソコン33に通知する。そして、パソコン33は受信したフレームレートとなるように配信動画のフレームレートを調整する。
 また、図4では、下り配信品質監視の結果を受けて配信動画のフレームレートを調整する動作(S421、S422)はパソコン33が実行しているが、サーバ31がパソコン33からストリーミングデータを受信した(S428)後に、サーバ31が実行してもよい。また、パソコン33はフレームレートを調整する動作(S421、S422)前に、移動端末35に対して、フレームレートを変えるか否かを問い合わせてもよい。その場合、移動端末は、ユーザからフレームレートを調整するか否かの指示を受け付け、結果を移動端末に転送する。ここで、移動端末35は、フレームレートを調整する代わりに動画の解像度を変更させる指示や、接続する回線を変更させる指示を受け付けて、結果を移動端末に転送してもよい。
 次に、移動端末35とサーバ31、サーバ31とパソコン33の間の接続動作(S401、S404)について詳細に説明する。
 移動端末35には、動画を再生するためのアプリケーションプログラム(以下、アプリケーションと称する)がインストールされており、アプリケーションにより目的とするサーバ31に接続する。目的とするサーバ31の指定はユーザが選択できる構成としてもよいし、予めアプリケーションに設定されている構成としてもよい。移動端末35は例えば3G(3rd Generation)回線のように接続するときにその回線を指定してインターネットに接続することができる。また、移動端末35とパソコン33はインターネットを経由してのP2P(Peer to Peer)接続を可能とする。
 サーバ31と移動端末35間、サーバ31とパソコン33間の接続確立時には認証が行われるが、そこで用いられる認証情報は、例えば、各機器の、IPアドレス、MACアドレスなどの固有機器情報などである。認証情報はサーバ31上で管理され、IPアドレスや固有機器情報を、移動端末35と移動端末35が接続可能なパソコン33とを対応付けて、移動端末35毎にグループ化して格納される。尚、1つの移動端末35に対して1つのパソコン33を対応付けてもよいし、複数と対応付けてもよい。
 移動端末35とサーバ31の接続確立時の動作について説明する。サーバ31は、移動端末35から接続要求を受信すると、接続要求のあった移動端末35のIPアドレスまたは固有機器情報と、サーバ31に保存されているIPアドレスまたは固有機器情報と、を照合する。照合の結果が一致すれば、サーバ31は認証が成功したとして接続を確立する。尚、認証には種々の認証技術が用いられてもよく、パスワード認証方式や電子証明書認証方式等を用いてもよい。
 次に、サーバ31とパソコン33の接続確立時の動作について説明する。サーバ31は移動端末35との接続を確立した後、その移動端末35に対応するパソコン33に接続を行う。具体的には、サーバ31に保存されている認証情報において1つの移動端末35に対して1つのパソコン33が対応付けられている場合、サーバ31は認証情報を確認して移動端末35に対応するパソコン33に接続を行う。もしくは、移動端末35がサーバ31との接続を確立する際に、移動端末35が接続先のパソコン33を指定し、サーバ31は指定されたパソコン33に接続する構成にしてもよい。
 サーバ31からの接続要求を受けたパソコン33は、アクセス要求のあったサーバ31が正当なものか否かの認証を行う。認証にはサーバ31が移動端末35に対して行う認証と同様、種々の認証技術が用いられる。または、パソコン33が保有する動画ファイルやパソコン33のディレクトリ(フォルダ)にアクセス権限を付与してアクセス制御を行ってもよい。
 尚、パソコン33とサーバ31、サーバ31と移動端末35間は、VPN(Virtual Private Network)等の高セキュリティのネットワーク技術を用いて接続してもよい。さらに、パソコン33とサーバ31、サーバ31と移動端末35間のデータ伝送において、伝送されるデータは種々の暗号化技術により暗号化されてもよい。また、サーバ31とパソコン33は同一イントラネット内に配置されてもよい。
 次に、サーバ31によるネットワークの帯域幅を監視するための情報収集作業(S408、S409)について詳細に説明する。
 サーバ31は、移動端末35とサーバ31間、及び、パソコン33とサーバ31間の帯域幅を監視する。先ず移動端末35とサーバ31間の帯域幅の監視について説明する。
 サーバ31は移動端末35に接続されるネットワークの帯域幅を検出するために、移動端末35に対して帯域検出用のパケットを送信する。送信パケットにはサーバ31が送信した時刻が記録されている。移動端末35はパケットを受信した際に受信時刻を計測し、これをパケットに記録された送信時刻と比較する。それにより移動端末35は一定量のパケットがサーバ31から移動端末35まで到達するまでにかかる時間を算出することができる。移動端末35はここで得られた帯域監視情報をサーバ31に転送する。尚、サーバ31は、一定量のデータを複数のパケットに分割して、最初のパケットをサーバ31が送信してから最後のパケットを移動端末35が受信するのに要した時間を計測することにより、帯域監視情報を取得してもよい。
 次に、パソコン33とサーバ31間の帯域幅の監視について説明する。サーバ31はパソコン33に対して帯域監視のためのパケットをサーバ31に送信するように指示する。パソコン33は指示を受信すると、帯域検出用のパケットをサーバ31に送信する。送信パケットにはパソコン33がパケットを送信した時刻が記録されている。サーバ31はパケットを受信した際に受信時刻を計測し、これをパケットに記録された送信時刻と比較することで、一定量のパケットがパソコン33からサーバ31まで到達するまでにかかる時間を算出する。尚、パソコン33は、一定量のデータを複数のパケットに分割して、最初のパケットをパソコン33が送信してから、最後のパケットをサーバ31が受信するまでに要した時間を計測することにより、帯域監視情報を取得してもよい。
 尚、帯域の監視のためのパケットの送信は、実動画映像の再生に問題がない範囲において行う。ここで、帯域の監視には帯域を監視するためのコマンドを送付することにより行ってもよいし、ping等のコマンドを送付し、その応答時間を計測することによって行ってもよい。また、パソコン33がサーバ31を介して移動端末35にパケットを送付することで、一度にパソコン33とサーバ31間とサーバ31と移動端末35間の帯域幅の監視を行ってもよい。尚、帯域幅の監視のみではなく、伝送遅延から回線のトラフィックの監視を行ってもよい。
 一方、インターネット接続する回線は種類毎に1秒間にデータの送信(または受信)を安定的に可能とする情報量が規定されている。サーバ31はこの規定の情報量と帯域監視情報とによって、単位時間当たりに安定的に送受信可能なデータ量(使用量)を判定する。
 ここで、サーバ31は、帯域監視動作後(S408、S409後)、監視の結果を移動端末35に送信し、ユーザが移動端末35により帯域監視の結果を確認して再生する動画の解像度を指定してもよい。その場合、指定した解像度情報は配信品質監視において用いられる。
 次に、サーバ31による上り及び下りの配信品質監視動作(S412、S418)について詳細に説明する。
 配信品質監視では、サーバ31は、送信する動画のデータ量と安定的に送受信可能なデータ量とを比較し、安定的に送受信可能なデータ量の範囲内に送信する動画のデータ量が収まるように、動画データのフレームレートの調整量を決定する。ここで決定された動画データのフレームレートを、以下の説明では、送信用フレームレートと記す。
 上り配信品質監視では、サーバ31とパソコン33間のネットワークにおいて安定的に送受信可能なデータ量の範囲内に、パソコン33から送信する動画のデータ量が収まるように、送信する動画データのフレームレートの調整量を決定する。先ず、サーバ31は、サーバ31とパソコン33の間の帯域監視の結果からサーバ31とパソコン33間の使用可能な帯域幅を判定する。もしくは、帯域監視の結果と回線の伝送路容量とからサーバ31は使用可能な帯域幅を判定する。そして、サーバ31は、動画データの、解像度、ビット色、圧縮率、及びフレームレートから動画データの伝送ビットレートを算出する。そしてサーバ31は、使用可能な帯域幅に、算出した伝送ビットレートが収まるように、動画データのフレームレートの削除量を導出する。
 同様に、下り配信品質監視では、サーバ31と移動端末35間のネットワークにおいて安定的に送受信可能なデータ量の範囲内に、サーバ31から送信する動画のデータ量が収まるように、送信する動画データのフレームレートの調整量を決定する。先ず、サーバ31は、サーバ31と移動端末35の間の帯域監視の結果から、サーバ31と移動端末35間の使用可能な帯域幅を判定する。もしくは、帯域監視の結果と回線の伝送路容量とから使用可能な帯域幅を判定する。そして、サーバ31は動画データの、解像度、ビット色、圧縮率、アクティビティレベル、及びフレームレートから動画データの伝送ビットレートを算出する。そしてサーバ31は、使用可能な帯域幅に算出した伝送ビットレートが収まるように、動画データのフレームレートの削除量を導出する。尚、アクティビティレベルは、ストリームに対するパケットの送信頻度であり、例えば動画データの内容によって変化する。例えば無音の映像データの場合、オーディオストリームを送信する必要はなく、オーディオストリームのアクティビティレベルは0になる。
 次に、配信品質監視の動作について、具体例を示して説明する。サーバ31とパソコン33間の回線は、帯域幅が最大94Mbpsの光回線と仮定する。尚、以下の例では、動画データはコーデックにおいて固定ビットレートでエンコードされると想定する。
 動画送信のために使用可能な帯域幅は、ネットワーク内の他のアプリケーション等によるトラフィックにも依存するため、常に100%使用できるというわけではない。そこで、サーバ31は帯域監視を行い、すなわち、一定量のパケットがパソコン33からサーバ31まで到達するまでにかかる時間を算出し、ネットワークのトラフィック状況を把握する。このトラフィック状況に基いて、動画配信のために保証される帯域幅の、回線の最大伝送速度に対する割合をY%と定義する。ここでは、Y=1と仮定する。
 動画データは、例えば解像度が1280[dot per inch(dpi)]×720[dpi]のフルHD(full high definition)、ビット色が8、フレームレートが24fpsとする。この動画データのビットレートは、(1280×720(解像度))×(3(RGB)×256(8ビット色))×24(フレーム)=17Gbpsになる。この値は1フレームが未圧縮状態である場合の値である。
 ここで例えばMPEG(Moving Picture Experts Group)等の圧縮方式は、例えば、フルのIピクチャ(Intra picture)、1/2サイズのPピクチャ(Predictive picture)、1/4サイズのBピクチャ(Bi-directional predictive picture)を含み、それらは、1:4:10の割合で構成されている。そのため、動画データの圧縮率は約11/30になる。さらに、例えば、MPEG-AVCは、移動部分だけの差異データであるため、さらにおおよそ1/24に圧縮される。よって動画データは11/30×1/24=11/720に圧縮されると想定する。
 この圧縮を考慮すると動画データの伝送ビットレートは、17Gbps×11/720=259Mbpsとなる。ここで、動画データは、再生する移動端末35の解像度に合わせて圧縮が可能である。例えば、サーバ31が認識した移動端末35の解像度が800×480である場合を考える。この場合、動画データは送信前に、800×480/1280×720=0.42倍に圧縮することができる。
 ここで、元の動画データは解像度が大きい装置で表示するコンテンツであり、解像度が小さい移動端末35で動画データを再生する場合、動画データの解像度を移動端末35の解像度まで落としても見た目が変化することはない。また、移動端末35の映像再生チップの性能は動画データが含む情報量を全て活用できないことが多く、映像の細かい変化を再現できない。
 よって、サーバ31が認識した移動端末35の解像度に基いた解像度をA、フレーム数をBとする。A=800×480、B=24の場合、動画データの伝送ビットレートは、A×(RGB各色フレーム:3×256)×B×11/720=(800×480)×(3×256)×24×11/720≒108Mbpsとなる。
 しかしながら、この値は上りの帯域幅である94Mbps以下ではない。そこで、送信端末は動画データの伝送ビットレートが上りの帯域幅以下となるようにフレームを削除して送信する。削除前のフレームに対する削除後フレームの割合をEとすると、108M×E≦94Mが成立すればよいから、E≦0.87となる。24×E、すなわち、24×0.87=20.88であるため、送信する動画データのフレームレートは20fpsに変更されればよい。
 ここで、動画データを受信する受信端末に、受信したデータを保存するために十分な記憶領域が確保できる場合は、フレーム削除処理を行わなくてもよい。
 下りの送信動画の品質監視の動作についても、上りの品質監視と同様に、安定的に送受信可能なデータ量の範囲内に送信する動画のデータ量が収まるように、動画データのフレームレートの調整量を決定する。
 サーバ31と移動端末35間の通信規格をLTE(Long Term Evolution)と仮定する。この場合の帯域幅を最大75Mbpsと仮定する。また、動画配信のために保証される帯域幅の、回線の最大伝送速度に対する割合をZ%と定義する。ここでは、Z=1と仮定すると下り帯域は77Mbpsとなる。
 上りの場合の例で示したように、サーバ31が認識した移動端末35の解像度に基いた解像度をA、フレーム数をBとする。A=800×480、B=24の場合、動画データの伝送ビットレートは、A×(RGB各色フレーム: 3×256)×B×11/720=(800×480)×(3×256)×24×11/720≒108Mbpsとなる。
 そこで、送信端末は動画データの伝送ビットレートが下りの帯域幅以下となるようにフレームを欠落させて送信する。欠落前のフレームに対する欠落後フレームの割合をEとすると、108M×E≦77Mが成立すればよいから、E≦0.71となる。24×E、すなわち、24×0.71=17.04であるため、送信する動画データのフレームレートは17fpsに変更されればよい。
 尚、サーバ31とパソコン33間のフレームレートの調整は、サーバ31とパソコン33間の帯域だけでなく、サーバ31と移動端末35間の帯域幅を考慮し、どちらか小さい方の帯域幅に合わせて調整してもよい。また、ネットワークの回線を複数種類選択できる場合には、配信品質監視の結果に応じて、サーバ31は帯域幅の異なる回線に切り替える構成としてもよい。その場合、サーバ31は、配信品質監視で算出した動画の伝送レートにおいて、安定的に送信可能なネットワーク回線を検索して、そのネットワーク回線に切り替える。
 次に、配信品質監視において決定された動画データのフレームレート以下となるように、配信する動画データのフレームを削除する動作について説明する。
 図5は、動画データの送信端末におけるフレームレートの調整を説明するための図である。フレームレートの調整は、動画の送信端末、すなわち本実施形態においてはパソコン33またはサーバ31で行われる。
 ファイルデコーダ51は、ストリーミングデータをビデオデータとオーディオデータに分離する。そして、ファイルデコーダ51は分離したビデオデータをビデオエンコーダ53に出力し、分離したオーディオデータをオーディオエンコーダ55に出力する。さらに、ファイルデコーダ51はストリーミングデータのメタ情報をフレーム制御部52に送信する。
 フレーム制御部52は、ビデオデータのうち、フレームレートが送信用フレームレート以下となるように、削除するフレームを決定する。そして、フレーム制御部52は削除したフレームに関する情報をメタ情報に付加する。すなわち、フレーム制御部52は、メタ情報の削除フレーム開始番号141、削除フレーム期間(フレーム数)142、タイムスタンプ143に、削除したフレームの情報を格納する。
 ファイルデコーダ51より出力されたビデオデータは、ビデオエンコーダ53に入力される。ビデオエンコーダ53は、ビデオデータからフレーム制御部52により決定された削除フレームを削除し、再度フレームを構築する。そして、ビデオエンコーダ53は再構築したフレームを送信用の形式にエンコードする。エンコードした結果ビデオデータは、例えばRTMP(Real Time Messaging Protocol)形式のパケット等に分割もしくは集約される。ビデオエンコーダ53はエンコードしたビデオデータをビデオメモリ54に出力し、ビデオメモリ54からエンコードされたビデオデータが受信端末に送信される。
 一方、ファイルデコーダ51により分離されたオーディオデータはオーディオエンコーダ55に入力される。オーディオエンコーダ55は受信したオーディオデータを送付用の形式に変換してオーディオメモリ56に出力する。そして、エンコードされたオーディオデータはオーディオメモリ56から受信端末に送信される。ここで、削除されたフレームに対応するオーディオデータが削除されることはなく、オーディオデータのメタ情報も変更されずに送信される。これは、移動端末35におけるストリーミングデータの再生時にはフレーム数はフレーム削除前の数に戻るためである。
 図6は、フレームの削減処理のフローチャートを示す。
 先ず、送信端末は送信するビデオデータを読み込む(S61)。次に、送信端末は、サーバ31による配信品質監視の結果を確認し、送信用のフレームレートを認識する(S62)。そして、送信端末は送信用のフレームレートから削除するフレーム数を確認する(S63)。次に、送信端末は削除フレームが存在するか否かを確認する(S64)。削除フレームが存在しない場合は(S64でNo)、バッファ期間を増加して(S65)、再度削除フレームが存在するか否かを確認する(S64)。削除フレームが存在する場合は(S64)、該当するフレームを削除し、メタ情報に削除フレームの情報を保管する(S66)。そして、ビデオデータを送付用に再エンコードして配信する(S67)。
 S63では、タイムレスがないデータ送信サイズを確認することになる。例えば元のフレームが24フレームであり、ここから17フレームまで落とさなければタイムレスなく配信ができないとなると7フレームを削除する必要がある。ここで、例えば送信ホスト及び受信ホストは、標準で持つビデオバッファとして動画データの3秒分のバッファを確保できるとする。24フレームから7フレームの削除を行うと圧縮復号後の再生品質は劣化するため、24×3 = 72フレームから、7×3 =21フレームを削除して圧縮配信をする。
 図7は、フレーム削除方法について説明するための図である。フレームの削除は、動画データの時系列における前後のフレームとの近似性を利用して行われる。
 送信端末からA~Kのフレームを受信端末に送信する場合を考える。A~Kのフレームは送信端末の作業バッファに格納される。作業バッファは動画データの全てのフレームを格納する必要はなく、フレームの削除処理を行い、フレームレートを配信品質監視で決定されたフレームレート以下にすることができる領域があればよい。送信端末は、各フレームの直前のフレーム(フレームBの場合はフレームAが直前のフレームにあたる)に対する類似度を算出する。類似度の計算は、種々の手法が用いられてよいが、例えば、直前のフレームとの映像フレーム比較により導かれる相似率を類似度としてもよいし、画素値の差の二乗和(SSD: Sum of Squared Differences)を用いて計算することで、類似度を算出してもよい。類似度の算出は送信端末にて行われる。図7の類似度71に示すように、BのAに対する類似度は「60」、CのBに対する類似度は「70」、DのCに対する類似度は「90」、以下E~Kは同様に類似度71に示すとおりとする。
 送信端末は、直前のフレームに対する類似度が所定の閾値以上であるフレームを削除する。図7の例では閾値が90である場合を示しており、直前のフレームに対する類似度が90以上であるフレームD,H,Iが削除される。図7の例でフレームIに示すように、直前のフレームに対する類似度が閾値以上であれば、直前のフレームが削除対象のフレーム(フレームH)であっても削除が行われる。すなわち、削除されるフレームH,Iのように連続する場合もありうる。フレームの削除が行われると、送信時にフレームに付随するメタ情報に、削除されたフレームD,H,Iの情報が追記される。
 ここで、所定の期間内に所定の閾値以上の類似度を有するフレームが存在しない場合も考えられる。フレームの削除処理を行った結果、動画のフレームレートが、配信品質監視により決定されたフレームレート以下となる必要がある。この場合の動作の詳細は後ほど説明する。
 送信端末は、削除したフレームの情報を追記したメタ情報をフレームに付随させて、サーバ31にアップロードする。そして、アップロードされたデータは受信端末の移動端末35にダウンロードされる。移動端末35は、フレームD,H,Iが削除された状態の映像データを受信することとなる。移動端末35は、映像データと同時にメタ情報を受信し、メタ情報内のフレームD,H,Iの削除情報を認識する。具体的には、移動端末35はメタ情報の削除フレーム番号141、削除フレーム期間(フレーム数)142、タイムスタンプ143の情報から削除されたフレームを特定する。そして、移動端末35は削除されたフレームD,H,Iの補完フレームを生成し、その補完フレームを動画データの削除されたフレームの位置に挿入することで、動画データの復元処理を行う。
 補完フレーム生成処理は、削除されたフレームの前後のフレームの変化点を平均化することにより実行する。すなわち、フレームDの補完フレーム生成処理の場合には、フレームCとフレームEの変化点を平均化して、補完フレームを生成する。具体的には、先ず、フレームCとフレームEの、位置が対応する画素同士の画素値を比較して、画素値に差があるか否かを判定する。ここで、画素値とは、例えば、RGB表色系、XYZ表色系、xyY表色系、L*a*b*表色系、L*u*v*表色系等の種々の色空間等で表される。画素値に差がある場合、2つの画素値の平均を、生成する補完フレームの対応する位置の画素の画素値とする。画素値に差がない場合は、対応する位置の画素の画素値は、前後のフレームと同じ値とする。
 また、削除フレームが連続する場合は、削除フレームの前後の削除されていないフレームの変化点を平均化することにより、補完フレーム生成処理を行う。この場合、例えば、削除フレームH,Iは連続するフレームであるため、フレームH,Iに対応する補完フレームHと補完フレームIは同等の画像となる。これは補完フレームH及びIは、フレームGとJの変化点を平均化して復元されるからである。この場合でも、移動端末35は解像度が低いという側面、及び、フレーム数は補完され、見た目のフレーム数が確保されるという点から、映像が大きく変わる箇所でも画質の低下なく再現される。
 尚、削除フレームが連続する場合は、削除フレームの前後の削除されていないフレームの変化点を、削除フレームのタイムスタンプに応じた値とすることで補完フレームを生成してもよい。ここで、削除フレームの直前(直後)の削除されていないフレームを前(後)フレームと記す。例えば、前後のフレームの変化点の画素値の単位時間当たりの変化量を求め、その変化量に、前フレームの開始時間からの削除フレームの開始時間を乗じた値を、前フレームの画素値に加えることにより、補完フレームの画素値を求めてもよい。
 削除フレームに対応する補完フレームを生成すると、移動端末35は、補完フレームを対応する削除フレームの位置に挿入する。具体的には、移動端末35は、対応するメタ情報の削除フレーム開始番号141、削除フレーム期間(フレーム数)142、タイムスタンプ143の情報から特定した削除フレームの位置に補完フレームを挿入する。
 次に、所定期間における閾値以上の類似度を有するフレームの数が少なく、フレーム削除後のフレームレートが、配信品質監視によって決定されたフレームレートに満たない場合の動作について説明する。この場合、送信端末はフレーム削除作業で用いる作業バッファを増やしてこれに対応する。作業バッファが格納可能なフレームの期間における動画データのフレームレートが、配信品質監視によって決定されたフレームレート以下となるようにフレームを削除する。
 具体的には、A~Kのフレームのうち閾値以上のフレームが所定の数以上存在しない場合、さらにフレームL~Vを作業バッファにバッファリングし、その中で類似度が閾値以上であるフレームを削除する。そして、フレームA~Vの期間でフレームレートが、配信品質監視で決定されたフレームレート以下か否かを確認する。
 図8は、送信端末のフレーム削除における動作フローチャートである。図8においては、説明のために削除処理の対象フレームのフレーム番号をnとして説明する。
 送信端末は、配信品質監視の結果で示される削除するフレームの数を認識する(S81)。そして、送信端末はフレーム番号がn-1のフレームをバッファリングする(S82)。次に、送信端末はフレーム番号がnのフレームをバッファリングする(S83)。そして、送信端末は、フレーム番号がn-1のフレームとフレーム番号がnのフレームの類似度を計算し(S84)、所定の閾値(この例では90%)以上か否かを判定する(S85)。類似度が所定の閾値未満である場合は(S85でNo)、nの値をインクリメントして、処理がステップS82に移行する。S85において、類似度が所定の閾値以上である場合は(S85でYes)、フレーム番号nのフレームは削除され、削除されたフレームの情報がメタ情報に追記される(S86)。そして、nの値をインクリメントして、処理がステップS82に移行する。すべてのフレームをバッファリングしたら処理が終了する。
 図9は、削除フレームが見つからない場合の削除処理動作を説明するための図である。図9では、元のフレームから一定数のフレームを一定割合で削除するため、送信端末で映像を一定時間蓄積できるバッファ機能を有して、ストリーミング配信に対応させる。
 動画サーバ31内のストリーミングサーバ151は、配信する動画データを格納する。ここで動画サーバ31は、帯域幅監視により一定期間に配信できるデータ量を確認できる。
 ここで動画の所定期間内に削除フレームが存在しない場合は、バッファ制御部152は、後続するフレームをバッファリングして削除可能なフレームを見つけ出す。そして、フレームの削除によりビデオデータの伝送レートが帯域幅より小さくなったら、デコーダタイミング制御部153は、フレームが削除された動画データの配信を開始する。このときフレームが削除されたビデオデータはエンコーダサーバ154によりエンコードされ、移動端末35へ配信される。尚、ビデオメモリとオーディオメモリからの各データを1つのデータとしてエンコードし、送信処理をしてもよい。移動端末35は、サーバ31からエンコードされた動画をファイルデコーダ91で受信する。
 本実施形態で行うフレームの削除処理は、MPEG2等で使用する圧縮方法とは異なる。本実施形態のフレームの削除処理では、前後のフレームで変化量が少ないフレームは、フレームそのものを削除するため、MPEG2等の圧縮方法に比べて大きく情報量を減らすことができる。
 図10は、受信端末のデコード処理を説明するための図である。デコード処理部は、ファイルデコーダ91、フレーム制御部92、ビデオデコーダ93、ビデオメモリ94、オーディオデコーダ95、オーディオメモリ96を含む。
 ファイルデコーダ91は、送信端末より受信したストリーミングデータをビデオデータとオーディオデータに分離する。そしてファイルデコーダ91は、分離したビデオデータをビデオデコーダ93に出力し、オーディオデータをオーディオデコーダ95に出力する。また、ファイルデコーダ91は、受信したストリーミングデータよりメタ情報を抽出し、フレーム制御部92に送信する。
 フレーム制御部92は、ファイルデコーダ91から受信したメタ情報から削除フレームを認識し、削除フレームの情報をビデオデコーダ93に出力する。削除フレームの情報とは、例えば、削除フレーム開始番号141、削除フレーム期間(フレーム数)142、削除フレームのタイムスタンプ143を含む。また、フレーム制御部92は、オーディオデータのタイムスタンプ及びビデオデータのタイムスタンプを受信する。また、フレーム制御部92は、削除フレームの再構築に応じてリップシンク調整をする。
 ビデオデコーダ93は、ファイルデコーダ91からビデオデータを受信し、フレーム制御部92から削除フレーム情報を受信する。ビデオデコーダ93はビデオデータをデコードする。そして、ビデオデコーダ93はビデオデータと削除フレーム情報から削除フレームの補完フレームを生成し、フレームの再構築を行う。そして、ビデオデコーダ93は再構築したビデオデータをビデオメモリ94に出力する。
 オーディオデコーダ95は、ファイルデコーダ91からオーディオデータを受信し、デコード処理を行う。そして、オーディオデータをオーディオメモリ96に出力する。
 次に、受信端末によるフレーム再構築の動作を説明する。図11は、受信端末によるフレーム再構築のフローチャートである。
 先ずビデオデコーダ95は、削除フレームの補完フレーム生成処理を実行する(S101)。ビデオデコーダ95は、フレーム処理部92から削除フレームに関する情報を受信する。削除フレームに関する情報は、例えば、削除フレーム開始番号141、削除フレームの期間(フレーム数)142、タイムスタンプ143を含む。そしてビデオデコーダ95は、削除フレームに関する情報から削除フレーム番号または再開始フレーム番号とそのフレームの時間を認識する(S102)。
 次に、ビデオデコーダ95は、認識した削除フレーム番号または再開始フレーム番号に基いて、生成した補完フレームにフレーム番号を割り当てる(S103)。
 次に、ビデオデコーダ95はフレームを所定区間検出したら(S104)、すなわち所定の期間のフレームを検出したら、メタ情報によってオーディオデータのフレームとビデオデータのフレームのタイムスタンプを一致させる(S105)。これにより、リップシンクの調整がなされ、映像と音声の同期がとれる。そして、ビデオデコーダ95は、復元されたフレームとリップシンク処理が完了した音声データを、動画の再生アプリケーションに通知する(S106)。このデータを用いて移動端末35は映像を再生する。
 ここで、リップシンクについて説明する。リップシンクとは動画における音声と映像のズレである。リップシンク調整とは表示されている人を見る視聴者が違和感なく、話しているように感じられるように音声フレームと映像フレームを調整するものである。本実施形態においては、送信端末でビデオフレームを削除したため、移動端末35では、オリジナルのタイムスタンプ情報により、受信端末で追加したビデオフレームとそれに対応するオーディオフレームのタイムスタンプの整合性がとれるように調整する。よって送信端末のフレーム削除とともに行うメタ情報変更では、オーディオフレームのタイムスタンプは変更しない。よって、オーディオフレームの中には対応するビデオフレームが存在しないものが発生することになる。従って、送信端末で変更されるメタ情報は、ビデオフレームの情報である。
 図12は、受信端末の動画データの復元処理における動作フローチャートである。図12においては、説明のために復元処理の対象フレームのフレーム番号をn+1として説明する。
 受信端末は、メタデータから削除フレームの存在を確認する(S111)。すなわち、受信端末はメタデータに含まれる削除フレームの削除フレーム開始番号141、削除フレーム期間(フレーム数)142、タイムスタンプ143を認識する。そして、受信端末はその削除フレーム開始番号141の直前のフレーム番号を有するフレーム(nフレーム)をバッファリングする(S112)。次に、受信端末は削除フレーム開始番号141の直後のフレーム番号を有するフレーム(n+2フレーム)をバッファリングする(S113)。そして、受信端末は、nフレームとn+2フレームの変化点を平均化して削除フレームの補完フレーム(n+1フレーム)を生成し、この補完フレームに削除フレーム開始番号141及びタイムスタンプ143を割り当てる(S114)。その後、受信端末はnフレームを出力し(S115)、続いてn+1のフレームを出力する(S116)。
 図13は、本実施形態におけるサーバ31の構成の一例を示す。サーバ31は、デコード処理部131、演算処理部132、ストレージ133、コンテンツサーバ134、ストリーミングサーバ135を含む。
 デコード処理部131は、パソコン33等の端末機器からアップロードされる動画データをデコードする。ここで、アップロードされる動画データは送付用の形式に分割または統合され、もしくは圧縮されているため、デコード処理を行い、動画データを修復する。
 演算処理部132は、帯域幅の監視及び配信品質管理を行い、その結果に応じて動画データのフレームの削除処理及びメタ情報の変更処理を行う。
 ストレージ133にはオペレーティングシステム、ミドルウェア、アプリケーションが格納されており、演算処理部132によりメモリに読み出され、実行される。
 コンテンツサーバ134は、ストリーミング再生を行うために準備されているコンテンツが管理されており、移動端末35はここで管理されているコンテンツから再生する動画を選択できる。
 ストリーミングサーバ135は、動画データを移動端末35に配信する。動画データは演算処理部132からフレームが削除された動画データを受信する。また、ストリーミングサーバ135は、配信で使用する、例えばHTTP(HyperText Transfer Protocol)、HTTP/RTMPなどのプロトコルに応じて分けられる。
 図14は、本実施形態に係るサーバ31またはパソコン33のハードウェア構成の一例を示す。サーバ31またはパソコン33は、CPU(Central Processing Unit)161、SDRAM(Synchronous Dynamic Random Access Memory)162、シリアルポート163、フラッシュメモリ164、デジタルI/O、アナログI/O165を含む。また、サーバ31またはパソコン33はストレージ166、チップセット167、通信カード168、CF(Compact Flash(登録商標))インターフェースカード169、リアルタイムクロック170が含まれる。
 CPU161は、ストレージ166に保存された上述のフロー図の手順を記述したプログラムを、SDRAM162またはフラッシュメモリ164を利用して実行する。また、CPU161は、チップセット167を介して、通信カード168、CFインターフェースカード169、リアルタイムクロック170とデータのやり取りを行う。サーバ31またはパソコン33は、通信カードを介して、シリアルポート163またはデジタルI/O、アナログI/O165から動画データの入出力を行う。CPU161は、監視部3、削除部4、フレーム情報生成部5、送信部6、受信部8、補完画像生成部9、動画データ生成部10の一部または全部の機能を提供する。また、CPU161は動画データのエンコード、デコード、リップシンク、接続確立のための認証動作、動画データの再生を行う。ストレージ166は、記憶部2の一部または全部の機能を提供する。CPU161は、動画データのフレーム削除処理及び動画データの復元処理を行うための一時データ保存領域(作業バッファ)としてSDRAM162を利用できる。尚、SDRAM162はこれに限定されず種々のRAM(Random Access Memory)とすることができる。
 フラッシュメモリ164にはカーネル、サーバ31におけるアプリケーション、設定ファイル等が保存される。フラッシュメモリは拡張領域があり、動画データのフレーム削除処理、動画データの復元処理を行うための一時データ保存領域(作業バッファ)としても利用できる。
 CF(Compact Flash(登録商標))インタフェース169はサーバ31の保守等に使うための補助機能として使用される。ストレージが内蔵されているため、多くのパソコン33移動端末35間のデータ処理にはこれを使用する。
 リアルタイムクロック170は、コンピュータの時計としての機能をもつ専用のチップである。フレームのタイムスタンプはリアルタイムクロック170の時計に従って設定される。
 実施形態の第1の情報処理装置1及び第2の情報処理装置7の一部は、ハードウェアで実現してもよい。或いは、実施形態の情報処理装置1及び第2の情報処理装置7は、ソフトウェアおよびハードウェアの組み合わせで実現してもよい。
 図15は、本実施形態に係る移動端末35のハードウェア構成の一例を示す。移動端末35は、図15に示すように、CPU201、メモリ202、記憶部203、読取部204、通信インタフェース206、入出力部207、表示部208を含む。なお、CPU201、メモリ202、記憶部203、読取部204、通信インタフェース206、入出力部207、表示部208は、例えば、バス209を介して互いに接続されている。
 CPU201は、メモリ202を利用して上述のフローチャートの手順を記述したプログラムを実行する。CPU201は、受信部8、補完画像生成部9、動画データ生成部10の一部または全部の機能を提供する。また、CPU201は動画データのデコード、リップシンク、動画データの再生を行う。メモリ202は、例えば半導体メモリであり、RAM領域およびROM領域を含んで構成される。記憶部203は、例えばハードディスクである。なお、記憶部203は、フラッシュメモリ等の半導体メモリであってもよい。動画データを再生するためのアプリケーションは、メモリ202または記憶部203に格納され、CPU201によって実行される。移動端末35は記憶部203を有さない構成とすることも可能である。
 読取部204は、CPU201の指示に従って着脱可能記録媒体205にアクセスする。着脱可能記録媒体205は、たとえば、半導体デバイス(USBメモリ等)、磁気的作用により情報が入出力される媒体(磁気ディスク等)、光学的作用により情報が入出力される媒体(CD-ROM、DVD等)などにより実現される。
 通信インタフェース206は、CPU201の指示に従ってネットワークを介してデータを送受信する。また、通信インタフェース206は、動画データを受信する。入出力部207は、例えば、ユーザからの指示を受け付けるデバイスに相当する。ユーザは入出力部207を使用して、再生する動画データの指定や動画データの解像度の指定が可能である。表示部208は、再生した動画データの表示を行う。
 実施形態を実現するための情報処理プログラムは、例えば、下記の形態で移動端末35提供される。
(1)記憶部203に予めインストールされている。
(2)着脱可能記録媒体205により提供される。
(3)ネットワークを介して提供される。
(変形例)
 図16は、本実施形態(変形例)における情報処理システムの構成の一例を示す。本変形例と実施形態との違いは受信端末が例えばパソコン33のような端末機器の形態であることである。同じパソコン33間であってもインターネットの帯域幅によっては画質劣化が確認される場合があるため、このような場合は本発明が適用されることになる。
 尚、実施形態、変形例において、配信する動画データを音声が入っていない動画データとしてもよい。この場合、音声が存在しないためリップシンク調整は不要となる。
 また、本実施形態におけるパソコン33で行った処理とそれに相当する処理は、サーバ31が行ってもよい。この場合、パソコン33は動画データを格納する記憶部を有する。その場合、本実施形態におけるパソコン33とサーバ31間で行われる処理は省略できる。また、移動端末35は、シンクライアント端末でもよい。また、本実施形態におけるデコードはMPEG2等の規格に則って行われてもよい。
 また、本実施形態では、パソコン33からストリーミング形式で移動端末35に動画が配信されるとしたが、配信方法はストリーミング形式に限定されない。
 尚、本実施形態は、以上に述べた実施の形態に限定されるものではなく、本実施形態の要旨を逸脱しない範囲内で種々の構成または実施形態を取ることができる。
 1   第1の情報処理装置
 2   記憶部
 3   監視部
 4   削除部
 5   フレーム情報生成部
 6   送信部
 7   第2の情報処理装置
 8   受信部
 9   補完画像生成部
 10  動画データ生成部
 11  通信ネットワーク

Claims (11)

  1.  第1の動画データを記憶する記憶部と、
     通信ネットワークの状態を監視する監視部と、
     前記監視の結果に応じて、前記第1の動画データの単位時間当たりの第1のフレーム数を示す第1のフレームレートから、前記第1のフレームレートより少ない第2のフレームレートになるように、前記第1の動画データのいずれかのフレームを削除して、第2の動画データを生成する削除部と、
     前記削除されたフレームに関するフレーム情報を生成するフレーム情報生成部と、
     前記第2の動画データと前記フレーム情報とを送信する送信部と、
     を備える情報処理装置。
  2.  前記フレーム情報生成部は、前記フレーム情報を前記第2の動画データに関するメタ情報に付加し、
     前記送信部は、前記第2の動画データと前記メタ情報を送信する
     請求項1に記載の情報処理装置。
  3.  前記フレーム情報は、前記削除されたフレームの開始番号と前記削除されたフレームの期間を含む
     請求項1または2に記載の情報処理装置。
  4.  前記削除部は、連続するフレーム間で、類似度が所定の閾値以上である該連続するフレームのいずれかを削除する
     請求項1~3のいずれか1項に記載の情報処理装置。
  5.  前記監視部は、前記ネットワークの帯域幅を監視し、
     前記削除部は、前記フレームを削除して前記第2のフレームレートを調整し、前記動画データの解像度を調整することにより、前記配信される動画データの伝送レートを前記帯域幅に応じた所定の値以下とする
     請求項1~4のいずれか1項に記載の情報処理装置。
  6.  第1の動画データの単位時間当たりの第1のフレーム数を示す第1のフレームレートから、前記第1のフレーム数より少ない第2のフレームレートになるように、前記第1の動画データのいずれかのフレームが削除されて生成された第2の動画データと前記削除されたフレームに関するフレーム情報とを受信する受信部と、
     前記フレーム情報を用いて前記削除されたフレームの画像を補完する補完画像を生成する補完画像生成部と、
     前記補完画像を前記第2の動画データの前記削除されたフレームの位置に挿入し、前記第1のフレームレートの動画データを生成する動画データ生成部と、
     を備える情報処理装置。
  7.  前記補完画像生成部は、前記削除されたフレームの前後のフレームの変化点に基いて補完画像を生成する
     請求項6に記載の情報処理装置。
  8.  第1の動画データを記憶する記憶部と、
     通信ネットワークの状態を監視する監視部と、
     前記監視の結果に応じて、前記第1の動画データの単位時間当たりの第1のフレーム数を示す第1のフレームレートから、前記第1のフレームレートより少ない第2のフレームレートになるように、前記第1の動画データのいずれかのフレームを削除して、第2の動画データを生成する削除部と、
     前記削除されたフレームに関するフレーム情報を生成するフレーム情報生成部と、
     前記第2の動画データと前記フレーム情報とを送信する送信部と、
     前記送信された、前記第2の動画データと前記フレーム情報とを受信する受信部と、
     前記フレーム情報を用いて前記削除されたフレームの画像を補完する補完画像を生成する補完画像生成部と、
     前記補完画像を前記第2の動画データの前記削除されたフレームの位置に挿入し、前記第1のフレームレートの動画データを生成する動画データ生成部と、
     を備える情報処理システム。
  9.  第1の情報処理装置は、
     通信ネットワークの状態を監視し、
     前記監視の結果に応じて、第1の動画データの単位時間当たりの第1のフレーム数を示す第1のフレームレートから、前記第1のフレームレートより少ない第2のフレームレートになるように、前記第1の動画データのいずれかのフレームを削除して、第2の動画データを生成し、
     前記削除されたフレームに関するフレーム情報を生成し、
     前記第2の動画データと前記フレーム情報とを送信する
     処理を実行し、
     第2の情報処理装置は、
     前記送信された、前記第2の動画データと前記フレーム情報とを受信し、
     前記フレーム情報を用いて前記削除されたフレームの画像を補完する補完画像を生成し、
     前記補完画像を前記第2の動画データの前記削除されたフレームの位置に挿入し、前記第1のフレームレートの動画像データを生成する
     処理を実行する動画データ送受信方法。
  10.  プロセッサに、
     通信ネットワークの状態を監視し、
     前記監視の結果に応じて、第1の動画データの単位時間当たりの第1のフレーム数を示す第1のフレームレートから、前記第1のフレーム数より少ない第2のフレームレートになるように、前記第1の動画データのいずれかのフレームを削除して、第2の動画データを生成し、
     前記削除されたフレームに関するフレーム情報を生成し、
     前記第2の動画データと前記フレーム情報とを送信する
     処理を実行させる情報処理プログラム。
  11.  プロセッサに、
     第1の動画データの単位時間当たりの第1のフレーム数を示す第1のフレームレートから、前記第1のフレーム数より少ない第2のフレームレートになるように、前記第1の動画データのいずれかのフレームが削除されて生成された第2の動画データと前記削除されたフレームに関するフレーム情報とを受信し、
     前記フレーム情報を用いて前記削除されたフレームの画像を補完する補完画像を生成し、
     前記補完画像を前記第2の動画データの前記削除されたフレームの位置に挿入し、前記第1のフレームレートの動画像データを生成する
     処理を実行させる情報処理プログラム。
PCT/JP2012/076255 2012-10-10 2012-10-10 情報処理装置、情報処理システム、情報処理プログラム、及び動画データ送受信方法 WO2014057555A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/JP2012/076255 WO2014057555A1 (ja) 2012-10-10 2012-10-10 情報処理装置、情報処理システム、情報処理プログラム、及び動画データ送受信方法
JP2014540685A JPWO2014057555A1 (ja) 2012-10-10 2012-10-10 情報処理装置、情報処理システム、情報処理プログラム、及び動画データ送受信方法
EP12886418.8A EP2908547B1 (en) 2012-10-10 2012-10-10 Information-processing device, information-processing system, information-processing program, and moving image data transmission/reception method adapting the frame rate of moving image data based on frame similarity
US14/665,300 US9699518B2 (en) 2012-10-10 2015-03-23 Information processing apparatus, information processing system, recording medium, and method for transmission and reception of moving image data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/076255 WO2014057555A1 (ja) 2012-10-10 2012-10-10 情報処理装置、情報処理システム、情報処理プログラム、及び動画データ送受信方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/665,300 Continuation US9699518B2 (en) 2012-10-10 2015-03-23 Information processing apparatus, information processing system, recording medium, and method for transmission and reception of moving image data

Publications (1)

Publication Number Publication Date
WO2014057555A1 true WO2014057555A1 (ja) 2014-04-17

Family

ID=50477043

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/076255 WO2014057555A1 (ja) 2012-10-10 2012-10-10 情報処理装置、情報処理システム、情報処理プログラム、及び動画データ送受信方法

Country Status (4)

Country Link
US (1) US9699518B2 (ja)
EP (1) EP2908547B1 (ja)
JP (1) JPWO2014057555A1 (ja)
WO (1) WO2014057555A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015163396A1 (ja) * 2014-04-23 2015-10-29 株式会社リコー アクセス管理システム、通信システム、記録媒体、及びアクセス管理方法
KR20160142200A (ko) * 2015-06-02 2016-12-12 한화테크윈 주식회사 Mjpeg 압축방식을 이용하는 영상촬영장치
JP2016219950A (ja) * 2015-05-18 2016-12-22 富士通株式会社 通信装置、通信システム、および、通信方法

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6398215B2 (ja) * 2013-03-15 2018-10-03 株式会社リコー 配信制御システム、配信システム、配信制御方法、及びプログラム
JP6369043B2 (ja) 2013-03-15 2018-08-08 株式会社リコー 配信制御システム、配信システム、配信制御方法、及びプログラム
JP2015090543A (ja) * 2013-11-05 2015-05-11 セイコーエプソン株式会社 計測情報管理システム、計測装置、計測情報管理方法、および計測情報管理プログラム
EP3113490B1 (en) * 2014-02-26 2019-07-24 Ricoh Company, Ltd. Communication device, communication system, communication control method, and program
US9723377B2 (en) * 2014-04-28 2017-08-01 Comcast Cable Communications, Llc Video management
US11695847B2 (en) * 2014-08-14 2023-07-04 Nokia Solutions And Networks Oy Throughput guidance based on user plane insight
US20170244894A1 (en) * 2016-02-22 2017-08-24 Seastar Labs, Inc. Method and Apparatus for Managing Latency of Remote Video Production
KR102383117B1 (ko) * 2017-07-21 2022-04-06 삼성전자주식회사 디스플레이 장치, 디스플레이 방법 및 디스플레이 시스템
EP3573069A1 (en) * 2018-05-21 2019-11-27 Esaote S.p.A. Ultrasound diagnostic system with multimedia information distribution system
US10764530B2 (en) * 2018-10-04 2020-09-01 Samsung Electronics Co., Ltd. Method and system for recording a super slow motion video in a portable electronic device
CN111836117B (zh) * 2019-04-15 2022-08-09 深信服科技股份有限公司 一种补帧数据的发送方法、装置及相关组件
US20230034162A1 (en) * 2020-01-09 2023-02-02 Sony Group Corporation Transmission apparatus and transmission method
CN111626155B (zh) * 2020-05-14 2023-08-01 新华智云科技有限公司 一种篮球位置点的生成方法及设备
KR20220003812A (ko) * 2020-07-02 2022-01-11 삼성전자주식회사 호 채널의 상태에 기반하여 필터를 사용하여 전처리된 컨텐츠를 전송하는 전자 장치 및 전자 장치의 동작 방법
CN113115107B (zh) * 2021-04-15 2021-12-28 深圳鸿祥源科技有限公司 一种基于5g网络的手持视频采集终端系统
WO2022252797A1 (zh) * 2021-05-31 2022-12-08 华为技术有限公司 视频呈现方法、电子设备、计算机存储介质和程序产品
CN113938709B (zh) * 2021-12-17 2022-03-15 杭州星犀科技有限公司 无缓存场景下补帧的方法、系统、补帧器和存储介质
CN117834891A (zh) * 2024-03-06 2024-04-05 成都凌亚科技有限公司 一种视频信号压缩处理及发送平台及方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08280009A (ja) * 1995-04-06 1996-10-22 Matsushita Electric Ind Co Ltd 画像符号化装置および画像復号化装置および光ディスク
JPH10155149A (ja) 1996-11-25 1998-06-09 Matsushita Electric Ind Co Ltd フレームレート変換方式、及びフレームレート変換装置
JP2004040517A (ja) * 2002-07-04 2004-02-05 Hitachi Ltd 携帯端末および画像配信システム
JP2004112789A (ja) 2002-09-17 2004-04-08 Samsung Electronics Co Ltd マルチメディアストリーミング装置及びその方法
JP2006333189A (ja) * 2005-05-27 2006-12-07 Matsushita Electric Ind Co Ltd 映像要約生成装置
JP2009060425A (ja) 2007-08-31 2009-03-19 Hitachi Ltd トラフィック制御システムおよびトラフィック制御方法
JP2010147678A (ja) * 2008-12-17 2010-07-01 Sony Corp 情報処理装置および方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5072296A (en) * 1990-02-23 1991-12-10 Massachusetts Institute Of Technology Video frame reduction/reconstruction method and apparatus
US6747991B1 (en) * 2000-04-26 2004-06-08 Carnegie Mellon University Filter and method for adaptively modifying the bit rate of synchronized video and audio streams to meet packet-switched network bandwidth constraints
JP4242581B2 (ja) 2000-12-08 2009-03-25 パナソニック株式会社 データ変換装置
CN1251129C (zh) 2000-12-08 2006-04-12 松下电器产业株式会社 数据变换装置、数据编码装置以及数据记录装置
JP2002344913A (ja) 2001-05-16 2002-11-29 Nec Yonezawa Ltd ネットワークにおける映像データの変換処理装置及び変換処理方法並びに変換処理サービス
US8861601B2 (en) * 2004-08-18 2014-10-14 Qualcomm Incorporated Encoder-assisted adaptive video frame interpolation
US8514933B2 (en) * 2005-03-01 2013-08-20 Qualcomm Incorporated Adaptive frame skipping techniques for rate controlled video encoding
JP4616211B2 (ja) * 2005-12-07 2011-01-19 三菱電機株式会社 映像配信支援システム
JP2007325109A (ja) * 2006-06-02 2007-12-13 Canon Inc 配信サーバ、ネットワークカメラ、配信方法及びプログラム
US20080025390A1 (en) * 2006-07-25 2008-01-31 Fang Shi Adaptive video frame interpolation
US8761248B2 (en) * 2006-11-28 2014-06-24 Motorola Mobility Llc Method and system for intelligent video adaptation
JP5115345B2 (ja) * 2008-06-11 2013-01-09 ソニー株式会社 記憶再生装置、記憶装置及び記憶再生方法
US20100027663A1 (en) * 2008-07-29 2010-02-04 Qualcomm Incorporated Intellegent frame skipping in video coding based on similarity metric in compressed domain
US9247276B2 (en) * 2008-10-14 2016-01-26 Imagine Communications Corp. System and method for progressive delivery of media content
JP5780582B2 (ja) 2009-01-08 2015-09-16 日本電気株式会社 配信システムと方法並びに変換装置
US8345545B2 (en) * 2009-01-28 2013-01-01 Nec Laboratories America, Inc. Methods and systems for rate matching and rate shaping in a wireless network
JP5520190B2 (ja) * 2010-10-20 2014-06-11 株式会社ソニー・コンピュータエンタテインメント 画像処理システム、画像処理方法、動画像送信装置、動画像受信装置、プログラム及び情報記憶媒体
US8782165B2 (en) * 2011-01-26 2014-07-15 Openwave Mobility, Inc. Method and transcoding proxy for transcoding a media stream that is delivered to an end-user device over a communications network

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08280009A (ja) * 1995-04-06 1996-10-22 Matsushita Electric Ind Co Ltd 画像符号化装置および画像復号化装置および光ディスク
JPH10155149A (ja) 1996-11-25 1998-06-09 Matsushita Electric Ind Co Ltd フレームレート変換方式、及びフレームレート変換装置
JP2004040517A (ja) * 2002-07-04 2004-02-05 Hitachi Ltd 携帯端末および画像配信システム
JP2004112789A (ja) 2002-09-17 2004-04-08 Samsung Electronics Co Ltd マルチメディアストリーミング装置及びその方法
JP2006333189A (ja) * 2005-05-27 2006-12-07 Matsushita Electric Ind Co Ltd 映像要約生成装置
JP2009060425A (ja) 2007-08-31 2009-03-19 Hitachi Ltd トラフィック制御システムおよびトラフィック制御方法
JP2010147678A (ja) * 2008-12-17 2010-07-01 Sony Corp 情報処理装置および方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2908547A4

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015163396A1 (ja) * 2014-04-23 2015-10-29 株式会社リコー アクセス管理システム、通信システム、記録媒体、及びアクセス管理方法
JPWO2015163396A1 (ja) * 2014-04-23 2017-04-20 株式会社リコー アクセス管理システム、通信システム、記録媒体、及びアクセス管理方法
JP2016219950A (ja) * 2015-05-18 2016-12-22 富士通株式会社 通信装置、通信システム、および、通信方法
KR20160142200A (ko) * 2015-06-02 2016-12-12 한화테크윈 주식회사 Mjpeg 압축방식을 이용하는 영상촬영장치
US11356635B2 (en) 2015-06-02 2022-06-07 Hanwha Techwin Co., Ltd. Imaging apparatus using MJPEG compression method
KR102432804B1 (ko) * 2015-06-02 2022-08-16 한화테크윈 주식회사 Mjpeg 압축방식을 이용하는 영상촬영장치

Also Published As

Publication number Publication date
EP2908547B1 (en) 2019-12-04
EP2908547A1 (en) 2015-08-19
US20150195625A1 (en) 2015-07-09
JPWO2014057555A1 (ja) 2016-08-25
EP2908547A4 (en) 2015-08-19
US9699518B2 (en) 2017-07-04

Similar Documents

Publication Publication Date Title
WO2014057555A1 (ja) 情報処理装置、情報処理システム、情報処理プログラム、及び動画データ送受信方法
US10547850B2 (en) Audio splitting with codec-enforced frame sizes
US11743519B2 (en) Fragment server directed device fragment caching
JP2021514167A (ja) メディアコンテンツの配信および再生
WO2014057896A1 (ja) コンテンツ送信装置、コンテンツ再生装置、コンテンツ配信システム、コンテンツ送信装置の制御方法、コンテンツ再生装置の制御方法、制御プログラムおよび記録媒体
US20140215536A1 (en) Streaming video server with segment length control and methods for use therewith
US10277656B2 (en) Method and system for delivering media data
CN112752115B (zh) 直播数据传输方法、装置、设备及介质
KR102216622B1 (ko) 데이터 버퍼링 방법, 네트워크 디바이스, 및 저장 매체
JP6238255B2 (ja) 監視カメラシステムによる監視方法及び動画分割装置
GB2492538A (en) A device specific, adaptive bit-rate method for streaming audio video content
US10015542B2 (en) Method and apparatus for secure storage and retrieval of live off disk media programs
JP2007208458A (ja) 通信システム、通信端末および通信方法
US9294821B2 (en) Scrubbing noise remover and methods for use therewith
JP6119765B2 (ja) 情報処理装置、情報処理システム、情報処理プログラム、及び動画データ送受信方法
JP2012137900A (ja) 映像出力システム、映像出力方法及びサーバ装置
JP2010011287A (ja) 映像伝送方法および端末装置
WO2018003685A1 (ja) 画像圧縮方法、画像復元方法、画像圧縮装置、画像復元装置、画像圧縮プログラムプロダクト及び画像復元プログラムプロダクト
KR101289758B1 (ko) Hd영상 가변스트리밍 전송시스템 및 전송방법
JP6357188B2 (ja) 監視カメラシステム及び監視カメラデータ保存方法
JP7292901B2 (ja) 送信装置、送信方法、及びプログラム
JP2004349743A (ja) 映像ストリーム切替システム、方法、映像ストリーム切替システムを含む映像監視、映像配信システム
JP6468663B2 (ja) 映像コンテンツ配信装置
CN115883883A (zh) 广电直播信号的安全传输方法和系统
KR101507993B1 (ko) 컨텐츠 부분 동기화를 통한 스트리밍 방법 및 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12886418

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014540685

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2012886418

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE