JPWO2014057555A1 - 情報処理装置、情報処理システム、情報処理プログラム、及び動画データ送受信方法 - Google Patents

情報処理装置、情報処理システム、情報処理プログラム、及び動画データ送受信方法 Download PDF

Info

Publication number
JPWO2014057555A1
JPWO2014057555A1 JP2014540685A JP2014540685A JPWO2014057555A1 JP WO2014057555 A1 JPWO2014057555 A1 JP WO2014057555A1 JP 2014540685 A JP2014540685 A JP 2014540685A JP 2014540685 A JP2014540685 A JP 2014540685A JP WO2014057555 A1 JPWO2014057555 A1 JP WO2014057555A1
Authority
JP
Japan
Prior art keywords
frame
moving image
image data
information
deleted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014540685A
Other languages
English (en)
Inventor
敏郎 大櫃
敏郎 大櫃
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2014057555A1 publication Critical patent/JPWO2014057555A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234381Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the temporal resolution, e.g. decreasing the frame rate by frame skipping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/647Control signaling between network components and server or clients; Network processes for video distribution between server and clients, e.g. controlling the quality of the video stream, by dropping packets, protecting content from unauthorised alteration within the network, monitoring of network load, bridging between two different networks, e.g. between IP and wireless
    • H04N21/64784Data processing by the network
    • H04N21/64792Controlling the complexity of the content stream, e.g. by dropping packets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/164Feedback from the receiver or from the transmission channel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/23406Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving management of server-side video buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234363Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the spatial resolution, e.g. for clients with a lower screen resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/24Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests
    • H04N21/2402Monitoring of the downstream path of the transmission network, e.g. bandwidth available
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44245Monitoring the upstream path of the transmission network, e.g. its availability, bandwidth
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/4425Monitoring of client processing errors or hardware failure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4621Controlling the complexity of the content stream or additional data, e.g. lowering the resolution or bit-rate of the video stream for a mobile client with a small screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/633Control signals issued by server directed to the network components or client
    • H04N21/6338Control signals issued by server directed to the network components or client directed to network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/637Control signals issued by the client directed to the server or network components
    • H04N21/6377Control signals issued by the client directed to the server or network components directed to server
    • H04N21/6379Control signals issued by the client directed to the server or network components directed to server directed to encoder, e.g. for requesting a lower encoding rate
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/647Control signaling between network components and server or clients; Network processes for video distribution between server and clients, e.g. controlling the quality of the video stream, by dropping packets, protecting content from unauthorised alteration within the network, monitoring of network load, bridging between two different networks, e.g. between IP and wireless
    • H04N21/64723Monitoring of network processes or resources, e.g. monitoring of network load
    • H04N21/64738Monitoring network characteristics, e.g. bandwidth, congestion level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/65Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using error resilience
    • H04N19/68Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using error resilience involving the insertion of resynchronisation markers into the bitstream

Abstract

帯域幅の狭いネットワークを介して保存先から送信された動画データの再生品質を向上させる。第1の情報処理装置は、通信ネットワークの状態を監視し、監視の結果に応じて、第1の動画データの単位時間当たりの第1のフレーム数を示す第1のフレームレートから、第1のフレームレートより少ない第2のフレームレートになるように、第1の動画データのいずれかのフレームを削除して、第2の動画データを生成し、削除されたフレームに関するフレーム情報を生成し、第2の動画データとフレーム情報とを送信し、第2の情報処理装置は、送信された、第2の動画データとフレーム情報とを受信し、フレーム情報を用いて削除されたフレームの画像を補完する補完画像を生成し、補完画像を第2の動画データの削除されたフレームの位置に挿入し、第1のフレームレートの動画像データを生成する。

Description

本発明は、動画データの送受信技術に関する。
現在、外部に持ち出して電池により駆動することができるスマートフォンのような移動端末機器(以下、移動端末と記述)には、例えば内蔵カメラによって動画を撮影し、それを同移動端末で視聴することができるグラフィック性能を持つものがある。このような移動端末は動画再生機能、インターネット接続機能も持ち、インターネット上にある動画サイトのコンテンツを視聴することができる。また、移動端末には、インターネットを介して家庭内のパーソナルコンピュータ(以下、パソコンと記述)の補助記憶装置等に記憶された個人的な写真や動画の視聴ができるものが提供されている。
TV動画コンテンツのフレームレートは例えば24fps(frame per second)であり、このような動画コンテンツの転送は、ネットワークのトラフィック量を著しく増大させる。一方、ネットワーク環境によっては、TV動画コンテンツを転送することによりLAN(Local Area Network)帯域が過度に圧迫され、ネットワーク遅延が生ずる可能性がある。例えば、家庭内のLAN帯域は小さいことが多いため、ネットワーク遅延が生じ易い。
インターネット経由でパソコンに保存された動画を移動端末によりストリーミング形式で視聴すると、動画の再生レートよりもネットワーク伝送レートが低くなる場合があり、動画の再生時にフレームの欠落を招く虞がある。
このようなフレーム欠落を防ぐための方法として、映像表示側の移動端末のハードウェアに、バッファを設けるようにすることが考えられる。しかしながら、携帯移動端末は動画の受信に十分なバッファを実装するためのスペースを確保できない。
一方、ネットワーク帯域幅の変化に応じて適応的に伝送率を変化させてマルチメディアストリーミングサービスを提供するシステムがある。このシステムは、マルチメディアストリーミングサーバとマルチメディアストリーミングクライアントとから構成される。マルチメディアストリーミングサーバは、サービスしようとするマルチメディアデータに対応するメタデータの分析結果及び外部から入力されたネットワーク帯域幅情報に応じて、所定のサービス品質レベルに応じたマルチメディアデータをストリーミングする。そして、マルチメディアストリーミングクライアントは、マルチメディアデータを受信した時間及びマルチメディアデータのサイズ情報を利用して、マルチメディアストリーミングサーバが接続されたネットワークの帯域幅を測定する。マルチメディアストリーミングクライアントは、この測定したネットワーク帯域幅情報をマルチメディアストリーミングサーバに伝送する。
また、以下のようなトラフィック制御を行う情報処理システムがある。情報処理システムは、動画配信サーバ、動画配信サーバから配信される動画データを再生する動画再生プログラムを備える中継サーバ、中継サーバから動画データの再生データに応じた画面情報を受け取って画面出力するクライアント端末を備える。そして、情報処理システムは、動画配信サーバ、中継サーバ、クライアント端末の間におけるトラフィック制御を行う。また、情報処理システムは、中継サーバとクライアント端末との間の通信回線Aについて通信品質を測定する品質測定手段を備える。また、情報処理システムは、測定した通信回線Aの通信品質aが許容する通信データ量の画面情報の量に対応した、動画配信サーバと中継サーバとの間の通信回線Bでの動画データの配信量を特定する上流特定手段を備える。さらに、情報処理システムは、通信回線Bを介して動画配信サーバから中継サーバへ配信される動画データの量が、特定した動画データの配信量となるべく制御する上流制御手段を備える。
特開2004−112789号公報 特開2009−060425号公報 特開平10−155149号公報
しかしながら、上記いずれの構成もネットワークの帯域幅に応じてストリーミングのサービスの品質を変更する構成であり、動画の再生レートより伝送レートが低いネットワーク環境では、伝送前のデータ本来の画質と比較すると、再生時の画質が低下する。
そこで、1つの側面では、本発明は、帯域幅の狭いネットワークを介して保存先から送信された動画データの再生品質を向上させることを目的とする。
一態様の第1の情報処理装置は、記憶部、監視部、削除部、フレーム情報生成部、及び送信部を含む。記憶部は、第1の動画データを記憶する。監視部は、通信ネットワークの状態を監視する。削除部は、監視の結果に応じて、第1の動画データの単位時間当たりの第1のフレーム数を示す第1のフレームレートから、第1のフレームレートより少ない第2のフレームレートになるように、第1の動画データのいずれかのフレームを削除して、第2の動画データを生成する。フレーム情報生成部は、削除されたフレームに関するフレーム情報を生成する。送信部は、第2の動画データとフレーム情報とを送信する。
第2の情報処理装置は、受信部、補完画像生成部、及び動画データ生成部を含む。受信部は、第1の動画データの単位時間当たりの第1のフレーム数を示す第1のフレームレートから、第1のフレーム数より少ない第2のフレームレートになるように、第1の動画データのいずれかのフレームが削除されて生成された第2の動画データと削除されたフレームに関するフレーム情報とを受信する。補完画像生成部は、フレーム情報を用いて削除されたフレームの画像を補完する補完画像を生成する。動画データ生成部は、補完画像を第2の動画データの削除されたフレームの位置に挿入し、第1のフレームレートの動画データを生成する。
本実施形態に係る情報処理システムによれば、保存先からネットワークを介して送信された動画データの再生品質を向上させることができる。
本実施形態に係る情報処理システムのブロック図の一例を示す。 本実施形態に係る情報処理システムの構成の一例を示す。 ビデオデータのメタ情報の構造の一例を示す。 本実施形態に係る情報処理システムのシーケンス図(その1)の一例を示す。 本実施形態に係る情報処理システムのシーケンス図(その2)の一例を示す。 動画データの送信端末におけるフレームレートの調整を説明するための図を示す。 フレームの削減処理のフローチャートを示す。 フレーム削除方法について説明するための図を示す。 送信端末のフレーム削除における動作フローチャートを示す。 削除フレームが見つからない場合の削除処理動作を説明するための図を示す。 受信端末のデコード処理を説明するための図を示す。 受信端末によるフレーム再構築のフローチャートである。 受信端末のフレーム復元における動作フローチャートを示す。 本実施形態における動画サーバの構成の一例を示す。 本実施形態に係るサーバまたはパソコンのハードウェア構成の一例を示す。 本実施形態に係る移動端末のハードウェア構成の一例を示す。 本実施形態(変形例)における情報処理システムの構成の一例を示す。
図1は、本実施形態に係る情報処理システムの機能ブロック図の一例である。第1の情報処理装置1は、記憶部2、監視部3、削除部4、フレーム情報生成部5、送信部6を含む。記憶部2は、第1の動画データを記憶する。監視部3は、通信ネットワーク11の状態を監視する。また、監視部3は、通信ネットワーク11の帯域幅を監視する。
削除部4は、監視の結果に応じて、第1の動画データの単位時間当たりの第1のフレーム数を示す第1のフレームレートから、第1のフレームレートより少ない第2のフレームレートになるように、第1の動画データのいずれかのフレームを削除して、第2の動画データを生成する。また、削除部4は、連続するフレーム間で、類似度が所定の閾値以上である連続するフレームのいずれかを削除する。また、削除部4は、フレームを削除して第2のフレームレートを調整し、動画データの解像度を調整することにより、配信される動画データの伝送レートを前記帯域幅に応じた所定の値以下とする。
フレーム情報生成部5は、削除されたフレームに関するフレーム情報を生成する。また、フレーム情報生成部5は、フレーム情報を第2の動画データに関するメタ情報に付加する。また、フレーム情報は、削除されたフレームの開始番号と削除されたフレームの期間を含む。送信部6は、第2の動画データとフレーム情報とを送信する。また、送信部6はメタ情報を送信する。
第2の情報処理装置7は、受信部8、補完画像生成部9、及び動画データ生成部10を含む。受信部8は、第1の動画データの単位時間当たりの第1のフレーム数を示す第1のフレームレートから、第1のフレーム数より少ない第2のフレームレートになるように、第1の動画データのいずれかのフレームが削除されて生成された第2の動画データと削除されたフレームに関するフレーム情報とを受信する。補完画像生成部9は、フレーム情報を用いて削除されたフレームの画像を補完する補完画像を生成する。また、補完画像生成部10は、削除されたフレームの前後のフレームの変化点に基いて補完画像を生成する。動画データ生成部10は、補完画像を第2の動画データの削除されたフレームの位置に挿入し、第1のフレームレートの動画データを生成する。
このような構成とすることで、ネットワークの帯域幅に応じて動画データの伝送レートまたはフレームレートを変更することができる。さらに、動画の再生レートより伝送レートが低いネットワーク環境を介して動画データを受信し、受信側で十分な動画再生のためのバッファを確保できない場合であっても、送信前の動画データ本来のフレームレートで動画データを再生することが可能となる。また、送信前に削除するフレームを、連続するフレーム間で、類似度が所定の閾値以上であるフレームとすることで、受信側で復元する動画データの品質を向上させることができる。
本実施形態のシステム構成の一例を説明する。図2は、本実施形態に係る情報処理システムの構成の一例を示す。
情報処理システムは、動画データを保存するパソコン33、パソコン33から動画データを受信し移動端末35に転送するサーバ31、サーバ31から受信した動画データを再生可能な移動端末35、を含む。パソコン33は、第1の情報処理装置の一例である。サーバ31は、第1の情報処理装置及び第2の情報処理装置の一例である。移動端末35は、第2の情報処理装置の一例である。家庭内のLAN(Local Area Network)側に存在するパソコン33はルータ32を介してWAN(Wide Area Network)側へ接続される。また、通信キャリア34を通じて移動端末35とサーバ31は接続される。
パソコン33は、例えば家庭内に配置され、ネットワークを介してサーバ31に接続される。パソコン33は移動端末35からサーバ31を介してアクセスされる動画データを格納する。サーバ31からパソコン33へのアクセスは、認証機能によりアクセス制限される。また、パソコン33は、アクセスされるサーバ31毎にそのサーバ31に対して提供可能な動画ファイルの一覧情報を含むファイルを保持する。または、パソコン33は、サーバ31をアクセスする移動端末35毎に移動端末35に提供可能な動画ファイルの一覧情報を含むファイルを保持してもよい。パソコン33は、サーバ31からネットワークの状態の監視結果を受信し、監視状況に応じて動画ファイルのフレームを削除してサーバ31に配信する。尚、パソコン33は、サーバ31機能を有するホストコンピュータでもよいし、動画ファイルを格納しネットワークに接続されたストレージ装置でもよい。
サーバ31は、パソコン33及び移動端末35にネットワークを介して接続される。サーバ31は、移動端末35からパソコン33に保存された動画ファイルに対する視聴要求を受信する。サーバ31は移動端末35との接続を確立するための認証機能を有する。サーバ31は視聴要求のあった動画ファイルをパソコン33から取得し、移動端末35に転送する。サーバ31は、サーバ31と移動端末35間及びサーバ31とパソコン33間のネットワークの帯域を統合的に監視する機能を有する。サーバ31はネットワークの監視状況に応じて動画ファイルのフレームを削除して移動端末35に配信する。
移動端末35は、ネットワークを介してサーバ31に接続される。移動端末35はパソコン33に保存された再生動画の指定をユーザから受け付ける。また、移動端末35は、再生する動画の解像度の指定をユーザから受け付ける。移動端末35は、サーバ31から動画データをストリーミング形式で受信し、受信した動画データのうち送信時に削除されたフレームがあれば、そのフレームに対応する補完フレームを生成して、動画データに挿入する。それにより、パソコン33においてフレームを削除する前の動画データを不可逆的に復元する。そして、移動端末35は復元した動画データを再生する。復元処理を行うことで、移動端末35は動画データをパソコン33に保存されていた動画データと同じフレームレートで再生する。
尚、以下の説明では、パソコン33からサーバ31に対してデータを配信することを上り(アップロード)と記し、サーバ31から移動端末35にデータを送信することを下り(ダウンロード)と記すことがある。また、動画データの送信元となるパソコン33またはサーバ31を送信端末、動画データの受信側となるサーバ31または移動端末35を受信端末と記すことがある。さらに、パソコン33において削除されるフレームを削除フレームと記すことがある。
ここでビデオデータのメタ情報の構造を説明する。ビデオデータのメタ情報はビデオデータとともに送信端末から受信端末へと送付される。パソコン33は削除したフレームの情報をメタ情報に付加させ、移動端末35はこのメタ情報を用いて動画データを復元する。図3は、ビデオデータのメタ情報の構造の一例を示す。
メタ情報は、動画データに関する情報であり動画データに対応付けられる。メタ情報は、フォーマットサイズ(コンテンツ解像度)144、映像タイトル145、映像時間146、作成日147、内容148、削除フレーム開始番号141、削除フレーム期間(フレーム数)142、タイムスタンプ143を含む。
フォーマットサイズ(コンテンツ解像度)144、映像タイトル145、映像時間146、作成日147、内容148は、パソコン33に保存された動画データが有するものである。フォーマットサイズ(コンテンツ解像度)144、映像タイトル145、映像時間146、作成日147、内容148は、それぞれ、対応する動画データの、フォーマットサイズ(コンテンツ解像度)、映像タイトル、映像時間、作成日、内容である。
削除フレーム開始番号141、削除フレーム期間(フレーム数)142、タイムスタンプ143は、送信端末においてフレームを削除する場合に、メタデータに付加されるデータ項目である。削除フレーム開始番号141は、送信端末により削除されるフレームのフレーム番号である。削除フレーム期間(フレーム数)142は、削除されるフレームが連続する場合の期間を示し、例えば、削除フレームの連続数で表される。タイムスタンプ143は、削除フレームのタイムスタンプであり、タイムスタンプ143は、映像フレーム単位に再生開始からの秒数をつけ定義するものである。
削除フレーム開始番号141、削除フレーム期間(フレーム数)142、タイムスタンプ143は、所定期間毎(例えば1秒毎)の削除フレームの情報である。よって、所定期間内に削除フレームが複数ある場合には、削除フレーム毎に対応付けた、削除フレーム開始番号141、削除フレーム期間142、タイムスタンプ143のデータ項目が、メタ情報に付加される。
ここで、削除フレーム開始番号141、削除フレーム期間(フレーム数)142、タイムスタンプ143は、再開始フレームのフレーム番号、再開始フレームの期間(フレーム数)、再開始フレームのタイムスタンプでもよい。本実施形態では、削除される映像フレームは連続するものであるため、開始されるフレーム番号とそのフレーム期間の情報があれば、移動端末35での映像再生のときに削除されるフレーム開始番号とその期間を事前に認識できる。そのため、移動端末35で削除フレームの開始番号とその期間の補完を行ってもよい。また、タイムスタンプ143は、削除フレーム開始番号141及び削除フレームに対応するオーディオフレームのタイムスタンプを用いて補完することにより、メタ情報に含めない構成としてもよい。
図4A、図4Bは本実施形態にかかる情報処理システムのシーケンス図である。図4A、図4Bは、動画データが保存されるパソコン33と、パソコン33から動画データを取得して動画を視聴可能な移動端末35と、移動端末35とパソコン33とのデータ転送を中継するサーバ31と、の動作関係を表している。
移動端末35はパソコン33に保存された動画データを取得するために、移動端末35とパソコン33とを中継するサーバ31に接続を行う(S401)。接続の確立前に、サーバ31は接続要求のあった移動端末35の正当性を確認するために認証を行う(S402)。また、サーバ31は移動端末35の認証と同時に、移動端末35の解像度を認識する。認証が成功した場合、サーバ31は移動端末35に機器承認応答を行う(S403)。
次に、サーバ31は移動端末35から要求のあった動画データが保存されているパソコン33に接続を行う(S404)。パソコン33とサーバ31の接続確立時にも接続の正当性を確認するための認証が行われる。認証が成功した場合、パソコン33は接続応答をサーバ31に送信する(S405)。
次に、パソコン33は提供可能な動画の一覧情報を、サーバ31を介して移動端末35に通知する(S406)。提供可能な動画の一覧は、移動端末35毎に、または、サーバ31毎に予め設定して、パソコン33にファイルとして保存されてもよい。また、移動端末35の解像度の情報をサーバ31から受信し、その情報に応じて、パソコン33は、動画データのうち移動端末35が再生することができる動画を判定してもよい。
通知された一覧が移動端末35の画面に表示されると、ユーザは、移動端末35を操作して、再生する動画を選択する。移動端末35は、サーバ31に対して、選択された再生動画の配信要求(以下、再生動画要求と記す)を行う(S407)。
次に、サーバ31は移動端末35とサーバ31間及びパソコン33とサーバ31間のネットワークの帯域幅を監視するための情報収集作業を行う(S408、S409)。
次に、サーバ31は移動端末35から受信した再生動画要求をパソコン33に対して送信する(S410)。パソコン33は再生動画要求を受信すると、再生動画要求で指定のあった動画に関するメタ情報をサーバ31に通知する(S411)。
次に、サーバ31はパソコン33とサーバ31間の動画送信の品質監視(以下、上り配信品質監視と記す)を行う(S412)。具体的には、パソコン33が送信する動画データのデータ量が、安定的に送受信可能なデータ量の範囲内に収まるように、動画データのフレームレートを決定する。すなわち、動画の転送で使用する帯域幅が、ネットワークの帯域幅以下となるように、サーバ31は送信する動画データのフレームレートを調整するための調整量を決定する。
次に、サーバ31は配信品質監視において決定した送信動画のフレームレートをパソコン33に通知する(S413)。さらにサーバ31は、S402で認識した移動端末35の解像度をパソコン33に通知し、動画データの解像度を移動端末35の解像度に合わせて変更するようにパソコン33に指示する(S414)。
パソコン33は、上り配信品質監視結果と解像度の変更要求を受信すると、受信した結果及び要求に応じて、配信する動画のフレームレートの調整と解像度の変更を行う(S415)。フレームレートの調整は、連続するフレームの類似度に基いてフレームを削除することで行う。そして、パソコン33は削除したフレームの情報をメタ情報に付加し、変更した解像度の情報をメタ情報に反映する(S416)。そして、パソコン33は変更したメタ情報をサーバ31に通知する(S417)。
サーバ31はパソコン33からメタ情報を受信すると、サーバ31と移動端末35間の動画送信の品質監視(以下、下り配信品質監視と記す)を行う(S418)。具体的には、動画の転送で使用する帯域幅が、サーバ31と移動端末35間のネットワークの帯域幅以下となるように、サーバ31は送信する動画データのフレームレートを調整するための調整量を決定する。このときサーバ31は、パソコン33で変更した動画データの変更情報を移動端末35が動画再生時に認識できるように、動画データの変更情報を再生情報変更要求として移動端末35に通知する(S419)。そして、サーバ31は下り配信品質監視において決定した送信動画のフレームレートをパソコン33に通知する(S420)。
パソコン33は、下り配信品質結果を受信すると、受信の結果に応じて配信する動画のフレームレートの調整を行う(S421)。フレームレートの調整は、連続するフレームの類似度に基いてフレームを削除することで行う。そして、パソコン33は削除したフレームの情報をメタ情報に付加する(S422)。そして、パソコン33は変更したメタ情報をサーバ31に通知する(S423)。
次に、サーバ31は配信動画の変更情報を移動端末35に通知する(S424)。移動端末35はサーバ31から再生情報通知を受信すると、配信動画の変更を認識し、再生設定応答をサーバ31に行う(S425)。
次に、サーバ31はストリーミング開始要求をパソコン33に通知する(S426)。パソコン33はサーバ31からストリーミング開始要求を受信すると、サーバ31を介して移動端末35にストリーミング開始応答を行う(S427)。そしてパソコン33はサーバ31に対してストリーミングデータを配信する(S428)。そしてサーバ31はストリーミングデータを受信すると、移動端末35に対してストリーミングデータの配信を行う(S429)。
移動端末35はストリーミングデータを受信すると、受信したデータをデコード(S430)する。そして、移動端末35は、S415、S421で削除されたフレームに対応する補完フレームを生成し動画データに挿入することにより、動画データを復元する(S431)。そして、移動端末35は、復元した動画データを再生する(S432)。
そして、所定のデータ量ごとにS408〜S432の動作が繰り返され、パソコン33による動画データのストリーミング配信と移動端末35による再生が行われる。
尚、図4A、図4Bでは、サーバ31は、上り配信品質監視と下り配信品質監視の結果を個別にパソコン33に通知しているが、上り配信品質監視と下り配信品質監視を同時に行い、その結果をまとめてパソコン33に通知してもよい。その場合、サーバ31は、上り配信品質監視で決定される配信動画のフレームレートと、下り配信品質監視で決定される配信動画のフレームレートとを比較し、フレームレートの低い方の値をパソコン33に通知する。そして、パソコン33は受信したフレームレートとなるように配信動画のフレームレートを調整する。
また、図4では、下り配信品質監視の結果を受けて配信動画のフレームレートを調整する動作(S421、S422)はパソコン33が実行しているが、サーバ31がパソコン33からストリーミングデータを受信した(S428)後に、サーバ31が実行してもよい。また、パソコン33はフレームレートを調整する動作(S421、S422)前に、移動端末35に対して、フレームレートを変えるか否かを問い合わせてもよい。その場合、移動端末は、ユーザからフレームレートを調整するか否かの指示を受け付け、結果を移動端末に転送する。ここで、移動端末35は、フレームレートを調整する代わりに動画の解像度を変更させる指示や、接続する回線を変更させる指示を受け付けて、結果を移動端末に転送してもよい。
次に、移動端末35とサーバ31、サーバ31とパソコン33の間の接続動作(S401、S404)について詳細に説明する。
移動端末35には、動画を再生するためのアプリケーションプログラム(以下、アプリケーションと称する)がインストールされており、アプリケーションにより目的とするサーバ31に接続する。目的とするサーバ31の指定はユーザが選択できる構成としてもよいし、予めアプリケーションに設定されている構成としてもよい。移動端末35は例えば3G(3rd Generation)回線のように接続するときにその回線を指定してインターネットに接続することができる。また、移動端末35とパソコン33はインターネットを経由してのP2P(Peer to Peer)接続を可能とする。
サーバ31と移動端末35間、サーバ31とパソコン33間の接続確立時には認証が行われるが、そこで用いられる認証情報は、例えば、各機器の、IPアドレス、MACアドレスなどの固有機器情報などである。認証情報はサーバ31上で管理され、IPアドレスや固有機器情報を、移動端末35と移動端末35が接続可能なパソコン33とを対応付けて、移動端末35毎にグループ化して格納される。尚、1つの移動端末35に対して1つのパソコン33を対応付けてもよいし、複数と対応付けてもよい。
移動端末35とサーバ31の接続確立時の動作について説明する。サーバ31は、移動端末35から接続要求を受信すると、接続要求のあった移動端末35のIPアドレスまたは固有機器情報と、サーバ31に保存されているIPアドレスまたは固有機器情報と、を照合する。照合の結果が一致すれば、サーバ31は認証が成功したとして接続を確立する。尚、認証には種々の認証技術が用いられてもよく、パスワード認証方式や電子証明書認証方式等を用いてもよい。
次に、サーバ31とパソコン33の接続確立時の動作について説明する。サーバ31は移動端末35との接続を確立した後、その移動端末35に対応するパソコン33に接続を行う。具体的には、サーバ31に保存されている認証情報において1つの移動端末35に対して1つのパソコン33が対応付けられている場合、サーバ31は認証情報を確認して移動端末35に対応するパソコン33に接続を行う。もしくは、移動端末35がサーバ31との接続を確立する際に、移動端末35が接続先のパソコン33を指定し、サーバ31は指定されたパソコン33に接続する構成にしてもよい。
サーバ31からの接続要求を受けたパソコン33は、アクセス要求のあったサーバ31が正当なものか否かの認証を行う。認証にはサーバ31が移動端末35に対して行う認証と同様、種々の認証技術が用いられる。または、パソコン33が保有する動画ファイルやパソコン33のディレクトリ(フォルダ)にアクセス権限を付与してアクセス制御を行ってもよい。
尚、パソコン33とサーバ31、サーバ31と移動端末35間は、VPN(Virtual Private Network)等の高セキュリティのネットワーク技術を用いて接続してもよい。さらに、パソコン33とサーバ31、サーバ31と移動端末35間のデータ伝送において、伝送されるデータは種々の暗号化技術により暗号化されてもよい。また、サーバ31とパソコン33は同一イントラネット内に配置されてもよい。
次に、サーバ31によるネットワークの帯域幅を監視するための情報収集作業(S408、S409)について詳細に説明する。
サーバ31は、移動端末35とサーバ31間、及び、パソコン33とサーバ31間の帯域幅を監視する。先ず移動端末35とサーバ31間の帯域幅の監視について説明する。
サーバ31は移動端末35に接続されるネットワークの帯域幅を検出するために、移動端末35に対して帯域検出用のパケットを送信する。送信パケットにはサーバ31が送信した時刻が記録されている。移動端末35はパケットを受信した際に受信時刻を計測し、これをパケットに記録された送信時刻と比較する。それにより移動端末35は一定量のパケットがサーバ31から移動端末35まで到達するまでにかかる時間を算出することができる。移動端末35はここで得られた帯域監視情報をサーバ31に転送する。尚、サーバ31は、一定量のデータを複数のパケットに分割して、最初のパケットをサーバ31が送信してから最後のパケットを移動端末35が受信するのに要した時間を計測することにより、帯域監視情報を取得してもよい。
次に、パソコン33とサーバ31間の帯域幅の監視について説明する。サーバ31はパソコン33に対して帯域監視のためのパケットをサーバ31に送信するように指示する。パソコン33は指示を受信すると、帯域検出用のパケットをサーバ31に送信する。送信パケットにはパソコン33がパケットを送信した時刻が記録されている。サーバ31はパケットを受信した際に受信時刻を計測し、これをパケットに記録された送信時刻と比較することで、一定量のパケットがパソコン33からサーバ31まで到達するまでにかかる時間を算出する。尚、パソコン33は、一定量のデータを複数のパケットに分割して、最初のパケットをパソコン33が送信してから、最後のパケットをサーバ31が受信するまでに要した時間を計測することにより、帯域監視情報を取得してもよい。
尚、帯域の監視のためのパケットの送信は、実動画映像の再生に問題がない範囲において行う。ここで、帯域の監視には帯域を監視するためのコマンドを送付することにより行ってもよいし、ping等のコマンドを送付し、その応答時間を計測することによって行ってもよい。また、パソコン33がサーバ31を介して移動端末35にパケットを送付することで、一度にパソコン33とサーバ31間とサーバ31と移動端末35間の帯域幅の監視を行ってもよい。尚、帯域幅の監視のみではなく、伝送遅延から回線のトラフィックの監視を行ってもよい。
一方、インターネット接続する回線は種類毎に1秒間にデータの送信(または受信)を安定的に可能とする情報量が規定されている。サーバ31はこの規定の情報量と帯域監視情報とによって、単位時間当たりに安定的に送受信可能なデータ量(使用量)を判定する。
ここで、サーバ31は、帯域監視動作後(S408、S409後)、監視の結果を移動端末35に送信し、ユーザが移動端末35により帯域監視の結果を確認して再生する動画の解像度を指定してもよい。その場合、指定した解像度情報は配信品質監視において用いられる。
次に、サーバ31による上り及び下りの配信品質監視動作(S412、S418)について詳細に説明する。
配信品質監視では、サーバ31は、送信する動画のデータ量と安定的に送受信可能なデータ量とを比較し、安定的に送受信可能なデータ量の範囲内に送信する動画のデータ量が収まるように、動画データのフレームレートの調整量を決定する。ここで決定された動画データのフレームレートを、以下の説明では、送信用フレームレートと記す。
上り配信品質監視では、サーバ31とパソコン33間のネットワークにおいて安定的に送受信可能なデータ量の範囲内に、パソコン33から送信する動画のデータ量が収まるように、送信する動画データのフレームレートの調整量を決定する。先ず、サーバ31は、サーバ31とパソコン33の間の帯域監視の結果からサーバ31とパソコン33間の使用可能な帯域幅を判定する。もしくは、帯域監視の結果と回線の伝送路容量とからサーバ31は使用可能な帯域幅を判定する。そして、サーバ31は、動画データの、解像度、ビット色、圧縮率、及びフレームレートから動画データの伝送ビットレートを算出する。そしてサーバ31は、使用可能な帯域幅に、算出した伝送ビットレートが収まるように、動画データのフレームレートの削除量を導出する。
同様に、下り配信品質監視では、サーバ31と移動端末35間のネットワークにおいて安定的に送受信可能なデータ量の範囲内に、サーバ31から送信する動画のデータ量が収まるように、送信する動画データのフレームレートの調整量を決定する。先ず、サーバ31は、サーバ31と移動端末35の間の帯域監視の結果から、サーバ31と移動端末35間の使用可能な帯域幅を判定する。もしくは、帯域監視の結果と回線の伝送路容量とから使用可能な帯域幅を判定する。そして、サーバ31は動画データの、解像度、ビット色、圧縮率、アクティビティレベル、及びフレームレートから動画データの伝送ビットレートを算出する。そしてサーバ31は、使用可能な帯域幅に算出した伝送ビットレートが収まるように、動画データのフレームレートの削除量を導出する。尚、アクティビティレベルは、ストリームに対するパケットの送信頻度であり、例えば動画データの内容によって変化する。例えば無音の映像データの場合、オーディオストリームを送信する必要はなく、オーディオストリームのアクティビティレベルは0になる。
次に、配信品質監視の動作について、具体例を示して説明する。サーバ31とパソコン33間の回線は、帯域幅が最大94Mbpsの光回線と仮定する。尚、以下の例では、動画データはコーデックにおいて固定ビットレートでエンコードされると想定する。
動画送信のために使用可能な帯域幅は、ネットワーク内の他のアプリケーション等によるトラフィックにも依存するため、常に100%使用できるというわけではない。そこで、サーバ31は帯域監視を行い、すなわち、一定量のパケットがパソコン33からサーバ31まで到達するまでにかかる時間を算出し、ネットワークのトラフィック状況を把握する。このトラフィック状況に基いて、動画配信のために保証される帯域幅の、回線の最大伝送速度に対する割合をY%と定義する。ここでは、Y=1と仮定する。
動画データは、例えば解像度が1280[dot per inch(dpi)]×720[dpi]のフルHD(full high definition)、ビット色が8、フレームレートが24fpsとする。この動画データのビットレートは、(1280×720(解像度))×(3(RGB)×256(8ビット色))×24(フレーム)=17Gbpsになる。この値は1フレームが未圧縮状態である場合の値である。
ここで例えばMPEG(Moving Picture Experts Group)等の圧縮方式は、例えば、フルのIピクチャ(Intra picture)、1/2サイズのPピクチャ(Predictive picture)、1/4サイズのBピクチャ(Bi-directional predictive picture)を含み、それらは、1:4:10の割合で構成されている。そのため、動画データの圧縮率は約11/30になる。さらに、例えば、MPEG-AVCは、移動部分だけの差異データであるため、さらにおおよそ1/24に圧縮される。よって動画データは11/30×1/24=11/720に圧縮されると想定する。
この圧縮を考慮すると動画データの伝送ビットレートは、17Gbps×11/720=259Mbpsとなる。ここで、動画データは、再生する移動端末35の解像度に合わせて圧縮が可能である。例えば、サーバ31が認識した移動端末35の解像度が800×480である場合を考える。この場合、動画データは送信前に、800×480/1280×720=0.42倍に圧縮することができる。
ここで、元の動画データは解像度が大きい装置で表示するコンテンツであり、解像度が小さい移動端末35で動画データを再生する場合、動画データの解像度を移動端末35の解像度まで落としても見た目が変化することはない。また、移動端末35の映像再生チップの性能は動画データが含む情報量を全て活用できないことが多く、映像の細かい変化を再現できない。
よって、サーバ31が認識した移動端末35の解像度に基いた解像度をA、フレーム数をBとする。A=800×480、B=24の場合、動画データの伝送ビットレートは、A×(RGB各色フレーム:3×256)×B×11/720=(800×480)×(3×256)×24×11/720≒108Mbpsとなる。
しかしながら、この値は上りの帯域幅である94Mbps以下ではない。そこで、送信端末は動画データの伝送ビットレートが上りの帯域幅以下となるようにフレームを削除して送信する。削除前のフレームに対する削除後フレームの割合をEとすると、108M×E≦94Mが成立すればよいから、E≦0.87となる。24×E、すなわち、24×0.87=20.88であるため、送信する動画データのフレームレートは20fpsに変更されればよい。
ここで、動画データを受信する受信端末に、受信したデータを保存するために十分な記憶領域が確保できる場合は、フレーム削除処理を行わなくてもよい。
下りの送信動画の品質監視の動作についても、上りの品質監視と同様に、安定的に送受信可能なデータ量の範囲内に送信する動画のデータ量が収まるように、動画データのフレームレートの調整量を決定する。
サーバ31と移動端末35間の通信規格をLTE(Long Term Evolution)と仮定する。この場合の帯域幅を最大75Mbpsと仮定する。また、動画配信のために保証される帯域幅の、回線の最大伝送速度に対する割合をZ%と定義する。ここでは、Z=1と仮定すると下り帯域は77Mbpsとなる。
上りの場合の例で示したように、サーバ31が認識した移動端末35の解像度に基いた解像度をA、フレーム数をBとする。A=800×480、B=24の場合、動画データの伝送ビットレートは、A×(RGB各色フレーム: 3×256)×B×11/720=(800×480)×(3×256)×24×11/720≒108Mbpsとなる。
そこで、送信端末は動画データの伝送ビットレートが下りの帯域幅以下となるようにフレームを欠落させて送信する。欠落前のフレームに対する欠落後フレームの割合をEとすると、108M×E≦77Mが成立すればよいから、E≦0.71となる。24×E、すなわち、24×0.71=17.04であるため、送信する動画データのフレームレートは17fpsに変更されればよい。
尚、サーバ31とパソコン33間のフレームレートの調整は、サーバ31とパソコン33間の帯域だけでなく、サーバ31と移動端末35間の帯域幅を考慮し、どちらか小さい方の帯域幅に合わせて調整してもよい。また、ネットワークの回線を複数種類選択できる場合には、配信品質監視の結果に応じて、サーバ31は帯域幅の異なる回線に切り替える構成としてもよい。その場合、サーバ31は、配信品質監視で算出した動画の伝送レートにおいて、安定的に送信可能なネットワーク回線を検索して、そのネットワーク回線に切り替える。
次に、配信品質監視において決定された動画データのフレームレート以下となるように、配信する動画データのフレームを削除する動作について説明する。
図5は、動画データの送信端末におけるフレームレートの調整を説明するための図である。フレームレートの調整は、動画の送信端末、すなわち本実施形態においてはパソコン33またはサーバ31で行われる。
ファイルデコーダ51は、ストリーミングデータをビデオデータとオーディオデータに分離する。そして、ファイルデコーダ51は分離したビデオデータをビデオエンコーダ53に出力し、分離したオーディオデータをオーディオエンコーダ55に出力する。さらに、ファイルデコーダ51はストリーミングデータのメタ情報をフレーム制御部52に送信する。
フレーム制御部52は、ビデオデータのうち、フレームレートが送信用フレームレート以下となるように、削除するフレームを決定する。そして、フレーム制御部52は削除したフレームに関する情報をメタ情報に付加する。すなわち、フレーム制御部52は、メタ情報の削除フレーム開始番号141、削除フレーム期間(フレーム数)142、タイムスタンプ143に、削除したフレームの情報を格納する。
ファイルデコーダ51より出力されたビデオデータは、ビデオエンコーダ53に入力される。ビデオエンコーダ53は、ビデオデータからフレーム制御部52により決定された削除フレームを削除し、再度フレームを構築する。そして、ビデオエンコーダ53は再構築したフレームを送信用の形式にエンコードする。エンコードした結果ビデオデータは、例えばRTMP(Real Time Messaging Protocol)形式のパケット等に分割もしくは集約される。ビデオエンコーダ53はエンコードしたビデオデータをビデオメモリ54に出力し、ビデオメモリ54からエンコードされたビデオデータが受信端末に送信される。
一方、ファイルデコーダ51により分離されたオーディオデータはオーディオエンコーダ55に入力される。オーディオエンコーダ55は受信したオーディオデータを送付用の形式に変換してオーディオメモリ56に出力する。そして、エンコードされたオーディオデータはオーディオメモリ56から受信端末に送信される。ここで、削除されたフレームに対応するオーディオデータが削除されることはなく、オーディオデータのメタ情報も変更されずに送信される。これは、移動端末35におけるストリーミングデータの再生時にはフレーム数はフレーム削除前の数に戻るためである。
図6は、フレームの削減処理のフローチャートを示す。
先ず、送信端末は送信するビデオデータを読み込む(S61)。次に、送信端末は、サーバ31による配信品質監視の結果を確認し、送信用のフレームレートを認識する(S62)。そして、送信端末は送信用のフレームレートから削除するフレーム数を確認する(S63)。次に、送信端末は削除フレームが存在するか否かを確認する(S64)。削除フレームが存在しない場合は(S64でNo)、バッファ期間を増加して(S65)、再度削除フレームが存在するか否かを確認する(S64)。削除フレームが存在する場合は(S64)、該当するフレームを削除し、メタ情報に削除フレームの情報を保管する(S66)。そして、ビデオデータを送付用に再エンコードして配信する(S67)。
S63では、タイムレスがないデータ送信サイズを確認することになる。例えば元のフレームが24フレームであり、ここから17フレームまで落とさなければタイムレスなく配信ができないとなると7フレームを削除する必要がある。ここで、例えば送信ホスト及び受信ホストは、標準で持つビデオバッファとして動画データの3秒分のバッファを確保できるとする。24フレームから7フレームの削除を行うと圧縮復号後の再生品質は劣化するため、24×3 = 72フレームから、7×3 =21フレームを削除して圧縮配信をする。
図7は、フレーム削除方法について説明するための図である。フレームの削除は、動画データの時系列における前後のフレームとの近似性を利用して行われる。
送信端末からA〜Kのフレームを受信端末に送信する場合を考える。A〜Kのフレームは送信端末の作業バッファに格納される。作業バッファは動画データの全てのフレームを格納する必要はなく、フレームの削除処理を行い、フレームレートを配信品質監視で決定されたフレームレート以下にすることができる領域があればよい。送信端末は、各フレームの直前のフレーム(フレームBの場合はフレームAが直前のフレームにあたる)に対する類似度を算出する。類似度の計算は、種々の手法が用いられてよいが、例えば、直前のフレームとの映像フレーム比較により導かれる相似率を類似度としてもよいし、画素値の差の二乗和(SSD: Sum of Squared Differences)を用いて計算することで、類似度を算出してもよい。類似度の算出は送信端末にて行われる。図7の類似度71に示すように、BのAに対する類似度は「60」、CのBに対する類似度は「70」、DのCに対する類似度は「90」、以下E〜Kは同様に類似度71に示すとおりとする。
送信端末は、直前のフレームに対する類似度が所定の閾値以上であるフレームを削除する。図7の例では閾値が90である場合を示しており、直前のフレームに対する類似度が90以上であるフレームD,H,Iが削除される。図7の例でフレームIに示すように、直前のフレームに対する類似度が閾値以上であれば、直前のフレームが削除対象のフレーム(フレームH)であっても削除が行われる。すなわち、削除されるフレームH,Iのように連続する場合もありうる。フレームの削除が行われると、送信時にフレームに付随するメタ情報に、削除されたフレームD,H,Iの情報が追記される。
ここで、所定の期間内に所定の閾値以上の類似度を有するフレームが存在しない場合も考えられる。フレームの削除処理を行った結果、動画のフレームレートが、配信品質監視により決定されたフレームレート以下となる必要がある。この場合の動作の詳細は後ほど説明する。
送信端末は、削除したフレームの情報を追記したメタ情報をフレームに付随させて、サーバ31にアップロードする。そして、アップロードされたデータは受信端末の移動端末35にダウンロードされる。移動端末35は、フレームD,H,Iが削除された状態の映像データを受信することとなる。移動端末35は、映像データと同時にメタ情報を受信し、メタ情報内のフレームD,H,Iの削除情報を認識する。具体的には、移動端末35はメタ情報の削除フレーム番号141、削除フレーム期間(フレーム数)142、タイムスタンプ143の情報から削除されたフレームを特定する。そして、移動端末35は削除されたフレームD,H,Iの補完フレームを生成し、その補完フレームを動画データの削除されたフレームの位置に挿入することで、動画データの復元処理を行う。
補完フレーム生成処理は、削除されたフレームの前後のフレームの変化点を平均化することにより実行する。すなわち、フレームDの補完フレーム生成処理の場合には、フレームCとフレームEの変化点を平均化して、補完フレームを生成する。具体的には、先ず、フレームCとフレームEの、位置が対応する画素同士の画素値を比較して、画素値に差があるか否かを判定する。ここで、画素値とは、例えば、RGB表色系、XYZ表色系、xyY表色系、L*a*b*表色系、L*u*v*表色系等の種々の色空間等で表される。画素値に差がある場合、2つの画素値の平均を、生成する補完フレームの対応する位置の画素の画素値とする。画素値に差がない場合は、対応する位置の画素の画素値は、前後のフレームと同じ値とする。
また、削除フレームが連続する場合は、削除フレームの前後の削除されていないフレームの変化点を平均化することにより、補完フレーム生成処理を行う。この場合、例えば、削除フレームH,Iは連続するフレームであるため、フレームH,Iに対応する補完フレームHと補完フレームIは同等の画像となる。これは補完フレームH及びIは、フレームGとJの変化点を平均化して復元されるからである。この場合でも、移動端末35は解像度が低いという側面、及び、フレーム数は補完され、見た目のフレーム数が確保されるという点から、映像が大きく変わる箇所でも画質の低下なく再現される。
尚、削除フレームが連続する場合は、削除フレームの前後の削除されていないフレームの変化点を、削除フレームのタイムスタンプに応じた値とすることで補完フレームを生成してもよい。ここで、削除フレームの直前(直後)の削除されていないフレームを前(後)フレームと記す。例えば、前後のフレームの変化点の画素値の単位時間当たりの変化量を求め、その変化量に、前フレームの開始時間からの削除フレームの開始時間を乗じた値を、前フレームの画素値に加えることにより、補完フレームの画素値を求めてもよい。
削除フレームに対応する補完フレームを生成すると、移動端末35は、補完フレームを対応する削除フレームの位置に挿入する。具体的には、移動端末35は、対応するメタ情報の削除フレーム開始番号141、削除フレーム期間(フレーム数)142、タイムスタンプ143の情報から特定した削除フレームの位置に補完フレームを挿入する。
次に、所定期間における閾値以上の類似度を有するフレームの数が少なく、フレーム削除後のフレームレートが、配信品質監視によって決定されたフレームレートに満たない場合の動作について説明する。この場合、送信端末はフレーム削除作業で用いる作業バッファを増やしてこれに対応する。作業バッファが格納可能なフレームの期間における動画データのフレームレートが、配信品質監視によって決定されたフレームレート以下となるようにフレームを削除する。
具体的には、A〜Kのフレームのうち閾値以上のフレームが所定の数以上存在しない場合、さらにフレームL〜Vを作業バッファにバッファリングし、その中で類似度が閾値以上であるフレームを削除する。そして、フレームA〜Vの期間でフレームレートが、配信品質監視で決定されたフレームレート以下か否かを確認する。
図8は、送信端末のフレーム削除における動作フローチャートである。図8においては、説明のために削除処理の対象フレームのフレーム番号をnとして説明する。
送信端末は、配信品質監視の結果で示される削除するフレームの数を認識する(S81)。そして、送信端末はフレーム番号がn−1のフレームをバッファリングする(S82)。次に、送信端末はフレーム番号がnのフレームをバッファリングする(S83)。そして、送信端末は、フレーム番号がn−1のフレームとフレーム番号がnのフレームの類似度を計算し(S84)、所定の閾値(この例では90%)以上か否かを判定する(S85)。類似度が所定の閾値未満である場合は(S85でNo)、nの値をインクリメントして、処理がステップS82に移行する。S85において、類似度が所定の閾値以上である場合は(S85でYes)、フレーム番号nのフレームは削除され、削除されたフレームの情報がメタ情報に追記される(S86)。そして、nの値をインクリメントして、処理がステップS82に移行する。すべてのフレームをバッファリングしたら処理が終了する。
図9は、削除フレームが見つからない場合の削除処理動作を説明するための図である。図9では、元のフレームから一定数のフレームを一定割合で削除するため、送信端末で映像を一定時間蓄積できるバッファ機能を有して、ストリーミング配信に対応させる。
動画サーバ31内のストリーミングサーバ151は、配信する動画データを格納する。ここで動画サーバ31は、帯域幅監視により一定期間に配信できるデータ量を確認できる。
ここで動画の所定期間内に削除フレームが存在しない場合は、バッファ制御部152は、後続するフレームをバッファリングして削除可能なフレームを見つけ出す。そして、フレームの削除によりビデオデータの伝送レートが帯域幅より小さくなったら、デコーダタイミング制御部153は、フレームが削除された動画データの配信を開始する。このときフレームが削除されたビデオデータはエンコーダサーバ154によりエンコードされ、移動端末35へ配信される。尚、ビデオメモリとオーディオメモリからの各データを1つのデータとしてエンコードし、送信処理をしてもよい。移動端末35は、サーバ31からエンコードされた動画をファイルデコーダ91で受信する。
本実施形態で行うフレームの削除処理は、MPEG2等で使用する圧縮方法とは異なる。本実施形態のフレームの削除処理では、前後のフレームで変化量が少ないフレームは、フレームそのものを削除するため、MPEG2等の圧縮方法に比べて大きく情報量を減らすことができる。
図10は、受信端末のデコード処理を説明するための図である。デコード処理部は、ファイルデコーダ91、フレーム制御部92、ビデオデコーダ93、ビデオメモリ94、オーディオデコーダ95、オーディオメモリ96を含む。
ファイルデコーダ91は、送信端末より受信したストリーミングデータをビデオデータとオーディオデータに分離する。そしてファイルデコーダ91は、分離したビデオデータをビデオデコーダ93に出力し、オーディオデータをオーディオデコーダ95に出力する。また、ファイルデコーダ91は、受信したストリーミングデータよりメタ情報を抽出し、フレーム制御部92に送信する。
フレーム制御部92は、ファイルデコーダ91から受信したメタ情報から削除フレームを認識し、削除フレームの情報をビデオデコーダ93に出力する。削除フレームの情報とは、例えば、削除フレーム開始番号141、削除フレーム期間(フレーム数)142、削除フレームのタイムスタンプ143を含む。また、フレーム制御部92は、オーディオデータのタイムスタンプ及びビデオデータのタイムスタンプを受信する。また、フレーム制御部92は、削除フレームの再構築に応じてリップシンク調整をする。
ビデオデコーダ93は、ファイルデコーダ91からビデオデータを受信し、フレーム制御部92から削除フレーム情報を受信する。ビデオデコーダ93はビデオデータをデコードする。そして、ビデオデコーダ93はビデオデータと削除フレーム情報から削除フレームの補完フレームを生成し、フレームの再構築を行う。そして、ビデオデコーダ93は再構築したビデオデータをビデオメモリ94に出力する。
オーディオデコーダ95は、ファイルデコーダ91からオーディオデータを受信し、デコード処理を行う。そして、オーディオデータをオーディオメモリ96に出力する。
次に、受信端末によるフレーム再構築の動作を説明する。図11は、受信端末によるフレーム再構築のフローチャートである。
先ずビデオデコーダ95は、削除フレームの補完フレーム生成処理を実行する(S101)。ビデオデコーダ95は、フレーム処理部92から削除フレームに関する情報を受信する。削除フレームに関する情報は、例えば、削除フレーム開始番号141、削除フレームの期間(フレーム数)142、タイムスタンプ143を含む。そしてビデオデコーダ95は、削除フレームに関する情報から削除フレーム番号または再開始フレーム番号とそのフレームの時間を認識する(S102)。
次に、ビデオデコーダ95は、認識した削除フレーム番号または再開始フレーム番号に基いて、生成した補完フレームにフレーム番号を割り当てる(S103)。
次に、ビデオデコーダ95はフレームを所定区間検出したら(S104)、すなわち所定の期間のフレームを検出したら、メタ情報によってオーディオデータのフレームとビデオデータのフレームのタイムスタンプを一致させる(S105)。これにより、リップシンクの調整がなされ、映像と音声の同期がとれる。そして、ビデオデコーダ95は、復元されたフレームとリップシンク処理が完了した音声データを、動画の再生アプリケーションに通知する(S106)。このデータを用いて移動端末35は映像を再生する。
ここで、リップシンクについて説明する。リップシンクとは動画における音声と映像のズレである。リップシンク調整とは表示されている人を見る視聴者が違和感なく、話しているように感じられるように音声フレームと映像フレームを調整するものである。本実施形態においては、送信端末でビデオフレームを削除したため、移動端末35では、オリジナルのタイムスタンプ情報により、受信端末で追加したビデオフレームとそれに対応するオーディオフレームのタイムスタンプの整合性がとれるように調整する。よって送信端末のフレーム削除とともに行うメタ情報変更では、オーディオフレームのタイムスタンプは変更しない。よって、オーディオフレームの中には対応するビデオフレームが存在しないものが発生することになる。従って、送信端末で変更されるメタ情報は、ビデオフレームの情報である。
図12は、受信端末の動画データの復元処理における動作フローチャートである。図12においては、説明のために復元処理の対象フレームのフレーム番号をn+1として説明する。
受信端末は、メタデータから削除フレームの存在を確認する(S111)。すなわち、受信端末はメタデータに含まれる削除フレームの削除フレーム開始番号141、削除フレーム期間(フレーム数)142、タイムスタンプ143を認識する。そして、受信端末はその削除フレーム開始番号141の直前のフレーム番号を有するフレーム(nフレーム)をバッファリングする(S112)。次に、受信端末は削除フレーム開始番号141の直後のフレーム番号を有するフレーム(n+2フレーム)をバッファリングする(S113)。そして、受信端末は、nフレームとn+2フレームの変化点を平均化して削除フレームの補完フレーム(n+1フレーム)を生成し、この補完フレームに削除フレーム開始番号141及びタイムスタンプ143を割り当てる(S114)。その後、受信端末はnフレームを出力し(S115)、続いてn+1のフレームを出力する(S116)。
図13は、本実施形態におけるサーバ31の構成の一例を示す。サーバ31は、デコード処理部131、演算処理部132、ストレージ133、コンテンツサーバ134、ストリーミングサーバ135を含む。
デコード処理部131は、パソコン33等の端末機器からアップロードされる動画データをデコードする。ここで、アップロードされる動画データは送付用の形式に分割または統合され、もしくは圧縮されているため、デコード処理を行い、動画データを修復する。
演算処理部132は、帯域幅の監視及び配信品質管理を行い、その結果に応じて動画データのフレームの削除処理及びメタ情報の変更処理を行う。
ストレージ133にはオペレーティングシステム、ミドルウェア、アプリケーションが格納されており、演算処理部132によりメモリに読み出され、実行される。
コンテンツサーバ134は、ストリーミング再生を行うために準備されているコンテンツが管理されており、移動端末35はここで管理されているコンテンツから再生する動画を選択できる。
ストリーミングサーバ135は、動画データを移動端末35に配信する。動画データは演算処理部132からフレームが削除された動画データを受信する。また、ストリーミングサーバ135は、配信で使用する、例えばHTTP(HyperText Transfer Protocol)、HTTP/RTMPなどのプロトコルに応じて分けられる。
図14は、本実施形態に係るサーバ31またはパソコン33のハードウェア構成の一例を示す。サーバ31またはパソコン33は、CPU(Central Processing Unit)161、SDRAM(Synchronous Dynamic Random Access Memory)162、シリアルポート163、フラッシュメモリ164、デジタルI/O、アナログI/O165を含む。また、サーバ31またはパソコン33はストレージ166、チップセット167、通信カード168、CF(Compact Flash(登録商標))インターフェースカード169、リアルタイムクロック170が含まれる。
CPU161は、ストレージ166に保存された上述のフロー図の手順を記述したプログラムを、SDRAM162またはフラッシュメモリ164を利用して実行する。また、CPU161は、チップセット167を介して、通信カード168、CFインターフェースカード169、リアルタイムクロック170とデータのやり取りを行う。サーバ31またはパソコン33は、通信カードを介して、シリアルポート163またはデジタルI/O、アナログI/O165から動画データの入出力を行う。CPU161は、監視部3、削除部4、フレーム情報生成部5、送信部6、受信部8、補完画像生成部9、動画データ生成部10の一部または全部の機能を提供する。また、CPU161は動画データのエンコード、デコード、リップシンク、接続確立のための認証動作、動画データの再生を行う。ストレージ166は、記憶部2の一部または全部の機能を提供する。CPU161は、動画データのフレーム削除処理及び動画データの復元処理を行うための一時データ保存領域(作業バッファ)としてSDRAM162を利用できる。尚、SDRAM162はこれに限定されず種々のRAM(Random Access Memory)とすることができる。
フラッシュメモリ164にはカーネル、サーバ31におけるアプリケーション、設定ファイル等が保存される。フラッシュメモリは拡張領域があり、動画データのフレーム削除処理、動画データの復元処理を行うための一時データ保存領域(作業バッファ)としても利用できる。
CF(Compact Flash(登録商標))インタフェース169はサーバ31の保守等に使うための補助機能として使用される。ストレージが内蔵されているため、多くのパソコン33移動端末35間のデータ処理にはこれを使用する。
リアルタイムクロック170は、コンピュータの時計としての機能をもつ専用のチップである。フレームのタイムスタンプはリアルタイムクロック170の時計に従って設定される。
実施形態の第1の情報処理装置1及び第2の情報処理装置7の一部は、ハードウェアで実現してもよい。或いは、実施形態の情報処理装置1及び第2の情報処理装置7は、ソフトウェアおよびハードウェアの組み合わせで実現してもよい。
図15は、本実施形態に係る移動端末35のハードウェア構成の一例を示す。移動端末35は、図15に示すように、CPU201、メモリ202、記憶部203、読取部204、通信インタフェース206、入出力部207、表示部208を含む。なお、CPU201、メモリ202、記憶部203、読取部204、通信インタフェース206、入出力部207、表示部208は、例えば、バス209を介して互いに接続されている。
CPU201は、メモリ202を利用して上述のフローチャートの手順を記述したプログラムを実行する。CPU201は、受信部8、補完画像生成部9、動画データ生成部10の一部または全部の機能を提供する。また、CPU201は動画データのデコード、リップシンク、動画データの再生を行う。メモリ202は、例えば半導体メモリであり、RAM領域およびROM領域を含んで構成される。記憶部203は、例えばハードディスクである。なお、記憶部203は、フラッシュメモリ等の半導体メモリであってもよい。動画データを再生するためのアプリケーションは、メモリ202または記憶部203に格納され、CPU201によって実行される。移動端末35は記憶部203を有さない構成とすることも可能である。
読取部204は、CPU201の指示に従って着脱可能記録媒体205にアクセスする。着脱可能記録媒体205は、たとえば、半導体デバイス(USBメモリ等)、磁気的作用により情報が入出力される媒体(磁気ディスク等)、光学的作用により情報が入出力される媒体(CD−ROM、DVD等)などにより実現される。
通信インタフェース206は、CPU201の指示に従ってネットワークを介してデータを送受信する。また、通信インタフェース206は、動画データを受信する。入出力部207は、例えば、ユーザからの指示を受け付けるデバイスに相当する。ユーザは入出力部207を使用して、再生する動画データの指定や動画データの解像度の指定が可能である。表示部208は、再生した動画データの表示を行う。
実施形態を実現するための情報処理プログラムは、例えば、下記の形態で移動端末35提供される。
(1)記憶部203に予めインストールされている。
(2)着脱可能記録媒体205により提供される。
(3)ネットワークを介して提供される。
(変形例)
図16は、本実施形態(変形例)における情報処理システムの構成の一例を示す。本変形例と実施形態との違いは受信端末が例えばパソコン33のような端末機器の形態であることである。同じパソコン33間であってもインターネットの帯域幅によっては画質劣化が確認される場合があるため、このような場合は本発明が適用されることになる。
尚、実施形態、変形例において、配信する動画データを音声が入っていない動画データとしてもよい。この場合、音声が存在しないためリップシンク調整は不要となる。
また、本実施形態におけるパソコン33で行った処理とそれに相当する処理は、サーバ31が行ってもよい。この場合、パソコン33は動画データを格納する記憶部を有する。その場合、本実施形態におけるパソコン33とサーバ31間で行われる処理は省略できる。また、移動端末35は、シンクライアント端末でもよい。また、本実施形態におけるデコードはMPEG2等の規格に則って行われてもよい。
また、本実施形態では、パソコン33からストリーミング形式で移動端末35に動画が配信されるとしたが、配信方法はストリーミング形式に限定されない。
尚、本実施形態は、以上に述べた実施の形態に限定されるものではなく、本実施形態の要旨を逸脱しない範囲内で種々の構成または実施形態を取ることができる。
1 第1の情報処理装置
2 記憶部
3 監視部
4 削除部
5 フレーム情報生成部
6 送信部
7 第2の情報処理装置
8 受信部
9 補完画像生成部
10 動画データ生成部
11 通信ネットワーク
第2の情報処理装置は、受信部、補完画像生成部、及び動画データ生成部を含む。受信部は、第1の動画データの単位時間当たりの第1のフレーム数を示す第1のフレームレートから、第1のフレーム数より少ない第2のフレームレートになるように、第1の動画データのいずれかのフレームが削除されて生成された第2の動画データと削除されたフレームに関するフレーム情報とを受信する。補完画像生成部は、フレーム情報を用いて削除されたフレームを特定し、第2の動画データのフレームのうち、特定したフレームの前後のフレームの変化点に基づいて、削除されたフレームの画像を補完する補完画像を生成する。動画データ生成部は、補完画像を第2の動画データの削除されたフレームの位置に挿入し、第1のフレームレートの動画データを生成する。

Claims (11)

  1. 第1の動画データを記憶する記憶部と、
    通信ネットワークの状態を監視する監視部と、
    前記監視の結果に応じて、前記第1の動画データの単位時間当たりの第1のフレーム数を示す第1のフレームレートから、前記第1のフレームレートより少ない第2のフレームレートになるように、前記第1の動画データのいずれかのフレームを削除して、第2の動画データを生成する削除部と、
    前記削除されたフレームに関するフレーム情報を生成するフレーム情報生成部と、
    前記第2の動画データと前記フレーム情報とを送信する送信部と、
    を備える情報処理装置。
  2. 前記フレーム情報生成部は、前記フレーム情報を前記第2の動画データに関するメタ情報に付加し、
    前記送信部は、前記第2の動画データと前記メタ情報を送信する
    請求項1に記載の情報処理装置。
  3. 前記フレーム情報は、前記削除されたフレームの開始番号と前記削除されたフレームの期間を含む
    請求項1または2に記載の情報処理装置。
  4. 前記削除部は、連続するフレーム間で、類似度が所定の閾値以上である該連続するフレームのいずれかを削除する
    請求項1〜3のいずれか1項に記載の情報処理装置。
  5. 前記監視部は、前記ネットワークの帯域幅を監視し、
    前記削除部は、前記フレームを削除して前記第2のフレームレートを調整し、前記動画データの解像度を調整することにより、前記配信される動画データの伝送レートを前記帯域幅に応じた所定の値以下とする
    請求項1〜4のいずれか1項に記載の情報処理装置。
  6. 第1の動画データの単位時間当たりの第1のフレーム数を示す第1のフレームレートから、前記第1のフレーム数より少ない第2のフレームレートになるように、前記第1の動画データのいずれかのフレームが削除されて生成された第2の動画データと前記削除されたフレームに関するフレーム情報とを受信する受信部と、
    前記フレーム情報を用いて前記削除されたフレームの画像を補完する補完画像を生成する補完画像生成部と、
    前記補完画像を前記第2の動画データの前記削除されたフレームの位置に挿入し、前記第1のフレームレートの動画データを生成する動画データ生成部と、
    を備える情報処理装置。
  7. 前記補完画像生成部は、前記削除されたフレームの前後のフレームの変化点に基いて補完画像を生成する
    請求項6に記載の情報処理装置。
  8. 第1の動画データを記憶する記憶部と、
    通信ネットワークの状態を監視する監視部と、
    前記監視の結果に応じて、前記第1の動画データの単位時間当たりの第1のフレーム数を示す第1のフレームレートから、前記第1のフレームレートより少ない第2のフレームレートになるように、前記第1の動画データのいずれかのフレームを削除して、第2の動画データを生成する削除部と、
    前記削除されたフレームに関するフレーム情報を生成するフレーム情報生成部と、
    前記第2の動画データと前記フレーム情報とを送信する送信部と、
    前記送信された、前記第2の動画データと前記フレーム情報とを受信する受信部と、
    前記フレーム情報を用いて前記削除されたフレームの画像を補完する補完画像を生成する補完画像生成部と、
    前記補完画像を前記第2の動画データの前記削除されたフレームの位置に挿入し、前記第1のフレームレートの動画データを生成する動画データ生成部と、
    を備える情報処理システム。
  9. 第1の情報処理装置は、
    通信ネットワークの状態を監視し、
    前記監視の結果に応じて、第1の動画データの単位時間当たりの第1のフレーム数を示す第1のフレームレートから、前記第1のフレームレートより少ない第2のフレームレートになるように、前記第1の動画データのいずれかのフレームを削除して、第2の動画データを生成し、
    前記削除されたフレームに関するフレーム情報を生成し、
    前記第2の動画データと前記フレーム情報とを送信する
    処理を実行し、
    第2の情報処理装置は、
    前記送信された、前記第2の動画データと前記フレーム情報とを受信し、
    前記フレーム情報を用いて前記削除されたフレームの画像を補完する補完画像を生成し、
    前記補完画像を前記第2の動画データの前記削除されたフレームの位置に挿入し、前記第1のフレームレートの動画像データを生成する
    処理を実行する動画データ送受信方法。
  10. プロセッサに、
    通信ネットワークの状態を監視し、
    前記監視の結果に応じて、第1の動画データの単位時間当たりの第1のフレーム数を示す第1のフレームレートから、前記第1のフレーム数より少ない第2のフレームレートになるように、前記第1の動画データのいずれかのフレームを削除して、第2の動画データを生成し、
    前記削除されたフレームに関するフレーム情報を生成し、
    前記第2の動画データと前記フレーム情報とを送信する
    処理を実行させる情報処理プログラム。
  11. プロセッサに、
    第1の動画データの単位時間当たりの第1のフレーム数を示す第1のフレームレートから、前記第1のフレーム数より少ない第2のフレームレートになるように、前記第1の動画データのいずれかのフレームが削除されて生成された第2の動画データと前記削除されたフレームに関するフレーム情報とを受信し、
    前記フレーム情報を用いて前記削除されたフレームの画像を補完する補完画像を生成し、
    前記補完画像を前記第2の動画データの前記削除されたフレームの位置に挿入し、前記第1のフレームレートの動画像データを生成する
    処理を実行させる情報処理プログラム。
JP2014540685A 2012-10-10 2012-10-10 情報処理装置、情報処理システム、情報処理プログラム、及び動画データ送受信方法 Pending JPWO2014057555A1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/076255 WO2014057555A1 (ja) 2012-10-10 2012-10-10 情報処理装置、情報処理システム、情報処理プログラム、及び動画データ送受信方法

Publications (1)

Publication Number Publication Date
JPWO2014057555A1 true JPWO2014057555A1 (ja) 2016-08-25

Family

ID=50477043

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014540685A Pending JPWO2014057555A1 (ja) 2012-10-10 2012-10-10 情報処理装置、情報処理システム、情報処理プログラム、及び動画データ送受信方法

Country Status (4)

Country Link
US (1) US9699518B2 (ja)
EP (1) EP2908547B1 (ja)
JP (1) JPWO2014057555A1 (ja)
WO (1) WO2014057555A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6398215B2 (ja) * 2013-03-15 2018-10-03 株式会社リコー 配信制御システム、配信システム、配信制御方法、及びプログラム
JP6369043B2 (ja) 2013-03-15 2018-08-08 株式会社リコー 配信制御システム、配信システム、配信制御方法、及びプログラム
JP2015090543A (ja) * 2013-11-05 2015-05-11 セイコーエプソン株式会社 計測情報管理システム、計測装置、計測情報管理方法、および計測情報管理プログラム
CN106031164A (zh) * 2014-02-26 2016-10-12 株式会社理光 通信装置、通信系统、通信控制方法以及程序
AU2015250999A1 (en) * 2014-04-23 2016-11-10 Ricoh Company, Limited Access management system, communication system, recording medium and access management method
US9723377B2 (en) * 2014-04-28 2017-08-01 Comcast Cable Communications, Llc Video management
US11695847B2 (en) * 2014-08-14 2023-07-04 Nokia Solutions And Networks Oy Throughput guidance based on user plane insight
JP6435987B2 (ja) * 2015-05-18 2018-12-12 富士通株式会社 通信装置、通信システム、および、通信方法
KR102432804B1 (ko) 2015-06-02 2022-08-16 한화테크윈 주식회사 Mjpeg 압축방식을 이용하는 영상촬영장치
US20170244894A1 (en) * 2016-02-22 2017-08-24 Seastar Labs, Inc. Method and Apparatus for Managing Latency of Remote Video Production
KR102383117B1 (ko) * 2017-07-21 2022-04-06 삼성전자주식회사 디스플레이 장치, 디스플레이 방법 및 디스플레이 시스템
EP3573069A1 (en) * 2018-05-21 2019-11-27 Esaote S.p.A. Ultrasound diagnostic system with multimedia information distribution system
WO2020071828A1 (en) 2018-10-04 2020-04-09 Samsung Electronics Co., Ltd. Method and system for recording a super slow motion video in a portable electronic device
CN111836117B (zh) * 2019-04-15 2022-08-09 深信服科技股份有限公司 一种补帧数据的发送方法、装置及相关组件
EP4072133A4 (en) * 2020-01-09 2023-04-19 Sony Group Corporation TRANSMISSION DEVICE AND TRANSMISSION METHOD
CN111626155B (zh) * 2020-05-14 2023-08-01 新华智云科技有限公司 一种篮球位置点的生成方法及设备
KR20220003812A (ko) * 2020-07-02 2022-01-11 삼성전자주식회사 호 채널의 상태에 기반하여 필터를 사용하여 전처리된 컨텐츠를 전송하는 전자 장치 및 전자 장치의 동작 방법
CN113115107B (zh) * 2021-04-15 2021-12-28 深圳鸿祥源科技有限公司 一种基于5g网络的手持视频采集终端系统
WO2022252797A1 (zh) * 2021-05-31 2022-12-08 华为技术有限公司 视频呈现方法、电子设备、计算机存储介质和程序产品
CN113938709B (zh) * 2021-12-17 2022-03-15 杭州星犀科技有限公司 无缓存场景下补帧的方法、系统、补帧器和存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08280009A (ja) * 1995-04-06 1996-10-22 Matsushita Electric Ind Co Ltd 画像符号化装置および画像復号化装置および光ディスク
JP2004040517A (ja) * 2002-07-04 2004-02-05 Hitachi Ltd 携帯端末および画像配信システム
JP2006333189A (ja) * 2005-05-27 2006-12-07 Matsushita Electric Ind Co Ltd 映像要約生成装置
JP2007184891A (ja) * 2005-12-07 2007-07-19 Mitsubishi Electric Corp 映像配信支援システム
JP2007325109A (ja) * 2006-06-02 2007-12-13 Canon Inc 配信サーバ、ネットワークカメラ、配信方法及びプログラム
JP2009302755A (ja) * 2008-06-11 2009-12-24 Sony Corp 記憶再生装置、記憶装置、再生装置及び記憶再生方法
JP2010147678A (ja) * 2008-12-17 2010-07-01 Sony Corp 情報処理装置および方法
WO2010079790A1 (ja) * 2009-01-08 2010-07-15 日本電気株式会社 配信システムと方法並びに変換装置
JP2012090120A (ja) * 2010-10-20 2012-05-10 Sony Computer Entertainment Inc 画像処理システム、画像処理方法、動画像送信装置、動画像受信装置、プログラム及び情報記憶媒体

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5072296A (en) * 1990-02-23 1991-12-10 Massachusetts Institute Of Technology Video frame reduction/reconstruction method and apparatus
JPH10155149A (ja) 1996-11-25 1998-06-09 Matsushita Electric Ind Co Ltd フレームレート変換方式、及びフレームレート変換装置
US6747991B1 (en) * 2000-04-26 2004-06-08 Carnegie Mellon University Filter and method for adaptively modifying the bit rate of synchronized video and audio streams to meet packet-switched network bandwidth constraints
US7272299B2 (en) 2000-12-08 2007-09-18 Matsushita Electric Industrial Co., Ltd. Data conversion apparatus, data coding apparatus, and data recording apparatus
JP4242581B2 (ja) 2000-12-08 2009-03-25 パナソニック株式会社 データ変換装置
JP2002344913A (ja) 2001-05-16 2002-11-29 Nec Yonezawa Ltd ネットワークにおける映像データの変換処理装置及び変換処理方法並びに変換処理サービス
KR100486713B1 (ko) 2002-09-17 2005-05-03 삼성전자주식회사 멀티미디어 스트리밍 장치 및 방법
US8861601B2 (en) * 2004-08-18 2014-10-14 Qualcomm Incorporated Encoder-assisted adaptive video frame interpolation
US8514933B2 (en) * 2005-03-01 2013-08-20 Qualcomm Incorporated Adaptive frame skipping techniques for rate controlled video encoding
US20080025390A1 (en) * 2006-07-25 2008-01-31 Fang Shi Adaptive video frame interpolation
US8761248B2 (en) * 2006-11-28 2014-06-24 Motorola Mobility Llc Method and system for intelligent video adaptation
JP2009060425A (ja) 2007-08-31 2009-03-19 Hitachi Ltd トラフィック制御システムおよびトラフィック制御方法
US20100027663A1 (en) * 2008-07-29 2010-02-04 Qualcomm Incorporated Intellegent frame skipping in video coding based on similarity metric in compressed domain
CN102246533A (zh) * 2008-10-14 2011-11-16 Rgb网络有限公司 用于代码转换后的媒体内容的渐进递送的系统和方法
US8345545B2 (en) * 2009-01-28 2013-01-01 Nec Laboratories America, Inc. Methods and systems for rate matching and rate shaping in a wireless network
US8782165B2 (en) * 2011-01-26 2014-07-15 Openwave Mobility, Inc. Method and transcoding proxy for transcoding a media stream that is delivered to an end-user device over a communications network

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08280009A (ja) * 1995-04-06 1996-10-22 Matsushita Electric Ind Co Ltd 画像符号化装置および画像復号化装置および光ディスク
JP2004040517A (ja) * 2002-07-04 2004-02-05 Hitachi Ltd 携帯端末および画像配信システム
JP2006333189A (ja) * 2005-05-27 2006-12-07 Matsushita Electric Ind Co Ltd 映像要約生成装置
JP2007184891A (ja) * 2005-12-07 2007-07-19 Mitsubishi Electric Corp 映像配信支援システム
JP2007325109A (ja) * 2006-06-02 2007-12-13 Canon Inc 配信サーバ、ネットワークカメラ、配信方法及びプログラム
JP2009302755A (ja) * 2008-06-11 2009-12-24 Sony Corp 記憶再生装置、記憶装置、再生装置及び記憶再生方法
JP2010147678A (ja) * 2008-12-17 2010-07-01 Sony Corp 情報処理装置および方法
WO2010079790A1 (ja) * 2009-01-08 2010-07-15 日本電気株式会社 配信システムと方法並びに変換装置
JP2012090120A (ja) * 2010-10-20 2012-05-10 Sony Computer Entertainment Inc 画像処理システム、画像処理方法、動画像送信装置、動画像受信装置、プログラム及び情報記憶媒体

Also Published As

Publication number Publication date
EP2908547B1 (en) 2019-12-04
EP2908547A4 (en) 2015-08-19
US20150195625A1 (en) 2015-07-09
EP2908547A1 (en) 2015-08-19
WO2014057555A1 (ja) 2014-04-17
US9699518B2 (en) 2017-07-04

Similar Documents

Publication Publication Date Title
WO2014057555A1 (ja) 情報処理装置、情報処理システム、情報処理プログラム、及び動画データ送受信方法
US10547850B2 (en) Audio splitting with codec-enforced frame sizes
JP2017073814A (ja) コンテンツ送信装置およびコンテンツ再生装置
JP5257367B2 (ja) 映像配信装置、映像配信システム及び映像配信方法
CN112752115B (zh) 直播数据传输方法、装置、设备及介质
US10277656B2 (en) Method and system for delivering media data
KR102216622B1 (ko) 데이터 버퍼링 방법, 네트워크 디바이스, 및 저장 매체
JP6238255B2 (ja) 監視カメラシステムによる監視方法及び動画分割装置
JP2007208458A (ja) 通信システム、通信端末および通信方法
US10015542B2 (en) Method and apparatus for secure storage and retrieval of live off disk media programs
WO2020242443A1 (en) Protocol conversion of a video stream
JP2015136057A (ja) 通信装置、通信データ生成方法、および通信データ処理方法
US9294821B2 (en) Scrubbing noise remover and methods for use therewith
US10356159B1 (en) Enabling playback and request of partial media fragments
JP6119765B2 (ja) 情報処理装置、情報処理システム、情報処理プログラム、及び動画データ送受信方法
JP2012137900A (ja) 映像出力システム、映像出力方法及びサーバ装置
JP2010011287A (ja) 映像伝送方法および端末装置
US20160057468A1 (en) Server device, content providing method, and computer program
WO2018003685A1 (ja) 画像圧縮方法、画像復元方法、画像圧縮装置、画像復元装置、画像圧縮プログラムプロダクト及び画像復元プログラムプロダクト
WO2017179271A1 (ja) 監視カメラシステム及び監視カメラデータ保存方法
JP7292901B2 (ja) 送信装置、送信方法、及びプログラム
JP2004349743A (ja) 映像ストリーム切替システム、方法、映像ストリーム切替システムを含む映像監視、映像配信システム
JP6468663B2 (ja) 映像コンテンツ配信装置
JP2018074348A (ja) 映像処理装置、映像処理方法および映像処理プログラム
KR101507993B1 (ko) 컨텐츠 부분 동기화를 통한 스트리밍 방법 및 시스템

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161101

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170721

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20170731

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20170922

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20180706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180709

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180709