JP5384488B2 - フレーム損失によるリアルタイム映像アーチファクトを隠蔽する機構 - Google Patents

フレーム損失によるリアルタイム映像アーチファクトを隠蔽する機構 Download PDF

Info

Publication number
JP5384488B2
JP5384488B2 JP2010513301A JP2010513301A JP5384488B2 JP 5384488 B2 JP5384488 B2 JP 5384488B2 JP 2010513301 A JP2010513301 A JP 2010513301A JP 2010513301 A JP2010513301 A JP 2010513301A JP 5384488 B2 JP5384488 B2 JP 5384488B2
Authority
JP
Japan
Prior art keywords
frame
component
frames
dependency
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010513301A
Other languages
English (en)
Other versions
JP2010530719A (ja
Inventor
チゥ ジンギュ
エム.ムーア ティモシー
ゾン ユエン ゾン
ジェイ.クリノン レジス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2010530719A publication Critical patent/JP2010530719A/ja
Application granted granted Critical
Publication of JP5384488B2 publication Critical patent/JP5384488B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/89Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/164Feedback from the receiver or from the transmission channel
    • H04N19/166Feedback from the receiver or from the transmission channel concerning the amount of transmission errors, e.g. bit error rate [BER]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/89Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder
    • H04N19/895Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder in combination with error concealment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/637Control signals issued by the client directed to the server or network components
    • H04N21/6377Control signals issued by the client directed to the server or network components directed to server

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、フレーム損失によるリアルタイム映像アーチファクトを隠蔽する機構に関する。
歴史を通して、技術の進歩により、一般的な作業の簡素化、および/またはより高い効率、スループット等を提供することが可能なさらに高度な方法でそのような作業を扱うことが可能になった。例えば、技術の進歩により、大抵は手動で行われた作業の自動化、情報の広範囲にわたる流布のさらなる容易さ、および対面会議または文書送付に代わる様々な通信方法がもたらされた。別の例によると、映像通信は、通信を行うことが可能なより普及した方法となり、映像データを(例えば、対応する音声データを伴ってまたは伴わずに)キャプチャし、それを見るために異なる場所に伝送することができる。このように、映像データを、リアルタイムで通信し、メモリに記憶し、転送すること等が可能である。
映像データをリアルタイムで取得し転送する映像通信は、例えば、テレビ会議で活用することが可能である。テレビ会議(例えば、音声および/または映像の会議、・・・)は、様々な地理的場所にいる多数の参加者が、移動する必要なく会議で協力し合うことを可能にする。テレビ会議の技術を使用することにより、ビジネスにかかるコストを下げることが可能で、一方同時に効率を高めることが可能である。なぜなら、テレビ会議により会議を行うことで、例えば人が集まる会議に比べて、課される時間、費用等をより少なくできるからである。
しかし、従来の映像通信技術では、アーチファクトのレンダリングの影響を受けやすく、これはフレーム損失により起こる映像内の何らかの感知される歪みであり得る。多くの技術が、フレーム損失の発生を軽減するために開発されてきたにもかかわらず、通信チャネルの固有の損失性(例えば、インターネットまたは任意の他のタイプのネットワーク上で転送されるデータ、・・・)が、リアルタイム映像通信のフレーム損失の度合いの原因であり続けている。例えば、フレーム損失は、ネットワークパケット損失、異常パケット等により引き起こされ得る。さらに、一般的な映像の符号化および伝送(例えば、MPEG映像、・・・)では、先に起きたフレーム損失が、フレーム間の依存関係に起因して、後に続くフレームに歪んだ画像を引き起こし得る。フレーム損失が、例えば、映像アーチファクトを10秒まで起こすことは、珍しいことではない。今まで、デコーダは一般的には、どのフレームがフレーム損失に起因するアーチファクトを有するかを識別することができなかった。従って、リアルタイム映像通信システムは大抵、アーチファクトを有するこれらのフレームを隠し、廃棄する等よりむしろ、破損したフレームを表示するが、それはどのフレームがアーチファクトを有するかに関して良く理解していないためである。
以下では、本明細書において説明するいくつかの態様の基本的な理解を提供するために、簡略化した概要を提示する。本概要は、本請求の主題を広範囲に概観するものではない。本請求の主題の重要なまたは重大な要素を特定することも、その範囲を線引きすることも意図していない。その唯一の目的は、いくつかの概念を、後に提示するさらに詳細な説明の前置きとして、簡略化した形式で提示することである。
本請求の主題は、リアルタイム映像通信との関連において、フレーム依存構造の記述、通信、利用等を容易にするシステムおよび/または方法に関する。例えば、プロトコルを使用して、依存構造を送信者から受信者に通信することが可能である。さらに、受信者側の機構は、アーチファクトと共にレンダリングされるフレームを、それが前に起きたフレーム損失に起因して表示される場合に、検出することが可能である。本機構は、フレームの依存構造に関する受信者側の知識を活用することが可能である。
本請求の主題の種々の態様に従って、送信コンポーネントが、符号化された映像フレームのストリームを受信コンポーネントに転送することが可能である。各フレームを、複数のパケットとして通信することが可能である。さらに、各パケットは、関連する特定のフレームを識別するシーケンス番号、および特定のフレームが依存するフレームに対応する照会フレーム番号を含むことが可能である。従って、各パケットは、依存構造の一部を通信し、これが受信コンポーネントにより解釈され使用されて、フレーム間の依存関係を再構築し、フレーム損失を識別し、および/または、先に起きたフレームの損失に基づくアーチファクトを伴うフレームの表示を軽減することが可能である。むしろ、映像を、アーチファクトを含むフレームに関連する期間中フリーズし得る。従って、感知される映像の品質を向上することが可能である。別の例示によると、アーチファクトのためスキップされるフレームのログをとることが可能であり、および/または、いくつのフレームがアーチファクトを含むか、およびエラー隠蔽のためフリーズした映像のパーセンテージを測定する質的モデルに基づき、レポートを生成することが可能である。
以下の説明および添付の図面は、本請求の主題の特定の例示の態様を詳細に記載する。しかし、これらの態様は、そのような主題の原理を使用し得る種々の方法のうちのほんのいくつかを示すのみであり、本請求の主題は、そのような態様およびその等価物全てを含むよう意図している。他の利点および新規の特徴は、図面と併せて考察されるときに以下の詳細な説明から明らかになるであろう。
リアルタイム映像通信のフレーム間の依存関係に関する情報を提供し利用する一例のシステムのブロック図である。 種々の態様に従ってリアルタイム映像通信と共に利用される一例の映像ストリームフレーミングパターンを示す図である。 Iフレーム、Bフレーム、Pフレーム、およびSPフレームを含む一例の映像ストリームパターンを表す表を示す図である。 リアルタイム映像フレームの損失を管理する一例のシステムのブロック図である。 一例のペイロードヘッダを示す図である。 一例のペイロードヘッダを示す図である。 フレーム損失によりひき起こされたリアルタイム映像アーチファクトを隠蔽するかどうかを推論する一例のシステムのブロック図である。 リアルタイム映像通信フレーム間の依存構造を記述するのを容易にする一例の方法論を示す図である。 フレーム損失に基づくアーチファクトの隠蔽を容易にする一例の方法論を示す図である。 本請求の主題の新規な態様を使用し得る、一例のネットワーク環境を示す図である。 本請求の主題に従って使用し得る一例の動作環境を示す図である。
本請求の主題を、図面を参照して説明するが、全体を通して同様の参照番号を同様の要素の参照に使用する。以下の記述において、説明の目的で、多数の具体的詳細を本主題の発明の全体理解を提供するために記載する。しかし、本請求の主題をこれらの具体的詳細なしで実践し得ることは明らかであろう。他の例において、周知の構造および装置を、本主題の発明の説明を容易にするためにブロック図の形式で示している。
本明細書で使用するとき、用語「コンポーネント」、「システム」等は、コンピュータ関係のエンティティ、すなわち、ハードウェア、ソフトウェア(例えば、実行中の)、および/またはファームウェアのいずれかを示すよう意図している。例えば、コンポーネントは、プロセッサ上で稼動するプロセス、プロセッサ、オブジェクト、実行ファイル、プログラム、および/または、コンピュータであり得る。例示として、サーバ上で稼動するアプリケーションおよびサーバの両方がコンポーネントであり得る。1つまたは複数のコンポーネントがプロセス内に存在し得、コンポーネントは1つのコンピュータ上に局在、および/または、2つまたはそれ以上のコンピュータ間に分散し得る。
さらに、標準のプログラミングおよび/またはエンジニアリング技術を使用して、開示する主題を実装するようコンピュータを制御するソフトウェア、ファームウェア、ハードウェア、またはそれらの任意の組合せを製作する方法、機器、または製品として、本請求の主題を実装し得る。用語「製品」は本明細書で使用するとき、任意のコンピュータ可読装置、キャリアまたは媒体からアクセス可能なコンピュータプログラムを包含するよう意図している。例えば、コンピュータ可読媒体は、磁気記憶装置(例えば、ハードディスク、フロッピー(登録商標)ディスク、磁気ストリップ、・・・)、光ディスク(例えば、CD(compact disk)、DVD(digital versatile disk)、・・・)、スマートカード、およびフラッシュメモリ装置(例えば、カード、スティック、キードライブ、・・・)を含み得るが、これに限らない。加えて、当然のことながら、電子メールを送受信する際、またはインターネットもしくはLAN(local area network)といったネットワークにアクセスする際に使用されるようなコンピュータ可読電子データを搬送するのに、搬送波を使用し得る。もちろん、本請求の主題の範囲または精神から逸脱することなく、多くの修正がこの構成に成され得ることを、当業者は認識するであろう。さらに、単語「例示的」は、本明細書で使用して、例、事例または例示として機能することを意味する。本明細書において「例示的」として説明する任意の態様または設計を、必ずしも、他の態様または設計よりも好ましいまたは有利なものとして解釈すべきではない。
ここで、図面を参照すると、図1は、リアルタイム映像通信のフレーム間の依存関係に関する情報を提供および利用するシステム100を例示する。システム100は、任意のタイプの(例えば、映像、音声、画像、テキスト、文書、・・・に関する)データを、任意のタイプの接続を介して通信することができる送信コンポーネント102および受信コンポーネント104を含む。例えば、送信コンポーネント102は、映像データ(例えば、および/または音声データ)を符号化して、受信コンポーネント104へリアルタイムで(例えば、リアルタイム伝送プロトコル(RTP)を利用して)伝送することが可能である。従って、映像フレームのストリームを転送することが可能である。1つの送信コンポーネント102および1つの受信コンポーネント104が表されているが、当然のことながら、システム100は実質的には、送信コンポーネント102と同様の任意の数の送信コンポーネント、および/または受信コンポーネント104と同様の任意の数の受信コンポーネントを含むことが可能である。さらに、システム100は、異なる時間において送信コンポーネント102が受信コンポーネントに変わる、および/または受信コンポーネント104が送信コンポーネントに遷移する(例えば、アクティブスピーカに関連するコンポーネント102〜104の識別子に基づく特定の時間における切り替え、手動切り替え、・・・)ように、切り替えを可能にし得る。送信コンポーネント102および/または受信コンポーネント104は、パーソナルコンピュータ、携帯電話、スマートフォン、ラップトップ、携帯用通信装置、携帯用コンピューティング装置、ゲーム装置、PDA(personal digital assistant)、専用のテレビ会議システム、消費者製品、自動車、および/または任意の他の適切な装置であり得る。
当然のことながら、システム100は、任意のタイプのネットワークアーキテクチャを使用可能である。従って、例えば、送信コンポーネント102および受信コンポーネント104は、その間でピアツーピアアーキテクチャを使用してデータを転送可能である(例えば、送信コンポーネント102および受信コンポーネント104が、ポイントツーポイント映像通信のためのネットワーク接続上でお互いに直接通信するエンドポイントであり得る、・・・)。別の例示によると、送信コンポーネント102と受信コンポーネント104との間で転送されるデータは、異なるコンポーネント(図示せず)(例えば、送信コンポーネント102および受信コンポーネント104といったいくつかのエンドポイントを相互接続し、その間にデータをルーティングすることを可能にするブリッジであり得る、音声/映像マルチポイント制御ユニット(AVMCU)、・・・)を含むネットワークを介してトラバースし得る。一例によると、マルチパーティテレビ会議は、AVMCUを含むネットワークアーキテクチャを活用することができる(例えば、マルチパーティ映像通信は、フレームの再集計およびAVMCUサーバの依存関係の再計算/再投入を招くことなく、システム100を使用することができる)。
送信コンポーネント102は、フレーム識別コンポーネント106およびフレーム依存関係コンポーネント108を含み得る。フレーム識別コンポーネント106は、送信コンポーネント102により伝送するフレームのタイプ(例えば、以下の図2で説明するような、Iフレーム、SPフレーム、Pフレーム、Bフレーム等)を判定することが可能である。一例によると、フレーム識別コンポーネント106は、フレームにタイプを割り当てる(例えば、フレームの時間的順序に基づき、・・・)ことが可能な依存構造を使用し得る。さらに、フレーム識別コンポーネント106は、一意的なシーケンス番号を伝送するフレームに指定することが可能である。従って、フレーム識別コンポーネント106は、一意的なシーケンス番号(例えば、フレームカウント)を、フレームに含まれる各パケットのペイロードヘッダに符号化することを可能にし得る。
フレーム依存関係コンポーネント108は、送信コンポーネント102により転送するフレームの依存関係を評価することができる。依存関係は、フレームのタイプに基づくものであり得、従って、フレーム依存関係コンポーネント108は、フレーム識別コンポーネント106により判定されるようなフレームのタイプを利用して、そのフレームの依存関係を解釈することが可能である。フレーム依存関係コンポーネント108はまた、依存構造を利用して、フレームの依存関係を評価することが可能である。一例によると、フレーム依存関係コンポーネント108は、フレームの依存関係情報(例えば、照会フレーム番号、・・・)を、フレームの各パケットのペイロードヘッダに符号化することを可能にし得る。
フレーム識別コンポーネント106およびフレーム依存関係コンポーネント108を使用することにより、送信コンポーネント102は、フレーム依存構造を記述する機構を提供することができる。さらに、このフレーム依存構造を、受信コンポーネント104に(例えば、本明細書で説明するプロトコルを介して)通信することが可能である。対照的に、従来の技術ではしばしば、受信コンポーネント104がフレーム依存構造を理解、解釈、使用等を行う方法を提供できない。
受信コンポーネント104はさらに、依存関係再構築コンポーネント110、損失評価コンポーネント112、およびアーチファクト隠蔽コンポーネント114を含み得る。依存関係再構築コンポーネント110は、取得したフレームに(例えば、ペイロードヘッダ内に)組み込まれたデータを評価して、複数のフレーム間の依存構造を再構築することができる。例えば、受信したフレームに関連するフレームシーケンス番号および照会フレーム番号により、依存関係再構築コンポーネント110がフレーム間の依存関係を分析することが可能となり得る。
加えて、損失評価コンポーネント112は、送信コンポーネント102により転送したフレームの紛失を識別することができる。一例によると、損失評価コンポーネント112は、フレームの到着、受信したフレーム内の破損等を追跡することができる。別の例示として、送信コンポーネント102のフレーム識別コンポーネント106により含有されるフレームのシーケンス番号は、損失評価コンポーネント112により評価されて、各フレームが成功裏に受信されたかどうかを判定することが可能である。従って、損失評価コンポーネント112は、例えば、送信コンポーネント102にて指定されるようなフレーム1、2、および4が受信コンポーネント104により適切に取得され、フレーム3がまだ受信されていない(例えば、フレーム3からの1つまたは複数のパケットが紛失、異常、破損した、・・・)ことを識別することが可能である。
さらに、アーチファクト隠蔽コンポーネント114が、損失したフレームのタイプおよび損失したフレームのシーケンス内の位置に基づき、フレーム損失の影響を分析する。さらに、アーチファクト隠蔽コンポーネント114は、アーチファクトを表示するよりむしろレンダリングされた出力をフリーズすることを可能にし得る。従って、破損したフレームを、アーチファクトを伴って表示するより、むしろ隠す、廃棄する等が可能だが、これは映像アーチファクトが、感知される品質(例えば、心理的視覚品質)に、実質的な負の影響を有し得るためである。アーチファクト隠蔽コンポーネント114は、依存関係再構築コンポーネント110により判別される依存構造、および/または、損失評価コンポーネント112により識別される損失したフレームを利用して、どのフレームがフレーム損失に起因するアーチファクトを示し得るかを判定することができる。さらに、アーチファクト隠蔽コンポーネント114は、表示されればアーチファクトを含むものとして識別されるフレームを隠すことができる。従って、アーチファクト隠蔽コンポーネント114は、アーチファクトを含むフレームを示すよりもむしろ、延長される時間については(例えば、レンダリングされる表示のフリーズを介して)アーチファクトが無いフレームを表示し続けることを可能にし得る。送信コンポーネント102から通信される依存構造を活用することにより、アーチファクト隠蔽コンポーネント114は、対応する時間を判定して映像をフリーズすることが可能である。対照的に、従来の技術では、一般的にはフレーム損失の影響の範囲を識別することができない。
当然のことながら、送信コンポーネント102および/または受信コンポーネント104は、それぞれのインターフェースコンポーネント(図示せず)を含むことができる。インターフェースコンポーネントは、種々のアダプタ、コネクタ、チャネル、通信路等を活用して、それらの間の相互作用を可能にすることができる。
ここで、図2を参照して、種々の態様に従ってリアルタイム映像通信と共に利用される、一例の映像ストリームフレーミングパターン200を例示する。種々のタイプのフレームを、映像符号化のためにサポートし得る。さらに、図2に例示する矢印は、各フレーム(例えば、照会フレーム)の依存関係を表す。例えば、フレーミングパターン200に示すように、フレームは、イントラフレーム(Iフレーム)、予測フレーム(Pフレーム)、双方向フレーム(Bフレーム)、または超予測フレーム(super prediction frame)(SPフレーム)であり得る。フレーミングパターン200は、例として提供するものであり、当然のことながら、本請求の主題はそのように限定されない(例えば、任意の数のフレームがIフレーム間に含まれ得る、追加のまたはより少数のフレームタイプが使用され得る、異なる依存関係が利用され得る、・・・)。
Iフレームは、他のいかなるフレームにも依存しない独立フレームである。Iフレームは、静的に符号化され、かなりの量の詳細(detail)およびコンテンツを(例えば、他のタイプのフレームと比較して)有し、一般的には、他のタイプのフレームと比較して大きさが大きい。SPフレームは、前のIフレームまたはSPフレームとの比較に基づく符号化された差分情報(例えば、差分)を含み、従って、フレーミングパターン200に表されるように、特定のSPフレームは、その特定のSPフレームの最も近くにある、前のIフレームまたは前のSPフレームに従属する(例えば、SP5はI1を参照する、SP9はSP5を参照する、・・・)。近接の程度が、指定されたシーケンス番号(例えば、フレームカウント)に基づき評価され得る。Pフレームは、前のIフレーム、SPフレームまたはPフレームとの比較に基づく、符号化された差分情報(例えば、差分)を含む。さらに、Bフレームは、前のIフレーム、SPフレームまたはPフレーム、および後のPフレームまたはSPフレームとの2方向の比較に基づく、符号化された差分情報(例えば、差分)を含む。Bフレームは、従って、2つの異なるフレームを参照する。
Iフレームは、ピクチャのグループ(GOP)の始まりであり、GOPは次のIフレームまで続く。GOPは任意の数のフレーム(例えば、約150、・・・)を含み得ると考えられる。GOPの中でIフレームだけが、GOP内の他のフレームから独立している。例えば、I1およびI13は、他のいかなるフレームも参照しない。さらに、残りのフレーム(例えば、SPフレーム、Pフレーム、Bフレーム、・・・)は、他のフレームに従属し、そのエンティティ内のデータよりもむしろ差分が符号化され得る。さらに、各GOPは、異なるGOPから独立している。
フレーミングパターン200内の各フレームは、1〜N個のパケットを含み得る。ここで、Nは実質的には任意の整数であり得る。さらに、パケット数は、フレームの大きさの関数であり得る(例えば、映像のコンテンツに基づくことが可能である)。いかなるパケットの損失(例えば、図1の損失評価コンポーネント112により判定されるような)も、フレーム全体がドロップする原因になり得る。
さらに、フレーム損失の影響は、損失したフレームのタイプ及び位置に依存する。特に、損失したフレームを参照するフレームは、アーチファクトを含むであろう。従って、Iフレームを損失した場合、現在のGOP内の全ての後続フレームがアーチファクトを有するであろうし、次のIフレームだけが補正を提供するであろう。別の例によると、SPフレームを損失した場合、現在のGOPの終わりまで、そのSPフレームの後の全てのフレームがアーチファクトを有するであろう(例えば、次のIフレームは、SPフレームの損失を補正するであろう)。別の例示によると、Pフレームを損失した場合、次のSPフレームまたはIフレーム、このどちらももうすぐ発生するものであるが、その前の全てのフレームがアーチファクトを示すであろう。さらに、Bフレームは1つのフレームの損失を起こすのみである(例えば、Bフレーム自体であり、それは他のタイプのフレームがBフレームを参照しないためである)。従って、そのような損失の影響は広がらず、結果的にアーチファクトが生じない。
ここで、図3を参照して、Iフレーム、Bフレーム、Pフレーム、およびSPフレームを含む一例の映像ストリームパターンを表す表300を例示する。表300は、依存構造の全体像を提供し得る。表300は、図2の映像ストリームフレーミングパターン200に対応し得ると考えられる。さらに、当然のことながら、表300は、フレーム間の依存関係の例を例示するために提供するものであり、本請求の主題はそのような例に限定されない。
表300の行1には、時間的順序で映像キャプチャ装置から取得されるフレームのシーケンスを含む。表の行2は、エンコーダへの入力を示し、エンコーダの入力は、映像キャプチャ装置から取得されるフレームのシーケンスと実質的に同様であり得る。行3は、各フレームに対してエンコーダにより達成される符号化の内部ビューを例示する。特に、各フレームは、時間的順序におけるその位置に基づくタイプ(例えば、Iフレーム、Bフレーム、Pフレーム、SPフレーム、・・・)に関連する。行4は、エンコーダからの出力を示す。例えば、B2フレームは、P3フレームの後に出力され得る。また、エンコーダは、2つのPフレーム(例えば、P3およびP5)を送信し、その後に、そのようなPフレームに従属するBフレーム(例えば、B4)を送信する。それらは、受信側でPフレーム(例えば、P3)−Bフレーム(例えば、B4)−Pフレーム(例えば、P5)であるとして再度順序付けられ得る。しかし、当然のことながら、本請求の主題は、有線上で送信される符号化されたフレームを順序付けるこの方法に限らない。行5は、行4に示すエンコーダから出力される各フレームに指定されるシーケンス番号(例えば、フレームカウント)を例示する。例えば、行5内のシーケンス番号は、図1のフレーム識別コンポーネント106により割り振ることが可能である。行6および行7は、行4内の各出力フレームの照会フレーム番号を例示する。照会フレーム番号は、各特定のフレームが従属するフレームの行4に指定されるシーケンス番号に付随する。これらの照会番号は、図1のフレーム依存関係コンポーネント108により生成されることができる。さらに、各Bフレームは、2つの照会番号に関連し得、SPフレームおよびPフレームは、それぞれ1つの照会番号に関連し得る。また、Iフレームは独立しているため、その照会番号は、Iフレーム自体を指し示す。行8は、デコーダ入力フレームを示す。さらに、行9は、デコーダ出力フレームを表す。例えば、B2およびP3は、デコーダからの出力の一部として再順序付けされ得る。
図4には、リアルタイム映像フレームの損失を管理するシステム400が例示されている。システム400は、互いに通信可能な送信コンポーネント102および受信コンポーネント104を含む。送信コンポーネント102はさらに、フレーム識別コンポーネント106および/またはフレーム依存関係コンポーネント108を含み得る。また、受信コンポーネント104は、依存関係再構築コンポーネント110、損失評価コンポーネント112、および/またはアーチファクト隠蔽コンポーネント114を含み得る。
送信コンポーネント102は、加えてデータキャプチャコンポーネント402、エンコーダ404、およびフィードバックコンポーネント406を含み得る。データキャプチャコンポーネント402は、映像、画像、音、テキスト等といった外部データを取得することが可能である。一例によると、データキャプチャコンポーネント402は、カメラ(例えば、ビデオカメラ)、マイクロフォン、その組合せ等であり得る。さらに、データキャプチャコンポーネント402は、フレームのシーケンス(例えば、映像フレーム)を収集することが可能である。さらに、データキャプチャコンポーネント402は、受信コンポーネント104への転送のためにメモリから先に取得されたデータを検索することを可能にし得ると考えられる。
エンコーダ404は、受信コンポーネント104への伝送のためにデータキャプチャコンポーネント402により収集された信号(例えば、映像フレーム)を符号化することが可能である。一例示によると、エンコーダ404は、収集されたデータを圧縮することが可能である。さらに、この例に対して、エンコーダ404は、フレームのサブセットを独立して圧縮(例えば、Iフレーム)、および、フレームの残りを照会フレームからの差分に基づき圧縮(例えば、依存性構造に従って)することが可能である。さらに、多層の依存関係は、エンコーダ404によって使用され得る。加えてまたはあるいは、エンコーダ404は、映像フレームを暗号化する、冗長性を加える等が可能である。さらなる一例によると、エンコーダ404は、受信コンポーネント104へ送信されるストリームから1つまたは複数のフレームタイプを除去することが可能である(例えば、Bフレームを除去し得る、BフレームおよびPフレームを除去し得る、・・・)。また、受信コンポーネント104が1つまたは複数のフレームタイプの処理を行わずに済ませることが可能であること、AVMCUが1つまたは複数のフレームタイプのルーティングを中止することが可能であること等も考えられる。
図示したように、エンコーダ404は、フレーム識別コンポーネント106およびフレーム依存関係コンポーネント108を含み得るが、フレーム識別コンポーネント106および/またはフレーム依存関係コンポーネント108はエンコーダ404から分離することも可能と考えられる。フレーム識別コンポーネント106は、エンコーダ404が各フレームにタイプを指定する(例えば、Iフレーム、Bフレーム、Pフレーム、SPフレーム、・・・)ことを可能にし、タイプ指定は依存構造に基づき得る。また、フレーム識別コンポーネント106は、フレームシーケンス番号(例えば、フレームカウント)を各フレームに割り当て得る。例えば、エンコーダ404により出力される全てのフレームに、直前に出力されるフレームのフレームカウントから1増分されるフレームカウントを指定し得る。さらに、フレームカウント、および、エンコーダ404により出力されるフレームに対応するタイプは、送信コンポーネント102に関連するデータストア(図示せず)に保持し得る。記憶されたフレームカウントおよび過去分のフレームのタイプを、フレーム依存関係コンポーネント108が利用して、エンコーダ404により生成される各出力フレームに対する照会フレーム番号を計算することが可能である。
データストアは、例えば、揮発性メモリもしくは不揮発性メモリのいずれかであり得、または、揮発性メモリおよび不揮発性メモリの両方を含み得る。限定ではなく例示として、不揮発性メモリには、ROM(read only memory)、PROM(programmable ROM)、EPROM(erasable programmable ROM)、EEPROM(electrically erasable programmable ROM)、またはフラッシュメモリを含み得る。揮発性メモリには、外部キャッシュメモリとして動作するRAM(random access memory)を含み得る。限定ではなく例示として、RAMは、例えば、SRAM(static RAM)、DRAM(dynamic RAM)、SDRAM(synchronous DRAM)、DDR SDRAM(double data rate SDRAM)、ESDRAM(enhanced SDRAM)、SLDRAM(Synchlink DRAM)、RDRAM(Rambus dynamic RAM)、DRDRAM(direct Rambus dynamic RAM)、およびRDRAM(Rambus dynamic RAM)といった多くの形式で、利用可能である。本主題のシステムおよび方法のデータストアは、これらのおよび任意の他の適切なタイプのメモリを含むよう意図しているが、これに限らない。加えて、当然のことながら、データストアはサーバ、データベース、ハードドライブ等であり得る。
エンコーダ404は、例えば、各フレームに対してN個のパケットを生成し、これらのN個のパケットを、送信コンポーネント102から受信コンポーネント104へ転送し得る。エンコーダ404により生成される各パケットは、(図5および図6で以下に説明するような)ペイロードヘッダおよびペイロードを含み得る。ペイロードヘッダは、依存構造に付随する情報を含み得る。さらに、ペイロードは、パケットに対応するフレームのコンテンツの少なくとも一部を含み得る。
フィードバックコンポーネント406は、性能レポート、チャネル帯域幅分析、再伝送要求等を、受信コンポーネント104(および/または、データがトラバースするネットワーク内の任意の異なるコンポーネント(図示せず))から取得し得る。さらに、フィードバックコンポーネント406は、受け取ったフィードバックに基づきエンコーダ404の出力の修正を達成し得る。
受信コンポーネント104は、加えて、レンダリングコンポーネント408、デコーダ410、性能追跡コンポーネント412および再伝送要求コンポーネント414を含み得る。レンダリングコンポーネント408は、受信したデータに基づき出力を生成することが可能である。例として、レンダリングコンポーネント408は、受信コンポーネント104により取得されたリアルタイム映像が提示され得るディスプレイであり得る。レンダリングコンポーネント408は、受信コンポーネント104により取得されたデータに応答して、任意のタイプの出力(例えば、聴覚的、視覚的、物理的移動、・・・)を生成し得ると考えられる。別の例によると、レンダリングコンポーネント408は、生成された出力を、受信コンポーネント104に関連するデータストア(図示せず)に記憶することを可能にし得る。
デコーダ410は、示すように、依存関係再構築コンポーネント110、損失評価コンポーネント112、および/または、アーチファクト隠蔽コンポーネント114を含み得る。しかし、1つまたは複数のこれらのコンポーネント110〜114をデコーダ410から分離することも可能と考えられる。デコーダ410は、エンコーダ404により達成された符号化を覆すことが可能である。例えば、デコーダ410は、各フレームに対応するパケットを取得し、そのようなパケットを処理してレンダリングコンポーネント408に提供され得る出力を生成し得る。デコーダ410は、アーチファクトを有しないフレームのレンダリングを可能にし、一方、アーチファクトを有するフレームのレンダリングを阻止し得る。さらに、デコーダ410(および/または、依存関係再構築コンポーネント110および/または損失評価コンポーネント112)は、フレームが成功裏に到着し、成功裏に復号され得るかどうかを追跡するために利用されるフレーム依存関係の表を生成し得る。以下は、そのようなフレーム依存関係の表の例を提供する。
Figure 0005384488
示すように、フレームが成功裏に到着する場合(例えば、損失評価コンポーネント112により判定されるように)、表内の対応する枠が、到着=真(「1」)として印付けされ得る。フレームが到着しない場合、対応する枠は到着=偽(「0」)、復号=偽(「0」)と設定され得る。さらに、特定のフレームの照会フレーム(例えば、依存関係再構築コンポーネント110により判定されるような)が、成功裏に復号化される場合、次にその特定のフレームは、同様に成功裏に復号化され得、対応する枠は、復号=真(「1」)として印付けされ得る。さらに、特定のフレームの照会フレームの復号値=偽(「0」)の場合、その特定のフレームの復号値もまた、偽である。その後、アーチファクト隠蔽コンポーネント114は、どのフレームがアーチファクトを提示するかを判定することを可能にし、従って、レンダリングコンポーネント408上に表示される出力を、いつフリーズおよび/またはフリーズ解除するかを識別し得る。しかし、当然のことながら、本請求の主題は、本明細書に説明するフレーム依存関係の表を利用することに限定されない。
受信コンポーネント104はまた、アーチファクト/フレーム損失に起因する映像品質低下の指標であり得る、アーチファクトのためスキップされるフレームのログをとる、および/またはレポートする性能追跡コンポーネント412を含み得る。性能追跡コンポーネント412は、いくつのフレームがアーチファクトを含むか、(例えば、アーチファクト隠蔽コンポーネント114による)エラー隠蔽のためフリーズした映像のパーセンテージ等を測定する質的モデルに基づき、レポートを生成することが可能である。性能追跡コンポーネント412は、フレーム損失に起因する映像品質低下を正確に測定可能であり、フレーム損失は、ネットワークパケット損失、レートマッチング等により起こり得る。一例によると、性能追跡コンポーネント412は、フレーム依存関係の表を利用してレポートを生成し得る。さらに、性能追跡コンポーネント412は、レポートを送信コンポーネント102のフィードバックコンポーネント406へ伝送する(例えば、エンコーダ404の動作の修正を達成するために、・・・)、受信コンポーネント104に関連するデータストア内にレポートを保持する等が可能である。
さらに、受信コンポーネント104は、受信コンポーネント104に転送される新しいIフレーム(および/または、Pフレームの損失の場合は、IフレームまたはSPフレーム)についての要求を送信コンポーネント102(例えば、フィードバックコンポーネント406、・・・)に伝送する再伝送要求コンポーネント414を含み得る。例えば、再伝送要求コンポーネント414(および/または、デコーダ410)が、アーチファクトが閾値の時間より大きいと感知した場合(例えば、1秒、・・・)、新しいフレームの要求は送信され得る。別の例示によると、Iフレーム、SPフレーム、またはPフレームの損失が検出されるとき、再伝送要求414が要求を送信し得る。例えば、フィードバックコンポーネント406が要求を処理することが可能であり、1往復時間(RTT)内に、新しいIフレームまたはSPフレームが受信コンポーネント104に到着して、映像アーチファクトを補正し得る。
加えて、図示しないが、送信コンポーネント102および/または受信コンポーネント104は、本明細書に説明するフレーム依存関係機構の利用を起動および停止させることを可能にする切り替えコンポーネントを含み得ると考えられる。例えば、切り替えコンポーネントは、フレーム依存関係機構をオンまたはオフにする一方、送信コンポーネント102と受信コンポーネント104との間の相互運用性の問題を軽減させることを可能にし得る。
ここで図5および図6を参照して、ペイロードヘッダの例500および600を例示する。通信される各パケット(例えば、送信コンポーネント102と受信コンポーネント104との間で)は、ペイロードヘッダ500および600の1つを含み得る。さらに、図5のペイロードヘッダ500は、Iフレーム、PフレームまたはSPフレームと共に使用され、一方、図6のペイロードヘッダ600は、Bフレームに使用され得る。
ペイロードヘッダ500および600は、リアルタイム映像パケットの一部であり、フレームコンテンツを含むペイロードと共にある。ペイロードヘッダ500および600それぞれは、対応するフレームに関連するフレームカウント(および高フレームカウント(H−FC))、および照会フレーム番号(および高照会フレーム番号(H−RF))を含む(例えば、ペイロードヘッダ500は1つの照会フレーム番号を含み、ペイロードヘッダ600は2つの照会フレーム番号を含み得る)。Bフレームのペイロードヘッダ600において、照会フレーム番号フィールドを、次のおよび前の照会フレーム番号に分割し得る。加えて、ペイロードヘッダ500および600は、以下を含み得る。第1パケットであり得るF、シーケンスヘッダであり得るH、キーフレームであり得るK、1に固定され得るO、L、SPフレームであり得るS、キャッシュフレームであり得るC、モードであり得るMである。ペイロードヘッダ500および600は、モードを1に設定し得る。加えて、拡張部のモードビット(ゼロに等しく例示される)を1に等しく設定して別の4バイトを取得することにより、パケット化ヘッダのさらなる拡張が考えられる。
図7を参照して、フレーム損失によりひき起こされたリアルタイム映像アーチファクトを隠蔽すべきかどうかを推論するシステム700を例示する。システム700には、リアルタイム通信コンポーネント702を含み得、これは上述した送信コンポーネント102または受信コンポーネント104と実質的に同様であり得る。リアルタイム通信コンポーネント702は、さらにインテリジェントコンポーネント704および/または提示コンポーネント706を含み得る。インテリジェントコンポーネント704は、リアルタイム通信コンポーネント702により利用されて、レンダリングされた映像出力をフリーズまたはフリーズ解除すべきかどうかについて結論づけ得る。さらに、インテリジェントコンポーネント704は、リアルタイム通信コンポーネント702に関連するコンテキスト、状態、状況等を評価して、アーチファクトが存在するかどうか、アーチファクトを隠蔽すべきかどうか、フレームの再伝送、フレーム間の依存関係を要求すべきかどうか等を推論することが可能である。
当然のことながら、インテリジェントコンポーネント704は、イベントおよび/またはデータを介してキャプチャされるような一連の観測から、システム、環境、および/またはユーザの状態について結論づけを提供し、または推論することが可能である。例えば、推論を使用して特定のコンテキストまたはアクションを識別し、または、推論により状態全体の確立分布を生成し得る。推論は、確率論的であり得る−すなわち、データおよびイベントについての考察に基づく、関心対象の状態全体の確立分布の計算であり得る。推論はまた、一連のイベントおよび/またはデータからより高レベルのイベントを構成するために使用される技術を参照し得る。イベントが時間的に密接に接近して相互に関連があるかどうか、およびイベントおよびデータが1つまたはいくつかのイベントソースおよびデータソースに由来するかどうかについて、そのような推論により、一連の観測されたイベントおよび/または記憶されたイベントデータから、新しいイベントまたはアクションの構築が得られる。種々の分類(明示的におよび/または暗示的に訓練された)のスキームおよび/またはシステム(例えば、サポートベクターマシン、ニューラルネットワーク、エキスパートシステム、ベイジアン信念ネットワーク、ファジー理論、データ融合エンジン・・・)を、本請求の主題との関連における自動的および/または推論されるアクションを実行することとの関連において、使用し得る。
分類器は、入力属性ベクトル、x=(xl,x2,x3,x4,xn)を、入力がクラスに属する信頼度、すなわち、f(x)=confidence(class)にマッピングする機能である。そのような分類は、確率論的なおよび/または統計に基づく分析(例えば、分析のユーティリティおよびコストの要因に含める)を使用して、ユーザが自動的に実行されることを所望するアクションを予知または推論し得る。SVM(support vector machine)は、使用され得る分類器の一例である。SVMは、可能性のある入力の空間内の超曲面(hypersurface)を発見することにより動作し、その超曲面は、トリガ基準を非トリガイベントから分けようと試みる。直観的に、これにより分類は、訓練データに近いが同一ではないテストデータに対して補正される。他の有向および無向のモデル分類のアプローチには、例えば、ナイーブベイズ、ベイジアンネットワーク、決定木、ニューラルネットワーク、ファジー理論モデル、および、異なるパターンの独立性が使用され得る場合には確率的分類モデルが含まれる。本明細書で使用される分類はまた、優先度のモデルを開発するために利用される統計的回帰を含む。
提示コンポーネント706は、種々のタイプのユーザインターフェースを提供して、ユーザとリアルタイム通信コンポーネント702に連結される任意のコンポーネントとの間の相互作用を容易にし得る。図示したように、提示コンポーネント706は、リアルタイム通信コンポーネント702に組み込まれる。しかし、当然のことながら、提示コンポーネント706および/または同様の表示コンポーネントは、リアルタイム通信コンポーネント702および/またはスタンドアロンのユニットから分離可能である。提示コンポーネント706は、1つまたは複数のGUI(graphical user interface)、コマンドラインインターフェース等を提供し得る。例えば、データをロード、インポート、読み込み等する領域または手段をユーザに提供し、その結果を提示する領域を含み得るGUIをレンダリングし得る。これらの領域は、ダイアログボックス、スタティック制御、ドロップダウンメニュー、リストボックス、ポップアップメニュー、編集制御、コンボボックス、ラジオボタン、チェックボックス、プッシュボタン、およびグラフィックボックスを含む既知のテキストおよび/またはグラフィックの領域を含み得る。加えて、そのようなナビゲーション用の垂直および/または水平のスクロールバー、およびツールバーボタンの提示を容易にして、領域を可視化するかどうかを判定するためのユーティリティを使用し得る。例えば、ユーザは、リアルタイム通信コンポーネント702に連結される1つまたは複数のコンポーネントと相互作用することが可能である。
ユーザはまた、その領域と相互作用して、例えば、マウス、ローラボール、キーパッドキーボード、ペン、および/または音声起動といった種々の装置を介して、情報を選択および提供することが可能である。一般的には、プッシュボタンまたはキーボード上の入力キーといった機構を使用して、検索を起動するために続いて情報を入力し得る。しかし、当然のことながら、本請求の主題はそのように限定されない。例えば、単にチェックボックスをハイライトするだけで、情報伝達を起動できる。別の例においては、コマンドラインインターフェースを使用し得る。例えば、コマンドラインインターフェースは、(例えば、ディスプレイ上のテキストメッセージおよび音声トーンを介して)テキストメッセージを提供することを介して、ユーザに情報入力を促すことが可能である。次いで、ユーザは、インターフェースプロンプトに提供される選択肢、またはプロンプトで提示される質問への回答に対応する英数字の入力というように、適切な情報を提供し得る。当然のことながら、コマンドラインインターフェースは、GUIおよび/またはAPIとの関連において使用し得る。加えて、コマンドラインインターフェースを、ハードウェア(例えば、ビデオカード)および/または限定されたグラフィックサポートを伴うディスプレイ(例えば、白黒、およびEGA)、および/または低帯域幅通信チャネルとの関連において、使用し得る。
図8〜図9は、本請求の主題に従う方法論を例示する。説明を簡素化するために、方法論を、一連の動作として図示および説明する。当然のことながら、本主題の発明は、例示する動作により、および/または動作の順番により限定されず、例えば、動作は種々の順番でおよび/または同時に、ならびに本明細書に提示および説明されない他の動作と共に起こり得る。さらに、全ての例示する動作が、本請求の主題に従う方法論を実装するために要求されるわけではない。加えて、方法論をあるいは、状態図またはイベントを介して、一連の相関する状態として表し得ることを、当業者は理解および認識するであろう。
図8を参照して、リアルタイム映像通信フレーム間の依存構造の記述を容易にする方法論800を例示する。参照番号802にて、伝送のために符号化されているフレームのタイプを識別する。例えば、フレームは、Iフレーム、Bフレーム、Pフレーム、SPフレーム等であり得る。さらに、そのタイプは、既知の依存構造に基づき得る。参照番号804にて、シーケンス番号を、フレームに対して指定し得る。加えて、フレームのシーケンス番号および前に符号化されたフレームを、保持し得る(例えば、メモリ内に)。参照番号806にて、フレームが依存する少なくとも1つの照会フレームを、少なくとも一部においてタイプに基づき判定し得る。さらに、依存構造は、各フレームタイプの依存関係を特定し得る。参照番号808にて、フレームのシーケンス番号、および、少なくとも1つの照会フレームに対応する該少なくとも1つの照会フレーム番号を含むパケットが伝送され得る。例えば、フレームは任意の数のパケットを含み得、各パケットはシーケンス番号および少なくとも1つの照会フレーム番号を含み得る。さらに、各パケットは、ペイロードヘッダおよびペイロードを含み、ペイロードヘッダは、シーケンス番号および少なくとも1つの照会フレーム番号を含み、ペイロードは、フレームコンテンツを含み得る。
ここで図9を参照して、フレーム損失に基づくアーチファクトの隠蔽を容易にする方法論900を例示する。参照番号902にて、リアルタイム映像通信のフレーム損失を追跡し得る。例えば、受信したフレームのパケットは、それぞれ、一意のフレーム特定のシーケンス番号を含み得、従って、成功裏に受信されなかったフレーム(例えば、パケット損失、異常パケットのため)を、シーケンス番号に基づき識別し得る。参照番号904にて、フレームがアーチファクトを有するかどうかを、前のフレーム損失および受信された依存関係情報に基づき識別し得る。一例示によると、依存関係情報(例えば、フレームが従属するフレーム)を、フレームに対応する受信したパケットと共に含み得る。参照番号906にて、フレームがアーチファクトを有するときにフレームが隠蔽され得る。従って、アーチファクトの復号化を阻止し、および/またはアーチファクトを有するフレームに関連する期間中映像をフリーズし得る(アーチファクトを有する映像をレンダリングするよりはむしろ)。さらに、隠蔽されたフレームを追跡してレポートを生成し、レポートをエンコーダに通信し得る。さらに、アーチファクトを有するフレームの数が所定の閾値を越えると、Iフレーム(および/またはSPフレーム)を再送信する要求をエンコーダに伝送し得る。
本請求の主題の種々の態様を実装するための追加のコンテキストを提供するために、図10〜図11および以下の検討が、本主題の発明の種々の態様が実装され得る適切なコンピューティング環境の簡潔な一般的説明を提供するよう意図している。例えば、図10〜図11は、テキストデータを生成すること、および/または、リアルタイム会議に関連するクローズドキャプションのためのそのようなデータを出力することとの関連において使用され得る適切なコンピューティング環境について記載する。本請求の主題を、ローカルなコンピュータおよび/またはリモートのコンピュータ上で稼動するコンピュータプログラムのコンピュータ実行可能命令の一般的文脈で説明したが、本主題の発明がまた、他のプログラムモジュールとの組み合わせにおいて実装され得ることを当業者は認識するであろう。一般に、プログラムモジュールは、特定のタスクを実行し、および/または特定の抽象データ型を実装するルーチン、プログラム、コンポーネント、データ構造等を含む。
さらに、当業者は理解するであろうが、本発明の方法を、シングルプロセッサまたはマルチプロセッサコンピュータシステム、ミニコンピュータ、メインフレームコンピュータ、および、パーソナルコンピュータ、携帯用コンピューティング装置、マイクロプロセッサベースのおよび/またはプログラム可能な家庭用電化製品等を含む他のコンピュータシステム構成と共に実践し、それらのそれぞれが1つまたは複数の関連する装置と動作可能に通信し得る。本請求の主題の例示される態様をまた、特定のタスクが通信ネットワークを介してリンクされるリモート処理装置により実行される分散コンピューティング環境において実践し得る。しかし、本主題の発明の、全てではないにしてもいくつかの態様を、スタンドアロンコンピュータ上で実践し得る。分散コンピューティング環境において、プログラムモジュールは、ローカルおよび/またはリモートのメモリ記憶装置に設置し得る。
図10は、本請求の主題が相互作用可能なサンプルのコンピューティング環境1000の概略ブロック図である。システム1000は、1つまたは複数のクライアント1010を含む。クライアント1010は、ハードウェアおよび/またはソフトウェア(例えば、スレッド、プロセス、コンピューティング装置)であり得る。システム1000はまた、1つまたは複数のサーバ1020を含む。サーバ1020は、ハードウェアおよび/またはソフトウェア(例えば、スレッド、プロセス、コンピューティング装置)であり得る。サーバ1020は、例えば、スレッドを収容して、本主題の発明を使用することにより変換を実行し得る。
クライアント1010とサーバ1020との間の1つの可能な通信は、2つまたはそれ以上のコンピュータプロセス間での伝送に適用されるデータパケットの形式であり得る。システム1000は、クライアント1010とサーバ1020との間の通信を容易にするために使用し得る通信フレームワーク1040を含む。クライアント1010は、クライアント1010にローカルである情報を記憶するために使用し得る1つまたは複数のクライアントデータストア1050に、動作可能に接続される。同様に、サーバ1020は、サーバ1020にローカルである情報を記憶するために使用し得る1つまたは複数のサーバデータストア1030に、動作可能に接続される。
図11を参照すると、本請求の主題の種々の態様を実装するための例示的環境1100は、コンピュータ1112を含む。コンピュータ1112は、処理ユニット1114、システムメモリ1116、およびシステムバス1118を含む。システムバス1118は、システムメモリ1116を含むがこれに限らないシステムコンポーネントを、処理ユニット1114に連結する。処理ユニット1114は、任意の種々の利用可能なプロセッサであり得る。デュアルマイクロプロセッサおよび他のマルチプロセッサアーキテクチャをまた、処理ユニット1114として使用し得る。
システムバス1118は、メモリバスもしくはメモリコントローラ、周辺機器用バスもしくは外部バス、および/または、任意の様々な利用可能なバスアーキテクチャを使用するローカルバスを含むいくつかのタイプのバス構造のいずれかであり得る。利用可能なバスアーキテクチャは、ISA(Industrial Standard Architecture)、MCA(Micro-Channel Architecture)、EISA(Extended ISA)、IDE(Intelligent Drive Electronics)、VLB(VESA Local Bus)、PCI(Peripheral Component Interconnect)、Card Bus、USB(Universal Serial Bus)、AGP(Accelerated Graphics Port)、PCMCIAバス(Personal Computer Memory Card International Association)、Firewire(IEEE1394)、およびSCSI(Small Computer Systems Interface)を含むがこれに限らない。
システムメモリ1116は、揮発性メモリ1120および不揮発性メモリ1122を含む。BIOS(basic input/output system)は、例えば起動中にコンピュータ1112内の構成要素間で情報を転送する基本ルーチンを含有するもので、不揮発性メモリ1122内に記憶される。限定ではなく例示として、不揮発性メモリ1122は、ROM、PROM、EPROM、EEPROMまたはフラッシュメモリを含み得る。揮発性メモリ1120は、外部キャッシュメモリとして動作するRAMを含む。限定ではなく例示として、RAMは、SRAM、DRAM、SDRAM、DDR SDRAM、ESDRAM、SLDRAM、RDRAM、DRDRAM、およびRDRAMといった多くの形式で、利用可能である。
コンピュータ1112はまた、着脱可能/着脱不可能、揮発性/不揮発性コンピュータ記憶媒体を含む。図11は、例えば、ディスク記憶装置1124を例示する。ディスク記憶装置1124は、磁気ディスクドライブ、フロッピー(登録商標)ディスクドライブ、テープドライブ、Jazドライブ、Zipドライブ、LS−100ドライブ、フラッシュメモリカード、またはメモリスティックといった装置を含むが、これに限らない。また、ディスク記憶装置1124は、記憶媒体を別個に、または他の記憶媒体との組合せで含み得る。記憶媒体には、CD−ROM装置、CD−Rドライブ(CD recordable drive)、CD−RWドライブ(CD rewritable drive)、または、DVD−ROMドライブといった光ディスクドライブを含むがこれに限らない。ディスク記憶装置1124のシステムバス1118への接続を容易にするため、インターフェース1126といった着脱可能または着脱不可能なインターフェースを一般的には使用する。
当然のことながら、図11には、適切な動作環境1100において説明するユーザと基本コンピュータリソースとの間の中間物として動作するソフトウェアを記述する。そのようなソフトウェアには、オペレーティングシステム1128を含む。オペレーティングシステム1128は、ディスク記憶装置1124上に記憶し得るものであり、コンピュータシステム1112のリソースを制御し、割り当てるよう動作する。システムアプリケーション1130は、システムメモリ1116内またはディスク記憶装置1124上のいずれかに記憶されたプログラムモジュール1132およびプログラムデータ1134を介して、オペレーティングシステム1128によるリソースの管理を利用する。当然のことながら、本請求の主題を、種々のオペレーティングシステムまたはオペレーティングシステムの組合せを用いて実装し得る。
ユーザは、コマンドまたは情報を、入力装置1136を介してコンピュータ1112に入力する。入力装置1136は、マウス、トラックボール、スタイラス、タッチパッド、キーボード、マイクロフォン、ジョイスティック、ゲームパッド、パラボラアンテナ、スキャナ、テレビチューナカード、デジタルカメラ、デジタルビデオカメラ、ウェブカメラ等といったポインティングデバイスを含むが、これに限らない。これらのおよび他の入力装置は、インターフェースポート1138を介してシステムバス1118を通して、処理ユニット1114に接続する。インターフェースポート1138は、例えば、シリアルポート、パラレルポート、ゲームポート、およびUSBを含む。出力装置1140は、入力装置1136と同じタイプのいくつかのポートを使用する。従って、例えば、USBポートを使用して、コンピュータ1112に入力を提供し、コンピュータ1112から出力装置1140に情報を出力し得る。出力アダプタ1142は、他の出力装置1140の中でも、特別なアダプタを必要とするモニタ、スピーカ、およびプリンタといったいくつかの出力装置1140が存在することを例示するために与えてある。出力アダプタ1142は、限定ではなく例示として、出力装置1140とシステムバス1118との間の接続手段を提供するビデオカードおよびサウンドカードを含む。他の装置および/または装置のシステムが、リモートコンピュータ1144といった入力および出力両方の能力を提供することに留意すべきである。
コンピュータ1112は、リモートコンピュータ1144といった1つまたは複数のリモートコンピュータへの論理接続を使用するネットワーク化された環境において動作可能である。リモートコンピュータ1144は、パーソナルコンピュータ、サーバ、ルータ、ネットワークPC、ワークステーション、マイクロプロセッサベースの家電、ピア装置または他の共通ネットワークノード等であり得、一般的には、コンピュータ1112に関して説明した構成要素の多くまたは全てを含む。簡潔にするために、メモリ記憶装置1146のみをリモートコンピュータ1144と共に例示する。リモートコンピュータ1144は、コンピュータ1112に、ネットワークインターフェース1148を介して論理的に接続され、次いで、通信接続1150を介して物理的に接続される。ネットワークインターフェース1148は、LANおよびWANといった、有線および/または無線の通信ネットワークを包含する。LAN技術は、FDDI(Fiber Distributed Data Interface)、CDDI(Copper Distributed Data Interface)、イーサネット(登録商標)、トークンリング等を含む。WAN技術は、ポイントツーポイント接続、ISDN(Integrated Services Digital Networks)およびその上の変形といった回路交換ネットワーク、パケット交換ネットワーク、ならびにDSL(Digital Subscriber Lines)を含むが、これに限らない。
通信接続1150は、ネットワークインターフェース1148をバス1118に接続するために使用されるハードウェア/ソフトウェアのことを言う。明確に例示するために、通信接続1150をコンピュータ1112内部に示しているが、コンピュータ1112の外部にあってもよい。ネットワークインターフェース1148への接続に必要なハードウェア/ソフトウェアは、例示の目的のみだが、通常の電話回線用のモデム、ケーブルモデムおよびDSLモデム、ISDNアダプタならびにイーサネット(登録商標)カードを含むモデムといった、内部および外部の技術を含む。
上述したものには、本主題の発明の例が含まれる。もちろん、本請求の主題の説明のために、コンポーネントまたは方法論の全ての考え得る組み合わせを説明することは可能ではないが、本主題の発明の多くのさらなる組合せおよび置き換えが可能であることを、当業者は認識し得る。従って、本請求の主題が、添付の請求項の精神および範囲にある、全てのそのような代替、修正、および変形を包含するよう意図している。
特に、および上述のコンポーネント、装置、回路、システム等により実行される種々の機能に関して、そのようなコンポーネントを説明するのに使用する(「手段」への参照を含む)用語は、本明細書に例示される本請求の主題の例示的態様における機能を実行する、開示される構造とは構造的には等価でない場合でも、特に指示がなくても、説明するコンポーネントの特定の機能を実行する任意のコンポーネントに対応するよう意図している(例えば、機能的等価物)。この点については、本発明が、システム、および、本請求の主題の種々の方法の動作および/またはイベントを実行するためのコンピュータ実行可能命令を有するコンピュータ可読媒体を含むこともまた、認識されるであろう。
加えて、本主題の発明の特定の特徴を、いくつかの実装のうちのただ1つに関して開示したが、そのような特徴は、任意の所定のまたは特定の応用に対して望ましく有利であるような、他の実装の1つまたは複数の他の特徴と組み合わせ得る。さらに、用語「含む」「含んでいる」およびその変形が、詳細な説明または請求項のいずれかにおいて使用される限りにおいて、これらの用語は、用語「備える」と同様の意味で包括的であることを意図している。

Claims (4)

  1. リアルタイム映像通信のための方法であって、
    複数の取得したフレームの各フレームに組み込まれた依存関係データを評価して、前記複数の取得したフレームの依存構造を再構築するステップであって、前記複数の取得したフレームの各フレームは、各フレームの固有のシーケンス番号によって識別され、前記依存構造は、特定のフレームが復号のために前のフレームに依存することを示し、前記特定のフレームの依存関係データは、前記特定のフレームが依存する前記前のフレームを識別する、ステップと、
    前記複数の取得したフレームの前記シーケンス番号に基づいて、損失したフレームを識別するステップと、
    前記特定のフレームが依存する前のフレームが失したフレームとして識別される場合に前記依存構造に基づいて、前記特定のフレームがアーファクトを有することを判定するステップと、
    前記特定のフレームがアーチファクトを有するとき、前記特定のフレームのレンダリングを妨げるステップであって、前記レンダリングを妨げることは、観測した所定の条件および学習した以前の隠蔽条件の少なくとも一つに基づいて、前記特定のフレームのアーチファクトが隠蔽されるべきかどうかを判断することによって行われる、ステップ
    を備えることを特徴とする方法
  2. ネットワークパケット損失またはレートマッチングにより起こるフレーム損失に起因する映像品質低下を測定するステップさらに備えることを特徴とする請求項1に記載の方法。
  3. 請求項1に記載の方法を実行するためのプログラム。
  4. 請求項1に記載の方法を実行するための受信機。
JP2010513301A 2007-06-20 2008-05-24 フレーム損失によるリアルタイム映像アーチファクトを隠蔽する機構 Expired - Fee Related JP5384488B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/765,836 2007-06-20
US11/765,836 US8605779B2 (en) 2007-06-20 2007-06-20 Mechanisms to conceal real time video artifacts caused by frame loss
PCT/US2008/064805 WO2008156968A2 (en) 2007-06-20 2008-05-24 Mechanisms to conceal real time video artifacts caused by frame loss

Publications (2)

Publication Number Publication Date
JP2010530719A JP2010530719A (ja) 2010-09-09
JP5384488B2 true JP5384488B2 (ja) 2014-01-08

Family

ID=40136077

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010513301A Expired - Fee Related JP5384488B2 (ja) 2007-06-20 2008-05-24 フレーム損失によるリアルタイム映像アーチファクトを隠蔽する機構

Country Status (6)

Country Link
US (2) US8605779B2 (ja)
EP (1) EP2160897B1 (ja)
JP (1) JP5384488B2 (ja)
KR (2) KR101505377B1 (ja)
CN (1) CN101690204B (ja)
WO (1) WO2008156968A2 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7957307B2 (en) * 2007-03-14 2011-06-07 Microsoft Corporation Reducing effects of packet loss in video transmissions
US8605779B2 (en) 2007-06-20 2013-12-10 Microsoft Corporation Mechanisms to conceal real time video artifacts caused by frame loss
JP2009130786A (ja) * 2007-11-27 2009-06-11 Nec Corp 通信装置、通信システム、および、通信装置間の通信品質監視方法
JP5207895B2 (ja) * 2008-09-17 2013-06-12 キヤノン株式会社 送信装置、受信装置、及び方法、プログラム
US7974233B2 (en) * 2009-07-29 2011-07-05 Wiviu Technology Inc. Systems and methods for transmitting and receiving data streams with feedback information over a lossy network
US8599932B2 (en) * 2009-12-18 2013-12-03 General Instrument Corporation Carriage systems encoding or decoding JPEG 2000 video
US9405975B2 (en) 2010-03-26 2016-08-02 Brain Corporation Apparatus and methods for pulse-code invariant object recognition
US9621930B2 (en) * 2010-05-07 2017-04-11 Deutsche Telekom Ag Distributed transcoding of video frames for transmission in a communication network
EP2647199B1 (en) * 2010-11-30 2017-01-11 Thomson Licensing Method and apparatus for measuring quality of video based on frame loss pattern
CN102256130B (zh) * 2011-07-27 2013-04-24 武汉大学 一种基于插入宏块亮度特殊值标记视频帧图像序号的方法
US9412041B1 (en) * 2012-06-29 2016-08-09 Brain Corporation Retinal apparatus and methods
US9510022B2 (en) * 2012-12-12 2016-11-29 Intel Corporation Multi-layer approach for frame-missing concealment in a video decoder
US9436909B2 (en) 2013-06-19 2016-09-06 Brain Corporation Increased dynamic range artificial neuron network apparatus and methods
US9232177B2 (en) 2013-07-12 2016-01-05 Intel Corporation Video chat data processing
US9552546B1 (en) 2013-07-30 2017-01-24 Brain Corporation Apparatus and methods for efficacy balancing in a spiking neuron network
EP2960864B1 (en) * 2014-06-23 2018-12-05 Harman Becker Automotive Systems GmbH Device and method for processing a stream of video data
US9881349B1 (en) 2014-10-24 2018-01-30 Gopro, Inc. Apparatus and methods for computerized object identification
WO2017000117A1 (zh) * 2015-06-29 2017-01-05 华为技术有限公司 数据处理的方法及接收设备
US10116576B2 (en) * 2015-10-19 2018-10-30 Samsung Electronics Co., Ltd. Methods and apparatus for random access of HEVC bitstream for MMT
US10243691B2 (en) * 2016-09-06 2019-03-26 Mediatek Singapore Pte. Ltd. Apparatuses and methods for avoiding video artifacts introduced by a handover or out-of-service (OOS) condition during a video call
JP2019083488A (ja) * 2017-10-31 2019-05-30 キヤノン株式会社 撮像装置、支持装置、及びそれらの制御方法、プログラム

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2750717B2 (ja) 1988-12-15 1998-05-13 国際電信電話 株式会社 画像伝送誤り訂正方式
JPH06237451A (ja) 1993-02-10 1994-08-23 Hitachi Ltd 動画通信方式および端末装置
JPH10191356A (ja) 1996-12-27 1998-07-21 Oki Electric Ind Co Ltd 画像符号化装置
US5910827A (en) 1997-02-26 1999-06-08 Kwan; Katherine W. Video signal decoding arrangement and method for improved error concealment
US6421387B1 (en) 1998-05-15 2002-07-16 North Carolina State University Methods and systems for forward error correction based loss recovery for interactive video transmission
US6195393B1 (en) 1998-07-06 2001-02-27 General Instrument Corporation HDTV video frame synchronizer that provides clean digital video without variable delay
US6526097B1 (en) * 1999-02-03 2003-02-25 Sarnoff Corporation Frame-level rate control for plug-in video codecs
US7085285B2 (en) * 2000-03-01 2006-08-01 Realtek Semiconductor Corp. xDSL communications systems using shared/multi-function task blocks
US7110452B2 (en) * 2001-03-05 2006-09-19 Intervideo, Inc. Systems and methods for detecting scene changes in a video data stream
US7239662B2 (en) 2001-08-23 2007-07-03 Polycom, Inc. System and method for video error concealment
WO2003084234A2 (en) 2002-03-22 2003-10-09 Realnetworks, Inc. Video picture compression artifacts reduction via filtering and dithering
KR20030080136A (ko) 2002-04-04 2003-10-11 엘지전자 주식회사 전화통신망에서 동영상 재생 시의 오류 은닉 방법
JP2004193780A (ja) * 2002-12-09 2004-07-08 Sony Corp 画像信号出力装置及び画像信号出力方法
US7463688B2 (en) 2003-01-16 2008-12-09 Samsung Electronics Co., Ltd. Methods and apparatus for removing blocking artifacts of MPEG signals in real-time video reception
CN100568964C (zh) * 2003-02-18 2009-12-09 诺基亚有限公司 图像解码方法
US7606313B2 (en) 2004-01-15 2009-10-20 Ittiam Systems (P) Ltd. System, method, and apparatus for error concealment in coded video signals
EP1558033A1 (en) * 2004-01-21 2005-07-27 Deutsche Thomson-Brandt Gmbh Method and apparatus for controlling the insertion of additional fields or frames into a picture sequence to change its format
KR20050089457A (ko) 2004-03-05 2005-09-08 엘지전자 주식회사 동영상 복호화 시 에러 은닉 방법
KR100701032B1 (ko) 2004-09-10 2007-03-29 주식회사 이지씨앤씨 네트워크 상의 동영상 데이터 전송 조절 시스템과 그 방법
US20060062312A1 (en) 2004-09-22 2006-03-23 Yen-Chi Lee Video demultiplexer and decoder with efficient data recovery
CN100463528C (zh) * 2004-09-28 2009-02-18 乐金电子(惠州)有限公司 无线图像通信系统的错误帧跳跃方法及装置
US7650031B2 (en) * 2004-11-23 2010-01-19 Microsoft Corporation Method and system for detecting black frames in a sequence of frames
CN101107865B (zh) 2005-01-17 2011-11-16 皇家飞利浦电子股份有限公司 用于发射和接收已排序的视频帧集合的方法和发射机
JP2006237451A (ja) 2005-02-28 2006-09-07 Jettech Ltd レーザを用いた異方導電性フィルムのボンディング装置およびその方法
JP4642075B2 (ja) 2005-04-13 2011-03-02 シャープ株式会社 動画像再生装置
EP1739974B1 (en) 2005-06-30 2010-08-11 Samsung Electronics Co., Ltd. Error concealment method and apparatus
KR100736041B1 (ko) * 2005-06-30 2007-07-06 삼성전자주식회사 에러 은닉 방법 및 장치
WO2007018709A2 (en) 2005-07-25 2007-02-15 Thomson Licensing Method and apparatus for the concealment of missing video frames
CN1929618A (zh) * 2005-09-07 2007-03-14 上海乐金广电电子有限公司 对动态影像进行解码时的错误隐藏方法
US8229983B2 (en) * 2005-09-27 2012-07-24 Qualcomm Incorporated Channel switch frame
US8693538B2 (en) * 2006-03-03 2014-04-08 Vidyo, Inc. System and method for providing error resilience, random access and rate control in scalable video communications
US20080115185A1 (en) * 2006-10-31 2008-05-15 Microsoft Corporation Dynamic modification of video properties
US20080141091A1 (en) * 2006-12-06 2008-06-12 General Instrument Corporation Method and Apparatus for Recovering From Errors in Transmission of Encoded Video Over a Local Area Network
US8605779B2 (en) 2007-06-20 2013-12-10 Microsoft Corporation Mechanisms to conceal real time video artifacts caused by frame loss

Also Published As

Publication number Publication date
KR20140070668A (ko) 2014-06-10
KR20100031672A (ko) 2010-03-24
US8605779B2 (en) 2013-12-10
WO2008156968A3 (en) 2009-02-19
EP2160897A2 (en) 2010-03-10
KR101505377B1 (ko) 2015-03-23
CN101690204A (zh) 2010-03-31
US9876986B2 (en) 2018-01-23
US20140092205A1 (en) 2014-04-03
CN101690204B (zh) 2012-07-18
KR101477315B1 (ko) 2015-01-27
US20080316362A1 (en) 2008-12-25
WO2008156968A2 (en) 2008-12-24
JP2010530719A (ja) 2010-09-09
EP2160897B1 (en) 2018-12-19
EP2160897A4 (en) 2012-10-03

Similar Documents

Publication Publication Date Title
JP5384488B2 (ja) フレーム損失によるリアルタイム映像アーチファクトを隠蔽する機構
Fouladi et al. Salsify:{Low-Latency} network video through tighter integration between a video codec and a transport protocol
US11507867B2 (en) Systems and methods for managing interactions between an individual and an entity
US8189492B2 (en) Error recovery in an audio-video multipoint control component
US10609420B2 (en) Reducing visible artifacts during playback of a video file for recorded real-time video communications
TWI483597B (zh) 視訊會議速率匹配
US20220255666A1 (en) Adaptive Screen Encoding Control
US8385425B2 (en) Temporal video filtering for real time communication systems
US9277208B2 (en) System and method for estimating quality of video with frame freezing artifacts
CN102158690A (zh) 远程多路实时视频监控系统
US7403566B2 (en) System, computer program product, and method for transmitting compressed screen images from one computer to another or many computers
US8928728B2 (en) Systems, methods, and media for controlling a presentation of data images in a video stream
CN116389437A (zh) 视频数据传输方法、设备、存储介质和系统
US20220156981A1 (en) Systems and method for low bandwidth video-chat compression
CN110798700B (zh) 视频处理方法、视频处理装置、存储介质与电子设备
EP2936811A1 (fr) Procédé et dispositif de transmission d'une séquence d'images basé sur un codage région adaptatif
US11374839B1 (en) Optimizing media streaming by a bitrate-controlling device
Warrier et al. Network state Estimation using Raw Video Analysis: vQoS-GAN based non-intrusive Deep Learning Approach

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120622

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130315

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20130426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20130426

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130617

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130624

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130716

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130809

TRDD Decision of grant or rejection written
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20130829

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130903

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130903

RD15 Notification of revocation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7435

Effective date: 20130903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131002

R150 Certificate of patent or registration of utility model

Ref document number: 5384488

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees