JP2010517427A - 個人向けのビデオサービスを提供するシステムおよび方法 - Google Patents
個人向けのビデオサービスを提供するシステムおよび方法 Download PDFInfo
- Publication number
- JP2010517427A JP2010517427A JP2009547253A JP2009547253A JP2010517427A JP 2010517427 A JP2010517427 A JP 2010517427A JP 2009547253 A JP2009547253 A JP 2009547253A JP 2009547253 A JP2009547253 A JP 2009547253A JP 2010517427 A JP2010517427 A JP 2010517427A
- Authority
- JP
- Japan
- Prior art keywords
- video
- face
- video conference
- model
- conference participant
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
- H04N7/157—Conference systems defining a virtual conference space and using avatars or agents
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/755—Deformable models or variational models, e.g. snakes or active contours
- G06V10/7557—Deformable models or variational models, e.g. snakes or active contours based on appearance, e.g. active appearance models [AAM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/167—Detection; Localisation; Normalisation using comparisons between temporally consecutive images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
- H04N21/23412—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs for generating or manipulating the scene composition of objects, e.g. MPEG-4 objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
- H04N21/44012—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/441—Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card
- H04N21/4415—Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card using biometric characteristics of the user, e.g. by voice recognition or fingerprint scanning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/4508—Management of client data or end-user data
- H04N21/4532—Management of client data or end-user data involving end-user characteristics, e.g. viewer profile, preferences
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
- H04N7/147—Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
Abstract
【課題】テレビ会議参加者の写真のようにリアルな描写のアバタ表現を作成するビデオ処理システムを提供する。
【解決手段】アバタ表現は、テレビ会議参加者を現わすビデオストリームの一部に基づく。顔検出器が、顔を識別、追跡および分類するのに用いられる。検出された顔に基づいて、密度、構造、変形、外観および明るさのモデルを含むオブジェクトモデルが作成される。機械学習顔検出技法を用いるオブジェクト基礎のビデオ圧縮アルゴリズムが、密度、構造、変形、外観および明るさのモデルから導出されるパラメータから写真のようにリアルな描写のアバタ表現を作成する。
【選択図】図3
【解決手段】アバタ表現は、テレビ会議参加者を現わすビデオストリームの一部に基づく。顔検出器が、顔を識別、追跡および分類するのに用いられる。検出された顔に基づいて、密度、構造、変形、外観および明るさのモデルを含むオブジェクトモデルが作成される。機械学習顔検出技法を用いるオブジェクト基礎のビデオ圧縮アルゴリズムが、密度、構造、変形、外観および明るさのモデルから導出されるパラメータから写真のようにリアルな描写のアバタ表現を作成する。
【選択図】図3
Description
本出願は、2007年1月23日出願の米国仮特許出願第60/881,979号の優先権を主張する。本出願は、2007年1月23日出願で発明の名称が「画像データを処理するコンピュータ方法および装置」の米国仮特許出願第60/991,966号および2006年1月8日出願で発明の名称が「画像データを処理する装置および方法」の米国仮特許出願第60/811,890号に関連する。本出願は、また、2005年7月28日出願の米国特許出願第11/191,562号の部分継続出願である、2005年9月20日出願の米国特許出願第11/230,686号の部分継続出願である、2005年11月16日出願の米国特許出願第11/280,625号の部分継続出願である、2006年1月20日出願の米国特許出願第11/336,366号の部分継続出願である、2006年3月31日出願の米国特許出願第11/396,010号に関連する。上記各出願の全内容は参照により本明細書に引用したものとする。
本発明はビデオデータを処理において、個人向けのビデオサービスを提供するシステムに関する。
ディジタルビデオの最近の人気によって、ビデオ圧縮の需要が劇的に増加している。ビデオ圧縮はディジタル媒体の格納および転送に必要とされるビット数を低減する。ビデオデータは空間および時間の冗長性(重複)を含み、これら空間および時間の類似性はフレーム(空間)内およびフレーム間(時間)における差分を記録することによってコード化される。圧縮を実行するハードウェアまたはソフトウェアは、CODEC(コーデック)(符号化器(エンコーダ)/復号化器(デコーダ))と呼ばれる。コーデックは、ディジタル信号に符号化および復号化を実行できる装置またはソフトウェアである。データを大量に使用するディジタルビデオアプリケーションが広く普及してきているため、信号をエンコード化するのにより効率的な方法が必要とされている。このようにして、ビデオ圧縮は、記憶装置および通信の技術における中心的なコンポーネントとなっている。
コーデックは、テレビ会議やビデオブログのようなストリーミング媒体アプリケーション(例えば、ビデオポッドキャスト)などの多くの異なる技術において用いられることが多い。典型的には、テレビ会議やビデオブログのシステムは、リアルタイムに音声のディジタル圧縮およびビデオストリームを提供する。テレビ会議やビデオブログにおける問題の1つは、多くの参加者が外観の認識(appearance consciousness)に苦慮している点である。ただし、画面上に許容できる外観を表示する負担は、音のみの通信においては問題ではない。
テレビ会議やビデオブログの表示の別の問題は、情報の圧縮がビデオ品質を低下させる点である。圧縮比はテレビ会議において最も重要なファクタの1つである。これは、圧縮比が高ければ、テレビ会議の情報が高速で転送されるからである。残念なことに、従来のビデオ圧縮方法では、圧縮比を高くするとビデオ品質が低くなる。圧縮されたビデオストリームは、画像も音も品質が劣悪なことが多い。
一般に、従来のビデオ処理方法では、遅いデータ通信速度、大きな記憶容量条件、および妨害となる知覚に影響を及ぼすものの形態で現れる、多くの非効率に苦しんでいる。ビデオデータの品質を犠牲にせずに容易かつ効率的に操作する必要がある様々なユーザにとって、これら障害は重大な問題となる可能性がある。特に、何らかの形式の視覚情報に対して人間が生得的感受性を有することに鑑みれば、特に重要である。
ビデオ圧縮において、複数の重要なファクタが一般的に考慮される。これらファクタには、ビデオ品質およびビットレート、エンコード化およびデコード化アルゴリズムの計算の複雑さ、データの損失および誤差に対するロバスト性、ならびに待ち時間が含まれる。ビデオデータ量がインターネット上で急増しているため、コンピュータに対するのみでなく、テレビや携帯電話などの手持ち式装置に対しても、輻輳を大幅に緩和して品質を向上させる技術が著しい進展となる。
ビデオを処理するシステムおよび方法が、現在の最新技術に対して計算および分析における利点をもたらす。ビデオ圧縮方法によって、テレビ会議やビデオブログのアプリケーションでディジタル媒体を格納して転送するのに必要とされるビット数を低減できる。テレビ会議の参加者の写真のようにリアルな描写のアバタ(人の分身として表示されるキャラクタ)の表現が作成される。アバタ表現は、会議の参加者を描画するビデオストリーム部分に基づいてもよい。ビデオ圧縮アルゴリズムに基づくオブジェクトは、Viola-Jonesの顔検出器のような顔検出器を用いて、会議参加者の顔を検出、追跡、かつ分類する。構造、変形、外観および明るさについてのオブジェクトモデルが、一般的な顔についての事前定義されたオブジェクトモデルの登録と組み合わされて、検出された顔に基づいて作成される。これらオブジェクトモデルは、陰的表現(implicit representation:暗黙的な表現つまり明白ではないが判別可能な表現)を作成するのに用いられて、これにより、テレビ会議参加者の写真のようにリアルな描画のアバタを生成する。
この描画は、テレビ会議参加者の顔の実物そっくりのタイプである。これは、ユーザの外観および表情に関して正確である。最初に取り込まれたフレームのその他の部分が、もしかすると低い正確度で描画される。固有のユーザに1回実行される短い較正セッションが起動される。これにより、システムは、圧縮アルゴリズムを初期化でき、オブジェクトモデルを作成できる。好ましくは、後続のテレビ会議セッションはさらなる較正を必要としない。
従来のビデオ描写と同程度信頼できるビデオ表現をユーザが要求するならば、システムは、さらなる較正期間を必要として、ユーザの外観にさらに合致するように格納されたモデルを調整する。代わりに、ユーザは、現在のオブジェクトモデルよりも好ましいオブジェクトモデルを用いることを好むかもしれない。好ましいモデルは、ユーザの何らかの有利な表現、例えば、最良の照明および格好の良い外観であってもよい。別の好ましいオブジェクトモデルは、顔に適用される「再照明(re-lit)」および「平滑化」での較正モデルであり、「高品質」の対象の表現を達成するための両方の処理ステップである。
テレビ会議/ビデオブログのシステムは、クライアントサーバフレームワークを用いて実現される。クライアントノードにおけるユーザは、ビデオカメラおよびヘッドフォンを使用して通信し、テレビ会議セッションを開始する。ユーザそれぞれの顔の写真のようにリアルな描写のアバタの表現が生成される。作成された写真のようにリアルな描写のアバタ表現は、テレビ会議参加者の顔の陰的表現である。
上記の内容は、添付図面に示される本発明の例の実施形態のより詳細な説明から明らかになるであろう。図面では、同一参照符号はそれぞれの図全体を通して同一部分を指す。図面は必ずしも縮尺どおりでなく、本発明の実施形態を説明することに重点が置かれている。
本発明の例示的な実施形態を以下に記述する。
<オブジェクトモデルの作成>
ビデオ信号データでは、画像シーケンスにビデオフレームが組み立てられる。ビデオの対象は、通常カメラの2次元画像表面に射影された3次元シーンである。合成されて生成されたビデオの場合、解釈には「仮想」カメラが用いられる。アニメーション(動画)の場合、アニメ製作者は参考のこのカメラフレームを管理する役割を担う。各フレームすなわち画像は、サンプル信号に対する画像センサ応答を表現する画素(pel)から構成されている。多くの場合、サンプル信号は、2次元センサアレイにおいてカメラのコンポーネントからサンプル化される特定の反射、屈折または放射されたエネルギ(例えば、電磁エネルギ、音響エネルギなど)に相当する。連続的な時系列サンプリングによって、フレーム当たりの空間2次元と、ビデオシーケンスにおけるフレーム順序に対応する時間次元とを備える、時空間データストリームを得ることができる。この処理は、通常「画像」処理と称される。
ビデオ信号データでは、画像シーケンスにビデオフレームが組み立てられる。ビデオの対象は、通常カメラの2次元画像表面に射影された3次元シーンである。合成されて生成されたビデオの場合、解釈には「仮想」カメラが用いられる。アニメーション(動画)の場合、アニメ製作者は参考のこのカメラフレームを管理する役割を担う。各フレームすなわち画像は、サンプル信号に対する画像センサ応答を表現する画素(pel)から構成されている。多くの場合、サンプル信号は、2次元センサアレイにおいてカメラのコンポーネントからサンプル化される特定の反射、屈折または放射されたエネルギ(例えば、電磁エネルギ、音響エネルギなど)に相当する。連続的な時系列サンプリングによって、フレーム当たりの空間2次元と、ビデオシーケンスにおけるフレーム順序に対応する時間次元とを備える、時空間データストリームを得ることができる。この処理は、通常「画像」処理と称される。
本発明は、ビデオ信号データが効率的に1つ以上の有用な表現に処理される手段を提供する。本発明は、ビデオ信号において多くの共通に繰り返されるデータセットを処理するのに有効である。ビデオ信号が解析され、そのデータの1つ以上の簡潔な表現が提供されてその処理およびエンコード化を容易にする。新しくてより簡潔なデータ表現によって、計算処理、伝送帯域幅および記憶装置の多くの用途に対する要件が軽減される。処理には、限定されるわけではないが、ビデオ信号のコード化、圧縮、伝送、解析、記憶および表示が含まれる。雑音のような不必要な信号部分は低い優先度に識別されて、さらなる処理はビデオ信号の優先度の高い部分を解析して表現することに重点が置かれる。その結果、ビデオ信号は、それまでよりも、より簡潔に表現される。そして、正確さの損失は、知覚的に重要でないビデオ信号部分に集中される。
2006年1月20日出願の米国特許出願第11/336,366号および2007年1月23日出願で発明の名称が「画像データを処理するコンピュータ方法および装置」である米国特許出願(代理人の管理番号4060.1009-000)(全内容はここで引用されているものとする)に記載のように、ビデオ信号データは解析されて顕著なコンポーネントが識別される。空間時間的なストリームは、たいていは独特なオブジェクトである顕著なコンポーネント(例えば顔)を明らかにする。識別処理は、顕著なコンポーネントの存在および重要度を特定して、特定された顕著なコンポーネントのうちの最も重要な1つ以上を選択する。これは、ここで説明されている処理後または処理と同時に行われる、顕著性がより小さい他の顕著なコンポーネントの識別および処理を制限するわけではない。上述の顕著なコンポーネントはその後さらに解析され、変化するサブコンポーネントおよび不変のサブコンポーネントが識別される。不変サブコンポーネントの識別は、コンポーネントの特定の様相のモデル化処理である。これにより、コンポーネントを所望の正確度に合成できるモデルのパラメータ表現が明らかになる。
一実施形態において、PCA/ウェーブレットのエンコード化技法が前処理されたビデオ信号に適用されて、所望の圧縮ビデオ信号を形成する。前処理によってビデオ信号の複雑さを減少させて、主成分分析(PCA)/ウェーブレットのエンコード化(圧縮)が向上した作用で適用されるようにする。PCA/ウェーブレットのコード化については、同時係属の出願である、2006年1月20日出願の米国特許出願第11/336,366号および2007年1月23日出願で発明の名称が「画像データを処理するコンピュータ方法および装置」である米国特許出願(代理人の管理番号4060.1009-000)に詳細に説明されている。
図1は本発明の原理を採用する例示的な画像処理システム100のブロック図である。ソースビデオ信号101が入力されて前処理プロセッサ102によって受信される。前処理プロセッサ102は、ソースビデオ信号101における対象コンポーネント(顕著なオブジェクト)を判別するために帯域消費を用いるか、または顔/オブジェクト検出器のような他の基準を用いる。特に、前処理プロセッサ102は、ビデオ信号101において、不均衡な帯域幅を用いる部分のその他の部分に対する比を判別する。この判別を行うセグメンタ(セグメント化器、セグメント化部)103に関する方法は、以下の通りである。
セグメンタ103が、上述の画素の微分における時間および/または空間の差分を用いて、時間および/空間に渡って画像勾配を分析する。コヒーレンスに監視するために、ビデオ信号の逐次的なフレームに渡って、互いに対応するビデオ信号部分が追跡されて注目される。これらコヒーレントな(一貫した)信号コンポーネントの微分場の有限差分が統合されて、ビデオ信号の判別された部分を生成する。この判別された部分とは、他の部分に対して不均衡な帯域幅を用いる部分である。すなわち、対象コンポーネントを判別する。好ましい実施形態では、後続フレームにおける空間不連続に対応する空間不連続が1つのフレームにおいて発見されると、画像勾配の急激さまたは平滑さが解析されて、一意の対応(時間コヒーレンシ(時間的な一貫性))を生じさせる。さらに、このような対応(相関関係)の集まりも、ビデオフレームの離散的なコンポーネントの時間コヒーレンシに一意に帰するように同一の方法で採用される。急峻な画像勾配についてはエッジが存在すると判別される。このような空間不連続を画定するエッジが2つ存在する場合、コーナーが決定される。これら識別された空間不連続は勾配フローと組み合わされて、ビデオデータの複数のフレームに渡る対応画素間の動きベクトルを生成する。動きベクトルが識別された空間不連続と一致する場合、本発明のセグメンタ103は、対象のコンポーネント(顕著なオブジェクト)が存在すると判別する。
他のセグメント化技法がセグメンタ103を実現するのに適している。
図1において、前処理プロセッサ102(セグメンタ103)が、対象のコンポーネント(顕著なオブジェクト)を判別すると(すなわち、ソースビデオ信号101から対象のコンポーネントをセグメント化すると)、判別した対象のコンポーネントの複雑さを正規化器(正規化部)105が低減する。好ましくは、正規化器105は、判別された対象のコンポーネントから、全体の動きおよび姿勢、全体構造、局所変形、外観ならびに明るさの変動を取り除く。これまでに述べた関連出願に記載された前述の正規化技法がこのために利用される。これにより、正規化器105は対象のコンポーネントの構造モデル107および外観モデル108を確立する。
構造モデル107は、数学的には以下のように表現される。
ここで、σは、顕著なオブジェクト(判別された対象のコンポーネント)であり、SM()はそのオブジェクトの構造モデルである。vx,yは、経時的に位置合せされたオブジェクトにおける、区分(piece-wise)線形正規化メッシュの2次元メッシュ頂点である。Δtは、期間tにおける頂点の変化であり、複数のビデオフレーム間のオブジェクトの拡大縮小(すなわち局所変形)、回転および並進を経時的に表現する。Zは、全体動きである。式1から、全体の固定の構造モデル、全体動き、姿勢および局所的に導出された変形が引き出される。構造部分の候補構造(経時のビデオフレームの対象のコンポーネント)を判定するために、動きから構造を推定する既知の技法が用いられて、動き検出と組み合わされる。これにより、顕著なオブジェクトの空間における位置および方向が決定されて、構造モデル107および動きモデル111がもたらされる。
外観モデル108は、次に、構造モデル107および動きモデル111によって集合的ではなくモデル化される顕著なオブジェクトの特性および様相を表現する。一実施形態では、外観モデル108は経時的な構造変化の線形分解であり、構造モデル107から全体動きおよび局所変形を除去することによって決定される。出願人は、各ビデオフレームにおけるオブジェクト外観を取得し、構造モデル107を用いて、「正規化された姿勢」に再射影する。「正規化された姿勢」は、また、1以上の「基本的な(cardinal)」姿勢と称される。再射影は、オブジェクトの正規化されたバージョンを表現し、外観における任意の変化を生成する。所与のオブジェクトが複数のビデオフレーム間で回転しているかまたは空間的に並進されているので、外観は単一の基本的な姿勢(すなわち、平均の正規化された表現)に位置付けられる。外観モデル108は、また、基本的な姿勢の基本的な変形(例えば、目が開く/閉じられる、口が開く/閉じられるなど)を明らかにする。したがって、外観モデル108 AM(σ)は、基本的な姿勢Pcおよび基本的な姿勢Pcの基本的な変形Δcによって表現される。
外観モデル108の画素は、好ましくは、カメラの投影軸に対する距離および入射角度に基づく。バイアスをかけることで、モデルの最終形式に対する各画素の寄与の相対加重を判別する。したがって、好ましくは、この「サンプルバイアス(sampling bias)」が全てのモデルの全ての処理を組み込む。候補構造の(構造モデル107からの)経時追跡は、姿勢、動きおよび変形の推定量からの示唆によって、全画素の動きの予測を構成して可能とする。
さらに、外観および明るさのモデル化に関して、画像処理における持続的な挑戦の1つは、変化する明暗条件のもとで、オブジェクトを追跡している。画像処理において、コントラストの正規化は、ピクセル輝度(pixel intensity)値の変化を、明暗/明るさの変化以外の因子に起因するよりもむしろ、明暗/明るさの変化に起因するものとしてモデル化する処理である。好ましい実施形態では、ビデオが取り込まれる際の顕著なオブジェクトの明るさ条件の任意の変化を推定する(すなわち、オブジェクトに当たる明るさをモデル化する)。これは、ランベルト反射の線形部分空間(Lambertian Reflectance Linear Subspace (LRLS))理論からの原理にオプティカルフローを組み合わせて達成される。LRLS理論によれば、オブジェクトが固定されて好ましくは明るさの変化のみが許容されると、反射画像のセットは最初の9つの球面調和関数の線形な組合せによって近似される。これにより、画像は、周囲「画像」ベクトル空間における9D線形部分空間に近接する。さらに、画像ピクセル(x,y)の反射輝度は、次のように近似される。
LRLSおよびオプティカルフローを用いて、いかに明暗がオブジェクトと相互作用するかを判定するために期待値が計算される。これら期待値は、オプティカルフロー場における変化を説明できるオブジェクトの動きを拘束するのに役立つ。明るさモデル化を用いるオブジェクトの外観を記述するのにLRLSを用いると、さらに、明るさモデルの予測の範囲から外れる任意の外観変化を処理することを外観モデルに許可する必要がある。
対象のコンポーネントの複雑さが対応する元のビデオ信号から低減されるが対象のコンポーネントの顕著性は維持される限り、外観モデル108および構造モデル107の他の数学的表現も適切である。
図1を参照して、PCA/ウェーブレットのエンコード化が、次にアナライザ(分析器)110によって構造オブジェクトモデル107および外観オブジェクトモデル108に適用される。より詳細には、アナライザ110は、対象のコンポーネントに対応するビデオデータを圧縮(エンコード化)するために、幾何学的データ解析を採用する。得られる圧縮された(エンコード化された)ビデオデータは、図2の画像処理システムにおいて用いられることができる。より詳細には、これらオブジェクトモデル107,108は、図2のコード化側232およびデコード化側236において蓄積されてもよい。構造モデル107および外観モデル108から、有限状態マシンが生成されてもよい。従来のコード化232およびデコード化236も、従来のウェーブレットビデオコード化デコード化方法として実装されてもよい。
PCAコード化が両側232,236において正規化された画素データに適用される。これにより、各側232,236において同一の基底ベクトルセットを形成する。好ましい実施形態では、PCA/ウェーブレットが画像処理中に基底関数に適用されて、所望の圧縮ビデオデータを生成する。ウェーブレット技法(DWT)は、全体画像および部分画像を変換し、外観モデル108および構造モデル107を線形分解する。そして、所望のしきい値目標(EZT式またはSPIHT式)を満たすように、この分解されたモデルは正常に打ち切られる。これによって、拡大縮小可能なビデオデータ処理が容易になり、これは、ビデオデータの「正規化」性質による従来のシステムや方法とは異なる。
図2に示すように、1つ以上のオブジェクト230,250についての圧縮されていないビデオストリームの先に検出されたオブジェクトインスタンスが、従来のビデオ圧縮方法232の別個のインスタンスでそれぞれ処理される。さらに、オブジェクト230,250のセグメント化から生じた非オブジェクト202も、従来のビデオ圧縮232を用いて圧縮される。これら別個の圧縮エンコード化232のそれぞれの結果は、各ビデオストリームに別々に対応する従来の方法でエンコード化された別個のストリーム234である。おそらくは伝送の後である、ある時点で、これら中間のコード化されたストリーム234が、正規化された非オブジェクト210および多数の正規化されたオブジェクト238,258の合成に、デコーダ236で解凍される。画素が空間において相対的に正しく位置するように、これら合成された画素は、これらの各非正規化バージョン222、242および262に非正規化240されることができる。これにより、合成処理270が、オブジェクトおよび非オブジェクトの画素を組み合わせて完全なフレームの合成272とすることができる。
<写真のようにリアルな描写のアバタの表現>
図3は、テレビ会議の写真のようにリアルな描写のアバタを生成するシステム300によって実行されるステップを示すフローチャートである。このシステム300は、テレビ会議またはビデオブログの参加者の写真のようにリアルな描写のアバタ表現を作成する。図3に示すように、ステップ302において、テレビ会議参加者の一人の顔が、テレビ会議データストリームの1つ以上のビデオフレームから検出される。顔は、Viola-Jones顔検出器(またはその他の任意の顔検出器)を用いて検出される。
図3は、テレビ会議の写真のようにリアルな描写のアバタを生成するシステム300によって実行されるステップを示すフローチャートである。このシステム300は、テレビ会議またはビデオブログの参加者の写真のようにリアルな描写のアバタ表現を作成する。図3に示すように、ステップ302において、テレビ会議参加者の一人の顔が、テレビ会議データストリームの1つ以上のビデオフレームから検出される。顔は、Viola-Jones顔検出器(またはその他の任意の顔検出器)を用いて検出される。
ステップ304において、システム100は顔が以前に較正されているか否かを判別する。較正がなければ、ステップ306において顔が較正される。較正情報は、顔の方向についての情報(どこに顔が集中しているかを特定する位置(x,y))、拡大縮小情報、ならびに構造、変形、外観および明るさの情報を含む。これらパラメータは、ハイブリッド3次元モーフィング(変形可能)モデルおよびLRLSアルゴリズム、ならびに構造、変形、外観および明るさのモデルを用いて、導出される。これらモデルについては、2006年1月20日出願の米国特許出願第11/336,366号および2007年1月23日出願で発明の名称が「画像データを処理するコンピュータ方法および装置」である米国特許出願(代理人の管理番号4060.1009-000)に詳細に説明されている。これら出願の全内容はここで引用されているものとする。別の既知のモデル化技法が、これらパラメータ(例えば、3次元モーフィングモデル化、アクティブ外観モデルなど)を判別するのに用いられてもよい。これら近似が、ビデオの各フレームについて、顔の姿勢および構造、ならびに明るさ条件を推定するのに用いられる。個人の顔についての構造、変形、外観および明るさの基礎(例えば、較正情報)が解決されると、ステップ308において、これら陽的モデル(明白なモデル(explicit model))が個人の顔を検出、追跡かつモデル化するのに用いられる。
ステップ310において、これらパラメータ(例えば、構造、変形、外観および明るさの基礎)が、陰的モデル化(暗黙的なモデル化)の初期化に用いられる。陰的モデル化は、陽的モデル化から得られた情報を基準としたモデルを確立し、個人の顔のコンパクトなエンコード化をもたらす。陽的モデル化から得られたパラメータは、陰的モデルを推定するための評価(ground truth)として用いられる。例えば、陽的モデル化パラメータは、明暗が顔の構造といかに相互作用するかについての予測を確立するために用いられる。そして、顔はサンプル化されて、これら拘束条件は、陰的アルゴリズムについての探索空間を制限する手段を提供する。ステップ312において、個人の顔が、陰的モデルを用いて検出、追跡および分類されて、写真のようにリアルな描写のアバタの表現が生成される。陰的モデル化を用いて生成されたフレームは、陽的モデルに比較して、フレームに対してエンコード化を少ししか使用せず、必要なパラメータが少ない。写真のようにリアルな描写のアバタの表現は、会議参加者の顔の合成表現(例えば、プロキシアバタ)である。合成表現の忠実度は、元のビデオキャプチャ(ビデオ取り込み)における参加者の忠実な表現から、先の較正セッションによってサポートされた表現にまで及ぶ。
システム300は、周期的にチェックを行い、そのモデル化を現実的な近似に基づかせることを確実なものとする。したがって、ステップ314においてシステム300はチェックを行い、その陰的オブジェクトモデル化が適切に作用していることを確認する。一定時間について再射影エラーが小さい場合、システムは、陰的オブジェクトモデル化は作用していると判別する。再射影エラーが小さくて大きい動きがある場合、陰的オブジェクトが適切に作用していると考えられる。しかし、再射影エラーが大きい場合、陰的モデル化は最適に作用していないとシステム300は判別する。同様に、システム300が不均衡な帯域量を検出すると、陰的モデル化は最適に作用していないとシステムは判別する。
陰的モデル化が作用していないと判別されると、ステップ316において、システムはチェックして顔が検出されたか否かを判別する。顔が検出されている場合、ステップ304において、システム300は、顔についての現在の較正情報を検索(発見)して、それに従って処理を行う。顔が検出されない場合、システムはステップ302に進み、Viola-Jones顔検出器を用いて顔を検出する。
別の好ましい実施形態では、本発明は、陰的モデル化を再確立するのに陽的モデル化を用いる。陽的モデル化は、陰的モデルを再初期化するのに必要なモデルパラメータを再確立する。顔検出器の実行を含む全再確立が、陽的モデル化が参加者のモデル化を再確立できない場合に実行される。
なお、顔検出の誘導は、較正に対して陰的モデル化を用いる。この場合、陰的モデルは、陽的モデルを「較正する」のに用いられる。その後、陽的モデルはその処理を開始し、同様に陰的モデルの初期化を誘導する。
この周期的なチェックによって、システム300は現実のオブジェクトである人間の顔を実際にモデル化することを再確認でき、システム300は周期的にその設定をリセットする。この構成によって、顔検出器402、較正器404、陽的モデル化器(陽的モデラ)406および陰的モデル化器(陰的モデラ)408の間の密な結合が実現される。このようにして、周期的に、陽的モデル化器406からのフィードバックが陰的モデル化器408を再初期化するのに用いられる。このシステム300の例示的な実装のブロック図が図4に示されている。
<写真のようにリアルな描写のアバタの基本設定>
写真のようにリアルな描写のアバタの生成システム300は、会議の参加者にとってそのテレビ会議の経験がより楽しいものとなるように、その参加者の基本設定のホストを提供する。例えば、会議参加者は、自分の写真のようにリアルな描写のアバタの表現がカメラに常に直接見えることを要求するように、基本設定を選択できる。これによって、アバタ表現が別の会議参加者を直視しているように見える。採用されたモデル化が仮想カメラに対して任意のモデルの再ポーズを許容しているため、共同設置されていないカメラおよびモニタに必要とされるゲージ調整が補償される。会議参加者は、また、特有の背景モデルを選択できる。不変の背景モデルを選択することによって、システム300は、さらに効率的に圧縮されたバージョンのビデオストリームを提供できる。例えば、モデルは、予め定義された背景または現実の背景の低解像度であってもよい。顔検出および較正の間、会議参加者は、また、写真のようにリアルな描写のアバタ表現における自分の特質に関連した特徴をカスタマイズできる。これらカスタマイズの例として、しわの除去、ヘアスタイル/ヘア効果の選択、洋服の選択などがある。
写真のようにリアルな描写のアバタの生成システム300は、会議の参加者にとってそのテレビ会議の経験がより楽しいものとなるように、その参加者の基本設定のホストを提供する。例えば、会議参加者は、自分の写真のようにリアルな描写のアバタの表現がカメラに常に直接見えることを要求するように、基本設定を選択できる。これによって、アバタ表現が別の会議参加者を直視しているように見える。採用されたモデル化が仮想カメラに対して任意のモデルの再ポーズを許容しているため、共同設置されていないカメラおよびモニタに必要とされるゲージ調整が補償される。会議参加者は、また、特有の背景モデルを選択できる。不変の背景モデルを選択することによって、システム300は、さらに効率的に圧縮されたバージョンのビデオストリームを提供できる。例えば、モデルは、予め定義された背景または現実の背景の低解像度であってもよい。顔検出および較正の間、会議参加者は、また、写真のようにリアルな描写のアバタ表現における自分の特質に関連した特徴をカスタマイズできる。これらカスタマイズの例として、しわの除去、ヘアスタイル/ヘア効果の選択、洋服の選択などがある。
会議参加者の写真のようにリアルな描写のアバタ表現を提供することによって、システム300は、従来のテレビ会議システムでは一般に利用できない追加のセキュリティ層を実現する。詳細には、写真のようにリアルな描写のアバタ表現は合成表現であるため、会議参加者は他の会議参加者が場合によっては秘密情報を知ってしまうことを気にする必要がない。このような情報には、会議参加者がテレビ会議中に注目する書類や、テレビ会議が記録される特別な環境を眺めることによって推理される秘密情報などがある。
<テレビ会議システム>
図5Aは、非同期またはほぼ同期のテレビ会議システム500の例を示す図である。このシステム500は、インスタントメッセージサーバ502と称される非同期またはほぼ同期のテレビ会議サーバを用いる。この例では、3つのノードが、インスタントメッセージサーバ502および2つのクライアントマシン504,506で示されている。各マシン504,506に位置しているユーザは、テレビ会議セッションを開始することができ、ビデオカメラおよびヘッドフォンを使用して通信する。各ユーザの顔の写真のようにリアルな描写のアバタ表現が、各ユーザの前に現われる。この表現はユーザの外観および表情の点において正確であることが意図されている。最初に取り込まれたフレームのその他の部分が、好ましくは低い正確度で表現される。固有のユーザに1回実行される短い較正セッションが起動される。これにより、システムは、圧縮アルゴリズムを初期化して、オブジェクトモデルを作成できる。後続のテレビ会議セッションはさらなる較正を必要としない。各ユーザは、交換のために非同期通信のシーケンスを「再生する」。このようにして、各ユーザは、ユーザ入力、検出されたスピーチなどのキュー(合図)に基づいて、セッション記録にキュー(合図)を出す。さらに、この相互作用は多くの同時の「会話」を考慮する。これは、完全に同時の状況で生じるかもしれない「中断」なしに、相互作用が行われるためである。
図5Aは、非同期またはほぼ同期のテレビ会議システム500の例を示す図である。このシステム500は、インスタントメッセージサーバ502と称される非同期またはほぼ同期のテレビ会議サーバを用いる。この例では、3つのノードが、インスタントメッセージサーバ502および2つのクライアントマシン504,506で示されている。各マシン504,506に位置しているユーザは、テレビ会議セッションを開始することができ、ビデオカメラおよびヘッドフォンを使用して通信する。各ユーザの顔の写真のようにリアルな描写のアバタ表現が、各ユーザの前に現われる。この表現はユーザの外観および表情の点において正確であることが意図されている。最初に取り込まれたフレームのその他の部分が、好ましくは低い正確度で表現される。固有のユーザに1回実行される短い較正セッションが起動される。これにより、システムは、圧縮アルゴリズムを初期化して、オブジェクトモデルを作成できる。後続のテレビ会議セッションはさらなる較正を必要としない。各ユーザは、交換のために非同期通信のシーケンスを「再生する」。このようにして、各ユーザは、ユーザ入力、検出されたスピーチなどのキュー(合図)に基づいて、セッション記録にキュー(合図)を出す。さらに、この相互作用は多くの同時の「会話」を考慮する。これは、完全に同時の状況で生じるかもしれない「中断」なしに、相互作用が行われるためである。
非同期または準同期のメッセージシステム環境500が、複数の参加者が互いに対話できる手段を提供する。これは、使いやすさの点において重要な要素である。インスタントメッセージセッション構成によって、ユーザは、自己のビデオを「編集」でき、他のユーザに「送信」する前に見直すことができる。重要な、制御および帯域低減の構成が存在する。将来的に他の目的に使用される「高」品質のビデオセグメントを生成するために、編集および制御の構成が用いられてもよい。例えば、ビデオにおける音素または音フレーズパターンを関連付けることによって、ビデオセッションは、共にステッチされた「以前の」セグメントを用いることによって、カメラなしで提供される。
図5Bは、テレビ会議/ビデオブログシステム540の例を示す図である。この例では、クライアントシステム551はアプリケーションサーバ556に接続する。このサーバ556は、図3および4で参照された写真のようにリアルな描写のアバタの生成システム300のホストとして動作する。このアプリケーションサーバ556は、以前に生成されたオブジェクト(密度、構造、外観、明るさなど)モデル552をオブジェクトモデルアーカイブ554に格納する。図3および4に関連して述べたように、システム540のユーザについて写真のようにリアルな描写のアバタ表現を生成するように、これらオブジェクトモデル552が作成される。写真のようにリアルな描写のアバタ表現は、クライアントシステム551のビデオブログ(vlog)558にストリームされる。
<処理環境>
図6は、本発明が実現される、コンピュータネットワークまたは同様のディジタル処理環境を示す。クライアントコンピュータ/装置50およびサーバコンピュータ60が、アプリケーションプログラムなどを実行する、処理装置、記憶装置、および入力/出力装置を設ける。クライアントコンピュータ/装置50は、通信ネットワーク70を介して、別のクライアント装置/プロセッサ50およびサーバコンピュータ60などのその他のコンピュータ装置にリンクされてもよい。通信ネットワーク70は、リモートアクセスネットワーク、グローバルネットワーク(例えば、インターネット)、コンピュータのワールドワイドの集合形態、ローカルエリアもしくはワイドエリアのネットワーク、およびプロトコル(TCP/IP、Bluetoothなど)を用いるゲートウェイの一部であってもよい。その他の電子的装置/コンピュータネットワークアーキテクチャも適している。
図6は、本発明が実現される、コンピュータネットワークまたは同様のディジタル処理環境を示す。クライアントコンピュータ/装置50およびサーバコンピュータ60が、アプリケーションプログラムなどを実行する、処理装置、記憶装置、および入力/出力装置を設ける。クライアントコンピュータ/装置50は、通信ネットワーク70を介して、別のクライアント装置/プロセッサ50およびサーバコンピュータ60などのその他のコンピュータ装置にリンクされてもよい。通信ネットワーク70は、リモートアクセスネットワーク、グローバルネットワーク(例えば、インターネット)、コンピュータのワールドワイドの集合形態、ローカルエリアもしくはワイドエリアのネットワーク、およびプロトコル(TCP/IP、Bluetoothなど)を用いるゲートウェイの一部であってもよい。その他の電子的装置/コンピュータネットワークアーキテクチャも適している。
図7は、図6のコンピュータシステムにおけるコンピュータ(例えば、クライアントプロセッサ/装置50またやサーバコンピュータ60)の内部構造の図である。各コンピュータ50,60は、システムバス79を含む。ここで、バスはコンピュータまたは処理システムの要素間のデータ転送に用いられるハードウェアラインのセットである。バス79は、基本的には、コンピュータシステムの異なる要素を接続する共有の電線である。これら要素は、例えば、プロセッサ、ディスクストレージ、メモリ、入力/出力ポート、ネットワークポートなどである。このバスによって、要素間の情報の転送が可能となる。システムバス79には、入力/出力(I/O)装置インタフェース82が取り付けられており、様々な入力および出力装置をコンピュータ50,60に接続する。これら入力および出力装置は、例えば、キーボード、マウス、ディスプレイ、プリンタ、スピーカなどである。ネットワークインタフェース86によって、コンピュータは、ネットワーク(例えば、図6のネットワーク70)に取り付けられた様々なその他の装置に接続される。メモリ90は、本発明の実施形態(例えば、個人用のビデオサービス)を実装するのに用いられる、コンピュータソフトウェア命令92およびデータ94用の揮発性ストレージである。ディスクストレージ95は、本発明の実施形態を実装するのに用いられるコンピュータソフトウェア命令92およびデータ94用の不揮発性ストレージである。中央処理装置ユニット84もシステムバス79に取り付けられており、コンピュータ命令を実行する。
一実施形態では、プロセッサルーチン92およびデータ94は、コンピュータプログラム製品であり、この製品はコンピュータ読み取り可能な媒体(例えば、1つ以上の、DVD−ROM、CD−ROM、ディスケット、テープ、ハードドライブなどの交換可能ストレージ)を含む。コンピュータプログラム製品は、この分野で周知のように、適切なソフトウェアインストール手続きによってインストールされる。別の実施形態では、少なくとも一部のソフトウェア命令が、ケーブル通信および/または無線通信でダウンロードされてもよい。その他の実施形態では、本発明のプログラムが、伝播媒体(例えば、ラジオ電波、赤外線、レーザ光線、音波、またはインターネットなどのグローバルネットワークを伝播される電磁波)の伝播信号に組み込まれるコンピュータプログラム伝播信号製品107である。このようなキャリア媒体または信号は、本発明のルーチン/プログラム92に、ソフトウェア命令の少なくとも一部を提供する。
別の実施形態では、伝播信号は、アナログキャリア波または伝播媒体で運ばれるディジタル信号である。例えば、伝播信号は、グローバルネットワーク(例えば、インターネット)、電気通信ネットワークなどのネットワークを伝播されるディジタル信号であってもよい。一実施形態では、伝播信号は、ミリ秒、秒、分またはそれ以上の期間にわたってネットワークをパケットで送信されるソフトウェアアプリケーションの命令のような、所定期間に伝播媒体を転送される信号である。別の実施形態では、コンピュータプログラム製品のコンピュータ読み取り可能な媒体は、伝播媒体を受信して、上述のコンピュータプログラム伝播信号製品のような、伝播媒体に組み込まれた伝播信号を特定することによって、受信および読み取りをコンピュータシステムが行う、伝播媒体であってもよい。
一般的に言えば、用語「キャリア媒体」すなわち遷移キャリアは、前述の遷移信号、伝播信号、伝播媒体、記憶媒体などを包含する。
本発明は、本発明の好ましい実施形態に関連して詳細に示され説明されているが、当業者であれば、添付の特許請求の範囲に包含される本発明の範囲から逸脱することなく、形態および細部に様々な変更が可能であることは理解されるであろう。
たとえば、本発明は、様々なコンピュータアーキテクチャにおいて実装される。図5A,5B,6および7に示されたコンピュータネットワークは、例示のためであり、本発明はこれに限定されるわけではない。
本発明は、完全なハードウェア実施形態、完全なソフトウェア実施形態、またはハードウェア要素およびソフトウェア要素の両方を含む実施形態であってもよい。好ましい実施形態では、本発明はソフトウェアに実装され、このソフトウェアは、これに限定されるわけではないが、ファームウェア、常駐ソフトウェア、マイクロコードなどを含む。
さらに、本発明は、コンピュータまたは任意の命令実行システムによって、またはこれらに組み合わされて使用するためのプログラムコードを提供するコンピュータ使用可能またはコンピュータ読み取り可能な媒体からアクセス可能なコンピュータプログラム製品の形体をとる。この記述のために、コンピュータ使用可能またはコンピュータ読み取り可能な媒体は任意の装置であってもよく、この装置は、命令実行システム、装置または機器によって、またはこれらに組み合わされて使用するためのプログラムを含み、記憶し、通信し、伝播し、または移植する。
媒体は電気、磁気、光、電磁、赤外線、または半導体のシステム(または装置もしくは機器)または伝播システムである。コンピュータ読み取り可能な媒体の例として、半導体もしくは固体メモリ、磁気テープ、取り外し可能なコンピュータディスケット、ランダムアクセスメモリ(RAM)、読み取り専用メモリ、(ROM)、硬質の磁気ディスクおよび光ディスクが挙げられる。光ディスクの例には、コンパクトディスク、つまり読み取り専用(CD−ROM)、読み取り/書き込み(CD−R/W)およびDVDが含まれる。
プログラムコードを格納および/または実行するのに適したデータ処理システムは、メモリ要素にシステムバスを介して直接的または間接的に結合された少なくとも1つのプロセッサを含む。メモリ要素は、プログラムコードの実際の実行中に採用されるローカルメモリ、大容量記憶装置、およびキャッシュメモリを含む。ここで、キャッシュメモリは、実行中に大容量記憶装置から取り出されるコードの回数を低減するために、少なくともプログラムコードの一時的な格納を提供する。
入力/出力すなわちI/O装置(これらに限定されるわけではないが、キーボード、ディスプレイ、ポインティング装置などを含む)が、システムに、直接またはI/Oコントローラを介して結合される。
ネットワークアダプタがシステムに結合されてもよく、これにより、データ処理システムは他の処理システムまたは遠隔プリンタもしくは記憶装置に、プライベートまたは公共のネットワークを介して結合される。モデム、ケーブルモデムおよびイーサネット(登録商標)カードは、現在利用可能なタイプのネットワークアダプタのほんの一部にすぎない。
Claims (8)
- ビデオストリームの一部に現われたテレビ会議参加者の顔を検出する工程と、
前記テレビ会議参加者の前記顔をモデル化するように、1つ以上のオブジェクトモデルを作成する行程と、
前記オブジェクトモデルを用いて、前記テレビ会議参加者の写真のようにリアルな描写のアバタ表現を作成する工程とを備えた、テレビ会議提供方法。 - 請求項1において、前記テレビ会議参加者の前記顔が、Viola/Jones顔検出アルゴリズムを用いて検出および追跡される、テレビ会議提供方法。
- 請求項1において、前記写真のようにリアルな描写のアバタ表現のオブジェクトモデルが、前記テレビ会議参加者の前記顔の陰的表現として作成される、テレビ会議提供方法。
- 請求項3において、前記テレビ会議参加者の前記陰的表現が、前記テレビ会議参加者の前記顔のシミュレーションされた表現である、テレビ会議提供方法。
- 請求項3において、Viola/Jones顔検出アルゴリズムを用いた前記検出および追跡が、
前記ビデオストリームから2つ以上のビデオフレームにおける前記顔に関連した少なくとも1つのオブジェクトの対応する要素を識別する工程と、
予め較正されてモデル化された顔に基づいて、対応する要素間の関係を識別するように、対応する要素を追跡および分類する工程とを有する、テレビ会議提供方法。 - 請求項1において、前記オブジェクトモデルが、構造、変形、姿勢、動き、明るさ、および外観についてのオブジェクトモデルを含む、テレビ会議提供方法。
- ビデオストリームにおけるテレビ会議参加者の顔を検出する顔検出器と、
前記テレビ会議参加者の前記顔を較正する較正モデルを生成する較正器と、
前記較正記および前記顔検出器に組み合わされたオブジェクトモデルであって、前記較正モデルに基づいて、前記テレビ会議参加者の前記顔を現わす前記ビデオストリームの一部をモデル化する、オブジェクトモデルと、
前記テレビ会議参加者の写真のようにリアルな描写のアバタ表現であって、前記顔検出器、較正器およびオブジェクトモデルから生成される、写真のようにリアルな描写のアバタ表現とを備えた、テレビ会議システム。 - テレビ会議の少なくとも1人の参加者を現わすビデオストリームの一部をモデル化するようにオブジェクトモデルを提供する手段と、
前記テレビ会議参加者の写真のようにリアルな描写のアバタ表現を作成するように、前記オブジェクトモデルを用いる手段とを備えた、テレビ会議用のシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US88197907P | 2007-01-23 | 2007-01-23 | |
PCT/US2008/000092 WO2008091485A2 (en) | 2007-01-23 | 2008-01-04 | Systems and methods for providing personal video services |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010517427A true JP2010517427A (ja) | 2010-05-20 |
Family
ID=39645040
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009547253A Pending JP2010517427A (ja) | 2007-01-23 | 2008-01-04 | 個人向けのビデオサービスを提供するシステムおよび方法 |
Country Status (7)
Country | Link |
---|---|
US (3) | US8243118B2 (ja) |
EP (1) | EP2106664A2 (ja) |
JP (1) | JP2010517427A (ja) |
CN (2) | CN102685441A (ja) |
CA (1) | CA2676023C (ja) |
TW (1) | TW200841736A (ja) |
WO (1) | WO2008091485A2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130130625A (ko) * | 2012-05-22 | 2013-12-02 | 커먼웰쓰 사이언티픽 앤 인더스트리알 리서치 오거니제이션 | 비디오 생성 시스템 및 방법 |
JP2015507272A (ja) * | 2012-01-12 | 2015-03-05 | アルカテル−ルーセント | 3dモデル・モーフィングのための方法および装置 |
Families Citing this family (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7983835B2 (en) | 2004-11-03 | 2011-07-19 | Lagassey Paul J | Modular intelligent transportation system |
US8902971B2 (en) | 2004-07-30 | 2014-12-02 | Euclid Discoveries, Llc | Video compression repository and model reuse |
US9578345B2 (en) | 2005-03-31 | 2017-02-21 | Euclid Discoveries, Llc | Model-based video encoding and decoding |
US9743078B2 (en) | 2004-07-30 | 2017-08-22 | Euclid Discoveries, Llc | Standards-compliant model-based video encoding and decoding |
US9532069B2 (en) | 2004-07-30 | 2016-12-27 | Euclid Discoveries, Llc | Video compression repository and model reuse |
CN101622874A (zh) | 2007-01-23 | 2010-01-06 | 欧几里得发现有限责任公司 | 对象存档系统和方法 |
JP2010517427A (ja) | 2007-01-23 | 2010-05-20 | ユークリッド・ディスカバリーズ・エルエルシー | 個人向けのビデオサービスを提供するシステムおよび方法 |
CN101939991A (zh) * | 2007-01-23 | 2011-01-05 | 欧几里得发现有限责任公司 | 用于处理图像数据的计算机方法和装置 |
CN103475837B (zh) | 2008-05-19 | 2017-06-23 | 日立麦克赛尔株式会社 | 记录再现装置及方法 |
CN102172026B (zh) | 2008-10-07 | 2015-09-09 | 欧几里得发现有限责任公司 | 基于特征的视频压缩 |
KR101511193B1 (ko) | 2009-02-27 | 2015-04-10 | 파운데이션 프로덕션, 엘엘씨 | 헤드셋 기반 원격통신 플랫폼 |
US20100306685A1 (en) * | 2009-05-29 | 2010-12-02 | Microsoft Corporation | User movement feedback via on-screen avatars |
US8762846B2 (en) * | 2009-11-16 | 2014-06-24 | Broadcom Corporation | Method and system for adaptive viewport for a mobile device based on viewing angle |
US8284157B2 (en) | 2010-01-15 | 2012-10-09 | Microsoft Corporation | Directed performance in motion capture system |
USRE49044E1 (en) * | 2010-06-01 | 2022-04-19 | Apple Inc. | Automatic avatar creation |
EP2538388B1 (en) * | 2011-06-20 | 2015-04-01 | Alcatel Lucent | Method and arrangement for image model construction |
US9349197B2 (en) * | 2011-06-28 | 2016-05-24 | Siemens Aktiengesellschaft | Left ventricle epicardium estimation in medical diagnostic imaging |
US9088426B2 (en) | 2011-12-13 | 2015-07-21 | Google Inc. | Processing media streams during a multi-user video conference |
EP2798853A4 (en) * | 2011-12-30 | 2015-07-15 | Intel Corp | INTERACTIVE MEDIA SYSTEMS |
US9060095B2 (en) | 2012-03-14 | 2015-06-16 | Google Inc. | Modifying an appearance of a participant during a video conference |
WO2013152453A1 (en) | 2012-04-09 | 2013-10-17 | Intel Corporation | Communication using interactive avatars |
CN103368929B (zh) * | 2012-04-11 | 2016-03-16 | 腾讯科技(深圳)有限公司 | 一种视频聊天方法及系统 |
US10155168B2 (en) | 2012-05-08 | 2018-12-18 | Snap Inc. | System and method for adaptable avatars |
TWI478078B (zh) * | 2012-05-31 | 2015-03-21 | Senao Networks Inc | A motion detection device and a motion detection method |
US9191619B2 (en) * | 2012-08-01 | 2015-11-17 | Google Inc. | Using an avatar in a videoconferencing system |
CN103841358B (zh) * | 2012-11-23 | 2017-12-26 | 中兴通讯股份有限公司 | 低码流的视频会议系统及方法、发送端设备、接收端设备 |
KR101988279B1 (ko) * | 2013-01-07 | 2019-06-12 | 삼성전자 주식회사 | 얼굴 인식 기반 사용자 기능 운용 방법 및 이를 지원하는 단말기 |
TWI583198B (zh) * | 2013-04-08 | 2017-05-11 | 英特爾公司 | 使用互動化身的通訊技術 |
JP6287335B2 (ja) * | 2014-02-28 | 2018-03-07 | 株式会社リコー | 端末装置、情報処理システム、情報送信方法及びプログラム |
CA2942336A1 (en) | 2014-03-10 | 2015-09-17 | Euclid Discoveries, Llc | Continuous block tracking for temporal prediction in video encoding |
US10091507B2 (en) | 2014-03-10 | 2018-10-02 | Euclid Discoveries, Llc | Perceptual optimization for model-based video encoding |
US10097851B2 (en) | 2014-03-10 | 2018-10-09 | Euclid Discoveries, Llc | Perceptual optimization for model-based video encoding |
US9307200B2 (en) * | 2014-04-10 | 2016-04-05 | Cisco Technology, Inc. | Use of face and motion detection for best view framing in video conference endpoint |
US9830728B2 (en) | 2014-12-23 | 2017-11-28 | Intel Corporation | Augmented facial animation |
CN105263040A (zh) * | 2015-10-08 | 2016-01-20 | 安徽理工大学 | 一种节省手机流量观看球赛直播的方法 |
WO2017101094A1 (en) | 2015-12-18 | 2017-06-22 | Intel Corporation | Avatar animation system |
US10339365B2 (en) | 2016-03-31 | 2019-07-02 | Snap Inc. | Automated avatar generation |
US10432559B2 (en) | 2016-10-24 | 2019-10-01 | Snap Inc. | Generating and displaying customized avatars in electronic messages |
US10423821B2 (en) * | 2017-10-25 | 2019-09-24 | Microsoft Technology Licensing, Llc | Automated profile image generation based on scheduled video conferences |
US10600230B2 (en) | 2018-08-10 | 2020-03-24 | Sheng-Yen Lin | Mesh rendering system, mesh rendering method and non-transitory computer readable medium |
US10904488B1 (en) | 2020-02-20 | 2021-01-26 | International Business Machines Corporation | Generated realistic representation of video participants |
US11095857B1 (en) * | 2020-10-20 | 2021-08-17 | Katmai Tech Holdings LLC | Presenter mode in a three-dimensional virtual conference space, and applications thereof |
US11937014B2 (en) * | 2022-03-17 | 2024-03-19 | Lenovo (Singapore) Pte. Ltd. | Permitting devices to change settings related to outbound audio/video streamed from another device as part of video conference |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0738873A (ja) * | 1993-07-23 | 1995-02-07 | Atr Tsushin Syst Kenkyusho:Kk | 人物像の実時間認識合成方法 |
JPH07288789A (ja) * | 1994-04-15 | 1995-10-31 | Hitachi Ltd | 知的符号化装置及び画像通信装置 |
JPH08235383A (ja) * | 1995-03-01 | 1996-09-13 | Atr Tsushin Syst Kenkyusho:Kk | 3次元モデルによる動き生成装置 |
JPH08263623A (ja) * | 1995-03-20 | 1996-10-11 | Atr Tsushin Syst Kenkyusho:Kk | 可塑性物体特徴検出装置 |
WO2007007257A1 (en) * | 2005-07-13 | 2007-01-18 | Koninklijke Philips Electronics N.V. | Processing method and device with video temporal up-conversion |
Family Cites Families (159)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH082107B2 (ja) * | 1990-03-02 | 1996-01-10 | 国際電信電話株式会社 | 動画像のハイブリッド符号化方法及びその装置 |
JP2606523B2 (ja) | 1992-02-28 | 1997-05-07 | 日本ビクター株式会社 | 予測符号化装置及び復号化装置 |
US5592228A (en) | 1993-03-04 | 1997-01-07 | Kabushiki Kaisha Toshiba | Video encoder using global motion estimation and polygonal patch motion estimation |
US5710590A (en) * | 1994-04-15 | 1998-01-20 | Hitachi, Ltd. | Image signal encoding and communicating apparatus using means for extracting particular portions of an object image |
KR100235343B1 (ko) * | 1994-12-29 | 1999-12-15 | 전주범 | 영역분할 기법을 이용한 동영상신호 부호화기의 움직임 벡터 측정장치 |
KR0171151B1 (ko) * | 1995-03-20 | 1999-03-20 | 배순훈 | 곡률 계산 기법을 이용한 이미지 윤곽 근사화 장치 |
AU711488B2 (en) | 1995-09-12 | 1999-10-14 | Koninklijke Philips Electronics N.V. | Hybrid waveform and model-based encoding and decoding of image signals |
US5825929A (en) * | 1995-10-05 | 1998-10-20 | Microsoft Corporation | Transformation block optimization method |
US5774591A (en) * | 1995-12-15 | 1998-06-30 | Xerox Corporation | Apparatus and method for recognizing facial expressions and facial gestures in a sequence of images |
US5969755A (en) * | 1996-02-05 | 1999-10-19 | Texas Instruments Incorporated | Motion based event detection system and method |
US6037988A (en) | 1996-03-22 | 2000-03-14 | Microsoft Corp | Method for generating sprites for object-based coding sytems using masks and rounding average |
US6614847B1 (en) | 1996-10-25 | 2003-09-02 | Texas Instruments Incorporated | Content-based video compression |
US6088484A (en) | 1996-11-08 | 2000-07-11 | Hughes Electronics Corporation | Downloading of personalization layers for symbolically compressed objects |
US6044168A (en) | 1996-11-25 | 2000-03-28 | Texas Instruments Incorporated | Model based faced coding and decoding using feature detection and eigenface coding |
US6047088A (en) | 1996-12-16 | 2000-04-04 | Sharp Laboratories Of America, Inc. | 2D mesh geometry and motion vector compression |
US5826165A (en) | 1997-01-21 | 1998-10-20 | Hughes Electronics Corporation | Advertisement reconciliation system |
US5991447A (en) | 1997-03-07 | 1999-11-23 | General Instrument Corporation | Prediction and coding of bi-directionally predicted video object planes for interlaced digital video |
IL122194A0 (en) | 1997-11-13 | 1998-06-15 | Scidel Technologies Ltd | Method and apparatus for personalized images inserted into a video stream |
US6061400A (en) | 1997-11-20 | 2000-05-09 | Hitachi America Ltd. | Methods and apparatus for detecting scene conditions likely to cause prediction errors in reduced resolution video decoders and for using the detected information |
US6625316B1 (en) * | 1998-06-01 | 2003-09-23 | Canon Kabushiki Kaisha | Image processing apparatus and method, and image processing system |
JP3413720B2 (ja) | 1998-06-26 | 2003-06-09 | ソニー株式会社 | 画像符号化方法及び装置、並びに画像復号方法及び装置 |
US6711278B1 (en) | 1998-09-10 | 2004-03-23 | Microsoft Corporation | Tracking semantic objects in vector image sequences |
US6256423B1 (en) | 1998-09-18 | 2001-07-03 | Sarnoff Corporation | Intra-frame quantizer selection for video compression |
US7124065B2 (en) * | 1998-10-26 | 2006-10-17 | Speech Technology And Applied Research Corporation | Determining a tangent space and filtering data onto a manifold |
US6546117B1 (en) * | 1999-06-10 | 2003-04-08 | University Of Washington | Video object segmentation using active contour modelling with global relaxation |
WO2000045600A1 (en) | 1999-01-29 | 2000-08-03 | Mitsubishi Denki Kabushiki Kaisha | Method of image feature encoding and method of image search |
US6751354B2 (en) * | 1999-03-11 | 2004-06-15 | Fuji Xerox Co., Ltd | Methods and apparatuses for video segmentation, classification, and retrieval using image class statistical models |
US6774917B1 (en) * | 1999-03-11 | 2004-08-10 | Fuji Xerox Co., Ltd. | Methods and apparatuses for interactive similarity searching, retrieval, and browsing of video |
GB9909362D0 (en) | 1999-04-23 | 1999-06-16 | Pace Micro Tech Plc | Memory database system for encrypted progarmme material |
US6307964B1 (en) * | 1999-06-04 | 2001-10-23 | Mitsubishi Electric Research Laboratories, Inc. | Method for ordering image spaces to represent object shapes |
US7352386B1 (en) * | 1999-06-22 | 2008-04-01 | Microsoft Corporation | Method and apparatus for recovering a three-dimensional scene from two-dimensional images |
US6870843B1 (en) * | 1999-06-22 | 2005-03-22 | World Multicast.Com, Inc. | Self implementing multicast level escalation |
KR100611999B1 (ko) | 1999-08-27 | 2006-08-11 | 삼성전자주식회사 | 그리디 알고리듬을 이용한 객체 기반 콰드 트리 메쉬 움직임 보상방법 |
JP2001100731A (ja) | 1999-09-28 | 2001-04-13 | Toshiba Corp | オブジェクト映像表示装置 |
US6792154B1 (en) * | 1999-10-07 | 2004-09-14 | World Multicast.com, Inc | Video compression system and method using time |
US6731813B1 (en) * | 1999-10-07 | 2004-05-04 | World Multicast.Com, Inc. | Self adapting frame intervals |
DE69934605T2 (de) | 1999-11-29 | 2007-10-11 | Sony Corp. | Verfahren und Vorrichtung zur Bearbeitung von Videosignalen durch Charakteristischen Punkten Extraktion im komprimierten Bereich. |
JP3694888B2 (ja) | 1999-12-03 | 2005-09-14 | ソニー株式会社 | 復号装置および方法、符号化装置および方法、情報処理装置および方法、並びに記録媒体 |
US6738424B1 (en) * | 1999-12-27 | 2004-05-18 | Objectvideo, Inc. | Scene model generation from video for use in video processing |
US6574353B1 (en) * | 2000-02-08 | 2003-06-03 | University Of Washington | Video object tracking using a hierarchy of deformable templates |
US7054539B2 (en) | 2000-02-09 | 2006-05-30 | Canon Kabushiki Kaisha | Image processing method and apparatus |
US6661004B2 (en) * | 2000-02-24 | 2003-12-09 | Massachusetts Institute Of Technology | Image deconvolution techniques for probe scanning apparatus |
JP4443722B2 (ja) * | 2000-04-25 | 2010-03-31 | 富士通株式会社 | 画像認識装置及び方法 |
US6731799B1 (en) * | 2000-06-01 | 2004-05-04 | University Of Washington | Object segmentation with background extraction and moving boundary techniques |
US6795875B2 (en) | 2000-07-31 | 2004-09-21 | Microsoft Corporation | Arbitrating and servicing polychronous data requests in direct memory access |
US8005145B2 (en) | 2000-08-11 | 2011-08-23 | Nokia Corporation | Method and apparatus for transferring video frame in telecommunication system |
FR2814312B1 (fr) * | 2000-09-07 | 2003-01-24 | France Telecom | Procede de segmentation d'une surface image video par objets elementaires |
GB2367966B (en) * | 2000-10-09 | 2003-01-15 | Motorola Inc | Method and apparatus for determining regions of interest in images and for image transmission |
JP4310916B2 (ja) * | 2000-11-08 | 2009-08-12 | コニカミノルタホールディングス株式会社 | 映像表示装置 |
JP2002182961A (ja) | 2000-12-13 | 2002-06-28 | Nec Corp | データベースの同期化システムとその同期化の方法 |
EP1518211A2 (en) * | 2000-12-22 | 2005-03-30 | Anthropics Technology Limited | Image processing system |
US20020085633A1 (en) * | 2001-01-03 | 2002-07-04 | Kim Hyun Mun | Method of performing video encoding rate control |
US7061483B2 (en) * | 2001-02-08 | 2006-06-13 | California Institute Of Technology | Methods for computing barycentric coordinates generalized to irregular n-gons and applications of the same |
US6625310B2 (en) * | 2001-03-23 | 2003-09-23 | Diamondback Vision, Inc. | Video segmentation using statistical pixel modeling |
US7043058B2 (en) * | 2001-04-20 | 2006-05-09 | Avid Technology, Inc. | Correcting motion vector maps for image processing |
US20020164068A1 (en) * | 2001-05-03 | 2002-11-07 | Koninklijke Philips Electronics N.V. | Model switching in a communication system |
US6909745B1 (en) | 2001-06-05 | 2005-06-21 | At&T Corp. | Content adaptive video encoder |
US6496217B1 (en) | 2001-06-12 | 2002-12-17 | Koninklijke Philips Electronics N.V. | Video communication system using model-based coding and prioritzation techniques |
US7003039B2 (en) | 2001-07-18 | 2006-02-21 | Avideh Zakhor | Dictionary generation method for video and image compression |
US7173925B1 (en) | 2001-07-18 | 2007-02-06 | Cisco Technology, Inc. | Method and system of control signaling for a wireless access network |
US7457359B2 (en) | 2001-09-26 | 2008-11-25 | Mabey Danny L | Systems, devices and methods for securely distributing highly-compressed multimedia content |
GB2382289B (en) * | 2001-09-28 | 2005-07-06 | Canon Kk | Method and apparatus for generating models of individuals |
EP1309181A1 (en) | 2001-11-06 | 2003-05-07 | Thomson Licensing S.A. | Device, method and system for multimedia content adaption |
US7130446B2 (en) * | 2001-12-03 | 2006-10-31 | Microsoft Corporation | Automatic detection and tracking of multiple individuals using multiple cues |
US20030122966A1 (en) * | 2001-12-06 | 2003-07-03 | Digeo, Inc. | System and method for meta data distribution to customize media content playback |
US7673136B2 (en) * | 2002-02-26 | 2010-03-02 | Stewart Ian A | Method for secure multicast repeating on the public Internet |
JP2003253190A (ja) | 2002-03-06 | 2003-09-10 | Kansai Paint Co Ltd | 缶内面用水性塗料組成物 |
US6950123B2 (en) * | 2002-03-22 | 2005-09-27 | Intel Corporation | Method for simultaneous visual tracking of multiple bodies in a closed structured environment |
US7136505B2 (en) * | 2002-04-10 | 2006-11-14 | National Instruments Corporation | Generating a curve matching mapping operator by analyzing objects of interest and background information |
US7203356B2 (en) * | 2002-04-11 | 2007-04-10 | Canesta, Inc. | Subject segmentation and tracking using 3D sensing technology for video compression in multimedia applications |
KR100491530B1 (ko) | 2002-05-03 | 2005-05-27 | 엘지전자 주식회사 | 모션 벡터 결정 방법 |
US7505604B2 (en) | 2002-05-20 | 2009-03-17 | Simmonds Precision Prodcuts, Inc. | Method for detection and recognition of fog presence within an aircraft compartment using video images |
US8752197B2 (en) | 2002-06-18 | 2014-06-10 | International Business Machines Corporation | Application independent system, method, and architecture for privacy protection, enhancement, control, and accountability in imaging service systems |
WO2004004320A1 (en) * | 2002-07-01 | 2004-01-08 | The Regents Of The University Of California | Digital processing of video images |
JP3984191B2 (ja) | 2002-07-08 | 2007-10-03 | 株式会社東芝 | 仮想化粧装置及びその方法 |
US7031499B2 (en) * | 2002-07-22 | 2006-04-18 | Mitsubishi Electric Research Laboratories, Inc. | Object recognition system |
US6925122B2 (en) * | 2002-07-25 | 2005-08-02 | National Research Council | Method for video-based nose location tracking and hands-free computer input devices based thereon |
JP2004356747A (ja) | 2003-05-27 | 2004-12-16 | Kddi Corp | 画像のマッチング方法および装置 |
EP1387588A2 (en) | 2002-08-02 | 2004-02-04 | KDDI Corporation | Image matching device and method for motion estimation |
US7120626B2 (en) * | 2002-11-15 | 2006-10-10 | Koninklijke Philips Electronics N.V. | Content retrieval based on semantic association |
KR100455294B1 (ko) | 2002-12-06 | 2004-11-06 | 삼성전자주식회사 | 감시 시스템에서의 사용자 검출 방법, 움직임 검출 방법및 사용자 검출 장치 |
AU2003303499A1 (en) | 2002-12-26 | 2004-07-29 | The Trustees Of Columbia University In The City Of New York | Ordered data compression system and methods |
US7003117B2 (en) | 2003-02-05 | 2006-02-21 | Voltage Security, Inc. | Identity-based encryption system for secure data distribution |
US7606305B1 (en) | 2003-02-24 | 2009-10-20 | Vixs Systems, Inc. | Method and system for transcoding video data |
FR2852773A1 (fr) | 2003-03-20 | 2004-09-24 | France Telecom | Procedes et dispositifs de codage et de decodage d'une sequence d'images par decomposition mouvement/texture et codage par ondelettes |
US7574406B2 (en) * | 2003-03-31 | 2009-08-11 | Satyam Computer Services Limited Of Mayfair Centre | System and method maximizing video license utilization using billboard services |
US7184073B2 (en) * | 2003-04-11 | 2007-02-27 | Satyam Computer Services Limited Of Mayfair Centre | System and method for warning drivers based on road curvature |
US7424164B2 (en) * | 2003-04-21 | 2008-09-09 | Hewlett-Packard Development Company, L.P. | Processing a detected eye of an image to provide visual enhancement |
US7956889B2 (en) * | 2003-06-04 | 2011-06-07 | Model Software Corporation | Video surveillance system |
WO2005005602A2 (en) | 2003-06-13 | 2005-01-20 | Paradigm Genetics, Inc. | Methods for the identification of inhibitors of fumarate reductase and vacuolar protein sorting-associated protein as antibiotics |
US7415527B2 (en) * | 2003-06-13 | 2008-08-19 | Satyam Computer Services Limited Of Mayfair Centre | System and method for piecewise streaming of video using a dedicated overlay network |
US7603022B2 (en) | 2003-07-02 | 2009-10-13 | Macrovision Corporation | Networked personal video recording system |
US7296030B2 (en) | 2003-07-17 | 2007-11-13 | At&T Corp. | Method and apparatus for windowing in entropy encoding |
US7383180B2 (en) | 2003-07-18 | 2008-06-03 | Microsoft Corporation | Constant bitrate media encoding techniques |
KR100682889B1 (ko) * | 2003-08-29 | 2007-02-15 | 삼성전자주식회사 | 영상에 기반한 사실감 있는 3차원 얼굴 모델링 방법 및 장치 |
KR20050040712A (ko) | 2003-10-28 | 2005-05-03 | 삼성전자주식회사 | 명령어 기반 그래픽 출력 가속 기능이 포함된 2차원그래픽 디코더, 그 그래픽 출력 가속 방법 및 영상 재생장치 |
AU2003304675A1 (en) * | 2003-12-04 | 2005-06-24 | Telefonaktiebolaget Lm Ericsson (Publ) | Video application node |
US7535515B2 (en) | 2003-12-23 | 2009-05-19 | Ravi Ananthapur Bacche | Motion detection in video signals |
WO2005081178A1 (en) | 2004-02-17 | 2005-09-01 | Yeda Research & Development Co., Ltd. | Method and apparatus for matching portions of input images |
US7447331B2 (en) | 2004-02-24 | 2008-11-04 | International Business Machines Corporation | System and method for generating a viewable video index for low bandwidth applications |
WO2006002299A2 (en) | 2004-06-22 | 2006-01-05 | Sarnoff Corporation | Method and apparatus for recognizing 3-d objects |
US8902971B2 (en) | 2004-07-30 | 2014-12-02 | Euclid Discoveries, Llc | Video compression repository and model reuse |
US7436981B2 (en) * | 2005-01-28 | 2008-10-14 | Euclid Discoveries, Llc | Apparatus and method for processing video data |
US9743078B2 (en) | 2004-07-30 | 2017-08-22 | Euclid Discoveries, Llc | Standards-compliant model-based video encoding and decoding |
US9578345B2 (en) | 2005-03-31 | 2017-02-21 | Euclid Discoveries, Llc | Model-based video encoding and decoding |
CN101036150B (zh) | 2004-07-30 | 2010-06-09 | 欧几里得发现有限责任公司 | 用来处理视频数据的装置和方法 |
US7508990B2 (en) * | 2004-07-30 | 2009-03-24 | Euclid Discoveries, Llc | Apparatus and method for processing video data |
US7457472B2 (en) * | 2005-03-31 | 2008-11-25 | Euclid Discoveries, Llc | Apparatus and method for processing video data |
US7457435B2 (en) * | 2004-11-17 | 2008-11-25 | Euclid Discoveries, Llc | Apparatus and method for processing video data |
US8724891B2 (en) | 2004-08-31 | 2014-05-13 | Ramot At Tel-Aviv University Ltd. | Apparatus and methods for the detection of abnormal motion in a video stream |
JP2008514136A (ja) * | 2004-09-21 | 2008-05-01 | ユークリッド・ディスカバリーズ・エルエルシー | ビデオデータを処理する装置および方法 |
WO2006055512A2 (en) | 2004-11-17 | 2006-05-26 | Euclid Discoveries, Llc | Apparatus and method for processing video data |
WO2007044044A2 (en) | 2004-12-21 | 2007-04-19 | Sarnoff Corporation | Method and apparatus for tracking objects over a wide area using a network of stereo sensors |
US7715597B2 (en) | 2004-12-29 | 2010-05-11 | Fotonation Ireland Limited | Method and component for image recognition |
EP1846892A4 (en) | 2005-01-28 | 2011-04-06 | Euclid Discoveries Llc | DEVICES AND METHODS FOR PROCESSING VIDEO DATA |
AU2006230545B2 (en) | 2005-03-31 | 2010-10-28 | Euclid Discoveries, Llc | Apparatus and method for processing video data |
US20060274949A1 (en) | 2005-06-02 | 2006-12-07 | Eastman Kodak Company | Using photographer identity to classify images |
US7672306B2 (en) * | 2005-07-18 | 2010-03-02 | Stewart Ian A | Method for secure reliable point to multi-point bi-directional communications |
WO2007018688A1 (en) | 2005-07-22 | 2007-02-15 | Thomson Licensing | Method and apparatus for weighted prediction for scalable video coding |
JP2007038873A (ja) | 2005-08-03 | 2007-02-15 | Nissan Motor Co Ltd | 車両用スライドドア装置 |
US7689021B2 (en) | 2005-08-30 | 2010-03-30 | University Of Maryland, Baltimore | Segmentation of regions in measurements of a body based on a deformable model |
CN101253775A (zh) | 2005-09-01 | 2008-08-27 | 皇家飞利浦电子股份有限公司 | 用于视频错误恢复的编解码方法及装置 |
JP4654864B2 (ja) | 2005-09-30 | 2011-03-23 | パナソニック株式会社 | プラズマディスプレイパネルの製造方法 |
US8019170B2 (en) | 2005-10-05 | 2011-09-13 | Qualcomm, Incorporated | Video frame motion-based automatic region-of-interest detection |
US20070153025A1 (en) | 2005-12-29 | 2007-07-05 | Mitchell Owen R | Method, apparatus, and system for encoding and decoding a signal on a viewable portion of a video |
US8150155B2 (en) | 2006-02-07 | 2012-04-03 | Qualcomm Incorporated | Multi-mode region-of-interest video object segmentation |
US7630522B2 (en) * | 2006-03-08 | 2009-12-08 | Microsoft Corporation | Biometric measurement using interactive display systems |
US20070248194A1 (en) | 2006-04-19 | 2007-10-25 | Wei Lu | Method of detecting a predetermined sequence in an RF signal using a combination of correlation and FFT |
WO2007146102A2 (en) | 2006-06-08 | 2007-12-21 | Euclid Discoveries, Llc | Apparatus and method for processing video data |
US20080027917A1 (en) | 2006-07-31 | 2008-01-31 | Siemens Corporate Research, Inc. | Scalable Semantic Image Search |
BRPI0622046B1 (pt) | 2006-09-30 | 2020-01-21 | Interdigital Vc Holdings Inc | método e dispositivo para codificar e decodificar camada de aprimoramento de cor para vídeo |
WO2008048499A2 (en) | 2006-10-13 | 2008-04-24 | Thomson Licensing | Reference picture list management syntax for multiple view video coding |
US8044989B2 (en) * | 2006-12-12 | 2011-10-25 | General Instrument Corporation | Mute function for video applications |
CN101595736B (zh) | 2006-12-15 | 2013-04-24 | 汤姆森特许公司 | 失真度估算 |
JP2010517427A (ja) | 2007-01-23 | 2010-05-20 | ユークリッド・ディスカバリーズ・エルエルシー | 個人向けのビデオサービスを提供するシステムおよび方法 |
CN101622874A (zh) | 2007-01-23 | 2010-01-06 | 欧几里得发现有限责任公司 | 对象存档系统和方法 |
CN101939991A (zh) | 2007-01-23 | 2011-01-05 | 欧几里得发现有限责任公司 | 用于处理图像数据的计算机方法和装置 |
JP2008235383A (ja) | 2007-03-19 | 2008-10-02 | Fuji Electric Device Technology Co Ltd | Mos型半導体装置およびその製造方法 |
KR101366242B1 (ko) | 2007-03-29 | 2014-02-20 | 삼성전자주식회사 | 움직임 모델 파라메터의 부호화, 복호화 방법 및 움직임모델 파라메터를 이용한 영상의 부호화, 복호화 방법 및장치 |
US8036464B2 (en) * | 2007-09-07 | 2011-10-11 | Satyam Computer Services Limited | System and method for automatic segmentation of ASR transcripts |
US8065293B2 (en) | 2007-10-24 | 2011-11-22 | Microsoft Corporation | Self-compacting pattern indexer: storing, indexing and accessing information in a graph-like data structure |
US8091109B2 (en) | 2007-12-18 | 2012-01-03 | At&T Intellectual Property I, Lp | Set-top box-based TV streaming and redirecting |
JP4618328B2 (ja) | 2008-05-14 | 2011-01-26 | ソニー株式会社 | 固体撮像素子およびその駆動方法並びにカメラシステム |
US8140550B2 (en) * | 2008-08-20 | 2012-03-20 | Satyam Computer Services Limited Of Mayfair Centre | System and method for bounded analysis of multimedia using multiple correlations |
US8065302B2 (en) * | 2008-08-27 | 2011-11-22 | Satyam Computer Services Limited | System and method for annotation aggregation |
US8259794B2 (en) | 2008-08-27 | 2012-09-04 | Alexander Bronstein | Method and system for encoding order and frame type selection optimization |
US8086692B2 (en) * | 2008-08-27 | 2011-12-27 | Satyam Computer Services Limited | System and method for efficient delivery in a multi-source, multi destination network |
US8090670B2 (en) * | 2008-09-19 | 2012-01-03 | Satyam Computer Services Limited | System and method for remote usage modeling |
US8392942B2 (en) | 2008-10-02 | 2013-03-05 | Sony Corporation | Multi-coded content substitution |
CN102172026B (zh) | 2008-10-07 | 2015-09-09 | 欧几里得发现有限责任公司 | 基于特征的视频压缩 |
US8386318B2 (en) * | 2008-12-30 | 2013-02-26 | Satyam Computer Services Ltd. | System and method for supporting peer interactions |
EP2417773A4 (en) | 2009-04-08 | 2013-05-29 | Watchitoo Inc | SYSTEM AND METHOD FOR IMAGE COMPRESSION |
US8068677B2 (en) * | 2009-08-25 | 2011-11-29 | Satyam Computer Services Limited | System and method for hierarchical image processing |
US8848802B2 (en) | 2009-09-04 | 2014-09-30 | Stmicroelectronics International N.V. | System and method for object based parametric video coding |
US20110087703A1 (en) * | 2009-10-09 | 2011-04-14 | Satyam Computer Services Limited Of Mayfair Center | System and method for deep annotation and semantic indexing of videos |
RU2542946C2 (ru) | 2009-11-19 | 2015-02-27 | Нокиа Корпорейшн | Способ и устройство для отслеживания и распознавания объектов с использованием дескрипторов, инвариантных относительно вращения |
US8290038B1 (en) | 2009-11-30 | 2012-10-16 | Google Inc. | Video coding complexity estimation |
US9313465B2 (en) | 2010-06-07 | 2016-04-12 | Thomson Licensing | Learned transform and compressive sensing for video coding |
WO2012033970A1 (en) | 2010-09-10 | 2012-03-15 | Thomson Licensing | Encoding of a picture in a video sequence by example - based data pruning using intra- frame patch similarity |
-
2008
- 2008-01-04 JP JP2009547253A patent/JP2010517427A/ja active Pending
- 2008-01-04 CN CN2012100805798A patent/CN102685441A/zh active Pending
- 2008-01-04 EP EP20080712967 patent/EP2106664A2/en not_active Withdrawn
- 2008-01-04 WO PCT/US2008/000092 patent/WO2008091485A2/en active Application Filing
- 2008-01-04 US US12/522,324 patent/US8243118B2/en active Active
- 2008-01-04 CA CA2676023A patent/CA2676023C/en not_active Expired - Fee Related
- 2008-01-04 CN CN2008800064222A patent/CN101622876B/zh not_active Expired - Fee Related
- 2008-01-08 TW TW97100677A patent/TW200841736A/zh unknown
-
2012
- 2012-07-03 US US13/541,453 patent/US8842154B2/en active Active
-
2014
- 2014-09-05 US US14/478,840 patent/US20150124045A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0738873A (ja) * | 1993-07-23 | 1995-02-07 | Atr Tsushin Syst Kenkyusho:Kk | 人物像の実時間認識合成方法 |
JPH07288789A (ja) * | 1994-04-15 | 1995-10-31 | Hitachi Ltd | 知的符号化装置及び画像通信装置 |
JPH08235383A (ja) * | 1995-03-01 | 1996-09-13 | Atr Tsushin Syst Kenkyusho:Kk | 3次元モデルによる動き生成装置 |
JPH08263623A (ja) * | 1995-03-20 | 1996-10-11 | Atr Tsushin Syst Kenkyusho:Kk | 可塑性物体特徴検出装置 |
WO2007007257A1 (en) * | 2005-07-13 | 2007-01-18 | Koninklijke Philips Electronics N.V. | Processing method and device with video temporal up-conversion |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015507272A (ja) * | 2012-01-12 | 2015-03-05 | アルカテル−ルーセント | 3dモデル・モーフィングのための方法および装置 |
KR20130130625A (ko) * | 2012-05-22 | 2013-12-02 | 커먼웰쓰 사이언티픽 앤 인더스트리알 리서치 오거니제이션 | 비디오 생성 시스템 및 방법 |
JP2013243646A (ja) * | 2012-05-22 | 2013-12-05 | Commonwealth Scientific & Industrial Research Organization | ビデオを生成するためのシステムおよび方法 |
KR101996973B1 (ko) * | 2012-05-22 | 2019-07-05 | 커먼웰쓰 사이언티픽 앤 인더스트리알 리서치 오거니제이션 | 비디오 생성 시스템 및 방법 |
Also Published As
Publication number | Publication date |
---|---|
US8842154B2 (en) | 2014-09-23 |
CA2676023A1 (en) | 2008-07-31 |
US20150124045A1 (en) | 2015-05-07 |
US20100073458A1 (en) | 2010-03-25 |
CN102685441A (zh) | 2012-09-19 |
TW200841736A (en) | 2008-10-16 |
EP2106664A2 (en) | 2009-10-07 |
CA2676023C (en) | 2015-11-17 |
WO2008091485A3 (en) | 2008-11-13 |
US20120281063A1 (en) | 2012-11-08 |
WO2008091485A2 (en) | 2008-07-31 |
CN101622876B (zh) | 2012-05-30 |
US8243118B2 (en) | 2012-08-14 |
CN101622876A (zh) | 2010-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010517427A (ja) | 個人向けのビデオサービスを提供するシステムおよび方法 | |
US11792367B2 (en) | Method and system for virtual 3D communications | |
US11570404B2 (en) | Predicting behavior changes of a participant of a 3D video conference | |
US11805157B2 (en) | Sharing content during a virtual 3D video conference | |
JP2010517426A (ja) | オブジェクトアーカイブシステムおよび方法 | |
JP2010526455A (ja) | 画像データを処理するコンピュータ方法および装置 | |
US11790535B2 (en) | Foreground and background segmentation related to a virtual three-dimensional (3D) video conference | |
US11765332B2 (en) | Virtual 3D communications with participant viewpoint adjustment | |
US11870939B2 (en) | Audio quality improvement related to a participant of a virtual three dimensional (3D) video conference | |
WO2022238908A2 (en) | Method and system for virtual 3d communications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120820 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120828 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130402 |