JP2013524357A - ビデオ・シーケンスに記録された現実エンティティのリアルタイムのクロッピングの方法 - Google Patents

ビデオ・シーケンスに記録された現実エンティティのリアルタイムのクロッピングの方法 Download PDF

Info

Publication number
JP2013524357A
JP2013524357A JP2013503153A JP2013503153A JP2013524357A JP 2013524357 A JP2013524357 A JP 2013524357A JP 2013503153 A JP2013503153 A JP 2013503153A JP 2013503153 A JP2013503153 A JP 2013503153A JP 2013524357 A JP2013524357 A JP 2013524357A
Authority
JP
Japan
Prior art keywords
body part
user
image
avatar
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2013503153A
Other languages
English (en)
Inventor
ルクレール,ブライス
マルセ,オリビア
ルプロヴォスト,ヤン
Original Assignee
アルカテル−ルーセント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アルカテル−ルーセント filed Critical アルカテル−ルーセント
Publication of JP2013524357A publication Critical patent/JP2013524357A/ja
Abandoned legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • H04N2005/2726Means for inserting a foreground image in a background image, i.e. inlay, outlay for simulating a person's appearance, e.g. hair style, glasses, clothes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Biology (AREA)
  • Processing Or Creating Images (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

現実環境で運動状態にあり、ビデオ・シーケンスに記録された現実エンティティのリアルタイムのクロッピングの方法であって、現実エンティティが仮想エンティティに関連し、その方法が、以下のステップ、すなわち、ビデオ・シーケンスからの、記録された現実エンティティを含む画像の抽出(S1、S1A)、記録された現実エンティティを含む画像を基にした、現実エンティティの尺度および/または向きの決定(S2、S2A)、仮想エンティティおよび記録された現実エンティティを、実質的に同一であるように、スケーリング、配向、かつ位置決めするのに適した変換(S3、S4、S3A、S4A)、ならびに、仮想エンティティの、現実エンティティのクロッピングされた画像での置換(S5、S6、S5A、S6A)であり、現実エンティティのクロッピングされた画像が、仮想エンティティの輪郭により境界が定められる記録された現実エンティティを含む画像の区域である置換を含む方法。

Description

本発明の1つの態様は、ビデオ・シーケンスに記録された現実エンティティをリアルタイムでクロッピングするための方法に関し、より詳細には、アバターの対応する身体部を使用する、ビデオ・シーケンスでのユーザの身体の一部のリアルタイムのクロッピングに関する。そのような方法は、特に、いわゆる仮想環境または複合現実環境でアバターをアニメーション化する仮想現実の分野で、特に、ただし排他的ではなく適用され得る。
図1は、マルチメディア・システム、例えばテレビ会議またはオンライン・ゲーミング・システムの状況での一例の仮想現実の用途を表す。マルチメディア・システム1は、データを伝送することを可能にする電気通信ネットワーク9に接続される複数のマルチメディア・デバイス3、12、14、16、およびリモート・アプリケーション・サーバ10を備える。そのようなマルチメディア・システム1では、それぞれのマルチメディア・デバイス3、12、14、16のユーザ2、11、13、15は、(図2に図示する)仮想環境で、または複合現実環境20で対話することができる。リモート・アプリケーション・サーバ10は、仮想または複合現実環境20を管理することができる。典型的には、マルチメディア・デバイス3は、プロセッサ4、メモリ5、電気通信ネットワーク9に対する接続モジュール6、表示および対話の手段7、ならびにカメラ8、例えばウェブカメラを備える。他のマルチメディア・デバイス12、14、16は、マルチメディア・デバイス3と同等であるので、より詳細には説明されない。
図2は、アバター21が進化する仮想または複合現実環境20を図示する。仮想または複合現実環境20は、ユーザ2、11、13、15が、進化、対話、および/または作業等を行うことができる世界を模倣するグラフィカル表現である。仮想または複合現実環境20では、各個のユーザ2、11、13、15は、人間の仮想グラフィカル表現を意味する、自分のアバター21により表される。上述の用途では、アバターの頭部22を、リアルタイムで、カメラ8により撮影されるユーザ2、11、13もしくは15の頭部のビデオと混合することが、または、換言すれば、ユーザ2、11、13もしくは15の頭部で、対応するアバター21の頭部22を、動的に、もしくはリアルタイムで置換することが有益である。ここでは、動的な、またはリアルタイムでとは、アバター21の頭部22上で、自分のマルチメディア・デバイス3、12、14、16の前にいるユーザ2、11、13または15の頭部の、動き、姿勢、および実際の外見を、同期的または準同期的に再現することを意味する。ここでは、ビデオは、画像のシーケンスを含む視覚または視聴覚のシーケンスを指す。
米国特許出願公開第20091202114号の文献では、第1のコンピューティング・デバイス上のリアルタイムでの複数のビデオフレーム内の顔面の特定および追跡、特定かつ追跡される顔面を表すデータの生成、ならびに、第2のコンピューティング・デバイスがアバターの身体上に顔面を表示するための、ネットワークによる第2のコンピューティング・デバイスへの顔面のデータの伝送を含む、コンピュータにより実装されるビデオキャプチャ方法を説明している。
SONOU LEEらによる文献、「CFBOXTM:superimposing 3D human face on motion picture」、PROCEEDINGS OF THE SEVENTH INTERNATIONAL CONFERENCE ON VIRTUAL SYSTEMS AND MULTIMEDIA BERKELEY、CA、USA 2001年10月25〜27日、LOS ALAMITOS、CA、USA、IEEE COMPUT.SOC、US LNKD D01:10.1109NSMM.2001.969723、2001年10月25日(2001−10−25)、644〜651頁、XP01567131 ISBN:978−0−7695−1402−4では、個人用のコマーシャル・フィルム・スタジオの一種を構成するCFBOXという製品を説明している。それは、人の顔面を、リアルタイムで、3次元の顔面形成技術を使用して、ユーザのモデル化された顔面のもので置き換える。それは、モデル化された顔面のテクスチャを人の好みに合うように変化させるための操作の特徴をさらに提案する。したがって、それによって、特注のデジタルビデオの創作が可能になる。
しかしながら、所与の時点でカメラにより取り込まれるユーザのビデオから頭部をクロッピングし、それを抽出し、次いで、アバターの頭部上に貼り付け、後の時点でそのシーケンスを繰り返すことは、困難かつ費用のかかる作業である、というのは、現実のレンダリングが求められるからである。第1に、輪郭認識アルゴリズムは、高コントラストのビデオ画像を必要とする。これは、スタジオでその場限りの照明を用いて取得され得る。他方で、これは、自宅またはオフィスビルにおいて、ウェブカメラを用いて、および/または、部屋の照明環境で、常に可能であるとは限らない。加えて、輪郭認識アルゴリズムは、プロセッサからの大きな計算能力を必要とする。一般的に言えば、この大量の計算能力は、パーソナル・コンピュータ、ラップトップ・コンピュータ、携帯情報端末(PDA)、またはスマートフォンなどの標準的なマルチメディア・デバイスに関して、現在は利用可能でない。
米国特許出願公開第20091202114号
SONOU LEEら、「CFBOXTM:superimposing 3D human face on motion picture」、PROCEEDINGS OF THE SEVENTH INTERNATIONAL CONFERENCE ON VIRTUAL SYSTEMS AND MULTIMEDIA BERKELEY、CA、USA 2001年10月25〜27日、LOS ALAMITOS、CA、USA、IEEE COMPUT.SOC、US LNKD D01:10.1109NSMM.2001.969723、2001年10月25日(2001−10−25)、644〜651頁、XP01567131 ISBN:978−0−7695−1402−4
したがって、仮想環境で没頭の感覚をもたらすための十分に高い品質によるものであり、上述の標準的なマルチメディア・デバイスを用いて実装され得る、アバターの身体の対応する一部を使用して、リアルタイムで、ビデオでのユーザの身体の一部をクロッピングするための方法が求められている。
本発明の1つの目的は、ビデオの領域をリアルタイムでクロッピングする、より詳細には、ユーザの身体部の外見を再現することが意図される、アバターの身体の対応する一部を使用することにより、リアルタイムで、ビデオでのユーザの身体の一部をクロッピングするための方法を提案することであり、方法は、
− ビデオ・シーケンスから、ユーザの記録された身体部を含む画像を抽出するステップ、
− ユーザの記録された身体部を含む画像内での、ユーザの身体部の向きおよび尺度を決定するステップ、
− アバターの身体部を、ユーザの身体部のものと大まかに同一であるように、配向かつスケーリングするステップ、ならびに、
− ユーザの記録された身体部を含む画像のクロッピングされた画像を形成するために、アバターの身体部の輪郭を使用するステップであり、クロッピングされた画像が、輪郭内に包含される、ユーザの記録された身体部を含む画像の領域に制限されるステップ
を含む。
本発明の別の実施形態によれば、現実エンティティは、ユーザの身体部であり得るものであり、仮想エンティティは、ユーザの身体部の外見を再現することが意図される、アバターの身体の対応する一部であり得るものであり、方法は、
− ビデオ・シーケンスから、ユーザの記録された身体部を含む画像を抽出するステップ、
− ユーザの身体部を含む画像から、ユーザの身体部の向きを決定するステップ、
− アバターの身体部を、ユーザの記録された身体部を含む画像のものと大まかに同一であるように、配向するステップ、
− ユーザの記録された身体部を含む画像を、それをアバターの対応する配向された身体部と位置合わせするために、並進させ、かつスケーリングするステップ、
− アバターの配向された身体部の輪郭が境界となるクロッピングされる領域が、画素の非存在または透明画素により符号化される仮想環境の画像を描画するステップ、および、
− 仮想環境の画像を、ユーザの並進かつスケーリングされた身体部を含む画像に重畳するステップ
を含む。
ユーザの記録された身体部を含む画像の向きおよび/または尺度を決定するステップは、前記画像に適用される頭部追跡機能により実行され得る。
配向かつスケーリングするステップ、輪郭を抽出するステップ、および統合するステップは、アバターの、またはユーザの身体部の、注目すべき点または領域を考慮する場合がある。
アバターの身体部は、前記アバター身体部の3次元表現であり得る。
クロッピング方法は、外見が再現されなければならないユーザの身体部によって、アバターの身体部の3次元表現をモデル化するステップからなる初期化ステップをさらに含み得る。
身体部は、ユーザの、またはアバターの頭部であり得る。
別の態様によれば、本発明は、本発明のクロッピング方法を実装するプロセッサを備えるマルチメディア・システムに関する。
さらに別の態様によれば、本発明は、マルチメディア・システムのメモリ内にロードされることが意図されるコンピュータ・プログラム製品であって、プログラムがマルチメディア・システムのプロセッサにより実行される場合は常に、本発明のクロッピング方法を実装するソフトウェア・コードの部分を含むコンピュータ・プログラム製品に関する。
本発明により、ビデオ・シーケンス内のエンティティを表す領域を効果的にクロッピングすることが可能になる。本発明により、アバターおよびビデオ・シーケンスを、リアルタイムで、仮想環境で没頭の感覚をもたらすための充分な品質によって統合することもまた可能になる。本発明の方法は、プロセッサのリソースをほとんど消費せず、グラフィック・カードに一般的に符号化される機能を使用する。したがって、それは、パーソナル・コンピュータ、ラップトップ・コンピュータ、携帯情報端末、またはスマートフォンなどの標準的なマルチメディア・デバイスを用いて実装され得る。それは、低コントラストの画像、またはウェブカメラから生じる欠陥を伴う画像を使用することができる。
他の利点が、以下の本発明の詳細な説明から明らかとなろう。
本発明は、同一の参照番号が同様の要素を指し示す添付の図での非限定的な例により図示される。
マルチメディア・システム、例えばテレビ会議またはオンライン・ゲーミング・システムの状況での一例の仮想現実の用途を表す図である。 アバターが進化する仮想または複合現実環境を図示する。 ビデオ・シーケンスに記録されたユーザの頭部のリアルタイムのクロッピングのための本発明の方法の1つの実施形態を例示する機能図である。 ビデオ・シーケンスに記録されたユーザの頭部のリアルタイムのクロッピングのための本発明の方法の1つの実施形態を例示する機能図である。 ビデオ・シーケンスに記録されたユーザの頭部のリアルタイムのクロッピングのための本発明の方法の別の実施形態を例示する機能図である。 ビデオ・シーケンスに記録されたユーザの頭部のリアルタイムのクロッピングのための本発明の方法の別の実施形態を例示する機能図である。
図3Aおよび3Bは、ビデオ・シーケンスに記録されたユーザの頭部のリアルタイムのクロッピングのための本発明の方法の1つの実施形態を例示する機能図である。
第1のステップS1の際には、所与の時点で、画像31が、ユーザのビデオ・シーケンス30から抽出される(EXTR)。ビデオ・シーケンスは、例えば、カメラ(図1を参照)により記録された画像の連続体を指す。
第2のステップS2の際には、頭部追跡機能HTFuncが、抽出された画像31に適用される。頭部追跡機能により、ユーザの頭部の尺度Eおよび向きOを決定することが可能になる。それは、顔面32のある決まった点または領域、例えば目、眉、鼻、頬、および顎の注目すべき位置を使用する。そのような頭部追跡機能は、Seeing Machinesという会社により販売されるソフトウェア・アプリケーション「faceAPI」により実装され得る。
第3のステップS3の際には、3次元のアバター頭部33が、決定された向きOおよび尺度Eに基づいて、抽出された画像の頭部のものと大まかに同一であるように、配向(ORI)かつスケーリング(ECH)される。その結果は、サイズおよび向きが、抽出された頭部の画像31にしたがう3次元のアバター頭部34である。このステップは、標準的な回転およびスケーリングのアルゴリズムを使用する。
第4のステップS4の際には、サイズおよび向きが、抽出された頭部の画像にしたがう3次元のアバター頭部34が、抽出された画像31内の頭部のように位置決めされる(POSI)。その結果は、2つの頭部が、画像と比較されて、同一に位置決めされるということである。このステップは、標準的な並進機能を使用し、並進は、目、眉、鼻、頬、および/または顎などの、顔面の注目すべき点または領域、ならびに、アバターの頭部に対して符号化される注目すべき点を考慮する。
第5のステップS5の際には、位置決めされた3次元のアバター頭部35が、平面上に投影される(PROJ)。標準設計上の投影機能、例えば変換行列が使用され得る。次に、投影された3次元のアバター頭部の輪郭36内に位置する、抽出された画像31からの画素のみが、選択(PIX SEL)かつ保存される。標準的な機能ETが使用され得る。クロッピングされた頭部画像37を形成する画素のこの選択;アバターの投影された頭部および所与の時点でのビデオ・シーケンスに起因する画像の関数。
第6のステップS6の際には、クロッピングされた頭部画像37が、仮想または複合現実環境20内で進化するアバター21の頭部22に対して、位置決め、適用、かつ置換(SUB)され得る。このようにして、アバターは、仮想環境または複合現実環境内で、大まかに同じ所与の時点で、自分のマルチメディア・デバイスの前にいるユーザの実際の頭部を特徴として持つ。この実施形態によれば、クロッピングされた頭部画像がアバターの頭部上に貼り付けられるので、アバターの要素、例えばその髪は、クロッピングされた頭部画像37により覆われる。
代替方法として、クロッピング方法が、ビデオ・シーケンスをフィルタリングするために使用され、それからユーザの顔面のみを抽出する場合、ステップS6は随意であるとみなされ得る。この場合、仮想環境または複合現実環境の画像は表示されない。
図4Aおよび4Bは、ビデオ・シーケンスに記録されたユーザの頭部のリアルタイムのクロッピングのための本発明の方法の1つの実施形態を例示する機能図である。この実施形態では、顔面に対応するアバターの頭部22の領域は、3次元のアバター頭部モデルでの特殊な形で符号化される。それは、例えば、対応する画素の非存在または透明画素であり得る。
第1のステップS1Aの際には、所与の時点で、画像31が、ユーザのビデオ・シーケンス30から抽出される(EXTR)。
第2のステップS2Aの際には、頭部追跡機能HTFuncが、抽出された画像31に適用される。頭部追跡機能により、ユーザの頭部の向きOを決定することが可能になる。それは、顔面32のある決まった点または領域、例えば目、眉、鼻、頬、および顎の注目すべき位置を使用する。そのような頭部追跡機能は、Seeing Machinesという会社により販売されるソフトウェア・アプリケーション「faceAPI」により実装され得る。
第3のステップS3Aの際には、アバター21が進化する仮想または複合現実環境20が計算され、3次元のアバター頭部33が、決定された向きOに基づいて、抽出された画像の頭部のものと大まかに同一であるように、配向される(ORI)。その結果は、向きが、抽出された頭部の画像31にしたがう3次元のアバター頭部34Aである。このステップは、標準的な回転アルゴリズムを使用する。
第4のステップS4Aの際には、ビデオ・シーケンスから抽出された画像31が、仮想または複合現実環境20での3次元のアバター頭部34Aのように、位置決め(POSI)かつスケーリング(ECH)される。その結果は、ビデオ・シーケンスから抽出された画像38、および、仮想または複合現実環境20でのアバターの頭部の位置合わせである。このステップは、標準的な並進機能を使用し、並進は、目、眉、鼻、頬、および/または顎などの、顔面の注目すべき点または領域、ならびに、アバターの頭部に対して符号化される注目すべき点を考慮する。
第5のステップS5Aの際には、アバター21が進化する仮想または複合現実環境20の画像が描画されるが、配向された顔面に対応するアバターの頭部22の領域の外側に位置する画素については、これらの画素が、顔面に対応するアバターの頭部22の領域の特殊な符号化のおかげで、および単純な投影により、容易に特定可能であるので、描画しないように配慮する。
第6のステップS6Aの際には、仮想または複合現実環境20の画像、および、ユーザの並進かつスケーリングされた頭部を含むビデオ・シーケンスから抽出された画像38が重畳される(SUP)。あるいは、配向された顔面に対応するアバターの頭部22の領域の背後にある、ユーザの並進かつスケーリングされた頭部を含むビデオ・シーケンスから抽出された画像38の画素が、アバターの配向された顔面において、最深の画素の深度で、仮想画像と一体化される。
このようにして、アバターは、仮想環境または複合現実環境内で、大まかに同じ所与の時点で、自分のマルチメディア・デバイスの前にいるユーザの実際の顔面を特徴として持つ。この実施形態によれば、アバターのクロッピングされた顔面を含む、仮想または複合現実環境20の画像が、ユーザの並進かつスケーリングされた頭部の画像38上に重畳されるようにして、アバターの要素、例えばその髪は、視認可能であり、ユーザの画像を覆う。
3次元のアバター頭部33は、3次元のデジタル・モデルから得られる。標準的なマルチメディア・デバイスに対しては、3次元のアバター頭部の向きに関係なく計算することが、高速かつ簡単である。同じことが、それを平面上に投影することに対して当てはまる。したがって、シーケンスは全体として、標準的なプロセッサを用いても、良質の結果を与える。
その後、ステップS1からS6まで、またはS1AからS6Aまでのシーケンスは、後の時点で反復され得る。
随意には、初期化ステップ(図示せず)が、シーケンスS1からS6まで、またはS1AからS6Aまでの実装の前の単一の時間に遂行され得る。初期化ステップの際には、3次元のアバター頭部が、ユーザの頭部にしたがってモデル化される。このステップは、異なる角度から撮影されたユーザの頭部の画像から、または複数の画像から、手動または自動で遂行され得る。このステップにより、本発明のリアルタイムのクロッピング方法に最もよく合うことになる3次元のアバター頭部のシルエットを精度高く識別することが可能になる。写真に基づくユーザの頭部へのアバターの適合は、例えば、Abaloneという会社により販売される「FaceShop」などのソフトウェア・アプリケーションによって実行され得る。
図およびそれらの上記の説明は、本発明を例示するものであり、それを限定するものではない。特に、本発明は、テレビ会議またはオンライン・ゲーミングに適用される特定例に関して説明されたにすぎない。それでも、本発明が、他のオンライン用途に、および一般的に言えば、ユーザの頭部をリアルタイムで再現するアバターを必要とするすべての用途、例えば、ゲーム、ディスカッション・フォーラム、ユーザ間の遠隔協調作業、手話を介して情報交換するユーザ間の対話等に拡張され得ることは、当業者には明らかである。それは、ユーザの切り離された顔面または頭部のリアルタイムの表示を必要とするすべての用途にもまた拡張され得る。
本発明は、アバター頭部およびユーザ頭部を混合する特定例を用いて説明されたにすぎない。それでも、本発明が、他の身体部、例えば任意の手足、または、口などの顔面のより特殊な一部等に拡張され得ることは、当業者には明らかである。それは、動物の身体部、または物体、または風景要素等にもまた適用される。
一部の図は、異なる機能エンティティを別個のブロックとして示すが、これは、単一のエンティティが複数の機能を遂行する、または、複数のエンティティが単一の機能を遂行する、本発明の実施形態を決して排除しない。したがって、図は、本発明の高度に概略的な例示とみなされなければならない。
特許請求の範囲での参照の記号は、決して限定的なものではない。動詞「備える・含む」は、特許請求の範囲で列挙されるもの以外の他の要素の存在を排除しない。要素の前にある単語「a」または「an」は、複数のそのような要素の存在を排除しない。

Claims (11)

  1. ビデオ・シーケンスに記録された現実環境内で動く現実エンティティのリアルタイムのクロッピングのための方法であって、前記現実エンティティが仮想エンティティに関連し、前記方法が、
    前記ビデオ・シーケンスから、前記記録された現実エンティティを含む画像を抽出するステップ(S1、S1A)、
    前記記録された現実エンティティを含む前記画像から、前記現実エンティティの尺度および/または向きを決定するステップ(S2、S2A)、
    前記仮想エンティティおよび前記記録された現実エンティティを、大まかに同一であるように、スケーリング、配向、かつ位置決めすることにより変換するステップ(S3、S4、S3A、S4A)、ならびに、
    前記仮想エンティティを、前記現実エンティティのクロッピングされた画像で置換するステップ(S5、S6、S5A、S6A)であり、前記現実エンティティの前記クロッピングされた画像が、前記仮想エンティティの輪郭が境界となる前記記録された現実エンティティを含む前記画像の領域である、置換するステップ
    を含む方法。
  2. 前記現実エンティティが、ユーザ(2)の身体部であり、仮想エンティティが、前記ユーザ(2)の身体部の外見を再現することが意図される、アバター(21)の対応する身体部(22)であり、前記方法が、
    前記ビデオ・シーケンス(30)から、前記ユーザの記録された身体部を含む画像(31)を抽出するステップ(S1)、
    前記ユーザの記録された身体部を含む前記画像(31)での、前記ユーザの身体部の向き(32)および尺度を決定するステップ(S2)、
    前記アバターの身体部(33、34)を、前記ユーザの身体部のものと大まかに同一であるように、配向かつスケーリングするステップ(S3)、ならびに、
    前記ユーザの記録された身体部を含む前記画像(31)のクロッピングされた画像(37)を形成するために、前記アバターの身体部の輪郭(36)を使用するステップ(S4、S5)であり、前記クロッピングされた画像(37)が、前記輪郭(36)内に包含される、前記ユーザの記録された身体部を含む前記画像(31)の領域に制限されるステップ
    を含む、請求項1に記載のクロッピング方法。
  3. 前記アバター(21)の前記身体部(22)を前記クロッピングされた画像(37)と統合するステップ(S6)をさらに含む、請求項2に記載のクロッピング方法。
  4. 前記現実エンティティが、ユーザ(2)の身体部であり、仮想エンティティが、前記ユーザ(2)の身体部の外見を再現することが意図される、アバター(21)の対応する身体部(22)であり、前記方法が、
    前記ビデオ・シーケンス(30)から、前記ユーザの記録された身体部を含む画像(31)を抽出するステップ(S1A)、
    前記ユーザの身体部を含む前記画像(31)から、前記ユーザの身体部の向きを決定するステップ(S2A)、
    前記アバターの身体部(33、34A)を、前記ユーザの記録された身体部を含む前記画像(31)のものと大まかに同一であるように、配向するステップ(S3A)、
    前記ユーザの記録された身体部(33、34)を含む前記画像(31)を、それを前記アバターの前記対応する配向された身体部(34A)と位置合わせするために、並進させ、かつスケーリングするステップ(S4A)、
    前記アバターの配向された身体部の輪郭が境界となるクロッピングされる領域が、画素の非存在または透明画素により符号化される仮想環境の画像を描画するステップ(S5A)、および、
    前記仮想環境の画像を、前記ユーザの並進かつスケーリングされた身体部を含む画像(38)に重畳するステップ(S6A)
    を含む、請求項1に記載のクロッピング方法。
  5. 前記ユーザの記録された身体部を含む前記画像(31)の前記向きおよび/または尺度を決定する前記ステップ(S2)が、前記画像(31)に適用される頭部追跡機能(HTFunc)により遂行される、請求項2乃至4のいずれか1項に記載のクロッピング方法。
  6. 配向かつスケーリングする前記ステップ(S3)、前記輪郭を抽出する前記ステップ(S4、S5)、および統合する前記ステップ(S6)が、前記アバターの、またはユーザの身体部の、注目すべき点または領域を考慮する、請求項2乃至5のいずれか1項に記載のクロッピング方法。
  7. 前記アバターの身体部(33、34)が、前記アバターの前記身体部の3次元表現である、請求項2乃至6のいずれか1項に記載のクロッピング方法。
  8. 外見が再現されなければならない前記ユーザの身体部にしたがって、前記アバターの身体部の3次元表現をモデル化するステップからなる初期化のステップをさらに含む、請求項2乃至7のいずれか1項に記載のクロッピング方法。
  9. 前記身体部が、前記ユーザ(2)の、または前記アバター(21)の頭部である、請求項2乃至8のいずれか1項に記載のクロッピング方法。
  10. 請求項1乃至9のいずれか1項に記載のクロッピング方法を実装するプロセッサ(4)を備えるマルチメディア・システム(1)。
  11. マルチメディア・システム(1)のメモリ(5)内にロードされることが意図されるコンピュータ・プログラム製品であって、プログラムが前記マルチメディア・システム(1)のプロセッサ(4)により実行される場合は常に、請求項1乃至9のいずれか1項に記載のクロッピング方法を実装するソフトウェア・コードの部分を含むコンピュータ・プログラム製品。
JP2013503153A 2010-04-06 2011-04-01 ビデオ・シーケンスに記録された現実エンティティのリアルタイムのクロッピングの方法 Abandoned JP2013524357A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1052567 2010-04-06
FR1052567A FR2958487A1 (fr) 2010-04-06 2010-04-06 Une methode de detourage en temps reel d'une entite reelle enregistree dans une sequence video
PCT/FR2011/050734 WO2011124830A1 (fr) 2010-04-06 2011-04-01 Une methode de detourage en temps reel d'une entite reelle enregistree dans une sequence video

Publications (1)

Publication Number Publication Date
JP2013524357A true JP2013524357A (ja) 2013-06-17

Family

ID=42670525

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013503153A Abandoned JP2013524357A (ja) 2010-04-06 2011-04-01 ビデオ・シーケンスに記録された現実エンティティのリアルタイムのクロッピングの方法

Country Status (7)

Country Link
US (1) US20130101164A1 (ja)
EP (1) EP2556660A1 (ja)
JP (1) JP2013524357A (ja)
KR (1) KR20130016318A (ja)
CN (1) CN102859991A (ja)
FR (1) FR2958487A1 (ja)
WO (1) WO2011124830A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020087428A (ja) * 2019-07-17 2020-06-04 株式会社ドワンゴ 動画合成装置、動画合成方法及び動画合成プログラム
JP2022526148A (ja) * 2019-09-18 2022-05-23 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド ビデオ生成方法、装置、電子機器及びコンピュータ記憶媒体

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI439960B (zh) 2010-04-07 2014-06-01 Apple Inc 虛擬使用者編輯環境
US8655152B2 (en) 2012-01-31 2014-02-18 Golden Monkey Entertainment Method and system of presenting foreign films in a native language
JP6260809B2 (ja) * 2013-07-10 2018-01-17 ソニー株式会社 ディスプレイ装置、情報処理方法、及び、プログラム
CN104424624B (zh) * 2013-08-28 2018-04-10 中兴通讯股份有限公司 一种图像合成的优化方法及装置
US20150339024A1 (en) * 2014-05-21 2015-11-26 Aniya's Production Company Device and Method For Transmitting Information
TWI526992B (zh) * 2015-01-21 2016-03-21 國立清華大學 擴充實境中基於深度攝影機之遮蔽效果優化方法
EP3327661A4 (en) * 2015-07-21 2019-04-10 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM
CN105894585A (zh) * 2016-04-28 2016-08-24 乐视控股(北京)有限公司 一种远程视频的实时播放方法及装置
CN107481323A (zh) * 2016-06-08 2017-12-15 创意点子数位股份有限公司 混合实境的互动方法及其系统
US9912860B2 (en) 2016-06-12 2018-03-06 Apple Inc. User interface for camera effects
JP6513126B2 (ja) * 2017-05-16 2019-05-15 キヤノン株式会社 表示制御装置とその制御方法及びプログラム
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
KR20240024351A (ko) * 2018-05-07 2024-02-23 애플 인크. 크리에이티브 카메라
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
JP7073238B2 (ja) * 2018-05-07 2022-05-23 アップル インコーポレイテッド クリエイティブカメラ
DK180212B1 (en) 2018-05-07 2020-08-19 Apple Inc USER INTERFACE FOR CREATING AVATAR
DK201870623A1 (en) 2018-09-11 2020-04-15 Apple Inc. USER INTERFACES FOR SIMULATED DEPTH EFFECTS
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US10645294B1 (en) 2019-05-06 2020-05-05 Apple Inc. User interfaces for capturing and managing visual media
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
US11107261B2 (en) 2019-01-18 2021-08-31 Apple Inc. Virtual avatar animation based on facial feature movement
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
CN112312195B (zh) * 2019-07-25 2022-08-26 腾讯科技(深圳)有限公司 视频中植入多媒体信息的方法、装置、计算机设备及存储介质
US11921998B2 (en) 2020-05-11 2024-03-05 Apple Inc. Editing features of an avatar
DK181103B1 (en) 2020-05-11 2022-12-15 Apple Inc User interfaces related to time
US11054973B1 (en) 2020-06-01 2021-07-06 Apple Inc. User interfaces for managing media
US11212449B1 (en) 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
US11354872B2 (en) 2020-11-11 2022-06-07 Snap Inc. Using portrait images in augmented reality components
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media
US11776190B2 (en) 2021-06-04 2023-10-03 Apple Inc. Techniques for managing an avatar on a lock screen

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0165497B1 (ko) * 1995-01-20 1999-03-20 김광호 블럭화현상 제거를 위한 후처리장치 및 그 방법
US6400374B2 (en) * 1996-09-18 2002-06-04 Eyematic Interfaces, Inc. Video superposition system and method
WO1999060522A1 (en) * 1998-05-19 1999-11-25 Sony Computer Entertainment Inc. Image processing apparatus and method, and providing medium
US7227976B1 (en) * 2002-07-08 2007-06-05 Videomining Corporation Method and system for real-time facial image enhancement
US6919892B1 (en) * 2002-08-14 2005-07-19 Avaworks, Incorporated Photo realistic talking head creation system and method
CA2654960A1 (en) * 2006-04-10 2008-12-24 Avaworks Incorporated Do-it-yourself photo realistic talking head creation system and method
US20080295035A1 (en) * 2007-05-25 2008-11-27 Nokia Corporation Projection of visual elements and graphical elements in a 3D UI
EP2263190A2 (en) * 2008-02-13 2010-12-22 Ubisoft Entertainment S.A. Live-action image capture
US20090241039A1 (en) * 2008-03-19 2009-09-24 Leonardo William Estevez System and method for avatar viewing
EP2113881A1 (en) * 2008-04-29 2009-11-04 Holiton Limited Image producing method and device
US7953255B2 (en) * 2008-05-01 2011-05-31 At&T Intellectual Property I, L.P. Avatars in social interactive television
US20110035264A1 (en) * 2009-08-04 2011-02-10 Zaloom George B System for collectable medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020087428A (ja) * 2019-07-17 2020-06-04 株式会社ドワンゴ 動画合成装置、動画合成方法及び動画合成プログラム
JP7241628B2 (ja) 2019-07-17 2023-03-17 株式会社ドワンゴ 動画合成装置、動画合成方法、および動画合成プログラム
JP2022526148A (ja) * 2019-09-18 2022-05-23 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド ビデオ生成方法、装置、電子機器及びコンピュータ記憶媒体

Also Published As

Publication number Publication date
EP2556660A1 (fr) 2013-02-13
CN102859991A (zh) 2013-01-02
KR20130016318A (ko) 2013-02-14
FR2958487A1 (fr) 2011-10-07
WO2011124830A1 (fr) 2011-10-13
US20130101164A1 (en) 2013-04-25

Similar Documents

Publication Publication Date Title
JP2013524357A (ja) ビデオ・シーケンスに記録された現実エンティティのリアルタイムのクロッピングの方法
JP6644833B2 (ja) アルベドモデルにより拡張現実コンテンツをレンダリングするシステムおよび方法
US10684467B2 (en) Image processing for head mounted display devices
CN112150638A (zh) 虚拟对象形象合成方法、装置、电子设备和存储介质
US9654734B1 (en) Virtual conference room
US9196074B1 (en) Refining facial animation models
Blanz et al. Reanimating faces in images and video
US9030486B2 (en) System and method for low bandwidth image transmission
US20180158246A1 (en) Method and system of providing user facial displays in virtual or augmented reality for face occluding head mounted displays
WO2021252092A1 (en) Computing images of head mounted display wearer
US11888909B2 (en) Avatar information protection
CN109671141B (zh) 图像的渲染方法和装置、存储介质、电子装置
US8854376B1 (en) Generating animation from actor performance
EP3980974A1 (en) Single image-based real-time body animation
CN111368137A (zh) 视频的生成方法、装置、电子设备及可读存储介质
US20190080510A1 (en) Creating a synthetic model with organic veracity
US11928778B2 (en) Method for human body model reconstruction and reconstruction system
KR102353556B1 (ko) 사용자 얼굴기반 표정 및 포즈 재현 아바타 생성장치
CN112348937A (zh) 人脸图像处理方法及电子设备
US20160086365A1 (en) Systems and methods for the conversion of images into personalized animations
US20230024396A1 (en) A method for capturing and displaying a video stream
US20230105064A1 (en) System and method for rendering virtual reality interactions
JP2006107145A (ja) 顔形状モデリングシステムおよび顔形状モデリング方法
US11282282B2 (en) Virtual and physical reality integration
CN112714337A (zh) 视频处理方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20130612