JP7212067B2 - 画像合成方法及び装置 - Google Patents

画像合成方法及び装置 Download PDF

Info

Publication number
JP7212067B2
JP7212067B2 JP2020562619A JP2020562619A JP7212067B2 JP 7212067 B2 JP7212067 B2 JP 7212067B2 JP 2020562619 A JP2020562619 A JP 2020562619A JP 2020562619 A JP2020562619 A JP 2020562619A JP 7212067 B2 JP7212067 B2 JP 7212067B2
Authority
JP
Japan
Prior art keywords
hand
resort
image
virtual object
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020562619A
Other languages
English (en)
Other versions
JP2021521559A (ja
Inventor
楊輝
王沈▲たお▼
胡博遠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Microlive Vision Technology Co Ltd
Original Assignee
Beijing Microlive Vision Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Microlive Vision Technology Co Ltd filed Critical Beijing Microlive Vision Technology Co Ltd
Publication of JP2021521559A publication Critical patent/JP2021521559A/ja
Application granted granted Critical
Publication of JP7212067B2 publication Critical patent/JP7212067B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

(関連出願の引用)
本願は、2018年8月24日に出願され、発明の名称が「画像合成方法と装置」であり、かつ出願番号が201810974975.2である中国特許出願を引用し、その中国特許出願の内容を本出願に組み込む。
本発明は、画像処理分野に属し、特に、画像合成方法、装置、電子装置およびコンピュータ読み取り可能な記憶媒体(computer-readable storage medium)に関するものである。
コンピューター技術の発展に伴い、インテリジェント端末(intelligent terminal)の応用範囲がますます広くなっている。例えば、インテリジェント端末により、音楽を聞き、ゲームをし、オンラインチャットをし、写真を撮ることができる。インテリジェント端末のカメラ技術の発展に伴い、そのピクセルは千万以上になり、高いアーティキュレーションを獲得し、プロフェッショナルカメラに匹敵する撮影の品質を獲得することができる。
従来のインテリジェント端末のカメラで写真を撮るとき、出荷時インテリジェント端末にインストールされる撮影ソフトにより一般の写真効果を獲得するか或いはインターネットからダウンロードしたアプリケーション(Application、APPと略称)により付加の写真効果を獲得することができる。例えば、暗い環境検出手段、ビューティーカメラ、スーパー画素等の機能を有しているAPPにより所定の効果を獲得することができる。インテリジェント端末の美顔機能は通常、皮膚カラーの調節、バッフィング、大目および小顔等の美顔方法を採用することにより、画像において認識してえた顔部に対してある程度の美顔処理をする。従来のAPPは簡単な合成手段によりマスクと顔部を一体に合成する。
しかしながら、従来の画像合成技術は、合成後のマテリアルが固定の位置に位置し、マテリアルが目標物と共に移動できず、かつマテリアルを目標物に対応させる利便性がよくないという欠点を有している。従来の画像合成技術によりマテリアルをパネルの所定の位置にしか対応させることができない。
本発明の実施例において画像合成方法を提供する。その方法は、バーチャル対象を獲得するステップと、画像センサーが採集するビデオを獲得するステップと、前記ビデオ中の手を認識することにより手の情報を獲得するステップと、前記バーチャル対象と前記手の情報に対応する画像リゾート情報を獲得するステップと、前記画像リゾート情報により前記バーチャル対象と使用者の手を合成レンダリングすることにより合成画像を形成するステップとを含む。
本発明において、前記ビデオ中の手を認識することにより手の情報を獲得するステップは、前記ビデオ中の手を認識することにより手の位置と手のキーポイントを獲得するステップを含む。
本発明において、前記バーチャル対象と前記手の情報に対応する画像リゾート情報を獲得するステップは、バーチャル対象および手のリゾート位置とリゾート順番を獲得するステップを含む。
本発明において、前記リゾート位置は手の位置と/或いは手骨格のキーポイントにより確定される。前記リゾート順番はバーチャル対象のタイプにより確定される。
本発明において、前記画像リゾート情報により前記バーチャル対象と使用者の手を合成レンダリングすることにより合成画像を形成するステップは、前記リゾート位置とリゾート順番により使用者の手とバーチャル対象をレンダリングし、合成画像を形成するステップを含む。
本発明において、前記バーチャル対象と前記手の情報に対応する画像リゾート情報を獲得するステップは、リゾートコンフィギュレーションファイルを読み取るステップと、前記リゾート情報と手の情報により前記リゾートコンフィギュレーションファイルにおいて画像リゾート情報を獲得するステップとを含む。
前記リゾート情報は、バーチャル対象がついて行く手のキーポイントの番号、バーチャル対象の収縮比例、リゾートモデル、リゾート順番のうち1個または複数個を含む。
本発明において、前記リゾートコンフィギュレーションファイルを読み取る前、リゾートコンフィギュレーションファイルを設定し、前記リゾートファイルを設定するステップを更に含む。
本発明において、前記ビデオ中の手を認識することにより手の情報を獲得するステップは、前記ビデオ中の手を認識することにより手の角度を獲得するステップを更に含む。
本発明において、前記バーチャル対象と前記手の情報に対応する画像リゾート情報を獲得するステップは、前記バーチャル対象および手のリゾート位置、リゾート角度およびリゾート順番を獲得するステップを含む。
本発明の実施例において画像合成装置を更に提供する。その装置は、バーチャル対象を獲得するバーチャル対象獲得モジュールと、画像センサーが採集するビデオを獲得するビデオ獲得モジュールと、前記ビデオ中の手を認識することにより手の情報を獲得する手認識モジュールと、前記バーチャル対象と前記手の情報に対応する画像リゾート情報を獲得するリゾート情報獲得モジュールと、前記画像リゾート情報により前記バーチャル対象と使用者の手を合成レンダリングすることにより合成画像を形成する画像合成モジュールとを含む。
本発明において、前記手認識モジュールは、前記ビデオ中の手を認識する第一認識モジュールと、手の位置と手のキーポイントを獲得する第一情報獲得モジュールとを含む。
本発明において、前記リゾート情報獲得モジュールはバーチャル対象および手のリゾート位置とリゾート順番を獲得する。
本発明において、前記リゾート位置は手の位置と/或いは手骨格のキーポイントにより確定される。前記リゾート順番はバーチャル対象のタイプにより確定される。
本発明において、前記画像合成モジュールは前記リゾート位置とリゾート順番により使用者の手とバーチャル対象をレンダリングし、合成画像を形成する。
本発明において、前記リゾート情報獲得モジュールは、リゾートコンフィギュレーションファイルを読み取る読み取りモジュールと、前記リゾート情報と手の情報により前記リゾートコンフィギュレーションファイルにおいて画像リゾート情報を獲得する第一リゾート情報獲得モジュールとを更に含む。
本発明において、前記リゾート情報は、バーチャル対象がついて行く手のキーポイントの番号、バーチャル対象の収縮比例、リゾートモデル、リゾート順番のうち1個または複数個を含む。
本発明において、前記リゾート情報獲得モジュールは、リゾートコンフィギュレーションファイルを設定し、前記リゾート情報に対して設定をする設定モジュールを含むことができる。
本発明において、前記手認識モジュールは、前記ビデオ中の手を認識する第二認識モジュールと、手の角度を獲得する第二情報獲得モジュールとを更に含む。
本発明において、前記リゾート情報獲得モジュールは、バーチャル対象および手のリゾート位置、リゾート角度およびリゾート順番を獲得する。
本発明の実施例において電子装置を更に提供する。前記電子装置は少なくとも1個の処理装置と前記少なくとも1個の処理装置と通信可能に連結される記憶装置を含む。前記記憶装置には前記少なくとも1個の処理装置により実行される指令が記憶され、前記指令が前記少なくとも1個の処理装置により実行されることにより、前記少なくとも1個の処理装置は前記画像合成方法を実行することができる。
本発明の実施例において非過渡性コンピュータ読み取り可能な記憶媒体を更に提供する。前記非過渡性コンピュータ読み取り可能な記憶媒体にはコンピュータ指令が記憶され、前記コンピュータ指令によりコンピュータは前記画像合成方法を実行することができる。
本発明の実施例において画像合成方法、装置、電子装置およびコンピュータ読み取り可能な記憶媒体を提供する。前記画像合成方法は、バーチャル対象を獲得するステップと、画像センサーが採集するビデオを獲得するステップと、前記ビデオ中の手を認識することにより手の情報を獲得するステップと、前記バーチャル対象と前記手の情報に対応する画像リゾート情報を獲得するステップと、前記画像リゾート情報により前記バーチャル対象と使用者の手を合成レンダリングすることにより合成画像を形成するステップとを含む。本発明の実施例において前記技術的事項を採用することにより、従来技術においてバーチャル対象が手の移動と連動できない問題とバーチャル対象を手に対応させる方法の利便性がよくない問題とを解決することができる。
以上、本発明の技術事項の概要を説明してきた。本発明の技術的手段をより詳細に理解し、この明細書の内容により本発明を充分に実施し、かつ本発明の前記目的、特徴および発明の効果をより容易に理解してもらうため、以下、好適な実施例と図面により本発明を詳細に説明する。
本発明の実施例または従来技術の技術事項をより詳細に説明するため、以下、本発明の実施例または従来技術において用いる図面を簡単に説明する。注意されたいことは、下記図面は本発明の例示にしか過ぎないものであり、この技術分野の技術者は下記図面により創造的な研究をしなくもて他の図面を想到することができ、それらがあっても本発明に含まれることは勿論である。
本発明において提供する画像合成方法の第一実施例を示す流れ図である。 本発明において提供する画像合成方法の第二実施例中のステップS104を示す流れ図である。 本発明において提供する画像合成方法の具体的な実施例を示す流れ図である。 本発明において提供する画像合成方法の具体的な実施例を示す流れ図である。 本発明において提供する画像合成方法の具体的な実施例を示す流れ図である。 本発明において提供する画像合成装置の第一実施例の構造を示す図である。 本発明において提供する画像合成装置の第二実施例のレンダリング情報獲得モジュールの構造を示す図である。 本発明において提供する電子装置の構造を示す図である。 本発明において提供するコンピュータ読み取り可能な記憶媒体の構造を示す図である。 本発明において提供する画像合成端末の構造を示す図である。
以下、特定の具体的な実施例により本発明の実施形態を説明し、この技術分野の技術者はその明細書が公開する事項により本発明の利点と効果を容易に理解することができる。注意されたいことは、下記実施例は本発明の一部分の実施例にしか過ぎないものであり、本発明は下記実施例の構成にのみ限定されるものでない。異なる他の具体的な実施形態により本発明を実施するか或いは応用することもできる。観点と応用が異なる場合、本発明の要旨を逸脱しない範囲において本発明の各細部に対していろいろな変更または改良をすることができる。注意されたいことは、矛盾がない場合、下記実施例と実施例中の特徴を組み合わせることができる。本発明の実施例において、本技術分野の技術者は創造的な研究をしなくても他の実施例を想到することができ、それらがあっても本発明に含まれることは勿論である。
注意されたいことは、下記明細書において特許請求の範囲に係る実施例の各事項を説明する。周知のように、本発明において説明する事項をいろいろな方面に応用することができ、文中において説明する任意の特徴と/或いは機能は本発明の例示にしか過ぎないものである。本技術分野の技術者は本発明の事項により本発明の各実施例を独自に実施するか或いは複数の実施例において2つまたは2つ以上を組み合わせて実施することができる。例えば、本発明の任意の数量の実施例に係る装置と/或いは実施方法を自由に採用することができる。本発明において説明する1個または複数個の実施例にのみ限定されるものでなく、他の構造と/或いは機能を採用することにより本発明の装置と/或いは実施方法を実施することもできる。
注意されたいことは、本発明の実施例において提供する図面は本発明の基本的構成のみを示すものであり、図面には本発明の実施例に係るモジュールが示されているが、それらは本発明を実際に実施するときのモジュールの数量、形態およびサイズを示すものでない。本発明を実際に実施するとき、各モジュールの形態、数量および比例を自由に変化させ、各モジュールの配置もより複雑にすることができる。
下記実施例において提供する具体的な細部は本発明を徹底的に理解してもらうための実例である。本技術分野の技術者は下記具体的な細部がなくても本発明を実施することができる。
図1は本発明において提供する画像合成方法の第一実施例を示す流れ図であり、本実施例において提供する画像合成方法は所定の画像合成装置により実施されることができる。前記画像合成装置は、ソフトウェアによって実施されるか或いはソフトウェアとハードウェアの組合せによって実施されることができる。前記画像合成装置を画像処理システム中の所定の設備、例えば画像処理サーバーまたは画像処理端末装置内に設けることができる。図1に示すとおり、前記方法は下記ステップを含む。
ステップS101において、バーチャル対象を獲得する。
前記バーチャル対象は、任意の2Dまたは3Dのバーチャル対象であることができる。典型的なバーチャル対象は、例えばバーチャル宝刀、バーチャル拳銃等のバーチャル武器、バーチャル鉛筆、バーチャル本等のバーチャル文房具、バーチャル手袋、バーチャル指輪等のバーチャルウェアラブル装置等であることができる。本発明はバーチャル対象の種類を限定せず、使用者の手上に対応させることができる任意のバーチャル対象を本発明に引用することができる。バーチャル対象のタイプはいろいろがある。例えば、把持に適用するタイプは前記宝刀、拳銃、鉛筆があり、ウェアラブルに適用するタイプは手袋、指輪等があり、手で握ることができるタイプは本等がある。1つのバーチャル対象は1つ以上のタイプを有することができる。例えば本である場合、手で握るか或いは把持に適用することができる。
ステップS102において、画像センサーが採集する動画を獲得する。
画像センサーは画像の採集が可能な任意の装置であることができる。典型的な画像センサーは、ビデオカメラ、ウェブカム、カメラ等がある。本実施例において、前記画像センサーは携帯端末に設けられるカメラであることができる。例えばスマートフォンの前置カメラまたは後置カメラであることができる。カメラにより採集されるビデオ画像をスマートフォンの表示パネルに直接に表示することができる。前記ステップにおいて、画像センサーが撮影する画像ビデオを獲得し、次のステップにおいてその画像を認識することができる。
ステップS103において、前記ビデオ中の使用者の手を認識することにより手の情報を獲得する。
使用者の手を認識するとき、カラー特徴により手の位置を決め、手を背景から分離し、分離される手画像の特徴を選択して獲得した後それを認識する。具体的に、画像センサーによりカラー情報とカラー情報の位置情報を獲得し、前記カラー情報と予め設定される手のカラー情報を比較する。第一カラー情報を認識し、前記第一カラー情報と前記予め設定される手のカラー情報の差が第一閾値より小さいとき、前記第一カラー情報の位置情報により手の輪郭を形成する。好ましくは、周囲の輝度がカラー情報に影響を与えることを避けるため、画像センサーが採集するRGBカラースペースの画像データをHSVカラースペースにマッピングすることにより、HSVカラースペース中の情報を比較情報にする。好ましくは、HSVカラースペース中のカラー値をカラー情報にする。カラー値は輝度による影響を最小にすることができるので、輝度による影響を有効に濾過することができる。手輪郭により手の位置を大体に確定し、手のキーポイントを獲得することができる。画像において手のキーポイントを獲得し、各使用者の手輪郭のキーポイントの手画像中の対応位置座標を獲得する。すなわちキーポイントの位置を決める。その過程において、キーポイントに対応する特徴によりキーポイントの位置を決める。キーポイントを正確に表示できる画像特徴を獲得した後、画像においてその特徴を検索して比較し、画像においてキーポイントの位置を正確に確定する。キーポイントが画像を占める面積が非常に小さい(通常、その面積は数個ないし数十個の画素の大きさに対応する)ので、キーポイントに対応する特徴が画像を占める面積は非常に小さくかつ局部に位置する。現在、特徴を獲得する方法は、下記二種がある。(1)輪郭の垂直方向に沿って一次元範囲の画像特徴を獲得する。(2)キーポイントの方形区域の二次元範囲の画像特徴を獲得する。前記方法はいろいろな実施方法により実施されることができる。例えば、ASMとAAM等の方法、エネルギー関数を統計する方法、リグレッションアナリシス方法、深層学習方法、分類方法、大量獲得方法等により実施されることができる。前記方法が用いるキーポイントの個数、正確度および速度は異なっており、それらはいろいろな応用場合に適用される。同様に、他の目標物である場合、同様の原理によりその目標物を認識することができる。
手を認識した後、手の外部輪郭の外部環状により1つの多辺形を形成する。手の外接検測枠を用いる場合、前記手の代わりに前記外接検測枠を用いることができる。前記外接検測枠が矩形である例において、手のキーポイントを認識した後、手の幅が一番大きい個所の幅と長さが一番大きい個所の長さを測定し、その幅と長さにより手の外接検測枠を認識する。手の幅が一番大きい個所の幅と長さが一番大きい個所の長さを測定する1つの方法は次のとおりである。手の辺縁のキーポイントを獲得し、X座標において距離が一番大きい2つの辺縁のキーポイントのX座標の差を算出し、それを矩形の幅のサイズにし、Y座標において距離が一番大きい2つの辺縁のキーポイントのY座標の差を算出し、それを矩形の長さのサイズにする。手を拳に握るとき、外接検測枠を拳を覆うことができる最小の円形にすることができる。具体的に、外接検測枠の中心を手の位置にし、前記外接検測枠の中心点は外接検測枠の対角線の交点になることができる。前記外接検測枠の円形の円心を拳の位置にすることもできる。
手の情報は検出する手のキーポイントを更に含み、前記キーポイントの数量を自由に設定することができる。手のキーポイントは一般的に、手輪郭のキーポイントと関節のキーポイントを含み、各ポイントには固定番号がつけられる。例えば、手輪郭のキーポイント、親指関節のキーポイント、食指関節のキーポイント、中指関節のキーポイント、薬指関節のキーポイント、小指関節のキーポイントの順番に沿って、上から下へ向かって番頭をつける。典型的な応用において、前記キーポイントの数量は22個であり、各キーポイントには固定番号がつけられている。
本発明の実施例において、前記手の情報は手の角度を更に含むことができる。前記角度は手が撮影平面上に位置する角度を含むか或いは空間内に位置する角度を含むか或いはその2つの結合を含むことができる。本発明の実施例において、前記角度を外接検測枠により説明することができる。撮影平面上において、外接検測枠がX軸に相対して移動する角度を算出することができる。空間内において、外接検測枠の収縮程度を測定し、前記収縮程度と角度との間の対応関係により空間内の回転角度を確定することができる。例えば、手の平が撮影装置と対向するとき、測定される外接検測枠は最大の面積を有し、手を回転させるとき、外接検測枠の面積はだんだん減少される。面積が減少する比例と角度との間の関係が予め設定される場合、外接検測枠の面積により手の平の回転角度を算出することができる。角度の獲得方法は本実施例の方法にのみ限定されるものでなく、手の角度を確定できる方法であればいずれを本発明に用いることができる。それらの目的はいずれも、手の角度を獲得することにある。
本発明の実施例において、前記画像合成方法は、手の情報を算出する前、手の認識データに対してジッタバッファーをしかつと座標のノーマライゼーションをするステップを更に含む。前記ジッタバッファーはマルチフレームビデオ中の画像を平均し、平均された後の画像を認識される画像にし、それを本発明の手に対応させる。マルチフレームの画像中の手を認識し、手の画像に対して加重平均(The weighted average)をした後、平均して得た手の画像を認識される手にし、手の情報を計算する。それにより一部分のフレームをなくすか或いは一部分のフレームにより認識される画像がアーティキュレーションがよくない場合も、依然として、手の画像を確定しかつ手の情報を算出することができる。座標のノーマライゼーションにより座標の範囲を統一することができる。例えばカメラによって採集される手の画像の座標と表示パネルに表示される手の画像の座標とが統一されていない場合、マッピング関係により大きい座標を小さい座標にマッピングする必要がある。ジッタバッファーとノーマライゼーションにより手の情報を獲得することができる。
ステップS104において、前記バーチャル対象と前記手の情報に対応する画像リゾート情報を獲得する。
前記ステップにおいて、前記画像リゾート情報は少なくとも、バーチャル対象と手のリゾート位置およびリゾート順番を含む。前記リゾート位置はバーチャル対象のリゾート位置と手のリゾート位置を含み、手のリゾート位置は手の認識位置に位置し、バーチャル対象のリゾート位置は手のリゾート位置と係っている。例えば、手の位置はステップS103の外接検測枠の中心点により確定し、バーチャル対象のリゾート位置は外接検測枠の中心点と直接に重畳することができる。そのときバーチャル対象の中心位置と外接検測枠の中心点は重畳する。前記バーチャル対象のリゾート位置は前記中心点と一定の位置関係を有することもできる。例えば、前記バーチャル対象のリゾート位置は前記中心点はY軸の正方向に1つの長さの単位移動する位置に位置する。前記長さの単位はカスタマイズの長さの単位であることができる。例えば1つの長さの単位は1cm等であることができるが、本発明はそれを限定しない。一定の位置関係を有していることによりバーチャル対象のリゾート位置を確定し、手とバーチャル対象をどこに表示する問題を解決することができる。リゾート位置をより正確にするため、手のキーポイントを追加することができる。そのとき、バーチャル対象が手の所定のキーポイントに対応するようにすることができる。本発明の実施例において、リゾート位置上に3点を設け、その3点を手上の3個のキーポイントに対応させることができる。その対応関係によりバーチャル対象のリゾート位置を確定することができる。
前記リゾート順番によりバーチャル対象と手の表示関係が決められる。ある場合、バーチャル対象と手が相手を遮る問題が生ずるおそれがある。例えば、手で宝刀を握っているとき握られる宝刀の一部分を手で遮る必要があり、手袋をはめるとき手袋で手を覆う必要がある。その場合、使用者の手をレンダリングした後バーチャル対象を再びレンダリングする必要がある。それによりバーチャル対象で手を覆う。例えば手袋をはめている場合である。ある場合、まずバーチャル対象をレンダリングした後、手をレンダリングすることにより手でバーチャル対象を覆う。例えば手で宝刀を握る場合である。リゾート順番はバーチャル対象のタイプと関連し、バーチャル対象の区域のレイヤーを予め設定することができる。例えば宝刀の柄を下部レイヤーに設け、手袋を永遠に上部レイヤーに設けることができる。
本発明の実施例において、前記ステップS103において獲得する手の情報は手の角度情報を含む。そのとき獲得した画像リゾート情報はリゾート角度を更に含み、レンダリングされる手とバーチャル対象の角度を決定することにより、バーチャル対象が手の角度の変化により変化するようにする。例えば、手でバーチャル宝刀を握りかつ手を上げて振るとき、手の角度が変化することにより宝刀の角度が変化する。
ステップS105において、前記画像リゾート情報により前記バーチャル対象と使用者の手を合成レンダリングすることにより合成画像を形成する。
前記実施例において、ステップS104において獲得したリゾート情報により、ステップS101において獲得したバーチャル対象とステップS103において認識した使用者の手を合成レンダリングすることにより合成画像を形成する。
本発明の具体的な実施例において、ステップS104において獲得したリゾート位置により手のリゾート位置とバーチャル対象のリゾート位置を獲得することができる。ステップS104中のリゾート角度情報により手のリゾート角度とバーチャル対象のリゾート角度を獲得する。前記ステップS104中のリゾート順番により手とバーチャル対象をレンダリングし、手とバーチャル対象の合成画像を形成する。
本発明の実施例において画像合成方法、装置、電子装置およびコンピュータ読み取り可能な記憶媒体を提供する。前記画像合成方法は、バーチャル対象を獲得するステップと、画像センサーが採集するビデオを獲得するステップと、前記ビデオ中の手を認識することにより手の情報を獲得するステップと、前記バーチャル対象と前記手の情報に対応する画像リゾート情報を獲得するステップと、前記画像リゾート情報により前記バーチャル対象と使用者の手を合成レンダリングすることにより合成画像を形成するステップとを含む。本発明の実施例において手の情報を獲得することにより画像のリゾート情報を獲得する。それによりリゾート情報と手を関連させ、従来技術においてバーチャル対象が手の移動と連動できない問題とバーチャル対象を手に対応させる方法の利便性がよくない技術的問題とを解決することができる。
図2aに示すとおり、本発明の画像合成方法の他の実施例において、前記バーチャル対象と前記手の情報に対応する画像リゾート情報を獲得する前記ステップS104は下記ステップを含む。
ステップS201において、リゾートコンフィギュレーションファイルを読み取る。
ステップS202において、前記リゾート情報と手の情報により前記リゾートコンフィギュレーションファイルにおいて画像リゾート情報を獲得する。
本実施例において、前記リゾートコンフィギュレーションファイルにはフレームシーケンスのセーブパスが記憶され、ステップS101においてバーチャル対象の名称またはID獲得し、前記名称またはIDによりリゾートコンフィギュレーションファイルにおいてバーチャル対象のフレームシーケンスを獲得し、すべてのフレームシーケンスにより1つのバーチャル対象を構成することができる。具体的に、リゾートコンフィギュレーションファイルにおいてパラメーター“range”:[idx_start, idx_end]を設定することができる。それはファイルのリストにおいてidx_startから始まり、idx_endで終わる連続ファイルを指し、前記フレームシーケンスを構成する。パラメーター“idx”:[idx0,idx1,……]を設定することもできる。それはファイルのリストにおいて第idx0個目、第idx1個目、……等のファイルを指し、順番により前記フレームシーケンスを構成する。
前記リゾートコンフィギュレーションファイルはバーチャル対象の位置のアソシエーションパラメーターを更に含み、前記アソシエーションパラメーターはフレームシーケンスがどの手のキーポイントに関連しているかを指し、すべてのキーポイントに関連すると黙認するか或いは複数個のキーポイントに関連すると設定することができる。アソシエーションパラメーターだでなく、リゾートコンフィギュレーションファイルはバーチャル対象とキーポイントの位置のアソシエーションパラメーター“point”を更に含むことができる。“point”には2組の関連ポイントが含み、“point0”は第一組の関連ポイントを含み、“point1”は第二組の関連ポイントを含むことができる。各組の関連ポイントにおいて、“point”はcameraのアンカーポイントの位置を指し、複数組のキーポイントおよびそのウエートにより加重平均をすることによりそれを獲得することができる。“idx”文字はキーポイントの順番を指し、検測枠が含まれる手の場合、“topleft”、“topright”、“bottomleft”、“bottomright”を更に用いることができ、それらはそれぞれ手の外接検測枠の4個の隅(または前のパネルの4個の隅)に対応する。例えば、バーチャル対象が手の4個のキーポイントに従うように設け、4個のキーポイントはそれぞれ、9号、10号、11号および12号のキーポイントであることができる。各キーポイントのウエートは0.25であり、各キーポイントの座標はそれぞれ、(X9、Y9)、(X10、Y10)、(X11、Y11)、(X12、Y12)である。その場合、バーチャル対象が従うアンカーポイントのX軸座標はXa=X9*0.25+X10*0.25+X11*0.25+X12*0.25であり、アンカーポイントのX軸座標はYa=Y9*0.25+Y10*0.25+Y11*0.25+Y12*0.25である。注意されたいことは、“point”は任意の一組の関連ポイントを含むことができるが、本発明は二組にのみ限定されるものでない。前記具体的な実施例において、2個のアンカーポイントを獲得し、バーチャル対象が2個のアンカーポイントに従うことによりその位置は変化することができる。実施の応用において、アンカーポイントは2個だけでなく、その数量は関連ポイントの組数に係っている。各キーポイントの座標はステップS103において獲得した手の情報により獲得することができる。
前記リゾートコンフィギュレーションファイルはバーチャル対象の収縮程度とキーポイントの関係を更に含むことができ、パラメーター“scaleX”と“scaleY”によりxとy方向の収縮程度をそれぞれ説明する。各方向はいずれも、2個のパラメーター“start_idx”と“end_idx”を含み、それらは2個のキーポイントに対応し、2個のキーポイントの間の距離に“factor”をかけることにより収縮の強度を獲得する。factorは予め設定される値であり、それは任意の値であることができる。収縮において、“position”に一組の関連ポイント“point0”のみが含まれていると、x方向は水平方向において右へ向かう方向を指し、y方向は垂直方向において下へ向かう方向を指す。“scaleX”と“scaleY”はいずれも有効になり、そのうち1つがなくなってしまうと、既存の前記パラメーターによりバーチャル対象の最初の長さと幅の比例を確保しながら収縮をする。“position”に“point0”と“point1”が含まているとき、x方向はpoint1.anchor-point0.anchorでありかつベクトル方向を獲得することができる。y方向はx方向をクロックワイズに90度回転することにより確定される。“scaleX”が無効になると、x方向の収縮はアンカーポイントの連動により決められる。“scaleY”が有効になり、“scaleX”がなくなってしまうと、バーチャル対象の最初の長さと幅の比例を確保しながら収縮をする。
前記リゾートコンフィギュレーションファイルはバーチャル対象の回転パラメーター「rotationtype」を更に含むことができ、“position”に“point0”のみが含まれているときこそ、それが有効になる。回転パラメーターは0と1を含む2つの値を含み、0は回転させる必要ないことを意味し、1はキーポイントの所定の角度により回転させる必要があることを意味する。
前記リゾートコンフィギュレーションファイルはリゾートミックストモデルを更に含むことができ、前記リゾートミックストモデルとは2種のカラーを一体に混合させることを意味する。本発明の具体的な実施例において、ある画素位置のカラーとかけようとするカラーを一体に混合させることにより特殊な効果を実現することを意味する。リゾートミックストモデルは混合させるとき用いる方法を指し、一般的な混合方法は所定のソースカラーとターゲットカラーを算出することにより混合後のカラーを獲得することを意味する。実際の応用において、ソースカラーにソースファクタを掛けてえる結果とターゲットカラーにターゲットファクタを掛けてえる結果に計算をし、混合後のカラーを獲得する。例えば、前記算出の結果はプラスであり、BLENDcolor = SRC_color*SCR_factor+DST_color*DST_factorである。その式において0≦SCR_factor≦1、0≦DST_factor≦1である。前記算出公式において、ソースカラーの4つの分量(赤色、緑色、青色、alpha値を指す)は(Rs、Gs、Bs、As)であり、ターゲットカラーの4つの分量(Rd、Gd、Bd、Ad)であり、ソースファクタは(Sr、Sg、Sb、Sa)であり、ターゲットファクタは(Dr、Dg、Db、Da)である。混合により形成される新しいカラーは(Rs*Sr+Rd*Dr、Gs*Sg+Gd*Dg、Bs*Sb+Bd*Db、As*Sa+Ad*Da)であり、alpha値は透明度を指し、0≦alpha≦である。前記混合方法は本発明の例示にしか過ぎないものであり、実際の応用において、混合方法を自分で定義するか或いは周知の混合方法を選択することができる。前記計算は、加、減、乗、除、二値において大きい値をとること、二値において小さい値を取ること、ロジカルオペレーション(And、or、different、etc等)であることができる。前記混合方法は本発明の例示にしか過ぎないものであり、実際の応用において、混合方法を自分で定義するか或いは周知の混合方法を選択することができる。前記計算は、加、減、乗、除、二値において大きい値をとること、二値において小さい値を取ること、ロジカルオペレーション(And、or、different、etc等)であることができる。
前記リゾートコンフィギュレーションファイルはリゾート順番を更に含むことができる。前記リゾート順番は2種を含み、1つはバーチャル対象のフレームシーケンスの間のリゾート順番であり、前記順番はパラメーター“zorder”により定義される。“zorder”値が小さければ小さいほど、リゾートの順番が前に向かうことを意味する。他の1つはバーチャル対象と手との間のリゾート順番であり、前記順番はいろいろな方法で確定することができる。典型的な方法において、“zorder”と類似する方法を採用することにより手のリゾートを先に設定するか或いはバーチャル対象のリゾートを先に設定することができる。本発明の実施例において、深度テスティングをする方法によりリゾート順番を確定することもできる。前記深度テスティングとは深度バッファ区域を設定することをいう。前記深度バッファ区域はカラーバッファ区域に対応し、深度バッファ区域には画素の深度情報が記憶され、カラーバッファ区域には画素のカラー情報が記憶される。物体の表面を書くかを決定するとき、まず表面に対応する深度値と深度バッファ区域に記憶される値を比較する。表面に対応する深度値が深度バッファ区域の値より大きいか或いは等しいとき、その部分を廃棄し、表面に対応する深度値が深度バッファ区域の値より小さいとき、画素に対応する深度値とカラー値により深度バッファ区域とカラーバッファ区域を更新する。その過程を深度テスティング(Depth Testing)という。ペイントシーン(Paint Scene)をする前、カラーバッファ(Color Buffer)区域を除去するとき、深度バッファ区域を除去する。深度バッファ区域を除去するとき、深度バッファ区域の値を1に設定し、その数値は最大の深度値を指す。深度値は「0、1」の間の位置し、値が小さければ小さいほど観察者に近づいていることを意味し、値が大きければ大きいほど観察者から離れていることを意味する。深度テスティングを開始するとき、深度テスティングを実施する比較関数を設定する必要がある。典型的な関数はDF_ALWAYSであり、それはいつもテストに合格する。そのときは深度テスティングをしないときと同様である。現在の画素の深度値とカラー値により深度バッファ区域とカラーバッファ区域を更新する。DF_NEVERはいつもテストに合格しない。そのとき深度バッファ区域とカラーバッファ区域の値を維持し、すべての画素を表示パネルにかかない。DF_LESSにおいて、現在の深度値<記憶される深度値であるときパスさせ、DF_EQUALにおいて、現在の深度値=記憶される深度値であるときパスさせ、DF_LEQUALにおいて、現在の深度値≦記憶される深度値であるときパスさせ、DF_GREATERにおいて、現在の深度値>記憶される深度値であるときパスさせ、DF_NOTEQUALにおいて、現在の深度値≠記憶される深度値であるときパスさせ、DF_GEQUALにおいて、現在の深度値>=記憶される深度値であるときパスさせる。深度ライティングは深度テスティングに係っている。深度テスティングを起動させ、かつ深度テスティングの結果により深度バッファ区域を更新する可能性があると、深度ライティングを起動させる必要がある。それにより深度バッファ区域の値を更新することができる。以下、深度テスティングと深度ライティングを起動させかつ画像をかく過程を例として説明する。2個のカラーブロック例えば赤色ブロックと黄色ブロックをかくとき、リゾートの配列において赤色ブロックを前に位置させ、黄色ブロックを後に位置させる。赤色ブロックの深度値は0.5であり、黄色ブロックの深度値は0.2であり、用いられる深度テスティングの比較関数はDF_LEQUALである。そのとき、深度バッファ区域には0.5が先に書き込まれ、カラーバッファ区域には赤色が書き込まれる。その後、黄色をレンダリングするとき、比較関数によって0.2<0.5という結果を獲得し、テストをパスさせることにより、深度バッファ区域の値を0.2に更新し、カラーバッファ区域を黄色に更新する。黄色の深度値が薄いので、それで深度値が深い赤色を覆う必要がある。前記法帆により手とバーチャル対象のリゾート順番を確定し、画像を合成する効果を獲得することができる。
本発明の画像合成方法はステップS201前に実施するステップS2001を更に含む。前記ステップにおいてリゾートコンフィギュレーションファイルを設定することにより前記リゾートファイル中の各パラメーターを設定する。
理解を容易にするため、図2b~2dに示される本発明の画像合成方法の具体的な実施例を参照する。図2bを参照ると、画像センサーが採集したビデオ中のビデオフレームが示されている。開始の状態において、2つの手の平が離れていることを検出すると、バーチャルレーンボーとの合成を触発させる。バーチャルレーンボーは手の食指上に対応する。手の平を移動させるとき、図2cに示すとおり右手を上へ移動させるとき、右手の食指が上へ移動することによりバーチャルレーンボーも上へ移動し、図2dに示すとおり左手を上へ移動させるとき、左手の食指が上へ移動することによりバーチャルレーンボーも上へ移動する。1つの手が上へ移動し、他の1つの手が下へ移動することもできる。そのとき、バーチャルレーンボーの両端は右手の食指にマウンテッドされ、バーチャルレーンボーの長さは両手の間の距離が変化することにより変化することができる。
図3は本発明の実施例に係る画像合成装置30の第一実施例の構造を示す図である。図3に示すとおり、前記装置は、バーチャル対象獲得モジュール31、ビデオ獲得モジュール32、手認識モジュール33、リゾート情報獲得モジュール34および画像合成モジュール35を含む。
バーチャル対象獲得モジュール31はバーチャル対象を獲得する。
ビデオ獲得モジュール32は画像センサーが採集するビデオを獲得する。
手認識モジュール33は前記ビデオ中の手を認識することにより手の情報を獲得する。
リゾート情報獲得モジュール34は前記バーチャル対象と前記手の情報に対応する画像リゾート情報を獲得する。
画像合成モジュール35は前記画像リゾート情報により前記バーチャル対象と使用者の手を合成レンダリングすることにより合成画像を形成する。
前記手認識モジュール33は第一認識モジュールと第一情報獲得モジュールを含む。
第一認識モジュールは前記ビデオ中の手を認識する。
第一情報獲得モジュールは手の位置と手のキーポイントを獲得する。
前記リゾート情報獲得モジュール34はバーチャル対象および手のリゾート位置とリゾート順番を獲得する。
前記リゾート位置は手の位置と/或いは手骨格のキーポイントにより確定される。前記リゾート順番はバーチャル対象のタイプにより確定される。
前記画像合成モジュール35は前記リゾート位置とリゾート順番により使用者の手とバーチャル対象をレンダリングし、合成画像を形成する。
前記手認識モジュール33は第二認識モジュールと第二情報獲得モジュールを含む。
第二認識モジュールは前記ビデオ中の手を認識する。
第二情報獲得モジュールは手の角度を獲得する。
前記リゾート情報獲得モジュール34は前記バーチャル対象および手のリゾート位置、リゾート角度およびリゾート順番を獲得する。
図3に示される装置により図1に示される実施例の方法を実施することができる。本実施例において説明しない部分は、図1に示される実施例の所定の説明を参照することができる。前記技術事項を実施する過程と技術的効果は図1に示される実施例の説明を参照することができるので、ここでは再び説明しない。
本発明の実施例に提供する画像合成装置の第二実施例において、図4に示すとおり、前記リゾート情報獲得モジュール34は読み取りモジュール41と第一リゾート情報獲得モジュール42を更に含む。読み取りモジュール41はリゾートコンフィギュレーションファイルを読み取る。第一リゾート情報獲得モジュール42は前記リゾート情報と手の情報により前記リゾートコンフィギュレーションファイルにおいて画像リゾート情報を獲得する。
前記実施例において、前記リゾート情報獲得モジュール34は設定モジュール43を更に含む。設定モジュール43はリゾートコンフィギュレーションファイルを設定し、前記リゾート情報に対して設定をする。
前記第二実施例中の装置により図2に示される実施例の方法を実施することができる。本実施例において説明しない部分は、図2に示される実施例の所定の説明を参照することができる。前記技術事項を実施する過程と技術的効果は図2に示される実施例の説明を参照することができるので、ここでは再び説明しない。
図5は本発明の実施例に係る電子装置のハードウェアを示すブロックダイアグラムである。図5に示すとおり、本発明の実施例に係る電子装置50は記憶装置51と処理装置52を含む。
前記記憶装置51は非過渡性コンピュータ読み取り可能な指令を記憶させる。具体的に、記憶装置51は1個または複数個のコンピュータープログラムを含み、前記コンピュータープログラムはいろいろな形態のコンピュータ読み取り可能な記憶媒体、例えば揮発性メモリーと/或いは不揮発性メモリーを含むことができる。前記揮発性メモリーは、例えば、ランダムアクセスメモリー(RAM)と/或いはキャッシュメモリー(cache)等を含むことができる。前記不揮発性メモリーは、例えば、リードオンリーメモリー(ROM)、ハードディスク、フラッシュメモリー等を含むことができる。
前記処理装置52は、中央処理ユニット(CPU)であるか或いはデータ処理機能と/或いは指令実行機能を有している他の形態の処理ユニットであり、電子装置50中の他のモジュールが所定の機能を実行することを制御することができる。本発明の実施例において、前記処理装置52は、前記記憶装置51に記憶されている前記コンピュータ読み取り可能な指令を実行することにより、前記電子装置50が本発明の実施例の画像合成方法中のすべてまたは一部分のステップを実施するようにすることができる。
本技術分野の技術者が知っているとおり、使用者の使用体験を向上させる技術的問題を解決するため、本実施例の電子装置は、通信バス、インターフェース等の周知の構造を更に含むことができ、前記周知の構造が本発明の特許請求の範囲に含まれることは勿論である。
本実施例に対する詳細な説明は前記各実施例中の所定の部分を参照することができるので、ここで再び説明しない。
図6は本発明の実施例に係るコンピュータ読み取り可能な記憶媒体を示す図である。図6に示すとおり、本発明の実施例に係るコンピュータ読み取り可能な記憶媒体60は非過渡性コンピュータ読み取り可能な指令61を記憶させる。処理装置で前記非過渡性コンピュータ読み取り可能な指令61を実行することにより、本発明の実施例に係る画像合成方法中のすべてまたは一部分のステップを実施することができる。
前記コンピュータ読み取り可能な記憶媒体60は、光記憶媒体(例えばCD-ROMとDVD)、光磁気記録媒体(例えばMO)、磁気記録媒体(例えばテープまたはポータブルハードドライブ)、内部に設けられる書き換え可能な不揮発性メモリーを具備する媒体(例えばメモリーカード)、内部にROMが設けられる媒体(例えばROM装置)を含むことができるが、本発明はそれらにのみ限定されるものでない。
本実施例に対する詳細な説明は前記各実施例中の所定の部分を参照することができるので、ここで再び説明しない。
図7は本発明の実施例に係る端末装置のハードウェアを示す構造図である。図7に示すとおり、前記画像合成端末70は前記実施例の画像合成装置を含む。
前記端末装置はいろいろな形態により実施されることができる。本発明の端末装置は、例えば携帯電話、スマートフォン、ノートパソコン、デジタル放送受信装置、PDA(携帯情報端末)、PAD(タブレット)、PMP(ポータブルメディアプレーヤー)、ナビゲーション、車用端末装置、車用表示端末、車用電子ミラー等の携帯式端末装置と、例えばデジタルTV、デスクトップコンピュータ等の非携帯式端末装置を含むことができるが、本発明はそれらにのみ限定されるものでない。
他の実施例において、前記端末装置は他のモジュールを更に含むことができる。図7に示すとおり、前記画像合成端末70は、電源ユニット71、無線通信ユニット72、A/V(オーディオ/ビデオ)入力ユニット73、使用者入力ユニット74、検出ユニット75、接続ユニット76、制御ユニット77、出力ユニット78および記憶ユニット79等を含むことができる。図7には各モジュールを具備する端末が示されている。注意されたいことは、本発明は、示されるすべてのモジュールを含むものでなく、一部分のモジュールを取り替えるか或いはより少ないモジュールを含むことができる。
無線通信ユニット72は画像合成端末70と無線通信システムまたはインターネットとの間の無線通信を実施する。入力ユニット73はオーディオまたはビデオ信号を受信する。使用者入力ユニット74は使用者が入力する命令によりキーボード入力データを形成しかつそれにより端末装置の各操作を制御する。検出ユニット75は画像合成端末70の現在の状態、画像合成端末70の位置、使用者が画像合成端末70をタッチすることの有無、画像合成端末70の傾向、画像合成端末70の加速移動または減速移動と方向等を検出し、画像合成端末70を制御して操作する指令または信号を形成する。接続ユニット76は少なくとも1個の外部装置と画像合成端末70を接続させるインターフェースになることができる。出力ユニット78は視覚、オーディオと/或いは触覚形態の出力信号を出力するように構成される。記憶ユニット79は制御ユニット77により実行されかつ処理と制御操作に関するソフトウェアプログラムを記憶させるか或いは既に出力されるか或いは間もなく出力されるデータを暫時記憶させることができる。記憶ユニット79は少なくとも1つの類型の記憶媒体を含むことができる。画像合成端末70はネットワークにより記憶ユニット79に接続されかつ記憶ユニット79の記憶機能を採用するネットワーク記憶装置と協力することができる。制御ユニット77は通常、端末装置の全体操作を制御する。制御ユニット77は、マルチメディアデータの再生またはプレーバックを制御するマルチメディアモジュールを含むことができる。制御ユニット77はモデル認識処理をすることにより、タッチパネルに入力したハンドライティングインプットまたはドローイングインプットを認識してキャラクターまたは画像を形成する。電源ユニット71は制御ユニット77の制御により外部電力または内部電力を受信しかつそれを各部品とモジュールに提供する電力を供給する。
本発明において提供する画像合成方法の各実施例は例えば、コンピュータのソフトウェア、ハードウェア、任意に組み立てられるコンピュータ読み取り可能な記憶媒体により実施されることができる。本発明において提供する画像合成方法の各実施例は、アプリケーション固有集積回路(Application Specific Integrated Circuit、ASIC)、デジタルシグナルプロセッサ(DSP)、デジタル信号処理装置(DSPD)、プログラマブルロジックデバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)、処理装置、制御装置、マイクロコントローラ、マイクロプロセッサ、本発明の機能を実施できる電子ユニットのうち少なくとも一種により実施されることができる。他の実施例において、本発明において提供する画像合成方法の各実施例は制御ユニット77により実施されることができる。ソフトウェアにより実施する場合、本発明において提供する画像合成方法の各実施例は少なくとも一種の機能または操作をする1つのソフトウェアモジュールにより実施されることができる。ソフトウェアコードは適合なプログラミングランゲージにより編集されるソフトウェアアプリケーション(プログラム)により実施されることができ、フトウェアコードは記憶ユニット79に記憶されかつ制御ユニット77により実施されることができる。
本実施例に対する詳細な説明は前記各実施例中の所定の部分を参照することができるので、ここで再び説明しない。
以上、具体的な実施例により本発明の基本的な原理を説明してきた。注意されたいことは、上で公開した本発明の利点、優勢、効果等は本発明の例示にしか過ぎないものでありかつ本発明を限定するものでなく、本発明の各実施例は前記利点、優勢、効果等を必ず具備するものでない。また、上で公開した前記具体的な細部は本発明の例示にしか過ぎないものでありかつ本発明を理解させるためのものであるが、本発明を限定するものでない。前記細部が公開されているが、本発明は前記細部のみにより実施されるものでない。
本発明の部品、装置、設備、システムを示すブロックダイアグラムは本発明の例示にしか過ぎないものであり、本発明の部品、装置、設備、システムをブロックダイアグラムの順にのみ連結、位置、配置させる意図は全然ない。本技術分野の技術者は常識により本発明の前記部品、装置、設備、システムを自由に連結、位置、配置させることができる。本発明中の「含む」、「包含する」、「具備する」という用語は開放的な用語であるので、「複数の事項を具備しているが、それらにのみ限定されるものでない」ということを意味し、その用語を交換して用いることができる。本発明において用いる「或いは」および「と」という用語は「と/或いは」ということを意味し、その用語を交換して用いることができる。特別な説明がない限り、「或いは」および「と」という用語は「と/或いは」ということを意味する。本発明において用いる「例えば」という用語は「複数の事項を具備しているが、それらにのみ限定されるものでない」ということを意味し、その事項を交換して用いることができる。
本発明において用いる「少なくとも1つ」という用語は、含まれる事項が選択可能な状態(例えば或いは、または等)に列挙されていることを意味する。例えば、「A、BまたはCのうち少なくとも1つ」という用語は、AまたはBまたはCを意味するか或いは、ABまたはABまたはBCを意味するか或いは、ABC(すなわちAとBとC)を意味することができる。また、「例示的」という用語は、それが好適な実施例または他の実施例よりよいことを意味するものでない。
注意されたいことは、本発明のシステムと方法において、各部品または各ステップを分解と/或いは再び組み合わせることができる。前記分解と/或いは再び組み合わせるシステムと方法により本発明と同様な効果を獲得することができる。
本発明の特許請求の範囲が定めた技術的範囲を逸脱しない範囲において、本発明の技術的事項を変更、交換、改良することができる。本発明の特許請求の範囲が定めた技術的範囲は、前記処理、装置、製造、事件の組合せ、手段、方法および動作に係る具体的な実施例にのみ限定されるものでない。本発明の所定の事項により同様の機能を実現するか或いは同様の結果による現在の存在を獲得するか或いは後で処理する処理、装置、製造、事件の組合せ、手段、方法および動作をすることができる。すなわち、本発明の特許請求の範囲が定めた技術的範囲内において、前記処理、装置、製造、事件の組合せ、手段、方法および動作をすることができる。
本発明が公開する前記事項により本技術分野の技術者は本発明を実施するか或いは本発明を用いることができる。本発明が定めた技術的範囲を逸脱しない限り、本技術分野の技術者は本発明が公開する事項により本発明を容易に変更し、本発明が定めた一般的な原理を他の実施例に採用することができる。本発明は、具体的な実施例にのみ限定されるものでなく、本発明の原理と新規の特徴を含むあらゆる実施例を含むことができる。
以上、本発明を説明するため前記実施例により本発明を説明してきたが、前記実施例は本発明の例示にしか過ぎないものであるため、本発明は前記実施例の構成にのみ限定されるものでない。以上、本発明の複数の例示と実施例を説明してきたが、本技術分野の技術者は本発明の要旨を逸脱しない範囲において、変更、修正、改良、添加と組合せをすることができる。

Claims (10)

  1. バーチャル対象の名称またはIDを獲得するステップと、
    画像センサーが採集するビデオを獲得するステップと、
    前記ビデオ中の手を認識することにより手の情報を獲得するステップと、
    リゾートコンフィギュレーションファイルを読み取るステップと、
    前記バーチャル対象の名称またはIDと前記手の情報により前記リゾートコンフィギュレーションファイルにおいて前記バーチャル対象と画像リゾート情報を獲得するステップであって、前記画像リゾート情報は前記バーチャル対象及び手を獲得するリゾート位置と前記バーチャル対象及び手を確定するリゾート順番を含むステップと、
    前記画像リゾート情報により前記バーチャル対象と使用者の手を合成レンダリングすることにより合成画像を形成するステップとを含み、
    使用者の手を認識するとき、カラー特徴により手の位置を決め、手を背景から分離し、分離される手画像の特徴を選択して獲得した後それを認識すること
    を特徴とする画像合成方法。
  2. 前記ビデオ中の手を認識することにより手の情報を獲得するステップは、前記ビデオ中の手を認識することにより手の位置と手のキーポイントを獲得するステップを含むことを特徴とする請求項1に記載の画像合成方法。
  3. 前記バーチャル対象と前記手の情報に対応する画像リゾート情報を獲得するステップは、バーチャル対象および手のリゾート位置とリゾート順番を獲得するステップを含み、
    前記リゾート位置はバーチャル対象のリゾート位置と前記手のリゾート位置とを含み、前記リゾート順番はバーチャル対象と手の表示関係を決めることを特徴とする請求項2に記載の画像合成方法。
  4. 前記リゾート位置は手の位置と/或いは手骨格のキーポイントにより確定され、前記リゾート順番はバーチャル対象のタイプにより確定されることを特徴とする請求項3に記載の画像合成方法。
  5. 前記画像リゾート情報により前記バーチャル対象と使用者の手を合成レンダリングすることにより合成画像を形成するステップは、前記リゾート位置とリゾート順番により使用者の手とバーチャル対象をレンダリングし、合成画像を形成するステップを含むことを特徴とする請求項4に記載の画像合成方法。
  6. 前記バーチャル対象と前記手の情報に対応する画像リゾート情報を獲得するステップは、リゾートコンフィギュレーションファイルを読み取るステップと、前記リゾート情報と手の情報により前記リゾートコンフィギュレーションファイルにおいて画像リゾート情報を獲得するステップとを含むことを特徴とする請求項1に記載の画像合成方法。
  7. 前記ビデオ中の手を認識することにより手の情報を獲得するステップは、前記ビデオ中の手を認識することにより手の角度を獲得するステップを更に含むことを特徴とする請求項2に記載の画像合成方法。
  8. バーチャル対象の名称またはIDを獲得するバーチャル対象獲得モジュールと、
    画像センサーが採集するビデオを獲得するビデオ獲得モジュールと、
    前記ビデオ中の手を認識することにより手の情報を獲得する手認識モジュールと、
    リゾートコンフィギュレーションファイルを読み取る読み取りモジュールと、
    前記バーチャル対象の名称またはIDと前記手の情報により前記リゾートコンフィギュレーションファイルにおいて前記バーチャル対象と画像リゾート情報を獲得するリゾート情報獲得モジュールであって、前記画像リゾート情報は前記バーチャル対象及び手を獲得するリゾート位置と前記バーチャル対象及び手を確定するリゾート順番を含むリゾート情報獲得モジュールと、
    前記画像リゾート情報により前記バーチャル対象と使用者の手を合成レンダリングすることにより合成画像を形成する画像合成モジュールとを含み、
    使用者の手を認識するとき、カラー特徴により手の位置を決め、手を背景から分離し、分離される手画像の特徴を選択して獲得した後それを認識することを特徴とする画像合成装置。
  9. 非過渡性コンピュータ読み取り可能な指令を記憶させる記憶装置と、
    前記コンピュータ読み取り可能な指令を実行することにより請求項1~7のうちいずれか一項に記載の画像合成方法を実施することを特徴とする電子装置。
  10. 非過渡性コンピュータ読み取り可能な指令を記憶させるコンピュータ読み取り可能な記憶媒体であって、前記非過渡性コンピュータ読み取り可能な指令がコンピュータにより実行されることにより請求項1~7のうちいずれか一項に記載の画像合成方法を実施することを特徴とするコンピュータ読み取り可能な記憶媒体。
JP2020562619A 2018-08-24 2018-12-25 画像合成方法及び装置 Active JP7212067B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201810974975.2 2018-08-24
CN201810974975.2A CN110072046B (zh) 2018-08-24 2018-08-24 图像合成方法和装置
PCT/CN2018/123647 WO2020037923A1 (zh) 2018-08-24 2018-12-25 图像合成方法和装置

Publications (2)

Publication Number Publication Date
JP2021521559A JP2021521559A (ja) 2021-08-26
JP7212067B2 true JP7212067B2 (ja) 2023-01-24

Family

ID=67365816

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020562619A Active JP7212067B2 (ja) 2018-08-24 2018-12-25 画像合成方法及び装置

Country Status (5)

Country Link
US (1) US11308655B2 (ja)
JP (1) JP7212067B2 (ja)
CN (1) CN110072046B (ja)
GB (1) GB2590286B (ja)
WO (1) WO2020037923A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108882025B (zh) * 2018-08-07 2019-12-10 北京字节跳动网络技术有限公司 视频帧处理方法和装置
CN112449210A (zh) * 2019-08-28 2021-03-05 北京字节跳动网络技术有限公司 声音处理方法、装置、电子设备及计算机可读存储介质
CN110515463B (zh) * 2019-08-29 2023-02-28 南京泛在地理信息产业研究院有限公司 一种手势交互式视频场景中基于单目视觉的3d模型嵌入方法
CN111617470B (zh) * 2020-06-04 2023-09-26 珠海金山数字网络科技有限公司 一种界面特效的渲染方法和装置
CN111640196A (zh) * 2020-06-08 2020-09-08 浙江商汤科技开发有限公司 一种太空舱特效生成的方法、装置、电子设备及存储介质
CN112235634A (zh) * 2020-10-16 2021-01-15 广州虎牙科技有限公司 对象渲染方法、装置、电子设备及存储介质
CN113920547A (zh) * 2021-12-14 2022-01-11 成都考拉悠然科技有限公司 一种基于神经网络的手套检测方法及其系统
CN114845148B (zh) * 2022-04-29 2024-05-03 深圳迪乐普数码科技有限公司 虚拟演播室中主持人对虚拟物体的交互控制方法及装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000353248A (ja) 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実感装置及び複合現実感提示方法
JP2002157606A (ja) 2000-11-17 2002-05-31 Canon Inc 画像表示制御装置、複合現実感提示システム、画像表示制御方法、及び処理プログラムを提供する媒体
JP2010257359A (ja) 2009-04-28 2010-11-11 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム
US20140068526A1 (en) 2012-02-04 2014-03-06 Three Bots Ltd Method and apparatus for user interaction
JP2014068689A (ja) 2012-09-27 2014-04-21 Kyocera Corp 表示装置、制御システムおよび制御プログラム
WO2014162762A1 (ja) 2013-04-02 2014-10-09 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2016177658A (ja) 2015-03-20 2016-10-06 カシオ計算機株式会社 仮想入力装置、入力方法、およびプログラム
JP2017142785A (ja) 2016-02-05 2017-08-17 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US20170372510A1 (en) 2016-06-27 2017-12-28 Robert Bosch Gmbh Systems and methods for dynamic occlusion handling

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060080175A1 (en) * 2001-02-02 2006-04-13 International Game Technology Player scoring for customizing a game of chance on a gaming machine
JP2004287699A (ja) * 2003-03-20 2004-10-14 Tama Tlo Kk 画像合成装置及びその合成方法
JP4950834B2 (ja) * 2007-10-19 2012-06-13 キヤノン株式会社 画像処理装置、画像処理方法
JP2012181748A (ja) * 2011-03-02 2012-09-20 Dainippon Printing Co Ltd 図柄表示具、及び合成画像表示システム
US20130100008A1 (en) * 2011-10-19 2013-04-25 Stefan J. Marti Haptic Response Module
CN103220490A (zh) * 2013-03-15 2013-07-24 广东欧珀移动通信有限公司 一种在视频通信中实现特效的方法及视频用户端
US9165318B1 (en) * 2013-05-29 2015-10-20 Amazon Technologies, Inc. Augmented reality presentation
US9716842B1 (en) * 2013-06-19 2017-07-25 Amazon Technologies, Inc. Augmented reality presentation
US10176515B2 (en) * 2014-04-01 2019-01-08 Electronic Commodities Exchange, L.P. Virtual jewelry shopping in secondary markets
KR102303115B1 (ko) * 2014-06-05 2021-09-16 삼성전자 주식회사 웨어러블 디바이스 및 웨어러블 디바이스 의 증강 현실 정보 제공 방법
JP6202276B2 (ja) * 2014-07-14 2017-09-27 パナソニックIpマネジメント株式会社 画像処理システム、画像処理装置、及び画像処理方法
JP6242768B2 (ja) * 2014-08-08 2017-12-06 株式会社東芝 仮想試着装置、仮想試着方法、およびプログラム
EP3234685B1 (en) * 2014-12-18 2021-02-03 Facebook Technologies, LLC System, device and method for providing user interface for a virtual reality environment
CN106156020A (zh) * 2015-03-23 2016-11-23 阿里巴巴集团控股有限公司 一种画像显示方法及装置
CN105334963B (zh) * 2015-10-29 2018-11-20 广州华多网络科技有限公司 一种虚拟物品展示方法及系统
KR20170096420A (ko) * 2016-02-16 2017-08-24 삼성전자주식회사 대화형 3차원 디스플레이 장치 및 방법
CN105657294A (zh) * 2016-03-09 2016-06-08 北京奇虎科技有限公司 在移动终端上呈现虚拟特效的方法及装置
CN106713840B (zh) * 2016-06-28 2018-09-04 腾讯科技(深圳)有限公司 虚拟信息显示方法及装置
WO2018033137A1 (zh) 2016-08-19 2018-02-22 北京市商汤科技开发有限公司 在视频图像中展示业务对象的方法、装置和电子设备
CN107343211B (zh) * 2016-08-19 2019-04-09 北京市商汤科技开发有限公司 视频图像处理方法、装置和终端设备
CN107886387A (zh) * 2016-09-30 2018-04-06 阿里巴巴集团控股有限公司 采用增强现实技术提供手掌装饰虚拟图像的实现方法及其装置
CN106385591B (zh) 2016-10-17 2020-05-15 腾讯科技(上海)有限公司 视频处理方法及视频处理装置
JP2018092313A (ja) * 2016-12-01 2018-06-14 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
CN107168780B (zh) * 2017-04-06 2020-09-08 北京小鸟看看科技有限公司 虚拟现实场景的加载方法、设备及虚拟现实设备
CN107563834A (zh) * 2017-07-27 2018-01-09 湖北历拓网络科技有限公司 一种基于虚拟现实的在线交易方法、系统及设备
CN107644214A (zh) * 2017-09-27 2018-01-30 广州市万表科技股份有限公司 一种手上佩戴物品试戴方法和系统

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000353248A (ja) 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実感装置及び複合現実感提示方法
JP2002157606A (ja) 2000-11-17 2002-05-31 Canon Inc 画像表示制御装置、複合現実感提示システム、画像表示制御方法、及び処理プログラムを提供する媒体
JP2010257359A (ja) 2009-04-28 2010-11-11 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム
US20140068526A1 (en) 2012-02-04 2014-03-06 Three Bots Ltd Method and apparatus for user interaction
JP2014068689A (ja) 2012-09-27 2014-04-21 Kyocera Corp 表示装置、制御システムおよび制御プログラム
WO2014162762A1 (ja) 2013-04-02 2014-10-09 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2016177658A (ja) 2015-03-20 2016-10-06 カシオ計算機株式会社 仮想入力装置、入力方法、およびプログラム
JP2017142785A (ja) 2016-02-05 2017-08-17 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US20170372510A1 (en) 2016-06-27 2017-12-28 Robert Bosch Gmbh Systems and methods for dynamic occlusion handling

Also Published As

Publication number Publication date
US20200410723A1 (en) 2020-12-31
US11308655B2 (en) 2022-04-19
GB2590286A (en) 2021-06-23
WO2020037923A1 (zh) 2020-02-27
CN110072046A (zh) 2019-07-30
GB202101196D0 (en) 2021-03-17
GB2590286B (en) 2023-05-03
CN110072046B (zh) 2020-07-31
JP2021521559A (ja) 2021-08-26

Similar Documents

Publication Publication Date Title
JP7212067B2 (ja) 画像合成方法及び装置
CN113238650B (zh) 手势识别和控制的方法、装置及虚拟现实设备
US10642369B2 (en) Distinguishing between one-handed and two-handed gesture sequences in virtual, augmented, and mixed reality (xR) applications
WO2020037924A1 (zh) 动画生成方法和装置
US11182580B2 (en) Fingertip identification for gesture control
CN110069125B (zh) 虚拟对象的控制方法和装置
CN105302294B (zh) 一种交互式虚拟现实演示装置
CN107295272A (zh) 一种图像处理的方法及终端
CN109698914A (zh) 一种闪电特效渲染方法、装置、设备及存储介质
CN111199169A (zh) 图像处理方法和装置
CN110717993B (zh) 一种分体式ar眼镜系统的交互方法、系统及介质
CN110069126B (zh) 虚拟对象的控制方法和装置
US9195310B2 (en) Camera cursor system
JP2012160051A (ja) 情報端末装置
CN111258413A (zh) 虚拟对象的控制方法和装置
Chu et al. Interacting with a self-portrait camera using motion-based hand gestures
CN116686006A (zh) 基于可变形模型的三维扫描配准
CN110941974B (zh) 虚拟对象的控制方法和装置
CN111103967A (zh) 虚拟对象的控制方法和装置
Gao Natural gesture based interaction for handheld augmented reality
Bose et al. Gesture based painting system
Olshevsky et al. In-Air Gesture Interaction Using Ultra Wide Camera
CN104914981A (zh) 一种信息处理方法和电子设备
Lv et al. Preprint Touch-less Interactive Augmented Reality Game on Vision Based Wearable Device
CN118509542A (zh) 视频生成方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230112

R150 Certificate of patent or registration of utility model

Ref document number: 7212067

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150