JP2023533022A - 集合写真の画像生成方法、装置、機器、記憶媒体、コンピュータプログラム及び製品 - Google Patents

集合写真の画像生成方法、装置、機器、記憶媒体、コンピュータプログラム及び製品 Download PDF

Info

Publication number
JP2023533022A
JP2023533022A JP2023501067A JP2023501067A JP2023533022A JP 2023533022 A JP2023533022 A JP 2023533022A JP 2023501067 A JP2023501067 A JP 2023501067A JP 2023501067 A JP2023501067 A JP 2023501067A JP 2023533022 A JP2023533022 A JP 2023533022A
Authority
JP
Japan
Prior art keywords
target
image
pose
scene
human body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023501067A
Other languages
English (en)
Inventor
薛地
王▲權▼
Original Assignee
シェンチェン テトラス.エーアイ テクノロジー カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シェンチェン テトラス.エーアイ テクノロジー カンパニー リミテッド filed Critical シェンチェン テトラス.エーアイ テクノロジー カンパニー リミテッド
Publication of JP2023533022A publication Critical patent/JP2023533022A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本願は、集合写真の画像生成方法、装置、機器、記憶媒体、コンピュータプログラム及び製品に関する。前記方法は、実景画像を取得することと、実景画像に対して識別を行い、実景画像における目標対象及び拡張現実AR場面における目標対象の第1位置を決定することと、第1位置とAR場面におけるAR対象の第2位置とに基づいて、ARプレビュー画像を表示することと、ARプレビュー画像に対する集合写真生成操作に応答して、目標対象とAR対象のAR集合写真画像を生成することと、を含む。

Description

(関連出願の相互参照)
本願は、2021年01月15日に提出された、出願番号が202110056318.1であり、出願名称が「集合写真の画像生成方法及び装置、電子機器並びに記憶媒体」である中国特許出願に基づいて提出され、当該中国特許出願に基づく優先権を主張し、その全内容が参照として本願に組み込まれる。
本願は、コンピュータ技術分野に関し、特に集合写真の画像生成方法、装置、機器、記憶媒体、コンピュータプログラム及び製品に関する。
拡張現実(Augmented Reality:AR)は、マンマシンインタラクション技術であり、この技術を利用することで、実場面をシミュレートすることができる。AR集合写真の生成は、AR技術の重要な応用であり、関連技術におけるAR集合写真の生成方式には、没入感とリアリティが比較的に悪いという問題がある。
本願は、集合写真の画像生成方案を提供する。
本願の一態様によれば、集合写真の画像生成方法を提供する。前記方法は、実景画像を取得することと、前記実景画像に対して識別を行い、前記実景画像における目標対象及び拡張現実AR場面における前記目標対象の第1位置を決定することと、前記第1位置と前記AR場面におけるAR対象の第2位置とに基づいて、ARプレビュー画像を表示することと、前記ARプレビュー画像に対する集合写真生成操作に応答して、前記目標対象と前記AR対象のAR集合写真画像を生成することと、を含む。本願の実施例によれば、AR集合写真における仮想物体と実人物との相対的位置関係に基づき、仮想物体と実人物との遮蔽効果を実現し、AR集合写真場面における没入感とリアリティを向上させることができる。
可能な実現形態において、前記実景画像に対して識別を行い、前記実景画像における目標対象及び拡張現実AR場面における前記目標対象の第1位置を決定することは、前記実景画像に対して人体識別を行い、前記実景画像における目標対象の所在する人体領域を決定することと、前記人体領域に基づいて、前記AR場面における前記目標対象の第1深度を決定することであって、前記第1位置は前記第1深度を含む、ことと、を含む。本願の実施例によれば、人体領域に基づいて、AR場面における目標対象の第1深度を正確に決定することができ、それによってARプレビュー画像を生成する時、第1深度に基づいて、AR対象の前後位置を正確にレンダリングし、遮蔽効果を実現することができる。
可能な実現形態において、前記AR対象の第2位置は、前記AR場面における前記AR対象の第2深度を含み、前記第1位置と前記AR場面におけるAR対象の第2位置とに基づいて、ARプレビュー画像を表示することは、前記第1深度と前記第2深度との相対的関係に基づいて、前記実景画像において、前記AR対象をレンダリングし、ARプレビュー画像を生成して表示することを含む。本願の実施例によれば、第1深度と第2深度との相対的関係に基づいて、目標対象とAR対象との前後位置関係を示すことによって、前後位置関係に基づいて生成されたARプレビュー画像を表示する時、AR集合写真における没入感とリアリティを向上させることができる。
可能な実現形態において、前記方法は、前記実景画像に対して人体キーポイント検出を行い、前記実景画像における目標対象の人体姿勢を決定することを更に含み、前記第1位置と前記AR場面におけるAR対象の第2位置とに基づいて、ARプレビュー画像を表示することは、前記第1位置、前記第2位置及び前記目標対象の人体姿勢に基づいて、ARプレビュー画像を表示することを含む。本願の実施例によれば、目標対象の人体姿勢、第1位置及び第2位置に基づいて、ARプレビュー画像を表示することができ、それによってAR集合写真におけるAR対象と目標対象とのインタラクティブ効果を向上させる。
可能な実現形態において、前記第1位置、前記第2位置及び前記目標対象の人体姿勢に基づいて、ARプレビュー画像を表示することは、前記目標対象の人体姿勢に基づいて、前記AR対象の第1姿勢を決定することであって、前記AR対象の第1姿勢と前記目標対象の人体姿勢とが対称である、ことと、前記第1姿勢、前記第1位置及び前記第2位置に基づいて、第1ARプレビュー画像を生成して表示することであって、前記第1ARプレビュー画像は、前記第1姿勢を有するAR対象を含む、ことと、を含む。本願の実施例によれば、目標対象の姿勢に基づいて、AR対象を、目標対象に対称な動作を行うように駆動し、そして、AR対象と目標対象との遮蔽効果を表現し、AR集合写真生成プロセスにおけるインタラクティブ感覚、リアリティ及び没入感を向上させることができる。
可能な実現形態において、前記第1位置、前記第2位置及び前記目標対象の人体姿勢に基づいて、ARプレビュー画像を表示することは、前記目標対象の人体姿勢に基づいて、前記目標対象の人体姿勢に対応する動作種別を決定することと、前記動作種別に基づいて、前記AR対象の第2姿勢を決定することであって、前記AR対象の第2姿勢は前記動作種別とマッチングしている、ことと、前記第2姿勢、前記第1位置及び前記第2位置に基づいて、第2ARプレビュー画像を生成して表示することであって、前記第2ARプレビュー画像は前記第2姿勢を有するAR対象を含む、ことと、を含む。本願の実施例によれば、目標対象の動作に基づいて、AR対象を、目標対象の動作にマッチングする姿勢を呈するように駆動し、そして、AR対象と目標対象との遮蔽効果を表現し、AR集合写真撮影プロセスにおけるインタラクティブ感覚、リアリティ及び没入感を向上させることができる。
可能な実現形態において、前記ARプレビュー画像は、複数フレームのARプレビュー画像を含み、前記ARプレビュー画像に対する集合写真生成操作に応答して、前記目標対象と前記AR対象のAR集合写真画像を生成することは、前記複数フレームのARプレビュー画像に対する集合写真生成操作に応答して、前記目標対象と前記AR対象のAR集合写真ビデオを生成することを含む。本願の実施例によれば、AR集合写真ビデオを生成し、目標対象とAR対象との位置関係と姿勢を動的に表示し、インタラクティブ感覚と没入感を向上させることができる。
本願の一態様によれば、集合写真の画像生成装置を提供する。前記装置は、実景画像を取得ように構成される取得モジュールと、前記実景画像に対して識別を行い、前記実景画像における目標対象及び拡張現実AR場面における前記目標対象の第1位置を決定するように構成される決定モジュールと、前記第1位置と前記AR場面におけるAR対象の第2位置とに基づいて、ARプレビュー画像を表示するように構成される表示モジュールと、前記ARプレビュー画像に対する集合写真生成操作に応答して、前記目標対象と前記AR対象のAR集合写真画像を生成するように構成される生成モジュールと、を備える。
本願の一態様によれば、電子機器を提供する。前記電子機器は、プロセッサと、プロセッサによる実行可能な命令を記憶するように構成されるメモリと、を備え、ここで、前記プロセッサは、前記メモリに記憶されている命令を呼び出し、上記方法を実行するように構成される。
本願の一態様によれば、コンピュータ可読記憶媒体を提供する。前記コンピュータ可読記憶媒体には、コンピュータプログラム命令が記憶されており、前記コンピュータプログラム命令がプロセッサにより実行される時、上記方法を実現する。
本願の一態様によれば、コンピュータプログラムを提供する。前記コンピュータプログラムは、コンピュータ可読コードを含み、前記コンピュータ可読コードが電子機器において実行される時、前記電子機器におけるプロセッサは、上記方法を実行する。
本願の一態様によれば、コンピュータプログラム製品を提供する。前記コンピュータプログラム製品は、1つ又は複数の命令を含み、前記1つ又は複数の命令は、プロセッサによってロードされて上記方法におけるステップを実行することに適する。
本願の実施例において、AR場面における目標対象の第1位置及びAR対象の第2位置に基づいて、ARプレビュー画像を表示し、ARプレビュー画像に対する集合写真生成操作に応答して、AR集合写真画像を生成することができ、それによってAR集合写真における仮想物体と実人物との相対的位置に基づき、仮想物体と実人物との遮蔽効果を実現し、AR集合写真場面におけるリアリティと没入感を向上させることができる。
上記の一般的な説明及び後述する細部に関する説明は、例示及び説明のためのものに過ぎず、本願を限定するものではないことが理解されるべきである。本願の他の特徴及び態様は、下記の図面に基づく例示的な実施例の詳細な説明を参照すれば明らかになる。
本願の実施例による集合写真の画像生成方法のフローチャートを示す。 本願の実施例による深度の概略図を示す。 本願の実施例によるARプレビュー画像の概略図を示す。 本願の実施例による別の深度の概略図を示す。 本願の実施例によるARプレビュー画像の概略図を示す。 本願の実施例によるARプレビュー画像の概略図を示す。 本願の実施例によるARプレビュー画像の生成方法のフローチャートを示す。 関連技術によるARプレビュー画像の概略図を示す。 本願の実施例によるARプレビュー画像の概略図を示す。 本願の実施例による集合写真の画像生成装置のブロック図を示す。 本願の実施例による電子機器のブロック図を示す。
上記の図面は、明細書に組み込んで本明細書の一部分を構成し、これらの図面は、本願の実施例を示し、明細書とともに本願の技術的解決手段を解釈することに用いられる。
以下、図面を参照しながら本願の種々の例示的な実施例、特徴及び態様を詳しく説明する。図面における同一の符号は、同一又は類似する機能を有する要素を示す。図面は、実施例の種々の態様を示しているが、明記されない限り、比例通りに図面を描くわけではない。
ここで「例示的」という用語は、「例、実施例として用いられるか、又は説明のためのものである」ことを意味する。ここで、「例示的なもの」として記載される如何なる実施例は、他の実施例より好適又は有利であると解釈されるべきではない。
本明細書において、用語「及び/又は」は、関連対象の関連関係を説明するためのものであり、3つの関係が存在することを表す。例えば、A及び/又はBは、Aのみが存在する場合、AとBが同時に存在する場合、Bのみが存在する場合という3つのケースを表す。また、本明細書において、用語「少なくとも1つ」は、複数のうちのいずれか1つ又は複数のうちの少なくとも2つの任意の組み合わせを表す。例えば、A、B、Cのうちの少なくとも1つを含むことは、A、B及びCからなる集合から選ばれるいずれか1つ又は複数の要素を含むことを表す。
なお、本願の実施例をより良く説明するために、以下の実施形態において具体的な細部を多く記載しているが、幾つかの具体的な詳細が記載されてなくても、本開示が同様に実施可能であると当業者が理解すべきである。本願の実施例の主旨を強調するために、幾つかの実例において、当業者に熟知されている方法、手段、素子及び回路について詳しく記載されていない。
図1は、本願の実施例による集合写真の画像生成方法のフローチャートを示す。図1に示すように、前記集合写真の画像生成方法は、以下を含む。
ステップS10において、実景画像を取得する。
ステップS11において、実景画像に対して識別を行い、実景画像における目標対象とAR場面における目標対象の第1位置とを決定する。
ステップS12において、第1位置とAR場面におけるAR対象の第2位置とに基づいて、ARプレビュー画像を表示する。
ステップS13において、ARプレビュー画像に対する集合写真生成操作に応答して、目標対象とAR対象のAR集合写真画像を生成する。
可能な実現形態において、前記集合写真の画像生成方法は、AR技術をサポートするAR集合写真生成機器によって実行されてもよく、該AR集合写真生成機器は、例えば、端末機器を含んでもよく、端末機器は、ユーザ装置(User Equipment:UE)、携帯機器、ユーザ端末、セルラ電話、コードレス電話、パーソナルデジタルアシスタント(Personal Digital Assistant:PDA)、ハンドヘルドデバイス、コンピューティングデバイス、車載機器、ウェアブル機器などを含んでもよい。前記方法は、端末機器のプロセッサによりメモリに記憶されているコンピュータ可読命令を呼び出すことで実現することができる。
可能な実現形態において、ステップS10では、実景画像は、例えば、AR集合写真生成機器に設けられる画像収集装置によってリアルタイムに収集されたものであってもよい。他の機器からAR集合写真生成機器に伝送されたものであってもよく、AR集合写真生成機器によってローカルアルバムから取得されたものであってもよく、本願の実施例で、これを限定しない。幾つかの場合において、生成される目標対象とAR対象のAR集合写真画像は、例えば、実景画像にAR対象のエフェクトをかけることで生成される画像であってもよい。
可能な実現形態において、ステップS10では、取得された実景画像は、1枚であってもよく、複数枚であってもよい。ここで、複数枚の実景画像は、例えば、ビデオストリームにおける連続した複数フレームの実景画像であってもよく、間欠サンプリングを行うことで得られた複数フレームの実景画像であってもよく、本願の実施例で、これを限定しない。
可能な実現形態において、上記のように、AR集合写真生成機器に画像収集装置が設けられており、該画像収集装置は、撮影視野範囲内の実景画像をリアルタイムに捕捉して撮影し、リアルタイムに捕捉された実景画像をビデオストリームとして、AR集合写真生成機器のプロセッサに伝送することができる。AR集合写真生成機器のプロセッサは、取得したビデオストリームにおける各フレームの実景画像に基づき、目標対象とAR対象のARプレビュー画像を生成し、ARプレビュー画像をAR集合写真生成機器の表示インタフェースに表示し、それによって、表示インタフェースに目標対象とAR対象のARプレビュー画像をリアルタイムに表示する。ここで、複数フレームの実景画像の目標対象の位置姿勢が変化することに伴い、異なる実景画像に対応するAR対象の位置姿勢も対応的に変化してもよく、それによって、動的な表示効果を示す。
可能な実現形態において、実景画像に対して識別を行うことで、対象を含む実景画像を決定することができる。対象を含む実景画像を決定した後、実景画像における目標対象を更に決定することができる。理解できるように、目標対象は、実際の必要に応じて設定されてもよく、例えば、実景画像における全ての対象が目標対象であるように設定すること、又は、実景画像における中間領域にある対象が目標対象であるように設定すること、又は、実景画像における対象を識別した後、ユーザによって目標対象を自ら選択するように設定することなどを含んでもよいが、それらに限らず、本願の実施例で、これを限定しない。
可能な実現形態において、画像収集装置は、RGB(Red Green Blue:赤緑青)カメラ、又はTOF(Time of flight:飛行時間)カメラなどを含んでもよいが、それらに限らない。
可能な実現形態において、ステップS11では、実景画像に対して識別を行うことは、任意の既知の人体識別技術を用いて、実景画像に対して人体識別を行い、実景画像における対象を決定することであってもよい。ここで、人体識別技術は、例えば、人間のセグメンテーション、人体キーポイント検出などの技術を含むが、それらに限らない。理解できるように、当業者は、1つ又は複数の人体識別技術を選択してもよく、実景画像における対象の識別を実現できればよい。本願の実施例で、これを限定しない。
可能な実現形態において、AR場面は、実際の必要に応じて予め構築された仮想場面を含んでもよい。AR場面に、仮想人物、仮想動物などのAR対象が含まれてもよい。AR場面は、画像収集装置のカメラ座標系に基づいて構築されたものであってもよく、AR場面におけるAR対象の位置は、3Dレジストレーション技術に基づいて予め設定されたものであってもよい。本願の実施例は、AR場面の内容を限定しない。
可能な実現形態において、AR集合写真生成機器に、様々なAR場面に対応するデータパケットが記憶されてもよい。他の機器(例えば、クラウドサーバ)によって様々なAR場面に対応するデータパケットをAR集合写真生成機器に伝送してもよい。様々なデータパケットを用いることで、AR集合写真生成機器に、様々なAR場面を表示することができる。
可能な実現形態において、ユーザからのAR場面の選択操作に応答して、AR場面を決定してもよい。例えば、AR集合写真生成機器の表示インタフェースに、ユーザに選択させるためのAR場面を表示してもよく、それによってユーザがクリック選択などの操作によって、AR場面の選択をトリガーすることを容易にする。本願の実施例は、AR場面の決定方式を限定しない。
可能な実現形態において、上記のように、AR場面は、画像収集装置のカメラ座標系に基づいて構築されたものであってもよい。ステップS11において、実景画像における目標対象を決定した後、画像収集機器の結像原理に基づき、実景画像における目標対象の位置に基づいて、該カメラ座標系における目標対象の位置を決定することができ、即ち、AR場面における目標対象の第1位置を決定することができる。
可能な実現形態において、ステップS12では、上記のように、AR場面におけるAR対象の位置は、予め設定されたものであり、AR場面におけるAR対象の第2位置は、前記カメラ座標系におけるAR対象の位置であってもよく、即ち、AR場面におけるAR対象の第2位置は、既知のものであってもよい。
可能な実現形態において、ステップS12では、目標対象の第1位置とAR対象の第2位置に基づいて、実景画像において、AR対象と目標対象との遮蔽効果をレンダリングし、ARプレビュー画像を生成し、AR集合写真生成機器に該ARプレビュー画像を表示することができる。
可能な実現形態において、ARプレビュー画像に対する集合写真生成操作は、AR集合写真生成機器によって提供されたタッチボタン又は物理ボタンに基づいてトリガーされた集合写真生成操作(例えば、ユーザが表示インタフェースに表示されている写真撮影ボタンをクリックすることで、集合写真生成操作をトリガーする)、又は、リモート制御方式に基づいてトリガーされた集合写真生成操作(例えば、ユーザのジェスチャーを識別することで、集合写真生成操作をリモートでトリガーすることを実現する)を含んでもよく、それらに限らない。集合写真生成操作の実現形式について、本願の実施例は限定しない。
可能な実現形態において、目標対象とAR対象のAR集合写真画像を生成することは、表示インタフェースに表示されているARプレビュー画像をキャプチャして保存するという方式で実現してもよい。例えば、ユーザが表示インタフェースに表示されている写真撮影ボタンをクリックする場合、キャプチャを行い、キャプチャされた画像は、AR集合写真画像であり、そして、ユーザが抽出するために、キャプチャされた画像をローカルに保存する。
本願の実施例において、AR場面における目標対象の第1位置及びAR対象の第2位置に基づいて、ARプレビュー画像を表示し、ARプレビュー画像に対する集合写真生成操作に応答して、AR集合写真画像を生成することができ、それによってAR集合写真における仮想物体と実人物との相対的位置に基づき、仮想物体と実人物との遮蔽効果を実現し、AR集合写真場面におけるリアリティと没入感を向上させることができる。
可能な実現形態において、ステップS11では、実景画像に対して識別を行い、実景画像における目標対象とAR場面における目標対象の第1位置とを決定することは、
実景画像に対して人体識別を行い、実景画像における目標対象の所在する人体領域を決定することと、
人体領域に基づいて、AR場面における目標対象の第1深度を決定することであって、第1位置は、第1深度を含む、ことと、を含んでもよい。
可能な実現形態において、実景画像に対して人体識別を行い、実景画像における目標対象の所在する人体領域を決定することは、人間のセグメンテーション技術に基づき、目標対象の所在する人体領域を分割によって得ることであってもよく、更に、人体キーポイント検出技術に基づき、人体輪郭キーポイントを検出し、人体輪郭キーポイントに基づいて、人体輪郭を決定し、人体輪郭で構成される領域を人体領域とすることであってもよく、本願の実施例で、これを限定しない。
可能な実現形態において、上記のように、実景画像における目標対象を決定した後、実景画像における目標対象の位置に基づき、該カメラ座標系における目標対象の位置を決定することができ、即ち、AR場面における目標対象の第1位置を決定することができる。ここで、該カメラ座標系における目標対象の位置は、カメラ座標系における目標対象の深度を含んでもよい。カメラ座標系における目標対象の深度は、実景における目標対象と画像収集装置との距離と理解されてもよく、距離が大きいほど、深度が大きくなり、逆に、深度が小さくなる。
可能な実現形態において、目標対象の人体領域を決定した後、実景画像における人体領域のキーポイントの画素座標に基づき、画像収集装置の結像原理(例えば、ピンホール結像原理)と組み合わせ、目標対象と画像収集装置との距離を決定することができる。目標対象と画像収集装置との距離をカメラ座標系における目標対象の深度とし、即ち、AR場面における目標対象の第1深度とする。
上記のように、画像収集装置は、TOFカメラを含んでもよい。可能な実現形態において、画像収集装置がTOFカメラである場合、TOFカメラによって収集された画像データに、実景における目標対象とTOFカメラとの距離情報が含まれているため、画像における目標対象の人体領域を決定した後、目標対象とTOFカメラとの距離を得ることができ、即ち、AR場面における目標対象の第1深度を得ることができる。
可能な実現形態において、目標対象の第1深度は、カメラ座標系における人体輪郭のキーポイントの深度であってもよく、更に、カメラ座標系における人体関節部位のキーポイントの深度であってもよく、更に、カメラ座標系における人体領域内の全てのキーポイントの深度であってもよい。キーポイントの数は、実際の需要、プロセッサの演算性能などに応じて決定されてもよく、本願の実施例で、これを限定しない。
可能な実現形態において、複数のキーポイントの深度の平均値を第1深度としてもよく、又は、複数のキーポイントの深度のうちの最小値及び/又は最大値を第1深度としてもよく、又は、人体領域内の全てのキーポイントの深度を第1深度としてもよい。実施プロセスにおいて、実際の応用場面、プロセッサの演算性能などに応じて決定されてもよく、本願の実施例で、これを限定しない。
本願の実施例において、人体領域に基づいて、AR場面における目標対象の第1深度を正確に決定することができ、それによってARプレビュー画像を生成する時、第1深度に基づいて、AR対象の前後位置を正確にレンダリングし、遮蔽効果を実現することができる。
上記のように、AR場面は、画像収集装置のカメラ座標系に基づいて構築されたものであってもよく、AR場面におけるAR対象の位置は、予め設定されたものであってもよく、第1位置は、第1深度を含む。可能な実現形態において、AR対象の第2位置は、AR場面におけるAR対象の第2深度、即ち、前記カメラ座標系におけるAR対象の深度を含んでもよく、第1位置とAR場面におけるAR対象の第2位置とに基づいて、ARプレビュー画像を表示することは、
第1深度と第2深度との相対的関係に基づいて、実景画像において、AR対象をレンダリングし、ARプレビュー画像を生成して表示することを含んでもよい。
可能な実現形態において、第1深度と第2深度との相対的関係は、第1深度が第2深度よりも大きいこと、又は、第1深度が第2深度よりも小さいことを含んでもよい。
可能な実現形態において、AR対象は、AR場面において、立体的であってもよい。この場合、AR対象の第2深度は、複数であってもよく、つまり、AR対象の第2深度は、深度区間であってもよい。理解できるように、AR対象は、AR場面において、平面であってもよい。この場合、AR対象の第2深度は、1つであってもよい。
可能な実現形態において、上記のように、目標対象の第1深度は、1つ又は複数であってもよい。AR対象の第2深度が複数である場合、目標対象の全ての第1深度がいずれもAR対象の第2深度のうちの最小値よりも小さい時、第1深度が第2深度よりも小さいと決定することができ、AR対象の第1深度が1つである場合、目標対象の全ての第1深度がいずれも該1つの第2深度よりも小さい時、第1深度が第2深度よりも小さいと決定することができる。
可能な実現形態において、第1深度が第2深度よりも小さい場合について、この場合には、AR対象に比べて、目標対象から画像収集機器までの距離が小さいと言える。つまり、画像収集機器に対して、AR対象は、目標対象の後側に位置する。第1深度が第2深度よりも小さい場合、実景画像において、AR対象を、目標対象に対する後側にレンダリングし、ARプレビュー画像を生成して表示することができる。
図2aは、本願の実施例による深度の概略図を示す。図2bは、本願の実施例によるARプレビュー画像の概略図を示す。図2aに記載のように、目標対象aの第1深度の平均値aは、AR対象bの第2深度のうちの最小値bよりも小さく、実景画像において、AR対象bを目標対象aの後側にレンダリングすることで、図2bに示すARプレビュー画像を生成することができる。図2bに示すように、目標対象aは、AR対象bを遮蔽する。
可能な実現形態において、上記のように、目標対象の第1深度は、1つ又は複数であってもよい。AR対象の第2深度が複数である場合、目標対象の全ての第1深度がいずれもAR対象の第2深度のうちの最大値よりも大きい時、第1深度が第2深度よりも大きいと決定することができ、AR対象の第1深度が1つである場合、目標対象の全ての第1深度がいずれも該1つの第2深度よりも大きい時、第1深度が第2深度よりも大きいと決定することができる。
可能な実現形態において、第1深度が第2深度よりも大きい場合について、この場合には、AR対象に比べて、目標対象から画像収集機器までの距離が大きいと言える。つまり、画像収集機器に対して、AR対象は、目標対象の前側に位置する。第1深度が第2深度よりも大きい場合、実景画像において、AR対象を、目標対象に対する前側にレンダリングし、ARプレビュー画像を生成して表示することができる。
図3aは、本願の実施例による深度の概略図のその二を示す。図3bは、本願の実施例によるARプレビュー画像の概略図のその二を示す。図3aに記載のように、目標対象aの第1深度の平均値aは、AR対象bの第2深度の最大値bよりも大きく、実景画像において、AR対象bを目標対象aの前側にレンダリングすることで、図3bに示すARプレビュー画像を生成することができる。図3bに示すように、AR対象bは、目標対象aを遮蔽する。
説明すべきこととして、本願の実施例における前側と後側は、相対性を有し、例えば、画像収集機器に近い対象は、画像収集機器に遠い対象の前側に位置してもよい。当業者は理解することができ、又は少なくとも本願の実施例を読んだ後で前側と後側の意味を理解することができる。
上記のように、実景画像フレームに対する識別は、人間のセグメンテーション技術を用いてもよい。可能な実現形態において、人間のセグメンテーション技術に基づき、実景画像における人体領域と背景領域を分割することができ、更に、分割した人体領域と背景領域に基づき、AR対象を目標対象の後側又は前側にレンダリングし、ARプレビュー画像を生成することができる。
可能な実現形態において、ARプレビュー画像を表示することは、ARプレビュー画像をAR集合写真生成機器の表示インタフェースに描画して表示することであってもよい。
本願の実施例において、第1深度と第2深度との相対的関係に基づいて、目標対象とAR対象との前後位置関係を表すことによって、前後位置関係に基づいて生成されたARプレビュー画像を表示する時、AR集合写真におけるリアリティと没入感を向上させることができる。
可能な実現形態において、AR集合写真生成プロセスにおけるインタラクティブ感覚を向上させるために、前記AR集合写真の画像生成方法は、前記実景画像に対して人体キーポイント検出を行い、前記実景画像における目標対象の人体姿勢を決定することを更に含んでもよく、第1位置とAR場面におけるAR対象の第2位置とに基づいて、ARプレビュー画像を表示することは、第1位置、第2位置及び目標対象の人体姿勢に基づいて、ARプレビュー画像を表示することを含んでもよい。
可能な実現形態において、任意の既知の人体キーポイント検出方式を用いて、実景画像に対して人体キーポイント検出を行ってもよく、例えば、人体キーポイント検出方式は、実景画像における人体関節部位のキーポイント(例えば、13個の関節部位の人体キーポイント)を抽出することを含んでもよく、ここで、人体キーポイントの数及び位置は、実際の必要に応じて決定されてもよく、本願の実施例で、これを限定しない。
可能な実現形態において、検出した人体キーポイントに基づいて、目標対象の姿勢情報を決定することができる。姿勢情報が二次元姿勢情報である時、二次元姿勢情報は、実景画像における目標対象の複数の人体キーポイントの二次元座標値を含んでもよい。更に、二次元座標値に基づき、複数の人体キーポイントを人体の構造に基づいて連結した後、目標対象の二次元姿勢を得ることができる。
可能な実現形態において、姿勢情報が三次元姿勢情報である時、三次元姿勢情報は、カメラ座標系における目標対象の複数の人体キーポイントの三次元座標値を含んでもよい。更に、三次元座標値に基づいて、複数の人体キーポイントを人体の構造に基づいて連結した後、目標対象の三次元姿勢を得ることができる。
可能な実現形態において、ステップS11で実景画像に対して識別を行うプロセスにおいて、実景画像に対する人体キーポイント検出を含んでもよい。人体識別と人体キーポイント検出は、同時に実行されてもよく、まず、人体識別を行い、実景画像における人体領域を決定した後、更に、人体領域内の人体関節部位のキーポイントに対して検出を行ってもよい。実施プロセスにおいて、識別機能を実現する機器の処理能力、該機器のリソース占有状況、応用プロセスにおける遅延に対する制限などの、識別検出順番に影響を及ぼす可能性がある要因に応じて設定してもよく、本願の実施例で、これを限定しない。
本願の実施例において、目標対象の人体姿勢、第1位置及び第2位置に基づいて、ARプレビュー画像を表示することができ、それによってAR集合写真におけるAR対象と目標対象とのインタラクティブ効果を向上させる。
可能な実現形態において、第1位置、第2位置及び目標対象の人体姿勢に基づいて、ARプレビュー画像を表示することは、
目標対象の人体姿勢に基づいて、AR対象の第1姿勢を決定することであって、AR対象の第1姿勢と目標対象の人体姿勢とが対称である、ことと、
第1姿勢、第1位置及び第2位置に基づいて、第1ARプレビュー画像を生成して表示することであって、第1ARプレビュー画像は、第1姿勢を有するAR対象を含む、ことと、を含んでもよい。
可能な実現形態において、目標対象の人体姿勢を決定した後、目標対象の人体姿勢に基づき、目標対象の人体姿勢に対称な第1姿勢を決定することができる。図4は、本願の実施例によるARプレビュー画像の概略図を示す。図4に示すように、目標対象41とAR対象42は、「ハートポーズ」という対称動作を行い、即ち、目標対象41とAR対象42の人体姿勢が対称である。このように、人間のセグメンテーション、人体骨格検出などの機能を利用することで、AR人物キャラクタが実人物の動作に応じて相応の応答をすることができ、全体的なインタラクションにインタラクティブ感覚を持たせる。
可能な実現形態において、AR対象の第1姿勢は、目標対象の人体姿勢と同じ姿勢又は反対の姿勢であってもよい。例えば、人体姿勢が「左手を持ち上げること」であれば、同じ第1姿勢は、「左手を持ち上げること」であってもよく、反対の第1姿勢は、「右手を持ち上げること」であってもよい。
可能な実現形態において、目標対象の第1位置とAR対象の第2位置に基づき、第1姿勢を有するAR対象を目標対象に対する後側又は前側にレンダリングし、第1ARプレビュー画像を生成し、生成した第1ARプレビュー画像をAR集合写真生成機器の表示インタフェースに描画して表示することができる。
可能な実現形態において、上記のように、目標対象は、実際の必要に応じて設定された1つ又は複数であってもよい。目標対象が1つである場合、AR対象の第1姿勢は、該目標対象の人体姿勢に基づいて決定されてもよい。目標対象が複数である場合、AR対象の第1姿勢は、ユーザによって選択された目標対象の人体姿勢に基づいて決定されてもよく、又は、実景画像の中間領域にある目標対象の人体姿勢に基づいて決定されてもよく、本願の実施例で、これを限定しない。
本願の実施例において、目標対象の姿勢に基づいて、AR対象を、目標対象に対称な動作を行うように駆動し、AR対象と目標対象との遮蔽効果を表現し、AR集合写真生成プロセスにおけるインタラクティブ感覚、リアリティ及び没入感を向上させることができる。
可能な実現形態において、第1位置、第2位置及び目標対象の人体姿勢に基づいて、ARプレビュー画像を表示することは、
目標対象の人体姿勢に基づいて、目標対象の人体姿勢に対応する動作種別を決定することと、
動作種別に基づいて、AR対象の第2姿勢を決定することであって、AR対象の第2姿勢は、動作種別にマッチングする、ことと、
第2姿勢、第1位置及び第2位置に基づいて、第2ARプレビュー画像を生成して表示することであって、第2ARプレビュー画像は、第2人体姿勢を有するAR対象を含む、ことと、を更に含んでもよい。
可能な実現形態において、動作種別は、予め設定された、AR対象の姿勢を決定するための種別であってもよく、即ち、様々な動作種別に対応する様々な第2姿勢を設定してもよい。例えば、「腕を伸すこと」という動作種別が「肘を抱き合うこと」という第2姿勢に対応し、「手を持ち上げること」という動作種別が「脚を上げること」という第2姿勢に対応するように設定してもよい。動作種別の種類、数、及び動作種別に対応する第2姿勢について、実際の必要に応じて設定してもよく、本願の実施例で、これを限定しない。
可能な実現形態において、目標対象の人体姿勢に基づいて、目標対象の動作を決定することができる。目標対象の動作が所定の動作種別に属する場合、動作種別に対応する第2姿勢を得ることができる。例えば、上記例を援用して、目標対象の人体姿勢に基づいて、目標対象が「手を持ち上げている」と決定し、即ち、動作種別が「手を持ち上げること」であり、AR対象の第2姿勢が「脚を上げること」であってもよいと決定する。
可能な実現形態において、AR対象に対して、デフォルト姿勢を更に設定してもよい。目標対象の動作が所定の動作種別に属しない場合、AR対象の第2姿勢がデフォルト姿勢であると決定する。
可能な実現形態において、目標対象の姿勢が変わった時、AR対象の姿勢も変わる。例えば、目標対象は、所定の動作種別に属しない動作から、所定の動作種別に属する動作に変わる。これに応じて、AR対象を、デフォルト姿勢から所定の動作種別にマッチングする姿勢に変わるように駆動することができる。
可能な実現形態において、目標対象の第1位置とAR対象の第2位置に基づき、第2姿勢を有するAR対象を目標対象の後側又は前側にレンダリングし、第2ARプレビュー画像を生成し、生成した第2ARプレビュー画像をAR集合写真生成機器の表示インタフェースに描画して表示することができる。
可能な実現形態において、様々なAR場面において、複数の動作種別、及び動作種別にマッチングする第2姿勢を設定してもよく、それによって目標対象の姿勢の変化に伴い、AR対象の第2姿勢を調整し、更に、AR集合写真の趣味性とインタラクティブ感覚を増加させることができる。
可能な実現形態において、上記のように、目標対象は、実際の必要に応じて設定された1つ又は複数であってもよい。目標対象が1つである場合、AR対象の第2姿勢は、該目標対象の人体姿勢に基づいて決定されてもよい。目標対象が複数である場合、AR対象の第2姿勢は、ユーザによって選択された目標対象の人体姿勢に基づいて決定されてもよく、又は、実景画像の中間領域にある目標対象の人体姿勢に基づいて決定されてもよく、又は、ある目標対象の動作が所定の動作種別に属することを検出した場合、該目標対象の人体姿勢に対応する動作種別に基づいて決定されてもよく、本願の実施例で、これを限定しない。
本願の実施例において、目標対象の動作に基づいて、AR対象を、目標対象の動作にマッチングする姿勢を呈するように駆動し、AR対象と目標対象との遮蔽効果を表現し、AR集合写真生成プロセスにおけるインタラクティブ感覚、リアリティ及び没入感を向上させることができる。
上記のように、画像収集装置は、撮影視野範囲内の実景画像をリアルタイムに捕捉して撮影し、リアルタイムに捕捉された実景画像をビデオストリームとして、AR集合写真生成機器のプロセッサに伝送することができる。AR集合写真生成機器のプロセッサは、取得したビデオストリームにおける各フレームの実景画像に基づき、目標対象とAR対象のARプレビュー画像を生成し、ARプレビュー画像をAR集合写真生成機器の表示インタフェースに表示し、更に、表示インタフェースに目標対象とAR対象のARプレビュー画像をリアルタイムに表示する。
理解できるように、生成したARプレビュー画像は、複数フレームのARプレビュー画像を含んでもよい。可能な実現形態において、複数フレームのARプレビュー画像に対する集合写真生成操作に応答して、目標対象とAR対象のAR集合写真ビデオを生成することができる。
可能な実現形態において、複数フレームのARプレビュー画像に対する集合写真生成操作は、AR集合写真生成機器によって提供されたタッチボタン又は物理ボタンに基づいてトリガーされた集合写真生成操作(例えば、ユーザが表示インタフェースに表示されている写真撮影ボタンをクリックすることで、集合写真生成操作をトリガーする)、又は、リモート制御方式に基づいてトリガーされた集合写真生成操作(例えば、ユーザのジェスチャーを識別することで、集合写真生成操作をリモートでトリガーすることを実現する)を含んでもよく、それらに限らない。集合写真生成操作の実現形式について、本願の実施例は限定しない。
理解できるように、複数フレームのARプレビュー画像に対する集合写真生成操作は少なくとも、集合写真生成開始及び集合写真生成終了操作、又は、集合写真生成開始、集合写真生成一時停止及び集合写真生成終了などの操作を含んでもよい。実施プロセスにおいて、実際の必要、AR集合写真生成機器によってサポートされる機能などに応じて設定してもよく、本願の実施例で、これを限定しない。
可能な実現形態において、目標対象とAR対象のAR集合写真ビデオを生成することは、画面録画して保存を行うという方式で実現してもよい。例えば、ユーザは、集合写真生成開始をクリックすると、画面録画を行う。集合写真生成終了を行うと、画面録画を終了する。画面録画に対応するビデオは、AR集合写真ビデオである。画面録画操作に対応するビデオをローカルに保存し、ユーザによる抽出に供することができる。
本願の実施例において、AR集合写真ビデオを生成し、目標対象とAR対象との位置関係と姿勢を動的に表示し、インタラクティブ感覚と没入感を向上させることができる。
図5は、本願の実施例によるARプレビュー画像の生成方法のフローチャートを示す。図5に示すように、前記ARプレビュー画像の生成方法は、
ビデオストリームデータを取得するステップS51と、
ビデオストリームデータ内の各フレームの画像に対して人体識別を行うステップS52と、
実人物の位置情報と姿勢情報を出力するステップS53と、
実人物の姿勢情報に基づいて、所定のAR人物の動作を決定するステップS54と、
AR人物を、対応する動作を行うように駆動するステップS55と、
実人物とAR人物との相対的位置をレンダリングするステップS56と、
ARプレビュー画像を生成するステップS57と、を含んでもよい。
可能な実現形態において、RGB又はTOFカメラに基づき、ビデオストリームデータを収集してもよい。人体識別技術に基づき、AR場面内の実人物の位置情報、AR人物の位置情報、実人物の人体骨格及び姿勢データなどのデータを決定し、これらのデータをデジタル信号に変換してAR集合写真生成機器(例えば、携帯端末)に返信してもよい。AR集合写真生成機器は、データを取得した後に、実人物とAR人物との位置関係を分析し、可視的に示すとともに、実人物の人体骨格及び姿勢を分析し、AR人物を、動作を行うように駆動し、面白い集合写真を形成する。
可能な実現形態において、所定のAR人物の動作を決定する時、以下の方式で決定してもよい。
対称動作:人体姿勢を分析し、AR人物キャラクタを、動作を行うように鏡像的に駆動し、AR集合写真生成を行い、例えば、現在では流行しているハートポーズ動作などを行う。
二人動作:実人物の人体姿勢と動作種別を分析し、AR人物キャラクタを、対応する動作を行うように駆動し、二人動作姿勢を行い、実人物とAR人物との慣習的なインタラクションを形成する。
可能な実現形態において、本願の実施例におけるAR集合写真の画像生成方法は、インターネットアプリケーションプログラム(Application:APP)、例えば、地図アプリケーション、又は、知的財産権(Intellectual Property:IP)キャラクタ、スポークスマンなどを有するアプリケーション製品に用いられてもよく、機能性APP、例えば、ARマーケティングの大部分の製品に用いられてもよい。
可能な実現形態において、実人物の人体姿勢と動作検出に基づいて、AR人物キャラクタの動作の変換をリアルタイムに駆動し、インタラクティブ効果を呈する。即ち、人体骨格検出などの技術と組み合わせ、リアルタイムな人物の肢体動作によって、AR人物キャラクタを、フィードバックを行うようにトリガーし、インタラクションを形成する。
関連技術において、人間のセグメンテーション機能が欠けているため、実人物と仮想素材との前後位置関係を知ることができない。AR場面全体において、仮想物体は、前面に位置し、十分なリアリティと没入感がない。図6aは、関連技術によるARプレビュー画像の概略図を示す。図6aに示すように、人間のセグメンテーション機能が欠けているため、仮想物体61が前面に位置し、仮想物体61と実人物62との位置関係を反映することができないことによって、集合写真全体が非常に硬くなっている。本願の実施例において、人間のセグメンテーション機能と組み合わせ、AR場面において、実人物62と仮想物体61との前後位置関係を強調し、AR場面全体をよりリアルにする。図6bは、本願の実施例によるARプレビュー画像の概略図を示す。図6bに記載のように、実人物62が仮想物体61の前側に位置し、実人物62と仮想物体61との位置関係を体現し、遮蔽効果を形成する。
関連技術において、AR人物が殆ど静止状態にあるため、AR集合写真が比較的に硬く、これは、以下の2つのケースを含む。a)骨格との関連付けがないため、肢体動作がなく、インタラクションの拡張の可能性が欠けている。b)所定の肢体動作に基づき、骨格との関連付けが行われているが、ユーザ動作とのインタラクティブ性が欠けており、珍しさと面白さが不十分である。本願の実施例において、人体骨格検出(人体キーポイント検出)機能と組み合わせ、AR集合写真場面において、実人物の骨格、動作姿勢情報を検出することで、AR人物キャラクタを、対応する動作、例えば、対称動作を行うように駆動し、インタラクション全体を更に生き生きとする。
本願の実施例において、AR場面において、ユーザに全く新しいインタラクション体験をもたらし、より面白く、現実的であり、楽しみがある。画像データに基づき、対応する位置情報を同時に解析し、実人物とAR人物キャラクタとの前後位置関係をリアルタイムに表示する。ARシリーズのアプリケーションソフトウェア形式により、ユーザはカメラの前で歩き回ったり、動作を行ったりすることができ、三次元仮想キャラクタを、応答動作を行うとともにリアルな物理的位置関係を感じるようにリアルタイムにトリガーすることができる。
本願の実施例において、AR場面において、インタラクティブ集合写真を体験する方案を提供し、ユーザは、画面において前後に歩き、仮想人物とのリアルな前後位置関係を体験することができ、それとともに、動作を行うことをサポートし、AR人物キャラクタを、応答するようにトリガーすることができる。ユーザは、ソーシャルシェアリングなどの用途に用いられる写真、インタラクティブビデオを迅速かつ簡単に出力することができる。
本願の実施例において、AR場面内部には、仮想素材が常に前面に位置するという問題を解決した。人物像の遮蔽機能を追加することで、AR場面における仮想物体とリアルな物体との位置関係を強調し、遮蔽効果を実現し、AR体験に対して、現実的な大きい飛躍をもたらす。
本願の実施例において、AR場面では、AR人物キャラクタとのインタラクションが固いという問題を解決し、骨格との関連付け、人体キーポイント検出及び姿勢検出などの技術によって、実人物の動作の変化に基づき、AR人物キャラクタを移行して、鏡像動作のようなフィードバックを行うように駆動することができる。
本願の実施例で言及した上記各方法の実施例は、原理や論理から逸脱しない限り、互いに組み合わせることで組み合わせた実施例を構成することができることが理解されるべきである。具体的な実施形態の上記方法において、各ステップの実行順番はその機能及び可能な内在的論理により決まることは、当業者であれば理解すべきである。
なお、本願の実施例は、集合写真の画像生成装置、電子機器、コンピュータ可読記憶媒体、コンピュータプログラム及びコンピュータプログラム製品を更に提供する。上記はいずれも、本願の実施例で提供されるいずれか1つの集合写真の画像生成方法を実現するためのものである。対応する技術的解決手段及び説明は、方法に関連する記述を参照されたい。
図7は、本願の実施例による集合写真の画像生成装置のブロック図を示す。図7に示すように、前記装置は、
実景画像を取得ように構成される取得モジュール21と、
前記実景画像に対して識別を行い、前記実景画像における目標対象及び拡張現実AR場面における前記目標対象の第1位置を決定するように構成される決定モジュール22と、
前記第1位置と前記AR場面におけるAR対象の第2位置とに基づいて、ARプレビュー画像を表示するように構成される表示モジュール23と、
前記ARプレビュー画像に対する集合写真生成操作に応答して、前記目標対象と前記AR対象のAR集合写真画像を生成するように構成される生成モジュール24と、を備える。
可能な実現形態において、前記決定モジュール22は、前記実景画像に対して人体識別を行い、前記実景画像における目標対象の所在する人体領域を決定するように構成される人体領域決定サブモジュールと、前記人体領域に基づいて、前記AR場面における前記目標対象の第1深度を決定するように構成される第1深度決定サブモジュールであって、前記第1位置は前記第1深度を含む、第1深度決定サブモジュールと、を備える。
可能な実現形態において、前記AR対象の第2位置は、前記AR場面における前記AR対象の第2深度を含み、前記表示モジュール23は、前記第1深度と前記第2深度との相対的関係に基づいて、前記実景画像において、前記AR対象をレンダリングし、ARプレビュー画像を生成して表示するように構成される第1表示サブモジュールを備える。
可能な実現形態において、前記装置は、前記実景画像に対して人体キーポイント検出を行い、前記実景画像における目標対象の人体姿勢を決定するように構成される姿勢決定モジュールを更に備え、前記表示モジュール23は、前記第1位置、前記第2位置及び前記目標対象の人体姿勢に基づいて、ARプレビュー画像を表示するように構成される第2表示サブモジュールを備える。
可能な実現形態において、前記第2表示サブモジュールは、前記目標対象の人体姿勢に基づいて、前記AR対象の第1姿勢を決定するように構成される第1姿勢決定ユニットであって、前記AR対象の第1姿勢と前記目標対象の人体姿勢とが対称である、第1姿勢決定ユニットと、前記第1姿勢、前記第1位置及び前記第2位置に基づいて、第1ARプレビュー画像を生成して表示するように構成される第1画像表示ユニットであって、前記第1ARプレビュー画像は、前記第1姿勢を有するAR対象を含む、第1画像表示ユニットと、を備える。
可能な実現形態において、前記第2表示サブモジュールは、前記目標対象の人体姿勢に基づいて、前記目標対象の人体姿勢に対応する動作種別を決定するように構成される動作種別決定ユニットと、前記動作種別に基づいて、前記AR対象の第2姿勢を決定するように構成される第2姿勢決定ユニットであって、前記AR対象の第2姿勢は前記動作種別とマッチングしている、第2姿勢決定ユニットと、前記第2姿勢、前記第1位置及び前記第2位置に基づいて、第2ARプレビュー画像を生成して表示するように構成される第2画像表示ユニットであって、前記第2ARプレビュー画像は前記第2姿勢を有するAR対象を含む、第2画像表示ユニットと、を備える。
可能な実現形態において、前記ARプレビュー画像は、複数フレームのARプレビュー画像を含み、前記生成モジュール24は、前記複数フレームのARプレビュー画像に対する集合写真生成操作に応答して、前記目標対象と前記AR対象のAR集合写真ビデオを生成するように構成される集合写真ビデオ生成サブモジュールを備える。
本願の実施例において、AR場面における目標対象の第1位置及びAR対象の第2位置に基づいて、ARプレビュー画像を表示し、ARプレビュー画像に対する集合写真生成操作に応答して、AR集合写真画像を生成することができ、それによってAR集合写真における仮想物体と実人物との相対的位置に基づき、仮想物体と実人物との遮蔽効果を実現し、リアリティと没入感を向上させることができる。
幾つかの実施例において、本願の実施例で提供される装置が持つ機能又は備えるモジュールは、上記方法の実施例に記載の方法を実行するように構成されてもよく、その具体的な実現は、上記方法の実施例の記述を参照することができる。
本願の実施例は、コンピュータ可読記憶媒体を更に提供する。該コンピュータ可読記憶媒体にはコンピュータプログラム命令が記憶されており、前記コンピュータプログラム命令がプロセッサにより実行される時、上記方法を実現する。コンピュータ可読記憶媒体は不揮発性コンピュータ可読記憶媒体であってもよい。
本願の実施例は電子機器を更に提供する。該電子機器は、プロセッサと、プロセッサによる実行可能な命令を記憶するように構成されるメモリと、を備え、前記プロセッサは、前記メモリに記憶されている命令を呼び出し、上記方法を実行するように構成される。
本願の実施例は、コンピュータプログラム製品を更に提供する。前記コンピュータプログラム製品は、コンピュータ可読コードを含み、コンピュータ可読コードが機器で実行される時、機器におけるプロセッサは、上記いずれか1つの実施例による画像処理方法を実現する命令を実行する。本願の実施例は、別のコンピュータプログラム製品を更に提供する。前記コンピュータプログラム製品は、コンピュータ可読命令を記憶するように構成され、命令が実行される時、コンピュータに、上記いずれか1つの実施例による画像処理方法の操作を実行させる。
電子機器は、端末、サーバ又は他の形態の機器として提供されてもよい。
図8は、本願の実施例による電子機器800のブロック図を示す。例えば、電子機器800は、携帯電話、コンピュータ、デジタル放送端末、メッセージング装置、ゲームコンソール、タブレットデバイス、医療機器、フィットネス機器、パーソナルデジタルアシスタントなどの端末であってもよい。
図8を参照すると、電子機器800は、処理ユニット802、メモリ804、電源ユニット806、マルチメディアユニット808、オーディオユニット810、入力/出力(Input/Output:I/O)インタフェース812、センサユニット814及び通信ユニット816のうちの1つ又は複数を備えてもよい。
処理ユニット802は一般的には、電子機器800の全体操作を制御する。例えば、表示、通話呼、データ通信、カメラ操作及び記録操作に関連する操作を制御する。処理ユニット802は、指令を実行するための1つ又は複数のプロセッサ820を備えてもよい。それにより上記方法の全て又は一部のステップを実行する。なお、処理ユニット802は、他のユニットとのインタラクションのために、1つ又は複数のモジュールを備えてもよい。例えば、処理ユニット802はマルチメディアモジュールを備えることで、マルチメディアユニット808と処理ユニット802とのインタラクションに寄与する。
メモリ804は、各種のデータを記憶することで電子機器800における操作をサポートするように構成される。これらのデータの例として、電子機器800上で操作れる如何なるアプリケーション又は方法の命令、連絡先データ、電話帳データ、メッセージ、イメージ、ビデオ等を含む。メモリ804は任意のタイプの揮発性又は不揮発性記憶装置、あるいはこれらの組み合わせにより実現される。例えば、スタティックランダムアクセスメモリ(SRAM:Static Random-Access Memory)、電気的消去可能なプログラマブル読み出し専用メモリ(EEPROM:Static Random-Access Memory)、消去可能なプログラマブル読出し専用メモリ(EPROM:Electrically Erasable Programmable Read-Only Memory)、プログラマブル読出し専用メモリ(PROM:Programmable Read-Only Memory)、読出し専用メモリ(ROM:Read Only Memory)、磁気メモリ、フラッシュメモリ、磁気もしくは光ディスクを含む。
電源ユニット806は電子機器800の様々なユニットに電力を提供する。電源ユニット806は、電源管理システム、1つ又は複数の電源、及び電子機器800のための電力生成、管理、分配に関連する他のユニットを備えてもよい。
マルチメディアユニット808は、上記電子機器800とユーザとの間に出力インタフェースを提供するためのスクリーンを備える。幾つかの実施例において、スクリーンは、液晶ディスプレイ(LCD:Liquid Crystal Display)及びタッチパネル(TP:Touch Panel)を含む。スクリーンは、タッチパネルを含むと、タッチパネルとして実現され、ユーザからの入力信号を受信する。タッチパネルは、タッチ、スライド及びパネル上のジェスチャーを感知する1つ又は複数のタッチセンサを備える。上記タッチセンサは、タッチ又はスライド動作の境界を感知するだけでなく、上記タッチ又はスライド操作に関連する持続時間及び圧力を検出することもできる。幾つかの実施例において、マルチメディアユニット808は、フロントカメラ及び/又はリアカメラを備える。電子機器800が、撮影モード又はビデオモードのような操作モードであれば、フロントカメラ及び/又はリアカメラは外部からのマルチメディアデータを受信することができる。各フロントカメラ及びリアカメラは固定した光学レンズシステム又は焦点及び光学ズーム能力を持つものであってもよい。
オーディオユニット810は、オーディオ信号を出力/入力するように構成される。例えば、オーディオユニット810は、マイクロホン(MIC:Microphone)を備える。電子機器800が、通話モード、記録モード及び音声識別モードのような操作モードであれば、マイクロホンは、外部からのオーディオ信号を受信するように構成される。受信したオーディオ信号を更にメモリ804に記憶するか、又は通信ユニット816を経由して送信することができる。幾つかの実施例において、オーディオユニット810は、オーディオ信号を出力するように構成されるスピーカーを更に備える。
I/Oインタフェース812は、処理ユニット802と周辺インタフェースモジュールとの間のインタフェースを提供する。上記周辺インタフェースモジュールは、キーボード、クリックホイール、ボタン等であってもよい。これらのボタンは、ホームボダン、ボリュームボタン、スタートボタン及びロックボタンを含むが、これらに限定されない。
センサユニット814は、1つ又は複数のセンサを備え、電子機器800のために様々な状態の評価を行うように構成される。例えば、センサユニット814は、電子機器800のオン/オフ状態、ユニットの相対的な位置決めを検出することができる。例えば、上記ユニットが電子機器800のディスプレイ及びキーパッドである。センサユニット814は電子機器800又は電子機器800における1つのユニットの位置の変化、ユーザと電子機器800との接触の有無、電子機器800の方位又は加速/減速及び電子機器800の温度の変動を検出することもできる。センサユニット814は近接センサを備えてもよく、いかなる物理的接触もない場合に周囲の物体の存在を検出するように構成される。センサユニット814は、相補型金属酸化膜半導体(CMOS:Complementary Metal-Oxide-Semiconductor)又は荷電結合素子(CCD:Charge Coupled Device)画像センサのような光センサを備えてもよく、結像に適用されるように構成される。幾つかの実施例において、該センサユニット814は、加速度センサ、ジャイロセンサ、磁気センサ、圧力センサ又は温度センサを更に備えてもよい。
通信ユニット816は、電子機器800と他の機器との有線又は無線方式の通信に寄与するように構成される。電子機器800は、無線ネットワーク(WiFi:Wireless Fidelity)、第2世代移動通信技術(2G:The 2nd Generation)又は第3世代移動通信技術(3G:The 3nd Generation)、又はそれらの組み合わせのような通信規格に基づいた無線ネットワークにアクセスできる。一例示的な実施例において、通信ユニット816は放送チャネルを経由して外部放送チャネル管理システムからの放送信号又は放送関連する情報を受信する。一例示的な実施例において、上記通信ユニット816は、近接場通信(NFC:Near Field Communication)モジュールを更に備えることで近距離通信を促進する。例えば、NFCモジュールは、無線周波数識別(RFID:Radio Frequency Identification)技術、赤外線データ協会(IrDA:Infrared Data Association)技術、超広帯域(UWB:Ultra Wide Band)技術、ブルートゥース(登録商標)(BT:Blue Tooth(登録商標))技術及び他の技術に基づいて実現される。
例示的な実施例において、電子機器800は、1つ又は複数の特定用途向け集積回路(ASIC:Application Specific Integrated Circuit)、デジタル信号プロセッサ(DSP:Digital Signal Processor)、デジタル信号処理機器(DSPD:Digital Signal Processing Device)、プログラマブルロジックデバイス(PLD:Programmable Logic Device)、フィールドプログラマブルゲートアレイ(FPGA:Field Programmable Gate Array)、コントローラ、マイクロコントローラ、マイクロプロセッサ又は他の電子素子により実現され、上記方法を実行するように構成されてもよい。
例示的な実施例において、コンピュータプログラム命令を記憶したメモリ804のような不揮発性コンピュータ可読記憶媒体を更に提供する。上記コンピュータプログラム命令は、電子機器800のプロセッサ820により実行され上記方法を完了する。
本願の実施例は、システム、方法及び/又はコンピュータプログラム製品であってもよい。コンピュータプログラム製品は、コンピュータ可読記憶媒体を備えてもよく、プロセッサに本願の各態様を実現するためのコンピュータ可読プログラム命令がそれに記憶されている。
コンピュータ可読記憶媒体は、命令実行装置に用いられる命令を保持又は記憶することができる有形装置であってもよい。コンピュータ可読記憶媒体は、例えば、電気記憶装置、磁気記憶装置、光記憶装置、電磁記憶装置、半導体記憶装置又は上記の任意の組み合わせであってもよいが、これらに限定されない。コンピュータ可読記憶媒体は、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM:Random Access Memory)、読み出し専用メモリ、消去可能なプログラマブル読み出し専用メモリ(EPROM又はフラッシュ)、スタティックランダムアクセスメモリ、ポータブルコンパクトディスク読み出し専用メモリ(CD-ROM:Compact Disc Read-Only Memory)、デジタル多目的ディスク(DVD:Digital Video Disc)、メモリスティック、フレキシブルディスク、命令が記憶されているパンチカード又は凹溝内における突起構造のような機械的符号化装置、及び上記任意の適切な組み合わせを含む。ここで用いられるコンピュータ可読記憶媒体は、電波もしくは他の自由に伝搬する電磁波、導波路もしくは他の伝送媒体を通って伝搬する電磁波(例えば、光ファイバケーブルを通過する光パルス)、又は、電線を通して伝送される電気信号などの、一時的な信号それ自体であると解釈されるべきではない。
ここで説明されるコンピュータ可読プログラム命令を、コンピュータ可読記憶媒体から各コンピューティング/処理機器にダウンロードすることができるか、又は、インターネット、ローカルエリアネットワーク、ワイドエリアネットワーク及び/又は無線ネットワークのようなネットワークを経由して外部コンピュータ又は外部記憶装置にダウンロードすることができる。ネットワークは、伝送用銅線ケーブル、光ファイバー伝送、無線伝送、ルータ、ファイアウォール、交換機、ゲートウェイコンピュータ及び/又はエッジサーバを含んでもよい。各コンピューティング/処理機器におけるネットワークインターフェースカード又はネットワークインタフェースは、ネットワークからコンピュータ可読プログラム命令を受信し、該コンピュータ可読プログラム命令を転送し、各コンピューティング/処理機器におけるコンピュータ可読記憶媒体に記憶する。
本願の操作を実行するためのコンピュータ可読プログラム命令は、アセンブラ命令、命令セットアーキテクチャ(ISA:Industry Standard Architecture)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又は1つ又は複数のプログラミング言語で記述されたソースコード又はターゲットコードであってもよい。前記プログラミング言語は、Smalltalk、C++などのようなオブジェクト指向プログラミング言語と、「C」プログラミング言語又は類似したプログラミング言語などの従来の手続型プログラミング言語とを含む。コンピュータ可読プログラム命令は、ユーザコンピュータ上で完全に実行してもよいし、ユーザコンピュータ上で部分的に実行してもよいし、独立したソフトウェアパッケージとして実行してもよいし、ユーザコンピュータ上で部分的に実行してリモートコンピュータ上で部分的に実行してもよいし、又はリモートコンピュータ又はサーバ上で完全に実行してもよい。リモートコンピュータの場合に、リモートコンピュータは、ローカルエリアネットワーク(LAN:Local Area Network)やワイドエリアネットワーク(WAN:Wide Area Network)を含む任意の種類のネットワークを通じてユーザのコンピュータに接続するか、又は、外部のコンピュータに接続することができる(例えばインターネットサービスプロバイダを用いてインターネットを通じて接続する)。幾つかの実施例において、コンピュータ可読プログラム命令の状態情報を利用して、プログラマブル論理回路、フィールドプログラマブルゲートアレイ又はプログラマブル論理アレイのような電子回路をカスタマイズする。該電子回路は、コンピュータ可読プログラム命令を実行することで、本出願の各態様を実現することができる。
ここで、本出願の実施例の方法、装置(システム)及びコンピュータプログラム製品のフローチャート及び/又はブロック図を参照しながら、本出願の各態様を説明する。フローチャート及び/又はブロック図の各ブロック及びフローチャート及び/又はブロック図における各ブロックの組み合わせは、いずれもコンピュータ可読プログラム命令により実現できる。
これらのコンピュータ可読プログラム命令は、汎用コンピュータ、専用コンピュータ又はその他プログラマブルデータ処理機器のプロセッサに提供でき、それによって機器を生み出し、これら命令はコンピュータ又はその他プログラマブルデータ処理機器のプロセッサにより実行される時、フローチャート及び/又はブロック図における1つ又は複数のブロック中で規定している機能/操作を実現する装置を生み出した。これらのコンピュータ可読プログラム命令をコンピュータ可読記憶媒体に記憶してもよい。これらの命令によれば、コンピュータ、プログラマブルデータ処理機器及び/又は他の装置は特定の方式で動作する。従って、命令が記憶されているコンピュータ可読記憶媒体は、フローチャート及び/又はブロック図おける1つ又は複数のブロック中で規定している機能/操作を実現する各態様の命令を含む製品を備える。
コンピュータ可読プログラム命令をコンピュータ、他のプログラマブルデータ処理機器又は他の装置にロードしてもよい。これにより、コンピュータ、他のプログラマブルデータ処理機器又は他の装置で一連の操作の工程を実行して、コンピュータで実施されるプロセスを生成する。従って、コンピュータ、他のプログラマブルデータ処理機器又は他の装置で実行される命令により、フローチャート及び/又はブロック図における1つ又は複数のブロック中で規定している機能/操作を実現する。
図面におけるフローチャート及びブック図は、本出願の複数の実施例によるシステム、方法及びコンピュータプログラム製品の実現可能なアーキテクチャ、機能および操作を例示するものである。この点で、フローチャート又はブロック図における各ブロックは、1つのモジュール、プログラムセグメント又は命令の一部を表すことができる。前記モジュール、プログラムセグメント又は命令の一部は、1つ又は複数の所定の論理機能を実現するための実行可能な命令を含む。幾つかの取り替えとしての実現中に、ブロックに表記される機能は図面中に表記される順序と異なる順序で発生することができる。例えば、二つの連続するブロックは実際には基本的に並行して実行でき、場合によっては反対の順序で実行することもでき、これは関係する機能から確定する。ブロック図及び/又はフローチャートにおける各ブロック、及びブロック図及び/又はフローチャートにおけるブロックの組み合わせは、所定の機能又は操作を実行するための専用ハードウェアベースシステムにより実現するか、又は専用ハードウェアとコンピュータ命令の組み合わせにより実現することができる。該コンピュータプログラム製品は、ハードウェア、ソフトウェア又はその組み合わせにより実現してもよい。1つの選択的な実施例において、前記コンピュータプログラム製品は、コンピュータ記憶媒体として具現化されてもよく、別の選択的な実施例において、コンピュータプログラム製品は、例えば、ソフトウェア開発キット(Software Development Kit:SDK)等のようなソフトウェア製品として具現化されてもよい。
以上は本発明の各実施例を説明したが、前記説明は例示的なものであり、網羅するものではなく、且つ開示した各実施例に限定されない。説明した各実施例の範囲と趣旨から脱逸しない場合、当業者にとって、多くの修正及び変更は容易に想到しえるものである。本明細書に用いられる用語の選択は、各実施例の原理、実際の応用、或いは市場における技術への改善を最もよく解釈すること、或いは他の当業者が本明細書に開示された各実施例を理解できることを目的とする。
本願の実施例において、実景画像を取得し、実景画像に対して識別を行い、実景画像における目標対象及び拡張現実AR場面における目標対象の第1位置を決定し、第1位置とAR場面におけるAR対象の第2位置とに基づいて、ARプレビュー画像を表示し、ARプレビュー画像に対する集合写真生成操作に応答して、目標対象とAR対象のAR集合写真画像を生成する。本願の実施例は、AR集合写真場面におけるリアリティと没入感の向上を実現することができる。
本願の実施例において、AR場面における目標対象の第1位置及びAR対象の第2位置に基づいて、ARプレビュー画像を表示し、ARプレビュー画像に対する集合写真生成操作に応答して、AR集合写真画像を生成することができ、それによってAR集合写真における仮想物体と実人物との相対的位置に基づき、仮想物体と実人物との遮蔽効果を実現し、AR集合写真場面におけるリアリティと没入感を向上させることができる。
例えば、本願は以下の項目を提供する。
(項目1)
集合写真の画像生成方法であって、
実景画像を取得することと、
前記実景画像に対して識別を行い、前記実景画像における目標対象と拡張現実(AR)場面における前記目標対象の第1位置とを決定することと、
前記第1位置と前記AR場面におけるAR対象の第2位置とに基づいて、ARプレビュー画像を表示することと、
前記ARプレビュー画像に対する集合写真生成操作に応答して、前記目標対象と前記AR対象のAR集合写真画像を生成することと、を含む、集合写真の画像生成方法。
(項目2)
前記実景画像に対して識別を行い、前記実景画像における目標対象と拡張現実(AR)場面における前記目標対象の第1位置とを決定することは、
前記実景画像に対して人体識別を行い、前記実景画像における目標対象の所在する人体領域を決定することと、
前記人体領域に基づいて、前記AR場面における前記目標対象の第1深度を決定することであって、前記第1位置は前記第1深度を含む、ことと、を含むことを特徴とする
項目1に記載の方法。
(項目3)
前記AR対象の第2位置は、前記AR場面における前記AR対象の第2深度を含み、
前記第1位置と前記AR場面におけるAR対象の第2位置とに基づいて、ARプレビュー画像を表示することは、
前記第1深度と前記第2深度との相対的関係に基づいて、前記実景画像において、前記AR対象をレンダリングし、ARプレビュー画像を生成して表示することを含むことを特徴とする
項目1又は2に記載の方法。
(項目4)
前記方法は、
前記実景画像に対して人体キーポイント検出を行い、前記実景画像における目標対象の人体姿勢を決定することを更に含み、
前記第1位置と前記AR場面におけるAR対象の第2位置とに基づいて、ARプレビュー画像を表示することは、
前記第1位置、前記第2位置及び前記目標対象の人体姿勢に基づいて、ARプレビュー画像を表示することを含むことを特徴とする
項目1から3のいずれか一項に記載の方法。
(項目5)
前記第1位置、前記第2位置及び前記目標対象の人体姿勢に基づいて、ARプレビュー画像を表示することは、
前記目標対象の人体姿勢に基づいて、前記AR対象の第1姿勢を決定することであって、前記AR対象の第1姿勢と前記目標対象の人体姿勢とが対称である、ことと、
前記第1姿勢、前記第1位置及び前記第2位置に基づいて、第1ARプレビュー画像を生成して表示することであって、前記第1ARプレビュー画像は、前記第1姿勢を有するAR対象を含む、ことと、を含むことを特徴とする
項目4に記載の方法。
(項目6)
前記第1位置、前記第2位置及び前記目標対象の人体姿勢に基づいて、ARプレビュー画像を表示することは、
前記目標対象の人体姿勢に基づいて、前記目標対象の人体姿勢に対応する動作種別を決定することと、
前記動作種別に基づいて、前記AR対象の第2姿勢を決定することであって、前記AR対象の第2姿勢は前記動作種別とマッチングしている、ことと、
前記第2姿勢、前記第1位置及び前記第2位置に基づいて、第2ARプレビュー画像を生成して表示することであって、前記第2ARプレビュー画像は前記第2姿勢を有するAR対象を含む、ことと、を含むことを特徴とする
項目4又は5に記載の方法。
(項目7)
前記ARプレビュー画像は、複数フレームのARプレビュー画像を含み、前記ARプレビュー画像に対する集合写真生成操作に応答して、前記目標対象と前記AR対象のAR集合写真画像を生成することは、
前記複数フレームのARプレビュー画像に対する集合写真生成操作に応答して、前記目標対象と前記AR対象のAR集合写真ビデオを生成することを含むことを特徴とする
項目1から6のいずれか一項に記載の方法。
(項目8)
集合写真の画像生成装置であって、
実景画像を取得ように構成される取得モジュールと、
前記実景画像に対して識別を行い、前記実景画像における目標対象と拡張現実(AR)場面における前記目標対象の第1位置とを決定するように構成される決定モジュールと、
前記第1位置と前記AR場面におけるAR対象の第2位置とに基づいて、ARプレビュー画像を表示するように構成される表示モジュールと、
前記ARプレビュー画像に対する集合写真生成操作に応答して、前記目標対象と前記AR対象のAR集合写真画像を生成するように構成される生成モジュールと、を備える、集合写真の画像生成装置。
(項目9)
前記決定モジュールは、
前記実景画像に対して人体識別を行い、前記実景画像における目標対象の所在する人体領域を決定するように構成される人体領域決定サブモジュールと、
前記人体領域に基づいて、前記AR場面における前記目標対象の第1深度を決定するように構成される第1深度決定サブモジュールであって、前記第1位置は前記第1深度を含む、第1深度決定サブモジュールと、を備えることを特徴とする
項目8に記載の装置。
(項目10)
前記AR対象の第2位置は、前記AR場面における前記AR対象の第2深度を含み、前記表示モジュールは、
前記第1深度と前記第2深度との相対的関係に基づいて、前記実景画像において、前記AR対象をレンダリングし、ARプレビュー画像を生成して表示するように構成される第1表示サブモジュールを備えることを特徴とする
項目8又は9に記載の装置。
(項目11)
前記装置は、
前記実景画像に対して人体キーポイント検出を行い、前記実景画像における目標対象の人体姿勢を決定するように構成される姿勢決定モジュールを更に備え、
前記表示モジュールは、前記第1位置、前記第2位置及び前記目標対象の人体姿勢に基づいて、ARプレビュー画像を表示するように構成される第2表示サブモジュールを備えることを特徴とする
項目8から10のいずれか一項に記載の装置。
(項目12)
前記第2表示サブモジュールは、
前記目標対象の人体姿勢に基づいて、前記AR対象の第1姿勢を決定するように構成される第1姿勢決定ユニットであって、前記AR対象の第1姿勢と前記目標対象の人体姿勢とが対称である、第1姿勢決定ユニットと、
前記第1姿勢、前記第1位置及び前記第2位置に基づいて、第1ARプレビュー画像を生成して表示するように構成される第1画像表示ユニットであって、前記第1ARプレビュー画像は、前記第1姿勢を有するAR対象を含む、第1画像表示ユニットと、を備えることを特徴とする
項目11に記載の装置。
(項目13)
前記第2表示サブモジュールは、
前記目標対象の人体姿勢に基づいて、前記目標対象の人体姿勢に対応する動作種別を決定するように構成される動作種別決定ユニットと、
前記動作種別に基づいて、前記AR対象の第2姿勢を決定するように構成される第2姿勢決定ユニットであって、前記AR対象の第2姿勢は前記動作種別とマッチングしている、第2姿勢決定ユニットと、
前記第2姿勢、前記第1位置及び前記第2位置に基づいて、第2ARプレビュー画像を生成して表示するように構成される第2画像表示ユニットであって、前記第2ARプレビュー画像は前記第2姿勢を有するAR対象を含む、第2画像表示ユニットと、を備えることを特徴とする
項目11又は12に記載の装置。
(項目14)
前記ARプレビュー画像は、複数フレームのARプレビュー画像を含み、前記生成モジュールは、
前記複数フレームのARプレビュー画像に対する集合写真生成操作に応答して、前記目標対象と前記AR対象のAR集合写真ビデオを生成するように構成される集合写真ビデオ生成サブモジュールを備えることを特徴とする
項目8から13のいずれか一項に記載の装置。
(項目15)
電子機器であって、
プロセッサと、
プロセッサによる実行可能な命令を記憶するように構成されるメモリと、を備え、
前記プロセッサは、前記メモリに記憶されている命令を呼び出し、項目1から7のいずれか一項に記載の方法を実行するように構成される、電子機器。
(項目16)
コンピュータ可読記憶媒体であって、前記コンピュータ可読記憶媒体に、コンピュータプログラム命令が記憶されており、前記コンピュータプログラム命令がプロセッサにより実行される時、項目1から7のいずれか一項に記載の方法を実現する、コンピュータ可読記憶媒体。
(項目17)
コンピュータプログラムであって、コンピュータ可読コードを含み、前記コンピュータ可読コードが電子機器において実行される時、前記電子機器におけるプロセッサは、項目1から7のいずれか一項に記載の方法を実行する、コンピュータプログラム。
(項目18)
コンピュータプログラム製品であって、前記コンピュータプログラム製品は、1つ又は複数の命令を含み、前記1つ又は複数の命令は、プロセッサによってロードされて項目1から7のいずれか一項に記載の方法におけるステップを実行することに適する、コンピュータプログラム製品。

Claims (18)

  1. 集合写真の画像生成方法であって、
    実景画像を取得することと、
    前記実景画像に対して識別を行い、前記実景画像における目標対象と拡張現実(AR)場面における前記目標対象の第1位置とを決定することと、
    前記第1位置と前記AR場面におけるAR対象の第2位置とに基づいて、ARプレビュー画像を表示することと、
    前記ARプレビュー画像に対する集合写真生成操作に応答して、前記目標対象と前記AR対象のAR集合写真画像を生成することと、を含む、集合写真の画像生成方法。
  2. 前記実景画像に対して識別を行い、前記実景画像における目標対象と拡張現実(AR)場面における前記目標対象の第1位置とを決定することは、
    前記実景画像に対して人体識別を行い、前記実景画像における目標対象の所在する人体領域を決定することと、
    前記人体領域に基づいて、前記AR場面における前記目標対象の第1深度を決定することであって、前記第1位置は前記第1深度を含む、ことと、を含むことを特徴とする
    請求項1に記載の方法。
  3. 前記AR対象の第2位置は、前記AR場面における前記AR対象の第2深度を含み、
    前記第1位置と前記AR場面におけるAR対象の第2位置とに基づいて、ARプレビュー画像を表示することは、
    前記第1深度と前記第2深度との相対的関係に基づいて、前記実景画像において、前記AR対象をレンダリングし、ARプレビュー画像を生成して表示することを含むことを特徴とする
    請求項1又は2に記載の方法。
  4. 前記方法は、
    前記実景画像に対して人体キーポイント検出を行い、前記実景画像における目標対象の人体姿勢を決定することを更に含み、
    前記第1位置と前記AR場面におけるAR対象の第2位置とに基づいて、ARプレビュー画像を表示することは、
    前記第1位置、前記第2位置及び前記目標対象の人体姿勢に基づいて、ARプレビュー画像を表示することを含むことを特徴とする
    請求項1から3のいずれか一項に記載の方法。
  5. 前記第1位置、前記第2位置及び前記目標対象の人体姿勢に基づいて、ARプレビュー画像を表示することは、
    前記目標対象の人体姿勢に基づいて、前記AR対象の第1姿勢を決定することであって、前記AR対象の第1姿勢と前記目標対象の人体姿勢とが対称である、ことと、
    前記第1姿勢、前記第1位置及び前記第2位置に基づいて、第1ARプレビュー画像を生成して表示することであって、前記第1ARプレビュー画像は、前記第1姿勢を有するAR対象を含む、ことと、を含むことを特徴とする
    請求項4に記載の方法。
  6. 前記第1位置、前記第2位置及び前記目標対象の人体姿勢に基づいて、ARプレビュー画像を表示することは、
    前記目標対象の人体姿勢に基づいて、前記目標対象の人体姿勢に対応する動作種別を決定することと、
    前記動作種別に基づいて、前記AR対象の第2姿勢を決定することであって、前記AR対象の第2姿勢は前記動作種別とマッチングしている、ことと、
    前記第2姿勢、前記第1位置及び前記第2位置に基づいて、第2ARプレビュー画像を生成して表示することであって、前記第2ARプレビュー画像は前記第2姿勢を有するAR対象を含む、ことと、を含むことを特徴とする
    請求項4又は5に記載の方法。
  7. 前記ARプレビュー画像は、複数フレームのARプレビュー画像を含み、前記ARプレビュー画像に対する集合写真生成操作に応答して、前記目標対象と前記AR対象のAR集合写真画像を生成することは、
    前記複数フレームのARプレビュー画像に対する集合写真生成操作に応答して、前記目標対象と前記AR対象のAR集合写真ビデオを生成することを含むことを特徴とする
    請求項1から6のいずれか一項に記載の方法。
  8. 集合写真の画像生成装置であって、
    実景画像を取得ように構成される取得モジュールと、
    前記実景画像に対して識別を行い、前記実景画像における目標対象と拡張現実(AR)場面における前記目標対象の第1位置とを決定するように構成される決定モジュールと、
    前記第1位置と前記AR場面におけるAR対象の第2位置とに基づいて、ARプレビュー画像を表示するように構成される表示モジュールと、
    前記ARプレビュー画像に対する集合写真生成操作に応答して、前記目標対象と前記AR対象のAR集合写真画像を生成するように構成される生成モジュールと、を備える、集合写真の画像生成装置。
  9. 前記決定モジュールは、
    前記実景画像に対して人体識別を行い、前記実景画像における目標対象の所在する人体領域を決定するように構成される人体領域決定サブモジュールと、
    前記人体領域に基づいて、前記AR場面における前記目標対象の第1深度を決定するように構成される第1深度決定サブモジュールであって、前記第1位置は前記第1深度を含む、第1深度決定サブモジュールと、を備えることを特徴とする
    請求項8に記載の装置。
  10. 前記AR対象の第2位置は、前記AR場面における前記AR対象の第2深度を含み、前記表示モジュールは、
    前記第1深度と前記第2深度との相対的関係に基づいて、前記実景画像において、前記AR対象をレンダリングし、ARプレビュー画像を生成して表示するように構成される第1表示サブモジュールを備えることを特徴とする
    請求項8又は9に記載の装置。
  11. 前記装置は、
    前記実景画像に対して人体キーポイント検出を行い、前記実景画像における目標対象の人体姿勢を決定するように構成される姿勢決定モジュールを更に備え、
    前記表示モジュールは、前記第1位置、前記第2位置及び前記目標対象の人体姿勢に基づいて、ARプレビュー画像を表示するように構成される第2表示サブモジュールを備えることを特徴とする
    請求項8から10のいずれか一項に記載の装置。
  12. 前記第2表示サブモジュールは、
    前記目標対象の人体姿勢に基づいて、前記AR対象の第1姿勢を決定するように構成される第1姿勢決定ユニットであって、前記AR対象の第1姿勢と前記目標対象の人体姿勢とが対称である、第1姿勢決定ユニットと、
    前記第1姿勢、前記第1位置及び前記第2位置に基づいて、第1ARプレビュー画像を生成して表示するように構成される第1画像表示ユニットであって、前記第1ARプレビュー画像は、前記第1姿勢を有するAR対象を含む、第1画像表示ユニットと、を備えることを特徴とする
    請求項11に記載の装置。
  13. 前記第2表示サブモジュールは、
    前記目標対象の人体姿勢に基づいて、前記目標対象の人体姿勢に対応する動作種別を決定するように構成される動作種別決定ユニットと、
    前記動作種別に基づいて、前記AR対象の第2姿勢を決定するように構成される第2姿勢決定ユニットであって、前記AR対象の第2姿勢は前記動作種別とマッチングしている、第2姿勢決定ユニットと、
    前記第2姿勢、前記第1位置及び前記第2位置に基づいて、第2ARプレビュー画像を生成して表示するように構成される第2画像表示ユニットであって、前記第2ARプレビュー画像は前記第2姿勢を有するAR対象を含む、第2画像表示ユニットと、を備えることを特徴とする
    請求項11又は12に記載の装置。
  14. 前記ARプレビュー画像は、複数フレームのARプレビュー画像を含み、前記生成モジュールは、
    前記複数フレームのARプレビュー画像に対する集合写真生成操作に応答して、前記目標対象と前記AR対象のAR集合写真ビデオを生成するように構成される集合写真ビデオ生成サブモジュールを備えることを特徴とする
    請求項8から13のいずれか一項に記載の装置。
  15. 電子機器であって、
    プロセッサと、
    プロセッサによる実行可能な命令を記憶するように構成されるメモリと、を備え、
    前記プロセッサは、前記メモリに記憶されている命令を呼び出し、請求項1から7のいずれか一項に記載の方法を実行するように構成される、電子機器。
  16. コンピュータ可読記憶媒体であって、前記コンピュータ可読記憶媒体に、コンピュータプログラム命令が記憶されており、前記コンピュータプログラム命令がプロセッサにより実行される時、請求項1から7のいずれか一項に記載の方法を実現する、コンピュータ可読記憶媒体。
  17. コンピュータプログラムであって、コンピュータ可読コードを含み、前記コンピュータ可読コードが電子機器において実行される時、前記電子機器におけるプロセッサは、請求項1から7のいずれか一項に記載の方法を実行する、コンピュータプログラム。
  18. コンピュータプログラム製品であって、前記コンピュータプログラム製品は、1つ又は複数の命令を含み、前記1つ又は複数の命令は、プロセッサによってロードされて請求項1から7のいずれか一項に記載の方法におけるステップを実行することに適する、コンピュータプログラム製品。
JP2023501067A 2021-01-15 2021-07-16 集合写真の画像生成方法、装置、機器、記憶媒体、コンピュータプログラム及び製品 Pending JP2023533022A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202110056318.1 2021-01-15
CN202110056318.1A CN112906467A (zh) 2021-01-15 2021-01-15 合影图像生成方法及装置、电子设备和存储介质
PCT/CN2021/106939 WO2022151687A1 (zh) 2021-01-15 2021-07-16 合影图像生成方法、装置、设备、存储介质、计算机程序及产品

Publications (1)

Publication Number Publication Date
JP2023533022A true JP2023533022A (ja) 2023-08-01

Family

ID=76113759

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023501067A Pending JP2023533022A (ja) 2021-01-15 2021-07-16 集合写真の画像生成方法、装置、機器、記憶媒体、コンピュータプログラム及び製品

Country Status (3)

Country Link
JP (1) JP2023533022A (ja)
CN (1) CN112906467A (ja)
WO (1) WO2022151687A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112906467A (zh) * 2021-01-15 2021-06-04 深圳市慧鲤科技有限公司 合影图像生成方法及装置、电子设备和存储介质

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109582122B (zh) * 2017-09-29 2022-05-03 阿里巴巴集团控股有限公司 增强现实信息提供方法、装置及电子设备
KR102022980B1 (ko) * 2017-12-01 2019-09-19 클릭트 주식회사 깊이데이터를 이용한 증강현실영상 제공방법 및 프로그램
CN108182730B (zh) * 2018-01-12 2022-08-12 北京小米移动软件有限公司 虚实对象合成方法及装置
CN108492363B (zh) * 2018-03-26 2020-03-10 Oppo广东移动通信有限公司 基于增强现实的结合方法、装置、存储介质及电子设备
CN109872297A (zh) * 2019-03-15 2019-06-11 北京市商汤科技开发有限公司 图像处理方法及装置、电子设备和存储介质
CN111640192A (zh) * 2020-06-05 2020-09-08 上海商汤智能科技有限公司 场景图像处理方法、装置、ar设备以及存储介质
CN111638798A (zh) * 2020-06-07 2020-09-08 上海商汤智能科技有限公司 一种ar合影方法、装置、计算机设备及存储介质
CN111640165A (zh) * 2020-06-08 2020-09-08 上海商汤智能科技有限公司 Ar合影图像的获取方法、装置、计算机设备及存储介质
CN111640167A (zh) * 2020-06-08 2020-09-08 上海商汤智能科技有限公司 一种ar合影方法、装置、计算机设备及存储介质
CN111640166B (zh) * 2020-06-08 2024-03-26 上海商汤智能科技有限公司 一种ar合影方法、装置、计算机设备及存储介质
CN111640197A (zh) * 2020-06-09 2020-09-08 上海商汤智能科技有限公司 一种增强现实ar特效控制方法、装置及设备
CN111640203B (zh) * 2020-06-12 2024-04-12 上海商汤智能科技有限公司 一种图像处理方法及装置
CN111652987B (zh) * 2020-06-12 2023-11-07 浙江商汤科技开发有限公司 一种ar合影图像生成的方法及装置
CN111667590B (zh) * 2020-06-12 2024-03-22 上海商汤智能科技有限公司 一种互动合影方法、装置、电子设备及存储介质
CN111860252A (zh) * 2020-07-09 2020-10-30 北京市商汤科技开发有限公司 图像处理方法、设备及存储介质
CN111862340A (zh) * 2020-07-09 2020-10-30 北京市商汤科技开发有限公司 增强现实数据呈现方法、装置、显示设备和存储介质
CN111950521A (zh) * 2020-08-27 2020-11-17 深圳市慧鲤科技有限公司 一种增强现实交互的方法、装置、电子设备及存储介质
CN112150349A (zh) * 2020-09-23 2020-12-29 北京市商汤科技开发有限公司 一种图像处理方法、装置、计算机设备及存储介质
CN112906467A (zh) * 2021-01-15 2021-06-04 深圳市慧鲤科技有限公司 合影图像生成方法及装置、电子设备和存储介质

Also Published As

Publication number Publication date
WO2022151687A1 (zh) 2022-07-21
CN112906467A (zh) 2021-06-04

Similar Documents

Publication Publication Date Title
US20220044056A1 (en) Method and apparatus for detecting keypoints of human body, electronic device and storage medium
JP7106687B2 (ja) 画像生成方法および装置、電子機器、並びに記憶媒体
CN109257645B (zh) 视频封面生成方法及装置
TWI706379B (zh) 圖像處理方法及裝置、電子設備和儲存介質
CN111726536A (zh) 视频生成方法、装置、存储介质及计算机设备
WO2022068479A1 (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
JP2016531362A (ja) 肌色調整方法、肌色調整装置、プログラム及び記録媒体
US11030733B2 (en) Method, electronic device and storage medium for processing image
JP2022502893A (ja) 画像処理方法及び装置、電子機器並びに記憶媒体
CN110928627B (zh) 界面展示方法及装置、电子设备和存储介质
WO2022188305A1 (zh) 信息展示方法及装置、电子设备、存储介质及计算机程序
WO2017124899A1 (zh) 一种信息处理方法及装置、电子设备
CN109840917B (zh) 图像处理方法及装置、网络训练方法及装置
CN110889382A (zh) 虚拟形象渲染方法及装置、电子设备和存储介质
WO2021259185A1 (zh) 图像处理方法、装置、设备及可读存储介质
CN110782532B (zh) 图像生成方法、生成装置、电子设备及存储介质
WO2022151686A1 (zh) 场景图像展示方法、装置、设备、存储介质、程序及产品
CN111626183A (zh) 一种目标对象展示方法及装置、电子设备和存储介质
TW202314496A (zh) 任務處理方法及電子設備、電腦可讀儲存媒體
CN112991381B (zh) 图像处理方法及装置、电子设备和存储介质
CN113194254A (zh) 图像拍摄方法及装置、电子设备和存储介质
WO2023155532A1 (zh) 位姿检测方法及装置、电子设备和存储介质
WO2023051356A1 (zh) 一种虚拟对象的显示方法及装置、电子设备和存储介质
CN114387445A (zh) 对象关键点识别方法及装置、电子设备和存储介质
CN110807769B (zh) 图像显示控制方法及装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230106

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240321

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240423