JP2023501832A - レンズ分割の実現方法、装置および関連製品 - Google Patents

レンズ分割の実現方法、装置および関連製品 Download PDF

Info

Publication number
JP2023501832A
JP2023501832A JP2022528715A JP2022528715A JP2023501832A JP 2023501832 A JP2023501832 A JP 2023501832A JP 2022528715 A JP2022528715 A JP 2022528715A JP 2022528715 A JP2022528715 A JP 2022528715A JP 2023501832 A JP2023501832 A JP 2023501832A
Authority
JP
Japan
Prior art keywords
lens
image
virtual
real
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022528715A
Other languages
English (en)
Other versions
JP7457806B2 (ja
Inventor
ウェンタオ リウ
ジアユー ジョン
ジャンポン ホアン
ジアホワ リー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Sensetime Technology Co Ltd
Original Assignee
Shenzhen Sensetime Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Sensetime Technology Co Ltd filed Critical Shenzhen Sensetime Technology Co Ltd
Publication of JP2023501832A publication Critical patent/JP2023501832A/ja
Application granted granted Critical
Publication of JP7457806B2 publication Critical patent/JP7457806B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/2053D [Three Dimensional] animation driven by audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本願実施例は、レンズ分割の実現方法、装置および関連製品を開示し、前記方法は、三次元仮想モデルを取得することと、少なくとも2つの異なるレンズ視野角で前記三次元仮想モデルをレンダリングして、少なくとも2つの異なるレンズ視野角にそれぞれ対応する仮想画像を取得することと、を含む。【選択図】図3

Description

本願は、2019年12月3日に中国特許局に提出された、出願番号が201911225211.4である中国特許出願に基づいて提出されるものであり、当該中国特許出願の優先権を主張し、当該中国特許出願の全ての内容は、全文を参照する方式で本願に組み込まれる。
本願は、仮想技術分野に関し、特に、レンズ分割の実現方法、装置および関連製品に関する。
近年、人々によく知られている「初音ミク」、「洛天依」などの音楽分野における仮想アイドルの適用、またはニュースライブにおける仮想ホストの適用など、「仮想人物」は、我々の生活に頻繁に登場している。仮想人物は、実在人物を置き換えてネットワーク世界で活動でき、ユーザは、要求に応じて自力で仮想人物の外観、スタイルなどを設定できるため、仮想人物は、徐々に、人間間のコミュニケーション手段になった。
現在、ネットワークにおける仮想人物の生成プロセスでは、通常、モーションキャプチャ技術を採用し、画像を識別する方法を介して、撮影して得た実在人物画像を分析し、それにより、実在人物の動きおよび表情を仮想人物にダイレクトして、仮想人物に、実在人物の動きおよび表情を再現させる。
本願実施例は、レンズ分割の実現方法、装置および関連製品を開示する。
第1態様において、本願実施例は、レンズ分割の実現方法を提供し、前記方法は、三次元仮想モデルを取得することと、少なくとも2つの異なるレンズ視野角で三次元仮想モデルをレンダリングして、少なくとも2つの異なるレンズ視野角にそれぞれ対応する仮想画像を取得することと、を含む。
上記の方法は、三次元仮想モデルを取得し、少なくとも2つの異なるレンズ視野角で三次元仮想モデルをレンダリングすることにより、少なくとも2つの異なるレンズ視野角にそれぞれ対応する仮想画像を取得して、ユーザが、異なるレンズ視野角での仮想画像を見ることができるようにし、ユーザに豊富な視覚体験を与える。
本願のいくつかの代替実施例において、三次元仮想モデルは、三次元仮想シーンモデルに位置する三次元仮想人物モデルを含み、三次元仮想モデルを取得する前に、上記の方法は、実画像を取得することであって、ここで、実画像は、実在人物画像を含むことと、実在人物画像に対して特徴抽出を実行して特徴情報を取得することであって、ここで、特徴情報は、実在人物の動き情報を含むことと、特徴情報に従って三次元仮想モデルを生成して、三次元仮想モデルのうちの三次元仮想人物モデルの動き情報が実在人物の動き情報に対応させることと、をさらに含む。
これから分かるように、収集して得た実在人物画像に対して特徴抽出を実行することにより、三次元仮想モデルを生成して、三次元仮想モデルのうちの三次元仮想人物モデルが、実在人物の顔表情および体の動きを再現させ、観客が、三次元仮想モデルに対応する仮想画像を観覧することにより、実在人物の顔表情と体の動きを知ることを容易にし、観客とライブアンカがより柔軟に対話することができるようにする。
本願のいくつかの代替実施例において、実画像を取得することは、ビデオストリームを取得し、ビデオストリームのうちの少なくとも2フレームの画像に従って、少なくとも2フレームの実画像を取得することを含み、実在人物画像に対して特徴抽出を実行して特徴情報を取得することは、各フレームの実在人物画像に対してそれぞれ特徴抽出を実行して、対応する特徴情報を取得することを含む。
これから分かるように、三次元仮想モデルは、収集して得たマルチフレームの実画像に従ってリアルタイムで変化して、ユーザが、異なるレンズ視野角での三次元仮想モデルの動的変化プロセスを見ることができるようにすることができる。
本願のいくつかの代替実施例において、実画像は、さらに、実シーン画像を含み、三次元仮想モデルは、さらに、三次元仮想シーンモデルを含み、三次元仮想モデルを取得する前に、上記の方法は、実シーン画像に従って、三次元仮想シーンモデルを構築することをさらに含む。
これから分かるように、上記の方法は、さらに、実シーン画像を使用して、三次元仮想モデルのうちの三次元仮想シーン画像を構築することができ、特定の三次元仮想シーン画像のみを選択することと比べて、三次元仮想シーン画像をより選択的にさせる。
本願のいくつかの代替実施例において、少なくとも2つの異なるレンズ視野角を取得することは、少なくとも2フレームの実画像に従って、少なくとも2つの異なるレンズ視野角を取得することを含む。
これから分かるように、各フレームの実画像は、1つのレンズ視野角に対応し、マルチフレームの実画像は、複数のレンズ視野角に対応するため、少なくとも2フレームの実画像に従って、少なくとも2フレームの異なるレンズ視野角を取得することができ、それにより、三次元仮想モデルのレンズ視野角のレンダリングを実現するために使用され、ユーザに豊富な視覚体験を提供する。
本願のいくつかの代替実施例において、少なくとも2つの異なるレンズ視野角を取得することは、少なくとも2フレームの実画像にそれぞれ対応する動き情報に従って、少なくとも2つの異なるレンズ視野角を取得することを含む。
これから分かるように、実画像内の実在人物の動き情報に従ってレンズ視野角を決定して、画像で、対応する三次元仮想人物モデルの動きを拡大して表示して、ユーザが、仮想画像を観覧することにより、実在人物の動きを知ることを容易にし、双方向性と興味を向上させることができる。
本願のいくつかの代替実施例において、少なくとも2つの異なるレンズ視野角を取得することは、背景音楽を取得することと、背景音楽に対応するタイムコレクションを決定することであって、ここで、タイムコレクションは、少なくとも2つの期間を含むことと、タイムコレクションのうちの各期間に対応するレンズ視野角を取得することと、を含む。
これから分かるように、上記の方法は、背景音楽を分析し、背景音楽に対応するタイムコレクションを決定して、複数の異なるレンズ視野角を取得する。このような方法を介して、レンズ視野角の多様性を向上させ、ユーザは、より豊富な視覚体験を取得することができる。
本願のいくつかの代替実施例において、少なくとも2つの異なるレンズ視野角は、第1レンズ視野角と第2レンズ視野角とを含み、少なくとも2つの異なるレンズ視野角で三次元仮想モデルをレンダリングして、少なくとも2つの異なるレンズ視野角にそれぞれ対応する仮想画像を取得することは、第1レンズ視野角で三次元仮想モデルをレンダリングして、第1仮想画像を取得することと、第2レンズ視野角で三次元仮想モデルをレンダリングして、第2仮想画像を取得することと、第1仮想画像および第2仮想画像に従って形成された画像シーケンスを表示することと、を含む。
これから分かるように、それぞれ第1レンズ視野角および第2レンズ視野角で三次元仮想モデルをレンダリングして、ユーザが第1レンズ視野角での三次元仮想モデルおよび第2レンズ視野角での三次元仮想モデルを観覧させて、ユーザに豊富な視覚体験を提供することができる。
本願のいくつかの代替実施例において、第2レンズ視野角で三次元仮想モデルをレンダリングして、第2仮想画像を取得することは、第1レンズ視野角での三次元仮想モデルを平行移動または回転して、第2レンズ視野角での三次元仮想モデルを取得することと、第2レンズ視野角での三次元仮想モデルに対応する第2仮想画像を取得することと、を含む。
これから分かるように、第1レンズ視野角での三次元仮想モデルを平行移動または回転することを介して、第2レンズ視野角での三次元仮想モデル、即ち、第2仮想画像を迅速且つ正しく取得することができる。
本願のいくつかの代替実施例において、第1画像および第2仮想画像に従って形成された画像シーケンスを表示することは、第1仮想画像と第2仮想画像の間にaフレームの仮想画像を挿入して、第1仮想画像が第2仮想画像に緩やかに切り替えるようにすることを含み、ここで、aは、正の整数である。
これから分かるように、第1仮想画像と第2仮想画像の間にaフレームの仮想画像を挿入して、観客が、単一な二枚の画像(第1仮想画像および第2仮想画像)を見るようにすることではなく、第1仮想画像から第2仮想画像へのすべての変化プロセスを見るようにして、観客が、第1仮想画像から第2仮想画像への変化によって形成された視覚差の効果を適応するようにする。
本願のいくつかの代替実施例において、方法は、背景音楽に対してビート検出を実行して、背景音楽のビートコレクションを取得することをさらに含み、ここで、ビートコレクションは、複数のビートを含み、複数のビートのうちの各ビートは、1つのステージ特殊効果に対応し、ビートコレクションに対応するターゲットステージ特殊効果を三次元仮想モデルに追加する。
これから分かるように、音楽のビート情報に従って、仮想人物モデルが位置する仮想シーンに、対応するステージ特殊効果を追加して、観客に異なるステージ効果を表示し、観客の視聴体験を増強させる。
第2態様において、本願実施例は、さらに、レンズ分割の実現装置を提供し、前記装置は、三次元仮想モデルを取得するように構成される、取得ユニットと、少なくとも2つの異なるレンズ視野角で三次元仮想モデルをレンダリングして、少なくとも2つの異なるレンズ視野角にそれぞれ対応する仮想画像を取得するように構成される、レンズ分割ユニットと、を備える。
本願のいくつかの代替実施例において、三次元仮想モデルは、三次元仮想シーンモデルに位置する三次元仮想人物モデルを含み、装置は、さらに、特徴抽出ユニットと三次元仮想モデル生成ユニットとを備え、ここで、取得ユニットは、さらに、三次元仮想モデルを取得する前に、実画像を取得するように構成され、ここで、実画像は、実在人物画像を含み、特徴抽出ユニットは、実在人物画像に対して特徴抽出を実行して特徴情報を取得するように構成され、ここで、特徴情報は、実在人物の動き情報を含み、三次元仮想モデル生成ユニットは、特徴情報に従って三次元仮想モデルを生成して、三次元仮想モデル内の三次元仮想人物モデルの動き情報が実在人物の動き情報に対応させる。
本願のいくつかの代替実施例において、取得ユニットは、ビデオストリームを取得し、ビデオストリーム内の少なくとも2フレームの画像に従って、少なくとも2フレームの実画像を取得するように構成され、特徴抽出ユニットは、各フレームの実在人物画像に対して特徴抽出を実行して、対応する特徴情報を取得するように構成される。
本願のいくつかの代替実施例において、実画像は、さらに、実シーン画像を含み、三次元仮想モデルは、さらに、三次元仮想シーンモデルを含み、装置は、さらに、取得ユニットが三次元仮想モデルを取得する前に、実シーン画像に従って、三次元仮想シーン画像を構築するように構成される、三次元仮想シーン画像構築ユニットを備える。
本願のいくつかの代替実施例において、装置は、さらに、少なくとも2フレームの実画像に従って、少なくとも2つの異なるレンズ視野角を取得するように構成される、レンズ視野角取得ユニットを備える。
本願のいくつかの代替実施例において、装置は、さらに、少なくとも2フレームの実画像にそれぞれ対応する動き情報に従って、少なくとも2つの異なるレンズ視野角を取得するように構成される、レンズ視野角取得ユニットを備える。
本願のいくつかの代替実施例において、装置は、さらに、背景音楽を取得し、背景音楽に対応するタイムコレクションを決定し、ここで、タイムコレクションは、少なくとも2つの期間を含み、タイムコレクションのうちの各期間に対応するレンズ視野角を取得するように構成される、レンズ視野角取得ユニットを備える。
本願のいくつかの代替実施例において、少なくとも2つの異なるレンズ視野角は、第1レンズ視野角と第2レンズ視野角を含み、レンズ分割ユニットは、第1レンズ視野角で三次元仮想モデルをレンダリングして、第1仮想画像を取得し、第2レンズ視野角で三次元仮想モデルをレンダリングして、第2仮想画像を取得して、第1仮想画像および第2仮想画像に従って形成される画像シーケンスを表示するように構成される。
本願のいくつかの代替実施例において、レンズ分割ユニットは、第1レンズ視野角での三次元仮想モデルを平行移動または回転して、第2レンズ視野角での三次元仮想モデルを取得し、第2レンズ視野角での三次元仮想モデルに対応する第2仮想画像を取得するように構成される。
本願のいくつかの代替実施例において、レンズ分割ユニットは、第1仮想画像と第2仮想画像の間にaフレームの仮想画像を挿入して、第1仮想画像が第2仮想画像に緩やかに切り替えるようにするように構成され、ここで、aは、正の整数である。
本願のいくつかの代替実施例において、装置は、さらに、ビート検出ユニットとステージ特殊効果生成ユニットとを備え、ここで、ビート検出ユニットは、背景音楽に対してビート検出を実行して、背景音楽のビートコレクションを取得するように構成され、ここで、ビートコレクションは、複数のビートを含み、複数のビートのうちの各ビートは、1つのステージ特殊効果に対応し、ステージ特殊効果生成ユニットは、ビートコレクションに対応するターゲットステージ特殊効果を三次元仮想モデルに追加するように構成される。
第3態様において、本願実施例は、電子機器を提供し、前記電子機器は、プロセッサ、通信インターフェースおよびメモリを備え、メモリは、命令を記憶するように構成され、プロセッサは、命令を実行するように構成され、通信インターフェースは、プロセッサの制御によって他の機器と通信するように構成され、ここで、プロセッサが、命令を実行するとき、電子機器が、上記の第1態様のいずれか一項の方法を実現させる。
第4態様において、本願実施例は、コンピュータプログラムが記憶する、コンピュータ可読記憶媒体を提供し、前記コンピュータプログラムは、ハードウェアによって実行されて、上記の第1態様のいずれか一項の方法を実現する。
第5態様において、本願実施例は、コンピュータプログラム製品を提供し、コンピュータプログラム製品が、コンピュータによって読み取り実行されるとき、上記の第1態様のいずれか一項の方法は、実行される。
本願実施例または背景技術の技術的解決策をより明確に説明するために、以下は、本願実施例の説明で使用される図面について簡単に紹介する。以下に説明される図面は、本願のいくつかの実施例であり、当業者にとっては、創造的な作業なしに、これらの図面に従って他の図面を得ることもできることは自明である。
本願実施例による具体的な適用シーンの概略図である。 本願実施例による可能な三次元仮想モデルの概略図である。 本願実施例によるレンズ分割の実現方法のフローチャートである。 本願実施例による補間曲線の概略図である。 本願実施例による具体的な実施例のフローチャートである。 本願実施例によるレンズ分割ルールの概略図である。 本願実施例による可能な仮想画像の効果図である。 本願実施例による可能な仮想画像の効果図である。 本願実施例による可能な仮想画像の効果図である。 本願実施例による可能な仮想画像の効果図である。 本願実施例によるレンズ分割の実現装置の例示的な構造図である。 本願実施例で提供される電子機器の例示的な構造図である。
本願実施例に使用される用語は、本願の具体的な実施例を説明するためにのみ使用され、本願を限定することを目的とするものではない。
本願実施例によるレンズ分割の実現方法、装置および関連製品は、ソーシャル、エンターテイメントおよび教育などの複数の分野に適用でき、例えば、仮想ライブ、仮想コミュニティでソーシャル対話を実行するために使用でき、仮想コンサートを開催するためにも使用でき、教室での教育などにも適用できる。本願実施例をより容易に理解するために、以下は、仮想ライブを例として、本願実施例の具体的な適用シーンを詳細に説明する。
仮想ライブは、ライブプラットフォームでライブアンカの代わりに仮想人物を使用してライブする方式である。仮想人物は、豊富の表現力があるため、ソーシャルネットワークの伝播環境と調和しているため、仮想ライブ業界は急速に発展している。仮想ライブのプロセスでは、通常、顔表情のキャプチャ、動きキャプチャおよび音声処理などのコンピュータ技術を使用して、ライブアンカの顔表情および動きを仮想人物モデルに適用して、観客と仮想アンカのビデオウェブサイトまたはソーシャルウェブサイトにおける対話を実現する。
ライブコストおよびポストプロダクションのコストを節約するために、ユーザは、通常、携帯電話、タブレットなどの端末機器を直接に使用してライブする。図1を参照すると、図1は、本願実施例による具体的な適用シーンの概略図であり、図1に示されたライブプロセスでは、カメラ機器110は、ライブアンカを撮影し、収集された実在人物画像をネットワークを介してサーバ120に転送して処理し、サーバ120は、生成された仮想画像をユーザ端末130に送信し、それにより、異なる観客が、対応するユーザ端末130を介してすべてのライブプロセスを観覧させる。
これから分かるように、このような方式の仮想ライブは、コストが低いが、1つのカメラ機器110のみライブアンカを撮影しているため、生成された仮想アンカの姿勢は、カメラ機器110とライブアンカ間の相対位置に関し、つまり、観客は、特定の視野角での仮想人物のみを見ることができ、この特定の視野角は、カメラ機器110とライブアンカ間の相対位置によって決定され、それにより、表示されたライブ効果は、不十分である。例えば、仮想ライブプロセスでは、仮想アンカの動きが硬く、レンズの切り替え画面が滑らかでなく、またはレンズの画面が単調で退屈であるなどの問題が常に発生し、それにより、観客の視覚的疲労を引き起こし、観客が、没入型の体験を体験できなくなる。
同様に、他の適用シーンでは、例えば、ライブ教育シーンにおいて、教育プロセスで、教師は、オンライン教育の形を介して学生に知識を教えるが、このような教育方法は、通常退屈であり、ビデオ内の教師は、リアルタイムで、知識ポイントに対する学生の習得を知ることができなく、学生も、単一な視野角画面内の教師または指導資料のみを見ることができなく、学生に疲れを感じさせやすく、ビデオ指導の指導効果は、教師の現場での指導に比べて大幅に低下する。例えば、コンサートを開催するプロセスでは、天気、会場の都合により予定通りにコンサートを開催できない場合、歌手は、スタジオで仮想コンサートを開催して、実のコンサートのシーンをシミュレートし、実のコンサートのシーンを実現するために、通常、複数のカメラを設置して歌手を撮影する必要があり、このような仮想コンサートの開催方式は、動作が複雑でコストを浪費し、複数のカメラで撮影して複数のレンズでの画面を取得でき、これは、レンズの切り替えが滑らかでない問題がある可能性があり、それにより、ユーザが異なるレンズ画面の切り替えによる視覚差を適用できなくなる。
上記の適用シーンで常に現れる、画面レンズ視野角の単一およびレンズの切り替え画面が滑らかでないなどの問題を解決するために、本願実施例は、レンズ分割を実現する方法を提供し、当該方法は、収集して得た実画像に従って、三次元仮想モデルを生成し、背景音楽または実在人物の動きに従って、複数の異なるレンズ視野角を取得し、その後、複数の異なるレンズ視野角で三次元仮想モデルをレンダリングして、複数の異なるレンズ視野角にそれぞれ対応する仮想画像を取得し、それにより、在仮想シーンで、複数の仮想カメラが三次元仮想モデルを撮影する効果をシミュレートして、観客の視聴体験を向上させる。さらに、当該方法は、背景音楽のビートを解析し、ビート情報に従って、三次元仮想モデルに、対応するステージ特殊効果を追加することを介して、観客に異なるステージ効果を表示し、さらに、観客のライブ視聴体験を増強させる。
以下は、まず、本願実施例における実画像によって三次元仮想モデルを生成する具体的なプロセスを説明する。
本願実施例において、三次元仮想モデルは、三次元仮想シーンに位置する三次元仮想人物モデルを含む。図2を例として、図2は、可能な三次元仮想モデルの概略図を示し、図2に示された三次元仮想モデルによれば、三次元仮想人物モデルの両手が胸に上げることを見ることができ、コントラスト効果を強調するために、図2の左上隅は、レンズ分割の実現装置によって収集して得た実画像を表示し、ここで、実在人物も両手を胸に上げる。言い換えると、三次元仮想人物モデルと実在人物の動きは、一致している。上記の図2は、一例に過ぎず、実際の用途では、レンズ分割の実現装置が収集して得た実画像は、三次元画像であってもよく、二次元画像であってもよく、実画像内の人物の数は、1つであってもよく、複数であってもよく、実在人物の動きは、両手を胸に上げることであってもよく、左足を上げることまたは他の動きであってもよく、それに対応して、実在人物画像によって生成された三次元仮想モデル内の三次元仮想人物モデルの数は、1つであってもよく、複数であってもよく、三次元仮想人物モデルの動きは、両手を胸に上げることであってもよく、左足を上げることまたは他の動きなどであってもよく、ここでは具体的な限定をしないことを理解することができる。
本願実施例において、レンズ分割の実現装置は、実在人物を撮影して、マルチフレームの実画像I1,I2,…,Inを取得し、時間順序に従って実画像I1,I2,…,Inに対してそれぞれ特徴抽出を実行し、それにより、複数の対応する三次元仮想モデル
Figure 2023501832000002
を取得し、ここで、nは、正の整数であり、実画像I1,I2,…,Inと三次元仮想モデル
Figure 2023501832000003
との間には一対一の対応関係があり、つまり、一フレームの実画像は、1つの三次元仮想モデルを生成するために使用される。例示的に、実画像
Figure 2023501832000004
が、三次元仮想モデル
Figure 2023501832000005
を生成することを例として、1つの三次元仮想モデルは、以下のように取得できる。
ステップ1において、レンズ分割の実現装置が、実画像
Figure 2023501832000006
を取得する。
ここで、実画像
Figure 2023501832000007
には、実在人物画像を含み、iは、正の整数、
Figure 2023501832000008
である。
ステップ2において、レンズ分割の実現装置が、実画像
Figure 2023501832000009
内の実在人物画像に対して特徴抽出を実行して、特徴情報を取得する。ここで、特徴情報は、実在人物の動き情報を含む。
ここで、実画像を取得することは、ビデオストリームを取得し、ビデオストリームのうちの少なくとも2フレームの画像に従って、少なくとも2フレームの実画像を取得することを含み、それに対応して、前記実在人物画像に対して特徴抽出を実行して、特徴情報を取得することは、各フレームの前記実在人物画像に対してそれぞれ特徴抽出を実行して、対応する特徴情報を取得することを含む。
特徴情報は、三次元仮想人物モデルの姿勢を制御するために使用され、特徴情報内の動き情報は、顔表情の特徴および体の動きの特徴を含み、顔表情の特徴は、喜び、悲しみ、驚き、恐れ、怒り、またはうんざりなどの、人物の様々な感情状態を説明するために使用され、体の動き特徴は、左手を上げる、右足を上げるまたはジャンプなどの、実在人物の動き状態を説明するために使用されることを理解されたい。さらに、特徴情報は、さらに、人物情報を含み得、ここで、人物情報は、実在人物の複数の人体キーポイントおよびそれに対応する位置情報を含み、人体キーポイントは、顔キーポイントと人体骨キーポイントとを含み、位置特徴は、実在人物の人体キーポイントの位置座標を含む。
選択的に、レンズ分割の実現装置は、実画像
Figure 2023501832000010
に対して画像分割を実行し、実画像
Figure 2023501832000011
内の実在人物画像を抽出し、抽出して得た実在人物画像に対してキーポイント検出を実行して、上記の複数の人体キーポイントおよび複数の人体キーポイントの位置情報を取得する。ここで、前記人体キーポイントは、顔キーポイントと人体骨キーポイントとを含み、前記人体キーポイントは、具体的に、人体の頭の領域、首の領域、肩の領域、背骨の領域、腰の領域、臀部の領域、手首の領域、腕の領域、膝の領域、脚の領域、足首の領域および足下の領域などに位置でき、顔キーポイントおよび顔キーポイントの位置情報を分析することにより、実画像
Figure 2023501832000012
内の実在人物の顔表情特徴を取得し、人体骨キーポイントおよび人体骨キーポイントの位置情報を分析することにより、実画像
Figure 2023501832000013
内の実在人物の骨特徴を取得して、実在人物の体の動き特徴を取得する。
選択的に、レンズ分割の実現装置は、実画像
Figure 2023501832000014
をニューラルネットワークに入力して特徴抽出を実行し、複数の畳み込み層の計算の後、前記複数の人体キーポイント情報を抽出する。ここで、ニューラルネットワークは、大量のトレーニングを介して取得され、ニューラルネットワークは、畳み込みニューラルネットワーク(CNN:Convolution Neural Network)であってもよいし、逆伝播ニューラルネットワーク(BPNN:Back Propagation Neural Network)であってもよいし、生成的敵対的ネットワーク(GAN:Generative Adversarial Network)またはリカレントニューラルネットワーク(RNN:Recurrent Neural Network)などであってもよいし、ここでは具体的に限定しない。上記の人体特徴の抽出プロセスは、同じニューラルネットワークで実行でき、異なるニューラルネットワークでも実行できることに留意されたい。例えば、レンズ分割の実現装置は、CNNを使用して顔キーポイントを抽出して、人体顔表情の特徴を取得することができ、BPNNを使用して人体骨キーポイントを抽出して、人体骨の特徴および体の動き特徴を取得することもでき、ここでは具体的に限定しない。さらに、前記三次元仮想人物モデルを駆動するための特徴情報の例は、例を挙げるためにのみ目的とし、実際の用途では、他の特徴情報も含み得、ここでは具体的に限定しない。
ステップ3において、レンズ分割の実現装置は、特徴情報に従って、三次元仮想モデル
Figure 2023501832000015
内の三次元仮想人物モデルを生成して、三次元仮想モデル
Figure 2023501832000016
内の三次元仮想人物モデルが、実画像
Figure 2023501832000017
内実在人物の動き情報に対応させる。
選択的に、レンズ分割の実現装置は、前記特徴情報を介して、実在人物の人体キーポイントから仮想人物モデルの人体キーポイント間のマッピング関係を確立し、マッピング関係に従って、仮想人物モデルの表情および姿勢を制御して、仮想人物モデルの顔表情および体の動きが、実在人物の顔表情および体の動きと一致させる。
選択的に、レンズ分割の実現装置は、実在人物の人体キーポイントに対して、それぞれ番号の注釈を実行して、実在人物の人体キーポイントの注釈情報を取得し、ここで、人体キーポイントと注釈情報は、一対一に対応し、実在人物の人体キーポイントの注釈情報に従って、仮想人物モデル内の人体キーポイントを注釈する。例えば、実在人物の左手の手首の注釈情報が1号であると、三次元仮想人物モデルの左手の手首の注釈情報も1号であり、実在人物の左手の腕の注釈情報が2号であると、三次元仮想人物モデルの左手の腕の注釈情報も2号である。実在人物の人体キーポイント注釈情報と三次元仮想人物モデルの人体キーポイント注釈情報をマッチングし、実在人物の人体キーポイント位置情報を対応する三次元仮想人物モデルの人体キーポイントにマッピングして、三次元仮想人物モデルが、実在人物の顔表情と体の動きを再現するようにする。
本願実施例において、実画像
Figure 2023501832000018
は、さらに、実シーン画像を含み、三次元仮想モデル
Figure 2023501832000019
は、さらに、三次元仮想シーンモデルを含み、前記実画像
Figure 2023501832000020
に従って三次元仮想モデル
Figure 2023501832000021
を生成する方法は、実画像
Figure 2023501832000022
内の実シーン画像に従って、三次元仮想モデル
Figure 2023501832000023
内の三次元仮想シーンを構築することをさらに含む。
選択的に、レンズ分割の実現装置は、まず、実画像
Figure 2023501832000024
に対して画像分割を実行して、実画像
Figure 2023501832000025
内の実シーン画像を取得し、実シーンの物体の位置特徴、形状特徴およびサイズ特徴などの実シーン画像内のシーン特徴を抽出し、シーン特徴に従って、三次元仮想モデル
Figure 2023501832000026
内の三次元仮想シーンモデルを構築して、三次元仮想モデル
Figure 2023501832000027
内の三次元仮想シーンモデルが、実画像
Figure 2023501832000028
内の実シーン画像を高度に復元できるようにする。
説明を容易にするために、上記では、実画像
Figure 2023501832000029
によって三次元仮想モデル
Figure 2023501832000030
を生成するプロセスのみを説明し、実際に、三次元仮想モデル
Figure 2023501832000031
の生成プロセスと三次元仮想モデル
Figure 2023501832000032
の生成プロセスは、類似しており、ここでは再び説明しない。
三次元仮想モデル内の三次元仮想シーンモデルは、実画像内の実シーン画像に従って構築でき、ユーザがカスタマイズした三次元仮想シーンモデルであってもよく、三次元仮想モデル内の三次元仮想人物モデルの顔の特徴は、実画像内の実在人物画像の五感によって構築でき、ユーザが、カスタマイズした顔の特徴であってもよく、ここでは具体的に限定しないことに留意されたい。
以下は、本願実施例に関する、複数の異なるレンズ視野角で三次元仮想モデル
Figure 2023501832000033
内の各三次元仮想モデルに対してレンズ視野角のレンダリングして、観客が、同じ三次元仮想モデルが、異なるレンズ視野角での仮想画像を見ることができるようにすることに対して詳細に説明する。実画像
Figure 2023501832000034
が生成する三次元仮想モデル
Figure 2023501832000035
を例として、それぞれkの異なるレンズを使用して三次元仮想モデル
Figure 2023501832000036
をレンダリングして、kの異なるレンズ視野角での仮想画像
Figure 2023501832000037
を取得し、ここで、
Figure 2023501832000038
であり、それにより、レンズ分割の切り替え効果を実現し、その具体的なプロセスは、以下の通りである。
図3に示されたように、図3は、本願実施例によるレンズ分割の実現方法のフローチャートである。本実施形態のレンズ分割の実現方法は、以下のステップを含むが、これに限定されない。
S101において、レンズ分割の実現装置が、三次元仮想モデルを取得する。
本願実施例において、三次元仮想モデルは、実在人物および実シーンをシミュレートするために使用され、三次元仮想モデルは、三次元仮想シーンモデルに位置する三次元仮想人物モデルを含み、三次元仮想モデルは、実画像に従って生成される。ここで、三次元仮想人物モデルは、実画像が含む実在人物画像に従って生成され、三次元仮想モデル内の三次元仮想人物モデルは、実画像内の実在人物をシミュレートするために使用され、三次元仮想人物モデルの動と実在人物の動きは対応する。三次元仮想シーンモデルは、実画像が含む実シーン画像に従って構築されてもよいし、プリセットの三次元仮想シーンモデルであってもよい。三次元仮想シーンモデルが、実シーン画像によって構築された場合、三次元仮想シーンモデルは、実画像内の実シーンをシミュレートするために使用できる。
S102において、レンズ分割の実現装置が、少なくとも2つの異なるレンズ視野角を取得する。
本願実施例において、レンズ視野角は、カメラが、物体を撮影するときにカメラに対向する撮影される物体の位置を表示するために使用される。例えば、カメラが、物体の真上で撮影するとき、物体の上面図を取得できる。カメラが、物体の真上に位置することに対応するレンズ視野角が
Figure 2023501832000039
であると、当該カメラを使用して撮影して得た画像は、レンズ視野角
Figure 2023501832000040
での物体、即ち物体の上面図を表示する。
いくつかの代替実施例において、少なくとも2つの異なるレンズ視野角を取得することは、少なくとも2フレームの実画像に従って、少なくとも2つの異なるレンズ視野角を取得することを含む。ここで、実画像は、実のカメラによって撮影され得、実のカメラが実在人物に対抗する位置は、複数であり得、複数の異なる位置にある実のカメラが撮影して得た複数枚の実画像は、複数の異なるレンズ視野角での実在人物を表示する。
別の代替実施例において、少なくとも2つの異なるレンズ視野角を取得することは、少なくとも2フレームの実画像にそれぞれ対応する動き情報に従って、少なくとも2つの異なるレンズ視野角を取得することを含む。ここで、動き情報は、実画像内の実在人物の体の動きおよび顔表情を含む。ここで、体の動きは、複数のタイプを含み、体の動きは、例えば、右手を上げる、左足を上げる、ジャンプなどの動きのうちの1つまたは複数であり得、顔表情も複数のタイプを含み、顔表情は、例えば、微笑み、涙、怒りなどの顔表情のうちの1つまたは複数であり得る。本実施例の体の動きおよび顔表情に対する例は、上記の説明に限定されない。
本願実施例において、1つの動きまたは複数の動きの組み合わせは、1つのレンズ視野角に対応する。例えば、実在人物が、微笑み微笑んでジャンプするときに対応するレンズ視野角は、
Figure 2023501832000041
であり、実在人物が、ジャンプするときに対応するレンズ視野角は、レンズ視野角
Figure 2023501832000042
であってもよいし、レンズ視野角
Figure 2023501832000043
などであってもよいし、同様に、実在人物が、微笑むときに対応するレンズ視野角は、レンズ視野角
Figure 2023501832000044
であってもよいし、レンズ視野角
Figure 2023501832000045
であってもよいし、レンズ視野角
Figure 2023501832000046
などであってもよい。
また別の代替実施例において、少なくとも2つの異なるレンズ視野角を取得することは、背景音楽を取得することと、背景音楽に対応するタイムコレクションを決定することであって、ここで、タイムコレクションは、少なくとも2つの期間を含むことと、タイムコレクションのうちの各期間に対応するレンズ視野角を取得することと、を含む。ここで、実画像は、1つのビデオストリームのうちの一フレームのまたはマルチフレームのであり得、ビデオストリームには、画像情報と背景音楽情報を含み、ここで、一フレームの画像は、一フレームの音楽に対応する。背景音楽情報は、背景音楽および対応するタイムコレクションを含み、タイムコレクションは、少なくとも2つの期間を含み、各期間は、1つのレンズ視野角に対応する。
S103において、レンズ分割の実現装置が、少なくとも2つの異なるレンズ視野角で三次元仮想モデルをレンダリングして、少なくとも2つの異なるレンズ視野角にそれぞれ対応する仮想画像を取得する。
本願実施例において、前記少なくとも2つの異なるレンズ視野角は、第1レンズ視野角と第2レンズ視野角とを含み、少なくとも2つの異なるレンズ視野角で前記三次元仮想モデルをレンダリングして、少なくとも2つの異なるレンズ視野角にそれぞれ対応する仮想画像を取得することは、S1031、第1レンズ視野角で三次元仮想モデルをレンダリングして、第1仮想画像を取得することと、S1032、第2レンズ視野角で三次元仮想モデルをレンダリングして、第2仮想画像を取得することと、を含む。
本願実施例において、第2レンズ視野角で三次元仮想モデルをレンダリングして、第2仮想画像を取得することは、第1レンズ視野角での三次元仮想モデルを平行移動または回転して、第2レンズ視野角での三次元仮想モデルを取得することと、第2レンズ視野角での三次元仮想モデルに対応する第2仮想画像を取得することと、を含む。
第1レンズ視野角は、実画像に従って取得されることであってもよいし、実画像に対応する動き情報に従って取得されることであってもよいし、背景音楽に対応するタイムコレクションに従って取得されることであってもよいし、同様に、第2レンズ視野角は、実画像に従って取得されることであってもよいし、実画像に対応する動き情報に従って取得されることであってもよいし、背景音楽に対応するタイムコレクションに従って取得されることであってもよいし、本願実施例では、具体的に限定しないことを理解されたい。
S1033において、第1仮想画像および第2仮想画像に従って形成される画像シーケンスを表示する。
本願実施例において、前記第1画像および第2仮想画像に従って形成された画像シーケンスを表示することは、第1仮想画像と前記第2仮想画像の間にaフレームの仮想画像を挿入して、第1仮想画像が第2仮想画像に緩やかに切り替えるようにすることを含み、ここで、aは、正の整数である。
選択的に、第1仮想画像と第2仮想画像との間にaフレームの仮想画像
Figure 2023501832000047
を挿入して、第1仮想画像が、第2仮想画像に緩やかに切り替えるようにし、ここで、aフレームの仮想画像
Figure 2023501832000048
が挿入する時間ポイントは、
Figure 2023501832000049
であり、時間ポイント
Figure 2023501832000050
が形成する曲線のスロープ値は、単調減少した後単調単調増加する関数を満たし、aは、正の整数である。
例を挙げて説明すると、図4は、補間曲線の概略図を示し、図4に示されたように、レンズ分割の実現装置は、第1分のとき、第1仮想画像を取得し、第2分のとき、第2仮想画像を取得し、第1仮想画像は、三次元仮想モデルの正面図を表示し、第2仮想画像は、三次元仮想モデルの左側面図を表示する。観客が、滑らかなレンズ切り替え画面を見ることができるようにするために、レンズ分割の実現装置は、第1分と第2分との間に複数の時間ポイントを挿入し、各時間ポイントに一フレームの仮想画像を挿入する。例えば、1.4分のとき仮想画像P1を挿入し、第1.65分のとき仮想画像P2を挿入し、第1.8分のとき仮想画像P3を挿入し、第1.85分に仮想画像P4を挿入し、ここで、仮想画像P1は、三次元仮想モデルを左に30度を回転する効果を表示し、仮想画像P2は、三次元仮想モデルを左に50度を回転する効果を表示し、仮想画像P3および仮想画像P4は、すべて、三次元仮想モデルを左に90度を回転する効果を表示して、観客が、単一な二枚の画像(三次元仮想モデルの正面図和三次元仮想モデルの左側面図)ではなく、三次元仮想モデルが、正面図から左側面図に徐々に変換されるすべてのプロセスを見るようにして、観客が、正面図から左側面図に切り替える視覚差の変化効果を適用できるようにする。
本願のいくつかの代替実施例において、本願実施例で言及されたステージ特殊効果を使用して三次元仮想モデルをレンダリングして、観客に異なるステージ効果を表示することに対して詳細に説明し、具体的には、以下のステップを含む。
ステップ1において、レンズ分割の実現装置が、背景音楽に対してビート検出を実行して、背景音楽のビートコレクションを取得する。
ここで、ビートコレクションは、複数のビートを含み、複数のビートのうちの各ビートは、1つのステージ特殊効果に対応する。選択的に、レンズ分割の実現装置は、シェーダおよび粒子特殊効果を使用して、三次元仮想モデルをそれぞれレンダリングし、例えば、シェーダは、仮想ステージ背面のスポットライトの回転効果および仮想ステージ自体の音波効果を実現するために使用でき、粒子特殊効果は、三次元仮想モデルで花火、落ち葉、流星などと類似する視覚効果を追加するために使用される。
ステップ2において、レンズ分割の実現装置が、ビートコレクションに対応するターゲットステージ特殊効果を三次元仮想モデルに追加する。
上記の方法は、収集して得た実画像に従って三次元仮想モデルを生成し、収集して得た実画像、背景音楽および実在人物の動きに従って、対応するレンズ視野角の切り替えを実行して、仮想シーン内で、複数の仮想カメラが三次元仮想モデルを撮影する効果をシミュレートし、観客の視聴体験を向上させる。さらに、当該方法は、背景音楽のビートを解析し、ビート情報に従って、仮想画像に、対応するステージ特殊効果を追加することを介して、観客に異なるステージ効果を表示し、さらに、観客のライブ視聴体験を増強させる。
上記の実施例に関するレンズ分割の実現方法を容易に理解するために、以下は、例を挙げる方式を介して、本願実施例のレンズ分割の実現方法を詳細に説明する。
具体的な実施例の例示的なフローチャートを示す、図5を参照されたい。
S201において、レンズ分割の実現装置が、実画像および背景音楽を取得し、実画像に従って第1レンズ視野角を取得する。ここで、背景音楽が鳴ると、実在人物は、背景音楽に従って動き、実のカメラは、実在人物を撮影して実画像を取得する。
S202において、レンズ分割の実現装置が、実画像に従って三次元仮想モデルを生成する。ここで、三次元仮想モデルは、レンズ分割の実現装置が第1モーメントで取得したことである。
S203において、レンズ分割の実現装置が、背景音楽に対してビート検出を実行して、背景音楽のビートコレクションを取得し、ビートコレクションに対応するターゲットステージ特殊効果を三次元仮想モデルに追加する。
S204において、レンズ分割の実現装置が、第1レンズ視野角で三次元仮想モデルをレンダリングして、第1レンズ視野角に対応する第1仮想画像を取得する。
S205において、レンズ分割の実現装置が、背景音楽に対応するタイムコレクションを決定する。
ここで、タイムコレクションは、複数の期間を含み、複数の期間のうちの各期間は、1つのレンズ視野角に対応する。
S206において、レンズ分割の実現装置が、動き情報ライブラリに動き情報が含まれるか否かを判断し、動き情報ライブラリに動き情報が含まない場合、S207ないしS209を実行し、動き情報ライブラリに動き情報を含む場合、S210ないしS212を実行する。ここで、動き情報は、実画像内の実在人物の動き情報であり、動き情報ライブラリは、複数の動き情報を含み、複数の動き情報のうちの各動き情報は、1つのレンズ視野角に対応する。
S207において、レンズ分割の実現装置が、タイムコレクションに従って、第1モーメントの期間に対応する第2レンズ視野角を決定する。
S208において、レンズ分割の実現装置が、第2レンズ視野角で三次元仮想モデルをレンダリングして、第2レンズ視野角に対応する第2仮想画像を取得する。
S209において、レンズ分割の実現装置が、第1仮想画像および第2仮想画像に従って形成される画像シーケンスを表示する。
S210において、レンズ分割の実現装置が、動き情報に従って、動き情報に対応する第3レンズ視野角を決定する。
S211において、レンズ分割の実現装置が、第3レンズ視野角で三次元仮想モデルをレンダリングして、第3レンズ視野角に対応する第3仮想画像を取得する。
S212において、レンズ分割の実現装置が、第1仮想画像および第3仮想画像に従って形成される画像シーケンスを表示する。
図5に記載のレンズ分割の実現方法に従って、本願実施例は、図6に示されたレンズ分割ルールの概略図を提供し、図6に示されたレンズ分割ルールに従って、仮想画像に対してレンズ分割処理およびステージ特殊効果処理を実行して、図7A-7Dに示された4つの仮想画像の効果図を取得することができる。
図7Aに示されたように、第1分のとき、レンズ分割の実現装置は、レンズ視野角V1で実在人物を撮影して、実画像
Figure 2023501832000051
(図7Aの左上隅に示されたように)を取得し、その後、実画像
Figure 2023501832000052
に従って、三次元仮想モデル
Figure 2023501832000053
を取得する。レンズ分割の実現装置は、背景音楽に対してビート検出を実行して、第1分に対応するビートがB1であると決定し、ビートB1に従って、第1分のときのステージ特殊効果
Figure 2023501832000054
を取得し、その後、ステージ特殊効果
Figure 2023501832000055
を三次元仮想モデル
Figure 2023501832000056
に追加する。レンズ分割の実現装置は、プリセットのレンズ脚本に従って、第1分に対応するレンズ視野角(時間レンズ視野角と略称)がV1であると決定し、レンズ分割の実現装置が、第1分における実在人物の動きが、両手を胸に上げることであり、両手を胸に上げる動きは、動き情報ライブラリに含まれないこと、即ち、動きに対応するレンズ視野角(動きレンズ視野角と略称)がないことを検出した場合、レンズ分割の実現装置では、図7Aに示された仮想画像を表示し、ここで、図7Aに示された仮想画像と実画像
Figure 2023501832000057
のレンズ視野角は、同じである。
図7Bに示されたように、第2分では、レンズ分割の実現装置は、レンズ視野角V1で実在人物を撮影して、実画像
Figure 2023501832000058
(図7Bの左上隅に示されたように)を取得し、その後、実画像
Figure 2023501832000059
に従って、三次元仮想モデル
Figure 2023501832000060
を取得する。レンズ分割の実現装置は、背景音楽に対してビート検出を実行して、第2分に対応するビートB2を決定し、ビートB2に従って、第2分のときのステージ特殊効果
Figure 2023501832000061
を取得し、その後、三次元仮想モデル
Figure 2023501832000062
にステージ特殊効果
Figure 2023501832000063
を追加する。レンズ分割の実現装置は、プリセットのレンズ脚本に従って、第2分に対応するレンズ視野角(時間レンズ視野角と略称)がV2であると決定し、レンズ分割の実現装置が、第2分における実在人物の動きが、両手を上に上げることであり、両手を上にあげる動きが、動き情報ライブラリに含まれない、動きに対応するレンズ視野角(動きレンズ視野角と略称)がないと検出した場合、レンズ分割の実現装置は、三次元仮想モデル
Figure 2023501832000064
を左上方向に回転してレンズ視野角がV2であるときに対応する仮想画像を取得する。これから分かるように、三次元仮想モデル
Figure 2023501832000065
にステージ特殊効果
Figure 2023501832000066
を追加するとき、図7Bに示された仮想画像は、図7Aに示された仮想画像より照明効果が追加される。
図7Cに示されたように、第3分では、レンズ分割の実現装置は、レンズ視野角V1で実在人物を撮影して、実画像
Figure 2023501832000067
(図7Cの左上隅に示されたように)を取得し、その後、実画像
Figure 2023501832000068
に従って、三次元仮想モデル
Figure 2023501832000069
を取得する。レンズ分割の実現装置は、背景音楽に対してビート検出を実行して、第3分に対応するビートB3を決定し、ビートB3に従って、第3分のときのステージ特殊効果
Figure 2023501832000070
を取得し、その後、三次元仮想モデル
Figure 2023501832000071
にステージ特殊効果
Figure 2023501832000072
を追加する。レンズ分割の実現装置は、プリセットのレンズ脚本に従って、第3分に対応するレンズ視野角(時間レンズ視野角と略称)がV2であると決定し、レンズ分割の実現装置が、第3分における実在人物の動きが、左足を上に上げることであり、左足を上にあげる動きに対応するレンズ視野角(動きレンズ視野角と略称)がV3であると検出した場合、レンズ分割の実現装置は、三次元仮想モデル
Figure 2023501832000073
を左に回転してレンズ視野角がV3であるときに対応する仮想画像を取得する。これから分かるように、三次元仮想モデル
Figure 2023501832000074
にステージ特殊効果
Figure 2023501832000075
を追加するとき、図7Cに示された仮想画像と図7Bに示された仮想画像の照明効果は、異なり、図7Cに示された仮想画像には、音波効果が表示される。
図7Dに示されたように、第4分では、レンズ分割の実現装置は、レンズ視野角V1で実在人物を撮影して、実画像
Figure 2023501832000076
(図7Dの左上隅に示されたように)を取得し、その後、実画像
Figure 2023501832000077
に従って、三次元仮想モデル
Figure 2023501832000078
を取得する。レンズ分割の実現装置は、背景音楽に対してビート検出を実行して、第4分に対応するビートB4を決定し、ビートB4に従って、第4分のときのステージ特殊効果
Figure 2023501832000079
を取得し、その後、三次元仮想モデル
Figure 2023501832000080
にステージ特殊効果
Figure 2023501832000081
を追加する。レンズ分割の実現装置は、プリセットのレンズ脚本に従って、第3分に対応するレンズ視野角(時間レンズ視野角と略称)がV4であると決定し、レンズ分割の実現装置が、第4分における実在人物の動きが、立つことであり、立つ動きに対応するレンズ視野角(動きレンズ視野角と略称)がV4であると検出した場合、レンズ分割の実現装置は、三次元仮想モデル
Figure 2023501832000082
を右に回転してレンズ視野角がV4であるときに対応する仮想画像を取得する。これから分かるように、三次元仮想モデル
Figure 2023501832000083
にステージ特殊効果
Figure 2023501832000084
を追加とき、図7Dに示された仮想画像と図7Cに示された仮想画像のステージ効果が異なるようにする。
本願実施例によるレンズ分割の実現装置は、ソフトウェア装置であってもよいしハードウェア装置であってもよいし、レンズ分割の実現装置が、ソフトウェア装置である場合、レンズ分割の実現装置は、クラウド環境における1つもコンピューティング機器で独立して配置でき、1つの端末機器で独立して配置されることもでき、レンズ分割の実現装置が、ハードウェア機器である場合、レンズ分割の実現装置の内部のユニットモジュールも、複数の分割があり、各モジュールは、ソフトウェアモジュールであってもよいしハードウェアモジュールであってもよいし、一部は、ソフトウェアモジュールであり、一部は、ハードウェアモジュールであってもよいし、本願は、それに対して限定しない。図8は、例示的な分割方式であり、図8に示されたように、図8は、本願実施例によるレンズ分割の実現装置800であり、前記装置は、三次元仮想モデルを取得するように構成される、取得ユニット810と、少なくとも2つの異なるレンズ視野角で三次元仮想モデルをレンダリングして、少なくとも2つの異なるレンズ視野角にそれぞれ対応する仮想画像を取得するように構成される、レンズ分割ユニット820と、を備える。
本願のいくつかの代替実施例において、三次元仮想モデルは、三次元仮想シーンモデルに配置されている三次元仮想人物モデルを含み、前記装置は、さらに、特徴抽出ユニット830と三次元仮想モデル生成ユニット840と、を備え、ここで、
取得ユニット810は、さらに、三次元仮想モデルを取得する前に、実画像を取得するように構成され、ここで、実画像は、実在人物画像を含み、特徴抽出ユニット830は、実在人物画像に対して特徴抽出を実行して特徴情報を取得するように構成され、ここで、特徴情報は、実在人物の動き情報を含み、三次元仮想モデル生成ユニット840は、特徴情報に従って三次元仮想モデルを生成して、三次元仮想モデル内の三次元仮想人物モデルの動き情報が実在人物の動き情報に対応させる。
本願のいくつかの代替実施例において、取得ユニットは、ビデオストリームを取得し、ビデオストリーム内の少なくとも2フレームの画像に従って、少なくとも2フレームの実画像を取得するように構成され、特徴抽出ユニット830は、各フレームの実在人物画像に対してそれぞれ特徴抽出を実行して、対応する特徴情報を取得するように構成される。
本願のいくつかの代替実施例において、実画像は、さらに、実シーン画像を含み、三次元仮想モデルは、さらに、三次元仮想シーンモデルを含み、前記装置は、さらに、取得ユニットが三次元仮想モデルを取得する前に、実シーン画像に従って、三次元仮想シーン画像を構築するように構成される、三次元仮想シーン画像構築ユニット850を備える。
本願のいくつかの代替実施例において、前記装置は、さらに、少なくとも2つの異なるレンズ視野角を取得するように構成される、レンズ視野角取得ユニット860を備える。具体的には、いくつかの代替実施形態において、レンズ視野角取得ユニット860は、少なくとも2フレームの実画像に従って、少なくとも2つの異なるレンズ視野角を取得するように構成される。
本願のいくつかの代替実施例において、レンズ視野角取得ユニット860は、少なくとも2フレームの実画像にそれぞれ対応する動き情報に従って、少なくとも2つの異なるレンズ視野角を取得するように構成される。
本願のいくつかの代替実施例において、レンズ視野角取得ユニット860は、背景音楽を取得し、背景音楽に対応するタイムコレクションを決定し、ここで、タイムコレクションは、少なくとも2つの期間を含み、タイムコレクションのうちの各期間に対応するレンズ視野角を取得するように構成される。
本願のいくつかの代替実施例において、少なくとも2つの異なるレンズ視野角は、第1レンズ視野角と第2レンズ視野角を含み、レンズ分割ユニット820は、第1レンズ視野角で三次元仮想モデルをレンダリングして、第1仮想画像を取得し、第2レンズ視野角で三次元仮想モデルをレンダリングして、第2仮想画像を取得して、第1仮想画像および第2仮想画像に従って形成される画像シーケンスを表示するように構成される。
本願のいくつかの代替実施例において、レンズ分割ユニット820は、第1レンズ視野角での三次元仮想モデルを平行移動または回転して、第2レンズ視野角での三次元仮想モデルを取得し、第2レンズ視野角での三次元仮想モデルに対応する第2仮想画像を取得するように構成される。
本願のいくつかの代替実施例において、レンズ分割ユニット820は、第1仮想画像と第2仮想画像の間にaフレームの仮想画像を挿入して、第1仮想画像が第2仮想画像に緩やかに切り替えるようにするように構成され、ここで、aは、正の整数である。
本願いくつかの代替実施例において、前記装置は、さらに、背景音楽に対してビート検出を実行して、背景音楽のビートコレクションを取得するように構成される、ビート検出ユニット870と、ビートコレクションに対応するターゲットステージ特殊効果を三次元仮想モデルに追加するように構成される、ステージ特殊効果生成ユニット880と、を備え、ここで、ビートコレクションは、複数のビートを含み、複数のビートのうちの各ビートは、1つのステージ特殊効果に対応する。
前記レンズ分割の実現装置は収集して得た実画像に従って三次元仮想モデルを生成し、収集して得た実画像、背景音楽および実在人物の動きに従って、複数のレンズ視野角を取得し、複数のレンズ視野角を使用して三次元仮想モデルに対して対応するレンズ視野角の切り替えを実行し、それにより、仮想シーンに複数の仮想カメラが三次元仮想モデルを撮影する効果をシミュレートして、ユーザが、複数の異なるレンズ視野角での三次元仮想モデルを見ることができるようにして、観客の視聴体験を向上させる。さらに、当該装置は、背景音楽のビートを解析し、ビート情報に従って、三次元仮想モデルに、対応するステージ特殊効果を追加することを介して、観客に異なるステージ効果を表示し、さらに、観客のライブ視聴体験を増強させる。
図9を参照して、本願実施例は、電子機器900の例示的な構造図を提供し、前述したレンズ分割の実現装置は、電子機器900に適用される。電子機器900は、プロセッサ910、通信インターフェース920およびメモリ930を備え、ここで、プロセッサ910、通信インターフェース920およびメモリ930は、バス940を介して結合される。ここで、
プロセッサ910は、中央処理装置(CPU:Central Processing Unit)、汎用プロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、特定用途向け集積回路(ASIC:Application-Specific Integrated Circuit)、フィールドプログラマブルゲートアレイ(FPGA:Field Programmable Gate Array)または他のプログラマブルロジックデバイス(PLD:Programmable Logic Device)、トランジスタロジックデバイス、ハードウェア部品またはその任意の組み合わせであることができる。プロセッサ910は、本願に開示されたコンテンツで説明された様々な例示的な方法を実現または実行することができる。具体的には、プロセッサ910は、メモリ930に記憶されたプログラムコードを読み取り、通信インターフェース920と合わせて本願に記載の実施例におけるレンズ分割の実現装置によって実行される方法の一部またはすべてのステップを実行する。
通信インターフェース920は、有線インターフェースまたは無線インターフェースであり得、他のモジュールまたは機器と通信するために使用され、有線インターフェースは、イーサネットインターフェース、コントローラーエリアネットワークインターフェース、ローカルインターネット(LIN:Local Interconnect Network)およびFlexRayインターフェースであり得、無線インターフェースは、セルラネットワークインターフェースであってもよいしまたはワイヤレスローカルエリアネットワークを使用するインターフェースなどであり得る。具体的には、前記通信インターフェース920は、入力出力機器950と接続され、入力出力機器950は、マウス、キーボード、マイクロフォンなどの他の端末機器を含み得る。
メモリ930は、ランダムアクセスメモリ(RAM:Random Access Memory)などの揮発性メモリを含み得、メモリ930は、読み取り専用メモリ(ROM:Read-Only Memory)、フラッシュメモリ、ハードディスク(HDD:Hard Disk Drive)またはソリッドステートハードディスク(SSD:Solid-State Drive)などの不揮発性メモリ(Non-Volatile Memory)も含み得、メモリ930は、さらに、上記のメモリの組み合わせを含み得る。メモリ930は、プログラムコードおよびプログラムデータを記憶することができる。ここで、プログラムコードは、取得ユニット810のコード、レンズ分割ユニット820のコード、特徴抽出ユニット830のコード、三次元仮想モデル生成ユニット840のコード、三次元仮想シーン画像構築ユニット850のコード、レンズ視野角取得ユニット860のコード、ビート検出ユニット870のコードおよびステージ特殊効果生成ユニット880のコードなどの、前記レンズ分割の実現装置800のユニットの一部またはすべてのコードによって構成される。プログラムデータは、レンズ分割の実現装置800の実行プロセスで生成されたデータであり、例えば、実画像データ、三次元仮想モデルデータ、レンズ視野角データ、背景音楽データおよび仮想画像データなどである。
バス940は、コントローラーエリアネットワーク(CAN:Controller Area Network)または他の車内の各システムまたは機器間の接続を実現する内部バスであり得る。バス940は、アドレスバス、データバス、制御バスなどに分けることができる。表示を容易にするために、図面では、1つの太い線で表示したが、1つのバスまたは1つのタイプのバスのみあることを示すことではない。
電子機器900は、図9に示されたより多くまたはより少ないコンポーネントを備え、または異なるコンポーネント構成方式がある可能性があることを理解されたい。
本願実施例は、さらに、コンピュータ可読記憶媒体を提供し、前記コンピュータ可読記憶媒体は、コンピュータプログラムを記憶し、前記コンピュータプログラムは、ハードウェア(例えばプロセッサなど)によって実行されて、上記のレンズ分割の実現方法の一部またはすべてのステップを実現する。
本願実施例は、さらに、コンピュータプログラム製品を提供し、前記コンピュータプログラム製品が、前記レンズ分割の実現装置または電子機器で実行するとき、上記のレンズ分割の実現方法の一部またはすべてのステップを実行する。
前記実施例において、ソフトウェア、ハードウェア、ファームウェアまたはそれらの任意の組み合わせによって全体的または部分的に実現することができる。ソフトウェアを使用して実現する場合、コンピュータプログラム製品の形態で全体的または部分的に実現することができる。前記コンピュータプログラム製品は、1つまたは複数のコンピュータ命令を含む。コンピュータに前記コンピュータプログラム命令をロードして実行する場合、本願実施例に記載のプロセスまたは機能を全体的または部分的に生成する。前記コンピュータは、汎用コンピュータ、専用コンピュータ、コンピュータネットワーク、または他のプログラマブル装置であり得る。前記コンピュータ命令は、コンピュータ読み取り可能な記憶媒体に記憶され、または1つのコンピュータ読み取り可能な記憶媒体から別のコンピュータ読み取り可能な記憶媒体に伝送することができ、例えば、前記コンピュータ命令は、有線(例えば、同軸ケーブル、光ファイバ、デジタル加入者線)または無線(例えば、赤外線、無線、マイクロ波等)を介して、1つのWebサイト、コンピュータ、サーバまたはデータセンタから別のWebサイト、コンピュータ、サーバまたはデータセンタに伝送することができる。前記コンピュータ読み取り可能な記憶媒体は、コンピュータがアクセス可能ないずれの利用可能な媒体であり、または1つ以上の利用可能な媒体によって統合されたサーバ、データセンタなどのデータ記憶装置であることができる。前記利用可能な媒体は、磁気媒体(例えば、フロッピーディスク、メモリディスク、磁気テープ)、光学媒体(例えば、DVD)、または半導体媒体(例えば、SSD)などであり得る。上記の実施例では、各実施例の説明は、それぞれの重み付けがあるため、ある実施例で詳しく説明していない部分は、他の実施例の関連部分の説明を参照してもよい。
本願で提供されたいくつかの実施例において、開示された装置は、他の方式を介して実現することもできることを理解されたい。例えば、上記で説明された装置の実施例は、例示的なものに過ぎず、例えば、前記ユニットの分割は、論理機能の分割に過ぎず、実際の実現時には別の分割方法があり、例えば、複数のユニットまたはコンポーネントを別のシステムに統合または集積してもよく、一部の特徴を無視するか実行しなくてもよい。さらに、表示または議論される相互間接結合、または直接結合、または通信接続は、いくつかのインターフェースを使用して実現することができ、装置またはユニット間の間接結合または通信接続は、電気的または他の形であってもよい。
前記分離部品として説明されるユニットは、物理的に分離されていても、されていなくてもよく、ユニットとして表示される部品は、物理的ユニットであってもなくてもよい。つまり、1箇所に配置されてもよく、複数のネットワークユニットに分散されてもよい。実際のニーズに従って、その中の一部またはすべてのユニットを選択して、本実施例の技術案の目的を実現することができる。
さらに、本願の各実施例における各機能ユニットは、1つの処理ユニットに統合されてもよく、または各ユニットが、物理的に別々に存在してもよく、または2つまたは2つ以上のユニットが1つのユニットに統合されてもよい。前記統合されたユニットは、ハードウェアの形で実装されてもよく、ソフトウェア機能ユニットの形で実装されてもよい。
前記統合されたユニットが、ソフトウェア機能ユニットの形で実現され、かつ独立した製品として販売または使用される場合、コンピュータ可読記憶媒体に記憶されることができる。このような理解に基づいて、本願技術的解決策は、本質的にまたは先行技術に対して寄与する部分または前記技術的解決策のすべてまたは一部は、ソフトウェア製品の形で具現されることができ、前記コンピュータソフトウェア製品は、1つの記憶媒体に記憶され、1台のコンピュータ機器(パーソナルコンピュータ、サーバ、またはネットワーク機器等であり得る)に本願の各実施例に記載の方法の全部または一部のステップを実行させるためのいくつかの命令を含む。前述した記憶媒体は、例えば、Uディスク、モバイルハードディスク、読み取り専用メモリ、ランダムアクセスメモリ、磁気ディスクまたは光ディスク等のプログラムコードを記憶することができる様々な媒体を含む。
上記のコンテンツは、本願実施例の選択的な実施形態に過ぎず、本願実施例の保護範囲はこれに限定されない。当業者は、本願に開示される技術的範囲内で、様々な同等な機能の修正または置換を容易に考えられ得、これらの修正または置換は、すべて本願の保護範囲に含まれるべきである。したがって、本願実施例の保護範囲は、特許請求の保護範囲を基準とするべきである。

Claims (25)

  1. レンズ分割の実現方法であって、
    三次元仮想モデルを取得することと、
    少なくとも2つの異なるレンズ視野角で前記三次元仮想モデルをレンダリングして、少なくとも2つの異なるレンズ視野角にそれぞれ対応する仮想画像を取得することと、を含む、前記レンズ分割の実現方法。
  2. 前記三次元仮想モデルは、三次元仮想シーンモデルに配置されている三次元仮想人物モデルを含み、前記三次元仮想モデルを取得する前に、前記レンズ分割の実現方法は、
    実画像を取得することであって、前記実画像は、実在人物画像を含むことと、
    前記実在人物画像に対して特徴抽出を実行して特徴情報を取得することであって、前記特徴情報は、前記実在人物の動き情報を含むことと、
    前記特徴情報に従って前記三次元仮想モデルを生成して、前記三次元仮想モデル内の前記三次元仮想人物モデルの動き情報を前記実在人物の動き情報に対応させることと、をさらに含む、
    請求項1に記載のレンズ分割の実現方法。
  3. 前記実画像を取得することは、
    ビデオストリームを取得し、前記ビデオストリームのうちの少なくとも2フレームの画像に従って、少なくとも2フレームの前記実画像を取得することを含み、
    前記実在人物画像に対して特徴抽出を実行して特徴情報を取得することは、
    各フレームの前記実在人物画像に対してそれぞれ特徴抽出を実行して、対応する特徴情報を取得することを含む、
    請求項2に記載のレンズ分割の実現方法。
  4. 前記実画像は、さらに、実シーン画像を含み、前記三次元仮想モデルは、さらに、前記三次元仮想シーンモデルを含み、前記三次元仮想モデルを取得する前に、前記レンズ分割の実現方法は、
    前記実シーン画像に従って、前記三次元仮想シーンモデルを構築することをさらに含む、
    請求項3に記載のレンズ分割の実現方法。
  5. 前記少なくとも2つの異なるレンズ視野角を取得することは、
    前記少なくとも2フレームの前記実画像に従って、前記少なくとも2つの異なるレンズ視野角を取得することを含む、
    請求項3または4に記載のレンズ分割の実現方法。
  6. 前記少なくとも2つの異なるレンズ視野角を取得することは、
    前記少なくとも2フレームの前記実画像にそれぞれ対応する動き情報に従って、前記少なくとも2つの異なるレンズ視野角を取得することを含む、
    請求項3または4に記載のレンズ分割の実現方法。
  7. 前記少なくとも2つの異なるレンズ視野角を取得することは、
    背景音楽を取得することと、
    前記背景音楽に対応するタイムコレクションを決定することであって、前記タイムコレクションは、少なくとも2つの期間を含むことと、
    前記タイムコレクションのうちの各期間に対応するレンズ視野角を取得することと、を含む、
    請求項3または4に記載のレンズ分割の実現方法。
  8. 前記少なくとも2つの異なるレンズ視野角は、第1レンズ視野角と第2レンズ視野角を含み、前記少なくとも2つの異なるレンズ視野角で前記三次元仮想モデルをレンダリングして、少なくとも2つの異なるレンズ視野角にそれぞれ対応する仮想画像を取得することは、
    前記第1レンズ視野角で前記三次元仮想モデルをレンダリングして、第1仮想画像を取得することと、
    前記第2レンズ視野角で前記三次元仮想モデルをレンダリングして、第2仮想画像を取得することと、
    前記第1仮想画像および前記第2仮想画像に従って形成される画像シーケンスを表示することと、を含む、
    請求項1に記載のレンズ分割の実現方法。
  9. 前記第2レンズ視野角で前記三次元仮想モデルをレンダリングして、第2仮想画像を取得することは、
    前記第1レンズ視野角での前記三次元仮想モデルを平行移動または回転して、前記第2レンズ視野角での前記三次元仮想モデルを取得することと、
    前記第2レンズ視野角での前記三次元仮想モデルに対応する前記第2仮想画像を取得することと、を含む、
    請求項8に記載のレンズ分割の実現方法。
  10. 前記第1仮想画像および前記第2仮想画像に従って形成される画像シーケンスを表示することは、
    前記第1仮想画像と前記第2仮想画像の間にaフレームの仮想画像を挿入して、前記第1仮想画像が前記第2仮想画像に緩やかに切り替えるようにすることを含み、aは、正の整数である、
    請求項9に記載のレンズ分割の実現方法。
  11. 前記レンズ分割の実現方法は、
    前記背景音楽に対してビート検出を実行して、前記背景音楽のビートコレクションを取得することであって、前記ビートコレクションは、複数のビートを含み、前記複数のビートのうちの各ビートは、1つのステージ特殊効果に対応することと、
    前記ビートコレクションに対応するターゲットステージ特殊効果を前記三次元仮想モデルに追加することと、をさらに含む、
    請求項7ないし10のいずれか一項に記載のレンズ分割の実現方法。
  12. レンズ分割の実現装置であって、
    三次元仮想モデルを取得するように構成される、取得ユニットと、
    少なくとも2つの異なるレンズ視野角で前記三次元仮想モデルをレンダリングして、少なくとも2つの異なるレンズ視野角にそれぞれ対応する仮想画像を取得するように構成される、レンズ分割ユニットと、を備える、前記レンズ分割の実現装置。
  13. 前記三次元仮想モデルは、三次元仮想シーンモデルに配置されている三次元仮想人物モデルを含み、前記レンズ分割の実現装置は、さらに、特徴抽出ユニットと三次元仮想モデル生成ユニットとを備え、前記取得ユニットは、さらに、三次元仮想モデルを取得する前に、実画像を取得するように構成され、前記実画像は、実在人物画像を含み、
    前記特徴抽出ユニットは、前記実在人物画像に対して特徴抽出を実行して特徴情報を取得するように構成され、前記特徴情報は、前記実在人物の動き情報を含み、
    前記三次元仮想モデル生成ユニットは、前記特徴情報に従って前記三次元仮想モデルを生成して、前記三次元仮想モデル内の前記三次元仮想人物モデルの動き情報が前記実在人物の動き情報に対応させるように構成される、
    請求項12に記載のレンズ分割の実現装置。
  14. 前記取得ユニットは、ビデオストリームを取得し、前記ビデオストリームのうちの少なくとも2フレームの画像に従って、少なくとも2フレームの前記実画像を取得するように構成され、
    前記特徴抽出ユニットは、各フレームの前記実在人物画像に対してそれぞれ特徴抽出を実行して、対応する特徴情報を取得するように構成される、
    請求項13に記載のレンズ分割の実現装置。
  15. 前記実画像は、さらに、実シーン画像を含み、前記三次元仮想モデルは、さらに、前記三次元仮想シーンモデルを含み、
    前記レンズ分割の実現装置は、さらに、前記取得ユニットが三次元仮想モデルを取得する前に、前記実シーン画像に従って、前記三次元仮想シーンモデルを構築するように構成される、三次元仮想シーン画像構築ユニットを備える、
    請求項14に記載のレンズ分割の実現装置。
  16. 前記レンズ分割の実現装置は、さらに、前記少なくとも2フレームの前記実画像に従って、前記少なくとも2つの異なるレンズ視野角を取得するように構成される、レンズ視野角取得ユニットを備える、
    請求項14または15に記載のレンズ分割の実現装置。
  17. 前記レンズ分割の実現装置は、さらに、前記少なくとも2フレームの前記実画像にそれぞれ対応する動き情報に従って、前記少なくとも2つの異なるレンズ視野角を取得するように構成される、レンズ視野角取得ユニットを備える、
    請求項14または15に記載のレンズ分割の実現装置。
  18. 前記レンズ分割の実現装置は、さらに、レンズ視野角取得ユニットを備え、前記レンズ視野角取得ユニットは、背景音楽を取得し、前記背景音楽に対応するタイムコレクションを取得し、前記タイムコレクションのうちの各期間に対応するレンズ視野角を取得するように構成され、前記タイムコレクションは、少なくとも2つの期間を含む、
    請求項14または15に記載のレンズ分割の実現装置。
  19. 前記少なくとも2つの異なるレンズ視野角は、第1レンズ視野角と第2レンズ視野角を含み、前記レンズ分割ユニットは、前記第1レンズ視野角で前記三次元仮想モデルをレンダリングして、第1仮想画像を取得し、前記第2レンズ視野角で前記三次元仮想モデルをレンダリングして、第2仮想画像を取得し、前記第1仮想画像および前記第2仮想画像に従って形成される画像シーケンスを表示するように構成される、
    請求項12に記載のレンズ分割の実現装置。
  20. 前記レンズ分割ユニットは、前記第1レンズ視野角での前記三次元仮想モデルを平行移動または回転して、前記第2レンズ視野角での前記三次元仮想モデルを取得し、前記第2レンズ視野角での前記三次元仮想モデルに対応する前記第2仮想画像を取得するように構成される、
    請求項19に記載のレンズ分割の実現装置。
  21. 前記レンズ分割ユニットは、前記第1仮想画像と前記第2仮想画像の間にaフレームの仮想画像を挿入して、前記第1仮想画像が前記第2仮想画像に緩やかに切り替えるようにするように構成され、aは、正の整数である、
    請求項20に記載のレンズ分割の実現装置。
  22. 前記レンズ分割の実現装置は、さらに、ビート検出ユニットとステージ特殊効果生成ユニットとを備え、前記ビート検出ユニットは、前記背景音楽に対してビート検出を実行して、前記背景音楽のビートコレクションを取得するように構成され、前記ビートコレクションは、複数のビートを含み、前記複数のビートのうちの各ビートは、1つのステージ特殊効果に対応し、
    前記ステージ特殊効果生成ユニットは、前記ビートコレクションに対応するターゲットステージ特殊効果を前記三次元仮想モデルに追加するように構成される、
    請求項18ないし21のいずれか一項に記載のレンズ分割の実現装置。
  23. プロセッサ、通信インターフェースおよびメモリを備える、電子機器であって、
    前記メモリは、命令を記憶するように構成され、前記プロセッサは、前記命令を実行するように構成され、前記通信インターフェースは、前記プロセッサの制御下で他の機器と通信するように構成され、前記プロセッサは、前記命令を実行するとき、請求項1ないし11のいずれか一項に記載のレンズ分割の実現方法を実現する、前記電子機器。
  24. コンピュータプログラムを記憶する、コンピュータ可読記憶媒体であって、
    前記コンピュータプログラムは、ハードウェアによって実行されるとき、請求項1ないし11のいずれか一項に記載のレンズ分割の実現方法を実現する、前記コンピュータ可読記憶媒体。
  25. 請求項1ないし11のいずれか一項に記載の方法を実現するように、コンピュータによって読み取られ実行される、コンピュータプログラム製品。
JP2022528715A 2019-12-03 2020-03-31 レンズ分割の実現方法、装置および関連製品 Active JP7457806B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201911225211.4A CN111080759B (zh) 2019-12-03 2019-12-03 一种分镜效果的实现方法、装置及相关产品
CN201911225211.4 2019-12-03
PCT/CN2020/082545 WO2021109376A1 (zh) 2019-12-03 2020-03-31 一种分镜效果的实现方法、装置及相关产品

Publications (2)

Publication Number Publication Date
JP2023501832A true JP2023501832A (ja) 2023-01-19
JP7457806B2 JP7457806B2 (ja) 2024-03-28

Family

ID=70312713

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022528715A Active JP7457806B2 (ja) 2019-12-03 2020-03-31 レンズ分割の実現方法、装置および関連製品

Country Status (5)

Country Link
JP (1) JP7457806B2 (ja)
KR (1) KR20220093342A (ja)
CN (1) CN111080759B (ja)
TW (1) TWI752502B (ja)
WO (1) WO2021109376A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI762375B (zh) * 2021-07-09 2022-04-21 國立臺灣大學 語意分割錯誤偵測系統
CN113630646A (zh) * 2021-07-29 2021-11-09 北京沃东天骏信息技术有限公司 一种数据处理方法及装置、设备、存储介质
CN114157879A (zh) * 2021-11-25 2022-03-08 广州林电智能科技有限公司 一种全场景虚拟直播处理设备
CN114630173A (zh) * 2022-03-03 2022-06-14 北京字跳网络技术有限公司 虚拟对象的驱动方法、装置、电子设备及可读存储介质
CN114745598B (zh) * 2022-04-12 2024-03-19 北京字跳网络技术有限公司 视频数据展示方法、装置、电子设备及存储介质
CN114900743A (zh) * 2022-04-28 2022-08-12 中德(珠海)人工智能研究院有限公司 基于视频推流的场景渲染过渡方法以及系统
CN117014651A (zh) * 2022-04-29 2023-11-07 北京字跳网络技术有限公司 一种视频生成方法及装置
CN115442542B (zh) * 2022-11-09 2023-04-07 北京天图万境科技有限公司 一种分镜方法和装置
CN115883814A (zh) * 2023-02-23 2023-03-31 阿里巴巴(中国)有限公司 实时视频流的播放方法、装置及设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6538942B1 (ja) * 2018-07-26 2019-07-03 株式会社Cygames 情報処理プログラム、サーバ、情報処理システム、及び情報処理装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201333882A (zh) * 2012-02-14 2013-08-16 Univ Nat Taiwan 擴增實境裝置及其方法
US20150049078A1 (en) * 2013-08-15 2015-02-19 Mep Tech, Inc. Multiple perspective interactive image projection
CN106157359B (zh) * 2015-04-23 2020-03-10 中国科学院宁波材料技术与工程研究所 一种虚拟场景体验系统的设计方法
US10068376B2 (en) * 2016-01-11 2018-09-04 Microsoft Technology Licensing, Llc Updating mixed reality thumbnails
US10019131B2 (en) * 2016-05-10 2018-07-10 Google Llc Two-handed object manipulations in virtual reality
CN106295955A (zh) * 2016-07-27 2017-01-04 邓耀华 一种基于增强现实的客户对厂的鞋定制系统及实现方法
CN106385576B (zh) * 2016-09-07 2017-12-08 深圳超多维科技有限公司 立体虚拟现实直播方法、装置及电子设备
CN107103645B (zh) * 2017-04-27 2018-07-20 腾讯科技(深圳)有限公司 虚拟现实媒体文件生成方法及装置
CN107194979A (zh) * 2017-05-11 2017-09-22 上海微漫网络科技有限公司 一种虚拟角色的场景合成方法及系统
US10278001B2 (en) * 2017-05-12 2019-04-30 Microsoft Technology Licensing, Llc Multiple listener cloud render with enhanced instant replay
JP6469279B1 (ja) 2018-04-12 2019-02-13 株式会社バーチャルキャスト コンテンツ配信サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム
CN108538095A (zh) * 2018-04-25 2018-09-14 惠州卫生职业技术学院 基于虚拟现实技术的医学教学系统及方法
JP6595043B1 (ja) 2018-05-29 2019-10-23 株式会社コロプラ ゲームプログラム、方法、および情報処理装置
CN108830894B (zh) * 2018-06-19 2020-01-17 亮风台(上海)信息科技有限公司 基于增强现实的远程指导方法、装置、终端和存储介质
CN108833740B (zh) * 2018-06-21 2021-03-30 珠海金山网络游戏科技有限公司 一种基于三维动画直播的实时提词器方法和装置
CN108961376A (zh) * 2018-06-21 2018-12-07 珠海金山网络游戏科技有限公司 虚拟偶像直播中实时绘制三维场景的方法及系统
CN108877838B (zh) * 2018-07-17 2021-04-02 黑盒子科技(北京)有限公司 音乐特效匹配方法及装置
CN110139115B (zh) * 2019-04-30 2020-06-09 广州虎牙信息科技有限公司 基于关键点的虚拟形象姿态控制方法、装置及电子设备
CN110335334A (zh) * 2019-07-04 2019-10-15 北京字节跳动网络技术有限公司 虚拟头像驱动显示方法、装置、电子设备及存储介质
CN110427110B (zh) * 2019-08-01 2023-04-18 广州方硅信息技术有限公司 一种直播方法、装置以及直播服务器

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6538942B1 (ja) * 2018-07-26 2019-07-03 株式会社Cygames 情報処理プログラム、サーバ、情報処理システム、及び情報処理装置

Also Published As

Publication number Publication date
WO2021109376A1 (zh) 2021-06-10
TWI752502B (zh) 2022-01-11
TW202123178A (zh) 2021-06-16
JP7457806B2 (ja) 2024-03-28
KR20220093342A (ko) 2022-07-05
CN111080759A (zh) 2020-04-28
CN111080759B (zh) 2022-12-27

Similar Documents

Publication Publication Date Title
JP7457806B2 (ja) レンズ分割の実現方法、装置および関連製品
WO2022001593A1 (zh) 视频生成方法、装置、存储介质及计算机设备
CN113240782B (zh) 基于虚拟角色的流媒体生成方法及装置
US10721280B1 (en) Extended mixed multimedia reality platform
CN113946211A (zh) 基于元宇宙的多个对象的交互方法及相关设备
JP6683864B1 (ja) コンテンツ制御システム、コンテンツ制御方法、およびコンテンツ制御プログラム
CN109035415B (zh) 虚拟模型的处理方法、装置、设备和计算机可读存储介质
CN112673400A (zh) 化身动画
Schraffenberger Arguably augmented reality: relationships between the virtual and the real
Zhen et al. Physical World to Virtual Reality–Motion Capture Technology in Dance Creation
CN110647780A (zh) 一种数据处理方法、系统
KR102200239B1 (ko) 실시간 cg 영상 방송 서비스 시스템
KR100445846B1 (ko) 대인 공포증 치료를 위한 가상 연설 시뮬레이터
JP6892478B2 (ja) コンテンツ制御システム、コンテンツ制御方法、およびコンテンツ制御プログラム
CN111652986B (zh) 舞台效果呈现方法、装置、电子设备及存储介质
JP6752349B1 (ja) コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
JP2021009351A (ja) コンテンツ制御システム、コンテンツ制御方法、およびコンテンツ制御プログラム
JP2001051579A (ja) 映像表示方法、映像表示装置及び映像表示プログラムを記録した記録媒体
Lin et al. Space connection: a new 3D tele-immersion platform for web-based gesture-collaborative games and services
EP4280226A1 (en) Remote reproduction method, system, and apparatus, device, medium, and program product
Naugle et al. Reflections on Heidegger: Performing Translations in Active Space Environments
US20220343783A1 (en) Content control system, content control method, and content control program
JP2021009348A (ja) コンテンツ制御システム、コンテンツ制御方法、およびコンテンツ制御プログラム
Lung Returning back the initiative of spatial relations between inner and outer space from images
Melios CREATIVE DANCE LEARNING PLATFORM USING MICROSOFT AZURE KINECT

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220517

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220517

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240315

R150 Certificate of patent or registration of utility model

Ref document number: 7457806

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150