JP2023016135A - 表示装置及び表示方法 - Google Patents

表示装置及び表示方法 Download PDF

Info

Publication number
JP2023016135A
JP2023016135A JP2021120236A JP2021120236A JP2023016135A JP 2023016135 A JP2023016135 A JP 2023016135A JP 2021120236 A JP2021120236 A JP 2021120236A JP 2021120236 A JP2021120236 A JP 2021120236A JP 2023016135 A JP2023016135 A JP 2023016135A
Authority
JP
Japan
Prior art keywords
parameter
display
image
predetermined object
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021120236A
Other languages
English (en)
Other versions
JP7175529B1 (ja
Inventor
生也 近藤
Naruya Kondo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2021120236A priority Critical patent/JP7175529B1/ja
Priority to US17/868,304 priority patent/US20230023455A1/en
Application granted granted Critical
Publication of JP7175529B1 publication Critical patent/JP7175529B1/ja
Publication of JP2023016135A publication Critical patent/JP2023016135A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Architecture (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 簡易な方法によって3Dオブジェクトを擬似的に表現することを可能とする表示装置及び表示方法を提供する。【解決手段】 表示装置は、所定オブジェクトに関する表示画像を仮想空間において二次元画像として表示する制御を実行する表示部と、前記仮想空間における視点に関する第1パラメータと、前記所定オブジェクトの変化を定義する第2パラメータと、を取得するパラメータ取得部と、を備え、前記表示部は、前記第1パラメータに基づいて、前記仮想空間における前記二次元画像の傾きを変更するとともに、前記第1パラメータ及び前記第2パラメータに基づいて、前記所定オブジェクトに関する表示画像を表示する制御を実行する。【選択図】 図1

Description

本発明は、表示装置及び表示方法に関する。
近年、様々な角度から撮像された現実世界のもの(以下、オブジェクト)の2D画像に基づいて3Dオブジェクトを生成する技術(以下、フォトグラメトリー技術)が知られている。さらに、フォトグラメトリー技術において、2D画像を撮像する2以上の撮像ポイントの相対距離に基づいて、3Dオブジェクトのサイズを特定する技術も提案されている(例えば、特許文献1)
特開2017-130008号公報
上述した技術は、静的な3Dオブジェクトを生成するものであるが、動的な3Dオブジェクトを生成するニーズも存在する。
しかしながら、動的な3Dオブジェクトを生成する場合には、3Dオブジェクトを構成する各部分の動きに関する物理法則を定義する必要があり、動的な3Dオブジェクトの生成には極めて専門的な知識が要求される。また、動的な3Dオブジェクトの生成及び使用に必要な計算コストも膨大である。
そこで、本発明は、上述した課題を解決するためになされたものであり、簡易な方法によって3Dオブジェクトを擬似的に表現することを可能とする表示装置及び表示方法を提供することを目的とする。
第1の特徴は、表示装置であって、所定オブジェクトに関する表示画像を仮想空間において二次元画像として表示する制御を実行する表示部と、前記仮想空間における視点に関する第1パラメータと、前記所定オブジェクトの変化を定義する第2パラメータと、を取得するパラメータ取得部と、を備え、前記表示部は、前記第1パラメータに基づいて、前記仮想空間における前記二次元画像の傾きを変更するとともに、前記第1パラメータ及び前記第2パラメータに基づいて、前記所定オブジェクトに関する表示画像を表示する制御を実行する、ことを要旨とする。
第2の特徴は、第1の特徴において、前記所定オブジェクトを2以上の角度から撮像することによって、前記所定オブジェクトの変化を含む撮像画像を取得する画像取得部と、前記所定オブジェクトの角度及び前記撮像画像を学習することによって画像生成モデルを生成するモデル生成部と、を備え、前記表示部は、前記画像生成モデルを用いて、前記所定オブジェクトに関する表示画像を生成する、ことを要旨とする。
第3の特徴は、第1の特徴又は第2の特徴において、前記パラメータ取得部は、前記所定オブジェクトをリアルタイムで光学的に認識した結果を前記第2パラメータとして取得する、ことを要旨とする。
第4の特徴は、第1の特徴又は第2の特徴において、前記パラメータ取得部は、前記所定オブジェクトに対する操作を指定するコマンドを前記第2パラメータとして取得する、ことを要旨とする。
第5の特徴は、第1の特徴又は第2の特徴において、前記パラメータ取得部は、前記所定オブジェクトの変化を定義する時間及び環境の少なくともいずれか1つを指定するコマンドを前記第2パラメータとして取得する、ことを要旨とする。
第6の特徴は、表示方法であって、所定オブジェクトに関する表示画像を仮想空間において二次元画像として表示する制御を実行するステップAと、前記仮想空間における視点に関する第1パラメータと、前記所定オブジェクトの変化を定義する第2パラメータと、を取得するステップBと、を備え、前記ステップAは、前記第1パラメータに基づいて、前記仮想空間における前記二次元画像の傾きを変更するとともに、前記第1パラメータ及び前記第2パラメータに基づいて、前記所定オブジェクトに関する表示画像を表示する制御を実行するステップを含む、ことを要旨とする。
本発明によれば、簡易な方法によって3Dオブジェクトを擬似的に表現することを可能とする表示装置及び表示方法を提供することができる。
図1は、実施形態に係る表示装置100を示す図である。 図2は、実施形態に係る学習について説明するための図である。 図3は、実施形態に係る表示について説明するための図である。 図4は、実施形態に係る表示について説明するための図である。 図5は、実施形態に係る表示について説明するための図である。 図6は、実施形態に係る表示について説明するための図である。 図7は、実施形態に係る表示について説明するための図である。 図8は、実施形態に係る表示方法を示す図である。
以下において、実施形態について図面を参照しながら説明する。なお、以下の図面の記載において、同一又は類似の部分には、同一又は類似の符号を付している。但し、図面は模式的なものである。
[実施形態]
(表示装置)
以下において、実施形態に係る表示装置について説明する。図1は、実施形態に係る表示装置100を示す図である。
図1に示すように、表示装置100は、画像取得部10と、モデル生成部20と、格納部30と、パラメータ取得部40と、表示部50と、を有する。後述するように、表示装置100は、所定オブジェクトに関する表示画像を仮想空間において二次元画像(以下、Billboard)として表示する制御を実行する。
画像取得部10は、2以上の角度から撮像された撮像画像であって、所定オブジェクトの変化を含む撮像画像を取得する。撮像画像は、動画像(映像)であってもよく、2以上の静止画像であってもよい。画像取得部10は、所定オブジェクトを撮像する撮像装置(カメラなど)を含んでもよく、撮像装置から撮像画像を取得してもよい。
特に限定されるものではないが、所定オブジェクトは、自律的又は自動的に動作するオブジェクト(以下、第1オブジェクト)を含んでもよい。例えば、第1オブジェクトは、人間の少なくとも一部(例えば、顔)を含んでもよく、犬や猫などのペットを含んでもよい。
所定オブジェクトは、他律的又は他動的に操作されるオブジェクト(以下、第2オブジェクト)を含んでもよい。例えば、第2オブジェクトは、そば、パスタなどの食品を含んでもよく、服、帽子、履物、手袋などの被服を含んでもよく、バッグ、財布などの小物を含んでもよい。
モデル生成部20は、所定オブジェクトの角度(撮像角度)及び撮像画像を学習することによって画像生成モデルを生成する。撮像角度は、撮像視点と読み替えられてもよい。学習は、機械学習であってもよく、深層学習であってもよい。学習は、AI(Artificial Intelligence)を含んでもよい。ここで、撮像画像は、所定オブジェクトの変化態様を含み、モデル生成部20は、撮像角度及び変化態様を学習することによって、所定オブジェクトの変化態様を様々な角度から表現する表示画像を出力可能な画像生成モデルを生成する。
特に限定されるものではないが、モデル生成部20は、既知の特徴点抽出アルゴリズムによるデータ入力を用いて画像生成モデルを生成してもよい。モデル生成部20は、既知のモーションキャプチャ技術によるデータ入力を用いて画像生成モデルを生成してもよい。
格納部30は、モデル生成部20によって生成された画像生成モデルを格納する。
パラメータ取得部40は、仮想空間における視点(以下、仮想空間視点)に関する第1パラメータと、所定オブジェクトの変化を定義する第2パラメータと、を取得する。
第1パラメータは、仮想空間において所定オブジェクトを視認する向き(視点)を定義するパラメータである。実施形態では、第1パラメータは、仮想空間においてBillboardの傾きを定義するパラメータであると考えてもよい。
第2パラメータは、所定オブジェクトの動的な変化を定義するパラメータである。第2パラメータは、所定オブジェクトをリアルタイムで光学的に認識した結果であってもよい。例えば、光学的に認識した結果は、カメラなどの撮像装置を用いた所定オブジェクトの撮像結果を含んでもよく、LiDAR(Light Detection and Ranging)技術を用いた所定オブジェクトの検出結果を含んでもよい。第2パラメータは、所定オブジェクトに対する操作を指定するコマンドであってもよい。例えば、コマンドは、そば又はパスタなどの麺類を持ち上げる操作を指定するコマンドであってもよい。第2パラメータは、所定オブジェクトの変化を定義する時間及び環境の少なくともいずれか1つを指定するコマンドであってもよい。例えば、コマンドは、時間経過を指定するコマンドであってもよく、温度や湿度などの環境変化を指定するコマンドであってもよい。このようなコマンドは、最初に入力されればよく、逐次的に入力されなくてもよい。
表示部50は、所定オブジェクトに関する表示画像を仮想空間においてBillboardとして表示する制御を実行する。表示部50は、第1パラメータに基づいて、仮想空間におけるBillboardの傾きを変更するとともに、Billboardの傾きを定義する第1パラメータ及び所定オブジェクトの動的な変化を定義する第2パラメータに基づいて、所定オブジェクトに関する表示画像を表示する制御を実行する。具体的には、表示部50は、第1パラメータ基づいて、Billboard上における所定オブジェクトの角度を変更し、第2パラメータを所定モデルに入力することによって、変更された角度から見た所定オブジェクトに関する表示画像を生成する。
(学習)
以下において、学習(画像生成モデルの生成)の一例について説明する。図2は、実施形態に係る学習を説明するための図である。
ここでは、所定オブジェクトが人間の顔であるケースについて例示する。所定オブジェクトの変換は表情の変化であってもよい。
図2に示すように、表示装置100は、2以上の角度から撮像された撮像画像であって、所定オブジェクト200の変化を含む撮像画像を取得する。例えば、撮像画像は、正面から顔を撮像した画像、右側から顔を撮像した画像、左側から顔を撮像した画像などを含んでもよい。撮像画像は、目を瞑っている画像、目を開いている画像、口を閉じている画像、口を開いている画像などを含んでもよい。
表示装置100は、各撮像画像から顔の特徴点300を抽出する。顔の特徴点300を抽出するアルゴリズムとしては、既知のアルゴリズムを用いることができる。
表示装置100は、所定オブジェクト200の撮像画像、角度(正面、右側、左側など)及び特徴点300を学習することによって画像生成モデルを生成する。
ここでは、既知の特徴点抽出アルゴリズムによるデータ入力を用いて画像生成モデルが生成されるケースについて例示したが、画像生成モデルは、既知のモーションキャプチャ技術によるデータ入力を用いて生成されてもよい。但し、画像生成モデルの生成方法は特に限定されるものではない。画像生成モデルは、様々な角度から様々な表情の顔を生成するモデルであればよい。
(表示)
以下において、表示(表示画像の出力)の一例について説明する。図3~図5は、実施形態に係る表示を説明するための図である。
ここでは、所定オブジェクトが現実世界の人間の顔であり、仮想空間において人間の胴体に人間の顔が重畳されるケースについて例示する。人間の胴体は、CG(Computer Graphics)技術によって予め生成された3D画像であってもよい。人間の胴体は、仮想空間の一部であると考えてもよい。なお、第2パラメータが所定オブジェクトの撮像画像であるケースについて例示する。
また、説明を明確化するために、表示装置100を利用するユーザが仮想空間において所定オブジェクトを視認する視点(以下、ユーザ視点)を例に挙げて説明する。ユーザ視点は、仮想空間視点の1つであると考えてもよい。仮想空間視点は、仮想空間を定義する絶対的な座標軸において、仮想空間内の画像を視認する視点であると考えてもよい。
このようなケースにおいて、ユーザ視点においては、Billboardの傾きは、ユーザ視点に対してBillboardが正対するように変更されてもよい。すなわち、ユーザ視点(仮想空間視点の1つ)に関する第1パラメータに基づいてBillboardの傾きが変更される。一方で、ユーザ視点とは異なる仮想空間視点においては、Billboardの傾きは、ユーザ視点と仮想空間視点との間の相対的な差異に基づいて変更されてもよい。すなわち、仮想空間視点に関する第1パラメータに基づいてBillboardの傾きが変更される。Billboardの傾きは、垂直軸を中心とする傾きを含んでもよく、水平軸を中心とする傾きを含んでもよく、奥行軸を中心とする傾きを含んでもよい。
このような前提下において、図3~図7に示すように、表示装置100は、ユーザ視点の画像において、仮想空間400において、所定オブジェクト200を含むBillboard210を胴体410に重畳する。Billboard210上の所定オブジェクト200は、所定オブジェクト200の撮像画像そのものであってもよい。
以下において、所定オブジェクト200を撮像する向き(以下、撮像視点)は、現実世界の人間の顔を正面から撮像する想定で定義される視点であるケースを例示する。例えば、撮像画像において、所定オブジェクト200が現実世界の人間の顔の正面視であってもよい。但し、撮像画像において現実世界の人間の顔が上下左右に振られた画像が撮像されてもよい。このようなケースにおいて、仮想空間において人間の顔が上下左右に振られた画像が表示されてもよい。以下の例においては、Billboardの傾きは、ユーザ視点に関する第1パラメータに基づいて、ユーザ視点に対して正対するように変更されることを前提とする。
第1に、ユーザ視点が所定オブジェクト200の撮像視点と同じであり、仮想空間視点がユーザ視点であるケースについて説明する。図3に示すように、ユーザ視点は、胴体410を正面から視認する視点であってもよい。仮想空間視点がユーザ視点であるため、ユーザ視点に対してBillboard210が正対するようにBillboard210の傾きが変更される。Billboard210上において、所定オブジェクト200に関する表示画像は、ユーザ視点(仮想空間視点)に関する第1パラメータ及び第2パラメータ(撮像画像)に基づいて生成される。このようなケースにおいて、ユーザ視点が所定オブジェクト200の撮像視点と同じであるため、表示装置100は、所定オブジェクト200に関する表示画像として、所定オブジェクト200の撮像画像をそのまま表示する制御を実行してもよい。
第2に、ユーザ視点が所定オブジェクト200の撮像視点と異なり、仮想空間視点がユーザ視点であるケースについて説明する。図4に示すように、ユーザ視点は、胴体410を略30°左側から視認する視点であってもよい。仮想空間視点がユーザ視点であるため、ユーザ視点に対してBillboard210が正対するようにBillboard210の傾きが変更される。Billboard210上において、所定オブジェクト200に関する表示画像は、ユーザ視点(仮想空間視点)に関する第1パラメータ及び第2パラメータ(撮像画像)に基づいて生成される。このようなケースにおいて、ユーザ視点が所定オブジェクト200の撮像視点と異なるため、表示装置100は、所定オブジェクト200の撮像画像に基づいて、ユーザ視点(略30°左側)から視認する向きの画像を生成して、所定オブジェクト200に関する表示画像として、生成された画像を表示する制御を実行してもよい。このような制御では、上述した画像生成モデルが用いられてもよい。
第3に、ユーザ視点が所定オブジェクト200の撮像視点と異なり、仮想空間視点がユーザ視点であるケースについて説明する。図5に示すように、ユーザ視点は、胴体410を略30°右側から視認する視点であってもよい。仮想空間視点がユーザ視点であるため、ユーザ視点に対しておいてBillboard210が正対するようにBillboard210の傾きが変更される。Billboard210上において、所定オブジェクト200に関する表示画像は、ユーザ視点(仮想空間視点)に関する第1パラメータ及び第2パラメータ(撮像画像)に基づいて生成される。このようなケースにおいて、ユーザ視点が所定オブジェクト200の撮像視点と異なるため、表示装置100は、所定オブジェクト200の撮像画像に基づいて、ユーザ視点(略30°右側)から視認する向きの画像を生成して、所定オブジェクト200に関する表示画像として、生成された画像を表示する制御を実行してもよい。このような制御では、上述した画像生成モデルが用いられてもよい。
第4に、Billboard210の傾きについて説明する観点から、ユーザ視点と異なる仮想空間視点で視認され得る画像について説明する。図6に示すように、ユーザ視点が胴体410を正面から視認する視点である場合において、仮想空間視点は、胴体410を略30°右側から視認する視点であってもよい。Billboard210の傾きは、ユーザ視点に対してBillboard210が正対するように変更されるため、ユーザ視点とは異なる仮想空間視点においては、Billboard210の傾きは、ユーザ視点と異なる仮想空間視点に対してBillboard210が傾くように変更される。すなわち、Billboard210の傾きは、ユーザ視点と仮想空間視点との相対的な差異に基づいて変更される。
第5に、Billboard210の傾きについて説明する観点から、ユーザ視点と異なる仮想空間視点で視認され得る画像について説明する。図7に示すように、ユーザ視点が胴体410を略30°左側から視認する視点である場合に、仮想空間視点は、胴体410を略30°右側から視認する視点であってもよい。Billboard210の傾きは、ユーザ視点に対してBillboard210が正対するように変更されるため、ユーザ視点とは異なる仮想空間視点においては、Billboard210の傾きは、ユーザ視点と異なる仮想空間視点に対してBillboard210が傾くように変更される。すなわち、Billboard210の傾きは、ユーザ視点と仮想空間視点との相対的な差異に基づいて変更される。
図3~図7では、説明の明確化のために、仮想空間400においてBillboard210を明示しているが、Billboard210において所定オブジェクト200を除いた部分は透明であってもよい。すなわち、所定オブジェクト200を除いた部分において、仮想空間400の画像が表示されてもよい。
(表示方法)
以下において、実施形態に係る表示方法について説明する。
図8に示すように、ステップS10において、表示装置100は、2以上の角度から撮像された撮像画像であって、所定オブジェクトの変化を含む撮像画像を取得する。撮像画像は、動画像(映像)であってもよく、2以上の静止画像であってもよい。
ステップS20において、表示装置100は、所定オブジェクトの角度及び撮像画像を学習することによって画像生成モデルを生成する。上述したように、表示装置100は、既知の特徴点抽出アルゴリズムによるデータ入力を用いて画像生成モデルを生成してもよい。表示装置100は、既知のモーションキャプチャ技術によるデータ入力を用いて画像生成モデルを生成してもよい。
なお、ステップS10及びステップS20は、学習フェーズと称されてもよい。
ステップS30において、表示装置100は、仮想空間視点に関する第1パラメータと、所定オブジェクトの変化を定義する第2パラメータと、を取得する。
ステップS40において、表示装置100は、第1パラメータに基づいて、仮想空間におけるBillboardの傾きを変更するとともに、第1パラメータ及び第2パラメータに基づいて、所定オブジェクトに関する表示画像を表示する制御を実行する。
なお、ステップS30及びステップS40は、表示フェーズと称されてもよい。また、表示フェーズにおいて、ステップS30及びステップS40の処理は繰り返されてもよい。すなわち、表示装置100は、第1パラメータ及び第2パラメータの入力毎に、仮想空間におけるBillboardの傾きを逐次的に変更し、所定オブジェクトに関する表示画像を逐次的に表示してもよい。
(作用及び効果)
実施形態では、表示装置100は、第1パラメータに基づいて、仮想空間におけるBillboardの傾きを変更するとともに、第1パラメータ及び第2パラメータに基づいて、所定オブジェクトに関する表示画像を表示する制御を実行する。すなわち、表示装置100は、所定オブジェクトに関する表示画像をBillboard(2D画像)として扱う前提下において、Billboardの傾きに応じた角度でBillboard上の表示画像を表示する制御を実行する。このような構成によれば、所定オブジェクトに関する表示画像を簡易な方法によって擬似的に3Dオブジェクトとして表現することができる。従って、動的な3Dオブジェクトの生成に必要な極めて専門的な知識が不要であり、動的な3Dオブジェクトの生成及び使用に必要な計算コストを大きく抑制することができる。
例えば、所定オブジェクトをリアルタイムで光学的に認識した結果を第2パラメータとして用いるケースを想定すると、所定オブジェクトに関する表示画像の生成及び使用に必要な計算コストが小さいため、表示画像のフレームレートを高めることができる。
[その他の実施形態]
本発明は上述した開示によって説明したが、上述した開示の一部をなす論述及び図面は、この発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施形態、実施例及び運用技術が明らかとなろう。
上述した開示では、第2パラメータが所定オブジェクトをリアルタイムで光学的に認識した結果であるケースについて主として説明した。しかしながら、上述した開示はこれに限定されるものではない。上述したように、第2パラメータは、所定オブジェクトに対する操作を指定するコマンドであってもよく、所定オブジェクトの変化を定義する時間及び環境の少なくともいずれか1つを指定するコマンドであってもよい。
上述した開示では、表示装置100を利用するユーザが1人であるケースについて例示した。しかしながら、上述した開示はこれに限定されるものではない。表示装置100を利用するユーザは2人以上であってもよい。このようなケースにおいて、表示装置100は、ユーザ毎のユーザ視点に基づいて、ユーザ毎のユーザ視点に対して正対する各ユーザ用のBillboardを設定し、所定オブジェクトに関する表示画像をBillboard上に表示してもよい。例えば、表示装置100を利用するユーザとしてユーザA及びユーザBが存在する場合に、ユーザAのユーザ視点に対して正対するユーザAのBillboardを設定し、所定オブジェクトに関する表示画像をユーザA用のBillboard上に表示する一方で、ユーザBのユーザ視点に対して正対するユーザBのBillboardを設定し、所定オブジェクトに関する表示画像をユーザB用のBillboard上に表示してもよい。このようなケースにおいて、表示装置100は、ユーザB用のBillboard及び所定オブジェクトに関する表示画像をユーザAに対して表示せずに、ユーザA用のBillboard及び所定オブジェクトに関する表示画像をユーザBに対して表示しなくてもよい。或いは、表示装置100は、ユーザAのユーザ視点とユーザBのユーザ視点との相対的な差異に基づいて、ユーザB用のBillboardが傾いた状態で、ユーザB用のBillboard及び所定オブジェクトに関する表示画像(例えば、図6及び図7に示す態様)をユーザAに対して表示してもよい。同様に、表示装置100は、ユーザAのユーザ視点とユーザBのユーザ視点との相対的な差異に基づいて、ユーザA用のBillboardが傾いた状態で、ユーザA用のBillboard及び所定オブジェクトに関する表示画像(例えば、図6及び図7に示す態様)をユーザBに対して表示してもよい。
上述した開示では、所定オブジェクトの撮像視点は、現実世界の人間の顔を正面から撮像する想定で定義される視点であるケースを例示した。しかしながら、上述した開示はこれに限定されるものではない。所定オブジェクト200の撮像視点は、仮想空間において所定オブジェクトを視認する基準視点によって定義された視点であってもよい。Billboard上に表示される表示画像は、基準視点とユーザ視点との相対的な差異に基づいて生成される。
表示装置100は、表示画像を実際に表示するディスプレイを有してもよい。このようなケースにおいて、所定オブジェクトに関する表示画像を仮想空間においてBillboardとして表示する制御は、ディスプレイへの表示画像の表示を含んでもよい。表示装置100は、表示画像を実際に表示するディスプレイを有していなくてもよい。このようなケースにおいて、所定オブジェクトに関する表示画像を仮想空間においてBillboardとして表示する制御は、表示画像の生成及びディスプレイへの出力を含んでもよい。
表示装置100は、インターネットなどのネットワーク上に設けられたクラウドサーバであってもよい。このようなケースにおいて、所定オブジェクトに関する表示画像を仮想空間においてBillboardとして表示する制御は、表示装置100にネットワークを介して接続された端末に対して、生成された表示画像を出力(送信)する動作を含んでもよい。
上述した開示では、仮想空間に配置される2D画像をBillboardと称したが、仮想空間に配置される2D画像は、キャンバスなどの他の名称で称されてもよい。
上述したように、画像生成モデルの生成方法は、特に限定されるものではないが、画像生成モデルは、CNN(Convolutional Neural Network)、LSTM(Long Short-Term memory)、GAN(Generative Adversarial Network)などの技術を用いて生成されてもよい。
特に限定されるものではないが、画像取得部10は、カメラなどの撮像装置によって構成されてもよく、撮像装置に接続された画像入力インタフェースによって構成されてもよい。モデル生成部20は、1以上のプロセッサによって構成されてもよい。格納部30は、半導体メモリ又は磁気メモリなどの記憶媒体によって構成されてもよい。パラメータ取得部40は、カメラなどの撮像装置によって構成されてもよく、撮像装置に接続された画像入力インタフェースによって構成されてもよく、コマンドを入力するためのユーザインタフェースによって構成されてもよい。表示部50は、表示画像を生成する1以上のプロセッサによって構成されてもよく、表示画像などを実際に表示するディスプレイによって構成されてもよく、表示画像などを出力する出力インタフェースによって構成されてもよい。
上述した開示では特に触れていないが、表示装置100が行う各処理をコンピュータに実行させるプログラムが提供されてもよい。また、プログラムは、コンピュータ読取り可能媒体に記録されていてもよい。コンピュータ読取り可能媒体を用いれば、コンピュータにプログラムをインストールすることが可能である。ここで、プログラムが記録されたコンピュータ読取り可能媒体は、非一過性の記録媒体であってもよい。非一過性の記録媒体は、特に限定されるものではないが、例えば、CD-ROMやDVD-ROM等の記録媒体であってもよい。
或いは、表示装置100が行う各処理を実行するためのプログラムを記憶するメモリ及びメモリに記憶されたプログラムを実行するプロセッサによって構成されるチップが提供されてもよい。
10…画像取得部、20…モデル生成部、30…格納部、40…パラメータ取得部、50…表示部、100…表示装置

Claims (6)

  1. 所定オブジェクトに関する表示画像を仮想空間において二次元画像として表示する制御を実行する表示部と、
    前記仮想空間における視点に関する第1パラメータと、前記所定オブジェクトの変化を定義する第2パラメータと、を取得するパラメータ取得部と、を備え、
    前記表示部は、前記第1パラメータに基づいて、前記仮想空間における前記二次元画像の傾きを変更するとともに、前記第1パラメータ及び前記第2パラメータに基づいて、前記所定オブジェクトに関する表示画像を表示する制御を実行する、表示装置。
  2. 2以上の角度から撮像された撮像画像であって、前記所定オブジェクトの変化を含む撮像画像を取得する画像取得部と、
    前記所定オブジェクトの角度及び前記撮像画像を学習することによって画像生成モデルを生成するモデル生成部と、を備え、
    前記表示部は、前記画像生成モデルを用いて、前記所定オブジェクトに関する表示画像を生成する、請求項1に記載の表示装置。
  3. 前記パラメータ取得部は、前記所定オブジェクトをリアルタイムで光学的に認識した結果を前記第2パラメータとして取得する、請求項1又は請求項2に記載の表示装置。
  4. 前記パラメータ取得部は、前記所定オブジェクトに対する操作を指定するコマンドを前記第2パラメータとして取得する、請求項1又は請求項2に記載の表示装置。
  5. 前記パラメータ取得部は、前記所定オブジェクトの変化を定義する時間及び環境の少なくともいずれか1つを指定するコマンドを前記第2パラメータとして取得する、請求項1又は請求項2に記載の表示装置。
  6. 所定オブジェクトに関する表示画像を仮想空間において二次元画像として表示する制御を実行するステップAと、
    前記仮想空間における視点に関する第1パラメータと、前記所定オブジェクトの変化を定義する第2パラメータと、を取得するステップBと、を備え、
    前記ステップAは、前記第1パラメータに基づいて、前記仮想空間における前記二次元画像の傾きを変更するとともに、前記第1パラメータ及び前記第2パラメータに基づいて、前記所定オブジェクトに関する表示画像を表示する制御を実行するステップを含む、表示方法。
JP2021120236A 2021-07-21 2021-07-21 表示装置及び表示方法 Active JP7175529B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021120236A JP7175529B1 (ja) 2021-07-21 2021-07-21 表示装置及び表示方法
US17/868,304 US20230023455A1 (en) 2021-07-21 2022-07-19 Display device and display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021120236A JP7175529B1 (ja) 2021-07-21 2021-07-21 表示装置及び表示方法

Publications (2)

Publication Number Publication Date
JP7175529B1 JP7175529B1 (ja) 2022-11-21
JP2023016135A true JP2023016135A (ja) 2023-02-02

Family

ID=84139565

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021120236A Active JP7175529B1 (ja) 2021-07-21 2021-07-21 表示装置及び表示方法

Country Status (2)

Country Link
US (1) US20230023455A1 (ja)
JP (1) JP7175529B1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7471034B1 (ja) 2023-12-14 2024-04-19 生也 近藤 画像処理システム及び画像処理方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016197302A (ja) * 2015-04-02 2016-11-24 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2019017755A (ja) * 2017-07-19 2019-02-07 株式会社カプコン ゲームプログラム及びゲームシステム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016197302A (ja) * 2015-04-02 2016-11-24 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2019017755A (ja) * 2017-07-19 2019-02-07 株式会社カプコン ゲームプログラム及びゲームシステム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
渡邊 孝一 他: "全周囲裸眼立体ディスプレイを用いたサイバースペースへのテレイグジスタンス", 日本バーチャルリアリティ学会論文誌, vol. 第17巻 第2号, JPN6021041381, 30 June 2012 (2012-06-30), JP, pages 91 - 100, ISSN: 0004824308 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7471034B1 (ja) 2023-12-14 2024-04-19 生也 近藤 画像処理システム及び画像処理方法

Also Published As

Publication number Publication date
US20230023455A1 (en) 2023-01-26
JP7175529B1 (ja) 2022-11-21

Similar Documents

Publication Publication Date Title
US10460512B2 (en) 3D skeletonization using truncated epipolar lines
US10832039B2 (en) Facial expression detection method, device and system, facial expression driving method, device and system, and storage medium
KR102296267B1 (ko) 3d 공간에서의 포즈 추정
US11868515B2 (en) Generating textured polygon strip hair from strand-based hair for a virtual character
KR102577472B1 (ko) 동작 인식을 위한 가상 학습 데이터를 생성하는 방법 및 장치
WO2021093453A1 (zh) 三维表情基的生成方法、语音互动方法、装置及介质
US20210279967A1 (en) Object centric scanning
KR102103939B1 (ko) 머리 회전을 갖는 아바타 얼굴 표정 애니메이션
CN111710036B (zh) 三维人脸模型的构建方法、装置、设备及存储介质
CN107464291B (zh) 一种脸部图像的处理方法及装置
US20130127827A1 (en) Multiview Face Content Creation
CN113315878A (zh) 单程对象扫描
US11748913B2 (en) Modeling objects from monocular camera outputs
US20210407125A1 (en) Object recognition neural network for amodal center prediction
CN113705295A (zh) 对象姿态迁移方法、装置、设备及存储介质
JP7175529B1 (ja) 表示装置及び表示方法
CN114519727A (zh) 一种图像驱动方法、装置、设备和介质
US11640692B1 (en) Excluding objects during 3D model generation
Basak et al. Methodology for building synthetic datasets with virtual humans
Morimoto Interactive digital mirror
Jian et al. Realistic face animation generation from videos
Li et al. A low-cost head and eye tracking system for realistic eye movements in virtual avatars
CN117115321B (zh) 虚拟人物眼睛姿态的调整方法、装置、设备及存储介质
Afzal et al. Incremental reconstruction of moving object trajectory
US20240020901A1 (en) Method and application for animating computer generated images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211006

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20211006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221101

R150 Certificate of patent or registration of utility model

Ref document number: 7175529

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150