JP2022081271A - 画像生成装置、画像生成方法、およびプログラム - Google Patents

画像生成装置、画像生成方法、およびプログラム Download PDF

Info

Publication number
JP2022081271A
JP2022081271A JP2020192711A JP2020192711A JP2022081271A JP 2022081271 A JP2022081271 A JP 2022081271A JP 2020192711 A JP2020192711 A JP 2020192711A JP 2020192711 A JP2020192711 A JP 2020192711A JP 2022081271 A JP2022081271 A JP 2022081271A
Authority
JP
Japan
Prior art keywords
player
image
mesh structure
virtual object
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020192711A
Other languages
English (en)
Other versions
JP2022081271A5 (ja
Inventor
良徳 大橋
Yoshinori Ohashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment LLC
Original Assignee
Sony Interactive Entertainment LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment LLC filed Critical Sony Interactive Entertainment LLC
Priority to JP2020192711A priority Critical patent/JP2022081271A/ja
Priority to US18/030,861 priority patent/US20230415040A1/en
Priority to PCT/JP2021/041667 priority patent/WO2022107688A1/ja
Publication of JP2022081271A publication Critical patent/JP2022081271A/ja
Publication of JP2022081271A5 publication Critical patent/JP2022081271A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • A63F13/86Watching games played by other players
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/40Hidden part removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/34Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】プレイヤーの体に重畳された仮想オブジェクトについて奥行きをより正確に表現する。【解決手段】本開示の画像生成装置100は、プレイヤーの体を認識するプレイヤー認識部102と、視点位置及び視点方向を含む視点情報を取得する視点取得部103と、認識結果に基づいて、プレイヤーの体のスケルトンが反映されたプレイヤーのメッシュ構造を生成するメッシュ生成部105と、視点情報における視点位置から視点方向に見たときのプレイヤーのメッシュ構造及び仮想オブジェクトをレンダリングし、レンダリングされたプレイヤーのメッシュ構造にレンダリングされた仮想オブジェクトを重畳することにより、画像を生成する画像生成部110と、を含む。【選択図】図3

Description

本開示は、画像生成装置、画像生成方法、およびプログラムに関する。
ゲーム機に接続されたヘッドマウントディスプレイ(HMD)を頭部に装着して、HMDに表示された画面を見ながら、コントローラなどを操作してゲームプレイすることが行われている。HMDを装着すると、HMDに表示される映像以外をユーザは見ないため、映像世界への没入感が高まり、ゲームのエンタテインメント性を一層高める効果がある。また、HMDに仮想現実(VR)の映像を表示させ、HMDを装着したユーザが頭部を回転させると、360度見渡せる全周囲の仮想空間が表示されるようにすると、さらに映像への没入感が高まり、ゲームなどのアプリケーションの操作性も向上する。
また、HMDに搭載されたカメラによって外界の映像を撮影してディスプレイパネルに表示することのできるビデオ透過(ビデオシースルー)型HMDもある。ビデオ透過型HMDでは、カメラで撮影される外界の映像にコンピュータグラフィックス(CG)によって生成された仮想世界のオブジェクトを重畳させることで拡張現実(AR)の映像を生成して表示することもできる。拡張現実の映像は、現実世界から切り離された仮想現実とは違って、現実世界が仮想オブジェクトで拡張されたものであり、ユーザは現実世界とのつながりを意識しつつ、仮想世界を体験することができる。
ゲームをプレイするプレイヤーの画像に対して仮想オブジェクトを重畳させた画像を表示する場合、奥にあるはずの仮想オブジェクトが手前にあるはずのプレイヤーの体の一部を上書きしてしまうことがある。そのため、奥行きが正確に表現できない場合がある。その結果、プレイヤーの体と仮想オブジェクトとの間で一体感が得られず、画像が不自然なものとなる。
上記課題に鑑みて、本開示の1つの目的は、プレイヤーの体とそのプレイヤーの体に重畳された仮想オブジェクトについて奥行きがより正確に表現された画像を提供することが可能な画像生成装置、画像生成方法、およびプログラムを提供することにある。
上記課題を解決するために、本開示のある態様の画像生成装置は、プレイヤーの体を認識するプレイヤー認識部と、視点位置及び視点方向を含む視点情報を取得する視点取得部と、前記認識結果に基づいて、前記プレイヤーの体のスケルトンが反映されたプレイヤーのメッシュ構造を生成するメッシュ生成部と、前記視点情報における前記視点位置から前記視点方向に見たときの前記プレイヤーのメッシュ構造及び仮想オブジェクトをレンダリングし、前記レンダリングされたプレイヤーのメッシュ構造に前記レンダリングされた仮想オブジェクトを重畳することにより、画像を生成する画像生成部と、を含む。
本開示の別の態様の画像生成方法は、プレイヤーの体を認識するステップと、視点位置及び視点方向に関する視点情報を取得するステップと、前記認識結果に基づいて、前記プレイヤーの体のスケルトンが反映されたプレイヤーのメッシュ構造を生成するステップと、前記視点情報における前記視点位置から前記視点方向に見たときの前記プレイヤーのメッシュ構造及び仮想オブジェクトをレンダリングし、前記レンダリングされたプレイヤーのメッシュ構造に前記レンダリングされた仮想オブジェクトを重畳することにより、画像を生成するステップと、を含む。
本開示のさらに別の態様のプログラムは、プレイヤーの体を認識するステップと、視点位置及び視点方向に関する視点情報を取得するステップと、前記認識結果に基づいて、前記プレイヤーの体のスケルトンが反映されたプレイヤーのメッシュ構造を生成するステップと、前記視点情報における前記視点位置から前記視点方向に見たときの前記プレイヤーのメッシュ構造及び仮想オブジェクトをレンダリングし、前記レンダリングされたプレイヤーのメッシュ構造に前記レンダリングされた仮想オブジェクトを重畳することにより、画像を生成するステップと、をコンピュータに実行させるためのプログラムである。
なお、以上の構成要素の任意の組合せ、本開示の表現を方法、装置、システム、コンピュータプログラム、データ構造、記録媒体などの間で変換したものもまた、本開示の態様として有効である。
本開示によれば、プレイヤーの体とそのプレイヤーの体に重畳された仮想オブジェクトについて奥行きがより正確に表現された画像を提供することが可能となる。
第1実施形態の画像生成システムの全体概要図である。 ユーザによる実施形態の利用例を示す図である。 第1実施形態の画像生成装置の構成図である。 スケルトンを例示する図である。 メッシュ構造を例示する図である。 仮想オブジェクトがプレイヤーのメッシュ構造に重畳される例を示す図である。 撮影画像の例を示す図である。 図5の撮影画像に仮想オブジェクトを重畳した画像の例を示す図である。 従来手法によってオクルージョンを表現した例を示す図である。 第1実施形態の手法によってオクルージョンを表現した例を示す図である。 第2実施形態の画像生成装置の構成図である。 現実空間の撮影画像が重畳されたプレイヤーのメッシュ構造を示す。 図10Aのプレイヤーのメッシュ構造における脚部に、機械構造の脚部の仮想オブジェクトを重畳した例を示す図である。 空間を歪ませる処理の例を示す図である。 図10Cの処理後に仮想オブジェクトを重畳した例を示す図である。
<第1実施形態>
図1は、第1実施形態の画像生成システムの全体概要図である。図1の画像生成システム10は、画像生成装置100を含む。画像生成装置100の一例は、ゲーム機である。画像生成装置100は、ヘッドマウントディスプレイ(HMD)15、カメラ19、及び画像提供装置21に接続される。画像生成装置100に接続されるHMD15の数は、図1の例に限定されるものではない。
画像生成装置100は、制御部11と、記憶部12と、インタフェース部13と、を含む。制御部11はプロセッサを含み、記憶部12に記憶されているプログラムを実行して各種の情報処理を実行する。記憶部12は、RAM等のメモリデバイスを含み、制御部11が実行するプログラム、及び当該プログラムによって処理されるデータを格納する。
インタフェース部13は、HMD15、カメラ19、及び画像提供装置21のそれぞれの間のデータ通信のためのインタフェースである。画像生成装置100は、インタフェース部13を介して有線又は無線でHMD15と、カメラ19と、画像提供装置21と、に接続される。具体的には、インタフェース部13は、映像・音声をデジタル信号で伝送する通信インタフェースの標準規格であるHDMI(登録商標)(High-Definition Multimedia Interface)等のマルチメディアインタフェースを含む。
HMD15は、ユーザの頭部に装着してディスプレイに表示される静止画や動画などを鑑賞し、ヘッドホンから出力される音声や音楽などを聴くための視聴装置である。HMD15には、ジャイロセンサや加速度センサが設けられる。HMD15は、これらのセンサを用いて、HMD15を装着したユーザの頭部の位置情報と頭部の回転角や傾きなどを計測する。HMD15には、カメラユニット(不図示)が搭載される。HMD15は、カメラユニットを用いて、ユーザがHMD15を装着している間、そのユーザの視点で外界を撮影することができる。HMD15は、その撮影した撮影画像を画像生成装置100に供給する。HMD15は、その撮影画像に基づいて画像生成装置100によって生成された画像をディスプレイに表示する。
カメラ19は、ゲームのプレイヤー及びその周囲に存在する床や壁などの物体を撮影できるように設置される。カメラ19は、撮影した現実空間の撮影画像を画像生成装置100に供給する。
画像提供装置21は、画像生成装置100からその生成された画像を受信し、その受信した画像をユーザに提供可能に構成される。画像提供装置21は、画像生成装置100から受信した画像を表示可能に構成される。また、画像提供装置21は、受信した画像をコンテンツファイルとして動画配信サーバ(不図示)にアップロード可能に構成される。
画像生成装置100は、ユーザによる操作情報を入力するための入力部(不図示)に接続されてもよい。画像生成装置100は、通信ネットワークを介して外部とデータ通信を行うための通信インタフェースを有してもよい。
図2は、ユーザによる本実施形態の利用例を示す。図2の例では、ユーザAは、ゲームをプレイするプレイヤーであり、HMD15を装着している。図2の例では、ユーザBは、ゲーム内でのユーザAのプレイを観戦する観戦者であり、画像提供装置21によって表示されるユーザAのプレイ画像を視聴している。また、図2の例では、カメラ19はユーザAの正面からユーザAを撮影するように配置される。ただし、この配置に限定されず、カメラ19はユーザAの真横、真後ろ、斜め横等の任意の位置からユーザAを撮影するように配置されてもよい。後述するように、本実施形態では、プレイヤーの体と仮想オブジェクトとの間のオクルージョンをより正確に表現することが可能となる。そのため、例えば、図2のように観戦者がプレイヤーの視点とは異なる第三者の視点でプレイヤーのゲームプレイを観戦する場合に好適である。そのほかにも、ゲームのプレイヤーが自身のゲームプレイの様子を第三者視点のカメラ19で撮影して、画像提供装置21を介してそのゲームプレイを他のユーザに配信する場合に好適である。
図3は、本実施形態の画像生成装置の構成図である。画像生成装置100は、プレイヤー認識部102と、撮影画像取得部101と、視点取得部103と、スケルトン生成部104と、メッシュ生成部105と、画像生成部110と、HDMI送受信部106と、を含む。画像生成部110は、レンダリング部111と、重畳部112と、ポストプロセス部113と、歪み処理部114と、を含む。図3は機能に着目したブロック図を描いており、これらの機能ブロックはハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現することができる(後述する図9も同様である)。
以下、第三者視点の画像を生成する場合を例に、本実施形態について説明する。具体的には、図2の例のように、ユーザBがユーザAのゲームプレイを観戦するためにカメラ19の視点の画像を生成する場合について説明する。ユーザA(プレイヤー)のHMD15及び画像提供装置21には、各々の視点で生成された同じゲームプレイ(ユーザAのゲームプレイ)の画像が供給されるものとする。
撮影画像取得部101は、現実空間の撮影画像を取得する。本実施形態の現実空間の撮影画像は、カメラ19からHDMI送受信部106を介して取得される。撮影画像取得部101は、取得した各撮影画像をプレイヤー認識部102、視点取得部103及び重畳部112に供給する。
プレイヤー認識部102は、プレイヤーの体を認識する。具体的には、プレイヤー認識部102は、撮影画像取得部101で取得された撮影画像におけるユーザAの各身体部位の位置及び姿勢に基づいて、プレイヤーの体の各身体部位の位置及び姿勢を認識する。例えば、プレイヤー認識部102は、カメラ19の撮影画像に基づいて、学習済みの機械学習モデルを用いてプレイヤーの各部位の位置及び姿勢を推定することで、プレイヤーの体を認識する。例えば、プレイヤー認識部102は、オープンポーズ(Open Pose)などを用いてプレイヤーの体を認識することができる。プレイヤー認識部102は、その認識結果をスケルトン生成部104に供給する。
視点取得部103は、カメラ19から撮影画像取得部101を介して供給された撮影画像に基づいて、カメラ19の視点位置および視線方向を含む視点情報を取得する。視点取得部103は、取得した各視点情報をレンダリング部111に供給する。カメラ19の視点情報は、プレイヤーの視点とは異なる観戦者の視点情報の一例である。
スケルトン生成部104は、プレイヤー認識部102の認識結果に基づいて、プレイヤーの体のスケルトンを生成する。例えば、スケルトン生成部104は、プレイヤーの体の各身体部位の位置及び姿勢の認識結果に基づいて、学習済みの機械学習モデルを用いてプレイヤーのスケルトンにおける各部位の位置及び姿勢を推定することで、このスケルトンを生成する。例えば、スケルトン生成部104は、オープンポーズ(Open Pose)などを用いてスケルトンを生成することができる。
図4Aは、スケルトン生成部104が生成するスケルトンを示す。図4Aの例は、図2のカメラ19の視点(正面視)からユーザAを見たときの場合を示す(以下の図4B及び図4Cも同様である)。図4Aのスケルトン30は、プレイヤーの体の各端部及び各関節を示す複数のノード31を有する。具体的には、スケルトン30は、プレイヤーの頭部ノード31a、胸部ノード31b、腰部ノード31c、肩ノード31d、肘ノード31e、手首ノード31f、手ノード31g、膝ノード31h、足首ノード31i及び足ノード31jを含む。隣接するノード31は、ボーン32によって接続される。本実施形態では、スケルトン生成部104は、プレイヤーの身体部位に対応する各ノード31の基準の位置及び姿勢(例えば、ゲーム開始時の初期の位置及び姿勢)に対する位置及び姿勢を推定することにより、スケルトン30を生成する。推定された各ノード31の位置及び姿勢のデータは、記憶部12に記憶される。そのため、プレイヤーの体の各部位についての奥行き方向の位置関係を正確に反映することが可能となる。スケルトン生成部104は、生成したスケルトンをメッシュ生成部105に供給する。
メッシュ生成部105は、生成されたスケルトンが反映されたプレイヤーのメッシュ構造を生成する。例えば、メッシュ生成部105は、取得された現実空間の撮影画像におけるプレイヤーの形状に基づいて、スケルトンをメッシュ構造でモデル化することで、プレイヤーのメッシュ構造33を生成する(図4B参照)。プレイヤーのメッシュ構造のモデル化は、公知の方法により行われる。メッシュ生成部105は、生成したプレイヤーのメッシュ構造をレンダリング部111に供給する。
レンダリング部111は、カメラ19の視点情報にしたがって、その視点情報の視点位置から視線方向に見たときにおける、プレイヤーのメッシュ構造と仮想オブジェクトとをそれぞれレンダリングする。具体的には、レンダリング部111は、仮想オブジェクトをレンダリングしてカラー値を画素バッファ121に保存するとともに、プレイヤーのメッシュ構造をたとえば白(RGB(255,255,255))、またはグレー(RGB(128,128,128))でレンダリングしてレンダリングして画素バッファ121に保存する。レンダリング部111は、プレイヤーのメッシュ構造への重畳用の仮想オブジェクトとして、例えば、プレイヤーのアバター、衣装、装飾品等のプレイヤーのメッシュ構造の少なくとも一部に装着可能な仮想オブジェクトをレンダリングする。
レンダリング部111がプレイヤーのメッシュ構造をレンダリングする際、プレイヤーのメッシュ構造の奥行き値(メッシュデプス値)がプレイヤーのメッシュ構造用のデプスバッファ(「メッシュデプスバッファ」と呼ぶ)122に書き込まれる。プレイヤーのメッシュ構造よりも手前側に他の仮想オブジェクトが存在する場合は、その画素にはメッシュデプスバッファ122においてメッシュデプス値が書き込まれないか、又は他の仮想オブジェクトのレンダリング時にメッシュデプス値が上書き消去される。その結果、プレイヤーのメッシュ構造が描画されている部分のみの領域が生成される。
レンダリング部111が仮想オブジェクトをレンダリングする際、仮想オブジェクトの奥行き値(シーンデプス値)が仮想空間レンダリング用のデプスバッファ(「シーンデプスバッファ」と呼ぶ)123に書き込まれ、仮想オブジェクト間の前後関係が判定される。仮想オブジェクトが描画されない画素はシーンデプスバッファ123において具体的なデプス値が書き込まれず、シーンデプス値は無限大(不定)である。
さらに、レンダリング部111は、プレイヤーのメッシュ構造に重畳されることになる仮想オブジェクトによる光に関する表現をレンダリングする。仮想オブジェクトの光に関する表現としては、例えば、仮想オブジェクトがプレイヤーのメッシュ構造に落とす影や仮想オブジェクトのプレイヤーのメッシュ構造への映り込み、仮想オブジェクトの半透明化、仮想光源によるプレイヤーのメッシュ構造へのライティング表現などが挙げられる。たとえばシャドウマッピングは光源からの深度マップを平面に投影する方法やレイトレーシングなどの手法を用いて影や映り込みを描画することができる。仮想オブジェクトの影や映り込みの半透明の画像をユーザのメッシュ構造に重畳することでユーザのメッシュ構造に対する仮想オブジェクトの影や映り込みを表現することができる。ユーザのメッシュ構造は白一色でレンダリングされているため、影や映り込みが描画された領域とは区別することができる。このようにして、プレイヤーのメッシュ構造に重畳される仮想オブジェクトによる光に関する表現が画像に付与される。
レンダリング部111は、レンダリングされたプレイヤーのメッシュ構造とレンダリングした仮想オブジェクトとを重畳部112に供給する。
重畳部112は、レンダリング部111がレンダリングしたプレイヤーのメッシュ構造に撮影画像を重畳する。具体的には、重畳部112は、シーンデプス値が無限の領域とメッシュデプス値が書き込まれている領域とに、撮影画像を重畳する。メッシュデプス値に書き込まれている領域は、仮想オブジェクトの影やライティング表現(映りこみなど)の色情報を残して撮影画像と重畳する。重畳部112は、撮影画像が重畳されたプレイヤーのメッシュ構造に仮想オブジェクトを重畳する。
図4Cを参照する。重畳部112は、アバターの仮想オブジェクトをプレイヤーのメッシュ構造の上に貼り付けられるように重畳することにより、プレイヤーのアバター34を生成する。ここで、図4Cの例では、プレイヤーの全身がアバターの仮想オブジェクトによって重畳されたが、これに限定されず、プレイヤーの体の一部が仮想オブジェクトによって重畳されてもよい。この場合、仮想オブジェクトによって重畳される部分以外の箇所からは、撮影画像が重畳されたプレイヤーのメッシュ構造が見えるようになる。
重畳部112は、重畳した画像をポストプロセス部113に供給する。
ポストプロセス部113は、重畳された画像に対して、仮想オブジェクトによる光に関する表現を施すための処理を実行する。また、ポストプロセス部113は、プレイヤーのメッシュ構造の位置及び姿勢の少なくとも一方に応じた描画エフェクトを施すための処理を実行する。この描画エフェクトは、例えば、プレイヤーのメッシュ構造の位置の変化に応じたモーションブラー、プレイヤーのメッシュ構造の姿勢に応じてプレイヤーのメッシュ構造から立ち上がるオーラ等を含む。ポストプロセス部113は、これら以外にも、被写界深度調整、トーンマッピング、アンチエイリアシングなどのポストプロセスを施し、画像が自然で滑らかに見えるように後処理してもよい。ポストプロセス部113は、ポストプロセスが施された画像を歪み処理部114に供給する。
歪み処理部114は、ポストプロセスが施された画像に対してカメラ19の光学系で生じる歪みに合わせて画像を変形(distortion)させて歪ませる処理を施す。歪み処理部114は、歪ませる処理が施された画像をHDMI送受信部106に供給する。
以上のようにして、画像生成部110は、ユーザA及びB毎に、各ユーザA及びBの視点位置から視点方向に見たときのプレイヤーのメッシュ構造及び仮想オブジェクトをレンダリングする。画像生成部110は、そのレンダリングされたメッシュ構造にそのレンダリングされた仮想オブジェクトを重畳することにより、画像を生成する。
HDMI送受信部106は、画像生成部110により生成された画像をHDMIにしたがって画像提供装置21に伝送する。画像生成装置100から伝送された画像は、画像提供装置21のディスプレイに表示される。これによりユーザBは、プレイヤーに仮想オブジェクトが重畳された画像を見ることができる。この画像は、プレイヤーの背景画像としてビデオシースルー画像が重畳されたAR画像であってもよい。あるいは、この画像は、プレイヤーの背景画像として仮想空間を示す仮想オブジェクトが重畳されたVR画像であってもよい。
ここで、図5~図8を参照して、ゲームをプレイするプレイヤーの画像に仮想オブジェクトを重畳させた画像について説明する。
図5は、カメラ19により撮影される撮影画像の例を示す。図5の撮影画像は、カメラ19がゲームをプレイするユーザAを撮影したものである。図5の例では、ユーザAはカメラ19の正面に立っており、ユーザAの顔400が主に撮影されている。
図6は、図5の撮影画像に仮想オブジェクトを重畳した画像の例を示す。図6に示すように、ユーザAの顔400の周囲の部分は熊の被り物の仮想オブジェクト500によって重畳される。これにより、ユーザBはユーザAの顔400の周囲に熊の被り物の仮想オブジェクト500が描かれた画像を画像提供装置21を介して見ることができる。
図7は、従来手法によってオクルージョンを表現した例を示す図である。比較のため、図7を用いてオクルージョン及び奥行きが適切に表現されない例を説明する。図7の例は、ユーザAが手600で顔400を隠そうとしている様子を示す。ユーザAが手600で顔400を隠すように手600を顔400の前に持っていくと、撮影画像にはユーザAの顔400よりも図面手前側の位置において手600が映り込む。このとき、図7において奥側にあるはずの熊の被り物の仮想オブジェクト500が、図7において手前側にあるはずのユーザAの手600の一部に重畳される場合がある。熊の被り物の仮想オブジェクト500とユーザAの手600の一部との位置関係が正しく判定されない場合があるためである。そのため、従来手法では、本来見えるはずのユーザAの手600の一部が熊の被り物の仮想オブジェクト500によって見えなくなるような不適切なオクルージョンが発生する。その結果、奥行きや適切に表現されず、プレイヤーの体と仮想オブジェクトとの間で一体感が得られなくなって画像が不自然なものとなる。そのため、プレイヤーの体の各部位とプレイヤーに重畳される画像との位置関係を正しく表現する必要がある。
図8は、本実施形態の手法によってオクルージョンを表現した例を示す図である。本実施形態の画像生成装置100は、プレイヤーの体のスケルトンが反映されたプレイヤーのメッシュ構造を生成し、そのプレイヤーのメッシュ構造に仮想オブジェクトを重畳する。上述したように、スケルトンはプレイヤーの体の各部位の奥行きを含む位置関係を正確に反映する。そのため、本実施形態によると、プレイヤーの体とプレイヤーのメッシュ構造に重畳される仮想オブジェクトとの間のオクルージョンをより適切に表現することが可能となる。その結果、奥行きが適切に表現され、プレイヤーの体と仮想オブジェクトとの間で一体感が得られるようになり、自然な画像を提供することが可能となる。
本実施形態では、視点情報は、プレイヤーとは異なる観戦者の視点位置及び視点方向を含む。本構成によると、プレイヤーの奥行きが適切に表現された第三者(観戦者)の視点の画像を観戦者に画像を提供することが可能となる。
本実施形態では、画像生成部110は、プレイヤーのメッシュ構造に重畳された仮想オブジェクトによる光に関する表現を付与するように画像を生成する。従来、プレイヤーの体に仮想オブジェクトによる光に関する表現を正確に反映させることができなかった。本構成によると、スケルトンに基づいて生成されたプレイヤーのメッシュ構造がプレイヤーの体の各部位の位置関係を正確に反映するため、プレイヤーの体に仮想オブジェクトによる光に関する表現がより正確に反映された画像を提供することが可能となる。
本実施形態では、画像生成部110は、プレイヤーのメッシュ構造の位置及び姿勢のうちの少なくとも1つに応じた描画エフェクトを付与するように、画像を生成する。本構成によると、プレイヤーのメッシュ構造がプレイヤーの体の各部位の位置関係を適切に反映しているため、モーションブラー等の描画エフェクトをより適切に表現することが可能となる。
本実施形態では、プレイヤーのメッシュ構造に撮影画像が重畳され、その撮影画像が重畳されたプレイヤーのメッシュ構造に仮想オブジェクトを重畳される。そのため、本構成によると、プレイヤーの体において仮想オブジェクトが重畳させた部分と、プレイヤーの現実の外見が反映されたプレイヤーの体の他の部分との間のオクルージョンをより正確に表現することが可能となる。
<第2実施形態>
以下、本開示の第2実施形態を説明する。以下の実施形態の図面および説明では、第1実施形態と同一または同等の構成要素、部材には、同一の符号を付する。第1実施形態と重複する説明を適宜省略し、第1実施形態と相違する構成について重点的に説明する。
図9は、第2実施形態の画像生成装置の構成図である。本実施形態の画像生成装置100は、奥行き取得部107と、実空間デプスバッファ124と、をさらに備える。本実施形態では、プレイヤーの背景画像としてビデオシースルー画像が重畳されたAR画像が提供される。
奥行き取得部107は、現実空間の奥行き情報を取得する。本実施形態の現実空間の奥行き情報は、カメラ19から取得される。現実空間の奥行き情報は、たとえば、赤外線パターン、Structured Light、TOF(Time Of Flight)などの方式のデプスセンサを用いて取得されてもよい。奥行き取得部107は、取得した奥行き情報をメッシュ生成部105に供給する。
本実施形態のメッシュ生成部105は、プレイヤーのメッシュ構造を含む現実空間のメッシュ構造を生成する。具体的には、メッシュ生成部105は、現実空間の奥行き情報に基づいて、現実空間をメッシュ構造でモデル化することにより、現実空間のメッシュ構造を生成する。現実空間のメッシュ構造のモデル化は、公知の方法により行われる。現実空間のメッシュ構造は、現実空間の壁、床、天井、静止物体などを含む。
レンダリング部111は、現実空間のメッシュ構造をたとえば白(RGB(255,255,255))でレンダリングして画素バッファ121に保存する。レンダリング部111が現実オブジェクトをレンダリングする際、現実オブジェクトの奥行き値(「実空間デプス値」と呼ぶ)が現実空間レンダリング用の実空間デプスバッファ124に書き込まれる。実空間デプス値は、現実オブジェクト間の前後関係を判定する際に用いられる。実空間デプス値は、現実空間の奥行き情報に基づいて生成される。
本実施形態によると、プレイヤーのメッシュ構造を含む現実空間のメッシュ構造の位置関係を適切に表現することが可能となる。その結果、プレイヤーのメッシュ構造に重畳された仮想オブジェクトとその周囲に存在する物体(例えばボールなど)との間のオクルージョンをより適切に表現することが可能となる。その結果、現実空間のメッシュ構造の奥行きをより正確に表現することが可能となる。
<第3実施形態>
以下、本開示の第3実施形態を説明する。
図10Aは、現実空間の撮影画像が重畳されたプレイヤーのメッシュ構造を示す。図10Aのプレイヤーのメッシュ構造における脚部に、機械構造の脚部の仮想オブジェクト(図10B参照)を重畳する場合を考える。図10Bに示すように、重畳する機械構造の脚部の仮想オブジェクトがメッシュ構造における脚部よりも小さい場合、メッシュ構造の脚部が機械構造の脚部の仮想オブジェクトからはみ出てしまうことがある。この場合、メッシュ構造の脚部と機械構造の脚部の仮想オブジェクトがフィットせず、不自然になりやすくなる。
そこで、本実施形態のポストプロセス部113は、仮想オブジェクトが重畳されるプレイヤーのメッシュ構造の部分がその重畳される仮想オブジェクトからはみ出る場合、その重畳される部分が仮想オブジェクトからはみ出さなくなるように、その部分におけるスケルトンの周囲の空間を歪ませる処理を施す。ここでは、水平方向と鉛直方向との少なくとも一方について、この空間を歪ませる処理が行われる。以下、図10C及び図10Dを用いてこの処理について説明する。
図10Cを参照する。図10Cの処理では、まず、プレイヤーのメッシュ構造の脚部を、スケルトンの腰部ノード31c、膝ノード31h、足首ノード31i及び足ノード31jをそれぞれ接続するボーン32に沿って(図4参照)、その周囲の空間を歪ませる。本実施形態では、ボーン32に向かってその周囲の空間の画素を引き寄せる処理が行われる。ボーンに近いほど、画素の引き寄せ量が大きくなる。これにより、プレイヤーのメッシュ構造の脚部を細くすることができる。
図10Dを参照する。この処理後のプレイヤーのメッシュ構造の脚部に機械構造の脚部の仮想オブジェクトを重畳する。図10Dに示すように、プレイヤーの脚部には、機械構造の脚部の仮想オブジェクトのみが見えるようになる。
本構成によると、プレイヤーの体の部位と比較して小さい仮想オブジェクトを重畳する場合であっても、仮想オブジェクトをプレイヤーのメッシュ構造に対してフィットさせることができる。そのため、プレイヤーのメッシュ構造と仮想オブジェクトの大きさの違いによる違和感の発生を抑制することが可能となる。
本実施形態では、プレイヤーのメッシュ構造がその重畳される仮想オブジェクトからはみ出る場合を例にしたが、これに限定されない。例えば、プレイヤーのメッシュ構造の一部の上(例えば頭部の上)に非常に重い物体がある場合には、プレイヤーのメッシュ構造の一部を押しつぶすように、その周囲の空間を歪ませてもよい。また、例えば、プレイヤーのアバター自体が非常に重いアバター(例えば巨大な岩のような宇宙人のアバターなど)として設定されている場合、そのアバターが立っている床付近の空間を歪ませてもよい。このように、仮想オブジェクトの特性に合わせてプレイヤーのメッシュ構造を小さく見せることが可能となる。
<変形例>
画像生成装置100の少なくとも一部の機能は、HMD15又は画像提供装置21に実装されてもよい。あるいは、画像生成装置100の少なくとも一部の機能は、ネットワークを介して画像生成装置100に接続されたサーバに実装されてもよい。
画像生成装置100は、さらにネットワークを介してサーバに接続されてもよい。その場合、サーバは、複数のユーザがネットワークを介して参加できるゲームなどのオンラインアプリケーションを画像生成装置100に提供してもよい。HMD15又は画像提供装置21は、画像生成装置100の代わりに、コンピュータや携帯端末に接続されてもよい。
上記実施形態では、ユーザAはゲームをプレイするプレイヤーとし、ユーザBはゲーム内でのユーザAのプレイを観戦する観戦者としたが、これに限定されない。例えば、ユーザA及びBの両方がゲームをプレイするプレイヤーであってもよい。
上記実施形態では、プレイヤー認識部102は、カメラ19から供給された撮影画像に基づいてプレイヤーの体を認識したが、これに限定されない。例えば、トラッカを用いてユーザの身体部位の位置や姿勢を検出することによってプレイヤーの体を認識してもよい。
上記実施形態では、ゲームをプレイするユーザAがHMD15を装着した例を示したが、HMD15は設けられなくてもよい。この場合、例えば、別途設けられたディスプレイに画像生成装置100の画像を供給し、このディスプレイに表示された画像を基にユーザAがゲームをプレイすればよい。
上記実施形態では、カメラ19及び画像提供装置21を用いた例を示したが、これらは用いられなくてもよい。この場合、例えば、ユーザBもHMD15を装着し、ユーザBのHMD15の撮影画像をカメラ19の撮影画像の代わりに画像生成装置100に供給し、HMD15の視点情報に基づいて画像生成装置100によって生成された画像をHMD15で表示すればよい。
図2の例では、カメラ19及び画像提供装置21は別体であるが、一体で構成されてもよい。この場合、例えば、撮影機能と表示機能を有するパーソナルコンピュータ等が用いられればよい。
上記実施形態では、プレイヤーの仮想オブジェクトに撮影画像が重畳されたが、撮影画像を重畳せずに、メッシュ構造に仮想オブジェクトのみを重畳させてもよい。
ポストプロセス部における上記光に関する表現や上記描画エフェクト等について各処理は、必要に応じて実行されなくてもよい。
上記の説明では、ポストプロセスとして、被写界深度調整、トーンマッピング、アンチエイリアシングなどの処理を例示したが、歪み処理、単純な拡大・縮小、台形変換なども含めてポストプロセスと呼んでもよい。
以上、本開示を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本開示の範囲にあることは当業者に理解されるところである。
10 画像生成システム、 15 HMD、 100 画像生成装置、 101 撮影画像取得部、 102 プレイヤー認識部、 103 視点取得部、 104 スケルトン生成部、 105 メッシュ生成部、 106 HDMI送受信部、 107 奥行き取得部、 110 画像生成部、 111 レンダリング部、 112 重畳部、 113 ポストプロセス部、 114 歪み処理部、 121 画素バッファ、 122 メッシュデプスバッファ、 123 シーンデプスバッファ、 124 実空間デプスバッファ。

Claims (12)

  1. プレイヤーの体を認識するプレイヤー認識部と、
    視点位置及び視点方向を含む視点情報を取得する視点取得部と、
    前記認識結果に基づいて、前記プレイヤーの体のスケルトンが反映されたプレイヤーのメッシュ構造を生成するメッシュ生成部と、
    前記視点情報における前記視点位置から前記視点方向に見たときの前記プレイヤーのメッシュ構造及び仮想オブジェクトをレンダリングし、前記レンダリングされたプレイヤーのメッシュ構造に前記レンダリングされた仮想オブジェクトを重畳することにより、画像を生成する画像生成部と、
    を含む、画像生成装置。
  2. 現実空間の撮影画像を取得する撮影画像取得部と、
    前記現実空間の奥行き情報を取得する奥行き取得部と、をさらに含み、
    前記画像生成部は、前記撮影画像及び前記奥行き情報に基づいて、前記現実空間に存在する物体と前記プレイヤーのメッシュ構造に重畳された前記仮想オブジェクトとの間のオクルージョンを表現するように、前記画像を生成する、請求項1に記載の画像生成装置。
  3. 前記画像生成部は、前記プレイヤーのメッシュ構造の位置及び姿勢のうちの少なくとも1つに応じた描画エフェクトを付与するように、前記画像を生成する、請求項1又は2に記載の画像生成装置。
  4. 前記視点情報は、前記プレイヤーの視点とは異なる観戦者の視点位置及び視点方向を含む、請求項1から3のいずれか1項に記載の画像生成装置。
  5. 現実空間の撮影画像を取得する撮影画像取得部をさらに備え、
    前記画像生成部は、前記プレイヤーのメッシュ構造に前記プレイヤーの前記撮影画像を重畳し、その撮影画像が重畳されたプレイヤーのメッシュ構造に、仮想オブジェクトを重畳することにより、前記画像を生成する、請求項1から4のいずれか1項に記載の画像生成装置。
  6. 前記画像生成部は、前記プレイヤーのメッシュ構造に重畳された前記仮想オブジェクトによる光に関する表現を付与するように、前記画像を生成する、請求項1から5のいずれか1項に記載の画像生成装置。
  7. 前記画像生成部は、前記プレイヤーの体と前記プレイヤーのメッシュ構造に重畳された前記仮想オブジェクトとの間のオクルージョンを表現するように、前記画像を生成する、請求項1から6のいずれか1項に記載の画像生成装置。
  8. 前記画像生成部は、仮想オブジェクトが重畳される前記プレイヤーのメッシュ構造の部分における前記スケルトンの周囲の空間を歪ませることにより、前記画像を生成する、請求項1から7のいずれか1項に記載の画像生成装置。
  9. 前記画像生成部は、仮想オブジェクトが重畳される前記プレイヤーのメッシュ構造の部分がその重畳される仮想オブジェクトからはみ出している場合、前記部分が前記その重畳される仮想オブジェクトからはみ出さなくなるように、前記部分における前記スケルトンの周囲の空間を歪ませることにより、前記画像を生成する、請求項1から8のいずれか1項に記載の画像生成装置。
  10. 前記画像生成部は、前記プレイヤーとは異なる他のプレイヤーの視点から見た場合の前記プレイヤーのメッシュ構造に前記仮想オブジェクトを重畳することにより、前記画像を生成する、請求項1から9のいずれか1項に記載の画像生成装置。
  11. プレイヤーの体を認識するステップと、
    視点位置及び視点方向に関する視点情報を取得するステップと、
    前記認識結果に基づいて、前記プレイヤーの体のスケルトンが反映されたプレイヤーのメッシュ構造を生成するステップと、
    前記視点情報における前記視点位置から前記視点方向に見たときの前記プレイヤーのメッシュ構造及び仮想オブジェクトをレンダリングし、前記レンダリングされたプレイヤーのメッシュ構造に前記レンダリングされた仮想オブジェクトを重畳することにより、画像を生成するステップと、
    を含む、画像生成方法。
  12. プレイヤーの体を認識するステップと、
    視点位置及び視点方向に関する視点情報を取得するステップと、
    前記認識結果に基づいて、前記プレイヤーの体のスケルトンが反映されたプレイヤーのメッシュ構造を生成するステップと、
    前記視点情報における前記視点位置から前記視点方向に見たときの前記プレイヤーのメッシュ構造及び仮想オブジェクトをレンダリングし、前記レンダリングされたプレイヤーのメッシュ構造に前記レンダリングされた仮想オブジェクトを重畳することにより、画像を生成するステップと、
    をコンピュータに実行させるためのプログラム。
JP2020192711A 2020-11-19 2020-11-19 画像生成装置、画像生成方法、およびプログラム Pending JP2022081271A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020192711A JP2022081271A (ja) 2020-11-19 2020-11-19 画像生成装置、画像生成方法、およびプログラム
US18/030,861 US20230415040A1 (en) 2020-11-19 2021-11-12 Image generation apparatus, image generation method, and program
PCT/JP2021/041667 WO2022107688A1 (ja) 2020-11-19 2021-11-12 画像生成装置、画像生成方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020192711A JP2022081271A (ja) 2020-11-19 2020-11-19 画像生成装置、画像生成方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2022081271A true JP2022081271A (ja) 2022-05-31
JP2022081271A5 JP2022081271A5 (ja) 2023-10-17

Family

ID=81708076

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020192711A Pending JP2022081271A (ja) 2020-11-19 2020-11-19 画像生成装置、画像生成方法、およびプログラム

Country Status (3)

Country Link
US (1) US20230415040A1 (ja)
JP (1) JP2022081271A (ja)
WO (1) WO2022107688A1 (ja)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4999711B2 (ja) * 2007-11-07 2012-08-15 キヤノン株式会社 画像処理装置、画像処理方法
JP2012253483A (ja) * 2011-06-01 2012-12-20 Sony Corp 画像処理装置、画像処理方法、およびプログラム
JP5994233B2 (ja) * 2011-11-08 2016-09-21 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
JP2013101528A (ja) * 2011-11-09 2013-05-23 Sony Corp 情報処理装置、表示制御方法、およびプログラム
US10916059B2 (en) * 2017-12-06 2021-02-09 Universal City Studios Llc Interactive video game system having an augmented virtual representation
JP7326805B2 (ja) * 2019-03-26 2023-08-16 株式会社ニコン データ処理装置、データ処理方法、プログラム、及び、データ処理システム

Also Published As

Publication number Publication date
WO2022107688A1 (ja) 2022-05-27
US20230415040A1 (en) 2023-12-28

Similar Documents

Publication Publication Date Title
KR102517876B1 (ko) 증강 현실 데이터를 레코딩하기 위한 기술
JP6732716B2 (ja) 画像生成装置、画像生成システム、画像生成方法、およびプログラム
JP7496460B2 (ja) 画像生成装置および画像生成方法
US11120632B2 (en) Image generating apparatus, image generating system, image generating method, and program
CN111862348B (zh) 视频显示方法、视频生成方法、装置、设备及存储介质
JP2011258159A (ja) プログラム、情報記憶媒体及び画像生成システム
JP2002247602A (ja) 画像生成装置及びその制御方法並びにそのコンピュータプログラム
US11335071B2 (en) Image generation apparatus and image generation method for augmented reality images based on object interaction
JP7234021B2 (ja) 画像生成装置、画像生成システム、画像生成方法、およびプログラム
WO2022107688A1 (ja) 画像生成装置、画像生成方法、およびプログラム
JP2020071718A (ja) 情報処理装置、情報処理方法及びプログラム
US11287658B2 (en) Picture processing device, picture distribution system, and picture processing method
JP2024080412A (ja) 表示制御プログラム、表示制御装置および表示制御方法
JP2022093262A (ja) 画像処理装置、画像処理装置の制御方法およびプログラム
JP2005165973A (ja) 画像処理方法、画像処理装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231006

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231006