JP2024032826A - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2024032826A
JP2024032826A JP2024007762A JP2024007762A JP2024032826A JP 2024032826 A JP2024032826 A JP 2024032826A JP 2024007762 A JP2024007762 A JP 2024007762A JP 2024007762 A JP2024007762 A JP 2024007762A JP 2024032826 A JP2024032826 A JP 2024032826A
Authority
JP
Japan
Prior art keywords
information
area
virtual viewpoint
visible
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2024007762A
Other languages
English (en)
Inventor
大地 阿達
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2024007762A priority Critical patent/JP2024032826A/ja
Publication of JP2024032826A publication Critical patent/JP2024032826A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/536Depth or shape recovery from perspective effects, e.g. by using vanishing points
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Abstract

【課題】 特定の位置から見える領域と遮蔽により見えない領域とを容易に識別可能にする。【解決手段】 画像処理システム1は、複数の撮影装置100によりそれぞれ異なる方向から撮影される撮影領域内のオブジェクトの位置及び形状を表すオブジェクト情報101を取得する。また画像処理システム1は、撮影領域内の特定位置から見える可視領域と、オブジェクトによる遮蔽によって前記特定位置から見えない遮蔽領域とを、オブジェクト情報101に基づいて識別する。そして画像処理システム1は、複数の撮影装置100による撮影に基づく画像データと仮想視点の位置及び向きを示す仮想視点情報103とに基づく仮想視点画像であって、識別の結果に基づく情報が表示される仮想視点画像を生成する。【選択図】 図5

Description

本発明は、複数の撮影装置によりオブジェクトを複数の方向から撮影することにより得られる情報の処理に関する。
複数の撮影装置を異なる位置に設置して多視点で同期撮影し、当該撮影により得られた複数の画像を用いて、視点を任意に変更可能な仮想視点画像を生成する技術がある。例えば、サッカーやバスケットボールなどの競技を撮影した複数の撮影画像に基づいて、ユーザにより設定された視点に応じた仮想視点画像を生成することにより、ユーザは様々な視点から競技を観戦することができる。また、サッカーの選手や審判など撮影領域内の特定のオブジェクトの位置及び向きに応じて仮想視点の位置及び向きを設定することで、選手や審判の視界を再現したような仮想視点画像を生成することもできる。
特許文献1には、複数の方向からサッカーの試合を撮影して得られたデータを用いて、特定のプレイヤの視点に応じた映像コンテンツを提供することが記載されている。また、他のプレイヤの視点座標、視線方向、及び視野角で規定される視野を推定し、他のプレイヤの視野に入らない死角領域を映像コンテンツ内に表示することが記載されている。
特許第6555513号公報
しかしながら、特許文献1に記載の方法で特定される死角領域には、撮影領域内のオブジェクトにより遮蔽されて見えない領域が反映されていない。例えば、あるプレイヤの視線方向近辺の領域であっても、そのプレイヤから見て別のプレイヤにより遮蔽されている領域は見ることができない。そのため、特許文献1に記載の映像コンテンツに表示された死角領域に含まれない領域であっても、実際には死角となっている領域が含まれることがある。
本発明は上記の課題に鑑みてなされたものであり、特定の位置から見える領域と遮蔽により見えない領域とを容易に識別可能にすることを目的とする。
上記課題を解決するため、本発明にかかる情報処理装置は、例えば以下の構成を有する。すなわち、複数の撮影装置によりそれぞれ異なる方向から撮影される撮影領域内のオブジェクトの位置及び形状を表すオブジェクト情報を取得する取得手段と、前記撮影領域内の特定位置から見える可視領域と、オブジェクトによる遮蔽によって前記特定位置から見えない遮蔽領域とを、前記取得手段により取得されたオブジェクト情報に基づいて識別する識別手段と、前記複数の撮影装置による撮影に基づく画像データと仮想視点の位置及び向きを示す仮想視点情報とに基づく仮想視点画像であって、前記識別手段による識別の結果に基づく情報が表示される仮想視点画像を生成する生成手段と、を有する。
本発明によれば、特定の位置から見える領域と遮蔽により見えない領域とを容易に識別可能にすることができる。
画像処理システムの構成例を示す図である。 情報処理装置のハードウェア構成例を示す図である。 情報処理装置および表示装置の動作の例を示すフローチャートである。 可視判定の処理について説明するための図である。 可視性情報の例を示す図である。 情報処理装置の動作の例を示すフローチャートである。 可視性情報の例を示す図である。 可視性情報の出力の例を示す図である。
[システム構成]
図1は、画像処理システム1の構成例を示す図である。画像処理システム1は、複数の撮影装置による撮影に基づく複数の画像(複数視点画像)と、指定された仮想視点とに基づいて、指定された仮想視点からの見えを表す仮想視点画像を生成するシステムである。本実施形態における仮想視点画像は、自由視点映像とも呼ばれるものであるが、ユーザが自由に(任意に)指定した視点に対応する画像に限定されず、例えば複数の候補からユーザが選択した視点に対応する画像なども仮想視点画像に含まれる。また、本実施形態では仮想視点の指定がユーザ操作により行われる場合を中心に説明するが、仮想視点の指定が画像解析の結果等に基づいて自動で行われてもよい。また、本実施形態では仮想視点画像が静止画である場合を中心に説明するが、仮想視点画像は動画であってもよい。すなわち、画像処理システム1は、静止画及び動画の何れについても処理可能である。以降の説明に於いては、特に断りがない限り、画像という文言が動画と静止画の両方の概念を含むものとして説明する。
画像処理システム1は、複数の撮影装置100、画像処理装置110、情報処理装置200、及び表示装置300を有する。複数の撮影装置100は、撮影領域内の被写体(オブジェクト)を複数の方向から撮影する。撮影領域は、例えばサッカーや空手などの競技が行われる競技場、もしくはコンサートや演劇が行われる舞台などである。本実施形態では、撮影領域がサッカーの競技場である場合を中心に説明する。複数の撮影装置100は、このような撮影領域を取り囲むようにそれぞれ異なる位置に設置され、同期して撮影を行う。なお、複数の撮影装置100は撮影領域の全周にわたって設置されていなくてもよく、設置場所の制限等によっては撮影領域の一部の方向にのみ設置されていてもよい。また、撮影装置の数は図1に示す例に限定されず、例えば撮影領域をサッカーの競技場とする場合には、競技場の周囲に30台程度の撮影装置が設置されてもよい。また、望遠カメラと広角カメラなど機能が異なる撮影装置が設置されていてもよい。
なお、本実施形態における複数の撮影装置100は、それぞれが独立した筐体を有し単一の視点で撮影可能なカメラであるものとする。ただしこれに限らず、2以上の撮影装置が同一の筐体内に構成されていてもよい。例えば、複数のレンズ群と複数のセンサーを備えており複数視点から撮影可能な単体のカメラが、複数の撮影装置100として設置されていてもよい。
画像処理装置110は、複数の撮影装置100から取得した画像データに基づいて、撮影領域内の人物やボールなどの前景オブジェクトおよびスタジアムやフィールドなどの背景オブジェクトのオブジェクト情報101を生成する。オブジェクト情報101は、各オブジェクトの三次元位置及び三次元形状を表す。各オブジェクトのオブジェクト情報101は個別に記憶されてもよいし、撮影領域内の複数のオブジェクトのオブジェクト情報101がまとめて記憶されてもよい。
情報処理装置200は、画像処理装置110からオブジェクト情報を取得するオブジェクト情報取得部201、視野情報102を取得する視野情報取得部202、及び仮想視点情報103を取得する仮想視点取得部203を有する。また情報処理装置200は、可視判定部204及び情報生成部205を有する。
視野情報102は、後述する可視判定の基準となる撮影領域内の所定の視点に対応する視野を表す情報であり、三次元空間における視点の位置、向き(視点位置からの視線方向)、及び水平方向と垂直方向の視野の広さに対応する画角を示す情報を含む。なお、視野情報102の内容はこれに限定されず、視野の広さが焦点距離又はズーム値で表されていてもよい。また視野情報102には、視点の位置から視野の境界であるニア面及びファー面までの距離を示す情報が含まれていてもよい。視野情報102はユーザ操作に基づいて指定されてもよいし、視野情報102の少なくとも一部が自動で指定されてもよい。例えば、画像処理システム1は、視点の位置、向き、及び画角を指定するユーザ操作を受け付けて、視野情報102を生成してもよい。
また例えば、画像処理システム1は、撮影領域内のオブジェクトである特定の人物を指定するユーザ操作を受け付けて、その人物の視野を表す視野情報102など、指定されたオブジェクトに応じた視野情報102を生成してもよい。この場合、視野情報102が示す視点の位置は指定されたオブジェクトの頭部又は目の位置に対応し、視野情報102が示す視線方向は指定されたオブジェクトの頭部又は目の向きに対応する。
人物の視野を表す視野情報102は、その人物の頭部又は目の位置及び向きを検出するセンサー(例えばモーションキャプチャ、電子コンパス、GPSなど)から取得したデータに基づいて生成されてもよい。また、撮影装置100から取得した画像データ又は画像処理装置110が生成したオブジェクト情報101を解析した結果に基づいて視野情報102が生成されてもよい。例えば、視野情報102が示す視点の位置としての人物の頭部の位置の座標は、センサー又は画像解析により検出された頭頂部の位置から、顔の前方及び下方に予め定められた距離離れた位置の三次元座標であってもよい。また例えば、頭部の位置の座標が、検出された頭部の中心の位置から顔の前方に予め定められた距離離れた位置の三次元座標であってもよい。また、視野情報102が示す視点の位置としての人物の目の位置の座標は、センサー又は画像解析により検出された左目と右目の中間の位置の三次元座標であってもよい。なお、画像処理システム1は視野情報102を外部から取得してもよい。
仮想視点情報103は、仮想視点画像に対応する仮想視点の位置及び向き(視線方向)を示す情報である。具体的には、仮想視点情報103は、三次元空間における仮想視点の位置を表すパラメータと、パン、チルト、及びロール方向における仮想視点の向きを表すパラメータとを含む、パラメータセットを有する。なお、仮想視点情報103の内容は上記に限定されない。例えば、仮想視点情報103としてのパラメータセットには、ズーム率や焦点距離など仮想視点に対応する視野の大きさを表すパラメータや、時刻を表すパラメータが含まれてもよい。仮想視点情報103はユーザ操作に基づいて指定されてもよいし、仮想視点情報103の少なくとも一部が自動で指定されてもよい。例えば、画像処理システム1は、仮想視点の位置、向き、及び画角を指定するユーザ操作を受け付けて、仮想視点情報103を生成してもよい。なお、画像処理システム1は仮想視点情報103を外部から取得してもよい。
可視判定部204は、オブジェクト情報取得部201が取得したオブジェクト情報101、視野情報取得部202が取得した視野情報102、及び仮想視点取得部203が取得した仮想視点情報103を用いて、可視判定を行う。可視判定部204による可視判定は、撮影領域のうち、視野情報102が示す視点から見える領域と見えない領域とを識別する処理である。情報生成部205は、可視判定部204による可視判定の結果に応じた情報を生成して表示装置300へ出力する。なお、情報生成部205は可視判定の結果と仮想視点情報103とを用いて、仮想視点に応じた情報を生成して出力してもよい。可視判定処理と情報生成部205により生成される情報の詳細については後述する。
表示装置300はディスプレイを有するコンピュータであり、情報生成部205から取得した情報と仮想視点画像104とを合成して表示する。表示装置300により表示される画像には、視野情報102を表すCG(コンピュータグラフィックス)が含まれていてもよい。なお、表示装置300はディスプレイの代わりにプロジェクタなどの視覚提示デバイスを備えていてもよい。
仮想視点画像104は、撮影装置100により取得された画像データ及び仮想視点情報103に基づいて、画像処理システム1により生成される。仮想視点画像は、例えば以下のような方法で生成される。まず、複数の撮影装置100によりそれぞれ異なる方向から撮影することで得られた複数視点画像から、人物やボールなどの所定のオブジェクトに対応する前景領域を抽出した前景画像と、前景領域以外の背景領域を抽出した背景画像が取得される。また、所定のオブジェクトの三次元形状を表す前景モデルと前景モデルに色付けするためのテクスチャデータとが前景画像に基づいて生成され、競技場などの背景の三次元形状を表す背景モデルに色づけするためのテクスチャデータが背景画像に基づいて生成される。そして、前景モデルと背景モデルに対してテクスチャデータをマッピングし、仮想視点情報103が示す仮想視点に応じてレンダリングを行うことにより、仮想視点画像104が生成される。ただし、仮想視点画像104の生成方法はこれに限定されず、三次元モデルを用いずに撮影画像の射影変換により仮想視点画像104を生成する方法など、種々の方法を用いることができる。なお、画像処理システム1は、仮想視点画像104を外部から取得してもよい。
なお、画像処理システム1の構成は図1に示した例に限定されるものではない。例えば、画像処理装置110と情報処理装置200とが一体となって構成されていてもよいし、視野情報102、仮想視点情報103、及び仮想視点画像104が情報処理装置200により生成されてもよい。また、情報生成部205が生成した情報と仮想視点画像104とを合成して表示装置300へ出力してもよい。なお、画像処理システム1は、オブジェクト情報101、視野情報102、仮想視点情報103、及び仮想視点画像104を記憶する記憶部と、ユーザ操作を受け付ける入力部を有する。
[ハードウェア構成]
図2に情報処理装置200のハードウェア構成例を示す。なお、画像処理装置110および表示装置300のハードウェア構成も、以下で説明する情報処理装置200の構成と同様である。情報処理装置200は、CPU211、ROM212、RAM213、補助記憶装置214、表示部215、操作部216、通信I/F217、及びバス218を有する。
CPU211は、ROM212やRAM213に格納されているコンピュータプログラムやデータを用いて情報処理装置200の全体を制御することで、図1に示す情報処理装置200の各機能を実現する。なお、情報処理装置200がCPU211とは異なる1又は複数の専用のハードウェアを有し、CPU211による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。ROM212は、変更を必要としないプログラムなどを格納する。RAM213は、補助記憶装置214から供給されるプログラムやデータ、及び通信I/F217を介して外部から供給されるデータなどを一時記憶する。補助記憶装置214は、例えばハードディスクドライブ等で構成され、画像データや音声データなどの種々のデータを記憶する。
表示部215は、例えば液晶ディスプレイヤLED等で構成され、ユーザが情報処理装置200を操作するためのGUI(Graphical User Interface)などを表示する。操作部216は、例えばキーボードやマウス、ジョイスティック、タッチパネル等で構成され、ユーザによる操作を受けて各種の指示をCPU211に入力する。CPU211は、表示部215を制御する表示制御部、及び操作部216を制御する操作制御部として動作する。通信I/F217は、情報処理装置200の外部の装置との通信に用いられる。例えば、情報処理装置200が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F217に接続される。情報処理装置200が外部の装置と無線通信する機能を有する場合には、通信I/F217はアンテナを備える。バス218は、情報処理装置200の各部をつないで情報を伝達する。本実施形態では表示部215と操作部216が情報処理装置200の内部に存在するものとするが、表示部215と操作部216との少なくとも一方が情報処理装置200の外部に別の装置として存在していてもよい。
[動作フロー]
図3(a)は、情報処理装置200の動作の例を示すフローチャートである。図3(a)に示す処理は、情報処理装置200のCPU211がROM212に格納されたプログラムをRAM213に展開して実行することで実現される。なお、図3(a)に示す処理の少なくとも一部を、CPU211とは異なる1又は複数の専用のハードウェアにより実現してもよい。後述する図6に示すフローチャートの処理も同様である。図3(a)に示す処理は、可視性判定に関する情報の生成を行うための指示が情報処理装置200に入力されたタイミングで開始される。ただし、図3(a)に示す処理の開始タイミングはこれに限定されない。なお、仮想視点画像が動画である場合には、図3(a)の処理は、仮想視点画像の動画を構成するフレームごとに実行されてもよい。
S2010では、オブジェクト情報取得部201がオブジェクト情報101を取得する。S2070では、視野情報取得部202が視野情報102を取得する。S2030では、仮想視点取得部203が仮想視点情報103を取得する。なお、S2010からS2030の処理の順はこれに限らず、またこれらの少なくとも一部が並行して実行されてもよい。S2040では、可視判定部204が可視判定を行う。可視判定の詳細について図4を用いて説明する。
図4(a)は、撮影領域内のフィールド10上に二人のプレイヤ20及びプレイヤ21が存在し、プレイヤ20の左手付近にボール15が位置している様子を示す。プレイヤ20、プレイヤ21、及びボール15の位置及び形状は、オブジェクト情報101により表される。図4の例において、視野情報102は、撮影領域内で且つフィールド10の外の位置からプレイヤ20を見る審判22の視野に対応するように指定されているものとする。四角錐30は、審判22の視点の位置、向き、及び視野の画角(角度範囲)を示す。
図4(b)は、可視判定の結果を示す図である。図4(b)においてフラグ「1」が付されている可視領域51は、視野情報102に対応する視点から見える領域である。フラグ「-1」が付されている範囲外領域52は、視野情報102に対応する視野の画角外に位置するために、視野情報102に対応する視点からは見えない領域である。フラグ「0」が付されている遮蔽領域50は、視野情報102に対応する視野の画角内に位置するが、プレイヤ21により遮蔽されることによって見えない領域である。上記の範囲外領域と遮蔽領域を合わせた領域が、視野情報102から見えない不可視領域となる。遮蔽領域50には、プレイヤ21によって遮蔽されているプレイヤ20上の領域60が含まれ、範囲外領域52には、視野情報102に対応する視野の画角から外れたプレイヤ21上の領域72が含まれる。
可視判定は、例えば以下のように行われる。可視判定の処理において、視野情報102に対応する視点の位置から画角内の各方向に向けて仮想的な光線40が飛ばされる。光線40は、四角錐30の底面を1920×1080画素の画像と見立てた場合の各画素の方向に飛ばされる。この光線が最初に当たった(交差した)オブジェクトの表面に対してフラグ「1」が付され、2回目以降に当たったオブジェクトの表面にはフラグ「0」が付される。また、画角外であり光線が一度も当たらないオブジェクトの表面にはフラグ「-1」が付される。なお、視野情報102が視野のニア面及びファー面を規定している場合、視点位置と光線がオブジェクトに当たる位置との距離がニア面よりも近いまたはファー面よりも遠ければフラグ「-1」が付される。
なお、可視判定の方法は上記に限定されず、視野情報102とオブジェクト情報101とに基づいて可視判定が行われればよい。例えば、光線40の飛ばし方は上記に限定されず、光線40が画角内の一定角度ごとに飛ばされてもよい。フラグはオブジェクトの三次元モデルを構成するメッシュごとに付されてもよいし、三次元モデルにマッピングされるテクスチャの画素ごとに付されてもよい。また、光線40とオブジェクトの表面の交点の三次元座標値(x、y、z)とフラグ値が関連付けて記録されてもよい。また例えば、デプスバッファを用いて遮蔽を判定した結果を用いてフラグ値を決定してもよい。具体的には、仮想視点情報103が示す仮想視点から飛ばした光線とオブジェクト表面との交点から視野情報102が示す視点の位置までの距離を求め、その距離と視野情報102が示す視点に応じたデプス値とを比較することで、遮蔽を判定してもよい。
S2050では、情報生成部205が可視性判定の結果に応じた可視性情報を生成する。ここでは可視性情報の一例として、オブジェクト上の各位置に付されたフラグを仮想視点情報103が示す仮想視点に投影し、仮想視点から見た各位置のフラグ値を所定の輝度値に置き換えて構成されたフラグ画像が生成される場合について説明する。例えば、フラグ値「1」が輝度値「0」に置換され、フラグ値「0」が輝度値「50」に置換され、フラグ値「-1」が輝度値「100」に置換される。なお、フラグ値「-1」に対応する輝度値とフラグ値「0」に対応する輝度値に同じ値を用いてもよい。この場合、フラグ画像において範囲外領域52と遮蔽領域50とが区別されなくなる。S2060では、情報生成部205がフラグ画像を表示装置300に出力する。
図3(b)は、表示装置300の動作の例を示すフローチャートである。図3(b)に示す処理は、表示装置300のCPU211がROM212に格納されたプログラムをRAM213に展開して実行することで実現される。なお、図3(b)に示す処理の少なくとも一部を、CPU211とは異なる1又は複数の専用のハードウェアにより実現してもよい。図3(b)に示す処理は、情報処理装置200と表示装置300が接続され通信可能となったタイミングで開始される。ただし、図3(b)に示す処理の開始タイミングはこれに限定されない。なお、仮想視点画像が動画である場合には、図3(b)の処理は、仮想視点画像の動画を構成するフレームごとに実行されてもよい。
S3010では、表示装置300が仮想視点画像104を取得する。ここで取得される仮想視点画像104は、情報処理装置200が可視性情報を生成する際に用いた仮想視点に対応する画像である。S3020では、表示装置300が情報処理装置200から出力された可視性情報を取得する。なお、S3010とS3020の処理の順はこれに限らず、またこれらの処理の少なくとも一部が並行して実行されてもよい。
S3030では、表示装置300が情報処理装置200から取得したフラグ画像を仮想視点画像104に重畳する。また表示装置300は、情報処理装置200が可視性情報を生成する際に用いた視野情報102を取得し、視野情報102に応じた視点を表すCGも併せて仮想視点画像104に重畳してもよい。
図5(a)に、フラグ画像及び視野情報102に応じたCGを仮想視点画像104に重畳(オーバーレイ表示)することで生成された新たな仮想視点画像である重畳画像95を示す。フラグ画像は半透明で重畳されており、重畳画像95においてフラグ「0」に対応する遮蔽領域80は半透明の所定の色(例えば赤色)で覆われている。重畳画像95におけるカメラモデル90は視野情報102に応じた視点(審判22の視点)の位置を表しており、境界85は視野情報102に応じた視野の画角端を表している。
なお、可視性判定結果の表現方法は上記に限らず、仮想視点画像における遮蔽領域の輝度値や色を変えたり、コントラストを変えたり、テクスチャのレンダリング方法を変えたり、遮蔽領域の境界を表示したりしてもよい。また、図5(a)の例では仮想視点画像内の遮蔽領域に対応する部分を加工することで遮蔽領域とその他の領域を識別可能にしているが、可視性情報の表示方法はこれに限定されない。例えば、仮想視点画像内の可視領域を加工(可視領域を覆う画像を重畳)してもよいし、範囲外領域を加工してもよい。可視領域、範囲外領域、及び遮蔽領域をそれぞれ識別可能にするように、これらの領域のうち2つ以上をそれぞれ異なる態様で加工してもよい。また、範囲外領域と遮蔽領域を含む不可視領域を識別可能に示すように、不可視領域全体を一様に加工(不可視領域を覆う画像を重畳)してもよい。
また、図5(b)に示すように、カメラモデル90に代えて、視野情報102に応じた視点の位置と向きを示す矢印アイコン89を仮想視点画像に表示させてもよい。なお、実施形態では、画像処理システム1が、可視性情報が表示されない仮想視点画像104を取得して、その仮想視点画像104に可視性情報を重畳表示させるものとした。ただし、画像処理システム1は、可視性情報が表示されない仮想視点画像104を取得せずに、撮影装置100により取得された画像データと、仮想視点情報103と、可視性情報とに基づいて、可視性情報が表示される仮想視点画像を直接生成してもよい。
以上のように、審判22の視点から見えない領域、つまり死角を特定し、俯瞰した仮想視点画像上に死角を識別可能にする表示を行うことにより、仮想視点画像の視聴者は審判22の死角を容易に確認することができるようになる。例えば図5(b)に示す重畳画像95を見ることで、視聴者は、ボール15およびプレイヤ20の一部が審判22の死角に隠れていることを容易に認識できる。
上記の例では視野情報102が審判22の視野を表すものとして、審判22の視点からの可視性を判定したが、視野情報102はこれに限定されない。例えば、視野情報102がプレイヤ21の視野に対応するように視野情報102を指定することで、プレイヤ21の視点からの各領域の可視性を識別可能にすることができる。また、プレイヤが存在しない位置が視点位置となるように視野情報102を指定することで、仮にその位置にプレイヤがいた場合にどの領域が見えていたかを識別可能にすることができる。
また例えば、視野情報102が示す視点位置をボール15の位置に指定することで、ボール15の位置からどの領域が見えるか、言い換えれば、どの領域からボール15が見えるかを、容易に識別可能にすることができる。視野情報102が示す視点位置を、ボール15の代わりに例えばゴールに指定することで、どの領域からゴールが見えるかを識別可能にすることができる。また、視野情報102は視線方向及び視野の大きさを示す情報を有していなくてもよい。すなわち、視点位置から見て全方位が視野に含まれるものとしてもよい。
[可視性情報の別の例]
上記では、図4及び図5を用いて、情報処理装置200が出力する可視性判定結果に応じた可視性情報が、撮影領域内の可視領域と不可視領域とを識別可能に示す情報である場合の例について説明した。以下では、可視性情報の別の例について説明する。
まず、複数の視点からの可視性を比較した結果が可視性情報として使用される場合について説明する。この場合、情報処理装置200は、図3(a)に示す処理フローに替えて図6に示す処理フローを実行する。図6に示す処理は、図3(a)に示す処理と同様のタイミングで開始される。
S2010では、オブジェクト情報取得部201がオブジェクト情報101を取得する。S2020では、視野情報取得部202が複数の視野情報102を取得する。この複数の視野情報102は、それぞれ視点の位置、向き、及び視野の画角の少なくともいずれかが異なる。ここでは、複数の視野情報102が示す視点の位置が異なっており、審判22の視野を表す視野情報102と、審判22の視点位置から前後左右にそれぞれ5m並進移動した4つの視点に対応する視野情報102が取得されるものとする。ただし、取得される視野情報102の数やそれぞれの視野情報102の関係はこれに限らない。
S2040では、可視判定部204が各視野情報102について可視判定を行い、視野情報102毎に遮蔽領域の面積を算出する。遮蔽領域の面積は、オブジェクトを構成するメッシュのうち、フラグ「0」が付されたメッシュの面積を加算することで求められる。
S2050では、情報生成部205が可視性判定の結果に応じた可視性情報を生成する。具体的には、情報生成部205は、複数の視野情報102それぞれに対応する遮蔽領域を示すフラグ画像を生成する。さらに情報生成部205は、可視判定部204により視野情報102ごとに求められた遮蔽領域の面積に基づき複数の視野情報102をソート(順位づけ)した結果を示す情報を生成する。ソートアルゴリズムにはクイックソートを用いることができるが、これに限らずバブルソートなど他のアルゴリズムを用いてもよい。S2060では、情報生成部205がフラグ画像とソート結果を示す情報とを可視性情報として表示装置300に出力する。表示装置300は、図3(b)を用いて説明した処理により、可視性情報が重畳された仮想視点画像を生成して表示する。
図7に、可視性情報を重畳表示した仮想視点画像の例である重畳画像96を示す。審判22の視点を示すカメラモデル90の前後左右に、4つの異なる視点を示すアイコン91が表示される。各アイコン91には、それぞれの視点から見た場合の遮蔽領域の面積を示す数値が表示される。また、遮蔽領域の面積が最小の視点に対応するアイコン91は、「Best」の文字と共に強調表示(図7の例では矢印の色の変更)がされる。なお、アイコン91を強調する方法はこれに限らず、アイコン91のレンダリング方法を変えるなどしてもよい。
審判22より後ろに位置する視点は重畳画像96の範囲外に位置するため、その視点に対応するカメラモデルは表示されず、その視点が位置する方向を示す矢印と遮蔽領域の面積のみが表示されている。遮蔽領域80は、基準となる審判22の視点から見た遮蔽領域を示している。ただしこれに限らず、複数の視点それぞれに対応する遮蔽領域が識別可能に表示されたり、面積が最小となる遮蔽領域が表示されたりしてもよい。境界85の表示についても同様である。
以上のように、審判22の近傍に位置する複数の視点からの死角を特定し、死角となる領域が小さい視点を示す表示を行うことにより、仮想視点画像の視聴者は、審判22がどの位置に動けば死角をより小さくできたかを容易に確認することができるようになる。
なお、上記の例では遮蔽領域がより小さい視点を示す表示を行うものとしたが、これに限らず、例えば各視点に対応する遮蔽領域の大きさの順位を示す表示を行ってもよいし、遮蔽領域がより大きい視点を示す表示を行ってもよい。遮蔽領域の大きさが閾値未満である視点を示す表示を行ってもよいし、逆に遮蔽領域の大きさが閾値以上である視点を示す表示を行ってもよい。また、上記の例では複数の視点それぞれに対応する遮蔽領域の大きさを比較した結果が表示されるものとした。ただしこれに限らず、複数の視点それぞれに対応する可視領域の大きさを比較した結果が表示されてもよいし、複数の視点それぞれに対応する不可視領域の大きさを比較した結果が表示されてもよい。
また、上記の例では領域の大きさ表す指標として面積が用いられるものとしたが、領域の大きさ表す指標として体積が用いられてもよい。この場合、撮影領域に関連付けられた三次元空間内の各ボクセルに対して視野情報102が示す視点から光線40を飛ばし、光線40が最初にオブジェクトに当たるまでの空間に存在するボクセルにフラグを「1」が付される。このようにしてフラグ「1」が付された三次元位置は、視野情報102が示す視点から見える位置となる。そして、フラグ「1」が付されたボクセル数を数えることで、可視領域の体積を求めることができる。遮蔽領域及び範囲外領域についても同様にして体積を求めることができる。この場合、重畳画像96には各視点に対応する遮蔽領域の体積が可視性情報の一部として表示されてもよい。
また、上記の例では比較される複数の視点が等間隔に位置するものとしたが、これに限らず、例えば複数の審判の視点にそれぞれ対応する複数の視野情報102を取得し、それらの視点が比較されてもよい。これにより、どの審判の視点が最も死角が少なかったかを確認することができる。また、比較される複数の視点はそれぞれユーザ操作に基づいて任意に指定されてもよい。
次に、指定された視点から見た際の特定のオブジェクトの可視性を示す情報が可視性情報として使用される場合について説明する。この場合、図3(a)のS2040において可視判定部204は、視野情報102が示す視点から撮影領域内の特定のオブジェクトが見えるか否かを判定する。例えば、可視性判定の対象となるオブジェクトとしてボール15が選択されたものとする。可視判定部204は、ボール15の三次元モデルを構成する複数のメッシュのうち、可視を示すフラグ「1」が付されたメッシュと不可視を示すフラグ「0」又は「-1」が付されたメッシュの比率を算出する。
そして情報生成部205は、フラグ「0」又は「-1」の割合が所定の割合、例えば5割を超えた場合に、ボール15が審判22から見えていないことを示す情報を可視性情報として表示装置300に出力する。上記の所定の割合は、情報処理装置200に対するユーザ操作に基づいて設定されてもよいし、情報処理装置200の外部から取得されたパラメータに応じた割合であってもよい。図8は、撮影領域の状況と表示装置300における表示の例を示す図である。視野情報102が示す審判22の視点からボール15のモデルを構成するメッシュのうち所定以上の割合が見えていない場合、表示装置300には、可視判定の結果を示す可視性情報としてアイコン94が表示される。なお、アイコン94は仮想視点画像に重畳して表示されてもよい。
以上のように、審判22の視点からの死角を特定し、ボール15が死角に入っているか(不可視領域に位置するか)を示す表示を行うことにより、仮想視点画像の視聴者は、審判22からボール15が見えていないことを容易に確認することができるようになる。
なお、上記の例では視野情報102に応じた視点からボール15の所定割合以上の部分が見えていない場合に可視性情報の表示が行われるものとしたが、逆に、ボール15の所定割合以上の部分が見えている場合に、それを示す可視性情報が表示されてもよい。すなわち、可視性情報は、特定のオブジェクトであるボール15が可視領域に位置するかを示す情報であってもよい。また、ボール15が見えている場合と見えていない場合とでそれぞれ異なる可視性情報が表示されてもよい。また、ボール15が遮蔽領域に位置する場合と範囲外領域に位置する場合とで異なる可視性情報が表示されてもよい。上記の例では可視性判定の対象となるオブジェクトがボール15であるものとしたが、これに限らず、特定のプレイヤであってもよいし、撮影領域内の特定の位置であってもよい。可視性判定の対象は、情報処理装置200が受け付けたユーザ操作に基づいて設定されてもよく、可視性判定の対象となるオブジェクトが複数であってもよい。
また、情報処理装置200は、複数の視野情報102にそれぞれ対応する複数の視点から見た場合の特定オブジェクトの可視性を判定してもよい。例えば、複数の審判の視点それぞれからボール15が見えているかを判定し、どの審判からボール15が見えているかを示す情報が可視性情報として表示されてもよい。
以上、複数の例を用いて説明したように、画像処理システム1は、複数の撮影装置100によりそれぞれ異なる方向から撮影される撮影領域内のオブジェクトの位置及び形状を表すオブジェクト情報101を取得する。また画像処理システム1は、撮影領域内の特定位置から見える可視領域と、オブジェクトによる遮蔽によって前記特定位置から見えない遮蔽領域とを、オブジェクト情報101に基づいて識別する。そして画像処理システム1は、複数の撮影装置100による撮影に基づく画像データと仮想視点の位置及び向きを示す仮想視点情報103とに基づく仮想視点画像であって、識別の結果に基づく情報が表示される仮想視点画像を生成する。上記のような構成によれば、特定の位置から見える領域と遮蔽により見えない領域とを容易に識別可能にすることができる。
なお、上述の実施形態では、審判22に応じた視点に関する視野情報102とオブジェクト情報101とに基づいて、撮影領域内の各領域が審判22から見えるか見えないかを示す可視性情報が生成される場合を中心に説明した。ただし、例えば情報処理装置200は、審判22の左目に対応する視野情報102と右目に対応する視野情報102とをそれぞれ取得し、左目でのみ見える領域、右目でのみ見える領域、及び両目で見える領域を識別可能に示す可視性情報を生成してもよい。また、視野情報102には、視点の位置、向き、及び視野の広さに関する情報に限らず、人物(例えば審判22)の視力に関する情報や、撮影領域の環境に関する情報(例えば天候や明るさ、光源の位置に関する情報)が含まれていてもよい。そして情報処理装置200は、このような視野情報102を用いることで、特定の視点から明瞭に見える領域と明瞭には見えない領域とを識別可能に示す可視性情報を生成してもよい。このような構成によれば、あるシーンにおける特定の視点からの可視性をより詳細に検証することが可能になる。
また、上述の実施形態では、情報処理装置200が、特定の時刻における視点からの可視性判定の結果を出力する場合について述べたが、視点が変化する複数の時刻における可視性判定の結果を集計して出力してもよい。例えば、動き回る審判22の視点から見た場合の各時刻における不可視領域の面積や体積がプロットされて出力されてもよい。もしくは、不可視領域の面積や体積が閾値を上回ったり、ボール15が不可視領域に入ったりした期間の長さが計測されて出力されてもよい。一試合を通したこの期間の長さを用いて、審判22の動きを採点することができる。また例えば、複数の時刻における可視領域の重複部分(いずれの時刻でも可視となる領域)や、不可視領域の加算部分(いずれかの時刻で不可視となる領域)を示す情報が、可視性情報として出力されてもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC等)によっても実現可能である。また、そのプログラムをコンピュータにより読み取り可能な記録媒体に記録して提供してもよい。
1 画像処理システム
100 撮影装置
101 オブジェクト情報
102 視野情報
103 仮想視点情報
104 仮想視点画像
110 画像処理装置
200 情報処理装置
300 表示装置
情報処理装置は、複数の撮影装置によりそれぞれ異なる方向から撮影される撮影領域内のオブジェクトの位置及び形状を表すオブジェクト情報を取得する取得手段と、前記取得手段により取得されたオブジェクト情報に基づいて、前記撮影領域内のオブジェクトの位置である特定位置からオブジェクトの可視性を判定する判定手段と、前記判定手段による判定結果を表示するよう制御する制御手段とを有することを特徴とする。

Claims (21)

  1. 複数の撮影装置によりそれぞれ異なる方向から撮影される撮影領域内のオブジェクトの位置及び形状を表すオブジェクト情報を取得する取得手段と、
    前記撮影領域内の特定位置から見える可視領域と、オブジェクトによる遮蔽によって前記特定位置から見えない遮蔽領域とを、前記取得手段により取得されたオブジェクト情報に基づいて識別する識別手段と、
    前記複数の撮影装置による撮影に基づく画像データと仮想視点の位置及び向きを示す仮想視点情報とに基づく仮想視点画像であって、前記識別手段による識別の結果に基づく情報が表示される仮想視点画像を生成する生成手段と、を有することを特徴とする情報処理装置。
  2. 前記仮想視点画像に表示される前記識別の結果に基づく情報は、前記可視領域を示す情報と前記遮蔽領域を示す情報との少なくとも何れかを含むことを特徴とする請求項1に記載の情報処理装置。
  3. 前記仮想視点画像に表示される前記識別の結果に基づく情報は、前記仮想視点画像における前記可視領域を覆う画像と、前記仮想視点画像における前記遮蔽領域を覆う画像との、少なくとも何れかを含むことを特徴とする請求項2に記載の情報処理装置。
  4. 前記特定位置の視点に関する視野情報であって、前記視点の位置としての前記特定位置と、前記視点の位置からの視線方向と、前記視線方向を中心とする視野の広さとを示す視野情報を取得する視野情報取得手段を有し、
    前記識別手段は、前記視野情報取得手段により取得された視野情報により規定される視野の範囲に含まれる領域のうち、前記視点の位置との間にオブジェクトが存在しない領域を前記可視領域として識別し、前記視点の位置との間にオブジェクトが存在する領域を前記遮蔽領域として識別することを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。
  5. 前記可視領域は、前記特定位置から見て所定の角度範囲に含まれ、
    前記識別手段は、前記可視領域と、前記特定位置から見て前記所定の角度範囲に含まれない範囲外領域とを識別することを特徴とする請求項1乃至4の何れか1項に記載の情報処理装置。
  6. 前記仮想視点画像に表示される前記識別の結果に基づく情報は、前記遮蔽領域と前記範囲外領域とを含む不可視領域を示す情報を含むことを特徴とする請求項5に記載の情報処理装置。
  7. 前記仮想視点画像に表示される前記識別の結果に基づく情報は、前記仮想視点画像における前記不可視領域を覆う画像を含むことを特徴とする請求項6に記載の情報処理装置。
  8. 前記仮想視点画像に表示される前記識別の結果に基づく情報は、前記撮影領域内の特定のオブジェクトが前記可視領域に位置するかを示す情報を含むことを特徴とする請求項1乃至7の何れか1項に記載の情報処理装置。
  9. 前記仮想視点画像に表示される前記識別の結果に基づく情報は、前記遮蔽領域の面積又は体積を示す情報を含むことを特徴とする請求項1乃至8の何れか1項に記載の情報処理装置。
  10. 前記仮想視点画像に表示される前記識別の結果に基づく情報は、前記撮影領域内の複数の特定位置のうち、遮蔽により見えない領域がより小さい特定位置を示す情報を含むことを特徴とする請求項1乃至9の何れか1項に記載の情報処理装置。
  11. 前記特定位置は、前記撮影領域内の指定されたオブジェクトに応じた位置であり、
    前記遮蔽領域は、他のオブジェクトによる遮蔽によって前記特定位置から見えない領域であることを特徴とする請求項1乃至10の何れか1項に記載の情報処理装置。
  12. 複数の撮影装置によりそれぞれ異なる方向から撮影領域を撮影することにより得られる画像データに基づいて生成されたオブジェクト情報であって、前記撮影領域内のオブジェクトの位置及び形状を表すオブジェクト情報を取得する取得手段と、
    前記撮影領域内の指定されたオブジェクトに応じた特定位置から見える可視領域と、他のオブジェクトによる遮蔽によって前記特定位置から見えない遮蔽領域とを識別可能にする情報を、前記取得手段により取得されたオブジェクト情報に基づいて生成する生成手段と、
    前記生成手段により生成された情報を出力する出力手段と、を有することを特徴とする情報処理装置。
  13. 前記可視領域は、前記特定位置から見て所定の角度範囲に含まれ、
    前記生成手段により生成される情報は、前記可視領域と、前記特定位置から見て前記所定の角度範囲に含まれない範囲外領域とを識別可能にすることを特徴とする請求項12に記載の情報処理装置。
  14. 前記生成手段により生成される情報は、前記遮蔽領域と前記範囲外領域とを識別可能にすることを特徴とする請求項13に記載の情報処理装置。
  15. 前記指定されたオブジェクトは人物であり、
    前記特定位置は前記人物の頭部の位置又は目の位置であることを特徴とする請求項11乃至14の何れか1項に記載の情報処理装置。
  16. 前記オブジェクト情報は、オブジェクトの三次元位置及び三次元形状を表すことを特徴とする請求項1乃至15の何れか1項に記載の情報処理装置。
  17. 複数の撮影装置によりそれぞれ異なる方向から撮影される撮影領域内のオブジェクトの位置及び形状を表すオブジェクト情報を取得する取得工程と、
    前記撮影領域内の特定位置から見える可視領域と、オブジェクトによる遮蔽によって前記特定位置から見えない遮蔽領域とを、前記取得工程において取得されたオブジェクト情報に基づいて識別する識別工程と、
    前記複数の撮影装置による撮影に基づく画像データと仮想視点の位置及び向きを示す仮想視点情報とに基づく仮想視点画像であって、前記識別工程における識別の結果に基づく情報が表示される仮想視点画像を生成する生成工程と、を有することを特徴とする情報処理方法。
  18. 前記仮想視点画像に表示される前記識別の結果に基づく情報は、前記可視領域を示す情報と前記遮蔽領域を示す情報との少なくとも何れかを含むことを特徴とする請求項17に記載の情報処理方法。
  19. 前記特定位置は、前記撮影領域内の指定されたオブジェクトに応じた位置であり、
    前記遮蔽領域は、他のオブジェクトによる遮蔽によって前記特定位置から見えない領域であることを特徴とする請求項17又は18に記載の情報処理方法。
  20. 複数の撮影装置によりそれぞれ異なる方向から撮影領域を撮影することにより得られる画像データに基づいて生成されたオブジェクト情報であって、前記撮影領域内のオブジェクトの位置及び形状を表すオブジェクト情報を取得する取得工程と、
    前記撮影領域内の指定されたオブジェクトに応じた特定位置から見える可視領域と、他のオブジェクトによる遮蔽によって前記特定位置から見えない遮蔽領域とを識別可能にする情報を、前記取得工程において取得されたオブジェクト情報に基づいて生成する生成工程と、
    前記生成工程において生成された情報を出力する出力工程と、を有することを特徴とする情報処理方法。
  21. コンピュータを、請求項1乃至16の何れか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2024007762A 2020-02-18 2024-01-23 情報処理装置、情報処理方法、及びプログラム Pending JP2024032826A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024007762A JP2024032826A (ja) 2020-02-18 2024-01-23 情報処理装置、情報処理方法、及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020024926A JP7427468B2 (ja) 2020-02-18 2020-02-18 情報処理装置、情報処理方法、及びプログラム
JP2024007762A JP2024032826A (ja) 2020-02-18 2024-01-23 情報処理装置、情報処理方法、及びプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020024926A Division JP7427468B2 (ja) 2020-02-18 2020-02-18 情報処理装置、情報処理方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2024032826A true JP2024032826A (ja) 2024-03-12

Family

ID=77273166

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020024926A Active JP7427468B2 (ja) 2020-02-18 2020-02-18 情報処理装置、情報処理方法、及びプログラム
JP2024007762A Pending JP2024032826A (ja) 2020-02-18 2024-01-23 情報処理装置、情報処理方法、及びプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020024926A Active JP7427468B2 (ja) 2020-02-18 2020-02-18 情報処理装置、情報処理方法、及びプログラム

Country Status (4)

Country Link
US (1) US20210258560A1 (ja)
JP (2) JP7427468B2 (ja)
KR (1) KR102623700B1 (ja)
CN (1) CN113347348A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024070762A1 (ja) * 2022-09-29 2024-04-04 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム
CN116736868A (zh) * 2023-08-11 2023-09-12 松灵机器人(深圳)有限公司 机器人移动控制方法、装置、设备及存储介质

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5302227B2 (ja) 2010-01-19 2013-10-02 富士通テン株式会社 画像処理装置、画像処理システム、および、画像処理方法
JP2015187797A (ja) 2014-03-27 2015-10-29 シャープ株式会社 画像データ生成装置および画像データ再生装置
JP6555513B2 (ja) 2015-06-30 2019-08-07 株式会社セガゲームス プログラム
JP6929047B2 (ja) * 2016-11-24 2021-09-01 キヤノン株式会社 画像処理装置、情報処理方法及びプログラム
JP7086522B2 (ja) * 2017-02-28 2022-06-20 キヤノン株式会社 画像処理装置、情報処理方法及びプログラム
WO2019050038A1 (ja) 2017-09-11 2019-03-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 画像生成方法および画像生成装置
JP7080613B2 (ja) 2017-09-27 2022-06-06 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2019083402A (ja) 2017-10-30 2019-05-30 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP7109907B2 (ja) * 2017-11-20 2022-08-01 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2019021333A (ja) 2018-09-19 2019-02-07 キヤノン株式会社 画像処理装置及び画像処理方法及びプログラム
US11869135B2 (en) * 2020-01-16 2024-01-09 Fyusion, Inc. Creating action shot video from multi-view capture data

Also Published As

Publication number Publication date
KR20210105302A (ko) 2021-08-26
CN113347348A (zh) 2021-09-03
JP7427468B2 (ja) 2024-02-05
JP2021131583A (ja) 2021-09-09
US20210258560A1 (en) 2021-08-19
KR102623700B1 (ko) 2024-01-11

Similar Documents

Publication Publication Date Title
JP7013139B2 (ja) 画像処理装置、画像生成方法及びプログラム
JP6340017B2 (ja) 被写体と3次元仮想空間をリアルタイムに合成する撮影システム
JP2024032826A (ja) 情報処理装置、情報処理方法、及びプログラム
JP4764305B2 (ja) 立体画像生成装置、方法およびプログラム
JP7277085B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20100194863A1 (en) Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images
JP2017174125A (ja) 情報処理装置、情報処理システム、および情報処理方法
JP7164968B2 (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
JP7042561B2 (ja) 情報処理装置、情報処理方法
TWI701941B (zh) 圖像處理方法及裝置、電子設備及儲存介質
JP2014238731A (ja) 画像処理装置、画像処理システム、および画像処理方法
JP7027049B2 (ja) 画像処理装置、画像処理方法及びプログラム
KR20180123302A (ko) 볼의 궤적을 시각화하는 방법 및 장치
JP7446754B2 (ja) 画像処理装置、画像処理方法、及びプログラム
KR20110088995A (ko) 3차원 모델 안에서 감시 카메라 영상을 시각화하기 위한 방법 및 시스템, 및 기록 매체
US11468258B2 (en) Information processing apparatus, information processing method, and storage medium
JP7313811B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2022016929A (ja) 情報処理装置、情報処理方法、及びプログラム
TWI821220B (zh) 影像擷取之設備及方法
JP2020135290A (ja) 画像生成装置、画像生成方法、画像生成システム、及びプログラム
US20230306676A1 (en) Image generation device and image generation method
JP2022110751A (ja) 情報処理装置、情報処理方法及びプログラム
US20200042077A1 (en) Information processing apparatus
KR101957417B1 (ko) 실사이미지 디스플레이 방식의 동작인식 컨트롤 시스템 및 방법
US20240005600A1 (en) Nformation processing apparatus, information processing method, and information processing program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240123

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240221