JP2019197348A - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2019197348A
JP2019197348A JP2018090367A JP2018090367A JP2019197348A JP 2019197348 A JP2019197348 A JP 2019197348A JP 2018090367 A JP2018090367 A JP 2018090367A JP 2018090367 A JP2018090367 A JP 2018090367A JP 2019197348 A JP2019197348 A JP 2019197348A
Authority
JP
Japan
Prior art keywords
virtual viewpoint
indicator
camera
image
foreground
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018090367A
Other languages
English (en)
Other versions
JP7091133B2 (ja
Inventor
相澤 道雄
Michio Aizawa
道雄 相澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018090367A priority Critical patent/JP7091133B2/ja
Priority to US16/399,158 priority patent/US20190349531A1/en
Publication of JP2019197348A publication Critical patent/JP2019197348A/ja
Application granted granted Critical
Publication of JP7091133B2 publication Critical patent/JP7091133B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/2226Determination of depth image, e.g. for foreground/background separation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)

Abstract

【課題】ユーザの期待に反して画質の低い仮想視点画像が生成されてしまう虞を低減する。【解決手段】画像処理システム(10)は、仮想視点を指定する指定手段(105)と、前記指定手段(105)により指定される仮想視点と、複数のカメラ(101)が撮影した撮影画像に基づいて生成される仮想視点画像であって当該仮想視点に対応する仮想視点画像の画質との関係に関する情報を、表示部に表示させる表示制御手段(104、105)と、を有する。【選択図】図1

Description

本発明は、仮想視点画像を生成する技術に関する。
複数のカメラを異なる位置に配置して多視点で同期撮影し、当該撮影により得られた複数視点画像を用いて仮想視点画像を生成する技術が注目されている。ここで、仮想視点画像は、仮想的なカメラ(以下、仮想カメラとする。)の視点(仮想視点)から見た画像と言える。仮想視点画像を生成する技術によれば、例えば、サッカーやバスケットボールの試合のハイライトシーンを様々な角度から閲覧することが出来るため、通常の画像と比較してユーザに高臨場感を与えることが出来る。
特許文献1には、仮想カメラを操作し仮想視点画像を生成する技術が記載されている。具体的には、ユーザの操作に基づいて仮想カメラの撮影方向を設定し、その仮想カメラの撮影方向に基づいて仮想視点画像を生成する技術が開示されている。
特開2015−219882号公報
複数のカメラによる撮影画像に基づいて仮想視点画像を生成する場合において、複数のカメラの配置と仮想視点の位置及び方向によっては、生成される仮想視点画像の画質が低くなる場合が生じ得る。特許文献1に記載の技術では、ユーザは指定した仮想視点に対応する仮想視点画像が生成されて表示されるまで、その仮想視点に対応する仮想視点画像の画質が低くなるかどうかを知ることができず、ユーザの期待に反して画質が低い仮想視点画像が生成されてしまう虞がある。
そこで、本発明は、ユーザの期待に反して画質の低い仮想視点画像が生成されてしまう虞を低減することを目的とする。
本発明の情報処理装置は、仮想視点を指定する指定手段と、前記指定手段により指定される仮想視点と、複数のカメラが撮影した撮影画像に基づいて生成される仮想視点画像であって当該仮想視点に対応する仮想視点画像の画質との関係に関する情報を、表示部に表示させる表示制御手段と、を有することを特徴とする。
本発明によれば、ユーザの期待に反して画質の低い仮想視点画像が生成されてしまう虞を低減することができるようになる。
画像処理システムの概略構成を示す図である。 仮想視点指定装置の構成例を示す図である。 注視点インジケータを生成して合成する機能構成図である。 注視点インジケータの表示位置の例を説明する図である。 注視点インジケータの形状例を示す図である。 注視点インジケータの表示例を示す図である。 注視点インジケータの生成から合成までのフローチャートである。 前景インジケータを生成して合成する機能構成図である。 前景インジケータの表示例を示す図である。 前景インジケータの生成から合成までのフローチャートである。 方位、姿勢、高度インジケータを生成して合成する機能構成図である。 方位、姿勢、高度インジケータの例を示す図である。 方位、姿勢、高度インジケータ生成と加工のフローチャートである。
以下、本発明の実施形態について図面を参照して詳細に説明する。なお、以下で説明する実施形態は、本発明を具体的に実施した場合の一例を示すものであり、これに限るものではない。
[システム構成]
図1(a)は、本実施形態の情報処理装置が適用される画像処理システム10の概略的な全体構成の一例を示した図である。
画像処理システム10は、センサシステム101a,101b,101c,・・・,101nのn個のセンサシステムを有する。なお、本実施形態において特別な説明がない場合は、n個のセンサシステムを区別せずセンサシステム101と記載する。画像処理システム10は、さらに、フロントエンドサーバ102、データベース103、バックエンドサーバ104、仮想視点指定装置105及び配信装置106を有する。
それぞれのセンサシステム101はデジタルカメラ(以下、物理カメラとする)とマイクロフォン(以下、物理マイクとする)を有する。これら複数のセンサシステム101の各物理カメラは、それぞれ異なる方向を同期して撮影する。また、複数のセンサシステム101の各物理マイクは、それぞれ異なる方向やその設置位置周辺の音声を集音する。
フロントエンドサーバ102は、複数のセンサシステム101の各物理カメラによりそれぞれ異なる方向で撮影された複数の撮影画像データを取得して、それら複数の撮影画像をデータベース103に出力する。また、フロントエンドサーバ102は、複数のセンサシステム101の各物理マイクによりそれぞれ集音された複数の音声データを取得して、それら複数の音声データをデータベース103に出力する。なお、本実施形態では、フロントエンドサーバ102が、複数の撮影画像データと複数の音声データとをいずれもセンサシステム101nを介して取得するものとする。ただし、これに限らず、フロントエンドサーバ102は、各センサシステム101からそれぞれ撮影画像データと音声データを直接取得してもよい。以下の説明では、各構成間でやり取りされる画像データを単に「画像」と表記し、また音声データについても同様に単に「音声」と表記する。
データベース103は、フロントエンドサーバ102から入力された撮影画像及び音声を保持する。さらに、データベース103は、バックエンドサーバ104からの要求に応じて、保持している撮影画像及び音声をバックエンドサーバ104に出力する。
バックエンドサーバ104は、後述する仮想視点指定装置105から操作者により指定された仮想的な視点の位置情報を取得し、その指定された位置情報に応じた仮想的な視点の画像を生成する。またバックエンドサーバ104は、仮想視点指定装置105から操作者により指定された仮想的な聴取点の位置情報を取得し、その位置情報に応じた仮想的な聴取点の音声を生成する。
ここで、仮想的な視点と仮想的な聴取点の位置は異なる位置であってもよいし、同じ位置であってもよい。本実施形態では、説明を簡略にするために、音声について指定される仮想的な聴取点が、画像について指定される仮想的な視点と同じ位置であるとし、以下、その位置を単に「仮想視点」と呼ぶことにする。また以下の説明では、仮想的な視点の画像と音声を、それぞれ仮想視点画像と仮想視点音声と呼ぶことにする。本実施形態において、仮想視点画像とは、例えば仮想視点から被写体を撮影した場合に得られるはずの画像のことであり、仮想視点音声とは、仮想視点で集音した場合に得られるはずの音声のことである。すなわちバックエンドサーバ104は、仮想視点にあたかも仮想的なカメラが存在していて、その仮想的なカメラにより画像が撮影されたと仮想した場合の画像を仮想視点画像として生成する。同様に、バックエンドサーバ104は、仮想視点にあたかも仮想的なマイクが存在していて、その仮想的なマイクにより音声が集音されたと仮想した場合の音声を仮想視点音声として生成する。そして、バックエンドサーバ104は、生成した仮想視点画像と仮想視点音声を、仮想視点指定装置105および配信装置106へ出力する。なお、本実施形態における仮想視点画像は、自由視点映像とも呼ばれるものであるが、ユーザが自由に(任意に)指定した視点に対応する画像に限定されず、例えば複数の候補からユーザが選択した視点に対応する画像なども仮想視点画像に含まれる。
また、バックエンドサーバ104は、各センサシステム101が有する物理カメラの位置、姿勢、画角、画素数などの情報を取得し、それらの情報を基に、仮想視点画像の画質に関する各種のインジケータ情報を生成する。ここで、物理カメラの位置と姿勢の情報は、実際に配置されている各物理カメラの配置位置とカメラの姿勢を表す情報である。また、物理カメラの画角と画素数の情報は、物理カメラにおいて実際に設定されている画角と画素数を表す情報である。そして、バックエンドサーバ104は、それら生成した各種インジケータ情報を、仮想視点指定装置105へ出力する。
仮想視点指定装置105は、バックエンドサーバ104が生成した仮想視点画像および各種インジケータ情報と仮想視点音声とを取得する。仮想視点指定装置105は、後述する図2において説明するコントローラ208等を含む操作入力装置と、表示部201,202等の表示装置とをも有している。仮想視点指定装置105は、取得した各種インジケータ情報を基に表示用の各種インジケータを生成し、仮想視点画像に各種インジケータを合成して表示装置に表示させる表示制御を行う。また、仮想視点指定装置105は、表示装置に内蔵されたスピーカや外付けのスピーカ等を介して仮想視点音声を出力させる。これにより、当該仮想視点指定装置105の操作者に対し、仮想視点画像と各種インジケータおよび仮想視点音声を視聴させることができる。これ以降、仮想視点指定装置105の操作者を単に「操作者」と記載する。操作者は、提示された仮想視点画像と各種インジケータや仮想視点音声を視聴し、それらを参考にして、仮想視点指定装置105の操作入力装置を介して、例えば新しい仮想視点を指定することができる。操作者が指定した仮想視点は、仮想視点指定装置105からバックエンドサーバ104へ出力される。つまり、仮想視点の操作者は、バックエンドサーバ104が生成する仮想視点画像と各種インジケータや仮想視点音声を参考に、リアルタイムに新たな仮想視点を指定することができる。
配信装置106は、バックエンドサーバ104が生成した仮想視点画像と仮想視点音声を取得し、仮想視点画像と仮想視点音声を視聴する視聴者が有する端末等へ配信する。例えば、配信装置106は、放送局によって管理され、視聴者が有するテレビ受像機などの端末へ仮想視点画像と仮想視点音声を配信する。また例えば、配信装置106は、動画サービス会社によって管理され、視聴者が有するスマートフォンやタブレットなどの端末へ仮想視点画像と仮想視点音声を配信する。なお、仮想視点を指定する操作者と、指定された仮想視点に対応する仮想視点画像を見る視聴者とが同一であってもよい。すなわち、配信装置106により仮想視点画像が配信される配信先の装置と、仮想視点指定装置105とが、一体となって構成されていてもよい。本実施形態における「ユーザ」には、操作者、視聴者、及び操作者とも視聴者とも異なる人物の何れも含まれるものとする。
図1(b)は、バックエンドサーバ104のハードウェア構成例を示した図である。なお、画像処理システム10に含まれる仮想視点指定装置105やフロントエンドサーバ102等の他の各装置も図1(b)と同様の構成を有する。ただし、センサシステム101は、以下の構成に加えて物理マイクと物理カメラを有する。バックエンドサーバ104は、CPU111、RAM112、ROM113、外部インタフェース114を有する。
CPU111は、RAM112やROM113に格納されているコンピュータプログラムやデータを用いてバックエンドサーバ104の全体を制御する。なお、バックエンドサーバ104がCPU111とは異なる専用の一又は複数のハードウェアやGPU(Graphics Processing Unit)を有し、CPU111による処理の少なくとも一部をGPUや専用のハードウェアが行ってもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、およびDSP(デジタルシグナルプロセッサ)などがある。RAM112は、ROM113から読み出されたコンピュータプログラムやデータ、及び外部インタフェース114を介して外部から供給されるデータなどを一時的に記憶する。ROM113は、変更を必要としないコンピュータプログラムやデータを保持する。
外部インタフェース114は、データベース103、仮想視点指定装置105、及び配信装置106などの外部の装置と通信し、また、不図示の表示装置や操作入力装置等と通信する。外部の装置との通信は、LAN(Local Area Network)ケーブルやSDI(Serial Degital Interface)ケーブルなどを用いて有線で行われてもよいし、アンテナを介して無線で行われてもよい。
図2は、仮想視点指定装置105の概略的な外観構成例を示す図である。
仮想視点指定装置105は、仮想視点画像を表示する表示部201、GUI用の表示部202、操作者が仮想視点を指定する際に操作するコントローラ208等を含む。仮想視点指定装置105は、バックエンドサーバ104から取得した、仮想視点画像と、各種インジケータ情報を基に生成した注視点インジケータ203や前景インジケータ204などを、表示部201に表示する。また、仮想視点指定装置105は、各種インジケータ情報を基に生成した方位インジケータ205、姿勢インジケータ206、高度インジケータ207などを、表示部202に表示する。これら表示される各種インジケータの詳細については後述する。
本実施形態の画像処理システム10は、前述したように、仮想視点にあたかも仮想的なカメラが存在していて、この仮想的なカメラにより画像が撮影されたと仮想した場合の仮想視点画像を生成して視聴者に提供することができる。同様に、画像処理システム10は、仮想視点にあたかも仮想的なマイクが存在していて、この仮想的なマイクにより音声が集音されたと仮想した場合の仮想視点音声を生成して視聴者に提供することができる。本実施形態の場合、仮想視点は仮想視点指定装置105の操作者により指定されるため、仮想視点画像は換言すると操作者によって指定された仮想視点から見える画像であり、同様に仮想視点音声は操作者に指定された仮想視点から聞こえる音声であると言える。なお、これ以降の説明では、各センサシステム101が有している物理カメラ、物理マイクと区別するために、仮想的なカメラを仮想カメラ、仮想的なマイクを仮想マイクと呼ぶことにする。また本実施形態では、特に断りがない限り、画像という文言が動画と静止画の両方の概念を含むものとする。すなわち本実施形態の画像処理システム10は、静止画及び動画の何れについても処理可能である。また本実施形態の画像処理システム10では、仮想視点画像と仮想視点音声の両方が生成される例を挙げたが、例えば仮想視点画像のみ生成してもよいし、仮想視点音声のみを生成してもよい。これ以降は、説明を簡略にするために、仮想視点画像に関する処理を中心に説明し、仮想視点音声に関する処理の説明については省略する。
<注視点インジケータの生成と仮想視点画像への合成処理>
図3は、本実施形態の情報処理装置のブロック図であり、主に、図1に示した画像処理システム10のバックエンドサーバ104において注視点インジケータを生成して仮想視点画像に合成するための機能構成を示した図である。
図3において、物理情報取得部301は、センサシステム101の物理カメラに関する各種の情報を取得する。物理カメラに関する情報は、前述したように位置、姿勢、画角、画素数などの情報である。物理カメラの位置と姿勢は、各物理カメラの撮影範囲内で予め位置が分かっている点(例えば位置が固定されている特定の被写体等)と、それを各物理カメラにより撮影した画像内における点との位置関係を基に求めることができる。なお、これはいわゆるカメラキャリブレーションと呼ばれる方法である。その他にも、センサシステム101にGPSやジャイロが設けられている場合には、それらから得られた情報を基に、物理カメラの位置と姿勢を求めてもよい。物理カメラの画角と画素数は、物理カメラ自身に保持されている画角と画素数の設定値を取得すればよい。また、物理カメラに関する情報の少なくとも一部を、データベース103やバックエンドサーバ104などに対してユーザが入力してもよい。
仮想情報取得部302は、仮想視点指定装置105から、仮想視点における仮想カメラに関する各種の情報を取得する。仮想カメラに関する情報は、物理カメラの場合と同様の位置、姿勢、画角、画素数などである。ただし仮想カメラは実際には存在しないため、仮想視点指定装置105は、操作者からの指定に応じて、仮想視点における仮想カメラの位置、姿勢、画角、画素数などの情報を生成し、仮想情報取得部302はそれらの情報を取得する。
画像生成部303は、複数の物理カメラにより撮影された複数の撮影画像を取得し、また、仮想情報取得部302から仮想視点の仮想カメラに関する各種情報を取得する。画像生成部303は、それら物理カメラからの撮影画像と、仮想カメラに関する各種情報とを基に、仮想カメラの視点(仮想視点)から見える仮想視点画像を生成する。
ここでは、物理カメラによりサッカーの試合が撮影されている場合を例に挙げて、画像生成部303における仮想視点画像の生成例について説明する。以下の説明では、選手やボールなどの被写体を「前景」と呼び、サッカーフィールド(芝生)などの前景以外の被写体を「背景」と呼ぶことにする。先ず、画像生成部303は、物理カメラにより撮影された複数の撮影画像から、選手やボールなどの前景の被写体の3D形状および位置を算出する。次に、画像生成部303は、その算出した3D形状および位置と、仮想視点における仮想カメラに関する情報とを基に、選手やボールなどの前景の被写体の画像を再構成する。さらに、画像生成部303は、物理カメラにより撮影された複数の撮影画像から、サッカーフィールドなどの背景の画像を生成する。そして、画像生成部303は、生成した背景の画像に対し、再構成した前景の画像を合成することにより、仮想視点画像を生成する。
インジケータ生成部304は、物理情報取得部301から物理カメラに関する情報を取得し、それらの情報を基に、各物理カメラの位置、姿勢、画角、画素数などに応じた各種インジケータ情報の一つとして、図2に例示した注視点インジケータ203を生成する。このため、インジケータ生成部304は、表示位置計算部305と形状決定部306を有して構成されている。表示位置計算部305は、図2に例示した注視点インジケータ203を表示する位置を計算する。形状決定部306は、表示位置計算部305により算出された位置に表示する注視点インジケータ203の形状を決定する。
表示位置計算部305は、先ず、物理情報取得部301から物理カメラの位置と姿勢の情報を取得し、それら位置と姿勢の情報を基に、それぞれの物理カメラにより撮影されている位置(以下、注視点とする)を計算する。この時の表示位置計算部305は、物理カメラの姿勢の情報を基に、物理カメラの光軸方向を求める。さらに表示位置計算部305は、物理カメラの位置の情報を基に、物理カメラの光軸とフィールド面との交点を求め、その交点を物理カメラの注視点とする。次に、表示位置計算部305は、それぞれ物理カメラごとに求めた注視点が、一定の距離内にある各物理カメラをまとめて注視点グループとする。そして、表示位置計算部305は、注視点グループが複数ある場合、それら注視点グループごとに、グループ内の複数のカメラに対応する複数の注視点の中心点を求め、その中心点を、注視点インジケータ203の表示位置とする。つまり、注視点インジケータ203の表示位置は、物理カメラの注視点の辺りであり、複数の物理カメラにより撮影される位置になる。
図4(a)〜図4(c)は、注視点インジケータ203の表示位置の例を示す図である。図4(a)は、サッカーフィールドの全周に8台の各センサシステム101(つまり8台の物理カメラ)が配置されている例を示している。図4(a)の場合、8台の物理カメラの各注視点が一定の距離内にあるため、一つの注視点グループが形成されている。このため図4(a)の例では、その注視点グループの中心位置が注視点インジケータ203の表示位置401aになる。図4(b)は、サッカーフィールドの約南半周側に5台の各センサシステム101(5台の物理カメラ)が配置されている例を示している。この図4(b)の場合、5台の物理カメラの各注視点が一定の距離内にあるため、一つの注視点グループが形成されている。このため図4(b)の例では、その注視点グループの中心位置が注視点インジケータ203の表示位置401bになる。図4(c)は、サッカーフィールドの全周に12台の各センサシステム101(12台の物理カメラ)が配置されている例を示している。この図4(c)の場合、サッカーフィールドの略々西半周側の6台の物理カメラの各注視点が一定の距離内であるため、注視点グループが一つ形成されている。さらに図4(c)の場合、サッカーフィールドの略々東半周側の6台の物理カメラの各注視点が一定の距離内にあるため、注視点グループがもう一つ形成されている。このため、図4(c)の例では、それら二つの注視点グループの中心位置が、それぞれ注視点インジケータ203の表示位置401c,401dになる。
形状決定部306は、表示位置計算部305により算出された表示位置に表示する、注視点インジケータ203の形状を、例えば図5(a)〜図5(f)に示す形状の何れかに決定する。
図5(a)と図5(b)は、注視点インジケータ203の形状のベースを円形状とした例を示した図である。図5(a)の形状は、例えば図4(a)で示したような物理カメラの配置に対応した注視点インジケータ203の形状例である。図4(a)の例では物理カメラがサッカーフィールドの全周にわたって配置されているので、注視点インジケータ203の形状はサッカーフィールドの全周を表した円形状とする。図5(b)の形状は、例えば図4(b)で示した物理カメラの配置に対応した注視点インジケータ203の形状例である。図4(b)の例では物理カメラがサッカーフィールドの約南半周側に配置されているので、注視点インジケータ203の形状はサッカーフィールドの約南半周を表した形状とする。つまり図5(b)の形状は、サッカーフィールドに対応した円形状から、図4(b)の例で注視点グループを形成している約南半周側の物理カメラの配置に対応した方向を残し、それ以外の方向を削ったような形状となされている。
ここで、仮想視点画像は、物理カメラにより撮影された画像を基に生成される。このため、物理カメラが配置されている側の仮想視点画像は生成できるが、物理カメラが配置されていない側からの仮想視点画像は生成できない。つまり図4(a)に例示した物理カメラの配置の場合はサッカーフィールドの略々全周について仮想視点画像を生成できるが、図4(b)の配置例の場合には物理カメラが配置されていない約北半周側の仮想視点画像を生成することができない。このため、図5(a)や図5(b)に例示した形状の注視点インジケータ203を表示することで、操作者は、仮想視点画像を生成可能な範囲を知ることができるようになる。
図5(c)と図5(d)は、注視点インジケータ203の形状のベースを物理カメラの光軸を表す線とした例である。図5(c)と図5(d)では、図中の一本の線が一つの物理カメラの光軸に対応する。図5(c)に例示した形状は、図4(a)に示した物理カメラの配置に対応した注視点インジケータ203の形状例である。前述したように図4(a)の例では物理カメラがサッカーフィールドの全周に配置されているので、注視点インジケータ203はサッカーフィールドの全周に配置された8台の物理カメラのそれぞれの光軸に対応した8本の線で表された形状となされている。図5(d)の形状は、図4(b)に示した物理カメラ配置に対応した注視点インジケータ203の形状例である。図4(b)の例では5台の物理カメラがサッカーフィールドの約南半周側に配置されているので、注視点インジケータ203はサッカーフィールドの約南半周に配置された5台の物理カメラのそれぞれの光軸に対応した5本の線で表された形状となされている。これら図5(c)と図5(d)の例においても、前述した図5(a)と図5(b)の例と同様に、操作者が仮想視点画像を生成できる仮想カメラの範囲を知ることができるという効果が得られる。
また、仮想視点画像は、前述したように物理カメラによる撮影画像を基に生成されるため、物理カメラが密に配置されている側については、粗に配置されている側と比較して、より高い画質の仮想視点画像を生成できることになる。このため、図5(c)と図5(d)のように物理カメラの光軸を表す線で注視点インジケータ203の形状を表すことで、操作者は、物理カメラが配置されている方向の粗密を知ることができる。つまり、この例の場合、より画質が高い仮想視点画像を生成できる範囲を操作者が知ることができるという効果が得られる。
なお、図5(c)と図5(d)に示した注視点インジケータ203の形状例において、例えば物理カメラの焦点距離や画素数に応じて、物理カメラのそれぞれの光軸を表す線の長さを変えてもよい。例えば、画角が小さいほど(焦点距離が長いほど)光軸を表す線の長さを長くしたり、画素数が多いほど光軸を表す線の長さを長くしたりしてもよい。また一般に、物理カメラは、焦点距離が長いほど前景を大きく撮影することができ、画素数が多いほど前景を大きく表示しても画質の劣化が見え難い。また物理カメラが撮影する前景が大きいほど、仮想視点画像で前景を大きくしても画像が破たんし難くなる。このため、物理カメラの焦点距離や画素数に応じて、物理カメラのそれぞれの光軸を表す線の長さを変えるようにした場合、操作者は、前景をどれくらい大きくできるかの目安となる物理カメラの情報(画角、画素数など)を知ることができることになる。
図5(e)と図5(f)は、注視点インジケータ203の形状に、仮想視点画像の画質が変化する境界を表す第1の境界線502と第2の境界線503を加えた例である。図5(e)の形状は、図4(a)に示した物理カメラの配置に対応した注視点インジケータ203の形状例であり、前述の図5(a)の例のようにサッカーフィールドの全周を表した円形状とする。図5(f)の形状は、図4(b)に示した物理カメラの配置に対応した注視点インジケータ203の形状例であり、前述した図5(d)の例のようにサッカーフィールドの約南半周に配置された5台の物理カメラの各光軸に対応した5本の線で表された形状とする。さらに図5(e)と図5(f)の例では、生成される仮想視点画像の画質を、例えば高・中・低の3段階に分類する。そして、第1の境界線502で囲まれる範囲を高画質の範囲とし、第2の境界線503で囲まれる範囲を中画質の範囲とし、第2の境界線503の外の範囲を低画質の範囲とする。
ここで、仮想視点画像の画質を決める要因の一つは、仮想視点画像が、何台の物理カメラから撮影された画像を基に生成されるかに依存する。よって、仮想視点画像の画質を表す境界線を、例えば以下のようにして近似する。例えば、物理カメラの台数として、NA台とNB台を例に挙げ、NAとNBの値はNA>NBであり、またNAとNBの値は経験的に求める。そして例えば、NA台以上の物理カメラにより撮影される範囲を第1の境界線502とし、NB台以上の物理カメラにより撮影される範囲を第2の境界線503とする。このように、注視点インジケータ203にさらに仮想視点画像の画質を表す境界線を加えることにより、操作者が画質の高い仮想視点画像を生成できる範囲を知ることができるという効果を得ることができるようになる。なお、表示されるインジケータは図5の例に限定されるものではなく、高画質な仮想視点画像を生成可能な仮想視点の位置及び方向の少なくとも何れかを特定可能な情報であればよい。また、画像処理システム10は、どの形状のインジケータを表示するかをユーザ操作に応じて切り替えてもよい。
図3に説明を戻す。インジケータ出力部307は、注視点インジケータ203を仮想視点画像に合成して仮想視点指定装置105へ出力する。インジケータ出力部307は、合成部308と出力部309を有する。
合成部308は、画像生成部303により生成された仮想視点画像に、インジケータ生成部304により生成された注視点インジケータ203を合成する。例えば、合成部308は、仮想カメラの位置、姿勢、画角、画素数から求まる透視投影行列を使い、注視点インジケータ203を仮想視点画像に投影して合成する。
出力部309は、合成部308により注視点インジケータ203が合成された仮想視点画像を、仮想視点指定装置105へ出力する。これにより、仮想視点指定装置105の表示部201には、注視点インジケータ203が合成された仮想視点画像が表示されることになる。すなわち、出力部309は、注視点インジケータ203を表示部201に表示させるための制御を行う。
図6(a)と図6(b)は、注視点インジケータ203が合成された仮想視点画像の表示例を示した図である。図6(a)は、前述した図5(e)に例示した注視点インジケータ203及び第1,第2の境界線502,503が合成された仮想視点画像の表示例である。図6(b)は、前述した図5(f)に例示した注視点インジケータ203及び第1,第2の境界線502,503が合成された仮想視点画像の表示例である。これら図6(a)と図6(b)の例では、サッカーフィールドの背景と選手やボールなどの前景602を含む仮想視点画像に、注視点インジケータ203及び第1,第2の境界線502,503が合成されている。境界線502の内側に位置する前景602の画像は高画質に生成され、境界線502と境界線503の間に位置する前景602の画像は中画質で生成され、境界線503の外側に位置する前景602の画像は低画質で生成される。また図6(a)と図6(b)の仮想視点画像には仮想カメラの注視点601(仮想視点画像の画像中心)も合成されている。図6(a)と図6(b)に例示した注視点インジケータ203及び第1,第2の境界線502,503の場合、画質が低くなることを表す第2の境界線503が左側方向に広がっている。このため、図6(a)と図6(b)の表示例の場合、操作者は、仮想カメラをこれ以上左方向にパンニング(注視点601を左方向に移動)させると、図6(a)及び図6(b)における右端の前景602が第2の境界線503の外側へ移動してしまい、画質が劣化することを事前に知ることができる。また例えば、図6(b)の表示例の場合、操作者は、反対側(サッカーフィールドの北半周側)から仮想視点画像を生成できないことを事前に知ることができる。さらにこれら図6(a)と図6(b)の表示例の場合、仮想カメラの注視点601も合成表示されているため、操作者は、物理カメラの向きと仮想カメラの向きとの関係を知ることをできる。
なお図3の機能構成では、注視点インジケータ203を仮想視点画像に合成して仮想視点指定装置105へ出力する例を挙げたが、注視点インジケータ203を仮想視点画像に合成せず、別々に仮想視点指定装置105へ出力してもよい。この例の場合、仮想視点指定装置105は、撮影領域(サッカースタジアムなど)を俯瞰的に見た俯瞰画像を例えばワイヤーフレーム法などを用いて生成し、その俯瞰画像に注視点インジケータ203を合成して表示してもよい。さらに、仮想視点指定装置105は俯瞰画像に仮想カメラを合成してもよく、この場合、操作者は、仮想カメラと注視点インジケータ203の位置関係を知ることができる。つまり、操作者は、撮影可能な範囲、画質が高い範囲を知ることができることになる。
図7は、本実施形態にかかる情報処理装置の処理手順を示したフローチャートである。図7のフローチャートは、図3に示した機能構成において前述したように注視点インジケータを生成して仮想視点画像に合成して出力するまでの処理の流れを示している。なお、以下の説明では、図7のフローチャートの各処理ステップS701〜ステップS718をS701〜S718と略記する。図7のフローチャートの処理は、ソフトウェア構成またはハードウェア構成により実行されてもよいし、一部がソフトウェア構成で残りがハードウェア構成により実現されてもよい。ソフトウェア構成により処理が実行される場合、例えばROM113等に記憶されている本実施形態に係るプログラムをCPU111等が実行することにより実現される。本実施形態に係るプログラムは、ROM113等に予め用意されていてもよく、また着脱可能な半導体メモリ等から読み出されたり、不図示のインターネット等のネットワークからダウンロードされたりしてもよい。これらのことは、後述する他のフローチャートにおいても同様であるとする。
S701において、インジケータ生成部304の表示位置計算部305は、表示位置の計算処理が未処理となっている物理カメラが有るか否かを判定する。そいて、表示位置計算部305は、未処理の物理カメラがないと判定した場合にはS705へ処理を進め、一方、未処理の物理カメラが有ると判定した場合にはS702へ処理を進める。
S702に進むと、表示位置計算部305は、未処理となっている物理カメラを1台選択した後、S703へ処理を進める。
S703に進むと、表示位置計算部305は、S702で選択した物理カメラの位置と姿勢の情報を、物理情報取得部301を介して取得した後、S704へ処理を進める。
S704に進むと、表示位置計算部305は、取得した位置と姿勢を用い、S702で選択した物理カメラの注視点の位置を計算する。そして、S704の後、インジケータ生成部304の処理は、S702に戻る。
このように、S702からS704までの処理は、S701において未処理と判定される物理カメラが無くなるまで繰り返される。
S701で未処理の物理カメラがないと判定されてS705に進んだ場合、表示位置計算部305は、物理カメラごとに計算した注視点が一定の距離内に含まれる物理カメラをまとめて注視点グループとする。そして、S705の後、表示位置計算部305は、S706へ処理を進める。
S706に進むと、表示位置計算部305は、注視点グループごとに物理カメラの注視点の中心を計算し、その位置を注視点インジケータ203の表示位置とする。S706の後、インジケータ生成部304の処理は、S707へ進む。
S707に進むと、インジケータ生成部304の形状決定部306は、注視点インジケータの形状を決定する処理が未処理となっている注視点グループが有るか否かを判定する。そして、S707において未処理の注視点グループが有ると判定した場合、形状決定部306はS708へ処理を進める。一方、S707において未処理の注視点グループがないと判定された場合には、インジケータ出力部307において行われるS711へ処理が進む。
S708に進むと、形状決定部306は、未処理となっている注視点グループを一つ選択した後、S709へ処理を進める。
S709に進むと、形状決定部306は、S708で選択した注視点グループに含まれる物理カメラの位置、姿勢、画角、画素数等の情報を、物理情報取得部301から表示位置計算部305を介して取得した後、S710へ処理を進める。
S710に進むと、形状決定部306は、取得した位置、姿勢、画角、画素数等を基に、S708で選択した注視点グループに対応した注視点インジケータ(203)の形状を決定する。そして、S710の後、インジケータ生成部304の処理は、S707に戻る。
このように、S708からS710までの処理は、S707において未処理と判定される注視点グループが無くなるまで繰り返される。これにより注視点グループごとに、それぞれ注視点インジケータが一つ形成されることになる。
S707で未処理の注視点グループがないと判定されてS711に進んだ場合、インジケータ出力部307の合成部308は、仮想カメラの位置、姿勢、画角、画素数等の情報を、仮想情報取得部302から画像生成部303を介して取得する。
次にS712において、合成部308は、S711で取得した仮想カメラの位置、姿勢、画角、画素数から透視投影行列を計算する。
さらにS713において、合成部308は、画像生成部303が生成した仮想視点画像を取得する。
次にS714において、合成部308は、仮想視点映像に合成する処理が未処理となっている注視点インジケータが有るか否かを判定する。そして、S714において未処理の注視点インジケータがないと判定された場合、インジケータ出力部307の処理は出力部309にて行われるS718の処理に進む。一方、S714において未処理の注視点インジケータが有ると判定した場合、合成部308は、S715へ処理を進める。
S715に進むと、合成部308は、未処理となっている注視点インジケータを一つ選択した後、S716へ処理を進める。
S716に進むと、合成部308は、透視投影行列を用いて、S715で選択した注視点インジケータを仮想視点画像に投影した後、S717へ処理を進める。
S717に進むと、合成部308は、S716で投影された注視点インジケータを仮想視点画像に合成する。そして、S717の後、合成部308の処理は、S714に戻る。
このように、S715からS717までの処理は、S714において未処理と判定される注視点インジケータが無くなるまで繰り返される。
S714において未処理の注視点インジケータがないと判定されてS718に進むと、出力部309は、注視点インジケータが合成された仮想視点画像を、仮想視点指定装置105へ出力する。
<前景インジケータの生成と仮想視点画像への合成処理>
図8は、本実施形態の情報処理装置のブロック図であり、主に、図1に示した画像処理システム10のバックエンドサーバ104において前景インジケータを生成して仮想視点画像に合成するための機能構成を示した図である。
図8において、物理情報取得部301、仮想情報取得部302、画像生成部303は、図3で説明した機能部と同じであるため、それらの説明は省略する。図8において、図3とは異なる機能部は、インジケータ生成部304とインジケータ出力部307である。
図8のインジケータ生成部304は、物理カメラに関する情報に応じた各種インジケータの一つとして、図2に例示した前景インジケータ204を生成する。このため、インジケータ生成部304は、条件決定部801、前景サイズ計算部802、インジケータサイズ計算部803を有して構成されている。
条件決定部801は、前景インジケータ(204)の基になる前景が満たすべき前景条件を決定する。ここで、前景条件とは前景の位置とサイズである。前景の位置は、仮想視点画像を生成する際の注目点を考慮して決定する。サッカーの試合の仮想視点画像を生成する場合、前景の位置としては、例えばゴール前やタッチライン沿い、サッカーフィールドの中心などを挙げることができる。また例えば、子供のバレエ公演の仮想視点画像を生成する場合の前景の位置としては、舞台の中心などが挙げられる。また、物理カメラの注視点を注目点に合わせることがあるため、物理カメラの注視点を前景の位置と決定してもよい。前景のサイズは、仮想視点画像を生成する対象の前景の大きさを考慮して決定する。ここでサイズの単位はcmなどの物理単位である。例えばサッカーの試合の仮想視点画像を生成する場合、選手の身長の平均を前景のサイズとする。また子供のバレエ公演の仮想視点画像を生成する場合、子供の身長の平均を前景のサイズとする。具体的な前景条件の例としては、「注視点の位置に立っている身長180cmの選手」、「舞台の最前列に立っている身長120cmの子供」などを挙げることができる。
前景サイズ計算部802は、前景条件を満たす前景が、それぞれの物理カメラにて撮影された際の大きさ(撮影前景サイズ)を計算する。ここで、前景サイズの単位は画素数とする。例えば、前景サイズ計算部802は、身長180cmの選手が物理カメラの撮影画像中の何画素になるかを計算する。物理情報取得部301によって物理カメラの位置、姿勢が取得されており、また条件決定部801により前景の位置の条件がわかっているので、前景サイズ計算部802は、透視投影行列を用いて間接的に撮影前景サイズを計算することができる。また、前景サイズ計算部802は、実際に前景条件を満たす前景を撮影範囲に配置し、物理カメラの撮影画像から直接撮影前景サイズを求めてもよい。
インジケータサイズ計算部803は、仮想視点に応じて、撮影前景サイズから前景インジケータのサイズを計算する。ここでサイズの単位は画素数である。例えば、インジケータサイズ計算部803は、計算した撮影前景サイズと仮想カメラの位置、姿勢を用いて前景インジケータのサイズを計算する。このとき、インジケータサイズ計算部803は、先ず、仮想カメラの位置、姿勢に近い物理カメラを選択する。物理カメラの選択の際には、最も近い1台を選択してもよいし、仮想カメラからある範囲内にある物理カメラを複数選択してもよいし、全ての物理カメラを選択してもよい。そして、インジケータサイズ計算部803は、選択した物理カメラの撮影前景サイズの平均を、前景インジケータのサイズとする。
図8のインジケータ出力部307は、生成した前景インジケータを仮想視点指定装置105へ出力する。本実施例のインジケータ出力部307は、合成部804と出力部805とを有して構成される。
合成部804は、インジケータ生成部304により生成された前景インジケータを、画像生成部303により生成された仮想視点画像に合成する。前景インジケータを合成する位置は、例えば、仮想視点画像の邪魔にならないように左端とする。
出力部805は、前景インジケータが合成された仮想視点画像を仮想視点指定装置105へ出力する。仮想視点指定装置105は、前景インジケータが合成された仮想視点画像を取得し、表示部201に表示する。
図9(a)と図9(b)は、前景インジケータ204が合成された仮想視点画像の表示例の説明に用いる図であり、物理カメラにより撮影された前景のサイズと、前景インジケータ204のサイズとの関係を示した図である。ここで、物理カメラの画素数が例えばいわゆる8K(7680画素×4320画素)であるとする。一方、仮想カメラの画素数はいわゆる2K(1920画素×1080画素)であるとする。つまり、複数の物理カメラが撮影する8Kの撮影画像から、2Kの仮想視点画像が生成されるとする。また、前景条件は「注視点に立っている身長180cmの選手」とする。そして、図9(a)は、前景条件を満たす前景901を物理カメラで撮影した撮影画像の例であるとし、その撮影画像中の前景901の撮影前景サイズは395画素であるとする。なお、395画素は縦方向のサイズであるとし、ここでは縦方向のサイズのみ考慮し、横方向のサイズについては説明を省略する。図9(b)は、サッカーフィールドの背景と選手やボールなどの前景602を含む仮想視点画像に前景インジケータ204が合成された例を示している。前景インジケータ204のサイズは、撮影前景サイズと同じ395画素である。つまり前景インジケータ204のサイズは、撮影前景サイズと同じ395画素であるが、物理カメラと仮想カメラの画素数の異なりにより、画面上で占める比率が異なる。
ここで、仮想視点画像において、前景602のサイズを大きくし過ぎると、画質が劣化することになる。前景インジケータ204は、仮想視点画像において、画質を落とすことなく、どのくらい大きく前景を映せるかの目安となる。前景インジケータ204よりも前景602を大きくすると、画素が足りなくなり、いわゆるデジタルズームと同様の画質劣化が生じる。つまり、前景インジケータ204を表示することで、操作者は、画質を保ったまま前景を大きくできる範囲を知ることができることになる。
また、画像処理システム10においては、それぞれ異なる設定の物理カメラが配置されることがある。例えば画角の異なる物理カメラが配置されている場合、画角が大きい(焦点距離が短い)物理カメラは撮影範囲が広いため、それに応じて仮想視点画像の生成範囲も広げられることになる。しかし、画角が大きい物理カメラで撮影された前景の撮影前景サイズは小さくなる。一方、画角が小さい(焦点距離の長い)物理カメラは撮影範囲が狭いが、撮影前景サイズは大きくなる。図8の構成の場合、インジケータサイズ計算部803が、仮想カメラの位置と姿勢に近い物理カメラを選択することにより、物理カメラの設定の異なりに対応できる。例えば、画角が小さい物理カメラの近くに仮想カメラが有る場合は、前景インジケータ204のサイズが大きくなる。よって、物理カメラの設定に応じて、操作者は、画質を落とすことなく適切に前景を大きくする範囲を知ることができることになる。
なお、前景インジケータ204のサイズを計算する前に、撮影前景サイズに係数を掛けて調整してもよい。この例の場合、係数を1.0より大きくすると、前景インジケータ204のサイズが大きくなる。例えば、撮影条件が良い時など仮想視点画像の画質に問題が無い場合に、係数を1.0より大きくすると、より前景602が大きく迫力のある仮想視点画像を生成できるようになる。逆に、係数を1.0より小さくすると、前景インジケータ204のサイズが小さくなる。例えば、撮影条件が不十分な時など仮想視点画像の画質に低下がみられる場合に、係数を1.0より小さくし、前景602のサイズを小さくすることで、仮想視点画像の画質の低下を防ぐことができるようになる。
なお図8の機能構成では、前景インジケータ204を仮想視点画像に合成して仮想視点指定装置105へ出力する例を挙げたが、前景インジケータ204を仮想視点画像に合成せず、別々に仮想視点指定装置105へ出力してもよい。その際、仮想視点指定装置105は、取得した前景インジケータ204を、例えばGUI用の表示部202に表示してもよい。
図10は、本実施形態にかかる情報処理装置の処理手順を示したフローチャートであり、図8に示した機能構成において前景インジケータを生成して仮想視点画像に合成して出力するまでの処理の流れを示している。
図10のS1001において、インジケータ生成部304の条件決定部801は、前景インジケータ(204)の基になる前景が満たすべき前景条件を決定する。例えば、前述したように「注視点に立っている身長180cmの選手」等の前景条件を決定する。
次にS1002において、前景サイズ計算部802は、前景サイズの計算処理が未処理となっている物理カメラが有るか否かを判定する。そして、未処理の物理カメラがないと判定した場合には後述するS1007へ処理を進め、一方、未処理の物理カメラが有ると判定した場合にはS1003へ処理を進める。
S1003に進むと、前景サイズ計算部802は、未処理となっている物理カメラを1台選択した後、S1004へ処理を進める。
S1004に進むと、前景サイズ計算部802は、S1003で選択した物理カメラの位置、姿勢、画角、画素数等の情報を、物理情報取得部301を介して取得した後、S1005へ処理を進める。
S1005に進むと、前景サイズ計算部802は、取得した位置、姿勢、画角、画素数を用いて透視投影行列を計算した後、S1006へ処理を進める。
S1006に進むと、前景サイズ計算部802は、S1005で計算した透視投影行列を使って、S1001で決定された前景条件を満たす前景の撮影前景サイズを計算する。そして、S1006の後、前景サイズ計算部802は、S1002に処理を戻す。
このように、S1003からS1006までの処理は、S1002において未処理と判定される物理カメラが無くなるまで繰り返される。
S1002で未処理の物理カメラがないと判定されてS1007に進んだ場合、インジケータ生成部304のインジケータサイズ計算部803は、仮想情報取得部302から仮想カメラの位置と姿勢の情報を取得する。
次にS1008において、インジケータサイズ計算部803は、S1007で取得した仮想カメラの位置と姿勢に近い物理カメラを1台以上選択する。
次にS1009において、インジケータサイズ計算部803は、S1008で選択した物理カメラの前景サイズの平均値を計算し、その計算した平均値を前景インジケータ(204)のサイズとする。S1009の後は、インジケータ出力部307の合成部804で行われるS1010へ処理が進む。
S1010に進むと、合成部804は、画像生成部303から仮想視点画像を取得する。
次にS1011において、合成部804は、インジケータサイズ計算部803によりサイズが計算された前景インジケータを、画像生成部303から取得した仮想視点画像に合成する。
そして次のS1012において、出力部805は、S1011で前景インジケータが合成された仮想視点画像を、仮想視点指定装置105へ出力する。
<方位インジケータの生成と仮想視点画像への合成処理>
図11(a)は、本実施形態の情報処理装置のブロック図であり、主にバックエンドサーバ104において方位インジケータを生成して出力するための機能構成を示した図である。図11(a)において、物理情報取得部301、仮想情報取得部302は、図3で説明した機能部と同じであるため、それらの説明は省略する。図11(a)において、図3とは異なる機能部は、インジケータ生成部304とインジケータ出力部307である。
図11(a)のインジケータ生成部304は、物理カメラの方位に応じたインジケータとして、図2に例示した方位インジケータ205を生成する。このため、インジケータ生成部304は、物理方位取得部1101a、仮想方位取得部1102a、加工部1103aを有して構成されている。
物理方位取得部1101aは、物理情報取得部301が取得した物理カメラの姿勢から、物理カメラの方位(物理カメラが撮影している方向の方位)を取得する。姿勢については様々な表現方法があるが、パン角度、チルト角度、ロール角度で表現するとする。例えば回転行列など、他の方法で表現したとしても、パン角度、チルト角度、ロール角度への変換が可能である。ここでは、パン角度が物理カメラの方位である。物理方位取得部1101aは、すべての物理カメラついて方位としてのパン角度を取得する。
仮想方位取得部1102aは、仮想情報取得部302が取得した仮想カメラの姿勢から、仮想カメラの方位を取得する。仮想方位取得部1102aは、物理方位取得部1101aの場合と同様にして、仮想カメラの姿勢をパン角度、チルト角度、ロール角度の表現に変換する。この場合もパン角度が仮想カメラの方位である。
加工部1103aは、仮想カメラの方位を表した図2に例示した方位インジケータ205を、物理カメラの方位を基に加工する。物理カメラの方位に基づく加工の具体例を、図12(a)と図12(b)に示す。図12(a)は、図2に示した方位インジケータ205を示した図であり、前述した図4(b)の物理カメラの配置例に対応して加工された方位インジケータの一例を示している。図12(a)に示した方位インジケータにおいて、中心のオブジェクト1201は、仮想カメラの方位を表している。加工部1103aは、この方位インジケータに対し、図4(b)の各物理カメラのそれぞれの方位を表すオブジェクト1203を、例えば目盛1202の対応する位置に加えるような加工を施す。ここで、図4(b)に例示した5台の物理カメラのうち、例えば中央に位置する物理カメラは、サッカーフィールドの南側(S)に配置されている。一方、中央の物理カメラが向いている方位は北側(N)である。よって、加工部1103aは、中央の物理カメラに対応するオブジェクト1203については、北側(N)を向くようにする。加工部1103aは、残りの4台の物理カメラに対応したオブジェクトについても同様にして配置するように、方位インジケータを加工する。図12(b)は、加工部1103aによる方位インジケータの加工例として、図4(b)に例示した物理カメラに対応した別の加工例を示した図である。図12(b)の例の場合、目盛1202を、各物理カメラのそれぞれの方位に合わせて加工する。つまり、図12(b)の例において、目盛り1202は、それぞれの物理カメラが向いている範囲の目盛のみを示しており、物理カメラが向いていない範囲の目盛が削除されている。図12(a)と図12(b)のように方位インジケータが加工されることで、操作者は、仮想視点画像を生成可能な範囲を知ること、言い換えると物理カメラが向いていないため仮想視点画像を生成できない方向を知ることができるようになる。
図11(a)のインジケータ出力部307の出力部1104aは、インジケータ生成部304により生成された方位インジケータ(205)を、仮想視点指定装置105へ出力する。これにより、仮想視点指定装置105のGUI用の表示部202には、方位インジケータ205が表示される。
<姿勢インジケータの生成と仮想視点画像への合成処理>
図11(b)は、本実施形態の情報処理装置のブロック図であり、主にバックエンドサーバ104において姿勢インジケータを生成して出力するための機能構成を示した図である。図11(b)において、物理情報取得部301、仮想情報取得部302は、図3で説明した機能部と同じであるため、それらの説明は省略する。図11(b)において、図3とは異なる機能部は、インジケータ生成部304とインジケータ出力部307である。
図11(b)のインジケータ生成部304は、物理カメラの姿勢に応じたインジケータとして、図2に例示した姿勢インジケータ206を生成する。このため、インジケータ生成部304は、物理チルト角取得部1101b、仮想チルト角取得部1102b、加工部1103bを有して構成されている。
物理チルト角取得部1101bは、物理情報取得部301が取得した物理カメラの姿勢から、物理カメラのチルト角度を取得する。図11(a)でも説明したように、物理カメラの姿勢についてはパン角度、チルト角度、ロール角度で表現でき、ここでは物理カメラの姿勢としてチルト角度を取得する。物理チルト角取得部1101bは、すべての物理カメラの姿勢としてチルト角を取得する。
仮想チルト角取得部1102bは、仮想情報取得部302が取得した仮想カメラの姿勢から、仮想カメラの姿勢としてチルト角を取得する。仮想チルト角取得部1102bは、物理チルト角取得部1101bの場合と同様にして、仮想カメラの姿勢としてチルト角度を取得する。
加工部1103bは、仮想カメラの姿勢を表した図2に例示した姿勢インジケータ206を、物理カメラの姿勢を基に加工する。物理カメラの姿勢に基づく加工の具体例を、図12(c)に示す。図12(c)は、図2に示した姿勢インジケータ206の詳細を示した図であり、物理カメラの姿勢に応じて加工された姿勢インジケータの一例を示している。図12(c)に示した姿勢インジケータにおいて、オブジェクト1204は仮想カメラの姿勢(チルト角)を表している。加工部1103bは、この姿勢インジケータに対し、物理カメラの姿勢を表すオブジェクト1205を、例えば角度を表した目盛の対応する位置に加えるような加工を施す。図12(c)の例では、仮想カメラの姿勢を表すオブジェクト1204がチルト角[−10]を示しており、物理カメラの姿勢を表すオブジェクト1205がチルト角[−25]を示している。ここで、仮想視点画像を生成する主な目的は、物理カメラが配置されていない仮想視点から見える画像を生成することである。図12(c)に示したような姿勢インジケータを表示することにより、操作者は、物理カメラとは異なる仮想視点を知ることができるようになる。
図11(b)のインジケータ出力部307の出力部1104bは、インジケータ生成部304により生成された姿勢インジケータ(206)を、仮想視点指定装置105へ出力する。これにより、仮想視点指定装置105のGUI用の表示部202には、姿勢インジケータ206が表示される。
<高度インジケータの生成と仮想視点画像への合成処理>
図11(c)は、本実施形態の情報処理装置のブロック図であり、主にバックエンドサーバ104において高度インジケータを生成して出力するための機能構成を示した図である。図11(c)において、物理情報取得部301、仮想情報取得部302は、図3で説明した機能部と同じであるため、それらの説明は省略する。図11(c)において、図3とは異なる機能部は、インジケータ生成部304とインジケータ出力部307である。
図11(c)のインジケータ生成部304は、物理カメラの高度に応じたインジケータとして、図2に例示した高度インジケータ207を生成する。このため、インジケータ生成部304は、物理高度取得部1101c、仮想高度取得部1102c、加工部1103cを有して構成されている。
物理高度取得部1101cは、物理情報取得部301が取得した物理カメラの位置から、物理カメラが配置されている高度を取得する。物理カメラの位置は、例えば平面上の座標(x,y)および高度(z)で表現されるため、物理高度取得部1101cは、その高度(z)を取得する。物理高度取得部1101cは、すべての物理カメラの高度を取得する。
仮想高度取得部1102cは、仮想情報取得部302が取得した仮想カメラの位置から、仮想カメラの高度を取得する。仮想高度取得部1102cは、物理高度取得部1101cの場合と同様にして、仮想カメラの高度を取得する。
加工部1103cは、仮想カメラの高度を表した図2に例示した高度インジケータ207を、物理カメラの高度を基に加工する。物理カメラの高度に基づく加工の具体例を、図12(d)に示す。図12(d)は、図2に示した高度インジケータ207の詳細を示した図であり、物理カメラの高度に応じて加工された高度インジケータの一例を示している。図12(d)に示した高度インジケータにおいて、オブジェクト1206は仮想カメラの高度を表している。加工部1103cは、この高度インジケータに対し、物理カメラの高度を表すオブジェクト1207を、例えば高度を表した目盛の対応する位置に加えるような加工を施す。また、図12(d)の例に示すように、高度インジケータには、サッカーフィールド上に配置されているゴールポストや前景など撮影範囲内の重要物の高さを表すオブジェクト1208を配置してもよい。図12(d)に示したような高度インジケータを表示することにより、操作者は、物理カメラとは異なる仮想視点を知ることができるようになる。さらに、操作者は、重要物の高度についても知ることができるようになる。
図11(c)のインジケータ出力部307の出力部1104cは、インジケータ生成部304により生成された高度インジケータ(207)を、仮想視点指定装置105へ出力する。これにより、仮想視点指定装置105のGUI用の表示部202には、高度インジケータ207が表示される。
図13は、本実施形態にかかる情報処理装置の処理手順を示したフローチャートであり、前述した方位インジケータ、姿勢インジケータ、高度インジケータを生成して出力するまでの処理の流れを示している。この図13のフローチャートは、図11(a)、図11(b)、図11(c)の各機能構成において共通して用いられる。
図13のS1301において、物理方位取得部1101a、物理チルト角取得部1101b、物理高度取得部1101cは、それぞれ未処理となっている物理カメラが有るか否かを判定する。そして、未処理の物理カメラがないと判定した場合には後述するS1305へ処理を進め、一方、未処理の物理カメラが有ると判定した場合にはS1302へ処理を進める。
S1302に進むと、物理方位取得部1101a、物理チルト角取得部1101b、物理高度取得部1101cは、それぞれで未処理となっている物理カメラを1台選択した後、S1303へ処理を進める。
S1303に進むと、物理方位取得部1101aと物理チルト角取得部1101bは、それぞれS1302で選択した物理カメラの姿勢の情報を取得し、物理高度取得部1101cはS1302で選択した物理カメラの位置の情報を取得する。
次にS1304において、物理方位取得部1101aは取得した物理カメラの姿勢を基にその物理カメラの方位を求める。またS1304において、物理チルト角取得部1101bは取得した物理カメラの姿勢を基にその物理カメラのチルト角(姿勢)を求める。またS1304において、物理高度取得部1101cは取得した物理カメラの位置を基にその物理カメラの高度を求める。そして、S1304の後、インジケータ生成部304は、S1301に処理を戻す。
このように、S1302からS1304までの処理は、S1301において未処理と判定される物理カメラが無くなるまで繰り返される。
次にS1305に進んだ場合、仮想方位取得部1102aと仮想チルト角取得部1102bは、それぞれ仮想カメラの姿勢の情報を取得し、仮想高度取得部1102cは仮想カメラの位置の情報を取得する。
次にS1306において、仮想方位取得部1102aは取得した仮想カメラの姿勢を基にその仮想カメラの方位を求める。またS1306において、仮想チルト角取得部1102bは取得した仮想カメラの姿勢を基にその仮想カメラのチルト角(姿勢)を求める。またS1306において、仮想高度取得部1102cは取得した仮想カメラの位置を基にその仮想カメラの高度を求める。そして、S1306の後、インジケータ生成部304は、S1307に処理を進める。
S1307に進むと、加工部1103aは、全ての物理カメラを選択する。一方、加工部1103bは、取得した仮想カメラの位置と姿勢に近い物理カメラを一つ以上選択する。同様に、加工部1103cは、取得した仮想カメラの位置と姿勢に近い物理カメラを1つ以上選択する。
次にS1308に進むと、加工部1103aは、仮想カメラの方位を示す方位インジケータ205を、全ての物理カメラの方位を用いて加工する。また、加工部1103bは、仮想カメラのチルト角を示す姿勢インジケータ206を、選択した物理カメラのチルト角を用いて加工する。また、加工部1103cは、仮想カメラの高度を示す高度インジケータ207を、選択した物理カメラの高度を用いて加工する。
次にS1309において、出力部1104aは、加工部1103aにて加工された方位インジケータ205を仮想視点指定装置105へ出力する。また、出力部1104bは、加工部1103bにて加工された姿勢インジケータ206を仮想視点指定装置105へ出力する。また、出力部1104cは、加工部1103cにて加工された高度インジケータ207を仮想視点指定装置105へ出力する。
なお、バックエンドサーバ104は、前述した図3、図8、図11(a)、図11(b)、図11(c)の全ての機能構成を有していてもよいし、それらのいずれか、またはそれらの組み合わせを有していてもよい。また、バックエンドサーバ104は、図3、図8、図11(a)、図11(b)、図11(c)の各機能構成に係る処理を同時に行ってもよいし、それぞれを独立して行ってもよい。
以上説明したように、本実施形態の情報処理装置によれば、仮想視点画像の画質が低くなる仮想カメラの操作をユーザ(操作者)が事前に知ることができる。
なお、本実施形態では、仮想視点画像の画質に関する情報として各種インジケータを生成して表示する例を挙げたが、仮想視点音声の音質に関する情報として各種のインジケータを生成して表示してもよい。この場合、バックエンドサーバ104は、各センサシステム101が有する物理マイクの位置、姿勢、集音方向、集音範囲などの情報を取得し、それらの情報を基に、物理マイクの位置、集音方向などに応じた音質に関する各種のインジケータ情報を生成する。そしてそれら音質に関する各種のインジケータは例えば表示される。ここで物理マイクの位置、集音方向、集音範囲の情報は、実際に配置されている各物理マイクの配置位置、集音方向、集音範囲を表す情報である。本実施形態の情報処理装置によれば、仮想視点音声の音質が低くなる仮想マイクの操作をユーザ(操作者)が事前に知ることができる。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
10:画像処理システム、101:センサシステム、102:フロントエンドサーバ、103:データベース、104:バックエンドサーバ、105:仮想視点指定装置、106:配信装置

Claims (16)

  1. 仮想視点を指定する指定手段と、
    前記指定手段により指定される仮想視点と、複数のカメラが撮影した撮影画像に基づいて生成される仮想視点画像であって当該仮想視点に対応する仮想視点画像の画質との関係に関する情報を、表示部に表示させる表示制御手段と、
    を有することを特徴とする情報処理装置。
  2. 前記複数のカメラが撮影した撮影画像と前記指定された仮想視点とに基づいて、前記仮想視点画像を生成する画像生成手段を有することを特徴とする請求項1に記載の情報処理装置。
  3. 前記表示制御手段は、前記仮想視点画像に前記情報を合成して表示させることを特徴とする請求項2に記載の情報処理装置。
  4. 前記仮想視点と仮想視点画像の画質との関係に関する情報を表すインジケータを生成する生成手段を有し、
    前記表示制御手段は前記インジケータを表示させることを特徴とする請求項1から3のいずれか1項に記載の情報処理装置。
  5. 前記生成手段は、前記仮想視点と仮想視点画像の画質との関係に関する情報として、前記カメラの配置と設定の少なくともいずれかに関する情報を表す、前記インジケータを生成することを特徴とする請求項4に記載の情報処理装置。
  6. 前記生成手段は、前記カメラの配置と設定の少なくともいずれかの情報を基に、前記カメラの注視点を表す注視点インジケータを生成することを特徴とする請求項5に記載の情報処理装置。
  7. 前記生成手段は、
    前記カメラの配置と設定の情報を基に前記注視点インジケータの表示位置を決定し、
    前記表示される注視点インジケータの形状を、前記カメラの配置と設定の少なくともいずれかを表した形状に、決定することを特徴とする請求項6に記載の情報処理装置。
  8. 前記生成手段は、複数の複数のカメラの配置と設定の情報に基づいて前記複数のカメラの注視点をグループに分け、前記注視点のグループごとに前記注視点インジケータの表示位置を決定することを特徴とする請求項7に記載の情報処理装置。
  9. 前記生成手段は、前記注視点インジケータの表示位置を基に、画質が変化する境界を表す境界線を決定し、
    前記表示制御手段は、前記注視点インジケータと共に前記境界線を表示させることを特徴とする請求項7または8に記載の情報処理装置。
  10. 前記生成手段は、前記仮想視点画像に含まれる前景の画質の目安を表す前景インジケータを生成することを特徴とする請求項4に記載の情報処理装置。
  11. 前記生成手段は、
    前記前景が満たすべき前景条件を取得し、
    前記前景条件を満たした前景が前記カメラにて撮影された場合の撮影画像に対する当該前景のサイズと、前記指定された仮想視点とに基づいて、表示される前景インジケータのサイズを決定することを特徴とする請求項10に記載の情報処理装置。
  12. 前記生成手段は、前記仮想視点について指定された方位を表す方位インジケータを生成し、前記方位インジケータを前記カメラの方位の情報を基に加工し、
    前記表示制御手段は前記加工された前記方位インジケータを表示させることを特徴とする請求項4から11のいずれか1項に記載の情報処理装置。
  13. 前記生成手段は、前記仮想視点について指定された姿勢を表す姿勢インジケータを生成し、前記姿勢インジケータを前記カメラの姿勢の情報を基に加工し、
    前記表示制御手段は前記加工された前記姿勢インジケータを表示させることを特徴とする請求項4から12のいずれか1項に記載の情報処理装置。
  14. 前記生成手段は、前記仮想視点について指定された高度を表す高度インジケータを生成し、前記高度インジケータを前記カメラの高度の情報を基に加工し、
    前記表示制御手段は前記加工された前記高度インジケータを表示させることを特徴とする請求項4から13のいずれか1項に記載の情報処理装置。
  15. 仮想視点を指定する指定工程と、
    前記指定手段により指定される仮想視点と、複数のカメラが撮影した撮影画像に基づいて生成される仮想視点画像であって当該仮想視点に対応する仮想視点画像の画質との関係に関する情報を、表示部に表示させる表示制御工程と、
    を有することを特徴とする情報処理方法。
  16. コンピュータを、請求項1から14のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2018090367A 2018-05-09 2018-05-09 情報処理装置、情報処理方法、及びプログラム Active JP7091133B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018090367A JP7091133B2 (ja) 2018-05-09 2018-05-09 情報処理装置、情報処理方法、及びプログラム
US16/399,158 US20190349531A1 (en) 2018-05-09 2019-04-30 Information processing apparatus, information processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018090367A JP7091133B2 (ja) 2018-05-09 2018-05-09 情報処理装置、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2019197348A true JP2019197348A (ja) 2019-11-14
JP7091133B2 JP7091133B2 (ja) 2022-06-27

Family

ID=68463396

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018090367A Active JP7091133B2 (ja) 2018-05-09 2018-05-09 情報処理装置、情報処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US20190349531A1 (ja)
JP (1) JP7091133B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022024593A1 (ja) * 2020-07-31 2022-02-03 富士フイルム株式会社 情報処理装置、情報処理方法、プログラム、及び情報処理システム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9332285B1 (en) * 2014-05-28 2016-05-03 Lucasfilm Entertainment Company Ltd. Switching modes of a media content item
CN116171573A (zh) * 2020-07-21 2023-05-26 索尼集团公司 信息处理设备、信息处理方法和程序
JP7324251B2 (ja) * 2021-07-09 2023-08-09 キヤノン株式会社 情報処理装置および情報処理方法、映像表示システム、プログラム
JP2023131566A (ja) * 2022-03-09 2023-09-22 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007195091A (ja) * 2006-01-23 2007-08-02 Sharp Corp 合成映像生成システム
JP2017211827A (ja) * 2016-05-25 2017-11-30 キヤノン株式会社 情報処理装置、制御方法、及び、プログラム
JP6407460B1 (ja) * 2018-02-16 2018-10-17 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2019095936A (ja) * 2017-11-20 2019-06-20 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009237680A (ja) * 2008-03-26 2009-10-15 Namco Bandai Games Inc プログラム、情報記憶媒体および画像生成システム
KR101572892B1 (ko) * 2010-05-06 2015-11-30 엘지전자 주식회사 이동 단말기 및 이것의 영상 디스플레이 방법
JP6473577B2 (ja) * 2014-05-21 2019-02-20 任天堂株式会社 情報処理システム、情報処理方法、及び情報処理プログラム
US10762688B2 (en) * 2016-02-17 2020-09-01 Sony Corporation Information processing apparatus, information processing system, and information processing method
US20190356936A9 (en) * 2016-03-16 2019-11-21 Adcor Magnet Systems, Llc System for georeferenced, geo-oriented realtime video streams

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007195091A (ja) * 2006-01-23 2007-08-02 Sharp Corp 合成映像生成システム
JP2017211827A (ja) * 2016-05-25 2017-11-30 キヤノン株式会社 情報処理装置、制御方法、及び、プログラム
JP2019095936A (ja) * 2017-11-20 2019-06-20 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP6407460B1 (ja) * 2018-02-16 2018-10-17 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022024593A1 (ja) * 2020-07-31 2022-02-03 富士フイルム株式会社 情報処理装置、情報処理方法、プログラム、及び情報処理システム

Also Published As

Publication number Publication date
US20190349531A1 (en) 2019-11-14
JP7091133B2 (ja) 2022-06-27

Similar Documents

Publication Publication Date Title
US11750792B2 (en) Information processing apparatus, image generation method, control method, and storage medium
JP7091133B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US11689706B2 (en) Method for generating virtual viewpoint image and image processing apparatus
JP7121470B2 (ja) 画像処理システム、制御方法、及び、プログラム
CA3025478C (en) Control device, control method, and storage medium
EP3466062B1 (en) Control device and method for generating a virtual image from a camera array with default parameters associated to the selected type of sport event
US11012674B2 (en) Information processing apparatus, image generation method, control method, and program
JP7042571B2 (ja) 画像処理装置およびその制御方法、プログラム
JP2019134428A (ja) 制御装置、制御方法、及び、プログラム
JP2023163182A (ja) 情報処理装置、情報処理方法、及びプログラム
JP7297969B2 (ja) 情報処理装置、プログラム、生成方法、及び、システム
JP2019050593A (ja) 画像処理システム、画像処理装置、制御方法、及び、プログラム
JP2023075859A (ja) 情報処理装置、情報処理方法、及び、プログラム
JP2019075740A (ja) 画像処理システム、画像処理装置、画像伝送方法、及び、プログラム
JP7204789B2 (ja) 制御装置、制御方法、及び、プログラム
JP2019102940A (ja) 仮想視点コンテンツ生成システム、音声処理装置、仮想視点コンテンツ生成システムの制御方法、及びプログラム
CN113938580B (zh) 信息处理设备及其控制方法和计算机可读存储介质
CN113938579B (zh) 信息处理设备及其控制方法和计算机可读存储介质
JP2023075860A (ja) 情報処理装置、情報処理方法、及び、プログラム
JP2020024687A (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP2019096926A (ja) 画像処理装置、画像処理方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210507

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220615

R151 Written notification of patent or utility model registration

Ref document number: 7091133

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151