JP2021022135A - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2021022135A
JP2021022135A JP2019138006A JP2019138006A JP2021022135A JP 2021022135 A JP2021022135 A JP 2021022135A JP 2019138006 A JP2019138006 A JP 2019138006A JP 2019138006 A JP2019138006 A JP 2019138006A JP 2021022135 A JP2021022135 A JP 2021022135A
Authority
JP
Japan
Prior art keywords
viewpoint
virtual viewpoint
image
information
update interval
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019138006A
Other languages
English (en)
Other versions
JP7418101B2 (ja
Inventor
伊藤 達哉
Tatsuya Ito
達哉 伊藤
零 石川
Rei Ishikawa
零 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019138006A priority Critical patent/JP7418101B2/ja
Priority to KR1020200088019A priority patent/KR102563512B1/ko
Priority to EP20187410.4A priority patent/EP3771199A1/en
Priority to US16/937,372 priority patent/US11350076B2/en
Priority to CN202010730177.2A priority patent/CN112312114B/zh
Publication of JP2021022135A publication Critical patent/JP2021022135A/ja
Application granted granted Critical
Publication of JP7418101B2 publication Critical patent/JP7418101B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234381Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the temporal resolution, e.g. decreasing the frame rate by frame skipping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2228Video assist systems used in motion picture production, e.g. video cameras connected to viewfinders of motion picture cameras or related video signal processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2625Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect
    • H04N5/2627Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect for providing spin image effect, 3D stop motion effect or temporal freeze effect
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0085Motion estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

【課題】 仮想視点画像においてオブジェクトの不自然な動きが生じることを抑制する。【解決手段】 情報処理装置103は、オブジェクトを複数の方向から撮像する複数の撮像装置による撮像に基づく複数視点画像を用いて生成される仮想視点画像の生成に係る仮想視点の位置及び向きを示す視点情報を生成する。ここで、情報処理装置103は、所定の条件が満たされるか否かに応じて、仮想視点画像の生成に係る仮想視点の位置及び向きの更新間隔を、仮想視点画像のフレーム更新間隔よりも長い間隔に決定し、決定された更新間隔に応じた視点情報を生成する。【選択図】 図4

Description

本発明は、仮想視点画像を生成するための技術に関する。
複数の撮像装置を異なる位置に配置して同期撮像し、当該撮像により得られた複数の撮像画像を用いて、視点を任意に変更可能な仮想視点画像を生成する技術がある。具体的には、複数の撮像画像に基づいて、撮像画像に含まれるオブジェクトの3次元形状データを生成し、仮想視点の位置及び向きに基づくレンダリング処理を行うことにより、仮想視点画像が生成される。
特許文献1には、スローモーションの仮想視点画像や、撮像時刻の進行が停止した状態で視点が変化する仮想視点画像など、変速の仮想視点画像を生成することが記載されている。
特許第6482498号
上記のような変速の仮想視点画像を生成するために、仮想視点画像の動画を構成する複数のフレームの画像を、同一時点の撮像画像に基づいて生成することが考えられる。例えば、60fps(フレーム/秒)で再生される仮想視点画像の動画を生成する場合に、60fpsで撮像された撮像画像の各フレームから仮想視点画像を2フレームずつ生成することにより、1/2倍速のスローモーションの仮想視点画像が生成される。
しかしながら、このような仮想視点画像を生成する場合に、仮想視点画像内でのオブジェクトの動きが不自然になる虞がある。例えば、スローモーションの仮想視点画像において、撮像領域内でのオブジェクトの位置が2フレームごとに変化するのに対し、仮想視点の位置が1フレームごとに変化した場合、仮想視点画像内でのオブジェクトの動きに不自然なぶれやカクつきが生じうる。このような課題は、スローモーションの仮想視点画像を生成する場合に限らず、仮想視点画像のフレームレートより撮像画像のフレームレートが小さい場合などにも生じうる。
本発明は上記の課題に鑑み、仮想視点画像においてオブジェクトの不自然な動きが生じることを抑制することを目的とする。
上記の課題を解決するため、本発明に係る情報処理装置は、例えば以下の構成を有する。すなわち、オブジェクトを複数の方向から撮像する複数の撮像装置による撮像に基づく複数視点画像を用いて生成される仮想視点画像に対応する仮想視点の位置及び向きを示す視点情報を生成する情報処理装置であって、仮想視点の動画を構成するフレームの画像として前記仮想視点画像を所定のフレーム更新間隔で更新することで再生される前記動画を生成するための前記複数視点画像のフレーム情報であって、前記複数視点画像を取得するための前記複数の撮像装置による撮像に係るそれぞれ異なる撮像時刻に対応する複数のフレームに関するフレーム情報を取得する情報取得手段と、所定の再生期間の前記動画を構成する前記仮想視点画像のフレーム数よりも少ないフレーム数の前記複数視点画像を用いて生成される前記動画の生成に係る前記視点情報として、仮想視点の位置及び向きの更新間隔が前記動画のフレーム更新間隔よりも長い視点情報を、前記情報取得手段により取得された前記フレーム情報に基づいて生成する生成手段とを有する。
本発明によれば、仮想視点画像においてオブジェクトの不自然な動きが生じることを抑制できる。
画像処理システムのハードウェア構成例を示す図である。 画像処理システムの機能構成例を示す図である。 情報処理装置の動作の例を示すフローチャートである。 仮想視点の更新間隔の決定方法の一例を示すフローチャートである。 仮想視点の更新間隔の決定方法の一例を示すフローチャートである。 仮想視点の更新間隔の制御により得られる効果を示す図である。 仮想視点の更新間隔の制御の一例を示す図である。 仮想視点の更新間隔の制御の一例を示す図である。 仮想視点の更新間隔の制御の一例を示す図である。
[システム構成]
以下、図面を参照しながら本発明の実施形態について説明する。図1(a)は、画像処理システム10の構成例を示す。画像処理システム10は、複数の撮像装置による撮像に基づく複数の画像(複数視点画像)と、指定された仮想視点とに基づいて、指定された仮想視点からの見えを表す仮想視点画像を生成するシステムである。本実施形態における仮想視点画像は、自由視点映像とも呼ばれるものであるが、ユーザが自由に(任意に)指定した視点に対応する画像に限定されず、例えば複数の候補からユーザが選択した視点に対応する画像なども仮想視点画像に含まれる。また、本実施形態では仮想視点の指定がユーザ操作により行われる場合を中心に説明するが、仮想視点の指定が画像解析の結果等に基づいて自動で行われてもよい。画像処理システム10は、動画を構成するフレームの画像として静止画の前記仮想視点画像を所定のフレーム更新間隔で更新することで再生される、仮想視点の動画を生成する。以降の説明に於いては、特に断りがない限り、画像という文言が動画と静止画の両方の概念を含むものとして説明する。
画像処理システム10は、撮像システム101、画像生成装置102、及び情報処理装置103を有する。撮像システム101は、撮像領域内の被写体(オブジェクト)を複数の方向から撮像する複数の撮像装置を有する。撮像領域は、例えばサッカーや空手などの競技が行われる競技場、もしくはコンサートや演劇が行われる舞台などである。複数の撮像装置は、このような撮像領域を取り囲むようにそれぞれ異なる位置に設置され、同期して撮像を行う。なお、複数の撮像装置は撮像領域の全周にわたって設置されていなくてもよく、設置場所の制限等によっては撮像領域の周囲の一部にのみ設置されていてもよい。撮像装置の数は限定されないが、例えば撮像領域をサッカーの競技場とする場合には、競技場の周囲に30台程度の撮像装置が設置される。また、望遠カメラと広角カメラなど機能が異なる撮像装置が設置されていてもよい。撮像システム101は、複数の撮像装置による撮像に基づく複数視点画像を、画像生成装置102へ出力する。
画像生成装置102は、撮像システム101から取得した複数視点画像と、情報処理装置103から取得した視点情報とに基づいて、仮想視点画像を生成する。仮想視点画像は、例えば以下のような方法で生成される。まず、複数の撮像装置によりそれぞれ異なる方向から撮像することで得られた複数視点画像から、人物やボールなどの所定のオブジェクトに対応する前景領域を抽出した前景画像と、前景領域以外の背景領域を抽出した背景画像が取得される。また、所定のオブジェクトの三次元形状を表す前景モデルと前景モデルに色付けするためのテクスチャデータとが前景画像に基づいて生成され、競技場などの背景の三次元形状を表す背景モデルに色づけするためのテクスチャデータが背景画像に基づいて生成される。そして、前景モデルと背景モデルに対してテクスチャデータをマッピングし、視点情報が示す仮想視点に応じてレンダリングを行うことにより、仮想視点画像が生成される。ただし、仮想視点画像の生成方法はこれに限定されず、三次元モデルを用いずに撮像画像の射影変換により仮想視点画像を生成する方法など、種々の方法を用いることができる。
仮想視点画像の生成に用いられる視点情報は、仮想視点の位置及び向きを示す情報である。具体的には、視点情報は、仮想視点の三次元位置を表すパラメータと、パン、チルト、及びロール方向における仮想視点の向きを表すパラメータとを含む、パラメータセットを有する。また、視点情報は複数の時点にそれぞれ対応する複数のパラメータセットを有する。例えば、視点情報は、仮想視点画像の動画を構成する複数のフレームにそれぞれ対応する複数のパラメータセットを有し、連続する複数の時点それぞれにおける仮想視点の位置及び向きを示す。なお、視点情報の内容は上記に限定されない。例えば、視点情報としてのパラメータセットには、仮想視点の視野の大きさ(画角)を表すパラメータや、時刻を表すパラメータが含まれてもよい。
なお、本実施形態の説明においては、仮想カメラという用語を用いる。仮想カメラとは、撮像領域の周囲に実際に設置された複数の撮像装置とは異なる仮想的なカメラであって、仮想視点画像の生成に係る仮想視点を便宜的に説明するための概念である。すなわち、仮想視点画像は、撮像領域に関連付けられる仮想空間内に設定された仮想視点から撮像した画像であるとみなすことができる。そして、仮想的な当該撮像における視点の位置及び向きは仮想カメラの位置及び向きとして表すことができる。言い換えれば、仮想視点画像は、空間内に設定された仮想視点の位置にカメラが存在するものと仮定した場合に、そのカメラにより得られる撮像画像を模擬した画像であると言える。また本実施形態では、経時的な仮想視点の変遷の内容を、仮想カメラパスと表記する。ただし、本実施形態の構成を実現するために仮想カメラの概念を用いることは必須ではない。すなわち、少なくとも空間内における特定の位置を表す情報と向きを表す情報とが設定され、設定された情報に応じて仮想視点画像が生成されればよい。
画像生成装置102は、撮像システム101から取得した複数視点画像に基づいて順次仮想視点画像を生成することで、ライブ仮想視点画像を生成することができる。なお、画像処理システム10が生成するライブ仮想視点画像は、撮像システム101および画像生成装置102での処理遅延の影響により、現在時刻よりも所定時間前の撮像領域の状況を表す画像となる。また、画像生成装置102は、撮像システム101から取得した複数視点画像を記憶部に記憶しておくことで、過去の任意時点の撮像領域の状況を表す仮想視点画像(リプレイ仮想視点画像)を生成することもできる。
画像生成装置102により生成された仮想視点画像は、情報処理装置103へ出力され、情報処理装置103が有する表示部118に表示される。ただし、仮想視点画像の出力先はこれに限定されない。例えば、生成された仮想視点画像は、情報処理装置103とは別の表示装置(不図示)に出力されてもよいし、画像生成装置102が有する記憶部又は外部の記憶装置(不図示)へ出力されてもよい。また、画像生成装置102は、ライブ仮想視点画像とリプレイ仮想視点画像をそれぞれ異なる出力先へ出力してもよい。また、画像処理システム10が複数の情報処理装置103を有し、それぞれの情報処理装置103が画像生成装置102と接続して通信を行ってもよい。
[ハードウェア構成]
図1(b)は、情報処理装置103のハードウェア構成例を示す。なお、画像生成装置102のハードウェア構成も、以下で説明する情報処理装置103の構成と同様である。情報処理装置103は、CPU111、RAM112、ROM113、通信部114、及び入出力部115を有する。
CPU111は、RAM112やROM113に格納されているコンピュータプログラムやデータを用いて情報処理装置103の全体を制御する。なお、情報処理装置103がCPU111とは異なる1又は複数の専用のハードウェアを有し、CPU111による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、GPU(グラフィックスプロセッシングユニット)、およびDSP(デジタルシグナルプロセッサ)などがある。RAM112は、ROM113から読みだされたコンピュータプログラムや計算の途中結果、及び通信部114を介して外部から供給されるデータなどを一時的に記憶する。ROM113は、変更を必要としないコンピュータプログラムやデータを保持する。
通信部114は、EthernetやUSBなどを用いた通信を行うための通信インターフェースを有し、画像生成装置102などの外部の装置との通信を行う。入出力部115は、音声の入力を受け付けるマイクや音声を出力するスピーカなどの音声入出力部116と、ジョイスティックやマウス、キーボード、及びタッチパネルなどの操作部117と、液晶ディスプレイなどの表示部118を有する。CPU111は、表示部118を制御する表示制御部、及び操作部117を制御する操作制御部として動作する。なお、本実施形態では表示部118と操作部117が情報処理装置103の内部に存在するものとするが、表示部118と操作部117の少なくとも一方が情報処理装置103の外部に別の装置として存在していてもよい。
[機能構成]
図2は、画像処理システム10の機能構成の例を示す。視点入力部201は、音声入出力部116や操作部117を介して、仮想視点を指定するための入力を受け付ける。仮想視点を指定するための入力は、例えば仮想視点を特定の方向に動かすための、ジョイスティックに対するユーザ操作に応じた入力である。なお、視点入力部201は、外部の装置から送信された視点情報や、情報処理装置103内で生成された視点情報の入力を受け付けてもよい。そして視点入力部201は、受け付けた入力に応じた仮想視点の移動方向、移動速度、回転方向、及び回転速度等に関する情報を、ぶれ判定部205、制御部207、及び視点設定部208に送信する。
情報入力部202は、音声入出力部116や操作部117を介したユーザ操作に応じた入力を受け付け、入力に応じた制御情報を、ぶれ判定部205と制御部207に送信する。情報入力部202が送信する制御情報は、例えば後述する仮想視点の更新間隔を指定する情報や、オブジェクトのぶれを示す情報である。
記憶部203は、画像生成装置102から取得した複数視点画像とその他の素材データを記憶するデータベースである。本実施形態では、仮想視点画像を生成するためのデータであって、撮像装置によって撮像された撮像画像、および該撮像画像に基づいて生成されるデータのことを、素材データと表記する。撮像画像に基づいて生成される素材データは、例えば、撮像画像から抽出した前景画像と背景画像のデータ、三次元空間におけるオブジェクトの形状を表す三次元モデルデータ、および三次元モデルに色付けするためのテクスチャデータ等である。複数視点画像も素材データの一種である。なお、記憶部203に記憶される素材データの内容は上記に限定されない。
本実施形態では、撮像システム101から送信される複数視点画像が複数の撮像装置により取得された複数の撮像画像であるものとし、記憶部203は複数視点画像に基づいて生成した各種の素材データを記憶するものとする。ただし、撮像システム101から送信される複数視点画像は、複数の撮像装置により取得された複数の撮像画像から所定のオブジェクトに対応する領域を抽出することで得られる複数の前景画像であってもよい。すなわち、撮像画像から前景画像を抽出する処理は、撮像システム101により行われてもよいし、画像生成装置102により行われてもよい。
オブジェクト情報取得部204は、記憶部203に記憶された素材データから所定のオブジェクトに関する情報を取得し、取得した情報をぶれ判定部205に送信する。ぶれ判定部205は、視点入力部201から出力される仮想視点の情報、情報入力部202から出力される制御情報、記憶部203に記憶された素材データ、及びオブジェクト情報取得部204から出力される情報の少なくともいずれかを取得する。そしてぶれ判定部205は、取得した情報を用いて、仮想視点画像においてオブジェクトにぶれが発生するかを判定し、その判定結果を制御部207に送信する。
例えばぶれ判定部205は、ぶれを抑制するための操作が行われたことを示す制御情報を取得したことに応じて、ぶれが発生すると判定してもよい。また例えば、ぶれ判定部205は、オブジェクト情報が示す3次元空間におけるオブジェクトの位置に基づいて仮想視点画像におけるオブジェクトの位置を算出し、その位置の変化に基づいてぶれの発生を判定してもよい。また例えば、ぶれ判定部205は、素材データに基づいて簡易的な仮想視点画像を生成し、仮想視点画像の各フレームにおけるオブジェクトの動きベクトルを算出することで、ぶれの発生を判定してもよい。具体的には、ぶれ判定部205は、前後のフレームと異なる方向の動きベクトルや一定以上大きさの動きベクトルが算出された場合に、オブジェクトにぶれが発生していると判定してもよい。また、ぶれ判定部205は、オブジェクト及び仮想視点の動きと、オブジェクトのぶれが発生するか否かとの対応関係を示すデータを予め記憶しておき、そのデータに基づいてぶれの発生を判定してもよい。なお、ぶれ判定部205によるぶれの発生有無の判定方法は上記の例に限定されない。
フレーム情報取得部206は、記憶部203に記憶された素材データに係るフレームレート等に関する情報を取得し、その情報を制御部207に送信する。制御部207は、上述した情報処理装置103の各機能部の少なくとも何れかから取得した情報に基づいて、仮想視点画像の生成に係る仮想視点の更新間隔を決定し、その更新間隔を示す情報を視点設定部208に送信する。視点設定部208は、視点入力部201から取得した仮想視点の情報と、制御部207から取得した仮想視点の更新間隔の情報に基づいて、仮想視点の位置及び向きを示す視点情報を生成し、生成した視点情報を画像生成部209に出力する。画像生成部209は、記憶部203から取得した素材データと視点設定部208から取得した視点情報とに基づいて、仮想視点画像を生成する。
なお、画像処理システム10の構成は図2に示すものに限定されない。例えば、図2に示す情報処理装置103の構成要素の一部が、情報処理装置103と通信可能な別の装置に実装されていてもよい。また例えば、画像生成装置102と情報処理装置103とが一体となって構成されていてもよい。
[仮想視点の更新間隔の制御による効果]
ここで、図6を用いて、本実施形態における仮想視点の更新間隔の制御により得られる効果について説明する。スローモーションの仮想視点画像などを生成する場合に、仮想視点画像のフレーム更新間隔と、仮想視点画像の生成に用いられる素材データの更新間隔が異なる場合がある。例えば、仮想視点画像のフレームレートが60fpsであり、複数視点画像等の素材データのフレームレートも60fpsであるものとする。この素材データを用いて1/2倍速のスローモーションの仮想視点画像を生成する場合、1フレームの素材データから2フレームの仮想視点画像が生成されるため、1秒分の仮想視点画像の生成に用いられる素材データは30フレーム分となる。すなわち、仮想視点画像のフレームが切り替わるフレーム更新間隔は1/60秒である一方、使用される素材データが切り替わる素材データの更新間隔は1/30秒となる。このような場合に、仮想視点画像の生成に係る仮想視点の位置及び向きが更新される仮想視点の更新間隔を仮想視点画像のフレーム更新間隔に合わせると、仮想視点の更新間隔と素材データの更新間隔とが異なることになる。その結果、オブジェクトや仮想視点の動き方によっては、仮想視点画像におけるオブジェクトの位置にぶれやカクつきが生じることがある。
図6(a)は、単一のフレームの素材データから2フレームの仮想視点画像を生成することで、60fpsのスローモーションの仮想視点画像を生成する場合の例を示している。この例では、使用される素材データは1/30秒ごとに更新され、仮想視点(仮想カメラ)は1/60秒ごとに更新される。撮像システム101による撮像領域のフィールドにはボールを持って図の右向きに移動する選手Aと静止している選手Bがおり、仮想カメラCは選手Aを中心に映すように右向きに移動している。縦軸は時間であり、1行が仮想視点画像の1フレームに該当する。例えばブロック601は1フレーム目の時刻における素材データが表すオブジェクトの様子を示し、ブロック613は3フレーム目の時刻における仮想カメラの位置及び向きを示し、ブロック623は3フレーム目の仮想視点画像を示している。
1フレーム目のタイミングの選手A(601A)と選手B(601B)と仮想カメラC(611C)に応じて、ブロック621に示すように選手A(621A)が画面の中央に映る仮想視点画像が生成される。一方、2フレーム目のタイミングでは、仮想カメラの位置が更新される一方、素材データは更新されない。本来は2フレーム目のタイミングでは仮想カメラC(612C)の視界の中央に選手Aが存在するはずである。しかし素材データは1フレーム目のタイミングのもの、つまり1フレーム前の選手A(601A)を表す素材データが用いられる。そのため、ブロック622に示すように選手A(622A)が画面の中央から左方向にずれた位置に映る仮想視点画像が生成される。
仮想カメラの位置と素材データが両方更新されるフレームと、仮想カメラの位置が更新されるが素材データは更新されないフレームは交互に訪れる。そのため、図6(a)における仮想視点画像の列(621、622、623、624、625、626、627)で表されるように、選手Aが画面の中央とそこから左方向にずれた位置を1フレーム単位でぶれて(振動して)いるような映像が生成される。一方、選手Bについては、画面の右から左へと一方向に位置が遷移しているため、選手Bにぶれは生じない。
このようにオブジェクトが振動して見える現象は、図6(a)の例のようにオブジェクトと仮想カメラが並走するような状況において特にユーザに認識されやすく、生成される仮想視点画像が違和感のある映像となる。このような課題は、スローモーションの仮想視点画像を生成する場合に限らず、仮想視点画像のフレームレートより撮像システム101による撮像のフレームレートが小さい場合などにも生じうる。
一方、図6(b)は、図6(a)と同様に単一のフレームの素材データから2フレームの仮想視点画像を生成することで60fpsのスローモーションの仮想視点画像を生成するにあたって、仮想視点の更新間隔を1/30秒とした場合の例を示す。図6(a)と同様に、フィールドにはボールを持って移動する選手Aとその場で静止している選手Bがおり、仮想カメラCが選手Aを画面の中心にとらえるように選手Aと並走する。
1フレーム目のタイミングの選手A(631A)と選手B(631B)と仮想カメラC(641C)に応じて、ブロック651に示すように選手A(631A)が画面の中央に映る仮想視点画像が生成される。一方、2フレーム目のタイミングでは、仮想カメラの位置も素材データも更新されない。そのため、1フレーム前の仮想カメラC(641C)を表す視点情報と1フレーム前の選手A(631A)を表す素材データとを用いて仮想視点画像を生成され、ブロック652に示すように選手A(652A)が画面の中央に映る仮想視点画像ができる。
仮想カメラの位置と素材データが両方更新されるフレームと、仮想カメラの位置と素材データが両方更新されないフレームは交互に訪れる。そのため、生成される仮想視点画像は図6(b)に示す仮想視点画像の列(651、652、653、654、655、656、657)で表されるように、選手Aが常に画面の中央に位置し続けるような映像となり、選手Aのぶれが発生しない。選手Bについても、画面の右から左へと一方向に位置が遷移しており、選手Bにぶれは発生しない。このように、本実施形態で説明する方法により仮想視点の更新間隔を適切に制御することで、仮想視点画像におけるオブジェクトのぶれを軽減することができる。
[動作フロー]
図3は、情報処理装置103の動作の例を示すフローチャートである。図3に示す処理は、情報処理装置103のCPU111がROM113に格納されたプログラムをRAM112に展開して実行することで実現される。なお、図3に示す処理の少なくとも一部を、CPU111とは異なる1又は複数の専用のハードウェアにより実現してもよい。図3に示す処理は、画像生成装置102と情報処理装置103とが接続され、仮想視点画像の生成に係る視点の指定を行うための指示が情報処理装置103に入力されたタイミングで開始される。ただし、図3に示す処理の開始タイミングはこれに限定されない。なお、図3を用いた以下の説明においては、予め記憶部203に記憶された素材データに基づいてリプレイ仮想視点画像が生成されるものとし、図3の処理は一連の仮想カメラパスに対応する一連の仮想視点画像ごとに実行される。
S301において、視点入力部201は、音声入出力部116や操作部117を介した入力に基づいて、仮想視点の移動方向、移動速度、回転方向、及び回転速度等に関する情報を取得する。S302において、情報入力部202は、ユーザ操作等に応じた制御情報を取得する。ここで取得される制御情報は、例えば、後述する仮想視点の更新間隔を指定する情報や、オブジェクトのぶれを示す情報である。S303において、オブジェクト情報取得部204は、記憶部203に記憶された素材データに基づいて、オブジェクトの位置や動き等に関するオブジェクト情報を取得する。S304において、フレーム情報取得部206は、記憶部203に記憶された素材データに基づいて、素材データに係るフレームレート等に関するフレーム情報を取得する。
フレーム情報取得部206が取得するフレーム情報には、複数視点画像のフレームレートを示す情報が含まれる。本実施形態では、撮像システム101の撮像フレームレートと、記憶部203に記憶された複数視点画像のフレームレートと、記憶部203に記憶されたモデルデータ等の素材データのフレームレートとが一致するものとする。ただしこれに限らず、例えば、記憶部203に記憶された複数種類の素材データのフレームレートがそれぞれ異なっていてもよい。この場合にフレーム情報取得部206は、それぞれの素材データのフレームレートを示すフレーム情報を取得してもよい。なお、フレーム情報は、複数視点画像を取得するための撮像システム101による撮像に係るそれぞれ異なる撮像時刻に対応する複数のフレームに関する情報を含んでいればよく、フレーム情報の内容は上記に限定されない。例えばフレーム情報は、複数視点画像のフレーム更新間隔を示す情報であってもよいし、複数視点画像のフレーム数を示す情報であってもよいし、複数視点画像の各フレームに対応する時刻を示す情報であってもよい。
S305において、制御部207は、S301からS304の処理により取得された各種の情報に基づいて、仮想視点画像の生成に係る仮想視点の更新間隔を決定する。S305の処理の詳細については図4を用いて後述する。
なお、S301からS304の処理が実行される順番は、図3に示すものに限定されない。また、S301からS304の処理の少なくとも一部が並行して行われてもよい。また、情報処理装置103は、S301からS304の処理のうち少なくとも何れかを実行しなくてもよい。例えば、S305における仮想視点の更新間隔の設定に、S304で取得したフレーム情報のみを用いる場合には、S301からS303の処理が省略されてもよい。
S306において、視点設定部208は、S305で決定された更新間隔に応じた視点情報を生成する。決定された更新間隔に応じた視点情報は、決定された更新間隔に応じた複数の時点それぞれにおける仮想視点の位置及び向きを示す。具体的には、仮想視点の更新間隔が1/30秒に決定された場合に生成される視点情報には、仮想視点の位置及び向きを示すパラメータセットが、1秒当たり30セット含まれる。ただし、視点情報の形式はこれに限定されない。例えば、決定された更新間隔に応じた視点情報が、仮想視点画像のフレーム更新間隔に応じた複数の時点それぞれにおける仮想視点の位置及び向きを示してもよい。具体的には、仮想視点画像のフレーム更新間隔が1/60秒である場合に生成される視点情報には、仮想視点の位置及び向きを示すパラメータセットが、1秒当たり60セット含まれていてもよい。この形式において、仮想視点の更新間隔が1/30秒である場合には、視点情報には同一のパラメータセットが2セットずつ連続して含まれることになる。また、本実施形態では仮想視点の更新間隔が仮想視点画像のフレーム更新間隔と同じかそれより長い場合を中心に説明するが、これに限らず、仮想視点の更新間隔が仮想視点画像のフレーム更新間隔より短くてもよい。
S307において、視点設定部208は、S306において生成された視点情報を画像生成装置102の画像生成部209へ出力する。画像生成部209は、記憶部203から取得した素材データに基づいて、視点設定部208から取得した視点情報に応じた仮想視点画像を生成する。
S305の処理の詳細について、図4を用いて説明する。図4は、図3のS305の処理の一例を示すフローチャートである。なお、図4の処理は、図3の処理の対象となる一連の仮想カメラパスのうち所定の区間(例えば1秒分の仮想カメラパス)ごとに実行される。すなわち、情報処理装置103は、S306において生成する視点情報が表す仮想カメラパスにおける仮想視点の更新間隔を、所定の区間ごとに制御する。ただし、情報処理装置103は、図3の処理の対象となる一連の仮想カメラパス全体について、仮想視点の更新間隔を一様に決定してもよい。
S401において、制御部207は、所定の再生期間の動画を構成する仮想視点画像のフレーム数と、当該所定の再生期間に対応する仮想視点画像を生成するために用いられる素材データのフレーム数を比較する。本実施形態では、素材データのフレーム数として、複数視点画像のフレーム数が用いられるものとする。ただしこれに限らず、例えば三次元モデルデータのフレーム数が素材データのフレーム数として用いられてもよい。素材データのフレーム数が仮想視点画像のフレーム数より小さいという条件が満たされる場合にはS402へ進み、そうでなければS406へ進む。
例えば、仮想視点画像のフレームレート(1秒の再生期間におけるフレーム数)が60fpsであり、複数視点画像等の素材データのフレームレートも60fpsであるものとする。この素材データを用いて通常速度の仮想視点画像を生成する場合には、60フレームからなる1秒の仮想視点画像を生成するために60フレームの素材データが用いられるため、S401の判定はNOとなり、S406へ進む。一方、1/2倍速のスローモーションの仮想視点画像を生成する場合、1フレームの素材データから2フレームの仮想視点画像が生成される。すなわち、60フレームからなる1秒の仮想視点画像を生成するために30フレームの素材データが用いられる。そのため、S401の判定はYESとなりS402へ進む。
S402において、制御部207は、視点入力部201により得られた仮想視点の情報に基づいて、仮想視点が所定の速度以上で変化するかを判定する。仮想視点の変化速度は、例えば、仮想視点の移動速度、仮想視点の回転速度、及び移動速度と回転速度を合成した速度の何れかである。仮想視点の変化速度が閾値以上であるという条件が満たされる場合はS405へ進み、そうでなければS403へ進む。
S403において、制御部207は、オブジェクト情報取得部204から得られたオブジェクト情報に基づいて、所定の条件が満たされているかを判定する。具体的には、3次元空間における仮想視点の移動方向とオブジェクトの移動方向の角度差が閾値未満であり、且つ仮想視点の移動方向と仮想視点の向き(視線方向)の角度差が閾値以上であるかを判定する。判定結果が真である場合にはS405へ進み、そうでなければS404へ進む。
S404において、制御部207は、ぶれ判定部205により得られた情報に基づいて、仮想視点の更新間隔を所定の長さ(例えば仮想視点画像のフレーム更新間隔)に合わせた場合に仮想視点画像においてオブジェクトのぶれが発生するかを判定する。判定結果が真であるという条件が満たされる場合にはS405へ進み、そうでなければS406へ進む。
S405に進んだ場合、すなわち仮想視点画像においてオブジェクトのぶれが生じやすい場合やぶれが検出されている場合、制御部207は、仮想視点の更新間隔を、仮想視点画像の生成に用いられる素材データの更新間隔に一致するように決定する。一方、S406に進んだ場合、制御部207は、仮想視点の更新間隔を、仮想視点画像のフレーム更新間隔に一致するように決定する。
なお、図4に示す仮想視点の更新間隔の決定方法は一例であり、制御部207による仮想視点の更新間隔の決定方法はこれに限定されない。例えば、S401からS404の条件判定の順序を入れ替えてもよいし、S401からS404の条件判定の少なくとも何れかを省略してもよい。具体的には、S401の判定結果が真の場合にはS405へ進み、そうでなければS406へ進んでもよい。また例えば、制御部207は、3次元空間における仮想視点の位置、高さ、及び移動経路や、オブジェクトの移動速度に関する条件が満たされるかに基づいて、S405の処理を行うかS406の処理を行うかを決定してもよい。
また、図4の例では、所定の再生期間の仮想視点画像の生成に用いられる素材データのフレーム数が、仮想視点画像の当該再生期間におけるフレーム数以上である場合に、仮想視点の更新間隔を仮想視点画像のフレーム更新間隔に一致させる。これに加えて、所定の再生期間の仮想視点画像の生成に用いられる素材データのフレーム数が所定の閾値よりも少ない場合にも、仮想視点の更新間隔を仮想視点画像のフレーム更新間隔に合わせてもよい。すなわち、所定の再生期間の仮想視点画像の生成に用いられる素材データのフレーム数と、仮想視点画像の所定の再生期間におけるフレーム数の比率が所定範囲内であるという条件を満たす場合に、仮想視点の更新間隔を素材データの更新間隔に一致させてもよい。そしてその条件を満たさない場合には、仮想視点の更新間隔を仮想視点画像のフレーム更新間隔に一致させてもよい。これにより、スローモーションの速度が非常に遅い仮想視点画像を生成する場合や、撮像時刻の進行が停止した状態で視点が変化する仮想視点画像を生成する場合に、仮想視点の更新間隔が大きくなりすぎたり更新されなかったりすることを避けられる。
また、仮想視点の更新間隔が、ユーザ操作に基づいて決定されてもよい。図5は、S305の処理の図4とは異なる一例を示したフローチャートである。S501において、情報入力部202は、仮想視点画像におけるオブジェクトのぶれを抑制するべきであることを示すぶれ抑制操作が入力されたかを判定する。例えば、ぶれが発生していることをユーザが認識した場合に押されるボタンや、ユーザがぶれの発生を防止したい場合に押されるボタンが押された場合に、情報入力部202はぶれ抑制操作の入力があったと判定する。ぶれ抑制操作の入力があった場合にはS502へ進み、制御部207は、仮想視点の更新間隔を素材データの更新間隔に一致させる。一方、ぶれ抑制操作の入力がなかった場合にはS304へ進み、制御部207は、仮想視点の更新間隔を仮想視点画像のフレーム更新間隔に一致させる。なお、制御部207は、ぶれ抑制操作の入力が一度行われた場合にはその後継続してS502の処理を行ってもよいし、ぶれ抑制操作の入力が行われている間だけS502の処理を行い、入力がなくなった後はS503の処理を行ってもよい。
また、仮想視点の更新間隔が、仮想視点画像のフレーム更新間隔とも素材データの更新間隔とも異なっていてもよい。例えば制御部207は、素材データの更新間隔が仮想視点画像のフレーム更新間隔より長い場合に、仮想視点の更新間隔を、仮想視点画像のフレーム更新間隔と素材データの更新間隔の間の長さに設定してもよい。
以上で情報処理装置103の動作フローの説明を終わる。以上説明したように、本実施形態に係る情報処理装置103は、オブジェクトを複数の方向から撮像する複数の撮像装置による撮像に基づく複数視点画像を用いて生成される仮想視点画像の生成に係る仮想視点の位置及び向きを示す視点情報を生成する。ここで、情報処理装置103は、所定の条件が満たされるか否かに応じて、仮想視点画像の生成に係る仮想視点の位置及び向きの更新間隔を、仮想視点画像のフレーム更新間隔よりも長い間隔に決定し、決定された更新間隔に応じた視点情報を生成する。上記のような構成によれば、スローモーションなど変速の仮想視点画像を生成する場合においても、仮想視点画像内でのオブジェクトの動きに不自然なぶれやカクつきが生じることを抑制することができる。
[仮想視点の更新間隔の制御例]
情報処理装置103による仮想視点の更新間隔の制御に関する3つの具体例を、図7から図9を用いて説明する。図7に示す1つ目の例は、素材データの更新間隔に基づいて仮想視点の更新間隔を制御する例である。図8に示す2つ目の例は、仮想視点とオブジェクトの動き方に基づいて仮想視点の更新間隔を制御する例である。図9に示す3つ目の例は、オブジェクトのぶれが発生するかの判定結果に基づいて仮想視点の更新間隔を制御する例である。
まず図7を用いて、制御部207が、フレーム情報取得部206から取得した素材データのフレーム情報と画像生成部209により生成すべき仮想視点画像のフレームレートの情報とに基づいて仮想視点の更新間隔を制御する場合の例を説明する。具体的には、仮想視点画像のフレーム更新間隔が素材データの更新間隔よりも小さい場合に、仮想視点の更新間隔が素材データの更新間隔と一致するように制御が行われる。
図7において、時間軸上の各位置(701、702、703、704、705)は特定の瞬間ではなく、数フレーム以上の幅を持った時間帯を表しており、701から705までは連続した期間となっている。図7中の「オブジェクトと仮想視点の関係」は各時間帯においてオブジェクト(701A、702A、703A、704A、705A)と仮想視点(701B、702B、703B、704B、705B)がどのように変化するかを示している。オブジェクトから伸びる黒い矢印(701C、702C、703C、704C、705C)はオブジェクトの移動方向を表し、仮想視点から伸びる黒い矢印(701D、702D、703D、704D、705D)は仮想視点の移動方向を表している。また、仮想視点から伸びる2本の線分に挟まれた領域(701E、702E、703E、704E、705E)は、仮想視点の向きと画角を表している。
以下では各時間帯において仮想視点画像の生成に係る仮想視点の更新間隔がどのように制御されるかを説明する。時間帯701において、オブジェクト701Aと仮想視点701Bは平行に同速度で移動している。素材データの更新間隔は1/60秒、仮想視点画像のフレーム更新間隔は1/60秒であり、仮想視点の更新間隔は仮想視点画像のフレーム更新間隔である1/60秒に一致している。
時間帯702から時間帯704において、オブジェクト(702A/703A/704A)と仮想視点(702B/703B/704B)は平行に同速度で移動している。この区間において仮想視点画像はスローモーションになっており、素材データの更新間隔は1/30秒に伸びている。一方、仮想視点画像のフレーム更新間隔は1/60秒であるため、仮想視点のフレーム更新間隔が素材データの更新間隔よりも短い。よって制御部207は、仮想視点の更新間隔を素材データの更新間隔である1/30秒に一致させる。
時間帯705において、オブジェクト705Aと仮想視点705Bは平行に同速度で移動している。仮想視点画像がスローモーションから通常速度に戻ったため、素材データの更新間隔は1/60秒、仮想視点画像のフレーム更新間隔は1/60秒である。よって制御部207は、仮想視点の更新間隔を仮想視点画像のフレーム更新間隔である1/60秒に一致させる。
次に図8を用いて、制御部207が、視点入力部201から取得した仮想視点に関する情報とオブジェクト情報取得部204から取得したオブジェクト情報とに基づいて仮想視点の更新間隔を制御する場合の例を説明する。具体的には、仮想視点の移動方向とオブジェクトの移動方向の角度差が閾値未満であり、かつ仮想視点の移動方向と仮想視点の向きの角度差が閾値以上である場合に、仮想視点の更新間隔が素材データの更新間隔と一致するように制御が行われる。ここでは、仮想視点の移動方向とオブジェクトの移動方向の角度差の閾値を15度とし、仮想視点の移動方向と仮想視点の向きの角度差の閾値を30度とする。
時間帯801から時間帯805まで継続して、仮想視点画像はスローモーションの映像であり、素材データの更新間隔は1/30秒となっている。時間帯801において、仮想視点801Bがオブジェクト801Aを後ろから追うように同速度で移動している。仮想視点の移動方向801Dとオブジェクトの移動方向801Cの角度差は閾値未満であり、仮想視点の移動方向801Dと仮想視点の向き801Eの角度差は閾値未満である。この場合、仮想視点の移動方向801Dと仮想視点の向き801Eの角度差が閾値以上であるという条件を満たしていないため、仮想視点の更新間隔は仮想視点画像のフレーム更新間隔である1/60秒に一致している。
時間帯802から時間帯803において、仮想視点(802B/803B)がオブジェクト(802A/803A)の後ろから横に回るように移動している。仮想視点の移動方向(802D/803D)とオブジェクトの移動方向(802C/803C)の角度差は閾値以上であり、仮想視点の移動方向(802D/803D)と仮想視点の向き(802E/803E)の角度差は閾値以上である。この場合、仮想視点の移動方向(802D/803D)とオブジェクトの移動方向(802C/803C)の角度差が閾値未満であるという条件を満たしていないため、仮想視点の更新間隔は仮想視点画像のフレーム更新間隔である1/60秒に一致している。
時間帯804において、仮想視点804Bがオブジェクト804Aと平行に同速度で移動している。仮想視点の移動方向804Dとオブジェクトの移動方向804Cの角度差は閾値未満であり、仮想視点の移動方向804Dと仮想視点の向き804Eの角度差は閾値以上であり、条件を満たしている。よって制御部207は、仮想視点の更新間隔を素材データの更新間隔である1/30秒に一致させる。
時間帯805において、オブジェクト805Aが仮想視点805Bから遠ざかるように移動している。仮想視点の移動方向805Dとオブジェクトの移動方向805Cの角度差は閾値以上であり、仮想視点の移動方向(805D)と視点方向(805E)の角度差は閾値以上である。この場合、仮想視点の移動方向805Dとオブジェクトの移動方向805Cの角度差が閾値未満であるという条件を満たさなくなっているため、制御部207は、仮想視点の更新間隔を仮想視点画像のフレーム更新間隔である1/60秒に一致させる。
次に、図9を用いて、制御部207が、ぶれ判定部205から取得した判定結果に基づいて仮想視点の更新間隔を制御する場合の例を説明する。具体的には、生成される仮想視点画像においてオブジェクトのぶれ生じると判定された場合に、ぶれが抑制されるように仮想視点の更新間隔を伸ばす制御が行われる。
時間帯901から時間帯905まで継続して、仮想視点画像はスローモーションの映像であり、素材データの更新間隔は1/20秒となっている。時間帯901から時間帯902において、仮想視点画像はスローモーションの映像であり、素材データの更新間隔は1/20秒となっている。ぶれ判定部205はオブジェクトのぶれが発生していないと判定しているため、仮想視点の更新間隔は仮想視点画像のフレーム更新間隔である1/60秒に一致している。
時間帯903において、ぶれ判定部205は、素材データが更新されるフレームから数えて3フレーム目でぶれが発生したと判定している。そこで制御部207は、仮想視点の更新間隔と素材データの更新間隔の差を2フレーム未満に抑えつつ、仮想視点の更新間隔が長くなりすぎないように、仮想視点の更新間隔を1/30秒に設定する。
時間帯904において、ぶれ判定部205は、素材データが更新されるフレームから数えて2フレーム目でぶれが発生したと判定している。そこで制御部207は、仮想視点の更新間隔と素材データの更新間隔の差が1フレーム未満となるように、仮想視点の更新間隔を1/20秒に設定する。
時間帯905において、ぶれ判定部205は、素材データが更新されるフレームから数えて3フレーム目でぶれが発生したと判定している。そこで制御部207は、仮想視点の更新間隔と素材データの更新間隔の差を2フレーム未満に抑えつつ、仮想視点の更新間隔が長くなりすぎないように、仮想視点の更新間隔を1/30秒に設定する。
[その他の実施形態]
以上では、画像処理システム10及びその処理の例を説明したが、本発明は上述の実施形態に限られるものではなく、種々の変形が行われてもよい。また、上述の実施形態の一部を適宜組み合わせてもよい。
例えば、上述の実施形態においては素材データのフレームレートと仮想視点画像のフレームレートが同一である場合を中心に説明したが、これに限定されない。素材データと仮想視点画像のフレームレートが倍数関係となっている場合には、上述した実施形態の処理を適用できる。また、フレームレートが倍数関係にない場合においても、既存のフレームレート変換技術(NPAL変換や2−3プルダウンなど)を用いることで、本実施形態の処理を適用できる。具体例を挙げると、複数視点画像等の素材データのフレームレートが50fpsであり、最終的に生成すべき仮想視点画像のフレームレートが60fpsである場合が考えられる。このような場合には、上述した仮想視点の更新間隔の制御を適用して50fpsの仮想視点画像を生成し、生成された50fpsの仮想視点画像を60fpsに変換することで、オブジェクトのぶれが抑制された60fpsの仮想視点画像を生成することができる。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC等)によっても実現可能である。また、そのプログラムをコンピュータにより読み取り可能な記録媒体に記録して提供してもよい。
10 画像処理システム
101 撮像システム
102 画像生成装置
103 情報処理装置

Claims (18)

  1. オブジェクトを複数の方向から撮像する複数の撮像装置による撮像に基づく複数視点画像を用いて生成される仮想視点画像に対応する仮想視点の位置及び向きを示す視点情報を生成する情報処理装置であって、
    仮想視点の動画を構成するフレームの画像として前記仮想視点画像を所定のフレーム更新間隔で更新することで再生される前記動画を生成するための前記複数視点画像のフレーム情報であって、前記複数視点画像を取得するための前記複数の撮像装置による撮像に係るそれぞれ異なる撮像時刻に対応する複数のフレームに関するフレーム情報を取得する情報取得手段と、
    所定の再生期間の前記動画を構成する前記仮想視点画像のフレーム数よりも少ないフレーム数の前記複数視点画像を用いて生成される前記動画の生成に係る前記視点情報として、仮想視点の位置及び向きの更新間隔が前記動画のフレーム更新間隔よりも長い視点情報を、前記情報取得手段により取得された前記フレーム情報に基づいて生成する生成手段と、を有することを特徴とする情報処理装置。
  2. 前記生成手段は、前記動画の生成に係る前記視点情報として、仮想視点の位置及び向きの更新間隔が前記動画の生成に用いられる前記複数視点画像の更新間隔に一致する視点情報を生成することを特徴とする請求項1に記載の情報処理装置。
  3. 前記フレーム情報は、前記複数視点画像のフレーム更新間隔と、前記複数視点画像のフレーム数と、前記複数視点画像のフレームに対応する時刻との、少なくとも何れかを示す情報であることを特徴とする請求項1又は2に記載の情報処理装置。
  4. 前記生成手段は、
    所定の条件が満たされる場合には、前記動画の生成に係る前記視点情報として、仮想視点の位置及び向きの更新間隔が前記動画のフレーム更新間隔よりも長い視点情報を生成し、
    前記所定の条件が満たされない場合には、前記動画の生成に係る前記視点情報として、仮想視点の位置及び向きの更新間隔が前記動画のフレーム更新間隔と一致する視点情報を生成することを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。
  5. 前記所定の条件は、前記動画のフレーム数と前記動画を生成するために用いられる前記複数視点画像のフレーム数の比率に関する条件を含むことを特徴とする請求項1乃至4の何れか1項に記載の情報処理装置。
  6. 前記所定の条件は、3次元空間における前記オブジェクトの移動速度と仮想視点の変化速度との少なくとも何れかに関する条件を含むことを特徴とする請求項1乃至5の何れか1項に記載の情報処理装置。
  7. 前記所定の条件は、3次元空間におけるオブジェクトの移動方向と、仮想視点の移動方向と、仮想視点の向きとの関係に関する条件を含むことを特徴とする請求項1乃至6の何れか1項に記載の情報処理装置。
  8. 仮想視点の更新間隔を所定の長さにした場合の前記動画における前記オブジェクトのぶれを判定する判定手段を有し、
    前記所定の条件は、前記判定手段による判定の結果に関する条件を含むことを特徴とする請求項1乃至7の何れか1項に記載の情報処理装置。
  9. 前記生成手段により生成される前記視点情報は、前記動画のフレーム更新間隔に応じた複数の時点それぞれにおける仮想視点の位置及び向きを示すことを特徴とする請求項1乃至8の何れか1項に記載の情報処理装置。
  10. 前記生成手段により生成される前記視点情報は、前記決定手段により決定された更新間隔に応じた複数の時点それぞれにおける仮想視点の位置及び向きを示すことを特徴とする請求項1乃至8の何れか1項に記載の情報処理装置。
  11. 前記複数視点画像は、前記複数の撮像装置により取得された複数の撮像画像であることを特徴とする請求項1乃至10の何れか1項に記載の情報処理装置。
  12. 前記複数視点画像は、前記複数の撮像装置により取得された複数の撮像画像から前記オブジェクトに対応する領域を抽出することで得られる複数の画像であることを特徴とする請求項1乃至10の何れか1項に記載の情報処理装置。
  13. 前記複数視点画像と前記生成手段により生成された前記視点情報とに基づいて前記仮想視点画像を生成する生成手段を有することを特徴とする請求項1乃至12の何れか1項に記載の情報処理装置。
  14. 前記複数視点画像を用いて前記仮想視点画像を生成する画像生成装置へ前記視点情報を出力する出力手段を有することを特徴とする請求項1乃至12の何れか1項に記載の情報処理装置。
  15. オブジェクトを複数の方向から撮像する複数の撮像装置による撮像に基づく複数視点画像を用いて生成される仮想視点画像に対応する仮想視点の位置及び向きを示す視点情報を生成する情報処理方法であって、
    仮想視点の動画を構成するフレームの画像として前記仮想視点画像を所定のフレーム更新間隔で更新することで再生される前記動画を生成するための前記複数視点画像のフレーム情報であって、前記複数視点画像を取得するための前記複数の撮像装置による撮像に係るそれぞれ異なる撮像時刻に対応する複数のフレームに関するフレーム情報を取得する情報取得工程と、
    所定の再生期間の前記動画を構成する前記仮想視点画像のフレーム数よりも少ない数のフレームの前記複数視点画像を用いて生成される前記動画の生成に係る前記視点情報として、仮想視点の位置及び向きの更新間隔が前記動画のフレーム更新間隔よりも長い視点情報を、前記情報取得工程により取得された前記フレーム情報に基づいて生成する生成工程と、を有することを特徴とする情報処理方法。
  16. 前記決定工程は、前記動画の生成に係る前記視点情報として、仮想視点の位置及び向きの更新間隔が前記動画の生成に用いられる前記複数視点画像の更新間隔に一致する視点情報を生成することを特徴とする請求項15に記載の情報処理方法。
  17. 前記生成工程は、
    所定の条件が満たされる場合には、前記動画の生成に係る前記視点情報として、仮想視点の位置及び向きの更新間隔が前記動画のフレーム更新間隔よりも長い視点情報を生成し、
    前記所定の条件が満たされない場合には、前記動画の生成に係る前記視点情報として、仮想視点の位置及び向きの更新間隔が前記動画のフレーム更新間隔と一致する視点情報を生成することを特徴とする請求項15又は16に記載の情報処理方法。
  18. コンピュータを、請求項1乃至14の何れか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2019138006A 2019-07-26 2019-07-26 情報処理装置、情報処理方法、及びプログラム Active JP7418101B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019138006A JP7418101B2 (ja) 2019-07-26 2019-07-26 情報処理装置、情報処理方法、及びプログラム
KR1020200088019A KR102563512B1 (ko) 2019-07-26 2020-07-16 정보 처리 장치, 정보 처리 방법 및 저장 매체
EP20187410.4A EP3771199A1 (en) 2019-07-26 2020-07-23 Information processing apparatus, information processing method, and program
US16/937,372 US11350076B2 (en) 2019-07-26 2020-07-23 Information processing apparatus, information processing method, and storage medium
CN202010730177.2A CN112312114B (zh) 2019-07-26 2020-07-27 信息处理设备、信息处理方法和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019138006A JP7418101B2 (ja) 2019-07-26 2019-07-26 情報処理装置、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2021022135A true JP2021022135A (ja) 2021-02-18
JP7418101B2 JP7418101B2 (ja) 2024-01-19

Family

ID=71783906

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019138006A Active JP7418101B2 (ja) 2019-07-26 2019-07-26 情報処理装置、情報処理方法、及びプログラム

Country Status (5)

Country Link
US (1) US11350076B2 (ja)
EP (1) EP3771199A1 (ja)
JP (1) JP7418101B2 (ja)
KR (1) KR102563512B1 (ja)
CN (1) CN112312114B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113254137B (zh) * 2021-06-08 2023-03-14 Tcl通讯(宁波)有限公司 动态图像展示方法、装置、存储介质及移动终端
JP2023167486A (ja) * 2022-05-12 2023-11-24 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5850352A (en) * 1995-03-31 1998-12-15 The Regents Of The University Of California Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images
JP2006165795A (ja) * 2004-12-03 2006-06-22 Canon Inc 画像形成装置およびその方法
US20070103558A1 (en) 2005-11-04 2007-05-10 Microsoft Corporation Multi-view video delivery
JP4671873B2 (ja) 2006-01-23 2011-04-20 シャープ株式会社 合成映像生成システム
US20150002636A1 (en) 2013-06-28 2015-01-01 Cable Television Laboratories, Inc. Capturing Full Motion Live Events Using Spatially Distributed Depth Sensing Cameras
GB2527503A (en) * 2014-06-17 2015-12-30 Next Logic Pty Ltd Generating a sequence of stereoscopic images for a head-mounted display
US20160140733A1 (en) * 2014-11-13 2016-05-19 Futurewei Technologies, Inc. Method and systems for multi-view high-speed motion capture
US10628956B2 (en) * 2015-09-03 2020-04-21 Sony Corporation Video processing device, video processing method, and program
JP6674247B2 (ja) * 2015-12-14 2020-04-01 キヤノン株式会社 情報処理装置、情報処理方法、およびコンピュータプログラム
JP6482498B2 (ja) 2016-05-25 2019-03-13 キヤノン株式会社 制御装置、制御方法、及び、プログラム
JP6429829B2 (ja) * 2016-05-25 2018-11-28 キヤノン株式会社 画像処理システム、画像処理装置、制御方法、及び、プログラム
JP6918455B2 (ja) * 2016-09-01 2021-08-11 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
EP3509296B1 (en) * 2016-09-01 2021-06-23 Panasonic Intellectual Property Management Co., Ltd. Multiple viewpoint image capturing system, three-dimensional space reconstructing system, and three-dimensional space recognition system
JP6419128B2 (ja) * 2016-10-28 2018-11-07 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法及びプログラム
JP7159057B2 (ja) * 2017-02-10 2022-10-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 自由視点映像生成方法及び自由視点映像生成システム
JP7086522B2 (ja) * 2017-02-28 2022-06-20 キヤノン株式会社 画像処理装置、情報処理方法及びプログラム
JP2018180687A (ja) * 2017-04-05 2018-11-15 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP6924079B2 (ja) 2017-06-12 2021-08-25 キヤノン株式会社 情報処理装置及び方法及びプログラム
JP6482696B2 (ja) * 2017-06-23 2019-03-13 キヤノン株式会社 表示制御装置、表示制御方法、およびプログラム
EP3654294A4 (en) 2017-07-14 2020-06-03 Sony Corporation IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD FOR IMAGE PROCESSING DEVICE, AND PROGRAM
JP7033865B2 (ja) * 2017-08-10 2022-03-11 キヤノン株式会社 画像生成装置、画像生成方法、及びプログラム
US10812770B2 (en) * 2017-09-13 2020-10-20 Canon Kabushiki Kaisha Image processing system, image processing apparatus, image processing method, and program
JP7182865B2 (ja) 2017-11-28 2022-12-05 キヤノン株式会社 表示制御装置、表示制御方法、およびプログラム
JP2019103067A (ja) * 2017-12-06 2019-06-24 キヤノン株式会社 情報処理装置、記憶装置、画像処理装置、画像処理システム、制御方法、及びプログラム
JP7023696B2 (ja) * 2017-12-12 2022-02-22 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP6427258B1 (ja) * 2017-12-21 2018-11-21 キヤノン株式会社 表示制御装置、表示制御方法
JP2019114147A (ja) * 2017-12-25 2019-07-11 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
JP7045218B2 (ja) * 2018-02-28 2022-03-31 キヤノン株式会社 情報処理装置および情報処理方法、プログラム
WO2019225681A1 (ja) * 2018-05-23 2019-11-28 パナソニックIpマネジメント株式会社 校正装置および校正方法
WO2020004162A1 (ja) * 2018-06-27 2020-01-02 キヤノン株式会社 撮像システム、配置決定装置、配置決定方法およびプログラム
JP7170441B2 (ja) * 2018-07-12 2022-11-14 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP7207913B2 (ja) * 2018-09-07 2023-01-18 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US11132837B2 (en) * 2018-11-06 2021-09-28 Lucasfilm Entertainment Company Ltd. LLC Immersive content production system with multiple targets
JP7341674B2 (ja) * 2019-02-27 2023-09-11 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP7281923B2 (ja) * 2019-03-01 2023-05-26 キヤノン株式会社 制御装置、画像処理システム、制御方法及びプログラム
JP7250588B2 (ja) * 2019-03-28 2023-04-03 キヤノン株式会社 画像処理装置、送信方法、及びプログラム
JP7353782B2 (ja) * 2019-04-09 2023-10-02 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP7455524B2 (ja) * 2019-07-11 2024-03-26 キヤノン株式会社 情報処理装置、設定方法、及びプログラム
JP7423251B2 (ja) * 2019-10-25 2024-01-29 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP2021086189A (ja) * 2019-11-25 2021-06-03 キヤノン株式会社 情報処理装置、情報処理方法、映像処理システム、およびプログラム
US11064096B2 (en) * 2019-12-13 2021-07-13 Sony Corporation Filtering and smoothing sources in camera tracking

Also Published As

Publication number Publication date
KR20210012927A (ko) 2021-02-03
EP3771199A1 (en) 2021-01-27
CN112312114A (zh) 2021-02-02
JP7418101B2 (ja) 2024-01-19
US11350076B2 (en) 2022-05-31
US20210029342A1 (en) 2021-01-28
CN112312114B (zh) 2023-01-17
KR102563512B1 (ko) 2023-08-07

Similar Documents

Publication Publication Date Title
JP7179515B2 (ja) 装置、制御方法、及びプログラム
JP6450064B2 (ja) 情報処理装置、動画データのデータ構造、情報処理システム、動画再生プログラム、および、動画の再生方法。
US9407797B1 (en) Methods and systems for changing duty cycle to reduce judder effect
KR101831516B1 (ko) 멀티 스티커를 이용한 영상 생성 방법 및 장치
JP7418101B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US9773523B2 (en) Apparatus, method and computer program
WO2016139898A1 (ja) ビデオ処理装置、ビデオ処理システムおよびビデオ処理方法
JP2020140285A (ja) 情報処理装置、情報処理装置の制御方法、及び、プログラム
US20200402281A1 (en) Image processing apparatus, image processing method, and storage medium
GB2612418A (en) Rendering image content
US20230154106A1 (en) Information processing apparatus, information processing method, and display apparatus
JP2021086189A (ja) 情報処理装置、情報処理方法、映像処理システム、およびプログラム
JP6038352B2 (ja) 画像処理装置及び方法、並びにプログラム及び記録媒体
JP7458713B2 (ja) 画像処理装置、画像処理システム、制御方法、および、プログラム
KR20160053428A (ko) 유저 인터페이스를 통한 카메라 장치의 동작 방법
JP5072103B2 (ja) 画角制御装置及び画角制御方法
US20220166939A1 (en) Information processing apparatus, method, and recording medium
CN109660759B (zh) 一种周界区域监控的方法、装置、系统及设备、存储介质
JP2022043539A (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP2009181043A (ja) 映像信号処理装置、画像信号処理方法、プログラム、記録媒体
JP2007207278A (ja) 仮想現実空間共有システム
JP2022019341A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2023167486A (ja) 画像処理装置、画像処理方法およびプログラム
JP2007180920A (ja) 画像処理装置、電子機器、プログラム、情報記憶媒体及び画像処理方法
JP2022032491A (ja) 映像処理装置、映像処理方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220720

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231228

R151 Written notification of patent or utility model registration

Ref document number: 7418101

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151