JP7075252B2 - 情報処理装置およびその制御方法、プログラム - Google Patents

情報処理装置およびその制御方法、プログラム Download PDF

Info

Publication number
JP7075252B2
JP7075252B2 JP2018056748A JP2018056748A JP7075252B2 JP 7075252 B2 JP7075252 B2 JP 7075252B2 JP 2018056748 A JP2018056748 A JP 2018056748A JP 2018056748 A JP2018056748 A JP 2018056748A JP 7075252 B2 JP7075252 B2 JP 7075252B2
Authority
JP
Japan
Prior art keywords
time
virtual viewpoint
image
viewpoint image
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018056748A
Other languages
English (en)
Other versions
JP2019168966A (ja
Inventor
泰夫 奥谷
元 河西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018056748A priority Critical patent/JP7075252B2/ja
Priority to EP19161494.0A priority patent/EP3574963A1/en
Priority to KR1020190027844A priority patent/KR102353828B1/ko
Priority to US16/359,332 priority patent/US10834477B2/en
Publication of JP2019168966A publication Critical patent/JP2019168966A/ja
Application granted granted Critical
Publication of JP7075252B2 publication Critical patent/JP7075252B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • A63F13/355Performing operations on behalf of clients with restricted processing capabilities, e.g. servers transform changing game scene into an encoded video stream for transmitting to a mobile phone or a thin client
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/262Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
    • H04N21/2625Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists for delaying content or additional data distribution, e.g. because of an extended sport event
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6615Methods for processing data by generating or executing the game program for rendering three dimensional images using models with different levels of detail [LOD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Computing Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

本発明は、仮想視点に応じた仮想視点画像を生成する技術に関する。
近年、複数のカメラを異なる位置に設置して多視点で同期撮影し、当該撮影により得られた複数視点の画像を用いて、任意の仮想視点からの仮想視点画像を生成する技術が注目されている。複数視点の画像に基づく仮想視点画像の生成及び閲覧は、複数のカメラが撮影した画像をサーバーなどの画像処理部に集約し、画像処理部により仮想視点に基づくレンダリングなどの処理を施して仮想視点画像を生成し、ユーザ端末に表示することで実現できる。仮想視点画像を用いたサービスでは、例えば、サッカーやバスケットボールの試合を撮影した映像から、映像制作者が迫力のある仮想視点のコンテンツを制作することができる。また、コンテンツを視聴しているユーザ自身が自由に仮想視点を移動しながら、試合観戦したりすることができるようにもなる。こうして、一般的な撮影画像の観察と比較してユーザに高臨場感を与えることができる。
特許文献1では、撮像データを一旦蓄積し、遅延させてから仮想視点画像を生成する技術が開示されている。
特開2006-310936号公報
複数のカメラで同期撮影した画像を画像処理することで任意の仮想視点画像を生成する場合、撮影から仮想視点画像が生成できる状態になるまでの準備時間は小さくない。よって、カメラで撮影した映像と仮想視点画像を切り替えて映像を再生する場合、この準備時間が及ぼす影響を考慮することが望ましい。すなわち、準備時間を考慮して、生成される仮想視点画像のタイムコードを決定することが望ましい。準備時間に余裕を持たせて仮想視点画像のタイムコードを決定すれば、仮想視点画像の生成は成功するものの、複数のカメラで撮影されている画像とのタイムラグが大きくなってしまう。一方、準備時間を小さく設定しすぎると、仮想視点画像の生成が間に合わない可能性が生じる。このように、仮想視点画像の生成にかかる時間が把握できると、適切なタイムコードが設定できるようになるなどの利点がある。
特許文献1では、撮影データを一旦蓄積し、遅延させてから仮想視点画像を生成することができる。しかしながら、特許文献1では、遅延時間の具体的な指定方法は何等示されておらず、また、ライブ中継において仮想視点画像が生成可能な状態になるまでの準備時間を取得する方法についても何等示されていない。
本発明は上記の課題に鑑みてなされたものであり、仮想視点画像の生成に要する時間を把握可能な情報処理装置を提供することを目的とする。
上記の目的を達成するための本発明の一態様による情報処理装置は以下の構成を備える。すなわち、
複数のカメラで撮影した複数の画像に基づいて仮想視点画像生成する画像生成装置から取得する仮想視点画像の生成時刻を制御する情報処理装置であって、
現在時刻に基づいて算出された、前記現在時刻よりも前の問い合わせ用時刻を画像生成装置に対して送信する送信手段と、
前記送信手段により送信された問い合わせ用時刻に対する前記画像生成装置からの応答が仮想視点画像の生成可能を表す場合に、前記画像生成装置から取得する仮想視点画像の生成時刻を、前記送信手段により送信された前記問い合わせ用刻に基づいて決定する決定手段と、を備え
前記送信手段は、前記現在時刻から時間値を引いて前記問い合わせ用時刻を算出し、前記時間値を徐々に大きくしながら前記問い合わせ用時刻の送信を繰り返す
本発明によれば、仮想視点画像の生成に要する時間を把握可能な情報処理装置が提供される。
第1実施形態における情報処理装置のハードウェア構成例を示すブロック図。 (a)第1実施形態における情報処理装置の機能構成例を示すブロック図、(b)第1実施形態における画像生成装置の機能構成例を示すブロック図。 第1実施形態における情報処理装置の処理を示すフローチャート。 第1実施形態におけるライブ時刻の設定処理を示すフローチャート。 第1実施形態におけるライブ時刻の設定処理の流れを示す模式図。 第2実施形態におけるライブ時刻の設定処理を示すフローチャート。 第2実施形態における画像生成装置のデータ準備状況を示す模式図。 第2実施形態における画像生成装置の機能構成例を示すブロック図。 第2実施形態における画像生成装置の処理を示すフローチャート。 第3実施形態におけるライブ時刻の設定処理を示すフローチャート。 第3実施形態におけるライブ時刻の入力方法を示す模式図。 第3実施形態における送受信メッセージの一例を示す模式図。 (a)第4実施形態における情報処理装置の機能構成例を示すブロック図、(b)第4実施形態における画像生成装置の機能構成例を示すブロック図。 第4実施形態における情報処理装置の処理を示すフローチャート。 第4実施形態における送受信メッセージの一例を示す模式図。
以下、図面を参照しながら本発明の好適な実施形態について説明する。ただし、以下の実施の形態に記載されている構成要素はあくまでも例示であり、本発明の範囲をそれらのみに限定する趣旨のものではない。
<第1実施形態>
図1は第1実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。点線で囲んだ範囲が第1実施形態に係る情報処理装置10である。情報処理装置10の外部装置として画像生成装置110が接続されている。画像生成装置110は、複数のカメラ109から得られた複数の画像(複数視点の画像)を用いて、情報処理装置10から出力された仮想視点に対応する仮想視点画像を生成する。情報処理装置10、画像生成装置110、および、複数のカメラ109により、任意の仮想視点の画像を生成する画像生成システムが構成される。
情報処理装置10において、CPU101(Central Processing Unit)は、各種処理のための演算や論理判断などを行い、システムバス108に接続された各構成要素を制御する。情報処理装置10には、プログラムメモリとデータメモリを含むメモリが搭載されている。ROM(Read-Only Memory)102は、プログラムメモリであって、後述する各種処理手順を含むCPUによる制御のためのプログラムを格納する。RAM(Random Access Memory)103は、データメモリであり、CPU101が実行するプログラムのワーク領域、エラー処理時のデータの退避領域、プログラムのロード領域などを有する。
なお、情報処理装置10に接続された外部記憶装置(不図示)などからRAM103にプログラムをロードすることで、プログラムメモリを実現しても構わない。HDD104は、本実施形態に係る複数の電子データやプログラムを記憶しておくためのハードディスクである。同様の役割を果たすものとして外部記憶装置を用いてもよい。ここで、外部記憶装置は、例えば、メディア(記録媒体)と、当該メディアへのアクセスを実現するための外部記憶ドライブとで実現することができる。このようなメディアとしては、例えば、フレキシブルディスク(FD)、CD-ROM、DVD、USBメモリ、MO、フラッシュメモリ等が知られている。また、外部記憶装置は、ネットワークで接続されたサーバー装置などであってもよい。
表示部105は、仮想視点やライブ時刻を設定する設定画面を表示するための、ディスプレイ、プロジェクタ、HMD(ヘッドマウントディスプレイ)などの表示デバイスである。仮想視点を設定する設定画面上には、画像生成装置110が生成した仮想視点画像が表示される。通信I/F106は、公知の通信技術によって、画像生成装置110や外部記憶装置と有線あるいは無線で接続し、双方向に情報の送受信を行うことを可能とする。操作部107は、オペレータが仮想視点を情報処理装置に入力するためのデバイスであり、ジョイスティック、ゲームパッド、タッチパネル、キーボード、マウスなどの入力デバイスを備える。
図2(a)は、第1実施形態に係る情報処理装置10の機能構成の一例を示すブロック図である。情報処理装置10は、複数のカメラ109で撮影した複数の画像に基づいて仮想視点画像を生成する画像生成装置110に対して仮想視点を出力する。情報処理装置10は、仮想視点取得部201、現在時刻取得部202、生成可能時刻取得部203、タイムラグ保持部204、ライブ時刻設定部205、画像取得部206を有する。これらの各機能部は、CPU101が、ROM102に格納されたプログラムをRAM103に展開し、後述する各フローチャートに従った処理を実行することで実現されている。
仮想視点取得部201は、操作部107を介して入力された入力デバイスの信号を仮想視点の情報(仮想視点の位置、姿勢などを示す情報)に変換する。現在時刻取得部202は、外部装置または情報処理装置10が有する内部時計から、現在時刻を取得する。例えば、現在時刻取得部202は、通信I/F106を介して、外部装置としてのタイムサーバーから現在時刻を取得する。また、画像生成装置110がタイムサーバー機能を有しており、現在時刻取得部202が画像生成装置110から現在時刻を取得するようにしてもよい。
生成可能時刻取得部203は、通信I/F106を介して画像生成装置110に問い合わせを行い、画像生成装置110からの応答に基づいて仮想視点画像を生成可能な時刻(生成可能時刻)を取得する。タイムラグ保持部204は、現在時刻と生成可能時刻との差であるタイムラグを保持する。ライブ時刻設定部205は、現在時刻取得部202が取得する現在時刻とタイムラグ保持部204が保持するタイムラグに基づいてライブ用の仮想視点画像を生成する時刻(以下、ライブ時刻と呼ぶ)を決定する。ライブ時刻は、現在時刻が進むのに合わせて更新される。画像取得部206は、仮想視点取得部201が取得した仮想視点とライブ時刻設定部205が設定したライブ時刻を、通信I/F106を介して、画像生成装置110に送信する。画像生成装置110は、仮想視点とライブ時刻における仮想視点画像を生成する。画像取得部206は、送信した仮想視点とライブ時刻における仮想視点画像を画像生成装置110から取得する。
図2(b)は、第1実施形態による画像生成装置110の機能構成例を示すブロック図である。画像データ取得部801は、カメラ109から画像データを取得する。画像処理部802は、画像データ取得部801が取得した画像データに対して、前景・背景分離、前景・背景モデル生成などの画像処理を行う。データ保持部803は、画像処理部802が処理した結果をデータセットごと、フレームごとに保持する。判定部811は、データ保持部803に保持されたデータセットの状況(画像処理の状況)に基づいて、情報処理装置10から指定された時刻における仮想視点画像の生成が可能か否かを判定する。例えば、第2実施形態で説明するような構成で仮想視点画像の生成の可否を判定することができる。もちろん、実際に仮想視点画像の生成を試みて、仮想視点画像を生成できたか否かにより判定するようにしてもよい。
送受信部806は、外部装置との間でメッセージの送受信等を行う。本実施形態では、送受信部806は、情報処理装置10から仮想視点画像の生成時刻を示すメッセージを受信し、判定部811が、そのメッセージが示す生成時刻において仮想視点画像を生成できるか否かを判定する。その判定結果は、送受信部806から情報処理装置10へ送信される。仮想視点画像生成部812は、外部装置である情報処理装置10から受信したライブ時刻と仮想視点に基づいて、データ保持部803に保持されているデータセットを用いて仮想視点画像を生成する。生成された仮想視点画像は、送受信部806から情報処理装置10へ送信される。
図3は第1実施形態に係る情報処理装置の処理を示すフローチャートである。図3のフローチャートは、仮想視点の設定用アプリケーションが起動してから終了するまでの処理を示す。S302からS307の処理は、生成する仮想視点画像のフレームレートに合わせて、1フレームにつき1回ループするものとする。例えば60fps(フレーム/秒)で仮想視点画像を生成する場合、このループは1秒間に60回繰り返されることになる。
S301において、生成可能時刻取得部203は仮想視点画像を生成可能な時刻(生成可能時刻)を取得し、タイムラグ保持部204は、現在時刻取得部202が取得した現在時刻と生成可能時刻との差分をタイムラグとして保持する。生成可能時刻とは、現在時刻よりも前の時刻である。本実施形態の画像生成装置110は、現在時刻において、生成可能時刻よりも前の撮像時刻に対応する仮想視点画像を生成することはできるが、生成可能時刻よりも後の撮像時刻に対応する仮想視点画像を生成することはできない。すなわち、本実施形態の生成可能時刻取得部203は、現在時刻よりも前の時刻であって、画像生成装置110が生成可能な仮想視点画像に対応する時刻に関する時刻情報(生成可能時刻)を取得する。ライブ時刻設定部205は、取得された現在時刻からタイムラグ保持部204に保持されているタイムラグを差し引いてライブ用の仮想視点画像を生成する生成時刻(ライブ時刻)に設定する。また、後述のS307では、タイムラグ保持部204に保持されているタイムラグを用いて画像生成装置に対して要求する仮想視点画像の生成時刻が決定される。S301の処理に関しては、図4を用いて後述する。
S302において、仮想視点取得部201は、操作部107を介して入力された操作信号を仮想視点に関する情報に変換することで仮想視点を決定する。仮想視点には、仮想視点の3次元位置、方向、画角が含まれる。ただし、仮想視点は、必ずしもこれらすべてを含む必要はなく、これらのうちのいずれかでもよいし、被写界深度などその他の情報を含んでもよい。
S303において、画像取得部206は、仮想視点取得部201が取得した仮想視点とライブ時刻設定部205が設定したライブ時刻を、通信I/F106を介して、画像生成装置110に送信する。画像生成装置110では、仮想視点画像生成部812が、受信したライブ時刻と仮想視点を用いて、ライブ時刻における仮想視点からの仮想視点画像を生成する。送受信部806は、生成された仮想視点画像を情報処理装置10へ送信する。S304において、画像取得部206は、通信I/F106を介して、画像生成装置110が生成した仮想視点画像を受信、取得する。S305において、画像取得部206は、S304で取得した仮想視点画像を表示部105に表示する。S306において、仮想視点の設定用アプリケーションの終了指示が操作部107を介して受理された場合は、本処理を終了する。
S306において終了指示を受理していないと判定された場合は、S307において、ライブ時刻設定部205がライブ時刻を次のライブ時刻(次に取得される仮想視点画像の時刻)に更新し、処理をS302に戻す。S307におけるライブ時刻の更新方法の例について説明する。ライブ時刻設定部205は、現在時刻取得部202に現在時刻を取得させ、その現在時刻からタイムラグ保持部204が保持しているタイムラグを減じたものをライブ時刻として設定する。なお、本実施形態のように、S304~S307の処理をフレームレートに合わせて繰り返す場合、ライブ時刻設定部205が、生成する仮想視点画像のフレームレートを現在のライブ時刻に加算してライブ時刻として設定するようにしてもよい。例えば、仮想視点画像のフレームレートが60fpsの場合、ライブ時刻設定部205は、現時点のライブ時刻に1/60秒を加算したものを新しいライブ時刻として設定するようにしてもよい。こうして、情報処理装置10は、S302~S307の処理を繰り返すことで、ライブ時刻設定部205が設定したライブ時刻の仮想視点画像を取得する。
次に、S301におけるライブ時刻の設定の処理について説明する。図4は、図3のS301におけるライブ時刻を設定する処理の流れを示すフローチャートである。本実施形態では、生成可能時刻取得部203は、画像生成装置110に対して、現在時刻に基づいて算出した問い合わせ用時刻を送信する。生成可能時刻取得部203は、問い合わせ用時刻の送信に対する画像生成装置110からの応答が仮想視点画像の生成可能を表す場合に、送信した問い合わせ用時刻に基づいて仮想視点画像の生成時刻を決定する。以下、フローチャートに従って詳細に説明する。
S401において、現在時刻取得部202が現在時刻を取得する。現在時刻の取得方法としては、公知の技術を用いることができる。例えば、現在時刻取得部202は情報処理装置10の内部時計から現在時刻を取得してもよいし、情報処理装置10の外部に設置されたタイムサーバーから現在時刻を取得してもよい。なお、外部に設置されたタイムサーバーの時刻と情報処理装置10、画像生成装置110、カメラ109、その他の放送用カメラの時刻は同期していることが望ましい。
S402において、生成可能時刻取得部203が、通信I/F106を介して、現在時刻取得部202が取得した現在時刻に基づいて算出した問い合わせ用時刻を画像生成装置110に送信する。問い合わせ用時刻の初期値は現在時刻取得部202が取得した現在時刻とし、その後はS404で算出される時刻が用いられる。画像生成装置110では、送受信部806が問い合わせ用時刻を受け取ると、判定部811がその時刻における仮想視点画像の生成が可能か否かを判定する。送受信部806は、その判定結果を情報処理装置10(通信I/F106)に送信する。
S403において、生成可能時刻取得部203は、通信I/F106を介して、仮想視点画像が生成可能か否かの判定結果を受信し、判定結果に応じて処理を分岐する。判定結果が生成可能でないことを示す場合、処理はS403からS404に進む。S404において、生成可能時刻取得部203は、問い合わせ用時刻から1/60秒を減じた時刻を新しい問い合わせ用時刻として設定し、これを画像生成装置110へ送信する(S402)。S404とS402の処理は、現在時刻から時間値を引いた時刻を問い合わせ用時刻として設定し、この差分用の時間値を徐々に(ループごとに)大きくしながら問い合わせを繰り返すことと同等である。特に本実施形態では、生成される仮想視点画像のフレームレートにおけるフレーム間隔の時間(1/60秒)を差分用の時間値に加算することにより時間値を徐々に大きくしている。
一方、S403において判定結果が生成可能を示す場合、処理はS405に進む。S405において、ライブ時刻設定部205は、S402で生成可能時刻取得部203が問い合わせ用時刻として送信した時刻をライブ時刻として設定する。また、タイムラグ保持部204は、現在時刻取得部202が取得した現在時刻と設定されたライブ時刻との差分をタイムラグとして保持する。これは、上述した差分用の時間値をタイムラグとして保持することと等価である。こうして、仮想視点画像の生成のライブ時刻が設定され、タイムラグがタイムラグ保持部204に保持される。
なお、S404において、生成可能時刻取得部203は問い合わせ用時刻を1/60秒ずつ減じるとしたが、これに限定されるものではなく、任意の大きさの時間を問い合わせ用時刻から減じるようにしてもよい。減じる時間の大きさが大きければループを回す回数が減るため、ライブ時刻の設定にかかる時間を短縮できる。しかしながら、減じる時間を大きくするにつれ、実際に仮想視点画像を生成可能な時刻との誤差が大きくなることにもなる。S404において用いられる、問い合わせ用時刻から減じる時間は、これらが考慮されることにより適切な値が設定され得る。
また、第1実施形態ではS401で現在時刻取得部202が現在時刻を1度だけ取得する場合について説明したが、これに限定されるものではない。画像生成装置110に仮想視点画像の生成が可能か否かを問い合わせる度に現在時刻を取得するようにしてもよい。S402~S404の処理を何度かループしている間に現在時刻が現在時刻でなくなってしまうとともに、画像生成装置110でも仮想視点画像が生成可能な時刻も進むためである。現在時刻を問い合わせのたびに取得する場合は、S404の処理の後にS401に処理を戻すようにすればよい。また、この場合、S404では、タイムラグ値を0から1/60秒ずつループの度に増加させ、S402では、最新の現在時刻からこのタイムラグ値を差し引いた時刻を問い合わせ用時刻として用いる。そして、このループを1/60秒に1回ずつ実施することで、より適切なライブ時刻を求めることが可能になる。
図5は、第1実施形態におけるライブ時刻の設定処理を説明する模式図である。図5(a)において、Tnowは現在時刻、Treadyは
現在時刻Tnowにおいて最新の仮想視点画像が生成可能な時刻である。現在時刻Tnowにおいて、時刻T1の仮想視点画像を生成するように指示が行われると、画像生成装置110は対応する仮想視点画像を生成することができない。これは、スポーツ中継においては放送中に映像が表示されない可能性が生じるため、避ける必要がある。一方、時刻T3の時刻T1の仮想視点画像を生成するように指示を行うと、画像生成装置110は画像を生成できる。しかしながら、他の放送用カメラの画像とはタイムラグが大きくなり、画像切り替えに注意が必要となる。一方、時刻T2の仮想視点画像を生成するように指示を行うと、画像生成装置110は画像を生成でき、かつ、他の放送用カメラの画像とはタイムラグが小さくなる。したがって、可能な限りT2に近い時刻をライブ時刻として設定することが望ましい。
図5(b)は、図4のライブ時刻を設定する処理を模式的に示した図である。Tnowは現在時刻、Treadyは現在時刻Tnowにおいて最新の仮想視点画像が生成可能な時刻(生成可能時刻)である。現在時刻Tnowにおいて、生成可能時刻取得部203は、問い合わせ用時刻をt1、t2、t3と順に設定し、画像生成装置110に送り、生成可能か否かの判定結果を得る(S402~S404)。各時刻の差分は1/60秒である。時刻t4までは、仮想視点画像が生成可能ではないという判定結果を受け取るが、Treadyよりも遡った時刻t5を送信した際には仮想視点画像が生成可能であるという判定結果を受け取る。その結果、処理は、S402~S404のループを抜け、ライブ時刻設定部205は、時刻t5を仮想視点画像が生成可能な時刻(生成可能時刻)として設定する(S405)。
なお、S405において、ライブ時刻設定部205は、S403で生成可能時刻取得部203が用いた問い合わせ用時刻をライブ時刻として設定するが、これに限定されるものではない。実際、仮想視点画像が生成可能な状態になるまでの準備時間は一定ではない。稼働しているカメラ109の台数、そのときのネットワーク帯域負荷、画像処理を行うサーバーの稼働状態によって、多少のばらつきが生じることがある。したがって、問い合わせ用時刻からさらに所定のマージンを差し引いた時刻をライブ時刻として用いるようにしてもよい。これは、生成可能を表す応答を画像生成装置110から受信した際に設定されていた差分用の時間値に所定のマージンを加算してタイムラグを設定することと同等である。例えば、タイムラグ保持部204は、ライブ時刻と現在時刻との差分に所定のマージンを加えた値をタイムラグとして保持するようにしてもよい。
例えば、フレームレートが60fpsを保証している場合には、ばらつきは1/60秒以内に収まるはずである。よって、そのばらつき分を担保するために、例えば1/60秒程度のマージンを用意することが望ましい。つまり、
ライブ時刻 = 仮想視点画像を生成可能な時刻 - Tα
とすればよい。Tαは上記のマージンで、上述したように1/60秒程度に設定される。また、その場合、タイムラグ保持部204に保持するタイムラグを、
タイムラグ = 現在時刻 - (仮想視点画像を生成可能な時刻 - Tα)
とすればよい。
または、ばらつきを所定時間または所定回数の計測の結果に基づいて決定するようにしてもよい。本実施形態では図4の処理を1回だけ行う場合について説明したが、これに限定されるものではなく、ばらつきを検出するために図4の処理が複数回行われるようにしてもよい。例えば、複数回、仮想視点画像が生成可能な状態になるまでの準備時間を計測し、その中で最大の準備時間をタイムラグとしてもよい。すなわち、タイムラグの取得を複数回行い、取得されたタイムラグのうち最も大きいタイムラグを採用するように構成しもよい。
以上説明したように、第1実施形態によれば、現在時刻から順次遡って問い合わせることにより、画像生成装置110が仮想視点画像を生成可能な時刻を取得する。したがって、仮想視点画像を生成可能な時刻を取得することにより、確実に仮想視点画像を生成可能で、かつ、現在時刻からの遅延が少ない仮想視点画像を生成することができる。したがって、スポーツのライブ中継などにおいて、仮想視点画像を確実に作り続けることが可能で、かつ、他の放送用カメラのライブ画像とのタイムラグを小さくすることが可能になる。また、放送用カメラで撮影した映像と仮想視点画像を切り替えによる影響を低減することが可能になる。
<第2実施形態>
第1実施形態では、情報処理装置10は、現在時刻からのタイムラグを大きくしながら仮想視点画像の生成可否を問い合わせることにより、画像生成装置110が仮想視点画像を生成可能な時刻を取得する構成を説明した。第2実施形態では、情報処理装置10からの問い合わせに応じて、画像生成装置110が仮想視点画像を生成可能な時刻を返す構成について説明する。画像生成システム、情報処理装置10の構成は、第1実施形態(図1、図2(a))と同様である。
図6は、第2実施形態における、図3のS301におけるライブ時刻を設定する処理を示すフローチャートである。図4と同じ処理を行うステップには同じ番号を付してある。第2実施形態では、生成可能時刻取得部203が、画像生成装置110に対して仮想視点画像が生成可能な時刻を問い合わせると、画像生成装置110はこの問い合わせに対して仮想視点画像を生成可能な時刻を応答する。生成可能時刻取得部203は、画像生成装置110からのこの応答に含まれる時刻に基づいて仮想視点画像の生成時刻を決定する。以下、図4のフローチャートに沿って説明する。
S401において、現在時刻取得部202は現在時刻を取得する。この処理は、第1実施形態で説明したとおりである。次に、S601において、生成可能時刻取得部203は、通信I/F106を介して、画像生成装置110に仮想視点画像を生成可能な時刻を問い合わせる。画像生成装置110は、この問い合わせに応じて仮想視点画像を生成可能な時刻を情報処理装置10に送信する。S602において、生成可能時刻取得部203は、通信I/F106を介して、仮想視点画像を生成可能な時刻を画像生成装置110から受信する。S405において、ライブ時刻設定部205は、生成可能時刻取得部203がS602で取得した時刻をライブ時刻として設定する。また、タイムラグ保持部204は、現在時刻取得部202がS401で取得した現在時刻(問い合わせを行った時刻)と設定されたライブ時刻(応答に含まれている時刻)との差分に基づいてタイムラグを設定し、保存する。なお、この差分をタイムラグとして用いてもよいが、第1実施形態で説明したようなマージンを考慮してタイムラグを設定してもよい。また、第1実施形態と同様に、画像生成装置110からの生成可能な時刻の取得を複数回行って、複数の時刻から1つ(例えば最大の差分となる時刻)を採用するようにしてもよい。
第2実施形態では、画像生成装置110が、問い合わせを受けた時点での仮想視点画像を生成可能な時刻を検知する機能を有している。図7を用いて、画像生成装置110が仮想視点画像を生成可能な時刻を検知、送信する方法を説明する。
図7は、第2実施形態における画像生成装置110のデータ準備状況を示す模式図である。図7(a)において、画像生成装置110はデータベース702を有する。データベース702には、カメラ109で撮像された画像データ、画像データを画像処理して得られた前景や背景のモデルデータが格納されている。データセット703は各時刻(フレーム)のデータ準備状況を表している。データセット703は、時刻t1からt5までは仮想視点画像を生成するために必要なデータの準備ができており、時刻t6は準備中であることを示している。データの準備が完了した時点でフラグを立てるなどの処理を行うようにしておくことで、準備状況の検知は容易に実現可能である。
問い合わせメッセージ721は、仮想視点画像を生成可能な時刻を問い合わせるためのメッセージの例である。第2実施形態では、JSONフォーマットに準拠した場合の一例を示している。ここでは、キーが"inquiry"、値が"available time"となっている。情報処理装置10は、この問い合わせメッセージ721を使って生成可能な時刻を画像生成装置110に問い合わせる。一方、応答メッセージ722は、問い合わせに対する応答として送信されるメッセージの例である。応答メッセージ722は、画像生成装置110から情報処理装置10へ送信される。応答メッセージ722には、問い合わせた内容がキーに、その値として仮想視点画像を生成可能な時刻が記載されている。なお、図7(a)では、時刻をt1、t2のように変数を使って記載しているが、実際は「12:34:56:12」のように、時、分、秒、フレーム番号で表現することが一般的である。このような形式はタイムコードと呼ばれる。言うまでもないことであるが、画像生成装置110とのやり取りで用いるメッセージは、双方で解釈可能であれば任意のデータフォーマットでよい。
図7(b)は、仮想視点画像を同時に複数作成する場合の模式図である。視点を設定する情報処理装置が2つ(10と10a)存在している。画像生成装置110のデータベース702には、データセットが3つ(703、704、705)存在している。複数のデータセットが存在する理由のひとつは、カメラ109で撮像するエリアが異なるためである。サッカーの場合を例に説明すると、ホームチーム側のゴール付近を撮像するカメラ109と、アウェイチーム側のゴール付近を撮像するカメラ109というように2組のカメラセットを用意することがある。ホームチーム側で起きたプレーに対する仮想視点画像を生成する場合はデータセット703、アウェイチーム側で起きたプレーに対する仮想視点画像を生成する場合はデータセット704を使う。
なお、視点の異なる仮想視点画像を複数生成する場合、データベースへのアクセスがボトルネックとなり画像生成が間に合わなくなることがある。これを回避するために、データベースを並列化することが有効である。並列化の処理のため、データセット703とデータセット704とデータセット705では、仮想視点画像を生成できる時刻に若干の差が生じることがある。図7(b)では、データセット703はt5まで、データセット704はt6まで、データセット705はt4まで、仮想視点画像を生成するためのデータが準備できている様子が示されている。
ライブ中継での各カメラが出力する画像は時刻同期されていることが望ましい。同様に異なる情報処理装置が設定するライブ時刻は同期していることが望ましい。そうすることで生成される仮想視点画像が時刻同期することになる。その実現方法として、データセットの中で最もデータの準備状況が遅いデータセットの時刻にライブ時刻を合わせることが考えられる。これを実現するために、画像生成装置110は、各データセットの準備状況を把握し、準備状況が最も遅いデータセットの時刻を返す。図7(b)では、画像生成装置110は、最もデータの準備状況が遅いデータセット705の時刻t4を返すことになる。
情報処理装置10が問い合わせメッセージ731を画像生成装置110に送ると、画像生成装置110は、応答メッセージ732を返す。問い合せメッセージ731は、図7(a)の問い合わせメッセージ721と同じである。応答メッセージ732には、available timeとしてt4が設定されている。同様に、情報処理装置10aが問い合わせメッセージ733を画像生成装置110に送ると、画像生成装置110は、応答メッセージ734を返す。この場合も、応答メッセージ734には、available timeとしてt4が設定されている。
以上のような動作を行う第2実施形態の画像生成装置110について説明する。なお、以下では、図7(b)に示したように、複数の仮想視点画像を同時に生成する場合の構成を説明する。図8は、第2実施形態による、画像生成装置110が仮想視点画像を同時に複数作成する場合の処理の機能構成を示すブロック図である。第1実施形態(図2(b))と同様の構成には同一の参照番号を付してある。なお、図8では仮想視点画像生成部812の図示が省略されている。
画像データ取得部801は、カメラ109から画像データを取得する。画像処理部802は、画像データ取得部801が取得した画像データに対して、前景・背景分離、前景・背景モデル生成などの画像処理を行う。データ保持部803は、画像処理部802が処理した結果をデータセットごと、フレームごとに保持する。準備状況検出部804は、データセットの準備状況を検知する。本例ではデータセットは複数存在しており、準備状況検出部804は、各データセットのどのフレームまでが仮想視点画像を生成可能であるかを、データ保持部803の内容を確認することで検知する。準備状況保持部805は、準備状況検出部804による準備状況の検知結果を保持する。送受信部806は、情報処理装置10,10aからの問い合わせメッセージを受信するとともに、その問い合わせに対する応答メッセージを情報処理装置10,10aに送信する。
図9は、画像生成装置110が複数の仮想視点画像を同時に作成する処理を示すフローチャートである。画像生成装置110は、データセットの中で最もデータの準備状況が遅いデータセットの時刻を仮想視点画像が生成可能な時刻として検知、送信する。
S901において、画像データ取得部801は、カメラ109からの画像データを受信する。画像データには、複数のカメラ109で撮像された画像データが含まれる。S902において、画像処理部802は、画像データ取得部801が取得した画像データに対して、前景・背景分離、前景・背景モデル生成などの画像処理を行う。S903において、データ保持部803は、画像処理部802が処理した結果をデータセットごと、フレームごとに保持する。
S904において、準備状況検出部804は、データ保持部803が保持する各データセットの各フレームのデータ準備状況を確認する。データ準備状況とは、あるフレームの仮想視点画像を生成するために必要となる前景・背景モデルなどのデータがそろっているかいないかを表す。あるデータセットのあるフレームのデータ準備が新たに完了していることを検知した場合は(S904でYES)、処理はS905に進む。一方、データ準備状況に変化がない場合は(S904でNO)、処理はS906に進む。
S905において、準備状況検出部804は、新たにデータ準備が完了したフレームの準備状況を完了に設定し、準備状況保持部805に保持する。さらに、準備状況検出部804は、すべてのデータセットの中で準備状況が最も遅れているデータセットにおける準備状況(データ準備が完了しているフレーム)を、仮想視点画像が生成可能な時刻として準備状況保持部805に保持する。
S906において、送受信部806が、情報処理装置からの問い合わせを検知した場合、処理はS907に進む。S907において、送受信部806は、準備状況保持部805に保持されている仮想視点画像が生成可能な時刻を取得する。S908において、送受信部806は、問い合わせを送信した情報処理装置に、S907で取得した時刻を送信する。その後、処理はS801に戻る。他方、S906で問い合わせを検知していないと判定された場合、処理はそのままS901に戻る。
なお、第1実施形態のS405では、情報処理装置10がばらつきを吸収するためのマージンTαを設ける場合の説明をした。第2実施形態で説明したように画像生成装置110が複数のデータセットを保持する場合においても、画像生成装置110の準備状況検出部804がマージンTαを決定することが好ましい。複数存在する情報処理装置が各々でマージンを設定してしまうと、ライブ時刻がマージンの違いでばらつくため時刻同期が担保されなくなるからである。準備状況検出部804で共通のマージンTαを設けることで時刻同期を担保することが可能である。
以上説明したように、第2実施形態では、仮想視点画像を生成可能な時刻が、情報処理装置から画像生成装置110に問い合わせることにより取得される。これにより、第1実施形態よりも短時間で仮想視点画像を生成可能な時刻を得ることができる。
<第3実施形態>
第1実施形態および第2実施形態では、情報処理装置10と画像生成装置110が協調することで仮想視点画像を生成可能な時刻を取得する場合について説明したが、これに限定されるものではない。第3実施形態では、ユーザが仮想視点画像の生成時刻(問い合わせ用時刻)を入力し、画像生成装置110が指定された時刻で仮想視点画像を生成可能であるか否かを情報処理装置10に返信する構成を説明する。なお、情報処理装置10および画像生成装置110の機能構成は、第1実施形態(図2(a))と同様である。ただし、生成可能時刻取得部203、タイムラグ保持部204は以下のように機能する。
図10は、第3実施形態におけるライブ時刻の設定処理(図3のS303の処理)を示すフローチャートである。S1001において、生成可能時刻取得部203は操作部107からのユーザによる時刻入力を待ち、時刻入力を検知すると処理をS1002に進める。S1002において、生成可能時刻取得部203は、操作部107を介して入力された時刻を取得する。S1003において、ライブ時刻設定部205は、生成可能時刻取得部203が取得した時刻をライブ時刻として設定し、タイムラグ保持部204は、ライブ時刻と現在時刻との差分をタイムラグとして保持する。S1004において、画像取得部206は、ライブ時刻設定部205が設定したライブ時刻と視点を、通信I/F106を介して、画像生成装置110に送信する。ここで送信される視点は、試し送信用に事前に用意しておいた視点でもよいし、起動時の初期値など任意の視点でよい。
S1005において、ライブ時刻設定部205は、通信I/F106において画像生成装置110が生成した仮想視点画像が受信されたかを判定する。画像生成装置110が仮想視点画像を生成できなかった場合は、生成エラーの信号が受信される。S1006において、ライブ時刻設定部205は、S1005における受信結果を判定し、画像生成ができた場合は本処理を終了する。この場合、S1003で保持されたタイムラグが、以降の仮想視点画像の生成時刻の算出に用いられる。すなわち、画像生成装置110から生成可能を表す応答を受信した際の時刻と、その時刻を送信したときの現在時刻との時間差に基づいてタイムラグが設定される。以降、ライブ時刻設定部205は、タイムラグを現在時刻から差し引くことによりライブ時刻(仮想視点画像の生成時刻)を更新する。他方、画像生成ができなかった場合は処理をS1001に戻す。この時、後述するように、ライブ時刻設定部205は、操作部107に、指定された時刻では仮想視点画像を生成できない旨の表示を行う。
図11は、操作部107により実現される、ユーザが仮想視点画像を生成する時刻の指定を受け付けるためのGUIや入力デバイスの例を示した模式図である。
図11(a)は、GUIのフォームに時刻を文字で入力する場合の模式図である。1101は時刻設定用のウインドウ、1102は現在時刻の表示領域、1103は時刻の入力フォーム、1104はユーザが入力した時刻で仮想視点画像を生成できるか否かの判定結果を表示する領域である。ユーザは、現在時刻を参考にライブ時刻を入力するので、現在時刻表示領域1102が時刻入力フォーム1103と同一画面上に配置されていることが好ましい。判定結果表示領域1104には、S1006の判定結果が表示される。
図11(b)は、GUIのフォームに仮想視点画像が生成可能な状態になるまでの準備時間を入力する場合の模式図である。1121は時刻設定用のウインドウ、1122は準備時間を設定するための入力スライダーである。1123は入力スライダー1122のバーに相当するGUI部品、1124は過去の履歴から算出した推奨値を示すバーである。判定結果表示領域1125はユーザが入力した準備時間で仮想視点画像を生成できるか否か(S1106の判定結果)を表示する領域である。準備時間は、タイムラグ保持部204に保持される。準備時間をスライダーで入力することで、ユーザが時刻を文字入力する手間を低減できる。
図11(c)は、入力デバイスに仮想視点画像が生成可能な状態になるまでの準備時間を入力する場合の模式図である。1140は入力デバイス、1141は、準備時間を入力するためのダイヤルである。また、1142は、ダイヤル1141を操作することで設定される準備時間を表示する領域である。判定結果表示領域1143は、ユーザが入力した準備時間で仮想視点画像を生成できるか否か(S1106の判定結果)を表示する領域である。なお、ダイヤル1141の替わりにスライダーなどの任意のデバイス部品を使ってもよい。
なお、S1004では、ライブ時刻とともに仮想視点を送信しているがこれに限定されるものではなく、ライブ時刻だけを送信するようにしてもよい。また、画像生成装置110は、仮想視点画像を生成できる場合に、仮想視点画像を返す替わりに、第1実施形態のように生成可能であることを示す信号を送信するようにしてもよい。その場合は、例えば、ライブ時刻設定部205が、S1005において、通信I/F106を介して、生成可能か否かを示す信号を受信する。また、判定結果表示領域1104、1125、1143には、S1006による判定の結果が表示される。S1006において画像生成装置110からの応答が画像生成できないことを示す場合、これら判定結果表示領域にはその旨(NG)が表示され、ユーザに時刻の再入力を促すことになる。
図12は、第3実施形態における送受信メッセージの一例を示す模式図である。図12(a)は、情報処理装置10から画像生成装置110に問い合わせる際のメッセージ1201を示す。メッセージ1201は、S1004において送信される。本例では「0時33分21秒45フレーム」の仮想視点画像が生成可能かを問い合わせている。図12(b)および(c)は、問い合わせのメッセージ1201に対する応答メッセージの例である。(b)は生成可能であることを通知するメッセージ1202、(c)は生成できないことを通知するメッセージ1203の例である。メッセージ1202,1203は、S1005において受信される。言うまでもないことであるが、画像生成装置110とのやり取りで用いられるメッセージは、双方で解釈可能であれば任意のデータフォーマットでよい。
以上説明したように、第3実施形態によれば、ユーザが仮想視点画像を生成可能と推定される時刻あるいは希望する時刻を問い合わせ用時刻として入力することで、ライブ時刻を設定することが可能である。これにより、情報処理装置10と画像生成装置110の間で仮想視点画像を生成可能な時刻を求める機能を実装しなくてすむという利点がある。
<第4実施形態>
第1実施形態から第3実施形態では、ライブ中継用の仮想視点画像を生成する際、情報処理装置10側で仮想視点画像を生成可能な時刻を考慮した上で生成したい時刻と仮想視点を送信する場合について説明したが、これに限定されるものではない。第4実施形態では、ライブ中継用の仮想視点画像を生成する際に、情報処理装置10から時刻を送信せず仮想視点を送信する構成について説明する。
図13(a)は、本実施形態における情報処理装置10の機能構成を示すブロック図である。図2(a)と同様の機能ブロックには同じ参照番号を付してある。ライブ・リプレイ判定部1301は、これから設定する視点がライブ中継用なのか、リプレイ用なのかを判定する。その判定方法は、GUI等にライブ・リプレイの切り替えボタンを設けるなど任意の方法でよい。リプレイ時刻設定部1302は、リプレイ画像を生成する時刻を設定する。リプレイ時刻の設定方法は、GUI入力や入力デバイスを用意するなど任意の方法でよい。
図13(b)は、画像生成装置110の機能構成例を示すブロック図である。図2(b)と同様の機能ブロックには同じ参照番号を付してある。ライブ判定部814は、情報処理装置10からの仮想視点のメッセージがライブ中継用の仮想視点画像の生成を指示しているか、リプレイ用の仮想視点画像の生成を指示しているかを判定する。時刻設定部813は、データ保持部803におけるデータのセットの状況から、生成可能な仮想視点画像の時刻を設定する。
図14は、第4実施形態における情報処理装置10の処理を示すフローチャートである。図3と同じ処理を行うステップには同じ番号を付してある。S1401において、ライブ・リプレイ判定部1301は、これから生成する仮想視点画像がライブ用なのかリプレイ用なのかを判定する。ライブ用の場合、処理はS302に進み、リプレイ用の場合、処理はS1404に進む。
S302において、仮想視点取得部201は、操作部107を介して入力された信号から仮想視点を取得する。S1402において、画像取得部206は、仮想視点取得部201が取得した仮想視点を、通信I/F106を介して、画像生成装置110に送信する。ここでは時刻は送信されない。情報処理装置10から仮想視点を受信した画像生成装置110は、可能な範囲で最新の撮影画像を用いて仮想視点画像を生成し、情報処理装置10へ送信する。S304において、通信I/F106は、画像生成装置110が生成し、送信した仮想視点画像を受信する。S305において、表示部105は、通信I/F106が受信した仮想視点画像を表示する。S306において、仮想視点の設定用アプリケーションの終了指示が操作部107を介して受理された場合、本処理は終了する。終了指示を受理していない場合、処理はS1401に戻る。
S1404では、リプレイ時刻設定部1302がリプレイ画像を生成する時刻を設定する。S302において、仮想視点取得部201は、操作部107を介して入力された信号から仮想視点を取得する。S1405において、画像取得部206は、仮想視点取得部201が取得した仮想視点とリプレイ時刻設定部1302が設定したリプレイ時刻を、通信I/F106を介して、画像生成装置110に送信する。仮想視点とリプレイ時刻を受信した画像生成装置110は、リプレイ時刻における、仮想視点からの仮想視点画像を生成し、情報処理装置10へ送信する。S304~S306の動作は上述のとおりである。
図14において、処理1421がライブ用画像を生成する処理を示しており、処理1422がリプレイ画像を生成する処理を示している。処理1421と処理1422を比較すると、ライブでは時刻は設定されず、リプレイでは時刻が設定される。以上のように、第4実施形態では、画像取得部206は、ライブ・リプレイ判定部1301によりライブ用の仮想視点画像の生成が設定されていると判定された場合に、画像生成装置110に仮想視点画像を生成するための仮想視点を送信するが生成時刻を送信しない。一方、ライブ・リプレイ判定部1301によりリプレイ用の仮想視点画像の生成が設定されていると判定された場合には、画像生成装置110に仮想視点と生成時刻を送信する。
図15は、S1402で送信されるライブ用の仮想視点のメッセージと、S1405で送信されるリプレイ用の仮想視点のメッセージの例を示す模式図である。図15(a)には、S1402で送信されるライブ用の仮想視点メッセージ1501が示されている。time codeにLIVEと指定することで、この仮想視点メッセージ1501がライブ用であることを示している。一方、図15(b)は、S1405で送信されるリプレイ用の仮想視点メッセージ1502を示す。仮想視点メッセージ1502において、time codeには、リプレイ画像を生成する時刻が設定されている。
次に、第4実施形態における画像生成装置110について説明する。画像生成装置110は、図15に示した仮想視点メッセージを受信すると、ライブ判定部814が受信した仮想視点メッセージを解析し、ライブか否かの判定を行う。ライブか否かの判定は、仮想視点メッセージのtime codeがLIVEとなっているか否かで判定可能である。本実施形態では、ライブ時刻の設定を画像生成装置110の時刻設定部813で行う。時刻設定部813は、例えば図2に示した各モジュールを有し、図4に示した処理にしたがってライブ時刻を設定する。ただし、S402(時刻の送信処理)は不要である。もちろん、第2実施形態で説明したような構成により、画像生成装置110が仮想視点画像を生成可能な時刻を取得し、これをライブ時刻に設定するようにしてもよい。仮想視点画像生成部812は、ライブ判定部814によりライブと判定された場合には、時刻設定部813により設定された時刻で仮想視点画像を生成する。一方、仮想視点画像生成部812は、ライブ判定部814によりリプレイと判定された場合には、受信したメッセージに含まれている生成時刻で仮想視点画像を生成する。
以上説明したように、第4実施形態によれば、画像生成装置110側でライブ時刻を設定することができる。これにより、情報処理装置側ではライブ用の仮想視点画像を生成する際に、時刻を指定する必要がなくなる。
<その他の変形例>
第1実施形態において、現在時刻から順次遡って問い合わせることにより、画像生成装置110が仮想視点画像を生成可能な時刻を取得する場合について説明した。しかしながら、これに限定されるものではなく、二分探索で問い合わせることで仮想視点画像を生成可能な時刻を取得してもよい。例えば、32秒→16秒→8秒→4秒→・・・→1秒→1/2秒→1/4秒→1/8秒→1/16秒→1/32秒というように問い合わせ幅を制御する。32秒で生成可能だった場合は、16秒で生成可能か否かを問い合わせる。16秒で生成できない場合は、16秒に8秒加算した24秒で問い合わせる。24秒で生成できた場合は24秒から4秒減算した20秒で問い合わせる。これを繰り返し、徐々に生成可能な時刻を求めることも有効である。この方法の利点は、一定の問い合わせ回数で確実に生成可能な時刻を求めることができる点である。
第1から第4実施形態において、主にライブ用の仮想視点画像を生成する際の仮想視点画像を生成可能な時刻の取得方法について説明した。仮想視点画像を生成可能な時刻を取得する際に得られる仮想視点画像が生成可能な状態になるまでの準備時間は、リプレイ用の仮想視点画像を生成する際にも利用可能である。例えば、現在時刻から準備時間を差し引いた時間よりも未来の時刻の仮想視点画像を生成できないことを、リプレイ時刻の設定時の制約として利用することが可能である。リプレイ時刻の設定を入力デバイスのダイヤルで指定する場合を考える。上記の制約を超える方向にはダイヤルを回せなくする機構を設けることで、リプレイ時刻の誤設定を防ぐことが可能になる。
第1から第4実施形態において、画像生成装置110と情報処理装置10を独立した装置として構成する場合について説明したが、これに限定されるものではない。例えば、仮想視点画像生成処理部を有する情報処理装置として構成してもよい。
また、第1から第4実施形態において、情報処理装置10が仮想視点を出力する場合について説明したが、これに限定されるものではなく、仮想視点を出力する機能を持たなくてもよい。例えば、仮想視点画像を生成可能な時刻を取得する情報処理装置として構成してもよい。その場合は、仮想視点を出力する別の情報処理装置、乃至、画像生成装置110に仮想視点画像を生成可能な時刻を送信することになる。
第1から第4実施形態において、仮想視点画像のフレームレートが60fpsである場合について説明したが、これに限定されるものではなく、任意のフレームレートでよい。例えば、30fpsでもよいし、59.94fpsなど任意のフレームレートでもよい。
<他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
10:情報処理装置、101:CPU、102:ROM、103:RAM、104:HDD、105:表示部、106:通信I/F、107:操作部、108:システムバス、109:カメラ、110:画像生成装置

Claims (12)

  1. 複数のカメラで撮影した複数の画像に基づいて仮想視点画像生成する画像生成装置から取得する仮想視点画像の生成時刻を制御する情報処理装置であって、
    現在時刻に基づいて算出された、前記現在時刻よりも前の問い合わせ用時刻を画像生成装置に対して送信する送信手段と、
    前記送信手段により送信された問い合わせ用時刻に対する前記画像生成装置からの応答が仮想視点画像の生成可能を表す場合に、前記画像生成装置から取得する仮想視点画像の生成時刻を、前記送信手段により送信された前記問い合わせ用刻に基づいて決定する決定手段と、を備え
    前記送信手段は、前記現在時刻から時間値を引いて前記問い合わせ用時刻を算出し、前記時間値を徐々に大きくしながら前記問い合わせ用時刻の送信を繰り返すことを特徴とする情報処理装置。
  2. 前記送信手段は、生成される仮想視点画像のフレームレートにおけるフレーム間隔の時間を前記時間値に加算することにより前記時間値を徐々に大きくすることを特徴とする請求項に記載の情報処理装置。
  3. 前記決定手段は、前記画像生成装置から生成可能を表す応答を受信した際の問い合わせ用時刻の生成に用いられた前記時間値に基づいてタイムラグを設定し、前記タイムラグを現在時刻から差し引くことにより前記生成時刻を決定することを特徴とする請求項またはに記載の情報処理装置。
  4. 前記決定手段は、生成可能を表す前記応答を受信した際の前記時間値にマージンを加算して前記タイムラグを設定することを特徴とする請求項に記載の情報処理装置。
  5. 前記決定手段は前記タイムラグの取得を複数回行い、取得されたタイムラグのうち最も大きいタイムラグを採用することを特徴とする請求項またはに記載の情報処理装置。
  6. 複数のカメラで撮影した複数の画像に基づいて仮想視点画像を生成する画像生成装置から取得する仮想視点画像の生成時刻を決定する情報処理装置であって、
    現在時刻よりも前の時刻であって、画像生成装置が生成可能な仮想視点画像に対応する時刻の問い合わせを、前記画像生成装置に対して送信する送信手段と、
    前記画像生成装置からの前記問い合わせに対する応答に含まれる時刻に基づいて仮想視点画像の生成時刻を決定する決定手段と、を備え、
    前記決定手段は、前記問い合わせを送信した時刻と前記応答に含まれる時刻との差に基づいてタイムラグを設定し、前記タイムラグを現在時刻から差し引くことにより前記生成時刻を決定することを特徴とする情報処理装置。
  7. 複数のカメラで撮影した複数の画像に基づいて仮想視点画像を生成する画像生成装置から取得する仮想視点画像の生成時刻を決定する情報処理装置であって、
    ユーザによる時刻の入力を受け付ける操作手段と、
    前記操作手段により入力された前記時刻を前記画像生成装置に送信する送信手段と、
    前記画像生成装置からの応答が仮想視点画像の生成可能を表す場合に、前記送信手段が送信した前記時刻に基づいて仮想視点画像の生成時刻を決定する決定手段と、を備え、
    前記決定手段は、前記画像生成装置から生成可能を表す応答を受信した際の前記送信手段が送信した前記時刻と、前記送信手段が前記時刻を送信したときの現在時刻との時間差に基づいてタイムラグを設定し、前記タイムラグを現在時刻から差し引くことにより前記生成時刻を決定することを特徴とする情報処理装置。
  8. 前記操作手段は、画像生成装置からの応答が画像生成できないことを示す場合に、ユーザに時刻の入力を促すことを特徴とする請求項に記載の情報処理装置。
  9. 複数のカメラで撮影した複数の画像に基づいて仮想視点画像を生成する画像生成装置から取得する仮想視点画像の生成時刻を制御する情報処理装置の制御方法であって、
    現在時刻に基づいて算出された、前記現在時刻よりも前の問い合わせ用時刻を画像生成装置に対して送信する送信工程と、
    前記送信工程により送信された問い合わせ用時刻に対する前記画像生成装置からの応答が仮想視点画像の生成可能を表す場合に、前記画像生成装置から取得する仮想視点画像の生成時刻を、前記送信工程により送信された前記問い合わせ用時刻に基づいて決定する決定工程と、を備え
    前記送信工程では、前記現在時刻から時間値を引いて前記問い合わせ用時刻を算出し、前記時間値を徐々に大きくしながら前記問い合わせ用時刻の送信を繰り返すことを特徴とする情報処理装置の制御方法。
  10. 複数のカメラで撮影した複数の画像に基づいて仮想視点画像を生成する画像生成装置から取得する仮想視点画像の生成時刻を決定する情報処理装置の制御方法であって、
    現在時刻よりも前の時刻であって、画像生成装置が生成可能な仮想視点画像に対応する時刻の問い合わせを、前記画像生成装置に対して送信する送信工程と、
    前記画像生成装置からの前記問い合わせに対する応答に含まれる時刻に基づいて仮想視点画像の生成時刻を決定する決定工程と、を備え、
    前記決定工程では、前記問い合わせを送信した時刻と前記応答に含まれる時刻との差に基づいてタイムラグを設定し、前記タイムラグを現在時刻から差し引くことにより前記生成時刻を決定することを特徴とする情報処理装置の制御方法。
  11. 複数のカメラで撮影した複数の画像に基づいて仮想視点画像を生成する画像生成装置から取得する仮想視点画像の生成時刻を決定する情報処理装置の制御方法であって、
    ユーザによる時刻の入力を受け付ける入力工程と、
    前記入力工程により入力された前記時刻を前記画像生成装置に送信する送信工程と、
    前記画像生成装置からの応答が仮想視点画像の生成可能を表す場合に、前記送信工程で送信した前記時刻に基づいて仮想視点画像の生成時刻を決定する決定工程と、を備え、
    前記決定工程では、前記画像生成装置から生成可能を表す応答を受信した際の前記送信工程で送信した前記時刻と、前記送信工程で前記時刻を送信したときの現在時刻との時間差に基づいてタイムラグを設定し、前記タイムラグを現在時刻から差し引くことにより前記生成時刻を決定する、ことを特徴とする情報処理装置の制御方法。
  12. 請求項乃至11のいずれか1項に記載された情報処理装置の制御方法の各工程をコンピュータに実行させるためのプログラム。
JP2018056748A 2018-03-23 2018-03-23 情報処理装置およびその制御方法、プログラム Active JP7075252B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018056748A JP7075252B2 (ja) 2018-03-23 2018-03-23 情報処理装置およびその制御方法、プログラム
EP19161494.0A EP3574963A1 (en) 2018-03-23 2019-03-08 Information processing apparatus and control method thereof
KR1020190027844A KR102353828B1 (ko) 2018-03-23 2019-03-12 정보 처리장치 및 그 제어방법
US16/359,332 US10834477B2 (en) 2018-03-23 2019-03-20 Information processing apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018056748A JP7075252B2 (ja) 2018-03-23 2018-03-23 情報処理装置およびその制御方法、プログラム

Publications (2)

Publication Number Publication Date
JP2019168966A JP2019168966A (ja) 2019-10-03
JP7075252B2 true JP7075252B2 (ja) 2022-05-25

Family

ID=65766812

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018056748A Active JP7075252B2 (ja) 2018-03-23 2018-03-23 情報処理装置およびその制御方法、プログラム

Country Status (4)

Country Link
US (1) US10834477B2 (ja)
EP (1) EP3574963A1 (ja)
JP (1) JP7075252B2 (ja)
KR (1) KR102353828B1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7349793B2 (ja) * 2019-02-15 2023-09-25 キヤノン株式会社 画像処理装置および画像処理方法、プログラム
CN114762355B (zh) * 2019-12-09 2024-08-02 索尼集团公司 信息处理装置和方法、程序以及信息处理系统
JP7467130B2 (ja) * 2020-01-21 2024-04-15 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP7476160B2 (ja) * 2021-11-29 2024-04-30 キヤノン株式会社 情報処理装置、情報処理システム、及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012119916A (ja) 2010-11-30 2012-06-21 Canon Inc 放送受信装置及びその制御方法
WO2018043225A1 (ja) 2016-09-01 2018-03-08 パナソニックIpマネジメント株式会社 多視点撮像システム、三次元空間再構成システム、及び三次元空間認識システム

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120233631A1 (en) * 1991-12-02 2012-09-13 Geshwind David M Processes and systems for creating and delivering granular idiomorphic media suitable for interstitial channels
US5629740A (en) * 1994-08-26 1997-05-13 Toko, Inc. Video transmitter for effecting after-recording
US6020931A (en) * 1996-04-25 2000-02-01 George S. Sheng Video composition and position system and media signal communication system
JP3724117B2 (ja) * 1997-05-23 2005-12-07 ソニー株式会社 画像生成装置および画像生成方法
JP2002503338A (ja) * 1997-05-30 2002-01-29 ブリティッシュ・ブロードキャスティング・コーポレーション 位置検出
JPH11261906A (ja) * 1998-01-12 1999-09-24 Sony Corp テレビ放送受信装置、テレビ放送受信方法およびテレビ放送方法
US20030076413A1 (en) * 2001-10-23 2003-04-24 Takeo Kanade System and method for obtaining video of multiple moving fixation points within a dynamic scene
JP3783233B2 (ja) * 2002-12-18 2006-06-07 ソニー株式会社 情報処理装置および情報処理方法、並びにプログラム
JP2006310936A (ja) 2005-04-26 2006-11-09 Sharp Corp 任意視点映像生成システム
JP2007323711A (ja) * 2006-05-31 2007-12-13 Sony Corp 再生装置および再生方法、並びにプログラム
JP5025217B2 (ja) * 2006-10-02 2012-09-12 京セラ株式会社 情報処理装置、情報処理方法および情報処理プログラム
US20130297353A1 (en) * 2008-01-18 2013-11-07 Mitek Systems Systems and methods for filing insurance claims using mobile imaging
JP4985834B2 (ja) * 2009-10-13 2012-07-25 株式会社ニコン 撮像装置及び画像処理装置
US10080061B1 (en) * 2009-12-18 2018-09-18 Joseph F. Kirley Distributing audio signals for an audio/video presentation
BR112012025145A2 (pt) * 2010-04-02 2017-06-27 Samsung Electronics Co Ltd método de transmissão de conteúdos de transmissão digital para fornecimento de conteúdo em 2d ou de conteúdo em 3d, método de receber o conteúdo em 2d ou de transmissão digital para fornecimento de conteúdo em 2d ou deconteúdo 3d, e mídia de gravação legível por computador.
KR101674568B1 (ko) * 2010-04-12 2016-11-10 삼성디스플레이 주식회사 영상 변환 장치 및 이를 포함하는 입체 영상 표시 장치
JP5310803B2 (ja) * 2011-07-25 2013-10-09 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
US8731339B2 (en) * 2012-01-20 2014-05-20 Elwha Llc Autogenerating video from text
CN103258339A (zh) * 2012-02-16 2013-08-21 克利特股份有限公司 基于实况记录和基于计算机图形的媒体流的实时合成
KR101804205B1 (ko) * 2012-03-15 2017-12-04 삼성전자주식회사 영상 처리 장치 및 방법
JP2014115863A (ja) * 2012-12-11 2014-06-26 Sony Corp 情報処理装置、情報処理方法およびプログラム
US9232242B2 (en) * 2012-12-11 2016-01-05 Cbs Interactive, Inc. Techniques to broadcast a network television program
US10165157B2 (en) * 2013-02-19 2018-12-25 Disney Enterprises, Inc. Method and device for hybrid robotic/virtual pan-tilt-zoom cameras for autonomous event recording
US8977492B1 (en) * 2013-03-15 2015-03-10 Rockwell Collins, Inc. Temporary, location-dependent clock presentation system, device, and method
US20150032801A1 (en) * 2013-07-29 2015-01-29 Matthew Bryan Hart Simultaneous events over a network
US9666162B2 (en) * 2013-07-30 2017-05-30 Boe Technology Group Co., Ltd. Method and apparatus for converting image from RGB signals to RGBY signals
US10521671B2 (en) * 2014-02-28 2019-12-31 Second Spectrum, Inc. Methods and systems of spatiotemporal pattern recognition for video content development
JP2015212876A (ja) * 2014-05-02 2015-11-26 キヤノン株式会社 映像再生システム
US9766075B2 (en) * 2014-05-02 2017-09-19 Thales Visionix, Inc. Registration for vehicular augmented reality using auto-harmonization
US9549100B2 (en) * 2015-04-23 2017-01-17 Microsoft Technology Licensing, Llc Low-latency timing control
US9782678B2 (en) * 2015-12-06 2017-10-10 Sliver VR Technologies, Inc. Methods and systems for computer video game streaming, highlight, and replay
US9569812B1 (en) * 2016-01-07 2017-02-14 Microsoft Technology Licensing, Llc View rendering from multiple server-side renderings
US10425483B2 (en) * 2016-05-16 2019-09-24 International Business Machines Corporation Distributed client based cache for keys using demand fault invalidation
JP6482498B2 (ja) * 2016-05-25 2019-03-13 キヤノン株式会社 制御装置、制御方法、及び、プログラム
US10631031B2 (en) * 2016-12-14 2020-04-21 Reliant Immune Diagnostics, Inc. System and method for television network in response to input
EP3379379A1 (en) * 2017-03-24 2018-09-26 Nokia Technologies Oy Virtual reality system and method
US11303689B2 (en) * 2017-06-06 2022-04-12 Nokia Technologies Oy Method and apparatus for updating streamed content
US9998664B1 (en) * 2017-06-20 2018-06-12 Sliver VR Technologies, Inc. Methods and systems for non-concentric spherical projection for multi-resolution view
US10852934B2 (en) * 2017-12-21 2020-12-01 The Boeing Company Latency compensation in coupled processor systems
JP7233867B2 (ja) * 2018-07-20 2023-03-07 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US20200051582A1 (en) * 2018-08-08 2020-02-13 Comcast Cable Communications, Llc Generating and/or Displaying Synchronized Captions
KR102288039B1 (ko) * 2019-03-20 2021-08-12 광운대학교 산학협력단 관찰자를 추적할 수 있는 공중 3차원 디스플레이 장치 및 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012119916A (ja) 2010-11-30 2012-06-21 Canon Inc 放送受信装置及びその制御方法
WO2018043225A1 (ja) 2016-09-01 2018-03-08 パナソニックIpマネジメント株式会社 多視点撮像システム、三次元空間再構成システム、及び三次元空間認識システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
伊澤逸平太,FPGAに基づく焦点ぼけ構造からの実時間自由視点画像生成システムの検討,電子情報通信学会論文誌,日本,社団法人電子情報通信学会,2010年,Vol.J93-D No.9,pp.1704-1708

Also Published As

Publication number Publication date
KR20190111770A (ko) 2019-10-02
US10834477B2 (en) 2020-11-10
EP3574963A1 (en) 2019-12-04
US20190297393A1 (en) 2019-09-26
KR102353828B1 (ko) 2022-01-20
JP2019168966A (ja) 2019-10-03

Similar Documents

Publication Publication Date Title
JP7075252B2 (ja) 情報処理装置およびその制御方法、プログラム
KR102187974B1 (ko) 가상 시점 화상의 생성에 관한 정보 처리 장치, 방법 및 프로그램
CN110073414B (zh) 图像处理设备、方法和非暂时性计算机可读存储介质
JP7179515B2 (ja) 装置、制御方法、及びプログラム
US11250619B2 (en) Image processing apparatus and method
JP2018036956A (ja) 表示制御装置、表示制御方法及びプログラム
CA3070736C (en) Display control apparatus and display control method
KR20200109219A (ko) 증강현실 서비스를 제공하는 단말 및 서버
US20190246089A1 (en) Information processing apparatus and method of controlling the same
JP2024124469A (ja) 画像処理装置、画像処理方法、コンピュータプログラム
CN113259764A (zh) 视频的播放方法、播放装置、电子设备及系统
CN110928509B (zh) 显示控制方法、显示控制装置、存储介质、通信终端
JP2018055279A (ja) 画像処理装置、画像処理方法、及び、プログラム
JP2021144522A (ja) 画像処理装置、画像処理方法、プログラム、及び画像処理システム
JP7022540B2 (ja) 情報処理装置およびその制御方法
KR102187016B1 (ko) 타임 슬라이스 영상을 제공하는 사용자 단말 및 영상 제공 서버
JP5937871B2 (ja) 立体的画像表示装置、立体的画像表示方法及び立体的画像表示プログラム
JP2007079799A (ja) 仮想空間表示装置および仮想空間表示方法
JP2022165662A (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP2023183059A (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
JP2022126208A (ja) 情報処理装置、情報処理方法、及び、プログラム
JP2021089647A (ja) データ処理装置、データ処理方法、及びプログラム
JP2020036295A (ja) 情報処理装置、方法、及びプログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220415

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220513

R151 Written notification of patent or utility model registration

Ref document number: 7075252

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151