JP2022094789A - 情報処理装置、情報処理方法、及び、プログラム - Google Patents
情報処理装置、情報処理方法、及び、プログラム Download PDFInfo
- Publication number
- JP2022094789A JP2022094789A JP2020207874A JP2020207874A JP2022094789A JP 2022094789 A JP2022094789 A JP 2022094789A JP 2020207874 A JP2020207874 A JP 2020207874A JP 2020207874 A JP2020207874 A JP 2020207874A JP 2022094789 A JP2022094789 A JP 2022094789A
- Authority
- JP
- Japan
- Prior art keywords
- virtual viewpoint
- information
- information processing
- image
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 64
- 238000003672 processing method Methods 0.000 title 1
- 238000000034 method Methods 0.000 claims description 26
- 238000012545 processing Methods 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 12
- 230000008859 change Effects 0.000 claims description 4
- 230000004044 response Effects 0.000 claims description 2
- 230000004075 alteration Effects 0.000 abstract 1
- 238000001514 detection method Methods 0.000 description 47
- 238000004891 communication Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 6
- 238000009877 rendering Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000013144 data compression Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
【課題】 所定のイベントを見るための複数の仮想視点を決定できるようにする。
【解決手段】 情報処理装置202は、複数の撮影装置が被写体を撮影することにより得られる複数の撮影画像に基づいて生成される仮想視点画像に対応する仮想視点の位置及び仮想視点からの視線方向を表す第1の仮想視点情報、及び、被写体に係る所定のイベントに応じた仮想視点画像を生成するための、第1の仮想視点情報とは異なる第2の仮想視点情報であって、第1の仮想視点情報により表される仮想視点の位置及び仮想視点からの視線方向の変化に基づいて変化する仮想視点の位置及び仮想視点からの視線方向を表す第2の仮想視点情報を決定する仮想視点制御部507と、第1の仮想視点情報及び第2の仮想視点情報を出力するデータ入出力部503とを有する。
【選択図】 図5
【解決手段】 情報処理装置202は、複数の撮影装置が被写体を撮影することにより得られる複数の撮影画像に基づいて生成される仮想視点画像に対応する仮想視点の位置及び仮想視点からの視線方向を表す第1の仮想視点情報、及び、被写体に係る所定のイベントに応じた仮想視点画像を生成するための、第1の仮想視点情報とは異なる第2の仮想視点情報であって、第1の仮想視点情報により表される仮想視点の位置及び仮想視点からの視線方向の変化に基づいて変化する仮想視点の位置及び仮想視点からの視線方向を表す第2の仮想視点情報を決定する仮想視点制御部507と、第1の仮想視点情報及び第2の仮想視点情報を出力するデータ入出力部503とを有する。
【選択図】 図5
Description
本開示は、仮想視点画像を生成する技術に関するものである。
近年、撮影領域の周囲に複数の撮影装置を配置して撮影を行い、それぞれの撮影装置から取得された複数の撮影画像を用いて、指定された視点(仮想視点)から見た画像(仮想視点画像)を生成する技術が注目されている。仮想視点画像を生成する技術においては、例えば、サッカーやバスケットボールなどにおける特定シーン(例えばゴールシーンなど)を様々な角度から視聴することができるため、従来の撮影画像と比較してユーザに高臨場感を与えることができる。
特許文献1には、ゲームにおいてリプレイイベントが発生した際、イベントに関与したキャラクタを映す複数のリプレイカメラの映像を画面に表示させることが記載されている。
しかしながら、引用文献1は、生成される複数のリプレイカメラの位置や向きはキャラクタの位置に応じて自動で決定される。このため、ユーザが仮想視点画像を生成する際に所定のイベントを見るための複数の仮想視点を任意に決定したい場合に、各仮想視点をそれぞれ決定する必要があり、ユーザの処理負荷が大きくなるという問題がある。
本開示は上記の課題に鑑みてなされたものである。その目的は、所定のイベントを見るための複数の仮想視点を決定できるようにすることである。
本発明に係る情報処理装置は、複数の撮影装置が被写体を撮影することにより得られる複数の撮影画像に基づいて生成される仮想視点画像に対応する仮想視点の位置及び仮想視点からの視線方向を表す第1の仮想視点情報を決定する第1の決定手段と、前記被写体に係る所定のイベントに応じた仮想視点画像を生成するための、前記第1の決定手段により決定される前記第1の仮想視点情報とは異なる第2の仮想視点情報であって、前記第1の仮想視点情報により表される仮想視点の位置及び仮想視点からの視線方向の変化に基づいて変化する仮想視点の位置及び仮想視点からの視線方向を表す第2の仮想視点情報を決定する第2の決定手段と、前記第1の決定手段により決定される第1の仮想視点情報、及び、前記第2の決定手段により決定される第2の仮想視点情報を出力する出力手段とを有することを特徴とする。
本開示によれば、所定のイベントを見るための複数の仮想視点を決定することができる。
以下、実施の形態について、図面を参照しながら説明する。なお、以下の実施形態に記載される構成要素は実施の形態の一例を示すものであり、本開示をそれらのみに限定するものではない。
(実施形態)
<システム構成>
図1を用いて、本実施形態に係る画像処理システム100の構成について説明する。画像処理システム100は、仮想視点画像を生成するためのシステムである。画ここで、仮想視点画像とは、複数の撮影装置から得られる画像に基づいて生成される画像であって、指定された視点(仮想視点)から見た画像である。
<システム構成>
図1を用いて、本実施形態に係る画像処理システム100の構成について説明する。画像処理システム100は、仮想視点画像を生成するためのシステムである。画ここで、仮想視点画像とは、複数の撮影装置から得られる画像に基づいて生成される画像であって、指定された視点(仮想視点)から見た画像である。
像処理システム100は、複数の撮影装置(カメラ)、画像生成装置201、情報処理装置202、及び、ユーザ端末203を有する。本実施形態においては、複数のカメラ104は、スタジアム101に設置されるものとする。図2は、複数のカメラ104の設置の一例を示す図である。スタジアム101には、観客席102と、実際に競技等が行われるフィールド103とが含まれる。複数のカメラ104は、それぞれが撮影対象であるフィールド103の少なくとも一部を撮影すると共に、少なくとも2つのカメラの画角に重なりが生じるように配置される。なお、本実施形態においては、カメラ1、カメラ2、・・・、カメラnのn台のカメラが使用されるものとしたが、カメラの台数nは任意の数であってよい。
複数のカメラ104は、伝送ケーブル等を介して互いに接続される。また、複数のカメラ104は、伝送ケーブル等を介して画像生成装置201にも接続される。本実施形態においては、複数のカメラ104及び画像生成装置201はデイジーチェーン接続されるものとする。しかしこれに限定されず、複数のカメラ104のそれぞれが画像生成装置201に接続されるスター型接続の構成となっていてもよい。
複数のカメラ104は、それぞれがフィールド103を撮影し、撮影により得られた画像を画像生成装置201へ伝送する。図2の例では、複数のカメラ104は、サッカー場などのスタジアム101の全てまたは一部の範囲が撮影されるように配置される。複数のカメラ104は、静止画像を撮影するように構成されてもよいし、動画像を撮影するように構成されてもよい。また、複数のカメラ104は、静止画像と動画像との両方を撮影するように構成されてもよい。なお、本実施形態では、特に断りがない限り、「画像」は、静止画と動画との両方を含む表現であるものとする。また、本実施形態における仮想視点画像についても、特に断りがない限り、静止画と動画との両方を含むものとする。
画像生成装置201は、複数のカメラ104から得られる画像を使用して、仮想視点画像を生成する装置である。画像生成装置201は、複数のカメラにより撮影された画像(以下、撮影画像ともいう)を蓄積する。また、画像生成装置201は、後述する情報処理装置から、仮想視点の位置、及び、仮想視点の視線方向を示す情報(以下、仮想視点情報という)を取得する。画像生成装置201は、複数のカメラ104から得られる撮影画像と、情報処理装置から得られる仮想視点情報とを用いて、仮想視点画像を生成する。
画像生成装置201は、生成した仮想視点画像を、情報処理装置に出力する。画像生成装置201は、例えばサーバ装置であり、複数の撮影画像や、生成した仮想視点画像を記憶するデータベース機能と、仮想視点画像を生成するための画像処理機能とを有する。また、スタジアム101内の複数のカメラ104と画像生成装置201とは、有線または無線の通信ネットワーク回線や、SDI(Serial Digital Interface)等のケーブル回線によって接続される。画像生成装置201は、複数のカメラ104によって撮影された画像を、この回線を通じて受信して、受信した画像をデータベースに格納する。
情報処理装置202は、仮想視点画像の生成に使用される仮想視点情報を決定する装置である。情報処理装置202は、例えば、後述するユーザ端末203からユーザ操作を受け付け、ユーザ操作に基づいて仮想視点情報を決定する。本実施形態における情報処理装置202は、決定する仮想視点情報の数を、単数または複数に切り替える機能を有する。具体的には、情報処理装置202は、一つの仮想視点を決定するモード(以下、「単数仮想視点モード」ともいう)と、複数の仮想視点情報を決定するモード(以下、「複数仮想視点モード」ともいう)とを切り替える機能を有する。情報処理装置202は、単数仮想視点モードの場合に、複数の仮想視点に切り替える条件(以下、この条件のことを「トリガ」ともいう。)を検出すると、複数仮想視点モードに切り替わる。具体的な処理は後述する。
トリガは、例えば、シュート等のゴールシーンや、反則(ペナルティシーン)など、被写体に係る所定のイベントの発生である。情報処理装置202は、複数仮想視点モードへ切り替える場合、少なくとも2つ以上の仮想視点を生成する。情報処理装置202は、生成した複数の仮想視点を、ユーザ端末203の操作指示に基づいて制御する。その際、情報処理装置202は、基準となる仮想視点の動きに応じて、基準以外の仮想視点を制御する。
情報処理装置202は、例えば、パーソナルコンピュータである。なお、情報処理装置202は、画像生成装置201やユーザ端末203に組み込まれてもよい。即ち、情報処理装置202は、画像生成装置201とユーザ端末203との少なくともいずれかと一体の装置として実現されてもよい。
ユーザ端末203は、画像処理システム100を利用するユーザが所持する情報処理装置である。ユーザ端末203は、ユーザの入力に基づいて、仮想視点の位置及び仮想視点からの視線方向を決定するためのユーザ操作を受け付ける。ユーザ端末203は、ユーザ操作の指示内容を示す操作情報を情報処理装置202へ伝送する。情報処理装置202は、ユーザ端末203から取得される操作情報に基づいて、仮想視点情報を決定する。仮想視点情報は、時刻情報、仮想視点の位置を示す位置情報、及び、仮想視点からの視線方向を示す方向情報で構成される。
図6(a)に、仮想視点情報の構成例を示す。時刻情報は、HH(時間):MM(分):SS(秒).FF(フレーム)で構成される。この時刻情報は、例えば、複数のカメラ104が撮影を行った時刻を表す。位置情報は、3つの座標軸(x軸、y軸、z軸)が原点で直交するように交わる座標系の3次元直交座標によって示される。このときの原点は、例えば、サッカーフィールドのセンターサークルの中心などであり、撮影空間内の任意の位置であってもよい。方向情報は、仮想視点を仮想的なカメラに見立てた場合におけるカメラの姿勢に相当する。すなわち、方向情報は、パン(水平方向の回転角)、チルト(垂直方向の回転角)、ロール(カメラの光軸方向の回転角)の3軸に対する角度により示される。なお、仮想視点情報の構成はこれに限定されない。例えば、仮想視点の視野の広さ(画角)に対応する情報等、他の情報が仮想視点情報に含まれていてもよし、時刻情報、位置情報、及び、方向情報のうち。任意の情報を含む構成でもよい。また、仮想視点情報に含まれる時刻情報、位置情報、及び、方向情報のうち少なくともいずれかの表示形式が異なっていてもよい。
ユーザ端末203は、情報処理装置202から仮想視点画像を受信し、ユーザ端末の表示画面、又は、外部に接続される表示装置に表示させることができる。ユーザ端末203は、例えば、パーソナルコンピュータや、スマートフォンやタブレットなどの携帯端末などである。ユーザ端末203は、マウス、キーボード、6軸コントローラ、及び、タッチパネルの少なくとも1つ等のユーザ操作を受け付けるためのインタフェースを有する。
上述した画像生成装置201、情報処理装置202及びユーザ端末203は、例えば、インターネットなどのネットワークを介して相互に情報のやり取りが可能となるように構成される。なお、装置間の通信は、無線通信と有線通信とのいずれか又はこれらの組み合わせのいずれによって行われてもよい。
<ハードウェア構成>
続いて、画像処理システム100における各装置の構成例について説明する。図3は、画像生成装置201のハードウェア構成を示す図である。画像生成装置201は、コントローラユニット300、操作ユニット309、および表示装置310を含んで構成される。なお、情報処理装置202、及びユーザ端末203も、図3に示すハードウェア構成と同様の構成を有するものとする。
続いて、画像処理システム100における各装置の構成例について説明する。図3は、画像生成装置201のハードウェア構成を示す図である。画像生成装置201は、コントローラユニット300、操作ユニット309、および表示装置310を含んで構成される。なお、情報処理装置202、及びユーザ端末203も、図3に示すハードウェア構成と同様の構成を有するものとする。
コントローラユニット300は、CPU301、ROM302、RAM303、HDD304、操作部I/F305、表示部I/F306、及び通信I/F307を含む。なお、これらのハードウェアブロックは、例えばシステムバス308によって相互に通信可能となるように接続される。なお、CPUはCentral Processing Unitの略であり、HDDはHard Disk Driveの略であり、I/Fはインタフェースである。
CPU301は、システムバス308を介して、ROM302、RAM303、HDD304、操作部I/F305、表示部I/F306、及び、通信I/F307の動作を制御する。CPU301は、ROM302に格納されているブートプログラムによりOS(Operating System)を起動する。CPU301は、このOS上で、例えばHDD304に格納されているアプリケーションプログラムを実行する。CPU301がアプリケーションプログラムを実行することによって、各装置の各種処理が実現される。RAM303は、例えば、各種一時的な情報の格納やCPU301の作業領域のために用いられる。HDD304は、アプリケーションプログラムや、仮想視点画像の生成に使用されるデータ(画像及び仮想視点情報等)を格納する。なお、CPU301は、1つ以上の任意のプロセッサ(例えば、ASIC(特定用途向け集積回路)、DSP(デジタルシグナルプロセッサ)や、FPGA(フィールドプログラマブルゲートアレイ)等)によって置き換えられてもよい。
操作部I/F305は、操作ユニット309とのインタフェースである。操作部I/F305は、操作ユニット309によって受け付けられたユーザ操作の情報をCPU301へ転送する。操作ユニット309は、例えば、マウスやキーボード、タッチパネル等の、ユーザ操作を受付可能な機器を含んで構成される。表示部I/F306は、表示装置310とのインタフェースであり、例えば、表示装置310が表示すべき画像データを表示装置310に対して出力する。表示装置310は、液晶ディスプレイなどのディスプレイを含んで構成される。通信I/F307は、例えばイーサネット(登録商標)等の通信を行うためのインタフェースであり、伝送ケーブルの接続を受け付けるためのコネクタ等を含んで構成される。なお、通信I/F307は、無線通信インタフェースであってもよく、例えばベースバンド回路やRF回路、及びアンテナを含んで構成されてもよい。通信I/F307は、外部装置との間で情報の入出力を行う。
なお、各装置は、ケーブルやネットワークを介して接続された外部の表示装置310に画像を表示させる表示制御を行うこともできる。この場合、装置は、表示データを表示装置310に出力させるための表示制御を実行する。なお、図3の構成は一例であり、その一部が省略され又は図示されていない構成が追加され、さらに、図示された構成が組み合わされてもよい。例えば、画像生成装置201は、表示装置310を有しなくてもよい。
<画像生成装置の機能構成>
図4に、画像生成装置201の機能構成例を示す。図4の機能構成は、画像生成装置201のCPU301が、ROM302等に記録された各種プログラムを読み出して各部の制御を実行することにより実現される。なお、図4に示す構成の一部または全部が専用のハードウェア(例えばASICやFPGA)により実現されてもよい。画像生成装置201は、一例において、制御部401、記憶部402、撮影画像入力部403、画像記憶部404、仮想視点画像生成部405、及び、データ入出力部406を有する。なお、これらの機能部は、内部バス407によって相互に接続され、制御部401による制御の下で、相互にデータを送受信することができる。
図4に、画像生成装置201の機能構成例を示す。図4の機能構成は、画像生成装置201のCPU301が、ROM302等に記録された各種プログラムを読み出して各部の制御を実行することにより実現される。なお、図4に示す構成の一部または全部が専用のハードウェア(例えばASICやFPGA)により実現されてもよい。画像生成装置201は、一例において、制御部401、記憶部402、撮影画像入力部403、画像記憶部404、仮想視点画像生成部405、及び、データ入出力部406を有する。なお、これらの機能部は、内部バス407によって相互に接続され、制御部401による制御の下で、相互にデータを送受信することができる。
制御部401は、記憶部402に格納されているコンピュータプログラムを実行することによって、画像生成装置201全体の動作を制御する。記憶部402は、ハードディスクなどの不揮発性の記憶装置を有する。記憶部402(不揮発性の記憶装置)は、画像生成装置201全体の動作を制御するコンピュータプログラム等を格納する。
撮影画像入力部403は、スタジアム101に設置された複数のカメラ104が撮影した画像を取得し、画像記憶部404へ出力する。撮影画像入力部403は、例えば有線もしくは無線の通信モジュール、又はSDI等の画像伝送モジュールにより、カメラ104から撮影画像を取得する。
画像記憶部404は、撮影画像入力部403によって取得された撮影画像と、それらの撮影画像に基づいて生成された仮想視点画像とを記憶する大容量の記憶装置である。画像記憶部404は、例えば、磁気ディスク、光ディスク、半導体メモリ等によって実現される。なお、画像記憶部404は、画像生成装置201に内蔵された装置によって実現されてもよいし、画像生成装置201とは物理的に切り離された外部の装置によって実現されてもよい。また、画像記憶部404に記憶される撮影画像及びそれに基づいて生成された仮想視点画像は、例えば、MXF(Material eXchange Format)形式の画像フォーマットで記憶される。また、これらの撮影画像及び仮想視点画像は、例えば、MPEG2形式で圧縮される。ただし、画像フォーマットやデータ圧縮方式は、これらに限定されず、任意の画像フォーマットおよびデータ圧縮方式が用いられてもよい。
仮想視点画像生成部405は、画像記憶部404に記憶された複数の撮影画像と、情報処理装置から取得される仮想視点情報とに基づいて、仮想視点画像を生成する。仮想視点画像は、例えば、イメージベースレンダリングを用いて生成される。イメージベースレンダリングは、モデリング(幾何学図形を使用して物体の形状を作成する過程)を行わず、複数の実際の視点から撮影された画像から仮想視点画像を生成するレンダリング方法である。ただし、イメージベースレンダリングによらずに仮想視点画像が生成されてもよく、例えば、モデルベースレンダリング(Model-Based Rendering、MBR)を用いて仮想視点画像が生成されてもよい。MBRは、複数の方向から被写体が撮影された複数の撮影画像に基づいて生成される三次元モデルを用いて、仮想視点画像を生成する方式である。MBRは、例えば、視体積交差法、Multi-View-Stereo(MVS)などの三次元形状復元手法によって得られる被写体の三次元形状(モデル)を利用し、仮想視点からのシーンの見えを画像として生成する。なお、仮想視点画像生成部406が仮想視点画像を生成するために行う処理の一部又は全部が、他の装置により行われる構成であってもよい。例えば、視体積交差法を使用して三次元形状を生成する場合、撮影画像における特定の被写体(選手やボールなど)を表す前景領域と、それ以外の領域である背景領域とを分離する処理が行われる。この前景領域と背景領域とを分離する処理が、例えば複数のカメラ104により行われてもよい。
ここで、仮想視点画像生成部405は、様々な仮想視点の位置及び視線方向に対応する複数の仮想視点画像を生成し、生成される複数の仮想視点画像は1つの画像ストリームとして空間方向及び時間方向に圧縮符号化される。しかしながらこれに限られず、複数の仮想視点画像は、1つの画像ストリームではなく、それぞれが独立した複数の画像として構成されてもよい。また、仮想視点画像は、圧縮符号化されていなくてもよい。また、画像生成装置201は、仮想視点画像に代えて、例えば、三次元形状データ等の三次元モデルを示す情報や、その情報が示す三次元モデルにマッピングするための画像等の、仮想視点画像を生成するための情報を生成してもよい。すなわち、仮想視点画像生成部405は、レンダリングされた仮想視点画像を生成することに代えて、情報処理装置202またはユーザ端末203で仮想視点画像をレンダリングするために必要な情報を生成してもよい。
データ入出力部406は、情報処理装置202から仮想視点情報を取得し、樹徳した仮想視点情報に対応する仮想視点画像を情報処理装置202へ出力する。
<情報処理装置の機能構成>
図5は、情報処理装置202の機能構成例を示すブロック図である。図5の機能構成は、情報処理装置202のCPU301が、ROM302等に記録された各種プログラムを読み出して各部の制御を実行することにより実現される。なお、図5示す機能部の一部または全部が専用のハードウェア(例えばASICやFPGA)により実現されてもよい。情報処理装置202は、一例において、制御部501、記憶部502、データ入出力部503、画像記憶部504、取得部505、トリガ検知部506、仮想視点制御部507、画像取得部508、表示制御部509、及び、通信部510を有する。これらの機能部は、内部バス511によって相互に接続され、制御部501による制御の下で、相互にデータを送受信することができる。
図5は、情報処理装置202の機能構成例を示すブロック図である。図5の機能構成は、情報処理装置202のCPU301が、ROM302等に記録された各種プログラムを読み出して各部の制御を実行することにより実現される。なお、図5示す機能部の一部または全部が専用のハードウェア(例えばASICやFPGA)により実現されてもよい。情報処理装置202は、一例において、制御部501、記憶部502、データ入出力部503、画像記憶部504、取得部505、トリガ検知部506、仮想視点制御部507、画像取得部508、表示制御部509、及び、通信部510を有する。これらの機能部は、内部バス511によって相互に接続され、制御部501による制御の下で、相互にデータを送受信することができる。
制御部501は、記憶部502に格納されているコンピュータプログラムを実行することによって、情報処理装置202全体の動作を制御する。記憶部502は、ハードディスクなどの不揮発性の記憶装置を有する。記憶部502(不揮発性の記憶装置)は、情報処理装置202全体の動作を制御するコンピュータプログラム等を格納する。データ入出力部503は、後述する仮想視点制御部507で決定される仮想視点情報を画像生成装置201に出力する。また、データ入出力部503は、画像生成装置201から仮想視点画像を取得する。
画像記憶部504は、データ入出力部503によって取得された仮想視点画像と、取得部505によって取得されたイベント情報、オブジェクト位置情報および注目オブジェクト情報とを記憶する大容量の記憶装置である。画像記憶部504は、例えば、磁気ディスク、光ディスク、半導体メモリ等によって実現される。なお、画像記憶部504は、情報処理装置202に内蔵された装置によって実現されてもよいし、情報処理装置202とは物理的に切り離された外部の装置によって実現されてもよい。
取得部505は、イベント情報、オブジェクト位置情報および注目オブジェクト情報を取得する。取得部505は、後述するトリガ検知部506が所定のイベントを検知することに基づいて、イベント情報を取得する。また、取得部505は、例えば被写体の三次元形状データに基づいて、オブジェクト位置情報及び注目オブジェクト情報を取得する。ただしこれに限定されず、取得部505は、例えばユーザ操作に基づいて、イベント情報、オブジェクト位置情報および注目オブジェクト情報を取得してもよい。また例えば、過去に使用されたイベント情報、オブジェクト位置情報および注目オブジェクト情報を画像記憶部504に記憶しておき、取得部505は画像記憶部504からこれらの情報を取得してもよい。また例えば、取得部505は、外部のデータベース等からこれらの情報を取得してもよい。
図6(b)は、イベント情報の構成例を示す。イベント情報は、例えば、事象(イベント)の内容と、時刻情報と、位置情報と、選手IDとで構成される。イベントの内容は、シュートや反則などといった選手が起こす事象である。時刻情報は、イベントが発生した時刻を表し、HH(時間):MM(分):SS(秒).FF(フレーム)で構成される。位置情報は、3次元直交座標を用いて、イベントが発生した位置を示す。選手IDは、アルファベットや数字で構成され、すべての選手を区別できるように割り振られた識別記号である。所定のイベントは、後述するトリガ検知部506により検知される。なお、イベント情報は、取得部505を介して画像記憶部504に蓄積されてもよい。
図6(c)は、オブジェクト位置情報の構成例を示す。オブジェクト位置情報は、例えば、時刻情報と、位置情報とで構成される。時刻情報は、HH(時間):MM(分):SS(秒).FF(フレーム)で構成される。位置情報は、3次元直交座標を用いて、オブジェクト(例えば、ボール、選手、審判)の位置を示す。オブジェクト名は、任意の名称とオブジェクトIDで構成される。オブジェクトIDは、アルファベットや数字で構成され、それぞれのオブジェクトを区別できるように割り振られた識別記号である。なお、オブジェクト位置情報は、取得部505を介して画像記憶部504に蓄積されてもよい。
図6(d)は、注目オブジェクト情報の構成例を示す。注目オブジェクトは、例えば、人気の選手や、ユーザが指定した選手等の、特定のオブジェクトである。注目オブジェクトは、例えば、贔屓している選手、今日の注目選手、得点ランキング上位の選手、などといった選手である。注目オブジェクト情報は、例えば、選手名と、選手IDとで構成される。選手名は、任意の名称である。選手IDは、アルファベットや数字で構成され、すべての選手を区別できるように割り振られた識別記号である。注目オブジェクト情報は、例えば外部データベースから事前に取得され、画像記憶部504へ記憶される。
なお、画像生成装置201または情報処理装置202は、複数のカメラ104が撮影した画像を取得し、取得した画像に基づいてイベント情報およびオブジェクト位置情報の少なくとも何れかを生成してもよい。
トリガ検知部506は、単数仮想視点モードから複数仮想視点モードへ切り替えるための条件であるトリガを検知する。トリガ検知部506は、被写体により発生したイベント、及び、被写体により発生すると予測されるイベントをトリガとして検知する。以下、トリガの検知の一例について説明する。
トリガ検知部506は、例えば、ユーザ端末203で操作対象となっている仮想視点が注目するオブジェクト(以下、ターゲットオブジェクトともいう)が、注目オブジェクトであると判定された際に、所定のイベントの発生(トリガ)を検知したと判断する。なお、ターゲットオブジェクトは、ユーザが操作する仮想視点に対応する仮想視点画像に含まれるオブジェクトである。ターゲットオブジェクトが注目オブジェクトであるか否かは、注目オブジェクト情報に基づいて判定される。
また例えば、トリガ検知部506は、ユーザ端末203で操作対象となっている仮想視点のターゲットオブジェクトを中心に、イベントが発生するか否かを予測し、イベントが発生すると予測した際にトリガを検知したと判断する。例えば、トリガ検知部506は、ターゲットオブジェクト(選手)がボールを保持している状態で周辺に敵選手が居る場合にイベントが発生すると予測してもよい。また、トリガ検知部506は、ターゲットオブジェクト(選手)がボールを保持している状態で特定領域に入った場合にイベントが発生すると予測してもよい。また、トリガ検知部506は、ターゲットオブジェクト(ボール)の周辺を複数の選手が取り囲んでいる場合にイベントが発生すると予測してもよい。
トリガ検知部506は、上述した3つのトリガのうち少なくともひとつのトリガを検知した場合、後述する仮想視点制御部507へ複数仮想視点モードへの切り替え要求を通知する。また、トリガ検知部506は、ターゲットオブジェクトの位置情報(3次元直交座標)を取得し、仮想視点制御部507へ通知する。
トリガ検知部506は、複数仮想視点モード中に、例えば、ゴールラインやサイドラインからボールが出てしまったなど、ゲームの進行が中断したと判断した場合、複数仮想視点モードを中断するキャンセル要求を仮想視点制御部507へ通知する。仮想視点制御部507は、トリガ検知部506が、ゲームの進行の中断等に係る所定のイベントを検知したことに応じて、複数仮想視点モードにおいて生成した仮想視点の決定を終了する。なお、トリガ検知部506は、ユーザ端末203を介して複数仮想視点モードを取り消す操作要求を受け付けた場合、キャンセル要求を仮想視点制御部507へ通知してもよい。また、トリガ検知部506は、ユーザ端末203を介して受け付ける操作指示が所定時間ない状態(無操作状態)を検知した場合、キャンセル要求を仮想視点制御部507へ通知してもよい。
仮想視点制御部507は、ユーザ端末203から取得した操作情報に基づいて、仮想視点情報を決定する。また、仮想視点制御部507は、単数仮想視点モードにおいて第1の仮想視点(情報)を決定中に、トリガ検知部506から切り替え要求およびターゲットオブジェクトの位置情報を受け付けた場合、複数仮想視点モードへ切り替える。このとき仮想視点制御部507は、第1の仮想視点の他に新たに少なくとも1つ以上の第2の仮想視点を追加する。このとき、仮想視点制御部507は、第1の仮想視点と異なる位置の仮想視点を第2の仮想視点として追加し、対応する第2の仮想視点情報を決定する。
仮想視点制御部507は、既存の仮想視点とターゲットオブジェクトの位置情報に基づいて、追加した仮想視点の位置及び仮想視点からの視線方向を決定する。図9は、複数仮想視点モードへ切り替え時に追加される仮想視点の生成方法の一例である。図9(a)は、複数仮想視点モードへ切り替える前の状態である。ユーザは、ユーザ端末203を介して仮想視点1321を操作し、選手1301を撮影している。仮想視点制御部507は、トリガ検知部506から切り替え要求を受け付けた場合、図13(b)に示す仮想視点の構成へ切り替える。仮想視点制御部507は、仮想視点1321の他に、仮想視点1341、仮想視点1342、仮想視点1343の3つの仮想視点を新たに追加する。仮想視点制御部507は、新たに追加した仮想視点を、既存の仮想視点1321と選手1301との距離Rを半径とした円周上に配置する。また、仮想視点制御部507は、新たに追加した仮想視点を、既存の仮想視点1321を基準として均等間隔になるように配置し、選手1301を中心として2つの仮想視点が向き合うように配置する。仮想視点制御部507は、仮想視点からの視線方向を、それぞれの仮想視点の位置から選手1301へ向けられるように決定する。すなわち、仮想視点制御部507は、被写体の位置と第1の仮想視点情報により表される仮想視点の位置との距離と、被写体の位置と第2の仮想視点情報により表される仮想視点の位置との距離とが等しくなるように、第2の仮想視点情報を決定する。
なお、新たに追加する仮想視点の数、仮想視点の位置、および仮想視点の視線方向は、これに限定しない。例えば、既存の仮想視点の位置と異なる位置で、かつ既存の仮想視点からの視線方向と等しい視線方向である仮想視点が新たに追加されてもよい。これにより、情報処理装置202は、例えば既存の仮想視点よりも近くから被写体を見るような仮想視点を追加することができる。また反対に、情報処理装置202は、既存の仮想視点よりも遠くから被写体を見るような仮想視点を追加することができる。
仮想視点制御部507は、既存の仮想視点と追加した仮想視点の位置や視線方向を初期値として、ユーザ端末203からの操作指示に基づいて、追加された仮想視点の位置や視線方向を制御する。その際、仮想視点制御部507は、既存の仮想視点に連動するように、追加した仮想視点を制御する。図10(c)は、仮想視点の同期制御の一例である。仮想視点制御部507は、ユーザ端末203から所定の方向1350へ仮想視点の位置を移動させる操作指示を受け付けた場合、仮想視点1321の位置を所定の方向1350へ変化させる。また同時に、仮想視点制御部507は、仮想視点1341、仮想視点1342、仮想視点1343の位置も所定の方向1350と同じ方向へ移動するように変化させる。
仮想視点制御部507は、複数仮想視点モード中に、トリガ検知部506からキャンセル要求を受け付けた場合、複数仮想視点モードをキャンセルする。この場合、仮想視点制御部507は、新たに追加した仮想視点を削除し、既存の仮想視点のみを残す。
なお、本実施形態では、ユーザ操作に基づいて仮想視点情報が決定されるものとしたが、これに限定されない。仮想視点制御部507は、例えば、ユーザ操作によらずに、特定の被写体が仮想視点画像に含まれるように第1の仮想視点(情報)を決定する構成であってもよい。これにより、複数仮想視点モードに移行した場合に、追加される第2の仮想視点(情報)も、ユーザ操作によらず自動で決定されるため、ユーザの処理負荷が軽減されるという効果がある。
画像取得部508は、データ入出力部503を介して仮想視点画像を取得する。また、画像取得部508は、表示制御部509へ少なくとも1つ以上の仮想視点画像を送信する。
表示制御部509は、複数仮想視点モード時に、複数の仮想視点画像を1表示画面に収まるようにレイアウトした仮想視点画像を生成する。表示制御部509は、例えば、ベースとなる仮想視点画像の上に他の仮想視点画像を重畳した仮想視点画像を生成する。図11は、複数仮想視点モードの切り替え前後のレイアウトの一例である。図11(a)は、複数仮想視点モード切り替え前の仮想視点画像であり、図11(a)の仮想視点1321から撮影された仮想視点画像1501である。図11(b)は、複数仮想視点モード切り替え後の仮想視点画像であり、図10(a)の仮想視点1321から撮影された仮想視点画像1501に、他の仮想視点から撮影された仮想視点画像1502~1504を重畳した仮想視点画像である。なお、表示画面を仮想視点画像の数だけ分割し、それぞれの領域に仮想視点画像を割り当てるレイアウトであってもよい。また、ユーザ端末203の表示装置の構成がマルチディスプレイの場合、レイアウトしなくてもよい。
また、追加された仮想視点に対応する仮想視点画像のすべてが表示される構成でなくてもよい。例えば、追加された仮想視点を含む複数の仮想視点に対応する複数の仮想視点画像のうち、ユーザ操作に基づいて選択された仮想視点画像が表示されるようにしてもよい。
通信部510は、表示制御部509から取得した仮想視点画像をユーザ端末203へ出力する。また、通信部510は、操作指示や仮想視点パラメータをユーザ端末203から入力する。
なお、本実施形態においては、情報処置装置202が仮想視点情報を決定し、画像生成装置201が仮想視点画像を生成する構成であるとした。しかしこれに限定されず、情報処理装置202又はユーザ端末203が仮想視点画像を生成する画像生成部を有する構成でもよい。
<動作フロー>
図7は、情報処理装置202が行う処理の流れを示すフローチャートである。図7の処理は、情報処理装置202の電源がONになると、処理が開始される。S1101において、仮想視点制御部507は、ユーザ端末203から取得される捜査情報に基づいて、仮想視点情報を決定する。S1102において、トリガ検知部506は、トリガとなる所定のイベントの発生を検知する処理を行う。詳細については後述する。S1103において、仮想視点制御部507は、データ入出力部503を介して画像生成装置201に仮想視点情報を出力する。S1104において、データ入出力部503は仮想視点画像を取得する。また、表示制御部509は、通信部510を介してユーザ端末203に仮想視点画像を送信し、ユーザ端末203の表示画面に仮想視点画像を表示させる。以上の処理は、仮想視点情報の決定処理が行われる間、繰り返し実行される。
図7は、情報処理装置202が行う処理の流れを示すフローチャートである。図7の処理は、情報処理装置202の電源がONになると、処理が開始される。S1101において、仮想視点制御部507は、ユーザ端末203から取得される捜査情報に基づいて、仮想視点情報を決定する。S1102において、トリガ検知部506は、トリガとなる所定のイベントの発生を検知する処理を行う。詳細については後述する。S1103において、仮想視点制御部507は、データ入出力部503を介して画像生成装置201に仮想視点情報を出力する。S1104において、データ入出力部503は仮想視点画像を取得する。また、表示制御部509は、通信部510を介してユーザ端末203に仮想視点画像を送信し、ユーザ端末203の表示画面に仮想視点画像を表示させる。以上の処理は、仮想視点情報の決定処理が行われる間、繰り返し実行される。
図8は、図7におけるS1102を説明するためのフローチャートである。まず、トリガ検知部506は、所定のイベントの発生を検知する(S1001)。トリガ検知部506は、所定のイベントが発生した場合(S1001のYes)、トリガを検知したと判断し、S1007へ進む。イベントの発生を検知しなかった場合(S1001のNo)、S1002へ進む。
次に、トリガ検知部506は、オブジェクト位置情報と、注目オブジェクト情報と、時刻情報と、仮想視点画像とを取得する(S1002)。トリガ検知部506は、取得部505を介してオブジェクト位置情報と、注目オブジェクト情報とを取得する。また、トリガ検知部506は、仮想視点画像に付帯される時刻情報を取得する。また、トリガ検知部506は、ユーザ端末203で操作対象となっている仮想視点の位置及び仮想視点からの視線方向に基づいて生成された仮想視点画像を、画像取得部508から取得する。この時、画像取得部508から取得した仮想視点画像は、例えば、図11(a)である。
次に、トリガ検知部506は、ユーザ端末203で操作対象となっている仮想視点の視野範囲の中から、ターゲットとなるオブジェクトを決定する(S1003)。トリガ検知部506は、S1002で取得した仮想視点画像の中央または中央付近に位置するオブジェクトを検出し、検出したオブジェクトの3次元位置を算出する。トリガ検知部506は、S1002で取得した時刻情報と算出した3次元直交座標を用いて、S1002で取得したオブジェクト位置情報と照合し、オブジェクト(ターゲットオブジェクト)を特定する。
次に、トリガ検知部506は、注目オブジェクトの有無を判断する(S1004)。トリガ検知部506は、S1003で特定したターゲットオブジェクトの選手IDを用いて、S1002で取得した注目オブジェクト情報の選出IDと照合し、一致する選出IDを有する場合(S1004のYes)、トリガを検知したと判断し、S1007へ進む。一致する選手IDが無かった場合(S1004のNo)、S1005へ進む。
次に、トリガ検知部506は、S1003で特定したターゲットオブジェクトを中心に、イベントが発生するか否かを予測する(S1005)。トリガ検知部506は、S1002で取得したオブジェクト位置情報から、S1002で取得した時刻情報が示す時刻のオブジェクトの位置情報をすべて取得し、ターゲットオブジェクトとそれ以外のオブジェクトの位置関係からイベントが発生するかを判定する。
図9(a)は、ターゲットオブジェクト1201(選手)がボール1202を保持している状態で、周辺に敵選手1203が居る状態を示す図である。トリガ検知部506は、ターゲットオブジェクト1201を中心に半径R1の円周1204の範囲内にボールが含まれ、かつ、半径R2の円周1205の範囲内に敵選手が含まれる場合、ボールの奪い合いが発生する可能性があると予測する。図9(a)の場合、円周1204の範囲内にボール1202が、円周1205の範囲内に敵選手1203が含まれるので、イベントが発生すると予測する。
図9(b)は、ターゲットオブジェクト1221(選手)がボール1222を保持している状態でペナルティエリア内に入った状態を示す図である。トリガ検知部506は、ターゲットオブジェクト1221を中心に半径R3の円周1223の範囲内にボールが含まれ、かつ、ターゲットオブジェクト1221が特定領域に居る場合、得点を奪う事象が発生する可能性があると予測する。図9(b)の場合、円周1223の範囲内にボール1222が含まれ、ターゲットオブジェクト1221が特定領域に居るので、イベントが発生すると予測する。
図9(c)は、ターゲットオブジェクト1241(ボール)が複数の選手に取り囲まれている状態を示す図である。トリガ検知部506は、ターゲットオブジェクト1241を中心に半径R4の円周1245の範囲内に複数の選手が含まれる場合、ボールの奪い合いが発生する可能性があると予測する。図9(c)の場合、円周1245の範囲内に選手1242と、選手1243と、選手1244とが含まれるので、イベントが発生すると予測する。
なお、イベント予測については上述した3つの方法に限定されるものではなく、オブジェクト位置情報を用いた他のイベント予測であってもよい。
次に、トリガ検知部506は、イベント予測の有無を判断する(S1006)。トリガ検知部506は、S1005で少なくとも1つ以上イベントが発生すると予測された場合(S1006のYes)、トリガを検知したと判断し、S1007へ進む。イベントが発生しないと予測された場合(S1006のNo)、フローチャートを終了する。
次に、トリガ検知部506は、S1001、S1004、S1006のいずれかの条件においてトリガが検知されたと判断された場合、仮想視点制御部507へ複数仮想視点モードへの切り替え要求を通知する。また、トリガ検知部506は、S1003で特定したターゲットオブジェクトの位置情報(3次元直交座標)を取得し、仮想視点制御部507へ通知する。なお、S1001のYesからS1007へ遷移してきた場合、シュートや反則などの事象を起こした選手の位置情報を、ターゲットオブジェクトの位置情報として取得する。
本実施形態によれば、所定のイベントが発生する場合に、複数の仮想視点で撮影するモードに切り替わる。これにより、複数の仮想視点のうちひとつの仮想視点を操作することで、すべての仮想視点が操作できるので、重要なシーンを撮り逃すことなく、マルチアングルで撮影できる。
上述の実施形態では、サッカーの試合を撮影する場合を例示したが、撮影対象は必ずしもこれに限定されない。例えば、ラグビー、テニス、アイススケート、バスケットボール等の他のスポーツの試合や、ライブ、コンサート等の演奏の撮影にも、本実施形態を適用することができる。
(その他の実施形態)
本開示は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本開示は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
202 情報処理装置
507 仮想視点制御部
503 データ入出力部
507 仮想視点制御部
503 データ入出力部
Claims (16)
- 複数の撮影装置が被写体を撮影することにより得られる複数の撮影画像に基づいて生成される仮想視点画像に対応する仮想視点の位置及び仮想視点からの視線方向を表す第1の仮想視点情報を決定する第1の決定手段と、
前記被写体に係る所定のイベントに応じた仮想視点画像を生成するための、前記第1の決定手段により決定される前記第1の仮想視点情報とは異なる第2の仮想視点情報であって、前記第1の仮想視点情報により表される仮想視点の位置及び仮想視点からの視線方向の変化に基づいて変化する仮想視点の位置及び仮想視点からの視線方向を表す第2の仮想視点情報を決定する第2の決定手段と、
前記第1の決定手段により決定される第1の仮想視点情報、及び、前記第2の決定手段により決定される第2の仮想視点情報を出力する出力手段と
を有することを特徴とする情報処理装置。 - 前記第1の決定手段は、仮想視点の位置及び仮想視点からの視線方向を変化させるためのユーザ操作に基づいて、前記第1の仮想視点情報を決定し、
前記第2の決定手段は、前記被写体に係る所定のイベントが発生する場合、前記ユーザ操作に基づいて変化する仮想視点の位置及び仮想視点からの視線方向を表す前記第2の仮想視点情報を決定する
ことを特徴とする請求項1に記載の情報処理装置。 - 前記第1の決定手段は、前記第1の仮想視点情報に対応する仮想視点画像に前記被写体が含まれるように、第1の仮想視点情報を決定することを特徴とする請求項1又は2に記載の情報処理装置。
- 前記第2の決定手段は、前記第1の仮想視点情報に対応する仮想視点画像に前記被写体が含まれる場合、前記第1の仮想視点情報により表される仮想視点の位置とは異なる位置から前記被写体を見る仮想視点を表す仮想視点情報を、前記第2の仮想視点情報として決定することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
- 前記第2の決定手段は、前記被写体の位置と前記第1の仮想視点情報により表される仮想視点の位置との距離と、前記被写体の位置と前記第2の仮想視点情報により表される仮想視点の位置との距離とが等しくなるように、前記第2の仮想視点情報を決定することを特徴とする請求項4に記載の情報処理装置。
- 前記第2の決定手段は、前記第1の仮想視点情報により表される仮想視点からの視線方向と、前記第2の仮想視点情報により表される仮想視点からの視線方向とが等しくなるように、前記第2の仮想視点情報を決定することを特徴とする請求項4又は5に記載の情報処理装置。
- 前記第2の決定手段は、前記所定のイベントが発生する場合、前記第1の仮想視点情報により表される仮想視点の位置が所定の方向に移動することに応じて、仮想視点の位置が前記所定の方向に移動するように、前記第2の仮想視点情報を決定することを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。
- 前記所定のイベントは、前記被写体により発生したイベント、又は、前記被写体により発生すると予測されるイベントであることを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。
- 前記所定のイベントは、スポーツにおけるゴールシーン及びペナルティシーンの少なくともいずれかを含むことを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。
- 前記所定のイベントは、前記複数の撮影装置により撮影される特定の被写体が、前記第1の仮想視点情報に対応する仮想視点画像に含まれる状態を含むことを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置。
- 前記所定のイベントは、前記複数の撮影装置により撮影される複数の被写体どうしの距離が所定の距離よりも短い状態を含むことを特徴とする請求項1乃至10のいずれか1項に記載の情報処理装置。
- 前記出力手段により出力される第1の仮想視点情報及び第2の仮想視点情報に基づいて、仮想視点画像を生成する生成手段を有することを特徴とする請求項1乃至11のいずれか1項に記載の情報処理装置。
- 前記第1の仮想視点情報に対応する仮想視点画像、及び、前記第2の仮想視点情報に対応する仮想視点画像のうち、少なくともいずれかを表示手段に表示させるように制御する制御手段を有することを特徴とする請求項1乃至12のいずれか1項に記載の情報処理装置。
- 前記第2の決定手段は、前記所定のイベントが発生した後に、前記所定のイベントとは異なる他のイベントが発生した場合、第2の仮想視点情報の決定を終了することを特徴とする請求項1乃至13のいずれか1項に記載の情報処理装置。
- 複数の撮影装置が被写体を撮影することにより得られる複数の撮影画像に基づいて生成される仮想視点画像に対応する仮想視点の位置及び仮想視点からの視線方向を表す第1の仮想視点情報を決定する第1の決定工程と、
前記被写体に係る所定のイベントに応じた仮想視点画像を生成するための、前記第1の決定工程において決定される前記第1の仮想視点情報とは異なる第2の仮想視点情報であって、前記第1の仮想視点情報により表される仮想視点の位置及び仮想視点からの視線方向の変化に基づいて変化する仮想視点の位置及び仮想視点からの視線方向を表す第2の仮想視点情報を決定する第2の決定工程と、
前記第1の決定工程において決定される第1の仮想視点情報、及び、前記第2の決定工程において決定される第2の仮想視点情報を出力する出力工程と
を有することを特徴とする情報処理方法。 - コンピュータを、請求項1乃至14のいずれか1項に記載の情報処理装置として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020207874A JP2022094789A (ja) | 2020-12-15 | 2020-12-15 | 情報処理装置、情報処理方法、及び、プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020207874A JP2022094789A (ja) | 2020-12-15 | 2020-12-15 | 情報処理装置、情報処理方法、及び、プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022094789A true JP2022094789A (ja) | 2022-06-27 |
Family
ID=82162468
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020207874A Pending JP2022094789A (ja) | 2020-12-15 | 2020-12-15 | 情報処理装置、情報処理方法、及び、プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022094789A (ja) |
-
2020
- 2020-12-15 JP JP2020207874A patent/JP2022094789A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7132730B2 (ja) | 情報処理装置および情報処理方法 | |
US10771760B2 (en) | Information processing device, control method of information processing device, and storage medium | |
JP6621063B2 (ja) | カメラ選択方法及び映像配信システム | |
JP6918455B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
US10171794B2 (en) | Method for selecting cameras and image distribution system capable of appropriately selecting cameras | |
KR20010074508A (ko) | 스포츠 경기의 가상시야를 생성하기 위한 방법 및 장치 | |
JP6938123B2 (ja) | 表示制御装置、表示制御方法及びプログラム | |
KR102475994B1 (ko) | 정보 처리장치, 정보 처리방법 및 기억매체 | |
JP2020086983A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP7446754B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP6593922B2 (ja) | 画像監視システム | |
JP2022073651A (ja) | 情報処理装置、情報処理方法およびプログラム | |
US20230353717A1 (en) | Image processing system, image processing method, and storage medium | |
JP7423974B2 (ja) | 情報処理システム、情報処理方法及びプログラム | |
JP2023057124A (ja) | 画像処理装置及び方法、プログラム | |
JP2022094789A (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
JP2020135130A (ja) | 画像表示装置、画像表示装置の制御方法及びプログラム | |
KR101888747B1 (ko) | 구기 스포츠에서의 이벤트 영상 제공 시스템 및 이를 이용한 이벤트 영상 생성 방법 | |
WO2021192768A1 (ja) | 球技映像解析装置、球技映像解析方法、及び、コンピュータプログラム | |
JP2020021104A (ja) | 情報処理装置、情報処理のシステム、およびそれらの制御方法、プログラム | |
JP2022171436A (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP2020067716A (ja) | 情報処理装置、制御方法、及びプログラム | |
US20240078687A1 (en) | Information processing apparatus, information processing method, and storage medium | |
JP2021179687A (ja) | 情報処理装置、情報処理方法およびプログラム | |
EP4342554A1 (en) | Image processing system, image processing method, and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210108 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20231213 |