JP2020013470A - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2020013470A
JP2020013470A JP2018136850A JP2018136850A JP2020013470A JP 2020013470 A JP2020013470 A JP 2020013470A JP 2018136850 A JP2018136850 A JP 2018136850A JP 2018136850 A JP2018136850 A JP 2018136850A JP 2020013470 A JP2020013470 A JP 2020013470A
Authority
JP
Japan
Prior art keywords
camera
camera path
information
virtual viewpoint
path information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018136850A
Other languages
English (en)
Inventor
祐二 加藤
Yuji Kato
祐二 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018136850A priority Critical patent/JP2020013470A/ja
Priority to PCT/JP2019/026785 priority patent/WO2020017354A1/ja
Publication of JP2020013470A publication Critical patent/JP2020013470A/ja
Priority to US17/152,632 priority patent/US11622099B2/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/024Multi-user, collaborative environment

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

【課題】時間とともに変化する仮想カメラの動きを簡単に共有することができる情報処理装置、情報処理方法、及びプログラムを提供する。【解決手段】情報処理装置は、仮想視点の位置及び姿勢の時間変化を表すカメラパス情報を生成するステップS309と、生成されたカメラパス情報を他の装置に提供するステップS312を備える。【選択図】図3

Description

本発明は仮想視点映像に関するものである。
視点の異なる複数のカメラで撮影した映像から仮想視点映像を生成する技術が知られている。ユーザは、仮想カメラの位置、姿勢、及び画角などを変更することで1つのコンテンツ(例えばスポーツの試合)を何度も楽しむことができる。仮想視点映像を生成する際の仮想カメラの位置、姿勢、及び画角などの情報を設定する方法として、ユーザがマウス操作やタッチ操作などを行ってインタラクティブに指定する方法が知られている。
また、特許文献1には、あるユーザが仮想視点映像を表示しているときのある時刻における仮想カメラの位置にユーザ情報を付加して分析することが記載されている。また、特許文献1には、その分析の結果を基に人気の高い仮想カメラの位置をユーザに提示することが記載されている。
特開2014−215828号公報
しかしながら、特許文献1の方法では、時間とともに変化する仮想カメラの動きを共有できない。したがって、例えば、パン・チルトやズームイン・アウトや仮想カメラの移動といった、時間とともに変化する仮想カメラの動きを複数のユーザ間で共有することは困難である。また、例えば、時間を止めて注目オブジェクト(例えば特定のスポーツ選手)を中心にして仮想カメラを回すバレットタイムのような動きや、時間ととともにオブジェクトがズームインされるような動きの共有も困難である。また、映像を止めたり、巻き戻したりする時間操作を行うような仮想カメラのカメラワークの共有も困難である。
そこで、本発明では、時間とともに変化する仮想カメラの動きを簡単に共有できるようにすることを目的とする。
上述の課題を解決するために、本発明の情報処理装置は、例えば以下の構成を有する。すなわち、仮想視点映像の視点を示す仮想視点の位置及び姿勢の時間変化を表すカメラパス情報を生成するパス生成手段と、前記パス生成手段により生成されたカメラパス情報を他の装置に提供する提供手段とを有する。
本発明によれば、時間とともに変化する仮想カメラの動きを簡単に共有できるようになる。
情報処理装置100のハードウェア構成を示すブロック図。 情報処理装置100及び表示制御装置113の機能構成を示すブロック図。 実施形態1の情報処理装置100における処理の流れを示すフローチャート。 実施形態1におけるカメラパス情報の例を示す表。 実施形態1におけるキーフレーム管理情報の例を示す表。 実施形態1における操作画面の例を示す図。 実施形態2における再生カメラパスのレコメンドの例を示す図。 実施形態2の情報処理装置100における処理の流れを示すフローチャート。 実施形態2の情報処理装置100におけるカメラパスレコメンド表示処理の流れを示すフローチャート。 実施形態2のデータ制御装置113におけるカメラパスレコメンド処理の流れを示すフローチャート。
以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではない。また、同一の構成については、同じ符号を付して説明する。
<実施形態1>
実施形態1は、情報処理装置100が仮想視点映像に関するカメラパス情報を生成、提供、及び取得する例について説明する。また、実施形態1は、情報処理装置100が他の装置から取得したカメラパス情報に基づいて仮想視点映像を生成する例についても説明する。なお、本実施形態の仮想視点映像は、フィールドを異なる方向から撮影する複数のカメラにより得られた複数の撮影画像に基づいて生成される。また、仮想視点映像は、1又は複数の画像により構成される映像(ビデオ)であり、仮想視点(仮想カメラ)の位置、向き及び画角等に従って生成される映像である。また、本実施形態の仮想視点映像を構成する各画像は、所定の動画圧縮の方式により圧縮されてもよいし、所定の静止画圧縮の方式により圧縮されてもよいし、非圧縮であってもよい。また、本実施形態において、カメラパス情報とは、仮想視点映像の視点(仮想視点)の位置及び姿勢などの時間変化を表す情報である。カメラパス情報の詳細は図4を用いて後述する。
なお、本実施形態では、情報処理装置100がカメラパス情報の生成、提供、及び取得のすべての機能を有している場合の例を中心に説明するが、これに限らない。例えば、情報処理装置100は、ユーザ操作に応じて仮想カメラの位置及び姿勢の時間変化を表すカメラパス情報を生成し、そのカメラパス情報を他の装置に提供する機能のみを有していてもよい。また、情報処理装置100は、ユーザ操作に応じてカメラパス情報を他の装置から取得し、そのカメラパス情報に基づいて仮想視点映像を生成し、その仮想視点映像を表示画面に表示させる表示制御機能のみを有していても良い。なお、情報処理装置100がカメラパス情報に基づく仮想視点映像を生成するためには、いわゆる素材データが必要である。素材データがどのようなデータであるかは、仮想視点映像を生成するためのアルゴリズムに応じて異なるが、例えば、オブジェクトの3次元形状データとテクスチャデータである。ただし、素材データは、複数のカメラから得られる複数の撮影画像と、各カメラの配置情報であっても良い。本実施形態の情報処理装置100は、通信ネットワークを介してサーバから素材データを取得し、予めハードディスクドライブ105に保存している。ただし、情報処理装置100による素材データの取得方法は、特定の方法に限るものではない。
本実施形態における情報処理装置100のシステム構成例について、図1を用いて説明する。同図において、CPU101は、RAM102をワークメモリとして、ROM103及び/又はハードディスクドライブ(HDD)105に格納されたプログラムを実行し、システムバス112を介して後述する各構成を制御する。これにより、後述する様々な処理が実行される。HDDインタフェイス(I/F)104は、情報処理装置100と、HDD105や光ディスクドライブなどの二次記憶装置とを接続する、例えばシリアルATA(SATA)等のインタフェイスである。CPU101は、HDDI/F104を介した、HDD105からのデータ読み出し、およびHDD105へのデータ書き込みが可能である。さらにCPU101は、HDD105に格納されたデータをRAM102に展開する。また、CPU101は、プログラムの実行により得られたRAM102上の各種データをHDD105に保存することが可能である。入力インタフェイス(I/F)106は、キーボードやマウス、デジタルカメラ、スキャナなどの入力デバイス107と情報処理装置100とを接続する、例えばUSBやIEEE1394等のシリアルバスインタフェイスである。CPU101は、入力I/F106を介して入力デバイス107からデータを読み込むことが可能である。出力インタフェイス(I/F)108は、ディスプレイなどの出力デバイス109と情報処理装置100とを接続する、例えばDVIやHDMI(登録商標)等の映像出力インタフェイスである。CPU101は、出力I/F108を介して出力デバイス109に仮想視点映像に関するデータを送ることで、仮想視点映像の表示を実行させることができる。ネットワークインタフェイス(I/F)110は、情報処理装置100と外部サーバ111とを接続する、例えばLANカードなどのネットワークカードである。CPU101は、ネットワークI/F110を介して外部サーバ111からデータを読み込むことが可能である。
なお、上記の説明では、HDD105、入力デバイス107、及び出力デバイス109が情報処理装置100とは別のデバイスとして構成される例を示した。しかしこの形態に限らない。例えば、情報処理装置100はスマートフォンなどであっても良く、この場合は、入力デバイス107(タッチパネル)や出力デバイス109(表示スクリーン)は、情報処理装置100と一体である。また、HDD105内蔵のデバイスを情報処理装置100として用いることも可能である。また、図1にて示した構成のすべてが必須の構成とは限らない。例えば、HDD105に記憶された仮想視点映像を再生する場合、外部サーバ111は不要である。逆に、外部サーバ111から取得した仮想視点映像を生成する場合、HDD105は不要である。また、情報処理装置100が複数のCPU101を有してもよい。また、CPU101とは異なる専用の1又は複数のハードウェアやGPU(Graphics Processing Unit)を有し、CPU101による処理の少なくとも一部をGPUや専用のハードウェアが行うようにしてもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。
以下、本実施形態の情報処理装置100が行う処理の流れについて、図2と図3とを参照して説明する。図2は、本実施形態における情報処理装置100の機能構成を示すブロック図である。CPU101は、ROM103及び/又はHDD104に格納されたプログラムを読み出してRAM102をワークエリアとして実行することで、図2に示す情報処理装置100内部の各機能ブロックの役割を果たす。なお、図2の操作部201及び表示部207は、図1の入力デバイス107及び出力デバイス109にそれぞれ対応する。また、CPU101が情報処理装置100内部の全ての機能ブロックの役割を果たす必要はなく、各機能ブロックに対応する専用の処理回路を設けるようにしてもよい。
図3は本実施形態の情報処理装置100の動作の流れを示すフローチャートである。図3を用いて説明する各処理は、情報処理装置100が備えるCPU101が、ROM103及び/又はHDD104に格納されたプログラムを読み出してRAM102をワークエリアとして実行することで実現される。
S301において、操作部201はユーザ操作に応じた操作データを受け付ける。操作画面の例を図6に示す。操作部201が操作データとして(1)仮想カメラの位置、姿勢、又は画角などの操作に関するデータを受け付けた場合、又は(2)映像制御ボタン601〜604により表されるような映像制御に関するデータを受け付けた場合はS302に進む。また、ユーザ操作を受け付けなかった場合も、S302に進む。
S301において、操作部201が操作データとしてカメラパス記録開始ボタン605により表されるようなカメラパス生成開始に関するデータを受け付けた場合、S309に進む。操作部201が操作データとしてカメラパス記録停止ボタン606により表されるようなカメラパス生成終了に関するデータを受け付けた場合、S310に進む。操作部201が操作データとしてカメラパスアップロードボタン608により表されるようなカメラパスアップロード(カメラパス情報の提供)に関するデータである場合、S311に進む。操作部201が操作データとしてカメラパス再生ボタン607により表されるようなカメラパス情報の選択に関するデータを受け付けた場合、S313に進む。
本実施形態においてカメラパス情報とは、特定のカメラワークを再現するためのパラメータの集合であり、仮想視点の所定時間ごとの位置及び姿勢に関する情報を含んでいる。カメラパス情報の例を図4に示す。図4に示すようにカメラパス情報は、キーフレーム番号、動画ID、カメラパス時刻、動画時刻、及び、カメラパラメータを含む。
キーフレーム番号は、カメラパスにおけるキーフレームの時系列の順番を表す情報である。なおキーフレームは、動画コンテンツ(例えばサッカーの試合のビデオ)に含まれる各画像(フレーム)であっても良いし、例えば1秒ごとの画像(フレーム)であっても良い。
動画IDは、動画コンテンツを識別するための識別情報である。また、カメラパス時刻は、カメラパスの開始から各キーフレームまでの時間を表す情報である。そして、動画時刻は、各キーフレームが示す動画コンテンツの開始からの時間を表す情報である。また、カメラパラメータは、仮想カメラの位置、姿勢、及び画角を表す情報である。つまり、図4のカメラパス情報は、動画ID=3により識別される動画コンテンツの開始から0.016秒後〜0.065秒後までの期間中における仮想カメラの位置及び姿勢の時間的変化を表している。
本実施形態において、カメラパラメータは、仮想カメラの外部パラメータと内部パラメータに分類可能である。仮想カメラの外部パラメータは、仮想カメラの位置及び姿勢を表すパラメータである。また、仮想カメラの内部パラメータは、仮想カメラの光学的な特性を表すパラメータである。本実施形態の外部パラメータは、仮想カメラの3次元位置(X、Y、Z)と、仮想カメラの姿勢(yaw,pitch,roll)を表現する。また、内部パラメータは画角θを表現する。なお、カメラパラメータの表現方法はこれに限らない。例えば、仮想カメラの外部パラメータを行列により表してもよい。また、外部パラメータと内部パラメータは上述のものに限らない。例えば、仮想カメラの焦点距離や光軸位置や歪曲、基準の焦点距離とズーム倍率、被写界深度を調整するためのフォーカス位置や距離に応じたぼけ量や出力画素数、アスペクトを表す情報が仮想カメラの内部パラメータに含まれていてもよい。なお、画角及びアスペクト情報、又は、縦方向及び横方向の画角をカメラパラメータとして利用すれば、カメラパス情報の生成端末と、当該カメラパス情報を利用する利用端末とのアスペクト比や画素数の差異をキャンセルできる。また、図4の例では位置、姿勢、及び画角がカメラパラメータに含まれているが、すべての情報が必須というわけではない。例えば、画角が固定であることが予めわかっていれば、画角の情報はカメラパス情報に含まれていなくても良い。
カメラパス情報の生成には、カメラパス管理部205によって保持されるキーフレーム管理情報が利用される。キーフレーム管理情報の例を図5に示す。キーフレーム管理情報は情報処理装置100が仮想視点映像を再生しているときの仮想カメラのカメラパラメータや映像に関する情報を含む。より具体的には、キーフレーム管理情報は、キーフレーム番号、動画ID、キーフレーム時刻、動画時刻、及び、カメラパラメータを含む。キーフレーム番号、動画ID、動画時刻、及び、カメラパラメータについてはカメラパス情報において説明した通りである。キーフレーム時刻は、ユーザ操作に応じてキーフレームが保存されたときの時刻を示す情報である。情報処理装置100のカメラパス管理部205は、キーフレーム管理情報からカメラパス情報に関連するキーフレーム番号を特定し、そのキーフレーム番号を修正してカメラパス情報を生成する。また、カメラパス管理部205は、カメラパス情報を生成する際は、図5のキーフレーム時刻をカメラパス時刻に変更する処理を行う。
S302において、時間制御部202は、操作部201から取得したユーザ操作に基づいて動画時刻を取得し、その結果を仮想視点映像データ取得部203及び/又はカメラパス管理部205に出力する。動画時刻とは、動画コンテンツ(例えばスポーツの試合のビデオ)の開始を0秒としたときの経過時間を表す情報である。例えば、ユーザが図6に示すシークバー609上のある位置(動画コンテンツの開始から5分15秒経過した位置)を指定した場合、時間制御部202は動画時刻(5分15秒)を仮想視点映像データ取得部203及び/又はカメラパス管理部205に出力する。
ただし、時間制御部202は、シークバー609に限らず、図6の映像再生ボタン603、映像一時停止ボタン602、映像巻き戻しボタン601、及び、早送りボタン604などに対するユーザ操作に応じた動画時刻を出力することもできる。また、ユーザ操作が行われていない場合にも、動画時刻の取得及び出力は継続的に実行される。
なお、情報処理装置100が予め設定されたカメラパス情報に基づく仮想視点映像を再生中でなければ、時間制御部202は、動画コンテンツの開始を0秒としたときの経過時間を動画時刻として仮想視点映像データ取得部203に出力する。
一方、情報処理装置100が予め設定されたカメラパス情報に基づく仮想視点映像を再生中であれば、時間制御部202は、S302の時点において再生中のフレームに基づいてカメラパス情報から動画時刻を取得する。そして、時間制御部202は、その動画時刻を仮想視点映像データ取得部203及びカメラパス管理部205に出力する。なお、時間制御部202は、S302の時点において再生しているフレームのカメラパス時刻を挟む2つのキーフレームを識別し、その2つのキーフレームの動画時刻を線形補間することで動画時刻を取得しても良い。線形補間を行うことで、カメラパス情報を生成する生成端末とカメラパス情報を利用する利用端末とにおけるフレームレートの差異をキャンセルできる。ただし、生成端末と利用端末におけるフレームレートが一致していることが予めわかっているときなどは線形補間の処理は不要である。
また、S302の時点において再生しているフレームのカメラパス時刻がカメラパス情報における最後のキーフレームのカメラパス時刻に達したときは、カメラパス情報に基づく仮想視点映像の再生が停止される。そして、時間制御部202は、S302の時点において再生されるフレームに対応する動画時刻を仮想視点映像データ取得部203に出力する。
S303において、仮想カメラ制御部204は、操作部201からユーザ操作を取得し、レンダリングに利用するカメラパラメータ(仮想カメラの位置及び姿勢など)をカメラパス管理部205及び/又は描画部207に出力する。なお、カメラパス情報に基づく仮想視点映像を再生中であれば、仮想カメラ制御部204は、カメラパス管理部205からカメラパス情報における現在のカメラパラメータを取得し、それを描画部207に出力する。具体的には、カメラパス情報に基づく仮想視点映像を再生中であれば、仮想カメラ制御部204は、カメラパス情報の中から次に再生すべきフレームのカメラパラメータを取得し、描画部207へ出力する。カメラパス情報はキーフレームごとのデータであるため、次に再生すべきフレームのカメラパス時刻に近いカメラパス時刻をもつキーフレームを特定し、そのキーフレームのカメラパラメータに対して補間処理することでカメラパラメータを計算する。なお、補間方法は近傍の2フレームのカメラパラメータの線形補間やベジェ空間補間などどのような方法でも構わない。カメラパス情報に基づく仮想視点映像を再生中でなければ、仮想カメラ制御部204は、操作部201を用いた仮想視点の位置及び姿勢などに関するユーザ操作を受付ける。そして、仮想カメラ制御部204は、当該ユーザ操作に応じた仮想カメラの位置、姿勢、及び画角などを表すカメラパラメータを生成し、それをカメラパス管理部205及び描画部207に出力する。
仮想カメラ制御部204は、例えば、ユーザがマウスを右方向に動かすと、仮想カメラの姿勢が右方向へ回転するような仮想カメラの外部パラメータを生成する。また、仮想カメラ制御部204は、例えば、ユーザがマウスを上方向へ動かすと仮想カメラの姿勢が上方向へ回転するような仮想カメラの外部パラメータを生成する。また、仮想カメラ制御部204は、ユーザがマウスホイールを前後させると、仮想カメラの位置が前後するような仮想カメラの外部パラメータを生成する。なお、カメラパス情報に基づく仮想視点映像を再生中であっても、ユーザ操作から導出されるカメラパラメータのうち1つ以上のパラメータを反映させてもよい。
S304において、カメラパス管理部205は、仮想カメラのカメラパラメータを仮想カメラ制御部204から取得し、動画時刻を時間制御部202から取得する。そしてカメラパス管理部205は、再生中の動画ID、動画時刻、仮想カメラのカメラパラメータ、及びキーフレーム時刻(現在の時刻)をキーフレーム番号に関連付けてキーフレーム管理情報に追加する。
S305において、仮想視点映像データ取得部203は、仮想視点映像の生成のために必要な素材データ(例えば、仮想視点映像の生成に必要なポリゴンデータ、テクスチャデータなど)をHDD105又はデータ制御装置113から取得し描画部206に出力する。素材データがデータ制御装置113から取得される場合、仮想視点映像データ取得部203は通信部208及び通信部209を経由して、仮想視点映像データ保持部211から素材データを取得する。
S306において、描画部206は仮想視点映像データ取得部203により取得された素材データと仮想カメラ制御部204から出力されたカメラパラメータを基に仮想視点映像を生成する。当該生成された仮想視点映像は表示部207に出力される。レンダリングに関しては既存の技術を使用できるためここでは詳しく説明を行わない。S307において、表示部207は描画部206から取得した仮想視点映像を表示する。
S308において、仮想視点映像の再生を終了するか否かが判定される。仮想視点映像の再生を継続すると判定された場合はS301に戻り、仮想視点映像の再生を終了すると判定された場合は図3の処理を終了する。なお、S308の判定は、典型的には操作部201に入力されたユーザ操作の内容に基づいてなされる。
S309において、カメラパス管理部205は、カメラパス情報を生成開始する。すなわち、カメラパス管理部205は、所定のユーザ操作に応じて、カメラパス情報の生成を開始する。本実施形態のカメラパス管理部205は、カメラパス情報の先頭にあたるキーフレームのキーフレーム番号SをRAM102又はHDD105に出力する。キーフレーム番号Sは、S304においてキーフレーム管理情報に保存されたキーフレーム番号であるものとする。
S310において、カメラパス管理部205は、カメラパス情報を生成し、RAM102及び/又はHDD105に出力する。カメラパス管理部205は、キーフレーム番号Sに対応するキーフレームKsからカメラパス情報の最後にあたるキーフレームKeまでのキーフレームKi(i=s,…,e)に関する情報からカメラパス情報を生成する。ここで、キーフレームKeはキーフレーム管理情報に最後に保存されたキーフレームであり、eは最後のキーフレームのキーフレーム番号を表す。図4は、図5のキーフレーム管理情報のうち、キーフレーム番号を1〜4の情報を0〜3としたカメラパス情報の例である。
カメラパス情報におけるキーフレームK’j(j=0,…,e−s)の情報はそれぞれ対応するキーフレームを基に導出される。各キーフレームK’jのキーフレーム番号はjとし、キーフレームK’jの情報はキーフレームKs+jに基づいて生成される。K’jのカメラパス時刻はカメラパスの最初のキーフレームKsのキーフレーム時刻からキーフレームKs+jのキーフレーム時刻までの経過時間、動画ID、及び、動画時刻がそのまま設定される。また、K’jのカメラパラメータはキーフレームKs+jのカメラパラメータがそのまま設定される。カメラパス情報は生成カメラパスリストに追加される。このように、本実施形態の情報処理装置100は、すでに保存されているキーフレームを用いてカメラパス情報を生成することで、視聴映像から必要な範囲の映像を切り出すよりも必要なデータ量を大きく削減できるという効果がある。ただし、キーフレーム管理情報を用いることなくカメラパス情報を生成することも可能である。
S311において、カメラパス管理部205は、生成カメラパスリストを表示部207に出力し、表示部207は生成カメラパスリストを表示する。さらに、カメラパス管理部205が、操作部201からアップロードするカメラパス情報を選択するユーザ操作を取得し、選択されたカメラパス情報を通信部208に出力する。ユーザは表示された生成カメラパスリストから1以上のカメラパス情報をタッチ操作などにより選択する。このように、映像データではなく、カメラパス情報をアップロードすることで少ないデータ通信量で仮想視点映像を共有できるという効果がある。ただし、一部の映像データ(例えば代表画像のサムネイル)をカメラパス情報と共にアップロードするようにしても良い。
S312において、通信部208は、ユーザにより選択されたカメラパス情報をデータ制御装置113(他の装置)に提供する。データ制御装置113の通信部209は、通信部208からカメラパス情報を取得すると(パス取得処理)、そのカメラパス情報をカメラパス管理部210に出力する。また、カメラパス管理部210は、通信部209からカメラパス情報を取得し、そのカメラパス情報を共有カメラパスリストに追加する。共有カメラパスリストは各ユーザから提供されたカメラパス情報を蓄積したリストである。ユーザはこの共有カメラパスリストに含まれるカメラパス情報をダウンロードすることができる。
S313において、カメラパス管理部205は、通信部208及び通信部209を介してカメラパス管理部210から共有カメラパスリストを取得する。そして、カメラパス管理部205は、S310において生成された生成カメラパスリストと共有カメラパスリストを表示部207に出力する。表示部207は、カメラパス管理部205から取得した生成カメラパスリスト及び共有カメラパスリストを表示する。
S314において、カメラパス管理部205は、操作部201を介してユーザにより選択されたカメラパス情報を取得し、そのカメラパス情報に基づく仮想視点映像を生成し(映像生成処理)、それを再生する。ユーザはマウス操作やタッチ操作などによりカメラパス情報を選択可能である。
以上詳細に説明したように、本実施形態の情報処理装置100は、ユーザによって生成されたカメラパス情報をアップロード(提供)及びダウンロード(取得)する。また、情報処理装置100は、取得したカメラパス情報に基づく仮想視点映像を生成し、それを表示させる。このような構成により、ユーザは簡易な操作でカメラパス情報を共有することが可能となる。また、仮想視点映像そのものではなくカメラパス情報のみを共有することにより、少ないデータ通信量で効率的にユーザ間において映像を共有できるという効果がある。また、自分が設定したカメラワークの映像を他の人が視聴したり、共有された様々なカメラワークの中から所望のカメラワークを選択したりできるようになる。
<実施形態2>
実施形態2について、実施形態1との差異を中心に説明する。実施形態1では、カメラパスリストの中からユーザがカメラパス情報を選択する例を説明した。本実施形態では、データ制御装置113が複数のカメラパスの中から1又は複数のカメラパスをレコメンド(推奨)し、ユーザはそのレコメンドされた1又は複数のカメラパスの中から所望のカメラパスを選択する例を説明する。実施形態2の情報処理装置100の構成は図1と図2に示した通りであるため、図1と図2の符号を引用して実施形態2の説明を行う。
本実施形態ではレコメンドすべきカメラパスの決定方法について詳細に説明する。大量のカメラパスが共有されている場合、その中から所望のカメラパスをユーザが選択することは困難である。そこで、本実施形態のデータ制御装置113は、現在再生されている仮想視点映像のカメラパラメータに基づいてカメラパスのレコメンドを行う。なお、情報処理装置100がカメラパスのレコメンドを行うようにしても良い。
図7に映像の再生中にカメラパスをレコメンドする例を示す。これまでにユーザが視聴していたカメラワークに類似するカメラワークのカメラパスがレコメンドされることで、ユーザは、カメラ操作を行わなくても似たようなカメラワークの映像の視聴を続けることができる。なお、過去のカメラワークに類似するカメラワークをレコメンドするという考え方は、基本的に同一ユーザが好むカメラワークは大きく変化しないという想定に基づいている。つまり、途中まであるカメラワークの映像を視聴している場合、そのあとも似たようなカメラワークで映像を視聴したいと考える可能性が高いことを前提としている。例えば、ユーザが特定の選手をよく映したカメラワークで仮想視点映像を表示させている場合、類似したカメラパスをレコメンドすることで、ユーザは映像の残りの時間において煩雑な操作をしなくともその選手がよく映っている仮想視点映像を視聴できる。
ただし、レコメンドするカメラパスの決定方法は上述の方法に限らない。例えば、試合中に特定のイベントが起きた場合、ユーザが設定したカメラパスとは異なる視点から当該イベントを映すカメラパスをレコメンドすることで、様々な視点からのリプレイ映像を簡単に再生することができる。データ制御装置113は、例えばサッカーの試合において、ユーザが俯瞰視点でゴールシーンを再生していた場合、シュートを打った選手の視点の映像や、ゴールキーパーの視点の映像が再生できるようにカメラパスをレコメンドする。これにより、ユーザはゴールシーンを様々なカメラワークに基づいて簡単に視聴できる。
また、データ制御装置113は、イベント発生時に、ユーザが別の方向に仮想カメラを向けて視聴していたためにイベントを見逃してしまった場合、再生終了後やイベント終了後にユーザに見逃していたシーンを視聴できるカメラパスをレコメンドする。これにより、ユーザが見逃してしまったイベントを簡単に視聴できる。また、データ制御装置113は、他の多くのユーザにより選択されているカメラパスをレコメンドしても良い。このようにすれば、ユーザは他の人によく見られている映像を視聴できるため、映像体験を共有しやすくなる。
本実施形態の情報処理装置100が行う処理の流れについて、図2と図8とを参照して説明する。図2は、本実施形態における情報処理装置100の機能構成を示すブロック図である。CPU101は、ROM103又はHDD104に格納されたプログラムを読み出してRAM102をワークエリアとして実行することで、図2に示す各機能ブロックとしての役割を果たす。
図8は本実施形態の情報処理装置100の動作の流れを示すフローチャートである。図8を用いて説明する各処理は、情報処理装置100が備えるCPU101が、ROM103及び/又はHDD104に格納されたプログラムを読み出してRAM102をワークエリアとして実行することで実現される。S801〜S808までは実施形態1のS301〜S308の処理と同様であるため省略する。また、図8のフローチャートには図3にあるS309〜S314の処理は記載していないが、S309〜S314と同様の処理を追加しても構わない。
S809において、カメラパス管理部205は通信部208と通信部209を経由して、カメラパス管理部210からカメラパスレコメンドリスト(推奨パスリスト)を取得し、表示部207に出力する。表示部207はカメラパスレコメンドリストを表示する。カメラパスレコメンドリストを取得する処理及び計算する処理については後で詳しく述べる。
S810において、カメラパス管理部205は、操作部201を介して受け付けたユーザ操作を基に、カメラパスレコメンドリストから選択されたカメラパスを特定し、そのカメラパスに基づく仮想視点映像を再生させる。ユーザはマウス操作やタッチ操作などによりカメラパスを選択できる。
<カメラパスレコメンドリスト(推奨パスリスト)の取得>
カメラパスレコメンドリストの取得は図8のS809において開始される。カメラパスレコメンドリストの取得処理について、図9のフローチャートを用いて詳細を説明する。図9を用いて説明する各処理は、情報処理装置100が備えるCPU101が、ROM103及び/又はHDD104に格納されたプログラムを読み出してRAM102をワークエリアとして実行することで実現される。
S901において、カメラパス管理部205は、通信部208及び通信部209を経由してカメラパス管理部210にカメラパスレコメンドリストの取得要求を出力する。取得要求には再生前、再生中、イベント終了後、及び、再生終了後のうち、現在の映像の再生状態を選択して付加するようにしても良い。イベント終了の判定には、イベントデータを利用する。イベントデータはイベント開始時刻及びイベント終了時刻を含むデータで、S805で取得する仮想視点映像データに含まれている。
S902において、カメラパス管理部205は、アップロードするカメラパスを生成し、通信部208及び通信部209を経由してカメラパス管理部210に出力する。アップロードされるカメラパス情報は、再生状態に応じて長さが異なる。再生状態が再生前であればキーフレームが存在しないため、カメラパス情報は生成されない。再生状態が再生中または、再生終了後であれば、映像再生時から現在までのキーフレームからカメラパス情報が生成される。イベント終了後であれば、イベントの開始時刻からイベントの終了時刻までのキーフレームからカメラパス情報が生成される。
S903において、カメラパス管理部205は、通信部208からカメラパスレコメンドリストを取得できたか判定する。カメラパスレコメンドリストを取得できなければ、S903へ進む。カメラパスレコメンドリストを取得できればS904へ進む。
S904において、カメラパス管理部205はカメラパスレコメンドリストを表示部207に出力する。表示部207はカメラパスレコメンドリストを表示する。
<カメラパスレコメンドリストの生成>
カメラパスレコメンドリストの生成処理について、図10のフローチャートを用いて詳細を説明する。図10を用いて説明する各処理は、データ制御装置113が備える外部サーバ111で実行することで実現される。なお、カメラパスレコメンドリストの生成処理が情報処理装置100により行われても良い。
S1001において、カメラパス管理部210は、通信部209からカメラパスレコメンドリスト取得要求を取得したか判定する。カメラパスレコメンドリスト取得要求を取得していない場合は、S1001へ進む。カメラパスレコメンドリスト取得要求を取得した場合は、S1002へ進む。
S1002において、カメラパス管理部210は、通信部209から取得したカメラパスレコメンドリスト取得要求に含まれる映像の再生状態の情報に基づいてレコメンドするカメラパスの種類を選択する。選択方法の一例として、カメラパス管理部210は、映像の再生状態が再生中であれば、ユーザがアップロードしたカメラパスに類似したカメラワークの「類似カメラパス」を選択する。また、映像の再生状態がイベント終了後であれば、カメラパス管理部210は、「別視点カメラパス」と「見逃しイベントカメラパス」の何れか又は両方を選択する。「別視点カメラパス」は、ユーザがアップロードしたカメラパスとは別の視点からオブジェクトを撮影するカメラパスである。また、「見逃しイベントカメラパス」は、ユーザがアップロードしたカメラパスが見逃しているイベントを撮影するカメラパスである。映像の再生状態が再生終了後であれば、「類似カメラパス」、「見逃しイベントカメラパス」、「別視点カメラパス」の少なくとも何れか1つを選択する。映像の再生状態が再生中であれば、「人気のカメラパス」を選択する。なお、選択方法はこれに限らない。また、情報処理装置100がカメラパスを選択するようにしても良い。
S1003において、カメラパス管理部205は、通信部209からユーザがアップロードしたカメラパス情報を取得できたか判定する。カメラパス情報を取得できたか、映像の再生状態が再生前であれば、S1004へ進む。カメラパスを取得できなければ、S1003へ進む。
S1004において、カメラパス管理部210は、通信部209から取得したカメラパス情報に基づいて、共有カメラパスリストからレコメンドするカメラパスを抽出してカメラパスレコメンドリストを生成する。レコメンドするカメラパスの種類はS1002で選択された類似カメラパス、別視点カメラパス、見逃しイベントカメラパス、人気のカメラパスのうちの1つ以上のカメラパスである。レコメンドするカメラパスは、共有カメラパスリストに含まれるカメラパスのうち、評価が高いカメラパスである。それぞれの種類において評価の高い複数のカメラパスがカメラパスレコメンドリストに追加されるようにしても良い。評価値の導出方法はレコメンドするカメラパスの種類によって異ならせることができる。また、評価値はユーザがアップロードしたカメラパスCuと、カメラパスCuと同じ映像IDを持つN個のカメラパスCsi(i=0,…,N−1)のみで導出されても良い。カメラパス間の評価値は、各キーフレーム間で計算した評価値の重みづけ和とすることができる。カメラパスCuとCsiは、キーフレーム数やサンプリング間隔、カメラパスの長さが異なる場合、映像の時間を基準にして一定の時間間隔でカメラパスCuとCsiからキーフレームをサンプリングすることでキーフレーム数と映像時刻を一致させることができる。なお、ここではキーフレームを一定間隔でサンプリングしてキーフレーム同士の比較を行うことで、カメラパス同士の比較を行う方法について説明したが、DPマッチングなどの系列データを比較する手法を用いて評価値を導出してもよい。また、各キーフレーム間の評価値の重みづけ和をカメラパス同士の評価値として説明したが、平均や中央値などを用いて評価値が導出されるようにしても良い。
類似カメラパスは、カメラパスCsiのうちユーザがアップロードしたカメラパスCuに最も類似したカメラパスである。ここでは、同じオブジェクトを同じ方向から撮影しているカメラパスを類似しているとする。キーフレーム間の類似度はカメラパスCuのキーフレームとカメラパスCsiのキーフレームにおけるカメラの各パラメータ(位置、姿勢及び画角)の距離の逆数の重み付け和で導出できる。例えば各パラメータの距離はパラメータの差のL2ノルムを使用する。なお、類似度はカメラパラメータの距離の逆数に限るものではない。例えば、カメラに映るオブジェクトのオブジェクトIDの集合の一致度や撮影対象がグラウンドで行われる競技であればグラウンド面における撮影範囲の一致度、仮想カメラで撮影される画像の画素値や特徴量の比較により類似度が導出されても良い。オブジェクトIDの集合の一致度は、Dice係数やJaccard係数、Simpson係数などが利用できる。
別視点カメラパスは、カメラパスCsiのうちユーザがアップロードしたカメラパスCuと同じ被写体を別視点から撮影したカメラパスである。カメラパス間の評価値はオブジェクトの類似度とカメラパラメータの相違度の重みづけ和で導出できる。別視点カメラパスはカメラパスCuに対する評価値が高いカメラパスである。オブジェクトの類似度には、カメラに映るオブジェクトの識別情報(オブジェクトID)の集合の一致度などを利用する。カメラパラメータの相違度は、カメラの位置、姿勢及び画角の各パラメータの距離の重み付け和で導出できる。例えば各パラメータ間の距離は各パラメータの差のL2ノルムを使用できる。
見逃しイベントカメラパスは、カメラパスCsiによる視聴ではイベント発生領域を視聴できない場合に、そのイベントを撮影しているカメラパスである。評価値はカメラパスのうちユーザがアップロードしたカメラパスCuが撮影していないイベントの発生区間のキーフレームのみで導出できる。すなわち、イベント発生区間以外の評価値の重みを0にする。評価値はイベント発生領域に含まれるオブジェクトIDの集合とカメラに映るオブジェクトの識別情報(オブジェクトID)の集合の一致度とすることができる。なお、撮影対象がグラウンドで行われる競技であればグラウンド面における撮影範囲の一致度を利用してもよい。
人気のパスは、アップロードされたカメラパスに関係なく、共有パスの中から再生数の多いカメラパスである。評価値にはカメラパスCsiの再生数を用いることができる。S1005では、カメラパス管理部210が、カメラパスレコメンドリストを通信部209へ出力する。
以上説明したように、本実施形態の情報処理装置100及びデータ制御装置113は、映像の再生状態と視聴中のカメラパスに基づいて、カメラパスのレコメンドを行う。ユーザの視聴状態に合わせてカメラパスをレコメンドすることで、ユーザは簡易な操作で所望のカメラワークの映像を視聴できる。
<その他の実施形態>
本発明の実施形態は、上記の実施形態に限られるものではなく、様々な実施形態をとることが可能である。例えば、上述の実施形態では、カメラパス生成終了後にカメラパスの保存及びアップロードを行ったが、カメラパスを生成開始時にアップロードを開始し、各キーフレーム保存時にキーフレームのアップロードを行ってもよい。これにより、カメラパスをリアルタイムでアップロードでき、他のユーザとリアルタイムでカメラワークや視聴している映像を共有することができる。
また、上述の実施形態では、カメラパスの生成はカメラパス生成開始操作及びカメラパス生成終了操作によって行うとしたが、任意のタイミングでキーフレーム開始番号とキーフレーム終了番号を入力してカメラパスを生成してもよい。これにより、後から映像の中の一部のシーンを切り出してカメラパスを生成することができる。また、複数のキーフレーム開始番号とキーフレーム終了番号を入力して、複数の映像区間をつなげたものをカメラパスとして生成できるようにしてもよい。
また、上述の実施形態では、再生するカメラパスのレコメンドについて説明したが、カメラパスのアップロードについても同様に、イベント終了後や再生終了後にユーザにカメラパスをアップロードするようにレコメンドを行ってもよい。例えば、サッカーの映像において、シュートシーンの終了後に、「今のシュートシーンを視聴したカメラパスをアップロードしますか?」といったメッセージとともに「アップロード」ボタンを表示する。ユーザによりアップロード操作が行われたら、イベント区間のカメラパスを生成してアップロードする。レコメンドによりアップロードするカメラパスはキーフレーム管理情報からイベント開始時のキーフレームからイベント終了時のキーフレームまでのキーフレームから生成する。
また、上述の実施形態では、1つの仮想視点映像からカメラパスを生成してアップロードするとしたが、複数の仮想視点映像からカメラパスを生成してもよい。複数の仮想視点映像からカメラパスを生成することで、サッカーのゴール集のような特定のシーンを集めた映像を視聴可能なカメラパスを実現できる。
また、上述の実施形態では、1つのカメラパスを再生して仮想視点映像を表示していたが、複数のカメラパスを選択して、分割した画面で複数のカメラパスを同時に表示してもよい。このとき、表示する映像の時刻をそろえるために、特定のカメラパスの映像時刻に合わせるように他のカメラパスの再生速度の調整や一時停止をして、同じシーンを異なる視点から同時に視聴できるようにしてもよい。
また、上述の実施形態では、カメラパス情報はオブジェクトの情報を含んでいなかったが、レンダリングにおける被写体の透過度などの情報を含め、再生時に反映してもよい。カメラパスによっては、注目している被写体と仮想カメラの間に表示したくない被写体が映ってしまい、所望のカメラワークが生成できない場合がある。その際に表示したくない被写体の透過度を高くすることで、注目する被写体を表示することができるなど、所望のカメラワークを生成しやすくなる。
また、上述の実施形態では、キーフレームの保存は一定間隔で行われるとしたが、ユーザ操作によりキーフレームを保存するタイミングが変化するようにしても良い。これにより、カメラパス情報の生成のために、様々なカメラパラメータで映像を比較して、気に入ったキーフームのみからなるカメラパス情報を生成することができる。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100 情報処理装置
201 操作部
202 時間制御部
203 仮想視点映像データ取得部
204 仮想カメラ制御部
205 カメラパス管理部
206 描画部

Claims (12)

  1. 仮想視点映像の視点を示す仮想視点の位置及び姿勢の時間変化を表すカメラパス情報を生成するパス生成手段と、
    前記パス生成手段により生成されたカメラパス情報を他の装置に提供する提供手段と
    を有することを特徴とする情報処理装置。
  2. 前記仮想視点映像の視点を示す仮想視点の位置及び姿勢の時間変化を表すカメラパス情報を他の装置から取得するパス取得手段と、
    前記パス取得手段により取得されたカメラパス情報に基づいて仮想視点映像を生成する映像生成手段と、
    前記映像生成手段により生成された仮想視点映像を表示画面に表示させる表示制御手段と
    を有することを特徴とする情報処理装置。
  3. 前記仮想視点映像の生成に用いられる素材データを保持する保持手段から前記素材データを取得する素材取得手段を有し、
    前記映像生成手段は、前記パス取得手段により取得されたカメラパス情報に応じた仮想視点映像を、前記素材取得手段により取得された素材データを用いることによって生成することを特徴とする請求項2に記載の情報処理装置。
  4. 前記素材データは、オブジェクトの3次元形状データ、及び、前記オブジェクトのテクスチャデータを含むことを特徴とする請求項3に記載の情報処理装置。
  5. 前記カメラパス情報は、前記仮想視点の所定時間ごとの位置及び姿勢を有することを特徴とする請求項1乃至4のうち、何れか1項に記載の情報処理装置。
  6. 前記パス生成手段は、カメラパス情報の生成開始に関するユーザ操作の受付に応じて前記カメラパス情報の生成を開始することを特徴とする請求項1に記載の情報処理装置。
  7. 前記仮想視点の位置及び姿勢を操作する操作手段を有し、
    前記パス生成手段は、前記カメラパス情報の生成開始に関するユーザ操作の受付から前記カメラパス情報の生成終了に関するユーザ操作の受付までに応じた期間中における前記操作手段による操作に応じたカメラパス情報を生成することを特徴とする請求項1に記載の情報処理装置。
  8. 前記提供手段は、前記カメラパス情報の提供に関するユーザ操作の受付に応じて、前記カメラパス情報を前記他の装置へ提供することを特徴とする請求項1に記載の情報処理装置。
  9. 前記パス取得手段は、前記カメラパス情報の取得に関するユーザ操作の受付に応じて、前記カメラパス情報を前記他の装置から取得することを特徴とする請求項2に記載の情報処理装置。
  10. 仮想視点映像の視点を示す仮想視点の位置及び姿勢の時間変化を表すカメラパス情報を生成するパス生成工程と、
    前記パス生成工程により生成されたカメラパス情報を他の装置に提供する提供工程と
    を有することを特徴とする情報処理方法。
  11. 前記仮想視点映像の視点を示す仮想視点の位置及び姿勢の時間変化を表すカメラパス情報を他の装置から取得するパス取得工程と、
    前記パス取得工程により取得されたカメラパス情報に基づいて仮想視点映像を生成する映像生成工程と、
    前記映像生成工程により生成された仮想視点映像を表示画面に表示させる表示制御工程と
    を有することを特徴とする情報処理方法。
  12. コンピュータを請求項1乃至9のうち何れか1項に記載の情報処理装置の各手段として動作させるためのプログラム。
JP2018136850A 2018-07-20 2018-07-20 情報処理装置、情報処理方法、及びプログラム Pending JP2020013470A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018136850A JP2020013470A (ja) 2018-07-20 2018-07-20 情報処理装置、情報処理方法、及びプログラム
PCT/JP2019/026785 WO2020017354A1 (ja) 2018-07-20 2019-07-05 情報処理装置、情報処理方法、及びプログラム
US17/152,632 US11622099B2 (en) 2018-07-20 2021-01-19 Information-processing apparatus, method of processing information, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018136850A JP2020013470A (ja) 2018-07-20 2018-07-20 情報処理装置、情報処理方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2020013470A true JP2020013470A (ja) 2020-01-23

Family

ID=69163655

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018136850A Pending JP2020013470A (ja) 2018-07-20 2018-07-20 情報処理装置、情報処理方法、及びプログラム

Country Status (3)

Country Link
US (1) US11622099B2 (ja)
JP (1) JP2020013470A (ja)
WO (1) WO2020017354A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10600245B1 (en) * 2014-05-28 2020-03-24 Lucasfilm Entertainment Company Ltd. Navigating a virtual environment of a media content item
CN113436306B (zh) * 2021-07-22 2024-04-05 久瓴(江苏)数字智能科技有限公司 图像的渲染方法、装置及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017012397A (ja) * 2015-06-30 2017-01-19 株式会社セガゲームス プログラム
JP2018112997A (ja) * 2017-01-13 2018-07-19 キヤノン株式会社 画像処理装置及びその方法、プログラム、画像処理システム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003316682A (ja) * 2002-04-26 2003-11-07 Nippon Telegr & Teleph Corp <Ntt> 情報共有システム
JP4326406B2 (ja) * 2004-06-15 2009-09-09 シャープ株式会社 コンテンツ視聴装置、テレビジョン装置、コンテンツ視聴方法、プログラム、及び記録媒体
JP2014215828A (ja) * 2013-04-25 2014-11-17 シャープ株式会社 画像データ再生装置、および視点情報生成装置
EP3499897B1 (en) * 2016-08-10 2021-05-19 Panasonic Intellectual Property Corporation of America Camerawork generating method and video processing device
JP6742869B2 (ja) * 2016-09-15 2020-08-19 キヤノン株式会社 画像処理装置および画像処理方法
US10762653B2 (en) * 2016-12-27 2020-09-01 Canon Kabushiki Kaisha Generation apparatus of virtual viewpoint image, generation method, and storage medium
JP6957215B2 (ja) * 2017-06-06 2021-11-02 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP6980496B2 (ja) * 2017-11-21 2021-12-15 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
US10902676B2 (en) * 2018-03-13 2021-01-26 Canon Kabushiki Kaisha System and method of controlling a virtual camera
JP2019191915A (ja) * 2018-04-25 2019-10-31 キヤノン株式会社 映像生成装置、映像生成装置の制御方法及びプログラム
US11057609B2 (en) * 2019-02-27 2021-07-06 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and computer readable storage medium for determining a moving path of virtual viewpoint
JP2020140285A (ja) * 2019-02-27 2020-09-03 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、及び、プログラム
JP7366611B2 (ja) * 2019-07-05 2023-10-23 キヤノン株式会社 画像処理装置、画像処理方法、及び、プログラム
US10838056B1 (en) * 2019-12-25 2020-11-17 NextVPU (Shanghai) Co., Ltd. Detection of target

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017012397A (ja) * 2015-06-30 2017-01-19 株式会社セガゲームス プログラム
JP2018112997A (ja) * 2017-01-13 2018-07-19 キヤノン株式会社 画像処理装置及びその方法、プログラム、画像処理システム

Also Published As

Publication number Publication date
US11622099B2 (en) 2023-04-04
WO2020017354A1 (ja) 2020-01-23
US20210144358A1 (en) 2021-05-13

Similar Documents

Publication Publication Date Title
JP7135141B2 (ja) 情報処理システム、情報処理方法、および情報処理プログラム
KR102215166B1 (ko) 제공장치, 제공방법 및 컴퓨터 프로그램
US8346014B2 (en) Image processing apparatus and method and program
JP6713537B2 (ja) 複数のメディアストリームの処理
KR101604250B1 (ko) 게임 동영상 추천 서비스 제공 방법
US11748870B2 (en) Video quality measurement for virtual cameras in volumetric immersive media
CN113301351B (zh) 视频播放方法、装置、电子设备及计算机存储介质
WO2019080792A1 (zh) 全景视频图像的播放方法、装置、存储介质及电子装置
US20170225077A1 (en) Special video generation system for game play situation
Mase et al. Socially assisted multi-view video viewer
US11622099B2 (en) Information-processing apparatus, method of processing information, and program
JP7423974B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP7202935B2 (ja) 注目度算出装置、注目度算出方法、および注目度算出プログラム
US20230353717A1 (en) Image processing system, image processing method, and storage medium
JP6572368B2 (ja) 生成装置および生成方法、プログラム
JP6609078B1 (ja) コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
WO2017022296A1 (ja) 情報管理装置及び情報管理方法、並びに映像再生装置及び映像再生方法
KR20180021623A (ko) Vr 콘텐츠 제공 시스템 및 방법
JP7204843B2 (ja) 送信装置および送信方法、プログラム
JP7504634B2 (ja) 画像提供システム、その制御方法、プログラムおよび記憶媒体
JP7344084B2 (ja) コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
KR101870922B1 (ko) 양방향 방송 컨텐츠 제공 시스템 및 방법
KR20180059281A (ko) 타임 슬라이스 영상을 제공하는 사용자 단말 및 영상 제공 서버
JP2024046244A (ja) 画像処理システム、画像処理方法及びコンピュータプログラム
JP2021179687A (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230309

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230404