JP7455524B2 - 情報処理装置、設定方法、及びプログラム - Google Patents

情報処理装置、設定方法、及びプログラム Download PDF

Info

Publication number
JP7455524B2
JP7455524B2 JP2019129614A JP2019129614A JP7455524B2 JP 7455524 B2 JP7455524 B2 JP 7455524B2 JP 2019129614 A JP2019129614 A JP 2019129614A JP 2019129614 A JP2019129614 A JP 2019129614A JP 7455524 B2 JP7455524 B2 JP 7455524B2
Authority
JP
Japan
Prior art keywords
virtual viewpoint
interest
image
virtual
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019129614A
Other languages
English (en)
Other versions
JP2021015440A (ja
Inventor
一弘 松林
零 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019129614A priority Critical patent/JP7455524B2/ja
Priority to US16/922,913 priority patent/US11606503B2/en
Publication of JP2021015440A publication Critical patent/JP2021015440A/ja
Application granted granted Critical
Publication of JP7455524B2 publication Critical patent/JP7455524B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、仮想視点画像に対応する仮想視点の設定に関するものである。
複数の撮像装置を異なる位置に設置して同期撮像し、当該撮像により得られた複数の撮像画像を用いて、視点を任意に変更可能な仮想視点画像を生成する技術がある。具体的には、複数の撮像画像に基づいて、撮像画像に含まれる被写体(オブジェクト)の3次元形状データを生成し、仮想視点の位置及び向きに基づくレンダリング処理を行うことにより、仮想視点画像が生成される。
仮想視点画像に対応する仮想視点は、例えばコントローラを操作することで変更できる。特許文献1には、ジョイスティックを3台用いて仮想視点を操作することが記載されている。具体的には、1つ目のジョイスティックの操作で仮想視点の前後左右の移動を制御し、2つ目のジョイスティックの操作で仮想視点の上下移動とロール回転を制御し、3つ目のジョイスティックの操作で仮想視点のピッチ回転とヨー回転を制御する。
特開2018-092491号公報
ユーザが所望する仮想視点画像を得るために、仮想視点の設定に係る操作の利便性をより向上させることが求められる。例えば、サッカーにおける選手やボールなどの動くオブジェクトを仮想視点に応じた視野内に含めつつ、どの方向からオブジェクトを見るかを変化させるように、ユーザが仮想視点を操作しようとする場合が考えられる。特許文献1に記載の技術を用いてこのような仮想視点の操作を実現しようとした場合、どの方向からオブジェクトを見るかを変化させるために、1つ目と2つ目のジョイスティックを用いてオブジェクトに対する仮想視点の相対位置を変化させる。さらに、仮想視点の位置の変化に応じてオブジェクトが視野から外れないように、3つ目のジョイスティックを用いて仮想視点の向きを変化させる。このような複雑な操作を一人のユーザが行うのは困難である。また、複数のジョイスティックを複数のユーザで分担して操作する場合、所望の仮想視点画像を得るためにそれぞれの操作を正確に連動させることは難しい。ジョイスティック以外の操作部を用いる場合にも同様の課題が生じうる。
本発明は上記の課題に鑑み、仮想視点画像に対応する仮想視点の設定に係る操作の利便性を向上させることを目的とする。
上記の課題を解決するため、本発明に係る情報処理システムは、例えば以下の構成を有する。すなわち、第1操作部に対する操作に応じた第1入力を受け付ける第1受付と、第2操作部に対する操作に応じた第2入力を受け付ける第2受付と、第3操作部に対する操作に応じた第3入力を受け付ける第3受付部と、前記第1入力に基づいて、第1仮想視点に応じた視野および第2仮想視点に応じた視野に含まれる注目位置を設定する第1設定と、前記第2入力に基づいて、前記注目位置に対応する前記第1仮想視点の位置と前記第1仮想視点からの視線方向とを設定し、前記第3入力に基づいて、前記注目位置に対応する前記第2仮想視点の位置と前記第2仮想視点からの視線方向とを設定する第2設定部と、前記第1仮想視点に対応する第1仮想視点画像と前記第2仮想視点に対応する第2仮想視点画像とを同時に表示する制御を行う表示制御部とを有する。
本発明によれば、仮想視点画像に対応する仮想視点の設定に係る操作の利便性を向上させることができる。
画像処理システムの構成例を示す図である。 装置のハードウェア構成例を示す図である。 制御システムのデバイス構成例を示す図である。 操作部を用いた操作の説明図である。 表示部の表示画面例を示す図である。 操作部を用いた動作の説明図である。 表示部の表示画面例を示す図である。 情報処理装置の動作の例を示すフローチャートである。 制御システムのデバイス構成例を示す図である。 制御システムのデバイス構成例を示す図である。 制御システムのデバイス構成例を示す図である。 表示部の表示画面例を示す図である。 表示部の表示画面例を示す図である。 制御システムのデバイス構成例を示す図である。 表示部の表示画面例を示す図である。 表示部の表示画面例を示す図である。 制御システムのデバイス構成例を示す図である。
[システム構成]
本実施形態に係る画像処理システム10の構成例を図1に示す。画像処理システム10は、複数の撮像装置による撮像に基づく複数の画像と、指定された仮想視点とに基づいて、指定された仮想視点からの見えを表す仮想視点画像を生成するシステムである。本実施形態における仮想視点画像は、自由視点映像とも呼ばれるものであるが、ユーザが自由に(任意に)指定した視点に対応する画像に限定されず、例えば複数の候補からユーザが選択した視点に対応する画像なども仮想視点画像に含まれる。また、本実施形態では仮想視点画像が動画である場合を中心に説明するが、仮想視点画像は静止画であってもよい。
画像処理システム10は、撮像領域101を複数の方向から撮像する撮像複数の撮像装置8を有する。本実施形態では、撮像対象となる撮像領域101が、サッカーが行われる競技場であるものとする。ただし撮像領域101はこれに限定されず、ラグビーや空手などが行われる競技場であってもよいし、もしくはコンサートや演劇が行われる舞台などであってもよい。図1に示すように、複数の撮像装置8は、このような撮像領域101を取り囲むようにそれぞれ異なる位置に設置され、同期して撮像を行う。なお、複数の撮像装置8は撮像領域101の全周にわたって設置されていなくてもよく、設置場所の制限等によっては撮像領域101の周囲の一部にのみ設置されていてもよい。また、撮像装置8の数は図1に示す例に限定されず、例えば撮像領域101をサッカーの競技場とする場合には、競技場の周囲に30台程度の撮像装置8が設置されてもよい。また、望遠カメラと広角カメラなど機能が異なる撮像装置8が設置されていてもよい。
画像処理装置9は、画像処理部7と記憶部72を有し、情報処理装置3及び複数の撮像装置8と接続して通信を行い、仮想視点画像を生成する。仮想視点画像は、例えば以下のような方法で生成される。まず、複数の撮像装置8によりそれぞれ異なる方向から撮像することで複数の画像(複数視点画像)が取得され、画像処理部7へ入力される。次に、画像処理部7は、複数視点画像から、人物やボールなどの所定のオブジェクトに対応する前景領域を抽出した前景画像と、前景領域以外の背景領域を抽出した背景画像を取得する。また、画像処理部7は、所定のオブジェクトの三次元形状を表す前景モデルと前景モデルに色付けするためのテクスチャデータとを前景画像に基づいて生成する。また、競技場などの背景の三次元形状を表す背景モデルに色づけするためのテクスチャデータを背景画像に基づいて生成する。そして、画像処理部7は、前景モデルと背景モデルに対してテクスチャデータをマッピングし、情報処理装置3から取得した視点情報が示す仮想視点に応じてレンダリングを行うことにより、仮想視点画像を生成する。生成された仮想視点画像は、記憶部72、情報処理装置3、もしくはその他の外部ネットワーク等へ出力される。ただし、仮想視点画像の生成方法はこれに限定されず、三次元モデルを用いずに撮像画像の射影変換により仮想視点画像を生成する方法など、種々の方法を用いることができる。
仮想視点画像の生成に用いられる視点情報は、仮想視点の位置及び向きを示す情報である。具体的には、視点情報は、仮想視点の三次元位置を表すパラメータと、パン方向、チルト方向、及びロール方向における仮想視点の向きを表すパラメータとを含む、パラメータセットである。なお、視点情報の内容は上記に限定されない。例えば、視点情報としてのパラメータセットには、仮想視点に応じた視野の大きさ(画角)を表すパラメータが含まれてもよい。また、視点情報は複数のパラメータセットを有していてもよい。例えば、視点情報が、仮想視点画像の動画を構成する複数のフレームにそれぞれ対応する複数のパラメータセットを有し、連続する複数の時点それぞれにおける仮想視点の位置及び向きを示す情報であってもよい。
なお、本実施形態の説明においては、仮想カメラという用語を用いる。図1に示す仮想カメラ102は、撮像領域101の周囲に実際に設置された複数の撮像装置8とは異なる仮想的なカメラであって、仮想視点画像の生成に係る仮想視点を便宜的に説明するための概念である。すなわち、仮想視点画像は、撮像領域101に関連付けられる仮想空間内に設定された仮想視点から撮像した画像であるとみなすことができる。そして、仮想的な当該撮像における視点の位置及び向きは仮想カメラ102の位置及び向きとして表すことができる。また、仮想視点に応じた視野は、仮想カメラ102の視野に相当する。言い換えれば、仮想視点画像は、空間内に設定された仮想視点の位置にカメラが存在するものと仮定した場合に、そのカメラにより得られる撮像画像を模擬した画像であると言える。ただし、本実施形態の構成を実現するために仮想カメラ102の概念を用いることは必須ではない。すなわち、少なくとも空間内における特定の位置を表す情報と向きを表す情報とが設定され、設定された情報に応じて仮想視点画像が生成されればよい。
記憶部72には、画像処理部7により生成された仮想視点画像に限らず、仮想視点画像の生成に係る素材データが記憶されてもよい。本実施形態では、仮想視点画像を生成するためのデータであって、撮像装置8によって撮像された撮像画像、および該撮像画像に基づいて生成されるデータのことを、素材データと表記する。撮像画像に基づいて生成される素材データは、例えば、撮像画像から抽出した前景画像と背景画像のデータ、三次元空間におけるオブジェクトの形状を表す三次元モデルデータ、および三次元モデルに色付けするためのテクスチャデータ等である。
なお、素材データは仮想視点画像を生成するためのデータであれば、その種類は限定されない。例えば、撮像画像を取得する撮像装置8の撮像条件を表すカメラパラメータが素材データに含まれていてもよい。また、上記では三次元モデルを用いて仮想視点画像を生成する場合の素材データの例について記載したが、三次元モデルを用いずに仮想視点画像を生成する場合、仮想視点画像の生成に必要なデータは上記の素材データの例と異なる場合がある。このように、仮想視点画像の生成手法に応じて素材データが異なっていてもよい。また、記憶部72に記憶される素材データには、上記撮像画像に基づいて生成されるデータ以外に、CADなどで生成される三次元モデルデータが含まれてもよい。
図1における制御システム6は、操作部1、操作部2、情報処理装置3、表示部4、及び表示部5を有し、仮想視点画像に対応する仮想視点をユーザ操作に基づいて設定するために用いられる。操作部1及び操作部2は、例えばジョイスティック、キーボード、マウス、タッチパネルなどで構成され、ユーザ(操作者)による操作の対象となる。表示部4及び表示部5は、例えば液晶ディスプレイやLED等で構成され、情報処理装置3からの出力に基づいてユーザに対して画像を表示する。
情報処理装置3は、操作入力部31、視点設定部32、及び表示制御部33を有する。操作入力部31は、操作部1及び操作部2からのユーザ操作に応じた入力を受け付け、例えば物理的な操作を示す信号を論理的な操作命令に変換するなどの処理を行う。これにより、操作部の機器種別やI/Fの物理的な差異を吸収できる。視点設定部32は、操作入力部31からの操作命令に基づいて仮想視点の位置及び向き等を設定し、設定された仮想視点を示す視点情報を画像処理装置9へ送信する。表示制御部33は、ユーザが操作部1を操作するためのGUI(Graphical User Interface)を表示部4に表示させ、操作部2を操作するためのGUIを表示部5に表示させる。また、表示制御部33は、画像処理装置9から仮想視点画像を受信し、表示部4及び表示部5の一方もしくは両方に仮想視点画像を表示させる。また、表示制御部33は必要に応じて、撮像装置8が撮像した画像を受信して表示部4又は表示部5に表示させてもよい。
なお、画像処理システム10の構成は、図1に示したものに限定されない。例えば、情報処理装置3と画像処理装置9とが一体となって構成されていてもよい。また、複数の情報処理装置3が画像処理装置9と接続されて通信を行ってもよい。また、画像処理装置9が有する機能が、複数の装置により実現されてもよい。例えば、前景画像の生成、三次元モデルの生成、及び仮想視点画像の生成が、それぞれ異なる装置により実行されてもよい。
[ハードウェア構成]
情報処理装置3のハードウェア構成について、図2を用いて説明する。なお、画像処理装置9のハードウェア構成も、以下で説明する情報処理装置3の構成と同様である。あるいは、情報処理装置3のハードウェアに画像処理装置9の機能を統合してもよい。情報処理装置3は、CPU301、ROM302、RAM303、補助記憶装置304、表示I/F305、操作I/F306、通信I/F307、及びバス308を有する。
CPU301は、ROM302やRAM303に格納されているコンピュータプログラムやデータを用いて情報処理装置3の全体を制御することで、図1に示す情報処理装置3の各機能を実現する。なお、情報処理装置3がCPU301とは異なる1又は複数の専用のハードウェアを有し、CPU301による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。ROM302は、変更を必要としないプログラムなどを格納する。RAM303は、補助記憶装置304から供給されるプログラムやデータ、及び通信I/F307を介して外部から供給されるデータなどを一時記憶する。補助記憶装置304は、例えばハードディスクドライブ等で構成され、画像データや音声データなどの種々のデータを記憶する。
表示I/F305は、表示部4及び表示部5との通信に用いられ、例えば表示部4及び表示部5へ映像信号を出力する。操作I/F306は、操作部1及び操作部2との通信に用いられ、例えば操作部1及び操作部2からユーザ操作に応じた操作信号の入力の受付を行う。通信I/F307は、情報処理装置3の外部の装置との通信に用いられる。例えば、情報処理装置3が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F307に接続される。情報処理装置3が外部の装置と無線通信する機能を有する場合には、通信I/F307はアンテナを備える。バス308は、情報処理装置3の各部をつないで情報を伝達する。本実施形態では、操作部1、操作部2、表示部4、及び表示部5が情報処理装置3とは別個の装置として存在するものとするが、これらのうち少なくとも何れかが情報処理装置3の内部に存在してもよい。
[仮想視点の操作]
以下では、仮想視点画像に対応する仮想視点を設定するための操作方法の例を説明する。図3は、操作部1、操作部2、情報処理装置3、表示部4、及び表示部5の具体的なデバイス構成の一例を示した図である。図3の操作部1は、操作卓11にジョイスティック12A及びジョイスティック12Bが取り付けられた構成である。各ジョイスティックの操作に基づいて、操作卓11の電気回路によって操作信号が生成される。操作信号は操作信号ケーブル13によって情報処理装置3へ伝送される。操作部2についても同様に、ジョイスティック22A及びジョイスティック22Bの操作に基づいて操作卓21で生成された操作信号が、操作信号ケーブル23によって情報処理装置3へ伝送される。操作部1と操作部2とは、独立して操作が可能である。例えば図3に示すように、操作部1と操作部2とはそれぞれ物理的に独立したデバイス(操作卓)を有する。
なお、本実施形態において、複数の操作部が独立して操作可能であるとは、一方の操作部に対する操作が他方の操作部に対する操作を直接的に制約することがないことをいう。すなわち、独立して操作可能な複数の操作部は、別々の筐体に備えられているものに限定されない。図3におけるジョイスティック12Aとジョイスティック12Bも、独立して操作可能な操作部である。また例えば、同じ操作デバイス上の複数の異なるボタンなどの操作部も、一方の操作部に対する操作が他方の操作部に対する操作を直接的に制約しなければ、独立して操作可能な操作部である。
図3の表示部4は、独立した1つの表示装置41を有する。情報処理装置3から出力された映像信号は、映像信号ケーブル42によって表示装置41へ伝送される。表示部5についても同様に、情報処理装置3から出力された映像信号が映像信号ケーブル42によって表示装置51へ伝送される。なお、操作部1と操作部2の構成は同一でなくてもよく、表示部4と表示部5の構成は同一でなくてもよい。また、表示部4と表示部5が同一の表示装置における異なる表示領域であってもよい。
以下では、操作部1と操作部2がそれぞれ異なる操作者により操作される場合の例を中心に説明する。第一操作者は表示部4に表示された画像を見ながら操作部1を操作し、第二操作者は表示部5に表示された画像を見ながら操作部2を操作する。各操作者は、左手と右手で1つずつのジョイスティックを操作する。ただし、制御システム6を用いた操作の方法はこれに限定されず、例えば各ジョイスティックをそれぞれ異なる操作者が操作してもよい。
図4は、注目点103の三次元位置を設定するための、操作部1を用いた操作を説明する図である。本実施形態における注目点は、仮想カメラ102の視野に含まれるべき位置、すなわち仮想視点画像に表示されるべき注目位置である。例えば、注目点を特定の被写体(選手、ボール、及びゴールなど)に合わせ、仮想カメラ102の視線方向に注目点が位置するように仮想カメラ102を制御することで、特定の被写体が中心に映る仮想視点画像を生成できる。操作者は操作部1を操作することで、注目点を特定の被写体から他の被写体に切り替えてもよいし、被写体の存在しない空間上の位置(例えば、特定の被写体の上空や、複数の被写体の位置の中間点など)に設定してもよい。
ジョイスティック12A及びジョイスティック12Bは、レバーを360度任意の方向に傾けることによって、傾けた方向と傾けた量に応じた左右方向成分値と前後方向成分値を出力する。図4(A)に示すようにジョイスティック12Bを操作したときの左右方向成分値に応じて、図4(D)に示す注目点103のX座標値が増減する。なお、操作者の好みに合わせて、左右方向成分値に対するX座標値の増減量を調整できるようにしてもよい。以下に説明する各操作についても同様である。図4(B)に示すようにジョイスティック12Bを操作したときの前後方向成分値に応じて、注目点103のY座標値が増減する。図4(C)に示すようにジョイスティック12Aを操作したときの前後方向成分値に応じて、注目点103のZ座標値が増減する。このように、独立して操作可能なジョイスティック12Aとジョイスティック12Bに対する操作に基づいて、3次元空間における注目点103の位置が設定される。ジョイスティック12A及びジョイスティック12Bから手を離すと、傾いていたジョイスティックは初期位置に戻り、注目点103の移動は停止する。
図5(A)は、表示部4に表示される表示画面の例である。表示部4には設定された注目点103の位置を示す画像が表示されるため、第一操作者は表示部4の表示画面を見ながら操作部1を操作して注目点103を移動させることができる。表示制御部33が生成して表示部4に表示させる表示画面には、図5(A)に示すように、競技場の俯瞰図画像201、正面図画像202、側面図画像203、及び平面図画像204が含まれる。これらの画像は、それぞれ所定の視点から見た仮想視点画像として、フレーム毎の撮像画像に基づいて画像処理装置9によって生成され、表示制御部33へ送られる。したがって、第一操作者は仮想視点画像に映っているボールや選手などを見ながら注目点の三次元位置を指定することができる。ただし、ボールや選手を表す画像は撮像画像に基づいて生成されたものに限定されず、予め記憶された画像や所定のアイコンなどであってもよい。
表示制御部33は、上記生成された俯瞰図画像201、正面図画像202、側面図画像203、及び平面図画像204にそれぞれ操作部1の操作に応じた注目点103の三次元位置を表わすアイコンを重畳表示する。さらに、後述の処理によって求められる仮想カメラ102の三次元位置を表わすアイコンが重畳表示されてもよい。上記アイコンの重畳方法としては、画像処理装置9が、三次元空間上における注目点103及び仮想カメラ102の三次元位置を取得し、仮想視点画像上にアイコンを配置してもよい。あるいは、表示制御部33が、仮想視点画像上における注目点103及び仮想カメラ102の二次元位置を算出して、仮想視点画像上にアイコンを配置してもよい。
図5(A)の例では、画面を4分割して俯瞰図画像201、正面図画像202、側面図画像203、及び平面図画像204を同じ面積で表示している。ただし、不図示の操作ボタンを介した操作などによって、特定の画像の表示面積を大きくしたり、小さくしたり、もしくは非表示にしたりしてもよい。また、細かい位置指定操作を容易にするために、表示制御部33は、図5(B)に示すように注目点103の付近の拡大図画像205を表示部4に表示させてもよい。図5(B)の拡大図画像205は俯瞰図画像201を拡大表示した画像であるが、不図示の操作ボタンを介した操作などによって、俯瞰図画像201、正面図画像202、側面図画像203、及び平面図画像204のうち選択された画像が拡大表示されてもよい。
拡大図画像205は、表示部4の一部分に常に表示するようにしてもよく、あるいは不図示の操作ボタンを介した操作などによって拡大表示操作を行った場合に表示されるようにしてもよい。例えば俯瞰図画像201に対して拡大表示操作が行われた場合に、俯瞰図画像201の表示位置にそのまま拡大図画像205が表示されてもよい。または、他の画像(例えば側面図画像203)の表示位置に拡大図画像205が表示されてもよい。あるいは、各画像の表示面積を小さくして、拡大図画像205の表示位置を確保するようにしてもよい。表示制御部33は、拡大図画像205の中央に常に注目点103が位置するように、注目点103の移動に伴って拡大図画像205の領域をスクロールしてもよい。
なお、多数の仮想視点画像をフレーム毎に更新するには画像処理装置9に高い処理能力が必要となる。そこで、処理負荷を下げるために、俯瞰図画像201、正面図画像202、側面図画像203、及び平面図画像204として表示する仮想視点画像は視聴用の仮想視点画像よりも低解像度としてもよい。上述のように、各図の表示面積を可変にした場合は、表示面積に合わせて解像度を可変にしてもよい。また、俯瞰図画像201、正面図画像202、側面図画像203、及び平面図画像204の背景は毎フレーム生成せずに予め生成しておいた静止画像を用い、前景(選手、ボールなど)の画像のみ毎フレーム生成するようにしてもよい。また、俯瞰図画像201、正面図画像202、側面図画像203、及び平面図画像204のうちの少なくとも一部の画像は前景を省略してもよい。
図6は、注目点103に対する仮想カメラ102の水平方向、垂直方向、仮想カメラ102のロール角、注目点103と仮想カメラ102との距離、及び仮想カメラ102の画角を変更するための、操作部2を用いた操作を説明する図である。ジョイスティック22A及びジョイスティック22Bは、レバーを360度任意の方向に傾けることによって、傾けた方向と傾けた量に応じた左右方向成分値と前後方向成分値を出力する。さらに、レバーの軸を中心にレバーを回転させることによって、回転成分値を出力する。
図6(A)に示すようにジョイスティック22Aを操作したときの前後方向成分値に応じて、図6(F)に示すように仮想カメラ102の視線104の方向に仮想カメラが移動し、注目点103と仮想カメラ102との距離が増減する。図6(B)に示すようにジョイスティック22Aを操作したときの回転成分値に応じて、図6(G)に示すように仮想カメラの画角が増減し、仮想カメラ102の視野105の大きさが変化する。
図6(C)に示すようにジョイスティック22Bを操作したときの左右方向成分値に応じて、図6(H)に示すように注目点103に対する仮想カメラ102の水平方向が変化する。その際、仮想カメラ102の視線104の方向は、情報処理装置3の視点設定部32によって、注目点103を向くように制御される。図6(D)に示すようにジョイスティック22Bを操作したときの前後方向成分値に応じて、図6(I)に示すように注目点103に対する仮想カメラ102の垂直方向が変化する。その際、仮想カメラ102の視線104の方向は、情報処理装置3の視点設定部32によって、注目点103を向くように制御される。
図6(E)に示すようにジョイスティック22Bを操作したときの回転成分値に応じて、図6(J)に示すように仮想カメラ102のロール角が変化し、仮想カメラ102の視野105の傾きが変化(仮想カメラ102が視線104を軸に回転)する。ジョイスティック22A及びジョイスティック22Bから手を離すと、傾いていたジョイスティックは初期位置に戻り、仮想カメラの方向、ロール角、距離、及び画角の変化は停止する。
このように、独立して操作可能なジョイスティック22Aとジョイスティック22Bの操作に基づいて、注目点103に対する仮想カメラ102の3次元位置と、仮想カメラ102のパン、チルト、及びロール方向における向きと画角が設定される。また、視点設定部32は、仮想カメラ102の位置から見て所定の方向(例えば仮想カメラの向きに応じた視線方向)に注目点103が位置するように、注目点103に対する仮想カメラ102の位置と仮想カメラ102の向きを連動させて設定する。これにより、仮想カメラ102の視野から注目点103が外れることなく、仮想カメラ102の位置を変更できる。
図7は、表示部5に表示される表示画面の例である。表示部5には設定された仮想カメラ102の位置及び向きに応じた画像が表示され、第二操作者は表示部5の表示画面を見ながら操作部2を操作して、注目点103に対する仮想カメラ102の方向、ロール角、距離、及び画角などを制御することができる。表示制御部33が生成して表示部5に表示させる表示画面には、図7に示すように、操作部1及び操作部2の操作に基づいて設定された仮想視点に応じた仮想視点画像206が含まれる。ただし、表示部5に表示される仮想カメラ102の位置及び向きに応じた画像は仮想視点画像206に限定されず、仮想カメラ102の位置及び向きを示すアイコンなどの画像であってもよい。
なお、図6(F)、図6(G)、図6(H)、図6(I)、及び図6(J)は、注目点103を基準とした相対的な仮想カメラ102の位置や向き等の変化を図示していることに注意されたい。すなわち、操作部1及び操作部2を同時に操作した場合における3次元空間における仮想カメラ102の動きは、図4に示す注目点103の動きと図6に示す相対的な仮想カメラ102の動きとを合成した動きになる。
本実施形態によれば、図4を用いて説明した注目点103の操作と図6を用いて説明した注目点103に対する仮想カメラ102の相対的な操作とを、それぞれ異なる操作者に分担させることによって、両操作者の操作をいずれも簡単にすることができる。
例えば、動く被写体(例えば選手やボールなど)を追いながら、どの方向から被写体を見るか(被写体に対する仮想視点の相対位置)を変化させる場合を考える。本実施形態とは異なり、第一操作者が仮想カメラ102の位置を操作し、第二操作者が仮想カメラ102の向きを操作する場合、第二操作者は、第一操作者の操作する仮想カメラ102の移動を予測もしくは確認しながら仮想カメラ102の向きを操作する。同様に、第一操作者も、第二操作者の操作する仮想カメラ102の向きの変化を予測もしくは確認しながら仮想カメラ102を移動させる。このように互いの操作を予測もしくは確認しながら操作すると、予測が外れて意図しない結果になってしまったり、相手の操作結果を確認してから操作したために操作のタイムラグが生じてしまったりすることが考えられる。
一方、本実施形態の操作分担によれば、第一操作者は被写体を追いかけることに専念でき、第二操作者は被写体を見る方向を変えることに専念できる。第二操作者は被写体の移動を気にしなくてよく、第一の操作者は被写体を見る方向を気にしなくてよい。すなわち、互いの操作に影響されることなく、意図した動作結果がタイムラグなくスムーズに得られる。
また例えば、仮想カメラ102と被写体との距離及び仮想カメラ102の画角をそれぞれ操作して、遠近感を調整する場合を考える。仮想カメラ102を被写体に近づけて画角を広げると、近くの被写体が大きく、遠くの被写体が小さく映るため、遠近感が強調される。逆に視点を被写体から遠ざけて画角を狭めると、遠近感が弱まる。すなわち、仮想視点画像における注目被写体の大きさを略一定に保ちながら、注目被写体の背後の映り方を変化させることができる。本実施形態とは異なり、第一操作者が仮想カメラ102の位置を操作し、第二操作者が仮想カメラ102の画角を操作するものとした場合、第二操作者は、第一操作者の操作に応じた仮想カメラ102と被写体との距離の変化を予測又は確認しながら画角を操作する。同様に、第一操作者も、第二操作者の操作する画角の変化を予測もしくは確認しながら仮想カメラ102の位置を操作する。この場合も、先の例と同様に、予想が外れて意図しない結果になってしまったり、確認のためタイムラグが生じてしまったりすることが考えられる。
一方、本実施形態の操作分担によれば、第二操作者が仮想カメラ102と注目点103との距離及び仮想カメラ102の画角の両方を操作して、所望の遠近感に調整することができる。すなわち、第一操作者の操作に影響されることなく、意図した動作結果がタイムラグなくスムーズに得られる。ただし、制御システム6は少なくとも仮想カメラ102の位置と向きとを設定できればよく、仮想カメラ102の画角を設定する機能を有していなくてもよい。
なお、図4及び図6に示したユーザ操作と仮想カメラ102の動作の対応は一例であり、上述した各動作を実現するために、個々のジョイスティックに上記の説明と異なる操作を割り当てても構わない。例えば、ジョイスティックの左手と右手の操作の割り当てを交換してもよく、左手(または右手)の操作の割り当ての一部を右手(または左手)の操作に割り当てても構わない。また、ジョイスティックの前後方向成分の操作、左右方向成分の操作、回転成分の操作の割り当てを入れ替えても構わない。さらに、操作者の好みや慣れに合わせて、操作と動作の対応を任意に設定できるようにしてもよい。
例えば、図6(H)に示す動作に関して、仮想カメラ102を左方向へ移動させたい場合、「仮想カメラ102を移動させる方向へジョイスティックを傾ける」と考える操作者にとっては、ジョイスティックを左へ傾けるのが自然な操作であると考えられる。一方、仮想カメラ102が左方向へ移動するのに連動して仮想カメラ102の向きは右方向へ変化することから、「仮想カメラ102を向ける方向へジョイスティックを傾ける」と考える操作者にとっては、ジョイスティックを右へ傾けるのが自然な操作である。操作と動作の対応を変更できるようにすることで、このような異なる操作者の何れにとっても操作を簡単にすることができる。
仮想カメラ102を前後方向に移動させる操作が行われた場合、図6(K)に示すように仮想カメラ102から注目点103へ向かう直線上で仮想カメラ102を移動させてもよい。また、図6(L)に示すように注目点103からの相対的な高さが一定となる水平面上で仮想カメラ102を移動させてもよい。仮想カメラ102を左右方向に移動させる操作が行われた場合、図6(K)に示すように注目点103を中心とした球面上で仮想カメラ102を移動させてもよい。また、図6(L)に示すように注目点103からの相対的な高さが一定の水平面上で仮想カメラ102を移動させてもよい。仮想カメラ102を上下方向に移動させる操作が行われた場合、図6(K)に示すように注目点103を中心とした球面上で仮想カメラ102を移動させてもよい。また、図6(L)に示すように地面と垂直な直線上で仮想カメラ102を移動させてもよい。このように、操作者の好みや慣れに合わせて、操作と動作の対応を入れ替えることによって、操作者にとって自然な操作が可能になる。
図5及び図7に示した画面表示も一例であり、表示部4及び表示部5に表示される画像はこれに限定されない。例えば、表示部4に図7に示す仮想視点画像206を表示させてもよい。また、表示部5に図5に示す俯瞰図画像201、正面図画像202、側面図画像203、及び平面図画像204を表示させてもよい。また、表示部4及び表示部5にその他のさまざまな画像や情報を表示させてもよい。
[動作フロー]
図8のフローチャートを用いて、情報処理装置3の動作について説明する。図8に示す処理は、情報処理装置3のCPU301がROM302に格納されたプログラムをRAM303に展開して実行することで実現される。なお、図8に示す処理の少なくとも一部を、CPU301とは異なる1又は複数の専用のハードウェアにより実現してもよい。図8に示す処理は、画像処理装置9と情報処理装置3とが接続され、仮想視点画像の生成に係る視点操作を行うための指示が情報処理装置3に入力されたタイミングで開始される。ただし、図8に示す処理の開始タイミングはこれに限定されない。また、図8におけるS1001からS1011までの処理ループは、画像処理部7から動画として出力される仮想視点画像の1フレームにつき1回ずつ処理される。
S1001において、操作入力部31は、操作部1及び操作部2に対するユーザ操作に応じた入力を受け付け、操作命令を視点設定部32へ出力する。なお、操作部1及び操作部2の他にも操作部が情報処理装置3に接続されている場合には、それらの操作部からの入力も処理される。S1002において、視点設定部32は、上記操作命令が視点操作を終了することを示す終了命令であるかを判定する。入力された操作命令が終了命令であれば図8の処理を終了し、そうでない場合はS1003へ進む。例えば、入力された操作命令が注目点103又は仮想カメラ102の操作に関する命令である場合や、操作部1及び操作部2に対する操作が行われなかったことを示す命令である場合は、S1003へ進む。
S1003において、視点設定部32は、注目点103の位置を特定する注目点パラメータと、注目点に対する仮想視点の相対位置や向き、画角等を特定する視点パラメータとの現在値を、RAM303から読み出す。最初のフレームの処理が行われる際には、所定の初期値または前回の動作時における最終値が現在値として読みだされる。2フレーム目以降のフレームの処理が行われる際には、1つ前のフレームの処理における後述のS1005で記憶された値が現在値として読みだされる。
注目点パラメータは、注目点の位置を示すパラメータであり、例えば3次元空間における注目点103の位置のX座標、Y座標、及びZ座標を示す。一方、視点パラメータは、少なくとも注目点103に対する仮想カメラ102の位置と仮想カメラ102の向きとを示すパラメータである。例えば視点パラメータは、注目点103に対する仮想カメラ102の水平方向及び垂直方向、注目点103と仮想カメラ102との距離、並びに仮想カメラ102の画角を示す。
S1004において、視点設定部32は、S1003において読みだされた注目点パラメータ及び視点パラメータと、S1001において受け付けられた入力に応じた上記操作命令に基づいて、注目パラメータ及び視点パラメータを変更する。具体的には、操作部1に対する操作に応じた入力に基づいて注目パラメータを変更し、操作部2に対する操作に応じた入力に基づいて視点パラメータを変更する。パラメータの変更方法は、図4及び図6を用いて説明した通りである。S1005において、視点設定部32は、上記変更された注目点パラメータ及び視点パラメータを、更新された新たな現在値としてRAM303へ記憶する。なお、操作部1及び操作部2に対してユーザ操作が行われなかった場合には、S1004の処理は行われず、S1003で読みだされた注目点パラメータと視点パラメータがそのまま新たな現在値として記憶される。
S1006において、視点設定部32は、最新の注目点パラメータと視点パラメータとに基づいて、3次元空間における仮想視点の三次元位置を特定する。すなわち、視点設定部32は、注目点103に対する仮想カメラ102の相対位置ではなく、注目点の位置座標と同様の座標系で表される仮想カメラ102の絶対位置を特定する。
S1007において、視点設定部32は、仮想視点画像の生成に用いる素材データのフレーム(例えば撮像画像のフレーム)を更新する。画像処理システム10は、撮像装置8により撮像しながらライブ映像として仮想視点画像を生成してもよいし、撮像画像や撮像画像から生成された素材データを記憶部72に記憶しておき、撮像終了後にリプレイ映像として仮想視点画像を生成してもよい。ライブ映像の場合、及びリプレイ映像を等倍速再生する場合は、出力される仮想視点画像のフレームが1フレーム進む毎に、素材データのフレームを1フレーム進ませる。一方、リプレイ映像をスロー再生する場合は、出力される仮想視点画像のフレームが複数フレーム進む毎に、素材データのフレームを1つ進ませる。また、リプレイ映像として、撮像画像を一時停止させて仮想視点を移動させるような映像を再生する場合は、出力する仮想視点画像のフレームのみ進行させ、素材データのフレーム更新は停止させる。
S1008において、視点設定部32は、フレーム番号、仮想視点の三次元位置、仮想視点の向き、及び仮想視点の画角の示す情報を含む所定形式の視点情報を生成する。S1009において、情報処理装置3は、静止した視点情報を通信I/F306を介して画像処理装置9へ出力する。画像処理装置9は、情報処理装置から取得した視点情報と記憶部72に記憶された素材データに基づいて、仮想視点画像を生成し、情報処理装置3へ出力する。また、画像処理装置9は、生成された仮想視点画像を記憶部72や画像処理システムの外部へ出力してもよい。
S1010において、表示制御部33は、表示部4及び表示部5に表示させる表示画像を生成する。生成する表示画像には、画像処理装置9により生成された仮想視点画像が含まれてもよい。第一操作者と第二操作者は、それぞれ表示部4及び表示部5に表示された画面を見ながら次の操作を行う。情報処理装置3はS1001へ戻り、新たな操作入力の処理を行う。
[変形例]
図3に示したデバイス構成は一例であり、制御システム6の構成はこれに限定されない。図9に、制御システム6の変形例を示す。操作部1は、操作卓11Aにジョイスティック12A、操作卓11Bにジョイスティック12Bがそれぞれ取り付けられた構成である。ジョイスティック12Aの操作に基づいて、操作卓11Aの電気回路によって操作信号が生成される。操作信号は操作信号ケーブル13Aによって情報処理装置3へ伝送される。また、ジョイスティック12Bの操作に基づいて、操作卓11Bの電気回路によって操作信号が生成される。操作信号は操作信号ケーブル13Bによって情報処理装置3へ伝送される。操作部2も操作部1と同様に、操作卓21Aに取り付けられたジョイスティック22Aと、操作卓21Bに取り付けられたジョイスティック22Bとを有する。操作卓21Aと操作卓21Bはそれぞれ操作信号ケーブル23Aと操作信号ケーブル23Bに接続される。
表示部4は、独立した表示装置41A及び表示装置41Bの組で構成される。情報処理装置3からの映像信号は映像信号ケーブル42A及び映像信号ケーブル42Bによって、それぞれ表示装置41A及び表示装置41Bへ伝送される。表示部5も表示部4と同様に、映像信号ケーブル52Aに接続された表示装置51Aと、映像信号ケーブル52Bに接続された表示装置51Bを有する。
図10は別の変形例を示しており、1つの操作卓11に、操作部1のジョイスティック12A及びジョイスティック12Bと、操作部2のジョイスティック22A及びジョイスティック22Bが取り付けられた構成である。各ジョイスティックの操作に基づいて、操作卓11の電気回路によって操作信号が生成される。操作信号は操作信号ケーブル13によって情報処理装置3へ伝送される。図10の表示装置41には、表示部4に相当する領域であるウィンドウ43と、表示部5に相当する領域であるウィンドウ53がそれぞれ表示される。情報処理装置3からの映像信号は映像信号ケーブル42によって、表示装置41へ伝送される。
また、制御システム6が有する個々のジョイスティックは、それぞれ少なくとも1次元の入力が可能であればよい。例えば、図4のジョイスティック12Aは前後方向成分の入力のみが可能な一次元ジョイスティックであってもよい。また、他の可動部を設けた多次元ジョイスティックや、ジョイスティック以外の操作デバイス(キーボード、マウス、タッチパネルなど)を用いてもよい。また、手で操作する操作デバイスだけでなく、頭、視線、声、足など操作者の体の各部位によって操作する操作デバイスを用いてもよい。
また、操作部1として表示部4と一体化したタッチパネルを用いてもよいし、操作部2として表示部5と一体化したタッチパネルを用いてもよい。例えば、操作部1にタッチパネルを用いた場合、X座標とY座標をタッチパネルで操作し、Z座標をジョイスティックまたはボタンなどで操作するようにしてもよい。また、操作部1又は操作部2に、予め決められた位置(例えば、サッカーフィールドのセンターマーク、ペナルティマーク、及びゴール中央など、もしくは野球のマウンド、及びホームベースなど)を注目点103として指定するためのボタンを設けてもよい。また、操作部1と操作部2とが完全に独立していなくてもよく、操作部1と操作部2とを異なる操作者が同時に操作できるような構成であってもよい。
なお、画像処理装置9が生成する仮想視点画像は、撮像画像を用いずに、例えばCADなどによって生成された三次元モデルから生成された画像であってもよい。あるいは、撮像画像に基づいて生成された三次元モデルとCADなどによって生成された三次元モデルとを混在させた画像であってもよい。
以上説明したように、本実施形態に係る情報処理装置3は、仮想視点画像に対応する仮想視点の位置及び向きを設定する。具体的には、情報処理装置3は、仮想視点に応じた視野に含まれるべき注目位置を操作部1に対する操作に基づいて設定し、且つ、注目位置に対する仮想視点の位置と仮想視点の向きとを操作部2に対する操作に基づいて設定する。このような構成によれば、例えば、注目位置を仮想視点に応じた視野内に含めつつ、どの方向から注目位置を見るかを変化させるように仮想視点を操作することが簡単になる。これにより、仮想視点画像に対応する仮想視点の設定に係る操作の利便性を向上できる。
また、本実施形態に係る情報処理装置3は、注目位置を操作部1に対する第一操作者による操作に基づいて設定し、注目位置に対する仮想視点の位置と仮想視点の向きとを、操作部2に対する第二操作者による操作に基づいて設定する。このように、注目位置の操作と注目位置に対する仮想視点の相対的な操作を異なる操作者に分担させることによって、両操作者の操作をいずれも簡単にすることができる。これにより、操作者が互いの操作に影響されず、意図した動作をスムーズに得ることができるという効果が得られる。
[複数の仮想視点の制御]
以下では、複数の仮想視点画像を生成するために、同じ注目点103に向けた複数の仮想カメラ102を設定することを可能とする制御システム6の例について説明する。図11は、制御システム6の具体的なデバイス構成の一例を示した図である。図11の例においては、1つの操作部1に対して、操作卓21-1、操作卓21-2、及び操作卓21-3という独立した3つの操作卓を有する操作部2が対応付けられている。
操作部1を用いて設定された1つの注目点103を基準に、3つの操作卓を用いて3つの仮想カメラ102を同時に制御することによって、3つの仮想視点画像が生成される。すなわち、3つの仮想視点画像にそれぞれ対応する3つの仮想カメラ102の視野のいずれにも、操作部1を用いて設定された注目点103が含まれる。そして、注目点103に対する各仮想カメラ102の位置と向きとが、各仮想カメラ102に対応する操作卓を用いた操作に基づいて設定される。なお、操作部2が有する独立した操作デバイス(例えば操作卓)の個数は、3つに限らず、2つであってもよいし4つ以上であってもよい。
図12は、表示部4に表示される俯瞰図画像201、正面図画像202、側面図画像203、平面図画像204の例である。図11に示す制御システム6を用いることで仮想カメラ102が3つ設定されるため、図12に示す各画像には、それぞれ仮想カメラ102を示すアイコンが3つずつ表示される。仮想カメラ102-1は操作卓21-1を用いて操作され、仮想カメラ102-2は操作卓21-2を用いて操作され、仮想カメラ102-3は操作卓21-3を用いて操作される。表示部4の表示画面においては、各仮想カメラ102を識別するために、アイコンの色分けや記号又は番号の表示などが行われてもよい。
なお、仮想カメラ102が多数設定される場合は、表示画面が煩雑になるので、仮想カメラ102のアイコンを非表示にしてもよい。あるいは、操作部1に特定の仮想カメラ102を選択するためのボタン14を設け、選択された仮想カメラ102のアイコンのみが表示されるようにしてもよい。ボタン14は、図11に示すような物理的なボタンでなく、表示部4に表示されるGUIに含まれていてもよく、GUIを操作するキーボード、マウス、及びタッチパネルなどによってボタン14が操作されてもよい。
このように複数の仮想カメラ102を同時に制御する場合、操作入力部31は、操作部2から入力される3つの操作信号をそれぞれ並行して処理する。視点設定部32は、3つ仮想カメラ102にそれぞれ対応する3つの視点情報を並行して生成する。その際、操作部1の操作信号は、共通に使用される。画像処理装置9は、それぞれの視点情報に基づいて、3つの仮想視点画像を並行して生成する。表示制御部33は、表示部4に表示される画像を生成するのに加え、表示部5が有する表示装置51-1、表示装置51-2、及び表示装置51-3のそれぞれに表示される画像を並行して生成する。図13(A)、図13(B)、及び図13(C)は、表示部5が有する3つの表示装置それぞれの画面例であり、3つの仮想カメラ102にそれぞれ対応する3つの仮想視点画像206が表示される。
上記のような構成によれば、1つの注目点に向けた複数の仮想視点に対応する複数の仮想視点画像を生成することができる。また、複数の仮想視点を制御する場合における操作者の人数を削減できるため、仮想視点画像の制作の手間及びコストを削減することができる。例えば、1つの仮想カメラ102を2人で操作する場合、N個の仮想カメラ102を制御するためには、2×N人(例えばN=5の場合は10人)の操作者が操作を行う。一方、図11、図12及び図13を用いて説明した上記の構成によれば、N個の仮想視点画像を生成するためには、1+N人の操作者(例えばN=5の場合は6人)が操作を行えばよい。Nが大きいほど、上記の構成による手間及びコストの削減の効果は大きくなる。
なお、1個の操作デバイスを有する操作部1とN個の独立した操作デバイスを有する操作部2のセットをM組用いることによって、M個の注目点に対してそれぞれN個ずつの仮想視点を同時に制御できる。
[複数の注目点の制御]
以下では、操作部1が独立した複数の操作デバイス(例えば操作卓)を有し、複数の注目点103を設定することを可能とする制御システム6の例について説明する。図14は、制御システム6の具体的なデバイス構成の一例を示した図である。図14の例においては、操作部1は操作卓11-1と操作卓11-2を有し、操作部2は操作卓21-1、操作卓21-2、及び操作卓21-3を有する。ただし、操作部1と操作部2のそれぞれが有する独立した操作デバイスの数はこれに限定されない。
操作部1が有する複数の操作卓のそれぞれに対する操作に基づいて、複数の注目点103が設定される。そして、操作部2が有する各操作卓に対する操作に基づいて、複数の注目点103のうち選択された注目点103に対する仮想カメラ102の位置及び向きが設定される。また、操作部1が有する操作卓と操作部2が有する操作卓の対応付けを変えられるように、操作部2が有する操作卓には、操作部1が有する特定の操作卓を選択するためのボタン24が設けられている。なお、ボタン24が物理ボタンでなく、表示部5に表示されるGUIに含まれていてもよく、GUIを操作するキーボード、マウス、及びタッチパネルなどによってボタン24が操作されてもよい。
視点設定部32は、操作部2が有する3つの操作卓を用いて制御される3つの仮想カメラ102にそれぞれ対応する視点情報を並行して生成する。その際、操作部2の各操作卓に対応付けられた操作部1の操作卓を用いて制御される注目点103を基準に、各仮想カメラ102が制御される。画像処理装置9は、それぞれの視点情報に基づいて、3つの仮想視点画像を並行して生成する。表示制御部33は、表示部4が有する表示装置41-1及び表示装置41-2、並びに表示部5が有する表示装置51-1、表示装置51-2、及び表示装置51-3のそれぞれに表示される画像を並行して生成する。
第二操作者が操作卓の対応付けを変更できるようにするために、図15に示すように、表示装置51-1に俯瞰図画像201、正面図画像202、側面図画像203、及び平面図画像204が表示される。なお、操作卓21-1を用いて制御される仮想カメラ102に応じた仮想視点画像206も表示部5に表示されてもよい。図15に示す各画像には、それぞれ注目点103を示すアイコンが2つずつ表示される。注目点103-1は操作卓11-1を用いて操作され、注目点103-2は操作卓11-2を用いて操作される。各注目点103を識別するために、アイコンの色分けや記号又は番号の表示などが行われてもよい。
上記の構成によれば、各シーンにおいて重要な注目点103には比較的多数の操作デバイスを割り当て、それ以外の注目点103には比較的少数の操作デバイスを割り当てることができる。例えばサッカーのシーンにおいて、4人の第一操作者がそれぞれ、選手A、選手B、選手C、及び選手Dを追い続けるように注目点103を操作しているとする。選手Aがボールをドリブルしているとき、10人の第二操作者のうち6人が選手Aに合わせた注目点103を基準としてそれぞれ仮想カメラ102を操作しているとする。このとき6人の第二操作者が操作する6つの操作デバイスは、選手Aに合わせて注目点103を制御している第一操作者が操作する操作デバイスに対応付けられている。
ここで、ボールが選手Aから選手Bへパスされると、6人の第二操作者のうち3人は、選手Bへ注目点103を切り替える。すなわち3人の第二操作者が操作する操作デバイスは、選手Bに合わせて注目点103を制御している第一操作者が操作する操作デバイスに対応付けられる。このような方法によれば、ボールを持っている選手に注目した仮想視点画像をより多くの視点で生成することができるようになる。
なお、ボールが選手Aから選手Bにパスされたとき、選手Aに合わせて注目点103を制御していた第一操作者が注目点103を選手Bに切り替えてもよい。ただし、その場合、当該第一操作者に対応付けられていた第二操作者の注目点103が一斉に選手Aから選手Bに切り替わってしまう。そこで、上述した方法のように、第一操作者が同じ選手を追い続け、第二操作者が第一操作者との対応付けを切り替えることで、注目点103の切り替えタイミングを第二操作者が個別に決められるというメリットがある。例えば、ある第二操作者は選手Aがボールを蹴った瞬間に注目点103を選手Bに切り替え、別の第二操作者は選手Bがボールを受けた瞬間に注目点103を選手Bに切り替えることができる。残りの第二操作者はそのまま選手Aに注目点103を合わせ続けてもよい。
以上述べた構成によれば、複数の第一操作者がそれぞれ個別の注目点103を制御し、1人以上の第二操作者が適宜注目点103を切り替えながら仮想カメラ102を操作できる。すなわち、注目点103と仮想カメラ102の組み合わせを臨機応変に切り替えながら仮想視点画像を生成することができる。
[注目点103の表示位置の調整]
以下では、注目点103を仮想カメラ102の視野内のどこに位置させるか、すなわち仮想視点画像内のどの位置に注目点103を表示させるかを、調整可能とする制御システム6の例について説明する。
例えば、ボールに注目点103を合わせている場合、図16(A)の例のようにボール106が地面にあるときは、仮想視点画像206の下寄りの位置にボールの位置(注目点103の位置)が存在すると優れた構図になることが多い。特に仮想カメラ102と注目点103とが近い場合にこのような構図が求められる。一方、図16(B)の例のようにボール106が上空にあるときは、仮想視点画像206の上寄りの位置にボールの位置(注目点103の位置)が存在すると優れた構図になることが多い。また、パスをする選手107とパスを受ける選手108の両方を仮想カメラ102の視野に入れたい場合には、ボールの位置(注目点103の位置)が画像の中心に対して横方向にずれた位置に存在した方が優れた構図になることが多い。
注目点103を仮想視点画像の中心から外れた位置へ移動させられるように、図17に示す操作部2はタッチパネル25を有する。例えば、タッチパネル25をシングルタップすると、タップした座標に対応する画像上の位置に注目点103が位置するように、仮想カメラ102の向きが変化する。また、タッチパネル25をフリックすると、画像上の注目点103の位置がフリックした方向へフリックした距離に対応する画像上の距離だけ移動する。また、タッチパネル25をダブルタップすると、注目点103の位置が画像の中心へ復帰する。なお、このような注目点103を調整する操作は、タッチパネル以外の操作デバイスを用いて行われてもよい。
情報処理装置3の処理としては、視点設定部32が、三次元空間における仮想カメラ102の位置から注目点103の位置へ向かう三次元方向ベクトルと、仮想カメラ102の位置から仮想カメラ102の視野の中心へ向かう三次元方向ベクトルとの差を求める。そして視点設定部32は、タッチパネル25の操作に基づいて仮想カメラ102の向きを調整する。
以上述べた構成によれば、仮想カメラ102から見て注目点103がどの方向に位置するかを、ユーザ操作に基づいて設定できる。これにより、注目点103を仮想カメラ102の視野の中心(仮想視点画像の中心)から移動させることが可能になり、より多彩な構図の仮想視点画像を生成できる。なお、図11や図14に示したように、操作部2が複数の独立した操作デバイスを有する場合、それぞれの操作デバイスにおいて個別に仮想視点画像における注目点103の位置を調整できるようにしてもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC等)によっても実現可能である。また、そのプログラムをコンピュータにより読み取り可能な記録媒体に記録して提供してもよい。
1 操作部
2 操作部
3 情報処理装置
102 仮想カメラ

Claims (13)

  1. 第1操作部に対する操作に応じた第1入力を受け付ける第1受付部と、
    第2操作部に対する操作に応じた第2入力を受け付ける第2受付部と、
    第3操作部に対する操作に応じた第3入力を受け付ける第3受付部と、
    前記第1入力に基づいて、第1仮想視点に応じた視野および第2仮想視点に応じた視野に含まれる注目位置を設定する第1設定部と、
    前記第2入力に基づいて、前記注目位置に対応する前記第1仮想視点の位置と前記第1仮想視点からの視線方向とを設定し、前記第3入力に基づいて、前記注目位置に対応する前記第2仮想視点の位置と前記第2仮想視点からの視線方向とを設定する第2設定部と、
    前記第1仮想視点に対応する第1仮想視点画像と前記第2仮想視点に対応する第2仮想視点画像とを同時に表示する制御を行う表示制御部と
    を有することを特徴とする情報処理システム。
  2. 前記第2設定部は、前記第1仮想視点から見て所定の方向に前記注目位置が存在するように、前記第1仮想視点の位置と前記第1仮想視点からの視線方向とを連動させて設定し、前記第2仮想視点から見て所定の方向に前記注目位置が存在するように、前記第2仮想視点後と前記第2仮想視点からの視線方向とを連動させて設定することを特徴とする請求項1に記載の情報処理システム。
  3. 前記第1仮想視点から見て所定の方向は、前記第1仮想視点からの視線方向であり、前記第2仮想視点から見て所定の方向は、前記第2仮想視点からの視線方向であることを特徴とする請求項2に記載の情報処理システム。
  4. 前記第1仮想視点から見て所定の方向は、前記第1仮想視点画像においてユーザ操作により指定された位置に前記注目位置が表示されるように設定された前記第1仮想視点からの視線方向であり、前記第2仮想視点から見て所定の方向は、前記第2仮想視点画像においてユーザ操作により指定された位置に前記注目位置が表示されるように設定された前記第2仮想視点からの視線方向であることを特徴とする請求項2に記載の情報処理システム。
  5. 前記第2設定部は、前記第2入力に基づいて、前記第1仮想視点の画角を設定し、前記第3入力に基づいて、前記第2仮想視点の画角を設定することを特徴とする請求項1乃至4の何れか1項に記載の情報処理システム。
  6. 第4操作部に対する操作に応じた入力を受け付ける第4受付部を有し、
    前記第1設定部は、第1の注目位置を前記第1受付部により受け付けられた入力に基づいて設定し、且つ、第2の注目位置を前記第4受付部により受け付けられた入力に基づいて設定し、
    前記第2設定部は、前記第1の注目位置と前記第2の注目位置とを含む複数の注目位置のうち選択された注目位置に対する前記第1仮想視点の位置と前記第1仮想視点からの視線方向とを前記第2入力に基づいて設定し、前記第1の注目位置と前記第2の注目位置とを含む複数の注目位置のうち選択された注目位置に対する前記第2仮想視点の位置と前記第2仮想視点からの視線方向とを前記第2入力に基づいて設定することを特徴とする請求項1乃至5の何れか1項に記載の情報処理システム。
  7. 前記第1操作部と前記第2操作部と前記第3操作部とは、それぞれ別個の筐体に備えられた操作部であることを特徴とする請求項1乃至6の何れか1項に記載の情報処理システム。
  8. 前記第1操作部と前記第2操作部と前記第3操作部とは、それぞれ別個のジョイスティックであることを特徴とする請求項1乃至6の何れか1項に記載の情報処理システム。
  9. 前記表示制御部は、前記第1仮想視点画像と前記第2仮想視点画像とをそれぞれ異なる表示装置の表示部に表示する制御を行うことを特徴とする請求項1乃至8の何れか1項に記載の情報処理システム。
  10. 前記表示制御部は、前記第1仮想視点画像と前記第2仮想視点画像とを同一の表示装置のそれぞれ異なる表示領域に表示する制御を行うことを特徴とする請求項1乃至8の何れか1項に記載の情報処理システム。
  11. 更に、前記第1仮想視点の位置と前記第1仮想視点からの視線方向とに基づいて前記第1仮想視点画像を生成し、前記第2仮想視点の位置と前記第2仮想視点からの視線方向とに基づいて前記第2仮想視点画像を生成する生成部を有することを特徴とする請求項1乃至10の何れか1項に記載の情報処理システム。
  12. 第1操作部に対する操作に応じた第1入力を受け付ける第1受付工程と、
    第2操作部に対する操作に応じた第2入力を受け付ける第2受付工程と、
    第3操作部に対する操作に応じた第3入力を受け付ける第3受付工程と、
    前記第1入力に基づいて、第1仮想視点に応じた視野および第2仮想視点に応じた視野に含まれる注目位置を設定する第1設定工程と、
    前記第2入力に基づいて、前記注目位置に対応する前記第1仮想視点の位置と前記第1仮想視点からの視線方向とを設定し、前記第3入力に基づいて、前記注目位置に対応する前記第2仮想視点の位置と前記第2仮想視点からの視線方向とを設定する第2設定工程と、
    前記第1仮想視点に対応する第1仮想視点画像と前記第2仮想視点に対応する第2仮想視点画像とを同時に表示する制御を行う表示制御工程
    を有することを特徴とする情報処理方法。
  13. コンピュータを、請求項1乃至11の何れか1項に記載の情報処理システムとして動作させるためのプログラム。
JP2019129614A 2019-07-11 2019-07-11 情報処理装置、設定方法、及びプログラム Active JP7455524B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019129614A JP7455524B2 (ja) 2019-07-11 2019-07-11 情報処理装置、設定方法、及びプログラム
US16/922,913 US11606503B2 (en) 2019-07-11 2020-07-07 Information processing apparatus, setting method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019129614A JP7455524B2 (ja) 2019-07-11 2019-07-11 情報処理装置、設定方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2021015440A JP2021015440A (ja) 2021-02-12
JP7455524B2 true JP7455524B2 (ja) 2024-03-26

Family

ID=74103381

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019129614A Active JP7455524B2 (ja) 2019-07-11 2019-07-11 情報処理装置、設定方法、及びプログラム

Country Status (2)

Country Link
US (1) US11606503B2 (ja)
JP (1) JP7455524B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7418101B2 (ja) * 2019-07-26 2024-01-19 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015001635A1 (ja) 2013-07-03 2015-01-08 株式会社日立製作所 遠隔モニタリングシステムおよびモニタリング方法
WO2018199052A1 (ja) 2017-04-25 2018-11-01 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 画像表示方法及び画像表示装置
WO2019012817A1 (ja) 2017-07-14 2019-01-17 ソニー株式会社 画像処理装置、画像処理装置の画像処理方法、プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6539253B2 (ja) 2016-12-06 2019-07-03 キヤノン株式会社 情報処理装置、その制御方法、およびプログラム
US10594786B1 (en) * 2017-01-10 2020-03-17 Lucasfilm Entertainment Company Ltd. Multi-device interaction with an immersive environment

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015001635A1 (ja) 2013-07-03 2015-01-08 株式会社日立製作所 遠隔モニタリングシステムおよびモニタリング方法
WO2018199052A1 (ja) 2017-04-25 2018-11-01 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 画像表示方法及び画像表示装置
WO2019012817A1 (ja) 2017-07-14 2019-01-17 ソニー株式会社 画像処理装置、画像処理装置の画像処理方法、プログラム

Also Published As

Publication number Publication date
JP2021015440A (ja) 2021-02-12
US11606503B2 (en) 2023-03-14
US20210014425A1 (en) 2021-01-14

Similar Documents

Publication Publication Date Title
JP6539253B2 (ja) 情報処理装置、その制御方法、およびプログラム
JP7330683B2 (ja) 情報処理装置、情報処理方法及びプログラム
US6377264B1 (en) Game screen display control method and character movement control method
JP5861499B2 (ja) 動画提示装置
JP2024050721A (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
JP6670794B2 (ja) 情報処理プログラム、情報処理システム、情報処理装置、および、情報処理方法
US20040041822A1 (en) Image processing apparatus, image processing method, studio apparatus, storage medium, and program
US20080113792A1 (en) Storage medium storing game program and game apparatus
JP7459341B2 (ja) 情報処理装置、情報処理装置の制御方法、及びプログラム
JPH0785312A (ja) 3次元動画作成装置
CN112640472B (zh) 信息处理设备、信息处理方法和存储介质
JPH11235466A (ja) コンピュータゲーム装置
JP3496205B2 (ja) ゲーム機における球技ゲームでの視点変更方法
JP2020042362A (ja) 制御装置及びその制御方法
JP7455524B2 (ja) 情報処理装置、設定方法、及びプログラム
JP2024019537A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2020205549A (ja) 映像処理装置、映像処理方法、及びプログラム
JP7387286B2 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2021200494A1 (ja) 仮想空間における視点変更方法
JP7403956B2 (ja) 情報処理装置、制御方法、及びプログラム
JP2010125040A (ja) 画像処理装置
JP2024058941A (ja) 制御装置、制御方法及びコンピュータプログラム
JP7458735B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2023019727A (ja) 撮影制御システム及びその動作方法
JP2017163245A (ja) 多視点映像生成システム、多視点映像生成装置およびそのプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220704

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231128

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240313

R151 Written notification of patent or utility model registration

Ref document number: 7455524

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151