JP7245013B2 - 制御装置及び制御方法 - Google Patents

制御装置及び制御方法 Download PDF

Info

Publication number
JP7245013B2
JP7245013B2 JP2018167210A JP2018167210A JP7245013B2 JP 7245013 B2 JP7245013 B2 JP 7245013B2 JP 2018167210 A JP2018167210 A JP 2018167210A JP 2018167210 A JP2018167210 A JP 2018167210A JP 7245013 B2 JP7245013 B2 JP 7245013B2
Authority
JP
Japan
Prior art keywords
virtual viewpoint
virtual camera
virtual
control
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018167210A
Other languages
English (en)
Other versions
JP2020042362A5 (ja
JP2020042362A (ja
Inventor
智裕 矢埜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018167210A priority Critical patent/JP7245013B2/ja
Priority to PCT/JP2019/033550 priority patent/WO2020050103A1/ja
Publication of JP2020042362A publication Critical patent/JP2020042362A/ja
Priority to US17/182,416 priority patent/US11558598B2/en
Publication of JP2020042362A5 publication Critical patent/JP2020042362A5/ja
Application granted granted Critical
Publication of JP7245013B2 publication Critical patent/JP7245013B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/293Generating mixed stereoscopic images; Generating mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Circuits (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、仮想視点の制御装置及びその制御方法に関する。
近年、複数のカメラを異なる位置に設置して多視点で同期撮影し、当該撮影により得られた複数視点画像を用いて、カメラ設置位置の画像だけでなく任意の視点からなる仮想視点画像を生成する技術が注目されている。複数視点画像に基づく仮想視点画像の生成及び閲覧は、複数のカメラが撮影した画像をサーバなどの画像処理部に集約し、前記画像処理部にて、仮想視点に基づくレンダリングなどの処理を施し、ユーザ端末に仮想視点画像を表示することで実現できる。
上記のように仮想視点画像を用いたサービスでは、例えば、サッカーやバスケットボールの試合を撮影した画像から、画像制作者によって迫力のある視点のコンテンツを制作できる。また、コンテンツを視聴しているユーザが自由に視点を移動しながら、試合観戦したりすることができるようにもなり、従来の撮影画像と比較してユーザに高臨場感を与えることができる。特許文献1では過去に他のユーザが行った操作履歴を保持し、ユーザに提示する技術が示されている。
特願2017-516567号公報
しかし、特許文献1の技術では、過去に行われた操作をユーザに提示することで仮想視点画像の操作をアシストすることができるが、ユーザが実際に行う操作そのものをアシストすることはできない。また、仮想視点画像の生成において、地中、客席の裏、ドーム球場の天井外などから観察される地上の選手のプレーを表示するなど、現実のカメラでは取得不可能な画像を作成するべく操作を行うと、仮想カメラの位置や姿勢を見失ってしまう場合がある。
このように、仮想カメラの位置、姿勢を見失う危険性を回避するために、仮想カメラの操作に制約を設けることが考えられる。例えば、仮想カメラが規定の範囲から外れてしまうようなユーザ操作を制約することが考えられる。一方、そのような制約を設けると、仮想視点の操作の自由度が犠牲となる。結果、仮想カメラの操作の制約が魅力的なカメラパスによる仮想視点画像の生成を妨げてしまう。そこで、本発明は、仮想カメラの位置、姿勢を見失うことを低減しながら、制約を超えた仮想カメラの操作を可能にすることを目的とする。
本発明の一態様による仮想カメラ制御装置は以下の構成を有する。すなわち、
仮想視点画像に対応する仮想視点を移動させるための入力を受け付ける受付手段と、
前記受付手段により受け付けられた入力に応じて前記仮想視点を制御する制御手段であって、前記仮想視点からの視線方向が特定の範囲内である場合には、所定の領域内から前記所定の領域外へ向かって前記仮想視点を移動させるための入力に応じて前記仮想視点を前記所定の領域外へ移動させ、前記仮想視点からの視線方向が前記特定の範囲外である場合には、前記所定の領域内から前記所定の領域外へ向かって前記仮想視点を移動させるための入力に応じた前記仮想視点の移動を制限する制御手段と、を有する。
本発明によれば、仮想カメラの位置、姿勢を見失うことを低減しながら、制約を超えた仮想カメラの操作が可能になる。
(a)は、実施形態の画像処理システムの全体構成例を示すブロック図、(b)は情報処理装置のハードウェア構成例を示すブロック図、(c)は情報処理装置の機能構成例を示すブロック図。 情報処理装置における入出力部の構成を説明する図。 カメラビューウィンドウを説明する図。 仮想カメラおよび世界座標の座標系について示した模式図。 第1実施形態による画像処理システムの処理を示すフローチャート。 仮想カメラの操縦の様子と被写体となる人物を示した模式図。 初期パラメータによる仮想視点画像を示した図。 (a)は、移動先の仮想カメラの方向を示すベクトルと、移動可能範囲の境界面の法線のベクトルとを示した模式図、(b)は、(a)で示したベクトルの角度を示した模式図。 移動先の仮想カメラの方向を示すベクトルと、移動可能範囲の境界面の法線のベクトルとを示した模式図、(b)は、(a)で示したベクトルの角度を示した模式図。 (a)は、仮想カメラ603bによる仮想視点画像を表す図、(b)は、仮想カメラ901による仮想視点画像を表す図。 第2実施形態による画像処理システムの処理を示すフローチャート。 (a)、(b)は、仮想カメラの姿勢の変更の様子を模式的に示した図。 (a)は、仮想カメラ1201による仮想視点画像を示す図、(b)は、仮想カメラ1203による仮想視点画像を示す図。 第3実施形態による画像処理システムの処理を示すフローチャート。
以下、図面を参照しながら本発明の実施形態について説明する。
<第1実施形態>
図1(a)は、第1実施形態による画像処理システム10の全体構成を説明する図である。画像処理システム10は、撮影システム101、画像生成サーバ102、情報処理装置103を備える。画像処理システム10は、仮想視点画像を生成することが可能である。撮影システム101は、複数のカメラを異なる位置に配置し、多視点からの複数画像を同期撮影する。撮影システム101は、多視点から同期撮影した複数画像を、画像生成サーバ102に送信する。
画像生成サーバ102は、多視点から同期撮影した複数画像を元に、仮想カメラから見た仮想視点画像を生成する。仮想カメラとは、撮影空間内を自由に動ける仮想的なカメラである。仮想カメラにより、撮影システム101が有するどのカメラとも異なる視点から見た画像、つまり仮想視点画像を撮影することができる。仮想カメラの視点は、後述する情報処理装置103が決定するカメラパラメータによって表現される。画像生成サーバ102は、受信した複数画像から順次仮想視点画像を生成する。つまり、ライブ仮想視点画像を生成することが可能である。なお、画像処理システム10が生成できるライブ仮想視点画像は、現在時刻に対して撮影システム101および画像生成サーバ102での処理遅延を考慮した時刻において撮影システム101が撮影した撮影画像に基づく仮想視点画像である。
さらに、画像生成サーバ102は、データベースを有し、受信した複数画像を記録する機能を有する。データベースに記録された複数画像から、過去の仮想視点画像、つまりリプレイ仮想視点画像を生成することが可能である。リプレイ仮想視点画像は、任意の時刻において撮影システム101が撮影した撮影画像に基づく仮想視点画像である。なお、特に断りがない限り、以降の説明に於いて画像という文言が動画(画像)と静止画の両方の概念を含むものとして説明する。すなわち、画像処理システム10は、静止画及び動画の何れについても処理可能である。さらに、画像生成サーバ102は、作成した画像についての統計量計測などの画像処理を行うこともできる。例えば、仮想視点画像中に前景および背景がどの程度の割合で映し出されているかなどを計測することができる。
情報処理装置103は、仮想カメラを制御し、仮想カメラの視点を表すカメラパラメータを決定する。仮想カメラのカメラパラメータは、位置、姿勢、ズームまたは時刻の少なくとも何れか1つを指定するためのパラメータを含む。カメラパラメータにより指定される仮想カメラの位置は、例えば3次元座標を示すものであり、X軸、Y軸、Z軸の3軸の直交座標系の座標により示され得る。この場合、仮想カメラのカメラパラメータにより指定される位置は、座標を示すものであり、X軸、Y軸、Z軸の3軸のパラメータから構成される。なお、座標の原点は撮影空間内の任意の位置とすることができる。カメラパラメータにより指定される仮想カメラの姿勢は、例えば、パン、チルト、ロールの3軸を回転軸とする回転角度により示され得る。この場合、カメラパラメータにより指定される仮想カメラの姿勢はパン、チルト、ロールの3軸のパラメータから構成され得る。カメラパラメータにより指定される仮想カメラのズームは、例えば、焦点距離の1軸により示される。また、時刻は1軸のパラメータである。よって、本実施形態の仮想カメラのカメラパラメータは少なくとも8軸(位置:3軸、姿勢:3軸、焦点距離:1軸、時刻:1軸)のパラメータを有する。情報処理装置103はこれらの8軸を制御可能である。なお、情報処理装置103が制御可能なカメラパラメータは他の要素を規定するパラメータを含んでもよいし、上述した8軸のパラメータの全てを含まなくてもよい。
情報処理装置103は、決定した仮想カメラのカメラパラメータを画像生成サーバ102へ送信する。画像生成サーバ102は、情報処理装置103から受信したカメラパラメータを元に仮想視点画像を生成し、情報処理装置103へ送信する。情報処理装置103は、画像生成サーバ102から受信した仮想視点画像をカメラビューウィンドウ301(図2、図3により後述)へ表示する。なお、本実施形態のように1台の情報処理装置103で、ライブ仮想視点画像とリプレイ仮想視点画像を生成してもよいし、2台以上の情報処理装置103を用意して、ライブ仮想視点画像とリプレイ仮想視点画像を異なる情報処理装置103で生成してもよい。
図1(b)は、情報処理装置103のハードウェア構成を説明する図である。CPU111は、RAM112やROM113に格納されているコンピュータプログラムやデータを用いて情報処理装置103の全体を制御する。RAM112は、ROM113から読みだされたコンピュータプログラムや計算の途中結果など、通信部114を介して外部から供給されるデータなどを一時的に記憶する。ROM113は、変更を必要としないコンピュータプログラムやデータを保持する。通信部114は、EthernetやUSBなどの通信手段を有し、画像生成サーバ102との通信を行う。入出力部115は仮想カメラを制御するための複数のコントローラと、仮想カメラの状態などを表示する複数の表示部を有する。
図2は、入出力部115を説明する図である。表示部201は、カメラビューウィンドウ301を表示する。カメラビューウィンドウ301は、画像生成サーバ102から受信した仮想視点画像を表示するためのウィンドウである。また、入出力部115は、ユーザ操作による仮想カメラの制御を行うための指示を受け付ける受付部としてのコントローラを有する。ユーザは、コントローラを介して仮想カメラの位置・姿勢などを変化させるための操作を行うことができる。3軸コントローラ202a及び3軸コントローラ202bは、3軸の操作が可能なコントローラである。それぞれの軸には設定により任意の制御を割り当てることが可能である。例えば、3軸コントローラ202aは、仮想カメラの位置を指定するためのX軸、Y軸、Z軸の3軸の制御を行う。また、3軸コントローラ202bは、例えば、仮想カメラの姿勢を指定するためのパン、チルト、ロールの3軸の制御を行う。
ズームコントローラ203は、仮想カメラのズームを制御するコントローラである。リプレイコントローラ204は、リプレイ仮想視点画像を生成するための機能を制御するコントローラである。また、リプレイコントローラ204は仮想カメラの時刻の制御も割り当てる。なお、図2に示す入出力部115は、一例に過ぎず、図示に限られるものではない。例えば、入出力部115は、2つ以上の表示部を有してもよい。また、入出力部115が有するコントローラの数、種類も、図示の構成に限られるものではない。
図3は、カメラビューウィンドウ301の一例を示す図である。カメラビューウィンドウ301は、例えば表示部201に表示される。本実施形態では被写体としてスタジアムに於いてサッカーを行っている人物の仮想視点画像を生成するものとする。カメラビューウィンドウ301は、画像生成サーバ102から受信した仮想視点画像を表示する表示領域である。この仮想視点画像は、ユーザが制御する仮想カメラから見た仮想視点画像である。情報処理装置103は、仮想カメラの時刻を制御することで、記録されている範囲の過去の仮想視点画像を表示することも可能である。本実施形態では特に断りのない限り、仮想視点画像を作成可能な最新の画像を表示しており、仮想視点画像の処理時間が限りなくゼロに近い場合、現在時刻の画像がリアルタイムで表示されると考えることができる。
図4は仮想カメラおよび世界座標の座標系について示した模式図である。本実施形態では、X軸411は2次元平面上の移動を示し、サッカーグラウンドの長辺方向(サイドラインに平行な方向)に対しての移動を示すパラメータである。Y軸412もX軸411と同様に、2次元平面上の移動を示し、サッカーグラウンドの短辺方向(センターラインに平行な方向)に対しての移動を示すパラメータである。Z軸413は、高さ方向の移動を示すパラメータであり、グラウンドに対して鉛直方向への移動を示すパラメータである。
なお、各軸の方向についてはこれに限定されるものではない。例えば、ここに示した任意の軸同士が入れ替わっていてもよい。例えば、Y軸412を鉛直方向としてもよいし、X軸411を鉛直方向としてもよい。その場合は残った2軸のうちいずれがサッカーグラウンドの長辺方向に平行となり、他方が短編方向に平行となる。また、各軸の正となる方向はどちらであってもよい。本例ではZ軸となる鉛直方向は上方向を正の値をとるものとするが、負数をとるものとしてもよい。また、X軸、Y軸、Z軸の各軸は直交し、3軸のパラメータを用いて空間上の任意の1点を示すことができればよく、被写体となるモデルの形状などに応じて、適宜軸の向きを変えてもよい。
チルト404は仮想カメラの光軸を上下に回転させることを表すパラメータであり、チルト軸401周りの仮想カメラの回転である。ロール405は仮想カメラの光軸を中心にした回転を示すパラメータであり、ロール軸402周りの仮想カメラの回転である。パン406は仮想カメラの光軸を左右方向に回転させるパラメータであり、パン軸403周りの仮想カメラの回転である。
図1(c)は、仮想視点画像を生成するための仮想カメラの動作を指示するユーザ操作に応じて仮想カメラを制御する仮想カメラ制御装置としての情報処理装置103の機能構成例を示すブロック図である。パラメータ生成部151は、仮想カメラの初期パラメータを設定した後、ユーザ操作に応じて、仮想カメラの動作を制御するためのパラメータを生成する。ここで、仮想カメラの動作とは、仮想カメラの位置の移動、方向の移動、ズームの変更などを含む。制約部152は、受け付けられたユーザ操作に応じた仮想カメラの動作を制約するか否かを仮想カメラに関してあらかじめ定められた条件が満たされるか否かに応じて決定する。例えば、本実施形態では、制約部152は、ユーザ操作により指示された仮想カメラの移動後の位置が、あらかじめ定められた移動可能な範囲内か否かを判断する。そして、制約部152は、移動後の位置が移動可能な範囲外と判断された場合に、当該ユーザ操作による仮想カメラの動作を制約する。本実施形態では、この制約により当該ユーザ操作が無効化される。
制約解除部153は、ユーザ操作による移動後の仮想カメラに関してあらかじめ定められた解除条件が満たされる場合に、制約部152による制約を解除する。例えば、上述の仮想カメラに関してあらかじめ定められた条件が満たされる場合に仮想カメラの制約を解除する。本実施形態では、仮想カメラが移動可能な範囲外に移動しても、仮想カメラの方向が解除条件を満たしていれば制約部152による制約が解除され、ユーザ操作による仮想カメラの移動が実行される。自動操縦実行部160は第3実施形態で用いられる構成であり、第1、第2実施形態では省略可能である。パラメータ変更部154は、仮想カメラの操縦内容に応じて仮想カメラのカメラパラメータを変更する。
以上のような構成を備えた第1実施形態の画像処理システム10、情報処理装置103の動作について説明する。図5は第1実施形態による画像処理システム10の処理を示すフローチャートである。
情報処理装置103のパラメータ生成部151は画像生成サーバ102に対して、仮想カメラの初期パラメータを設定する(ステップS501)。図6は仮想カメラの操作の様子と被写体となる人物を模式的に示した図である。601は仮想視点画像を生成する対象となるペナルティエリア付近のグラウンド(地面)を示し、602a、602b、602c、602dはペナルティエリア内の選手を示している。また、603a~603cは、パラメータにより設定された位置/姿勢を有する仮想カメラを模式的に示している。図5では、初期パラメータにより、仮想カメラ603aが設定されたものとする。
画像生成サーバ102は情報処理装置103に指定された仮想カメラの初期パラメータに基づいて、仮想視点画像を生成する(ステップS502)。ここでは、初期パラメータの仮想カメラ603aにおける仮想視点画像が生成される。情報処理装置103は、画像生成サーバ102から仮想視点画像を受信し、例えば、図7に示されるように表示部201のカメラビューウィンドウ301に表示する。図7に示されている仮想視点画像は、例えば、仮想カメラ603aから撮影された画像、すなわち、仮想カメラ603aについて生成された仮想視点画像である。
ユーザは表示部201に表示された仮想視点画像を見ながら3軸コントローラ202a、202b、ズームコントローラ203などを操作して、仮想カメラのカメラパラメータを操縦する。パラメータ生成部151はこれらのユーザ操作を受け付ける(ステップS503)。例えば、3軸コントローラ202aを操作して、Z軸のパラメータを変更し、仮想カメラの位置をZ軸のマイナス方向に移動させる操作を行ったとする。パラメータ生成部151は仮想カメラのユーザ操作を受け付けると、指示の内容に応じた移動先の仮想カメラのカメラパラメータを生成する(ステップS504)。例えば、Z軸方向へのマイナス方向の操作により、仮想カメラ603bを示すカメラパラメータが、ユーザ操作による移動先の仮想カメラのカメラパラメータとして生成される。
情報処理装置103の制約部152は、ステップS504で生成されたパラメータによって示される仮想カメラ603bの位置が仮想カメラの移動可能範囲内であるか否かを判断する(ステップS505)。第1実施形態では、移動可能範囲として、Z軸方向は図3に示されたようなスタジアムのグラウンド面からスタジアムの最上部まで、X,Y軸方向は観客席位置までと定義されているものとする。もちろん、移動範囲に関する定義はこれに限定されるものではない。例えばスタジアムのみならず、広域のモデルが用意できる場合などスタジアムの外部まで広域な範囲を定義してもよい。または、処理能力や撮影時の条件などにより仮想視点画像を作成可能なエリアが限定される場合には、例えばサッカーの場合であれば、移動可能範囲がグラウンドのフィールド内や、ペナルティエリア内などの狭小な範囲に設定されてもよい。
仮想カメラの移動先が移動可能範囲内である場合は、制約部152は当該ユーザ操作について制約を行わない。結果、パラメータ変更部154が、ステップS504でパラメータ生成部151により生成されたカメラパラメータに仮想カメラのカメラパラメータを変更する(ステップS508)。例えば、移動先が仮想カメラ603bである場合、移動先が移動可能範囲であるため、パラメータ変更部154は仮想カメラのパラメータを、ステップS504でパラメータ生成部151が取得したパラメータに変更する。以降、仮想カメラ603bによる仮想視点画像が生成される。
他方、移動先の仮想カメラの位置が移動可能範囲内でない場合は、処理はステップS506に進む。例えば、移動先が仮想カメラ603cの場合は、その位置のZ軸方向の値がグラウンド面より下、負数の値となる。この場合、移動可能範囲内ではないため、処理はステップS506に進む。制約部152は制約解除部153からの制約解除の指示がなければ、ユーザ操作を無効化することにより制約を実行する。制約解除部153が制約解除を指示している場合は、当該ユーザ操作に応じた仮想カメラの移動が実行される。本実施形態では、解除条件として、移動可能範囲を規定する境界面に対するユーザ操作による移動後の仮想カメラの向きが所定の角度範囲にある場合に、制約を解除する。以下、ステップS506~S507は、制約部152と制約解除部153による制約及び制約解除動作の一例である。
仮想カメラの移動先が移動可能範囲外であると判断される場合、制約解除部153は、移動可能範囲の境界面の法線と移動先の仮想カメラのカメラパラメータのベクトルの角度を求める(ステップS506)。移動可能範囲の境界面は、現在のカメラパラメータにより示される仮想カメラの位置と、ユーザ操作による変更後のカメラパラメータにより示される仮想カメラの位置との間に存在する。その境界面の法線方向を基準の法線ベクトルとする。なお、本実施形態では、移動可能範囲の内側、つまり、仮想カメラが移動可能な側を境界面の表側とし、境界面の法線ベクトルは、移動可能範囲の内側を向いているものとする。但し、法線方向はこれに限定されるものではない。例えば、逆向きの法線(移動可能範囲の外側へ向かう法線ベクトル)が用いられてもよい。その場合はベクトル計算などが本実施形態で説明される制約の解除条件の判断と同等の結果となるように適宜修正されるものとする。また、仮想カメラの向きを示すベクトル(以下、方向ベクトル)は、カメラパラメータによって定義される、仮想カメラのパン、チルト、ロールの3つを示すパラメータによって決定される。この2つのベクトルの間の角度を計算によって求める。
図8(a)は移動先の仮想カメラのカメラパラメータから得られる、仮想カメラの方向ベクトル802と、移動可能範囲の境界面の法線ベクトル801とを示した模式図である。法線ベクトル801は移動可能範囲の境界面の法線を示したベクトルであり、本例ではグラウンドが境界面と等価であるとする。方向ベクトル802は移動先の仮想カメラのカメラパラメータに於いて決定される、仮想カメラの向きを示したベクトルである。図8(b)は図8(a)で示した法線ベクトル801と方向ベクトル802のなす角度を示した模式図である。この法線ベクトル801、方向ベクトル802の間の角度を計測して角度803が得られたとする。ここでは角度803は90度より大きな角度を持つ鈍角であるとする。
制約解除部153は、法線ベクトルと方向ベクトルのなす角度が所定の角度範囲にある場合に、制約部152による制約を解除するべく、解除指示を出力する。本実施形態では、法線ベクトルと方向ベクトルのなす角度が閾値以下(例えば90度以下)であった場合に、制約解除部153は、解除条件を満足するものと判断し、解除指示を出力する。具体的には、図5において、ステップS506で求めた2つのベクトルの間の角度が閾値以下となる場合はステップS508の処理に進み、そうでない場合は、ステップS502の処理に戻る。ここでは閾値が90度であるものとすると、図8(b)で示された例では、90度より大きな角度をもっているため、ステップS502に戻る。つまり、制約解除部153は解除指示を出力せず、制約部152はユーザ操作を無効化する。より具体的には、制約部152は移動先の仮想カメラのカメラパラメータを破棄し、パラメータ変更部154によるパラメータの変更は行われない。結果、仮想カメラ603aによる撮影が維持される。これにより、仮想カメラの移動が移動可能範囲内に制約され、仮想カメラの位置や姿勢をユーザが見失うことを防いでいる。なお、本件では閾値を90度とするが、本件はこれに限定されるものではない。
以上では、仮想カメラについてZ軸方向への移動のみの操作を行った場合を説明した。次に、Z軸の操作に加えて、カメラのチルト操作も同時に行い、カメラの向きを上向きに変更する操作も合わせて行っていた場合を説明する。図9(a)はこの時の様子を示した模式図である。ユーザ操作によって指定された移動先の仮想カメラ901は仮想カメラ603cと3次元位置が同じ(X軸、Y軸、Z軸の各パラメータの値が同一)であるが、その方向(方向ベクトル902)が仮想カメラ603cとは異なる。
図9(b)は図9(a)で示した方向ベクトル902と法線ベクトル801のなす角度を示した模式図である。図8(b)と同様に方向ベクトル902と法線ベクトル801との角度を計測すると角度903が得られる。角度903は90度以下の角度(鋭角)であるとする。この場合、制約解除部153は、解除条件(角度が閾値以下)が満たされていると判断し、制約部152に対して解除指示を行い、制約部152による制約を解除する。結果、処理はステップS507からステップS508に進み、パラメータ変更部154は、ステップS504で取得したユーザ操作による移動先のカメラパラメータに、仮想カメラのカメラパラメータを変更する。こうして、仮想カメラは、ユーザ操作に応じて移動可能範囲内を移動できる(例えば仮想カメラ603b)とともに、制約の解除条件を満たす場合には移動可能範囲外にも移動できる(仮想カメラ901)。
なお、上記の例では、境界面の法線ベクトルと仮想カメラの方向ベクトルとの角度が所定の閾値以下であることを解除条件としている。すなわち、閾値は固定されている。しかしながら、仮想カメラの方向が同じでもZ軸のマイナス方向へ移動するほど、フィールド面における仮想カメラの撮影位置がずれる。そこで、Z軸のマイナス方向への値が大きくなるほど法線ベクトルとの角度の上限を示す所定閾値を小さくするようにしてもよい。
ステップS508の処理の後、変更された仮想カメラのカメラパラメータを用いてステップS502で仮想視点画像が生成される。図10は本処理における仮想視点画像を示している。図10(a)は仮想カメラ603bから得られる仮想視点画像であり、仮想カメラ603aに比べてZ軸方向の値が小さくなり(グラウンドからの高さが低くなり)、選手602dに近づいている様子がわかる。また、図10(b)は仮想カメラ901から得られる仮想視点画像であり、地下から見上げた様子を示す画像となる。この例では地面の裏側(Z軸で負数側から正数側を見上げる場合)は見えない設定になっており、選手をグラウンドの下側から見上げるような仮想視点画像を作ることができる。
以上のように、第1実施形態によれば、仮想カメラの位置や姿勢を見失うことなく、移動可能範囲外へ仮想カメラを操縦することができる。
また、第1実施形態では、移動可能範囲内の移動から外部への移動ができるように制約を解除するための解除条件として、移動先の仮想カメラの方向ベクトルと移動可能範囲の境界面の法線ベクトルの角度を用いたが、これに限定されるものではない。例えば、移動先ではなく、ユーザ操作による移動前の現在の仮想カメラの方向ベクトルと移動可能範囲の境界面の法線ベクトルの角度が所定の角度範囲にあることを解除条件としてもよい。これにより、例えば、所定の位置範囲に仮想カメラが入った場合は、ユーザ操作に関して制約部152による制約を受けないようにすることができる。
また、制約の解除のユーザ指示を受け付ける入力部材を用意し、ユーザがその入力部材を操作することによって、制約解除部153が制約部152の制約を解除するようにしてもよい。そのような入力部材は、例えば3軸コントローラ202a、202b、ズームコントローラ203、リプレイコントローラ204などのコントローラ上に設けることができる。また、そのような入力部材は、上記コントローラとは別のコントローラに設けられてもよい。また、そのような別のコントローラは、手で操作するものではなく、足で操作するような形態であってもよい。また、各コントローラは、表示部201上に表示されるGUIとして存在してもよく、それらをタッチパネルやマウスなどで操作するものであってもよい。さらに、上記入力部材はどのような形状および入力方法の部材でもよく、ボタン、スイッチやスライダー、レバー、タッチセンサー、つまみ、ペダル、シーソースイッチ、などどのような形状の入力部材でもよい。
また、現在の仮想カメラの位置が移動可能範囲の境界の近傍にあり、移動可能範囲外へのユーザ操作が一定の時間以上続けられるような場合に、解除条件が満たされと判断するようにしてもよい。ユーザが、規定されている移動可能範囲の外へ仮想カメラが移動するということを認識したうえで、移動可能範囲外へ仮想カメラを移動させたいという強固な意志を持っていると考えられるからである。
また、初期カメラパラメータのように、カメラパラメータを外部からピンポイントで設定するような方法を用いる場合に、制約解除部153は、解除条件を満たすと判断するようにしてもよい。例えば、仮想カメラの位置をファイルなどから入力したり、キーボードなどの入力を用いて直接数値で入力したりするような場合に、ユーザ操作の制約を解除するようにしてもよい。また、上記では、制約部152がユーザ操作を受け付けない(ユーザ操作を無効化する)ことにより仮想カメラの動作を制約したが、これに限られるものではない。例えば、制約部152は、ユーザ操作された仮想カメラの動作を遅くするようにしてもよい。仮想カメラの移動速度が遅くなることにより、ユーザは、移動可能範囲外へ仮想カメラを移動させようとしていることを認識できる。
以上のように、第1実施形態によれば、仮想カメラの位置や姿勢を見失わないような状況において、仮想カメラの移動の制約が解除されるので、仮想カメラの移動可能な範囲を広げた、より魅力的なカメラパスによる仮想視点画像を生成することができる。
<第2実施形態>
第1実施形態では、境界面の法線ベクトルと移動後の仮想カメラの方向ベクトルとの間の角度を用いて解除条件を満たすか否かを判断した。第2実施形態では、移動後の仮想カメラにより取得される仮想視点画像の状態(例えば、被写体の描画比率)に基づいて解除条件を満たすか否かを判断する。以下、第2実施形態について説明する。なお、第2実施形態による画像処理システム10、情報処理装置103の構成は第1実施形態(図1(a)、(b)、(c))と同様である。
図11は第2実施形態による画像処理システム10の動作を示すフローチャートである。なお、図11において、S501~S505及びS508は、第1実施形態(図5)の同一番号の処理と同様である。制約解除部153は、ステップS1101、S1102を実行することにより解除条件を満たすか否かを判定し、制約部152による制約を解除するか否かを決定する。
ユーザ操作により指定された仮想カメラの移動先が、移動可能範囲外である場合(ステップS505でNO)、処理はステップS1101へ進む。ステップS1101において、制約解除部153は、仮想カメラのカメラパラメータを画像生成サーバ102に提供する。画像生成サーバ102は、提供されたカメラパラメータにより仮想視点画像を生成する。画像生成サーバ102は、生成した仮想視点画像において、被写体となる前景モデルおよび背景モデルの描画領域がどの程度の割合を占めるかを示す描画比率を算出する。この時、画像生成サーバ102は仮想視点画像を実際に作成して描画比率を取得してもよいし、仮想視点画像を作成せずに描画比率を求める計算だけを行うようにしてもよい。また、実際に仮想視点画像を作成する場合には、解像度を落とす、色の処理を行わない、など一部の処理を省略して仮想視点画像を生成するようにしてもよい。画像生成サーバ102は、取得した描画比率を情報処理装置103に送る。
情報処理装置103の制約解除部153は、画像生成サーバ102から受信した描画比率が閾値以上であるか否かを判断する(ステップS1102)。制約解除部153は、仮想視点画像における被写体の描画比率が閾値以上であれば、制約部152による制約を解除し(処理をステップS508に進める)、閾値よりも小さい場合は制約部152による制約を維持する(処理をステップS502に進める)。
例えば、図9において、現在の仮想カメラが仮想カメラ901であり、その方向が方向ベクトル902である場合、図10(b)に示したように仮想視点画像が生成される。この場合、前景である被写体(選手602a~602d)および背景のゴールなどが映っており、描画比率が閾値を超えている状態である。この状態から、3軸コントローラ202aや202bなどを操作し、仮想カメラの姿勢を変化させたとする。
図12はこの場合の仮想カメラの姿勢の変更の様子を模式的に示した図である。ユーザ操作により図12(a)の仮想カメラ1201に変更しようとしたものとする。仮想カメラ1201と仮想カメラ901とは、位置は同じであるが、姿勢が異なる。すなわち、仮想カメラ1201の方向ベクトル1202は方向ベクトル902とは異なっている。この状態で、仮想カメラ1201からの仮想視点画像を生成すると、図13(a)のようになり、画面上から被写体がなくなってしまう。従って、ステップS1102に於いて、被写体の描画比率が閾値未満となり、制約部152による制約が維持される。すなわち、ユーザ操作による仮想カメラのパラメータの変更は反映されず、処理はステップS502に戻る。こうしてユーザ操作は無効化される。
また、例えば、3軸コントローラ202aおよび202bを操作して、図9の状態から仮想カメラの位置を維持したまま姿勢を変更し、仮想カメラの方向ベクトルが徐々に方向ベクトル1202に近づくようにユーザが操作したとする。この場合、仮想視点画像における被写体の描画比率は徐々に減っていく。この過程で、例えば、図12(b)に示したように仮想カメラ1203が設定される。仮想カメラ1203の位置は、仮想カメラ901と同じで、その方向は方向ベクトル1202よりも上を向いている(方向ベクトル1204)。仮想カメラ1203が設定された場合、例えば図13(b)に示したような仮想視点画像が生成される。図13(b)では人物1301が画面の端にわずかに映っている。例えば、この状態の被写体の描画比率が閾値と等しいとすると、以降の方向ベクトル1202へ近づけようとするユーザ操作に対しては、制約解除部153による制約の解除が行われなくなる。従って、ユーザがコントローラを操作しても、それ以上の操作は受け付けられず、仮想カメラ1203の状態が維持されることになる。
なお、上記では描画比率を求めるための被写体として、選手などの前景と、スタジアムやゴールなどの特定の背景などをあげたが、これに限られるものではない。例えば、実際には存在しない仮想物体を、描画比率を求める被写体に加えてもよい。例えば広告看板などを仮想的に用意するような場合、これらの広告は被写体とみなしてもよい。また、それらの仮想物体はグラウンド上やスタジアム内のその他の位置にあってもよいし、スタジアムの地下や空中など、実際には存在し得ない場所にあってもよい。また、これらの仮想物体は静止していてもよいし、特定の範囲内を動くものであってもよい。
以上のように、第2実施形態によれば、仮想視点画像における被写体の描画比率が少なくなることによって仮想カメラの位置や姿勢を見失ってしまうことを防ぎながら、仮想カメラの操縦可能な自由度を広げることができる。
<第3実施形態>
第1実施形態、第2実施形態では、ユーザ操作による仮想カメラの操作後において解除条件が満たされないと判断した場合に、制約部152によるユーザ操作の制約状態が維持される。第3実施形態では、解除条件を満たしていないと判断された場合であって、あらかじめ定められた自動操縦条件が満たされる場合には、仮想カメラが自動的に所定の規則に従って移動する。
図14は第3実施形態による画像処理システム10の処理を示すフローチャートである。図14においてS501~S505及びS508及びS1101、S1102は図11の同一番号の処理と同様である。図1(c)において、情報処理装置103は、自動操縦実行部160を有する。制約解除部153は、仮想カメラからの仮想視点画像における被写体の描画比率が閾値未満であると判定した場合(ステップS1102でNO)、処理をステップS1401へ進める。ステップS1401において、自動操縦実行部160は、自動操縦条件を満たすかどうかを判断する。自動操縦条件を満たすと判断された場合、処理はステップ1402へ進み、そうでない場合、処理はS502へ戻る。
自動操縦条件を満たす場合としては、例えば、
(a)3軸コントローラ202aまたは202b上の操作により自動操縦が有効に設定されている場合、
(b)ステップS1102で、所定時間内で所定回数にわたり連続でNOと判定された場合、などがあげられる。
ステップS1402において、自動操縦実行部160は仮想カメラパラメータを計算によって求めた値に変更し、仮想カメラの自動操縦を実行する。自動操縦によって変更される仮想カメラのカメラパラメータ(仮想カメラの移動処理)としては、例えば、
・移動可能範囲内に仮想カメラの位置を戻す動作、
・仮想カメラの姿勢を、例えばグラウンドの中心、世界座標の原点、あるいはあらかじめ設定した点の方向に向くように移動する動作、などがあげられる。
なお、上記では、移動可能範囲外へ仮想カメラを移動するユーザ操作を受け付けた場合に自動操縦実行部161が動作する構成である。しかしながら、自動操縦の適用はこれに限られるものではない。例えば、第2実施形態で説明した仮想カメラ901(図9)により図13(b)に示されるような仮想視点画像が取得されている状態では、人物1301が移動して画面の外へ出てしまうようなことが考えられる。このように、ユーザ操作が介在しなくても解除条件が満たされなくなるような場合に、自動操縦実行部160が自動操縦を実行するようにしてもよい。
この場合、自動操縦実行部160は、所定の周期で、現在の仮想カメラから得られる仮想視点画像を解析し、被写体の描画比率を取得し、ステップS1102、S101、S1402を実行する。自動操縦実行部160が実際の計算を行わず、画像生成サーバ102から描画比率を取得するようにしてもよい。自動操縦実行部160は、取得した描画比率を用いて、ステップS1102、S1401、S1402を実行し、自動操縦条件が満たされる場合に、自動操縦を実行する。
ステップS1401における自動操縦条件としては、例えば、
(a)3軸コントローラ202aまたは202b上の自動操縦ボタンをユーザが操作したこと、
(b)一定時間にわたってユーザからの操作入力が無いこと、
(c)ステップ1102において、所定時間内で所定回数にわたり連続でNOと判定されたこと、
(d)被写体の描画比率が閾値未満である状態が一定時間継続したこと、などが考えられる。
例えば、仮想視点画像から被写体がいなくなってしまい、ユーザが仮想カメラの位置と姿勢を見失ってしまったと判断して自動操縦ボタンを操作したものとする。この場合、自動操縦条件(a)が満たされ、処理はステップS1401からステップS1402に進む。結果、自動操縦実行部160は、仮想カメラの自動操縦を実行する。
なお、自動操縦実行部160は、仮想カメラの位置、姿勢を瞬時に変更するように制御してもよいし、徐々に変更するように制御してもよい。仮想カメラの位置/姿勢を徐々に変更する場合においては、例えば被写体の描画比率が途中で閾値を超えるようになった場合に、その時点で自動操縦を停止するようにしてもよい。また、自動操縦実行部160は、最後に映っていた被写体を追跡するように自動操縦を行ってもよい。また、これらが適宜組み合わされてもよい。
以上のように、第3実施形態によれば、ユーザが仮想カメラの位置や姿勢を見失ったと判定された場合に、仮想カメラの位置/姿勢を確認できるように仮想カメラが自動操縦される。したがって、ユーザは仮想カメラの操作を継続することができるようになる。
<その他の実施形態>
以上、本発明の実施形態について上述してきたが、本発明はこれらの特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。また、上述の実施形態の一部を適宜組み合わせてもよい。
例えば、上記実施形態では情報処理装置103と画像生成サーバ102は別体の装置としているが、これらは1台のサーバを用いた構成であってもよいし、内部的に複数のサーバに分かれ、論理的に1台となる構成であってもよい。
また、上記実施形態では地下への仮想カメラの移動で例示したが、本発明はこれに限られるものではなく、移動可能範囲内から移動可能範囲外への移動での操作であればよい。例えば、移動可能範囲内としてスタジアム形状の内部が定義されているのであれば、観客席やドームの天井を超えるような仮想カメラの移動や姿勢であってもよい。
また、上記実施形態では便宜的に仮想カメラという概念を用いて説明した。しかしながら、仮想カメラの位置は仮想視点の位置、仮想カメラの姿勢は仮想視点の向き、といったように、適宜読み替えることが可能であることに留意されたい。
また、上記実施形態では、予め制約を設けておいて、所定の条件を満たす場合にその制約を解除する例を中心に説明した。しかしこの例に限るものではない。例えば、通常は制約を設けず、所定の条件を満たした場合に制約を課すようにしても良い。つまり、所定の条件を満たす場合は制約が有効となり、所定の条件を満たさない場合は制約が無効になるように設定するという言い方もできる。
また、本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
10:画像処理システム、101:撮影システム、102:画像生成サーバ、111:CPU、112:RAM、113:ROM、114:通信部、115:入出力部、201:表示部、202a:3軸コントローラ、202b:3軸コントローラ、203:ズームコントローラ、204:リプレイコントローラ

Claims (19)

  1. 仮想視点画像に対応する仮想視点を移動させるための入力を受け付ける受付手段と、
    前記受付手段により受け付けられた入力に応じて前記仮想視点を制御する制御手段であって、前記仮想視点からの視線方向が特定の範囲内である場合には、所定の領域内から前記所定の領域外へ向かって前記仮想視点を移動させるための入力に応じて前記仮想視点を前記所定の領域外へ移動させ、前記仮想視点からの視線方向が前記特定の範囲外である場合には、前記所定の領域内から前記所定の領域外へ向かって前記仮想視点を移動させるための入力に応じた前記仮想視点の移動を制限する制御手段と、を有することを特徴とする制御装置。
  2. 前記特定の範囲は、前記所定の領域の境界面の法線方向と前記仮想視点からの視線方向との成す角が所定値よりも小さい範囲であることを特徴とする請求項1に記載の制御装置。
  3. 前記特定の範囲は、前記仮想視点からの視線方向の仰角が所定値よりも大きい範囲であることを特徴とする請求項1に記載の制御装置。
  4. 前記入力が前記所定の領域内から前記所定の領域外への前記仮想視点の移動を示す場合、前記制御手段は、移動先の前記仮想視点に対応する仮想視点画像の描画範囲に存在する描画対象のオブジェクトの描画領域の前記描画範囲に占める割合が閾値よりも大きい場合に前記視線方向が前記特定の範囲内であると判定することを特徴とする請求項1に記載の制御装置。
  5. 前記描画領域は、3次元空間中における前記描画対象のオブジェクトの3次元モデルが存在する領域であることを特徴とする請求項4に記載の制御装置。
  6. 前記描画領域は、前景オブジェクトの3次元モデル、背景オブジェクトの3次元モデル、及び仮想オブジェクトの3次元モデルの少なくとも何れかが存在する領域であることを特徴とする請求項5に記載の制御装置。
  7. 前記仮想視点画像は、複数の撮影装置により複数の方向から撮影することで得られる複数の撮影画像に基づいて生成されることを特徴とする請求項1乃至6の何れか1項に記載の制御装置。
  8. 前記所定の領域は、前記複数の撮影画像の少なくとも何れかに含まれる領域であることを特徴とする請求項7に記載の制御装置。
  9. 前記制御手段による前記仮想視点の移動を制限する制御には、前記仮想視点を移動させるための入力を無効にする制御が含まれることを特徴とする請求項1乃至8の何れか1項に記載の制御装置。
  10. 前記制御手段による前記仮想視点の移動を制限する制御には、前記仮想視点の移動速度を低下させる制御が含まれることを特徴とする請求項1乃至9の何れか1項に記載の制御装置。
  11. 前記制御手段による前記仮想視点の移動を制限する制御には、前記仮想視点の前記所定の領域外への移動の開始を遅らせる制御が含まれることを特徴とする請求項1乃至10の何れか1項に記載の制御装置。
  12. 前記所定の領域外は、地中に対応する領域であることを特徴とする請求項1乃至11の何れか1項に記載の制御装置。
  13. 前記制御手段は、前記仮想視点が前記所定の領域外に位置する場合の前記仮想視点からの視線方向を制限することを特徴とする請求項1乃至12の何れか1項に記載の制御装置。
  14. 前記制御手段は、前記仮想視点が前記所定の領域外に位置し且つ前記仮想視点からの視線方向が前記特定の範囲外である状況において所定の条件が満たされた場合に、前記仮想視点からの視線方向を前記特定の範囲内の視線方向に変更することを特徴とする請求項1乃至12の何れか1項に記載の制御装置。
  15. 前記制御手段は、前記仮想視点が前記所定の領域外に位置する状況において所定の条件が満たされた場合に、前記仮想視点の位置を前記所定の領域内の位置に変更することを特徴とする請求項1乃至12の何れか1項に記載の制御装置。
  16. 仮想視点画像に対応する仮想視点を移動させるための入力を受け付ける受付工程と、
    前記受付工程において受け付けられた入力に応じて前記仮想視点を制御する制御工程であって、前記仮想視点からの視線方向が特定の範囲内である場合には、所定の領域内から前記所定の領域外へ向かって前記仮想視点を移動させるための入力に応じて前記仮想視点を前記所定の領域外へ移動させ、前記仮想視点からの視線方向が前記特定の範囲外である場合には、前記所定の領域内から前記所定の領域外へ向かって前記仮想視点を移動させるための入力に応じた前記仮想視点の移動を制限する制御工程と、
    を有することを特徴とする制御方法。
  17. 前記特定の範囲は、前記所定の領域の境界面の法線方向と前記仮想視点からの視線方向との成す角が所定値以下となる範囲であることを特徴とする請求項16に記載の制御方法。
  18. 前記仮想視点画像は、複数の撮影装置により複数の方向から撮影することで得られる複数の撮影画像に基づいて生成され、
    前記所定の領域は、前記複数の撮影画像の少なくとも何れかに含まれる領域であることを特徴とする請求項16又は17に記載の制御方法。
  19. コンピュータを、請求項1乃至15のいずれか1項に記載の制御装置として機能させるためのプログラム。
JP2018167210A 2018-09-06 2018-09-06 制御装置及び制御方法 Active JP7245013B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018167210A JP7245013B2 (ja) 2018-09-06 2018-09-06 制御装置及び制御方法
PCT/JP2019/033550 WO2020050103A1 (ja) 2018-09-06 2019-08-27 仮想視点の制御装置及びその制御方法
US17/182,416 US11558598B2 (en) 2018-09-06 2021-02-23 Control apparatus and control method for same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018167210A JP7245013B2 (ja) 2018-09-06 2018-09-06 制御装置及び制御方法

Publications (3)

Publication Number Publication Date
JP2020042362A JP2020042362A (ja) 2020-03-19
JP2020042362A5 JP2020042362A5 (ja) 2021-10-21
JP7245013B2 true JP7245013B2 (ja) 2023-03-23

Family

ID=69722679

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018167210A Active JP7245013B2 (ja) 2018-09-06 2018-09-06 制御装置及び制御方法

Country Status (3)

Country Link
US (1) US11558598B2 (ja)
JP (1) JP7245013B2 (ja)
WO (1) WO2020050103A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10600245B1 (en) * 2014-05-28 2020-03-24 Lucasfilm Entertainment Company Ltd. Navigating a virtual environment of a media content item
JP2022051972A (ja) * 2019-02-06 2022-04-04 ソニーグループ株式会社 情報処理装置および方法、並びにプログラム
CN113304471B (zh) * 2020-08-26 2023-01-10 北京完美赤金科技有限公司 虚拟对象的展示方法、装置、设备
US12028507B2 (en) * 2021-03-11 2024-07-02 Quintar, Inc. Augmented reality system with remote presentation including 3D graphics extending beyond frame

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012252661A (ja) 2011-06-06 2012-12-20 Nintendo Co Ltd 画像生成プログラム、画像生成方法、画像生成装置及び画像生成システム
JP2017212592A (ja) 2016-05-25 2017-11-30 キヤノン株式会社 制御装置、制御方法、及び、プログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6226008B1 (en) * 1997-09-04 2001-05-01 Kabushiki Kaisha Sega Enterprises Image processing device
JP2004341572A (ja) * 2003-05-12 2004-12-02 Namco Ltd 画像生成システム、プログラム及び情報記憶媒体
JP4671873B2 (ja) * 2006-01-23 2011-04-20 シャープ株式会社 合成映像生成システム
US8797360B2 (en) * 2008-04-18 2014-08-05 Sony Corporation Image display device, method for controlling image display device, and information storage medium
JP5174522B2 (ja) * 2008-04-18 2013-04-03 株式会社ソニー・コンピュータエンタテインメント 画像表示装置、画像表示装置の制御方法及びプログラム
US9167134B2 (en) * 2010-03-30 2015-10-20 Panasonic Intellectual Property Managment Co., Ltd. Imaging control device, immersion position information generation device, imaging control method, immersion position information generation method
JP6309749B2 (ja) * 2013-12-09 2018-04-11 シャープ株式会社 画像データ再生装置および画像データ生成装置
CN106659410A (zh) 2014-05-28 2017-05-10 洛杉矶儿童医院 用于评估拔管失败的方法、系统和软件
JP6808357B2 (ja) * 2016-05-25 2021-01-06 キヤノン株式会社 情報処理装置、制御方法、及び、プログラム
JP6878014B2 (ja) * 2017-01-13 2021-05-26 キヤノン株式会社 画像処理装置及びその方法、プログラム、画像処理システム
JP2018167210A (ja) * 2017-03-30 2018-11-01 株式会社Ihi 蒸留装置
JP6878177B2 (ja) * 2017-07-04 2021-05-26 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP7366563B2 (ja) 2019-03-26 2023-10-23 キヤノン株式会社 画像生成装置、画像生成方法、及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012252661A (ja) 2011-06-06 2012-12-20 Nintendo Co Ltd 画像生成プログラム、画像生成方法、画像生成装置及び画像生成システム
JP2017212592A (ja) 2016-05-25 2017-11-30 キヤノン株式会社 制御装置、制御方法、及び、プログラム

Also Published As

Publication number Publication date
WO2020050103A1 (ja) 2020-03-12
US20210176450A1 (en) 2021-06-10
JP2020042362A (ja) 2020-03-19
US11558598B2 (en) 2023-01-17

Similar Documents

Publication Publication Date Title
JP7245013B2 (ja) 制御装置及び制御方法
JP7045218B2 (ja) 情報処理装置および情報処理方法、プログラム
KR101334637B1 (ko) 가상 카메라의 성능 시뮬레이션
JP6340017B2 (ja) 被写体と3次元仮想空間をリアルタイムに合成する撮影システム
US12112574B2 (en) Systems and methods for virtual and augmented reality
JPH0785312A (ja) 3次元動画作成装置
JP6598522B2 (ja) 情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム
US11521346B2 (en) Image processing apparatus, image processing method, and storage medium
CA3089311A1 (en) Calibration to be used in an augmented reality method and system
US11847735B2 (en) Information processing apparatus, information processing method, and recording medium
JP2021135776A (ja) 情報処理装置、情報処理方法、およびプログラム
JPH11259685A (ja) 3次元cg実写映像融合装置
JP7296735B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP7387286B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2023057124A (ja) 画像処理装置及び方法、プログラム
JP7341674B2 (ja) 情報処理装置、情報処理方法及びプログラム
TWI610565B (zh) 立體影像物件互動方法、系統與立體互動影片後製方法
JP7494153B2 (ja) 生成装置、生成方法、及び、プログラム
US11917117B2 (en) Processing system, processing method and non-transitory computer-readable storage medium
EP4400954A1 (en) Image processing apparatus, image processing method, and program
WO2024070762A1 (ja) 情報処理装置、情報処理方法、プログラム
JP2024022484A (ja) 生成装置、生成方法及びプログラム
JP2023184358A (ja) 画像処理システム、画像処理システムの制御方法、及びプログラム
JP2023163060A (ja) 画像処理プログラム、画像処理装置、及び画像処理方法
JP2023001850A (ja) 情報処理装置、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210903

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220912

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230310

R151 Written notification of patent or utility model registration

Ref document number: 7245013

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151