JP7330683B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP7330683B2
JP7330683B2 JP2018208993A JP2018208993A JP7330683B2 JP 7330683 B2 JP7330683 B2 JP 7330683B2 JP 2018208993 A JP2018208993 A JP 2018208993A JP 2018208993 A JP2018208993 A JP 2018208993A JP 7330683 B2 JP7330683 B2 JP 7330683B2
Authority
JP
Japan
Prior art keywords
virtual camera
camera
information processing
virtual
path
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018208993A
Other languages
English (en)
Other versions
JP2020077108A (ja
JP2020077108A5 (ja
Inventor
圭吾 米田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018208993A priority Critical patent/JP7330683B2/ja
Priority to US16/661,382 priority patent/US20200145635A1/en
Publication of JP2020077108A publication Critical patent/JP2020077108A/ja
Publication of JP2020077108A5 publication Critical patent/JP2020077108A5/ja
Application granted granted Critical
Publication of JP7330683B2 publication Critical patent/JP7330683B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0334Foot operated pointing devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0338Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of limited linear or angular displacement of an operating part of the device from a neutral position, e.g. isotonic or isometric joysticks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、仮想視点の設定を行うための技術に関する。
複数台の実カメラで撮影した映像を用いて、3次元空間内に仮想的に配置した実際には存在しないカメラ(仮想カメラ)からの映像を再現する技術として、仮想視点画像生成技術がある。
仮想視点映像の生成に必要な仮想カメラの視点情報は、ユーザがUI画面上で例えばジョイスティックなどのコントローラを用いて、仮想カメラの移動方向、向き(姿勢)、回転、移動距離や移動速度を入力することで設定される。対象とする3次元空間において仮想カメラの滑らかな移動を実現するには、コントローラの繊細な操作が要求され、安定した軌跡の仮想カメラの経路(カメラパス)を作成することは容易ではない。この点に関し、特許文献1には、所定の条件を満たす場合に、ユーザが操縦する移動体の挙動を制限し、その制限に応じて、移動体の挙動に追従する仮想カメラの挙動を制限することで、安定した仮想カメラの挙動を実現する技術が開示されている。
特開2012-215934号公報
しかしながら、仮想視点の設定に係る操作性は十分ではなかった。例えば、ユーザがジョイスティックなどのコントローラを用いて仮想カメラを操縦すると、上述の通り、繊細で複雑な操作が要求される恐れがある。また、仮想カメラの挙動が一部制限されたとしても、依然として操作性が十分でない恐れがあった。
本発明は、仮想視点の設定に係る操作性を向上させることを目的とする。
本発明に係る情報処理装置は、複数の撮影装置にて撮影されることにより取得される複数の画像に基づいて生成される仮想視点画像であって、当該仮想視点画像に対応する仮想カメラの位置が特定される操作情報を取得する取得手段と、前記仮想カメラの操作に関する所定条件が満たされた場合、前記操作情報に基づいて特定された前記仮想カメラの位置を予め定められた経路上へと遷移させる制御を行う制御手段と、を備え、前記予め定められた経路は、前記撮影の対象となる特定イベントにおいて想定される被写体の移動に沿うように予め生成された経路であって、前記操作情報に応じて移動される前記仮想カメラの位置を制限するための経路である、ことを特徴とする。
本発明によれば、仮想視点の設定に係る操作性が向上する。
(a)は仮想視点画像を生成する画像処理システムの全体構成を示す図、(b)は情報処理装置のハードウェア構成の一例を示す図 情報処理装置の、カメラパスの設定に関わるソフトウェア構成の一例を示す図 カメラパラメータの値域を設定するUI画面の一例を示す図 (a)及び(b)は、実施形態1に係る仮想カメラの経路設定用UI画面の一例を示す図 実施形態1に係る、自由カメラパスから固定カメラパスへの遷移を制御する処理の流れを示すフローチャート (a)及び(b)は、実施形態2に係る仮想カメラ操作用UI画面の一例を示す図情報処理の一例を示すフローチャート 実施形態2に係る、自由カメラパスから固定カメラパスへの遷移を制御する処理の流れを示すフローチャート (a)及び(b)は、仮想カメラの移動速度が変化する様子を示す図
以下、添付図面を参照して実施形態について詳細に説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。
実施形態1
実施形態1では、3次元空間上を自由に動く仮想カメラの自由移動からカメラパス上を動く制約移動に自動遷移する処理を説明する。なお、本実施形態では説明の便宜上、仮想カメラという用語を用いて説明する。仮想カメラの位置は仮想視点の位置、仮想カメラの姿勢(向き)は仮想視点の向き、仮想カメラのズーム(焦点距離)は仮想視点に係るズームパラメータにそれぞれ対応する。
(システム構成)
図1(a)は、本実施形態に係る、仮想視点画像を生成することが可能な画像処理システムの全体構成を示す図である。画像処理システム10は、撮影システム101、仮想視点画像生成サーバ102、情報処理装置103を有する。なお、仮想視点画像とは実カメラとは異なる仮想カメラの位置及び向き等に基づいて生成される画像であり、自由視点画像や任意視点画像とも呼ばれる。なお、仮想カメラは、エンドユーザや専任のオペレータ等による手動操作、コンテンツの内容に応じた自動操作、及び、予め定められたカメラパス(固定カメラパス)に基づく自動操作などにより制御されうる。また、仮想視点画像は、動画であっても、静止画であっても良い。以下では、仮想視点画像が動画である場合の例を中心に説明する。
撮影システム101は、複数のカメラを例えば陸上競技を行うスタジアム内の異なる位置に配置し、複数の視点からの画像を同期して撮影する。同期撮影によって得られた複数視点画像のデータは、仮想視点画像生成サーバ102に送信される。
仮想視点画像生成サーバ102は、撮影システム101から受信した複数視点画像を元に、撮影システム101が有するどのカメラとも異なる実在しないカメラ(仮想カメラ)の視点から見た仮想視点画像を生成する。仮想カメラの視点は、後述する情報処理装置103が決定する、仮想カメラの視点を規定するパラメータ(以下、「カメラパラメータ」と呼ぶ。)によって表現される。仮想視点画像生成サーバ102は、情報処理装置103から受信するカメラパラメータに基づき、仮想視点画像を順次生成する。
情報処理装置103は、仮想カメラを制御し、カメラパラメータを決定する。カメラパラメータには、例えば、仮想カメラの位置、姿勢、ズーム、時刻といった要素が含まれる。仮想カメラの位置は、3次元座標で表され、例えばX軸、Y軸、Z軸の3軸の直交座標系の座標により示される。この際の原点は撮影空間内の任意の位置でよい。仮想カメラの姿勢は、例えばパン、チルト、ロールの3軸とのなす角度により表される。仮想カメラのズームは、例えば焦点距離の1軸で表される。時刻もズームと同様に1軸で表される。つまり、仮想カメラの位置、姿勢、ズーム、時刻の4種類の要素で構成されるカメラパラメータの場合、8軸の要素を有することになる。なお、カメラパラメータは、上記4種類以外の要素を含んでもよいし、上述した8軸の要素の全てを含まなくてもよい。決定したカメラパラメータは、仮想視点画像生成サーバ102へ送信され、仮想視点画像生成サーバ102にて、カメラパラメータに従った仮想視点画像が生成される。
(情報処理装置のハードウェア構成)
図1(b)は、情報処理装置103のハードウェア構成の一例を示す図である。情報処理装置103は、CPU111、RAM112、ROM113、HDD114、通信I/F115、入力デバイス116、出力デバイス117を有する。CPU111は、RAM112をワークメモリとして、ROM113に格納された各種プログラムを実行し、情報処理装置103の各部を統括的に制御するプロセッサである。CPU111が、各種プログラムを実行することによって、後述の図2に示す各処理部の機能が実現される。なお、情報処理装置103がCPU111とは異なる専用の1又は複数のハードウェアあるいはGPU(Graphics Processing Unit)を有し、CPU111による処理の少なくとも一部をGPUあるいは専用のハードウェアが行うようにしても良い。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、及びDSP(デジタルシグナルプロセッサ)等がある。RAM112は、ROM113から読み出されたプログラムや演算結果など、通信I/F114を介して外部から供給されるデータなどを一時的に記憶する。ROM113は、変更を必要としないOSなどのプログラムやデータを保持する。HDD114は、前述の固定カメラパスなどの各種データを格納する大容量記憶装置であり、例えばSSDなどでもよい。前述の固定カメラパスは、時系列に連続する複数のカメラパラメータで構成され、撮影シーンに応じて予め作成したものが格納される。通信I/F115は、EthernetやUSBなどの通信規格に対応し、仮想視点画像生成サーバ102との通信を行う。入力デバイス116は、キーボードやマウスといったユーザが入力操作を行うための一般的なデバイスの他、仮想カメラを操縦するためのジョイスティック、フットペダル、つまみ、ジョグダイヤルといったコントローラを含む。出力デバイス117は、ユーザに必要な情報を表示するための1又は複数の表示デバイス(以下、「モニタ」と表記)である。表示デバイスとして例えばタッチパネルディスプレイを採用した場合は、上述の入力デバイスを兼ねることになる。モニタには、複数視点画像の撮影シーンに対応したUI画面が表示され、当該UI画面上で仮想カメラの経路は設定される。
(情報処理装置の機能構成)
図2は、情報処理装置103の、カメラパスの設定に関わる機能構成の一例を示す図であり、通信処理部201、入出力情報処理部202、カメラパス管理部203、遷移条件判定部204、カメラパラメータ制御部205を有する。本実施形態では、3次元空間上で仮想カメラを自由に移動させることが可能な状態から、予め用意された固定カメラパスへと自動で遷移させる制御を行う。図2に示す各処理部が協働して機能することで上記制御が実現される。なお、本明細書では、仮想カメラを自由に移動可能な状態で設定されたカメラパスを「自由カメラパス」と呼ぶこととする。なお、仮想カメラを自由に移動させることができる状態であっても、プライバシーやその他の制約に従って、仮想カメラの移動範囲が一部制限されるようになっていても良い。
通信処理部201は、通信I/F115を介して、カメラパラメータ制御部118で生成されたカメラパラメータを、仮想視点画像生成サーバ102へ順次送信する。また、その一部又は全部は入出力情報処理部202にも送られる。また、通信処理部201は、通信I/F115を介して、仮想視点画像生成サーバ102で生成された仮想視点画像のデータを、入出力情報処理部202に渡す。
仮想カメラの操縦者は、後述のUI画面を見ながらコントローラを操作(例えばジョイスティックを傾ける)することで、仮想カメラの移動方向や移動量等を指示する。入出力情報処理部202は、当該操作に応じた入力値(ジョイスティックであればその傾けた方向と角度)を順次取得し、当該取得した入力値を元にカメラパラメータを生成する。生成したカメラパラメータは、カメラパス管理部203や遷移条件判定部204に送られる。また、入出力情報処理部202は、通信処理部201から受け取った画像データや情報などをモニタに表示する。具体的には、受信した仮想視点画像、カメラパラメータを表現した仮想カメラの状態情報、カメラパス管理部203から読み出した固定カメラパスにおける仮想カメラの軌跡などをUI画面上に表示する。仮想カメラの操縦者は、モニタに表示されたこれらの情報を見ながら、ジョイスティック等を用いて仮想カメラを操縦することが可能となる。また、入出力情報処理部202は、操縦者が仮想カメラを自由に移動させることが可能な状態から、予め用意された固定カメラパスへと遷移させる際の所定条件(以下、「遷移条件」と表記)を設定する。遷移条件は、固定カメラパスに切り替えるか否かの判定条件であり、固定カメラパスへと遷移した後は仮想カメラの自由な操縦が制限されてしまうという意味で、制限条件と捉えることもできる。以下に、遷移条件の一例を示す。
・現在の仮想カメラの位置が、固定カメラパスにおける基準位置(いずれかのキーフレームにおける3次元空間上の位置)に対し、一定距離以下に近づいた場合
・現在の仮想カメラの姿勢が、固定カメラパスにおける基準姿勢(いずれかのキーフレームにおける視線方向)と一致又は類似する姿勢となった場合
上記遷移条件を満たし、自由カメラパスから固定カメラパスへと切り替わった以降は、仮想カメラの操縦に一定の制約が加わることになる。すなわち、仮想カメラは、固定カメラパスで指定された経路に沿って移動することになり、当該経路上でのみ仮想カメラを操縦することが可能になる。これに伴い、固定カメラパスへの遷移の前後におけるカメラパラメータの取り得る値域(要素毎の変化可能な幅)を予め設定しておいてもよい。図3(a)及び(b)に、カメラパラメータの値域を設定するUI画面の一例を示す。図3(a)のUI画面では、固定カメラパスへの遷移前(自由カメラパス時)に適用される値域が設定される。そして、図3(b)のUI画面では、固定カメラパスへの遷移後に適用される値域が設定される。ここでは、仮想カメラの位置を表す3軸(X,Y,Z)、仮想カメラの姿勢を表す3軸(パン、チルト、ロール)、及び仮想カメラのズーム(焦点距離)についての値域が設定可能になっている。ユーザは、要素の軸毎に設けられたスライドバー上のつまみを調整することによって、任意の値域を設定することができる。このUI画面では、スライドバーの右端が最大変化量、左端が最小変化量(変化量=ゼロ)である。図3(a)に示すとおり、固定カメラパスへの遷移前は全てのパラメータについての値域がゼロ以上に設定される。これに対し、固定カメラパスへの遷移後は、仮想カメラの位置を表す3軸とロールについての値域が変化量ゼロに設定され、位置(X,Y,Z)とロールについては操縦者による自由な操作ができないよう制限している。すなわち、遷移後は、仮想カメラを固定カメラパス上で移動させつつ、パン、チルト、ズームについてのみ変更させる操作が可能となる。なお、遷移後において特定の要素についての値域を変化量ゼロにする設定を行う代わりに、当該特定の要素に対する操作自体を無効にする設定を行ってもよい。
カメラパス管理部203は、入出力情報処理部202から受け取ったカメラパラメータを順次、HDD114に記憶する。また、カメラパス管理部203は、HDD114から固定カメラパスを読み出し、入出力情報処理部202、遷移条件判定部204、カメラパラメータ制御部205に出力する。
遷移条件判定部204は、入出力情報処理部202から入力された現時点のカメラパラメータと読み出された固定カメラパスとに基づいて、上述の遷移条件を満たすか否かを判定する。判定結果は、入力されたカメラパラメータと共に、カメラパラメータ制御部205に出力される。また、遷移条件判定部204は、入出力情報処理部202から受け取った入力デバイス116の操作に応じた入力値に基づいて、遷移条件を更新する処理も行う。例えば、不図示のつまみの回転量に応じて、上述の「一定距離」を規定する閾値を変更する。
カメラパラメータ制御部205は、遷移条件判定部204における判定結果に基づき、現在の仮想カメラの位置から固定カメラパスまでを接続するためのカメラパラメータを決定する処理を行う。まず、判定結果が「遷移条件を満たす」であった場合は、予め用意された固定カメラパスにおける接続先(現在の仮想カメラの位置から最も近い固定カメラパス上のキーフレーム)までを埋めるための、カメラパラメータの生成等を行う。一方、判定結果が「遷移条件を満たさない」であった場合は、遷移条件判定部204から入力された現在の仮想カメラの位置を表すカメラパラメータを変更することなく、通信処理部201に出力する。なお、固定カメラパスへ接続するためのカメラパラメータの生成処理においては、前述の図3(b)で示した各要素において取り得る値域が考慮される。さらに、固定カメラパスから離れて仮想カメラが動ける範囲が規定されている場合は、その範囲内(仮想カメラの位置を表す3軸について与えられた許容値の範囲内)となるように生成処理を行う。また、カメラパラメータを構成する要素のうち、操縦者が指定した特定の要素のみを生成対象とし、一部の要素については固定値としてもよい。
(固定カメラパスへの自動遷移)
ここで、陸上競技の短距離走を撮影シーンとする場合の、本実施形態の適用例を説明する。陸上競技の短距離走では、スタートラインに並ぶ選手を正面から順に捉えた(撮影した)後、決まったコース上を走る選手に追従して選手の走る姿を横から捉えるように仮想カメラを移動させるというカメラパスが想定される。そこで、スタート前の各選手を捉えるところまでは仮想カメラを自由に移動できる自由カメラパスとし、選手がスタートした後は仮想カメラが選手の走る姿を横から捉える固定カメラパスに切り替える制御を行う例を説明する。ここでは、仮想カメラを移動させる操作(操縦)は、コントローラとしてのジョイスティックによって行われるものとする。図4(a)及び(b)は、陸上競技の短距離走のシーンを対象に本実施形態を適用した場合の、操縦者が使用する仮想カメラの経路設定用UI画面の一例を示す図である。図4(a)及び(b)に示すUI画面では、選手401が走るコースのスタートエリア付近を俯瞰で見た平面画像に、仮想カメラの位置を示すマーク402が表示されている。そして、UI画面内には、固定カメラパスを示す点線403も重畳表示されている。このようなUI画面を用いて、操縦者は、撮影対象の3次元空間における位置を把握しながら仮想カメラを移動させる操作を行う。なお、固定カメラパスの重畳表示は、仮想カメラとの位置関係が把握できるような表示態様であればよく、点線に限定されない。例えば実在のオブジェクトと区別可能な態様で色を付すなどの強調表示を行ってもよい。
図4(a)は選手がスタートするまでの仮想カメラの位置の軌跡(自由カメラパス)を示し、同(b)は選手がスタートした自由カメラパスから固定カメラパスへの切り替わりとその後の仮想カメラの位置の軌跡を示している。図4(a)に示すように、選手がスタートする前の状態で操縦者は、スタート位置にスタンバイする選手401を順にその正面から撮影するため、位置402aから位置402bへと緩やかな弧を描くように仮想カメラを移動させる。そして、スタートの直前になると操縦者は、固定カメラパス403に向かってさらに仮想カメラを移動させる。そして、固定カメラパス403上の黒丸404で示すキーフレームの一定距離以内にまで近づくと、仮想カメラは固定カメラパス403へと接続される。この際、キーフレーム404や一定距離の範囲も、固定カメラパス403と同様に、操縦者が認識できるようにUI画面上に重畳表示される。図4(a)において、各キーフレーム404の位置を中心とした円405(半径=閾値Th)で示す範囲が一定距離を示している。この閾値Thは、操縦者等のユーザによって任意の値が設定される。なお、ここでは一定距離を2次元的に示しているが、実際は3次元的な拡がりを持つ空間の範囲を規定していることはいうまでもない。例えば仮想視点画像をベースとしたUI画面であれば、一定距離を3次元的に示してもよい。
固定カメラへの接続は、図4(b)に示すように、位置402cからキーフレームの位置404までを埋めるカメラパラメータが、例えばスプライン関数などを用いた補間処理によって取得され、それによって滑らかに固定カメラパス403に接続される。そして選手401がスタートした後は、選手401’を追従するように(位置402d)、固定カメラパス403に沿って仮想カメラが移動する。この際、仮想カメラの移動に合わせ、キーフレーム間のカメラパラメータが補間処理によって得られる。図4(b)の例では位置404から次のキーフレームの位置404’までは、固定カメラパス403から僅かにずれた実線406によって表されるカメラパラメータが生成される。そして、さらに位置404’からその次のキーフレームの位置404”までは、固定カメラパス403に重なる実線407によって表されるカメラパラメータが生成される。固定カメラパス403を構成する各カメラパラメータに移動速度の要素を含めておくことで、固定カメラパス403へと遷移した後、操縦者によるコントローラの操作とは関係なく、固定カメラパス403に従って仮想カメラが移動させることができる。仮想カメラの移動速度は、固定カメラパス403作成時のカメラパラメータを配置する間隔(細かさの度合い)で決まる。
なお、実施形態2で説明するように、仮想カメラの操縦者が、固定カメラパス403上での仮想カメラの移動速度を別途制御できるように構成してもよい。さらには、図4(a)及び(b)に示すUI画面では俯瞰画像を用いているが、仮想視点画像を用いてもよい。すなわち、固定カメラパス403の軌跡を表す線と仮想カメラの現在位置を表すマークとを競技場の背景3Dモデルに合成して得られる画像をUI画面に採用して、仮想カメラを操縦できるようにしてもよい。この場合、競技場の背景3Dモデルは、例えば撮影システム101が設置されている競技場などのCG(Computer Graphics)モデルであり、予め作成されて情報処理装置103のHDD114に保存しておけばよい。
(固定カメラパスへの遷移制御)
図5は、本実施形態に係る、自由カメラパスから固定カメラパスへの遷移を制御する処理の流れを示すフローチャートである。図5に示すフローは、ROM113に格納された制御プログラムがRAM112に読み出され、CPU111がこれを実行することによって実現される。ユーザ(操縦者)からの仮想視点画像の生成開始の指示をトリガとして、図5のフローの実行が開始される。
S501では、遷移条件判定部204が、予め用意された固定カメラパスのデータを、カメラパス管理部203を介して取得する。続くS502では、入出力情報処理部202が、操縦者によるコントローラの操作に応じた入力値に基づき、カメラパラメータが生成される。本フローの開始直後の時点では、仮想カメラによる撮影の開始位置(カメラパスの初期値)を示すカメラパラメータが生成されることになる。生成されたカメラパラメータは、遷移条件判定部204に送られる。
S503では、遷移条件判定部204が、S501で取得した固定カメラパスとS502で生成したカメラパラメータとに基づいて、固定カメラパスへの遷移条件を満たすか否かを判定する。この際の遷移条件は、予め用意してあったものをHDD114等から読み出して使用してもよいし、本フローの実行開始前に遷移条件設定用のUI画面(不図示)を表示し当該UI画面を介して操縦者が指定したものを使用してもよい。この判定結果は、判定に使用したカメラパラメータ及び固定カメラパスのデータと共に、カメラパラメータ制御部205に送られる。
S504では、カメラパラメータ制御部205が、S503における判定結果に従って処理の切り分けを行う。具体的には、遷移条件を満たすとの判定であった場合はS505に進み、遷移条件を満たさないとの判定であった場合はS507に進む。
S505では、カメラパラメータ制御部205が、入力されたカメラパラメータ及び固定カメラパスに基づいて、現在の仮想カメラの位置から固定カメラパスまでを接続する。具体的には、固定カメラパスのターゲットとなるキーフレームまで滑らかに接続されるように、例えばスプライン関数を用いた補間処理を行なって、その間を埋めるカメラパラメータを生成する。或いは、ターゲットとなるキーフレームに対して直線的に接続するようにカメラパラメータを補間してもよい。或いは、ターゲットとなるキーフレームまでジャンプさせてもよい。これにより、S502で生成された現在の仮想カメラの位置・姿勢を表すカメラパラメータに加え、固定カメラパスのキーフレームまでの間を埋める1つ又は複数のカメラパラメータが得られる。得られたカメラパラメータは通信処理部201に渡される。
S506では、通信処理部201が、S505で得られたカメラパラメータを、仮想視点画像サーバ102に送信する。そして、仮想視点画像サーバで102において、情報処理装置103から受信したカメラパラメータに基づく仮想視点画像の生成が実行される。なお、固定カメラパスへと移行した後は、固定カメラパスを構成する連続するカメラパラメータの最後に到達した時点で、仮想カメラの自由移動が可能な状態に戻るように制御される。或いは、操縦者によるコントローラ等を介した明示の指示によって、固定カメラパスの途中で終了できるように構成してもよい。
S507では、通信処理部201が、S502で生成されたカメラパラメータを、仮想視点画像サーバ102に送信する。そして、仮想視点画像サーバで102において、情報処理装置103から受信したカメラパラメータに基づく仮想視点画像の生成が実行される。続くS508では、操縦者によるコントローラからの新たな入力値の有無に応じて処理の切り分けがなされる。新たな入力値が確認された場合はS502に戻って、当該新たな入力値に基づくカメラパラメータが生成される。一方、操縦者による仮想視点画像の生成終了指示を受け付けるなど、コントローラからの入力値が見込まれない場合は、本フローを終える。
以上が、本実施形態に係る、自由カメラパスから固定カメラパスへの遷移制御の内容である。
<変形例>
また、本実施形態では、自由カメラパスから固定カメラパスへの遷移条件を、仮想カメラの3次元空間上の位置を基準とし、仮想カメラが固定カメラパスのキーフレームにおける位置まで一定距離以下に近づいたか否かとしたが、これに限定されない。例えば、仮想カメラの姿勢が、固定カメラパスのキーフレームにおける姿勢と一致又は類似しているか否かを遷移条件としてもよい。また、本実施形態では「キーフレームにおける位置」及び「キーフレームにおける姿勢」などの表現を使って遷移条件の説明をしたが、キーフレームに限るものではない。つまり、仮想カメラの位置が予め設定された範囲内に侵入したときに自由カメラパスから固定カメラパスに遷移しても良いし、仮想カメラの姿勢が予め設定された姿勢の範囲内に収まったときに自由カメラパスから固定カメラパスに遷移しても良い。また、位置と姿勢の両方の条件が満たされたときに自由カメラパスから固定カメラパスに遷移するようにしても良い。さらには、操縦者による所定の操作、例えば、専用ボタンの押下やUI画面上での固定カメラパスの選択などを遷移条件としてもよい。また、遷移条件は複数の条件の組み合わせでもよい。
また、本実施形態では、固定カメラパスが1つの場合を例に説明を行ったが、複数の固定カメラパスが予め用意されていることも考えられる。例えば、複数の固定カメラパスについての遷移条件を同時に満たすことになった場合は、遷移条件の判定対象となっている要素(仮想カメラの位置、姿勢、移動方向)の一致度がより高い方の固定カメラパスに遷移するようにすればよい。
以上説明したように、本実施形態では、操縦者が仮想カメラの位置を自由に移動させている状態下で所定条件が満たされると、固定カメラパスへと自動的に遷移させる処理が行われる。これにより、仮想視点画像の持つ高い臨場感をも活かした安定した軌跡のカメラパスを設定することが可能となる。
実施形態2
実施形態1では、コントローラを使って自由に移動させている仮想カメラが固定カメラパスの一定距離以下に近づくと、自動で固定カメラパスに遷移させる態様を説明した。次に、第1のコントローラで自由に移動させている状態下において、第2のコントローラが操作されたことに応答して、固定カメラパスに遷移させる態様を、実施形態2として説明する。なお、システム構成など実施形態1と共通する部分は説明を省略ないしは簡略化し、以下では差異点であるカメラパスの設定処理を中心に説明を行うものとする。
図6(a)及び(b)は、実施形態1の図4(a)及び(b)に対応する図である。図6(a)では選手がスタートするまでの仮想カメラの位置の軌跡が示されており、同(b)では選手がスタートした後の仮想カメラの位置の軌跡が示されている。
図6(a)に示すように、スタート前において仮想カメラは、スタート位置にいる選手601を正面から撮影するように、位置602aから位置602bへと緩やかな弧を描いて移動する。ここまでは第1のコントローラとしてのジョイスティックによる操作である。そして、選手が走り出したタイミングで操縦者が第2のコントローラとしてのフットペダルを例えば最大踏込量の90%(第1の閾値)を超えて踏み込むといった所定の操作を行うとする。この場合、図6(b)に示すように、固定カメラパス603上の任意の位置(ここでは現在の仮想カメラの位置から最も近い位置602c)へと仮想カメラは移動し、固定カメラパスに接続される。固定カメラパス603にキーフレームの情報が含まれている場合は、最寄のキーフレームの位置でもよい。すなわち、本実施形態では、遷移条件判定部204は、コントローラからの入力値そのものに基づき遷移条件を満たすか否かを判定する。そして、遷移条件を満たしていると判定されると、位置602cをターゲットとした補完処理によって、位置602bから位置602cまでを埋めるカメラパラメータが取得され、それによって滑らかに固定カメラパス603に接続される。そして、操縦者がフットペダルの踏込量を例えば最大踏込量の50%(第2の閾値)以上を維持したままでいると、その間は、仮想カメラがカメラパス603上を移動する。そして、操縦者がフットペダルの踏込量を上記第2の閾値以下に減らすと、仮想カメラは固定カメラパス603から離脱し、再びジョイスティックによって自由に移動させることが可能になる。すなわち、本実施形態では、遷移条件判定部204はさらに、第2のコントローラからの入力値に基づき、固定カメラパスからの離脱条件を満たすか否かを判定する処理も行う。図6(b)において、両方向の矢印604及び606は、フットペダルが最大踏込量の50%以上で継続して踏まれていたときの固定カメラパス603上の区間を示している。また、両方向の矢印605は、フットペダルが最大踏込量の50%を切ったときの、仮想カメラが固定カメラパス603を離れて自由に移動可能となった区間を示している。
(固定カメラパスへの遷移制御)
図7は、本実施形態に係る、自由カメラパスから固定カメラパスへの遷移を制御する処理の流れを示すフローチャートである。ユーザ(操縦者)からの仮想視点画像の生成開始の指示をトリガとして、図7のフローの実行が開始される。
S701及びS702は、実施形態1の図5のフローにおけるS501及びS502にそれぞれ対応する。すなわち、予め用意された固定カメラパスのデータが取得され(S701)、それに続き、操縦者による第1のコントローラ(ここではジョイスティック)の操作に応じた入力値に基づきカメラパラメータが生成される(S702)。
S703では、遷移条件判定部204が、操縦者による第2のコントローラ(ここではフットペダル)の操作に応じた入力値に基づいて、固定カメラパスへの遷移条件を満たすか否かを判定する。この際の遷移条件(前述の第1の閾値)は、予め用意してあったものをHDD114等から読み出して使用してもよいし、本フローの実行開始前に遷移条件設定用のUI画面(不図示)を表示し当該UI画面を介して操縦者が指定したものを使用してもよい。この判定結果は、S702で生成されたカメラパラメータ及びS701で取得された固定カメラパスのデータと共に、カメラパラメータ制御部205に送られる。
S704~S708は、実施形態1の図5のフローにおけるS704~S708にそれぞれ対応し、異なるところは特にないので説明を省く。
以上が、本実施形態に係る、自由カメラパスから固定カメラパスへの遷移制御の内容である。
<変形例>
本実施形態では、第2のコントローラであるフットペダルを踏み込む操作によって固定カメラパスへの遷移及び固定カメラパスからの離脱を制御していたがこれに限定されない。例えば、第1のコントローラであるジョイスティックに設けたボタンの押下に応じて遷移と離脱を制御してもよい。そして、仮想カメラが固定カメラパス上に存在する間の移動速度や移動距離などの制御を第2のコントローラであるフットペダルで行うようにしてもよい。
本実施形態では、フットペダルの踏込量が第2の閾値以下になった場合に固定カメラパスから離脱できるように構成したが、離脱機能に代えて、フットペダルの踏込量に応じて、固定カメラパス上での仮想カメラの移動速度を変化させるようにしてもよい。例えば、カメラパラメータのサンプリングを1つ置きにすることで、仮想カメラが固定カメラパス上を動く速度を2倍にできる。図8(a)及び(b)は、選手が走っている最中に、フットペダルの踏込量で仮想カメラの移動速度が変化する様子を示す図である。図8(a)はフットペダルを最後(最大踏込量)まで踏み込んだ場合に対応し、図8(b)はフットペダルを半分(最大踏込量の50%)まで戻した場合に対応する。図8(a)の場合、選手が位置801から位置801’まで走る間に、仮想カメラは固定カメラパス上の位置802から位置803まで移動する。矢印804はこのときの移動距離を表している。これに対し、図8(b)の場合、選手が位置801から位置801’まで走る間に、仮想カメラは固定カメラパス上の位置802から位置805までしか移動せず、その移動距離を表す矢印806の長さは、図8(a)における矢印804の半分になっている。すなわち、この例の場合、図8(b)では仮想カメラの移動速度が、図8(a)のときの半分になる。さらに、操縦者がフットペダルを元の位置まで完全に戻したとき(踏むのを止めた場合)、移動距離がゼロ(固定カメラパス上で仮想カメラが静止)となるように構成してもよい。なお、ここでは、フットペダルの踏込量が増えるに連れて仮想カメラの移動速度が上昇する例を説明したが、これに限られない。例えば、フットペダルを踏まないときを仮想カメラの最大移動速度の状態とし、最後まで踏み込んだときを仮想カメラの静止状態としてもよい。この変形例の場合、例えば、選手の走るスピードの変化に合わせてフットペダルの踏込量を変化させることで、固定カメラパス上という制約の上で、仮想カメラの動きを選手に追従させることが可能となる。
本実施形態によれば、第1のコントローラを使って自由に仮想カメラを移動させている状態下で、第2のコントローラを使った操作を行うことによって、固定カメラパスに引き寄せるように遷移させる処理が行われる。このような処理によれば、対象3次元空間上の任意の位置からでも滑らかに固定カメラパスに遷移させることが可能となる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
103 情報処理装置
114 HDD
116 入力デバイス
205 カメラパラメータ制御部

Claims (17)

  1. 複数の撮影装置にて撮影されることにより取得される複数の画像に基づいて生成される仮想視点画像であって、当該仮想視点画像に対応する仮想カメラの位置が特定される操作情報を取得する取得手段と、
    前記仮想カメラの操作に関する所定条件が満たされた場合、前記操作情報に基づいて特定された前記仮想カメラの位置を予め定められた経路上へと遷移させる制御を行う制御手段と、
    を備え、
    前記予め定められた経路は、前記撮影の対象となる特定イベントにおいて想定される被写体の移動に沿うように予め生成された経路であって、前記操作情報に応じて移動される前記仮想カメラの位置を制限するための経路である、
    ことを特徴とする情報処理装置。
  2. 前記所定条件は、前記操作情報に基づいて特定される前記仮想カメラの位置が、予め設定された範囲内に位置することである、ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記予め定められた経路は、遷移対象候補となる複数の遷移候補位置を有することを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記制御手段は、前記仮想カメラの位置と前記遷移候補位置とに基づいて、前記予め定められた経路へと遷移させるための経路を求めることを特徴とする請求項3に記載の情報処理装置。
  5. 前記特定ベントは、前記複数の撮影装置の撮影空間内に予め設けられたコースで前記被写体が競技を行うイベントであり、
    前記予め定められた経路は、前記コースに沿って前記仮想カメラが移動するように作成されたものである、
    ことを特徴とする請求項1に記載の情報処理装置。
  6. 前記操作情報は、前記仮想カメラの位置、姿勢、ズームの要素を含み、
    前記要素のうち少なくとも1つの要素について、前記予め定められた経路への遷移の前後において変化し得る範囲が異なる、
    ことを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
  7. 前記遷移の前後において、前記要素が変化し得る範囲の最大値が異なることを特徴とする請求項に記載の情報処理装置。
  8. 前記所定条件は、前記操作情報に基づいて特定される前記仮想カメラの位置が、前記遷移候補位置に対し一定距離以内に位置することである、ことを特徴とする請求項3または4に記載の情報処理装置。
  9. 前記操作情報によって、前記仮想カメラの位置と姿勢が特定され、
    前記所定条件は、前記仮想カメラの姿勢を表すパン、チルト、ロールの少なくとも1つが、予め設定された値と一致または予め設定された範囲内に収まる、
    ことを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。
  10. 前記操作情報に基づき、前記仮想カメラの視点を規定するカメラパラメータを生成する生成手段と、
    前記所定条件が満たされたか否かを、前記生成手段で生成された前記カメラパラメータと前記予め定められた経路とに基づいて判定する判定手段と、
    をさらに備えることを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置。
  11. 前記所定条件とは異なる、前記予め定められた経路から離れるための離脱条件が満たされた場合、前記制限が解除される、ことを特徴とする請求項1乃至10のいずれか1項に記載の情報処理装置。
  12. 前記離脱条件が満たされる場合とは、前記仮想カメラの位置を前記予め定められた経路から離れさせることと対応付けられた所定のユーザ操作を示す操作情報を前記取得手段が取得した場合である、ことを特徴とする請求項11に記載の情報処理装置。
  13. 前記仮想カメラの位置と前記予め定められた経路とを含む情報をUI画面に表示する表示手段をさらに備えることを特徴とする請求項1乃至12のいずれか1項に記載の情報処理装置。
  14. 前記UI画面は、前記仮想カメラの姿勢に関する情報を含むことを特徴とする請求項13に記載の情報処理装置。
  15. 前記UI画面は、遷移対象候補となる複数の遷移候補位置から一定距離以内の範囲を示す情報を含むことを特徴とする請求項13または14に記載の情報処理装置。
  16. 複数の撮影装置にて撮影されることにより取得される複数の画像に基づいて生成される仮想視点画像であって、当該仮想視点画像に対応する仮想カメラの制御方法であって、
    前記仮想カメラの操作情報を取得するステップと、
    前記仮想カメラの操作に関する所定条件が満たされた場合、前記操作情報に基づいて特定された前記仮想カメラの位置を予め定められた経路上へと遷移させるステップと、
    を含み、
    前記予め定められた経路は、前記撮影の対象となる特定イベント において想定される被写体の移動に沿うように予め生成された経路であって、前記操作情報に応じて移動される前記仮想カメラの位置を制限するための経路である、
    ことを特徴とする制御方法。
  17. コンピュータを、請求項1乃至15のいずれか1項に記載の情報処理装置として機能させるためのプログラム。
JP2018208993A 2018-11-06 2018-11-06 情報処理装置、情報処理方法及びプログラム Active JP7330683B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018208993A JP7330683B2 (ja) 2018-11-06 2018-11-06 情報処理装置、情報処理方法及びプログラム
US16/661,382 US20200145635A1 (en) 2018-11-06 2019-10-23 Information processing apparatus, information processing method and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018208993A JP7330683B2 (ja) 2018-11-06 2018-11-06 情報処理装置、情報処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2020077108A JP2020077108A (ja) 2020-05-21
JP2020077108A5 JP2020077108A5 (ja) 2022-01-04
JP7330683B2 true JP7330683B2 (ja) 2023-08-22

Family

ID=70459185

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018208993A Active JP7330683B2 (ja) 2018-11-06 2018-11-06 情報処理装置、情報処理方法及びプログラム

Country Status (2)

Country Link
US (1) US20200145635A1 (ja)
JP (1) JP7330683B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10600245B1 (en) * 2014-05-28 2020-03-24 Lucasfilm Entertainment Company Ltd. Navigating a virtual environment of a media content item
WO2018147329A1 (ja) * 2017-02-10 2018-08-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 自由視点映像生成方法及び自由視点映像生成システム
JP7085816B2 (ja) * 2017-09-26 2022-06-17 キヤノン株式会社 情報処理装置、情報提供装置、制御方法、及びプログラム
JP7170441B2 (ja) 2018-07-12 2022-11-14 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP7451291B2 (ja) 2020-05-14 2024-03-18 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2022014358A (ja) * 2020-07-06 2022-01-19 キヤノン株式会社 情報処理装置、情報処理装置の制御方法およびプログラム
JP2022032483A (ja) 2020-08-12 2022-02-25 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
US11941729B2 (en) 2020-12-11 2024-03-26 Canon Kabushiki Kaisha Image processing apparatus, method for controlling image processing apparatus, and storage medium
US11765333B1 (en) * 2020-12-16 2023-09-19 Apple Inc. Systems and methods for improved transitions in immersive media
JP2022182119A (ja) * 2021-05-27 2022-12-08 キヤノン株式会社 画像処理装置およびその制御方法、プログラム
US20220398002A1 (en) * 2021-06-11 2022-12-15 Microsoft Technology Licensing, Llc Editing techniques for interactive videos

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015225529A (ja) 2014-05-28 2015-12-14 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2018112997A (ja) 2017-01-13 2018-07-19 キヤノン株式会社 画像処理装置及びその方法、プログラム、画像処理システム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5614956B2 (ja) * 2009-08-11 2014-10-29 株式会社バンダイナムコゲームス プログラム、画像生成システム
JP6643776B2 (ja) * 2015-06-11 2020-02-12 株式会社バンダイナムコエンターテインメント 端末装置及びプログラム
JP6689694B2 (ja) * 2016-07-13 2020-04-28 株式会社バンダイナムコエンターテインメント シミュレーションシステム及びプログラム
JP6539253B2 (ja) * 2016-12-06 2019-07-03 キヤノン株式会社 情報処理装置、その制御方法、およびプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015225529A (ja) 2014-05-28 2015-12-14 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2018112997A (ja) 2017-01-13 2018-07-19 キヤノン株式会社 画像処理装置及びその方法、プログラム、画像処理システム

Also Published As

Publication number Publication date
JP2020077108A (ja) 2020-05-21
US20200145635A1 (en) 2020-05-07

Similar Documents

Publication Publication Date Title
JP7330683B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6539253B2 (ja) 情報処理装置、その制御方法、およびプログラム
JP6849430B2 (ja) 画像処理装置、画像処理方法、及びプログラム
KR102187974B1 (ko) 가상 시점 화상의 생성에 관한 정보 처리 장치, 방법 및 프로그램
US8894486B2 (en) Handheld information processing apparatus and handheld game apparatus
KR101739318B1 (ko) 표시 제어장치, 촬상 시스템, 표시 제어방법, 및 기록 매체
CN112640472B (zh) 信息处理设备、信息处理方法和存储介质
KR102484197B1 (ko) 정보 처리장치, 정보 처리방법 및 기억매체
JP7073092B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP7267753B2 (ja) 制御装置、制御方法、及びプログラム
KR20170062439A (ko) 제어 장치, 제어 방법 및 프로그램
US20210266511A1 (en) Information processing system, information processing method, and storage medium
JP2020205549A (ja) 映像処理装置、映像処理方法、及びプログラム
JP7480377B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2022182836A (ja) 映像処理装置及びその制御方法及びプログラム
JP7455524B2 (ja) 情報処理装置、設定方法、及びプログラム
US20130076618A1 (en) Computer-readable storage medium having stored therein display control program, display control system, display control apparatus, and display control method
JP7403956B2 (ja) 情報処理装置、制御方法、及びプログラム
JP2023175503A (ja) 画像処理装置及びその画像処理方法
JP2017056607A (ja) データ処理装置、データ処理方法、プログラム
WO2022176719A1 (ja) 画像処理装置、画像処理方法及びプログラム
JP7218872B2 (ja) アニメーション制作システム
JP2009258862A (ja) 映像表示装置及び映像表示方法
JP2007207278A (ja) 仮想現実空間共有システム
JP2008078958A (ja) 映像表示プログラムおよび映像表示システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230809

R151 Written notification of patent or utility model registration

Ref document number: 7330683

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151