JP2017191492A - 情報処理装置、情報処理方法および映像生成システム - Google Patents

情報処理装置、情報処理方法および映像生成システム Download PDF

Info

Publication number
JP2017191492A
JP2017191492A JP2016081082A JP2016081082A JP2017191492A JP 2017191492 A JP2017191492 A JP 2017191492A JP 2016081082 A JP2016081082 A JP 2016081082A JP 2016081082 A JP2016081082 A JP 2016081082A JP 2017191492 A JP2017191492 A JP 2017191492A
Authority
JP
Japan
Prior art keywords
image
viewpoint
information processing
processing apparatus
gazing point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016081082A
Other languages
English (en)
Other versions
JP6812128B2 (ja
JP2017191492A5 (ja
Inventor
吉村 雄一郎
Yuichiro Yoshimura
雄一郎 吉村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016081082A priority Critical patent/JP6812128B2/ja
Publication of JP2017191492A publication Critical patent/JP2017191492A/ja
Publication of JP2017191492A5 publication Critical patent/JP2017191492A5/ja
Application granted granted Critical
Publication of JP6812128B2 publication Critical patent/JP6812128B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】自由視点画像の生成のための自由視点設定をユーザが直観的に行えるようにする。【解決手段】情報処理装置300は、自由視点画像に関する視点の三次元的な位置を指定するための第一画像と第二画像とを、それぞれ表示部400に表示させる。また、情報処理装置300は、第一画像上におけるユーザ指示、および第二画像上におけるユーザ指示に基づいて、自由視点画像に関する視点の三次元的な位置を導出する。さらに、情報処理装置300は、さらに、視点から注視点へ向かう軸の水平方向の角度および鉛直方向の角度を導出してもよい。【選択図】 図1

Description

本発明は、被写体に対する任意の視点からの画像を生成するための情報処理装置、情報処理方法および映像生成システムに関する。
従来、スタジアム等に配置した複数のカメラによって撮像された被写体の画像をもとに、カメラの配置位置とは異なる任意の視点からの画像(自由視点画像)を生成するシステムが提案されている。
特許文献1には、ユーザがユーザインタフェース画面(UI画面)を介して指示した視点情報を取得し、取得した視点情報に基づいて、その視点から見た映像を生成する映像生成装置が開示されている。
特開2010−273057号公報
自由視点画像を生成するために、視点の三次元的な位置や視点から注視点への三次元的な方向を決定するといった自由視点設定をユーザが行う場合、当該設定が複雑となるおそれがある。特許文献1に記載の発明では、上記の自由視点設定を直観的に行う方法については全く考慮されていない。
そこで、本発明は、自由視点画像の生成のための自由視点設定をユーザが直観的に行えるようにすることを目的としている。
本発明に係る情報処理装置の一態様は、自由視点画像に関する視点の三次元的な位置を指定するための第一画像と第二画像とを、それぞれ表示手段に表示させる表示制御手段と、前記第一画像上におけるユーザ指示、および前記第二画像上におけるユーザ指示に基づいて、前記自由視点画像に関する視点の三次元的な位置を導出する導出手段と、を備える。
本発明によれば、自由視点画像の生成のための自由視点設定をユーザが直観的に行えるようにすることができる。
映像生成システムの構成例である。 情報処理装置のハードウェア構成図である。 視点の位置および注視点の位置の入力を受け付けるUI画面の一例である。 情報処理装置の動作を説明するフローチャートである。 視点の位置および注視点の位置の入力を受け付けるUI画面の一例である。 視点の位置および注視点の位置の入力を受け付けるUI画面の一例である。
以下、添付図面を参照して、本発明を実施するための形態について詳細に説明する。
なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正または変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。
(第一の実施形態)
図1は、本実施形態における情報処理装置を備える映像生成システムの構成例である。本実施形態では、映像生成システムとして、スタジアムに複数の撮像装置(カメラ)を配置し、これら複数のカメラによって撮像された画像をもとに自由視点画像を生成し、表示するシステムについて説明する。ここで、自由視点画像とは、ユーザが指定した任意の視点から所定の注視点を見た画像である。
映像生成システム100は、複数(n台)のカメラにそれぞれ対応する複数の撮像部200−1〜200−nと、情報処理装置300と、表示部400とを備える。複数のカメラは、スタジアムのフィールドを囲む観客席の所定の位置に所定の間隔で配置され、フィールド上におけるプレーヤー等の被写体を様々な角度で撮像する。撮像部200−1〜200−nは、それぞれ撮像した画像(映像)を情報処理装置300へ出力する。なお、カメラの台数は任意の台数であってよい。
情報処理装置300は、映像取得部301と、映像処理部302と、映像生成部303と、自由視点設定部304と、表示制御部305とを備える。
映像取得部301は、撮像部200−1〜200−nによって撮像された画像を取得する画像取得部であり、取得した画像を映像処理部302に出力する。映像処理部302は、映像取得部301から入力した画像に対して種々の必要な画像補正等の処理を施し、撮像部200−1〜200−nが配置された位置情報とともに一旦ストレージする。映像処理部302によって画像処理がなされ、一旦ストレージされた画像は、映像生成部303に出力される。
映像生成部303は、上記の画像処理後の画像と、後述する自由視点設定部304によって設定された自由視点情報とに基づいて自由視点画像を生成し、表示制御部305に出力する。ここで、自由視点情報は、視点位置情報と、注視点位置情報と、視点から注視点への方向(注視点方向)を示す情報とを含む。視点位置情報および注視点位置情報は、視点および注視点の三次元的な位置を示す情報であり、本実施形態では、水平面に平行な平面をXY平面、水平面に直交する垂直方向(鉛直方向)をZ方向とした場合のXYZ座標値により表す。また、注視点方向は、視点から注視点への三次元的な方向を示す情報であり、視点から注視点へ向かう軸の水平方向の角度(パン角)と鉛直方向の角度(チルト角)とを含む。なお、以下の説明では、鉛直方向を垂直方向ともいう。
自由視点設定部304は、ユーザインタフェース画面(UI画面)を介してユーザにより指定された視点の位置および注視点の位置に関する情報を取得し、取得した情報に基づいて自由視点情報を設定する自由視点設定を行う。そして、自由視点設定部304は、自由視点設定により設定された自由視点情報を、映像生成部303および表示制御部305に出力する。
具体的には、自由視点設定部304は、水平方向取得部311と垂直方向取得部312とを備える。水平方向取得部311は、水平方向における視点の位置および注視点の位置に関する情報を取得し、垂直方向取得部312は、垂直方向における視点の位置および注視点の位置に関する情報を取得する。自由視点設定部304は、水平方向における視点の位置および注視点の位置に関する情報と、垂直方向における視点の位置および注視点の位置に関する情報とに基づいて自由視点設定を行う。
表示制御部305は、表示部400にUI画面を含む表示画面を表示させる表示制御を行う。具体的には、表示制御部305は、水平方向における視点の位置および注視点の位置の入力を受け付け可能なUI画面と、垂直方向における視点の位置および注視点の位置の入力を受け付け可能なUI画面とを表示させる。表示制御部305は、これら2つのUI画面をそれぞれ独立して表示させる。UI画面の表示方法については後で詳述する。
表示部400は、液晶表示装置等の表示装置とタッチパネル等の入力装置とが一体化した、所謂入出力一体型の入出力装置である。この表示部400は、ユーザが操作可能な端末である。なお、本実施形態では、情報処理装置300と表示部400とが別の装置である場合について説明するが、情報処理装置300が表示部400を備えていてもよい。
図2は、情報処理装置300のハードウェア構成を示す図である。情報処理装置300は、CPU31と、ROM32と、RAM33と、外部メモリ34と、I/F部35と、システムバス36とを備える。
CPU31は、情報処理装置300における動作を統括的に制御するものであり、システムバス36を介して、各構成部(32〜35)を制御する。ROM32は、CPU31が処理を実行するために必要なプログラムを記憶する不揮発性メモリである。なお、当該プログラムは、外部メモリ34や着脱可能な記憶媒体(不図示)に記憶されていてもよい。RAM33は、CPU31の主メモリ、ワークエリアとして機能する。つまり、CPU31は、処理の実行に際してROM32から必要なプログラムをRAM33にロードし、ロードしたプログラムを実行することで各種の機能動作を実現する。
外部メモリ34は、CPU31がプログラムを用いた処理を行う際に必要な各種データや各種情報を記憶している。また、外部メモリ34には、CPU31がプログラムを用いた処理を行うことにより得られる各種データや各種情報が記憶される。I/F部35は、外部装置と通信するためのインタフェースである。本実施形態では、外部装置は、上述した撮像部200や表示部400である。システムバス36は、CPU31、ROM32、RAM33、外部メモリ34およびI/F部35を通信可能に接続する。
図1に示す情報処理装置300の各部の機能は、CPU31がプログラムを実行することで実現することができる。ただし、図1に示す情報処理装置300の各部のうち少なくとも一部が専用のハードウェアとして動作するようにしてもよい。この場合、専用のハードウェアは、CPU31の制御に基づいて動作する。
以下、ユーザによる視点位置および注視点位置に関する情報の指示に関し、図3を参照しながら詳細に説明する。
図3(a)は、表示部400に表示される表示画面410の一例である。表示画面410は、ユーザによる視点位置および注視点位置に関する情報の入力を受け付け可能なUI画面である水平方向入力部420および垂直方向入力部430を備える。また、表示画面410は、注視点方向(パン角α、チルト角β)を表示する方向表示部440と、自由視点画像を表示(提供)する映像表示部450とを備える。
水平方向入力部420は、ユーザが水平方向における視点位置と注視点位置とに関する情報を入力可能な領域である。この水平方向入力部420には、所定の注視点に対する視点の設定可能範囲を含む実空間における所定のオブジェクトの位置を、水平面に投影した画像が表示される。本実施形態では、水平方向入力部420には、スタジアム全体(フィールドおよびフィールドを囲む観客席)の画像であるスタジアム水平画像が表示される。フィールドを囲む観客席が、視点の設定可能範囲に相当する。ただし、観客席以外の部分から視点が設定できるようにしてもよい。水平方向入力部420には、フィールドにいる撮像対象となるプレーヤーの動きをリアルタイムで表示することができる。これにより、ユーザは視点に関する設定を容易に行うことができる。ただし、水平方向入力部420に表示される画像は、プレーヤーの動きを反映させなくてもよい。
また、スタジアム水平画像は、上空から観客席に配置されたカメラやフィールド上のプレーヤーを含むスタジアム全体を実際に撮像した画像であってもよいし、実空間を模したコンピュータグラフィックス画像(CG画像)であってもよい。スタジアム水平画像がCG画像である場合、そのCG画像は、実際の撮像画像から作成されてもよいし、プレーヤーに装着された個々のGPSからの情報或いはトラッキング情報により作成されてもよい。
そして、水平方向入力部420においては、ユーザが移動可能な視点マーカー421と注視点マーカー422とが、スタジアム水平画像に重畳される形で表示される。水平方向入力部420には、実空間における水平面に対応する座標系(XY座標)が設定されており、スタジアム水平画像上における視点マーカー421の位置は、実空間における視点の水平方向の位置に対応している。同様に、スタジアム水平画像上における注視点マーカー422の位置は、実空間における注視点の水平方向の位置に対応している。
ユーザは、スタジアム水平画像上で視点マーカー421の位置と注視点マーカー422の位置とを操作することで、水平方向における自由視点画像の視点位置および注視点位置を指定することができる。
ここで、視点マーカー421および注視点マーカー422は、それぞれスタジアム水平画像上の所定の可動範囲内を移動可能である。つまり、水平方向入力部420は、実空間における視点の位置の設定可能範囲および注視点の位置の設定可能範囲にそれぞれ対応した所定の入力可能範囲において、視点の位置および注視点の位置の入力を受け付け可能である。視点位置および注視点位置の入力可能範囲は、実際のスタジアムの形状に応じて設定され得る。
具体的には、例えばユーザは、視点マーカー421を右手500Rの中指で、注視点マーカー422を右手500Rの人差し指でそれぞれドラッグすることで、各マーカーの移動操作を行うことができる。視点マーカー421と注視点マーカー422とは、同時に移動操作されてもよいし、一方ずつ移動操作されてもよい。なお、注視点に関してはユーザが操作を行わず、注視点の位置を固定、或いは、特定のプレーヤーに対して自動追尾としてもよい。つまり、視点に関してのみユーザが任意の位置を指定する操作を行うようにしてもよい。
また、本実施形態では、水平方向入力部420にスタジアム水平画像を表示させるとしたが、水平方向入力部420に表示させる画像はスタジアム水平画像に限定されない。水平方向入力部420に表示させる画像は、所定の注視点に対する視点の設定可能範囲を含む実空間における所定のオブジェクトの位置を、水平面に投影した画像であればよい。例えば、スタジアム全体の形状を認識可能な程度の画像であったり、注視点となる被写体やスタジアムの主要なオブジェクトの位置のみが投影された画像であったりしてもよい。つまり、水平方向入力部420に表示させる画像は、ユーザが視点位置を直観的に指定可能な画像であればよい。
垂直方向入力部430は、スタジアムの垂直方向における視点位置と注視点位置とに関する情報を入力する領域である。垂直方向入力部430には、ユーザが移動可能な視点マーカー431と注視点マーカー432とが表示される。視点マーカー431は、可動範囲433内を移動可能であり、注視点マーカー432は、可動範囲434内を移動可能である。視点マーカー431および注視点マーカー432の可動方向は上下方向であり、スタジアムの垂直方向に対応している。
垂直方向入力部430には、実空間における鉛直面に対応する座標系(Z座標)が設定されており、可動範囲433における視点マーカー431の位置は、実空間における視点の垂直方向の位置に対応している。同様に、可動範囲434における注視点マーカー432の位置は、実空間における注視点の垂直方向の位置に対応している。つまり、垂直方向入力部430には、視点の設定可能範囲を含む実空間における所定のオブジェクト(注視点となる被写体)の位置を鉛直面に投影した画像が表示されるといえる。
ユーザは、視点マーカー431の位置と注視点マーカー432の位置とを操作することで、垂直方向における自由視点画像の視点位置および注視点位置を指定することができる。
ここで、可動範囲433および434は、実空間における視点の位置の設定可能範囲および注視点の位置の設定可能範囲にそれぞれ対応している。このように、垂直方向入力部430は、実空間における視点の位置の設定可能範囲および注視点の位置の設定可能範囲にそれぞれ対応した所定の入力可能範囲において、視点の位置および注視点の位置の入力を受け付け可能である。
例えばユーザは、視点マーカー431や注視点マーカー432を左手500Lの指でドラッグすることで、各マーカーの移動操作を行うことができる。視点マーカー421と注視点マーカー422とは、同時に移動操作されてもよいし、一方ずつ移動操作されてもよい。なお、注視点に関してはユーザが操作を行わず、位置を固定、或いは、特定のプレーヤーに対して自動追尾としてもよい。つまり、視点に関してのみユーザが任意の位置を指定する操作を行うようにしてもよい。
なお、垂直方向入力部430には、水平方向入力部430と同様に、スタジアム全体の垂直画像を表示させてもよい。また、垂直方向入力部430には、スタジアム全体の形状を認識可能な程度の画像や、注視点となる被写体やスタジアムの主要なオブジェクトの位置のみが投影された画像を表示させてもよい。垂直方向入力部430に表示させる画像は、水平方向入力部420と同様に、ユーザが視点位置を直観的に指定可能な画像であればよい。
方向表示部440は、注視点方向を示すパン角αおよびチルト角βを表示する領域である。パン角αおよびチルト角βは、水平方向入力部420および垂直方向入力部430の各マーカーへのユーザ操作により指定された視点位置と注視点位置に関する情報に基づいて、図1の自由視点設定部304により算出された自由視点情報である。
自由視点設定部304は、UI画面を介して取得された視点位置および注視点位置に関する情報に基づいて、視点位置情報(XYZ座標値)および注視点位置情報(XYZ座標値)を導出する。そして、自由視点設定部304は、視点と注視点との三次元的な位置関係により、パン角αおよびチルト角βを算出し、その算出結果を表示制御部305に出力する。このとき、表示制御部305は、自由視点設定部304により算出されたパン角αおよびチルト角βを方向表示部440に表示させる。
ここで、パン角αは、基準となるカメラ方向と、視点Cから注視点Tへの方向との水平方向におけるなす角である。基準となるカメラ方向を、図3(a)の水平方向入力部420に示す方向423とした場合、パン角αは、方向423と、視点マーカー421から注視点マーカー422への方向424とのなす角に相当する。また、チルト角βは、図3(b)に示すように、水平方向(図3(b)の左右方向)と視点Cから注視点Tへの方向との垂直方向におけるなす角である。
このように、4個のマーカー操作により、自由視点画像の視点の三次元的な位置(XYZ座標)と、自由視点画像の視点から注視点への三次元的な方向(パン角α、チルト角β)との設定に必要な情報を入力することができる。
映像表示部450は、自由視点画像を表示(提供)する領域である。自由視点画像は、図1の自由視点設定部304が算出した自由視点情報に基づいて、映像生成部303により生成された画像である。映像生成部303は、自由視点設定部304から入力した自由視点情報に基づいて、映像処理部302により画像処理された複数のカメラの撮像画像をもとに自由視点画像を生成し、生成した自由視点画像を表示制御部305に出力する。このとき、表示制御部305は、映像生成部303により生成された自由視点画像を映像表示部450に表示させる。つまり、映像表示部450には、ユーザが水平方向入力部420および垂直方向入力部430の各マーカーを操作して指定した視点位置と注視点位置とに対応した自由視点画像が表示される。
このように、情報処理装置300は、ユーザが、水平方向と垂直方向とのそれぞれについて独立に視点位置と注視点位置とに関する情報を指示することができるUI画面(420、430)を表示部400に表示させる表示制御を行う。したがって、ユーザは、視聴したい自由視点画像をイメージしながら、水平方向のみの操作に集中して自由視点設定を行ったり、垂直方向のみの操作に集中して自由視点設定を行ったりすることができる。
次に、情報処理装置300の動作について、図4を参照しながら具体的に説明する。
図4に示す処理は、例えばユーザによる指示入力に応じて開始される。ただし、図7の処理の開始タイミングは、上記のタイミングに限らない。情報処理装置300は、CPU31が必要なプログラムを読み出して実行することにより、図4に示す各処理を実現することができる。ただし、上述したように、図1に示す各要素のうち少なくとも一部が専用のハードウェアとして動作することで図4の処理が実現されるようにしてもよい。この場合、専用のハードウェアは、CPU31の制御に基づいて動作する。以降、アルファベットSはフローチャートにおけるステップを意味するものとする。
まずS1において、映像処理部302は、複数の撮像部200−1〜200−nにより撮像された画像を取得する。次にS2において、映像処理部302は、S1において取得した画像に対して種々の必要な画像補正等の処理を行い、画像を撮像した撮像部200の配置された位置情報とともにストレージする。
S3では、自由視点設定部304は、ユーザが指定した視点位置に関する情報および注視点位置に関する情報を取得し、視点位置情報および注視点位置情報を算出する。具体的には、表示制御部305は、水平方向入力部420に、実空間における所定のオブジェクトの位置を水平面に投影した画像を表示させ、垂直方向入力部430に、実空間における所定のオブジェクトの位置を鉛直面に投影した画像を表示させる。そして、水平方向取得部311は、水平方向入力部420の画像上でユーザにより指定された視点および注視点の水平方向における位置に関する情報を取得する。また、垂直方向取得部312は、垂直方向入力部430の画像上でユーザにより指定された視点および注視点の垂直方向における位置に関する情報を取得する。そして、自由視点設定部304は、これらの取得した情報に基づいて、視点および注視点の三次元的な位置を算出する。
S4では、自由視点設定部304は、S3において算出された視点位置情報および注視点位置情報に基づいて、注視点方向(パン角α、チルト角β)を算出する。また、このとき表示制御部305は、自由視点設定部304により算出された注視点方向を表示部400に出力することで、方向表示部440に注視点方向を表示させる。
S5では、映像生成部303は、S3において算出された視点位置情報および注視点位置情報と、S4において算出された注視点方向とに基づいて、自由視点画像を生成する。次に、S6では、表示制御部303は、S5において生成された自由視点画像を表示部400に出力することで、映像表示部450に自由視点画像を表示(提供)させる。S7では、情報処理装置300は、処理を終了するか否かを判定し、処理を終了しないと判定した場合にはS3に戻り、処理を終了すると判定した場合には図4の処理を終了する。
以上のように、本実施形態における情報処理装置300は、スタジアム全体の水平画像や垂直画像といった、実空間における所定のオブジェクトの位置を水平面に投影した第一画像と鉛直面に投影した第二画像とを、それぞれ表示部400に表示させる。また、情報処理装置300は、第一画像上でユーザにより指定された、所定の注視点に対する視点の位置に関する情報を、水平方向における視点の位置に関する情報として取得する。同様に、情報処理装置300は、第二画像上でユーザにより指定された視点の位置に関する情報を、鉛直方向における視点の位置に関する情報として取得する。そして、情報処理装置300は、取得したこれらの情報に基づいて、視点の三次元的な位置と、視点から注視点への三次元的な方向とを導出する。
また、情報処理装置300は、導出された視点の三次元的な位置と、視点から所定の注視点への三次元的な方向とに基づいて、視点から注視点を見た自由視点画像を生成する。ここで、情報処理装置300は、上記の三次元的な方向として、視点から注視点へ向かう軸の水平方向の角度および垂直方向(鉛直方向)の角度を導出する。
つまり、ユーザは、自由視点画像の視点の三次元位置や視点から注視点へのパン角およびチルト角を直接設定することなしに、水平方向と垂直方向とについてそれぞれ視点と注視点との位置を独立に直接指定することにより、自由視点設定を行うことができる。このように、情報処理装置300は、自由視点画像の生成に必要な自由視点設定を効率的に行うことができ、ユーザが視聴したい自由視点画像を適切に生成することができる。また、ユーザは、上記の第一画像上および第二画像上において視点の位置を指定することができるので、三次元的な指示位置を直観的に操作することできる。
ここで、第一画像および第二画像の少なくとも一方は、カメラ等の撮像手段によって撮像された実空間の画像であってもよいし、実空間を模したコンピュータグラフィックス画像(CG画像)であってもよい。いずれの場合にも、ユーザは直観的に視点位置を指定することが可能となる。第一画像および第二画像はリアルタイム画像であってもよい。この場合、ユーザは、実際のプレーヤーの動きに対応した位置に視点位置や注視点位置を設定することができる。
また、第一画像や第二画像が実空間の撮像画像である場合には、ユーザは、実空間におけるオブジェクトの正確な位置を確認しながら視点位置を指定することができる。一方、第一画像や第二画像がCG画像である場合には、スタジアム全体を上空から撮像する必要がなく、また、スタジアム全体のうち着目すべきオブジェクトを強調表示するなどの加工も容易である。
また、情報処理装置300は、水平面に対応する座標系(XY座標)が設定され、第一画像上で視点の位置の入力を受け付け可能なUI画面を表示させる表示制御を行う。さらに、情報処理装置300は、鉛直面に対応する座標系(Z座標)が設定され、第二画像上で視点の位置の入力を受け付け可能なUI画面を表示させる表示制御を行う。
したがって、ユーザは、水平方向と垂直方向とについてそれぞれ独立して指示位置を操作することができる。そのため、ユーザは、水平方向のみの操作に集中して自由視点設定を行ったり、垂直方向のみの操作に集中して自由視点設定を行ったりすることができ、適切な自由視点設定が可能となる。また、UI画面上の指示位置がそのまま実空間における視点位置に対応しているため、ユーザは直観的に自由視点設定を行うことができる。
さらに、情報処理装置300は、第一画像上で視点の位置の入力を受け付けるUI画面と、第二画像上で視点の位置の入力を受け付けるUI画面とを、1つの表示画面410中にそれぞれ独立して表示させる表示制御を行う。具体的には、情報処理装置300は、図3(a)に示すように、1画面中に水平方向入力部420と垂直方向入力部430といった2つの操作面を表示させる。したがって、ユーザは、図3(a)に示すように、水平方向入力部420において右手500Rで水平方向の自由視点設定を行い、垂直方向入力部430において左手500Lで垂直方向の自由視点設定を行うといった操作が可能となる。このように、ユーザは、効率的に自由視点設定を行うことができる。
また、ユーザは、自由視点設定操作として、任意の視点位置の入力操作に加えて、任意の注視点位置の入力操作を行うことができる。つまり、視点の位置の入力を受け付け可能なUI画面である水平方向入力部420および垂直方向入力部430は、さらに注視点の位置の入力も受け付け可能なUI画面であってもよい。
このように、1つのUI画面で視点位置の入力と注視点位置の入力とを受け付け可能にすることで、ユーザは効率的かつ直観的に指示位置を操作することができる。また、ユーザが視聴したい任意の被写体の位置を注視点の位置として設定することができるので、より適切な自由視点設定が可能となる。さらに、注視点の垂直方向における位置の入力を受け付け可能とすることで、注視点の垂直方向における位置が固定の場合と比較して自由視点画像の表示可能範囲を拡げることができる。
さらに、情報処理装置300は、実空間における視点の位置および注視点の位置の設定可能範囲に対応した入力可能範囲において、視点の位置および注視点の位置の入力を受け付け可能としてもよい。つまり、情報処理装置300は、スタジアムの観客席に対応した第一画像上の範囲において、視点の位置の入力を受け付け可能としたり、スタジアムのフィールドに対応した第一画像上の範囲において注視点の入力を受け付け可能としたりしてもよい。これにより、情報処理装置300は、ユーザが指定した視点および注視点に対応する自由視点画像を適切に生成することができる。
また、自由視点画像の生成に際し、情報処理装置300は、被写体を異なる位置から撮像する複数の撮像装置(カメラ)によりそれぞれ撮像された画像を取得し、取得された画像をもとに自由視点画像を生成する。そのため、情報処理装置300は、ユーザが実際のカメラの設置位置とは異なる仮想視点を指定した場合であっても、ユーザが視聴したい自由視点画像を適切に生成することができる。
また、情報処理装置300は、生成された自由視点画像を表示部400に表示させる表示制御を行う。このように、情報処理装置300は、ユーザが指定した視点および注視点に対応する自由視点画像をユーザに提供するので、ユーザは、自由視点画像を確認しながら視点位置および注視点位置の調整を行うことができる。
以上のように、本実施形態における情報処理装置300は、自由視点画像の生成に必要な自由視点設定に際し、自由視点画像に関する視点の三次元的な位置を指定するための第一画像と第二画像とを、それぞれ表示部に表示させる。そして、情報処理装置300は、第一画像上におけるユーザ指示、および第二画像上におけるユーザ指示に基づいて、自由視点画像に関する視点の三次元的な位置を導出する。
具体的には、情報処理装置300は、視点位置と注視点位置とを水平方向(XY平面)と垂直方向(Z方向)とで独立に入力可能な2つのUI画面を表示させる。したがって、ユーザは、三次元的な指示位置を効率的かつ直観的に操作することができる。また、ユーザは、被写体全体のリアルタイム画像に対し、水平方向と垂直方向とについて視点と注視点とを独立に直接指定することもできるので、追従性のある動的な自由視点設定操作が可能となる。
また、情報処理装置300は、UI画面を介してユーザ指示を受け付け、水平方向と垂直方向とについてそれぞれ視点位置と注視点位置に関する情報を取得する。そして、情報処理装置300は、取得した情報に基づいて、視点位置および注視点位置の三次元的な位置(XYZ座標)と、視点から注視点への三次元的な方向(パン角、チルト角)とを導出する。したがって、複雑な操作や演算を伴うことなく、被写体に対する任意視点からの映像を適切に生成する映像生成システムを実現することができる。
なお、上述した実施形態では、情報処理装置300は、ユーザが指示した自由視点画像の視点および注視点の位置に関する情報を取得する場合について説明した。以下の実施形態では、情報処理装置300が、さらにユーザが指示した自由視点画像の回転に関する情報を取得する場合について説明する。
図5は、本実施形態における表示部400に表示される表示画面411の一例である。図5において、上述した表示画面410と同一部分には同一符号を付し、以下、表示画面410とは異なる部分を中心に説明する。
表示画面411の垂直方向入力部430には、垂直方向における視点位置を指定するための視点マーカー435が表示される。視点マーカー435は、可動範囲433内における上下移動の操作に加えて、回転操作が可能なマーカーであり、ユーザは、必要に応じて視点マーカー435に対して回転角γを指示することができる。
ここで、回転角γは、自由視点画像の回転角、つまり、視点から注視点へ向かう軸回りの回転角に相当する。自由視点設定部304は、UI画面を介して取得された自由視点画像の回転に関する情報に基づいて回転角γを導出し、回転角γを表示制御部305に出力する。このとき、表示制御部305は、自由視点設定部304により導出された回転角γを方向表示部441に表示させる。したがって、方向表示部441には、パン角αおよびチルト角βに加えて、回転角γが表示される。
以上のように、情報処理装置300は、表示画面411に、自由視点画像の回転に関する情報を操作する環境を追加する。情報処理装置300は、UI画面を介してユーザが指示した自由視点画像の回転に関する情報(回転角γ)を取得する。そして、情報処理装置300は、回転角γに基づいて、視点から注視点を見た自由視点画像を生成する。したがって、ユーザが視聴したい自由視点画像をより適切に生成することができる。
また、回転角γは、垂直方向における視点位置を指定するための視点マーカー435を用いて指示することができる。つまり、垂直方向入力部430は、自由視点画像の回転に関する情報を取得するための回転情報取得機能を有する。このように、ユーザは、垂直方向における視点位置に関する情報と自由視点画像の回転に関する情報とを共通のマーカーを用いて指示することができるので、自由視点設定を効率的に行うことができる。さらに、回転操作が可能なマーカーを用いて回転角γを指示することができるので、ユーザは直観的な操作が可能となる。
続いて、実空間におけるカメラの位置を示す情報を含むUI画面を表示させる場合について説明する。
図6は、本実施形態における表示部400に表示される表示画面412の一例である。図6において、上述した表示画面410および411と同一部分には同一符号を付し、以下、表示画面410および411とは異なる部分を中心に説明する。
本実施形態では、表示画面412の水平方向入力部420と垂直方向入力部430とにおいて、実際のスタジアムにおけるカメラの設置位置を考慮した位置情報の入力を可能とする。具体的には、水平方向入力部420には、実際のカメラの水平方向における設置位置を示す情報を表示する。また、垂直方向入力部430には、実際のカメラの垂直方向における設置位置を示す情報を表示する。
図6では、実際のスタジアムにおいて、カメラがフィールドを囲む観客席に3列に配置されている場合の表示画面412を示している。3列のカメラは、観客席の上下方向および前後方向に位置をずらして配置されている。具体的には、下段のカメラが最前列に配置され、上段のカメラが最後列に配置されている。
このように3列のカメラが配置されている場合、図6に示すように、水平方向入力部420には、3列のカメラの水平方向における設置位置を示す情報が表示される。本実施形態では、水平方向入力部420には、上段のカメラの水平方向の設置位置に「上」、中段のカメラの水平方向の設置位置に「中」、下段のカメラの水平方向の設置位置に「下」を表示している。同様に、垂直方向入力部430には、上段のカメラの垂直方向の設置位置に「上」、中段のカメラの垂直方向の設置位置に「中」、下段のカメラの垂直方向の設置位置に「下」を表示している。
以上のように、本実施形態における情報処理装置300は、視点位置や注視点位置の入力を受け付け可能なUI画面に、自由視点画像の生成に用いる画像を撮像する複数のカメラの位置を示す情報を表示させる表示制御を行う。これにより、ユーザは、UI画面の表示に従って、実際のカメラの設置位置に視点位置を設定することが可能となる。なお、カメラ配置は上記3列に限られるものではなく、実際のスタジアムの形状に応じた更に多段の配列にも対応する構成であってもよい。
(変形例)
上記各実施形態においては、ユーザは、4個のマーカー操作により、視点位置および注視点位置を指定する場合について説明したが、視点位置および注視点位置の指定方法は上記に限定されない。上述したように、注視点位置を固定、或いは、特定のプレーヤーに対して自動追尾とする場合には、視点位置を水平方向と垂直方向とでそれぞれ指定するための2個のマーカーを用意すればよい。
また、上記各実施形態においては、ユーザは、タッチパネル操作により視点位置および注視点位置に関する情報を指定する場合について説明した。しかしながら、ユーザ端末がPC等である場合、キーボードやマウス等のポインティングデバイスを操作して視点位置および注視点位置に関する情報や、自由視点画像の回転に関する情報を指示してもよい。
さらに、上記各実施形態においては、スタジアムに配置した複数のカメラの撮像画像から自由視点画像を生成する映像生成システムについて説明したが、スタジアムに限定されるものではなく、コンサートホール等の施設にも適用可能である。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100…映像生成システム、200−1〜200−n…撮像部、300…情報処理装置、301…映像取得部、302…映像処理部、303…映像生成部、304…自由視点設定部、305…表示制御部、311…水平方向取得部、312…垂直方向取得部、400…表示部

Claims (16)

  1. 自由視点画像に関する視点の三次元的な位置を指定するための第一画像と第二画像とを、それぞれ表示手段に表示させる表示制御手段と、
    前記第一画像上におけるユーザ指示、および前記第二画像上におけるユーザ指示に基づいて、前記自由視点画像に関する視点の三次元的な位置を導出する導出手段と、
    を備えることを特徴とする情報処理装置。
  2. 前記第一画像および前記第二画像の少なくとも一方は、撮像手段によって撮像された実空間の画像であることを特徴とする請求項1に記載の情報処理装置。
  3. 前記第一画像および前記第二画像の少なくとも一方は、実空間を模したコンピュータグラフィックス画像であることを特徴とする請求項1に記載の情報処理装置。
  4. 前記導出手段は、さらに、前記視点から注視点へ向かう軸の水平方向の角度および鉛直方向の角度を導出することを特徴とする請求項1から3のいずれか1項に記載の情報処理装置。
  5. 前記導出手段は、前記第一画像上におけるユーザ指示、および前記第二画像上におけるユーザ指示に基づいて注視点の三次元的な位置をさらに導出することを特徴とする請求項1から4のいずれか1項に記載の情報処理装置。
  6. 前記表示制御手段は、
    前記第一画像上で前記視点の位置の入力を受け付け可能な第一のユーザインタフェース画面と、
    前記第二画像上で前記視点の位置の入力を受け付け可能な第二のユーザインタフェース画面と、を表示させることを特徴とする請求項1から5のいずれか1項に記載の情報処理装置。
  7. 前記表示制御手段は、
    実空間における前記視点の設定可能範囲に対応した入力可能範囲において、前記視点の位置の入力を受け付け可能な前記第一のユーザインタフェース画面および前記第二のユーザインタフェース画面を表示させることを特徴とする請求項6に記載の情報処理装置。
  8. 前記第一のユーザインタフェース画面および前記第二のユーザインタフェース画面は、さらに前記注視点の位置の入力を受け付け可能であることを特徴とする請求項6または7に記載の情報処理装置。
  9. 前記導出手段により導出された前記視点の三次元的な位置と、前記視点から前記注視点への三次元的な方向とに基づいて、前記視点から前記注視点を見た自由視点画像を生成する生成手段をさらに備えることを特徴とする請求項1から8のいずれか1項に記載の情報処理装置。
  10. 被写体を異なる位置から撮像する複数の撮像手段によりそれぞれ撮像された画像を取得する画像取得手段をさらに備え、
    前記生成手段は、前記画像取得手段により取得された画像をもとに、前記自由視点画像を生成することを特徴とする請求項9に記載の情報処理装置。
  11. 前記第一画像および前記第二画像の少なくとも一方は、前記複数の撮像手段の位置を示す情報を含むことを特徴とする請求項10に記載の情報処理装置。
  12. 前記自由視点画像の回転に関する情報を取得する回転情報取得手段をさらに備え、
    前記生成手段は、さらに前記回転情報取得手段により取得された情報に基づいて、前記自由視点画像を生成することを特徴とする請求項9から11のいずれか1項に記載の情報処理装置。
  13. 前記表示制御手段は、前記生成手段により生成された前記自由視点画像を前記表示手段に表示させることを特徴とする請求項9から12のいずれか1項に記載の情報処理装置。
  14. 被写体を異なる位置から撮像する複数の撮像手段と、
    請求項1から13のいずれか1項に記載の情報処理装置と、
    前記視点から注視点を見た自由視点画像を提供する提供手段と、を備えることを特徴とする映像生成システム。
  15. 自由視点画像に関する視点の三次元的な位置を指定するための第一画像と第二画像とを、それぞれ表示手段に表示させるステップと、
    前記第一画像上におけるユーザ指示、および前記第二画像上におけるユーザ指示に基づいて、前記自由視点画像に関する視点の三次元的な位置を導出するステップと、を含むことを特徴とする情報処理方法。
  16. コンピュータを、請求項1から13のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2016081082A 2016-04-14 2016-04-14 情報処理装置および情報処理方法 Active JP6812128B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016081082A JP6812128B2 (ja) 2016-04-14 2016-04-14 情報処理装置および情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016081082A JP6812128B2 (ja) 2016-04-14 2016-04-14 情報処理装置および情報処理方法

Publications (3)

Publication Number Publication Date
JP2017191492A true JP2017191492A (ja) 2017-10-19
JP2017191492A5 JP2017191492A5 (ja) 2019-05-16
JP6812128B2 JP6812128B2 (ja) 2021-01-13

Family

ID=60086279

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016081082A Active JP6812128B2 (ja) 2016-04-14 2016-04-14 情報処理装置および情報処理方法

Country Status (1)

Country Link
JP (1) JP6812128B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6362757B1 (ja) * 2017-11-20 2018-07-25 ヤフー株式会社 情報表示プログラム、情報表示方法、情報表示装置、及び配信装置
JP2019152903A (ja) * 2018-02-28 2019-09-12 キヤノン株式会社 情報処理装置およびその制御方法
JP2019197279A (ja) * 2018-05-07 2019-11-14 キヤノン株式会社 画像処理装置、画像処理装置の制御方法及びプログラム
WO2020045186A1 (ja) * 2018-08-31 2020-03-05 キヤノン株式会社 情報処理装置、方法、及びプログラム
JP2020036293A (ja) * 2018-08-31 2020-03-05 キヤノン株式会社 処理装置、制御方法、及びプログラム
JP2020042407A (ja) * 2018-09-07 2020-03-19 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
WO2020262392A1 (ja) * 2019-06-28 2020-12-30 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004005513A (ja) * 2002-03-27 2004-01-08 Matsushita Electric Works Ltd インターネットを用いたcgパース図作成方法とそのためのシステム
JP2011135138A (ja) * 2009-12-22 2011-07-07 Canon Inc 映像再生装置及びその制御方法
JP2011138355A (ja) * 2009-12-28 2011-07-14 Nintendo Co Ltd 情報処理プログラム、情報処理装置および情報処理方法
JP2014215828A (ja) * 2013-04-25 2014-11-17 シャープ株式会社 画像データ再生装置、および視点情報生成装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004005513A (ja) * 2002-03-27 2004-01-08 Matsushita Electric Works Ltd インターネットを用いたcgパース図作成方法とそのためのシステム
JP2011135138A (ja) * 2009-12-22 2011-07-07 Canon Inc 映像再生装置及びその制御方法
JP2011138355A (ja) * 2009-12-28 2011-07-14 Nintendo Co Ltd 情報処理プログラム、情報処理装置および情報処理方法
JP2014215828A (ja) * 2013-04-25 2014-11-17 シャープ株式会社 画像データ再生装置、および視点情報生成装置

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019095909A (ja) * 2017-11-20 2019-06-20 ヤフー株式会社 情報表示プログラム、情報表示方法、情報表示装置、及び配信装置
JP6362757B1 (ja) * 2017-11-20 2018-07-25 ヤフー株式会社 情報表示プログラム、情報表示方法、情報表示装置、及び配信装置
JP7045218B2 (ja) 2018-02-28 2022-03-31 キヤノン株式会社 情報処理装置および情報処理方法、プログラム
JP2019152903A (ja) * 2018-02-28 2019-09-12 キヤノン株式会社 情報処理装置およびその制御方法
JP2019197279A (ja) * 2018-05-07 2019-11-14 キヤノン株式会社 画像処理装置、画像処理装置の制御方法及びプログラム
JP7164968B2 (ja) 2018-05-07 2022-11-02 キヤノン株式会社 画像処理装置、画像処理装置の制御方法及びプログラム
JP7129283B2 (ja) 2018-08-31 2022-09-01 キヤノン株式会社 処理装置、制御方法、及びプログラム
JP2020036293A (ja) * 2018-08-31 2020-03-05 キヤノン株式会社 処理装置、制御方法、及びプログラム
WO2020045186A1 (ja) * 2018-08-31 2020-03-05 キヤノン株式会社 情報処理装置、方法、及びプログラム
US11627256B2 (en) 2018-08-31 2023-04-11 Canon Kabushiki Kaisha Information processing apparatus, method, and non-transitory computer-readable storage medium
JP2020042407A (ja) * 2018-09-07 2020-03-19 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP7207913B2 (ja) 2018-09-07 2023-01-18 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
WO2020262392A1 (ja) * 2019-06-28 2020-12-30 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
US11985294B2 (en) 2019-06-28 2024-05-14 Fujifilm Corporation Information processing apparatus, information processing method, and program

Also Published As

Publication number Publication date
JP6812128B2 (ja) 2021-01-13

Similar Documents

Publication Publication Date Title
JP6812128B2 (ja) 情報処理装置および情報処理方法
RU2643445C2 (ru) Устройство управления отображением и считываемый компьютером носитель записи
KR101813834B1 (ko) 화상처리장치, 화상처리방법 및 화상처리프로그램과 촬영보조기재
US10095458B2 (en) Information processing apparatus, information processing method, non-transitory computer-readable storage medium, and system
US10051244B2 (en) Display image formation device and display image formation method
JP2006127158A (ja) 画像処理方法、画像処理装置
US10713488B2 (en) Inspection spot output apparatus, control method, and storage medium
JP2016162392A (ja) 3次元画像処理装置および3次元画像処理システム
JP2013214275A (ja) 三次元位置指定方法
US10901213B2 (en) Image display apparatus and image display method
JP2019046055A5 (ja)
JP2018010473A (ja) 画像処理装置、画像処理方法、および画像処理プログラム
JP5830055B2 (ja) 画像処理装置および画像処理システム
EP3944228A1 (en) Electronic device, method for controlling electronic device, program, and storage medium
WO2014174630A1 (ja) マルチモニタ、マルチモニタの表示方法
JP2006018444A (ja) 画像処理システム及び付加情報指示装置
JP6314564B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
JP2017123589A (ja) 情報処理装置、情報処理方法および映像投影システム
JP6685814B2 (ja) 撮像装置およびその制御方法
US20210321036A1 (en) Information processing apparatus, control method therefor, and storage medium
JPH07160412A (ja) 指示位置検出方法
JP6443505B2 (ja) プログラム、表示制御装置及び表示制御方法
JP2013257830A (ja) 情報処理装置
JP2020014177A (ja) 情報処理装置、情報処理方法及びプログラム
JP2009258862A (ja) 映像表示装置及び映像表示方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190402

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190402

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200604

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201216

R151 Written notification of patent or utility model registration

Ref document number: 6812128

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151