JP2022182836A - 映像処理装置及びその制御方法及びプログラム - Google Patents

映像処理装置及びその制御方法及びプログラム Download PDF

Info

Publication number
JP2022182836A
JP2022182836A JP2021090584A JP2021090584A JP2022182836A JP 2022182836 A JP2022182836 A JP 2022182836A JP 2021090584 A JP2021090584 A JP 2021090584A JP 2021090584 A JP2021090584 A JP 2021090584A JP 2022182836 A JP2022182836 A JP 2022182836A
Authority
JP
Japan
Prior art keywords
virtual viewpoint
subject
line
sight
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021090584A
Other languages
English (en)
Inventor
和文 小沼
Kazufumi Konuma
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021090584A priority Critical patent/JP2022182836A/ja
Priority to US17/742,464 priority patent/US12051148B2/en
Publication of JP2022182836A publication Critical patent/JP2022182836A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Abstract

【課題】 本開示は、被写体の視線に合った仮想視点映像を生成する。【解決手段】 複数の撮像部より得た映像に基づき、仮想視点映像を生成する映像処理装置であって、被写体が向けるべき位置を特定する情報を作成する作成部と、作成部が作成した情報に従って、被写体が向けるべき位置を表すシンボルを表示している間に、複数の撮像部から映像を取得し、所定の記憶部に格納する撮像制御部と、記憶部に格納された映像から被写体の位置を特定し、シンボルを表示する位置を仮想視点の位置とし、当該仮想視点の位置と被写体の位置に向けられる方向を、仮想視点からの視線方向とし、仮想視点の位置と仮想視点からの視線方向に基づいて、仮想視点からの見えを表す仮想視点映像を生成する生成部とを備える。【選択図】 図1

Description

本開示は、仮想視点映像を生成する技術に関するものである。
複数のカメラによる撮像で得た画像から、ユーザが指定した仮想視点から見た画像を作りだし、仮想視点映像として再生することができる仮想視点映像生成システムがある。例えば、特許文献1である。この文献に開示されたシステムは、複数のカメラで撮像した画像を伝送したのち、画像コンピューティングサーバ(画像処理装置)で、撮像した画像のうち変化が大きいものを前景画像とし、変化が小さいものを背景画像として抽出する。そして、システムは、抽出した前景画像に基づき被写体の三次元モデルの形状を推定・生成し、前景画像、背景画像と共に蓄積装置に蓄積するものである。これら前景画像、背景画像は仮想視点映像を生成するための素材と呼ばれる。そして、ユーザが指定した仮想視点に基づいて蓄積装置から適切なデータを取得し、仮想視点映像を生成する。
仮想視点映像を用いたコンテンツとして、歌手などの被写体を撮影し、リアルタイムにエンドユーザに配信するようなことが考えられる。
特開2019-050593号公報
このような、被写体の映像を撮影配信する際には、その被写体の視線をカメラの方向に向けるカメラ目線という演出が一般的に行われる。しかしながら、仮想視点映像の場合、被写体(演者)にとっては仮想視点の位置は不明であるため、その位置に視線を送ることは困難となる。
一方で撮影領域内に仮想視点の位置を示す表示器を用いるなどの手法も考えられる。しかしながら、仮想視点映像の生成には撮影データから三次元モデルを生成し、そのうえで仮想視点の情報に基づき映像を生成するため、撮影してから仮想視点映像が生成されるまでに数秒程度の遅延が存在する。そのため、実際に映像が生成されている仮想視点を表示したとしても、数秒時間のずれた仮想視点に対して視線を送ることとなり、視線を送ることとは困難である。
また、画像認識技術を用いて視線を検出しその方向に仮想視点を移動させるなどの方法も考えられるが、被写体の細かい視線の動きに仮想視点が反応してしまう可能性や、振り向き動作などの視線移動に対応が困難である。
本開示では、上記問題を解決する技術を提供する。そのため、本開示における映像処理装置は以下の構成を備える。すなわち、
複数の撮像手段より得た映像に基づき、仮想視点映像を生成する映像処理装置であって、
被写体が向けるべき位置を特定する情報を作成する作成手段と、
前記作成手段が作成した情報に従って、前記被写体が向けるべき位置を表すシンボルを表示している間に、前記複数の撮像手段から映像を取得し、所定の記憶手段に格納する撮像制御手段と、
前記記憶手段に格納された映像から前記被写体の位置を特定し、前記シンボルを表示する位置を仮想視点の位置とし、当該仮想視点の位置と前記被写体の位置に向けられる方向を、前記仮想視点からの視線方向とし、前記仮想視点の位置と前記仮想視点からの視線方向に基づいて、前記仮想視点からの見えを表す仮想視点映像を生成する生成手段とを備える。
本開示によれば、被写体の視線に合った仮想視点映像を生成することが可能になる。
第1の実施形態におけるシステム構成図。 第1の実施形態における被写体と視線指示と視線情報の関係を示す図。 視線情報生成の処理フローを示す図。 視線情報を利用した映像生成の処理フローを示す図。 現在の仮想視点と視点情報に基づく仮想視点をつなぐ仮想視点を示す図。 複数被写体における視線情報と仮想視点での画角との関係を示す図。 複数の視線指示と視線指示の表示例を示す図。 適用可能なコンピュータのハードウェアの構成例を示すブロック図。
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
[第1の実施形態]
<基本的なシステム構成と動作>
本実施形態に係わる仮想視点映像を生成する映像処理システムの構成を図1に示す。本システムは、複数の撮像部1、同期部2、三次元形状推定部3、蓄積部4、仮想視点操作部5、仮想視点設定部6、映像生成部7、表示部8、視線指示部9、被写体位置検出部10、視線情報生成部11を含んで構成される。なお、本システムは、1つの電子機器によって構成されてもよいし、複数の電子機器によって構成されてもよい。
次に本システムの各構成の動作の概略を説明し、その後、本実施形態における特徴的な構成に関して詳細を説明する。まず複数の撮像部1が、同期部3からの同期信号に基づいて互いに高精度に同期して撮像を行う。同期部3は例えば1/30秒間隔で同期信号を出力した場合、撮像部1それぞれは、1/30秒の間隔で同期し撮像を行うことになる。撮像部1は、撮影して得た撮影画像を三次元形状推定部3に出力する。なお、複数の撮像部1は、被写体を複数の視点位置と複数の方向から撮影するために、被写体を囲むように設置されている。
三次元形状推定部3は、入力された複数視点の撮像画像を用いて、たとえば被写体のシルエットを抽出したうえで、視体積交差法などを用いて被写体三次元モデルを生成する。そして、三次元形状推定部3は、生成した被写体三次元モデル及び被写体撮像画像を、蓄積部4に出力する。またこのときの被写体とは三次元形状モデル生成の対象となる人物やそれら人物が扱う物品などが含まれるが、本実施形態では、単純化するため、被写体は人物のみであるとして説明を行う。
蓄積部4は、仮想視点映像素材として以下のデータ群を保存・蓄積する。具体的には、三次元形状推定部3から入力された被写体撮影画像及び被写体三次元モデルである。また、各撮像部の位置姿勢及び光学特性などのカメラパラメータである。また、背景を描画するためにあらかじめ背景モデルと背景テクスチャ画像などを記録しておいてもよいが、本実施形態の主眼ではないので、ここでは背景に関しては言及しない。
仮想視点操作部5は、ジョイスティックなどの物理的なユーザインターフェースや、数値データの操作部を備え、それらの入力情報を仮想視点設定部6に供給する。
仮想視点設定部6は、仮想視点操作部5からの入力情報に基づき仮想視点位置情報を設定し、映像生成部7に供給する。仮想視点位置情報とは、仮想視点の位置姿勢などのカメラの外部パラメータに相当する情報と、焦点距離や画角といったカメラの内部パラメータに相当する情報、及び、時刻に関する情報で構成される。
映像生成部7は、入力された仮想視点位置及び時刻の情報に基づき、蓄積部4から該当時刻のデータを取得する。映像生成部7は、取得したデータのうち被写体三次元モデルおよび被写体撮影画像から仮想視点における被写体を描画し仮想視点映像を生成し表示部8に出力する。このとき、被写体と共に背景モデルと背景テクスチャ画像から仮想視点における背景を描画してもよい。
<本実施形態の特徴的な構成の動作>
次に実施形態における特徴的な構成要素とその具体的な動作を説明する。説明にあたり、視線情報の生成及び蓄積までの説明と、視線情報を用いた映像生成の説明の二つに分けて説明を行う。
まず視線情報生成に関する本実施形態の特徴的な構成要素となる視線指示部9、被写体位置検出部10、視線情報生成部11の機能について説明する。
本実施形態における視線指示部9は、ディスプレイやプロジェクタなどの表示装置と、その表示装置に表示する映像を時系列で管理・制御する表示制御装置からなる。以後、視線指示部9に関しては特に断りがなければ表示装置部分を指すものとする。視線指示部9は、撮影領域内またはその周囲に配置される表示装置であり、被写体から可視の視点指示の位置を表すシンボルを表示する。表示するシンボルとしては、例えば丸印や十字などのマークで良い。
被写体位置検出部10は、撮影領域内の被写体の位置を検出する。本実施形態においては、三次元形状推定部3の形状推定結果である被写体三次元モデルを用いて被写体の位置を検出する。具体的には被写体の三次元モデルの上部約25cmを頭部として検出しその重心を求めることで被写体の位置、特に頭部位置を検出する。
視線指示部9は、被写体が視線を向ける方向と位置を指示する。この視線指示の視線指示の表示位置、及び被写体位置検出部10で検出される被写体位置に関しては、あらかじめ三次元形状推定部3及び撮像部1と高精度に位置が校正されており、それぞれ情報が指し示す位置情報は同じ座標空間で扱える情報とする。
視線情報生成部11は、視線指示部9の示す視線指示位置の情報と被写体位置検出部10が検出した被写体の位置情報に基づき、視線情報を蓄積部4に記録する。このときの視線情報は図2に示すような被写体の位置と視線指示位置を結ぶ直線(線分)の情報として記録する。
続いて視線情報生成部11の視線情報生成処理を図3のフローチャートを参照して説明する。
S300において、視線情報生成部11は、撮影するコンテンツ、楽曲に合わせて基準時刻から視線指示を表示する時刻、表示する位置・方向に関して計画を行う。
次にS301にて、視線情報生成部11は、計画された目線指示に関して視線指示部9に計画された目線指示の回数分登録を行う。
次にS302において、視線情報生成部11は、撮影開始の基準時刻に合わせて視線指示部9の動作を開始させる。この基準時刻とは例えばミュージックビデオやコンサート映像の場合楽曲の開始時刻に同期して視線指示部9の動作を開始するなどである。
その後、S303にて、視線情報生成部11は、スケジュールされた時刻になると、視線指示部9の表示部に事前に登録された位置にマークを表示する。このとき表示するマークに関しては登録情報に基づき移動なども行うことが出来る。合わせてS304にて、視線情報生成部11は、被写体位置検出部10で被写体の位置を検出させる。そして、S305にて視線情報生成部11は、視線指示位置と被写体位置に基づいた視線情報を生成したうえで蓄積部4に記録する。上記S303からS305の動作をスケジュールされた時間及び回数繰り返し行うことで仮想視点映像素材の記録と合わせて、視線情報の生成・記録が行われる。
次に、視線情報を用いた、仮想視点設定部6、映像生成部7による映像生成に動作に関して処理フローを図4のフローチャート沿って説明を行う。
まず、仮想視点設定部6は、或る時刻(初期段階では、映像記録開始時)における視線情報が蓄積部4に蓄積されているか否か判定する。仮想視点設定部6は、視線情報が存在しないと判定した場合は、S400に処理を行う。このS400において、仮想視点設定部6は、その時間(期間)では仮想視点操作部5の入力に基づく仮想視点情報を生成する。この仮想視点情報には、仮想視点の位置、及び、仮想視点における光軸方向と画角が含まれる。
一方、仮想視点設定部6は、或る時刻(初期段階では、映像記録開始時)における視線情報が蓄積部4に蓄積されていると判定した場合は、処理をS401に進める。このS401にて、仮想視点設定部6は、蓄積部4に蓄積された視線情報に基づき、仮想視点情報を生成する。実施形態の場合、この仮想視点情報は、被写体の視線を送る方向を規定するために表示されたマーク位置を仮想視点の位置とする情報、その仮想視点の位置から被写体(の頭部)へ向かう視線方向を光軸とする情報、及び、所定の画角を示す情報を含む。そして、その上で、S402にて、仮想視点設定部6は、S401にて生成した仮想視点情報の修正処理を行う。具体的には、仮想視点設定部6は、仮想視点操作部5の入力により画角の変更や直線状の前後への移動などが許容された範囲内において変更を適用した仮想視点情報を生成する。これにより仮想視点位置を被写体に近づけるといった演出や、ズーミングなどを画角の変更をカメラ目線の状態を維持したまま行うことが出来る。
そして、S403にて、仮想視点設定部6は、生成した仮想視点情報を映像生成部7に設定する。上記S400~S403の処理は映像生成中、各時刻において都度実施される。
映像生成部7は、仮想視点設定部6により仮想視点情報が設定されるたびに、蓄積部4に蓄積された、該当する時刻の複数視点の撮像画像を用いて、設定されや仮想視点情報に基づく仮想視点画像(仮想視点映像における1フレーム)を生成し、表示部8に出力する。上記では、映像生成部7は、生成した仮想視点画像を表示部8に出力するものとして説明したが、仮想視点映像のファイルの1フレームとして記憶装置に格納する、又は、ネットワーク上に配信するようにしても良い。
上記の説明の通り、積部4に仮想情報として蓄積されている時間範囲においては、被写体が目線を向けている方向に配置された仮想視点位置とし、その位置から被写体の方向を向いた仮想視点映像、すなわち、被写体のカメラ目線の映像を生成することが可能となる。
この二つの処理フローの組み合わせにより、仮想視点映像の撮影空間にいる被写体に適切に視線の指示を行うことができ、その指示を行っている時刻に対して指示位置と被写体の位置関係から生成される視線情報が記録される。またその視線情報を用いることで仮想視点映像生成に遅延があったとしても映像生成時に被写体が視線を送っているはずの方向からの仮想視点映像が生成できる。
[その他の本実施形態]
本実施形態において視線指示部9はディスプレイなどの表示装置を用いた構成に限らず物理的なマークを備える構成としてもよい。例えば棒状のものの先に球体をつけたものなどで構成し、被写体にその球体に視線を送るように指示するなどである。そして球体を検出できるモーショントラッキング手段を含めた構成とすることで視線指示位置を三次元的に取得することが出来る。また、この場合、装置はトラッキング部を有し、スケジューリングされた時刻の物理マーカーの位置を記録することとなる。
また、本実施形態において被写体位置検出部10は、三次元形状推定部3の推定した被写体三次元モデルの頭部を検出するとしたがこれに限定するものではない。例えば、単純に被写体三次元モデルの重心や外接直方体(バウンディングボックス)の重心としてもよい。そのほかに、被写体三次元形状を用いずに、GPSのようなセンサによって被写体位置を検出してもよいし、撮影画像から画像認識技術を用いて被写体の顔・頭部位置を検出してもよい。
また、本実施形態において視点情報に基づく仮想視点が生成されている場合、直線状での仮想視点の移動が許容されると記載したが、具体的にはあらかじめ設定された距離以上被写体に仮想視点が接近できないなどの制約を設けてもよい。これにより例えば仮想視点が被写体内部や背面に回り込んでしまい被写体が画角外となることを抑制できる。
また、仮想視点へ手振れを模擬した入力を行いたい場合などは視線情報の直線への拘束を緩め直線外への移動もわずかに許容するなどのしたうえで仮想視点操作部5の入力によりその範囲内での移動を可能とする構成としてもよい。そのほかに手振れの模擬に関しては仮想視点操作部5からの入力に限定せず、仮想視点設定部において手振れを模擬した振動(移動)を適用してもよい。例えば、視線指示部9が設定する視線方向を示すマークの位置、或いは、仮想視点操作部5が設定する仮想視点の位置を、時間軸にランダムに変化する振動に相当する座標変化量を加算するようにしても良い。
また、上記実施形態において視線情報がある時刻においては、仮想視点設定部6が自動的に視線情報に基づく仮想視点位置に仮想視点を移動するように記載したが、必ずしもそれに限定するものではない。例えば図5に示すようにユーザの指示に基づき、視点情報が記録された時刻に先立って現在の仮想視点位置から、視線情報に基づく仮想視点位置への連続的に滑らかに移動する仮想視点情報である中間仮想視点情報を仮想視点設定部6が生成する構成としてもよい。そのほかにも、視線情報が記録されている時刻であったとしても、ユーザの指示により視線情報に基づいた仮想視点位置へ移動しないなどの選択が可能であってもよい。
また、複数の映像生成部7を備え仮想視点映像を同時に生成し映像切り替え装置などを用いて複数の仮想視点映像を切り替えるような構成とした場合、必ずしもすべての仮想視点が視線情報に基づく仮想視点を設定しなくてもよい。具体的には、複数の仮想視点映像生成のうち選択された1つのみ視線情報に基づく仮想視点映像を生成するように設定したうえで、他の仮想視点映像と目線情報に基づく仮想視点を映像切り替え装置で切り替えて映像出力してもよい。
また、本実施形態において一つの視点指示部9と一人の被写体の場合について言及したが、必ずしもこの構成に限定するものではない。例えば図6(a)に示すように一つの視線指示に対して複数の被写体を視線情報生成の対象とする構成としてもよい。この場合、被写体位置検出部10は各被写体の位置情報を検出し、視線情報生成部11は視線指示位置と複数の被写体位置とを結ぶ複数の直線を視線情報として生成し、蓄積部4に記録する。そのうえで、仮想視点映像生成時にはそれぞれの視線情報に基づいて図6(b)に示すように複数の仮想視点設定し、複数の仮想視点映像を生成してもよい。そのほかにも図6(c)に示すように、複数の視線情報が交わる点(視線指示位置)に一つの仮想視点を設定したうえで、二つの視線情報に基づく方向を包含するように、仮想視点の方向及び画角を設定してもよい。図6(c)では二人の被写体を均等に配置されるような画角を例として記載したが、例えばどちらか一人が中央に位置するように仮想視点を設定したうえで、もう一人が画角内に収まるように画角を調整するような仮想視点設定部6としてもよい。
また、本実施形態において一つの視点指示部9を用いる構成を示したが、これに限定するものではない。例えば図7(a)に示すように複数の視点指示を備え複数人の被写体に対して個別の視線指示を行う構成としてもよい。この場合、視線情報生成部11は視線指示部9の指示する位置と対応する被写体位置毎の視線情報を生成することで、同時刻に複数の視線情報を蓄積部4に記録する。これにより同時刻おいて複数の仮想視点映像を提供するような多視点映像配信を行うような場合、被写体ごとのカメラ目線を同時に映像生成可能となる。ここでは便宜上複数の視点指示部9としたが、例えばディスプレイなどの表示装置により構成される視点指示部9である場合、必ずしも複数の視点指示部9を備える必要はない。例えば図7(b)、(c)に示すように単一の表示装置に複数の視線指示を異なるマークなどで示す構成としてもよい。まら、その他にも、被写体が自信の視線を送るマークを識別可能とするため、マークに被写体を特定するための情報(図示では名前)を表示することで、被写体ごとに視線を指示する構成としてもよい。
[その他の構成]
図1に示した各処理部はハードウェアでもって構成しているものとして上記実施形態では説明した。しかし、図1に示す撮像部1を除く構成は、例えばパーソナルコンピュータに代表される情報処理装置のハードウェアと、実行するアプリケーションプログラムで実現させても良い。
図8は、上記各実施形態に適用可能なコンピュータのハードウェアの構成例を示すブロック図である。
CPU801は、RAM802やROM803に格納されているコンピュータプログラムやデータを用いてコンピュータ全体の制御を行うと共に、上記各実施形態に係る間接位置推定装置が行うものとして上述した各処理を実行する。即ち、CPU801は、図1に示した、撮像部1を除く、各処理部として機能することになる。
RAM802は、外部記憶装置806からロードされたコンピュータプログラムやデータ、I/F(インターフェース)807を介して外部から取得したデータなどを一時的に記憶するためのエリアを有する。更に、RAM802は、CPU801が各種の処理を実行する際に用いるワークエリアを有する。即ち、RAM802は、例えば、フレームメモリとして割り当てたり、その他の各種のエリアを適宜提供したりすることができる。
ROM803には、本コンピュータの設定データや、ブートプログラムなどが格納されている。操作部804は、キーボードやマウスなどにより構成されており、本コンピュータのユーザが操作することで、各種の指示をCPU801に対して入力することができる。出力部805は、CPU801による処理結果を表示する。また出力部805は例えば液晶ディスプレイで構成される。たとえば仮想視点操作部5は操作部804で、表示部8は出力部805で構成される。
外部記憶装置806は、ハードディスクドライブ装置に代表される、大容量情報記憶装置である。外部記憶装置806には、OS(オペレーティングシステム)や、図1に示した各部の機能をCPU801に実現させるためのコンピュータプログラムが保存されている。更には、外部記憶装置806には、処理対象としての各画像データが保存されていても良い。また、この外部記憶装置806は、図1における蓄積部4として機能し、更には、視線指示部9が作成した時間軸に沿った視線方向のスケジュールデータの格納用に利用される。
外部記憶装置806に保存されているコンピュータプログラムやデータは、CPU801による制御に従って適宜、RAM802にロードされ、CPU801による処理対象となる。I/F807には、LANやインターネット等のネットワーク、図1の撮像部1に相当する複数の撮像装置1や、視線指示部9などの他の機器を接続することができ、本コンピュータはこのI/F807を介して様々な情報を取得したり、送出したりすることができる。808は上述の各部を繋ぐバスである。
上述の構成からなる作動は、前述の実施形態で説明した作動をCPU801が中心となってその制御を行う。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。
1…撮像部、2…同期部、3…3次元形状推定部、4…蓄積部、5…仮想視点操作部、6…仮想視点設定部、7…映像生成部、8…表示部、9…視線指示部、10…被写体位置検出部、11…視線情報生成部

Claims (8)

  1. 複数の撮像手段より得た映像に基づき、仮想視点映像を生成する映像処理装置であって、
    被写体が向けるべき位置を特定する情報を作成する作成手段と、
    前記作成手段が作成した情報に従って、前記被写体が向けるべき位置を表すシンボルを表示している間に、前記複数の撮像手段から映像を取得し、所定の記憶手段に格納する撮像制御手段と、
    前記記憶手段に格納された映像から前記被写体の位置を特定し、前記シンボルを表示する位置を仮想視点の位置とし、当該仮想視点の位置と前記被写体の位置に向けられる方向を、前記仮想視点からの視線方向とし、前記仮想視点の位置と前記仮想視点からの視線方向に基づいて、前記仮想視点からの見えを表す仮想視点映像を生成する生成手段と
    を備えることを特徴とする映像処理装置。
  2. 前記作成手段は、被写体が向けるべき、時間軸に沿った視線方向を表す位置を特定する情報を作成することを特徴とする請求項1に記載の映像処理装置。
  3. 前記被写体が複数の場合、前記作成手段は被写体それぞれの視線方向を示す位置を特定する情報を作成し、前記撮像制御手段は被写体それぞれが識別可能なシンボルを前記作成手段が作成した情報に従って表示する
    ことを特徴とする請求項1又は2に記載の映像処理装置。
  4. 前記生成手段は、前記仮想視点の位置から前記被写体の位置に向かう方向を、光軸とする仮想視点映像を生成することを特徴とする請求項1乃至3のいずれか1項に記載の映像処理装置。
  5. 前記生成手段は、前記被写体が複数の場合、当該複数の被写体を包含する範囲を画角とする仮想視点映像を生成することを特徴とする請求項1乃至3のいずれか1項に記載の映像処理装置。
  6. ユーザによる操作で仮想視点位置と仮想視点の姿勢を指示する指示手段を備え、
    前記生成手段は、前記作成手段で被写体が向けるべき視線方向を特定する情報が無い期間では、前記指示手段で指示された仮想視点位置と姿勢に従って仮想視点映像を生成する
    ことを特徴とする請求項1乃至5のいずれか1項に記載の映像処理装置。
  7. 複数の撮像手段より得た映像に基づき、仮想視点映像を生成する映像処理装置の制御方法であって、
    被写体が向けるべき位置を特定する情報を作成する作成工程と、
    前記作成工程が作成した情報に従って、前記被写体が向けるべき位置を表すシンボルを表示している間に、前記複数の撮像手段から映像を取得し、所定の記憶手段に格納する撮像制御工程と、
    前記記憶手段に格納された映像から前記被写体の位置を特定し、前記シンボルを表示する位置を仮想視点の位置とし、当該仮想視点の位置と前記被写体の位置に向けられる方向を、前記仮想視点からの視線方向とし、前記仮想視点の位置と前記仮想視点からの視線方向に基づいて、前記仮想視点からの見えを表す仮想視点映像を生成する生成工程と
    を備えることを特徴とする映像処理装置の制御方法。
  8. コンピュータが読み込み実行することで、前記コンピュータに、請求項7に記載の方法の各工程を実行させるためのプログラム。
JP2021090584A 2021-05-28 2021-05-28 映像処理装置及びその制御方法及びプログラム Pending JP2022182836A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021090584A JP2022182836A (ja) 2021-05-28 2021-05-28 映像処理装置及びその制御方法及びプログラム
US17/742,464 US12051148B2 (en) 2021-05-28 2022-05-12 Image processing apparatus, method for controlling the same, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021090584A JP2022182836A (ja) 2021-05-28 2021-05-28 映像処理装置及びその制御方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2022182836A true JP2022182836A (ja) 2022-12-08

Family

ID=84193580

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021090584A Pending JP2022182836A (ja) 2021-05-28 2021-05-28 映像処理装置及びその制御方法及びプログラム

Country Status (2)

Country Link
US (1) US12051148B2 (ja)
JP (1) JP2022182836A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7175529B1 (ja) * 2021-07-21 2022-11-21 生也 近藤 表示装置及び表示方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018100928A1 (ja) * 2016-11-30 2018-06-07 キヤノン株式会社 画像処理装置および方法
US20190066382A1 (en) * 2017-08-31 2019-02-28 Denso Ten Limited Driving support device, driving support method, information providing device and information providing method
JP6409107B1 (ja) 2017-09-06 2018-10-17 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP7045218B2 (ja) * 2018-02-28 2022-03-31 キヤノン株式会社 情報処理装置および情報処理方法、プログラム
JP7271099B2 (ja) 2018-07-19 2023-05-11 キヤノン株式会社 ファイルの生成装置およびファイルに基づく映像の生成装置
JP7207913B2 (ja) * 2018-09-07 2023-01-18 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP7249755B2 (ja) * 2018-10-26 2023-03-31 キヤノン株式会社 画像処理システムおよびその制御方法、プログラム
JP6827996B2 (ja) 2018-10-31 2021-02-10 キヤノン株式会社 画像処理装置、制御方法、及び、プログラム
JP7423251B2 (ja) * 2019-10-25 2024-01-29 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
US12051148B2 (en) 2024-07-30
US20220383586A1 (en) 2022-12-01

Similar Documents

Publication Publication Date Title
US8330793B2 (en) Video conference
CN110956695B (zh) 信息处理装置、信息处理方法和存储介质
JP7267753B2 (ja) 制御装置、制御方法、及びプログラム
JP7459870B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
US11468258B2 (en) Information processing apparatus, information processing method, and storage medium
US11847735B2 (en) Information processing apparatus, information processing method, and recording medium
JP2021177351A (ja) 画像表示装置、制御方法、およびプログラム
TW201928761A (zh) 影像擷取之設備及方法
JP2020052979A (ja) 情報処理装置およびプログラム
JP2019003428A (ja) 画像処理装置、画像処理方法及びプログラム
JP2020042362A (ja) 制御装置及びその制御方法
JP4458886B2 (ja) 複合現実感画像の記録装置及び記録方法
JP2021056900A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2009087161A (ja) 画像処理装置、画像処理方法
JP2022058753A (ja) 情報処理装置、情報処理方法及びプログラム
JP2022182836A (ja) 映像処理装置及びその制御方法及びプログラム
JP2004272515A (ja) インタフェース方法、装置、およびプログラム
JP2017123589A (ja) 情報処理装置、情報処理方法および映像投影システム
KR20230017745A (ko) 화상 처리장치, 화상 처리방법, 및 기억매체
JP2019144958A (ja) 画像処理装置、画像処理方法およびプログラム
KR102453296B1 (ko) 정보 처리장치, 그 제어방법 및 컴퓨터 프로그램
US11323688B2 (en) Information processing apparatus and information processing method for generating a virtual viewpoint
EP4350626A1 (en) Image processing system, method for controlling the same, and program
WO2023145571A1 (ja) 情報処理装置、情報処理方法、データ構造及びプログラム
US20230388469A1 (en) Information processing apparatus, information processing method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240514