JP2023122130A - 映像処理装置およびその制御方法、プログラム - Google Patents

映像処理装置およびその制御方法、プログラム Download PDF

Info

Publication number
JP2023122130A
JP2023122130A JP2022025603A JP2022025603A JP2023122130A JP 2023122130 A JP2023122130 A JP 2023122130A JP 2022025603 A JP2022025603 A JP 2022025603A JP 2022025603 A JP2022025603 A JP 2022025603A JP 2023122130 A JP2023122130 A JP 2023122130A
Authority
JP
Japan
Prior art keywords
image
subject
video
photographing
virtual viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022025603A
Other languages
English (en)
Inventor
昂佑 川▲畔▼
Kosuke Kawabata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022025603A priority Critical patent/JP2023122130A/ja
Priority to US18/165,990 priority patent/US20230269356A1/en
Publication of JP2023122130A publication Critical patent/JP2023122130A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/158Switching image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

【課題】所望の被写体を撮影している映像への切り替え操作を支援する技術を提供する。【解決手段】映像処理装置は、複数の撮影装置により撮影される撮影領域に存在する被写体であって、ユーザーにより指定された被写体に対応する三次元形状の情報に基づいて、被写体を撮影範囲に含む撮影装置を特定し、その撮影装置の提示を含む表示情報を出力する。【選択図】 図5

Description

本開示は、映像処理装置およびその制御方法、プログラムに関する。
近年、異なる位置に設置された複数のカメラにより同期撮影した多視点画像から、任意の視点で撮影される映像(以下、仮想視点映像とする。)を合成する仮想視点映像生成技術が実現されている。例えば、仮想視点映像生成技術を用いてサッカーやバスケットボールなどのスポーツを撮影することにより、カメラマンによる撮影が不可能であった、試合中のフィールド内から撮影しているような映像を視聴することが実現可能となる。このように、仮想視点映像生成技術によれば、視聴者へより高い臨場感を与える映像制の生成、より自由度の高い映像の生成が可能となる。
一方、仮想視点映像生成のためのシステムは、複数のカメラが設置された構成を有する。撮影範囲の大きさや要求される画質にもよるが多数のカメラが設置される場合もある。そのため、仮想視点映像を生成するシステムにおいて、それぞれのカメラがどういった映像を出力しているかをユーザーが確認することは困難である。例えば、仮想視点映像から実際に撮影しているカメラ(以下、実カメラとする)の映像に切り替える場合などにおいては、ユーザーが実カメラからの映像を確認する必要が生じる。しかしながら、前述の様にカメラの台数が多いと、ユーザーが意図した実カメラの映像を確認することは困難である。
特許文献1では、仮想視点映像生成に用いられる複数の実カメラの位置と仮想視点の位置とから仮想視点映像生成に用いられた実カメラを特定し、特定された実カメラの映像を表示する技術が開示されている。
特開2019-106617号公報
しかしながら、特許文献1に開示された技術では、仮想視点映像の生成に用いられた実カメラの映像を表示することしかできない。例えば、スタジオ等で複数の演者が演技をしている状況で、仮想視点映像から特定の演者を映した実カメラ映像に切り替えたい場合、操作者は複数の実カメラの映像のうちから特定の演者が映っている映像を確認して切り替えを行う必要がある。この場合、仮想視点映像の生成とは関係なく、特定の被写体を映している実カメラの映像へ切り替える必要があるが、特許文献1の技術ではそのような実カメラへの切り替えを支援することは意図されていない。
本開示では、所望の被写体を撮影している映像への切り替え操作を支援する技術を提供する。
本開示の一態様による映像処理装置は以下の構成を有する。すなわち、映像処理装置は、複数の撮影装置により撮影される撮影領域に存在する被写体であって、ユーザーにより指定された被写体に対応する三次元形状の情報に基づいて、当該被写体を撮影範囲に含む撮影装置を、前記複数の撮影装置から特定する特定手段と、特定された前記撮影装置の提示を含む表示情報を出力する出力手段と、を有する。
本開示によれば、所望の被写体を撮影している映像への切り替え操作が容易になる。
第1実施形態による映像処理システムの構成例を示すブロック図。 第1実施形態による撮影装置の配置例を示す図。 第1実施形態による映像処理装置のハードウェア構成例を示すブロック図。 第1実施形態による映像処理装置の機能を説明する図。 第1実施形態による映像処理装置の機能構成例を示すブロック図。 被写体に設定されるバウンディングボックスを説明する図。 撮影装置の撮影範囲を示す模式図。 被写体を撮影する撮影装置の判定方法を説明する図。 指定された被写体に対応するバウンディングボックスの特定方法を説明する図。 第1実施形態による映像処理装置の処理を示すフローチャート。 バウンディングボックスと撮影装置のリストを表す図。 第1実施形態に係る表示例を示す図。 第2実施形態による映像処理装置の機能構成例を示すブロック図。 撮影装置と仮想視点の撮影範囲を示す模式図。 第2実施形態による映像処理装置の処理を示すフローチャート。 バウンディングボックスと撮影装置および仮想視点のリストを表す図。 第2実施形態に係る表示例を示す図。
以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は本開示を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが本開示に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
<第1実施形態>
図1は、第1実施形態にかかわる映像処理システムの構成例を示すブロック図である。映像処理システム100は、N台の実カメラとしての撮影装置110と映像処理装置120とユーザー端末130を備える。撮影装置110は、不図示のレンズ、CCDまたはCMOS等の撮影センサ、映像処理回路等を具備し、撮影対象の被写体からの光学情報を電気信号に変換し、RAW等の所定フォーマットの画像情報として映像処理装置120に送信する。映像処理システム100におけるN台の撮影装置110の配置例を図2に示す。撮影装置110a~110bは撮影領域200を取り囲むように配置されており、撮影領域200内の被写体に対して撮影を行い、仮想視点映像を生成するための多視点画像を提供する。なお、撮影装置110の台数及び配置位置は撮影領域、撮影対象および要求される映像品質等に応じて適切に設定され得る。
映像処理装置120は、撮影装置110からの映像を集約し適切な処理を施すことにより仮想視点映像を生成し出力する。また、映像処理装置120は、撮影装置110で撮影した映像を選択し適切な形式のデータに変換し出力することも可能である。図3に映像処理装置120のハードウェア構成例を示す。映像処理装置120は、CPU121、主記憶装置122、補助記憶装置123、外部I/F124、GPU125を含み、それらが内部バス126を介して相互に通信可能に接続されている。
CPU121は、中央演算装置であり、各種演算、映像処理、データ入出力など映像処理装置120の制御を行う。主記憶装置122はCPU121のワークエリアやデータの一時的な記憶領域として機能する。主記憶装置122は、例えば、Dynamic Random Access Memory(DRAM)やStatic Random Access Memory(SRAM)などの記憶媒体を用いて実装される。補助記憶装置123は、各種プログラム、各種設定情報、各種画像データ、カメラパラメータ、三次元形状の情報、2次元マップなどの情報を記憶する。補助記憶装置123は、例えば、各種のRead Only Memory(ROM)やフラッシュメモリなどの不揮発性メモリ、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)、テープメディアなどの記憶媒体を用いて実装され得る。なお、補助記憶装置123は、大容量化や高速化のために複数の記憶媒体の組み合わせにより構成されてもよく、例えば、RAIDにより複数の記憶媒体が論理的に1つにまとめられたものでもよい。
外部I/F124は、例えば、カメラやPC、装置など外部の機器との通信に利用される通信インターフェースを含む。また、外部I/F124は、ジョイスティックやキーボード、マウスなどの、ユーザーからの各種操作を受け付ける外部機器と接続したり、外部ストレージを接続してファイル入出力を行ったりするための汎用的な入出力インターフェースを含む。外部I/F124は、例えば、InfiniBandやEthernet、USBなどの物理的なケーブルの接続端子を持つインターフェース、または無線LANやBluetoothなどの無線を用いたインターフェースなどで構成される。なお、USBは、Universal Serial Busの略である。映像処理システム100において、N台の撮影装置110から出力された映像情報は、不図示のスイッチングハブ等で集約され、外部I/F124に入力される。
GPU125は映像処理演算を高速に実行するための演算装置であり、仮想視点からの画像をレンダリングする処理の他、仮想視点映像に必要な形状データや色情報を生成する機能等を有する。GPU125は主記憶装置122とは異なる主記憶装置を別途含んでいてもよい。また、上記に示した以外のCPU121で行われる各種演算の一部または全部をGPU125が行ってもよい。内部バス126はPCIExpress等のバスによって構成され、ハードウェアブロックの各部がそれぞれに双方向通信を行うことができる。また、内部バス126はハードウェアブロックの各部が双方向に通信可能なものであればどのようなものを用いてもよい。
ユーザー端末130は、不図示の液晶モニタ等の表示装置、キーボードやマウス、ジョイスティックなどの入力装置を備えており、外部I/F124を介して映像処理装置120と接続される。ユーザー端末130は、映像処理装置120から出力された映像を表示装置に表示し、ユーザーによる入力装置からの入力を適切な信号に変換して映像処理装置120へ出力する。ユーザー端末130のハードウェア構成は、例えば、映像処理装置120(図3)と同様の構成とすることができる。また、映像処理装置120がユーザー端末130の機能を有してもよい。例えば、映像処理装置120とユーザー端末130は1つの装置により実現されてもよい。
以上、図2および図3により本実施形態の映像処理システムの構成を説明したが、この構成は一例であり、撮影対象や機能に応じて適切に変更および構成され得る。
次に、図4から図11を参照して、第1実施形態による、複数の撮影装置からの映像のうち、特定の被写体を含む撮影装置の映像を特定し表示する方法について説明する。
初めに、本実施形態で実現される機能の概要について図4を参照して説明する。本実施形態では、仮想視点映像を配信している状態から特定の被写体が映る撮影装置の映像へと配信映像を切り替えたい状況で、特定の被写体を撮影している撮影装置の映像を候補映像として表示することで、映像切り替えの際、操作者を補助する機能を実現する。
図4において、撮影領域200には、被写体410~412が存在する。例えば、仮想視点401から仮想視点映像402を撮影し配信している状態から、被写体410を映す撮影装置の映像へと配信映像を切り替えたいとする。映像の切り替え操作者により、被写体410が注視したい被写体(以下、注視被写体)として選択されると、複数の撮影装置の映像の中から被写体410を撮影している撮影装置の映像が抽出される。ここで、N台の撮影装置110の中から撮影装置110a、撮影装置110b、撮影装置110cが抽出されたとする。この場合、候補映像として、撮影装置110aで撮影されている映像421、撮影装置110bで撮影されている映像422、撮影装置110cで撮影されている映像423が候補映像として表示される。このように、本実施形態では、多数の映像の中から候補映像が抽出され、表示されることにより、より少ない映像から意図する映像を選択することが可能になる。よって、設置された複数の撮影装置より出力された多数の映像から意図する映像を選び出すような操作と比較して、操作者の映像確認の負担を大幅に軽減することができる。
次に、第1実施形態による映像処理装置120の機能構成について説明する。図5は、映像処理装置120の機能構成例を示すブロック図である。図5に示される各機能ブロックは、例えば、CPU121(図3)により補助記憶装置123に格納されているコンピュータプログラムを主記憶装置122に展開し実行することにより実現される。なお、機能ブロックの一部またはすべてが専用のハードウェアにより実現されてもよいし、コンピュータとハードウェアの協働により実現されてもよい。
映像受信部500は、撮影装置110からLANケーブル等を介して映像を受信し、適切なデータ形式に変換し、分離部501および映像選択部508へ送る。分離部501は、映像受信部500から入力された映像から、オブジェクトの領域を適切なサイズで切り出して分離し、前景画像を生成する。本実施形態では、分離部501は、例えば、後述する背景差分法を使用してオブジェクトを分離し、前景画像を生成する。分離部501は、生成された前景画像を形状生成部502へ送る。
本実施形態で、オブジェクトとは、時系列で同じ方向から撮影を行った場合において動きのある(その絶対位置や形が変化し得る)動的オブジェクト(動体)を指す。例えば、スポーツ競技においては、競技が行われるフィールド内にいる選手や審判などの人物、競技が球技であればボールなどがオブジェクトに相当する。また、背景差分法は、撮影装置から得られる任意の画像を基準の画像とし、基準の画像と、その基準の画像に時間的に近接した一つないしは複数の画像を比較し、変化のある領域を前景画像として抽出する手法である。背景差分法では、例えば、画像中の画素ごとに画素値の比較を行い、差が小さい画素(動きのない画素)の集合が背景画像として抽出される。そして生成された背景画像の領域を基準の画像から差し引くことにより変化のある領域が抽出され、前景画像が生成される。
形状生成部502は、分離部501から入力された前景画像に基づき視体積交差法、Multi-View-Stereo(MVS)等の三次元形状復元手法により三次元形状の情報を生成する。なお、被写体の三次元形状の復元に必要となるN台の撮影装置110の配置位置の座標情報および画角情報は、例えば、補助記憶装置123にあらかじめ格納されているとする。さらに形状生成部502は、生成した三次元形状の情報により表される三次元形状を囲う(例えば、三次元形状に外接する)直方体を定義する。以下、この直方体をバウンディングボックスという。被写体とバウンディングボックスとの関係を図6に示す。図6の例では、撮影領域200内の被写体410に対するバウンディングボックス610が定義されている。バウンディングボックス610は点a、点b、点c、点d、点e、点f、点g、点hを頂点とする直方体として定義されている。なお、被写体の三次元形状またはバウンディングボックス610に関して、三次元空間における位置の情報も取得される。
仮想視点映像生成部503は、形状生成部502で生成された三次元形状の情報と、後述の入力部504を介してユーザー端末130より入力された仮想視点の位置及び方向の情報を受信する。仮想視点映像生成部503は、受信したこれら情報に基づき、仮想視点の位置から三次元形状がどのように見えるかを計算し、対応する撮影装置の画像を用いて色付けすることで仮想視点映像を生成し、映像配信部509に出力する。
入力部504は、ユーザー端末130から外部I/F124を介して入力された信号を受信し仮想視点映像生成部503に送信する。また、入力部504は、注視被写体を特定するためにユーザーが指定した表示映像中の座標を入力する。また、入力部504は、仮想視点映像を生成するための仮想視点の位置及び向きを示す視点情報を入力する。視点情報は、例えば、仮想視点の三次元位置を表すパラメータと、パン、チルト、及びロール方向における仮想視点の向きを表すパラメータを含む。なお、視点情報の内容は上記に限定されず仮想視点の位置及び向きを示す情報であればよい。
撮影範囲判定部505は、図7で示す様な撮影装置110aの撮影範囲700の内部に存在する物体を、撮影装置110aにより撮影されている物体と判断する。撮影装置110aの撮影範囲700は点o、点p、点q、点r、点s、点t、点u、点vを頂点とする立体図形(例えば四角錐台)で定義される。撮影範囲700の内部に存在する物体は、撮影装置110aにより撮影されていると判断される。撮影範囲700は、撮影装置110aの位置、姿勢、焦点距離やF値等の撮影パラメータに基づいて算出される撮影可能範囲であり、撮影範囲700を表す三次元座標情報は、例えば補助記憶装置123にあらかじめ格納されている。また、このような撮影範囲が複数の撮影装置110のそれぞれに対して、それぞれの撮影パラメータに応じてあらかじめ設定され、補助記憶装置123に格納されている。
また、撮影範囲判定部505は、複数の撮影装置のそれぞれが形状生成部502で取得されたバウンディングボックスを撮影しているか否かを判定し、そのバウンディングボックスを撮影している撮影装置を抽出する。図8を用いてこの判定方法について説明する。ここで、判定の対象となる撮影装置110は、バウンディングボックスの底面以外の各面を撮影している撮影装置とする。なお、上述したように、バウンディングボックス(被写体の三次元形状)の三次元空間の位置は、形状生成部502により取得されている。図8中の撮影装置110aの様に撮影範囲700に内部に面abfeの一部または全体が入っている場合、撮影範囲判定部505は、撮影装置110aがバウンディングボックス610を撮影している撮影装置であると判定する。撮影範囲判定部505は、この判定をバウンディングボックス610の判定対象の各面に対して行い、バウンディングボックス610を撮影している撮影装置を特定する。撮影範囲判定部505は、撮影領域200に存在するバウンディングボックスそれぞれに対して上記処理を行い、ある時間に撮影領域200に存在するバウンディングボックスとそれを撮影している撮影装置の判定結果を得る。撮影範囲判定部505は、この判定結果に従って、各時刻におけるバウンディングボックスとそれを撮影している撮影装置を関連付けるリスト(図11により後述する)を生成する。
被写体特定部506は、ユーザー操作により指定された注視被写体に対応したバウンディングボックスを特定し、撮影装置選択部507に通知する。注視被写体の指定は、例えば、被写体を選択するための映像表示においてユーザーが注視したい被写体の位置を指定することによりなされる。映像上のユーザーにより指定された座標(注視被写体を特定するための座標)は入力部504から被写体特定部506へ提供される。被写体特定部506は、その座標から注視被写体のバウンディングボックスを特定する。
ここで、図9を用いて、注視被写体を指定する方法と注視被写体に対応したバウンディングボックスを特定する方法を説明する。図9に示されるように、被写体確認用に撮影装置900が設置されており、不図示のケーブル等を介してユーザー端末130に撮影装置900の撮影画像910が配信されているものとする。なお、撮影装置900の映像が撮影装置110と同様に映像処理装置120を介してユーザー端末130に配信されても構わない。ユーザーはこの撮影画像910を確認しながら注視被写体に対応した座標を入力することができる。被写体特定部506は、形状生成部502で生成した三次元形状を撮影画像910へ投影し、被写体領域画像920を生成する。撮影装置900の撮影位置の座標及び画角情報などの投影に必要な情報は、例えば、あらかじめ補助記憶装置123に格納されているとする。被写体領域画像920中の座標は、撮影装置900が撮影する画像の座標と対応しており、さらに投影された三次元形状の情報が紐づけられている。例えば、図9では、撮影領域200中の被写体410、被写体411、被写体412がそれぞれ被写体領域画像920中の領域930、領域931、領域932と対応している。
ユーザーにより撮影画像910の任意の位置が指定されると、その座標が入力部504を介して被写体特定部506に通知される。被写体特定部506は、通知された座標がどの被写体に含まれるかを、被写体領域画像920を参照して判定する。例えば、被写体410を指定するために座標P(xp,yp)が入力されると、被写体特定部506は、被写体領域画像920から座標P(xp,yp)を含む被写体の領域を判定する。図9の例では、被写体特定部506は、領域930が座標P(xp,yp)を含むため、領域930と対応する被写体410を特定する。そして、被写体特定部506は、特定した被写体410について生成されたバウンディングボックス610を注視被写体のバウンディングボックスとして特定する。なお、ユーザーにより指定された被写体のバウンディングボックスを特定する方法は、上記に限定されるものではない。例えば、被写体にGPSを装着して各被写体の位置と識別子を対応付けた情報を保持し、ユーザーが所望の被写体の識別子を指定するようにしてもよい。これにより、指定された被写体のGPSによる位置に基づいてバウンディングボックスが特定され得る。また、本実施形態では1台の撮影装置900による映像が被写体を指定するための映像として用いられたが、複数台の撮影装置により撮影領域を分担して撮影することにより、ユーザーが被写体を指定するための映像を得るようにしてもよい。また、注視被写体を指定するための映像として物理的な撮影装置900により撮影される映像を用いたが、例えば撮影領域200を俯瞰するような、仮想視点からの仮想視点映像が用いられてもよい。
撮影装置選択部507は、撮影範囲判定部505により生成された、図11により後述されるリストの参照により、被写体特定部506で特定されたバウンディングボックスの撮影に使用された撮影装置を選択する。こうして、複数の撮影装置110から撮影装置選択部507により選択された撮影装置は、注視被写体を撮影している撮影装置である。映像選択部508は、映像受信部500から受信した映像から、撮影装置選択部507で選択された撮影装置の映像を選択し、映像配信部509に送る。映像配信部509は、仮想視点映像生成部503により生成された仮想視点映像と、映像選択部508から送られた映像とを、所定の表示形式およびフォーマットに変換して出力する。
次に、第1実施形態による映像処理装置120の動作について説明する。図10は、第1実施形態による映像処理装置120の動作を示すフローチャートである。S110において、分離部501は、撮影領域200に存在する被写体に対応する前景映像を取得する。次に、S111において、形状生成部502は、分離部501により取得された前景映像に基づいて、被写体の三次元形状を推定し、被写体の三次元形状の情報とそれに対応したバウンディングボックスを生成する。
S112において、撮影範囲判定部505は、S111で生成されたバウンディングボックスの各々について、複数の撮影装置110からバウンディングボックスを撮影している撮影装置を判定する。撮影範囲判定部505は、その判定結果を用いて、各時刻における、バウンディングボックスとそれを撮影している撮影装置とを対応付けたリストを生成する。図11に、撮影範囲判定部505によって生成されるリスト(リスト1100)の一例を示す。リスト1100では、各時刻において、バウンディングボックスとそれを撮影する撮影装置の番号の対応がリスト化されている。なおリスト1100のデータ形式は図示のものに限られない。リスト1100は、少なくとも時系列におけるバウンディングボックスとそのバウンディングボックスを撮影している撮影装置を特定する情報を含んでいればよい。
S113において、被写体特定部506は、入力部504を介して注視被写体が指定されたか否かを判定する。注視被写体が指定されていなければ(S113でNO)、処理はS110へ戻る。注視被写体が指定されていると判定された場合(S113でYES)、処理はS114へ進む。S114において、被写体特定部506は、指定された注視被写体に対応したバウンディングボックスを特定する。そして、撮影装置選択部507は、被写体特定部506により特定されたバウンディングボックスを撮影している撮影装置を、S112で出力されたリスト1100を参照して選択する。S115において、映像選択部508は、撮影装置選択部507で選択された撮影装置から得られた映像を選択する。なお、映像選択部508が複数の映像を選択する場合、ユーザー設定に従った優先順で映像を選択するようにしてもよい。
S116において、映像配信部509は、映像選択部508により選択された映像を適切な出力フォーマットに変換して得られた映像を含む表示情報をユーザー端末130に出力し、本処理を終了する。表示情報は、ユーザー端末130において、配信される映像を切り替える(撮影装置を切り替える)際に、ユーザーに提示される映像を提供する。S116で出力される表示情報に従ってユーザー端末130が表示する映像の例を図12に示す。図12は出力された表示情報を受信したユーザー端末130の表示装置が表示する画像である。ここでは、被写体410が注視被写体に指定され、被写体410を撮影している撮影装置(撮影装置選択部507により選択された撮影装置)からの映像が表示されている。表示画面1200中に被写体確認用の映像1201(撮影装置900から得られる映像)と、映像選択部508で選択された被写体410を撮影している撮影装置の映像1210、映像1211、映像1212が表示されている。これら映像1210~1212の表示位置や大きさなどの表示条件は、ユーザーによりあらかじめ設定しておくことができる。例えば、映像中の被写体の大きさを優先する場合、被写体が大きく映っているほど映像に高い順位が付され、付された順位に従って映像が配置され、表示される。図12では、映像中の被写体410の大きさを優先し、被写体411の大きい順に中央から映像が配置された状態を示している。具体的には、映像配信部509は、指定された被写体に対応したバウンディングボックスの面積の撮影装置の映像全体に占める割合が大きい順に撮影映像が並ぶように表示情報(映像)を生成し、配信する。このように、あらかじめユーザー操作等により表示条件が設定されている場合、映像配信部509は、映像選択部508で選択された撮影映像に対して、設定された表示条件に従った表示順序や大きさ等を設定し、表示情報(映像)を生成し、出力する。なお、順位の高い順に所定数の映像が表示されるようにしてもよい。さらに、その所定数をユーザーが設定できるようにしてもよい。
もちろん表示条件は上記に限られるものではなく種々の条件を適用することができる。例えば、映像から被写体が人物等のように正面が存在する物体であれば、被写体が正面を向いている映像に高い順位を設定するようにしてもよい。被写体の映っている位置が中央に近いほど映像に設定される順位を高くするようにしてもよい。また、類似した映像と判断された場合には、映像選択部508で選択された映像のすべてを表示せずに、明るさやコントラスト等から撮影状態を判断し、撮影状態の良い映像を代表として表示するようにしてもよい。例えば、映像中の被写体の大きさや位置を定量化して数値として算出し、算出された数値の差が所定値以下の映像を類似した映像とし、類似した映像のグループに分類する。そして、映像のグループのそれぞれから、明るさやコントラスト等に基づいて撮影状態がよいと判定された映像が代表として選択され、表示される。上記では、映像の表示によって撮影装置選択部507により選択された撮影装置を提示する例を示したがこれに限られるものではない。例えば、識別情報の提示によって撮影装置選択部507により選択された撮影装置を提示するようにしてもよい。この場合、映像について設定した順位は、対応する撮影装置の順位でもある。従って、表示される撮影装置の識別情報の配置が上記順位に従って決定されてもよい。なお、これら例示された表示条件は、映像処理システム100の使用条件等に応じて設定されてもよい。
ユーザーが候補映像(映像1210、映像1211、映像1212)から所望の映像を選択すると、選択された映像を撮影している撮影装置からの映像を配信対象にするように映像処理装置120に指示する。この指示は、入力部504を介して映像選択部508に通知され、映像選択部508は指示された撮影装置からの映像を選択する。映像配信部509は、それまでに配信していた映像の配信を停止し、映像選択部508により選択された映像の配信を開始する。こうして、配信対象の映像の切り替えが実行される。
以上のように、第一実施形態によれば、特定の被写体を撮影している撮影装置の映像が候補映像として表示される。ユーザーは、表示された候補映像の中から所望の候補映像を選択することで、特定の被写体を撮影している撮影装置を選択することができる。このため、配信映像の切り替え操作が容易になる。なお、上記では、選択された撮影装置の映像(候補映像)を表示したが、選択された撮影装置を識別する情報(例えば、装置番号など)を表示するようにしてもよい。ユーザーは表示された識別情報から所望の撮影装置を選択することができる。この場合、映像を見ながら選択することはできないが、切り替え先の映像装置を絞り込むことができるので、操作性が向上する。
<第二実施形態>
図13から図17を参照して、第二実施形態による、特定の被写体を含む撮影装置の映像または仮想視点映像を特定し表示する方法について説明する。第一実施形態では、指定された被写体が映る撮影映像を実カメラである撮影装置により撮影される撮影映像から特定した。第二実施形態では、指定された被写体が映る撮影映像を撮影装置により撮影される撮影映像と仮想視点からの仮想映像の内から特定する。すなわち、第二実施形態では、切り替え映像の候補として、撮影装置の映像に加えて、配信され表示されている仮想視点映像とは別の仮想視点映像を用いる構成を説明する。
第二実施形態による映像処理装置120の機能構成について説明する。図13は、第二実施形態による映像処理装置120の機能構成例を示すブロック図である。各機能ブロックは第一実施形態(図3)と同様に、CPU121により補助記憶装置123に格納されているコンピュータプログラムを主記憶装置122に展開し実行することにより実現され得る。第二実施形態の映像処理装置120の機能ブロックでは、仮想視点映像生成部503aが撮影範囲判定部505aと映像選択部508aに接続されている。第一実施形態の映像処理装置120の機能ブロック(図5)と同様の機能ブロックには同一の参照番号を付してある。以下、主に、仮想視点映像生成部503a、撮影範囲判定部505aおよび映像選択部508aの機能を説明する。
仮想視点映像生成部503aは、一つないしは複数の仮想視点の位置及び方向の指定を受け付け、受け付けた仮想視点の情報に従って一つないしは複数の仮想視点映像を生成する。映像選択部508aは、映像受信部500で受信した複数の撮影装置の映像と、仮想して仮想視点映像生成部503aで生成された仮想視点映像のうちから、配信すべき映像を選択する。また、仮想視点映像生成部503aは、仮想視点の位置及び撮影画角の情報を撮影範囲判定部505aに提供する。
第一実施形態と同様に、撮影範囲判定部505aは、あらかじめ、複数の撮影装置110のそれぞれの撮影範囲の情報を算出し、メモリに格納している。また、撮影範囲判定部505aは、仮想視点映像生成部503aからの仮想視点の位置及び撮影画角の情報より仮想視点の撮影範囲を算出し、複数の撮影装置110のそれぞれの撮影範囲に加えてメモリに格納する。図14に、第二実施形態の撮影範囲判定部505aが算出する撮影範囲の一例を示す。第一実施形態において算出された撮影装置110の撮影範囲の情報に加えて、仮想視点1401の撮影範囲(仮想視点1401により生成される仮想視点映像の範囲)を算出する。ここでは点o2、点p2、点q2、点r2、点s2、点t2、点u2、点v2を頂点とする立体図形(四角錐台)で定義される撮影範囲1400が仮想視点1401の撮影範囲として算出されている。また、仮想視点が複数存在する場合には、撮影範囲判定部505aは、すべての仮想視点に対して撮影範囲を算出し、メモリに格納する。さらに、撮影範囲判定部505aは、形状生成部502で生成されたバウンディングボックスを撮影している否かを、全ての撮影装置と仮想視点について判定する。撮影範囲判定部505aは、バウンディングボックスと当該バウンディングボックスを撮影している撮影装置および仮想視点を対応付けた、図16に示されるようなリスト1600を生成する。
撮影装置選択部507a、映像選択部508a、映像配信部509は、第一実施形態と同様の処理を行うが、あらかじめ用意されている仮想視点の映像を撮影装置の映像と同様に扱う。
次に、第二実施形態における映像処理装置120の動作について説明する。図15は、第二実施形態による映像処理装置120の動作を示すフローチャートである。
S210において、分離部501は、撮影領域200に存在する被写体の前景映像を生成する。次に、S211において、形状生成部502は、分離部501で生成された前景映像をもとに三次元形状を推定し、三次元形状の情報およびそれに対応したバウンディングボックスを生成する。S212において、仮想視点映像生成部503aは、入力部504に入力された仮想視点からの仮想視点映像を生成する。仮想視点映像生成部503aは、仮想視点の位置および撮影画角を含む仮想視点情報を撮影範囲判定部505aに出力する。
S213において、撮影範囲判定部505aは、S211で生成されたバウンディングボックスを撮影している撮影装置および仮想視点を判定する。撮影領域200に複数のバウンディングボックスが存在する場合には、撮影範囲判定部505aは、それらのすべてのバウンディングボックスについて、バウンディングボックスを撮影する撮影装置及び仮想視点を判定する。撮影範囲判定部505aは、これら判定の結果に基づいて、各時刻におけるバウンディングボックスとそれを撮影している撮影装置のリストを生成する。図16にこのリスト(リスト1600)の一例を示す。リスト1600は、各時刻におけるバウンディングボックスとそれを撮影している撮影装置および仮想視点の番号をリスト化したものである。なおリストのデータ形式は図16に示されたものに限られない。リスト1600は、少なくともある時系列におけるバウンディングボックスとそのバウンディングボックスを撮影している撮影装置および仮想視点を特定する情報を含んでいればよく、そのデータ形式は問わない。
続いて、S214において、被写体特定部506は、入力部504を介して注視被写体が指定されたか否かを判定する。注視被写体が指定されていないと判定された場合(S214でNO)処理はS211に戻る。他方、注視被写体が指定されたと判定された場合(S214でEYS)、処理はS215へ進む。S215において、被写体特定部506は、指定された注視被写体に対応したバウンディングボックスを特定する。S216において、撮影装置選択部507aは、S213で生成されたリスト1600を参照して、S215で特定されたバウンディングボックスを撮影している撮影装置および仮想視点を選択する。そして、映像選択部508aは、撮影装置選択部507aにより選択された撮影装置および仮想視点の映像を、出力対象の映像として選択する。ユーザーにより表示条件が設定されている場合の処理は、第一実施形態と同様である。
S217において、映像配信部509は、選択された映像を適切な出力フォーマットに変換することにより表示情報(提示用の映像)を生成し、ユーザー端末130に出力する。第二実施形態による表示情報を受信したユーザー端末130による出力映像の例を図17に示す。図17は出力された表示情報(映像)を受信したユーザー端末130の表示装置が表示する画像例である。ここでは、被写体410が注視被写体に指定され、指定された注視被写体を撮影している撮影装置及び仮想視点の映像が表示されている。具体的には、表示画面1200中に映像1201(撮影装置900から得られる映像)と映像選択部508で選択された仮想視点の映像1710と撮影装置の映像1711及び映像1712が表示されている。映像1710、映像1711及び映像1712は、注視被写体である被写体410を映す切り替え候補の映像である。なお、第一実施形態と同様に、これら映像1710~1711の表示位置や大きさ等はユーザーからあらかじめ設定された表示条件に従うものとする。また、図17に示されるように、仮想視点の映像であるか撮影装置の映像であるかをユーザーが区別可能な表示となるように表示情報(映像)が構成されてもよい。
以上のように、第二実施形態によれば、特定の被写体を含む撮影装置の映像または仮想視点からの仮想視点映像が特定され、切り替え候補として表示される。ユーザーは、候補として表示された映像から所望の映像を選択することができるので、映像の切り替え時の操作性が向上する。
(その他の実施例)
本開示は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100:映像処理システム、110:撮影装置、120:映像処理装置、130:ユーザー端末、500:画像受信部、501:分離部、502:形状生成部、503:仮想視点映像生成部、504:入力部、505:撮影範囲判定部、506:被写体特定部、507:撮影装置選択部、508:映像選択部、509:映像配信部

Claims (16)

  1. 複数の撮影装置により撮影される撮影領域に存在する被写体であって、ユーザーにより指定された被写体に対応する三次元形状の情報に基づいて、当該被写体を撮影範囲に含む撮影装置を、前記複数の撮影装置から特定する特定手段と、
    特定された前記撮影装置の提示を含む表示情報を出力する出力手段と、を有することを特徴とする映像処理装置。
  2. 前記被写体は、前記複数の撮影装置とは別の撮影装置により前記撮影領域を撮影して取得された映像からユーザーが指定した被写体であることを特徴とする請求項1に記載の映像処理装置。
  3. 前記被写体は、前記複数の撮影装置の撮影により取得された映像と仮想視点とに基づいて生成される仮想視点映像においてユーザーが指定した被写体であることを特徴とする請求項1に記載の映像処理装置。
  4. 前記特定手段は、前記三次元形状の情報により表される被写体を囲うバウンディングボックスの少なくとも一部を撮影範囲に含む撮影装置を選択することを特徴とする請求項1乃至3のいずれか1項に記載の映像処理装置。
  5. 前記特定手段は、前記複数の撮影装置の各々の撮影範囲を、前記複数の撮影装置の各々の位置と姿勢に基づいて取得することを特徴とする請求項1乃至4のいずれか1項に記載の映像処理装置。
  6. 前記提示は、前記特定手段により特定された撮影装置の映像の提示を含む、ことを特徴とする請求項1乃至5のいずれか1項に記載の映像処理装置。
  7. 前記提示は、前記特定手段により特定された撮影装置を識別する情報の提示を含む、ことを特徴とする請求項1乃至6のいずれか1項に記載の映像処理装置。
  8. 前記特定手段により特定された撮影装置の映像に基づいて、特定された前記撮影装置または特定された前記撮影装置の映像に順位を設定する設定手段をさらに有し、
    前記表示情報では、前記設定手段により設定された順位に基づいて、前記提示が配置されていることを特徴とする請求項1乃至5のいずれか1項に記載の映像処理装置。
  9. 前記設定手段は、映像に映る被写体の大きさが大きいほど高い順位を設定すること、映像に映る被写体が正面を向いている映像に高い順位を設定すること、映像に映る被写体の位置が映像の中央に近いほど高い順位を設定すること、の少なくとも何れかの条件に基づいて、特定された撮影装置に順位を設定することを特徴とする請求項8に記載の映像処理装置。
  10. 前記特定手段により特定された撮影装置を、映像中の被写体の大きさまたは位置を定量化することにより類似する映像を撮影した撮影装置のグループに分類し、グループごとに一つの撮影装置を決定する決定手段をさらに有し、
    前記表示情報は、前記決定手段によりグループごとに決定された一つの撮影装置の提示を含むことを特徴とする請求項1乃至9のいずれか1項に記載の映像処理装置。
  11. 配信対象の映像を、前記表示情報に従って提示された撮影装置のうちからユーザーにより選択された撮影装置の映像へ切り替える切り替え手段をさらに有することを特徴とする請求項1乃至10のいずれか1項に記載の映像処理装置。
  12. 前記特定手段は、さらに、あらかじめ設定されている仮想視点のうちから、前記ユーザーが指定した被写体を含む仮想視点映像が生成される仮想視点を特定し、
    前記表示情報は、前記特定手段により特定された撮影装置と仮想視点の提示とを含む、ことを特徴とする請求項1乃至10のいずれか1項に記載の映像処理装置。
  13. 前記表示情報による撮影装置と仮想視点の提示は、撮影装置であるか仮想視点であるかをユーザーが区別可能であることを特徴とする請求項12に記載の映像処理装置。
  14. 配信対象の映像を、前記表示情報に従って提示された撮影装置または仮想視点のうちからユーザーにより選択された撮影装置または仮想視点の映像へ切り替える切り替え手段をさらに有することを特徴とする請求項12または13に記載の映像処理装置。
  15. 複数の撮影装置により撮影される撮影領域に存在する被写体であって、ユーザーにより指定された被写体に対応する三次元形状の情報に基づいて、当該被写体を撮影範囲に含む撮影装置を、前記複数の撮影装置から特定する特定工程と、
    特定された前記撮影装置の提示を含む表示情報を出力する出力工程と、を有することを特徴とする映像処理装置の制御方法。
  16. 請求項1乃至14のいずれか1項に記載された映像処理装置の各手段としてコンピュータを機能させるためのプログラム。
JP2022025603A 2022-02-22 2022-02-22 映像処理装置およびその制御方法、プログラム Pending JP2023122130A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022025603A JP2023122130A (ja) 2022-02-22 2022-02-22 映像処理装置およびその制御方法、プログラム
US18/165,990 US20230269356A1 (en) 2022-02-22 2023-02-08 Video processing apparatus and control method of the same, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022025603A JP2023122130A (ja) 2022-02-22 2022-02-22 映像処理装置およびその制御方法、プログラム

Publications (1)

Publication Number Publication Date
JP2023122130A true JP2023122130A (ja) 2023-09-01

Family

ID=87574854

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022025603A Pending JP2023122130A (ja) 2022-02-22 2022-02-22 映像処理装置およびその制御方法、プログラム

Country Status (2)

Country Link
US (1) US20230269356A1 (ja)
JP (1) JP2023122130A (ja)

Also Published As

Publication number Publication date
US20230269356A1 (en) 2023-08-24

Similar Documents

Publication Publication Date Title
JP7051457B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7146662B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP5740884B2 (ja) 繰り返し撮影用arナビゲーション及び差異抽出のシステム、方法及びプログラム
JP6849430B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US11627251B2 (en) Image processing apparatus and control method thereof, computer-readable storage medium
JP2016213808A (ja) カメラ選択方法及び映像配信システム
US10771761B2 (en) Information processing apparatus, information processing method and storing unit
JP7196421B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP7237538B2 (ja) 情報処理装置、それを含むシステム、情報処理方法、およびプログラム
JP2013025649A (ja) 画像処理装置及び画像処理方法、プログラム
JP2020053774A (ja) 撮像装置および画像記録方法
JP5253300B2 (ja) 表示制御装置、表示装置の制御方法、プログラム、記憶媒体
JP7027049B2 (ja) 画像処理装置、画像処理方法及びプログラム
US11468258B2 (en) Information processing apparatus, information processing method, and storage medium
JP2019101563A (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP2008187678A (ja) 映像生成装置及び映像生成プログラム
JP2023057124A (ja) 画像処理装置及び方法、プログラム
JP2023122130A (ja) 映像処理装置およびその制御方法、プログラム
WO2018234622A1 (en) METHOD OF DETECTING EVENTS OF INTEREST
JP7447403B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
WO2024084943A1 (ja) 情報処理装置、情報処理方法、プログラム
WO2018235762A1 (ja) 表示制御装置、表示制御方法、およびプログラム
US20220408069A1 (en) Information processing apparatus, information processing method, and storage medium
WO2024070763A1 (ja) 情報処理装置、撮影システム、情報処理方法、プログラム
US11917117B2 (en) Processing system, processing method and non-transitory computer-readable storage medium