JP2023013538A - 画像処理装置、画像処理方法、及びプログラム - Google Patents
画像処理装置、画像処理方法、及びプログラム Download PDFInfo
- Publication number
- JP2023013538A JP2023013538A JP2021117789A JP2021117789A JP2023013538A JP 2023013538 A JP2023013538 A JP 2023013538A JP 2021117789 A JP2021117789 A JP 2021117789A JP 2021117789 A JP2021117789 A JP 2021117789A JP 2023013538 A JP2023013538 A JP 2023013538A
- Authority
- JP
- Japan
- Prior art keywords
- image
- background
- foreground
- captured
- virtual viewpoint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/282—Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
【課題】適切な背景画像の生成に要する時間を短縮する装置及び方法を提供する。【解決手段】画像生成装置において、設定受信部は、前景オブジェクトの中から背景化する対象としてユーザが選択したオブジェクトを特定する情報を取得する。背景化対象決定部は、取得したオブジェクトを特定する情報と三次元形状データとに基づき、オブジェクトのモデルIDを特定する。背景化対象決定部は、三次元形状データに基づき、特定したモデルIDに対応する実カメラの撮像画像における前景IDを特定し、特定した前景IDに対応する前景データに含まれる座標情報とマスク情報を取得し、補正用前景マスクを生成し、補正用マスクを画像処理部の背景補正部へ送信する。背景補正部は、背景化対象決定部で生成した補正用前景マスクを使用して撮像画像をマスクし、補正画像を生成し、補正画像を背景生成部から取得した背景画像に重畳し、補正背景画像として出力する。【選択図】図4
Description
本開示は、複数の撮像画像を用いて仮想視点画像を生成するための技術に関する。
従来、異なる位置に設置された複数の撮像装置により複数の方向から同期して被写体(オブジェクト)を撮像し、その撮像により得られた複数の撮像画像を用いて仮想視点画像を生成する技術が提案されている。このように生成される仮想視点画像は、撮像装置の設置位置に限定されない仮想的な視点における見え方を表す画像である。
仮想視点画像は、複数の撮像画像の前景と背景を分離して、前景の3Dモデルを生成し、生成した前景の3Dモデルに対してそれぞれレンダリングを行うことで実現できる。このように仮想視点画像を生成する場合には前景と背景を分離する、すなわち前景を抽出する必要があるが、その方法の1つとして背景差分法がある。
背景差分法とは、動く物体が無い画像(背景画像)を予め生成しておき、前景を抽出する対象の撮像画像と背景画像との対応する画素における輝度差が閾値以上の領域を移動物体(前景)として抽出する手法である。この背景差分法を用いて撮像画像から前景を抽出するためには、背景画像に映る背景オブジェクトの位置が撮像画像に映る背景オブジェクトの位置と一致するように対応付けられていることが必要である。そのため、対象の撮像画像に映る背景オブジェクトの位置が変化すると、適切に前景を抽出することができなくなる。
この点、特許文献1では、一定期間静止している物体を検出した場合、その物体を表示している領域を背景画像に書き込む技術が開示されている。この特許文献1の技術を用いることで、背景オブジェクトが動いて前景オブジェクトとして扱われてしまったとしても、そのオブジェクトは所定の時間が経過すれば背景画像に書き込まれて前景として抽出されなくなる。
しかし、特許文献1では、静止しているか否かを判定するために所定の時間が経過するのを待たなければならず、適切な背景画像を生成するのに時間を要するという課題がある。
そこで本開示は、画像処理装置であって、複数の撮像装置で撮像して得られた複数の撮像画像を取得する取得手段と、前記複数の撮像画像に基づき、撮像装置別の撮像画像に対応する複数の背景画像を生成する背景生成手段と、前記複数の撮像画像の各撮像画像と前記複数の背景画像のうち当該各撮像画像に対応する背景画像との差分を前景領域としてオブジェクト単位で抽出する前景抽出手段と、前記撮像装置別の撮像画像のそれぞれにおける、ユーザが指定したオブジェクトに対応する前景領域を決定する決定手段と、を備え、前記背景生成手段は、前記複数の背景画像のそれぞれを、対応する前記撮像装置別の撮像画像における前記決定された前景領域に基づき更新する、ことを特徴とする。
本開示によれば、適切な背景画像の生成に要する時間を短縮することができる。
本実施形態における情報処理システムについて説明する。本実施形態における情報処理システムは、例えば放送カメラ等、実際に撮像を行うための撮像装置(以降、実カメラという)の撮像映像(以降、実カメラ映像ともいう)と、仮想視点に対応する仮想視点映像とを切り替えて出力する機能を有する。仮想視点とは、ユーザにより指定される視点である。また、以下の説明においては、説明の便宜のため、仮想視点の位置に仮想的に配置されるカメラ(以降、仮想カメラという)を使用して説明を行う。すなわち、仮想視点の位置及び仮想視点からの視線方向は、それぞれ、仮想カメラの位置及び姿勢に対応する。また、仮想視点からの視界(視野)は、仮想カメラの画角に対応する。
また、本実施形態における仮想視点映像は、自由視点映像とも呼ばれるものであるが、ユーザが自由に(任意に)指定した視点に対応する映像に限定されず、例えば複数の候補からユーザが選択した視点に対応する画像なども仮想視点映像に含まれる。また、本実施形態では仮想視点の指定がユーザ操作により行われる場合を中心に説明するが、仮想視点の指定が画像解析の結果等に基づいて自動で行われてもよい。また、本実施形態では仮想視点映像が動画である場合を中心に説明する。仮想視点映像は、仮想カメラにより撮像される映像であるといえる。
以下、図面を参照して、本開示の実施形態を説明する。
[実施形態1]
本実施形態では、複数の撮像装置で撮像して得られた複数の撮像画像を前景領域と背景領域とに分離し、少なくとも前景領域に対応する前景オブジェクトを表す仮想視点画像を生成した後、ユーザが仮想視点画像上で背景化したい前景オブジェクトを選択する。そして、選択した前景オブジェクトに対応する、撮像装置別の撮像画像について前景領域を特定し、特定した前景領域に基づき、撮像装置別の撮像画像ごとに用意された背景画像を更新する。更新された背景画像に基づき撮像画像の前景背景分離を行うことで、仮想視点画像も更新される。
本実施形態では、複数の撮像装置で撮像して得られた複数の撮像画像を前景領域と背景領域とに分離し、少なくとも前景領域に対応する前景オブジェクトを表す仮想視点画像を生成した後、ユーザが仮想視点画像上で背景化したい前景オブジェクトを選択する。そして、選択した前景オブジェクトに対応する、撮像装置別の撮像画像について前景領域を特定し、特定した前景領域に基づき、撮像装置別の撮像画像ごとに用意された背景画像を更新する。更新された背景画像に基づき撮像画像の前景背景分離を行うことで、仮想視点画像も更新される。
図1は、本実施形態における仮想視点画像を生成する画像処理システム10の構成の一例を示す。画像処理システム10は、実カメラ101~110を有する実カメラ群100と、実カメラ101~110のそれぞれと接続されたハブ210、ハブ210を介して実カメラ群100と接続された仮想視点画像を生成する画像生成装置220を備える。さらに、画像生成装置220を操作するためのUI(User Interface)部230、画像生成装置220で生成された仮想視点画像を表示する画像表示装置240を有する。
なお、画像処理システム10の構成は図1に示すものに限定されるものではない。実カメラ群100に含まれる複数の実カメラ101~110は、画像生成装置220に直接接続されていても良いし、実カメラ同士がデイジーチェーンで接続されて、1つの実カメラだけが画像生成装置220に接続されていても良い。画像生成装置220は、複数の装置により構成されていてもよいし、画像生成装置220がUI部230を内部に有していてもよい。画像処理システム10に含まれる各装置は有線で接続されていてもよいし、無線で接続されていてもよい。
図2は、実カメラ群100の実カメラ101~110の配置の一例を示している。実カメラ101~110は、撮像対象となる撮像領域200を取り囲むように配置されており、仮想視点画像を生成するためにそれぞれ異なる位置から撮像して撮像画像を取得する。カメラ群100に含まれる各実カメラ101~110は、例えばデジタルカメラであり、静止画像を撮像する撮像装置であっても、動画像を撮像する撮像装置であっても、静止画像と動画像の両方を撮像する撮像装置であっても良い。本実施形態では、画像という文言を、特に断りがない限り静止画及び動画を含むものとして説明する。なお、本実施形態では、撮像センサを有する撮像部と、光線を撮像センサに集めるレンズとを合わせて撮像装置又は実カメラと呼ぶ。画像処理システム10は、実カメラ群100で撮像して得られた複数の撮像画像を用いて撮像領域200内の仮想視点画像を生成するものである。なお、実カメラ群100に含まれる実カメラの台数は本実施形態で例示する10台に限定されるものではなく、複数の実カメラが含まれていれば良い。また、実カメラ群100は撮像領域200を全方向から取り囲んでいなくても良い。
実カメラ群100で撮像されて得られた撮像画像は、ハブ210を介して画像生成装置220へ送られる。画像生成装置220は、UI部230を介して仮想視点画像の生成処理に関する指示を受け付け、受け付けた指示において設定された仮想視点の位置と視線方向に従って仮想視点画像を生成する。UI部230は、マウスやキーボード、操作ボタン、タッチパネルなどの操作部を有し、ユーザによる操作を受け付ける。
画像生成装置220は、実カメラ101~110で撮像して得られた複数の撮像画像に基づき、少なくとも前景の3Dモデル(三次元形状データ)を生成し、設定された仮想視点の位置と視線方向に応じて三次元形状データに対しレンダリング処理を行う。このようにして画像生成装置220は、仮想視点における見えを表す仮想視点画像を生成する。複数の撮像画像から仮想視点画像を生成する処理には、Visual Hullなどの既知の方法を用いることができる。なお、仮想視点画像を生成するアルゴリズムはこれに限るものではなくても良い。
画像表示装置240は、画像生成装置220が生成した仮想視点画像を取得して表示する。
図3は、画像生成装置220のハードウェア構成の一例を示している。画像生成装置220は、CPU2201、ROM2202、RAM2203、補助記憶装置2204、通信I/F2205、及びバス2206を有する。CPU2201は、ROM2202やRAM2203に格納されているコンピュータプログラムやデータを用いて画像生成装置220の全体を制御する。なお、画像生成装置220がCPU2201とは異なる1又は複数の専用の処理回路を有し、CPU2201による処理の少なくとも一部を専用の処理回路が実行してもよい。専用の処理回路の例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、及びDSP(デジタルシグナルプロセッサ)などがある。ROM2202は、変更を必要としないプログラムやパラメータを格納する。RAM2203は、補助記憶装置2204から供給されるプログラムやデータ、及び通信I/F2205を介して外部から供給されるデータなどを一時的に記憶する。補助記憶装置2204は、例えばSSDやHDD等で構成され、画像や音声などの種々のコンテンツデータを記憶する。
通信I/F2205は、実カメラ群100などの外部の装置との通信に用いられる。例えば、画像生成装置220が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F2205に接続される。画像生成装置220が外部の装置と無線通信する機能を有する場合、通信I/F2205はアンテナを備える。バス2206は、画像生成装置220の各部を繋いで情報を伝達する。なお、画像生成装置220がUI部230を内部に有している場合には、図3に示す構成に加え、画像生成装置220は表示部や操作部を有する。
図4は、本開示の一実施形態に係る画像生成装置220の機能構成を示している。画像生成装置220は、撮像画像処理部301、三次元形状データ生成部350、仮想視点画像生成部360、設定受信部370、背景化対象決定部380を有する。
撮像画像処理部301は、実カメラ101から出力された撮像画像を受信し、背景差分法により前景領域と背景領域とに分離し、前景領域を抽出して出力する。撮像画像処理部301は実カメラ101~110のそれぞれに対応する複数の処理部を含み、各処理部は対応する実カメラから撮像画像を受信し、前景領域を抽出して出力する。撮像画像処理部301の各処理部は、画像受信部310、背景生成部320、背景補正部330、前景抽出部340を有する。
画像受信部310は、ハブ210を介して、実カメラ101~110のうちの1つから出力された撮像画像を受信し、背景生成部320、背景補正部330、前景抽出部340へ撮像画像を出力する。
背景生成部320は、画像受信部310から撮像画像を受信し、ユーザの指示などにより指定された撮像画像を背景画像として記憶する。記憶するタイミングは、ユーザの指示を受けた時でなくても良く、特に限定されない。背景生成部320は、記憶した背景画像を背景補正部330へ出力する。
背景補正部330は、後述する背景化対象決定部380から補正用前景マスクを取得し、画像受信部310から取得した撮像画像に対して補正用前景マスクを適用して補正画像を生成する。そして、背景生成部320から取得した背景画像に補正画像を重畳して補正背景画像を生成し、前景抽出部340へ出力する。補正画像が無い場合は、背景画像をそのまま前景抽出部340へ出力する。処理の詳細については後述する。
前景抽出部340は、画像受信部310から取得した撮像画像と、背景補正部330から取得した背景画像又は補正背景画像との差分を求め、撮像画像における差分値が所定の閾値以上と判定した画素からなる領域を前景領域として抽出する。そして、前景抽出部340は、オブジェクト単位で前景ID情報、座標情報、前景領域の輪郭を規定するマスク情報、及び前景領域のテクスチャ情報を含む前景データを生成して三次元形状データ生成部350へ出力する。前景データの詳細については後述する。撮像画像処理部301の各処理部から出力された実カメラ101~110に対応する前景データは、三次元形状データ生成部350に集約される。
三次元形状データ生成部350は、撮像画像処理部301の各処理部から取得した実カメラ101~110ごとの前景データに基づき、三次元形状データを生成する。三次元形状データを生成する手法は、一般的に使用されている視体積交差法などを用いる。視体積交差法とは、異なる実カメラで同時刻に撮像して得られた複数の撮像画像から生成された複数の前景データのマスク情報に基づき、三次元空間に形成した視体積の交差部分を求めることにより、三次元形状データを得る手法である。三次元形状データ生成部350は、生成した三次元形状データを仮想視点画像生成部360へ出力する。なお、この三次元形状データを生成する過程で、実カメラ別の撮像画像間で同一オブジェクトについての前景データ同士が関連付けられる。
仮想視点画像生成部360は、設定された仮想視点に基づき、三次元形状データ生成部350から取得した前景の三次元形状データ及び対応する前景データに含まれるテクスチャ情報を用いてレンダリング処理を行い、前景の仮想視点画像を生成する。このとき、背景の仮想視点画像を同様に生成し、前景の仮想視点画像と背景の仮想視点画像とを組み合わせてもよい。なお、前景及び背景を含む仮想視点画像は、前景と背景とを別々にレンダリングしたものを組み合わせて生成してもよいし、前景と背景とを同時にレンダリングして生成してもよい。
設定受信部370は、UI部230からユーザ指示情報を取得する。ユーザ指示情報には、背景記憶指示情報、背景補正制御指示情報、背景化オブジェクト選択指示情報がある。
背景記憶指示情報は、背景画像の記憶を指示する情報で、背景生成部320へ出力される。背景生成部320は、受信したタイミングで画像受信部310から取得した撮像画像を背景画像として記憶し、背景補正部330に出力する。
背景補正制御指示情報は、記憶された背景画像を補正する機能のオン・オフを制御するための情報で、背景補正部330へ出力される。背景補正部330は、受信したタイミングで背景生成部320に記憶された背景画像の補正処理の有効・無効を切り替える。補正オフ情報を受信した場合は、補正処理を無効化する。つまり、背景生成部320から出力された背景画像を受信し、そのまま前景抽出部340へ出力する。
背景化オブジェクト選択指示情報は、仮想視点画像生成部360にて生成された仮想視点画像において背景としたい前景オブジェクトを特定する情報で、三次元形状データ生成部350へ出力される。
背景化対象決定部380は、設定受信部370から背景化オブジェクト情報を取得する。背景化オブジェクト情報とは、仮想視点画像上に表示されている前景オブジェクトのうち背景化したいオブジェクトに関する情報である。背景化対象決定部380は、取得した背景化オブジェクト情報が示す前景オブジェクトに対応する三次元形状データを三次元形状データ生成部350から取得した三次元形状データから検出する。そして背景化対象決定部380は、その検出した三次元形状データに関連付けられた実カメラ毎の前景データを特定する。この背景化したいオブジェクトに対応する前景データを特定する処理の詳細は後述する。背景化対象決定部380は、取得した実カメラ毎の前景データに基づき、実カメラ毎の背景化オブジェクトマスクを生成し、撮像画像処理部301の対応する各処理部の背景補正部330へ出力する。処理の詳細は後述する。
図5(a)~(c)は、正常時の撮像画像、背景画像、仮想視点画像の表示例を示している。正常時とは、所望のオブジェクトが前景として抽出された仮想視点画像が生成されているときを意味している。図5(a)は、実カメラ101が撮像領域200の一部を撮像して得られた撮像画像400を示している。撮像画像400には、円柱401とボックス402とケーブル403が映っている。図5(b)は、実カメラ101が撮像領域200を撮像して得られた撮像画像のうち、円柱411とケーブル413が映り、ボックス402が映っていない撮像画像である背景画像410を示している。なお、背景画像410は、複数の撮像画像からボックス402が映っていない領域の画像を合成して生成したものでもよい。このような図5(a)、(b)の画像に対して背景差分法を用いて処理すると、ボックス402が前景として抽出される。図5(c)は、全ての実カメラで同時刻に撮像領域200を撮像して得られた撮像画像から抽出された前景データに基づき生成された仮想視点映像420を示している。オブジェクト421は、図5(a)に示すボックス402に対応するオブジェクトである。
図6は、前景抽出部340で抽出した前景データの一例を示しており、図5(a)、(b)に示す撮像画像400と背景画像410に対して背景差分法を用いて抽出した前景領域に基づき生成された前景データを表している。前景データは、各撮像画像のオブジェクト単位の前景領域を識別するための前景ID情報と、前景領域が撮像画像のどこに映っているかを表す座標情報、前景領域の輪郭を規定するマスク情報、オブジェクトの表面の色味や質感を表すテクスチャ情報で構成される。
図7は、三次元形状データ生成部350で生成したオブジェクト単位の三次元形状データを識別するモデルIDと、オブジェクト単位の三次元形状データを生成するために用いた実カメラ毎の撮像画像における前景IDとの対応表である。この対応表は、連続する空間を構成するオブジェクト単位の三次元形状を識別するためのモデルID情報と、モデルID情報で特定される三次元形状データの生成に利用した実カメラ毎の撮像画像から生成された前景データにおける前景ID情報とを対応付ける。モデルID1は、図5(c)のオブジェクト421を表しており、各実カメラの撮像画像に映っている図5(a)のボックス402に対応するオブジェクトを前景として抽出して三次元形状データを生成したことを示している。
図8(a)~(c)は、異常時の撮像画像、背景画像、仮想視点画像の表示例を示している。異常時とは、前景としたくないオブジェクトが前景としてレンダリングされた仮想視点画像が生成されているときを意味している。本例では、図5に示すケーブル403が移動したことにより仮想視点画像上にも移動したケーブルに対応するオブジェクトが前景として映った場合を示す。図8(a)は、実カメラ101が撮像領域200の一部を撮像して得られた撮像画像500を示している。撮像画像500には、図5(a)と同様に円柱501とボックス502とケーブル503が映っているが、ケーブル503は図5(a)に示す正常時の撮像画像400に映るケーブル403の位置から移動している。図8(b)は、実カメラ101が撮像領域200の一部を撮像して得られた撮像画像のうち、円柱511とケーブル513が映り、ボックス502に対応するものが映っていない撮像画像である背景画像510を示しており、図5(b)と同じである。なお、背景画像510は、図5(b)と同様に複数の撮像画像のうちボックス502が映っていない領域を合成して生成されたものでもよい。このような、図8(a)、(b)の画像に対して背景差分法を用いて処理すると、ボックス502とケーブル503、さらに背景画像510上のケーブルが存在する領域に対応する撮像画像500上の領域が前景として抽出される。図8(c)は、全ての実カメラで同時刻に撮像領域200を撮像して得られた撮像画像から生成された前景データに基づき生成された仮想視点画像520を示している。オブジェクト521は、撮像画像500に映るボックス502に対応するオブジェクトである。オブジェクト522は、撮像画像500に映るケーブル503に対応するオブジェクト、オブジェクト523は、背景画像510に映るケーブル503が位置する撮像画像500上の領域に対応するオブジェクトである。
図9は、前景抽出部340で生成した前景データの一例を示しており、実カメラ101から得られた図8(a)に示す撮像画像500と図8(b)に示す背景画像510に対して背景差分法を用いて抽出した前景領域に基づき生成した前景データを表している。撮像画像500に映るケーブル503の位置が背景画像510に映るケーブル513に対して動いてしまったことにより、前景ID1の前景領域以外に前景ID2と前景ID3の2つの余計な前景領域が抽出されている。
図10は、三次元形状データ生成部350で生成したオブジェクト単位の三次元形状データを識別するモデルIDと、オブジェクト単位の三次元形状データを生成するために用いた実カメラ毎の撮像画像における前景IDとの対応表である。なお、このモデルIDと実カメラ毎の撮像画像における前景IDとの対応を示す情報は三次元形状データに含まれる。モデルID1、モデルID2、モデルID3は、図8(c)の仮想視点画像520に映るオブジェクト521、522、523に対応している。三次元形状データのモデルIDを確認することで、その三次元形状データを生成するのに利用した実カメラ毎の撮像画像における前景IDを特定することが可能である。仮想視点画像520を、正常時の仮想視点画像420のようにボックス502に対応するオブジェクト521のみを前景として表示させるためには、モデルID2とモデルID3を背景化する必要がある。
図11は、背景画像を補正するための補正用前景マスクを生成するための処理フローを示している。
まずS601では、設定受信部370は、UI部230から画像表示装置240に表示されている仮想視点画像上の前景オブジェクトの中から背景化する対象としてユーザが選択したオブジェクトを特定する情報を取得する。
S602では、背景化対象決定部380は、S601で取得した情報と三次元形状データとに基づき、選択されたオブジェクトのモデルIDを特定する。
S603では、背景化対象決定部380は、実カメラを識別するための識別子Nを初期化する。本実施形態では、Nの初期値を101とし、実カメラ101で撮像して得られた撮像画像から処理を行う。
S604では、背景化対象決定部380は、三次元形状データに基づき、S602で特定したモデルIDに対応する実カメラNの撮像画像における前景IDを特定する。なお、実カメラの位置・姿勢によっては、特定したモデルIDに対応する前景IDがない場合もある。このような場合、撮像タイミングが異なる別の撮像画像、又は撮像画像が動画であれば別のフレームから、特定されたモデルIDに対応する前景IDがあるものを処理対象とて用いるようにすればよい。
S605では、背景化対象決定部380は、S604で特定した前景IDに対応する前景データに含まれる座標情報とマスク情報を取得し、補正用前景マスクを生成する。
S606では、背景化対象決定部380は、S605で生成した補正用マスクを画像処理部301の実カメラNに対応する処理部の背景補正部330へ送信する。
S607では、背景化対象決定部380は、処理していない撮像画像が有るか否かを判定し、有る場合(S607 Yes)はS608を介してS604に戻り、全撮像画像の処理が終了した場合(S604 No)は本処理を終了する。
S608では、背景化対象決定部380は、実カメラの識別子NをカウントアップしてS604に戻る。
図12(a)、(b)は、仮想視点画像上で背景化する前景オブジェクトを選択する際、S601で画像表示装置240に表示される表示例である。画像701は、画像表示装置240の出力映像である。ポインタ702は、背景化したい前景オブジェクトを選択するためのポインタであり、UI部230により制御される。図12(a)は前景オブジェクト未選択時を示しており、図12(b)は前景オブジェクト選択時を示している。ポインタ702を背景化したい前景オブジェクト上に移動し、UI部230にて決定操作を実行すると、オブジェクト703のように前景オブジェクトの輪郭を強調し、選択中であることを表す表示に変化する。なお、ポインタ702の形状は、前景オブジェクトを選択できるものであれば良く、特に限定されない。また、前景オブジェクト選択中の表示は、前景オブジェクトの輪郭強調である必要はなく、選択中であることを示す表示であれば他の表示でも良く、特定の表示に限定されない。また、仮想視点画像上で前景オブジェクトを指定するのではなく、前景オブジェクトをリスト表示して、リストから選択するようにしてもよい。更には、画像表示装置240に仮想視点画像やリストを表示せずとも前景オブジェクトを選択できれば他の構成でも良い。最後に、前景オブジェクト選択処理の終了操作により、選択中の前景オブジェクトを背景化オブジェクトとして決定する。
図13は、S606で生成される補正用前景マスクの一例を示している。図13は、背景化オブジェクトとして図10のモデルID2とモデルID3を選択した時の実カメラ101で撮像して得られた撮像画像に適用する補正用前景マスクを表している。S604で、三次元形状データからモデルID2とモデルID3に対応する前景ID2と前景ID3の前景データに含まれる座標情報及びマスク情報を取得する。そして、前景ID2のマスク情報に基づくマスク802と前景ID3のマスク情報に基づくマスク803をそれぞれの座標情報の示す位置に配置することで1つの補正用前景マスク801を生成する。
なお、背景化オブジェクトと決定し、前景として表示されなくなったオブジェクトを再度前景として表示する機能を有しても良い。例えば、背景化オブジェクトのモデルIDのリストを保持している場合、そのリストにあるモデルIDのオブジェクトを仮想視点映像上に選択中の状態で再表示し、選択を解除されたオブジェクトを背景化オブジェクトのリストから削除する。背景化オブジェクトのリストから削除したモデルIDと対応付けられた補正用前景マスクや補正用前景マスクを用いて生成された背景画像を補正するための補正画像についても削除する。これにより背景画像にはリストから削除したモデルIDに対応するオブジェクトがなくなるので、再表示するように決定したオブジェクトが前景として抽出されるようになり、仮想視点映像上に前景として再度表示されるようになる。
図14は、背景補正部330の処理フローを示している。まず、背景補正部330は、背景補正機能の状態を確認する。状態の変更は、前述したUI部230から出力される背景補正制御指示情報に基づいて実施する。
S901では、背景補正部330は、背景補正機能がオフか否かを判定する。背景補正機能がオフの場合(S901 Yes)、S902に移行し、オンの場合(S901 No)、S904に移行する。
S902では、背景補正部330は、背景画像に対して既に補正画像を重畳した補正背景画像を使用しているか否かを判定する。補正背景画像を使用している場合(S902 Yes)、S903に移行し、補正背景画像を使用していない場合(S902 No)、処理を終了する。
S903では、背景補正部330は、補正背景画像に含まれる補正画像の使用を停止する。
このように、背景補正機能オフの場合(S901 Yes)は、補正されていない更新前の背景画像が前景抽出部340へ出力される。
S904では、背景補正部330は、補正背景画像にベース背景画像を利用するかを確認する。ベース背景画像とは、撮像領域200内に前景となり得るオブジェクトが何も映っていない画像である。ベース背景画像を利用するか否かは、ユーザからのUI部230を介したユーザ入力に基づき決定する。ベース背景画像を利用しない場合(S904 Yes)、S905に移行し、ベース背景画像を利用する場合(S904 No)、S907に移行する。
S905では、背景補正部330は、背景化対象決定部380で生成した補正用前景マスクを使用して撮像画像をマスクし、補正画像を生成する。
S906では、背景補正部330は、生成した補正画像を背景生成部320から取得した背景画像に重畳し、補正背景画像として前景抽出部340へ出力する。図15は、補正背景画像の生成過程を説明する図である。図15(a)は、実カメラ101の図8(a)の撮像画像500と背景化対象決定部380で生成した図13の補正用前景マスク801とを示している。図15(b)は、撮像画像500と補正用前景マスク801から生成された補正画像1500と図8(b)の背景画像510とを示している。補正画像1500は、撮像画像500に対して補正用前景マスク801でマスクすることにより生成される。図15(c)は、補正画像1500を図8(b)の背景画像に重畳することで生成された補正背景画像1510を示している。この補正背景画像1510は、補正前の背景画像510に対し、ケーブルが移動した状態の補正された背景画像となっている。前景抽出部340がこの補正背景画像1510に基づく背景差分法で前景抽出を行うことにより、ケーブルを前景として抽出することがなくなり、ケーブルが背景化された仮想視点画像を出力することができる。
S907では、背景補正部330は、ベース背景画像を補正背景画像として前景抽出部340へ出力する。図16は、ベース背景画像を補正背景画像として使用したときの状況を説明する図である。図16(a)は、実カメラ101で撮像して得られた撮像画像1600を示している。図16(b)は、実カメラ101で撮像して得られた撮像画像用のベース背景画像1610を示している。ベース背景画像1610は、撮像領域200に前景オブジェクトが何も無い状態で実カメラ101によって撮像して得られた撮像画像、又は複数の撮像画像から前景オブジェクトが無い領域を集めて合成して得られた画像である。図16(c)は、実カメラ毎の撮像画像に対してベース背景画像を使用して前景抽出し、得られた前景領域に基づき生成した仮想視点画像を示している。
ベース背景画像は、撮像領域200内に置いているオブジェクトを一旦全て仮想視点画像上に表示させる場合などに有効である。また、背景画像に最初から映っているオブジェクトはその後前景として抽出できないのに対し、一度前景とされたオブジェクトは背景にも変更可能であるので、背景画像の自由度を高めたい場合にもベース背景画像は有効である。ベース背景画像から所望の背景画像を生成するには、仮想視点画像上に前景として表示されたオブジェクトから、背景化したいオブジェクトをユーザに選択させ、選択されたオブジェクトに対応する補正画像をベース背景画像1610に重畳すればよい。
背景補正部330は、生成した補正背景画像を前景抽出部340へ出力することで、背景画像を更新することができる。
なお、仮想視点画像の生成には、前景抽出や三次元形状データ生成など高負荷な処理が必要なため時間がかかる。背景画像の補正を行った後の仮想視点画像も、仮想視点画像が表示される時刻より前の時刻の撮像画像に基づき生成される。そのため、撮像領域内のオブジェクトが動いている状況で、ユーザが背景化するオブジェクトを選択した場合、選択した時刻の撮像画像を用いると、既にその位置にはオブジェクトが存在しないこともある。そこで、背景補正部330は、画像受信部310から取得した撮像画像を一定期間分保持する機能を有しても良い。例えば、表示されている仮想視点画像で使用された撮像画像まで保持するようにしてもよい。
更に、背景補正制御指示情報にユーザがオブジェクトを選択した時点のタイムコードを含めるようにし、背景補正部330がそのタイムコードに対応する撮像画像を用いて補正背景画像を生成する機能を有しても良い。
また、三次元形状データ生成部350も同様に、前景抽出部340から取得した前景データを一定期間分保持する機能を有しても良い。更に、ユーザがオブジェクトを選択した時点のタイムコードに対応する前景データを用いて背景化オブジェクトを特定し、その背景化オブジェクトに対応する座標情報とマスク情報を背景化対象決定部380へ出力する機能を有しても良い。
以上により、撮像画像から背景差分法を用いて前景抽出する際、仮想視点画像上で前景として表示させたくないオブジェクトを選択し、実カメラ毎の背景画像を補正することで、所望のオブジェクトのみを前景として仮想視点画像上に表示させることができる。
[実施形態2]
本実施形態では、仮想視点画像上で指定した位置に対応する各撮像画像における前景IDを、仮想視点画像上で指定した位置から三次元座標を求め、求めた三次元座標を撮像画像上の二次元座標に変換し、変換した二次元座標に基づいて求める。
本実施形態では、仮想視点画像上で指定した位置に対応する各撮像画像における前景IDを、仮想視点画像上で指定した位置から三次元座標を求め、求めた三次元座標を撮像画像上の二次元座標に変換し、変換した二次元座標に基づいて求める。
図17は、仮想視点画像に前景としては不要なオブジェクトを背景化するための画像生成装置220の処理フローを示している。なお、ここでは実施形態1において図11で示した処理フローと同等の処理を行うステップについては、同一の符号を付け、詳細な説明については省略する。
まずS601で、設定受信部370は、ユーザがUI部230を用いて画像表示装置240に表示されている仮想視点画像における前景オブジェクトの中から選択した、背景化したいオブジェクトを特定するための情報を取得する。本実施形態では、オブジェクトを特定する情報として、仮想視点画像上の座標を取得する。
S1001で、ユーザがオブジェクトを選択した際に表示されていた仮想視点画像の仮想視点の座標情報及び選択されたオブジェクトの仮想視点画像上での座標情報に基づき、それらの座標を結ぶ直線の三次元空間上の座標を算出する。その直線上に位置するオブジェクトのうち、最も仮想視点に近いオブジェクトを選択されたオブジェクトと特定する。
S603では、背景化対象決定部380は、実カメラを識別するための識別子Nを初期化する。本実施形態では、Nの初期値を101とし、実カメラ101で撮像して得られた撮像画像から処理を行う。
S1002では、S1001で算出した選択されたオブジェクトが位置する三次元座標に対応する、実カメラNの撮像画像上の二次元座標を算出する。例えば、選択されたオブジェクトが存在する三次元座標と実カメラNの存在する三次元座標とを結ぶ直線、並びに実カメラNの画角及び視線方向に基づき、選択されたオブジェクトが位置する撮像画像上の二次元座標を算出する。また、オブジェクトが特定の二次元平面上に存在する場合、三次元座標を二次元平面に投影し、その特定の二次元平面上の二次元座標を各撮像画像上の二次元座標に変換することで、選択されたオブジェクトが位置する撮像画像上の二次元座標を算出してもよい。
S1003では、背景化対象決定部380は、三次元形状データ生成部350で算出した実カメラNの撮像画像上の二次元座標上に存在する領域に映るオブジェクトに対応する前景IDを特定する。実カメラNの撮像画像における前景領域は、前景データの座標情報とマスク情報により求めることができるので、二次元座標がどの前景領域内に存在するかを検出できる。
S605では、背景化対象決定部380は、S1003で特定した全ての前景IDに対応する前景データに含まれる座標情報とマスク情報を取得し、補正用前景マスクを生成する。
以降の処理(S606~S608)は実施形態1と同等のため省略する。
以上により、撮像映像から背景差分法を用いて前景抽出する際、不要な前景の特定を座標変換により求め、各実カメラの背景画像を短時間で補正することで、仮想視点画像上に前景として表示したくないオブジェクトを背景化できる。
(その他の実施例)
本開示は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本開示は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
220 画像生成装置
230 UI部
240 画像表示装置
230 UI部
240 画像表示装置
Claims (13)
- 複数の撮像装置で撮像して得られた複数の撮像画像を取得する取得手段と、
前記複数の撮像画像に基づき、撮像装置別の撮像画像に対応する複数の背景画像を生成する背景生成手段と、
前記複数の撮像画像の各撮像画像と前記複数の背景画像のうち当該各撮像画像に対応する背景画像との差分を前景領域としてオブジェクト単位で抽出する前景抽出手段と、
前記撮像装置別の撮像画像のそれぞれにおける、ユーザが指定したオブジェクトに対応する前景領域を決定する決定手段と、
を備え、
前記背景生成手段は、前記複数の背景画像のそれぞれを、対応する前記撮像装置別の撮像画像における前記決定された前景領域に基づき更新する、
ことを特徴とする画像処理装置。 - 前記決定手段は、前記前景抽出手段が抽出した前景領域を用いて仮想視点画像を生成する際に設定された前記撮像装置別の撮像画像の間の関連付け情報を取得し、当該関連付け情報に基づき、前記撮像装置別の撮像画像のそれぞれにおいて前記前景領域を決定する、
ことを特徴とする請求項1に記載の画像処理装置。 - 前記決定手段は、前記ユーザが前記仮想視点画像において指定したオブジェクトに基づき、前記ユーザが指定したオブジェクトを特定する、
ことを特徴とする請求項2に記載の画像処理装置。 - 前記決定手段は、前記関連付け情報として前記仮想視点画像の三次元形状を示す形状データを取得し、当該形状データに基づき前記ユーザが指定したオブジェクトが位置する三次元座標から前記撮像装置別の撮像画像のそれぞれにおける前記ユーザが指定したオブジェクトに対応する前景領域を決定する、
ことを特徴とする請求項2又は3に記載の画像処理装置。 - 前記前景抽出手段によって得られた前記前景領域に基づき、前記オブジェクトごとの三次元形状を示す形状データを生成する形状データ生成手段と、
前記形状データに基づき前記仮想視点画像を生成する画像生成手段と、
をさらに備えることを特徴とする請求項2乃至4のいずれか1項に記載の画像処理装置。 - 前記画像生成手段は、前記決定された前景領域に基づき生成された前記形状データを使用しない、
ことを特徴とする請求項5に記載の画像処理装置。 - 前記形状データ生成手段は、前記前景領域について一定期間分を保持し、
前記決定手段は、前記ユーザがオブジェクトを指定した前記仮想視点画像を生成するために使用された撮像画像において前記前景領域を決定する、
ことを特徴とする請求項5又は6に記載の画像処理装置。 - 前記背景生成手段は、前記撮像画像について一定期間分を保持し、ユーザがオブジェクトを指定した前記仮想視点画像を生成するために用いた前記撮像画像を、前記背景画像を更新するために用いる、
ことを特徴とする請求項2乃至7のいずれか1項に記載の画像処理装置。 - 前記決定手段は、前記撮像装置別の撮像画像ごとに前記決定された前景領域以外をマスクする補正用前景マスクを生成し、
前記背景生成手段は、対応する前記撮像装置別の撮像画像に対して前記補正用前景マスクを適用して抽出した画像を、対応する前記背景画像に重畳して前記背景画像を更新する、
ことを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。 - 前記背景生成手段は、前記撮像装置別の撮像画像ごとに、前景となり得るオブジェクトが無い状態の撮像画像から生成したベース背景画像を予め記憶しておき、前記ベース背景画像に前記ユーザが指定したオブジェクトに対応する前景領域を重畳したものを更新された前記背景画像とする、
ことを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。 - 前記背景生成手段は、ユーザから前記背景画像を更新する否かを示す制御指示情報を取得し、当該制御指示情報に基づき前記背景画像を更新しない場合、更新前の前記背景画像を出力する、
ことを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。 - 複数の撮像装置で撮像して得られた複数の撮像画像を取得するステップと、
前記複数の撮像画像に基づき、撮像装置別の撮像画像に対応する複数の背景画像を生成するステップと、
前記複数の撮像画像の各撮像画像と前記複数の背景画像のうち当該各撮像画像に対応する背景画像との差分を前景領域としてオブジェクト単位で抽出するステップと、
前記撮像装置別の撮像画像のそれぞれにおける、ユーザが指定したオブジェクトに対応する前景領域を決定するステップと、
を有し、
前記背景画像を生成するステップは、前記複数の背景画像のそれぞれを、対応する前記撮像装置別の撮像画像における前記決定された前景領域に基づき更新する、
ことを特徴とする画像処理方法。 - コンピュータを請求項1乃至11のいずれかの画像処理装置として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021117789A JP2023013538A (ja) | 2021-07-16 | 2021-07-16 | 画像処理装置、画像処理方法、及びプログラム |
US17/858,239 US20230026038A1 (en) | 2021-07-16 | 2022-07-06 | Image processing apparatus, image processing method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021117789A JP2023013538A (ja) | 2021-07-16 | 2021-07-16 | 画像処理装置、画像処理方法、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023013538A true JP2023013538A (ja) | 2023-01-26 |
Family
ID=84975761
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021117789A Pending JP2023013538A (ja) | 2021-07-16 | 2021-07-16 | 画像処理装置、画像処理方法、及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20230026038A1 (ja) |
JP (1) | JP2023013538A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022085643A (ja) * | 2020-11-27 | 2022-06-08 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6482580B2 (ja) * | 2017-02-10 | 2019-03-13 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP2019067130A (ja) * | 2017-09-29 | 2019-04-25 | キヤノン株式会社 | 画像処理装置、画像処理システム、画像処理方法、及びプログラム |
KR102254407B1 (ko) * | 2017-12-14 | 2021-05-24 | 캐논 가부시끼가이샤 | 3차원 모델의 생성 장치, 생성 방법, 및 프로그램 |
JP7106282B2 (ja) * | 2018-01-30 | 2022-07-26 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
JP7233873B2 (ja) * | 2018-09-19 | 2023-03-07 | キヤノン株式会社 | 画像処理装置、画像処理方法、およびプログラム |
JP7374582B2 (ja) * | 2018-11-27 | 2023-11-07 | キヤノン株式会社 | 画像処理装置、画像生成方法およびプログラム |
-
2021
- 2021-07-16 JP JP2021117789A patent/JP2023013538A/ja active Pending
-
2022
- 2022-07-06 US US17/858,239 patent/US20230026038A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20230026038A1 (en) | 2023-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6931290B2 (ja) | 画像生成装置およびその制御方法 | |
JP4847203B2 (ja) | 情報処理方法、情報処理装置 | |
MXPA02005288A (es) | Procesador de imagen, metodo de procesamiento de imagen, medio de registro, programa de computadora y dispositivo esmi conductor. | |
JP4700476B2 (ja) | 多視点映像合成装置及び多視点映像合成システム | |
JP2009205556A (ja) | ユーザインタフェース装置 | |
JP2019083402A (ja) | 画像処理装置、画像処理システム、画像処理方法、及びプログラム | |
JP2023013538A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP7446754B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2022183213A (ja) | ヘッドマウントディスプレイ | |
JP7479793B2 (ja) | 画像処理装置、仮想視点映像を生成するシステム、画像処理装置の制御方法及びプログラム | |
JP6104066B2 (ja) | 画像処理装置および画像処理方法 | |
JP2005228140A (ja) | 被写体領域検出情報の調整方法 | |
JP2020187529A (ja) | 画像処理装置、画像処理システム、制御方法、および、プログラム | |
JP4366165B2 (ja) | 画像表示装置及び方法並びに記憶媒体 | |
JP2015197374A (ja) | 3次元形状推定装置及び3次元形状推定方法 | |
JP6350331B2 (ja) | 追尾装置、追尾方法及び追尾プログラム | |
JP2022012398A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2022029239A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
JP2021144522A (ja) | 画像処理装置、画像処理方法、プログラム、及び画像処理システム | |
JP2023175503A (ja) | 画像処理装置及びその画像処理方法 | |
JP2023084843A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
JP7289754B2 (ja) | 制御装置、制御方法、及びプログラム | |
JP2022012893A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2021163179A (ja) | 情報処理装置及びその制御方法、プログラム、記憶媒体 | |
JP2022094788A (ja) | 生成装置、生成方法、及び、プログラム |