JP2018026064A - 画像処理装置、画像処理方法、システム - Google Patents

画像処理装置、画像処理方法、システム Download PDF

Info

Publication number
JP2018026064A
JP2018026064A JP2016158912A JP2016158912A JP2018026064A JP 2018026064 A JP2018026064 A JP 2018026064A JP 2016158912 A JP2016158912 A JP 2016158912A JP 2016158912 A JP2016158912 A JP 2016158912A JP 2018026064 A JP2018026064 A JP 2018026064A
Authority
JP
Japan
Prior art keywords
image
camera
viewpoint
objects
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016158912A
Other languages
English (en)
Other versions
JP2018026064A5 (ja
JP6882868B2 (ja
Inventor
松下 明弘
Akihiro Matsushita
明弘 松下
究 小林
Kiwamu Kobayashi
究 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016158912A priority Critical patent/JP6882868B2/ja
Priority to US15/663,163 priority patent/US10244163B2/en
Priority to EP17185816.0A priority patent/EP3285484B1/en
Publication of JP2018026064A publication Critical patent/JP2018026064A/ja
Publication of JP2018026064A5 publication Critical patent/JP2018026064A5/ja
Application granted granted Critical
Publication of JP6882868B2 publication Critical patent/JP6882868B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 オクルージョンが発生しうる環境において仮想視点画像の画質を向上させること。
【解決手段】 被写体を複数の視点から撮像するための複数のカメラに対応する複数のカメラ視点のうちオブジェクトのオクルージョンが発生していないカメラ視点を特定する。該特定したカメラ視点において撮像された画像中のオブジェクトを合成することで合成オブジェクトを生成し、該合成オブジェクトを含む画像を、仮想視点における画像として生成する。
【選択図】 図1

Description

本発明は、複数の視点からの撮像画像から仮想視点画像を生成するための技術に関するものである。
昨今、複数のカメラをそれぞれ異なる位置に設置して多視点で同期撮影し、該撮影により得られた複数視点の画像(複数視点画像)を用いて任意の視点(仮想視点)から見たコンテンツ(仮想視点コンテンツ)を生成する技術が注目されている。このようにして複数視点画像から仮想視点コンテンツを生成する技術によれば、例えば、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴閲覧することが出来るため、通常の画像と比較してユーザに高臨場感を与えることができる。
一方、複数視点画像に基づく仮想視点コンテンツの生成及び閲覧は、複数のカメラが撮影した画像をサーバなどの画像処理部に集約し、該画像処理部にてレンダリングなどの処理を施し、最後にユーザ端末に伝送することにより実現できる。
仮想視点の映像を生成する技術について、特許文献1に開示されている。特許文献1では、複数のカメラの映像の中のオブジェクトを抽出し、3次元座標を算出し、平面に再投影して仮想視点映像を生成する技術が開示されている。このようなシステムにおいては、人物等のオブジェクトが複数重なって手前のオブジェクトが奥のオブジェクトの一部を隠してしまう、いわゆるオクルージョンと呼ばれる状態が発生した場合に、再投影の位置を誤ってしまう場合があった。
特許文献2では、オクルージョンが発生した場合、複数のオブジェクトを分離する処理、オクルージョンが発生している視点以外の視点の映像からオブジェクトを取得する処理、及び、異なるフレームからオブジェクトを取得する処理などを組み合わせることが記載されている。
特開2011−170487号公報 特開2014−120093号公報
特許文献2の手法にはそれぞれ課題がある。複数のオブジェクトを分離する処理は、例えば、オブジェクトの追跡処理を利用する手法や、画像認識、あるいは機械学習などの処理が必要となるが、これらの処理は負荷が大きい傾向がある。また、分離形状を誤るなどのエラーが起きるケースもあり、性能を上げることが難しい面もある。
また、オクルージョンが発生している視点以外の視点の映像からオブジェクトを取得する処理を行うと、仮想視点に対して向きが大きく異なるオブジェクトが取得されやすくなる。仮想視点からの位置が離れるほど本来のオブジェクト形状からの差が大きくなり、画質に対する影響は大きくなる。
また、異なるフレームからオブジェクトを取得する処理では、オクルージョンの発生している時間が長くなると、取得されるオブジェクトの時間の差が大きくなり、やはり画質に対する影響は大きくなるなどの課題があった。
本発明はこのような問題に鑑みてなされたものであり、オクルージョンが発生しうる環境において仮想視点画像の画質を向上させる。
本発明の一様態は、被写体を複数の視点から撮像するための複数のカメラに対応する複数のカメラ視点のうちオブジェクトのオクルージョンが発生していないカメラ視点を特定する特定手段と、前記特定手段が特定したカメラ視点において撮像された画像中のオブジェクトを合成することで合成オブジェクトを生成し、該合成オブジェクトを含む画像を、仮想視点における画像として生成する生成手段とを備えることを特徴とする。
本発明の構成によれば、オクルージョンが発生しうる環境において仮想視点画像の画質を向上させることができる。
システムの使用環境を示す図。 撮像画像の一例を示す図。 画像処理装置3の機能構成例を示すブロック図。 画像処理装置3が行う処理のフローチャート。 コンピュータ装置が行う処理のフローチャート。 コンピュータ装置のハードウェア構成例を示すブロック図。
以下、添付図面を参照し、本発明の実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。
[第1の実施形態]
本実施形態では、仮想視点コンテンツを生成するための画像処理装置の一例について説明する。本実施形態における仮想視点コンテンツとは、仮想的な視点から被写体を撮像した場合に得られる画像を模擬して生成される仮想視点画像を含むコンテンツである。仮想的な視点(仮想視点)は、ユーザ(オペレータ)により指定されても良いし、画像解析の結果等に基づいて自動的に指定されても良い。また、本実施形態の仮想視点コンテンツは、仮想的な視点から収音した場合に得られる音声を模擬して生成される仮想視点音声が含まれるようにしても良い。本実施形態では、仮想視点画像の生成方法について以下で詳細に説明する。
また、本実施形態の画像処理装置は、被写体を複数の視点から撮像するための複数のカメラに対応する複数のカメラ視点のうちオブジェクトのオクルージョンが発生していないカメラ視点を特定する。そして画像処理装置は、該特定したカメラ視点において撮像された画像中のオブジェクトを合成することで合成オブジェクトを生成し、該合成オブジェクトを含む画像を、仮想視点における画像として生成する。
なお、オクルージョンとは、人物等のオブジェクトが重なって手前のオブジェクトが奥のオブジェクトの一部を隠してしまう状態のことである。また、本実施形態では、動画や静止画を含む概念として、画像という表現を用いて説明する。すなわち、本実施形態の各構成要素は、画像が動画フォーマットに従ったものであっても、静止画フォーマットに従ったものであっても、処理可能である。
先ず、本実施形態に係るシステムの使用環境について、図1を用いて説明する。図1に示す如く、競技場1の周囲には複数のカメラ2が並べて配置されており、複数の方向から競技場1を撮影するようになっている。カメラ2はデータ伝送のための入出力ハードウェアを備えている。カメラ2同士は例えばネットワークケーブルを使ってリング型の接続がされていて、ネットワークを介して隣のカメラ2へ画像を伝送するようになっている。カメラ2のうちの一つは画像処理装置3に接続されており、全てのカメラ2の画像は画像処理装置3に伝送される。なお、全てのカメラ2の画像を画像処理装置3に伝送するための構成は上記構成に限らない。また、競技場1ではサッカーなどの競技が行われており、競技場1の中に被写体(オブジェクト)として複数の人物4がいるものとする。このとき、カメラ2A、カメラ2B、カメラ2Cのそれぞれにおいて撮影される画像(撮像画像)の例を図2(A)〜図2(C)に示す。カメラ2A、カメラ2B、およびカメラ2Cはそれぞれ近接した視点ではあるものの、互いに異なる近い位置に設置されているので、図2のように視点が若干異なるような画像が得られる。
画像処理装置3では、各カメラ2の画像を受信し、該各カメラ2のうち一部のカメラ2の画像を用いて、仮想視点における画像(仮想視点画像)を生成する。画像処理装置3の機能構成例について、図3のブロック図を用いて説明する。図3に示した機能部は、画像処理装置3に内蔵されたASIC(application specific integrated circuit)やFPGA(field programmable gate array)等のハードウェアにより実装される。制御部12は、以下に説明する画像処理装置3の各機能部の動作制御を行う。
データ受信部5は、各カメラ2から送信された画像を受信し、該受信した画像を構成する各フレームの画像(撮像画像)を記録部6に記録する。記録部6はデータバス13に接続されており、各機能部はこのデータバス13を介して記録部6に対するデータの読み書きを行うことができる。
記録部6は、例えばハードディスクや、SSD(solid state drive)、またはそれらの組み合わせなどで構成される記憶装置である。データ読出部7は、仮想視点画像を生成するために必要な撮像画像として他の機能部から要求された撮像画像を記録部6から読み出す。
例えば、カメラ2A及びカメラ2Bに近接する仮想視点における仮想視点画像を画像処理装置3に生成させる指示(生成指示)が本装置に入力されたとする。この生成指示はユーザが不図示の入力インターフェースを操作することで本装置に入力される。このときデータ読出部7は記録部6から、カメラ2Aにより撮像された撮像画像Aと、カメラ2Bにより撮像された撮像画像B(撮像画像Aと同時刻のフレームの撮像画像)と、を読み出す。なお、以下では、「同時刻」とは「同時刻と見なせる程度の誤差を含んでも良い」ものとする。撮像画像Aは、例えば図2(A)に示した撮像画像であり、撮像画像Bは、例えば図2(B)に示した撮像画像である。そしてデータ読出部7は、読み出した撮像画像A及び撮像画像Bをオブジェクト検出部8(以下、検出部8と称する)に対して出力する。
検出部8は、撮像画像A及び撮像画像Bのそれぞれからオブジェクトを検出することで、撮像画像をオブジェクトの領域(前景領域)と背景の領域(背景領域)とに分離する。この分離の方法としては、例えば、背景差分情報を用いる手法がある。この手法は、過去の一定時間の撮像画像の情報に基づいて背景情報を生成し、現在の撮像画像との差分をオブジェクトとする手法である。背景差分情報を用いるオブジェクト検出方法についてはさまざまな手法が知られているのでここでは詳細な説明は省く。オブジェクト検出についてはその他にも、特徴量や機械学習を用いる手法などが知られており、もちろんどのような手法を用いてもよい。
撮像画像Aが図2(A)に示した撮像画像であるとする。このとき検出部8は、該撮像画像中の2つのオブジェクトのそれぞれを検出し、その検出位置(例えばオブジェクトの領域の下端の位置)を求める。図2(A)の場合、一方のオブジェクトの検出位置は(x1,y1)となっており、他方のオブジェクトの検出位置は(x0,y0)となっている。また、撮像画像Bが図2(B)に示した撮像画像であるとする。この撮像画像では2つのオブジェクトが重なっており(つまり撮像画像内でオブジェクト同士のオクルージョンが発生している)、然るに検出部8は、この2つのオブジェクトを1つのオブジェクトとして検出することになる。
そして検出部8は、撮像画像A及び撮像画像Bのそれぞれについて、検出したオブジェクトの領域内の画像(テクスチャ)、オブジェクトの検出位置、背景領域内の画像(背景画像)を出力する。
オクルージョン検出部10(以下、検出部10と称する)は、撮像画像A及び撮像画像Bのそれぞれについて、該撮像画像内でオブジェクト同士のオクルージョンが発生しているのか否かを判断する。撮像画像B内でオブジェクト同士のオクルージョンが発生しているのか否かを判断するための処理について、同処理のフローチャートを示す図4(A)を用いて説明する。なお、撮像画像Aや他の撮像画像内でオブジェクト同士のオクルージョンが発生しているのか否かの判断処理も同様にして行う。
ステップS101では、検出部10は、撮像画像Bを撮像したカメラ(カメラ2B)に近接する位置に設置されているカメラによる撮像画像(撮像画像Bと同時刻のフレーム)におけるオブジェクトの検出位置を取得する。ここでは、カメラ2Bに隣接するカメラ2Aによる撮像画像Aにおけるオブジェクトの検出位置を取得する。図2(A)の場合、検出位置(x1,y1)、(x0,y0)を取得する。
ステップS102で検出部10は「カメラ2Aが撮像する画像に映っているフィールド(地面)部分を、カメラ2Bが撮像する画像上のフィールド部分に一致させる透視変換」により、ステップS101で取得した検出位置を撮像画像B上の位置に変換する。この透視変換は行列演算によって実施されるが、この行列演算に使用する行列のパラメータは、カメラの設置時などにキャリブレーション処理によって予め決定されており、画像処理装置3内のメモリに保持されている。図2(A)の場合、検出位置(x1,y1)、(x0,y0)を透視変換により変換することでそれぞれ、図2(B)に示す如く、撮像画像B上の位置(x1’,y1’)、(x0’,y0’)が得られる。
ステップS103では、検出部10は、ステップS102で変換した2以上の位置が、撮像画像Bにおける1つのオブジェクトの領域内に含まれているか否かを判断する。この判断の結果、「ステップS102で変換した2以上の位置が、撮像画像Bにおける1つのオブジェクトの領域内に含まれている」という条件が満たされれば、撮像画像B内でオブジェクト同士のオクルージョンが発生していると判断することができる。すなわち、検出部10は、複数のカメラ視点のうち第1カメラ視点において撮像された画像(撮像画像A)中の複数のオブジェクトの位置を、第2カメラ視点において撮影された画像(撮像画像B)中の位置に変換する。そして、検出部10は、変換後の複数のオブジェクトの位置が、該複数のオブジェクトより少ない数のオブジェクトに対応する場合、撮像画像Bにおいてオクルージョンが発生していると判断する。一方、この条件が満たされなければ、撮像画像B内でオブジェクト同士のオクルージョンは発生していないと判断することができる。図2(B)の場合、変換した2つの検出位置(x1’,y1’)、(x0’,y0’)が何れも、撮像画像Bにおける1つのオブジェクトの領域内に含まれているため、撮像画像B内でオブジェクト同士のオクルージョンが発生していると判断する。
なお、実際には座標変換における誤差などを考慮し、ステップS102で変換した2以上の位置が、撮像画像Bにおける1つのオブジェクトの領域の近傍の位置であれば、該2以上の位置は該領域内に含まれている、としても良い。
ここで、撮像画像Bにおいてオブジェクト同士のオクルージョンが発生していると判断された場合、カメラ2A及びカメラ2Bに近接する仮想視点における仮想視点画像の生成に撮像画像Bを使用することはできない。そこで、撮像画像Bの代わりに、カメラ2Aに近接する他のカメラ(カメラ2B以外)による撮像画像を使用する。
そこで撮像画像Bにおいてオブジェクト同士のオクルージョンが発生している場合、検出部8はデータ読出部7に指示し、カメラ2Aに近接する他のカメラ(ただしカメラ2B以外)による撮像画像(撮像画像Aと同時刻のフレームの撮像画像)を読み出させる。ここでは説明上、カメラ2Cによる撮像画像C(撮像画像Aと同時刻のフレームの撮像画像)を読み出させる。
そして検出部8は、撮像画像Cに対し、撮像画像A及び撮像画像Bに対して行った上記の処理と同様の処理を行うことで、撮像画像Cから、オブジェクトの領域内の画像(テクスチャ)、オブジェクトの検出位置、背景領域内の画像(背景画像)を検出する。そして検出部10は撮像画像Cに対しても同様にして、撮像画像Cにおいてオブジェクト同士のオクルージョンが発生しているか否かを判断する。この判断の結果、撮像画像Cについても検出部10がオブジェクト同士のオクルージョンが発生していると判断した場合には、更に、カメラ2Aに近接する他のカメラ(ただしカメラ2B及びカメラ2C以外)による撮像画像を読み出させる。このように、できるだけカメラ2Aに近接したカメラによる撮像画像であって、「オブジェクト同士のオクルージョンは発生していない撮像画像」を取得する。以下では、撮像画像Cについてはオブジェクト同士のオクルージョンが発生していないものとする。然るにこの場合、検出部8は、撮像画像Aについて検出した情報及び撮像画像Cについて検出した情報を出力することになる。このように、本実施形態の検出部8は、複数のカメラ視点(図1にて示される複数のカメラの視点)から、オクルージョン(オブジェクトの重なり)が発生していないカメラ視点を特定する。
合成処理部11は、仮想視点における画像中のオブジェクトを生成する処理を行う。合成処理部11が行う処理について、同処理のフローチャートを示す図4(B)を用いて説明する。なお、合成処理部11は、撮像画像Bにオブジェクト同士のオクルージョンが発生していない場合には動作せず、撮像画像Bにオブジェクト同士のオクルージョンが発生している場合に動作するものである。すなわち、合成処理部11は、仮想視点に近接するカメラとして最初に決定したカメラのそれぞれの撮像画像にオブジェクト同士のオクルージョンが発生していない場合には動作しない。一方、合成処理部11は、仮想視点に近接するカメラとして最初に決定したカメラのうち少なくとも一方のカメラの撮像画像にオブジェクト同士のオクルージョンが発生している場合に動作する。
ステップS104では、合成処理部11は、検出部8が撮像画像Aについて出力した情報及び撮像画像Cについて出力した情報を取得する。ステップS105では、合成処理部11は、上記の生成指示に含まれている仮想視点の位置を取得する。
ステップS106で合成処理部11は、カメラ2Aの位置Aとカメラ2Cの位置Cと仮想視点の位置Vとを用いて、撮像画像A中のオブジェクトと撮像画像C中のオブジェクトとを合成して1つの合成オブジェクトを生成する場合におけるそれぞれのオブジェクトの合成比(混合比)を求める。これは、例えば、位置Vと位置Aとの間の距離をDA,位置Vと位置Cとの間の距離をDCとすると、撮像画像A中のオブジェクトの合成比RAをDC/(DA+DC)、撮像画像C中のオブジェクトの合成比RCをDA/(DA+DC)とする。つまり、仮想視点により近いカメラによる撮像画像中のオブジェクトに対する合成比をより高くし、仮想視点により遠いカメラによる撮像画像中のオブジェクトに対する合成比をより低くする。
ステップS107で合成処理部11は撮像画像A中のオブジェクトのテクスチャの画素値をRA倍したテクスチャAと撮像画像C中のオブジェクトのテクスチャの画素値をRC倍したテクスチャCと、を合成して合成テクスチャ(合成オブジェクト)を生成する。このような2つのオブジェクトのテクスチャを合成する処理は、モーフィング処理に代表される周知の技術であるため、これに係る詳細な説明は省略する。ステップS108では、合成処理部11は、ステップS107において生成した合成オブジェクトを、生成部9に対して出力する。
生成部9は、仮想視点画像を生成する。生成部9が行う処理について、同処理のフローチャートを示す図4(C)を用いて説明する。
ステップS109では、生成部9は、仮想視点画像における背景部分を生成する。背景部分の生成方法は特定の方法に限らない。例えば、検出部8が撮像画像Aについて検出した背景画像を透視変換によって変換して、仮想視点画像における背景部分を生成しても良い。この透視変換に用いる行列は既知であるものとする。
ステップS110では、生成部9は、仮想視点が近接する2つのカメラの両方の撮像画像にオブジェクト同士のオクルージョンが発生していないか否かを判断する。上記の例では、撮像画像A及び撮像画像Bの両方にオブジェクト同士のオクルージョンが発生していないか否かを判断する。この判断の結果、仮想視点が近接する2つのカメラの両方の撮像画像にオブジェクト同士のオクルージョンが発生していない場合には、処理はステップS111に進み、少なくとも一方に発生している場合には、処理はステップS112に進む。
ステップS111では、生成部9は、検出部8が撮像画像Aから検出したオブジェクトのテクスチャを、該検出部8から取得する。ステップS112では、生成部9は、合成処理部11が生成した合成オブジェクトを、該合成処理部11から取得する。
ステップS113では、生成部9は、仮想視点画像上に配置するオブジェクトの位置を求める。ステップS111からステップS113に処理が進んだ場合、ステップS113では生成部9は、撮像画像Aから検出したオブジェクトのテクスチャの「仮想視点画像上における配置位置」を求める。例えば、カメラによる撮像画像中の対象物が任意の視点における画像においてどのような位置に見えるのかの関係情報を予め求めておき、該関係情報を用いて撮像画像A中のオブジェクトの検出位置を変換した位置を求める。
一方、ステップS112からステップS113に処理が進んだ場合、ステップS113では生成部9は、仮想視点画像上における合成オブジェクトの位置を求める。例えば、上記の関係情報を用いて撮像画像A中のオブジェクトの検出位置を変換した位置を合成オブジェクトの位置とする。
ステップS111からステップS113を介してステップS114に処理が進んだ場合、ステップS114では、生成部9は、次のような処理を行う。すなわち、仮想視点画像上のステップS113で求めた位置(再投影座標)に、撮像画像Aから検出したオブジェクトのテクスチャを配置(再投影)し、該配置後の仮想視点画像を出力する。
一方、ステップS112からステップS113を介してステップS114に処理が進んだ場合、ステップS114では、生成部9は、次のような処理を行う。すなわち、仮想視点画像上のステップS113で求めた位置(再投影座標)に合成オブジェクトを配置(再投影)し、該配置後の仮想視点画像を出力する。
なお、このとき、各オブジェクトの再投影座標を検査し、画像上において奥のオブジェクトから再投影をおこない、手前のオブジェクトが上書きされるようにする。この処理によりオブジェクト表示の前後関係を正しく表現することができる。
図2(A)の撮像画像と図2(C)の撮像画像に基づく仮想視点画像の一例を図2(D)に示す。図2(D)の仮想視点画像は、カメラ2Aとカメラ2Bの中間位置に仮想視点を設定した場合に生成される仮想視点画像である。また、生成部9による仮想視点画像の出力先については特定の出力先に限らない、例えば、画像処理装置3が有するモニタやプロジェクタに出力しても良いし、外部の端末装置に対して出力しても良い。
なお、本実施形態や以下の変形例において既知の情報として取り扱ったもの、例えば、各カメラ2の配置位置や上記の関係情報などは予め画像処理装置3内のメモリに登録されているものとする。
<変形例>
上記の「カメラ2A及びカメラ2Bに近接する仮想視点における仮想視点画像を画像処理装置3に生成させる指示」には様々なものが考えられる。例えば、競技場1を俯瞰した俯瞰図に各カメラ2の配置図を重ねた図面を表示部に表示してユーザに提示し、ユーザは該図面上の任意の位置を仮想視点の位置として指定する。制御部12は、図面上で指定された位置に近接するカメラを選択する。また、仮想視点の位置を、隣接するカメラ間の中点位置と規定する場合、ユーザは上記図面上で2つのカメラを指定することで、該2つのカメラの中点位置を仮想視点の位置として設定するようにしても良い。
また、第1の実施形態では、各カメラ2は競技場1を囲むように設置されているが、競技場1以外の撮像対象のフィールドを囲むように設置されているケースであっても、第1の実施形態は同様に適用することができる。
[第2の実施形態]
第1の実施形態では、図3に示した各機能部は何れもハードウェアで実装されるものとして説明した。しかし、記録部6をメモリで実装し、それ以外の機能部をソフトウェア(コンピュータプログラム)で実装しても良い。この場合、このソフトウェアを実行可能なコンピュータ装置は、上記の画像処理装置3に適用することができる。画像処理装置3に適用可能なコンピュータ装置のハードウェア構成例について、図6のブロック図を用いて説明する。
CPU601はRAM602やROM603に格納されているコンピュータプログラムやデータを用いて処理を実行する。これによりCPU601は、コンピュータ装置全体の動作制御を行うと共に、画像処理装置3が行うものとして上述した各処理を実行若しくは制御する。
RAM602は、ROM603や外部記憶装置606からロードされたコンピュータプログラムやデータ、I/F(インターフェース)607を介して外部から受信したデータを格納するためのエリアを有する。更にRAM602は、CPU601が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM602は各種のエリアを適宜提供することができる。ROM603には、書き換え不要の本装置の設定データやブートプログラムなどが格納されている。
操作部604は、マウスやキーボードなどにより構成されており、本装置のユーザが操作することで各種の指示をCPU601に対して入力することができる。表示部605はCRTや液晶画面などにより構成されており、CPU601による処理結果を画像や文字などでもって表示することができる。なお、操作部604と表示部605とを一体化させてタッチパネル画面を構成しても良い。
外部記憶装置606は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。外部記憶装置606には、OS(オペレーティングシステム)や、画像処理装置3が行うものとして上述した各処理をCPU601に実行若しくは制御させるためのコンピュータプログラムやデータが保存されている。このデータには、上記の説明において既知の情報として説明したものも含まれている。外部記憶装置606に保存されているコンピュータプログラムやデータは、CPU601による制御に従って適宜RAM602にロードされ、CPU601による処理対象となる。上記の記録部6は、RAM602や外部記憶装置606によって実装可能である。
I/F607は、外部の機器とのデータ通信を行うためのインターフェースとして機能するもので、例えば、I/F607には上記のカメラ2が接続されており、各カメラ2からの画像はこのI/F607を介して受信する。
CPU601、RAM602、ROM603、操作部604、表示部605、外部記憶装置606、I/F607は何れもバス608に接続されている。なお、図6に示した構成は、画像処理装置3に適用可能なコンピュータ装置のハードウェア構成の一例に過ぎない。
このようなコンピュータ装置が第1の実施形態で説明した画像処理装置3の処理を実行する場合、コンピュータ装置は図5に示したフローチャートに従った処理を行うことになる。なお、図5の各ステップにおける処理の詳細については第1の実施形態で既に述べているため、ここでは簡単に説明する。
ステップS115では、CPU601は、I/F607を介して受信した各カメラ2の撮像画像を外部記憶装置606に保存する。ステップS116では、CPU601は、外部記憶装置606から仮想視点画像の生成に要する撮像画像をRAM602に読み出す。ステップS117ではCPU601は、RAM602に読み出したそれぞれの撮像画像について検出部8による処理と同様の処理を行う。ステップS118ではCPU601は、検出部10による処理と同様の処理を行う。
ステップS119ではCPU601は、仮想視点画像の生成に要する撮像画像(撮像画像A及び撮像画像B)にオブジェクト同士のオクルージョンが発生しているか否かを判断する。この判断の結果、発生している場合には、処理はステップS121に進み、発生していない場合には、処理はステップS120に進む。
ステップS120ではCPU601は、撮像画像Aから検出したオブジェクトのテクスチャを取得する。一方、ステップS121ではCPU601は、合成処理部11による処理と同様の処理により合成オブジェクトを生成する。
ステップS122ではCPU601は、仮想視点画像上に配置するオブジェクトの位置を求め、ステップS123ではCPU601は、仮想視点画像における背景部分を生成部9と同様に生成する。そしてステップS124ではCPU601は、ステップS122で求めた位置にオブジェクトを配した仮想視点画像を生成し、該仮想視点画像を出力する。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
8:検出部 9:生成部 10:検出部 11:合成処理部

Claims (10)

  1. 被写体を複数の視点から撮像するための複数のカメラに対応する複数のカメラ視点のうちオブジェクトのオクルージョンが発生していないカメラ視点を特定する特定手段と、
    前記特定手段が特定したカメラ視点において撮像された画像中のオブジェクトを合成することで合成オブジェクトを生成し、該合成オブジェクトを含む画像を、仮想視点における画像として生成する生成手段と
    を備えることを特徴とする画像処理装置。
  2. 前記特定手段は、前記複数のカメラ視点のうち第1カメラ視点において撮像された画像中の複数のオブジェクトの位置を、前記複数のカメラ視点のうち第2カメラ視点において撮像された画像中の位置に変換した場合、前記複数のオブジェクトが前記第2カメラ視点における前記複数のオブジェクトより少ない数のオブジェクトに対応する場合、前記第2カメラ視点においてオクルージョンが発生していると判断することを特徴とする請求項1に記載の画像処理装置。
  3. 前記特定手段は、前記複数のオブジェクトの位置の変換の結果が前記第2カメラ視点において撮像された画像中のオブジェクトの領域内ではない場合には、該第2カメラ視点にてオクルージョンが発生していないと判断することを特徴とする請求項2に記載の画像処理装置。
  4. 前記生成手段は、前記仮想視点の位置と、前記特定手段が特定したカメラ視点の位置と、の間の距離に応じた合成比でもって、前記特定手段が特定したカメラ視点において撮像した画像中のオブジェクトを合成することを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。
  5. 前記生成手段は、前記合成をモーフィングによって行うことを特徴とする請求項4に記載の画像処理装置。
  6. 前記複数のカメラ視点は、撮像対象のフィールドを囲むように設置されていることを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。
  7. 更に、
    前記仮想視点における画像を出力する出力手段を備えることを特徴とする請求項1乃至6の何れか1項に記載の画像処理装置。
  8. 被写体を複数の視点から撮像するための複数のカメラと、画像処理装置と、を有するシステムであって、
    前記画像処理装置は、
    前記複数のカメラに対応する複数のカメラ視点のうちオブジェクトのオクルージョンが発生していないカメラ視点を特定する特定手段と、
    前記特定手段が特定したカメラ視点において撮像された画像中のオブジェクトを合成することで合成オブジェクトを生成し、該合成オブジェクトを含む画像を、仮想視点における画像として生成する生成手段と
    を備えることを特徴とするシステム。
  9. 画像処理装置が行う画像処理方法であって、
    被写体を複数の視点から撮像するための複数のカメラに対応する複数のカメラ視点のうちオブジェクトのオクルージョンが発生していないカメラ視点を特定する特定工程と、
    前記特定工程で特定したカメラ視点において撮像された画像中のオブジェクトを合成することで合成オブジェクトを生成し、該合成オブジェクトを含む画像を、仮想視点における画像として生成する生成工程と
    を備えることを特徴とする画像処理方法。
  10. コンピュータを、請求項1乃至7の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。
JP2016158912A 2016-08-12 2016-08-12 画像処理装置、画像処理方法、システム Active JP6882868B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016158912A JP6882868B2 (ja) 2016-08-12 2016-08-12 画像処理装置、画像処理方法、システム
US15/663,163 US10244163B2 (en) 2016-08-12 2017-07-28 Image processing apparatus that generates a virtual viewpoint image, image generation method, and non-transitory computer-readable storage medium
EP17185816.0A EP3285484B1 (en) 2016-08-12 2017-08-10 Image processing apparatus, image generation method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016158912A JP6882868B2 (ja) 2016-08-12 2016-08-12 画像処理装置、画像処理方法、システム

Publications (3)

Publication Number Publication Date
JP2018026064A true JP2018026064A (ja) 2018-02-15
JP2018026064A5 JP2018026064A5 (ja) 2019-09-19
JP6882868B2 JP6882868B2 (ja) 2021-06-02

Family

ID=59745166

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016158912A Active JP6882868B2 (ja) 2016-08-12 2016-08-12 画像処理装置、画像処理方法、システム

Country Status (3)

Country Link
US (1) US10244163B2 (ja)
EP (1) EP3285484B1 (ja)
JP (1) JP6882868B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020087005A (ja) * 2018-11-27 2020-06-04 キヤノン株式会社 画像処理装置、画像生成方法およびプログラム
WO2021161878A1 (ja) * 2020-02-14 2021-08-19 キヤノン株式会社 画像処理装置、画像処理方法、学習済みモデルの生成方法、およびプログラム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018147329A1 (ja) * 2017-02-10 2018-08-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 自由視点映像生成方法及び自由視点映像生成システム
JP7030452B2 (ja) * 2017-08-30 2022-03-07 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、情報処理システム及びプログラム
BR112019022798A2 (pt) * 2017-12-14 2020-05-26 Canon Kabushiki Kaisha Dispositivo de geração, método de geração e programa para modelo tridimensional
JP7132730B2 (ja) * 2018-03-14 2022-09-07 キヤノン株式会社 情報処理装置および情報処理方法
US10818077B2 (en) * 2018-12-14 2020-10-27 Canon Kabushiki Kaisha Method, system and apparatus for controlling a virtual camera
WO2021131375A1 (ja) * 2019-12-26 2021-07-01 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
US20220295139A1 (en) * 2021-03-11 2022-09-15 Quintar, Inc. Augmented reality system for viewing an event with multiple coordinate systems and automatically generated model

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011170487A (ja) * 2010-02-17 2011-09-01 Kddi Corp 大空間カメラ配置における幾何情報に基づく仮想視点画像生成方法およびプログラム
JP2015022510A (ja) * 2013-07-18 2015-02-02 凸版印刷株式会社 自由視点画像撮像装置およびその方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8154633B2 (en) * 2007-11-16 2012-04-10 Sportvision, Inc. Line removal and object detection in an image
JP5969376B2 (ja) 2012-12-19 2016-08-17 Kddi株式会社 仮想視点映像生成装置、仮想視点映像生成方法、およびプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011170487A (ja) * 2010-02-17 2011-09-01 Kddi Corp 大空間カメラ配置における幾何情報に基づく仮想視点画像生成方法およびプログラム
JP2015022510A (ja) * 2013-07-18 2015-02-02 凸版印刷株式会社 自由視点画像撮像装置およびその方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TAKAYOSHI KOYAMA ET AL.: "Live Mixed-Reality 3D Video in Soccer Stadium", [ONLINE], JPN6021012797, 27 October 2003 (2003-10-27), ISSN: 0004482441 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020087005A (ja) * 2018-11-27 2020-06-04 キヤノン株式会社 画像処理装置、画像生成方法およびプログラム
WO2021161878A1 (ja) * 2020-02-14 2021-08-19 キヤノン株式会社 画像処理装置、画像処理方法、学習済みモデルの生成方法、およびプログラム
JP7427467B2 (ja) 2020-02-14 2024-02-05 キヤノン株式会社 画像処理装置、画像処理方法、学習済みモデルの生成方法、およびプログラム

Also Published As

Publication number Publication date
EP3285484B1 (en) 2021-05-26
US10244163B2 (en) 2019-03-26
EP3285484A1 (en) 2018-02-21
US20180048810A1 (en) 2018-02-15
JP6882868B2 (ja) 2021-06-02

Similar Documents

Publication Publication Date Title
JP6882868B2 (ja) 画像処理装置、画像処理方法、システム
WO2019205852A1 (zh) 确定图像捕捉设备的位姿的方法、装置及其存储介质
US9129435B2 (en) Method for creating 3-D models by stitching multiple partial 3-D models
US9697581B2 (en) Image processing apparatus and image processing method
JP2008033958A (ja) データ処理システムおよび方法
US10785469B2 (en) Generation apparatus and method for generating a virtual viewpoint image
JP7285834B2 (ja) 三次元再構成方法および三次元再構成装置
JP2019083402A (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
CN111273772B (zh) 基于slam测绘方法的增强现实交互方法、装置
JP7027049B2 (ja) 画像処理装置、画像処理方法及びプログラム
WO2015072091A1 (ja) 画像処理装置、画像処理方法及びプログラム記憶媒体
Placitelli et al. 3D point cloud sensors for low-cost medical in-situ visualization
JP2019144958A (ja) 画像処理装置、画像処理方法およびプログラム
CN112634439B (zh) 一种3d信息展示方法及装置
CN112652056B (zh) 一种3d信息展示方法及装置
CN113167568A (zh) 坐标计算装置、坐标计算方法和计算机可读记录介质
CN113168706A (zh) 视频流的帧中的对象位置确定
JP2020057038A (ja) 変更画素領域抽出装置、画像処理システム、変更画素領域抽出方法、画像処理方法及びプログラム
CN110914871A (zh) 获取三维场景的方法与装置
WO2021176877A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
WO2023160072A1 (zh) 增强现实ar场景中的人机交互方法、装置和电子设备
JP7074694B2 (ja) 情報端末装置及びプログラム
JP7119853B2 (ja) 変更画素領域抽出装置、画像処理システム、変更画素領域抽出方法、画像処理方法及びプログラム
US20240144530A1 (en) Method, program, and system for 3d scanning
JP2021018570A (ja) 画像処理装置、画像処理システム、画像処理方法およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190805

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190805

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200923

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201126

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210507

R151 Written notification of patent or utility model registration

Ref document number: 6882868

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151