JP6857032B2 - 制御装置、システム、制御装置の制御方法 - Google Patents

制御装置、システム、制御装置の制御方法 Download PDF

Info

Publication number
JP6857032B2
JP6857032B2 JP2017000709A JP2017000709A JP6857032B2 JP 6857032 B2 JP6857032 B2 JP 6857032B2 JP 2017000709 A JP2017000709 A JP 2017000709A JP 2017000709 A JP2017000709 A JP 2017000709A JP 6857032 B2 JP6857032 B2 JP 6857032B2
Authority
JP
Japan
Prior art keywords
image
information
control device
camera
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017000709A
Other languages
English (en)
Other versions
JP2018109904A5 (ja
JP2018109904A (ja
Inventor
智昭 新井
智昭 新井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017000709A priority Critical patent/JP6857032B2/ja
Priority to US15/856,327 priority patent/US10397461B2/en
Publication of JP2018109904A publication Critical patent/JP2018109904A/ja
Priority to US16/507,178 priority patent/US10659673B2/en
Publication of JP2018109904A5 publication Critical patent/JP2018109904A5/ja
Priority to JP2021046237A priority patent/JP2021119459A/ja
Application granted granted Critical
Publication of JP6857032B2 publication Critical patent/JP6857032B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/38Transmitter circuitry for the transmission of television signals according to analogue transmission standards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

本発明は、被写体を複数の方向から撮像する撮像装置の制御技術に関するものである。
昨今、複数のカメラをそれぞれ異なる位置に設置して多視点で同期撮影し、当該撮影により得られた多視点の画像を用いて仮想視点コンテンツを生成する技術が注目されている。上記のようにして多視点の画像から仮想視点コンテンツを生成する技術によれば、例えば、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴することができるため、通常の画像と比較してユーザに高臨場感を与えることができる。
一方、多視点の画像に基づく仮想視点コンテンツの生成及び閲覧は、複数のカメラが撮影した画像をサーバなどの画像処理部に集約し、当該画像処理部にて、三次元モデル生成、レンダリングなどの処理を施し、ユーザ端末に伝送を行うことで実現できる。
上記のような複数のカメラのうち、あるカメラの画像が仮想視点コンテンツを生成するのに不向きな画像(以後、破綻画像と呼ぶ)である場合、仮想視点コンテンツの生成にも影響を及ぼすことになる。なお、ここで述べる破綻画像には、カメラレンズに付着した異物が映り込んだ画像、カメラ前の観客が立ち上がった際に映り込んだ画像、カメラ前の応援団が振る旗が映り込んだ画像などが含まれる。
従来技術として、複数のカメラで撮影された各画像に対して輝度統計量の平均値を算出し、算出した統計量が所定値以上の場合、または他画像の統計量との差分が所定値以上の場合に破綻画像と判定し、対象画像を排除する技術が提案されている(特許文献1)。
また他の従来技術として、入力画像に含まれるエッジの不連続性を検出した場合、入力画像が破綻していると判断し、高画質処理をOFF設定に変更したり高フレームレート化処理の補間フレーム生成処理を変更したりする技術が提案されている(特許文献2)。
特開2014−191475号公報 特開2012−015669号公報
例えばグランドの一部にスタジアムの影が差しこむ状況下でプレーする選手を撮影する場合、カメラごとに影が映り込む範囲が異なるため、各カメラで撮影された画像の輝度統計量に乖離が発生し易くなる。このようなケースの場合、特許文献1に記載の技術では、破綻画像か否かの判定を誤る恐れがある。また、破綻画像と判定した場合、基準カメラに対する制御や隣接カメラへの通知機能がないため、仮想視点コンテンツの生成に影響を及ぼす。
特許文献2に記載の技術では、例えばカメラレンズに小さい異物が付着した状況で撮影する場合、異物のエッジの連続性を検出してしまうため、破綻画像か否かの判定を誤る恐れがある。また、破綻画像と判定した場合、基準カメラの制御について明記されているが隣接カメラへの通知機能がないため、仮想視点コンテンツの生成に影響を及ぼす。
本発明はこのような問題に鑑みてなされたものであり、仮想視点コンテンツの生成に悪影響を及ぼす原因を抑制ないし排除するための技術を提供する。
本発明の一様態は、着目撮像装置による撮像画像と、該着目撮像装置の上流側の撮像装置の制御装置から伝送された第1の情報と、に基づいて、該撮像画像中のオブジェクトの三次元モデルを生成するための第2の情報を生成し、前記第1の情報と前記第2の情報とを含む伝送情報を、下流側の撮像装置の制御装置に伝送する、該着目撮像装置の制御装置であって、前記着目撮像装置による撮像画像に、予め登録された情報に該当するオブジェクトではない無効オブジェクトが含まれている場合には、該撮像画像におけるオブジェクトのサイズ、若しくは前記撮像画像におけるオブジェクトのサイズ及び位置に応じて、前記伝送情報の生成及び伝送を制御する制御手段を備えることを特徴とする。
本発明の構成によれば、仮想視点コンテンツの生成に悪影響を及ぼす原因を抑制ないし排除することができる。
画像処理システムの機能構成例を示すブロック図。 カメラアダプタ120の機能構成例を示すブロック図。 破綻画像判定部123の機能構成例を示すブロック図。 オブジェクト抽出部401の動作を説明する図。 オブジェクト判定部403が行う処理のフローチャート。 最終判定部404が行う処理のフローチャート。 自カメラ画像に応じたカメラアダプタ120の動作を説明する図。
以下、添付図面を参照し、本発明の実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。
[第1の実施形態]
競技場(スタジアム)やコンサートホールなどの施設に複数のカメラ及びマイクを設置して撮影及び集音を行う画像処理システムについて、該画像処理システムの機能構成例を示す図1のブロック図を用いて説明する。図1の画像処理システム100は、センサシステム110a(一端:最も上流)−センサシステム110z(他端:最も下流)、サーバ200、コントローラ300、スイッチハブ180、及びエンドユーザ端末190を有する。
先ず、コントローラ300について説明する。コントローラ300は、制御ステーション310と、仮想カメラ操作UI(UserInterface)330と、を有する。制御ステーション310は、画像処理システム100を構成する様々な機能部について、ネットワーク310a―310c、180a、180b、及び170a―170yを介して動作状態の管理及びパラメータ設定制御などを行う。ここで、ネットワークはEthernet(登録商標)であるIEEE標準準拠のGbE(ギガビットイーサーネット)や10GbEでもよいし、インターコネクトInfiniband、産業用イーサーネット等を組合せて構成されてもよい。また、これらに限定されず、他の種別のネットワークであってもよい。
最初に、センサシステム110a―センサシステム110zにより得られる26セットの画像及び音声をセンサシステム110zからサーバ200へ送信する動作について説明する。本実施形態の画像処理システム100は、センサシステム110a―センサシステム110zがデイジーチェーンにより接続される。
本実施形態において、特別な説明がない限りは、センサシステム110a−センサシステム110zの26セットのシステムを区別せずセンサシステム110と表記する。また、各センサシステム110内の機能部についても同様に、特別な説明がない限りは区別せずに、マイク111、カメラ112、雲台113、及びカメラアダプタ120と表記する。なお、センサシステムの台数として26セットとしているが、この台数はあくまでも一例であり、台数をこれに限定するものではない。なお、本実施形態では、特に断りがない限り、画像という文言が、動画と静止画の両方の概念を含むものとして説明する。すなわち、本実施形態の画像処理システム100は、静止画及び動画の何れについても処理可能である。また、本実施形態では、画像処理システム100により提供される仮想視点コンテンツには、仮想視点画像と仮想視点音声の両方が含まれる例を中心に説明するが、これに限らない。例えば、仮想視点コンテンツに音声が含まれていなくても良い。また例えば、仮想視点コンテンツに含まれる音声が、仮想視点に最も近いマイクにより集音された音声であっても良い。また、本実施形態では、説明の簡略化のため、部分的に音声についての記載を省略しているが、基本的に画像と音声は共に処理されるものとする。
センサシステム110a―センサシステム110zはそれぞれ、1台のカメラ112a―カメラ112zを有する。即ち、画像処理システム100は、被写体を複数の方向から撮影するための複数のカメラを有する。複数のセンサシステム110同士はデイジーチェーンにより接続される。この接続形態により、撮影画像の4Kや8Kなどへの高解像度化及び高フレームレート化に伴う画像データの大容量化において、接続ケーブル数の削減や配線作業の省力化ができる効果があることをここに明記しておく。
なお、これに限らず、接続形態として、各センサシステム110a−110zがスイッチハブ180に接続されて、スイッチハブ180を経由してセンサシステム110間のデータ送受信を行うスター型のネットワーク構成としてもよい。
また、図1では、デイジーチェーンとなるようセンサシステム110a−110zの全てがカスケード接続されている構成を示したが、これに限定するものではない。例えば、複数のセンサシステム110をいくつかのグループに分割して、分割したグループ単位でセンサシステム110間をデイジーチェーン接続してもよい。そして、分割単位の終端となるセンサシステム110のカメラアダプタ120がスイッチハブ180に接続されてサーバ200へ画像の入力を行うようにしてもよい。このような構成は、スタジアムにおいて特に有効である。例えば、スタジアムが複数階で構成され、フロア毎にセンサシステム110を配備する場合が考えられる。この場合に、フロア毎、あるいはスタジアムの半周毎にサーバ200への入力を行うことができ、全センサシステム110を1つのデイジーチェーンで接続する配線が困難な場所でも設置の簡便化及びシステムの柔軟化を図ることができる。
また、デイジーチェーン接続されてサーバ200へ画像入力を行うカメラアダプタ120が1つであるか2つ以上であるかに応じて、サーバ200での画像処理の制御が切り替えられる。すなわち、センサシステム110が複数のグループに分割されているかどうかに応じて制御が切り替えられる。サーバ200への画像入力を行うカメラアダプタ120が1つの場合は、デイジーチェーン接続で画像伝送を行いながら競技場全周画像が生成されるため、サーバ200において全周の画像データが揃うタイミングは同期がとられている。すなわち、センサシステム110がグループに分割されていなければ、同期はとれる。しかし、サーバ200への画像入力を行うカメラアダプタ120が複数になる(センサシステム110がグループに分割される)場合は、それぞれのデイジーチェーンのレーン(経路)によって遅延が異なる場合が考えられる。そのため、サーバ200において全周の画像データが揃うまで待って同期をとる同期制御によって、画像データの集結をチェックしながら後段の画像処理を行う必要があることを明記しておく。
本実施形態では、センサシステム110はマイク111、カメラ112、雲台113、及びカメラアダプタ120を有するものとして説明するが、センサシステム110の構成はこのような構成に限らない。すなわちセンサシステム110は、少なくとも1台のカメラアダプタ120と、1台のカメラ112を有していれば良い。また例えば、センサシステム110は1台のカメラアダプタ120と、複数のカメラ112で構成されてもよいし、1台のカメラ112と複数のカメラアダプタ120で構成されてもよい。即ち、画像処理システム100内の複数のカメラ112と複数のカメラアダプタ120はN対M(NとMは共に1以上の整数)で対応する。また、センサシステム110は、マイク111、カメラ112、雲台113、及びカメラアダプタ120以外の装置を含んでいてもよい。また、カメラ112とカメラアダプタ120とが一体となって構成されていてもよい。さらに、カメラアダプタ120の機能の少なくとも一部をフロントエンドサーバ230が有していてもよい。なお、センサシステム110a−110zの全てが同じ構成を有することに限らず、センサシステム110ごとに異なる構成を有していても良い。
マイク111aにて集音された音声と、カメラ112aにて撮影された画像は、カメラアダプタ120aにおいて後述の画像処理が施された後、ネットワーク170aを通してセンサシステム110bのカメラアダプタ120bに伝送される。同様にセンサシステム110bは、マイク111bにて集音された音声とカメラ112bにて撮影された画像を、センサシステム110aから取得した画像及び音声と共にセンサシステム110cに伝送する。このような動作をセンサシステム110a―110zの各々が行うことにより、センサシステム110a―110zが取得した画像及び音声は、センサシステム110zからネットワーク180b及びスイッチハブ180を介してサーバ200へ伝送される。
なお、本実施形態では、カメラ112a−112zとカメラアダプタ120a−120zが分離された構成にしているが、同一筺体で一体化されていてもよい。その場合、マイク111は一体化されたカメラ112に内蔵されてもよいし、カメラ112の外部に接続されていてもよい。
カメラ112は雲台113に設置され、雲台113は、ユーザが仮想カメラ操作UI330を操作したことに応じて入力された制御指示に応じて、この載置されたカメラ112の姿勢(撮影する方向)を変更する。なお、雲台113の制御は仮想カメラ操作UI330からの制御指示以外に、他の装置からの指示に応じて行うようにしても良い。
次に、サーバ200の構成及び動作について説明する。本実施形態のサーバ200は、センサシステム110zから取得したデータの処理を行う。サーバ200は、フロントエンドサーバ230、データベース250(以下、DBとも記載する)、バックエンドサーバ270、タイムサーバ290を有する。
タイムサーバ290は、時刻及び同期信号を配信する機能を有し、スイッチハブ180を介してセンサシステム110a―110zに時刻及び同期信号を配信する。時刻と同期信号を受信したカメラアダプタ120a―120zのそれぞれは、カメラ112a―112zを時刻と同期信号をもとにGenlockさせて画像フレーム同期を行う。即ち、タイムサーバ290は、複数のカメラ112の撮影タイミングを同期させる。これにより、画像処理システム100は同じタイミングで撮影された複数の撮影画像に基づいて仮想視点画像を生成できるため、撮影タイミングのずれによる仮想視点画像の品質低下を抑制できる。なお、本実施形態ではタイムサーバ290が複数のカメラ112の時刻同期を管理するものとするが、これに限らず、時刻同期のための処理を各カメラ112又は各カメラアダプタ120が独立して行ってもよい。
フロントエンドサーバ230は、センサシステム110zから取得した画像及び音声から、セグメント化された伝送パケットを再構成してデータ形式のデータに変換した後に、カメラの識別子やデータ種別、フレーム番号に応じてデータベース250に書き込む。
バックエンドサーバ270は、仮想カメラ操作UI330から視点の指定を受け付け、受け付けられた視点に基づいて、データベース250から対応する画像及び音声データを読み出し、レンダリング処理を行って仮想視点画像を生成する。仮想カメラ操作UI330は、ユーザが視点の指定を操作可能なユーザインターフェースであり、例えば、キーボードやマウス、タッチパネル画面で構成される。しかし、ユーザが視点の指定操作を行うために操作可能なものであれば、如何なるUIを仮想カメラ操作UI330に適用しても良い。
なお、サーバ200の構成はこれに限らない。例えば、フロントエンドサーバ230、データベース250、及びバックエンドサーバ270のうち少なくとも2つが一体となって構成されていてもよい。また、フロントエンドサーバ230、データベース250、及びバックエンドサーバ270の少なくとも何れかが複数含まれていてもよい。また、サーバ200内の任意の位置に上記の装置以外の装置が含まれていてもよい。さらに、サーバ200の機能の少なくとも一部をエンドユーザ端末190や仮想カメラ操作UI330が有していてもよい。
バックエンドサーバ270によりレンダリング処理された画像は、エンドユーザ端末190に対して送信され、エンドユーザ端末190を操作するユーザは、指定した視点に応じた画像閲覧及び音声視聴が出来る。本実施形態における仮想視点コンテンツは、仮想的な視点から被写体を撮影した場合に得られる画像としての仮想視点画像を含むコンテンツである。言い換えると、仮想視点画像は、指定された視点における見えを表す画像であるとも言える。仮想的な視点(仮想視点)は、ユーザにより指定されても良いし、画像解析の結果等に基づいて自動的に指定されても良い。すなわち仮想視点画像には、ユーザが任意に指定した視点に対応する任意視点画像(自由視点画像)が含まれる。また、複数の候補からユーザが指定した視点に対応する画像や、装置が自動で指定した視点に対応する画像も、仮想視点画像に含まれる。なお、本実施形態では、仮想視点コンテンツに音声データ(オーディオデータ)が含まれる場合の例を中心に説明するが、必ずしも音声データが含まれていなくても良い。また、バックエンドサーバ270は、仮想視点画像をH.264やHEVCに代表される標準技術により圧縮符号化したうえで、MPEG−DASHプロトコルを使ってエンドユーザ端末190へ送信してもよい。また、仮想視点画像は、非圧縮でエンドユーザ端末190へ送信されてもよい。とくに圧縮符号化を行う前者はエンドユーザ端末190としてスマートフォンやタブレットを想定しており、後者は非圧縮画像を表示可能なディスプレイを想定している。すなわち、エンドユーザ端末190の種別に応じて画像フォーマットが切り替え可能であることを明記しておく。また、画像の送信プロトコルはMPEG−DASHに限らず、例えば、HLS(HTTP Live Streaming)やその他の送信方法を用いても良い。
この様に、画像処理システム100は、映像収集ドメイン、データ保存ドメイン、及び映像生成ドメインという3つの機能ドメインを有する。映像収集ドメインはセンサシステム110a−110zを含み、データ保存ドメインはデータベース250、フロントエンドサーバ230及びバックエンドサーバ270を含み、映像生成ドメインは仮想カメラ操作UI330及びエンドユーザ端末190を含む。しかし、本構成に限らず、例えば、仮想カメラ操作UI330が直接センサシステム110a−110zから画像を取得する事も可能である。しかしながら、本実施形態では、センサシステム110a−110zから直接画像を取得する方法ではなくデータ保存機能を中間に配置する方法をとる。具体的には、フロントエンドサーバ230がセンサシステム110a−110zが生成した画像データや音声データ及びそれらのデータのメタ情報をデータベース250の共通スキーマ及びデータ型に変換している。これにより、センサシステム110a−110zのカメラ112が他機種のカメラに変化しても、変化した差分をフロントエンドサーバ230が吸収し、データベース250に登録することができる。このことによって、カメラ112が他機種カメラに変わった場合に、仮想カメラ操作UI330が適切に動作しない虞を低減できる。
また、仮想カメラ操作UI330は、直接データベース250にアクセスせずにバックエンドサーバ270を介してアクセスする構成である。バックエンドサーバ270で画像生成処理に係わる共通処理を行い、操作UIに係わるアプリケーションの差分部分を仮想カメラ操作UI330で行っている。このことにより、仮想カメラ操作UI330の開発において、UI操作デバイスや、生成したい仮想視点画像を操作するUIの機能要求に対する開発に注力する事ができる。また、バックエンドサーバ270は、仮想カメラ操作UI330の要求に応じて画像生成処理に係わる共通処理を追加又は削除する事も可能である。このことによって仮想カメラ操作UI330の要求に柔軟に対応する事ができる。
このように、画像処理システム100においては、被写体を複数の方向から撮影するための複数のカメラ112による撮影に基づく画像データに基づいて、バックエンドサーバ270により仮想視点画像が生成される。なお、本実施形態における画像処理システム100は、上記で説明した物理的な構成に限定される訳ではなく、論理的に構成されていてもよい。
次に、カメラアダプタ120の機能構成例について、図2のブロック図を用いて説明する。
映像入力部121は、SDI(Serial Digital Interface)等の規格に対応した入力インタフェースである。映像入力部121は、カメラ112(該映像入力部121と同じセンサシステム110内のカメラ112)が撮像した画像を自カメラ画像(着目撮像装置による撮像画像)として取得して記憶部126に書き込む。また映像入力部121は、SDIに重畳される補助データ(Ancillary Data)を捕捉する。補助データには、カメラ112のズーム率、露出、色温度などといったカメラパラメータやタイムコードなどが含まれる。補助データは、カメラアダプタ120に含まれる各機能部(図3)で使用される。
データ受信部122は、上流側のカメラアダプタ120と接続されている。例えばセンサシステム110bのカメラアダプタ120b内のデータ受信部122は、センサシステム110aのカメラアダプタ120aと接続されている。データ受信部122は、上流側のカメラアダプタ120で生成された前景画像(上流前景画像)、背景画像(上流背景画像)、三次元モデル情報(上流三次元モデル情報)、オブジェクト抽出画像(上流オブジェクト抽出画像)等を該上流側のカメラアダプタ120から受信する。そしてデータ受信部122は、上流側のカメラアダプタ120から受信したこれらのデータを記憶部126へ書き込む。
破綻画像判定部123は、自カメラ画像が仮想視点コンテンツを生成するのに不向きな画像であるか否かを判断する。破綻画像判定部123による判断結果は、カメラアダプタ120に含まれる各機能部に通知されるものとする。また破綻画像判定部123は、自カメラ画像で破綻していると判断された領域内の画像を、背景画像において対応する領域内の画像で置き換えたマスク処理済画像を生成する機能も有する。破綻画像判定部123の詳細については後述する。
前景背景分離部124は、映像入力部121によって入力された自カメラ画像若しくは破綻画像判定部123が生成したマスク処理済画像を前景画像と背景画像とに分離する。前景画像は、例えば、画像(自カメラ画像、マスク処理済画像)に対するオブジェクト(被写体)検出の結果により得られる前景画像であり、背景画像は、画像(自カメラ画像、マスク処理済画像)において前景画像を除く画像である。
なお、オブジェクトとは、例えば人物である。但し、オブジェクトは特定人物(選手、監督、及び/又は審判など)であっても良いし、ボールやゴールなど画像パターンが予め定められている物体であっても良い。また、オブジェクトとして動体が検出されるようにしても良い。人物等の重要なオブジェクトを含む前景画像とそのようなオブジェクトを含まない背景領域とを分離して処理することで、画像処理システム100において生成される仮想視点画像の上記のオブジェクトに該当する部分の画像の品質を向上できる。また、前景と背景の分離を各カメラアダプタ120で行うことで、複数のカメラ112を備えた画像処理システム100における負荷を分散させることができる。
生成部125は、前景背景分離部124で分離された前景画像と、記憶部126に格納されている上流前景画像と、を用いて、例えばステレオカメラの原理を用いて、被写体の三次元モデルに関わる画像情報(以後、三次元モデル情報と呼ぶ)を生成する。
記憶部126は、ハードディスクなどの磁気ディスク、不揮発性メモリや揮発性メモリなどの記憶装置である。記憶部126は、データ受信部122が受信したデータ群や、破綻画像判定部123、前景背景分離部124、生成部125による処理中/処理結果のデータ等を格納するためのメモリとして機能する。また、記憶部126には、既知の情報として本実施形態以降で説明するものも格納されている。
データ送信部127は、下流側のカメラアダプタ120と接続されている。例えばセンサシステム110bのカメラアダプタ120b内のデータ送信部127は、センサシステム110cのカメラアダプタ120cと接続されている。データ送信部127は、前景画像、背景画像、三次元モデル情報、オブジェクト抽出画像、上流側のカメラアダプタ120から受信した画像群などを、下流側のカメラアダプタ120に対して送信する。
次に、破綻画像判定部123の機能構成例について、図3のブロック図を用いて説明する。
オブジェクト抽出部401は、自カメラ画像からオブジェクトを抽出する機能を有する。オブジェクト抽出部401は、前景背景分離部124が1フレーム以上前の画像(自カメラ画像若しくはマスク処理済画像)から分離した背景画像と、現フレームの自カメラ画像と、の差分からオブジェクトが写っている領域をオブジェクト領域として抽出する。なお、オブジェクトとは、選手、監督、審判、観客などの人物や、ボール、ゴール、旗などの物体などである。また、背景画像は、前景背景分離部124が生成した背景画像に限定せず、カメラ設置時に撮影した画像や試合前に撮影した画像などでもよい。
オブジェクト抽出部401の動作について、図4の例を用いて説明する。図4(A)に示した画像500は、前景背景分離部124が1フレーム以上前の画像(自カメラ画像若しくはマスク処理済画像)から分離した背景画像である。図4(B)に示した画像510は、映像入力部121が取得した現フレームの自カメラ画像である。画像510にはオブジェクトとして、旗511、選手512、選手513、選手514、ボール515が含まれている。オブジェクト抽出部401は、画像500と画像510とで対応する画素位置の画素値を比較し、画素値に規定値以上の差がある画素の集合をオブジェクト領域とする。画像500及び画像510の場合、画像510中の旗511、選手512〜514、ボール515の各オブジェクトの領域内の画素の画素値が、画像500内において対応する画素位置の画素の画素値と異なるので、これらのオブジェクトの領域が抽出される。そしてオブジェクト抽出部401は、画像510においてこれらのオブジェクトの領域以外の領域516(図4(C))の画素値を規定値(例えばR=G=B=0:黒)とした(マスクした)画像をオブジェクト抽出画像520(図4(C))として生成する。
図3に戻って、ヒストグラム抽出部402は、オブジェクト抽出画像に含まれるオブジェクトの領域ごとに、該領域を構成する画素の画素値(赤成分(R)、緑成分(G)、青成分(B)の各成分の輝度値)の分布を生成する。そしてヒストグラム抽出部402は、オブジェクト抽出画像に含まれるオブジェクトごとに、該オブジェクトを特定するための識別情報と、該オブジェクトについて生成した分布と、を関連づけたヒストグラム用テーブルデータを生成する。
オブジェクト判定部403は、オブジェクト抽出画像に含まれるオブジェクトごとに、該オブジェクトが撮影対象として有効なオブジェクト(有効オブジェクト)であるか否かを判断する。ここで云う撮影対象とは、例えばサッカーの試合を撮影しているならば、人物(選手、監督、審判)、ボール、ゴールなどといったフィールド上の物体のことである。
オブジェクト判定部403がオブジェクト抽出画像に含まれるオブジェクトごとに、該オブジェクトが有効オブジェクトであるのか否かを判断するために行う処理について、図5のフローチャートを用いて説明する。図5のフローチャートは、1つのオブジェクト(着目オブジェクト)についての判断処理のフローチャートである。然るに実際には、オブジェクト判定部403は、オブジェクト抽出画像に含まれているそれぞれのオブジェクトについて、図5のフローチャートに従った処理を行うことになる。
ステップS601では、オブジェクト判定部403は、予め作成されて記憶部126に格納されているサイズテーブルから、オブジェクト抽出画像における着目オブジェクトのサイズと類似するサイズを検索する。サイズテーブルには、撮影対象として有効なオブジェクトごとに該オブジェクトの画像上のサイズが登録されている。ここで、オブジェクトのサイズは、該オブジェクトを包含する矩形の縦横画素数とする。
サイズテーブルは、少なくとも1つ以上のサイズパラメータで構成され、例えばサッカーの試合を撮影するのであれば、人物(選手、監督、審判)、ボール、ゴールなどといったフィールド上の物体のサイズが登録されている。なお、サイズテーブルに登録されているサイズは、映像入力部121が捕捉したSDI補助データに含まれているズーム率に基づいて動的に変更しても良い。その場合、変更後のサイズのうち、オブジェクト抽出画像における着目オブジェクトのサイズと類似するサイズを検索する。また、「サイズが類似する」とは、縦サイズの差及び横サイズの差が規定値以内であることを示すが、「サイズが類似する」ことの定義については特定の定義に限らない。
ステップS602においてオブジェクト判定部403が、サイズテーブルに、オブジェクト抽出画像における着目オブジェクトのサイズと類似するサイズが登録されていると判断した場合(検索が成功した場合)には、処理はステップS603に進む。一方、オブジェクト判定部403が、サイズテーブルに、オブジェクト抽出画像における着目オブジェクトのサイズと類似するサイズが登録されていないと判断した場合(検索が失敗した場合)には、処理はステップS610に進む。
ステップS603では、オブジェクト判定部403は、予め作成されて記憶部126に格納されている形状テーブルから、オブジェクト抽出画像における着目オブジェクトの形状と類似する形状を表す形状情報を検索する。形状テーブルには、撮影対象として有効なオブジェクトごとに該オブジェクトの画像上の形状を示す形状情報が登録されている。ここで、「形状が類似する」とは、形状間の類似度が規定値以上であることを示すが、「形状が類似する」ことの定義については特定の定義に限らない。
この検索処理では、オブジェクト抽出画像における着目オブジェクトを変倍(拡大/縮小)し、形状テーブルから、変倍後の着目オブジェクトの形状との類似度が規定値以上の形状を示す形状情報を検索する。形状テーブルは、少なくとも1つ以上のパラメータで構成され、例えばサッカーの試合を撮影するのであれば、人物(選手、監督、審判)、ボール、ゴールなどといったフィールド上の物体の形状を示す形状情報が登録されている。形状情報には、物体ごとに複数の視点から見た形状を示す形状情報が含まれていてもよい。
ステップS604においてオブジェクト判定部403が、形状テーブルに、オブジェクト抽出画像における着目オブジェクトの形状と類似する形状を示す形状情報が登録されていると判断した場合(検索が成功した場合)には、処理はステップS605に進む。一方、オブジェクト判定部403が、形状テーブルに、オブジェクト抽出画像における着目オブジェクトの形状と類似する形状を示す形状情報が登録されていないと判断した場合(検索が失敗した場合)には、処理はステップS610に進む。
ステップS605では、オブジェクト判定部403は、予め作成されて記憶部126に格納されている色相テーブルから、オブジェクト抽出画像における着目オブジェクトの色相と類似する色相を表す色相情報を検索する。色相テーブルには、撮影対象として有効なオブジェクトごとに該オブジェクトの色相を示す色相情報が登録されている。ここで、オブジェクトの色相とは、ヒストグラム抽出部402で該オブジェクトについて抽出したRGB各色成分の輝度分布である。色相テーブルは、少なくとも1つ以上のパラメータで構成され、例えばサッカーの試合を撮影するのであれば、人物(選手、監督、審判)、ボール、ゴールなどといったフィールド上の物体の色相のヒストグラムである。色相のヒストグラムは、物体ごとに試合前にRGB各色成分の輝度分布を抽出したデータである。また、「色相が類似する」とは、色相間の類似度が規定値以上であることを示すが、「色相が類似する」ことの定義については、特定の定義に限らない。
ステップS606においてオブジェクト判定部403が、色相テーブルに、オブジェクト抽出画像における着目オブジェクトの色相と類似する色相を示す色相情報が登録されていると判断した場合(検索が成功した場合)には、処理はステップS607に進む。一方、オブジェクト判定部403が、色相テーブルに、オブジェクト抽出画像における着目オブジェクトの色相と類似する色相を示す色相情報が登録されていないと判断した場合(検索が失敗した場合)には、処理はステップS610に進む。
ステップS607でオブジェクト判定部403は、上流オブジェクト抽出画像におけるそれぞれのオブジェクトの位置若しくは該位置から予測した予測位置のうち、オブジェクト抽出画像中の着目オブジェクトの位置と類似する位置を検索する。この検索処理では、上流オブジェクト抽出画像におけるそれぞれのオブジェクトについて、該オブジェクトの位置若しくは該位置から予測した予測位置を中心とする検索領域を設定する。そして、それぞれの設定領域のうち、オブジェクト抽出画像中の着目オブジェクトの位置を含む設定領域を検索する。オブジェクト抽出画像中の着目オブジェクトの位置を含む設定領域が検索できた場合、該検索領域に対応するオブジェクトと着目オブジェクトとで位置に関して類似していると判断する。
ここで、上流オブジェクト抽出画像におけるオブジェクトの位置から予測した予測位置については、例えば、次のような方法でもって求めることができる。例えば、センサシステム110bのオブジェクト判定部403は、カメラ112aによる撮像画像上の画素位置とカメラ112bによる撮像画像上の画素位置との対応関係を、カメラ112aの設置位置姿勢に対するカメラ112bの設置位置姿勢に応じて求める。この対応関係はカメラの設置時に予め求めておいても良い。そしてセンサシステム110bのオブジェクト判定部403は、この対応関係を用いて、カメラ112aによる撮像画像に対応するオブジェクト抽出画像上のオブジェクトの位置に対応する、カメラ112bによる撮像画像に対応するオブジェクト抽出画像上の位置を該オブジェクトの予測位置として求める。なお、予測位置の求め方については特定の求め方に限らない。
上流オブジェクト抽出画像は、データ受信部122を経由して受け取った上流のカメラアダプタ120で生成されたオブジェクト抽出画像であり、射影変換および位置合わせ処理を施してオブジェクト抽出画像に適合させる必要がある。なお、上流オブジェクト抽出画像をオブジェクト抽出画像に適合させる処理は、これに限定されるものではなく別の処理を用いてもよい。
ステップS608では、オブジェクト判定部403が、ステップS607における検索処理により、オブジェクト抽出画像中の着目オブジェクトの位置を含む設定領域が見つかったと判断した場合には、処理はステップS609に進む。一方、オブジェクト判定部403が、ステップS607における検索処理により、オブジェクト抽出画像中の着目オブジェクトの位置を含む設定領域が見つからなかったと判断した場合には、処理はステップS610に進む。
ステップS609では、オブジェクト判定部403は、着目オブジェクトは、撮影対象として有効なオブジェクトである有効オブジェクトとして決定する。一方、ステップS610では、オブジェクト判定部403は、着目オブジェクトは、撮影対象として有効なオブジェクトではない(撮影対象として無効なオブジェクトである)無効オブジェクトとして決定する。
本実施形態では、以上説明した図5のフローチャートに従った処理を行うことで、着目オブジェクトが有効オブジェクトであるのか、それとも無効オブジェクトであるのかを決定した。しかし、図5のフローチャートに従った処理に限らず、他の処理により、着目オブジェクトが有効オブジェクトであるのか、それとも無効オブジェクトであるのかを決定するための処理を実現させても構わない。例えば、着目オブジェクトが有効オブジェクト/無効オブジェクトであるのか否かを決定するための条件を、図5のフローチャートよりも増減させても良いし、変更しても良い。すなわち、オブジェクト判定部403は、着目オブジェクトのサイズ、形状、色相、及び検出位置のうちの少なくとも1つと、予め登録された登録情報との比較結果に基づいて、当該着目オブジェクトが有効オブジェクトか無効オブジェクトかを判定できる。
図3に戻って最終判定部404は、自カメラ画像が仮想視点コンテンツを生成するのに不向きな画像であるか否かを判定し、該判定の結果に応じて、カメラアダプタ120が下流側のカメラアダプタ120に向けてデータ(伝送情報)を伝送する為の動作モードを切り替える。最終判定部404の動作について、図6のフローチャートを用いて説明する。
ステップS701では、最終判定部404は、自カメラ画像(オブジェクト抽出画像)内に1以上の無効オブジェクトが存在するか否かを判断する。この判断の結果、自カメラ画像(オブジェクト抽出画像)内に1以上の無効オブジェクトが存在する場合には、処理はステップS702を介してステップS703に進み、存在しない場合には、処理はステップS702を介してステップS709に進む。
ステップS703では、最終判定部404は、自カメラ画像(オブジェクト抽出画像)における全ての無効オブジェクトが占める割合(占有率)を求める。つまり、占有率=(全ての無効オブジェクトを構成する画素の数/(自カメラ画像(オブジェクト抽出画像)の画素数)を計算する。
ステップS704では、最終判定部404は、ステップS703で求めた占有率が規定値未満(閾値未満)であるか否かを判断する。この判断の結果、ステップS703で求めた占有率が規定値未満であれば、処理はステップS705に進み、ステップS703で求めた占有率が規定値以上であれば、処理はステップS710に進む。
ステップS705では、最終判定部404は、自カメラ画像(オブジェクト抽出画像)における無効オブジェクトのうち、規定サイズ以上のサイズを有する無効オブジェクトを検索する。無効オブジェクトのサイズは、上記のステップS601において該無効オブジェクトについて求めたサイズを利用すればよい。ステップS705において用いる規定サイズとしては、例えばサッカーの試合を撮影するのであれば、選手、監督、審判など人物の最大サイズが設定されているものとする。また、規定サイズは、映像入力部121が捕捉したSDI補助データのズーム率に基づいて動的に変動させてもよい。
ステップS705における検索の結果、自カメラ画像(オブジェクト抽出画像)における無効オブジェクトのうち、規定サイズ以上のサイズを有する無効オブジェクトが1つでも存在した場合には、処理はステップS706を介してステップS707に進む。一方、ステップS705における検索の結果、自カメラ画像(オブジェクト抽出画像)における無効オブジェクトのうち、規定サイズ以上のサイズを有する無効オブジェクトが1つも存在しない場合には、処理はステップS706を介してステップS711に進む。
ステップS707では、最終判定部404は、自カメラ画像(オブジェクト抽出画像)の中央領域に、規定サイズ以上のサイズを有する無効オブジェクトが1つでも位置しているか否かを判断する。自カメラ画像(オブジェクト抽出画像)の中央領域とは、例えば、自カメラ画像(オブジェクト抽出画像)において四隅の近傍領域を除く領域である。
規定サイズ以上のサイズを有する無効オブジェクトは、該無効オブジェクトの裏に人物等の別の物体を覆い隠している可能性が考えられる。そのため、ステップS707では、仮想視点コンテンツを生成する際に与える影響度を、規定サイズ以上のサイズを有する無効オブジェクトの位置を用いて調査する。また、この調査方法に限定せず、1フレーム前の前景画像と比較し、規定サイズ以上のサイズを有する無効オブジェクトの裏に別の物体が隠れていないことを調査してもよい。
ステップS707における判断(調査)の結果、自カメラ画像(オブジェクト抽出画像)の中央領域に、規定サイズ以上のサイズを有する無効オブジェクトが1つでも位置している場合には、処理はステップS708を介してステップS710に進む。一方、ステップS707における判断(調査)の結果、自カメラ画像(オブジェクト抽出画像)の中央領域に、規定サイズ以上のサイズを有する無効オブジェクトが1つも位置していない場合には、処理はステップS708を介してステップS711に進む。
ステップS709では、最終判定部404は、カメラアダプタ120の動作モード(下流側への情報の伝送処理モード)として通常モードを設定する。ステップS710では、最終判定部404は、カメラアダプタ120の動作モードとしてバイパスモードを設定する。ステップS711では、最終判定部404は、カメラアダプタ120の動作モードとしてマスクモードを設定する。
図3に戻って、マスク画像生成部405は、最終判定部404が設定した動作モードがマスクモードである場合に限って動作する。マスク画像生成部405は、オブジェクト抽出画像における無効オブジェクトの領域とそれ以外の領域とで異なる画素値を割り当てたマスク画像を生成する。マスク画像はオブジェクト抽出画像(自カメラ画像)と同じ解像度を有する。マスク画像生成部405は、オブジェクト抽出画像における画素位置(x、y)が無効オブジェクトの領域に含まれている場合には、マスク画像上の画素位置(x、y)における画素値として第1の値(例えば1)を割り当てる。一方、マスク画像生成部405は、オブジェクト抽出画像における画素位置(x、y)が無効オブジェクトの領域外に含まれている場合には、マスク画像上の画素位置(x、y)における画素値として第2の値(≠第1の値であり、例えば0)を割り当てる。
マスク処理部406は、最終判定部404が設定した動作モードがマスクモードである場合、次のような処理を行ってマスク処理済画像を生成して出力する。即ちマスク画像において第1の値が割り当てられている画素で構成される領域に対応する自カメラ画像上の領域内の画像を、上流背景画像において該領域に対応する領域内の画像に置き換えたマスク処理済画像を生成し、該マスク処理済画像を出力する処理である。なお、この置き換えに使用する背景画像は上流背景画像に限らない。またマスク処理部406は、最終判定部404が設定した動作モードがマスクモード以外のモード(通常モード若しくはバイパスモード)であれば、自カメラ画像をそのまま出力する。
前景背景分離部124は、通常モードが設定されていれば、自カメラ画像を前景画像と背景画像とに分離するが、マスクモードが設定されていれば、マスク処理部406によるマスク処理済画像を前景画像と背景画像とに分離する。バイパスモードが設定されている場合、前景背景分離部124及び生成部125は動作しない。
そして、カメラアダプタ120の動作モードとして通常モードが設定された場合、データ送信部127は、以下に列挙するデータを、下流側のカメラアダプタ120に送信する。
・ データ受信部122が上流側から受信して記憶部126に格納したデータ(上流前景画像、上流背景画像、上流三次元モデル情報、上流オブジェクト抽出画像)
・ 前景背景分離部124が自カメラ画像から分離した前景画像及び背景画像
・ 生成部125が生成した三次元モデル情報
・ 破綻画像判定部123(オブジェクト抽出部401)が生成したオブジェクト抽出画像
また、カメラアダプタ120の動作モードとしてバイパスモードが設定された場合、データ送信部127は、以下に列挙するデータを、下流側のカメラアダプタ120に送信する。
・ データ受信部122が上流側から受信して記憶部126に格納したデータ(上流前景画像、上流背景画像、上流三次元モデル情報、上流オブジェクト抽出画像)
・ 破綻画像判定部123(オブジェクト抽出部401)が生成したオブジェクト抽出画像
また、カメラアダプタ120の動作モードとしてマスクモードが設定された場合、データ送信部127は、以下に列挙するデータを、下流側のカメラアダプタ120に送信する。
・ データ受信部122が上流側から受信して記憶部126に格納したデータ(上流前景画像、上流背景画像、上流三次元モデル情報、上流オブジェクト抽出画像)
・ 前景背景分離部124がマスク処理済画像から分離した前景画像及び背景画像
・ 生成部125が生成した三次元モデル情報
・ 破綻画像判定部123(オブジェクト抽出部401)が生成したオブジェクト抽出画像
自カメラ画像に応じたカメラアダプタ120の動作について、図7を用いて説明する。図7(A)、(B)、(C)の何れも、サッカーの試合を撮影中にカメラアダプタ120に取り込まれた自カメラ画像であり、それぞれ任意の時間に取り込まれた自カメラ画像である。
図7(A)に示す自カメラ画像800は、フィールドでプレーをする選手801、選手802、選手803、およびボール804が撮影された自カメラ画像である。破綻画像判定部123は、このような自カメラ画像800を対象として上記の処理を行うことで、カメラアダプタ120の動作モードとして通常モードを設定する。通常モードに設定されたカメラアダプタ120では、前景背景分離部124は、マスク処理部406によるマスク処理を適用していない自カメラ画像800を前景画像と背景画像とに分離する。また、生成部125は、前景背景分離部124が分離した前景画像とデータ受信部122が受信した上流前景画像とを用いて三次元モデル情報を生成する。また、破綻画像判定部123では、自カメラ画像800からオブジェクト抽出画像を生成する。そして、データ送信部127は、前景画像、背景画像、三次元モデル情報、オブジェクト抽出画像、上流前景画像、上流背景画像、上流三次元モデル情報、上流オブジェクト抽出画像、を隣接する下流のカメラアダプタ120へ送信する。
図7(B)に示す自カメラ画像810は、カメラレンズに付着したゴミ811とゴミ812が映り込んだ自カメラ画像である。破綻画像判定部123は、このような自カメラ画像810を対象として上記の処理を行うことで、カメラアダプタ120の動作モードとしてマスクモードを設定する。マスクモードに設定されたカメラアダプタ120では、破綻画像判定部123によりオブジェクト抽出画像及びマスク処理済画像が生成される。マスク処理済画像は、自カメラ画像810においてゴミ811及びゴミ812の領域内の画像を、背景画像において対応する領域の画像に置き換えた画像である。前景背景分離部124は、マスク処理部406によるマスク処理を適用したマスク処理済画像を前景画像と背景画像とに分離する。また、生成部125は、前景背景分離部124が分離した前景画像とデータ受信部122が受信した上流前景画像とを用いて三次元モデル情報を生成する。そして、データ送信部127は、前景画像、背景画像、三次元モデル情報、オブジェクト抽出画像、上流前景画像、上流背景画像、上流三次元モデル情報、上流オブジェクト抽出画像、を隣接する下流のカメラアダプタ120へ送信する。
通常モードとマスクモードとの差分は、自カメラ画像に対してマスク処理を適用するか否かである。マスクモードでも(マスク処理を適用しても)、通常モードと等価な処理を行うことができる。
図7(C)に示す自カメラ画像820は、カメラ前の観客821が突如立ち上がったことで映り込んだ自カメラ画像である。破綻画像判定部123は、このような自カメラ画像820を対象として上記の処理を行うことで、カメラアダプタ120の動作モードとしてバイパスモードを設定する。バイパスモードに設定されたカメラアダプタ120では、破綻画像判定部123によりオブジェクト抽出画像が生成される。そしてバイパスモードが設定されている場合には、前景背景分離部124及び生成部125は動作しない。そして、データ送信部127は、オブジェクト抽出画像、上流前景画像、上流背景画像、上流三次元モデル情報、上流オブジェクト抽出画像、を隣接する下流のカメラアダプタ120へ送信する。
また、データ送信部127は、仮想視点コンテンツを生成するのに不向きな画像(自カメラ画像820)を検出したことを示すエラー情報についても、隣接する下流のカメラアダプタ120に対して送信する。
バイパスモード時、カメラアダプタ120は、上流のカメラアダプタから受信した情報群をそのまま下流のカメラアダプタへ転送するだけでなく、エラー情報についても送信するようにしても良い。この場合、エラー情報を受信した下流のカメラアダプタは、例えば、カメラアダプタ120の代替処理を可能な範囲で実施する。例えば、カメラアダプタ120bからエラー情報がカメラアダプタ120cに対して出力されたとする。このような場合、カメラアダプタ120cは、カメラアダプタ120aによる前景画像とカメラアダプタ120cによる前景画像とを用いて、前景画像、背景画像、三次元モデル情報、オブジェクト抽出画像を生成する。
以上説明したように、本実施形態によれば、カメラが撮影した画像が仮想視点コンテンツを生成するのに不向きな画像であるか否かを判定し、その判定結果に基づいてカメラアダプタを制御できるようになる。
[第2の実施形態]
図2,3に示した各機能部は全てハードウェアで実装しても良いし、一部若しくは全部をソフトウェア(コンピュータプログラム)で実装しても良い。後者の場合、例えば、記憶部126をメモリで実装し、それ以外の機能部をコンピュータプログラムで実装しても良く、その場合、このコンピュータプログラムは、カメラアダプタ120内の不図示のプロセッサなどで実行されることになる。
なお、上述の実施形態では、複数のカメラアダプタ120がデイジーチェーン接続される場合の例を中心に説明したが、この例に限らない。例えば、複数のカメラアダプタ120がスター型のトポロジでサーバ200と接続されても良い。スター型のトポロジを採用した場合の処理の一例について以下に説明する。すなわち、カメラアダプタ120は、図5の処理において無効オブジェクトが存在すると判定した場合、当該無効オブジェクトの領域をマスクしたマスク処理済画像をサーバ200へ出力する。一方、カメラアダプタ120は、撮像画像中に無効オブジェクトが存在しないと判定した場合、撮像画像をサーバ200へ出力する。そして、サーバ200は、各カメラアダプタ120から受信したマスク処理済画像や撮像画像に基づいて仮想視点コンテンツの生成を行う。このような実施形態によっても、仮想視点コンテンツの生成に悪影響を及ぼす原因を抑制ないし排除できる。
また、上述の実施形態では、カメラ112とカメラアダプタ120が別々の装置である場合の例を中心に説明したが、この例に限らない。すなわち、カメラアダプタ120の機能がカメラ112によって実現されるようにしても良い。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
112a:カメラ 120a:カメラアダプタ

Claims (11)

  1. 着目撮像装置による撮像画像と、該着目撮像装置の上流側の撮像装置の制御装置から伝送された第1の情報と、に基づいて、該撮像画像中のオブジェクトの三次元モデルを生成するための第2の情報を生成し、前記第1の情報と前記第2の情報とを含む伝送情報を、下流側の撮像装置の制御装置に伝送する、該着目撮像装置の制御装置であって、
    前記着目撮像装置による撮像画像に、予め登録された情報に該当するオブジェクトではない無効オブジェクトが含まれている場合には、該撮像画像におけるオブジェクトのサイズ、若しくは前記撮像画像におけるオブジェクトのサイズ及び位置に応じて、前記伝送情報の生成及び伝送を制御する制御手段を備えることを特徴とする前記着目撮像装置の制御装置。
  2. 前記制御手段は、前記撮像画像に前記無効オブジェクトが含まれていない場合には、前記撮像画像の前景画像及び背景画像、該撮像画像においてオブジェクトの領域以外をマスクした画像、前記第1の情報と該前景画像とに基づく該オブジェクトの三次元モデルの生成に要するモデル情報、を前記第2の情報として生成し、該生成した第2の情報と前記第1の情報とを含む前記伝送情報を、前記下流側の撮像装置の制御装置に伝送することを特徴とする請求項1に記載の制御装置。
  3. 前記制御手段は、前記撮像画像における前記無効オブジェクトの占有率が規定値以上であれば、前記撮像画像においてオブジェクトの領域以外をマスクした画像を前記第2の情報として生成し、該生成した第2の情報と前記第1の情報とを含む前記伝送情報を、前記下流側の撮像装置の制御装置に伝送することを特徴とする請求項1又は2に記載の制御装置。
  4. 前記制御手段は、前記撮像画像における前記無効オブジェクトの占有率が規定値未満で、前記撮像画像に規定サイズ以上のサイズを有するオブジェクトが含まれていない場合には、前記撮像画像において前記無効オブジェクトの領域を背景画像を用いてマスクしたマスク処理済画像を生成し、該マスク処理済画像の前景画像及び背景画像、該撮像画像においてオブジェクトの領域以外をマスクした画像、前記第1の情報と該前景画像とに基づく該オブジェクトの三次元モデルの生成に要するモデル情報、を前記第2の情報として生成し、該生成した第2の情報と前記第1の情報とを含む前記伝送情報を、前記下流側の撮像装置の制御装置に伝送することを特徴とする請求項1乃至3の何れか1項に記載の制御装置。
  5. 前記制御手段は、前記撮像画像における前記無効オブジェクトの占有率が規定値未満で、前記撮像画像に規定サイズ以上のサイズを有するオブジェクトが該撮像画像の中央領域に位置していない場合には、前記撮像画像において前記無効オブジェクトの領域を背景画像を用いてマスクしたマスク処理済画像を生成し、該マスク処理済画像の前景画像及び背景画像、該撮像画像においてオブジェクトの領域以外をマスクした画像、前記第1の情報と該前景画像とに基づく該オブジェクトの三次元モデルの生成に要するモデル情報、を前記第2の情報として生成し、該生成した第2の情報と前記第1の情報とを含む前記伝送情報を、前記下流側の撮像装置の制御装置に伝送することを特徴とする請求項1乃至4の何れか1項に記載の制御装置。
  6. 前記制御手段は、前記撮像画像における前記無効オブジェクトの占有率が規定値未満で、前記撮像画像に規定サイズ以上のサイズを有するオブジェクトが該撮像画像の中央領域に位置している場合には、前記撮像画像においてオブジェクトの領域以外をマスクした画像を前記第2の情報として生成し、該生成した第2の情報と前記第1の情報とを含む前記伝送情報を、前記下流側の撮像装置の制御装置に伝送することを特徴とする請求項1乃至5の何れか1項に記載の制御装置。
  7. 前記着目撮像装置の制御装置は、該着目撮像装置に内蔵され、他の撮像装置と接続されているアダプタであることを特徴とする請求項1乃至6の何れか1項に記載の制御装置。
  8. 前記着目撮像装置の制御装置は、複数の撮像装置を制御する複数の制御装置のうちの1つであり、該複数の制御装置はデイジーチェーン接続されており、該複数の制御装置の一端の制御装置が最も上流の制御装置、他端の制御装置が最も下流の制御装置であることを特徴とする請求項1乃至7の何れか1項に記載の制御装置。
  9. 複数の撮像装置のそれぞれを制御する複数の制御装置と、
    前記制御装置から伝送された伝送情報に基づいて、指定された視点からの画像を生成する装置と
    を有するシステムであって、
    着目撮像装置による撮像画像と、該着目撮像装置の上流側の撮像装置の制御装置から伝送された第1の情報と、に基づいて、該撮像画像中のオブジェクトの三次元モデルを生成するための第2の情報を生成し、前記第1の情報と前記第2の情報とを含む伝送情報を、下流側の撮像装置の制御装置に伝送する、該着目撮像装置の制御装置は、
    前記着目撮像装置による撮像画像に、予め登録された情報に該当するオブジェクトではない無効オブジェクトが含まれている場合には、該撮像画像におけるオブジェクトのサイズ、若しくは前記撮像画像におけるオブジェクトのサイズ及び位置に応じて、前記伝送情報の生成及び伝送を制御する制御手段を備えることを特徴とするシステム。
  10. 着目撮像装置による撮像画像と、該着目撮像装置の上流側の撮像装置の制御装置から伝送された第1の情報と、に基づいて、該撮像画像中のオブジェクトの三次元モデルを生成するための第2の情報を生成し、前記第1の情報と前記第2の情報とを含む伝送情報を、下流側の撮像装置の制御装置に伝送する、該着目撮像装置の制御装置の制御方法であって、
    前記着目撮像装置による撮像画像に、予め登録された情報に該当するオブジェクトではない無効オブジェクトが含まれている場合には、該撮像画像におけるオブジェクトのサイズ、若しくは前記撮像画像におけるオブジェクトのサイズ及び位置に応じて、前記伝送情報の生成及び伝送を制御することを特徴とする前記着目撮像装置の制御装置の制御方法。
  11. 着目撮像装置の制御装置のコンピュータに、請求項1乃至8の何れか1項に記載の着目撮像装置の制御装置の制御手段として機能させるためのコンピュータプログラム。
JP2017000709A 2017-01-05 2017-01-05 制御装置、システム、制御装置の制御方法 Active JP6857032B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017000709A JP6857032B2 (ja) 2017-01-05 2017-01-05 制御装置、システム、制御装置の制御方法
US15/856,327 US10397461B2 (en) 2017-01-05 2017-12-28 Control apparatus, control method, and non-transitory computer-readable storage medium
US16/507,178 US10659673B2 (en) 2017-01-05 2019-07-10 Control apparatus, control method, and non-transitory computer-readable storage medium
JP2021046237A JP2021119459A (ja) 2017-01-05 2021-03-19 生成装置、生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017000709A JP6857032B2 (ja) 2017-01-05 2017-01-05 制御装置、システム、制御装置の制御方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021046237A Division JP2021119459A (ja) 2017-01-05 2021-03-19 生成装置、生成方法

Publications (3)

Publication Number Publication Date
JP2018109904A JP2018109904A (ja) 2018-07-12
JP2018109904A5 JP2018109904A5 (ja) 2020-02-06
JP6857032B2 true JP6857032B2 (ja) 2021-04-14

Family

ID=62711390

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017000709A Active JP6857032B2 (ja) 2017-01-05 2017-01-05 制御装置、システム、制御装置の制御方法
JP2021046237A Pending JP2021119459A (ja) 2017-01-05 2021-03-19 生成装置、生成方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021046237A Pending JP2021119459A (ja) 2017-01-05 2021-03-19 生成装置、生成方法

Country Status (2)

Country Link
US (2) US10397461B2 (ja)
JP (2) JP6857032B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7250493B2 (ja) * 2018-12-03 2023-04-03 キヤノン株式会社 画像処理装置、三次元形状データの生成方法およびプログラム
CN114762355B (zh) * 2019-12-09 2024-08-02 索尼集团公司 信息处理装置和方法、程序以及信息处理系统
CN111901661B (zh) * 2020-07-30 2022-05-24 海信视像科技股份有限公司 一种视频录制方法、播放方法及显示设备

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4354708B2 (ja) * 2003-01-15 2009-10-28 独立行政法人科学技術振興機構 多視点カメラシステム
JP2005323330A (ja) * 2004-04-08 2005-11-17 Shimizu Corp 室内観察システム
JP4836086B2 (ja) * 2007-09-10 2011-12-14 三菱電機株式会社 3次元形状検出装置
JP4935647B2 (ja) * 2007-11-29 2012-05-23 カシオ計算機株式会社 合成画像出力装置および合成画像出力処理プログラム
JP4214291B1 (ja) * 2008-03-26 2009-01-28 株式会社ザイナス 接地点推定装置、接地点推定方法、動線表示システムおよびサーバ
JP2012015669A (ja) 2010-06-30 2012-01-19 Hitachi Consumer Electronics Co Ltd 表示装置および画像処理装置
JP2012175533A (ja) * 2011-02-23 2012-09-10 Sanyo Electric Co Ltd 電子機器
US9681125B2 (en) * 2011-12-29 2017-06-13 Pelco, Inc Method and system for video coding with noise filtering
JP2014191475A (ja) 2013-03-26 2014-10-06 Honda Motor Co Ltd 運転支援装置
JP6471541B2 (ja) * 2015-03-05 2019-02-20 サクサ株式会社 画像処理装置
US10051180B1 (en) * 2016-03-04 2018-08-14 Scott Zhihao Chen Method and system for removing an obstructing object in a panoramic image

Also Published As

Publication number Publication date
US20190335085A1 (en) 2019-10-31
JP2021119459A (ja) 2021-08-12
US20180191941A1 (en) 2018-07-05
US10659673B2 (en) 2020-05-19
JP2018109904A (ja) 2018-07-12
US10397461B2 (en) 2019-08-27

Similar Documents

Publication Publication Date Title
US11037364B2 (en) Image processing system for generating a virtual viewpoint image, method of controlling image processing system, and storage medium
US11750792B2 (en) Information processing apparatus, image generation method, control method, and storage medium
KR102121931B1 (ko) 제어 디바이스, 제어 방법 및 저장 매체
JP7121470B2 (ja) 画像処理システム、制御方法、及び、プログラム
US10757397B2 (en) Information processing apparatus, information processing system, information processing method, and storage medium
KR102032082B1 (ko) 데이지 체인 접속이 있는 카메라 어레이로부터, 유저에 의해 선택된 시점으로부터의 가상 화상을 생성하는 방법 및 장치
CN109565580B (zh) 信息处理设备、图像生成方法、控制方法和程序
JP2021119459A (ja) 生成装置、生成方法
JP7179515B2 (ja) 装置、制御方法、及びプログラム
JP6871801B2 (ja) 画像処理装置、画像処理方法、情報処理装置、撮像装置および画像処理システム
US20200329189A1 (en) Control device, control method, and program
US10812770B2 (en) Image processing system, image processing apparatus, image processing method, and program
US10623715B2 (en) Information processing apparatus and control method therefor
US11095871B2 (en) System that generates virtual viewpoint image, method and storage medium
JP2019022151A (ja) 情報処理装置、画像処理システム、制御方法、及び、プログラム
US20180376131A1 (en) Image processing apparatus, image processing system, and image processing method
JP2019140483A (ja) 画像処理システム、画像処理システムの制御方法、伝送装置、伝送方法及びプログラム
JP7104504B2 (ja) 画像処理システム、画像処理装置、画像伝送方法、及び、プログラム
JP7134636B2 (ja) 制御装置、制御方法及びプログラム
JP2021093648A (ja) 画像データ処理装置、画像データ処理方法、及びプログラム
JP2021034972A (ja) 情報処理システム、情報処理方法、及びプログラム
JP2018191236A (ja) 情報処理システム、情報処理方法、装置およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191218

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191218

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210319

R151 Written notification of patent or utility model registration

Ref document number: 6857032

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151