JP2018063500A - 画像処理システム、画像処理装置、制御方法、及び、プログラム - Google Patents

画像処理システム、画像処理装置、制御方法、及び、プログラム Download PDF

Info

Publication number
JP2018063500A
JP2018063500A JP2016200472A JP2016200472A JP2018063500A JP 2018063500 A JP2018063500 A JP 2018063500A JP 2016200472 A JP2016200472 A JP 2016200472A JP 2016200472 A JP2016200472 A JP 2016200472A JP 2018063500 A JP2018063500 A JP 2018063500A
Authority
JP
Japan
Prior art keywords
image
camera
image processing
cameras
abnormality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016200472A
Other languages
English (en)
Other versions
JP6894687B2 (ja
Inventor
熊取谷 昭彦
Akihiko Kumatoriya
昭彦 熊取谷
祐矢 太田
Yuya Ota
祐矢 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016200472A priority Critical patent/JP6894687B2/ja
Priority to EP17859697.9A priority patent/EP3528200A4/en
Priority to PCT/JP2017/030697 priority patent/WO2018070121A1/ja
Publication of JP2018063500A publication Critical patent/JP2018063500A/ja
Priority to US16/372,482 priority patent/US11037364B2/en
Application granted granted Critical
Publication of JP6894687B2 publication Critical patent/JP6894687B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/80Creating or modifying a manually drawn or painted image using a manual input device, e.g. mouse, light pen, direction keys on keyboard
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/24Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests
    • H04N21/2404Monitoring of server processing errors or hardware failure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Library & Information Science (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】複数カメラによる撮影画像から適切な画像が生成されなくなる可能性を低減する。【解決手段】被写体を複数の方向から撮影するための複数のカメラによる撮影画像に基づいて仮想視点画像を生成するための画像処理システムは、複数のカメラのうち、少なくとも1つのカメラの異常を検知し、異常が検知されたカメラの撮影領域の画像として、複数のカメラのうち、異常が検知されていないカメラの撮影画像を用いて仮想視点画像を生成する。【選択図】 図1

Description

本発明は、被写体を複数の方向から撮影するための複数のカメラを含む画像処理システムに関する。
昨今、複数のカメラを異なる位置に設置して多視点で同期撮影し、当該撮影により得られた複数視点画像を用いて仮想視点コンテンツを生成する技術が注目されている。複数視点画像から仮想視点コンテンツを生成する技術によれば、例えば、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴することが出来るため、通常の画像と比較してユーザに高い臨場感を与えることが出来る。
複数視点画像に基づく仮想視点コンテンツは、サーバなどの画像処理部が複数のカメラにより撮影された画像を集約し、三次元モデルを生成し、レンダリングなどの処理を施すことで生成され、閲覧のためにユーザ端末に伝送される。
特許文献1には、複数のカメラで同一の範囲を取り囲むように配置して、その同一の範囲を撮影した画像を用いて、任意の仮想視点画像を生成、表示する技術が開示されている。
特開2014−215828号公報
しかしながら、複数のカメラのうち1つ以上のカメラの状態によっては、適切な仮想視点画像が生成されなくなる恐れがあった。例えば、複数のカメラの間をデイジーチェーン接続するなどしてネットワークの伝送負荷を低減する画像システムにて仮想視点画像を生成する場合に、複数のカメラのうち一部が故障したり、電源が落ちたり、カメラの前に物が置かれたりする場合がありうる。このような場合、例えば、故障したカメラよりもデイジーチェーン接続において前段のカメラによる撮影画像が仮想視点画像の生成のために使用できなくなる可能性がある。そうすると、仮想視点画像の一部に抜けが生じたり、画質が低くなったりする恐れがある。また、上記の課題は、デイジーチェーンではなく、例えばスター型でカメラとサーバを接続するシステムにおいても生じうる。さらに、仮想視点画像の生成に限らず、パノラマ画像など、複数のカメラの撮像画像を用いて画像を生成する場合においても、同様の課題が生じうる。
本発明は、上記の課題に鑑みてなされたものであり、複数のカメラによる撮影画像から適切な画像が生成されなくなる可能性を低減することを目的とする。
上記の目的を達成するための、本発明の一態様による画像処理システムは、以下の構成を有する。すなわち、
被写体を複数の方向から撮影するための複数のカメラによる撮影画像に基づいて仮想視点画像を生成するための画像処理システムであって、
前記複数のカメラのうち、少なくとも1つのカメラの異常を検知する検知手段と、
前記検知手段により異常が検知されたカメラの撮影領域の画像として、前記複数のカメラのうち、前記検知手段により異常が検知されていないカメラの撮影画像を用いて仮想視点画像を生成する生成手段とを有する。
本発明によれば、複数のカメラによる撮影画像から適切な画像が生成されなくなる可能性を低減できる。
第1実施形態の画像処理システム100の構成例を示すブロック図。 カメラアダプタ120の機能構成例を説明するブロック図。 通常時の前景・背景画像の生成および伝送を説明するシーケンス図。 障害時の前景・背景画像の生成および伝送を説明するシーケンス図。 前景・背景画像の生成および伝送を説明するフローチャート。 前景・背景画像の生成および伝送を説明するフローチャート。 カメラおよびカメラアダプタの配置例を説明する図。 カメラの撮影画像および背景画像について説明する図。 背景画像のデータフォーマットを説明する図。 実施形態のカメラアダプタ120の構成例を示すブロック図。 実施形態における複数の撮影部の配置と視野範囲を示す図。 実施形態における撮影から広視野範囲の生成までの概要を示す図。 実施形態における異常検知部の処理を説明する図。 実施形態における出力画像の変更を説明する図。 実施形態の広視野画像生成処理を示すフローチャート。 実施形態における伝送処理の概要を説明する図。 実施形態における出力画像の変更を説明する図。 実施形態の処理概要を説明する図。 実施形態の撮影制御部の処理を説明する図。 実施形態における処理概要を説明する図。 実施形態における処理を説明する図。
以下、添付の図面を参照して本発明の実施形態の一例について説明する。
<第1実施形態>
競技場(スタジアム)やコンサートホールなどの施設に複数のカメラ及びマイクを設置し撮影及び集音を行うシステムについて、図1のシステム構成図を用いて説明する。画像処理システム100は、センサシステム110a〜110z、画像コンピューティングサーバ200、コントローラ300、スイッチングハブ180、及びエンドユーザ端末190を有する。第1実施形態では、複数のカメラから得られた複数の撮影画像に基づいて、仮想視点画像を生成する構成を説明する。
コントローラ300は制御ステーション310と仮想カメラ操作UI330を有する。制御ステーション310は画像処理システム100を構成するそれぞれのブロックに対してネットワーク(310a〜310c、180a、180b)及びデイジーチェーン(170a〜170y)を通じて動作状態の管理及びパラメータ設定制御などを行う。ここで、ネットワークはEthernet(登録商標)であるIEEE標準準拠のGbE(ギガビットイーサーネット)や10GbEでもよいし、インターコネクトInfiniband、産業用イーサーネット等を組合せて構成されてもよい。また、これらに限定されず、無線ネットワークなど他の種別のネットワークであってもよい。
最初に、センサシステム110a〜110zの26セットの画像及び音声をセンサシステム110zから画像コンピューティングサーバ200へ送信する動作を説明する。本実施形態の画像処理システム100では、センサシステム110a〜110zがデイジーチェーン(170a〜170y)により接続されている。
なお、以下の実施形態において、センサシステム110a〜110zまでの26セットのシステムを区別する必要が無い場合にはセンサシステム110と記載する。各々のセンサシステム110内の装置についても同様に、区別の必要がない場合は、マイク111、カメラ112、雲台113、外部センサ114、及びカメラアダプタ120と記載する。なお、図1ではセンサシステムの台数が26セットの場合を示しているが、あくまでも一例であり、台数をこれに限定するものではない。また、本実施形態では、特に断りがない限り、画像という文言が、動画と静止画の概念を含むものとして説明する。すなわち、本実施形態の画像処理システム100は、静止画及び動画の何れについても処理可能である。また、本実施形態では、画像処理システム100により提供される仮想視点コンテンツには、仮想視点画像と仮想視点音声が含まれる例を説明するが、これに限らない。例えば、仮想視点コンテンツに音声が含まれていなくても良い。また例えば、仮想視点コンテンツに含まれる音声が、仮想視点に最も近いマイクにより集音された音声であっても良い。また、本実施形態では、説明の簡略化のため、部分的に音声についての記載を省略しているが、基本的に画像と音声は共に処理されるものとする。
センサシステム110a〜110zは、それぞれ1台ずつのカメラ112a〜112zを有する。即ち、画像処理システム100は、被写体を複数の方向から撮影するための複数のカメラを有する。複数のセンサシステム110同士はデイジーチェーン(170a〜170y)により接続される。この接続形態により、撮影画像の4Kや8Kなどへの高解像度化及び高フレームレート化に伴う画像データの大容量化において、接続ケーブル数の削減や配線作業の省力化ができる効果がある。なお、複数のセンサシステム110間の接続形態はこれに限られるものではない。例えば、センサシステム110a〜110zの各々がスイッチングハブ180に接続され、スイッチングハブ180を経由してセンサシステム110間のデータ送受信を行う、スター型のネットワーク構成でもよい。
また、図1では、デイジーチェーンとなるようセンサシステム110a〜110zの全てがカスケード接続されている構成を示したがこれに限定されるものではない。例えば、複数のセンサシステム110をいくつかのグループに分割して、分割したグループ単位でセンサシステム110間をデイジーチェーン接続する接続形態でもよい。この場合、それぞれの分割単位の終端となるカメラアダプタ120がスイッチングハブに接続されて画像コンピューティングサーバ200へ画像の入力を行うようにしてもよい。このような構成は、スタジアムにおいてとくに有効である。例えば、スタジアムが複数階で構成され、フロア毎にセンサシステム110を配備する場合が考えられる。この場合に、フロア毎、あるいはスタジアムの半周毎に画像コンピューティングサーバ200への入力を行うことができ、全てのセンサシステム110を1つのデイジーチェーンで接続する配線が困難な場所でも設置の簡便化及びシステムの柔軟化を図ることができる。
また、デイジーチェーン接続されて画像コンピューティングサーバ200へ画像入力を行うカメラアダプタ120が1つであるか2つ以上であるかに応じて、画像コンピューティングサーバ200での画像処理の制御が切り替えられる。すなわち、センサシステム110が複数のグループに分割されているかどうかに応じて画像コンピューティングサーバ200における制御が切り替えられる。画像入力を行うカメラアダプタ120が1つの場合は、デイジーチェーン接続で画像伝送を行うことで全てのカメラからの画像データが揃うため、画像コンピューティングサーバ200において全ての画像データが揃うタイミングは同期がとられている。すなわち、センサシステム110がグループに分割されていなければ、同期はとれる。
一方、画像コンピューティングサーバ200へ画像入力を行うカメラアダプタ120が複数になる(センサシステム110がグループに分割される)場合は、それぞれのデイジーチェーンのレーン(経路)によって遅延が異なる場合が考えられる。そのため、画像コンピューティングサーバ200において全てのカメラからの画像データが揃うまで待って同期をとる同期制御によって、画像データの集結をチェックしながら後段の画像処理を行う必要がある。
本実施形態でのセンサシステム110は、マイク111、カメラ112、雲台113、外部センサ114、及びカメラアダプタ120を有する。なお、この構成に限定されるものではなく、センサシステム110は、少なくとも1台のカメラアダプタ120と、1台のカメラ112を有していれば良い。また例えば、センサシステム110は1台のカメラアダプタ120と、複数のカメラ112で構成されてもよいし、1台のカメラ112と複数のカメラアダプタ120で構成されてもよい。即ち、画像処理システム100内の複数のカメラ112と複数のカメラアダプタ120はN対M(NとMは共に1以上の整数)で対応する。また、センサシステム110は、マイク111、カメラ112、雲台113、及びカメラアダプタ120以外の装置を含んでいてもよい。さらに、カメラアダプタ120の機能の少なくとも一部をフロントエンドサーバ230が有していてもよい。本実施形態では、図1に示されるように、センサシステム110a〜110zは、同様の構成を有しているものとするが、センサシステム110a〜110zが全て同じ構成である必要はない。
センサシステム110aのマイク111aにて集音された音声と、カメラ112aにて撮影された画像は、カメラアダプタ120aにおいて後述の画像処理が施される。その後、画像は、デイジーチェーン170aを通してカメラアダプタ120aからセンサシステム110bのカメラアダプタ120bに伝送される。センサシステム110bは、集音された音声と撮影された画像を、センサシステム110aから伝送された画像及び音声と合わせてセンサシステム110cに伝送する。このような動作を続けることにより、センサシステム110a〜110zが取得した画像及び音声は、センサシステム110zからネットワーク180bを用いてスイッチングハブ180に伝送される。そして、スイッチングハブ180に伝送された画像及び音声は、スイッチングハブ180から画像コンピューティングサーバ200へ伝送される。
なお、第1実施形態では、カメラ112a〜112zとカメラアダプタ120a〜120zが分離された構成にしているが、同一筺体で一体化されていてもよい。その場合、マイク111a〜111zは一体化されたカメラ112に内蔵されてもよいし、カメラ112の外部に接続されていてもよい。
次に、画像コンピューティングサーバ200の構成及び動作について説明する。本実施形態の画像コンピューティングサーバ200は、センサシステム110zから取得したデータの処理を行う。上述したデイジーチェーンにより、センサシステム110zから取得されるデータは、センサシステム110a〜110zで取得された画像データを含んでいる。画像コンピューティングサーバ200はフロントエンドサーバ230、データベース250、バックエンドサーバ270、タイムサーバ290を有する。
タイムサーバ290は時刻及び同期信号を配信する機能を有し、ネットワーク291およびスイッチングハブ180を介してセンサシステム110a〜110zに時刻及び同期信号を配信する。時刻と同期信号を受信したカメラアダプタ120a〜120zは、カメラ112a〜112zを時刻と同期信号をもとにGenlockさせ、画像フレーム同期を行う。即ち、タイムサーバ290は、複数のカメラ112の撮影タイミングを同期させる。これにより、画像処理システム100は同じタイミングで撮影された複数の撮影画像に基づいて仮想視点画像を生成できるため、撮影タイミングのずれによる仮想視点画像の品質低下を抑制できる。なお、本実施形態ではタイムサーバ290が複数のカメラ112の時刻同期を管理するものとするが、これに限られるものではない。例えば、時刻同期のための処理を各カメラ112又は各カメラアダプタ120が独立して行ってもよい。
フロントエンドサーバ230は、センサシステム110zから取得した画像及び音声から、セグメント化された伝送パケットを再構成してデータ形式を変換した後に、カメラの識別子やデータ種別、フレーム番号に応じてデータベース250に書き込む。結果、データベース250には、カメラごとに、フレーム番号と画像及び音声データが対応付けて格納される。バックエンドサーバ270では、仮想カメラ操作UI330から視点の指定を受け付け、受け付けられた視点に基づいて、データベース250から対応する画像及び音声データを読み出し、レンダリング処理を行って仮想視点画像と仮視点音声を生成する。
なお、画像コンピューティングサーバ200の構成はこれに限らない。例えば、フロントエンドサーバ230、データベース250、及びバックエンドサーバ270のうち少なくとも2つが一体となって構成されていてもよい。また、フロントエンドサーバ230、データベース250、及びバックエンドサーバ270の少なくとも何れかが複数含まれていてもよい。また、画像コンピューティングサーバ200内の任意の位置に上記の装置以外の装置が含まれていてもよい。さらに、画像コンピューティングサーバ200の機能の少なくとも一部をエンドユーザ端末190や仮想カメラ操作UI330が有していてもよい。
レンダリング処理された画像(仮想視点画像)は、バックエンドサーバ270からエンドユーザ端末190に送信される。エンドユーザ端末190を操作するユーザは、視点の指定に応じた画像閲覧及び音声視聴が出来る。すなわち、バックエンドサーバ270は、複数のカメラ112により撮影された撮影画像(複数視点画像)と視点情報とに基づく仮想視点コンテンツを生成する。より具体的には、バックエンドサーバ270は、例えば複数のカメラアダプタ120により複数のカメラ112による撮影画像から抽出された所定領域の画像データと、ユーザ操作により指定された視点に基づいて、仮想視点コンテンツを生成する。そしてバックエンドサーバ270は、生成した仮想視点コンテンツをエンドユーザ端末190に提供する。カメラアダプタ120による所定領域の抽出の詳細については後述する。
本実施形態における仮想視点コンテンツは、仮想的な視点から被写体を撮影した場合に得られる画像としての仮想視点画像を含むコンテンツである。言い換えると、仮想視点画像は、指定された視点における見えを表す画像であるとも言える。仮想的な視点(仮想視点)は、ユーザにより指定されても良いし、画像解析の結果等に基づいて自動的に指定されても良い。すなわち仮想視点画像は、ユーザが任意に指定した視点に対応する任意視点画像(自由視点画像)であってもよいし、複数の候補からユーザが指定した視点に対応する画像や、装置が自動で指定した視点に対応する画像であってもよい。なお、本実施形態では、仮想視点コンテンツに音声データ(オーディオデータ)が含まれる場合の例を説明するが、必ずしも音声データが含まれていなくても良い。
また、バックエンドサーバ270は、仮想視点画像をH.264やHEVCに代表される標準技術により圧縮符号化したうえで、MPEG−DASHプロトコルを使ってエンドユーザ端末190へ送信してもよい。また、仮想視点画像は、非圧縮でエンドユーザ端末190へ送信されてもよい。例えば、圧縮符号化を行う前者はエンドユーザ端末190としてスマートフォンやタブレットを想定しており、圧縮符号化を行わない後者はエンドユーザ端末190として非圧縮画像を表示可能なディスプレイを想定している。このように、エンドユーザ端末190の種別に応じて画像フォーマットを切り替えることを可能としてもよい。また、画像の送信プロトコルはMPEG−DASHに限らず、例えば、HLS(HTTP Live Streaming)やその他の送信方法を用いても良い。
この様に、画像処理システム100は、映像収集ドメイン、データ保存ドメイン、及び映像生成ドメインという3つの機能ドメインを有する。映像収集ドメインはセンサシステム110a〜110zを含み、データ保存ドメインはデータベース250、フロントエンドサーバ230及びバックエンドサーバ270を含み、映像生成ドメインは仮想カメラ操作UI330及びエンドユーザ端末190を含む。なお本構成に限らず、例えば、仮想カメラ操作UI330が直接にセンサシステム110a〜110zから画像を取得するようにしてもよい。本実施形態では、センサシステム110a〜110zから直接画像を取得する方法ではなくデータ保存機能を中間に配置する方法を用いている。具体的には、センサシステム110a〜110zが生成した画像データや音声データ及びそれらのデータのメタ情報を、フロントエンドサーバ230がデータベース250の共通スキーマ及びデータ型に変換している。これにより、センサシステム110a〜110zのカメラ112が他機種のカメラに変更されても、機種の変更に起因した変化分をフロントエンドサーバ230が吸収し、データベース250に登録することができる。このことによって、カメラ112が他機種カメラに変更された場合に、仮想カメラ操作UI330が適切に動作しなくなるという虞を低減できる。
また、第1実施形態では、仮想カメラ操作UI330が、データベース250に直接にアクセスせずにバックエンドサーバ270を介してアクセスする構成となっている。バックエンドサーバ270で画像生成処理に係わる共通処理を行い、操作UIに係わるアプリケーションの差分部分を仮想カメラ操作UI330で行っている。このことにより、仮想カメラ操作UI330の開発において、UI操作デバイスや、生成したい仮想視点画像を操作するUIの機能要求に対する開発に注力する事ができる。また、バックエンドサーバ270は、仮想カメラ操作UI330の要求に応じて画像生成処理に係わる共通処理を追加又は削除する事も可能である。このことによって仮想カメラ操作UI330の要求に柔軟に対応する事ができる。
このように、画像処理システム100においては、被写体を複数の方向から撮影するための複数のカメラ112による撮影に基づく画像データに基づいて、バックエンドサーバ270により仮想視点画像が生成される。なお、本実施形態における画像処理システム100は、上記で説明した物理的な構成に限定される訳ではなく、論理的に構成されていてもよい。
次に、本実施形態におけるカメラアダプタ120の機能ブロックについて図2を利用して説明する。カメラアダプタ120は、ネットワークアダプタ410、伝送部420、画像処理部430及び、外部機器制御部440を有する。ネットワークアダプタ410は、データ送受信部411及び時刻制御部412を含む。
データ送受信部411は、デイジーチェーン170を介して他のカメラアダプタ120とデータの送受信を行う。また、デイジーチェーン170の先頭段と最終段のカメラアダプタ(120a、120z)は、ネットワーク180a、180bを介して、フロントエンドサーバ230、タイムサーバ290、及び制御ステーション310とデータ通信を行う。例えばデータ送受信部411は、カメラ112による撮影画像から前景背景分離部431により分離された前景画像と背景画像とを、他のカメラアダプタ120に対して出力する。ここで、出力先のカメラアダプタ120は、画像処理システム100内のカメラアダプタ120のうち、データルーティング処理部422の処理に応じて予め定められた順序において次のカメラアダプタ120である。各カメラアダプタ120が前景画像と背景画像とを出力することで、複数の視点から撮影された前景画像と背景画像に基づいて仮想視点画像が生成される。なお、撮影画像から分離した前景画像を出力して背景画像は出力しないカメラアダプタ120が存在してもよい。
時刻制御部412は、例えばIEEE1588規格のOrdinayClockに準拠し、タイムサーバ290との間で送受信したデータのタイムスタンプを保存する機能と、タイムサーバ290と時刻同期を行う機能とを有する。なお、IEEE1588に限定されるものではなく、他のEtherAVB規格または独自プロトコルによってタイムサーバ290との時刻同期を実現してもよい。本実施形態では、ネットワークアダプタ410としてNIC(Network Interface Card)を利用するが、NICに限定するものではなく、同様の他のInterfaceを利用してもよい。また、IEEE1588はIEEE1588−2002、IEEE1588−2008のように標準規格として更新されており、後者については、PTPv2(Precision Time Protocol Version 2)とも呼ばれる。
伝送部420は、ネットワークアダプタ410を介してスイッチングハブ180等へのデータの伝送を制御する機能を有し、以下の機能部を含む。
データ圧縮・伸張部421は、データ送受信部411を介して送受信されるデータに対して所定の圧縮方式、圧縮率、及びフレームレートを適用した圧縮を行う機能と、圧縮されたデータを伸張する機能を有している。
データルーティング処理部422は、後述するデータルーティング情報保持部425が保持するデータを利用し、データ送受信部411が受信したデータ及び画像処理部430で処理されたデータのルーティング先を決定する。さらに、データルーティング処理部422は、決定したルーティング先へデータを送信する機能を有している。ルーティング先としては、同一の注視点にフォーカスされたカメラ112に対応するカメラアダプタ120とするのが画像処理を行う上で好適である。それぞれのカメラ112同士の画像フレーム相関が高くなるからである。複数のカメラアダプタ120それぞれのデータルーティング処理部422による決定に応じて、画像処理システム100内において前景画像や背景画像をリレー形式で出力するカメラアダプタ120の順序が定まる。
同期制御部423は、IEEE1588規格のPTP(Precision Time Protocol)に準拠し、タイムサーバ290と時刻同期に係わる処理を行う機能を有している。なお、PTPに限定するのではなく他の同様のプロトコルを利用して時刻同期してもよい。
画像・音声伝送処理部424は、画像データ又は音声データを、データ送受信部411を介して他のカメラアダプタ120またはフロントエンドサーバ230へ伝送するためのメッセージを作成する機能を有する。メッセージには画像データ又は音声データ、及び各データのメタ情報が含まる。本実施形態のメタ情報には画像の撮影または音声のサンプリングをした時のタイムコードまたはシーケンス番号、データ種別、及びカメラ112やマイク111の個体を示す識別子などが含まれる。なお送信する画像データまたは音声データはデータ圧縮・伸張部421でデータ圧縮されていてもよい。また、画像・音声伝送処理部424は、他のカメラアダプタ120からデータ送受信部411を介してメッセージを受取る。そして、画像・音声伝送処理部424は、メッセージに含まれるデータ種別に応じて、伝送プロトコル規定のパケットサイズにフラグメントされたデータ情報を画像データまたは音声データに復元する。なお、データを復元した際にデータが圧縮されている場合は、データ圧縮・伸張部421が伸張処理を行う。
データルーティング情報保持部425は、データ送受信部411で送受信されるデータの送信先を決定するためのアドレス情報を保持する機能を有する。
画像処理部430は、カメラ制御部441の制御によりカメラ112が撮影した画像データ及び他のカメラアダプタ120から受取った画像データに対して処理を行う機能を有する。画像処理部430は、前景背景分離部431、三次元モデル情報生成部432、キャリブレーション制御部433を含む。
前景背景分離部431は、カメラ112が撮影した画像データを前景画像と背景画像に分離する機能を有している。すなわち、前景背景分離部431は、複数のカメラ112のうちの対応するカメラ112(当該カメラアダプタ120と接続されているカメラ112)による撮影画像から所定領域を抽出する。所定領域は例えば撮影画像に対するオブジェクト検出の結果得られる前景画像であり、この抽出により前景背景分離部431は、撮影画像を前景画像と背景画像に分離する。なお、オブジェクトとは、例えば人物である。ただし、オブジェクトが特定人物(選手、監督、及び/又は審判など)であっても良いし、ボールやゴールなど、画像パターンが予め定められている物体であっても良い。また、オブジェクトとして、動体が検出されるようにしても良い。人物等の重要なオブジェクトを含む前景画像とそのようなオブジェクトを含まない背景領域を分離して処理することで、画像処理システム100において生成される仮想視点画像の上記のオブジェクトに該当する部分の画像の品質を向上させることができる。また、前景と背景の分離を複数のカメラアダプタ120それぞれが行うことで、複数のカメラ112を備えた画像処理システム100における負荷を分散させることができる。なお、所定領域は前景画像に限らず、例えば背景画像であってもよい。
三次元モデル情報生成部432は、前景背景分離部431で分離された前景画像及び他のカメラアダプタ120から受取った前景画像を利用し、例えばステレオカメラの原理を用いて三次元モデルに係わる画像情報を生成する機能を有している。
キャリブレーション制御部433は、キャリブレーションに必要な画像データを、カメラ制御部441を介してカメラ112から取得し、キャリブレーションに係わる演算処理を行うフロントエンドサーバ230に送信する機能を有している。なお本実施形態ではキャリブレーションに係わる演算処理をフロントエンドサーバ230で行っているが、演算処理を行うノードはフロントエンドサーバ230に限定されない。例えば、制御ステーション310やカメラアダプタ120(他のカメラアダプタ120を含む)など他のノードで演算処理が行われてもよい。またキャリブレーション制御部433は、カメラ制御部441を介してカメラ112から取得した画像データに対して、予め設定されたパラメータに応じて撮影中のキャリブレーション(動的キャリブレーション)を行う機能を有している。
外部機器制御部440は、カメラアダプタ120に接続する機器を制御する機能を有する。外部機器制御部440は、機能ブロックとして、カメラ制御部441、マイク制御部442、雲台制御部443、センサ制御部444を含む。
カメラ制御部441は、カメラ112と接続し、カメラ112の制御、撮影画像取得、同期信号提供、及び時刻設定などを行う機能を有している。カメラ112の制御は、例えば撮影パラメータ(画素数、色深度、フレームレート、及びホワイトバランスの設定など)の設定及び参照、カメラ112の状態(撮影中、停止中、同期中、及びエラーなど)の取得、撮影の開始、停止、ピント調整の指示などを含む。なお、本実施形態ではカメラ112を介してピント調整を行っているが、取り外し可能なレンズがカメラ112に装着されている場合は、カメラアダプタ120とレンズを接続し、カメラアダプタ120が直接ズームやピント等のレンズの調整を行ってもよい。また、カメラアダプタ120がカメラ112を介してズームやピント等のレンズ調整を行ってもよい。
同期信号提供は、同期制御部423がタイムサーバ290と同期した時刻を利用して、撮影タイミング(制御クロック)をカメラ112に提供することで行われる。時刻設定は、同期制御部423がタイムサーバ290と同期した時刻を例えばSMPTE12Mのフォーマットに準拠したタイムコードで提供することで行われる。これにより、カメラ112から受取る画像データに提供したタイムコードが付与されることになる。なおタイムコードのフォーマットはSMPTE12Mに限定されるわけではなく、他のフォーマットであってもよい。また、カメラ制御部441は、カメラ112に対するタイムコードの提供はせず、カメラ112から受取った画像データに自身がタイムコードを付与してもよい。
マイク制御部442は、マイク111と接続し、マイク111の制御、収音の開始及び停止や収音された音声データの取得などを行う機能を有している。マイク111の制御は例えば、ゲイン調整や、状態取得などである。またカメラ制御部441と同様にマイク111に対して音声サンプリングするタイミングとタイムコードを提供する。音声サンプリングのタイミングとなるクロック情報としては、タイムサーバ290からの時刻情報が例えば48KHzのワードクロックに変換されてマイク111に供給される。
雲台制御部443は雲台113と接続し、雲台113の制御を行う機能を有している。雲台113の制御には、例えば、パン・チルト制御や、パン・チルトの状態取得などがある。
センサ制御部444は、外部センサ114と接続し、外部センサ114がセンシングしたセンサ情報を取得する機能を有する。例えば、外部センサ114としてジャイロセンサが利用される場合は、振動を表す情報(振動情報)を取得することができる。画像処理部430は、センサ制御部444が取得した振動情報を用いて、前景背景分離部431での処理に先立って、振動を抑えた画像を生成することができる。例えば、8Kカメラの画像データを、振動情報を考慮して、元の8Kサイズよりも小さいサイズで切り出して、隣接設置されたカメラ112の画像との位置合わせを行う場合に利用される。これにより、建造物の躯体振動が各カメラに異なる周波数で伝搬しても、カメラアダプタ120に配備された上記の機能で位置合わせを行うことができる。その結果、電子的に防振された画像データを生成することができ、画像コンピューティングサーバ200におけるカメラ112の台数分の位置合わせの処理負荷を軽減する効果が得られる。なお、センサシステム110のセンサは外部センサ114に限定されるものではなく、例えばカメラ112やカメラアダプタ120に内蔵されてもよい。
次に、カメラアダプタ120が前景画像及び背景画像を生成して次のカメラアダプタ120へ伝送する処理について図5のフローチャートを参照して説明する。
カメラ制御部441は、自身に接続されているカメラ112から撮影画像を取得する(S501)。次に、前景背景分離部431は、S501で取得された撮影画像を前景画像及び背景画像に分離する(S502)。なお、本実施形態における前景画像は、カメラ112から取得した撮影画像に対する所定オブジェクトの検出結果に基づいて決定される画像である。所定オブジェクトとは、例えば人物である。ただし、オブジェクトが特定人物(選手、監督、及び/又は審判など)であっても良いし、ボールやゴールなど、画像パターンが予め定められている物体であっても良い。また、オブジェクトとして、動体が検出されるようにしても良い。
次に、データ圧縮・伸張部421は、分離した前景画像及び背景画像の圧縮処理を行う(S503)。前景画像に対してはロスレス圧縮が行われ、前景画像は高画質を維持する。背景画像に対してはロスあり圧縮が行われ、伝送データ量が削減される。次に、画像・音声伝送処理部424は、圧縮した前景画像と背景画像を、データ送受信部411を介して次のカメラアダプタ120へ伝送する(S504)。なお背景画像に関しては毎フレーム伝送するのではなく伝送フレームを間引いて伝送してもよい。例えば、撮影画像が60fpsである場合に、前景画像は毎フレーム伝送されるが、背景画像は1秒間の60フレーム中1フレームのみが伝送される。これにより伝送データ量の削減を行う事ができる特有の効果がある。
また画像・音声伝送処理部424は、次のカメラアダプタ120へ前景画像及び背景画像を伝送する際に、メタ情報を付与するようにしてもよい。例えば、カメラアダプタ120またはカメラ112の識別子や、フレーム内の前景画像の位置(xy座標)や、データサイズ、フレーム番号、及び撮影時刻などがメタ情報として付与され得る。また注視点を識別するための注視点グループ情報や、前景画像及び背景画像を識別するデータ種別情報などがメタ情報として付与されてもよい。但しメタ情報として付与されるデータの内容はこれらに限定される訳ではなく、他のデータが付与されてもよい。
なお、カメラアダプタ120がデイジーチェーンを通じてデータを伝送する際に、自身に接続されたカメラ112と相関の高いカメラ112の撮影画像のみを選択的に処理することで、カメラアダプタ120における伝送処理負荷を軽減することができる。また、デイジーチェーン伝送において、何れかのカメラアダプタ120において故障が発生してもカメラアダプタ120間のデータ伝送が停止しないようにシステムを構成することで、ロバスト性を確保できる。
図7は、本実施形態における注視点とカメラ配置を説明する図である。各カメラ112は光軸が特定の注視点702を向くように設置されている。同じ注視点グループ701に分類されるカメラ112は、同じ注視点702を向くように設置される。
まず、通常時の、複数のカメラアダプタ120(120a、120b、120c、及び120d)が連動する処理シーケンスについて図3を用いて説明する。なお、処理の順番は図に示したものに限定される訳ではない。また、図1に示される画像処理システム100には26台のカメラ112とカメラアダプタ120が含まれるが、ここでは2台のカメラ(112b、112c)、及び、4台のカメラアダプタ(120a、120b、120c、120d)に注目して説明する。カメラ112bとカメラアダプタ120b、及びカメラ112cとカメラアダプタ120cは、其々接続されている。なおカメラアダプタ120aおよびカメラアダプタ120dに接続するカメラ(112a、112d)や、各カメラアダプタ120に接続するマイク111、雲台113、及び外部センサ114については省略されている。また、カメラアダプタ120a〜120dはタイムサーバ290と時刻同期が完了し、撮影状態となっているものとする。
同期した撮影タイミング(時刻tとする)において、カメラ112bおよびカメラ112cは其々カメラアダプタ120b及び120cに対して撮影画像(1)及び撮影画像(2)を送信する(F301、F302)。カメラアダプタ120b及び120cは、受信した撮影画像(1)または撮影画像(2)に対して、キャリブレーション制御部433においてキャリブレーション処理を行う(F303、F304)。キャリブレーション処理は例えば色補正やブレ補正等である。なお、本実施形態ではキャリブレーション処理が実施されているが、必ずしも実施しなくてもよい。次に、キャリブレーション処理済の撮影画像(1)または撮影画像(2)に対して、前景背景分離部431によって前景背景分離処理が行われる(F305、F306)。
次に、分離された前景画像及び背景画像其々に対してデータ圧縮・伸張部421において圧縮が行われる(F307、F308)。なお分離した前景画像及び背景画像の其々の重要度に応じて圧縮率が変更されてもよい。また、場合によっては圧縮を行わなくてもよい。例えば、カメラアダプタ120は、背景画像よりも前景画像の圧縮率が低くなるように、前景画像と背景画像とのうち少なくとも背景画像を圧縮して次のカメラアダプタ120に対して出力する。前景画像も背景画像も圧縮する場合、重要な撮影対象を含む前景画像はロスレス圧縮を行い、撮影対象を含まない背景画像に対してはロスあり圧縮を行う。これにより、この後に次のカメラアダプタ120cまたはカメラアダプタ120dに伝送されるデータ量を効率的に削減する事ができる。例えばサッカー、ラグビー及び野球等が開催されるスタジアムのフィールドを撮影した場合には、画像の大半が背景画像で構成され、プレーヤ等の前景画像の領域が小さいという特徴があるため、伝送データ量を大きく削減できる。
さらには、カメラアダプタ120b又はカメラアダプタ120cは、重要度に応じて、次のカメラアダプタ120cまたはカメラアダプタ120dに対して出力する画像のフレームレートを変更してもよい。例えば、前景画像よりも背景画像の出力フレームレートが低くなるように、重要な撮影対象を含む前景画像は高フレームレートで出力し、撮影対象を含まない背景画像は低フレームレートで出力するようにしてもよい。この事によって、次のカメラアダプタ120cまたはカメラアダプタ120dに伝送されるデータ量を更に削減する事ができる。またカメラ112の設置場所、撮影場所、及び/又はカメラ112の性能などに応じて、カメラアダプタ120毎に圧縮率や伝送フレームレートを変更してもよい。また、スタジアムの観客席等の三次元構造は図面を用いて事前に確認することができるため、カメラアダプタ120は背景画像から観客席の部分を除いた画像を伝送するようにしてもよい。これにより、後述のレンダリングの時点で、事前に生成したスタジアム三次元構造を利用することで試合中のプレーヤに重点化した画像レンダリングを実施し、システム全体で伝送及び記憶されるデータ量の削減ができるという効果が得られる。
次に各カメラアダプタ120は、圧縮した前景画像及び背景画像を隣接するカメラアダプタ120に伝送する(F310、F311、F312)。なお、本実施形態では前景画像及び背景画像は同時に伝送されているが、其々が個別に伝送されてもよい。
次に、カメラアダプタ120bはカメラアダプタ120aから受信した前景画像及び背景画像をカメラアダプタ120cへ伝送する(F315)。カメラアダプタ120cも同様にカメラアダプタ120dへ前景画像及び背景画像を伝送する。なお、本実施形態では前景画像及び背景画像は同時に伝送されているが、其々が個別に伝送されてもよい。カメラアダプタ120cは、カメラアダプタ120bが作成し、カメラアダプタ120bから受信した前景画像及び背景画像をカメラアダプタ120dへ伝送する(F316)。さらに、カメラアダプタ120cは、カメラアダプタ120aが作成し、カメラアダプタ120bから受信した前景画像及び背景画像をカメラアダプタ120dへ伝送する(F317)。
次に、カメラアダプタ120bが故障時に複数のカメラアダプタ120(120a、120b、120c、及び120d)が連動する処理シーケンスについて図4を用いて説明する。なお、処理の順番は図に示したものに限定される訳ではない。なお、図4において、カメラアダプタ120a〜120dはタイムサーバ290と時刻同期が完了し、撮影状態となっているものとする。なお、図4では、カメラ112bまたはカメラアダプタ120bの故障などにより撮影画像を得ることができない場合を示している。以下、カメラアダプタ120bの故障として説明する。
同期した撮影タイミング(時刻tとする)において、カメラ112bおよびカメラ112cは其々カメラアダプタ120b及び120cに対して撮影画像(1)及び撮影画像(2)を送信する(F401、F402)。カメラアダプタ120bは故障しているため、カメラ112bから撮影画像(1)を受信できず、キャリブレーション制御部433においてキャリブレーション処理を行うことができない(F403)。また、前景背景分離部431によって前景背景分離処理を行うことができない(F405)。また、前景画像及び背景画像其々に対してデータ圧縮・伸張部421において圧縮を行うことができない(F407)。また、カメラアダプタ120bでは、前景・背景画像(1)が生成されないため、カメラアダプタ120cに伝送することができない(F411)。
一方、カメラアダプタ120cでは、カメラ112cから受信した撮影画像(2)に対して、キャリブレーション制御部433がキャリブレーション処理を行う(F404)。また、カメラアダプタ120cでは、キャリブレーション処理済の撮影画像(2)に対して前景背景分離部431が前景背景分離処理を行う(F406)。また、分離された前景画像及び背景画像其々に対してデータ圧縮・伸張部421が圧縮を行う(F408)。また、画像・音声伝送処理部424とデータ送受信部411が、圧縮した前景・背景画像(2)をカメラアダプタ120dに伝送する(F412)。なお、F410、F415、F416の動作は、図3のF310、F315、F316と同様である。
カメラアダプタ120b、120cは接続しているカメラ112b、112cの撮影画像のほかにカメラアダプタ間で伝送される前景・背景画像を各々カメラアダプタ120c、120dに伝送する。しかし、上述したようにカメラアダプタ120bの故障等によりカメラアダプタ120bがカメラ112bからの撮影画像(1)を受信することができない場合、前景・背景画像(1)は生成されない。したがって、カメラアダプタ120bからカメラアダプタ120cに前景・背景画像(1)を伝送することもできない。
カメラアダプタ120cが、時刻tから所定時間内に、カメラアダプタ120bから前景・背景画像(1)を受信できない場合、カメラアダプタ120cの前景背景分離部431がカメラ112cによる撮影画像から代替の背景画像(1)を生成する(F413)。続いて、データ圧縮・伸張部421が、生成された背景画像(1)に対して圧縮を行う(F414)。圧縮された背景画像(1)は、画像・音声伝送処理部424とデータ送受信部411によりカメラアダプタ120dに伝送される(F416)。なお、前景画像、背景画像の両方について代替の画像を生成し、伝送するようにしてもよいが、本実施形態では、代替の背景画像のみを生成し、伝送している。その理由は以下のとおりである。
まず、撮影画像と伝送される背景画像(0)、背景画像(1)、背景画像(2)について説明する。図8(a)は撮影画像、図8(b)伝送される背景画像を示す。背景画像は動きが少なく、カメラ112a、112b、112c、112d間で重複する部分が大きい。このため背景画像は、重複部分を除いた差分が次段に伝送される。図8(b)に示される短冊状の背景画像は、それぞれ別のカメラから得られる背景画像の差分を示している。通常時には、カメラアダプタ120bがカメラ112bから伝送された撮影画像(1)から背景画像(1)が生成されるが、カメラ112bの故障時にはカメラアダプタ120cが一時保持していた撮影画像(2)から背景画像(1)が生成される。つまり、本実施形態においては隣接するカメラ112の撮影範囲には重複領域が存在する。従って、仮にあるカメラ112が故障したとしても、当該故障カメラの撮影画像から生成されるべき背景画像は、当該故障カメラに隣接するカメラ112による撮影画像から生成できる。こうして、複数のカメラのうち、少なくとも1つのカメラの異常が検知されると、異常が検知されたカメラの撮影領域の画像として、複数のカメラのうち異常が検知されていないカメラの撮影画像を用いて仮想視点画像が生成される。
なお、上述の通り、本実施形態では、背景画像は隣接カメラ間の差分が伝送されるため、カメラの故障により背景画像が伝送されないと、当該差分の部分が欠落し、他の画像から補うことができない。対して、前景画像は、撮影範囲の全体が伝送されるので、前景画像の各部は複数のカメラからの前景画像によって重複している。したがって、代替の前景画像を生成しなくても、合成時に補完することができる。また、上述したように、伝送データ量を削減するために背景画像の伝送フレームレートを低くした場合には、背景画像に欠落があると、その欠落した状態が長く続いてしまう。したがって、本実施形態では、背景画像について代替画像を生成して伝送し、前景画像については代替画像を生成していない。なお、代替画像として生成された背景画像については、その全体が伝送されてもよいし、上述のような差分が伝送されてもよい。
カメラアダプタ120a〜120dが作成した前景画像、背景画像はネットワーク接続されたカメラアダプタ120間を逐次伝送され、フロントエンドサーバ230に伝送される。
なお、図3、図4ではカメラアダプタ120a及びカメラアダプタ120dのキャリブレーション処理、前景背景分離処理、及び圧縮処理については記載を省略している。しかし実際には、カメラアダプタ120a及びカメラアダプタ120dも、カメラアダプタ120bやカメラアダプタ120cと同様の処理を行い、前景画像及び背景画像を作成している。また、ここでは4台のカメラアダプタ120間のデータ伝送シーケンスについて説明したが、カメラアダプタ120の数が増えても同様の処理が行われる。
次に、カメラアダプタ120が隣のカメラアダプタ120からデータを受信した時の処理のフローについて図6を使用して説明する。
まず、タイムサーバ290からの同期信号に応じて、カメラアダプタ120は隣接するカメラアダプタ120からのデータの受信待ちの状態となる(S601)。カメラアダプタ120の画像・音声伝送処理部424は自身の伝送モードがバイパス制御モードか否かを判断する(S602)。バイパス制御モードの場合、画像・音声伝送処理部424は、次段のカメラアダプタ120へ、前段のカメラアダプタ120から受信したデータを伝送する(S606)。
バイパス制御モードでない場合は、画像・音声伝送処理部424は、同期信号に応じて対応するカメラ112の撮影を実行し撮影画像を受信してから所定時間内に、前段のカメラアダプタ120より前景・背景画像を受信したか否か判断する(S603)。カメラアダプタ120が所定時間内に前景・背景画像を受信した場合は、例えば図3のF316、F317に示した通常処理を行う(S604)。所定時間内に前景・背景画像を受信できなかった場合には故障と判断し、例えば図6のF413〜F416に示した処理が行われる。すなわち、前景背景分離部431が受信できずに欠落した背景画像を生成し、生成した背景画像を画像・音声伝送処理部424が隣接するカメラアダプタに送信する(S605)。
図9はカメラアダプタ120間で伝送される背景画像のデータフォーマットを示した図である。図9に示されるように、伝送される背景画像はヘッダ情報と背景画像データを含む。ヘッダ情報は更に送信元ID、注視点ID、フレームナンバー、データ種別、画像領域情報を含む。送信元IDは送信元であるカメラアダプタ120を示すIDである。注視点IDは送信元であるカメラアダプタ120に接続したカメラ112の注視点を示すIDである。フレームナンバーはヘッダ情報に付随する画像データの撮影時刻を示すものである。データ種別はヘッダ情報に付随するデータの種類を示すIDである。画像領域情報はヘッダ情報に付随する画像の注視点領域の範囲を示す座標情報である。
カメラアダプタ120は伝送される背景画像やカメラアダプタ120に接続したカメラ112の注視点領域での座標情報を収集し、欠落した背景画像の座標情報を算出する。そしてカメラ112が撮影した画像より欠落した背景画像を生成する。より具体的には、カメラアダプタ120は、欠落した背景画像の座標情報に基づいて、撮影画像の切り出し範囲を決定し、当該決定された切り出し範囲の画像から、欠落した背景画像を生成する。
なお、背景画像の座標情報をヘッダ情報から取り出し、欠落した背景画像の座標を算出する例を示したが、予め各カメラ112が通常時に担当する背景画像の座標を決めておいてもよい。その場合は所定時間内に伝送されない背景画像の送信元IDを特定することにより、生成する必要がある背景画像の座標情報を得ることができる。
以上のように、複数のカメラ112および複数のセンサシステム110(画像処理装置)のうちの一部で障害が発生して所定領域の画像が伝送されない場合、次段のセンサシステム110が欠落した画像を生成して更に次段の画像処理装置に出力することができる。このため、障害が発生したり、画像処理装置を間引いたりしても画像の欠落がない画像処理システムを実現できる。したがって第1実施形態によれば、カメラ112のうち一部が故障したり、電源を落としたりしていても、欠落した背景画像を補完し、仮想視点画像を安定して生成することが出来る。
<第2実施形態>
次に第2実施形態について、第1実施形態とは異なる観点で説明する。第1実施形態では、複数のカメラで同時に撮影した画像から仮想視点の画像を生成する構成において、一部のカメラが故障したり電源が落ちたりした場合に、当該カメラの撮影画像を補完する構成を説明した。複数のカメラからの撮影画像を用いて合成画像を生成する技術として、任意視点画像の生成のほかに、たとえば、広視野画像(パノラマ画像)の生成がある。複数のカメラの同期撮影で得られた複数の撮影画像が計算機(サーバ)に伝送、集約され、広視野画像として合成される。
撮影から広視野画像の生成までをリアルタイムもしくはこれに準じた速度で実行することを想定した場合、大量の画像データを扱うため、効率的なデータ伝送や、高速な演算処理が求められる。たとえば、撮影画像に対して予め必要な領域のみを切り出して得られた部分画像を伝送することで、伝送帯域の節約になり、伝送先の計算機における処理対象データも少なくすることが可能となる。しかしながら、このような構成において、複数のカメラのうちの何れかが撮影に失敗すると画像の合成ができなくなってしまう。伝送される画像データが他のカメラの領域をカバーしないからである。なお、撮影に失敗するとは、例えば、カメラの故障や電源オフにより撮影できない場合、連続撮影中にユーザが大きく動いてぶれてしまった場合、撮影中に急に動く物体が映り込んで後から特徴点のマッチングが取れなくなってしまう場合、などがある。第2実施形態では、上記のような構成において、複数のカメラのうちの何れかが撮影に失敗した場合でも、広視野画像の生成を可能にする画像処理システムを説明する。なお、第2実施形態にて生成される広視野画像は、仮想視点画像を生成するために用いることもできる。つまり、本実施形態のサーバは、複数のカメラの撮影画像から広視野画像を生成し、当該広視野画像と、仮想視点の位置に関する視点情報を用いて、仮想視点画像を生成することができる。仮想視点画像の生成方法は、図1を用いて第1実施形態で説明した通りである。
第2実施形態の画像処理システム100の構成は第1実施形態(図1)と同様であるが、カメラアダプタ120の構成が異なる。図10は、第2実施形態によるセンサシステム110におけるカメラアダプタ120の構成例を示すブロック図である。図10において、第1実施形態(図2)と同様の構成には図2と同一の参照番号を付してある。図10に示されるように、第2実施形態のカメラアダプタ120は、画像処理部430に異常検知部435とトリミング部436が設けられている。異常検知部435は、カメラ112が撮影した撮影画像またはトリミングにより撮影画像から得られた部分画像における異常の発生、存在を検知する。トリミング部436は、撮影画像から広視野画像の生成に必要な部分領域を切り出すためのトリミングを行う。
なお、第1実施形態と同様にカメラ112a〜112zは、一般的なデジタルカメラやデジタルビデオカメラを用いることができる。カメラ112はそれぞれ異なる視野範囲を撮影可能な位置に配置されており、予め定められたフレームレートで動画撮影を行うことによりデジタル画像を得る。なお、撮影フレームレートは1fpsから60fpsまで選択可能であるとする。但し、撮影フレームレートはこれに限定されない。全てのカメラ112は同じ撮影フレームレートかつ同じタイミングでの撮影、すなわち同期撮影を実施する。この同期撮影のための同期信号は、たとえばタイムサーバ290から各々のセンサシステム110へ送信される。
図11は、カメラ112の配置の一例を示す図である。但し、カメラの台数、配置は、図11に示されるものに限定されない。図11において、カメラ112aは視野範囲1101を撮影し、カメラ112bは視野範囲1102を撮影する。図11の場合、カメラ112a〜112zで撮影した異なる視野範囲の画像を合わせると全周囲(360度)の視野がカバーされる。カメラアダプタ120のトリミング部436は、他のセンサシステム110のカメラ112と重複している視野範囲のうち、後の広視野画像生成に必要な重複範囲を残すように撮影画像をトリミングする(図12により後述する)。トリミングした結果の画像データは、画像・音声伝送処理部424とデータ送受信部411により、画像コンピューティングサーバ200(フロントエンドサーバ230)に伝送される。トリミングの目的は伝送効率の向上である。なお、トリミングする範囲についてはバックエンドサーバ270での画像生成方法(広視野画像の生成方法)により予め規定されており、それぞれのカメラアダプタ120が把握しているものとする。
また、第1実施形態と同様に、カメラアダプタ120のデータ圧縮・伸張部421は、画像データをネットワーク部103に伝送する際に、伝送効率を向上させるためにデータ圧縮を行う。データ圧縮の方式については特に限定はなく、JPEG−LSなどの可逆圧縮方式でも、MPEGなどの非可逆圧縮方式でもよい。また、ネットワーク180bに接続されるカメラアダプタ120zは、画像データをネットワークに送信するためにパッキング、パケット分割、ネットワークヘッダの付与などを行い、画像データをネットワーク部103へ送信する。
第1実施形態と同様にセンサシステム110同士はデイジーチェーンで接続されており、末端のセンサシステム110aと110zがネットワークに接続されている。ネットワークとしては、コンピュータネットワークの分野で一般的に使用されているEthernet(登録商標)を用い得る。カメラ112により撮影された撮影画像は、カメラアダプタ120においてトリミングされた画像データとなり、ネットワーク180bとフロントエンドサーバ230を介してデータベース250に集約される。なお、ネットワークの形式は特に限定されるものではなく、光ファイバを使用してリング形式で接続するFDDIやサーバ間の高速伝送に使用されるInfiniBandなど他のネットワーク規格でもよい。
本実施形態では高負荷、高速な処理要求を想定している。ネットワークに接続される各部は、たとえば、ネットワークIFとして10GbitのEthernet(登録商標)規格である10GBASEのNIC(Network Interface Card)を備えている。なお、10GBASEのEthernet(登録商標)規格はIEEE(The Institute of Electrical and Electronics Engineers)で規定されている。また、保存媒体としてのデータベース250は、たとえばSSD(Solid State Drive)を備える。画像コンピューティングサーバ200としては、PC(Personal Computer)、WS(Work Station)などを用いることができるが、特にその種類は問わない。カメラ112の台数や撮影するデータの解像度、トリミングの内容やネットワーク部との接続形式によって最適なネットワークIFやコンピュータの種類をユーザが選択すればよい。
フロントエンドサーバ230は、センサシステム110から伝送された画像データ(短冊画像)をデータベース250に保存する。したがって、データベース250は画像保存部としての機能を有する。バックエンドサーバ270は、画像保存部としてのデータベース250に格納された画像データ群を合成することで所望の視野範囲の広視野画像(パノラマ画像)を生成する画像生成部の機能を有する。バックエンドサーバ270(画像生成部)およびデータベース250(画像保存部)は、画像コンピューティングサーバ200に含まれており、物理的に同体であるとするが、別体で構成されてもよい。
なお、バックエンドサーバ270は、パノラマ画像の生成に限らず、撮影画像を3Dモデルに張り付けるような機能も含むとする。例えば、カメラ112によって撮影された空間の3Dモデルが存在し、撮影画像と3Dモデルの空間的な座標の対応を求め、3Dモデルの平面にテクスチャとして撮影画像を射影するようなケースが想定される。この場合、3Dモデルは予め画像コンピューティングサーバ200内に格納されており、それぞれのカメラ112と3Dモデルの空間的な位置関係についても予め把握できているものとする。
なお、画像コンピューティングサーバ200内のCPUの種類や動作周波数については特に制限はない。また、画像の生成をアクセラレーションする目的でコプロセッサやGPU(Graphics Processing Unit)を併用してもよい。ユーザが必要とする広視野画像の生成速度に応じて適切な種類のデバイスを選択すればよい。
次に、図12を参照して、個々のカメラ112から得られた撮影画像から広視野画像の生成までを概念的に説明する。カメラ112で撮影された撮影画像1201は、カメラアダプタ120において必要な視野範囲部分がトリミングされ、矩形の部分画像(短冊画像)1202として示される画像データが生成される。以降、トリミングにより得られた部分画像を短冊画像と呼ぶ。但し、短冊画像という呼称は便宜的なものであり、短冊画像が縦長の画像に限られるものではない。図12の最下段の広視野画像に示されるように、短冊画像のそれぞれは隣接する短冊画像との間で重複する重複範囲が設けてある。また、図12では、広視野画像の生成に10枚の短冊画像が用いられているが、これに限定されるものではない。
デイジーチェーンによりセンサシステム110a〜110yで生成された短冊画像はセンサシステム110zに伝送される。センサシステム110zからは、自身が生成した短冊画像を含めて、全てのセンサシステムから得られた短冊画像が、ネットワーク180bを介してフロントエンドサーバ230に伝送される。フロントエンドサーバ230は、伝送された短冊画像をデータベース250に集約、格納する。バックエンドサーバ270は、データベース250に格納された短冊画像を使用して広視野画像を生成する。
以上のようにして広視野画像を生成する際に、一部のカメラからの撮影画像に異常が存在する場合、バックエンドサーバ270は隣接した画像を適切に合成することができなくなり、広視野画像を生成できなくなる。
センサシステム110の異常検知部435は、たとえば、カメラ112で適切な撮影ができなかった場合に、撮影画像に異常が存在するとして異常を検知する。異常が存在する撮影画像の一例を図13に示す。異常検知部435は、カメラ112で時刻tに撮影された撮影画像1301と時刻t+1で撮影された撮影画像1302を比較する。ここで時刻t+1とはある時刻tでの同期撮影の次の同期撮影の撮影タイミングである。撮影画像1301と撮影画像1302について画素単位で比較すると、領域1303が大きく異なっている。この場合、異常検知部435は、撮影画像にある閾値以上の変化が生じた場合は撮影画像の異常として検知し、異常通知をカメラアダプタ120に送る。撮影画像1301と撮影画像1302の差異である領域1303は、例えばカメラ112の前に何か物が置かれた場合が想定される。その他、カメラ112自体が故障して領域1303について正しく撮影できなくなった場合も同様である。
なお、異常を検知する方法は上記に限定されるものではなく、他にも様々な方法が考えられる。たとえば、上記では画素単位で画像比較を行っているが、比較を行う単位を全画素ではなく間引いた結果の画素で比較してもよい。さらに、画素そのものではなく画像データのヒストグラムを常に取得しておいて、ヒストグラムから撮影画像の異常を判断するようにしてもよい。また、カメラ112自体が自身の撮影画像を解析する機能を備えており、撮影画像に異常が生じた際には撮影画像に付与されているメタデータ上に異常フラグを設定するようにしてもよい。その場合、異常検知部435は、異常フラグに基づいて異常の発生を検知する。他にも、隣接している視野範囲の近いカメラ112同士の画像を比較することで撮影画像の異常が検知されてもよい。
カメラアダプタ120は、前段のセンサシステム110から異常の検知通知があると、カメラ112からの撮影画像に対するトリミングの範囲を変更することで出力画像、すなわち短冊画像を変更する。なお、通常の撮影条件で得られた撮影画像ではトリミング範囲の変更を行えない場合は、カメラ112の画角および/または撮影方向を変更する。
図14を用いて短冊画像(トリミング範囲)の変更について説明する。ここではカメラ112の数は10台である。短冊3を担当するカメラ112により撮影された撮影画像1401から領域1403の短冊画像が切り出され、短冊4を担当するカメラ112により撮影された撮影画像1402から領域1404の短冊画像が切り出されている。図14(a)に示されるように、撮影画像に異常がない場合(正常時)、短冊3を担当するカメラ112のカメラアダプタ120からは、領域1403の短冊画像が伝送される。また、短冊4を担当するカメラ112のカメラアダプタ120からは、領域1404の短冊画像が伝送される。
一方、図14(b)では短冊3を担当するカメラ112から出力される撮影画像1401に異常が生じた場合を示している。撮影画像1401の異常を異常検知部435が検知すると、その旨がカメラアダプタ120から次段のセンサシステム110(図14(b)では短冊4を担当するカメラ112が属するセンサシステム110)に通知される。この通知を受け付けた、短冊4を担当するカメラ112のカメラアダプタ120(トリミング部436)は、短冊4に対応する領域1404に短冊3に対応する領域1405を加えた領域1406の画像を短冊画像として切り出す。短冊4を担当するカメラアダプタ120は、異常が検出された領域1403の短冊画像を伝送せず、撮影画像1402の領域1404と領域1405を含む領域1406、すなわち短冊3と短冊4の領域を含む短冊画像を代替データとして伝送する。この場合、短冊画像として切り出す領域が変更されるので、バックエンドサーバ270に対してトリミング領域の変更が通知される必要がある。そのため、領域1406の短冊画像のメタデータ領域に変更後の領域範囲情報が付与される。メタデータ領域の領域範囲情報は毎フレーム付与されていることとする。バックエンドサーバ270は、毎フレームの領域範囲情報に基づいて合成することで異常が発生した場合にも対応可能となる。バックエンドサーバ270は短冊画像のメタ情報に含まれている通知情報に従い、代替の短冊画像を利用した広視野画像の生成を実施する。
なお、異常検知部435が、カメラ112の撮影画像について異常を検知した場合に、ネットワークを経由してバックエンドサーバ270(画像生成部)に検知した異常を通知するようにしてもよい。異常の通知の内容は、具体的には異常が発生したフレーム時刻(もしくはフレーム番号)、出力画像の変更を指示したセンサシステム110とその変更内容である。バックエンドサーバ270は短冊画像のメタ情報に含まれている通知情報に従い、代替の短冊画像を利用した広視野画像の生成を実施する。このようにすれば、センサシステム110においてメタデータ領域への領域範囲情報の付与を省略することができる。
次に図15のフローチャートを参照して、上述したカメラアダプタ120による短冊画像の伝送処理について説明する。まず、カメラアダプタ120は、前段から受信した画像データのメタデータに異常の存在を示す情報が含まれているか否かにより、撮影条件の変更が必要か否かを判定する(S1501)。たとえば、前段の短冊画像の領域が通常の撮影条件で得られる撮影画像に含まれないような場合、カメラ112の画角および/または撮影方向などの撮影条件を変更する必要がある。撮影条件の変更が必要と判定されると(S1501でYES)、たとえばカメラ制御部441や雲台制御部443は、カメラ112の撮影条件を変更する(S1502)。撮影条件の変更が必要でなければ(S1501でNO)、撮影条件を通常の状態に戻す(S1503)。
カメラアダプタ120は、フロントエンドサーバ230からの同期信号を待つことにより撮影タイミングか否かを判定する(S1504)。撮影タイミングと判定されると(S1504でYES)、カメラ制御部441はカメラ112による撮影を実行し、撮影画像を得る(S1505)。
トリミング部436は、前段から受信した画像データに異常の存在を示す情報が含まれているか否かにより、トリミング範囲の変更が必要か否かを判定する(S1506)。トリミングの範囲の変更が必要と判定されると(S1506でYES)、トリミング部436は、前段の短冊画像の領域を含む短冊画像がS1505で取得された撮影画像から切り出されるようにトリミング範囲を変更し、トリミングを行う(S1507)。すなわち、トリミング部436は、自身が担当する短冊画像の領域と前段のセンサシステム110から得られるべき短冊画像の領域を含むように、S1505で取得された撮影画像をトリミングする。他方、トリミングの範囲変更が必要ないと判定されると(S1506でNO)、トリミング部436は、通常のトリミングを行なって短冊画像を切り出す。すなわち、トリミング部436は、自身の短冊画像を得るようにS1505で取得された撮影画像をトリミングする。
次に、異常検知部435は、S1505で取得された撮影画像(または、S1507またはS1508で切り出された短冊画像)が、異常が存在する撮影画像か否かをチェックする(S1509)。異常検知部435が異常な撮影画像であると判定した場合(S1510でYES)、異常検知部435はその旨を画像・音声伝送処理部424に通知する(S1511)。画像・音声伝送処理部424は、S1507またはS1508で切り出された短冊画像の画像データのメタデータに、以上の存在を示す情報を記述する。
カメラアダプタ120は、以上のようにして得られた短冊画像とメタデータを、上流側のセンサシステムで取得されて当該カメラアダプタ120へ伝送された画像データとともに、次段のセンサシステム110へ伝送する(S1512)。また、カメラアダプタ120は前段から画像データを受信する(S1513)。ここで受信された画像データのメタデータは、上述したS1501およびS1506の判定に用いられる。S1512における画像データの伝送では、各カメラアダプタ120は、前段のセンサシステム110から受け取った画像データと合わせて自身で生成した画像データを伝送している。こうして、最終段のセンサシステム110zは、センサシステム110a〜110yで生成された画像データと、自身で生成した画像データをフロントエンドサーバ230へ伝送する。フロントエンドサーバ230は、伝送された画像データをデータベース250に格納する。フロントエンドサーバ230は、データベース250に格納された、広視野画像の生成に必要な画像データを用いて広視野画像の生成を実施する。
以上説明した短冊画像の伝送処理について、図16(a)を用いて更に説明する。画像データである短冊画像1601,1602,1603,1604は、それぞれ撮影時刻tにおける短冊1、短冊2、短冊3、短冊4の短冊画像である。異常検知部435により短冊画像1602に異常が検出されたとする。検出された短冊画像1602の異常は異常検知部435から次段のセンサシステム110に通知されてもよいし、短冊画像1602のメタデータとして記録されてもよい。
図16(a)の下部が各々のセンサシステム110から伝送される伝送データ群1607,1608,1609を示している。各伝送データには、自身で生成した短冊画像と、前段のセンサシステム110で生成された短冊画像が含まれる。撮影時刻tの伝送データ群1607の中で、異常が生じた撮影画像から生成された短冊画像1602を含む伝送データ1605は隣接した短冊3のセンサシステム110に伝送される。また、撮影時刻tの短冊3は伝送データ1610に含められ、短冊4のセンサシステム110に伝送される。
次の撮影時刻t+1において、短冊3のセンサシステム110は、前回(撮影時刻t)の短冊2の撮影画像に異常があることを認識している。そのため、短冊3のセンサシステム110はトリミング領域(必要に応じて撮影条件)を変更し、短冊2の領域を含む短冊3(撮影時刻t+1)の短冊画像1606を生成し、これを伝送データ1611として隣接した短冊4のセンサシステム110に伝送する。短冊画像1606は、撮影時刻tの短冊2を代替する代替データを含む画像データである。撮影時刻t+1において短冊2は正常に取得されており、撮影時刻t+2の伝送データ1612は代替データの含まれていない通常の伝送データとなる。
なお、図16(a)では説明のため、伝送される全てのデータを図示してはいない。たとえば、撮影時刻tの伝送データ群1607や撮影時刻t+1の伝送データ群1608内には撮影時刻tよりも過去のデータが存在しているが、図が煩雑となることと、説明に不要なため不図示としている。
以上のような構成とすることで、カメラ112を有するセンサシステム110が複数存在し、数珠繋ぎ(デイジーチェーン)に接続され、隣接したセンサシステム110に撮影データを送付していく場合に有効になる。異常を検知した異常検知部435は、画像データの送付先である隣接したセンサシステム110に通知を行い、隣接したセンサシステム110がこれに対応する。このような処理により、異常のある画像データがフロントエンドサーバ230に到達する前にそのような画像データを代替データへ置き換えることが可能となる。
なお、上記第2の実施形態では複数のセンサシステム110がデイジーチェーンで接続された形態を示したが、これに限られるものではない。たとえば、それぞれのセンサシステム110がスイッチングハブ180とスター型で接続された構成でもよい。スター型で接続した際も、通信相手など論理的な構造として、各カメラ112に対して隣接したカメラ112を設定、定義することは可能であるため、本実施形態の適応は可能である。
また、第2実施形態では、前段からの画像データ(短冊画像)について異常が検知された場合に、トリミング領域を変更し、図14(b)に示されるように2つの連続した短冊の領域を1つの短冊として切り出しているが、これに限られるものではない。たとえば、図14(b)において、撮影画像1402から短冊3の領域に対応する短冊画像と短冊4の領域に対応する短冊画像を個別に切り出してもよい。その場合、図16(b)に示されるように、撮影時刻t+1では、短冊3の短冊画像と、短冊3とは別個の代替データ1620を含む伝送データ1611が伝送されることになる。代替データ1620は、トリミング部436が、撮影時刻t+1で得られた撮影画像から、短冊2の領域に対応する画像をトリミングにより取得することにより得られた短冊画像であり、撮影時刻tの短冊2を代替するデータとして用いられる。
なお、第2実施形態では1つのカメラ112による撮影画像に異常が存在する場合について述べたが、複数のカメラ112による撮影画像に同時に異常が発生した場合も同様に対応が可能であることは明らかである。また、連続する複数のカメラ112からの画像データに異常がある場合は、トリミングにより切り出される領域を、それら異常が検出された画像データの領域を含むように拡張すればよい。
以上のように第2実施形態によれば、画像を切り出して伝送後に合成して広視野画像を生成する構成において、複数のカメラの一部において撮影画像に異常が生じても、広視野画像を生成することが可能となる。
また、異常検知部435が検知した内容をバックエンドサーバ270の画像生成部に通知し、通知を受けた画像生成部が対応することでも対応が可能となる。このような対応により、カメラアダプタ120が伝送する短冊画像のメタデータに埋め込む処理は不要となる。
<第3実施形態>
第2実施形態では、異常検知部435は次段のセンサシステム110へ撮影画像の異常を通知し、その次段のセンサシステム110においてトリミング領域を変更することで、異常の生じた画像データを補完した。第3実施形態では、画像データの異常を検知した異常検知部435が2つ以上のセンサシステム110に異常の発生を通知することで、2つ以上のセンサシステム110がトリミング領域を変更し、異常の生じた画像データを分担して補完する。
第3実施形態の構成は第2実施形態(図1、図10)と同様である。第3実施形態では、異常検知部435からの通知を受けたカメラアダプタ120の処理(トリミング領域の変更の仕方)が第2実施形態とは異なる。以下、図17を参照して第3実施形態の処理を説明する。なお、説明を簡易にするため、図17ではセンサシステム110の台数は5台とするが、これに限定されないことは言うまでもない。
図17において、領域1701は広視野画像全体の視野範囲を示している。例えば、広視野画像としての領域1701の中の領域1702が、短冊1のセンサシステム110aの担当する領域であるとする。撮影画像に異常が発生していない通常時、短冊1のセンサシステム110aは領域1702を担当している。同様に短冊2のセンサシステム110bは領域1703、短冊3のセンサシステム110cは領域1704、短冊4のセンサシステム110dは領域1705、短冊5のセンサシステム110eは領域1706を担当している。
ここで、短冊2のセンサシステム110bにおいて撮影画像の異常が発生したとする。この場合、センサシステム110bの異常検知部435bは、短冊1、3、4、5それぞれの担当のセンサシステム110a、110c、110c、110eに対し、担当視野範囲を変更する目的で、トリミング位置の変更(異常の発生)を指示する。通常時は広視野全体に対し5台のカメラ112で均等の領域を割り振っているが、撮影画像に異常が発生した場合には、他の4台のカメラ112からの異常が発生していない撮影画像で広視野全体の領域を割り振るようにトリミング位置を変更する。図17ではセンサシステム110aは短冊画像の領域を領域1702から領域1707に変更する。同様にセンサシステム110c〜110eにおいても、それぞれ短冊画像の領域を領域1704から領域1708へ、領域1705から領域1709へ、領域1706から領域1710へ変更する。
撮影画像又は短冊画像の異常が発生した場合に、第2実施形態の場合は短冊3のセンサシステム110から出力される短冊画像の大きさが他のセンサシステム110と比較して大きくなる。そのため、広視野画像を生成するバックエンドサーバ270は図14の領域1404、1405を含む短冊画像に対して他の短冊画像と異なる対応が必要となる。これに対して、第3実施形態では、短冊画像の大きさを均等に変更することが可能であり、広視野画像の生成における負荷が第2実施形態に比べて軽減される。第3実施形態は、1つのカメラの異常状態が比較的長い期間続くような場合に特に有効である。
なお、第3実施形態では、撮影画像又は短冊画像の異常が発生した場合、異常を検知した異常検知部435が、少なくともトリミング領域を変更するべき複数のセンサシステム110にその旨を通知する。異常の通知はデイジーチェーンを介して行われてもよいし、他の方法で実現されてもよい。たとえば、異常検知部435から画像コンピューティングサーバ200に通知し、画像コンピューティングサーバ200からトリミング領域の変更が必要なセンサシステム110に通知するようにしてもよい。トリミング領域の変更が指示されたセンサシステム110では、指示を行ったセンサシステムが切り出す短冊画像の広視野画像の視野範囲(領域1701)における位置や大きさから、必要なトリミング領域を求める。トリミング領域を求めるのに必要な情報は、各センサユニットが予め保持してもよいし、異常を通知するセンサシステムから通知されてもよいし、画像コンピューティングサーバ200から通知されるようにしてもよい。
第3実施形態によれば、全てのカメラ112が短冊領域としては同様の大きさを持つことになり、画像生成部(バックエンドサーバ270)は特定の短冊領域のみに対して特別な処理を行う必要がなくなる。なお、図17では、短冊2の領域をカバーするために、短冊2を担当するカメラ以外の全てのカメラ(カメラ112a、112c〜112e)からの撮影画像のトリミングを変更したがこれに限られるものではない。たとえば、カメラ112bの両隣のカメラ112a、112cからの撮影画像のトリミングを変更して短冊2の領域をカバーするようにしてもよい。
<第4実施形態>
第2実施形態および第3実施形態では、あるカメラの撮影画像に異常が検知された場合に、当該カメラから得られるべき短冊画像を、他のカメラから得られる正常な撮影画像を用いてにおけるトリミングの領域を変更して得られた画像により補完した。第4実施形態では、センサシステム110にバッファを設けておき、撮影画像の取得失敗に備えて取得に成功した撮影画像を保持してく。バッファに保持された撮影画像を用いて異常が検知された短冊画像を補完する。第4実施形態の画像処理システム100及びカメラアダプタ120の構成は第2実施形態(図1、図10)と同様である。以下、図18を参照して、第4実施形態の動作について説明する。なお、図18では、センサシステム110の台数が10台の場合を例として説明している。
図18を用いて撮影画像に異常があった場合の第4実施形態における処理を示す。第4実施形態では、センサシステム110はバッファ1802を画像データの一時保存領域として備えている。同期撮影におけるある撮影時刻tに対して一つ前の撮影タイミングである撮影時刻t−1で撮影した撮影画像をバッファ1802に常に保持しておく。図18において、短冊3を担当するカメラ112の撮影画像に対して、異常検知部435が異常を検知した場合を想定する。この場合、カメラアダプタ120は撮影に失敗した撮影時刻tの撮影画像1801の代替として、バッファ1802に保持してある撮影時刻t−1の撮影画像1803をトリミングして短冊画像を生成し、その画像データを出力する。なお、上記では撮影画像をバッファ1802に保持したがこれに限られるものではない。撮影時刻t−1の撮影画像のトリミングにより得られた短冊画像をバッファ1802に保持しておき、撮影時刻tの撮影画像に異常が検出された場合に、バッファ1802に保持されている短冊画像を伝送するようにしてもよい。また、バッファ1802には、異常検知部435が異常を検知しなかった場合の撮影画像または短冊画像が保持されるようにしてもよい。
また、上記ではセンサシステム110ごと(カメラ112ごと)にバッファ1802を設けた構成としているが、バッファ1802をデータベース250に設けた構成としてもよい。その場合、短冊3を担当するセンサシステム110では、カメラアダプタ120が次段へ伝送される短冊画像に付与されるメタデータに撮影異常を示すフラグを立てる。データベース250は画像生成の目的で通常画像を保存しているため、特に追加の保存領域は必要ない。フロントエンドサーバ230は、撮影時刻tの短冊画像(撮影画像1801から得られた短冊画像)のメタデータに撮影異常を示すフラグが立っていた場合、バッファ1802内の過去時刻t−1の短冊画像を撮影時刻tの代替データとしてデータベース250に格納する。
また、カメラ112が故障し、後段に画像データを出力できない場合は、画像データに付加されたメタデータでの対応ができない。この場合は、異常検知部435がフロントエンドサーバ230に直接に異常を通知し、通知を受けたフロントエンドサーバは過去時刻t−1の画像データ(撮影画像1803)を撮影時刻tの代替データとするように指示する。或いは、後段に伝送すべき短冊画像が得られない場合に、カメラアダプタ120が異常の発生を示す異常情報を後段へ伝送させるようにしてもよい。
以上のように、第4実施形態によれば、センサシステムや画像生成部にトリミング範囲の変更という特別な機能を持たせることなく、広視野画像生成が可能となる。なお、代替データは撮影時刻t−1の撮影画像に対応しているため、他の短冊画像との間に撮影時刻のずれがある。しかしながら、画像データの大きな部分を占める背景画像は時間的な変化が小さいので時間が最小限に異なる短冊画像が用いられても影響は少ない。なお、一部の短冊画像のみが過去時刻t−1の画像データとなることにより他の時刻tの短冊画像(画像データ)と整合が取れなくなる場合がある。この場合、他の短冊画像についても時刻t−1の短冊画像が用いられるようにしてもよい。
<第5実施形態>
第5実施形態の画像処理システム100およびカメラアダプタ120の構成は第2実施形態(図1、図10)と同様である。第5実施得形態では、撮影の失敗時に通常の撮影タイミングを待たずに、追加撮影を実施することにより、異常のない短冊画像を得る。以下、図19を用いて第5実施形態を説明する。なお、図19ではカメラ112(センサシステム110)の台数が10台の場合を例示している。
カメラ112は、図19に示すように撮影時刻t−1(1901)、撮影時刻t(1902)、撮影時刻t+1(1903)と一定の間隔1904で連続撮影を実施する。これらの撮影時刻は同期撮影の撮影タイミングである。各撮影時刻は、すべてのカメラで同期した時刻である。なお、図示されてはいないが撮影時刻t−1より前の時刻、および撮影時刻t+1より後の時刻も同様に一定の間隔1904で連続撮影が行われる。ここで、撮影時刻t(1902)における撮影が失敗し、画像データに異常が生じ、異常が検知されたとする。この場合、第5実施形態では、次の撮影時刻t+1(1903)を待たずに追加の撮影が実施される。図19では時刻1905で追加撮影が実施されている。
時刻1902におけるカメラ112による撮影画像の異常を異常検知部435が検知すると、異常検知部435はカメラ制御部441に対して追加撮影を指示する。追加撮影の指示を受けたカメラ制御部441は指示を受けてから撮影可能な最速のタイミングで追加撮影を実施する。
撮影時刻t(1902)での撮影に失敗するが、撮影時刻1905での再撮影では撮影に成功するようなケースは、ごく短時間で撮影失敗の原因が除去されるケースである。例えば、撮影機器の前に短時間だけ何か障害物が映り込んだがすぐに障害物が移動するような場合が想定される。なお、撮影時刻1905での追加撮影時でも撮影の失敗が継続した場合は、撮影時刻t+1での撮影よりも前に再度の追加撮影を実施する。
第5実施形態によれば、撮影画像の領域1906(短冊3)が使用できない場合に、追加撮影を行って得られた正常な撮影画像の領域1907を代替の画像データとして使用することが可能となる。また、追加撮影の時刻は通常の撮影時刻である時刻t+1(1903)よりも早い時刻であり、撮影時刻tとの差が少ない。そのため、追加撮影による撮影画像の方が、撮影時刻t+1での撮影画像と比較して、時刻のずれによる画像の差が少なくなる。なお、撮影失敗を検知してから追加撮影を行うまでの時間が撮影の間隔1904を超えてしまう場合には、追加撮影を行わず、次の撮影時刻である時刻t+1(1903)での撮影を行う。
画像データに付与されるメタデータに撮影時刻が記録されることは一般的である。本実施形態でもバックエンドサーバ270で短冊画像を合成する際に同時刻の複数の画像データを集約して使用するために撮影時刻のメタデータが参照される。本実施形態では、撮影時刻tの撮影画像から得られる画像データの代替として、撮影時刻tより後で撮影時刻t+1よりも前の追加撮影により得られる画像データが伝送される。そのため、追加撮影で得られた画像データに付加されるメタデータには、撮影を失敗しなかった他のセンサシステム110から得られた画像データと異なる時刻が記録されることとなる。この場合、バックエンドサーバ270は撮影されるはずであった撮影時刻tに最も近い時刻が記録されている画像データを、撮影時刻tに撮影された他の画像データに合成し、広視野画像を生成する。
なお、追加撮影された画像データのメタデータ上の撮影時刻を記録する際に、撮影時刻として撮影画像の異常が検知された同期撮影の撮影時刻tを記録するようにしてもよい。たとえば、図19の例において、時刻1905の追加撮影で得られた短冊画像に撮影時刻tを記録するようにしてもよい。この場合、バックエンドサーバ270はメタデータ上の撮影時刻に対し特別な処理を行う必要がなく、通常通りの合成処理を行うことができる。
以上のように、第5実施形態によれば、次の撮影タイミングを待つことなく、追加の撮影を行うことで、隣接した短冊画像間の撮影時間の差異による差異の影響を少なくした広視野画像生成が可能となる。
<第6実施形態>
上述した各実施形態では、カメラ112の撮影フレームレートとカメラアダプタ120の伝送フレームレートは同じである。したがって、原則として撮影したデータは全て伝送される構成である。第6実施形態では予め撮影フレームレートを伝送フレームレートより高くすることにより、撮影画像に異常が生じた場合に対応する。第6実施形態の画像処理システム100およびカメラアダプタ120の構成は第2実施形態(図1、図10)と同様である。以下、図20を参照して第6実施形態の動作を説明する。なお、図20では、本実施形態ではカメラ112の数が10台の場合を例示している。
図20で示すように短冊画像の伝送は、伝送時刻Tの間隔(時刻2001、時刻2002、時刻2003)で実施される。この伝送タイミングに対して、カメラ112の撮影は撮影時刻tの間隔(本例では時刻Tの1/12の間隔)で実施される。すなわち、伝送時刻T(2002)と伝送時刻T+1(2003)の間に12回撮影が実施される。なお、本例では、撮影時刻の間隔を伝送時刻の間隔の1/12としたが、これに限定されない。2004は、カメラ112による撮影タイミングの一例である。また、センサシステム110は撮影した撮影画像から取得された画像データを一時保存するバッファを備え、撮影画像に異常が無ければバッファに保存されている短冊画像を更新する。そして、伝送タイミングでは一時保存用のバッファに格納されている最新の短冊画像を伝送する。
たとえば、図20では、時刻2007までの間では正常な撮影画像が取得され(期間2005)、撮影時刻2007の次の撮影タイミングから時刻2002(伝送時刻T)まで撮影画像に異常が検知されている(期間2006)とする。撮影画像に異常が検知された場合、一時保存用のバッファに格納されている画像データの更新は行われない。この場合、伝送タイミングの時刻2002(伝送時刻T)では、バッファに撮影時刻t−3で得られた短冊画像が最新の短冊画像として保持されている。時刻2002では、最後に取得された正常な撮影画像、すなわち時刻2007の撮影画像から得られた短冊画像が伝送される。撮影時刻2007の画像データは時刻2002(伝送時刻T)より前の時刻において最も近い時刻で撮影画像から得られた短冊画像である。
図20の時刻tの撮影画像2008、時刻t−1の撮影画像2009、時刻t−2の撮影画像2010は撮影失敗時の撮影画像である。バッファには、時刻t−3の撮影画像2011から得られた短冊画像が保持されており、伝送時刻Tでは撮影画像2011から切り出された短冊画像が伝送される。
なお、第6実施形態においても撮影データに付与されるメタデータ上の撮影時刻情報については第5実施形態と同様に、伝送タイミングの時刻と異なる撮影時刻が付与されることになる。また、第5実施形態と同様、実際の撮影時刻に関わらず、伝送時刻である時刻Tがそのまま代替データに付与されるようにしてもよい。
第5実施形態の対応を行うことにより、予め伝送フレームレートよりも高いフレームレートで撮影を行うことで、追加の撮影なしに失敗した撮影時刻に最も近い代替データを取得することが可能となる。
<第7実施形態>
第2実施形態では、あるセンサシステム110のカメラ112(第1のカメラ)の撮影画像に異常が検出さると、次段のセンサシステム110のカメラ112(第2のカメラ)で得られた撮影画像から代替データが生成される。したがって、第1のカメラから異常が検知された撮影画像が得られた場合に、代替データは、第1のカメラとは異なる位置姿勢に配置された第2のカメラから得られた撮影画像から生成される。第6実施形態では、第2のカメラから得られた撮影画像を用いて、第1のカメラのための代替データを生成する場合に、第1のカメラと第2のカメラの位置関係を考慮する。第6実施形態の画像処理システム100およびカメラアダプタ120の構成は第2実施形態(図1、図10)と同様である。なお、第7実施形態では、図16(b)で説明したように、第2のカメラに対応する短冊画像と、第1のカメラに対応する短冊画像のための代替データとが、別個に取得される。
以下、図21を参照して、第7実施形態によるカメラアダプタ120のトリミング処理について説明する。第2実施形態の処理と同様に短冊3の短冊画像(領域2101の画像データ)に異常がある場合を想定する。短冊4を担当するセンサシステム110が短冊4の短冊画像(領域2102)に加えて、短冊画像(領域2103)を追加し、領域2103の画像を短冊3の領域2101の代替データとする。ここまでは第2実施形態と同様である。
第7実施形態では、領域2103の画像データに対して、短冊3を担当するカメラ112aと短冊4を担当するカメラ112bの配置の差異について考慮した処理を追加する。具体的には、短冊3を担当するカメラ112aと短冊4を担当するカメラ112bは撮影される視野領域に重複する部分があるが、領域2101と領域2103とではカメラの位置や姿勢の差による画像データとしての差異が生じる。
そこで、本実施形態では、予めカメラの位置や姿勢に関するパラメータをそれぞれのセンサシステム110の間で共有しておく。そして、他のセンサシステム110の代替データとしてトリミング範囲を変更する際に、カメラによる撮影位置の差に基づいて代替データに幾何的な補正処理を実施する。図21では領域2103のデータに対して、位置姿勢の差異分(図上では概念的に角度2104で示す)、短冊3を担当するカメラ112aから撮影したデータに合わせるように幾何補正処理を実施する。角度2104は短冊4のカメラ112bの領域2103に対する位置姿勢と、短冊3のカメラ112aの領域2101に対する位置姿勢との差異である。当該位置姿勢の差異はカメラ112aと112bの物理的な配置位置の差異から生じる。
幾何補正処理としては、予め把握しているカメラの位置姿勢パラメータから他のカメラの撮影平面に合わせたホモグラフィ(射影変換行列)を求め、代替データ領域部分のデータに対して行列演算を行う。このような補正処理により、あたかも短冊3を担当するカメラ112aによる撮影データであるかのような代替データを得ることができる。この補正処理を行うことで、バックエンドサーバ270で広視野画像を生成する際の生成画像の精度が向上する。なお、上述した補正処理は、図16(a)で得られる短冊画像1606に適用することも可能である。その場合、短冊画像1606のうちの短冊2の領域に対応する部分(図14の領域1405)に上記補正処理を適用すればよい。
なお、上記第2実施形態〜第6実施形態では、異常検知部435が各センサユニット110ごとに、すなわち各カメラ112ごとに設けられているがこれに限られるものではない。単一の異常検知部435によって複数のセンサユニット110における撮影画像または短冊画像における異常の存在を検知するようにしてもよい。この場合、単一の異常検知部435は、異常を検知した撮影画像が取得されたセンサユニット110に対して撮影画像又は短冊画像に異常が存在する旨を通知する。また、特に第3実施形態では、単一の異常検知部435が、トリミング変更の必要な2つ以上のセンサユニットにその旨を通知するように構成することができる。
以上、本発明の実施形態について詳述したが、本発明は上述の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形及び変更が可能である。たとえば、第1実施形態〜第7実施形態は、合成画像の生成に用いるための複数の画像を複数のカメラで撮影された複数の撮影画像から得る構成において、1部のカメラの画像が使用できない場合に、これを補完するものである。したがって、第1実施形態では任意視点画像の生成を例示し、第2〜第7実施形態では広視野画像の生成を例示したが、第1実施形態の構成を広視野画像の生成に、第2〜第7実施形態の構成を任意視点画像の生成に適用できることは明らかである。
なお、本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
110:センサシステム、111:マイク、112:カメラ、113:雲台、120:カメラアダプタ、180:スイッチングハブ、190:エンドユーザ端末、230:フロントエンドサーバ、250:データベース、270:バックエンドサーバ、290:タイムサーバ、310:制御ステーション、330:仮想カメラ操作UI

Claims (27)

  1. 被写体を複数の方向から撮影するための複数のカメラによる撮影画像に基づいて仮想視点画像を生成するための画像処理システムであって、
    前記複数のカメラのうち、少なくとも1つのカメラの異常を検知する検知手段と、
    前記検知手段により異常が検知されたカメラの撮影領域の画像として、前記複数のカメラのうち、前記検知手段により異常が検知されていないカメラの撮影画像を用いて仮想視点画像を生成する生成手段とを有することを特徴とする画像処理システム。
  2. 前記複数のカメラは複数の画像処理装置に接続され、
    前記複数の画像処理装置の各々は、
    前記複数のカメラのうちの対応するカメラから得られた撮影画像から送信の対象となる画像を生成する第1の生成手段と、
    前記第1の生成手段により生成された画像を送信する第1の送信手段と、
    前記複数の画像処理装置の予め定められた順序において前段の画像処理装置から出力されるべき画像が出力されなかったことを検出した場合に、出力されるべき画像の代替データを、前記撮影画像から生成する第2の生成手段と、
    前記第2の生成手段で生成された前記代替データを送信する第2の送信手段と、を備えることを特徴とする請求項1に記載の画像処理システム。
  3. 前記第1の送信手段は、前記予め定められた順序において次段の画像処理装置に前記第1の生成手段により生成された画像を送信することを特徴とする請求項2に記載の画像処理システム。
  4. 前記第2の送信手段は、前記出力されるべき画像が前記前段の画像処理装置から受信されなかったことを検出した場合に、前記代替データを前記次段の画像処理装置に送信することを特徴とする請求項3に記載の画像処理システム。
  5. 前記出力されるべき画像が受信されなかったことを検出した場合とは、前記撮影画像の撮影タイミングから所定時間内に前記出力されるべき画像が受信されない場合であることを特徴とする請求項2乃至4のいずれか1項に記載の画像処理システム。
  6. 前記複数の画像処理装置はデイジーチェーンにより、前記予め定められた順序で接続されている請求項2乃至5の何れか1項に記載の画像処理システム。
  7. 前記第1の生成手段は、前記撮影画像から前景画像と背景画像を生成し、前記背景画像については他の画像処理装置から得られる背景画像との差分を生成し、
    前記第2の生成手段は、前記撮影画像から、前記前段の画像処理装置が担当する領域の背景画像を用いて前記代替データを生成することを特徴とする請求項2乃至6のいずれか1項に記載の画像処理システム。
  8. 被写体を複数の方向から撮影するための複数のカメラと、前記複数のカメラが接続される複数の画像処理装置と、を有し、前記複数の画像処理装置から送信された画像を用いて合成画像を生成するための画像処理システムの制御方法であって、
    前記複数の画像処理装置の各々が、
    前記複数のカメラのうちの対応するカメラから得られた撮影画像から送信の対象となる画像を生成する第1の生成工程と、
    前記第1の生成工程で生成された画像を送信する第1の送信工程と、
    前記複数の画像処理装置の予め定められた順序において前段の画像処理装置から出力されるべき画像が出力されなかったことを検出した場合に、出力されるべき画像の代替データを、前記撮影画像から生成する第2の生成工程と、
    前記第2の生成工程で生成された前記代替データを送信する第2の送信工程と、を有することを特徴とする画像処理システムの制御方法。
  9. 被写体を撮影するためのカメラに接続され、予め定められた順序が付与されて接続された複数の画像処理装置のうちの一つとして機能することができる画像処理装置であって、
    前記カメラから得られた撮影画像から送信の対象となる画像を生成する第1の生成手段と、
    前記第1の生成手段により生成された画像を送信する第1の送信手段と、
    前記複数の画像処理装置の予め定められた順序において前段の画像処理装置から出力されるべき画像が出力されなかったことを検出した場合に、出力されるべき画像の代替データを、前記撮影画像から生成する第2の生成手段と、
    前記第2の生成手段で生成された前記代替データを送信する第2の送信手段と、を備えることを特徴とする画像処理装置。
  10. 前記複数のカメラから得られる複数の撮影画像のそれぞれから前記仮想視点画像の生成に必要な複数の部分画像を切り出す切り出し手段と、
    前記検知手段により少なくとも1つのカメラの異常が検知された場合に、前記異常が検知されたカメラの撮影領域の画像を補うために、前記異常が検知されていない他のカメラの撮影画像からの、前記切り出し手段による部分画像の切り出し範囲を変更する変更手段と、を備えることを特徴とする請求項1に記載の画像処理システム。
  11. 前記変更手段は、変更後の切り出し範囲の切り出しを可能にするために、必要に応じて対応するカメラの撮影条件を変更することを特徴とする請求項10に記載の画像処理システム。
  12. 前記撮影条件は画角および/または撮影方向であることを特徴とする請求項11に記載の画像処理システム。
  13. 前記複数のカメラには予め順序が付与されており、
    前記変更手段は、異常が検知された撮影画像または異常が検知された部分画像が切り出された撮影画像を撮影した第1のカメラの、前記順序における次段の第2のカメラについて切り出し範囲を変更することを特徴とする請求項10乃至12のいずれか1項に記載の画像処理システム。
  14. 前記変更手段は、前記第2のカメラから得られた撮影画像から、前記第1のカメラに対応した部分画像の領域と前記第2のカメラに対応した部分画像の領域を含む領域を切り出すように前記切り出し範囲を変更することを特徴とする請求項13に記載の画像処理システム。
  15. 前記変更手段は、前記第2のカメラから得られた撮影画像から、前記第1のカメラに対応した部分画像の領域と前記第2のカメラに対応した部分画像の領域をそれぞれ個別に切り出すように前記切り出し範囲を変更することを特徴とする請求項13に記載の画像処理システム。
  16. 前記第1のカメラに対応した部分画像について、前記第1のカメラと前記第2のカメラによる撮影の位置に応じた幾何的な補正処理を実施することを特徴とする請求項15に記載の画像処理システム。
  17. 前記変更手段は、前記異常が検知された部分画像の領域の画像を補うように、前記複数のカメラのうちの2つ以上のカメラについて切り出し範囲を変更することを特徴とする請求項10乃至12のいずれか1項に記載の画像処理システム。
  18. 前記変更手段は、前記2つ以上のカメラにおける変更後の切り出し範囲の大きさが等しいことを特徴とする請求項17に記載の画像処理システム。
  19. 被写体を複数の方向から撮影するための複数のカメラによる撮影画像に基づいて仮想視点画像を生成するための画像処理システムであって、
    前記複数のカメラのうち、少なくとも1つのカメラの異常を検知する検知手段と、
    前記検知手段により少なくとも1つのカメラの異常が検知された場合、当該異常が検知されたカメラの異常検知の前の撮影タイミングで得られた撮影画像を用いて仮想視点画像を生成する生成手段とを有することを特徴とする画像処理システム。
  20. 被写体を複数の方向から撮影するための複数のカメラから得られる撮影画像に基づいて合成画像を生成する画像処理システムであって、
    同期信号に同期した撮影タイミングで前記複数のカメラによる撮影を実行して複数の撮影画像を得る取得手段と、
    前記複数の撮影画像のそれぞれから前記合成画像の生成に必要な複数の部分画像を切り出す切り出し手段と、
    前記複数の撮影画像の各々または前記複数の部分画像の各々について異常の存在を検知する検知手段と、
    前記複数のカメラのうち、前記検知手段により異常の存在が検知された撮影画像を提供したカメラに、前記同期信号による次の撮影タイミングよりも前に、追加撮影を行わせる制御手段と、を備えることを特徴とする画像処理システム。
  21. 前記追加撮影により得られた部分画像には、撮影時刻として前記撮影タイミングの時刻を付与することを特徴とする請求項20に記載の画像処理システム。
  22. 被写体を複数の方向から撮影するための複数のカメラから得られる撮影画像に基づいて合成画像を生成する画像処理システムであって、
    同期信号による同期撮影の第1のレートよりも高い第2のレートで前記複数のカメラによる撮影を行う撮影手段と、
    前記第2のレートで撮影された複数の撮影画像または前記複数の撮影画像から得られる複数の部分画像の各々について異常の存在を検知する検知手段と、
    前記複数のカメラから得られる複数の撮影画像のそれぞれから、前記合成画像の生成に必要な複数の部分画像を切り出す切り出し手段と、
    前記検知手段により異常が検知されなかった部分画像をバッファに保持する保持手段と、
    前記同期撮影のタイミングにおいて、前記複数のカメラのそれぞれについて、前記バッファに保持されている最新の部分画像を前記合成画像の生成に用いる部分画像として取得する取得手段と、を備えることを特徴とする画像処理システム。
  23. 被写体を複数の方向から撮影するための複数のカメラから得られる撮影画像に基づいて合成画像を生成する画像処理システムであって、
    同期信号による同期撮影の第1のレートよりも高い第2のレートで前記複数のカメラによる撮影を行う撮影手段と、
    前記第2のレートで撮影された複数の撮影画像の各々について異常の存在を検知する検知手段と、
    前記検知手段により異常が検知されなかった撮影画像をバッファに保持する保持手段と、
    前記同期撮影のタイミングにおいて、前記複数のカメラのそれぞれについて、前記バッファに保持されている最新の撮影画像から前記合成画像の生成に必要な複数の部分画像を切り出す切り出し手段と、を備えることを特徴とする画像処理システム。
  24. 被写体を複数の方向から撮影するための複数のカメラから得られる撮影画像に基づいて合成画像を生成する画像処理システムの制御方法であって、
    前記複数のカメラから得られる複数の撮影画像のそれぞれから前記合成画像の生成に必要な複数の部分画像を切り出す切り出し工程と、
    前記複数の撮影画像または前記複数の部分画像の各々について異常の存在を検知する検知工程と、
    前記検知工程で撮影画像または部分画像において異常が検知された場合に、前記異常が検知された部分画像の領域の画像を補うために、次に撮影される撮影画像からの、前記切り出し手段による部分画像の切り出し範囲を変更する変更工程と、を有することを特徴とする画像処理システムの制御方法。
  25. 被写体を複数の方向から撮影するための複数のカメラによる撮影画像に基づいて仮想視点画像を生成するための画像処理システムの制御方法であって、
    前記複数のカメラのうち、少なくとも1つのカメラの異常を検知する検知工程と、
    前記検知工程において少なくとも1つのカメラの異常が検知された場合、当該異常が検知されたカメラの異常検知の前の撮影タイミングで得られた撮影画像を用いて仮想視点画像を生成する生成工程とを有することを特徴とする画像処理システムの制御方法。
  26. 被写体を複数の方向から撮影するための複数のカメラから得られる撮影画像に基づいて合成画像を生成する画像処理システムの制御方法であって、
    同期信号に同期した撮影タイミングで前記複数のカメラによる撮影を実行して複数の撮影画像を得る取得工程と、
    前記複数の撮影画像のそれぞれから前記合成画像の生成に必要な複数の部分画像を切り出す切り出し工程と、
    前記複数の撮影画像の各々または前記複数の部分画像の各々について異常の存在を検知する検知工程と、
    前記複数のカメラのうち、前記検知工程で異常の存在が検知された撮影画像を提供したカメラに、前記同期信号による次の撮影タイミングよりも前に、追加撮影を行わせる制御工程と、を有することを特徴とする画像処理システムの制御方法。
  27. 被写体を複数の方向から撮影するための複数のカメラから得られる撮影画像に基づいて合成画像を生成する画像処理システムの制御方法であって、
    同期信号による同期撮影の第1のレートよりも高い第2のレートで前記複数のカメラによる撮影を行う撮影工程と、
    前記第2のレートで撮影の撮影タイミングで前記複数のカメラによって撮影された複数の撮影画像の各々について異常の存在を検知する検知工程と、
    前記検知工程で異常が検知されなかった撮影画像をバッファに保持する保持工程と、
    前記同期撮影のタイミングにおいて、前記複数のカメラのそれぞれについて、前記バッファに保持されている最新の撮影画像から前記合成画像の生成に必要な複数の部分画像を切り出す切り出し工程と、を有することを特徴とする画像処理システムの制御方法。
JP2016200472A 2016-10-11 2016-10-11 画像処理システム、画像処理装置、制御方法、及び、プログラム Active JP6894687B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016200472A JP6894687B2 (ja) 2016-10-11 2016-10-11 画像処理システム、画像処理装置、制御方法、及び、プログラム
EP17859697.9A EP3528200A4 (en) 2016-10-11 2017-08-28 IMAGE PROCESSING SYSTEM, IMAGE PROCESSING DEVICE AND CONTROL METHOD
PCT/JP2017/030697 WO2018070121A1 (ja) 2016-10-11 2017-08-28 画像処理システム、画像処理装置、及び、制御方法
US16/372,482 US11037364B2 (en) 2016-10-11 2019-04-02 Image processing system for generating a virtual viewpoint image, method of controlling image processing system, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016200472A JP6894687B2 (ja) 2016-10-11 2016-10-11 画像処理システム、画像処理装置、制御方法、及び、プログラム

Publications (2)

Publication Number Publication Date
JP2018063500A true JP2018063500A (ja) 2018-04-19
JP6894687B2 JP6894687B2 (ja) 2021-06-30

Family

ID=61906292

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016200472A Active JP6894687B2 (ja) 2016-10-11 2016-10-11 画像処理システム、画像処理装置、制御方法、及び、プログラム

Country Status (4)

Country Link
US (1) US11037364B2 (ja)
EP (1) EP3528200A4 (ja)
JP (1) JP6894687B2 (ja)
WO (1) WO2018070121A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111669568A (zh) * 2019-03-07 2020-09-15 阿里巴巴集团控股有限公司 多角度自由视角交互方法及装置、介质、终端、设备
US11521347B2 (en) 2019-03-07 2022-12-06 Alibaba Group Holding Limited Method, apparatus, medium, and device for generating multi-angle free-respective image data
JP7467130B2 (ja) 2020-01-21 2024-04-15 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9332285B1 (en) * 2014-05-28 2016-05-03 Lucasfilm Entertainment Company Ltd. Switching modes of a media content item
JP6429829B2 (ja) * 2016-05-25 2018-11-28 キヤノン株式会社 画像処理システム、画像処理装置、制御方法、及び、プログラム
WO2018147329A1 (ja) * 2017-02-10 2018-08-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 自由視点映像生成方法及び自由視点映像生成システム
WO2019050038A1 (ja) * 2017-09-11 2019-03-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 画像生成方法および画像生成装置
CN111246197B (zh) 2018-05-06 2022-03-22 Oppo广东移动通信有限公司 三维视频通信方法及系统、电子装置、服务器和可读存储介质
JP2020010300A (ja) * 2018-07-12 2020-01-16 キヤノン株式会社 映像生成装置、映像生成装置の制御方法及びプログラム
JP7129283B2 (ja) * 2018-08-31 2022-09-01 キヤノン株式会社 処理装置、制御方法、及びプログラム
JP7227717B2 (ja) * 2018-08-31 2023-02-22 キヤノン株式会社 情報処理装置、方法、及びプログラム
WO2020045186A1 (ja) 2018-08-31 2020-03-05 キヤノン株式会社 情報処理装置、方法、及びプログラム
JPWO2020189223A1 (ja) 2019-03-15 2020-09-24
JP2020191598A (ja) 2019-05-23 2020-11-26 キヤノン株式会社 画像処理システム
CN114762355A (zh) * 2019-12-09 2022-07-15 索尼集团公司 信息处理装置和方法、程序以及信息处理系统
CN115136088B (zh) * 2020-02-21 2023-04-18 三菱电机株式会社 可编程显示器、控制系统及解析方法
GB2616735B (en) * 2020-06-09 2024-05-29 Canon Kk Method, device, and computer program for robust data transmission in daisy-chain networks
CN112637614B (zh) * 2020-11-27 2023-04-21 深圳市创成微电子有限公司 网络直播音视频处理方法、处理器、装置及可读存储介质

Family Cites Families (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7843497B2 (en) * 1994-05-31 2010-11-30 Conley Gregory J Array-camera motion picture device, and methods to produce new visual and aural effects
US5583796A (en) * 1995-06-06 1996-12-10 Philips Electronics North America Corporation Video security backup system
JPH10105863A (ja) * 1996-09-26 1998-04-24 Oki Electric Ind Co Ltd 走行路情報収集装置
US6124862A (en) * 1997-06-13 2000-09-26 Anivision, Inc. Method and apparatus for generating virtual views of sporting events
JPH1198342A (ja) * 1997-09-19 1999-04-09 Toshiba Tec Corp パノラマ画像表示方法及びその装置
US8560951B1 (en) * 1998-12-18 2013-10-15 Thomson Licensing System and method for real time video production and distribution
JP2001346193A (ja) * 2000-05-31 2001-12-14 Hitachi Kokusai Electric Inc 監視テレビカメラシステム
US6741250B1 (en) * 2001-02-09 2004-05-25 Be Here Corporation Method and system for generation of multiple viewpoints into a scene viewed by motionless cameras and for presentation of a view path
US7349005B2 (en) * 2001-06-14 2008-03-25 Microsoft Corporation Automated video production system and method using expert video production rules for online publishing of lectures
JP2003244728A (ja) * 2002-02-15 2003-08-29 Mitsubishi Heavy Ind Ltd 仮想映像作成装置及び仮想映像作成方法
GB2400513B (en) * 2003-03-14 2005-10-05 British Broadcasting Corp Video processing
JP4259153B2 (ja) * 2003-03-24 2009-04-30 ヤマハ株式会社 画像処理装置および画像処理方法を実現するためのプログラム
JP2005077469A (ja) * 2003-08-28 2005-03-24 Ricoh Co Ltd 画像形成装置
JP2005354289A (ja) * 2004-06-09 2005-12-22 Ntt Docomo Inc 端末装置、環境管理サーバ、カメラサーバ及び映像生成方法
US7561620B2 (en) * 2004-08-03 2009-07-14 Microsoft Corporation System and process for compressing and decompressing multiple, layered, video streams employing spatial and temporal encoding
JP4727329B2 (ja) * 2005-07-15 2011-07-20 パナソニック株式会社 画像合成装置及び画像合成方法
EP2077667B1 (en) * 2006-10-11 2012-07-25 Panasonic Corporation Video display apparatus and video display method
US20090290848A1 (en) * 2007-01-11 2009-11-26 Michael James Brown Method and System for Generating a Replay Video
US9172918B2 (en) * 2007-02-02 2015-10-27 Honeywell International Inc. Systems and methods for managing live video data
JP2008217243A (ja) * 2007-03-01 2008-09-18 Mitsubishi Electric Corp 画像生成装置
EP2196020A1 (en) * 2007-08-30 2010-06-16 Thomson Licensing Generation of video transitions on an auxiliary bus using a video switcher
CN101453662B (zh) * 2007-12-03 2012-04-04 华为技术有限公司 立体视频通信终端、系统及方法
US9185361B2 (en) * 2008-07-29 2015-11-10 Gerald Curry Camera-based tracking and position determination for sporting events using event information and intelligence data extracted in real-time from position information
US9648346B2 (en) * 2009-06-25 2017-05-09 Microsoft Technology Licensing, Llc Multi-view video compression and streaming based on viewpoints of remote viewer
US9117310B2 (en) * 2010-04-02 2015-08-25 Imec Virtual camera system
JP5562103B2 (ja) * 2010-04-16 2014-07-30 キヤノン株式会社 画像処理装置および方法
JP5570284B2 (ja) * 2010-04-16 2014-08-13 キヤノン株式会社 画像処理装置および方法
SG176327A1 (en) * 2010-05-20 2011-12-29 Sony Corp A system and method of image processing
US8817136B2 (en) * 2010-06-23 2014-08-26 Raytheon Company Image processing utilizing spatially-displaced image data
EP2413286A1 (en) * 2010-07-29 2012-02-01 LiberoVision AG Image processing method and device for instant replay
US8538233B2 (en) * 2011-08-24 2013-09-17 Disney Enterprises, Inc. Automatic camera identification from a multi-camera video stream
US8786782B2 (en) * 2011-08-31 2014-07-22 Disney Enterprises, Inc. Multiple-input configuration and playback video enhancement
US20130129192A1 (en) * 2011-11-17 2013-05-23 Sen Wang Range map determination for a video frame
EP2791909A4 (en) * 2011-12-16 2015-06-24 Thomson Licensing METHOD AND DEVICE FOR PRODUCING 3D CONTENTS WITH FREE VIEWPOINT
US10158838B2 (en) * 2012-07-10 2018-12-18 Telefonaktiebolaget Lm Ericsson (Publ) Methods and arrangements for supporting view synthesis
WO2014084750A1 (ru) * 2012-11-29 2014-06-05 Открытое Акционерное Общество Междугородной И Международной Электрической Связи "Ростелеком" (Оао "Ростелеком") Система видеотрансляции множества одновременно происходящих территориально распределенных событий
US9115675B2 (en) * 2012-12-03 2015-08-25 Continental Automotive Systems, Inc. Method and system for cleaning a charcoal canister of an emissions system using a fuel cell
JP2014215828A (ja) 2013-04-25 2014-11-17 シャープ株式会社 画像データ再生装置、および視点情報生成装置
JP6349637B2 (ja) * 2013-07-11 2018-07-04 株式会社デンソー 車両用画像合成装置
US20150244989A1 (en) * 2014-02-27 2015-08-27 Transcend Information, Inc. Surveillance system, surveillance camera and method for security surveillance
JP6330383B2 (ja) * 2014-03-12 2018-05-30 株式会社デンソー 合成画像生成装置、および合成画像生成プログラム
WO2015162947A1 (ja) * 2014-04-22 2015-10-29 ソニー株式会社 情報再生装置及び情報再生方法、並びに情報記録装置及び情報記録方法
JP2016001833A (ja) * 2014-06-12 2016-01-07 キヤノン株式会社 映像再生システム、及び制御方法
BR102014016035A2 (pt) * 2014-06-27 2016-08-30 Ricardo Amaral Remer ringue de artes marciais dotado de meios de obtenção de imagens, e processo para a obtenção de imagens tridimensionais e/ou de dados para treinamento, para auxílio ao julgamento ou educação desportiva
US9900583B2 (en) * 2014-12-04 2018-02-20 Futurewei Technologies, Inc. System and method for generalized view morphing over a multi-camera mesh
JP6358156B2 (ja) 2015-04-09 2018-07-18 株式会社デンソー 車両の運転支援装置
US9848212B2 (en) * 2015-07-10 2017-12-19 Futurewei Technologies, Inc. Multi-view video streaming with fast and smooth view switch
EP3346695A4 (en) * 2015-09-03 2019-04-10 Sony Corporation VIDEO PROCESSING DEVICE, VIDEO PROCESSING METHOD, AND PROGRAM
EP3142066A1 (en) * 2015-09-10 2017-03-15 KNORR-BREMSE Systeme für Nutzfahrzeuge GmbH Image synthesizer for a surround monitoring system
US9947111B2 (en) * 2015-10-28 2018-04-17 Sony Corporation Method of multiple camera positioning utilizing camera ordering
CN109565605B (zh) * 2016-08-10 2021-06-29 松下电器(美国)知识产权公司 拍摄技术生成方法以及影像处理装置
WO2018043225A1 (ja) * 2016-09-01 2018-03-08 パナソニックIpマネジメント株式会社 多視点撮像システム、三次元空間再構成システム、及び三次元空間認識システム
EP3355587A1 (en) * 2017-01-30 2018-08-01 EVS Broadcast Equipment SA Video production apparatus and method for video production

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111669568A (zh) * 2019-03-07 2020-09-15 阿里巴巴集团控股有限公司 多角度自由视角交互方法及装置、介质、终端、设备
US11521347B2 (en) 2019-03-07 2022-12-06 Alibaba Group Holding Limited Method, apparatus, medium, and device for generating multi-angle free-respective image data
CN111669568B (zh) * 2019-03-07 2024-05-28 阿里巴巴集团控股有限公司 多角度自由视角交互方法及装置、介质、终端、设备
JP7467130B2 (ja) 2020-01-21 2024-04-15 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
WO2018070121A1 (ja) 2018-04-19
US11037364B2 (en) 2021-06-15
EP3528200A1 (en) 2019-08-21
JP6894687B2 (ja) 2021-06-30
US20190228565A1 (en) 2019-07-25
EP3528200A4 (en) 2020-04-29

Similar Documents

Publication Publication Date Title
JP6894687B2 (ja) 画像処理システム、画像処理装置、制御方法、及び、プログラム
KR102032082B1 (ko) 데이지 체인 접속이 있는 카메라 어레이로부터, 유저에 의해 선택된 시점으로부터의 가상 화상을 생성하는 방법 및 장치
JP6957215B2 (ja) 情報処理装置、情報処理方法及びプログラム
KR102121931B1 (ko) 제어 디바이스, 제어 방법 및 저장 매체
KR102502570B1 (ko) 상이한 프레임 레이트들로 전경 화상 및 배경 화상을 송신하는 카메라 어레이로부터, 유저에 의해 선택된 시점으로부터의 가상 화상을 생성하는 방법 및 장치
KR102129792B1 (ko) 정보 처리 장치, 화상 생성 방법, 제어 방법 및 프로그램
JP6871801B2 (ja) 画像処理装置、画像処理方法、情報処理装置、撮像装置および画像処理システム
JP2017212591A (ja) 制御装置、制御方法、及び、プログラム
US11677925B2 (en) Information processing apparatus and control method therefor
JP7042571B2 (ja) 画像処理装置およびその制御方法、プログラム
JP2019191989A (ja) 仮想視点画像を生成するシステム、方法及びプログラム
US20180376131A1 (en) Image processing apparatus, image processing system, and image processing method
JP2019022151A (ja) 情報処理装置、画像処理システム、制御方法、及び、プログラム
JP2018191251A (ja) 情報処理システム、情報処理方法、およびプログラム
JP2019134428A (ja) 制御装置、制御方法、及び、プログラム
JP2021119459A (ja) 生成装置、生成方法
US20230162435A1 (en) Information processing apparatus, information processing method, and storage medium
JP7297969B2 (ja) 情報処理装置、プログラム、生成方法、及び、システム
JP2019050593A (ja) 画像処理システム、画像処理装置、制御方法、及び、プログラム
JP7104504B2 (ja) 画像処理システム、画像処理装置、画像伝送方法、及び、プログラム
JP2021077120A (ja) 画像処理システム、制御装置およびその制御方法、画像伝送方法、プログラム
JP7204789B2 (ja) 制御装置、制御方法、及び、プログラム
JP2019003325A (ja) 画像処理装置、画像処理方法及びプログラム
CN113938579B (zh) 信息处理设备及其控制方法和计算机可读存储介质
CN113938580B (zh) 信息处理设备及其控制方法和计算机可读存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201127

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210604

R151 Written notification of patent or utility model registration

Ref document number: 6894687

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151