JP7281923B2 - 制御装置、画像処理システム、制御方法及びプログラム - Google Patents

制御装置、画像処理システム、制御方法及びプログラム Download PDF

Info

Publication number
JP7281923B2
JP7281923B2 JP2019037771A JP2019037771A JP7281923B2 JP 7281923 B2 JP7281923 B2 JP 7281923B2 JP 2019037771 A JP2019037771 A JP 2019037771A JP 2019037771 A JP2019037771 A JP 2019037771A JP 7281923 B2 JP7281923 B2 JP 7281923B2
Authority
JP
Japan
Prior art keywords
image
imaging
camera
subject
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019037771A
Other languages
English (en)
Other versions
JP2020141375A5 (ja
JP2020141375A (ja
Inventor
智一 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019037771A priority Critical patent/JP7281923B2/ja
Priority to US16/797,552 priority patent/US11050992B2/en
Publication of JP2020141375A publication Critical patent/JP2020141375A/ja
Publication of JP2020141375A5 publication Critical patent/JP2020141375A5/ja
Application granted granted Critical
Publication of JP7281923B2 publication Critical patent/JP7281923B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/327Initiating, continuing or ending a single-mode communication; Handshaking therefor
    • H04N1/32704Establishing a communication with one of a facsimile and another telecommunication apparatus sharing a single line
    • H04N1/32747Controlling the connection of the apparatus
    • H04N1/3275Giving priority to one of the apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234345Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements the reformatting operation being performed only on part of the stream, e.g. a region of the image or a time segment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2365Multiplexing of several video streams
    • H04N21/23655Statistical multiplexing, e.g. by controlling the encoder to alter its bitrate to optimize the bandwidth utilization
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は制御装置、画像処理システム、制御方法及びプログラムに関し、特に複数の撮像装置で被写体の撮像を行うシステムに関する。
複数の撮像装置がそれぞれ異なる位置に設置され、それぞれ異なる視点から被写体の撮像を行うマルチカメラシステムが知られている。また、複数の視点において同期して撮像を行うことにより得られた複数視点画像を用いて、仮想視点コンテンツを生成する技術が注目されている。このような技術によれば、スポーツシーンなどを様々な位置(仮想視点)から視聴することが可能になり、ユーザの臨場感を高めることができる。
複数の位置における撮像が行われるシステムにおいては、撮像部の数に応じてシステム全体で生成される画像データ量が大きくなる。特許文献1は、複数の撮像部を有する多眼カメラにおいてデータ量を抑制するために、撮影モードが近景撮影モードか遠景撮影モードかに応じて、選択された撮像部による撮像画像を間引くことを開示している。
特開2013-98739号公報
スポーツシーンのような空間的に大きいシーンの撮像を行う場合、大規模なマルチカメラシステムが構築される。この場合、システム全体で生成される画像データ量はより大きくなる。特に、システム内のネットワークを介して画像データを転送する場合、画像データのビットレートが伝送帯域幅を超えてしまい、意図しない画像データの欠損が生じる可能性がある。
本発明は、複数の撮像装置によって撮像された画像に基づいて仮想視点コンテンツを生成する構成において、仮想視点コンテンツの品質低下を抑制しながら画像データ量を削減することを目的とする。
本発明の目的を達成するために、例えば、本発明の制御装置は以下の構成を備える。すなわち、
それぞれ異なる視点から被写体の撮像を行う複数の撮像装置を備える画像処理システムが有する制御装置であって、
前記複数の撮像装置は、1つの撮像装置と、前記1つの撮像装置とは他の撮像装置とを含み、
前記被写体の位置を取得する取得手段と、
前記被写体の位置から前記1つの撮像装置へと向かう視点方向と、前記被写体の位置から前記他の撮像装置へと向かう視点方向と、の類似性に応じた優先度を、前記1つの撮像装置による撮像画像に対して設定する設定手段と、
を備え、前記優先度は、前記撮像画像の転送又は格納の優先度であることを特徴とする。
複数の撮像装置によって撮像された画像に基づいて仮想視点コンテンツを生成する構成において、仮想視点コンテンツの品質低下を抑制しながら画像データ量を削減することができる。
一実施形態に係る画像処理システムの構成の一例を示す図。 カメラアダプタ120の機能構成例を示すブロック図である。 画像処理部2300の構成例を示すブロック図。 優先度を算出する処理の一例を示すフローチャート。 被写体位置の推定方法を説明する図。 カメラの撮像領域を説明する図。 優先度の算出方法を説明する図。 伝送部2200の構成例を示すブロック図。 撮像画像をパケット化する処理の一例を示すフローチャート。 パケット転送制御処理の一例を示すフローチャート。 優先度の算出方法を説明する図。 優先度を算出する処理の一例を示すフローチャート。 カメラアダプタ120のハードウェア構成例を示すブロック図。 撮影平面のブロック分割方法を説明する図。
以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
[実施形態1]
実施形態1に係る画像処理システムは、それぞれ異なる視点から被写体を撮像する複数の撮像部を備えている。一実施形態において、撮像部はそれぞれカメラであり、複数視点にある撮像部(カメラ)は同期して撮像を行う。以下、このような画像処理システムのことをマルチカメラシステムと呼ぶ。
本発明の一実施形態においては、被写体の位置に基づく符号量制御が行われる。実施形態1においては、各撮像部による撮像画像に対する優先度が設定され、この優先度に基づいてデータ量制御が行われる。なお、撮像部による撮像画像に対する優先度のことを、単に撮像部の優先度、又は(撮像部が位置する)視点の優先度と呼ぶことがある。
以下では、各視点における映像データに対する符号量制御を行う具体例について説明する。それぞれの視点における映像データは、複数の撮像画像を含んでいる。また、伝送しようとする各視点の映像のビットレートがネットワークの伝送帯域を超えない場合には各視点の映像の可逆データが伝送され、伝送帯域を超える場合にのみ優先度の低い視点からの映像が優先的に欠落させられる。以下の例では、全体の品質に対する影響が少ない視点の優先度が低く設定される。
マルチカメラシステムの一例について図1のシステム構成図を参照して説明する。マルチカメラシステムである図1に示す画像処理システム100は、それぞれ異なる視点から被写体の撮像を行う複数の撮像装置を有している。
図1の例において、画像処理システム100は26セットのセンサシステム110a~zを有している。撮像システムであるセンサシステム110a~zのそれぞれは、撮像装置であるカメラ112a~zを有している。また、図1に示すように、センサシステム110a~zのそれぞれがマイク111a~zを有していてもよい。これらのセンサシステム110a~zは、例えば、競技場(スタジアム)又はコンサートホールなどの施設に設置することができる。そして、カメラ112a~z及びマイク111a~zは、撮像及び集音を行うことができる。
本明細書においては、特別な説明がない限り、26セットのセンサシステム110a~zのことを区別せずにセンサシステム110と呼ぶ。また、各センサシステム110a~zが有する要素のことも、特別な説明がない限り、マイク111、カメラ112、雲台113、外部センサ114、及びカメラアダプタ120と、区別せずに呼ぶ。本実施形態においては26セットのセンサシステムが用いられるが、これは一例にすぎず、台数は限定されない。
本実施形態では、特に断りがない限り、画像という用語は動画と静止画の双方を指す。すなわち、本実施形態に係る画像処理システム100は、静止画及び動画のいずれについても処理可能である。また、以下の例では、画像処理システムが提供する仮想視点コンテンツは仮想視点画像及び仮想視点音声を含んでいるが、これらは限られない。例えば、仮想視点コンテンツは音声を含んでいなくてもよい。この場合、センサシステム110がマイクを有する必要はない。また、仮想視点コンテンツに含まれる音声は、仮想視点に最も近いセンサシステム110のマイク111により集音された音声であってもよい。本実施形態に係る画像処理システム100は、画像と音声とを共に処理するが、以下では説明の簡略化のために音声に関する記載が部分的に省略されている。例えば、音声データは画像データと同様に転送されてもよい。
画像処理システム100は、さらに、サーバ200、コントローラ300、スイッチングハブのようなハブ180、及び端末190を有する。サーバ200は、センサシステム110zから取得したデータに対する処理を行う。このため、サーバ200は、撮像装置であるカメラ112のそれぞれによる撮像画像を格納することができる。
最初に、センサシステム110a~zが生成した26セットの画像及び音声を、センサシステム110zがサーバ200へ送信する動作を説明する。本実施形態において、センサシステム110a~zは図1に示すようにデイジーチェーン接続されている。
センサシステム110(110a~z)は、それぞれ1台ずつカメラ112(112a~z)を有する。すなわち画像処理システム100は、被写体を複数の方向から撮像するための複数のカメラ112を有している。複数のセンサシステム110がそれぞれ有するカメラ112は、同期して撮像を行い、撮像により得られた撮像画像をサーバ200に向けて出力する。
一実施形態においては、複数のセンサシステム110のうち2以上が、サーバ200に対して直列に接続されている。例えば、複数のセンサシステム110同士をデイジーチェーンにより接続することができる。図1の例では、センサシステム110a~zの全てがカスケード接続されている。なお、本明細書においては、サーバ200に対して複数のセンサシステム110が直列に接続されていることは、サーバ200から同じ伝送路(ケーブルなど)を2回以上通らずに複数のセンサシステム110に到達可能であることを意味する。図1の例では、センサシステム110a~zはハブ180を介してサーバ200に接続されているが、なおセンサシステム110a~zはサーバ200に対して直列に接続されている。このような接続形態によれば、撮像画像の高解像度化(例えば4K又は8K)及び高フレームレート化に伴って画像データが大容量化しても、接続ケーブル数を抑えること、又は配線作業を省力化することができる。
別の例として、複数のセンサシステム110をいくつかのグループに分割し、グループごとにセンサシステム110をデイジーチェーン接続することもできる。この場合、グループの末端に位置するセンサシステム110のカメラアダプタ120をハブ180に接続することができ、ハブ180を介してサーバ200へ画像を入力することができる。このような構成は、スタジアムにおいて特に有効である。例えば、スタジアムが複数フロアを有する場合、各フロアにセンサシステム110を配置することができる。この場合に、1つのフロアにあるセンサシステム110をグループ化し、又はスタジアムを取り囲む各半周にあるセンサシステム110をグループ化して、それぞれのグループからの画像をサーバ200に入力することができる。このように、全てのセンサシステム110を1つのデイジーチェーンを介して接続するための配線を行うことが困難な場所においても、グループごとのデイジーチェーンを採用することで、設置の簡便性又はシステムの柔軟性を向上させることができる。
もっとも、センサシステム110同士の接続方法はこの方法に限られない。例えば、各センサシステム110a~zが直接ハブ180に接続されていてもよい。この場合、ハブ180を経由してセンサシステム110間のデータ送受信を行うスター型のネットワーク構成が得られる。
なお、デイジーチェーンの数、又はサーバ200に画像を入力するカメラアダプタ120の数が、1つであるか2つ以上であるかに応じて、サーバ200における画像処理の制御を切り替えることができる。すなわち、センサシステム110が複数のグループに分割されているかどうかに応じて、制御を切り替えることができる。例えば、サーバ200に画像を入力するカメラアダプタ120の数が1つの場合、デイジーチェーン接続に沿って画像伝送を行いながら競技場の全周からの画像が取得される。このため、サーバ200が全周の(各センサシステム110からの)画像データを取得するタイミングは同期する。しかしながら、サーバ200に画像を入力するカメラアダプタ120の数が2以上の場合、それぞれのデイジーチェーンのレーン(経路)に依存する異なる伝送遅延が発生する場合がある。この場合サーバ200は、全周の画像データが揃ったことをチェックしてから、後段の画像処理を行うことができる。
本実施形態に係るセンサシステム110aは、カメラアダプタ120aと、1台のカメラ112aと1台のマイク111aの少なくとも一方と、を有する。図1に示すようにセンサシステム110aは、さらに雲台113a及び外部センサ114aを有していてもよいし、その他の構成を含んでいてもよい。また、センサシステム110aは複数のカメラ112aを有していてもよいし、複数のカメラアダプタ120aを有していてもよい。すなわち、センサシステム110aは、N台のカメラ112aとM台のカメラアダプタ120aを有していてもよく(N及びMは1以上の整数)、このようにカメラ112aとカメラアダプタ120aとがN対Mで対応していてもよい。また、カメラアダプタ120aが有する機能の少なくとも一部を、フロントエンドサーバ230が有していてもよい。
なお、センサシステム110b~zは、センサシステム110aと同じ構成を有していてもよいし、異なる構成を有していてもよい。一実施形態においては、複数のカメラ112のそれぞれが、図1に示すようにカメラアダプタ120を有している。このように、画像処理システム100は、それぞれがカメラアダプタ120とカメラ112とを備える複数のセンサシステム110を有することができる。この場合、それぞれのカメラアダプタ120は、自身を有しているカメラ112による撮像画像に対して優先度を設定することができる。
一方で、別の実施形態においては、複数のカメラ112のうちの少なくとも1つがカメラアダプタ120を有している。さらなる実施形態においては、各カメラ112はカメラアダプタ120を有していない。以下に説明するカメラアダプタ120を有していないカメラ112による撮像画像に対する優先度の設定は、例えばフロントエンドサーバ230のような他の装置によって行われてもよい。この場合、他の装置が以下に説明するカメラアダプタ120と同様の構成及び機能を有し、撮像装置による撮像画像に対する優先度を設定することができる。
センサシステム110aにおいて、マイク111aは音声を集音し、カメラ112aは画像を撮像する。カメラアダプタ120aは、後述の画像処理を行った後で、音声及び画像をネットワーク170aを介してセンサシステム110bのカメラアダプタ120bに転送する。センサシステム110bは、同様に集音された音声及び撮像された画像を、センサシステム110aから取得した画像及び音声と合わせて、センサシステム110cに転送する。このような動作を続けることにより、センサシステム110a~zにより取得された画像及び音声は、センサシステム110z、ネットワーク170、及びハブ180を介して、サーバ200へ伝送される。
図1の例ではカメラ112とカメラアダプタ120とは分離されているが、カメラ112とカメラアダプタ120とは(例えば同一筐体内で)一体化されていてもよい。また、マイク111はカメラ112に内蔵されていてもよいし、カメラ112の外部に接続されていてもよい。
次に、サーバ200の構成及び動作について説明する。本実施形態においてサーバ200は、センサシステム110zから取得したデータに対する処理を行う。サーバ200は、フロントエンドサーバ230、データベース250、バックエンドサーバ270、及びタイムサーバ290を有する。
タイムサーバ290は、複数のカメラ112の撮像タイミングを同期させるための信号を供給する。例えばタイムサーバ290は、ハブ180を介してセンサシステム110a~zに時刻信号及び同期信号を配信することができる。センサシステム110のカメラアダプタ120は、タイムサーバ290から配信された信号に従って、画像フレームの同期を行うことができる。例えばカメラアダプタ120は、時刻信号及び同期信号に基づいてGenlockを行うことができる。このような構成により、画像処理システム100は、同じタイミングで撮像された複数の撮像画像に基づいて仮想視点画像を生成でき、撮像タイミングのずれに基づく仮想視点画像の品質低下を抑制できる。もっとも、タイムサーバ290の代わりに、各カメラ112又はカメラアダプタ120が時刻同期のための処理を独立に行ってもよい。
フロントエンドサーバ230は、センサシステム110zから取得した画像及び音声をデータベース250に書き込む。例えばフロントエンドサーバ230は、センサシステム110zからセグメント化された伝送パケットを取得し、伝送パケットから画像及び音声を再構成するようにデータ形式の変換を行うことができる。また、フロントエンドサーバ230は、カメラの識別子、データ種別、及びフレーム番号などに関連付けて、画像及び音声をデータベース250に格納することができる。
バックエンドサーバ270は、コントローラ300から仮想視点の指定を取得し、指定された仮想視点からの仮想視点画像を生成する。バックエンドサーバ270は、データベース250から処理に用いられる画像及び音声データを読み出し、レンダリング処理を行うことで仮想視点画像を生成することができる。バックエンドサーバ270は、レンダリング処理により得られた仮想視点画像を端末190に送信する。このようにバックエンドサーバ270は、複数のカメラ112により撮像された撮像画像(複数視点画像)と仮想視点情報とに基づく仮想視点コンテンツを生成することができる。より具体的には、バックエンドサーバ270は、例えば複数のカメラアダプタ120により複数のカメラ112による撮像画像から抽出された前景画像と、ユーザにより指定された仮想視点とに基づいて、仮想視点コンテンツを生成してもよい。カメラアダプタ120による所定領域の抽出については後述する。端末190は、ユーザに対して、指定された仮想視点に応じた画像及び音声を提供することができる。
仮想視点画像の生成方法は特に限定されない。例えば、バックエンドサーバ270は、センサシステム110により得られた各撮像画像を用いて、被写体の3次元モデルを生成することができる。バックエンドサーバ270は、任意の方法を用いて被写体の3次元モデルを生成することができ、例えば視体積交差法又はステレオマッチング法などを用いることができる。そして、バックエンドサーバ270は、被写体の三次元モデルと、センサシステム110により得られた各撮像画像とを用いて、仮想視点からの被写体の仮想視点画像を生成することができる。バックエンドサーバ270は、任意の方法を用いて仮想視点画像を生成することができる。一例を挙げると、バックエンドサーバ270は、被写体の3次元モデルと、仮想視点の位置、視線方向、及び視野角度を示す情報とを用いて、仮想視点からの仮想視点画像の着目画素に対応する被写体上の位置を特定することができる。また、バックエンドサーバ270は、各カメラ112の位置を示すカメラパラメータを参照することにより、カメラ112の撮像画像におけるこの被写体上の位置に対応する画素を特定することができる。そして、バックエンドサーバ270は、こうして特定された画素の色情報を用いて、着目画素の色情報を決定することができる。バックエンドサーバ270は、このような処理を仮想視点画像の各画素について行うことにより、仮想視点画像を生成することができる。
本実施形態における仮想視点コンテンツとは、指定された視点(仮想視点)から被写体を撮像した場合に得られる画像である仮想視点画像を含むコンテンツである。仮想視点画像は、指定された仮想視点における被写体の見えを表す画像であるともいえる。仮想的な視点(仮想視点)は、ユーザにより指定されても良いし、画像解析の結果等に基づいて自動的に指定されても良い。すなわち仮想視点画像には、ユーザが任意に指定した視点に対応する任意視点画像(自由視点画像)が含まれる。また、複数の候補からユーザが指定した視点に対応する画像や、装置が自動で指定した視点に対応する画像も、仮想視点画像に含まれる。なお、本実施形態では、仮想視点コンテンツに音声データ(オーディオデータ)が含まれる場合の例を中心に説明するが、必ずしも音声データが含まれていなくても良い。また、バックエンドサーバ270は、仮想視点画像をH.264やHEVCに代表される標準技術により圧縮符号化したうえで、MPEG-DASHプロトコルを使って端末190へ送信してもよい。また、仮想視点画像は、非圧縮で端末190へ送信されてもよい。とくに圧縮符号化を行う前者は端末190としてスマートフォンやタブレットを想定しており、後者は非圧縮画像を表示可能なディスプレイを想定している。すなわち、端末190の種別に応じて画像フォーマットが切り替え可能であることを明記しておく。また、画像の送信プロトコルはMPEG-DASHに限らず、例えば、HLS(HTTP Live Streaming)やその他の送信方法を用いてもよい。
サーバ200の構成は上記の例に限られない。例えば、フロントエンドサーバ230、データベース250、及びバックエンドサーバ270のうち少なくとも2つが一体に構成されていてもよい。また、サーバ200は、フロントエンドサーバ230、データベース250、及びバックエンドサーバ270の少なくともいずれかを複数含んでいてもよい。さらに、サーバ200はその他の装置を有していてもよい。また、端末190又はコントローラ300が、サーバ200の機能の少なくとも一部を有していてもよい。
コントローラ300は、制御ステーション310及びUI330を有する。制御ステーション310は、画像処理システム100が有する各構成に対して、例えばネットワーク(310a~c、180a、及び170a~yなど)を通じて、動作状態の管理及びパラメータ設定制御などを行うことができる。ここで、ネットワークはEthernet(登録商標)であるIEEE規格に準拠したGbE(ギガビットイーサネット(登録商標))又は10GbEであってもよい。また、ネットワークには、インターコネクトInfiniband及び産業用イーサネット(登録商標)などが組み合わせられていてもよい。さらに、ネットワークは他の種別のネットワークであってもよい。UI330は仮想カメラ操作UIであり、後述するように画像処理システム100を用いて生成する仮想視点画像についての仮想視点の位置、視線方向、及び視野角度などを制御するために用いることができる。
このように、画像処理システム100は、映像収集ドメイン、データ保存ドメイン、及び映像生成ドメインという3つの機能ドメインを有している。映像収集ドメインはセンサシステム110a~zを含む。データ保存ドメインはフロントエンドサーバ230及びデータベース250を含む。映像生成ドメインはバックエンドサーバ270、コントローラ300(特にUI330)、及び端末190を含む。このように本実施形態では、データ保存ドメインが中間に配置されている。このような構成により、フロントエンドサーバ230は、センサシステム110a~zが生成した画像データ及び音声データ並びにこれらのデータのメタ情報を、データベース250の共通スキーマ及びデータ型に合わせて変換することができる。このため、センサシステム110が有するカメラ112の機種が変更されても、データの違いをフロントエンドサーバ230が吸収してから、データをデータベース250に登録することができる。このため、カメラ112の機種変更が容易となる。一方で、データ保存ドメインを有することは必須ではない。
また、コントローラ300(UI330)は、データベース250に直接アクセスせず、バックエンドサーバ270を介してデータベース250にアクセスする。この構成において、バックエンドサーバ270は画像生成処理に関する共通処理を行い、コントローラ300はアプリケーションによって異なる操作UIに係る処理を行う。このような構成によれば、UIを操作するデバイス、又は所望の仮想視点画像を生成するためのUIに対する機能要求に応じた、UIの開発に注力する事ができる。また、バックエンドサーバ270が行う画像生成処理に係る共通処理を、UI330の要求に応じて追加又は削除してもよい。このような構成により、バックエンドサーバ270はUI330の要求に柔軟に対応する事ができる。一方で画像処理システム100はこのような構成には限定されず、例えば、コントローラ300(UI330)が直接センサシステム110a~zから画像を取得してもよい。
このように、画像処理システム100においては、被写体を複数の方向から撮像する複数のカメラ112により得られた画像データに基づいて、バックエンドサーバ270が仮想視点画像を生成する。なお、本実施形態に係る画像処理システム100は、上記の物理的な構成に限定されず、論理的に構成されていてもよい。
(カメラアダプタの構成)
次に、カメラアダプタ120の構成について図2を参照して説明する。カメラアダプタ120は、本実施形態に係る制御装置であり、符号量制御機能を有している。カメラアダプタ120は、ネットワークアダプタ2100、伝送部2200、画像処理部2300、及び外部機器制御部2400を有する。
ネットワークアダプタ2100は、撮像画像を送受信する機能を有している。本実施形態においてネットワークアダプタ2100は、送受信部2110及び時刻制御部2120を有する。送受信部2110は、ネットワーク170,291,310aを介して、他のカメラアダプタ120、フロントエンドサーバ230、タイムサーバ290、及び制御ステーション310とデータ通信を行う。例えば送受信部2110は、分離部2310がカメラ112の撮像画像から生成した前景画像及び背景画像を、次のカメラアダプタ120に送信することができる。次のカメラアダプタ120とは、予め定められた順序に従う、送信元のカメラアダプタ120の次のカメラアダプタ120である。例えば、複数のセンサシステム110がデイジーチェーン接続されている構成においては、サーバにより近いカメラアダプタ120に画像を送信することができる。このように、各カメラアダプタ120は前景画像及び背景画像を出力し、複数の視点における撮像により得られた前景画像及び背景画像に基づいて仮想視点画像が生成される。なお、撮像画像から分離された前景画像を出力し、背景画像は出力しないカメラアダプタ120が存在してもよい。
時刻制御部2120は、現在の時刻情報を管理する。時刻制御部2120は、タイムサーバ290との間の時刻同期を行うことができる。また、時刻制御部2120は、タイムサーバ290との間で送受信したデータのタイムスタンプを保存してもよい。時刻制御部2120は、例えばIEEE1588規格のOrdinay Clockに準拠した動作を行うことができる。もっとも、時刻制御部2120は、他のEtherAVB規格、又は独自プロトコルに従って、タイムサーバ290との時刻同期を行ってもよい。なお、IEEE1588は、IEEE1588-2002、及びIEEE1588-2008のように、標準規格として更新されており、後者はPTPv2(Precision Time Protocol Version2)とも呼ばれる。
本実施形態では、ネットワークアダプタ2100としてNIC(Network Interface Card)が用いられる。もっとも、ネットワークアダプタ2100は、同様の他のInterfaceを利用してもよい。
伝送部2200は、ハブ180などに対する、ネットワークアダプタ2100を介したデータの伝送を制御する機能を有する。以下、伝送部2200が有する構成について説明する。符号処理部2210は、データを圧縮する機能、及び圧縮されたデータを伸張する機能を有している。符号処理部2210は、例えば、送受信部2110を介して送信するデータに対して、所定の圧縮方式、圧縮率、及びフレームレートに従う圧縮を行うことができる。
同期制御部2230は、タイムサーバ290との時刻同期に係る制御を行う。同期制御部2230は、IEEE1588規格のPTP(Precision Time Protocol)に準拠した機能を有していてもよい。一方で同期制御部2230は、他の同様のプロトコルを利用して時刻同期を行ってもよい。
伝送処理部2240は、送受信部2110を介して他のカメラアダプタ120又はフロントエンドサーバ230へ転送するメッセージを生成する。画像データ又は音声データは、メッセージとして転送される。例えばメッセージは、画像データ又は音声データ、及び各データのメタ情報を含むことができる。メタ情報の例としては、画像の撮像又は音声のサンプリングをした時のタイムコード又はシーケンス番号、データ種別、及び画像又は音声を取得したカメラ112又はマイク111を特定する識別子などが挙げられる。こうして送信される画像データ又は音声データは、符号処理部2210により圧縮されていてもよい。また、伝送処理部2240は、他のカメラアダプタ120から送受信部2110を介してメッセージを受け取ることができる。伝送処理部2240は、メッセージのデータ種別を参照して、伝送プロトコルに規定されるパケットサイズに応じてフラグメント化されているデータを、必要に応じて画像データ又は音声データへと復元してもよい。また、復元されたデータが圧縮されている場合、符号処理部2210は圧縮されたデータを伸張することができる。
画像処理部2300は、接続されたカメラ112の撮像により得られた画像データ、及び他のカメラアダプタ120から受け取った画像データに対する処理を行う。以下、画像処理部2300が有する構成について、画像処理部2300の機能ブロック図である図3を参照してより詳細に説明する。
キャリブレーション制御部2330は、キャリブレーションに必要な情報を取得及び送信する。キャリブレーション制御部2330は、キャリブレーションに必要な画像データをカメラ制御部2410を介してカメラ112から取得することができる。また、キャリブレーション制御部2330は、キャリブレーション処理を行うフロントエンドサーバ230に対して取得した情報を送信することができる。もっとも、キャリブレーション処理は、制御ステーション310又はカメラアダプタ120(自身とは他のカメラアダプタ120を含む)などの他のノードが行ってもよい。
キャリブレーション制御部2330は、カメラ制御部2410を介してカメラ112から取得した画像データに対して、予め設定されたパラメータに従って、撮像中のキャリブレーション(動的キャリブレーション)を行ってもよい。例えば、キャリブレーション制御部2330は、撮像画像に対して、カメラ毎の色のばらつきを抑えるための色補正処理、又はカメラの振動に起因するブレに対して被写体の位置を安定させるためのブレ補正処理(電子防振処理)などを行うことができる。
例えば、キャリブレーション制御部2330は、撮像装置の振動の影響を低減する補正処理を行うことができる。すなわち、キャリブレーション制御部2330は、カメラ112の振動を表す情報を参照して振動を抑えた画像を生成することができる。このような振動を表す情報は、後述するように外部センサ114から取得することができる。キャリブレーション制御部2330は、分離部2310での処理に先立ってこのような処理を行ってもよい。
例えば、キャリブレーション制御部2330は、カメラ112による撮像画像に対して、フレーム間の振動の影響による被写体の位置ずれを抑制する処理を、振動を表す情報を参照して行うことができる。また、キャリブレーション制御部2330は、振動を表す情報を参照して、カメラ112による撮像画像の位置合わせを行うことができる。例えばキャリブレーション制御部2330は、接続された8Kカメラにより得られた画像データから、元の8Kサイズよりも小さいサイズの画像を切り出し、振動情報を考慮して、隣接して設置されたカメラ112の画像との位置合わせを行うことができる。このような構成により、建造物の躯体振動が各カメラ112に異なる周波数で伝搬しても、カメラアダプタ120が画像の位置合わせを行うことができる。この結果、画像データの防振を電子的に実現できるとともに、サーバ200におけるカメラ112の台数に応じた位置合わせの処理負荷を軽減することができる。
分離部2310は、カメラ112が取得した画像を、前景画像と背景画像に分離することができる。分離部2310は撮像画像から被写体抽出を行うことができ、抽出された被写体の画像を前景画像と呼ぶことができる。すなわち、複数のカメラアダプタ120が有するそれぞれの分離部2310は、複数のカメラ112のうち対応するカメラ112により得られた撮像画像から所定領域を抽出する。所定領域とは、例えば撮像画像に対するオブジェクト検出により検出されたオブジェクト領域のことである。このように抽出された所定領域の画像が前景画像であり、残る領域の画像が背景画像である。
オブジェクト検出により検出されるオブジェクトの種類は特に限定されず、例えば人物であってもよい。また、検出されるオブジェクトは特定人物(例えば、特定の選手、監督、及び/又は審判など)であってもよいし、特定物体(例えば、ボール又はゴールなど、画像パターンが予め定められている物体)であってもよい。また、オブジェクトとして、動体が検出されてもよい。このように、人物などの重要なオブジェクトを含む前景画像と、このようなオブジェクトを含まない背景領域とを分離することにより、画像処理システム100において生成される仮想視点画像のうち、このようなオブジェクトに該当する部分の品質を向上できる。また、前景と背景の分離を複数のカメラアダプタ120のそれぞれが行うことで、画像処理システム100における負荷を分散させることができる。このような構成によれば、例えば、3次元モデル又は仮想視点画像を生成する際に、前景と背景の分離処理を行うためのサーバ200の負荷を低減できる。なお、前景画像は所定領域の画像に限られず、例えば所定領域の画像が背景画像であってもよい。
分離部2310が有する各構成について以下詳細に説明する。前景分離部2311は、キャリブレーション制御部2330による位置合わせが行われた後の撮像画像の画像データから、前景画像を分離する。図3に示す構成例では、前景分離部2311は、撮像画像と、予め背景画像から得られている比較画像2312との比較により前景画像の分離処理を行う。例えば、前景分離部2311は、撮像画像と比較画像2312との間の画素値の差分が閾値以上である領域を、前景画像として抽出することができる。前景分離部2311は、こうして得られた前景画像の画像データを出力することができる。また、前景分離部2311は、撮像画像全体における前景画像領域のオフセット値(前景画像の外接矩形の左上の画素の位置)を、前景画像に関連付けて出力することができる。
比較画像更新部2313は、キャリブレーション制御部2330による位置合わせが行われた後の撮像画像の画像データを用いて、比較画像2312を更新する。例えば、背景切出部2314は、撮像画像のうち、撮像画像と比較画像2312との間の画素値の差分が閾値未満である領域(背景領域)の画像(背景画像)を抽出することができる。そして比較画像更新部2313は、比較画像2312のうち背景領域に相当する部分を、こうして抽出された背景画像で更新することができる。背景切出部2314は、このように撮像画像の一部を背景画像として切り出し、出力することができる。
優先度生成部2320は優先度の設定を行う。本実施形態において優先度生成部2320は、被写体の位置から撮像装置へと向かう視点方向と、被写体の位置から他の撮像装置へと向かう視点方向と、の類似性に応じた優先度を、撮像装置による撮像画像に対して設定することができる。具体的な設定方法については図4を参照して後述する。
優先度生成部2320は、優先度の設定を行う際に、分離部2310により得られた前景画像及びカメラパラメータを利用することができる。カメラパラメータは、カメラ固有の内部パラメータ、グローバル座標系に対するカメラの位置姿勢を表す外部パラメータ、及び外部カメラ情報を含んでいてもよい。内部パラメータは、例えばカメラ112の焦点距離、センサピッチ、画像中心位置、及びレンズ歪みパラメータなどを含むことができる。外部パラメータは、カメラ112の視点位置及び姿勢などを含むことができる。さらに、外部カメラ情報は、カメラアダプタ120に接続されているカメラ112以外の、他のカメラ112の視点位置又は撮像領域などを含むことができる。このようなカメラパラメータは、カメラ112により得られた画像から推定することもできる。
優先度生成部2320が有する各構成について以下詳細に説明する。位置取得部2322は、被写体の位置を取得する。本実施形態の場合、位置取得部2322は、撮像画像に対する被写体抽出の結果を用いて被写体の位置を取得する。例えば、分離部2310によって前景として抽出された被写体の位置に基づいて、位置取得部2322は被写体の位置を取得することができる。本実施形態において、位置取得部2322は、前景分離部2311により得られた前景画像のオフセット値と、伝送部2200を介して受信したカメラパラメータとを用いて、撮像シーンにおける被写体の位置を取得し、優先度算出部2324に出力する。
ただし、被写体の位置の取得方法はこの方法に限定されず、位置取得部2322は位置測定デバイスなどの他の装置から被写体の位置を取得してもよい。位置取得部2322は、キャリブレーション制御部2330による、撮像装置の振動の影響を低減する補正処理を行った後の撮像画像を用いて、被写体の位置を取得してもよい。すなわち、位置取得部2322は、補正処理後の撮像画像から分離部2310によって抽出された被写体領域に基づいて、被写体の位置を取得してもよい。
カメラパラメータ受信部2321は、カメラパラメータを受信する。この情報は、制御ステーション310から対象となるカメラアダプタ120に対して送信及び設定されている。
優先度算出部2324は、被写体の位置に基づいて、撮像装置(カメラ112)による撮像画像に対して優先度を設定する。優先度算出部2324はカメラ112の(又はカメラ112により得られた撮像画像の)優先度を算出し、伝送部2200に出力することができる。本実施形態において優先度算出部2324は、被写体の位置から撮像装置へと向かう視点方向と、被写体の位置から他の撮像装置へと向かう視点方向と、の類似性に応じた優先度を、撮像装置による撮像画像に対して設定する。
外部機器制御部2400は、カメラアダプタ120に接続された機器を制御する。以下、外部機器制御部2400が有する構成について説明する。カメラ制御部2410は、カメラ112に接続され、カメラ112の制御を行う。また、カメラ制御部2410は、カメラ112から撮像画像を取得することができる。カメラ112の制御には、例えば、撮像パラメータ(画素数、色深度、フレームレート、及びホワイトバランスの設定など)の設定及び参照、並びにカメラ112の状態情報(撮像中、停止中、同期中、及びエラーなど)の取得などが含まれる。また、カメラ112の制御には、例えば、カメラ112による撮像の開始及び停止、並びにカメラ112のピント調整などが含まれる。カメラ制御部2410は、カメラ112を介してカメラ112が有するレンズのピント調整を行ってもよいし、カメラ112に装着された取り外し可能なレンズに接続して直接ピント調整を行ってもよい。また、カメラ制御部2410は、ズーム調整などの、カメラ112が有するレンズの調整を行ってもよい。
カメラ制御部2410はまた、カメラ112への同期信号の提供及び時刻設定などを行うことができる。カメラ制御部2410は、例えば同期制御部2230の制御に従ってタイムサーバ290と同期された時刻を参照して、撮像タイミングを示す同期信号(制御クロック)を、カメラ112に提供することができる。また、カメラ制御部2410は、こうして同期された時刻を、例えばSMPTE12Mのフォーマットに準拠したタイムコードとしてカメラ112に提供することができる。こうして、カメラ制御部2410は、提供したタイムコードが付与された画像データをカメラ112から受け取ることができる。なお、タイムコードは他のフォーマットを有していてもよい。また、カメラ制御部2410は、カメラ112から受け取った画像データにタイムコードを付与してもよく、この場合カメラ112に対してタイムコードを提供する必要はない。
マイク制御部2420は、マイク111に接続され、マイク111の制御を行う。また、マイク制御部2420は、マイク111により収音された音声データを取得することができる。マイク111の制御には、例えば、収音の開始及び停止、ゲイン調整、並びに状態取得などが含まれる。マイク制御部2420は、カメラ制御部2410と同様に、マイク111に対して音声サンプリングを行うタイミングを示す同期信号及びタイムコードを提供することができる。例えば、マイク制御部2420は、同期信号として、タイムサーバ290からの時刻情報を例えば48KHzのワードクロックに変換することにより得られたクロック情報を、マイク111に供給することができる。
雲台制御部2430は、雲台113に接続され、雲台113の制御を行う。雲台113の制御には、例えば、パン・チルト制御及び状態取得などが含まれる。
センサ制御部2440は、外部センサ114に接続され、外部センサ114によるセンシングにより得られたセンサ情報を取得する。例えば、外部センサ114としてジャイロセンサが利用される場合は、センサ制御部2440は外部センサ114から振動を表す情報を取得することができる。なお、センサシステム110は、外部センサ114の他に、又は外部センサに加えて、カメラアダプタ120に内蔵されたセンサを有していてもよい。このような内蔵センサも、外部センサと同様に用いることができる。
(優先度の設定)
以下、符号量制御に関係する、優先度生成部2320、符号処理部2210、及び伝送処理部2240の処理について詳細に説明する。まず、優先度を生成するための処理について、図4のフローチャートを参照して説明する。以下では、センサシステム110aのカメラアダプタ120aが、カメラ112aの優先度を生成する処理について説明するが、他のカメラアダプタ120b~zも同様に処理を行うことができる。
図4(A)は、優先度生成部2320が優先度を算出する処理の流れを示すフローチャートである。ステップS401でカメラパラメータ受信部2321はカメラパラメータを取得する。ステップS402で位置取得部2322は前景画像のオフセット値を取得する。
ステップS403~S405で位置取得部2322は、撮像シーンにおける被写体の位置を算出する。位置取得部2322は、上述のように被写体抽出により得られた前景画像を用いることができる。以下では、撮像シーンにおいて、人などの被写体は、1つの平面(撮像平面)上に存在するものと仮定する。被写体位置は、被写体が撮像平面と接する点である。また、画像処理システム100が配置された撮像シーンの全体に対しては、撮像平面がz=0となるグローバル座標系(x,y,zの3次元で表現する)が設定される。
ステップS403で位置取得部2322は、被写体の代表画素を選択する。本実施形態では、前景画像のうち最も下にある画素が、被写体と撮像平面(例えば人の足と地面)が接する点を表す代表画素として選択される。複数の画素が最も下にある場合、位置取得部2322は複数の画素から任意の画素を選択してもよく、例えば中央の画素を選択してもよい。
ステップS404で位置取得部2322は、カメラ112aから代表画素に対応する位置へと向かう視線方向を表す、代表視線を算出する。ここで、センサシステム110aのカメラアダプタ120aが有する位置取得部2322は、同じセンサシステム110aのカメラ112aからの代表視線を算出する。位置取得部2322は、予め得られているカメラパラメータ(視点位置、カメラ姿勢、及び焦点距離など)を用いて代表視線を算出することができる。
図5(A)は、撮像画像500及び撮像画像500から抽出された前景画像510を表す。撮像画像の各画素の座標を(v,u)で表す。前述の通り、前景画像510のオフセット値511は、前景画像の外接矩形の左上の画素位置(uo,vo)である。ここでは前景画像510の領域は被写体のシルエットに相当し、そのうち最も下にある画素が代表画素512(ur,vr)として選択される。
この代表画素の位置(ur,vr)と、カメラ112aの内部パラメータ(焦点距離など)から、カメラ112aのカメラ座標系における代表視線を求めることができる。また、図5(B)に示すように、カメラ112aの外部パラメータ(視点位置521及びカメラ姿勢)と、カメラ座標系における代表視線から、グローバル座標系における代表視線520を求めることができる。
ステップS405で位置取得部2322は、被写体位置(xr,yr,0)を算出する。図5(B)に示すように、代表視線と、撮像平面540(z=0)との交点が、被写体530の被写体位置531(xr,yr,0)である。このように、ステップS404,405で位置取得部2322は、ステップS403で得られた代表画素の位置(ur,vr)を、撮像平面上の被写体位置(xr,yr,0)に変換する。
ステップS406~S408で優先度算出部2324は優先度を算出する。以下では、図7を参照しながらこの処理について説明する。以下では、図7に示すように、デイジーチェーンによって接続された複数のカメラ112a~iが、撮像フィールド790に存在する1つの被写体700を撮像している例を用いて説明する。
この例において優先度算出部2324は、ステップS405で得られた被写体の位置からカメラ112aへと向かう視点方向と、被写体の位置から他の撮像装置へと向かう視点方向と、の類似性に応じた優先度を、撮像装置による撮像画像に対して設定する。例えば、優先度算出部2324は、被写体の位置からカメラ112aへと向かう視点方向と、被写体の位置からいずれかのカメラ112へと向かう視点方向と、がより近い場合に、カメラ112aに対する優先度をより低くすることができる。これは、カメラ112aの撮像画像が欠落したとしても、カメラ112aと近い方向にあるカメラ112の画像により補償される可能性が高く、生成される仮想視点画像に対する影響は小さいことが予想されるためである。このため、カメラ112aに対する優先度はより低くなり、後述するようにカメラ112aによる撮像画像の転送又は格納の優先度が低くなる。
優先度算出部2324は、被写体の位置から撮像装置へと向かう視点方向と、被写体の位置から他の撮像装置へと向かう視点方向と、の近さの評価値を算出し、撮像装置による撮像画像に対してこの評価値に応じた優先度を設定することができる。以下の例において優先度算出部2324は、カメラ112aに対する隣接視点を選択し、被写体の位置からカメラ112aへと向かう視点方向と、被写体の位置から隣接視点へと向かう視点方向と、の近さの評価値を算出する。
ステップS406で優先度算出部2324は、カメラ112aに対する隣接視点を選択する。優先度算出部2324は、ステップS405で得られた被写体位置を含む、撮像平面上の撮像領域を有しているカメラから、隣接視点を選択することができる。
具体的には、優先度算出部2324は、カメラ112からカメラ112aに隣接するカメラを選択することができる。本実施形態において優先度算出部2324は、2つのカメラ112を隣接視点として選択する。優先度算出部2324は、例えば、予め得られている、カメラ112aと各カメラ112との近さを示す情報に従って、カメラを選択することができる。例えば、図7に示すように複数のカメラ112が被写体700を取り囲んでいる場合、優先度算出部2324は、カメラ112aから時計回り方向にあるカメラ112aに最も近いカメラを、隣接するカメラとして選択することができる。さらに、優先度算出部2324は、カメラ112aから反時計回り方向にあるカメラ112aに最も近いカメラも、隣接するカメラとして選択することができる。この例では、カメラ112aに対する隣接視点として、カメラ112b及びカメラ112iが選択される。
なお、優先度算出部2324は、被写体の位置に基づいて、被写体が撮像範囲内に存在する撮像装置を複数の撮像装置から選択してもよい。すなわち、優先度算出部2324は、複数のカメラ112のうち、被写体を含む撮像領域を有しているカメラ、例えば撮像領域内に被写体位置を含むカメラを選択することができる。この場合、優先度算出部2324は、被写体の位置から撮像装置へと向かう視点方向と、被写体から、選択された撮像装置のそれぞれへと向かう視点方向と、の類似性に応じた優先度を、撮像装置による撮像画像に対して設定することができる。
図6は、撮像領域622内に被写体位置531を含むカメラ112βを表す。カメラ112βの視点位置621は(xβ,yβ,zβ)で表される。本実施形態において、各カメラ112は、自身以外のカメラの撮像平面540上の撮像領域622を示す情報を、外部カメラ情報として有しており、例えば撮像領域622の4つの頂点623~626の位置を示す情報を有している。したがって、優先度算出部2324は、各カメラ112の撮像領域622を示す情報と、被写体位置531とに基づいて、被写体を含む撮像領域を有しているカメラ112を選択することができる。このような構成によれば、被写体を撮像しているカメラから隣接視点が選択され、被写体を撮像していないカメラは無視される。このため、カメラ112aの撮像画像が欠落した際の、仮想視点画像中の被写体の画像に対する影響をより良好に評価できる。
ステップS407で優先度算出部2324は、隣接視点から被写体位置への視線を算出する。本実施形態では、処理の簡略化のため、撮像平面上での視線が算出される。すなわち、本実施形態において各カメラ112は、自身以外のカメラの撮像平面540上での視点位置を示す情報を、外部カメラ情報として有している。そして、優先度算出部2324は、図6に示すように、撮像平面540上での、隣接視点であるカメラ112βの視点位置627(xβ,yβ)から被写体位置531へと向かう方向(ベクトル)を、隣接視点の視線として算出する。図7には、こうして得られたカメラ112bの視線710b及びカメラ112iの視線710iが示されている。
ステップS408で優先度算出部2324は、2つの隣接視点の視線が成す角を算出する。図7には、互いに隣接するカメラの視線がなす角θ1~θ9が示されている。カメラ112aに対しては、カメラ112aの隣接視点(カメラ112b及び112i)の視線がなす角であるθ1+θ9が算出される。こうして算出された値θ1+θ9は、被写体の位置からカメラ112aへと向かう視点方向と、被写体の位置から隣接視点へと向かう視点方向と、の近さの評価値として用いることができる。本実施形態においては、この値θ1+θ9が、カメラ112aに対する(又はカメラ112aによる撮像画像に対する)優先度として用いられる。
こうして算出された値は、被写体からカメラ112aへと向かう視点方向における、被写体から複数のカメラのそれぞれへと向かう視点方向の密度である、視点(カメラ)の角密度を表す。この角密度が大きいことは、被写体の位置からカメラ112aへと向かう視点方向と、被写体から選択視点へと向かう視点方向と、の類似性が高いことを意味する。したがって、この角密度が大きいことは、カメラの画像が欠落したとしても、隣接視点にあるカメラの画像により補償される可能性が高いため、生成される仮想視点画像に対する影響が小さいことを示す。このため、本実施形態では、角密度が大きい(2つの隣接視点の視線が成す角が小さい)ほど、優先度が小さくされる。
ステップS409で優先度算出部2324は、ステップS408で算出された優先度を出力する。
なお、優先度の算出方法は上記の方法に限定されない。例えば、図7に示す平面上の角θ1~θ9の代わりに、3次元空間上で互いに隣接するカメラの視線がなす角が用いられてもよい。また、被写体の位置から各カメラ112へと向かう3次元ベクトルのパラメータ(方位角及び仰角)の分布に基づき、被写体の位置からカメラ112aへと向かう視点方向における、視点方向の密度を評価してもよい。
(符号量制御)
次に、伝送部2200が優先度に基づいて符号量制御を行う方法について説明する。伝送部2200は、優先度に従って、撮像画像の転送又は格納を制御することができる。すなわち、伝送部2200は、優先度が高い撮像画像を優先的に転送し、又は優先的に格納することができる。言い換えれば、伝送部2200は、優先度が低い撮像画像を優先的に破棄することができる。一部の画像データを破棄する構成を採用することにより、画像データの伝送遅延を少なくし、リアルタイム性の高い仮想視点コンテンツを得ることが容易になる。
伝送部2200による具体的な符号量制御方法は特に限定されない。以下の例においてカメラ112(第2の撮像装置)に接続されているカメラアダプタ120の伝送部2200は、カメラ112(第2の撮像装置)による撮像画像を、他のカメラアダプタ120又はフロントエンドサーバ230などの送信先装置へと送信する。また、カメラ112(第2の撮像装置)に接続されているカメラアダプタ120の伝送部2200は、他のカメラ112(第1の撮像装置)による撮像画像を受信し、送信先装置へと送信する。この際、伝送部2200は、それぞれの撮像画像に設定された優先度に従って送信を制御する。
以下の例では、分離部2310により得られた前景画像を伝送する際に、符号量制御が行われる。すなわち、以下の例において伝送部2200は、優先度に従って、前景画像の転送を制御する。具体的には、伝送部2200は、前景画像を符号化してパケットを生成し、優先度に基づいて符号量制御を行う。図8は、伝送部2200のうち、この処理に関与する構成を示す機能ブロック図であり、伝送部2200が有する処理部のうち一部は省略されている。
なお、伝送部2200は、分離部2310により得られた背景画像も、他のセンサシステム110のカメラアダプタ120を経由してフロントエンドサーバ230へ送信することができる。伝送部2200は、前景画像と同様に、背景画像に対して優先度に基づく符号量制御を行ってもよいし、行わなくてもよい。また、伝送部2200は、背景画像に対して前景画像よりも高い圧縮率での圧縮処理を行ってから、圧縮された背景画像をフロントエンドサーバ230へ送信してもよい。さらに、伝送部2200は、前景画像と背景画像とを別個に送信する代わりに、撮像画像をフロントエンドサーバ230へ送信してもよく、この際に撮像画像に対して優先度に基づく符号量制御を行ってもよい。
符号処理部2210は、符号化部2211及びメッセージ生成部2212を有する。符号化部2211は受け取った前景画像を符号化してメッセージ生成部2212に送る。メッセージ生成部2212は、符号データ、符号データの特定情報、及び優先度情報を受け取る。特定情報とは、対応する符号データがどのカメラ112で撮像されたのか、又はどの前景画像の符号データであるのか、を特定する情報である。この情報は、画像データの復号に用いることができる。メッセージ生成部2212は、メッセージのデータ領域に符号データが格納され、ヘッダ領域に優先度及び特定情報が格納されるように、メッセージを生成し、伝送処理部2240に出力する。
伝送処理部2240は、パケット生成部2241、パケット制御部2242、及びパケット保持領域2243を有する。パケット生成部2241は、符号処理部2210から取得したメッセージを所定のサイズを有するように分解することにより、複数のパケットを生成する。パケット制御部2242は、パケット生成部2241からセンサシステム110aによる撮像画像に基づくパケットを受け取り、またネットワークアダプタ2100からネットワーク上のパケットを受け取る。そして、パケット制御部2242は、優先度に応じたパケットの破棄と、ネットワークアダプタ2100へのパケットの出力と、を行う。
図9は、符号処理部2210が前景画像及び優先度を受けとってから、パケット生成部2241がパケットを生成するまでの処理のフローチャートである。ステップS901で符号化部2211は前景画像を符号化して符号データを生成する。ステップS902でメッセージ生成部2212は、符号データを格納するための空のメッセージ領域を確保する。メッセージの大きさは、符号データのサイズに依存する。ステップS903でメッセージ生成部2212は、特定情報及び優先度をメッセージ領域のヘッダ領域に格納し、符号データをデータ領域に格納する。
ステップS904でパケット生成部2241は、ステップS903で生成されたメッセージを所定サイズに分割することにより複数のパケットを生成する。パケット生成部2241は、メッセージが所定サイズを下回る場合には、メッセージ分割を行わず、1つのパケットを生成することができる。パケット生成部2241は、パケットのヘッダ領域に、メッセージのヘッダ領域にあった優先度及び特定情報を格納する。パケット生成部2241は、メッセージを分割する場合に、それぞれのパケットがメッセージのどの部分に相当するのかを示す情報を、さらにパケットのヘッダ領域にある特定情報に追加することができる。
図10は、パケット制御部2242が行う処理のフローチャートである。図10(A)は、優先度に応じてパケットを破棄する処理を示す。ステップS1001でパケット制御部2242は、パケットpを取得する。ステップS1002でパケット制御部2242は、パケット保持領域2243がパケットpを保持するための空き領域を有しているどうかを判断する。空き領域がある場合、処理はステップS1003に進み、パケット制御部2242はパケットpをパケット保持領域2243に格納する。空き領域がない場合、処理はステップS1004に進み、パケット制御部2242は、パケット保持領域2243に格納されているパケットの優先度のうちもっとも低いものと比べて、パケットpの優先度が低いかどうかを判断する。パケットpの優先度が低い場合、処理はステップS1005に進み、パケット制御部2242はパケットpを破棄する。パケットpの優先度が低くない場合、処理はステップS1006に進み、パケット制御部2242はパケット保持領域2243に格納されている最も優先度の低いパケットを破棄し、その後処理はステップS1002に戻る。
パケット制御部2242は、パケット生成部2241が生成したパケットと、ネットワークアダプタ2100から取得したネットワーク上のパケットと、のそれぞれについて図10(A)の処理を行う。このような処理により、優先度のより高いパケットが選択されてパケット保持領域2243に格納される。
図10(B)は、パケット保持領域2243に格納されたパケットを、優先度に応じてネットワークに送出する処理を示す。ステップS1007でパケット制御部2242は、ネットワークアダプタ2100へのパケットの出力可否を確認し、出力が可能になるまで待機する。出力が可能になると、処理はS1008に進む。ステップS1008でパケット制御部2242は、パケット保持領域2243に格納されたパケットのうち、最も優先度の高いパケットを、ネットワークアダプタ2100を介してネットワークに送出する。図10(B)の処理を繰り返すことにより、優先度のより高いパケットが選択されてネットワークに送出される。
このような図10(A)及び(B)に示す処理により、カメラ112(第2の撮像装置)に接続されているカメラアダプタ120の伝送部2200は、撮像画像の送信制御を行うことができる。特に伝送部2200は、カメラ112(第2の撮像装置)による撮像画像及び他のカメラ112(第1の撮像装置)による撮像画像のそれぞれについて、優先度に従って送信先装置に送信するか否かを制御することができる。
上記の例では、各センサシステム110の伝送処理部2240が、パケット制御部2242及びパケット保持領域2243によって実現されるパケット制御機能を有している。一方で、全てのセンサシステム110の伝送処理部2240が上記のようなパケット制御機能を備えている必要はなく、例えば、一部のセンサシステム110の伝送処理部2240のみがこのようなパケット制御機能を備えていてもよい。また、伝送処理部2240がこのようなパケット制御機能を備える代わりに、ネットワーク上に、上記のパケット制御機能を有する独立した装置が設けられていてもよい。
本実施形態に係る制御装置は、撮像装置の撮像画像に対する優先度を設定することができる。また、この優先度に従って撮像画像の転送又は格納を制御することができる。このような構成によれば、仮想視点コンテンツの品質低下を抑制しながら画像データ量を減らすことができる。また、画像データ量が伝送帯域を超える場合であっても、優先度に従って画像データを破棄することができる。これにより、意図しない画像情報の欠損を防ぎ、被写体が移動したとしても、安定した品質の仮想視点コンテンツを得ることができる。本実施形態によれば、カメラ112の台数などの画像処理システムの規模、及び撮像画像の解像度及び出力フレームレートなどによらず、仮想視点コンテンツを容易に生成することができる。
[実施形態2]
実施形態2においては、実施形態1とは異なる方法で優先度が算出される。実施形態1においては、被写体の位置から撮像装置へと向かう視点方向と、被写体の位置から他の撮像装置へと向かう視点方向と、の近さの評価値に応じて、撮像装置による撮像画像に対する優先度が算出された。実施形態2では、被写体の位置から、この撮像装置とは異なる撮像装置へと向かう視点方向と、被写体の位置から他の撮像装置へと向かう視点方向と、の近さの評価値にさらに応じて、撮像装置による撮像画像に対する優先度が算出される。
実施形態2に係る画像処理システム100の構成及び処理は実施形態1と同様であるが、ステップS406~S409の代わりに、図12のフローチャートに従って優先度が算出される。ステップS1201の処理はステップS407と同様であるが、選択された全ての視点から被写体位置への視線が算出される。優先度算出部2324は、全てのカメラ112を視点として選択することができる。また、優先度算出部2324は、実施形態1と同様に、被写体の位置に基づいて、被写体が撮像範囲内に存在するカメラ112を視点として選択することもできる。ステップS1202の処理で優先度算出部2324は、全ての選択された視点について、2つの隣接視点の視線が成す角を、優先度として算出する。算出方法はステップS408と同様である。
ステップS1203で優先度算出部2324は、選択された各視点の優先度と比較して、優先度の算出対象であるカメラ112aの優先度が最も低いか否かを判定する。最も低くない場合、処理はステップS1204に進む。最も低い場合、処理はステップS1205に進む。
ステップS1204において優先度算出部2324は、選択している視点から優先度が最も低い視点を除外し、その後処理はステップS1202に戻る。ステップS1205において優先度算出部2324は、カメラ112aの優先度を出力する。こうして出力された優先度が、カメラ112aの優先度として用いられる。
このように実施形態2では、カメラ112a以外のカメラ112についての、被写体の位置からカメラ112へと向かう視点方向と、被写体の位置から隣接視点へと向かう視点方向と、の近さの評価値をさらに考慮して、優先度が算出される。このような構成によれば、自身よりも優先度が低いために、本実施形態の構成において撮像画像がより欠落しやすい、自身以外のカメラの存在を考慮して優先度を算出することができる。
例えば、図7の例において、カメラ112a、カメラ112h、及びカメラ112iは、視点方向が隣接視点と近いため、低い優先度が算出される。しかしながら、実施形態2においては、最も優先度が低いカメラ112hが選択している視点から最初に除外されるため、カメラ112a及びカメラ112iの優先度がより高くなる。また、次にカメラ112aが選択している視点から除外されると、カメラ112iの優先度がカメラ112gよりも高くなる。図11(A)は、このような例において、伝送帯域に応じてより優先度が低い3つのカメラからの撮像画像を欠落させた様子を表す。実施形態1に従って、より優先度が低いカメラ112a、カメラ112h、及びカメラ112iからの撮像画像を欠落させた様子を表す図11(B)と比較して、全周で角密度の偏りが小さくなっていることがわかる。角密度の偏りを小さくすることにより、撮像画像が欠落した際に隣接視点からの撮像画像により補償される可能性を高め、生成される仮想視点画像に対する欠落の影響を小さくすることができる。
[実施形態3]
実施形態3においては、優先度算出部2324は、被写体の位置に応じた優先度を、撮像装置による撮像画像に対して設定する。このような被写体の位置に応じた優先度は、予め定めることができる。実施形態3に係る画像処理システム100の構成及び処理は実施形態1と同様であるが、ステップS406~S409の代わりに、優先度算出部2324は以下の方法に従って優先度を設定することができる。
実施形態3では、撮像フィールド内における被写体の位置に応じた優先度が予め設定されている。図14に示すように、複数のカメラ112は、被写体が存在する撮像平面である撮像フィールド790を取り囲むように配置されている。このような撮像フィールド790を、図14に示すように複数の領域に分割することができる。図14の例では、撮像フィールドが4×7ブロックに分割され、それぞれのブロックには1~28のインデックスが付されている。
それぞれのブロックについての、複数のカメラ112のそれぞれの優先度は、実施形態1又は2の方法に従って設定することができる。例えば、被写体の位置がブロックの中心である場合に、実施形態1又は2に従って複数のカメラ112のそれぞれについて算出される優先度を、このブロックについての優先度として設定することができる。例えば、ブロックの中心を撮像領域に含む全ての視点からカメラ112aの隣接視点を選択し、2つの隣接視点の視線が成す角を、このブロックについてのカメラ112aの優先度として算出することができる。このような優先度は、例えば、サーバ200などがカメラパラメータに基づいて予め算出することができる。そして、各カメラアダプタ120は、このように設定された優先度をネットワークを介して取得することができる。
このような構成において、優先度算出部2324は、被写体が位置するブロックを判定し、判定されたブロック及びカメラ112に対応する予め定められた優先度を、カメラの撮像画像に対する優先度として設定することができる。このような構成によれば、実施形態1,2と同様の符号量制御を、少ない処理量で実現することができる。すなわち、予め各ブロックについての視点毎の優先度テーブルを生成することで、撮像中における視点方向及び視線がなす角の算出処理を省略することができる。このため、処理負荷が軽減され、より高いフレームレートでの撮像が可能となる。
[その他の実施形態]
画像処理システムを構成する各装置のハードウェア構成について、より詳細に説明する。カメラアダプタ120は、FPGA及び/又はASICなどのハードウェアにより実装されていてもよい。これは、センサシステム110が有する各部や、端末190、サーバ200、及びコントローラ300についても同様である。しかしながら、画像処理システムを構成する装置の少なくとも1つが、ソフトウェア処理を行うことにより、上記の処理が実現されてもよい。すなわち、例えばCPU、GPU、又はDSPのようなプロセッサが、メモリ上のプログラムに従って動作することにより、上記の処理を実現することができる。
図13は、図2に示す機能構成をソフトウェア処理によって実現するための、カメラアダプタ120のハードウェア構成を示すブロック図である。なお、端末190、サーバ200、又はコントローラ300が、図13に示すハードウェア構成を有していてもよい。
カメラアダプタ120は、CPU1201、ROM1202、RAM1203、補助記憶装置1204、表示部1205、操作部1206、通信部1207、及びバス1208を有する。CPU1201はプロセッサであり、ROM1202又はRAM1203に格納されているコンピュータプログラム及びデータを用いてカメラアダプタ120の全体を制御する。ROM1202は、変更を必要としないプログラム及びパラメータを格納する記憶媒体である。RAM1203は、ROM1202又は補助記憶装置1204から供給されるプログラム及びデータ、並びに通信部1207を介して外部から供給されるデータなどを一時記憶するメモリである。補助記憶装置1204は、静止画及び動画などのコンテンツデータを記憶することができる記憶媒体であり、例えばハードディスクドライブである。
表示部1205は、ユーザがカメラアダプタ120を操作するためのGUI(Graphical User Interface)のような情報を表示することができ、例えば液晶ディスプレイなどである。操作部1206は、ユーザによる操作に従って各種の指示をCPU1201に入力することができ、例えばキーボードやマウスなどである。通信部1207は、カメラ112又はフロントエンドサーバ230などの外部の装置と通信を行うことができる。例えば、カメラアダプタ120が外部の装置と有線で接続される場合には、LANケーブルなどの通信ケーブルが通信部1207に接続される。また、カメラアダプタ120が外部の装置と無線通信する機能を有する場合、通信部1207はアンテナを備える。バス1208は、カメラアダプタ120の各部を繋いで情報を伝達する。
なお、例えばカメラアダプタ120のような各装置の処理のうち一部がFPGAにより行われ、別の一部の処理がプロセッサを用いたソフトウェア処理によって実現されてもよい。また、表示部1205と操作部1206の少なくとも一方は、カメラアダプタ120の内部に存在してもよいし、外部に存在してもよい。また、CPU1201が、カメラアダプタ120の外部に存在する表示部1205を制御する表示制御部として動作してもよいし、カメラアダプタ120の外部に存在する操作部1206を制御する操作制御部として動作してもよい。
上記の符号量制御方法は一例に過ぎない。例えば一実施形態に係る画像処理システムは、互いに接続され、それぞれ異なる視点から被写体の撮像を行う、センサシステム110のような複数の撮像システムを備えている。そして、複数の撮像システムのうちの少なくとも1つである第2の撮像システムは、複数の撮像システムのうちの1つである第1の撮像システムによる撮像画像を受信することができる。また、第2の撮像システムは、自身による撮像画像と第1の撮像システムによる撮像画像との送信を、被写体の位置に基づいて制御することができる。このような構成によっても、被写体の位置に応じて、仮想視点コンテンツの品質低下を抑制できるように、画像データの転送量を減らすことができる。具体的な送信制御方法としては、例えば実施形態1~3の方法が挙げられる。
画像処理システムの設置場所は特に限定されない。例えば、画像処理システムを設置可能な施設としては、競技場及びコンサートホールの他に、遊園地、公園、競馬場、競輪場、カジノ、プール、スケートリンク、スキー場、及びライブハウスなどが挙げられる。また、画像処理システムを設置可能な施設には、一時的に(期間限定で)建設される施設も含まれる。さらに、画像処理システムによる撮像の対象は、屋内で行われるイベントであっても屋外で行われるイベントであってもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。
100:画像処理システム、110:センサシステム、112:カメラ、120:カメラアダプタ、2200:伝送部、2240:伝送処理部、2300:画像処理部、2320:優先度生成部

Claims (15)

  1. それぞれ異なる視点から被写体の撮像を行う複数の撮像装置を備える画像処理システムが有する制御装置であって、
    前記複数の撮像装置は、1つの撮像装置と、前記1つの撮像装置とは他の撮像装置とを含み、
    前記被写体の位置を取得する取得手段と、
    前記被写体の位置から前記1つの撮像装置へと向かう視点方向と、前記被写体の位置から前記他の撮像装置へと向かう視点方向と、の類似性に応じた優先度を、前記1つの撮像装置による撮像画像に対して設定する設定手段と、
    を備え、前記優先度は、前記撮像画像の転送又は格納の優先度であることを特徴とする制御装置。
  2. 前記設定手段は、前記被写体の位置から前記1つの撮像装置へと向かう視点方向と、前記被写体の位置から前記他の撮像装置へと向かう視点方向と、の近さの評価値に応じた優先度を、前記1つの撮像装置による前記撮像画像に対して設定することを特徴とする、請求項に記載の制御装置。
  3. 前記複数の撮像装置は、前記1つの撮像装置と異なる撮像装置を含み、前記他の撮像措置は前記1つの撮像装置及び前記1つの撮像装置と異なる前記撮像装置とは他の撮像装置であり、
    前記設定手段は、前記被写体の位置から前記1つの撮像装置と異なる前記撮像装置へと向かう視点方向と、前記被写体の位置から前記他の撮像装置へと向かう視点方向と、の近さの評価値にさらに応じた優先度を、前記1つの撮像装置による前記撮像画像に対して設定することを特徴とする、請求項に記載の制御装置。
  4. 前記設定手段は、前記被写体の位置に基づいて、前記被写体が撮像範囲内に存在する撮像装置を前記複数の撮像装置から選択し、前記被写体の位置から前記1つの撮像装置へと向かう視点方向と、前記被写体から、前記選択された撮像装置のそれぞれへと向かう視点方向と、の類似性に応じた優先度を、前記1つの撮像装置による前記撮像画像に対して設定することを特徴とする、請求項1からのいずれか1項に記載の制御装置。
  5. 前記取得手段は、前記撮像画像に対する被写体抽出の結果を用いて前記被写体の位置を取得することを特徴とする、請求項1からのいずれか1項に記載の制御装置。
  6. 前記制御装置は、前記撮像画像に対して、前記1つの撮像装置の振動の影響を低減する補正処理を行う補正手段をさらに備え、
    前記取得手段は、前記補正処理後の撮像画像を用いて、前記被写体の位置を取得することを特徴とする、請求項に記載の制御装置。
  7. 前記複数の撮像装置のうちの少なくとも1つが前記制御装置を有することを特徴とする、請求項1からのいずれか1項に記載の制御装置。
  8. 前記複数の撮像装置のそれぞれが前記制御装置を有し、
    前記制御装置は、自装置を有している撮像装置による撮像画像に対して優先度を設定することを特徴とする、請求項1からのいずれか1項に記載の制御装置。
  9. 前記複数の撮像装置が、第1の撮像装置及び第2の撮像装置を含み、
    前記制御装置は前記第2の撮像装置に接続され、
    前記制御装置は、前記第1の撮像装置による撮像画像を受信し、前記第1の撮像装置による撮像画像と前記第2の撮像装置による撮像画像との送信先装置への送信を、それぞれの前記撮像画像に設定された前記優先度に従って制御する伝送手段をさらに備えることを特徴とする、請求項又はに記載の制御装置。
  10. 前記伝送手段は、前記第1の撮像装置による撮像画像及び前記第2の撮像装置による撮像画像のそれぞれについて、前記優先度に従って前記送信先装置に送信するか否かを制御することを特徴とする、請求項に記載の制御装置。
  11. それぞれが請求項1から10のいずれか1項に記載の制御装置と前記複数の撮像装置のうちの1つとを備える複数の撮像システムと、前記複数の撮像装置のそれぞれによる撮像画像を格納する格納装置と、を備えることを特徴とする画像処理システム。
  12. 前記複数の撮像システムのうち2以上が、前記格納装置に対して直列に接続されていることを特徴とする、請求項11に記載の画像処理システム。
  13. 前記複数の撮像システムがそれぞれ有する撮像装置は、同期して撮像を行い、撮像により得られた撮像画像を前記格納装置に向けて出力することを特徴とする、請求項11又は12に記載の画像処理システム。
  14. それぞれ異なる視点から被写体の撮像を行う複数の撮像装置を備える画像処理システムが有する制御装置が行う制御方法であって、
    前記複数の撮像装置は、1つの撮像装置と、前記1つの撮像装置とは他の撮像装置とを含み、
    前記被写体の位置を取得する取得工程と、
    前記被写体の位置から前記1つの撮像装置へと向かう視点方向と、前記被写体の位置から前記他の撮像装置へと向かう視点方向と、の類似性に応じた優先度を、前記1つの撮像装置による撮像画像に対して設定する設定工程と、
    を有し、前記優先度は、前記撮像画像の転送又は格納の優先度であることを特徴とする制御方法。
  15. コンピュータを、請求項1から10のいずれか1項に記載の制御装置の各手段として機能させるためのプログラム。
JP2019037771A 2019-03-01 2019-03-01 制御装置、画像処理システム、制御方法及びプログラム Active JP7281923B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019037771A JP7281923B2 (ja) 2019-03-01 2019-03-01 制御装置、画像処理システム、制御方法及びプログラム
US16/797,552 US11050992B2 (en) 2019-03-01 2020-02-21 Control apparatus, image processing system, control method, and medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019037771A JP7281923B2 (ja) 2019-03-01 2019-03-01 制御装置、画像処理システム、制御方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2020141375A JP2020141375A (ja) 2020-09-03
JP2020141375A5 JP2020141375A5 (ja) 2022-03-08
JP7281923B2 true JP7281923B2 (ja) 2023-05-26

Family

ID=72236281

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019037771A Active JP7281923B2 (ja) 2019-03-01 2019-03-01 制御装置、画像処理システム、制御方法及びプログラム

Country Status (2)

Country Link
US (1) US11050992B2 (ja)
JP (1) JP7281923B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7418101B2 (ja) * 2019-07-26 2024-01-19 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
US11622100B2 (en) * 2021-02-17 2023-04-04 flexxCOACH VR 360-degree virtual-reality system for dynamic events
CN114025107B (zh) * 2021-12-01 2023-12-01 北京七维视觉科技有限公司 图像重影的拍摄方法、装置、存储介质和融合处理器

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005354289A (ja) 2004-06-09 2005-12-22 Ntt Docomo Inc 端末装置、環境管理サーバ、カメラサーバ及び映像生成方法
JP2015204512A (ja) 2014-04-14 2015-11-16 パナソニックIpマネジメント株式会社 情報処理装置、情報処理方法、カメラ、受信装置、受信方法
JP2018195883A (ja) 2017-05-12 2018-12-06 キヤノン株式会社 画像処理システム、制御装置、制御方法、及び、プログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001072052A2 (en) * 2000-03-24 2001-09-27 Reality Commerce Corporation Method and apparatus for parallel multi-viewpoint video capturing and compression
US8872888B2 (en) * 2010-10-01 2014-10-28 Sony Corporation Content transmission apparatus, content transmission method, content reproduction apparatus, content reproduction method, program and content delivery system
JP5869839B2 (ja) 2011-10-31 2016-02-24 キヤノン株式会社 画像処理装置およびその制御方法
JP2016524125A (ja) * 2013-03-15 2016-08-12 ペリカン イメージング コーポレイション カメラアレイを用いた立体撮像のためのシステムおよび方法
JP2016039618A (ja) * 2014-08-11 2016-03-22 ソニー株式会社 情報処理装置および情報処理方法
US10275935B2 (en) * 2014-10-31 2019-04-30 Fyusion, Inc. System and method for infinite synthetic image generation from multi-directional structured image array
US10176592B2 (en) * 2014-10-31 2019-01-08 Fyusion, Inc. Multi-directional structured image array capture on a 2D graph
US9942474B2 (en) * 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
US9578279B1 (en) * 2015-12-18 2017-02-21 Amazon Technologies, Inc. Preview streaming of video data
JP6166409B1 (ja) * 2016-03-16 2017-07-19 ヤフー株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JPWO2018021067A1 (ja) * 2016-07-29 2019-05-09 ソニー株式会社 画像処理装置および画像処理方法
JP2018081410A (ja) * 2016-11-15 2018-05-24 セイコーエプソン株式会社 コンピュータープログラム
JP7320352B2 (ja) * 2016-12-28 2023-08-03 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元モデル送信方法、三次元モデル受信方法、三次元モデル送信装置及び三次元モデル受信装置
JP7109907B2 (ja) * 2017-11-20 2022-08-01 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005354289A (ja) 2004-06-09 2005-12-22 Ntt Docomo Inc 端末装置、環境管理サーバ、カメラサーバ及び映像生成方法
JP2015204512A (ja) 2014-04-14 2015-11-16 パナソニックIpマネジメント株式会社 情報処理装置、情報処理方法、カメラ、受信装置、受信方法
JP2018195883A (ja) 2017-05-12 2018-12-06 キヤノン株式会社 画像処理システム、制御装置、制御方法、及び、プログラム

Also Published As

Publication number Publication date
US11050992B2 (en) 2021-06-29
US20200280708A1 (en) 2020-09-03
JP2020141375A (ja) 2020-09-03

Similar Documents

Publication Publication Date Title
JP7121470B2 (ja) 画像処理システム、制御方法、及び、プログラム
US11750792B2 (en) Information processing apparatus, image generation method, control method, and storage medium
US11689706B2 (en) Method for generating virtual viewpoint image and image processing apparatus
JP7320352B2 (ja) 三次元モデル送信方法、三次元モデル受信方法、三次元モデル送信装置及び三次元モデル受信装置
US11037364B2 (en) Image processing system for generating a virtual viewpoint image, method of controlling image processing system, and storage medium
KR102121931B1 (ko) 제어 디바이스, 제어 방법 및 저장 매체
KR102129792B1 (ko) 정보 처리 장치, 화상 생성 방법, 제어 방법 및 프로그램
US11190673B2 (en) Control device, control method, and program
JP7281923B2 (ja) 制御装置、画像処理システム、制御方法及びプログラム
WO2020162542A1 (ja) 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、および、三次元データ復号装置
JP7042571B2 (ja) 画像処理装置およびその制御方法、プログラム
US10812770B2 (en) Image processing system, image processing apparatus, image processing method, and program
US10708469B2 (en) Image processing apparatus, method of controlling the same, non-transitory computer-readable storage medium, and image processing system
JP2019022151A (ja) 情報処理装置、画像処理システム、制御方法、及び、プログラム
JP6871801B2 (ja) 画像処理装置、画像処理方法、情報処理装置、撮像装置および画像処理システム
JP2019103067A (ja) 情報処理装置、記憶装置、画像処理装置、画像処理システム、制御方法、及びプログラム
JP2019191989A (ja) 仮想視点画像を生成するシステム、方法及びプログラム
US20180376131A1 (en) Image processing apparatus, image processing system, and image processing method
JP2018191251A (ja) 情報処理システム、情報処理方法、およびプログラム
JP2020092301A (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP2021119459A (ja) 生成装置、生成方法
JP2019140483A (ja) 画像処理システム、画像処理システムの制御方法、伝送装置、伝送方法及びプログラム
JP2019050593A (ja) 画像処理システム、画像処理装置、制御方法、及び、プログラム
JP2021077120A (ja) 画像処理システム、制御装置およびその制御方法、画像伝送方法、プログラム
JP7104504B2 (ja) 画像処理システム、画像処理装置、画像伝送方法、及び、プログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220228

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221028

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230417

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230516

R151 Written notification of patent or utility model registration

Ref document number: 7281923

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151