JP6482580B2 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP6482580B2
JP6482580B2 JP2017022717A JP2017022717A JP6482580B2 JP 6482580 B2 JP6482580 B2 JP 6482580B2 JP 2017022717 A JP2017022717 A JP 2017022717A JP 2017022717 A JP2017022717 A JP 2017022717A JP 6482580 B2 JP6482580 B2 JP 6482580B2
Authority
JP
Japan
Prior art keywords
image
imaging device
shape data
information processing
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017022717A
Other languages
English (en)
Other versions
JP2018129736A (ja
Inventor
靖 四方
靖 四方
一弘 松林
一弘 松林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017022717A priority Critical patent/JP6482580B2/ja
Priority to EP18155825.5A priority patent/EP3361724B1/en
Priority to US15/892,209 priority patent/US10699473B2/en
Priority to CN201810131775.0A priority patent/CN108418998B/zh
Publication of JP2018129736A publication Critical patent/JP2018129736A/ja
Application granted granted Critical
Publication of JP6482580B2 publication Critical patent/JP6482580B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/23412Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs for generating or manipulating the scene composition of objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • H04N23/662Transmitting camera control signals through networks, e.g. control via the Internet by using master/slave camera arrangements for affecting the control of camera image capture, e.g. placing the camera in a desirable condition to capture a desired image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/2226Determination of depth image, e.g. for foreground/background separation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Description

本発明は、情報処理装置、情報処理方法、およびプログラムに関し、特に、撮像画像を監視するために用いて好適なものである。
近年、複数の撮像装置を異なる位置に設置し、複数の撮像装置が同期して被写体を撮像し、当該撮像により得られた複数の視点の画像を用いて、撮像装置の設置位置の画像だけでなく任意の視点の画像を仮想視点画像として生成する技術が注目されている。
複数の視点の画像に基づく仮想視点画像の生成および閲覧は、次のようにして実現することができる。まず、複数の撮像装置が撮像した画像をサーバなどの画像生成装置に集約する。そして、画像生成装置は、複数の撮像装置が撮像した画像を用いて、仮想視点に基づくレンダリングなどの処理を施して仮想視点画像を生成し、ユーザの視聴端末に仮想視点画像を表示する。
仮想視点画像を用いれば、例えば、画像生成装置は、サッカーやバスケットボールの試合を撮像した画像から、画像コンテンツ制作者により指定された視点に応じた仮想視点画像を生成することにより迫力のある視点のコンテンツを制作することができる。また、コンテンツを視聴しているユーザ自身が視聴端末に備えたコントローラやタブレット等を使用して自由に視点を移動し、画像生成装置がその視点に応じた仮想視点画像を表示することにより、ユーザは、自身の好みの視点で、試合を観戦することができる。従って、仮想視点画像を用いたサービスでは、従来の撮像画像と比較してユーザにその場面にいるような臨場感を与えることができる。
一方で、仮想視点画像の画質は、「注視する対象物」の画質に大きく依存する。「注視する対象物」とは、例えば、サッカーやバスケットボールの試合であれば、選手やボールである。こうした「注視する対象物」の画質を高めるためには、その画像の元となるカメラの撮像画像を監視し、「注視する対象物」やその周辺に、異常が発生していないか確認することが求められる。具体的には、例えば、「注視する対象物」に、応援旗などの障害物が映り込んでいないことや、適正な露出状態になっていることを確認することが求められる。
注視する対象物を確認するための技術として特許文献1に記載の技術がある。特許文献1に記載の技術では、まず、注視する対象物としての見守り対象者を撮像した撮像画像から、見守り対象者を前景画像として抽出する。そして、前景画像と背景画像との深度の差分情報から、見守り対象者の位置や行動を推定する。
特開2014−236896号公報
しかしながら、特許文献1に記載の技術では、注視する対象物の位置や行動を監視するのみである。従って、特許文献1に記載の技術では、仮想視点画像を生成するシステムの様に、多数の撮像装置を設置し、撮像画像に複数の対象物が存在する場合、障害物の有無や露出オーバー/露出アンダーの発生などを、低負荷で且つ高い精度で監視することは容易でない。
本発明は、かかる課題に鑑みてなされたものであり、その目的は、複数の撮像画像の監視負担を低減しつつも高い精度で撮像画像の監視を行うことができるようにすることを目的とする。
本発明の情報処理装置は、複数の撮像装置により取得された複数の撮像画像に基づいて生成されるオブジェクトの三次元形状データを用いて仮想視点の位置及び方向に応じた仮想視点画像を生成するシステムにおける、三次元形状データの生成対象であるオブジェクトの撮像状態を表す画像を表示させる情報処理装置であって、前記複数の撮像装置により取得された複数の撮像画像から抽出される、三次元形状データの生成対象であるオブジェクト画像を取得する取得手段と、前記取得手段により取得されたオブジェクト画像を、三次元形状データの生成対象であるオブジェクトの撮像状態を表す画像として表示画面上に表示させる表示制御手段と、を有することを特徴とする。
本発明によれば、複数の撮像画像の監視負担を低減しつつも高い精度で撮像画像の監視を行うことができるようになる。
画像監視システムの構成を示す図である。 撮像装置の配置を示す図である。 撮像装置のハードウェアの構成を示す図である。 撮像装置の機能的な構成の第1の例を示す図である。 撮像装置の動作の第1の例を示すフローチャートである。 前景画像データおよび背景画像データを示す図である。 画像生成装置のハードウェアの構成を示す図である。 画像生成装置の機能的な構成の第1の例を示す図である。 画像生成装置の動作を示すフローチャートである。 画像監視装置の機能的な構成の第1の例を示す図である。 画像監視装置の動作の第1の例を示すフローチャートである。 画像監視装置により表示される表示イメージの第1の例を示す図である。 表示イメージの生成処理の第1の例を示すフローチャートである。 撮像装置の機能的な構成の第2の例を示す図である。 サイズ判定部の処理の一例を示すフローチャートである。 撮像装置の機能的な構成の第3の例を示す図である。 注視点エリアを示す図である。 撮像装置の動作の第2の例を示すフローチャートである。 撮像装置の機能的な構成の第4の例を示す図である。 画像生成装置の機能的な構成の第2の例を示す図である。 2次元配置情報を示す図である。 2次元配置情報を説明する図である。 撮像装置の動作の第3の例を示すフローチャートである。 画像監視装置の機能的な構成の第2の例を示す図である。 画像監視装置により表示される表示イメージの第2の例を示す図である。 表示イメージの生成処理の第2の例を示すフローチャートである。
以下、図面を参照して、本発明の実施形態を説明する。
(第1の実施形態)
まず、第1の実施形態を説明する。本実施形態では、各撮像装置から前景画像データのみを画像監視装置へ伝送し、画像監視装置で、撮像装置毎に、前景画像データを表示する場合を例に挙げて示す。
図1は、本実施形態の画像監視システムの構成の一例を示す図である。本実施形態の画像監視システムは、複数の撮像装置100−1、100−2、・・・100−nを有する撮像装置群100と、画像生成装置200と、ユーザ端末300と、画像監視装置400と、分配装置500とを有する。各々の装置は、画像や制御情報を伝送する為の伝送ケーブルを介して相互に通信可能に接続される。伝送ケーブルの具体例としては、Ethernet(登録商標)であるIEEE標準準拠のGbE(ギガビットイーサーネット)や10GbEが挙げられる。ただし、伝送ケーブルは、これらに限定されず、他の種別のケーブルであってもよい。また、各々の装置は、無線通信を行ってもよい。
撮像装置群100は、n個の撮像装置(撮像装置100−1、100−2、・・・、100−n)を有する。以下、特定の撮像装置を示さない場合、撮像装置100−1、100−2、・・・、100−nを、撮像装置100−xと称する。
相互に隣り合う位置にある撮像装置100−x同士は、伝送ケーブルを介して相互に接続される。撮像装置100−xは、撮像画像やそれに付随するメタ情報を画像生成装置200および画像監視装置400へ伝送する。図1では、撮像装置100−1は、撮像装置100−2と相互に接続される。また、撮像装置100−2は、撮像装置100−1に加え、撮像装置100−2と隣り合う位置にある不図示のもう1つの撮像装置と相互に接続される。そして、撮像装置100−nは、撮像装置100−nと隣り合う位置にある不図示の撮像装置と相互に接続される。また、撮像装置100−nは、分配装置500と相互に接続される。
撮像装置100−xは、サッカー場などの競技場や特定の被写体を取り囲むように配置される。図2は、撮像装置100−xの配置の一例を示す図である。図2に示す例では、サッカー場などの競技場210の全てまたは一部の範囲が複数の撮像装置100−xで撮像されるように、複数の撮像装置100−xが配置される。
複数の撮像装置100−xは、例えばデジタルカメラであり、外部の不図示の同期装置からの同期信号に基づき、同じタイミングで撮像を行う。撮像装置100−xにより撮像された画像は、伝送ケーブルを介して、分配装置500を通り、画像生成装置200および画像監視装置400に伝送される。撮像装置100−xは、静止画像を撮像するカメラであっても、動画像を撮像するカメラであっても、静止画像および動画像の双方を撮像するカメラであってもよい。
画像生成装置200は、分配装置500を介して撮像装置100−xと相互に接続される。また、画像生成装置200は、ユーザ端末300とも相互に接続される。画像生成装置200は、撮像装置100−xにより撮像された画像を蓄積する。画像生成装置200は、ユーザ端末300の操作に基づく仮想視点情報を入力した場合、複数の撮像装置100−xにより撮像された画像を用いて、仮想視点情報に対応した仮想視点画像を生成する。画像生成装置200は、生成した仮想視点画像を、ユーザ端末300に伝送する。ここで、仮想視点情報には、位置情報と方向情報とが少なくとも含まれる。位置情報は、撮像した競技場210の中央などの所定位置に対する相対的な位置(例えば、所定位置を基準とした場合の、前後方向、左右方向、および左右方向の位置)を示す情報である。方向情報は、その所定位置からの向き(例えば、所定の位置を原点とし、前後方向、左右方向、上下方向を軸とする3次元直交座標系での各軸からの角度)を示す情報である。
画像生成装置200は、例えば、サーバ装置であり、データベース機能(画像保存部202として後述)や、画像処理機能(仮想視点画像生成部203として後述)を有する。画像生成装置200が用いるデータベースは、競技の開始前の競技会場の場面など、予め被写体が存在しない状態の競技会場の場面を撮像した画像を背景画像データとして、予め保持する。
ユーザ端末300は、操作用のコントローラを有する。ユーザ端末300は、ユーザのコントローラの操作に基づいて、例えば、表示位置の移動、表示方向の変更、および視点の切り替えの指示を受け付け、その内容を示す伝送信号を画像生成装置200へ伝送する。また、ユーザ端末300は、画像生成装置200から受信した仮想視点画像をユーザ端末300に備えた表示画面に表示する。仮想視点画像は、静止画像であっても動画像であってもよい。ここで、ユーザ端末300は、例えば、PC(Personal Computer)やタブレットであり、コントローラは、例えば、マウス、キーボード、6軸コントローラ、およびタッチパネルの少なくとも1つを有する。ユーザは、これらのコントローラを操作する。
画像監視装置400は、分配装置500を介して撮像装置100−xと相互に接続される。画像監視装置400は、撮像装置100−xにより撮像された撮像画像を受信し、後述する表示画面(表示部403)に表示する。画像監視装置400には、通常、監視担当者がつく。監視担当者は、表示画面に表示された撮像画像などを用いて、撮像装置群100や画像生成装置200の状態を定常的に監視する。
分配装置500は、撮像装置100−xからの同一の撮像画像を、画像生成装置200および画像監視装置400に分配する。
次に、撮像装置100−xの構成の一例について説明する。
図3は、撮像装置100−xのハードウェアの構成の一例を示す図である。
被写体からの光を撮像光学系301(光学レンズ系)で撮像素子302に結像する。結像された光は撮像素子302で電気信号に変換され、その電気信号がA/Dコンバータ303でデジタル信号に変換され、画像処理回路304に入力される。尚、撮像素子302は、受光面上に結像された像による光信号を、対応する位置の受光画素毎に電気信号に変換する光電変換素子である。
システムコントローラ308は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などを有する。システムコントローラ308は、ROMに記憶されたコンピュータプログラムを実行すること等により撮像装置100−xを制御する。
画像処理回路304は、A/Dコンバータ303から入力したデジタル信号(画像信号)に対して各種の画像処理を行う。画像処理としては、例えば、例えば、ホワイトバランス調整、色補正、およびガンマ補正などが含まれる。画像処理回路304により画像処理された画像信号は記録媒体307に保存されたり、表示装置305により表示されたりする。また、画像処理回路304は、撮像部102から入力された撮像画像(RAW画像)のうち、競技場210で競技中に撮像された画像から選手などの被写体を抽出する処理を実行する。
撮像光学系制御回路306は、システムコントローラ308からの制御信号に基づいて、撮像光学系301に含まれるレンズなどを駆動する。なお、表示装置305は撮像装置100−xに必須の構成ではない。
図4は、本実施形態の撮像装置100−xの機能的な構成の一例を示す図である。図5は、本実施形態の撮像装置100−xの動作の一例を説明するフローチャートである。尚、図5のフローチャートは、例えば、撮像装置100−xで撮像画像が得られる度に実行される。撮像装置100−xは、レンズ部101、撮像部102、前景背景分離部103、メタ情報合成部104、出力部105、および制御部106を有する。これらは、内部バス107によって相互に接続され、制御部106による制御の下、相互にデータを送受信することができる。なお、図4のレンズ部101は、例えば、図3の撮像光学系301及び撮像光学系制御回路306に対応し、図4の撮像部102は、例えば、図3の撮像素子301及びA/Dコンバータ303に対応する。また、図4の前景背景分離部103が実行すべき処理は、例えば、図3の画像処理回路304により実行される。また、図4のメタ情報合成部104、出力部105、及び制御部106の機能は、例えば、図3のシステムコントローラ308により実現される。また、図5の処理は、例えば、図3のシステムコントローラ308が記憶媒体307に記憶された各種プログラムを読み出して各部の制御を実行することにより実現される。以下、各部の構成の一例を詳細に説明する。
レンズ部101は、撮像部102の前段に設置されており、撮像対象からの入射光を撮像部102へ結像する。
撮像部102は、レンズ部101により結像された入射光の露出動作を行い電気信号に変換する。また、撮像部102は、変換後の信号に対して、センサの欠陥やレンズ光学バラつきの補正などの信号処理を施し、RAW画像に変換する。RAW画像は、前景背景分離部103へ出力される。本実施形態では、以上のようにして撮像画像(RAW画像)が取得される(S501)。
前景背景分離部103は、撮像部102から入力された撮像画像(RAW画像)のうち、競技場210で競技中に撮像された画像から選手などの被写体を抽出し、「前景画像データ」として後段のメタ情報合成部104へ出力する。また、前景背景分離部103は、競技の開始前の競技場210の場面など、予め被写体が存在しない状態の競技場210の場面を撮像した画像を「背景画像データ」として、メタ情報合成部104へ出力する。以下、前景背景分離していない撮像画像を、「前景画像データ」および「背景画像データ」と区別するために「前景背景分離前画像データ」と称する。
図6は、「前景背景分離前画像データ」、「前景画像データ」、および「背景画像データ」の一例を示すイメージ図である。図6(a)は、「前景背景分離前画像データ」の一例を示す図である。ここでは、前景背景分離前画像データは、競技場210であるサッカー場で、2人の選手611、612と、サッカーボール620と、サッカーゴール630とを含む撮像画像である。図6(b)は、「前景画像データ」の一例を示す図である。ここでは、2人の選手611、612と、サッカーボール620とが「前景画像データ」として抽出される場合を例に挙げて示す。これらは、それぞれ別の「前景画像データ」として扱われる。つまり図6(b)では、3つの前景画像データが生成される。尚、本実施形態では、「前景画像データ」を矩形データとして扱う(図6(b)の破線を参照)。図6(c)は、「背景画像データ」の一例を示す図である。サッカーゴール630など、競技中ほとんど時間変化のない被写体は「背景画像データ」として扱われる。
被写体である前景の分離方法として、例えば、オブジェクト抽出を含む画像処理を用いた方法を用いることができる。オブジェクト抽出は、撮像画像と背景画像との差分を抽出することにより行われる。尚、前景は、競技する選手だけでなく、例えば、他の特定人物(例えば、控え選手、監督、審判の少なくとも何れか1人)であってもよい。また、前景は、ボールやゴールなど、画像パターンが予め定められている物体であってもよい。また、前景を検出するその他の方法として、例えば、動体が検出されるようにしてもよい。
尚、前景背景分離部103は、「前景画像データ」および「背景画像データ」をRAW画像のままメタ情報合成部104に出力する。ただし、必ずしもこのようにする必要はない。例えば、前景背景分離部103は、「前景画像データ」および「背景画像データ」に対して現像処理を施し、現像処理を施した「前景画像データ」および「背景画像データ」をメタ情報合成部104に出力してもよい。
本実施形態では、以上のようにして「前景画像データ」および「背景画像データ」が取得される(S502)。
メタ情報合成部104は、前景背景分離部103から出力された「前景画像データ」に対して、その画像を識別するための識別情報(以下、メタ情報と称する)を付加する(S503)。本実施形態では、メタ情報には少なくとも以下の情報が含まれる。
・前景画像データの座標情報
・前景画像データのサイズ
・前景画像データの識別情報
・撮像装置100−xの識別情報
「前景画像データの座標情報」とは、「前景背景分離前画像データ」上の「前景画像データ」の表示場所を示す。図6(a)を例に挙げて説明すると、「前景背景分離前画像データ」の左上を原点とした時の各「前景画像データ」の矩形の左上の座標が、「前景画像データの座標情報」として付加される。
「前景画像データのサイズ」とは、「前景背景分離前画像データ」に対する「前景画像データ」の大きさである。図6(a)および図6(b)を例に挙げて説明すると、画素数で「前景画像データ」の大きさを表す。図6(a)のように、「前景背景分離前画像データ」が、4096×2160ピクセルの画像の場合、図6(b)に示したサッカーボールの「前景画像データ」のサイズは、300×300ピクセルである。
「前景画像データの識別情報」とは、前景画像データ自体を識別するための情報である。図6(b)を例に挙げて説明すると、2人の選手611、612とサッカーボール620との其々に、それらを一意に識別するための情報が個別に付加される。
「撮像装置の識別情報」とは、撮像装置100−x自体を識別するための情報である。前述の通り、「撮像装置100−1」、「撮像装置100−2」、および「撮像装置100−n」等の各撮像装置100−xを一意に識別するための情報が、当該撮像装置の識別情報として付加される。
尚、メタ情報合成部104は、この他に、「前景画像データ」に対して、「前景画像データに対応する背景画像データの識別情報」を更に付加しても良い。「前景画像データに対応する背景画像データの識別情報」は、図6(c)に示した背景画像データを一意に識別するための情報である。「前景画像データ」に対して、「前景画像データに対応する背景画像データの識別情報」を付加する場合、メタ情報合成部104は、背景画像データに対しても、それ自体を一意に識別するための情報を付加する。
出力部105は、メタ情報合成部104から出力された「前景画像データ」を、分配装置500を介して、画像生成装置200および画像監視装置400へ所定のフレームレートで出力する(S504)。また、出力部105は、「背景画像データ」を、分配装置500を介して、画像生成装置200へ所定のフレームレートで出力する(S504)。尚、これらのフレームレートは異なっていてもよい。
制御部106は、不図示のユーザI/F部からの制御情報に基づき、撮像装置100−xの各部に制御指示を出す。例えば、制御部106は、ユーザI/F部から、アイリスやISOなどの露出調整のための調整パラメータを受信すると、撮像部102に対して、当該露出制御を行う。
次に、画像生成装置200の構成の一例について説明する。
図7は、画像生成装置200のハードウェアの構成の一例を示す図である。
画像生成装置200は、コントローラユニット700、操作ユニット709、および表示装置710を含む。
コントローラユニット700は、CPU701を有する。CPU701は、ROM702に格納されているブートプログラムによりOS(Operating System)を起動する。CPU701は、このOS上で、HDD(Hard Disk Drive)704に格納されているアプリケーションプログラムを実行する。CPU701は、アプリケーションプログラムの実行によって各種処理を実現する。CPU701の作業領域としてはRAM703が用いられる。HDD704は、アプリケーションプログラムなどを格納する。
CPU701は、システムバス708を介して、ROM702、RAM703、操作部I/F705、表示部I/F706、および通信I/F707と相互に接続される。操作部I/F705は、操作ユニット709とのインタフェースである。操作部I/F705は、操作ユニット709によってユーザにより入力された情報をCPU701に送出する。操作ユニット709は、例えば、マウスおよびキーボードなどを有する。表示部I/F706は、表示装置710に表示すべき画像データを表示装置710に対して出力する。表示装置710は、コンピュータディスプレイを有する。通信I/F707は、伝送ケーブルに接続される。通信I/F707は、伝送ケーブルを介して、外部装置(ユーザ端末300、画像監視装置400、分配装置500)との間で情報の入出力を行う。なお、図7で示した構成のすべてが画像生成装置200において必須の構成とは限らない。例えば表示装置710は必須の構成ではない。画像生成装置200は、ケーブルやネットワークを介して接続された外部の表示装置710に画像を表示させることも可能である。
図8は、本実施形態の画像生成装置200の機能的な構成の一例を示す図である。図9は、本実施形態の画像生成装置200の動作の一例を説明するフローチャートである。画像生成装置200は、画像入力部201、画像保存部202、仮想視点画像生成部203、出力部204、制御部205、およびユーザ入力部206を有する。これらは、内部バス207によって相互に接続され、制御部205による制御の下、相互にデータを送受信することができる。なお、図8の画像入力部201は、例えば、図7の通信I/F707に対応し、図8のユーザ入力部206は、例えば、図7の操作部I/F705に対応し、図8の出力部204は、例えば、図7の表示部I/F706及び通信I/F707に対応する。また、図8の画像保存部202は、例えば、図7のROM702、RAM703、HDD704に対応し、制御部205は、例えば、CPU701に対応する。また、図9の処理は、例えば、図7のCPU701がROM703に記憶された各種プログラムを読み出して各部の制御を実行することにより実現される。以下、各部の一例を詳細に説明する。
画像入力部201は、撮像装置100−xから出力された「前景画像データ」および「背景画像データ」を、分配装置500を介して、各々異なる所定のフレームレートで入力する(S901)。そして、画像入力部201は、入力した「前景画像データ」および「背景画像データ」を画像保存部202へ出力する。尚、撮像装置100−xから出力された「前景画像データ」および「背景画像データ」を入力していない場合、S902を省略して後述のS903に進む。
画像保存部202は、データベースであり、画像入力部201から入力された「前景画像データ」および「背景画像データ」を保存する(S902)。また、画像保存部202は、後述の仮想視点画像生成部203から指定された「前景画像データ」および「背景画像データ」を仮想視点画像生成部203へ出力する。
仮想視点画像生成部203は、制御部205から仮想視点情報を入力したか否かを判定する(S903)。仮想視点情報の生成方法の一例については後述する。この判定の結果、制御部205から仮想視点情報を入力していない場合、S901に戻る。一方、制御部205から仮想視点情報を入力している場合、仮想視点画像生成部203は、仮想視点情報に対応する「前景画像データ」および「背景画像データ」を、画像保存部202から取得する(S904)。
そして、仮想視点画像生成部203は、画像保存部202から取得した「前景画像データ」および「背景画像データ」を画像処理により合成することで仮想視点画像を生成し、出力部105に出力する(S905)。仮想視点画像生成部203は、仮想視点画像を生成する際、「前景画像データ」と「背景画像データ」に付加されているメタ情報を使用してもよい。
仮想視点画像を生成する方式として、例えば、モデルベースレンダリング(Model−Based Rendering:MBR)を用いる方式が挙げられる。MBRとは、被写体を複数の方向から撮像した複数の撮像画像に基づいて生成される三次元モデルを用いて仮想視点画像を生成する方式である。具体的にMBRは、視体積交差法、Multi−View−Stereo(MVS)などの三次元形状復元手法により得られた対象シーンの三次元形状(モデル)を利用し,仮想視点からのシーンの見えを画像として生成する技術である。尚、仮想視点画像の生成方法は、MBRを用いる方法に限定されず、MBR以外のレンダリング手法を用いてもよい。
出力部204は、仮想視点画像生成部203から入力した仮想視点画像をユーザ端末300へ伝送可能な伝送信号に変換して出力する(S906)。
前述したようにユーザ端末300は、ユーザ端末300に接続されたコントローラのユーザによる操作に基づいて、表示位置の移動、表示方向の変更、および視点の切り替えの指示を受け付ける。そして、ユーザ端末300は、その内容を示す伝送信号を画像生成装置200へ伝送する。ユーザ入力部206は、このようにしてユーザ端末300を通して入力された伝送信号を所定の操作情報に変換する。そして、ユーザ入力部206は、その操作情報を制御部205に出力する。
制御部205は、ユーザ入力部206からの操作情報に基づき、画像生成装置200の各部に制御指示を出す。例えば、ユーザ入力部206から、仮想視点の操作情報を受信すると、その操作情報を仮想視点情報に変換し、仮想視点画像生成部203に制御情報として送信する。前述したように、仮想視点画像生成部203は、仮想視点情報を入力すると、仮想視点画像を生成して出力する。
ユーザ端末300は、画像生成装置200から受信した仮想視点画像をユーザ端末300に備えた表示画面に表示する。このようにすることで、ユーザは、自身の操作に基づく視点でコンテンツを視聴する。前述したように、ユーザ端末300は、例えば、PC(Personal Computer)やタブレットであり、コントローラは、例えば、マウス、キーボード、6軸コントローラ、タッチパネルである。ユーザは、これらを用いて操作し、ユーザ端末300に備えた表示画面に静止画像や動画像を表示させる。尚、ユーザ端末300のハードウェアは、例えば、図7に示した構成で実現することができるので、ここでは、その詳細な説明を省略する。
次に、画像監視装置400の構成の一例について説明する。図10は、本実施形態の画像監視装置400の機能的な構成の一例を示す図である。図11は、本実施形態の画像監視装置400の動作の一例を説明するフローチャートである。尚、画像監視装置400のハードウェアは、例えば、図7に示した構成で実現することができるので、ここでは、その詳細な説明を省略する。画像監視装置400は、メタ情報に基づいて前景の画像を分類することを含む処理を行う情報処理装置の一例である。画像監視装置400は、画像入力部401、画像生成部402、表示部403、制御部404、およびユーザ入力部405を有する。これらは、内部バス406によって相互に接続され、制御部404による制御の下、相互にデータを送受信することができる。なお、図10の画像入力部401は、例えば、図7の通信I/F707に対応し、図10のユーザ入力部405は、例えば、図7の操作部I/F705に対応し、図10の表示部403は、例えば、図7の表示部I/F706に対応する。また、図10の画像生成部402及び制御部205は、例えば、CPU701に対応する。また、図11の処理は、例えば、図7のCPU701がROM703に記憶された各種プログラムを読み出して各部の制御を実行することにより実現される。以下、各部の構成の一例を詳細に説明する。
画像入力部401は、撮像装置100−xから出力された「前景画像データ」を、分配装置500を介して、所定のフレームレートで入力する(S1101)。そして、画像入力部401は、入力した「前景画像データ」を画像生成部402へ出力する。
画像生成部402は、画像入力部401から出力された各撮像装置100−xの全ての「前景画像データ」とそれに付加されるメタ情報とに基づき、画像入力部401と同等のフレームレートで、表示部403に表示する表示イメージを生成する(S1102)。この表示イメージの生成は、制御部404からの表示イメージ種別を指定する指示に従って行われる。表示イメージを生成する際のフローの一例については後述する。
表示部403は、フレームバッファおよび表示パネルを有する。表示部403は、画像生成部402から出力された表示イメージをフレームバッファに格納する(上書きする)。そして、表示部403は、フレームバッファに格納した表示イメージを所定のリフレッシュレートで読み出して表示パネルにて表示する(S1103)。表示パネルとは、例えば、液晶パネルや有機ELパネルである。
制御部404は、ユーザ入力部405からの操作情報に基づき、画像監視装置400の各部に制御指示を出す。例えば、制御部404は、ユーザ入力部405から、表示イメージ種別の切替指示を示す操作情報を受信すると、その操作情報を該当する表示イメージ種別に変換し、画像生成部402に送信する。
本実施形態では、以下の表示イメージ種別があるものとする。
・撮像装置別前景表示イメージ
表示イメージの具体的な内容の一例については後述する。
ユーザ入力部405は、不図示のコントローラから入力された操作情報を受け付け、制御部404に出力する。コントローラは、例えば、マウス、キーボード、6軸コントローラ、およびタッチパネルの少なくとも何れか1つである。
図12は、本実施形態の画像監視装置400により表示される表示イメージの一例を示す図である。図12では、前述した「撮像装置別前景表示イメージ」(表示イメージ種別)の一例を示す。表示部403は、撮像装置100−x毎に同一のタイミングで撮像された前景のみを一覧で表示し、前述した不図示の同期装置からの同期信号と同じ周期で、表示イメージを更新する。つまり、表示部403は、撮像装置100−x毎に、「前景背景分離前画像データ」から「背景画像データ」を差し引いた撮像画像(「前景画像データ」)の一覧を動画像として表示する。図12では、撮像装置100−1〜撮像装置100−16までの16台の撮像装置100−xで撮像された画像から得られる「前景画像データ」の一覧が表示される場合を例に挙げて示す。
次に、表示イメージを生成する際の画像監視装置400の処理の一例について表示イメージ種別が「撮像装置別前景表示イメージ」である場合を例に挙げて説明する。図13は、表示イメージを生成する際の画像監視装置400の処理の一例を説明するフローチャートである。
画像生成部402は、少なくとも撮像装置100−xの数だけワークメモリを確保する(S1301)。例えば、撮像装置100−xが全部で計16台ある場合、画像生成部402は、ワークメモリを少なくとも16個確保する。このワークメモリは、各撮像装置100−xの撮像画像を再現するためのフレームバッファである。また、このワークメモリは、撮像装置100−xの撮像画像と同等の解像度/色深度を再現できるサイズを有する。
その後、画像生成部402は、画像入力部401から、撮像装置100−xの「前景画像データ」を受信する。そうすると、画像生成部402は、受信した「前景画像データ」に付加されているメタ情報(「撮像装置の識別情報」)から、当該「前景画像データ」が、どの撮像装置100−xの「前景画像データ」であるのかを特定する(S1302)。例えば、画像生成部402が特定した撮像装置100−xが、撮像装置100−1であるとする。この場合、以下のS1303以降の処理は、撮像装置100−1のワークメモリに対して行われる。
次に、画像生成部402は、特定した撮像装置100−xの「前景画像データ」のうち、未選択の「前景画像データ」を1つ取得する(S1303)。
次に、画像生成部402は、取得した「前景画像データ」のメタ情報(「前景画像データの座標情報」および「前景画像データのサイズ」)から、当該「前景画像データ」をワークメモリ上のどの場所に貼りつければよいのかを特定する(S1304)。
本実施形態の「前景画像データ」はRAW画像である。そのため、画像生成部402は、「前景画像データ」に現像処理を施す。そして、画像生成部402は、現像処理を施した「前景画像データ」を、S1304で特定された撮像装置100−xのワークメモリに貼りつける(S1305)。
S1303〜S1305の処理は、S1301で特定した撮像装置100−xの残りの「前景画像データ」に対しても繰り返し行われる。従って、画像生成部402は、S1302で特定した撮像装置100−xの全ての「前景画像データ」をワークメモリに貼り付けたか否かを判定する(S1306)。この判定の結果、S1302で特定した撮像装置100−xの全ての「前景画像データ」をワークメモリに貼り付けられていない場合、処理は、S1302に戻る。そして、S1302で特定した撮像装置100−xの全ての「前景画像データ」がワークメモリに貼り付けられるまで、S1303〜S1306の処理が繰り返し実行される。S1302で特定した撮像装置100−xの全ての「前景画像データ」がワークメモリに貼り付けられると、S1307に進む。
そして、画像生成部402は、画像監視装置400に予め設定されている全ての撮像装置100−xについて、全ての「前景画像データ」をワークメモリに貼り付けたか否かを判定する(S1307)。この判定の結果、画像監視装置400に予め設定されている全ての撮像装置100−xについて、全ての「前景画像データ」がワークメモリに貼り付けられていない場合、処理は、S1302に戻る。そして、画像監視装置400に予め設定されている全ての撮像装置100−xについて、全ての「前景画像データ」がワークメモリに貼り付けられるまで、S1302〜S1307の処理が繰り返し実行される。画像監視装置400に予め設定されている全ての撮像装置100−xについて、全ての「前景画像データ」がワークメモリに貼り付けられると、S1308に進む。
そして、画像生成部402は、全てのワークメモリに再現された撮像画像(「前景画像データ」)を、表示部403のフレームバッファに転送することで表示イメージを作成する(S1308)。この際、画像生成部402は、表示部403のフレームバッファのサイズに合わせて、撮像画像(「前景画像データ」)に対して縮小処理を施す。前述の通り、図12が、フレームバッファに作成された表示イメージの一例である。
S1302〜S1308の処理は、少なくとも画像入力部401が入力する「前景画像データ」のフレームレートの期間内に終えるようにする。そして、画像生成部402は、制御部404からの終了指示があったか否かを判定する(S1309)。この判定の結果、制御部404からの終了指示があった場合、図13のフローチャートによる処理が終了する。一方、制御部404からの終了指示がない場合、「前景画像データ」のフレームレートの期間が終了すると、処理は再度S1302に戻り、前述したS1302〜S1309の処理が繰り返される。
以上のように本実施形態では、画像監視装置400は、複数の撮像装置100−xで撮像された撮像画像から「前景画像データ」を抽出して撮像装置100−x毎に分類し、「前景画像データ」のみを表示した表示イメージを撮像装置100−x毎に表示する。従って、複数の撮像装置100−xを備えた画像監視システムにおいて、ユーザが着目する選手やボールなどの「前景画像データ」に限定して、個々の撮像装置100−xの撮像映像の表示ができる。そのため、障害物の有無や露出オーバー/露出アンダーの発生等を低負荷かつ効率的に監視することできる。よって、複数の撮像装置100−xにより撮像された個々の画像の監視負担を低減しつつも十分に行き届いた監視を行うことができる。
また、本実施形態では、前景背景分離部103は「前景画像データ」を「背景画像データ」と分離するが、この分離が常に適切に行われるとは限らない。「前景画像データ」の一部が欠けてしまう、或いは「背景画像データ」とすべき物体を「前景画像データ」としてしまう、などの不具合が発生する虞がある。本実施形態では、このような不具合の発見も効率的に行うことができる。
また、本実施形態では、各撮像装置100−xを数珠つなぎで接続する形態である。このような形態は、サッカー場などの競技場210では、伝送ケーブルの敷設作業やコストを軽減できるメリットがある一方で、撮像画像の伝送帯域に限りがある。このような場合でも本実施形態では、「前景画像データ」に限定した伝送・監視を行うことで、伝送帯域の負荷の軽減を図ることができる。
本実施形態は、仮想視点画像を生成しないシステムにも適用可能である。しかし、前述の通り、画像生成装置200が生成する仮想視点画像の画質は、「前景画像データ」の画質に大きく依存する。そのため、本実施形態は、仮想視点画像を生成するシステムに特に好適な形態となる。
(第2の実施形態)
次に、第2の実施形態を説明する。第1の実施形態では、各撮像装置100−xは、「前景背景分離前画像データ」から分離した「前景画像データ」を無条件で画像生成装置200および画像監視装置400に伝送する場合を例に挙げて説明した。これに対し、本実施形態では、各撮像装置から伝送する「前景画像データ」を所定のサイズ範囲内に限定することで、第1の実施形態と同程度の効果を得つつも、より一層の伝送帯域の負荷の軽減を図る。このように本実施形態と第1の実施形態とは、撮像装置から「前景画像データ」を伝送する際の処理が主として異なる。従って、本実施形態の説明において、第1の実施形態と同一の部分については、図1〜図13に付した符号と同一の符号を付すなどして詳細な説明を省略する。
本実施形態の画像監視システムの構成は、第1の実施形態と同様である。また、画像生成装置200、ユーザ端末300、画像監視装置400、および分配装置500の構成も第1の実施形態と同様である。
図14は、本実施形態の撮像装置1400−xの機能的な構成の一例を示す図であり、図4に示した第1の実施形態の撮像装置100−xと対比されるものである。尚、本実施形態の撮像装置1400−xのハードウェアは、第1の実施形態の撮像装置100−xのハードウェアと同様である。
撮像装置1400−xは、レンズ部101、撮像部102、前景背景分離部103、メタ情報合成部104、出力部105、制御部106、およびサイズ判定部1401を有する。これらは、内部バス107によって相互に接続され、制御部106による制御の下、相互にデータを送受信することができる。なお、サイズ判定部1401の機能は、例えば、画像処理回路304により実現される。
撮像装置1400−xの、サイズ判定部1401以外の部分は、撮像装置100−xと同様である。ただし、前景背景分離部103は、「前景背景分離前画像データ」から分離した「前景画像データ」をメタ情報合成部104ではなく、サイズ判定部1401へ出力するところが、第1の実施形態と異なる。また、メタ情報合成部104は、「前景画像データ」を前景背景分離部103ではなく、サイズ判定部1401から入力するところが、第1の実施形態と異なる。
サイズ判定部1401は、前景背景分離部103から出力された「前景画像データ」のサイズを判定し、所定のサイズ範囲内の「前景画像データ」のみをメタ情報合成部104へ出力する。
図15は、撮像装置1400−xのサイズ判定部1401の処理の一例を説明するフローチャートである。図15のフローチャートは、例えば、図5のS502とS503の間で行われる。
サイズ判定部1401は、前景背景分離部103から出力された「前景画像データ」毎に所定のサイズ範囲内か否かを判定する(S1501)。所定サイズは、固定値でもよいし、制御部106を通して動的に変更される可変値でもよい。例えば、画像生成装置200が、MBRを用いて仮想視点画像を生成する場合、サイズ判定部1401は、三次元形状を作成するために求められるサイズの要件に基づいて、所定サイズを算出することができる。また、サイズ判定部1401は、「前景画像データ」の判定に加えて、例えば、「前景画像データ」の合焦の度合を判定してもよい。
その後、サイズ判定部1401は、所定のサイズ範囲内の「前景画像データ」のみを、メタ情報合成部104へ出力する(S1502)。この際、所定のサイズ範囲内の「前景画像データ」であっても合焦の度合いが所定値よりも低い「前景画像データ」をメタ情報合成部104へ出力しないようにしてもよい。こうすることで、撮像装置1400−xの目前に障害物が発生している場合、その障害物を前景として伝送してしまうリスクを低減できる。
サイズ判定部1401は、S1501〜S1502の処理を、前景背景分離部103から出力された全ての「前景画像データ」に対して行ったか否かを判定する。この判定の結果、S1501〜S1502の処理を、全ての「前景画像データ」に対して行っていない場合、処理は、S1501に戻る。そして、S1501〜S1502の処理が、全ての「前景画像データ」に対して行われるまで、S1501〜S1502の処理が繰り返し行われる。そして、S1501〜S1502の処理が、全ての「前景画像データ」に対して行われると、図15のフローチャートによる処理が終了する。
以上のように本実施形態では、サイズ判定部1401は、前景背景分離部103から出力された「前景画像データ」のうち、サイズに関する所定の条件を満たす「前景画像データ」のみをメタ情報合成部104に出力する。従って、第1の実施形態で説明した効果に加え、画像生成装置200が生成する仮想視点画像にとって優先度の高い画像の監視を行うことができる。よって、第1の実施形態で説明した効果を得つつ、伝送帯域の負荷をより一層低減することができる。
本実施形態では、「前景画像データ」のサイズの判定を撮像装置1400−xで行う場合を例に挙げて説明した。しかしながら、伝送帯域に十分な余裕がある場合、「前景画像データ」のサイズの判定を画像監視装置400側で行ってもよい。
尚、本実施形態においても第1の実施形態で説明した変形例を採用することができる。
(第3の実施形態)
次に、第3の実施形態を説明する。第1の実施形態では、各撮像装置100−xは、「前景背景分離前画像データ」から分離した「前景画像データ」を無条件で画像生成装置200および画像監視装置400に伝送する場合を例に挙げて説明した。これに対し、本実施形態では、各撮像装置は、注視点エリアを撮像している場合にのみ「前景画像データ」を画像生成装置200および画像監視装置400に伝送することで、第1の実施形態と同程度の効果を得つつも、より一層の伝送帯域の負荷の軽減を図る。このように本実施形態と第1の実施形態とは、撮像装置から「前景画像データ」を伝送する際の処理が主として異なる。従って、本実施形態の説明において、第1の実施形態と同一の部分については、図1〜図13に付した符号と同一の符号を付すなどして詳細な説明を省略する。
本実施形態の画像監視システムの構成は、第1の実施形態と同様である。また、画像生成装置200、ユーザ端末300、画像監視装置400、および分配装置500の構成も第1の実施形態と同様である。
図16は、本実施形態の撮像装置1600−xの機能的な構成の一例を示す図であり、図4に示した第1の実施形態の撮像装置100−xと対比されるものである。尚、本実施形態の撮像装置1600−xのハードウェアは、第1の実施形態の撮像装置100−xのハードウェアと同様である。
撮像装置1600−xは、レンズ部101、撮像部102、前景背景分離部103、メタ情報合成部104、出力部105、制御部106、およびエリア情報入力部1601を有する。これらは、内部バス107によって相互に接続され、制御部106による制御の下、相互にデータを送受信することができる。なお、エリア情報入力部1601の機能は、例えば、システムコントローラ308により実現される。すなわち、システムコントローラ308が外部装置と通信を行うことで、後述するエリア情報を取得する。
撮像装置1600−xの、エリア情報入力部1601以外の部分は、撮像装置100−xと同様である。エリア情報入力部1601は、外部から入力された注視点エリア情報を、制御部106へ出力する。
図17は、注視点エリアの一例を示すイメージ図である。図17において、競技場210(サッカー場)に円形で示したところが注視点エリア1701、1702になる。注視点エリア1701、1702は、予め設定されている領域の一例である。撮像装置1600−xは、少なくとも1つ以上ある注視点エリア1701、1702のうち、何れか1つの注視点エリアの中心を、撮像画像の中心とし、そこに焦点を合わせて撮像する。
図17では、2つの注視点エリア1701、1702がある場合を例に挙げて示す。撮像装置1600−1、撮像装置1600−2、および撮像装置1600−3は、注視点エリア1701の中心に撮像画像の中心を合わせている。一方、撮像装置1600−4、撮像装置1600−5、および撮像装置1600−6は、注視点エリア1702の中心に撮像画像の中心を合わせている。注視点エリア情報とは、この注視点エリア1701、1702を一意に識別する識別情報を示す。
図18は、本実施形態の撮像装置1600−xの動作の一例を説明するフローチャートである。尚、図18のフローチャートは、例えば、撮像装置100−xで撮像画像が得られる度に実行される。
まず、制御部106は、エリア情報入力部1601を介して外部装置から注視点エリア情報を入力する(S1801)。ここで外部装置とは、例えば、画像監視装置400である。この場合、画像監視装置400は、例えば、画像監視装置400に付随するコントローラを用いた監視担当者の操作に基づいて注視点エリア情報を入力し、伝送ケーブルを介して各撮像装置1600−xに、当該注視点エリア情報を伝送する。
次に、撮像部102は、第1の実施形態と同様に、「前景背景分離前画像データ」を取得する(S1802)。次に、前景背景分離部103は、「前景背景分離前画像データ」から「前景画像データ」を1つ取得する(S1803)。このとき、前景背景分離部103は、第1の実施形態と同様に、「背景画像データ」を取得してもよい。
制御部106には、予め自身の撮像装置1600−xが、どの注視点エリアを撮像するのかを示す情報が設定されているものとする。制御部106は、この情報に基づいて、S1801で入力された注視点エリア情報が、自身の注視点エリアの情報であるか否かを判定する(S1804)。この判定の結果、S1801で入力された注視点エリア情報が、自身の注視点エリアの情報でない場合、制御部106は、画像監視装置400への「前景画像データ」の出力を停止する(S1805)。
一方、S1801で入力された注視点エリア情報が、自身の注視点エリアの情報である場合、メタ情報合成部104は、前景背景分離部103で取得された「前景画像データ」にメタ情報を付加する(S1806)。
次に、制御部106は、出力部105に対して、「前景画像データ」の出力を指示する。出力部105は、この指示に基づき、メタ情報合成部104から出力された「前景画像データ」を、画像生成装置200および画像監視装置400へ所定のフレームレートで出力する(S1807)。
以上のようにして「前景画像データ」の出力の有無が決定された後、制御部106は、S1801で取得された「前景背景分離前画像データ」から全ての「前景画像データ」が取得されたか否かを判定する(S1808)。この判定の結果、「前景背景分離前画像データ」から全ての「前景画像データ」が取得されていない場合、処理は、S1803に戻る。そして、「前景背景分離前画像データ」から全ての「前景画像データ」が取得されるまで、ステップS1803〜S1808の処理が繰り返し実行される。そして、「前景背景分離前画像データ」から全ての「前景画像データ」が取得されると、図18のフローチャートによる処理が終了する。
以上のように本実施形態では、各撮像装置1600−xは、注視点エリア1701、1702を撮像している場合にのみ「前景画像データ」を画像生成装置200および画像監視装置400に伝送する。従って、監視担当者は、ユーザがより着目していると想定される注視点エリアを監視することができる。よって、第1の実施形態で説明した効果を得つつ、伝送帯域の負荷をより一層低減することができる。例えば、競技場210(サッカー場)において、注視点エリア1701にボールがある場合、大半のユーザは、注視点エリア1701の仮想視点映像を視聴する。そのため、「前景画像データ」の画質がより重要になる注視点エリア1701を撮像する撮像装置1600−xから得られた「前景画像データ」を優先的に監視することで、撮像画像の監視の負荷の低減と、伝送帯域の負荷の低減との両立を図れる。
本実施形態では、ユーザが着目する注視点エリアを、監視担当者が画像監視装置400に付随するコントローラを用いて指定する場合を例に挙げて説明した。しかしながら、注視点エリアを指定する方法は、このような方法に限定されない。例えば、画像監視装置400は、注視点エリア1701、1702毎に前景の数をカウントし、そのカウント数の多い注視点エリアの情報を、注視点エリア情報として撮像装置1600−xに直接伝送してもよい。また、画像監視装置400に、ボールなどの特定オブジェクトを認識する手段を設け、画像監視装置400が、特定オブジェクトを含む注視点エリアを抽出し、抽出した注視点エリアの情報を、注視点エリア情報として撮像装置1600−xに直接伝送してもよい。撮像装置1600−xは、S1801において、このようにして伝送された注視点エリア情報を設定した上で図18の以降の処理を実施する。
また、第2の実施形態と本実施形態とを組み合わせてもよい。即ち、各撮像装置1600−xは、注視点エリア1701、1702を撮像している場合であって、「前景画像データ」がサイズに関する所定の条件を満たす場合に「前景画像データ」を画像生成装置200および画像監視装置400に伝送してもよい。
尚、本実施形態においても第1〜第2の実施形態で説明した変形例を採用することができる。
(第4の実施形態)
次に、第4の実施形態を説明する。第1の実施形態では、各撮像装置100−xは、「前景背景分離前画像データ」から分離した「前景画像データ」を無条件で画像生成装置200および画像監視装置400に伝送する場合を例に挙げて説明した。これに対し、本実施形態では、各撮像装置は、サッカーボールなどユーザが着目する特定のオブジェクトとの距離が所定値以下である「前景画像データ」のみを画像生成装置200および画像監視装置400に伝送する。本実施形態では、このようにすることで、第1の実施形態と同程度の効果を得つつも、より一層の伝送帯域の負荷の軽減を図る。このように本実施形態と第1の実施形態とは、撮像装置から「前景画像データ」を伝送する際の処理が主として異なる。従って、本実施形態の説明において、第1の実施形態と同一の部分については、図1〜図13に付した符号と同一の符号を付すなどして詳細な説明を省略する。
本実施形態の画像監視システムの構成は、第1の実施形態と同様である。また、ユーザ端末300、画像監視装置400、および分配装置500の構成も第1の実施形態と同様である。
図19は、本実施形態の撮像装置1900−xの機能的な構成の一例を示す図であり、図4に示した第1の実施形態の撮像装置100−xと対比されるものである。尚、本実施形態の撮像装置1900−xのハードウェアは、第1の実施形態の撮像装置100−xのハードウェアと同様である。
撮像装置1900−xは、レンズ部101、撮像部102、前景背景分離部103、メタ情報合成部104、出力部105、制御部106、前景距離判定部1901、および2次元配置情報入力部1902を有する。これらは、内部バス107によって相互に接続され、制御部106による制御の下、相互にデータを送受信することができる。なお、2次元配置情報入力部1902の機能は、例えば、システムコントローラ308により実現される。すなわち、システムコントローラ308は、外部装置と通信を行うことで、後述する2次元配置情報を取得する。また、前景背景判定部1901の機能は、例えば、システムコントローラ308により実現される。
撮像装置1900−xの前景距離判定部1901および2次元配置情報入力部1902以外の部分は、撮像装置100−xと同様である。
前景距離判定部1901は、「前景画像データ」(以下、これを比較対象先オブジェクトと称する)と、比較元なる別の特定の「前景画像データ」(以下、これを比較対象元オブジェクトと称する)との距離情報を制御部106から取得する。前景距離判定部1901は、この距離情報に基づいて、当該「前景画像データ」をメタ情報合成部104へ出力するか否かを判定する。この処理の詳細の一例については後述する。
2次元配置情報入力部1902は、後述する画像生成装置2000の2次元配置情報出力部2001から伝送された「2次元配置情報」を入力し、制御部106へ出力する。「2次元配置情報の一例については後述する。
図20は、本実施形態の画像生成装置2000の機能的な構成の一例を示す図であり、図8に示した第1の実施形態の画像生成装置200と対比されるものである。尚、画像生成装置2000のハードウェアは、第1の実施形態の画像生成装置200と同様である。画像生成装置2000は、画像入力部201、画像保存部202、仮想視点画像生成部203、出力部204、制御部205、ユーザ入力部206、および2次元配置情報出力部2001を有する。これらは、内部バス207によって相互に接続され、制御部205の制御の下、相互にデータを送受信することができる。なお、2次元配置情報出力部2001の機能は、例えば、通信I/F707により実現される。
画像生成装置2000の、2次元配置情報出力部2001以外の部分は、画像生成装置200と同様である。2次元配置情報出力部2001は、仮想視点画像生成部203から2次元配置情報を受信して、その2次元配置情報を各撮像装置1900−xへ出力する。これに先立ち、仮想視点画像生成部203は、被写体を複数の方向から撮像した複数の撮像画像に基づいて生成される三次元モデルから2次元配置情報を生成する。
図21は、2次元配置情報の書式例を示す図である。また、図22は、サッカー場を例に挙げて、図21に示す2次元配置情報を説明する図である。2次元配置情報には少なくとも、「前景画像データ」毎に以下の情報が含まれる。
・前景種別
・前景画像データの識別情報
・前景画像データの座標情報
「前景種別」とは、「比較先」か「比較元」かの何れかを示す情報である。ここで「比較元」とは、「比較対象元オブジェクト」を示す。「比較先」とは、「比較対象先オブジェクト」である。図22の例では、「比較元」である比較対象元オブジェクト2201がボールである。また、「比較先」である比較対象先オブジェクト2202、2203が選手である。
「前景画像データの識別情報」は、第1の実施形態で説明した「前景画像データの識別情報」と同様である。「前景画像データの座標情報」も、第1の実施形態で説明した「前景画像データの座標情報」と同様である。ただし、本実施形態では、「前景画像データの座標情報」は、矩形である「前景画像データ」の左上でなく、中心の座標であってもよい。図21では、撮像画像を4096×2160ピクセルとした時の座標情報を例に挙げて、2次元配置情報を示す。
図23は、本実施形態の撮像装置1900−xの動作の一例を説明するフローチャートである。図23のフローチャートは、例えば、撮像装置1900−xで撮像画像が得られる度に実行される。
まず、制御部106は、2次元配置情報入力部1902を介して画像生成装置2000から2次元配置情報を入力する(S2301)。2次元配置情報は、画像生成装置2000から所定のフレームレートで入力される。
次に、撮像部102は、第1の実施形態と同様に、「前景背景分離前画像データ」を取得する(S2302)。このとき、前景背景分離部103は、第1の実施形態と同様に、「背景画像データ」を取得してもよい。次に、前景背景分離部103は、「前景背景分離前画像データ」から「前景画像データ」を1つ取得する(S2303)。
次に、制御部106は、前景背景分離部103で取得された前景画像データを比較対象先オブジェクトとして、比較対象元オブジェクトとの距離を導出し、前景距離判定部1901へ出力する(S2304)。前景距離判定部1901は、制御部106から受信した距離情報に基づいて、前景背景分離部103で取得された前景画像データ(比較対象先オブジェクト)と比較対象元オブジェクトとの距離が所定の距離以上であるか否かを判定する(S2305)。この判定の結果、前景画像データ(比較対象先オブジェクト)と比較対象元オブジェクトとの距離が所定の距離以上の場合、制御部106は、その「前景画像データ」の出力を停止する(S2306)。
一方、前景画像データ(比較対象先オブジェクト)と比較対象元オブジェクトとの距離が所定の距離以上でない場合、メタ情報合成部104は、前景背景分離部103で取得された「前景画像データ」にメタ情報を付加する(S2307)。
次に、制御部106は、出力部105に対して、「前景画像データ」の出力を指示する。出力部105は、この指示に基づき、メタ情報合成部104から出力された「前景画像データ」を、画像生成装置2000および画像監視装置400へ所定のフレームレートで出力する(S1807)。
以上のように本実施形態では、撮像装置1900−xは、ユーザが最も着目している「比較対象元オブジェクト」に着目して、その「比較対象元オブジェクト」との距離が近い「比較対象先オブジェクト」を優先して出力する。従って、監視担当者は、ユーザがより着目していると想定される「比較対象先オブジェクト(前景データ)」を監視することができる。よって、第1の実施形態で説明した効果を得つつ、伝送帯域の負荷をより一層低減することができる。例えば、競技場210(サッカー場)において、「比較対象元オブジェクト」とはボールである。このボールに近い「比較対象元オブジェクト」である選手を大半のユーザは視聴する。こうしたボールに近い選手をより優先的に監視することで、撮像画像の監視の負荷の低減と、伝送帯域の負荷の低減との両立を図れる。
また、本実施形態と、第2の実施形態および第3の実施形態の少なくとも何れか一方とを組み合わせてもよい。本実施形態と第2の実施形態とを組み合わせる場合、各撮像装置1900−xは、「比較対象元オブジェクト」との距離が所定の距離以下の「前景画像データ」のうち、サイズに関する所定の条件を満たす「前景画像データ」を伝送する。本実施形態と第3の実施形態とを組み合わせる場合、各撮像装置1900−xは、注視点エリア1701、1702内の「前景画像データ」のうち、「比較対象元オブジェクト」との距離が所定の距離以下の「前景画像データ」を伝送する。
尚、本実施形態においても第1〜第3の実施形態で説明した変形例を採用することができる。
(第5の実施形態)
次に、第5の実施形態について説明する。第1〜第4の実施形態では、画像監視装置400は、撮像装置毎に、同一のタイミングで撮像された前景のみを分類して一覧で表示する場合を例に挙げて説明した。これに対し、本実施形態では、各撮像装置から前景画像データのみを画像監視装置へ伝送し、画像監視装置が、同一の前景を1つのグループとして一覧で表示する場合を例に挙げて説明する。このように本実施形態と、第1〜第4の実施形態は、前景を表示する方法が異なることによる処理が主として異なる。従って、本実施形態の説明において、第1〜第4の実施形態と同一の部分については、図1〜図23に付した符号と同一の符号を付すなどして詳細な説明を省略する。
本実施形態の画像監視システムの構成は、第1の実施形態と同様である。また、撮像装置100−x、ユーザ端末300、および分配装置500の構成も、第1の実施形態と同様である。また、画像生成装置2000は、第4の実施形態と同様である。画像生成装置2000と、後述する画像監視装置2400は、分配装置500を介して、後述する「2次元配置情報」を伝送することができる。
図24は、本実施形態の画像監視装置2400の機能的な構成の一例を示す図であり、第1の実施形態の画像監視装置400と対比されるものである。尚、画像監視装置2400のハードウェアは、第1の実施形態の画像監視装置400と同様である。画像監視装置2400は、メタ情報に基づいて前景の画像を分類することを含む処理を行う情報処理装置の一例である。画像監視装置2400は、画像入力部401、画像生成部402、表示部403、制御部404、ユーザ入力部405、2次元配置情報入力部2401、および前景特定部2402を有する。これらは、内部バス406によって相互に接続され、制御部404による制御の下、相互にデータを送受信することができる。以下、各部の構成の一例を詳細に説明する。尚、画像監視装置2400の、2次元配置情報入力部2401および前景特定部2402以外の部分は、画像監視装置400と同様である。また、2次元配置情報入力部2401の機能は、例えば、通信I/F707により実現される。また、前景特定部2402の機能は、例えば、CPU701により実現される。
2次元配置情報入力部2401は、画像生成装置2000の2次元配置情報出力部2001から伝送された「2次元配置情報」を入力し、制御部404へ出力する。
「2次元配置情報」は、第4の実施形態で説明した図21と同様であり、「前景画像データ」毎に、少なくとも「前景種別」、「前景画像データの識別情報」、および「前景画像データの座標情報」を含む。ただし、「2次元配置情報」の「前景画像データの識別情報」には、各撮像装置100−xが付加した「前景画像データの識別情報」が全て含まれる。例えば、「2次元配置情報」の「前景画像データ」の一つにサッカーボールがある場合、「2次元配置情報」の「前景画像データの識別情報」には、以下の情報が全て含まれる。即ち、「2次元配置情報」の「前景画像データの識別情報」には、各撮像装置100−xがサッカーボールの「前景画像データ」に付加した「前景画像データの識別情報」が全て含まれる。また、本実施形態の制御部404は、2次元配置情報入力部2401により入力された「2次元配置情報」をそのまま後述の前景特定部2402に出力するものとする。
前景特定部2402は、制御部404から出力された「2次元配置情報」と、画像入力部401から出力された各撮像装置100−xの全ての「前景画像データ」およびそれに付加されるメタ情報に基づいて、どの「前景画像データ」が同一の前景かを特定する。例えば、各撮像装置100−xの撮像画像に、サッカーボールの「前景画像データ」が映っている場合、前景特定部2402は、これらの「前景画像データ」を同一の前景と特定する。前景特定部2402は、同一と特定した「前景画像データ」に共通の識別情報を付加して、画像生成部402へ出力する。また、本実施形態では、以下の表示イメージ種別があるものとする。
・前景グループ表示イメージ
次に、本実施形態の画像監視装置2400の動作の一例について説明する。図25は、本実施形態の画像監視装置2400により表示される表示イメージの一例を示す図である。表示部403は、撮像装置100−x毎に同一のタイミングで撮像された前景のみを一覧で表示し、前述した不図示の同期装置からの同期信号と同じ周期で、表示イメージを更新する。つまり、表示部403は、撮像装置100−x毎に、「前景背景分離前画像データ」から「背景画像データ」を差し引いた撮像画像(「前景画像データ」)の一覧を動画像として表示する。図25では、前景種別が「前景1」〜「前景8」の「前景画像データ」の一覧が、同一の前景種別を同一のグループとしてグループ表示される場合を例に挙げて示す。図25において、前景2は、ボールである。それ以外の前景は、特定の人物である。
次に、表示イメージを生成する際の画像監視装置2400の処理の一例について表示イメージ種別が「前景グループ表示イメージ」である場合を例に挙げて説明する。図26は、表示イメージを生成する際の画像監視装置2400の処理の一例を説明するフローチャートである。
前景特定部2402は、制御部404を介して、「2次元配置情報」を入力する(S2601)。
次に、画像生成部402は、撮像装置100−xのうち、未選択の撮像装置100−xを1つ選択する(S2602)。次に、画像生成部402は、画像入力部401から、S2602で選択した撮像装置100−xの「前景画像データ」のうち、未選択の「前景画像データ」と、そのメタ情報を1つ取得する(S2603)。
次に、前景特定部2402は、「前景画像データ」が「2次元配置情報」のどの「前景画像データ」であるのかを特定する(S2604)。前述の通り本実施形態の「2次元配置情報」の「前景画像データの識別情報」には、各撮像装置100−xが付加した「前景画像データの識別情報」が全て含まれる。前景特定部2402は、「前景画像データの識別情報」に基づいて、S2603で取得した「前景画像データ」と「2次元配置情報」との関係を特定する。
次に、前景特定部2402は、S2604で特定した内容を示す情報を画像生成部402へ出力する(S2605)。
次に、画像生成部402は、「前景画像データ」毎にワークメモリを確保し(S2606)、そのワークメモリにS2603で取得した「前景画像データ」を貼りつける(S2607)。このワークメモリは、撮像装置100−xの撮像画像と同等の解像度/色深度を再現できるサイズを有する。また、本実施形態の「前景画像データ」はRAW画像である。そのため、画像生成部402は、「前景画像データ」に対して現像処理を施し、現像処理を施した「前景画像データ」をワークメモリに貼りつける。
S2603〜S2607の処理は、S2602で選択した撮像装置100−xの残りの「前景画像データ」に対しても繰り返し行われる。従って、画像生成部402は、S2602で選択した撮像装置100−xの全ての「前景画像データ」をワークメモリに貼り付けたか否かを判定する。この判定の結果、S2602で選択した撮像装置100−xの全ての「前景画像データ」がワークメモリに貼り付けられていない場合、処理は、S2603に戻る。そして、S2602で選択した撮像装置100−xの全ての「前景画像データ」がワークメモリに貼り付けられるまで、S2603〜S2608の処理が繰り返し実行される。S2602で選択した撮像装置100−xの全ての「前景画像データ」がワークメモリに貼り付けられると、S2609に進む。
そして、画像生成部402は、画像監視装置2400に予め設定されている全ての撮像装置100−xについて、全ての「前景画像データ」をワークメモリに貼り付けたか否かを判定する(S2609)。この判定の結果、画像監視装置2400に予め設定されている全ての撮像装置100−xについて、全ての「前景画像データ」がワークメモリに貼り付けられていない場合、処理は、S2602に戻る。そして、画像監視装置2400に予め設定されている全ての撮像装置100−xについて、全ての「前景画像データ」がワークメモリに貼り付けられるまで、S2602〜S2609の処理が繰り返し実行される。画像監視装置2400に予め設定されている全ての撮像装置100−xについて、全ての「前景画像データ」がワークメモリに貼り付けられると、S2610に進む。
画像生成部402は、同一の前景であると特定されたワークメモリに再現された撮像画像(「前景画像データ」)を一纏めにして、表示部403のフレームバッファに転送することで表示イメージを作成する(S2610)。この際、画像生成部402は、表示部403のフレームバッファのサイズに合わせて、撮像画像(「前景画像データ」)に対して縮小処理を施す。前述の通り、図25が、フレームバッファに作成された表示イメージの一例である。
S2601〜S2610の処理は、少なくとも画像入力部401が入力する「前景画像データ」のフレームレートの期間内に終えるようにする。そして、画像生成部402は、制御部404からの終了指示があったか否かを判定する(S2611)。この判定の結果、制御部404からの終了指示があった場合、図26のフローチャートによる処理が終了する。一方、制御部404からの終了指示がない場合、「前景画像データ」のフレームレートの期間が終了すると、処理は再度S2601に戻り、前述したS2601〜S2611の処理が繰り返される。
以上のように、同一の前景を一つのグループとして纏めて表示するようにしても、第1の実施形態で説明した効果を得ることができる。
本実施形態では、第1の実施形態の撮像装置100−xを用いる場合を例に挙げて説明した。しかしながら、第2〜第4の実施形態の撮像装置1400−x、1600−x、1900−xを用いてもよい。
尚、本実施形態においても第1〜第4の実施形態で説明した変形例を採用することができる。
尚、前述した実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
(その他の実施例)
本発明は、前述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100:撮像装置群、200:画像生成装置、300:ユーザ端末、400:画像監視装置、500:分配装置

Claims (27)

  1. 複数の撮像装置により取得された複数の撮像画像に基づいて生成されるオブジェクトの三次元形状データを用いて仮想視点の位置及び方向に応じた仮想視点画像を生成するシステムにおける、三次元形状データの生成対象であるオブジェクトの撮像状態を表す画像を表示させる情報処理装置であって、
    前記複数の撮像装置により取得された複数の撮像画像から抽出される、三次元形状データの生成対象であるオブジェクトの画像を取得する取得手段と、
    前記取得手段により取得されたオブジェクトの画像を、三次元形状データの生成対象であるオブジェクトの撮像状態を表す画像として表示画面上に表示させる表示制御手段と、を有することを特徴とする情報処理装置。
  2. 前記表示制御手段は、前記複数の撮像装置のそれぞれに対応する前記表示画面上の複数の表示領域のうちの特定の表示領域に、前記特定の表示領域に対応する撮像装置により取得された撮像画像から抽出される、三次元形状データの生成対象であるオブジェクトの画像を表示させることを特徴とする請求項1に記載の情報処理装置。
  3. 前記表示制御手段は、前記特定の表示領域に対応する撮像装置により取得された撮像画像から抽出される、三次元形状データの生成対象であるオブジェクトの画像を、前記特定の表示領域における当該オブジェクトの画像の位置が、前記特定の表示領域に対応する撮像装置により取得された撮像画像における、三次元形状データの生成対象であるオブジェクトの位置に応じた位置となるように表示させることを特徴とする請求項2に記載の情報処理装置。
  4. 前記表示制御手段は、撮像画像における大きさが所定範囲内の三次元形状データの生成対象であるオブジェクトの画像を表示させ、前記所定範囲外の三次元形状データの生成対象ではないオブジェクトの画像を表示させないことを特徴とする請求項1乃至3のうち、何れか1項に記載の情報処理装置。
  5. 前記取得手段は、撮像画像における大きさが前記所定範囲内の三次元形状データの生成対象であるオブジェクトの画像を取得し、前記所定範囲外の三次元形状データの生成対象ではないオブジェクトの画像を取得しないことを特徴とする請求項4に記載の情報処理装置。
  6. 前記複数の撮像装置は、複数の撮像装置群に分類され、
    前記表示制御手段は、前記複数の撮像装置群のうち、第1撮像装置群に属する撮像装置により取得された複数の撮像画像から抽出される、三次元形状データの生成対象であるオブジェクトの画像を表示させ、前記第1撮像装置群とは異なる第2撮像装置群に属する撮像装置により取得された複数の撮像画像から抽出される、三次元形状データの生成対象ではないオブジェクトの画像を表示させないことを特徴とする請求項1乃至3のうち、何れか1項に記載の情報処理装置。
  7. 前記取得手段は、前記第1撮像装置群に属する撮像装置により取得された複数の撮像画像から抽出される、三次元形状データの生成対象であるオブジェクト画像を取得し、前記第1撮像装置群とは異なる第2撮像装置群に属する撮像装置により取得された複数の撮像画像から抽出される、三次元形状データの生成対象ではないオブジェクトの画像を取得しないことを特徴とする請求項6に記載の情報処理装置。
  8. 前記複数の撮像装置群の中から前記第1撮像装置群を決定する決定手段を有し、
    前記表示制御手段は、前記決定手段により決定された前記第1撮像装置群に属する撮像装置により取得された撮像画像から抽出される、三次元形状データの生成対象であるオブジェクトの画像を表示させることを特徴とする請求項6又は7に記載の情報処理装置。
  9. 前記決定手段は、操作者の指定に基づいて前記複数の撮像装置群の中から前記第1撮像装置群を決定することを特徴とする請求項8に記載の情報処理装置。
  10. 前記決定手段は、各撮像装置群により撮像される領域に含まれるオブジェクトの数に基づいて前記複数の撮像装置群の中から前記第1撮像装置群を決定することを特徴とする請求項8に記載の情報処理装置。
  11. 前記決定手段は、各撮像装置群により撮像される領域に特定オブジェクトが含まれることに基づいて前記複数の撮像装置群の中から前記第1撮像装置群を決定することを特徴とする請求項8に記載の情報処理装置。
  12. 前記第1撮像装置群に属する撮像装置は、第1位置を撮像するように撮像方向及び焦点距離が設定された撮像装置であり、第2撮像装置群に属する撮像装置は、前記第1位置とは異なる第2位置を撮像するように撮像方向及び焦点距離が設定された撮像装置であることを特徴とする請求項6乃至11のうち、何れか1項に記載の情報処理装置。
  13. 前記表示制御手段は、特定オブジェクトから所定距離内に位置する、三次元形状データの生成対象であるオブジェクトの画像を前記表示画面上に表示させ、前記特定オブジェクトから前記所定距離内に位置しない、三次元形状データの生成対象ではないオブジェクトの画像を前記表示画面上に表示させないことを特徴とする請求項1乃至3のうち、何れか1項に記載の情報処理装置。
  14. 前記取得手段は、前記特定オブジェクトから前記所定距離内に位置する、三次元形状データの生成対象であるオブジェクトの画像を取得し、前記特定オブジェクトから前記所定距離内に位置しない、三次元形状データの生成対象ではないオブジェクトの画像を取得しないことを特徴とする請求項13に記載の情報処理装置。
  15. 前記表示制御手段は、三次元形状データの生成対象であるオブジェクトの画像を、オブジェクトの種別ごとに配置して表示させることを特徴とする請求項1乃至14のうち、何れか1項に記載の情報処理装置。
  16. 前記取得手段は、三次元形状データの生成対象であるオブジェクトの画像に対応するオブジェクトを識別するためのオブジェクト識別子を取得し、
    前記表示制御手段は、三次元形状データの生成対象であるオブジェクトの画像を、前記オブジェクト識別子に応じた配置で表示させることを特徴とする請求項1乃至15のうち、何れか1項に記載の情報処理装置。
  17. 前記取得手段は、三次元形状データの生成対象であるオブジェクトの画像を撮像した撮像装置を識別するための撮像装置識別子を取得し、
    前記表示制御手段は、三次元形状データの生成対象であるオブジェクトの画像を、前記撮像装置識別子に応じた配置で表示させることを特徴とする請求項1乃至16のうち、何れか1項に記載の情報処理装置。
  18. 三次元形状データの生成対象であるオブジェクトの画像は、動体を含む画像であることを特徴とする請求項1乃至17のうち、何れか1項に記載の情報処理装置。
  19. 三次元形状データの生成対象であるオブジェクトの画像は、人物とボールのうち少なくとも一方を含む画像であることを特徴とする請求項1乃至18のうち、何れか1項に記載の情報処理装置。
  20. 複数の撮像装置により取得された複数の撮像画像に基づいて生成されるオブジェクトの三次元形状データを用いて仮想視点の位置及び方向に応じた仮想視点画像を生成するシステムにおける、三次元形状データの生成対象であるオブジェクトの撮像状態を表す画像を表示させる情報処理装置が行う情報処理方法であって、
    前記複数の撮像装置により取得された複数の撮像画像から抽出される、三次元形状データの生成対象であるオブジェクトの画像を取得する取得工程と、
    前記取得工程において取得されたオブジェクトの画像を、三次元形状データの生成対象である前記オブジェクトの撮像状態を示す画像として表示画面上に表示させる表示制御工程と、
    を有することを特徴とする情報処理方法。
  21. 前記表示制御工程において、前記複数の撮像装置のそれぞれに対応する前記表示画面上の複数の表示領域のうちの特定の表示領域に、前記特定の表示領域に対応する撮像装置により取得された撮像画像から抽出される、三次元形状データの生成対象であるオブジェクトの画像を表示させることを特徴とする請求項20に記載の情報処理方法。
  22. 前記表示制御工程において、前記特定の表示領域に対応する撮像装置により取得された撮像画像から抽出される、三次元形状データの生成対象であるオブジェクトの画像を、前記特定の表示領域における当該オブジェクトの画像の位置が、前記特定の表示領域に対応する撮像装置により取得された撮像画像における、三次元形状データの生成対象であるオブジェクトの位置に応じた位置となるように表示させることを特徴とする請求項21に記載の情報処理方法。
  23. 前記表示制御工程において、撮像画像における大きさが所定範囲内の三次元形状データの生成対象であるオブジェクトの画像を表示させ、前記所定範囲外の三次元形状データの生成対象ではないオブジェクトの画像を表示させないことを特徴とする請求項20乃至22のうち、何れか1項に記載の情報処理方法。
  24. 前記複数の撮像装置は、複数の撮像装置群に分類され、
    前記表示制御工程において、前記複数の撮像装置群のうち、第1撮像装置群に属する撮像装置により取得された複数の撮像画像から抽出される、三次元形状データの生成対象であるオブジェクトの画像を表示させ、前記第1撮像装置群とは異なる第2撮像装置群に属する撮像装置により取得された複数の撮像画像から抽出される、三次元形状データの生成対象ではないオブジェクトの画像を表示させないことを特徴とする請求項20乃至22のうち、何れか1項に記載の情報処理方法。
  25. 前記表示制御工程において、特定オブジェクトから所定距離内に位置する、三次元形状データの生成対象であるオブジェクトの画像を前記表示画面上に表示させ、前記特定オブジェクトから前記所定距離内に位置しない、三次元形状データの生成対象ではないオブジェクトの画像を前記表示画面上に表示させないことを特徴とする請求項20乃至22のうち、何れか1項に記載の情報処理方法。
  26. 前記表示制御工程において、三次元形状データの生成対象であるオブジェクトの画像を、オブジェクトの種別ごとに配置して表示させることを特徴とする請求項20乃至25のうち、何れか1項に記載の情報処理方法。
  27. コンピュータを請求項1乃至19のうち、何れか1項に記載の情報処理装置の各手段として動作させるためのプログラム。
JP2017022717A 2017-02-10 2017-02-10 情報処理装置、情報処理方法、およびプログラム Active JP6482580B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017022717A JP6482580B2 (ja) 2017-02-10 2017-02-10 情報処理装置、情報処理方法、およびプログラム
EP18155825.5A EP3361724B1 (en) 2017-02-10 2018-02-08 System and method for generating a virtual viewpoint
US15/892,209 US10699473B2 (en) 2017-02-10 2018-02-08 System and method for generating a virtual viewpoint apparatus
CN201810131775.0A CN108418998B (zh) 2017-02-10 2018-02-09 用于生成虚拟视点图像的系统和方法以及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017022717A JP6482580B2 (ja) 2017-02-10 2017-02-10 情報処理装置、情報処理方法、およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019024421A Division JP6870014B2 (ja) 2019-02-14 2019-02-14 情報処理装置、情報処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2018129736A JP2018129736A (ja) 2018-08-16
JP6482580B2 true JP6482580B2 (ja) 2019-03-13

Family

ID=61189242

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017022717A Active JP6482580B2 (ja) 2017-02-10 2017-02-10 情報処理装置、情報処理方法、およびプログラム

Country Status (4)

Country Link
US (1) US10699473B2 (ja)
EP (1) EP3361724B1 (ja)
JP (1) JP6482580B2 (ja)
CN (1) CN108418998B (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11025921B1 (en) 2016-09-22 2021-06-01 Apple Inc. Providing a virtual view by streaming serialized data
US10692262B2 (en) * 2017-01-12 2020-06-23 Electronics And Telecommunications Research Institute Apparatus and method for processing information of multiple cameras
US11113887B2 (en) * 2018-01-08 2021-09-07 Verizon Patent And Licensing Inc Generating three-dimensional content from two-dimensional images
JP7249755B2 (ja) * 2018-10-26 2023-03-31 キヤノン株式会社 画像処理システムおよびその制御方法、プログラム
JP7237538B2 (ja) 2018-11-14 2023-03-13 キヤノン株式会社 情報処理装置、それを含むシステム、情報処理方法、およびプログラム
JP2020101845A (ja) * 2018-12-19 2020-07-02 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法、およびプログラム
JP2020134973A (ja) * 2019-02-12 2020-08-31 キヤノン株式会社 素材生成装置、画像生成装置および画像処理装置
JP7250588B2 (ja) * 2019-03-28 2023-04-03 キヤノン株式会社 画像処理装置、送信方法、及びプログラム
WO2020206672A1 (en) * 2019-04-12 2020-10-15 Intel Corporation Technology to automatically identify the frontal body orientation of individuals in real-time multi-camera video feeds
JP2020191598A (ja) * 2019-05-23 2020-11-26 キヤノン株式会社 画像処理システム
JP7467074B2 (ja) * 2019-11-05 2024-04-15 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JPWO2021117482A1 (ja) * 2019-12-09 2021-06-17
JP2023013538A (ja) * 2021-07-16 2023-01-26 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020113865A1 (en) * 1997-09-02 2002-08-22 Kotaro Yano Image processing method and apparatus
US6144375A (en) 1998-08-14 2000-11-07 Praja Inc. Multi-perspective viewer for content-based interactivity
JP2001094969A (ja) * 1999-09-21 2001-04-06 Toshiba Corp 映像処理装置
JP4395689B2 (ja) * 2001-02-09 2010-01-13 コニカミノルタホールディングス株式会社 画像データ処理方法およびモデリング装置
JP2004234549A (ja) * 2003-01-31 2004-08-19 Canon Inc 現実物体モデル作成方法
GB2413720B (en) * 2003-03-14 2006-08-02 British Broadcasting Corp Video processing
JP4710081B2 (ja) * 2004-11-24 2011-06-29 株式会社国際電気通信基礎技術研究所 画像作成システム及び画像作成方法
EP1864505B1 (en) * 2005-03-29 2020-01-15 Sportvu Ltd. Real-time objects tracking and motion capture in sports events
JP4764231B2 (ja) 2006-03-31 2011-08-31 キヤノン株式会社 画像処理装置、制御方法、コンピュータプログラム
EP1862969A1 (en) * 2006-06-02 2007-12-05 Eidgenössische Technische Hochschule Zürich Method and system for generating a representation of a dynamically changing 3D scene
JP2008167127A (ja) * 2006-12-28 2008-07-17 Mitsubishi Electric Corp 映像配信方法及び映像配信装置
JP4947593B2 (ja) * 2007-07-31 2012-06-06 Kddi株式会社 局所領域分割による自由視点画像の生成装置およびプログラム
US8441476B2 (en) 2007-11-16 2013-05-14 Sportvision, Inc. Image repair interface for providing virtual viewpoints
JP5198151B2 (ja) * 2008-05-30 2013-05-15 株式会社日立製作所 映像検索装置及び映像検索方法
JP2010154052A (ja) * 2008-12-24 2010-07-08 Hitachi Ltd 複数カメラ制御システム
JP5627253B2 (ja) 2009-05-29 2014-11-19 富士通テン株式会社 画像処理装置、電子装置、および、画像処理方法
WO2011121117A1 (en) 2010-04-02 2011-10-06 Imec Virtual camera system
KR101669820B1 (ko) * 2010-07-02 2016-10-27 삼성전자주식회사 볼륨 예측 기반 폐색 영역 양방향 복원 장치 및 방법
KR101729924B1 (ko) * 2010-08-03 2017-04-26 삼성전자주식회사 영상 크기 조절에 기반한 외삽 뷰 생성 장치 및 방법
CN103069814B (zh) 2010-08-10 2016-05-11 株式会社尼康 图像处理装置、图像处理方法、显示装置、显示方法及程序
WO2012155279A2 (en) * 2011-05-13 2012-11-22 Liberovision Ag Silhouette-based pose estimation
JP2012257021A (ja) * 2011-06-08 2012-12-27 Sony Corp 表示制御装置および方法、プログラム、並びに記録媒体
US9363488B2 (en) 2012-01-06 2016-06-07 Nokia Technologies Oy Methods, apparatuses and computer program products for analyzing crowd source sensed data to determine information related to media content of media capturing devices
JP5999105B2 (ja) * 2012-01-17 2016-09-28 ソニー株式会社 情報処理装置および方法、並びにプログラム
EP2852932A1 (en) * 2012-05-22 2015-04-01 Telefónica, S.A. A method and a system for generating a realistic 3d reconstruction model for an object or being
US20130321564A1 (en) * 2012-05-31 2013-12-05 Microsoft Corporation Perspective-correct communication window with motion parallax
US8976224B2 (en) * 2012-10-10 2015-03-10 Microsoft Technology Licensing, Llc Controlled three-dimensional communication endpoint
JP5874626B2 (ja) 2012-12-25 2016-03-02 カシオ計算機株式会社 表示制御装置、表示制御システム、表示制御方法及びプログラム
US9877011B2 (en) * 2013-03-19 2018-01-23 Hitachi Kokusai Electric Inc. Image display apparatus and image display method
JP6115335B2 (ja) 2013-06-10 2017-04-19 ノーリツプレシジョン株式会社 情報処理装置、情報処理方法、及び、プログラム
EP2824913A1 (en) * 2013-07-09 2015-01-14 Alcatel Lucent A method for generating an immersive video of a plurality of persons
US20160205341A1 (en) * 2013-08-20 2016-07-14 Smarter Tv Ltd. System and method for real-time processing of ultra-high resolution digital video
EP3035282A4 (en) * 2013-09-11 2017-07-05 Sony Corporation Image processing device and method
JP6347934B2 (ja) 2013-10-11 2018-06-27 株式会社デンソーテン 画像表示装置、画像表示システム、画像表示方法、及び、プログラム
WO2015087730A1 (ja) * 2013-12-10 2015-06-18 株式会社日立国際電気 監視システム
US10089740B2 (en) * 2014-03-07 2018-10-02 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
CN103985114B (zh) 2014-03-21 2016-08-24 南京大学 一种监控视频人物前景分割与分类的方法
JP2015187797A (ja) * 2014-03-27 2015-10-29 シャープ株式会社 画像データ生成装置および画像データ再生装置
JP2015191538A (ja) * 2014-03-28 2015-11-02 Kddi株式会社 自由視点映像生成方法、装置およびプログラム
US10719939B2 (en) * 2014-10-31 2020-07-21 Fyusion, Inc. Real-time mobile device capture and generation of AR/VR content
US10726560B2 (en) * 2014-10-31 2020-07-28 Fyusion, Inc. Real-time mobile device capture and generation of art-styled AR/VR content
JP6573361B2 (ja) * 2015-03-16 2019-09-11 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム
KR101781942B1 (ko) * 2016-03-08 2017-10-23 숭실대학교산학협력단 홀 채움 방법, 이를 수행하기 위한 기록매체 및 장치

Also Published As

Publication number Publication date
JP2018129736A (ja) 2018-08-16
US10699473B2 (en) 2020-06-30
EP3361724A3 (en) 2019-01-09
US20180232943A1 (en) 2018-08-16
EP3361724B1 (en) 2023-12-20
CN108418998B (zh) 2020-10-09
CN108418998A (zh) 2018-08-17
EP3361724A2 (en) 2018-08-15

Similar Documents

Publication Publication Date Title
JP6482580B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP7146662B2 (ja) 画像処理装置、画像処理方法、およびプログラム
US10440407B2 (en) Adaptive control for immersive experience delivery
CN109691084A (zh) 信息处理装置和方法以及程序
US20180182114A1 (en) Generation apparatus of virtual viewpoint image, generation method, and storage medium
KR20190039774A (ko) 가상 시점 화상의 생성에 관한 정보 처리 장치, 방법 및 프로그램
US10771761B2 (en) Information processing apparatus, information processing method and storing unit
KR20120033246A (ko) 화상 처리 장치, 화상 처리 방법 및 컴퓨터 프로그램
JP2018036955A (ja) 画像処理装置、画像処理方法及びプログラム
CN109218630B (zh) 一种多媒体信息处理方法及装置、终端、存储介质
CN106104632A (zh) 信息处理方法、信息处理设备和程序
JP6021489B2 (ja) 撮像装置、画像処理装置およびその方法
CN113348489A (zh) 图像处理方法和装置
GB2541073A (en) Information processing apparatus, method for controlling information processing apparatus, image processing system and storage medium
CN106713890A (zh) 一种图像处理方法及其装置
US11622099B2 (en) Information-processing apparatus, method of processing information, and program
JP6870014B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US20220353484A1 (en) Information processing apparatus, information processing method, and program
KR101451236B1 (ko) 3차원 영상 변환 방법 및 그 장치
CN113066189B (zh) 一种增强现实设备及虚实物体遮挡显示方法
EP3742402B1 (en) Generation of a virtual viewpoint image
CN111078085B (zh) 信息处理设备、信息处理设备的控制方法及存储介质
JP2021144522A (ja) 画像処理装置、画像処理方法、プログラム、及び画像処理システム
WO2018235762A1 (ja) 表示制御装置、表示制御方法、およびプログラム
CN103582903A (zh) 图像处理设备、图像处理方法以及程序

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190212

R151 Written notification of patent or utility model registration

Ref document number: 6482580

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151