JP7203356B2 - 撮像システム - Google Patents

撮像システム Download PDF

Info

Publication number
JP7203356B2
JP7203356B2 JP2019509852A JP2019509852A JP7203356B2 JP 7203356 B2 JP7203356 B2 JP 7203356B2 JP 2019509852 A JP2019509852 A JP 2019509852A JP 2019509852 A JP2019509852 A JP 2019509852A JP 7203356 B2 JP7203356 B2 JP 7203356B2
Authority
JP
Japan
Prior art keywords
imaging
camera
imaging devices
video
calibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019509852A
Other languages
English (en)
Other versions
JPWO2018181249A1 (ja
Inventor
達也 小山
敏康 杉尾
陽一 杉野
徹 松延
哲史 吉川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2018181249A1 publication Critical patent/JPWO2018181249A1/ja
Priority to JP2022200785A priority Critical patent/JP7466115B2/ja
Application granted granted Critical
Publication of JP7203356B2 publication Critical patent/JP7203356B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U20/00Constructional aspects of UAVs
    • B64U20/80Arrangement of on-board electronics, e.g. avionics systems or wiring
    • B64U20/87Mounting of imaging devices, e.g. mounting of gimbals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0094Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • B64U10/14Flying platforms with four distinct rotor axes, e.g. quadcopters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • G06T2207/30228Playing field
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Description

本開示は、互いに異なる位置に配置されている複数の撮像装置の外部パラメータを校正する撮像システム、および、当該撮像システムによる校正方法に関する。
複数台の撮像装置各々によって撮影された映像から被写体の三次元形状を再生する技術が特許文献1に開示されている。特許文献1によれば、この三次元形状を用いて自由視点映像が生成される。
特開2015-022510号公報
本開示は、互いに異なる位置に配置されている複数の撮像装置の外部パラメータの校正を容易に行うことができる撮像システムおよび校正方法を提供する。
本開示における撮像システムは、互いに異なる位置に配置されている複数の撮像装置のパラメータを校正する撮像システムであって、前記複数の撮像装置に共通する、三次元空間における撮像領域内で、前記複数の撮像装置の校正に用いるマーカを有する移動体を移動させる移動制御部と、前記複数の撮像装置に前記マーカを撮像させる撮像制御部と、異なる複数の三次元位置にある前記マーカが前記複数の撮像装置のそれぞれによって撮像されることにより得られた複数の画像を用いて、前記複数の撮像装置の外部パラメータを校正する校正部と、を備える。
なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
本開示における撮像システムは、互いに異なる位置に配置されている複数の撮像装置の外部パラメータの校正を容易に行うことができる。
図1は、三次元空間認識の概要を示す図である。 図2は、実施の形態1における多視点撮像システムの構成を示すブロック図である。 図3は、実施の形態1における撮像装置の構成を示すブロック図である。 図4は、実施の形態1における制御装置の構成を示すブロック図である。 図5は、実施の形態1における移動体の構成を示すブロック図である。 図6は、実施の形態1における撮像システムが実行する一連の動作を示すシーケンス図である。 図7Aは、実施の形態1における校正情報のデータ構成の一例を示す。 図7Bは、実施の形態1における校正情報のデータ構成の他の一例を示す。 図8は、実施の形態1における校正処理の一例を示すフローチャートである。 図9は、実施の形態1における校正処理の詳細を説明するための図である。 図10Aは、実施の形態1における校正処理の詳細を説明するための図である。 図10Bは、実施の形態1における校正処理の詳細を説明するための図である。 図10Cは、実施の形態1における校正処理の詳細を説明するための図である。 図11は、複数の時刻において、複数の撮像装置が撮像することで得られる撮像画像の一覧を示す図である。 図12は、マッチング結果の一例を示す図である。 図13は、分割した複数の領域を説明するための図である。 図14は、実施の形態1における校正処理の詳細を説明するための図である。 図15は、複数の時刻において、複数の撮像装置が撮像することで得られる撮像画像の一覧を示す図である。 図16は、マッチング結果の一例を示す図である。 図17は、実施の形態1の変形例4を説明するための図である。 図18は、実施の形態2における校正処理の一例を示すフローチャートである。 図19は、映像情報処理システムの構成を示す図である。 図20は、カメラ起動時に表示される通知画面の一例を示す図である。 図21は、コンテンツ配信サービスを実現するコンテンツ供給システムの全体構成図である。 図22は、デジタル放送用システムの全体構成図である。 図23は、スマートフォンの一例を示す図である。 図24は、スマートフォンの構成例を示すブロック図である。 図25は、実施の形態3における多視点撮像システムの構成を示すブロック図である。 図26は、実施の形態3における校正処理の一例を示すフローチャートである。
(本発明の基礎となった知見)
三次元空間における自由視点映像の生成には、被写体の三次元形状の再構成(モデリング)をする三次元空間再構成装置による三次元空間再構成の結果が利用される。三次元空間再構成装置は、同一の場面の映像を撮影する複数台のカメラを含む撮像システムから提供される映像データと、校正によって得られた各カメラの位置及び姿勢等を示すカメラパラメータとを用いて、モデリングを行う。したがって、校正後にカメラの位置等が変化すると、カメラパラメータがカメラの位置等の実際の状態を反映していないために三次元空間再構成が適切に実行できず、その結果、自由視点映像の画質が劣化する、又は生成そのものに失敗する。このため、定期的にカメラのパラメータを校正する必要がある。
このような撮像システムが撮影する所定の空間は、例えば、スポーツイベントが行われる会場であり、複数のカメラは、所定の空間を取り囲むように配置される。このため、複数のカメラのそれぞれについて外部パラメータを校正しようとすると、所定の空間に偏りなく特徴点となるマーカを配置する必要があるため、手間がかかるという課題があった。
このように、従来の技術では、互いに異なる位置に配置されている複数の撮像装置の外部パラメータの校正を容易に行うことができていなかった。
そこで、本開示の一態様に係る撮像システムは、互いに異なる位置に配置されている複数の撮像装置のパラメータを校正する撮像システムであって、前記複数の撮像装置に共通する、三次元空間における撮像領域内で、前記複数の撮像装置の校正に用いるマーカを有する移動体を移動させる移動制御部と、前記複数の撮像装置に前記マーカを撮像させる撮像制御部と、異なる複数の三次元位置にある前記マーカが前記複数の撮像装置のそれぞれによって撮像されることにより得られた複数の画像を用いて、前記複数の撮像装置の外部パラメータを校正する校正部と、を備える。
これによれば、移動体を用いて、マーカを複数の撮像装置に共通する撮像領域内で移動させた状態で、当該マーカを複数の撮像装置に撮像させる。このため、大きなサイズのマーカを用意しなくても、互いに異なる位置に配置されている複数の撮像装置の外部パラメータの校正を容易に行うことができる。
また、前記校正部は、前記複数の画像に含まれる、前記複数の三次元位置のそれぞれに位置する前記マーカを、前記複数の画像に共通する特徴点として対応付けることにより、前記複数の撮像装置の外部パラメータを校正してもよい。
このため、撮像装置の外部パラメータの校正を効果的に行うことができる。
また、前記校正部は、さらに、前記複数の画像に含まれる、前記撮像領域内の所定の物体を、前記複数の画像に共通する特徴点として対応付けることにより、前記複数の撮像装置の外部パラメータを校正してもよい。
このため、撮像装置の外部パラメータの校正を効果的に行うことができる。
また、前記撮像制御部は、前記複数の撮像装置のそれぞれに、前記撮像領域内を移動している前記マーカを異なる複数のタイミングで撮像させ、前記校正部は、1タイミングで前記複数の撮像装置により撮像されることにより得られた複数の画像を1つの画像群としたとき、前記複数のタイミングで、前記複数の撮像装置により撮像されることにより得られた複数の前記画像群を用いて、前記複数の撮像装置の外部パラメータを校正してもよい。
このため、撮像装置の外部パラメータの校正を効果的に行うことができる。
また、前記校正部は、前記複数の画像群のそれぞれについて、当該画像群を構成する複数の画像のそれぞれにおいて、当該画像に含まれる前記マーカの当該画像における二次元位置を特定し、特定することにより得られた複数の前記二次元位置を互いに対応付けることで、前記複数の撮像装置の外部パラメータを校正してもよい。
このため、撮像装置の外部パラメータの校正を効果的に行うことができる。
また、前記移動制御部は、複数の前記移動体を前記撮像領域内で移動させ、前記撮像制御部は、前記複数の撮像装置のそれぞれに、所定のタイミングで前記撮像領域内にある複数の前記マーカを撮像させ、前記校正部は、前記所定のタイミングで前記複数の撮像装置により撮像されることにより得られた前記複数の画像を用いて、前記複数の撮像装置の外部パラメータを校正してもよい。
また、前記複数の移動体は、互いに異なる外観を有し、前記校正部は、前記複数の画像のそれぞれにおいて、当該画像に含まれる前記複数の移動体が有する前記マーカの前記当該画像における二次元位置を、前記複数の移動体それぞれについて特定し、特定することにより得られた複数の前記二次元位置を前記複数の移動体毎に互いに対応付けることで、前記複数の撮像装置の外部パラメータを校正してもよい。
このように、複数の移動体を移動させることで、一度に多くの特徴点を得ることができる。このため、外部パラメータの校正処理にかかる時間を短縮することができる。
また、前記移動制御部は、前記撮像領域を複数の領域に分割したとき、前記複数の領域のうち前記マーカが撮像されたときに位置した第1領域とは異なる第2領域に、前記移動体を移動させてもよい。
このため、精度よく外部パラメータの校正を行うことができる。
また、前記撮像制御部は、前記複数の撮像装置のそれぞれが、予め定められた位置にあり、かつ、予め定められた方向を向いた姿勢にある状態で、前記複数の撮像装置に前記撮像領域を撮像させてもよい。
また、前記移動体は、複数のマーカを有してもよい。
なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。
以下、本発明の一態様に係る撮像システムおよび校正方法について、図面を参照しながら具体的に説明する。
なお、以下で説明する実施の形態は、いずれも本発明の一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
以下、図1~図13を用いて実施の形態1を説明する。
(実施の形態1)
[1.三次元空間認識の概要]
まず、本実施の形態にかかる撮像システムが用いられる三次元空間認識の概要について図1を用いて説明する。
撮像システムは、所定の空間内における同一の場面を撮影するためのカメラを複数台備える。具体例を挙げると、所定の空間はスポーツイベントが行われる会場であり、同一の場面とはその会場で行われる試合の場面である。別の例としては、所定の空間は監視カメラを用いて監視される空間であり、同一の場面とは、この監視対象空間内の人又は物の様子が挙げられる。
複数台のカメラのそれぞれは、この空間内において少なくとも一部が重複する領域の映像を互いに異なる位置から撮影する。例えば、図1の(a)に示されるように、複数台のカメラ100が、スポーツの試合会場である空間を取り囲み、互いに異なる位置に設置される。また、カメラ100は互いに異なる姿勢を取って、それぞれの撮影領域にこの空間の少なくとも一部を収める。各カメラ100の撮影領域の少なくとも一部を重複させることは、同一の被写体を複数の視点から撮像して生成した映像データが三次元空間の仮想的な再構成(三次元空間再構成)に用いられるためである。
なお、撮影領域の重複は、一のカメラ100の撮影領域が他の全てのカメラ100の撮影領域と重複することを要せず、他のカメラ100のうち一部のカメラ100の撮影領域との重複でもよい。
このように設置された複数台のカメラ100は、撮像システムが備える後述する制御装置と通信可能に接続される。
カメラ100が設置されると、校正が実行される。
校正は、各カメラ100の撮影領域内の実際の点と映像上の点との対応(図1の(b)において曲線で結ばれる白三角で示される点同士の対応)、又は異なるカメラ100の各映像間の点の対応(同(b)において曲線で結ばれる白丸で示される点同士の対応)をとることで、各カメラ100の位置及び撮像方向の角度(姿勢)等を示すパラメータを算出することである。カメラ100の位置及び姿勢を示すパラメータは三次元空間である所定の空間における共通の座標系上で表わされるものであり、後に三次元空間再構成に用いられるカメラパラメータである。カメラパラメータについては後述する。
これらのカメラパラメータが算出されて既知になっていることは、三次元空間認識を実行する準備であって、三次元空間認識の開始前に実行される。算出されたカメラパラメータは、三次元空間再構成をする後述の三次元空間再構成装置に送信される。
このような準備の後、各カメラ100は制御装置からの信号に基づいて同期映像を撮影することで多視点撮像を実行する(図1の(c))。この撮像によって生成された映像データは三次元空間再構成装置に送信される。
三次元空間再構成装置がする三次元空間再構成では、上記の映像データとカメラパラメータとを用いて、撮影領域にある各被写体の三次元モデルデータが生成される(図1の(d))。三次元モデルデータは、三次元空間認識を実行する後述の三次元空間認識装置に送信される。
三次元空間認識装置が三次元モデルデータを用いて実行する三次元空間認識(図1の(e))によって提供される機能の例としては、上記の自由視点映像生成、シーン解析、及びトラッキングが挙げられる。
自由視点映像生成の方法の簡単な例を示す。まず、ユーザ若しくはシステム管理者が指定する、又は自動的に設定された仮想視点から見える、撮影領域内の各被写体の構造及び仮想視点からの距離が三次元モデルデータに基づいて算出される。次に、各カメラ100のうち、仮想視点から近い距離にあるカメラ100の映像データから優先的に各被写体の色及びテクスチャの情報が取得される。最後に、この色及びテクスチャの情報と上記で算出された各被写体の構造及び距離を用いて、仮想視点から見える映像の生成(レンダリング)がなされる。レンダリングされた映像は、ユーザの映像表示端末に配信される。
このような自由視点映像生成の機能は、例えばテレビのスポーツ番組などのエンターテイメント分野で利用され得る。これにより、例えば視聴者は自分の望む視点からのハイライトシーンの映像を再生することができる。また、自由視点映像生成の機能は監視システムで利用されてもよい。この場合は、現実のカメラでは捉えていない視点から見た不審者の推定外観を警備員に提示して警戒にあたらせることができる。
また、シーン解析及びトラッキングでも、自由視点映像生成と同じく三次元モデルデータに基づいて撮影領域内の各被写体の仮想視点から見た構造及び仮想視点からの距離が算出され、さらに仮想視点から近い距離にあるカメラ100から優先的に各被写体の色及びテクスチャを取得した情報を利用することも可能である。
シーン解析は、撮影領域内の各被写体、例えば、人又は物のある瞬間の様子を示す映像を、ソフトウェアで、又は人が画面で見て解析することで実行される。このシーン解析を三次元モデルデータに基づき行うことで、撮影領域内の人の三次元姿勢や物の三次元形状を観察することができ、二次元映像を用いるよりも高精度な状況認識及び予測が可能である。
トラッキングでは、例えば、まず、各カメラ100が撮影した映像のシーン解析によって撮影領域内のある被写体が特定される。また、ある瞬間に各カメラ100が撮影した映像上で特定されている被写体のうち同一のものは、ソフトウェア又は人手で対応付けがなされる。そして、さらに、このような被写体の特定及び対応付けが時間軸に沿って行われることでトラッキングが実行される。しかし、例えば、各カメラ100による二次元映像では、注目していた被写体が他の被写体に一時的に隠れたために、その特定の継続が不可能になる場合がある。このような場合においても、三次元モデルデータを用いると被写体それぞれの三次元位置情報又は三次元形状情報を用いることで被写体の特定を継続することができる。
このようなシーン解析及びトラッキングの機能は、例えば、上述した次世代型の監視システムで利用され得る。これにより、不審な現場の早期発見及び発見の精度向上が見込まれる。また、設置可能なカメラの台数が制限されている場所でも、従来に比べてセキュリティの強化を図ることができる。
なお、自由視点映像生成、シーン解析、及びトラッキング、いずれの三次元空間認識の機能も事後的な使用及びリアルタイムでの使用の両方が想定される。使用目的に応じて機能が選択されればよく、各機能は例えば選択に見合った性能、特に映像処理に関する性能のコンピュータを含むシステムに実装される。
このように、いずれの三次元空間認識の機能においても三次元モデルデータに基づく三次元映像データが用いられる。そしてこの三次元モデルデータは、各カメラ100によって撮影された映像データと、校正によって算出される各カメラ100のカメラパラメータとに基づく三次元空間再構成(モデリング)によって生成される。
このカメラパラメータは、三次元空間におけるカメラの位置及び姿勢を示す外部パラメータと、カメラの焦点距離、収差、画像中心等の光学系の特性を示す内部パラメータとからなる。このカメラパラメータからは、カメラが撮影する二次元映像上の点(u,v)と、この二次元映像に写される三次元空間である撮影領域内の点(x,y,z)との対応関係が導かれる。つまり、カメラパラメータを用いることで、このカメラが撮影した二次元映像上の各点を、撮影された三次元空間に投影することができる。この三次元空間への投影が上記の三次元空間再構成(図1の(d))である。
また、上記の複数台のカメラ100のカメラパラメータは、撮影領域に設定される共通の三次元座標系上で示される。そして各カメラ100のカメラパラメータは、複数台のカメラ100が撮影した各映像に写る撮影領域内の同じ場所(点)が、各映像からこの三次元座標系上で同じ点に投影されるよう算出される(図1の(b))。
このカメラパラメータは各カメラ100が撮影した映像データから三次元モデルデータを生成するために必要であり、その精度が三次元空間再構成の精度を左右する。ここでいう精度とは、カメラパラメータが示す、三次元空間におけるカメラ100の位置等の正確さ、つまりカメラ100の現実の状態との一致の程度である。カメラパラメータの精度が不十分な場合には、三次元モデルデータが得られない。
図1を参照して説明したように、撮像の直前に校正が実行された場合、カメラパラメータの精度は撮像開始の直後には十分であっても、カメラ100の設置場所の振動、カメラ100への操作等の要因で、一般的には時間の経過とともに低下する。以下では、カメラパラメータの精度が落ちたカメラ100の校正を撮像中にも適時に実行することで、カメラパラメータの精度の低下による三次元空間再構成への悪影響を抑え、ひいては三次元空間認識の精度と利用可能性の安定を図る撮像システムについて説明する。
[2.撮像システムの構成]
図2は、実施の形態1における撮像システムの構成を示すブロック図である。なお、撮像システムから受け取るデータを利用する三次元空間再構成装置及び三次元空間認識装置、及び三次元空間認識装置から自由視点映像等を受信して表示するユーザ機器についても、図2を参照して説明する。
実施の形態における撮像システム1000は、複数の撮像装置10A~10N、制御装置200、ユーザインタフェース500、及び移動体600を備える。撮像装置10A~10Nは、制御装置200と通信可能に接続されている。また、移動体600は、制御装置200と無線通信可能に接続されている。
[2-1.撮像装置の構成]
図3は、実施の形態1における撮像装置の構成を示すブロック図である。
複数の撮像装置10A~10Nは、それぞれが所定の空間を撮像するための図1のカメラ100に相当するカメラ100を備える装置であり、取り得る構成は共通である。なお、ここでいう所定の空間とは、複数台のカメラ100それぞれの撮影領域の和集合である。
撮像装置10A~10Nのそれぞれは、カメラ100、架台120、及び状況感知部160を備える。以降は、撮像装置10A~10Nの構成は同じであるため、本開示における1台の撮像装置について説明する場合には、撮像装置10Aについて説明する。つまり、以降において撮像装置10Aについて説明している箇所は、他の撮像装置10B~10Nについても同様のことが言える。
カメラ100は記憶部101、制御部102、光学系103、及びイメージセンサ104を備える。
記憶部101には、制御部102が読み出して実行するプログラムが記憶されている。また、記憶部101には、イメージセンサ104を用いて撮影された撮影領域の映像データ、この映像データに付されるタイムスタンプなどのメタ情報、後述の状況感知部160が感知した情報、カメラ100のカメラパラメータ、及び適用中のフレームレート又は解像度等の撮影設定が一時的に記憶される。記憶部101には、後述するマーカ606の形状を示す形状情報が記憶されていてもよい。形状情報の具体例については、後述する。
このような記憶部101は例えばフラッシュメモリ等の書換可能な不揮発性の半導体メモリを用いて実現される。また、保存されるデータの書換の要否又は必要な保存期間等に応じて書換不可能なROM(Read-Only Memory)又は揮発性のRAM(Random Access Memory)も記憶部101として用いられ得る。
なお、撮像システム1000が備える撮像装置は複数であれば特に個数は限定されない。また、各撮像装置10の特性は共通でなくてもよい。また、モノラルカメラに限定されず、ステレオカメラが含まれていてもよい。
制御部102は、例えばCPU(Central Processing Unit)を用いて実現され、上記の記憶部101に記憶されるプログラムを読み出して実行することで、カメラ100が備える各構成要素を制御して撮像その他の機能を発揮させる。その他の機能には、カメラパラメータの算出、つまり校正も含まれる。制御部102に含まれるなお、制御部102は、カメラ100が備える各構成要素を制御して撮像その他の機能を発揮させる専用回路により実現されてもよい。つまり、制御部102は、ソフトウェアで実現されてもよいし、ハードウェアで実現されてもよい。
光学系103は、撮影領域からの光をイメージセンサ104上に結像させる構成要素であり、レンズを含む光学素子を用いて実現される。また、焦点距離及び画角が変更可能であってもよい。また、広角レンズ、又は魚眼レンズのような超広角レンズが用いられてもよい。例えば撮像システム1000が撮影する映像が監視システムに用いられる場合、広範な撮影領域を得るために広角レンズが用いられることがある。なお、この光学系103の焦点距離、収差、画像中心等の特性は、上記の内部パラメータとして三次元空間再構成に用いられる。つまり、光学系103の焦点距離が変更されたり、レンズが交換されたりした場合には、カメラの位置に変更があった場合と同様に、三次元空間再構成に用いられるカメラパラメータを変更する必要がある。つまり、校正が必要である。
イメージセンサ104は、光学系103によって集められた光を受光面で受け、この受けた光を、画像を示す電気信号に変換するCCDイメージセンサ、CMOSイメージセンサ、又はMOSイメージセンサ等の固体撮像素子で実現される。イメージセンサ104によって生成された映像データは、三次元空間再構成及び三次元空間認識に用いられるため三次元空間再構成装置3000及び三次元空間認識装置4000に送信される。
図3に示されるカメラ100は、さらに動きセンサ105、動作検知部106、及び収音器107を備える。これらについては、後述の状況感知部160の構成要素として説明する。
架台120は、三次元空間再構成に用いられる映像データを撮像によって生成中のカメラ100を所定の位置で固定し支えるための構成要素であり、例えば三脚で実現される。なお、この撮像の準備としてカメラ100の固定位置を調整するために、架台120の脚部分は長さや角度が調整可能であってもよい。また、架台120には、カメラ100をパン又はチルトするために雲台を回転させる機構、上下に移動させるためのエレベータ機構等が備えられてもよい。あるいは、架台120は、ドリーやクレーン等の、カメラ100を支え且つ移動させる機構を含んでもよい。
図3に示される架台120は、さらに動きセンサ125及び動作検知部126を備える。これらについては、下記の状況感知部160の構成要素として説明する。
状況感知部160は、カメラ100(又は撮像装置10A)の状況、及びカメラ100の撮影領域を含む所定の空間の少なくとも一方の状況を感知し、感知したこの状況を撮像状況情報として出力する。別の表現を用いれば、状況感知部160は、カメラ100及び所定の空間の少なくとも一方における事象を測定するセンサ又は発生を検知する検知器であって、この測定又は検知の結果を示す信号を出力する。出力された信号は制御装置200に送信されて、制御装置200においてなされる、校正を実行するか否かに関する判定に用いられる。
状況感知部160としては、上記の状況を感知することができるセンサ又は検知器であれば、カメラ100又は架台120が備えるセンサ又は検知器が用いられてもよいし、これらとは別途設けられるセンサ又は検知器であってもよい。
例えばカメラ100が備えるイメージセンサ104が状況感知部160として用いられてもよい。この場合、制御装置200では、イメージセンサ104から出力される映像データに基づいて、校正を実行するか否かについて判定がなされる。例えば、映像データに映る背景領域の経時的な変化、特徴点の個数、又は、特定の被写体(例えば人、ボール、監視対象の展示物)の有無の経時的な変化に基づいてこの判定がなされる。
また、カメラ100は、変位、加速度、振動、傾き、若しくは地磁気を感知するセンサ、又はより大きな平行移動を感知可能なGPS(Global Positioning System)受信機等の測位機構を備える場合がある。これらのようなカメラ100の動き(移動)を検知可能なセンサ(動きセンサ105)が状況感知部160として用いられてもよい。
また、カメラ100は、ユーザがする手動の操作、又はプログラムを実行する制御部102による制御下で、つまり自動による動作を検知する機構を備える場合がある。ここで検知される動作の例としては、スイッチのON-OFFの切替、焦点距離、ピント等の光学系103の設定が変化するような動作が挙げられる。これらのようなカメラ100の動作を検知可能なセンサ(動作検知部106)が状況感知部160として用いられてもよい。
また、架台120が変位、加速度、振動、傾き、若しくは地磁気を感知するセンサ、又はよりGPS受信機等の測位機構を備えていてもよい。カメラ100の動きは、このカメラ100が固定されている架台120の動きに同調するため、例えば架台120の動きの有無に基づいてカメラ100の動きの有無を間接的に感知することができる。このようなカメラ100の動きを検知可能なセンサ(動きセンサ125)が状況感知部160として用いられてもよい。
また、架台120は、ユーザがする操作による動作を検知する機構を備える場合がある。ここでの検知される動作とは、例えば雲台の回転又は上下移動の動作である。これらのような架台120の動作を検知可能なセンサ(動作検知部126)が状況感知部160として用いられてもよい。
なお、架台120では、その動作によって機械的な動きが発生するため、動きセンサ125と動作検知部126とは、図3に示される構成では説明の便宜上区別されているが実際には必ずしも区別されなくてもよい。
カメラ100が収音器107を備える場合がある。又は、カメラ100とは別体の収音器147がカメラ100で撮影する場面の音を収集するために用いられる場合がある。これらの収音器107又は収音器147が収集する音がカメラ100又はカメラ100の撮影領域を含む所定の場所の状況を示しうる。例えば音によって、カメラ100又は架台120に衝撃が加わったこと、スポーツイベントでハイライトシーンであること、又は休憩時間の開始若しくは終了が示され得る。このような音を収集するための収音器107又は147が状況感知部160として用いられてもよい。
このように、本実施の形態における撮像システム1000の状況感知部160としては、種々のセンサを用いることができる。図3では、このように状況感知部160として用いられ得る構成要素のうち、カメラ100が必ず備えるイメージセンサ104は実線の枠で示され、それ以外は破線の枠で示されている。
また、状況感知部160は、カメラ100及び架台120のそれぞれが備えるセンサの両方で構成される必要はなく、上記に例示した、カメラ100(又は撮像装置10A)の状況、及びカメラ100の撮影領域を含む所定の空間の少なくとも一方の状況を感知するセンサ及び検知器のいずれかを少なくとも1つ備えればよい。
撮像装置10B~10Nもそれぞれ撮像装置10Aと同じく、カメラ100と、架台120と状況感知部160とを備える。撮像装置10A~10Nが取り得る構成は上記のとおり共通であるが、それぞれのカメラ100から、撮像によって生成された映像データと、カメラパラメータとが出力されて、撮像システム1000から三次元空間再構成装置3000に入力されれば、撮像装置10A~10Nの構成は共通でなくてもよい。また、1つの撮像装置が複数台のカメラ100を備えてもよいし、カメラ100が備える光学系及びイメージセンサが1つずつでなくてもよい。例えばカメラ100はステレオカメラであってもよい。
[2-2.制御装置及びユーザインタフェースの構成]
図4は、実施の形態1における制御装置の構成を示すブロック図である。
制御装置200は、記憶部201、制御部202、及びタイマー203を備える。
制御装置200は、撮像装置10A~10Nの制御、及び撮像装置10A~10Nから受け取ったデータの処理をする。また、ユーザインタフェース500を介してこの制御及びデータの処理に関する情報をユーザに提示し、ユーザからはこの制御及びデータの処理に関する指示の入力を受ける。また、制御装置200は、移動体600の制御を行う。
このような制御装置200は、例えばコンピュータである。この場合、記憶部201はこのコンピュータの記憶装置であり、ハードディスクドライブ若しくは各種の半導体メモリ、又はこれらの組み合わせで実現される。また、制御部202はこのコンピュータのCPUで実現され、タイマー203はこのCPUが参照する、コンピュータに備えられるタイマーである。また、ユーザインタフェース500は、このコンピュータに接続される表示装置、タッチスクリーン、トラックパッド、キーボード、マウス、その他のコントローラ類又はこれらの組み合わせによって実現される。
記憶部201には、制御部202が読み出して実行するプログラムが記憶されている。また、記憶部201には、撮像装置10A~10Nから受け取ったデータであって、制御部202による処理の対象であるデータが記憶される。図示の撮像状況情報はこのデータの例である。
制御部202は、上記の記憶部201に記憶されるプログラムを読み出して実行することで、上記の撮像装置10A~10Nの制御、撮像装置10A~10Nから受け取ったデータの処理、および、上記の移動体600の制御を行う。また、制御部202は、これらの制御及び処理に関するユーザへ情報の提示及びユーザからの指示に対する処理を実行する。これらの処理のひとつとして、撮像装置10A~10Nが備える各カメラ100による同期映像の撮影の制御が挙げられる。
また、これらの処理のひとつには、イベント検出および校正指示が含まれていてもよい。制御部202に含まれるイベント検出部202aは、イベント検出のためのプログラムを制御部202が実行することで実現される機能的な構成要素である。また、制御部202に含まれる校正指示部202bは、校正指示のためのプログラムを制御部202が実行することで実現される機能的な構成要素である。
また、これらの制御の一つには、移動体600の移動制御が含まれていてもよい。制御部202に含まれる移動制御部202cは、移動体600の移動制御のためのプログラムを制御部202が実行することで実現される機能的な構成要素である。また、制御部202に含まれる撮像制御部202dは、撮像装置10A~10Nの撮像制御のためのプログラムを制御部202が実行することで実現される機能的な構成要素である。また、制御部202に含まれる校正部202eは、複数の撮像装置10A~10Nの校正処理のためのプログラムを制御部202が実行することで実現される機能的な構成要素である。
なお、制御部202のイベント検出部202a、校正指示部202b、移動制御部202c、撮像制御部202d、及び校正部202eは、イベント検出、校正指示、移動制御、撮像制御、校正処理などを発揮させる専用回路により実現されてもよい。つまり、制御部202は、ソフトウェアで実現されてもよいし、ハードウェアで実現されてもよい。
イベント検出部202aは、撮像装置10A~10Nから提供された撮像状況情報に基づいて、撮像装置10A~10Nがそれぞれ備えるカメラ100のいずれかに校正の実行の理由になり得る所定のイベントの発生を検出する。校正の実行の理由になり得るイベントとは、例えばカメラ100の移動が発生する、又は移動の発生の可能性が高いイベント、又は高い精度で校正を実行することができる可能性が高いイベントである。より具体的な例については撮像システム1000の動作の説明の中で後述する。このようなイベントの発生を検出した場合に、イベント検出部202aは校正を実行するか否かについて判定する。校正を実行すると判定した場合は、実行される校正を示す校正情報を、例えば校正指示部202bに出力する。また、校正情報は、ユーザインタフェース500である表示装置に出力されてユーザに提示されてもよい。この校正情報には、例えば校正を実行するカメラ100(又はこれを含む撮像装置10A~10Nのいずれか)、及び校正の実行の理由であるイベントの内容が含まれる。
校正指示部202bは、イベント検出部202aから受け取った校正情報に基づいて、校正情報に示されるカメラ100に校正を実行させる。また、校正情報が示すカメラが2台以上である場合には、例えば校正情報が示す、校正の実行の理由であるイベントの内容に基づいて、各カメラ100に校正を実行させる順序を決定してもよい。校正指示部202bによる処理については具体例を後述する。
移動制御部202cは、複数の撮像装置10A~10Nに共通する撮像領域内であって、三次元空間における撮像領域内で、複数の撮像装置10A~10Nの構成に用いるマーカ606を有する移動体600を移動させる。具体的には、移動制御部202cは、撮像領域A1を複数の領域に分割したとき、複数の領域のうちマーカ606が撮像されたときに位置した第1領域とは異なる第2領域に、移動体600を移動させる。なお、撮像領域A1は、予め設定された空間であってもよいし、複数の撮像装置10A~10Nにより撮像された複数の画像から自動的に設定した空間であってもよい。
撮像制御部202dは、全ての撮像装置10A~10Nにマーカ606を撮像させる。撮像制御部202dは、複数の撮像装置10A~10Nのそれぞれに、撮像領域A1内を移動しているマーカ606を異なる複数のタイミングで撮像させる。撮像制御部202dは、複数の撮像装置10A~10Nのそれぞれが、予め定められた位置にあり、かつ、予め定められた方向を向いた姿勢にある状態で、複数の撮像装置10A~10Nに撮像領域を撮像させる。
校正部202eは、ユーザの操作に応じて、又は後述の制御装置200から校正情報が入力されると、その内容に従って校正を実行する。校正部202eは、撮像装置10A~10Nのカメラ100のそれぞれによって撮像されることにより得られたマーカ606を含む複数の画像を用いて、カメラの外部パラメータを校正する。具体的には、校正部202eは、複数の撮像画像に含まれる、複数の三次元位置のそれぞれに位置するマーカ606を、複数の撮像画像に共通する特徴点として対応付けるマッチングを行うことにより、複数の撮像装置10A~10Nの外部パラメータを校正してもよい。
ここで、また、1タイミングで複数の撮像装置10A~10Nのカメラ100により撮像されることにより得られた複数の画像を1つの画像群とする。つまり、例えば時刻t1などの同じ時刻において複数の撮像装置10A~10Nにより撮像されることにより得られた複数の画像を1つの画像群とする。校正部202eは、時刻t1~t6などの複数のタイミングで、複数の撮像装置10A~10Nのカメラ100により撮像されることにより得られた複数(本実施の形態では6つ)の画像群を用いて、複数の撮像装置10A~10Nのカメラ100の外部パラメータを校正してもよい。
また、校正部202eは、複数の画像群のそれぞれについて、当該画像群を構成する複数の画像のそれぞれにおいて、当該画像に含まれるマーカの当該画像における二次元位置である二次元座標を特定する。そして、校正部202eは、特定することにより得られた複数の二次元座標を互いに対応付けることで、複数の撮像装置10A~10Nのカメラ100の外部パラメータを校正してもよい。
なお、複数の三次元位置とは、例えば、後述する図9に示す点P1~P6である。校正は、例えば撮像装置10~10N間のそれぞれで撮影された二次元映像のうち、少なくとも一部が重複する撮影領域の映像間で、映像上の特定の点(又は点を複数含む線若しくは面)同士を対応付けることで実行される。この対応付けは、プログラムを実行する校正部202eによって自動でされる。校正の結果として算出されたカメラパラメータは、例えば三次元空間再構成に用いられるデータとして三次元空間再構成装置3000に送信される。
タイマー203は、制御部202によって上記の処理において計時のために参照される。
[2-3.三次元空間再構成装置及び三次元空間認識装置の構成]
次に、図2に戻り、三次元空間再構成装置3000及び三次元空間認識装置4000の校正について説明する。
三次元空間再構成装置3000はコンピュータを用いて実現され、図示しない記憶装置及び演算処理装置を備える。図示のモデル生成部302aは、この演算処理装置が、記憶装置に記憶される三次元モデルデータの生成(三次元空間再構成)のためのプログラムを実行することで実現される機能的な構成要素である。
モデル生成部302aは、三次元空間再構成装置3000が撮像システム1000から受信して記憶装置に記憶させた映像データ及びカメラパラメータに基づいて、被写体の三次元形状の再構成(モデリング)を実行する。三次元モデリングによって生成された三次元モデルのデータは記憶装置に記憶される。また、三次元空間認識装置4000に提供される。
三次元空間認識装置4000はコンピュータを用いて実現され、図示しない記憶装置及び演算処理装置を備える。図示の視点決定部402a、レンダリング部402b、シーン解析部402c、及びトラッキング部402dは、この演算処理装置が、記憶装置に記憶される三次元空間認識のためのプログラムを実行することで実現される機能的な構成要素である。なお、三次元空間認識装置4000は、その用途によってはこれらの機能的な構成要素の一部を含まなくてもよい。例えば三次元空間認識装置4000の用途が自由視点映像の生成であれば、シーン解析部402c及びトラッキング部402dを備えなくてもよい。三次元空間認識装置4000が監視システムの一部として用いられるのであれば、シーン解析部402c及びトラッキング部402dを含むことで、より高機能な監視システムが提供される。
視点決定部402aは、三次元空間再構成装置3000から提供された三次元モデルが投影される仮想視点を決定する。この決定は、例えばユーザ機器5000から、特定の時刻における特定の視点からの映像の要求があったときに、その特定の視点を三次元モデルが投影される仮想視点として決定される。または、あらかじめ設定された視点を三次元モデルが投影される仮想視点としても決定されてもよい。例えばスポーツイベントの自由視点映像であればゴール付近で選手の顔を正面から見える視点、監視装置の映像であれば、出入口付近の人物の顔が正面から見える視点が、三次元モデルが投影される仮想視点として決定されてもよい。または、後述のシーン解析部402c又はトラッキング部402dからの要求に応じて新たな視点が仮想視点として決定されてもよい。仮想視点が決定されると、決定された仮想視点を示す情報(以下、仮想視点情報という)が視点決定部402aからレンダリング部402bに渡される。
レンダリング部402bは、三次元空間再構成装置3000から受け取った三次元モデルのデータと、視点決定部402aから受け取った仮想視点情報と、撮像システム1000から受け取った映像データとを用いて自由視点映像を生成する。自由視点映像の生成においては、仮想視点情報が示す仮想視点に三次元モデルが投影される。この際、自由視点映像に含まれる被写体の色及びテクスチャの決定には、仮想視点から距離が近い撮像装置の映像データに含まれる各被写体の色及びテクスチャの情報が優先して利用される。生成された自由視点映像は、シーン解析部402cに渡されてもよいし、自由視点映像を表示するためのユーザ機器5000に配信されてもよい。また、三次元空間認識装置4000が備える記憶装置又は外部の記憶装置にて自由視点映像データとして保存されてもよい。
シーン解析部402cは、三次元空間再構成装置3000から受け取った三次元モデルのデータを解析して、例えば被写体の特定を行う。解析の結果は、トラッキング部402dに渡されてもよいし、自由視点映像と共に配信されてユーザ機器5000に表示されてもよい。また、三次元空間認識装置4000が備える記憶装置又は外部の記憶装置にて自由視点映像の解析結果のデータとして保存されてもよい。また、解析の結果に応じて、他の時刻又は他の位置における仮想視点の決定がシーン解析部402cから視点決定部402aに要求されてもよい。
トラッキング部402dは、三次元空間再構成装置3000から受け取った三次元モデルのデータに基づいて特定の被写体の追跡をする。追跡の結果は、自由視点映像と共に配信されてユーザ機器5000に表示されてもよい。また、例えば特定の被写体の追跡が不可能な場合に、他の時刻又は他の位置における仮想視点の決定がトラッキング部402dから視点決定部402aに要求されてもよい。
[2-4.ユーザ機器の構成]
ユーザ機器5000は、図示しない通信部及び表示部をそれぞれ備える、テレビ受信機、パーソナルコンピュータ、又は携帯端末等の機器である。通信部を介して三次元空間認識装置4000から受信された自由視点映像がユーザ機器の表示部に表示される。
また、ユーザ機器5000はタッチスクリーン、トラックパッド、キーボード、マウス、マイクロフォン、その他のコントローラ類又はこれらの組み合わせからなる入力装置を備えてもよい。そしてこの入力装置を介してユーザからの三次元空間再構成又は三次元空間認識に関する要求の入力を受け付けてもよい。例えば特定の時刻における特定の視点からの映像の表示の要求の入力が受け付けられると、この要求がユーザ機器5000の通信部から三次元空間認識装置4000に送信される。また、例えば特定の被写体の自由視点画像の表示の要求が受け付けられた場合、この要求がユーザ機器5000の通信部から三次元空間再構成装置3000又は三次元空間認識装置4000に送信されてもよい。また、例えばトラッキング対象の特定の被写体の指定の要求の入力が受け付けられた場合、この要求が三次元空間認識装置4000に送信されてもよい。
[2-5.移動体の構成]
図5は、実施の形態1における移動体の構成を示すブロック図である。
移動体600は、記憶部601、制御部602、複数(本実施の形態では4つ)のロータユニット603、通信部604、検出部605、及びマーカ606を備える。
移動体600は、校正を実行する少なくとも1つの撮像装置10A~10Nが備えるカメラ100による撮像領域まで飛行することで、校正に用いるマーカ606を当該撮像領域に移動させる。
記憶部601には、制御部602が読み出して実行するプログラムが記憶されている。
制御部602は、上記の記憶部601に記憶されるプログラムを読み出して実行することで、通信部604を介して取得した制御装置200からの移動制御に関する制御情報に応じた移動制御を行う。また、制御部602は、検出部605により検出された移動体600の位置、姿勢などの検出結果に基づいて、移動体600の移動制御における、姿勢の制御、移動方向の制御などを実行する。制御部602は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read-Only Memory)、通信インタフェース、及び、I/Oポート等を備えるコンピュータによって実現される。なお、制御部602は、移動制御を発揮させる専用回路により実現されてもよい。つまり、制御部602は、ソフトウェアで実現されてもよいし、ハードウェアで実現されてもよい。
複数のロータユニット603のそれぞれは、図示しないプロペラ及びモータを備える。複数のロータユニット603は、それぞれ、鉛直方向に平行な回転軸でプロペラが回転する姿勢で移動体600の筐体に固定されている。複数のロータユニット603では、各ロータユニット603が固定されている筐体の位置において、モータによりプロペラを回転させることで、当該位置に対して上向きまたは下向きの力を付与することができる。複数のロータユニット603は、各ロータユニット603が制御部602により回転速度、回転方向などを制御されることにより、移動体600を所望の方向へ移動させる。
通信部604は、制御装置200に無線通信接続する。通信部604は、制御装置200に無線通信接続できる通信インタフェースであればよく、例えば、IEEE802.11a、b、g、n規格に適合した無線LAN(Local Area Network)インタフェースであってもよいし、Bluetooth(登録商標)規格に適合した無線通信インタフェースであってもよいし、Zigbee(登録商標)規格に適合した通信無線インタフェースであってもよい。
検出部605は、移動体600の位置及び姿勢を検出する。具体的には、検出部605は、移動体600の変位、加速度、傾きなどを検出するセンサ、移動体600における地磁気を感知するセンサ、又は移動体600の位置を検出可能なGPS(Global Positioning System)受信機等の測位機構を備えていてもよい。
マーカ606は、予め定められた外観を有する。マーカ606は、具体的には、電球、LED(Light Emitting Diode)などの点光源により構成される。マーカ606は、円形、四角形、三角形、星形などの形状を有していてもよいし、赤、青、緑、黄色などの色を有していてもよい。
ここで、カメラ100の記憶部101に記憶されているマーカ606の外観を示す情報とは、例えば、マーカ606の形状及び/または色を示す情報である。
なお、上記の移動体600は、複数のロータユニット603を備える、いわゆるドローンであるが、ドローンに限らずに、バルーン及び推進力を得られるロータユニットを備える飛行船型の飛行体であってもよいし、ヘリコプター型の飛行体であってもよい。また、無人の飛行体に限らずに、有人の飛行体であってもよい。つまり、移動体600は、制御装置200の指示を受けて、移動制御可能な飛行体であれば、どのような飛行体であっても構わない。また、移動体600は、飛行体としたが、飛行体に限らずに、スパイダーカム(登録商標)のように吊された状態で空中を移動する機器であってもよい。
[2-6.その他]
以上、本実施の形態における撮像システム1000の構成、及び撮像システム1000から受け取る映像データ及びカメラパラメータを利用する三次元空間再構成装置3000及び三次元空間認識装置4000、及び三次元空間認識装置4000から自由視点映像等を受信して表示するユーザ機器5000それぞれの構成について説明した。なお、これらの構成は上記の説明に限定されない。
また、上記ではコンピュータを用いて実現されるとそれぞれ説明された制御装置200、三次元空間再構成装置3000、及び三次元空間認識装置4000は、これらの一部又は全てが組み合わせられて1台以上のコンピュータ上に実装されてもよい。
また、ユーザインタフェース500とユーザ機器5000とは、同一の機器であってもよい。つまり、ユーザインタフェース500は、ユーザ機器5000と同様に三次元空間認識装置4000から配信される映像を受信して、これをシステム管理者に表示してもよい。このシステム管理者が、撮像システムの管理者であるとともに、三次元空間再構成装置3000及び三次元空間認識装置4000を含む自由視点映像配信システム又は監視システムの管理者でもあれば、表示されるこの映像に応じて三次元空間再構成装置3000及び三次元空間認識装置4000の制御のための要求を入力することができる。
[3.動作]
次に、本実施の形態における撮像システム1000による、校正の適時の実行を実現する動作について説明する。
撮像システム1000では、校正を適時に実行するために、撮像装置又はその周囲の状況に変化(イベント)が発生した時に、校正を実行するか否かの判定がなされる。図6は、本実施の形態における撮像システム1000による、校正をするか否かの判定を含む一連の動作を説明するためのシーケンス図である。なお、図6において、撮像装置10は、図2に示される撮像装置10A~10Nのうちの任意のひとつを示す。
撮像中の撮像装置10において、状況感知部160は、常時又は所定の周期でカメラ100(又は撮像装置10)の状況及びカメラ100の撮影領域を含む所定の空間の少なくとも一方の状況を感知する(ステップS31)。感知された状況は、撮像状況情報として状況感知部160から出力されて制御装置200に送信される。
制御装置200では、受信した撮像状況情報に基づいて、所定のイベントの発生をイベント検出部202aが検出する(ステップS32)。
この所定のイベントとは、現状のカメラパラメータがカメラ100の位置等を正確に示さなくなるきっかけとなるイベントである。具体的には、例えば構成の説明で上述した、カメラ100の移動を発生させるイベント、又は移動を発生させた可能性が高いイベントである。また、カメラ100が移動していない場合でも、撮影領域を変化させるイベント、又は撮影領域の変化を発生させた可能性が高いイベントもこの所定のイベントとして検出されてもよい。
このようなイベントの検出に用いられる撮像状況情報の例としては、イメージセンサ104から出力された映像データの情報、及び動きセンサ105若しくは125が出力したカメラ100の位置、傾き、又は振動などを示す情報が挙げられる。映像データの場合は、例えば映像が解析されて、背景領域と推定される領域内の変化、又は映像中で背景領域が占める範囲の変化に基づいてカメラ100の位置等の変化の有無が推定され得る。
また、撮像状況情報は、動作検知部106又は126から出力される、カメラ100又は架台120の所定の動作を示す情報であってもよい。より具体的には、カメラ100の焦点距離の変更、露出の変更、電源のON-OFFの切替、架台120の雲台の移動等を示す情報である。これらの動作は、人手による操作によって生じたものであっても、撮像装置10の自動制御によって生じたものであっても撮像状況情報において示されてよい。
カメラパラメータは、所定の動作後のカメラ100の状態を正しく反映しない場合がある。例えば焦点距離が変わると、これに伴って内部パラメータも変わる。また、電源を一旦落とすバッテリー交換の前後で、ユーザが意図せずともカメラ100の位置又は姿勢が変わると、これに伴って外部パラメータも変わる。あるいは、電源がOFFの間にカメラ100が移動された場合、カメラ100の動きセンサ105ではこの移動が検知されない。したがって、カメラ100の電源再投入後には、電源をOFFにする前に使われていたカメラパラメータは、カメラ100の位置及び姿勢を正しく反映していない。また、架台120の雲台の回転又は上下の動作は、カメラ100の位置や姿勢の変化を伴う(以下では架台120の動作も含めてカメラ100の動作という場合がある)。このように、カメラ100の状態の変化を伴う可能性が高い所定の動作を検知し、この検知に基づき校正の実行を判定することで、カメラパラメータの精度の維持が図られる。
また、撮像状況情報は、収音器107又は147から出力される、撮像装置10周辺の音の情報であってもよい。
イベント検出部202aは、このような撮像状況情報が示す経時的な変化が所定の閾値を超える場合にイベントの発生を検出する(ステップS32でYES)。この所定の閾値は、本実施の形態における第1閾値の例である。
イベントの発生を検出した場合(ステップS32でYES)、イベント検出部202aは、例えばこの情報の経時的な変化の大きさに基づいて校正を実行するか否かを判定する(ステップS33)。例えばこの所定の閾値は、撮像状況情報が示すカメラ100の移動の大きさに対して現状のカメラパラメータを使い続ける場合の三次元空間再構成の精度への影響の大きさを考慮して決定される。そして校正を実行するか否かの判定は、例えばこの変化が第1閾値より大きい所定の閾値を超えるか否かに基づいて判定される。この第1閾値より大きい所定の閾値は、本実施の形態における第2閾値の例である。
また、所定のイベントとは、高い精度で校正を実行することができる可能性が高いイベントであってもよい。例えば特徴点を多く含む映像を用いて実行される校正では、より精度(信頼度)の高いカメラパラメータが得やすい。
このようなイベントの検出に用いられる撮像状況情報としても、上記のイメージセンサ104から出力された映像データに示される情報が例に挙げられる。例えば映像の解析によって特徴点が抽出され、抽出された特徴点の個数が所定の個数以上である場合に、所定のイベントが発生し(ステップS32でYES)、また、校正を実行すると判定されてもよい(ステップS33でYES)。
また、所定のイベントとは、ユーザの利便性に与える影響が少ないイベントであってもよい。例えばスポーツイベントにおいて、ハーフタイム等の試合が展開しない時間帯であるときに、所定のイベントの発生として検出されてもよい。あるいは、球技であればボールがなく人もいない場所に注目するユーザは少ないため、撮影領域の全体がボールも人もない状態であるときに、所定のイベントの発生として検出されてもよい。また、監視システムであれば、撮影領域又はその周辺も含めて人や自動車がいない状態であるときに、所定のイベントの発生として検出されてもよい。
このようなイベントの検出に用いられる撮像状況情報としても、上記のイメージセンサ104から出力された映像データに示される情報、また、収音器107又は147から出力される、撮像装置10周辺の音の情報が例に挙げられる。映像データの場合は、例えば映像の解析によって、映像に人等の所定のオブジェクトの画像が含まれていない場合に、所定のイベントが発生し(ステップS32でYES)、さらに、校正を実行すると判定されてもよい(ステップS33でYES)。音の情報の場合は、音の解析によって試合が進行中であるか、ホイッスルが鳴らされたか、撮像装置10の周辺に人の話し声や足音、又は自動車の動力音若しくは走行音があるか等の判定がなされてもよい。
また、カメラ100への操作の種類によっては、その発生が所定のイベントの発生と判定されてもよい。例えばカメラ100の再起動、バッテリーの交換、又はレンズの付け外しが発生した場合は、このカメラ100の撮影領域に変化が生じている可能性が高いためである。このようなイベントの検出も、動作検知部106から出力される情報に基づいてなされる。例えばバッテリーの交換又はレンズの交換はカメラ100の電源がオフの状態で行われるため、その後の撮像開始に先立ってカメラ100の起動の動作が発生する。したがって、例えばイベント検出部202aは、起動の動作の検知を示す情報を受信した場合に所定のイベントの発生と判定してもよい。その後のステップS33においては、起動後には必須の動作として校正を実行すると判定されてもよいし、他の撮像状況情報に基づいて判断されてもよい。
また、イベント検出部202aは、カメラ100の前回の校正から所定の時間が経過したときに所定のイベントの発生を検出してもよい。例えば、イベント検出部202aは、記憶部201に校正実行のログを残し、制御装置200が備えるタイマー203が示す時刻を参照して前回の校正からの経過時間を算出し、この経過時間が所定の時間を超えたときに、所定のイベントの発生を検出する。
これにより、カメラ100の校正が所定の頻度以上で実行される。例えばあるカメラ100で、校正を実行すると判定される第2閾値を下回る変化が蓄積し、校正が実行されないままカメラパラメータがカメラ100の実際の状態から乖離している場合に、カメラパラメータの更新の機会が確保される。
校正を実行しないと判定したイベント検出部202aは(ステップS33でNO)、撮像状況情報の受信待機状態に戻る。
校正を実行すると判定したイベント検出部202aは(ステップS33でYES)、校正情報を出力する。
校正情報には、校正を実行させる対象であるカメラ100(又はこのカメラ100を含む撮像装置10)及び校正を実行させると判定した理由(上記のイベント)が含まれる。図7A及び図7Bは、それぞれ校正情報のデータ構成の例を示す。
図7Aの例では、校正を実行させる対象が、該当のカメラ100を含む撮像装置10Aを用いて示されている(「校正対象」の欄の「10A」)。また、校正を実行する理由が、20という理由コードと合わせて「雲台回転移動」と「理由」の欄に示されている。このような校正情報は、イベント検出部202aが、撮像装置10Aの状況感知部160から受け取った撮像状況情報が第1閾値及び第2閾値を上回る雲台の回転移動を示していた場合に出力される。
図7Bの例では、カメラ校正を実行させる対象のカメラ100が、すべての撮像装置10に含まれるカメラ100であることが示されている(「校正対象」の欄の「All」)。また、カメラ校正を実行する理由が、「理由」の欄に100という理由コードと合わせて「ハーフタイム検出」と示されている。このようなカメラ校正情報は、イベント検出部202aが、撮像装置10のいずれかの状況感知部160から受け取った撮像状況情報から、撮影領域を含む所定の空間で行われているスポーツの試合のハーフタイムが始まったと推定した場合に出力される。このように、検出されたイベントの内容によっては、イベント検出部202aは、撮像状況情報の送信元である撮像装置10が含むカメラ100以外のカメラ校正を実行すると判定してもよい。
校正情報は、校正指示部202bに入力される。校正情報を受け取った校正指示部202bは、校正情報の内容に基づいて校正指示を生成し、生成した校正指示を適切なカメラ100を含む撮像装置10に送信する。
また、校正情報は、例えばユーザインタフェース500に送信されて、システム管理者等のユーザに提示されてもよい(ステップS34)。ユーザはこの情報に基づいて対象のカメラ100に校正をさせるための指示を、ユーザインタフェース500を介して入力する(ステップS35で指示受付)。入力された指示は、校正部202eに送信される。
校正指示を受信した、撮像装置10のカメラ100及び移動体600では、校正処理が実行される(S36)。校正処理では、移動体600において校正指示に基づいて移動制御が実行され(S36A)、制御装置200の校正部202eにおいて全ての撮像装置10A~10Nの外部パラメータの校正が実行される(ステップS36B)。なお、内部パラメータの校正を行う場合には、カメラ100の制御部102において校正が実行されてもよい。校正処理が実行されることによって算出されたカメラパラメータは、三次元空間再構成装置3000に出力される(ステップS37)。
次に、校正処理の具体例について説明する。
図8は、実施の形態1における校正処理の一例を示すフローチャートである。図9~13は、実施の形態1における校正処理の詳細を説明するための図である。
本実施の形態における校正処理では、まず、制御装置200の移動制御部202cは、複数の撮像装置10A~10Nのカメラ100の撮像領域A1内で、マーカ606を有する移動体600を移動させる(S41)。具体的には、移動制御部202cは、図9に示すように、予め定められた撮像領域A1内の位置が偏らないように、移動体600をランダムな経路で移動させる。例えば、移動制御部202cは、Y軸方向に平行な複数の経路であって、X軸方向及びZ軸方向の位置が異なる経路を移動させてもよい。また、移動制御部202cは、撮像領域A1内において、特徴点が検出されにくい領域、または、三次元空間認識に利用される領域内を移動体600に優先的に移動させてもよい。三次元空間認識に利用される領域とは、例えば、観客からの注目度が高い領域であり、撮像領域A1がサッカー場である場合、サッカーゴール前の領域であってもよいし、撮像領域A1が野球場である場合、ピッチャーとキャッチャーとの間の領域であってもよいし、バスケットボールのコートである場合、バスケットゴール前の領域であってもよい。また、三次元空間認識に利用される領域とは、交差点などの人混みの多い領域であってもよい。
例えば、移動制御部202cは、移動体600に対して撮像領域A1の位置を示す位置情報を送信することで、当該撮像領域A1まで移動させてもよいし、移動体600の位置情報を取得することで、移動体600に対してリアルタイムに移動する方向を指示してもよい。移動体600の位置情報は、移動体600のGPSにより取得された位置情報を移動体600から取得してもよいし、複数の撮像装置10A~10Nのカメラ100によって撮像された複数の画像から移動体600の位置を取得してもよい。なお、本実施の形態では、移動体600は、図9に示すように、点P1~P6を結ぶ破線矢印で示す経路を移動することとする。
次に、制御装置200の撮像制御部202dは、撮像装置10A~10Nのカメラ100にマーカ606を撮像させる(S42)。具体的には、移動制御部202cが移動体600を撮像領域A1に移動させたと判定した場合、撮像制御部202dが撮像装置10A~10Nのカメラ100に撮像させる。具体的には、図9に示すように、撮像装置10A~10Nのそれぞれによって、撮像が行われ、各撮像装置10A~10Nから撮像画像A~Nが得られる。撮像画像A~Nを示す情報は、制御装置200に送信される。なお、移動制御部202cは、複数の撮像装置10A~10Nにより撮像されることで得られた複数の画像にマーカ606が含まれていなければ、ステップS41を繰り返すことで、移動体600をカメラ100の撮像領域A1内に移動させる処理を再び行う。
そして、制御部202は、複数の撮像装置10A~10Nのカメラ100によって撮像された複数の画像のそれぞれから、特徴点を抽出し、三次元空間上の同一の位置で撮像された特徴点のマッチングを行う(S43)。制御部202は、複数の画像のそれぞれから抽出する特徴点は、移動体600のマーカ606の画像であってもよいし、人物、建物、広告などの画像から得られる特徴点であってもよい。
例えば、図10Aの(a)は、時刻t1において移動体600のマーカ606が点P1に位置するときを示す図である。このように、時刻t1のタイミングでは、複数の撮像装置10A~10Nのカメラ100は、点P1に移動体600のマーカ606に位置するときの画像を撮像する。このとき複数の撮像装置10A~10Nにより撮像された撮像画像A1、B1、・・・で構成される画像群G1は、三次元空間上の点P1にマーカ606が位置するときの画像である。このため、それぞれの撮像画像A1、B1、・・・に含まれるマーカ606の当該撮像画像における特徴点P1A、P1B、・・・の二次元座標を抽出し、抽出した二次元座標をマッチングすることで、図10Aの(b)に示すようなマッチングされた二次元座標が得られる。
また、図10Bの(a)は、時刻t1の後の時刻t2において移動体600のマーカ606が点P2に位置するときを示す図である。時刻t1の場合と同様に、時刻t2のタイミングでは、複数の撮像装置10A~10Nのカメラ100は、点P2に移動体600のマーカ606に位置するときの画像を撮像する。このとき複数の撮像装置10A~10Nにより撮像された撮像画像A2、B2、・・・で構成される画像群G2は、三次元空間上の点P2にマーカ606が位置するときの画像である。このため、それぞれの撮像画像A2、B2、・・・に含まれるマーカ606の当該撮像画像における特徴点P2A、P2B、・・・の二次元座標を抽出し、抽出した二次元座標をマッチングすることで、図10Aの(b)に示すようなマッチングされた二次元座標が得られる。
制御装置200は、図10A、10Bで説明した処理を複数の異なるタイミングの一例である時刻t1~t6においてそれぞれ行うことで、時刻t1~t6のそれぞれで複数の撮像装置10A~10Nにより撮像されることで得られた複数の撮像画像を取得する。例えば、図10Cに示すように、制御装置200は、撮像装置10A~10Nのうちの撮像装置10Aおよび撮像装置10Bから、撮像画像A1~A6及び撮像画像B1~B6を取得する。制御装置200は、図11に示すように、他の撮像装置10C~10Nについても複数の撮像画像を取得する。なお、図11は、時刻t1~t6において、撮像装置10A~10Nが撮像することで得られる撮像画像の一覧を示す図である。
ここで、画像群n(nは、自然数)とは、図11に示すように、所定のタイミングtnにおいて、複数の撮像装置10A~10Nが撮像することにより得られた複数の撮像画像An~Nnである。例えば、画像群G1は、時刻t1で複数の撮像装置10A~10Nが撮像することにより得られた複数の撮像画像A1~N1である。
なお、図10Cでは、撮像画像A1~A6は、時刻t1~t6においてマーカ606が撮像装置10Aにより撮像されることで得られた各撮像画像A1~A6内の位置を重畳した図である。撮像画像B1~B6は、時刻t1~t6においてマーカ606が撮像装置10Bにより撮像されることで得られた各撮像画像B1~B6内の位置を重畳した図である。制御部202は、図10Cのような重畳した画像を生成する必要はないが、説明の便宜上、重畳した画像を用いて説明する。
制御装置200は、図10Cに示すように、撮像画像A1~A6から得られた特徴点P1A~P6Aの当該撮像画像A1~A6における二次元座標と、撮像画像B1~B67から得られた特徴点P1B~P6Bの当該撮像画像B1~B6における二次元座標とをマッチングする。具体的には、この場合、制御装置200は、撮像装置10A及び撮像装置10Bのそれぞれにおいて、同一のタイミングで撮像された撮像画像に含まれるマーカ606の画像を同一の三次元空間上の位置で撮像された特徴点としてマッチングする。ここでは、撮像装置10A及び撮像装置10Bが撮像した撮像画像A1~A6、B1~B6について説明したが、同様のことを、他の撮像装置10C~10Nが撮像した撮像画像についても行う。これにより、図12に示すような、マッチング結果が得られる。
図8の説明に戻り、ステップS43のマッチングを行った後、制御装置200は、マッチング結果が十分であるか否かを判定する(S44)。具体的には、制御装置200は、図12で示したマッチング結果として蓄積された、複数の画像間において対応付けられた点の数が所定数以上ある場合に、マッチング結果の数が十分であると判定し、当該点の数が所定数未満の場合に、マッチング結果が不十分であると判定する。本実施の形態では、所定数を例えば「5」とする。
また、制御装置200は、各撮像画像の全体に亘ってマッチングされた特徴点が検出されている場合に、マッチング結果の数が十分であると判定してもよい。なお、撮像画像の全体に割ってマッチングされた特徴点が検出されているとは、例えば、一の撮像装置によって撮像された撮像画像を複数の領域に分割したとき、複数の領域のそれぞれにおいて1以上のマッチングされた特徴点が検出されている複数の撮像画像が当該一の撮像装置から得られていることとしてもよい。なお、一の撮像装置だけでなく、このような撮像装置が所定の台数よりも多い場合に、マッチング結果の数が十分であると判定してもよい。
制御装置200は、マッチング結果が十分であると判定した場合(S44でYES)、マッチング結果を用いて、複数の撮像装置10A~10Nの外部パラメータの校正を行う(S45)。外部パラメータの校正方法の詳細は、後述する。
一方で、制御装置200は、マッチング結果が十分でないと判定した場合、移動体600をマッチング結果が不足している領域に移動させる(S46)。なお、ここでいう、マッチング結果が不足している領域とは、撮像画像を複数の領域に分割したときに、どの撮像装置からもマッチングされた特徴点が検出されていない領域としてもよい。また、マッチング結果が不足している領域とは、図13の(a)に示すように、撮像領域A1を複数(図13では8つ)の三次元空間の領域A11~A14、A21~A24に分割したとき、複数の領域のうちマーカ606が撮像されたときに位置した第1領域A11~A14、A21、A22、A24とは異なる第2領域A23である。つまり、マッチング結果が不足している領域とは、複数の領域のうち、移動体600がまだ通過していない領域である。なお、図13の(b)は、領域A11~A14、A21~A24の範囲を定義した表である。
ステップS46が終了すると、ステップS42に戻る。つまり、制御装置200は、マッチング結果が十分であると判定されるまで、ステップS42、S43、S44、S46の処理を繰り返す。
制御装置200は、外部パラメータを校正が終わると、移動体600を所定の位置に移動させて、移動体600の移動を終了する(S47)。
[4.外部パラメータの校正方法]
本実施の形態では、撮像領域A1を複数の撮像装置10A~10Nのカメラ100で撮像した結果である複数の撮像画像から抽出された、三次元空間の位置が共通する特徴点をマッチングする。そして、マッチング結果を用いて、複数の撮像装置10A~10Nの外部パラメータを算出する。具体的には、マッチング結果に基づきエピポーラ制約などの幾何学制約を利用することで、複数の撮像装置10A~10Nの外部パラメータは、求められる。
[5.効果等]
以上のように、本実施の形態において、撮像システム1000は、互いに異なる位置に配置されている複数の撮像装置10A~10Nのパラメータを校正する。撮像システム1000は、移動制御部202cと、撮像制御部202dと、校正部202eとを備える。移動制御部202cは、複数の撮像装置10A~10Nに共通する撮像領域A1であって、三次元空間における撮像領域A1内で、複数の撮像装置10A~10Nの校正に用いるマーカ606を有する移動体600を移動させる。撮像制御部202dは、複数の撮像装置10A~10Nにマーカ606を撮像させる。校正部202eは、異なる複数の三次元位置にあるマーカ606が複数の撮像装置10A~10Nのそれぞれによって撮像されることにより得られた複数の撮像画像A~Nを用いて、複数の撮像装置10A~10Nの外部パラメータを校正する。
これによれば、移動体600を用いて、マーカ606を複数のカメラ100に共通する撮像領域A1内で移動させた状態で、当該マーカ606を複数のカメラ100に撮像させる。このため、大きなサイズのマーカを用意しなくても、互いに異なる位置に配置されている複数のカメラ100の外部パラメータの校正を容易に行うことができる。また、例えば試合中など、マーカを配置できない場合においても外部パラメータの校正を行うことができる。
また、本実施の形態において、校正部202eは、複数の撮像画像A~Nに含まれる、複数の三次元位置のそれぞれに位置するマーカ606を、複数の撮像画像A~Nに共通する特徴点として対応付けることにより、複数の撮像装置10A~10Nの外部パラメータを校正する。
このため、カメラの外部パラメータの校正を効果的に行うことができる。
また、本実施の形態において、撮像制御部202dは、複数の撮像装置10A~10Nのそれぞれに、撮像領域A1内を移動しているマーカ606を異なる複数のタイミングで撮像させる。校正部202eは、1タイミングで複数の撮像装置10A~10Nにより撮像されることにより得られた複数の撮像画像を1つの画像群としたとき、複数のタイミングで、複数の撮像装置10A~10Nにより撮像されることにより得られた複数の画像群を用いて、複数の撮像装置10A~10Nの外部パラメータを校正する。
このため、カメラの外部パラメータの校正を効果的に行うことができる。
また、本実施の形態において、校正部202eは、複数の画像群G1~G6のそれぞれについて、当該画像群を構成する複数の画像のそれぞれにおいて、当該画像に含まれるマーカの当該画像における二次元位置を特定する。そして、校正部202eは、特定することにより得られた複数の二次元位置を互いに対応付けることで、複数の撮像装置10A~10Nの外部パラメータを校正する。
このため、カメラの外部パラメータの校正を効果的に行うことができる。
また、本実施の形態において、移動制御部202cは、撮像領域A1を複数の領域A11~A14、A21~A24に分割したとき、複数の領域A11~A14、A21~A24のうちマーカ606が撮像されたときに位置した第1領域とは異なる第2領域に、移動体600を移動させる。
このため、精度よく外部パラメータの校正を行うことができる。
また、本実施の形態において、撮像システム1000は、複数台のカメラ100と、状況感知部160と、イベント検出部202aとを備える。
複数台のカメラ100は、所定の空間内において少なくとも一部が重複する領域の映像を互いに異なる位置から撮影する。
状況感知部160は、複数台のカメラ100の各々及び上記の所定の空間の少なくとも一方の状況を感知して、感知した状況を撮像状況情報として出力する。
イベント検出部202aは、この撮像状況情報に基づいて、所定のイベントの発生を検出し、前記所定のイベントの発生を検出した場合に、校正を実行するか否かについて判定する。また、校正を実行すると判定した場合は、実行される前記校正を示す校正情報を出力する。
これにより、撮像中のカメラ100の状況又は撮像が行われている場所の状況(イベント)に基づいて、校正の実行が必要であるか否か、又は校正の実行に適したタイミングであるか否かが判断される。そして実行されるこの校正を示す情報が提供されることで、対象及びタイミングが適切な校正の実行が可能になる。そして各カメラ100の実際の位置等をカメラパラメータに反映するための更新の機会が撮像中にも確保される。このように更新されたカメラパラメータが用いられることで、三次元空間再構成が適切に実行される状態が維持され、その結果、三次元空間認識の精度及び利用可能性の安定性が高められる。
また、撮像システム1000は、複数台のカメラ100の校正を実行させる校正指示部202bをさらに含んでもよい。そして校正情報は、複数台のカメラ100のうち、校正を実行するカメラ100を示す。出力された校正情報は校正指示部202bに入力され、校正指示部202bは、この校正情報が示すカメラ100に校正を実行させる。
これにより例えば人がすぐに近づけない位置にあるカメラ100であっても、校正情報に基づく校正を速やかに実行することができる。したがって、三次元空間再構成が適切に実行される状態が維持され、その結果、三次元空間認識の精度及び利用可能性の安定性が高められる。
また、校正情報は、さらに発生が検出された所定のイベントの内容を示してもよい。そして校正情報が示す校正を実行するカメラ100が2台以上である場合、校正指示部202bは、校正情報に示される所定のイベントの内容に基づいて、校正を実行するカメラ100の順序を決定し、2台以上のカメラ100の校正を、決定した順序で実行させる。
所定の空間の状況によっては、一斉に実行することで、精度の高い校正を速やかに実行できる場合がある。このように校正を実行する理由となったイベントに応じて校正を実行するカメラ100の順序を決定することで、三次元空間再構成が適切に実行される状態の維持に適した順序でカメラ100の校正が実行される。なお、この「順序」には、複数台のカメラ100で並行して校正が実行される場合も含まれる。
また、状況感知部160は、複数台のカメラ100がそれぞれ備えるイメージセンサ104を含み、状況感知部160が出力する撮像状況情報は、イメージセンサ104が出力する映像を含んでもよい。この場合に、イベント検出部202aは、この映像に含まれる特徴点を抽出し、抽出した特徴点の数が所定の個数以上である場合に、所定のイベントの発生を検出し、校正を実行すると判定してもよい。
特徴点を多く含む映像を用いて実行される校正では、より精度(信頼度)の高いカメラパラメータが得られやすい。つまりこのようなときは校正の実行に適したタイミングである。このタイミングで実行された校正によって得られたカメラパラメータを用いることで、三次元空間再構成もより高い精度で実行され、三次元空間認識の精度及び利用可能性の安定性が高められる。
また、状況感知部160は、複数台のカメラ100がそれぞれ備えるイメージセンサ104を含み、状況感知部160が出力する撮像状況情報は、イメージセンサ104が出力する映像を含んでもよい。そしてこの場合に、イベント検出部202aは、この映像に所定のオブジェクトの画像が含まれているか否かを判定し。所定のオブジェクトの画像が含まれていない場合には、所定のイベントの発生を検出し、校正を実行すると判定してもよい。
ここでいう所定のオブジェクトとは、カメラ100が撮像している場面の重要性を示すものであり、例えば監視区域における人や、球技の試合における選手又はボールである。このようなオブジェクトの画像を含まない映像データは、自由視点映像の生成に用いられる可能性が低いため、校正の実行の対象とすることでユーザから見ての三次元空間認識の精度及び利用可能性の安定性が高められる。
また、状況感知部160は、複数台のカメラ100がそれぞれ備えるイメージセンサ104、複数台のカメラ100それぞれの位置の変化及び姿勢の変化を感知する動きセンサ105又は125、及び所定の空間内の音を収音する収音器107又は147のうち少なくとも1つを含んでもよい。そして、状況感知部160が出力する撮像状況情報は、イメージセンサ104、動きセンサ105又は125、及び収音器107又は147のうち少なくとも1つのそれぞれが出力する情報であってもよい。この場合に、イベント検出部202aは、撮像状況情報が第1閾値を超える変化を示す場合に所定のイベントの発生を検出し、撮像状況情報が第1閾値より大きい第2閾値を超える変化を示す場合に校正を実行すると判定してもよい。
イメージセンサ104等から出力される情報の変化からは、各カメラ100の移動等、各カメラ100における撮影領域を変化させて、カメラパラメータがカメラ100の実際の状態を反映しなくなる可能性が高い変化を把握することができる。しかし、この変化の程度が小さい場合にも校正を実行するのは、映像データの利用可能な時間を削減し、かえって三次元空間再構成に悪影響が及ぶ可能性もなる。そこで、各カメラ100の状況又は撮像場所の状況の変化の程度に応じて校正を実行するか否かが判定される。これにより、三次元空間再構成の適切な実行に影響があるような変化の場合には校正が実行され、その一方で、状況の変化よりも校正の実行自体の三次元空間再構成への影響が大きい場合には校正が実行されない。したがって、三次元空間再構成が適切に実行される状態が維持され、その結果、三次元空間認識の精度及び利用可能性の安定性が高められる。
また、状況感知部160は、複数台のカメラ100それぞれの所定の動作を検知する動作検知部126を含み、状況感知部160が出力する撮像状況情報は、動作検知部126が出力する、発生した所定の動作の情報であってもよい。この場合、イベント検出部202aは、撮像状況情報として示される発生した所定の動作の情報に基づいて所定のイベントの発生を検出してもよい。
これにより、カメラ100又は架台120の動作によるカメラ100の状態の変化に応じてカメラパラメータが更新されることで三次元空間再構成が適切に実行される状態が維持され、その結果、三次元空間認識の精度及び利用可能性の安定性が高められる。
また、イベント検出部202aは、複数台のカメラ100それぞれについて、前回の校正の実行から所定の時間が経過したときに所定のイベントの発生を検出し、校正を実行すると判定してもよい。これにより、所定の頻度以上で各カメラの校正が実行される。例えば校正を実行すると判定される閾値を下回る変化が蓄積しているカメラについても校正が実行されてカメラパラメータの更新の機会が確保される。
また、撮像システム1000は、さらに、ユーザに情報を提示するためのユーザインタフェース500を備えてもよい。そしてユーザインタフェース500を介して校正情報をユーザに提示してもよい。
これにより、撮像システム1000のユーザは、例えば校正が実行される予定のカメラ100、又は実行中のカメラ100について知ることができる。また、この提示された校正情報に示される校正を実行する理由(所定のイベントの内容)に基づいて、校正の実行が予定されているカメラ100の間での校正の実行順序をユーザが決定してもよい。
[6.変形例]
[6-1.変形例1]
上記実施の形態1では、1台の移動体600に撮像領域A1内を移動させるとしたが、これに限らずに、図14に示すように、複数台の移動体600A、600Bに撮像領域A1内を移動させてもよい。
図14は、変形例1における校正処理の詳細を説明するための図である。
図14に示すように、変形例1では、移動制御部202cは、2台の移動体600A、600Bに撮像領域A1内を移動させる。例えば、移動制御部202cは、移動体600Aに点P11~P16を結ぶ破線矢印で示す経路を移動させる。また、移動制御部202cは、移動体600Aが移動する経路とは異なる経路であって、移動体600Bに点P21~P26を結ぶ破線矢印で示す経路を移動させる。
なお、移動体600A、600Bは、それぞれ、互いに異なる外観を有してもよい。また、マーカ606A、606Bは、互いに異なる外観を有してもよい。ここで、外観が異なるとは、形状、色などが異なることである。この場合、移動体600A、600Bの外観またはマーカ606A、606Bの外観を示す情報は、制御装置200の記憶部201に記憶されていてもよい。
撮像制御部202dは、複数の撮像装置10A~10Nのカメラ100のそれぞれに、所定のタイミングで撮像領域A1内にある複数のマーカ606A、606Bを撮像させる。これにより、各撮像装置では、実施の形態1の2倍の特徴点が映し出される。例えば、制御装置200は、図15に示すように、複数の撮像装置10A~10Nから、複数の撮像画像を取得する。なお、図15は、時刻t1~t6において、撮像装置10A~10Nが撮像することで得られる撮像画像の一覧を示す図である。
制御装置200は、所定のタイミングで複数のカメラ100により撮像されることにより得られた複数の撮像画像を用いて、複数のカメラ100の外部パラメータを校正する。具体的には、制御装置200は、複数の撮像画像のそれぞれにおいて、当該画像に含まれる複数の移動体600A、600Bが有するマーカ606A、606Bの当該画像における二次元位置である二次元座標を、複数の移動体600A、600Bのそれぞれについて特定する。そして、制御部202は、特定することにより得られた複数の二次元位置である二次元座標を複数の移動体600A、600B毎に互いに対応付ける。これにより、図16に示すような、マッチング結果が得られる。
なお、移動体600Aが有するマーカ606Aが映し出された特徴点であるのか、移動体600Bが有するマーカ606Bが映し出された特徴点であるのかは、移動体600A、600Bの外観またはマーカ606A、606Bの外観を示す情報を用いて画像処理を行うことで特定することができる。
このように、複数台の移動体600A、600Bを移動させることで、一度に多くの特徴点を得ることができる。このため、外部パラメータの校正処理にかかる時間を短縮することができる。
[6-2.変形例2]
上記実施の形態では、複数の撮像装置10A~10Nの全ての外部パラメータの校正を行うとしたが、全台よりも少ない2台以上の撮像装置の外部パラメータの校正の必要がある場合には、全部の撮像装置10A~10Nの外部パラメータを校正する必要はない。つまり、外部パラメータの校正の必要があると判定された複数の撮像装置および外部パラメータの校正の必要がないと判定された少なくとも一つ以上の撮像装置の外部パラメータを校正してもよい。
[6-3.変形例3]
上記実施の形態では、制御装置200が校正処理を行うとしたが、各撮像装置10A~10Nの制御部102が行ってもよい。つまり、制御部102は、異なる複数の三次元位置にあるマーカ606が複数の撮像装置10A~10Nのカメラ100のそれぞれによって撮像されることにより得られた複数の撮像画像を用いて、複数の撮像装置10A~10Nのカメラ100の外部パラメータを校正してもよい。
[6-4.変形例4]
上記実施の形態において、例えば、制御部102は、さらに、複数の撮像画像に含まれる、撮像領域A1内の所定の物体を、複数の撮像画像に共通する特徴点として対応付けることにより、複数の撮像装置10A~10Nのカメラ100の外部パラメータを校正してもよい。つまり、実施の形態1で説明した、移動体600を移動させることにより生成した特徴点に加えて、撮像領域A1内の所定の物体または撮像領域A1の外観を複数の撮像画像に共通する特徴点として対応付けてもよい。
外部パラメータの校正方法としては、主にマーカを利用する方法と撮像領域内にある物体(人物、建物等)の特徴点を利用する方法とがある。また、マーカを利用する方法と、撮像領域内にある物体の特徴点を利用する方法とを、組み合わせて外部パラメータを算出してもよい。つまり、撮像システムは、互いに異なる位置に配置されている複数のカメラのパラメータを校正する撮像システムであって、前記複数のカメラに共通する、三次元空間における撮像領域内の所定の位置に配置されたマーカを含む前記撮像領域を前記複数のカメラに撮像制御部と、前記複数のカメラのそれぞれによって撮像されることにより得られた複数の画像を用いて、当該複数の画像のそれぞれに含まれる、前記マーカの特徴点である第1特徴点と、撮像領域内に配置されている物体または撮像領域の外観の特徴点である第2特徴点とを抽出し、前記第1特徴点および前記第2特徴点を用いて、前記複数のカメラの外部パラメータを校正する校正部と、を備えてもよい。
マーカを利用する方法の利点は、再構成する三次元空間のスケールを特定することができ、三次元空間の座標の原点及び軸をマーカに基づき決定することができる点である。また、撮像領域内にある物体の特徴点を利用する利点は、三次元空間内の様々な領域から特徴点を検出できるため校正精度が向上する点である。つまり、上記の2つの方法を組み合わせることにより、上記の2つの方法の利点を保ちつつ外部パラメータを算出することが可能となる。
例えば、図17の(a)に示すように撮像領域に配置されるコートの中央に、サイズが既知の長方形マーカ700を配置した状態で、撮像領域を複数の撮像装置10A~10Dのカメラ100に撮像させる。その際、マーカ700のある頂点P101を三次元空間の原点とし、マーカ700の4辺のうち互いに垂直な2辺を三次元空間の2軸(X軸、Y軸)とし、その2軸に垂直な向きをもう1軸(Z軸)とすることにより、マーカ700の位置及び向きを基準とした三次元空間の三次元座標と撮像画像から得られる二次元座標とを図17の(b)に示すようにマッチングできる。そして、このマッチング結果を用いることでカメラ100の外部パラメータを算出することができる。これにより、実空間における地面と再構成される三次元空間における2軸で作られる平面が一致するため、三次元空間認識システムで扱う座標系が直感的に理解しやすくなる。例えば、自由視点映像生成システムにおいて、仮想視点の位置を上げるときは、単純に仮想視点のZ座標を増加させればよい。更に撮影空間内にある物体の特徴点を利用することにより、上記外部パラメータの算出精度を向上させることができる。
なお、マーカ700上の点および物体の特徴点の二次元座標または三次元座標から外部パラメータを算出する際、内部パラメータも算出してもよい。これによりカメラの内部パラメータおよび外部パラメータをワンショット(ある一時刻に一度撮影すること)で求めることができる。
また、マーカ700はどのような形状、サイズ、素材でもよい。例えば、バスケットコートや床のタイルなど、サイズが既知の物体をマーカとし、物体の隅(コーナー)をマーカ上の点として検出しても良い。また、液晶ディスプレイやプロジェクターを利用し、マーカを表示させてもよい。
また、物体の特徴点を利用し、ある三次元座標系における外部パラメータを算出後、マーカ上の点の三次元座標に基づき、ある三次元座標系における外部パラメータをマーカ基準の三次元座標系における外部パラメータに変換してもよい。これにより同時刻に物体の特徴点とマーカ上の点が検出できなくても外部パラメータを算出できる。
[6-5.変形例5]
上記実施の形態において、例えば、移動体600は、複数のマーカを有していてもよい。この場合、複数のマーカの相対的な位置関係を示す情報を記憶部201が記憶していてもよい。これにより、三次元空間のおけるスケールを算出することができる。
(実施の形態2)
実施の形態1で説明した校正処理は、以下に示すように実行してもよい。
図18は、実施の形態2における校正処理の一例を示すフローチャートである。
本実施の形態における校正処理では、まず、制御装置200の移動制御部202cは、複数の撮像装置10A~10Nのカメラ100に共通する、三次元空間における撮像領域A1内で、複数のカメラ100の校正に用いるマーカ606を有する移動体600を移動させる(S61)。
次に、制御装置200の撮像制御部202dは、複数のカメラ100にマーカ606を撮像させる(S62)。
撮像装置10Aのカメラ100の制御部102は、異なる複数の三次元位置にあるマーカ606が複数のカメラ100のそれぞれによって撮像されることにより得られた複数の画像を用いて、複数のカメラ100の外部パラメータを校正する(S63)。
これによれば、移動体600を用いて、マーカ606を複数のカメラ100に共通する撮像領域A1内で移動させた状態で、当該マーカ606を複数のカメラ100に撮像させる。このため、大きなサイズのマーカを用意しなくても、互いに異なる位置に配置されている複数のカメラ100の外部パラメータの校正を容易に行うことができる。
(実施の形態3)
実施の形態1で説明した撮像システム1000は、撮像装置10A~10Nおよび移動体600を備える代わりに、撮像装置10A~10Nの機能と移動体600の機能を備える移動型撮像装置10Aa~10Naを備えてもよい。
図25は実施の形態3における撮像システムの構成を示すブロック図である。実施の形態3における撮像システム1000aは、複数の移動型撮像装置10Aa~10Na、制御装置200、ユーザインタフェース500を備える。移動型撮像装置10Aa~10Naは、制御装置200と無線通信可能に接続されている。
図26は、実施の形態3における校正処理の一例を示すフローチャートである。
本実施の形態における校正処理では、まず、制御装置200の移動制御部202cは移動型撮像装置10Aa~10Naを所定の位置に移動させる(S71)。ここで、所定の位置への移動とは撮像領域A1を変化させるような移動である。たとえば、撮像領域A1がバスケットコートの右半分であるとき、バスケットコートの左半分を撮像領域A1aに変化させる移動である。所定の位置への移動はユーザインタフェース500を通じて手動で指定してもよいし、所定のイベントに基づき自動で指定されてもよい。なお、移動型撮像装置10Aa~10Naを全て移動させてもよいし、移動型撮像装置10Aa~10Naのうち1つ以上の移動型撮像装置を移動させてもよい。
次に、制御装置200の移動制御部202cは移動型撮像装置10Aa~10Naのうち移動体の役割となる移動型撮像装置を選択する(S72)。ここでは例として、移動型撮像装置10Aaが移動体の役割となる移動型撮像装置に決定されたとする。
次に、制御装置200の移動制御部202cは、ステップS72で選択されていない移動型撮像装置10Ba~10Naのカメラ100に共通する、三次元空間における撮像領域A1a内で、S72で選択された移動型撮像装置10Aaを移動させる(S73)。
移動型撮像装置10Aaを移動させている間、制御装置200の撮像制御部202dは、S72で選択されていない移動型撮像装置10Ba~10Naの複数のカメラ100に移動型撮像装置10Aaが有するマーカ606を撮像させる(S74)。
次に、移動型撮像装置10Ba~10Naのカメラ100の制御部102は、異なる複数の三次元位置にあるマーカ606が複数のカメラ100のそれぞれによって撮像されることにより得られた複数の画像を用いて、複数のカメラ100の外部パラメータを校正する(S75)。なお、本形態では、移動型撮像装置10Aaがマーカ606を有する構成として説明したが、移動型撮像装置10Aaとは異なる移動体がマーカ606を有してもよい。この場合、マーカ606を有する移動体は、移動型撮像装置10Aa~10Naのうち撮像する移動型撮像装置の撮像領域内に配置される。
これによれば、初めに設置した撮像装置の位置に制限されず、撮像領域A1を自動または手動で変化させることができる。これによれば、例えばバスケットコート全体を撮像領域A1とするために、の右半分で撮像装置を4台、左半分で撮像装置を4台、合計8台必要であったものが合計4台で済むなど撮像装置の台数を減らすことができる。また、これによれば、例えば広範囲を撮像装置が移動できるので、三次元地図の作成などに利用できる。
(実施の形態4)
上記各実施の形態で示した画像処理方法及び装置の構成の他の応用例とそれを用いたシステムを説明する。当該システムは、インテリジェント化と対象空間の広域化とが進む映像システムに適用でき、例えば、(1)店舗或いは工場のセキュリティカメラ、又は警察の車載カメラなどに実装される監視システム、(2)個人所有のカメラ或いは各車載カメラ、又は道路に備えられたカメラなどを用いた交通情報システム、(3)ドローンなど遠隔操作又は自動制御可能な装置を用いた環境調査又は配送システム、及び(4)エンターテイメント施設又はスタジアム等における設置カメラ、ドローン等の移動カメラ、又は個人所有のカメラなどを用いた映像などのコンテンツ送受信システムなどに適用できる。
図19は、本実施の形態における映像情報処理システムex100の構成を示す図である。本実施の形態においては、死角の発生を防止する例、及び特定の領域を撮影禁止にする例について説明する。
図19に示す映像情報処理システムex100は、映像情報処理装置ex101と、複数台のカメラex102と、映像受信装置ex103とを含む。なお、映像受信装置ex103は、必ずしも映像情報処理システムex100に含まれる必要はない。
映像情報処理装置ex101は、保存部ex111と、解析部ex112とを備える。N個のカメラex102のそれぞれは、映像を撮影する機能と撮影した映像データを映像情報処理装置ex101に送信する機能とを有する。また、カメラex102は、撮影中の映像を表示する機能を有する場合もある。なお、カメラex102は、撮影された映像信号をHEVC又はH.264のような符号化方式を用いてエンコードしたうえで映像情報処理装置ex101に送信してよいし、エンコードされていない映像データを映像情報処理装置ex101に送信してもよい。
ここで、各カメラex102は、監視カメラ等の固定カメラ、無人飛行型ラジコンや車等に搭載された移動カメラ、又は、ユーザが所持するユーザカメラである。
移動カメラは、映像情報処理装置ex101から送信された指示信号を受信し、受信された指示信号に応じて、移動カメラ自体の位置又は撮影方向を変更する。
また、撮影開示前に複数台のカメラex102の時刻が、サーバ又は基準カメラの時刻情報などを用いてキャリブレーションされる。また、複数台のカメラex102の空間位置が、撮影対象となる空間のオブジェクトの写り方又は基準カメラからの相対位置に基づいてキャリブレーションされる。
情報処理装置ex101に含まれる保存部ex111は、N個のカメラex102から送信された映像データを保存する。
解析部ex112は、保存部ex111に保存された映像データから死角を検出し、死角の発生を防止するための移動カメラへの指示を示す指示信号を移動カメラへ送信する。移動カメラは指示信号に従って移動を行い、撮影を継続する。
解析部ex112は、例えば、SfM(Structure from Motion)を用いて死角検出を行う。SfMとは、異なる位置から撮影された複数の映像から被写体の三次元形状を復元する手法であり、被写体形状及びカメラ位置を同時に推定する形状復元技術として広く知られている。例えば、解析部ex112は、SfMを用いて、保存部ex111に保存された映像データから施設内又はスタジアム内の三次元形状を復元し、復元できない領域を死角として検出する。
なお、解析部ex112は、カメラex102の位置及び撮影方向が固定であり、位置及び撮影方向の情報が既知の場合は、これらの既知の情報を用いてSfMを行ってもよい。また、移動カメラの位置及び撮影方向が、移動カメラが備えるGPS及び角度センサ等により取得できる場合は、移動カメラは、当該移動カメラの位置及び撮影方向の情報を解析部ex112に送信し、解析部ex112は、送信された位置及び撮影方向の情報を用いてSfMを行ってもよい。
なお、死角検出の方法は上述したSfMを用いた方法に限られるものではない。例えば、解析部ex112は、レーザレンジファインダなどのデプスセンサの情報を用いることで、撮影対象であるオブジェクトの空間距離を把握してもよい。また、解析部ex112は、カメラ位置、撮影方向及びズーム倍率等の情報を、空間内の予め設定したマーカ又は特定のオブジェクトが画像に含まれるか、含まれる場合にはそのサイズ等から検出してもよい。このように、解析部ex112は、各カメラの撮影領域を検出できる任意の方法を用いて、死角の検出を行う。また、解析部ex112は、複数の撮影対象について互いの位置関係等の情報を映像データ又は近接距離センサ等から取得し、取得した位置関係に基づいて死角が発生する可能性の高い領域を特定してもよい。
ここで死角とは、撮影したい領域中で映像が存在しない部分だけでなく、他の部分と比較して画質の悪い部分、及び予め定められた画質を得られていない部分などを含む。この検出対象の部分は、当該システムの構成又は目的に応じて適宜設定されればよい。例えば、撮影される空間中の特定の被写体について、要求される画質が高く設定されてもよい。また、逆に撮影空間中の特定の領域について、要求される画質が低く設定されてもよいし、映像が撮影されていなくても死角と判定しないように設定されてもよい。
なお、上述した画質とは、映像中の撮影対象となる被写体が占める面積(例えばピクセル数)、又は撮影対象となる被写体にピントが合っているかといった映像に関する様々な情報を含むものであり、それらの情報又はその組み合わせを基準に死角であるか否かが判定されればよい。
なお、上記の説明では、実際に死角となっている領域の検出について説明したが、死角の発生を防止するために検出する必要のある領域は実際に死角となっている領域に限定されない。例えば、複数の撮影対象が存在し、少なくともその一部が移動している場合には、ある撮影対象とカメラとの間に別の撮影対象が入ることによって新たな死角が生じる可能性がある。これに対し、解析部ex112は、例えば撮影された映像データ等から複数の撮影対象の動きを検出し、検出された複数の撮影対象の動きとカメラex102の位置情報に基づいて、新たに死角となる可能性のある領域を推定してもよい。この場合、映像情報処理装置ex101は、死角となる可能性のある領域を撮影するように移動カメラに指示信号を送信し、死角の発生を防止してもよい。
なお、移動カメラが複数ある場合、映像情報処理装置ex101は、死角、又は死角となる可能性がある領域を撮影させるために指示信号を送信する移動カメラを選択する必要がある。また、移動カメラ及び死角、又は死角となる可能性がある領域がそれぞれ複数存在する場合、映像情報処理装置ex101は、複数の移動カメラのそれぞれについて、どの死角、又は死角となる可能性がある領域を撮影させるかを決定する必要がある。例えば、映像情報処理装置ex101は、死角、又は死角となる可能性のある領域と各移動カメラが撮影中の領域の位置とに基づいて、死角、又は死角となる領域に最も近い移動カメラを選択する。また、映像情報処理装置ex101は、各移動カメラについて、当該移動カメラが現在撮影中の映像データが得られない場合に新たに死角が発生するか否かを判定し、現在撮影中の映像データが得られなくても死角が発生しないと判断された移動カメラを選択してもよい。
以上の構成により、映像情報処理装置ex101は、死角を検出し、死角を防止するように移動カメラに対して指示信号を送信することにより、死角の発生を防止できる。
(変形例1)
なお、上記説明では、移動カメラに移動を指示する指示信号が送信される例を述べたが、指示信号は、ユーザカメラのユーザに移動を指示するための信号であってもよい。例えば、ユーザカメラは、指示信号に基づき、ユーザにカメラの方向を変更するように指示する指示画像を表示する。なお、ユーザカメラは、ユーザの移動の指示として、地図上に移動経路を示した指示画像を表示してもよい。また、ユーザカメラは、取得される画像の質を向上させるために撮影方向、角度、画角、画質、及び撮影領域の移動など詳細な撮影の指示を表示してもよく、さらに映像情報処理装置ex101側で制御可能であれば、映像情報処理装置ex101は、そのような撮影に関するカメラex102の特徴量を自動で制御してもよい。
ここで、ユーザカメラは、例えば、スタジアム内の観客又は施設内の警備員が持つスマートフォン、タブレット型端末、ウェアラブル端末、又はHMD(Head Mounted Display)である。
また、指示画像を表示する表示端末は、映像データを撮影するユーザカメラと同一である必要はない。例えば、ユーザカメラに予め対応付けられた表示端末に対して、ユーザカメラが指示信号又は指示画像を送信し、当該表示端末が指示画像を表示してもよい。また、ユーザカメラに対応する表示端末の情報が、予め映像情報処理装置ex101に登録されてもよい。この場合は、映像情報処理装置ex101は、ユーザカメラに対応する表示端末に対して指示信号を直接送信することで、表示端末に指示画像を表示させてもよい。
(変形例2)
解析部ex112は、例えばSfMを用いて、保存部ex111に保存された映像データから施設内又はスタジアム内の三次元形状を復元することで自由視点映像(三次元再構成データ)を生成してもよい。この自由視点映像は、保存部ex111に保存される。映像情報処理装置ex101は、映像受信装置ex103から送信される視野情報(及び/又は、視点情報)に応じた映像データを保存部ex111から読み出して、映像受信装置ex103に送信する。なお、映像受信装置ex103は、複数台のカメラの一つであってもよい。
(変形例3)
映像情報処理装置ex101は、撮影禁止領域を検出してもよい。この場合、解析部ex112は撮影画像を解析し、移動カメラが撮影禁止領域を撮影している場合には移動カメラに対して撮影禁止信号を送信する。移動カメラは撮影禁止信号を受信している間は撮影を停止する。
解析部ex112は、例えば、SfMを用いて復元された三次元の仮想空間と、撮影映像とのマッチングを取ることで、空間内で予め設定されている移動カメラが撮影禁止領域を撮影中かを判定する。または、解析部ex112は、空間内に配置されたマーカ又は特徴的なオブジェクトをトリガーとして移動カメラが撮影禁止領域を撮影中かを判定する。撮影禁止領域とは、例えば施設内又はスタジアム内のトイレなどである。
また、ユーザカメラが撮影禁止領域を撮影している場合には、ユーザカメラは、無線又は有線で接続されるディスプレイ等にメッセージを表示したり、スピーカ又はイヤホンから音又は音声を出力したりすることで、現在の場所が撮影禁止場所であることをユーザに知らせてもよい。
例えば、上記メッセージとして、現在カメラを向けている方向が撮影禁止である旨が表示される。または、表示される地図上に撮影禁止領域と現在の撮影領域とが示される。また、撮影の再開は、例えば、撮影禁止信号が出力されなくなれば自動的に行われる。または、撮影禁止信号が出力されておらず、かつ、ユーザが撮影再開を行う操作をした場合に、撮影が再開されてもよい。また、撮影の停止と再開とが短期間で複数回起こった場合には、再度キャリブレーションが行われてもよい。または、ユーザに現在位置を確認したり移動を促したりするための通知が行われてもよい。
また、警察など特別な業務の場合には、記録のためこのような機能をオフにするパスコード又は指紋認証などが用いられてもよい。さらに、そのような場合であっても撮影禁止領域の映像が外部に表示されたり保存される場合には自動でモザイクなど画像処理が行われてもよい。
以上の構成により、映像情報処理装置ex101は、撮影禁止の判定を行い、撮影を停止するようにユーザに通知することで、ある領域を撮影禁止に設定できる。
(変形例4)
映像から三次元の仮想空間を構築するためには、複数視点の映像を集める必要があるため、映像情報処理システムex100は、撮影映像を転送したユーザに対してインセンティブを設定する。例えば、映像情報処理装置ex101は、映像を転送したユーザに対し、無料又は割引料金で映像配信を行ったり、オンライン又はオフラインの店又はゲーム内で使用できるような金銭的な価値、又はゲームなどのバーチャル空間での社会的地位など非金銭的な価値のあるポイントを付与する。また、映像情報処理装置ex101は、リクエストが多いなど価値のある視野(及び/又は、視点)の撮影映像を転送したユーザに対しては特に高いポイントを付与する。
(変形例5)
映像情報処理装置ex101は、解析部ex112の解析結果に基づき、ユーザカメラに対して付加情報を送信してもよい。この場合、ユーザカメラは撮影映像に付加情報を重畳して、画面に表示する。付加情報とは、例えば、スタジアムでの試合が撮影されている場合には、選手名又は身長などの選手の情報であり、映像内の各選手に対応付けて当該選手の名前又は顔写真などが表示される。なお、映像情報処理装置ex101は、映像データの一部又は全部の領域に基づきインターネット経由の検索により、付加情報を抽出してもよい。また、カメラex102は、Bluetooth(登録商標)をはじめとする近距離無線通信又は、スタジアム等の照明から可視光通信によりそのような付加情報を受け取り、受け取った付加情報を、映像データにマッピングしてもよい。また、カメラex102は、このマッピングを、カメラex102に有線又は無線により接続される記憶部に保持されるテーブルであって、可視光通信技術により得られる情報と付加情報との対応関係を示すテーブルなどの一定規則に基づいて行なってもよいし、インターネット検索により最も確からしい組み合わせの結果を用いて行なってもよい。
また、監視システムにおいては、施設内の警備員が持つユーザカメラに対して、例えば注意人物の情報が重畳されることで、監視システムの高精度化を図ることができる。
(変形例6)
解析部ex112は,自由視点映像とユーザカメラの撮影映像とのマッチングを取ることで、ユーザカメラが施設内又はスタジアム内のどの領域を撮影中かを判定してもよい。なお、撮影領域の判定方法はこれに限られず、上述した各実施の形態で説明した様々な撮影領域の判定方法又はその他の撮影領域の判定方法を用いられてもよい。
映像情報処理装置ex101は、解析部ex112の解析結果に基づき、ユーザカメラに対して過去映像を送信する。ユーザカメラは撮影映像に過去映像を重畳して、又は撮影映像を過去映像に置換して、画面に表示する。
例えば、ハーフタイム中に、過去映像として前半のハイライトシーンが表示される。これにより、ユーザはハーフタイム中に、前半のハイライトシーンを自分が見ている方向の映像として楽しむことができる。なお過去映像は、前半のハイライトシーンに限らず、そのスタジアムで行われた過去の試合のハイライトシーンなどでもよい。また、映像情報処理装置ex101が過去映像を配信するタイミングはハーフタイム中に限らず、例えば試合終了後でも、試合中でもよい。特に試合中の場合には、解析部ex112の解析結果に基づき、映像情報処理装置ex101はユーザが見逃した重要と考えられるシーンを配信してもよい。また、映像情報処理装置ex101はユーザからリクエストがあった場合に過去映像を配信してもよく、又は過去映像の配信前に配信許可のメッセージを配信してもよい。
(変形例7)
映像情報処理装置ex101は、解析部ex112の解析結果に基づき、ユーザカメラに対して広告情報を送信してもよい。ユーザカメラは撮影映像に広告情報を重畳して、画面に表示する。
広告情報は例えば変形例6で示した、ハーフタイム中又は試合終了後の過去映像配信直前に配信されてもよい。これにより、配信業者は広告主からの広告料を得ることができ、ユーザに安価又は無料で映像配信サービスを提供できる。また、映像情報処理装置ex101は、広告情報の配信直前に広告配信許可のメッセージを配信してもよいし、ユーザが広告を視聴した場合に無料でサービスを提供してもよいし、広告を視聴しない場合より安価にサービスを提供してもよい。
また、広告に従ってユーザが「今すぐ注文する」などをクリックすると、当該システム又は何らかの位置情報に基づいてユーザの位置を把握しているスタッフ又は会場の自動の配送システムが注文された飲み物を席まで届けてくれる。決裁はスタッフへの手渡しでもよいし、予めモバイル端末のアプリ等に設定されているクレジットカード情報に基づいて行われてもよい。また、広告にはeコマースサイトへのリンクが含まれ、通常の自宅配送等のオンラインショッピングが可能な状態になっていてもよい。
(変形例8)
映像受信装置ex103は、カメラex102(ユーザカメラ)の一つであってもよい。この場合、解析部ex112は、自由視点映像とユーザカメラの撮影映像とのマッチングを取ることで、ユーザカメラが施設内又はスタジアム内のどの領域を撮影中かを判定する。なお、撮影領域の判定方法はこれに限らない。
例えば、ユーザが、画面に表示されている矢印の方向にスワイプ操作をすると、ユーザカメラはその方向へ視点を移動させることを示す視点情報を生成する。映像情報処理装置ex101は、解析部ex112が判定したユーザカメラの撮影領域から視点情報の分移動させた領域を撮影した映像データを保存部ex111から読み出し、当該映像データのユーザカメラへの送信を開始する。そしてユーザカメラは撮影映像ではなく、映像情報処理装置ex101から配信された映像を表示する。
以上により、施設内又はスタジアム内のユーザは、画面スワイプのような簡易な動作で、好きな視点からの映像を視聴できる。例えば野球場の3塁側で観戦している観客が、1塁側の視点からの映像を視聴できる。また、監視システムにおいては、施設内の警備員が画面スワイプのような簡易な動作で、自身が確認したい視点又はセンターからの割り込みとして注視すべき映像などを、視点を適用的に変えながら視聴することができるので、監視システムの高精度化を図ることができる。
また、施設内又はスタジアム内のユーザへの映像の配信は、例えばユーザカメラと撮影対象との間に障害物が存在し、見えない領域がある場合等にも有効である。この場合、ユーザカメラは、ユーザカメラの撮影領域のうち障害物が含まれる一部の領域の映像を、撮影映像から、映像情報処理装置ex101からの配信映像に切り替えて表示してもよいし、画面全体を撮影映像から配信映像に切り替えて表示してもよい。また、ユーザカメラは、撮影映像と配信映像とを合成して障害物を透過して視聴対象が見えているような映像を表示してもよい。この構成によると、障害物の影響でユーザの位置から撮影対象が見えない場合にも、映像情報処理装置ex101から配信された映像を視聴することができるので、障害物の影響を軽減することができる。
また、障害物により見えない領域の映像として配信映像を表示する場合は、上述した画面スワイプのようなユーザによる入力処理に応じた表示の切り替え制御とは異なる表示の切り替え制御が行われてもよい。例えば、ユーザカメラの移動及び撮影方向の情報、並びに予め得られている障害物の位置情報に基づいて撮影領域に障害物が含まれると判定される場合に、撮影映像から配信映像への表示の切り替えが自動的に行われもよい。また、撮影映像データの解析により撮影対象ではない障害物が映っていると判定された場合に、撮影映像から配信映像への表示の切り替えが自動的に行われてもよい。また、撮影映像に含まれる障害物の面積(例えばピクセル数)が所定の閾値を超えた場合、又は撮影対象の面積に対する障害物の面積の比が所定の割合を超えた場合に、撮影映像から配信映像への表示の切り替えが自動的に行われてもよい。
なお、ユーザの入力処理に応じて撮影映像から配信映像への表示の切り替え及び配信映像から撮影映像への表示の切り替えが行われてもよい。
(変形例9)
各カメラex102で撮影された映像データの重要度に基づき映像データを映像情報処理装置ex101に転送する速度が指示されてもよい。
この場合、解析部ex112は保存部ex111に保存された映像データ、又は当該映像データを撮影したカメラex102の重要度を判定する。ここでの重要度の判定は、例えば映像中に含まれる人の数或いは移動物体の数、映像データの画質などの情報、又はその組み合わせに基づいて行われる。
また、映像データの重要度の判定は、映像データが撮影されたカメラex102の位置又は映像データが撮影している領域に基づいてもよい。例えば、対象のカメラex102の近くに撮影中の他のカメラex102が複数存在する場合に、対象のカメラex102で撮影された映像データの重要度を低くする。また、対象のカメラex102の位置が他のカメラex102から離れていても同じ領域を撮影している他のカメラex102が複数存在する場合に、対象のカメラex102で撮影された映像データの重要度を低くする。また、映像データの重要度の判定は、映像配信サービスにおけるリクエストの多さに基づいて行われてもよい。なお、重要度の判定方法は、上述したものやその組み合わせに限られず、監視システム又は映像配信システムの構成又は目的に応じた方法であればよい。
また、重要度の判定は撮影された映像データに基づくものでなくてもよい。例えば、映像情報処理装置ex101以外の端末へ映像データを送信するカメラex102の重要度が高く設定されてもよい。逆に、映像情報処理装置ex101以外の端末へ映像データを送信するカメラex102の重要度が低く設定されてもよい。これにより、例えば、映像データの伝送を必要とする複数のサービスが通信帯域を共有している場合に、各サービスの目的又は特性に応じた通信帯域の制御の自由度が高くなる。これにより、必要な映像データが得られないことによる各サービスの品質の劣化を防止できる。
また、解析部ex112は、自由視点映像とカメラex102の撮影映像とを用いて、映像データの重要度を判定してもよい。
映像情報処理装置ex101は、解析部ex112で行われた重要度の判定結果に基づき、カメラex102に対して通信速度指示信号を送信する。映像情報処理装置ex101は、例えば、重要度が高い映像を撮影しているカメラex102に対して高い通信速度を指示する。また、映像情報処理装置ex101は、速度の制御だけではなく、重要な情報については、欠落によるデメリットを低減するために複数回送るような方式を指示する信号を送信してもよい。これにより、施設内又はスタジアム内全体の通信を効率的に行うことができる。なお、カメラex102と映像情報処理装置ex101との通信は、有線通信であっても無線通信であってもよい。また、映像情報処理装置ex101は、有線通信及び無線通信のいずれか一方を制御してもよい。
カメラex102は、通信速度指示信号に従った通信速度で、撮影映像データを映像情報処理装置ex101に送信する。なお、カメラex102は所定の回数再送が失敗した場合には、その撮影映像データの再送を停止し、次の撮影映像データの転送を開始してもよい。これにより、施設内又はスタジアム内全体の通信を効率的に行うことができ、解析部ex112における処理の高速化を実現できる。
また、カメラex102は、それぞれに割り当てられた通信速度が撮影した映像データを転送するために十分な帯域でない場合は、撮影した映像データを、割り当てられた通信速度で送信可能なビットレートの映像データに変換し、変換後の映像データを送信してもよし、映像データの転送を中止してもよい。
また、上述したように死角の発生を防止するために映像データが使用される場合、撮影された映像データに含まれる撮影領域のうちの一部の領域が死角を埋めるために必要である可能性がある。この場合、カメラex102は、少なくとも、映像データから、死角の発生を防止するために必要とされる領域を抽出することで抽出映像データを生成し、生成された抽出映像データを映像情報処理装置ex101に送信してもよい。この構成によると、死角の発生の抑制をより少ない通信帯域で実現できる。
また、例えば、付加情報の重畳表示又は映像配信が行われる場合には、カメラex102は、映像情報処理装置ex101にカメラex102の位置情報及び撮影方向の情報を送信する必要がある。この場合、映像データを転送するためには十分ではない帯域しか割り当てられなかったカメラex102は、カメラex102で検出された位置情報及び撮影方向の情報を送信してもよい。また、映像情報処理装置ex101においてカメラex102の位置情報及び撮影方向の情報を推定する場合は、カメラex102は、撮影した映像データを、位置情報及び撮影方向の情報の推定に必要な解像度に変換し、変換された映像データを映像情報処理装置ex101に送信してもよい。この構成によると、少ない通信帯域しか割り当てられなかったカメラex102に対しても、付加情報の重畳表示又は映像配信のサービスを提供できる。また、映像情報処理装置ex101は、より多くのカメラex102から撮影領域の情報を取得できるため、例えば注目されている領域を検出する等の目的で、撮影領域の情報を利用するような場合においても有効である。
なお、上述した割り当てられた通信帯域に応じた映像データの転送処理の切り替えは、通知された通信帯域に基づいてカメラex102が行ってもよいし、映像情報処理装置ex101が各カメラex102の動作を決定し、決定された動作を示す制御信号を各カメラex102に通知してもよい。これにより、動作の切り替えの判定に必要な計算量、カメラex102の処理能力、及び必要となる通信帯域等に応じて、適切に処理の分担を行える。
(変形例10)
解析部ex112は、映像受信装置ex103から送信された視野情報(及び/又は、視点情報)に基づき、映像データの重要度を判定してもよい。例えば、解析部ex112は、視野情報(及び/又は、視点情報)が示す領域を多く含む撮影映像データの重要度を高く設定する。また、解析部ex112は、映像中に含まれる人の数、又は移動物体の数を考慮して、映像データの重要度を判定してもよい。なお、重要度の判定方法はこれに限らない。
なお、本実施の形態で説明した通信制御方法は、必ずしも複数の映像データから三次元形状の再構築を行うシステムにおいて用いられる必要はない。例えば複数台のカメラex102が存在する環境において、映像データを選択的又は伝送速度に差をつけて有線通信及び/又は無線通信で送信する場合であれば、本実施の形態で説明した通信制御方法は有効である。
(変形例11)
映像配信システムにおいて、映像情報処理装置ex101は、撮影シーンの全体を示す概観映像を映像受信装置ex103に送信してもよい。
具体的には、映像情報処理装置ex101は、映像受信装置ex103から送信された配信リクエストを受信した場合、保存部ex111から施設内又はスタジアム内全体の概観映像を読み出し、当該外観映像を映像受信装置ex103に送信する。この概観映像は更新間隔が長くてもよく(低フレームレートでもよく)、また画質が低くてもよい。視聴者は、映像受信装置ex103の画面上に表示された概観映像中で、見たい部分をタッチする。これにより、映像受信装置ex103は、タッチされた部分に対応する視野情報(及び/又は、視点情報)を映像情報処理装置ex101に送信する。
映像情報処理装置ex101は、視野情報(及び/又は、視点情報)に応じた映像データを保存部ex111から読み出し、当該映像データを映像受信装置ex103に送信する。
また、解析部ex112は、視野情報(及び/又は、視点情報)で示される領域に対して優先的に三次元形状の復元(三次元再構成)を行うことで自由視点映像を生成する。解析部ex112は、施設内又はスタジアム内全体の三次元形状を、概観を示す程度の精度で復元する。これにより、映像情報処理装置ex101は、三次元形状の復元を効率的に行うことができる。その結果、視聴者が見たい領域の自由視点映像の高フレームレート化、及び高画質を実現できる。
(変形例12)
なお、映像情報処理装置ex101は、例えば、設計図面などから事前に生成された施設又はスタジアムの三次元形状復元データを事前映像として、予め保存しておいてもよい。なお、事前映像はこれに限らず、デプスセンサから得られる空間の凹凸と、過去又はキャリブレーション時の画像又は映像データから導出されるピクチャとをオブジェクトごとにマッピングした仮想空間データであってもよい。
例えば、スタジアムでサッカーが行われている場合、解析部ex112は、選手及びボールに限定して三次元形状の復元を行い、得られた復元データと事前映像とを合成することで自由視点映像を生成してもよい。あるいは、解析部ex112は、選手及びボールに対して優先して三次元形状の復元を行ってもよい。これにより、映像情報処理装置ex101は、三次元形状の復元を効率的に行うことができる。その結果、視聴者が注目する選手及びボールに関する自由視点映像の高フレームレート化及び高画質化を実現できる。また、監視システムにおいては、解析部ex112は、人物及び移動物体に限定して、又はそれらを優先して三次元形状の復元を行ってもよい。
(変形例13)
各装置の時刻は、サーバの基準時刻等に基づき、撮影開始時にキャリブレーションされてもよい。解析部ex112は、複数台のカメラex102で撮影された複数の撮影映像データのうち、時刻設定の精度に応じて、予め設定された時間範囲内に属する時刻に撮影された複数の映像データを用いて、三次元形状の復元を行う。この時刻の検出には、例えば撮影映像データが保存部ex111に格納された時刻が用いられる。なお、時刻の検出方法はこれに限らない。これにより、映像情報処理装置ex101は、三次元形状の復元を効率的に行うことができるので、自由視点映像の高フレームレート化及び高画質化を実現できる。
または、解析部ex112は、保存部ex111に保存された複数の映像データのうち、高画質データを用いて、又は高画質データを優先的に用いて、三次元形状の復元を行ってもよい。
(変形例14)
解析部ex112は、カメラ属性情報を用いて、三次元形状の復元を行ってもよい。例えば、解析部ex112は、カメラ属性情報を用いて、視体積交差法又はマルチビューステレオ法などの手法により三次元映像を生成してもよい。この場合、カメラex102は、撮影映像データとカメラ属性情報とを映像情報処理装置ex101に送信する。カメラ属性情報は、例えば、撮影位置、撮影角度、撮影時刻、又はズーム倍率などである。
これにより、映像情報処理装置ex101は、三次元形状の復元を効率的に行うことができるので、自由視点映像の高フレームレート化及び高画質化を実現できる。
具体的には、カメラex102は、施設内又はスタジアム内に三次元座標を定義し、カメラex102がどのあたりの座標をどの角度から、どれ位のズームで、どの時間に撮ったかという情報を映像と共にカメラ属性情報として映像情報処理装置ex101に送信する。また、カメラex102の起動時に、施設内又はスタジアム内の通信ネットワーク上の時計とカメラ内の時計との同期がとられ、時間情報が生成される。
また、カメラex102の起動時又は任意のタイミングで施設内又はスタジアム内の特定のポイントにカメラex102を向けることにより、カメラex102の位置及び角度情報が取得される。図20は、カメラex102に起動時に、カメラex102の画面上に表示される通知の一例を示す図である。ユーザがこの通知に従い、スタジアム北側の広告中のサッカーボール中心にある「+」に、画面中央に表示された「+」を合わせて、カメラex102のディスプレイをタッチすると、カメラex102は、カメラex102から広告までのベクトル情報を取得しカメラ位置及び角度の基準を特定する。その後、カメラex102のモーション情報からその時々のカメラ座標及び角度が特定される。もちろん、この表示に限るものではなく、矢印等を用いて撮影期間中も座標、角度、又は撮影領域の移動速度等を指示するような表示が用いられてもよい。
カメラex102の座標の特定は、GPS、Wi-Fi(登録商標)、3G、LTE(Long Term Evolution)、及び5G(無線LAN)の電波を用いて行われてもよいし、ビーコン(Bluetooth(登録商標)、超音波)など近距離無線を利用して行われてもよい。また、施設内又はスタジアム内のどの基地局に撮影映像データが届いたかという情報が用いられてもよい。
(変形例15)
当該システムはスマートフォン等のモバイル端末上で動作するアプリケーションとして提供されてもよい。
上記システムへのログインには、各種SNS等のアカウントが用いられてもよい。なお、アプリ専用のアカウント、又は機能が制限されたゲストアカウントが用いられてもよい。このようにアカウントが用いられることで、好みの映像又は好みのアカウント等を評価することができる。また、撮影中又は視聴中の映像データに類似した映像データ、撮影中又は視聴中の映像データの視点に類似した視点の映像データなどに優先的に帯域を割り振ることで、これらの映像データの解像度を高めることができる。これにより、これらの視点からの三次元形状の復元をより精度よく行うことができる。
また、ユーザは、当該アプリケーションで、好みの画像映像を選択し、相手方をフォローすることで、選択した画像を他のユーザよりも優先して見たり、相手方の承認などを条件にテキストチャット等でつながりをもつことができる。このように、新たなコミュニティの生成が可能である。
このようにユーザ同士がコミュニティ内でつながることにより、撮影自体、また撮影した画像の共有などが活発化し、より精度の高い三次元形状の復元を促すことができる。
また、コミュニティ内のつながりの設定に応じて、ユーザは、他人が撮影した画像又は映像を編集したり、他人の画像と自分の画像とをコラージュして新たな画像又は映像を作成したりできる。これにより、新たな画像又は映像を当該コミュニティ内の人でシェアするなど、新たな映像作品のシェアが可能になる。また、この編集においてCGのキャラクタを挿入するなどにより、拡張現実(Augmented Reality)のゲーム等にも映像作品を利用できる。
また、当該システムによると三次元モデルデータが逐次出力可能になるため、ゴールシーンなどの特徴的なシーンでの三次元モデルデータに基づき、施設が有する3Dプリンタなどが立体オブジェクトを出力することができる。これにより、試合後に、その試合中のシーンに基づくオブジェクトをキーホルダーのようなお土産として売ったり、参加ユーザに配布することも可能である。もちろん通常の写真として、もっとも良い視点からの画像をプリントすることも可能である。
(変形例16)
上記システムを用いて、例えば、警察の車載カメラ、及び警察官のウェアラブルカメラの映像などから、地域全体の大雑把な状態を、当該システムに接続されたセンターで管理することができる。
一般のパトロールの時は、例えば数分おきで静止画の送受信が行なわれる。また、センターは、過去の犯罪データ等を用いて分析した結果に基づいた犯罪マップに基づいて犯罪発生の可能性が高い地域を特定する、もしくはこのように特定された犯罪発生確率に関連する地域データを保持している。特定された犯罪発生確率の高い地域では、画像の送受信の頻度を上げたり、画像を動画に変更したりしてもよい。また、事件発生時は、動画、又はSfM等を用いた三次元再構成データが用いられてもよい。また、センターもしくは各端末が、同時にデプスセンサ又はサーモセンサなど他のセンサの情報を用いて画像又は仮想空間を補正することで、警察官は、より正確に状況を把握できる。
また、センターは、三次元再構成データを用いることで、複数の端末にそのオブジェクトの情報をフィードバックできる。これにより、各端末を持つ個々人がオブジェクトをトラッキングできる。
また、最近では、建造物或いは環境の調査、又はスポーツなどの臨場感ある撮影等の目的で、クワッドコプター、ドローンなどの飛行可能な装置による空中からの撮影が行なわれる。このような自律移動装置による撮影は、画像がブレるということが問題になりやすいが、SfMは位置及び傾きによりそのブレを補正しながら三次元化を行なうことが可能である。これにより、画質の向上、及び空間の復元精度の向上を実現できる。
また、車外を撮影する車載カメラの設置が、国によっては義務付けられている。このような車載カメラにおいても、複数の画像からモデル化された三次元データを用いることで、行き先の方向の天気及び路面の状態、並びに渋滞度合い等をより精度よく把握できる。
(変形例17)
上記システムは、例えば、複数台のカメラを利用して建物又は設備の測距又はモデリングを行うシステムにも適用できる。
ここで、例えば、1台のドローンを用いて建物を上空から撮影し、建物の測距又はモデリングを行う場合には、測距中にカメラに動物体が写りこむことで測距の精度が低下するという課題がある。また、動物体の測距及びモデリングを行えないという課題がある。
一方で、上述したように複数台のカメラ(固定カメラ、スマートフォン、ウェアラブルカメラ及びドローン等)を用いることで、動物体の有無にかかわらず安定した精度で建物の測距及びモデリングを実現できる。また、動物体の測距及びモデリングを実現できる。
具体的には、例えば、建築現場において作業員のヘルメット等にカメラが取り付けられる。これにより、作業員の作業に並行して建物の測距を行うことができる。また、作業の効率化及びミス防止にも用いることができる。また、作業員に装着されたカメラで撮影された映像を用いて建物をモデリングできる。さらに、遠隔地にいる管理者が、モデリングされた建物を見ることで進捗具合を確認できる。
また、当該システムは、工場又は発電所の機械等、停止できない設備の点検に使用できる。また、当該システムは、橋或いはダムの開閉、又は、遊園地の乗り物の動作等に異常がないかを点検する場合に使用できる。
また、当該システムにより、道路の渋滞具合又は交通量を監視することで、各時間帯の道路の渋滞具合又は交通量を示す地図を生成することができる。
(実施の形態4)
上記各実施の形態で示した画像処理方法の構成を実現するためのプログラムを記憶メディアに記録することにより、上記各実施の形態で示した処理を独立したコンピュータシステムにおいて簡単に実施することが可能となる。記憶メディアは、磁気ディスク、光ディスク、光磁気ディスク、ICカード、半導体メモリ等、プログラムを記録できるものであればよい。
さらにここで、上記各実施の形態で示した画像処理方法の応用例とそれを用いたシステムを説明する。当該システムは、画像処理方法を用いた装置を有することを特徴とする。システムにおける他の構成について、場合に応じて適切に変更することができる。
図21は、コンテンツ配信サービスを実現するコンテンツ供給システムex200の全体構成を示す図である。通信サービスの提供エリアを所望の大きさに分割し、各セル内にそれぞれ固定無線局である基地局ex206、ex207、ex208、ex209、ex210が設置されている。
このコンテンツ供給システムex200は、インターネットex201にインターネットサービスプロバイダex202および通信網ex204、および基地局ex206からex210を介して、コンピュータex211、PDA(Personal Digital Assistant)ex212、カメラex213、スマートフォンex214、ゲーム機ex215などの各機器が接続される。
しかし、コンテンツ供給システムex200は図21のような構成に限定されず、いずれかの要素を組合せて接続するようにしてもよい。また、固定無線局である基地局ex206からex210を介さずに、各機器が電話線、ケーブルテレビ、又は光通信などの通信網ex204に直接接続されてもよい。また、各機器が近距離無線等を介して直接相互に接続されていてもよい。
カメラex213はデジタルビデオカメラ等の動画撮影が可能な機器であり、カメラex216はデジタルカメラ等の静止画撮影、動画撮影が可能な機器である。また、スマートフォンex214は、GSM(登録商標)(Global System for Mobile Communications)方式、CDMA(Code Division Multiple Access)方式、W-CDMA(Wideband-Code Division Multiple Access)方式、若しくはLTE(Long Term Evolution)方式、HSPA(High Speed Packet Access)、又は高周波帯域を利用した通信方式などに対応するスマートフォン機、またはPHS(Personal Handyphone System)等であり、いずれでも構わない。
コンテンツ供給システムex200では、カメラex213等が基地局ex209、通信網ex204を通じてストリーミングサーバex203に接続されることで、ライブ配信等が可能になる。ライブ配信では、ユーザがカメラex213を用いて撮影するコンテンツ(例えば、音楽ライブの映像等)に対して符号化処理を行い、ストリーミングサーバex203に送信する。一方、ストリーミングサーバex203は要求のあったクライアントに対して送信されたコンテンツデータをストリーム配信する。クライアントとしては、上記符号化処理されたデータを復号化することが可能な、コンピュータex211、PDAex212、カメラex213、スマートフォンex214、ゲーム機ex215等がある。配信されたデータを受信した各機器では、受信したデータを復号化処理して再生する。
なお、撮影したデータの符号化処理はカメラex213で行っても、データの送信処理をするストリーミングサーバex203で行ってもよいし、互いに分担して行ってもよい。同様に配信されたデータの復号化処理はクライアントで行っても、ストリーミングサーバex203で行ってもよいし、互いに分担して行ってもよい。また、カメラex213に限らず、カメラex216で撮影した静止画像および/または動画像データを、コンピュータex211を介してストリーミングサーバex203に送信してもよい。この場合の符号化処理はカメラex216、コンピュータex211、ストリーミングサーバex203のいずれで行ってもよいし、互いに分担して行ってもよい。さらに復号された画像の表示についても、システムにつながった複数の機器が連動して同じ画像を表示してもよいし、大きな表示部を有する装置で全体の画像を表示し、スマートフォンex214等では画像の一部の領域を拡大して表示してもよい。
また、これら符号化・復号化処理は、一般的にコンピュータex211や各機器が有するLSIex500において処理する。LSIex500は、ワンチップであっても複数チップからなる構成であってもよい。なお、動画像符号化・復号化用のソフトウェアをコンピュータex211等で読み取り可能な何らかの記録メディア(CD-ROM、フレキシブルディスク、ハードディスクなど)に組み込み、そのソフトウェアを用いて符号化・復号化処理を行ってもよい。さらに、スマートフォンex214がカメラ付きである場合には、そのカメラで取得した動画データを送信してもよい。このときの動画データはスマートフォンex214が有するLSIex500で符号化処理されたデータである。
また、ストリーミングサーバex203は複数のサーバや複数のコンピュータであって、データを分散して処理したり記録したり配信するものであってもよい。
以上のようにして、コンテンツ供給システムex200では、符号化されたデータをクライアントが受信して再生することができる。このようにコンテンツ供給システムex200では、ユーザが送信した情報をリアルタイムでクライアントが受信して復号化し、再生することができ、特別な権利や設備を有さないユーザでも個人放送を実現できる。
なお、コンテンツ供給システムex200の例に限らず、図22に示すように、デジタル放送用システムex300にも、上記各実施の形態を適用してもよい。具体的には、放送局ex301では映像データに音楽データなどが多重化された多重化データが電波を介して通信または衛星ex302に伝送される。この映像データは上記各実施の形態で説明した動画像符号化方法により符号化されたデータである。これを受けた放送衛星ex302は、放送用の電波を発信し、この電波を衛星放送の受信が可能な家庭のアンテナex304が受信する。受信した多重化データを、テレビ(受信機)ex400またはセットトップボックス(STB)ex317等の装置が復号化して再生する。
また、DVD、BD等の記録メディアex315、もしくはSDなどのメモリex316に記録した多重化データを読み取り復号化する、または記録メディアex315もしくはメモリex316に映像信号を符号化し、さらに場合によっては音楽信号と多重化して書き込むリーダ/レコーダex318にも上記各実施の形態で示した動画像復号化装置または動画像符号化装置を実装することが可能である。この場合、再生された映像信号はモニタex319に表示され、多重化データが記録された記録メディアex315、又はメモリex316により他の装置やシステムにおいて映像信号を再生することができる。また、ケーブルテレビ用のケーブルex303または衛星/地上波放送のアンテナex304に接続されたセットトップボックスex317内に動画像復号化装置を実装し、これをテレビのモニタex319で表示してもよい。このときセットトップボックスではなく、テレビ内に動画像復号化装置を組み込んでもよい。
図23は、スマートフォンex214を示す図である。また、図24は、スマートフォンex214の構成例を示す図である。スマートフォンex214は、基地局ex210との間で電波を送受信するためのアンテナex450、映像、静止画を撮ることが可能なカメラ部ex465、カメラ部ex465で撮像した映像、アンテナex450で受信した映像等が復号化されたデータを表示する液晶ディスプレイ等の表示部ex458を備える。スマートフォンex214は、さらに、タッチパネル等である操作部ex466、音声を出力するためのスピーカ等である音声出力部ex457、音声を入力するための収音器等である音声入力部ex456、撮影した映像、静止画、録音した音声、または受信した映像、静止画、メール等の符号化されたデータもしくは復号化されたデータを保存可能なメモリ部ex467、又は図22に例示されたメモリex316、もしくはユーザを特定し、ネットワークをはじめ各種データへのアクセスの認証をするためのSIMex468とのインタフェース部であるスロット部ex464を備える。
スマートフォンex214は、表示部ex458及び操作部ex466等を統括的に制御する主制御部ex460に対して、電源回路部ex461、操作入力制御部ex462、映像信号処理部ex455、カメラインタフェース部ex463、LCD(Liquid Crystal Display)制御部ex459、変調/復調部ex452、多重/分離部ex453、音声信号処理部ex454、スロット部ex464、メモリ部ex467がバスex470を介して互いに接続されている。
電源回路部ex461は、ユーザの操作により終話及び電源キーがオン状態にされると、バッテリパックから各部に対して電力を供給することによりスマートフォンex214を動作可能な状態に起動する。
スマートフォンex214は、CPU、ROM、RAM等を有する主制御部ex460の制御に基づいて、音声通話モード時に音声入力部ex456で収音した音声信号を音声信号処理部ex454でデジタル音声信号に変換し、これを変調/復調部ex452でスペクトラム拡散処理し、送信/受信部ex451でデジタルアナログ変換処理および周波数変換処理を施した後にアンテナex450を介して送信する。またスマートフォンex214は、音声通話モード時にアンテナex450を介して受信した受信データを増幅して周波数変換処理およびアナログデジタル変換処理を施し、変調/復調部ex452でスペクトラム逆拡散処理し、音声信号処理部ex454でアナログ音声信号に変換した後、これを音声出力部ex457から出力する。
さらにデータ通信モード時に電子メールを送信する場合、本体部の操作部ex466等の操作によって入力された電子メールのテキストデータは操作入力制御部ex462を介して主制御部ex460に送出される。主制御部ex460は、テキストデータを変調/復調部ex452でスペクトラム拡散処理をし、送信/受信部ex451でデジタルアナログ変換処理および周波数変換処理を施した後にアンテナex450を介して基地局ex210へ送信する。電子メールを受信する場合は、受信したデータに対してこのほぼ逆の処理が行われ、表示部ex458に出力される。
データ通信モード時に映像、静止画、または映像と音声を送信する場合、映像信号処理部ex455は、カメラ部ex465から供給された映像信号を上記各実施の形態で示した動画像符号化方法によって圧縮符号化し、符号化された映像データを多重/分離部ex453に送出する。また、音声信号処理部ex454は、映像、静止画等をカメラ部ex465で撮像中に音声入力部ex456で収音した音声信号を符号化し、符号化された音声データを多重/分離部ex453に送出する。
多重/分離部ex453は、映像信号処理部ex455から供給された符号化された映像データと音声信号処理部ex454から供給された符号化された音声データを所定の方式で多重化し、その結果得られる多重化データを変調/復調部(変調/復調回路部)ex452でスペクトラム拡散処理をし、送信/受信部ex451でデジタルアナログ変換処理及び周波数変換処理を施した後にアンテナex450を介して送信する。
データ通信モード時にホームページ等にリンクされた動画像ファイルのデータを受信する場合、または映像およびもしくは音声が添付された電子メールを受信する場合、アンテナex450を介して受信された多重化データを復号化するために、多重/分離部ex453は、多重化データを分離することにより映像データのビットストリームと音声データのビットストリームとに分け、同期バスex470を介して符号化された映像データを映像信号処理部ex455に供給するとともに、符号化された音声データを音声信号処理部ex454に供給する。映像信号処理部ex455は、上記各実施の形態で示した動画像符号化方法に対応した動画像復号化方法によって復号化することにより映像信号を復号し、LCD制御部ex459を介して表示部ex458から、例えばホームページにリンクされた動画像ファイルに含まれる映像、静止画が表示される。また音声信号処理部ex454は、音声信号を復号し、音声出力部ex457から音声が出力される。
また、上記スマートフォンex214等の端末は、テレビex400と同様に、符号化器・復号化器を両方持つ送受信型端末の他に、符号化器の送信端末、復号化器の受信端末という3通りの実装形式が考えられる。さらに、デジタル放送用システムex300において、映像データに音楽データなどが多重化された多重化データを受信、送信するとして説明したが、音声データ以外に映像に関連する文字データなどが多重化されたデータであってもよいし、多重化データではなく映像データ自体であってもよい。
また、本発明はかかる上記実施の形態に限定されるものではなく、本発明の範囲を逸脱することなく種々の変形または修正が可能である。
なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記各実施の形態の撮像システムなどを実現するソフトウェアは、次のようなプログラムである。
すなわち、このプログラムは、コンピュータに、互いに異なる位置に配置されている複数の撮像装置のパラメータを校正する撮像システムによる校正方法であって、前記複数の撮像装置に共通する、三次元空間における撮像領域内で、前記複数の撮像装置の校正に用いるマーカを有する移動体を移動させ、前記複数の撮像装置に前記マーカを撮像させ、異なる複数の三次元位置にある前記マーカが前記複数の撮像装置のそれぞれによって撮像されることにより得られた複数の画像を用いて、前記複数の撮像装置の外部パラメータを校正する校正方法を実行させる。
以上、本発明の一つまたは複数の態様に係る撮像システムおよび校正方法について、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本発明の一つまたは複数の態様の範囲内に含まれてもよい。
本開示は、互いに異なる位置に配置されている複数の撮像装置の外部パラメータの校正を容易に行うことができる撮像システムなどとして有用である。
10、10A~10N、10Aa~10Na 撮像装置
100 カメラ
101 記憶部
102 制御部
102a 校正部
103 光学系
104 イメージセンサ
105、125 動きセンサ
106、126 動作検知部
107、147 収音器
120 架台
200 制御装置
201 記憶部
202 制御部
202a イベント検出部
202b 校正指示部
202c 移動制御部
202d 撮像制御部
202e 校正部
203 タイマー
302a モデル生成部
402a 視点決定部
402b レンダリング部
402c シーン解析部
402d トラッキング部
500 ユーザインタフェース
600、600A、600B 移動体
601 記憶部
602 制御部
603 ロータユニット
604 通信部
605 検出部
606、606A、606B マーカ
607 カメラ
1000、1000a 撮像システム
3000 三次元空間再構成装置
4000 三次元空間認識装置
5000 ユーザ機器
A1 撮像領域

Claims (4)

  1. 互いに異なる位置に配置されている複数の撮像装置のパラメータを校正する撮像システムであって、
    前記複数の撮像装置による、三次元空間における撮像領域は、前記複数の撮像装置のうちの少なくとも2台の撮像装置に共通する第1撮像領域と、前記少なくとも2台の撮像装置に共通していない第2撮像領域とを有し、
    前記撮像システムは、
    前記複数の撮像装置の校正に用いるマーカを有する移動体を、前記撮像領域のうちの前記第1撮像領域に移動させる移動制御部と、
    前記複数の撮像装置に前記マーカを撮像させる撮像制御部と、
    異なる複数の三次元位置にある前記マーカが前記複数の撮像装置のそれぞれによって撮像されることにより得られた複数の画像を用いて、前記複数の撮像装置の外部パラメータを校正する校正部と、を備え、
    前記校正部は、さらに、前記複数の画像に含まれる、前記撮像領域内の所定の物体を、前記複数の画像に共通する特徴点として対応付けることにより、前記複数の撮像装置の外部パラメータを校正し、
    前記撮像制御部は、前記複数の撮像装置のそれぞれに、前記撮像領域内を移動している前記マーカを異なる複数のタイミングで撮像させ、
    前記校正部は、1タイミングで前記複数の撮像装置により撮像されることにより得られた複数の画像を1つの画像群としたとき、前記複数のタイミングで、前記複数の撮像装置により撮像されることにより得られた複数の前記画像群を用いて、前記複数の撮像装置の外部パラメータを校正する
    撮像システム。
  2. 前記校正部は、前記複数の画像群のそれぞれについて、
    当該画像群を構成する複数の画像のそれぞれにおいて、当該画像に含まれる前記マーカの当該画像における二次元位置を特定し、
    特定することにより得られた複数の前記二次元位置を互いに対応付けることで、前記複数の撮像装置の外部パラメータを校正する
    請求項に記載の撮像システム。
  3. 互いに異なる位置に配置されている複数の撮像装置のパラメータを校正する撮像システムであって、
    前記複数の撮像装置による、三次元空間における撮像領域は、前記複数の撮像装置のうちの少なくとも2台の撮像装置に共通する第1撮像領域と、前記少なくとも2台の撮像装置に共通していない第2撮像領域とを有し、
    前記撮像システムは、
    前記複数の撮像装置の校正に用いるマーカを有する移動体を、前記撮像領域のうちの前記第1撮像領域に移動させる移動制御部と、
    前記複数の撮像装置に前記マーカを撮像させる撮像制御部と、
    異なる複数の三次元位置にある前記マーカが前記複数の撮像装置のそれぞれによって撮像されることにより得られた複数の画像を用いて、前記複数の撮像装置の外部パラメータを校正する校正部と、を備え、
    前記校正部は、さらに、前記複数の画像に含まれる、前記撮像領域内の所定の物体を、前記複数の画像に共通する特徴点として対応付けることにより、前記複数の撮像装置の外部パラメータを校正し、
    前記移動制御部は、複数の前記移動体を前記撮像領域内で移動させ、
    前記撮像制御部は、前記複数の撮像装置のそれぞれに、所定のタイミングで前記撮像領域内にある複数の前記マーカを撮像させ、
    前記校正部は、前記所定のタイミングで前記複数の撮像装置により撮像されることにより得られた前記複数の画像を用いて、前記複数の撮像装置の外部パラメータを校正する
    撮像システム。
  4. 前記複数の移動体は、互いに異なる外観を有し、
    前記校正部は、前記複数の画像のそれぞれにおいて、当該画像に含まれる前記複数の移動体が有する前記マーカの当該画像における二次元位置を、前記複数の移動体それぞれについて特定し、
    特定することにより得られた複数の前記二次元位置を前記複数の移動体毎に互いに対応付けることで、前記複数の撮像装置の外部パラメータを校正する
    請求項に記載の撮像システム。
JP2019509852A 2017-03-31 2018-03-27 撮像システム Active JP7203356B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022200785A JP7466115B2 (ja) 2017-03-31 2022-12-16 撮像システムおよび校正方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017071744 2017-03-31
JP2017071744 2017-03-31
PCT/JP2018/012302 WO2018181249A1 (ja) 2017-03-31 2018-03-27 撮像システムおよび校正方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022200785A Division JP7466115B2 (ja) 2017-03-31 2022-12-16 撮像システムおよび校正方法

Publications (2)

Publication Number Publication Date
JPWO2018181249A1 JPWO2018181249A1 (ja) 2020-02-06
JP7203356B2 true JP7203356B2 (ja) 2023-01-13

Family

ID=63676376

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019509852A Active JP7203356B2 (ja) 2017-03-31 2018-03-27 撮像システム

Country Status (5)

Country Link
US (1) US11043008B2 (ja)
EP (1) EP3606038B1 (ja)
JP (1) JP7203356B2 (ja)
CN (1) CN110495163B (ja)
WO (1) WO2018181249A1 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6833348B2 (ja) * 2016-05-25 2021-02-24 キヤノン株式会社 情報処理装置、画像処理システム、情報処理装置の制御方法、仮想視点画像の生成方法、及び、プログラム
CN110114803B (zh) * 2016-12-28 2023-06-27 松下电器(美国)知识产权公司 三维模型分发方法、三维模型接收方法、三维模型分发装置以及三维模型接收装置
JP6922369B2 (ja) * 2017-04-14 2021-08-18 富士通株式会社 視点選択支援プログラム、視点選択支援方法及び視点選択支援装置
CN107945112B (zh) * 2017-11-17 2020-12-08 浙江大华技术股份有限公司 一种全景图像拼接方法及装置
JP7051457B2 (ja) * 2018-01-17 2022-04-11 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
WO2019205069A1 (en) * 2018-04-27 2019-10-31 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for updating 3d model of building
WO2019225681A1 (ja) * 2018-05-23 2019-11-28 パナソニックIpマネジメント株式会社 校正装置および校正方法
JP2020042665A (ja) * 2018-09-12 2020-03-19 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
JP7078127B2 (ja) * 2018-10-18 2022-05-31 富士通株式会社 算出方法、算出プログラムおよび情報処理装置
JP2020139927A (ja) * 2019-03-01 2020-09-03 一般財団法人電力中央研究所 カメラパラメータの較正方法、較正装置、及び較正プログラム
JP7186128B2 (ja) * 2019-04-24 2022-12-08 株式会社日立製作所 物品認識システムおよび物品認識方法
CN111444191B (zh) * 2019-06-13 2021-10-12 黄亚娟 一种宇宙空间数据系统、方法、计算机设备和存储介质
CN112348899A (zh) 2019-08-07 2021-02-09 虹软科技股份有限公司 标定参数的获取方法、装置、处理器及电子设备
CN110689585B (zh) * 2019-10-09 2022-06-21 阿波罗智能技术(北京)有限公司 多相机外参的联合标定方法、装置、设备和介质
US11812336B2 (en) * 2019-10-29 2023-11-07 Qualcomm Incorporated Position accuracy improvement using smart satellite vehicle selection
EP4109993A4 (en) * 2020-03-31 2023-08-16 Sony Group Corporation INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING METHOD
JP7365986B2 (ja) * 2020-09-25 2023-10-20 Kddi株式会社 カメラキャリブレーション装置、方法およびプログラム
CN114765667A (zh) * 2021-01-13 2022-07-19 安霸国际有限合伙企业 用于多视图拼接的固定图案校准
US11657578B2 (en) 2021-03-11 2023-05-23 Quintar, Inc. Registration for augmented reality system for viewing an event
US11527047B2 (en) 2021-03-11 2022-12-13 Quintar, Inc. Augmented reality system for viewing an event with distributed computing
US20220295139A1 (en) * 2021-03-11 2022-09-15 Quintar, Inc. Augmented reality system for viewing an event with multiple coordinate systems and automatically generated model
US20220295040A1 (en) * 2021-03-11 2022-09-15 Quintar, Inc. Augmented reality system with remote presentation including 3d graphics extending beyond frame
US11645819B2 (en) 2021-03-11 2023-05-09 Quintar, Inc. Augmented reality system for viewing an event with mode based on crowd sourced images
JP2022160233A (ja) * 2021-04-06 2022-10-19 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
JPWO2022249534A1 (ja) * 2021-05-26 2022-12-01
US20230064675A1 (en) * 2021-08-31 2023-03-02 Digital Path, Inc. Pt/pt-z camera command, control & visualization system and method
KR102369913B1 (ko) * 2021-11-12 2022-03-03 한화시스템(주) 복수 카메라의 캘리브레이션용 타겟 제어장치 및 그 방법
FR3131675A1 (fr) * 2022-01-05 2023-07-07 Tomaj ROKNI procédé et dispositif de capture vidéo, procédé et dispositif de composition d’une vidéo et procédé d’analyse de vidéo.

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010210570A (ja) 2009-03-12 2010-09-24 Tokyo Electric Power Co Inc:The 校正用データ取得装置およびその方法

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2686351B2 (ja) * 1990-07-19 1997-12-08 ファナック株式会社 視覚センサのキャリブレーション方法
US5978521A (en) * 1997-09-25 1999-11-02 Cognex Corporation Machine vision methods using feedback to determine calibration locations of multiple cameras that image a common object
US6101455A (en) * 1998-05-14 2000-08-08 Davis; Michael S. Automatic calibration of cameras and structured light sources
JP2003050107A (ja) 2001-08-07 2003-02-21 Matsushita Electric Ind Co Ltd カメラ校正装置
JP4238586B2 (ja) * 2003-01-30 2009-03-18 ソニー株式会社 キャリブレーション処理装置、およびキャリブレーション処理方法、並びにコンピュータ・プログラム
JP4400611B2 (ja) * 2006-10-26 2010-01-20 カシオ計算機株式会社 撮像装置、ブレ補正方法、およびプログラム
JP4886560B2 (ja) 2007-03-15 2012-02-29 キヤノン株式会社 情報処理装置、情報処理方法
JP4717863B2 (ja) * 2007-09-28 2011-07-06 富士フイルム株式会社 複眼撮像装置のキャリブレーション方法および装置ならびにこれに用いられるキャリブレーションチャート
CN103167293B (zh) * 2011-12-09 2015-07-22 夏普株式会社 显示系统
US8619144B1 (en) * 2012-03-14 2013-12-31 Rawles Llc Automatic camera calibration
US8662676B1 (en) * 2012-03-14 2014-03-04 Rawles Llc Automatic projector calibration
KR101857472B1 (ko) * 2012-11-29 2018-05-14 씨에스아이알 카메라 보정 방법 및 이에 대한 시스템
US10038895B2 (en) * 2013-01-15 2018-07-31 Disney Enterprises, Inc. Image capture device calibration
JP2014170893A (ja) 2013-03-05 2014-09-18 Taiyo Yuden Co Ltd カメラモジュール
JP6201476B2 (ja) 2013-07-18 2017-09-27 凸版印刷株式会社 自由視点画像撮像装置およびその方法
EP2849150A1 (en) * 2013-09-17 2015-03-18 Thomson Licensing Method for capturing the 3D motion of an object, unmanned aerial vehicle and motion capture system
US9282326B2 (en) 2013-10-28 2016-03-08 The Regents Of The University Of Michigan Interactive camera calibration tool
GB201406890D0 (en) * 2014-04-16 2014-05-28 Johnson Matthey Plc Process
CN107003109B (zh) * 2014-11-13 2019-11-05 奥林巴斯株式会社 校准装置、校准方法、光学装置、摄影装置、投影装置、测量系统以及测量方法
US9286680B1 (en) * 2014-12-23 2016-03-15 Futurewei Technologies, Inc. Computational multi-camera adjustment for smooth view switching and zooming
US20170032529A1 (en) * 2015-07-27 2017-02-02 Csir Method of calibrating a helmet and a system therefor
US9928595B2 (en) * 2016-02-01 2018-03-27 Canon Kabushiki Kaisha Devices, systems, and methods for high-resolution multi-view camera calibration
JP6736414B2 (ja) 2016-08-10 2020-08-05 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US10076842B2 (en) * 2016-09-28 2018-09-18 Cognex Corporation Simultaneous kinematic and hand-eye calibration
JP6527178B2 (ja) * 2017-01-12 2019-06-05 ファナック株式会社 視覚センサのキャリブレーション装置、方法及びプログラム
JP6396516B2 (ja) * 2017-01-12 2018-09-26 ファナック株式会社 視覚センサのキャリブレーション装置、方法及びプログラム
EP3606040B1 (en) * 2017-03-31 2021-05-05 Panasonic Intellectual Property Management Co., Ltd. Imaging system and correction method
WO2019225681A1 (ja) * 2018-05-23 2019-11-28 パナソニックIpマネジメント株式会社 校正装置および校正方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010210570A (ja) 2009-03-12 2010-09-24 Tokyo Electric Power Co Inc:The 校正用データ取得装置およびその方法

Also Published As

Publication number Publication date
CN110495163B (zh) 2021-12-10
WO2018181249A1 (ja) 2018-10-04
CN110495163A (zh) 2019-11-22
US11043008B2 (en) 2021-06-22
US20200034989A1 (en) 2020-01-30
JP2023021368A (ja) 2023-02-10
EP3606038A1 (en) 2020-02-05
EP3606038B1 (en) 2021-12-08
JPWO2018181249A1 (ja) 2020-02-06
EP3606038A4 (en) 2020-03-11

Similar Documents

Publication Publication Date Title
JP7203356B2 (ja) 撮像システム
JP7113294B2 (ja) 多視点撮像システム
JP7223978B2 (ja) 校正装置および校正方法
JP7054677B2 (ja) カメラワーク生成方法及び映像処理装置
JP7122694B2 (ja) 撮像システムおよび校正方法
JP6948624B2 (ja) 映像配信方法及びサーバ
JP6820527B2 (ja) 映像同期装置及び映像同期方法
JP6778912B2 (ja) 映像表示方法及び映像表示装置
JP6607433B2 (ja) 映像配信方法及びサーバ
WO2017134706A1 (ja) 映像表示方法及び映像表示装置
WO2015159487A1 (ja) 映像配信方法、映像受信方法、サーバ、端末装置及び映像配信システム
JP7466115B2 (ja) 撮像システムおよび校正方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210322

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221216

R151 Written notification of patent or utility model registration

Ref document number: 7203356

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151