JP2020174363A - 撮影システム、方法およびプログラム - Google Patents

撮影システム、方法およびプログラム Download PDF

Info

Publication number
JP2020174363A
JP2020174363A JP2020107382A JP2020107382A JP2020174363A JP 2020174363 A JP2020174363 A JP 2020174363A JP 2020107382 A JP2020107382 A JP 2020107382A JP 2020107382 A JP2020107382 A JP 2020107382A JP 2020174363 A JP2020174363 A JP 2020174363A
Authority
JP
Japan
Prior art keywords
image
data
photographing
conversion information
spherical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2020107382A
Other languages
English (en)
Inventor
啓一 河口
Keiichi Kawaguchi
啓一 河口
智慎 相川
Tomochika Aikawa
智慎 相川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2020107382A priority Critical patent/JP2020174363A/ja
Publication of JP2020174363A publication Critical patent/JP2020174363A/ja
Withdrawn legal-status Critical Current

Links

Abstract

【課題】 端末側で画像データから全天球画像に変換するためのデータを配信する撮影装置、方法およびプログラムを提供する。【解決手段】 全天球動画撮影システムに含まれる撮影装置であって、撮影装置固有の射影変換情報を記憶する射影変換情報記憶部218と、複数の方向を撮影した画像のフレームデータと射影変換情報とを全天球動画撮影システムに含まれる画像処理装置に送信する送信部220とを含み、射影変換情報は、撮影装置が撮影する複数の方向の情報を示す撮影方向データと、画像の像高と撮影装置に対する光の入射角とを対応付けた射影データとを含む。【選択図】 図3

Description

本発明は、撮影装置、方法およびプログラムに関する。
複数の魚眼レンズによって撮影された広角な画像を組み合わせることで、1回の撮影で全天球画像を出力する、全天球動画撮像システムが知られている。
しかし、複数の広角画像から全天球画像への射影変換には、パターンマッチングのような大きな負荷がかかる処理が必要となる。この点につき、特許第5846549号公報(特許文献1)では、全天球画像の用途に応じたモードの切り替えを行う技術が開示されている。特許文献1によれば、選択したモードによって画像のつなぎ処理を切り替えることができるため、撮像装置の処理負荷を低減できる。しかしながら、特許文献1では、情報量の大きい画像において、リアルタイム処理できず、射影変換処理に係る負荷が大きいという問題がある。
そこで、画像を受信する端末側でリアルタイムに射影変換を行うために、画像データから全天球画像に変換するためのデータを配信する技術が求められていた。
本発明は、上記従来技術における課題に鑑みてなされたものであり、端末側で画像データから全天球画像に変換するためのデータを配信する撮影装置、方法およびプログラムを提供することを目的とする。
すなわち、本発明によれば、全天球動画撮影システムに含まれる撮影装置であって、
前記撮影装置固有の射影変換情報を記憶する記憶手段と、
複数の方向を撮影した画像のフレームデータと前記射影変換情報とを、前記全天球動画撮影システムに含まれる画像処理装置に送信する送信手段と
を含み、前記射影変換情報は、
前記撮影装置が撮影する複数の方向の情報を示す撮影方向データと、
前記画像の像高と、前記撮影装置に対する光の入射角とを対応付けた射影データとを含む、撮影装置が提供される。
上述したように、本発明によれば、端末側で画像データから全天球画像に変換するためのデータを配信する撮影装置、方法およびプログラムが提供される。
本実施形態による全天球動画撮像システムを構成する全天球カメラの断面図。 本実施形態による全天球動画撮像システムのハードウェア構成図。 本実施形態による全天球動画撮像システム上に実現される全天球動画配信機能に関連する主要な機能ブロック図。 本実施形態による全天球動画撮像システムにおける射影関係を説明する図。 本実施形態による全天球カメラの撮影方向を説明する図。 全天球カメラが撮影した魚眼画像を3次元球体にテクスチャマッピングする例を示す図。 魚眼画像から任意の視線方向に透視射影変換する例を示す図。 本実施形態による全天球動画撮像システムにおいて配信されるデータ列の例を示す図。 本実施形態による全天球動画撮像システムにおいて画像データに射影変換情報を付加して配信する処理のフローチャート。 本実施形態による全天球動画撮像システムにおいて画像データに射影変換情報を付加して配信する処理のフローチャート。 射影変換情報を画像情報として埋め込む例を説明する図。 射影変換情報を周波数空間に埋め込む例を説明する図。
以下、本実施形態について説明するが、本実施形態は、以下に説明する実施形態に限定されるものではない。なお、以下の実施形態では、撮像装置および撮像システムの一例として、2つの魚眼レンズを光学系に含む撮像体を備える全天球カメラ、および、全天球カメラと、該全天球カメラから分離された画像処理装置とを備える全天球動画撮像システムを用いて説明する。
[全体構成]
以下、図1および図2を参照しながら、本実施形態による全天球動画撮像システムの全体構成について説明する。図1は、本実施形態による全天球動画撮像システム100を構成する全天球カメラ110の断面図である。図1に示す全天球カメラ110は、撮像体12と、上記撮像体12およびコントローラやバッテリなどの部品を保持する筐体14と、上記筐体14に設けられたシャッター・ボタン18とを備える。
図1に示す撮像体12は、2つの結像光学系20A,20Bと、CCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)センサなどの2つの撮像素子22A,22Bを含み構成される。結像光学系20各々は、例えば6群7枚の魚眼レンズとして構成されている。上記魚眼レンズは、図1に示す実施形態では、180度(=360度/n;光学系数n=2)より大きい全画角を有し、好適には、185度以上の画角を有し、より好適には、190度以上の画角を有する。このような広角な結像光学系20と撮像素子22とを1個ずつ組み合わせたものを広角撮像光学系と参照する。
2つの結像光学系20A,20Bの光学素子(レンズ、プリズム、フィルタおよび開口絞り)は、撮像素子22A,22Bに対して位置関係が定められる。より具体的には、結像光学系20A,20Bの光学素子の光軸が、対応する撮像素子22の受光領域の中心部に直交して位置するように、かつ、受光領域が、対応する魚眼レンズの結像面となるように位置決めが行われる。
図1に示す実施形態では、結像光学系20A,20Bは、同一仕様のものであり、それぞれの光軸が合致するようにして、互いに逆向きに組み合わせられる。撮像素子22A,22Bは、受光した光分布を画像信号に変換し、コントローラ上の画像処理手段に順次、画像フレームを出力する。詳細は後述するが、撮像素子22A,22Bでそれぞれ撮像された画像は、画像処理装置150へ転送されて、合成処理されて、これにより、立体角4πステラジアンの画像(以下「全天球画像」と参照する。)が生成される。全天球画像は、撮影地点から見渡すことのできる全ての方向を撮影したものとなる。そして、全天球画像の連続するフレームにより、全天球動画が構成される。ここで、説明する実施形態では、全天球画像および全天球動画を生成するものとして説明するが、水平面のみ360度を撮影した、いわゆるパノラマ画像およびパノラマ動画など、全天球画像から一部の画像が欠けている画像であってもよい。
図2(a)は、本実施形態による全天球動画撮像システム100を構成する全天球カメラ110のハードウェア構成を示す。全天球カメラ110は、CPU(Central Processing Unit)112と、ROM(Read Only Memory)114と、画像処理ブロック116と、動画圧縮ブロック118と、DRAM(Dynamic Random Access Memory)インタフェース120を介して接続されるDRAM132と、外部センサインタフェース124を介して接続される加速度センサ136とを含み構成される。
CPU112は、全天球カメラ110の各部の動作および全体動作を制御する。ROM114は、CPU112が解読可能なコードで記述された制御プログラムや各種パラメータを格納する。画像処理ブロック116は、2つの撮像素子130A,130B(図1における撮像素子22A,22Bである。)と接続され、それぞれで撮像された画像の画像信号が入力される。画像処理ブロック116は、ISP(Image Signal Processor)などを含み構成され、撮像素子130から入力された画像信号に対し、シェーディング補正、ベイヤー補間、ホワイト・バランス補正、ガンマ補正などを行う。
動画圧縮ブロック118は、MPEG−4 AVC/H.264などの動画圧縮および伸張を行うコーデック・ブロックである。DRAM132は、各種信号処理および画像処理を施す際にデータを一時的に保存する記憶領域を提供する。加速度センサ136は、3軸の加速度成分を検出し、検出された加速度成分は、鉛直方向を検出して全天球画像の天頂補正を施すために用いられる。
全天球カメラ110は、さらに、外部ストレージインタフェース122と、USB(Universal Serial Bus)インタフェース126と、シリアルブロック128とを含み構成される。外部ストレージインタフェース122には、外部ストレージ134が接続される。外部ストレージインタフェース122は、メモリカードスロットに挿入されたメモリカードなどの外部ストレージ134に対する読み書きを制御する。USBインタフェース126には、USBコネクタ138が接続される。USBインタフェース126は、USBコネクタ138を介して接続されるパーソナル・コンピュータなどの外部機器とのUSB通信を制御する。シリアルブロック128は、パーソナル・コンピュータなどの外部機器とのシリアル通信を制御し、無線NIC(Network Interface Card)140が接続される。
電源スイッチの操作によって電源がオン状態になると、上記制御プログラムがメインメモリにロードされる。CPU112は、メインメモリに読み込まれたプログラムに従って、装置各部の動作を制御するとともに、制御に必要なデータをメモリ上に一時的に保存する。これにより、全天球カメラ110の後述する各機能部および処理が実現される。
図2(b)は、本実施形態による全天球動画撮像システム100を構成する画像処理装置150のハードウェア構成を示す。図2(b)に示す画像処理装置150は、CPU152と、RAM154と、HDD(Hard Disk Drive)156と、GPU(Graphics Processing Unit)158と、マウスやキーボードなどの入力装置160と、外部ストレージ162と、ディスプレイ164と、無線NIC166と、USBコネクタ168とを含み構成される。
CPU152は、画像処理装置150の各部の動作および全体動作を制御する。RAM154は、CPU152の作業領域を提供する。HDD156は、CPU152が解読可能なコードで記述された、オペレーティング・システム、本実施形態による画像処理装置150側の処理を担うアプリケーションなどの制御プログラムを格納する。GPU158は、画像処理演算に特化したプロセッサであり、種々の画像処理を行うことができる。なお、画像処理装置150は、GPU158を搭載せず、その機能をCPU152が担ってもよい。
入力装置160は、マウス、キーボード、タッチパッド、タッチスクリーンなどの入力装置であり、ユーザ・インタフェースを提供する。外部ストレージ162は、メモリカードスロットなどに装着された着脱可能な記録媒体であり、動画形式の画像データや静止画データなどの各種データを記録する。ディスプレイ164は、ユーザ操作に応答して再生された全天球動画を画面表示する。無線NIC166は、全天球カメラ110などの外部機器との無線通信の接続を確立する。USBコネクタ168は、全天球カメラ110などの外部機器とのUSB接続をする。
画像処理装置150に電源が投入され電源がオン状態になると、ROMやHDD156から制御プログラムが読み出され、RAM154にロードされる。CPU152は、RAM154に読み込まれた制御プログラムに従って、装置各部の動作を制御するとともに、制御に必要なデータをメモリ上に一時的に保存する。これにより、画像処理装置150の後述する各機能部および処理が実現される。
[全天球動画配信機能]
以下、図3〜図12を参照しながら、本実施形態による全天球動画撮像システム100が備える全天球動画配信機能について説明する。図3は、本実施形態による全天球動画撮像システム100上に実現される全天球動画配信機能に関連する主要な機能ブロック200を示す。
全天球カメラ110の機能ブロック210は、図3に示すように、撮像部212と、画像処理部214と、動画圧縮部216と、射影変換情報記憶部218と、送信部220とを含み構成される。これに対して、画像処理装置150の機能ブロック250は、受信部252と、動画復元部254と、射影変換情報取得部256と、変換テーブル生成部258と、方向指定部260と、動画変換部262と、表示部264とを含み構成される。
まず、全天球カメラ110側から説明する。撮像部212は、上述した2つの広角撮像光学系を含み構成され、2つの撮像素子130A,130Bを制御して、連続したフレームを順次撮像する。撮像素子130各々で撮像される画像は、概ね全天球のうちの半球を視野に収めた魚眼画像であり、全天球画像の部分的な画像を構成する。以下、撮像素子130それぞれが撮像した画像を部分画像と参照する場合がある。
画像処理部214は、画像処理ブロック116を含み構成され、撮像部212が撮像した魚眼画像に対して、シェーディング補正、ベイヤー補間、ホワイト・バランス補正、ガンマ補正などの各種補正処理を行う。また、画像処理部214は、撮像された魚眼画像に、射影変換情報を埋め込む処理を行うことができる。射影変換情報の埋め込みについての詳細は後述する。
動画圧縮部216は、動画圧縮ブロック118を含み構成され、撮像部212が撮像した連続するフレームを所定の動画形式の画像データに圧縮する。動画圧縮形式としては、特に限定されるものではないが、H.264/MPEG−4 AVC(Advanced Video Coding)、H.265/HEVC(High Efficiency Video Coding)、Motion JPEG(Joint Photographic Experts Group)、Motion JPEG2000などの種々の動画圧縮形式を挙げることができる。
Motion JPEG系は、連続した静止画として動画を表現する形式であり、この方式を採用することにより、高品質な動画を得ることができる。これに対して、H.264/MPEG−4 AVCやH.265/HEVCは、時間軸方向の圧縮を行うことができるため、処理効率が高く、外部ストレージへの書き込み遅延の要件を緩和することができる。手持ちされる全天球カメラ110側では、小型化および低コスト化の要請から、高性能なハードウェアを搭載することが難しいため、好ましい実施形態では、時間軸方向の圧縮を行うことができ、ビットレートを抑制することができるH.264/MPEG−4 AVCやH.265/HEVCを好適に採用することができる。
なお、説明する実施形態では、撮像部212が、2つの撮像素子130A,130Bで同一のタイミングで撮像された2つの魚眼画像をそれぞれ独立に出力し、動画圧縮部216が、独立した2つの魚眼画像のフレームから2つの動画形式の画像データをそれぞれ独立して生成する。しかしながら、画像データの表現形式は、特に限定されるものではない。他の実施形態では、撮像部212が、2つの撮像素子130A,130Bで撮像された2つの魚眼画像を接合して構成された単一の画像を出力し、動画圧縮部216は、この2つの魚眼画像を含む画像をフレームとした動画形式の画像データに圧縮することができる。
射影変換情報記憶部218は、ROM114などに射影変換のための情報を記憶し、画像処理部214や送信部220などに射影変換情報を提供する。なお、射影変換情報には、全天球カメラ110に含まれるレンズの物理的な配置関係を示す撮影方向データ、撮影された画像の像高と魚眼レンズの入射角との関係を表す射影データ、画像フレームに配置された魚眼画像の方向、魚眼画像の中心座標、魚眼画像の有効半径、レンズ光学特性、レンズ組み付け誤差などの各種情報が含まれる。
送信部220は、画像データや射影変換情報をまとめたデータをパケットとして、画像処理装置150に送信する。なお、送信するデータは、まとめたデータとしてではなく、画像データと射影変換情報とを対応付けた上で、それぞれを別個に送信してもよい。このように画像データと、射影変換情報とを併せて配信することで、画像処理装置150側で、リアルタイムにつなぎ処理を行うことができ、ユーザにとって快適な視聴環境が提供される。
次に、画像処理装置150側について説明する。受信部252は、全天球カメラ110が配信したパケットを受信し、受信したデータを動画復元部254および射影変換情報取得部256に提供する。動画復元部254は、受信したデータに含まれる、圧縮された画像データに対応する所定のコーデックを用いて、画像データをデコードし、動画を構成する静止画のフレームを復元して、動画変換部262へ出力する。
射影変換情報取得部256は、受信したデータに含まれる射影変換情報を抽出し、射影データおよび撮影方向データを変換テーブル生成部258へ出力する。変換テーブル生成部258は、射影データおよび撮影方向データに基づいて、画像データを全天球画像の動画に変換するためのテーブルを生成する。変換テーブル生成部258が生成した変換テーブルは、動画変換部262へ出力される。
方向指定部260は、ユーザの操作によって、表示する全天球画像の視点方向を指定する。視点方向は、ユーザが任意の方向を指定することができ、指定された視点方向は動画変換部262へ出力される。
動画変換部262は、変換テーブルと、視点方向とに基づいて、画像データを全天球画像の動画に変換する。具体的には、変換テーブルを基に、全天球画像のどこを見るかを指定する視点方向にしたがって、画像データを切り出す変換を行い、表示部264へ出力する。
表示部264は、ディスプレイ164を含み構成され、変換された画像を画面上に表示することで、ユーザに動画を提供する。視聴の際には、この生成された動画データに基づき、表示アプリケーション上で、全天球において指定された特定の視野の画像が再生されて表示されることになる。なお、ユーザは動画の再生中にも視点方向を指定することができ、リアルタイムで視点を変えた動画を視聴することができる。
なお、上述した実施形態に示したソフトウェアブロックは、CPUが本実施形態のプログラムを実行することにより、各ハードウェアを機能させることにより、実現される機能手段に相当する。また、各実施形態に示した機能手段は、全部がソフトウェア的に実現されても良いし、その一部または全部を同等の機能を提供するハードウェアとして実装することもできる。
次に、射影変換情報に含まれる射影データについて説明する。射影データは、魚眼画像を全天球画像に変換する際に用いるパラメータであり、魚眼レンズに入る光の角度と、像高とを対応付ける。
図4は、魚眼レンズを用いた全天球カメラ110における射影関係を説明する図である。本実施形態において、1つ魚眼レンズで撮影された画像は、撮影地点から概ね半球分の方位を撮影したものとなる。また、魚眼レンズは、図4(a)に示すように、光軸に対する入射角度φに対応した像高hで画像を生成する。像高hと、入射角度φとの関係は、所定の投影モデルに応じた射影関数で決定される。射影関数は、魚眼レンズの性質によって異なるが、等距離射影方式と呼ばれる投影モデルの魚眼レンズでは、fを焦点距離として、下記式(1)で表現される。
上記投影モデルとしては、その他、中心投影方式(h=f・tanφ)、立体射影方式(h=2f・tan(φ/2))、等立体角射影方式(h=2f・sin(φ/2))および正射影方式(h=f・sinφ)を挙げることができる。いずれの方式においても、光軸からの入射角度φと焦点距離fとに対応して結像の像高hが決定される。また、本実施形態では、画像対角線よりもイメージサークル径が小さな、いわゆる円周魚眼レンズの構成を採用するものとし、得られる部分画像は、図4(b)に示すように、撮影範囲の概ね半球分が投影されたイメージサークル全体を含む平面画像となる。
上述のようにして対応付けられた入射角と像高は、一例として、図4(c)のような対応関係を示す射影データのテーブルとなる。当該テーブルでは、各結像光学系の中心位置の座標と、入射角と、像高などの各種データを保持する。魚眼画像は、テーブルに含まれる各データに基づいて、射影変換され、全天球画像として表示することができる。
次に、撮像装置が撮影する方向について説明する。図5は、本実施形態による全天球カメラ110の撮影方向を説明する図である。図5(a)は、撮像装置に対して、3軸の方向を定義している様子を示している。ここでは、撮像装置の正面方向、すなわちレンズの光軸方向をRoll軸、撮像装置の上下方向をYaw軸、撮像装置の横方向をPitch軸としている。また、全天球カメラ110に含まれる撮像装置の方向を表すのに、全天球カメラの一方向を基準とし、基準に対するレンズの向きを、(Yaw,Pitch,Roll)の角度で表す。
例えば、図5(b)の全天球カメラ110では、結像光学系20Aは基準となる方向に対して正面を向いているため、(Yaw,Pitch,Roll)=(0,0,0)である。一方で、結像光学系20Bは、正面に対して反対方向、すなわちYaw軸に対して180°回転していることから、(Yaw,Pitch,Roll)=(180,0,0)である。
これらのデータを撮影方向データとして結像光学系ごとに取得することで、各結像光学系の位置関係を決定することができ、画像データと併せて、画像処理装置150に配信することで、魚眼画像から全天球画像に変換することができる。なお、図5の例では、結像光学系が2個の場合を例に示したが、この個数に限定するものではなく、結像光学系の個数に対応した撮影方向データを取得することで、全天球画像に変換できる。また、結像光学系の撮影方向を全天球カメラの一方向を基準として表したが、一つの結像光学系の撮影方向を基準に相対的に表しても良い。次に、魚眼画像から全天球画像への変換について説明する。
図6は、全天球カメラ110が撮影した魚眼画像を3次元球体にテクスチャマッピングする例を示す図であり、図6(a)は、魚眼画像を、図6(b)は、全天球画像に対応する座標を有する単位球を、それぞれ示している。図6(a)は図4(b)に対応し、魚眼画像には座標(u,v)に点Pが含まれている。魚眼画像の中心Oを通りU軸に平行な線と、OPが成す角度をaとし、OPの距離(像高)をhとする。このような点Pは、図4(c)に示す射影データのテーブルに基づいて、線形補正などの各種手法により、像高hに対する入射角度φを求めることができる。これらのaおよびφによって、点P(u,v)を、対応する3次元球体上の点P’(x,y,z)に変換することができる。
図6(b)より、P’をXY平面上に射影した点をQ(x,y,0)、球体の中心をO’とすると、図6(a)の角aは、直線O’Q’とX軸のなす角となる。また、入射角度φは、直線O’P’とZ軸のなす角となる。Z軸はXY平面に垂直であることから、直線O’P’とXY平面のなす角QO’P’は、90−φとなる。以上より、点P’の座標(x,y,z)は、下記式2によって求めることができる。
上記式2によって点P’の座標を求めた上で、撮影方向データを用いて、撮像時に撮像装置が向いていた方向に回転させると、図5(a)で定義された回転は、下記式3のようになる。なお、図5(a)のPitch軸、Yaw軸、Roll軸は、図6(b)のX軸、Y軸、Z軸にそれぞれ対応する。
さらに、上記式3をまとめると、下記式4が得られ、図7に示すような、魚眼画像から撮影方向に合わせて透視射影変換を行うことができる。
図7は、魚眼画像から透視射影変換する例を示す図である。図7では、2つの魚眼レンズで撮像された画像から、自由な方向の透視射影変換した例を示しており、図7(a)は、撮像された魚眼画像を示している。図7(a)のような魚眼画像は、図6で示したように3次元球面上に対応する座標を求めることで、図7(b)のように半球体状の画像とすることができる。図7では、2つの魚眼画像を基に変換することから、図7(b)では半球体状の画像が2つから構成される。なお、図7(b)において、濃い色で示される領域は、各半球が重複する領域を示しており、全天球画像に変換する際には、傾斜した透過度を設定することで、つなぎ目を目立たなくすることができ、違和感の少ない画像を提供することができる。
図7(b)の半球形状の画像を適切な配置でつなぐことによって、全天球画像を作成することができ、さらに、図7(c)のように、球状に画像を配置した中心に、透視射影カメラを仮想的に配置して、任意の方向、画角で画像を切り出すことで、ユーザは全天球画像を視聴することができる。なお、これらの処理は、画像処理装置150に搭載されているGPU158を用いることで、リアルタイムな処理が可能となる。
ここまでに説明した通り、上記の各式によって、魚眼画像から3次元球面に変換するテーブルを作成することができ、画像処理装置150は、変換された3次元球体を仮想の透視射影カメラで見ているように表示することで、図7(c)のような任意の視線方向からの画像へと変換することができる。また、このような変換を行うために、撮影方向データや射影データなどの射影変換情報を付加情報として画像データに加えて、全天球カメラ110から画像処理装置150に配信する。
上述したような変換では、画像データと射影変換情報とを対応付けて配信するが、データを配信する方法は、図8に示すような種々の方法で配信することができる。図8は、本実施形態による全天球動画撮像システム100において配信されるデータ列の例を示す図である。また、図8(a)は、射影変換情報をデータ列のヘッダのオプション領域に埋め込んで配信する方法を、図8(b)は、フレームデータごとに射影変換情報を対応付けて配信する方法を、図8(c)は、射影変換情報を画像データとしてフレームデータに埋め込んで配信する方法をそれぞれ示している。以下に、各配信方法の詳細を説明する。
まず、図8(a)について説明する。送信するデータ列は、RTP(Real-time Transport Protocol)ヘッダと、画像フレームヘッダと、画像フレームデータオプション領域と、フレームデータから構成される。このうち、画像フレームデータオプション領域に射影変換情報を埋め込み、配信することで、データを受信する画像処理装置150において、射影変換情報取得部256が撮影方向データと射影データとを取得でき、射影変換を行うことができる。
次に、図8(b)について説明する。図8(b)は、フレームデータごとに射影変換情報を対応付けて配信する方法であり、画像データのデータ列と、射影変換情報のデータ列とを別個に配信する。画像データのデータ列は、RTPヘッダと、画像フレームヘッダと、フレームデータを含んで構成される。また、射影変換情報のデータ列は、画像データに含まれる各フレームデータに対応付けられた射影変換情報を含んで構成される。以下に、図8(b)に示すデータ列を配信する処理について、図9を以て説明する。図9は、本実施形態による全天球動画撮像システム100において画像データに射影変換情報を付加して配信する処理のフローチャートである。
まず、ステップS1000から処理を開始する。ステップS1000の段階で、撮影は行われており、撮影した画像データと、撮影時の撮影方向データ、射影変換データは、DRAM132に記憶されている。次に、ステップS1001で、記憶されている画像データと射影変換情報とを対応付ける。ステップS1001の対応付けは、記憶した時間のデータや、フラグなどによって行うことができる。
その後、ステップS1002で、送信部220は、射影変換情報記憶部218から射影変換情報を読み込み、ステップS1003で、射影変換情報を画像処理装置150に配信する。
さらに、送信部220は、ステップS1004で、動画圧縮部216が処理した動画の画像のフレームデータを読み込み、ステップS1005で、画像フレームを画像処理装置150に配信する。その後、ステップS1006で、配信した画像フレームが最終フレームであるかを判定し、最終フレームであれば(YES)、ステップS1007に進み、処理を終了する。最終フレームでなければ(NO)、ステップS1004に戻り、画像フレームを取り込む処理と配信する処理を、最終フレームまで繰り返す。
以上、説明した処理によれば、画像処理装置150は画像データと射影変換情報を取得することができ、取得した射影変換情報に基づく変換テーブルを生成することで、任意の視線方向の全天球画像をリアルタイムで表示することができる。
最後に、図8(c)について説明する。図8(c)は、射影変換情報を画像データとしてフレームデータに埋め込んで配信する方法であり、配信するデータ列は、RTPヘッダと、画像フレームヘッダと、フレームデータを含んで構成される。以下に、図8(c)に示すデータ列を配信する処理について、図10を以て説明する。図10は、本実施形態による全天球動画撮像システム100において画像データに射影変換情報を付加して配信する処理のフローチャートである。なお、図10における処理のうち、図9で説明したものと共通する処理については、適宜その説明を省略する。
まず、ステップS2000から処理を開始し、ステップS2001で、画像処理部214は射影変換情報を読み込む。さらに、ステップS2002では、画像処理部214は、撮影した画像のフレームを取り込む。
その後、ステップS2003で、画像処理部214は、読み込んだ射影変換情報を画像フレーム内に埋め込む処理を行う。射影変換情報を埋め込む方法としては、(1)フレーム内に画像情報として埋め込む、(2)離散コサイン変換をして周波数空間に埋め込むといった方法が挙げられる。ここで、埋め込み方法(1)、(2)について、図11および図12によって詳細に説明する。
図11は、射影変換情報を画像情報として埋め込む例を説明する図であり、図11(a)は、撮影した魚眼画像を含む画像フレームを、図11(b)は、該画像フレームに射影変換情報を埋め込んだフレームをそれぞれ示している。魚眼画像は、図示しているように円形の枠の画像であることから、矩形のフレームに配置した場合には、魚眼画像の周辺には画像に寄与しない不使用領域が存在する。この不使用領域に、射影変換情報を画像データとして埋め込むことで、射影変換情報と画像フレームデータとを併せて配信することができる。なお、図11(b)では、射影変換情報の画像データを、QRコード(登録商標)として図示しているが、一例であって、これに限定するものではない。
また、図12は、射影変換情報を周波数空間に埋め込む例を説明する図であり、図12(a)は、撮影した魚眼画像を含む画像フレームを、図12(b)は、該フレームを離散コサイン変換したヒストグラムの例を、図12(c)は、該ヒストグラムに射影変換情報を付加したヒストグラムの例をそれぞれ示している。
図12(b)に示すように、離散コサイン変換は、変換後の信号の周波数成分が低周波領域に集中し、高周波成分の強度は非常に弱い。そこで、図12(c)のように、ヒストグラムの高周波領域に情報を重畳することで、射影変換情報を埋め込む。このように高周波領域に情報を付加し、さらに、逆離散コサイン変換を行うことで、画像のフレームデータに射影変換情報を埋め込んだことと同様の効果を得ることができる。また、射影変換情報は高周波領域に重畳していることから、画像データへの影響を小さくすることができ、元の画像データと、逆離散コサイン変換後の画像データとの差を、ノイズレベル程度に抑えることができる。
説明を図10に戻す。ステップS2003では、図11および図12に示した方法によって、射影変換情報を画像フレームに埋め込むことができる。その後、ステップS2004で、画像フレームを画像処理装置150に配信し、ステップS2005で、配信した画像フレームが最終フレームであるかを判定し、最終フレームであれば(YES)、ステップS2006に進み、処理を終了する。最終フレームでなければ(NO)、ステップS2002に戻り、画像フレームの取り込み、射影変換情報の埋め込み、画像フレームの配信の各処理を、最終フレームまで繰り返す。
ここまでに説明した図10の処理によれば、画像処理装置150は射影変換情報が埋め込まれた画像データを取得することができ、取得した射影変換情報に基づく変換テーブルを生成することで、任意の視線方向の全天球画像をリアルタイムで表示することができる。
以上、説明した本発明の各実施形態によれば、端末側で画像データから全天球画像に変換するためのデータを配信する撮影装置、方法およびプログラムを提供することができる。
上述した本発明の実施形態の各機能は、C、C++、C#、Java(登録商標)等で記述された装置実行可能なプログラムにより実現でき、本実施形態のプログラムは、ハードディスク装置、CD−ROM、MO、DVD、フレキシブルディスク、EEPROM、EPROM等の装置可読な記録媒体に格納して頒布することができ、また他装置が可能な形式でネットワークを介して伝送することができる。
以上、本発明について実施形態をもって説明してきたが、本発明は上述した実施形態に限定されるものではなく、当業者が推考しうる実施態様の範囲内において、本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。
12…撮像体、14…筐体、18…ボタン、20…結像光学系、22…撮像素子、100…全天球動画撮像システム、110…全天球カメラ、112…CPU、114…ROM、116…画像処理ブロック、118…動画圧縮ブロック、120…DRAMインタフェース、122…外部ストレージインタフェース、124…外部センサインタフェース、126…USBインタフェース、128…シリアルブロック、130…撮像素子、132…DRAM、134…外部ストレージ、136…加速度センサ、138…USBコネクタ、140…無線NIC、150…画像処理装置、152…CPU、154…RAM、156…HDD、158…GPU、160…入力装置、162…外部ストレージ、164…ディスプレイ、166…無線NIC、168…USBコネクタ、168…バス、200…機能ブロック、210…機能ブロック、212…撮像部、214…画像処理部、216…動画圧縮部、218…射影変換情報記憶部、220…送信部、250…機能ブロック、252…受信部、254…動画復元部、256…射影変換情報取得部、258…変換テーブル生成部、260…方向指定部、262…動画変換部、264…表示部
特許第5846549号公報

Claims (7)

  1. 全天球動画撮影システムに含まれる撮影装置であって、
    前記撮影装置固有の射影変換情報を記憶する記憶手段と、
    複数の方向を撮影した画像のフレームデータと前記射影変換情報とを、前記全天球動画撮影システムに含まれる画像処理装置に送信する送信手段と
    を含み、前記射影変換情報は、
    前記撮影装置が撮影する複数の方向の情報を示す撮影方向データと、
    前記画像の像高と、前記撮影装置に対する光の入射角とを対応付けた射影データと
    を含む、撮影装置。
  2. 前記撮影装置は、
    前記フレームデータと前記射影変換情報を対応付けて送信する、
    請求項1に記載の撮影装置。
  3. 前記撮影装置は、
    前記射影変換情報を画像データとして、前記フレームデータに埋め込んで送信する、
    請求項1に記載の撮影装置。
  4. 前記撮影装置は、
    前記射影変換情報を、離散コサイン変換した前記フレームデータの高周波領域に埋め込み、該埋め込んだフレームデータをさらに逆離散コサイン変換して送信する、
    請求項1に記載の撮影装置。
  5. 前記撮影装置は、
    送信するデータ列に含まれるヘッダのオプション領域に、前記射影変換情報を埋め込んで送信する、
    請求項1に記載の撮影装置。
  6. 全天球動画撮影システムに含まれる撮影装置が実行する方法であって、
    前記撮影装置固有の射影変換情報を記憶するステップと、
    複数の方向を撮影した画像のフレームデータと前記射影変換情報とを、前記全天球動画撮影システムに含まれる画像処理装置に送信するステップと
    を含み、前記射影変換情報は、
    前記撮影装置が撮影する複数の方向の情報を示す撮影方向データと、
    前記画像の像高と、前記撮影装置に対する光の入射角とを対応付けた射影データと
    を含む、方法。
  7. 全天球動画撮影システムに含まれる撮影装置が実行するプログラムであって、前記撮影装置を
    前記撮影装置固有の射影変換情報を記憶する記憶手段、
    複数の方向を撮影した画像のフレームデータと前記射影変換情報とを、前記全天球動画撮影システムに含まれる画像処理装置に送信する送信手段
    として機能させ、前記射影変換情報は、
    前記撮影装置が撮影する複数の方向の情報を示す撮影方向データと、
    前記画像の像高と、前記撮影装置に対する光の入射角とを対応付けた射影データと
    を含む、プログラム。

JP2020107382A 2020-06-23 2020-06-23 撮影システム、方法およびプログラム Withdrawn JP2020174363A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020107382A JP2020174363A (ja) 2020-06-23 2020-06-23 撮影システム、方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020107382A JP2020174363A (ja) 2020-06-23 2020-06-23 撮影システム、方法およびプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016168088A Division JP6724659B2 (ja) 2016-08-30 2016-08-30 撮影装置、方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2020174363A true JP2020174363A (ja) 2020-10-22

Family

ID=72831895

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020107382A Withdrawn JP2020174363A (ja) 2020-06-23 2020-06-23 撮影システム、方法およびプログラム

Country Status (1)

Country Link
JP (1) JP2020174363A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11928775B2 (en) 2020-11-26 2024-03-12 Ricoh Company, Ltd. Apparatus, system, method, and non-transitory medium which map two images onto a three-dimensional object to generate a virtual image

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003316559A (ja) * 2002-04-25 2003-11-07 Seiko Epson Corp 画像データ構造、画像データ作成装置及び画像出力装置
JP2008228281A (ja) * 2007-02-15 2008-09-25 Fujifilm Corp 撮像装置、撮像方法、及びプログラム
JP2010041417A (ja) * 2008-08-05 2010-02-18 Olympus Corp 画像処理装置、画像処理方法、画像処理プログラム、及び、撮像装置
JP2012085197A (ja) * 2010-10-14 2012-04-26 Dainippon Printing Co Ltd 広角撮影画像へのスーパーインポーズ方法および装置
JP2013214947A (ja) * 2012-03-09 2013-10-17 Ricoh Co Ltd 撮像装置、撮像システム、画像処理方法、情報処理装置、及びプログラム
WO2015029934A1 (ja) * 2013-08-30 2015-03-05 クラリオン株式会社 カメラ校正装置、カメラ校正システム、及びカメラ校正方法
JP2015115947A (ja) * 2013-12-06 2015-06-22 インテル・コーポレーション 埋め込みデータを用いたロバスト自動露出制御
US20160119541A1 (en) * 2014-10-24 2016-04-28 Bounce Imaging, Inc. Imaging systems and methods

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003316559A (ja) * 2002-04-25 2003-11-07 Seiko Epson Corp 画像データ構造、画像データ作成装置及び画像出力装置
JP2008228281A (ja) * 2007-02-15 2008-09-25 Fujifilm Corp 撮像装置、撮像方法、及びプログラム
JP2010041417A (ja) * 2008-08-05 2010-02-18 Olympus Corp 画像処理装置、画像処理方法、画像処理プログラム、及び、撮像装置
JP2012085197A (ja) * 2010-10-14 2012-04-26 Dainippon Printing Co Ltd 広角撮影画像へのスーパーインポーズ方法および装置
JP2013214947A (ja) * 2012-03-09 2013-10-17 Ricoh Co Ltd 撮像装置、撮像システム、画像処理方法、情報処理装置、及びプログラム
WO2015029934A1 (ja) * 2013-08-30 2015-03-05 クラリオン株式会社 カメラ校正装置、カメラ校正システム、及びカメラ校正方法
JP2015115947A (ja) * 2013-12-06 2015-06-22 インテル・コーポレーション 埋め込みデータを用いたロバスト自動露出制御
US20160119541A1 (en) * 2014-10-24 2016-04-28 Bounce Imaging, Inc. Imaging systems and methods

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11928775B2 (en) 2020-11-26 2024-03-12 Ricoh Company, Ltd. Apparatus, system, method, and non-transitory medium which map two images onto a three-dimensional object to generate a virtual image

Similar Documents

Publication Publication Date Title
JP6740996B2 (ja) データ生成装置、画像処理装置、方法およびプログラム
CN110430355B (zh) 成像系统和成像装置
JP5920507B1 (ja) 画像処理システム、画像処理方法およびプログラム
JP7031280B2 (ja) 画像処理装置、画像処理システムおよびプログラム
JP6724659B2 (ja) 撮影装置、方法およびプログラム
JP6256513B2 (ja) 撮像システム、撮像装置、方法およびプログラム
CN111263037B (zh) 图像处理装置、拍摄装置、视频播放系统、方法以及程序
JP2020174363A (ja) 撮影システム、方法およびプログラム
JP2020096349A (ja) 画像処理装置、撮像装置、動画再生システム、方法およびプログラム
JP2020204874A (ja) 画像処理システム、撮像システム、画像処理装置、撮像装置およびプログラム
JP2020078065A (ja) 撮像装置、情報処理装置、補正量設定方法およびプログラム
JP2020136850A (ja) 撮像装置、撮像方法、プログラムおよび撮像システム
JP2020096350A (ja) 画像処理装置、撮像装置、動画再生システム、方法およびプログラム
JP2020088843A (ja) 撮像システム、端末及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200623

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200623

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210720

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20211027