JP2020113974A - 撮像装置、方法およびプログラム - Google Patents

撮像装置、方法およびプログラム Download PDF

Info

Publication number
JP2020113974A
JP2020113974A JP2019231788A JP2019231788A JP2020113974A JP 2020113974 A JP2020113974 A JP 2020113974A JP 2019231788 A JP2019231788 A JP 2019231788A JP 2019231788 A JP2019231788 A JP 2019231788A JP 2020113974 A JP2020113974 A JP 2020113974A
Authority
JP
Japan
Prior art keywords
image
unit
imaging
image capturing
units
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019231788A
Other languages
English (en)
Inventor
渡部 剛史
Takashi Watabe
剛史 渡部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to CN201980087931.0A priority Critical patent/CN113261272B/zh
Priority to US17/291,281 priority patent/US11388332B2/en
Priority to PCT/JP2019/051579 priority patent/WO2020145212A1/en
Priority to EP19909152.1A priority patent/EP3909232A4/en
Publication of JP2020113974A publication Critical patent/JP2020113974A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • G03B37/04Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe with cameras or projectors providing touching or overlapping fields of view
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • G03B37/06Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe involving anamorphosis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • G03B17/17Bodies with reflectors arranged in beam forming the photographic image, e.g. for reducing dimensions of camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Cameras In General (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Image Processing (AREA)

Abstract

【課題】 撮像装置を提供すること。【解決手段】 撮像装置110は、それぞれが光学系20および撮像素子22(130)を備える複数の撮像部220,230を含む。撮像装置110は、また、複数の撮像部220,230それぞれで画像を撮像するよう制御する制御部210を含む。撮像装置110は、さらに、複数の撮像部210,220によって異なる時間に撮像された複数の画像224,234に基づき、合成画像(242,252/244,254)を生成する生成部240を含む。【選択図】 図3

Description

本開示は、撮像装置、方法およびプログラムに関する。
従来、レンズ光学系および撮像素子を含む撮像部を複数有し、複数の撮像部を用いて同時に撮像して得られた複数の画像を合成し、一枚の画像を生成する撮像装置が知られている。このような撮像装置としては、例えば、一度の撮影指示によって周囲360°全方位の画像を取得できる全天球撮像装置が知られている。
上記撮像装置では、複数の撮像部を用いて広い視野を一度に撮影することになるため、その撮影範囲内に、撮影者自身などの所定の被写体が写りこんでしまう場合がある。これは、撮影者自身を含め周囲の雰囲気を撮影したいという場合には適うものである。しかしながら、撮影者自身が被写体となることが望まれない場合もあるところ、従来技術は、そのような要望に応えることができなかった。
複数の撮像部を用いた画像の合成に関連して、特許第6065474号明細書(特許文献1)が知られている。特許文献1の従来技術は、複数の撮像光学系による複数の撮像画像を合成した際につなぎ目で生じ得る不連続性を軽減することを目的としたものである。特許文献1は、複数の撮像光学系各々に対する撮像条件を与えることができる撮像制御装置、撮像制御方法およびプログラムを開示する。しかしながら、特許文献1の技術では、撮影者自身が被写体として撮像画像に写りこんでしまうことに対し対処できるものではなかった。
本開示は、上記点に鑑みてなされたものであり、複数の撮像部を併せて用いて撮影する際に、所定の被写体が写り込むことを回避することが可能な撮像装置を提供することを目的とする。
本開示では、上記課題を解決するために、下記特徴を有する撮像装置を提供する。本撮像装置は、それぞれが光学系および撮像素子を備える複数の撮像部と、複数の撮像部それぞれで画像を撮像するよう制御する制御部と、複数の撮像部によって異なる時間に撮像された複数の画像に基づき、合成画像を生成する生成部と
を含む。
上記構成により、複数の撮像部を併せて用いて撮影する際に、所定の被写体が写り込むことを回避することが可能となる。
本実施形態による全天球撮像装置の断面図。 本実施形態による全天球撮像装置のハードウェア構成図。 本実施形態による全天球撮像装置上に実現される全天球撮像機能に関連する主要な機能ブロック図。 (A)全天球画像の生成における画像データフロー図、および、全天球画像のデータ構造を(B)平面で表した場合および(C)球面で表した場合について説明する図。 本実施形態による全天球撮像装置と、撮影者を含む被写体との位置関係(A)、撮像される2つの魚眼画像(B)並びに合成される全天球画像(C)を説明する図。 本実施形態による全天球撮像装置が実行する全天球撮像処理を示すフローチャート。 本実施形態による時間差露光モードでの第1撮像処理および第2撮像処理で撮像され得る魚眼画像(A,B)並びに合成される合成画像(C)を説明する図。 他の実施形態による全天球撮像装置が実行する全天球撮像処理を示すフローチャート。 さらに他の実施形態による全天球撮像装置が実行する全天球撮像処理を示すフローチャート。 所定の被写体の消失を検出する特定の実施形態において各時点で得られる魚眼画像を示す図。 所定の被写体の出現を検出する他の特定の実施形態において各時点で得られる魚眼画像を示す図。
以下、本実施形態について説明するが、実施形態は、以下に説明する実施形態に限定されるものではない。なお、以下の実施形態では、撮像装置の一例として、全天球撮像装置110を用いて説明するが、これに限定されるものではない。
以下、図1および図2を参照しながら、本実施形態による全天球撮像装置110の基本構成について説明する。
図1は、本実施形態による全天球撮像装置110の断面図である。図1に示す全天球撮像装置110は、撮像体12と、上記撮像体12およびコントローラやバッテリなどの部品を保持する筐体14と、上記筐体14に設けられたシャッター・ボタン18とを備える。
図1に示す撮像体12は、それぞれが結像光学系20と撮像素子22とを含む2つの鏡胴ユニットを含んで構成される。撮像素子22は、CCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)センサなどであり、後述するCPUからの制御指令によって制御される。結像光学系20各々は、例えば6群7枚の魚眼レンズとして構成されている。上記魚眼レンズは、図1に示す実施形態では、180度(=360度/n;光学系数n=2)より大きい全画角を有し、好適には、185度以上の画角を有し、より好適には、190度以上の画角を有する。このような広角な結像光学系20と撮像素子22とを1個ずつ組み合わせたものが、本実施形態における撮像部を構成する。なお、説明する実施形態では、光学系(撮像部)の数が2である場合を一例として説明するが、光学系(撮像部)の数は、3以上であってもよい。
2つの結像光学系20A,20Bの光学素子(レンズ、プリズム、フィルタおよび開口絞り)は、撮像素子22A,22Bに対して位置関係が定められる。より具体的には、結像光学系20A,20Bの光学素子の光軸が、対応する撮像素子22の受光領域の中心部に直交して位置するように、かつ、受光領域が、対応する魚眼レンズの結像面となるように位置決めが行われる。
図1に示す実施形態では、結像光学系20A,20Bは、同一仕様のものであり、それぞれの光軸が合致するようにして、互いに逆向きに組み合わせられる。撮像素子22A,22Bは、受光した光分布を画像信号に変換し、コントローラ上の画像処理手段に順次、画像フレームを出力する。詳細は後述するが、撮像素子22A,22Bでそれぞれ撮像された画像は、合成処理されて、これにより、立体角4πステラジアンの画像(以下「全天球画像」と参照する。)が生成される。全天球画像は、撮影地点から見渡すことのできる全ての方向を撮影したものとなる。ここで、説明する実施形態では、全天球画像を生成するものとして説明するが、全天周画像、並びに水平面のみ360度を撮影した、いわゆるパノラマ画像であってもよい。
図2は、本実施形態による全天球撮像装置110のハードウェア構成を示す。全天球撮像装置110は、説明する実施形態における撮像装置に対応する。
全天球撮像装置110は、CPU(Central Processing Unit)112と、ROM(Read Only Memory)114と、画像処理ブロック116と、静止画圧縮ブロック117と、動画圧縮ブロック118と、リサイズブロック119と、DRAM(Dynamic Random Access Memory)インタフェース120を介して接続されるDRAM132と、外部センサインタフェース124を介して接続されるモーションセンサ136とを含み構成される。
CPU112は、全天球撮像装置110の各部の動作および全体動作を制御する。ROM114は、CPU112が解読可能なコードで記述された制御プログラムや各種パラメータを格納する。ROM114として、書き換え可能なフラッシュROMを用いる場合、制御プログラムや制御するためのパラメータを変更することが可能となり、ひいては機能のバージョンアップが容易となる。ROM114に加えて、またはROM114とともに、制御プログラムを格納するためのSSDなどのストレージを備えてもよい。画像処理ブロック116は、2つの撮像素子130A,130B(図1における撮像素子22A,22Bである。)と接続され、それぞれで撮像された画像の画像信号が入力される。画像処理ブロック116は、ISP(Image Signal Processor)などを含み構成され、撮像素子130から入力された画像信号に対し、シェーディング補正、ベイヤー補間、ホワイトバランス補正、ガンマ補正などを行う。
静止画圧縮ブロック117は、JPEG(Joint Photographic Experts Group)などの静止画圧縮および伸張を行うコーデック・ブロックである。動画圧縮ブロック118は、MPEG(Moving Picture Experts Group)−4 AVC(Advanced Video Coding)/H.264などの動画圧縮および伸張を行うコーデック・ブロックである。なお、ここではJPEGおよびH.264をそれぞれ静止画および動画のコーデックの一例として説明しているが、静止画および動画のコーデックは特に限定されるものではない。コーデックには、他にも様々なバリエーションがあるので、他のコーデックを使用してもよいし、複数搭載しても良い。リサイズブロック119は、画像データのサイズを補間処理により拡大または縮小するブロックである。
DRAM132は、各種信号処理および画像処理を施す際にデータを一時的に保存する記憶領域を提供する。保存される画像データとしては、例えば、信号処理でホワイトバランス設定およびガンマ設定が行われた状態のRAW−RGB画像データ、信号処理で輝度データおよび色差データ変換が行われた状態のYUV画像データ、および静止画圧縮ブロック117で例えばJPEG圧縮されたJPEG画像データなどがある。
モーションセンサ136は、例えば、3軸の加速度成分および3軸の角速度成分を検出するセンサである。検出された加速度成分および角速度成分は、重力方向(基準方向)への全天球画像の天頂補正や重力方向周りの回転補正を施すために用いられる。モーションセンサ136は、さらに、方位角などを求めるための地磁気センサなど他のセンサを備えてもよい。モーションセンサ136は、ここでは3軸センサを用いているが、例えば6軸の加速度センサや角速度センサであってもよい。
全天球撮像装置110は、さらに、外部ストレージインタフェース122と、USB(Universal Serial Bus)インタフェース126と、シリアルブロック128とを含み構成される。外部ストレージインタフェース122には、外部ストレージ134が接続される。外部ストレージインタフェース122は、メモリカードスロットに挿入されたメモリカードなどの外部ストレージ134に対する読み書きを制御する。USBインタフェース126には、USBコネクタ138が接続される。USBインタフェース126は、USBコネクタ138を介して接続されるスマートフォンなどの外部装置とのUSB通信を制御する。シリアルブロック128は、スマートフォンなどの外部装置とのシリアル通信を制御し、無線NIC(Network Interface Card)140が接続される。
図2に示す全天球撮像装置110は、さらに、顔検出ブロック144を含み構成される。顔検出ブロック144は、例えば魚眼画像や天頂補正等された画像を用いて顔検出を行い、人の顔の位置を特定する。顔検出ブロック144は、特定の実施形態では、詳細を後述するように、例えば撮影者などの所定の被写体の消失または出現を検出するために用いることができる。
図2に示す全天球撮像装置110は、さらに、音声ユニット146を含み構成される。音声ユニット146には、音声信号を入力するマイクロフォン148および音声信号を出力するスピーカ150が接続される。音声ユニット146は、一般的には、マイクロフォン148を介して入力された音声信号を増幅するマイクロフォンアンプと、増幅された音声信号を記録する音声記録回路と、記録された音声信号をスピーカ150から出力できる信号に変換する音声再生回路と、変換された音声信号を増幅し、スピーカ150を駆動するためのオーディオアンプとが含まれ得る。音声ユニット146は、CPU112の制御下で動作する。
図2に示す全天球撮像装置110は、さらに、LCD(Liquid Crystal Display)ドライバ152を含み構成され、LCDドライバ152にはLCDモニタ154が接続される。LCDドライバ152は、LCDモニタ154を駆動するドライブ回路であり、各種状態をLCDモニタ154に表示するための信号に変換する機能を有する。LCDモニタ154に代えて、OLED(Organic Light Emitting Diode)ディスプレイを搭載しもよい。
上述したコンポーネント112〜128,144,146,152は、バス160を介して相互に接続されている。電源スイッチの操作によって電源がオン状態になると、制御プログラムがメインメモリ(DRAM132や他のRAM)にロードされる。CPU112は、メインメモリに読み込まれたプログラムに従って、装置各部の動作を制御するとともに、制御に必要なデータをメモリ上に一時的に保存する。これにより、全天球撮像装置110の後述する各機能部および処理が実現される。制御プログラムには、ファームウェア、オペレーティング・システム(OS)、プラグイン・アプリケーションなどが含まれ得る。
以下、図3〜図7を参照しながら、本実施形態による全天球撮像装置110が備える全天球撮像機能について説明する。
図3は、本実施形態による全天球撮像装置110上で実現される全天球撮像機能に関連する主要な機能ブロック200を示す。全天球撮像装置110の機能ブロック200は、図3に示すように、制御部210と、複数の撮像部と、複数の画像信号処理部と、歪曲補正・画像合成部240とを含み構成される。図3に示す実施形態では、図1を参照して説明したように、光学系(撮像部)の数が2であり、第1撮像部220および第2撮像部230と、第1画像信号処理部222および第2画像信号処理部232とが設けられている。光学系(撮像部)の数が3以上の場合も、光学系の数に応じた撮像部および画像信号処理部を備えればよい。
制御部210は、図2に示すCPU112などを含み構成される。制御部210は、撮像部220,230を制御し、全天球画像の撮像動作の全体制御を行う。
第1撮像部220および第2撮像部230は、それぞれが図1や図2に示した結像光学系20および撮像素子22(130)を含み構成される。撮像部220,230の撮像素子22(130)は、CPU112を含む制御部210からの制御指令により制御される。2つの撮像部220,230の撮像素子22A,22B(130A,130B)は、通常の全天球撮影処理(同時露光モード)においては、制御部210の制御の下、同時に露光を開始し、データ取り込みを行う。
第1画像信号処理部222および第2画像信号処理部232は、それぞれ第1撮像部220および第2撮像部230から入力された画像データに対しホワイトバランス設定およびガンマ設定を行う。第1画像信号処理部222および第2画像信号処理部232は、さらに、画像データをフィルタリング処理によって輝度データおよび色差データへの変換を行い、YUV形式の魚眼画像224,234を出力する。YUV形式の魚眼画像224,234のデータは、DRAM132に書き出されてもよく、外部ストレージインタフェース122を経由して外部ストレージ134に出力されてもよい。
歪曲補正・画像合成部240は、複数の撮像部220,230から得られた魚眼画像224,234を合成するために用いられ、より具体的には、歪曲補正処理および画像合成処理を実行する。
以下、図4を参照しながら、全天球画像の生成および生成される全天球画像について説明する。図4(A)は、全天球画像生成における各画像のデータ構造および画像のデータフローを説明する。まず、撮像素子130各々で直接撮像される画像は、概ね全天球のうちの半球を視野に収めた画像である。結像光学系に入射した光は、所定の射影方式に従って撮像素子130の受光領域に結像される。ここで撮像される画像は、受光領域が平面エリアを成す2次元の撮像素子で撮像されたものであり、平面座標系で表現された画像データとなる。また、典型的には、得られる画像は、図4(A)において「魚眼画像A」および「魚眼画像B」で示されるように、各撮影範囲が投影されたイメージサークル全体を含む魚眼画像として構成される。なお、説明する実施形態では、魚眼レンズを用いて撮像された魚眼画像により説明するが、この魚眼画像には、魚眼レンズ以外の広角レンズを用いて撮像された広角画像も含まれるものとする。
この複数の撮像素子130で撮像された複数の魚眼画像が、歪み補正処理および画像合成処理されて、1つの全天球画像が構成される。画像合成処理では、平面画像として構成される各魚眼画像から、まず、相補的な各半球部分を含む各全天球画像が生成される。そして、各半球部分を含む2つの全天球画像が、重複領域のマッチングに基づいて位置合わせされ、画像合成され、全天球全体を含む全天球画像が生成される。
図4(B)は、本実施形態で用いられる全天球画像の画像データのデータ構造を平面で表して説明する図である。図4(C)は、全天球画像の画像データのデータ構造を球面で表して説明する図である。図4(B)に示すように、全天球画像の画像データは、所定の軸に対してなされる垂直角度φと、所定の軸周りの回転角に対応する水平角度θとを座標とした画素値の配列として表現される。垂直角度φは、0度〜180度(あるいは−90度〜+90度)の範囲となり、水平角度θは、0度〜360度(あるいは−180度〜+180度)の範囲となる。
全天球フォーマットの各座標値(θ,φ)は、図4(C)に示すように、撮影地点を中心とした全方位を表す球面上の各点と対応付けられており、全方位が全天球画像上に対応付けられる。魚眼レンズで撮像された魚眼画像の平面座標と、全天球画像の球面上の座標とは、所定の変換テーブルにて対応付けされる。変換テーブルは、それぞれのレンズ光学系の設計データ等に基づいて、所定の投影モデルに従い製造元等で予め作成されたデータであり、歪みを考慮して魚眼画像を全天球画像へ座標変換するデータである。歪曲補正および画像合成の処理を施す際には、DRAM132にデータが一時的に保存されてもよい。
なお、歪曲補正・画像合成部240による歪曲補正処理および画像合成処理は、モーションセンサ136からの情報を利用して、歪曲補正と同時に天地補正を行い、天地補正した合成画像を生成することができる。一般に天地補正と歪曲補正はそれぞれ非可逆変換処理となるので、ここでは同時に処理を行うように記載しているが、これらは別々に処理してもよい。また、天地補正とは、実際には基準方向(例えば重力方向)に対して全天球撮像装置110の中心軸(図1に示す。)が傾いている状態で撮像された画像を、あたかも中心軸が重力方向Zに一致した状態で撮影されたかのような画像に補正する処理をいう。特定の実施形態では、天頂補正に加えて、上記基準方向まわり角度変化を打ち消すような回転補正が行われてもよい。
歪曲補正・画像合成部240による歪曲補正処理および画像合成処理により、YUV形式の全天球画像(エクイレクタンギュラー形式)242が出力される。この画像の出力先についても、前述のように、例えばDRAM132であってよいし、外部ストレージ134であってもよい。歪曲補正・画像合成部240は、本実施形態における、複数の撮像部220,230によって撮像された複数の魚眼画像に基づき、合成画像を生成する生成部を構成する。
ここで、歪曲補正・画像合成部240が、合成画像として、座標変換して得られたYUV形式の全天球画像242を出力するものとして説明する。しかしながら、合成画像は、必ずしも図4に示すような合成後の全天球画像として出力されることを要するものではない。閲覧時に全天球画像が構成可能であれば、いかなる形態で出力されていてもよい。例えば、閲覧時に魚眼画像から歪み補正および合成を行って全天球画像を生成することを前提として、撮像素子130A,130Bで直接撮像される2つの魚眼画像の静止画データ(図4(A)に示す魚眼画像Aおよび魚眼画像Bそれぞれに対応する静止画)を並べて接合して1つの画像とした場合の静止画(YUV形式の接合画像(デュアルフィッシュアイ形式)244)が出力されていてもよい。また、合成画像は、1つファイルに合成される必要はなく、撮像素子130A,130Bで直接撮像される2つの魚眼画像を関連付けて、別々のファイルとしてもよい。また、合成画像は、全天球画像に限定されるものではなく、水平方向360度のパノラマ画像であってもよいし、全天球画像またはパノラマ画像の一部が欠けた画像などであってもよい。
全天球撮像装置110の機能ブロック200は、図3に示すように、さらに、コーデック処理部250を含み構成されてもよい。コーデック処理部250は、図2に示した静止画圧縮ブロック117を含み構成される。歪曲補正・画像合成部240から出力されたYUV形式の全天球画像242または接合画像244は、コーデック処理部250により、所定の静止画フォーマットに変換されて、所定静止画フォーマット(例えばJPEG)の全天球静止画254または接合静止画252として出力される。出力先は、外部ストレージ134であってもよいし、USBコネクタ138や無線NIC140を介して接続される外部の情報端末のストレージ内であってもよい。なお、静止画は、静止画が再生可能であればいなかる形式で記録されてよい。静止画の形式としては、JPEGのほか、PNG(Portable Network Graphics)、BMP(Bitmap)形式などを挙げることができる。
上述した全天球撮像装置110によれば、2つの撮像部220,230それぞれの撮影範囲を合算することで、撮影地点を中心とした全方位を一度に撮像することができる。
図5(A)は、本実施形態による全天球撮像装置110と、撮影者Pを含む被写体の位置関係を一例として説明する。図5(B)は、図5(A)に示す位置関係にて撮像された2つの魚眼画像(魚眼画像A,魚眼画像B)を例示する。図5(C)は、図5(A)に示す位置関係にて撮像された図5(B)で示すような2つの魚眼画像を合成して得られる全天球画像を例示する。
図5(A)には、撮影者P、被写体O1および被写体O2が全天球撮像装置110の周辺に配置されている。図5(A)に示すように、全天球撮像装置110には、表裏の位置に光学系20A(フロント)と光学系20B(リア)が設けられている。それぞれの光学系20A,20Bを通して撮像された魚眼画像には、図5(B)に示すように、それぞれの側にある被写体(魚眼画像Aでは撮影者Pおよび被写体O1,魚眼画像Bでは、被写体O2)が写り込んでいる。そして、合成された全天球画像においても、撮影者P、被写体O1,O2を含めて被写体全体が写り込むことになる。
このような全天球画像は、撮影者P自身を含めて周囲の雰囲気を撮影したいという要望に適うものといえる。一方で、全方位にわたる広い視野を一度に撮影することになるため、その合算された撮影範囲内には撮影者Pが写り込むことになるが、撮影者P自身が被写体として写り込むこと自体が望まれない場合もある。
そこで、本実施形態による全天球撮像装置110では、複数の撮像部220,230を併せて用いて撮影する際に、上記同時露光モードに加えて、所定の被写体が写り込むことを回避することが可能な撮影モード(以下、時間差露光モードと参照する。)が提供される。以下、写り込み回避の対象となる被写体が撮影者である場合を一例として説明するが、撮影者以外の被写体を対象とすることもできることは言うまでもない。
本実施形態による制御部210は、当該時間差露光モードにおいて、複数の撮像部220,230を制御し、複数の撮像部220,230それぞれで異なる時間に画像を撮像するようにする。制御部210は、また、撮像された異なる時間での複数の画像を歪曲補正・画像合成部240に画像合成させる。
一つの魚眼画像を撮像する場合にも、露光時間、ローリングシャッターの場合のライン毎の露光タイミングおよび読み出し時間のずれなどに起因して撮像処理には一定の時間幅が存在する。ここで、複数の撮像部220,230での撮像に関して「異なる時間」とは、各撮像部220,230での撮影処理(露光開始からデータ取り込み完了まで)のタイミングが少なくとも重ならない程度に意図的に離間されていること意味する。同期の精度に起因して生じうる程度の時間差を有する場合は、「異なる時間」とは言わないものとする。好ましくは、「異なる時間」は、被写体を一方の撮影範囲からその撮影範囲外へ移動させることが可能な程度に充分に間隔されているものとする。
また、上述した同時露光モードにおける「同時」とは、グローバルシャッターの場合のような全画素同時タイミングで映像を取得するという程度まで同時であることを意味するものではなく、ローリングシャッターの場合のライン毎の露光タイミングおよび読み出し時間のずれや同期の精度に起因して生じうる程度の時間差があっても、「同時」というものとする。
複数の撮像部220,230の撮像動作を異なるタイミングで実施することにより、撮影者Pが、一方での撮影が終わった後、次に撮像を行わない撮像部側の撮影範囲または次に撮像を行う撮像部側の撮影範囲外に移動することが可能となる。
特定の実施形態では、制御部210は、第1撮像部220での撮影からの経過時間を計時し、経過時間が所定の規定時間に到達したことに応答して、第2撮像部230での撮像を実行することができる。ここで、第1撮像部220の撮影後に第2撮像部230での撮像を行うものとして説明するが、当然に、反対であってもよく、どちらの撮影を先行して行うかは、固定されていてもよいし、ユーザにより設定可能であってもよい。さらに、上述した一方の撮影からの経過時間は、撮影処理に関連した任意の基準からの経過時間とすることができる。例えば、経過時間は、撮影処理終了時を基準とした経過時間であってもよいし、撮影処理開始時を基準とした経過時間であってもよいし、撮影処理後の画像信号処理部222,232からの画像出力完了時を基準とした経過時間であってもよく、特に限定されるものではない。
上述したように、時間差露光モードでは、一方の撮像部(例えば220)での撮影からの経過時間に基づいて他方の撮像部(例えば230)での撮像が行われる。撮影者Pは、この所定の時間内に、後続する他方の撮像部(例えば230)での撮影の撮影範囲外へ移動することになる。このため、撮影者Pが、経過時間や残り時間を把握し、後続する撮影のタイミングを予期できるようにすることが好ましい。
図3は、そのような場合に有効な特定の実施形態も図示しており、そのような特定の実施形態では、全天球撮像装置110の機能ブロック200は、さらに、点線で表した案内部212を含み構成される。案内部212は、制御部210からの制御の下、上述した経過時間に基づいた後続の撮像に関し、音声または光での通知、または表示装置上での表示により案内を行うことができる。ここで、撮像に関し行われる案内としては、計時を開始したことを示す案内、経過時間の案内、残り時間の案内などを挙げることができる。
音声による通知としては、例えば、スピーカ150からの、計時を開始したことを示すビープ音、経過時間や残り時間の読み上げ、経過時間や残り時間に応じた周期や音階でのビープ音の出力などを例示することができる。光での通知としては、例えば、計時を開始したことを示すLEDの点灯や、経過時間や残り時間の電光表示、経過時間や残り時間に応じた周期や色、明るさでのLEDなどの点灯や点滅などを挙げることができる。表示装置上での表示としては、当該全天球撮像装置110が備えるLCDモニタ154や、USB、Wifi(登録商標)やBluetooth(登録商標)や他の有線または無線プロトコルで接続される外部の情報端末のアプリケーション画面における経過時間や残り時間の表示などを挙げることができる。しかしながら、案内部212による案内の態様としては特に限定されるものではない。
以下、図6を参照しながら、本実施形態による全天球撮像処理について、より詳細に説明する。図6は、本実施形態による全天球撮像装置110が実行する全天球撮像処理を示すフローチャートである。図6に示す処理は、制御部210が主に実行する。
図6に示す制御は、撮影者からの撮影要求に応答して、ステップS100から開始される。ステップS101では、制御部210は、現在選択中の撮影モードを取得する。撮影モードは、特に限定されるものではないが、ここでは、「同時露光モード」や、複数の撮像部で異なる時間に撮像を行うことを指定する「時間差露光モード」の2つの選択肢の中から選択されているものとする。しかしながら、これら以外のモードがあることを妨げるものではない。
ステップS102では、制御部210は、現在選択中の撮影モードが同時露光モードであるか否かを判定する。ステップS102で、同時露光モードであると判定された場合(YES)は、ステップS103へ処理を分岐させる。
ステップS103では、制御部210は、撮像部220,230および画像信号処理部222,232に対し、第1撮像処理および第2撮像処理を同時に実行させて、ステップS107へ処理を進める。ここで、第1撮像処理は、図3における第1撮像部220の撮像素子130の露光開始から第1画像信号処理部222によるYUV形式の魚眼画像の出力までに相当する。これに対し、第2撮像処理は、図3における第2撮像部230の撮像素子130の露光開始から第2画像信号処理部232によるYUV形式の魚眼画像の出力までに相当する。
一方、ステップS102で、同時露光モードではないと判定(「時間差露光モード」であると判定)された場合(NO)は、ステップS104へ処理が分岐される。
ステップS104では、制御部210は、第1撮像部220および第1画像信号処理部222に対し、まず第1撮像処理を行わせて、魚眼画像Aを撮像し、以降の経過時間の計測を開始する。ステップS105では、制御部210は、経過時間を参照して、次の撮像開始時間となったか否かを判定する。ステップS105で、次の撮像開始時間となるまで(NOの間)、ステップS105をループさせる。ステップS105で、次の撮像開始時間となったと判定された場合(YES)は、ステップS106へ処理が進められる。ステップS106では、制御部210は、第2撮像部230および第2画像信号処理部232に対し、第2撮像処理を行わせ、ステップS104とは異なる時間の魚眼画像Bを撮像する。
例えば、経過時間計測開始タイミングを第1撮像処理の終了時とし、規定時間を10秒とした場合、第1撮像処理終了後10秒経過したタイミングで第2撮像処理が開始されることになる。これ以外にも、規定時間計測開始タイミングを第1撮像処理開始時としたり、第1撮像処理にかかるYUV画像出力完了時としたりすることも可能であることは上述した通りである。また、規定時間を、ユーザの選択または入力により任意の時間に設定可能としてもよい。
全天球画像に写り込みたくない撮影者P(所定の被写体)は、上述した規定時間内に、後続する第2撮影処理での撮影範囲外へ移動することになる。あるいは、全天球画像に写り込ませたくない被写体を、上述した規定時間内に、後続する第2撮影処理での撮影範囲外へ移動させることになる。
図7(A)は、本実施形態による時間差露光モードでの第1撮像処理で撮像され得る2つの魚眼画像を示す。図7(B)は、本実施形態による時間差露光モードでの第2撮像処理で撮像され得る2つの魚眼画像を示す。
第1撮像処理が、図5(A)に示すフロント側(20A)の処理であるとした場合、全天球画像に写りこみたくない撮影者Pは、第1撮像処理の第1時点では、図7(A)に描いているように、第2撮像処理側(リア側,魚眼画像B側)にいる必要がある。そして、後続する第2撮像処理が行われる第2時点までの規定時間内に、撮影者Pは、図7(B)に示すように、第1撮像処理側(フロント側,魚眼画像A側)に移動する必要がある。なお、図7(A)および(B)において、主に撮像処理を行う側の反対側の魚眼画像も同時に撮像する場合を示しているが、主に撮像処理を行う側の反対側ついては魚眼画像の撮像が行われなくともよい。
また、説明する実施形態では、上述したように、第1撮像処理をフロント側、第2撮像処理をリア側としているが、第1撮像処理および第2撮像処理の関係が反対であってもよい。つまり、撮影者Pがフロント側にいるときに、第1撮像処理をリア側で行い、撮影者Pがリア側に移動した後に第2撮像処理をフロント側で行う態様としてもよい。
また、図6に示すステップS105の判定がNOである間のループにおいて、時間計測開始時にスピーカから計測開始音を発したり、経過時間や残り時間に応じてスピーカから音声出力したり、全天球撮像装置110が備えるLEDを点灯・点滅させたり、LCDモニタ154に経過時間や残り時間を表示させたりすることで、案内を行うことができる。これにより、撮影者に移動するために使える時間を容易に把握させることができる。
ステップS107では、制御部210は、歪曲補正・画像合成部240により、第1撮像処理および第2撮像処理で得られた魚眼画像A(第1時点)および魚眼画像B(第2時点)に基づき合成処理を実行させて、合成画像を生成し、ステップS108で本処理を終了する。
ステップS104〜ステップS106の処理により、第1撮像処理および第2撮像処理が行われることで、複数のYUV形式の魚眼画像224,234が得られる。そして、ステップS107で、この2つのYUV形式の魚眼画像224,234に対して歪曲補正および画像合成を行うことにより、YUV形式の全天球画像242または接合画像244が生成される。なお、YUV形式の全天球画像242とするか、YUV形式の接合画像244とするかは、任意に決定することができる。図7(C)は、図7(A)および図7(B)で異なる時間に撮像された2つの魚眼画像224,234から合成された接合画像244を合成画像として示す。図7(C)に示すように、接合画像244中には、撮影者Pは、被写体として写り込んでいないことが理解される。
上述した実施形態では、一方の撮像部で撮像してからの経過時間に基づいて他方の撮像部での撮像を行うものであった。一方、他の実施形態では、一方の撮像部での撮像後、後続する撮像部で撮像を行わせる契機となる明示的な指示を受け付けたことに応答して、後続する撮像部での撮像を行うこともできる。図3は、そのような特定の実施形態も示している。この他の実施形態においては、全天球撮像装置110の機能ブロック200は、図3に示すように、さらに、破線で示した指示受付部214を含み構成される。
指示受付部214は、一方の撮像部(例えば220)での撮像後、他方の撮像部(例えば230)で撮像を行う契機とする、撮影者Pからの明示的な指示を待ち受ける。この明示的な指示は、全天球撮像装置110に有線または無線(Wifi(登録商標)やBluetooth(登録商標))で接続されたリモートコントローラ(専用のリモートコントローラであってもよいし、スマートフォンなどの汎用端末に制御アプリケーションをインストールした形態であってもよい。)を用いて行われる。汎用端末と接続している場合、第1撮像処理および第2撮像処理のプレビュー画像を撮影者に実際に見せることも可能である。このため、例えば、撮影者は、プレビュー画像を見ながら、自身が被写体として写りこまない位置に移動できた段階で、次の撮影開始を明示的に指示することができる。
この他の実施形態では、制御部210は、上述した経過時間に応じた制御に代えて、明示的な指示を受け付けたことに応答して、後続する撮像部(例えば230)での撮像を実行する制御を行うことができる。また、経過時間に応じた制御とするか、撮影者からの明示的な指示を契機とした制御とするかは、ユーザにより選択可能であってもよい。また、指示は、他方の撮像部(例えば230)で撮像を行えることを意味する指示(準備ができた段階でボタンを押すなど)であってもよいし、他方の撮像部(例えば230)で撮像を行えないことを意味する指示(準備中はボタンを押し続け、準備が完了した段階でボタンを離すなど)であってもよい。
以下、図8を参照しながら、他の実施形態による全天球撮像処理について、より詳細に説明する。図8は、他の実施形態による全天球撮像装置110が実行する全天球撮像処理を示すフローチャートである。図8に示す処理は、図6に示す実施形態と同様に、CPU112を含む制御部210が主に実行する処理である。
図8に示す制御は、撮影者からの撮影要求に応答して、ステップS200から開始される。ステップS201〜S203の処理は、図6に示したステップS101〜S103の処理と同様であるため、説明を割愛する。
ステップS202で、同時露光モードではないと判定された場合(NO)は、ステップS204へ処理が分岐される。ステップS204では、制御部210は、第1撮像部220および第1画像信号処理部222に対し、まず第1撮像処理を行わせ、以後、ステップS205で次の撮影開始指示を待ち受ける。全天球画像に写り込みたくない撮影者P(所定の被写体)は、次の撮影開始指示を行うまでに、後続する第2撮影処理での撮影範囲外へ移動することになる。ステップS205で、制御部210が、次の撮像開始指示を受け付けたと判定された場合(YES)は、ステップS206へ処理が進められる。ステップS206では、制御部210は、第2撮像部230および第2画像信号処理部232に対し、第2撮像処理を行わせる。
ステップS207では、制御部210は、歪曲補正・画像合成部240により、第1撮像処理および第2撮像処理で得られた複数の魚眼画像に基づき合成処理を実行させて、合成画像を生成し、ステップS208で本処理を終了させる。
なお、上述までの実施形態では、2つの撮像部220,230で異なる時間に露光およびデータ取り込みを行って、2つの撮像部220,230に対応する2つの魚眼画像を撮像するものとして説明した。しかしながら、歪曲補正・画像合成部240で処理するまでは、2つの撮像部220,230で同期して順次露光およびデータの取り込みを行っておき、異なる時間に撮像された2つの魚眼画像を歪曲補正・画像合成部240での合成のために取得する態様としてもよい。この場合、選択されたもの以外の画像は破棄される。すなわち、異なる時間に画像を撮像するとは、2つの撮像部220,230を同期させず、異なる時間に露光および取り込みを行う場合のほか、2つの撮像部220,230を同期して露光および取り込みを常時行いつつ、その後に、異なる時間に露光および取り込みを行った2つの魚眼画像を選択することを含む。
以下、図3および図9〜図11を参照しながら、次撮影開始を行う契機を全天球撮像装置110自身が判定するさらに他の実施形態について説明する。図3には、そのような全天球撮像装置110自身で次撮影開始のタイミングを判定する実施形態も図示されている。この実施形態では、図3に示すように、全天球撮像装置110の制御部210は、さらに、1点鎖線で示す被写体検知部216を含み構成されている。
特定の実施形態では、被写体検知部216は、一方の撮像部(例えば220)での撮像後、他方の撮像部(例えば230)で順次画像を取得(露光および取り込み)している。そして、被写体検知部216は、取得している画像に基づいて該画像内で所定の被写体の消失を検知するよう構成されている。被写体検知部216は、特定の実施形態における消失検知部を構成する。制御部210は、他方の撮像部(例えば230)で取得している画像内で所定の被写体の消失を検知したことに応答して、他方の撮像部(例えば230)での撮影を完了させる。ここでは、所定被写体の消失を検知した後に、他方の撮像部(例えば230)で改めて撮影を行ってもよいし、所定の被写体の消失を検知する際に用いた画像を、合成に用いるものとして選択してもよい。
なお、所定の被写体が消失したかどうかは、例えば顔検出ブロック144での魚眼画像からの検出結果を利用することができる。例えば、簡便には、検知対象である側の魚眼画像中の顔の数が減少しことを所定の被写体の消失とみなすことができる。あるいは、予め検知対象となる顔を登録しておき、この検知対象の顔が消失したことを所定の被写体の消失とみなすことができる。あるいは、このような顔認識技術を用いずに、被写体が消失すると輝度が上がる傾向にあることから、対象となる撮像処理範囲内の全面平均輝度が一定値以上変化した場合に、所定の被写体の消失とみなすこともできる。
また、他の特定の実施形態では、被写体検知部216は、一方の撮像部(例えば220)での撮像後、継続してこの撮像部(例えば220)で順次画像を取得(露光および取り込み)している。そして、被写体検知部216は、この一方の撮像部(例えば220)で取得している画像に基づいて該画像内で所定の被写体の出現を検知するよう構成される。被写体検知部216は、他の特定の実施形態における出現検知部を構成する。例えば、撮影者の顔を所定の被写体として登録しておき、制御部210は、一方の撮像部(例えば220)で取得している画像内でその出現を検知したことに応答して、他方の撮像部(例えば230)での撮影を実行する。
図9は、さらに他の実施形態による全天球撮像装置110が実行する全天球撮像処理を示すフローチャートである。図9に示す処理は、CPU112を含む制御部210が主に実行する処理である。なお、図9に示す処理は、所定の被写体の消失を検知する場合および所定の被写体の出現を検知する場合に共通のフローチャートである。
図9に示す制御は、撮影者からの撮影要求に応答して、ステップS300から開始される。ステップS301〜S303の処理は、図6に示したステップS101〜S103の処理と同様であるため、説明を割愛する。
ステップS302で、同時露光モードではないと判定された場合(NO)は、ステップS304へ処理が分岐される。ステップS304では、制御部210は、第1撮像部220および第1画像信号処理部222に対し、まず第1撮像処理を行わせる。ステップS305では、制御部210は、被写体の消失または出現の検知処理を実行し、ステップS306では、所定の被写体の消失または出現が検知されたか否かを判定する。ステップS306で、制御部210が、所定の被写体の消失または出現を検知しなかったと判定した場合(NO)は、ステップS305へ処理をループさせ、被写体の消失または出現の検知処理を継続する。ステップS306で、制御部210が、所定の被写体の消失または出現を検知したと判定された場合(YES)は、ステップS307へ処理が進められる。ステップS307では、制御部210は、第2撮像部230および第2画像信号処理部232に対し、第2撮像処理を行わせる。
図10は、所定の被写体の消失を検出する特定の実施形態において各時点で得られる魚眼画像を示す図である。図10(A)に示すように、フロント側の第1撮像処理を行う第1時点では、撮影者Pは、撮影を行わない方の第2撮像処理側(リア側,魚眼画像B側)にいる。撮影者Pの顔Fは、被写体検知部216により魚眼画像B中で検出されている。フロント側の第1撮像処理を行った後の所定の時点で、図10(B)に示すように、魚眼画像B中で検出されていた撮影者Pの顔の消失Lが被写体検知部216により検出される。すると、これに応答して、第2時点で、図10(C)に示すように、リア側の撮影を行う第2撮像処理を行う。この場合、撮影者Pは、例えば、撮影を行わない方の第1撮像処理側(フロント側,魚眼画像A側)にいることになる。
これに対して、図11は、所定の被写体の出現を検出する他の特定の実施形態において各時点で得られる魚眼画像を示す図である。図11(A)に示すように、フロント側の第1撮像処理を行う第1時点では、撮影者Pは、撮影を行わない方の第2撮像処理側(リア側,魚眼画像B側)にいる。魚眼画像A中、撮影者Pの顔は未検出である。フロント側の第1撮像処理を行った後の所定の時点で、図11(B)に示すように、撮影者Pの顔の出現が、被写体検知部216により魚眼画像A中で検出される。これに応答して、第2時点では、図11(C)に示すように、リア側の第2撮像処理を行う。この場合、撮影者Pは、撮影を行わない方の第1撮像処理側(フロント側,魚眼画像A側)にいるが、魚眼画像A中で撮影者Pの顔が検出されることになる。
再び図9を参照すると、ステップS307およびステップS303の後は、ステップS308へ処理が進められる。ステップS308では、制御部210は、歪曲補正・画像合成部240により、第1撮像処理および第2撮像処理で得られた複数の魚眼画像に基づき合成処理を実行させて、合成画像を生成し、ステップS309で本処理を終了させる。
以上説明したように、上述した実施形態によれば、複数の撮像部を併せて用いて撮影する際に、所定の被写体が写り込むことを回避することが可能な撮像装置、方法およびプログラムを提供することができる。
一方の撮像からの経過時間に基づいて、後続の撮像を実行する特定の実施形態では、撮影者は、経過時間というわかりやすい指標を参考に、容易にその間に後続の撮影範囲外へ移動することができる。また、その際に、音声または光での通知、または表示装置上での表示により案内が行われると、撮影者は、移動するために使える時間を容易に把握することができるようになる。
さらに、後続の撮像を行う契機となる指示を受け付ける特定の実施形態では、撮影者は、後続の撮影範囲外へ移動するための時間を充分に確保することができるようになり、また、時間を気にする必要もなくなる。
また、さらに、取得している画像に基づいて該画像内で所定の被写体の消失または出現を検知する特定の実施形態では、全天球撮像装置が自らの判断で後続の撮像部での撮像を実行するので、撮影者は、経過時間を気にしたり、明示的な指示を行う必要がない。
なお、上記機能部は、アセンブラ、C、C++、C#、Java(登録商標)などのレガシープログラミング言語やオブジェクト指向プログラミング言語などで記述されたコンピュータ実行可能なプログラムにより実現でき、ROM、EEPROM、EPROM、フラッシュメモリ、フレキシブルディスク、CD−ROM、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、ブルーレイディスク、SDカード、MOなど装置可読な記録媒体に格納して、あるいは電気通信回線を通じて頒布することができる。また、上記機能部の一部または全部は、例えばフィールド・プログラマブル・ゲート・アレイ(FPGA)などのプログラマブル・デバイス(PD)上に実装することができ、あるいはASIC(特定用途向集積)として実装することができ、上記機能部をPD上に実現するためにPDにダウンロードする回路構成データ(ビットストリームデータ)、回路構成データを生成するためのHDL(Hardware Description Language)、VHDL(Very High Speed Integrated Circuits Hardware Description Language)、Verilog−HDLなどにより記述されたデータとして記録媒体により配布することができる。
これまで本発明の実施形態について説明してきたが、本発明の実施形態は上述した実施形態に限定されるものではなく、他の実施形態、追加、変更、削除など、当業者が想到することができる範囲内で変更することができ、いずれの態様においても本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。
12…撮像体、14…筐体、18…シャッター・ボタン、20…結像光学系、22,130…撮像素子、110…全天球カメラ、112…CPU、114…ROM、116…画像処理ブロック、117…静止画圧縮ブロック、118…動画圧縮ブロック、119…リサイズブロック、120,126…インタフェース、122…外部ストレージインタフェース、124…外部センサインタフェース、126…USBインタフェース、128…シリアルブロック、132…DRAM、134…外部ストレージ、136…モーションセンサ、138…USBコネクタ、144…顔検出ブロック、146…音声ユニット、148…マイクロフォン、150…スピーカ、152…LCDドライバ、154…LCDモニタ、200…機能ブロック、210…制御部、220…第1撮像部、222…第1画像信号処理部、230…第2撮像部、232…第2画像信号処理部、240…歪曲補正・画像合成部、250…コーデック処理部
特許第6065474号明細書

Claims (11)

  1. それぞれが光学系および撮像素子を備える複数の撮像部と、
    前記複数の撮像部それぞれで画像を撮像するよう制御する制御部と、
    前記複数の撮像部によって異なる時間に撮像された複数の画像に基づき、合成画像を生成する生成部と
    を含む、撮像装置。
  2. 前記制御部は、前記複数の撮像部のうちの第1の撮像部と前記複数の撮像部のうちの第2の撮像部とは、同時に撮像を実行することを特徴とする、請求項1に記載の撮像装置。
  3. 前記制御部は、前記複数の撮像部のうちの第1の撮像部での撮像からの経過時間に基づいて、前記複数の撮像部のうちの第2の撮像部での撮像を実行することを特徴とする、請求項1に記載の撮像装置。
  4. 前記撮像装置は、前記経過時間に基づく前記第2の撮像部での撮像に関し、音声または光での通知、または表示装置上での表示により案内を行う案内部をさらに含む、請求項3に記載の撮像装置。
  5. 前記撮像装置は、前記複数の撮像部のうちの第1の撮像部での撮像後、前記複数の撮像部のうちの第2の撮像部で撮像を行う指示を受け付ける受付部をさらに含み、前記制御部は、前記第2の撮像部での撮像を、前記指示を受け付けたことに応答して実行することを特徴とする、請求項1に記載の撮像装置。
  6. 前記撮像装置は、前記複数の撮像部のうちの第1の撮像部での撮像後、前記複数の撮像部のうちの第2の撮像部で取得している画像に基づいて該画像内で所定の被写体の消失を検知する消失検知部をさらに含み、
    前記制御部は、前記消失検知部が前記消失を検知したことに応答して、前記第2の撮像部での撮像を完了させることを特徴とする、請求項1に記載の撮像装置。
  7. 前記撮像装置は、前記複数の撮像部のうちの第1の撮像部での撮像後、該第1の撮像部で取得している画像に基づいて該画像内で所定の被写体の出現を検知する出現検知部をさらに含み、
    前記制御部は、前記出現検知部が前記出現を検知したことに応答して、前記複数の撮像部のうちの第2の撮像部での撮像を実行することを特徴とする、請求項1に記載の撮像装置。
  8. 前記複数の撮像部それぞれで撮像される画像は、魚眼画像であり、前記合成画像は、複数の魚眼画像を座標変換して合成して得られる全天球画像、または、複数の魚眼画像を接合して得られる画像であり、前記撮像装置は、全天球撮像装置である、請求項1〜7のいずれか1項に記載の撮像装置。
  9. 撮像装置が実行する方法であって、
    それぞれが光学系および撮像素子を備える複数の撮像部のうちの第1の撮像部で画像を撮像する第1撮像ステップと、
    前記第1撮像ステップとは異なる時間に前記複数の撮像部のうちの第2の撮像部で画像を撮像する第2撮像ステップと、
    前記第1撮像ステップおよび前記第2撮像ステップで撮像された複数の画像に基づいて合成画像を生成するステップと
    を含む、方法。
  10. 前記第2撮像ステップを、
    (1)前記第1撮像ステップでの撮像からの経過時間に基づいて実行するか、
    (2)前記第1撮像ステップでの撮像後、前記第2の撮像部で撮像を行う指示を受け付けたことに応答して、実行するか、
    (3)前記第1撮像ステップでの撮像後、前記第2の撮像部で取得している画像に基づいて該画像内で所定の被写体の消失を検知したことに応答して、完了させるか、または
    (4)前記第1撮像ステップでの撮像後、前記第1の撮像部で取得している画像に基づいて該画像内で所定の被写体の出現を検知したことに応答して、実行する、
    ことを特徴とする、請求項9に記載の方法。
  11. 撮像装置を実現するためのプログラムであって、コンピュータを
    それぞれが光学系および撮像素子を備える複数の撮像部それぞれで画像を撮像するよう制御する制御部、および、
    前記複数の撮像部により異なる時間に撮像された複数の画像に基づいて合成画像を生成する生成部
    として機能させるためのプログラム。
JP2019231788A 2019-01-11 2019-12-23 撮像装置、方法およびプログラム Pending JP2020113974A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201980087931.0A CN113261272B (zh) 2019-01-11 2019-12-27 图像捕获装置,图像捕获方法和记录介质
US17/291,281 US11388332B2 (en) 2019-01-11 2019-12-27 Image capturing apparatus, image capturing method, and recording medium
PCT/JP2019/051579 WO2020145212A1 (en) 2019-01-11 2019-12-27 Image capturing apparatus, image capturing method, and recording medium
EP19909152.1A EP3909232A4 (en) 2019-01-11 2019-12-27 IMAGE CAPTURE DEVICE, IMAGE CAPTURE METHOD AND RECORDING MEDIUM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019003576 2019-01-11
JP2019003576 2019-01-11

Publications (1)

Publication Number Publication Date
JP2020113974A true JP2020113974A (ja) 2020-07-27

Family

ID=71665980

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019231788A Pending JP2020113974A (ja) 2019-01-11 2019-12-23 撮像装置、方法およびプログラム

Country Status (3)

Country Link
EP (1) EP3909232A4 (ja)
JP (1) JP2020113974A (ja)
CN (1) CN113261272B (ja)

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007306106A (ja) * 2006-05-09 2007-11-22 Sony Corp 撮像装置、撮像方法、およびプログラム
CN103907341B (zh) * 2011-11-07 2017-05-24 索尼电脑娱乐公司 图像生成装置和图像生成方法
KR20150078275A (ko) * 2013-12-30 2015-07-08 삼성전자주식회사 움직이는 피사체 촬영 장치 및 방법
JP6610961B2 (ja) * 2014-07-22 2019-11-27 ソニー株式会社 制御装置、制御方法、プログラム、および制御システム
KR102157675B1 (ko) * 2014-07-25 2020-09-18 삼성전자주식회사 촬영 장치 및 그 촬영 방법
JP5846268B1 (ja) * 2014-08-12 2016-01-20 株式会社リコー 画像処理システム、画像処理装置、プログラムおよび撮像システム
US10477090B2 (en) * 2015-02-25 2019-11-12 Kyocera Corporation Wearable device, control method and non-transitory storage medium
JPWO2017200049A1 (ja) * 2016-05-20 2019-04-11 マクセル株式会社 撮像装置およびその設定画面
US11159742B2 (en) * 2016-06-30 2021-10-26 Intel Corporation High-speed video from camera arrays
WO2018025825A1 (ja) * 2016-08-02 2018-02-08 ナーブ株式会社 撮像システム
US10194097B2 (en) * 2017-01-13 2019-01-29 Gopro, Inc. Apparatus and methods for the storage of overlapping regions of imaging data for the generation of optimized stitched images
CN106713659B (zh) * 2017-01-20 2019-11-05 维沃移动通信有限公司 一种全景拍摄方法及移动终端

Also Published As

Publication number Publication date
EP3909232A1 (en) 2021-11-17
CN113261272B (zh) 2024-01-12
EP3909232A4 (en) 2022-10-05
CN113261272A (zh) 2021-08-13

Similar Documents

Publication Publication Date Title
JP5920507B1 (ja) 画像処理システム、画像処理方法およびプログラム
JP5846549B1 (ja) 画像処理システム、画像処理方法、プログラム、撮像システム、画像生成装置、画像生成方法およびプログラム
JP6740996B2 (ja) データ生成装置、画像処理装置、方法およびプログラム
KR101888470B1 (ko) 촬상 시스템, 촬상 장치, 컴퓨터 프로그램 및 시스템
US11716537B2 (en) Image processing device, image processing method, and program
JP2019033344A (ja) 画像処理装置、画像処理方法、及びプログラム
JP7031280B2 (ja) 画像処理装置、画像処理システムおよびプログラム
US11831995B2 (en) Image capturing apparatus, image capturing method, and carrier means
JP6299116B2 (ja) 撮像装置、撮像方法および記録媒体
JP7306089B2 (ja) 画像処理システム、撮像システム、画像処理装置、撮像装置およびプログラム
JP6256513B2 (ja) 撮像システム、撮像装置、方法およびプログラム
CN111263037B (zh) 图像处理装置、拍摄装置、视频播放系统、方法以及程序
US11102403B2 (en) Image device, information processing apparatus, information processing method, system, and storage medium
JP7383911B2 (ja) 撮像システム、画像処理装置、撮像装置およびプログラム
US11388332B2 (en) Image capturing apparatus, image capturing method, and recording medium
JP2020113974A (ja) 撮像装置、方法およびプログラム
JP7206797B2 (ja) 撮像装置、情報処理装置、補正値計算方法およびプログラム
JP2013192088A (ja) 撮像装置、制御方法および制御プログラム
JP7451888B2 (ja) 撮像装置、撮像システム、方法およびプログラム
JP7379884B2 (ja) 撮像装置、画像処理システム、方法およびプログラム
JP6656605B2 (ja) 撮影システム
JP2020078065A (ja) 撮像装置、情報処理装置、補正量設定方法およびプログラム
JP2020136850A (ja) 撮像装置、撮像方法、プログラムおよび撮像システム
JP2021145190A (ja) 画像処理装置、画像処理方法、撮像装置、画像処理システムおよびプログラム
JP2018011172A (ja) 撮像装置、撮像システムおよびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221017

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20230710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240325