JP7135299B2 - 画像処理装置、表示装置、画像処理方法、プログラム - Google Patents

画像処理装置、表示装置、画像処理方法、プログラム Download PDF

Info

Publication number
JP7135299B2
JP7135299B2 JP2017208676A JP2017208676A JP7135299B2 JP 7135299 B2 JP7135299 B2 JP 7135299B2 JP 2017208676 A JP2017208676 A JP 2017208676A JP 2017208676 A JP2017208676 A JP 2017208676A JP 7135299 B2 JP7135299 B2 JP 7135299B2
Authority
JP
Japan
Prior art keywords
image
image data
synthesizing
luminance characteristic
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017208676A
Other languages
English (en)
Other versions
JP2019082768A (ja
Inventor
啓一 河口
貴浩 浅井
和弘 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2017208676A priority Critical patent/JP7135299B2/ja
Priority to US16/648,150 priority patent/US11284014B2/en
Priority to CN201880069286.5A priority patent/CN111279387A/zh
Priority to EP18800776.9A priority patent/EP3701493A1/en
Priority to PCT/JP2018/039479 priority patent/WO2019082925A1/en
Publication of JP2019082768A publication Critical patent/JP2019082768A/ja
Application granted granted Critical
Publication of JP7135299B2 publication Critical patent/JP7135299B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • G06T5/92
    • G06T5/94
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/743Bracketing, i.e. taking a series of images with varying exposure conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10144Varying exposure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Description

本発明は、画像処理装置、表示装置、画像処理方法、及び、プログラムに関する。
デジタルカメラなどの撮像素子を備えた撮像装置は光を電気信号に変換する光電変換を行い輝度情報に変換する。しかし、CMOSなどの撮像素子は人間の目に比べてダイナミックレンジが狭いため、黒つぶれや白とびといった画質の低下が発生する場合がある。
近年、一度の撮像で、360°の全天球画像を得る超広角な撮像装置が提供されている。このような撮像装置で撮像した場合、画角が大きいため明るい場所や暗い場所が1枚の画像に含まれる可能性が大きくなる。このため、上記の黒つぶれや白とびなどの画質低下も発生しやすい。
このような不都合に対し、露光条件の異なる複数の画像を撮像し、これらの複数の画像データを合成してダイナミックレンジの拡大された1枚の画像を得る技術が考案されている(例えば、特許文献1参照。)。特許文献1には、一部の指定領域がユーザに指定されたことに応じて、指定領域の輝度特性を取得し、取得された指定領域の輝度特性に基づき、異なる露光条件で撮像して得られた画像データを閲覧時に合成する表示装置について開示されている。
しかしながら、特許文献1に記載された合成方法は、合成時に得られる中間露出レベルの決定方法について記載がないという問題がある。すなわち、特許文献1の中間露出レベルは、決定した目標露出レベルと現在の露出レベルの間の値に過ぎず、合成により得られる中間露出レベルが適切な露出の画像であるとは限らないおそれがある。
本発明は、上記課題に鑑み、適切な露出の画像を合成できる画像処理装置を提供することを目的とする。
本発明は、異なる露光条件で撮像して得られた複数の画像データを取得する画像取得手段と、前記複数の画像データのうち一の画像データの表示領域を受け付ける受付手段と、前記受付手段が受け付けた前記表示領域の輝度特性を取得する輝度特性取得手段と、前記輝度特性取得手段が取得した前記輝度特性に基づき、前記一の画像データと他の画像データを合成するための所定の条件を変更して、前記一の画像データと他の画像データを合成する合成手段と、異なる露光条件で撮像された複数の前記他の画像データの中から、前記輝度特性取得手段が取得した前記輝度特性に基づき1つ以上の前記他の画像データを選択する選択手段と、前記異なる露光条件で撮像して得られた複数の画像データは全天球画像であり、前記受付手段は、前記全天球画像の視線方向と画角の指定を受け付け、前記受付手段が受け付けた視線方向と画角の前記一の画像に射影方式変換を施し、所定領域の参照領域画像を生成する射影方式変換手段と、を有し、前記合成手段は、前記輝度特性取得手段が取得した前記輝度特性に基づき、前記一の画像データと前記選択手段が選択した前記他の画像データを合成するための所定の条件を変更して、前記一の画像データと他の画像データを合成するものであり、前記輝度特性取得手段が取得した前記参照領域画像の前記輝度特性に基づき、全天球画像である前記一の画像データと他の画像データを合成するための所定の条件を変更して、前記一の画像データと他の画像データを合成する画像処理装置を提供する。
本発明によれば、適切な露出の画像を合成できる画像処理装置を提供することができる。
一般撮像装置の概略的な動作を模式的に示す図の一例である。 撮像システムの構成の概略図である。 特殊撮像装置のハードウェア構成図の一例である。 スマートフォンのハードウェア構成図の一例である。 一般撮像装置のハードウェア構成図の一例である。 撮像システムが有する、特殊撮像装置、一般撮像装置、及びスマートフォンの各機能ブロック図の一例である。 画像・音処理部の詳細な機能ブロック図の一例である。 撮像システムの全体的な動作を説明するシーケンス図の一例である。 合成処理に関する画像処理の流れを説明する図の一例である。 基準画像に対して、選択画像決定部がどの平面画像を合成するかを決定する処理を説明する図である。 特殊撮像装置の左側面図、背面図、平面図、及び、底面図の一例である。 特殊撮像装置の使用イメージ図である。 特殊撮像装置で撮像された半球画像(前側)、特殊撮像装置で撮像された半球画像(後側)、正距円筒図法により表された画像を示した図である。 正距円筒射影画像で球を被う状態を示した概念図、及び、全天球画像を示した図である。 全天球画像を三次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。 図15の立体斜視図、ディスプレイに表示された場合の所定領域画像を表す図である。 所定領域情報と所定領域の画像との関係を示した図である。 画像・音処理部の一例の構成を示すブロック図である(実施例2)。 合成処理に関する画像処理の流れを説明する図の一例である(実施例2)。 基準となる正距円筒射影画像と露出アンダーな正距円筒射影画像との合成を説明する図の一例である。 基準となる全天球画像と露出オーバーな全天球画像との合成を説明する図の一例である。
以下、発明を実施するための形態の一例として、図面を用いて説明する。
<実施形態の概略>
本実施例の概略を説明する。本実施例の一般撮像装置は同じ場所から異なる露光条件で撮像して得られた複数の画像の一部の領域を表示装置に表示する処理に際して、以下の処理を行う。
図1を用いて、一般撮像装置の概略的な動作を説明する。図1は一般撮像装置による2つの画像の合成を模式的に説明する図である。
(1)例えば一般撮像装置は同じ位置から異なる露光条件で複数回、撮像し、複数の画像を取得する。複数の露光条件の1つは基準となる画像全体で適正な露出、もう1つは露出オーバー、もう1つは露出アンダーとする。適切な露出の画像を基準画像R、露出オーバーの画像を露出変更画像O、露出アンダーの画像を露出変更画像Uとする。
(2)ユーザがスマートフォンを操作して基準画像Rの一部の領域を指定した際、スマートフォンは、基準画像Rの指定された領域の輝度特性(明るさの平均値など)を取得して、目標とする明るさ値と比較する。目標より基準画像Rの領域が明るい場合は、露出変更画像Uを選択し、目標より基準画像Rの領域が暗い場合は、露出変更画像Oを選択する。
(3)そして、スマートフォン5は、明るすぎる又は暗すぎる割合に応じて露出変更画像U、又は、露出変更画像Oと基準画像Rとを合成する。これにより、指定された領域の明るさが良好となる。
このように、本実施例の一般撮像装置は、互いに異なる複数の露光条件で撮像して得られた複数の画像データの一部領域をユーザが指定して表示する際、基準とする露光条件で撮像された画像の指定された一部の領域の輝度特性から、合成する画像及び合成比率を決定して合成及び表示を行う。従って、複数の画像を合成して適切な明るさの画像データを得ることができる。
<用語について>
露光条件とは、画像データの明るさに影響する撮像条件をいう。表示領域は、画像データのうちディスプレイ等に表示される一部又は全体をいう。
輝度特性は、画像の輝度に関する特性である。明るさ、輝度情報、露出状態、露光状態、などと称してもよい。
所定の条件は、2つの画像を合成するための条件である。どのように合成するかという合成方法と称してもよい、例えば、合成割合、他方の画像による補正の程度などがある。
<撮像システムの概略>
続いて、図2を用いて、本実施例の撮像システム100の構成の概略について説明する。図2は、本実施例の撮像システム100の構成の概略図である。
図2(a)に示されているように、本実施例の撮像システム100は、一般撮像装置3、及び、スマートフォン5を有する。
スマートフォン5は、Wi-Fi(Wireless Fidelity)、Bluetooth(登録商標)、NFC(Near Field Communication)等の近距離無線通信技術を利用して、一般撮像装置3と無線通信を行う情報処理装置である。また、スマートフォン5では、自装置に設けられた後述のディスプレイ517に、一般撮像装置3が撮像した平面画像を表示することができる。
なお、スマートフォン5は、近距離無線通信技術を利用せずに、有線ケーブルによって一般撮像装置3と通信を行うようにしてもよい。また、スマートフォン5は、通信端末の一例であり、通信端末には、タブレット型PC(Personal Computer:パーソナルコンピュータ)、ノートPC、デスクトップPCも含まれる。なお、スマートフォン5は、画像処理装置、表示装置等と言ってもよい。
一般撮像装置3は、デジタル一眼レフカメラであるが、コンパクトデジタルカメラであってもよい。一般撮像装置3には、後述の操作部315の一部であるシャッターボタン315aが設けられている。一般撮像装置3とスマートフォン5は無線通信又は有線通信により通信し、一般撮像装置3が撮像した平面画像をスマートフォン5に送信する。
図2(b)は、撮像システム100の別の構成例を示す。図2(b)に示すように、本実施例の撮像システム100は、特殊撮像装置1、及び、スマートフォン5を有する。
特殊撮像装置1について詳細は実施例2にて説明するが、特殊撮像装置1は、被写体や風景等を撮像して全天球(パノラマ)画像の元になる2つの半球画像を得るための特殊なデジタルカメラ(撮像装置)である。スマートフォン5については図2(a)と同様でよい。
図2(c)はスマートフォン5が単体で平面画像の撮像と画像処理を行う場合の構成例を示す。スマートフォン5は平面画像又は全天球画像を撮像する。なお、スマートフォン5の撮像機能は内蔵されたものでも外付けされたものでもよい。
<ハードウェア構成>
次に、図3~図5を用いて、本実施例の特殊撮像装置1、及びスマートフォン5のハードウェア構成を詳細に説明する。
<特殊撮像装置のハードウェア構成>
まず、図3を用いて、特殊撮像装置1のハードウェア構成を説明する。図3は、特殊撮像装置1のハードウェア構成図である。以下では、特殊撮像装置1は、2つの撮像素子を使用した全天球(全方位)特殊撮像装置とするが、撮像素子は2つ以上いくつでもよい。また、必ずしも全方位撮像専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位の撮像ユニットを取り付けることで、実質的に特殊撮像装置1と同じ機能を有するようにしてもよい。
図3に示されているように、特殊撮像装置1は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108、音処理ユニット109、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、ネットワークI/F116、通信部117、アンテナ117a、電子コンパス118、ジャイロセンサ119、及び、加速度センサ120などを有する。
このうち、撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)102a,102bと、各広角レンズに対応させて設けられている2つの撮像素子103a,103bを備えている。撮像素子103a,103bは、魚眼レンズ102a,102bによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。
撮像ユニット101の撮像素子103a,103bは、各々、画像処理ユニット104とパラレルI/Fバスで接続されている。一方、撮像ユニット101の撮像素子103a,103bは、撮像制御ユニット105とは別に、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104、撮像制御ユニット105及び音処理ユニット109は、バス110を介してCPU111と接続される。更に、バス110には、ROM112、SRAM113、DRAM114、操作部115、ネットワークI/F116、通信部117、及び電子コンパス118なども接続される。
画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、後述する正距円筒射影画像のデータを作成する。
撮像制御ユニット105は、撮像素子103aをマスタデバイス,103bをスレーブデバイスとして、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。
また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。特殊撮像装置1によっては、ディスプレイ(例えば、スマートフォン5のディスプレイ517)によるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。
また、撮像制御ユニット105は、後述するように、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施例では、特殊撮像装置1にはディスプレイが設けられていないが、ディスプレイを設けてもよい。
マイク108は、音を音(信号)データに変換する。音処理ユニット109は、マイク108から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。
CPU111は、特殊撮像装置1の全体の動作を制御すると共に必要な処理を実行する。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113及びDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みの正距円筒射影画像のデータを記憶する。
操作部115は、シャッターボタン115aなどの操作ボタンの総称である。ユーザは操作部115を操作することで、種々の撮像モードや撮像条件などを入力する。
ネットワークI/F116は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインターフェース回路(USBI/F等)の総称である。また、ネットワークI/F116としては、無線、有線を問わない。DRAM114に記憶された正距円筒射影画像のデータは、このネットワークI/F116を介して外付けのメディアに記録されたり、必要に応じてネットワークI/F116を介してスマートフォン5等の外部端末(装置)に送信されたりする。
通信部117は、特殊撮像装置1に設けられたアンテナ117aを介して、Wi-Fi、NFC(Near Field radio Communication)、Bluetooth等の近距離無線通信技術によって、スマートフォン5等の外部端末(装置)と通信を行う。この通信部117によっても、正距円筒射影画像のデータをスマートフォン5等の外部端末(装置)に送信することができる。
電子コンパス118は、地球の磁気から特殊撮像装置1の方位を算出し、方位情報を出力する。この方位情報はExif(Exchangeable image file format)に沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。なお、関連情報には、全天球画像の撮像日時、及び画像データのデータ容量の各データも含まれている。
ジャイロセンサ119は、特殊撮像装置1の移動に伴う角度の変化(ロール角、ピッチング角、ヨー角)を検出する。角度の変化はExifに沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。
加速度センサ120は3軸方向の加速度を検出する。検出した加速度に基づいて特殊撮像装置1の姿勢(重力方向に対する角度)を検出する。ジャイロセンサ119と加速度センサ120は両方を有することで画像補正の精度が向上する。
<スマートフォンのハードウェア構成>
次に、図4を用いて、スマートフォンのハードウェアについて説明する。図4は、スマートフォンのハードウェア構成図である。図4に示されているように、スマートフォン5は、CPU501、ROM502、RAM503、EEPROM504、撮像素子I/F505a、加速度・方位センサ506、メディアI/F508、及び、GPS受信部509を備えている。
これらのうち、CPU501は、スマートフォン5全体の動作を制御する。ROM502は、CPU501やIPL(Initial Program Loader)等のCPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。EEPROM504は、CPU501の制御に従って、スマートフォン用プログラム等の各種データの読み出し又は書き込みを行う。撮像素子I/F505aにはCMOS(Complementary Metal Oxide Semiconductor)センサ505が接続されておりCMOSセンサ505は、CPU501の制御に従って被写体(主に自画像)を撮像し画像データを得る。加速度・方位センサ506は、地磁気を検知する電子磁気コンパスやジャイロコンパス、加速度センサ等の各種センサである。メディアI/F508は、フラッシュメモリ等の記録メディア507に対するデータの読み出し又は書き込み(記憶)を制御する。GPS受信部509は、GPS衛星からGPS信号を受信する。
また、スマートフォン5は、遠距離通信回路511、遠距離通信回路アンテナ511a、撮像素子I/F513、マイク514、スピーカ515、音入出力I/F516、ディスプレイ517、外部機器接続I/F518、近距離通信回路519、近距離通信回路アンテナ519a、及びタッチパネル521を備えている。
これらのうち、遠距離通信回路511は、通信ネットワークを介して、他の機器と通信する回路である。撮像素子I/F513は、CMOSセンサ512の駆動を制御する回路である。撮像素子I/F513にはCMOSセンサ512が接続されている。CMOSセンサ512は、CPU501の制御に従って被写体を撮像して画像データを得る内蔵型の撮像手段の一種である。マイク514は、音声を入力する内蔵型の集音手段の一種である。音入出力I/F516は、CPU501の制御に従ってマイク514及びスピーカ515との間で音信号の入出力を処理する回路である。ディスプレイ517は、被写体の平面画像や各種アイコン等を表示する液晶や有機ELなどの表示手段の一種である。外部機器接続I/F518は、各種の外部機器を接続するためのインターフェースである。近距離通信回路519は、Wi-Fi、NFC、Bluetooth等の通信回路である。タッチパネル521は、ユーザがディスプレイ517を押下することで、スマートフォン5を操作する入力手段の一種である。
また、スマートフォン5は、バスライン510を備えている。バスライン510は、CPU501等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。
なお、上記各プログラムが記憶されたHD(Hard Disk)やCD-ROM等の記録媒体は、いずれもプログラム製品(Program Product)として、国内又は国外へ提供されることができる。
<一般撮像装置のハードウェア構成>
次に、図5を用いて、一般撮像装置3のハードウェアについて説明する。図5は、一般撮像装置3のハードウェア構成図である。図5に示されているように、一般撮像装置3は、撮像ユニット301、画像処理ユニット304、撮像制御ユニット305、マイク308、音処理ユニット309、バス310、CPU311、ROM312、SRAM313、DRAM314、操作部315、ネットワークI/F316、通信部317、アンテナ317a、電子コンパス318、及びディスプレイ319によって構成されている。画像処理ユニット304及び撮像制御ユニット305は、バス310を介してCPU311と接続される。
各構成(304、310、311、312、313、314、315、316、317、317a、318)は、それぞれ、特殊撮像装置1における各構成(104、110、111、112、113、114、115、116、117、117a、118)と同様の構成であるため、その説明を省略する。
更に、一般撮像装置3の撮像ユニット301は、図5に示されているように、撮像素子303の前面にレンズユニット306、及びメカニカルシャッタ307が外部から撮像素子303の方向に順に設けられている。
撮像制御ユニット305は、基本的に撮像制御ユニット105と同様の構成及び処理を行うが、更に、操作部315によって受け付けられたユーザの操作に基づいて、レンズユニット306、及びメカニカルシャッタ307の駆動を制御する。
また、ディスプレイ319は、操作メニュー、撮像中又は撮像後の平面画像を表示させる表示手段の一例である。
<機能構成>
次に、図6を用いて本実施例の機能構成について説明する。図6は、本実施例の撮像システム100が有する、特殊撮像装置1、一般撮像装置3及びスマートフォン5の各機能ブロック図である。なお、図6では便宜的に、特殊撮像装置1と一般撮像装置3を共に1つの図に示すが、本実施例では一般撮像装置3が使用され、実施例2では特殊撮像装置1が使用される。
<特殊撮像装置の機能構成>
まず、特殊撮像装置1の機能構成について詳細に説明する。図6に示されているように、特殊撮像装置1は、受付部12、撮像部13、集音部14、画像・音処理部15、判断部17、近距離通信部18、及び記憶・読出部19を有している。これら各部は、図3に示されている各構成要素のいずれかが、SRAM113からDRAM114上に展開された特殊撮像装置用のプログラムに従ったCPU111からの命令によって動作することで実現される機能又は手段である。
また、特殊撮像装置1は、図3に示されているROM112、SRAM113、及びDRAM114によって構築される記憶部1000を有している。
(特殊撮像装置の各機能構成)
特殊撮像装置1の受付部12は、主に、図3に示されている操作部115及びCPU111の処理によって実現され、ユーザからの操作又は入力を受け付ける。
撮像部13は、主に、図3に示されている撮像ユニット101、画像処理ユニット104、及び撮像制御ユニット105、並びにCPU111の処理によって実現され、被写体や風景等を撮像し、撮像画像データを得る。この撮像画像データは、全天球画像データの元になる2つの半球画像データである。
集音部14は、図3に示されているマイク108及び音処理ユニット109、並びにCPU111の処理によって実現され、特殊撮像装置1の周囲の音を集音する。
画像・音処理部15は、主にCPU111からの命令によって実現され、撮像部13によって得られた撮像画像データ、又は集音部14によって得られた音データに対して、各種処理を行う。例えば、画像・音処理部15は、2つの撮像素子103a,103bのそれぞれによって得られた2つの半球画像データに基づいて、正距円筒射影画像データを作成する。
判断部17は、CPU111の処理によって実現され、各種判断を行う。
近距離通信部18は、主に、CPU111の処理、並びに通信部117及びアンテナ117aによって実現され、スマートフォン5の近距離通信部58等と、Wi-Fi等による近距離無線通信技術によって通信することができる。
記憶・読出部19は、主に、図3に示されているCPU111の処理によって実現され、記憶部1000に各種データ(又は情報)を記憶したり、記憶部1000から各種データ(又は情報)を読み出したりする。
<スマートフォンの機能構成>
スマートフォン5は、遠距離通信部51、受付部52、撮像部53、集音部54、画像・音処理部55、表示制御部56、判断部57、近距離通信部58、及び記憶・読出部59を有している。これら各部は、図4に示されている各構成要素のいずれかが、EEPROM504からRAM503上に展開されたスマートフォン5用プログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
また、スマートフォン5は、図4に示されているROM502、RAM503、及びEEPROM504によって構築される記憶部5000を有している。
(スマートフォンの各機能構成)
スマートフォン5の遠距離通信部51は、主に、図4に示されている遠距離通信回路511及びCPU501の処理によって実現され、インターネット等の通信ネットワークを介して、他の装置(特殊撮像装置1等)、スマートフォン、又はサーバとの間で各種データ(又は情報)の送受信を行う。
受付部52は、主にタッチパネル521及びCPU501の処理によって実現され、ユーザから各種の選択又は入力を受け付ける。タッチパネル521はディスプレイ517と共用であってもよい。また、タッチパネル以外の入力手段(ボタン)等でもよい。
撮像部53は、主に、図4に示されているCMOSセンサ505,512、及びCPU501の処理によって実現され、被写体や風景等を撮像し、撮像画像データを得る。この撮像画像データは、透視射影方式で撮像された平面画像データである。
集音部54は、図4に示されているマイク514、及びCPU501の処理によって実現され、スマートフォン5の周囲の音を集音する。
画像・音処理部55は、主にCPU501からの命令によって実現され、撮像部53によって得られた撮像画像データ、又は集音部54によって得られた音データに対して、各種処理を行う。本実施形態では音データに関する説明は特に行わない。また、画像・音処理部55は、露出の異なる複数の平面画像(実施例2では正距円筒射影画像)を合成して明るさを調整する処理を行う。
表示制御部56は、図4に示されているCPU501の処理によって実現され、ディスプレイ517に、撮像部53による撮像中又は撮像後の撮像画像データを表示させる。表示制御部56は、一般撮像装置3が撮像した平面画像、又は、特殊撮像装置1が撮像した全天球画像をディスプレイに表示する。
判断部57は、図4に示されているCPU501の処理によって実現され、各種判断を行う。
近距離通信部58は、主に、CPU501の処理、並びに近距離通信回路519及び近距離通信回路アンテナ519aによって実現され、特殊撮像装置1の近距離通信部18等とWi-Fi等による近距離無線通信技術によって通信することができる。
記憶・読出部59は、主に、図4に示されているCPU501の処理によって実現され、記憶部5000に、画像データ等の各種データ(又は情報)を記憶したり、記憶部5000から画像データ等の各種データ(又は情報)を読み出したりする。また、記憶・読出部59は、記憶部5000から各種データを取得する取得部の役割を果たす。
<一般撮像装置の機能構成>
一般撮像装置3は、受付部32、撮像部33、集音部34、画像・音処理部35、表示制御部36、判断部37、近距離通信部38、及び記憶・読出部39を有している。これら各部は、図5に示されている各構成要素のいずれかが、SRAM313からDRAM314上に展開された特殊撮像装置用のプログラムに従ったCPU311からの命令によって動作することで実現される機能又は手段である。
また、一般撮像装置3は、図5に示されているROM312、SRAM313、及びDRAM314によって構築される記憶部3000を有している。
(一般撮像装置の各機能構成)
一般撮像装置3の受付部32は、主に、図5に示されている操作部315及びCPU311の処理によって実現され、ユーザからの操作入力を受け付ける。
撮像部33は、主に、図5に示されている撮像ユニット301、画像処理ユニット304、及び撮像制御ユニット305、並びにCPU311の処理によって実現され、被写体や風景等を撮像し、撮像画像データを得る。この撮像画像データは、透視射影方式で撮像された平面画像データである。
集音部34は、図5に示されているマイク308及び音処理ユニット309、並びにCPU311の処理によって実現され、一般撮像装置3の周囲の音を集音する。
画像・音処理部35は、主にCPU311からの命令によって実現され、撮像部33によって得られた撮像画像データ、又は集音部34によって得られた音データに対して、各種処理を行う。
表示制御部36は、図5に示されているCPU311の処理によって実現され、ディスプレイ319に、撮像中又は撮像後の撮像画像データに係る平面画像を表示させる。
判断部37は、CPU311の処理によって実現され、各種判断を行う。例えば、判断部37は、ユーザによって、シャッターボタン315aが押下されたかを判断する。
近距離通信部38は、主に、CPU311、並びに通信部317及びアンテナ317aによって実現され、スマートフォン5の近距離通信部58等と、Wi-Fi等による近距離無線通信技術によって通信することができる。
記憶・読出部39は、主に、図5に示されているCPU311の処理によって実現され、記憶部3000に各種データ(又は情報)を記憶したり、記憶部3000から各種データ(又は情報)を読み出したりする。
<画像・音処理部の詳細な各機能構成>
図7を用いて、スマートフォン5の画像・音処理部55の各機能構成について詳細に説明する。図7は、画像・音処理部55の詳細な機能ブロック図である。なお、本実施例では、一般撮像装置3又はスマートフォン5が撮像した平面画像の明るさ値又は色値の補正に関する処理を説明する。
画像・音処理部55は、記録部551、画像選択部552、画像演算部553、注目領域選択スケール部554、表示部555、統計量取得部556、制御部557、及び、注目領域選択指示部560を有している。
まず、一般撮像装置3が同じ位置で露光条件だけが画像データを撮像し、撮像した複数の画像データをスマートフォンの近距離通信部58が受信する。記録部551には、同じ位置で露光条件だけが異なる複数の画像データが格納される。記録部551には例えば、画像全体で適正な露出で撮像された平面画像、露出オーバーで撮像された平面画像、露出アンダーで撮像された平面画像が、それぞれ格納されている。平面画像と共に露光条件も一緒に格納されているとなお良い。
一般撮像装置3は、プログラムAE(Automatic Exposure)、シャッター速度優先AE、絞り優先AE、及び、マニュアル露出などの露出に関する設定を有する。プログラムAEは露光センサ又は撮像素子が検出した周囲の明るさに応じてシャッター速度と絞りを一般撮像装置3が決定する露出決定方式である。シャッター速度優先AEは、ユーザが決定したシャッター速度に対し適正な露出となる絞り値を一般撮像装置3が決定する露出決定方式である。絞り優先AEは、ユーザが決定した絞り値に対し適正な露出となるシャッター速度を特殊撮像装置1が決定する露出決定方式である。マニュアル露出は、ユーザがシャッター速度と絞り値を決定する。一般撮像装置3はこれらのうちのいずれかで適正な露出の基準画像を撮像する。
また、一般撮像装置3は、絞り値又はシャッター速度の1つ以上を変更して、意図的に露出アンダーな平面画像と露出オーバーな平面画像をそれぞれ1枚以上、撮像する。すなわち、絞り値を大きくするか又はシャッター速度を速くすると暗くなり、絞り値を小さくするか又はシャッター速度を遅くすると明るくなる。
注目領域選択指示部560はユーザが操作により決定した指定領域(表示領域の一例)を特定する情報(矩形の対角頂点、中心点と画角など)を取得し、制御部557に指定領域を指示する。ユーザが操作により決定する他、注目点が予め決定されていてもよいし、画像処理などで注目点を検出し、この注目点を含む所定の範囲を指定領域に決定してもよい。
制御部557は、選択画像決定部558と合成手法決定部559を有する。このうち、選択画像決定部558はまず基準となる平面画像(図1の基準画像に相当)を決定する。記録部551に平面画像と共に記録されている露光条件に基づいて決定する。あるいは、統計量取得部556が取得した画像データの統計量(例えば明るさの平均が複数の平面画像のうち中央になる平面画像)から決定してもよい。あるいは、ユーザが指定してもよい。本実施例では複数の平面画像の全体のうち適正な露出で撮像された平面画像を基準画像とする。適正な露出とは、例えば、RGB値又はRGBから求めた輝度値でヒストグラムを作成した場合に、127(256段階の真ん中)付近の画素数が多い画像である。自動で決定することでアンダー露出画像とオーバー露出画像のどちらでもない画像を基準画像Rに決定できる。
また、選択画像決定部558は、基準画像Rの指定領域の輝度特性と目標とする明るさ値の比較結果に応じて、アンダー露出の画像又はオーバー露出の平面画像を選択する。
制御部557は統計量取得部556に対して平面画像のどの領域が指定領域に指定されたのかを通知する。統計量取得部556は基準画像のうち指定領域の統計的データを取得して制御部557に返す。統計的データは例えば明るさ(輝度値)である。
得られた統計的データを元に選択画像決定部558は、基準画像をどの平面画像と合成するかを選択する。選択方法の詳細は後述する。合成手法決定部559は基準画像及び合成される他の平面画像をどのくらいの割合で合成するかを決定する。
画像選択部552は記録部551に記憶された露光条件の異なる複数の平面画像から、選択画像決定部558の選択に従い平面画像を1枚以上(例えば2枚)選択する。画像演算部553は、画像選択部552で選択された複数の平面画像を合成手法決定部559で計算された割合で合成する。
注目領域選択スケール部554は合成された平面画像の指定領域を表示部555の大きさに合わせて拡大・縮小処理し、表示部555に出力する。表示部555は表示制御部56が作成するアプリの画面のうち、平面画像のエリアに指定領域を表示する。
<合成処理の説明>
図8は、撮像システム100の全体的な動作を説明するシーケンス図の一例である。
S1:まず、一般撮像装置3の撮像部33は露光条件の異なる3枚以上の平面画像を撮像する。撮像は、ユーザがシャッターボタンを押下するマニュアルで行われてもよいし、ユーザがスマートフォン5を操作することでスマートフォン5から撮像指示がスマートフォン5に送信されることにより行われてもよい。いずれも場合も一般撮像装置3とスマートフォン5は無線又は有線により通信可能な状態である。
S2:一般撮像装置3の近距離通信部38は露光条件の異なる3枚以上の平面画像をスマートフォン5に送信する。一般撮像装置3では平面画像をスマートフォン5に送信することが予め設定されている。あるいは、ユーザの操作により送信されてもよい。
S3:スマートフォン5の近距離通信部58は露光条件の異なる3枚以上の平面画像を受信する。画像・音処理部55は露光条件の異なる3枚以上の平面画像の少なくとも2枚を用いて明るさ調整を行う。この詳細については図9を用いて後述する。
S4:スマートフォン5の表示制御部56は明るさが調整された平面画像をディスプレイ517に表示する。
なお、スマートフォン5自体が周囲を撮像する図2(c)のシステム構成の場合、一般撮像装置3からスマートフォン5への送信は不要である。
図9は、合成処理に関する画像処理の流れを説明する図の一例である。図9では、適正露出で撮像された基準画像を符号Rで示し、別途、異なる露出で撮像された複数枚の平面画像のうち、オーバー露出の平面画像を露出変更画像O、アンダー露出の平面画像を露出変更画像Uで示す。
一般撮像装置3は基準画像Rと同じ位置及び画角で露出のみを変更して、1枚以上の露出変更画像O、及び、1枚以上の露出変更画像Uを撮像することが好ましい。少なくとも、基準画像Rの露出よりもオーバー露出の露出変更画像O、又は、アンダー露出の露出変更画像Uを撮像する。図9では、基準画像Rの露出より、オーバー露出の露出変更画像O、及び、アンダー露出の露出変更画像Uが1枚ずつ示されているが、露出変更画像Oが2枚以上でもよいし、露出変更画像Uが2枚以上でもよい。
まず、ステップS110では、統計量取得部556が平面画像の指定領域Kの明るさの平均値を算出する。
次に、ステップS120では、選択画像決定部558が求められた平均値を元に合成する画像を選択する。基準画像Rはすでに決定されたものとする。選択画像決定部558は、指定領域Kの明るさ(輝度特性)に応じて露出変更画像O、又は、露出変更画像Uのどちらかを選択する。詳細を図10にて説明する。
ステップS130では画像演算部553が基準画像RとステップS120で選択された露出変更画像O又は露出変更画像Uとを合成する。合成は平面画像の全体で行えばよいが、指定領域Kのみで行ってもよい。合成処理の詳細については後述する。
ステップS140では、注目領域選択スケール部554が合成された平面画像の指定領域Kをディスプレイ517の表示範囲に合わせて拡大又は縮小する。
<画像の選択の処理>
図10は基準画像Rに対して、選択画像決定部558がどの平面画像を合成するかを決定するステップS120の処理を説明する図である。
まず、ステップS121では、選択画像決定部558は、例えば、指定領域の目標とする明るさ値と、基準画像Rの指定領域全体の明るさ値の平均とを比べる。目標とする明るさ値とは、一例として予め定められているものとする。例えばRGBの各色が8bitの場合、256階調なので、中間は128である。選択画像決定部558は、128と基準画像Rの指定領域全体の明るさ値の平均とを比較する。なお、本実施例では画素値が0~1の値に正規化されているため0.5が目標とする明るさ値(閾値の一例)となる。取り得る明るさの中間値と比較するのでなく、256段階の100や150等を目標とする明るさ値としてもよい。
基準画像Rの指定領域の明るさ値の平均の方が、目標とする明るさ値より大きい場合、処理はステップS122に進み、この場合、目標とする明るさ値より基準画像Rの指定領域の方がオーバー露出なので、露出変更画像Uと合成するために選択画像決定部558は露出変更画像Uを選択する(S122)。
基準画像Rの指定領域の明るさ値の平均の方が、目標とする明るさ値より小さい場合、処理はステップS123に進み、この場合、目標とする明るさ値より基準画像Rの指定領域の方がアンダー露出なので、選択画像決定部558は露出変更画像Oを選択する。
ここでは例として基準画像Rの指定領域の明るさ値の平均を使用したが、指定領域の中央部分など一部だけの明るさ値を使用してもよい。また、明るさ値の平均の代わりにヒストグラム等の明るさの特性値を使用してもよい。
<平面画像の合成の処理>
図9のステップS130の合成処理について説明する。ステップS130では、画像演算部553がステップS120で選択した露出変更画像O又は露出変更画像Uと基準画像Rとの合成を行う。基準画像Rの指定領域の明るさ値の平均をref(refは0.0~1.0の値を取る)とし、目標とする明るさ値をaim(aimは0.0~1.0の値取る)とすると、合成値blendは以下の(式1)で求められる。
blend=|(aim-ref)× 補正係数|
但し 0.0≦blend≦1.0にクリップ (式1)
クリップとは、値が範囲未満であれば範囲の下限値に、値が範囲超であれば範囲の上限値にそれぞれ置き換えることをいう。
補正係数は目標とする明るさ値に対して基準画像Rの指定領域の明るさ値の平均の離れ具合に応じて(基準画像Rの表示領域の輝度特性と目標とする明るさ値との差に応じて)、基準画像Rをどのくらい露出変更画像O、又は、露出変更画像Uに近づかせるかを決める値である。補正係数は、予め決まっていてもよいし、平面画像を見てユーザが指定してもよいし、撮像時の露光条件から自動的に計算してもよい。予め決まっている場合、補正係数を例えば3.0とする。
ステップS120で選択された露出変更画像O又は露出変更画像Uの画素値をS、基準画像Rの画素値をRとした場合、合成画像Dの各画素値D(u,v)は下記の(式2)によって求められる。
D(u,v) = S(u,v)×blend + R(u,v)×(1.0-blend) (式2)
<オーバー側の露出変更画像O又はアンダー側の露出変更画像Uが複数ある場合>
一例として、オーバー側の露出変更画像Oが2枚、アンダー側の露出変更画像Uが2枚ある場合について説明する。正距円筒射影画像EC(参照領域画像R)を含めると5枚の平面画像がある。それぞれの平面画像の露出を-2.0、-1.0、0.0、+1.0、+2.0とする。この露出の値はEV値であり、+1.0、+2.0がオーバー側、-1.0、-2.0がアンダー側を示している。正距円筒射影画像ECの露出をEv0.0とすると±2.0の露出範囲で撮像した画像を使用する。
合成値blendの求め方は(式1)と同様でよい。ただし、クリップされる値の範囲が異なる。
0.0≦blend≦2.0にクリップ (式3)
選択画像決定部558はオーバー側又はアンダー側に複数の露出変更画像がある場合はクリップの範囲を変更することで、合成値blendに応じて合成する平面画像を切り替える。ここでは説明のため、基準画像Rを暗くする場合を説明する。
(i) 0.0 ≦ blend ≦ 1.0 の場合
adj=blend
I1=露出が-1.0の平面画像
I2=露出が0.0の平面画像(基準画像R) が選択される。
(ii) 1.0 < blend ≦ 2.0 の場合
adj=blend-1.0
I1=露出が-2.0の平面画像
I2=露出が-1.0の平面画像 が選択される。
合成画像Dの各画素値D(u,v)は式4)によって求められる。
D(u,v) = I1(u,v)×adj + I2(u,v)×(1.0 - adj) (式4)
このように合成値blendが小さい場合(基準画像が明るい場合)は基準画像と次に暗い平面画像を合成し、合成値blendが大きい場合(基準画像がより明るい場合)は基準画像よりも暗い2枚の画像を合成する。これにより、基準画像Rを暗くしたい場合は、暗くしたい程度(合成値blend)に応じて基準画像R及びアンダー側の2枚の平面画像から2枚の平面画像を選択して合成値blendに応じて合成できる。
<まとめ>
以上のように、本実施例では、基準画像の指定領域の目標とする明るさ値に対して、基準画像の指定領域の明るさ値の平均の方が小さい場合、すなわち露出アンダーな場合、露出アンダーの程度に応じて露出オーバー画像を基準画像Rに合成することで、指定領域のアンダー露出が軽減される。従って、ユーザが見ている指定領域に応じて、適切な明るさにする効果がある。
同様に、基準画像の指定領域の目標とする明るさ値に対して、基準画像の指定領域の明るさ値の平均の方が大きい場合、すなわち露出オーバーな場合、露出オーバーの程度に応じて露出アンダー画像を基準画像Rに合成することで、指定領域のオーバー露出が軽減される。従って、ユーザが見ている指定領域に応じて、適切な明るさにする効果がある。
なお、本実施例では基準画像とそれ以外の画像を合成する例を示したが、基準画像以外の複数の平面画像同士を合成してもよい。すなわち、任意の平面画像同士を合成できる。また、本実施例では静止画を例に説明したが、平面画像は動画でもよい。
また、本実施例では、指定された指定領域の明るさが調整されているが、平面画像の全体の明るさが調整されてもよい。この場合、指定領域の指定は不要である。
本実施例では、一度の撮像で、360°の全天球画像を得る特殊撮像装置1が撮像する全天球画像の明るさ値を適正に補正する処理について説明する。
なお、本実施例において、実施例1において同一の符号を付した構成要素は同様の機能を果たすので、主に本実施例の主要な構成要素についてのみ説明する場合がある。
<全天球画像の生成方法>
図11乃至図17を用いて、全天球画像の生成方法について説明する。
まず、図11を用いて、特殊撮像装置1の外観を説明する。特殊撮像装置1は、全天球(360°)パノラマ画像の元になる撮像画像を得るためのデジタルカメラである。なお、図11(a)は特殊撮像装置1の左側面図であり、図11(b)は特殊撮像装置の背面図であり、図11(c)は特殊撮像装置の平面図であり、図11(d)は特殊撮像装置の底面図である。
図11(a),図11(b),図11(c),図11(d)に示されているように、特殊撮像装置1の上部には、正面側(前側)に魚眼型のレンズ102a及び背面側(後側)に魚眼型のレンズ102bが設けられている。特殊撮像装置1の内部には、後述の撮像素子(画像センサ)103a,103bが設けられており、それぞれレンズ102a、102bを介して被写体や風景を撮像することで、半球画像(画角180°以上)を得ることができる。特殊撮像装置1の背面側の面には、シャッターボタン115aが設けられている。また、特殊撮像装置1の側面には、電源ボタン115b、Wi-Fiボタン115c、及び撮像モード切替ボタン115dが設けられている。電源ボタン115b、及びWi-Fiボタン115cは、いずれも押下される度に、オンとオフが切り替えられる。また、撮像モード切替ボタン115dは、押下される度に、静止画の撮像モードと動画の撮像モードが切り替えられる。なお、シャッターボタン115a、電源ボタン115b、Wi-Fiボタン115c、及び撮像モード切替ボタン115dは、操作部115の一部であり、操作部115は、これらのボタンに限られない。
また、特殊撮像装置1の底部150の中央には、カメラ用三脚や一般撮像装置3に特殊撮像装置1を取り付けるための三脚ねじ穴151が設けられている。また、底部150の左端側には、Micro USB(Universal Serial Bus)端子152が設けられている。底部150の右端側には、HDMI(登録商標。High-Definition Multimedia Interface)端子153が設けられている。
次に、図12を用いて、特殊撮像装置1の使用状況を説明する。なお、図12は、特殊撮像装置の使用イメージ図である。特殊撮像装置1は、図12に示されているように、例えば、ユーザが手に持ってユーザの周りの被写体を撮像するために用いられる。この場合、図12に示されている撮像素子103a及び撮像素子103bによって、それぞれユーザの周りの被写体が撮像されることで、2つの半球画像を得ることができる。
次に、図13及び図14を用いて、特殊撮像装置1で撮像された画像から正距円筒射影画像EC及び全天球画像CEが作成されるまでの処理の概略を説明する。なお、図13(a)は特殊撮像装置1で撮像された半球画像(前側)、図13(b)は特殊撮像装置で撮像された半球画像(後側)、図13(c)は正距円筒図法により表された画像(以下、「正距円筒射影画像」という)を示した図である。図14(a)は正距円筒射影画像で球を被う状態を示した概念図、図14(b)は全天球画像を示した図である。
図13(a)に示されているように、撮像素子103aによって得られた画像は、魚眼レンズ102aによって湾曲した半球画像(前側)となる。また、図13(b)に示されているように、撮像素子103bによって得られた画像は、後述の魚眼レンズ102bによって湾曲した半球画像(後側)となる。そして、半球画像(前側)と、180度反転された半球画像(後側)とは、特殊撮像装置1によって合成され、図13(c)に示されているように、正距円筒射影画像ECが作成される。
そして、OpenGL ES(Open Graphics Library for Embedded Systems)等が利用されることで、図14(a)に示されているように、正距円筒射影画像が球面を覆うように貼り付けられ、図14(b)に示されているような全天球画像CEが作成される。このように、全天球画像CEは、正距円筒射影画像ECが球の中心を向いた画像として表される。なお、OpenGL ESは、2D(2-Dimensions) 及び3D(3-Dimensions)のデータを視覚化するために使用するグラフィックスライブラリである。なお、全天球画像CEは、静止画であっても動画であってもよい。
以上のように、全天球画像CEは、球面を覆うように貼り付けられた画像であるため、人間が見ると違和感を持ってしまう。そこで、全天球画像CEの一部の所定領域(以下、「所定領域画像」という)を湾曲の少ない平面画像として表示することで、人間に違和感を与えない表示をすることができる。これに関して、図15及び図16を用いて説明する。
なお、図15は、全天球画像を三次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。仮想カメラICは、三次元の立体球として表示されている全天球画像CEを見るユーザの視点の位置に相当するものである。また、図16(a)は図15の立体斜視図、図16(b)はディスプレイに表示された場合の所定領域画像を表す図である。また、図16(a)では、図15に示されている全天球画像が、三次元の立体球CSで表わされている。このように生成された全天球画像CEが、立体球CSであるとすると、図15に示されているように、仮想カメラICが全天球画像CEの内部に位置している。全天球画像CEにおける所定領域Tは、仮想カメラICの撮像領域である。所定領域Tのズームは、画角αの範囲(円弧)を広げたり縮めたりすることで表現することができる。また、所定領域Tのズームは、仮想カメラICを全天球画像CEに近づいたり、遠ざけたりすることで表現することもできる。所定領域画像Qは、全天球画像CEにおける所定領域Tの画像である。従って、所定領域Tは画角αと、仮想カメラICから全天球画像CEまでの距離fにより特定できる(図17参照)。
そして、図16(a)に示されている所定領域画像Qは、図16(b)に示されているように、所定のディスプレイに、仮想カメラICの撮像領域の一部の画像(全体を含む場もある)として表示される。図16(b)に示されている画像は、初期設定(デフォルト)された所定領域情報によって表された所定領域画像である。以下では、仮想カメラICの撮像方向(ea,aa)と画角(α)を用いて説明する。
次に、図17を用いて、所定領域情報と所定領域Tの画像の関係について説明する。図17は、所定領域情報と所定領域Tの画像との関係を示した図である。図17に示されているように、「ea」はelevation angle、「aa」はazimuth angle、「α」は画角(Angle)を示す。即ち、撮像方向(ea,aa)で示される仮想カメラICの注視点が、仮想カメラICの撮像領域である所定領域Tの中心点CPとなるように、仮想カメラICの姿勢を変更することになる。所定領域画像Qは、全天球画像CEにおける所定領域Tの画像である。fは仮想カメラICから中心点CPまでの距離である。Lは所定領域Tの任意の頂点と中心点CPとの距離である(2Lは対角線)。そして、図17では、一般的に以下の(式5)で示される三角関数が成り立つ。
L/f=tan(α/2)・・・(式5)
<画像・音処理部の機能について>
図18は、本実施例に適応可能な画像・音処理部の一例の構成を示すブロック図である。図18では全天球画像をディスプレイ517に表示するため画像・音処理部55が射影方式変換部201,202(以下、簡単のため射影方式変換部1,2という)、及び、全天球画像生成部205,206(以下、簡単のため全天球画像生成部1,2という)を有する。
まず、記録部551には特殊撮像装置1が同じ位置で撮像した露光条件だけが異なる複数の正距円筒射影方式の画像データが格納されている。記録部551には画像全体で適正な露出で撮像された正距円筒射影方式画像、露出オーバーで撮像された正距円筒射影方式画像、露出アンダーで撮像された正距円筒射影方式画像が、それぞれ格納されている。正距円筒射影方式画像と共に露光条件も一緒に格納されていることが好ましい。特殊撮像装置1には絞り機構がないため、絞り優先AEはなく代わりにISO感度優先AEがある。ISO感度優先AEでは、ユーザが決定したISO感度でシャッター速度を遅くすることで露出オーバー画像を、シャッター速度を速くすることで露出アンダー画像をそれぞれ撮像する。また、シャッター速度優先AEでは、ユーザが決定したシャッター速度でISO感度を大きくすることで露出オーバー画像を、ISO感度を小さくすることで露出アンダー画像をそれぞれ撮像できる。
視線方向・画角指示部203は、ユーザが操作により決定した所定領域T(表示領域の一例)を特定する情報を取得し、制御部557に所定領域Tを指示する。ユーザが操作により決定する他、注目点が予め決定されていてもよいし、画像処理などで注目点が検出され所定領域Tが決定されてもよい。
選択画像決定部558は基準となる正距円筒射影画像(基準画像R)を決定する。また、基準画像Rと合成するための、露出オーバーで撮像された正距円筒射影方式画像又は露出アンダーで撮像された正距円筒射影方式画像を選択する。基準画像Rの決定方法、及び、正距円筒射影画像の選択方法は実施例1と同様でよい。制御部557は選択画像決定部558と合成手法決定部559を有している。これらの機能は実施例1と同様でよい。
制御部557は射影方式変換部1に対して全天球画像CEのどの視線方向と画角が指定されたかを通知する。射影方式変換部1は指定された視線方向と画角を元に、記録部551に格納された基準とする正距円筒射影方式画像を所定領域画像に変換する。所定領域画像への変換方法(射影方式変換)については後述する。
統計量取得部556は変換された所定領域画像の統計的なデータを取得して、制御部557に返す。選択画像決定部558は得られた統計的データを元に基準画像R以外にどの画像と基準画像Rとを合成するかを選択する。統計的データについては実施例1と同様でよい。
合成手法決定部559は基準画像Rと、露出オーバーの画像又は露出アンダーの正距円筒射影画像とをどのくらいの割合で合成するかを決定する。画像選択部552は選択画像決定部558の指示に従い、正距円筒射影画像を少なくとも2枚以上選択する(基準画像Rと、露出オーバー画像又は露出アンダー画像の2枚)。
画像演算部553は、画像選択部552で選択された正距円筒射影画像を合成手法決定部559で決定された割合で合成する。
全天球画像生成部2は基準画像Rに露出オーバー画像又は露出アンダー画像が合成された合成画像を立体球CSに貼り合わせることにより、全天球画像CEを作成する。
射影方式変換部2は合成された正距円筒射影画像を指定された視線方向及び画角で透視射影方式画像(所定領域画像)に変換し表示部555に出力する。表示部555の機能は実施例1と同様である。
<正距円筒射影画像を用いた処理の流れ>
図19は、正距円筒射影画像を用いた処理の流れを模式的に示す図の一例である。図19では正距円筒射影画像ECを基準画像Rとし、異なる露出で撮像された複数枚の正距円筒射影画像(図ではEC1,EC2)が撮像されている。特殊撮像装置1は正距円筒射影画像ECと同じ位置(全天球画像であるため特殊撮像装置1の向きは異なってもよい)で露出のみを変更して複数枚の正距円筒射影画像EC1、正距円筒射影画像EC2を撮像することが好ましい。
少なくとも、正距円筒射影画像ECの露出よりもオーバー露出の正距円筒射影画像EC1、アンダー露出の正距円筒射影画像EC2が必要である。図19では、正距円筒射影画像ECの露出より、オーバー露出の正距円筒射影画像EC1、及び、アンダー露出の正距円筒射影画像EC2が示されているが、オーバー露出の正距円筒射影画像EC1が2枚以上あってもよいし、アンダー露出の正距円筒射影画像EC2が2枚以上あってもよい。
まず、ステップS210では、全天球画像生成部1がまだ合成されていない正距円筒射影画像ECを立体球CSに対して張り付けることで全天球画像CEを作成する。
ステップS220では、視線方向・画角指示部203が指示した視線方向(中心点)・画角等で指定される所定領域Tが表示範囲に表示されるように、射影方式変換部1が射影方式変換する。これにより作成された二次元平面の画像を参照領域画像Rとする。
ステップS120では、選択画像決定部558が参照領域画像Rの全体の明るさ値の平均値と目標とする明るさ値とを比較して、正距円筒射影画像ECと合成する異なる露出で撮像された正距円筒射影画像EC1又は正距円筒射影画像EC2を選択する。選択方法は実施例1と同様でよい。
ステップS130では、画像演算部553が基準とする正距円筒射影画像ECとステップS120で選択された正距円筒射影画像EC1、又は、正距円筒射影画像EC2とを合成して合成画像Dを生成する。合成方法は実施例1と同様でよい。
ステップS230では、全天球画像生成部2がステップS210と同様に合成画像Dを立体球CSに対して張り付けることで全天球画像CE1又はCE2を作成する。
ステップS240では、ステップS220と同様に、視線方向(中心点)・画角等で指定される所定領域Tを表示範囲に合わせて二次元平面の画像に変換するため、射影方式変換部2が射影方式を変換する。
表示部555は作成された二次元平面の画像を所定領域画像Qとして表示制御部56に出力する。従って、ディスプレイ571には基準画像である全天球画像CEと露出オーバーな正距円筒射影画像EC1又は露出アンダーな正距円筒射影画像EC2が合成された二次元平面の画像が表示される。
なお、図19では、正距円筒射影画像ECを立体球CSに対して貼り付け全天球画像CEを作成したのち射影方式変換で参照領域画像Rを作成しているが、正距円筒射影画像EC上で参照領域に対応する領域を求めてもよい。
<射影方式の変換>
射影方式の変換について説明する。図19を用いて説明したように、正距円筒射影画像ECによって立体球CSを被うことで、全天球画像CEを作成している。よって、正距円筒射影画像ECの各画素データは、3次元の全天球画像の立体球CSの表面における各画素データに対応させることができる。そこで、射影方式変換部1,2による変換式は、正距円筒射影画像ECにおける座標を(緯度,経度)=(ea,aa)と表現し、3次元の立体球CS上の座標を直交座標(x,y,z)で表わすと、以下の(式6)で表わすことができる。
(x, y, z) = (cos(ea) × cos(aa), cos(ea) × sin(aa), sin(ea)) ・・・(式6)
但し、このときの立体球CSの半径は1とする。
一方で、透視射影画像である参照領域画像R又は所定領域画像Qは2次元画像であるが、これを2次元の極座標(動径,偏角)=(r,a)で表現すると、動径rは対角画角αに対応し、取り得る範囲は0 ≦ r ≦ tan(対角画角α/2)となる。また、参照領域画像R又は所定領域画像Qを2次元の直交座標系(u,v)で表わすと、極座標(動径,偏角)=(r,a)との変換関係は、以下の(式7)で表わすことができる。
u = r × cos(a), v = r × sin(a) ・・・(式7)
次に、(式7)を3次元の座標(動径,極角,方位角)に対応させることを考えると、立体球CSの表面のみを考えているため、3次元極座標における動径は「1」である。また、立体球CSの表面に張り付けた正距円筒射影画像ECを透視投影変換する射影は、立体球CSの中心に仮想カメラICがあると考え、上記の2次元極座標(動径,偏角)=(r,a)を使うと、以下の(式8)、(式9)で表わすことができる。
r = tan(極角) ・・・(式8)
a = 方位角 ・・・(式9)
ここで極角をtとすると、t = arctan(r)となるため、3次元極座標(動径、極角、方位角)は、(動径、極角、方位角)=(1, arctan(r), a)と表現することができる。また3次元極座標から、直交座標系(x,y,z)へ変換するための変換式は、以下の(式10)で表わすことができる。
(x, y, z) = (sin(t) × cos(a), sin(t) × sin(a), cos(t)) ・・・(式10)
上記の(式10)により、正距円筒射影方式による正距円筒射影画像ECと、透視射影方式による参照領域画像R又は所定領域画像Qの相互変換ができる。即ち、作成すべき参照領域画像R又は所定領域画像Qの対角画角αに対応する動径rを用いることで、参照領域画像R又は所定領域画像Qの各画素が、正距円筒射影画像ECのどの座標に対応するかを表す変換マップ座標を算出でき、この変換マップ座標に基づいて、正距円筒射影画像ECから、透視射影画像である参照領域画像R又は所定領域画像Qを作成することができる。
上記射影方式の変換は、正距円筒射影画像ECの(緯度,経度)が(90°,0°)となる位置が、透視射影画像である参照領域画像R又は所定領域画像Qの中心点CPとなるような変換を示している。そこで、正距円筒射影画像ECの任意の点を注視点として透視投影変換をする場合は、正距円筒射影画像ECを貼り付けた立体球CSを回転させることで、注視点の座標(緯度、経度)が(90°,0°)の位置に配置されるような座標回転を行えば良い。この立体球CSの回転に関する変換公式は、一般の座標回転公式であるため、説明を省略する。
<画像例>
図20は、基準となる正距円筒射影画像と露出アンダーな正距円筒射影画像との合成を説明する図の一例である。
図20(a)は、正距円筒射影画像ECの明るさ値のまま表示された参照領域画像Rを示す。図面からは分かりにくいが中央部分が黒つぶれしている。図20(b)は、オーバー露出で撮像された正距円筒射影画像EC1を示す。中央部の露出がほぼ適正である。図20(c)は、本実施例の合成方法を用いて正距円筒射影画像ECとEC1とが合成された所定領域画像Qである。所定領域画像Qは中央部分の黒つぶれが改善されている。このように、参照領域画像Rの明るさに応じて基準画像と露出オーバーの正距円筒射影画像EC1と合成することにより、所定領域画像Qのアンダー露出が低減される。
図21は、基準となる全天球画像と露出オーバーな全天球画像との合成を説明する図の一例である。
図21(a)は、図20(a)と同様に正距円筒射影画像ECの明るさ値のまま表示された参照領域画像Rを示す。中央部分が白とびしている。図21(b)は、アンダー露出で撮像された正距円筒射影画像EC2を示す。図21(b)では中央部の露出がほぼ適正である。図21(c)は、本実施例の合成方法を用いて、正距円筒射影画像ECとEC2が合成された所定領域画像Qを示す。所定領域画像Qは中央部分の白とびが改善されている。参照領域画像Rの明るさに応じてアンダー画像と合成することにより、所定領域画像Qのオーバー露出が低減されている。
なお、本実施例では基準となる正距円筒射影画像ECとそれ以外の正距円筒射影画像EC1又はEC2とを合成する例を説明したが、基準となる正距円筒射影画像EC以外の正距円筒射影画像同士を合成しても良い。また、本実施例では静止画を例に説明したが、正距円筒射影画像は動画でもよい。
<まとめ>
このように、360°の全天球画像を得る特殊撮像装置1が撮像した全天球画像の場合、スマートフォン5は視線方向(中心角)と画角により決定される参照領域画像Rの明るさ値によってアンダー側又はオーバー側の正距円筒射影画像を選択でき、所定領域画像Qの露出を適切に調整できる。
<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
例えば、スマートフォン5がネットワークを介してサーバに画像データを送信し、サーバが指定領域の画像又は所定領域画像を作成してスマートフォン5に送信してもよい。この場合、サーバは実施例1,2で説明したスマートフォン5の機能の一部又は全体を有する。
また、図6,図7,図18などの構成例は、一般撮像装置3、特殊撮像装置1、及びスマートフォン5による処理の理解を容易にするために、主な機能に応じて分割したものである。処理単位の分割の仕方や名称によって本願発明が制限されることはない。一般撮像装置3、特殊撮像装置1、及びスマートフォン5の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。
なお、近距離通信部58は画像取得手段の一例であり、受付部52は受付手段の一例であり、統計量取得部556は輝度特性取得手段の一例であり、合成手法決定部559と画像演算部553は合成手段の一例であり、選択画像決定部558は選択手段の一例であり、射影方式変換部1は射影方式変換手段の一例であり、表示部555は表示手段の一例である。スマートフォン5は画像処理装置又は表示装置の一例であり、スマートフォン5が行う各種の処理の方法は画像処理方法の一例である。
1 :特殊撮像装置
3 :一般撮像装置
5 :スマートフォン
100 :撮像システム
特許第5745134号公報

Claims (10)

  1. 異なる露光条件で撮像して得られた複数の画像データを取得する画像取得手段と、
    前記複数の画像データのうち一の画像データの表示領域を受け付ける受付手段と、
    前記受付手段が受け付けた前記表示領域の輝度特性を取得する輝度特性取得手段と、
    前記輝度特性取得手段が取得した前記輝度特性に基づき、前記一の画像データと他の画像データを合成するための所定の条件を変更して、前記一の画像データと他の画像データを合成する合成手段と、
    異なる露光条件で撮像された複数の前記他の画像データの中から、前記輝度特性取得手段が取得した前記輝度特性に基づき1つ以上の前記他の画像データを選択する選択手段と、
    前記異なる露光条件で撮像して得られた複数の画像データは全天球画像であり、
    前記受付手段は、前記全天球画像の視線方向と画角の指定を受け付け、
    前記受付手段が受け付けた視線方向と画角の前記一の画像に射影方式変換を施し、所定領域の参照領域画像を生成する射影方式変換手段と、
    を有し、
    前記合成手段は、前記輝度特性取得手段が取得した前記輝度特性に基づき、前記一の画像データと前記選択手段が選択した前記他の画像データを合成するための所定の条件を変更して、前記一の画像データと他の画像データを合成するものであり、前記輝度特性取得手段が取得した前記参照領域画像の前記輝度特性に基づき、全天球画像である前記一の画像データと他の画像データを合成するための所定の条件を変更して、前記一の画像データと他の画像データを合成する
    画像処理装置。
  2. 前記選択手段は、前記輝度特性取得手段が取得した前記一の画像の前記表示領域の輝度特性と予め定められた閾値とを比較した比較結果に応じて、異なる露光条件で撮像された複数の前記他の画像データの中から1つ以上の前記他の画像データを選択する請求項に記載の画像処理装置。
  3. 前記選択手段は、前記一の画像の前記表示領域の輝度特性の方が前記閾値よりも大きい場合、前記一の画像よりも露出が小さい前記他の画像を選択し、
    前記一の画像の前記表示領域の輝度特性の方が前記閾値よりも小さい場合、前記一の画像よりも露出が大きい前記他の画像を選択する請求項に記載の画像処理装置。
  4. 前記合成手段は、前記一の画像の前記表示領域の輝度特性と前記閾値との差に応じて所定の条件を変更して、前記一の画像データと他の画像データを合成する請求項又はに記載の画像処理装置。
  5. 前記所定の条件は、前記一の画像と前記他の画像の合成比率である請求項のいずれか1項に記載の画像処理装置。
  6. 前記選択手段は、異なる露光条件で撮像して得られた複数の画像データの輝度に関する情報に基づいて前記一の画像を選択する請求項のいずれか1項に記載の画像処理装置。
  7. 前記合成手段は、前記輝度特性取得手段が取得した前記参照領域画像の前記輝度特性と予め定められた閾値とを比較した比較結果に応じて、複数の前記他の画像データの中から1つ以上の前記他の画像データを選択する請求項1に記載の画像処理装置。
  8. 異なる露光条件で撮像して得られた複数の画像データを取得する画像取得手段と、
    前記複数の画像データのうち一の画像データの表示領域を受け付ける受付手段と、
    前記受付手段が受け付けた前記表示領域の輝度特性を取得する輝度特性取得手段と、
    前記輝度特性取得手段が取得した前記輝度特性に基づき、前記一の画像データと他の画像データを合成するための所定の条件を変更して、前記一の画像データと他の画像データを合成する合成手段と、
    異なる露光条件で撮像された複数の前記他の画像データの中から、前記輝度特性取得手段が取得した前記輝度特性に基づき1つ以上の前記他の画像データを選択する選択手段と、
    前記合成手段が前記他の画像データを合成した前記一の画像データの前記表示領域を画面に表示する表示手段と、
    前記異なる露光条件で撮像して得られた複数の画像データは全天球画像であり、
    前記受付手段は、前記全天球画像の視線方向と画角の指定を受け付け、
    前記受付手段が受け付けた視線方向と画角の前記一の画像に射影方式変換を施し、所定領域の参照領域画像を生成する射影方式変換手段と、
    を有し、
    前記合成手段は、前記輝度特性取得手段が取得した前記輝度特性に基づき、前記一の画像データと前記選択手段が選択した前記他の画像データを合成するための所定の条件を変更して、前記一の画像データと他の画像データを合成するものであり、前記輝度特性取得手段が取得した前記参照領域画像の前記輝度特性に基づき、全天球画像である前記一の画像データと他の画像データを合成するための所定の条件を変更して、前記一の画像データと他の画像データを合成する
    表示装置。
  9. 画像取得手段が、異なる露光条件で撮像して得られた複数の画像データを取得するステップと、
    受付手段が、前記複数の画像データのうち一の画像データの表示領域を受け付けるステップと、
    輝度特性取得手段が、前記受付手段が受け付けた前記表示領域の輝度特性を取得するステップと、
    合成手段が、前記輝度特性取得手段が取得した前記輝度特性に基づき、前記一の画像データと他の画像データを合成するための所定の条件を変更して、前記一の画像データと他の画像データを合成するステップと、
    選択手段が、異なる露光条件で撮像された複数の前記他の画像データの中から、前記輝度特性取得手段が取得した前記輝度特性に基づき1つ以上の前記他の画像データを選択するステップと、
    前記異なる露光条件で撮像して得られた複数の画像データは全天球画像であり、
    前記受付手段は、前記全天球画像の視線方向と画角の指定を受け付け、
    前記受付手段が受け付けた視線方向と画角の前記一の画像に射影方式変換を施し、所定領域の参照領域画像を生成する射影方式変換ステップと、
    を有し、
    前記合成手段は、前記輝度特性取得手段が取得した前記輝度特性に基づき、前記一の画像データと前記選択手段が選択した前記他の画像データを合成するための所定の条件を変更して、前記一の画像データと他の画像データを合成するものであり、前記輝度特性取得手段が取得した前記参照領域画像の前記輝度特性に基づき、全天球画像である前記一の画像データと他の画像データを合成するための所定の条件を変更して、前記一の画像データと他の画像データを合成する
    画像処理方法。
  10. 情報処理装置を、
    異なる露光条件で撮像して得られた複数の画像データを取得する画像取得手段と、
    前記複数の画像データのうち一の画像データの表示領域を受け付ける受付手段と、
    前記受付手段が受け付けた前記表示領域の輝度特性を取得する輝度特性取得手段と、
    前記輝度特性取得手段が取得した前記輝度特性に基づき、前記一の画像データと他の画像データを合成するための所定の条件を変更して、前記一の画像データと他の画像データを合成する合成手段
    異なる露光条件で撮像された複数の前記他の画像データの中から、前記輝度特性取得手段が取得した前記輝度特性に基づき1つ以上の前記他の画像データを選択する選択手段と、
    前記異なる露光条件で撮像して得られた複数の画像データは全天球画像であり、
    前記受付手段は、前記全天球画像の視線方向と画角の指定を受け付け、
    前記受付手段が受け付けた視線方向と画角の前記一の画像に射影方式変換を施し、所定領域の参照領域画像を生成する射影方式変換手段、
    として機能させ、
    前記合成手段は、前記輝度特性取得手段が取得した前記輝度特性に基づき、前記一の画像データと前記選択手段が選択した前記他の画像データを合成するための所定の条件を変更して、前記一の画像データと他の画像データを合成するものであり、前記輝度特性取得手段が取得した前記参照領域画像の前記輝度特性に基づき、全天球画像である前記一の画像データと他の画像データを合成するための所定の条件を変更して、前記一の画像データと他の画像データを合成する
    プログラム。
JP2017208676A 2017-10-27 2017-10-27 画像処理装置、表示装置、画像処理方法、プログラム Active JP7135299B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2017208676A JP7135299B2 (ja) 2017-10-27 2017-10-27 画像処理装置、表示装置、画像処理方法、プログラム
US16/648,150 US11284014B2 (en) 2017-10-27 2018-10-24 Image processing apparatus, image capturing system, image processing method, and recording medium
CN201880069286.5A CN111279387A (zh) 2017-10-27 2018-10-24 图像处理设备,图像捕获系统,图像处理方法和记录介质
EP18800776.9A EP3701493A1 (en) 2017-10-27 2018-10-24 Image processing apparatus, image capturing system, image processing method, and recording medium
PCT/JP2018/039479 WO2019082925A1 (en) 2017-10-27 2018-10-24 IMAGE PROCESSING APPARATUS, IMAGE CAPTURE SYSTEM, IMAGE PROCESSING METHOD, AND RECORDING MEDIUM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017208676A JP7135299B2 (ja) 2017-10-27 2017-10-27 画像処理装置、表示装置、画像処理方法、プログラム

Publications (2)

Publication Number Publication Date
JP2019082768A JP2019082768A (ja) 2019-05-30
JP7135299B2 true JP7135299B2 (ja) 2022-09-13

Family

ID=64270930

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017208676A Active JP7135299B2 (ja) 2017-10-27 2017-10-27 画像処理装置、表示装置、画像処理方法、プログラム

Country Status (5)

Country Link
US (1) US11284014B2 (ja)
EP (1) EP3701493A1 (ja)
JP (1) JP7135299B2 (ja)
CN (1) CN111279387A (ja)
WO (1) WO2019082925A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10863105B1 (en) * 2017-06-27 2020-12-08 Amazon Technologies, Inc. High dynamic range imaging for event detection and inventory management
WO2019118319A1 (en) 2017-12-15 2019-06-20 Gopro, Inc. High dynamic range processing on spherical images
TWI731464B (zh) * 2019-11-06 2021-06-21 大陸商廣州印芯半導體技術有限公司 串列周邊介面的被控端電路的影像感測器與其中的像素陣列電路
EP3829159A1 (en) 2019-11-29 2021-06-02 Ricoh Company, Ltd. Image capturing device, image communication system, and method for display control, and carrier means
CN111885285B (zh) * 2020-06-29 2021-11-23 维沃移动通信(杭州)有限公司 图像拍摄方法及电子设备
WO2022014250A1 (ja) * 2020-07-14 2022-01-20 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置および電子機器
EP4016464A1 (en) 2020-11-26 2022-06-22 Ricoh Company, Ltd. Apparatus, system, method, and carrier means
JP2022084116A (ja) * 2020-11-26 2022-06-07 キヤノン株式会社 画像処理装置およびその制御方法、撮像装置、プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5745134B2 (ja) 2014-04-23 2015-07-08 キヤノン株式会社 画像出力装置、表示装置、画像出力方法、およびプログラム
JP2017038165A (ja) 2015-08-07 2017-02-16 キヤノン株式会社 画像処理装置、撮像装置、及び画像処理方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5260904A (en) 1975-11-14 1977-05-19 Hitachi Ltd Air gap regulator in rotary machine
US20100091119A1 (en) * 2008-10-10 2010-04-15 Lee Kang-Eui Method and apparatus for creating high dynamic range image
JP5409577B2 (ja) 2010-10-05 2014-02-05 株式会社ソニー・コンピュータエンタテインメント パノラマ画像生成装置およびパノラマ画像生成方法
US8947555B2 (en) * 2011-04-18 2015-02-03 Qualcomm Incorporated White balance optimization with high dynamic range images
JP5787648B2 (ja) * 2011-07-11 2015-09-30 キヤノン株式会社 画像処理装置及び画像処理装置の制御方法
US9807322B2 (en) * 2013-03-15 2017-10-31 Duelight Llc Systems and methods for a digital image sensor
JP2014165710A (ja) 2013-02-26 2014-09-08 Ricoh Imaging Co Ltd 画像表示装置
CN105659287B (zh) 2013-08-28 2018-08-17 株式会社理光 图像处理装置、图像处理方法和成像系统
CN107534737B (zh) * 2015-08-31 2020-11-17 华为技术有限公司 一种拍摄图片的方法及装置
US9998720B2 (en) * 2016-05-11 2018-06-12 Mediatek Inc. Image processing method for locally adjusting image data of real-time image
KR102620013B1 (ko) 2016-07-01 2024-01-02 삼성디스플레이 주식회사 유기 발광 표시 장치 및 유기 발광 표시 장치의 제조방법
JP6697684B2 (ja) * 2016-10-13 2020-05-27 パナソニックIpマネジメント株式会社 画像処理装置、画像処理方法、及び画像処理回路
CN108259782A (zh) 2016-12-28 2018-07-06 株式会社理光 图像处理装置、摄影系统、图像处理方法
CN108259717A (zh) 2016-12-28 2018-07-06 株式会社理光 联动装置、摄影系统、摄影方法
US10437545B2 (en) 2016-12-28 2019-10-08 Ricoh Company, Ltd. Apparatus, system, and method for controlling display, and recording medium
US10681271B2 (en) 2017-03-15 2020-06-09 Ricoh Company, Ltd. Image processing apparatus, image capturing system, image processing method, and recording medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5745134B2 (ja) 2014-04-23 2015-07-08 キヤノン株式会社 画像出力装置、表示装置、画像出力方法、およびプログラム
JP2017038165A (ja) 2015-08-07 2017-02-16 キヤノン株式会社 画像処理装置、撮像装置、及び画像処理方法

Also Published As

Publication number Publication date
JP2019082768A (ja) 2019-05-30
WO2019082925A1 (en) 2019-05-02
US20200280669A1 (en) 2020-09-03
EP3701493A1 (en) 2020-09-02
CN111279387A (zh) 2020-06-12
US11284014B2 (en) 2022-03-22
WO2019082925A9 (en) 2019-10-17

Similar Documents

Publication Publication Date Title
JP7135299B2 (ja) 画像処理装置、表示装置、画像処理方法、プログラム
JP6805861B2 (ja) 画像処理装置、画像処理システム、画像処理方法及びプログラム
EP2860957B1 (en) Image capturing device, image capturing method and computer-readable recording medium
EP2860963B1 (en) Image generation device, and image generation method
JP5828038B2 (ja) 画像撮像装置および画像撮像方法
US20190340737A1 (en) Image processing apparatus, image processing system, image capturing system, image processing method, and recording medium
JP6151809B2 (ja) 画像撮像装置および画像撮像方法
US11006042B2 (en) Imaging device and image processing method
CN110881097B (zh) 显示控制设备、控制方法和计算机可读介质
CN105210362B (zh) 图像调整设备、图像调整方法和图像捕获设备
US20220230275A1 (en) Imaging system, image processing apparatus, imaging device, and recording medium
US11128814B2 (en) Image processing apparatus, image capturing apparatus, video reproducing system, method and program
JP2015126389A (ja) 撮像装置およびその制御方法
JP2020096349A (ja) 画像処理装置、撮像装置、動画再生システム、方法およびプログラム
JP2018157538A (ja) プログラム、撮像システム、情報処理装置
JP2020123837A (ja) 撮像装置、撮像方法およびプログラム
EP3829159A1 (en) Image capturing device, image communication system, and method for display control, and carrier means
US11122202B2 (en) Imaging device, image processing system, and image processing method
US20200412928A1 (en) Imaging device, imaging system, and imaging method
WO2018124268A1 (en) Image processing apparatus, image processing system, image capturing system, image processing method, and recording medium
JP2020096350A (ja) 画像処理装置、撮像装置、動画再生システム、方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200819

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220815

R151 Written notification of patent or utility model registration

Ref document number: 7135299

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151