JPWO2018179671A1 - 画像処理装置と画像処理方法および撮像装置 - Google Patents

画像処理装置と画像処理方法および撮像装置 Download PDF

Info

Publication number
JPWO2018179671A1
JPWO2018179671A1 JP2019508592A JP2019508592A JPWO2018179671A1 JP WO2018179671 A1 JPWO2018179671 A1 JP WO2018179671A1 JP 2019508592 A JP2019508592 A JP 2019508592A JP 2019508592 A JP2019508592 A JP 2019508592A JP WO2018179671 A1 JPWO2018179671 A1 JP WO2018179671A1
Authority
JP
Japan
Prior art keywords
signal
unit
parallax
image
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019508592A
Other languages
English (en)
Other versions
JP7024782B2 (ja
Inventor
昌俊 横川
昌俊 横川
真史 内田
真史 内田
隆浩 永野
隆浩 永野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2018179671A1 publication Critical patent/JPWO2018179671A1/ja
Application granted granted Critical
Publication of JP7024782B2 publication Critical patent/JP7024782B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/13Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/13Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
    • H04N23/15Image signal generation with circuitry for avoiding or correcting image misregistration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0088Synthesising a monoscopic image signal from stereoscopic images, e.g. synthesising a panoramic or high resolution monoscopic image

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Abstract

視差検出部36aは、白画素と色成分画素を含む第1視点の第1撮像信号PS-Hと、第1撮像信号よりも白画素を少なくして色成分画素の割合を多くした第1視点と異なる第2視点の第2撮像信号PS-Cに基づき、第1視点に対する第2視点の視差を検出する。視差補償部37は、視差検出部36aで検出された視差に基づき第2視点の撮像信号に対して視差補償を行い、第1視点の視差補償色差信号を生成する。フォールバック判定部38と信号選択部41は、第1視点の色差信号に対して視差補償第2色差信号を用いるフュージョン処理での画質性能の低下のリスクに応じて、視差補償第2色差信号または第1視点の色差信号を選択して画質性能の低下を抑制しつつ高感度の撮像画を得る。

Description

この技術は、画像処理装置と画像処理方法および撮像装置に関し、複数の撮像部で取得された撮像画を用いて画質性能の低下を抑制しつつ高感度の撮像画を得られるようにする。
従来、携帯型の電子機器例えばスマートフォン等の情報処理端末では、小型化・薄型化のために撮像部の画質が一眼レフカメラ等に比べて低下している。このため、例えば特許文献1では、情報処理端末に対して着脱可能なカメラで生成された撮像画を、無線通信で情報処理端末に供給することが行われている。また、特許文献2では、複数の撮像部を設けて、画質の異なる複数の画像例えば第1の画角と第1の画角よりも狭い第2の画角の画像を同時に生成することが開示されている。
特開2015−088824号公報 特開2013−219525号公報
ところで、着脱可能なカメラは、情報処理端末の撮像部に比べてサイズが大きく、着脱可能なカメラを利用する場合には情報処理端末との通信を確立する必要がある。このため良好な撮像画を得るための操作が煩雑で携帯性も低下する。また、複数の撮像部を設けても、取得できる画像はそれぞれの撮像部の性能に応じた画像である。
そこで、この技術では複数の撮像部で取得された撮像画を用いて画質性能の低下を抑制しつつ高感度の撮像画を得ることができる画像処理装置と画像処理方法および撮像装置を提供することを目的とする。
この技術の第1の側面は、
第1視点の第1撮像信号と、前記第1視点と異なる第2視点であって第2撮像信号に基づき、前記第1視点に対する前記第2視点の視差を検出する視差検出部と、
前記第1撮像信号と、前記視差検出部で検出された視差に基づいて視差補償された視差補償第2撮像信号を用いてカラー画像を生成する画像生成部とを備え、
前記第1撮像信号は白画素と色成分画素を含み、前記第2撮像信号は前記第1撮像信号よりも白画素が少なく色成分画素が多い画像処理装置にある。
この技術において、視差検出部は、例えば2画素×2画素の画素ブロック内において白画素を色成分画素以上に設けた第1視点の第1撮像信号と、第1撮像信号よりも白画素を少なくして色成分画素を多くした第1視点と異なる第2視点の第2撮像信号に基づき、第1視点に対する第2視点の視差を検出する。画像生成部は、視差検出部で検出された視差に基づき第2撮像信号に対して視差補償を行い、視差補償第2撮像信号を生成する。画像生成部は、所定の条件を満たす場合、すなわち第1撮像信号と視差補償第2撮像信号を用いてカラー画像を生成した場合に第1撮像信号から生成したカラー画像よりも画質性能の低下のリスクが閾値よりも低い場合、第1撮像信号と視差補償第2撮像信号を用いてカラー画像を生成して、所定の条件を満たさない場合に第1撮像信号からカラー画像を生成する。画像生成部は、例えば第1撮像信号と視差補償第2撮像信号に基づき、画質性能の低下のリスクを判別して、判別したリスクに応じた合成比で第1撮像信号に対して視差補償第2撮像信号を合成してカラー画像を生成する。
また、画像生成部は、第1撮像信号から第1輝度信号と第1色信号の生成と、第2撮像信号から第2輝度信号と第2色信号の生成と、第2色信号と前記視差検出部で検出された視差に基づき視差補償第2色信号の生成を行い、視差補償第2撮像信号を用いてカラー画像を生成した場合に第1撮像信号から生成したカラー画像よりも画質性能の低下を生じるリスクに応じて、第1色信号と前記視差補償第2色信号の何れかの選択または合成を行う。また、画像生成部は、リスクに応じて撮像画単位で第1色信号と視差補償第2色信号の何れかの選択または画素単位で第1色信号と視差補償第2色信号の合成を行う。
視差検出部は、第1輝度信号と第2輝度信号、または第1輝度信号と第2輝度信号と第1色信号と第2色信号を用いて視差検出を行う。また、第1撮像信号に基づき周波数検出を行い、検出結果に応じて視差検出部の制御を行う視差検出制御部を有し、視差検出部は、第1輝度信号と第2輝度信号に基づいて算出したコスト値と第1色信号と第2色信号に基づいて算出したコスト値を用いて視差検出を行い、視差検出制御部は、周波数検出結果に応じた合成比で2つのコスト値を統合した統合コスト値に基づき視差検出を行わせる。
また、画像生成部は、第1輝度信号に基づき周波数検出を行い、第1色信号に対して周波数検出結果に応じて画質改善処理を行う。また、画像生成部は、第2輝度信号の視差補償を行い視差補償第2輝度信号を生成して、第1輝度信号に視差補償第2輝度信号を合成して第1輝度信号の画質改善を行う。例えば、輝度画質改善部は、第1撮像信号を生成する撮像部のノイズ強度に応じて、第1輝度信号と視差補償第2輝度信号の合成比を設定する。
また、画像生成部は、第1撮像信号における白画素信号の補間処理と、色成分画素の画素信号と補間処理が行われた白画素信号を用いたデモザイク処理とデモザイク処理後の信号に対する色空間変換によって、第1色信号を生成する。例えば、画像生成部は、補間処理後の白画素信号と色成分画素の画素信号に基づく色比と処理対象画素の白画素信号を用いて処理対象画素の色成分毎の画素信号を生成する。また、画像生成部は、第1撮像信号における白画素信号の補間処理によって第1輝度信号を生成して、視差検出部は、信号生成部で白画素信号の補間処理によって生成された第1撮像信号を用いて視差検出を行う。
この技術の第2の側面は、
白画素と色成分画素を含む第1視点の第1撮像信号と、前記第1撮像信号よりも白画素を少なくして色成分画素の割合を多くした前記第1視点と異なる第2視点の第2撮像信号に基づき、前記第1視点に対する前記第2視点の視差を視差検出部で検出することと、
前記第1撮像信号と、前記視差検出部で検出された視差に基づいて視差補償された視差補償第2撮像信号を用いてカラー画像を画像生成部で生成することと
を含む画像処理方法にある。
この技術の第3の側面は、
白画素と色成分画素を含む第1視点の第1撮像信号を生成する第1撮像部と、
前記第1撮像部よりも白画素を少なくして色成分画素の割合を多くした前記第1視点と異なる第2視点の第2撮像信号を生成する第2撮像部と、
前記第1撮像信号と前記第2撮像信号に基づき、前記第1視点に対する前記第2視点の視差を検出する視差検出部と、
前記第1撮像信号と、前記視差検出部で検出された視差に基づいて視差補償された視差補償第2撮像信号を用いてカラー画像を生成する画像生成部と
を備える撮像装置にある。
この技術によれば、第1視点の第1撮像信号と、第1視点と異なる第2視点であって第2撮像信号に基づき、第1視点に対する前記第2視点の視差が視差検出部で検出される。また、第1撮像信号と、視差検出部で検出された視差に基づいて視差補償された視差補償第2撮像信号を用いてカラー画像が画像生成部で生成される。さらに、第1撮像信号は白画素と色成分画素を含み、第2撮像信号は前記第1撮像信号よりも白画素が少なく色成分画素が多くされる。したがって、白画素が第2撮像信号より多い第1撮像信号を基準に第2撮像信号を第1撮像信号にフュージョンするため、画質性能の低下を抑制しつつ高感度の撮像画を得ることができるようになる。なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
撮像装置を適用した機器の外観を例示した図である。 情報処理端末の構成を例示した図である。 フュージョン処理によって得られる画質を説明するための図である。 オクルージョンを示した図である。 撮像部21-Hの画素構成を例示した図である。 撮像部21-cの画素構成を例示した図である。 画像処理部の第1の実施の形態の構成を例示した図である。 補間部の動作を説明するための図である。 デモザイク処理部32-Hの構成を例示した図である。 フォールバック判定処理部の構成を例示した図である。 画像特徴量の算出対象領域を例示した図である。 視差ヒストグラムを例示した図である。 視差差分絶対値を説明するための図である。 視差ギャップヒストグラムを例示した図である。 画素値ヒストグラムを例示した図である。 画像処理部の第1の実施の形態の動作を例示したフローチャートである。 前処理を例示したフローチャートである。 画像処理部の第2の実施の形態の構成を例示した図である。 信号合成部の構成を例示した図である。 周波数検出部の動作を説明するための図である。 コアリング処理部422に記憶されているコアリングカーブを例示した図である。 コアリング処理部427に記憶されているコアリングカーブを例示した図である。 画像処理部の第2の実施の形態の動作を例示したフローチャートである。 画像処理部の第3の実施の形態の構成を例示した図である。 視差検出部の構成を例示した図である。 画像処理部の第4の実施の形態の構成を例示した図である。 画像処理部の第5の実施の形態の構成を例示した図である。 画像処理部の第6の実施の形態の構成を例示した図である。 画像処理部の第7の実施の形態の構成を例示した図である。 画像処理部の第8の実施の形態の構成を例示した図である。 色画質改善部の構成を例示した図である。 画像処理部の第9の実施の形態の構成を例示した図である。 画像処理部の第10の実施の形態の構成を例示した図である。 信号合成部の構成を例示した図である。 コアリングカーブと判別情報の関係を例示した図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
以下、本技術を実施するための形態について説明する。なお、説明は以下の順序で行う。
1.画像処理装置を適用した機器の構成
2.画像処理の概要
3.第1の実施の形態
4.第2の実施の形態
5.第3の実施の形態
6.第4の実施の形態
7.第5の実施の形態
8.第6の実施の形態
9.第7の実施の形態
10.第8の実施の形態
11.第9の実施の形態
12.第10の実施の形態
13.応用例
<1.画像処理装置を適用した機器の構成>
図1は、この技術の撮像装置を適用した機器の外観を例示している。なお、以下の説明では、例えば情報処理端末に撮像装置を適用している。図1の(a)は情報処理端末10の表側を示しており、表示部53および操作部55が表側に設けられている。図1の(b)は情報処理端末10の裏側を示しており、複数の撮像部例えば2つの撮像部21-BW,21-CRが裏側に設けられている。
図2は、情報処理端末の構成を例示している。情報処理端末10は、複数の撮像部例えば2つの撮像部21-H,21-C、画像処理部30、センサ部51、通信部52、表示部53、タッチパネル54、操作部55、記憶部56、および制御部60を有している。撮像部21-H,21-Cと画像処理部30は、この技術の撮像装置を構成する機能ブロックであり、画像処理部30はこの技術の画像処理装置に相当する。
撮像部21-H,21-Cは、図1の(b)に示すように情報処理端末10の同一面側に設けられている。撮像部21-H,21-Cは、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子を用いて構成されており、レンズ(図示せず)により取り込まれた光の光電変換を行い、撮像画の画像データを生成して画像処理部30へ出力する。
画像処理部30は、撮像部21-Hと撮像部21-Cで取得された撮像画を用いて、画質性能の低下を抑制しつつ高感度の撮像画を得る。すなわち、画像処理部30は、撮像部21-Hと撮像部21-Cで取得された撮像画を用いて画像処理を行い、撮像部21-Hや撮像部21-Cで個々に取得される撮像画よりも画質性能の低下を抑制しつつ高感度の撮像画を生成して、表示部53や記憶部56へ出力する。なお、画像処理部30の構成および動作の詳細については後述する。
センサ部51はジャイロセンサなどを用いて構成されており、情報処理端末10に生じた揺れを検出する。センサ部51は、検出した揺れの情報を制御部60へ出力する。
通信部52は、LAN(Local Area Network)やインターネットなどのネットワーク上の機器と通信を行う。
表示部53は、画像処理部30から供給された画像データに基づき撮像画の表示、制御部60からの情報信号に基づきメニュー画面や各種アプリケーション画面等の表示を行う。また、表示部53の表示面側にはタッチパネル54が載置されており、GUI機能利用できるように構成されている。
操作部55は操作スイッチ等を用いて構成されており、ユーザ操作に応じた操作信号を生成して制御部60へ出力する。
記憶部56は、情報処理端末10で生成された情報例えば画像処理部30から供給された画像データや、情報処理端末10で通信やアプリケーションを実行するために用いられる各種情報を記憶する。
制御部60は、CPU(Central Processing Unit),ROM(Read Only Memory),RAM(Random Access Memory)(図示せず)などで構成されている。制御部60は、ROMまたはRAMに記憶されたプログラムを実行して、タッチパネル54や操作部55に対するユーザ操作に応じた動作が情報処理端末10で行われるように各部の動作を制御する。
なお、情報処理端末10は、図2に示す構成に限られず、例えば画像データを符号化して記憶部56に記憶するための符号化処理部、画像データを表示部の解像度に合わせる解像度変換部等が設けられてもよい。
<2.画像処理の概要>
画像処理部30は、撮像部21-Hと撮像部21-Cで取得された撮像画を用いてフュージョン処理を行う。図3は、フュージョン処理によって得られる画質を説明するための図である。例えば撮像部21-Hで白黒撮像画を取得して撮像部21-Cでカラー撮像画を取得している場合、白黒撮像画を基準としたフュージョン処理によって、カラー撮像画を白黒撮像画の視点に視差補償して色情報を用いることで高感度のフュージョン画像を生成できる。このため、画質性能を単眼画質(撮像部21-Cのみを用いた場合の画質)よりも高められる。しかし、撮像部21-Hと撮像部21-Cでは視点が異なることから、視差の検出精度が低いと色ずれや色の欠落を生じるリスクが高くなり、色ずれや色の欠落によって画質性能は単眼画質(撮像部21-Cのみを用いた場合の画質)よりも低下してしまう。また、白黒撮像画を基準としたフュージョン処理では、オクルージョンによって色の欠落が生じてしまう。図4は、オクルージョンを示している。撮像部21-Hと撮像部21-Cの視差によってオクルージョンが生じると、撮像部21-Cで取得されたカラー撮像画ではオクルージョン領域に対応する色情報がない。このため、フュージョン処理によって生成されたフュージョン画像ではオクルージョン領域で色が欠落した画像となり画質性能が低下する。
そこで、本技術では、撮像部21-Hは白画素と色成分画素を含む構成として第1視点の第1撮像信号を生成する。また、撮像部21-Cは撮像部21-Hよりも白画素を少なくして色成分画素の割合を多くして第1視点と異なる第2視点の第2撮像信号を生成する。すなわち、撮像部21-Hは撮像部21-Cよりも高感度である第1撮像信号を生成して、撮像部21-Cは撮像部21-Hよりも色解像度の高い第2撮像信号を生成する。さらに、撮像部21-Hは色成分画素を含む構成であり、撮像部21-Cよりも色解像度は低下しているが、撮像部21-Cと同様に色成分画像を生成して、視差の違いによる色ずれや色の欠落等の画質性能の低下のリスクに応じて、撮像部21-Hで取得した第1撮像信号から生成した色成分信号と撮像部21-Cで取得した第2撮像信号から生成した視差補償後の色信号の選択または合成(ブレンド)を行い、画質性能の高いフュージョン画像を生成する。
図5は、撮像部21-Hの画素構成を例示している。なお、図5および図6では、撮像領域の一部領域である5画素×5画素の領域を図示している。図5の(a)は、2画像×2画素の画素ブロックを赤画素(R)と青画素(B)と2つの白画素(W)で構成した場合を例示している。また、図5の(b)は、2画像×2画素の画素ブロックを赤画素(R)または青画素(B)と3つの白画素(W)で構成した場合を例示している。図5の(c)は、2画像×2画素の画素ブロックが赤画素(R)または青画素(B)と3つの白画素(W)で構成されたブロックと4つの白画素(W)で構成されたブロックを垂直方向または水平方向に交互に設けた構成を例示している。さらに、図5の(d)は、2画像×2画素の画素ブロックを赤画素(R),青画素(B),緑画素(G)のいずれか1つと3つの白画素(W)で構成した場合を例示している。なお、図5の(a)乃至図5の(c)では、緑画素(G)が設けられていないことから、後述するように、デモザイク処理によって生成した輝度画像と赤色画像と青色画像から緑色画像を生成する。
図6は、撮像部21-cの画素構成を例示している。図6の(a)は、赤画素(R)と青画素(B)と緑画素(G)の三原色画素をベイヤー配列として設けた場合を例示している。また、図6の(b)は、2画像×2画素の画素ブロックを赤画素(R)と青画素(B)と緑画素(G)の三原色画素とカラーフィルタが配されていない白画素(W)で構成した場合を例示している。
また、撮像部21-Hの色毎の画素と撮像部21-Cの色毎の画素は、分光感度差が所定よりも小さければ同一でなくともよい。また、撮像部21-Hと撮像部21-Cの画素構成は、図5および図6に示す画素構成に限られない。例えばカラーフィルタとして原色系フィルタを用いる場合に限らず補色系フィルタを用いてもよい。また、色配列はベイヤー配列に限らずストライブ配列やモザイク配列等のような他の色配列であってもよい。
画像処理部30は、上述の第1撮像信号と第2撮像信号に基づき、第1視点に対する第2視点の視差を視差検出部で検出する。また、画像処理部30は、第1撮像信号と、視差検出部で検出された視差に基づいて視差補償された視差補償第2撮像信号を用いてカラー画像を画像生成部で生成する。画像生成部は、所定の条件を満たす場合、すなわち第1撮像信号と視差補償第2撮像信号を用いてカラー画像を生成した場合に第1撮像信号から生成したカラー画像よりも画質性能の低下のリスクが閾値よりも低い場合、第1撮像信号と視差補償第2撮像信号を用いてカラー画像を生成して、所定の条件を満たさない場合に第1撮像信号からカラー画像を生成する。例えば、画像処理部30は、第1撮像信号から第1輝度信号と第1色信号の生成と、第2撮像信号から第2輝度信号と第2色信号の生成と、第2色信号と視差検出部で検出された視差に基づき視差補償第2色信号の生成を行い、視差補償第2撮像信号を用いてカラー画像を生成した場合に第1撮像信号から生成したカラー画像よりも画質性能の低下を生じるリスクに応じて、第1色信号と視差補償第2色信号の何れかの選択または合成等を行いカラー画像の色信号を生成する。また、カラー画像の輝度信号は、第1輝度信号または第2輝度信号を用いて画質改善がなされた第1輝度信号を用いる。
画像処理部30は、このようなフュージョン処理を行い、撮像部21-Hまたは撮像部21-Cで取得される撮像画よりも画質性能の高い撮像画を表示または記録できるようにする。以下の実施の形態では、撮像部21-Hで生成された第1撮像信号から輝度信号と色差信号を生成して、撮像部21-Cで生成された第2撮像信号から輝度信号と色差信号を生成して、撮像部21-Hの視点を基準とするフュージョン処理を色差信号または色差信号と輝度信号を用いて行う場合について説明する。
<3.第1の実施の形態>
次に画像処理部の第1の実施の形態について説明する。図7は、画像処理部の第1の実施の形態の構成を例示している。画像処理部30-1は、補間部31-H、デモザイク処理部32-H、YUV変換部33-H、デモザイク処理部32-C、YUV変換部33-C、視差検出部36a、視差補償部37、フォールバック判定部38、信号選択部41を有している。
撮像部21-Hから出力された撮像信号PS-Hは、補間部31-Hとデモザイク処理部32-Hに入力される。また、撮像部21-Cから出力された撮像信号PS-Cは、デモザイク処理部32-Cに入力される。
補間部31-Hは、撮像信号PS-Hを用いて白画素の補間処理を行い、輝度画像の画像信号(以下「輝度信号」という)SDwを生成する。図8は、補間部の動作を説明するための図であり、撮像部21-Hが例えば図6の(b)に示す画素構成で赤画素または青画素の位置における白画素WCの画素値を補間処理によって算出する場合について説明する。
補間処理では、例えば上下左右の白画素の画素値を用いて式(1)の演算を行い、白画素Wの画素値DWを算出する。なお、白画素Wの上側に隣接する白画素Wの画素値をDW、白画素Wの下側に隣接する白画素Wの画素値をDW、白画素Wの右側に隣接する白画素Wの画素値をDW、白画素Wの左側に隣接する白画素Wの画素値をDWとする。
DW=1/4(DW+DW+DW+DW)・・・(1)
また、補間処理では、方向毎に補間コスト値を算出して、補間コスト値が最小となる補間画素の画素値を白画素Wの画素値としてもよい。式(2)は垂直補間の補間コスト値diffの算出式を示している。また、式(3)は水平補間の補間コスト値diffの算出式、式(4)(5)は斜め補間の補間コスト値diffs1,diffs2の算出式を示している。
Figure 2018179671
ここで、垂直補間の補間コスト値diffが最小となった場合、式(6)に基づき垂直補間画素の画素値DWを算出して、算出した画素値DWを白画素Wの画素値DWとする。水平補間の補間コスト値diffが最小となった場合、式(7)に基づき水平補間画素の画素値DWを算出して、算出した画素値DWを白画素Wの画素値DWとする。斜め補間の補間コスト値diffs1が最小となった場合、式(8)に基づき斜め補間画素の画素値DWs1を算出して、算出した画素値DWs1を白画素Wの画素値DWとする。また、斜め補間の補間コスト値diffs2が最小となった場合、式(9)に基づき斜め補間画素の画素値DWs2を算出して、算出した画素値DWs2を白画素Wの画素値DWとする。なお、白画素Wの左上に隣接する白画素WTLの画素値をDWTL、白画素Wの右上に隣接する白画素WTRの画素値をDWTR、白画素Wの左下に隣接する白画素WBLの画素値をDWBL、白画素Wの右下に隣接する白画素WBRの画素値をDWBRとする。
DW=1/2(DW+DW) ・・・(6)
DW=1/2(DW+DW) ・・・(7)
DWs1=1/2(DWTL+DWBR)・・・(8)
DWs2=1/2(DWTR+DWBL)・・・(9)
補間部31-Hは、撮像信号PS-Hを用いて補間処理を行い、赤画素や青画素の位置における白画素の画素値を算出して輝度信号SDwを生成する。補間部31-Hは、生成した輝度信号SDwをデモザイク処理部32-Hとフォールバック判定部38、および表示部53や記録部56へ出力する。
デモザイク処理部32-Hは、撮像部21-Hから出力された撮像信号PS-Hと補間部31-Hで生成された輝度信号SDwを用いて色成分毎の画像信号、例えば三原色信号を生成する。図9は、デモザイク処理部32-Hの構成を例示している。デモザイク処理部32-Hは、赤色補間係数算出部321r、青色補間係数算出部321b、赤成分画像生成部322r、青成分画像生成部322bおよび緑成分画像生成部322gを有している。
赤色補間係数算出部321rは、所定サイズ(図9では例えば5画素×5画素の場合を示す)のブロック範囲Jにおいて白画素Wの画素信号の和と赤画素Rの画素信号の和の比率である色比を式(10)に基づき算出して、赤色補間係数RTrとして赤成分画像生成部322rへ出力する。
Figure 2018179671
青色補間係数算出部321bは、所定サイズ(図9では例えば5画素×5画素の場合を示す)のブロック範囲Jにおいて白画素Wの画素信号の和と青画素Rの画素信号の和の比率である色比を式(11)に基づき算出して、青色補間係数RTbとして青成分画像生成部322bへ出力する。
Figure 2018179671
赤成分画像生成部322rは、式(12)に示すように、補間部31-Hで生成された輝度画像における補間画素位置(x,y)の画素値DW(x,y)に赤色補間係数算出部321rで算出された赤色補間係数RTrを乗算して、補間画素位置(x,y)における赤色画素の画素値DR(x,y)を算出する。
DR(x,y)=RTr×DW(x,y) ・・・(12)
青成分画像生成部322bは、式(13)に示すように、補間部31-Hで生成された輝度画像における補間画素位置(x,y)の画素値DW(x,y)に青色補間係数算出部321bで算出された青色補間係数RTbを乗算して、補間画素位置(x,y)における青色画素の画素値DB(x,y)を算出する。
DB(x,y)=RTb×DW(x,y) ・・・(13)
緑成分画像生成部322gは、式(14)に示すように、補間部31-Hで生成された輝度画像における補間画素位置(x,y)の画素値DW(x,y)から赤成分画像生成部322rで算出された補間画素位置(x,y)の画素値DR(x,y)と青成分画像生成部322bで算出された補間画素位置(x,y)の画素値DB(x,y)を減算して、補間画素位置(x,y)における緑色画素の画素値DG(x,y)を算出する。
DG(x,y)=DW(x,y)−DR(x,y)−DB(x,y) ・・・(14)
デモザイク処理部32-Hは、撮像部21-Hから出力された撮像信号PS-Hと補間部31-Hで生成された輝度信号SDwを用いて三原色画像信号を生成してYUV変換部33-Hへ出力する。
デモザイク処理部32-Cは、撮像部21-Cから出力された撮像信号PS-Cを用いて、従来と同様なデモザイク処理を行い、三原色画像信号をYUV変換部33-Cへ出力する。
YUV変換部33-Hは、デモザイク処理部32-Hで生成された三原色の画像信号の色空間変換を行い、輝度信号Hyと色差信号Huvを生成する。YUV変換部33-Hは、生成した輝度信号Hyを視差検出部36a、色差信号Huvを信号選択部41へそれぞれ出力する。なお、色差信号Huvは、輝度と青の差を示す色差信号Huと輝度と赤の差を示す色差信号Hvを示している。
YUV変換部33-Cは、デモザイク処理部32-Cで生成された三原色の画像信号の色空間変換を行い、輝度信号Cyと色差信号Cuvを生成する。YUV変換部33-Cは、生成した輝度信号Cyを視差検出部36aとフォールバック判定部38、色差信号Cuvを視差補償部37へそれぞれ出力する。なお、色差信号Cuvは、輝度と青の差を示す色差信号Cuと輝度と赤の差を示す色差信号Cvを示している。
視差検出部36aは、YUV変換部33-Hからの輝度信号HyとYUV変換部33-Cからの輝度信号Cyを用いて、撮像部21-Hで取得された撮像画を基準撮像画として撮像部21-Cで取得された撮像画の視差を検出する。
視差検出部36aは、ブロックマッチングの対応点検出処理によって視差情報を生成する。例えば、基準撮像画上の注目位置を基準とした基準ブロック領域に最も類似する他方の撮像画上のブロック領域を、SSD(Sum of Squared Difference)またはSAD(Sum of Absolute Difference)などのコスト値を用いて検出する。視差検出部36aは、検出したブロック領域と基準ブロック領域の位置の差を示す視差ベクトルを算出する。また、視差検出部36aは、基準撮像画上の各画素を注目位置として視差の算出を行い、画素毎に算出した視差ベクトルを示す視差情報を生成する。なお、視差情報の生成ではブロックマッチングに限らず他の手法例えばKLT(Kanade-Lucas-Tomasi)法等を用いてもよい。視差検出部36aは、生成した視差情報DTaを視差補償部37とフォールバック判定部38へ出力する。
視差補償部37は、視差検出部36aから供給された視差情報DTaに基づきYUV変換部33-Cで生成された色差信号Cuvの視差補償を行う。視差補償部37は、色差信号Cuvに対して視差検出部36aで生成された視差情報に基づき画素位置の移動を行い、撮像部21-Hで取得された撮像画の視点である視差補償色差信号CPuvを生成する。視差補償部37は、生成した視差補償色差信号CPuvを信号選択部41へ出力する。
フォールバック判定部38は、補間部31-Hから供給された輝度信号SDwとYUV変換部33-Cから供給された輝度信号Cy、および視差検出部36aから供給された視差情報DTaに基づき画質性能の低下のリスクを判定する。さらに、フォールバック判定部38は、画質性能の低下のリスクがない場合はYUV変換部33-Hで生成された色差信号Huvよりも色解像度の高い視差補償色差信号CPuvを選択して、画質性能の低下のリスクがある場合、色差信号Huvを選択するように信号選択制御信号ETを生成する。
図10は、フォールバック判定処理部の構成を例示している。フォールバック判定部38は、画像特徴量算出部381と信号選択判定部382を有している。
画像特徴量算出部381は、視差および画素の飽和に起因する画質の劣化判定を行うための画像特徴量を算出する。画像特徴量算出部381は、視差に起因する画質の劣化判定を行うための画像特徴量を算出する機能ブロックとして、視差ヒストグラム生成部3811、視差分布特徴量算出部3812、サーチ範囲超え特徴量算出部3813、視差ギャップヒストグラム生成部3814、視差ギャップ特徴量算出部3815を有している。また、画像特徴量算出部381は、画素の飽和に起因する画質の劣化判定を行うための画像特徴量を算出する機能ブロックとして、飽和判定ヒストグラム生成部3816、飽和特徴量算出部3817を有している。なお、画像特徴量算出部381は、撮像画全体を画像特徴量の算出対象領域としてもよく、図11に示すように、撮像画において上下左右の端部側の領域(斜線で示す領域)を除いて算出対象領域を設定してもよい。このように、端部側の領域を除いて算出対象領域を設定すれば、例えば注目画素が側端の位置であるために視差や後述する視差ギャップ距離等の算出ができなくなってしまうことを防止することが可能となり、精度よく画像特徴を算出できるようになる。また、ヒストグラムの生成等の演算コストも低減できる。
視差ヒストグラム生成部3811は、算出対象領域の各画素について算出されている視差ベクトルを用いてヒストグラムを生成する。なお、図12は、視差ヒストグラムを例示しており、図12の(a)は、被写体が同一平面に近い状態であるの撮像画の視差ヒスグラム、図12の(b)は、被写体までの距離が異なる撮像画の視差ヒストグラムを例示している。この視差ヒストグラムでは、距離の違いにより視差「0」からマイナス方向に離れた位置にピークを生じている。図12の(c)は、被写体までの距離が異なり複数の視差を生じており、被写体が接近していることで大きな視差を生じる状態である撮像画の視差ヒストグラムを例示している。この視差ヒストグラムでは、図12の(b)に比べて被写体が接近して大きさ視差を生じていることから、図12の(b)よりもマイナス方向にさらに離れた位置にピークを生じている。
視差分布特徴量算出部3812は、視差ヒストグラム生成部3811で生成された視差ヒストグラムから視差分布の特徴を示す統計量を視差分布特徴量として算出する。視差分布特徴量算出部3812は、視差分布の特徴を示す統計量として例えば標準偏差を算出して、算出した標準偏差を視差分布特徴量FVfsdとする。例えば図12の(a)のヒストグラムから算出した視差分布特徴量を「FVfsd-a」、図12の(b)のヒストグラムから算出した視差分布特徴量「FVfsd-b」、図12の(c)のヒストグラムから算出した視差分布特徴量「FVfsd-c」とする。この場合、視差分布特徴量は「FVfsd-a<FVfsd-b,FVfsd-c」となる。このように、視差分布特徴量算出部3812で視差ヒストグラムの標準偏差を視差分布特徴量FVfsdとして算出すれば、後述する信号選択判定部382は、視差分布特徴量FVfsdに基づき、被写体が同一平面に近いかあるいは複数の視差があるか判定できる。
サーチ範囲超え特徴量算出部3813は、視差ヒストグラム生成部3811で生成された視差ヒストグラムから予め設定されているサーチ範囲以上の視差を生じている度数(over_search_range_counter)の全度数(counter)に対する割合を示すサーチ範囲超え特徴量FVosrを算出する。サーチ範囲超え特徴量算出部3813は、視差ヒストグラムを用いて式(15)の演算を行い、サーチ範囲超え特徴量FVosrを算出する。
FVosr=over_search_range_counter / counter *100 ・・・(15)
視差ギャップヒストグラム生成部3814は、視差ギャップヒストグラムを生成する。図13は、視差ギャップヒストグラムを生成に用いる視差差分絶対値を説明するための図である。視差ギャップヒストグラム生成部3814は、図13に示すように、算出対象領域の注目画素の位置から水平に「−(PARALLAX_DIFF_DISTANCE/2)」の画素分だけ離れた位置の視差PV1を算出する。また、視差ギャップヒストグラム生成部3814は、注目画素位置から水平に「(PARALLAX_DIFF_DISTANCE/2)」の画素分だけ離れた位置の視差PV2を算出して、式(16)に示す視差差分絶対値PVapdを算出する。なお、視差ギャップ距離(PARALLAX_DIFF_DISTANCE)は予め設定されている。
PVapd=ABS(PV1−PV2) ・・・(16)
視差差分絶対値PVapdは、例えば被写体が同一平面に近い状態である場合、視差PV1と視差PV2の差は小さいことから視差差分絶対値PVapdの値は小さくなる。また、視差差分絶対値PVapdは、例えば被写体までの距離が異なり、注目画素が距離の異なる被写体の境界であると、視差PV1と視差PV2の差が大きいことから視差差分絶対値PVapdの値は大きくなる。視差ギャップヒストグラム生成部3814は、算出対象領域の各画素を注目画素として算出した視差差分絶対値PVapdのヒストグラムである視差ギャップヒストグラムを生成する。なお、図14は視差ギャップヒストグラムを例示している。
視差ギャップ特徴量算出部3815は、視差ギャップヒストグラム生成部3814で生成された視差ギャップヒストグラムから視差ギャップ特徴量FVpdを算出する。視差ギャップ特徴量算出部3815は、視差ギャップヒストグラムから予め設定されている最大視差ギャップ距離以上の視差ギャップを生じている度数(large_parallax_diff_counter)の全度数(counter)に対する割合を示す視差ギャップ特徴量FVpdを算出する。視差ギャップ特徴量算出部3815は、視差ギャップヒストグラムを用いて式(17)の演算を行い、視差ギャップ特徴量FVpdを算出する。
FVpd = large_parallax_diff_counter / counter * 100 ・・・(17)
このように、視差ギャップ特徴量算出部3815で算出された視差ギャップ特徴量FVpdは、最大視差ギャップ距離を生じる画素の割合を示している。ここで、同一平面にある被写体は視差ギャップが小さく、距離が異なる被写体の画像境界部分では視差ギャップが大きいことから、距離が大きく異なる被写体の画像境界の発生状況を判定することが可能となる。
飽和判定ヒストグラム生成部3816は、補間部31-Hから供給された輝度信号SDwに基づき画素値毎の度数(画素数)を示す画素値ヒストグラムを生成する。また、YUV変換部33-Cから供給された輝度信号Cyに基づき画素値毎の度数(画素数)を示す画素値ヒストグラムを生成する。
図15は画素値ヒストグラムを例示している。なお、図15の(a)は輝度信号SDwに基づく画素値ヒストグラム、図15の(b)は輝度信号Cyに基づく輝度値ヒストグラムを示している。上述のように、撮像部21-Hは、可視光の全波長領域の入射光量に基づく電気信号を出力する白画素が撮像部21-Cよりも多く設けられていることから、撮像部21-Cに比べて感度が高い。したがって、同一輝度の被写体を撮像した場合、撮像部21-Hで取得された撮像画に基づく画素値ヒストグラムは、撮像部21-Cで取得された撮像画に基づく輝度値ヒストグラムに比べて信号値の高い領域での度数が高くなる。
飽和特徴量算出部3817は、飽和判定ヒストグラム生成部3816で生成された輝度値ヒストグラムに基づき飽和特徴量FVsatを算出する。飽和特徴量算出部3817は、撮像部21-Hで取得された撮像画に基づく画素値ヒストグラムにおける予め設定されている飽和判定設定値(SATURATION_AREA_W)以上の画素値の度数(saturation_counter_W)と、撮像部21-Cで取得された撮像画に基づく画素値ヒストグラムにおける予め設定されている飽和判定設定値(SATURATION_AREA_Y)以上の画素値の度数(saturation_counter_Y)を算出する。また、飽和特徴量算出部3817は、度数(saturation_counter_W)と度数(saturation_counter_Y)の差分の全度数(counter)に対する割合を示す飽和特徴量FVsatを算出する。飽和特徴量算出部3817は、撮像部21-Hで取得された撮像画に基づく画素値ヒストグラムと撮像部21-Cで取得された撮像画に基づく画素値ヒストグラムを用いて式(18)の演算を行い、飽和特徴量FVsatを算出する。
FVsat=(saturation_counter_W−saturation_counter_Y)/ counter * 100)
・・・(18)
このように、飽和特徴量算出部3817で算出された飽和特徴量FVsatは、画素飽和状況の相違を示している。したがって、例えば飽和特徴量の値が大きい場合、撮像部21-Hで取得された撮像画を基準としたフュージョン処理において画素の飽和に起因する画質の劣化を生じる撮像画であることを判定することが可能となる。
信号選択判定部382は、画像特徴量算出部381で算出された画像特徴量と、制御部60等から取得したカメラ特徴量に基づき、フュージョン画像が画質の劣化を生じるか否かを判別する。信号選択判定部382は、判別結果に基づき信号選択制御信号ETを生成して信号選択部41へ出力する。信号選択判定部382は、画質の劣化を生じるか否かを判定する機能ブロックとして、個別判定部3821〜3825と統合判定処理部3828を有している。
個別判定部3821は、視差分布特徴量算出部3812で算出された視差分布特徴量に基づき、フュージョン画像が画質の劣化を生じるか否かを判定する。個別判定部3821は、視差分布特徴量FVfsdと視差分布特徴量に対して予め設定されている判定閾値Thfsdを比較する。個別判定部3821は、視差分布特徴量FVfsdが判定閾値Thfsdよりも大きい場合、すなわち視差のばらつきが大きい場合に画質の劣化を生じると判定する。個別判定部3821は、個別判定結果を統合判定処理部3828へ出力する。
個別判定部3822は、サーチ範囲超え特徴量算出部3813で算出されたサーチ範囲超え特徴量FVosrに基づき、フュージョン画像が画質の劣化を生じるか否かを判定する。個別判定部3822は、サーチ範囲超え特徴量FVosrとサーチ範囲超え特徴量に対して予め設定されている判定閾値Thosrを比較する。個別判定部3822は、サーチ範囲超え特徴量FVosrが判定閾値Thosrよりも大きい場合、オクルージョンの領域が多いことを判別できる。個別判定部3822は、個別判定結果を統合判定処理部3828へ出力する。
個別判定部3823は、視差ギャップ特徴量算出部3815で算出された視差ギャップ特徴量FVpdに基づき、フュージョン画像が画質の劣化を生じるか否かを判定する。個別判定部3823は、視差ギャップ特徴量FVpdと視差ギャップ特徴量に対して予め設定されている判定閾値Thpdを比較する。個別判定部3823は、視差ギャップ特徴量FVpdが判定閾値Thpdより大きい場合、距離が大きく異なる被写体の画像境界が多いことを判別できる。距離が大きく異なる被写体の画像境界はオクルージョンを生じやすいことから、距離が大きく異なる被写体の画像境界が多くなる場合に画質の劣化を生じると判定する。個別判定部3823は、個別判定結果を統合判定処理部3828へ出力する。
個別判定部3824は、飽和特徴量算出部3817で算出された飽和特徴量FVsatに基づき、フュージョン画像が画質の劣化を生じるか否か判定する。個別判定部3824は、飽和特徴量FVsatと飽和特徴量に対して予め設定されている判定閾値Thsatを比較する。個別判定部3824は、飽和特徴量FVsatが判定閾値Thsatよりも大きい場合、すなわち、飽和している画素が撮像部21-Cで取得された撮像画に比べて撮像部21-Hで取得された撮像画で多くなる場合に画質の劣化を生じると判定する。個別判定部3824は、個別判定結果を統合判定処理部3828へ出力する。
個別判定部3825は、カメラ特徴量に基づき、フュージョン画像が画質の劣化を生じるか否かを判定する。カメラ特徴量としては、撮像時における明るさに関連した撮像設定情報や被写体距離に関連した撮像設定情報を用いる。被写体が明るい場合は撮像部21-CRで感度の高い画像を取得できることからフュージョン処理の効果は被写体が暗い場合に比べて少ない。したがって、撮像時における明るさに関連した撮像設定情報をカメラ特徴量として用いる。また、撮像部21-Hと撮像部21-Cの視点の違いによって生じるオクルージョンは、被写体が離れている場合には少なく被写体が近い場合には多くなる。したがって、被写体距離に関連した撮像設定情報をカメラ特徴量として用いる。撮像時における明るさに関連した撮像設定情報としては例えば撮像部21-H,21-CのISO感度や露光時間等の設定情報を用いる。被写体距離に関連した撮像設定情報としてはフォーカス位置やズーム倍率等の設定情報を用いる。個別判定部3825は、撮像部21-H,21-Cや制御部60からカメラ情報を取得する。個別判定部3825は、カメラ特徴量とカメラ特徴量に対して予め設定されている判定閾値を比較して、フュージョン処理が画質の劣化を生じるか否か判定する。個別判定部3825は、個別判定結果を統合判定処理部3828へ出力する。
統合判定処理部3828は、個別判定部3821〜3825から供給された個別判定結果を用いて撮像画毎例えばフレーム単位でフォールバック判定を行い、フォールバック判定結果に応じて信号選択制御信号を生成して信号選択部41へ出力する。例えば、統合判定処理部3828は、画質性能の低下のリスクが閾値よりも低い場合、すなわち個別判定部3821〜3825から供給された個別判定結果のいずれにおいても画質の劣化を生じないと判定されている場合、フォールバック判定ではフュージョン処理で画質性能の劣化なしと判定する。また、統合判定処理部3828は、画質性能の低下のリスクが閾値以上である場合、すなわち個別判定部3821〜3825から供給された個別判定結果のいずれかで画質の劣化を生じる判定されている場合、フォールバック判定ではフュージョン処理で画質性能の劣化有りと判定する。統合判定処理部3828は、例えば画質性能の劣化無しと判定されている場合はYUV変換部33-Hで生成された色差信号Huvよりも色解像度の高い視差補償色差信号CPuvを選択して、画質性能の劣化有りと判定されている場合は色差信号Huvを選択するように信号選択制御信号ETを生成する。
信号選択部41は、フォールバック判定部38からの信号選択制御信号ETに基づき、YUV変換部33-Hで生成された色差信号HuvまたはYUV変換部33-Cで生成されて視差補償が行われた視差補償色差信号CPuvのいずれかを色差信号SDuvとして出力する。
画像処理部30-1は、補間部31-Hから出力された輝度信号SDwと信号選択部41から出力された色差信号SDuvを、フュージョン画像の画像信号として表示部53や記録部56へ出力する。なお、図7では、輝度信号と色差信号を表示部53や記録部56へ出力する構成を示しているが、輝度信号と色差信号の色空間変換部を設けて、例えば三原色の画像信号を表示部53や記録部56へ出力する構成としてもよい。
図16は、画像処理部の第1の実施の形態の動作を例示したフローチャートである。ステップST1で画像処理部30-1は前処理を行う。図17は前処理を例示したフローチャートである。ステップST11で画像処理部30-1は補間処理を行う。画像処理部30-1は、撮像部21-Hで生成された撮像画の白画素を用いて補間処理を行い、輝度信号SDwを生成してステップST12に進む。
ステップST12で画像処理部30-1はデモザイク処理を行う。画像処理部30-1は、ステップST11で生成した輝度信号SDwと撮像部21-Hからの例えば赤画素と青画素の画素信号を用いてデモザイク処理を行い、赤成分画像と青成分画像と緑成分画像のそれぞれの画像信号を生成する。また、画像処理部30-1は、撮像部21-Cからの赤画素と青画素と緑画素の画素信号を用いてデモザイク処理を行い、赤成分画像と青成分画像と緑成分画像のそれぞれの画像信号を生成してステップST13に進む。
ステップST13で画像処理部30-1はYUV変換を行う。画像処理部30-1は、ステップST12で輝度信号SDwと撮像部21-Hからの画素信号を用いたデモザイク処理で生成した画像信号の色空間変換を行い、輝度信号Hyと色差信号Huvを生成する。また、画像処理部30-1は、ステップST12で撮像部21-Cからの赤画素と青画素と緑画素の画素信号を用いたデモザイク処理で生成した画像信号の色空間変換を行い、輝度信号Cyと色差信号Cuvを生成して図16のステップST2に戻る。
ステップST2で画像処理部30-1は視差検出を行う。画像処理部30-1はステップST1の前処理で生成した輝度信号Hyと輝度信号Cyを用いて視差検出を行い、視差検出結果を示す視差情報DTaを生成してステップST3に進む。
ステップST3で画像処理部30-1は視差補償を行う。画像処理部30-1は、ステップST2で生成された視差情報DTaを用いてステップST1で生成された撮像部21-Cの視点の色差信号Cuvの視差補償を行い、撮像部21-Hの視点である視差補償色差信号CPuvを生成してステップST4に進む。
ステップST4で画像処理部30-1はフォールバック判定を行う。画像処理部30-1は、ステップST1の前処理で生成された輝度信号SDw,Cy、およびステップST2で生成された視差情報DTaに基づき画質性能の低下のリスクを判定してステップST5に進む。
ステップST5で画像処理部30-1は信号選択処理を行う。画像処理部30-1は、ステップST4のフォールバック判定によって画質性能の低下のリスクがないと判定された場合はステップST1の前処理で生成された色差信号Huvよりも色解像度の高いステップST3で生成された視差補償色差信号CPuvを選択する。また、画像処理部30-1は、画質性能の低下のリスクがあると判定された場合、色差信号Huvを選択する。さらに、画像処理部30-1は、ステップST1の前処理で生成した輝度信号SDwと視差補償色差信号CPuvまたは色差信号Huvを、表示部や記録部等へ出力する。
このような、第1の実施の形態によれば、画像処理部30-1では、画質性能の低下のリスクがない場合は色解像度の高い第2視点の色差信号から視差補償を行い、生成した視差補償色差信号を選択する処理と、画質性能の低下のリスクがある場合は第1視点の色差信号を選択する処理が撮像画単位で行われる。また、画像処理部30-1は、選択された色差信号と高解像度である第1視点の輝度信号を表示部53や記録部56へ出力する。したがって、画像処理部30-1を用いることで、撮像部21-Hまたは撮像部21-Cで取得される撮像画よりも画質性能の高い撮像画を表示または記録できるようになる。また、撮像部21-Hには色成分画素が設けられており、撮像部21-Hで生成された第1視点の第1撮像信号から色差信号を生成して、画質性能の低下のリスクがある場合は、第1視点の色差信号を選択するのでフュージョン処理後のカラー画像において色ずれや色の欠落を防止できる。
<4.第2の実施の形態>
上述の画像処理部の第1の実施の形態では、撮像部21-Hからの信号に基づき生成した色差信号Huvと撮像部21-Cからの信号に基づき生成されて視差補償が行われた色解像度の高い視差補償色差信号CPuvを、画質性能の低下を抑制しつつ高感度の撮像画が得られるように撮像画単位で選択する場合について説明した。次に、第2の実施の形態では、撮像部21-Hからの信号に基づき生成した色差信号Huvと撮像部21-Cからの信号に基づき生成されて視差補償が行われた色解像度の高い視差補償色差信号CPuvを、画質性能の低下を抑制しつつ高感度の画質性能の低下を生じないように画素単位で合成する場合について説明する。
図18は、画像処理部の第2の実施の形態の構成を例示している。なお、上述の実施の形態との対応部分については同一符号を付している。画像処理部30-2は、補間部31-H、デモザイク処理部32-H、YUV変換部33-H、デモザイク処理部32-C、YUV変換部33-C、視差検出部36a、視差補償部37、信号合成部42を有している。
撮像部21-Hから出力された撮像信号PS-Hは、補間部31-Hとデモザイク処理部32-Hに入力される。また、撮像部21-Cから出力された撮像信号PS-Cは、デモザイク処理部32-Cに入力される。
補間部31-Hは、撮像信号PS-Hを用いて補間処理を行い、赤画素や青画素の位置における白画素の画素値を算出して、輝度信号SDwを生成して、デモザイク処理部32-Hと信号合成部42、および表示部53や記録部56へ出力する。
デモザイク処理部32-Hは、撮像部21-Hから出力された撮像信号PS-Hと補間部31-Hで生成された輝度信号SDwを用いて色成分毎の画像信号を生成してYUV変換部33-Hへ出力する。デモザイク処理部32-Cは、撮像部21-Cから出力された撮像信号PS-Cを用いて、従来と同様なデモザイク処理を行い、色成分毎の画像信号を生成してYUV変換部33-Cへ出力する。
YUV変換部33-Hは、デモザイク処理部32-Hで生成された三原色の画像信号の色空間変換を行い、輝度信号Hyと色差信号Huvを生成する。YUV変換部33-Hは、生成した輝度信号Hyを視差検出部36a、色差信号Huvを信号合成部42へそれぞれ出力する。YUV変換部33-Cは、デモザイク処理部32-Cで生成された三原色の画像信号の色空間変換を行い、輝度信号Cyと色差信号Cuvを生成する。YUV変換部33-Cは、生成した輝度信号Cyを視差検出部36a、色差信号Cuvを視差補償部37へそれぞれ出力する。
視差検出部36aは、YUV変換部33-Hからの輝度信号HyとYUV変換部33-Cからの輝度信号Cyを用いて、撮像部21-Hで取得された撮像画を基準撮像画として撮像部21-Cで取得された撮像画の視差を検出する。視差検出部36aは、視差の検出結果を示す視差情報を信号合成部42へ出力する。
視差補償部37は、視差検出部36aから供給された視差情報DTaに基づきYUV変換部33-Cで生成された色差信号Cuvの視差補償を行い、撮像部21-Hで取得された撮像画の視点である視差補償色差信号CPuvを生成する。視差補償部37は、生成した視差補償色差信号CPuvを信号合成部42へ出力する
信号合成部42は、画質性能が低下しないように、色差信号Huvと視差補償色差信号CPuvを合成して、合成後の色差信号SDuvを表示部53や記録部56へ出力する。
図19は、信号合成部の構成を例示している。信号合成部42は、周波数検出部421、コアリング処理部422、低域通過フィルタ423,424、差分算出部425、絶対値算出部426、コアリング処理部427、合成比設定部428および合成処理部429を有している。
周波数検出部421は、補間部31-Hで生成された輝度信号SDwを用いて、画素毎に検出対象画素がどのような周波数特性の画像における画素であるか検出する。図20は、周波数検出部の動作を説明するための図である。周波数検出部421は、例えば輝度信号SDwで示される輝度画像の画素位置(x,y)に対して式(19)に示す演算を行い、水平方向の周波数特性を示すアクティビティactHORを算出する。なお、式(19)において、「i」は計測範囲内における移動位置を示すパラメータであり、図20の場合は「i=1〜4」の値であり計測範囲は9画素である。また、式(19)において、ダイナミックレンジDMRは式(20)に示すように、計測範囲内における画素値DWの最大値と最小値の差分値である。
Figure 2018179671
なお、撮像部21-Hでは、撮像素子で生じたノイズによって画質性能が低下することからダイナミックレンジDMRが撮像部21-Hのノイズ強度σ以下である場合、アクティビティactHOR=0とする。
周波数検出部421は、水平方向と同様にして垂直方向のアクティビティactVERを算出して、水平方向のアクティビティactHORと垂直方向のアクティビティactVERとの加算値を式(21)に示すように、画素位置(x,y)のアクティビティactとする。周波数検出部421は、画素毎にアクティビティactを算出してコアリング処理部422へ出力する。
act=actHOR + actVER ・・・(21)
コアリング処理部422は、アクティビティactに応じた合成比(ブレンド比)αaを画素毎に設定する。コアリング処理部422では、アクティビティactに対する合成比αaを示すコアリングカーブが記憶されており、周波数検出部421で検出されたアクティビティactに対する合成比αaをコアリングカーブから求める。図21は、コアリング処理部422に記憶されているコアリングカーブを例示している。例えばコアリングカーブは、アクティビティactが閾値Tha0以下である場合は合成比を「αa=1」とする。アクティビティactが閾値Tha0よりも大きく閾値Tha1以下である場合は、アクティビティactが大きくなるに伴い合成比を「αa=1」から「αa=0」に順次低下させる。さらに、アクティビティactが閾値Tha1よりも大きい場合は合成比を「αa=0」とする。コアリング処理部422は、アクティビティactに応じた合成比αaを設定して合成比設定部428へ出力する。なお、図21および後述するコアリングカーブは例示であって、アクティビティactに応じて合成比がリニアに変化する場合に限られない。
低域通過フィルタ423は色差信号Huvの低域通過フィルタ処理を行い、低域通過フィルタ424は視差補償色差信号CPuvの低域通過フィルタ処理を行うことで、それぞれの色差信号の帯域を等しくする。また、低域通過フィルタ423,424は、低域通過フィルタ処理を行うことで色差信号の偽色等のノイズ成分を除去する。低域通過フィルタ423,424は、フィルタ処理後の色差信号を差分算出部425へ出力する。
差分算出部425は、低域通過フィルタ423から供給された低域通過フィルタ処理後の色差信号Huvと、低域通過フィルタ423から供給された低域通過フィルタ処理後の視差補償色差信号CPuvの差分を画素毎に算出して絶対値算出部426へ出力する。
絶対値算出部426は、差分算出部425で画素毎に算出された差分絶対値absを算出してコアリング処理部427へ出力する。
コアリング処理部427は、差分絶対値absに応じた合成比αbを設定する。コアリング処理部427では、差分絶対値absに対する合成比αbを示すコアリングカーブが記憶されており、絶対値算出部426で算出された差分絶対値absに対する合成比αb2をコアリングカーブから求める。図22は、コアリング処理部427に記憶されているコアリングカーブを例示している。例えばコアリングカーブは、差分絶対値absが閾値Thb0以下である場合は合成比を「αb=0」とする。差分絶対値absが閾値Thb0よりも大きく閾値Thb1以下である場合は、差分絶対値absが大きくなるに伴い合成比を「αb=0」から「αb=1」に順次低下させる。さらに、差分絶対値absが閾値Thb1よりも大きい場合は合成比を「αb=1」とする。コアリング処理部427は、差分絶対値absに応じた合成比αbを設定して合成比設定部428へ出力する。
合成比設定部428は、コアリング処理部422から供給された合成比αaとコアリング処理部427から供給された合成比αbを用いて式(22)の処理を行い、合成比αa,αbのいずれか値の大きい合成比を、色差信号Huvと視差補償色差信号CPuvの合成比に設定して合成処理部429へ出力する。
α=max(αa,αb) ・・・(22)
合成処理部429は、合成比設定部428で設定された合成比αを用いて式(23)の演算を画素毎に行い、色差信号Huvと視差補償色差信号CPuvが合成された色差信号SDuvを生成する。すなわち、高域領域では偽色によって画質性能の低下を生じることから、画質性能の低下のリスクが閾値よりも低い場合、画質性能の低下のリスクに応じた合成比で色差信号Huvと視差補償色差信号CPuvを合成して画質性能を色差信号Huvのみを用いた場合以上の画質性能とする。また、画質性能の低下のリスクが閾値以上である場合は合成比α=1として、色差信号Huvを用いるようにする。
SDuv=α×Huv+(1−α)×CPuv ・・・(23)
画像処理部30-2は、補間部31-Hから出力された輝度信号SDwと信号合成部42から出力された色差信号SDuvを、フュージョン画像の画像信号として表示部53や記録部56へ出力する。
図23は、画像処理部の第2の実施の形態の動作を例示したフローチャートである。ステップST21で画像処理部30-2は前処理を行う。画像処理部30-2は、図17に例示したフローチャートの処理を行い、輝度信号SDwと色差信号Huv、輝度信号Cyと色差信号Cuvを生成してステップST22に進む。
ステップST22で画像処理部30-2は視差検出を行う。画像処理部30-2はステップST21の前処理で生成した輝度信号Hyと輝度信号Cyを用いて視差検出を行い、視差検出結果を示す視差情報DTaを生成してステップST23に進む。
ステップST23で画像処理部30-2は視差補償を行う。画像処理部30-2は、ステップST22で生成された視差情報DTaを用いてステップST21で生成された撮像部21-Cの視点の色差信号Cuvの視差補償を行い、撮像部21-Hの視点である視差補償色差信号CPuvを生成してステップST24に進む。
ステップST24で画像処理部30-2は信号合成処理を行う。画像処理部30-2では、画質性能が低下しないように、色差信号Huvと視差補償色差信号CPuvを合成して色差信号SDuvを生成する。さらに、画像処理部30-2は、ステップST21の前処理で生成した輝度信号SDwと信号合成処理で生成された色差信号SDuvを表示部や記録部等へ出力する。なお、画像処理部30-2では、ステップ順に処理を行う順序処理に限らず、パイプライン処理で画素毎に順次処理を行うようにしてもよい。
このような、第2の実施の形態によれば、画像処理部30-2では、色解像度の高い第2視点の色差信号から視差補償を行い、生成した視差補償色差信号と第2視点の色差信号よりも色解像度の低い第1視点の色差信号を、画質性能の低下のリスクに応じて画素単位で合成する処理が行われる。また、画像処理部30-2は、高解像度である第1視点の輝度信号と合成処理で生成した色差信号を表示部53や記録部56へ出力する。したがって、画像処理部30-2を用いることで、撮像部21-Hまたは撮像部21-Cで取得される撮像画よりも画質性能の高い撮像画を表示または記録できるようになる。また、画質性能の低下を生じないように画素単位で色差信号の合成する処理が行われるので色ずれや色の欠落等を画素単位で防止できる。
<5.第3の実施の形態>
次に、画像処理部の第3の実施の形態について説明する。第3の実施の形態では、視差検出精度を向上させることで視差補償色差信号CPuvの視差補償を高精度に行い、色差信号Huvと視差補償色差信号CPuvの撮像画単位での選択に起因する画質劣化の低減や、フォールバック判定の判定精度の向上を図る。
図24は、画像処理部の第3の実施の形態の構成を例示している。画像処理部30-3は、補間部31-H、デモザイク処理部32-H、YUV変換部33-H、デモザイク処理部32-C、YUV変換部33-C、視差検出部36b、視差補償部37、フォールバック判定部38、信号選択部41を有している。
撮像部21-Hから出力された撮像信号PS-Hは、補間部31-Hとデモザイク処理部32-Hに入力される。また、撮像部21-Cから出力された撮像信号PS-Cは、デモザイク処理部32-Cに入力される。
補間部31-Hは、撮像信号PS-Hを用いて補間処理を行い、赤画素や青画素の位置における白画素の画素値を算出して、輝度信号SDwを生成して、デモザイク処理部32-Hとフォールバック判定部38、および表示部53や記録部56へ出力する。
デモザイク処理部32-Hは、撮像部21-Hから出力された撮像信号PS-Hと補間部31-Hで生成された輝度信号SDwを用いて色成分毎の画像信号を生成してYUV変換部33-Hへ出力する。デモザイク処理部32-Cは、撮像部21-Cから出力された撮像信号PS-Cを用いて、従来と同様なデモザイク処理を行い、色成分毎の画像信号を生成してYUV変換部33-Cへ出力する。
YUV変換部33-Hは、デモザイク処理部32-Hで生成された三原色の画像信号の色空間変換を行い、輝度信号Hyと色差信号Huvを生成する。YUV変換部33-Hは、生成した輝度信号Hyを視差検出部36b、色差信号Huvを視差検出部36bと信号選択部41へそれぞれ出力する。YUV変換部33-Cは、デモザイク処理部32-Cで生成された三原色の画像信号の色空間変換を行い、輝度信号Cyと色差信号Cuvを生成する。YUV変換部33-Cは、生成した輝度信号Cyを視差検出部36bとフォールバック判定部38、色差信号Cuvを視差検出部36bと視差補償部37へそれぞれ出力する。
視差検出部36bは、輝度信号Hy,Cyおよび色差信号Huv,Cuvを用いて視差検出を行う。図25は、視差検出部の構成を例示している。視差検出部36bは、コスト算出部361,362,363、コスト統合部364、コスト最小ベクトル判定部365を有している。
コスト算出部361,362,363は、撮像部21-Hで取得された撮像画における視差検出対象画素位置を基準とした基準画像と、撮像部21-Cで取得された撮像画における参照画像を用いてコストを算出する。
コスト算出部361は輝度信号Hyにおける基準画像の信号と輝度信号Cyにおける参照画像の信号を用いてコスト値(例えばSAD)COSTyを算出してコスト統合部364へ出力する。コスト算出部362は色差信号Huにおける基準画像の信号と色差信号Cuにおける参照画像の信号を用いてコスト値(例えばSAD)COSTuを算出してコスト統合部364へ出力する。コスト算出部362は色差信号Hvにおける基準画像の信号と色差信号Cvにおける参照画像の信号を用いてコスト値(例えばSAD)COSTvを算出してコスト統合部364へ出力する。
コスト統合部364は、コスト算出部361,362,363で算出されたコスト値を統合する。例えば、コスト統合部364は、コスト値の加算値を参照画像のコスト値COST(=COSTy+COSTu+COSTv)をする。
また、コスト算出部361,362,363は、探索範囲内で参照画像を移動してコスト値を算出して、コスト統合部364は、順次移動した参照画像毎にコスト値COSTを算出して、コスト最小ベクトル判定部365へ出力する。
コスト最小ベクトル判定部365は、基準画像に対してコスト値COSTが最小となる参照画像の位置を示すベクトル情報を視差情報DTbとして用いる。なお、コスト値はSSDを用いてもよく、ブロックマッチングに限らず他の手法を用いてもよい。
視差補償部37は、視差検出部36bから供給された視差情報DTbに基づきYUV変換部33-Cで生成された色差信号Cuvの視差補償を行う。視差補償部37は、色差信号Cuvに対して視差検出部36bで生成された視差情報に基づき画素位置の移動を行い、撮像部21-Hで取得された撮像画の視点である視差補償色差信号CPuvを生成する。視差補償部37は、生成した視差補償色差信号CPuvを信号選択部41へ出力する。
フォールバック判定部38は、補間部31-Hから供給された輝度信号SDwとYUV変換部33-Cから供給された輝度信号Cy、および視差検出部36bから供給された視差情報DTbに基づき画質性能の低下のリスクを判定する。さらに、フォールバック判定部38は、画質性能の低下のリスクがない場合はYUV変換部33-Hで生成された色差信号Huvよりも色解像度の高い視差補償色差信号CPuvを選択して、画質性能の低下のリスクがある場合は色差信号Huvを選択するように信号選択制御信号ETを生成して信号選択部41へ出力する。
信号選択部41は、フォールバック判定部38からの信号選択制御信号ETに基づき、YUV変換部33-Hで生成された色差信号HuvまたはYUV変換部33-Cで生成されて視差補償が行われた視差補償色差信号CPuvのいずれかを色差信号SDuvとして出力する。
画像処理部30-3は、補間部31-Hから出力された輝度信号SDwと信号選択部41から出力された色差信号SDuvを、フュージョン画像の画像信号として表示部53や記録部56へ出力する。
なお、画像処理部の第3の実施の形態では、図16に示す動作を行い、ステップST2の視差検出において、上述のように、輝度信号Hy,Cyおよび色差信号Huv,Cuvを用いて視差検出を行えばよい。
このように、画像処理部の第3の実施の形態によれば、第1の実施の形態と同様に、撮像部21-Hまたは撮像部21-Cで取得される撮像画よりも画質性能の高い撮像画を表示または記録できるようになる。また、フュージョン処理で画質性能の低下のリスクがある場合でも、画質性能の低下を防止できる。さらに、高精度な視差補償が行われるので、第1視点の色差信号と色解像度の高い視差補償色差信号が撮像画単位で選択されることに起因する画質劣化を、第1の実施の形態に比べて低減できる。また、フォールバック判定の判定精度を第1の実施の形態よりも向上させることができる。
<6.第4の実施の形態>
次に、画像処理部の第4の実施の形態について説明する。第4の実施の形態では、視差検出精度を向上させることで視差補償色差信号CPuvの視差補償を高精度に行うことで、色差信号Huvと視差補償色差信号CPuvの画素単位の合成処理に起因する画質劣化を低減させる。
図26は、画像処理部の第4の実施の形態の構成を例示している。なお、上述の実施の形態との対応部分については同一符号を付している。画像処理部30-4は、補間部31-H、デモザイク処理部32-H、YUV変換部33-H、デモザイク処理部32-C、YUV変換部33-C、視差検出部36b、視差補償部37、信号合成部42を有している。
撮像部21-Hから出力された撮像信号PS-Hは、補間部31-Hとデモザイク処理部32-Hに入力される。また、撮像部21-Cから出力された撮像信号PS-Cは、デモザイク処理部32-Cに入力される。
補間部31-Hは、撮像信号PS-Hを用いて補間処理を行い、赤画素や青画素の位置における白画素の画素値を算出して、輝度信号SDwを生成して、デモザイク処理部32-Hと信号合成部42、および表示部53や記録部56へ出力する。
デモザイク処理部32-Hは、撮像部21-Hから出力された撮像信号PS-Hと補間部31-Hで生成された輝度信号SDwを用いて色成分毎の画像信号を生成してYUV変換部33-Hへ出力する。デモザイク処理部32-Cは、撮像部21-Cから出力された撮像信号PS-Cを用いて、従来と同様なデモザイク処理を行い、色成分毎の画像信号を生成してYUV変換部33-Cへ出力する。
YUV変換部33-Hは、デモザイク処理部32-Hで生成された三原色の画像信号の色空間変換を行い、輝度信号Hyと色差信号Huvを生成する。YUV変換部33-Hは、生成した輝度信号Hyを視差検出部36b、色差信号Huvを視差検出部36bと信号合成部42へそれぞれ出力する。YUV変換部33-Cは、デモザイク処理部32-Cで生成された三原色の画像信号の色空間変換を行い、輝度信号Cyと色差信号Cuvを生成する。YUV変換部33-Cは、生成した輝度信号Cyを視差検出部36a、色差信号Cuvを視差検出部36bと視差補償部37へそれぞれ出力する。
視差検出部36bは、YUV変換部33-Hからの輝度信号Hy色差信号HuvとYUV変換部33-Cからの輝度信号Cyと色差信号Cuvを用いて、撮像部21-Hで取得された撮像画を基準撮像画として撮像部21-Cで取得された撮像画の視差を検出する。視差検出部36bは、視差の検出結果を示す視差情報DTbを視差補償部37へ出力する。
視差補償部37は、視差検出部36bから供給された視差情報DTbに基づきYUV変換部33-Cで生成された色差信号Cuvの視差補償を行い、撮像部21-Hで取得された撮像画の視点である視差補償色差信号CPuvを生成する。視差補償部37は、生成した視差補償色差信号CPuvを信号合成部42へ出力する
信号合成部42は、画質性能が低下しないように、色差信号Huvと視差補償色差信号CPuvを合成する。
画像処理部30-4は、補間部31-Hから出力された輝度信号SDwと信号合成部42で生成された合成後の色差信号SDuvを、フュージョン画像の画像信号として表示部53や記録部56へ出力する。
なお、画像処理部の第4の実施の形態では、図23に示す動作を行い、ステップST22の視差検出において、上述のように、輝度信号Hy,Cyおよび色差信号Huv,Cuvを用いて視差検出を行えばよい。
このように、画像処理部の第4の実施の形態によれば、第2の実施の形態と同様に、撮像部21-Hまたは撮像部21-Cで取得される撮像画よりも画質性能の高い撮像画を表示または記録できるようになる。また、第1視点の色差信号と色解像度の高い視差補償色差信号との画素単位の合成処理に起因する画質劣化を、第2の実施の形態よりも低減できる。
<7.第5の実施の形態>
次に、画像処理部の第5の実施の形態について説明する。第5の実施の形態では、第3の実施の形態と同様に、視差検出精度を向上させることで視差補償色差信号CPuvの視差補償を高精度に行うことで、色差信号Huvと視差補償色差信号CPuvの撮像画単位の選択に起因する画質劣化の低減や、フォールバック判定の判定精度の向上を図る。また、第5の実施の形態では、輝度信号SDwを用いて視差検出を行う。
図27は、画像処理部の第5の実施の形態の構成を例示している。画像処理部30-5は、補間部31-H、デモザイク処理部32-H、YUV変換部33-H、デモザイク処理部32-C、YUV変換部33-C、視差検出部36b、視差補償部37、フォールバック判定部38、信号選択部41を有している。
撮像部21-Hから出力された撮像信号PS-Hは、補間部31-Hとデモザイク処理部32-Hに入力される。また、撮像部21-Cから出力された撮像信号PS-Cは、デモザイク処理部32-Cに入力される。
補間部31-Hは、撮像信号PS-Hを用いて補間処理を行い、赤画素や青画素の位置における白画素の画素値を算出して、輝度信号SDwを生成して、デモザイク処理部32-H、視差検出部36b、フォールバック判定部38、および表示部53や記録部56へ出力する。
デモザイク処理部32-Hは、撮像部21-Hから出力された撮像信号PS-Hと補間部31-Hで生成された輝度信号SDwを用いて色成分毎の画像信号を生成してYUV変換部33-Hへ出力する。デモザイク処理部32-Cは、撮像部21-Cから出力された撮像信号PS-Cを用いて、従来と同様なデモザイク処理を行い、色成分毎の画像信号を生成してYUV変換部33-Cへ出力する。
YUV変換部33-Hは、デモザイク処理部32-Hで生成された三原色の画像信号の色空間変換を行い、色差信号Huvを生成する。YUV変換部33-Hは、生成した色差信号Huvを視差検出部36bと信号選択部412へそれぞれ出力する。YUV変換部33-Cは、デモザイク処理部32-Cで生成された三原色の画像信号の色空間変換を行い、輝度信号Cyと色差信号Cuvを生成する。YUV変換部33-Cは、生成した輝度信号Cyを視差検出部36bとフォールバック判定部38、色差信号Cuvを視差検出部36bと視差補償部37へそれぞれ出力する。
視差検出部36bは、輝度信号SDw,Cyおよび色差信号Huv,Cuvを用いて視差検出を行い、検出した視差を示す視差情報DTbを生成して視差補償部37とフォールバック判定部38へ出力する。
視差補償部37は、視差検出部36bから供給された視差情報DTbに基づきYUV変換部33-Cで生成された色差信号Cuvの視差補償を行う。視差補償部37は、色差信号Cuvに対して視差検出部36bで生成された視差情報に基づき画素位置の移動を行い、撮像部21-Hで取得された撮像画の視点である視差補償色差信号CPuvを生成する。視差補償部37は、生成した視差補償色差信号CPuvを信号選択部41へ出力する。
フォールバック判定部38は、補間部31-Hから供給された輝度信号SDwとYUV変換部33-Cから供給された輝度信号Cy、および視差検出部36bから供給された視差情報DTbに基づき画質性能の低下のリスクを判定する。さらに、フォールバック判定部38は、画質性能の低下のリスクがない場合はYUV変換部33-Hで生成された色差信号Huvよりも色解像度の高い視差補償色差信号CPuvを選択して、画質性能の低下のリスクがある場合は色差信号Huvを選択するように信号選択制御信号ETを生成して信号選択部41へ出力する。
信号選択部41は、フォールバック判定部38からの信号選択制御信号ETに基づき、YUV変換部33-Hで生成された色差信号HuvまたはYUV変換部33-Cで生成されて視差補償が行われた視差補償色差信号CPuvのいずれかを色差信号SDuvとして出力する。
画像処理部30-3は、補間部31-Hから出力された輝度信号SDwと信号選択部41から出力された色差信号SDuvを、フュージョン画像の画像信号として表示部53や記録部56へ出力する。
なお、画像処理部の第5の実施の形態では、図16に示す動作を行い、ステップST2の視差検出において、上述のように、輝度信号SDw,Cyおよび色差信号Huv,Cuvを用いて視差検出を行えばよい。
このように、画像処理部の第5の実施の形態によれば、第3の実施の形態と同様な作用効果を得ることができる。なお、第5の実施の形態では、色差信号と輝度信号も用いて視差検出を行うことから、色差信号を用いて視差検出を行う第3の実施の形態よりも、視差検出を高精度に行うことができる。
<8.第6の実施の形態>
次に、画像処理部の第6の実施の形態について説明する。第6の実施の形態では、第4の実施の形態と同様に、視差検出精度を向上させることで視差補償色差信号CPuvの視差補償を高精度に行うことで、色差信号Huvと視差補償色差信号CPuvの合成処理に起因する画質劣化を防止する。また、第6の実施の形態では、輝度信号SDwを用いて視差検出を行う。
図28は、画像処理部の第6の実施の形態の構成を例示している。なお、上述の実施の形態との対応部分については同一符号を付している。画像処理部30-4は、補間部31-H、デモザイク処理部32-H、YUV変換部33-H、デモザイク処理部32-C、YUV変換部33-C、視差検出部36b、視差補償部37、信号合成部42を有している。
撮像部21-Hから出力された撮像信号PS-Hは、補間部31-Hとデモザイク処理部32-Hに入力される。また、撮像部21-Cから出力された撮像信号PS-Cは、デモザイク処理部32-Cに入力される。
補間部31-Hは、撮像信号PS-Hを用いて補間処理を行い、赤画素や青画素の位置における白画素の画素値を算出して、輝度信号SDwを生成して、デモザイク処理部32-H、視差検出部36b、信号合成部42、および表示部53や記録部56へ出力する。
デモザイク処理部32-Hは、撮像部21-Hから出力された撮像信号PS-Hと補間部31-Hで生成された輝度信号SDwを用いて色成分毎の画像信号を生成してYUV変換部33-Hへ出力する。デモザイク処理部32-Cは、撮像部21-Cから出力された撮像信号PS-Cを用いて、従来と同様なデモザイク処理を行い、色成分毎の画像信号を生成してYUV変換部33-Cへ出力する。
YUV変換部33-Hは、デモザイク処理部32-Hで生成された三原色の画像信号の色空間変換を行い、色差信号Huvを生成する。YUV変換部33-Hは、生成した色差信号Huvを視差検出部36bと信号合成部42へそれぞれ出力する。YUV変換部33-Cは、デモザイク処理部32-Cで生成された三原色の画像信号の色空間変換を行い、輝度信号Cyと色差信号Cuvを生成する。YUV変換部33-Cは、生成した輝度信号Cyを視差検出部36b、色差信号Cuvを視差検出部36bと視差補償部37へそれぞれ出力する。
視差検出部36bは、補間部31-Hからの輝度信号SDwとYUV変換部33-Hからの色差信号HuvとYUV変換部33-Cからの輝度信号Cyおよび色差信号Cuvを用いて、撮像部21-Hで取得された撮像画を基準撮像画として撮像部21-Cで取得された撮像画の視差を検出する。視差検出部36bは、視差の検出結果を示す視差情報DTbを視差補償部37へ出力する。
視差補償部37は、視差検出部36bから供給された視差情報DTbに基づきYUV変換部33-Cで生成された色差信号Cuvの視差補償を行い、撮像部21-Hで取得された撮像画の視点である視差補償色差信号CPuvを生成する。視差補償部37は、生成した視差補償色差信号CPuvを信号合成部42へ出力する。
信号合成部42は、画質性能が低下しないように、色差信号Huvと視差補償色差信号CPuvを合成する。
画像処理部30-6は、補間部31-Hから出力された輝度信号SDwと信号合成部42で生成された合成後の色差信号SDuvを、フュージョン画像の画像信号として表示部53や記録部56へ出力する。
なお、画像処理部の第6の実施の形態では、図23に示す動作を行い、ステップST22の視差検出において、上述のように、輝度信号SDw,Cyおよび色差信号Huv,Cuvを用いて視差検出を行えばよい。
このように、画像処理部の第6の実施の形態によれば、第4の実施の形態と同様な作用効果を得ることができる。なお、第6の実施の形態では、色差信号と輝度信号も用いて視差検出を行うことから、色差信号を用いて視差検出を行う第4の実施の形態よりも、視差検出を高精度に行うことができる。
<9.第7の実施の形態>
次に、画像処理部の第7の実施の形態について説明する。上述の第1乃至第7の実施の形態では、撮像部21-Cで取得された撮像画よりも色画素が少ない撮像部21-Hで取得された撮像画の信号を用いて色差信号Huvを生成している。すなわち、撮像部21-Hで取得された撮像画は、色画素のサンプリングレートが低いため色差信号Huvに例えば偽色(エリアシングノイズ)が発生しているおそれがある。このため、第7の実施の形態では、色差信号Huvを用いて視差検出を行う場合に、偽色等によって視差検出精度が低下することを防止する。
図29は、画像処理部の第7の実施の形態の構成を例示している。画像処理部30-7は、補間部31-H、デモザイク処理部32-H、YUV変換部33-H、デモザイク処理部32-C、YUV変換部33-C、周波数検出部34、コアリング処理部35、視差検出部36c、視差補償部37、フォールバック判定部38、信号選択部41を有している。
撮像部21-Hから出力された撮像信号PS-Hは、補間部31-Hとデモザイク処理部32-Hに入力される。また、撮像部21-Cから出力された撮像信号PS-Cは、デモザイク処理部32-Cに入力される。
補間部31-Hは、撮像信号PS-Hを用いて補間処理を行い、赤画素や青画素の位置における白画素の画素値を算出して、輝度信号SDwを生成して、デモザイク処理部32-H、視差検出部36b、フォールバック判定部38、および表示部53や記録部56へ出力する。
デモザイク処理部32-Hは、撮像部21-Hから出力された撮像信号PS-Hと補間部31-Hで生成された輝度信号SDwを用いて色成分毎の画像信号を生成してYUV変換部33-Hへ出力する。デモザイク処理部32-Cは、撮像部21-Cから出力された撮像信号PS-Cを用いて、従来と同様なデモザイク処理を行い、色成分毎の画像信号を生成してYUV変換部33-Cへ出力する。
YUV変換部33-Hは、デモザイク処理部32-Hで生成された三原色の画像信号の色空間変換を行い、色差信号Huvを生成する。YUV変換部33-Hは、生成した色差信号Huvを視差検出部36bと信号選択部412へそれぞれ出力する。YUV変換部33-Cは、デモザイク処理部32-Cで生成された三原色の画像信号の色空間変換を行い、輝度信号Cyと色差信号Cuvを生成する。YUV変換部33-Cは、生成した輝度信号Cyを視差検出部36bとフォールバック判定部38、色差信号Cuvを視差検出部36bと視差補償部37へそれぞれ出力する。
周波数検出部34は、図19に示す第2の実施の形態の信号合成部42における周波数検出部421と同様な動作を行う。すなわち、周波数検出部34は、補間部31-Hで生成された輝度信号SDwを用いて、画素毎に検出対象画素がどのような周波数特性の画像における画素であるかの検出結果であるアクティビティactを算出してコアリング処理部35へ出力する。
コアリング処理部35は、図19に示す第2の実施の形態の信号合成部42におけるコアリング処理部422と同様な動作を行う。すなわち、コアリング処理部35は、アクティビティactに応じた合成比αaを画素毎に設定する。コアリング処理部35では、アクティビティactに対する合成比αaを示すコアリングカーブが記憶されており、周波数検出部34で検出されたアクティビティactに対する合成比αaをコアリングカーブから求める。コアリング処理部35は、アクティビティactに応じた合成比αaを設定して視差検出部36cへ出力する。
視差検出部36cは、輝度信号SDw,Cyと色差信号Huv,Cuvおよびコアリング処理部35で設定された合成比αaを用いて視差検出を行い、検出した視差を示す視差情報DTcを生成して視差補償部37とフォールバック判定部38へ出力する。視差検出部36cは、例えば図25に示す視差検出部36bと同様な構成として、コスト統合部364は、コスト算出部361,362,363で算出されたコスト値の統合を、式(24)に示すように合成比αaを用いて行う。このようにして統合コスト値に基づき視差検出を行うようにすれば、輝度信号が高域領域であるときは色差信号に基づくコストを使わないようにすることで、例えば色差信号に偽色が含まれても、偽色の影響を受けることなく視差検出を行えるようになる。
COST =COSTy + αa×(COSTu+COSTv) ・・・(24)
視差補償部37は、視差検出部36cから供給された視差情報DTcに基づきYUV変換部33-Cで生成された色差信号Cuvの視差補償を行う。視差補償部37は、色差信号Cuvに対して視差検出部36cで生成された視差情報に基づき画素位置の移動を行い、撮像部21-Hで取得された撮像画の視点である視差補償色差信号CPuvを生成する。視差補償部37は、生成した視差補償色差信号CPuvを信号選択部41へ出力する。
フォールバック判定部38は、補間部31-Hから供給された輝度信号SDwとYUV変換部33-Cから供給された輝度信号Cy、および視差検出部36cから供給された視差情報DTcに基づき画質性能の低下のリスクを判定する。さらに、フォールバック判定部38は、画質性能の低下のリスクがない場合はYUV変換部33-Hで生成された色差信号Huvよりも色解像度の高い視差補償色差信号CPuvを選択して、画質性能の低下のリスクがある場合は色差信号Huvを選択するように信号選択制御信号ETを生成して信号選択部41へ出力する。
信号選択部41は、フォールバック判定部38からの信号選択制御信号ETに基づき、YUV変換部33-Hで生成された色差信号HuvまたはYUV変換部33-Cで生成されて視差補償が行われた視差補償色差信号CPuvのいずれかを色差信号SDuvとして出力する。
画像処理部30-3は、補間部31-Hから出力された輝度信号SDwと信号選択部41から出力された色差信号SDuvを、フュージョン画像の画像信号として表示部53や記録部56へ出力する。
なお、画像処理部の第7の実施の形態では、図16に示す動作を行い、ステップST2の視差検出において、上述のように、輝度信号SDw,Cyと色差信号Huv,Cuvおよび合成比αaを用いて視差検出を行えばよい。
このように、画像処理部の第7の実施の形態によれば、第5の実施の形態と同様な作用効果を得ることができる。さらに、第7の実施の形態では、画素毎に検出対象画素がどのような周波数特性の画像における画素であるかの検出結果に基づいて設定された合成比を用いて視差検出が行われることから、偽色等の影響を受けることなく視差検出を行えるようになる。
<10.第8の実施の形態>
次に、画像処理部の第8の実施の形態について説明する。上述の第1乃至第7の実施の形態では、撮像部21-Cで取得された撮像画よりも色画素が少ない撮像部21-Hで取得された撮像画の信号を用いて色差信号Huvを生成している。すなわち、撮像部21-Hで取得された撮像画は、色画素のサンプリングレートが低いため色差信号Huvに例えば偽色(エリアシングノイズ)が発生しているおそれがある。そこで、第8の実施の形態では、色差信号Huvの選択や色差信号Huvを用いた合成処理が行われても、色画素のサンプリングレートが低いことによる画質性能の低下を防止する。
図30は、画像処理部の第8の実施の形態の構成を例示している。画像処理部30-8は、補間部31-H、デモザイク処理部32-H、YUV変換部33-H、デモザイク処理部32-C、YUV変換部33-C、視差検出部36a、視差補償部37、フォールバック判定部38、色画質改善部39、信号選択部41を有している。
撮像部21-Hから出力された撮像信号PS-Hは、補間部31-Hとデモザイク処理部32-Hに入力される。また、撮像部21-Cから出力された撮像信号PS-Cは、デモザイク処理部32-Cに入力される。
補間部31-Hは、撮像信号PS-Hを用いて補間処理を行い、赤画素や青画素の位置における白画素の画素値を算出して、輝度信号SDwを生成して、デモザイク処理部32-H、フォールバック判定部38、色画質改善部39および表示部53や記録部56へ出力する。
デモザイク処理部32-Hは、撮像部21-Hから出力された撮像信号PS-Hと補間部31-Hで生成された輝度信号SDwを用いて色成分毎の画像信号を生成してYUV変換部33-Hへ出力する。デモザイク処理部32-Cは、撮像部21-Cから出力された撮像信号PS-Cを用いて、従来と同様なデモザイク処理を行い、色成分毎の画像信号を生成してYUV変換部33-Cへ出力する。
YUV変換部33-Hは、デモザイク処理部32-Hで生成された三原色の画像信号の色空間変換を行い、輝度信号Hyと色差信号Huvを生成する。YUV変換部33-Hは、生成した輝度信号Hyを視差検出部36a、生成した色差信号Huvを色画質改善部39へそれぞれ出力する。YUV変換部33-Cは、デモザイク処理部32-Cで生成された三原色の画像信号の色空間変換を行い、輝度信号Cyと色差信号Cuvを生成する。YUV変換部33-Cは、生成した輝度信号Cyを視差検出部36aとフォールバック判定部38、色差信号Cuvを視差補償部37へそれぞれ出力する。
視差検出部36aは、輝度信号Hy,Cyを用いて視差検出を行い、検出した視差を示す視差情報DTaを生成して視差補償部37とフォールバック判定部38へ出力する。
視差補償部37は、視差検出部36aから供給された視差情報DTaに基づきYUV変換部33-Cで生成された色差信号Cuvの視差補償を行う。視差補償部37は、色差信号Cuvに対して視差検出部36aで生成された視差情報に基づき画素位置の移動を行い、撮像部21-Hで取得された撮像画の視点である視差補償色差信号CPuvを生成する。視差補償部37は、生成した視差補償色差信号CPuvを信号選択部41へ出力する。
フォールバック判定部38は、補間部31-Hから供給された輝度信号SDwとYUV変換部33-Cから供給された輝度信号Cy、および視差検出部36aから供給された視差情報DTaに基づき画質性能の低下のリスクを判定する。さらに、フォールバック判定部38は、画質性能の低下のリスクがない場合は色差信号Huvよりも色解像度の高い視差補償色差信号CPuvを選択して、画質性能の低下のリスクがある場合は色画質改善部39で画質改善処理が行われている画質改善色差信号HQuvを選択するように信号選択制御信号ETを生成して信号選択部41へ出力する。
色画質改善部39は、補間部31-Hで生成された輝度信号SDwに基づきYUV変換部33-Hで生成された色差信号Huvの画質改善処理を行い、画質改善色差信号HQuvを生成して信号選択部41へ出力する。
図31は、色画質改善部の構成を例示している。色画質改善部39は、周波数検出部391、コアリング処理部392、低域通過フィルタ393、合成処理部394を有している。
周波数検出部391は、図19に示す第2の実施の形態の信号合成部42における周波数検出部421と同様な動作を行う。すなわち、周波数検出部391は、補間部31-Hで生成された輝度信号SDwを用いて、画素毎に検出対象画素がどのような周波数特性の画像における画素であるかの検出結果であるアクティビティactを算出してコアリング処理部392へ出力する。
コアリング処理部392は、図19に示す第2の実施の形態の信号合成部42におけるコアリング処理部422と同様な動作を行う。すなわち、コアリング処理部392は、アクティビティactに応じた合成比αaを画素毎に設定する。コアリング処理部392では、アクティビティactに対する合成比αaを示すコアリングカーブが記憶されており、周波数検出部391で検出されたアクティビティactに対する合成比αaをコアリングカーブから求める。コアリング処理部392は、アクティビティactに応じた合成比αaを設定して合成処理部394へ出力する。
低域通過フィルタ393は、色差信号Huvの低域通過フィルタ処理を行い、高域成分例えば偽色等の成分を除去して、フィルタ処理後の色差信号HuvLPFを合成処理部394へ出力する。
合成処理部394は、コアリング処理部392で設定された合成比αaで色差信号Huvとフィルタ処理後の色差信号HuvLPFを合成する。式(25)(26)は、合成処理部394で行われる処理を示している。合成処理部394は、合成後である画質改善色差信号HQuvを信号選択部41へ出力する。
HQu = (1−αa)HuLPF + αaHu ・・・(25)
HQv = (1−αa)HvLPF + αaHv ・・・(26)
信号選択部41は、フォールバック判定部38からの信号選択制御信号ETに基づき、色画質改善部39から供給された画質改善色差信号HQuvまたはYUV変換部33-Cで生成されて視差補償が行われた視差補償色差信号CPuvのいずれかを色差信号SDuvとして出力する。
画像処理部30-8は、補間部31-Hから出力された輝度信号SDwと信号選択部41から出力された色差信号SDuvを、フュージョン画像の画像信号として表示部53や記録部56へ出力する。
なお、画像処理部の第8の実施の形態では、図16に示す動作を行い、ステップST1の前処理において、上述のように、輝度信号SDwを用いて色差信号Huvの画質改善を行うようにすればよい。
このように、画像処理部の第8の実施の形態によれば、第1の実施の形態と同様な作用効果を得ることができる。また、第8の実施の形態では、画素毎に検出対象画素がどのような周波数特性の画像における画素であるかの検出結果に基づいて第1視点の色差信号Huvの画質改善が行われるので、第1視点の色差信号の選択や合成処理が行われても、撮像部21-Hにおける色画素のサンプリングレートが低いことによる画質性能の低下を防止できる。
<11.第9の実施の形態>
上述の第1乃至第8の実施の形態では、色差信号に対して画質性能の低下を生じないようにフュージョン処理を行う場合について説明したが、第9の実施の形態では、輝度信号の画質性能を向上させる処理について説明する。
図32は、画像処理部の第9の実施の形態の構成を例示している。画像処理部30-9は、補間部31-H、デモザイク処理部32-H、YUV変換部33-H、デモザイク処理部32-C、YUV変換部33-C、視差検出部36a、視差補償部37、フォールバック判定部38、信号選択部41、輝度画質改善部43を有している。
撮像部21-Hから出力された撮像信号PS-Hは、補間部31-Hとデモザイク処理部32-Hに入力される。また、撮像部21-Cから出力された撮像信号PS-Cは、デモザイク処理部32-Cに入力される。
補間部31-Hは、撮像信号PS-Hを用いて補間処理を行い、赤画素や青画素の位置における白画素の画素値を算出して、輝度信号SDwを生成して、デモザイク処理部32-H、フォールバック判定部38、色画質改善部39および表示部53や記録部56へ出力する。
デモザイク処理部32-Hは、撮像部21-Hから出力された撮像信号PS-Hと補間部31-Hで生成された輝度信号SDwを用いて色成分毎の画像信号を生成してYUV変換部33-Hへ出力する。デモザイク処理部32-Cは、撮像部21-Cから出力された撮像信号PS-Cを用いて、従来と同様なデモザイク処理を行い、色成分毎の画像信号を生成してYUV変換部33-Cへ出力する。
YUV変換部33-Hは、デモザイク処理部32-Hで生成された三原色の画像信号の色空間変換を行い、輝度信号Hyと色差信号Huvを生成する。YUV変換部33-Hは、生成した輝度信号Hyを視差検出部36a、生成した色差信号Huvを色画質改善部39へそれぞれ出力する。YUV変換部33-Cは、デモザイク処理部32-Cで生成された三原色の画像信号の色空間変換を行い、輝度信号Cyと色差信号Cuvを生成する。YUV変換部33-Cは、生成した輝度信号Cyを視差検出部36aと視差補償部37、色差信号Cuvを視差補償部37へそれぞれ出力する。
視差検出部36aは、輝度信号Hy,Cyを用いて視差検出を行い、検出した視差を示す視差情報DTaを生成して視差補償部37とフォールバック判定部38へ出力する。
視差補償部37は、視差検出部36aから供給された視差情報DTaに基づきYUV変換部33-Cで生成された色差信号Cuvの視差補償を行う。視差補償部37は、色差信号Cuvに対して視差検出部36aで生成された視差情報に基づき画素位置の移動を行い、撮像部21-Hで取得された撮像画の視点である視差補償色差信号CPuvを生成する。視差補償部37は、生成した視差補償色差信号CPuvを信号選択部41へ出力する。
また、視差補償部37は、視差検出部36aから供給された視差情報DTaに基づきYUV変換部33-Cで生成された輝度信号Cyの視差補償を行う。視差補償部37は、輝度信号Cyに対して視差検出部36aで生成された視差情報に基づき画素位置の移動を行い、撮像部21-Hで取得された撮像画の視点である視差補償輝度信号CPyを生成する。視差補償部37は、生成した視差補償輝度信号CPyを輝度画質改善部43へ出力する。
フォールバック判定部38は、補間部31-Hから供給された輝度信号SDwとYUV変換部33-Cから供給された輝度信号Cy、および視差検出部36aから供給された視差情報DTaに基づき画質性能の低下のリスクを判定する。さらに、フォールバック判定部38は、画質性能の低下のリスクがない場合は色差信号Huvよりも色解像度の高い視差補償色差信号CPuvを選択して、画質性能の低下のリスクがある場合は色画質改善部39で画質改善処理が行われている画質改善色差信号HQuvを選択するように信号選択制御信号ETを生成して信号選択部41へ出力する。
信号選択部41は、フォールバック判定部38からの信号選択制御信号ETに基づき、色画質改善部39から供給された画質改善色差信号HQuvまたはYUV変換部33-Cで生成されて視差補償が行われた視差補償色差信号CPuvのいずれかを色差信号SDuvとして出力する。
輝度画質改善部43は、補間部31-Hで生成された輝度信号SDwと視差補償部37から供給された視差補償輝度信号CPyを撮像部21-Hのノイズ強度に応じて合成して、撮像部21-Hのノイズの影響を低減して輝度画質を改善する。輝度画質改善部43は、式(27)に示すように、画素毎に輝度信号SDwと視差補償輝度信号CPyとノイズ強度σに基づいて合成比αyを算出する。また、輝度画質改善部43は、式(28)に示すように、画素毎に輝度信号SDwと視差補償輝度信号CPyを合成比αyで合成して輝度信号SDyを生成する。
Figure 2018179671
画像処理部30-9は、輝度画質改善部43から出力された輝度信号SDyと信号選択部41から出力された色差信号SDuvを、フュージョン画像の画像信号として表示部53や記録部56へ出力する。
なお、画像処理部の第9の実施の形態では、図16に示す動作を行い、ステップST3の後のタイミングで輝度信号SDwと視差補償輝度信号CPyの合成を行い、輝度画質が改善された輝度信号SDyを生成すればよい。
このように、画像処理部の第9の実施の形態によれば、第1の実施の形態と同様な作用効果を得ることができる。また、第9の実施の形態では、輝度信号の合成処理が行われることから、第1の実施の形態に比べて輝度信号の画質性能を向上させることができる。
<12.第10の実施の形態>
上述の第2の実施の形態では、色差信号Huvと色解像度の高い視差補償色差信号CPuvを、画質性能の低下を生じないように輝度信号SDwに基づいて選択する場合を説明したが、第10の実施の形態では、撮像画単位のフォールバック判定結果を用いて、画質性能の低下を生じないように色差信号Huvと視差補償色差信号CPuvを合成処理する場合について説明する。
図33は、画像処理部の第10の実施の形態の構成を例示している。画像処理部30-10は、補間部31-H、デモザイク処理部32-H、YUV変換部33-H、デモザイク処理部32-C、YUV変換部33-C、視差検出部36a、視差補償部37、フォールバック判定部38、信号合成部42aを有している。
撮像部21-Hから出力された撮像信号PS-Hは、補間部31-Hとデモザイク処理部32-Hに入力される。また、撮像部21-Cから出力された撮像信号PS-Cは、デモザイク処理部32-Cに入力される。
補間部31-Hは、撮像信号PS-Hを用いて補間処理を行い、赤画素や青画素の位置における白画素の画素値を算出して、輝度信号SDwを生成して、デモザイク処理部32-H、フォールバック判定部38、信号合成部42aおよび表示部53や記録部56へ出力する。
デモザイク処理部32-Hは、撮像部21-Hから出力された撮像信号PS-Hと補間部31-Hで生成された輝度信号SDwを用いて色成分毎の画像信号を生成してYUV変換部33-Hへ出力する。デモザイク処理部32-Cは、撮像部21-Cから出力された撮像信号PS-Cを用いて、従来と同様なデモザイク処理を行い、色成分毎の画像信号を生成してYUV変換部33-Cへ出力する。
YUV変換部33-Hは、デモザイク処理部32-Hで生成された三原色の画像信号の色空間変換を行い、輝度信号Hyと色差信号Huvを生成する。YUV変換部33-Hは、生成した輝度信号Hyを視差検出部36a、生成した色差信号Huvを信号合成部42aへそれぞれ出力する。YUV変換部33-Cは、デモザイク処理部32-Cで生成された三原色の画像信号の色空間変換を行い、輝度信号Cyと色差信号Cuvを生成する。YUV変換部33-Cは、生成した輝度信号Cyを視差検出部36aとフォールバック判定部38、色差信号Cuvを視差補償部37へそれぞれ出力する。
視差検出部36aは、輝度信号Hy,Cyを用いて視差検出を行い、検出した視差を示す視差情報DTaを生成して視差補償部37とフォールバック判定部38へ出力する。
視差補償部37は、視差検出部36aから供給された視差情報DTaに基づきYUV変換部33-Cで生成された色差信号Cuvの視差補償を行う。視差補償部37は、色差信号Cuvに対して視差検出部36aで生成された視差情報に基づき画素位置の移動を行い、撮像部21-Hで取得された撮像画の視点である視差補償色差信号CPuvを生成する。視差補償部37は、生成した視差補償色差信号CPuvを信号選択部41へ出力する。
フォールバック判定部38は、補間部31-Hから供給された輝度信号SDwとYUV変換部33-Cから供給された輝度信号Cy、および視差検出部36aから供給された視差情報DTaに基づき画質性能の低下のリスクを撮像画単位で判定する。さらに、フォールバック判定部38は、判定した画質性能の低下のリスクを撮像画単位でスコア化して判別情報ESとする。図10に示すフォールバック判定部38の統合判定処理部3828は、個別判定部3821〜3825から供給された個別判定結果を用いてフォールバック判定を行い、例えば画質の劣化を生じると判定された判定結果の数を判別情報ESとしてもよく、画質の劣化を生じると判定された判定結果を個々にスコア化して、各判定結果のスコア加算値を判別情報ESとしてもよい。
信号合成部42aは、フォールバック判定部38からの判別情報ESに基づき、YUV変換部33-Hから供給された色差信号HuvまたはYUV変換部33-Cで生成されて視差補償が行われた視差補償色差信号CPuvを合成して色差信号SDuvを生成する。
図34は、信号合成部の構成を例示している。なお、図19に示す第2の実施の形態における信号合成部42と対応する部分については同一符号を付している。
信号合成部42aは、周波数検出部421、コアリング処理部422a、低域通過フィルタ423,424、差分算出部425、絶対値算出部426、コアリング処理部427a、合成比設定部428および合成処理部429を有している。
周波数検出部421は、補間部31-Hで生成された輝度信号SDwを用いて、画素毎に検出対象画素がどのような周波数特性の画像における画素であるか検出して、画素毎にアクティビティactを算出してコアリング処理部422aへ出力する。
コアリング処理部422aは、アクティビティactに応じた合成比αaをコアリングカーブに基づいて画素毎に設定する。コアリングカーブは、アクティビティactに対する合成比αaを示している。また、コアリング処理部422aは、判別情報ESに応じたコアリングカーブを用いる。コアリングカーブはコアリング処理部422aに予め記憶されていてもよく、判別情報ESに応じてコアリングカーブをコアリング処理部422aで生成してもよい。なお、判別情報ESに応じたコアリングカーブについては後述する。
低域通過フィルタ423は色差信号Huvの低域通過フィルタ処理を行い、低域通過フィルタ424は視差補償色差信号CPuvの低域通過フィルタ処理を行うことで、それぞれの色差信号の帯域を等しくする。また、低域通過フィルタ423,424は、低域通過フィルタ処理を行うことで色差信号の偽色等のノイズ成分を除去する。低域通過フィルタ423,424は、フィルタ処理後の色差信号を差分算出部425へ出力する。
差分算出部425は、低域通過フィルタ423から供給された低域通過フィルタ処理後の色差信号Huvと、低域通過フィルタ423から供給された低域通過フィルタ処理後の視差補償色差信号CPuvの差分を画素毎に算出して絶対値算出部426へ出力する。
絶対値算出部426は、差分算出部425で画素毎に算出された差分絶対値absを算出してコアリング処理部427aへ出力する。
コアリング処理部427aは、差分絶対値absに応じた合成比αbをコアリングカーブに基づいて設定する。コアリングカーブは、差分絶対値absに対する合成比αbを示している。また、コアリング処理部427aは、判別情報ESに応じたコアリングカーブを用いる。
図35は、コアリングカーブと判別情報の関係を例示している。なお、図35の(a)と(c)はコアリング処理部422aで用いられるコアリングカーブを例示しており、図35の(b)と(d)はコアリング処理部427aで用いられるコアリングカーブを例示している。
コアリング処理部422aは、判別情報ESに基づき画質性能の低下のリスクが高くなるに伴い閾値Tha0,Tha1を小さくして、アクティビティactに対する合成比αaが小さくなるようにする。
また、コアリング処理部427aは、判別情報ESに基づき画質性能の低下のリスクが高くなるに伴い閾値Thb0,Thb1を大きくして、差分絶対値abs対する合成比αbが大きくなるようにする。
合成比設定部428は、コアリング処理部422aから供給された合成比αaとコアリング処理部427aから供給された合成比αbを用いて上述の式(22)の処理を行い、合成比αa,αbのいずれか値の大きい合成比を、色差信号Huvと視差補償色差信号CPuvの合成比に設定して合成処理部429へ出力する。
合成処理部429は、合成比設定部428で設定された合成比αを用いて上述の式(23)の演算を画素毎に行い、色差信号Huvと視差補償色差信号CPuvが合成された色差信号SDuvを生成する。
画像処理部30-10は、補間部31-Hから出力された輝度信号SDwと信号合成部42aから出力された色差信号SDuvを、フュージョン画像の画像信号として表示部53や記録部56へ出力する。
なお、画像処理部の第10の実施の形態では、図16に示す動作を行い、ステップST5の後のタイミングで図23のステップST24の処理を行い、ステップST5で生成された判別情報ESに応じたコアリングカーブを用いて色差信号Huvと視差補償色差信号CPuvの合成を行い、色差信号SDuvを生成すればよい。
このように、画像処理部の第10の実施の形態によれば、第2の実施の形態と同様な作用効果を得ることができる。また、第10の実施の形態では、撮像画単位のフォールバック判定結果も用いて合成比の設定が行われるので、第1視点の色差信号と色解像度の高い視差補償色差信号との画素単位の合成処理に起因する画質劣化を、第2の実施の形態よりも効果的に防止できる。
<13.応用例>
本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、情報処理端末に限らず、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。
図36は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システム7000の概略的な構成例を示すブロック図である。車両制御システム7000は、通信ネットワーク7010を介して接続された複数の電子制御ユニットを備える。図36に示した例では、車両制御システム7000は、駆動系制御ユニット7100、ボディ系制御ユニット7200、バッテリ制御ユニット7300、車外情報検出ユニット7400、車内情報検出ユニット7500、及び統合制御ユニット7600を備える。これらの複数の制御ユニットを接続する通信ネットワーク7010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークであってよい。
各制御ユニットは、各種プログラムにしたがって演算処理を行うマイクロコンピュータと、マイクロコンピュータにより実行されるプログラム又は各種演算に用いられるパラメータ等を記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備える。各制御ユニットは、通信ネットワーク7010を介して他の制御ユニットとの間で通信を行うためのネットワークI/Fを備えるとともに、車内外の装置又はセンサ等との間で、有線通信又は無線通信により通信を行うための通信I/Fを備える。図36では、統合制御ユニット7600の機能構成として、マイクロコンピュータ7610、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660、音声画像出力部7670、車載ネットワークI/F7680及び記憶部7690が図示されている。他の制御ユニットも同様に、マイクロコンピュータ、通信I/F及び記憶部等を備える。
駆動系制御ユニット7100は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット7100は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。駆動系制御ユニット7100は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)等の制御装置としての機能を有してもよい。
駆動系制御ユニット7100には、車両状態検出部7110が接続される。車両状態検出部7110には、例えば、車体の軸回転運動の角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、あるいは、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数又は車輪の回転速度等を検出するためのセンサのうちの少なくとも一つが含まれる。駆動系制御ユニット7100は、車両状態検出部7110から入力される信号を用いて演算処理を行い、内燃機関、駆動用モータ、電動パワーステアリング装置又はブレーキ装置等を制御する。
ボディ系制御ユニット7200は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット7200は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット7200には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット7200は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
バッテリ制御ユニット7300は、各種プログラムにしたがって駆動用モータの電力供給源である二次電池7310を制御する。例えば、バッテリ制御ユニット7300には、二次電池7310を備えたバッテリ装置から、バッテリ温度、バッテリ出力電圧又はバッテリの残存容量等の情報が入力される。バッテリ制御ユニット7300は、これらの信号を用いて演算処理を行い、二次電池7310の温度調節制御又はバッテリ装置に備えられた冷却装置等の制御を行う。
車外情報検出ユニット7400は、車両制御システム7000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット7400には、撮像部7410及び車外情報検出部7420のうちの少なくとも一方が接続される。撮像部7410には、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ及びその他のカメラのうちの少なくとも一つが含まれる。車外情報検出部7420には、例えば、現在の天候又は気象を検出するための環境センサ、あるいは、車両制御システム7000を搭載した車両の周囲の他の車両、障害物又は歩行者等を検出するための周囲情報検出センサのうちの少なくとも一つが含まれる。
環境センサは、例えば、雨天を検出する雨滴センサ、霧を検出する霧センサ、日照度合いを検出する日照センサ、及び降雪を検出する雪センサのうちの少なくとも一つであってよい。周囲情報検出センサは、超音波センサ、レーダ装置及びLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置のうちの少なくとも一つであってよい。これらの撮像部7410及び車外情報検出部7420は、それぞれ独立したセンサないし装置として備えられてもよいし、複数のセンサないし装置が統合された装置として備えられてもよい。
ここで、図37は、撮像部7410及び車外情報検出部7420の設置位置の例を示す。撮像部7910,7912,7914,7916,7918は、例えば、車両7900のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部のうちの少なくとも一つの位置に設けられる。フロントノーズに備えられる撮像部7910及び車室内のフロントガラスの上部に備えられる撮像部7918は、主として車両7900の前方の画像を取得する。サイドミラーに備えられる撮像部7912,7914は、主として車両7900の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部7916は、主として車両7900の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部7918は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
なお、図37には、それぞれの撮像部7910,7912,7914,7916の撮影範囲の一例が示されている。撮像範囲aは、フロントノーズに設けられた撮像部7910の撮像範囲を示し、撮像範囲b,cは、それぞれサイドミラーに設けられた撮像部7912,7914の撮像範囲を示し、撮像範囲dは、リアバンパ又はバックドアに設けられた撮像部7916の撮像範囲を示す。例えば、撮像部7910,7912,7914,7916で撮像された画像データが重ね合わせられることにより、車両7900を上方から見た俯瞰画像が得られる。
車両7900のフロント、リア、サイド、コーナ及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7922,7924,7926,7928,7930は、例えば超音波センサ又はレーダ装置であってよい。車両7900のフロントノーズ、リアバンパ、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7926,7930は、例えばLIDAR装置であってよい。これらの車外情報検出部7920〜7930は、主として先行車両、歩行者又は障害物等の検出に用いられる。
図36に戻って説明を続ける。車外情報検出ユニット7400は、撮像部7410に車外の画像を撮像させるとともに、撮像された画像データを受信する。また、車外情報検出ユニット7400は、接続されている車外情報検出部7420から検出情報を受信する。車外情報検出部7420が超音波センサ、レーダ装置又はLIDAR装置である場合には、車外情報検出ユニット7400は、超音波又は電磁波等を発信させるとともに、受信された反射波の情報を受信する。車外情報検出ユニット7400は、受信した情報に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、降雨、霧又は路面状況等を認識する環境認識処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、車外の物体までの距離を算出してもよい。
また、車外情報検出ユニット7400は、受信した画像データに基づいて、人、車、障害物、標識又は路面上の文字等を認識する画像認識処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した画像データに対して歪補正又は位置合わせ等の処理を行うとともに、異なる撮像部7410により撮像された画像データを合成して、俯瞰画像又はパノラマ画像を生成してもよい。車外情報検出ユニット7400は、異なる撮像部7410により撮像された画像データを用いて、視点変換処理を行ってもよい。
車内情報検出ユニット7500は、車内の情報を検出する。車内情報検出ユニット7500には、例えば、運転者の状態を検出する運転者状態検出部7510が接続される。運転者状態検出部7510は、運転者を撮像するカメラ、運転者の生体情報を検出する生体センサ又は車室内の音声を集音するマイク等を含んでもよい。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座った搭乗者又はステアリングホイールを握る運転者の生体情報を検出する。車内情報検出ユニット7500は、運転者状態検出部7510から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。車内情報検出ユニット7500は、集音された音声信号に対してノイズキャンセリング処理等の処理を行ってもよい。
統合制御ユニット7600は、各種プログラムにしたがって車両制御システム7000内の動作全般を制御する。統合制御ユニット7600には、入力部7800が接続されている。入力部7800は、例えば、タッチパネル、ボタン、マイクロフォン、スイッチ又はレバー等、搭乗者によって入力操作され得る装置によって実現される。統合制御ユニット7600には、マイクロフォンにより入力される音声を音声認識することにより得たデータが入力されてもよい。入力部7800は、例えば、赤外線又はその他の電波を利用したリモートコントロール装置であってもよいし、車両制御システム7000の操作に対応した携帯電話又はPDA(Personal Digital Assistant)等の外部接続機器であってもよい。入力部7800は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。あるいは、搭乗者が装着したウェアラブル装置の動きを検出することで得られたデータが入力されてもよい。さらに、入力部7800は、例えば、上記の入力部7800を用いて搭乗者等により入力された情報に基づいて入力信号を生成し、統合制御ユニット7600に出力する入力制御回路などを含んでもよい。搭乗者等は、この入力部7800を操作することにより、車両制御システム7000に対して各種のデータを入力したり処理動作を指示したりする。
記憶部7690は、マイクロコンピュータにより実行される各種プログラムを記憶するROM(Read Only Memory)、及び各種パラメータ、演算結果又はセンサ値等を記憶するRAM(Random Access Memory)を含んでいてもよい。また、記憶部7690は、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等によって実現してもよい。
汎用通信I/F7620は、外部環境7750に存在する様々な機器との間の通信を仲介する汎用的な通信I/Fである。汎用通信I/F7620は、GSM(Global System of Mobile communications)、WiMAX、LTE(Long Term Evolution)若しくはLTE−A(LTE−Advanced)などのセルラー通信プロトコル、又は無線LAN(Wi−Fi(登録商標)ともいう)、Bluetooth(登録商標)などのその他の無線通信プロトコルを実装してよい。汎用通信I/F7620は、例えば、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)へ接続してもよい。また、汎用通信I/F7620は、例えばP2P(Peer To Peer)技術を用いて、車両の近傍に存在する端末(例えば、運転者、歩行者若しくは店舗の端末、又はMTC(Machine Type Communication)端末)と接続してもよい。
専用通信I/F7630は、車両における使用を目的として策定された通信プロトコルをサポートする通信I/Fである。専用通信I/F7630は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、DSRC(Dedicated Short Range Communications)、又はセルラー通信プロトコルといった標準プロトコルを実装してよい。専用通信I/F7630は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、車両と家との間(Vehicle to Home)の通信及び歩車間(Vehicle to Pedestrian)通信のうちの1つ以上を含む概念であるV2X通信を遂行する。
測位部7640は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する。なお、測位部7640は、無線アクセスポイントとの信号の交換により現在位置を特定してもよく、又は測位機能を有する携帯電話、PHS若しくはスマートフォンといった端末から位置情報を取得してもよい。
ビーコン受信部7650は、例えば、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行止め又は所要時間等の情報を取得する。なお、ビーコン受信部7650の機能は、上述した専用通信I/F7630に含まれてもよい。
車内機器I/F7660は、マイクロコンピュータ7610と車内に存在する様々な車内機器7760との間の接続を仲介する通信インタフェースである。車内機器I/F7660は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)又はWUSB(Wireless USB)といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器I/F7660は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(High-Definition Multimedia Interface)、又はMHL(Mobile High-definition Link)等の有線接続を確立してもよい。車内機器7760は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、又は車両に搬入され若しくは取り付けられる情報機器のうちの少なくとも1つを含んでいてもよい。また、車内機器7760は、任意の目的地までの経路探索を行うナビゲーション装置を含んでいてもよい。車内機器I/F7660は、これらの車内機器7760との間で、制御信号又はデータ信号を交換する。
車載ネットワークI/F7680は、マイクロコンピュータ7610と通信ネットワーク7010との間の通信を仲介するインタフェースである。車載ネットワークI/F7680は、通信ネットワーク7010によりサポートされる所定のプロトコルに則して、信号等を送受信する。
統合制御ユニット7600のマイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、各種プログラムにしたがって、車両制御システム7000を制御する。例えば、マイクロコンピュータ7610は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット7100に対して制御指令を出力してもよい。例えば、マイクロコンピュータ7610は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行ってもよい。また、マイクロコンピュータ7610は、取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行ってもよい。
マイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、車両と周辺の構造物や人物等の物体との間の3次元距離情報を生成し、車両の現在位置の周辺情報を含むローカル地図情報を作成してもよい。また、マイクロコンピュータ7610は、取得される情報に基づき、車両の衝突、歩行者等の近接又は通行止めの道路への進入等の危険を予測し、警告用信号を生成してもよい。警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号であってよい。
音声画像出力部7670は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図36の例では、出力装置として、オーディオスピーカ7710、表示部7720及びインストルメントパネル7730が例示されている。表示部7720は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。表示部7720は、AR(Augmented Reality)表示機能を有していてもよい。出力装置は、これらの装置以外の、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ又はランプ等の他の装置であってもよい。出力装置が表示装置の場合、表示装置は、マイクロコンピュータ7610が行った各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。また、出力装置が音声出力装置の場合、音声出力装置は、再生された音声データ又は音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
なお、図36に示した例において、通信ネットワーク7010を介して接続された少なくとも二つの制御ユニットが一つの制御ユニットとして一体化されてもよい。あるいは、個々の制御ユニットが、複数の制御ユニットにより構成されてもよい。さらに、車両制御システム7000が、図示されていない別の制御ユニットを備えてもよい。また、上記の説明において、いずれかの制御ユニットが担う機能の一部又は全部を、他の制御ユニットに持たせてもよい。つまり、通信ネットワーク7010を介して情報の送受信がされるようになっていれば、所定の演算処理が、いずれかの制御ユニットで行われるようになってもよい。同様に、いずれかの制御ユニットに接続されているセンサ又は装置が、他の制御ユニットに接続されるとともに、複数の制御ユニットが、通信ネットワーク7010を介して相互に検出情報を送受信してもよい。
以上説明した車両制御システム7000において、撮像部7410,7910,7912,7914,7916,7918は、必要に応じて複数の撮像部例えば図2に示す撮像部21-H,21-Cを用いる構成とする。また、図36に示した応用例の統合制御ユニット7600に画像処理部30を設ける。このような構成とすれば、撮像部7410,7910,7912,7914,7916,7918を小型・薄型化しても画質性能の高い撮像画を取得できるので、取得した撮像画を運転支援や運転制御等に利用できる。なお、画像処理部30は、図36に示した統合制御ユニット7600のためのモジュール(例えば、一つのダイで構成される集積回路モジュール)において実現されてもよい。
また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させる。または、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。
例えば、プログラムは記録媒体としてのハードディスクやSSD(Solid State Drive)、ROM(Read Only Memory)に予め記録しておくことができる。あるいは、プログラムはフレキシブルディスク、CD−ROM(Compact Disc Read Only Memory),MO(Magneto optical)ディスク,DVD(Digital Versatile Disc)、BD(Blu-Ray Disc(登録商標))、磁気ディスク、半導体メモリカード等のリムーバブル記録媒体に、一時的または永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
また、プログラムは、リムーバブル記録媒体からコンピュータにインストールする他、ダウンロードサイトからLAN(Local Area Network)やインターネット等のネットワークを介して、コンピュータに無線または有線で転送してもよい。コンピュータでは、そのようにして転送されてくるプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
なお、本明細書に記載した効果はあくまで例示であって限定されるものではなく、記載されていない付加的な効果があってもよい。また、本技術は、上述した技術の実施の形態に限定して解釈されるべきではない。この技術の実施の形態は、例示という形態で本技術を開示しており、本技術の要旨を逸脱しない範囲で当業者が実施の形態の修正や代用をなし得ることは自明である。すなわち、本技術の要旨を判断するためには、請求の範囲を参酌すべきである。
また、本技術の画像処理装置は以下のような構成も取ることができる。
(1) 第1視点の第1撮像信号と、前記第1視点と異なる第2視点であって第2撮像信号に基づき、前記第1視点に対する前記第2視点の視差を検出する視差検出部と、
前記第1撮像信号と、前記視差検出部で検出された視差に基づいて視差補償された視差補償第2撮像信号を用いてカラー画像を生成する画像生成部とを備え、
前記第1撮像信号は白画素と色成分画素を含み、前記第2撮像信号は前記第1撮像信号よりも白画素が少なく色成分画素が多い画像処理装置。
(2) 前記画像生成部は、所定の条件を満たす場合に前記第1撮像信号と前記視差補償第2撮像信号を用いて前記カラー画像を生成して、所定の条件を満たさない場合に前記第1撮像信号から前記カラー画像を生成する(1)に記載の画像処理装置。
(3) 前記所定の条件を満たす場合とは、前記第1撮像信号と前記視差補償第2撮像信号を用いて前記カラー画像を生成した場合に前記第1撮像信号から生成した前記カラー画像よりも画質性能の低下のリスクが閾値よりも低い場合である(2)に記載の画像処理装置。
(4) 前記画像生成部は、前記第1撮像信号と前記視差補償第2撮像信号に基づき、前記画質性能の低下のリスクを判別して、判別したリスクに応じた合成比で前記第1撮像信号に対して前記視差補償第2撮像信号を合成する(3)に記載の画像処理装置。
(5) 前記画像生成部は、前記第1撮像信号から第1輝度信号と第1色信号の生成と、前記第2撮像信号から第2輝度信号と第2色信号の生成と、前記第2色信号と前記視差検出部で検出された視差に基づき視差補償第2色信号の生成を行い、前記視差補償第2撮像信号を用いて前記カラー画像を生成した場合に前記第1撮像信号から生成した前記カラー画像よりも画質性能の低下を生じるリスクに応じて、前記第1色信号と前記視差補償第2色信号の何れかの選択または合成を行い、
前記視差検出部は、前記第1輝度信号と前記第2輝度信号を用いて視差検出を行う(1)乃至(4)のいずれかに記載の画像処理装置。
(6) 前記画像生成部は、前記リスクに応じて撮像画単位で前記第1色信号と前記視差補償第2色信号の何れかの選択または画素単位で前記第1色信号と前記視差補償第2色信号の合成を行う(5)に記載の画像処理装置。
(7) 前記視差検出部は、前記第1輝度信号と前記第2輝度信号と前記第1色信号と前記第2色信号を用いて視差検出を行う(5)または(6)に記載の画像処理装置。
(8) 前記第1撮像信号に基づき周波数検出を行い、検出結果に応じて前記視差検出部の制御を行う視差検出制御部を有し、
前記視差検出部は、前記第1輝度信号と前記第2輝度信号に基づいて算出したコスト値と前記第1色信号と前記第2色信号に基づいて算出したコスト値を用いて視差検出を行い、
前記視差検出制御部は、前記周波数検出結果に応じた合成比で前記2つのコスト値を統合した統合コスト値に基づき前記視差検出を行わせる(7)に記載の画像処理装置。
(9) 前記画像生成部は、前記第1輝度信号に基づき周波数検出を行い、前記第1色信号に対して前記周波数検出結果に応じて画質改善処理を行う(5)乃至(8)のいずれかに記載の画像処理装置。
(10) 前記画像生成部は、前記第2輝度信号の視差補償を行い視差補償第2輝度信号を生成して、前記第1輝度信号に前記視差補償第2輝度信号を合成して前記第1輝度信号の画質改善を行う(5)乃至(9)のいずれかに記載の画像処理装置。
(11) 前記画像生成部は、前記第1撮像信号を生成する撮像部のノイズ強度に応じて、前記第1輝度信号と前記視差補償第2輝度信号の合成比を設定する(10)に記載の画像処理装置。
(12) 前記画像生成部は、前記第1撮像信号における白画素信号の補間処理と、前記色成分画素の画素信号と前記補間処理が行われた白画素信号を用いたデモザイク処理とデモザイク処理後の信号に対する色空間変換によって、前記第1色信号を生成する(5)乃至(11)のいずれかに記載の画像処理装置。
(13) 前記画像生成部は、補間処理後の白画素信号と前記色成分画素の画素信号に基づく色比と処理対象画素の白画素信号を用いて前記処理対象画素の色成分毎の画素信号を生成する(12)に記載の画像処理装置。
(14) 前記画像生成部は、前記第1撮像信号における白画素信号の補間処理によって前記第1輝度信号を生成して、
前記視差検出部は、前記画像生成部で白画素信号の補間処理によって生成された前記第1撮像信号を用いて視差検出を行う(5)乃至(13)のいずれかに記載の画像処理装置。
(15) 前記第1撮像信号は、2画素×2画素の画素ブロック内において前記白画素を前記色成分画素以上に設けた信号である(1)乃至(14)のいずれかに記載の画像処理装置。
また、本技術の撮像装置は以下のような構成も取ることができる。
(1) 白画素と色成分画素を含む第1視点の第1撮像信号を生成する第1撮像部と、
前記第1撮像部よりも白画素を少なくして色成分画素の割合を多くした前記第1視点と異なる第2視点の第2撮像信号を生成する第2撮像部と、
前記第1撮像信号と前記第2撮像信号に基づき、前記第1視点に対する前記第2視点の視差を検出する視差検出部と、
前記第1撮像信号と、前記視差検出部で検出された視差に基づいて視差補償された視差補償第2撮像信号を用いてカラー画像を生成する画像生成部と
を備える撮像装置。
(2) 前記第1撮像部では、2画素×2画素の画素ブロック内において前記白画素を前記色成分画素以上設けた(1)に記載の撮像装置。
(3) 前記第1撮像部における前記色成分画素は、三原色内の二色の色成分画素である(1)または(2)に記載の撮像装置。
(4) 前記第2撮像部は、三原色成分画素または前記三原色成分画素と白画素で構成した(1)乃至(3)のいずれかに記載の撮像装置。
この技術の画像処理装置と画像処理方法および撮像装置では、第1視点の第1撮像信号と、第1視点と異なる第2視点であって第2撮像信号に基づき、第1視点に対する前記第2視点の視差が検出される。また、第1撮像信号と、視差検出部で検出された視差に基づいて視差補償された視差補償第2撮像信号を用いてカラー画像が画像生成部で生成される。さらに、第1撮像信号は白画素と色成分画素を含み、第2撮像信号は前記第1撮像信号よりも白画素が少なく色成分画素が多くされる。このように、白画素が第2撮像信号より多い第1撮像信号を基準に第2撮像信号を第1撮像信号にフュージョンするため、画質性能の低下を抑制しつつ高感度の撮像画を得ることができるようになる。したがって、低背化を保持しつつ高い画質性能が要求される機器、例えばスマートフォン等の携帯機器および車載機器等に適している。
10・・・情報処理端末
21,21-BW,21-CR,21-H,21-C・・・撮像部
30,30-1〜31-10・・・画像処理部
31-H・・・補間部
32,32-H,32-C・・・デモザイク処理部
33-C,33-H・・・YUV変換部
34・・・周波数検出部
35,392,422,422a,427,427a・・・コアリング処理部
36a,36b,36c・・・視差検出部
37・・・視差補償部
38・・・フォールバック判定部
39・・・色画質改善部
41・・・信号選択部
42,42a・・・信号合成部
43・・・輝度画質改善部
51・・・センサ部
52・・・通信部
53・・・表示部
54・・・タッチパネル
55・・・操作部
56・・・記憶部
56・・・記録部
60・・・制御部
321b・・・青色補間係数算出部
321r・・・赤色補間係数算出部
322b・・・青成分画像生成部
322g・・・緑成分画像生成部
322r・・・赤成分画像生成部
361,362,363・・・コスト算出部
364・・・コスト統合部
365・・・コスト最小ベクトル判定部
381・・・画像特徴量算出部
382・・・信号選択判定部
391・・・周波数検出部
393・・・低域通過フィルタ
394・・・合成処理部
412・・・信号選択部
421・・・周波数検出部
423,424・・・低域通過フィルタ
425・・・差分算出部
426・・・絶対値算出部
428・・・合成比設定部
429・・・合成処理部

Claims (20)

  1. 第1視点の第1撮像信号と、前記第1視点と異なる第2視点であって第2撮像信号に基づき、前記第1視点に対する前記第2視点の視差を検出する視差検出部と、
    前記第1撮像信号と、前記視差検出部で検出された視差に基づいて視差補償された視差補償第2撮像信号を用いてカラー画像を生成する画像生成部とを備え、
    前記第1撮像信号は白画素と色成分画素を含み、前記第2撮像信号は前記第1撮像信号よりも白画素が少なく色成分画素が多い画像処理装置。
  2. 前記画像生成部は、所定の条件を満たす場合に前記第1撮像信号と前記視差補償第2撮像信号を用いて前記カラー画像を生成して、所定の条件を満たさない場合に前記第1撮像信号から前記カラー画像を生成する
    請求項1に記載の画像処理装置。
  3. 前記所定の条件を満たす場合とは、前記第1撮像信号と前記視差補償第2撮像信号を用いて前記カラー画像を生成した場合に前記第1撮像信号から生成した前記カラー画像よりも画質性能の低下のリスクが閾値よりも低いと判定される場合である
    請求項2に記載の画像処理装置。
  4. 前記画像生成部は、前記第1撮像信号と前記視差補償第2撮像信号に基づき、前記画質性能の低下のリスクを判別して、判別したリスクに応じた合成比で前記第1撮像信号に対して前記視差補償第2撮像信号を合成する
    請求項3に記載の画像処理装置。
  5. 前記画像生成部は、前記第1撮像信号から第1輝度信号と第1色信号の生成と、前記第2撮像信号から第2輝度信号と第2色信号の生成と、前記第2色信号と前記視差検出部で検出された視差に基づき視差補償第2色信号の生成を行い、前記視差補償第2撮像信号を用いて前記カラー画像を生成した場合に前記第1撮像信号から生成した前記カラー画像よりも画質性能の低下を生じるリスクに応じて、前記第1色信号と前記視差補償第2色信号の何れかの選択または合成を行い、
    前記視差検出部は、前記第1輝度信号と前記第2輝度信号を用いて視差検出を行う
    請求項1に記載の画像処理装置。
  6. 前記画像生成部は、前記リスクに応じて撮像画単位で前記第1色信号と前記視差補償第2色信号の何れかの選択または画素単位で前記第1色信号と前記視差補償第2色信号の合成を行う
    請求項5に記載の画像処理装置。
  7. 前記視差検出部は、前記第1輝度信号と前記第2輝度信号と前記第1色信号と前記第2色信号を用いて視差検出を行う
    請求項5に記載の画像処理装置。
  8. 前記第1撮像信号に基づき周波数検出を行い、検出結果に応じて前記視差検出部の制御を行う視差検出制御部を有し、
    前記視差検出部は、前記第1輝度信号と前記第2輝度信号に基づいて算出したコスト値と前記第1色信号と前記第2色信号に基づいて算出したコスト値を用いて視差検出を行い、
    前記視差検出制御部は、前記周波数検出結果に応じた合成比で前記2つのコスト値を統合した統合コスト値に基づき前記視差検出を行わせる
    る請求項7に記載の画像処理装置。
  9. 前記画像生成部は、前記第1輝度信号に基づき周波数検出を行い、前記第1色信号に対して前記周波数検出結果に応じて画質改善処理を行う
    請求項5に記載の画像処理装置。
  10. 前記画像生成部は、前記第2輝度信号の視差補償を行い視差補償第2輝度信号を生成して、前記第1輝度信号に前記視差補償第2輝度信号を合成して前記第1輝度信号の画質改善を行う
    請求項5に記載の画像処理装置。
  11. 前記画像生成部は、前記第1撮像信号を生成する撮像部のノイズ強度に応じて、前記第1輝度信号と前記視差補償第2輝度信号の合成比を設定する
    請求項10に記載の画像処理装置。
  12. 前記画像生成部は、前記第1撮像信号における白画素信号の補間処理と、前記色成分画素の画素信号と前記補間処理が行われた白画素信号を用いたデモザイク処理とデモザイク処理後の信号に対する色空間変換によって、前記第1色信号を生成する
    請求項5に記載の画像処理装置。
  13. 前記画像生成部は、補間処理後の白画素信号と前記色成分画素の画素信号に基づく色比と処理対象画素の白画素信号を用いて前記処理対象画素の色成分毎の画素信号を生成する
    請求項12に記載の画像処理装置。
  14. 前記画像生成部は、前記第1撮像信号における白画素信号の補間処理によって前記第1輝度信号を生成して、
    前記視差検出部は、前記画像生成部で白画素信号の補間処理によって生成された前記第1撮像信号を用いて視差検出を行う
    請求項5に記載の画像処理装置。
  15. 前記第1撮像信号は、2画素×2画素の画素ブロック内において前記白画素を前記色成分画素以上に設けた信号である
    請求項1に記載の画像処理装置。
  16. 白画素と色成分画素を含む第1視点の第1撮像信号と、前記第1撮像信号よりも白画素を少なくして色成分画素の割合を多くした前記第1視点と異なる第2視点の第2撮像信号に基づき、前記第1視点に対する前記第2視点の視差を視差検出部で検出することと、
    前記第1撮像信号と、前記視差検出部で検出された視差に基づいて視差補償された視差補償第2撮像信号を用いてカラー画像を画像生成部で生成することと
    を含む画像処理方法。
  17. 白画素と色成分画素を含む第1視点の第1撮像信号を生成する第1撮像部と、
    前記第1撮像部よりも白画素を少なくして色成分画素の割合を多くした前記第1視点と異なる第2視点の第2撮像信号を生成する第2撮像部と、
    前記第1撮像信号と前記第2撮像信号に基づき、前記第1視点に対する前記第2視点の視差を検出する視差検出部と、
    前記第1撮像信号と、前記視差検出部で検出された視差に基づいて視差補償された視差補償第2撮像信号を用いてカラー画像を生成する画像生成部と
    を備える撮像装置。
  18. 前記第1撮像部では、2画素×2画素の画素ブロック内において前記白画素を前記色成分画素以上設けた
    請求項17に記載の撮像装置。
  19. 前記第1撮像部における前記色成分画素は、三原色内の二色の色成分画素である
    請求項17に記載の撮像装置。
  20. 前記第2撮像部は、三原色成分画素または前記三原色成分画素と白画素で構成した
    請求項17に記載の撮像装置。
JP2019508592A 2017-03-27 2018-01-11 画像処理装置と画像処理方法および撮像装置 Active JP7024782B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017060694 2017-03-27
JP2017060694 2017-03-27
PCT/JP2018/000464 WO2018179671A1 (ja) 2017-03-27 2018-01-11 画像処理装置と画像処理方法および撮像装置

Publications (2)

Publication Number Publication Date
JPWO2018179671A1 true JPWO2018179671A1 (ja) 2020-02-06
JP7024782B2 JP7024782B2 (ja) 2022-02-24

Family

ID=63677775

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019508592A Active JP7024782B2 (ja) 2017-03-27 2018-01-11 画像処理装置と画像処理方法および撮像装置

Country Status (5)

Country Link
US (1) US10999562B2 (ja)
EP (1) EP3606057B1 (ja)
JP (1) JP7024782B2 (ja)
CN (1) CN110463194B (ja)
WO (1) WO2018179671A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6825617B2 (ja) * 2016-03-09 2021-02-03 ソニー株式会社 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
KR102648912B1 (ko) 2019-01-23 2024-03-19 삼성전자주식회사 영상 데이터를 분석하여 최종 영상 데이터를 생성하는 프로세서
CN111984852A (zh) * 2019-05-21 2020-11-24 微软技术许可有限责任公司 生成式图像获取
JP7289921B2 (ja) * 2019-08-29 2023-06-12 富士フイルム株式会社 撮像装置、撮像装置の動作方法、及びプログラム
CN111260597B (zh) * 2020-01-10 2021-12-03 大连理工大学 一种多波段立体相机的视差图像融合方法
CN113763295B (zh) * 2020-06-01 2023-08-25 杭州海康威视数字技术股份有限公司 图像融合方法、确定图像偏移量的方法及装置
JPWO2022190826A1 (ja) * 2021-03-09 2022-09-15
CN113810601B (zh) * 2021-08-12 2022-12-20 荣耀终端有限公司 终端的图像处理方法、装置和终端设备
CN114466170B (zh) * 2021-08-27 2023-10-31 锐芯微电子股份有限公司 图像处理方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011083669A1 (ja) * 2010-01-06 2011-07-14 コニカミノルタオプト株式会社 ステレオカメラ装置
WO2013108656A1 (ja) * 2012-01-16 2013-07-25 ソニー株式会社 固体撮像素子およびカメラシステム
JP2015226299A (ja) * 2014-05-30 2015-12-14 コニカミノルタ株式会社 画像入力装置

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5825915A (en) * 1995-09-12 1998-10-20 Matsushita Electric Industrial Co., Ltd. Object detecting apparatus in which the position of a planar object is estimated by using hough transform
US6163337A (en) * 1996-04-05 2000-12-19 Matsushita Electric Industrial Co., Ltd. Multi-view point image transmission method and multi-view point image display method
JP4156893B2 (ja) * 2002-09-27 2008-09-24 富士フイルム株式会社 画像処理装置、方法及びプログラム
US7773143B2 (en) * 2004-04-08 2010-08-10 Tessera North America, Inc. Thin color camera having sub-pixel resolution
CN101627408B (zh) * 2007-03-13 2012-08-22 奥林巴斯株式会社 图像信号处理装置、图像信号处理方法
US7544944B2 (en) * 2007-07-02 2009-06-09 Flir Systems Ab Camera and method for use with camera
US20090175535A1 (en) * 2008-01-09 2009-07-09 Lockheed Martin Corporation Improved processing of multi-color images for detection and classification
JP4513906B2 (ja) * 2008-06-27 2010-07-28 ソニー株式会社 画像処理装置、画像処理方法、プログラム及び記録媒体
JP5529424B2 (ja) * 2009-03-11 2014-06-25 ソニー株式会社 画像処理装置、画像処理方法及びコンピュータプログラム
CN102668537B (zh) * 2009-12-24 2015-03-11 夏普株式会社 多眼摄像装置及多眼摄像方法
JP2011239259A (ja) * 2010-05-12 2011-11-24 Sony Corp 画像処理装置、画像処理方法及びプログラム
US20120188409A1 (en) * 2011-01-24 2012-07-26 Andrew Charles Gallagher Camera with multiple color sensors
JP5816015B2 (ja) * 2011-07-15 2015-11-17 株式会社東芝 固体撮像装置及びカメラモジュール
US9270875B2 (en) * 2011-07-20 2016-02-23 Broadcom Corporation Dual image capture processing
JP5982751B2 (ja) * 2011-08-04 2016-08-31 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
JP5701785B2 (ja) * 2012-02-03 2015-04-15 株式会社東芝 カメラモジュール
JP5409829B2 (ja) * 2012-02-17 2014-02-05 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、および、プログラム
JP2013183353A (ja) * 2012-03-02 2013-09-12 Toshiba Corp 画像処理装置
CN104221370B (zh) * 2012-03-29 2016-01-20 富士胶片株式会社 图像处理装置、摄像装置以及图像处理方法
JP2013219525A (ja) 2012-04-06 2013-10-24 Nec Saitama Ltd 撮像装置、その制御方法及びプログラム
JP2014078095A (ja) * 2012-10-10 2014-05-01 Sony Corp 画像処理装置、画像処理方法、及びプログラム
JP6087612B2 (ja) * 2012-12-17 2017-03-01 キヤノン株式会社 画像処理装置および画像処理方法
JP6020199B2 (ja) * 2013-01-24 2016-11-02 株式会社ソシオネクスト 画像処理装置、方法、及びプログラム、並びに撮像装置
JP6201641B2 (ja) 2013-10-29 2017-09-27 ソニー株式会社 情報処理装置、撮像装置、撮像システム、情報処理装置の制御方法、撮像装置の制御方法およびプログラム
JP2015197745A (ja) * 2014-03-31 2015-11-09 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法及びプログラム
WO2016143913A1 (en) * 2015-03-10 2016-09-15 Canon Kabushiki Kaisha Image processing method, image processing device, and image pickup apparatus
US9942474B2 (en) * 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
KR102324605B1 (ko) * 2015-05-26 2021-11-10 한국전자통신연구원 변이 영상 생성 방법 및 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011083669A1 (ja) * 2010-01-06 2011-07-14 コニカミノルタオプト株式会社 ステレオカメラ装置
WO2013108656A1 (ja) * 2012-01-16 2013-07-25 ソニー株式会社 固体撮像素子およびカメラシステム
JP2015226299A (ja) * 2014-05-30 2015-12-14 コニカミノルタ株式会社 画像入力装置

Also Published As

Publication number Publication date
EP3606057B1 (en) 2021-07-21
US10999562B2 (en) 2021-05-04
CN110463194B (zh) 2022-01-25
WO2018179671A1 (ja) 2018-10-04
EP3606057A1 (en) 2020-02-05
EP3606057A4 (en) 2020-04-22
JP7024782B2 (ja) 2022-02-24
US20200112705A1 (en) 2020-04-09
CN110463194A (zh) 2019-11-15

Similar Documents

Publication Publication Date Title
JP7024782B2 (ja) 画像処理装置と画像処理方法および撮像装置
US10957029B2 (en) Image processing device and image processing method
JP6977821B2 (ja) 画像処理装置と画像処理方法
US10704957B2 (en) Imaging device and imaging method
JPWO2018163725A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP6816769B2 (ja) 画像処理装置と画像処理方法
JP6816768B2 (ja) 画像処理装置と画像処理方法
JP7500798B2 (ja) 固体撮像装置、補正方法、および電子装置
JPWO2018150683A1 (ja) 情報処理装置と情報処理方法とプログラムおよび撮像装置
WO2017043331A1 (ja) 画像処理装置、及び、画像処理方法
JP6981416B2 (ja) 画像処理装置と画像処理方法
JP2018011246A (ja) 固体撮像装置、補正方法、および電子装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220124

R151 Written notification of patent or utility model registration

Ref document number: 7024782

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151