JP6544978B2 - 画像出力装置およびその制御方法、撮像装置、プログラム - Google Patents

画像出力装置およびその制御方法、撮像装置、プログラム Download PDF

Info

Publication number
JP6544978B2
JP6544978B2 JP2015083229A JP2015083229A JP6544978B2 JP 6544978 B2 JP6544978 B2 JP 6544978B2 JP 2015083229 A JP2015083229 A JP 2015083229A JP 2015083229 A JP2015083229 A JP 2015083229A JP 6544978 B2 JP6544978 B2 JP 6544978B2
Authority
JP
Japan
Prior art keywords
image
image data
depth information
processing
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015083229A
Other languages
English (en)
Other versions
JP2016208075A (ja
Inventor
一好 清澤
一好 清澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015083229A priority Critical patent/JP6544978B2/ja
Priority to US15/096,828 priority patent/US10356381B2/en
Publication of JP2016208075A publication Critical patent/JP2016208075A/ja
Application granted granted Critical
Publication of JP6544978B2 publication Critical patent/JP6544978B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format

Description

本発明は、画像データと奥行き情報に基づいて立体画像データを出力する技術に関する。
近年普及し始めている3D(3次元)プリンタは、樹脂や石膏粉末等の記録材を積層することで立体を造形する装置である。この装置を用いて、撮影画像と、その奥行き情報に基づき、撮影画像を立体的なレリーフ、即ち立体画像を出力する装置やシステムが提供されるようになった。特許文献1では、3D加工を施すための情報を使用して立体画像データを生成する技術が開示されている。当該情報は、画像の色差情報、濃度差情報、被写体までの距離情報、顔認識情報、焦点調整の情報、稼動した領域情報等であり、いずれかの情報または複数の情報が使用される。また、特許文献2ではエンボス印刷、3Dレリーフ印刷等を行う際、領域の設定や浮き上がりや深さの程度を、ユーザの所望の仕様にして印刷処理を行う技術が開示されている。
一方、デジタルカメラ等の撮像装置には、ユーザが撮影時に特殊効果を設定する機能を備える装置がある。例えば、画像の一部領域に対してぼかし処理を施すことにより、背景像のぼかしやジオラマ(ミニチュア模型)風の効果を施す処理がある。また、画像に歪み処理を行うことにより、魚眼レンズで撮影したかのような特殊効果を施す処理がある。
特開2013−126763号公報 特開2010−191925号公報
ところで、特殊効果処理を施した画像から立体画像を出力する場合には、特殊効果を反映させて立体画像を出力することが求められる。特許文献1に開示された立体画像データ生成処理では、撮影時点での撮影条件や画像解析結果を使った凹凸を生成できる。しかし、これはあくまで撮影時点での画像に応じた凹凸が生成されるということであり、特殊効果をより強調したレリーフを出力することはできない。また、特許文献2に開示された立体画像データ生成では、ユーザにより領域が設定されることを前提にしているので、特殊効果を施した画像について強調したい領域を自動的に設定できない。
本発明は、画像処理が施された画像に基づき、画像処理効果を反映させて立体画像あるいは立体画像生成のための情報を出力することを目的とする。
本発明に係る装置は、2次元の画像データおよび該画像データに関する奥行き情報を取得して立体画像データを生成して出力する画像出力装置であって、前記画像データに対して画像処理を施す画像処理手段と、前記画像処理手段により画像処理を施された前記画像データおよび奥行き情報から前記立体画像データを生成する生成手段と、前記画像処理手段による画像処理に応じて奥行き情報を変更し、当該変更された奥行き情報を用いて前記生成手段に前記立体画像データを生成させる制御を行う制御手段と、を備える。前記画像処理手段は、画像のコントラスト強調処理を行い、前記制御手段は、前記コントラスト強調処理による輝度値の相対的な変化にしたがって前記奥行き情報を変更する。
本発明によれば、画像処理が施された画像に基づき、画像処理効果を反映させて立体画像あるいは立体画像生成のための情報を出力することができる。
本発明の実施形態に係る撮像装置の構成例を示すブロック図である。 本発明の実施形態に係る撮像装置の動作を説明するフローチャートである。 第1実施形態におけるコントラスト強調の入出力輝度値特性を説明する図である。 第1実施形態における立体画像データ生成処理を説明するフローチャートである。 第2実施形態における立体画像データ生成処理を説明するフローチャートである。 第2実施形態におけるジオラマ風の特殊効果処理を施した画像の一例を示す図である。 第2実施形態における奥行き情報と画像の座標との関係を例示した図である。 第3実施形態における立体画像データ生成処理を説明するフローチャートである。 第3実施形態における歪み量特性として歪み処理曲線の一例を示す図である。 第3実施形態における魚眼レンズ風の特殊効果処理を施した画像の一例を示す図である。 第3実施形態における歪み処理による座標変換時の線形補間について説明する図である。
以下に、本発明の各実施形態を、添付図面に基づいて詳細に説明する。各実施形態では、立体画像データを処理する画像出力装置を撮像装置に適用した例について説明する。
[第1実施形態]
本発明の第1実施形態を、実施例1としてのデジタルカメラに適用した構成例について説明する。それ以外に、例えばパーソナルコンピュータ、携帯電話、スマートフォン、PDA、タブレット端末、デジタルビデオカメラなどの任意の情報処理端末或いは撮像装置とすることができる。なお、本発明の実施形態に対応する立体画像生成処理は、撮影画像と、該画像に含まれる被写体の距離情報が用意できればよいので、係る情報が得られるのであれば立体画像生成装置は必ずしも撮影機能及び測距機能を有していなくてもよい。その場合、外部で撮影された画像と、その距離情報の入力に基づき立体画像を出力する3Dプリンタなどの出力装置やコンピュータ上のプログラムとして構成されてもよい。
図1(A)は、立体画像データ出力機能付きデジタルカメラの構成例を示すブロック図である。各ブロックは専用ロジック回路やメモリを用いてハードウェア的に構成されてもよい。或いは、メモリに記憶されている処理プログラムをCPU(中央演算処理装置)等のコンピュータが実行することにより、ソフトウェア的に構成されてもよい。以下では、被写体側を前側とし、カメラに近づく側を手前側とし、カメラから離れる側を奥側と定義して位置関係を説明する。
デジタルカメラのカメラ本体部100は、立体画像データの出力機能を有しており、撮像部108と、内部バス102に接続された各処理部を備える。内部バス102は各処理部を接続する。システム制御部101はCPU等の演算部を備え、内部バス102で接続された各処理部を制御する。
FLASHメモリコントローラ103は、システム制御部101からの制御指令に基づき、FLASHメモリ104に対する不揮発性データの読み出しおよび書き込みを制御する。本実施形態では、記録媒体の一例としてFLASHメモリ104を示す。システム制御部101はFLASHメモリ104に記憶されたプログラムに基づいて動作し、撮影された画像データ等の不揮発性データをFLASHメモリ104に記憶させる制御をFLASHメモリコントローラ103に指示する。DRAM(Dynamic Random Access Memory)コントローラ105は、各処理部からの要求に基づいてDRAM106に対するデータの読み出しおよび書き込みを制御する。システム制御部101と各処理部は、動作中の一時データ等をDRAM106に記憶して使用する。
操作部107は、デジタルカメラのカメラ本体部100の外装部に設けられたボタンや該ボタンの操作を検出するスイッチ等を備える。ユーザがボタン等を操作すると、操作部107はシステム制御部101へ操作に応じた指示信号を出力する。
被写体を撮像する撮像部108は撮像素子を備える。撮像部108は被写体の光学像を取り込むレンズを含む撮像光学系、及び、光学像を電気信号に光電変換するCCD(電荷結合素子)やCMOS(相補型金属酸化膜半導体)素子等によるイメージセンサで構成される。本実施形態の撮像部108は、複数の視差画像を一度の撮影(露光)で取得することができる。このようなカメラとしてはステレオカメラの様な多眼カメラを代表としてさまざまな装置が知られているが、本実施形態では、撮像素子が受光面上に撮像レンズの射出瞳を分割するマイクロレンズアレイ(以下、MLAという)を備えている。図1(B)は撮像素子4をカメラ本体部100の正面および側方から見た状態を模式的に示している。撮像素子4が有する画素群143の受光面上にはMLA141が形成されている。画素群143を構成する各画素は、図1(C)に示すように、1つのマイクロレンズ142と2つのフォトダイオード(光電変換領域)143a,143bで構成される。また図1(C)は撮像レンズ2の射出瞳144を概念的に示している。第1の瞳領域であるA像瞳145aとAピクセル143a、第2の瞳領域であるB像瞳145bとBピクセル143bは、それぞれマイクロレンズ142により共役の関係を有する。従って、撮像素子4の各画素は瞳分割機能を有し、Aピクセル143aには射出瞳144の右半分のA像瞳145aを通過した光束が入射し、Bピクセル143bには射出瞳144の左半分のB像瞳145bを通過した光束が入射する。Aピクセル群の出力からなる画像と、Bピクセル群の出力からなる画像は視差画像である。そして、撮像素子4で得られる複数の視差画像の位相差を検出することで、複数の画素から出力される画素データ間のデフォーカス量に基づいて、被写体の距離情報(奥行き情報)の分布(距離マップ、デフォーカスマップ)を得ることができる。また、各視差画像や視差画像を加算した加算画像は、被写体の2次元の情報(画像データ)として用いることができる。また本実施形態では、このような構成のため、焦点検出は撮像部108および画像信号処理部109を用いて行われる。
画像信号処理部109は撮像部108から画像信号を取得して信号処理を行う。画像信号処理部109はシステム制御部101の指示に基づいて撮像部108を制御し、被写体の撮影動作後に得られた画像データをDRAM106に記憶させる処理を行う。また画像信号処理部109は、撮影時に撮像部108で測定されたデフォーカス量を、画像データとともにDRAM106に記憶させる処理を行う。また画像信号処理部109は、画像データに対して特殊効果処理を施し、処理済みデータをDRAM106に記憶させる処理を行う。特殊効果処理とは、例えば、コントラスト強調処理や暈かし処理、画像を変形させる歪み処理、座標変換処理等である。この他、画像信号処理部109は画像データを表示用に縮小して、DRAM106に設けられた表示用フレームメモリに記憶させる処理を行う。
奥行き情報生成部111は、DRAM106に記憶された画像データおよびデフォーカス量に基づき、既知の方法で画像の領域ごとの距離マップデータを生成して、DRAM106に記憶させる処理を行う。立体画像データ生成部112は、DRAM106に記憶された画像データと、奥行き情報生成部111が生成した距離マップデータと、画像信号処理部109が特殊効果処理を施した画像データに基づいて、立体画像データを生成する。その際、立体画像データ生成部112は、システム制御部101の制御指示にしたがって立体画像データを生成し、生成した立体画像データをDRAM106に記憶させる処理を行う。立体画像のデータ形式としては、例えば、STL(Standard Triangle Language)やVRML(Virtual Reality Modeling Language)といった形式である。なお、各々の形式は公知であるため、それらの詳細な説明を省略する。
立体画像出力部113は、DRAM106に記憶された立体画像データ、例えば、前述したSTLやVRMLといった形式の立体画像データを外部に出力する。ユーザは、出力先装置として3Dプリンタ等の外部装置をカメラ本体部100に接続することで、出力した立体画像データの実体化が可能である。LCD(Liquid Crystal Display)コントローラ115は、DRAM106に記憶された表示用フレームメモリのデータを読み出し、該データの表示内容に従ってLCD116に画像を表示させる制御を行う。LCD116を用いた表示部は一例であり、表示デバイスの如何は問わない。
次に、図2を参照して、本実施形態における処理を説明する。図2は、図1に示したデジタルカメラで静止画撮影を行い、立体画像を出力する場合の処理例を説明するフローチャートである。以下の処理は図1のシステム制御部101がプログラムをメモリから読み出して実行することで実現される。
S201にてシステム制御部101の制御下で、撮像部108が被写体の撮影を行い、撮影画像およびデフォーカス量の各データがDRAM106に記憶される。S202で奥行き情報生成部111は、DRAM106に記憶された画像およびデフォーカス量の各データに基づいて、画像の領域ごとの距離マップデータを生成する。距離マップデータは、奥行き情報としてDRAM106に記憶される。
S203にて画像信号処理部109は、システム制御部101の指示にしたがい、S201で取得した撮影画像データに特殊効果処理を施す。特殊効果処理後の画像データはDRAM106に記憶される。一例として、画像にメリハリ(コントラスト感)をつける効果を得るコントラスト強調処理について、図3を参照して説明する。
図3は、コントラスト強調処理の前後における入出力輝度値特性に関して、変換の一例を示す。横軸は入力画素の輝度値を表し、輝度値YI306,YI303,YI304は「YI306<YI303<YI304」の関係とする。縦軸は出力画素の輝度値を表し、輝度値YO305からYO308は「YO308<YO307<YO305<YO306」の関係とする。点線のグラフ線C301は撮影画像の入出力輝度値特性を示し、実線のグラフ線C302はコントラスト強調処理後の入出力輝度値特性を示す。図3に例示する処理では、入力画素輝度値に対する出力画素輝度値を、グラフ線C301からグラフ線C302に変化させることで、画像のコントラストを強調する処理が行われる。
S204において、立体画像データ生成部112またはシステム制御部101は、S203での特殊効果処理の処理内容に基づき、システム制御部101の制御下でDRAM106に記憶された奥行き情報を変更する。この奥行き情報に基づいて立体画像データ生成部112は、撮影画像について立体画像データを生成する。処理対象となる撮影画像(以下、対象画像という)のデータは、DRAM106に記憶されている、特殊効果処理が施された撮影画像である。立体画像データの生成処理の詳細については、図4を参照して後述する。
S204の処理後にS205へ進み、立体画像出力部113は、特殊効果処理が施された撮影画像を立体化する処理を行い、生成した立体画像のデータを前述したようにSTLなどの所定の形式で出力する。記録された立体画像データを外部の3Dプリンタなどで出力することで、立体画像データを実体化することができる。また、立体画像データの出力とは別に、変更された距離情報(奥行き情報)と画像処理がなされた画像データとが関連付けられた状態で出力され、記録されてもよい。
次に、図4のフローチャートを参照して、図2のS204に示す立体画像データ生成処理について詳細に説明する。以下の処理はシステム制御部101の制御下で立体画像データ生成部112が実行する。
S401において、立体画像データ生成部112はシステム制御部101の指示にしたがい、対象画像について、順次に選択された各画素の画像処理の内容に応じた画素データを取得する。さらに立体画像データ生成部112は、DRAM106に記憶された奥行き情報から、対象画像の画素位置に対応する距離値を取得する。ここで、距離値とは、対象画像に係る距離マップのデータのうち、奥行き方向において最も奥側である距離を基準として、手前に向かって正数となる値とする。なお、本例とは逆に対象画像にて最も手前側となる距離を基準として、奥側に向かって正数となる距離値を使用してもよい。
S402は、S401で取得された画素の輝度値について、コントラスト強調処理により、相対的に高くなったか、または相対的に低くなったかについての判定処理である。図3の変換例を参照して具体的に説明する。図3にて、グラフ線C301とグラフ線C302との交点における、入力画素輝度値をYI303とする。YI303を基準として、出力画素輝度値がグラフ線C301に示す輝度値に比べて相対的に高い画素は、コントラスト強調処理によって撮影時の輝度値より高くなる画素である。例えば、入力画素輝度値YI304に対して、YO305よりも大きい出力画素輝度値YO306の画素は、コントラスト強調処理によって撮影時の輝度値より高くなる画素である。他方、YI303を基準として、出力画素輝度値がグラフ線C301に示す輝度値に比べて相対的に低い画素は、コントラスト強調処理によって撮影時の輝度値より低くなる画素である。例えば、入力画素輝度値YI306に対して、YO307よりも小さい出力画素輝度値YO308の画素は、コントラスト強調処理によって撮影時の輝度値より低くなる画素である。
S402において、コントラスト強調処理により画素の輝度値が相対的に高くなったことが判定された場合、S403に進み、画素の輝度値が相対的に低くなったことが判定された場合にはS404に進む。S403では、S401で取得された画素の距離値について、奥行き方向の割り当てが多くなるように奥行き情報の変更処理が行われる。図3の変換例の場合、入力画素輝度値YI304に対し、グラフ線C301上での出力画素輝度値はYO305であり、グラフ線C302上での出力画素輝度値はYO306である。この場合、
距離値 ×(YO306/YO305)
という計算式から新たな距離値が算出される。算出された距離値は、DRAM106に奥行き情報として記憶される。ここで、距離値に乗算される値(YO306/YO305)を、奥行き情報生成係数(以下、単に生成係数という)としてαと定義する。つまり、本例ではα>1である。
S404では、S401で取得された画素の距離値について、奥行き方向の割り当てが少なくなるように奥行き情報の変更処理が行われる。図3の変換例の場合、入力画素輝度値YI306に対し、グラフ線C301上での出力画素輝度値はYO307であり、グラフ線C302上での出力画素輝度値はYO308である。この場合、
距離値 ×(YO308/YO307)
という計算式から新たな距離値が算出される。算出された距離値は、DRAM106に奥行き情報として記憶される。ここで、距離値に乗算される値(YO308/YO307)を、生成係数としてβと定義する。つまり、本例ではβ<1である。S403またはS404の後、S405に進む。
S405において、立体画像データ生成部112は、対象画像に係る全ての画素について処理を行ったか否かを判断する。全ての画素の処理が完了していない場合、S401に戻り、処理を繰り返す。全ての画素の処理が完了すると、立体画像データの生成処理が終了する。
本実施形態では、画像の奥行き情報と、画像処理が施された画像データとを関連付けるとともに、画像処理前および画像処理後の各画像データに応じて変更された奥行き情報を用いて立体画像データを生成して出力する処理が行われる。本実施形態によれば、撮影画像に特殊効果処理としてコントラスト強調処理を施して立体表現を行う際に、平面表現での処理の場合と同様に特殊効果を反映させて立体画像を出力することができる。また、立体画像を出力する装置において、奥行き方向の制約がある場合でも、強調したい領域の奥行き方向の割り当て量を多くする処理が行われる。これにより、制約の範囲内において特殊効果処理による画像効果に関し、効率よく立体表現を行える。
本実施形態では、入力画素輝度値に対する、コントラスト強調処理前後での輝度値の比を生成係数αおよびβとして元の距離値に乗算する例を説明した。この場合、コントラスト強調効果が奥行き方向において反映されるように、「α>β」の関係を満たしていればよい。例えば、生成係数の値を固定値として設定する他の方法を用いて、奥行き情報の変更を行ってもよい。また、コントラスト強調処理情報に基づき、奥行き情報を変更する場合、距離値の最大値と最小値との差分が、変更前の両者の差分から変化してしまうこともあり得る。この場合には、正規化処理により、変更前後で差分が合うように一致させる処理が行われる。また、本実施形態では、カメラから得られる領域ごとのデフォーカス量に基づいて距離マップを生成する処理を説明した。これに限らず、2眼構成の撮像系により得た視差画像を用いる方法、あるいは、異なる焦点距離で撮影した複数枚の画像のデータから焦点距離ごとの領域を検出する方法で距離マップを生成してもよい。このような処理の変更や追加等については、以下の実施形態でも同様である。
また、本実施形態では、画像処理前後の画像データを解析し、解析結果に基づいて各画素への奥行き情報の変更を行っているが、これに限らない。すなわち、画像データに掛ける画像処理(特殊効果)の処理内容が予めわかっていれば、それらの画像処理に起因して奥行き情報の変更の程度を規定してもよい。より具体的には、図4のS402に示すステップにおいて、画像データに掛かる画像処理の情報を取得し、取得した画像処理の情報に基づいて分岐し、奥行き情報を変更すればよい。このような処理の変更や追加等については、以下の実施形態でも同様である。
[第2実施形態]
次に、本発明の第2実施形態を説明する。本実施形態では、特殊効果処理として、いわゆるジオラマ(ミニチュア模型)風効果の例を説明する。この特殊効果処理は、撮影画像に対して、ぼかし処理を施す領域と、ぼかし処理を施さない解像領域を設定する画像処理である。本実施形態において、実施例としてのデジタルカメラの構成は図1に示した構成と同じである。よって、以下では、第1実施形態の場合と同様の構成要素については既に使用した符号を用いることにより、それらの詳細な説明を省略し、相違点を中心に説明する。このような説明の省略の仕方は後述の実施形態でも同じである。
図2を参照して、本実施形態において、図1に示したデジタルカメラで静止画撮影を行い、立体画像を出力する場合の処理について説明する。本実施形態では、S203にて画像信号処理部109はシステム制御部101の指示に基づき、S201で取得した撮影画像に対し、ジオラマ風の特殊効果処理を施す。つまり、撮影画像に対して、ぼかし処理を施す領域とぼかし処理を施さない領域が設定される。図6は、ジオラマ風の特殊効果処理を施した画像の一例を示す。図6の画像例では3つの領域601、602、603から画像が構成される。領域601、603は、領域602に対してそれぞれ上下に位置しており、ぼかし処理を施した領域である。ぼかし処理については、ローパスフィルタ処理や、画像を一度縮小してから再拡大する処理等の公知の方法によって行われる。これに対して領域602は、解像領域、つまりオリジナルの撮影画像のままの領域である。このように、画像の上下がぼけた状態で、中心部に解像感が残った画像を生成する処理により、ジオラマ風の効果が得られる。
図2のS204において、立体画像データ生成部112は立体画像データの生成を行う。S205において立体画像の出力処理が行われる。
次に図5を参照して、S204の立体画像データ生成の処理について詳細に説明する。
S501において、立体画像データ生成部112はシステム制御部101の指示に基づき、対象画像について、順次に選択された各画素の画素データを取得する。この場合の対象画像は、DRAM106に記憶された撮影画像に対し、ジオラマ風の特殊効果処理を施した画像である。立体画像データ生成部112はさらに、DRAM106に記憶された奥行き情報から画素位置に対応する距離値を取得する。
S502では、S501で取得された画素について、ぼかし処理を施さない画素であるか、またはぼかし処理を施した画素であるかが判定される。ぼかし処理を施さない画素である場合、S503に進み、ぼかし処理を施した画素である場合にはS504に進む。
S503において、立体画像データ生成部112またはシステム制御部101はS501で取得した画素の距離値について、奥行き方向の割り当てが多くなるように奥行き情報の変更を行う。例えば、立体画像データ生成部112は生成係数αの値を1.2として、
距離値×α
を新たな距離値と設定する。この距離値はDRAM106に奥行き情報として記憶される。
S504において、立体画像データ生成部112またはシステム制御部101はS501で取得した画素の距離値について、奥行き方向の割り当てが少なくなるように奥行き情報の変更を行う。例えば、立体画像データ生成部112は生成係数βの値を0.8として、
距離値×β
を新たな距離値と設定する。この距離値はDRAM106に奥行き情報として記憶される。
図7は、図5のS502およびS503で奥行き情報を変更した際の一例を示す。図7の横軸は奥行き情報の示す値を表す。縦軸は、図6に例示した画像において、縦線L604で示した、あるX座標値におけるY座標値を表す。図7(A)は、S503およびS504で奥行き情報を変更する前の状態における、奥行き情報とY座標との関係を示し、図7(B)は、変更後の奥行き情報とY座標との関係を示す。図7(B)では、図7(A)と比較して、ぼかし処理を施さない解像領域602について、奥行き方向の割り当てが多くなっていることが分かる。
図5のS505において、対象画像の全ての画素について処理が行われたか否かが判断される。全画素の処理が完了していない場合には、S501に戻り、処理を繰り返す。全画素の処理が完了した場合、立体画像データ生成を終了する。
本実施形態によれば、対象画像にぼかし処理を施す領域と、ぼかし処理を施さない解像領域を設定する画像処理(ジオラマ風の特殊効果処理)による立体表現の場合に、平面表現のときと同様にその効果を反映させて立体画像を出力できる。また、立体画像を出力する装置において奥行き方向の制約がある場合でも、ぼかし処理を施さない解像領域に係る奥行き方向の割り当て量を多くすることにより、制約の範囲内で特殊効果を効率よく立体表現できる。
本実施形態では、生成係数α,βの各値を固定値として定義した。これに限らず、ぼかし処理を施さない解像領域に係る奥行き方向の割り当てが多く反映されるように、「α>β」の関係を満たしていれば、他の方法で変更してもよい。また、ジオラマ風の効果をより高めるために、ぼかし処理の度合い(ぼかし量)を画像領域ごとに複数の段階で変化させてもよい。この場合、画像領域ごとに生成係数を切り替え、ぼかし処理の度合が強い画像領域ほど、生成係数値を小さく設定して奥行き情報の変更が行われる。
[第3実施形態]
次に、本発明の第3実施形態を説明する。本実施形態では、魚眼レンズ風の効果の例を説明する。この特殊効果処理は、対象画像に対して画像を変形させて歪ませることで、魚眼レンズで撮影したような効果をつける処理である。
図2を参照して、本実施形態における立体画像の出力処理について説明する。
S203において、画像信号処理部109はシステム制御部101の指示に基づき、S201で取得した撮影画像の画像全体について像高方向に歪み処理を行い、魚眼レンズ風の特殊効果処理を施す。図9を参照して歪み処理を説明する。図9は、像高方向に歪み処理を行い、魚眼レンズ風の効果をつける歪み量特性に関して、歪み処理に係る曲線の一例を示す。水平方向の軸は像高値を表し、垂直方向の軸は、入出力の像高方向の画素移動量の変化を示す歪み量を表す。画像の中心から、同心円状に外側へ向かって像高方向に歪み量を変化さながら、画素の位置を移動させる座標変換処理が行われる。
図10は魚眼レンズ風の特殊効果処理を施した画像例を示す。撮影画像に対し、図9で説明した歪み量特性の歪み処理を施すことで、点線枠L1001内の画像部分に示すように、魚眼レンズで撮影したような効果が得られる。
次に、撮像画像の歪み処理において、画素の位置を移動させる座標変換処理について説明する。歪み処理による座標変換後の画像内のある座標を(x,y)と記し、歪み処理前、つまり座標変換前の座標を(x、y)と記す。座標変換後の新しい画素座標(x,y)に対する撮影画像の画素座標(x,y)を計算した結果、この座標が図11に示すように、4点の画素座標の画素間の位置に該当するものとする。撮像画像における4点の画素座標をそれぞれ、(u,v)、(u+1,v)、(u,v+1)、(u+1,v+1)と表記する。撮影画像上では画素座標(x,y)の位置での画素値が存在しないため、線形補間法により、周囲の4画素の座標(u,v)、(u+1,v)、(u,v+1)、(u+1,v+1)からの距離による加重平均処理を行うことで画素値が算出される。その結果、以下のように画素座標(x,y)での画素値が求まる。座標変換前の座標(x,y)の画素値を“F(x,y)”と表記し 、座標変換後の座標(x,y)の画素値を“F(x,y)”と表記すると、次式のようになる。
(x,y)= F(u,v)・(1−m)・(1−n)
+F(u+1,v)・m・(1−n)
+F(u,v+1)・(1−m)・n
+F(u+1,v+1)・m・n
上式中の変数mは、画素座標(u,v)と(u+1,v)でそれぞれ示す2点を結ぶ線分について、画素座標(u,v)を基準として、「m:1−m」に内分する場合の比率を表す(0≦m≦1)。また変数nは、画素座標(u,v)と(u,v+1)でそれぞれ示す2点を結ぶ線分について、画素座標(u,v)を基準として、「n:1−n」に内分する場合の比率を表す(0≦n≦1)。
このように線形補間法により、座標変換後の画素値F(x,y)が算出される。本実施形態では、ある画素の周囲にある4画素についての線形補間法による画素値の算出例を示した。これに限らず、補間したい点に最も近い格子点の画素値をそのまま使う方法、または、その他の補間方法を用いて座標変換を行ってもよい。
図2のS204において、立体画像データ生成部112は立体画像データの生成を行う。図8を参照して、立体画像データの生成処理を詳細に説明する。
S801において立体画像データ生成部112は、システム制御部101の指示にしたがい、DRAM106に記憶された奥行き情報についても、撮影画像の場合と同様に座標変換を行う。距離値についても、S203で説明した線形補間法と同様に、距離値による線形補間処理が行われ、歪み処理後の撮影画像の各画素と1対1に対応するように関連付けられて、奥行き情報の変更が行われる。変換後の奥行き情報を用いて、DRAM106に記憶された奥行き情報が更新される。
S802において、立体画像データ生成部112はシステム制御部101の指示にしたがい、対象画像に歪み処理を施した撮影画像について、順次に選択される各画素の画素データを取得する。さらに立体画像データ生成部112は、DRAM106に記憶された奥行き情報から、画素の画素位置に対応する距離値を取得する。
S803は、S802で取得した画素データに関し、歪み処理による歪み量が閾値を超えているか否かについての判定処理である。本実施形態では、歪み量の入出力の像高方向における画素移動量の変化の傾きで生成係数を切り替えるものとし、傾きが増加している場合に閾値を超えていると判断される。具体的には、図9の歪み処理の曲線の場合、像高H901を基準として、像高が低い側(左側)は歪み量の傾きが増加している。また、像高H901よりも像高が高い側(右側)は、歪み量の傾きが減少している。また、図10を例にすると、点線枠L1001で囲まれた内側の画像部分は、歪み量の傾きが増加している領域であり、点線枠L1001の外側の画像部分は、歪み量の傾きが減少している領域である。S803にて歪み量の傾きが増加している画素であることが判定された場合、S804に進み、歪み量の傾きが減少している画素であることが判定された場合にはS805に進む。
S804において立体画像データ生成部112またはシステム制御部101は、S801で取得した画素の距離値について、奥行き方向の割り当てが多くなるように奥行き情報の変更を行う。これは第1及び第2実施形態の場合と同様に、距離値に生成係数αを乗算することにより行われる。またS805において立体画像データ生成部112またはシステム制御部101は、S801で取得した画素の距離値について、奥行き方向の割り当てが少なくなるように奥行き情報の変更を行う。これは第1及び第2実施形態の場合と同様に、距離値に生成係数βを乗算することにより行われる。S804またはS805の処理後、S806にて立体画像データ生成部112は、対象画像の全ての画素について処理を行ったかどうかを判断する。全ての画素の処理が完了していない場合には、S802に戻り、処理を繰り返す。全ての画素の処理が完了した場合、立体画像データの生成処理を終了する。その後、図2のS205において立体画像データの出力処理が実行される。
本実施形態によれば、画像を歪ませて魚眼レンズで撮影したかのような効果をつける魚眼レンズ風の特殊効果処理を施して立体表現を行う場合、平面表現のときと同様に当該効果を反映させて立体画像を出力することができる。また、立体画像を出力する装置に奥行き方向の制約がある場合でも、魚眼レンズ風の特殊効果処理により歪み量が閾値を超える画像領域の奥行き方向の割り当て量を多くすることにより、制約の範囲内で特殊効果を効率よく立体表現できる。
本実施形態では、生成係数について像高方向の画素移動量の変化の傾きに応じて切り替える例を示した。これに限らず、歪み処理による歪み量の大きさに応じて、奥行き方向の割り当て比率を変更する等、歪み処理の効果をつけたい画像部分に奥行き方向の割り当てが多く反映される方法で変更してもよい。また、像高方向に歪み処理を行う魚眼レンズ風の特殊効果を例示したが、その他の座標変換処理を伴う各種の画像処理に適用可能である。例えば、座標変換処理による画素の位置の移動量に応じて、画像の奥行き情報(距離値)を変更する処理が行われ、移動量が大きいほど奥行き方向の割り当て量が多くなる。
実施形態によれば、奥行き方向の限られたサイズの中で、画像処理の種類(特殊効果処理や座標変換処理等)に応じて画像効果を反映させた立体画像あるいは立体画像生成のための情報を出力することが可能な画像出力装置を提供できる。
[その他の実施形態]
上記実施形態ではデジタルカメラを例示して説明したが、各種の装置に適用可能である。例えば、画像データおよびその奥行き情報を入力情報として、立体画像データを出力する3Dプリンタ等の出力装置や、コンピュータ等の情報処理装置にてプログラムの形態で実施可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100:カメラ本体部
101:システム制御部
108:撮像部
109:画像信号処理部
111:奥行き情報生成部
112:立体画像データ生成部
113:立体画像出力部

Claims (16)

  1. 2次元の画像データおよび該画像データに関する奥行き情報を取得して立体画像データを生成して出力する画像出力装置であって、
    前記画像データに対して画像処理を施す画像処理手段と、
    前記画像処理手段により画像処理を施された前記画像データおよび奥行き情報から前記立体画像データを生成する生成手段と、
    前記画像処理手段による画像処理に応じて奥行き情報を変更し、当該変更された奥行き情報を用いて前記生成手段に前記立体画像データを生成させる制御を行う制御手段と、を備え
    前記画像処理手段は、画像のコントラスト強調処理を行い、
    前記制御手段は、前記コントラスト強調処理による輝度値の相対的な変化にしたがって前記奥行き情報を変更することを特徴とする画像出力装置。
  2. 2次元の画像データおよび該画像データに関する奥行き情報を取得して立体画像データを生成して出力する画像出力装置であって、
    前記画像データに対して画像処理を施す画像処理手段と、
    前記画像処理手段により画像処理を施された前記画像データおよび奥行き情報から前記立体画像データを生成する生成手段と、
    前記画像処理手段による画像処理に応じて奥行き情報を変更し、当該変更された奥行き情報を用いて前記生成手段に前記立体画像データを生成させる制御を行う制御手段と、を備え
    前記画像処理手段は、画像を変形させる歪み処理を行い、
    前記制御手段は、前記歪み処理の歪み量の大きさまたは前記歪み量の変化の度合いにより前記奥行き情報を変更することを特徴とする画像出力装置。
  3. 前記制御手段は、前記画像処理手段が前記画像データに施す画像処理の種類に基づいて、前記奥行き情報を変更することを特徴とする請求項1または2に記載の画像出力装置。
  4. 前記制御手段は、前記画像処理が施された前後の画像データを解析した結果に基づいて前記奥行き情報を変更することを特徴とする請求項1または2に記載の画像出力装置。
  5. 前記奥行き情報として前記画像データから距離マップを生成する奥行き情報生成手段を備えることを特徴とする請求項1乃至のいずれか1項に記載の画像出力装置。
  6. 前記制御手段は、前記コントラスト強調処理を施す前の輝度値と、前記コントラスト強調処理を施した後の輝度値から算出される係数を距離値に乗算することにより前記奥行き情報を変更することを特徴とする請求項に記載の画像出力装置。
  7. 前記画像処理手段は、画像のぼかし処理を行い、
    前記制御手段は、前記奥行き情報について、前記ぼかし処理を施さない領域と前記ぼかし処理を施す領域とで異なる設定を行うことを特徴とする請求項1乃至のいずれか1項に記載の画像出力装置。
  8. 前記制御手段は、前記画像の奥行き方向にて奥側を基準とする距離値について、前記ぼかし処理によるぼかし量が大きい領域ほど距離値を小さく設定することを特徴とする請求項7に記載の画像出力装置。
  9. 前記画像処理手段は、画像に対して画素の位置を移動させる座標変換処理を行い、
    前記制御手段は、前記座標変換処理による前記画素の位置の移動量を取得して前記奥行き情報を変更することを特徴とする請求項1乃至のいずれか1項に記載の画像出力装置。
  10. 前記画像データは、撮像光学系の異なる瞳領域を通過する光束をそれぞれ受光する複数の画素を有する撮像素子からの出力に基づいて得られ、
    前記奥行き情報は、前記複数の画素から出力される画素データ間のデフォーカス量に基づいて取得されることを特徴とする請求項1乃至のいずれか1項に記載の画像出力装置。
  11. 2次元の画像データおよび該画像データに関する奥行き情報を取得する取得手段と、
    記画像処理手段により画像処理が施された画像データと、前記制御手段により変更された奥行き情報とを関連付けて出力する出力手段と、を備えることを特徴とする請求項1乃至10のいずれか1項に記載の画像出力装置。
  12. 請求項1乃至11のいずれか1項に記載の画像出力装置と、
    被写体を撮像する撮像手段を備えることを特徴とする撮像装置。
  13. 前記撮像手段は、撮像光学系の異なる瞳領域を通過する光束をそれぞれ受光する複数の画素を有し、
    前記奥行き情報は、前記複数の画素から出力される画素データ間のデフォーカス量に基づいて取得されることを特徴とする請求項12に記載の撮像装置。
  14. 2次元の画像データおよび該画像データに関する奥行き情報を取得して立体画像データを生成して出力する画像出力装置にて実行される制御方法であって、
    前記画像データに対して画像処理を施す画像処理ステップと、
    前記画像処理ステップによる画像処理に応じて前記奥行き情報を変更する変更ステップと、
    前記画像処理ステップにて画像処理を施された前記画像データおよび前記変更ステップにて変更された前記奥行き情報を用いて立体画像データを生成する生成ステップと、を有し、
    前記画像処理ステップでは、画像のコントラスト強調処理が行われ、
    前記変更ステップでは、前記コントラスト強調処理による輝度値の相対的な変化にしたがって前記奥行き情報を変更する処理が行われることを特徴とする制御方法。
  15. 2次元の画像データおよび該画像データに関する奥行き情報を取得して立体画像データを生成して出力する画像出力装置にて実行される制御方法であって、
    前記画像データに対して画像処理を施す画像処理ステップと、
    前記画像処理ステップによる画像処理に応じて前記奥行き情報を変更する変更ステップと、
    前記画像処理ステップにて画像処理を施された前記画像データおよび前記変更ステップにて変更された前記奥行き情報を用いて立体画像データを生成する生成ステップと、を有し、
    前記画像処理ステップでは、画像を変形させる歪み処理が行われ、
    前記変更ステップでは、前記歪み処理の歪み量の大きさまたは前記歪み量の変化の度合いにより前記奥行き情報を変更する処理が行われることを特徴とする制御方法。
  16. 請求項14または15に記載の各ステップをコンピュータに実行させることを特徴とするプログラム。
JP2015083229A 2015-04-15 2015-04-15 画像出力装置およびその制御方法、撮像装置、プログラム Active JP6544978B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015083229A JP6544978B2 (ja) 2015-04-15 2015-04-15 画像出力装置およびその制御方法、撮像装置、プログラム
US15/096,828 US10356381B2 (en) 2015-04-15 2016-04-12 Image output apparatus, control method, image pickup apparatus, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015083229A JP6544978B2 (ja) 2015-04-15 2015-04-15 画像出力装置およびその制御方法、撮像装置、プログラム

Publications (2)

Publication Number Publication Date
JP2016208075A JP2016208075A (ja) 2016-12-08
JP6544978B2 true JP6544978B2 (ja) 2019-07-17

Family

ID=57128506

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015083229A Active JP6544978B2 (ja) 2015-04-15 2015-04-15 画像出力装置およびその制御方法、撮像装置、プログラム

Country Status (2)

Country Link
US (1) US10356381B2 (ja)
JP (1) JP6544978B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102423295B1 (ko) 2017-08-18 2022-07-21 삼성전자주식회사 심도 맵을 이용하여 객체를 합성하기 위한 장치 및 그에 관한 방법
JP7199169B2 (ja) * 2018-07-05 2023-01-05 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
WO2020171425A1 (en) 2019-02-18 2020-08-27 Samsung Electronics Co., Ltd. System and method for providing weather effect in image
US11302040B2 (en) 2019-06-24 2022-04-12 Samsung Electronics Co., Ltd. System and method for providing weather effect in image
JP2020141226A (ja) * 2019-02-27 2020-09-03 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6445833B1 (en) * 1996-07-18 2002-09-03 Sanyo Electric Co., Ltd Device and method for converting two-dimensional video into three-dimensional video
JP2001238231A (ja) * 2000-02-24 2001-08-31 Sharp Corp 立体映像視覚効果付加装置及び方法
EP1185112B1 (en) * 2000-08-25 2005-12-14 Fuji Photo Film Co., Ltd. Apparatus for parallax image capturing and parallax image processing
US9082221B2 (en) * 2008-06-30 2015-07-14 Thomson Licensing Method for the real-time composition of a video
TW201005673A (en) * 2008-07-18 2010-02-01 Ind Tech Res Inst Example-based two-dimensional to three-dimensional image conversion method, computer readable medium therefor, and system
JP2010191925A (ja) 2009-01-23 2010-09-02 Casio Computer Co Ltd 印刷装置
US8902283B2 (en) * 2010-10-07 2014-12-02 Sony Corporation Method and apparatus for converting a two-dimensional image into a three-dimensional stereoscopic image
TWI443600B (zh) * 2011-05-05 2014-07-01 Mstar Semiconductor Inc 影像處理的方法與相關裝置
US9471988B2 (en) * 2011-11-02 2016-10-18 Google Inc. Depth-map generation for an input image using an example approximate depth-map associated with an example similar image
JP5911166B2 (ja) * 2012-01-10 2016-04-27 シャープ株式会社 画像処理装置、画像処理方法、画像処理プログラム、撮像装置、及び画像表示装置
JP2014090252A (ja) * 2012-10-29 2014-05-15 Canon Inc 画像処理装置およびその制御方法、撮像装置およびその制御方法、並びに画像処理プログラム
JP5783188B2 (ja) 2013-01-25 2015-09-24 カシオ計算機株式会社 レリーフ加工装置
US9388664B2 (en) * 2013-06-27 2016-07-12 Baker Hughes Incorporated Hydraulic system and method of actuating a plurality of tools
US9407896B2 (en) * 2014-03-24 2016-08-02 Hong Kong Applied Science and Technology Research Institute Company, Limited Multi-view synthesis in real-time with fallback to 2D from 3D to reduce flicker in low or unstable stereo-matching image regions

Also Published As

Publication number Publication date
JP2016208075A (ja) 2016-12-08
US20160309142A1 (en) 2016-10-20
US10356381B2 (en) 2019-07-16

Similar Documents

Publication Publication Date Title
JP7003238B2 (ja) 画像処理方法、装置、及び、デバイス
US9076214B2 (en) Image acquisition apparatus and image processing apparatus using selected in-focus image data
JP6347675B2 (ja) 画像処理装置、撮像装置、画像処理方法、撮像方法及びプログラム
US10154216B2 (en) Image capturing apparatus, image capturing method, and storage medium using compressive sensing
JP6544978B2 (ja) 画像出力装置およびその制御方法、撮像装置、プログラム
CN109255810B (zh) 图像处理装置及图像处理方法
US8947585B2 (en) Image capturing apparatus, image processing method, and storage medium
JP2015035658A (ja) 画像処理装置、画像処理方法、および撮像装置
EP2504992A2 (en) Image processing apparatus and method
US9332195B2 (en) Image processing apparatus, imaging apparatus, and image processing method
WO2021093635A1 (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
JP5766077B2 (ja) ノイズ低減のための画像処理装置及び画像処理方法
US11282176B2 (en) Image refocusing
US10148870B2 (en) Image capturing apparatus
JP2013145982A (ja) 撮像装置、画像処理装置及び方法
JP6270413B2 (ja) 画像処理装置、撮像装置、および画像処理方法
JP2015142364A (ja) 画像処理装置、撮像装置、及び画像処理方法
JP6682184B2 (ja) 画像処理方法、画像処理プログラム、画像処理装置および撮像装置
JP6362070B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体
JP2018018425A (ja) 画像処理装置及び画像処理方法
JP5743769B2 (ja) 画像処理装置および画像処理方法
JP2017163412A (ja) 画像処理装置およびその制御方法、撮像装置、プログラム
JP2019047145A (ja) 画像処理装置、撮像装置、画像処理装置の制御方法およびプログラム
CN112866674B (zh) 深度图获取方法、装置、电子设备和计算机可读存储介质
JP2018081534A (ja) 画像処理装置、撮像装置および制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181030

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190618

R151 Written notification of patent or utility model registration

Ref document number: 6544978

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151