JP2022186023A - 画像処理装置、撮像装置、画像処理方法およびプログラム - Google Patents

画像処理装置、撮像装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP2022186023A
JP2022186023A JP2021094028A JP2021094028A JP2022186023A JP 2022186023 A JP2022186023 A JP 2022186023A JP 2021094028 A JP2021094028 A JP 2021094028A JP 2021094028 A JP2021094028 A JP 2021094028A JP 2022186023 A JP2022186023 A JP 2022186023A
Authority
JP
Japan
Prior art keywords
area
image
light source
virtual light
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021094028A
Other languages
English (en)
Inventor
拓也 石橋
Takuya Ishibashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021094028A priority Critical patent/JP2022186023A/ja
Priority to US17/830,475 priority patent/US11790600B2/en
Publication of JP2022186023A publication Critical patent/JP2022186023A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/60Shadow generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Studio Devices (AREA)
  • Image Generation (AREA)

Abstract

【課題】主被写体がその他の被写体に適切な影を生成することが可能な仮想光源の方向を設定可能な画像処理装置を提供する。【解決手段】画像処理装置100は、被写体の形状情報を取得する形状取得部105と、被写体の影を生成する第1の領域を検出する第1の領域検出部106と、影が投影される第2の領域を検出する第2の領域検出部107と、形状情報、第1の領域および第2の領域に基づいて、第1の領域が第2の領域へ影を投影する仮想光源の方向を決定する仮想光源方向設定部108と、形状情報および決定された仮想光源の方向に基づいて、影が付与された画像を生成する画像生成部109と、を有する。【選択図】図1

Description

本発明は、画像処理装置、撮像装置、画像処理方法およびプログラムに関する。
画像処理によって陰影を付与した陰影付与画像を生成するリライティング処理(影付処理)と呼ばれる画像処理がある。リライティング処理では、例えば、仮想光源を設定し、設定した仮想光源の方向と被写体の形状情報を用いて仮想光源が生成する陰影の領域を算出し、算出した領域に陰影を付与することで陰影付与画像を生成する。特許文献1は、設定した仮想光源と人物の顔との間に遮蔽物がある場合にリライティング処理により人物の顔に不要な影が付かないように、人物と遮蔽物の位置関係に基づいて仮想光源の位置を設定する技術を開示している。
特開2020-10168号公報
特許文献1では、人物の顔が遮蔽物の影となることは回避できるが、それだけではユーザが所望する適切な影を生成することができない恐れがある。リライティング処理において適切な影を生成するためには、適切な仮想光源の方向を自動で決定することが求められる。
本発明は、主被写体がその他の被写体に適切な影を生成することが可能な仮想光源の方向を設定可能な撮像装置を提供することを目的とする。
上記課題を解決するために、本発明の画像処理装置は、被写体の形状情報を取得する形状取得手段と、被写体の影を生成する第1の領域を検出する第1の領域検出手段と、前記影が投影される第2の領域を検出する第2の領域検出手段と、前記形状情報、前記第1の領域および前記第2の領域に基づいて、前記第1の領域が前記第2の領域へ前記影を投影する仮想光源の方向を設定する方向設定手段と、前記形状情報および設定された前記仮想光源の方向に基づいて、前記影が付与された画像を生成する画像生成手段と、を有する。
本発明によれば、主被写体がその他の被写体に適切な影を生成することが可能な仮想光源の方向を設定することができる。
撮像装置全体の構成を説明する図である。 撮像部および撮像光学系について説明する図である。 リライティング処理を示すフローチャートである。 形状情報取得方法を示すフローチャートである。 距離情報の算出方法を示すフローチャートである。 微小ブロックについて説明する図である。 像ずれ量と相関値の関係を説明する図である。 仮想光源の方向の決定方法を示すフローチャートである。 仮想光源の方向の決定方法を説明する図である。 ユーザが指定した仮想光源の概略方向に基づいた仮想光源の方向の決定方法を説明する図である。 単光源で画像生成する方法を説明する図である。 複数光源で画像生成する方法を説明する図である。
(第1実施形態)
図1は、撮像装置全体の構成を説明する図である。撮像装置110は、画像処理装置100、撮像部112を備える。また、撮像装置110にはレンズ装置111が着脱可能に接続されている。本実施形態の画像処理装置100は、取得した画像に対する画像処理として、陰影を付与した陰影付与画像を生成するリライティング処理を実行する。画像処理装置100は、制御部101、メモリ102、パラメータ設定部103、画像取得部104、形状情報取得部105、第1の領域検出部106、第2の領域検出部107、仮想光源方向設定部108、画像生成部109を備える。
レンズ装置111は、撮像光学系を有する。撮像光学系は、ズームレンズやフォーカスレンズなどの複数のレンズ119、絞り、シャッタを備え、被写体の光学像を撮像素子に結像させる。撮像部112は、被写体を撮像する。被写体は、画像処理装置100が画像処理を行う対象である。撮像部112は、例えばCMOSやCCDといった光電変換素子を有する撮像素子であり、光学像に応じた出力信号(アナログ信号)を出力する。なお、本実施形態では撮像装置110にレンズ装置111が着脱可能に接続されている例を説明するが、撮像装置110とレンズ装置111が一体となった撮像装置であってもよい。
制御部101は、画像処理装置100を含む撮像装置110全体の動作を制御する。制御部101は、例えば、CPU(Central Processing Unit)を備える。CPUが、ROM(Read Only Memory)等の不揮発性メモリに記憶されたプログラムを実行することで、撮像装置110の機能や後述する各種処理が実現される。
撮像部112が出力した画像(以下、画像情報ともいう)は、画像取得部104に供給される。画像取得部104は、撮像部112で撮像した画像、または撮像装置110以外で撮像された画像を取得し、メモリ102に保存する。メモリ102は、画像を保存する。また、メモリ102は、各モジュールでの処理に必要な情報の読み出しと各モジュールでの処理結果の保存を行う。パラメータ設定部103は、ユーザからの撮影や画像処理などに関する各パラメータの設定を受け付け、ユーザによって入力された各パラメータ情報をメモリ102に保存する。後述するユーザにより指定される仮想光源の概略方向もパラメータ設定部103がユーザからその指定を受け付ける。
形状情報取得部105は、撮像部112で撮像した画像から形状情報を算出して取得する形状取得手段である。また、形状情報取得部105は、算出した形状情報、または、ユーザによって画像処理装置100へ入力された形状情報を取得する。形状情報取得部105は、取得した形状情報をメモリ102に保存する。
第1の領域検出部106は、画像情報、形状情報、第2の領域情報の少なくとも1つ以上の情報から第1の領域を検出する。本実施形態において第1の領域は、リライティング処理で影を発生させる被写体、すなわちリライティング処理により影を生成する領域である。第1の領域検出部106は、検出した第1の領域の情報をメモリ102に保存する。第2の領域検出部107は、画像情報、形状情報、第1の領域情報の少なくとも1つ以上の情報から第2の領域を検出する。本実施形態において第2の領域は、リライティング処理により第1の領域の影が投影(付与)される領域である。第2の領域検出部107は、検出した第2の領域の情報をメモリ102に保存する。
仮想光源方向設定部108は、第1の領域、第2の領域および形状情報に基づいて、リライティング処理を行う際の仮想光源の方向を設定する。仮想光源方向設定部108は、設定した仮想光源の方向の情報をメモリ102に保存する。画像生成部109は、仮想光源方向と形状情報に基づいて算出した陰影を画像へ付与した陰影付与画像を生成する。画像生成部109は、生成した陰影付与画像をメモリ102に保存する。このように本実施形態では、仮想光源が陰影を生成する被写体の領域(第1の領域)を算出し、算出した床面などの領域(第2の領域)に陰影を付与することで陰影付与画像を生成する。
図2は、撮像部112および撮像光学系について説明する図である。図2(A)は、撮像部112である撮像素子の構成を示す図である。撮像素子には、画素115が二次元的に規則的に配列されている。1つの画素115は、1つのマイクロレンズ114と、一対の光電変換部(光電変換部116Aおよび光電変換部116B)を有する。一対の光電変換部は、1つのマイクロレンズ114を介して撮像光学系の異なる瞳領域を通過する光束を受光する。各光電変換部によって受光された光束から複数の視点画像(一対の視点画像)が生成される。以下では、光電変換部116Aで撮像された視点画像をA像、光電変換部116Bで撮像された視点画像をB像と呼ぶ。また、A像とB像を合成した画像をA+B像とする。撮像部112の各画素が一対の光電変換部を有することにより、撮像光学系の異なる瞳領域を通過する光束に基づく一対の画像データ(A像、B像)を取得することが可能である。A像およびB像の視差に基づいて、一対の測距瞳を通過する光束の重心の開き角の大きさによって決まる変換係数等のパラメータを用いることにより、被写体と撮像装置110との距離情報を算出することが可能である。
図2(B)に、レンズ装置111が有する撮像光学系の構成を示す図である。撮像部112は、物体118から発せられた光をレンズ119により結像面120で結像し、撮像素子のセンサ面121で受光する。撮像部112は、光電変換を行い、光学像に応じた画像(アナログ信号)を出力する。本実施形態では、以上のように構成された撮像装置110において、被写体に適切な影を付加することが可能な仮想光源の方向を設定してリライティング処理を行う。
図3は、リライティング処理を示すフローチャートである。ステップS301において、パラメータ設定部103は、リライティング処理に関するパラメータの取得を行う。パラメータ設定部103は、パラメータとして少なくとも下記の(a)~(d)の情報を取得する。
(a)撮像装置から被写体のピント位置までの距離
(b)一対の測距瞳を通過する光束の重心の開き角の大きさによって決まる変換係数
(c)撮像装置のレンズにおける像側主点からセンサ面までの距離
(d)撮像装置の焦点距離
パラメータ設定部103は、これらのパラメータをメモリ102から取得してもよいし、撮像装置110内の各モジュールから取得してもよい。
ステップS302において、画像取得部104は、画像の取得を行う。画像取得部104は、撮像装置110で撮影した画像を撮像部112から取得してもよいし、予め撮像された保存された画像をメモリ102から取得してもよい。ステップS303において、形状情報取得部105は、形状情報の取得を行う。ここで形状情報は、被写体の形状に関する情報である。具体的には、本実施形態における形状情報は、被写体の形状の位置を点群で示した形状の位置情報、点群における局所領域の面の傾きを示す法線情報、位置情報と法線情報の信頼度情報を含む情報である。形状の位置情報は、撮像装置110から被写体までの距離情報から取得することが可能である。局所領域の面の傾きとは、局所領域の形状における変位量や面法線等の情報である。
形状情報の取得処理の詳細について、図4を用いて説明する。図4はステップS303に示される形状情報取得処理を示すフローチャートである。形状情報取得処理では、距離情報、法線情報、信頼度情報をそれぞれ取得する。
(距離情報取得処理)
まず、ステップS401において、形状情報取得部105は、撮像装置110から被写体までの距離情報の算出を行う。例えば、形状情報取得部105は、複数の視点信号間の視差から相関演算等によって像ずれ量を算出してデフォーカス量に換算する。そして、デフォーカス量に基づいて距離情報を算出することができる。距離情報の算出処理の詳細については、図5を用いて説明する。
図5は、距離情報の取得処理を示すフローチャートである。ステップS501において、形状情報取得部105は、ステップS302で取得した画像から複数の画像(視点画像、瞳分割画像)を生成する。本実施形態では複数の画像として一対の画像を生成する。一対の画像は、例えば、光電変換部116Aから出力されたA像画像および光電変換部116Bから出力されたB像画像である。なお、一対の画像は、影部がなるべく少ない画像が好ましい。これは、影部はコントラストが低くなり、ステレオマッチングによる視差算出精度が低下してしまうためである。影部が少ない画像は、全発光や発光なし等の照明条件下で撮像することにより取得することが可能である。また、また、撮像装置110が発光部を有する場合に、発光部の投影系に格子状などのパターンを配置し被写体にパターンを投影した画像を撮影することで、テクスチャがない被写体にパターンをつけることができ、視差算出精度を高めることができる。
ステップS502において、形状情報取得部105は、一対の画像データそれぞれに対して微小ブロックを設定する。本実施形態では、ステップS501で生成したA像とB像に対して同じ大きさの微小ブロックを設定する。微小ブロックは一般にテンプレートマッチングを行う際に設定されるウィンドウと同義である。微小ブロックの設定について図6を用いて説明する。
図6は、微小ブロックについて説明する図である。図6(A)は、ステップS502で設定される微小ブロックについて説明する図である。着目画素604のデフォーカス量を算出するために、A像601には着目画素604を中心とする微小ブロック603が、B像602には微小ブロック603と同じ大きさの微小ブロック605が設定される。このように、本実施形態では画素ごとに微小ブロックの中心となる着目画素を設定し、着目画素を中心とした微小ブロックを設定する。図6(B)は、微小ブロックの形状について説明する図である。微小ブロック603が着目画素604を中心とする9画素分の大きさであったのに対し、微小ブロック606は着目画素604を中心とする25画素分の大きさである。このように、設定する微小ブロック大きさは変更することが可能である。
ステップS503において、形状情報取得部105は、像ずれ量を算出する。形状情報取得部105は、ステップS502で設定した微小ブロックにおいて相関演算処理を行い、各点の像ずれ量を算出する。相関演算では、微小ブロックにおける一対の画素データをそれぞれE、Fと一般化して表現する。例えば、A像に対応するデータ系列Eに対してB像に対応するデータ系列Fを相対的にずらしながら、下記の数式(1)によりこの2つのデータ列間のずらし量kにおける相関量C(k)を演算する。
C(k)=Σ|E(n)―F(n+k)|・・・(1)
数式(1)において、C(k)はデータ系列の番数nについて計算される。ずらし量kは整数であり、画像データのデータ間隔を単位とした相対的なシフト量である。なお、ずらし量kはステレオマッチング法における視差量と同義である。
数式(1)の演算結果の例について図7を用いて説明する。図7は、像ずれ量と相関値の関係を説明する図である。図7では、横軸が像ずれ量、縦軸が相関量を表している。また、相関量C(k)はずらし量kにおける離散的な相関量を、相関量C(x)は像ずれ量xによる連続的な相関量を表している。図7では、一対のデータ系列の相関が高い像ずれ量において、相関量C(k)が最小になる。
連続的な相関量C(x)が最小となる像ずれ量xは、例えば、下記の数式(2)~(5)による3点内挿の手法を用いて算出される。
x=kj+D/SLOP・・・(2)
C(x)=C(kj)-|D|・・・(3)
D={C(kj-1)-C(kj+1)}/2・・・(4)
SLOP=MAX{C(kj+1)-C(kj),C(kj-1)-C(kj)}
・・・(5)
ここで、kjは離散的な相関量C(k)が最小となるkである。数式(2)で求めたシフト量xを一対の画像データにおける像ずれ量とする。なお、像ずれ量xの単位はpixelとする。
ステップS504において、形状情報取得部105は、像ずれ量をデフォーカス量に換算する。デフォーカス量は、その大きさが被写体像の結像面120からセンサ面121までの距離を表す。具体的には、形状情報取得部105は、デフォーカス量DEFを、数式(2)で求めた像ずれ量xに基づいて下記の数式(6)で求めることができる。
DEF=KX・x・・・(6)
数式(6)においてKXは、一対の測距瞳を通過する光束の重心の開き角の大きさによって決まる変換係数である。このように、着目画素位置を1画素ずつずらしながらステップS502~ステップS504の処理を繰り返すことで、各画素位置のデフォーカス量を算出することができる。
ステップS505において、形状情報取得部105は、ステップS504で算出したデフォーカス量に基づいて、撮像装置110のセンサ面121から被写体までの距離zを算出する。距離zは、下記の数式(7)~(8)で算出できる。
dist=1/(1/(dist_d+DEF)-1/f)・・・(7)
z=length-dist・・・(8)
distはピント位置から被写体までの距離、dist_dは撮像装置110の撮像部112のレンズにおける像側主点からセンサ面121までの距離、fは焦点距離、lengthは撮像装置110のセンサ面121からピント位置までの距離を示す。ピント位置は、合焦位置に相当する。なお、本実施形態において形状情報取得部105は数式(6)~数式(8)を用いて像ずれ量xから各点における距離zを算出する例を説明したがこれに限られるものではなく、その他の算出方法で各点における距離zを算出してもよい。
撮像装置110のセンサ面121からピント位置までの距離lengthは、例えば、不図示のレーザ測距手段により、測定することが可能である。また、撮影時のレンズ位置とピント位置の関係をデータテーブルとして有することで、撮影時のレンズ位置に対応したピント位置までの距離を推定することが可能である。レンズ位置とピント位置の関係を示すデータテーブルにより、撮像装置110のセンサ面121からピント位置までの距離を測距する手間を低減できる。
以上により、複数の画像から得られるデフォーカス量または像ずれ量から、撮像装置110のセンサ面121から被写体までの距離zを算出することができる。このように、1枚の画像から一対の画像データを生成する方法によって情報を算出できることから、撮像装置は複眼である必要はなく、単眼のカメラでよいため、撮像装置の構成を簡易にすることができる。さらに、複数のカメラを設置する際のキャリブレーション処理も簡易、または不要とすることができる。また、ステップS501において撮像装置110で撮像した画像情報から画像処理装置100が距離zを算出する例を説明したが、これに限られるものではない。例えば、ステレオカメラによって距離zを算出することも可能である。また、これらの距離zの算出を撮像装置110の外部装置で行い、外部装置で算出された距離zを画像処理装置100が取得することも可能である。被写体までの距離情報を画像から算出するのではなく、LiDARのような装置で取得するようにしてもよい。なお、S401で算出する撮像装置110と被写体との距離情報は、センサ面121からの距離を例に説明したが、これに限定されるものではなく、撮像装置110のレンズ先端から等の任意の位置からの距離でもよい。
(法線情報取得処理)
図4の説明に戻る。ステップS402において、形状情報取得部105は、法線情報の取得を行う。法線情報は局所領域の面の傾きである。局所領域の面の傾きは、取得した距離情報を面内方向に微分して変位量を算出する方法や、照度差ステレオ法によって面法線を算出する方法で取得することが可能である。本実施形態では一例として、面法線を局所領域の面の傾き、すなわち奉先情報として使用する。
(信頼度情報取得処理)
ステップS403において、形状情報取得部105は、信頼度情報の取得を行う。信頼度は、信頼度の評価値を決定することによって算出できる。信頼度は、距離情報と法線情報のそれぞれに対して取得することが可能である。
距離情報の信頼度について説明する。距離情報の信頼度とは、取得した距離情報が使用できるかを判断する情報である。信頼度が低い場合は算出された距離情報の確からしさも低くなる。信頼度を評価値として算出して数値化し、評価値と閾値を比較することで、信頼度の高低を評価することが可能となる。信頼度の評価値は、例えば、画像の輝度、画像のコントラスト、距離情報取得時のデフォーカス量などから算出することができる。画像の輝度、画像のコントラスト、距離情報取得時のデフォーカス量などから算出される評価値によって得られる信頼度は、1枚の画像から一対の画像データを生成してデフォーカス量を算出することによって距離情報を取得する方法に対して適応可能である。一方、距離情報をLiDARのような装置で取得する場合、反射して帰ってきたレーザの信号の振幅が規定値より低い場合、その距離情報の信頼度の評価値を下げるなどの方法が考えられる。このように、距離情報の取得方法によって距離情報の信頼度の評価値を算出するための評価項目を変えることが可能である。
まず、画像の輝度の評価値について説明する。本実施形態において距離情報を取得する場合に、一対の画像から像ずれ量を算出しているが、画像の信号が明る過ぎる、または暗すぎる領域については像ずれ量の算出精度は低下する。画像の輝度を表現する際の輝度の中央値をLm、評価する画素の輝度Lpとすると、輝度の評価値Lは下記の数式(9)によって求めることができる。
L=-|Lm-Lp|・・・(9)
数式(9)のように評価値Lを設定することで、輝度を表現する際の輝度の中央値から画素の輝度が離れるにしたがって輝度の評価値Lを小さくすることが可能である。輝度の評価値Lにより、画像の輝度による距離情報の信頼度への影響を考慮することができる。
次に、画像のコントラストの評価値について説明する。本実施形態において距離情報を取得する場合に、一対の画像から像ずれ量を算出していが、画像の信号のコントラストが低い領域は相関量C(k)から最小値を求める精度が低下する。画像のコントラストを各画素とその周辺の輝度から輝度の分散を算出し、分散をコントラストの評価値Bとすることで画像のコントラストの評価値を算出することができる。コントラストの評価値Bにより、画像のコントラストによる距離情報の信頼度への影響を考慮することができる。
最後に、デフォーカス量の評価値について説明する。デフォーカス量から距離情報を算出することができるが、デフォーカス量の絶対値が大きくなるにしたがって画像のボケが大きくなることから測距精度が低下する。すなわち、デフォーカス量の絶対値が大きくなるにしたがって信頼度の評価値が低下する。数式(6)で算出したデフォーカス量DEFについて、デフォーカス量の評価値をDとすると、数式(10)によってデフォーカス量の評価値Dを求めることができる。
D=|DEF|・・・(10)
デフォーカス量の評価値Dにより、距離情報取得時のデフォーカス量による距離情報の信頼度への影響を考慮することができる。
距離情報の信頼度の評価値をMとすると、信頼度の評価値Mは、画像の輝度の評価値、画像のコントラストの評価値、距離情報取得時のデフォーカス量の評価値に基づいて、下記の数式(11)により求めることができる。
M=L+B+D・・・(11)
形状情報取得部105は、距離情報の信頼度の評価値Mを各画素で求める。そして、形状情報取得部105は各画素の評価値Mを任意の閾値と比較することで、各画素での距離情報の信頼度の高低を判定する。形状情報取得部105は、距離情報の信頼度の評価値Mが閾値未満であれば低信頼の距離情報と判定し、距離情報の信頼度の評価値Mが閾値以上であれば高信頼の距離情報と判定する。
次に、法線情報の信頼度について説明する。法線情報の信頼度とは、取得した法線情報が使用できるかを判断するための情報である。法線情報の信頼度の算出方法としては、例えば、照度差ステレオ法によって法線情報を算出する際に撮影した画像を利用する方法がある。照度差ステレオ法は、光源方向を変えて被写体に光を照射したシーンの画像を複数枚撮影し、各光源方向で撮影した被写体の明るさの比から被写体表面の面法線を算出する方法である。光源方向を変えて複数回の撮影を行う際、被写体とカメラの位置関係が固定され、かつ、発光時の光源方向が既知である必要がある。そのため、複数枚撮影中に被写体またはカメラが動いてしまった場合や、外部から強い光が入ってきてしまった場合は、それを検出し、法線算出に使用しないように処理する。このとき、撮影された画像の枚数と実際に算出に使用された画像の枚数との比を算出し、使用された画像の枚数が少ない場合は信頼度が低くなるようにする。撮影された画像の枚数をGn、実際に法線情報の算出に使用された画像の枚数をRnとして使用枚数に関する評価値をCnとすると信頼度の評価値Cnは数式(12)より求めることができる。
Cn=Rn/Gn・・・(12)
また、注目画素の輝度が飽和している画像の枚数が閾値以上の場合に、注目画素の信頼度が低くなるようにする。注目画素の輝度が飽和している画像の枚数をLnとして、飽和している画像の枚数に関する評価値をHとすると、信頼度の評価値Hは数式(13)より求めることができる。
H=Ln/Gn・・・(13)
そして、法線情報の信頼度の評価値をNとすると、信頼度の評価値Nは数式(14)より求めることができる。
N=Cn×H・・・(14)
形状情報取得部105は、各画素の法線情報の信頼度の評価値Nを求る。そして形状情報取得部105は、任意の閾値を設け法線情報の信頼度の評価値Nと比較することで各画素での法線情報の信頼度を求める。形状情報取得部105は、法線情報の信頼度の評価値Nが閾値未満であれば低信頼の法線情報と判定し、法線情報の信頼度の評価値Nが閾値以上であれば高信頼の法線情報と判定する。
また、距離情報の信頼度と法線情報の信頼度の両方を評価した評価値Rは数式(15)より求めることができる。
R=M×N・・・(15)
形状情報取得部105は、評価値Rに対して任意の閾値を設け評価値Rにと比較することで各画素での信頼度を求めることができる。形状情報取得部105は、評価値Rが閾値未満であれば低信頼と判定し、評価値Rが閾値以上であれば高信頼と判定する。
以上のように算出した信頼度に基づき、本実施形態における画像処理の範囲を制限することで、より精度の高い形状情報による影付与画像を得ることが可能である。また、後述のステップS304で説明する領域検出で使用する距離情報、法線情報に対してそれぞれの信頼度を利用することにより領域の検出精度を高めることが可能である。また、信頼度が低い距離情報や法線情報を周囲の信頼度が高い距離情報や法線情報によって穴埋め補間処理を行うことによって距離情報や法線情報を補間することも可能である。
(領域検出)
図3の説明に戻る。ステップS304において、第1の領域検出部106および第2の領域検出部107は、領域検出を行う。第1の領域検出部106は、影を生成する第1の領域を検出する。第2の領域検出部107は、影が投影される第2の領域の2つの領域を検出する。
まず、影を生成する第1の領域の検出について説明する。ここでは、第1の領域検出部106が行う第1の領域の検出について2つの検出方法を説明する。1つ目の第1の領域の検出方法は、取得した画像の画角内の像高中心付近の領域を第1の領域とする方法である。像高中心付近の領域を第1の領域とすることで、ユーザが画像の中心に置いた被写体が影を生成する領域となるように第1の領域を設定することが可能である。これにより、特に複雑な処理を行わずに、第1の領域を設定することが可能である。
2つ目の第1の領域の検出方法は、ピント(合焦位置)近傍の領域を第1の領域とする方法である。ピント位置近傍の領域を第1の領域とすることで、ユーザがピントを合わせた被写体が影を生成する領域となるように第1の領域を設定することが可能である。ピント位置近傍の領域であることを判断する方法の例として、3つの方法を説明する。第1の方法は、数式(6)で算出したデフォーカス量DEFを参照する方法である。デフォーカス量DEFに対して閾値を設定し、閾値以下の領域をピント位置近傍の領域とする。第2の方法は、コントラストに基づく方法である。ピント位置近傍の領域は一般に画像のボケが少ないことから、その他の領域よりコントラストが強くなる。そのため、画像内の局所的なコントラストを評価して閾値と比較し、閾値以上の領域をピント位置近傍の領域とする。第3の方法は、画像撮影時のAF枠の位置情報を用いる方法である。撮影時のAF枠の領域をピント位置近傍の領域とする。第2の方法または第3の方法では、デフォーカス量DEFを算出することなくピント位置近傍の領域を検出することができる。
第1の領域の検出方法は、上記の2つの方法を独立で行ってもよいし、各方法を組み合わせることによって検出することも可能である。例えば、1つ目の第1の領域の検出方法と2つ目の第1の領域の検出方法を組み合わせることによって、像高中心付近の領域でかつ、コントラストが高い領域を第1の領域として検出できるため、第1の領域の検出精度を高めることができる。また、また、説明した3つの検出方法以外の方法により、被写体領域を第1の領域として検出してもよい。
次に、影が投影される第2の領域の検出について説明する。ここでは、第2の領域検出部107が行う第2の領域の検出について2つの検出方法を説明する。1つ目の第2の領域の検出方法は、取得した法線情報から第2の領域を検出する方法である。一般に影を投影したい領域は床面や地面である。そのため、法線情報から算出した面法線によって床面を検出して第2の領域とする。具体的には、第2の領域検出部107は、ステップS303で取得した法線情報に基づいて画像の画角内全体の面法線の方向のヒストグラムを取り、ヒストグラムの度数が最も高い面法線の領域を第2の領域とする。これにより、特に画角内で床面が多くを占めるシーンにおいて床面を面法線によって検出することができるため、床面を第2の領域として検出することができる。
2つ目の第2の領域の検出方法は、取得した距離情報から第2の領域を検出する方法である。一般に影を投影したい領域は床面や地面である。床面では距離情報から算出した形状情報が一定方向に連続的に変化する。そのため、第2の領域検出部107は、ステップS303で取得した距離情報から算出した形状情報がある範囲で一定方向に連続的に変化している領域を第2の領域として検出する。以上、第2の領域の検出方法について2つの検出方法について説明した。第2の領域の検出方法は上記の2つの方法を独立で行ってもよいし、各方法を組み合わせることによって検出することも可能である。また、説明した2つの検出方法以外の方法により、床面を第2の領域として検出してもよい。
また、第1の領域および第2の領域をそれぞれの排他の領域として検出することで、第1の領域および第2の領域の検出精度を高めることが可能である。例えば、第1の領域の候補を第2の領域ではない領域とすることが可能である。これにより、第2の領域を検出すればそれ以外の領域が第1の領域の候補の領域となり、第1の領域の候補が限定されるため、第1の領域を算出する計算コストを低減できる。
また、第1の領域および第2の領域について、画像認識を行うことによって両領域を検出することが可能である。画像認識を行った結果、例えば床面を検出した場合はその領域を第2の領域とする。そして、床面以外の領域において認識された被写体の領域を第1の領域とする。画像認識により、認識した被写体に基づいて領域を検出できるため、像高中心付近やピント近傍の領域などで検出するよりもより高精度な領域検出が可能である。また、画像認識による領域の検出は、先に説明した第1の領域検出方法および第2の領域検出方法による領域の検出と組み合わせて行うことも可能である。例えば、床と認識した領域の面法線のヒストグラムを算出し、ヒストグラムの度数の高い面法線の領域を床として再検出することにより、画像認識に失敗して検出できなかった床を検出することが可能である。
ステップS304の第1の領域および第2の領域の検出においてステップS303で取得した距離情報または法線情報を利用する場合、これらの信頼度情報に基づいて利用する情報を限定するようにしてもよい。例えば、距離情報の信頼度を閾値と比較して、信頼度が閾値より低い距離情報は、領域検出に利用しないようにする。領域検出で使用する距離情報、法線情報に対してそれぞれの信頼度を利用することにより領域の検出精度を高めることが可能である。
(仮想光源の方向決定処理)
ステップS305において、仮想光源方向設定部108は、仮想光源の方向を決定する。仮想光源は面光源であり、決定した仮想光源の方向から被写体に対して平行光が照射される。本実施形態における仮想光源の位置は、極座標系において動径を無限とした場合の偏角を方向として求められる。そのため、本実施形態では、仮想光源の位置ではなく仮想光源の方向を決定する。仮想光源の方向を自動で決定することによって、ユーザが仮想光源と被写体の離れ量や仮想光源の光量及び光線方向を調整することなく、画角内の主被写体がその他の被写体に適切な影を生成することが可能である。
仮想光源の方向の決定方法については、図8~図10を用いて説明する。図8は、ステップS305の仮想光源の方向決定処理の一例を示すフローチャートである。図9は、仮想光源の方向の決定方法を説明する図である。図9では、撮像装置110が撮像した画像の横方向をx方向、縦方向をy方向、奥行方向をz方向とする。
図9(A)は、x方向から見たときの撮像装置110と各被写体との位置関係を示す図である。x方向の値は、画像の横方向において、画像の左端から右端へ行くにつれて大きな値をとる。y方向の値は、画像の縦方向において、画像の上端から下端へ行くにつれて大きな値をとる。z方向の値は、手前側の奥行値から奥側の奥行値へ行くにつれて大きな値をとる。領域901は第1の領域として検出された領域であり、領域902は第2の領域として検出された領域である。
ステップS801において、仮想光源方向設定部108は、ステップS304で検出した第1の領域の代表値を算出する。仮想光源方向設定部108は、例えば、第1の領域のx、y、z座標値の平均値から算出することによって第1の領域の代表値を算出する。また、ピント位置が第1の領域に含まれている場合は、仮想光源方向設定部108は、ピント位置のx、y、z座標値を第1の領域の代表値としてもよい。また、仮想光源方向設定部108は、第1の領域の重心点を第1の領域の代表値としてもよい。
ステップS802において、仮想光源方向設定部108は、第2の領域においてz方向の値が最も小さい点とステップS801で算出した第1の領域の代表値とを結ぶ直線を算出する。例えば、図9(A)において、第1の領域の代表値903と第2の領域においてz方向の値が最も小さい点である第2の領域で最もカメラから近い点904を結ぶことにより、直線905を求めることが可能である。
ステップS803において、仮想光源方向設定部108は、第2の領域においてz方向の値が最も大きい点と第1の領域の代表値とを結ぶ直線を求める。図9(A)において、第1の領域の代表値903と、第2の領域でz方向の値が最も大きい点である第2の領域で最もカメラから遠い点906を結ぶことにより、直線907を求めることが可能である。
ステップS804において、仮想光源方向設定部108は、ステップS802で算出した直線905およびステップS803で算出した直線907によって限定される方向を仮想光源の方向として決定する。図9(A)において、方向908は、直線905および直線907によって限定される仮想光源の方向である。
ステップS801からステップS804によって、x方向から見たときのy方向、z方向によって定義される2次のyz空間における仮想光源の方向を限定した。同様にして、y方向から見たときのxz空間における仮想光源の方向を限定することが可能である。仮想光源方向設定部108は、限定した仮想光源の方向の範囲内に仮想光源を設定することで、第1の領域が第2の領域へ影を付与することが保証される仮想光源の方向を設定する。このように、限定された仮想光源の方向の範囲内で自動に仮想光源の方向を設定することで、第1の領域が第2の領域へ影を投影する画像を簡易に得ることができる。
次に、デフォーカス量(有効測距範囲)を用いて仮想光源の方向を決定する例について説明する。仮想光源の方向の決定処理において、ステップS504で算出したデフォーカス量に応じた有効測距範囲を用いて仮想光源の方向の決定を行うことも可能である。図9(B)は、有効測距範囲を用いた仮想光源の方向の決定方法について説明する図である。図9(B)は、図9(A)と同様にx方向から見たときの撮像装置110と各被写体との位置関係を示す。直線909は、撮像装置110からピント位置までの距離を示す。ピント位置からxy方向のピント面を求め、xy方向のピント面をx方向から見たときのピント面を直線910とする。
ステップS504で算出したデフォーカス量の絶対値が大きくなるにしたがって画像のボケが大きくなり、測距精度が低下する。そこで、デフォーカス量に対して閾値を設けることにより、閾値以上のデフォーカス量を持つ第2の領域に影が投影されないように仮想光源の方向を限定する。直線911および直線912は、直線910から閾値分離れたデフォーカス量を持つ面をx方向から見たときの直線である。仮想光源方向設定部108は、この各直線が第2の領域と交わる各点と第1の領域の形状の代表値903を結ぶ各直線を求める。
具体的には、撮像装置110に近い直線911が第2の領域と交わる点913は、第2の領域において有効測距範囲の中で最も撮像装置110から近い点913である。仮想光源方向設定部108は、第1の領域の形状の代表値903と第2の領域の点913を結ぶことにより、直線914を求める。撮像装置110から遠い直線912が第2の領域と交わる点915は、第2の領域において有効測距範囲の中で最も撮像装置110から遠い点915である。仮想光源方向設定部108は、第1の領域の形状の代表値903と第2の領域の点915を結ぶことにより、直線916を求める。直線914および直線916に基づいてステップS804と同様の処理を行うことにより、仮想光源方向設定部108は、直線914および直線916により限定される仮想光源の方向917を設定することが可能である。仮想光源方向設定部108は、限定した仮想光源の方向の範囲内に仮想光源を設定することで、第1の領域が第2の領域へ影を付与することが保証される仮想光源の方向を設定する。このように、このように、デフォーカス量(有効測距範囲)に基づいて仮想光源の方向の範囲を限定することで、リライティング処理の精度を高めることが可能である。
また、仮想光源方向設定部108は、仮想光源の方向の決定処理において、ステップS403で取得した信頼度情報に基づいて、信頼度の低い第2の領域には影が付かないように仮想光源の方向の範囲を限定するようにしてもよい。閾値より信頼度の低い第2の領域を影を付ける領域から除外することで、より精度の高い影付与画像を得ることが可能である。なお、仮想光源の方向の決定処理において利用される信頼度情報は、距離情報の信頼度の評価値Mまたは法線情報の信頼度の評価値Nでもよいし、距離情報の信頼度と法線情報の信頼度の両方を評価した評価値Rでもよい。
次に、ユーザから仮想光源の概略方向の指定を受けた場合の、仮想光源の方向の決定処理について説明する。本実施形態では、ユーザが指定した仮想光源の概略方向に基づいて仮想光源の方向を決定することが可能である。ユーザが指定可能な仮想光源の概略方向は、例えば被写体に対して仮想光源からの光が「順光/逆光/トップライト」であるか、撮像装置110から見て仮想光源の方向が被写体の「右側/中央/左側」であるか等である。
ユーザが指定した仮想光源の概略方向に基づいた仮想光源の方向の決定方法について、図10を用いて説明する。図10は、ユーザが指定した仮想光源の概略方向に基づいた仮想光源の方向の決定方法を説明する図である。図10では、図9と同様に撮像装置110が撮像した画像の横方向をx方向、縦方向をy方向、奥行方向をz方向とする。
図10(A)は、z方向から見たときの各被写体の位置関係において、ユーザが仮想光源の概略方向として「逆光、右側」を指定した場合の仮想光源の方向を説明した図である。仮想光源の光が被写体「逆光」となるためには、撮像装置110に対して被写体である領域901よりも奥側に仮想光源の方向を設定する必要がある。また、仮想光源の方向が「右側」となるためには、被写体である第1の領域901よりも右側に仮想光源の方向を設定する必要がある。本実施形態では、第1の領域901の形状の代表値903と撮像装置110を結ぶ直線921を境として、ユーザが指定した仮想光源の方向の「右側」を直線921より右側の領域、ユーザが指定した仮想光源の方向の「左側」を直線921より左側の領域とする。したがって、ユーザが仮想光源の概略方向として「逆光、右側」を指定した場合、仮想光源は領域901よりも奥側かつ右側に設定される。
さらに、ユーザが指定した「逆光、右側」という概略方向に仮想光源がある場合、仮想光源による被写体の影は被写体の左側手前に付与される。そのため、仮想光源方向設定部108は、ユーザが仮想光源の概略方向として指定した「逆光、右側」に対して、画角内の第2の領域902における左側手前の点918を選択する。仮想光源方向設定部108は、選択した点918と第1の領域の代表値903とを結ぶ直線919を求める。そして、仮想光源方向設定部108は、直線919と直線921により限定される仮想光源の方向920を決定する。このように、仮想光源の方向を直線919によって限定することで、ユーザが指定した仮想光源の概略方向において第1の領域が第2の領域に影を投影することができる仮想光源の方向を決定することが可能である。
なお、ユーザが指定する仮想光源の概略方向は「逆光、右側」以外にも「順光、中央」やなども設定することができ、「逆光、右側」の場合と同様に仮想光源の方向を決定することが可能である。このように、ユーザが指定した仮想光源の概略方向に基づいて仮想光源の方向を決定することにより、ユーザが希望する方向からの陰影付与画像を生成することが可能である。
ユーザが指定した仮想光源の概略方向がトップライトであった場合について、図10(B)を用いて説明する。図10(B)は、x方向から見たときの撮像装置110と各被写体の位置関係を説明する図である。仮想光源の概略方向がトップライトである場合は、仮想光源方向設定部108は、第1の領域として検出した領域901の代表値903から第2の領域902に対して垂直方向にとった直線922上を仮想光源の方向として決定する。被写体である第1の領域901におけるトップライトの方向は被写体が置かれている床等の面(第2の領域902)に対して垂直な方向であり、第2の領域902の方向はステップS303で取得した法線情報から算出できる。このように、ユーザにより指定された仮想光源の概略方向がトップライトの場合であっても仮想光源の方向を決定することが可能である。これにより、ユーザが希望するトップライトの方向からの陰影付与画像を生成することができる。なお、本実施形態では、ユーザが仮想光源の概略方向を指示する例について説明したが、これに限られるものではなく、例えばリライティング処理により付与される影の方向をユーザが指定するようにしてもよい。
図3の説明に戻る。ステップS306において、画像生成部109は、ステップS305で決定した仮想光源の方向とステップS303取得した形状情報に基づいて、画像に対して被写体の陰影を付与する画像処理(リライティング処理)を行い、陰影付与画像を生成する。陰影付与画像の生成の方法について図11を用いて説明する。
図11は、決定した仮想光源の方向に基づいて画像に被写体の陰影を付与する方法を説明する図である。仮想光源1101は、ステップS305で限定した仮想光源の方向から一意に設定した仮想光源の方向を示す。画像生成部109は、第1の領域である被写体1103の形状情報と仮想光源1101の方向から、影1102を生成し画像上の第2の領域に付与する。形状情報と仮想光源の方向に基づいて影を生成する方法としては、例えばレイトレーシング法やシャドーマップ法等があり、これらの方法を利用することで、影を付与した画像を生成することができる。このようにして影を付与することで、第1の領域が第2の領域に影を投影した陰影付与画像を生成することが可能である。さらに、第1の領域の法線情報と仮想光源1101の方向を利用することで第1の領域に陰を付与することも可能である。
陰影付与画像を生成する場合に、複数の仮想光源の方向を設定することで複数の仮想光源による陰影付与画像を生成することも可能である。複数の仮想光源によって陰影付与画像を生成する方法について、図12を用いて説明する。図12は、複数の仮想光源の方向に応じて画像に被写体の陰影を付与する方法を説明する図である。仮想光源はステップS305で限定した仮想光源の方向の範囲内であればいくつでも設定することが可能である。図12では、3つの仮想光源(仮想光源1201~仮想光源1203)が設定された例について説明する。
各仮想光源によって生成される被写体1103の影1204は、仮想光源が1つの場合と同様に、レイトレーシング法やシャドーマップ法を用いることで生成することが可能である。また、仮想光源が1つの場合と同様に、第1の領域の法線情報と各仮想光源の方向を利用することで、第1の領域である被写体1103自体に各仮想光源による陰を付与することも可能である。このように陰と影を付与することで、複数の仮想光源の場合でも陰影付与画像を生成することが可能である。
以上のように、本実施形態によれば、第1の領域の影を第2の領域に付与できる仮想光源の方向を限定することで、主被写体がその他の被写体に適切な影を生成することが可能な仮想光源の方向を設定することができる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上、本発明の好ましい実施形態について説明したが、本発明は、これらの実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。
100 画像処理装置
101 制御部
102 メモリ
103 パラメータ設定部
104 画像取得部
105 形状情報取得図
106 第1の領域検出部
107 第2の領域検出部
108 仮想光源方向設定部
109 画像生成部
110 撮像装置

Claims (18)

  1. 被写体の形状情報を取得する形状取得手段と、
    被写体の影を生成する第1の領域を検出する第1の領域検出手段と、
    前記影が投影される第2の領域を検出する第2の領域検出手段と、
    前記形状情報、前記第1の領域および前記第2の領域に基づいて、前記第1の領域が前記第2の領域へ前記影を投影する仮想光源の方向を設定する方向設定手段と、
    前記形状情報および設定された前記仮想光源の方向に基づいて、前記影が付与された画像を生成する画像生成手段と、を有することを特徴とする画像処理装置。
  2. 前記形状情報は、被写体の距離情報または被写体の法線情報を含むことを特徴とする請求項1に記載の画像処理装置。
  3. 前記形状情報は、前記距離情報の信頼度または前記法線情報の信頼度を含むことを特徴とする請求項2に記載の画像処理装置。
  4. 前記形状取得手段は、前記第2の領域において前記距離情報の信頼度または前記法線情報の信頼度が低い領域が前記影を投影する領域から除外されるように仮想光源の方向を設定することを特徴とする請求項3に記載の画像処理装置。
  5. 前記第1の領域検出手段は、画像の像高の中心付近の領域から前記第1の領域を検出することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
  6. 前記第1の領域検出手段は、ピント位置近傍の領域から前記第1の領域を検出することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
  7. 前記第2の領域検出手段は、前記形状情報に基づいて前記第2の領域を検出することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
  8. 前記第2の領域検出手段は、前記形状情報に含まれる被写体の法線情報から被写体の面法線のヒストグラムを算出し、前記ヒストグラムの度数が最も高い面法線を持つ領域を前記第2の領域として検出することを特徴とする請求項7に記載の画像処理装置。
  9. 前記第2の領域検出手段は、被写体の距離情報から算出した前記形状情報が、一定方向に連続的に変化する領域を前記第2の領域として検出することを特徴とする請求項7に記載の画像処理装置。
  10. 前記第1の領域検出手段および前記第2の領域検出手段は、画像認識によって前記第1の領域および前記第2の領域を検出することを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。
  11. 前記第1の領域と前記第2の領域は、互いに排他となる領域であることを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。
  12. 前記方向設定手段は、前記第1の領域の代表値と前記第2の領域の形状情報に基づいて、前記第1の領域が前記第2の領域へ影を投影することができるように仮想光源の方向を設定することを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。
  13. 前記方向設定手段は、デフォーカス量から算出される有効測距範囲に基づいて前記仮想光源の方向を設定することを特徴とする請求項1乃至12のいずれか1項に記載の画像処理装置。
  14. 前記方向設定手段は、ユーザにより指定された仮想光源の概略方向に応じて、前記仮想光源の方向を設定することを特徴とする請求項1乃至13のいずれか1項に記載の画像処理装置。
  15. 前記画像生成手段は、前記形状情報および複数の仮想光源の方向に基づいて前記影が付与された画像を生成することを特徴とする請求項1乃至14のいずれか1項に記載の画像処理装置。
  16. 請求項1乃至15のいずれか1項に記載の画像処理装置と、撮像光学系の異なる瞳領域を通過する光束をそれぞれ受光して複数の画像を撮像する撮像手段を備える撮像装置であって、
    前記形状取得手段は、前記複数の画像から得られるデフォーカス量または像ずれ量から被写体の距離情報を算出することを特徴とする撮像装置。
  17. 画像に影を付与する画像処理方法であって、
    被写体の形状情報を取得する形状取得工程と、
    被写体の影を生成する第1の領域を検出する第1の領域検出工程と、
    前記影が投影される第2の領域を検出する第2の領域検出工程と、
    前記形状情報、前記第1の領域および前記第2の領域に基づいて、前記第1の領域が前記第2の領域へ前記影を投影する仮想光源の方向を設定する方向設定工程と、
    前記形状情報および設定された前記仮想光源の方向に基づいて、前記影が付与された画像を生成する画像生成工程と、を有することを特徴とする画像処理方法。
  18. 請求項1乃至15のいずれか1項に記載の画像処理装置の各手段としてコンピュータを機能させるためのプログラム。
JP2021094028A 2021-06-04 2021-06-04 画像処理装置、撮像装置、画像処理方法およびプログラム Pending JP2022186023A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021094028A JP2022186023A (ja) 2021-06-04 2021-06-04 画像処理装置、撮像装置、画像処理方法およびプログラム
US17/830,475 US11790600B2 (en) 2021-06-04 2022-06-02 Image processing device, imaging apparatus, image processing method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021094028A JP2022186023A (ja) 2021-06-04 2021-06-04 画像処理装置、撮像装置、画像処理方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2022186023A true JP2022186023A (ja) 2022-12-15

Family

ID=84284322

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021094028A Pending JP2022186023A (ja) 2021-06-04 2021-06-04 画像処理装置、撮像装置、画像処理方法およびプログラム

Country Status (2)

Country Link
US (1) US11790600B2 (ja)
JP (1) JP2022186023A (ja)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6508134B2 (ja) * 2016-06-14 2019-05-08 トヨタ自動車株式会社 物体判別装置
JP6699897B2 (ja) * 2016-11-11 2020-05-27 株式会社東芝 撮像装置、自動制御システム及びシステム
IL271929B (en) * 2017-07-26 2022-07-01 Magic Leap Inc Neural network training with displays of user interface devices
JP2020010168A (ja) 2018-07-06 2020-01-16 キヤノン株式会社 画像処理装置
US10573067B1 (en) * 2018-08-22 2020-02-25 Sony Corporation Digital 3D model rendering based on actual lighting conditions in a real environment

Also Published As

Publication number Publication date
US11790600B2 (en) 2023-10-17
US20220392155A1 (en) 2022-12-08

Similar Documents

Publication Publication Date Title
JP4111592B2 (ja) 3次元入力装置
CN109255810B (zh) 图像处理装置及图像处理方法
JP7163025B2 (ja) 画像計測装置、画像計測方法、撮像装置、プログラム
US10205928B2 (en) Image processing apparatus that estimates distance information, method of controlling the same, and storage medium
JP7378219B2 (ja) 撮像装置、画像処理装置、制御方法、及びプログラム
JP2006279546A (ja) 電子カメラ、画像処理プログラム、および画像処理方法
US11808561B2 (en) Electronic apparatus for controlling a projector to project an image onto a screen at an actual size length, control method thereof and computer readable storage medium
US10362235B2 (en) Processing apparatus, processing system, image pickup apparatus, processing method, and storage medium
JP2023115356A (ja) 計測装置、撮像装置、制御方法及びプログラム
US11004229B2 (en) Image measurement device, image measurement method, imaging device
JP2019045249A (ja) 計測装置および計測装置の作動方法
US11295464B2 (en) Shape measurement device, control method, and recording medium
JP7118776B2 (ja) 撮像装置、画像処理方法、画像処理プログラムおよび記録媒体
JP2022186023A (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
WO2018161322A1 (zh) 基于深度的图像处理方法、处理装置和电子装置
JP7233261B2 (ja) 3次元測量装置、撮像装置、制御方法及びプログラム
US6744982B2 (en) Distance-measuring device of camera and focusing method of camera
JP2023001950A (ja) 情報処理装置、撮像装置、画像処理方法およびプログラム
JP2021004762A (ja) 計測装置、撮像装置、計測システム、制御方法、プログラム及び記録媒体
JP7479840B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2000019386A (ja) カメラ
US20190170502A1 (en) Position designation device and position designation method
JP7358130B2 (ja) 電子機器およびその制御方法
JP2019129469A (ja) 画像処理装置
JP2006106617A (ja) カメラの測光装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240604