JP2016218729A - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP2016218729A
JP2016218729A JP2015102819A JP2015102819A JP2016218729A JP 2016218729 A JP2016218729 A JP 2016218729A JP 2015102819 A JP2015102819 A JP 2015102819A JP 2015102819 A JP2015102819 A JP 2015102819A JP 2016218729 A JP2016218729 A JP 2016218729A
Authority
JP
Japan
Prior art keywords
image data
model data
subject
alignment
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015102819A
Other languages
English (en)
Other versions
JP6552266B2 (ja
Inventor
州吾 樋口
Shugo Higuchi
州吾 樋口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015102819A priority Critical patent/JP6552266B2/ja
Priority to US15/093,585 priority patent/US10303973B2/en
Publication of JP2016218729A publication Critical patent/JP2016218729A/ja
Priority to US16/383,249 priority patent/US11106938B2/en
Application granted granted Critical
Publication of JP6552266B2 publication Critical patent/JP6552266B2/ja
Priority to US17/393,747 priority patent/US11948282B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Generation (AREA)
  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】 3次元形状データを用いて画像のライティング補正を行う場合に、違和感の少ない画像を生成する。【解決手段】 画像データにおいて検出された特徴パターンに基づいて所定の物体の3次元形状データを被写体に位置合わせし、位置合わせされた3次元形状データと、被写体の距離情報と、仮想光源の位置とに基づいて、前記画像データの画素値を補正するライティング処理を行う画像処理装置において、3次元形状データを画像データに位置合わせする際に、3次元形状データにおいて凹凸の大きい領域を優先的に位置合わせする。【選択図】 図9

Description

本発明は、画像データに陰影を付与する技術に関する。
撮像装置を用いて被写体を撮像する場合、その被写体に対する光量や光の向きといった照明条件が、得られる画像の見え方に大きく影響する。例えば、被写体に対して斜方から光が当たる場合には、被写体の立体的な印象が強調される。また、被写体に対して後方から光が当たる場合には、被写体の前面が陰になり、画像は暗く平面的な印象になってしまう。このような画像の見え方を調整する方法として、3次元形状データを用いて仮想的な照明条件下の画像を生成する方法がある(特許文献1)。特許文献1に記載の技術では、被写体に対応する3次元形状データを用いて仮想的な照明条件下の画像をレンダリングし、これを撮像した画像中の被写体が存在する領域に配置することで、照明条件の異なる画像を生成する。また、別の方法として、撮像した画像から被写体表面の法線方向を推定し、推定した法線方向に基づいて仮想的な照明条件下の画像を生成する方法が知られている(特許文献2)。特許文献2に記載の技術では、撮像画像の明るさ情報から法線方向を推定し、法線方向に基づいてライティングを補正した画像を生成する。
特許第5088220号公報 特許第5147287号公報
しかしながら、特許文献1に記載の技術では、3次元形状データからレンダリングされたCG画像を撮像された画像に合成するため、CG画像と撮像された画像の位置合わせが上手くいかない場合、違和感のある画像になってしまうと言う課題がある。また、特許文献2に記載の技術では、撮像画像の明るさに基づいて法線方向を推定するため、ノイズや影が被写体に含まれる場合、正しい法線方向を推定できないという課題がある。そこで本発明は、3次元形状データを用いて画像のライティング補正を行う場合に、違和感の少ない画像を生成することを目的とする。
上記課題を解決するために、本発明に係る画像処理装置は、被写体を含む画像データを取得する画像取得手段と、前記画像データを撮像した撮像装置から前記被写体までの距離を、前記画像データの各画素について示す距離情報を取得する距離取得手段と、前記画像データが示すシーンにおいて、光源の位置を設定する設定手段と、前記画像データにおいて、前記被写体の所定の特徴パターンを検出し、前記特徴パターンに基づいて、データの位置合わせに用いる複数の基準点の位置を検出する検出手段と、前記所定の特徴パターンを有する所定の物体の3次元形状を示すモデルデータと、前記モデルデータにおける前記複数の基準点の位置を示す情報とを保持する保持手段と、前記モデルデータに含まれる前記複数の基準点の位置と、前記検出手段によって検出された前記複数の基準点の位置とに基づいて、前記モデルデータを前記被写体に位置合わせする位置合わせ手段と、前記位置合わせ手段により位置合わせされた前記モデルデータと前記距離情報と前記光源の位置とに基づいて、前記画像データの画素値を補正するライティング処理を行う処理手段とを有し、前記位置合わせ手段は、前記位置合わせにおいて、前記複数の基準点のうちの第一の基準点の位置の一致度合いを、前記第一の基準点とは異なる第二の基準点の位置の一致度合いに比べて重視することを特徴とする。
本発明により、3次元形状データを用いて画像のライティング補正を行う場合の画像の違和感を低減することができる。
実施例1の撮像装置の筺体を示す図。 実施例1の撮像装置の内部構成を示すブロック図。 実施例1の画像処理部の構成を示すブロック図。 実施例1の画像処理部の動作を示すフローチャート図。 実施例1における各画像データの一例を示す図。 実施例1における撮像装置と被写体および照明との位置関係の一例を示す図。 実施例1におけるライティング補正処理後の画像データの一例を示す図。 実施例1の法線取得部の構成を示すブロック図。 実施例1の法線取得部の動作を示すフローチャート図。 実施例1における顔モデルデータの一例を示す図。 実施例1における撮像画像データの器官位置と顔モデルデータの凹凸領域の一例を示す図。 実施例1におけるクロスバイラテラルフィルタによる法線画像データの補正処理の一例を示す図 実施例2の画像処理部の構成を示すブロック図。 実施例2の画像処理部の動作を示すフローチャート図。 実施例2における撮像画像データと射影変換後の顔モデルデータの一例を示す図。 実施例2における法線画像データとマスク画像データの一例を示す図。 実施例3の画像処理部の構成を示すブロック図。 実施例3の画像処理部の動作を示すフローチャート図。 実施例3における撮像画像データと距離画像データと法線画像データの一例を示す図。
以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。
〔実施例1〕
図1は本実施例の撮像装置の筺体を示す図であり、図1(a)は撮像装置の正面、図1(b)は撮像装置の背面を示している。撮像装置101の筺体は、2個の撮像部102〜103、撮像ボタン104、発光部105、表示部106、操作部107を備えている。撮像部102〜103はズームレンズ、フォーカスレンズ、ブレ補正レンズ、絞り、シャッター、光学フィルタ、センサ、A/D変換部などによって構成される撮像光学系であり、センサにより被写体の光情報を受光する。センサはCMOSやCCDなどの撮像素子で構成され、センサが受光した光情報はA/D変換部によってデジタルデータに変換される。撮像ボタン104はユーザが撮像の開始を撮像装置101に指示するためのボタンである。発光部105はユーザの指示に従い撮像の開始に合わせて発光させることができる照明である。表示部106は撮像装置101で処理した画像データや設定メニューなどを表示するディスプレイであり、液晶ディスプレイなどを用いることができる。操作部107はユーザが変更可能なパラメータを撮像装置101に指示するためのボタンである。なお、表示部106はタッチスクリーン機能を有していてもよく、その場合はタッチスクリーンを用いたユーザ指示を操作部107の入力として扱うことも可能である。
図2は撮像装置101の内部構成を示すブロック図である。中央処理装置(CPU)201は以下に述べる各部を統括的に制御する処理回路である。RAM202はCPU201の主メモリ、ワークエリアなどとして機能するメモリである。ROM203はCPU201で実行される制御プログラムなどを格納しているメモリである。バス204は各種データの転送経路である。例えば、撮像部102〜103によって取得されたデジタルデータは、このバス204を介して所定の処理部に送られる。表示制御部205は表示部106に表示される画像データや文字の表示制御を行う制御回路である。撮像制御部206はフォーカスを合わせる、シャッターを開く・閉じる、絞りを調節するなどのCPU201からの指示に基づいた撮像部の制御を行う駆動回路である。デジタル信号処理部207はバス204を介して受け取ったデジタルデータに対し、ホワイトバランス処理、ガンマ処理、ノイズ低減処理などの各種処理を行う処理回路である。エンコード部208はデジタルデータをJPEGやMPEGなどのファイルフォーマットに変換する処理を行う処理回路である。外部メモリ制御部209は撮像装置101をPCやその他のメディア(例えば、ハードディスク、メモリカード、CFカード、SDカード、USBメモリ)に接続するためのインタフェースである。画像処理部210は撮像部102〜103によって取得されるデジタルデータあるいは、デジタル信号処理部207から出力されるデジタルデータを用いて、ライティング補正などの画像処理を行う処理回路である。画像処理部210の詳細については後述する。なお、撮像装置の構成要素は上記以外にも存在するが、本実施例の主眼ではないため、説明を省略する。
<画像処理部>
図3は画像処理部210の機能構成を示すブロック図である。画像処理部210は、ROM203に格納されたプログラムを実行したCPU201に制御されることにより、図3に示す各ブロックとしての機能を果たす。図4は画像処理部210の動作を示すフローチャートである。以下、画像処理部210により行われる処理について図3および図4を参照して説明する。
ステップS401では、画像取得部301が撮像部102で撮像した撮像画像データを取得する。画像取得部301は、取得した撮像画像データをライティング部305に出力する。
次にステップS402では、距離取得部302が距離画像データを取得する。距離画像データとは、画像データ内の各画素位置における被写体から撮像装置101までの距離を示すデータである。本実施例では、距離画像データは256階調のモノクロ画像であり、撮像装置までの距離が近い被写体に対応する画素の画素値を大きく、距離が遠い被写体に対応する画素の画素値を小さく表している。なお、距離画像データの形式はこの形式に限られず、各画素位置における被写体の距離情報を格納したテーブルなどであってもよい。
ここで、距離画像データの取得方法について説明する。距離画像データは、視点の異なる複数の画像データから同一物点となる被写体の対応点を検出し、画像データにおける対応点の差分に基づいて三角測量の原理により距離を算出するステレオマッチング法を用いて取得することができる。また、被写体に光を照射して反射して戻るまでの時間に基づいて距離を算出するTOF(TimeOfFlight)法や、被写体にパターン光を照射してパターンの変位に基づいて距離を算出するパターン投写法を用いることができる。本実施例では、TOF法により距離画像データが取得されるものとする。撮像装置101は撮像の開始に合わせて発光部105を発光させ、被写体に反射した光を撮像部103が受光する。そして、発光した光が被写体に反射して受光するまでの時間に基づいて距離画像データを生成する。なお、距離画像データの取得方法は上記以外の公知の手法により取得してもよい。距離取得部302は、撮像部103から入力されたデータをもとに距離画像データを生成し、ライティング部305に出力する。
次にステップS403では、法線取得部303が法線画像データを算出する。法線画像データとは、画像データ内の各画素位置における被写体の面に対する法線ベクトルを示すデータである。本実施例では、法線画像データは256階調のカラー画像であり、被写体を含む座標系で定義される方向ベクトルを画素値で表している。なお、法線画像データの形式はこの形式に限られず、各画素における被写体の法線情報を格納したテーブルなどであってもよい。
ここで、法線画像データの算出方法について説明する。法線画像データは、距離画像データの注目画素に対して近傍領域から微分して求める方法や、平面を当てはめる方法により算出することができる。また、一般的な顔形状の法線画像データを予めROM203に備え、被写体の形状や表情に合わせて法線画像データを変形する方法により算出することができる。本実施例では、ROM203に一般的な顔形状の法線画像データが記憶されており、一般的な顔形状の法線画像データを被写体に合わせて変形する方法により法線画像データを算出するものとする。なお、法線画像データ生成方法の詳細は後述する。
図5は本実施例における各画像データの一例である。図5(a)はステップS401で取得する撮像画像データ、図5(b)はステップ402で取得する距離画像データ、図5(c)はステップS403で算出する法線画像データである。ここで、撮像画像データをI、距離画像データをP、法線画像データをNと定義し、画素(i,j)に対応する値をI(i,j)、P(i,j)、N(i,j)とする。また、撮像画像データと法線画像データはどちらもカラー画像データなので、I(i,j)=(Ir(i,j)、Ig(i,j)、Ib(i,j))、N(i,j)=(Nx(i,j)、Ny(i,j)、Nz(i,j))と表わされる。法線取得部303は、取得した法線画像データをライティング部305に出力する。
次にステップS404では、照明取得部304がライティング処理に用いる仮想照明の照明パラメータを取得する。照明パラメータとは、照明の色、照明の明るさ、照明の位置および姿勢を示す変数である。本実施例では、照明の色は256階調のRGB値であり、照明の明るさは正の実数値であるとする。また、照明の位置および姿勢は3次元の実数値であり、被写体を含む座標系で定義される空間の座標および方向ベクトルで表している。ここで、照明の色をL、照明の明るさをα、照明の位置をQ、照明の姿勢をUと定義し、L=(Lr、Lg、Lb)、Q=(Qx、Qy、Qz)、U=(Ux、Uy、Uz)で表すものとする。
ここで、撮像装置と被写体および照明との位置関係について図6を用いて説明する。図6は、撮像装置601、被写体602、照明603を含む仮想空間であり、右方向がX軸、手前方向がY軸、上方向がZ軸である。また、撮像装置601は仮想的なセンサ面を表しており、画素(i,j)に対応する値I(i,j)は図6のように定義される。また同様に、画素(i,j)に対応する法線N(i,j)、距離P(i,j)は図6のように定義される。また、照明603は実際には存在しない仮想光源であり、照明の位置Qおよび姿勢Uは図6のように定義される。照明取得部304は、取得した照明パラメータをライティング処理に用いる照明パラメータとして設定し、ライティング部305に出力する。
最後にステップS405では、ライティング部305が、画像取得部301から入力された画像データにライティング補正処理を行う。ライティング補正処理とは、距離画像データや法線画像データを用いて、あたかも照明パラメータに基づくライティングを被写体に施したように撮像画像データの画素値を補正する処理である。本実施例では、式(1)に従い、撮像画像データを補正するものとする。
Ir’(i,j)=Ir(i,j)+kr(i,j)×Lr×Ir(i,j)
Ig’(i,j)=Ig(i,j)+kg(i,j)×Lg×Ig(i,j) (1)
Ib’(i,j)=Ib(i,j)+kb(i,j)×Lb×Ib(i,j)
ここでは、画像処理後の画像データをI’と定義し、画素(i,j)に対応する値をI’(i,j)とし、I’(i,j)=(Ir’(i,j)、Ig’(i,j)、Ib’(i,j))で表している。また、k(i,j)は照明の明るさ、位置、姿勢および画素(i,j)に対応する距離情報、法線情報に基づいて、例えば式(2)のように算出することができる。
k(i,j)=t×α×K(ρ)×(N(i,j)・V(i,j))÷(W(P(i,j)),Q) (2)
ここで、tは任意の定数であり、ρは画素(i,j)に対応する被写体の位置と照明の位置Qとを結ぶ直線と照明の姿勢Uとのなす角度であり、K(ρ)はρが小さいほど大きな値となるような関数である。また、V(i,j)は画素(i,j)に対応する被写体の位置から照明の位置Qへ向かう方向を表す単位ベクトルであり、W(P(i,j)),Q)は画素(i,j)に対応する被写体の位置から照明の位置Qまでの距離が大きいほど大きな値となる関数である。なお、ライティング処理に用いる式は上記のような、光源に近づくにつれて画素値を加算する式に限られず、例えば光源からの距離が遠ざかるにつれて撮像画像データの画素値を減算するような式を用いてもよい。そのような式を用いた場合には、光量が過剰な状態で撮像された画像データに対して、自然な陰影を付与することができる。
図7は本実施例におけるライティング補正処理後の画像データの一例である。図5(a)に示す撮像画像データに対して、所望の位置から照明で照らしたような立体感のある陰影を付与することができる。
以上が、本実施例の撮像装置101で行われる処理の概要である。以上の処理により、撮像画像データから撮像者が所望する照明条件下で撮像したかのような画像データを生成することができる。これにより、スポットライト照明や逆光など好適でない照明条件下での撮像であっても、撮像後に好適な照明条件に変更した画像データを生成することができる。以下、法線取得部303で行われる処理(ステップS403)の詳細について説明する。
<法線取得部>
ここでは、一般的な顔形状の法線画像データを被写体に合わせて変形することにより法線情報を算出する方法について説明する。図8は法線取得部303の機能構成を示すブロック図である。また、図9は法線取得部303の動作を示すフローチャートである。以下、法線取得部303で行われる処理(ステップS403)の詳細について、図8に示すブロック図と図9に示すフローチャートを参照して説明する。
まずステップS901では、画像取得部801がステップS401で取得した撮像画像データを取得する。画像取得部801は、取得した撮像画像データをパターン検出部802と法線補正部806に出力する。
次にステップS902では、パターン検出部802が被写体の特徴パターンを検出する。本実施例では、パターン検出部802は、撮像画像データから人間の顔を検出する。なお、本実施例では、顔画像の特徴を学習したデータベースを予めROM203に備え、パターン検出部802は、ROM203に格納されたデータベースを用いたテンプレートマッチングなどにより顔を検出するものとする。なお、ここで検出する特徴パターンは顔に限られず、被写体に記載された文字など様々なものを用いることが可能である。パターン検出部802は、撮像画像データにおいて目や鼻などの器官位置や顔の向きを示す被写体情報を取得し、法線選択部803と法線生成部805に出力する。なお、被写体情報の取得方法はこの方法に限られず、撮像画像を見ながらユーザが顔の器官位置や向きを入力するなどしてもよい。
次にステップS903では、法線選択部803がROM203に格納された一般的な顔形状の法線画像データから、ライティング処理に用いる法線画像データを選択する。以下、一般的な顔形状の法線画像データを、顔モデルデータと呼ぶ。本実施例では、複数の異なる顔の向きに応じた顔モデルデータが予めROM203に記憶されており、法線選択部803は、ステップS902で検出した顔の向きに基づいて、最も近い顔の向きの顔モデルデータを選択する。図10は顔モデルデータの一例を示す図である。図10では、鼻の最も高い位置が横方向に均等間隔で配置されるように角度を変化させた顔モデルデータを備えている。一般的な顔形状を鼻に突起を備えるたまご型で喩えると、顔モデルデータは、角度の変化に応じて鼻周辺の鼻領域に最も変化が生じる。そのため、顔モデルデータは鼻の位置を基準として複数備えることが望ましい。ただし、このような顔モデルデータを準備できない場合は、顔の向きの角度が均等間隔で配置されるように顔モデルデータを備えるようにしてもよい。法線選択部803は、選択した顔モデルデータを凹凸決定部804に出力する。
次にステップS904では、凹凸決定部804が顔モデルデータの凹凸領域と輪郭領域を決定する。顔モデルデータの凹凸領域とは、顔モデルデータの変化が急峻な領域であり、顔領域が対象である場合には、目や鼻などの器官領域に相当する。本実施例では、各顔モデルデータに対応する凹凸領域と輪郭領域を予めROM203に備えているおり、それを読み出すものとする。例えば、ROM203に顔モデルデータにおける鼻、目および口の位置が記憶されており、特に鼻の周辺は凹凸が大きいため、鼻の周辺を凹凸領域とするものとする。そして、輪郭領域は、顔モデルデータにおいて顔の最外周に対応する画素位置が記憶されているものとする。なお、凹凸領域と輪郭領域の決定方法はこれに限られない。例えば、ステップ902と同様にデータベースを用いての凹凸領域を決定しても構わない。また、顔モデルデータをx成分、y成分、z成分それぞれについて微分し、3つの成分のうちの少なくとも一つの成分の変化の度合いが所定の閾値を超える領域を凹凸領域として決定するようにしてもよい。また、位置合わせの基準点として決定された点の周囲の所定の画素数の範囲において顔モデルデータを微分することで、基準点の周囲の形状変化の大きさを導出し、導出された形状変化の大きさに基づいて凹凸の大きな器官位置を決定してもよい。凹凸決定部804は、顔モデルデータと、顔モデルデータにおける器官位置と、凹凸領域とを示す情報を法線生成部805に出力する。
次にステップS905では、法線生成部805が、ステップS904で決定された凹凸領域に基づいて法線画像データを生成する。本実施例では、パターン検出部802から入力された被写体情報が示す顔の器官位置と、凹凸決定部804から入力された顔モデルデータの器官位置および凹凸領域に基づいて、顔モデルデータを射影変換する。図11は撮像画像データの器官位置と顔モデルデータの器官位置の一例を示す図である。図11(a)は撮像画像データであり、右目1101、左目1102、鼻1103、口1104が検出された器官位置である。図11(b)は顔モデルデータであり、右目1105、左目1106、鼻1107、口1108が検出された器官位置であり、この中で鼻1107が凹凸領域として決定されている。これらの器官位置の対応関係に基づいて、顔モデルデータを射影変換するための変換行列を算出することができる。
法線生成部805は、撮像画像データの器官位置と顔モデルデータの器官位置がそれぞれ近くなるように、各器官位置の差に基づいた最小二乗法を用いて射影変換の変換行列を生成する。すなわち、各器官位置は位置合わせに用いる基準点として決定され、法線生成部805は、撮像画像データと顔モデルデータの間で基準点同士のずれが小さくなるように撮像画像データと顔モデルデータの位置合わせを行う。この際、法線生成部は、凹凸領域として決定された鼻の位置が互いに最も近くなるように、鼻の位置の重みを大きく設定した重み付き最小二乗法を用いて変換行列を算出する。すなわち、鼻の位置同士のずれに対して、ずれを示す評価値としてより大きな値が与えられる。これは、法線補正部805は、変換行列の生成において、鼻の位置の一致度合いを他の器官位置の一致度合いよりも重視することを意味する。これは、顔領域の中で鼻領域が最も法線の変化が大きく、鼻の位置がずれるとライティング処理後の違和感が大きくなるためである。この処理により、3次元形状データと撮像画像データの位置がずれた場合であってもライティング処理後の画像の違和感を低減することができる。
なお、本実施例では顔モデルデータを撮像画像データに合わせて射影変換したが、顔モデルデータと撮像画像データの位置合わせは射影変換に限られず、平行移動でもよい。その場合には、法線生成部805は、各器官位置の距離に基づく重みづけ最小二乗法により、法線モデルデータのずらし量を決定する。この処理によれば、射影変換の変換行列を求める場合よりも処理量を低減することができる。例えば、顔モデルデータをあらゆる角度について細かい角度変化量で格納している場合には、この処理で十分な場合がある。法線生成部805は、顔モデルデータを撮像画像データの対応する位置に配置した法線画像データを生成し、法線補正部806に出力する。なお、法線画像データの、顔モデルデータに対応しないすべての領域には、N(i,j)=(0,1,0)が格納されているものとする。
最後にステップS906では、法線補正部806が撮像画像データと、顔モデルデータの輪郭領域に基づいて法線画像データを補正する。本実施例では、撮像画像データの画素値を基準としたクロスバイラテラルフィルタを法線画像データに作用させることにより法線画像データを補正する。クロスバイラテラルフィルタは、撮像画像データにおいて画素値が近い画素の重みを大きくする平滑化フィルタである。撮像画像データの画素値に基づいてフィルタ処理における各画素の重みを決定するので、法線画像データはより撮像画像データに近い形状に補正される。図12はクロスバイラテラルフィルタによる処理結果を説明する図である。図12(a)は撮像画像データ、(b)は処理前の法線画像データ、(c)は処理後の法線画像データである。図(c)に示すように、撮像画像データ(a)を参照して法線画像データ(b)をフィルタリングすることにより、撮像画像データの輪郭に合わせて法線画像データを変形することができることがわかる。法線補正部806は、補正の終了した法線画像データをライティング部305に出力して処理を終了する。なお、ここで用いられるフィルタはクロスバイラテラルフィルタである必要はなく、撮像画像データの画素値を基準とした平滑化フィルタであればどのようなものを用いてもよい。以上が、法線取得部303で行われる処理の概要である。以上の処理によれば、3次元形状データと撮像画像データの位置がずれた場合であっても、ライティング処理後の画像の違和感を抑えることができる。
なお、本実施例において、画像取得部301は被写体を含む画像データを取得する画像取得手段として機能する。また、距離取得部302は、前記画像データを撮像した撮像装置から前記被写体までの距離を、前記画像データの各画素について示す距離情報を取得する距離取得手段として機能する。また、照明取得部304は、前記画像データが示すシーンにおいて、光源の位置を設定する設定手段として機能する。また、パターン検出部802は前記画像データにおいて、前記被写体の所定の特徴パターンを検出し、前記特徴パターンに基づいて、データの位置合わせに用いる複数の基準点の位置を検出する検出手段として機能する。
また、ROM203は、前記所定の特徴パターンを有する所定の物体の3次元形状を示すモデルデータと、前記モデルデータにおける前記複数の基準点の位置を示す情報とを保持する保持手段として機能する。また、法線生成部805は、前記モデルデータに含まれる前記複数の基準点の位置と、前記検出手段によって検出された前記複数の基準点の位置とに基づいて、前記モデルデータを前記被写体に位置合わせする位置合わせ手段として機能する。また、ライティング部305は、前記位置合わせ手段により位置合わせされた前記モデルデータと前記距離情報と前記光源の位置とに基づいて、前記画像データの画素値を補正するライティング処理を行う処理手段として機能する。
また、法線選択部803は、前記モデルデータにおける前記複数の基準点の位置と、前記検出手段により検出された前記複数の基準点の位置とに基づいて、前記複数の向きのうちの一つに対応するモデルデータを選択する選択手段として機能する。
また、凹凸決定部804は、前記複数の基準点から前記第一の基準点と前記第二の基準点とを決定する決定手段として機能する。
〔実施例2〕
実施例1では、顔モデルデータの凹凸の大きい領域を優先的に位置合わせすることで、ライティング処理後の画像データの違和感を抑える方法について説明した。本実施例では、さらにマスク画像データを用いて被写体の輪郭領域の立体感を保持するように法線画像データを補正する例について説明する。
図13は実施例2における法線取得部303の構成を示すブロック図である。また、図14は実施例2における法線取得部303の動作を示すフローチャート図である。なお、ステップS901からステップS904までの処理は実施例1と同一であるため説明を省略し、実施例1と異なる点を中心に簡潔に説明する。
ステップS1401では、法線生成部1301が、ステップS904で決定された凹凸領域に基づいて法線画像データを生成する。実施例1では、パターン検出部802から入力された被写体情報が示す顔の器官位置と、凹凸決定部804から入力された顔モデルデータの器官位置および凹凸領域とに基づいて、顔モデルデータを射影変換する方法について説明した。本実施例において法線生成部1301は、顔モデルデータの顔領域が撮像画像データの顔領域よりも小さくなるように顔モデルデータを射影変換する方法について説明する。
図15は撮像画像データと射影変換後の顔モデルデータの一例を示す図である。図15(a)は撮像画像データであり、破線の枠で示す右目1501、左目1502、鼻1503、口1504の器官位置は、図11(a)で示した本来の器官位置よりも鼻側に移動している。これは例えば、検出された各器官位置を鼻の器官位置の方向へ一定の割合で移動させることにより実施できる。また、図15(b)は射影変換後の顔モデルデータであり、射影変換後の顔領域1506は撮像画像データの顔領域1505よりも小さくなっている。これは射影変換先の器官位置を本来の器官位置よりも鼻側に移動させることにより、鼻の器官位置を中心とした縮小変換の効果を得ることができるためである。なお、顔モデルデータの顔領域が撮像画像データの顔領域よりも小さくなるように射影変換する理由については、後述の法線補正部1303の処理にて説明する。法線生成部1301は、上記の射影変換処理によって生成された法線画像データを、マスク生成部1302および法線補正部1303に出力する。
次にステップS1402では、マスク生成部1302がマスク画像データを生成する。図16は法線画像データとマスク画像データの一例を示す図である。図16(a)はステップ1401で生成した法線画像データであり、図16(b)は法線画像データに基づいて算出したマスク画像データである。マスク画像データは各画素が0か1の2値で表現される画像データであり、0を黒、1を白で表示している。本実施例では、マスク画像データにおいて法線画像データの背景領域の値が0、顔領域の値が1となるようにマスク画像を生成する。具体的には、法線画像データにおいて画素値が(0,1,0)である画素の値を、マスク画像データにおいて0とすればよい。なお、マスク画像データの形式はこれに限られず、法線画像データの背景領域と顔領域とが分離できる情報であればよい。マスク生成部1302は、生成したマスク画像データを法線補正部1303に出力する。
最後にステップS1403では、法線補正部1303が撮像画像データとマスク画像データに基づいて法線画像データを補正する。本実施例では、法線補正部1303は、実施例1と同様に撮像画像データの画素値に基づくクロスバイラテラルフィルタを用いて法線画像データを補正する。本実施例の法線補正部1303では、このフィルタ処理において、マスク生成部1302から入力されたマスク画像データを用いる。具体的には、マスク画像データにおいて画素値が1となっている顔領域に対応する画素のみを用いて、クロスバイラテラルフィルタの処理を行う。これにより、顔領域の輪郭領域において、背景の法線情報がフィルタリングに用いられることが無くなるため、輪郭領域の立体感を実施例1の処理に比べて保持することができる。
さらに、顔モデルデータの顔領域を撮像画像データの顔領域よりも小さくすることにより、顔モデルデータの輪郭を撮像画像データの輪郭に合わせて整形しやすくなる効果があるため、好適に法線画像データを補正することができる。法線補正部1303は、処理が終了した法線画像データをライティング部305に出力して処理を終了する。
以上が本実施例の法線取得部303で行われる処理の概要である。以上の処理によれば、実施例1の処理に比べて輪郭領域の立体感を保持したライティング処理を行うことが可能となる。
〔実施例3〕
実施例2では、撮像画像データとマスク画像データに基づいて法線画像データを補正する方法について説明した。本実施例では、さらに距離画像データを用いて、被写体の前に遮蔽物がある場合でも被写体全体の立体感を保持するように法線画像データを補正する例について説明する。
図17は実施例3における法線取得部303の構成を示すブロック図である。また、図18は実施例3における法線取得部303の動作を示すフローチャート図である。なお、ステップS901からステップS1401までの処理は実施例2と同一であるため説明を省略し、実施例2と異なる点を中心に簡潔に説明する。
ステップS1801では、距離取得部1701が、距離取得部302から距離画像データを取得する。距離画像データは、実施例1と同一であるため説明を省略する。距離取得部1701は、取得した距離画像データを法線補正部1702に出力する。
次にステップS1802では、法線補正部1702が撮像画像データと距離画像データおよび被写体情報に基づいて法線画像データを補正する。図19は、本実施例における撮像画像データ、距離画像データ、法線画像データの一例を示す図である。図19(a)は撮像画像データであり、被写体1901と撮像装置101との間に遮蔽物1902があり、被写体の顔領域の一部が遮蔽物で隠れている。図19(b)はステップS1801で取得した距離画像データであり、被写体の距離情報1903と遮蔽物の距離情報1904はそれぞれ異なっている。図19(c)はステップS1401で生成した法線画像データであり、顔モデルデータを射影変換して生成したものである。なお本実施例では、図19(a)に示す遮蔽物1902が被写体の顔領域の一部を遮蔽しているが、被写体の顔領域の一部が隠れている場合であれば、上記の例に限らない。例えば、被写体の手や体により顔領域の一部が隠れている場合にも以下と同様の処理を行うことができる。
法線補正部1702は、まず被写体の顔領域の一部が遮蔽物で隠れているか否かを判定する。これは被写体情報と距離画像データとを用いて判定することができる。例えば、被写体情報を用いて被写体の顔領域を抽出し、距離画像データの顔領域に対応する領域の距離情報を参照する。そして、顔領域内における距離情報の平均値を算出し、顔領域内において、平均値より所定の閾値以上距離が小さい画素の数が所定の数を超えているかを判定する。顔領域内において、平均の距離よりも閾値以上距離が小さい画素が所定の数を超えている倍には、顔領域の一部が遮蔽物により隠れていると判定することができる。本実施例では、顔領域において被写体の距離情報1903と異なる遮蔽物の距離情報1904が含まれるため、被写体の顔領域の一部が遮蔽物で隠れていると判定できる。なお、被写体の顔領域の一部が遮蔽物で隠れていない場合は、実施例2の法線補正部1303と同様の処理を行えばよいため説明を省略する。
次に、法線補正部1303は、被写体の顔領域の一部が遮蔽物で隠れている場合には、顔領域のうち、遮蔽物に対応する遮蔽領域における平滑化処理の強度を、その他の顔領域における平滑化の強度よりも大きくするように、平滑化処理を行う。具体的には、例えば、実施例1の法線補正部806と同様のクロスバイラテラルフィルタを用いた処理において、遮蔽領域ではフィルタのタップ数を大きくする。また、実施例2のマスク処理を行う場合には、遮蔽領域ではマスク処理を行わないことにより平滑化を強くすることができる。なお、平滑化の度合いを強くする方法は上記に限られず、その他の方法を用いてもかまわない。例えば、遮蔽領域を抽出し、顔領域中の遮蔽領域とその他の領域とで異なる平滑化処理を適用してもかまわない。なお、本実施例で示した処理によれば、新たな補正処理を追加する必要がないためコストを低く抑えることができる。図19(d)は補正処理後の法線画像データであり、遮蔽領域1906の法線が強く平滑化されている。なお、法線を強く平滑化する対象領域は、本実施例のように遮蔽領域に限定する必要はない。例えば、パターン検出部802において、目や鼻などの器官位置に対する検出結果の信頼度が取得できる場合、信頼度が低い場合には、顔領域全体における平滑化処理を強くしてもよい。以上が本実施例の法線補正部1303で行われる処理の概要である。以上の処理によれば遮蔽物に対する顔モデルデータの法線の影響を抑えることができ、より自然なライティング処理を行うことができるようになる。
〔その他の実施例〕
上記の実施例ではROM203に所定の顔の法線画像データを顔モデルデータとして格納しておき、それを撮像画像データで検出された顔に位置合わせする例について説明したが、本発明を適用可能な対象はこれに限られない。例えば、位置合わせ用の識別コードがプリントされたオブジェなどの物体の法線画像データを3次元モデルデータとして格納しておき、撮像画像データにおいて検出された識別コードを用いて3次元モデルデータを位置合わせする例についても適用可能である。この場合においても、識別コード中で検出された複数の基準点の周囲の凹凸の大きさに基づいて位置合わせをすることで、好適なライティング処理を行うことができる。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
301 画像取得部
302 距離取得部
304 照明取得部
305 ライティング部
802 パターン検出部
805 法線生成部

Claims (21)

  1. 被写体を含む画像データを取得する画像取得手段と、
    前記画像データを撮像した撮像装置から前記被写体までの距離を、前記画像データの各画素について示す距離情報を取得する距離取得手段と、
    前記画像データが示すシーンにおいて、光源の位置を設定する設定手段と、
    前記画像データにおいて、前記被写体の所定の特徴パターンを検出し、前記特徴パターンに基づいて、データの位置合わせに用いる複数の基準点の位置を検出する検出手段と、
    前記所定の特徴パターンを有する所定の物体の3次元形状を示すモデルデータと、前記モデルデータにおける前記複数の基準点の位置を示す情報とを保持する保持手段と、
    前記モデルデータに含まれる前記複数の基準点の位置と、前記検出手段によって検出された前記複数の基準点の位置とに基づいて、前記モデルデータを前記被写体に位置合わせする位置合わせ手段と、
    前記位置合わせ手段により位置合わせされた前記モデルデータと前記距離情報と前記光源の位置とに基づいて、前記画像データの画素値を補正するライティング処理を行う処理手段とを有し、
    前記位置合わせ手段は、前記位置合わせにおいて、前記複数の基準点のうちの第一の基準点の位置の一致度合いを、前記第一の基準点とは異なる第二の基準点の位置の一致度合いに比べて重視することを特徴とする画像処理装置。
  2. 前記特徴パターンは顔であり、前記検出手段は前記被写体に含まれる顔の鼻を含む複数の器官の位置を前記複数の基準点の位置として検出し、
    前記位置合わせ手段は、前記位置合わせにおいて、前記被写体の鼻の位置と前記モデルデータの鼻の位置との一致度合いを、前記被写体と前記モデルデータの、前記検出手段に検出された他の器官の位置の一致度合いに比べて重視することを特徴とする請求項1に記載の画像処理装置。
  3. 前記保持手段は、所定の顔の3次元形状を示すモデルデータを、前記所定の顔の複数の向きについてそれぞれ保持し、
    前記モデルデータにおける前記複数の基準点の位置と、前記検出手段により検出された前記複数の基準点の位置とに基づいて、前記複数の向きのうちの一つに対応するモデルデータを選択する選択手段を更に有し、
    前記位置合わせ手段は、前記選択手段により選択されたモデルデータに対して、前記位置合わせ処理を行うことを特徴とする請求項2に記載の画像処理装置。
  4. 前記保持手段は、前記複数の向きのそれぞれに対応するモデルデータの間で鼻の位置のずれが等間隔になるように前記複数の向きに対応するモデルデータを保持することを特徴とする請求項3に記載の画像処理装置。
  5. 前記複数の基準点から前記第一の基準点と前記第二の基準点とを決定する決定手段を更に有し、
    前記決定手段は、前記特徴パターンにおいて、前記複数の基準点の周囲の所定の画素数の範囲での凹凸の大きさを導出し、前記凹凸の大きさが所定の基準を満たしている基準点を前記第一の基準点として決定し、前記凹凸の大きさが所定の基準を満たしていない基準点を前記第二の基準点として決定することを特徴とする請求項1に記載の画像処理装置。
  6. 前記決定手段は、前記モデルデータを用いて前記複数の基準点の周囲の所定の画素数の範囲における形状変化の大きさを導出し、前記形状変化の大きさが所定の閾値を超えている基準点を前記第一の基準点として決定し、前記形状変化の大きさが所定の閾値を超えていない基準点を前記第二の基準点として決定することを特徴とする請求項5に記載の画像処理装置。
  7. 前記決定手段は、前記モデルデータを用いて前記複数の基準点の周囲の所定の画素数の範囲における形状変化の大きさを導出し、前記形状変化の大きさが最も大きい基準点を前記第一の基準点として決定し、前記第一の基準点よりも前記形状変化の大きさが小さい基準点を前記第二の基準点として決定することを特徴とする請求項5に記載の画像処理装置。
  8. 前記位置合わせ手段は、前記被写体と前記モデルデータとの間での前記複数の基準点同士の位置のずれの大きさを示す評価値を用いて前記位置合わせを行い、前記位置合わせ手段は、前記特徴パターンのうちの第一の基準点同士のずれに対して、前記第二の基準点同士のずれに比べて、より大きなずれを示す評価値を算出することを特徴とする請求項1乃至7のいずれか一項に記載の画像処理装置。
  9. 前記位置合わせ手段は、前記複数の基準点の位置に基づいて、前記モデルデータを射影変換することで前記位置合わせを行うことを特徴とする請求項1乃至8のいずれか一項に記載の画像処理装置。
  10. 前記位置合わせ手段は、前記複数の基準点の位置に基づいて、前記モデルデータを平行移動することで前記位置合わせを行うことを特徴とする請求項1乃至9のいずれか一項に記載の画像処理装置。
  11. 前記距離情報に基づいて、前記被写体の表面における法線方向を前記画像データの各画素について示す法線情報を取得する法線取得手段を更に備え、
    前記処理手段は、前記位置合わせ手段により位置合わせされた前記モデルデータと前記法線情報と前記光源の位置とに基づいて前記ライティング処理を行うことを特徴とする請求項1乃至10のいずれか一項に記載の画像処理装置。
  12. 前記モデルデータは、前記所定の物体を示す画像の各画素において、前記所定の物体の表面の法線方向を格納した法線画像データであり、
    前記法線情報の前記被写体の前記特徴パターンに対応する領域における法線方向は、前記モデルデータが示す法線方向により決定された法線方向であることを特徴とする請求項11に記載の画像処理装置。
  13. 前記法線情報の前記特徴パターンに対応する領域に対して、前記画像データの画素値を基準とする平滑化フィルタを作用させることで前記法線情報を補正する補正手段を更に有することを特徴とする請求項12に記載の画像処理装置。
  14. 前記補正手段は、前記平滑化フィルタにおいて参照する画素を、前記法線情報において前記モデルデータに対応する画素に限定することを特徴とする請求項13に記載の画像処理装置。
  15. 前記補正手段は、前記距離情報に基づいて、前記被写体の一部を遮蔽する遮蔽物を検出し、
    前記補正手段は、前記特徴パターンに対応する領域において、前記検出された遮蔽物により遮蔽されている遮蔽領域における前記平滑化フィルタの強度を、前記遮蔽領域ではない領域における前記平滑化フィルタの強度よりも強くすることを特徴とする請求項13又は14に記載の画像処理装置。
  16. 前記平滑化フィルタはクロスバイラテラルフィルタであることを特徴とする請求項13乃至15のいずれか一項に記載の画像処理装置。
  17. 前記ライティング処理は、前記画像データの各画素に対応する被写体の位置と前記設定手段により設定された前記光源の位置との間の距離に応じて前記画像データの画素値を加算する処理であることを特徴とする請求項1乃至16のいずれか一項に記載の画像処理装置。
  18. 前記ライティング処理は、前記画像データの各画素に対応する被写体の位置と前記設定手段により設定された前記光源の位置との間の距離に応じて前記画像データの画素値を減算する処理であることを特徴とする請求項1乃至16のいずれか一項に記載の画像処理装置。
  19. 前記光源の位置は、実際には存在しない仮想的な光源の位置であることを特徴とする請求項1乃至18のいずれか一項に記載の画像処理装置。
  20. 被写体を含む画像データを取得する画像取得工程と、
    前記画像データを撮像した撮像装置から前記被写体までの距離を、前記画像データの各画素について示す距離情報を取得する距離取得工程と、
    前記画像データが示すシーンにおいて、光源の位置を設定する設定工程と、
    前記画像データにおいて、前記被写体の所定の特徴パターンを検出し、前記特徴パターンに基づいて、データの位置合わせに用いる複数の基準点の位置を検出する検出工程と、
    前記所定の特徴パターンを有する所定の物体の3次元形状を示すモデルデータと、前記モデルデータにおける前記複数の基準点の位置を示す情報とを読み出す工程と、
    前記モデルデータに含まれる前記複数の基準点の位置と、前記検出工程によって検出された前記複数の基準点の位置とに基づいて、前記モデルデータを前記被写体に位置合わせする位置合わせ工程と、
    前記位置合わせ工程により位置合わせされた前記モデルデータと前記距離情報と前記光源の位置とに基づいて、前記画像データの画素値を補正するライティング処理を行う処理工程とを有し、
    前記位置合わせ工程は、前記位置合わせにおいて、前記複数の基準点のうちの第一の基準点の位置の一致度合いを、前記第一の基準点とは異なる第二の基準点の位置の一致度合いに比べて重視する工程であることを特徴とする画像処理方法。
  21. コンピュータを請求項1乃至19のいずれか一項に記載の画像処理装置として機能させるプログラム。
JP2015102819A 2015-04-15 2015-05-20 画像処理装置、画像処理方法およびプログラム Active JP6552266B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015102819A JP6552266B2 (ja) 2015-05-20 2015-05-20 画像処理装置、画像処理方法およびプログラム
US15/093,585 US10303973B2 (en) 2015-04-15 2016-04-07 Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data
US16/383,249 US11106938B2 (en) 2015-04-15 2019-04-12 Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data
US17/393,747 US11948282B2 (en) 2015-04-15 2021-08-04 Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015102819A JP6552266B2 (ja) 2015-05-20 2015-05-20 画像処理装置、画像処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2016218729A true JP2016218729A (ja) 2016-12-22
JP6552266B2 JP6552266B2 (ja) 2019-07-31

Family

ID=57581113

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015102819A Active JP6552266B2 (ja) 2015-04-15 2015-05-20 画像処理装置、画像処理方法およびプログラム

Country Status (1)

Country Link
JP (1) JP6552266B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017059235A (ja) * 2015-09-17 2017-03-23 三星電子株式会社Samsung Electronics Co.,Ltd. イメージの明るさを調整する方法及び装置
JP2018182700A (ja) * 2017-04-21 2018-11-15 キヤノン株式会社 画像処理装置およびその制御方法、プログラム、並びに記憶媒体
JP2019179463A (ja) * 2018-03-30 2019-10-17 キヤノン株式会社 画像処理装置、その制御方法、プログラム、記録媒体
CN111742347A (zh) * 2018-02-26 2020-10-02 高通股份有限公司 用于图像中的对象的动态照明
WO2021141028A1 (ja) * 2020-01-06 2021-07-15 ファナック株式会社 物体検出装置及びモデルパターン評価装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009211148A (ja) * 2008-02-29 2009-09-17 Secom Co Ltd 顔画像処理装置
JP2013235537A (ja) * 2012-05-11 2013-11-21 Nikon Corp 画像作成装置、画像作成プログラム、及び記録媒体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009211148A (ja) * 2008-02-29 2009-09-17 Secom Co Ltd 顔画像処理装置
JP2013235537A (ja) * 2012-05-11 2013-11-21 Nikon Corp 画像作成装置、画像作成プログラム、及び記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
小倉洋平 他: "RGB−Dカメラから得られる法線マップに基づく光学的整合性の実現", 第19回 日本バーチャルリアリティ学会大会 論文集, JPN6019019498, September 2014 (2014-09-01), JP, pages 466 - 469, ISSN: 0004044586 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017059235A (ja) * 2015-09-17 2017-03-23 三星電子株式会社Samsung Electronics Co.,Ltd. イメージの明るさを調整する方法及び装置
JP2018182700A (ja) * 2017-04-21 2018-11-15 キヤノン株式会社 画像処理装置およびその制御方法、プログラム、並びに記憶媒体
CN111742347A (zh) * 2018-02-26 2020-10-02 高通股份有限公司 用于图像中的对象的动态照明
CN111742347B (zh) * 2018-02-26 2024-03-15 高通股份有限公司 用于图像中的对象的动态照明
JP2019179463A (ja) * 2018-03-30 2019-10-17 キヤノン株式会社 画像処理装置、その制御方法、プログラム、記録媒体
JP7059076B2 (ja) 2018-03-30 2022-04-25 キヤノン株式会社 画像処理装置、その制御方法、プログラム、記録媒体
WO2021141028A1 (ja) * 2020-01-06 2021-07-15 ファナック株式会社 物体検出装置及びモデルパターン評価装置
JPWO2021141028A1 (ja) * 2020-01-06 2021-07-15
JP7425089B2 (ja) 2020-01-06 2024-01-30 ファナック株式会社 物体検出装置及びモデルパターン評価装置

Also Published As

Publication number Publication date
JP6552266B2 (ja) 2019-07-31

Similar Documents

Publication Publication Date Title
US11948282B2 (en) Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data
JP6864449B2 (ja) イメージの明るさを調整する方法及び装置
CN107154030B (zh) 图像处理方法及装置、电子设备及存储介质
US9438878B2 (en) Method of converting 2D video to 3D video using 3D object models
JP6576083B2 (ja) 画像処理装置、画像処理方法、およびプログラム
EP3018903B1 (en) Method and system for projector calibration
JP6685827B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5266954B2 (ja) 投写型表示装置および表示方法
JP6552266B2 (ja) 画像処理装置、画像処理方法およびプログラム
US20150304617A1 (en) System for performing distortion correction and calibration using pattern projection, and method using the same
KR20160007423A (ko) 직접적인 기하학적 모델링이 행해지는 hmd 보정
JPWO2018235163A1 (ja) キャリブレーション装置、キャリブレーション用チャート、チャートパターン生成装置、およびキャリブレーション方法
US20120293693A1 (en) Image processing system, image processing method, and program
US10169891B2 (en) Producing three-dimensional representation based on images of a person
JP6406853B2 (ja) 光フィールド映像を生成する方法及び装置
JP2013127774A (ja) 画像処理装置、画像処理方法及びプログラム
JP2016085380A (ja) 制御装置、制御方法、及び、プログラム
JP2018163648A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2015213299A (ja) 画像処理装置および画像処理方法
JP2019029721A (ja) 画像処理装置、画像処理方法およびプログラム
JPH1074269A (ja) 立体cg動画像生成装置
JP6896811B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2021044710A (ja) 画像処理装置、画像処理方法、およびプログラム
JPWO2018167918A1 (ja) プロジェクタ、マッピング用データ作成方法、プログラム及びプロジェクションマッピングシステム
KR20200042781A (ko) 입체 모델 생성 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180517

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190702

R151 Written notification of patent or utility model registration

Ref document number: 6552266

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151