JP2019205205A - 画像処理装置、画像処理方法、およびプログラム - Google Patents

画像処理装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP2019205205A
JP2019205205A JP2019151519A JP2019151519A JP2019205205A JP 2019205205 A JP2019205205 A JP 2019205205A JP 2019151519 A JP2019151519 A JP 2019151519A JP 2019151519 A JP2019151519 A JP 2019151519A JP 2019205205 A JP2019205205 A JP 2019205205A
Authority
JP
Japan
Prior art keywords
subject
image data
image
face
color image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019151519A
Other languages
English (en)
Other versions
JP6896811B2 (ja
Inventor
有一 中田
Yuichi Nakada
有一 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2015083724A external-priority patent/JP6576083B2/ja
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019151519A priority Critical patent/JP6896811B2/ja
Publication of JP2019205205A publication Critical patent/JP2019205205A/ja
Priority to JP2021097301A priority patent/JP2021145385A/ja
Application granted granted Critical
Publication of JP6896811B2 publication Critical patent/JP6896811B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】 被写体の姿勢や表情に合わせた陰影を付与した画像を得る。【解決手段】 画像処理装置であって、被写体を撮像することにより得られたカラー画像を取得する取得手段と、前記カラー画像において前記被写体の顔の領域を顔領域として特定する特定手段と、前記カラー画像における前記顔領域の少なくとも一部の明るさが変更された補正画像を生成する生成手段を有することを特徴とする。【選択図】 図4

Description

本発明は、画像データに陰影を付与する技術に関する。
撮像装置を用いて被写体を撮影する場合、被写体に対する光の当たり方によって得られる画像は大きく変わる。例えば逆光の状態で撮影した場合、被写体の全体あるいは一部が影になり暗く写ってしまう。また、ストロボを用いて被写体に光を照射して撮影を行う場合には、光の影響により被写体の陰影が飛ばされ、被写体が平坦に見えるような場合もある。これらの画像を補正する方法として、特定の方向から疑似的に光を当てたように被写体の暗部を補正する方法が知られている(特許文献1)。特許文献1に記載の技術では、仮想光源の影響をガウス分布で表現する。この際、別途設定したライティング方向に従って輝度補正のガウス分布を偏らせることにより、仮想的に所望の方向から照明を与えたような画像を得ることができる。
また、被写体に対応する3Dモデルを用いて所定の仮想照明条件下でCGのレンダリング処理を行い、レンダリングしたCG画像を、撮影により得られた画像中の被写体像と置き換えることで被写体のライティングを変更する方法も知られている(特許文献2)。特許文献2に記載の技術では、あらかじめ用意しておいた3Dモデルの中から被写体と置き換える3Dモデルを決定する。
特許第5281878号公報 特許第5088220号公報
撮影者が所望する照明条件下で撮影したかのような別の画像を撮影画像から生成する場合、被写体の姿勢や表情に合わせた陰影を付与した画像が得られることが好ましい。しかしながら特許文献1、2の技術では以下のような課題がある。
特許文献1に記載の技術のように仮想光源の影響をガウス分布で表現する場合、人間の顔のような複雑な形状の被写体に対して自然な陰影を付与することは困難である。また、特許文献2に記載の技術のように、被写体の3Dモデルを用いてレンダリングした結果で画像中の被写体像を置きかえる場合、置き換えた後の被写体の姿勢や表情が3Dモデルの姿勢や表情に置き換わってしまい不自然な結果となってしまう。そこで、本発明は被写体の姿勢や表情に合わせた陰影を付与した画像を得ることを目的とする。
上記課題を解決するために、本発明に係る画像処理装置は、被写体を撮像することにより得られたカラー画像を取得する取得手段と、前記カラー画像において前記被写体の顔の領域を顔領域として特定する特定手段と、前記カラー画像における前記顔領域の少なくとも一部の明るさが変更された補正画像を生成する生成手段を有することを特徴とする。
本発明によれば、被写体の姿勢や表情に合わせた陰影を付与した画像を得ることができる。
本発明の実施形態1に係る撮像装置の外観を示す図。 本発明の実施形態1に係る撮像装置の内部構成を示す図。 本発明の実施形態1に係る画像処理部の構成を示すブロック図。 本発明の実施形態1に係る処理の流れを示すフローチャート。 本発明の実施形態1に係る画像データの例を示す図。 本発明の実施形態1に係る顔情報を示す図。 本発明の実施形態1に係る距離補正処理の流れを示すフローチャート。 本発明の実施形態1に係る距離補正処理の概要を表す図。 本発明の実施形態1に係る法線補正処理の流れを示すフローチャート。 本発明の実施形態1に係る法線補正処理の概要を表す図。 本発明の実施形態1に係る法線平滑化処理の概要を表す図。 本発明の実施形態1に係るライティング処理の流れを示すフローチャート。 本発明の実施形態1に係るライティング処理の概要を示す図。 本発明の実施形態1に係るライティング処理の効果を表す図。 本発明の実施形態2に係る補正係数の例を示す図。 本発明の実施形態3に係るライティング処理の効果を表わす図。 本発明の実施形態4に係る処理の流れを示すフローチャート。
[実施形態1]
<撮像装置の外観>
図1は本実施形態に係る撮像装置の外観を示す図であり、図1(a)は撮像装置の前面、図1(b)は背面の外観を示している。撮像装置101は、光学部102、撮像ボタン103、ストロボ104、距離取得部105、表示部106、および操作ボタン107を有している。
光学部102はズームレンズ、フォーカスレンズ、ブレ補正レンズ、絞り、およびシャッターによって構成される鏡筒であり、被写体の光情報を集光する。撮像ボタン103は、ユーザが撮像の開始を撮像装置101に指示するためのボタンである。ストロボ104は、ユーザ指示に従い撮像の開始に合わせて発光させることができる照明である。距離取得部105は、撮像指示に応じて被写体の距離画像データを取得する距離取得モジュールである。距離画像データとは、画像の各画素の画素値としてその画素に対応する被写体距離を格納した画像データのことを意味する。距離取得部105は、赤外光を発光する赤外発光部と、被写体に反射した赤外光を受光する受光部とを含み、発光した赤外光が被写体に反射し受光するまでの時間を基に撮像装置から被写体までの距離値を算出する。そして、算出した距離値と受光部のセンサ画素数や画角等を含む距離撮像情報に基づき被写体の位置情報を算出し距離画像データを生成する。なお、距離画像データの取得方法はこれに限られない。例えば距離取得部105の代わりに光学部102と同様の光学系を設け、異なる2つの視点から撮像された画像データの間の視差に基づいて、三角測量を行うことにより距離画像データを取得するようにしてもよい。
表示部106は、撮像装置101にて処理された画像データや他の各種データなどを表示する、液晶ディスプレイなどのディスプレイである。本実施形態では撮像装置101に光学ファインダを設けていないので、フレーミング操作(ピントや構図の確認)は、表示部106を用いて行われる。すなわち、表示部106でライブビュー画像を確認しながら撮像が行われるので、フレーミングやフォーカシングの操作を行っている間は、表示部106は電子ファインダとして機能すると言える。表示部106では、撮像範囲をリアルタイムに表示するライブビュー表示が行われる他、カメラ設定メニューが表示される。
操作ボタン107は、撮像装置101の動作モードの切り換え操作や、撮像時の各種パラメータなどをユーザが撮像装置101に指示するためのボタンである。なお、本実施形態では動作モードの一つとして、撮像された画像における照明の当たり具合を撮像後に補正するライティング補正処理モードが含まれる。ユーザは操作ボタン107、あるいは撮像ボタン103を用いてライティング補正処理モードへの切り替えや、ライティング補正に用いる仮想照明の照明パラメータの設定や、照明の当たり具合を調整する被写体の選択などを行うことができる。また、ユーザは補正された画像データを出力する際に、距離画像データを出力するかどうか等の指示をすることもできるものとする。なお、表示部106はタッチスクリーン機能を有していても良く、その場合はタッチスクリーンを用いたユーザ指示を操作ボタン107の入力として扱うことも可能である。
<撮像装置の内部構成>
図2は本実施形態における撮像装置101の内部構成を示すブロック図である。
CPU202は、各構成の処理すべてに関わり、ROM(Read Only Memory)203や、RAM(Rondom Access Memory)204に格納された命令を順に読み込み、解釈し、その結果に従って処理を実行する。システムバス212はデータを送受信するためのバスである。なお、本実施形態において、ROM203には、人間の顔に対応する顔法線モデルが格納されているものとする。顔法線モデルは、所定の形状の顔に対応する、顔表面の法線ベクトルを画素値に格納した法線画像データと、法線画像データにおける人の、目や口などの器官位置を示す器官位置情報とを含む。
制御部206は、撮像ボタン103や操作ボタン107からのユーザ指示を受取り、撮像、ライティング補正処理モードの切り換え、被写体領域の選択、照明パラメータの設定などの制御を行う制御回路である。光学系制御部205は光学部102に対して、フォーカスを合わせる、シャッターを開く、絞りを調整するなどのCPU202から指示された制御を行う制御回路である。
カラー撮像素子部201は、光学部102にて集光された光情報を電流値へと変換する撮像素子である。カラー撮像素子部201にはベイヤ配列などの所定の配列を有するカラーフィルタが備えてあり、光学部102にて集光された光から被写体の色情報が取得される。
A/D変換部208は、カラー撮像素子部201にて検知された被写体の色情報をデジタル信号値に変換しRAW画像データとする処理回路である。なお、本実施形態では同時刻に撮像した距離画像データとRAW画像データが取得可能であるとする。
画像処理部209はA/D変換部208で取得されたRAW画像データに対して現像処理を行い、カラー画像データを生成する。また、画像処理部209はカラー画像データや距離画像データを用いて、カラー画像データにライティング補正を行った補正画像データを生成するなどの、各種画像処理を行う。画像処理部209の内部構造は後に詳述する。
また、キャラクタージェネレーション部207は文字やグラフィックなどを生成する処理回路である。キャラクタージェネレーション部207により生成された文字やグラフィックは、画像データや補正画像データなどに重畳して表示部106に表示される。
エンコーダ部210は、画像処理部209にて処理したカラー画像データやライティング補正処理によって生成される補正画像データを含む各種画像データをJpegなどのファイルフォーマットに変換する処理を行う。
メディアI/F211は、PC/メディア213(例えば、ハードディスク、メモリカード、CFカード、SDカードなど)に画像データを送受信するためのインタフェースである。メディアI/F211としては、例えばUSB(Universal Serial Bus)などが用いられる。
<画像処理部の内部構成>
図3は本実施形態における画像処理部209の機能構成を示すブロック図である。現像処理部301は、A/D変換部208から取得したRAW画像データに対してホワイトバランス処理、デモザイク処理、ノイズリダクション処理、色変換処理、エッジ強調処理およびガンマ処理等を施し、カラー画像データを生成する。生成したカラー画像データは表示部106へ出力して表示したり、RAM204、PC/メディア213などの記憶装置に記憶することができる。なお、本実施形態では、現像処理部301はガンマ処理を施さずにカラー画像データを生成し、ライティング部305に出力する。
距離補正部302は、カラー画像データ、顔情報、ユーザにより選択された被写体位置に基づいて、距離画像データから選択された被写体に対応する補正距離データを生成する。本実施形態では、補正距離データは、主に選択された被写体位置に対応した人物と、それ以外の背景に対応する距離値を格納しているものとする。
顔検出部303は、現像処理部301から取得したカラー画像データから被写体の顔情報を取得する。被写体の顔情報には、少なくともカラー画像データにおいて被写体の顔が占める領域を示す顔領域と、顔に含まれる目や口などのカラー画像データにおける位置を示す器官位置とに関する情報が含まれる。
法線補正部304は、顔検出部303から取得した顔情報と、現像部301から取得したカラー画像データとに基づいて、ROM203に格納された顔法線モデルを補正する。
ライティング処理部305は、距離補正部302から取得した補正距離データと、法線補正部304から取得した補正法線データと、制御部206から取得した照明パラメータとに基づいて、カラー画像データに対してライティング処理を行う。ライティング処理により生成された補正画像データはRAM204やPC/メディア213などの記憶装置に出力して記憶したり、表示部106へ出力して表示したりすることができる。
<画像処理部の処理フロー>
図4は本実施形態の撮像装置における画像処理部209の動作手順を示すフローチャートである。本実施形態において、画像処理部209は、カラー画像データから取得した顔情報と、ユーザ指示に基づき取得した被写体位置P0とを用いて、選択された被写体に対応する補正距離データを距離画像データから生成する。そして、被写体の顔情報と、あらかじめ保持していた顔法線モデルとに基づき、被写体の顔に合わせた法線画像データを生成する。その後、ユーザ操作によって設定された照明パラメータ、補正距離データ及び生成された法線画像データに基づき、カラー画像データに仮想光源を追加するライティング処理を行い補正画像データを生成する。以下、画像処理部209の動作手順の詳細について述べる。
ステップS401において、現像処理部301がA/D変換部208から取得したRAW画像データにデモザイク処理などの現像処理を施してカラー画像データを生成する。本実施形態におけるカラー画像データについて図5(a)を用いて説明する。カラー画像データI501の画素(i,j)にはRGB値が画素値として格納されているものとし、それぞれIr(i,j)、Ig(i,j)、Ib(i,j)と表すものとする。なお、カラー画像データの取得方法はこれに限るものではない。例えば、RAM204やPC/メディア213に記憶されているRAW画像データを取得し現像処理部301がカラー画像データを生成してもよい。あるいは、既に現像処理が行われたカラー画像データをRAM204やPC/メディア213から取得してもよい。そして、ステップS402において、現像部301はステップS401で取得したカラー画像データを表示部106に出力する。ユーザは、表示部106での表示に基づいて、ライティング補正処理を行うかどうかの判断を行う。
ステップS403において、制御部206が操作部107からの入力に従い、ライティング補正処理を行う指示が入力されているか否かの判定を行う。ライティング補正処理を行う指示が入力されていない場合はステップS404に進む。ライティング補正処理を行う指示が入力されている場合は、制御部206はライティング補正を行うことを示す信号を現像部301と距離補正部302とに出力してステップS406に進む。
ステップS404において、制御部206は、ユーザにより画像の出力指示が入力されているかどうかを判定する。ユーザにより画像の出力指示が入力されていると判定された場合は、ステップS405に進む。ユーザにより画像の出力指示が入力されていると判定されない場合は、ステップS403に戻る。
ステップS405において、制御部206は画像の出力指示を現像部301に出力し、現像部301は、カラー画像データをPC/メディア213に出力して処理を終了する。
ステップS406において、距離補正部302が距離取得部105から距離画像データを取得する。本実施形態における距離画像データについて図5(b)を用いて説明する。距離画像データD502の画素(i,j)には画素値として撮像装置から被写体までの距離値D(i,j)を格納しているものとする。なお、距離画像データの取得方法はこれに限るものではない。例えば、RAM204やPC/メディア213に記憶されている距離画像データを取得してもよい。
ステップS407において、現像部301は顔検出部303にカラー画像データを出力し、顔検出部303は入力されたカラー画像データから被写体の顔情報を取得する。本実施形態における顔情報について図6を用いて説明する。本実施形態における顔情報は、顔領域601および器官位置602を示す情報を含む。顔領域は、カラー画像データ501において顔が含まれる領域の画素の集合を表す。器官位置602は、顔領域内における目や口に対応する座標を表す。顔領域、器官位置の検出方法については既存のアルゴリズムが適用可能である。例として、テンプレートマッチングを用いたアルゴリズムや、Haar−Like特徴量を用いたアルゴリズムなどが挙げられる。本実施形態では、テンプレートマッチングによって顔領域・器官位置を検出する。まず、カラー画像データに対してしきい値処理を行うことで肌色の領域を顔候補領域として抽出する。すなわち、様々な肌色に基づいて決定された画素値の範囲の中に画素値が収まる画素を、顔候補領域として抽出する。そして、様々な大きさの顔画像テンプレートを用いて顔候補領域に対してマッチング処理を行い、顔領域としての尤度を算出する。最後に、算出された尤度が所定の閾値以上である領域を顔領域として抽出する。また、顔検出部303は、抽出された顔領域に対して目、口画像テンプレートを用いて同様のテンプレートマッチングを行い、目および口に対応する座標を抽出する。以上の処理により顔領域601、器官位置602が取得される。顔検出部303は、取得した顔情報を法線補正部304に出力する。なお、検出する器官としては、目や口以外にも鼻や耳など別の器官を抽出してもよい。
ステップS408において、距離補正部302はユーザによって指定された被写体の位置を決定する。本実施形態において、ユーザは表示部106に設けられたタッチパネルや、操作ボタン107を用いて、ライティング補正処理を行いたい被写体の位置を指定する。距離補正部302は、ユーザ操作により入力された被写体選択位置P0’を制御部206から取得する。そして、取得した被写体選択位置P0’に基づいて、カラー画像データにおける指定された被写体位置P0を算出する。本実施形態では、タッチスクリーン機能を有した表示部106にカラー画像データを表示し、表示画面中の被写体をユーザがタッチする操作を受け付け、距離補正部302はユーザがタッチした位置を被写体選択位置P0’として制御部206から取得する。この際、被写体選択位置P0’は表示部106の画素位置に対応する。距離補正部302は、この表示部106上での画素位置を、カラー画像データの画素位置に変換することで被写体位置P0を算出する。
ステップS409において、距離補正部302が、ステップS408で取得した被写体位置P0と、現像部301から取得したカラー画像データとを用いて、ステップS406で取得した距離画像データから補正距離データを生成する。補正距離データ生成処理の詳細については後述する。距離補正部302は、生成した補正距離データをライティング部305に出力する。
ステップS410において、法線補正部304が顔検出部303から取得した顔情報と、現像部301から入力されたカラー画像データとに基づいて、被写体の顔に合わせた法線画像データである補正法線データを生成する。補正法線データ生成処理の詳細については後述する。法線補正部304は、生成した補正法線データをライティング部305に出力する。
ステップS411において、ライティング部305が、入力された補正距離データと補正法線データとに基づいて、カラー画像データに対して仮想的な光源を加えるなどのライティング処理を行い補正画像データを生成する。ライティング処理の詳細については後述する。
ステップS412において、ライティング部305が制御部206から、ライティング処理に用いる照明パラメータの設定の変更が入力されたかどうかを判定する。照明パラメータの設定が変更されたと判定された場合はステップS411に戻り再びライティング処理を行う。照明パラメータの設定が変更されていないと判定された場合はステップS413に進む。
ステップS413では、ライティング部305が、制御部206から画像の出力指示が入力されたかどうかを判定する。画像の出力指示が入力されたと判定された場合は、ステップS414に進む。画像の出力指示が入力されていないと判定された場合はステップS412に戻る。ステップS414では、ライティング処理部305が、生成された補正画像データをPC/メディア213に出力して処理を終了する。以上が本実施形態の画像処理部209で行われる処理の流れである。以上の処理によれば、被写体に合わせて変形した顔法線モデルを用いてライティング処理を行うことができるので、被写体の姿勢や表情に合わせた自然な陰影を付与した画像を得ることができる。以下、画像処理部209の各構成部で行われる処理の詳細について説明する。
<補正距離データ生成処理>
ここでは、ステップS409で距離補正部302が行う補正距離データ生成処理について、図7に示すフローチャートを参照して説明する。ステップS701において、距離補正部302は、顔情報と被写体位置P0と距離画像データとに基づき被写体候補領域の抽出を行う。図8(a)(b)を用いて本ステップの処理を説明する。まず、距離補正部302は、顔情報が示す顔領域の中から被写体位置P0に最も近い顔領域601を選択する。そして、選択された顔領域中の各画素の距離値を距離画像データから取得し、それらの平均値を顔領域の距離値として算出する。その後、距離補正部302は、顔領域の距離値との距離値の差が所定の閾値以下となる画素とそれ以外の画素とに分けた二値画像801を生成する。すなわち、ここで行われる処理は、選択された被写体からの距離が所定の範囲に含まれる被写体とそれ以外の被写体とを判別する処理である。ここで、二値画像801において、顔領域の距離値との距離値の差が閾値以下である画素を被写体候補領域802とする。なお、ここで行われる被写体候補領域の判別は上記の方法に限られず、単に選択された被写体位置からの距離値の差が所定の閾値以内となる領域を被写体候補領域として決定してもよい。
ステップS702において、距離補正部302は、二値画像801に対して小成分除去処理や穴埋め処理を施すことにより被写体候補領域に含まれる小さな連結成分を除去したり、穴を埋める整形処理を行う。小成分除去処理・穴埋め処理としては、モルフォロジ演算を用いた方法やラベリング処理を利用した方法などが適用可能である。ここではモルフォロジ演算を用いた方法を利用する。距離補正部302は小成分除去処理として、二値画像801に含まれる被写体候補領域に対してオープニング処理を行う。そして、その後の穴埋め処理としては、被写体候補領域に対してクロージング処理を行う。図8(c)に本ステップによって得られる二値画像803の例を示す。
ステップS703において、距離補正部302は、ステップS702で整形処理が行われた二値画像803に対して平滑化処理を施し、多値の補正距離データ804(図8(d))を生成する。例えば、二値画像803のうち被写体候補領域802に含まれる画素の画素値を255、その他の画素の画素値を0とした画像に対して平滑化処理を行うこと、一画素あたり8ビットの距離情報を有する補正距離データ804を生成する。このとき、画素値が大きいほど被写体までの距離が小さいものとする。
なお、平滑化処理としては、ガウシアンフィルタやカラー画像データの画素値を参照しつつ平滑化を行うジョイントバイラテラルフィルタ等が適用可能である。本実施形態では以下の式(1)で表されるジョイントバイラテラルフィルタを利用するものとする。
Figure 2019205205
sは処理対象画素、Ωはsの近傍領域、pはΩに含まれる画素、Iは平滑化を行う画像データ、Rは参照用画像データ、fはpとsと間の距離に基づく重み、gは画素値に基づく重みを表す。fはsとpとの距離が大きくなるほど重みが小さくなるように設定される。gは参照用画像の画素pと画素sの画素値の差が大きいほど重みが小さくなるように設定する。式(1)ではYは画素pと画素sの画素値の輝度差を表すものとする。ステップS703では、Iとして補正距離データ803を、Rとしてカラー画像データを使用し平滑化処理を行う。カラー画像データを参照しつつ二値画像803に対してジョイントバイラテラルフィルタを利用することにより、カラー画像データ内の画素値の近い画素のみを利用して平滑化処理を施すことができる。これにより、被写体領域802の輪郭を、カラー画像データ中の被写体の輪郭に合わせつつ平滑化をおこなう事ができる。なお、平滑化処理の方法はこれに限るものではない。例えば、fの設定方法として近傍領域内で等しい重み与えても構わない。また、gの設定方法として輝度値の代わりに色差に基づいて重みを構わない。あるいは、画素値が一定値以内であれば重みを一定にするなどしても良い。
また、補正距離データ804を多値画像で取得することにより、ステップS409で行うライティング処理の際に被写体輪郭部の違和感を軽減することができる。以上の処理により、距離補正部302は、主に手前の被写体とそれ以外の背景に分割され、それぞれに対応する距離値が格納された補正距離データ804を取得することができる。なお、ここで行われるフィルタ処理はジョイントバイラテラルフィルタである必要はなく、カラー画像データの画素値を基準とするフィルタ処理であればどのようなものを利用してもよい。
<法線画像データ生成処理>
ここでは、ステップS410で法線生成部304が行う補正法線データ生成処理について説明する。本実施形態における補正法線データ生成処理は、ROM203やPC/メディア213に格納された顔法線モデルを、カラー画像データに基づいて補正する処理である。以下、補正法線データ生成処理の詳細について図9に示すフローチャートを参照して述べる。
ステップS901において、顔法線モデルをカラー画像データに合わせて変形する際の変形パラメータを算出する。本実施形態の顔法線情報の例を図10(a)に示す。顔法線モデルには顔法線画像データ1001と、それに対応する器官位置情報1002が含まれている。顔法線画像データ1001は、画素N(i,j)に画素値として顔の向きの法線ベクトル(Nx(i,j)、Ny(i,j)、Nz(i,j))を格納した画像データである。Nx(i,j)、Ny(i,j)、Nz(i,j)はそれぞれ画素(i,j)に格納された法線ベクトルの、互いに直交する3本の座標軸であるx軸、y軸、z軸方向の成分である。また、顔法線画像データ1001に含まれる法線ベクトルは全て単位ベクトルとする。顔の領域に対応する画素は顔表面に垂直な方向のベクトルが法線ベクトルとして格納されており、顔以外の領域に対応する画素は撮像装置の光軸とは逆方向のベクトルが法線ベクトルとして格納されているものとする。本実施形態ではz軸を撮像装置の光軸と逆方向とし、顔以外の領域に対応する画素では法線ベクトルとして(0,0,1)が格納されるものとする。器官位置情報1002は、顔法線画像データ1001中の右目、左目、口の座標値を示す。
本ステップでは、法線補正部304が、顔法線モデルに対応する器官位置1002と、カラー画像データの顔情報に含まれる器官位置602とから、カラー画像データ501と顔法線画像データ1001との右目、左目、口の座標を対応づける。そして、法線補正部304は、顔法線画像データ1001の器官位置1002を器官位置602に合わせるための変形パラメータを算出する。変形パラメータとしては、アフィン変換に用いるためのアフィン変換係数を算出する。アフィン変換係数の算出法としては最小二乗法などが利用可能である。すなわち、器官位置1002をアフィン変換した際の、器官位置602との誤差の事情輪が最小になるアフィン変換係数が、ここでの変換パラメータとして決定される。なお、本実施形態では顔法線画像データ1001は画素値として法線ベクトルのx軸、y軸、z軸方向の成分を保有しているが、例えば3チャンネル8bitカラー画像データの各チャンネルにこれらを割り当てても構わない。例えば、法線ベクトルの各軸方向の成分は−1.0から1.0の値をとるため、この間の値を0から255に割り当てることで法線ベクトルの情報を3チャンネル8bitカラー画像データとして保有することができる。
ステップS902において、法線補正部304は、ステップS901で算出したアフィン変換係数を用いて顔法線画像データ1001を変換し法線画像データ1003を生成する。これにより、カラー画像データ501に含まれる顔領域に顔法線画像データ1001をフィッティングした法線画像データ1003が生成される。法線画像データ1003は、画素N’(i,j)には画素値として法線ベクトル(N’x(i,j)、N’y(i,j)、N’z(i,j))を格納した画像データである。法線画像データ1003の法線ベクトルは、顔法線画像1001に対応する領域(図10(b))については、顔法線画像1001の各画素に格納された法線ベクトル(Nx,Ny,Nz)に基づいて算出される。そして、顔法線画像1001に対応しない領域については、撮像装置の光軸と逆方向の法線ベクトル(0,0,1)が格納されるものとする。本ステップにより顔法線画像1001中の顔領域をカラー画像データ中の顔領域に概ね合わせる事ができる。しかし、顔の輪郭など器官以外の位置は正確に合わせられない場合があるため、以降のステップでこれを補正する。
ステップS903において、法線補正部304は、法線画像データ1003をx軸、y軸、z軸方向の成分毎に分け、x軸成分法線データ1101、y軸成分法線データ1102、z軸成分法線データ1103の3つの画像データに分解する(図11(a))。これにより、二値画像803と同様の平滑化処理が適用可能となる。本実施形態では、法線補正部304は、ステップS703と同様にジョイントバイラテラルフィルタを作用させる。
ステップS904において、法線補正部304は、x軸成分法線データ1101に対して平滑化処理を行い、平滑化x軸成分法線データ1104を生成する。平滑化処理としては、カラー画像データ501を参照画像とするジョイントバイラテラルフィルタを適用する。本処理によって得られる平滑化x軸成分法線データ1104は各画素に平滑化されたx軸成分の値N”xが格納されているものとする。
ステップS905において、法線補正部304は、y軸成分法線データ1102に対して平滑化処理を行い、平滑化y軸成分法線データ1105を生成する。平滑化処理としては、カラー画像データ501を参照画像とするジョイントバイラテラルフィルタを適用する。本処理によって得られる平滑化y軸成分法線データ1105は各画素に平滑化されたy軸成分の値N”yが格納されているものとする。
ステップS906において、法線補正部304は、z軸成分法線データ1103に対して平滑化処理を行い、平滑化z軸成分法線データ1106を生成する。平滑化処理としては、カラー画像データ501を参照画像とするジョイントバイラテラルフィルタを適用する。本処理によって得られる平滑化z軸成分法線データ1106は各画素に平滑化されたz軸成分の値N”zが格納されているものとする。
上記ステップS904からステップS906により、法線画像データの1003中の顔の輪郭を、カラー画像データ中の被写体の輪郭に合わせる事ができる。
ステップS907において、法線補正部304は平滑化x軸成分法線データ1104、平滑化y軸成分法線データ1105、平滑化z軸成分法線データ1106を統合し、平滑化法線画像データ1107を生成する(図11(b))。平滑化法線画像データ1107は画素(i,j)に法線ベクトル(N”x(i,j)、N”y(i,j)、N”z(i,j))を格納した画像データである。
ステップS908において、平滑化法線画像データ1107の各画素に格納された法線ベクトルを単位ベクトルになるように正規化する。ステップS904からステップS906では、各軸成分ごとに平滑化処理を行ったため、画素によって格納されている法線ベクトルの大きさが異なる。これを補正するため、本ステップでは式(2)のように法線ベクトルの大きさが1になるように正規化を行う。
Figure 2019205205
これにより、画素(i,j)に大きさ1の法線ベクトル(N’’’x(i,j)、N’’’y(i,j)、N’’’z(i,j))を格納した補正法線データが取得される。
以上により、法線補正部304は補正法線データを取得する。以上の処理によれば、被写体の顔に合わせて顔法線モデルを補正することができるので、ライティング処理において被写体の顔に対して自然な陰影を付与することができる。また、上記のように各座標軸成分について独立に平滑化処理を行うことで、法線方向が平滑化処理により大きく変わることを防ぐことができる。
<ライティング処理>
ここでは、ステップS411で行われるライティング処理について説明する。本実施形態におけるライティング処理は、補正距離データ、補正法線データに基づき、ユーザ操作によって設定された照明パラメータに応じてカラー画像データに対して仮想光源を加える処理を行って補正画像を生成する処理である。以下、ライティング処理の詳細について図12に示すフローチャートを参照して説明する。
ステップS1201において、ライティング部305が制御部206からユーザによって設定された、ライティング処理に用いる照明パラメータを取得する。本実施形態では、ユーザは操作部107の操作により照明パラメータとして仮想照明の位置Q、姿勢U、強度α、光源色Lを設定する。
ステップS1202において、ライティング部305が補正距離データ804、法法線画像データ1003、ステップS1101で取得された照明パラメータに基づいて、カラー画像データ501の画素値の補正を行う。本実施形態では式(3)に従ってカラー画像データの画素値を補正し、補正画像データをI’を生成するものとする。
Figure 2019205205
ここで、I’r、I’g、I’bは補正画像データI’の画素値、Lrm、Lgm、Lbmはm番目の照明の色、kmはm番目の照明に対する画素値の補正度合いを表す。kmは照明の明るさα、位置Q、姿勢Uおよび画素(x、y)に対応する距離値、法線ベクトルVに基づいて決定する。例えば式(4)のように求めることができる。
Figure 2019205205
式(4)について図13を用いて説明する。tは仮想光源による補正度合いを調整する補正係数である。本実施形態ではt=1とする。αは照明の明るさを表す変数である。Qは光源の位置を表すベクトルである。Pは画素(i、j)の三次元的な位置を表すベクトルであり、補正距離データ804から下記のように算出される。まず、補正距離データ804の画素値に基づき、撮像装置101から各画素に対応する被写体位置までの仮想的な距離値を算出する。この際、補正距離データ804において画素値の大きな画素ほど撮像装置101からの距離が小さいものとする。続いて、ライティング部305は各画素に対応する仮想的な距離値と、撮像装置101の画角とカラー画像データ501の画像サイズなどに基づき、画素(i、j)の三次元的な位置Pを算出する。Wは画素(i、j)の位置Pから光源の位置Qまでの距離が大きくなるに従い大きな値を返す関数である。ρはQからP(i,j)に向かうベクトルと、照明の姿勢Uのなす角度を表す。Kはρが小さいほど大きな値となるような関数である。N(i,j)は画素(i、j)に対応する法線ベクトル、V(i,j)はQからP(i,j)に向かう方向を表す単位ベクトルである。本実施形態のように補正画像を生成することにより、照明の位置と被写体の形状に応じた明るさの補正が可能である。以上のように、仮想光源からの距離に応じて画素値を加算するライティング処理が行われる。以上の処理により、仮想光源に近く、仮想光源から画素(i,j)に向かうベクトルと法線ベクトルとのなす角が小さい画素ほど明るくなるように補正することができる。これにより、図14に示すように、仮想照明により被写体を照らしたかのような補正画像1401を得る事ができる。
ステップS1203において、ライティング部305は、画素値の補正を行った補正画像データを表示部106に表示して処理を終了する。ユーザは、ここで表示部106に表示された補正画像データを見て、照明パラメータの変更指示や画像の出力指示を入力する。
以上の処理によれば、被写体に合わせて変形した顔法線モデルを用いてライティング処理を行うことができるので、被写体の姿勢や表情に合わせた自然な陰影を付与した画像を得ることができる。
[実施形態2]
実施形態1では被写体の画素値によらずにカラー画像データの画素値を補正する例について生成した。実施形態2では、被写体の輝度値に基づいて補正量を制御する方法について説明する。被写体の輝度値に基づいて補正量を制御することにより、あらかじめ輝度値の高い領域を補正した場合に発生する白とびや、暗部を補正した際に発生するノイズ増加を抑制することができる。
本実施形態の撮像装置101の構成と、基本的な処理の流れは実施形態1と同様であるので説明を省略する。実施形態2において実施形態1と異なる点は、ライティング処理部305で行われるライティング処理において、式4に示す補正係数tが各画素の輝度値によって決定される点である。
本実施形態における補正係数tの決定方法の例を図15を参照して説明する。図15(a)では、あらかじめ設定したしきい値th1、th2に基づいて補正係数tが決定される例を示している。この例では、画素の輝度値Yが0≦Y<th1の区間ではt=1、th1≦Y<th2の区間ではtが単調に減少、th2≦Yの区間ではt=0となるように補正係数tが決定される。このように補正係数tを決定すると、輝度値の大きな画素ほど仮想光源による補正度合いを小さくすることができる。そのため、仮想光源の影響により輝度値の高い画素が白とびするのを抑制する効果が得られる。なお、図15(a)では、th1≦Y<th2の区間でtがYの一次関数となるように直線的に減少させているが、減少のさせかたはこれに限らない。tをYの一次関数とした場合、補正画像I’はカラー画像データIの画素値の二次関数として表現される。この場合、th1≦Y<th2の区間に補正画像の画素値が極大となり、階調反転が発生してしまう場合がある。これを抑制する手段として、th1≦Y<th2の区間における減少を二次曲線や三角関数等を利用して表現してもよい。こうすることによって、補正画像における階調反転の発生を抑制することができる。あるいは、図15(b)に示すように補正係数tを決めることもできる。図15(b)では、あらかじめ設定したしきい値th1、th2、th3によって決定される補正係数の例を示している。この例では、輝度値Yが0≦Y<th3の区間ではtが単調増加、th3≦Y<th1の区間ではt=1、th1≦Y<th2の区間ではtが単調減少、th2≦Yの区間ではt=0となるように補正係数tが決定される。図15(b)のように補正係数tを設定することにより、白とびに加え輝度値の小さい暗部のノイズが、ライティング処理により強調されることを抑制することができる。また、輝度値Yが0≦Y<th3の区間における増加や、th1≦Y<th2の区間における減少を二次曲線や三角関数等を利用して表現する方法することで、図15(a)の場合と同様に、階調反転の発生を抑制することができる。
以上のように、本実施形態の処理によれば、あらかじめ輝度値の高い領域を補正した場合に発生する白とびや、暗部を補正した際に発生するノイズ増加を抑制することができる。
[実施形態3]
実施形態1、実施形態2ではシーンに対して仮想光源を付与することにより暗く写っている被写体を明るくするようなライティング処理を行う例について説明した。実施形態3では、ストロボの発光の影響などで平坦に写ってしまった被写体に対して影を付与することにより、被写体の立体感を強調する方法について説明する。
本実施形態の撮像装置101の構成と、基本的な処理の流れは実施形態1と同様であるので説明を省略する。実施形態3において実施形態1と異なる点は、ステップS1202で行われる画素値補正の処理が異なる点である。以下、本実施形態のステップS1202で行われる処理について説明する。本実施形態ノステップS1202では、実施形態1とは異なり、以下の式(5)に基づいて画素値の補正が行われる。
Figure 2019205205
式(3)との違いは、k’mに応じてカラー画像データの画素値が小さくなるように画素値を補正している点である。すなわち、本実施形態で行われるのは、仮想光源からの距離に応じて画素値を減算するライティング処理である。k’mは照明の明るさα、位置Q、姿勢Uおよび画素(x、y)に対応する距離値、法線ベクトルVに基づいて決定する。例えば式(6)のように求めることができる。
Figure 2019205205
式(4)との違いは、主に法線ベクトルN(i,j)とV(i,j)のなす角の影響である。式(4)では法線ベクトルNが仮想光源方向を向いているほどkの値は大きくなったが、式(6)では逆に法線ベクトルNが仮想光源方向を向いているほどkの値は小さくなる。つまり、式(6)により、仮想照明に近く法線ベクトルNが仮想光源方向を向いていない画素ほど強い影を付与することができる。これにより、図16に示す補正画像1601のように、法線画像データに基づき顔の頬や鼻にのみ影を付与することが可能となる。
以上の処理によれば、ストロボの発光などの影響により平坦に写ってしまった被写体に対して立体感が出るように影を付与する補正を行うことができる。
[実施形態4]
上記の実施形態では、シーンに仮想的な光源を付与するリライティング処理と、画像に影を付与するリライティング処理とについて説明した。実施形態4では、上記の2つの処理を撮影条件に基づいて切り替える方法について説明する。図17は、実施形態4における画像処理部209の動作手順を示すフローチャートである。実施形態1と比較し、新たにステップS1701とステップS1702とが加わっている点が異なる。
ステップS1701では、ライティング部305が、実光源に関する情報を取得する。ここで、実光源とは被写体を撮像する空間において実際に存在する光源のことである。本実施形態では、制御部206がユーザによるストロボ使用の指示や、ストロボ104からの入力信号に基づいてストロボ発光の有無を判定し、画像データの撮像時にストロボが用いられたかどうかをライティング部305に出力するとする。画像データの撮像時にストロボが用いられたと判定された場合は所定の位置Q’に配置されたストロボが発光しているものとして取得される。なお、実光源の情報の取得方法はこれに限られず、例えば選択された被写体の顔領域の画素の平均輝度を求め、平均輝度が閾値以上である場合には撮像時にストロボが発光されたものとして判定してもよい。
ステップS1702では、ライティング部305が、ステップS1701で取得された実光源情報に基づいて、ライティング処理のモードを設定する。このステップでは、ステップS1701で、撮像時にストロボが発光されていないと判定された場合は、実施形態1に示す仮想光源を付与するライティングモードが設定される。そして、ステップS1701で、撮像時にストロボが発光されていると判定された場合は、実施形態3に示す影を付与するライティングモードが設定される。
そして、ステップS411では、ライティング部305が、ステップS1702で設定されたライティングモードに対応するライティング処理をカラー画像データに対して行い、補正画像データを生成する。
以上が本実施形態における処理の流れである。以上の処理によれば、被写体を撮像した時の光源の状態に応じて、適切なライティング処理を選択することができる。
なお、本実施形態の処理は上記に限られるものではない。例えば、ステップS1701において実光源情報としてストロボ光の位置Q’を取得し、ステップS411のライティング処理において、照明パラメータの初期値としてストロボ光の位置Q’を入力するようにしてもよい。また、カラー画像データにおいて輝度が所定の閾値よりも大きな領域にはストロボ以外の実光源が存在しているとし、検出された実光源が被写体よりも撮像装置101に近い位置に存在する場合に、ライティングモードを影付与モードとするようにしてもよい。また、カラー画像データから実光源の位置を取得して、照明パラメータの初期値に入力してもよい。
<その他の実施形態>
本発明の実施形態は上記に示す実施形態に限定されるものではない。例えば、ライティング処理において法線画像データを用いずに、被写体の距離情報を直接用いてライティング処理を行うようにしてもよい。この場合は、上記の式とは異なる計算式を用いる必要があるため処理が煩雑になるが、本発明と同様の効果を得ることができる。また、その際に顔法線モデルの代わりに所定の顔の3Dモデルを保持しておいてもよい。すなわち、本発明の実施において、被写体の3次元形状を示す情報を広く用いることが可能である。また、顔法線モデルの代わりに所定の顔の3Dモデルを保持しておき、変形した3Dモデルに基づいて法線情報を取得するようにしてもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
301 現像部
302 距離補正部
303 顔検出部
304 法線補正部
305 ライティング部

Claims (10)

  1. 被写体を撮像することにより得られた画像を取得する取得手段と、
    前記カラー画像において前記被写体の顔の領域を顔領域として特定する特定手段と、
    前記カラー画像における前記顔領域の少なくとも一部の明るさが変更された補正画像を生成する生成手段を有することを特徴とする画像処理装置。
  2. 前記生成手段は、前記顔の形状に応じて明るさが変更された画像を前記補正画像として生成することを特徴とする請求項1に記載の画像処理装置。
  3. 前記生成手段は、前記顔領域における明るさが変更された度合いが、前記特定手段が前記顔領域を特定した被写体および前記被写体の近傍の領域を除く背景の領域、における明るさが変更された度合いよりも、大きくなるように前記補正画像を生成することを特徴とする請求項1に記載の画像処理装置。
  4. 前記特定手段は、前記カラー画像における被写体のうち、人物の顔のみを前記顔領域として特定することを特徴とする請求項1に記載の画像処理装置。
  5. 前記生成手段は、前記顔領域における形状に応じた陰影を付与することを特徴とする請求項1に記載の画像処理装置。
  6. 前記カラー画像における前記顔領域の明るさから前記補正画像における前記顔領域の明るさへの変更の度合いは、前記カラー画像における前記顔領域の明るさに応じていることを特徴とする請求項1に記載の画像処理装置。
  7. 前記補正画像において、前記顔領域に含まれる第1の画素と、前記顔領域に含まれ、前記第1の画素における撮像装置との距離と撮像装置からの距離が同じで、第1の画素における法線方向と異なる法線方向が対応する第2の画素とについて、前記カラー画像における前記第1の画素および前記第2の画素それぞれの明るさからの変更の度合いが異なることを特徴とする請求項1乃至6の何れか一項に記載の画像処理装置。
  8. 前記生成手段は、前記特定手段が特定した前記顔領域と前記顔領域の近傍とを除く領域においては、被写体の法線方向に応じた明るさの変更はしないことを特徴とする請求項1に記載の画像処理装置。
  9. コンピュータを請求項1乃至8のいずれか一項に記載の画像処理装置として機能させるプログラム。
  10. 被写体を撮像することにより得られたカラー画像の明るさを変更された補正画像を生成する画像処理方法であって、
    前記カラー画像を取得し、
    前記カラー画像において前記被写体の顔の領域を顔領域として特定し、
    前記カラー画像における前記顔領域の少なくとも一部の明るさが変更された前記補正画像を生成することを特徴とする画像処理方法。
JP2019151519A 2015-04-15 2019-08-21 画像処理装置、画像処理方法、およびプログラム Active JP6896811B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019151519A JP6896811B2 (ja) 2015-04-15 2019-08-21 画像処理装置、画像処理方法、およびプログラム
JP2021097301A JP2021145385A (ja) 2019-08-21 2021-06-10 画像処理装置、画像処理方法、およびプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015083724A JP6576083B2 (ja) 2015-04-15 2015-04-15 画像処理装置、画像処理方法、およびプログラム
JP2019151519A JP6896811B2 (ja) 2015-04-15 2019-08-21 画像処理装置、画像処理方法、およびプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015083724A Division JP6576083B2 (ja) 2015-04-15 2015-04-15 画像処理装置、画像処理方法、およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021097301A Division JP2021145385A (ja) 2019-08-21 2021-06-10 画像処理装置、画像処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2019205205A true JP2019205205A (ja) 2019-11-28
JP6896811B2 JP6896811B2 (ja) 2021-06-30

Family

ID=68727471

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019151519A Active JP6896811B2 (ja) 2015-04-15 2019-08-21 画像処理装置、画像処理方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP6896811B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11689794B2 (en) 2021-01-22 2023-06-27 Fujifilm Business Innovation Corp. Information processing device, information processing method, and non-transitory computer readable medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004264893A (ja) * 2003-01-31 2004-09-24 Sony Corp 画像処理装置、画像処理方法及び撮影装置
JP2007094623A (ja) * 2005-09-28 2007-04-12 Fujifilm Corp 画像補正方法および装置並びにプログラム
JP2013235537A (ja) * 2012-05-11 2013-11-21 Nikon Corp 画像作成装置、画像作成プログラム、及び記録媒体
WO2014102878A1 (ja) * 2012-12-27 2014-07-03 パナソニック株式会社 画像処理装置及び画像処理方法
WO2014167831A1 (ja) * 2013-04-08 2014-10-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ メイクアップ塗材が塗布された状態を仮想的に再現することができる画像処理装置、画像処理方法、プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004264893A (ja) * 2003-01-31 2004-09-24 Sony Corp 画像処理装置、画像処理方法及び撮影装置
JP2007094623A (ja) * 2005-09-28 2007-04-12 Fujifilm Corp 画像補正方法および装置並びにプログラム
JP2013235537A (ja) * 2012-05-11 2013-11-21 Nikon Corp 画像作成装置、画像作成プログラム、及び記録媒体
WO2014102878A1 (ja) * 2012-12-27 2014-07-03 パナソニック株式会社 画像処理装置及び画像処理方法
WO2014167831A1 (ja) * 2013-04-08 2014-10-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ メイクアップ塗材が塗布された状態を仮想的に再現することができる画像処理装置、画像処理方法、プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11689794B2 (en) 2021-01-22 2023-06-27 Fujifilm Business Innovation Corp. Information processing device, information processing method, and non-transitory computer readable medium

Also Published As

Publication number Publication date
JP6896811B2 (ja) 2021-06-30

Similar Documents

Publication Publication Date Title
US11948282B2 (en) Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data
JP6576083B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP6864449B2 (ja) イメージの明るさを調整する方法及び装置
JP6685827B2 (ja) 画像処理装置、画像処理方法及びプログラム
US10997696B2 (en) Image processing method, apparatus and device
CN108846807B (zh) 光效处理方法、装置、终端及计算机可读存储介质
JP6646936B2 (ja) 画像処理装置、その制御方法、およびプログラム
WO2019109805A1 (zh) 图像处理方法和装置
KR20200023651A (ko) 미리보기 사진 블러링 방법 및 장치 및 저장 매체
JP2018163648A (ja) 画像処理装置、画像処理方法、及びプログラム
JP6552266B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2021044710A (ja) 画像処理装置、画像処理方法、およびプログラム
JP6896811B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2004133919A (ja) 擬似3次元画像生成装置および生成方法並びにそのためのプログラムおよび記録媒体
JP7057086B2 (ja) 画像処理装置、画像処理方法、及びプログラム
KR20170033758A (ko) 이미지의 밝기를 조절하는 방법 및 장치
CN115908120A (zh) 图像处理方法和电子设备
WO2018180860A1 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7321772B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2021145385A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2021069004A (ja) 画像処理装置、画像処理方法、及びプログラム
JP7011694B2 (ja) 画像処理装置およびその制御方法、プログラム
US11842467B2 (en) Image processing apparatus, image processing method and storage medium
JP7102192B2 (ja) 画像処理装置、その制御方法、プログラム
JP2017092688A (ja) 画像処理装置、画像処理方法、プログラムおよび撮像装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190920

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200604

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210511

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210609

R151 Written notification of patent or utility model registration

Ref document number: 6896811

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151