JP6646936B2 - 画像処理装置、その制御方法、およびプログラム - Google Patents

画像処理装置、その制御方法、およびプログラム Download PDF

Info

Publication number
JP6646936B2
JP6646936B2 JP2015037435A JP2015037435A JP6646936B2 JP 6646936 B2 JP6646936 B2 JP 6646936B2 JP 2015037435 A JP2015037435 A JP 2015037435A JP 2015037435 A JP2015037435 A JP 2015037435A JP 6646936 B2 JP6646936 B2 JP 6646936B2
Authority
JP
Japan
Prior art keywords
subject
illumination
lighting
image data
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015037435A
Other languages
English (en)
Other versions
JP2015201839A (ja
Inventor
有一 中田
有一 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015037435A priority Critical patent/JP6646936B2/ja
Priority to CN201510120874.5A priority patent/CN104954697B/zh
Priority to KR1020150042887A priority patent/KR20150113889A/ko
Priority to US14/673,741 priority patent/US9609206B2/en
Priority to EP15162017.6A priority patent/EP2928180B1/en
Publication of JP2015201839A publication Critical patent/JP2015201839A/ja
Application granted granted Critical
Publication of JP6646936B2 publication Critical patent/JP6646936B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)
  • Image Generation (AREA)
  • Exposure Control For Cameras (AREA)
  • Image Processing (AREA)

Description

本発明は、撮像画像において、撮像画像の照明条件とは異なる仮想的な照明条件下で撮影したかのような画像を生成する画像処理に関する。
撮像装置が被写体を撮影する場合、被写体に対する照明(光)によって撮影画像は大きく変わる。例えば、被写体が人の場合、被写体に対して斜めから光が当たる照明条件下では、被写体の顔の陰影が強調され立体的な印象の撮像画像が得られる。一方、被写体の後方から当たる光が強い逆光などの照明条件下では、被写体の一部あるいは全体が陰になり暗くなった撮像画像が得られる。後者のように被写体が暗く写ってしまった撮影画像を補正して、撮影者が所望する照明条件下で被写体を撮影したかのような別の画像を生成する方法がある。特許文献1は、被写体のモデルデータを用いて仮想的な照明条件で撮影された被写体画像を生成し、これを撮影画像中の被写体領域に配置することにより、撮像画像における被写体に対する照明を補正する方法を開示している。この際、仮想的な照明条件は、あらかじめ所定の位置に配置された複数の照明の明るさをそれぞれ調整することにより設定される。
また特許文献2は、仮想的な照明が加えられたように撮影画像に擬似的なライティング処理を行う方法を開示している。具体的には、撮像画像における仮想的な照明のライティング強度を、被写体像の輝度の最大値に基づいて決定する。この際、予め設定したライティング方向に従ってガウス分布を偏らせることにより、仮想的に所望の方向から照明を与えたような画像を得ることができる。
また特許文献3は、撮影空間内の模擬形状と仮想的な照明器具の位置や方向を設定することで、仮想的な照明器具が照射した画像方法を開示している。この際、照明器具の位置や方向がキーボード操作等によって入力する。
特開2008−11329号公報 特開2010−135996号公報 特開平4−301304号公報
ユーザは撮像画像における被写体の照明を調整したい場合、仮想照明の位置や姿勢を変更しながら被写体が好みの状態になるよう調整する場面が想定される。しかしながら特許文献1や特許文献2は、三次元的な仮想照明の位置を調整することができない。また、特許文献3に開示された方法によれば、仮想照明の位置と姿勢を撮影者が設定する場合、仮想照明の位置を示すx、y、z軸方向の座標値と、仮想照明の姿勢を示す各軸回りの回転量とを設定しなければならない。このため、ユーザは仮想照明の位置と姿勢を調整するためその都度複数のパラメータを設定する必要があった。
そこで本発明は、撮像画像における被写体に対して仮想的な照明条件下で撮像したかのような別の画像を生成する際に、容易に照明の位置や姿勢を設定可能な画像処理装置を実現することを目的とする。
上記課題を解決するため本発明は、表示画面上に表示された画像データに対して仮想照明を用いてライティング処理する画像処理装置であって、前記画像データ内の被写体を特定する特定手段と、前記被写体の位置を示す位置情報を取得する取得手段と、前記位置情報に基づいて、前記仮想照明の位置を設定可能な可動範囲を設定する設定手段と、ユーザにより入力される前記表示画面上の指示位置を取得する指示位置取得手段と、前記可動範囲と前記指示位置とに基づいて、前記仮想照明の位置を決定する決定手段と、前記決定手段により決定された前記仮想照明の位置に基づいて、前記画像データにおける被写体に対してライティング処理をするライティング処理手段とを有することを特徴とする。
本発明は、撮像画像から所望の照明条件下で撮影したかのような別の画像を生成する画像処理装置において、容易に照明の位置と姿勢を設定可能にする事ができる。
実施形態1に係る画像処理装置の外観を示す図 実施形態1に係る画像処理装置の内部構成を示す図 実施形態1に係る画像処理部の構成を示すブロック図 実施形態1に係る処理の流れを示すフローチャート 実施形態1に係る画像データの例を示す図 実施形態1に係る照明位置の制御方法を示す図 実施形態1に係る照明パラメータ設定処理の流れを示すフローチャート 実施形態1に係る選択領域の例を示す図 実施形態1に係る照明パラメータ設定方法の例を示す図 実施形態1に係る照明の移動方法の例を示す図 実施形態1に係る照明の移動処理の例を示す図 実施形態1に係る照明の移動処理の例を示す図 実施形態1に係る表示画像の例を示す図 実施形態2に係る可動範囲設定処理の流れを示すフローチャート 実施形態2に係る曲面当てはめの例を示す図 実施形態2に係る照明パラメータの設定結果の例を示す図
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下の実施例において示す構成は一例にすぎず、本発明は図示された構成に限定されるものではない。
[第1実施形態]
<撮像装置の外観>
図1は、本実施形態に適用可能な撮像装置の外観を示す図である。本実施形態では撮像装置を構成する一例として、デジタルカメラの構成例を示す。なお、デジタルカメラについて述べるが、これに限られない。例えば、携帯電話やタブレットデバイス、パーソナルコンピュータなどの情報処理装置であっても良いし、カメラ付き携帯電話等の撮像装置として構成されていても良い。図1(a)は撮像装置の正面、図1(b)は背面の外観を示している。撮像装置101は、光学部102、撮像ボタン103、ストロボ104、距離画像取得部105、表示部106、および操作ボタン107を有する。
光学部102はズームレンズ、フォーカスレンズ、ブレ補正レンズ、絞り、およびシャッターによって構成される鏡筒であり、被写体の光情報を集光する。撮像ボタン103は、ユーザが撮像の開始を撮像装置101に指示するためのボタンである。ストロボ104は、ユーザ指示に従い撮像の開始に合わせて発光する。距離画像取得部105は、撮像指示に応じて被写体の距離画像データを取得する。本実施形態において距離画像データは、撮像装置を基準とした被写体までの距離を示す情報を保持するデータである。
表示部106は、液晶ディスプレイなどが用いられており、撮像装置101が処理した画像データや他の各種データなどを表示する。本実施形態では光学ファインダを設けていないので、ユーザは表示部106を用いてフレーミング操作(ピントや構図の確認)を行う。ユーザは表示部106が表示するライブビュー画像を確認しながら撮像を行うので、このフレーミングやフォーカシングの操作を行っている間、表示部106は電子ファインダとして機能すると言える。表示部106には、撮像範囲をリアルタイムに表示するライブビュー表示を行う他、カメラ設定メニューを表示する。
操作ボタン107は、ユーザ操作を取得するためのボタンである。具体的には表示部106が表示するカメラ設定メニューに対して、撮像モードの切り換え操作や、撮像時の各種パラメータなどをユーザが指示するためのボタンである。なお、本実施形態では撮影モードの一つとしてライティング処理モードを含む。ユーザは操作ボタン107、あるいは撮像ボタン103を用いてライティング処理モードの切り替え、照明パラメータの設定、距離画像データ出力モードの切り替え、被写体領域の選択等を指示することができるものとする。なお、表示部106がタッチスクリーン機能を有していても良く、その場合はタッチスクリーンを用いたユーザ指示を操作ボタン107の入力として扱うことも可能である。
<撮像装置の内部構成>
図2は、本実施形態における撮像装置101の内部構成を示すブロック図である。CPU202は、各構成の処理を実行する。CPU202は、ROM(Read Only Memory)203や、RAM(Rondom Access Memory)204に格納された命令を順に読み込み、解釈し、その結果に従って各構成の処理を実行する。システムバス212はデータを送受信するためのバスである。
制御部206は、撮像ボタン103や操作ボタン107からのユーザ指示によって、撮像、ライティング処理モードの切り換え、被写体領域の選択、照明パラメータの設定などを制御する。本実施形態において制御部206は、ユーザ指示に応じてフラグSW1、SW2、SW3、SW4を制御する。SW1は、ライティング処理を有効にするように指示された場合にON、ライティング処理を無効にするよう指示された場合にOFFとする。フラグSW2は、仮想的な照明を移動させるよう指示された場合にON、移動させないよう指示された場合にOFFとする。フラグSW3は、距離画像データの保存を行うよう指示された場合にON、距離画像データの保存を行わないよう指示された場合にOFFとする。フラグSW4は、補正画像を保存するように指示された場合にON、それ以外の場合はOFFとする。実際にはフラグSW1、SW3、SW4はそれぞれRAM204内のビット信号であり、ビットが0の状態をOFF、ビットが1の状態をONとし、制御部206はこれらビットの状態を切り替える。また、制御部206はユーザ操作取得を行う。
光学系制御部205は光学部102に対して、フォーカスを合わせる、シャッターを開く、絞りを調整するなどのCPU202から指示された制御を行う。
カラー撮像素子部201は、光学部102にて集光された光情報を電流値へと変換する素子であり、カラーフィルタなどと組み合わせることで色情報を取得する。
距離画像取得部105は、赤外光を発光する赤外発光部と、被写体に反射した赤外光を受光する受光部とを含む。距離画像取得部105は、発光した赤外光が被写体に反射し受光するまでの時間に基づいて、撮像装置から被写体までの距離値を算出する。そして、算出した距離値と受光部のセンサ画素数や画角等を含む距離撮像情報に基づき被写体の位置情報を算出し距離画像データとして取得する。
A/D変換部208は、光学部102が検知した被写体の光量をデジタル信号値に変換してRAW画像データに変換する。なお、本実施形態では同時刻に撮像した距離画像データとRAW画像データが取得可能であるとする。
画像処理部209は上記のRAW画像データに対して現像処理を行い、カラー画像データを生成する。画像処理部209は、カラー画像データに対して各種画像処理を実行する。本実施形態において、画像処理部209はカラー画像データや距離画像データに基づいて、カラー画像データをライティング補正画像データに変換するライティング処理を行う。画像処理部209の内部構造は後に詳述する。
キャラクタージェネレーション部207は文字やグラフィックなどを生成する。ここで生成された文字やグラフィックは、画像処理部209によって生成されたライティング補正画像データと重畳して表示部106に表示される。
エンコーダ部210は、画像処理部209が処理したカラー画像データやライティング処理によって生成されるライティング補正画像データを含む各種画像データをJpegなどのファイルフォーマットに変換処理を行う。
メディアI/F211は、PC/メディア213(例えば、ハードディスク、メモリカード、CFカード、SDカードなど)に画像データを送受信するためのインタフェースである。
<画像処理部の内部構成>
図3は本実施形態における画像処理部209の詳細な内部構成を示すブロック図である。
現像処理部301は、A/D変換部208からRAW画像データを取得する。そして、RAW画像データに対してホワイトバランス処理、デモザイク処理、ノイズリダクション処理、色変換処理、エッジ強調処理およびガンマ処理等を施し、カラー画像データを生成する。生成したカラー画像データは表示部106へ出力して表示したり、RAM204、PC/メディア213などの記憶装置に記憶することができる。本実施形態において、カラー画像データIを構成する画素I(i,j)にはRGB値が画素値として格納されているものとする。カラー画像データ501の各画素に格納されたRGB値はそれぞれIr(i,j)、Ig(i,j)、Ib(i,j)と表す。また、距離画像取得部105が取得する距離画像データDを構成する画素D(i,j)には画素値として撮像装置を基準とする各被写体の座標値が格納されている。距離画像データのD(i,j)は、x(i,j)、y(i,j)、z(i,j)によって表される。ここでx軸は撮像装置に対して水平な方向、y軸は撮像装置に対して垂直な方向、z軸は撮像装置の光軸方向とする。カラー画像データIは、距離画像データDの各画素と対応付けられている。具体的には、カラー画像データの画素I(i,j)に対応する座標値は、距離画像データのD(i,j)に格納されている。
法線推定処理部302は、距離画像取得部105から取得した距離画像データに基づいて、距離画像データにおける画素毎の法線ベクトルを推定し法線画像データを取得する。法線画像データNの画素N(i,j)には画素値として単位法線ベクトルの各要素の値が格納されている。具体的には、カラー画像データの画素I(i,j)に対応する法線ベクトルのxyz成分の値はN(i,j)に格納されているものとし、それぞれNx(i,j)、Ny(i,j)、Nz(i,j)と表す。
被写体特定部303は、制御部206からユーザ操作により被写体の選択を受け付け、入力された被写体選択位置P0’を取得する。そして被写体特定部303は、被写体選択位置P0’に基づいて、カラー画像データにおける被写体位置P0を算出する。本実施形態では、タッチスクリーン機能を有した表示部106にカラー画像データを表示し、表示画面中の被写体をユーザがタッチする操作を受け付け、被写体特定部303はタッチした位置を被写体選択位置P0’として取得する。この際、被写体選択位置P0’は表示部106の画素位置に対応する。この表示部106上での画素位置を、カラー画像データの画素位置に変換することで被写体位置P0を算出する。
指示位置取得部304は、制御部206からユーザ操作により入力された光源位置を変更するための操作を受け付け、照明に対する指示位置を取得する。本実施形態では、タッチスクリーン機能を有した表示部106にカラー画像データを表示し、表示画面に対するユーザによるドラッグ操作を受け付ける。指示位置取得部304は、ユーザのドラッグ操作に応じて、少なくとも押下開始位置P1’と押下終了位置P2’を含む指示位置を取得する。
照明可動範囲設定部305は、距離画像取得部105から距離画像データ、被写体特定部303から被写体位置を取得する。そして、カラー画像データにおける被写体を照明する仮想的な照明の可動範囲を設定する。本実施形態では、照明は図6に示すような回転中心C=(Cx,Cy,Cz)601を中心とする楕円体602の上を移動するものとする。この際、照明の位置Q=(Qx,Qy,Qz)603は式(1)に従う。
Figure 0006646936
ここで、aはx軸方向の半径,bはy軸方向の半径,cはz軸方向の半径を表す。また、z軸回りの回転角度をθ、x軸回りの回転角度をφとすると、照明の位置Q603は式(2)のように表される。
Figure 0006646936
また、照明の向きU=(Ux,Uy,Uz)604は、照明の位置Qから回転中心Cに向かう単位ベクトルとして式(3)のように表される。
Figure 0006646936
本実施形態では、距離画像データから得られる被写体位置P0周辺の座標値に基づいて回転中心Cを設定する。式(2)におけるa、b、cはあらかじめ設定されている。また、ユーザ操作に応じて光源の位置Qはz軸回りの回転角度θおよびx軸回りの回転角度φを更新することにより、照明の位置Qと照明の向きUを変更する。
照明位置取得部306は、RAM204などから照明の位置を表す回転角度θ、φを取得する。
照明位置更新部307は、距離画像取得部105から距離画像データ、照明可動範囲設定部305から照明の回転中心C及び回転半径、照明位置取得部306から回転角度θ、φ、指示位置取得部304からユーザによる指示位置を取得する。そして、指示位置に基づき、回転角度θ、φを更新する。その後、式(2)に従い照明の位置Qを、式(3)に従い照明の向きUをそれぞれ更新する。
ライティング処理部308は、距離画像データと法線画像データと照明の位置Q及び照明の向きUに基づいて、処理対象のカラー画像データに対して仮想的な光源を加えることによりライティング補正画像を生成する。生成したライティング補正画像はRAM204やPC/メディア213などの記憶装置に出力して記憶したり、表示部106へ出力して表示したりすることができる。
<画像処理部の処理フロー>
図4は、本実施形態の撮像装置における画像処理部209の動作手順を示すフローチャートである。本実施形態における画像処理部209はまず、距離画像データに基づいて画素毎の法線を推定し法線画像データを取得する。そして、ユーザ操作と距離画像データに基づき照明パラメータの設定を行う。この際、照明パラメータに基づいて生成したライティング補正画像を表示部106に表示することにより、ユーザがライティング補正画像の変化を確認しながら照明パラメータを変更できるようにする。
本実施形態では照明は2つ設定可能とする。なお、照明パラメータには、アクティブな照明を表す変数、照明の配置状態を表す変数、照明の点灯状態を表す変数、照明の色を表す変数、照明の明るさを表す変数、照明の位置および姿勢を制御する変数を含む。照明の配置状態を表す変数SW_L1がONの場合、照明が配置されていることを示し、SW_L1がOFFの場合は照明が配置されていないことを示す。照明の点灯状態を表す変数SW_L2がONの場合、照明が点灯していることを示し、SW_L2がOFFの場合は照明が消灯していることを示す。照明の色はRGB値で表すものとし、それぞれ変数Lr、Lg、Lbで表す。照明の明るさを表す変数はαとし、値が大きいほど照明が明るいものとする。以下、各ステップに沿って説明する。
ステップS401において、現像処理部301がA/D変換部208から取得したRAW画像データに基づいてカラー画像データを生成する。図5はカラー画像データ501の一例を示す。なお、カラー画像データの取得方法はこれに限るものではない。例えば、RAM204やPC/メディア213に記憶されているRAW画像データを取得し現像処理部301がカラー画像データを生成してもよい。あるいは、RAM204やPC/メディア213に記憶されているカラー画像データを取得してもよい。
ステップS402において、ライティング処理部308が距離画像取得部105から距離画像データを取得する。図5は、距離画像データ502の一例を示す。なお、距離画像データの取得方法はこれに限るものではない。例えば、RAM204やPC/メディア213に記憶されている距離画像データを取得してもよい。
ステップS403において、ライティング処理部308がRAM204からSW1の状態を取得する。そして、SW1の状態に基づいてライティング処理を行うか否かの判定を行う。ユーザの指示によりSW1がOFFになっている場合はライティング処理を行わないと判定し、ステップS404に進む。一方SW1がONである場合は、ライティング処理を行うと判定しステップS405に進む。
ステップS404において、ライティング処理部304がRAM204からSW3の状態を取得する。ユーザ指示によりSW3がOFFになっている場合はカラー画像データのみを、SW3がONの場合はカラー画像データと距離画像データをPC/メディア203に出力し記録する。あるいは、表示部106に出力し表示しても構わない。その後、処理を終了する。
ステップS405において、法線推定処理部302が距離画像取得部105から距離画像データを取得する。そして、距離画像データに基づいて画素毎の法線ベクトルを推定し法線画像データNを取得する。図5は、法線画像データ503の一例を示す。法線ベクトルの推定方法としては、距離画像データの注目画素に対して近傍領域を基に微分を行って求める方法や、平面を当てはめる方法などが適用可能である。ここでは、注目画素の近傍領域に当てはめた平面に垂直なベクトルを法線として求める。
ステップS406において、ライティング処理部308が照明パラメータの初期化を行う。具体的には、全照明を消灯状態にするため全照明のSW_L1、SW_L2をOFFにする。そして、予め設定した照明1をアクティブにする。
また、照明の回転角θ、φを初期値にする。本実施形態では、θ=90°、φ=90°を初期値とすることにより、被写体正面から照明が当たる状態を初期状態とすることができる。
ステップS407において、ライティング処理部308は、カラー画像データに対してライティング処理を実行する。ライティング処理によって、設定された照明パラメータで表される照明条件下で被写体を撮像したような画像が生成される。ステップS406からステップS407に進んだ場合、処理対象の画像データはカラー画像データである。この場合、照明パラメータはステップS406において設定された初期値となる。また後述のステップS410からステップS407に進んだ場合、ステップS406において設定された初期値ではなく、ステップS410において設定された照明パラメータを用いてライティング処理を実行する。ライティング処理部308は、カラー画像データと距離画像データと法線画像データと照明パラメータに基づいてライティング処理を行い、補正画像データを生成する。ステップS407における処理の詳細は後述する。
ステップS408において、ライティング処理部308が補正画像データを表示部106に出力することにより補正画像データを表示部106に表示する。
ステップS409において、ライティング処理部308がRAM204から補正画像を保存するか否かを示すフラグSW4の状態を取得する。ユーザ指示によってSW4がOFFに設定されている場合はステップS410に進み、SW4がONに設定されている場合はステップS411に進む。
ステップS410において、ユーザ操作に応じて選択された選択領域に応じて照明パラメータ設定処理を行い、照明パラメータを設定する。ユーザは表示部106に表示された補正画像データを観察しながら、補正画像データ上の所望の位置を選択することにより選択した位置に照明を移動させることができる。照明パラメータの設定方法については後に詳述する。
ステップS411において、ライティング処理部308がRAM204からSW3の状態を取得する。そして、SW3がOFFの場合は補正画像データとカラー画像データを、SW3がONの場合は補正画像データとカラー画像データと距離画像データをPC/メディア203に出力し記録する。その後、処理を終了する。
<照明パラメータ設定処理>
ここでは、ステップS410の照明パラメータ設定処理について詳細に説明する。本実施形態における照明パラメータ設定処理は、ユーザ操作と距離画像データに基づいて照明パラメータを設定するものとする。本実施形態では、ユーザは表示された補正画像データを観察しながら、照明の位置を変更するための操作を行うものとする。照明の位置は、距離画像データD、指示位置等に基づき、照明位置更新部307によって更新される。この際、リライティング処理の対象として選択された被写体の位置に応じて、照明の移動量を決定する。以下、照明パラメータ設定処理の詳細について述べる。
ステップS701において、アクティブな照明を変更する指示があるか否かを判定する。変更する場合はステップS702へ進み、変更しない場合はステップS703へ進む。
ステップS702において、ステップS701において選択された照明をアクティブにする。以降の操作は本ステップでアクティブに設定された照明の照明パラメータに対してのみ有効とする。
ステップS703において、ユーザ操作に基づいて照明をさらに配置するか否かの判定を行う。配置する際はステップS704へ進み、配置しない場合はステップS709へ進む。
ステップS704において、被写体特定部303は制御部206から被写体選択位置P0’を取得する。本実施形態では、ステップS408で表示部104に表示した補正画像に対して、ユーザが被写体を選択する。ユーザは、照明の当たり具合を調整したい被写体を指定する操作を行う。選択領域の取得方法について、図8を用いて説明する。まず、ユーザ操作によって選択された表示部104上の被写体選択位置P0’(801)を制御部206から取得する。そして、被写体選択位置P0’に対応する補正画像データ上の座標である被写体位置P0(802)を算出する。その後、被写体位置P0を中心とする近傍領域を被写体近傍領域803とする。被写体近傍領域803は、被写体位置802を中心とする矩形領域などとして設定する
ことができる。
ステップS705において、照明可動範囲設定部305はまず、照明の可動範囲を表す照明パラメータCx、Cy、Cz、a、b、cを設定する。照明パラメータの設定方法を図8を用いて説明する。まず、被写体位置P0(i,j)(802)に対応する被写体座標値901を距離画像データ502より取得する。各照明パラメータは被写体座標値901とあらかじめ定めておいた被写体の曲率半径(Rx,Ry,Rz)とから式(4)に従い算出する。
Figure 0006646936
従って、照明の可動範囲の大きさ(つまり楕円体の大きさ)は被写体の大きさに基づいて設定される。ここで、βは被写体の位置と照明の位置とのおおよその距離を表す変数である。βの値はあらかじめ与えておいてもよいし、被写体近傍領域803の画素値などに応じて変えても良い。例えば、被写体に対応する画素群の画素値が小さく暗く写っている場合はβを小さくし、被写体に対応する画素群の画素値が大きく明るく写っている場合はβを大きくすると良い。これにより、被写体が暗い場合ほど照明を近くに配置することができるため、照明による補正効果を大きくすることができる。あるいは、照明の明るさαに応じてβを変えてもよい。例えば、照明の明るさαが大きくなるに従いβを大きな値にしても良い。
これにより指定された被写体にライティングする仮想的な照明の移動領域が設定される。ここで決定された照明パラメータにより、指定された被写体を照明する仮想的な照明の行動範囲が設定され、位置や姿勢を変更することにより、被写体に対するライティング補正を可能とする。
ステップS706において、照明位置更新部306は照明の回転角θ、φと照明パラメータCx、Cy、Cz、a、b、cに基づいて、照明を初期位置に配置する。具体的には、式(2)に従い照明の位置Qを、式(3)に従い照明の向きUをそれぞれ算出する。そして、SW_L1をONにして照明が配置された状態にする。
図10に、被写体選択位置P0’(801)に対応する照明の初期位置1003、照明の初期姿勢1004を示す。
ステップS707において、SW_L2をONにして照明を点灯状態にし、照明パラメータ設定処理を終了する。
ステップS708において、照明が配置されているかを判定する。具体的には、アクティブになっている照明のSW_L1の状態を取得し、SW_L1がONの場合はステップS710に進み、SW_L1がOFFの場合は照明パラメータ設定処理を終了する。
ステップS709において、照明を移動するか否かの判定を行う。具体的には、SW2の状態を取得し、SW2がONの場合はステップS710に進み、SW2がOFFの場合はステップS713へ進む。
ステップS710において、照明位置取得部306は照明の位置を表すパラメータθ、φの値を取得する。
ステップS711において、指示位置取得部304はユーザのドラッグ操作によって得られる押下開始位置P1’と押下終了位置P2’を取得する。例えば、ユーザが表示部106をドラッグ操作した際の開始位置を押下開始位置P1’、終了位置を押下終了位置P2’とすることができる。
ステップS712において、照明位置更新部307は照明の位置を更新する。まず、押下開始位置P1’と押下終了位置P2’に対応するカラー画像データ上の開始位置P1=(i1,j1)、終了位置P2=(i2,j2)を算出する。そして、式(5)に従いθ、φの変化量Δθ、Δφを算出する。
Figure 0006646936
ここで、Aはカラー画像データ501上における照明の可動範囲を表す楕円体の半径aに対応する値である。Bはカラー画像データ501上における照明の可動範囲を表す楕円体の半径bに対応する値である。Czは照明パラメータひとつであり、被写体位置P0から式(4)に従って求めることができる。Wはカラー画像データ501の水平画素数を表す。Hはカラー画像データ501の垂直画素数を表す。uは撮像装置101の水平画角を表す。vは撮像装置101の垂直画角を表す。
上記のように算出した、変化量Δθ、Δφを、照明位置取得部306より取得した照明の位置を表すパラメータθ、φに加えることによりθ、φの値を更新する。その後、更新したθ、φに基づいて、式(2)に従い照明の位置Qを、式(3)に従い照明の向きUをそれぞれ更新する。照明位置の更新位置について、図10を用いて説明する。照明の現在位置を初期位置とし、押下開始位置P1を被写体選択位置P0’(801)、押下終了位置P2’を位置E1(1001)とした場合、照明は位置Q1(1005)、姿勢はU1(1006)に更新される。また、照明の現在位置を初期位置とし、押下開始位置P1を被写体選択位置P0’(801)、押下終了位置P2’を位置E2(1002)とした場合、照明は位置Q2(1007)、姿勢はU2(1008)に更新される。
以上のように、被写体位置P0に基づいてθ、φの変化量Δθ、Δφを設定することにより、ユーザは被写体の位置に応じた直感的な操作が可能となる。具体的な説明として、近くの被写体を選択した場合を図11、遠くの被写体を選択した場合を図12を用いて説明する。点1101を選択し近くの被写体に対して照明を設定した場合、押下開始位置P1を点1101、押下終了位置P2’を点1102にすることにより、照明は初期位置1104から位置1105に更新される。また、押下開始位置P1を点1101、押下終了位置P2’を点1103にすることにより、照明は初期位置1104から位置1106に更新される。点1201を選択し遠くの被写体に対して照明を設定した場合、押下開始位置P1を点1201、押下終了位置P2’を点1202にすることにより、照明は初期位置1204から位置1205に更新される。また、押下開始位置P1を点1201、押下終了位置P2’を点1203にすることにより、照明は初期位置1204から位置1206に更新される。このように、近くの被写体ほどθ、φを変化させるために必要となるドラッグ操作の移動量を大きくすることより、表示部106上の選択位置に、照明の位置があるかのように操作することができる。なお、照明の位置を表すパラメータθ、φの値に制限を設けても良い。例えば、θ、φはそれぞれθmin≦θ≦θmax、φmin≦φ≦φmaxの範囲内の値をとるものとし、θ、φが変化量Δθ、Δφによって前記範囲を超える値に更新される場合は、前記範囲内になるように値を調整してもよい。
ステップS713において、ユーザ操作に基づいて照明の点灯状態を変更するか否かの判定を行う。照明の点灯状態を変更する場合はステップS714へ進み、変更しない場合は照明パラメータ設定処理を終了する。
ステップS714において、照明の点灯状態を変更する。具体的には、RAM204からSW_L2の状態を取得した後、SW_L2がONの場合はOFFに変更し、SW_L2がOFFの場合はONに変更する。そして照明パラメータ設定処理を終了する。
<ライティング処理>
ここでは、ステップS411で行うライティング処理について説明する。本実施形態では式(6)に従い補正画像データをI’を生成するものとする。
Figure 0006646936
ここで、I’r、I’g、I’bは補正画像データI’の画素値、Lrm、Lgm、Lbmはm番目の照明の色、kmはm番目の照明に対する補正度合いを表す。km(i、j)は、照明の明るさα、位置Q、姿勢Uおよび画素(x、y)に対応する距離値P(x、y)と法線ベクトルN(x、y)に基づいて決定する。例えば式(6)のように求めることができる。
Figure 0006646936
Wは被写体位置Pから照明の位置Qまでの距離が大きくなるに従い大きな値を返す関数である。ρは照明の位置Qから被写体位置P(i,j)に向かうベクトルと、照明の姿勢Uのなす角度を表す。Kはρが小さいほど大きな値となるような関数である。V(i,j)は被写体位置P(i,j)から照明の位置Qに向かう方向を表す単位ベクトルである。ただし、照明のSW_LあるいはSW_L2のいずれかがOFFの場合はkの値は0とする。本実施形態のように補正画像を生成することにより、照明の位置と被写体の形状に応じた明るさの補正が可能である。
なお、ステップS305において、式(1)で表される楕円体上に照明の可動範囲を設定しているが、照明の可動範囲はこれに限るものではない。例えば、被写体から所定の距離だけ離れた平面上を照明が移動するように設定するなどしても良い。
また、図13に示すように照明の可動範囲に対応する領域を表示部106に表示しても良い。例えば、式(5)によって取得したA及びBに基づき、表示画像上における照明の可動範囲A’、B’を算出し、被写体選択位置1301とともに矢印状の記号1302で表示部106に表示する。あるいは、被写体選択位置1301を中心とし、A’、B’を半径とする楕円1303として表示部106に表示する。これにより、ユーザは照明の可動範囲を直感的に理解することができる。
以上により、ユーザは画像データ上の位置を選択すると、選択した位置から所望の仮想的な照明条件下で撮像した画像を観察することができる。さらにユーザは照明の移動示す操作を入力すると、操作に従って照明が移動すると共に、撮像画像における被写体に対する照明の当たり加減も変更して表示される。このようにライティング処理を行い、表示することで、撮像画像から所望の照明条件下で撮影したかのような別の画像を生成する画像処理装置において、ユーザは容易に照明の位置と姿勢を設定することができる。
[第2実施形態]
第1実施形態では照明の可動範囲を被写体によらず規定値に基づいてa、b、cを値を設定した。第2実施形態では、被写体の形状に基づいて上記パラメータを決定することにより、被写体に応じて照明の可動範囲を設定する方法について説明する。なお、前述の実施形態と同様の構成については、詳細な説明を省略する。第2実施形態では第1実施形態と比較し、ステップS705における可動範囲設定処理が異なる。第2実施形態における可動範囲設定処理(S705)の流れを、図14に示す。
ステップS1401において、距離画像データ502と被写体位置P0(802)及び被写体近傍領域803に基づいて、被写体の形状を示す形状情報を推定する。具体的には、図15に示すように距離画像データから取得した、被写体近傍領域803に含まれる画素の座標値1501に対して楕円状の二次曲面1502を当てはめる。二次曲面の当てはめ方は、例えば最小二乗法等が適用可能である。この際、二次曲面のx軸方向の径の半値をRx、y軸方向の径の半値をRy、z軸方向の径の半値をRzとする。なお、二次曲面1502を当てはめることによりRx、Ry、Rzを算出したが、この際、Rx、Ry,Rzのそれぞれ値が規定値以上にならないように制限を設けても良い。例えば、被写体形状が平面に近い場合は曲率半径が極めて大きくなり、その結果照明の移動範囲が極端に広くなってしまいユーザ操作が困難になる場合がある。このような場合は、Rx、Ry,Rzのうち規定値を超えたものをRx’、Ry’、Rz’などに置き換えてもよい。こうすることにより、被写体形状が平面に近い場合であっても照明の移動範囲を制限することが可能である。
また、二次曲面1502を当てはめる際に、被写体形状によっては解が安定的にも止まらない場合が考えられる。そこで、Rx、Ry,Rzの少なくとも一つの値を規定値としても構わない。たとえば、光軸方向に平行なz軸方向の径の半値をRzをあらかじめ定めた規定値Rz”とし、残るRx、Ryを求めても良い。これにより、Rx、Ry,Rzの値を安定的に求める事ができる。さらに、この際規定値とする軸の数をユーザ操作によって変更可能にしても良い。
ステップS1402において、被写体座標値901とステップS1401で取得した(Rx,Ry,Rz)に基づいて、式(4)に従い照明パラメータを設定する。
以上により、被写体の形状に応じて照明の可動範囲を設定することが可能となる。これにより、図10に示すように801を被写体選択位置としたxz平面上に広がる被写体を選択した場合は、xz平面における照明の移動範囲が大きくなる。一方で、図16に示すように1601を被写体選択位置としたxz平面上で小さな被写体を選択した場合は、xz平面における照明の移動範囲が小さくなる。その結果、被写体毎の形状に対してより自然に被写体の周囲を仮想的な照明が移動するように、仮想的な照明の行動範囲を設定できる。
[その他の実施形態]
前述の実施形態では、照明に対するユーザの指示位置を、ユーザによる表示画面上のドラッグ操作を受け付け、押下開始位置と押上終了位置とを指示位置として取得した。ドラッグ(押下)の開始位置と終了位置だけではなく、一定の期間毎にユーザによるタッチ位置を検出し、検出した位置を照明に対する指示位置として取得し、照明パラメータを更新しても良い。これにより、仮想的な照明による照明を連続的に表示することができ、ユーザは撮像対象の空間において、実在する照明を動かして被写体へのライティングを調整しているかのように、操作することができる。また、照明に対する指示位置としてドラッグ操作に限らない。例えば、ライティングモードの設定を受けつけ、ライティングモード下におけるユーザによるタッチ操作を全て、照明に対する指示位置として取得してもよい。この場合、ユーザによるタッチ位置が変わるたびに、被写体に対するライティングが変更されることになる。
また前述の実施形態では、ライティング処理を実行する被写体を選択し、被写体の位置に応じた照明の可動範囲を設定して照明パラメータを設定した。しかしながら、複数の被写体に対してライティング処理を実行する構成とすることもできる。例えば、予め被写体毎に照明の可動範囲を算出しておく。この時、照明の可動範囲は、被写体自体のサイズや位置に基づいて算出する。被写体が手前(近く)にある場合、もしくは被写体が大きい場合は、照明の可動範囲を大きく設定し、被写体を奥(遠く)にある場合、もしくは被写体が小さい場いいは、照明の稼働範囲を小さく設定する。ユーザの操作により照明の指示位置を取得すると、複数の被写体毎の可動範囲それぞれにおいて、ユーザの指示位置に応じた位置に照明を設定し、ライティング処理をする。これにより、複数の被写体に対してライティング補正をすることができる。
また、被写体の位置が同じであることが明確である場合、被写体の大きさに応じて照明の可動範囲を決定してもよい。例えば、同じ位置にある被写体のうち、大きい方の被写体に対してライティング処理を実行する場合には、対応する照明の可動範囲を、基準とする照明の可動範囲よりも大きく設定する。一方小さい方の被写体に対してライティング処理を実行する場合には、対応する処理の可動範囲を、基準とする照明の可動範囲よりも小さく設定する。これにより、ユーザは前述の実施形態と同様、自然なライティング処理を実現することができる。
さらには、照明の可動範囲を、被写体の位置のみに基づいて設定する形態と、被写体の位置及び形状や大きさに基づいて設定する形態を併用してもよい。特に、ライティング処理の対象として被写体が人物等に限定される場合は、平均的な形状や大きさに基づいて予め照明の可動範囲(楕円球の大きさ)を定義するパラメータを設定しておく。被写体の位置を取得すると、照明の中心位置を特定するだけで、簡易的に照明の可動範囲を設定する構成でもよい。あるいは、複数の被写体に応じた大きさを予め設定し、被写体を特定する情報に基づいて予め決められた大きさを用いてもよい。
本発明は、上述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給することによっても実現できる。この場合、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が、コンピュータが読み取り可能な記憶媒体に格納されたプログラムコードを読み出し実行することにより、上述した実施形態の機能を実現する。

Claims (10)

  1. 表示画面上に表示された画像データに対して仮想照明を用いてライティング処理する画像処理装置であって、
    前記画像データ内の被写体を特定する特定手段と、
    前記被写体の位置を示す位置情報を取得する取得手段と、
    前記位置情報に基づいて、前記仮想照明の位置を設定可能な可動範囲を設定する設定手段と、
    ユーザにより入力される前記表示画面上の指示位置を取得する指示位置取得手段と、
    前記可動範囲と前記指示位置とに基づいて、前記仮想照明の位置を決定する決定手段と、
    前記決定手段により決定された前記仮想照明の位置に基づいて、前記画像データにおける被写体に対してライティング処理をするライティング処理手段とを有することを特徴とする画像処理装置。
  2. 前記設定手段は、前記被写体の形状情報に基づいて、前記可動範囲の大きさを設定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記指示位置取得手段により取得した第1の指示位置に対応する前記仮想照明の第1の位置と、前記第1の指示位置とは異なる第2の指示位置に対応する前記仮想照明の第2の位置との移動量は、前記被写体位置に応じて異なることを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記設定手段は、前記被写体の位置情報に対応する座標位置を中心とし、前記被写体の形状情報に基づいて設定される半径を有する楕円体を、前記仮想照明の可動範囲として設定することを特徴とする請求項2に記載の画像処理装置。
  5. 前記設定手段は、前記被写体の大きさに基づいて前記仮想照明の可動範囲の大きさを設定することを特徴とする請求項1乃至4の何れか一項に記載の画像処理装置。
  6. 前記決定手段はさらに、前記指示位置に基づいて、前記仮想照明の向きを決定することを特徴とする請求項1乃至5のいずれか一項に記載の画像処理装置。
  7. 前記指示位置取得手段は、ユーザからのドラッグ操作を受け付け、前記ドラッグ操作の終了位置を前記指示位置として取得することを特徴とする請求項1乃至6の何れか一項に記載の画像処理装置。
  8. 前記指示位置取得手段は、ユーザからのドラッグ操作を受け付け、一定期間ごとにユーザによるタッチ位置を検出した結果を、前記指示位置として取得することを特徴とする請求項1乃至6の何れか一項に記載の画像処理装置。
  9. コンピュータに読み込ませ実行させることで、前記コンピュータを請求項1乃至の何れか一項に記載された画像処理装置として機能させることを特徴とするプログラム。
  10. 表示画面上に表示された画像データに対して仮想照明を用いてライティング処理する画像処理方法あって、
    前記画像データにおける被写体を特定し、
    前記被写体の位置を示す位置情報を取得し、
    前記位置情報に基づいて、前記仮想照明の位置を設定可能な可動範囲を設定し、
    ユーザにより入力される表示画面上の指示位置を取得し、
    前記可動範囲と前記指示位置とに基づいて、前記仮想照明の位置を決定し、
    前記仮想照明の位置に基づいて、前記画像データにおける被写体に対してライティング処理をすることを特徴とする画像処理方法。
JP2015037435A 2014-03-31 2015-02-26 画像処理装置、その制御方法、およびプログラム Active JP6646936B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2015037435A JP6646936B2 (ja) 2014-03-31 2015-02-26 画像処理装置、その制御方法、およびプログラム
CN201510120874.5A CN104954697B (zh) 2014-03-31 2015-03-19 图像处理装置及图像处理方法
KR1020150042887A KR20150113889A (ko) 2014-03-31 2015-03-27 화상처리장치, 화상처리방법 및 기억매체
US14/673,741 US9609206B2 (en) 2014-03-31 2015-03-30 Image processing apparatus, method for controlling image processing apparatus and storage medium
EP15162017.6A EP2928180B1 (en) 2014-03-31 2015-03-31 Image processing apparatus, method for controlling image processing apparatus and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014074576 2014-03-31
JP2014074576 2014-03-31
JP2015037435A JP6646936B2 (ja) 2014-03-31 2015-02-26 画像処理装置、その制御方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2015201839A JP2015201839A (ja) 2015-11-12
JP6646936B2 true JP6646936B2 (ja) 2020-02-14

Family

ID=53682429

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015037435A Active JP6646936B2 (ja) 2014-03-31 2015-02-26 画像処理装置、その制御方法、およびプログラム

Country Status (5)

Country Link
US (1) US9609206B2 (ja)
EP (1) EP2928180B1 (ja)
JP (1) JP6646936B2 (ja)
KR (1) KR20150113889A (ja)
CN (1) CN104954697B (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015056143A (ja) * 2013-09-13 2015-03-23 ソニー株式会社 情報処理装置および情報処理方法
JP6727816B2 (ja) * 2016-01-19 2020-07-22 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、画像処理プログラムおよび記憶媒体
WO2017134933A1 (ja) 2016-02-04 2017-08-10 富士フイルム株式会社 撮影支援装置及びその作動方法並びに作動プログラム
JP6663246B2 (ja) * 2016-02-22 2020-03-11 キヤノン株式会社 画像処理装置、撮像装置およびこれらの制御方法ならびにプログラム
JP6685827B2 (ja) * 2016-05-09 2020-04-22 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US10009536B2 (en) 2016-06-12 2018-06-26 Apple Inc. Applying a simulated optical effect based on data received from multiple camera sensors
JP6797585B2 (ja) * 2016-07-14 2020-12-09 キヤノン株式会社 画像処理装置並びにその制御方法及びプログラム
JP6942445B2 (ja) * 2016-07-14 2021-09-29 キヤノン株式会社 画像処理装置、その制御方法、プログラム
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
CN108335258B (zh) * 2017-12-29 2021-08-03 维沃移动通信有限公司 一种移动终端的图像处理方法和装置
JP7059076B2 (ja) 2018-03-30 2022-04-25 キヤノン株式会社 画像処理装置、その制御方法、プログラム、記録媒体
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
DK201870623A1 (en) 2018-09-11 2020-04-15 Apple Inc. USER INTERFACES FOR SIMULATED DEPTH EFFECTS
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
CN109151320B (zh) * 2018-09-29 2022-04-22 联想(北京)有限公司 一种目标对象选取方法及装置
JP7262976B2 (ja) 2018-11-02 2023-04-24 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
CN111402348B (zh) * 2019-01-03 2023-06-09 百度在线网络技术(北京)有限公司 光照效果的形成方法、装置和渲染引擎
CN111541840B (zh) 2019-02-06 2022-03-22 佳能株式会社 确定照明效果候选的信息处理设备、方法及存储介质
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
JP7377407B2 (ja) * 2019-05-22 2023-11-10 Toppanホールディングス株式会社 光源位置制御方法、装置、プログラムおよびコンピューター読み取り可能な記録媒体
US11054973B1 (en) 2020-06-01 2021-07-06 Apple Inc. User interfaces for managing media
CN112116695A (zh) * 2020-09-24 2020-12-22 广州博冠信息科技有限公司 虚拟灯光控制方法及装置、存储介质及电子设备
CN112802170B (zh) * 2021-02-07 2023-05-16 抖音视界有限公司 光照图像生成方法、装置、设备和介质
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
CN114582278B (zh) * 2022-05-05 2022-07-15 卡莱特云科技股份有限公司 Led显示屏亮度校正系数调整方法、装置及校正系统

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04301304A (ja) 1991-03-29 1992-10-23 Toshiba Lighting & Technol Corp 照明運用シミュレーション装置およびスタジオ運用シミュレーション装置
US6980697B1 (en) * 2001-02-01 2005-12-27 At&T Corp. Digitally-generated lighting for video conferencing applications
US8164594B2 (en) * 2006-05-23 2012-04-24 Panasonic Corporation Image processing device, image processing method, program, storage medium and integrated circuit
JP5147287B2 (ja) * 2006-05-23 2013-02-20 パナソニック株式会社 画像処理装置、画像処理方法、プログラム、記録媒体および集積回路
JP5088220B2 (ja) 2008-04-24 2012-12-05 カシオ計算機株式会社 画像生成装置、及びプログラム
KR20100047521A (ko) 2008-10-29 2010-05-10 삼성전자주식회사 가상 조명을 이용한 영상 표시 방법 및 이를 이용한 단말기
JP5281878B2 (ja) * 2008-12-03 2013-09-04 オリンパスイメージング株式会社 撮像装置、ライティング処理装置、ライティング処理方法およびライティング処理用プログラム
KR20110006022A (ko) 2009-07-13 2011-01-20 삼성전자주식회사 가상 오브젝트 기반의 이미지 처리 방법 및 장치
WO2012030813A2 (en) * 2010-09-01 2012-03-08 Musco Corporation Apparatus, system, and method for demonstrating a lighting solution by image rendering
JP2013235537A (ja) 2012-05-11 2013-11-21 Nikon Corp 画像作成装置、画像作成プログラム、及び記録媒体
KR101488647B1 (ko) 2014-10-30 2015-02-04 권오형 모바일 단말의 가상 조명 동작방법 및 장치

Also Published As

Publication number Publication date
JP2015201839A (ja) 2015-11-12
US20150281565A1 (en) 2015-10-01
EP2928180A1 (en) 2015-10-07
US9609206B2 (en) 2017-03-28
EP2928180B1 (en) 2018-09-26
KR20150113889A (ko) 2015-10-08
CN104954697B (zh) 2019-07-05
CN104954697A (zh) 2015-09-30

Similar Documents

Publication Publication Date Title
JP6646936B2 (ja) 画像処理装置、その制御方法、およびプログラム
US11948282B2 (en) Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data
JP6685827B2 (ja) 画像処理装置、画像処理方法及びプログラム
US20210287343A1 (en) Electronic apparatus, control method, and non-transitory computer readable medium
JP6576083B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2017059235A (ja) イメージの明るさを調整する方法及び装置
CN110610531A (zh) 图像处理方法、图像处理装置和记录介质
CN110489027B (zh) 手持输入设备及其指示图标的显示位置控制方法和装置
JP2016085380A (ja) 制御装置、制御方法、及び、プログラム
JP2018163648A (ja) 画像処理装置、画像処理方法、及びプログラム
KR20150107580A (ko) 화상 처리 장치 및 화상 처리 방법
US20190066366A1 (en) Methods and Apparatus for Decorating User Interface Elements with Environmental Lighting
JP6896811B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP7057086B2 (ja) 画像処理装置、画像処理方法、及びプログラム
CN108476290B (zh) 用于提供全景图像的电子装置及其控制方法
JP2020112981A (ja) 検出装置、情報処理装置、検出方法、検出プログラム、及び検出システム
KR101488647B1 (ko) 모바일 단말의 가상 조명 동작방법 및 장치
WO2018180860A1 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6679430B2 (ja) 撮像装置、撮像装置の制御方法及びプログラム
KR20200046417A (ko) 보정 이미지 기반 아바타 생성 방법 및 장치
US20200250883A1 (en) Information processing apparatus to set lighting effect applied to image, information processing method, and storage medium
WO2020240989A1 (ja) 撮像装置、撮像制御方法および撮像制御プログラム
JP2021145385A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2022079381A (ja) 情報処理装置、撮像装置、制御方法及びプログラム
JP2021081940A (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200114

R151 Written notification of patent or utility model registration

Ref document number: 6646936

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151