JP2020071803A - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2020071803A
JP2020071803A JP2018207193A JP2018207193A JP2020071803A JP 2020071803 A JP2020071803 A JP 2020071803A JP 2018207193 A JP2018207193 A JP 2018207193A JP 2018207193 A JP2018207193 A JP 2018207193A JP 2020071803 A JP2020071803 A JP 2020071803A
Authority
JP
Japan
Prior art keywords
light source
information processing
virtual light
source object
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018207193A
Other languages
English (en)
Other versions
JP7262976B2 (ja
Inventor
千晶 金子
Chiaki Kaneko
千晶 金子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018207193A priority Critical patent/JP7262976B2/ja
Priority to US16/667,146 priority patent/US11151779B2/en
Priority to CN201911042734.5A priority patent/CN111147733B/zh
Publication of JP2020071803A publication Critical patent/JP2020071803A/ja
Application granted granted Critical
Publication of JP7262976B2 publication Critical patent/JP7262976B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/60Shadow generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Abstract

【課題】 本発明は、ユーザにとって、光源オブジェクトの操作によってライティング効果が変化することが容易に把握できる情報処理装置を提供することを目的とする。【解決手段】 本発明に係る情報処理装置は、撮像画像とともに仮想光源の状態を示すオブジェクトを表示させる表示手段と、時間の経過に応じて、前記オブジェクトを変化させるとともに、前記仮想光源の状態を変更する変更手段と、前記変更手段により状態が変更された仮想光源によるライティング効果を前記撮像画像に付与する付与手段と、を有することを特徴とする。【選択図】 図8

Description

本発明は、仮想光源によるライティング効果を撮像画像に付与する情報処理装置に関する。
従来、撮像画像に仮想的なライティング効果を加える仮想ライティング処理を実行する技術がある。特許文献1には、光源を模した操作用オブジェクト(以下、光源オブジェクトと呼ぶ)に対してユーザが仮想光源の位置や光強度といったパラメータを設定し、その仮想光源によるライティング効果を画像に加えることが開示されている。この技術は、光源オブジェクトを撮像画像に重畳表示し、その光源オブジェクトに対するユーザの操作に応じて仮想光源のパラメータを変更する。このとき、仮想光源のパラメータを、光源オブジェクトの表示位置やサイズといった表示状態と連動させて変更することにより、ユーザが仮想光源の位置や光強度を視覚的に把握しながらライティングの状態を調整することを可能とするものである。
特開2018−010497号公報
従来技術においては、光源オブジェクトがユーザにより操作されなければ、撮像画像に付与されるライティング効果は変化しない。よって、ユーザが、光源オブジェクトの操作機能を有する情報処理装置の操作に不慣れである場合、光源オブジェクトの操作によってライティング効果が変化することに気付かない場合がある。本願発明は、上記課題を鑑みてなされたものであり、ユーザにとって、光源オブジェクトの操作によってライティング効果が変化することが容易に把握できる情報処理装置を提供することを目的とする。
上記課題を解決するために、本発明に係る情報処理装置は、撮像画像とともに仮想光源の状態を示すオブジェクトを表示させる表示手段と、時間の経過に応じて、前記オブジェクトを変化させるとともに、前記仮想光源の状態を変更する変更手段と、前記変更手段により状態が変更された仮想光源によるライティング効果を前記撮像画像に付与する付与手段と、を有することを特徴とする。
本発明によれば、ユーザにとって、光源オブジェクトの操作によってライティング効果が変化することが容易に把握できる情報処理装置を提供することができる。
情報処理装置のハードウェア構成を示す図。 情報処理装置の外観の一例を示す図。 情報処理装置の論理構成を示すブロック図。 第1実施形態に係る情報処理装置が実行する処理の流れを示すフローチャート。 第1実施形態に係る座標系を説明する図。 第1実施形態に係るGUIおよびライティング画像の例を示す図。 第1実施形態に係る経過時間に応じた光源オブジェクトパラメータ変更の例を示す図。 第1実施形態に係るGUIおよびライティング画像の変化の例を示す図。 第2実施形態に係る情報処理装置が実行する処理の流れを示すフローチャート。 第2実施形態に係る経過時間に応じた光源オブジェクトパラメータ変更の例を示す図。 第2実施形態に係るGUIおよびライティング画像の例を示す図。 第3実施形態に係る情報処理装置が実行する処理の流れを示すフローチャート。 第3実施形態に係る経過時間に応じた光源オブジェクトパラメータ変更の例を示す図。 第3実施形態に係るGUIおよびライティング画像の例を示す図。 第4実施形態に係るGUIおよびライティング画像の変化の例を示す図。 第5実施形態に係る情報処理装置が実行する処理の流れを示すフローチャート。 第5実施形態に係る仮想光源の初期パラメータの例を示す図。 第5実施形態に係る光源オブジェクトの状態の例を示す図。 第5実施形態に係るGUIおよびライティング画像の変化の例を示す図。
以下、本実施形態について、図面を参照して説明する。尚、以下の実施形態は本発明を必ずしも限定するものではない。また、本実施形態において説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。
(第1実施形態)
<情報処理装置1のハードウェア構成>
図1(a)は、情報処理装置1のハードウェア構成の一例を示す図である。情報処理装置1は、スマートフォンやタブレットPC(パーソナルコンピュータ)等の通信機能及び撮像機能を備えた機器により実現される。情報処理装置1は、CPU101と、ROM102と、RAM103と、入出力インタフェース(I/F)104と、タッチパネルディスプレイ105と、撮像部106と、通信I/F107と、を有する。CPU101は、RAM103をワークメモリとして、ROM102、外部記憶装置110などに格納されたOS(オペレーティングシステム)や各種プログラムを実行する。尚、OS(オペレーティングシステム)や各種プログラムは、内部の記憶装置内に格納されていても良い。また、CPU101は、システムバス108を介して各構成を制御する。尚、後述するフローチャートによる処理は、ROM102や外部記憶装置110などに格納されたプログラムコードがRAM103に展開され、CPU101によって実行される。入出力I/F104には、シリアルバス109を介して、外部記憶装置110が接続される。外部記憶装置110は、HDD(ハードディスクドライブ)である。タッチパネルディスプレイ105は、画像の表示を行うディスプレイと、指などの指示体によるタッチの位置を検出するタッチパネルと、が一体となった入出力部である。撮像部106は、撮像対象の画像を取得する撮像部である。図2に本実施形態における情報処理装置1の外観の一例を示す。図2(a)に、情報処理装置1のタッチパネルディスプレイ105を有する面(以下、ディスプレイ面と呼ぶ)を示し、図2(b)に情報処理装置1のディスプレイ面と反対の面(以下、背面と呼ぶ)を示す。本実施形態における撮像部106は、情報処理装置1の背面に備えられるメインカメラ202及び情報処理装置1のディスプレイ面に備えられるインカメラ201である。インカメラ201は、ディスプレイ(表示画面)を閲覧しようとするユーザの顔を撮像可能な位置及び方向に設置されている。通信I/F107は、他の情報処理装置や通信機器、外部記憶装置等との間で、有線又は無線による双方向の通信を行う。本実施形態における通信I/F107は、無線LAN(ローカルエリアネットワーク)を介して通信相手とのデータの送受信が可能である。また、通信I/F107は、他の通信機器との間では、直接の通信以外に、中継装置を介した間接的な通信も可能である。
<情報処理装置1の論理構成>
情報処理装置1の論理構成例を説明する。図3(a)は、本実施形態における情報処理装置1の論理構成を示すブロック図である。情報処理装置1は、RAM103をワークメモリとして、CPU101がROM102に格納されたプログラムを実行することによって、図3(a)に示す論理構成として機能する。尚、以下に示す処理の全てが必ずしもCPU101によって実行される必要はなく、処理の一部または全てがCPU101以外の一つまたは複数の処理回路によって行われるように情報処理装置1が構成されていてもよい。
情報処理装置1は、データ取得部301と、ライティング部302と、画像表示部303と、データ保存部304と、操作部305と、変更部306と、GUI表示部307とを有する。
データ取得部301は、入力画像データとして撮像画像を撮像部106から取得する。また、仮想光源パラメータの初期値と光源オブジェクトパラメータの初期値を、ROM102あるいは外部記憶装置110などから取得する。仮想光源パラメータとは、画像にライティング効果を付与する際に用いる仮想光源の状態を表すパラメータであり、例えば仮想光源の位置、向き、照射角、強度、配光曲線、個数などである。光源オブジェクトパラメータとは、光源オブジェクトの状態を表すパラメータであり、例えば光源オブジェクトの位置、向き、大きさ、明るさ、色、透過度、形状、個数などである。これらのパラメータの初期値は、ROM102あるいは外部記憶装置110などに予め格納されているものとする。尚、撮像部106がポートレートモードやマクロモードといった複数の撮像モードを備える場合には、撮像モードごとに用意された初期値の中から、入力画像の撮像モードに対応する値を取得してもよい。取得した入力画像データと仮想光源パラメータの初期値は、ライティング部302へ送られる。また、光源オブジェクトパラメータの初期値は変更部306へ送られる。
ライティング部302は、光源オブジェクトパラメータに基づいて仮想光源パラメータを決定する。また、仮想光源パラメータを用いて、仮想光源によるライティング効果が付与された画像データ(以下、ライティング画像データと呼ぶ。)を生成する。処理の詳細は後述する。生成されたライティング画像データは、画像表示部303およびデータ保存部304へ送られる。
画像表示部303は、ライティング画像データをタッチパネルディスプレイ105に出力して表示する。
データ保存部304は、ライティング画像データを外部記憶装置110に格納して保存する。
操作部305は、タッチパネルディスプレイ105を介して、ユーザの操作を表す入力情報(以下、操作情報と呼ぶ。)を受信する。受信した操作情報のうち、光源オブジェクトに対するものは変更部306へ送られる。
変更部306は、光源オブジェクトに対する操作または時間の経過に応じて、光源オブジェクトパラメータを決定する。処理の詳細は後述する。決定された光源オブジェクトパラメータは、ライティング部302およびGUI表示部307へ送られる。
GUI表示部307は、光源オブジェクトパラメータに基づき光源オブジェクトを含むGUI(グラフィカルユーザインタフェース)を描画し、タッチパネルディスプレイ105に出力して表示する。
図5は、本実施形態で用いる座標系(ij平面座標系、uv平面座標系、xyz空間座標系)を説明する模式図である。ij平面座標系は、入力画像Iの左上隅を原点、水平方向右向きをi軸、垂直方向下向きをj軸とする2次元座標系である。以下、画像上において位置座標が(i,j)である画素を「画素(i,j)」と表す。uv平面座標系は、入力画像Iの中心を原点、i軸と同じ向きをu軸、j軸の逆向きをv軸とする2次元座標系である。u、vは画像の横幅と縦幅がそれぞれ1となるように正規化されているものとする。xyz空間座標系は、入力画像Iを撮像したカメラの光学中心Oを原点、u軸と同じ向きをx軸、v軸と同じ向きをy軸、深度方向(すなわちカメラの光軸方向)の手前(カメラ側)から奥(被写体側)へ向かう向きをz軸とする3次元座標系である。以下の説明では、仮想光源パラメータとして仮想光源の3次元位置ベクトルP=(x,y,z)と、仮想光の減衰率F(P´)と、仮想光のRGBの強度(Ir,Ig,Ib)とを用いる。ここで、P´は仮想光源の位置を原点とした3次元位置ベクトルであり、F(P´)は仮想光源から射出された光が位置ベクトルP´の示す点に到達する際の減衰率(0≦F(P´)≦1)である。また、光源オブジェクトパラメータとして、uv平面座標系における光源オブジェクトの位置座標(u,v)と、光源オブジェクトの明るさSとを用いる。以下、仮想光源パラメータをまとめてQ(={P,F(P´),(Ir,Ig,Ib)})と表し、光源オブジェクトパラメータをまとめてq(={(u,v),S})と表す。
<ライティング処理の詳細>
ライティング部302におけるライティング処理の詳細を説明する。まず、入力画像の各画素について被写体表面の向きを表す単位法線ベクトルを取得する。法線ベクトルの取得には、公知である種々の形状推定技術を利用可能である。例えば、入力画像の陰影に基づいて推定してもよいし、予め用意した形状モデルを入力画像中の被写体にあてはめて推定してもよい。あるいは、撮像対象の深度情報を画像と併せて取得可能なカメラを撮像部に用い、そこから得られる深度情報に基づいて法線を算出してもよい。法線ベクトルの取得方法については本発明の主眼ではないため、詳細な説明を省略する。
次に、仮想光源パラメータと被写体表面の法線ベクトルとに基づいて、被写体が仮想光源により照らされた場合の仮想的な反射強度を求める。本実施形態では、入力画像の各画素(i,j)について次式に従い仮想反射強度(Ir(i,j),Ig(i,j),Ib(i,j))を算出する。
Figure 2020071803
ここで、P(i,j)は入力画像中の画素(i,j)に写っている被写体の3次元位置ベクトルである。この位置ベクトルP(i,j)は、被写体の深度情報と撮像部の画角とに基づいて算出するなどして画素ごとに取得することが望ましい。あるいは、処理を簡単にするために、画素位置に依らない一定の値(例えば、P(i,j)=(0,0,d)。ただし、dは定数。)としてもよい。(Ir(i,j),Ig(i,j),Ib(i,j))は入力画像における画素(i,j)のRGB値である。L(i,j)は、被写体から仮想光源へと向かう光源ベクトルである。N(i,j)は画素(i,j)に関する被写体表面の法線ベクトルである。式1により得られる仮想反射強度は、減衰率および入力画像の画素値がそれぞれ一定であれば、法線ベクトルと光源ベクトルとのなす角θが小さいほど大きな値となる。θ=0の場合(すなわち、被写体表面が仮想光源から入射する光の方向に正対している場合)に最大となる。
以上で算出した仮想反射強度を次式に従い入力画像のRGB値に加えることで、ライティング画像データを生成する。
Figure 2020071803
ここで、(I´r(i,j),I´g(i,j),I´b(i,j))はライティング画像における画素(i,j)のRGB値である。
尚、仮想反射強度を算出する際には、式1で表される反射の他、光沢などの被写体固有の反射特性や影などを考慮してもよく、コンピュータグラフィクスで一般的に用いられる様々な反射モデルを利用可能である。上記の処理により、撮像画像中の被写体に対してライティング効果を付与することが可能になる。
<情報処理装置1が実行する処理>
図4は、情報処理装置1が実行する処理の流れを示すフローチャートである。以下、各ステップ(工程)は符号の前にSをつけて表す。
S401において、データ取得部301は、入力画像データと、仮想光源の初期パラメータQL0={PL0,FL0(P´),(IrL0,IgL0,IbL0)}と、光源オブジェクトの初期パラメータqL0={(up0,vp0),Sp0}を取得する。具体的な初期パラメータの一例を以下に示す。
(仮想光源の初期パラメータQL0
・仮想光源の位置ベクトルPL0=(0,0,dL0) (dL0は定数)
・仮想光の減衰率FL0(P´)=1/|P´|
・仮想光のRGBの強度(IrL0,IgL0,IbL0)=(0.5,0.5,0.5)
(光源オブジェクトの初期パラメータqL0
・光源オブジェクトの位置座標(up0,vp0)=(0,0)
・光源オブジェクトの明るさSp0=0.5
S402において、ライティング部302と変更部306は、S401で取得した初期パラメータQL0、qL0を用いて、仮想光源パラメータQと光源オブジェクトパラメータqをそれぞれ初期化する。すなわち、ライティング部302が仮想光源パラメータQ=QL0とし、変更部306が光源オブジェクトパラメータq=qL0とする。
S403において、ライティング部302は、S402で初期化した仮想光源パラメータQを用いて、S401で取得した入力画像データにライティング効果を付与し、ライティング画像データを生成する。
S404において、GUI表示部307は、光源オブジェクトを含むGUIをタッチパネルディスプレイ105に表示する。さらに、画像表示部303は、S403で生成したライティング画像をGUI上の所定の領域に表示する。図6(a)はGUIの一例を示す図である。ライティング画像I´は、GUI6上の画像表示領域601に表示される。また、光源オブジェクト602は、S402で初期化された光源オブジェクトパラメータq(=qL0)に基づき、画像表示領域601に表示されたライティング画像I´に重畳表示される。図6(a)では、ライティング画像I´は被写体が正面から仮想光で照らされた画像となっている。また、光源オブジェクト602はライティング画像I´の中央に重畳表示されている。この図において、網掛け部分605は、仮想光源のライティング効果により明るくなった部分を表している。以下の説明で用いる図中では、より明るい部分ほど、より濃い色の網掛けで表現する。
S405において、変更部306は現在の時刻を取得し、これを仮想ライティング処理の開始時刻tとして記憶する。
S406において、操作部305は、S404で表示した光源オブジェクトに対するユーザの操作情報を受け付ける。光源オブジェクトに対するユーザの操作情報とは、タッチパネルディスプレイ105に表示された光源オブジェクトに対するタップ(シングルタップ、ダブルタップ、ロングタップ)、ドラッグ、フリック、ピンチイン/ピンチアウトなどの操作に関する情報である。光源オブジェクトに対する操作情報を受信した場合はS407へ進み、それ以外の場合はS408へ進む。
S407において、変更部306は、S406で受信した操作情報に応じて光源オブジェクトパラメータqの値を決定する。例えば、光源オブジェクトがドラッグされた場合、ドラッグによるタッチ位置の移動に応じた分だけ光源オブジェクトの位置座標(u,v)を変更する。また、光源オブジェクトがタップされた場合、光源オブジェクトの明るさSを変更する。明るさを変更する際には、タップされる毎に予め定めた複数段階の階調を巡回するように変更する。あるいは、タップされた際に別途スライダを表示し、このスライダをユーザが操作することにより明るさを変更してもよい。尚、操作情報と各種パラメータの変更内容との対応付けは上述した例に限るものではない。その他の例としては、光源オブジェクトに対するピンチイン/ピンチアウトの操作により明るさを減増させてもよいし、光源オブジェクトがタップされる度に明るさをS=0とS≠0とで切り替えてもよい。
S408において、変更部306は現在の時刻を取得し、これを現時刻tとして記憶する。
S409において、変更部306は開始時刻tから現時刻tまでの経過時間Δt(=t−t)に応じて、光源オブジェクトパラメータq(すなわち、光源オブジェクトの位置座標(u,v)と明るさS)の値を決定する。ここでは、以下に示す経過時間Δtの関数f(Δt)、f(Δt)、f(Δt)にΔt=Δtを代入して得られる値を、それぞれu(=f(Δt))、v(=f(Δt))、S(=f(Δt))とする。
Figure 2020071803
ここで、au1、av1は、uv平面座標系における各軸方向の位置の変動幅を表す係数である。aS1は、明るさの変動幅を表す係数である。au2、av2、aS2は、位置または明るさの変動に関する時間軸方向の周期を表す係数である。図7に、経過時間と光源オブジェクトパラメータの値との関係の一例を示す。図7(a)〜(c)はそれぞれ式4〜6により定まるu、v、Sのグラフであり、図7(d)はこの場合のuv平面上における光源オブジェクトの位置座標(u,v)の軌跡である。尚、各パラメータの値の算出に用いられる関数は上述した例(式4〜6)に限られず、経過時間Δtの関数であれば任意の関数を利用可能である。また、関数を用いる代わりに、経過時間Δtと各パラメータの値とが対応付けられたLUTを参照することにより、光源オブジェクトパラメータの値を決定してもよい。
S410において、ライティング部302は、S407またはS409で決定した光源オブジェクトパラメータqに基づいて、仮想光源パラメータQを決定する。本実施形態では、光源オブジェクトパラメータq={(u,v),S}に基づいて、仮想光源パラメータQに含まれる仮想光源の位置ベクトルPとRGBの強度(Ir,Ig,Ib)を、次式に従い決定する。
Figure 2020071803
ここで、θ、θはそれぞれ入力画像を撮像したカメラの水平画角および垂直画角である。
S411において、ライティング部302は、S410で決定した仮想光源パラメータQを用いてライティング画像データを再生成する。
S412において、画像表示部303は、ライティング画像データの表示を更新する。すなわち、S411で再生成したライティング画像データを、S404で表示したGUI6上の画像表示領域601に上書き表示する。さらに、GUI表示部307は、S407またはS409で決定した光源オブジェクトパラメータqに基づき、光源オブジェクト602を画像表示領域601に再描画する。図6(b)に、更新後のGUIの一例を示す。この図は、S409において経過時間Δtに応じて光源オブジェクトパラメータを決定した場合の例である。図6(b)では、光源オブジェクト602の位置と明るさが図6(a)から変化している。また、この変化に応じて、仮想光により照らされている部分605の位置と明るさも変化している。
S413において、操作部305は、S404で表示したGUIを介してユーザの操作情報を受け付け、処理を続行するか否かを判定する。具体的には、GUI6上の決定ボタン603またはキャンセルボタン604が押下された場合は、処理を終了すると判定してS414へ進む。それ以外の場合は、処理を続行すると判定してS406へ戻る。
S414において、操作部305は、S413で受信した操作情報に基づき、ライティング画像データを保存するか否かを判定する。具体的には、S413で押下されたボタンが決定ボタン603であった場合は、データを保存すると判定してS415へ進む。S413で押下されたボタンがキャンセルボタン604であった場合は、データを保存しないと判定して処理を終了する。
S415において、データ保存部304は、S411で再生成したライティング画像データを保存し、処理を終了する。
(第1実施形態の効果)
以上説明したように、本実施形態における情報処理装置は、GUI上において光源オブジェクトの状態を時間経過に応じて変化させるとともに、光源オブジェクトの状態に応じた仮想光源によるライティング効果を画像に付与して表示する。これにより、光源オブジェクトと付与されるライティング効果との関係を容易に把握できる。
尚、本実施形態では、データ取得部301は撮像部106から入力画像データを取得したが、外部記憶装置110などに格納されている画像データを入力画像データとして取得してもよい。
また、データ取得部301は予め格納されている仮想光源パラメータの初期値と光源オブジェクトパラメータの初期値を取得したが、これらの初期値は入力画像中の被写体の種別や位置、大きさなどに基づいて決定してもよい。例えば、ピントの合っている領域や人物の顔が写っている領域を主被写体領域として抽出し、主被写体領域の中心位置と大きさを基準にして仮想光源の初期位置ベクトルPL0および光源オブジェクトの初期位置座標(up0,vp0)を決定してもよい。あるいは、以前に設定した仮想光源パラメータや光源オブジェクトパラメータの値を記憶しておき、これらを初期値として用いてもよい。
また、データ保存部304は、ライティング画像データとともに仮想光源パラメータを紐づけて保存してもよい。
また、本実施形態では、光源オブジェクトパラメータとして光源オブジェクトの位置座標と明るさとを用いたが、いずれか一方のみを用いてもよい。位置座標のみを用いる場合は、S410において式7に基づき仮想光源の位置ベクトルのみを決定し、仮想光源のRGBの強度は初期値のまま一定とすればよい。また、明るさのみを用いる場合は、式8に基づき仮想光源のRGBの強度のみを決定し、仮想光源の位置ベクトルは初期値のまま一定とすればよい。
また、本実施形態において仮想光源は指向性を持たない点光源としたが、スポットライトのように指向性を持つ光源としてもよい。その場合、仮想光源の光軸方向や照射角度を仮想光源パラメータに追加し、光源オブジェクトの向きや形状を光源オブジェクトパラメータとして用いてもよい。すなわち、S407またはS409で光源オブジェクトの向きを決定し、その向きに基づいてS410で仮想光源の光軸方向を決定する。あるいは、S407またはS409で光源オブジェクトの形状を決定し、その形状に基づいてS410で仮想光源の照射角度を決定する。このときのGUIおよびライティング画像の変化の例を図8(a)、(b)に示す。
また、仮想光源を面光源としてもよい。その場合、仮想光源の面の大きさや形状を仮想光源パラメータに追加し、光源オブジェクトの大きさや形状を光源オブジェクトパラメータとして用いてもよい。すなわち、S407またはS409で光源オブジェクトの大きさや形状を決定し、それらに基づいてS410で仮想光源の面の大きさや形状を決定する。このときのGUIおよびライティング画像の変化の例を図8(c)に示す。
また、本実施形態では、光源オブジェクトの明るさに基づいて仮想光源のRGBの強度を決定したが、他の光源オブジェクトパラメータに基づいて決定しても良い。図8(d)に、光源オブジェクトの透過度に応じて仮想光源のRGBの強度を決定した場合のGUIおよびライティング画像の変化の例を示す。この図の例では、時刻tにおいて不透明であった光源オブジェクト602が時刻t+Δtにおいて半透明となっている。また、この変化に応じて、仮想光により照らされている部分の明るさが減少している。
また、光源オブジェクトの大きさに基づいて仮想光源の明るさを決定しても良い。図8(e)に示す例では、光源オブジェクトが大きいほど仮想光により照らされている部分の明るさが増大している。
また、点光源や面光源といった光源の種別を仮想光源パラメータに追加し、各種の光源を模した形状を光源オブジェクトパラメータとして用いてもよい。すなわち、S407またはS409で光源オブジェクトの形状を決定し、その形状に基づいてS410で仮想光源の種別を決定する。その場合、S411において、光源の種別に応じた反射モデルに基づいて仮想反射強度を算出し、ライティング画像データを生成すればよい。種々の反射モデルに基づく反射強度の算出方法については本発明の主眼ではないため、詳細な説明を省略する。
また、本実施形態では、仮想光源パラメータと被写体表面の法線ベクトルとに基づいて仮想反射強度を算出することによりライティング画像データを生成したが、ライティング画像データの生成方法はこれに限らない。例えば、既知の光源下で被写体を撮像した様々な画像データに基づいて仮想光源パラメータと得られるライティング画像との関係を学習し、その学習結果に基づいてライティング画像データを生成してもよい。
(第2実施形態)
第1実施形態においては、仮想ライティング処理開始時点からの時間の経過に応じて光源オブジェクトの状態を変更した。本実施形態においては、さらに、操作された時刻からの時間の経過も考慮して光源オブジェクトの状態を変更する。(尚、本実施形態における情報処理装置1のハードウェア構成は第1実施形態のものと同等であるため、説明を省略する。)以下において、本実施形態と第1実施形態とで異なる部分を主に説明する。尚、第1実施形態と同一の構成については、同一の符号を付して説明する。
<情報処理装置1の論理構成>
本実施形態における情報処理装置1の論理構成は、第1実施形態(図3(a))と同じである。
<情報処理装置1が実行する処理>
図9は、本実施形態における情報処理装置1が実行する処理の流れを示すフローチャートである。尚、本実施形態における仮想光源パラメータQ、および、光源オブジェクトパラメータqは、第1実施形態と同様にQ={P,F(P´),(Ir,Ig,Ib)}、q={(u,v),S}とする。
S901〜906の処理はS401〜406と同じであるため説明を省略する。
S907において、変更部306は現在の時刻を取得し、これを操作された時刻tとして記憶する。尚、時刻tは予め充分小さな値(例えば負の定数)tで初期化されており、S907が実行されるまではt=tであるものとする。
S908、909の処理はS407、408と同じであるため説明を省略する。
S910において、変更部306は、開始時刻tと操作された時刻tとを比較し、仮想ライティング処理の開始時刻以降にユーザによる操作があったか否かを判定する。具体的には、t<tの場合は操作があったと判定してS911へ進み、それ以外の場合は操作がなかったと判定してS912へ進む。
S911において、変更部306は、操作された時刻tから現時刻tまでの経過時間Δt(=t−t)に応じて、光源オブジェクトパラメータqの値を決定する。本実施形態では、図10(a)に示すLUTを参照して経過時間Δtに対応する光源オブジェクトの変位Δu、Δvと、明るさの変化量ΔSとを取得し、これら用いて次式に従い光源オブジェクトの位置座標(u,v)と明るさSを算出する。
Figure 2020071803
ここで、(up1,vp1)およびSp1はS908で決定された(すなわち、ユーザによる操作後の)光源オブジェクトの位置座標と明るさである。このときのuv平面上における光源オブジェクトの位置座標(u,v)の軌跡を、図10(b)に示す。
S912において、変更部306は、(S409と同様に)仮想ライティング処理の開始時刻から現時刻までの経過時間Δtに応じて、光源オブジェクトパラメータqの値を決定する。本実施形態では、図10(c)に示すLUTを参照して経過時間Δtに対応する光源オブジェクトの変位Δu、Δvと、明るさの変化量ΔSとを取得し、これら用いて次式に従い光源オブジェクトの位置座標(u,v)と明るさSを算出する。
Figure 2020071803
このときのuv平面上における光源オブジェクトの位置座標(u,v)の軌跡を、図10(d)に示す。
S913〜918の処理はS410〜415と同じであるため説明を省略する。
図11に、本実施形態におけるGUIの動作の例を示す。図11(a)は、時刻tに仮想ライティング処理を開始してから、時刻tにユーザにより光源オブジェクトが操作されるまでの、GUIの様子を表している。時刻t〜t間では、光源オブジェクト602は開始時刻からの経過時間Δtに応じて状態が変化する。すなわち、図10(c)に例示したLUTに基づき、明るさを変化させながら図10(d)の軌道上を移動する。そして、ユーザにより光源オブジェクトが操作されるまでに一定の時間(図10(c)の例では1.3[s])が経過した場合、光源オブジェクト602は初期位置座標(up0,vp0)に一定の明るさ(=Sp0)で停滞する。また、光源オブジェクト602の状態に応じたライティング効果が、ライティング画像I´に逐次反映される。図11(b)は、時刻tに光源オブジェクトが操作された後のGUIの様子を表している。この図は、光源オブジェクト602が(up0,vp0)から(up1,vp1)へドラッグされた後の例である。時刻t以後は、光源オブジェクト602は操作された時刻からの経過時間Δtに応じて状態が変化する。すなわち、図10(a)に例示したLUTに基づき、一定時間(図10(a)の例では10.0[s])が経過した後に、明るさを変化させながら図10(b)の軌道上を移動する。ライティング画像I´には、引き続き光源オブジェクト602の状態に応じたライティング効果が逐次反映される。尚、時刻t以後に光源オブジェクトに対して再度操作が行われた場合は、その時刻が新たにtと見なされる。そして、新たなt(すなわち、再度操作が行われた時刻)からの経過時間に応じて光源オブジェクトの状態が変化し、それに伴ってライティング画像も変化する。
<第2実施形態の効果>
以上説明したように、本実施形態における情報処理装置は、仮想ライティング処理開始時からの時間の経過だけでなく、操作された時刻からの時間の経過も考慮して光源オブジェクトの状態を変更する。これにより、ユーザが操作に迷うなどしてしばらく操作がなかった場合に、光源オブジェクトの操作とライティング効果の例を提示できる。
尚、本実施形態では、S912において一定時間経過後に光源オブジェクトパラメータの値が一定となるLUTを用いたが、さらに特定の時間が経過した場合に、再び光源オブジェクトパラメータの値が変化するようなLUTを用いてもよい。また、S911で用いるLUTとS912で用いるLUTは同一であってもよい。
(第3実施形態)
本実施形態においては、情報処理装置の位置もしくは姿勢が変化するなど、情報処理装置に係る状況に変化が生じた時刻からの時間の経過に応じて光源オブジェクトの状態を変更する。尚、本実施形態では、主に、情報処理装置の位置姿勢の変化について説明する。しかし、例えば、情報処理装置に対する所定の操作(情報処理装置の所定の機能を実現するためのボタンを押下)した時を基準にしても良い。本実施形態における情報処理装置1のハードウェア構成は第1実施形態のものと同等である。
<情報処理装置1の論理構成>
図3(b)は、本実施形態における情報処理装置1の論理構成を示すブロック図である。情報処理装置1は、データ取得部301と、ライティング部302と、画像表示部303と、データ保存部304と、操作部305と、変更部306と、GUI表示部307と、検出部308とを有する。
検出部308は、情報処理装置に係る状況の変化を検出する。本実施形態では、情報処理装置の位置または向きの変化を状況の変化とし、これを検出する例を説明する。本実施形態における検出部308は、撮像部106から時系列に沿って逐次撮像画像データを取得する。そして、撮像画像データを取得する毎に直前の時刻に取得した画像データとの差分を算出し、その差分が予め定めた閾値以上であった場合に情報処理装置の位置または向きが変化したと判定する。画像データ間の差分としては、例えば画素値の平均二乗誤差や平均絶対誤差などを利用可能である。検出結果は逐次変更部306へ送られる。
データ取得部301、ライティング部302、画像表示部303、データ保存部304、操作部305、変更部306、GUI表示部307については第1実施形態と同じであるため、説明を省略する。
<情報処理装置1が実行する処理>
図12は、本実施形態における情報処理装置1が実行する処理の流れを示すフローチャートである。尚、本実施形態における仮想光源パラメータQ、および、光源オブジェクトパラメータqは、第1実施形態と同様にQ={P,F(P´),(Ir,Ig,Ib)}、q={(u,v),S}とする。
S1201〜1204、1205、1206の処理はS401〜404、406、407と同じであるため説明を省略する。
S1207において、変更部306は検出部308から送られる検出結果に従い、情報処理装置に係る状況が変化したか否かを判断する。状況の変化が検出された場合はS1208へ進み、それ以外の場合はS1209へ進む。
S1208において、変更部306は現在の時刻を取得し、これを情報処理装置に係る状況が変化した時刻tとして記憶する。
S1209の処理はS408と同じであるため説明を省略する。
S1210において、変更部306は、情報処理装置に係る状況が変化した時刻tから現時刻tまでの経過時間Δt(=t−t)に応じて、光源オブジェクトパラメータqの値を決定する。本実施形態では、次式に従い経過時間Δtに対する各パラメータの変化量Δu、Δv、ΔSを算出し、これらを用いて光源オブジェクトの位置座標(u,v)と明るさSを決定する。
Figure 2020071803
ここで、θuvは光源オブジェクトの位置の変動方向を表す角度であり、auv1、auv2、γuvは、それぞれ位置の変動幅、変動の周期、変動の減衰を表す係数である。aS3、aS4、γは、それぞれ明るさの変動幅、変動の周期、変動の減衰を表す係数である。(up2,vp2)およびSp2は、時刻tにおける光源オブジェクトの位置座標と明るさである。図13(a)〜(c)に、式12により定まるu、v、Sのグラフをそれぞれ示す。このとき、光源オブジェクトはuv平面上において傾きθuvの直線上を減衰振動する。なお、θuvの値は予め定めた定数でもよいし、別途加速度センサなどを用いて検出した重力方向の傾きとしてもよい。
S1211〜1216の処理はS410〜415と同じであるため説明を省略する。
図14に、本実施形態におけるGUIの動作の例を示す。同図はある時刻に情報処理装置を傾けた場合の例である。図14(a)は、情報処理装置が傾く直前における情報処理装置およびGUIを表している。図14(b)は、情報処理装置が傾いてからΔtだけ時間が経過した際の情報処理装置およびGUIを表している。図14(b)では、光源オブジェクト602の位置が図14(a)の状態から重力方向に移動しており、明るさも変化している。また、この変化に応じて、仮想光により照らされている部分の位置と明るさも変化している。
(第3実施形態の効果)
以上説明したように、本実施形態における情報処理装置は、情報処理装置に係る状況に変化が生じた時刻からの時間の経過に応じて、光源オブジェクトの状態を変更する。これにより、情報処理装置に係る状況の変化をきっかけとして光源オブジェクトにユーザの視線を引きつけ、光源オブジェクトを操作することでライティングの効果を変えられることを暗に提示できる。
尚、検出部308は加速度センサやジャイロセンサ、あるいは地磁気センサなどを具備し、これらのセンサ出力に基づいて情報処理装置の位置または向きの変化を検出してもよい。
また、検出部308は、撮像部106から時系列に沿って取得した複数の撮像画像に基づき、公知のカメラ位置姿勢推定手法を用いることにより撮像部106の位置姿勢の変化を推定し、この変化を情報処理装置に係る状況の変化として検出してもよい。
また、検出部308は、ユーザによるタッチ操作やジェスチャなどの入力情報を受信した場合に、情報処理装置に係る状況が変化したと判定してもよい。
(第4実施形態)
本実施形態においては、ライティング画像とGUIとを別々に表示する。本実施形態における情報処理装置1のハードウェア構成は第1実施形態のものと同等である。
<情報処理装置1の論理構成>
本実施形態における情報処理装置1の論理構成は、第1実施形態(図3(a))と同じである。
<情報処理装置1が実行する処理>
本実施形態における情報処理装置1が実行する処理の流れは第1実施形態(図4)と同様である。ただし、S404とS412におけるGUIおよびライティング画像の表示の仕方が異なる。尚、本実施形態における仮想光源パラメータQ、および、光源オブジェクトパラメータqは、第1実施形態と同様にQ={P,F(P´),(Ir,Ig,Ib)}、q={(u,v),S}とする。また、本実施形態におけるuv平面座標系は、GUI中の画像表示領域の中心を原点、水平方向右向きをu軸、垂直方向上向きをv軸とする2次元座標系とし、u、vは画像表示領域の横幅と縦幅がそれぞれ1となるように正規化されているものとする。
S404において、GUI表示部307は、光源オブジェクトを含むGUIをタッチパネルディスプレイ105に表示する。また、画像表示部303は、S403で生成したライティング画像をGUIとは別にタッチパネルディスプレイ105に表示する。
S412において、GUI表示部307は、S407またはS409で決定した光源オブジェクトパラメータqに基づき、光源オブジェクト602を画像表示領域601に再描画する。また、画像表示部303は、S411で再生成したライティング画像データを、S404でGUIとは別に表示したライティング画像に上書き表示する。
図15は本実施形態におけるGUIおよびライティング画像の変化の一例を示す図である。光源オブジェクト602は、GUI6上の画像表示領域601に表示される。また、ライティング画像I´は、GUI6とは別に、タッチパネルディスプレイ105上に表示される。GUIとライティング画像とが別々に表示されるため、時刻tのように仮想光源が被写体の正面に位置する場合でも、ライティング画像中の被写体を光源オブジェクト602により隠されることなく確認することができる。尚、仮想光源の位置を把握しやすくするために、画像表示領域601にガイド画像を表示してもよい。図15の例では、入力画像を撮像したカメラの光学中心に相当する点や、この点を中心とする円などを描画した画像を、ガイド画像として表示している。
<第4実施形態の効果>
以上説明したように、本実施形態における情報処理装置は、ライティング画像とGUIとを別々に表示する。これにより、ライティング画像を光源オブジェクトに隠されることなく確認することができる。
(第5実施形態)
本実施形態においては、予め定めた複数パターンの仮想光源の状態を時間経過に応じて切り替えながら、光源オブジェクトとライティング画像とを表示する例を説明する。本実施形態における情報処理装置1のハードウェア構成は第1実施形態のものと同等である。
<情報処理装置1の論理構成>
本実施形態における情報処理装置1の論理構成は、第1実施形態(図3(a))と同じである。
<情報処理装置1が実行する処理>
図16は、本実施形態における情報処理装置1が実行する処理の流れを示すフローチャートである。
S1601において、データ取得部301は第1実施形態のS401と同様にして、入力画像データと、仮想光源の初期パラメータと、光源オブジェクトの初期パラメータを取得する。本実施形態では、複数の仮想光源それぞれに関する以下のパラメータをまとめて仮想光源パラメータQ={Q,Q,・・・,QK−1}(Kは仮想光源の個数。)とする。
(k番目の仮想光源に関するパラメータQ
・仮想光源の位置ベクトルPLPk=(xLPk,yLPk,zLPk
・仮想光源の光軸が通る点の位置ベクトルPLAk=(xLAk,yLAk,zLAk
・仮想光のRGBの強度(IrLk,IgLk,IbLk
・仮想光源の種別TypeLk
・仮想光源の形状ShapeLk
・仮想光源のサイズSizeLk
・仮想光の照射角度θLk
K=6の場合における初期パラメータQL0={Q00,Q10,・・・,Q50}の例を図17に示す。この図において、「Area」は仮想光源の種別が面光源であることを表しており、「Point」は点光源であることを表している。「Square」は面光源の形状が正方形であることを表しており、SizeLkの数値はその一辺の長さを表している。この図の例では、6個の仮想光源がz軸上の点(0,0,dat)を取り囲むように配置されている。
また、本実施形態では予め記憶しておいたM通りの光源オブジェクトの状態を示すIDを光源オブジェクトパラメータqとして用い、初期値qL0=0とする。図18にM=4通りの光源オブジェクトの状態の例を示す。この図において、各状態にはK=6個の仮想光源に対応する光源オブジェクト1800〜1805が含まれており、αm,kはm番目の状態におけるk番目の光源オブジェクトの透過度を表している。ここで、透過度は光源オブジェクトが透けて見える度合いを表しており、透過度が0のときに光源オブジェクトは不透明な状態で描画される。
S1602〜1605およびS1606の処理は、S402〜405およびS408と同じであるため説明を省略する。尚、1603においてライティング画像を生成する際には、K個の仮想光源それぞれに関して第1実施形態で説明したように仮想反射強度を算出し、それらを入力画像の画素値に合算すればよい。
S1607において、変更部306は、開始時刻tから現時刻tまでの経過時間Δt(=t−t)に応じて、光源オブジェクトパラメータq、すなわち、光源オブジェクトの状態を示すIDの値を決定する。本実施形態では、次式に従い経過時間Δtに対する光源オブジェクトパラメータqを決定する。
Figure 2020071803
ここで、Tはインターバルを表す定数である。このとき、光源オブジェクトパラメータqの値は、Tだけ時間が経過するたびに0からM−1の間で繰り返し変化する。
S1608において、ライティング部302は、S1607で決定した光源オブジェクトパラメータqが示すIDに基づき、仮想光源パラメータQに含まれる仮想光源のRGBの強度を決定する。仮想光源のRGBの強度(IrLk,IgLk,IbLk)(k=0,1,・・・,K−1)は次式に従い決定される。
Figure 2020071803
このとき、仮想光源のRGBの強度は光源オブジェクトの透過度が低いほど大きな値となる。
S1609の処理はS411と同じであるため説明を省略する。
S1610において、画像表示部303はS412と同様にして、ライティング画像データの表示を更新する。すなわち、S1609で再生成したライティング画像データを、S1604で表示したGUI6上の画像表示領域601に上書き表示する。さらに、GUI表示部307は、S1607で決定した光源オブジェクトパラメータqに基づき、光源オブジェクト602を画像表示領域601に再描画する。
S1611〜1613の処理はS413〜415と同じであるため説明を省略する。
図19は本実施形態におけるGUIおよびライティング画像の変化の一例を示す図であり、M=4通りの仮想光源の状態が切り替わる様子を表している。この図の例では、K=6個の光源オブジェクト1800〜1805の透過度がそれぞれ経過時間Δtに応じて変化している。また、光源オブジェクトの透過度の変化に応じて、仮想光により照らされている部分の明るさも変化している。ユーザは、表示されたライティング画像を気に入った場合に決定ボタン603を押下することにより、そのライティング画像を保存することができる。
<第5実施形態の効果>
以上説明したように、本実施形態における情報処理装置は、予め定めた複数パターンの仮想光源の状態を時間経過に応じて切り替えながら、光源オブジェクトとライティング画像とを表示する。これにより、光源オブジェクトと付与されるライティング効果との関係を容易に把握することができるとともに、付与するライティング効果をより簡便に決定することができる。
[変形例]
上述した実施形態において、情報処理装置1のハードウェア構成は、図1(a)に示した構成であったが、情報処理装置1のハードウェア構成は上記の例に限られない。例えば、情報処理装置1のハードウェア構成は、図1(b)に示す構成であってもよい。情報処理装置1は、CPU101と、ROM102と、RAM103と、VC(ビデオカード)111と、汎用I/F114と、SATA(シリアルATA)I/F118と、を有する。CPU101は、RAM103をワークメモリとして、ROM102、外部記憶装置110などに格納されたOSや各種プログラムを実行する。また、CPU101は、システムバス108を介して各構成を制御する。汎用I/F114には、シリアルバス115を介して、マウスやキーボードなどの入力デバイス116や撮像装置117が接続される。SATAI/F118には、シリアルバス119を介して、外部記憶装置110が接続される。VC111には、シリアルバス112を介して、ディスプレイ113が接続される。CPU101は、プログラムによって提供されるGUIをディスプレイ113に表示し、入力デバイス116を介して得られたユーザの指示を表す入力情報を受信する。図1(b)に示す情報処理装置1は、例えば、デスクトップ型のPCによって実現される。尚、情報処理装置1は、撮像装置117と一体となったデジタルカメラや、ディスプレイ113と一体となったPCなどによっても実現される。
また、上述した実施形態においては、情報処理装置1は撮像部106としてメインカメラ202とインカメラ201との2つのカメラを有していたが、撮像部106は上記の例に限られない。例えば、情報処理装置1は、メインカメラ202のみであってもよい。
また、上述した実施形態における外部記憶装置110はHDDであったが、外部記憶装置110は上記の例に限られない。例えば、SSD(ソリッドステートドライブ)であってもよい。また、外部記憶装置110は、メディア(記録媒体)と、当該メディアへのアクセスを行うための外部記憶ドライブとによっても実現される。メディアには、フレキシブルディスク(FD)、CD−ROM、DVD、USBメモリ、MO、フラッシュメモリなどを用いることができる。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
1 情報処理装置
302 ライティング部
303 画像表示部
306 変更部
307 GUI表示部

Claims (11)

  1. 撮像画像とともに仮想光源の状態を示すオブジェクトを表示させる表示手段と、
    時間の経過に応じて、前記オブジェクトを変化させるとともに、前記仮想光源の状態を変更する変更手段と、
    前記変更手段により状態が変更された仮想光源によるライティング効果を前記撮像画像に付与する付与手段と、を有することを特徴とする情報処理装置。
  2. 前記オブジェクトの変化は、前記オブジェクトの位置、向き、大きさ、明るさ、色、透過度、個数のうちの少なくとも一つの変化であることを特徴とする請求項1に記載の情報処理装置。
  3. 前記時間の経過は、前記オブジェクトの表示を始めた時からの経過時間であることを特徴とする請求項1または請求項2に記載の情報処理装置。
  4. 前記情報処理装置の所定の変化を検出する検出手段を更に有し、
    前記時間の経過は、前記検出手段により所定の変化が検出された時からの経過時間であることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
  5. 前記情報処理装置の所定の変化は、前記情報処理装置の位置もしくは姿勢の変化であることを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
  6. 前記情報処理装置の所定の変化は、前記情報処理装置に対する入力の情報の変化であることを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
  7. 前記変更手段は、ユーザの操作に基づき、前記オブジェクトによって示される仮想光源の状態を変更することを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。
  8. 前記経過時間は、前記ユーザの操作を受け付けた時点からの経過時間であることを特徴とする請求項7に記載の情報処理装置。
  9. 前記変更手段は、前記ユーザの操作を受け付けた場合、前記時間の経過に応じた前記オブジェクトによって示される仮想光源の状態の変更を終了することを特徴とする請求項7に記載の情報処理装置。
  10. 表示手段が、撮像画像とともに仮想光源の状態を示すオブジェクトを表示させる表示工程と、
    変更手段が、時間の経過に応じて、前記オブジェクトを変化させるとともに、前記仮想光源の状態を変更する変更手段と、
    付与手段が、前記変更工程において変更された仮想光源によるライティング効果を前記撮像画像に付与する付与手段と、を有することを特徴とする情報処理方法。
  11. コンピュータを、
    撮像画像とともに仮想光源の状態を示すオブジェクトを表示させる表示手段と、
    時間の経過に応じて、前記オブジェクトを変化させるとともに、前記仮想光源の状態を変更する変更手段と、
    前記変更手段により状態が変更された仮想光源によるライティング効果を前記撮像画像に付与する付与手段と、を有することを特徴とする情報処理装置として機能させるためのプログラム。
JP2018207193A 2018-11-02 2018-11-02 情報処理装置、情報処理方法及びプログラム Active JP7262976B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018207193A JP7262976B2 (ja) 2018-11-02 2018-11-02 情報処理装置、情報処理方法及びプログラム
US16/667,146 US11151779B2 (en) 2018-11-02 2019-10-29 Information processing apparatus, information processing method, and storage medium for image display and virtual light source representation
CN201911042734.5A CN111147733B (zh) 2018-11-02 2019-10-30 信息处理设备、信息处理方法和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018207193A JP7262976B2 (ja) 2018-11-02 2018-11-02 情報処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2020071803A true JP2020071803A (ja) 2020-05-07
JP7262976B2 JP7262976B2 (ja) 2023-04-24

Family

ID=70458886

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018207193A Active JP7262976B2 (ja) 2018-11-02 2018-11-02 情報処理装置、情報処理方法及びプログラム

Country Status (3)

Country Link
US (1) US11151779B2 (ja)
JP (1) JP7262976B2 (ja)
CN (1) CN111147733B (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006023820A (ja) * 2004-07-06 2006-01-26 Keyence Corp 拡大観察装置、画像ファイル生成装置、画像ファイル生成プログラム、3次元画像表示プログラム及びコンピュータで読み取り可能な記録媒体又は記録した機器

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6980697B1 (en) 2001-02-01 2005-12-27 At&T Corp. Digitally-generated lighting for video conferencing applications
CN103135754B (zh) * 2011-12-02 2016-05-11 深圳泰山体育科技股份有限公司 采用交互设备实现交互的方法
EP2859534B1 (en) * 2012-06-11 2019-01-09 Philips Lighting Holding B.V. Method for configuring a lighting fixture in a virtual environment
CN104704435B (zh) * 2012-09-28 2017-07-18 飞利浦灯具控股公司 基于用户动作调节光管理系统中的照明参数的方法和装置
JP6646936B2 (ja) 2014-03-31 2020-02-14 キヤノン株式会社 画像処理装置、その制御方法、およびプログラム
US10593113B2 (en) * 2014-07-08 2020-03-17 Samsung Electronics Co., Ltd. Device and method to display object with visual effect
JP6476657B2 (ja) * 2014-08-27 2019-03-06 株式会社リコー 画像処理装置、画像処理方法、およびプログラム
KR102354319B1 (ko) * 2015-01-30 2022-01-21 삼성전자주식회사 오브젝트를 표시하기 위한 방법 및 전자 장치
CN105517279B (zh) 2015-11-30 2018-04-06 小米科技有限责任公司 一种发光控制的方法和装置
JP6700840B2 (ja) * 2016-02-18 2020-05-27 キヤノン株式会社 画像処理装置、撮像装置、制御方法及びプログラム
JP6942445B2 (ja) 2016-07-14 2021-09-29 キヤノン株式会社 画像処理装置、その制御方法、プログラム
US10521107B2 (en) * 2016-09-24 2019-12-31 Apple Inc. Devices, methods, and graphical user interfaces for selecting and interacting with different device modes
US10311543B2 (en) * 2016-10-27 2019-06-04 Microsoft Technology Licensing, Llc Virtual object movement
CN107197171A (zh) 2017-06-22 2017-09-22 西南大学 一种添加智能软件光源的数码拍照处理方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006023820A (ja) * 2004-07-06 2006-01-26 Keyence Corp 拡大観察装置、画像ファイル生成装置、画像ファイル生成プログラム、3次元画像表示プログラム及びコンピュータで読み取り可能な記録媒体又は記録した機器

Also Published As

Publication number Publication date
US11151779B2 (en) 2021-10-19
CN111147733A (zh) 2020-05-12
US20200143588A1 (en) 2020-05-07
CN111147733B (zh) 2021-12-03
JP7262976B2 (ja) 2023-04-24

Similar Documents

Publication Publication Date Title
US20220357800A1 (en) Systems and Methods of Creating a Realistic Displacement of a Virtual Object in Virtual Reality/Augmented Reality Environments
US11954808B2 (en) Rerendering a position of a hand to decrease a size of a hand to create a realistic virtual/augmented reality environment
KR102011169B1 (ko) 광 폴오프에 기초한 깊이 이미지의 생성 기법
US9767612B2 (en) Method, system and apparatus for removing a marker projected in a scene
JP5807686B2 (ja) 画像処理装置、画像処理方法及びプログラム
US10359906B2 (en) Haptic interface for population of a three-dimensional virtual environment
US20150277570A1 (en) Providing Onscreen Visualizations of Gesture Movements
JP2019046055A (ja) 画像処理装置、画像処理方法及びプログラム
KR101338958B1 (ko) 멀티터치 단말기에서 가상물체의 3차원 움직임 조작시스템 및 방법
US20230342024A1 (en) Systems and Methods of Interacting with a Virtual Grid in a Three-dimensional (3D) Sensory Space
JP2016525235A (ja) 文字入力のための方法及びデバイス
JP7262976B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP7293362B2 (ja) 撮影方法、装置、電子機器及び記憶媒体
US9959637B2 (en) Method and apparatus for processing border of computer figure to be merged into background image
TWI394063B (zh) 應用影像辨識之指令輸入系統以及方法
KR20180071492A (ko) 키넥트 센서를 이용한 실감형 콘텐츠 서비스 시스템
JP6008904B2 (ja) 表示制御装置、表示制御方法、及び、プログラム
CN111639611A (zh) 一种历史文物的展示控制方法及装置
KR102316389B1 (ko) 가상 오브젝트의 좌표 추정 방법
US11983401B1 (en) Systems and methods of interacting with a virtual grid in a three-dimensional (3D) sensory space
JP2017103607A (ja) 画像処理装置、画像処理方法及びプログラム
JP2020123281A (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211101

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230412

R151 Written notification of patent or utility model registration

Ref document number: 7262976

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151