JP5916248B2 - 画像生成装置、画像生成方法、プログラムおよびコンピュータ読取り可能な情報記憶媒体 - Google Patents

画像生成装置、画像生成方法、プログラムおよびコンピュータ読取り可能な情報記憶媒体 Download PDF

Info

Publication number
JP5916248B2
JP5916248B2 JP2014034249A JP2014034249A JP5916248B2 JP 5916248 B2 JP5916248 B2 JP 5916248B2 JP 2014034249 A JP2014034249 A JP 2014034249A JP 2014034249 A JP2014034249 A JP 2014034249A JP 5916248 B2 JP5916248 B2 JP 5916248B2
Authority
JP
Japan
Prior art keywords
image
color
light source
background image
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014034249A
Other languages
English (en)
Other versions
JP2015158862A (ja
Inventor
義勝 金丸
義勝 金丸
佐藤 文昭
佐藤  文昭
雄一 西澤
雄一 西澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2014034249A priority Critical patent/JP5916248B2/ja
Priority to US14/612,579 priority patent/US9563982B2/en
Publication of JP2015158862A publication Critical patent/JP2015158862A/ja
Application granted granted Critical
Publication of JP5916248B2 publication Critical patent/JP5916248B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • G06V20/36Indoor scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/144Image acquisition using a slot moved over the image; using discrete sensing elements at predetermined points; using automatic curve following means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/74Circuits for processing colour signals for obtaining special effects
    • H04N9/76Circuits for processing colour signals for obtaining special effects for mixing of colour signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability

Description

本発明は画像生成装置、画像生成方法、プログラムおよびコンピュータ読取り可能な情報記憶媒体に関する。
携帯端末などに含まれるカメラを用いて風景などを撮影し、その風景の画像に合うようなコンピュータグラフィックスの画像を重畳し、重畳された画像をその携帯端末などに含まれる表示デバイスに表示させる技術(いわゆる拡張現実技術)がある。
カメラから取得された背景の画像に3次元コンピュータグラフィックスの画像を重ね合わせると、コンピュータグラフィックスの画像の明るさや色が不自然に見えることがある。
本発明は上記課題を鑑みてなされたものであって、その目的は、カメラから取得された背景の画像に3次元コンピュータグラフィックスの画像を重ね合わせる場合に、その重ね合わせられた画像をユーザに対してより自然に見せることのできる技術を提供することにある。
上記課題を解決するために、本発明にかかる画像生成装置は、オブジェクトの画像が重ね合わせられる背景の画像を取得する背景画像取得手段と、前記背景の画像のうち1または複数の箇所について色を抽出する色抽出手段と、前記1または複数の箇所について抽出された色に基づいて前記オブジェクトを照らす光源が出力する光の色を決定する光源決定手段と、前記決定された光源の光の色に基づいて前記オブジェクトの画像を描画する描画手段と、前記オブジェクトの画像と前記背景の画像とを重畳させた出力画像を生成する出力画像生成手段と、を含む。
また、本発明にかかる画像生成方法は、オブジェクトの画像が重ね合わせられる背景の画像を取得するステップと、前記背景の画像のうち1または複数の箇所について色を抽出するステップと、前記1または複数の箇所について抽出された色に基づいて前記オブジェクトを照らす光源が出力する光の色を決定するステップと、前記決定された光源の光の色に基づいて前記オブジェクトの画像を描画するステップと、前記オブジェクトの画像と前記背景の画像とを重畳させた出力画像を生成するステップと、を含む。
また、本発明にかかるプログラムは、オブジェクトの画像が重ね合わせられる背景の画像を取得し、前記背景の画像のうち1または複数の箇所について色を抽出し、前記1または複数の箇所について抽出された色に基づいて前記オブジェクトを照らす光源が出力する光の色を決定し、前記決定された光源の光の色に基づいて前記オブジェクトの画像を描画し、前記オブジェクトの画像と前記背景の画像とを重畳させた出力画像を生成する、処理をコンピュータに実行させる。
また、本発明にかかるコンピュータ読取り可能な情報記憶媒体は、上記プログラムを格納する。
本発明によれば、カメラから取得された背景の画像に3次元コンピュータグラフィックスの画像を重ね合わせる場合に、背景の画像に、その背景の画像に応じたコンピュータグラフィックスの画像を重畳させ、本構成を有さない場合より自然な重畳された出力画像を出力することができる。
本発明の一態様では、画像処理装置は前記複数の箇所の位置を決定する位置決定手段をさらに含んでもよい。
本発明の一態様では、画像処理装置は前記背景の画像に基づいて、前記オブジェクトの表示態様を決定するオブジェクト決定手段をさらに含み、前記位置決定手段は、前記決定されたオブジェクトの表示態様に基づいて、前記複数の箇所の位置を決定してもよい。
本発明の一態様では、前記位置決定手段は、前記オブジェクトが視点から離れるにつれて、前記複数の箇所のうち最も所定の側にある箇所と、最も前記所定の側の反対側にある箇所との距離が小さくなるように前記複数の箇所の位置を決定してもよい。
この態様によれば、例えば遠くの空にあるオブジェクトがカメラに近い部屋の中の色に影響されて不自然になる現象の発生を抑えることができる。
本発明の一態様では、前記描画手段は、前記色抽出手段が抽出した前記1または複数の箇所の色に基づいて前記描画された前記オブジェクトの色を補正してもよい。
この態様によれば、例えば描画されるオブジェクトの明るさと背景画像の明るさとの違いが補正されることにより、本構成を有さない場合より自然な出力画像を出力することができる。
本発明の一態様では、前記光源決定手段は、前記背景画像を撮影するカメラと異なるカメラが取得した画像の明るさにさらに基づいて、前記オブジェクトの手前に配置される光源が出力する光の色を決定してもよい。
この態様によれば、背景画像が捉えられない光の影響をオブジェクトの画像に反映することができる。
本発明の実施形態にかかる携帯端末のハードウェア構成の一例を示す図である。 カメラを含む携帯端末と被写体との関係の一例を概略的に示す図である。 本発明の実施形態にかかる携帯端末が実現する機能を示すブロック図である。 本発明の実施形態にかかる携帯端末の処理フローの一例を示す図である。 カメラにより取得された背景画像の一例を示す図である。 描画されるオブジェクトとカメラと光源との配置の一例を示す図である。 背景画像と描画されたオブジェクトの画像とが合成された画像の一例を示す図である。
以下では、本発明の実施形態について図面に基づいて説明する。出現する構成要素のうち同一機能を有するものには同じ符号を付し、その説明を省略する。
図1は、本発明の実施形態にかかる携帯端末1のハードウェア構成の一例を示す図である。携帯端末1は、スマートフォンやタブレット端末、携帯ゲーム機などの情報端末である。携帯端末1は、プロセッサ11、記憶部12、通信部13、操作入力部14、カメラ15、表示部16を含む。
プロセッサ11は、記憶部12に格納されているプログラムに従って動作し、通信部13や操作入力部14、カメラ15、表示部16等を制御する。なお、上記プログラムは、フラッシュメモリ等のコンピュータで読み取り可能な記憶媒体に格納されて提供されるものであってもよいし、インターネット等のネットワークを介して提供されるものであってもよい。
記憶部12は、DRAMやフラッシュメモリ等のメモリ素子によって構成されている。記憶部12は、上記プログラムを格納する。また、記憶部12は、各部から入力される情報や演算結果を格納する。
通信部13は無線LANを構成する集積回路やアンテナなどにより構成されている。通信部13は、ネットワークを介して他の装置と通信する機能を有する。なお、通信部13は、有線LANに接続するための端子や回路を有していてもよい。通信部13は、プロセッサ11の制御に基づいて、他の装置から受信した情報をプロセッサ11や記憶部12に入力し、他の装置に情報を送信する。
操作入力部14は、ユーザからの入力を検出するハードウェアであり、例えばタッチパネルやボタンである。操作入力部14は、プロセッサ11の制御に基づいてユーザの物理的な入力を検出し、検出された情報をプロセッサ11や記憶部12に入力する。
カメラ15は撮像素子やレンズを含み、プロセッサ11の制御に基づいてカメラ15の前方にある物体などの画像を撮影し、その画像を示す信号を出力する。本実施形態におけるカメラ15は、カメラの前方の一定の範囲のみを撮影するものであり、全方向の画像を撮影するものではない。
表示部16はディスプレイ等の表示出力デバイスと、それを制御する回路とを含んでいる。表示部16は、プロセッサ11の制御に基づいて、表示出力デバイスに画像を表示させる。
次に本実施形態にかかる携帯端末1を利用する環境の概要を説明する。図2は、カメラ15を含む携帯端末1と被写体との関係の一例を概略的に示す図である。ユーザ2は携帯端末1のカメラ15を用いて撮影範囲31内にある机や窓などの物体の画像を撮影し、携帯端末1はその撮影された画像を背景の画像として、その背景の画像に3次元のコンピュータグラフィックスの画像を重畳させた出力画像のデータを生成する。携帯端末1は生成された出力画像を携帯端末1に内蔵されているディスプレイに表示する。携帯端末1が撮影するのは静止画であってもよいし動画であってもよい。なお、本実施形態で撮影され、処理の対象となるのはあくまでカメラ15からみて前方の撮影範囲31内にある被写体となる物体であり、撮影範囲31の外にある物体の画像は用いない。また撮影範囲31の外の画像を反射により撮影させるための球状の鏡などを撮影範囲31内に設置することは想定していない。
以下では上述の画像処理を実現する方法について説明する。図3は、本発明の実施形態にかかる携帯端末1が実現する機能を示すブロック図である。携帯端末1は機能的に、背景画像取得部51、抽出位置決定部52、色抽出部53、光源決定部54、オブジェクト描画部55、出力画像生成部56、オブジェクト決定部57を含む。これらの機能は、プロセッサ11が記憶部12に格納されるプログラムを実行し、操作入力部14やカメラ15、表示部16を制御することで実現される。
背景画像取得部51は、プロセッサ11、記憶部12およびカメラ15を中心として実現される。背景画像取得部51は、カメラ15が撮影した画像であって、3次元コンピュータグラフィックスの画像であるオブジェクトの画像が重ね合わせられる背景の画像(以下では「背景画像」と記載する)を取得する。なお、背景画像取得部51は、その背景画像の取得を繰返し行うことで動画の1フレームの画像を取得してもよいし、ユーザ2が指定した瞬間の静止画の画像を取得してもよい。ここで、背景画像取得部51は図2に示すようにカメラ15の撮影方向にある撮影範囲31の内にある物体の画像を背景画像として撮影する。
オブジェクト決定部57は、プロセッサ11および記憶部12を中心として実現される。オブジェクト決定部57は、背景画像に基づいて、背景画像に重ね合わせられるオブジェクトの表示位置や向きなど(表示態様)を決定する。
抽出位置決定部52は、プロセッサ11および記憶部12を中心として実現される。抽出位置決定部52は、オブジェクトの表示位置や向きに基づいて、背景画像内の複数の箇所の位置を決定する。この複数の箇所は色が抽出される箇所である。また抽出位置決定部52は、背景画像に重ね合わせられるオブジェクトがカメラ15に相当する画像描画における視点の位置から離れるにつれて、その複数の箇所が狭い範囲に存在するようにその複数の箇所の位置を決定してもよい。その場合、例えば、背景画像に重ね合わせられるオブジェクトがカメラ15に相当する位置から離れるにつれて、その複数の箇所のうち最も右側や上側(ある方向の側の端)にある箇所と、最も左側や下側(反対側の端)にある箇所との距離が小さくなってよい。なお、色を抽出する箇所の数は1であってもよい。
色抽出部53は、プロセッサ11および記憶部12を中心として実現される。色抽出部53は、背景画像取得部51により取得された背景画像のうち、抽出位置決定部52により決定された箇所のそれぞれについて色を抽出する。なお、色抽出部53が抽出する色は、カメラ15の撮影範囲31の内に存在する物体の色となる。
光源決定部54は、プロセッサ11および記憶部12を中心として実現される。光源決定部54は、1または複数の箇所のそれぞれについて抽出された色に基づいて、仮想空間内でオブジェクトの手前に配置される光源が出力する光の色を決定する。
オブジェクト描画部55は、プロセッサ11および記憶部12を中心として実現される。オブジェクト描画部55は決定された光源の光の色に基づいて仮想空間にあるオブジェクトの画像を描画する。また、オブジェクト描画部55は色抽出部53が抽出した1または複数の箇所の色に基づいて描画されたオブジェクトの色を補正する。より具体的には、オブジェクト描画部55は色抽出部53が抽出した1または複数の箇所の色に基づく調整値(例えば複数の箇所の色の輝度平均の値)を、描画されたオブジェクトの色の値に乗算することで、オブジェクトの色を補正する。
出力画像生成部56は、プロセッサ11、記憶部12および表示部16を中心として実現される。出力画像生成部56は描画されたオブジェクトの画像と背景画像とを重畳させた出力画像を生成し、生成された出力画像を表示部16に表示させる。
図4は、本発明の実施形態にかかる携帯端末1の処理フローの一例を示す図である。以降では処理フローに基づいて携帯端末1が実現する機能について説明する。ここで、動画に対してオブジェクトを重ねる場合には、図4に示す処理はある期間が経過するたびに繰返し行われる。
はじめに、背景画像取得部51は、カメラ15が撮影した背景画像のデータを取得する(ステップS101)。カメラ15は、カメラ15より前方(撮影方向)にある物体の画像を背景画像として撮影し、背景画像取得部51はその背景画像のデータを取得する。なお、動画に対する処理をする場合には、背景画像取得部51は、背景画像のデータをある時間が経過するごとに繰り返し取得し、背景画像のデータを取得するたびに抽出位置決定部52などに以降の処理を実行させる。
図5は、カメラ15により取得された背景画像の一例を示す図である。図5に示す背景画像は図2の撮影範囲31内の物体の画像であり、3次元のオブジェクト42の画像が重ね合わせられる背景の画像である。なお、図5には後述する抽出領域32、下抽出領域33、オブジェクト42が配置される仮想的な位置も記載している。図5では、窓の部分が明るく、また机は赤などの特定の色であるとする。
次に、オブジェクト決定部57は、背景画像に基づいて、オブジェクト42の仮想空間内の位置や向きなどを決定する(ステップS102)。より具体的には、オブジェクト決定部57は、背景画像からマーカとなる物体(例えば図5におけるテーブル)を認識し、またそのマーカの実空間内の3次元位置と姿勢とを推定する。そして、オブジェクト決定部57は、そのマーカに関連づけられたコンテンツとなるオブジェクトの描画用データと、マーカとの相対位置および姿勢とを記憶部12から取得し、推定された3次元位置や姿勢と取得された相対位置(例えばオブジェクト42とテーブルとの相対位置を示すベクトル)とに基づいて、オブジェクト42の仮想の3次元空間での中心位置や姿勢を決定する。ここで、背景画像からマーカを認識する画像認識技術や、そのマーカに対応するオブジェクト42の位置を決定する処理は公知のものであり、例えば国際公開第2013/061504号にも記載されている。
次に、抽出位置決定部52は、オブジェクト42の仮想の3次元空間での中心位置に基づいて、オブジェクト42の画像を背景画像に重ね合わせた場合におけるオブジェクト42の中心の背景画像内の座標および深さを計算する(ステップS103)。抽出位置決定部52は、中心の背景画像における位置を示す座標を、3次元空間におけるオブジェクト42の中心位置とディスプレイ(背景画像)に相当する平面とを用いた公知の透視変換をすることなどにより取得する。また抽出位置決定部52は、オブジェクト42の中心位置の深さを計算する。深さは、カメラ15に相当する視点の位置を原点とし、撮影方向をz軸とする座標系におけるz座標に相当する。深さは、仮想空間上のカメラ15に相当する位置と、仮想空間におけるオブジェクト42の中心位置との距離であってもよい。抽出位置決定部52は、さらに、オブジェクト42の中心位置やオブジェクト42を構成するスケルトンやメッシュなどの配置に基づいて、オブジェクト42が背景画像内でどの程度の大きさとなるかを計算してもよい。大きさは、中心位置からオブジェクト42の端までの背景画像内の長さの最大値や平均値であってよい。なお、オブジェクト42の中心は厳密である必要はなく、オブジェクト42内にある基準となる位置であればよい。
抽出位置決定部52は、オブジェクト42の中心の座標や深さに基づいて、背景画像のうち色を抽出する箇所を決定する(ステップS104)。なお、色を抽出する箇所は領域であっても点であってもよい。以下では色を抽出する箇所が領域(抽出領域32)であるとして説明する。図5に示す抽出領域32の数は9であり、抽出領域32の配置は3行3列である。抽出位置決定部52は、抽出領域32のうち最もある方向の側(例えば上側や左側)にあるものと、最もその反対側(例えば下側や右側)にあるものとの距離が、計算された深さが大きくなる(オブジェクト42がカメラ15に相当する位置から離れる)につれて小さくなるように複数の抽出領域32の位置を決定する。また抽出位置決定部52は、オブジェクト42が小さくなるにつれてその距離が小さくなるように複数の抽出領域32の位置を決定してもよい。
例えば、オブジェクト42の中央の座標を(xc,yc)とし、オブジェクト42の中央の深さをz1、オブジェクト42の大きさをsとした場合に、m行n列目の抽出領域の座標(x1,y1)は、以下の式で表される。
Figure 0005916248
ここで、AおよびBは画像の大きさなどの特性に応じて定まる定数である。この式では中央の抽出領域32の座標とオブジェクト42の中央位置とが同じことを前提としているが、抽出位置決定部52は中央の抽出領域32の座標をオブジェクト42によらず固定として複数の抽出領域32の位置を算出してもよい。なお抽出位置決定部52は、中央などの一部を除く抽出領域32が、オブジェクト42が描画される部分より外側に存在するように抽出領域32の位置を決定する。
また、抽出位置決定部52は下抽出領域33の位置も決定する。下抽出領域33は仮にオブジェクト42が背景画像に描画された場合にそのオブジェクト42の下端より下となり、かつ最も下側にある抽出領域32より上となる位置に決定される。
そして、色抽出部53は、背景画像のうち決定された箇所から色を抽出する(ステップS105)。より具体的には、色抽出部53は決定された抽出領域32のそれぞれについて、その抽出領域32内の色の値を平均化した値(例えばRGB値)を抽出された色として取得する。抽出領域32内の色の値を平均化すると、背景画像の細かな模様などの影響を除くことができる。また、背景画像のノイズによる影響を除くために、色抽出部53はそれぞれの抽出領域32の色の値の時系列データを統計的に処理することで色を抽出してもよい。例えば、抽出領域32の色の値の時系列データにローパスフィルタを適用し、結果として計算されたフィルタ後の時系列データのうち現時点での色の値を抽出された色としてもよいし、単に時系列データを平均化して取得した色の値を抽出された色の値としてもよい。また、色抽出部53は、抽出領域32と同様の方法で、下抽出領域33から色を抽出する。
次に、光源決定部54は、仮想空間内でオブジェクト42の手前(オブジェクト42からみて視点側)に配置される前側光源43の発光色を決定する(ステップS106)。より具体的には、光源決定部54は各抽出領域32について抽出された色に基づいて、オブジェクト42の手前に配置される抽出領域32と同じ数の前側光源43のそれぞれについて発光色を決定する。抽出領域32と前側光源43とは1対1に対応づけられており、光源決定部54は、各前側光源43に対応する抽出領域32から抽出された色をその前側光源43の発光色として決定してよい。また、光源決定部54は、下抽出領域33から抽出された色に基づいて、オブジェクト42の下に配置される下側光源44の発光色を決定する(ステップS106)。下側光源44の発光色は下抽出領域33から抽出された色であってよい。なお、光源決定部54は、前側光源43や下側光源44の発光色として抽出された色の明るさなどが修正された色を決定してもよい。
図6は、描画されるオブジェクト42と視点41と光源との配置の一例を示す図である。図6は仮想空間内のオブジェクト42や前側光源43、下側光源44を横から見た図であり、複数の前側光源43のうち一部は省略されている。仮想空間における視点41はカメラ15に相当する位置を示している。投影面47はディスプレイで画像が表示される領域に相当し、描画範囲46内のオブジェクト42の画像が後にオブジェクト描画部55により描画される。中心軸45はカメラ15の撮影方向に相当し、視点41から見た投影面47の中心の向きを示す。図6の例では、オブジェクト42は光を散乱する表面を有する球体であるとする。ここでは投影面47の描画範囲が背景画像の全体に相当するものとする。
前側光源43の位置は、視点41および中心軸45の方向に応じて定まり、視点41の位置や中心軸45が動くと光源の位置も移動する。より具体的には、例えば視点41に対する前側光源43のそれぞれの相対位置は定まっており、視点41の位置と中心軸45の方向と、その相対位置に基づいて各前側光源43の位置が計算される。その相対位置はオブジェクト42の大きさや形などの特性に応じて切り替えられてもよい。また相対位置を示す関数、例えば視点41の位置と中心軸45の方向とオブジェクト42の大きさとの関数により前側光源43の位置が求められてもよい。下側光源44は、オブジェクト42の下に配置される。
次に、オブジェクト描画部55は、前側光源43や下側光源44を用いて、オブジェクト42の画像を描画する(ステップS107)。この処理はいわゆるレンダリング処理である。
そして、オブジェクト描画部55は、複数の抽出領域32等について抽出された色に基づく調整値を、描画されたオブジェクト42の画像の色の値に乗算する(ステップS108)。オブジェクト描画部55は、例えば抽出領域32や下抽出領域33から抽出した色の輝度平均を調整値として取得し、その調整値を色の値に乗算する。こうすることで、描画されるオブジェクト42全体の明るさを背景画像にあわせることが可能となる。
次に、出力画像生成部56は、描画されたオブジェクト42の画像と背景画像とが重畳された出力画像を生成し(ステップS109)、その重畳された出力画像を表示させる(ステップS110)。
図7は、背景画像と描画されたオブジェクト42の画像とが合成された出力画像の一例を示す図である。図7では、背景画像の右側や下側が暗いことに対応して、オブジェクト42の画像でも右下側が少し暗くなり、また机の色の色味もオブジェクト42の色に反映されている。平面的な画像である背景画像から抽出される色、言い換えれば実際には少なくとも一部がオブジェクト42の向こう側に相当する抽出領域32から抽出された色を用いてオブジェクト42のこちら側の色を変更することになる。そのためこの処理は、光の反射や散乱の物理的な法則には従っていない。しかしながら、例えばマーカとなる物体であるテーブルの色などの周辺の色をある程度反映することができる。オブジェクト42の表面が鏡面でなく、表面が光を拡散および散乱する特性を有する場合には、これでもオブジェクト42の画像をユーザからみて自然なものとすることが可能となる。
また、大局照明による反射といった物理法則を正確に表現したオブジェクトを描画する従来の手法としてIBL(Image Based Lighting)があるが、この手法では、鏡面であっても正確に表現できるものの、オブジェクトの位置からみた周囲の画像が必要になる。この周囲の画像を取得するには、魚眼レンズを有するような特殊なカメラ、または球状の鏡をオブジェクト42の位置に置く必要があるため、ユーザにとって手間がかかっており、エンドユーザが気楽に利用できるものではなかった。
一方、ここで説明した前側光源43等を用いた方法では、そのような手間を掛けることなく自然なオブジェクト42を楽しむことができる。また背景画像の解像度に比べて少ない数の光源を用いる簡潔な処理であるのでIBLに比べて処理時間も少なく、携帯端末1で撮影した画像にリアルタイムでオブジェクト42の画像を重畳させることができる。
また、抽出位置決定部52は、背景画像に重ね合わせられるオブジェクトがカメラ15に相当する位置から離れるにつれて、その複数の箇所が狭い範囲に存在するようにその複数の箇所の位置を決定している。これにより、例えば遠くの空の中に配置されるオブジェクト42の画像については背景画像でそのオブジェクト42の位置のそばにある空の色だけを反映するようにしてカメラ15のそばの物体の影響を減らすことができる。またサイズも考慮することで、例えば机の下の奥に配置される小さなオブジェクトについて、机の下以外の物体の色による影響を抑えることも可能になる。
なお、光源決定部54の光源の発光色の決定の方法は、これまでに説明したものには限られない。例えば、光源決定部54は、オブジェクト42の裏側となる抽出領域32(例えば中央の抽出領域32)に対応する前側光源43の色の輝度が、その抽出領域32から抽出された色の輝度より小さくなるようにしてもよい。オブジェクト42の裏側にある抽出領域32の色がオブジェクト42の前側の色に反映される可能性は他の抽出領域32の色に比べて低いため、例えば逆光などの場合により自然なオブジェクト42を描画することが可能となる。また、オブジェクト42の裏側となる抽出領域32に対応する前側光源43を設けないことで同様の効果を得てもよい。
さらに、光源決定部54は、中央の抽出領域32から抽出された色と他の抽出領域32(の平均)から抽出された色との間で輝度の差が所定の値より大きく、中央の抽出領域32の輝度が他の抽出領域32の輝度より大きい場合には、オブジェクト42の後方、つまり視点41からみてオブジェクト42の向こう側に光源を配置し、その光源からオブジェクト42に光を照射することで、リムライトやフレネルの効果を得るようにしてもよい。このようにすることで、逆光による光の溢れも表現される。
また、光源決定部54は、背景画像を撮影するカメラと異なるカメラが取得した画像の明るさにさらに基づいて、前側光源43が出力する光の色を決定してもよい。より具体的には、携帯端末1が、フロントカメラとリアカメラのように、互いに反対方向の画像を撮影することができる場合には、光源決定部54は、両方のカメラが撮影した画像を用いて光源の発光色を決めてもよい。例えば、リアカメラが撮影した背景画像として撮影した画像の平均輝度と、フロントカメラが撮影した参考画像の平均輝度との差が閾値より大きい場合には、前側光源43の明るさを調整してもよい。例えば、背景画像より参考画像が明るい場合にはオブジェクト42の前側にフロントカメラ側からの光が当たると思われるので、それを反映するように前側光源43の色が明るくなるように調整し、逆の場合には前側光源43の色が暗くなるように調整してよい。
また、出力画像生成部56は、背景画像の中央部が切り出された画像とオブジェクト42が重畳された画像を出力画像として出力してもよい。さらにいえば、抽出領域32の一部が切り出された画像の外にあってもよい。こうすると、表示される画面の外の大局照明の影響も反映することが可能になる。
なお、上述の実施形態ではカメラと表示部とを有する携帯端末に本発明を適用する場合について主に記載しているが、ハードウェア構成はこれに限られない。例えば画像処理を行うコンピュータ(据置型のゲーム機やパーソナルコンピュータなど)とは別に、カメラや表示部が設けられてもよい。カメラや表示部とコンピュータとが接続されていれば、同様の処理が実現できる。
1 携帯端末、2 ユーザ、11 プロセッサ、12 記憶部、13 通信部、14 操作入力部、15 カメラ、16 表示部、51 背景画像取得部、52 抽出位置決定部、53 色抽出部、54 光源決定部、55 オブジェクト描画部、56 出力画像生成部、57 オブジェクト決定部、31 撮影範囲、32 抽出領域、33 下抽出領域、41 視点、42 オブジェクト、43 前側光源、44 下側光源、45 中心軸、46 描画範囲、47 投影面。

Claims (9)

  1. オブジェクトの画像が重ね合わせられる背景の画像を取得する背景画像取得手段と、
    前記背景の画像のうち複数の箇所について色を抽出する色抽出手段と、
    前記オブジェクトを照らす複数の光源のそれぞれが出力する光の色を、前記複数の箇所のうち前記光源の位置に対応する箇所について抽出された色に基づいて決定する光源決定手段と、
    前記決定された光源の光の色に基づいて前記オブジェクトの画像を描画する描画手段と、
    前記オブジェクトの画像と前記背景の画像とを重畳させた出力画像を生成する出力画像生成手段と、
    を含むことを特徴とする画像生成装置。
  2. 前記複数の箇所の位置を決定する位置決定手段をさらに含む、
    ことを特徴とする請求項1に記載の画像生成装置。
  3. 前記背景の画像に基づいて、前記オブジェクトの表示態様を決定するオブジェクト決定手段をさらに含み、
    前記位置決定手段は、前記決定されたオブジェクトの表示態様に基づいて、前記複数の箇所の位置を決定する、
    ことを特徴とする請求項2に記載の画像生成装置。
  4. 前記位置決定手段は、前記オブジェクトが視点から離れるにつれて、前記複数の箇所のうち最も所定の側にある箇所と、最も前記所定の側の反対側にある箇所との距離が小さくなるように前記複数の箇所の位置を決定する、
    ことを特徴とする請求項2または3に記載の画像生成装置。
  5. 前記描画手段は、前記色抽出手段が抽出した前記1または複数の箇所の色に基づいて前記描画された前記オブジェクトの色を補正する、
    ことを特徴とする請求項1から4のいずれかに記載の画像生成装置。
  6. 前記光源決定手段は、前記背景画像を撮影するカメラと異なるカメラが取得した画像の明るさにさらに基づいて、前記オブジェクトの手前に配置される光源が出力する光の色を決定する、
    ことを特徴とする請求項1から5のいずれかに記載の画像生成装置。
  7. オブジェクトの画像が重ね合わせられる背景の画像を取得するステップと、
    前記背景の画像のうち複数の箇所について色を抽出するステップと、
    前記オブジェクトを照らす複数の光源のそれぞれが出力する光の色を、前記複数の箇所のうち前記光源の位置に対応する箇所について抽出された色に基づいて決定するステップと、
    前記決定された光源の光の色に基づいて前記オブジェクトの画像を描画するステップと、
    前記オブジェクトの画像と前記背景の画像とを重畳させた出力画像を生成するステップと、
    を含むことを特徴とする画像生成方法。
  8. オブジェクトの画像が重ね合わせられる背景の画像を取得し、
    前記背景の画像のうち複数の箇所について色を抽出し、
    前記オブジェクトを照らす複数の光源のそれぞれが出力する光の色を、前記複数の箇所のうち前記光源の位置に対応する箇所について抽出された色に基づいて決定し、
    前記決定された光源の光の色に基づいて前記オブジェクトの画像を描画し、
    前記オブジェクトの画像と前記背景の画像とを重畳させた出力画像を生成する、
    処理をコンピュータに実行させるためのプログラム。
  9. オブジェクトの画像が重ね合わせられる背景の画像を取得し、
    前記背景の画像のうち複数の箇所について色を抽出し、
    前記オブジェクトを照らす複数の光源のそれぞれが出力する光の色を、前記複数の箇所のうち前記光源の位置に対応する箇所について抽出された色に基づいて決定し、
    前記決定された光源の光の色に基づいて前記オブジェクトの画像を描画し、
    前記オブジェクトの画像と前記背景の画像とを重畳させた出力画像を生成する、
    処理をコンピュータに実行させるためのプログラムを格納するコンピュータ読取り可能な情報記憶媒体。
JP2014034249A 2014-02-25 2014-02-25 画像生成装置、画像生成方法、プログラムおよびコンピュータ読取り可能な情報記憶媒体 Active JP5916248B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014034249A JP5916248B2 (ja) 2014-02-25 2014-02-25 画像生成装置、画像生成方法、プログラムおよびコンピュータ読取り可能な情報記憶媒体
US14/612,579 US9563982B2 (en) 2014-02-25 2015-02-03 Image generating device, image generating method, program, and computer-readable information storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014034249A JP5916248B2 (ja) 2014-02-25 2014-02-25 画像生成装置、画像生成方法、プログラムおよびコンピュータ読取り可能な情報記憶媒体

Publications (2)

Publication Number Publication Date
JP2015158862A JP2015158862A (ja) 2015-09-03
JP5916248B2 true JP5916248B2 (ja) 2016-05-11

Family

ID=53882725

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014034249A Active JP5916248B2 (ja) 2014-02-25 2014-02-25 画像生成装置、画像生成方法、プログラムおよびコンピュータ読取り可能な情報記憶媒体

Country Status (2)

Country Link
US (1) US9563982B2 (ja)
JP (1) JP5916248B2 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10509533B2 (en) 2013-05-14 2019-12-17 Qualcomm Incorporated Systems and methods of generating augmented reality (AR) objects
US10134064B2 (en) * 2014-06-27 2018-11-20 Ledvance Llc Lighting audit and LED lamp retrofit
US9727977B2 (en) * 2014-12-29 2017-08-08 Daqri, Llc Sample based color extraction for augmented reality
US9727957B2 (en) 2015-12-18 2017-08-08 Ebay Inc. Source image providing multiple item views
US10380714B2 (en) * 2017-09-26 2019-08-13 Denso International America, Inc. Systems and methods for ambient animation and projecting ambient animation on an interface
US10922878B2 (en) * 2017-10-04 2021-02-16 Google Llc Lighting for inserted content
KR102559202B1 (ko) * 2018-03-27 2023-07-25 삼성전자주식회사 3d 렌더링 방법 및 장치
CN109189281A (zh) * 2018-06-29 2019-01-11 努比亚技术有限公司 壁纸与图标的颜色适配方法、终端及计算机存储介质
US11582441B2 (en) 2018-12-04 2023-02-14 Maxell, Ltd. Head mounted display apparatus
JP7365981B2 (ja) 2020-08-27 2023-10-20 Kddi株式会社 情報端末装置、方法及びプログラム
US11651557B2 (en) * 2021-01-12 2023-05-16 Ford Global Technologies, Llc Systems and methods of using mixed reality for interacting with a display system
KR102482262B1 (ko) * 2021-10-12 2022-12-28 주식회사 테스트웍스 객체 분할과 배경 합성을 이용한 데이터 증강 장치 및 방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5646263B2 (ja) * 2010-09-27 2014-12-24 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法
JP2013214158A (ja) * 2012-03-30 2013-10-17 Ntt Comware Corp 表示画像検索装置、表示制御システム、表示制御方法、およびプログラム

Also Published As

Publication number Publication date
US20150243084A1 (en) 2015-08-27
US9563982B2 (en) 2017-02-07
JP2015158862A (ja) 2015-09-03

Similar Documents

Publication Publication Date Title
JP5916248B2 (ja) 画像生成装置、画像生成方法、プログラムおよびコンピュータ読取り可能な情報記憶媒体
US10223834B2 (en) System and method for immersive and interactive multimedia generation
US10002463B2 (en) Information processing apparatus, information processing method, and storage medium, for enabling accurate detection of a color
US10304164B2 (en) Image processing apparatus, image processing method, and storage medium for performing lighting processing for image data
US20210358204A1 (en) Image processing apparatus, image processing method, and storage medium
JP7007348B2 (ja) 画像処理装置
JP2017059235A (ja) イメージの明るさを調整する方法及び装置
TWI610571B (zh) 顯示方法及其系統與電腦可讀取記錄媒體
JP2014238731A (ja) 画像処理装置、画像処理システム、および画像処理方法
CN108648225B (zh) 目标图像获取系统与方法
CN108683902B (zh) 目标图像获取系统与方法
KR20170031733A (ko) 디스플레이를 위한 캡처된 이미지의 시각을 조정하는 기술들
TWI701941B (zh) 圖像處理方法及裝置、電子設備及儲存介質
JP2013235537A (ja) 画像作成装置、画像作成プログラム、及び記録媒体
JP7391542B2 (ja) 画像処理システム、画像処理方法、およびプログラム
JP2019012881A (ja) 撮像制御装置及びその制御方法
US20220189078A1 (en) Image processing apparatus, method for controlling image processing apparatus, and storage medium
JP2018163648A (ja) 画像処理装置、画像処理方法、及びプログラム
US20190066366A1 (en) Methods and Apparatus for Decorating User Interface Elements with Environmental Lighting
CN109427089B (zh) 基于环境光照条件的混合现实对象呈现
CN113870213A (zh) 图像显示方法、装置、存储介质以及电子设备
JP2016123517A (ja) プログラム及びコンピュータシステム
KR102459851B1 (ko) 이미지의 밝기를 조절하는 방법 및 장치
KR101488647B1 (ko) 모바일 단말의 가상 조명 동작방법 및 장치
JPWO2018189880A1 (ja) 情報処理装置、情報処理システム、および画像処理方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160404

R150 Certificate of patent or registration of utility model

Ref document number: 5916248

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250