JP2017098596A - 画像生成方法及び画像生成装置 - Google Patents
画像生成方法及び画像生成装置 Download PDFInfo
- Publication number
- JP2017098596A JP2017098596A JP2015225534A JP2015225534A JP2017098596A JP 2017098596 A JP2017098596 A JP 2017098596A JP 2015225534 A JP2015225534 A JP 2015225534A JP 2015225534 A JP2015225534 A JP 2015225534A JP 2017098596 A JP2017098596 A JP 2017098596A
- Authority
- JP
- Japan
- Prior art keywords
- image
- point
- pixel
- hue
- viewpoint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】観察者の注視点にピントが合い、且つ、自然な立体感を感じさせる画像を生成する技術を提供する。【解決手段】コントラスト感度関数を用いて、物体にピントが合った画像を元に、注視点とは異なる奥行位置にある点に対応する画素の色座標を計算することによって、注視点からのずれ量に合わせた焦点ぼけおよび色ずれを再現した画像を生成する。【選択図】図4
Description
本発明は、観察者に自然な立体感を感じさせる画像を生成する技術に関する。
従来より、観察者に自然な立体感を感じさせるための方法や、表示画像の見えを実際の物の見え方に近づける方法などが提案されている。特許文献1によれば、撮影画像における主被写体の前後に位置する物体に対して擬似的な焦点ずれに対応させたぼけ効果を加えることにより、撮影画像の立体感を高める画像処理が可能であり、ぼけ味はカメラのレンズ理論に基づいて決定される。特許文献2は、左右に視差のある三次元画像表示装置において、左右それぞれの単眼について、注視点の距離にある物体の表面に焦点を合わせ、それ以外の部分については注視点からの距離差に応じて輝度の焦点ぼけ処理を施した画像を形成する方法を開示する。
しかしながら、従来方法のように物体までの距離による補正では、ぼけによる遠近感を与えることはできるが、原理的に色の補正はできない。色が補正されないと、十分に立体感のある画像が得られない。また、撮像装置のレンズ収差によるボケと人のボケの感覚が一致するとは言えない。
従来のアプローチは、いずれも、網膜上に形成される像(網膜像)を同じにすれば、人間には同じものとして認識される、という前提に立っている。しかしながら、本発明者の研究により、この前提が成立しない場合が多くあり、従来のアプローチには限界があることが分かってきた。
人間の視覚には、コントラスト感度とよばれる特性があり、明暗や色が周期的に変化する画像を水晶体のレンズ機能により網膜上に結像した時に、その周期に応じて感度が異なる。このため、人間は外界の物体を見る時に、その網膜像を構成する周波数ごとにコントラスト感度を乗じた結果を再合成して、被写体を見ていると考えられる。すなわち、人間は、外界の物理的な状態をコントラスト感度により歪んで補正した視覚情報として認識しているのである。そのため、仮に、網膜像を完全に一致させることができたとしても、人間が認識する視覚情報が異なり、違うものとして感じる場合があり得る。ここに、網膜像を一致させようとする従来のアプローチの限界(課題)がある。
本発明は上記実情に鑑みなされたものであって、観察者の注視点にピントが合い、且つ、自然な立体感を感じさせる画像を生成する技術を提供することを目的とする。
本発明の第一態様は、物体上のある点を注視したときに認識される視覚情報を再現する画像を生成する画像生成方法であって、前記物体の第一の画像を取得するステップと、前記物体上の各点の奥行位置を表す奥行情報を取得するステップと、前記物体に対する観察者の注視点を表す視線情報を取得するステップと、前記第一の画像、前記奥行情報、およ
び、前記視線情報に基づき、実際の物体上の前記注視点を注視したときに認識される視覚情報を再現する第二の画像を生成する生成ステップと、を有し、観察者の視点をAとし、前記第一の画像をX、前記第二の画像をPとし、前記物体上の前記注視点をB、注視点Bとは異なる奥行位置にある前記物体上の点をCとし、点Cの位置に画像Xを配置し、視点Aから画像Xを観たときの画像Xの見込み角の範囲内で定義される空間周波数をfxとし、注視点Bの位置に画像Pを配置し、視点Aから画像Pを観たときの画像Pの見込み角の範囲内で定義される空間周波数をfpとし、空間周波数をωで表すときの、視覚の明度L*のコントラスト感度関数をCL(ω)、視覚の第一の色相a*のコントラスト感度関数をCa(ω)、視覚の第二の色相b*のコントラスト感度関数をCb(ω)とし、空間周波数fxにより画像Xの明度L*の分布をフーリエ変換した結果をFL(fx)、空間周波数fxにより画像Xの第一の色相a*の分布をフーリエ変換した結果をFa(fx)、空間周波数fxにより画像Xの第二の色相b*の分布をフーリエ変換した結果をFb(fx)とし、空間周波数fpにより画像Pの明度L*の分布をフーリエ変換した結果をFL(fp)、空間周波数fpにより画像Pの第一の色相a*の分布をフーリエ変換した結果をFa(fp)、空間周波数fpにより画像Pの第二の色相b*の分布をフーリエ変換した結果をFb(fp)とし、画像Xにおいて点Cに対応する画素を画素c1、画像Pにおいて点Cに対応する画素を画素c2とし、画像X上の画素c1を視点Aから観たときの方位角をΦ1、画像P上の画素c2を視点Aから観たときの方位角をΦ2とすると、
前記生成ステップでは、画像Pの画素c2を生成する場合に、点Cに焦点の合った画像を画像Xとして用い、
FL(fp)=FL(fx)×CL(fx)÷CL(fp)
Fa(fp)=Fa(fx)×Ca(fx)÷Ca(fp)
Fb(fp)=Fb(fx)×Cb(fx)÷Cb(fp)
fp=fx×Φ1÷Φ2
によりFL(fp)、Fa(fp)、Fb(fp)を計算し、
FL(fp)、Fa(fp)、Fb(fp)を逆フーリエ変換することにより得られる明度L*、第一の色相a*、第二の色相b*それぞれの分布から、画像Pの画素c2の色座標を計算することを特徴とする画像生成方法である。
び、前記視線情報に基づき、実際の物体上の前記注視点を注視したときに認識される視覚情報を再現する第二の画像を生成する生成ステップと、を有し、観察者の視点をAとし、前記第一の画像をX、前記第二の画像をPとし、前記物体上の前記注視点をB、注視点Bとは異なる奥行位置にある前記物体上の点をCとし、点Cの位置に画像Xを配置し、視点Aから画像Xを観たときの画像Xの見込み角の範囲内で定義される空間周波数をfxとし、注視点Bの位置に画像Pを配置し、視点Aから画像Pを観たときの画像Pの見込み角の範囲内で定義される空間周波数をfpとし、空間周波数をωで表すときの、視覚の明度L*のコントラスト感度関数をCL(ω)、視覚の第一の色相a*のコントラスト感度関数をCa(ω)、視覚の第二の色相b*のコントラスト感度関数をCb(ω)とし、空間周波数fxにより画像Xの明度L*の分布をフーリエ変換した結果をFL(fx)、空間周波数fxにより画像Xの第一の色相a*の分布をフーリエ変換した結果をFa(fx)、空間周波数fxにより画像Xの第二の色相b*の分布をフーリエ変換した結果をFb(fx)とし、空間周波数fpにより画像Pの明度L*の分布をフーリエ変換した結果をFL(fp)、空間周波数fpにより画像Pの第一の色相a*の分布をフーリエ変換した結果をFa(fp)、空間周波数fpにより画像Pの第二の色相b*の分布をフーリエ変換した結果をFb(fp)とし、画像Xにおいて点Cに対応する画素を画素c1、画像Pにおいて点Cに対応する画素を画素c2とし、画像X上の画素c1を視点Aから観たときの方位角をΦ1、画像P上の画素c2を視点Aから観たときの方位角をΦ2とすると、
前記生成ステップでは、画像Pの画素c2を生成する場合に、点Cに焦点の合った画像を画像Xとして用い、
FL(fp)=FL(fx)×CL(fx)÷CL(fp)
Fa(fp)=Fa(fx)×Ca(fx)÷Ca(fp)
Fb(fp)=Fb(fx)×Cb(fx)÷Cb(fp)
fp=fx×Φ1÷Φ2
によりFL(fp)、Fa(fp)、Fb(fp)を計算し、
FL(fp)、Fa(fp)、Fb(fp)を逆フーリエ変換することにより得られる明度L*、第一の色相a*、第二の色相b*それぞれの分布から、画像Pの画素c2の色座標を計算することを特徴とする画像生成方法である。
本発明の第二態様は、物体上のある点を注視したときに認識される視覚情報を再現する画像を生成する画像生成装置であって、前記物体の第一の画像および前記物体上の各点の奥行位置を表す奥行情報を取得する画像取得部と、前記物体に対する観察者の注視点を表す視線情報を取得する視線情報取得部と、前記第一の画像、前記奥行情報、および、前記視線情報に基づき、実際の物体上の前記注視点を注視したときに認識される視覚情報を再現する第二の画像を生成する変換部と、を有し、観察者の視点をAとし、前記第一の画像をX、前記第二の画像をPとし、前記物体上の前記注視点をB、注視点Bとは異なる奥行位置にある前記物体上の点をCとし、点Cの位置に画像Xを配置し、視点Aから画像Xを観たときの画像Xの見込み角の範囲内で定義される空間周波数をfxとし、注視点Bの位置に画像Pを配置し、視点Aから画像Pを観たときの画像Pの見込み角の範囲内で定義される空間周波数をfpとし、空間周波数をωで表すときの、視覚の明度L*のコントラスト感度関数をCL(ω)、視覚の第一の色相a*のコントラスト感度関数をCa(ω)、視覚の第二の色相b*のコントラスト感度関数をCb(ω)とし、空間周波数fxにより画像Xの明度L*の分布をフーリエ変換した結果をFL(fx)、空間周波数fxにより画像Xの第一の色相a*の分布をフーリエ変換した結果をFa(fx)、空間周波数fxにより画像Xの第二の色相b*の分布をフーリエ変換した結果をFb(fx)とし、空間周波数fpにより画像Pの明度L*の分布をフーリエ変換した結果をFL(fp)、空間周波数fpにより画像Pの第一の色相a*の分布をフーリエ変換した結果をFa(fp)、空間周波数fpにより画像Pの第二の色相b*の分布をフーリエ変換した結果をFb(fp)とし、画像Xにおいて点Cに対応する画素を画素c1、画像Pにおいて点Cに対応する画素を画素c2とし、画像X上の画素c1を視点Aから観たときの方位角をΦ1、画
像P上の画素c2を視点Aから観たときの方位角をΦ2とすると、
前記変換部は、画像Pの画素c2を生成する場合に、点Cに焦点の合った画像を画像Xとして用い、
FL(fp)=FL(fx)×CL(fx)÷CL(fp)
Fa(fp)=Fa(fx)×Ca(fx)÷Ca(fp)
Fb(fp)=Fb(fx)×Cb(fx)÷Cb(fp)
fp=fx×Φ1÷Φ2
によりFL(fp)、Fa(fp)、Fb(fp)を計算し、
FL(fp)、Fa(fp)、Fb(fp)を逆フーリエ変換することにより得られる明度L*、第一の色相a*、第二の色相b*それぞれの分布から、画像Pの画素c2の色座標を計算することを特徴とする画像生成装置である。
像P上の画素c2を視点Aから観たときの方位角をΦ2とすると、
前記変換部は、画像Pの画素c2を生成する場合に、点Cに焦点の合った画像を画像Xとして用い、
FL(fp)=FL(fx)×CL(fx)÷CL(fp)
Fa(fp)=Fa(fx)×Ca(fx)÷Ca(fp)
Fb(fp)=Fb(fx)×Cb(fx)÷Cb(fp)
fp=fx×Φ1÷Φ2
によりFL(fp)、Fa(fp)、Fb(fp)を計算し、
FL(fp)、Fa(fp)、Fb(fp)を逆フーリエ変換することにより得られる明度L*、第一の色相a*、第二の色相b*それぞれの分布から、画像Pの画素c2の色座標を計算することを特徴とする画像生成装置である。
本発明によれば、観察者の注視点にピントが合い、且つ、自然な立体感を感じさせる画像を生成することができる。
前述した従来のアプローチの課題を解決するため、本発明は、人間の視覚の生理現象のモデルを用いる。人間は、水晶体をレンズとして外界を網膜上に結像し、網膜像を視細胞が感受するが、視細胞には光の波長ごとに感度が異なり、色を感知する三種類の錐体視細胞と明暗のみに反応する桿体細胞がある。これら視細胞から得られた情報は脳に伝達されるが、この伝達過程で網膜像の情報には視覚のコントラスト感度による変換が行われている。そのため、仮に、網膜像を完全に一致させることができたとしても、人間が認識する視覚情報が異なり、違うものとして感じる場合があり得る。
このことは、逆の見方をすれば、たとえ網膜像が異なっていたとしても、脳に伝達される情報が同じであれば、人間は被写体を同じものだと見なすことになる。従って、視覚のコントラスト感度による変換が行われた結果が同じになるようにすることで、人間に被写体を同じものだと認識させることができることになる。本発明は、この原理を用いて、画像を観る人間(観察者)の視線とコントラスト感度に基づいて、観察者に所望の感覚(認識、知覚)を与えるための画像を生成する方法を提案する。なお、観察者は実際の観察者でも仮想的な観察者でもよい。
本発明に係る方法によれば、コントラスト感度を考慮して、観察者の脳に伝達される情報を一致させるようにするので、実物を見た時と同じような感覚を抱かせる画像を生成することができる。すなわち、人間が被写体を観察した時の生理的、心理的な印象や、錯視や立体感などを含んだ画像を生成し、提示することができる。また、明度成分(輝度成分)と色成分のそれぞれについてコントラスト感度を考慮した変換を行うので、観察者(視点)からの距離もしくは焦点からのずれによるぼけ感だけでなく、明度や色のずれも再現でき、より実際の感覚に近い画像を得ることができる。
本発明に係る画像生成方法及び画像生成装置は、様々な応用が可能である。例えば、ソース画像(静止画像でも動画像でもよい)を元に、想定される観察者に合わせた出力用画像を生成してもよい。これは、ヘッドマウントディスプレイなどのように、観察者と出力用画像の間の相対位置が予め想定可能な場合に好適である。また、ソース画像を元に、観察者の実際の視線(注視点)の動きに追従して、出力用画像を更新してもよい。例えば、画像に奥行位置の異なる複数の被写体(背景の建物と近くにいる人物など)が含まれている場合に、観察者が視線を向けた(注視した)被写体にピントを合わせ、それ以外は自然なぼけ感や色ずれを与えた画像を生成し表示する。これにより、2Dディスプレイで立体感のある画像を再現することができる。さらに、3Dディスプレイ用の右目画像と左目画像のそれぞれを本発明の方法で生成してもよい。これにより、より自然な立体感をもつ3D表示が実現できる。
以下、本発明に係る画像生成方法及び画像生成装置の具体例について説明する。
<実施例1>
図1(A)と図1(B)は、実際の物体と画像をそれぞれ観たときに脳で認識される情報を模式的に示す図である。図1(A)を参照して、物体を人間が単眼で見た時に、網膜に形成される情報と脳に送られる情報を説明する。ここでは、画像として、2次元濃淡画像を想定している。
図1(A)と図1(B)は、実際の物体と画像をそれぞれ観たときに脳で認識される情報を模式的に示す図である。図1(A)を参照して、物体を人間が単眼で見た時に、網膜に形成される情報と脳に送られる情報を説明する。ここでは、画像として、2次元濃淡画像を想定している。
図1(A)のレンズ30は、眼の水晶体に相当する。レンズ30から距離sだけ離れた位置にある円柱Qを見ている状態を示す。円柱Qの見込み角をΘ(Q,s)とする。見込み角とは、被写体が張る視角である。円柱Qは網膜31上に結像され、視神経を経由し、網膜像のフーリエ変換F(Q,s,f)に第1のコントラスト感度関数C(f)が乗算され、認識情報V1として脳に伝達される。fは、見込み角Θ(Q,s)の範囲に基づき定義される空間周波数である。
図1(B)は、図1(A)の円柱Qの画像Q2の観察系を示している。図1(B)のレンズ32も眼の水晶体に相当し、レンズ32から距離tだけ離れた位置にある画像Q2を見ている。画像Q2の見込み角をΘ(Q2,t)とする。画像Q2は網膜33上に結像され、視神経を経由し、画像Q2のフーリエ変換F(Q2,t,g)に第2のコントラスト感度関数C(g)が乗算され、認識情報V2として脳に伝達される。gは、見込み角Θ(Q2,t)の範囲に基づき定義される空間周波数である。
図1(A)と図1(B)では、円柱Qの網膜像と画像Q2の網膜像はレンズの原理から大きさが異なるが、もし脳に伝達される認識情報V1とV2が同じであるならば、円柱Qと画像Q2上の円柱は同じものと認識されることになる。すなわち、画像Q2を、実際の物体を見ているのと同じような自然の立体感をもつ画像として認識できる。
このような原理に基づく本実施例の画像生成処理を図2に模式的に示す。図2は、円柱Qのソース画像Q1から画像Q2を生成する処理を示している。図2の上段は、観察者が距離sに配置された画像Q1を観たときの脳の内部の状態を示している。第1の画像Q1の見込み角をΘ(Q1,s)、第2の画像Q2の見込み角をΘ(Q2,t)とすると、
g=f×Θ(Q1,s)÷Θ(Q2,t) 式1
であり、距離tの位置にある第2の画像Q2を観察したときの網膜像のフーリエ変換は、
F(Q2,t,g)=F(Q1,s,f)×C(f)÷C(g) 式2
のように逆算できる。
g=f×Θ(Q1,s)÷Θ(Q2,t) 式1
であり、距離tの位置にある第2の画像Q2を観察したときの網膜像のフーリエ変換は、
F(Q2,t,g)=F(Q1,s,f)×C(f)÷C(g) 式2
のように逆算できる。
ここで、距離sと距離tがともに無限遠として扱える場合は、画像内の被写体の奥行位
置の差は無視して構わないので、1枚の画像Q1から画像Q2を計算できる。しかし、距離sと距離tのどちらかが有限距離の場合は、被写体の奥行位置ごとに個別に上記の計算を行うことが望ましい。観察者が注視している被写体上の点(注視点)はピントの合った画像となるが、その注視点と奥行位置が異なる部分はその奥行位置の差に応じた焦点ぼけや色ずれが生じた画像となるからである。任意の焦点ぼけや色ずれを含むソース画像を予め用意しておくことは現実的ではない。したがって本実施例では、全焦点画像、又は奥行方向の焦点位置を変えながら撮影した画像群(フォーカスブラケット画像、Zスタック画像と呼ばれる)をソース画像として用い、ピントの合った画素からその奥行位置に応じた焦点ぼけや色ずれをもつ画素を作る。全焦点画像とは画像内の全ての画素に焦点の合った画像であり、例えば全焦点カメラによって被写体を撮影することで得ることができる。あるいは、フォーカスブラケット画像から焦点の合った部分同士を合成することにより(この処理はフォーカススタッキングと呼ばれる)全焦点画像を得ることもできる。
置の差は無視して構わないので、1枚の画像Q1から画像Q2を計算できる。しかし、距離sと距離tのどちらかが有限距離の場合は、被写体の奥行位置ごとに個別に上記の計算を行うことが望ましい。観察者が注視している被写体上の点(注視点)はピントの合った画像となるが、その注視点と奥行位置が異なる部分はその奥行位置の差に応じた焦点ぼけや色ずれが生じた画像となるからである。任意の焦点ぼけや色ずれを含むソース画像を予め用意しておくことは現実的ではない。したがって本実施例では、全焦点画像、又は奥行方向の焦点位置を変えながら撮影した画像群(フォーカスブラケット画像、Zスタック画像と呼ばれる)をソース画像として用い、ピントの合った画素からその奥行位置に応じた焦点ぼけや色ずれをもつ画素を作る。全焦点画像とは画像内の全ての画素に焦点の合った画像であり、例えば全焦点カメラによって被写体を撮影することで得ることができる。あるいは、フォーカスブラケット画像から焦点の合った部分同士を合成することにより(この処理はフォーカススタッキングと呼ばれる)全焦点画像を得ることもできる。
以下、図面を用いて、全焦点画像の画素から任意の焦点ぼけや色ずれをもつ画素を生成する処理を説明する。
図3(A)は、視点Aから物体H上の点Bを注視する状態を示す図である。図3(B)は、視点Aから点Bまでの距離が無限遠として扱えない場合に、観察者の脳内に図3(A)の状態と同じ認識情報を生じさせる画像Pと、その画像Pを観る視点Aの関係を示している。図3(B)のΘ2は、視点Aから画像Pを観たときの見込み角である。
図3(A)に示すように、注視点Bとは奥行位置が異なる物体H上の点Cを考える。点Dは、点Cから視線(視点Aと注視点Bを通る直線)に下した垂線の足であり、視点Aと点Dの間の距離が点Cの視線方向に沿った奥行位置を表す。観察者が注視点Bに視線を合わせたとき、物体H上の点Cはぼけて見える。画像Pでは、このような奥行位置に応じた焦点ぼけが再現されている必要がある。
図4(A)は、画像内の全ての画素に焦点の合った全焦点画像Xを注視点Bと同じ奥行位置に配置し、視点Aから画像Xを観る様子を示している。画像Xは画像Pと同じ解像度を有するものとする。図4(B)は、全焦点画像Xを注視点Bとは異なる奥行位置である点Cの位置に配置し、視点Aから画像Xを観る様子を示している。図4(C)は、図4(B)と図3(B)を重ね合せた図である。点Cの位置に画像Xを配置した場合、画像Xの見込み角Θ1は画像Pの見込み角Θ2とは異なることがわかる。物体H上の点B、点Cは、それぞれ、画像Pでは画素b2、画素c2に対応し、画像Xでは画素b1、画素c1に対応する。
(1)注視点と同じ奥行位置にある画素の計算
まず、画像Pの画素b2の色座標の計算方法について説明する。画像Pは、物体H上の点Bを注視したときの状態を再現する画像であるため、画像Pの画素b2はピントが合った画素である。したがって、図4(A)のように、全焦点画像Xの画素b1をそのまま画像Pの画素b2として用いることができる。注視点Bと同じ奥行位置にある画素、つまり、点Bを通り視線に直交する面(図3(B)の画像Pの面)と物体Hとが交わる線上の点に対応する画素はいずれも、全焦点画像Xの画素をそのまま用いればよい。
まず、画像Pの画素b2の色座標の計算方法について説明する。画像Pは、物体H上の点Bを注視したときの状態を再現する画像であるため、画像Pの画素b2はピントが合った画素である。したがって、図4(A)のように、全焦点画像Xの画素b1をそのまま画像Pの画素b2として用いることができる。注視点Bと同じ奥行位置にある画素、つまり、点Bを通り視線に直交する面(図3(B)の画像Pの面)と物体Hとが交わる線上の点に対応する画素はいずれも、全焦点画像Xの画素をそのまま用いればよい。
(2)注視点と異なる奥行位置にある画素の計算
次に、図2で説明した原理を用いて、注視点Bと異なる奥行位置にある画素の色座標を計算する方法を説明する。以下、代表して画像Pの画素c2の色座標の計算方法について説明するが、注視点Bと異なる奥行位置にある画素はいずれも同様の方法で色座標を計算できる。
次に、図2で説明した原理を用いて、注視点Bと異なる奥行位置にある画素の色座標を計算する方法を説明する。以下、代表して画像Pの画素c2の色座標の計算方法について説明するが、注視点Bと異なる奥行位置にある画素はいずれも同様の方法で色座標を計算できる。
図4(C)のように、観察者が注視点Bに視線を合わせたとき、物体H上の点Cはぼけて見える。したがって、画像Pの画素c2はピントの合っていない画素となる。画素c2の色座標は、点Cの位置に全焦点画像Xを配置したときに脳で認識される情報と、点Bの位置に画像Pを配置したときに脳で認識される情報とが等しくなるように、画像Xから計算すればよい。画像Xの画素c2を脳の中で認識することと、物体Hの点Cを脳の中で認識することは、等価と考えられるためである。このように、同じ対象を異なる条件で認識しても同じ物と認識することを「同一視」と呼ぶこととする。
本実施例では、視覚の関数の一例として、コントラスト感度関数を用いる。空間周波数をωで表すときの、視覚の明度L*のコントラスト感度関数をCL(ω)、視覚の第一の色相a*のコントラスト感度関数をCa(ω)、視覚の第二の色相b*のコントラスト感度関数をCb(ω)と表記する。図5(A)はCL(ω)の特徴と用い方を定性的に説明する図であり、図5(B)はCa(ω)の特徴と用い方を定性的に説明する図であり、図5(C)はCb(ω)の特徴と用い方を定性的に説明する図である。
点Cの位置に画像Xを配置し、視点Aから画像Xを観たときの画像Xの見込み角Θ1の範囲内で定義される空間周波数をfxとする。空間周波数fxにより画像Xの明度L*の分布L(X)をフーリエ変換した結果をFL(fx)とする。同様に、空間周波数fxにより画像Xの第一の色相a*の分布a(X)をフーリエ変換した結果をFa(fx)とし、画像Xの第二の色相b*の分布b(X)をフーリエ変換した結果をFb(fx)とする。
点Bの位置に画像Pを配置し、視点Aから画像Pを観たときの画像Pの見込み角Θ2の範囲内で定義される空間周波数をfpとする。空間周波数fpにより画像Pの明度L*の分布L(P)をフーリエ変換した結果をFL(fp)とする。同様に、空間周波数fpにより画像Pの第一の色相a*の分布a(P)をフーリエ変換した結果をFa(fp)とし、画像Pの第二の色相b*の分布b(P)をフーリエ変換した結果をFb(fp)とする。
同一視の条件が成立するためには、次の3式が成立する必要がある。
FL(fp)=FL(fx)×CL(fx)÷CL(fp) 式3
Fa(fp)=Fa(fx)×Ca(fx)÷Ca(fp) 式4
Fb(fp)=Fb(fx)×Cb(fx)÷Cb(fp) 式5
FL(fp)=FL(fx)×CL(fx)÷CL(fp) 式3
Fa(fp)=Fa(fx)×Ca(fx)÷Ca(fp) 式4
Fb(fp)=Fb(fx)×Cb(fx)÷Cb(fp) 式5
なお、図4(C)で、画像X上の画素c1を視点Aから観察したときの方位角をΦ1とし、画像P上の画素c2を視点Aから観察したときの方位角をΦ2とすると、
fp=fx×Φ1÷Φ2 式6
である。
fp=fx×Φ1÷Φ2 式6
である。
図5(A)〜図5(C)に空間周波数fpの範囲と空間周波数fxの範囲の大小関係を示し、コントラスト感度関数CL(ω)、Ca(ω)、Cb(ω)が適用される範囲を定性的に示す。画像X(点c1)と画像P(点c2)の奥行位置の違いにより、空間周波数fx、fpの差が生じ、その差によって視覚のコントラスト感度に違いがでることがわかる。
式3〜式6により、画像XからFL(fp)、Fa(fp)、Fb(fp)が計算できたら、それらを逆フーリエ変換し、明度L*、第一の色相a*、第二の色相b*の分布L(P)、a(P)、b(P)を得る。そして、分布L(P)、a(P)、b(P)から点Cに対応する値を抽出することで、画像Pの画素c2の色座標を得ることができる。なお、ここで求められた分布L(P)、a(P)、b(P)は、点Cの位置に配置した画像X
を点Bを注視しながら観察したときに感じる色分布を表している。したがって、分布L(P)、a(P)、b(P)から抽出できるのは、画素c2の色座標(及びそれと同じ奥行位置を示す画素)だけであることに注意されたい。それ以外の画素の色座標については、各々の奥行位置に関して式6〜式9の計算を行えばよい。すなわち、画像Xを配置する奥行位置を少しずつ変更しながら、式3〜式6の計算を繰り返し、各々の奥行位置に存在する物体H上の点の色座標を計算し、それらを集めて画像Pを構成することができる。
を点Bを注視しながら観察したときに感じる色分布を表している。したがって、分布L(P)、a(P)、b(P)から抽出できるのは、画素c2の色座標(及びそれと同じ奥行位置を示す画素)だけであることに注意されたい。それ以外の画素の色座標については、各々の奥行位置に関して式6〜式9の計算を行えばよい。すなわち、画像Xを配置する奥行位置を少しずつ変更しながら、式3〜式6の計算を繰り返し、各々の奥行位置に存在する物体H上の点の色座標を計算し、それらを集めて画像Pを構成することができる。
なお、本実施例では画像Xとして全焦点画像を用いるため、色座標を計算する点の奥行位置に合わせて配置した画像Xから式3〜式6の計算を行う。これに対し、全焦点画像の代わりにフォーカスブラケット画像を用いる場合には、フォーカスブラケット画像のなかから色座標を計算する点の奥行位置に焦点の合った画像を画像Xとして取り出し、その画像Xを用いて式3〜式6の計算を行えばよい。すなわち、画像Xとしては、色座標を計算する点(上記例では物体H上の点C)に少なくとも焦点の合った画像であれば、どのような画像を用いてもよい。
(画像処理装置の構成例)
図6に、上述した画像生成処理を実現する画像生成装置の一構成例を示す。画像生成装置1は、画像取得部10、視線情報取得部11、コントラスト感度DB(データベース)12、変換部13、表示部14などの機能ブロックを有している。
図6に、上述した画像生成処理を実現する画像生成装置の一構成例を示す。画像生成装置1は、画像取得部10、視線情報取得部11、コントラスト感度DB(データベース)12、変換部13、表示部14などの機能ブロックを有している。
画像取得部10は、ソース画像(第一の画像)のデータを取得する機能を有する。ソース画像としては、全焦点画像又はフォーカスブラケット画像などが用いられる。また、画像に含まれる物体上の各点の奥行位置を表す奥行情報も併せて取得される。奥行情報としては、例えば、画素ごとの奥行距離を示すデプスマップなどが好ましい。視線情報取得部11は、観察者の視線情報を取得する機能を有する。視線情報は、例えば、物体上の注視点(観察者の視線と画像の交点)の座標、注視点の奥行位置(視点から注視点までの距離)などで与えられる。コントラスト感度DB12は、さまざまな条件のコントラスト感度関数のデータが登録されているデータベースである。コントラスト感度関数は、人(観察者)ごとに違いがあり、厳密にいうと、同じ人でも右目と左目で違いがある。また、観察者と物体の間の距離や環境光(明るさ)などの観察条件によっても、コントラスト感度関数に違いがでる。よって、コントラスト感度DB12には、人、眼(右目・左目)、観察条件(距離、環境光)などの条件ごとに、コントラスト感度関数が用意されているとよい。変換部13は、前述した画像生成方法によりソース画像から出力用画像(第二の画像)を生成する機能を有する。表示部14は、ソース画像や出力用画像の表示、条件入力用のGUIの表示などを行うための機能を有する。
画像生成装置1は、CPU(中央演算処理装置)、RAM(主記憶装置)、補助記憶装置(ハードディスクドライブなど)、入力装置(マウス、キーボードなど)、表示装置、通信IFなどを具備した汎用のコンピュータにより構成することができる。補助記憶装置には、オペレーティングシステム(OS)などの基本プログラムの他、前述した画像生成方法を実現するためのプログラムが格納されている。画像生成装置1の稼働時には、CPUがこれらのプログラムを読み込み、実行することで、図6に示す各ブロックの機能が実現される。ただし、ここで述べた構成は一例であり、図6に示す機能の一部又は全部をASICやFPGAなどの回路で実現したり、ネットワーク上のサーバ(クラウド含む)で実現しても構わない。
図7は、画像生成処理の流れを示すフローチャートである。図7に沿って、画像生成装置1の動作を説明する。
まず、画像取得部10が、ソース画像のデータを読み込む(ステップS20)。例えば
、ソース画像のデータとして、全焦点画像Xと奥行情報が取得される。画像データの取得先は、装置内部の記憶装置、外部装置や記憶媒体、ネットワークストレージなどどこでもよい。あるいは、撮像装置やスキャナなどの画像入力デバイスから画像データを取得してもよい。
、ソース画像のデータとして、全焦点画像Xと奥行情報が取得される。画像データの取得先は、装置内部の記憶装置、外部装置や記憶媒体、ネットワークストレージなどどこでもよい。あるいは、撮像装置やスキャナなどの画像入力デバイスから画像データを取得してもよい。
次に、視線情報取得部11が、視線情報を取得する(ステップS21)。視線情報取得部11は、ユーザによって入力された視線情報を取得してもよいし、予め記憶されている視線情報を記憶装置から読み込んでもよい。あるいは、視線情報取得部11は、距離センサによって表示装置を観ている観察者までの距離を計測したり、視線センサによって観察者の視線を検知し、それらのセンシングデータから視線情報を取得してもよい。
次に、変換部13が、全焦点画像X、奥行情報、視線情報に基づいて、注視点に合わせた焦点ぼけ及び色ずれをもつ出力用画像Pを生成する(ステップS22)。最後に、表示部14が、出力用画像Pを表示装置に表示する(ステップS23)。このようにして表示される画像Pは、注視点にピントが合い、且つ、奥行位置に応じた焦点ぼけや色ずれをもつ画像であるため、観察者は自然な立体感を感じることができる。
物体Hと画像Pの間で同一視の状態を保つためには、視点Aと物体H上の点Bの距離と、視点Aと画像P上の画素b2の距離とが等しいことが最も望ましい。したがって、画像Pを表示装置に表示する場合に、観察者の実際の視点から画像Pの表示面までの距離が、視点Aと物体H上の点Bの間の距離と同じになるように、画像Pの表示面の位置を決めるとよい。これを実現するための構成としては、例えば、次のような構成を採ることができる。一つは、表示装置の画面と観察者の視点との間の位置関係を実質的に固定する構成である。例えばヘッドマウントディスプレイ、ウェアラブルタイプのディスプレイなどがこれに該当する。この場合、視線情報は固定値となるので、予め画像生成装置の記憶装置などに視線情報を設定しておくことができる。二つ目は、距離センサによって表示装置と観察者の間の距離を計測し、その計測した距離に合わせて画像Pを生成する構成である。この構成の場合、観察者の注視点を厳密に設定する必要はなく、例えば、画像の中心、画像内の被写体の中心、画像内の最も目立つ点(最も輝度の高い点、最も動きの大きい点など)を注視点に設定してもよい。三つ目は、視線センサによって観察者の視線方向を検知し、観察者の視線と画像面の交点を計算し、交点の座標と奥行情報とから注視点の奥行位置を計算する構成である。例えば、観察者の視線の動きに追従するように画像Pを更新・表示すれば、観察者の観る位置に応じてピントの合う位置やぼける位置が動的に変わるので、2Dディスプレイで立体感のある画像を再現することができる。
<実施例2>
実施例2では、3Dディスプレイ用の左目画像Plと右目画像Prを生成する方法について説明する。図8は、実施例2の画像生成方法の流れを示すフローチャートである。画像生成装置の基本構成は実施例1のもの(図6)と同様のため説明を省略する。
実施例2では、3Dディスプレイ用の左目画像Plと右目画像Prを生成する方法について説明する。図8は、実施例2の画像生成方法の流れを示すフローチャートである。画像生成装置の基本構成は実施例1のもの(図6)と同様のため説明を省略する。
まず、画像取得部10が、全焦点画像のデータを取得する(ステップS30)。画像データの取得先は、装置内部の記憶装置、外部装置や記憶媒体、ネットワークストレージなどどこでもよい。あるいは、3D撮像装置や3Dスキャナなどの画像入力デバイスから画像データを取得してもよい。
続いて、画像取得部10が、全焦点画像の奥行情報を取得する(ステップS31)。奥行情報としては、全焦点画像の画素毎の奥行位置(奥行距離)が記録されたデプスマップや、全焦点画像に写る被写体の3次元形状データなどを用いるとよい。
次に、視線情報取得部11が、視線センサを用いて観察者の左目の視線情報を取得する
(ステップS32)。視線情報取得部11は、左目の視点位置と視線方向とから注視点の位置を計算する。そして、変換部13が、左目の注視点に合わせた左目画像Plを生成する(ステップS33)。左目画像Plの生成方法は実施例1で述べた方法と同じである。
(ステップS32)。視線情報取得部11は、左目の視点位置と視線方向とから注視点の位置を計算する。そして、変換部13が、左目の注視点に合わせた左目画像Plを生成する(ステップS33)。左目画像Plの生成方法は実施例1で述べた方法と同じである。
同じ様に、視線情報取得部11は、視線センサを用いて観察者の右目の視線情報を取得し、右目の視点位置と視線方向とから注視点の位置を計算する(ステップS34)。そして、変換部13が、右目の注視点に合わせた右目画像Prを生成する(ステップS35)。右目画像Prの生成方法は実施例1で述べた方法と同じである。
表示部14は、左目画像Plと右目画像Prを3D表示装置に表示する(ステップS36)。3D表示装置の方式には、眼鏡式、空間分割表示、時分割表示など様々な方式があるが、いずれでも構わない。左目と右目では、注視点の位置、注視点までの距離、見込み角、方位角などに違いがあり、このような違いにより左目で認識する画像と右目で認識する画像とではぼけや色に差が生まれ、これが立体感として感じられる。本実施例の方法によれば、このような左目と右目の間の視差を考慮した左目画像と右目画像が生成されるため、より自然な立体感をもつ立体映像を形成することができる。
1:画像生成装置、10:画像取得部、11:視線情報取得部、13:変換部
Claims (7)
- 物体上のある点を注視したときに認識される視覚情報を再現する画像を生成する画像生成方法であって、
前記物体の第一の画像を取得するステップと、
前記物体上の各点の奥行位置を表す奥行情報を取得するステップと、
前記物体に対する観察者の注視点を表す視線情報を取得するステップと、
前記第一の画像、前記奥行情報、および、前記視線情報に基づき、実際の物体上の前記注視点を注視したときに認識される視覚情報を再現する第二の画像を生成する生成ステップと、を有し、
観察者の視点をAとし、
前記第一の画像をX、前記第二の画像をPとし、
前記物体上の前記注視点をB、注視点Bとは異なる奥行位置にある前記物体上の点をCとし、
点Cの位置に画像Xを配置し、視点Aから画像Xを観たときの画像Xの見込み角の範囲内で定義される空間周波数をfxとし、
注視点Bの位置に画像Pを配置し、視点Aから画像Pを観たときの画像Pの見込み角の範囲内で定義される空間周波数をfpとし、
空間周波数をωで表すときの、視覚の明度L*のコントラスト感度関数をCL(ω)、視覚の第一の色相a*のコントラスト感度関数をCa(ω)、視覚の第二の色相b*のコントラスト感度関数をCb(ω)とし、
空間周波数fxにより画像Xの明度L*の分布をフーリエ変換した結果をFL(fx)、空間周波数fxにより画像Xの第一の色相a*の分布をフーリエ変換した結果をFa(fx)、空間周波数fxにより画像Xの第二の色相b*の分布をフーリエ変換した結果をFb(fx)とし、
空間周波数fpにより画像Pの明度L*の分布をフーリエ変換した結果をFL(fp)、空間周波数fpにより画像Pの第一の色相a*の分布をフーリエ変換した結果をFa(fp)、空間周波数fpにより画像Pの第二の色相b*の分布をフーリエ変換した結果をFb(fp)とし、
画像Xにおいて点Cに対応する画素を画素c1、画像Pにおいて点Cに対応する画素を画素c2とし、
画像X上の画素c1を視点Aから観たときの方位角をΦ1、画像P上の画素c2を視点Aから観たときの方位角をΦ2とすると、
前記生成ステップでは、画像Pの画素c2を生成する場合に、
点Cに焦点の合った画像を画像Xとして用い、
FL(fp)=FL(fx)×CL(fx)÷CL(fp)
Fa(fp)=Fa(fx)×Ca(fx)÷Ca(fp)
Fb(fp)=Fb(fx)×Cb(fx)÷Cb(fp)
fp=fx×Φ1÷Φ2
によりFL(fp)、Fa(fp)、Fb(fp)を計算し、
FL(fp)、Fa(fp)、Fb(fp)を逆フーリエ変換することにより得られる明度L*、第一の色相a*、第二の色相b*それぞれの分布から、画像Pの画素c2の色座標を計算する
ことを特徴とする画像生成方法。 - 画像Xにおいて注視点Bに対応する画素を画素b1、画像Pにおいて注視点Bに対応する画素をb2とすると、
前記生成ステップでは、画像Pの画素b2を生成する場合に、
点Bに焦点の合った画像を画像Xとして用い、
画像Xの画素b1をそのまま画像Pの画素b2として用いる
ことを特徴とする請求項1に記載の画像生成方法。 - 前記第一の画像は、全焦点画像、又は、奥行方向の焦点位置を変えながら撮影した画像群である
ことを特徴とする請求項1又は2に記載の画像生成方法。 - 画像Pを表示装置に表示する表示ステップをさらに有し、
前記表示ステップでは、観察者の実際の視点から画像Pの表示面までの距離が、視点Aと前記物体上の点Bの間の距離と同じになるように、画像Pの表示面の位置が決められることを特徴とする請求項1〜3のうちいずれか1項に記載の画像生成方法。 - 前記視線情報を取得するステップでは、観察者の左目の視線情報と右目の視線情報が取得され、
前記生成ステップでは、前記第二の画像として、前記左目の視線情報に基づく左目画像と、前記右目の視線情報に基づく右目画像とが生成される
ことを特徴とする請求項1〜4のうちいずれか1項に記載の画像生成方法。 - 請求項1〜5のうちいずれか1項に記載の画像生成方法の各ステップをコンピュータに実行させることを特徴とするプログラム。
- 物体上のある点を注視したときに認識される視覚情報を再現する画像を生成する画像生成装置であって、
前記物体の第一の画像および前記物体上の各点の奥行位置を表す奥行情報を取得する画像取得部と、
前記物体に対する観察者の注視点を表す視線情報を取得する視線情報取得部と、
前記第一の画像、前記奥行情報、および、前記視線情報に基づき、実際の物体上の前記注視点を注視したときに認識される視覚情報を再現する第二の画像を生成する変換部と、を有し、
観察者の視点をAとし、
前記第一の画像をX、前記第二の画像をPとし、
前記物体上の前記注視点をB、注視点Bとは異なる奥行位置にある前記物体上の点をCとし、
点Cの位置に画像Xを配置し、視点Aから画像Xを観たときの画像Xの見込み角の範囲内で定義される空間周波数をfxとし、
注視点Bの位置に画像Pを配置し、視点Aから画像Pを観たときの画像Pの見込み角の範囲内で定義される空間周波数をfpとし、
空間周波数をωで表すときの、視覚の明度L*のコントラスト感度関数をCL(ω)、視覚の第一の色相a*のコントラスト感度関数をCa(ω)、視覚の第二の色相b*のコントラスト感度関数をCb(ω)とし、
空間周波数fxにより画像Xの明度L*の分布をフーリエ変換した結果をFL(fx)、空間周波数fxにより画像Xの第一の色相a*の分布をフーリエ変換した結果をFa(fx)、空間周波数fxにより画像Xの第二の色相b*の分布をフーリエ変換した結果をFb(fx)とし、
空間周波数fpにより画像Pの明度L*の分布をフーリエ変換した結果をFL(fp)、空間周波数fpにより画像Pの第一の色相a*の分布をフーリエ変換した結果をFa(fp)、空間周波数fpにより画像Pの第二の色相b*の分布をフーリエ変換した結果をFb(fp)とし、
画像Xにおいて点Cに対応する画素を画素c1、画像Pにおいて点Cに対応する画素を画素c2とし、
画像X上の画素c1を視点Aから観たときの方位角をΦ1、画像P上の画素c2を視点
Aから観たときの方位角をΦ2とすると、
前記変換部は、画像Pの画素c2を生成する場合に、
点Cに焦点の合った画像を画像Xとして用い、
FL(fp)=FL(fx)×CL(fx)÷CL(fp)
Fa(fp)=Fa(fx)×Ca(fx)÷Ca(fp)
Fb(fp)=Fb(fx)×Cb(fx)÷Cb(fp)
fp=fx×Φ1÷Φ2
によりFL(fp)、Fa(fp)、Fb(fp)を計算し、
FL(fp)、Fa(fp)、Fb(fp)を逆フーリエ変換することにより得られる明度L*、第一の色相a*、第二の色相b*それぞれの分布から、画像Pの画素c2の色座標を計算する
ことを特徴とする画像生成装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015225534A JP2017098596A (ja) | 2015-11-18 | 2015-11-18 | 画像生成方法及び画像生成装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015225534A JP2017098596A (ja) | 2015-11-18 | 2015-11-18 | 画像生成方法及び画像生成装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017098596A true JP2017098596A (ja) | 2017-06-01 |
Family
ID=58817368
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015225534A Pending JP2017098596A (ja) | 2015-11-18 | 2015-11-18 | 画像生成方法及び画像生成装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017098596A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107272323A (zh) * | 2017-07-21 | 2017-10-20 | 京东方科技集团股份有限公司 | 成像模组及其离焦测试装置与方法、光束选通控制方法 |
CN109544452A (zh) * | 2018-04-18 | 2019-03-29 | 中国计量大学 | 视觉感知饱和策略的图像自适应缩小方法 |
JP2019145092A (ja) * | 2018-02-15 | 2019-08-29 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
-
2015
- 2015-11-18 JP JP2015225534A patent/JP2017098596A/ja active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107272323A (zh) * | 2017-07-21 | 2017-10-20 | 京东方科技集团股份有限公司 | 成像模组及其离焦测试装置与方法、光束选通控制方法 |
US10908555B2 (en) | 2017-07-21 | 2021-02-02 | Boe Technology Group Co., Ltd. | Imaging module, defocus testing device and method, and beam gating control method |
JP2019145092A (ja) * | 2018-02-15 | 2019-08-29 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
JP7278080B2 (ja) | 2018-02-15 | 2023-05-19 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
CN109544452A (zh) * | 2018-04-18 | 2019-03-29 | 中国计量大学 | 视觉感知饱和策略的图像自适应缩小方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7094266B2 (ja) | 単一深度追跡型の遠近調節-両眼転導ソリューション | |
US10378882B2 (en) | Light field display metrology | |
CN106791784B (zh) | 一种虚实重合的增强现实显示方法和装置 | |
US10506223B2 (en) | Method, apparatus, and device for realizing virtual stereoscopic scene | |
JP6023801B2 (ja) | シミュレーション装置 | |
Stern et al. | Perceivable light fields: Matching the requirements between the human visual system and autostereoscopic 3-D displays | |
US11962746B2 (en) | Wide-angle stereoscopic vision with cameras having different parameters | |
JP6384940B2 (ja) | 3d画像の表示方法及びヘッドマウント機器 | |
JP5464279B2 (ja) | 画像処理装置、そのプログラム、および画像処理方法 | |
US11961250B2 (en) | Light-field image generation system, image display system, shape information acquisition server, image generation server, display device, light-field image generation method, and image display method | |
JP6585938B2 (ja) | 立体像奥行き変換装置およびそのプログラム | |
US11956415B2 (en) | Head mounted display apparatus | |
US9918066B2 (en) | Methods and systems for producing a magnified 3D image | |
TWI589150B (zh) | 3d自動對焦顯示方法及其系統 | |
JP2017098596A (ja) | 画像生成方法及び画像生成装置 | |
KR101212223B1 (ko) | 촬영장치 및 깊이정보를 포함하는 영상의 생성방법 | |
JP6915368B2 (ja) | 多焦点視覚出力方法、多焦点視覚出力装置 | |
CN115190286B (zh) | 一种2d图像转换方法及装置 | |
JP2013047875A (ja) | 立体感提示装置および方法ならびにぼけ画像生成処理装置,方法およびプログラム | |
JP2023162320A (ja) | 視聴者に合わせて調整された立体画像表示 | |
TW201531276A (zh) | 使用色度成形法的內視鏡立體視覺化系統及方法 | |
WO2012105427A1 (ja) | 画像処理装置、そのプログラム、および画像処理方法 | |
Sharma | 2D to 3D Conversion Using SINGLE Input by Spatial Transformation Using MATLAB | |
Alkhadour et al. | Creating a Color Anaglyph from a Pseudo-Stereo Pair of Images | |
JP2016054417A (ja) | 立体画像処理装置、立体撮像装置、立体表示装置および立体画像処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20181116 |