JP2020088496A - 錯視立体画像生成装置及びそのプログラム - Google Patents
錯視立体画像生成装置及びそのプログラム Download PDFInfo
- Publication number
- JP2020088496A JP2020088496A JP2018217074A JP2018217074A JP2020088496A JP 2020088496 A JP2020088496 A JP 2020088496A JP 2018217074 A JP2018217074 A JP 2018217074A JP 2018217074 A JP2018217074 A JP 2018217074A JP 2020088496 A JP2020088496 A JP 2020088496A
- Authority
- JP
- Japan
- Prior art keywords
- depth
- stereoscopic image
- illusion
- illusionary
- image generation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Controls And Circuits For Display Device (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
【課題】ホロウマスク錯視が発生する立体画像を生成する錯視立体画像生成装置を提供する。【解決手段】錯視立体画像生成装置10は、ホロウマスク錯視の錯視領域を設定する錯視領域設定手段12と、錯視領域の奥行を反転させる基準となる奥行反転基準を算出する奥行反転基準算出手段13と、奥行反転基準を基準として、錯視領域の奥行を反転させた反転奥行情報を生成する奥行反転手段14と、反転奥行情報及び撮影画像から立体画像を生成する立体画像生成手段15とを備える。【選択図】図2
Description
本発明は、ホロウマスク錯視を発生させる立体画像を生成する錯視立体画像生成装置及びそのプログラムに関する。
ホロウマスク錯視とは、人間が、凹面の顔を通常の凸面の顔として認識する錯視のことである(非特許文献1)。このホロウマスク錯視を利用した作品として、「振り向きドラゴン」が知られている。この「振り向きドラゴン」は、凹んだ顔のドラゴンのペーパークラフトであり、人間がどちらに動いてもドラゴンの視線が追いかけてくるように見えるものである。
"Knowledge in perception and illusion" by Richard Gregory, Phil. Trans. R. Soc. Lond. B (1997) 352, 1121-1128 - authoritative introduction to optical illusions.
ホロウマスク錯視は、視線が追いかけてくるという視覚効果により、高いエンターテイメント性を有する。一方、前記ホロウマスク錯視を利用した作品は、凹面を有する物体そのものであり、当然ながら、その物体を人間が目視しなければホロウマスク錯視が発生しない。そこで、ホロウマスク錯視を発生させるコンテンツの実現が期待されている。
本発明は、ホロウマスク錯視が発生する立体画像を生成できる錯視立体画像生成装置及びそのプログラムを提供することを課題とする。
前記した課題に鑑みて、本発明に係る錯視立体画像生成装置は、被写体を撮影した撮影画像と、撮影画像の奥行情報とを用いて、被写体の立体画像を生成する錯視立体画像生成装置であって、錯視領域設定手段と、奥行反転基準算出手段と、奥行反転手段と、立体画像生成手段とを備える構成とした。
かかる錯視立体画像生成装置によれば、錯視領域設定手段は、撮影画像に含まれる被写体に対し、ホロウマスク錯視を発生させる錯視領域を設定する。
奥行反転基準算出手段は、錯視領域内の各処理対象画素から錯視領域の外側に向けて延長した2本以上のサンプリング線上において、錯視領域の外側で処理対象画素に最も近い参照画素の奥行値を奥行情報から取得する。そして、奥行反転基準算出手段は、サンプリング線ごとに取得した参照画素の奥行値を処理対象画素と参照画素との距離に応じて重み付け加算することで、処理対象画素ごとに奥行反転基準を算出する。
この奥行反転基準は、錯視領域にホロウマスク錯視を発生させる際、奥行を反転するときの基準となる奥行値を表す。
奥行反転基準算出手段は、錯視領域内の各処理対象画素から錯視領域の外側に向けて延長した2本以上のサンプリング線上において、錯視領域の外側で処理対象画素に最も近い参照画素の奥行値を奥行情報から取得する。そして、奥行反転基準算出手段は、サンプリング線ごとに取得した参照画素の奥行値を処理対象画素と参照画素との距離に応じて重み付け加算することで、処理対象画素ごとに奥行反転基準を算出する。
この奥行反転基準は、錯視領域にホロウマスク錯視を発生させる際、奥行を反転するときの基準となる奥行値を表す。
奥行反転手段は、奥行反転基準を基準として、奥行情報に含まれる錯視領域の奥行を反転させた反転奥行情報を生成する。
立体画像生成手段は、反転奥行情報及び撮影画像から立体画像を生成する。
このように、錯視立体画像生成装置は、錯視領域の奥行が反転した立体画像を生成するので、ホロウマスク錯視を発生させることができる。
立体画像生成手段は、反転奥行情報及び撮影画像から立体画像を生成する。
このように、錯視立体画像生成装置は、錯視領域の奥行が反転した立体画像を生成するので、ホロウマスク錯視を発生させることができる。
なお、本発明は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記した錯視立体画像生成装置として協調動作させるプログラムで実現することもできる。
本発明によれば、奥行反転基準を基準として錯視領域の奥行を反転させるので、ホロウマスク錯視が発生する立体画像を生成することができる。これにより、視線が追いかけてくるという視覚効果により高いエンターテイメント性を有するコンテンツを提供することができる。
以下、本発明の各実施形態について、適宜図面を参照しながら詳細に説明する。なお、各実施形態において、同一の手段及び同一の処理には同一の符号を付し、説明を省略した。
(第1実施形態)
[錯視立体画像生成装置の概略]
図1を参照し、第1実施形態に係る錯視立体画像生成装置10の概略について説明する。
錯視立体画像生成装置10は、後記する撮影画像及び奥行情報を用いて、ホロウマスク錯視を発生させる立体画像(静止画)を生成するものである。本実施形態では、錯視立体画像生成装置10は、立体画像として、インテグラル方式の要素画像を生成する。図1に示すように、錯視立体画像生成装置10が生成した立体画像から、その立体画像を再生する立体スクリーン20を製造する。例えば、立体スクリーン20は、錯視立体画像生成装置10の立体画像を紙やフィルム等の媒体に印刷し、2次元状の要素レンズ21で構成されるレンズアレイ22を前面に配置したものである。そして、人物Mが立体スクリーン20を見ると、錯視立体画像生成装置10が生成した立体画像が表示され、人物Mがホロウマスク錯視を体感できる。
[錯視立体画像生成装置の概略]
図1を参照し、第1実施形態に係る錯視立体画像生成装置10の概略について説明する。
錯視立体画像生成装置10は、後記する撮影画像及び奥行情報を用いて、ホロウマスク錯視を発生させる立体画像(静止画)を生成するものである。本実施形態では、錯視立体画像生成装置10は、立体画像として、インテグラル方式の要素画像を生成する。図1に示すように、錯視立体画像生成装置10が生成した立体画像から、その立体画像を再生する立体スクリーン20を製造する。例えば、立体スクリーン20は、錯視立体画像生成装置10の立体画像を紙やフィルム等の媒体に印刷し、2次元状の要素レンズ21で構成されるレンズアレイ22を前面に配置したものである。そして、人物Mが立体スクリーン20を見ると、錯視立体画像生成装置10が生成した立体画像が表示され、人物Mがホロウマスク錯視を体感できる。
[錯視立体画像生成装置の構成]
図2を参照し、錯視立体画像生成装置10の構成について説明する。
図2に示すように、錯視立体画像生成装置10は、撮影画像・奥行情報入力手段11と、錯視領域設定手段12と、奥行反転基準算出手段13と、奥行反転手段14と、立体画像生成手段15とを備える。
図2を参照し、錯視立体画像生成装置10の構成について説明する。
図2に示すように、錯視立体画像生成装置10は、撮影画像・奥行情報入力手段11と、錯視領域設定手段12と、奥行反転基準算出手段13と、奥行反転手段14と、立体画像生成手段15とを備える。
撮影画像・奥行情報入力手段11は、予め準備した撮影画像及び奥行情報を入力するものである。そして、撮影画像・奥行情報入力手段11は、入力された撮影画像及び奥行情報を錯視領域設定手段12に出力する。
ここで、撮影画像及び奥行情報について説明する。
例えば、図3(a)に示すように、撮影画像は、被写体(女性)を撮影したRGB画像である。また、図3(b)に示すように、奥行情報は、撮影画像の各画素の奥行値を表した情報である。この奥行情報は、画素が明るい(輝度が高い)ほど手前側であり、画素が暗い(輝度が低い)ほど奥側であることを表している。
撮影画像が存在する場合、その撮影画像の各画素に奥行値を手動で割り当てて、奥行情報を生成してもよい。また、撮影画像が存在しない場合、ステレオカメラ、多視点カメラ、又は、センサカメラで被写体を撮影し、撮影画像及び奥行情報を生成してもよい。
例えば、図3(a)に示すように、撮影画像は、被写体(女性)を撮影したRGB画像である。また、図3(b)に示すように、奥行情報は、撮影画像の各画素の奥行値を表した情報である。この奥行情報は、画素が明るい(輝度が高い)ほど手前側であり、画素が暗い(輝度が低い)ほど奥側であることを表している。
撮影画像が存在する場合、その撮影画像の各画素に奥行値を手動で割り当てて、奥行情報を生成してもよい。また、撮影画像が存在しない場合、ステレオカメラ、多視点カメラ、又は、センサカメラで被写体を撮影し、撮影画像及び奥行情報を生成してもよい。
錯視領域設定手段12は、撮影画像・奥行情報入力手段11から入力された撮影画像に含まれる被写体に対し、錯視領域を予め設定するものである。
この錯視領域とは、撮影画像の被写体のうち、ホロウマスク錯視を発生させる領域のことである。図4に示すように、錯視領域は、ホロウマスク錯視を発生させるため、撮影画像に含まれる被写体の顔領域に設定することが好ましい。そこで、錯視領域設定手段12は、一般的な顔領域認識処理によって撮影画像から被写体の顔領域を検出し、検出した顔領域を錯視領域として設定する。例えば、図3(a)の撮影画像に、図4の錯視領域を設定する。なお、図4では、錯視領域を白色で図示し、それ以外の領域を黒色で図示した。
この他、錯視領域設定手段12では、錯視立体画像生成装置10の管理者が、図示を省略したマウス、キーボード等の操作手段を用いて、撮影画像に錯視領域を手動で設定してもよい。
その後、錯視領域設定手段12は、設定した錯視領域の情報と、撮影画像及び奥行情報とを奥行反転基準算出手段13に出力する。
この錯視領域とは、撮影画像の被写体のうち、ホロウマスク錯視を発生させる領域のことである。図4に示すように、錯視領域は、ホロウマスク錯視を発生させるため、撮影画像に含まれる被写体の顔領域に設定することが好ましい。そこで、錯視領域設定手段12は、一般的な顔領域認識処理によって撮影画像から被写体の顔領域を検出し、検出した顔領域を錯視領域として設定する。例えば、図3(a)の撮影画像に、図4の錯視領域を設定する。なお、図4では、錯視領域を白色で図示し、それ以外の領域を黒色で図示した。
この他、錯視領域設定手段12では、錯視立体画像生成装置10の管理者が、図示を省略したマウス、キーボード等の操作手段を用いて、撮影画像に錯視領域を手動で設定してもよい。
その後、錯視領域設定手段12は、設定した錯視領域の情報と、撮影画像及び奥行情報とを奥行反転基準算出手段13に出力する。
奥行反転基準算出手段13は、錯視領域内の各処理対象画素から錯視領域の外側に向けて延長した2本以上のサンプリング線上において、錯視領域の外側で処理対象画素に最も近い参照画素の奥行値を奥行情報から取得するものである。そして、奥行反転基準算出手段13は、サンプリング線ごとに取得した参照画素の奥行値を処理対象画素と参照画素との距離に応じて重み付け加算することで、処理対象画素ごとに奥行反転基準を算出する。
<奥行反転基準の算出>
図5を参照し、奥行反転基準算出手段13による奥行反転基準の算出を詳細に説明する。この図5では、図4の錯視領域を拡大しており、サンプリング線の本数が8本であることとする(T=8)。
図5を参照し、奥行反転基準算出手段13による奥行反転基準の算出を詳細に説明する。この図5では、図4の錯視領域を拡大しており、サンプリング線の本数が8本であることとする(T=8)。
奥行反転基準は、錯視領域にホロウマスク錯視を発生させる際、奥行を反転するときの基準となる奥行値を表す。つまり、錯視領域では、奥行反転基準が示す奥行値を境界として、凹凸が反転する。一方、錯視領域以外の領域では、凹凸は反転しない。
まず、奥行反転基準算出手段13は、図5に示すように、錯視領域Aに1つの処理対象画素B(x,y)を設定する。次に、奥行反転基準算出手段13は、この処理対象画素Bを中心として、放射方向に8本のサンプリング線Ltを設定する(t=0〜7)。各サンプリング線Ltは、処理対象画素Bから錯視領域Aの外側に向けて等間隔(例えば、45度間隔)で放射状に広がっている。
また、奥行反転基準算出手段13は、各サンプリング線Ltの線上において、処理対象画素Bから最も近い錯視領域Aの外側の画素を探索する。ここで、各サンプリング線Ltの線上で探索された画素を参照画素Pt(xt,yt)とする。次に、奥行反転基準算出手段13は、各参照画素Ptの奥行値d(xt,yt)を奥行情報から取得する。そして、奥行反転基準算出手段13は、処理対象画素Bと各参照画素Ptとの距離atを算出する。さらに、奥行反転基準算出手段13は、距離atに応じて、全ての参照画素Ptの奥行値d(xt,yt)を重み付け加算することで、奥行反転基準D(x,y)を算出する。
図5で説明した奥行反転基準D(x,y)の演算は、以下の式(1)で表される。すなわち、奥行反転基準算出手段13は、錯視領域Aの外周の画素間において、奥行値が滑らかに連続的につながるように、式(1)を用いて、奥行反転基準D(x,y)を算出する。
なお、図5では、錯視領域Aに含まれる1画素を処理対象画素Bとして図示したが、実際には、錯視領域Aの各画素を処理対象画素Bとして順次設定し、各処理対象画素Bから奥行反転基準D(x,y)を算出する。
また、図5では、図面を見やすくするため、距離a2〜a7の図示を省略した。
また、図5では、図面を見やすくするため、距離a2〜a7の図示を省略した。
その後、奥行反転基準算出手段13は、奥行反転基準と、撮影画像及び奥行情報とを奥行反転手段14に出力する。
奥行反転手段14は、奥行反転基準算出手段13から入力された奥行反転基準を基準として、奥行情報に含まれる錯視領域の奥行を反転させた反転奥行情報を生成するものである。つまり、奥行反転手段14は、奥行情報において、錯視領域に対応する全画素の奥行を、奥行反転基準を境界として反転させる。また、奥行反転手段14は、錯視領域以外の奥行を反転させずに、反転奥行情報に付加することとする。
<奥行の反転>
図6を参照し、奥行反転手段14による奥行の反転について詳細に説明する。
図6(a)は、錯視領域の奥行値をプロットしたものであり、被写体の顔を側面から見たように、錯視領域Aの凹凸を表している。ここでは、説明を簡易にするために、垂直方向に2本のサンプリング線を設定し、奥行反転基準Dを算出したこととする。
図6を参照し、奥行反転手段14による奥行の反転について詳細に説明する。
図6(a)は、錯視領域の奥行値をプロットしたものであり、被写体の顔を側面から見たように、錯視領域Aの凹凸を表している。ここでは、説明を簡易にするために、垂直方向に2本のサンプリング線を設定し、奥行反転基準Dを算出したこととする。
この場合、奥行反転基準Dを算出する際、2本のサンプリング線に沿って、顔上部の奥行値dU及び顔下部の奥行値dDを取得することになる。従って、奥行反転基準Dは、奥行値dU及び奥行値dDを結んだ直線で表される。図6(a)では、奥行値dUより奥行値dDが手前側となるため、奥行反転基準Dも、顔上部より顔下部が手前側になる斜線で表される。図6(a)の奥行反転基準Dを基準に錯視領域Aを反転させると、図6(b)に示すように、顔下部が顔上部よりも奥行の反転量が小さくなる。つまり、図6(b)では、顔下部の凹凸が減少し、錯視領域Aが滑らかになる。
なお、奥行の反転は、図6の例に限定されないことは言うまでもない。
なお、奥行の反転は、図6の例に限定されないことは言うまでもない。
その後、奥行反転手段14は、反転奥行情報及び撮影画像を立体画像生成手段15に出力する。
図2に戻り、錯視立体画像生成装置10の構成について説明を続ける。
立体画像生成手段15は、奥行反転手段14より入力された反転奥行情報及び撮影画像から立体画像を生成するものである。図2に示すように、立体画像生成手段15は、3次元モデル生成手段15Aと、要素画像生成手段15Bとを備える。
立体画像生成手段15は、奥行反転手段14より入力された反転奥行情報及び撮影画像から立体画像を生成するものである。図2に示すように、立体画像生成手段15は、3次元モデル生成手段15Aと、要素画像生成手段15Bとを備える。
3次元モデル生成手段15Aは、反転奥行情報を参照し、被写体の各画素の奥行値を設定することで、被写体の3次元モデルを生成するものである。例えば、3次元モデル生成手段15Aは、反転奥行情報を参照し、撮影画像の各画素の奥行位置(奥行値)を取得する。また、3次元モデル生成手段15Aは、取得した奥行位置の色情報を、撮影画像の各画素の画素値(RGB値)とする3次元モデルを生成する。
この3次元モデルは、反転奥行情報を用いて生成するので、錯視領域(顔領域)の奥行が反転する。例えば、図7(a)は、従来の3次元モデルを斜め前方から撮影した2次元画像であり、顔領域の奥行が反転していない。また、図7(b)は、3次元モデル生成手段15Aが生成した3次元モデルを斜め前方から撮影した2次元画像であり、顔領域の奥行が反転している。これらの3次元モデルは、図3(a)の撮影画像から生成したものである。
なお、図7(a)及び図7(b)では、2次元画像の各画素の画素位置が、3次元モデルを斜め前方から撮影したときの奥行位置を表すので、2次元画像が歪んでいる。
なお、図7(a)及び図7(b)では、2次元画像の各画素の画素位置が、3次元モデルを斜め前方から撮影したときの奥行位置を表すので、2次元画像が歪んでいる。
要素画像生成手段15Bは、3次元モデル生成手段15Aが生成した3次元モデルを仮想カメラで撮影することで、インテグラル方式の要素画像を生成するものである。例えば、要素画像生成手段15Bは、一般的な投影処理又は光線追跡法を用いて、図7(b)の3次元モデルから、図8の要素画像を生成する。
最初に投影処理を用いる手法を説明する。
まず、要素画像生成手段15Bは、仮想空間上に、3次元モデルと、要素画像を表示する表示画像面と、仮想レンズアレイと、仮想カメラとを配置する。次に、要素画像生成手段15Bは、3次元モデルから出射され、各仮想要素レンズを通過する平行な光線群を、各仮想カメラの投影面に投影する。例えば、光線群の投影には、斜投影や正投影を用いることができる。そして、要素画像生成手段15Bは、各光線に交差する表示画像面の画素の画素値を、その光線の画素値とする。
まず、要素画像生成手段15Bは、仮想空間上に、3次元モデルと、要素画像を表示する表示画像面と、仮想レンズアレイと、仮想カメラとを配置する。次に、要素画像生成手段15Bは、3次元モデルから出射され、各仮想要素レンズを通過する平行な光線群を、各仮想カメラの投影面に投影する。例えば、光線群の投影には、斜投影や正投影を用いることができる。そして、要素画像生成手段15Bは、各光線に交差する表示画像面の画素の画素値を、その光線の画素値とする。
なお、投影処理を用いる手法は、参考文献1〜3に記載されているため、これ以上の説明を省略する。
参考文献1:特開2015−222892号公報
参考文献2:特開2016−158213号公報
参考文献2:“特集:裸眼立体表示技術 3章 インテグラル立体”、洗井淳他、映像情報メディア学会誌 Vol.68、 No.11(2014)
参考文献1:特開2015−222892号公報
参考文献2:特開2016−158213号公報
参考文献2:“特集:裸眼立体表示技術 3章 インテグラル立体”、洗井淳他、映像情報メディア学会誌 Vol.68、 No.11(2014)
次に光線追跡法を用いる手法を説明する。
まず、要素画像生成手段15Bは、仮想空間上に、表示画像面と、仮想レンズアレイと、3次元モデルと、仮想カメラとを配置する。そして、3次元モデルから出射されて仮想要素レンズの中心を通過し、仮想カメラに達する光線を追跡し、表示画像面の各画素の画素値を求める。
まず、要素画像生成手段15Bは、仮想空間上に、表示画像面と、仮想レンズアレイと、3次元モデルと、仮想カメラとを配置する。そして、3次元モデルから出射されて仮想要素レンズの中心を通過し、仮想カメラに達する光線を追跡し、表示画像面の各画素の画素値を求める。
なお、光線追跡法を用いる手法は、参考文献4,5に記載されているため、これ以上の説明を省略する。
参考文献4:特開2017−73710号公報
参考文献5:“3次元モデルからインテグラル立体像への変換手法”、片山美和、NHK技研R&D、No.128(2011.7)
参考文献4:特開2017−73710号公報
参考文献5:“3次元モデルからインテグラル立体像への変換手法”、片山美和、NHK技研R&D、No.128(2011.7)
その後、立体画像生成手段15は、生成した要素画像を外部(例えば、要素画像を媒体に印刷するプリンタ)に出力する。
[錯視立体画像生成装置の動作]
図9を参照し、錯視立体画像生成装置10の動作について説明する。
図9に示すように、ステップS1において、撮影画像・奥行情報入力手段11は、予め準備した撮影画像及び奥行情報を入力する。
図9を参照し、錯視立体画像生成装置10の動作について説明する。
図9に示すように、ステップS1において、撮影画像・奥行情報入力手段11は、予め準備した撮影画像及び奥行情報を入力する。
ステップS2において、錯視領域設定手段12は、撮影画像に含まれる被写体に対し、錯視領域を予め設定する。例えば、錯視領域設定手段12は、一般的な顔領域認識処理によって撮影画像から被写体の顔領域を検出し、検出した顔領域を錯視領域として設定する。
ステップS3において、奥行反転基準算出手段13は、錯視領域における奥行反転基準を算出する。具体的には、奥行反転基準算出手段13は、サンプリング線の線上における参照画素の奥行値を奥行情報から取得する。そして、奥行反転基準算出手段13は、取得した参照画素の奥行値を、処理対象画素と参照画素との距離に応じて重み付け加算する。すなわち、奥行反転基準算出手段13は、前記した式(1)を用いて、奥行反転基準を算出する。
ステップS4において、奥行反転手段14は、奥行反転基準を基準として、奥行情報に含まれる錯視領域の奥行を反転させた反転奥行情報を生成する。つまり、奥行反転手段14は、奥行情報において、錯視領域に対応する全画素の奥行を、奥行反転基準を境界として反転させる。
ステップS5において、3次元モデル生成手段15Aは、反転奥行情報を参照し、撮影画像に含まれる被写体の3次元モデルを生成する。例えば、3次元モデル生成手段15Aは、反転奥行情報から、撮影画像の各画素の奥行位置を取得する。また、3次元モデル生成手段15Aは、取得した奥行位置の色情報を、撮影画像の各画素の画素値とする3次元モデルを生成する。
ステップS6において、要素画像生成手段15Bは、3次元モデルを仮想カメラで撮影することで、インテグラル方式の要素画像を生成する。本実施形態では、要素画像生成手段15Bは、一般的な投影処理又は光線追跡法を用いて、3次元モデルから要素画像を生成する。
[作用・効果]
第1実施形態に係る錯視立体画像生成装置10は、奥行反転基準を基準として錯視領域の奥行を反転させるので、ホロウマスク錯視が発生する立体画像を生成できる。これにより、錯視立体画像生成装置10は、視線が追いかけてくるという視覚効果により、高いエンターテイメント性を有するコンテンツを提供することができる。
さらに、錯視立体画像生成装置10は、ホロウマスク錯視を発生させる立体スクリーン20を製造可能とし、様々な場所でホロウマスク錯視の視覚効果を人物に体感させることができる。
第1実施形態に係る錯視立体画像生成装置10は、奥行反転基準を基準として錯視領域の奥行を反転させるので、ホロウマスク錯視が発生する立体画像を生成できる。これにより、錯視立体画像生成装置10は、視線が追いかけてくるという視覚効果により、高いエンターテイメント性を有するコンテンツを提供することができる。
さらに、錯視立体画像生成装置10は、ホロウマスク錯視を発生させる立体スクリーン20を製造可能とし、様々な場所でホロウマスク錯視の視覚効果を人物に体感させることができる。
(第2実施形態)
[錯視立体画像生成装置の概略]
図10を参照し、第2実施形態に係る錯視立体画像生成装置10Bについて、第1実施形態と異なる点を説明する。
第1実施形態では、錯視立体画像生成装置10(図1)が、ホロウマスク錯視を発生させる静止画を生成し、この静止画を立体スクリーン20で再生する。
これに対し、第2実施形態では、図10に示すように、錯視立体画像生成装置10Bは、ホロウマスク錯視を発生させる動画を生成し、この動画を立体画像表示装置30で再生する点が、第1実施形態と異なる。
[錯視立体画像生成装置の概略]
図10を参照し、第2実施形態に係る錯視立体画像生成装置10Bについて、第1実施形態と異なる点を説明する。
第1実施形態では、錯視立体画像生成装置10(図1)が、ホロウマスク錯視を発生させる静止画を生成し、この静止画を立体スクリーン20で再生する。
これに対し、第2実施形態では、図10に示すように、錯視立体画像生成装置10Bは、ホロウマスク錯視を発生させる動画を生成し、この動画を立体画像表示装置30で再生する点が、第1実施形態と異なる。
前記したように、ホロウマスク錯視を利用した作品は、凹面を有する物体そのものであり、被写体の動き、姿勢や色の変化を表現することが困難である。そこで、錯視立体画像生成装置10Bは、ホロウマスク錯視を発生させる立体画像(動画)を生成し、ホロウマスクの視覚効果に加え、被写体の変化も表現することとした。
立体画像表示装置30は、錯視立体画像生成装置10Bが生成した立体映像を表示する一般的なインテグラル方式の立体ディスプレイである。例えば、立体画像表示装置30は、図示を省略した表示素子と、2次元状の要素レンズ31で構成されるレンズアレイ32とを備える。
なお、本実施形態では、錯視立体画像生成装置10Bが立体画像表示装置30に立体画像を出力することとしたが、これに限定されない。例えば、錯視立体画像生成装置10Bが、図示を省略した記憶装置に立体画像を書き込み、立体画像表示装置30が、この記憶装置から立体画像を読み出すこととしてもよい。
[錯視立体画像生成装置の構成]
図11を参照し、錯視立体画像生成装置10Bの構成について説明する。
図11に示すように、錯視立体画像生成装置10Bは、撮影画像・奥行情報入力手段11Bと、錯視領域設定手段12と、奥行反転基準算出手段13と、奥行反転手段14と、立体画像生成手段15と、制御手段16とを備える。
なお、図11では、図面を見やすくするため、制御手段16の入出力を破線で図示した。
図11を参照し、錯視立体画像生成装置10Bの構成について説明する。
図11に示すように、錯視立体画像生成装置10Bは、撮影画像・奥行情報入力手段11Bと、錯視領域設定手段12と、奥行反転基準算出手段13と、奥行反転手段14と、立体画像生成手段15と、制御手段16とを備える。
なお、図11では、図面を見やすくするため、制御手段16の入出力を破線で図示した。
撮影画像・奥行情報入力手段11Bは、被写体の撮影映像及び奥行情報を入力するものである。
本実施形態では、撮影映像を構成する各フレームを、前記した撮影画像として扱う。従って、奥行情報は、撮影映像を構成するフレームごとに、各画素の奥行値を表した情報となる。
ここでは、撮影画像・奥行情報入力手段11Bは、撮影映像のフレーム順に、フレームと奥行情報とを対応付けて錯視領域設定手段12に出力する。また、撮影画像・奥行情報入力手段11Bは、撮影映像の最終フレームを出力した後、全フレーム終了を制御手段16に通知する。
本実施形態では、撮影映像を構成する各フレームを、前記した撮影画像として扱う。従って、奥行情報は、撮影映像を構成するフレームごとに、各画素の奥行値を表した情報となる。
ここでは、撮影画像・奥行情報入力手段11Bは、撮影映像のフレーム順に、フレームと奥行情報とを対応付けて錯視領域設定手段12に出力する。また、撮影画像・奥行情報入力手段11Bは、撮影映像の最終フレームを出力した後、全フレーム終了を制御手段16に通知する。
錯視領域設定手段12、奥行反転基準算出手段13、奥行反転手段14及び立体画像生成手段15(以後、「錯視立体画像生成装置10Bの各手段」と略記)は、撮影映像の各フレームに順次処理を施す。また、錯視立体画像生成装置10Bの各手段は、制御手段16から処理終了が指令された場合、その指令に従って処理を終了する。
なお、錯視立体画像生成装置10Bの各手段は、その処理内容が第1実施形態と同様のため、これ以上の説明を省略する。
なお、錯視立体画像生成装置10Bの各手段は、その処理内容が第1実施形態と同様のため、これ以上の説明を省略する。
制御手段16は、錯視立体画像生成装置10Bの各手段を制御するものである。本実施形態では、制御手段16は、撮影画像・奥行情報入力手段11Bから全フレーム終了が通知された場合、錯視立体画像生成装置10Bの各手段に対し、処理終了を指令する。
[錯視立体画像生成装置の動作]
図12を参照し、錯視立体画像生成装置10の動作について説明する。
図12において、ステップS1〜S6の処理は、第1実施形態と同様のため、説明を省略する。
図12を参照し、錯視立体画像生成装置10の動作について説明する。
図12において、ステップS1〜S6の処理は、第1実施形態と同様のため、説明を省略する。
ステップS7において、制御手段16は、撮影画像・奥行情報入力手段11Bから全フレーム終了が通知されたか否かを判定する。
全フレーム終了が通知されていない場合(ステップS7でNo)、制御手段16は、ステップS1に戻り、錯視立体画像生成装置10Bの各手段に次フレームの処理を行わせる。
全フレーム終了が通知された場合(ステップS7でYes)、制御手段16は、錯視立体画像生成装置10Bの各手段に処理を終了させる。
全フレーム終了が通知されていない場合(ステップS7でNo)、制御手段16は、ステップS1に戻り、錯視立体画像生成装置10Bの各手段に次フレームの処理を行わせる。
全フレーム終了が通知された場合(ステップS7でYes)、制御手段16は、錯視立体画像生成装置10Bの各手段に処理を終了させる。
[作用・効果]
以上のように、第2実施形態に係る錯視立体画像生成装置10Bは、ホロウマスクの視覚効果に加え、被写体の変化も表現できるので、エンターテイメント性をさらに向上させることができる。
以上のように、第2実施形態に係る錯視立体画像生成装置10Bは、ホロウマスクの視覚効果に加え、被写体の変化も表現できるので、エンターテイメント性をさらに向上させることができる。
(変形例)
以上、本発明の各実施形態を詳述してきたが、本発明は前記した各実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
前記した各実施形態では、サンプリング線が8本であることとして説明したが、2本以上であればよい。また、サンプリング線は、等間隔でなくともよい。
前記した各実施形態では、インテグラル方式の立体画像を生成することとして説明したが、これに限定されない。例えば、本発明は、ホログラフィー方式、レンチキュラー方式等の空間像再生方式にも適用することができる。
以上、本発明の各実施形態を詳述してきたが、本発明は前記した各実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
前記した各実施形態では、サンプリング線が8本であることとして説明したが、2本以上であればよい。また、サンプリング線は、等間隔でなくともよい。
前記した各実施形態では、インテグラル方式の立体画像を生成することとして説明したが、これに限定されない。例えば、本発明は、ホログラフィー方式、レンチキュラー方式等の空間像再生方式にも適用することができる。
前記した各実施形態では、錯視立体画像生成装置を独立したハードウェアとして説明したが、本発明は、これに限定されない。例えば、本発明は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記した錯視立体画像生成装置として協調動作させるプログラムで実現することもできる。これらのプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。
10,10B 錯視立体画像生成装置
11,11B 撮影画像・奥行情報入力手段
12 錯視領域設定手段
13 奥行反転基準算出手段
14 奥行反転手段
15 立体画像生成手段
15A 3次元モデル生成手段
15B 要素画像生成手段
16 制御手段
20 立体スクリーン
30 立体画像表示装置
A 錯視領域
B 処理対象画素
D 奥行反転基準
a0,a1 距離
dD,dU 奥行値
L0〜L7 サンプリング線
P0〜P7 参照画素
11,11B 撮影画像・奥行情報入力手段
12 錯視領域設定手段
13 奥行反転基準算出手段
14 奥行反転手段
15 立体画像生成手段
15A 3次元モデル生成手段
15B 要素画像生成手段
16 制御手段
20 立体スクリーン
30 立体画像表示装置
A 錯視領域
B 処理対象画素
D 奥行反転基準
a0,a1 距離
dD,dU 奥行値
L0〜L7 サンプリング線
P0〜P7 参照画素
Claims (6)
- 被写体を撮影した撮影画像と、前記撮影画像の奥行情報とを用いて、前記被写体の立体画像を生成する錯視立体画像生成装置であって、
前記撮影画像に含まれる被写体に対し、ホロウマスク錯視を発生させる錯視領域を設定する錯視領域設定手段と、
前記錯視領域内の各処理対象画素から前記錯視領域の外側に向けて延長した2本以上のサンプリング線上において、前記錯視領域の外側で前記処理対象画素に最も近い参照画素の奥行値を前記奥行情報から取得し、前記サンプリング線ごとに取得した参照画素の奥行値を前記処理対象画素と前記参照画素との距離に応じて重み付け加算することで、前記処理対象画素ごとに奥行反転基準を算出する奥行反転基準算出手段と、
前記奥行反転基準を基準として、前記奥行情報に含まれる錯視領域の奥行を反転させた反転奥行情報を生成する奥行反転手段と、
前記反転奥行情報及び前記撮影画像から前記立体画像を生成する立体画像生成手段と、
を備えることを特徴とする錯視立体画像生成装置。 - 前記奥行反転基準算出手段は、前記処理対象画素の座標(x,y)、前記参照画素の奥行値d、前記サンプリング線の本数T、各サンプリング線の識別番号t(0≦t<T)、及び、前記処理対象画素と前記参照画素との距離atが含まれる式(1)を用いて、
- 前記奥行反転基準算出手段は、前記処理対象画素を中心として、前記サンプリング線を放射状に設定したことを特徴とする請求項1又は請求項2に記載の錯視立体画像生成装置。
- 前記立体画像生成手段として、
前記反転奥行情報を参照して前記被写体の各画素の奥行値を設定することで、前記被写体の3次元モデルを生成する3次元モデル生成手段と、
前記3次元モデルを仮想カメラで撮影することで、インテグラル方式の要素画像を生成する要素画像生成手段と、
を備えることを特徴とする請求項1から請求項3の何れか一項に記載の錯視立体画像生成装置。 - 前記錯視領域設定手段は、顔領域認識処理により前記被写体の顔領域を検出し、検出した前記顔領域を前記錯視領域として設定することを特徴とする請求項1から請求項4の何れか一項に記載の錯視立体画像生成装置
- コンピュータを、請求項1から請求項5の何れか一項に記載の錯視立体画像生成装置として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018217074A JP2020088496A (ja) | 2018-11-20 | 2018-11-20 | 錯視立体画像生成装置及びそのプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018217074A JP2020088496A (ja) | 2018-11-20 | 2018-11-20 | 錯視立体画像生成装置及びそのプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020088496A true JP2020088496A (ja) | 2020-06-04 |
Family
ID=70909033
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018217074A Pending JP2020088496A (ja) | 2018-11-20 | 2018-11-20 | 錯視立体画像生成装置及びそのプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020088496A (ja) |
-
2018
- 2018-11-20 JP JP2018217074A patent/JP2020088496A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11100664B2 (en) | Depth-aware photo editing | |
KR101956149B1 (ko) | 이미지 사이의 광학 흐름의 효율적 결정 | |
CN109615703B (zh) | 增强现实的图像展示方法、装置及设备 | |
KR102120046B1 (ko) | 오브젝트를 표시하는 방법 | |
US20130335535A1 (en) | Digital 3d camera using periodic illumination | |
JP6406853B2 (ja) | 光フィールド映像を生成する方法及び装置 | |
JPWO2004114224A1 (ja) | 仮想視点画像生成方法及び3次元画像表示方法並びに装置 | |
JP2022179473A (ja) | 前の目線からのレンダリングされたコンテンツおよびレンダリングされなかったコンテンツを使用した新しいフレームの生成 | |
JP6300346B2 (ja) | Ip立体映像推定装置及びそのプログラム | |
JP5809607B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
WO2019198570A1 (ja) | 映像生成装置、映像生成方法、プログラム、およびデータ構造 | |
CN105898338A (zh) | 全景视频播放方法及装置 | |
JP5522794B2 (ja) | 立体像生成装置およびそのプログラム | |
JP2011211551A (ja) | 画像処理装置および画像処理方法 | |
EP4150560B1 (en) | Single image 3d photography with soft-layering and depth-aware inpainting | |
JP7257272B2 (ja) | 奥行きマップ生成装置及びそのプログラム、並びに、立体画像生成装置 | |
JP2020088496A (ja) | 錯視立体画像生成装置及びそのプログラム | |
US20130106845A1 (en) | Stereoscopic image display apparatus | |
JP2006211383A (ja) | 立体画像処理装置、立体画像表示装置、及び立体画像生成方法 | |
KR101567002B1 (ko) | 컴퓨터 그래픽스 기반의 스테레오 플로팅 집적 영상생성시스템 | |
JP2020028114A (ja) | 立体画像生成装置及びそのプログラム | |
JP2024078780A (ja) | 立体映像表示システム、ヘッドマウントディスプレイ、要素画像群生成装置及びそのプログラム | |
JP5782761B2 (ja) | 視差画像生成装置、視差画像生成方法、プログラム及び記憶媒体 | |
JP2018050254A (ja) | 画像生成装置及びプログラム | |
JP2018067750A (ja) | 要素画像生成装置およびそのプログラム |