JP2005252459A - 画像生成装置、画像生成方法、及び画像生成プログラム - Google Patents

画像生成装置、画像生成方法、及び画像生成プログラム Download PDF

Info

Publication number
JP2005252459A
JP2005252459A JP2004057730A JP2004057730A JP2005252459A JP 2005252459 A JP2005252459 A JP 2005252459A JP 2004057730 A JP2004057730 A JP 2004057730A JP 2004057730 A JP2004057730 A JP 2004057730A JP 2005252459 A JP2005252459 A JP 2005252459A
Authority
JP
Japan
Prior art keywords
image
stereoscopic display
image data
image processing
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004057730A
Other languages
English (en)
Other versions
JP4125252B2 (ja
Inventor
Shingo Yanagawa
新悟 柳川
Yasuaki Yamauchi
康晋 山内
Kazuki Taira
和樹 平
Rieko Fukushima
理恵子 福島
Yuzo Hirayama
雄三 平山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2004057730A priority Critical patent/JP4125252B2/ja
Priority to KR1020050015944A priority patent/KR100596686B1/ko
Priority to US11/067,662 priority patent/US7486817B2/en
Priority to CNB2005100524436A priority patent/CN100512454C/zh
Publication of JP2005252459A publication Critical patent/JP2005252459A/ja
Application granted granted Critical
Publication of JP4125252B2 publication Critical patent/JP4125252B2/ja
Priority to US12/230,358 priority patent/US20090002483A1/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/307Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using fly-eye lenses, e.g. arrangements of circular lenses
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16FSPRINGS; SHOCK-ABSORBERS; MEANS FOR DAMPING VIBRATION
    • F16F13/00Units comprising springs of the non-fluid type as well as vibration-dampers, shock-absorbers, or fluid springs
    • F16F13/04Units comprising springs of the non-fluid type as well as vibration-dampers, shock-absorbers, or fluid springs comprising both a plastics spring and a damper, e.g. a friction damper
    • F16F13/06Units comprising springs of the non-fluid type as well as vibration-dampers, shock-absorbers, or fluid springs comprising both a plastics spring and a damper, e.g. a friction damper the damper being a fluid damper, e.g. the plastics spring not forming a part of the wall of the fluid chamber of the damper
    • F16F13/08Units comprising springs of the non-fluid type as well as vibration-dampers, shock-absorbers, or fluid springs comprising both a plastics spring and a damper, e.g. a friction damper the damper being a fluid damper, e.g. the plastics spring not forming a part of the wall of the fluid chamber of the damper the plastics spring forming at least a part of the wall of the fluid chamber of the damper
    • F16F13/14Units of the bushing type, i.e. loaded predominantly radially
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】Integral−Imaging方式若しくは多眼方式の立体表示装置全般に表示させる場合にも、画枠歪み等がなく、観察者に違和感を与えない画像を生成することのできる画像生成装置を提供する。
【解決手段】立体表示装置に表示させるべき2次元または3次元の画像データと、レンダリング処理において設定する注視対象30の位置と、立体表示装置の光線の向きとに基づいて、画像データにおける3次元的な位置関係を再現可能な立体表示領域400を算出する立体表示領域算出手段120と、立体表示領域算出手段120が算出した立体表示領域の外部を示す領域外画像データに対して、立体表示領域の内部を示す領域内画像データに対する画像処理と異なる画像処理を施す画像処理手段130と、前記2次元または3次元の画像データから立体表示画像データを生成する画像生成手段140とを備えた。
【選択図】 図2

Description

本発明は、Integral−Imaging方式若しくは多眼方式の立体表示装置における画像生成を行う画像生成装置、画像生成方法、及び画像生成プログラムに関するものである。
立体表示装置、特にIntegral−Imaging方式若しくは多眼方式の立体表示装置で立体映像を表示させた場合、観察者が表示している物体を立体映像として認識しうる限界の領域が存在する。この領域外に立体映像を表示させようとしても、観察者には物体が2重3重に見えてしまうため立体映像として認識させるのは困難であった。
3次元映像を作成する場合は、3次元オブジェクトが配置されている3DCGシーン中に、CG向けの仮想カメラを設定し、さらに仮想カメラの注視点を設定する。そして、仮想カメラに表示される範囲内の画像に対してレンダリングをおこない画像を生成するのが一般的である。
しかし、Integral−Imaging方式若しくは多眼方式の立体表示装置では、表示している物体が観察者に立体映像として見える領域に制限がある。そこで、従来は予め仮想カメラの位置と注視点を決めておき、元々立体映像として見える領域内にのみ物体を配置して画像を生成していた。このため、通常の3次元映像と同じ作り方で画像を作成することができなかった。
また、Integral−Imaging方式若しくは多眼方式をはじめとする飛び出し表現能力を持つ立体表示装置全般に共通する問題として、画枠歪みと呼ばれる問題がある。
画枠歪みとは、飛び出して見える物体が画枠によって遮られた場合に、枠の位置より手前に配置されているように見えなくなる状態のことをいう。この場合、物体は枠に張り付いたように歪んで見えたり、枠の付近の物体が不安定に見えたりするなど、観察者に違和感を与えてしまう。
2眼識立体画像表示装置における画枠歪みの問題を解決する方法としては、最前面に仮想の遮蔽物体を置き、少なくとも立体表示装置の外枠によって物体が遮蔽されるのを避ける方法が知られている(特許文献1参照)。また、立体表示装置の視野枠自体を他の物体よりも手前に見えるように拡大投影する方法が知られている(特許文献2参照)。また、片目側の画像で物体の一部が欠如した場合、もう片方の目の画像も表示を規制することで非有効表示領域を調整する方法が知られている(特許文献3参照。)。また、右目および左目の最前面にそれぞれの非有効表示領域に板(ジオラマボード)を配置することで物理的に非有効表示領域を遮蔽する方法が知られている(特許文献4参照)。
特開平08−234140公報(第1頁、構成) 特開平06−308426公報(第1頁、構成) 特開平08− 65715公報(第1頁、構成) 特開平07−168121公報(第1頁、代表図a) Analysis of resolution limitation of integral photography Journal of the Optical Society of America-A,Vol.15,No.8,pp.2059〜2065(1998) H. Hoshino, F. Okano, H. Isono, and I. Yuyama Science and Technical Research Laboratories, NHK
上述のように、2眼式の立体表示装置においては画枠歪み等の問題を解決する方法が提案されているが、Integral−Imaging方式若しくは多眼方式の立体表示装置における画枠歪み等の問題を解決する方法はなく、解決する方法の提供が望まれていた。
このように、Integral−Imaging方式若しくは多眼方式の立体表示装置に表示する映像を、通常のCG向け仮想カメラのように3DCGのシーン内に仮想カメラと注視点を配置して、仮想カメラに映るシーンの立体映像を生成することにより生成するのは困難であった。
本発明は、上記に鑑みてなされたものであって、Integral−Imaging方式若しくは多眼方式の立体表示装置全般に表示させる場合にも、画枠歪み等がなく、観察者に違和感を与えない画像を生成することのできる画像生成装置、画像生成方法、及び画像生成プログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、立体表示装置に表示させる立体表示画像データを生成する画像生成装置において、前記立体表示装置に表示させるべき2次元または3次元の画像データと、前記立体表示装置から出力される光線に対応して前記画像データを2次元に描画するレンダリング処理において設定する仮想カメラの注視対象の位置と、前記立体表示装置から出力される光線の向きとに基づいて、前記画像データを前記立体表示装置に表示させた場合に前記画像データにおける3次元的な位置関係を再現可能な立体表示領域を算出する立体表示領域算出手段と、前記画像データのうち、前記立体表示領域算出手段が算出した前記立体表示領域の外部を示す領域外画像データに対して、前記立体表示領域の内部を示す領域内画像データに対する画像処理と異なる画像処理を施す画像処理手段と、前記画像処理手段により処理された後の前記2次元または3次元の画像データから前記立体表示画像データを生成する画像生成手段とを備えたことを特徴とする。
また、本発明は、立体表示装置に表示させる立体表示画像データを生成する画像生成方法において、前記立体表示装置に表示させるべき2次元または3次元の画像データと、前記立体表示装置から出力される光線に対応して前記画像データを2次元に描画するレンダリング処理において設定する仮想カメラの注視対象の位置と、前記立体表示装置から出力される光線の向きとに基づいて、前記画像データを前記立体表示装置に表示させた場合に前記画像データにおける3次元的な位置関係を再現可能な立体表示領域を算出する立体表示領域算出ステップと、前記画像データのうち、前記立体表示領域算出ステップにおいて算出された前記立体表示領域の外部を示す領域外画像データに対して、前記立体表示領域の内部を示す領域内画像データに対する画像処理と異なる画像処理を施す画像処理ステップと、前記画像処理ステップにおいて処理された後の前記2次元または3次元の画像データから前記立体表示画像データを生成する画像生成ステップとを有することを特徴とする。
また、本発明は、立体表示装置に表示させる立体表示画像データを生成する画像生成処理をコンピュータに実行させる画像生成プログラムにおいて、前記立体表示装置に表示させるべき2次元または3次元の画像データと、前記立体表示装置から出力される光線に対応して前記画像データを2次元に描画するレンダリング処理において設定する仮想カメラの注視対象の位置と、前記立体表示装置から出力される光線の向きとに基づいて、前記画像データを前記立体表示装置に表示させた場合に前記画像データにおける3次元的な位置関係を再現可能な立体表示領域を算出する立体表示領域算出ステップと、前記画像データのうち、前記立体表示領域算出ステップにおいて算出された前記立体表示領域の外部を示す領域外画像データに対して、前記立体表示領域の内部を示す領域内画像データに対する画像処理と異なる画像処理を施す画像処理ステップと、前記画像処理ステップにおいて処理された後の前記2次元または3次元の画像データから前記立体表示画像データを生成する画像生成ステップとをコンピュータに実行させることを特徴とする。
本発明にかかる画像生成装置は、観察者にとって正しく立体視しうる領域、すなわち3次元的な位置関係を正確に再現可能な立体表示領域を算出し、この立体表示領域の内部と外部に対してそれぞれ適切な画像処理を施すことができるので、観察者が正しく立体視しうる立体表示画像データを生成することができるという効果を奏する。
以下に、本発明にかかる立体画像処理装置の実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。
(実施の形態)
実施の形態にかかる画像生成装置10は、画像データを任意のカメラ位置と注視点位置でレンダリングする。そして、Integral−Imaging方式若しくは多眼方式の立体画像表示装置に表示するための立体画像データを生成する。
画像生成装置10の機能構成を説明する前提として、図1を参照しつつレンダリング処理について説明する。レンダリング処理とは、画像データを2次元スクリーンに描画する処理のことである。レンダリング処理においては、仮想カメラ600と注視点30とを設定する。仮想カメラとは、立体表示装置が出力する光線32に対応して決定された位置に配置された仮想的なカメラである。図1においては、仮想カメラ600は、ディスプレイパネル22の中央正面に配置されている。
また、注視点30は、ディスプレイパネル22の中央に設定されている。なお、本実施の形態においては注視点を設定したが、注視点にかえて注視対象を設定してもよい。
そして、near clip602およびfar clip604を設定する。near clip602は、ディスプレイパネル22よりも観察者側の領域、すなわちオブジェクトが飛び出しているように見える飛び出し側領域221に設定されている。また、far clip604は、観察者から見てディスプレイパネル22よりも奥側の奥行き側領域222に設定されている。また、図1に示す仮想カメラ600に対するnear clip602およびfar clip604は、いずれも注視点30の奥行き方向210に対して垂直に設けられている。
near clip602とfar clip604によって区切られた空間は、正しく立体視しうる領域であり、この領域に対して立体視に関する画像処理が施される。ここで、立体視に関する画像処理としては、例えば、3次元座標系から2次元座標系に変換し、当該空間内のオブジェクトをディスプレイパネル22に投影する透視投影変換処理や、本来見えない線を消去したりする隠面消去処理などがある。
以下、画像生成装置10について説明する。図2は、実施の形態にかかる画像生成装置10の機能構成を示すブロック図である。画像生成装置10は、3Dシーンデータ取得部101と、立体表示装置パラメータ取得部102と、カメラパラメータ取得部103と、立体表示領域計算部120と、画像データ処理部130と、多視点画像生成部140とを備えている。
3Dシーンデータ取得部101は、レンダリング処理の対象とすべき2Dまたは3Dオブジェクトによって表現される3次元モデル空間上の3Dシーンデータを取得する。ここで対象とするオブジェクトは、1つであってもよく、または複数であってもよい。
立体表示装置パラメータ取得部102は、立体表示装置の各種パラメータを取得する。各種パラメータとしては、立体表示装置において観察者が視認可能な視域、立体表示装置が表示する画像データの画素ピッチ、レンチキュラパネルのレンズピッチ、観視角、想定される観察者と立体表示装置との間の視距離、これらのパラメータから求められるナイキスト周波数の許容値などがある。ここで、ナイキスト周波数とは、観察者が立体視可能な周波数のことである。
カメラパラメータ取得部103は、一般的な平行投影カメラモデルにおけるカメラパラメータを取得する。カメラパラメータとしては、3Dモデル空間上の仮想カメラの注視対象となる2Dまたは3Dオブジェクトに関する条件、仮想カメラの位置、平行投影面の大きさ、near clip、far clipなどがある。
以上3Dシーンデータ取得部101、立体表示装置パラメータ取得部102、およびカメラパラメータ取得部103が取得する設定条件は例えばユーザインターフェースを介して利用者から入力される。
立体表示領域計算部120は、3Dシーンデータ取得部101、立体表示装置パラメータ取得部102、カメラパラメータ取得部103のそれぞれから各情報を取得し、これらの情報に基づいて、ディスプレイパネル22において観察者が正しく立体視し得る領域、すなわち立体表示領域を算出する。具体的には、観察者が立体視可能なナイキスト周波数の許容値を満たす範囲、想定される観察者と立体表示装置との間の視距離、注視点(注視対象)、カメラパラメータから、飛び出し限界、奥行き限界、画枠歪みの発生する領域から立体表示領域を算出する。
ここで、飛び出し限界とは、立体映像として認識しうる限界のうち、飛び出し側領域221での奥行き方向210における境界のことである。また、奥行き限界とは、奥行き側領域222での奥行き方向210における境界のことである。なお、注視点の存在するカメラ平面と平行な面から飛び出し限界までの距離、およびカメラ面と平行な面から奥行き限界までの距離は、いずれもナイキスト周波数とその許容値によって決定される(参考文献1参照。)。
また、画枠歪みとは、画枠から飛び出して見えるオブジェクトが画枠と重なって見えた場合に、画枠より手前に位置するように認識されなくなる、オブジェクトが画枠に張り付いたように歪んで見える、画枠の付近に不安定な立体像が見えるなどの現象のことである。
以下、図3から図5を参照しつつ立体表示領域計算部120の処理について詳述する。図3から図5は、水平方向に視差表現能力を持つIntegral−Imaging方式若しくは多眼方式の立体表示装置が出力する光線情報を立体表示装置の表示面の上方向から見た図である。
図3は、飛び出し限界401と奥行き限界402とを示している。また、領域200は、ディスプレイパネル22が光線を出力する領域である。出力角202は、注視点30から出力される光線の範囲、すなわち視差成分の出力範囲である。
q200においては、ディスプレイパネル22の各位置から注視点30から光線が出力されるのと同様に、出力角202の光線が出力される。したがって、光線の出力方向の観点からは、q200に立体視の対象となるオブジェクトを配置することが可能である。
しかし、領域200内のオブジェクトであっても、飛び出し限界401よりも観察者側に配置されたオブジェクトは、観察者に、2重3重に見えてしまう。すなわち、立体視に破綻を来たす。
これは、ディスプレイパネル22から奥行き方向210に距離が離れるにつれて、ディスプレイパネル22が出力する光線情報の密度が低下するためである。すなわち、光線情報の密度が低下することにより、観察者には、ディスプレイパネル22から離れた位置に見えるべきオブジェクトと違う方向から見た場合のオブジェクトとが混ざり、異なるオブジェクトが2重3重に見えてしまう。
飛び出し限界401は、このような光線情報の密度の低下のない領域の限界位置である。同様に、奥行き限界402は、観察者と反対側の方向おける、光線情報の密度の低下のない領域の限界位置である。
図4−1および図4−2は、いわゆる画枠歪みを説明するための図である。図4−1に示すように観察者が位置300からオブジェクト310を観察した場合には、両眼ともオブジェクト310に焦点を合わせることができる。したがって、観察者は、オブジェクト310がディスプレイパネル22よりも手前方向210に位置するように認識することができる。しかし、図4−2に示すように観察者が位置302からオブジェクト310を観察した場合、右眼はオブジェクト310に焦点を合わせることができるが、左眼は、オブジェクト310に焦点を合わせることができない。これは、左眼とオブジェクト310を結ぶ直線320上にディスプレイパネル22が存在せず、左眼にはオブジェクト310の光線情報が入らないためである。
左眼はさらに奥行き方向210に離れた位置にあるディスプレイパネル22の画枠23に焦点を合わせてしまう。これにより、位置302からオブジェクト310を見た場合には、実際にはオブジェクト310よりも奥行き方向210に離れた位置にあるq23によって、オブジェクト310が遮断されたように見える。
このような画枠歪みを解消するため、ディスプレイパネル22に表示させるべき画像データのディスプレイパネル22の面方向230においては、観察者の位置によっては、画枠歪みが生じ得る領域を除外した領域を立体表示領域としている。
図5は、立体表示領域計算部120が算出した立体表示領域400を示している。立体表示領域400は、飛び出し側領域221の飛び出し側立体表示領域410と、奥行き側領域222の奥行き側立体表示領域420とを有している。また、立体表示領域400から画像歪み領域430,432は除かれている。ここで、画枠歪み領域430,432は、観察者の位置によっては、図4−1および図4−2を参照しつつ説明した画枠歪みが生じ得る領域である。
このように、立体表示領域計算部120は、立体表示領域の奥行き方向210を光線情報の密度が十分な範囲に制限し、かつ画枠歪みが生じる画像歪み領域430,432を除外することにより観察者が正しく立体視可能な領域を、立体表示領域として算出することができる。
画像データ処理部130は、立体表示領域外の画像データに対して、立体視に悪影響を与える立体表示領域外の2D或いは3Dオブジェクトに対して、悪影響を除外または軽減させるための処理を行う。
図6は、画像データ処理部130の詳細な機能構成を示すブロック図である。画像データ処理部130は、飛び出し方向処理部132と奥行き方向処理部134とを有している。飛び出し方向処理部132は、飛び出し側領域221に存在する各オブジェクトに対して、当該オブジェクトと注視対象との距離に応じた各種処理を施す。また、奥行き方向処理部134は、奥行き側領域222に存在するオブジェクトに対して、当該オブジェクトと注視対象との距離に応じた各種処理を施す。
図7−1および図7−2を参照しつつ飛び出し方向処理部132の処理について説明する。図7−1は、オブジェクト310と奥行き側立体表示領域410とを示している。なお、図7−1は、画像歪みの発生する領域を含まない奥行き側立体表示領域410の例を示している。
本実施の形態にかかる飛び出し方向処理部132は、立体表示領域400の境界412よりも所定の距離だけ内側に処理境界414を予め設定する。そして、処理境界414を境界として、処理境界414よりも注視点30側、すなわち処理境界414の内側のオブジェクトと処理境界414よりも観察者側、すなわち処理境界414の外側のオブジェクトに対して異なる処理を施す。
具体的には、処理境界414の内側の領域にあるオブジェクトに対して完全不透過で表示させる処理を施す。また、処理境界414から境界412の間の領域にあるオブジェクトに対しては、当該オブジェクトと注視点30との距離に応じて徐々にオブジェクトをフェードさせる処理を施す。また、境界412よりも観察者側の領域のオブジェクトを完全透過およびクリッピングさせる処理を施す。
図7−2は、上記処理により生成された画像データにおけるオブジェクトの不透過度を示すグラフを示している。横軸は、注視対象からオブジェクトまでの距離を示している。縦軸は、オブジェクトの不透過度を示している。
処理境界414と境界412の間の領域においては、オブジェクトと注視点30との距離に応じた強度のフェード処理を施す。これにより、図7−2に示すように、立体視が困難になる領域におけるオブジェクトの不透過度は徐々に低下する。
図7−1に示す奥行き側立体表示領域410の境界412内部にオブジェクトが配置されている場合には、観察者は、オブジェクトを正しく立体視することができる。例えば、注視点30から距離4122の位置4121までの間にオブジェクトが配置されている場合には観察者はオブジェクトを正しく立体視することができる。
一方、境界412よりも観察者側に離れたオブジェクトをクリッピングした場合、境界位置が明確になり、観察者が立体視した場合に違和感を抱く恐れがある。しかし、上述のように、飛び出し方向処理部132は、境界412よりも注視点30側からオブジェクトに対してフェード処理を施しているので、クリッピングによる不自然さを軽減させることができる。
このように、飛び出し方向処理部132は、各オブジェクトに対して、当該オブジェクトと注視点30との距離に応じて異なる処理を施すことにより、正しく立体視できない領域が見えることにより観察者に違和感を抱かせるのを低減することができる。
処理境界414から境界412の間の領域に対しては、対象となるオブジェクトと注視点30との距離に応じた強度のフェード処理を施す。例えば、フェード処理の強度は、オブジェクトと注視点30との距離と比例関係にあってもよい。フェード処理の強度とオブジェクトと注視点30との距離との関係は、特に限定されるものではなく、距離に応じて強度が定まる関係であればよい。
また、図7−2に示すように、処理境界414と境界412の間の領域に対しては、フェード処理の強度を徐々に低くすることにより、立体視が困難になる領域におけるオブジェクトの不透過度を徐々に低くしていくことができる。そして、フェード処理により不透明度が減少したところで、境界412の位置よりも観察者側の領域にクリッピング等の処理を行うので、立体視が困難な領域に配置されたオブジェクトにより観察者に違和感を与えるのを低減させることができる。
このように、q2501を基準として、注視点30からの距離に応じて異なる画像処理を施すことにより、観察者が違和感を抱くことなく正しく立体視しうる画像データを生成することができる。
次に、図8−1および図8−2を参照しつつ画像歪みが生じる場合の飛び出し方向処理部132の処理について説明する。図8−1に示す奥行き側立体表示領域410の両端には画像歪み領域430,432が生じている。
この場合、飛び出し方向処理部132は、画枠歪み領域430,432および境界412を境界として、各オブジェクトに異なる処理を施す。そこで、画枠歪み領域430,432が生じている場合には、画枠歪み領域430,432および境界412を境界として異なる処理を施す。
具体的には、境界412の内側の領域に対しては、オブジェクトを完全不透過で表示させる処理を施す。また、画枠歪み領域430,432の内側の領域に対しては、フェード処理を施す。また、画枠歪み領域430,432の観察者側の境界領域の外側のオブジェクトを完全透過およびクリッピングさせる処理を施す。
図8−2は、上記処理により生成された画像データにおけるオブジェクトの不透過度のグラフを示している。横軸は、注視対象からオブジェクトまでの距離を示している。縦軸は、オブジェクトの不透過度を示している。
画枠歪み領域430,432の領域の内側においては、オブジェクトと注視点30との距離に応じた強度でフェード処理を施す。これにより、図8−2に示すように、立体視が困難になる領域におけるオブジェクトの不透過度は徐々に低下する。
以上の処理を行うことにより、画枠歪みが発生している場合であっても、画枠歪みが発生していない場合と同様に、観察者は、奥行き側立体表示領域410の境界412内部に配置されたオブジェクトを正しく立体視することができる。例えば、注視点30から距離4122の位置4121までの間にオブジェクトが配置されている場合には観察者は正しく立体視することができる。
また、図8−2に示すように、画枠歪み領域430,432の内側において注視点30からの距離に応じてフェード処理の強度を徐々に低くすることにより、立体視が困難になる領域におけるオブジェクトの不透過度を徐々に低下させることができる。そして、フェード処理により不透過度を減少させた後に、画枠歪み領域430,432の他方の境界位置よりも観察者側のオブジェクトに対してはクリッピング等を行うので、立体視が困難な領域に配置されたオブジェクトにより観察者に違和感を与えるのを低減させることができる。
このように、画枠歪みの問題が生じている場合においても、画枠歪みが生じていない場合と同様に、観察者が違和感を抱くことなく正しく立体視しうる画像データを生成することができる。
次に図9−1および図9−2を参照しつつ、図6で説明した奥行き方向処理部134の処理について説明する。図9−1は、飛び出し側立体表示領域420とオブジェクト310とを示している。
本実施の形態にかかる奥行き方向処理部134は、飛び出し側立体表示領域420の境界422より内側に第1処理境界424を予め設定する。また、飛び出し側立体表示領域420よりも奥行き方向に第2処理境界426を予め設定する。
第1処理境界424および第2処理境界426の位置は、例えば境界422との関係で定めることとしてもよい。たとえば、境界422から所定の距離だけ内側の位置を第1処理境界424としてもよい。また例えば、境界422から所定の距離だけ奥行き方向に離れた位置を第2処理境界426としてもよい。また例えば境界422との相対的な距離の関係で第1処理境界424および第2処理境界426を定めてもよい。
図9−2は、奥行き方向処理部134による処理により生成された画像データにおけるオブジェクトの不透過度のグラフを示している。横軸は、注視対象からオブジェクトまでの距離を示している。縦軸は、オブジェクトの不透過度を示している。
奥行き方向処理部134は、第1処理境界424から第2処理境界426の間のオブジェクトに対して、ディスプレイパネル22からの距離に応じた強度のフェード処理を施す。より具体的には、ディスプレイパネル22からの距離に応じてフェード処理の強度を大きくする。これにより、図9−2に示すように、第1処理境界424から第2処理境界426にかけて徐々に不透過度が低下する。そして、第2処理境界426よりも奥行き方向に存在するオブジェクトをクリップする。
このように、第1処理境界424から第2処理境界426の間でフェード処理の強度を徐々に大きくすることにより、徐々にオブジェクトが透明になるように見せることができる。そして、フェード処理により不透過度が減少したところで、第2処理境界426よりも奥行き方向のオブジェクトに対してクリッピング処理を行うので、立体視が困難な領域に配置されたオブジェクトにより観察者に違和感を与えるのを低減させることができる。
このように、飛び出し側立体表示領域420においても、ディスプレイパネル22からの距離に応じて異なる強度のフェード処理を施すことにより、観察者が違和感を抱くことなく正しく立体視しうる画像データを生成することができる。
以上で説明した飛び出し方向処理部132および奥行き方向処理部134の処理により、画像データ処理部130における画像データ処理が完了する。
なお、実施の形態にかかる飛び出し方向処理部132および奥行き方向処理部134は、各オブジェクト単位に処理を施したが、他の例としては、オブジェクトを構成するポリゴン単位に処理を施してもよい。また他の例としては、ポリゴンを構成する頂点単位に処理を施してもよい。
飛び出し方向処理部132および奥行き方向処理部134が、3D及び2Dオブジェクトに対して施す処理は、注視点(注視対象)から表示対象物体の距離に応じて、イフェクトの種類、強度を決定するものある。したがって、フェード処理に限らず、ぼかし処理、スケーリング、ブラー処理、フォグ等、立体表示時の破綻を軽減させる処理イフェクトであればよく、実施の形態に限定されるものではない。
図10−1および図10−2は、他の例にかかる飛び出し方向処理部132および奥行き方向処理部134が、3D及び2Dオブジェクトに対して施す処理を説明するための図である。本例においては、飛び出し方向処理部132および奥行き方向処理部134は、各オブジェクトが配置位置を含み、仮想カメラ600および注視点30を通る直線450に垂直な平面と、仮想カメラ600の位置を含み、直線450に垂直な平面との距離に応じた倍率への変換処理を行う。
図11に示すグラフは、仮想カメラ600を含む平面からの距離と、処理倍率との関係を示している。グラフに示すように、仮想カメラ600を含む平面からの距離が遠いほど低倍率への変換を行う。
図10−1および図10−2においては、仮想カメラ600を含む平面からオブジェクトCを含む平面までの距離451、仮想カメラ600を含む平面からオブジェクトBを含む平面までの距離452および仮想カメラ600を含む平面からオブジェクトAを含む平面までの距離453は、この順に大きくなっている。従って、オブジェクトC、オブジェクトBおよびオブジェクトAは、この順により低倍率への処理が施されている。
このように、オブジェクトに対して、仮想カメラ600からの距離に応じた倍率への変換を施すことにより、より自然な画像を生成することができる。
また、飛び出し方向処理部132および奥行き方向処理部134は、各オブジェクトに対して、当該オブジェクトと注視点(注視対象)との距離に応じた各種処理を施したが、これにかえて、オブジェクトと立体表示領域の境界との距離に応じた各種処理を施してもよい。このように、距離の基準となる一方の位置は、立体表示領域内の任意の位置であればよく、実施の形態に限定されるものではない。
多視点画像生成部140は、画像データ処理部130により処理された画像データに対して、多視点レンダリングを行う。より具体的には、多視点画像生成部140は、立体表示装置パラメータ取得部102が取得した仮想カメラの位置から、カメラパラメータ取得部103が取得したディスプレイパネル22の視差成分の各方向から平行投影カメラを用いて行う。図12を参照しつつ多視点画像生成部140の処理について詳述する。
図12は、Integral−Imaging方式若しくは多眼方式の立体表示装置のディスプレイパネル22が出力する光線と平行投影カメラの関係について示している。ディスプレイパネル22が出力する光線に沿って平行投影カメラを設置する。例えば、ディスプレイパネル22における位置510からは5本の光線511〜515が出力されている。これら5本の光線511〜515の延長上にそれぞれ平行投影カメラ600を設置する。そして、各平行投影カメラ600の位置においてレンダリング処理を行い、処理結果をIntegral−Imaging方式若しくは多眼方式の立体表示装置が出力する光線としてパネルにマッピングする。
なお、画像データ処理部130は、すでに立体表示領域400の外部のオブジェクトに対し、正しく立体視しうるように処理しているので、多視点画像生成部140による処理により、破綻のない立体視を実現できる多視点画像を生成することができる。
多視点画像生成部140は、Integral−Imaging方式若しくは多眼方式の立体表示装置が出力する光線の向きの種類分の多視点画像を出力する。他の例としては、カメラパラメータ取得部103が取得した立体表示装置のレンチキュラまたはスリットの配置に応じて、多視点画像を立体表示装置の出力としてマッピングしたデータを出力してもよい。
図13は、多視点画像生成部140が所定の方向から多視点画像を生成する処理を説明するための図である。
多視点画像生成部140は、注視対象30からディスプレイパネル22が出力する光線の延長線上に平行投影カメラ600を設定する。そして、ディスプレイパネル22よりも観察者側に平行投影カメラ600のnear clip面710を設定する。また、ディスプレイパネル22から奥行き方向210に離れた位置に仮想カメラ600のfar clip面720を設定する。そして、平行投影カメラ600のnear clip面710とfar clip面720との間のレンダリング範囲700に対してレンダリング処理を行う。ここで、レンダリング範囲700の幅730は、仮想カメラ600のカメラ面610の幅と一致する。
多視点画像生成部140は、レンダリングを行う場合に、ディスプレイパネル22からの距離に応じて定まる強度のレンダリングイフェクトを施してもよい。図14は、near clip面710からfar clip面720の間で強度を変化させてフォグレンダリングした場合のフォグ効果の強度を示すグラフである。横軸は、ディスプレイパネル22からの距離を示している。縦軸は、フォグ効果の強度を示している。
図14に示すように本実施の形態にかかる多視点画像生成部140は、注視点30と飛び出し限界401の間でフォグレンダリングの強度を変化させる。これにより、観察者に飛び出し限界401の手前から徐々に霧がかかっているように見せることができる。これにより、飛び出し限界401を境に立体視が困難になり観察者に違和感を与えるのを避けることができる。
なお、実施の形態においては、多視点画像生成部140は画像データに対してフォグレンダリングを施したが、画像データに対して施す処理は、観察者が正しく立体視するのを阻害するような立体表示時の破綻を軽減させるレンダリングイフェクトであればよく、フォグレンダリングに限定されるものではない。
また、実施の形態においては、ディスプレイパネル22からの距離に応じてレンダリングイフェクト処理の強度を異ならせたが、他の例としては、注視対象からの距離に応じてレンダリングイフェクト処理の強度を異ならせてもよい。
図15は、実施の形態に係る画像生成装置10のハードウェア構成を示す図である。画像生成装置10は、ハードウェア構成として、画像生成装置10における立体画像処理を実行する立体画像処理プログラムなどが格納されているROM52と、ROM52内のプログラムに従って画像生成装置10の各部を制御し、バッファリング時間変更処理等を実行するCPU51と、ワークエリアが形成され、画像生成装置10の制御に必要な種々のデータを記憶するRAM53と、ネットワークに接続して、通信を行う通信I/F57と、例えば半導体メモリ、CD−ROM、DVD、磁気ディスク等の記録媒体に記録されたプログラムを読み込む記録媒体読取部58と、画像などが表示される表示装置59と、キーボードや各種ポインティングデバイスなどを含む入力装置60と、プログラムやデータなどを記憶するための主記憶装置61と、各部を接続するバス62とを備えている。
先に述べた画像生成装置10における立体画像処理プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フロッピー(R)ディスク(FD)、DVD等のコンピュータで読み取り可能な記録媒体70に記録されて提供されてもよい。
この場合には、立体画像処理プログラムは、画像生成装置10において上記記録媒体70から読み出して実行することにより主記憶装置上にロードされ、上記ソフトウェア構成で説明した各部が主記憶装置上に生成されるようになっている。
また、本実施の形態の立体画像処理プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。
以上、本発明を実施の形態を用いて説明したが、上記実施の形態に多様な変更または改良を加えることができる。
そうした第1の変更例について説明する。図16は、第1の変形例にかかる奥行き方向処理部134の詳細な機能構成を示すブロック図である。変形例にかかる奥行き方向処理部134は、奥行き方向オブジェクト処理部1342と背景オブジェクト生成部1344とを有している。
奥行き方向オブジェクト処理部1342は、飛び出し側立体表示領域420内のオブジェクトに対して実施の形態にかかる奥行き方向処理部134と同様に、強度の異なるフェード処理を施す。
背景オブジェクト生成部1344は、飛び出し限界401よりも奥側の領域、すなわちレンダリング範囲に対してレンダリング処理を行う。そして、得られた2Dイメージを奥行き限界401の位置に背景オブジェクトとして配置する。ここで、背景オブジェクト自体に他のオブジェクトからの影は映り込まないものとする。
このように、飛び出し側領域221と奥行き側領域222とにおいてそれぞれ異なる画像処理を施してもよい。このように、各オブジェクトの位置に応じて異なる画像処理を施すことにより自然な立体視が可能な画像データを生成することができる。
図17は、背景オブジェクト生成部1344がレンダリング処理を行うレンダリング範囲を示している。図17に示すレンダリング範囲800は、平行投影カメラモデルを用いた場合の範囲である。レンダリング範囲800の奥行き方向210における境界位置は、図17に示すように、飛び出し限界401に設定されたnear clip810と、far clip820に一致する。また、レンダリング範囲700の幅は、仮想カメラ600のカメラ面610の幅と一致する。
なお、平行投影カメラモデルを用いた場合は、奥行き方向オブジェクト処理部1342は、オブジェクトに対して、注視点30またはディスプレイパネル22からの距離に応じた拡大縮小処理を行ってもよい。平行投影カメラモデルにおいては、ディスプレイパネル22からの距離に応じてオブジェクトの見掛けの大きさが変化しないので、ディスプレイパネル22からの距離に応じた拡大縮小処理を行うことにより、観察者に正しい立体感を抱かせることができる。
図18は、他の例として透視投影カメラモデルを用いた場合のレンダリング範囲800を示している。この場合には、レンダリング範囲800の面内方向230の境界位置は、円錐の側面に沿った位置と一致する。
第2の変更例としては、飛び出し方向処理部132と奥行き方向処理部134とは、レンダリング処理において設定するカメラの向きに応じてオブジェクトの透過度を異ならせてもよい。図19および図20は、第2の変更例にかかる画像処理を説明するための図である。図19は、仮想カメラの向きと透過度の関係を示している。また、図20は、仮想カメラの向きに応じてオブジェクトAの透過度を変化させる画像処理を説明するための図である。
図19に示すように、第2の変更例にかかる飛び出し方向処理部132と奥行き方向処理部134とは、オブジェクトAの透過度がカメラの向きに応じて定まる値となるように画像処理する。
具体的には、例えば、図20に示すように、仮想カメラ600は、オブジェクトAの注視点の正面の位置である第1カメラ位置601に設置されているとする。この場合には、オブジェクトBは、オブジェクトAに隠れる。従って、この場合には、オブジェクトAの透過度を0とする。すなわち、不透過とする。図21−1は、このときのオブジェクトAとオブジェクトBを示している。このように、オブジェクトAが不透過なので、オブジェクトBのうちオブジェクトAと重なっている部分は、完全に隠れる。
また、仮想カメラ600がカメラ位置601からずれた第2カメラ位置602に設置されているとする。この場合には、オブジェクトAの陰に位置するオブジェクトBを透けて見えるようにするとより観察者により自然な印象を与える。そこで、この場合には、第1カメラ位置601に設置される場合に比べてオブジェクトAの透過度を高くするように画像処理する。図21−2は、このときのオブジェクトAとオブジェクトBを示している。このように、オブジェクトAが完全に不透過ではないので、オブジェクトBが透けて見える。
このように、本変更例によれば、透過度を変更することにより、違和感のない画像を生成することができる。
以上のように、本発明にかかる画像生成装置、画像生成方法、及び画像生成プログラムは、立体画像データの生成に有用であり、特に、Integral−Imaging方式若しくは多眼方式の立体表示装置に表示させる立体画像データの生成に適している。
レンダリング処理について説明するための図である。 画像生成装置10の機能構成を示すブロック図である。 飛び出し限界401と奥行き限界402とを示す図である。 画枠歪みを説明するための図である。 画枠歪みを説明するための図である。 立体表示領域計算部120が算出した立体表示領域400を示す図である。 画像データ処理部130の詳細な機能構成を示すブロック図である。 画枠歪みが発生していない場合のオブジェクトと奥行き側立体表示領域410とを示す図である。 画枠歪みが発生していない場合における奥行き側立体表示領域410側のオブジェクトの不透過度を示すグラフを示す図である。 画枠歪みが発生している場合におけるオブジェクトと奥行き側立体表示領域410とを示す図である。 画枠歪みが発生している場合における奥行き側立体表示領域410側のオブジェクトの不透過度を示すグラフを示す図である。 オブジェクトと飛び出し側立体表示領域420とを示す図である。 飛び出し側立体表示領域420側のオブジェクトの不透過度のグラフを示す図である。 飛び出し方向処理部132および奥行き方向処理部134の処理を説明するための図である。 飛び出し方向処理部132および奥行き方向処理部134の処理を説明するための図である。 仮想カメラ平面からの距離と処理倍率との関係を示す図である。 Integral−Imaging方式若しくは多眼方式の立体表示装置のディスプレイパネル22が出力する光線と平行投影カメラの関係について示す図である。 多視点画像生成部140が所定の方向から多視点画像を生成する処理を説明するための図である。 near clip面710からfar clip面720の間で強度を変化させてフォグレンダリングした場合のフォグ効果の強度を示すグラフを示す図である。 実施の形態に係る画像生成装置10のハードウェア構成を示す図である。 第1の変形例にかかる奥行き方向処理部134の詳細な機能構成を示すブロック図である。 第1の背景オブジェクト生成部1344がレンダリング処理を行うレンダリング範囲を示す図である。 他の例として透視投影カメラモデルを用いた場合のレンダリング範囲800を示す図である。 第2の変更例にかかる、仮想カメラの向きと透過度の関係を示すグラフを示す図である。 仮想カメラの向きに応じてオブジェクトAの透過度を変化させる画像処理を説明するための図である。 オブジェクトAが不透過な場合のオブジェクトAとオブジェクトBの画像処理後の状態を示す図である。 オブジェクトAが透過な場合のオブジェクトAとオブジェクトBの画像処理後の状態を示す図である。
符号の説明
10 画像生成装置
22 ディスプレイパネル
23 画枠
30 注視点
58 記録媒体読取部
59 表示装置
60 入力装置
61 主記憶装置
62 バス
70 記録媒体
101 シーンデータ取得部
102 立体表示装置パラメータ取得部
103 カメラパラメータ取得部
120 立体表示領域計算部
130 画像データ処理部
132 飛び出し方向処理部
134 奥行き方向処理部
140 多視点画像生成部
600 平行投影カメラ
610 カメラ面
700,800 レンダリング範囲
1342 方向オブジェクト処理部
1344 背景オブジェクト生成部

Claims (13)

  1. 立体表示装置に表示させる立体表示画像データを生成する画像生成装置において、
    前記立体表示装置に表示させるべき2次元または3次元の画像データと、前記立体表示装置から出力される光線に対応して前記画像データを2次元に描画するレンダリング処理において設定する仮想カメラの注視対象の位置と、前記立体表示装置から出力される光線の向きとに基づいて、前記画像データを前記立体表示装置に表示させた場合に前記画像データにおける3次元的な位置関係を再現可能な立体表示領域を算出する立体表示領域算出手段と、
    前記画像データのうち、前記立体表示領域算出手段が算出した前記立体表示領域の外部を示す領域外画像データに対して、前記立体表示領域の内部を示す領域内画像データに対する画像処理と異なる画像処理を施す画像処理手段と、
    前記画像処理手段により処理された後の前記2次元または3次元の画像データから前記立体表示画像データを生成する画像生成手段と
    を備えたことを特徴とする画像生成装置。
  2. 前記画像処理手段は、前記領域外画像データに対して、ぼかし処理を施すことを特徴とする請求項1に記載の画像生成装置。
  3. 前記画像処理手段は、前記領域外画像データに対して、透明度を変化させるフェード処理を施すことを特徴とする請求項1に記載の画像生成装置。
  4. 前記領域外画像データ中の各オブジェクトの配置位置に基づいて、前記画像処理手段が前記オブジェクトに対して施す前記画像処理の強度を決定する画像処理制御手段をさらに備え、
    前記画像処理手段は、前記オブジェクトに対して、前記画像処理制御手段が決定した強度の前記画像処理を施すことを特徴とする請求項2または3に記載の画像生成装置。
  5. 前記画像処理制御手段は、前記領域外画像データ中の前記オブジェクトの配置位置と前記注視対象の位置との間の距離に基づいて、前記画像処理手段が前記オブジェクトに対して施す前記画像処理の強度を決定することを特徴とする請求項4に記載の画像生成装置。
  6. 前記画像処理制御手段は、前記領域外画像データ中の前記オブジェクトの配置位置と前記立体表示領域の境界位置との間の距離に基づいて、前記画像処理手段が前記オブジェクトに対して施す前記画像処理の強度を決定することを特徴とする請求項4に記載の画像生成装置。
  7. 前記領域外画像データ中の各オブジェクトの配置位置に基づいて、前記画像処理手段が前記オブジェクトに対して施す前記画像処理の種類を決定する画像処理制御手段をさらに備え、
    前記画像処理手段は、前記オブジェクトに対して、前記画像処理制御手段が決定した種類の前記画像処理を施すことを特徴とする請求項2から6のいずれか一項に記載の画像生成装置。
  8. 前記画像処理制御手段は、前記領域外画像データ中の前記オブジェクトと前記注視対象との前記立体表示装置の奥行き方向における位置関係に基づいて、前記画像処理手段が前記オブジェクトに対して施す前記画像処理の種類を決定することを特徴とする請求項7に記載の画像生成装置。
  9. 前記画像処理制御手段は、前記レンダリング処理において設定する前記仮想カメラの向きに応じて、前記領域内画像データに対して施す画像処理の内容を決定することを特徴とする請求項1に記載の画像生成装置。
  10. 前記画像処理制御手段は、前記レンダリング処理において設定する前記仮想カメラの向きに応じて、前記画像領域外画像データに対して施す画像処理の内容を決定することを特徴とする請求項1に記載の画像生成装置。
  11. 前記画像処理制御手段は、前記立体表示領域の外部のうち前記立体表示装置の奥側に配置されたオブジェクトに対して、当該オブジェクトを2次元のオブジェクトとして配置する前記画像処理を施すことを決定することを特徴とする請求項8に記載の画像生成装置。
  12. 立体表示装置に表示させる立体表示画像データを生成する画像生成方法において、
    前記立体表示装置に表示させるべき2次元または3次元の画像データと、前記立体表示装置から出力される光線に対応して前記画像データを2次元に描画するレンダリング処理において設定する仮想カメラの注視対象の位置と、前記立体表示装置から出力される光線の向きとに基づいて、前記画像データを前記立体表示装置に表示させた場合に前記画像データにおける3次元的な位置関係を再現可能な立体表示領域を算出する立体表示領域算出ステップと、
    前記画像データのうち、前記立体表示領域算出ステップにおいて算出された前記立体表示領域の外部を示す領域外画像データに対して、前記立体表示領域の内部を示す領域内画像データに対する画像処理と異なる画像処理を施す画像処理ステップと、
    前記画像処理ステップにおいて処理された後の前記2次元または3次元の画像データから前記立体表示画像データを生成する画像生成ステップと
    を有することを特徴とする画像生成方法。
  13. 立体表示装置に表示させる立体表示画像データを生成する画像生成処理をコンピュータに実行させる画像生成プログラムにおいて、
    前記立体表示装置に表示させるべき2次元または3次元の画像データと、前記立体表示装置から出力される光線に対応して前記画像データを2次元に描画するレンダリング処理において設定する仮想カメラの注視対象の位置と、前記立体表示装置から出力される光線の向きとに基づいて、前記画像データを前記立体表示装置に表示させた場合に前記画像データにおける3次元的な位置関係を再現可能な立体表示領域を算出する立体表示領域算出ステップと、
    前記画像データのうち、前記立体表示領域算出ステップにおいて算出された前記立体表示領域の外部を示す領域外画像データに対して、前記立体表示領域の内部を示す領域内画像データに対する画像処理と異なる画像処理を施す画像処理ステップと、
    前記画像処理ステップにおいて処理された後の前記2次元または3次元の画像データから前記立体表示画像データを生成する画像生成ステップと
    をコンピュータに実行させることを特徴とする画像生成プログラム。
JP2004057730A 2004-03-02 2004-03-02 画像生成装置、画像生成方法、及び画像生成プログラム Expired - Fee Related JP4125252B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2004057730A JP4125252B2 (ja) 2004-03-02 2004-03-02 画像生成装置、画像生成方法、及び画像生成プログラム
KR1020050015944A KR100596686B1 (ko) 2004-03-02 2005-02-25 화상생성장치 및 방법
US11/067,662 US7486817B2 (en) 2004-03-02 2005-02-28 Apparatus for and method of generating image, and computer program product
CNB2005100524436A CN100512454C (zh) 2004-03-02 2005-02-28 产生图像的装置和方法
US12/230,358 US20090002483A1 (en) 2004-03-02 2008-08-28 Apparatus for and method of generating image, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004057730A JP4125252B2 (ja) 2004-03-02 2004-03-02 画像生成装置、画像生成方法、及び画像生成プログラム

Publications (2)

Publication Number Publication Date
JP2005252459A true JP2005252459A (ja) 2005-09-15
JP4125252B2 JP4125252B2 (ja) 2008-07-30

Family

ID=34909056

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004057730A Expired - Fee Related JP4125252B2 (ja) 2004-03-02 2004-03-02 画像生成装置、画像生成方法、及び画像生成プログラム

Country Status (4)

Country Link
US (2) US7486817B2 (ja)
JP (1) JP4125252B2 (ja)
KR (1) KR100596686B1 (ja)
CN (1) CN100512454C (ja)

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100891161B1 (ko) 2007-05-22 2009-04-06 광운대학교 산학협력단 3차원 집적 영상 복원 방식의 위치 검출 방법 및 장치
CN102420998A (zh) * 2010-09-28 2012-04-18 联发科技股份有限公司 遮幅边缘处理方法、遮幅边缘装置及影像处理系统
JP2012085316A (ja) * 2011-11-15 2012-04-26 Toshiba Corp 映像表示装置及び映像表示方法
JP2012123337A (ja) * 2010-12-10 2012-06-28 Nintendo Co Ltd 表示制御プログラム、表示制御装置、表示制御方法および表示制御システム
JP2013513172A (ja) * 2009-12-07 2013-04-18 ペキン ユニバーシティ イメージベースドビジュアルハルにおける凹状表面のモデリング
JP2013202223A (ja) * 2012-03-28 2013-10-07 Square Enix Co Ltd ゲーム装置
JP2014014076A (ja) * 2012-07-03 2014-01-23 Woodman Labs Inc 3d深度情報に基づいたイメージぼかし
EP2693759A2 (en) 2012-07-31 2014-02-05 NLT Technologies, Ltd. Stereoscopic image display device, image processing device, and stereoscopic image processing method
KR20150086333A (ko) * 2013-01-18 2015-07-27 인텔 코포레이션 디포커스 블러에 대한 분산 추정 광 필드 재구성
KR20160123750A (ko) * 2015-04-17 2016-10-26 한국전자통신연구원 3차원 프린팅을 위한 두께 모델 생성 장치 및 방법
US9787862B1 (en) 2016-01-19 2017-10-10 Gopro, Inc. Apparatus and methods for generating content proxy
US9792502B2 (en) 2014-07-23 2017-10-17 Gopro, Inc. Generating video summaries for a video using video summary templates
US9807361B2 (en) 2012-10-09 2017-10-31 Panasonic Intellectual Property Management Co., Ltd. Three-dimensional display device, three-dimensional image processing device, and three-dimensional display method
US9838730B1 (en) 2016-04-07 2017-12-05 Gopro, Inc. Systems and methods for audio track selection in video editing
US9871994B1 (en) 2016-01-19 2018-01-16 Gopro, Inc. Apparatus and methods for providing content context using session metadata
US9916863B1 (en) 2017-02-24 2018-03-13 Gopro, Inc. Systems and methods for editing videos based on shakiness measures
US9922682B1 (en) 2016-06-15 2018-03-20 Gopro, Inc. Systems and methods for organizing video files
US9953224B1 (en) 2016-08-23 2018-04-24 Gopro, Inc. Systems and methods for generating a video summary
US9953679B1 (en) 2016-05-24 2018-04-24 Gopro, Inc. Systems and methods for generating a time lapse video
US9967515B1 (en) 2016-06-15 2018-05-08 Gopro, Inc. Systems and methods for bidirectional speed ramping
US9972066B1 (en) 2016-03-16 2018-05-15 Gopro, Inc. Systems and methods for providing variable image projection for spherical visual content
US10002641B1 (en) 2016-10-17 2018-06-19 Gopro, Inc. Systems and methods for determining highlight segment sets
US10045120B2 (en) 2016-06-20 2018-08-07 Gopro, Inc. Associating audio with three-dimensional objects in videos
US10044972B1 (en) 2016-09-30 2018-08-07 Gopro, Inc. Systems and methods for automatically transferring audiovisual content
US10078644B1 (en) 2016-01-19 2018-09-18 Gopro, Inc. Apparatus and methods for manipulating multicamera content using content proxy
US10096341B2 (en) 2015-01-05 2018-10-09 Gopro, Inc. Media identifier generation for camera-captured media
US10129464B1 (en) 2016-02-18 2018-11-13 Gopro, Inc. User interface for creating composite images
US10192585B1 (en) 2014-08-20 2019-01-29 Gopro, Inc. Scene and activity identification in video summary generation based on motion detected in a video
US10229719B1 (en) 2016-05-09 2019-03-12 Gopro, Inc. Systems and methods for generating highlights for a video
US10268898B1 (en) 2016-09-21 2019-04-23 Gopro, Inc. Systems and methods for determining a sample frame order for analyzing a video via segments
US10282632B1 (en) 2016-09-21 2019-05-07 Gopro, Inc. Systems and methods for determining a sample frame order for analyzing a video
US10338955B1 (en) 2015-10-22 2019-07-02 Gopro, Inc. Systems and methods that effectuate transmission of workflow between computing platforms
US10339443B1 (en) 2017-02-24 2019-07-02 Gopro, Inc. Systems and methods for processing convolutional neural network operations using textures
US10360663B1 (en) 2017-04-07 2019-07-23 Gopro, Inc. Systems and methods to create a dynamic blur effect in visual content
US10395119B1 (en) 2016-08-10 2019-08-27 Gopro, Inc. Systems and methods for determining activities performed during video capture
US10395122B1 (en) 2017-05-12 2019-08-27 Gopro, Inc. Systems and methods for identifying moments in videos
US10397415B1 (en) 2016-09-30 2019-08-27 Gopro, Inc. Systems and methods for automatically transferring audiovisual content
US10402938B1 (en) 2016-03-31 2019-09-03 Gopro, Inc. Systems and methods for modifying image distortion (curvature) for viewing distance in post capture
US10402698B1 (en) 2017-07-10 2019-09-03 Gopro, Inc. Systems and methods for identifying interesting moments within videos
JP2019193002A (ja) * 2018-04-20 2019-10-31 日本放送協会 多視点カメラ制御装置及びそのプログラム
US10614114B1 (en) 2017-07-10 2020-04-07 Gopro, Inc. Systems and methods for creating compilations based on hierarchical clustering
US11106988B2 (en) 2016-10-06 2021-08-31 Gopro, Inc. Systems and methods for determining predicted risk for a flight path of an unmanned aerial vehicle

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006101224A (ja) * 2004-09-29 2006-04-13 Toshiba Corp 画像生成装置、画像生成方法および画像生成プログラム
JP4489610B2 (ja) * 2005-01-28 2010-06-23 株式会社 日立ディスプレイズ 立体視可能な表示装置および方法
JP4244040B2 (ja) * 2005-03-10 2009-03-25 任天堂株式会社 入力処理プログラムおよび入力処理装置
US7586534B2 (en) * 2005-03-22 2009-09-08 Fujifilm Corporation Multi-eye image pickup device, adjusting method and device therefor, and image-area adjusting system and method
US9532038B2 (en) * 2005-11-04 2016-12-27 Koninklijke Philips N.V. Rendering of image data for multi-view display
KR101249988B1 (ko) * 2006-01-27 2013-04-01 삼성전자주식회사 사용자의 위치에 따른 영상을 디스플레이하는 장치 및 방법
WO2007142643A1 (en) * 2006-06-08 2007-12-13 Thomson Licensing Two pass approach to three dimensional reconstruction
GB2447060B (en) * 2007-03-01 2009-08-05 Magiqads Sdn Bhd Method of creation of a virtual three dimensional image to enable its reproduction on planar substrates
KR20090042496A (ko) * 2007-10-26 2009-04-30 (주) 살아있는미술관 미술관 운영 시스템 및 그 방법
JP5338228B2 (ja) * 2008-09-29 2013-11-13 カシオ計算機株式会社 画像生成装置、及びプログラム
US20100238274A1 (en) * 2009-03-16 2010-09-23 Lg Electronics Inc. Method of displaying three-dimensional image data and an apparatus of processing three-dimensional image data
JP5158006B2 (ja) * 2009-04-23 2013-03-06 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
JP5227910B2 (ja) * 2009-07-21 2013-07-03 株式会社コナミデジタルエンタテインメント ビデオゲーム装置、ゲーム画像表示方法及びゲーム画像表示プログラム
US8284235B2 (en) * 2009-09-28 2012-10-09 Sharp Laboratories Of America, Inc. Reduction of viewer discomfort for stereoscopic images
US8619122B2 (en) * 2010-02-02 2013-12-31 Microsoft Corporation Depth camera compatibility
US8687044B2 (en) * 2010-02-02 2014-04-01 Microsoft Corporation Depth camera compatibility
US8896668B2 (en) * 2010-04-05 2014-11-25 Qualcomm Incorporated Combining data from multiple image sensors
GB2481366B (en) * 2010-06-03 2014-05-28 Sony Comp Entertainment Europe Entertainment device and entertainment methods
US9596453B2 (en) * 2010-06-14 2017-03-14 Lg Electronics Inc. Electronic device and control method thereof
JP2012079291A (ja) * 2010-09-08 2012-04-19 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
JP5723149B2 (ja) * 2010-12-29 2015-05-27 任天堂株式会社 画像処理システム、画像処理プログラム、画像処理方法及び画像処理装置
JP5666967B2 (ja) 2011-04-08 2015-02-12 株式会社東芝 医用画像処理システム、医用画像処理装置、医用画像診断装置、医用画像処理方法および医用画像処理プログラム
JP2012253690A (ja) * 2011-06-06 2012-12-20 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
US8937646B1 (en) * 2011-10-05 2015-01-20 Amazon Technologies, Inc. Stereo imaging using disparate imaging devices
JP5950701B2 (ja) * 2012-06-11 2016-07-13 任天堂株式会社 画像表示システム、パズルゲームシステム、画像表示方法、パズルゲーム方法、画像表示装置、パズルゲーム装置、画像表示プログラム、および、パズルゲームプログラム
US9865089B2 (en) 2014-07-25 2018-01-09 Microsoft Technology Licensing, Llc Virtual reality environment with real world objects
US9904055B2 (en) 2014-07-25 2018-02-27 Microsoft Technology Licensing, Llc Smart placement of virtual objects to stay in the field of view of a head mounted display
US9858720B2 (en) 2014-07-25 2018-01-02 Microsoft Technology Licensing, Llc Three-dimensional mixed-reality viewport
US10311638B2 (en) 2014-07-25 2019-06-04 Microsoft Technology Licensing, Llc Anti-trip when immersed in a virtual reality environment
US10416760B2 (en) 2014-07-25 2019-09-17 Microsoft Technology Licensing, Llc Gaze-based object placement within a virtual reality environment
US10451875B2 (en) 2014-07-25 2019-10-22 Microsoft Technology Licensing, Llc Smart transparency for virtual objects
US9766460B2 (en) 2014-07-25 2017-09-19 Microsoft Technology Licensing, Llc Ground plane adjustment in a virtual reality environment
US9131209B1 (en) * 2014-10-27 2015-09-08 Can Demirba{hacek over (g)} Method for automated realtime conversion of 2D RGB images and video to red-cyan stereoscopic anaglyph 3D
FR3028703A1 (fr) * 2014-11-13 2016-05-20 B<>Com Procede de rendu stereoscopique d'une scene 3d sur un ecran, dispositif, systeme et programme d'ordinateur associes
CN106327458A (zh) * 2016-08-31 2017-01-11 上海交通大学 一种基于图像分层渲染的方法
KR101881755B1 (ko) * 2016-11-02 2018-07-25 충북대학교 산학협력단 집적영상 디스플레이의 화질 평가 장치 및 방법
US9972122B1 (en) * 2016-12-20 2018-05-15 Canon Kabushiki Kaisha Method and system for rendering an object in a virtual view
KR102530278B1 (ko) * 2018-10-18 2023-05-10 삼성디스플레이 주식회사 표시 유닛을 구비한 전자 장치 및 ar 영상 표시 방법
KR102640871B1 (ko) * 2018-10-30 2024-02-27 삼성전자주식회사 증강 현실을 이용한 영상 데이터를 제공하는 전자 장치 및 그 제어 방법
EP4033754A1 (en) * 2021-01-21 2022-07-27 Koninklijke Philips N.V. An image synthesis system and method therefor

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61144192A (ja) 1984-12-17 1986-07-01 Nippon Hoso Kyokai <Nhk> 立体テレビジヨン画像表示装置
JP3346599B2 (ja) 1993-04-23 2002-11-18 オリンパス光学工業株式会社 映像表示装置
JPH07168121A (ja) 1993-12-14 1995-07-04 Namco Ltd 画像表示装置
JPH0865715A (ja) 1994-08-22 1996-03-08 Toshiba Corp 立体映像表示方法及び立体映像表示装置
JPH08160335A (ja) * 1994-12-06 1996-06-21 Fuji Xerox Co Ltd 光走査装置
JP2826710B2 (ja) 1995-02-27 1998-11-18 株式会社エイ・ティ・アール人間情報通信研究所 2眼式立体画像表示方法
JPH0954376A (ja) 1995-06-09 1997-02-25 Pioneer Electron Corp 立体表示装置
US6005607A (en) * 1995-06-29 1999-12-21 Matsushita Electric Industrial Co., Ltd. Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus
JP3579162B2 (ja) 1995-06-29 2004-10-20 松下電器産業株式会社 立体cg画像生成装置
US5768415A (en) * 1995-09-08 1998-06-16 Lucent Technologies Inc. Apparatus and methods for performing electronic scene analysis and enhancement
JP3504111B2 (ja) 1996-06-27 2004-03-08 株式会社東芝 立体視システム、立体視方法、及び、異なる2つの視点から見た一対の画像を立体視可能に表示させるコンピュータプログラムを格納する記憶媒体
US6757422B1 (en) 1998-11-12 2004-06-29 Canon Kabushiki Kaisha Viewpoint position detection apparatus and method, and stereoscopic image display system
JP2001119724A (ja) 1999-10-18 2001-04-27 Minolta Co Ltd 立体画像表示システム、断面画像生成方法および断面画像生成装置
KR100710347B1 (ko) * 2000-05-12 2007-04-23 엘지전자 주식회사 3차원 영상 디스플레이 장치 및 방법
EP1285304B1 (en) 2000-05-19 2004-08-18 BALOGH, Tibor Method and apparatus for displaying 3d images
US7265775B2 (en) 2002-03-28 2007-09-04 Kabushiki Kaisha Toshiba Three-dimensional display apparatus
JP4096622B2 (ja) 2002-05-21 2008-06-04 株式会社セガ 画像処理方法及び装置、並びにプログラム及び記録媒体
JP3966830B2 (ja) 2003-03-28 2007-08-29 株式会社東芝 立体表示装置
JP2005110010A (ja) 2003-09-30 2005-04-21 Toshiba Corp 立体画像生成方法および立体画像表示装置

Cited By (75)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100891161B1 (ko) 2007-05-22 2009-04-06 광운대학교 산학협력단 3차원 집적 영상 복원 방식의 위치 검출 방법 및 장치
JP2013513172A (ja) * 2009-12-07 2013-04-18 ペキン ユニバーシティ イメージベースドビジュアルハルにおける凹状表面のモデリング
CN102420998A (zh) * 2010-09-28 2012-04-18 联发科技股份有限公司 遮幅边缘处理方法、遮幅边缘装置及影像处理系统
JP2012123337A (ja) * 2010-12-10 2012-06-28 Nintendo Co Ltd 表示制御プログラム、表示制御装置、表示制御方法および表示制御システム
US9639972B2 (en) 2010-12-10 2017-05-02 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control method, and display control system for performing display control of a display apparatus capable of stereoscopic display
JP2012085316A (ja) * 2011-11-15 2012-04-26 Toshiba Corp 映像表示装置及び映像表示方法
JP2013202223A (ja) * 2012-03-28 2013-10-07 Square Enix Co Ltd ゲーム装置
JP2014014076A (ja) * 2012-07-03 2014-01-23 Woodman Labs Inc 3d深度情報に基づいたイメージぼかし
US9185387B2 (en) 2012-07-03 2015-11-10 Gopro, Inc. Image blur based on 3D depth information
US10015469B2 (en) 2012-07-03 2018-07-03 Gopro, Inc. Image blur based on 3D depth information
US9280951B2 (en) 2012-07-31 2016-03-08 Nlt Technologies, Ltd. Stereoscopic image display device, image processing device, and stereoscopic image processing method
EP2693759A2 (en) 2012-07-31 2014-02-05 NLT Technologies, Ltd. Stereoscopic image display device, image processing device, and stereoscopic image processing method
US9807361B2 (en) 2012-10-09 2017-10-31 Panasonic Intellectual Property Management Co., Ltd. Three-dimensional display device, three-dimensional image processing device, and three-dimensional display method
KR20150086333A (ko) * 2013-01-18 2015-07-27 인텔 코포레이션 디포커스 블러에 대한 분산 추정 광 필드 재구성
KR101701790B1 (ko) 2013-01-18 2017-02-02 인텔 코포레이션 디포커스 블러에 대한 분산 추정 광 필드 재구성
US11069380B2 (en) 2014-07-23 2021-07-20 Gopro, Inc. Scene and activity identification in video summary generation
US10339975B2 (en) 2014-07-23 2019-07-02 Gopro, Inc. Voice-based video tagging
US10776629B2 (en) 2014-07-23 2020-09-15 Gopro, Inc. Scene and activity identification in video summary generation
US10074013B2 (en) 2014-07-23 2018-09-11 Gopro, Inc. Scene and activity identification in video summary generation
US11776579B2 (en) 2014-07-23 2023-10-03 Gopro, Inc. Scene and activity identification in video summary generation
US9792502B2 (en) 2014-07-23 2017-10-17 Gopro, Inc. Generating video summaries for a video using video summary templates
US10262695B2 (en) 2014-08-20 2019-04-16 Gopro, Inc. Scene and activity identification in video summary generation
US10643663B2 (en) 2014-08-20 2020-05-05 Gopro, Inc. Scene and activity identification in video summary generation based on motion detected in a video
US10192585B1 (en) 2014-08-20 2019-01-29 Gopro, Inc. Scene and activity identification in video summary generation based on motion detected in a video
US10559324B2 (en) 2015-01-05 2020-02-11 Gopro, Inc. Media identifier generation for camera-captured media
US10096341B2 (en) 2015-01-05 2018-10-09 Gopro, Inc. Media identifier generation for camera-captured media
KR102065692B1 (ko) 2015-04-17 2020-01-13 한국전자통신연구원 3차원 프린팅을 위한 두께 모델 생성 장치 및 방법
KR20160123750A (ko) * 2015-04-17 2016-10-26 한국전자통신연구원 3차원 프린팅을 위한 두께 모델 생성 장치 및 방법
US10338955B1 (en) 2015-10-22 2019-07-02 Gopro, Inc. Systems and methods that effectuate transmission of workflow between computing platforms
US9787862B1 (en) 2016-01-19 2017-10-10 Gopro, Inc. Apparatus and methods for generating content proxy
US9871994B1 (en) 2016-01-19 2018-01-16 Gopro, Inc. Apparatus and methods for providing content context using session metadata
US10078644B1 (en) 2016-01-19 2018-09-18 Gopro, Inc. Apparatus and methods for manipulating multicamera content using content proxy
US10402445B2 (en) 2016-01-19 2019-09-03 Gopro, Inc. Apparatus and methods for manipulating multicamera content using content proxy
US10129464B1 (en) 2016-02-18 2018-11-13 Gopro, Inc. User interface for creating composite images
US10740869B2 (en) 2016-03-16 2020-08-11 Gopro, Inc. Systems and methods for providing variable image projection for spherical visual content
US9972066B1 (en) 2016-03-16 2018-05-15 Gopro, Inc. Systems and methods for providing variable image projection for spherical visual content
US10817976B2 (en) 2016-03-31 2020-10-27 Gopro, Inc. Systems and methods for modifying image distortion (curvature) for viewing distance in post capture
US11398008B2 (en) 2016-03-31 2022-07-26 Gopro, Inc. Systems and methods for modifying image distortion (curvature) for viewing distance in post capture
US10402938B1 (en) 2016-03-31 2019-09-03 Gopro, Inc. Systems and methods for modifying image distortion (curvature) for viewing distance in post capture
US10341712B2 (en) 2016-04-07 2019-07-02 Gopro, Inc. Systems and methods for audio track selection in video editing
US9838730B1 (en) 2016-04-07 2017-12-05 Gopro, Inc. Systems and methods for audio track selection in video editing
US10229719B1 (en) 2016-05-09 2019-03-12 Gopro, Inc. Systems and methods for generating highlights for a video
US9953679B1 (en) 2016-05-24 2018-04-24 Gopro, Inc. Systems and methods for generating a time lapse video
US11223795B2 (en) 2016-06-15 2022-01-11 Gopro, Inc. Systems and methods for bidirectional speed ramping
US9922682B1 (en) 2016-06-15 2018-03-20 Gopro, Inc. Systems and methods for organizing video files
US10742924B2 (en) 2016-06-15 2020-08-11 Gopro, Inc. Systems and methods for bidirectional speed ramping
US9967515B1 (en) 2016-06-15 2018-05-08 Gopro, Inc. Systems and methods for bidirectional speed ramping
US10045120B2 (en) 2016-06-20 2018-08-07 Gopro, Inc. Associating audio with three-dimensional objects in videos
US10395119B1 (en) 2016-08-10 2019-08-27 Gopro, Inc. Systems and methods for determining activities performed during video capture
US11062143B2 (en) 2016-08-23 2021-07-13 Gopro, Inc. Systems and methods for generating a video summary
US11508154B2 (en) 2016-08-23 2022-11-22 Gopro, Inc. Systems and methods for generating a video summary
US10726272B2 (en) 2016-08-23 2020-07-28 Go Pro, Inc. Systems and methods for generating a video summary
US9953224B1 (en) 2016-08-23 2018-04-24 Gopro, Inc. Systems and methods for generating a video summary
US10268898B1 (en) 2016-09-21 2019-04-23 Gopro, Inc. Systems and methods for determining a sample frame order for analyzing a video via segments
US10282632B1 (en) 2016-09-21 2019-05-07 Gopro, Inc. Systems and methods for determining a sample frame order for analyzing a video
US10560655B2 (en) 2016-09-30 2020-02-11 Gopro, Inc. Systems and methods for automatically transferring audiovisual content
US10560591B2 (en) 2016-09-30 2020-02-11 Gopro, Inc. Systems and methods for automatically transferring audiovisual content
US10044972B1 (en) 2016-09-30 2018-08-07 Gopro, Inc. Systems and methods for automatically transferring audiovisual content
US10397415B1 (en) 2016-09-30 2019-08-27 Gopro, Inc. Systems and methods for automatically transferring audiovisual content
US11106988B2 (en) 2016-10-06 2021-08-31 Gopro, Inc. Systems and methods for determining predicted risk for a flight path of an unmanned aerial vehicle
US10923154B2 (en) 2016-10-17 2021-02-16 Gopro, Inc. Systems and methods for determining highlight segment sets
US10643661B2 (en) 2016-10-17 2020-05-05 Gopro, Inc. Systems and methods for determining highlight segment sets
US10002641B1 (en) 2016-10-17 2018-06-19 Gopro, Inc. Systems and methods for determining highlight segment sets
US9916863B1 (en) 2017-02-24 2018-03-13 Gopro, Inc. Systems and methods for editing videos based on shakiness measures
US10776689B2 (en) 2017-02-24 2020-09-15 Gopro, Inc. Systems and methods for processing convolutional neural network operations using textures
US10339443B1 (en) 2017-02-24 2019-07-02 Gopro, Inc. Systems and methods for processing convolutional neural network operations using textures
US10817992B2 (en) 2017-04-07 2020-10-27 Gopro, Inc. Systems and methods to create a dynamic blur effect in visual content
US10360663B1 (en) 2017-04-07 2019-07-23 Gopro, Inc. Systems and methods to create a dynamic blur effect in visual content
US10817726B2 (en) 2017-05-12 2020-10-27 Gopro, Inc. Systems and methods for identifying moments in videos
US10395122B1 (en) 2017-05-12 2019-08-27 Gopro, Inc. Systems and methods for identifying moments in videos
US10614315B2 (en) 2017-05-12 2020-04-07 Gopro, Inc. Systems and methods for identifying moments in videos
US10614114B1 (en) 2017-07-10 2020-04-07 Gopro, Inc. Systems and methods for creating compilations based on hierarchical clustering
US10402698B1 (en) 2017-07-10 2019-09-03 Gopro, Inc. Systems and methods for identifying interesting moments within videos
JP7068906B2 (ja) 2018-04-20 2022-05-17 日本放送協会 多視点カメラ制御装置及びそのプログラム
JP2019193002A (ja) * 2018-04-20 2019-10-31 日本放送協会 多視点カメラ制御装置及びそのプログラム

Also Published As

Publication number Publication date
US20090002483A1 (en) 2009-01-01
US20050195478A1 (en) 2005-09-08
KR100596686B1 (ko) 2006-07-10
US7486817B2 (en) 2009-02-03
CN100512454C (zh) 2009-07-08
CN1665313A (zh) 2005-09-07
JP4125252B2 (ja) 2008-07-30
KR20060045333A (ko) 2006-05-17

Similar Documents

Publication Publication Date Title
JP4125252B2 (ja) 画像生成装置、画像生成方法、及び画像生成プログラム
JP6873096B2 (ja) イメージ形成における及びイメージ形成に関する改良
US8953023B2 (en) Stereoscopic depth mapping
JP4328311B2 (ja) 三次元画像表示用多視点画像の作成方法およびプログラム
US8587638B2 (en) Supporting a 3D presentation
JP4489610B2 (ja) 立体視可能な表示装置および方法
JP5366547B2 (ja) 立体視表示装置
CN103426163A (zh) 用于渲染受影响的像素的系统和方法
JP2010511360A (ja) 三次元投影ディスプレイ
JP2010538344A (ja) 3dディスプレイのレンダリング方法の改良
US8094148B2 (en) Texture processing apparatus, method and program
JP2008146221A (ja) 画像表示システム
WO2012157540A1 (ja) 画像処理装置、画像処理方法、およびプログラム
WO2012140397A2 (en) Three-dimensional display system
JP5522794B2 (ja) 立体像生成装置およびそのプログラム
KR20210096449A (ko) Hud 시스템에서 영상을 재생하는 방법 및 그 hud 시스템
KR101723235B1 (ko) 입체 영상의 입체감을 감쇠하기 위한 장치 및 방법
KR101567002B1 (ko) 컴퓨터 그래픽스 기반의 스테레오 플로팅 집적 영상생성시스템
KR101425321B1 (ko) 적응형 렌즈 어레이를 구비하는 3차원 집적 영상 디스플레이 시스템 및 적응형 렌즈 어레이에 대한 요소 영상 생성 방법
CN114637391A (zh) 基于光场的vr内容处理方法及设备
KR20130085143A (ko) 시청자의 시점 정보에 기초하여 3차원 객체 영상 모델을 생성하는 장치 및 방법
WO2022230247A1 (ja) 情報処理装置、プログラム及び情報処理方法
KR101345129B1 (ko) 3차원 입체 영상 표시 및 기록 장치
JP7344886B2 (ja) 3dディスプレイのためのオーバースキャン
KR101784208B1 (ko) 다수의 깊이 카메라를 이용한 3차원 디스플레이 시스템 및 방법

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080422

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080507

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110516

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110516

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120516

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120516

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130516

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130516

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140516

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees