JP2004206672A - 画像処理システム、プログラム及び情報記憶媒体 - Google Patents

画像処理システム、プログラム及び情報記憶媒体 Download PDF

Info

Publication number
JP2004206672A
JP2004206672A JP2003142337A JP2003142337A JP2004206672A JP 2004206672 A JP2004206672 A JP 2004206672A JP 2003142337 A JP2003142337 A JP 2003142337A JP 2003142337 A JP2003142337 A JP 2003142337A JP 2004206672 A JP2004206672 A JP 2004206672A
Authority
JP
Japan
Prior art keywords
image
coordinates
eye
divided
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003142337A
Other languages
English (en)
Other versions
JP3852934B2 (ja
Inventor
Yasuo Oba
康雄 大場
Kentaro Yamaguchi
兼太郎 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP2003142337A priority Critical patent/JP3852934B2/ja
Priority to US10/847,447 priority patent/US7295699B2/en
Publication of JP2004206672A publication Critical patent/JP2004206672A/ja
Application granted granted Critical
Publication of JP3852934B2 publication Critical patent/JP3852934B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/334Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using spectral multiplexing

Abstract

【課題】画像の歪みの発生を最小限に抑えながら元画像の補正処理を実現できる画像処理システム、プログラム及び情報記憶媒体を提供すること。
【解決手段】元画像領域IMRを分割画像領域DR1〜DR4に分割し、分割点の座標により特定されるテクスチャ座標を求め、求められたテクスチャ座標に基づきポリゴンPL1〜PL4に分割画像領域DR1〜DR4の画像をマッピングする。消失点VP1に近い分割画像領域ほど、元画像からVP1に向かう方向DIR1での分割間隔が狭くなるように、元画像領域IMRを分割してテクスチャ座標を求め、元画像のパースペクティブを無くす補正処理を実現する。左目用、右目用画像IL1、IR1の基準面での画像のパースペクティブを無くす補正処理を行って、左目用、右目用画像IL2、IR2を生成し、IL2、IR2を合成(アナグリフ処理)することで立体視用画像を生成する。
【選択図】 図2

Description

【0001】
【発明の属する技術分野】
本発明は、画像処理システム、プログラム及び情報記憶媒体に関する。
【0002】
【従来技術】
従来より、左目に相当するカメラで撮った左目用の画像と、右目に相当するカメラで撮った右目用の画像とを用意し、これらの画像をアナグリフ(anaglyph)処理などにより合成し、立体視用画像(立体視用印刷物)を得る技術が知られている。
【0003】
【特許文献1】
特開2000−56411号公報
【0004】
【発明が解決しようとする課題】
人間が物体の立体感を感じるのは、(1)左右の目が空間的に離れていることに起因して網膜の結像がずれる両目視差(視線角度のずれ)、(2)左右の目が内側に向く機能である輻輳(ふくそう)、(3)水晶体の厚さが物体までの距離に応答するピント調整(焦点距離)という3つの生理的機能に起因する。そして人間は、これらの3つの生理的機能である両目視差、輻輳、ピント調整を脳内で処理して立体感を感じている。
【0005】
そして、これらの3つの生理的機能の関係は、通常、脳内において関連づけられている。従って、この関係に誤差や矛盾が生じると、脳が無理に立体と関連づけようとして、不自然さを感じたり、或いは立体として認知できなかったりする事態が生じる。
【0006】
ところが、従来の立体視では、両目視差や輻輳だけを利用して、立体視を表現していた。このため、ピント(焦点距離)は、立体視用画像(立体視用印刷物)の面内においてほぼ一定なのに対し、両目視差や輻輳のずれは、立体視用画像のほとんどの場所において生じており、人間の脳に無理の無い立体視を実現できなかった。
【0007】
また立体視用画像は、カメラで被写体を撮影することなどで得られるの左目用画像、右目用画像を合成することで得られる。従って、これらの左目用画像、右目用画像に歪みがあると、立体視用画像を見る観者が不自然さを感じたり、立体視が困難になるなどの事態が生じる。
【0008】
本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、画像の歪みの発生を最小限に抑えながら元画像の補正処理を実現できる画像処理システム、プログラム及び情報記憶媒体を提供することにある。
【0009】
【課題を解決するための手段】
本発明は、元画像の補正処理を行う画像処理システムであって、元画像の領域をメッシュ状の第1〜第Kの分割画像領域(Kは2以上の整数)に分割し、第1〜第Kの分割画像領域の分割点の座標により特定されるテクスチャ座標を求めるテクスチャ座標演算部と、求められたテクスチャ座標に基づいて、第1〜第Kの分割画像領域に1対1に対応してメッシュ状に配置された第1〜第Kのポリゴンに対して、第1〜第Kの分割画像領域の画像をマッピングするテクスチャマッピング部とを含み、前記テクスチャ座標演算部が、元画像のパースペクティブの消失点に近い分割画像領域ほど、元画像から消失点に向かう方向での分割間隔が狭くなるように、元画像の領域を第1〜第Kの分割画像領域に分割してテクスチャ座標を求める画像処理システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラムに関係する。また本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるプログラムを記憶(記録)した情報記憶媒体に関係する。
【0010】
本発明によれば、消失点(第1の消失点)に近い分割画像領域ほど、元画像(元画像の中心付近)から消失点に向かう方向での分割間隔(該方向に沿った線を分割する分割線の間隔)が狭くなるように、元画像の領域が第1〜第Kの分割画像領域に分割されて、テクスチャ座標が求められる。そして求められたテクスチャ座標に基づいて、第1〜第Kのポリゴンに対して第1〜第Kの分割画像領域の画像をマッピングすることで、元画像に補正処理を施した画像が生成される。これにより、元画像を補正する処理(元画像のパースペクティブを無くす補正処理等)を、画像の歪みの発生を最小限に抑えながら実現できるようになる。
【0011】
なお元画像に第2の消失点が存在する場合には、この第2の消失点についても第1の消失点の場合と同様の処理を行うことができる。即ち、第2の消失点に近い分割画像領域ほど、元画像から第2の消失点に向かう方向での分割間隔が狭くなるように、元画像の領域を第1〜第Kの分割画像領域に分割してテクスチャ座標を求めることができる。
【0012】
また分割間隔は、消失点を基準とした座標系での分割点の座標値の逆数に応じて決めることができる。例えば消失点(第1、第2の消失点)を原点とするX、Y座標系を想定し、この座標系での第J(Jは整数)の分割点の座標値の逆数と第J+1の分割点の座標値の逆数の間の差と、第J+1の分割点の座標値の逆数と第J+2の分割点の座標値の逆数の間の差とが等しくなるように、分割間隔を決めることができる。
【0013】
また本発明に係る画像処理システム、プログラム及び情報記憶媒体では、前記テクスチャ座標演算部が、元画像の領域に設定された第1〜第4の基準点を頂点とする四辺形の第4の辺の延長線と、第4の辺に対向する第2の辺の延長線との交点である第1の消失点の座標を求め、第1の消失点を原点とするX、Y座標系での第1の基準点の座標と第4の基準点の座標を求め、第1の基準点の座標値の逆数と第4の基準点の座標値の逆数との間を線形補間し、線形補間により得られた値の逆数に基づいて、第1、第4の基準点を結ぶ第4の辺上での分割点の座標を求め、第1の消失点を原点とするX、Y座標系での第2の基準点の座標と第3の基準点の座標を求め、第2の基準点の座標値の逆数と第3の基準点の座標値の逆数との間を線形補間し、線形補間により得られた値の逆数に基づいて、第2、第3の基準点を結ぶ第2の辺上での分割点の座標を求め、第4の辺上での分割点の座標と第2の辺上での分割点の座標に基づいて、これらの分割点を結ぶ辺上での分割点の座標を求めるようにしてもよい。
【0014】
このようにすれば、消失点に近い分割画像領域ほど元画像から消失点に向かう方向での分割間隔が狭くなるようにする分割処理を、簡素な処理で実現できる。
【0015】
また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記テクスチャ座標演算部が、前記第1〜第4の基準点についての外挿処理を行って新たな第1〜第4の基準点の座標を求め、求められた新たな第1〜第4の基準点の座標に基づいて分割点の座標を求めるようにしてもよい。
【0016】
このように、第1〜第4の基準点の外側に拡張した新たな第1〜第4の基準点の座標を求め、この新たな第1〜第4の基準点の座標に基づいて分割点の座標を求めるようにすれば、拡張前の第1〜第4の基準点で設定されるトリミング領域の外側に元画像がはみ出しているような場合にも、元画像の適正な補正処理画像を得ることができる。
【0017】
また本発明に係る画像処理システム、プログラム及び情報記憶媒体では、立体視のための第1の左目用画像と第1の右目用画像を取り込む取り込み部と、立体視用画像を生成する立体視用画像生成部とを含み(これらの各部としてコンピュータを機能させる、或いはこれらの各部としてコンピュータを機能させるプログラムを記憶し)、前記テクスチャ座標演算部が、前記第1の左目用画像のパースペクティブの消失点に近い分割画像領域ほど、第1の左目用画像から消失点に向かう方向での分割間隔が狭くなるように、第1の左目用画像の領域を左目用の第1〜第Kの分割画像領域に分割してテクスチャ座標を求め、前記第1の右目用画像のパースペクティブの消失点に近い分割画像領域ほど、第1の右目用画像から消失点に向かう方向での分割間隔が狭くなるように、第1の右目用画像の領域を右目用の第1〜第Kの分割画像領域に分割してテクスチャ座標を求め、前記テクスチャマッピング部が、左目用の第1〜第Kの分割画像領域に1対1に対応してメッシュ状に配置された第1〜第Kのポリゴンに対して、左目用の第1〜第Kの分割画像領域の画像をマッピングして、パースペクティブを無くす補正処理が施された第2の左目用画像を生成し、右目用の第1〜第Kの分割画像領域に1対1に対応してメッシュ状に配置された第1〜第Kのポリゴンに対して、右目用の第1〜第Kの分割画像領域の画像をマッピングして、パースペクティブを無くす補正処理が施された第2の右目用画像を生成し、前記立体視用画像生成部が、前記第2の左目用画像と前記第2の右目用画像とに基づいて立体視用画像を生成するようにしてもよい。
【0018】
本発明によれば、第1の左目用画像、第1の右目用画像のパースペクティブを無くすための補正処理(基準面でのパースペクティブを無くすための補正処理)を行うことで、第1の左目用画像から第2の左目用画像が生成され、第1の右目用画像から第2の右目用画像が生成される。そして生成された第2の左目用画像、第2の右目用画像に基づいて立体視用画像が生成される。これにより、ピント調整や奥行き感の矛盾が少なく、より自然な立体視を実現できる立体視用画像を提供できる。
【0019】
なお生成された立体視用画像により立体視用印刷物を作成(製造)する場合には、立体視時において立体視用印刷物を載置する面(机の面、水平面)を基準面として設定できる。また立体視用画像を表示部に表示する場合には、表示部の表示画面を基準面として設定できる。
【0020】
また本発明に係る画像処理システム、プログラム及び情報記憶媒体では、基準面が、第1の基準面と、第1の基準面に対して所定の角度をなす第2の基準面を含み、第1の左目用画像の第1の基準面での画像のパースペクティブを無くすための第1の補正処理を、第1の左目用画像の第1の基準面に対応する領域に対して施すと共に、第1の左目用画像の第2の基準面での画像のパースペクティブを無くすための第2の補正処理を、第1の左目用画像の第2の基準面に対応する領域に対して施して、第2の左目用画像を生成し、第1の右目用画像の第1の基準面での画像のパースペクティブを無くすための第1の補正処理を、第1の右目用画像の第1の基準面に対応する領域に対して施すと共に、第1の右目用画像の第2の基準面での画像のパースペクティブを無くすための第2の補正処理を、第1の右目用画像の第2の基準面に対応する領域に対して施して、第2の右目用画像を生成するようにしてもよい。
【0021】
このようにすることで、1つの基準面を設定しただけでは奥行き感等に不自然さが生じるような場合にも、これを解消できる。なお、3つ以上の基準面を設定してもよい。また複数の基準面(第1、第2の基準面)は連結させることができる。
【0022】
また本発明に係る画像処理システム、プログラム及び情報記憶媒体では、第2の左目用画像と第2の右目用画像とをアナグリフ処理により合成することで、立体視用画像を生成するようにしてもよい。
【0023】
但し本発明では、アナグリフ処理以外の手法で立体視用画像を生成してもよい。
【0024】
【発明の実施の形態】
以下、本実施形態について図面を用いて説明する。
【0025】
なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。
【0026】
1.構成
図1に本実施形態の画像処理システム(画像生成システム、ゲームシステム)の機能ブロック図の例を示す。なお本実施形態の画像処理システムは、図1の構成要素(各部)を全て含む必要はなく、その一部(例えば音出力部192、印刷部194、通信部196等)を省略した構成としてもよい。
【0027】
図1の画像処理システムは、左目用画像と右目用画像を合成して立体視用画像を生成したり、立体視用画像が印刷された立体視用印刷物を作成する立体視用画像作成システム(CG作成ツール、パーソナルコンピュータ、立体視用画像作成サーバー)として用いることができる。また図1の画像処理システムは、立体視用ゲーム画像(動画像)をリアルタイムに生成するゲームシステムとしても用いることができる。
【0028】
操作部160は、オペレータ(プレーヤ)が操作データを入力するためのものであり、その機能は、マウス、キーボード、或いはゲームコントローラなどのハードウェアにより実現できる。
【0029】
記憶部170は、処理部100、印刷部194、通信部196などのワーク領域となるもので、その機能はRAMなどのハードウェアにより実現できる。
【0030】
情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、或いはメモリ(ROM)などのハードウェアにより実現できる。処理部100は、この情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶(記録、格納)される。
【0031】
表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などのハードウェアにより実現できる。
【0032】
音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどのハードウェアにより実現できる。
【0033】
印刷部194は、立体視用画像を印刷媒体(紙、レンズ、フィルム等)に印刷するものであり、その機能は、インクジェット方式やレーザプリンタ方式などのカラープリンタ(広義には印刷機)により実現できる。
【0034】
通信部196は、外部(例えばホスト装置や他の画像生成システム)との間で通信を行うための各種の制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。
【0035】
なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、ホスト装置(サーバー)が有する情報記憶媒体からネットワーク及び通信部196を介して記憶部170や情報記憶媒体180に配信するようにしてもよい。このようなホスト装置(サーバー)の情報記憶媒体の使用も本発明の範囲内に含めることができる。
【0036】
処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、画像生成処理、音生成処理などの各種の処理を行う。この処理部100は、記憶部170をワーク領域として各種処理を行う。この処理部100の機能は、各種プロセッサ(CPU、DSP等)やASIC(ゲートアレイ等)などのハードウェアや、プログラム(ゲームプログラム)により実現できる。
【0037】
なお図1の画像処理システムをゲームシステムに適用した場合には、処理部100はゲーム画像を生成するためのゲーム処理も行う。この場合のゲーム処理としては、ゲーム開始条件(コースやマップやキャラクタや参加プレーヤ人数の選択等)が満たされた場合にゲームを開始させる処理、ゲームを進行させる処理、キャラクタやマップなどのオブジェクトを配置する処理、オブジェクトを表示する処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了させる処理などがある。
【0038】
処理部100は、取り込み部110、補正部112、立体視用画像生成部118を含む。なおこれらの一部を省略してもよい。
【0039】
取り込み部110は、立体視のための左目用画像IL1(第1の左目用画像)と右目用画像IR1(第1の右目用画像)を取り込む処理(読み出す処理、ダウンロードする処理)を行う。より具体的には、情報記憶媒体180(記憶部170)に記憶(セーブ)された左目用画像IL1、右目用画像IR1を読み出す処理を行う。或いは通信部196を介してインターネットなどのネットワークから、左目用画像IL1、右目用画像IR1をダウンロードする処理を行う。或いは、通信部196(USB、IEEE1394)を介して接続されるカメラやスキャナから、左目用画像IL1、右目用画像IR1を読み出す処理を行う。そして取り込んだ左目用画像IL1、右目用画像IR1は、補正処理前の元画像として使用される。
【0040】
なお左目用画像IL1、右目用画像IR1は、立体視のための画像であり、両目視差がついた画像である。具体的には、左目用視点位置にカメラ(或いは仮想カメラ。他の説明でも同様)を配置し、このカメラの視線方向を被写体(オブジェクト、注視点)の方に向けて撮影することで、左目用画像IL1が作成(生成)される。また右目用視点位置にカメラを配置し、このカメラの視線方向を被写体(オブジェクト、注視点)の方に向けて撮影することで、右目用画像IR1が作成(生成)される。
【0041】
なお左目用画像IL1、右目用画像IR1を、ゲーム画像としてリアルタイムに生成してもよい。この場合には処理部100(画像生成部)が、オブジェクト空間内において左目用視点位置(左目用仮想カメラ)から見える画像である左目用画像IL1を生成する。またオブジェクト空間内において右目用視点位置(右目用仮想カメラ)から見える画像である右目用画像IR1を生成する。そして生成された左目用画像IL1、右目用画像IR1は記憶部170(描画バッファ172、テクスチャ記憶部174)に記憶される。
【0042】
この場合に仮想カメラから見える画像は次のようにして生成できる。即ち、まず、座標変換、クリッピング処理、或いは透視変換等のジオメトリ処理を行い、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)を作成する。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、描画バッファ172(フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファ)に描画する。これにより、オブジェクト空間内において仮想カメラから見える画像が生成される。
【0043】
補正部112は左目用画像IL1、右目用画像IR1(広義には元画像)を補正する処理を行う。より具体的には補正部112は、左目用画像IL1に対して、基準面(被写体やオブジェクトが配置される面)での画像のパースペクティブを無くすための補正処理を施して、左目用画像IL2(第2の左目用画像)を生成する。また右目用画像IR1に対して、基準面での画像のパースペクティブを無くすための補正処理を施して、右目用画像IR2(第2の右目用画像)を生成する。この補正処理は、テクスチャ記憶部174に記憶された左目用画像IL1、右目用画像IR1(元画像)をテクスチャとするテクスチャマッピングを行うことで実現できる。
【0044】
補正部112はテクスチャ座標演算部114を含む。このテクスチャ座標演算部114は、テクスチャ記憶部174からのテクスチャ(元画像)の読み出しアドレスであるテクスチャ座標を求める。より具体的には、元画像(或いは左目用画像IL1、右目用画像IR1。他の説明でも同様)の領域(トリミング領域)を、メッシュ状の第1〜第Kの分割画像領域(Kは2以上の整数)に分割する。即ちメッシュ状に分割された領域のメッシュ点(グリッド)である分割点の座標を求める。そして、第1〜第Kの分割画像領域(或いは左目用、右目用の第1〜第Kの分割画像領域。他の説明でも同様)の分割点(基準点を含む)の座標により特定されるテクスチャ座標(分割点に1対1に対応するポリゴンの頂点に付与するテクスチャ座標)を求める。そして、元画像が持つパースペクティブ(perspective)における消失点(vanishing point)に近い分割画像領域ほど、元画像から消失点に向かう方向(元画像の中心から消失点に向かう方向)での分割間隔(当該方向に交差する複数の分割線で分割した時の間隔)が狭くなるように、元画像の領域を第1〜第Kの分割画像領域に分割して、テクスチャ座標を求める。
【0045】
なお消失点は、元画像のパースペクティブ(歪み)を表す2本の直線(第1、第4の基準点を通る直線と第2、第3の基準点を通る直線)が交わる点である。
【0046】
補正部112はテクスチャマッピング部116を含む。このテクスチャマッピング部116は、テクスチャ記憶部174に記憶されたテクスチャ(元画像)をポリゴンにマッピングする処理を行う。より具体的にはテクスチャ座標演算部112で求められたテクスチャ座標(U、V)に基づいて、第1〜第Kのポリゴンに対して、第1〜第Kの分割画像領域の画像をマッピングする。即ち、第1〜第Kのポリゴン(1枚の長方形のポリゴンをK枚に分割したポリゴン)は、第1〜第Kの分割画像領域に1対1に対応して隣接して配置される。そしてテクスチャマッピング部116は、第1の分割画像領域の画像(テクスチャ)を第1のポリゴンにマッピングし、第L(Lは1≦L≦Kとなる整数)の分割画像領域の画像を第Lのポリゴンにマッピングし、第Kの分割画像領域の画像を第Kのポリゴンにマッピングする。
【0047】
立体視用画像生成部118は、補正処理後の左目用画像IL2と右目用画像IR2に基づいて立体視用画像を生成する処理を行う。例えば、左目用画像IL2と右目用画像IR2をアナグリフ(anaglyph)処理により合成して、立体視用画像を生成する。そして生成された立体視用画像は、記憶部170や情報記憶媒体180に書き込まれる(セーブされる)。或いは、生成された立体視用画像を通信部196、ネットワーク(インターネット)を介して外部のシステムに配信してもよい。或いは、生成された立体視用画像を表示部190に表示してもよい。この場合には、観者(オペレータ、プレーヤ)が、例えば赤の色フィルタと青の色フィルタが左目、右目に設けられた眼鏡をかけて、表示された立体視用画像を見ることで、立体視が実現される。或いは、立体視用画像生成部118が、左目用画像IL2と右目用画像IR2を異なるフレームで表示部190に出力してもよい。この場合には、観者が、フレームに同期して左右のシャッターが開閉するシャッター付き眼鏡をかけることで、立体視が実現される。
【0048】
2.テクスチャマッピングを利用した補正処理
次に本実施形態の補正処理について図面を用いて詳細に説明する。
【0049】
図2(A)において元画像の領域IMR(元画像のトリミング領域)には基準点RP1、RP2、RP3、RP4(第1〜第4の基準点)が設定されている。これらの基準点RP1〜RP4の設定は、例えば、カメラによる元画像(左目用画像IL1、右目用画像IR1)の撮影の際に、被写体の周縁部に4つのマーク(長方形の頂点の4つのマーク)をつけることで実現できる。
【0050】
元画像領域IMRに設定された基準点RP1〜RP4は四辺形の頂点を構成する。消失点VP1(第1の消失点)は、この四辺形の辺SD4(第4の辺)の延長線と、辺SD4に対向する辺SD2(第2の辺)の延長線の交点である。即ち消失点VP1は、基準点RP1、RP4を通る直線と基準点RP2、RP3を通る直線の交点である。
【0051】
本実施形態では図2(B)に示すように、元画像領域IMRを分割画像領域DR1〜DR4(広義には第1〜第Kの分割画像領域)に分割して、分割画像領域DR1〜DR4の分割点DPA〜DPE(RP1〜RP4)の座標を求め、求められた座標によりテクスチャ座標を特定する。そしてこのテクスチャ座標に基づいて、分割画像領域DR1〜DR4に対応して配置されたポリゴンPL1〜PL4(広義には第1〜第Kのポリゴン)に対して、分割画像領域DR1〜DR4の画像をマッピングする。より具体的には、分割点DPA〜DPE、RP1〜RP4の座標により特定されたテクスチャ座標を、ポリゴンPL1〜PL4の頂点VXA〜VXE、VX1〜VX4に付与し、付与されたテクスチャ座標に基づいて、テクスチャ座標記憶部174に記憶された元画像(左目用画像IL1、右目用画像IR1)を読み出し、ポリゴンPL1〜PL4にマッピングする。
【0052】
この場合に図2(B)に示すように本実施形態では、消失点VP1に近い分割画像領域ほど、元画像(IRM)から消失点VP1に向かう方向DIR1での分割間隔が狭くなるように、元画像領域IMRを分割画像領域DR1〜DR4に分割している。即ち図2(B)では、消失点VP1に近い分割画像領域DR1、DR2についての分割間隔DS1の方が、消失点VP1から遠い分割画像領域DR3、DR4についての分割間隔DS2よりも狭くなるように、DR1〜DR4を分割する。このようにすることで、元画像のパースペクティブを無くす補正処理において発生する画像の歪みを最小限に抑えることができる。
【0053】
なお図2(B)では方向DIR1(Y方向)での分割数が2であり、DIR1と直交する方向(X方向)での分割数が2となっているが、これらの分割数は3以上にすることができる。分割数を多くすればするほど、処理負荷は増すが、画像の歪みを減らすことができる。
【0054】
図3に元画像の例を示す。図3の元画像は、方眼紙の直交する縦線、横線に沿って線を引き、この方眼紙(広義には被写体)を載置面(基準面)の上に置き、カメラで撮影することで得られた画像である。この元画像は、左目視点位置に設置したカメラにより撮影した画像になっている。
【0055】
図4は、元画像に設定された基準点RP1〜RP4(長方形の方眼紙の頂点に相当)に基づいて、元画像領域を10×10(広義にはN×M)のメッシュ状の分割画像領域に分割した様子を示す図である。図4の黒丸印が分割点(基準点を含む。他の説明でも同様)に相当する。本実施形態ではこれらの分割点の座標(X、Y)を求めることで、テクスチャ座標を得る。そして得られたテクスチャ座標に基づいて、各分割画像領域と1対1に対応する各分割ポリゴン(長方形ポリゴンを分割したN×M枚のポリゴン)に対して各分割画像領域の画像(テクスチャ)をマッピングする。
【0056】
図5に、以上のようなテクスチャマッピングにより生成された画像を示す。図5に示すように本実施形態の手法によれば、図3で元画像が有していたパースペクティブが無くなっている(基準面である載置面におけるパースペクティブが無くなっている)。即ち本実施形態の手法によれば、元画像のパースペクティブを無くす補正処理を実現できる。
【0057】
例えば第1の比較例として図6に示すように、元画像領域IMRの画像を1枚の長方形ポリゴンPLにマッピングする手法が考えられる。即ち基準点RP1〜RP4の座標により得られたテクスチャ座標を、ポリゴンPLの頂点VX1〜VX4に付与してテクスチャマッピングを行う。
【0058】
しかしながらこの第1の比較例によると、生成された画像に大きな歪みが生じてしまう。即ち本来は直交すべき方眼紙の縦線、横線が直交しなくなってしまい、メッシュ状の方眼紙の画像を復元できない。
【0059】
また第2の比較例として、図8に示すように、元画像領域IMRを等間隔で分割する手法が考えられる。即ち図2(B)の本実施形態では分割間隔DS1をDS2よりも狭くしているが、この第2の比較例では分割間隔DS1とDS2を等間隔にしており、奥行き方向の補正は考慮されていない。例えば図4の本実施形態では、分割点(黒印)の位置と方眼紙のグリッド(メッシュ点)の位置がほぼ一致しているが、図8の第2の比較例では、分割点の位置と方眼紙のグリッドの位置がずれている。
【0060】
そして、この第2の比較例によると、図9に示すように、本来は等間隔であるべき方眼紙のグリッドが等間隔にならなくなる。例えば図9の上側ではグリッド間隔が狭くなり、下側ではグリッド間隔が広くなってしまう。従って、第2の比較例で生成された図9の画像を立体視のための左目用画像、右目用画像に使用すると、正しい立体視を実現できない。
【0061】
これに対して本実施形態によれば、図5に示すように、方眼紙のグリッドがほぼ等間隔になり、被写体である方眼紙の画像をほぼ正確に復元できる。例えば図5の上側でのグリッド間隔と下側でのグリッド間隔が等しくなる。従って、本実施形態で生成された図9の画像を立体視のための左目用画像、右目用画像に使用すれば、第2の比較例に比べて精度の高い立体視を実現できる。なお精度を更に高めるためには分割数を更に増やせばよい。
【0062】
以上のように本実施形態によれば、図3に示すパースペクティブのついた元画像から、図5に示すパースペクティブが無くなった画像を復元する補正処理を実現できる。しかもこの補正処理は、図2(B)に示すように元画像領域IMRを分割してテクスチャ座標を求め、求められたテクスチャ座標に基づくテクスチャマッピングを行うだけで実現できる。従って、例えばCGプログラム(OpenGL等)のテクスチャマッピングの関数に、分割により得られたテクスチャ座標を引数として代入するだけで補正処理を実現できるため、処理を簡素化できる。また補正処理を専用のハードウェアを用いることなく実現できるため、汎用性の高い補正処理プログラムを提供できる。
【0063】
3.補正処理の詳細例
次に本実施形態の補正処理の詳細例について、図10〜図12のフローチャートと、本実施形態の処理を概念的に表した図13(A)〜図15(B)を用いて説明する。
【0064】
まず図13(A)に示すように、基準点RP1〜RP4により構成される四辺形の辺SD4の延長線と辺SD2の延長線の交点である消失点VP1(第1の消失点)の座標を求める(ステップS21)。
【0065】
次に図13(B)に示すように、消失点VP1を原点とするX、Y座標系を想定し、この座標系での基準点RP1の座標(XA1、YA1)と基準点RP4の座標(XA4、YA4)を求める(ステップS22)。これらの座標は、VP1、RP1間のX、Y方向での距離と、VP1、RP4間のX、Y方向での距離により求めることができる。
【0066】
次に座標値XA1の逆数と座標値XA4の逆数と分割数NHに基づいて、X方向での分割長LX4(逆数表現の分割長)を求める(ステップS23)。
【0067】
LX4=(1/XA1−1/XA4)×(1/NH) (1)
また座標値YA1の逆数と座標値YA4の逆数と分割数NHに基づいて、Y方向での分割長LY4(逆数表現の分割長)を求める(ステップS24)。
【0068】
LY4=(1/YA1−1/YA4)×(1/NH) (2)
次に図13(C)に示すように、求められた分割長LX4、LY4に基づいて、基準点RP1の座標値XA1、YA1の逆数と、基準点RP4の座標値XA4、YA4の逆数との間を線形補間し、線形補間により得られた値の逆数を求め、求められた逆数に基づいて辺SD4上での分割点DPAの座標を求める(ステップS25)。なおLX4、LY4は逆数表現の分割長であり、図13(C)のRP1、DPA間のX方向での実際の分割長、Y方向での実際の分割長とは異なる。このため図13(C)では(LX4)、(LY4)と記している。
【0069】
例えばXA1=2.5、XA4=4.0、分割数NH=3の場合には、分割長LX4=(1/2.5−1/4)×(1/3)=0.05となる。この場合には、1/XA1=0.4と1/XA4=0.25との間を、分割長LX4=0.05で線形補間することで、値0.35、0.3が得られる。そしてこれらの値0.35、0.3の逆数を求めることで、1/0.35=2.85・・・、1/0.3=3.33・・・が得られる。これらの得られた値2.85・・・、3.33・・・が、分割点DPAのX座標値になる。
【0070】
次に図14(A)に示すように、消失点VP1を原点とするX、Y座標系での基準点RP2の座標(XB2、YB2)と基準点RP3の座標(XB3、YB3)を求める(ステップS26)。これらの座標は、VP1、RP2間のX、Y方向での距離と、VP1、RP3間のX、Y方向での距離により求めることができる。
【0071】
次に座標値XB2の逆数と座標値XB3の逆数と分割数NHに基づいて、X方向での分割長LX2を求める(ステップS27)。
【0072】
LX2=(1/XB2−1/XB3)×(1/NH) (3)
また座標値YB2の逆数と座標値YB3の逆数と分割数NHに基づいて、Y方向での分割長LY2を求める(ステップS28)。
【0073】
LY2=(1/YB2−1/YB3)×(1/NH) (4)
次に図14(B)に示すように、求められた分割長LX2、LY2に基づいて、基準点RP2の座標値XB2、YB2の逆数と、基準点RP3の座標値XB3、YB3の逆数との間を線形補間し、線形補間により得られた値の逆数を求め、求められた逆数に基づいて辺SD2上での分割点DPBの座標を求める(ステップS29)。なおLX2、LY2は逆数表現の分割長であり、図14(B)のRP2、DPB間のX方向での実際の分割長、Y方向での実際の分割長とは異なる。このため図14(B)では(LX2)、(LY2)と記している。
【0074】
次に図15(A)に示すように、辺SD4の延長線と辺SD3の延長線との交点である消失点VP2(第2の消失点)の座標を求める(図11のステップS31)。
【0075】
次に図10のステップS22〜S29と同様の処理を行って、図15(B)に示す辺SD1、辺SD3上の分割点DPC、DPDの座標を求める(ステップS32〜S39)。なお消失点VP2が存在しない場合(辺SD1、SD3が平行の場合)には、基準点RP1、RP2間、基準点RP4、RP3間を単に線形補間することで、分割点DPC、DPDの座標を求めればよい。
【0076】
次に消失点VP2を原点とするX、Y座標系での分割点DPAの座標(XA、YA)と分割点DPBの座標(XB、YB)を求める(ステップS40)。
【0077】
そして座標値XBの逆数と座標値XAの逆数と分割数NVに基づいて、X方向での分割長LXを求める(ステップS41)。
【0078】
LX=(1/XB−1/XA)×(1/NV) (5)
また座標値YBの逆数と座標値YAの逆数と分割数NVに基づいて、Y方向での分割長LYを求める(ステップS42)。
【0079】
LY=(1/YB−1/YA)×(1/NV) (6)
次に求められた分割長LX、LYに基づいて、分割点DPAの座標値XA、YAの逆数と、分割点DPBの座標値XB、YBの逆数との間を線形補間し、線形補間により得られた値の逆数を求め、求められた逆数に基づいて、図15(B)に示すように、分割点DPA、DPB間を結ぶ辺上での分割点VPEの座標を求める(ステップS43)。
【0080】
次に、全ての分割点についての処理が終了したか否かを判断し(ステップS44)、終了していなければステップS40に戻り次の分割点の処理を行う。一方、終了していれば、求められた分割点の座標に基づいて、テクスチャ座標(U、V)を求める(ステップS45)。即ち分割点の座標を、0≦U≦1、0≦V≦1を変域とするテクスチャ座標(U、V)に変換する。例えばI×Jピクセルの長方形の元画像の頂点PX1、PX2、PX3、PX4の座標が(0、J)、(I、J)、(I、0)、(0、0)であったとする。この場合には、これらの頂点PX1、PX2、PX3、PX4に設定されるテクスチャ座標(U,V)が、(0、1)、(1、1)、(1、0)、(0、0)に正規化されるように、分割点の座標をテクスチャ座標に変換する。
【0081】
そして求められたテクスチャ座標(U、V)に基づいて、図2(B)で説明したような分割ポリゴンへのテクスチャマッピングを行う(ステップS46)。これにより図5に示すような補正処理後の画像が生成される。そして生成された画像は記憶部170や情報記憶媒体180に書き込まれる(セーブされる)。
【0082】
なお立体視のための左目用画像IL1、右目用画像IR1に対して補正処理を行う場合には、左目用画像IL1、右目用画像IR1の各々を元画像として、図10〜図12の処理を行う。そして生成された補正後の左目用画像IL2、右目用画像IR2に基づいて、立体視用画像を生成する。
【0083】
4.基準点の拡張処理
図13(A)では、基準点RP1〜RP4で設定される四辺形の領域が元画像のトリミング領域になっている。そして本実施形態の補正処理は、このトリミング領域内の元画像に対して行われる。従って、トリミング領域の外側に元画像がはみ出しているような場合には、はみ出している部分の元画像がトリミングされて消失してしまうという問題がある。
【0084】
そこでこのような場合に本実施形態では図7に示すように、基準点RP1〜RP4の外側に拡張された新たな基準点RP1’〜RP4’の座標を求める。そして新たな基準点RP1’〜RP4’の座標に基づいて分割点の座標を求め、分割点の座標に基づいてテクスチャ座標を求めてテクスチャマッピングを行い、補正処理を実現する。このようにすれば、拡張前の基準点RP1〜RP4で設定されるトリミング領域においては元画像が外側にはみ出してしまう場合にも、新たな基準点RP1’〜RP4’で設定されるトリミング領域では、この部分がはみ出さないようになるため、適正な補正処理を実現できる。
【0085】
この場合の新たな基準点RP1’〜RP4’の座標を求める処理は、拡張前の基準点RP1〜RP4についての外挿処理を行うことで実現できる。具体的には、図7の基準点RP1について、前述した分割長(逆数表現の分割長)に基づいて外挿処理を行うことで、外挿点RP11及びRP12の座標を求める。同様に、基準点RP2、RP3、RP4についても分割長に基づいて外挿処理を行うことで、外挿点RP21、RP22、RP31、RP32、RP41、RP42の座標を求める。そしてこれらの求められた外挿点RP11とRP42を通る第1の直線と、RP12とRP21を通る第2の直線と、RP22とRP31を通る第3の直線と、RP32とRP41を通る第4の直線の交点を求めることで、新たな基準点RP1’〜RP4’が得られる。そして得られた基準点RP1’〜RP4’の座標に基づいて図10〜図15(B)で説明した処理を行えば、元画像の適正な補正処理画像を得ることができる。
【0086】
5.立体視方式
次に本実施形態の立体視方式について説明する。図16に本実施形態の立体視方式のフローチャートを示す。
【0087】
まず、立体視のための第1の左目用画像IL1と第1の右目用画像IR1を作成(生成)する(ステップS1、S2)。具体的には、左目用視点位置VPLから見える左目用画像IL1と、右目用視点位置VPRから見える右目用画像IR1を作成(生成)する。
【0088】
ここで左目用、右目用視点位置VPL、VPRは、図17に示すように、観者(viewer)の左目、右目の位置として想定される位置である。例えば、カメラ(デジタルカメラ)による実写により左目用、右目用画像IL1、IR1を作成する場合には、これらのVPL、VPRの位置にカメラを配置して、左目用、右目用画像IL1、IR1を撮影する。この場合、2台のカメラをVPL、VPRに配置して同時に撮影してもよいし、1台のカメラの位置を変えて撮影してもよい。
【0089】
一方、CG(コンピュータグラフィックス)画像やゲーム画像(リアルタイム動画像)を生成するシステムにより左目用、右目用画像IL1、IR1を生成する場合には、これらのVPL、VPRの位置に仮想カメラを配置して左目用、右目用画像IL1、IR1を生成する。即ち、オブジェクト空間においてVPL、VPRから見える画像を生成する。
【0090】
図18、図19に左目用画像IL1、右目用画像IR1の一例を示す。これらは、カメラ(デジタルカメラ)による実写によりIL1、IR1を作成した場合の例である。基準面(物体が置かれる載置面)の上には、ミカン、箱、ボールペン、ステープラーなどの種々の物体(狭義には被写体又はオブジェクト。他の説明でも同様)が配置されている。そして左目用画像IL1は、左目用視点位置VPLにカメラを配置して、物体(注視点、物体の代表点)の方にカメラの視線(方向)を向けて撮影したものである。また右目用画像IR1は、右目用視点位置VPRにカメラを配置して、物体の方にカメラの視線を向けて撮影したものである。そして図18、図19に示すように、これらの左目用、右目用画像IL1、IR1では視線角度(見え方)がずれており、この視線角度のずれによる両目視差を利用して立体視が実現される。
【0091】
なおCGやゲームの場合には、オブジェクト空間内に設定された基準面の上に、オブジェクト(ミカン、箱、ボールペン、ステープラー等をモデル化したオブジェクト)を配置し、VPL、VPRに仮想カメラを配置する。そして、仮想カメラの視線(方向)をオブジェクト(注視点、オブジェクトの代表点)の方に向けて、仮想カメラから見える画像を生成することで、図18、図19と同様な画像を生成できる。
【0092】
次に図16のステップS3に示すように、基準面BSでの画像のパースペクティブ(perspective)を無くすための補正処理を、ステップS1で得られた第1の左目用画像IL1に施し、第2の左目用画像IL2を作成(生成)する。またステップS4に示すように、基準面BSでの画像のパースペクティブ(遠近感)を無くすための補正処理を、ステップS2で得られた第1の右目用画像IR1に施し、第2の右目用画像IR2を作成(生成)する。この補正処理は、図2(A)〜図5や図10〜図15(B)等で説明した処理により実現される。
【0093】
図20、図21に、補正処理により得られた左目用画像IL2、右目用画像IR2の一例を示す。例えば図18、図19では、基準面BSに描かれている長方形RTG(正方形も含む広義の意味の長方形。以下の説明でも同様)にパースペクティブがついている。これに対して図20、図21では、長方形RTGのパースペクティブが無くなっている。
【0094】
ここで、本実施形態におけるパースペクティブを無くす補正処理とは、図23(A)に示すように、基準面BS自体の画像や、基準面に描かれている画像IM1や、物体OB(オブジェクト)の画像のうち基準面BSに接する部分の画像のパースペクティブ(奥行き感)を無くす処理である。即ち図23(A)のB1では、視点から奥側に行くほど、頂点間の距離が狭まるが、図23(A)のB2では、視点から奥側に行っても、頂点間の距離が変わらない。このような補正処理を行うことで、基準面BSの画像については、あたかも真上から見たような画像が作成(生成)されるようになる。なお、この補正処理により、パースペクティブが完全に厳密に無くなる必要はなく、立体視に違和感が生じない程度にパースペクティブが無くなればよい。
【0095】
なお図18、図19の左目用画像IL1、右目用画像IR1(元画像)では、MK1〜MK4(基準点)で設定されるトリミング領域の外側に画像がはみ出している。しかしこのような場合にも図7で説明した基準点の拡張処理を行うことで、図20、図21に示すように、トリミング領域をはみ出した部分も消失しないようになり、このはみ出した部分に対しても補正処理を施すことが可能になる。
【0096】
次に図16のステップS5に示すように、第2の左目用画像IL2と第2の右目用画像IR2に基づき、立体視用画像(画像データ)を作成(生成)する。より具体的には、IL2とIR2とに基づきアナグリフ処理などを行って立体視用画像を作成(生成)する。
【0097】
そして、この立体視用画像(実写画像又はCG画像)を、インクジェット方式やレーザプリンタ方式などのカラープリンタ(広義には印刷機)を用いて、印刷媒体に印刷することで、立体視用印刷物を製造できる。なお、カラープリンタ(印刷機)により印刷された原盤となる立体視用印刷物を複製することで、立体視用印刷物を製造してもよい。このようにすれば、立体視用印刷物を短期間で大量に製造できるという利点がある。
【0098】
また立体視用画像を画像処理システムの表示部に表示すれば、ゲーム画像(動画像)のリアルタイム生成が可能になる。なお、この場合に、アナグリフ処理等により得られた立体視用画像を直接に表示部に表示し、これを色フィルタ(赤、青)が設けられた眼鏡(広義には器具)を用いて見るようにしてもよい。或いは、左目用、右目用画像IL2、IR2を異なるフレームで例えば交互に表示部に表示し、これを液晶シャッタ等が設けられた眼鏡を用いて見るようにしてもよい。
【0099】
図22に、図20、図21の左目用、右目用画像IL2、IR2に基づきアナグリフ処理を行うことで得られた立体視用画像の一例を示す。
【0100】
この図22の立体視用画像では、左目用画像IL2(IL)と右目用画像IR2(IR)とが合成されている。そして左目用画像IL2と右目用画像IR2は、各々、基準面BSに配置された物体OBの画像を含む。また基準面BSの画像も含む。
【0101】
そして図24のA1に示すように、左目用画像IL2の物体画像と右目用画像IR2の物体画像は、基準面BSの位置において一致している(但し必ずしも完全に一致している必要はない)。即ち、左目用画像IL2の物体画像の印刷位置(表示位置)と右目用画像の物体画像IR2の印刷位置(表示位置)が、基準面BSにおいて一致している。
【0102】
一方、図24のA2に示すように、基準面BSから離れるほど左目用画像IL2の物体画像と、右目用画像IR2の物体画像のずれが大きくなっている。より具体的には、物体OBの部分のうち基準面BSから上方に位置する部分の画像ほど、左目用画像IL2での印刷位置(表示位置)と、右目用画像IR2での印刷位置(表示位置)とがずれている。
【0103】
この図22、図24の立体視用画像をプリント媒体に印刷することで立体視用印刷物を製造できる。そして、その立体視用印刷物を、例えば左目に赤色フィルタが設けられ右目に青色フィルタが設けられた眼鏡で見ることで、立体視を実現できる。また図22、図24の立体視用画像を表示部に表示することで、立体視用のゲーム画像を生成できる。
【0104】
さて、これまでの立体視では図23(B)に示すように、立体視用印刷物PM(或いは表示部の表示画面。他の説明でも同様)を、その面が鉛直面に対して平行になるように配置し、観者が、立体視用印刷物PMを正対して見ることが想定されていた。このため、例えば図18、図19のような左目用、右目用画像IL1、IR1に対してそのままアナグリフ処理を施して、立体視用印刷物PMを作成していた。そして、図18、図19の画像ではパースペクティブが残っているため、図23(B)のように立体視用印刷物PMを正対して見た場合に、遠近感に関する限りは、正しい画像になる。
【0105】
しかしながら図23(B)のように観者が立体視用印刷物PMを正対して見た場合に、ピント(焦点距離)については、PMの全面において同一になってしまう。従って、人間の脳内において、ピント調整と、両目視差、輻輳との関係に矛盾や誤差が生じてしまう。従って、脳が無理に立体と関連づけようとして、不自然さを感じたり、立体として認知できなくなってしまう。また、従来の方式で作成された立体視用印刷物PMを、水平面に平行になるように机に配置して見てしまうと、奥行き感に矛盾が生じ、不自然な立体視になってしまう。即ち図18、図19の長方形RTGは、高さが零の平面であり、この長方形RTGが立体に見えてはいけないからである。
【0106】
そこで本実施形態では、図23(C)に示すように、立体視用印刷物PM(表示画面)を、観者が机(水平面に平行な基準面BS)の上に配置して見ることを想定するようにしている。即ち、このような配置が本方式のデフォルトの配置となる。そして、このように水平面に平行に立体視用印刷物PMを配置した場合に、図18、図19の画像をそのままアナグリフ処理して立体視用印刷物PMを作成すると、遠近感に矛盾が生じる。
【0107】
そこで本実施形態では図20、図21、図23(A)で説明したように、基準面の画像のパースペクティブを無くす補正処理を行う。そして基準面でのパースペクティブを無くした補正後の図20、図21の画像に基づいて、アナグリフ処理を行い、立体視用印刷物PMを作成し、作成された立体視用印刷物PMを図23(C)のように水平面に平行に配置すれば、基準面の画像(長方形RTG)には適正なパースペクティブがつくようになる。また、図23(C)のように配置すれば、立体視用印刷物PMの面上の各点の焦点距離が同一ではなく異なるようになる。このため、ピント調整についても現実世界のピント調整と近いものになる。従って、ピント調整と、両目視差や輻輳との間の関係のずれも軽減され、より自然で、実在感のある立体視を実現できる。
【0108】
なお、本実施形態の立体視方式では、物体の高さが高い場合に奥行き感等にずれが生じる可能性がある。このような場合には例えば図25に示すように、2つの基準面BS1、BS2(広義には複数の基準面)を設ければよい。
【0109】
ここで基準面BS1は例えば水平面に平行な面である。一方、基準面BS2は、基準面BS1と所定の角度(例えば直角)をなす面である。そして、基準面BS1、BS2は境界BDにおいて連結されている。
【0110】
物体OB(オブジェクト)は、基準面BS1の上方で且つ基準面BS2の手前側(VPL、VPR側)に配置する。そして図16の代わりに図26に示す処理を行う。
【0111】
図26のステップS11、S12は、図16のステップS1、S2と同様である。そしてステップS13では、基準面BS1でのパースペクティブを無くすための補正処理を、左目用画像IL1の基準面BS1に対応する領域(IL1のうち境界BDを基準にしてBS1側の第1の領域)に対して施す。また、基準面BS2でのパースペクティブを無くすための補正処理を、IL1の基準面BS2に対応する領域(IL1のうち境界BDを基準にしてBS2側の第2の領域)に対して施す。そして、これらの補正処理により生成された画像を繋げた画像である左目用画像Il2を作成(生成)する。
【0112】
またステップS14では、基準面BS1でのパースペクティブを無くすための補正処理を、右目用画像IR1の基準面BS1に対応する領域(IR1のうち境界BDを基準にしてBS1側の第1の領域)に対して施す。また、基準面BS2でのパースペクティブを無くすための補正処理を、IR1の基準面BS2に対応する領域(IR1のうち境界BDを基準にしてBS2側の第2の領域)に対して施す。そして、これらの補正処理により生成された画像を繋げた画像である右目用画像IR2を作成(生成)する。
【0113】
そして最後にステップS15のように、IL2、IR2に基づき、例えばアナグリフ処理等を行って、立体視用画像を作成(生成)する。そして、得られた立体視用画像を印刷媒体に印刷して立体視用印刷物を製造したり、立体視用画像を表示部に表示することでリアルタイム動画像であるゲーム画像を生成する。
【0114】
このようにすることで図27に示すように、OBが、基準面BS1からの高さが高い物体である場合にも、より自然で、実在感のある立体視を実現できる。即ち、物体OBの足下付近の領域(境界BSの下側の第1の領域)では、基準面BS1を利用した立体視の処理により、奥行き感やピント調整に無理の無い立体視を実現できる。一方、それ以外の領域(境界BSの上側の第2の領域)では、基準面BS2を利用した立体視の処理により、奥行き感に無理の無い立体視を実現できる。
【0115】
なお、基準面は2つに限定されず、3つ以上の基準面(連結された複数の基準面)を用いてもよい。
【0116】
6.アナグリフ処理
次に図16のステップS5、図26のステップS15で行われるアナグリフ処理について簡単に説明する。
【0117】
アナグリフ処理では、1枚の印刷媒体に、左目用画像と右目用画像を色を変えて印刷して、立体視用印刷物を作成する。そしてこの立体視用印刷物を、左右の目で異なる色フィルタ(例えば左目が赤、右目が青)を介して見る。この時に、左目では左目用画像だけが見え、右目では右目用画像だけが見えるようになり、立体視が実現される。
【0118】
例えばモノクロのアナグリフ処理では、左目用画像(IL2、IL)をグレースケールに変換する。そして変換後の画像データをアナグリフ画像(RGB)のRチャンネルにコピーする。次に、右目用画像(IR2、IR)をグレースケールに変換する。そして変換後の画像データを、アナグリフ画像(RGB)のGチャンネルとBチャンネルにコピーする。これにより、モノクロのアナグリフ画像が作成される。なお、右目用画像をBチャンネルだけにコピーするようにしてもよい。
【0119】
またカラーのアナグリフ処理では、左目用画像(IL2、IL)のRチャンネルを、アナグリフ画像(RGB)のRチャンネルにコピーする。また右目用画像(IR2、IR)のGチャンネルを、アナグリフ画像(RGB)のGチャンネルにコピーする。また右目用画像のBチャンネルをアナグリフ画像(RGB)のBチャンネルにコピーする。これにより、カラー(疑似カラー)のアナグリフ画像を作成できる。
【0120】
なお、立体視の実現手法(図16のステップS5、図26のステップS15)は、少なくとも、左目用画像(IL2、IL)と右目用画像(IR2、IR)を用いて実現されるものであればよく、アナグリフ処理に限定されない。
【0121】
例えばレンチキュラーレンズと呼ばれる特殊なレンズを使って、左目には左目用画像の像だけが入り、右目には右目用画像の像だけが入るようにして、立体視を実現していもよい。
【0122】
また左目用画像、右目用画像の前に偏光板を配置し、左目用画像の前に置かれた偏光板と右目用画像の前に置かれた偏光板とで、偏向方向を異ならせておく。そして、それに応じた偏向方向を持つ偏光板をレンズ部分に取り付けた眼鏡を観者がかけることで、立体視を実現してもよい。
【0123】
また左目用画像と右目用画像を、例えばフレームを異ならせて交互に表示する。そして左目用画像の表示に同期して開く左目用のシャッター(例えば液晶シャッター)と、右目用画像の表示に同期して開く右目用のシャッターが設けられた眼鏡を観者がかけることで、立体視を実現してもよい。
【0124】
なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。
【0125】
例えば、明細書又は図面中の記載において広義や同義の用語(第1〜第Kの分割画像領域、第1〜第Kのポリゴン等)として引用された用語(分割画像領域DR1〜DR4、ポリゴンPL1〜PL4等)は、明細書又は図面中の他の記載においても広義や同義な用語に置き換えることができる。
【0126】
また、本発明のうち従属請求項に係る発明においては、従属先の請求項の構成要件の一部を省略する構成とすることもできる。また、本発明の1の独立請求項に係る発明の要部を、他の独立請求項に従属させることもできる。
【0127】
また、左目用画像、右目用画像、立体視用画像の生成手法も、本実施形態で説明したものに限定されず、種々の変形実施が可能である。
【0128】
また本発明の手法で生成された立体視用画像を、立体視用印刷物やゲーム画像以外の用途に用いることも可能である。
【0129】
また本発明の補正処理で生成される画像を、立体視用画像の生成以外の用途に用いることも可能である。
【図面の簡単な説明】
【図1】本実施形態の画像処理システムの機能ブロック図の例である。
【図2】図2(A)(B)は本実施形態の補正処理手法の説明図である。
【図3】元画像の例である。
【図4】元画像領域を分割画像領域に分割した様子を示す図である。
【図5】本実施形態の補正処理による生成画像の例である。
【図6】第1の比較例の説明図である。
【図7】基準点の拡張処理の説明図である。
【図8】第2の比較例の説明図である。
【図9】第2の比較例により生成された画像の例である。
【図10】本実施形態の補正処理のフローチャートである。
【図11】本実施形態の補正処理のフローチャートである。
【図12】本実施形態の補正処理のフローチャートである。
【図13】図13(A)(B)(C)は本実施形態の補正処理の概念図である。
【図14】図14(A)(B)は本実施形態の補正処理の説明図である。
【図15】図15(A)(B)は本実施形態の補正処理の説明図である。
【図16】本実施形態の立体視方式のフローチャートである。
【図17】本実施形態の立体式方式の説明図である。
【図18】左目用画像IL1の一例である。
【図19】右目用画像IR1の一例である。
【図20】左目用画像IL2の一例である。
【図21】右目用画像IR2の一例である。
【図22】立体視用画像(アナグリフ画像)の一例である。
【図23】図23(A)(B)(C)はパースペクティブを無くす補正処理の説明図である。
【図24】本実施形態により得られた立体視用画像の特徴の説明図である。
【図25】複数の基準面を設ける手法の説明図である。
【図26】複数の基準面を設ける手法のフローチャートである。
【図27】複数の基準面を設ける手法の説明図である。
【符号の説明】
RP1〜RP4 第1〜第4の基準点、SD1〜SD4 第1〜第4の辺、
VP1 第1の消失点、VP2 第2の消失点、IMR 元画像の領域、
DR1〜DR4 第1〜第4の分割画像領域、DRA〜DRE 分割点、
PL1〜PL4 第1〜第4のポリゴン、
VX1〜VX4、VXA〜VXE 頂点、
VPL 左目用視点位置、VPR 右目用視点位置、
OB 物体(オブジェクト、被写体)、
BS(BS1、BS2) 基準面、RTG 長方形、
IL1 第1の左目用画像、IR1 第1の右目用画像、
IL2 第2の左目用画像、IR2 第2の右目用画像、
100 処理部、110 取り込み部、112 補正部、
114、テクスチャ座標演算部、116 テクスチャマッピング部、
118 立体視用画像生成部、160 操作部、
170 記憶部、172 描画バッファ、174 テクスチャマッピング部、
180 情報記憶媒体、190 表示部、
192 音出力部、194 印刷部、196 通信部

Claims (11)

  1. 元画像の補正処理を行う画像処理システムであって、
    元画像の領域をメッシュ状の第1〜第Kの分割画像領域(Kは2以上の整数)に分割して、第1〜第Kの分割画像領域の分割点の座標により特定されるテクスチャ座標を求めるテクスチャ座標演算部と、
    求められたテクスチャ座標に基づいて、第1〜第Kの分割画像領域に1対1に対応してメッシュ状に配置された第1〜第Kのポリゴンに対して、第1〜第Kの分割画像領域の画像をマッピングするテクスチャマッピング部とを含み、
    前記テクスチャ座標演算部が、
    元画像のパースペクティブの消失点に近い分割画像領域ほど、元画像から消失点に向かう方向での分割間隔が狭くなるように、元画像の領域を第1〜第Kの分割画像領域に分割してテクスチャ座標を求めることを特徴とする画像処理システム。
  2. 請求項1において、
    前記テクスチャ座標演算部が、
    元画像の領域に設定された第1〜第4の基準点を頂点とする四辺形の第4の辺の延長線と、第4の辺に対向する第2の辺の延長線との交点である第1の消失点の座標を求め、
    第1の消失点を原点とするX、Y座標系での第1の基準点の座標と第4の基準点の座標を求め、
    第1の基準点の座標値の逆数と第4の基準点の座標値の逆数との間を線形補間し、線形補間により得られた値の逆数に基づいて、第1、第4の基準点を結ぶ第4の辺上での分割点の座標を求め、
    第1の消失点を原点とするX、Y座標系での第2の基準点の座標と第3の基準点の座標を求め、
    第2の基準点の座標値の逆数と第3の基準点の座標値の逆数との間を線形補間し、線形補間により得られた値の逆数に基づいて、第2、第3の基準点を結ぶ第2の辺上での分割点の座標を求め、
    第4の辺上での分割点の座標と第2の辺上での分割点の座標に基づいて、これらの分割点を結ぶ辺上での分割点の座標を求めることを特徴とする画像処理システム。
  3. 請求項2において、
    前記テクスチャ座標演算部が、
    前記第1〜第4の基準点についての外挿処理を行って新たな第1〜第4の基準点の座標を求め、求められた新たな第1〜第4の基準点の座標に基づいて分割点の座標を求めることを特徴とする画像処理システム。
  4. 請求項1乃至3のいずれかにおいて、
    立体視のための第1の左目用画像と第1の右目用画像を取り込む取り込み部と、
    立体視用画像を生成する立体視用画像生成部とを含み、
    前記テクスチャ座標演算部が、
    前記第1の左目用画像のパースペクティブの消失点に近い分割画像領域ほど、第1の左目用画像から消失点に向かう方向での分割間隔が狭くなるように、第1の左目用画像の領域を左目用の第1〜第Kの分割画像領域に分割してテクスチャ座標を求め、
    前記第1の右目用画像のパースペクティブの消失点に近い分割画像領域ほど、第1の右目用画像から消失点に向かう方向での分割間隔が狭くなるように、第1の右目用画像の領域を右目用の第1〜第Kの分割画像領域に分割してテクスチャ座標を求め、
    前記テクスチャマッピング部が、
    左目用の第1〜第Kの分割画像領域に1対1に対応してメッシュ状に配置された第1〜第Kのポリゴンに対して、左目用の第1〜第Kの分割画像領域の画像をマッピングして、パースペクティブを無くす補正処理が施された第2の左目用画像を生成し、
    右目用の第1〜第Kの分割画像領域に1対1に対応してメッシュ状に配置された第1〜第Kのポリゴンに対して、右目用の第1〜第Kの分割画像領域の画像をマッピングして、パースペクティブを無くす補正処理が施された第2の右目用画像を生成し、
    前記立体視用画像生成部が、
    前記第2の左目用画像と前記第2の右目用画像とに基づいて立体視用画像を生成することを特徴とする画像処理システム。
  5. 請求項4において、
    第2の左目用画像と第2の右目用画像とをアナグリフ処理により合成することで、立体視用画像を生成することを特徴とする画像処理システム。
  6. 画像処理のためのプログラムであって、
    元画像の領域をメッシュ状の第1〜第Kの分割画像領域(Kは2以上の整数)に分割して、第1〜第Kの分割画像領域の分割点の座標により特定されるテクスチャ座標を求めるテクスチャ座標演算部と、
    求められたテクスチャ座標に基づいて、第1〜第Kの分割画像領域に1対1に対応してメッシュ状に配置された第1〜第Kのポリゴンに対して、第1〜第Kの分割画像領域の画像をマッピングするテクスチャマッピング部として、
    コンピュータを機能させ、
    前記テクスチャ座標演算部が、
    元画像のパースペクティブの消失点に近い分割画像領域ほど、元画像から消失点に向かう方向での分割間隔が狭くなるように、元画像の領域を第1〜第Kの分割画像領域に分割してテクスチャ座標を求めることを特徴とするプログラム。
  7. 請求項6において、
    前記テクスチャ座標演算部が、
    元画像の領域に設定された第1〜第4の基準点を頂点とする四辺形の第4の辺の延長線と、第4の辺に対向する第2の辺の延長線との交点である第1の消失点の座標を求め、
    第1の消失点を原点とするX、Y座標系での第1の基準点の座標と第4の基準点の座標を求め、
    第1の基準点の座標値の逆数と第4の基準点の座標値の逆数との間を線形補間し、線形補間により得られた値の逆数に基づいて、第1、第4の基準点を結ぶ第4の辺上での分割点の座標を求め、
    第1の消失点を原点とするX、Y座標系での第2の基準点の座標と第3の基準点の座標を求め、
    第2の基準点の座標値の逆数と第3の基準点の座標値の逆数との間を線形補間し、線形補間により得られた値の逆数に基づいて、第2、第3の基準点を結ぶ第2の辺上での分割点の座標を求め、
    第4の辺上での分割点の座標と第2の辺上での分割点の座標に基づいて、これらの分割点を結ぶ辺上での分割点の座標を求めることを特徴とするプログラム。
  8. 請求項7において、
    前記テクスチャ座標演算部が、
    前記第1〜第4の基準点についての外挿処理を行って新たな第1〜第4の基準点の座標を求め、求められた新たな第1〜第4の基準点の座標に基づいて分割点の座標を求めることを特徴とするプログラム。
  9. 請求項6乃至8のいずれかにおいて、
    立体視のための第1の左目用画像と第1の右目用画像を取り込む取り込み部と、
    立体視用画像を生成する立体視用画像生成部として、
    コンピュータを機能させ、
    前記テクスチャ座標演算部が、
    前記第1の左目用画像のパースペクティブの消失点に近い分割画像領域ほど、第1の左目用画像から消失点に向かう方向での分割間隔が狭くなるように、第1の左目用画像の領域を左目用の第1〜第Kの分割画像領域に分割してテクスチャ座標を求め、
    前記第1の右目用画像のパースペクティブの消失点に近い分割画像領域ほど、第1の右目用画像から消失点に向かう方向での分割間隔が狭くなるように、第1の右目用画像の領域を右目用の第1〜第Kの分割画像領域に分割してテクスチャ座標を求め、
    前記テクスチャマッピング部が、
    左目用の第1〜第Kの分割画像領域に1対1に対応してメッシュ状に配置された第1〜第Kのポリゴンに対して、左目用の第1〜第Kの分割画像領域の画像をマッピングして、パースペクティブを無くす補正処理が施された第2の左目用画像を生成し、
    右目用の第1〜第Kの分割画像領域に1対1に対応してメッシュ状に配置された第1〜第Kのポリゴンに対して、右目用の第1〜第Kの分割画像領域の画像をマッピングして、パースペクティブを無くす補正処理が施された第2の右目用画像を生成し、
    前記立体視用画像生成部が、
    前記第2の左目用画像と前記第2の右目用画像とに基づいて立体視用画像を生成することを特徴とするプログラム。
  10. 請求項9において、
    第2の左目用画像と第2の右目用画像とをアナグリフ処理により合成することで、立体視用画像を生成することを特徴とするプログラム。
  11. コンピュータ読み取り可能な情報記憶媒体であって、請求項6乃至10のいずれかのプログラムを記憶したことを特徴とする情報記憶媒体。
JP2003142337A 2003-05-20 2003-05-20 画像処理システム、プログラム及び情報記憶媒体 Expired - Fee Related JP3852934B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003142337A JP3852934B2 (ja) 2003-05-20 2003-05-20 画像処理システム、プログラム及び情報記憶媒体
US10/847,447 US7295699B2 (en) 2003-05-20 2004-05-18 Image processing system, program, information storage medium, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003142337A JP3852934B2 (ja) 2003-05-20 2003-05-20 画像処理システム、プログラム及び情報記憶媒体

Publications (2)

Publication Number Publication Date
JP2004206672A true JP2004206672A (ja) 2004-07-22
JP3852934B2 JP3852934B2 (ja) 2006-12-06

Family

ID=32821675

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003142337A Expired - Fee Related JP3852934B2 (ja) 2003-05-20 2003-05-20 画像処理システム、プログラム及び情報記憶媒体

Country Status (2)

Country Link
US (1) US7295699B2 (ja)
JP (1) JP3852934B2 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006154081A (ja) * 2004-11-26 2006-06-15 Namco Bandai Games Inc 立体視用印刷物の製造方法、立体視用印刷物、画像生成方法及びプログラム
JP2007072269A (ja) * 2005-09-08 2007-03-22 Sharp Corp 立体表示装置
JP2011138537A (ja) * 2011-02-24 2011-07-14 Nintendo Co Ltd 画像認識プログラム、画像認識装置、画像認識システム、および画像認識方法
US8571266B2 (en) 2011-02-24 2013-10-29 Nintendo Co., Ltd. Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
US8699749B2 (en) 2011-02-24 2014-04-15 Nintendo Co., Ltd. Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
US8705868B2 (en) 2011-02-24 2014-04-22 Nintendo Co., Ltd. Computer-readable storage medium, image recognition apparatus, image recognition system, and image recognition method
US8705869B2 (en) 2011-02-24 2014-04-22 Nintendo Co., Ltd. Computer-readable storage medium, image recognition apparatus, image recognition system, and image recognition method
US8718325B2 (en) 2011-02-24 2014-05-06 Nintendo Co., Ltd. Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
KR101730423B1 (ko) 2010-09-13 2017-04-26 엘지전자 주식회사 영상표시장치 및 그 동작 방법
CN110312070A (zh) * 2019-04-23 2019-10-08 维沃移动通信有限公司 一种图像处理方法及终端

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7680322B2 (en) * 2002-11-12 2010-03-16 Namco Bandai Games Inc. Method of fabricating printed material for stereoscopic viewing, and printed material for stereoscopic viewing
US7321682B2 (en) * 2002-11-12 2008-01-22 Namco Bandai Games, Inc. Image generation system, image generation method, program, and information storage medium
US7990412B2 (en) * 2004-11-01 2011-08-02 Hewlett-Packard Development Company, L.P. Systems and methods for correcting image perspective
US20070035553A1 (en) * 2005-08-12 2007-02-15 Microsoft Corporation General framework for aligning textures
US9289398B2 (en) 2006-03-30 2016-03-22 Ptc Therapeutics, Inc. Methods for the production of functional protein from DNA having a nonsense mutation and the treatment of disorders associated therewith
JP4513871B2 (ja) * 2008-02-15 2010-07-28 ソニー株式会社 画像処理方法、画像処理プログラムおよび画像処理装置
KR20090092153A (ko) * 2008-02-26 2009-08-31 삼성전자주식회사 이미지 처리 장치 및 방법
US20090262125A1 (en) * 2008-04-18 2009-10-22 Vasanth Swaminathan Rendering A Multiple Viewpoint Image Into A Single Frame Buffer Using Off-Screen Rendering Surfaces
EP2418865A3 (en) 2010-08-09 2014-08-06 LG Electronics Inc. 3D viewing device, image display apparatus, and method for operating the same
KR101730323B1 (ko) * 2010-08-09 2017-05-11 엘지전자 주식회사 3d 시청 장치, 영상표시장치 및 그 동작방법
KR101742182B1 (ko) * 2010-09-17 2017-06-16 삼성디스플레이 주식회사 영상 데이터 처리 방법, 및 이를 수행하는 표시 장치
US9354718B2 (en) * 2010-12-22 2016-05-31 Zspace, Inc. Tightly coupled interactive stereo display
JP5891426B2 (ja) * 2011-03-31 2016-03-23 パナソニックIpマネジメント株式会社 全周囲立体画像の描画を行う画像描画装置、画像描画方法、画像描画プログラム
KR101829459B1 (ko) * 2011-07-14 2018-02-14 엘지디스플레이 주식회사 영상처리방법과 이를 이용한 입체영상 표시장치
CN103765869B (zh) * 2011-08-16 2017-12-12 图像影院国际有限公司 混合图像分解和投影
KR101810170B1 (ko) * 2011-10-10 2017-12-20 삼성전자 주식회사 사용자 위치 기반 이미지 표시 방법 및 장치
KR101841750B1 (ko) 2011-10-11 2018-03-26 한국전자통신연구원 매칭 정보에 의한 입체 영상 보정 장치 및 그 방법
JP6147262B2 (ja) 2011-10-20 2017-06-14 アイマックス コーポレイション デュアル投影システムの画像位置合わせの不可視性または低い知覚可能性
WO2013057717A1 (en) 2011-10-20 2013-04-25 Imax Corporation Distortion compensation for image projection
US8611642B2 (en) * 2011-11-17 2013-12-17 Apple Inc. Forming a steroscopic image using range map
US9041819B2 (en) 2011-11-17 2015-05-26 Apple Inc. Method for stabilizing a digital video
WO2014144533A1 (en) 2013-03-15 2014-09-18 Applied Materials, Inc. Position and temperature monitoring of ald platen susceptor
KR102274542B1 (ko) 2014-07-31 2021-07-07 삼성전자주식회사 디스플레이 장치 및 이의 화면을 제어하는 방법
US10275863B2 (en) * 2015-04-03 2019-04-30 Cognex Corporation Homography rectification
US10354364B2 (en) * 2015-09-14 2019-07-16 Intel Corporation Automatic perspective control using vanishing points
EP3554068B1 (en) * 2016-12-07 2022-05-18 Kyocera Corporation Image projection apparatus
JP6976733B2 (ja) * 2017-06-14 2021-12-08 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0330071A (ja) * 1989-06-27 1991-02-08 Nec Corp テクスチュアシミュレーション方式
JPH03198167A (ja) * 1989-12-27 1991-08-29 Fuji Xerox Co Ltd 二次元ビットマップ画像の変形方法および装置
JPH04165473A (ja) * 1990-10-05 1992-06-11 Fuji Xerox Co Ltd 二次元画像の変形装置
JPH06266852A (ja) * 1992-08-26 1994-09-22 Namco Ltd 画像合成装置
JPH06274650A (ja) * 1993-03-23 1994-09-30 Dainippon Printing Co Ltd 画像合成装置
JPH07271952A (ja) * 1994-03-30 1995-10-20 Mazda Motor Corp 走行路認識装置
JP2000293627A (ja) * 1999-04-02 2000-10-20 Sanyo Electric Co Ltd 画像入力装置、画像入力方法、及び記憶媒体
JP2001266176A (ja) * 2000-01-14 2001-09-28 Sony Corp 画像処理装置および画像処理方法、並びに記録媒体
JP2001346226A (ja) * 2000-06-02 2001-12-14 Canon Inc 画像処理装置、立体写真プリントシステム、画像処理方法、立体写真プリント方法、及び処理プログラムを記録した媒体
JP2002057879A (ja) * 2000-08-10 2002-02-22 Ricoh Co Ltd 画像処理装置と画像処理方法及びコンピュータ読み取り可能な記録媒体
JP2002325200A (ja) * 2001-04-26 2002-11-08 Victor Co Of Japan Ltd 資料提示装置
JP2002335438A (ja) * 2001-02-28 2002-11-22 Hewlett Packard Co <Hp> デジタル画像のパースペクティブ歪みを除去するディジタルカメラ

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2270243B (en) * 1992-08-26 1996-02-28 Namco Ltd Image synthesizing system
US5990900A (en) * 1997-12-24 1999-11-23 Be There Now, Inc. Two-dimensional to three-dimensional image converting system
WO1999063488A1 (fr) * 1998-06-02 1999-12-09 Sony Corporation Dispositif et procede de traitement d'images
US6351262B1 (en) * 1998-06-30 2002-02-26 Lucent Technologies, Inc. Display techniques for three-dimensional virtual reality
US6504535B1 (en) * 1998-06-30 2003-01-07 Lucent Technologies Inc. Display techniques for three-dimensional virtual reality
JP2000056411A (ja) 1998-08-05 2000-02-25 Dainippon Printing Co Ltd 製版方法およびカラー立体印刷物
US6801654B2 (en) * 2000-01-14 2004-10-05 Sony Corporation Picture processing apparatus, method and recording medium for a natural expansion drawing
US6633747B1 (en) * 2000-07-12 2003-10-14 Lucent Technologies Inc. Orthodontic appliance audio receiver
JP3792541B2 (ja) * 2001-06-07 2006-07-05 富士通株式会社 3次元モデル表示プログラムおよび3次元モデル表示装置

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0330071A (ja) * 1989-06-27 1991-02-08 Nec Corp テクスチュアシミュレーション方式
JPH03198167A (ja) * 1989-12-27 1991-08-29 Fuji Xerox Co Ltd 二次元ビットマップ画像の変形方法および装置
JPH04165473A (ja) * 1990-10-05 1992-06-11 Fuji Xerox Co Ltd 二次元画像の変形装置
JPH06266852A (ja) * 1992-08-26 1994-09-22 Namco Ltd 画像合成装置
JPH06274650A (ja) * 1993-03-23 1994-09-30 Dainippon Printing Co Ltd 画像合成装置
JPH07271952A (ja) * 1994-03-30 1995-10-20 Mazda Motor Corp 走行路認識装置
JP2000293627A (ja) * 1999-04-02 2000-10-20 Sanyo Electric Co Ltd 画像入力装置、画像入力方法、及び記憶媒体
JP2001266176A (ja) * 2000-01-14 2001-09-28 Sony Corp 画像処理装置および画像処理方法、並びに記録媒体
JP2001346226A (ja) * 2000-06-02 2001-12-14 Canon Inc 画像処理装置、立体写真プリントシステム、画像処理方法、立体写真プリント方法、及び処理プログラムを記録した媒体
JP2002057879A (ja) * 2000-08-10 2002-02-22 Ricoh Co Ltd 画像処理装置と画像処理方法及びコンピュータ読み取り可能な記録媒体
JP2002335438A (ja) * 2001-02-28 2002-11-22 Hewlett Packard Co <Hp> デジタル画像のパースペクティブ歪みを除去するディジタルカメラ
JP2002325200A (ja) * 2001-04-26 2002-11-08 Victor Co Of Japan Ltd 資料提示装置

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006154081A (ja) * 2004-11-26 2006-06-15 Namco Bandai Games Inc 立体視用印刷物の製造方法、立体視用印刷物、画像生成方法及びプログラム
JP4662238B2 (ja) * 2004-11-26 2011-03-30 株式会社バンダイナムコゲームス 立体視用印刷物の製造方法、立体視用印刷物、画像生成方法及びプログラム
JP2007072269A (ja) * 2005-09-08 2007-03-22 Sharp Corp 立体表示装置
JP4657066B2 (ja) * 2005-09-08 2011-03-23 シャープ株式会社 立体表示装置
KR101730423B1 (ko) 2010-09-13 2017-04-26 엘지전자 주식회사 영상표시장치 및 그 동작 방법
US8625898B2 (en) 2011-02-24 2014-01-07 Nintendo Co., Ltd. Computer-readable storage medium, image recognition apparatus, image recognition system, and image recognition method
US8571266B2 (en) 2011-02-24 2013-10-29 Nintendo Co., Ltd. Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
US8699749B2 (en) 2011-02-24 2014-04-15 Nintendo Co., Ltd. Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
US8705868B2 (en) 2011-02-24 2014-04-22 Nintendo Co., Ltd. Computer-readable storage medium, image recognition apparatus, image recognition system, and image recognition method
US8705869B2 (en) 2011-02-24 2014-04-22 Nintendo Co., Ltd. Computer-readable storage medium, image recognition apparatus, image recognition system, and image recognition method
US8718325B2 (en) 2011-02-24 2014-05-06 Nintendo Co., Ltd. Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
JP2011138537A (ja) * 2011-02-24 2011-07-14 Nintendo Co Ltd 画像認識プログラム、画像認識装置、画像認識システム、および画像認識方法
CN110312070A (zh) * 2019-04-23 2019-10-08 维沃移动通信有限公司 一种图像处理方法及终端
CN110312070B (zh) * 2019-04-23 2021-08-24 维沃移动通信有限公司 一种图像处理方法及终端

Also Published As

Publication number Publication date
JP3852934B2 (ja) 2006-12-06
US20050036673A1 (en) 2005-02-17
US7295699B2 (en) 2007-11-13

Similar Documents

Publication Publication Date Title
JP3852934B2 (ja) 画像処理システム、プログラム及び情報記憶媒体
JP5340952B2 (ja) 三次元投影ディスプレイ
JP4328311B2 (ja) 三次元画像表示用多視点画像の作成方法およびプログラム
JP4823334B2 (ja) 画像生成システム、画像生成方法、プログラム及び情報記憶媒体
JP4065488B2 (ja) 3次元画像生成装置、3次元画像生成方法及び記憶媒体
JP6517245B2 (ja) 三次元画像を生成するための方法及び機器
WO2010084724A1 (ja) 画像処理装置、プログラム、画像処理方法、記録方法および記録媒体
JP2003209858A (ja) 立体画像生成方法及び記録媒体
JP2010033367A (ja) 情報処理装置及び情報処理方法
US5949420A (en) Process for producing spatially effective images
KR20120119905A (ko) 3d 디스플레이에서의 누화 보상 방법
JP2003284093A (ja) 立体画像処理方法および装置
JP5396877B2 (ja) 画像処理装置、プログラム、画像処理方法、および記録方法
WO2013108285A1 (ja) 画像記録装置、立体画像再生装置、画像記録方法、及び立体画像再生方法
JP2001128195A (ja) 立体画像補正装置、立体画像表示装置および立体画像補正処理プログラムを記録した記録媒体
JP2014067372A (ja) 運動視差再現プログラムおよび装置ならびにその三次元モデル生成プログラムおよび装置
JP5060231B2 (ja) 画像生成方法、立体視用印刷物、立体視用印刷物の製造方法及びプログラム
JP3579683B2 (ja) 立体視用印刷物の製造方法、立体視用印刷物
JP2003284095A (ja) 立体画像処理方法および装置
JP2004207780A (ja) 写真撮影装置
WO2019026388A1 (ja) 画像生成装置および画像生成方法
JP2008134322A (ja) 立体視画像撮影用装置及びこれを用いた画像処理システム
JP4610634B2 (ja) 画像処理方法、その方法を実現するためにコンピュータにより実行されるプログラム、及びそのプログラムを記録した記録媒体
JPH0350684A (ja) 立体視映像表示方式
JPH09116932A (ja) 特殊効果装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20040326

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051229

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20051229

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20060130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060417

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060807

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060814

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060904

R150 Certificate of patent or registration of utility model

Ref document number: 3852934

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090915

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090915

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090915

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090915

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100915

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100915

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110915

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110915

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120915

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120915

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130915

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees