JP3716786B2 - Video display device - Google Patents

Video display device Download PDF

Info

Publication number
JP3716786B2
JP3716786B2 JP2001365531A JP2001365531A JP3716786B2 JP 3716786 B2 JP3716786 B2 JP 3716786B2 JP 2001365531 A JP2001365531 A JP 2001365531A JP 2001365531 A JP2001365531 A JP 2001365531A JP 3716786 B2 JP3716786 B2 JP 3716786B2
Authority
JP
Japan
Prior art keywords
image
projection
modulation
area
projected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001365531A
Other languages
Japanese (ja)
Other versions
JP2003169272A (en
Inventor
剛 皆川
眞見 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2001365531A priority Critical patent/JP3716786B2/en
Publication of JP2003169272A publication Critical patent/JP2003169272A/en
Application granted granted Critical
Publication of JP3716786B2 publication Critical patent/JP3716786B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、スクリーンとプロジェクタを用いて映像を表示する装置に関する。
【0002】
【従来の技術】
従来、1つのスクリーンと2つの画像変調投影手段を備え、前記画像変調投影手段を、スクリーン上で重複投影領域が存在するように設置し、さらに、原画像に対して該画像変調投影手段によって変調を施して投影することで、前記スクリーン上に滑らかに繋がった映像を表示することを特徴とする映像表示装置、例えば特開平9−326981に記載の画像投影システムにおいては、エッジブレンド処理を各画像変調投影手段の投影領域の外周からの距離に関する関数によって行っていた。
【0003】
【発明が解決しようとする課題】
従来の装置のように、エッジブレンド処理を各画像変調投影手段の投影領域の外周からの距離に関する関数で行った場合、前記スクリーン上で、一方の前記画像変調投影手段の投影領域が、他方の前記画像変調投影手段の投影領域の頂点のうちの1つを内部に含むように各画像変調投影手段を設置した場合に、光学的合成の誤差の影響によって発生する、該頂点の付近の偽輪郭や、頂点の部分における輝点・暗点が、ユーザに知覚されやすく、映像品質の劣化を招いていた。
【0004】
【課題を解決するための手段】
本発明においては、前記の課題を解決するため、前記各々の画像変調投影手段によって施す変調を、ブレンド部分の等輝度線の形状が、重複投影領域境界の頂点付近で丸みを帯びた曲線となるようにした。このようにすることにより、光学的合成の誤差の影響によって生じる偽輪郭・輝点・暗点を、ユーザに知覚されにくくすることができる。
【0005】
【発明の実施の形態】
以下、図1〜図11を用いて、本発明の第一の実施例について説明する。
図2は、本発明の第一の実施例における装置の概念図である。
画像変調投影手段20は、画像出力手段22から入力された原画像データ205に変調を施した上で、該変調後の変調画像206をスクリーン23上の映像領域204に投影する。また、画像変調投影手段21は、画像出力手段22から入力された原画像データ215に変調を施した上で、該変調後の変調画像216をスクリーン23上の映像領域214に投影する。画像変調投影手段20および画像変調投影手段21は、映像領域214がスクリーン23上で映像領域204の内部にあるように設置する。このとき、一般に、スクリーン23上では、映像領域214の内部に投影されている映像の方が映像領域204の内部に投影されている映像よりも精細度の高い映像となる。
【0006】
なお、スクリーン23上で、映像領域204と映像領域214に表示される映像を、全体として繋がった1つの映像としてユーザに提供するために、画像変調投影手段20において原画像データ205にどのような変調を施せばよいか、および、画像変調投影手段21において原画像データ215にどのような変調を施せばよいか、の具体的な実施例については、図1および図4〜図11を用いて説明する。
【0007】
図3は、本発明の第一の実施例における装置構成図である。図3において、図2と同じ記号は図2と同じものを表す。
【0008】
画像出力手段22は、演算処理装置224を使用して、主記憶装置221内の画像生成プログラム222と画像生成用データ223とに基づいて、画像変調投影手段20の入力として与えるべき原画像データ205を生成し、画像出力ボード225から画像変調投影手段20へ向けて出力する。同様に、画像出力手段22は、演算処理装置224を使用して、主記憶装置221内の画像生成プログラム222と画像生成用データ223とに基づいて、画像変調投影手段21の入力として与えるべき原画像データ215を生成し、画像出力ボード226から画像変調投影手段21へ向けて出力する。なお、原画像データ205を生成する際には画像出力ボード225のハードウェアアクセラレーション機能を使用してもよいし、同様に、原画像データ215を生成する際には画像出力ボード226のハードウェアアクセラレーション機能を使用してもよいことは言うまでもない。なお、外部記憶装置227を備え、画像生成プログラム222や画像生成用データ223を、必要に応じて外部記憶装置227から読み出すようにしてもよい。また、通信手段228を備え、画像生成プログラム222や画像生成用データ223を、通信手段228を介して、必要に応じてネットワークから読み込むようにしてもよい。
【0009】
画像変調投影手段20は、画像出力ボード225から入力された原画像データ205に対して、画像変調手段201を用いて、所与の画像変調パラメタ202に基づいた変調を施し、該変調の施された変調画像206を、画像投影手段203からスクリーン23へ向けて投影する。
【0010】
画像変調投影手段21は、画像出力ボード226から入力された原画像データ215に対して、画像変調手段211を用いて、所与の画像変調パラメタ212に基づいた変調を施し、該変調の施された変調画像216を、画像投影手段213からスクリーン23へ向けて投影する。
【0011】
なお、画像変調パラメタ202および画像変調パラメタ212として、具体的にどのようなパラメタを使用すればよいかは、図1および図4〜図11を用いて説明する。
【0012】
以下、図1および図4〜図11を用いて、画像変調パラメタ202および画像変調パラメタ212の、具体的な生成方法を説明する。
図4は、本発明の第一の実施例における画像変調パラメタ生成処理のフローチャートである。
【0013】
図4において、画像変調パラメタ生成処理が開始されると、まず、ステップ60において、座標対応データ生成処理が実行される。これは、スクリーン23上における、原画像データ205上の座標系と原画像データ215上の座標系との対応を求め、画像変調パラメタのうち幾何学的な変調を施すためのパラメタを生成する処理である。なお、本実施例では、図5を用いて、原画像データ205に関しては幾何学的変調を行わず、原画像データ215に関してのみ幾何学的変調を行って2つの映像を重ねる例を示す。
【0014】
図5は、本発明の第一の実施例において投影座標空間同士の関係を示す図である。投影座標空間40は原画像データ205の投影座標空間であり、投影座標空間41は原画像データ215の投影座標空間である。投影座標空間40と投影座標空間41とは、画像変調投影手段20と画像変調投影手段21の配置などの影響により、一般には図5に示したように捻れた関係にある。
【0015】
ところが、画像生成プログラム222および画像生成プログラム223が実際に原画像データ205および原画像データ215を生成する際には、投影座標空間同士の関係が、投影座標空間40と理想投影座標空間42のような関係だという条件の下で処理を行う。ここで、投影座標空間40と理想投影座標空間42との関係は、例えばどの部分を高精細に表示するかという基準によって、あらかじめ与えられているものである。したがって、投影座標空間41と理想投影座標空間42の差異の部分を補正するものが、幾何学的な変調を施すためのパラメタである。
【0016】
このパラメタは、例えば、変調画像216の投影座標空間が、変調画像215の投影座標空間と同じく、投影座標空間41であることから、次のように生成することができる。
【0017】
まず、変調画像216の画素位置420の画素には原画像206の画素位置410の画素を対応させ、変調画像216の画素位置421の画素には原画像206の画素位置411の画素を対応させ、変調画像216の画素位置422の画素には原画像206の画素位置412の画素を対応させ、変調画像216の画素位置423の画素には原画像206の画素位置413の画素を対応させる。この段階で対応が決まっていない画素に関しては、双線形補間などによって対応を決めればよい。
【0018】
なお、一般に、投影座標空間41の格子点は理想投影座標空間42の格子点とはならないが、そのような場合には最近傍の画素に対応付けることによって実施すればよい。また、画素の座標値を実数値の組として求めておき、四近傍の画素の画素値の混合平均処理などによって実施するようにしてもよい。
【0019】
投影座標空間40と投影座標空間41との関係は、従来技術による装置と同様に、画像変調投影手段20と画像変調投影手段21のそれぞれで縦縞や横縞の調整用画像を投影したものを、デジタルカメラで撮影したデータに基づいて求めればよい。また、スクリーン23が平面である場合には、画像変調投影手段20から座標値が分かるようなメッシュ画像を投影しておき、画像変調投影手段21の投影領域214の4頂点の座標を目視で読み取った上で、双線形補間などの補間法によって内部の対応を求めることもできる。
【0020】
なお、投影座標空間41において、理想投影座標空間42との共通部分でない領域は、本来は意味のある画像が投影されない領域であるため、色変調を施すためのパラメタにおいて、該当部分の画素の画素値が常に「黒」となるようにする。
【0021】
なお、投影座標空間40と理想投影座標空間42との関係を装置設置前に決めた場合には、投影座標空間41が理想投影座標空間42を含むように、画像変調投影手段21を設置する。これは、投影座標空間40と理想投影座標空間42との関係に基づいて、理想投影座標空間42の占める領域を枠線で示した調整用画像を生成し、該調整用画像を画像変調投影手段20から投影しておいて、画像変調投影手段21の投影領域214がその枠線を覆うように画像変調投影手段21を設置するようにすればよい。また、投影座標空間40と理想投影座標空間42との関係を装置設置後に決める場合には、投影座標空間40と投影座標空間41との関係を求めた後、投影座標空間41が理想投影座標空間42を含むように、投影座標空間40と理想投影座標空間42との関係を決定する。
【0022】
図4のステップ60の座標対応データ生成処理が終了すると、次に、ステップ61の輝度特性関数生成処理が実行され、さらに、ステップ62の目標輝度特性関数算出処理が実行される。輝度特性関数生成処理および目標輝度特性関数算出処理の概要を図6を用いて説明する。
【0023】
図6は、本発明の第一の実施例において輝度特性関数および目標輝度特性関数を説明するための図である。図6において、特性曲線310は、画像投影手段203が単独で投射している領域において、画像投影手段203に入力された画素値とスクリーン上での輝度値との関係を示す特性曲線である。すなわち、画像変調手段201から「黒」に相当する画素値300が入力された場合には、スクリーン上での輝度は311となり、画像変調手段201から「白」に相当する画素値301が入力された場合には、スクリーン上での輝度は313となる。
【0024】
また、同様に、特性曲線320は画像投影手段203と画像投影手段213とが重複して投射している領域において、画像投影手段203から「黒」を投影している場合に、画像投影手段213に入力された画素値とスクリーン上での輝度値との関係を示す特性曲線である。画像変調手段211から「黒」に相当する画素値300が入力された場合には、スクリーン上での輝度は321となり、画像変調手段211から「白」に相当する画素値301が入力された場合には、スクリーン上での輝度は323となることを示している。
【0025】
ステップ61の輝度特性関数生成処理は、各画素および各画像投影手段ごとに、この特性曲線を求める処理である。例えば、前述の特性曲線以外に、画像投影手段203と画像投影手段213とが重複して投射している領域において、画像投影手段213から「黒」を投影している場合に、画像投影手段203に入力された画素値とスクリーン上での輝度値との関係を示す特性曲線についても当該ステップにおいて求めておく。その際、特性曲線を計測する画像投影手段以外の画像投影手段については、消灯するのではなく、「黒」を投影して計測を行うようにする。該輝度特性関数生成処理は、従来の技術による装置と同様に、輝度計などの計測器を用いた計測による方法によって実施することができるし、画素毎に斑がある場合には、校正済のデジタルカメラを用いて補正用パターンを撮影し計算によって求める方法によって実施してもよい。
【0026】
ステップ62の目標輝度特性関数算出処理は、ステップ62の輝度特性関数生成処理において求めた特性曲線から、目標輝度特性関数、例えば図6における特性曲線330を求める処理である。目標輝度特性関数とは、映像が滑らかに接続されるように装置を調整した後の、画像変調投影手段に入力された画素値に対する出力特性を表す関数である。したがって、特性曲線330としては、任意の画素値に対応する輝度値が、ステップ62の輝度特性関数生成処理において求めた特性曲線の画素値300に対応する輝度値のいずれよりも高い値になるように、かつ、ステップ62の輝度特性関数生成処理において求めた特性曲線の画素値301に対応する輝度値のいずれよりも低い値になるような曲線であることが必要となる。
【0027】
映像のコントラストを維持するため、最大輝度値は誤差分のマージンを考慮した上でできるだけ高い値に設定し、最小輝度値は誤差分のマージンを考慮した上でできるだけ低い値に設定し、中間部を例えば所与のγ値に基づいたγ曲線などとしてやればよい。
【0028】
図4の、ステップ61の輝度特性関数生成処理、および、ステップ62の目標輝度特性関数算出処理が終了すると、次に、ステップ63の精細度別補正パラメタ生成処理が実行される。ある精細度に関して、複数の画像投影手段を用いて実施している場合には、それらの画像投影手段によって投影される映像間のエッジブレンド処理を該精細度別補正パラメタ生成処理において行う。本実施例の場合には、各精細度について1つの画像投影手段を用いて実施しているため、精細度別補正パラメタ生成処理では何も行う必要はない。
【0029】
図4の、ステップ63の精細度別補正パラメタ生成処理が終了すると、次に、ステップ64のブレンドパラメタ生成処理が実行される。ステップ64のブレンドパラメタ生成処理に関して、図7〜図9を用いて概要を説明した後、図1および図10と図11を用いて詳細を説明する。
【0030】
図7は、本発明の第一の実施例においてブレンド領域を説明するための図である。投影座標空間40と理想投影座標空間42は、図5と同じものを表す。ここでさらに、理想投影座標空間42の内部に領域43を設定する。理想投影座標空間42のうち領域43に含まれる部分は、画像変調投影手段20から「黒」が投影されることになる領域である。すなわち、この領域に関して意味のある映像は画像変調投影手段21からだけ表示される、という領域である。
【0031】
そして、理想投影座標空間42のうち領域43に含まれない部分は、画像変調投影手段20から投影する映像と画像変調投影手段21から投影する映像との「のりしろ」部分として使用される領域である。画像変調投影手段20から投影する映像と画像変調投影手段21から投影する映像とが滑らかに繋がるように調整された後の、境界線70および境界線71および頂点80の近傍における、画像変調投影手段21から投影する映像の等輝度線の様子を、図8および図9にて示す。なお、境界線70と境界線71において、上辺どうしは平行であり、下辺どうしは平行であり、左辺どうしは平行であり、右辺どうしは平行であるように、境界線71(つまり領域43)を設定するものとする。
【0032】
図8は、従来技術のブレンド領域における等輝度線を表す図である。従来の技術における装置では、エッジブレンド処理を各画像変調投影手段の投影領域の外周からの距離に関する関数で行っているため、本実施例のような場合には、図8のように、境界線70からの距離に応じた等輝度線(ただし左右と上下のアスペクト比に関して考慮した例である)となる。この場合、領域72の部分において、計測誤差やモデル化誤差などに起因する偽輪郭がユーザに知覚されたり、境界線70の頂点の部分で計測誤差やモデル化誤差などに起因する輝点や暗点がユーザに知覚され、映像品質の劣化につながっていた。
【0033】
図9は、本発明の第一の実施例のブレンド領域における等輝度線を表す図である。本発明においては、エッジブレンド処理は、単独精細表示領域の境界線71からの距離に応じて行う。したがって、境界線71の頂点80を除いた部分に関しては、等輝度線は図9に示したように滑らかな曲線(ただし左右と上下のアスペクト比に関して考慮した例である)となり、偽輪郭・輝点・暗点などをユーザに知覚されにくくすることができる。なお、境界線70の頂点近くの領域81では、画像変調投影手段21は「黒」を表示するようにする。
【0034】
以下、等輝度線がこのような形状となるようなブレンドパラメタの生成方法を、図1と図10と図11を用いて説明する。
【0035】
図1は、本発明の第一の実施例におけるブレンドパラメタ生成処理のフローチャートである。図1においては、画像変調パラメタ212を生成する場合のフローを詳細に説明する。
【0036】
ブレンドパラメタ生成処理が開始されると、まず、ステップ101の画素選択処理において、未処理の画素のうちから1つを選択する。次に、ステップ102の座標変換処理において、選択した画素の座標値を、投影座標空間41の座標値から投影座標空間40の座標値へ変換する。これは、図4のステップ60の座標対応データ生成処理において生成した座標対応データを参照すればよい。変換後の画素の座標値を座標値120とする。次に、ステップ103において、座標値120が担当領域内に入っているか否かを判定する。座標値120が境界線70上にあるかまたは境界線70によって囲まれている内部に入っていれば真であり、座標値120が境界線70によって囲まれている内部に入っていなければ偽である。偽と判定されたばあいには、ステップ109において輝度維持率を0としてステップ106へ進む。真と判定された場合には、ステップ104において正規化距離算出処理を行う。本実施例においては、正規化距離は0以上1以下の値をとるものであり、具体的な算出方法は図10を用いて説明する。次に、ステップ105において輝度維持率算出処理を行う。輝度維持率は、正規化距離が0の時に1となり、正規化距離が1の時に0となるような、正規化距離の関数130を用いて算出する。
【0037】
具体的には、正規化距離をDとするとき、関数130としては例えば(1−D)などの関数を用いて実施すればよい。なお、変化率が滑らかに変化するように、三角関数などを使った関数によって実施するようにしてもよい。ステップ105、あるいは、ステップ109において、輝度維持率140が求められたら、次に、ステップ106において出力輝度特性関数算出処理を行う。出力輝度特性関数150は、画像変調投影手段21に対して入力された画素値160の関数であり、画像変調投影手段21から投射すべき映像の輝度値を返す関数である。出力輝度特性関数150は、目標輝度特性関数332からオフセット値321(つまりすべての画像投影手段から「黒」を表示したときの最大輝度値)を引き、輝度維持率140を乗じたものに、オフセット値321を加えたものとして算出することができる。
【0038】
ステップ106において出力輝度特性関数を算出したら、次に、ステップ107において出力画素特性関数算出処理を行う。出力画素特性関数は、画像変調手段211に対して入力された画素値160の関数であり、画像投影手段211の出力となる画素値161を返す関数である。これは、各画素値160に対して、出力輝度特性関数150を用いて出力輝度値500を求め、画像投影手段210の特性関数320を用いて図11のように逆引きを行い、対応する画素値502を求めることにより算出することができる。ステップ107における出力画素特性関数算出処理の終了後、ステップ108において処理が必要な画素のすべてについて処理を完了したかを判定する。処理が必要であるにもかかわらず未だ処理が完了していない画素が存在する場合には、ステップ101の画素選択処理へ戻り、ブレンドパラメタ生成処理を続行する。処理が必要な画素のすべてについて処理を完了した場合には、ブレンドパラメタ生成処理を終了する。
【0039】
なお、画像変調パラメタ202を生成する場合は、正規化距離の算出を行う必要はない。スクリーン上で同じ位置に投射する映像の輝度維持率の総和は1となるという性質があるため、画像変調パラメタ212を先に生成しておくことにより、座標対応データを使って輝度維持率を算出できるためである。
【0040】
図10は、本発明の第一の実施例のブレンドパラメタ生成処理における正規化距離の算出方法を説明するための図である。
【0041】
図10において、辺701は境界線70の左側の辺であり、辺702は境界線70の上側の辺であり、辺711は境界線71の左側の辺であり、辺712は境界線71の上側の辺である。また、交点82は辺711の延長と辺702の交点であり、交点83は辺712の延長と辺701の交点である。さらに、領域90は辺701と辺702と頂点80と交点81と交点82によって規定される四角形領域であり、領域91は辺702と辺712と頂点80と交点82によって規定される四角形領域であり、領域92は辺701と辺711と頂点80と交点83によって規定される四角形領域であり、領域93は境界線71(図10においては辺711と辺712)の内部の領域であり、領域94は境界線70(図10においては辺701と辺702)の外部の領域である。
【0042】
このとき、座標値120は、領域90あるいは領域91あるいは領域92あるいは領域93あるいは領域94のうちのいずれか1つに含まれる。なお、これらの領域の境界上に位置する場合には、その境界を共有するいずれの領域に含まれるとしてもよい。ここで、座標値120が領域94に含まれている場合、その正規化距離Dは1とする。また、座標値120が領域93に含まれている場合、その正規化距離Dは0とする。また、座標値120が領域92に含まれている場合、その正規化距離Dは辺711との距離を距離D1で割った値とする。また、座標値120が領域91に含まれている場合、その正規化距離Dは辺712との距離を距離D2で割った値とする。
【0043】
また、座標値120が領域90に含まれている場合、その正規化距離Dは次のように求める。始点が頂点80であり終点が座標値120であるようなベクトルをベクトルVとする。始点が頂点80であり終点が交点83であるようなベクトルV1を正規化したベクトルをベクトルN1とし、始点が頂点80であり終点が交点82であるようなベクトルV2を正規化したベクトルをベクトルN2とする。ベクトルVとベクトルN1との内積を取ることにより、ベクトルVのベクトルN1方向の成分P1を求める。ベクトルVとベクトルN2との内積を取ることにより、ベクトルVのベクトルN2方向の成分P2を求める。P1をD1で割った値をQ1とし、P2をD2で割った値をQ2とするとき、Q1の2乗とQ2の2乗を加えた値の平方根180の値を、正規化距離Dとする。
【0044】
ただし、平方根180の値が1よりも大きい場合には、正規化距離Dは1であるとする。なお、領域90において平方根180の値が1となる点の集合は、頂点80を中心とし、交点82および交点83を通るような楕円の一部となり、交点82における接線は辺702を含む直線であり、交点83における接線は辺701を含む直線となる。
【0045】
図4のステップ64のブレンドパラメタ生成処理が終了すると、次に、ステップ65の画像変調パラメタ保存処理が実行される。これは、ステップ60の座標対応データ生成処理で生成された幾何学的な変調を施すためのパラメタと、ステップ64のブレンドパラメタ生成処理で生成された輝度の変調を施すためのパラメタとを保存する処理である。これは、画像変調手段201および画像変調手段211に直接保存するようにしてもよいし、外部記憶装置280を用意して、一旦該外部記憶装置280に保存した上で、必要に応じて画像変調手段201および画像変調手段211にロードするようにしてもよい。
【0046】
以上、本実施例によれば、ブレンド部分の等輝度線の形状を、矩形ではなく、頂点部分が丸みを帯びた曲線としたことで、光学的合成の誤差の影響による偽輪郭の発生や頂点部分における輝点・暗点の発生を抑止することができる。
【0047】
なお、前記実施例においては、輝度の変調ということで説明を行ったが、本発明における画像変調パラメタとしては、RGBの各原色について各々独立に変調を施すようなものとしてもよいことは言うまでもない。
【0048】
また、前記実施例においては、一方の画像変調投影手段の映像領域が、他方の画像変調投影手段の映像領域に完全に含まれるような場合について説明したが、本発明はそのような場合に限定されるようなものではなく、一方の画像変調投影手段の映像領域の1つの頂点が、他方の画像変調投影手段の映像領域に含まれるような場合一般について実施することができる。
【0049】
本発明の一実施例によれば、1つのスクリーンと2つの画像変調投影手段を備え、前記画像変調投影手段を、前記スクリーン上で重複投射領域を持つように設置し、さらに、原画像に対して該画像変調投影手段によって変調を施して投影することで、前記スクリーン上に滑らかに繋がった映像を表示することを特徴とする映像表示装置において、前記スクリーン上で、一方の前記画像変調投影手段の投影領域が、他方の前記画像変調投影手段の多角形投影領域の頂点のうちの1つを内部に含むように各画像変調投影手段を設置した場合に、前記画像変調投影手段によって施す変調を、ブレンド部分の等輝度線の形状が、頂点付近で丸みを帯びた曲線としたことで、光学的合成の誤差の影響による偽輪郭や、頂点部分における輝点・暗点を、ユーザの目に知覚されにくくすることができる。
【0050】
【発明の効果】
本発明によれば、複数の映写装置を用いた映像表示において、より光学的誤差の少ない表示が可能になる。
【図面の簡単な説明】
【図1】本発明の第一の実施例におけるブレンドパラメタ生成処理のフローチャートである。
【図2】本発明の第一の実施例における装置の概念図である。
【図3】本発明の第一の実施例における装置構成図である。
【図4】本発明の第一の実施例における画像変調パラメタ生成処理のフローチャートである。
【図5】本発明の第一の実施例において投影座標空間同士の関係を示す図である。
【図6】本発明の第一の実施例において輝度特性関数および目標輝度特性関数を説明するための図である。
【図7】本発明の第一の実施例においてブレンド領域を説明するための図である。
【図8】従来技術のブレンド領域における等輝度線を表す図である。
【図9】本発明の第一の実施例のブレンド領域における等輝度線を表す図である。
【図10】本発明の第一の実施例のブレンドパラメタ生成処理における正規化距離の算出方法を説明するための図である。
【図11】本発明の第一の実施例において出力輝度値から出力画素値への変換方法を説明するための図である。
【符号の説明】
20、21……画像変調投影手段
201、211……画像変調手段
203、213……画像投影手段
22……画像出力手段
23……スクリーン
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an apparatus for displaying an image using a screen and a projector.
[0002]
[Prior art]
Conventionally, one screen and two image modulation projection means are provided, and the image modulation projection means is installed so that an overlapping projection area exists on the screen, and further, the original image is modulated by the image modulation projection means. In an image display device, for example, an image projecting system described in Japanese Patent Application Laid-Open No. 9-326981, displays an edge blend process for each image. This is performed by a function related to the distance from the outer periphery of the projection area of the modulation projection means.
[0003]
[Problems to be solved by the invention]
When the edge blending process is performed as a function related to the distance from the outer periphery of the projection area of each image modulation projection unit as in the conventional apparatus, the projection area of one of the image modulation projection units is the other on the screen. When each image modulation projection unit is installed so as to include one of the vertices of the projection area of the image modulation projection unit, a false contour in the vicinity of the vertex is generated due to the effect of optical synthesis error. In addition, the bright spots and dark spots at the apexes are easily perceived by the user, resulting in degradation of video quality.
[0004]
[Means for Solving the Problems]
In the present invention, in order to solve the above-described problems, the modulation performed by each of the image modulation projection means is such that the shape of the isoluminance line of the blend portion becomes a rounded curve near the vertex of the overlap projection region boundary. I did it. By doing so, it is possible to make it difficult for the user to perceive false contours, bright spots, and dark spots caused by the effect of errors in optical synthesis.
[0005]
DETAILED DESCRIPTION OF THE INVENTION
The first embodiment of the present invention will be described below with reference to FIGS.
FIG. 2 is a conceptual diagram of the apparatus in the first embodiment of the present invention.
The image modulation projection unit 20 modulates the original image data 205 input from the image output unit 22 and then projects the modulated image 206 after the modulation onto the video area 204 on the screen 23. Further, the image modulation projection unit 21 modulates the original image data 215 input from the image output unit 22 and then projects the modulated image 216 after the modulation onto the video area 214 on the screen 23. The image modulation projection means 20 and the image modulation projection means 21 are installed so that the video area 214 is inside the video area 204 on the screen 23. At this time, generally, on the screen 23, the video projected inside the video area 214 is higher in definition than the video projected inside the video area 204.
[0006]
In order to provide the user with the video displayed in the video area 204 and the video area 214 on the screen 23 as one video that is connected as a whole, the image modulation projection means 20 can change the original image data 205 1 and FIGS. 4 to 11 will be used to describe specific examples of whether to perform modulation and what kind of modulation should be applied to the original image data 215 in the image modulation projection means 21. explain.
[0007]
FIG. 3 is an apparatus configuration diagram in the first embodiment of the present invention. 3, the same symbols as those in FIG. 2 represent the same symbols as those in FIG.
[0008]
The image output means 22 uses the arithmetic processing unit 224 and based on the image generation program 222 and the image generation data 223 in the main storage device 221, the original image data 205 to be given as input to the image modulation projection means 20. Is output from the image output board 225 toward the image modulation projection means 20. Similarly, the image output means 22 uses the arithmetic processing unit 224 and based on the image generation program 222 and the image generation data 223 in the main storage device 221, the image output means 22 should be given as input to the image modulation projection means 21. Image data 215 is generated and output from the image output board 226 toward the image modulation projection means 21. Note that when generating the original image data 205, the hardware acceleration function of the image output board 225 may be used. Similarly, when generating the original image data 215, the hardware of the image output board 226 is used. Needless to say, the acceleration function may be used. Note that an external storage device 227 may be provided, and the image generation program 222 and the image generation data 223 may be read from the external storage device 227 as necessary. Further, the communication unit 228 may be provided, and the image generation program 222 and the image generation data 223 may be read from the network via the communication unit 228 as necessary.
[0009]
The image modulation projection unit 20 performs modulation on the original image data 205 input from the image output board 225 using the image modulation unit 201 based on a given image modulation parameter 202 and performs the modulation. The modulated image 206 is projected from the image projection unit 203 toward the screen 23.
[0010]
The image modulation projection unit 21 performs modulation on the original image data 215 input from the image output board 226 using the image modulation unit 211 based on a given image modulation parameter 212 and performs the modulation. The modulated image 216 is projected from the image projection unit 213 onto the screen 23.
[0011]
Note that specific parameters to be used as the image modulation parameter 202 and the image modulation parameter 212 will be described with reference to FIGS. 1 and 4 to 11.
[0012]
Hereinafter, a specific method for generating the image modulation parameter 202 and the image modulation parameter 212 will be described with reference to FIGS. 1 and 4 to 11.
FIG. 4 is a flowchart of image modulation parameter generation processing in the first embodiment of the present invention.
[0013]
In FIG. 4, when the image modulation parameter generation process is started, first, in step 60, the coordinate correspondence data generation process is executed. This is a process for obtaining a correspondence between the coordinate system on the original image data 205 and the coordinate system on the original image data 215 on the screen 23 and generating a parameter for performing geometric modulation among the image modulation parameters. It is. In this embodiment, FIG. 5 is used to show an example in which the original image data 205 is not subjected to geometric modulation, but only the original image data 215 is subjected to geometric modulation and two images are superimposed.
[0014]
FIG. 5 is a diagram showing the relationship between the projected coordinate spaces in the first embodiment of the present invention. The projected coordinate space 40 is a projected coordinate space for the original image data 205, and the projected coordinate space 41 is a projected coordinate space for the original image data 215. The projection coordinate space 40 and the projection coordinate space 41 are generally twisted as shown in FIG. 5 due to the influence of the arrangement of the image modulation projection unit 20 and the image modulation projection unit 21.
[0015]
However, when the image generation program 222 and the image generation program 223 actually generate the original image data 205 and the original image data 215, the relationship between the projection coordinate spaces is such as the projection coordinate space 40 and the ideal projection coordinate space 42. Process under the condition that the relationship is Here, the relationship between the projection coordinate space 40 and the ideal projection coordinate space 42 is given in advance based on, for example, a standard of which part is displayed with high definition. Therefore, what corrects the difference between the projected coordinate space 41 and the ideal projected coordinate space 42 is a parameter for performing geometric modulation.
[0016]
This parameter can be generated as follows, for example, since the projection coordinate space of the modulated image 216 is the projected coordinate space 41 as is the projected coordinate space of the modulated image 215.
[0017]
First, the pixel at the pixel position 420 of the modulated image 216 is associated with the pixel at the pixel position 410 of the original image 206, the pixel at the pixel position 421 of the modulated image 216 is associated with the pixel at the pixel position 411 of the original image 206, The pixel at the pixel position 422 of the original image 206 is associated with the pixel at the pixel position 422 of the modulated image 216, and the pixel at the pixel position 413 of the original image 206 is associated with the pixel at the pixel position 423 of the modulated image 216. For a pixel whose correspondence is not determined at this stage, the correspondence may be determined by bilinear interpolation or the like.
[0018]
In general, the lattice points in the projected coordinate space 41 are not the lattice points in the ideal projected coordinate space 42. In such a case, the lattice points may be associated with the nearest pixel. Alternatively, the coordinate values of the pixels may be obtained as a set of real values and may be implemented by a mixed average process of pixel values of four neighboring pixels.
[0019]
The relationship between the projected coordinate space 40 and the projected coordinate space 41 is obtained by projecting an image for adjusting vertical stripes and horizontal stripes projected by the image modulation projection means 20 and the image modulation projection means 21 in the same manner as in the conventional apparatus. What is necessary is just to obtain | require based on the data image | photographed with the camera. When the screen 23 is a plane, a mesh image whose coordinate value is known is projected from the image modulation projection unit 20 and the coordinates of the four vertices of the projection area 214 of the image modulation projection unit 21 are read visually. In addition, the internal correspondence can be obtained by an interpolation method such as bilinear interpolation.
[0020]
In the projected coordinate space 41, the area that is not a common part with the ideal projected coordinate space 42 is an area where a meaningful image is not originally projected. Therefore, in the parameter for performing color modulation, the pixel of the corresponding part Make sure the value is always "black".
[0021]
If the relationship between the projection coordinate space 40 and the ideal projection coordinate space 42 is determined before the installation of the apparatus, the image modulation projection means 21 is installed so that the projection coordinate space 41 includes the ideal projection coordinate space 42. This is based on the relationship between the projection coordinate space 40 and the ideal projection coordinate space 42 and generates an adjustment image indicating the area occupied by the ideal projection coordinate space 42 by a frame line, and the adjustment image is converted into image modulation projection means. The image modulation projection means 21 may be installed so that the projection area 214 of the image modulation projection means 21 covers the frame line. Further, when the relationship between the projection coordinate space 40 and the ideal projection coordinate space 42 is determined after the installation of the apparatus, after the relationship between the projection coordinate space 40 and the projection coordinate space 41 is obtained, the projection coordinate space 41 is converted into the ideal projection coordinate space 41. The relationship between the projected coordinate space 40 and the ideal projected coordinate space 42 is determined so as to include 42.
[0022]
When the coordinate-corresponding data generation process at step 60 in FIG. 4 is completed, the luminance characteristic function generation process at step 61 is executed, and then the target luminance characteristic function calculation process at step 62 is executed. An outline of the luminance characteristic function generation process and the target luminance characteristic function calculation process will be described with reference to FIG.
[0023]
FIG. 6 is a diagram for explaining the luminance characteristic function and the target luminance characteristic function in the first embodiment of the present invention. In FIG. 6, a characteristic curve 310 is a characteristic curve showing a relationship between a pixel value input to the image projection unit 203 and a luminance value on the screen in an area projected by the image projection unit 203 alone. That is, when the pixel value 300 corresponding to “black” is input from the image modulation unit 201, the luminance on the screen is 311, and the pixel value 301 corresponding to “white” is input from the image modulation unit 201. In this case, the luminance on the screen is 313.
[0024]
Similarly, the characteristic curve 320 is obtained when the image projecting unit 203 and the image projecting unit 213 project “black” from the image projecting unit 203 in an area where the image projecting unit 203 and the image projecting unit 213 project. 6 is a characteristic curve showing the relationship between the pixel value input to the screen and the luminance value on the screen. When the pixel value 300 corresponding to “black” is input from the image modulation unit 211, the luminance on the screen is 321, and the pixel value 301 corresponding to “white” is input from the image modulation unit 211. Indicates that the luminance on the screen is 323.
[0025]
The luminance characteristic function generation process in step 61 is a process for obtaining this characteristic curve for each pixel and each image projection means. For example, in the case where “black” is projected from the image projecting unit 213 in an area where the image projecting unit 203 and the image projecting unit 213 project in addition to the above characteristic curve, the image projecting unit 203 A characteristic curve indicating the relationship between the pixel value input to the screen and the luminance value on the screen is also obtained in this step. At this time, the image projecting means other than the image projecting means for measuring the characteristic curve are not extinguished but are measured by projecting “black”. The luminance characteristic function generation processing can be performed by a method by measurement using a measuring instrument such as a luminance meter, as in the case of the device according to the prior art. You may implement by the method of image | photographing the correction pattern using a digital camera, and calculating | requiring by calculation.
[0026]
The target luminance characteristic function calculation process in step 62 is a process for obtaining a target luminance characteristic function, for example, the characteristic curve 330 in FIG. 6, from the characteristic curve obtained in the luminance characteristic function generation process in step 62. The target luminance characteristic function is a function that represents an output characteristic with respect to a pixel value input to the image modulation projection unit after adjusting the apparatus so that the video is smoothly connected. Therefore, as the characteristic curve 330, the luminance value corresponding to an arbitrary pixel value is higher than any of the luminance values corresponding to the pixel value 300 of the characteristic curve obtained in the luminance characteristic function generation processing in step 62. In addition, the curve needs to be a value that is lower than any of the luminance values corresponding to the pixel value 301 of the characteristic curve obtained in the luminance characteristic function generation processing in step 62.
[0027]
In order to maintain the contrast of the image, the maximum luminance value is set as high as possible taking into account the margin of error, and the minimum luminance value is set as low as possible in consideration of the margin of error. For example, a γ curve based on a given γ value.
[0028]
When the luminance characteristic function generation processing in step 61 and the target luminance characteristic function calculation processing in step 62 in FIG. 4 are finished, next, the correction parameter generation processing for each definition in step 63 is executed. When a certain definition is performed using a plurality of image projecting means, an edge blending process between images projected by the image projecting means is performed in the definition parameter generation process for each definition. In the case of the present embodiment, since one definition is used for each definition, it is not necessary to perform anything in the correction parameter generation processing for each definition.
[0029]
When the fineness-specific correction parameter generation processing in step 63 in FIG. 4 ends, the blend parameter generation processing in step 64 is then executed. An outline of the blend parameter generation processing in step 64 will be described using FIGS. 7 to 9 and then details will be described using FIGS. 1, 10, and 11.
[0030]
FIG. 7 is a view for explaining a blend region in the first embodiment of the present invention. The projected coordinate space 40 and the ideal projected coordinate space 42 are the same as those in FIG. Here, an area 43 is set inside the ideal projection coordinate space 42. A portion included in the region 43 in the ideal projection coordinate space 42 is a region where “black” is projected from the image modulation projection unit 20. In other words, this is an area where a meaningful video is displayed only from the image modulation projection means 21.
[0031]
A portion of the ideal projection coordinate space 42 that is not included in the region 43 is a region used as a “margin” portion between the image projected from the image modulation projection unit 20 and the image projected from the image modulation projection unit 21. . Image modulation projection means in the vicinity of the boundary line 70, the boundary line 71, and the vertex 80 after the image projected from the image modulation projection means 20 and the image projected from the image modulation projection means 21 are adjusted so as to be smoothly connected. The state of the isoluminance lines of the image projected from 21 is shown in FIGS. In the boundary line 70 and the boundary line 71, the boundary line 71 (that is, the region 43) is set so that the upper sides are parallel, the lower sides are parallel, the left sides are parallel, and the right sides are parallel. Shall be set.
[0032]
FIG. 8 is a diagram illustrating isoluminance lines in the blend region of the prior art. In the apparatus according to the prior art, the edge blending process is performed by a function related to the distance from the outer periphery of the projection area of each image modulation projection unit. In the case of this embodiment, as shown in FIG. It is an isoluminance line corresponding to the distance from 70 (however, it is an example considering the aspect ratio of the left and right and the top and bottom). In this case, a false contour resulting from a measurement error, a modeling error, or the like is perceived by the user in the area 72, or a bright spot or darkness caused by a measurement error, a modeling error, or the like at the vertex of the boundary line 70. The point was perceived by the user, leading to degradation of video quality.
[0033]
FIG. 9 is a diagram showing isoluminance lines in the blend region of the first embodiment of the present invention. In the present invention, the edge blending process is performed according to the distance from the boundary line 71 of the single fine display area. Therefore, with respect to the portion excluding the vertex 80 of the boundary line 71, the isoluminance line is a smooth curve as shown in FIG. It is possible to make it difficult for a user to perceive a dot, a dark spot, or the like. In the area 81 near the vertex of the boundary line 70, the image modulation projection means 21 displays “black”.
[0034]
Hereinafter, a blend parameter generation method in which the isoluminance line has such a shape will be described with reference to FIGS. 1, 10, and 11.
[0035]
FIG. 1 is a flowchart of blend parameter generation processing in the first embodiment of the present invention. In FIG. 1, the flow in the case of generating the image modulation parameter 212 will be described in detail.
[0036]
When the blend parameter generation process is started, first, one of the unprocessed pixels is selected in the pixel selection process in step 101. Next, in the coordinate conversion process in step 102, the coordinate value of the selected pixel is converted from the coordinate value in the projected coordinate space 41 to the coordinate value in the projected coordinate space 40. This can be done by referring to the coordinate correspondence data generated in the coordinate correspondence data generation processing in step 60 of FIG. The coordinate value of the pixel after conversion is set as a coordinate value 120. Next, in step 103, it is determined whether or not the coordinate value 120 is within the assigned area. True if the coordinate value 120 is on or inside the boundary 70, or false if the coordinate value 120 is not inside the boundary 70. is there. If it is determined to be false, the luminance maintenance rate is set to 0 in step 109 and the process proceeds to step 106. If it is determined to be true, a normalized distance calculation process is performed in step 104. In the present embodiment, the normalized distance takes a value between 0 and 1, and a specific calculation method will be described with reference to FIG. Next, in step 105, a luminance maintenance rate calculation process is performed. The luminance maintenance rate is calculated using a normalized distance function 130 that is 1 when the normalized distance is 0 and 0 when the normalized distance is 1.
[0037]
Specifically, when the normalized distance is D, the function 130 may be implemented using a function such as (1-D). Note that a function using a trigonometric function or the like may be used so that the rate of change changes smoothly. If the luminance maintenance ratio 140 is obtained in step 105 or step 109, next, in step 106, output luminance characteristic function calculation processing is performed. The output luminance characteristic function 150 is a function of the pixel value 160 input to the image modulation projection unit 21 and is a function that returns the luminance value of the video to be projected from the image modulation projection unit 21. The output luminance characteristic function 150 is obtained by subtracting the offset value 321 (that is, the maximum luminance value when “black” is displayed from all the image projecting means) from the target luminance characteristic function 332 and multiplying by the luminance maintenance ratio 140, It can be calculated as the value 321 added.
[0038]
After the output luminance characteristic function is calculated in step 106, next, an output pixel characteristic function calculation process is performed in step 107. The output pixel characteristic function is a function of the pixel value 160 input to the image modulation unit 211 and is a function that returns a pixel value 161 that is an output of the image projection unit 211. For each pixel value 160, the output luminance characteristic function 150 is used to obtain an output luminance value 500, and the characteristic function 320 of the image projecting means 210 is used to perform reverse lookup as shown in FIG. It can be calculated by obtaining the value 502. After the output pixel characteristic function calculation process in step 107 is completed, it is determined in step 108 whether the process has been completed for all the pixels that need to be processed. If there is a pixel for which processing is necessary but processing has not yet been completed, the process returns to the pixel selection processing in step 101, and the blend parameter generation processing is continued. When the process is completed for all the pixels that need to be processed, the blend parameter generation process ends.
[0039]
When generating the image modulation parameter 202, it is not necessary to calculate the normalized distance. Since the sum of the brightness maintenance ratios of the images projected on the same position on the screen is 1, the brightness maintenance ratio is calculated using the coordinate correspondence data by generating the image modulation parameter 212 first. This is because it can.
[0040]
FIG. 10 is a diagram for explaining a normalization distance calculation method in the blend parameter generation processing according to the first embodiment of this invention.
[0041]
In FIG. 10, the side 701 is the left side of the boundary line 70, the side 702 is the upper side of the boundary line 70, the side 711 is the left side of the boundary line 71, and the side 712 is the boundary line 71. It is the upper side. The intersection 82 is an intersection of the side 711 and the side 702, and the intersection 83 is an intersection of the side 712 and the side 701. Further, the area 90 is a quadrangular area defined by the sides 701, 702, the vertex 80, the intersection 81, and the intersection 82, and the area 91 is a quadrangular area defined by the sides 702, 712, the vertex 80, and the intersection 82. The area 92 is a rectangular area defined by the sides 701, 711, the vertex 80 and the intersection 83, and the area 93 is an area inside the boundary line 71 (side 711 and side 712 in FIG. 10). Is a region outside the boundary line 70 (side 701 and side 702 in FIG. 10).
[0042]
At this time, the coordinate value 120 is included in any one of the region 90, the region 91, the region 92, the region 93, or the region 94. In addition, when located on the boundary of these areas, it may be included in any area sharing the boundary. Here, when the coordinate value 120 is included in the region 94, the normalized distance D is 1. When the coordinate value 120 is included in the region 93, the normalized distance D is set to zero. When the coordinate value 120 is included in the region 92, the normalized distance D is a value obtained by dividing the distance from the side 711 by the distance D1. When the coordinate value 120 is included in the area 91, the normalized distance D is a value obtained by dividing the distance from the side 712 by the distance D2.
[0043]
When the coordinate value 120 is included in the area 90, the normalized distance D is obtained as follows. A vector whose starting point is the vertex 80 and whose end point is the coordinate value 120 is a vector V. A vector V1 in which the start point is the vertex 80 and the end point is the intersection 83 is normalized as a vector N1, and a vector V2 in which the start point is the vertex 80 and the end point is the intersection 82 is normalized as a vector N2. And By taking the inner product of the vector V and the vector N1, the component P1 of the vector V in the vector N1 direction is obtained. By taking the inner product of the vector V and the vector N2, the component P2 of the vector V in the vector N2 direction is obtained. When the value obtained by dividing P1 by D1 is Q1, and the value obtained by dividing P2 by D2 is Q2, the value of the square root 180 of the sum of the square of Q1 and the square of Q2 is defined as a normalized distance D. .
[0044]
However, when the value of the square root 180 is larger than 1, it is assumed that the normalized distance D is 1. In the region 90, the set of points having a square root 180 value of 1 is a part of an ellipse centered on the vertex 80 and passing through the intersection 82 and the intersection 83, and the tangent at the intersection 82 is a straight line including the side 702. Yes, the tangent at the intersection 83 is a straight line including the side 701.
[0045]
When the blend parameter generation process at step 64 in FIG. 4 is completed, an image modulation parameter storage process at step 65 is then executed. This saves the parameter for performing the geometric modulation generated in the coordinate-corresponding data generation process in step 60 and the parameter for performing the luminance modulation generated in the blend parameter generation process in step 64. It is processing. This may be directly stored in the image modulation unit 201 and the image modulation unit 211, or an external storage device 280 is prepared, temporarily stored in the external storage device 280, and then image modulated as necessary. You may make it load to the means 201 and the image modulation means 211. FIG.
[0046]
As described above, according to the present embodiment, the shape of the isoluminance line of the blend portion is not a rectangle, but a curve with a rounded vertex portion. Occurrence of bright spots and dark spots in the portion can be suppressed.
[0047]
In the above-described embodiment, the description has been given with respect to the luminance modulation. However, it is needless to say that the image modulation parameters in the present invention may be such that each of the primary colors of RGB is modulated independently. .
[0048]
In the above embodiment, the case where the video area of one image modulation projection means is completely included in the video area of the other image modulation projection means has been described. However, the present invention is limited to such a case. In general, the present invention can be carried out when one vertex of the video area of one image modulation projection means is included in the video area of the other image modulation projection means.
[0049]
According to an embodiment of the present invention, a screen and two image modulation projection means are provided, and the image modulation projection means is installed so as to have an overlapping projection area on the screen, and further, with respect to the original image In the video display apparatus, the image modulated and projected by the image modulation projecting means is displayed to display a smoothly connected video on the screen. On the screen, one of the image modulated projecting means Modulation is performed by the image modulation projection unit when each image modulation projection unit is installed so that the projection region of the other includes one of the vertices of the polygonal projection region of the other image modulation projection unit. Since the isoluminance line shape of the blend part is a rounded curve near the apex, false contours due to the effects of optical synthesis errors and bright / dark spots at the apex part can be used. It can be difficult to be perceived in the eyes of The.
[0050]
【The invention's effect】
According to the present invention, it is possible to display with less optical error in video display using a plurality of projection apparatuses.
[Brief description of the drawings]
FIG. 1 is a flowchart of blend parameter generation processing in a first embodiment of the present invention.
FIG. 2 is a conceptual diagram of an apparatus according to the first embodiment of the present invention.
FIG. 3 is an apparatus configuration diagram according to the first embodiment of the present invention.
FIG. 4 is a flowchart of image modulation parameter generation processing in the first embodiment of the present invention.
FIG. 5 is a diagram showing a relationship between projected coordinate spaces in the first embodiment of the present invention.
FIG. 6 is a diagram for explaining a luminance characteristic function and a target luminance characteristic function in the first embodiment of the present invention.
FIG. 7 is a diagram for explaining a blend region in the first embodiment of the present invention.
FIG. 8 is a diagram illustrating isoluminance lines in a blend region according to the prior art.
FIG. 9 is a diagram showing isoluminance lines in a blend region according to the first embodiment of the present invention.
FIG. 10 is a diagram for explaining a method for calculating a normalized distance in the blend parameter generation processing according to the first embodiment of this invention.
FIG. 11 is a diagram for explaining a conversion method from an output luminance value to an output pixel value in the first embodiment of the present invention.
[Explanation of symbols]
20, 21 ... Image modulation projection means
201, 211 ... Image modulation means
203, 213 ... Image projection means
22 …… Image output means
23 …… Screen

Claims (2)

投影光に応じた映像を映写するスクリーンと、
それぞれが投影する前記スクリーンに投影光を投射する複数の投影手段であって、前記複数の投影手段に含まれる第1の投影手段が投影する投影光が前記スクリーン上で多角形投影領域をなす複数の投影手段と、
前記第1の投影手段の多角形投影領域の頂点部分のうち、前記複数の投影手段に含まれる第2の投影手段の投影領域に入る頂点部分を検出する手段と、
検出された頂点部分に応じて、前記第1の投影手段からの投影光を変調する手段とを有することを特徴とする映像表示装置。
A screen for projecting an image according to the projection light;
A plurality of projection means each projecting projection light onto the screen to be projected, wherein the projection light projected by a first projection means included in the plurality of projection means forms a polygonal projection region on the screen; Projection means,
Means for detecting a vertex portion entering a projection area of a second projection means included in the plurality of projection means among the vertex portions of the polygon projection area of the first projection means;
An image display apparatus comprising: means for modulating projection light from the first projection means in accordance with the detected vertex portion.
請求項1に記載の映像表示装置において、
前記変調する手段は、前記第2の投影手段の投影領域に入る頂点部分以外の前記投影領域に対応する映像の等輝度曲線の曲率半径が正の値となるように変調することを特徴とする映像表示装置。
The video display device according to claim 1,
The modulating means modulates the radius of curvature of the isoluminance curve of the image corresponding to the projection area other than the apex portion entering the projection area of the second projection means to be a positive value. Video display device.
JP2001365531A 2001-11-30 2001-11-30 Video display device Expired - Fee Related JP3716786B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001365531A JP3716786B2 (en) 2001-11-30 2001-11-30 Video display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001365531A JP3716786B2 (en) 2001-11-30 2001-11-30 Video display device

Publications (2)

Publication Number Publication Date
JP2003169272A JP2003169272A (en) 2003-06-13
JP3716786B2 true JP3716786B2 (en) 2005-11-16

Family

ID=19175543

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001365531A Expired - Fee Related JP3716786B2 (en) 2001-11-30 2001-11-30 Video display device

Country Status (1)

Country Link
JP (1) JP3716786B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105185302A (en) * 2015-08-28 2015-12-23 西安诺瓦电子科技有限公司 Correction method for light point position deviation among monochromatic images and application thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105185302A (en) * 2015-08-28 2015-12-23 西安诺瓦电子科技有限公司 Correction method for light point position deviation among monochromatic images and application thereof

Also Published As

Publication number Publication date
JP2003169272A (en) 2003-06-13

Similar Documents

Publication Publication Date Title
JP4126564B2 (en) Image processing system, projector, program, information storage medium, and image processing method
US8964070B2 (en) Image processing method, image processing program, image processing device, image processing system, electronic camera and electronic apparatus
JP3925521B2 (en) Keystone correction using part of the screen edge
US7050074B1 (en) Color correction in image display
US20070091334A1 (en) Method of calculating correction data for correcting display characteristic, program for calculating correction data for correcting display characteristic and apparatus for calculating correction data for correcting display characteristic
US20120182416A1 (en) Image projection system and semiconductor integrated circuit
US8294740B2 (en) Image processor, image display device, image processing method, image display method, and program
JP2015097350A (en) Image processing apparatus and multi-projection system
US10602027B2 (en) Color gamut mapping using a lightness mapping based also on the lightness of cusp colors belonging to different constant-hue leaves
JP2011211276A (en) Image processing apparatus, image display system, and image processing method
JP2011050013A (en) Video projection apparatus and video projection method
JP2017156581A (en) Projection device and control method of the same
JP6157106B2 (en) Image processing apparatus and image processing method
WO2013024540A1 (en) Image processing apparatus and image processing method
KR20130043300A (en) Apparatus and method for correcting image projected by projector
JP2009021771A (en) Video adjustment method
US20180139423A1 (en) System and method for digital black level blending
JP2014095965A (en) Display processor, display processing method and program
US20210195153A1 (en) Image processing device and image processing method
JP4583863B2 (en) Image display system
JP2007271771A (en) Image display system and control method therefor
JP3716786B2 (en) Video display device
CN111192227A (en) Fusion processing method for overlapped pictures
JP2018005131A (en) Projection display device
CN106791736B (en) Trapezoidal correction method and projector

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050822

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080909

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090909

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090909

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100909

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees