JP2006521614A - 画像処理 - Google Patents

画像処理 Download PDF

Info

Publication number
JP2006521614A
JP2006521614A JP2006506010A JP2006506010A JP2006521614A JP 2006521614 A JP2006521614 A JP 2006521614A JP 2006506010 A JP2006506010 A JP 2006506010A JP 2006506010 A JP2006506010 A JP 2006506010A JP 2006521614 A JP2006521614 A JP 2006521614A
Authority
JP
Japan
Prior art keywords
image
technique
range
disordering
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006506010A
Other languages
English (en)
Inventor
ジョン、ジュープ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Atelier Vision Ltd
Original Assignee
Atelier Vision Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GBGB0307307.9A external-priority patent/GB0307307D0/en
Application filed by Atelier Vision Ltd filed Critical Atelier Vision Ltd
Publication of JP2006521614A publication Critical patent/JP2006521614A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)

Abstract

(a)元の画像をY方向(垂直)に2〜10%の範囲内に入る率でストレッチし、注視点を選択し、前記注視点のまわりを無秩序化操作の中心として前記画像を無秩序化し、3〜9°の範囲内に入る角度で、好ましくは時計回りに、前記画像を回転させるステップと、(b)前記元の画像のコピーをX方向(水平)に2〜10%の範囲内に入る率でストレッチし、前記選択した注視点のまわりの前記画像の領域を選択するステップと、(c)ステップ(b)で形成した画像の前記選択した領域をステップ(a)で形成した画像とマージするステップとを含む画像処理技術。

Description

本発明は、画像の処理または操作技術に関し、より詳細には、基本的な2次元画像および派生される仮想現実感(VR、virtual reality)環境で描画された3次元の奥行きおよび形状に対するわれわれの認識を向上させるために使用可能な技術に関する。このようにして処理された画像は、信用性(believability)が向上し得る。したがって、本発明により、信用性のしきい値の向上が可能になる。
3次元の情景の表示または描画を、従来の2次元の技術を用いて、たとえば、紙などの上に印刷することまたはテレビ、コンピュータ・モニタなどの上に表示することによって、あるいは投影によって行うと、脳は表示された画像を実際にはある程度3次元のものであるとして知覚するが、表示された画像の奥行きおよび形状の知覚が特によいわけでもない場合がある。これは、脳が表示された画像を完全に解釈するのに十分な単眼の奥行きの手がかり(cues)がないためであると考えられる。
以下の説明では、「絵柄」(pictures)と「画像」(images)の間を区別する。絵柄および画像の以下の定義は、Jan Koenderink教授(視覚研究者)によってなされてきたものであり、本明細書中で使用する用語は、これに従って解釈すべきである。
絵柄:「現実の像(real image)、ビデオ信号などの順序付けられた記録、写真、神経構造における活動パターン。絵柄の秩序は、純粋に慣例的なものであり、外部要因との関係においてのみ存在する。」
画像:「知覚者の構造全体(生涯の経験)がその中にまとめられているため、常に絵柄以上のものを含む。」
本発明は、少なくともある程度、絵柄を画像へと変換する技術の分離に関する。
本発明の技術は、「画像空間(image space)」と呼ばれている新しい形態の錯視空間(illusionary space)(したがって、伝統的な絵柄空間(picture space)とは異なっている)を同定する理論的な作業から開発している。画像空間では、周辺視および中心視の個別的性質および専門性を、また、脳機能により、視覚の重要な局面が、この2つの間の「相対論的な判断」(relativistic judgements)によって「創り出される」ことを承認する。このアプローチの新規性で重要な点は、こうした新しい手がかりが、いまだ認識されていない“単眼”の手がかりおよび“単眼”投影の合成に依存していることを悟ることである。こうした単眼の手がかりにより、見た目の3次元の奥行きを達成するこの方法は、両眼視差などから導かれる立体視の手がかり(stereo cues)を利用する他の技術から区別される。脳が、単眼視で使用する2つの投影を正しく表現し調整して、それによって、知覚した画像(視覚として知られる投影)を合成することにより、他の方法では絵画的情報が導かれる「現実の状況(real setting)」を直接観察することによってしか創り出すことのできないはずの奥行きおよび形状の知覚の複製を脳に引き起こすことが可能である。
1.伝統的な絵柄空間(透視投影または写真/フィルム記録)に、必要な手がかりを吹き込むことによって、
2.新しい錯視空間をモデル化する諸原理を使用して新規な仮想現実感(VR)環境を生成することによって、
「画像空間」は、絵画的にいくつもの手法で達成し/引き起こすことができる。
本発明の一目的は、既存の技術と組み合わせて使用することができ、それにより、画像を作成または変更してもとの絵柄の奥行きの知覚を向上させることができるシステムを提供することである。それぞれの場合に、画像空間では、脳がわれわれの視覚に関連する奥行きおよび形状の付加的な知覚を引き出すことのできる刺激の組み込みを利用している。
本発明の一形態によれば、
(a)元の絵柄をY方向に2〜10%の範囲内に入る率でストレッチし、
注視点(fixation point)を選択し、注視点のまわりを無秩序化操作(disordering operation)の中心として画像を無秩序化し、
3〜9°の範囲内に入る角度で画像を回転させるステップと、
(b)元の画像のコピーをX方向に2〜10%の範囲内に入る率でストレッチし、
選択された注視点のまわりの画像領域を選択するステップと、
(c)ステップ(b)で形成された画像のうち選択された領域をステップ(a)で形成された画像とマージするステップと、
を含む画像処理技術が提供される。
ステップ(a)で、画像の回転は、好ましくは時計回りの向きである。少数の人たちは画像を反対の向きに回転させることを好む可能性があり、この技術を使用してそのような人たちが見る画像を作成する場合には、回転を反時計回りの向きに行ってもよい。
無秩序化操作は、好ましくは、選ばれた自己相似的なフラクタルの無秩序化パターンに従って無秩序化することを含む。
ステップ(a)で規定された変換の結果として形成した画像を、以下ではタイプ1画像と呼ぶこととし、ステップ(b)で規定された変換で作成したものは、タイプ2画像と呼ぶこととする。
したがって、本技術は、次のことのために使用することができる。すなわち、
i)脳がわれわれの現実世界に対する単眼投影で使用する2つの基本的な投影の外観を、既知の絵柄環境を変換することによって模倣すること。
ii)脳が知覚される視覚画像を形成するのに使用するこれらの基本的な投影の典型的な合成/構造を複製すること。
有効な合成を形成する際に重要なことは、注視点(fixation point)の選択、(中心視の既知の制約に整合する)注視エリアの確立、ならびに、「注視ボリューム(fixation volume)」内、周辺視、およびタイプ1画像とタイプ2画像との間の界面の周辺における支配的な条件を正しく与えることである。リアル・タイムでの観察と同様に、注視点は媒体上で確立される必要がある。注視点は、様々な変換技術がそのまわりを中心とする点である。向上した3次元の奥行きおよび形状の手がかりは次のものによって確立されると考えられる。すなわち、
1.脳、これは、脳が中心視のまわりの2組の情報の間の界面間の相対論的な判断を行うためである。
2.新しい形の空間次元を提供する周辺視の中の自己相似的な無秩序化情報の特化した描画(specialist rendition)の忠実な表現。
両方のデータの組からの位置あわせの中心点(注視点)がなければ、脳が必要な計算を行うことは不可能であろう。注視エリアにより、中心視の範囲にほぼ類似する注視点のまわりの領域が確立される。したがって、注視エリアにより、注視ボリュームの特定の条件の対象となる画像の範囲が確立される。注視ボリュームは、注視エリア内部に含まれる球形の作用領域(area of influence)である。この作用領域内へと投影されるどのような形状(対象物)、表面、または形状の一部も、上記の画像タイプ2の定性的および定量的な特徴に従って脳内で投影される。
注視エリア内に含まれる注視ボリュームの外側の対象物に対する他のどのような視覚的参照も、上記の画像タイプ1のように参照されることになる。
注視ボリュームの外側の中心視の領域は、「周辺視」の特徴のように参照される。
脳の使用するいくつもの典型的な合成があり、そこでは、2つの画像タイプの特徴および並置が、新しい手がかりが演繹される相対論的な判断の生成を可能とする形態で利用される。
このようにして処理される画像は、われわれのリアル・タイムの単眼による観察の投影(視覚画像)とよりよく適合し、これにより、脳は2次元画像または仮想現実感のセッティングからの3次元の手がかりをより十分な範囲で正しく解釈できるようになると考えられる。単眼視の投影は、脳が視野を編集する(compile)ときに、脳が或る自由度を有することを可能にする2つのデータセットから編集されるようである。こうした潜在的な合成は、見る者が行う特定のタスクに適合するようになされていることが指摘されている。たとえば、2次元の印刷物を読むのに、3次元情報はほとんど必要ない。この種類の情報のために、進行中のタスクへの注意が逸らされることさえある。この状況では、1つのデータセットだけが使用されて、処理中の視覚情報は減少する。詳しい空間的分析が必要なときには、特化した合成が使用される。中心視の半分が抑制されたものでは、タイプ1の情報の特徴が中心視の中へ注視点まで拡がることが可能である。このプロセスは、相対論的な判断を行う役目をもつ重要な脳機能を可能にし、したがって、注視されている実際の対象物上で動作するように、形状の手がかりを促進させる。この合成の特徴は、しばしば、静物の題材を描く視覚芸術家(visual artists)の作品中で明らかになっている。
周辺視に含まれる情報の性質および構造は、まだ大部分が、視覚の科学では未解決である。本発明では、自己相似的な(フラクタルの)無秩序化(非ぼかし)の特性を使用して、中心視(周辺視)の外側に投影されるこの種類の情報を複製する。本発明では、周辺視に、注視点を中心とする独立の3次元の次元、すなわち、注視点からあらゆる方向に生成される無秩序のレベルを属性として与える新規の一ステップが特定される。したがって、2次元の絵柄の変換は、この種類の情報を複製するように、無秩序のレイヤをターゲットの注視点から垂直平面上で後方、前方、および外方向へと形成することによって行われる。これにより、画像中の新しい形態の空間的次元が確立される。静止画像では、この技術は、画像中の奥行き知覚を向上させるものと考えられる。しかし、本当の利点は、動く画像中の知覚される動きの正確な解釈を与える能力にあると考えられる。ターゲットの注視点のまわりの動きは、習得してしまえば、今度は「本物のセッティング」から観察される動きに対するわれわれの知覚に近付く。この3次元情報は、変換プロセス中で「奥行きマップ」として使用するために、特化した機器を用いて、たとえば、フィルム・カメラ内に組み合わせられたレーザ画像またはLED発光技術を利用してキャプチャすることができる。
動画では、そこに描かれる動作が進展するにつれてターゲットの注視点に対する変更も必要になる。注視点の変更を引き起こすための技術は、動く媒体で表現された動作に組み込まれており、眼球運動の手順によって見る者を導くことになる。
本処理技術は、ステップ(a)および(b)で形成した画像の間の境界のまわりを微調整する追加のステップを必要とするのでもよい。
本処理技術のステップ(a)は、タイプ1情報のコントラストを+10〜40%の範囲内の比率で変更し、かつ/または画像の明るさ(brightness)を2〜40%の範囲内の比率で減少させるステップをさらに含むことができる。コントラストをこのように増加させる場合、色の彩度(saturation)は、好ましくは、(普通、コントラストのレベルの増加に合わせるために)調節レベル(accommodation level)まで低減させるべきである。
以上で定義した技術は、コンピュータを用いて、たとえば、スキャナまたはデジタル・カメラから導出した画像データに対して、あるいは、コンピュータ・プログラムを含む他のソースから得たまたは作成したデジタルの絵柄データに対して行うことができる。しかし、本技術は、他の手法でも行うことができ、本発明は本明細書に説明する特定の配置または適用例に制限されないことが理解されよう。
本発明の説明は、例として、添付の図面を参照して、さらに行うことにする。
本発明を、まず、図1に示す画像を参照して説明する。明確に理解されるように、図1は、花瓶10、円錐12、球14、および立方体16のコンピュータで生成したまたは仮想現実感(バーチャルリアリティ)の表現である。示された対象物のそれぞれは3次元の対象物であるため、このイラストでは、等角投影を使用して脳の解釈すべき奥行きの手がかりを提供し、対象物が三次元空間内でのその形状の正確な表現であるように見せている。対象物はそれぞれ他の対象物のすべてから孤立されており、対象物の相対位置を示す中心の透視の手がかり(central perspective cues)はない。その結果、脳が、この画像を解釈して、たとえば、対象物の相対的な大きさおよび3次元空間内でのそれらの位置を決定することは難しい。この画像では、立方体はどちらも同じサイズとして描かれており、一方が他方よりもはるかに向こうにあるにもかかわらず、同じサイズであるとして知覚される。
本発明によれば、改善された形状の画像を形成するために、図1の基本の画像が処理される。これは、図1の画像を対象とし、この画像をY方向(垂直)に2〜10%の範囲内に入る、好ましくは約5%の率でストレッチし、無秩序化し、3〜9°の範囲内に入る角度で時計回りに、好ましくは6°ほど時計回りに回転させる変換をこの画像に対して行うことによって達成される。図2に、画像のストレッチングおよび回転の効果を示しているが、(わかりやすさのために)この画像を無秩序化することの影響は示していない。これらの操作を行う順序は変えてもよいが、順序が説明した通りでない場合は、使用する値/率を変える必要がある場合がある。
この画像のもう1つのコピーは、2〜10%の率でX方向(水平)にストレッチされている。好ましくは、前の変換での画像との差が約5〜20%になるようにストレッチする。画像上の注視点を選択し、注視点のまわりの領域を選択して、画像の残りは削除する。この操作の結果を図3に示してあり、そこでは花瓶の中心を注視点として選択している。
このようにして作成した2つの画像を互いに重ね合わせる。画像の重ね合わせにはいくつかの異なる技術を用いることができる。図4には、図2の画像を対象として、単に注視点のまわりの領域を図3の画像で置き換えることの効果を示している。図5には、代替的な重ね合わせ技術の結果を示しており、2つの画像が重複され、両画像の一部が見えており、花瓶は融合した形状をしている。注視エリアは花瓶であり、これはタイプ1および2の画像どちらからも融合させて組み合わせた形状を含み、この形状では奇妙な外見の結合に最初は見える。しかし、花瓶の中心を注視すると、2つの独自性(identities)が脳によって単一の知覚へとマージされる。この知覚は、3次元以上の花瓶の性質を持っている。拡大された3次元知覚の能力が、今度はこの絵柄中の他の対象物すべてへと拡張される。たとえば、2つの立方体のうち向こうのものは、今度は、近い方の立方体よりも大きく知覚される。
次に図6a、6b、および6cを参照すると、図6aには、6本の垂直に延伸する線分22の間に位置する瓶20を模式的に示している。図6aのイラストを本発明の一実施形態に従って変更または処理して図6bの画像を形成している。わかりやすさのため、ここでも、無秩序化操作は省略してある。図6bの画像を瓶20の中心を注視することによって見ると、図6aの絵柄に比べて改善された度合いの奥行きをその画像に見ることができ、図6bの画像は、図6aに示すイラストよりも脳が解釈する大きなレベルの奥行きの手がかりを含んでいる。図6cは、以上で説明したプロセスを用いているが、元の画像の異なる、より小さな部分を注視エリアとして使用することで形成された別の画像である。
図7a、7b、および7cは、図6a、6b、および6cに類似しているが、テーブル26の上に置かれた瓶24が描かれている。
この3次元の形状及び奥行きの知覚は、いくつかの点で、透視空間によって得られる知覚に類似する。しかし、透視の手がかりは、中心視においてまたは視野の範囲全体にわたって空間的な奥行きを得るための主要な方法ではないと現在では考えられている。そうではなく、われわれは、空間的な奥行きおよび形状を、2つの異なるデータの組または2つの異なる画像のタイプの間の相対論的な判断を行うわれわれの視覚システムに関係するプロセスによって見ているのである。上で特定した構成により、脳は、2次元の空間を観察すると、刺激されてこのプロセスに関わり、本物のセッティングに対する認識により精通している手がかりをわれわれに提供する。
この新しい画像空間により、われわれの周囲に対する実際の視覚的な認識において知覚する方法に似た方法で奥行きを創り出すことができるようになる。この新しい画像空間を見れば、リアル・タイムの観察による実際の行動により近づくことになろう。
次に図8から10を参照すると、本物のセッティングの元のデジタル化された写真を図8に示している。有効な合成を形成する際に重要なことは、注視点および注視エリアの選択、および「注視ボリューム」および周辺視で支配的な条件を正しく与えることである。この場合では、瓶の中心が注視点として選択されている。図9には、以上で説明した変換を行うことの効果を示しているが、わかりやすさのために無秩序化操作は省略してあり、一方の画像上の注視点のまわりの画像の一部は、単に他方の画像の関連する部分で置き換えてある。注視点のまわりに確立された注視エリア内部の項目は、タイプ2の画像として、関連する定性的および定量的な変換のいくつかを伴って表現されている。注視エリアの外側では、対象物及び表面は、すべて、タイプ1の画像に従って、関連する定性的および定量的な変換で描画される。図9で理解されるように、マージした画像中の2つの画像の間の境界18は、はっきりと見えている。図10には、画像の間の境界の影響を除去または低減する変更された重ね合わせ技術の結果が示されており、並びに、注視ボリュームの確立が示されている。注視ボリュームの確立では、注視ボリュームの球形の影響に含まれない表面および対象物もすべてタイプ1の画像に従って描画される。
たとえば、瓶の首のまわりで、壁の石は、図9の注視エリアの周囲の内部にあるが、注視ボリュームに含めるには瓶から遠すぎ、そのため、タイプ1の画像に従って参照されている。
たとえば、枝付き燭台(candelabra)の腕は、1本注視ボリュームから突き抜けており、そのためタイプ2の画像に従って参照されているが、この対象物の残りの部分はこの作用領域の外側にあり、そのためタイプ1の画像に従って描画されている。
図9および図10を図8と比較することにより、以上で触れた変換のほかに、Y方向にストレッチされている画像は、コントラストのレベルを増加させ、色の彩度(saturation)のレベルを低減することによっても変更されることが明らかである。また、この画像は明るさ(brightness)も低減されている。コントラストは、10〜40%の範囲内に入る量、好ましくは約25%だけ増加されており、明るさは、2〜40%の範囲内に入る量、好ましくは約10%だけ低減されている。色の彩度のトーン・ダウンは、より高いコントラストの効果を相殺するためであり、ほぼ比例している。
以上で説明した技術を用いて処理した画像では、脳によって投影された画像への類似の度合いが向上または増加すると考えられる。デジタル化された媒体でこの構造/枠組み(armature)を使用すると、周辺視と中心視との間に存在することが知られている差のうちの多くの側面を入力することが可能になる。知覚される視覚画像の合成の明確で正確な表現により、2次元の描画(rendition)の観察者は、描かれている実際の状況に対する実現可能性のより高い知覚をもたらす付加的な計算を行うことができるようになる。
変換された画像の観察者は、付加的な手がかりの影響全体を知覚/認識するには、選択された注視点を見つめる(注視する)ことが必要になる。
以上の説明で、画像を無秩序化するステップへの言及を行ってきた。いくつもの無秩序化技術を使用することができるが、好ましい技術は、画像の増進的な無秩序化を、たとえば、図11に示すヒマワリ状のフラクタル・パターンを用いて行い、これにより、処理した画像中に見える詳細の量を注視点からの距離が増すにつれて低減させるようにすることである。この提案の一部として含まれる新規な特徴は、絵柄情報中で使用されている他の3次元の手がかり(たとえば透視)に対して独立な3次元の空間的な次元へとこのパターンを使用し適合させることを指している。
図12は、好ましくは、無秩序化操作を行うことのできる或る手法を示す概略図である。図12の画像は、その注視点のところに、花瓶30を含む。平らな垂直のスクリーン32が3枚、花瓶30の前の片側に、一列に置かれている。木の枝34は、前景を横切って、他の対象物のすべての前で延びている。以上で説明した配置では、無秩序化操作は、注視点を直接に取り巻く画像の部分に小さなレベルの無秩序さを導入するだけのために行われており、無秩序さの度合いは、図11のヒマワリ・パターンと一致して、注視点からの距離が増すにつれて増大する。図12の配置では、この一般的なアプローチを取っているものの、無秩序化操作の変更は、描かれている対象物の境界または縁を特定するために、並びに、縁または境界のところで無秩序さの度合いに不連続性または飛躍を導入するために行われている。無秩序さの度合いに対する不連続性から、見る人の脳が解釈するための空間的な奥行きの手がかりが画像中にさらに生み出される。
以上で説明した技術を用いて処理した画像により、改善または向上した奥行きの知覚または投影が、注視点のまわりおよび周辺の領域にわたる画像の部分に提供されると考えられる。向上された奥行きの知覚は、見る者が画像を両眼で見る場合と画像が単眼でのみ見られるときのどちらでも明らかである。立体視ができない(stereo blind)人は、こうした変換された画像が含む付加的な奥行きを知覚する。これとは対照的に、立体視ベースの集まり(assemblages)における組織された奥行きでは、立体視ができない人に作用し損ねてしまう。
以上において、技術は、コンピュータで生成した絵柄の形態にせよ写真の形態にせよ、絵柄の処理に関して記述されてきたが、これはそうである必要はなく、本発明は、コンピュータまたはテレビのディスプレイ、投影される画像、仮想現実感ディスプレイ、アニメーション、および印刷媒体を含む広い範囲の技術および表示技術に適用できることが理解されよう。また、本発明が適用例を見出すことができるものとしては、たとえば、画像のキャプチャに関わる写真家、ディレクター、または他の者が、どのように画像がキャプチャ前に変換され、またはキャプチャの完了が行われるか見ることができるように変換済みの画像を「リアル・タイム」で表示できるディスプレイを組み込むように設計された(静止画用または動像用の)カメラがある。これに適合するために、カメラにはセンサを提供して、視野内での対象物の奥行きの計測を、画像のキャプチャと同時に、これら2つの構成要素を互いに組み合わせて、また画像の変換において以上で説明した技術と組み合わせて使用して、行えるようにすることができる。さらに、視野内の注視点の位置を入力することが必要になる。これは、視野の中心に設定することもでき、または、適当な入力手段を用いて、ディレクター、写真家、または他の者が選択するのでもよい。
本画像処理技術を使用する前のイラストの図である。 本画像処理技術の諸ステップを示す図である。 本画像処理技術の諸ステップを示す図である。 図1のイラストの処理済みの形態を示す図である。 図1のイラストの処理済みの形態を示す図である。 本プロセスの効果を示すさらなる図である。 本プロセスの効果を示すさらなる図である。 本プロセスの効果を示すさらなる図である。 本プロセスの効果を示すさらなる図である。 本プロセスの効果を示すさらなる図である。 本プロセスの一部を示す図である。 本技術の変形例を示す図である。

Claims (9)

  1. (a)元の画像をY方向(垂直)に2〜10%の範囲内に入る率でストレッチし、
    注視点を選択し、前記注視点の周辺を無秩序化操作の中心として前記画像を無秩序化し、
    3〜9°の範囲内に入る角度で前記画像を回転させるステップと、
    (b)前記元の画像のコピーをX方向(水平)に2〜10%の範囲内に入る率でストレッチし、
    前記選択した注視点の周辺の前記画像の領域を選択するステップと、
    (c)ステップ(b)で形成された画像のうち前記選択された領域を、ステップ(a)で形成された画像とマージするステップと、
    を含む画像処理技法。
  2. ステップ(a)および(b)で形成された画像の間の境界を微調整する追加ステップをさらに含む、請求項1に記載の技法。
  3. 前記処理技法のステップ(a)は、コントラストを10〜40%の範囲内に入る率で変更するステップおよび/または前記画像の色の彩度を10〜40%の範囲内に入る率で減少させるステップをさらに含む、請求項1または請求項2に記載の技法。
  4. 明るさを2〜40%の範囲内に入る率で減少させるステップをさらに含む、請求項3に記載の技法。
  5. 前記回転を時計回りの向きに行う、請求項1から請求項4のいずれか一項に記載の技法。
  6. ステップ(a)の無秩序化操作は、前記画像を自己相似的なフラクタルの無秩序化パターンに一致させて無秩序化することを含む、請求項1から請求項5のいずれか一項に記載の技法。
  7. ステップ(a)で、少なくとも1つの対象物の少なくとも1つの境界または縁を特定すること、および、前記境界または縁のところで無秩序化の度合いに不連続性を導入することをさらに含む、請求項1から請求項6のいずれか一項に記載の技法。
  8. スキャナ、デジタル・カメラから導出された画像データに対して、または、コンピュータ・プログラムを含む他の情報源から得たまたは作成したデジタル画像データに対して、請求項1から請求項7のいずれかの技法を行うようにプログラムされたコンピュータ。
  9. 実質的に、添付の図面を参照して以上で説明した通りの画像処理技法。
JP2006506010A 2003-03-29 2004-03-25 画像処理 Pending JP2006521614A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GBGB0307307.9A GB0307307D0 (en) 2003-03-29 2003-03-29 Image processing
GBGB0328839.6A GB0328839D0 (en) 2003-03-29 2003-12-12 Image processing
PCT/GB2004/001262 WO2004088594A1 (en) 2003-03-29 2004-03-25 Image processing

Publications (1)

Publication Number Publication Date
JP2006521614A true JP2006521614A (ja) 2006-09-21

Family

ID=32232409

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006506010A Pending JP2006521614A (ja) 2003-03-29 2004-03-25 画像処理

Country Status (7)

Country Link
EP (1) EP1616304B1 (ja)
JP (1) JP2006521614A (ja)
AU (1) AU2004226624B2 (ja)
CA (1) CA2520673A1 (ja)
GB (1) GB2400259B (ja)
RU (1) RU2320016C2 (ja)
WO (1) WO2004088594A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9799147B1 (en) * 2016-05-23 2017-10-24 Marwan Chehadeh Interactive system for decorating two and three dimensional objects

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5528194A (en) * 1991-05-13 1996-06-18 Sony Corporation Apparatus and method for performing geometric transformations on an input image
CA2276190A1 (en) * 1996-12-27 1998-07-09 Loran L. Swensen System and method for synthesizing three-dimensional video from a two-dimensional video source
US6157733A (en) * 1997-04-18 2000-12-05 At&T Corp. Integration of monocular cues to improve depth perception
US6965379B2 (en) * 2001-05-08 2005-11-15 Koninklijke Philips Electronics N.V. N-view synthesis from monocular video of certain broadcast and stored mass media content

Also Published As

Publication number Publication date
WO2004088594A1 (en) 2004-10-14
GB2400259A (en) 2004-10-06
EP1616304A1 (en) 2006-01-18
GB0406682D0 (en) 2004-04-28
RU2005133433A (ru) 2006-04-27
AU2004226624B2 (en) 2009-12-03
GB2400259B (en) 2006-03-08
EP1616304B1 (en) 2012-05-09
AU2004226624A1 (en) 2004-10-14
RU2320016C2 (ru) 2008-03-20
CA2520673A1 (en) 2004-10-14

Similar Documents

Publication Publication Date Title
JP6873096B2 (ja) イメージ形成における及びイメージ形成に関する改良
US9438886B2 (en) Parallax scanning methods for stereoscopic three-dimensional imaging
US4925294A (en) Method to convert two dimensional motion pictures for three-dimensional systems
JP4861309B2 (ja) 2.5dグラフィックスをレンダリングするためのゴースト・アーチファクト削減
CN103329165B (zh) 放缩三维场景中的用户控制的虚拟对象的像素深度值
WO2006001361A1 (ja) 立体視画像作成方法および装置
US11659158B1 (en) Frustum change in projection stereo rendering
CA2984785A1 (en) Virtual reality editor
JP2000500598A (ja) 三次元描画システムおよび方法
JP5396877B2 (ja) 画像処理装置、プログラム、画像処理方法、および記録方法
KR101212223B1 (ko) 촬영장치 및 깊이정보를 포함하는 영상의 생성방법
US20110164052A1 (en) Compositional structure, mechanisms and processes for the inclusion of binocular stereo information into representational media
US8131062B2 (en) Method of processing an image
JP2009500878A (ja) 奥行錯覚デジタル撮像
JP2006521614A (ja) 画像処理
WO2009018557A1 (en) Method and software for transforming images
WO2022180605A1 (en) Enhanced depth solutions
Mayhew et al. Three-dimensional visualization of geographical terrain data using temporal parallax difference induction
Mayhew et al. Parallax scanning methods for stereoscopic three-dimensional imaging
Apollonio et al. Investigating Depth Perception in Immersive Hypothetical
Dairiki et al. Three-dimensional sprites for lenticular-type three-dimensional display

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090615

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090703