JP4562457B2 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP4562457B2
JP4562457B2 JP2004244404A JP2004244404A JP4562457B2 JP 4562457 B2 JP4562457 B2 JP 4562457B2 JP 2004244404 A JP2004244404 A JP 2004244404A JP 2004244404 A JP2004244404 A JP 2004244404A JP 4562457 B2 JP4562457 B2 JP 4562457B2
Authority
JP
Japan
Prior art keywords
image
correction
determined
image data
main subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004244404A
Other languages
English (en)
Other versions
JP2005129013A (ja
Inventor
賢治 鎰谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2004244404A priority Critical patent/JP4562457B2/ja
Priority to US10/954,190 priority patent/US7529401B2/en
Publication of JP2005129013A publication Critical patent/JP2005129013A/ja
Application granted granted Critical
Publication of JP4562457B2 publication Critical patent/JP4562457B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、任意に定められた視点からの左右眼用平面画像データからなる両眼立体視用画像データから平面画像を生成し出力する画像処理装置及び画像処理方法に関する。
従来、両眼立体視可能な3次元画像表示方法の1つとして、各々異なる視点位置からの画像からなる左右両眼用の画像を観察者の左右眼に分離して提示することにより両眼視差を与えて立体的に観察可能とする方法がある。このような画像を基に任意の視点からの平面の画像を生成する方法として、特許文献1、2には、画像観察時に幾何学的に自然に見える平面画像を生成する方法が提案されている。
ここで、図5に基いて、従来の画像処理装置について説明する。図5は、従来の画像処理装置の要部ブロック構成図である。図5に示すように、従来の画像処理装置は、画像入力手段1、平面画像生成手段2、及び、画像出力手段5とを備えた画像処理装置である。前記画像入力手段1は、例えば、任意に定められた視点からの、左眼用及び右眼用平面画像データからなる両眼立体視用画像データを入力として受け取り、続いて、平面画像生成手段2が、入力された前記両眼立体視用画像データの全てを、従来技術である画像処理方法を用いて、平面画像データに変換処理して出力する。よって、従来の画像処理装置では、上述したように前記平面画像生成手段2が生成した前記平面画像データについて、いかなる補正も実施していない。
特開2002−324249号公報 特開2002−56407号公報
しかし、両眼立体視画像から平面画像を生成する際に、両眼立体視画像入力デバイスの撮影時の撮影条件が不適切である場合、例えば露光不足であったり、ホワイトバランスが不適切であったりした場合には、不自然な画像が得られてしまうので問題である。
また、近景には比較的高い空間周波数成分が多く含まれるため、近景の画質を高画質にするためには非常に多くの演算を必要としてしまう。よって、演算の速度も低下し、装置も大規模となってしまうので問題である。なお、遠景には比較的低い空間周波数成分が多いためこのような処理は必要無い。
また、例えば肌色の壁の前に人物が存在するような画像をモニタ等の画像表示装置やプリンタ等の画像形成装置を用いて表示、出力する際に、背景と人物とに同一の画像処理を施すと、人物の肌の色が人間が観念的に肌の色として認識する色と異なってしまい不自然に知覚される画像が得られてしまうという問題がある。
更に、特許文献1、2に示される方法で作成された平面画像は、空間内の特定の1視点からの平面画像を再現するに過ぎず、また、該文献1、2には、上述の不自然な平面画像に対しての、いかなる補正手段も開示されていない。
従って、本発明は上記のような問題点に鑑み、上述の前記平面画像生成手段2が生成した前記平面画像データに対して、前記両眼立体視画像データから得られる距離情報に基いて、各種の画像補正手段を実施し、より自然な平面画像を生成することを特徴とする画像処理装置を提供することを目的とする。
請求項記載の発明は、任意に定められた視点からの左右眼用平面画像データからなる両眼立体視用画像データを入力する画像入力手段と、入力された前記両眼立体視用画像データに基いて、平面画像データを生成する平面画像生成手段と、前記両眼立体視用画像データに基く両眼立体視用画像を観察する際の1視点から、3次元空間内の各点までの距離を判別する距離判別手段と、前記3次元空間内の各点の色彩情報を判別する色彩情報判別手段と、前記距離判別手段によって判別された、前記3次元空間内の各点についての距離情報、及び、前記色彩情報判別手段によって判別された、前記3次元空間内の各点についての色彩情報を用いて、前記平面画像内のオブジェクトの属性を判別するオブジェクト判別手段と、前記オブジェクト判別手段により判別された各オブジェクトの中から、主被写体を判別する主被写体判別手段と、前記オブジェクト判別手段により判別された各オブジェクトの空間的配置から画像種を判別する画像種判別手段と、前記平面画像データの補正をする画像補正手段と、前記画像補正手段により補正された平面画像データを出力する画像出力手段とを具備し、前記画像補正手段は、前記主被写体判別手段によって判別された前記主被写体の種別と、前記画像種判別手段によって判別された前記画像種の組み合わせ毎に異なる、前記平面画像データの補正をする画像処理装置としたことを特徴とする。
請求項記載の発明は、前記主被写体判別手段によって判別された複数の前記主被写体の種別と、前記オブジェクト判別手段によって判別された複数の前記画像種の組み合わせに対応した複数の補正データを記憶する記憶手段と、前記記憶手段に記憶された複数の補正データの中から前記主被写体判別手段によって判別された前記主被写体の種別と、前記画像種判別手段によって判別された前記画像種の組み合わせに対応した補正データを選択する選択手段とを具備し、前記画像補正手段は、前記選択された補正データを用いて前記平面画像データの補正をする請求項記載の画像処理装置としたことを特徴とする。
請求項記載の発明は、前記画像補正手段は、色に関する補正をする請求項1又は2のいずれかに記載の画像処理装置としたことを特徴とする。
請求項記載の発明は、前記画像補正手段は、前記主被写体判別手段によって判別された前記主被写体が特定のオブジェクトである場合に、該オブジェクトに対して人間が観念的に抱く色に基づいて色の補正をする請求項記載の画像処理装置としたことを特徴とする。
請求項記載の発明は、任意に定められた視点からの左右眼用平面画像データからなる両眼立体視用画像データを入力する画像入力手段による画像入力工程と、入力された前記両眼立体視用画像データに基いて、平面画像データを生成する平面画像生成手段による平面画像生成工程と、前記両眼立体視用画像データに基く両眼立体視用画像を観察する際の1視点から、3次元空間内の各点までの距離を判別する距離判別手段による距離判別工程と、前記3次元空間内の各点の色彩情報を判別する色彩情報判別手段による色彩情報判別工程と、前記距離判別工程によって判別された、前記3次元空間内の各点についての距離情報、及び、前記色彩情報判別工程によって判別された、前記3次元空間内の各点についての色彩情報を用いて、前記平面画像内のオブジェクトの属性を判別するオブジェクト判別手段によるオブジェクト判別工程と、前記オブジェクト判別工程により判別された各前記オブジェクトの中から、主被写体を判別する主被写体判別手段による主被写体判別工程と、前記オブジェクト判別工程により判別された各オブジェクトの空間的配置から画像種を判別する画像種判別手段による画像種判別工程と、前記平面画像データの補正をする画像補正手段による画像補正工程と、前記画像補正工程により補正された平面画像データを出力する画像出力手段による画像出力工程とを具備し、前記画像補正工程は、前記主被写体判別工程によって判別された前記主被写体の種別と、前記画像種判別工程によって判別された前記画像種の組み合わせ毎に異なる、前記平面画像データの補正をする画像処理方法としたことを特徴とする。
請求項記載の発明は、前記主被写体判別工程によって判別された複数の前記主被写体の種別と、前記オブジェクト判別工程によって判別された複数の前記画像種の組み合わせに対応した複数の補正データを記憶する記憶手段による記憶工程と、前記記憶工程に記憶された前記複数の補正データの中から前記主被写体判別手段によって判別された前記主被写体の種別と、前記画像種判別工程によって判別された前記画像種の組み合わせに対応した補正データを選択する選択手段による選択工程とを具備し、前記画像補正工程は、前記選択された補正データを用いて前記平面画像データの補正をする請求項記載の画像処理方法としたことを特徴とする。
請求項記載の発明は、前記画像補正工程は、色に関する補正をする請求項5又は6のいずれかに記載の画像処理方法としたことを特徴とする。
請求項記載の発明は、前記画像補正工程は、前記主被写体判別工程によって判別された前記主被写体が特定のオブジェクトである場合に、該オブジェクトに対して人間が観念的に抱く色に基づいて色の補正をする請求項記載の画像処理方法としたことを特徴とする。
本発明によれば、上述の前記平面画像生成手段2が生成した前記平面画像データに対して、前記両眼立体視画像データから得られる距離情報に基いて、各種の画像補正手段を実施することにより、人間の記憶色、画像の種別、及び、主被写体の種別を考慮した優れた色再現性を有し、かつ、最適なシャープネスを有する、より自然な平面画像を簡易かつ高速に生成することができる。
本発明に係る画像処理装置の一の実施形態は、任意に定められた視点からの左眼用及び右眼用平面画像データからなる両眼立体視用画像データを入力する画像入力手段と、入力された前記両眼立体視用画像データに基いて、平面画像データを生成する平面画像生成手段と、両眼立体視用画像データに基く両眼立体視用画像を観察する際の1視点から、3次元空間内の各点までの距離を判別する距離判別手段と、前記距離判別手段によって判別された、前記3次元空間内の各点についての距離情報を用いて、前記平面画像データの補正を行う画像補正手段と、前記平面画像データを出力する画像出力手段とを設ける。その結果、優れた色再現性を有し、かつ、最適なシャープネスを有する、より自然な平面画像を簡易かつ高速に生成することができる。
本発明に係る画像処理装置の第1の実施例を、図1に基いて説明する。図1は、本発明を適用した画像処理装置の要部ブロック構成図である。図1に示すように、本実施例の画像処理装置は、画像入力手段1、平面画像生成手段2、距離判別手段3、画像補正手段4、及び、画像出力手段5とを備えた画像処理装置である。
次に、本実施例の画像処理装置における画像処理工程について説明する。まず、画像入力手段1は、例えば、任意に定められた視点からの、左眼用及び右眼用平面画像データからなる両眼立体視用画像データを入力として受け取る。
ここで、この画像入力手段1が入力として受け取る左眼用及び右眼用平面画像データからなる両眼立体視用画像データについて、添付図面を用いて以下に具体的に説明する。
図6(a)、(b)は、左眼に提示される画像101の一例を示した図である。図6(a)、(b)には、簡略化のため、画面100及び画面100に対して異なる奥行き位置に観察される円101(点ALと点BLを通る円)のみを図示している。図6(a)は、画面100及び円101を正面から見た図であり、図6(b)は、図6(a)を真上から見た図である。
図7(a)、(b)は、右眼に提示される画像102の一例を示した図である。図7(a)、図7(b)には、簡略化のため、画面100及び画面100に対して異なる奥行き位置に観察される円102(点ARと点BRを通る円)のみを図示している。図7(a)は、画面100及び円102を正面から見た図であり、図7(b)は、図7(a)を真上から見た図である。
図8(a)は、実際に提示された状態の画像101及び102を正面から見た図である。左眼用の画像101、右眼用の画像102を、各々異なる眼に提示するためには、図8(a)に示した実際に提示された状態の画像101及び102のうち、図6(a)に示す左眼用の画像101と、図7(a)に示す右眼用の画像102とを、各々相異なる偏光にて提示し、対応する偏光のみを透過させる眼鏡(偏光眼鏡)を装着して観察する。
または、図9に示すように、左右眼用の画像各々を縦方向に短冊上に細かく分割し、分割された短冊上の領域(右眼用の画像R1〜R6、左眼用の画像L1〜L6:図9参照。)を交互に配置し、レンティキュラレンズアレイ105等の光学系を介して観察する。または、図10に示すように、左右眼用の画像各々を縦方向に短冊上に細かく分割し、分割された短冊上の領域(右眼用の画像R1〜R5、左眼用の画像L1〜L5:図10参照。)を交互に配置し、パララックス・バリア106を介して観察する方式等が一般的である。
図8(b)は、図8(a)に示した画像101及び画像102を観察する様子を示した図であり、図8(a)を真上からみた図である。図8(b)に示すように、ARとBRは右眼のみに、ALとBLは左眼にのみ提示されるため、ABで示される位置(みかけの位置)に立体的な一つの円が観察されることになる。以上説明したことからわかるように、両眼立体視用画像データは、左眼用平面画像データ(例:画像101:図6、図8参照。)及び右眼用平面画像データ(例:画像102:図7、図8参照。)とから構成され、それぞれのデータを観察者の左眼のみ、右眼のみに提示させることによって、一つの画像を立体的に観察者に知覚させるものである。
また、図8(c)に示すように、左眼103、右眼104、及び、注視点X(O)とが成す角は輻輳角β(α)と呼ばれ、輻輳角が大きい程見かけの位置は近くなる。また、注視点であるXとOの2点が同一空間内にある場合に、注視点O、左眼103、及び、右眼104とが成す角αと、注視点X、左目103、及び、右眼104とが成す角βの差は、両眼視差と呼ばれ、両点XとOの空間内における位置の認識に利用される。
続いて、距離判別手段3は、前記両眼立体視用画像データとして用いられる、前記左眼及び右眼の各視点から得られる前記左眼用平面画像データ及び右眼用平面画像データにおいて、それぞれ対応する点の視差角を算出し、該前記左眼用平面画像データ及び右眼用平面画像データを観察者の左眼又は右眼に提示することにより得られる、観察者により立体的に観察される提示画像及び該提示画像を含んだ3次元空間において、該3次元空間内における該提示画像の各点の相対位置を算出する。
ここで、それぞれ対応する点とは、図8に示したようなARとAL、BRとBL、又は、図11のXRとXLのような関係の点(両眼対応点)のことをいう。図11に示すように、観察距離が既知(d)であれば、注視点Xの見かけの距離d1は(Oに対する相対位置)、線分XRXLの長さaと、線分LRの長さbからdb/(a+b)で与えられる。
続いて、例えば、ここに図示しない視点位置指示手段等を用いて、観察者(使用者)が、観察者により知覚される3次元空間内における観察者の視点を任意に1点指示するなどして、3次元空間内の観察者の視点が決定されると、距離判別手段3は、前記両眼立体視用画像データに基いて、観察者により観察される3次元空間内の各点と、決定された視点との絶対距離を求める。
ここで上述の視点位置指示手段について説明する。図12、図13は、視点位置指示手段の例を示した図である。図12に示した視点位置指示手段は、PC107、モニタ108、キーボード110、マウス111とを備え、モニタ108に表示される座標入力用ウインドウ109を利用して、観察者の画面に対する観察距離、及び、画面に平行な平面上における提示画像各点の画面中央に対する座標をキーボード110を用いて入力する。また、図13に示した視点位置指示手段は、PC107、モニタ108、CCDカメラ112とを備えており、このCCDカメラ112は、モニタの画面周辺部に設置され、観察者の両眼の位置を検出する。この観察者の両眼の位置を検出する方法の一例について説明すると、CCDカメラ112が捉えた観察者の眼の白眼部と黒眼部との反射率の差が非常に高いことを利用して、瞳を切り出し、観察者の両眼の位置を特定する。また、CCDカメラ112は、オートフォーカス機構を備えており、画面に対する距離はフォーカス距離で決定される。
一方、平面画像生成手段2は、入力された前記両眼立体視用画像データの全てを、例えば、特開2002−324249号公報に開示されている平面画像処理方法を用いて、前記決定された視点からの平面画像データに変換処理する。該平面画像処理方法は、2視点からの2次元データ平面データである画像において対応する点を8組以上と、画像の特徴を表す線分である特徴線を任意の本数指定することにより2画像間の視点を補間してその内挿画像を表示する方法である。
続いて、画像補正手段4は、平面画像生成手段2により得られた前記平面画像データに対して、距離判別手段3によって判別された、前記3次元空間内の各点と前記決定された視点との距離情報に基づいて、両眼立体視画像観察時に等距離にあると観察される点群に対しては、同一の補正データを用いて補正処理を行う。また、両眼立体視画像観察時に距離が異なると観察される点群に対しては、異なる補正データを用いて補正処理を行う。
ここで、前記両眼立体視画像観察時に等距離にあると観察される点群について、以下に具体的に説明する。前記両眼立体視画像観察時に等距離にあると観察される点群とは、左右眼用各画像(例えば、図6、図8に示す左眼用画像である画像101、図7、図8に示す右眼用画像である画像102)のローカルな座標系における両眼対応点(図8に示すARとAL、BRとBL、または、図11に示すXRとXLのような関係の点)の水平方向位置の差が等しい点群である。図14、図15において、(AR−OL)−(AR−OR)=(BL−OL)−(BR−OR)ならばALとBL、及び、ARとBRは等距離に観察される。
従って、左右両眼用画像間にて対応している両眼対応点が予め既知であるならば、左眼用画像内の点XLと、右眼用画像内におけるその対応点であるXR、各々に対して(XL−OL)−(XR−OR)を対応付けたデータを予め用意し、これを参照することによって等距離と観察される点群を知ることができる。
また、左右両眼用画像間にて対応している両眼対応点が予め既知でない場合においては、前記両眼立体視画像観察時に等距離にあると観察される点群を求める方法について図16を用いて以下に説明する。図16に示すように、まず、左眼用画像及び右眼用画像の各々に対してSobelフィルタ等の1次微分フィルタやラプラシアンフィルタ等の2次微分フィルタ等を用いて輪郭の検出を行う(ステップ101、102)。
次に、検出された輪郭による閉領域としてオブジェクトを抽出する(ステップ103、104)。
次に、左眼用画像又は右眼用画像のどちらかの画像において抽出された各オブジェクトを他方の画像の同じ垂直位置にて水平方向にコンボリューションを計算し、最も計算値の高い位置を特定する。この特定された位置のオブジェクトが対応する画像における対応するオブジェクトと判定される(ステップ105)。そして、対応するオブジェクト内のローカルな座標が等しい点同士を両眼対応点として判定する(ステップ106)。この判定された各点に対し、(XL−OL)−(XR−OR)を計算する(ステップ107)。そして、以上述べた手順で得られた各計算値をそれぞれ比較することによって等距離と観察される点群を知ることができる(ステップ108)。
以上説明したような方法によって、観察される際の各点の奥行き方向に対する相対位置を知ることができる((XL−OL)−(XR−OR)の値が大きい程近くに観察される)。彩度の変化やコントラストの変化は人間が奥行きを知覚する際の非常に重要な手がかりであるため、両眼で立体視観察するべき画像を2次元画像化する際に、より近くに観察されるべきオブジェクトの彩度を上げる、オブジェクト内のコントラストを上げる等の補正を行うと、より自然な2次元画像が得られる。補正としては、例えば彩度を補正する際には、補正後の彩度をCは補正前の彩度C0と観察される距離D(D>=0)の関数として、C=C0exp(−D2/2σ2)のような連続的に減衰する関数を用いれば良い。この例の場合σの値を変化させることにより減衰の度合いを調整することが可能となる。
そして、画像補正手段4により補正された前記平面画像データは、画像出力手段5により出力される。ここで、例えば、画像出力手段5がモニタ等の画像表示装置である場合には、前記平面画像データは、該画像表示装置の画像表示画面に平面画像として表示される。また、画像出力手段5がプリンタ等の印字装置である場合は、前記平面画像データは、から紙、OHP等に両眼立体視画像ではない通常の平面画像として出力される。
なお、本実施例で行なわれる画像補正処理が色の補正処理である場合には、例えば遠景と判断された面では、比較的高空間周波数成分が少ないために、少ない色数で再現されても画像観察時の違和感が少ないため、入力画素値のビット数に対して出力画素値のビット数を減らす等の処理を行う。
その結果、得られる平面画像を、色の補正処理により、優れた色再現性を有した、より自然な平面画像とすることができる。また、入力画素値のビット数に対して出力画素値のビット数を減らす等の処理により、簡易で高速に平面画像を得ることができる。
なお、前記遠景と判断された面の判断基準について具体的に説明すると、遠景であることは、既に説明した、(XL−OL)−(XR−OR)の値の大小を参照することにより判断する。よって、図17に示すように、モニタ面よりも遠くに観察される点Xは、この値((XL−OL)−(XR−OR)の値)が負となる。そして、遠景であるか否かの明確な基準はないが、モニタ面までの距離に対して知覚される距離のオーダーが一桁以上も違えばこのような点群から構成される面を遠景と判断して差し支えない。
また、本実施例で行なわれる画像補正処理がシャープネスの補正処理である場合には、例えば近景と判断された面に対しては、比較的高空間周波数成分が多いため、必要ならばエッジ強調処理等の処理を行う。
その結果、得られる平面画像を、シャープネスの補正処理により、好ましいシャープネスを有した、より自然な平面画像とすることができる。
なお、前記近景と判断された面の判断基準について具体的に説明すると、既に説明した遠景と判断された面の判断基準と同様に、近景であることは、(XL−OL)−(XR−OR)の値の大小を参照することにより判断する。よって、モニタ面よりも近くに観察される点Xは、この値((XL−OL)−(XR−OR)の値)が正となる。そして、近景であるか否かの明確な基準はないが、モニタ面までの距離に対して知覚される距離のオーダーが一桁以上も違えばこのような点群から構成される面を近景と判断して差し支えない。
本実施例によれば、上述の前記平面画像生成手段2が生成した前記平面画像データに対して、前記両眼立体視画像データからの距離情報を取得することによって、両眼立体視画像観察時に等距離にあると観察される点群に対しては、同一の補正データを用いて補正処理を行うことができる。また、両眼立体視画像観察時に距離が異なると観察される点群に対しては、異なる補正データを用いて補正処理を行うことができる。また、色の補正、シャープネスの補正等の各種の画像補正手段を適宜実施することができる。
従って、本実施例によれば、優れた色再現性を有し、又は、最適なシャープネスを有する、より自然な平面画像を簡易かつ高速に生成することができる。
本発明に係る画像処理装置の第2の実施例を、図2に基いて説明する。図2は、本発明を適用した画像処理装置の要部ブロック構成図である。図2に示すように、本実施例の画像処理装置は、画像入力手段1、平面画像生成手段2、距離判別手段3、画像補正手段4、画像出力手段5、記憶手段6、距離範囲判別手段7、及び、選択手段8とを備えた画像処理装置である。
次に、本実施例の画像生成装置における画像処理工程について説明する。まず、画像入力手段1は、例えば、任意に定められた視点からの、左眼用及び右眼用平面画像データからなる両眼立体視用画像データを入力として受け取る。
続いて、距離判別手段3は、前記両眼立体視用画像データを用いることにより、前記左眼用及び右眼用平面画像データの各視点からの両眼立体視用画像データにおいて、それぞれ対応する点の視差角を算出し、前記両眼立体視用画像データの各点の、3次元空間内における相対位置を算出する。
続いて、例えば、ここに図示しない視点位置指示手段等を用いて、使用者が知覚される3次元空間内の視点を任意に1点指示するなどして、3次元空間内の視点が決定されと、距離判別手段3は、前記両眼立体視用画像データに基く3次元空間内の各点と、決定された視点との絶対距離を求める。
なお、平面画像生成手段2では、入力された前記両眼立体視用画像データの全てを、上述したような平面画像処理方法を用いて、前記決定された視点からの平面画像データに変換処理する。
ここで、前記記憶手段6は、極近距離、近距離、中距離、遠距離、極遠距離等の複数の被観察距離範囲に対応した補正データを記憶するものである。なお、このような複数の被観察距離範囲に対応した補正データを用いて補正を行うことは(言い換えると、距離に応じて連続的な関数を用いて補正を行うことは)、数段階のレベルで補正テーブルを用意しておいてLUT演算をすることを意味し、データ処理を軽く済ますことができる。
そして、前記距離範囲判別手段7は、前記両眼立体視用画像データに基づく両眼立体視画像を観察する際の1視点からの、前記両眼立体視用画像データの各点が、前記記憶手段6に記憶された複数の被観察距離範囲のいずれに属するかを判別する。
続いて、前記選択手段8は、前記記憶手段6に記憶された複数の補正データの中から前記距離範囲判別手段7によって判別された各点の距離範囲に対応した補正データを選択する。ここで、前記選択手段8が、前記記憶手段6に記憶された複数の補正データの中から前記距離範囲判別手段7によって判別された各点の距離範囲に対応した補正データを選択する方法について以下に具体的に説明する。
距離範囲を極近距離(0〜a)、近距離(a〜b)、中距離(b〜c)、遠距離(c〜d)、極遠距離(d〜)とすると、まず、点の観察される距離(D)が、どの距離範囲にあるか判定する。具体的には、a、b、c、dのいずれかとDとを比較し、a、b、c、dのいずれかに対してDが小さくなるまで大小比較判定をくり返すことにより、Dがどの距離範囲にあるかを判定する。なお、dよりもDが大きい場合には極遠距離と判定する。続いて、判定された距離に応じた補正データを参照し、該補正データのアドレスを参照して前記記憶手段6から該補正データを取得する。
続いて、平面画像生成手段2より生成された前記平面画像データに対して、画像補正手段4が、前記選択手段8により選択された補正データを用いて補正処理を行う。
そして、画像補正手段4により補正された前記平面画像データは、画像出力手段5により出力される。
なお、本実施例で行なわれる画像補正処理が色の補正処理である場合には、複数の被観察距離範囲に対応した補正データは、例えば、入力画素値を出力画素値に変換する際のルックアップテーブルであり、画像観察時に遠距離であるほどマッピングの間隔は粗くても良い。その結果、得られる平面画像を、色の補正処理により、優れた色再現性を有した、より自然な平面画像とすることができる。また、画像観察時に遠距離であるほどマッピングの間隔は粗くても良いので、入力画素値のビット数に対して出力画素値のビット数を減らす等の処理により、簡易で高速に平面画像を得ることができる。
ここで、前記ルックアップテーブルについて説明する。例えば、彩度を補正する際のルックアップテーブルには、補正後の彩度をC、補正前の彩度をC0とし、観察される距離をD(D>=0)の関数として、C=C0exp(−D2/2σ2)のような連続的に減衰する関数を用いることができる。この場合に、Dの値を大きく分けて5段階からなるものとして粗く設定することにより、補正後に得られるCの値も5段階の粗い計算結果として得ることができる。
例えば、上述の関数を用いたルックアップテーブルの一例として、距離の単位をm、σ=100、距離範囲と設定距離の関係として(極近距離(0〜0.3)>1、近距離(0.3〜1)>0.999、中距離(1〜10)>0.999、遠距離(10〜100)>0.995、極遠距離(100m〜)>0.607)のように設定してルックアップテーブルを構成することができる。
また、本実施例で行なわれる画像補正処理がシャープネスの補正処理である場合には、複数の被観察距離範囲に対応した補正データは、例えばエッジ強調フィルタであり近距離と判断された距離範囲に対してはよりエッジ強調の度合いを大きくする。その結果、得られる平面画像を、シャープネスの補正処理により、好ましいシャープネスを有した、より自然な平面画像とすることができる。
本実施例によれば、前記両眼立体視用画像データの各点が、複数の被観察距離範囲のいずれに属するかを判別することができ、記憶された複数の補正データの中から、前記3次元空間の各点の距離範囲に対応した補正データを選択し、上述の平面画像データに対して、前記補正データを用いて、色の補正、シャープネスの補正等の各種の補正を適宜実施することができる。
従って、本実施例によれば、優れた色再現性を有し、又は、最適なシャープネスを有する、より自然な平面画像を簡易かつ高速に生成することができる。
本発明に係る画像処理装置の第3の実施例を、図3に基いて説明する。図3は、本発明を適用した画像処理装置の要部ブロック構成図である。図3に示すように、本実施例の画像処理装置は、画像入力手段1、平面画像生成手段2、距離判別手段3、画像補正手段4、画像出力手段5、記憶手段9、色彩情報判別手段10、オブジェクト判別手段11、及び選択手段12とを備えた画像処理装置である。
次に、本実施例の画像生成装置における画像処理工程について説明する。まず、画像入力手段1は、例えば、任意に定められた視点からの、左眼用及び右眼用平面画像データからなる両眼立体視用画像データを入力として受け取る。
続いて、距離判別手段3は、前記両眼立体視用画像データを用いることにより、前記左眼用及び右眼用平面画像データの各視点からの両眼立体視用画像データにおいて、それぞれ対応する点の視差角を算出し、前記両眼立体視用画像データの各点の、3次元空間内における相対位置を算出する。
続いて、例えば、ここに図示しない視点位置指示手段等を用いて、使用者が知覚される3次元空間内の視点を任意に1点指示するなどして、3次元空間内の視点が決定されと、距離判別手段3は、前記両眼立体視用画像データに基く3次元空間内の各点と、決定された視点との絶対距離を求める。
また、平面画像生成手段2では、入力された前記両眼立体視用画像データの全てを、上述したような平面画像処理方法を用いて、前記決定された視点からの平面画像データに変換処理する。
ここで、前記記憶手段9は、人物の肌の色、木の葉の色、晴天時の空の色等特定のオブジェクトに対して人間が観念的に保持するいわゆる記憶色に対応した複数の色補正データを記憶するものである。ここで、人間が観念的に保持するいわゆる記憶色とは、人間が成長の過程において、肌、木の葉、晴天時の空といった特定のオブジェクトに対して環境的、文化的、地理的、人種的に記憶として関連づけた色のことをいう。
そして、距離判別手段3によって判別された、前記3次元空間内の各点の距離情報および、前記色彩情報判別手段10によって判別された前記3次元空間内の各点の色彩情報を用いて、前記平面画像データ内の各オブジェクトが、前記特定のオブジェクトであるか否かをオブジェクト判別手段11により判別する。
続いて、前記選択手段12は、前記記憶手段9に記憶された色補正データの中から判別されたオブジェクトに対応した色補正データを選択する。
続いて、平面画像生成手段2より生成された前記平面画像データに対して、画像補正手段4が、前記選択手段9により選択された色補正データを用いて適切な色補正を各オブジェクト毎に行う。そして、画像補正手段4により補正された前記平面画像データは、画像出力手段5により出力される。
本実施例によれば、前記両眼立体視画像データに基いて、前記3次元空間内の各点の距離情報と色彩情報を用いて、前記平面画像データ内の各オブジェクトが、記録された人物の肌の色等の特定のオブジェクトであるか否かを判別することができる。
例えば、既に説明したように、前記両眼立体視画像データに基いて算出された、前記3次元空間内の各点の距離情報を用いて、各オブジェクトを抽出することによって各オブジェクトの色と形状が明らかになる。ここで、特開2000−048184に提示されたような方法を用いることによって、例えば、抽出されたオブジェクトが顔である、木の葉であると言ったことが可能となる。
そして、記憶された色補正データの中から判別されたオブジェクトに対応した色補正データを選択し、前記平面画像データに対して、選択された色補正データを用いて、適切な色補正を各オブジェクト毎に行うことができる。
つまり、あるオブジェクトが人間の肌であると判定されたとすると、判定されたオブジェクト(肌)に応じた補正データのアドレスを参照して、記憶された色補正データの中から判別されたオブジェクトに対応した色補正データを選択し、該補正データを取得する。そして、前記平面画像データに対して、選択された色補正データを用いて、適切な色補正を各オブジェクト毎に行うことができる。
従って、本実施例によれば、人間の記憶色を考慮した、優れた色再現性を有する、より自然な平面画像を簡易かつ高速に生成することができる。
本発明に係る画像処理装置の第4の実施例を、図4に基いて説明する。図4は、本発明を適用した画像処理装置の要部ブロック構成図である。図4に示すように、本実施例の画像処理装置は、画像入力手段1、平面画像生成手段2、距離判別手段3、画像補正手段4、画像出力手段5、色彩情報判別手段10、記憶手段13、オブジェクト判別手段14、画像種判別手段15、選択手段16とを備えた画像処理装置である。
次に、本実施例の画像生成装置における画像処理工程について説明する。まず、画像入力手段1は、例えば、任意に定められた視点からの、左眼用及び右眼用平面画像データからなる両眼立体視用画像データを入力として受け取る。
続いて、距離判別手段3は、前記両眼立体視用画像データを用いることにより、前記左眼用及び右眼用平面画像データの各視点からの両眼立体視用画像データにおいて、それぞれ対応する点の視差角を算出し、前記両眼立体視用画像データの各点の、3次元空間内における相対位置を算出する。
続いて、例えば、ここに図示しない視点位置指示手段等を用いて、使用者が知覚される3次元空間内の視点を任意に1点指示するなどして、3次元空間内の視点が決定され、距離判別手段3は、前記両眼立体視用画像データに基く3次元空間内の各点と、決定された視点との絶対距離を求める。
なお、平面画像生成手段2では、入力された前記両眼立体視用画像データの全てを、上述したような平面画像処理方法を用いて、前記決定された視点からの平面画像データに変換処理する。
ここで、前記記憶手段13は、人間が記憶色を保持する人物の肌の色、木の葉の色、晴天時の空の色等特定のオブジェクトの様々な組み合わせからなる画像種に対応した複数の色補正データを記憶するものである。
該色補正データとしては、例えば、晴天時の肌、曇天時の肌に対して観察者が好ましいと感じる肌色が異なるため、これらに応じた補正データからなる補正テーブルが用意される。あるいは、木の葉の緑の前に存在する人物の肌の色は、色の対比効果によって実際とは異なる色に見えてしまうことがあり、このような場合には、更に、肌の色に補正を行うことによってより好ましい画像を得ることができるため、例えば、(前景、背景)の組み合わせとして、(人物、晴天)、(人物、曇天)、(人物、木の葉)、(人物、室内)、(人物、夜の屋外)といったいくつかの組み合わせに対して、予め異なる色補正を行うための色補正データが用意される。
そして、距離判別手段3によって判別された、前記3次元空間内の各点の距離情報および、前記色彩情報判別手段10によって判別された前記3次元空間内の各点の色彩情報を用いて、前記平面画像データ内の各オブジェクトが、前記特定のオブジェクトであるか否かをオブジェクト判別手段14により判別する。
例えば、既に説明したように、前記両眼立体視画像データに基いて算出された、前記3次元空間内の各点の距離情報を用いて、各オブジェクトを抽出することによって各オブジェクトの色彩情報が明らかになる。ここで、特開2000−048184に提示されたような方法を用いることによって、例えば、抽出されたオブジェクトが顔である、木の葉であると言ったことが可能となる。
続いて、前記画像種判別手段15は、判別された各オブジェクトの空間的配置から画像種を判別する。なお、前記判別された各オブジェクトの空間的配置の検知は、図14〜図16を用いて説明したように、(XL−OL)−(XR−OR)の値の大小を参照することにより判断する。そして、検知された各オブジェクトの空間的配置の距離情報からオブジェクトを判別し、対象画像が、例えば、(前景、背景)の組み合わせとして、(人物、晴天)、(人物、曇天)、(人物、木の葉)、(人物、室内)、(人物、夜の屋外)といったいくつかの組み合わせのいずれかに該当する際には、予め用意された、異なる色補正を行うための色補正データを参照して色の補正を行う。
続いて、前記選択手段16は、前記記憶手段13に記憶された補正データの中から判別された画像種に対応した補正データを選択する。
続いて、平面画像生成手段2より生成された前記平面画像データに対して、画像補正手段4が、前記選択手段16により選択された色補正データを用いて、被処理画像の画像種に対応した適切な色補正を行う。そして、画像補正手段4により補正された前記平面画像データは、画像出力手段5により出力される。
本実施例によれば、前記両眼立体視画像データに基いて、前記3次元空間内の各点の距離情報と色彩情報を用いて、前記平面画像データ内の各オブジェクトが、記録された人物の肌の色等の特定のオブジェクトであるか否かを判別し、判別した各オブジェクトの空間的配置から、各オブジェクトの画像種を判別することができる。
そして、記憶された色補正データの中から判別された画像種に対応した色補正データを選択し、前記平面画像データに対して、選択された色補正データを用いて、適切な色補正を各画像種毎に行うことができる。
従って、本実施例によれば、画像の種別を考慮した優れた色再現性を有する、より自然な平面画像を簡易かつ高速に生成することができる。
以上、本発明に係る画像処理装置の第1から4までの実施例について説明したが、本発明の趣旨に沿って、及び、画像処理装置の目的に従って、本発明を適用する画像処理装置の構成、画像処理の手順、及び画像補正の内容等を適宜変更することができる。
本発明に係る第1の実施例の画像処理装置の要部ブロック構成図である。 本発明に係る第2の実施例の画像処理装置の要部ブロック構成図である。 本発明に係る第3の実施例の画像処理装置の要部ブロック構成図である。 本発明に係る第4の実施例の画像処理装置の要部ブロック構成図である。 従来の画像処理装置の要部ブロック構成図である。 (a)は、左眼に提示される画像101の一例を示した図である。(b)は、(a)を真上から見た図である。 (a)は、右眼に提示される画像102の一例を示した図である。(b)は、(a)を真上から見た図である。 (a)は、実際に観察者に提示された状態の画像101及び102を正面から見た図である。(b)は、(a)を真上からみた図である。(c)は、輻輳角、両眼視差、及び、空間内における画像各点の位置の認識について説明するための図である。 レンティキュラレンズアレイ等の光学系を用いて、立体視画像を観察する方法について説明するための図である。 パララックス・バリアを用いて、立体視画像を観察する方法について説明するための図である。 観察者により立体的に観察される画像を含んだ3次元空間において、画像各点の相対位置を算出するための原理を説明するための図である。 観察者の視点位置指示手段の第1の例を示した図である。 観察者の視点位置指示手段の第2の例を示した図である。 両眼立体視画像観察時に等距離にあると観察される点群を求める方法について説明するための図である。 両眼立体視画像観察時に等距離にあると観察される点群を求める方法について説明するための図である。 両眼立体視画像観察時に等距離にあると観察される点群を求める方法について説明するための図である。 観察者により立体的に観察される立体視画像の画像データにおいて、遠景、近景と判断された面の判断基準について説明するための図である。
符号の説明
1 画像入力手段
2 平面画像生成手段
3 距離判別手段
4 画像補正手段
5 画像出力手段
6 記憶手段
7 距離範囲判別手段
8 選択手段
9 記憶手段
10 色彩情報判別手段
11 オブジェクト判別手段
12 選択手段
13 記憶手段
14 オブジェクト判別手段
15 画像種判別手段
16 選択手段
100 画面
101 画像
102 画像
103 左眼
104 右眼
105 レンティキュラレンズ(レンティキュラレンズアレイ)
106 パララックス・バリア
107 PC
108 モニタ
109 座標入力ウインドウ
110 キーボード
111 マウス
112 CCDカメラ

Claims (8)

  1. 任意に定められた視点からの左右眼用平面画像データからなる両眼立体視用画像データを入力する画像入力手段と、
    入力された前記両眼立体視用画像データに基いて、平面画像データを生成する平面画像生成手段と、
    前記両眼立体視用画像データに基く両眼立体視用画像を観察する際の1視点から、3次元空間内の各点までの距離を判別する距離判別手段と、
    前記3次元空間内の各点の色彩情報を判別する色彩情報判別手段と、
    前記距離判別手段によって判別された、前記3次元空間内の各点についての距離情報、及び、前記色彩情報判別手段によって判別された、前記3次元空間内の各点についての色彩情報を用いて、前記平面画像内のオブジェクトの属性を判別するオブジェクト判別手段と、
    前記オブジェクト判別手段により判別された各オブジェクトの中から、主被写体を判別する主被写体判別手段と、
    前記オブジェクト判別手段により判別された各前記オブジェクトの空間的配置から画像種を判別する画像種判別手段と、
    前記平面画像データの補正をする画像補正手段と、
    前記画像補正手段により補正された平面画像データを出力する画像出力手段とを具備し、
    前記画像補正手段は、前記主被写体判別手段によって判別された、前記主被写体の種別と、前記画像種判別手段によって判別された、前記画像種の組み合わせ毎に異なる、前記平面画像データの補正をすることを特徴とする画像処理装置。
  2. 前記主被写体判別手段によって判別された、複数の前記主被写体の種別と、前記オブジェクト判別手段によって判別された、複数の前記画像種の組み合わせに対応した複数の補正データを記憶する記憶手段と、
    前記記憶手段に記憶された複数の補正データの中から前記主被写体判別手段によって判別された前記主被写体の種別と、前記画像種判別手段によって判別された前記画像種の組み合わせに対応した補正データを選択する選択手段とを具備し、
    前記画像補正手段は、前記選択された補正データを用いて前記平面画像データの補正をすることを特徴とする請求項記載の画像処理装置。
  3. 前記画像補正手段は、色に関する補正をすることを特徴とする請求項1又は2のいずれかに記載の画像処理装置。
  4. 前記画像補正手段は、前記主被写体判別手段によって判別された前記主被写体が特定のオブジェクトである場合に、該オブジェクトに対して人間が観念的に抱く色に基づいて色の補正をすることを特徴とする請求項記載の画像処理装置。
  5. 任意に定められた視点からの左右眼用平面画像データからなる両眼立体視用画像データを入力する画像入力手段による画像入力工程と、
    入力された前記両眼立体視用画像データに基いて、平面画像データを生成する平面画像生成手段による平面画像生成工程と、
    前記両眼立体視用画像データに基く両眼立体視用画像を観察する際の1視点から、3次元空間内の各点までの距離を判別する距離判別手段による距離判別工程と、
    前記3次元空間内の各点の色彩情報を判別する色彩情報判別手段による色彩情報判別工程と、
    前記距離判別工程によって判別された、前記3次元空間内の各点についての距離情報、及び、前記色彩情報判別工程によって判別された、前記3次元空間内の各点についての色彩情報を用いて、前記平面画像内のオブジェクトの属性を判別するオブジェクト判別手段によるオブジェクト判別工程と、
    前記オブジェクト判別工程により判別された各前記オブジェクトの中から、主被写体を判別する主被写体判別手段による主被写体判別工程と、
    前記オブジェクト判別工程により判別された各オブジェクトの空間的配置から画像種を判別する画像種判別手段による画像種判別工程と、
    前記平面画像データの補正をする画像補正手段による画像補正工程と、
    前記画像補正工程により補正された平面画像データを出力する画像出力手段による画像出力工程とを具備し、
    前記画像補正工程は、前記主被写体判別工程によって判別された前記主被写体の種別と、前記画像種判別工程によって判別された前記画像種の組み合わせ毎に異なる、前記平面画像データの補正をすることを特徴とする画像処理方法。
  6. 前記主被写体判別手段によって判別された複数の前記主被写体の種別と、前記オブジェクト判別手段によって判別された複数の前記画像種の組み合わせに対応した複数の補正データを記憶する記憶手段による記憶工程と、
    前記記憶手段に記憶された前記複数の補正データの中から前記主被写体判別手段によって判別された前記主被写体の種別と、前記画像種判別手段によって判別された前記画像種の組み合わせに対応した補正データを選択する選択手段による選択工程とを具備し、
    前記画像補正工程は、前記選択された補正データを用いて、前記平面画像データの補正をすることを特徴とする請求項記載の画像処理方法。
  7. 前記画像補正工程は、色に関する補正をすることを特徴とする請求項5又は6のいずれかに記載の画像処理方法。
  8. 前記画像補正工程は、前記主被写体判別手段によって判別された前記主被写体が特定のオブジェクトである場合に、該オブジェクトに対して人間が観念的に抱く色に基づいて色の補正をすることを特徴とする請求項記載の画像処理方法。
JP2004244404A 2003-10-02 2004-08-24 画像処理装置及び画像処理方法 Expired - Fee Related JP4562457B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004244404A JP4562457B2 (ja) 2003-10-02 2004-08-24 画像処理装置及び画像処理方法
US10/954,190 US7529401B2 (en) 2003-10-02 2004-10-01 Image processing apparatus and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003344728 2003-10-02
JP2004244404A JP4562457B2 (ja) 2003-10-02 2004-08-24 画像処理装置及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2005129013A JP2005129013A (ja) 2005-05-19
JP4562457B2 true JP4562457B2 (ja) 2010-10-13

Family

ID=34655830

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004244404A Expired - Fee Related JP4562457B2 (ja) 2003-10-02 2004-08-24 画像処理装置及び画像処理方法

Country Status (2)

Country Link
US (1) US7529401B2 (ja)
JP (1) JP4562457B2 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4489610B2 (ja) * 2005-01-28 2010-06-23 株式会社 日立ディスプレイズ 立体視可能な表示装置および方法
US20070248260A1 (en) * 2006-04-20 2007-10-25 Nokia Corporation Supporting a 3D presentation
JP5121294B2 (ja) * 2006-05-08 2013-01-16 パナソニック株式会社 画像処理方法、画像処理装置、プログラム、記録媒体および集積回路
US7869649B2 (en) * 2006-05-08 2011-01-11 Panasonic Corporation Image processing device, image processing method, program, storage medium and integrated circuit
JP4743773B2 (ja) * 2006-06-01 2011-08-10 コニカミノルタセンシング株式会社 エッジ検出方法、装置、及びプログラム
JP5094219B2 (ja) * 2006-06-29 2012-12-12 パナソニック株式会社 画像処理装置、画像処理方法、プログラム、記録媒体および集積回路
US8009903B2 (en) * 2006-06-29 2011-08-30 Panasonic Corporation Image processor, image processing method, storage medium, and integrated circuit that can adjust a degree of depth feeling of a displayed high-quality image
US9349183B1 (en) * 2006-12-28 2016-05-24 David Byron Douglas Method and apparatus for three dimensional viewing of images
US11228753B1 (en) 2006-12-28 2022-01-18 Robert Edwin Douglas Method and apparatus for performing stereoscopic zooming on a head display unit
US11315307B1 (en) 2006-12-28 2022-04-26 Tipping Point Medical Images, Llc Method and apparatus for performing rotating viewpoints using a head display unit
US10795457B2 (en) 2006-12-28 2020-10-06 D3D Technologies, Inc. Interactive 3D cursor
US11275242B1 (en) 2006-12-28 2022-03-15 Tipping Point Medical Images, Llc Method and apparatus for performing stereoscopic rotation of a volume on a head display unit
KR101366596B1 (ko) * 2007-08-03 2014-03-14 삼성전자주식회사 이차원 정지 화상에 대해 몰입감을 생성하는 방법 및시스템 그리고 상기 몰입감 생성을 위한 팩터 조절 방법,이미지 콘텐트 분석 방법 및 스케일링 파라미터 예측 방법
GB2470754A (en) * 2009-06-03 2010-12-08 Sony Comp Entertainment Europe Generating and displaying images dependent on detected viewpoint
JP2011066507A (ja) * 2009-09-15 2011-03-31 Toshiba Corp 画像処理装置
US9218644B2 (en) 2009-12-17 2015-12-22 Broadcom Corporation Method and system for enhanced 2D video display based on 3D video input
JP5560766B2 (ja) * 2010-02-25 2014-07-30 株式会社ニコン 画像処理装置、撮像装置、及びプログラム
JP5540942B2 (ja) * 2010-06-29 2014-07-02 富士通セミコンダクター株式会社 処理装置
US9113074B2 (en) * 2010-12-22 2015-08-18 Olympus Corporation Imaging apparatus, imaging method, and computer readable storage medium for applying special effects processing to an automatically set region of a stereoscopic image
JP5960710B2 (ja) * 2011-10-11 2016-08-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 撮像装置とその集積回路、撮像方法、撮像プログラム、および撮像システム
US20130113879A1 (en) * 2011-11-04 2013-05-09 Comcast Cable Communications, Llc Multi-Depth Adaptation For Video Content
JP5679456B2 (ja) * 2011-12-05 2015-03-04 サクサ株式会社 人検出装置、人検出方法及び人検出プログラム
US10372981B1 (en) * 2015-09-23 2019-08-06 Evernote Corporation Fast identification of text intensive pages from photographs
JP6671963B2 (ja) * 2016-01-06 2020-03-25 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、画像処理プログラムおよび記録媒体
CN109598687A (zh) * 2018-12-04 2019-04-09 深慧视(深圳)科技有限公司 双目立体视觉系统及图像校正方法
CN110220500B (zh) * 2019-05-06 2021-12-07 深圳市华芯技研科技有限公司 一种基于双目相机的无人驾驶用测距方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0568268A (ja) * 1991-03-04 1993-03-19 Sharp Corp 立体視画像作成装置および立体視画像作成方法
JPH1188912A (ja) * 1997-09-10 1999-03-30 Canon Inc 複眼カメラ及び複眼カメラにおける表示制御方法
JP2001292333A (ja) * 2000-02-03 2001-10-19 Minolta Co Ltd カラー画像処理装置
JP2002107665A (ja) * 2000-09-27 2002-04-10 Toshiba Corp 立体視装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4488245A (en) * 1982-04-06 1984-12-11 Loge/Interpretation Systems Inc. Method and means for color detection and modification
US6445814B2 (en) * 1996-07-01 2002-09-03 Canon Kabushiki Kaisha Three-dimensional information processing apparatus and method
US6519358B1 (en) * 1998-10-07 2003-02-11 Sony Corporation Parallax calculating apparatus, distance calculating apparatus, methods of the same, and information providing media
US6671399B1 (en) * 1999-10-27 2003-12-30 Canon Kabushiki Kaisha Fast epipolar line adjustment of stereo pairs
JP2002056407A (ja) 2000-08-10 2002-02-22 Minolta Co Ltd 画像生成システム
JP3876142B2 (ja) 2001-02-26 2007-01-31 株式会社ナブラ 画像表示システム
US7197193B2 (en) * 2002-05-03 2007-03-27 Creatv Microtech, Inc. Apparatus and method for three dimensional image reconstruction

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0568268A (ja) * 1991-03-04 1993-03-19 Sharp Corp 立体視画像作成装置および立体視画像作成方法
JPH1188912A (ja) * 1997-09-10 1999-03-30 Canon Inc 複眼カメラ及び複眼カメラにおける表示制御方法
JP2001292333A (ja) * 2000-02-03 2001-10-19 Minolta Co Ltd カラー画像処理装置
JP2002107665A (ja) * 2000-09-27 2002-04-10 Toshiba Corp 立体視装置

Also Published As

Publication number Publication date
US7529401B2 (en) 2009-05-05
JP2005129013A (ja) 2005-05-19
US20060013472A1 (en) 2006-01-19

Similar Documents

Publication Publication Date Title
JP4562457B2 (ja) 画像処理装置及び画像処理方法
US9204128B2 (en) Stereoscopic shooting device
JP5509487B2 (ja) 立体視画像のブラー強化
EP2381691B1 (en) Method and apparatus for processing three-dimensional images
EP1021049A2 (en) Stereoscopic video display method and apparatus
US8970675B2 (en) Image capture device, player, system, and image processing method
WO2011052389A1 (ja) 画像処理装置及び画像処理方法
CN102124749B (zh) 立体图像显示装置
EP1771014A1 (en) Stereoscopic image generating method and apparatus
EP2469870A2 (en) Image processing device, image processing method, and program
US20140002612A1 (en) Stereoscopic shooting device
JP2007506167A (ja) 3次元的奥行き効果を有するイメージ表示法用の3次元イメージ・パターンの生成方法および3次元イメージ・パターンを表示する装置
US20170359562A1 (en) Methods and systems for producing a magnified 3d image
KR100345591B1 (ko) 깊이정보처리를위한영상처리시스템
JP4436080B2 (ja) 立体画像再現歪み出力装置、立体画像再現歪み出力方法および立体画像再現歪み出力プログラム
JP2011211551A (ja) 画像処理装置および画像処理方法
JP2006211383A (ja) 立体画像処理装置、立体画像表示装置、及び立体画像生成方法
JPH09288735A (ja) 画像処理装置
CN102404583A (zh) 三维影像的深度加强系统及方法
JP6179282B2 (ja) 3次元画像表示装置及び3次元画像表示方法
WO2012108406A1 (ja) 立体画像印画装置及び立体画像印画方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100720

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100727

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130806

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees