JP4757812B2 - 立体撮影装置および方法並びにプログラム - Google Patents

立体撮影装置および方法並びにプログラム Download PDF

Info

Publication number
JP4757812B2
JP4757812B2 JP2007038816A JP2007038816A JP4757812B2 JP 4757812 B2 JP4757812 B2 JP 4757812B2 JP 2007038816 A JP2007038816 A JP 2007038816A JP 2007038816 A JP2007038816 A JP 2007038816A JP 4757812 B2 JP4757812 B2 JP 4757812B2
Authority
JP
Japan
Prior art keywords
subject
images
distance
stereoscopic
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007038816A
Other languages
English (en)
Other versions
JP2008205758A (ja
Inventor
幹夫 笹川
徳久 須藤
洋一 沢地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2007038816A priority Critical patent/JP4757812B2/ja
Priority to US12/033,595 priority patent/US8111875B2/en
Publication of JP2008205758A publication Critical patent/JP2008205758A/ja
Application granted granted Critical
Publication of JP4757812B2 publication Critical patent/JP4757812B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/133Equalising the characteristics of different image components, e.g. their average brightness or colour balance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/002Eyestrain reduction by processing stereoscopic signals or controlling stereoscopic devices

Description

本発明は、立体画像を作成するために被写体を異なる複数の視点から撮影する立体撮影装置および方法並びに立体撮影方法をコンピュータに実行させるためのプログラムに関するものである。
複数の画像を組み合わせて表示することにより、視差を利用して立体視できることは知られている。このような立体視ができる立体画像は、同一の被写体を異なる位置から複数のカメラにより撮影を行うことにより複数の画像を取得し、複数の画像に含まれる被写体の視差を利用して複数の画像を組み合わせることにより作成することができる(例えば特許文献1〜3参照)。具体的には、複数の画像の色を例えば赤と青のように異ならせて重ね合わせたり、複数の画像を1ライン毎に交互に組み合わせることにより、立体画像を作成することができる。そして、立体画像を表示して、赤青メガネや偏光メガネを用いて表示された立体画像を目の自動焦点機能により融合視することにより、画像を立体視することができる。また、偏光メガネ等を使用しなくても、立体画像を表示モニタに表示して立体視することも可能である。
特開平10−170227号公報 特開2003−209858号公報 特開2003−264851号公報
しかしながら、撮影時にあまりに至近距離にある被写体については視差が大きくなるため、立体画像上における被写体の間隔が離れすぎてしまうことから融合視することが困難となり、無理に融合視しようとすると目の疲労感が多大なものとなる。このように立体画像において視差が大きくなるのは、立体画像作成のための画像を撮影する際に、被写体までの距離が確認できないことにある。
本発明は、上記事情に鑑みなされたものであり、立体画像を作成するに際し、被写体までの距離を確認できるようにすることを目的とする。
本発明による立体撮影装置は、被写体を異なる複数の視点から撮影することにより、各視点における複数の画像を取得する複数の撮影手段と、
前記複数の撮影手段から前記被写体までの距離である被写体距離を測定する測距手段と、
前記画像に含まれる被写体を、前記被写体距離に応じた複数のグループに分類し、該分類結果を出力する分類手段とを備えたことを特徴とするものである。
なお、本発明による立体撮影装置においては、前記複数の画像および/または該複数の画像から作成した立体画像を表示する表示手段と、
前記分類結果に応じて、前記複数の画像および/または前記立体画像に含まれる前記被写体の表示の態様を変更する表示態様変更手段とをさらに備えるものとしてもよい。
また、本発明による立体撮影装置においては、前記表示態様変更手段を、前記複数の画像および/または前記立体画像に含まれる、所定の被写体距離となる被写体を含む領域をマスキングする手段としてもよい。
また、本発明による立体撮影装置においては、前記表示態様変更手段を、前記立体画像に含まれる、所定の被写体距離となる被写体を含む領域を、前記複数の画像のいずれかの画像に含まれる対応する領域の画像と置換する手段としてもよい。
また、本発明による立体撮影装置においては、前記分類結果に基づいて、所定の被写体距離となる被写体が占める領域の前記複数の画像および/または前記立体画像に対する割合を算出し、該割合が所定値以上の場合に警告を行う警告手段をさらに備えるものとしてもよい。
また、本発明による立体撮影装置においては、前記分類結果に基づいて、所定の被写体距離となる被写体が占める領域の前記複数の画像および/または前記立体画像に対する割合を算出し、該割合が所定値以上の場合に、前記複数の撮影手段の輻輳角、基線長およびズーム倍率のうちの少なくとも1つを調整する調整手段をさらに備えるものとしてもよい。
本発明による立体撮影方法は、被写体を異なる複数の視点から撮影することにより、各視点における複数の画像を取得し、
前記複数の撮影手段から前記被写体までの距離である被写体距離を測定し、
前記画像に含まれる被写体を、前記被写体距離に応じた複数のグループに分類し、該分類結果を出力することを特徴とするものである。
なお、本発明による立体撮影方法をコンピュータに実行させるためのプログラムとして提供してもよい。
本発明によれば、撮影手段から被写体までの距離である撮影距離が測定され、画像に含まれる被写体が被写体距離に応じた複数のグループに分類され、その分類結果が出力される。このため、分類結果を参照すれば、撮影により取得した画像に含まれる被写体の被写体距離を判断することができ、その結果、撮影により取得した画像に好ましくない被写体距離となる被写体が含まれる場合には、その被写体距離の部分について表示態様を変更したり、警告を発したり、さらには撮影手段の輻輳角等を調整する等の処理を行うことができる。したがって、このような処理を行えば、立体視に適した視差となる被写体距離の被写体のみを含む画像を取得でき、これにより、見ていても疲労感のない立体画像を作成することができる。
また、分類結果に応じて、複数の画像および/または立体画像に含まれる被写体の表示の態様を変更することにより、被写体距離をより容易に認識することができる。
この場合、複数の画像および/または立体画像において、所定の被写体距離となる被写体を含む領域をマスキングすることにより、立体画像において所定の被写体距離の領域を立体視することができなくなる。したがって、融合視できないような至近距離を所定の被写体距離とすることにより、至近距離にある被写体は立体視できなくなるため、見ていても疲労感のない立体画像を作成することができる。
また、立体画像に含まれる所定の被写体距離となる被写体を含む領域を、複数の画像のいずれかの画像に含まれる対応する領域の画像と置換することにより、立体画像において所定の被写体距離の領域を立体視することができなくなる。したがって、融合視できないような至近距離を所定の被写体距離とすることにより、至近距離にある被写体は立体視できなくなるため、見ていても疲労感のない立体画像を作成することができる。
また、分類結果に基づいて、所定の被写体距離となる被写体が占める領域の複数の画像および/または立体画像に対する割合を算出し、割合が所定値以上の場合に警告を行うことにより、撮影者は好ましくない被写体距離となる被写体が撮影により取得した画像に含まれることを容易に認識することができる。
また、分類結果に基づいて、所定の被写体距離となる被写体が占める領域の複数の画像および/または立体画像に対する割合を算出し、割合が所定値以上の場合に、複数の撮影手段の輻輳角、基線長および倍率のうちの少なくとも1つを調整することにより、疲労感なく融合視可能な立体画像が得られるように撮影手段の位置関係を調整することができ、これにより、見ていても疲労感のない立体画像を作成することができる。
以下、図面を参照して本発明の実施形態について説明する。図1は本発明の第1の実施形態による立体撮影装置の構成を示す概略ブロック図である。図1に示すように第1の実施形態による立体撮影装置1は、2つのカメラ2A,2Bと、A/D変換部3A,3Bと、画像処理部4A,4Bと、カメラ制御部5と、カメラ駆動機構6A,6Bとを備える。
カメラ2A,2Bは、撮影レンズおよびCCD等の撮像素子を備えてなり、カメラ制御部5により、撮影レンズを用いてのフォーカス動作およびズーム動作、並びに撮像素子からの電荷の読み出しのタイミング等の駆動が制御される。また、カメラ2A,2Bは所定間隔をあけて配置されており、カメラ駆動機構6A,6Bによりカメラ2A,2Bの間隔である基線長および輻輳角を変更することができる。なお、第1の実施形態においては、カメラ2A,2Bは動画像を撮影するものとするが、静止画像を撮影するものであってもよい。
A/D変換部3A,3Bは、カメラ2A,2Bが撮影により取得した画像SA,SBをアナログデータからデジタルデータに変換する。
画像処理部4A,4Bは、A/D変換後の画像SA,SBに対して、階調処理および色変換処理等の画像処理を施す。
カメラ駆動機構6A,6Bは、カメラの輻輳角および/または基線長を変更するための、ステッピングモータ等により駆動される公知の機構である。そして、後述する入力部11からの指示により輻輳角および基線長の変更の指示がなされると、指示された変更量に応じてモータが駆動して、カメラ2A,2Bの輻輳角および/または基線長を変更する。
また、立体撮影装置1は、距離算出部7と、立体画像作成部8とを備える。
距離算出部7は、カメラ2A,2Bからカメラ2A,2Bの撮影範囲に含まれる被写体までの距離を測定するためのものであり、まずステレオマッチングの手法を用いてカメラ2A,2Bが取得した画像SA,SB上において互いに対応する対応点を求める。例えば、画像SA,SBから部分的な行列(例えば3×3画素)を取り出して相関値を求めることにより対応点を求める。そして、求めた対応点、カメラ2A,2Bの基線長、輻輳角およびズーム倍率を用いて、三角測量の原理を用いて画像SA,SBに共通に含まれる被写体までの距離(被写体距離)を算出する。具体的には、画像SA,SB上のすべての画素について、画素毎に被写体距離を算出する。
立体画像作成部8は、画像SA,SBを縦方向において1ラインずつ間引くとともに、間引いた画像SA,SBを1ラインずつ交互に並べることにより立体画像SRを作成する。
また、立体撮影装置1は、画像SA,SBおよび立体画像SRを表示するための液晶等のモニタ10と、立体撮影装置1に各種入力を行うためのキーボード等からなる入力部11と、立体画像SRをメモリカード等の記録媒体12に記録するための記録制御部13とを備える。さらに、立体撮影装置1は、CPU(Central Processor Unit)14、操作/制御プログラムが格納されるとともに作業領域となるRAM(Random Access Memory)15、および各種設定値が記憶されているEEPROM(Electronically Erasable and Programmable Read Only Memory)16からなる全体制御部17を備える。
さらに立体撮影装置1は、立体画像SRに含まれる被写体を、被写体距離に応じて分類する分類部18と、分類部18による分類結果に応じて立体画像SRの表示の態様を変更する表示態様変更部19とを備える。
ここで、立体視を行う場合の視差について説明する。図2は視差を説明するための図である。まず、図2(a)に示すように立体視を行わない状態で立体画像SRを観察した場合における両目から立体画像SRまでの距離を、遠近感の基準となる調整距離L0とする。なお、この場合の視差は角度αとなる。
立体画像SRにおいては、カメラ2A,2Bに近い被写体は視差が大きくなり、同一の被写体についての左目用の画像(左目像)および右目用の画像(右目像)の配置されるべき左右の位置が反転するため、図2(b)に示すように左目および右目の視線を立体画像SRの手前で交差させて融合視することにより、立体画像SRよりも手前に立体像R1を観察することができる。この場合における両目から立体像R1までの距離を輻輳距離L1とする。また、この場合の視差は角度βとなる。
一方、立体画像SRにおいては、カメラ2A,2Bから遠い被写体は視差が小さく、同一の被写体についての左目用の画像(左目像)および右目用の画像(右目像)の配置されるべき左右の位置は反転しないため、図2(c)に示すように左目および右目の視線を立体画像SRの向こう側で交差させて融合視することにより、立体画像SRよりも向こう側に立体像R2を観察することができる。この場合における両目から立体像R2までの距離を輻輳距離L2とする。また、この場合の視差は角度γとなる。
このように立体画像SRを観察することにより、輻輳距離L1,L2との差が立体画像SRに奥行き感を与えることとなる。
ところで、カメラ2A,2Bから遠い被写体は、図2(c)に示すように視差が小さいために見ていても疲労感は少ないが、カメラ2A,2Bに近い被写体は、図2(b)に示すように視差が大きいために視線を大きく交差させる必要があることから目の疲労感が大きい。ここで、角度αと角度βの差の絶対値が1度以下(すなわち|α−β|≦1)であると、疲労感を比較的少なくして立体視を行うことができる。
分類部18は、距離算出部7が算出した画像SA,SBの画素毎の被写体距離に基づいて、画像SA,SBに含まれる被写体を3つのグループに分類する。具体的には、視差が|α−β|≦1の関係を満たす適正な被写体距離の第1グループG1、視差がαよりも小さくなる遠景の被写体距離の第2グループG2および視差が|α−β|≦1の関係を満たさない不適正な被写体距離の第3グループG3に被写体、すなわち画像上の各画素を分類する。
図3は分類を説明するための図である。簡単のため、画像SA,SBには、背景となる空、人物および人物の前にある看板を被写体とする。この場合、人物の領域に含まれる画素が第1グループG1に、空の領域に含まれる画素が第2グループG2に、看板の領域に含まれる画素が第3グループG3に分類される。
表示態様変更部19は、分類部18による画像SA,SBの画素の分類結果に基づいて、モニタ10に表示される立体画像SRを色分けして表示する。図4はモニタ10の表示の例を示す図である。図4に示すように、本実施形態においてはモニタ10には画像SA,SBおよび立体画像SRが同時に表示されるが、立体画像SRについては、図5に示すように分類された画素毎に色分けがなされている。具体的には、各画素の色にグループ毎に異なる色を重畳することにより色分けを行う。ここで、図5においては、各グループG1〜G3の色が異なることを、異なるハッチングにより表している。なお、色分けのみならず、グループ毎に画像の透明度を変更してもよい。例えば、グループG1は透明度を0(すなわち全く透明でない)、グループG2は透明度を0.5(半分程度透明)、グループG3は透明度を0.1(殆ど透明)としてもよい。
次いで、第1の実施形態において行われる処理について説明する。図6は第1の実施形態において行われる処理を示すフローチャートである。立体撮影装置1の電源がオンとされることにより全体制御部17が処理を開始し、カメラ2A,2Bが撮影により取得し、A/D変換および画像処理が施された画像SA,SBをRAM15に取り込む(ステップST1)。次いで距離算出部7が、画像SA,SBに含まれる被写体の被写体距離を算出し(ステップST2)、立体画像作成部8が立体画像を作成する(ステップST3)。
次いで、分類部18が、距離算出部7が算出した画像SA,SBの画素毎の被写体距離に基づいて、画像SA,SBに含まれる被写体を3つのグループに分類する(ステップST4)。そして、表示態様変更部19が、立体画像SRを分類結果に応じて色分けして(ステップST5)、色分けされた立体画像SRを画像SA,SBとともにモニタ10に表示し(ステップST6)、ステップST1にリターンする。
このように、第1の実施形態においては、被写体距離に応じた被写体の分類結果に応じて、立体画像SRに含まれる被写体を色分けして表示するようにしたため、表示した立体画像SRを観察することにより、撮影しようとしている被写体の被写体距離を容易に認識することができる。したがって、好ましくない被写体距離となる被写体が撮影した画像SA,SBに含まれるか否かを容易に判断することができ、好ましくない被写体距離となる被写体が画像SA,SBに含まれる場合には、カメラ2A,2Bの基線長や輻輳角等を調整することが可能となる。これにより、好ましい被写体距離の被写体のみを含む画像を取得することができ、その結果、見ていても疲労感のない立体画像SRを作成することができる。
なお、第1の実施形態においては、被写体距離に応じて立体画像SRを色分けしているが、画像SA,SBを色分けして表示するようにしてもよく、画像SA,SBおよび立体画像SRの双方を色分けして表示するようにしてもよい。
次いで、本発明の第2の実施形態について説明する。なお、第2の実施形態による立体撮影装置は、第1の実施形態による立体撮影装置1と同一の構成を有し、表示態様変更部19が行う処理のみが異なるため、ここでは構成についての詳細な説明は省略する。第1の実施形態においては、被写体距離に応じて立体画像SRを色分けしていたが、第2の実施形態においては、グループG3に分類された画素を含む所定範囲の領域をマスキングするようにした点が第1の実施形態と異なる。
図7は第2の実施形態において行われる処理を示すフローチャートである。立体撮影装置1の電源がオンとされることにより全体制御部17が処理を開始し、カメラ2A,2Bが撮影により取得し、A/D変換および画像処理が施された画像SA,SBをRAM15に取り込む(ステップST11)。次いで距離算出部7が、画像SA,SBに含まれる被写体の被写体距離を算出し(ステップST12)、立体画像作成部8が立体画像を作成する(ステップST13)。
次いで、分類部18が、距離算出部7が算出した画像SA,SBの画素毎の被写体距離に基づいて、画像SA,SBに含まれる被写体を3つのグループに分類する(ステップST14)。そして、表示態様変更部19が、立体画像SRを所定数(例えば8)の領域に分割し(ステップST15)、分割により得られた各領域において、グループG3に分類された画素の割合を算出する(ステップST16)。そして、算出した割合がしきい値Th1(例えば30%)以上となる領域(エラー領域とする)をRAM15に記憶し(ステップST17)、立体画像SRにおけるエラー領域をマスキングし(ステップST18)、マスキングされた立体画像SRを画像SA,SBとともにモニタ10に表示し(ステップST19)、ステップST11にリターンする。
図8はマスキングを説明するための図である。図8に示すように立体画像SRを8つの領域A1〜A8に分割したとすると、グループG3に分類された画素は領域A5,A6に含まれ、その割合は領域A5,A6内の全画素に対して30%以上となっている。したがって、領域A5,A6のみが図9に示すようにマスキングされてモニタ10に表示される。なお、マスキングはマスキングする領域の色をグレーとすることにより行えばよい。なお、図9においてはマスキングする領域を黒としている。
このように第2の実施形態においては、立体画像SR上におけるグループG3の被写体距離となる被写体を含む領域のみをマスキングするようにしたため、立体画像SRにおいて疲労感を与えるような被写体距離の領域を立体視することができなくなる。したがって、見ていても疲労感のない立体画像SRを作成することができる。
なお、第2の実施形態においては、領域A5,A6をマスキングしているが、グループG3に分類された画素からなる領域のみをマスキングするようにしてもよい。
次いで、本発明の第3の実施形態について説明する。なお、第3の実施形態による立体撮影装置は、第1の実施形態による立体撮影装置1と同一の構成を有し、表示態様変更部19が行う処理のみが異なるため、ここでは構成についての詳細な説明は省略する。第1の実施形態においては、被写体距離に応じて立体画像SRを色分けしていたが、第3の実施形態においては、立体画像におけるグループG3に分類された画素を含む所定範囲の領域を、画像SAまたは画像SBの対応する領域と置換するようにした点が第1の実施形態と異なる。
図10は第3の実施形態において行われる処理を示すフローチャートである。立体撮影装置1の電源がオンとされることにより全体制御部17が処理を開始し、カメラ2A,2Bが撮影により取得し、A/D変換および画像処理が施された画像SA,SBをRAM15に取り込む(ステップST21)。次いで距離算出部7が、画像SA,SBに含まれる被写体の被写体距離を算出し(ステップST22)、立体画像作成部8が立体画像を作成する(ステップST23)。
次いで、分類部18が、距離算出部7が算出した画像SA,SBの画素毎の被写体距離に基づいて、画像SA,SBに含まれる被写体を3つのグループに分類する(ステップST24)。そして、表示態様変更部19が、立体画像SRを所定数(例えば8)の領域に分割し(ステップST25)、分割により得られた各領域において、グループG3に分類された画素の割合を算出する(ステップST26)。そして、算出した割合がしきい値Th1(例えば30%)以上となるエラー領域をRAM15に記憶し(ステップST27)、立体画像SRにおけるエラー領域を、画像SAまたは画像SBにおけるエラー領域に対応する領域と置換し(ステップST28)、エラー領域が置換された立体画像SRを画像SA,SBとともにモニタ10に表示し(ステップST29)、ステップST21にリターンする。
ここで、上記図8に示すように立体画像SRを8つの領域A1〜A8に分割したとすると、グループG3に分類された画素は領域A5,A6に含まれ、その割合は30%以上となっている。したがって、第3の実施形態によれば、領域A5,A6のみが図11に示すように画像SAの対応する領域と置換されてモニタ10に表示される。
このように第3の実施形態においては、立体画像SRにおいて、グループG3の被写体距離となる被写体を含む領域のみを画像SAまたは画像SBにおける対応する領域と置換するようにしたため、立体画像SRにおいて疲労感を与えるような被写体距離の領域を立体視することができなくなる。したがって、見ていても疲労感のない立体画像SRを作成することができる。
なお、第3の実施形態においては、領域A5,A6を画像SAと置換しているが、グループG3に分類された画素からなる領域のみを画像SAと置換するようにしてもよい。
次いで、本発明の第4の実施形態について説明する。図12は本発明の第4の実施形態による立体撮影装置の構成を示す概略ブロック図である。なお、第4の実施形態において第1の実施形態と同一の構成については同一の参照番号を付与し、ここでは詳細な説明は省略する。第4の実施形態による立体撮影装置1Aは、第1の実施形態における表示態様変更部19に代えて、警告部20を備えた点が第1の実施形態と異なる。
次いで、第4の実施形態において行われる処理について説明する。図13は第4の実施形態において行われる処理を示すフローチャートである。立体撮影装置1Aの電源がオンとされることにより全体制御部17が処理を開始し、カメラ2A,2Bが撮影により取得し、A/D変換および画像処理が施された画像SA,SBをRAM15に取り込む(ステップST31)。次いで距離算出部7が、画像SA,SBに含まれる被写体の被写体距離を算出し(ステップST32)、立体画像作成部8が立体画像を作成する(ステップST33)。
次いで、分類部18が、距離算出部7が算出した画像SA,SBの画素毎の被写体距離に基づいて、画像SA,SBに含まれる被写体を3つのグループに分類する(ステップST34)。そして、警告部20が、グループG3に分類された画素の立体画像SRの全画素に対する割合を算出する(ステップST35)。そして、算出した割合がしきい値Th2(例えば30%)以上であるか否かを判定し(ステップST36)、ステップST36が肯定されるとモニタ10に立体画像SRを表示するともに表示された立体画像SR上に警告表示を行い(ステップST37)、ステップST31にリターンする。一方、ステップST36が否定されると、ステップST31にリターンする。
図14は警告表示の例を示す図である。図14に示すように、ステップST36が肯定された場合に、立体画像SRに重畳して「立体視非適正範囲が多すぎます。調整を行って下さい」の警告表示30が行われる。
このように第4の実施形態においては、立体画像SRにおいて、グループG3の被写体距離となる画素の割合が所定値Th2以上の場合に警告表示30を行うようにしたため、表示された立体画像SRを観察することにより、好ましくない被写体距離となる被写体が撮影した画像SA,SBに含まれるか否かを容易に判断することができる。したがって、警告表示30がなされた場合には、カメラ2A,2Bの基線長や輻輳角等を調整することが可能となる。これにより、好ましい被写体距離の被写体のみを含む画像を取得することができ、その結果、見ていても疲労感のない立体画像SRを作成することができる。
なお、上記第4の実施形態においては、警告表示30を行った後も撮影を続けているが、警告表示30を行った後に撮影を停止してもよい。これにより、疲労感が大きい画像が記録媒体12に記録されてしまい、記録媒体12が無駄に消費されてしまうことを防止することができる。
次いで、本発明の第5の実施形態について説明する。図15は本発明の第5の実施形態による立体撮影装置の構成を示す概略ブロック図である。なお、第5の実施形態において第1の実施形態と同一の構成については同一の参照番号を付与し、ここでは詳細な説明は省略する。第5の実施形態による立体撮影装置1Bは、第1の実施形態における立体撮影装置1において、警告部20をさらに備えた点が第1の実施形態と異なる。
次いで、第5の実施形態において行われる処理について説明する。図16は第5の実施形態において行われる処理を示すフローチャートである。立体撮影装置1Aの電源がオンとされることにより全体制御部17が処理を開始し、カメラ2A,2Bが撮影により取得し、A/D変換および画像処理が施された画像SA,SBをRAM15に取り込む(ステップST41)。次いで距離算出部7が、画像SA,SBに含まれる被写体の被写体距離を算出し(ステップST42)、立体画像作成部8が立体画像を作成する(ステップST43)。
次いで、分類部18が、距離算出部7が算出した画像SA,SBの画素毎の被写体距離に基づいて、画像SA,SBに含まれる被写体を3つのグループに分類する(ステップST44)。そして、表示態様変更部19が、立体画像SRを分類結果に応じて色分けして(ステップST45)、色分けされた立体画像SRを画像SA,SBとともにモニタ10に表示する(ステップST46)。
次いで警告部20が、グループG3に分類された画素の立体画像SRの全画素に対する割合を算出する(ステップST47)。そして、算出した割合がしきい値Th2(例えば30%)以上であるか否かを判定し(ステップST48)、ステップST48が肯定されると、警告部20が表示された立体画像SR上に警告表示を行い(ステップST49)、ステップST41にリターンする。一方、ステップST48が否定されると、ステップST41にリターンする。
このように第5の実施形態においては、警告表示30を行うとともに、立体画像SRに含まれる被写体を色分けして表示するようにしたため、表示された立体画像SRを観察することにより、撮影しようとしている被写体の被写体距離を容易に認識することができるとともに、好ましくない被写体距離となる被写体が撮影した画像SA,SBに含まれるか否かを容易に判断することができる。したがって、警告表示30がなされた場合には、カメラ2A,2Bの基線長や輻輳角等を調整することが可能となり、これにより、好ましい被写体距離の被写体のみを含む画像を取得することができ、その結果、見ていても疲労感のない立体画像SRを作成することができる。
なお、上記第5の実施形態においては、表示態様変更部19が第1の実施形態と同様に立体画像SRを色分けしているが、第2の実施形態と同様にマスキングを行ってもよく、第3の実施形態と同様に、立体画像SRにおけるグループG3に分類された領域を画像SAまたは画像SBの対応する領域と置換するようにしてもよい。
次いで、本発明の第6の実施形態について説明する。図17は本発明の第6の実施形態による立体撮影装置の構成を示す概略ブロック図である。なお、第6の実施形態において第1の実施形態と同一の構成については同一の参照番号を付与し、ここでは詳細な説明は省略する。第6の実施形態による立体撮影装置1Cは、第1の実施形態における表示態様変更部19に代えて、警告部20およびカメラ調整部21を備えた点が第1の実施形態と異なる。
カメラ調整部21は、グループG3に分類された画素の立体画像SRの全画素に対する割合がしきい値Th2(例えば30%)以上である場合、画像SA,SBの視差が所定のしきい値Th3以下となるように、輻輳角変更の指示をカメラ駆動機構6A,6Bに行う。これにより、カメラ駆動機構6A,6Bがカメラ2A,2Bの輻輳角を変更する。
次いで、第6の実施形態において行われる処理について説明する。図18は第6の実施形態において行われる処理を示すフローチャートである。立体撮影装置1Cの電源がオンとされることにより全体制御部17が処理を開始し、カメラ2A,2Bが撮影により取得し、A/D変換および画像処理が施された画像SA,SBをRAM15に取り込む(ステップST51)。次いで距離算出部7が、画像SA,SBに含まれる被写体の被写体距離を算出し(ステップST52)、立体画像作成部8が立体画像を作成する(ステップST53)。
次いで、分類部18が、距離算出部7が算出した画像SA,SBの画素毎の被写体距離に基づいて、画像SA,SBに含まれる被写体を3つのグループに分類する(ステップST54)。そして、警告部20が、グループG3に分類された画素の立体画像SRの全画素に対する割合を算出する(ステップST55)。そして、算出した割合がしきい値Th2(例えば30%)以上であるか否かを判定し(ステップST56)、ステップST56が否定されると、ステップST51にリターンする。
ステップST56が肯定されると、モニタ10に立体画像SRを表示するともに、表示された立体画像SR上に警告表示を行い(ステップST57)、カメラ調整部21が、カメラ2A,2Bの輻輳角を1ステップ変更する指示をカメラ駆動機構6A,6Bに対して行う(ステップST58)。
次いで、立体画像作成部8がグループG3に分類された画素についての視差がしきい値Th3以上であるか否かを判定する(ステップST59)。ステップST59が否定されるとステップST51にリターンする。ステップST59が肯定されると、ステップST57に戻り、ステップST57以降の処理を繰り返す。
図19は輻輳角の変更を説明するための図である。図19に示すように画像SA,SBの視差が大きいと立体画像SRにおいて被写体のずれが大きくなるため、立体視をしようとすると非常に疲労感が大きくなる。これは画像SA,SBの画角のずれが大きいためである。このため、第6の実施形態のようにカメラ2A,2Bの輻輳角を変更して画角のずれを小さくすると視差も小さくなるため、図20に示すように立体画像SRにおいて被写体のずれを小さくすることができる。このため、容易に立体視を行うことができ、その結果、観察時に疲労感の少ない立体画像SRを作成することができる。
なお、上記第6の実施形態においては、カメラ2A,2Bの輻輳角を変更しているが、基線長を変更してもよい。また、図21に示すように、カメラ2A,2Bのズーム倍率を小さくなるように変更することによっても、視差のずれを小さくすることができる。
また、上記第6の実施形態においては、警告部20を備え、警告表示を行った後にカメラ2A,2Bの輻輳角を変更しているが、警告部20を省略し、警告表示を行うことなくカメラ2A,2Bの輻輳角を変更するようにしてもよい。
また、上記第4から第6の実施形態においては、警告部20がモニタ10に警告表示30を行っているが、音声による警告を行うようにしてもよい。また、警告表示30および音声による警告の双方を同時に行うようにしてもよい。
次いで、本発明の第7の実施形態について説明する。図22は本発明の第7の実施形態による立体撮影装置の構成を示す概略ブロック図である。なお、第7の実施形態において第1の実施形態と同一の構成については同一の参照番号を付与し、ここでは詳細な説明は省略する。第7の実施形態による立体撮影装置1Dは、距離検出カメラ23を備え、距離算出部7が算出した被写体距離に代えて、距離検出カメラ23が検出した被写体距離を用いて被写体の分類を行うようにした点が第1の実施形態と異なる。
距離検出カメラ23は、被写体に向けて出射した近赤外線等の測距光が被写体により反射して戻ってくるまでの時間を計測することにより、カメラ2A,2Bから被写体までの距離を測定する、TOF(Time Of Flight)方式のカメラである。なお、撮影する画像の焦点位置を検出し、その焦点位置に基づいて被写体距離を算出するものであってもよい。
このように距離検出カメラ23を用いて被写体距離を算出することによっても、上記第1から第6の実施形態と同様に、被写体距離に応じて被写体を分類することができる。
本発明の第1の実施形態による立体撮影装置の構成を示す概略ブロック図 視差を説明するための図 分類を説明するための図 モニタの表示の例を示す図 色分けされた立体画像を示す図 第1の実施形態において行われる処理を示すフローチャート 第2の実施形態において行われる処理を示すフローチャート マスキングを説明するための図(その1) マスキングを説明するための図(その2) 第3の実施形態において行われる処理を示すフローチャート 画像の置換を説明するための図 本発明の第4の実施形態による立体撮影装置の構成を示す概略ブロック図 第4の実施形態において行われる処理を示すフローチャート 警告表示の例を示す図 本発明の第4の実施形態による立体撮影装置の構成を示す概略ブロック図 第5の実施形態において行われる処理を示すフローチャート 本発明の第6の実施形態による立体撮影装置の構成を示す概略ブロック図 第6の実施形態において行われる処理を示すフローチャート 輻輳角の変更を説明するための図(その1) 輻輳角の変更を説明するための図(その2) ズーム倍率の変更を説明するための図 本発明の第7の実施形態による立体撮影装置の構成を示す概略ブロック図
符号の説明
1,1A〜1D 立体撮影装置
2A,2B カメラ
5 カメラ制御部
6A,6B カメラ駆動機構
7 距離算出部
8 立体画像作成部
10 モニタ
17 全体制御部
18 分類部
19 表示態様変更部
20 警告部
21 カメラ調整部

Claims (10)

  1. 被写体を異なる複数の視点から撮影することにより、各視点における複数の画像を取得する複数の撮影手段と、
    前記複数の撮影手段から前記被写体までの距離である被写体距離を測定する測距手段と、
    前記画像に含まれる被写体を、前記被写体距離に応じた複数のグループに分類し、該分類結果を出力する分類手段と
    前記複数の画像および/または該複数の画像から作成した立体画像を表示する表示手段と、
    前記複数の画像および/または該複数の画像から作成した立体画像を表示するに際し、前記分類結果に基づいて、前記複数の画像および/または前記立体画像に含まれる、所定の被写体距離となる被写体を含む領域をマスキングする表示態様変更手段とを備えたことを特徴とする立体撮影装置。
  2. 被写体を異なる複数の視点から撮影することにより、各視点における複数の画像を取得する複数の撮影手段と、
    前記複数の撮影手段から前記被写体までの距離である被写体距離を測定する測距手段と、
    前記画像に含まれる被写体を、前記被写体距離に応じた複数のグループに分類し、該分類結果を出力する分類手段と
    前記複数の画像および/または該複数の画像から作成した立体画像を表示する表示手段と、
    前記複数の画像および/または該複数の画像から作成した立体画像を表示するに際し、前記分類結果に基づいて、前記立体画像に含まれる、所定の被写体距離となる被写体を含む領域を、前記複数の画像のいずれかの画像に含まれる対応する領域の画像と置換する表示態様変更手段とを備えたことを特徴とする立体撮影装置。
  3. 前記分類結果に基づいて、前記所定の被写体距離となる被写体が占める領域の前記複数の画像および/または前記立体画像に対する割合を算出し、該割合が所定値以上の場合に警告を行う警告手段をさらに備えたことを特徴とする請求項1または2記載の立体撮影装置。
  4. 前記分類結果に基づいて、前記所定の被写体距離となる被写体が占める領域の前記複数の画像および/または前記立体画像に対する割合を算出し、該割合が所定値以上の場合に、前記複数の撮影手段の輻輳角、基線長およびズーム倍率のうちの少なくとも1つを調整する調整手段をさらに備えたことを特徴とする請求項1または2記載の立体撮影装置。
  5. 前記測距手段は、前記複数の画像からステレオマッチングの手法を用いて前記被写体距離を測定する手段であることを特徴とする請求項1から4のいずれか1項記載の立体撮影装置。
  6. 前記測距手段は、前記被写体に向けて出射した測距光が該被写体により反射して戻ってくるまでの時間を計測することにより前記被写体距離を測定する手段であることを特徴とする請求項1から4のいずれか1項記載の立体撮影装置。
  7. 被写体を異なる複数の視点から撮影することにより、各視点における複数の画像を取得し、
    前記複数の撮影手段から前記被写体までの距離である被写体距離を測定し、
    前記画像に含まれる被写体を、前記被写体距離に応じた複数のグループに分類し、該分類結果を出力し、
    前記複数の画像および/または該複数の画像から作成した立体画像を表示するに際し、前記分類結果に基づいて、前記複数の画像および/または前記立体画像に含まれる、所定の被写体距離となる被写体を含む領域をマスキングすることを特徴とする立体撮影方法。
  8. 被写体を異なる複数の視点から撮影することにより、各視点における複数の画像を取得し、
    前記複数の撮影手段から前記被写体までの距離である被写体距離を測定し、
    前記画像に含まれる被写体を、前記被写体距離に応じた複数のグループに分類し、該分類結果を出力し、
    前記複数の画像および/または該複数の画像から作成した立体画像を表示するに際し、前記分類結果に基づいて、前記立体画像に含まれる、所定の被写体距離となる被写体を含む領域を、前記複数の画像のいずれかの画像に含まれる対応する領域の画像と置換することを特徴とする立体撮影方法。
  9. 被写体を異なる複数の視点から撮影することにより、各視点における複数の画像を取得する手順と、
    前記複数の撮影手段から前記被写体までの距離である被写体距離を測定する手順と、
    前記画像に含まれる被写体を、前記被写体距離に応じた複数のグループに分類し、該分類結果を出力する手順と
    前記複数の画像および/または該複数の画像から作成した立体画像を表示する手順と、
    前記分類結果に基づいて、前記複数の画像および/または前記立体画像に含まれる、所定の被写体距離となる被写体を含む領域をマスキングする手順とを有することを特徴とする立体撮影方法をコンピュータに実行させるためのプログラム。
  10. 被写体を異なる複数の視点から撮影することにより、各視点における複数の画像を取得する手順と、
    前記複数の撮影手段から前記被写体までの距離である被写体距離を測定する手順と、
    前記画像に含まれる被写体を、前記被写体距離に応じた複数のグループに分類し、該分類結果を出力する手順と
    前記複数の画像および/または該複数の画像から作成した立体画像を表示する手順と、
    前記分類結果に基づいて、前記立体画像に含まれる、所定の被写体距離となる被写体を含む領域を、前記複数の画像のいずれかの画像に含まれる対応する領域の画像と置換する手順とを有することを特徴とする立体撮影方法をコンピュータに実行させるためのプログラム。
JP2007038816A 2007-02-20 2007-02-20 立体撮影装置および方法並びにプログラム Expired - Fee Related JP4757812B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007038816A JP4757812B2 (ja) 2007-02-20 2007-02-20 立体撮影装置および方法並びにプログラム
US12/033,595 US8111875B2 (en) 2007-02-20 2008-02-19 Method of and apparatus for taking solid image and computer program for causing computer to execute the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007038816A JP4757812B2 (ja) 2007-02-20 2007-02-20 立体撮影装置および方法並びにプログラム

Publications (2)

Publication Number Publication Date
JP2008205758A JP2008205758A (ja) 2008-09-04
JP4757812B2 true JP4757812B2 (ja) 2011-08-24

Family

ID=39706694

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007038816A Expired - Fee Related JP4757812B2 (ja) 2007-02-20 2007-02-20 立体撮影装置および方法並びにプログラム

Country Status (2)

Country Link
US (1) US8111875B2 (ja)
JP (1) JP4757812B2 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5531467B2 (ja) * 2009-07-03 2014-06-25 ソニー株式会社 撮像装置、および画像処理方法、並びにプログラム
US8509519B2 (en) * 2009-07-29 2013-08-13 Intellectual Ventures Fund 83 Llc Adjusting perspective and disparity in stereoscopic image pairs
WO2011070774A1 (ja) * 2009-12-09 2011-06-16 パナソニック株式会社 3d映像処理装置および3d映像処理方法
JP5395911B2 (ja) * 2009-12-28 2014-01-22 パナソニック株式会社 ステレオ画像符号化装置、方法
EP2355526A3 (en) * 2010-01-14 2012-10-31 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
JP5898842B2 (ja) 2010-01-14 2016-04-06 任天堂株式会社 携帯型情報処理装置、携帯型ゲーム装置
JP5553202B2 (ja) * 2010-01-14 2014-07-16 株式会社リコー 距離測定装置及び距離測定方法
JP5347987B2 (ja) * 2010-01-20 2013-11-20 株式会社Jvcケンウッド 映像処理装置
US9049434B2 (en) 2010-03-05 2015-06-02 Panasonic Intellectual Property Management Co., Ltd. 3D imaging device and 3D imaging method
JP5432365B2 (ja) * 2010-03-05 2014-03-05 パナソニック株式会社 立体撮像装置および立体撮像方法
WO2011108276A1 (ja) * 2010-03-05 2011-09-09 パナソニック株式会社 立体撮像装置、および立体撮像方法
JP5800501B2 (ja) * 2010-03-12 2015-10-28 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、及び、表示制御方法
JP4894939B2 (ja) * 2010-03-15 2012-03-14 カシオ計算機株式会社 撮像装置、表示方法、および、プログラム
WO2011148556A1 (ja) * 2010-05-25 2011-12-01 パナソニック株式会社 画像符号化装置、画像符号化方法、プログラムおよび集積回路
US8384770B2 (en) 2010-06-02 2013-02-26 Nintendo Co., Ltd. Image display system, image display apparatus, and image display method
JP5546960B2 (ja) * 2010-06-14 2014-07-09 任天堂株式会社 立体画像表示プログラム、立体画像表示装置、立体画像表示システム、および、立体画像表示方法
KR101674956B1 (ko) 2010-07-12 2016-11-10 엘지전자 주식회사 이동 단말기 및 3차원 영상 제어 방법
KR101731343B1 (ko) * 2010-07-14 2017-04-28 엘지전자 주식회사 이동 단말기 및 그 제어방법
JP2012034215A (ja) * 2010-07-30 2012-02-16 Sony Corp 画像処理装置および方法、並びにプログラム
EP2608553A4 (en) * 2010-08-19 2014-04-16 Panasonic Corp STEREOSCOPIC IMAGE RECORDING DEVICE AND STEREOSCOPIC IMAGE RECORDING METHOD
JP5704885B2 (ja) * 2010-10-25 2015-04-22 オリンパスイメージング株式会社 撮影機器、撮影方法及び撮影制御プログラム
JP6021296B2 (ja) 2010-12-16 2016-11-09 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、および、表示制御方法
US20120162394A1 (en) * 2010-12-23 2012-06-28 Tektronix, Inc. Displays for easy visualizing of 3d disparity data
WO2012101900A1 (ja) * 2011-01-26 2012-08-02 富士フイルム株式会社 立体撮像用ディジタル・カメラおよびその動作制御方法
JP5659856B2 (ja) * 2011-02-25 2015-01-28 カシオ計算機株式会社 撮像装置、撮像方法、及びプログラム
DE102011005867A1 (de) 2011-03-21 2012-09-27 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Hydrothermale Herstellung von Nanopartikeln mit clickfähigen Linkern an der Oberfläche
JP5767715B2 (ja) * 2011-09-30 2015-08-19 富士フイルム株式会社 撮像装置、撮像方法及びプログラム
JP6246911B2 (ja) * 2014-05-02 2017-12-20 富士フイルム株式会社 測距装置、測距方法、及び測距プログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5745101A (en) * 1991-02-14 1998-04-28 Canon Kabushiki Kaisha Method and apparatus for controlling image display
JP2750410B2 (ja) * 1992-11-30 1998-05-13 大日本スクリーン製造株式会社 製版指定情報の設定方法
US5510831A (en) * 1994-02-10 1996-04-23 Vision Iii Imaging, Inc. Autostereoscopic imaging apparatus and method using suit scanning of parallax images
JPH10155104A (ja) * 1996-11-22 1998-06-09 Canon Inc 複眼撮像方法及び装置並びに記憶媒体
JPH10170227A (ja) 1996-12-12 1998-06-26 Canon Inc 表示装置
US7106376B1 (en) * 1998-10-22 2006-09-12 Flashpoint Technology, Inc. Method and system for improving image quality of portrait images using a focus zone shift
US7187389B2 (en) * 2001-04-12 2007-03-06 International Business Machines Corporation System and method for simultaneous display of multiple object categories
JP2003209858A (ja) 2002-01-17 2003-07-25 Canon Inc 立体画像生成方法及び記録媒体
JP2003259189A (ja) * 2002-03-01 2003-09-12 Sony Corp 撮像装置,画像処理方法
JP3691444B2 (ja) 2002-03-11 2005-09-07 三洋電機株式会社 立体画像撮像装置
JP2004165710A (ja) * 2002-09-27 2004-06-10 Sharp Corp 立体画像表示装置、立体画像記録方法及び立体画像伝送方法
JP4324403B2 (ja) * 2003-04-09 2009-09-02 富士重工業株式会社 移動体の視界装置
JP2005167310A (ja) * 2003-11-28 2005-06-23 Sharp Corp 撮影装置
JP4701027B2 (ja) * 2004-09-02 2011-06-15 キヤノン株式会社 情報処理装置、制御方法及びプログラム
US7567704B2 (en) * 2005-11-30 2009-07-28 Honeywell International Inc. Method and apparatus for identifying physical features in video

Also Published As

Publication number Publication date
JP2008205758A (ja) 2008-09-04
US20080199046A1 (en) 2008-08-21
US8111875B2 (en) 2012-02-07

Similar Documents

Publication Publication Date Title
JP4757812B2 (ja) 立体撮影装置および方法並びにプログラム
JP4637942B2 (ja) 3次元表示装置および方法並びにプログラム
JP4657313B2 (ja) 立体画像表示装置および方法並びにプログラム
JP4695664B2 (ja) 立体動画像処理装置および方法並びにプログラム
JP5414947B2 (ja) ステレオ撮影装置
US6944328B2 (en) Method and apparatus of generating three dimensional image data having one file structure and recording the image data on a recording medium, and recording medium for storing the three dimensional image data having one file structure
CN102165785B (zh) 三维成像装置和方法
CN102124749B (zh) 立体图像显示装置
US6389153B1 (en) Distance information generator and display device using generated distance information
US8130259B2 (en) Three-dimensional display device and method as well as program
WO2012029298A1 (ja) 撮影装置および画像処理方法
WO2012029299A1 (ja) 撮影装置、再生装置、および画像処理方法
JP2011248693A (ja) 画像処理装置、画像処理方法および画像処理プログラムならびに撮像装置
JP2003187261A (ja) 3次元画像生成装置、3次元画像生成方法、立体画像処理装置、立体画像撮影表示システム、立体画像処理方法及び記憶媒体
CN102972035A (zh) 立体全景图像合成装置、多眼成像装置和立体全景图像合成方法
US8072487B2 (en) Picture processing apparatus, picture recording apparatus, method and program thereof
JP5214547B2 (ja) 画像表示装置および方法並びにプログラム
JP2002232913A (ja) 複眼カメラ及び立体視画像観察システム
US20110243384A1 (en) Image processing apparatus and method and program
JP2002218506A (ja) 撮像装置
JP2006267767A (ja) 画像表示装置
JP3939127B2 (ja) 撮像装置
JP4852169B2 (ja) 3次元表示装置および方法並びにプログラム
JP6241107B2 (ja) 視線方向検出装置および視線方向検出方法
JP2006013609A (ja) 多視点立体画像撮影装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090911

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110308

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110405

RD15 Notification of revocation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7435

Effective date: 20110415

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110601

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140610

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees