JP5449536B2 - 立体画像再生装置及び方法、立体撮像装置、立体ディスプレイ装置 - Google Patents

立体画像再生装置及び方法、立体撮像装置、立体ディスプレイ装置 Download PDF

Info

Publication number
JP5449536B2
JP5449536B2 JP2012512838A JP2012512838A JP5449536B2 JP 5449536 B2 JP5449536 B2 JP 5449536B2 JP 2012512838 A JP2012512838 A JP 2012512838A JP 2012512838 A JP2012512838 A JP 2012512838A JP 5449536 B2 JP5449536 B2 JP 5449536B2
Authority
JP
Japan
Prior art keywords
image
display
viewpoint
stereoscopic
maximum
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012512838A
Other languages
English (en)
Other versions
JPWO2011136190A1 (ja
Inventor
敏 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2012512838A priority Critical patent/JP5449536B2/ja
Publication of JPWO2011136190A1 publication Critical patent/JPWO2011136190A1/ja
Application granted granted Critical
Publication of JP5449536B2 publication Critical patent/JP5449536B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • H04N13/359Switching between monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440218Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by transcoding between formats or standards, e.g. from MPEG-2 to MPEG-4
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440263Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/10Use of a protocol of communication by packets in interfaces along the display data pipeline
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/12Use of DVI or HDMI protocol in interfaces along the display data pipeline
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/002Eyestrain reduction by processing stereoscopic signals or controlling stereoscopic devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は立体画像再生装置及び方法、立体撮像装置、立体ディスプレイ装置に係り、特に、3次元画像ファイルに記録された立体画像を適切に再生表示する技術に関する。
立体撮像装置は、左右に視差をもって並べられた2つの撮像部(撮像手段)を使って同一被写体を左右の視点から撮影し、左目用の画像と右目用の画像とをそれぞれ取得して記録媒体に記録している。この取得した左右の画像が記録媒体から読み出され、3次元(3D)表示が可能な3Dディスプレイに入力され、左目用の画像と右目用の画像とが左右の目で別々に視認できるように表示されることにより、立体画像として認識できるようになる。
ところが、3Dディスプレイには様々な画面のサイズのものがあり、記録された左右の画像の視差量が、当該左右画像を再生表示しようとする3Dディスプレイのサイズに対して適切でない場合も存在する。このような場合、画面からの飛び出し量や引っ込み量が過大となり、自然な立体画像として認識できないという問題点が発生する。
このような課題に対して、再生装置において、左目用の画像と右目用の画像とから任意の視点で見えるべき中間視点画像を生成することが行われている。このように、視点の異なる複数の画像から中間視点画像を生成するためには、画像間で画素の対応を求めて奥行きを推定する必要がある。
しかし、表示時に目の疲れにくい表示(例えば視差制御)を行おうとする際に、どの奥行き範囲に対して行えばよいのかわからないという課題を有していた。このような表示を行うには、撮影時の視野角や撮像面のサイズ、レンズ中心と撮像面との距離等の条件をもとに、観察距離を適切に決定する必要がある。
この問題を解決するために、特許文献1には、2視点以上の画像の伝送において、画像を撮像するカメラの撮像サイズ及びレンズ中心と撮像面との距離の情報を伝送する技術が開示されている。この技術によれば、表示側において撮像時の視野角の情報を得ることができる。
特開2003−333621号公報
しかしながら、特許文献1の技術では、表示装置側の処理が煩雑であるという欠点があった。また、データ伝送に関する技術であるため、立体画像が記録媒体に記録される場合に、これらの情報がどのように記録されるのかは開示されていない。
本発明はこのような事情に鑑みてなされたもので、3次元画像ファイルに記録された付属情報に基づいて適切な視差量で立体画像を表示する立体画像再生装置及び方法、立体撮像装置、立体ディスプレイ装置を提供することを目的とする。
前記目的を達成するために第一発明の立体画像再生装置は、立体視用の複数の視点画像と、該複数の視点画像に対する付属情報であって、前記複数の視点画像を立体ディスプレイに表示させる際に両眼融合可能な最大ディスプレイサイズを含む付属情報とが記録された3次元画像ファイルを読み取り、該3次元画像ファイルから前記複数の視点画像及び付属情報を取得する第1の取得手段と、出力先の立体ディスプレイのディスプレイサイズを取得する第2の取得手段と、前記取得された前記立体ディスプレイのディスプレイサイズと前記最大ディスプレイサイズとを比較し、前記立体ディスプレイのディスプレイサイズが前記最大ディスプレイサイズよりも大きいか否かを判別する判別手段と、前記立体ディスプレイのディスプレイサイズが前記最大ディスプレイサイズよりも大きいと判別されると、前記第1の取得手段により取得された複数の視点画像に基づいて該複数の視点画像間の少なくとも遠景側の視差が小さくなる複数の視点画像を生成する画像処理手段と、前記判別手段により前記立体ディスプレイのディスプレイサイズが前記最大ディスプレイサイズよりも大きいと判別されると、前記画像処理手段により生成された視点画像を前記立体ディスプレイに出力し、前記立体ディスプレイのディスプレイサイズが前記最大ディスプレイサイズ以下と判別されると、前記第1の取得手段により取得された視点画像を前記立体ディスプレイに出力する出力手段とを備えたことを特徴とする。なお、ここでいう「遠景側」とは、撮像手段から被写体側に離間する遠位側を言うものであり、反対に「近景側」とは、遠景側とは反対に、被写体から撮像手段側に近づく近位側を言うものである。
上記の第一発明によれば、立体ディスプレイのディスプレイサイズと3次元画像ファイルから取得した最大ディスプレイサイズとを比較し、立体ディスプレイのディスプレイサイズの方が大きいと判別されると、少なくとも遠景側の視差が小さくなる複数の視点画像を生成して立体ディスプレイに出力するようにしたので、適切な視差量で立体画像を表示することができる。
また、前記目的を達成するために第二発明の立体画像再生装置は、立体視用の複数の視点画像と、該複数の視点画像における遠景側の最大視差量を含む付属情報とが記録された3次元画像ファイルを読み取り、該3次元画像ファイルから前記複数の視点画像及び付属情報を取得する第1の取得手段と、出力先の立体ディスプレイのディスプレイサイズを取得する第2の取得手段と、前記取得した遠景側の最大視差量と前記立体ディスプレイのディスプレイサイズと人間の両眼間隔を示す所定値とに基づいて、前記複数の視点画像を立体ディスプレイに表示する際に両眼融合可能か否かを判別する判別手段と、前記判別手段により両眼融合不能と判別されると、前記第1の取得手段により取得された複数の視点画像に基づいて該複数の視点画像間の遠景側の視差が小さくなる複数の視点画像を生成する画像処理手段と、前記判別手段により両眼融合不能と判別されると、前記画像処理手段により生成された視点画像を前記立体ディスプレイに出力し、前記両眼融合可能と判別されると、前記第1の取得手段により取得された視点画像を前記立体ディスプレイに出力する出力手段とを備えたことを特徴とする。
上記第二発明によれば、3次元画像ファイルから取得した少なくとも遠景側の最大視差量と立体ディスプレイのディスプレイサイズと人間の両眼間隔を示す所定値とに基づいて、3次元画像ファイルから取得した複数の視点画像を立体ディスプレイに表示する際に両眼融合可能か否かを判別し、両眼融合不能と判別した場合には少なくとも遠景側の視差が小さくなる複数の視点画像を生成して立体ディスプレイに出力するようにしたので、適切な視差量で立体画像を表示することができる。
また、第二発明の立体画像再生装置において、前記判別手段は、前記取得した遠景側の最大視差量と前記立体ディスプレイのディスプレイサイズとに基づいて、前記複数の視点画像を前記立体ディスプレイに表示させた場合の、前記最大視差量に対応する立体ディスプレイ上での画像ずれ量を算出する画像ずれ量算出手段を有し、前記算出された画像ずれ量が人間の両眼間隔を示す所定値を越えるか否かより両眼融合可能か否かを判別することが好ましい。
これにより、適切に両眼融合可能か否かを判別することができる。
更に、第一発明及び第二発明の立体画像再生装置において、前記画像処理手段は、前記立体ディスプレイ上での前記複数の視点画像の遠景側の最大視差量を、人間の両眼間隔を示す所定値以下とする前記複数の視点画像間の視差ずらしを実施し、該視差ずらしされた視点シフト画像を生成することが好ましい。
これにより、適切に視点画像を生成することができる。
更にまた、第一発明及び第二発明の立体画像再生装置において、前記3次元画像ファイルの付属情報は、前記複数の視点画像における近景側の最大視差量を含み、前記立体ディスプレイ上での前記複数の視点画像の近景側の最大視差量と前記視点シフト画像の前記立体ディスプレイ上でのずらし量とを加算する加算手段と、前記加算された近景側の最大視差量に対応する画像ずれ量が前記立体ディスプレイに表示される際に両眼融合限界を越えるか否かを判別する判別手段とを備え、前記出力手段は、前記判別手段により画像ずれ量が両眼融合限界を越えると判別されると、前記第1の取得手段により取得された複数の視点画像のうちのいずれか1つを前記立体ディスプレイに出力して2次元画像を表示させることが好ましい。
これにより、適切な画像を表示させることができる。
加えて、第一発明及び第二発明の立体画像再生装置において、前記画像処理手段は、前記第1の取得手段により取得された複数の視点画像から特徴が一致する特徴点間のずれ量を示す視差量を算出する視差量算出手段と、前記第1の取得手段により取得された複数の視点画像のうちの少なくとも1つの視点画像と前記視差量算出手段により算出された視差量とに基づいて任意の仮想視点に対応する1又は複数の仮想視点画像を生成する仮想視点画像生成手段とを有することが好ましい。
これにより、適切な視点画像を生成することができる。
このとき、第一発明及び第二発明の立体画像再生装置において、前記出力手段は、前記判別手段により前記立体ディスプレイのディスプレイサイズが前記最大ディスプレイサイズよりも大きいと判別され、又は前記算出された画像ずれ量が人間の両眼間隔を示す所定値を越えると判別されると、前記第1の取得手段により取得された複数の視点画像のうちのいずれか1つを前記立体ディスプレイに出力して2次元画像を表示させ、その後、前記画像処理手段により前記仮想視点画像が生成されると、前記2次元画像に代えて前記仮想視点画像を出力することが好ましい。
これにより、仮想視点画像の生成に時間がかかる場合であっても、立体ディスプレイに画像を表示することができる。
また、第一発明及び第二発明の立体画像再生装置において、前記複数の視点画像に基づいて該視点画像よりも画像サイズが小さい複数の表示用画像を生成する表示用画像生成手段を備え、前記画像処理手段は、前記第1の取得手段により取得した複数の視点画像の代わりに前記生成された複数の表示用画像を使用して、該複数の表示用画像間の少なくとも遠景側の視差が小さくなる複数の表示用画像を生成し、前記出力手段は、前記表示用画像生成手段により生成された表示用画像、又は前記画像処理手段により生成された表示用画像を前記立体ディスプレイに出力することが好ましい。
これにより、適切なサイズの画像を立体ディスプレイに出力することができる。
更に、第一発明及び第二発明の立体画像再生装置において、前記画像処理手段により生成された視点画像及び前記表示用画像生成手段により生成された表示用画像のうちの少なくとも一方を、前記3次元画像ファイルに追記し又は上書きする記録手段を備えたことが好ましい。
これにより、次回表示する際には画像処理を行うことなく適切な視差量の画像を表示することができる。
また、前記目的を達成するために第三発明の立体撮像装置は、複数の視点から同一被写体を撮影した複数の視点画像を取得する撮像手段と、前記取得した複数の視点画像から特徴が一致する特徴点間のずれ量を示す視差量を算出する視差量算出手段と、前記算出した各特徴点の視差量のうちの遠景側の最大視差量を取得する最大視差量取得手段と、前記取得した遠景側の最大視差量に基づいて、前記複数の視点画像による立体画像を立体ディスプレイに表示させる際に両眼融合可能な最大ディスプレイサイズを取得する最大ディスプレイサイズ取得手段と、前記複数の視点画像が記録される3次元画像ファイルを生成し、該3次元画像ファイルを記録媒体に記録する記録手段であって、前記複数の視点画像を前記3次元画像ファイルに記録し、かつ、前記遠景側の最大視差量及び最大ディスプレイサイズを付属情報として前記3次元画像ファイルに記録する記録手段と、請求項1から9のいずれかに記載の立体画像再生装置とを備えたことを特徴とする。
これにより、適切な視差量で立体画像を表示することができる。
更に、前記目的を達成するために第四発明の立体ディスプレイ装置は、前記出力先の立体ディスプレイと、請求項1から9のいずれかに記載の立体画像再生装置とを備えたことを特徴とする。
これにより、適切な視差量で立体画像を表示することができる。
前記目的を達成するために第五発明の立体画像再生方法は、立体視用の複数の視点画像と、該複数の視点画像に対する付属情報であって、前記複数の視点画像を立体ディスプレイに表示させる際に両眼融合可能な最大ディスプレイサイズを含む付属情報とが記録された3次元画像ファイルを読み取り、該3次元画像ファイルから前記複数の視点画像及び付属情報を取得する第1の取得工程と、出力先の立体ディスプレイのディスプレイサイズを取得する第2の取得工程と、前記取得された前記立体ディスプレイのディスプレイサイズと前記最大ディスプレイサイズとを比較し、前記立体ディスプレイのディスプレイサイズが前記最大ディスプレイサイズよりも大きいか否かを判別する判別工程と、前記立体ディスプレイのディスプレイサイズが前記最大ディスプレイサイズよりも大きいと判別されると、前記第1の取得工程により取得された複数の視点画像に基づいて該複数の視点画像間の少なくとも遠景側の視差が小さくなる複数の視点画像を生成する画像処理工程と、前記判別工程により前記立体ディスプレイのディスプレイサイズが前記最大ディスプレイサイズよりも大きいと判別されると、前記画像処理工程により生成された視点画像を前記立体ディスプレイに出力し、前記立体ディスプレイのディスプレイサイズが前記最大ディスプレイサイズ以下と判別されると、前記第1の取得工程により取得された視点画像を前記立体ディスプレイに出力する出力工程とを備えたことを特徴とする。
前記目的を達成するために第六発明の立体画像再生方法は、立体視用の複数の視点画像と、該複数の視点画像に対する付属情報であって、前記複数の視点画像における遠景側の最大視差量を含む付属情報とが記録された3次元画像ファイルを読み取り、該3次元画像ファイルから前記複数の視点画像及び付属情報を取得する第1の取得工程と、出力先の立体ディスプレイのディスプレイサイズを取得する第2の取得工程と、前記取得した遠景側の最大視差量と前記立体ディスプレイのディスプレイサイズと人間の両眼間隔を示す所定値とに基づいて、前記複数の視点画像を立体ディスプレイに表示する際に両眼融合可能か否かを判別する判別工程と、前記判別工程により両眼融合不能と判別されると、前記第1の取得手段により取得された複数の視点画像に基づいて該複数の視点画像間の少なくとも遠景側の視差が小さくなる複数の視点画像を生成する画像処理工程と、前記判別工程により両眼融合不能と判別されると、前記画像処理工程により生成された視点画像を前記立体ディスプレイに出力し、前記両眼融合可能と判別されると、前記第1の取得工程により取得された視点画像を前記立体ディスプレイに出力する出力工程とを備えたことを特徴とする。
本発明によれば、3次元画像ファイルに記録された付属情報に基づいて適切な視差量で立体画像を表示することができる。
2枚の視点画像を撮影する様子を示した図 3D画像ファイルのデータ構造を模式的に示した図 撮影、記録処理を示したフローチャート 2枚の視点画像の一例を示す図 4枚の視点画像を撮影する様子を示した図 3D画像ファイルのデータ構造を模式的に示した図 3D画像ファイルのデータ構造のその他の態様を模式的に示した図 仮想視点について説明するための図 3D画像ファイルのデータ構造を模式的に示した図 視差ずらしの原理を説明するための図 左右の視点画像と視差ずらしを示す図 撮影、記録処理を示すフローチャート 3D画像ファイルのデータ構造を模式的に示した図 再生表示処理を示すフローチャート 最大視差量に基づく再生表示処理を示すフローチャート 3D画像ファイルに記録する処理を示すフローチャート 3D画像ファイルのデータ構造を模式的に示した図 2D表示を行う処理を示すフローチャート 最大視差量(近景)を考慮する処理を示すフローチャート 立体撮像装置の外観を示す図 立体撮像装置の内部構成を示すブロック図 立体画像再生装置と3Dディスプレイの全体構成を示す図 立体画像再生装置の内部構成を示すブロック図
この発明の立体画像再生装置は、第1の取得手段、第2の取得手段、判別手段、画像処理手段及び出力手段を備えている。まず、第1の取得手段により立体視用の複数の視点画像と、該複数の視点画像に対する付属情報であって、複数の視点画像を立体ディスプレイに表示させる際に両眼融合可能な最大ディスプレイサイズを含む付属情報とが記録された3次元画像ファイルを読み取り、該3次元画像ファイルから複数の視点画像及び付属情報を取得する(第1の取得工程)。また、第2の取得手段により出力先の立体ディスプレイのディスプレイサイズを取得する(第2の取得工程)。その後、判別手段により、取得された立体ディスプレイのディスプレイサイズと最大ディスプレイサイズとを比較し、立体ディスプレイのディスプレイサイズが最大ディスプレイサイズよりも大きいか否かを判別する(判別工程)。そして、画像処理手段は、立体ディスプレイのディスプレイサイズが最大ディスプレイサイズよりも大きいと判別された第1の取得手段により取得された複数の視点画像に基づいて該複数の視点画像間の少なくとも遠景側の視差が小さくなる複数の視点画像を生成する(画像処理工程)。最後に、出力手段が、画像処理手段により生成された視点画像を立体ディスプレイに出力し、立体ディスプレイのディスプレイサイズが最大ディスプレイサイズ以下と判別されると、第1の取得手段により取得された視点画像を立体ディスプレイに出力する(出力工程)。上記構成を採用することにより、立体ディスプレイのディスプレイサイズと3次元画像ファイルから取得した最大ディスプレイサイズとを比較し、立体ディスプレイのディスプレイサイズの方が大きいと判別された場合に、少なくとも遠景側の視差が小さくなる複数の視点画像を生成して立体ディスプレイに出力することができる。その結果、適切な視差量で立体画像を表示することが可能となる。
或いは、第1の取得手段により複数の視点画像及び付属情報を取得し、第2の取得手段により出力先の立体ディスプレイのディスプレイサイズを取得した後に、判別手段により取得した遠景側の最大視差量と立体ディスプレイのディスプレイサイズと人間の両眼間隔を示す所定値とに基づいて、複数の視点画像を立体ディスプレイに表示する際に両眼融合可能か否かを判別する。そして、画像処理手段を用い、判別手段により両眼融合不能と判別されると、第1の取得手段により取得された複数の視点画像に基づいて該複数の視点画像間の遠景側の視差が小さくなる複数の視点画像を生成する。その後、出力手段を用い、判別手段により両眼融合不能と判別されると、画像処理手段により生成された視点画像を立体ディスプレイに出力し、両眼融合可能と判別されると、第1の取得手段により取得された視点画像を立体ディスプレイに出力する。これらのことにより、3次元画像ファイルから取得した少なくとも遠景側の最大視差量と立体ディスプレイのディスプレイサイズと人間の両眼間隔を示す所定値とに基づいて、3次元画像ファイルから取得した複数の視点画像を立体ディスプレイに表示する際に両眼融合可能か否かを判別し、両眼融合不能と判別した場合には少なくとも遠景側の視差が小さくなる複数の視点画像を生成して立体ディスプレイに出力することが可能となる。その結果、適切な視差量で立体画像を表示することできる。このとき、判別手段は、取得した遠景側の最大視差量と立体ディスプレイのディスプレイサイズとに基づいて、複数の視点画像を立体ディスプレイに表示させた場合の、最大視差量に対応する立体ディスプレイ上での画像ずれ量を算出する画像ずれ量算出手段を有し、算出された画像ずれ量が人間の両眼間隔を示す所定値を越えるか否かより両眼融合可能か否かを判別することが好ましい。なぜなら、適切に両眼融合可能か否かを判別することが可能となるからである。
更に、上述した種々の立体画像再生装置において、画像処理手段は、立体ディスプレイ上での複数の視点画像の遠景側の最大視差量を、人間の両眼間隔を示す所定値以下とする複数の視点画像間の視差ずらしを実施し、該視差ずらしされた視点シフト画像を生成することが好ましい。なぜなら、適切に視点画像を生成することが可能となるからである。更にまた、3次元画像ファイルの付属情報は、複数の視点画像における近景側の最大視差量を含み、立体ディスプレイ上での複数の視点画像の近景側の最大視差量と視点シフト画像の立体ディスプレイ上でのずらし量とを加算する加算手段と、加算された近景側の最大視差量に対応する画像ずれ量が立体ディスプレイに表示される際に両眼融合限界を越えるか否かを判別する判別手段とを備え、出力手段は、判別手段により画像ずれ量が両眼融合限界を越えると判別されると、第1の取得手段により取得された複数の視点画像のうちのいずれか1つを立体ディスプレイに出力して2次元画像を表示させることが好ましい。なぜなら、適切な画像を表示させることが可能となるからである。加えて、画像処理手段は、第1の取得手段により取得された複数の視点画像から特徴が一致する特徴点間のずれ量を示す視差量を算出する視差量算出手段と、第1の取得手段により取得された複数の視点画像のうちの少なくとも1つの視点画像と視差量算出手段により算出された視差量とに基づいて任意の仮想視点に対応する1又は複数の仮想視点画像を生成する仮想視点画像生成手段とを有することが好ましい。なぜなら、適切な視点画像を生成することが可能となるからである。このとき、出力手段は、判別手段により立体ディスプレイのディスプレイサイズが最大ディスプレイサイズよりも大きいと判別され、又は算出された画像ずれ量が人間の両眼間隔を示す所定値を越えると判別されると、第1の取得手段により取得された複数の視点画像のうちのいずれか1つを立体ディスプレイに出力して2次元画像を表示させ、その後、画像処理手段により仮想視点画像が生成されると、2次元画像に代えて仮想視点画像を出力することが好ましい。なぜなら、仮想視点画像の生成に時間がかかる場合であっても、立体ディスプレイに画像を表示することが可能となるからである。また、複数の視点画像に基づいて該視点画像よりも画像サイズが小さい複数の表示用画像を生成する表示用画像生成手段を備え、画像処理手段は、第1の取得手段により取得した複数の視点画像の代わりに生成された複数の表示用画像を使用して、該複数の表示用画像間の少なくとも遠景側の視差が小さくなる複数の表示用画像を生成し、出力手段は、表示用画像生成手段により生成された表示用画像、又は画像処理手段により生成された表示用画像を立体ディスプレイに出力することが好ましい。なぜなら、適切なサイズの画像を立体ディスプレイに出力することが可能となるからである。更に、画像処理手段により生成された視点画像及び表示用画像生成手段により生成された表示用画像のうちの少なくとも一方を、3次元画像ファイルに追記し又は上書きする記録手段を備えたことが好ましい。なぜなら、次回表示する際には画像処理を行うことなく適切な視差量の画像を表示することが可能となるからである。
以下、添付図面に従って本発明の実施の形態の一部について詳説する。
[第1の実施形態]
第1の実施形態に係る3D画像ファイルについて説明する。
図1は、2つの撮像装置101−2、101−3の夫々の撮像手段によって、被写体100について異なる視点から2枚の視点画像を撮影する(撮像工程)様子を示した図であり、図2は、図1に示す撮像装置101−2、101−3の夫々の撮像手段によって撮影された2枚の視点画像201−2、201−3が記録された3D画像ファイルのデータ構造を模式的に示した図である。
図2に示す3D画像ファイルは、MPフォーマットに準拠したMPファイルであり、同一被写体の複数の視点画像が連結されて1つのファイルにまとめられている。連結される各視点画像には、そのデータの先端にSOI(Start of Image)マーカが記録されるとともに、終端にEOI(End of Image)マーカが記録される。これにより、各画像の読込開始位置と終了位置を認識することができる。
さらに各視点画像データは、画像領域と付属情報領域とから構成される。付属情報領域には、撮影機器情報や撮影モードの情報等からなるExif付属情報の他、本実施形態では、画像記録時に取得した最大ディスプレイサイズ(幅、高さ、単位:mm)、画像記録時に想定した視距離(立体画像を観察する際の視認者とディスプレイとの距離)(単位:mm)、最大視差量(近景)(%)、最大視差量(遠景)(%)、各視点画像を撮影した装置の輻輳角、基線長、撮像部配置(視点番号)、各視点画像を取得した際の撮影回数、が含まれた付属情報が記録されている。
このような3D画像ファイルを記録するための撮影、記録処理について、図3のフローチャートを用いて説明する。
まず、複数の視点画像を取得する(ステップS11)。ここでは、図1に示すように2つの撮像装置101−2、101−3によって被写体100について1枚ずつ撮影を行い、2枚の視点画像201−2、201−3を取得する。なお、ここでは撮像装置101−2を視点番号2、撮像装置101−3を視点番号3とする。
次に、視差量算出手段を用いて2枚の視点画像201−2、201−3から複数の特徴点を抽出し(ステップS12)、特徴点毎の視差量を算出する(ステップS13)。ここで、視差量とは、視点画像間で対応する特徴点の、それぞれの視点画像の左端からの距離の差を指し、単位はピクセルである。このように算出した特徴点毎の視差量から、最大視差量取得手段を用いて近景側の最大視差量と遠景側の最大視差量を取得する(ステップS14)。
図4は2枚の視点画像の一例を示す図であり、図4Aは左視点画像201−2を示し、図4Bは右視点画像201−3を示している。
図4の例では、近景側の最大視差量は213Nであり、この視差量を持つ特徴点(最大視差量位置(近景))は、それぞれ211N、212Nである。また、遠景側の最大視差量は213Fであり、この視差量を持つ特徴点(最大視差量位置(遠景))は、それぞれ211F、212Fである。即ち、この2枚の視点画像201−2、201−3に基づく立体画像を立体視した場合には、最大視差量位置(近景)が最も近くに見え、最大視差量位置(遠景)が最も離れて見えることになる。
これら近景側の最大視差量213N及び遠景側の最大視差量213Fの、画像幅に対する比率(%)が、最大視差量(近景)(%)、最大視差量(遠景)(%)となる。
このように算出した最大視差量に基づいて、最大ディスプレイサイズ取得手段を用いて最大ディスプレイサイズを取得する(ステップS15)。遠景側の視差量が人間の両眼間隔を超えると、画像のその位置は両眼融合不能となり、立体視ができなくなる。したがって、ステップS14で算出した最大視差量(遠景)の画像幅に対する比率(%)から、視差が人間の両眼間隔を超えない最大ディスプレイサイズを取得する。
例えば、人間の両眼間隔を50mmと仮定し、最大視差量(遠景)の画像幅に対する比率が10%であれば、立体視するのに許容される最大のディスプレイ幅は500mmとなる。即ち、幅500mm以下のディスプレイであれば、最大視差位置(遠景)の視差量が両眼間隔50mmを超えることなく表示され、その結果、視認者は立体視画可能となる。ここで、縦横比が16:9のディスプレイを想定する場合には、最大のディスプレイ高さは281.25mmとなる。
なお、人間の両眼間隔は、対象とする視認者に応じて適宜決めればよい。例えば、成人だけを対象とする場合には、65mm等の幅広の値に設定してもよい。
例えば、人間の両眼間隔を65mmと仮定し、最大視差量(遠景)の画像幅に対する比率が15%であれば、立体視するのに許容される最大のディスプレイ幅は約433mmとなる。また、縦横比が16:9のディスプレイを想定する場合には、最大のディスプレイ高さは約244mmとなる。
また、人間の両眼間隔から算出するのではなく、予め最大視差量に対応する最大ディスプレイサイズが記録されているテーブルを用意しておき、このテーブルを参照することにより最大ディスプレイサイズを取得してもよい。
最後に、記録手段を用いて2枚の視点画像201−2、201−3と、付属情報とを、図2に示すように1つの3D画像ファイルとして記録する(ステップS16)。
即ち、視点画像201−2についてのSOIマーカに続けて、ステップS15において取得した最大ディスプレイサイズ、想定した視距離、ステップS14において取得した最大視差量(近景)(%)、最大視差量(遠景)(%)、ステップS11における撮像装置101−2、101−3の輻輳角、基線長、視点番号、及び撮影回数を付属情報に含んで記録し、その後視点画像201−2の画像情報、EOIマーカを記録する。
さらに、視点画像201−3のSOIマーカ、付属情報、画像情報、EOIマーカを記録する。視点画像201−3の付属情報領域には、Exif付属情報のみを記録すればよい。
以上のように、図2に示す3D画像ファイルを記録することができる。
このように記録された3D画像ファイルは、3Dディスプレイに表示される際に立体画像再生装置によって読み出される。この際、立体画像再生装置において、3D画像ファイルの付属情報に記録されている最大ディスプレイサイズと、表示しようとしている3Dディスプレイの表示サイズとを比較することにより、立体視可能か否かを容易に判別することができる。したがって、立体視可能と判断した場合には、記録されている画像をそのまま表示すればよく、立体画像再生装置における画面サイズに応じて視差量を調整する処理を軽減させることができる。
また、立体画像再生装置において視差量を調整する必要がある場合には、付属情報に記録されている想定視距離や撮影回数の情報を用いることにより、適切に視差量を調整することができる。
なお、本実施形態では、遠景側の最大視差量だけに基づいて最大ディスプレイサイズを決定したが、近景側の最大視差量を考慮して決定してもよい。近景側の最大視差量を考慮することにより、遠景側だけでなく、近景側も適切に立体視可能な最大ディスプレイサイズを決定することができるようになる。
例えば、近景の視差量が50mm以下となるディスプレイサイズを最大ディスプレイサイズとしてもよい。近景側の視差量が大きくなると、視認者は立体視をするのに疲労を感じるため、所定量以下とすることが好ましいからである。
[第2の実施形態]
第1の実施形態では、2視点から撮影した2枚の視点画像を例に説明したが、本発明に係る立体画像の視点の数は2点に限られず、多視点の視点画像であってもよい。
図5は、4つの撮像装置101−1〜101−4によって、被写体100について異なる視点から4枚の視点画像を撮影する様子を示した図である。ここでは、撮像装置101−1〜101−4の視点番号を順に1〜4とする。
図6は、この4つの撮像装置101−1〜101−4によって撮影された4枚の視点画像が記録された3D画像ファイルのデータ構造を模式的に示した図である。この3D画像ファイルには、4枚の視点画像の他に、表示用画像生成手段により生成された各視点画像のサイズを縮小した表示用画像が記録されている。表示用画像としては、解像度が1920×1080のフルHDサイズの画像が適している。
これらの画像は、図6に示すように、視点番号1の視点画像(以下、視点画像(1)と呼ぶ)、視点番号1の表示用画像(以下、サムネイル画像(1)と呼ぶ)、視点番号2の視点画像(以下、視点画像(2)と呼ぶ)、視点番号2の表示用画像(以下、サムネイル画像(2)と呼ぶ)、視点番号3の視点画像(以下、視点画像(3)と呼ぶ)、視点番号3の表示用画像(以下、サムネイル画像(3)と呼ぶ)、視点番号4の視点画像(以下、視点画像(4)と呼ぶ)、視点番号4の表示用画像(以下、サムネイル画像(4)と呼ぶ)、の順に記録されている。
まず先頭画像として、基準視点である視点番号1で撮影された視点画像(1)が記録されており、その記録領域は、SOIマーカ、付属情報領域、画像情報領域、及びEOIマーカを有している。
付属情報領域には、第1の実施形態と同様に、撮影機器情報や撮影モードの情報等のExif付属情報の他、最大ディスプレイサイズ、想定視距離、最大視差量(近景)、最大視差量(遠景)、各視点画像を撮影した装置の輻輳角、基線長、撮像部配置(視点番号)、各視点画像を取得した際の撮影回数、等の付属情報が含まれて記録されている。
なお、この最大ディスプレイサイズ、最大視差量等は、当該3D画像ファイル全体を使用した場合の値が記録される。具体的には、基準視点で撮影された視点画像(1)を基準として、最も視差量が大きい視点画像(ここでは視点画像(4))から算出された最大視差量、及びこの最大視差量から取得された最大ディスプレイサイズが記録される。輻輳角、基線長等についても、同様の視点画像(ここでは視点画像(4))を撮影した装置との輻輳角、基線長が記録される。
さらに、画像情報領域には視点画像(1)の画像情報が記録され、続いてEOIマーカが記録される。
視点画像(1)に続いて、視点画像(1)から生成されたサムネイル画像(1)が記録されており、その記録領域は、これまでと同様に、SOIマーカ、付属情報領域、画像情報領域、及びEOIマーカを有している。付属情報領域には、通常のExif付属情報が記録される。
サムネイル画像(1)に続いて、視点画像(2)が記録されている。視点画像(2)の記録領域についても、SOIマーカ、付属情報領域、画像情報領域、及びEOIマーカを有している。
付属情報領域には、通常のExif付属情報の他、当該視点画像(2)と基準視点で撮影された視点画像(1)とから算出された最大ディスプレイサイズ、想定視距離、最大視差量(近景)、最大視差量(遠景)、2枚の視点画像を撮影した装置の輻輳角、基線長、視点番号、2枚の視点画像を取得した際の撮影回数、等の付属情報が含まれて記録されている。
視点画像(2)に続いて、視点画像(2)から生成されたサムネイル画像(2)が記録されており、その後には視点画像(3)が記録されている。
視点画像(3)の記録領域についても、SOIマーカ、付属情報領域、画像情報領域、及びEOIマーカを有しており、付属情報領域には、通常のExif付属情報の他、当該視点画像(3)と基準視点で撮影された視点画像(1)とから算出された最大ディスプレイサイズ等が同様に記録されている。
以下、視点画像(4)についても同様に記録されている。
このように、多視点の視点画像を記録する場合には、それぞれの視点画像の付属情報として、先頭画像との関係における最大ディスプレイサイズを記録することが好ましい。
このように記録された3D画像ファイルは、3Dディスプレイに表示される際に立体画像再生装置によって読み出される。この際、立体画像再生装置において、3D画像ファイルの付属情報に記録されている視点画像毎の最大ディスプレイサイズと、表示しようとしている3Dディスプレイの表示サイズとを比較することにより、適切に立体視可能か否かを容易に判別することができる。
なお、多視点画像の記録順は、図6に示した順序に限定されるものではない。
例えば、図7Aに示すように、視点画像(1)、サムネイル画像(1)〜サムネイル画像(4)、視点画像(2)〜視点画像(4)の順に記録してもよい。表示用のサムネイル画像を先に記録しておくことで、表示を行うときのファイル読み出し時の画像読み込みが早くなり、3Dディスプレイに画像を表示するまでの所要時間の縮小が可能になる。また、各視点画像は主にプリントに使用されるものであり、プリントは所定の時間を要することから、ファイルの後半部に記録されていても、弊害が少ない。
さらに、各サムネイル画像の記録順は、3Dディスプレイに表示させる際の推奨画像を先に記録するようにしてもよい。例えば、サムネイル画像(2)とサムネイル画像(3)による立体表示が推奨されるのであれば、図7Bに示すように、先頭画像の視点画像(1)の次に、サムネイル画像(2)、サムネイル画像(3)を記録し、その後にサムネイル画像(1)、サムネイル画像(4)を記録してもよい。
2枚の画像の視差量が小さい方が、大きなディスプレイであっても立体視可能に表示が可能である。また、中央に近い視点の画像を用いた方が、立体視に適している。したがって、このような場合には、視点番号2と視点番号3における画像が推奨されるとして、サムネイル画像(2)とサムネイル画像(3)を先に記録しておくことが好ましい。
同様に、サムネイル画像(1)とサムネイル画像(3)による立体表示が推奨されるのであれば、図7Cに示すように、先頭画像の視点画像(1)の次に、サムネイル画像(1)、サムネイル画像(3)を記録し、その後にサムネイル画像(2)、サムネイル画像(4)を記録してもよい。
立体表示における推奨画像が存在する場合には、先頭画像である視点画像(1)の付属情報に、推奨画像における最大ディスプレイサイズ、想定視距離、最大視差量を記録してもよい。
[第3の実施形態]
第2の実施形態のような多視点画像は、全てが実際に撮影された画像である必要はなく、仮想視点に対応した仮想視点画像を含んでいてもよい。
例えば、図8に示すように、2つの撮像装置101−1、101−4によって、被写体100について異なる視点(視点番号1、視点番号4)から2枚の視点画像を撮影する。さらに、仮想視点画像生成手段を用いて視点番号1と視点番号4とは異なる視点であって、実際には存在しない仮想視点における視点番号2、視点番号3の視点画像2、視点画像3を生成してもよい。仮想視点画像を生成するには、複数の撮影画像の各画素を内分する方法や、複数の撮影画像から生成された視差マップと、1枚の撮影画像を用いて生成する方法等があるが、特に限定されるものではない。
図9Aは、このように取得した各視点画像が記録された3D画像ファイルのデータ構造を模式的に示した図である。同図の例では、実際に撮影された2枚の視点画像(1)、視点画像(4)と、これらの表示用画像であるサムネイル画像(1)、サムネイル画像(4)、及び、仮想視点画像の表示用画像であるサムネイル画像(2)、サムネイル画像(3)が記録されている。
まず先頭画像として視点画像(1)が記録され、その後にサムネイル画像(2)、サムネイル画像(3)、サムネイル画像(1)、サムネイル画像(4)が記録され、続いて視点画像(4)が記録されている。ここでは、サムネイル画像の順序は、推奨順で記録されているが、視点の並び順に記録してもよいし、中央の視点に近い順に記録してもよい。また、サムネイル画像(2)、サムネイル画像(3)は、サムネイル画像(1)及びサムネイル画像(4)から生成してもよいし、視点画像(1)及び視点画像(4)から生成してもよい。
これまでと同様に、各画像の記録領域は、SOIマーカ、付属情報領域、画像情報領域、及びEOIマーカを有している。また、視点画像(1)の付属情報領域には、最大ディスプレイサイズ、想定視距離、最大視差量の他、各視点番号が実際に撮影が行われた視点(実視点)であるか、仮想視点であるかを示す視点情報が記録されている。
また、表示用の画像を有さず、プリント用の視点画像だけが記録されていてもよい。図9Bに示す例では、実際に撮影された2枚の視点画像(1)、視点画像(4)と、仮想視点画像である視点画像(2)、視点画像(3)が記録されている。
また、記録順としてはプリント又は表示の推奨順となっており、具体的には先頭画像として視点画像(2)が記録されており、その後に続いて視点画像(3)、視点画像(1)、視点画像(4)が記録されている。これまでと同様に、視点順に記録されていてもよい。
このように、仮想視点画像を生成して記録することで、実視点画像として2枚の画像があれば足りることになり、撮像装置の撮像光学系の簡略化、軽量化を計ることが可能となる。
[第4の実施形態]
想定したサイズのディスプレイに表示すると、遠景側の視差量が人間の両眼間隔を超えると判断した場合に、当該サイズのディスプレイに表示しても立体視が可能になるように画像の視差量を調整してから記録するようにしてもよい。
本実施形態では、視差量の調整として視差ずらしを行う。
図10は、視差ずらしの原理を説明するための図である。また、図11Aは左視点画像、図11Bは右視点画像を示す図である。ここで、座標(0、D)に視認者の左目、座標(X、D)に視認者の右目があるとする。Z=0上に表示された左右の視点画像において、左視点画像の座標(X、0)、かつ右視点画像の座標(X、0)に表示された被写体は、座標(X、Y)にあるように視認される。
この状態で、図11Bに示すように、右視点画像を左方向にX−X´だけシフトしたとすると、図10に示すように被写体の右視点画像の座標が(X´、0)となる結果、被写体は座標(X´、Y´)にあるように視認される。
このように、視差ずらしを行うことで、視差量の調整を行うことが可能である。したがって、遠景側の視差量が人間の両眼間隔を超える場合に、視差ずらしを行うことで人間の両眼間隔内に収めることができ、適切に立体視することが可能となる。
図12は、本実施形態に係る3D画像ファイルを記録するための撮影、記録処理を示すフローチャートである。
まず、複数の視点画像を取得する(ステップS21)。ここでは、2枚の視点画像を撮影するものとする。次に、各2枚の視点画像から複数の特徴点を抽出し(ステップS22)、特徴点毎の視差量を算出する(ステップS23)。このように算出した特徴点毎の視差量から、近景側の最大視差量と遠景側の最大視差量を取得する(ステップS24)。
ここで、表示を行う想定ディスプレイについて、その表示幅を取得する。想定ディスプレイの表示幅は、予め決められて記憶されていてもよいし、HDMI端子等の外部接続端子によって3Dディスプレイが接続されている場合には、当該接続に応じた通信により3Dディスプレイのサイズを読み取ってもよい。
この表示幅のディスプレイに当該立体画像を表示した場合に、遠景側の最大視差位置が立体視可能か否かを判定する(ステップS25)。具体的には、表示幅と遠景側の最大視差量(%)との積を算出し、算出した積が人間の両眼間隔50mm以上であるか否かを判定する。
算出した積が50mm未満の場合は、撮影した2枚の視点画像をそのまま記録する(ステップS27)。例えば、図2に示すデータ構造の3D画像ファイルとして記録してもよいし、表示用サムネイル画像や仮想視点画像を生成して記録してもよい。
算出した積が50mm以上の場合は、遠景側の最大視差位置が立体視可能となるように、当該積が50mm未満になるように視差ずらしを行う(ステップS26)。
視差ずらしは、図11に示すように、右視点画像を左方向にずらすことによって行ってもよいし、左視点画像を右方向にずらすことによって行ってもよい。また、左右視点画像両方をそれぞれ近づける方向にずらしてもよい。
視差ずらし処理が終了したら、記録を行う(ステップS27)。図13は、ここで記録する3D画像ファイルのデータ構造を模式的に示した図である。この3D画像ファイルには、撮影された2枚の原画像の他に、各原画像のサイズを縮小した視差ずらし後の表示用画像及びサムネイル画像が記録されている。ここでは、表示用画像はフルHDサイズの画像であり、サムネイル画像はVGAサイズの画像である。サムネイル画像は、例えば撮像装置の背面に設けられた小型の液晶ディスプレイに、画像検索のために表示する際等に用いられるものである。
これらの画像は、図13に示すように、視点番号1の表示用画像、視点番号2の表示用画像、視点番号1のサムネイル画像、視点番号2のサムネイル画像、視点番号1の原画像、視点番号2の原画像、の順に記録されており、それぞれの記録領域は、SOIマーカ(図では省略)、付属情報領域、画像情報領域、及びEOIマーカ(図では省略)を有している。
まず先頭画像として、基準視点である視点番号1の表示用画像が記録されており、その付属情報領域には、最大視差量が記録されている。
次に記録されているのは、視点番号2の表示用画像であり、この画像は上記の視差ずらしを行った結果の画像である。視点番号2の表示用画像の付属情報領域には、視差ずらし処理済みである情報と、そのシフト量(単位:ピクセル)が記録されている。
続いて視点番号1のサムネイル画像が記録されており、この付属情報領域にも、最大視差量が記録されている。
さらに、視点番号2のサムネイル画像が記録されている。このサムネイル画像は、視差ずらし後の画像であってもよいし、視点番号2の原画像から生成した画像であってもよい。
その後には、視点番号1の原画像及び視点番号2の原画像が記録されている。視点番号1の原画像の付属情報領域にも、最大視差量が記録されている。
このような3D画像ファイルとすることで、想定したサイズのディスプレイに表示する際に、常に遠景側の最大視差位置が立体視可能となっており、視認者に適切に立体視させることが可能となる。
また、VGAサイズのサムネイル画像も記録したため、画像検索時の表示にも有効である。
なお、想定したディスプレイサイズを、先頭画像の付属情報領域に記録してもよい。想定ディスプレイサイズを記録しておくことにより、立体画像再生装置において、読み出した想定ディスプレイサイズと、表示しようとしている3Dディスプレイの表示サイズとを比較することにより、適切に立体視可能か否かを容易に判別することができる。
[第5の実施形態]
次に、このように記録された3D画像ファイルを読み出して再生表示する処理について、図14のフローチャートを用いて説明する。
最初に、3D画像ファイルを読み込む(ステップS31)。同時に、これから3D画像の表示を行うディスプレイのサイズを取得する(ステップS32)。また、読み込んだ3D画像ファイルの付属情報から、3D表示を行おうとする各視点画像を適切に3D表示することができる最大ディスプレイサイズを取得する(ステップS33)。
次に、これから3D画像の表示を行うディスプレイの横幅と、最大ディスプレイサイズの幅とを比較する(ステップS34)。
最大ディスプレイサイズの幅の方が大きい場合は、3D画像ファイルに記録されている各視点画像をそのまま表示しても立体視に差し支えないため、読み出した視点画像をそのまま表示する(ステップS36)。
しかし、実際のディスプレイ幅の方が大きい場合には、読み出した視点画像をそのまま表示すると遠側の最大視差位置の視差量が人間の両眼間隔を超えてしまい、その部分が立体視できないことになる。したがって、左右の視点画像の視差量を調整する必要がある。
視差量の調整は、視差ずらし又は視差圧縮によって行う(ステップS35)。視差ずらしは、図11を用いて説明したように、左右視点画像の一方又は両方をずらすことにより視差量を調整する。また、視差圧縮は、図8を用いて説明したように、左右の視点画像よりも視差量の小さい仮想視点の画像を生成し、生成した仮想視点の画像を表示することにより視差量を調整する。どちらによって視差量を調整するのかは、予め決めておいてもよいし、ユーザが選択可能に構成してもよい。どちらの視差量調整によっても、少なくとも遠景側の視差を小さくすることができる。
視差ずらし又は視差圧縮によって、使用するディスプレイの幅に適した視差量に調整し、調整した画像を3D表示する(ステップS36)。
このように、付属情報として記録されている最大ディスプレイサイズを読み出し、実際に表示を行うディスプレイサイズと比較し、最大ディスプレイサイズの方が大きい場合には立体視に問題が無いとして記録されている3D画像をそのまま表示し、実際に表示を行うディスプレイサイズの方が大きい場合には立体視ができない領域があると判断して記録されている3D画像の視差量を調整してから表示することで、常に適切な3D画像を表示することが可能となる。
なお、このような処理は、3D画像ファイルの付属情報に記録されている最大視差量を読み出すことによっても可能である。
図15は、最大視差量に基づいて再生表示処理を行う場合のフローチャートである。なお、図14に示すフローチャートと共通する部分には同一の符号を付し、その詳細な説明は省略する。
読み込んだ3D画像ファイルの付属情報から、最大視差量(遠景)を取得する(ステップS41)。この最大視差量(遠景)は、画像幅に対する比率(%)として記録されている。
次に、ステップS32において取得したディスプレイの幅と、最大視差量(遠景)との積が、50mm以上であるか否かを判定する(ステップS42)。ディスプレイの幅と最大視差量(遠景)との積は、表示された画像上の最大視差量位置(遠景)における実際の視差量となる。この視差量が人間の両眼間隔である50mm以上となる場合には、その部分が立体視できないため、読み出した視点画像について視差ずらし又は視差圧縮による視差量の調整を行ってから(ステップS35)、3D表示を行う(ステップS36)。
50mm未満の場合には、記録されている各視点画像をそのまま表示しても差し支えないため、読み出した視点画像をそのまま表示する(ステップS36)。
このように、3D画像ファイルから読み出した最大視差量(遠景)に基づいて、再生表示を制御することができる。特に、3D画像ファイルの付属情報に最大ディスプレイサイズが記録されておらず、最大視差量のみが記録されている場合に有効である。
なお、本実施形態においては、適切に3D表示ができないと判断した場合には、視差ずらし又は視差圧縮によって視差量を調整してからディスプレイ全体に3D表示させているが、適切な視差量になる画像サイズ、即ち最大ディスプレイサイズに相当する画像サイズで3D表示させてもよい。
[第6の実施形態]
また、上記のように視差ずらし又は視差圧縮して生成された画像を、3D画像ファイルに記録してもよい。図16に、3D画像ファイルに記録する処理を行う場合のフローチャートを示す。
ここでは、ステップS35において視差ずらし又は視差圧縮によって生成された画像を、ステップS43において表示用サムネイル画像として3D画像ファイルに追加又は書き換えを行っている。なお、3D画像ファイルへの追加、書き換えは、ステップS36の3D表示後に行ってもよい。
図17は、4枚の視点画像及び視点画像から生成された4枚の表示用サムネイル画像が記録された3D画像ファイルのデータ構造を模式的に示した図であり、図17Aは図16のステップS31で読み込んだときの3D画像ファイルを示し、図17BはステップS43において書き換えた後の3D画像ファイルを示している。先頭画像である視点画像(1)の付属情報には、視点画像(1)と視点画像(4)との最大視差量(遠景)が記録されている。
ステップS41においてこの最大視差量を読み出し、ステップS42において、ディスプレイの幅と最大視差量(遠景)との積が50mm以上であると判定されると、ステップS35において視差ずらし又は視差圧縮を行う。例えば、サムネイル画像(4)の視差ずらしを行った場合には、ステップS43において、サムネイル画像(4)に換えて視差ずらし後のサムネイル画像(4)を記録する。また、視差ずらし後のサムネイル画像(4)の付属情報には、視差ずらし処理済みである情報と、そのシフト量(単位:ピクセル)を記録する。
また、ステップS35において視差圧縮を行う場合であれば、サムネイル画像(4)に換えて、視差圧縮後のサムネイル画像(4)を記録する。この場合には、付属情報として、視差圧縮後の最大視差量(遠景)を記録してもよい。
ここでは、サムネイル画像(4)に換えて、視差量調整後のサムネイル画像(4)を記録したが、視差量調整後のサムネイル画像(4)を追加して記録するようにしてもよい。
また、図16のステップS31で読み込んだときの3D画像ファイルに表示用サムネイル画像が存在しない場合であっても、表示用サムネイル画像を生成し、図17Bに示すような3D画像ファイルとして記録してもよい。
なお、視差調整を行うのはサムネイル画像に限られず、視点画像の視差調整を行ってもよい。例えば、視差画像(4)の視差調整を行うのであれば、視差画像(4)と、その視差画像(4)に基づいて生成されたサムネイル画像(4)を上書き、又は追加記録する。
さらに、ステップS42において算出した、ディスプレイの幅と最大視差量(遠景)との積を、最大ディスプレイサイズとして3D画像ファイルの先頭画像の付属情報領域に記録する態様もある。
[第7の実施形態]
視差圧縮の処理(仮想視点画像の生成)にはある程度の時間を要するため、すぐには視差圧縮後の画像を表示することができず、視認者に煩わしさを感じさせる可能性がある。本実施形態では、視差圧縮処理を行っている間に、3Dディスプレイに2D表示を行わせる。
図18は、2D表示を行う処理を示すフローチャートである。なお、図16に示すフローチャートと共通する部分には同一の符号を付し、その詳細な説明は省略する。
ステップS42において、ディスプレイの幅と最大視差量(遠景)との積が、人間の両眼間隔である50mm以上であると判断すると、当該3D画像ファイルに記録されている視点画像又は表示用サムネイル画像のいずれかをディスプレイに2D表示させる(ステップS51)。その後、視差圧縮処理を行う(ステップS35)。
視差圧縮処理が終了したら、3D画像ファイルの表示用サムネイル画像の追加又は書き換えを行い(ステップS43)、視差圧縮画像をディスプレイに3D表示させる(ステップS36)。3D表示を行ってから、3D画像ファイルに記録してもよい。
このように2D表示を行うことで、視差圧縮処理を行っている間に画像を表示できない欠点を補うことができる。
ここでは、視差圧縮を行う場合を例に説明したが、視差ずらし処理に時間がかかる場合には、視差ずらし処理を行っている間に2D表示を行うように構成してもよい。また、2D表示と同時に、視差量の調整処理を行っている旨を表示してもよい。このように表示することで、視認者は、3Dディスプレイに2D表示がされている理由を知ることができる。
[第8の実施形態]
これまでの実施形態では、最大視差量(遠景)に基づいて視差量の調整を行い、3D表示を行っているが、視差量の調整として視差ずらしを行うと、近景側の視差量が増大するという欠点がある。したがって、視差ずらしを行う場合には、最大視差量(近景)を考慮して表示を行ってもよい。
図19は、最大視差量(近景)を考慮して視差ずらし処理を行う場合のフローチャートである。なお、図16に示すフローチャートと共通する部分には同一の符号を付し、その詳細な説明は省略する。
ステップS42において、表示に使用するディスプレイの幅と最大視差量(遠景)との積が、人間の両眼間隔である50mm以上であるか否かを判断する。積が50mmより小さい場合には、3D画像ファイルに記録されている3D画像をそのまま表示しても差し支えないため、読み出した3D画像をそのまま表示する(ステップS64)。
積が50mm以上の場合には、そのまま表示すると遠側の最大視差位置の立体視ができないため、視差量を調整する必要がある。したがって、積が50mm未満となる視差ずらし量(必要ずらし量)を算出する(ステップS61)。
次に、算出した必要ずらし量だけ視差ずらしを行った場合に、近景側の最大視差量位置が適切に立体視可能か否かを判定する。具体的には、表示に使用するディスプレイの幅と最大視差量(近景)との積に、必要ずらし量を加算した値が、50mm以下であるか否かを判定する(ステップS62)。ここでは、近景の視差量が50mm以下の場合を適切に立体視可能と判断しているが、この50mmの値は、適宜決めればよい。
50mm以下の場合には、視差ずらしを実施し(ステップS63)、視差ずらしを行った画像を3Dディスプレイに3D表示する(ステップS64)。さらに、視差ずらしを行った画像を3D画像ファイルに追加又は書き換えてもよい。
これに対し、50mmより大きい場合には、視差ずらしを行わないと遠景側に立体視できない部分があり、遠景側の最大視差量が適切になるように視差ずらしを行うと近景側が適切に立体視できないことになるので、3D表示は行わず、3Dディスプレイに2D表示を行う(ステップS65)。2D表示は、3D画像ファイルに記録されている視点画像又は表示用サムネイル画像のうちいずれかを表示する。2D表示とともに、ディスプレイサイズが大きすぎるために当該画像は3D表示を行わない旨を警告表示してもよい。
このように、最大視差量(遠景)だけでなく、最大視差量(近景)も考慮して視差量の調整を行うことで、適切な3D画像を表示させることができる。
[立体撮像装置の外観]
次に、上記の実施形態を実現するための装置について説明する。
図20は本発明に係る立体撮像装置の外観を示す図であり、図20Aは立体撮像装置を前面側から見た斜視図であり、図20Bは背面図である。
この立体撮像装置(複眼カメラ)10は、2D/3Dの静止画、及び2D/3Dの動画の記録再生が可能なデジタルカメラであり、図20に示すように薄型の直方体状のカメラ本体の上面には、シャッタボタン11、ズームボタン12が配設されている。
カメラ本体の前面には、カメラ本体の左右方向の幅と略一の幅を有するレンズバリア13が、カメラ本体の上下方向に移動自在に配設されており、このレンズバリア13を、二点鎖線で示す位置と実線で示す位置との間で上下方向に移動させることにより、左右一対の撮影光学系14-1,14-2の前面を同時に開閉できるようになっている。尚、撮影光学系14-1,14-2としては、屈曲光学系のズームレンズが使用されている。また、レンズバリア13によるレンズ前面の開閉動作に連動して、カメラ電源をON/OFFさせることができるようになっている。
図20Bに示すようにカメラ本体の背面には、その中央部に3D用の液晶モニタ16が配設されている。液晶モニタ16は、複数の視差画像(右視点画像、左視点画像)をパララックスバリアによりそれぞれ所定の指向性をもった指向性画像として表示できるものである。尚、3D用の液晶モニタ16としては、レンチキュラレンズを使用するものや、偏光メガネ、液晶シャッタメガネなどの専用メガネをかけることで右視点画像と左視点画像とを個別に見ることができるものなどが適用できる。
上記液晶モニタ16の左右には、各種の操作スイッチが配設されている。操作スイッチ18Aは、静止画撮影と動画撮影とを切り替える切替えスイッチであり、操作スイッチ18Bは、右視点画像と左視点画像の視差量を調整する視差調整スイッチであり、操作スイッチ18Cは2D撮像と3D撮像とを切り替える切替えスイッチである。また、操作スイッチ18Dは、MENU/OKボタンと再生ボタンとを兼ねたシーソーキーであり、操作スイッチ18Eは、マルチファンクションの十字キーであり、操作スイッチ18Fは、DISP/BACKキーである。
MENU/OKボタンは、液晶モニタ16の画面上にメニューを表示させる指令を行うためのメニューボタンとしての機能と、選択内容の確定及び実行などを指令するOKボタンとしての機能とを兼備した操作スイッチである。再生ボタンは、撮影モードから再生モードに切り替えるボタンである。十字キーは、上下左右の4方向の指示を入力する操作スイッチであり、マクロボタン、フラッシュボタン、セルフタイマーボタン等が割り当てられており、また、メニューが選択されている場合には、そのメニュー画面から項目を選択したり、各メニューから各種設定項目の選択を指示するスイッチ(カーソル移動操作手段)として機能する。また、十字キーの左/右キーは再生モード時のコマ送り(順方向/逆方向送り)ボタンとして機能する。DISP/BACKキーは、液晶モニタ16の表示形態を切り替えたり、メニュー画面上での指示内容の取消し、あるいは1つ前の操作状態に戻らせる時などに使用される。
尚、図20A上で、15はステレオマイクである。
[立体撮像装置の内部構成]
図21は上記立体撮像装置10の内部構成を示すブロック図である。
図21に示すように、この立体撮像装置10は、主として複数の撮像部20-1,20-2、中央処理装置(CPU)32、前述したシャッタボタン11、ズームボタン12、及び各種の操作スイッチを含む操作部34、表示制御部36、液晶モニタ16、記録制御部38、圧縮/伸張処理部42、デジタル信号処理部44、AE(Automatic Exposure:自動露出)検出部46、AF(Auto Focus:自動焦点)検出部48、AWB(Automatic
White Balance:自動ホワイトバランス)検出部50、VRAM52、RAM54、ROM56、及びEEPROM58等から構成されている。尚、撮像部20-1,20-2は、互いに視差を有する左眼用画像と右眼用画像の2枚の視差画像を撮像するが、撮像部20は、3つ以上あってもよい。
左眼用画像を撮像する撮像部20-1は、プリズム(図示せず)、フォーカスレンズ及びズームレンズ21からなる撮影光学系14-1(図20)、絞り22及びメカシャッタ23からなる光学ユニットと、固体撮像素子(CCD)24と、アナログ信号処理部25と、A/D変換器26と、画像入力コントローラ27と、前記光学ユニットを駆動するレンズ駆動部28、絞り駆動部29及びシャッタ制御部30と、CCD24を制御するCCD制御部31とを備えている。尚、右眼用画像を撮像する撮像部20-2は、前記左眼用画像を撮像する撮像部20-1と同じ構成を有するため、その具体的な構成の説明は省略する。
CPU32は、操作部34からの入力に基づき所定の制御プログラムに従ってカメラ全体の動作を統括制御する。最大ディスプレイサイズの算出、視差ずらし、仮想視点画像の生成等も、CPU32によって行われる。
なお、ROM56には、CPU32が実行する制御プログラム及び制御に必要な各種データ等が格納され、EEPROM58には、製品出荷前の調整時の調整結果を示す各種の情報、例えばCCD24の画素欠陥情報、画像処理等に使用する補正パラメータや、最大視差量と最大ディスプレイサイズとの対応テーブル等が記憶されている。
また、VRAM52は、液晶モニタ16に表示する表示用の画像データを一時記憶するメモリであり、RAM54は、CPU32の演算作業用領域及び画像データの一時記憶領域を含んでいる。
撮影光学系に含まれるフォーカスレンズ及びズームレンズ21は、レンズ駆動部28により駆動されて光軸に沿って前後に移動する。CPU32は、レンズ駆動部28の駆動を制御することにより、フォーカスレンズの位置を制御して被写体に焦点が合うように焦点調節を行うとともに、操作部34中のズームボタン12からのズーム指令に応じてズームレンズのズーム位置を制御してズーム倍率を変更させる。
絞り22は、例えば、アイリス絞りで構成されており、絞り駆動部29に駆動されて動作する。CPU32は、絞り駆動部29を介して絞り22の開口量(絞り値)を制御し、CCD24への入射光量を制御する。
メカシャッタ23は、光路を開閉することによりCCD24での露光時間を決めるとともに、CCD24からの画像信号の読み出し時に不要光がCCD24に入射しないようにしてスミアの発生を防止する。CPU32は、シャッタ速度に対応する露光終了時点に同期したシャッタ閉信号をシャッタ制御部30に出力し、メカシャッタ23を制御する。
CCD24は、2次元のカラーCCD固体撮像素子により構成されている。CCD24の受光面には、多数のフォトダイオードが2次元的に配列されており、各フォトダイオードには所定の配列でカラーフィルタが配置されている。
上記構成の光学ユニットを介してCCD受光面上に結像された被写体の光学像は、このフォトダイオードによって入射光量に応じた信号電荷に変換される。各フォトダイオードに蓄積された信号電荷は、CPU32の指令に従ってCCD制御部31から与えられる駆動パルスに基づいて信号電荷に応じた電圧信号(画像信号)としてCCD24から順次読み出される。CCD24は、電子シャッタ機能を備えており、フォトダイオードへの電荷蓄積時間を制御することにより、露光時間(シャッタ速度)が制御される。尚、電子シャッタによりシャッタ速度に対応する電荷蓄積開始時点が制御され、前記メカシャッタ23を閉じることにより露光終了時点(電荷蓄積終了時点)が制御される。この実施形態では、撮像素子としてCCD24を用いているが、CMOSセンサ等の他の構成の撮像素子を用いることもできる。
CCD24から読み出されたR、G、Bのアナログ信号は、アナログ信号処理部25により相関二重サンプリング(CDS)や増幅が行われた後、A/D変換器26によりR、G、Bのデジタル信号に変換される。
画像入力コントローラ27は、所定容量のラインバッファを内蔵しており、A/D変換器26によりA/D変換されたR、G、Bの画像信号(CCDRAWデータ)を一時蓄積したのち、バス60を介してRAM54に格納する。
CPU32は、3D撮像モード時には左視点画像を撮像する撮像部20-1と同様に右視点画像を撮像する撮像部20-2を制御する。
AE検出部46は、シャッタボタン11の半押し時に取り込まれる画像信号に基づいてAE制御に必要な被写体輝度を算出し、被写体輝度(撮影EV値)を示す信号をCPU32に出力する。CPU32は、入力する撮影EV値に基づいて所定のプログラム線図にしたがって複数の撮像部20-1,20-2におけるシャッタ速度(露光時間)、絞り値、撮影感度を設定する。
AF検出部48は、シャッタボタン11の半押し時に取り込まれるAFエリアの画像信号の高周波成分の絶対値を積算し、この積算した値(AF評価値)をCPU32に出力する。CPU32は、フォーカスレンズを至近から無限遠側に移動させ、AF検出部48により検出されるAF評価値が最大となる合焦位置をサーチし、その合焦位置にフォーカスレンズを移動させることにより、被写体(主要被写体)への焦点調節を行う。尚、動画撮影時には、前記AF評価値が常に最大値をとるようにフォーカスレンズを移動させる、いわゆる山登り制御が行われる。
AWB検出部50は、本撮像時に取得されたR、G、Bの画像信号に基づいて自動的に光源種(被写界の色温度)を求め、予め光源種別に設定されたR、G、Bのホワイトバランスゲイン(ホワイトバランス補正値)を記憶するテーブルから対応するホワイトバランスゲインを読み出す。
デジタル信号処理部44は、ホワイトバランス補正回路、階調変換処理回路(例えば、ガンマ補正回路)、単板CCDのカラーフィルタ配列に伴うR,G,Bなどの色信号の空間的なズレを補間して各色信号の位置を合わせる同時化回路、輪郭補正回路、輝度・色差信号生成回路等を含み、RAM54に格納されたR、G、Bの画像信号(CCDRAWデータ)に対して画像処理を行う。即ち、R、G、BのCCDRAWデータは、デジタル信号処理部44において、AWB検出部50により検出されたホワイトバランスゲインが乗算されてホワイトバランス補正が行われ、その後、階調変換処理(例えば、ガンマ補正)等の所定の処理が施された後、輝度信号(Y信号)及び色差信号(Cr、Cb信号)からなるYC信号に変換される。デジタル信号処理部44により処理されたYC信号はRAM54に格納される。
また、デジタル信号処理部44は、複数の撮像部20-1,20-2の撮影光学系のレンズ歪補正を補正するディストーション補正回路、左右視点画像からそれぞれ所定の切り出しエリアの画像を切り出すことにより複数の撮像部20-1,20-2の撮影光学系の光軸ずれを補正する画像切り出し処理回路を含んで構成されている。
圧縮/伸張処理部42は、メモリカード40への記録時にはCPU32からの指令に従い、RAM54に格納されたYC信号を圧縮処理し、また、メモリカード40に記録された圧縮された圧縮データを伸張処理してYC信号にする。
記録制御部38は、圧縮/伸張処理部42により圧縮された圧縮データを所定形式の画像ファイル(例えば、3D静止画は、MPファイル、3D動画は、モーションJPEG、H.264、MPEG4、MPEG4−MVCの動画ファイル)にしてメモリカード40に記録し、又はメモリカード40から画像ファイルの読み出しを行う。
また、記録制御部38は、本発明に係るMPファイルを記録する際には、Exif付属情報の他、最大ディスプレイサイズ、想定視距離、最大視差量(近景)(%)、最大視差量(遠景)(%)、等を付属情報としてメモリカード40に記録する。
液晶モニタ16は、撮影済み画像を表示するための画像表示部として使用されるとともに、各種設定時にGUI(グラフィカルユーザインターフェース)として使用される。また、液晶モニタ16は、撮影モード時に画角を確認するためのライブビュー画像(以下、「スルー画」という)を表示する電子ビューファインダとして利用される。表示制御部36は、液晶モニタ16に3D画像を表示させる場合には、VRAM52に保持されている左視点画像と右視点画像とを1画素ずつ交互に表示させる。液晶モニタ16に設けられているパララックスバリアにより、所定の距離から観察するユーザの左右の眼には、1画素ずつ交互に配列された左右の画像がそれぞれ別々に視認される。これにより、立体視を可能にしている。
以上のように構成された立体撮像装置10により、上記実施形態を実現することができる。なお、ここで説明した立体撮像装置10は、左右2視点の画像を撮影するために2つの撮像部を備えているが、3つ以上の撮像部を備えて3点以上の視点画像を撮影するように構成してもよい。例えば、図5に示すように、4つの撮像装置101−1〜101−4のように4つの撮像部を備えることによって、4枚の視点画像を撮影するように構成してもよい。
[立体画像再生装置]
なお、第5〜第8の実施形態については、撮像部を有しない立体画像再生装置において実現することも可能である。
図22は、本発明に係る立体画像再生装置300と3Dディスプレイ320の全体構成を示す図である。同図に示すように、立体画像再生装置300と3Dディスプレイ320とは、別個に構成された装置であり、通信ケーブル310により通信可能に接続されている。
3Dディスプレイ320は、パララックスバリア方式やレンチキュラー方式のディスプレイであり、立体画像再生装置300から3Dディスプレイ320に入力された左視点画像及び右視点画像を1ライン毎に交互に表示する。
また、3Dディスプレイ320は、左視点画像及び右視点画像を時間的に交互に切り換えて表示するものでもよい。この場合は、視認者は特殊なメガネを用いて3Dディスプレイ320を視認する。
図23は、立体画像再生装置300の内部構成を示すブロック図である。同図に示すように、立体画像再生装置300は、CPU301、記録制御部305、メモリカード306、表示制御部307、通信インターフェース308などを備えて構成されている。
CPU301は、ROM302に記録された制御プログラムに基づいて立体画像再生装置300全体の動作を統括制御する。RAM303は、CPU301の演算作業用領域として使用される。
記録制御部305、表示制御部307は、バス304を介してCPU301と接続されている。記録制御部305は、メモリカード306に対する3D画像ファイルのデータ読み書きを制御する。メモリカード306は、例えば図21に示した立体撮像装置10のメモリカード40と同じものであり、立体撮像装置10において撮影された各視点画像と付属情報を含む3D画像ファイルが記録されている。
通信インターフェース308は、通信ケーブル310が接続されるコネクタ部であり、表示制御部307は、これらを介して3Dディスプレイ320に立体画像を表示させる。通信インターフェース308、通信ケーブル310として、HDMI規格のものを採用することが考えられる。HDMI規格によれば、立体画像再生装置300は、通信ケーブル310を介して接続されている3Dディスプレイ320のディスプレイサイズを取得することができる。
なお、立体画像再生装置300に、各視点画像を撮影するための複眼の撮像手段を備えさせ、撮影した視点画像をメモリカード306に記録するように構成してもよい。また、立体画像再生装置300と3Dディスプレイ320を一体の装置として構成してもよい。
10…立体撮像装置、16…液晶モニタ、20-1,20-2…撮像部、40…メモリカード、44…デジタル信号処理部、100…被写体、101−1〜101−4…撮像装置、211N、212N…最大視差量位置(近景)、211F、212F…最大視差量位置(遠景)、213N…近景側の最大視差量、213F…遠景側の最大視差量、300…立体画像再生装置、320…3Dディスプレイ

Claims (13)

  1. 立体視用の複数の視点画像と、該複数の視点画像に対する付属情報であって、前記複数の視点画像を立体ディスプレイに表示させる際に両眼融合可能な最大ディスプレイサイズを含む付属情報とが記録された3次元画像ファイルを読み取り、該3次元画像ファイルから前記複数の視点画像及び付属情報を取得する第1の取得手段と、
    出力先の立体ディスプレイのディスプレイサイズを取得する第2の取得手段と、
    前記取得された前記立体ディスプレイのディスプレイサイズと前記最大ディスプレイサイズとを比較し、前記立体ディスプレイのディスプレイサイズが前記最大ディスプレイサイズよりも大きいか否かを判別する判別手段と、
    前記立体ディスプレイのディスプレイサイズが前記最大ディスプレイサイズよりも大きいと判別されると、前記第1の取得手段により取得された複数の視点画像に基づいて該複数の視点画像間の少なくとも遠景側の視差が小さくなる複数の視点画像を生成する画像処理手段と、
    前記判別手段により前記立体ディスプレイのディスプレイサイズが前記最大ディスプレイサイズよりも大きいと判別されると、前記画像処理手段により生成された視点画像を前記立体ディスプレイに出力し、前記立体ディスプレイのディスプレイサイズが前記最大ディスプレイサイズ以下と判別されると、前記第1の取得手段により取得された視点画像を前記立体ディスプレイに出力する出力手段と、
    を備えたことを特徴とする立体画像再生装置。
  2. 立体視用の複数の視点画像と、該複数の視点画像における遠景側の最大視差量を含む付属情報とが記録された3次元画像ファイルを読み取り、該3次元画像ファイルから前記複数の視点画像及び付属情報を取得する第1の取得手段と、
    出力先の立体ディスプレイのディスプレイサイズを取得する第2の取得手段と、
    前記取得した遠景側の最大視差量と前記立体ディスプレイのディスプレイサイズと人間の両眼間隔を示す所定値とに基づいて、前記複数の視点画像を立体ディスプレイに表示する際に両眼融合可能か否かを判別する判別手段と、
    前記判別手段により両眼融合不能と判別されると、前記第1の取得手段により取得された複数の視点画像に基づいて該複数の視点画像間の遠景側の視差が小さくなる複数の視点画像を生成する画像処理手段と、
    前記判別手段により両眼融合不能と判別されると、前記画像処理手段により生成された視点画像を前記立体ディスプレイに出力し、前記両眼融合可能と判別されると、前記第1の取得手段により取得された視点画像を前記立体ディスプレイに出力する出力手段と、
    を備えたことを特徴とする立体画像再生装置。
  3. 前記判別手段は、前記取得した遠景側の最大視差量と前記立体ディスプレイのディスプレイサイズとに基づいて、前記複数の視点画像を前記立体ディスプレイに表示させた場合の、前記最大視差量に対応する立体ディスプレイ上での画像ずれ量を算出する画像ずれ量算出手段を有し、前記算出された画像ずれ量が人間の両眼間隔を示す所定値を越えるか否かより両眼融合可能か否かを判別することを特徴とする請求項2に記載の立体画像再生装置。
  4. 前記画像処理手段は、前記立体ディスプレイ上での前記複数の視点画像の遠景側の最大視差量を、人間の両眼間隔を示す所定値以下とする前記複数の視点画像間の視差ずらしを実施し、該視差ずらしされた視点シフト画像を生成することを特徴とする請求項1から3のいずれかに記載の立体画像再生装置。
  5. 前記3次元画像ファイルの付属情報は、前記複数の視点画像における近景側の最大視差量を含み、
    前記立体ディスプレイ上での前記複数の視点画像の近景側の最大視差量と前記視点シフト画像の前記立体ディスプレイ上でのずらし量とを加算する加算手段と、
    前記加算された近景側の最大視差量に対応する画像ずれ量が前記立体ディスプレイに表示される際に両眼融合限界を越えるか否かを判別する判別手段と、を備え、
    前記出力手段は、前記判別手段により画像ずれ量が両眼融合限界を越えると判別されると、前記第1の取得手段により取得された複数の視点画像のうちのいずれか1つを前記立体ディスプレイに出力して2次元画像を表示させることを特徴とする請求項4に記載の立体画像再生装置。
  6. 前記画像処理手段は、前記第1の取得手段により取得された複数の視点画像から特徴が一致する特徴点間のずれ量を示す視差量を算出する視差量算出手段と、前記第1の取得手段により取得された複数の視点画像のうちの少なくとも1つの視点画像と前記視差量算出手段により算出された視差量とに基づいて任意の仮想視点に対応する1又は複数の仮想視点画像を生成する仮想視点画像生成手段と、を有することを特徴とする請求項1又は2に記載の立体画像再生装置。
  7. 前記出力手段は、前記判別手段により前記立体ディスプレイのディスプレイサイズが前記最大ディスプレイサイズよりも大きいと判別され、又は前記算出された画像ずれ量が人間の両眼間隔を示す所定値を越えると判別されると、前記第1の取得手段により取得された複数の視点画像のうちのいずれか1つを前記立体ディスプレイに出力して2次元画像を表示させ、その後、前記画像処理手段により前記仮想視点画像が生成されると、前記2次元画像に代えて前記仮想視点画像を出力することを特徴とする請求項6に記載の立体画像再生装置。
  8. 前記複数の視点画像に基づいて該視点画像よりも画像サイズが小さい複数の表示用画像を生成する表示用画像生成手段を備え、
    前記画像処理手段は、前記第1の取得手段により取得した複数の視点画像の代わりに前記生成された複数の表示用画像を使用して、該複数の表示用画像間の少なくとも遠景側の視差が小さくなる複数の表示用画像を生成し、
    前記出力手段は、前記表示用画像生成手段により生成された表示用画像、又は前記画像処理手段により生成された表示用画像を前記立体ディスプレイに出力することを特徴とする請求項1から7のいずれかに記載の立体画像再生装置。
  9. 前記画像処理手段により生成された視点画像及び前記表示用画像生成手段により生成された表示用画像のうちの少なくとも一方を、前記3次元画像ファイルに追記し又は上書きする記録手段を備えたことを特徴とする請求項1から8のいずれかに記載の立体画像再生装置。
  10. 複数の視点から同一被写体を撮影した複数の視点画像を取得する撮像手段と、
    前記取得した複数の視点画像から特徴が一致する特徴点間のずれ量を示す視差量を算出する視差量算出手段と、
    前記算出した各特徴点の視差量のうちの遠景側の最大視差量を取得する最大視差量取得手段と、
    前記取得した遠景側の最大視差量に基づいて、前記複数の視点画像による立体画像を立体ディスプレイに表示させる際に両眼融合可能な最大ディスプレイサイズを取得する最大ディスプレイサイズ取得手段と、
    前記複数の視点画像が記録される3次元画像ファイルを生成し、該3次元画像ファイルを記録媒体に記録する記録手段であって、前記複数の視点画像を前記3次元画像ファイルに記録し、かつ、前記遠景側の最大視差量及び最大ディスプレイサイズを付属情報として前記3次元画像ファイルに記録する記録手段と、
    請求項1から9のいずれかに記載の立体画像再生装置と、
    を備えたことを特徴とする立体撮像装置。
  11. 前記出力先の立体ディスプレイと、
    請求項1から9のいずれかに記載の立体画像再生装置と、
    を備えたことを特徴とする立体ディスプレイ装置。
  12. 立体視用の複数の視点画像と、該複数の視点画像に対する付属情報であって、前記複数の視点画像を立体ディスプレイに表示させる際に両眼融合可能な最大ディスプレイサイズを含む付属情報とが記録された3次元画像ファイルを読み取り、該3次元画像ファイルから前記複数の視点画像及び付属情報を取得する第1の取得工程と、
    出力先の立体ディスプレイのディスプレイサイズを取得する第2の取得工程と、
    前記取得された前記立体ディスプレイのディスプレイサイズと前記最大ディスプレイサイズとを比較し、前記立体ディスプレイのディスプレイサイズが前記最大ディスプレイサイズよりも大きいか否かを判別する判別工程と、
    前記立体ディスプレイのディスプレイサイズが前記最大ディスプレイサイズよりも大きいと判別されると、前記第1の取得工程により取得された複数の視点画像に基づいて該複数の視点画像間の少なくとも遠景側の視差が小さくなる複数の視点画像を生成する画像処理工程と、
    前記判別工程により前記立体ディスプレイのディスプレイサイズが前記最大ディスプレイサイズよりも大きいと判別されると、前記画像処理工程により生成された視点画像を前記立体ディスプレイに出力し、前記立体ディスプレイのディスプレイサイズが前記最大ディスプレイサイズ以下と判別されると、前記第1の取得工程により取得された視点画像を前記立体ディスプレイに出力する出力工程と、
    を備えたことを特徴とする立体画像再生方法。
  13. 立体視用の複数の視点画像と、該複数の視点画像に対する付属情報であって、前記複数の視点画像における遠景側の最大視差量を含む付属情報とが記録された3次元画像ファイルを読み取り、該3次元画像ファイルから前記複数の視点画像及び付属情報を取得する第1の取得工程と、
    出力先の立体ディスプレイのディスプレイサイズを取得する第2の取得工程と、
    前記取得した遠景側の最大視差量と前記立体ディスプレイのディスプレイサイズと人間の両眼間隔を示す所定値とに基づいて、前記複数の視点画像を立体ディスプレイに表示する際に両眼融合可能か否かを判別する判別工程と、
    前記判別工程により両眼融合不能と判別されると、前記第1の取得手段により取得された複数の視点画像に基づいて該複数の視点画像間の少なくとも遠景側の視差が小さくなる複数の視点画像を生成する画像処理工程と、
    前記判別工程により両眼融合不能と判別されると、前記画像処理工程により生成された視点画像を前記立体ディスプレイに出力し、前記両眼融合可能と判別されると、前記第1の取得工程により取得された視点画像を前記立体ディスプレイに出力する出力工程と、
    を備えたことを特徴とする立体画像再生方法。
JP2012512838A 2010-04-28 2011-04-25 立体画像再生装置及び方法、立体撮像装置、立体ディスプレイ装置 Expired - Fee Related JP5449536B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012512838A JP5449536B2 (ja) 2010-04-28 2011-04-25 立体画像再生装置及び方法、立体撮像装置、立体ディスプレイ装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010103905 2010-04-28
JP2010103905 2010-04-28
JP2012512838A JP5449536B2 (ja) 2010-04-28 2011-04-25 立体画像再生装置及び方法、立体撮像装置、立体ディスプレイ装置
PCT/JP2011/060095 WO2011136190A1 (ja) 2010-04-28 2011-04-25 立体画像再生装置及び方法、立体撮像装置、立体ディスプレイ装置

Publications (2)

Publication Number Publication Date
JPWO2011136190A1 JPWO2011136190A1 (ja) 2013-07-18
JP5449536B2 true JP5449536B2 (ja) 2014-03-19

Family

ID=44861489

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012512838A Expired - Fee Related JP5449536B2 (ja) 2010-04-28 2011-04-25 立体画像再生装置及び方法、立体撮像装置、立体ディスプレイ装置

Country Status (4)

Country Link
US (2) US9560341B2 (ja)
JP (1) JP5449536B2 (ja)
CN (1) CN102860019B (ja)
WO (1) WO2011136190A1 (ja)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10298834B2 (en) 2006-12-01 2019-05-21 Google Llc Video refocusing
JP5449535B2 (ja) * 2010-04-28 2014-03-19 富士フイルム株式会社 立体撮像装置及びその制御方法
JP5449536B2 (ja) * 2010-04-28 2014-03-19 富士フイルム株式会社 立体画像再生装置及び方法、立体撮像装置、立体ディスプレイ装置
CN103329549B (zh) 2011-01-25 2016-03-09 富士胶片株式会社 立体视频处理器、立体成像装置和立体视频处理方法
KR20130024504A (ko) * 2011-08-31 2013-03-08 삼성전기주식회사 삼차원 카메라 시스템 및 주시각 조정 방법
US9521395B2 (en) 2011-10-04 2016-12-13 Canon Kabushiki Kaisha Imaging apparatus and method for controlling same
JP6053276B2 (ja) * 2011-12-02 2016-12-27 キヤノン株式会社 撮像装置およびその制御方法、画像処理装置
US9858649B2 (en) 2015-09-30 2018-01-02 Lytro, Inc. Depth-based image blurring
US8997021B2 (en) * 2012-11-06 2015-03-31 Lytro, Inc. Parallax and/or three-dimensional effects for thumbnail image displays
US10334151B2 (en) 2013-04-22 2019-06-25 Google Llc Phase detection autofocus using subaperture images
CN107250897B (zh) * 2014-12-24 2020-09-11 皇家飞利浦有限公司 自动立体显示设备
WO2016117194A1 (ja) * 2015-01-21 2016-07-28 ソニー株式会社 情報処理装置、通信システム、情報処理方法およびプログラム
US10565734B2 (en) 2015-04-15 2020-02-18 Google Llc Video capture, processing, calibration, computational fiber artifact removal, and light-field pipeline
US11328446B2 (en) 2015-04-15 2022-05-10 Google Llc Combining light-field data with active depth data for depth map generation
US10440407B2 (en) 2017-05-09 2019-10-08 Google Llc Adaptive control for immersive experience delivery
US10419737B2 (en) 2015-04-15 2019-09-17 Google Llc Data structures and delivery methods for expediting virtual reality playback
US10412373B2 (en) 2015-04-15 2019-09-10 Google Llc Image capture for virtual reality displays
US10444931B2 (en) 2017-05-09 2019-10-15 Google Llc Vantage generation and interactive playback
US10546424B2 (en) 2015-04-15 2020-01-28 Google Llc Layered content delivery for virtual and augmented reality experiences
US10469873B2 (en) 2015-04-15 2019-11-05 Google Llc Encoding and decoding virtual reality video
US10567464B2 (en) 2015-04-15 2020-02-18 Google Llc Video compression with adaptive view-dependent lighting removal
US10341632B2 (en) 2015-04-15 2019-07-02 Google Llc. Spatial random access enabled video system with a three-dimensional viewing volume
US10275898B1 (en) 2015-04-15 2019-04-30 Google Llc Wedge-based light-field video capture
US10540818B2 (en) 2015-04-15 2020-01-21 Google Llc Stereo image generation and interactive playback
JP6618271B2 (ja) 2015-05-01 2019-12-11 キヤノン株式会社 画像処理装置およびその制御方法、撮像装置
US9979909B2 (en) 2015-07-24 2018-05-22 Lytro, Inc. Automatic lens flare detection and correction for light-field images
CN106572389A (zh) * 2015-10-08 2017-04-19 小米科技有限责任公司 调节显示图像方法及装置
US10275892B2 (en) 2016-06-09 2019-04-30 Google Llc Multi-view scene segmentation and propagation
US10679361B2 (en) 2016-12-05 2020-06-09 Google Llc Multi-view rotoscope contour propagation
US10594945B2 (en) 2017-04-03 2020-03-17 Google Llc Generating dolly zoom effect using light field image data
US10474227B2 (en) 2017-05-09 2019-11-12 Google Llc Generation of virtual reality with 6 degrees of freedom from limited viewer data
US10354399B2 (en) 2017-05-25 2019-07-16 Google Llc Multi-view back-projection to a light-field
US10545215B2 (en) 2017-09-13 2020-01-28 Google Llc 4D camera tracking and optical stabilization
CN108171682B (zh) * 2017-12-04 2022-04-19 北京中科慧眼科技有限公司 基于远景的双目同步曝光率检测方法、系统及存储介质
US10965862B2 (en) 2018-01-18 2021-03-30 Google Llc Multi-camera navigation interface
US10567743B1 (en) 2018-09-24 2020-02-18 Cae Inc. See-through based display method and system for simulators
US10567744B1 (en) 2018-09-24 2020-02-18 Cae Inc. Camera-based display method and system for simulators

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3735617B2 (ja) * 1996-04-05 2006-01-18 松下電器産業株式会社 多視点画像伝送方法、多視点画像表示方法および多視点画像表示装置
US6163337A (en) * 1996-04-05 2000-12-19 Matsushita Electric Industrial Co., Ltd. Multi-view point image transmission method and multi-view point image display method
GB2354389A (en) * 1999-09-15 2001-03-21 Sharp Kk Stereo images with comfortable perceived depth
WO2001097531A2 (en) * 2000-06-12 2001-12-20 Vrex, Inc. Electronic stereoscopic media delivery system
JP2002095018A (ja) * 2000-09-12 2002-03-29 Canon Inc 画像表示制御装置及び画像表示システム、並びに画像データの表示方法
JP4138425B2 (ja) * 2002-09-25 2008-08-27 シャープ株式会社 画像表示装置および方法
JP4490074B2 (ja) * 2003-04-17 2010-06-23 ソニー株式会社 立体視画像処理装置、立体視画像表示装置、立体視画像提供方法、および立体視画像処理システム
JP2005073049A (ja) * 2003-08-26 2005-03-17 Sharp Corp 立体映像再生装置および立体映像再生方法
JP4578294B2 (ja) * 2005-03-18 2010-11-10 株式会社エヌ・ティ・ティ・データ三洋システム 立体視画像表示装置、立体視画像表示方法及びコンピュータプログラム
JP4763571B2 (ja) * 2006-10-24 2011-08-31 シャープ株式会社 立体画像生成装置及び立体画像復号装置
KR101427647B1 (ko) * 2007-04-25 2014-08-07 삼성전자주식회사 패킷 생성과 처리에 관한 방법 및 그 장치
US8390674B2 (en) * 2007-10-10 2013-03-05 Samsung Electronics Co., Ltd. Method and apparatus for reducing fatigue resulting from viewing three-dimensional image display, and method and apparatus for generating data stream of low visual fatigue three-dimensional image
WO2009051457A2 (en) * 2007-10-19 2009-04-23 Samsung Electronics Co., Ltd. Method of recording three-dimensional image data
JP2010169777A (ja) * 2009-01-21 2010-08-05 Sony Corp 画像処理装置、画像処理方法およびプログラム
US8629899B2 (en) * 2009-08-06 2014-01-14 Qualcomm Incorporated Transforming video data in accordance with human visual system feedback metrics
US9131279B2 (en) * 2009-08-06 2015-09-08 Qualcomm Incorporated Preparing video data in accordance with a wireless display protocol
GB2473282B (en) * 2009-09-08 2011-10-12 Nds Ltd Recommended depth value
US20110116540A1 (en) * 2009-11-18 2011-05-19 General Instrument Corporation Multimedia Content Handling in a Home-Network System
US20130010064A1 (en) * 2010-03-24 2013-01-10 Panasonic Corporation Video processing device
JP5449536B2 (ja) * 2010-04-28 2014-03-19 富士フイルム株式会社 立体画像再生装置及び方法、立体撮像装置、立体ディスプレイ装置
WO2011136191A1 (ja) * 2010-04-28 2011-11-03 富士フイルム株式会社 立体画像再生装置及び方法、立体撮像装置、立体ディスプレイ装置

Also Published As

Publication number Publication date
CN102860019A (zh) 2013-01-02
US20130093859A1 (en) 2013-04-18
US9560341B2 (en) 2017-01-31
CN102860019B (zh) 2015-07-29
JPWO2011136190A1 (ja) 2013-07-18
US20170094267A1 (en) 2017-03-30
WO2011136190A1 (ja) 2011-11-03

Similar Documents

Publication Publication Date Title
JP5449536B2 (ja) 立体画像再生装置及び方法、立体撮像装置、立体ディスプレイ装置
JP5449537B2 (ja) 立体画像再生装置及び方法、立体撮像装置、立体ディスプレイ装置
JP5584677B2 (ja) 立体撮像装置及び画像補正方法
JP4875225B2 (ja) 立体撮像装置
JP5166650B2 (ja) 立体撮像装置、画像再生装置及び編集ソフトウエア
JP5449535B2 (ja) 立体撮像装置及びその制御方法
JP5486697B2 (ja) 立体動画再生装置、立体動画再生プログラムならびにその記録媒体、立体ディスプレイ装置、立体撮像装置及び立体動画再生方法
WO2013065543A1 (ja) 視差調節装置及び方法、撮影装置、再生表示装置
JP5449551B2 (ja) 画像出力装置、方法およびプログラム
JP5466773B2 (ja) 立体動画再生装置、立体動画再生プログラムならびにその記録媒体、立体ディスプレイ装置、立体撮像装置及び立体動画再生方法
JP5750457B2 (ja) 立体動画処理装置、立体動画処理プログラム及びその記録媒体、立体撮像装置並びに立体動画処理方法
JP5160460B2 (ja) 立体撮像装置および立体撮像方法
JP5580486B2 (ja) 画像出力装置、方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130502

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131224

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5449536

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees