JP2013005135A - 画像処理装置および方法、並びにプログラム - Google Patents

画像処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP2013005135A
JP2013005135A JP2011132865A JP2011132865A JP2013005135A JP 2013005135 A JP2013005135 A JP 2013005135A JP 2011132865 A JP2011132865 A JP 2011132865A JP 2011132865 A JP2011132865 A JP 2011132865A JP 2013005135 A JP2013005135 A JP 2013005135A
Authority
JP
Japan
Prior art keywords
viewpoint
image
unit
viewer
viewers
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011132865A
Other languages
English (en)
Inventor
Nobuo Ueki
伸夫 上木
Kazuhiko Nishibori
一彦 西堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011132865A priority Critical patent/JP2013005135A/ja
Priority to PCT/JP2012/003764 priority patent/WO2012172766A1/en
Priority to US14/115,043 priority patent/US20140071237A1/en
Priority to CN201280028044.4A priority patent/CN103597824A/zh
Publication of JP2013005135A publication Critical patent/JP2013005135A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/368Image reproducers using viewer tracking for two or more viewers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】多視点画像を視聴者数に最適な解像度で表示できるようにする。
【解決手段】撮像部21は、視聴者の存在する方向の画像を撮像する。顔画像検出部22は、画像から顔画像を検出する。視聴者数検出部23は、顔画像に基づいて視聴者数を検出する。多視点画像生成部26は、視聴者数に応じた多視点画像を生成して表示部27に供給する。パララックスバリアピッチ算出部61は、視聴者数に応じてパララックスバリアピッチを算出する。パララックスバリアピッチ制御部62は、パララックスバリアピッチの算出結果に基づいて、パララックスバリア63を制御する。表示画素配列設定部64は、多視点画像をスリット状に分割し、視聴者位置と左右反転した順序でディスプレイ65に表示させる。本技術は、3次元画像処理装置に適用することができる。
【選択図】図1

Description

本技術は、画像処理装置および方法、並びにプログラムに関し、特に、入力画像である2視点の裸眼3次元立体視画像が入力されるとき、視聴者数に対応した適切な解像度で多視点画像を視聴できるようにした画像処理装置および方法、並びにプログラムに関する。
特殊なメガネを用いることなく立体視の出来る裸眼の画像表示装置としては,パララックスバリア方式(例えば、特許文献1参照)やレンチキュラレンズ方式(例えば、特許文献2参照)が良く知られている。
特開平7−5420号公報 特開平5−49044号公報
ところで、上述した二眼式のパララックスバリア方式やレンチキュラ方式は、いずれの場合も、画素を右眼用画素と左眼用画素とに分けて、それぞれ右眼用画像および左眼用画像を表示するため、解像度が半分になる。このため、さらに多くの視聴者の視点方向に対応するように多視点での視聴が可能な構成にすると、さらに、解像度が低下する。
しかしながら、必ずしも多視点での視聴が必要となるわけではなく、例えば、視聴者数が1人であるにも関わらず、多視点での視聴を可能としたことにより、その1人の視聴者は低解像度の画像を視聴することになってしまうことがあった。
本技術はこのような状況に鑑みてなされたものであり、特に、入力画像として2視点の裸眼3次元立体視画像が入力されるとき、視聴者数に対応した適切な解像度で多視点画像を視聴できるようにするものである。
本技術の一側面の画像処理装置は、視聴者数を検出する視聴者数検出部と、前記視聴者数検出部により検出された視聴者数に基づいて、必要視点数を算出する必要視点数算出部と、入力される立体視可能な2視点画像を用いて、前記必要視点数算出部により算出された必要視点数分の多視点画像を生成する多視点画像生成部と、前記多視点画像の視点方向の画像毎にスリット状に分割し、視点方向の配置順序と逆方向の順序で繰り返し配置して表示させる表示部と、前記表示部における視点方向のスリット状の画像毎の配置間隔に基づいて、前記視線方向毎の画像を、前記視線方向毎に透過させる視差障壁を構成する視差障壁部とを含む。
視聴者の存在する方向の画像を撮像する撮像部と、前記撮像部により撮像された画像内の視聴者の顔画像を検出する顔画像検出部をさらに含ませるようにすることができ、前記視聴者数検出部には、前記顔画像検出部により検出された顔画像の数に基づいて、視聴者数を検出させるようにすることができる。
前記必要視点数算出部には、前記視聴者数検出部により検出された視聴者数の視聴者が水平方向に等間隔で存在し、前記視聴者それぞれの第1の視点画像である左眼用画像が、左隣りの視聴者の第2の視点画像である右眼用画像と同一であり、前記視聴者それぞれの第2の視点画像である右眼用画像が、右隣りの視聴者の第1の視点画像である左眼用画像と同一であるものとしたときの視点数を算出させるようにすることができる。
前記多視点画像生成部には、入力される立体視可能な2視点画像を用いて、それらの内挿補間、または外挿補間により、前記必要視点数算出部により算出された必要視点数分の多視点画像を生成させるようにすることができる。
前記視聴者の存在する位置を検出する視聴者位置検出部をさらに含ませるようにすることができ、前記多視点画像生成部には、前記視聴者位置検出部により検出された前記視聴者の存在する位置に基づいて、入力される立体視可能な2視点画像を用いて、前記必要視点数算出部により算出された必要視点数分の多視点画像を生成させるようにすることができる。
前記視差障壁部は、パララックスバリアとすることができ、前記表示部における視点方向のスリット状の画像毎の配置間隔に基づいて、前記視線方向毎の画像を、前記視線方向毎に透過させるパララックスバリアのスリットのピッチを算出するスリットピッチ算出部をさらに含み、前記スリットピッチ算出部により算出されたピッチのスリットを構成することで、前記視線方向毎の画像を、前記視線方向毎に透過させる視差障壁を構成させるようにすることができる。
前記視差障壁部は、レンチキュラレンズとすることができ、前記表示部における視点方向のスリット状の画像毎の配置間隔に基づいて、前記視線方向毎の画像を、前記視線方向毎に透過させるレンチキュラレンズで構成される凹凸のピッチを算出する凹凸ピッチ算出部をさらに含み、前記凹凸ピッチ算出部により算出されたピッチの凹凸を構成することで、前記視線方向毎の画像を、前記視線方向毎に透過させる視差障壁を構成させるようにすることができる。
本技術の一側面の画像処理方法は、視聴者数を検出する視聴者数検出部における、前記視聴者数を検出する視聴者数検出ステップと、前記視聴者数検出部により検出された視聴者数に基づいて、必要視点数を算出する必要視点数算出部における、前記視聴者数検出ステップの処理により検出された視聴者数に基づいて、必要視点数を算出する必要視点数算出ステップと、入力される立体視可能な2視点画像を用いて、前記必要視点数算出部により算出された必要視点数分の多視点画像を生成する多視点画像生成部における、前記入力される立体視可能な2視点画像を用いて、前記必要視点数算出ステップの処理により算出された必要視点数分の多視点画像を生成する多視点画像生成ステップと、前記多視点画像の視点方向の画像毎にスリット状に分割し、視点方向の配置順序と逆方向の順序で繰り返し配置して表示させる表示部における、前記多視点画像の視点方向の画像毎にスリット状に分割し、視点方向の配置順序と逆方向の順序で繰り返し配置して表示させる表示ステップと、前記表示部における視点方向のスリット状の画像毎の配置間隔に基づいて、前記視線方向毎の画像を、前記視線方向毎に透過させる視差障壁を構成する視差障壁部における、前記表示ステップの処理における視点方向のスリット状の画像毎の配置間隔に基づいて、前記視線方向毎の画像を、前記視線方向毎に透過させる視差障壁を構成する視差障壁ステップとを含む。
本技術の一側面のプログラムは、視聴者数を検出する視聴者数検出部と、前記視聴者数検出部により検出された視聴者数に基づいて、必要視点数を算出する必要視点数算出部と、入力される立体視可能な2視点画像を用いて、前記必要視点数算出部により算出された必要視点数分の多視点画像を生成する多視点画像生成部と、前記多視点画像の視点方向の画像毎にスリット状に分割し、視点方向の配置順序と逆方向の順序で繰り返し配置して表示させる表示部と、前記表示部における視点方向のスリット状の画像毎の配置間隔に基づいて、前記視線方向毎の画像を、前記視線方向毎に透過させる視差障壁を構成する視差障壁部とを含む画像処理装置を制御するコンピュータに、前記視聴者数検出部における、視聴者数を検出する視聴者数検出ステップと、前記必要視点数算出部における、前記視聴者数検出ステップの処理により検出された視聴者数に基づいて、必要視点数を算出する必要視点数算出ステップと、前記多視点画像生成部における、入力される立体視可能な2視点画像を用いて、前記必要視点数算出ステップの処理により算出された必要視点数分の多視点画像を生成する多視点画像生成ステップと、前記表示部における、前記多視点画像の視点方向の画像毎にスリット状に分割し、視点方向の配置順序と逆方向の順序で繰り返し配置して表示させる表示ステップと、前記視差障壁部における、前記表示ステップの処理における視点方向のスリット状の画像毎の配置間隔に基づいて、前記視線方向毎の画像を、前記視線方向毎に透過させる視差障壁を構成する視差障壁ステップとを含む処理を実行させる。
視聴者数が検出され、検出された視聴者数に基づいて、必要視点数が算出され、入力される立体視可能な2視点画像を用いて、算出された必要視点数分の多視点画像が生成され、前記多視点画像が視点方向の画像毎にスリット状に分割され、視点方向の配置順序と逆方向の順序で繰り返し配置されて表示され、視点方向のスリット状の画像毎の配置間隔に基づいて、前記視線方向毎の画像が、前記視線方向毎に透過される視差障壁が構成される。
本技術の画像処理装置は、独立した装置であっても良いし、画像処理を行うブロックであっても良い。
本技術によれば、2視点の入力画像より裸眼による多視点の3次元立体視画像を簡易な手法で生成することが可能となる。
本技術を適用した画像処理装置の第1の実施の形態の構成例を示すブロック図である。 図1の画像処理装置による多視点画像表示処理を説明するフローチャートである。 多視点画像の表示処理を説明する図である。 パララックスバリアのスリットのピッチを算出する方法を説明する図である。 画像処理装置の第2の実施の形態の構成例を示すブロック図である。 図5の画像処理装置による多視点画像表示処理を説明するフローチャートである。 視聴者の位置に対応した多視点画像の表示処理を説明する図である。 視聴者の位置に対応した多視点画像の表示例を説明する図である。 画像処理装置の第3の実施の形態の構成例を示すブロック図である。 図9の画像処理装置による多視点画像表示処理を説明するフローチャートである。 汎用のパーソナルコンピュータの構成例を説明する図である。
以下、本技術を実施するための形態(以下実施の形態とする)について説明する。なお、説明は以下の順序で行なう。
1.第1の実施の形態(パララックスバリアを使用する例)
2.第2の実施の形態(視聴者の位置情報を利用する例)
3.第3の実施の形態(レンチキュラレンズを使用する例)
<1.第1の実施の形態>
[パララックスバリアを使用した画像処理装置]
図1は、本技術を適用した画像処理装置の第1の実施の形態の構成例を示している。図1の画像処理装置11は、右眼用画像、および左眼用画像の入力画像であって、所定の視差を以って裸眼による3次元立体視を可能とする画像を、視聴者数に基づいた適切な解像度の多視点画像として表示するものであり、例えば、テレビジョン受像機などである。
図1の画像処理装置11は、撮像部21、顔画像検出部22、視聴者数検出部23、必要視点数算出部24、右眼用画像取得部25−1、左眼用画像取得部25−2、多視点画像生成部26、および表示部27を備えている。
撮像部21は、画像処理装置11により表示される画像を視聴する視聴者が存在する方向の画像を撮像し、顔画像検出部22に供給する。
顔画像検出部22は、供給されてきた画像より人体の顔の輪郭の情報や、器官である眼、耳、鼻、または口などを検出可能な特徴量を抽出して、矩形状の顔画像として特定し、特定した顔画像を、撮像された画像と共に視聴者数検出部23に供給する。
視聴者数検出部23は、顔画像検出部22より供給されてくる顔画像を取得すると、取得した顔画像の数を求め、これを視聴者数として検出し、検出結果である視聴者数の情報を必要視点数算出部24に供給する。
必要視点数算出部24は、視聴者数検出部23より供給されてくる視聴者数の情報に基づいて、多視点画像を構成する際に必要とされる必要視点数を算出し、多視点画像生成部26、および表示部27に供給する。視聴者は、表示される画像に対して水平方向に略等間隔に存在するものと仮定する。また、視聴者が3次元立体視可能とするには、視聴者1人に付き、それぞれ左眼用画像、および右眼用画像が設定される。さらに、第1の視聴者に対して左隣に存在する第2の視聴者は、第1の視聴者の左眼用画像を、自らの右眼用画像として利用するものとする。また、同様に、第1の視聴者に対して右隣に存在する第3の視聴者は、第1の視聴者の右眼用画像を、自らの左眼用画像として利用するものとする。したがって、例えば、視聴者が3人の場合、必要視点数は、4視点となる。
右眼用画像取得部25−1、および左眼用画像取得部25−2は、それぞれ入力される3次元立体視可能な右眼用画像、および左眼用画像を取得し、多視点画像生成部26に供給する。
多視点画像生成部26は、必要視点数算出部24より供給されてくる必要視点数の情報に基づいて、右眼用画像取得部25−1、および左眼用画像取得部25−2より供給されてくる右眼用画像、および左眼用画像より多視点画像を生成して表示部27に供給する。
より詳細には、多視点画像生成部26は、2視点判定部41、2視点画像出力部42、N視点画像生成部43、および選択出力部44より構成されている。2視点判定部41は、必要視点数算出部24より供給されてくる必要視点数が2視点であるか否かを判定し、判定結果を選択出力部44に供給する。2視点画像出力部42は、右眼用画像取得部25−1、および左眼用画像取得部25−2より供給されてくる右眼用画像、および左眼用画像をそのまま選択出力部44に供給する。N視点画像生成部43は、必要視点数算出部24より供給されてくる必要視点数の情報に基づいて、右眼用画像取得部25−1、および左眼用画像取得部25−2より供給されてくる右眼用画像、および左眼用画像を利用して、必要視点数の画像を、補間生成部43aを制御して、内挿補間、または外挿補間により必要視点数分の画像を生成して選択出力部44に供給する。選択出力部44は、2視点判定部41より供給される判定結果に基づいて、必要視点数が2視点であった場合、2視点画像出力部42より供給されてくる右眼用画像、および左眼用画像からなる2視点画像を、そのまま表示部27に出力する。一方、選択出力部44は、2視点判定部41より供給される判定結果に基づいて、必要視点数が2視点ではない場合、N視点画像生成部43により生成された多視点画像を表示部27に出力する。
表示部27は、必要視点数算出部24より供給されてくる必要視点数の情報に基づいて、パララックスバリア63のスリットのピッチ(間隔)を制御すると共に、多視点画像生成部26より供給されてくる2視点画像、または、多視点画像を表示させて、パララックスバリア63を介して多視点画像を表示する。
より詳細には、表示部27は、パララックスバリアピッチ算出部61、パララックスバリアピッチ制御部62、パララックスバリア63、表示画素配列設定部64、およびディスプレイ65を備えている。パララックスバリアピッチ算出部61は、必要視点数算出部24により算出された必要視点数に応じて、パララックスバリア63によりディスプレイ65から発光される光を透過する垂直方向のスリットのピッチ(スリット間隔)を算出して、パララックスバリアピッチ制御部62に供給する。パララックスバリアピッチ制御部62は、パララックスバリアピッチ算出部61により算出されたパララックスバリアのピッチ(スリット間隔)の情報に基づいて、対応する垂直方向のスリットを構成するようにパララックスバリア63の動作を制御する。
パララックスバリア63は、例えば、液晶パネルなどからなり、パララックスバリアピッチ制御部62により制御されたピッチで垂直方向のスリットを構成する。より詳細には、パララックスバリア63は、例えば、液晶により垂直方向のスリットを構成する領域以外については、遮光領域を構成して、スリット領域のみを光の透過領域に設定することにより視差障壁を構成し、パララックスバリアとして機能する。表示画素配列設定部64は、必要視点数算出部24より供給されてくる必要視点数に応じて、生成された多視点画像を画素列単位でスリット状に分離して、視線方向に対して反転方向にスリット状の多視点画像を配置してディスプレイ65を表示させる。ディスプレイ65は、液晶ディスプレイ(LCD)、プラズマディスプレイ、または有機ELなどからなり、表示画素配列設定部64より供給されてくる画素値で画素より発色させることで画像を表示する。
[図1の画像処理装置による多視点画像表示処理]
次に、図2のフローチャートを参照して、図1の画像処理装置11による多視点画像表示処理について説明する。
ステップS1において、撮像部21は、視聴者の存在する方向、すなわち、表示部27により表示される画像と対向する方向の画像を撮像し、撮像した画像を顔画像検出部22に供給する。
ステップS2において、顔画像検出部22は、供給されてきた画像より顔画像を検出するのに必要とされる特徴量を抽出することにより、矩形状の顔画像として検出し、撮像された画像と共に矩形状の顔画像を視聴者数検出部23に供給する。
ステップS3において、視聴者数検出部23は、供給されてきた顔画像の数に基づいて、視聴者数を検出し、検出した視聴者数の情報を必要視点数算出部24に供給する。
ステップS4において、必要視点数算出部24は、視聴者数検出部23より供給されてきた視聴者数の情報に基づいて、必要視点数Nを算出する。すなわち、例えば、視聴者数が1人であるような場合、図3の右部で示されるように、必要視点数は、ディスプレイ65、およびパララックスバリア63の表示方向に対して対向する位置に存在する視聴者H1の左眼用の視点L1、および右眼用の視点R1の合計2視点となる。この場合、視聴者Hの視点L1,R1のそれぞれに左眼用画像としての視点画像A、および右眼用画像としての視点画像Bが必要となる。一方、視聴者数が3人であるような場合、図3の左部で示されるように、必要視点数は、ディスプレイ65、およびパララックスバリア63に対して対向する位置に存在する視聴者H11乃至H13のそれぞれの左眼用の視点、および右眼用の視点となる。ここで、視聴者H11乃至H13は、ディスプレイ65、およびパララックスバリア63と対向する面に等間隔で存在するものと仮定する。すなわち、視聴者H11に必要な視点は、左眼用の視点L11、および右眼用の視点R11である。また、視聴者H12に必要な視点は、左眼用の視点L12、および右眼用の視点R12である。さらに、視聴者H13に必要な視点は、左眼用の視点L13、および右眼用の視点R13である。従って、この場合、視聴者H11の視点L11に左眼用画像としての視点画像Aが必要となり、視聴者H11の視点R11への右眼用画像、および視聴者H12の視点L12への左眼用画像としての視点画像Bが必要となる。また、視聴者H12の視点R12への右眼用画像、および視聴者H13の視点L13への左眼用画像としての視点画像Cが必要となり、視聴者H13の視点R13に右眼用画像としての視点画像Dが必要となる。
すなわち、視聴者H12を基準と考えるとき、視聴者H12の左隣の視聴者H11の右眼用画像となる視点R11と、視聴者H12の左眼用画像となる視点L12とは、同一になる。また、視聴者H12の右隣の視聴者H13の左眼用画像となる視点L12と、視聴者H12の右眼用画像となる視点R12とは、同一になる。
この結果、視聴者数が3人である場合、必要視点数Nは4となる。尚、これ以外の人数であっても、各視聴者の視点は、右隣りに存在する人物とは、左眼用画像の視点を、左隣りに存在する人物とは、右眼用画像の視点をそれぞれ共有する構成とする。また、図3において、ディスプレイ65上に付されたA乃至Dは、いずれも視点画像A乃至Dに対応する画像が画素単位で垂直方向にスリット状に分割された画素配置を示している。また、パララックスバリア63は、実線部分が遮光領域であり、その隙間がスリットであり、ディスプレイ65により発せられる光の透過領域である。尚、図3におけるパララックスバリア63のQ2,Q4は、それぞれ必要視点数Nが2,4におけるスリットのピッチ(間隔)を示しており、ディスプレイ65におけるpは、画素のピッチ(間隔)を示している。
ステップS5において、多視点画像生成部26の2視点画像出力部42は、右眼用画像取得部25−1より供給されてくる右眼用画像、および左眼用画像取得部25−2より供給されてくる左眼用画像をそのまま2視点画像として選択出力部44に出力する。
ステップS6において、多視点画像生成部26のN視点画像生成部43は、右眼用画像取得部25−1より供給されてくる右眼用画像、および左眼用画像取得部25−2より供給されてくる左眼用画像より、必要視聴者数に応じてN視点画像を生成する。そして、N視点画像生成部43は、生成したN視点画像を選択出力部44に出力する。
より詳細には、N視点画像生成部43は、例えば、図3の左部で示されるように必要視点数が4である場合、視点画像B,Cが、入力された2視点画像となるので、視点画像A,Dをそれぞれ視点画像B,Cの外挿補間により求める。また、必要視点数が3であるような場合、N視点画像生成部43は、図3の左部で示されるように、4視点となる視点画像A乃至Dの画像を生成した後、この視点A,B間、B,C間、およびC,D間のそれぞれで内挿補間により新たな3種類の視点となる画像を生成する。また、入力画像の水平解像度が1920画素である場合、2視点画像のとき、各視点画像の水平解像度は960画素となり、さらに、4視点画像のとき、各視点画像の水平解像度は480画素となり、必要視点数に応じて変化することとなるが、必要視点数に応じて、不要に多視点画像が構成されないので、必要視点数に応じて適切な水平解像度の視点画像が生成される。
ステップS7において、2視点判定部41は、必要視点数Nが2であるか否かを判定する。ステップS7において、必要視点数Nが2である場合、ステップS8において、2視点判定部41は、必要視点数N=2であることを選択出力部44に供給する。選択出力部44は、2視点判定部41より供給されてくる判定結果が2視点画像であるので、2視点画像出力部42より供給されてくる入力画像である2視点画像をそのまま表示部27に供給する。
一方、ステップS7において、必要視点数Nが2ではない場合、ステップS9において、選択出力部44は、N視点画像生成部43より供給されてくるN視点画像を表示部27に供給する。
ステップS10において、表示部27のパララックスバリアピッチ算出部61は、必要視点数Nに応じて、パララックスバリア63におけるスリットのピッチ(間隔)を算出し、算出結果をパララックスバリアピッチ制御部62に供給する。より詳細には、パララックスバリア63におけるスリットのピッチは、図4で示されるディスプレイ65、パララックスバリア63、および視聴者H11乃至H13のそれぞれの視点画像により、以下の式(1),式(2)の関係を満たすように設定される。
e:p=d:g
・・・(1)
Q:d=N×p:(d+g)
・・・(2)
ここで、eは、各視聴者の左右の眼の眼間距離であり、pはディスプレイ65の画素間のピッチ(間隔)であり、dはパララックスバリア63から視聴者の観測位置までの距離であり、gは、パララックスバリア63(のスリット:開口部)とディスプレイ65との距離である。また、Qはパララックスバリア63のスリットのピッチ(間隔)であり、Nは必要視点数である。
この結果、パララックスバリアのスリットのピッチQは、以下の式(3)を算出することにより求められる。
Q=(d×N×p)/(d+g)
・・・(3)
ステップS11において、パララックスバリアピッチ制御部62は、バララックスバリア63のパネルを制御して、パララックスバリアピッチ算出部61より供給されてくるピッチでスリットを設けるように設定する。このとき、パララックスバリア63は、中央にスリットが設けられ、そのスリットを基準として、順次パララックスバリアピッチ算出部61より供給されてくるピッチ(間隔)でスリットが設定される。
ステップS12において、表示画素配列設定部64は、選択出力部44より供給されてきた2視点画像、またはN視点画像を、図3で示されるように、画素列単位でスリット状に分割し、視聴者の配列方向に対して、配列順序を左右反転するように画素列を配置してディスプレイ65を表示させる。
すなわち、例えば、図3の左部で示されるように、視聴者H11乃至H13が視聴する位置において、図中の左から視点画像A乃至Dと設定されている場合、ディスプレイ65上の画素列配列は、画素列単位でスリット状に分割された視点画像A乃至Dに対応する視線方向の画像が、左右反転した順序で、画像D乃至Aと繰り返し配列される。
以上の処理により、視聴者H11乃至H13は、それぞれ異なる視点で表示部27に表示された画像を視聴しても、いずれの位置でも3次元立体視画像を視聴することが可能となる。このため、例えば、水平解像度が1920画素の画像である場合には、必要視点数Nが4であれば、各視点画像は480画素となり、必要視点数Nが2であれば、各視点の画像は960画素となる。すなわち、視聴者数に応じて、各視聴者が視聴する水平解像度が可変となるため、視聴者数に応じて、適切な解像度で多視点での立体視画像の視聴を実現することが可能となる。
<2.第2の実施の形態>
[視聴者の位置を利用した画像処理装置]
以上においては、入力画像である2視点画像から視聴者数により設定される必要視点数に応じてN視点画像を生成して表示する例について説明してきたが、各画像について、視点位置により異なる多視点画像が生成されている場合、視聴者数のみならず、視聴者の位置に応じた2視点画像を選択して表示するようにしてもよい。
図5は、視聴者数のみならず、視聴者の位置に応じた2視点画像を生成して表示するようにした画像処理装置の第2の実施の形態の構成例である。尚、図5の画像処理装置11において、図1の画像処理装置11と同一の機能を備えた構成については、同一の名称、および同一の符号を付しており、その説明は、省略するものとする。
すなわち、図5の画像処理装置11において、図1の画像処理装置11と異なる点は、視聴者位置検出部81を新たに備えた点である。さらに、多視点画像生成部26において、N視点画像生成部43、および選択出力部44に代えて、N視点画像生成部91、および選択出力部92が設けられている。
視聴者位置検出部81は、顔画像検出部22より供給されてくる矩形画像からなる顔画像と、撮像された画像内に基づいて、矩形画像からなる顔画像の、撮像された画像内における位置を検出し、これを視聴者位置として検出する。視聴者位置検出部81は、検出した視聴者位置の情報を多視点画像生成部26に供給する。
多視点画像生成部26のN視点画像生成部91は、視聴者位置検出部81より供給されてくる視聴者位置、および必要視点数Nの情報に基づいて、視聴者のそれぞれの位置に対応する2視点画像を、右眼用画像および左眼用画像により多視点画像を生成する。そして、N視点画像生成部91は、生成した選択出力部92に供給する。
選択出力部92は、基本的な機能は選択出力部44と同一であるが、2視点判定部41により2視点であるとの判定がなされると共に、さらに、視聴者位置の情報に基づいて、視聴者が表示部27に対して正面に存在する場合にのみ、2視点画像出力部42より供給されてくる2視点画像を表示部27に出力する。
[図5の画像処理装置11による多視点画像表示処理]
次に、図6のフローチャートを参照して、図5の画像処理装置11により多視点画像表示処理について説明する。尚、図6のフローチャートにおけるステップS31乃至S34,S36およびステップS40乃至S45の処理については、図2のフローチャートを参照して説明したステップS1乃至S5、およびステップS8乃至S12の処理と同様であるので、その説明は省略するものとする。
すなわち、ステップS31乃至S34の処理により、必要視点数が求められると、ステップS35において、視聴者位置検出部81は、顔画像検出部22より供給されてくる矩形画像からなる顔画像の画像内の位置に基づいて、視聴者位置を検出し、検出した視聴者位置の情報を多視点画像生成部26に供給する。
ステップS36において、2視点画像生成部42は、右眼用画像取得部25−1、および左眼用画像取得部25−2より供給されてくる右眼用画像および左眼用画像をそのまま選択出力部92に供給する。
ステップS37において、N視点画像生成部91は、視聴者位置検出部81より供給されてくる視聴者位置と必要視点数Nの情報に基づいて、視聴者の位置に対応する2視点画像を、右眼用画像および左眼用画像より生成して、選択出力部44に供給する。
すなわち、視聴者が1人である場合、例えば、図7の左部、中央部、および右部に存在する視聴者H11乃至H13は、それぞれ異なる方向からパララックスバリア63およびディスプレイ65を視聴していることになる。すなわち、視聴者H11乃至H13は、それぞれディスプレイ65およびパララックスバリア63を自らの位置から見て右手方向、正面方向、および左手方向に見ていることになる。ディスプレイ65およびパララックスバリア63の存在する位置に、例えば、図8の左部で示されるように、上底部に「あ」の記載があり、その側面に「上底部からみて反時計回りに「こさしすせそた」と記述されているる円柱状のオブジェクトB1が表示された多視点画像が多視点画像取得部82に取得されているものとする。この場合、図8の左部で示されるように、視聴者H11乃至H13は、オブジェクトB1をそれぞれ右手方向、正面方向、および左手方向に見ていることになる。すなわち、図7における視聴者H11乃至H13がディスプレイ65およびパララックスバリア63を視聴している位置関係と一致することになる。
そこで、N視点画像生成部91は、図7の左部で示される視聴者H11のようにディスプレイ65およびパララックスバリア63を右手方向に見る位置に視聴者位置の情報が供給されたときには、図8の右部におけるオブジェクトB1Rが立体的に見える2視点画像を、図7で示される視点画像A,Bを、入力画像である2視点画像より外挿補間して生成し選択出力部92に供給する。
また、N視点画像生成部91は、図7の中央部で示される視聴者H12のようにディスプレイ65およびパララックスバリア63を正面方向に見る位置に視聴者位置の情報が供給されたときには、図8の右部におけるオブジェクトB1Cが立体的に見える2視点画像を、図7で示される視点画像B,Cを、入力画像である2視点画像より外挿補間して生成し選択出力部92に供給する。
さらに、N視点画像生成部91は、視聴者H13のようにディスプレイ65およびパララックスバリア63を左手方向に見る位置に視聴者位置の情報が供給されたときには、図8の右部におけるオブジェクトB1Lが立体的に見える2視点画像を、図7で示される視点画像C,Dを、入力画像である2視点画像より外挿補間して生成し選択出力部92に供給する。
このため、図8で示されるように、ディスプレイ65およびパララックスバリア63を右手方向にする視聴者H11には、オブジェクトB1を右手方向に眺めたときのように、オブジェクトB1を正面方向に見たとき、正面に見える太字の「す」の字が、オブジェクトB1Rで示されるように、右方向に回転してずれたように見せることが可能となる。また、ディスプレイ65およびパララックスバリア63を正面方向にする視聴者H12には、オブジェクトB1を正面方向に眺めたときのように、オブジェクトB1を正面方向に見たとき、オブジェクトB1Cで示されるように、太字の「す」の字を正面に見せることが可能となる。さらに、ディスプレイ65およびパララックスバリア63を左手方向にする視聴者H13には、オブジェクトB1を左手方向に眺めたときのように、オブジェクトB1を左手方向に見たとき、正面に見える太字の「す」の字が、オブジェクトB1Lで示されるように、左方向に回転してずれたように見せることが可能となる。
そして、ステップS38において、必要視点数Nが2である場合、ステップS39において、選択出力部92は、視聴者位置検出部81より供給されてくる視聴者位置が中央位置であるか否かを判定する。例えば、ステップS39において、視聴者位置が中央位置である場合、ステップS40において、選択出力部92は、2視点画像出力部42より供給されてくる、入力画像である2視点画像をそのまま表示部27に出力する。また、ステップS39において、視聴者位置検出部81より供給されてくる視聴者位置が中央位置ではない場合、ステップS41において、選択出力部92は、N視点画像生成部91より供給されてくるN視点画像を表示部27に出力する。
結果として、ディスプレイ65およびパララックスバリア63を視聴者が視聴する方向に対応した3次元立体視を実現することが可能となる。また、視聴者が離れた位置に複数に存在するような場合、N視点画像生成部91は、各視聴者の位置で必要とされる2視点画像を視聴者数分だけ生成することで、複数の視聴者のそれぞれの位置毎に適切な3次元立体視を実現することができる。この場合、複数の視聴者で多視点画像を共有できるときは、できるだけ共有することで、多視点画像として必要な画像を減らすようにすることができるので、解像度の低下を抑制することもできる。
以上によれば、多視点画像が生成されているような場合、ディスプレイ65やパララックスバリア63に対する視聴者の視聴位置に対応して、2視点画像を選択して表示することにより、あたかも3次元立体視するオブジェクトとの位置関係も変化しているように視聴させることが可能となる。
<3.第3の実施の形態>
[レンチキュラレンズを使用した画像処理装置]
以上においては、視差障壁を構成するものとして、パララックスバリアを用いる例について説明してきたが、視差障壁の構成を必要視点数に応じて設定できればよいので、パララックスバリアに限るものではなく、例えば、レンチキュラレンズなどであってもよい。
図9は、レンチキュラレンズを使用するようにした画像処理装置11の第3の実施の形態の構成例を示している。尚、図9において、図1の画像処理装置11と同一の機能を備えた構成については、同一の名称、および同一の符号を付しており、その説明は適宜省略するものとする。
すなわち、図9の画像処理装置11において、図1の画像処理装置11と異なるのは、パララックスバリアピッチ算出部61、パララックスバリアピッチ制御部62、およびパララックスバリア63に代えて、レンチキュラレンズピッチ算出部101、レンチキュラレンズピッチ制御部102、およびレンチキュラレンズ103を備えている点である。
レンチキュラレンズ103は、基本的にパララックスバリア63と同一の目的に使用されるものである。パララックスバリア63は、遮光領域を構成して、光の透過領域をスリットとすることにより視差障壁を構成しているが、レンチキュラレンズ103は、カマボコ状の凹凸が垂直方向に設けられた液体レンズから構成されており、レンチキュラレンズピッチ制御部102より供給される電圧により、その凹凸部のピッチが変化することで、パララックスバリアのスリットのピッチを変化させるのと同様の機能を発揮する。
レンチキュラレンズピッチ算出部101は、パララックスバリアピッチ算出部61により算出されるスリットのピッチに対応する、レンチキュラレンズ103の凹凸のピッチ(間隔)を算出し、算出結果をレンチキュラレンズピッチ制御部102に供給する。
レンチキュラレンズピッチ制御部102は、この算出結果に基づいて、対応する電圧を発生して、レンチキュラレンズ103の凹凸形状のピッチを適切な間隔に変化させて制御する。
[図9の画像処理装置による多視点画像表示処理]
次に、図10のフローチャートを参照して、図9の画像処理装置による多視点画像表示処理について説明する。尚、図10のフローチャートにおけるステップS61乃至S69,S72の処理については、図2のフローチャートにおけるステップS1乃至S9,S12における処理と同様であるので、その説明は省略する。
すなわち、ステップS61乃至S69の処理により、多視点画像、または2視点画像が表示部27に供給されると、ステップS70において、表示部27のレンチキュラレンズピッチ算出部101は、必要視点数Nに応じて、レンチキュラレンズ103における凹凸のピッチ(間隔)を算出し、算出結果をレンチキュラレンズピッチ制御部102に供給する。尚、算出方法については、上述した式(3)に対応したものであるので、その説明は省略するものとする。
ステップS71において、レンチキュラレンズピッチ制御部102は、レンチキュラレンズ103の印加電圧を制御して、レンチキュラレンズピッチ算出部101より供給されてくるピッチで凹凸を設けるように設定する。
以上の処理により、パララックスバリア63に代えてレンチキュラレンズ103を使用するようにしても、図1における画像処理装置11と同様の効果を奏することが可能である。また、レンチキュラレンズ103は、パララックスバリア63よりも透過する光量が高いので、その分、明るい立体視画像を視聴者に視聴させることが可能となる。尚、図9の画像処理装置11において、図5の画像処理装置11における場合と同様に、視聴者位置検出部81を設け、N視点画像生成部43、および選択出力部44に代えて、N視点画像生成部91、および選択出力部92を設けるようにして、視聴者位置に対応した2視点画像を表示するようにしてもよい。
以上の如く、本技術によれば、複数の視聴者が存在しても、多視点画像を視聴者数に応じた適切な解像度で表示させることが可能となる。
ところで、上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。
図11は、汎用のパーソナルコンピュータの構成例を示している。このパーソナルコンピュータは、CPU(Central Processing Unit)1001を内蔵している。CPU1001にはバス1004を介して、入出力インタフェイス1005が接続されている。バス1004には、ROM(Read Only Memory)1002およびRAM(Random Access Memory)1003が接続されている。
入出力インタフェイス1005には、ユーザが操作コマンドを入力するキーボード、マウスなどの入力デバイスよりなる入力部1006、処理操作画面や処理結果の画像を表示デバイスに出力する出力部1007、プログラムや各種データを格納するハードディスクドライブなどよりなる記憶部1008、LAN(Local Area Network)アダプタなどよりなり、インターネットに代表されるネットワークを介した通信処理を実行する通信部1009が接続されている。また、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどのリムーバブルメディア1011に対してデータを読み書きするドライブ1010が接続されている。
CPU1001は、ROM1002に記憶されているプログラム、または磁気ディスク、光ディスク、光磁気ディスク、もしくは半導体メモリ等のリムーバブルメディア1011から読み出されて記憶部1008にインストールされ、記憶部1008からRAM1003にロードされたプログラムに従って各種の処理を実行する。RAM1003にはまた、CPU1001が各種の処理を実行する上において必要なデータなども適宜記憶される。
尚、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理は、もちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理を含むものである。
尚、本技術は以下のような構成を取ることができる。
(1) 視聴者数を検出する視聴者数検出部と、
前記視聴者数検出部により検出された視聴者数に基づいて、必要視点数を算出する必要視点数算出部と、
入力される立体視可能な2視点画像を用いて、前記必要視点数算出部により算出された必要視点数分の多視点画像を生成する多視点画像生成部と、
前記多視点画像の視点方向の画像毎にスリット状に分割し、視点方向の配置順序と逆方向の順序で繰り返し配置して表示させる表示部と、
前記表示部における視点方向のスリット状の画像毎の配置間隔に基づいて、前記視線方向毎の画像を、前記視線方向毎に透過させる視差障壁を構成する視差障壁部と
を含む画像処理装置。
(2) 視聴者の存在する方向の画像を撮像する撮像部と、
前記撮像部により撮像された画像内の視聴者の顔画像を検出する顔画像検出部をさらに含み、
前記視聴者数検出部は、前記顔画像検出部により検出された顔画像の数に基づいて、視聴者数を検出する
(1)に記載の画像処理装置。
(3) 前記必要視点数算出部は、前記視聴者数検出部により検出された視聴者数の視聴者が水平方向に等間隔で存在し、前記視聴者それぞれの第1の視点画像である左眼用画像が、左隣りの視聴者の第2の視点画像である右眼用画像と同一であり、前記視聴者それぞれの第2の視点画像である右眼用画像が、右隣りの視聴者の第1の視点画像である左眼用画像と同一であるものとしたときの視点数を算出する
(1)または(2)に記載の画像処理装置。
(4) 前記多視点画像生成部は、入力される立体視可能な2視点画像を用いて、それらの内挿補間、または外挿補間により、前記必要視点数算出部により算出された必要視点数分の多視点画像を生成する
(1)乃至(3)のいずれかに記載の画像処理装置。
(5) 前記視聴者の存在する位置を検出する視聴者位置検出部と、
前記多視点画像生成部は、前記視聴者位置検出部により検出された前記視聴者の存在する位置に基づいて、入力される立体視可能な2視点画像を用いて、前記必要視点数算出部により算出された必要視点数分の多視点画像を生成する
(1)乃至(4)のいずれかに記載の画像処理装置。
(6) 前記視差障壁部は、パララックスバリアであり、
前記表示部における視点方向のスリット状の画像毎の配置間隔に基づいて、前記視線方向毎の画像を、前記視線方向毎に透過させるパララックスバリアのスリットのピッチを算出するスリットピッチ算出部をさらに含み、
前記スリットピッチ算出部により算出されたピッチのスリットを構成することで、前記視線方向毎の画像を、前記視線方向毎に透過させる視差障壁を構成する
(1)乃至(5)のいずれかに記載の画像処理装置。
(7) 前記視差障壁部は、レンチキュラレンズであり、
前記表示部における視点方向のスリット状の画像毎の配置間隔に基づいて、前記視線方向毎の画像を、前記視線方向毎に透過させるレンチキュラレンズで構成される凹凸のピッチを算出する凹凸ピッチ算出部をさらに含み、
前記凹凸ピッチ算出部により算出されたピッチの凹凸を構成することで、前記視線方向毎の画像を、前記視線方向毎に透過させる視差障壁を構成する
(1)乃至(5)のいずれかに記載の画像処理装置。
(8) 視聴者数を検出する視聴者数検出部における、前記視聴者数を検出する視聴者数検出ステップと、
前記視聴者数検出部により検出された視聴者数に基づいて、必要視点数を算出する必要視点数算出部における、前記視聴者数検出ステップの処理により検出された視聴者数に基づいて、必要視点数を算出する必要視点数算出ステップと、
入力される立体視可能な2視点画像を用いて、前記必要視点数算出部により算出された必要視点数分の多視点画像を生成する多視点画像生成部における、前記入力される立体視可能な2視点画像を用いて、前記必要視点数算出ステップの処理により算出された必要視点数分の多視点画像を生成する多視点画像生成ステップと、
前記多視点画像の視点方向の画像毎にスリット状に分割し、視点方向の配置順序と逆方向の順序で繰り返し配置して表示させる表示部における、前記多視点画像の視点方向の画像毎にスリット状に分割し、視点方向の配置順序と逆方向の順序で繰り返し配置して表示させる表示ステップと、
前記表示部における視点方向のスリット状の画像毎の配置間隔に基づいて、前記視線方向毎の画像を、前記視線方向毎に透過させる視差障壁を構成する視差障壁部における、前記表示ステップの処理における視点方向のスリット状の画像毎の配置間隔に基づいて、前記視線方向毎の画像を、前記視線方向毎に透過させる視差障壁を構成する視差障壁ステップと
を含む画像処理方法。
(9) 視聴者数を検出する視聴者数検出部と、
前記視聴者数検出部により検出された視聴者数に基づいて、必要視点数を算出する必要視点数算出部と、
入力される立体視可能な2視点画像を用いて、前記必要視点数算出部により算出された必要視点数分の多視点画像を生成する多視点画像生成部と、
前記多視点画像の視点方向の画像毎にスリット状に分割し、視点方向の配置順序と逆方向の順序で繰り返し配置して表示させる表示部と、
前記表示部における視点方向のスリット状の画像毎の配置間隔に基づいて、前記視線方向毎の画像を、前記視線方向毎に透過させる視差障壁を構成する視差障壁部と
を含む画像処理装置を制御するコンピュータに、
前記視聴者数検出部における、視聴者数を検出する視聴者数検出ステップと、
前記必要視点数算出部における、前記視聴者数検出ステップの処理により検出された視聴者数に基づいて、必要視点数を算出する必要視点数算出ステップと、
前記多視点画像生成部における、入力される立体視可能な2視点画像を用いて、前記必要視点数算出ステップの処理により算出された必要視点数分の多視点画像を生成する多視点画像生成ステップと、
前記表示部における、前記多視点画像の視点方向の画像毎にスリット状に分割し、視点方向の配置順序と逆方向の順序で繰り返し配置して表示させる表示ステップと、
前記視差障壁部における、前記表示ステップの処理における視点方向のスリット状の画像毎の配置間隔に基づいて、前記視線方向毎の画像を、前記視線方向毎に透過させる視差障壁を構成する視差障壁ステップと
を含む処理を実行させるプログラム。
11 画像処理装置, 21 撮像部, 22 顔画像検出部, 23 視聴者数検出部, 24 必要視点数検出部, 25−1 右眼用画像取得部, 25−2 左眼用画像取得部, 26 多視点画像生成部, 27 表示部, 41 2視点判定部, 42 2視点画像出力部, 43 N視点画像生成部, 44 選択出力部, 61 パララックスバリアピッチ算出部, 62 パララックスバリアピッチ制御部, 63 パララックスバリア, 64 表示画素配列設定部, 65 ディスプレイ, 81 視聴者位置検出部, 82 多視点画像取得部, 91 N視点画像選択部, 101 レンチキュラレンズピッチ算出部, 102 レンチキュラレンズピッチ制御部, 103 レンチキュラレンズ

Claims (9)

  1. 視聴者数を検出する視聴者数検出部と、
    前記視聴者数検出部により検出された視聴者数に基づいて、必要視点数を算出する必要視点数算出部と、
    入力される立体視可能な2視点画像を用いて、前記必要視点数算出部により算出された必要視点数分の多視点画像を生成する多視点画像生成部と、
    前記多視点画像の視点方向の画像毎にスリット状に分割し、視点方向の配置順序と逆方向の順序で繰り返し配置して表示させる表示部と、
    前記表示部における視点方向のスリット状の画像毎の配置間隔に基づいて、前記視線方向毎の画像を、前記視線方向毎に透過させる視差障壁を構成する視差障壁部と
    を含む画像処理装置。
  2. 視聴者の存在する方向の画像を撮像する撮像部と、
    前記撮像部により撮像された画像内の視聴者の顔画像を検出する顔画像検出部をさらに含み、
    前記視聴者数検出部は、前記顔画像検出部により検出された顔画像の数に基づいて、視聴者数を検出する
    請求項1に記載の画像処理装置。
  3. 前記必要視点数算出部は、前記視聴者数検出部により検出された視聴者数の視聴者が水平方向に等間隔で存在し、前記視聴者それぞれの第1の視点画像である左眼用画像が、左隣りの視聴者の第2の視点画像である右眼用画像と同一であり、前記視聴者それぞれの第2の視点画像である右眼用画像が、右隣りの視聴者の第1の視点画像である左眼用画像と同一であるものとしたときの視点数を算出する
    請求項1に記載の画像処理装置。
  4. 前記多視点画像生成部は、入力される立体視可能な2視点画像を用いて、それらの内挿補間、または外挿補間により、前記必要視点数算出部により算出された必要視点数分の多視点画像を生成する
    請求項1に記載の画像処理装置。
  5. 前記視聴者の存在する位置を検出する視聴者位置検出部と、
    前記多視点画像生成部は、前記視聴者位置検出部により検出された前記視聴者の存在する位置に基づいて、入力される立体視可能な2視点画像を用いて、前記必要視点数算出部により算出された必要視点数分の多視点画像を生成する
    請求項1に記載の画像処理装置。
  6. 前記視差障壁部は、パララックスバリアであり、
    前記表示部における視点方向のスリット状の画像毎の配置間隔に基づいて、前記視線方向毎の画像を、前記視線方向毎に透過させるパララックスバリアのスリットのピッチを算出するスリットピッチ算出部をさらに含み、
    前記スリットピッチ算出部により算出されたピッチのスリットを構成することで、前記視線方向毎の画像を、前記視線方向毎に透過させる視差障壁を構成する
    請求項1に記載の画像処理装置。
  7. 前記視差障壁部は、レンチキュラレンズであり、
    前記表示部における視点方向のスリット状の画像毎の配置間隔に基づいて、前記視線方向毎の画像を、前記視線方向毎に透過させるレンチキュラレンズで構成される凹凸のピッチを算出する凹凸ピッチ算出部をさらに含み、
    前記凹凸ピッチ算出部により算出されたピッチの凹凸を構成することで、前記視線方向毎の画像を、前記視線方向毎に透過させる視差障壁を構成する
    請求項1に記載の画像処理装置。
  8. 視聴者数を検出する視聴者数検出部における、前記視聴者数を検出する視聴者数検出ステップと、
    前記視聴者数検出部により検出された視聴者数に基づいて、必要視点数を算出する必要視点数算出部における、前記視聴者数検出ステップの処理により検出された視聴者数に基づいて、必要視点数を算出する必要視点数算出ステップと、
    入力される立体視可能な2視点画像を用いて、前記必要視点数算出部により算出された必要視点数分の多視点画像を生成する多視点画像生成部における、前記入力される立体視可能な2視点画像を用いて、前記必要視点数算出ステップの処理により算出された必要視点数分の多視点画像を生成する多視点画像生成ステップと、
    前記多視点画像の視点方向の画像毎にスリット状に分割し、視点方向の配置順序と逆方向の順序で繰り返し配置して表示させる表示部における、前記多視点画像の視点方向の画像毎にスリット状に分割し、視点方向の配置順序と逆方向の順序で繰り返し配置して表示させる表示ステップと、
    前記表示部における視点方向のスリット状の画像毎の配置間隔に基づいて、前記視線方向毎の画像を、前記視線方向毎に透過させる視差障壁を構成する視差障壁部における、前記表示ステップの処理における視点方向のスリット状の画像毎の配置間隔に基づいて、前記視線方向毎の画像を、前記視線方向毎に透過させる視差障壁を構成する視差障壁ステップと
    を含む画像処理方法。
  9. 視聴者数を検出する視聴者数検出部と、
    前記視聴者数検出部により検出された視聴者数に基づいて、必要視点数を算出する必要視点数算出部と、
    入力される立体視可能な2視点画像を用いて、前記必要視点数算出部により算出された必要視点数分の多視点画像を生成する多視点画像生成部と、
    前記多視点画像の視点方向の画像毎にスリット状に分割し、視点方向の配置順序と逆方向の順序で繰り返し配置して表示させる表示部と、
    前記表示部における視点方向のスリット状の画像毎の配置間隔に基づいて、前記視線方向毎の画像を、前記視線方向毎に透過させる視差障壁を構成する視差障壁部と
    を含む画像処理装置を制御するコンピュータに、
    前記視聴者数検出部における、視聴者数を検出する視聴者数検出ステップと、
    前記必要視点数算出部における、前記視聴者数検出ステップの処理により検出された視聴者数に基づいて、必要視点数を算出する必要視点数算出ステップと、
    前記多視点画像生成部における、入力される立体視可能な2視点画像を用いて、前記必要視点数算出ステップの処理により算出された必要視点数分の多視点画像を生成する多視点画像生成ステップと、
    前記表示部における、前記多視点画像の視点方向の画像毎にスリット状に分割し、視点方向の配置順序と逆方向の順序で繰り返し配置して表示させる表示ステップと、
    前記視差障壁部における、前記表示ステップの処理における視点方向のスリット状の画像毎の配置間隔に基づいて、前記視線方向毎の画像を、前記視線方向毎に透過させる視差障壁を構成する視差障壁ステップと
    を含む処理を実行させるプログラム。
JP2011132865A 2011-06-15 2011-06-15 画像処理装置および方法、並びにプログラム Pending JP2013005135A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2011132865A JP2013005135A (ja) 2011-06-15 2011-06-15 画像処理装置および方法、並びにプログラム
PCT/JP2012/003764 WO2012172766A1 (en) 2011-06-15 2012-06-08 Image processing device and method thereof, and program
US14/115,043 US20140071237A1 (en) 2011-06-15 2012-06-08 Image processing device and method thereof, and program
CN201280028044.4A CN103597824A (zh) 2011-06-15 2012-06-08 图像处理装置及其方法和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011132865A JP2013005135A (ja) 2011-06-15 2011-06-15 画像処理装置および方法、並びにプログラム

Publications (1)

Publication Number Publication Date
JP2013005135A true JP2013005135A (ja) 2013-01-07

Family

ID=47356773

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011132865A Pending JP2013005135A (ja) 2011-06-15 2011-06-15 画像処理装置および方法、並びにプログラム

Country Status (4)

Country Link
US (1) US20140071237A1 (ja)
JP (1) JP2013005135A (ja)
CN (1) CN103597824A (ja)
WO (1) WO2012172766A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015130582A (ja) * 2014-01-07 2015-07-16 日本電信電話株式会社 映像提供装置

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010009737A1 (de) * 2010-03-01 2011-09-01 Institut für Rundfunktechnik GmbH Verfahren und Anordnung zur Wiedergabe von 3D-Bildinhalten
CN104104934B (zh) * 2012-10-04 2019-02-19 陈笛 无眼镜多观众三维显示的组件与方法
CN103118267B (zh) * 2013-01-25 2015-06-03 明基材料有限公司 自动调整三维影像显示视角的显示系统
KR20160025922A (ko) * 2014-08-28 2016-03-09 삼성전자주식회사 영상 처리 방법 및 장치
KR102415502B1 (ko) * 2015-08-07 2022-07-01 삼성전자주식회사 복수의 사용자를 위한 라이트 필드 렌더링 방법 및 장치
EP3316575A1 (en) * 2016-10-31 2018-05-02 Thomson Licensing Method for providing continuous motion parallax effect using an auto-stereoscopic display, corresponding device, computer program product and computer-readable carrier medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0678342A (ja) * 1992-08-24 1994-03-18 Ricoh Co Ltd 立体表示装置
JPH06148763A (ja) * 1992-11-12 1994-05-27 Hitachi Ltd 多人数観測用レンチキュラ立体表示方式
JPH10142556A (ja) * 1996-11-11 1998-05-29 Fujitsu Ltd 画像表示装置及び方法
JP2009124308A (ja) * 2007-11-13 2009-06-04 Tokyo Denki Univ 多眼視画像作成システム及び多眼視画像作成方法
JP2010282090A (ja) * 2009-06-05 2010-12-16 Sony Corp 立体表示装置
JP2011081269A (ja) * 2009-10-08 2011-04-21 Nikon Corp 画像表示装置および画像表示方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1087627A3 (en) * 1999-09-24 2004-02-18 SANYO ELECTRIC Co., Ltd. Autostereoscopic image display device
CN1476730A (zh) * 2001-07-27 2004-02-18 皇家菲利浦电子有限公司 具有观看者跟踪系统的自动立体图像显示装置
GB0119176D0 (en) * 2001-08-06 2001-09-26 Ocuity Ltd Optical switching apparatus
US7417664B2 (en) * 2003-03-20 2008-08-26 Seijiro Tomita Stereoscopic image picking up and display system based upon optical axes cross-point information
JP2005141102A (ja) * 2003-11-07 2005-06-02 Pioneer Electronic Corp 立体的二次元画像表示装置及び方法
JP4488996B2 (ja) * 2005-09-29 2010-06-23 株式会社東芝 多視点画像作成装置、多視点画像作成方法および多視点画像作成プログラム
TW200739129A (en) * 2006-03-30 2007-10-16 Sanyo Electric Co Optical filter and image displaying device using the same
US8878917B2 (en) * 2008-04-22 2014-11-04 Ehn Spire Limited Liability Company Position-permissive autostereoscopic display systems and methods
US20090282429A1 (en) * 2008-05-07 2009-11-12 Sony Ericsson Mobile Communications Ab Viewer tracking for displaying three dimensional views
JP4669032B2 (ja) * 2008-09-08 2011-04-13 富士フイルム株式会社 画像処理装置および方法並びにプログラム
EP2340648B1 (en) * 2008-10-28 2019-12-11 Koninklijke Philips N.V. A three dimensional display system
GB0901084D0 (en) * 2009-01-22 2009-03-11 Trayner David J Autostereoscopic display
US8199186B2 (en) * 2009-03-05 2012-06-12 Microsoft Corporation Three-dimensional (3D) imaging based on motionparallax
WO2011001372A1 (en) * 2009-06-30 2011-01-06 Koninklijke Philips Electronics N.V. Directional display system
JP2011077679A (ja) * 2009-09-29 2011-04-14 Fujifilm Corp 立体画像表示装置
US8358335B2 (en) * 2009-11-30 2013-01-22 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Method for displaying image information and autostereoscopic screen
KR101073512B1 (ko) * 2010-05-20 2011-10-17 한국과학기술연구원 시역 확장을 이용한 3차원 영상 표시 장치
US9030536B2 (en) * 2010-06-04 2015-05-12 At&T Intellectual Property I, Lp Apparatus and method for presenting media content
CN101895779B (zh) * 2010-07-23 2011-10-05 深圳超多维光电子有限公司 立体显示方法和系统
WO2012115768A1 (en) * 2011-02-27 2012-08-30 Dolby Laboratories Licensing Corporation Multiview projector system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0678342A (ja) * 1992-08-24 1994-03-18 Ricoh Co Ltd 立体表示装置
JPH06148763A (ja) * 1992-11-12 1994-05-27 Hitachi Ltd 多人数観測用レンチキュラ立体表示方式
JPH10142556A (ja) * 1996-11-11 1998-05-29 Fujitsu Ltd 画像表示装置及び方法
JP2009124308A (ja) * 2007-11-13 2009-06-04 Tokyo Denki Univ 多眼視画像作成システム及び多眼視画像作成方法
JP2010282090A (ja) * 2009-06-05 2010-12-16 Sony Corp 立体表示装置
JP2011081269A (ja) * 2009-10-08 2011-04-21 Nikon Corp 画像表示装置および画像表示方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015130582A (ja) * 2014-01-07 2015-07-16 日本電信電話株式会社 映像提供装置

Also Published As

Publication number Publication date
WO2012172766A1 (en) 2012-12-20
US20140071237A1 (en) 2014-03-13
CN103597824A (zh) 2014-02-19

Similar Documents

Publication Publication Date Title
EP2786583B1 (en) Image processing apparatus and method for subpixel rendering
CN103873844B (zh) 多视点自动立体显示器及控制其最佳观看距离的方法
US8681174B2 (en) High density multi-view image display system and method with active sub-pixel rendering
EP2693759B1 (en) Stereoscopic image display device, image processing device, and stereoscopic image processing method
KR101719980B1 (ko) 3차원 컨텐츠를 출력하는 디스플레이 기기의 영상 처리 방법 및 그 방법을 채용한 디스플레이 기기
WO2020199888A1 (zh) 多视点裸眼立体显示器、显示系统及显示方法
JP2013005135A (ja) 画像処理装置および方法、並びにプログラム
CN103984108B (zh) 基于振动光栅的裸眼立体显示方法与装置
KR102076598B1 (ko) 디스플레이 장치 및 그의 다시점 영상 디스플레이 방법
KR20150004323A (ko) 오토스테레오스코픽 디스플레이 디바이스 및 구동 방법
US9154765B2 (en) Image processing device and method, and stereoscopic image display device
KR20140089860A (ko) 디스플레이 장치 및 그 디스플레이 방법
JP2010524309A (ja) 三次元表示する方法および構成
JP2005073013A (ja) 立体画像表示装置、立体画像表示方法、その方法をコンピュータに実行させるためのプログラム及びそのプログラムを記録した記録媒体
TW201322733A (zh) 影像處理裝置、立體影像顯示裝置、影像處理方法及影像處理程式
KR101975246B1 (ko) 다시점 영상 디스플레이 장치 및 그 제어 방법
JP2013065951A (ja) 表示装置、表示方法、及びプログラム
KR101719984B1 (ko) 3차원 컨텐츠를 출력하는 멀티비전 디스플레이 기기의 영상 처리 방법 및 그 방법을 채용한 멀티비전 디스플레이 기기
KR20120025282A (ko) 입체영상표시장치
JP2015037282A (ja) 画像処理装置、画像処理方法及びプログラム
US20120050290A1 (en) Three-dimensional image display apparatus and display method
Minami et al. Portrait and landscape mode convertible stereoscopic display using parallax barrier
US8994791B2 (en) Apparatus and method for displaying three-dimensional images
KR101911776B1 (ko) 3차원 영상 표시 장치 및 그 방법
KR101917764B1 (ko) 입체 영상 표시 장치 및 입체 영상 표시 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160304

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20160726

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160906