JP2012222605A - 画像処理装置、画像処理方法、およびプログラム - Google Patents

画像処理装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP2012222605A
JP2012222605A JP2011086307A JP2011086307A JP2012222605A JP 2012222605 A JP2012222605 A JP 2012222605A JP 2011086307 A JP2011086307 A JP 2011086307A JP 2011086307 A JP2011086307 A JP 2011086307A JP 2012222605 A JP2012222605 A JP 2012222605A
Authority
JP
Japan
Prior art keywords
image
viewpoint
display
viewpoints
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011086307A
Other languages
English (en)
Other versions
JP5732986B2 (ja
Inventor
Toshinori Ihara
利昇 井原
Takuo Kawai
拓郎 川合
Go Kobayashi
剛也 小林
Keisuke Yamaoka
啓介 山岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011086307A priority Critical patent/JP5732986B2/ja
Priority to US13/428,845 priority patent/US20120256909A1/en
Priority to CN201210091874.3A priority patent/CN102740102B/zh
Publication of JP2012222605A publication Critical patent/JP2012222605A/ja
Application granted granted Critical
Publication of JP5732986B2 publication Critical patent/JP5732986B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】裸眼式表示装置で表示される画像の表示方法をユーザに応じて変更することができるようにする。
【解決手段】生成部は、ユーザからの入力に基づいて、所定の視点の画像を、2以上の視点の画像を視点ごとに異なる方向に向けて表示する3D画像表示部における2以上の視点に割り当てる。駆動処理部は、その割り当てに基づいて、所定の視点の画像を3D画像表示部に表示させる。本技術は、例えば、3D画像の画像処理装置に適用することができる。
【選択図】図2

Description

本技術は、画像処理装置、画像処理方法、およびプログラムに関し、特に、2以上の視点の画像を視点ごとに異なる方向に向けて表示する表示装置で表示される画像の表示方法をユーザに応じて変更することができるようにした画像処理装置、画像処理方法、およびプログラムに関する。
3D鑑賞用のメガネを使用せずに3D画像を鑑賞可能な表示装置(以下、裸眼式表示装置という)は、2以上の視点の画像を視点ごとに異なる方向に向けて表示する表示装置である。裸眼式表示装置では、表示する3D画像の視点数を増加させることが視聴位置の拡大に有効である。
このような裸眼式表示装置では、鑑賞者に対して、N視点の画像をM通りの異なる方向に独立に提示することが考案されている(例えば、特許文献1参照)。また、裸眼式表示装置では、入力される画像の視点数が、裸眼式表示装置における視点(以下、表示視点という)の数に満たない場合、入力される画像に対して新たな視点の画像を生成する視点画像生成処理を行う必要がある。視点画像生成処理に関しては、生成画像の品位を向上する方法や、処理コストを削減する方法などが提案されている(特許文献2乃至4参照)。
特開2010−014891号公報 特開2005−151534号公報 特開2005−252459号公報 特開2009−258726号公報
ところで、従来の裸眼式表示装置では、表示視点に対応する画像の視点が固定されている。即ち、従来の裸眼式表示装置では、3D画像の表示方法が予め決められている。従って、ユーザに応じて、3D画像の表示方法を変化させることはできなかった。
本技術は、このような状況に鑑みてなされたものであり、裸眼式表示装置で表示される画像の表示方法をユーザに応じて変更することができるようにするものである。
本技術の一側面の画像処理装置は、ユーザからの入力に基づいて、所定の視点の画像を、2以上の視点の画像を視点ごとに異なる方向に向けて表示する表示装置における前記2以上の視点に割り当てる割り当て部と、前記割り当て部による割り当てに基づいて、前記所定の視点の画像を前記表示装置に表示させる表示制御部とを備える画像処理装置である。
本技術の一側面の画像処理方法およびプログラムは、本技術の一側面の画像処理装置に対応する。
本技術の一側面においては、ユーザからの入力に基づいて、所定の視点の画像が、2以上の視点の画像を視点ごとに異なる方向に向けて表示する表示装置における前記2以上の視点に割り当てられ、その割り当てに基づいて、前記所定の視点の画像が前記表示装置に表示される。
本技術の一側面によれば、裸眼式表示装置で表示される画像の表示方法をユーザに応じて変更することができる。
本技術を適用した画像処理装置の一実施の形態の構成例を示すブロック図である。 図1の画像信号処理部の第1の詳細構成例を示すブロック図である。 M視点画像生成部の第1の詳細構成例を示すブロック図である。 M視点画像生成部の第2の詳細構成例を示すブロック図である。 M視点画像生成部の第3の詳細構成例を示すブロック図である。 M視点画像生成部の第4の詳細構成例を示すブロック図である。 M視点画像の例を示す図である。 表示視点情報の構成例を示す図である。 表示視点情報の記述例を示す図である。 表示視点情報の記述例を示す図である。 表示視点情報の記述例を示す図である。 表示視点情報の記述例を示す図である。 図9の表示視点情報に基づいて表示された表示画像と視聴位置の関係を説明する図である。 図11の表示視点情報に基づいて表示された表示画像と視聴位置の関係を説明する図である。 図1の画像処理装置の画像処理を説明するフローチャートである。 図2の画像信号処理部の表示視点情報生成処理を説明するフローチャートである。 図1の画像信号処理部の第2の詳細構成例を示すブロック図である。 図1の画像信号処理部の第3の詳細構成例を示すブロック図である。 図18の画像信号処理部の表示視点情報生成処理を説明するフローチャートである。 図1の画像信号処理部の第4の詳細構成例を示すブロック図である。 図1の画像信号処理部の第5の詳細構成例を示すブロック図である。 図21の画像処理部を備える画像処理装置の画像処理を説明するフローチャートである。 図21の画像信号処理部の表示視点情報生成処理を説明するフローチャートである。 図1の画像信号処理部の第6の詳細構成例を示すブロック図である。 図24の画像信号処理部の表示視点情報生成処理を説明するフローチャートである。 コンピュータの一実施の形態の構成例を示す図である。
<一実施の形態>
[画像処理装置の一実施の形態の構成例]
図1は、本技術を適用した画像処理装置の一実施の形態の構成例を示すブロック図である。
図1の画像処理装置10は、画像受像部11、画像信号処理部12、および3D画像表示部13により構成され、画像を表示する。
画像処理装置10の画像受像部11は、外部から入力された入力画像のアナログ信号を受け取る。画像受像部11は、受け取られた入力画像に対してA/D変換を行い、その結果得られる入力画像のデジタル信号を画像信号処理部12に供給する。以下では、適宜、入力画像のデジタル信号を、単に入力画像という。
画像信号処理部12は、画像受像部11から供給される入力画像に対して所定の画像処理等を行い、3D画像表示部13の表示視点であるM視点(Mは2以上の自然数)の画像を表示画像として生成する。画像信号処理部12は、生成された表示画像を3D画像表示部13に供給する。
3D画像表示部13は、パララックスバリア方式やレンチキュラー方式に代表される、M視点の3D画像を表示することが可能な裸眼式表示装置である。3D画像表示部13は、画像信号処理部12から供給される表示画像を表示する。
[画像信号処理部の第1の詳細構成例]
図2は、図1の画像信号処理部12の第1の詳細構成例を示すブロック図である。
図2の画像信号処理部12は、画像変換部21、M視点画像生成部22、表示視点選択部23、駆動処理部24、入力部25、および生成部26により構成される。
画像信号処理部12の画像変換部21は、図1の画像受像部11から供給される入力画像に対して、解凍処理、3D画像表示部13に対応する解像度への解像度変換処理、色変換処理、ノイズリダクション処理等の所定の画像処理を行う。画像変換部21は、画像処理後の入力画像をM視点画像生成部22に供給する。
M視点画像生成部22は、画像変換部21から供給される入力画像の視点数がMより少ない場合、入力画像に対して補間処理などを行うことによりM視点の画像を生成する。M視点画像生成部22は、生成されたM視点の画像、または、M視点の入力画像を、M視点画像として表示視点選択部23に供給する。
表示視点選択部23は、生成部26から供給される表示視点情報に基づいて、各表示視点の画像を、その表示視点に対応する、M視点画像生成部22から供給されるM視点画像のうちの所定の視点の画像とした表示画像を生成し、駆動処理部24に供給する。なお、表示視点情報とは、3D画像表示部13の各表示視点に割り当てる、M視点画像のうちの所定の視点の画像を表す情報である。
駆動処理部24は、表示視点選択部23から供給される表示画像に対して、3D画像表示部13のインタフェースに対応するフォーマットへの変換等を行う。駆動処理部24は、表示制御部として機能し、その結果得られる表示画像を3D画像表示部13に供給して表示させる。
入力部25は、コントローラなどにより構成される。入力部25は、ユーザによる操作の入力を受け付け、その操作に対応する情報を生成部26に供給する。
生成部26は、割り当て部として機能し、入力部25から供給される情報に基づいて、表示視点情報を生成することにより、M視点画像のうちの所定の視点の画像を、3D画像表示部13の各表示視点に割り当てる。生成部26は、生成された表示視点情報を保持する。生成部26は、保持している表示視点情報を表示視点選択部23に供給する。
[M視点画像生成部の詳細構成例]
図3は、入力画像が1視点の画像である場合のM視点画像生成部22の第1の詳細構成例を示すブロック図である。
図3のM視点画像生成部22は、2D/3D変換部41と2視点/M視点変換部42により構成される。
M視点画像生成部22の2D/3D変換部41は、図2の画像変換部21から供給される入力画像に対して、所定の距離だけ水平方向にシフトすることにより、新たな1視点の画像を生成する補間処理を行う。2D/3D変換部41は、生成された1視点の画像と入力画像を2視点画像として2視点/M視点変換部42に供給する。
2視点/M視点変換部42は、2D/3D変換部41から供給される2視点画像のうちのいずれか一方に対して、生成する(M−2)視点の画像の視点ごとに、その視点に対応する距離だけ水平方向にシフトすることにより、(M−2)視点の画像を生成する補間処理を行う。2視点/M視点変換部42は、生成された(M−2)視点の画像と2視点画像を図2の表示視点選択部23に供給する。
図4は、入力画像が1視点の画像である場合のM視点画像生成部22の第2の詳細構成例を示すブロック図である。
図4のM視点画像生成部22は、1視点/M視点変換部51により構成される。
M視点画像生成部22の1視点/M視点変換部51は、図2の画像変換部21から供給される入力画像に対して、生成する(M−1)視点の画像の視点ごとに、その視点に対応する距離だけ水平方向にシフトすることにより、(M−1)視点の画像を生成する補間処理を行う。1視点/M視点変換部51は、生成された(M−1)視点の画像と入力画像をM視点画像として、図2の表示視点選択部23に供給する。
図5は、入力画像が2視点の画像である場合のM視点画像生成部22の詳細構成例を示すブロック図である。
図5のM視点画像生成部22は、2視点/M視点変換部61により構成される。
M視点画像生成部22の2視点/M視点変換部61は、図2の画像変換部21から供給される入力画像である2視点の画像のうちのいずれか一方の視点の画像に対して、(M−2)視点の画像を生成する補間処理を行う。具体的には、2視点/M視点変換部61は、入力画像である2視点の画像のうちのいずれか一方の視点の画像を、生成する(M−2)視点の画像の視点ごとに、その視点に対応する距離だけ水平方向にシフトする。2視点/M視点変換部61は、これにより生成された(M−2)視点の画像と入力画像をM視点画像として、図2の表示視点選択部23に供給する。
図6は、入力画像がN視点(NはMより小さい自然数)の画像である場合のM視点画像生成部22の詳細構成例を示すブロック図である。
図6のM視点画像生成部22は、N視点/M視点変換部71により構成される。
M視点画像生成部22のN視点/M視点変換部71は、図2の画像変換部21から供給される入力画像であるN視点の画像のいずれか1つの視点の画像に対して、(M−N)視点の画像を生成する補間処理を行う。具体的には、N視点/M視点変換部71は、入力画像であるN視点の画像のいずれか1つの視点の画像を、生成する(M−N)視点の画像の視点ごとに、その視点に対応する距離だけ水平方向にシフトする。N視点/M視点変換部71は、これにより生成された(M−N)視点の画像と入力画像をM視点画像として、図2の表示視点選択部23に供給する。
[M視点画像の例]
図7は、M視点画像生成部22で生成されるM視点画像の例を示す図である。
なお、図7では、i番目の視点の画像を視点画像#iと表している。
図7に示すように、M視点画像は、視点の異なるM個の視点画像#1乃至視点画像#Mからなる。
[表示視点情報の構成例]
図8は、表示視点情報の構成例を示す図である。
図8に示すように、表示視点情報は、3D画像表示部13の各表示視点と、その表示視点に割り当てる画像を指定する画像指定情報とを対応付けた情報である。なお、図8では、i番目の表示視点を表示視点#iと表している。
図9乃至図12は、表示視点情報の記述例を示す図である。
なお、図9乃至図12では、表示視点数Mが9である。また、画像視点#iとは、9視点画像の9視点のうちのi番目の視点に付与されたIDである。なお、視点に付与されるIDは、隣り合う視点どうしのIDが連続するように設定されている。即ち、画像視点#1乃至#9の視点は、順に並んでいる。
図9の表示視点情報では、表示視点#1乃至表示視点#9のそれぞれに、画像視点情報として画像視点#1乃画像視点#9が対応付けられている。従って、図9の表示視点情報に基づいて表示画像が生成される場合、9視点画像の各視点の画像が、各表示視点の画像として表示される。これにより、ユーザは、9視点画像のうちの、視聴位置から鑑賞可能な2視点の画像により、3D鑑賞用のメガネを使用せずに3D画像を鑑賞することができる。また、ユーザが移動することにより視聴位置が変化する場合であっても、滑らかに3D画像の視点が切り替えられ、運動視差を得ることができる。
図10の表示視点情報では、全ての表示視点#1乃至表示視点#9に、画像視点情報として画像視点#5が対応付けられている。従って、図10の表示視点情報に基づいて表示画像が生成される場合、9視点画像のうちの画像視点#5の視点の画像が、全ての表示視点の画像として表示される。これにより、ユーザは、視差のない2D画像を鑑賞することができる。
図11の表示視点情報では、連続する3つの表示視点である表示視点#1乃至表示視点#3、表示視点#4乃至表示視点#6、および表示視点#7乃至表示視点#9のそれぞれに、画像視点情報として画像視点#2乃至画像視点#4が対応付けられている。従って、図11の表示視点情報に基づいて表示画像が生成される場合、9視点画像のうちの画像視点#2乃至画像視点#4の視点の画像が、表示視点#1乃至表示視点#3、表示視点#4乃至表示視点#6、および表示視点#7乃至表示視点#9の画像として表示される。
これにより、表示視点#1乃至表示視点#3、表示視点#4乃至表示視点#6、および表示視点#7乃至表示視点#9のそれぞれに対応する3つの視聴位置から、同一の指向性の3D画像を鑑賞することができる。例えば、表示視点#1と表示視点#2の画像を鑑賞可能な視聴位置、表示視点#4と表示視点#5の画像を鑑賞可能な視聴位置、および表示視点#7と表示視点#8の画像を鑑賞可能な視聴位置で、同一の3D画像を鑑賞することができる。
図12の表示視点情報では、表示視点#1と表示視点#4に、画像指定情報として予め決められている所定の画像(例えば、黒画など)を指定するための「固定」が対応付けられている。また、ユーザの左右の目の間隔に対応する、例えば連続する2つの表示視点である表示視点#2と表示視点#3には、画像視点情報として、比較的間隔の長い視点どうしの画像視点#1と画像視点#9が対応付けられている。さらに、表示視点#5乃至表示視点#9のうちの連続する2つの表示視点どうしには、画像視点情報として、比較的間隔の短い、例えば1つおきの視点のIDが対応付けられている。具体的には、表示視点#5乃至表示視点#9には、それぞれ、画像視点情報として、画像視点#1、画像視点#3、画像視点#5、画像視点#7、画像視点#9が対応付けられている。
これにより、ユーザは、視聴位置に応じて奥行き感の異なる3D画像を鑑賞することができる。例えば、ユーザは、表示視点#2と表示視点#3の画像を鑑賞可能な視聴位置において、表示視点#5乃至表示視点#9のうちの隣り合う視点どうしの画像を鑑賞可能な視聴位置で鑑賞する場合に比べて奥行き感の強い3D画像を鑑賞することができる。
また、M視点画像生成部22が内挿によりM視点画像を生成し、Mが比較的大きい場合であっても、ユーザは、奥行き感の強い3D画像を鑑賞することができる。具体的には、M視点画像生成部22が内挿によりM視点画像を生成する場合、外挿によりM視点画像を生成する場合に比べて、容易にM視点画像を生成することができるが、Mが大きいほど、視点間の距離が短くなる。従って、図8の表示視点情報のように、各表示視点に順にM視点画像の各視点が割り当てられる場合、ユーザの左右の目の間隔に対応する2つの表示視点に割り当てられる画像の視点間の距離が短くなり、ユーザが鑑賞する3D画像の奥行き感が弱くなる。しかしながら、図12の表示視点情報では、隣り合う表示視点に割り当てられるM視点画像の視点が隣り合わないので、Mが大きい場合であっても、ユーザに鑑賞される3D画像の奥行き感を強くすることができる。
なお、表示視点に割り当てられる画像としては、M視点画像のうちのいずれか1つや予め決められている所定の画像だけでなく、M視点画像のうちの複数の視点の画像(例えば、近隣に表示される複数の視点の画像)をアルファブレンドした画像等であってもよい。
[表示画像と視聴位置の関係の説明]
図13は、図9の表示視点情報に基づいて表示された表示画像と視聴位置の関係を説明する図である。
図13に示すように、図9の表示視点情報に基づいて表示画像が表示される場合、所定の視聴位置Aから鑑賞するユーザと、視聴位置Aとは異なる視聴位置Bから鑑賞するユーザは、異なる2視点の画像からなる3D画像を鑑賞する。即ち、視聴位置Aから鑑賞される表示画像と、視聴位置Bから鑑賞される表示画像の指向性は異なっている。
図14は、図11の表示視点情報に基づいて表示された表示画像と視聴位置の関係を説明する図である。
図14に示すように、図11の表示視点情報に基づいて表示画像が表示される場合、所定の視聴位置Aから鑑賞するユーザと、視聴位置Aとは異なる視聴位置Bから鑑賞するユーザは、同一の指向性を有する表示画像を鑑賞する。なお、図14の例では、視聴位置Aと視聴位置Bは、それぞれ、表示視点#1乃至表示視点#3、表示視点#4乃至表示視点#6、および表示視点#7乃至表示視点#9のいずれか1つに対応する位置である。
[画像処理装置の処理の説明]
図15は、図1の画像処理装置10の画像処理を説明するフローチャートである。この画像処理は、例えば、画像処理装置10に入力画像のアナログ信号が入力されたとき開始される。
図15のステップS11において、画像処理装置10の画像受像部11は、外部から入力された入力画像のアナログ信号を受け取る。
ステップS12において、画像受像部11は、受け取られた入力画像のアナログ信号に対してA/D変換を行い、その結果得られる入力画像のデジタル信号を画像信号処理部12に供給する。
ステップS13において、画像信号処理部12の画像変換部21は、画像受像部11から供給される入力画像に対して、解凍処理、3D画像表示部13に対応する解像度への解像度変換処理、色変換処理、ノイズリダクション処理等の所定の画像処理を行う。画像変換部21は、画像処理後の入力画像をM視点画像生成部22に供給する。
ステップS14において、M視点画像生成部22は、画像変換部21から供給される入力画像に対して補間処理等を行うことによりM視点画像を生成し、表示視点選択部23に供給する。
ステップS15において、表示視点選択部23は、生成部26から供給される表示視点情報に基づいて、各表示視点の画像を、その表示視点に対応する、M視点画像生成部22から供給されるM視点画像のうちの所定の視点の画像とした表示画像を生成する。そして、表示視点選択部23は、表示画像を駆動処理部24に供給する。
ステップS16において、駆動処理部24は、表示視点選択部23から供給される表示画像に対して、3D画像表示部13のインタフェースに対応するフォーマットへの変換等を行う。
ステップS17において、駆動処理部24は、ステップS16の処理の結果得られる表示画像を3D画像表示部13に供給して表示させる。そして、処理は終了する。
図16は、図2の画像信号処理部12の表示視点情報生成処理を説明するフローチャートである。この表示視点情報生成処理は、例えば、ユーザが入力部25を操作して表示視点情報の生成を指令したとき、開始される。
図16のステップS31において、入力部25は、ユーザから3D画像表示部13の表示視点であるM視点のいずれかに対応する画像指定情報が入力されたかどうかを判定する。具体的には、入力部25は、ユーザによるM視点のいずれかに対応する画像指定情報を入力するための操作を受け付けたかどうかを判定する。
ステップS31でユーザから表示視点であるM視点のいずれかに対応する画像指定情報がまだ入力されていないと判定された場合、入力部25は、その画像指定情報が入力されるまで待機する。
一方、ステップS31でユーザから表示視点であるM視点のいずれかに対応する画像指定情報が入力されたと判定された場合、入力部25は、その表示視点と画像指定情報を生成部26に供給する。
そして、ステップS32において、生成部26は、入力部25から供給される表示視点と画像指定情報を対応付けて記述する。
ステップS33において、生成部26は、3D画像表示部13の全ての表示視点に対応付けて画像指定情報が記述されたかどうかを判定する。ステップS33でまだ3D画像表示部13の全ての表示視点に対応付けて画像指定情報が記述されていないと判定された場合、処理はステップS31に戻り、以降の処理が繰り返される。
一方、ステップS33で3D画像表示部13の全ての表示視点に対応付けて画像指定情報が記述されたと判定された場合、生成部26は、全ての表示視点と、それに対応付けて記述された画像視点情報を表示視点情報として保持する。そして、生成部26は、その表示視点情報を表示視点選択部23に供給し、処理を終了する。
以上のように、画像処理装置10は、ユーザからの入力に基づいて表示視点情報を生成し、その表示視点情報に基づいて表示画像を表示させるので、ユーザに応じて、表示画像の表示方法を変更することができる。
その結果、例えば、ユーザは、図9の表示視点情報を生成させるための操作を行うことにより、視聴位置に応じて指向性の異なる3D画像を鑑賞したり、図10の表示視点情報を生成させるための操作を行うことにより、2D画像を鑑賞したりすることができる。また、ユーザは、図11の表示視点情報を生成させるための操作を行うことにより、異なる視聴位置から同一の指向性の3D画像を鑑賞することができる。また、ユーザは、図12の表示視点情報を生成させるための操作を行うことにより、視聴位置に応じて奥行き感の異なる3D画像を鑑賞することができる。即ち、ユーザは、視聴形態などを選択したり、視聴位置による3D画像の指向性や奥行き感の変化などを調整したりすることができる。
[画像信号処理部の第2の詳細構成例]
図17は、図1の画像信号処理部12の第2の詳細構成例を示すブロック図である。
図17に示す構成のうち、図2の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図17の画像信号処理部12の構成は、主に、M視点画像生成部22の代わりにM視点画像生成部91が設けられている点が図2の構成と異なる。図17の画像信号処理部12は、M視点画像の代わりに、表示視点情報の画像指定情報で指定される視点の画像のみを生成する。
具体的には、図17の画像信号処理部12のM視点画像生成部91は、生成部26により生成される表示視点情報に基づいて、画像変換部21から供給される入力画像に対して補間処理などを行い、表示視点情報の画像指定情報で指定される視点の画像を生成する。そして、M視点画像生成部91は、生成された画像を表示視点選択部23に供給する。但し、入力画像が表示視点情報の画像指定情報で指定される視点の画像である場合、M視点画像生成部91は、入力画像をそのまま表示視点選択部23に供給する。
以上のように、図17の画像信号処理部12は、表示画像に用いられる、表示視点情報の画像指定情報で指定される視点の画像だけを生成するので、図2の画像信号処理部12に比べて、処理コストを削減することができる。
[画像信号処理部の第3の構成例]
図18は、図1の画像信号処理部12の第3の詳細構成例を示すブロック図である。
図18に示す構成のうち、図17の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図18の画像信号処理部12の構成は、主に、入力部25、生成部26の代わりに入力部101、生成部102が設けられている点が図17の構成と異なる。図18の画像信号処理部12は、ユーザの視聴位置を表す視聴位置情報と、視聴形態の嗜好、視聴位置による3D画像の指向性や奥行き感の変化の嗜好などの視聴に関する嗜好を表す嗜好情報とに基づいて、表示画像を表示させる。
具体的には、図18の画像信号処理部12の入力部101は、入力部25と同様に、コントローラなどにより構成される。入力部101は、ユーザによる視聴位置情報を入力するための操作、嗜好情報を入力するための操作などの入力を受け付ける。そして、入力部101は、その操作に対応する視聴位置情報と嗜好情報を生成部102に供給する。なお、視聴位置情報は、視聴位置そのものを表す情報ではなく、視聴位置から鑑賞可能な画像に対応する表示視点を表す情報であってもよい。
生成部102は、入力部101から供給される視聴位置情報と嗜好情報に基づいて、表示視点情報を生成し、保持する。具体的には、生成部102は、嗜好情報が視聴形態の嗜好として3D画像の通常の視聴形態を表す場合、図9に示したような表示視点情報を生成し、保持する。また、生成部102は、例えば、嗜好情報が視聴形態の嗜好として2D画像の視聴形態を表し、視聴位置情報に対応する表示視点が表示視点#4および表示視点#5である場合、図10に示した表示視点情報を生成し、保持する。
また、生成部102は、例えば、嗜好情報が、視聴位置による3D画像の指向性の変化の無しを嗜好として表し、視聴位置情報に対応する表示視点が表示視点#4および表示視点#5である場合、図11に示した表示視点情報を生成し、保持する。さらに、生成部102は、例えば、嗜好情報が、視聴位置による3D画像の奥行き感の変化の有りを嗜好として表し、視聴位置情報に対応する表示視点が表示視点#2および表示視点#3である場合、図12に示した表示視点情報を生成し、保持する。
また、生成部102は、例えば、嗜好情報が視聴形態の嗜好として現在の視聴位置においてのみ3D画像を視聴可能な視聴形態を表す場合、以下のように表示視点情報を生成し、保持する。即ち、生成部102は、視聴位置情報に対応する表示視点に所定の2視点の画像の画像指定情報が対応付けられ、その表示視点以外の表示視点に画像指定情報として「固定」が対応付けられた表示視点情報を生成し、保持する。これにより、M視点画像生成部91は、2視点の画像を生成するだけで済むので、M視点画像生成部91の処理コストを削減することができる。
生成部102は、保持している表示視点情報をM視点画像生成部91と表示視点選択部23に供給する。
なお、入力部101は、複数のユーザによる操作を受け付けるようにしてもよい。この場合、全てのユーザの視聴位置情報と嗜好情報に対応する表示視点情報が生成できないときや、あるユーザの視聴位置情報と嗜好情報に対応する表示視点情報に基づく表示が他のユーザに害を与えるときには、例えば、図9の表示視点情報や図10の表示視点情報が生成される。
[他の表示視点情報生成処理の説明]
図19は、図18の画像信号処理部12の表示視点情報生成処理を説明するフローチャートである。この表示視点情報生成処理は、例えば、ユーザが入力部101を操作して表示視点情報の生成を指令したとき、開始される。
図19のステップS51において、画像信号処理部12の入力部101は、ユーザにより視聴位置情報を入力するための操作が行われたかどうかを判定する。ステップS51で視聴位置情報を入力するための操作が行われていないと判定された場合、入力部101は、視聴位置情報を入力するための操作が行われるまで待機する。
一方、ステップS51で視聴位置情報を入力するための操作が行われたと判定された場合、入力部101は、その操作を受け付け、視聴位置情報を生成部102に供給する。そして、ステップS52において、入力部101は、ユーザにより嗜好情報を入力するための操作が行われたかどうかを判定する。ステップS52で嗜好情報を入力するための操作が行われていないと判定された場合、入力部101は、嗜好情報を入力するための操作が行われるまで待機する。
一方、ステップS52で嗜好情報を入力するための操作が行われたと判定された場合、入力部101は、その操作を受け付け、嗜好情報を生成部102に供給する。
そして、ステップS53において、生成部102は、入力部101から供給される視聴位置情報と嗜好情報に基づいて、表示視点情報を生成し、保持する。生成部102は、保持している表示視点情報をM視点画像生成部91と表示視点選択部23に供給し、処理を終了する。
[画像信号処理部の第4の構成例]
図20は、図1の画像信号処理部12の第4の詳細構成例を示すブロック図である。
図20に示す構成のうち、図18の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図20の画像信号処理部12の構成は、主に、入力部101の代わりに入力部111が設けられている点、および、視聴位置検出部112が新たに設けられている点が図18の構成と異なる。図20の画像信号処理部12は、視聴位置情報を検出する。
具体的には、画像信号処理部12の入力部111は、入力部25と同様に、コントローラなどにより構成される。入力部111は、ユーザによる嗜好情報を入力するための操作などの入力を受け付ける。そして、入力部111は、その操作に対応する嗜好情報を生成部102に供給する。
視聴位置検出部112は、例えば、ステレオカメラや赤外線センサなどにより構成される。視聴位置検出部112は、ユーザの視聴位置を検出し、その視聴位置を表す視聴位置情報を生成部102に供給する。
なお、図20の画像信号処理部12では、入力部111が、ユーザによる視聴位置情報を入力するための操作を受け付け、生成部102は、その視聴位置情報と視聴位置検出部112からの視聴位置情報のいずれかを表示視点情報の生成に用いるようにしてもよい。
[画像信号処理部の第5の構成例]
図21は、図1の画像信号処理部12の第5の詳細構成例を示すブロック図である。
図21に示す構成のうち、図20の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図21の画像信号処理部12の構成は、主に、入力部111、生成部102の代わりに入力部121、生成部122が設けられている点が図20の構成と異なる。図21の画像信号処理部12は、ユーザによる3Dメニュー画像などの3Dグラフィックス画像を表示するための操作に応じて、入力画像のみを表示視点に割り当てる。
具体的には、画像信号処理部12の入力部121は、入力部25と同様に、コントローラなどにより構成される。入力部121は、ユーザによる嗜好情報を入力するための操作、3Dグラフィックス画像を表示するための操作などを受け付ける。
入力部121は、入力部111と同様に、嗜好情報を入力するための操作に対応する嗜好情報を生成部122に供給する。また、入力部121は、3Dグラフィックス画像を表示するための操作に応じて、入力画像のみの表示視点への割り当てを生成部122に指令する。
生成部122は、入力部121から供給される嗜好情報と、視聴位置検出部112から供給される視聴位置情報に基づいて、表示視点情報を生成し、保持する。また、生成部122は、入力部121から供給される入力画像のみの表示視点への割り当ての指令に応じて、入力画像の画像指定情報を各表示視点に対応付けた表示視点情報を生成し、保持する。生成部122は、保持されている表示視点情報を表示視点選択部23とM視点画像生成部91に供給する。これにより、ユーザにより3Dグラフィックス画像を表示するための操作が行われた場合、M視点画像生成部91は、入力画像をそのまま表示視点選択部23に供給する。
[他の画像処理の説明]
図22は、図21の画像信号処理部12を備える画像処理装置10の画像処理を説明するフローチャートである。この画像処理は、例えば、画像処理装置10に入力画像のアナログ信号が入力されたとき開始される。
図22のステップS71乃至S73の処理は、図15のステップS11乃至S13の処理と同様であるので、説明は省略する。
ステップS74において、図21のM視点画像生成部91は、生成部122により生成される表示視点情報に基づいて、画像変換部21から供給される入力画像に対して補間処理などを行い、表示視点情報の画像指定情報で指定される視点の画像を生成する。そして、M視点画像生成部91は、生成された画像を表示視点選択部23に供給する。
なお、ユーザにより3Dグラフィックス画像を表示するための操作が行われた場合、表示視点情報の画像指定情報で指定される視点の画像は入力画像であるので、ステップS74の処理では、入力画像がそのまま表示視点選択部23に供給される。
ステップS75乃至S77の処理は、図15のS15乃至S17の処理と同様であるので、説明は省略する。
図23は、図21の画像信号処理部12の表示視点情報生成処理を説明するフローチャートである。
図23のステップS91において、入力部121は、ユーザにより3Dグラフィックス画像を表示するための操作が行われたかどうかを判定する。ステップS91でユーザにより3Dグラフィックス画像を表示するための操作が行われていないと判定された場合、処理はステップS92に進む。
ステップS92において、入力部121は、ユーザにより嗜好情報を入力するための操作が行われたかどうかを判定する。ステップS92で嗜好情報を入力するための操作が行われていないと判定された場合、処理はステップS91に戻る。
一方、ステップS92で嗜好情報を入力するための操作が行われたと判定された場合、入力部121は、その操作を受け付け、嗜好情報を生成部122に供給する。そして、ステップS93において、視聴位置検出部112は、ユーザの視聴位置を検出し、その視聴位置を表す視聴位置情報を生成部122に供給する。
ステップS94において、生成部122は、入力部121から供給される嗜好情報と、視聴位置検出部112から供給される視聴位置情報とに基づいて、表示視点情報を生成し、保持する。生成部122は、保持している表示視点情報をM視点画像生成部91と表示視点選択部23に供給し、処理を終了する。
一方、ステップS91でユーザにより3Dグラフィックス画像を表示するための操作が行われたと判定された場合、処理はステップS95に進む。ステップS95において、生成部122は、入力画像の画像指定情報を各表示視点に対応付けた表示視点情報を生成し、保持する。生成部122は、保持している表示視点情報をM視点画像生成部91と表示視点選択部23に供給し、処理を終了する。
以上のように、図21の画像信号処理部12は、ユーザにより3Dグラフィックス画像を表示するための操作が行われた場合、即ち、入力画像が3Dグラフィックス画像である場合、入力画像のみを表示視点に割り当てるので、表示画像の画質を向上させることができる。
具体的には、3Dグラフィックス画像は、パターンが幾何学的であり、輝度や色の変化が急峻である。従って、3Dグラフィックス画像の視点数が補間処理等により増加される場合、補間処理後の3Dグラフィックス画像において、補間処理時に発生するオクルージョン領域(詳細は後述する)などによる画質劣化が人に知覚されやすい。よって、図21の画像信号処理部12は、入力画像が3Dグラフィックス画像である場合、入力画像のみを表示視点に割り当て、補間処理後の入力画像を表示視点に割り当てないことにより、表示画像の画質を向上させる。なお、オクルージョン領域とは、視点が異なることによって生じる、ある視点の画像には存在するが、他の視点の画像には存在しない領域である。
なお、図21の画像信号処理部12は、ユーザにより3Dグラフィックス画像を表示するための操作が行われた場合に、入力画像のみを表示視点に割り当てたが、M視点画像生成部91で生成される画像の誤差値が所定値より大きい場合に、入力画像のみを表示視点に割り当てるようにしてもよい。
[画像信号処理部の第6の構成例]
図24は、図1の画像信号処理部12の第6の詳細構成例を示すブロック図である。
図24に示す構成のうち、図20の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図24の画像信号処理部12の構成は、主に、生成部102、M視点画像生成部91の代わりに生成部131、M視点画像生成部132が設けられている点が図20の構成と異なる。図24の画像信号処理部12は、視聴位置情報と嗜好情報だけでなく、M視点画像の視差画像にも基づいて、表示視点情報を生成する。なお、視差画像は、Disparity Mapとも呼ばれ、対応する視点の画像の各画素と、その画素に対応する、基点となる視点の画像の画素の画面上の位置の水平方向の距離を表す視差値からなる画像である。
図24の画像信号処理部12の生成部131は、入力部111から供給される嗜好情報、視聴位置検出部112から供給される視聴位置情報、およびM視点画像生成部132から供給されるM視点画像の視差画像に基づいて、表示視点情報を生成し、保持する。
具体的には、生成部131は、まず、例えば、嗜好情報と視聴位置情報に基づいて表示視点情報を生成する。そして、生成部131は、視聴位置に対応する2つの表示視点に割り当てられた画像の視差画像に基づいて、その画像から構成される3D画像の奥行き方向の位置の最小値と最大値の差分が所定値より小さいかどうかを判定する。その差分が所定値より小さいと判定された場合、生成部131は、M視点画像の視差画像に基づいて、その差分が所定値以上になるように、視聴位置に対応する2つの表示視点に割り当てる画像を変更する。生成部131は、保持されている表示視点情報を表示視点選択部23に供給する。
M視点画像生成部132は、画像変換部21から供給される入力画像に対して補間処理等を行い、M視点画像を生成するとともに、M視点画像の視差画像を生成する。M視点画像生成部132は、M視点画像をM視点画像生成部132に供給し、M視点画像の視差画像を生成部131に供給する。
[他の表示視点情報生成処理の説明]
図25は、図24の画像信号処理部12の表示視点情報生成処理を説明するフローチャートである。この表示視点情報生成処理は、例えば、ユーザが入力部111を操作して表示視点情報の生成を指令したとき、開始される。
図25のステップS111において、入力部111は、ユーザにより嗜好情報を入力するための操作が行われたかどうかを判定する。ステップS111で嗜好情報を入力するための操作が行われていないと判定された場合、その操作が行われるまで待機する。
一方、ステップS111で嗜好情報を入力するための操作が行われたと判定された場合、入力部111は、その操作を受け付け、嗜好情報を生成部131に供給する。そして、ステップS112において、視聴位置検出部112は、ユーザの視聴位置を検出し、その視聴位置を表す視聴位置情報を生成部131に供給する。
ステップS113において、生成部131は、視聴位置検出部112から供給される視聴位置情報と入力部121から供給される嗜好情報とに基づいて、表示視点情報を生成し、保持する。生成部131は、保持している表示視点情報を表示視点選択部23に供給する。これにより、M視点画像生成部132は、入力画像からM視点画像を生成して表示視点選択部23に供給するとともに、M視点画像の視差画像を生成して生成部131に供給する。
ステップS114において、生成部131は、表示視点情報に基づいて、視聴位置情報に対応する2つの表示視点に割り当てられた画像が2D画像であるかどうか、即ち、視聴位置情報に対応する画像指定情報が同一であるかどうかを判定する。ステップS114で視聴位置情報に対応する2つの表示視点に割り当てられた画像が2D画像であると判定された場合、処理は終了する。
一方、ステップS114で視聴位置情報に対応する2つの表示視点に割り当てられた画像が2D画像ではないと判定された場合、処理はステップS115に進む。
ステップS115において、生成部131は、M視点画像生成部132から供給されるM視点画像の視差画像と視聴位置情報に基づいて、視聴位置情報に対応する2つの表示視点に割り当てられた画像からなる3D画像の奥行き方向の位置の最小値と最大値の差分が所定値より小さいかどうかを判定する。
ステップS115で3D画像の奥行き方向の位置の最小値と最大値の差分が所定値より小さいと判定された場合、ステップS116において、生成部131は、M視点画像の視差画像に基づいて、その差分が所定値以上になるように、表示視点情報を変更する。具体的には、生成部131は、M視点画像の視差画像に基づいて、視聴位置情報に対応する2つの表示視点に割り当てる画像を、その画像からなる3D画像の奥行方向の位置の最小値と最大値の差分が所定値以上になるように変更する。そして、生成部131は、変更後の画像の画像指定情報を、視聴位置情報に対応する2つの表示視点に対応付けた表示指定情報を生成し、保持する。生成部131は、保持されている表示視点情報を表示視点選択部23に供給し、処理を終了する。
一方、ステップS115で3D画像の奥行き方向の位置の最小値と最大値の差分が所定値より小さくはないと判定された場合、処理は終了する。
なお、図18、図20、および図21の画像信号処理部12は、M視点画像生成部91を備えたが、M視点画像生成部22を備えるようにしてもよい。
また、上述した説明では、画像受像部11に、外部から入力画像のアナログ信号が入力されるようにしたが、入力画像のデジタル信号が入力されるようにしてもよい。
[本技術を適用したコンピュータの説明]
次に、上述した一連の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
そこで、図26は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。
プログラムは、コンピュータに内蔵されている記録媒体としての記憶部208やROM(Read Only Memory)202に予め記録しておくことができる。
あるいはまた、プログラムは、リムーバブルメディア211に格納(記録)しておくことができる。このようなリムーバブルメディア211は、いわゆるパッケージソフトウエアとして提供することができる。ここで、リムーバブルメディア211としては、例えば、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリ等がある。
なお、プログラムは、上述したようなリムーバブルメディア211からドライブ210を介してコンピュータにインストールする他、通信網や放送網を介して、コンピュータにダウンロードし、内蔵する記憶部208にインストールすることができる。すなわち、プログラムは、例えば、ダウンロードサイトから、デジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送することができる。
コンピュータは、CPU(Central Processing Unit)201を内蔵しており、CPU201には、バス204を介して、入出力インタフェース205が接続されている。
CPU201は、入出力インタフェース205を介して、ユーザによって、入力部206が操作等されることにより指令が入力されると、それに従って、ROM202に格納されているプログラムを実行する。あるいは、CPU201は、記憶部208に格納されたプログラムを、RAM(Random Access Memory)203にロードして実行する。
これにより、CPU201は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU201は、その処理結果を、必要に応じて、例えば、入出力インタフェース205を介して、出力部207から出力、あるいは、通信部209から送信、さらには、記憶部208に記録等させる。
なお、入力部206は、キーボードや、マウス、マイク等で構成される。また、出力部207は、LCD(Liquid Crystal Display)やスピーカ等で構成される。
ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。
また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
なお、本技術は、以下のような構成もとることができる。
(1)
ユーザからの入力に基づいて、所定の視点の画像を、2以上の視点の画像を視点ごとに異なる方向に向けて表示する表示装置における前記2以上の視点に割り当てる割り当て部と、
前記割り当て部による割り当てに基づいて、前記所定の視点の画像を前記表示装置に表示させる表示制御部と
を備える画像処理装置。
(2)
前記割り当て部は、前記ユーザからの、前記ユーザの視聴の嗜好を表す嗜好情報の入力に基づいて、割り当てを行う
前記(1)に記載の画像処理装置。
(3)
前記割り当て部は、前記嗜好情報と前記ユーザの視聴位置に基づいて割り当てを行う
前記(2)に記載の画像処理装置。
(4)
前記割り当て部は、前記ユーザからの前記嗜好情報と前記ユーザの視聴位置の入力に基づいて、割り当てを行う
前記(3)に記載の画像処理装置。
(5)
前記ユーザの視聴位置を検出する視聴位置検出部
をさらに備え、
前記割り当て部は、前記嗜好情報と、前記視聴位置検出部により検出された前記ユーザの視聴位置に基づいて、割り当てを行う
前記(3)に記載の画像処理装置。
(6)
前記表示装置における前記2以上の視点の数より少ない数の視点の画像から、前記表示装置における前記2以上の視点の数の視点の画像を生成する画像生成部
をさらに備え、
前記所定の視点の画像は、前記画像生成部により生成される前記表示装置における前記2以上の視点の数の視点の画像のうちの少なくとも1つである
前記(1)乃至(5)のいずれかに記載の画像処理装置。
(7)
前記割り当て部は、前記ユーザからの、前記所定の視点の画像として3Dグラフィックス画像を表示するための入力に基づいて、前記表示装置における前記2以上の視点の数より少ない数の視点の画像を前記所定の視点の画像とする
前記(6)に記載の画像処理装置。
(8)
前記割り当て部は、前記画像生成部により生成される前記表示装置における前記2以上の視点の数の視点の画像の誤差に基づいて、前記表示装置における前記2以上の視点の数より少ない数の視点の画像を前記所定の視点の画像とする
前記(6)または(7)のいずれかに記載の画像処理装置。
(9)
前記割り当て部は、前記画像生成部により生成される前記表示装置における前記2以上の視点の数の視点の画像に対応する視差画像に基づいて、前記画像生成部により生成される前記表示装置における前記2以上の視点の数の視点の画像のうちの少なくとも1つを前記所定の視点の画像とする
前記(6)乃至(8)のいずれかに記載の画像処理装置。
(10)
前記所定の視点の数より少ない数の視点の画像から、前記所定の視点の画像を生成する画像生成部
をさらに備える
前記(1)乃至(5)のいずれかに記載の画像処理装置。
(11)
前記所定の視点の画像は、1視点の画像である
前記(1)乃至(10)のいずれかに記載の画像処理装置。
(12)
前記所定の視点の画像は、2以上の視点の画像であり、
前記割り当て部は、前記ユーザからの入力に基づいて、前記表示装置における前記2以上の視点のうちの連続する2以上の視点ごとに、前記所定の視点の画像を割り当てる
前記(1)乃至(10)のいずれかに記載の画像処理装置。
(13)
前記所定の視点の画像は、2以上の視点の画像であり、
前記割り当て部は、前記ユーザからの入力に基づいて、前記表示装置における前記2以上の視点のうちの、前記ユーザの左右の目の間隔に対応する所定の2視点に対して、前記所定の視点の画像のうちの間隔の短い2つの視点の画像を割り当て、前記ユーザの左右の目の間隔に対応する前記所定の2視点以外の2視点に対して、前記所定の視点の画像のうちの間隔の長い2つの視点の画像を割り当てる
前記(1)乃至(10)のいずれかに記載の画像処理装置。
(14)
前記割り当て部は、前記ユーザからの入力に基づいて、前記所定の視点の画像と所定の画像を、前記表示装置における前記2以上の視点に割り当てる
前記(1)乃至(10)のいずれかに記載の画像処理装置。
(15)
画像処理装置が、
ユーザからの入力に基づいて、所定の視点の画像を、2以上の視点の画像を視点ごとに異なる方向に向けて表示する表示装置における前記2以上の視点に割り当てる割り当てステップと、
前記割り当てステップの処理による割り当てに基づいて、前記所定の視点の画像を前記表示装置に表示させる表示制御ステップと
を含む画像処理方法。
(16)
コンピュータに、
ユーザからの入力に基づいて、所定の視点の画像を、2以上の視点の画像を視点ごとに異なる方向に向けて表示する表示装置における前記2以上の視点に割り当てる割り当てステップと、
前記割り当てステップの処理による割り当てに基づいて、前記所定の視点の画像を前記表示装置に表示させる表示制御ステップと
を含む処理を実行させるためのプログラム。
10 画像処理装置, 22 M視点画像生成部, 23 表示視点選択部, 24 駆動処理部, 26 生成部, 91 M視点画像生成部, 112 視聴位置検出部

Claims (16)

  1. ユーザからの入力に基づいて、所定の視点の画像を、2以上の視点の画像を視点ごとに異なる方向に向けて表示する表示装置における前記2以上の視点に割り当てる割り当て部と、
    前記割り当て部による割り当てに基づいて、前記所定の視点の画像を前記表示装置に表示させる表示制御部と
    を備える画像処理装置。
  2. 前記割り当て部は、前記ユーザからの、前記ユーザの視聴の嗜好を表す嗜好情報の入力に基づいて、割り当てを行う
    請求項1に記載の画像処理装置。
  3. 前記割り当て部は、前記嗜好情報と前記ユーザの視聴位置に基づいて割り当てを行う
    請求項2に記載の画像処理装置。
  4. 前記割り当て部は、前記ユーザからの前記嗜好情報と前記ユーザの視聴位置の入力に基づいて、割り当てを行う
    請求項3に記載の画像処理装置。
  5. 前記ユーザの視聴位置を検出する視聴位置検出部
    をさらに備え、
    前記割り当て部は、前記嗜好情報と、前記視聴位置検出部により検出された前記ユーザの視聴位置に基づいて、割り当てを行う
    請求項3に記載の画像処理装置。
  6. 前記表示装置における前記2以上の視点の数より少ない数の視点の画像から、前記表示装置における前記2以上の視点の数の視点の画像を生成する画像生成部
    をさらに備え、
    前記所定の視点の画像は、前記画像生成部により生成される前記表示装置における前記2以上の視点の数の視点の画像のうちの少なくとも1つである
    請求項1に記載の画像処理装置。
  7. 前記割り当て部は、前記ユーザからの、前記所定の視点の画像として3Dグラフィックス画像を表示するための入力に基づいて、前記表示装置における前記2以上の視点の数より少ない数の視点の画像を前記所定の視点の画像とする
    請求項6に記載の画像処理装置。
  8. 前記割り当て部は、前記画像生成部により生成される前記表示装置における前記2以上の視点の数の視点の画像の誤差に基づいて、前記表示装置における前記2以上の視点の数より少ない数の視点の画像を前記所定の視点の画像とする
    請求項6に記載の画像処理装置。
  9. 前記割り当て部は、前記画像生成部により生成される前記表示装置における前記2以上の視点の数の視点の画像に対応する視差画像に基づいて、前記画像生成部により生成される前記表示装置における前記2以上の視点の数の視点の画像のうちの少なくとも1つを前記所定の視点の画像とする
    請求項6に記載の画像処理装置。
  10. 前記所定の視点の数より少ない数の視点の画像から、前記所定の視点の画像を生成する画像生成部
    をさらに備える
    請求項1に記載の画像処理装置。
  11. 前記所定の視点の画像は、1視点の画像である
    請求項1に記載の画像処理装置。
  12. 前記所定の視点の画像は、2以上の視点の画像であり、
    前記割り当て部は、前記ユーザからの入力に基づいて、前記表示装置における前記2以上の視点のうちの連続する2以上の視点ごとに、前記所定の視点の画像を割り当てる
    請求項1に記載の画像処理装置。
  13. 前記所定の視点の画像は、2以上の視点の画像であり、
    前記割り当て部は、前記ユーザからの入力に基づいて、前記表示装置における前記2以上の視点のうちの、前記ユーザの左右の目の間隔に対応する所定の2視点に対して、前記所定の視点の画像のうちの間隔の短い2つの視点の画像を割り当て、前記ユーザの左右の目の間隔に対応する前記所定の2視点以外の2視点に対して、前記所定の視点の画像のうちの間隔の長い2つの視点の画像を割り当てる
    請求項1に記載の画像処理装置。
  14. 前記割り当て部は、前記ユーザからの入力に基づいて、前記所定の視点の画像と所定の画像を、前記表示装置における前記2以上の視点に割り当てる
    請求項1に記載の画像処理装置。
  15. 画像処理装置が、
    ユーザからの入力に基づいて、所定の視点の画像を、2以上の視点の画像を視点ごとに異なる方向に向けて表示する表示装置における前記2以上の視点に割り当てる割り当てステップと、
    前記割り当てステップの処理による割り当てに基づいて、前記所定の視点の画像を前記表示装置に表示させる表示制御ステップと
    を含む画像処理方法。
  16. コンピュータに、
    ユーザからの入力に基づいて、所定の視点の画像を、2以上の視点の画像を視点ごとに異なる方向に向けて表示する表示装置における前記2以上の視点に割り当てる割り当てステップと、
    前記割り当てステップの処理による割り当てに基づいて、前記所定の視点の画像を前記表示装置に表示させる表示制御ステップと
    を含む処理を実行させるためのプログラム。
JP2011086307A 2011-04-08 2011-04-08 画像処理装置、画像処理方法、およびプログラム Expired - Fee Related JP5732986B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011086307A JP5732986B2 (ja) 2011-04-08 2011-04-08 画像処理装置、画像処理方法、およびプログラム
US13/428,845 US20120256909A1 (en) 2011-04-08 2012-03-23 Image processing apparatus, image processing method, and program
CN201210091874.3A CN102740102B (zh) 2011-04-08 2012-03-30 图像处理装置、图像处理方法和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011086307A JP5732986B2 (ja) 2011-04-08 2011-04-08 画像処理装置、画像処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2012222605A true JP2012222605A (ja) 2012-11-12
JP5732986B2 JP5732986B2 (ja) 2015-06-10

Family

ID=46965735

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011086307A Expired - Fee Related JP5732986B2 (ja) 2011-04-08 2011-04-08 画像処理装置、画像処理方法、およびプログラム

Country Status (3)

Country Link
US (1) US20120256909A1 (ja)
JP (1) JP5732986B2 (ja)
CN (1) CN102740102B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015037282A (ja) * 2013-08-15 2015-02-23 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2017525210A (ja) * 2014-06-19 2017-08-31 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 三次元画像を生成するための方法及び機器

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010009737A1 (de) * 2010-03-01 2011-09-01 Institut für Rundfunktechnik GmbH Verfahren und Anordnung zur Wiedergabe von 3D-Bildinhalten
JP2015164235A (ja) * 2012-06-19 2015-09-10 シャープ株式会社 画像処理装置、方法、プログラム、および記録媒体
US10735707B2 (en) 2017-08-15 2020-08-04 International Business Machines Corporation Generating three-dimensional imagery
KR102145381B1 (ko) * 2018-05-21 2020-08-19 주식회사 고영테크놀러지 Oct 시스템, oct 영상 생성 방법 및 저장 매체

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01317091A (ja) * 1988-06-17 1989-12-21 Nippon Hoso Kyokai <Nhk> 多方向立体映像装置
JP2003169351A (ja) * 2001-09-21 2003-06-13 Sanyo Electric Co Ltd 立体画像表示方法および立体画像表示装置
JP2005175538A (ja) * 2003-12-05 2005-06-30 Sharp Corp 立体映像表示装置及び映像表示方法
JP2006101224A (ja) * 2004-09-29 2006-04-13 Toshiba Corp 画像生成装置、画像生成方法および画像生成プログラム
JP2010273013A (ja) * 2009-05-20 2010-12-02 Sony Corp 立体表示装置および方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2553473A1 (en) * 2005-07-26 2007-01-26 Wa James Tam Generating a depth map from a tw0-dimensional source image for stereoscopic and multiview imaging
KR20100075068A (ko) * 2008-12-24 2010-07-02 삼성전자주식회사 입체영상 표시장치 및 그 제어방법
US8314832B2 (en) * 2009-04-01 2012-11-20 Microsoft Corporation Systems and methods for generating stereoscopic images
JP4823349B2 (ja) * 2009-11-11 2011-11-24 パナソニック株式会社 三次元映像復号装置及び三次元映像復号方法
WO2011109898A1 (en) * 2010-03-09 2011-09-15 Berfort Management Inc. Generating 3d multi-view interweaved image(s) from stereoscopic pairs

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01317091A (ja) * 1988-06-17 1989-12-21 Nippon Hoso Kyokai <Nhk> 多方向立体映像装置
JP2003169351A (ja) * 2001-09-21 2003-06-13 Sanyo Electric Co Ltd 立体画像表示方法および立体画像表示装置
JP2005175538A (ja) * 2003-12-05 2005-06-30 Sharp Corp 立体映像表示装置及び映像表示方法
JP2006101224A (ja) * 2004-09-29 2006-04-13 Toshiba Corp 画像生成装置、画像生成方法および画像生成プログラム
JP2010273013A (ja) * 2009-05-20 2010-12-02 Sony Corp 立体表示装置および方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015037282A (ja) * 2013-08-15 2015-02-23 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2017525210A (ja) * 2014-06-19 2017-08-31 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 三次元画像を生成するための方法及び機器

Also Published As

Publication number Publication date
CN102740102B (zh) 2016-07-06
US20120256909A1 (en) 2012-10-11
JP5732986B2 (ja) 2015-06-10
CN102740102A (zh) 2012-10-17

Similar Documents

Publication Publication Date Title
JP5732986B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP5986918B2 (ja) マルチレイヤ表現を用いる映像処理方法及び装置
US9153032B2 (en) Conversion method and apparatus with depth map generation
JP5389139B2 (ja) 電子機器及び表示制御方法
US9071835B2 (en) Method and apparatus for generating multiview image with hole filling
US9335552B2 (en) Image display apparatus and method for operating the same
US20140125764A1 (en) Displaying graphics with three dimensional video
US10593273B2 (en) Image display apparatus capable of improving sharpness of an edge area
EP2801200B1 (en) Display processor for 3d display
US20110228057A1 (en) Image Processing Apparatus, Image Conversion Method, and Program
JP2011166761A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2011139261A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2012244396A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2011114861A (ja) 3次元映像ディスプレイ装置及びディスプレイ方法
US20130076735A1 (en) Image display apparatus and method for operating the same
KR101661956B1 (ko) 음향 설정에 대응하는 3d 오브젝트를 제공하는 영상표시장치 및 그 동작 제어방법
JP5289538B2 (ja) 電子機器、表示制御方法及びプログラム
CN106559662B (zh) 多视图图像显示设备及其控制方法
JP5209082B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP5161998B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP2014207492A (ja) 立体映像表示装置
KR101626310B1 (ko) 영상표시장치 및 그 동작방법
JP2011139262A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2011142410A (ja) 画像処理装置
KR20240070333A (ko) 가상 스크린 내 오브젝트 위치를 이용한 스피커 제어 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150317

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150330

R151 Written notification of patent or utility model registration

Ref document number: 5732986

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees