JP2013157961A - 映像出力装置、映像出力方法、映像出力装置の制御プログラム - Google Patents
映像出力装置、映像出力方法、映像出力装置の制御プログラム Download PDFInfo
- Publication number
- JP2013157961A JP2013157961A JP2012019335A JP2012019335A JP2013157961A JP 2013157961 A JP2013157961 A JP 2013157961A JP 2012019335 A JP2012019335 A JP 2012019335A JP 2012019335 A JP2012019335 A JP 2012019335A JP 2013157961 A JP2013157961 A JP 2013157961A
- Authority
- JP
- Japan
- Prior art keywords
- video
- user
- stereoscopic
- output
- blinks
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】視聴者(ユーザ)の目の疲労を低減することが可能な映像出力装置を提供する。
【解決手段】実施形態の映像出力装置は、立体視映像を出力する立体視映像出力部を備える。また、撮像を行い、この撮像映像からユーザを検出する検出部を備える。また、前記検出されたユーザの瞬きの回数をカウントするカウント部を備える。また、前記カウントされたユーザの瞬きの回数が、予め設定された値を超える場合は、前記立体視映像より奥行きが小さい立体視映像を出力するよう制御する制御部を備える。
【選択図】図3
【解決手段】実施形態の映像出力装置は、立体視映像を出力する立体視映像出力部を備える。また、撮像を行い、この撮像映像からユーザを検出する検出部を備える。また、前記検出されたユーザの瞬きの回数をカウントするカウント部を備える。また、前記カウントされたユーザの瞬きの回数が、予め設定された値を超える場合は、前記立体視映像より奥行きが小さい立体視映像を出力するよう制御する制御部を備える。
【選択図】図3
Description
本発明の実施形態は、映像出力装置、映像出力方法、映像出力装置の制御プログラムに関する。
近年、3D(3次元または立体視)映像を出力可能な映像出力装置が普及している。
しかし、立体視(3D)映像は、平面(2D)映像を立体に見せる技術を利用している。また、平面(2D)映像に比べ、なじみが薄い。
このため、例えば、視聴者(ユーザ)の目の疲労を心配する声がある。
立体視(3D)映像の視聴は視聴者(ユーザ)にとって慣れていない場合が多く、目に疲労が発生する可能性があるため、立体視(3D)映像視聴による目への影響を低減することが可能な映像出力装置を提供することが課題になっていた。
視聴者(ユーザ)の目への立体視(3D)映像による影響を低減することが可能な映像出力装置を提供することが課題になっていた。
実施形態の映像出力装置は、立体視映像を出力する立体視映像出力部を備える。
また、撮像を行い、この撮像映像からユーザを検出する検出部を備える。
また、前記検出されたユーザの瞬きの回数をカウントするカウント部を備える。
また、前記カウントされたユーザの瞬きの回数が、予め設定された値を超える場合は、前記立体視映像より奥行きが小さい立体視映像を出力するよう制御する制御部を備える。
以下、図面を参照し、実施の形態を説明する。
図1は、実施形態に係わる映像出力装置の使用状況の一例を示す図である。
ここでは、映像出力装置の一例として、映像出力装置(デジタルテレビ)1Aを用いて説明を行う。
なお、この実施形態においては、映像出力装置は、PC(パーソナルコンピュータ)等の電子機器やスマートフォン等の携帯型端末にも適用可能である。
この実施形態においては、映像出力装置1Aは、図1に示すように、立体視(3D)映像を出力することが可能である。
この実施形態における映像出力装置1Aは、立体視(3D)映像を視聴するためのグラス(3Dグラス)を使用しないもの(グラスレス)、3Dグラスを使用するもの等に適用することが可能である。
この立体視(3D)映像は、後述する3D奥行き(デプス)調整を行なわない場合は、受信した映像信号に付与されている奥行き(デプス)値(ここでは、奥行き(デプス)基準値)を用いて、出力される。
そして、この実施形態においては、映像出力装置1Aは、例えば、表示画面8の近傍に設けられ、視聴者を撮像できるように視聴者に向けて設けられた撮像装置(カメラ)30Aを備えている。
映像出力装置1Aは、この撮像装置(カメラ)30Aを用いて撮像を行い、撮像映像を出力する。
そして、映像出力装置1Aは、例えば、フェイストラッキングを用い、この撮像映像からユーザを検出する。
ここで、フェイストラッキングの説明をする。
フェイストラッキングとは、カメラを用い、視聴者(ユーザ)の位置(顔)を認識し、この検出した顔の位置に基づいて、視聴者(ユーザ)が、左右それぞれの目で立体視に好適な映像を視認できるように、映像を出力(表示)し、視聴者(ユーザ)の眼に正しい映像が届くようにする技術である。
この実施形態においては、視聴者(ユーザ)Aおよび視聴者(ユーザ)Bの複数の視聴者(ユーザ)が、映像出力装置1Aの表示部(表示画面)8に表示出力された立体視(3D)映像を視聴している。
そして、映像出力装置1Aは、上記撮像映像から、複数の視聴者(ユーザ)(視聴者(ユーザ)Aおよび視聴者(ユーザ)B)の位置(顔)を認識し、複数の視聴者(ユーザ)の眼の瞬きの回数をカウントする。
また、このフェイストラッキングでは視聴者(ユーザ)が動いた場合も、視聴者(ユーザ)の顔を追尾し、テレビはユーザの顔の位置で立体視映像を視聴可能な好適な映像を表示する。これにより、視聴者(ユーザ)は立体視(3D)映像を良好に視聴することができる。
また、この実施形態においては、上記カウントされたユーザの瞬きの回数が、予め設定された値を超える場合は、上記立体視(3D)映像より奥行きが小さい立体視(3D)映像を出力するよう制御する。
図2は、実施形態に係わる映像出力装置の構成を示すブロック図である。
この実施形態において、制御部11はCPU(12)を備えている。CPU(12)は映像表示装置1Aを制御する。
また、RAM(13)、ROM(14)、フラッシュメモリ15は、例えば、制御部11で行われる処理に利用される。
また、フラッシュメモリ15は、このシステムに設定される機器の情報や予め設定されるユーザの情報を記憶することも可能である。
そして、例えば、放送局25からデジタル放送で映像コンテンツが放送される。放送局25から放送されたデジタル放送はチューナ3で受信され、選局処理が行われ、デジタル信号の映像コンテンツが信号処理部4に送信される。
信号処理部4で受信されたデジタル信号の映像コンテンツは信号処理が施され、音声処理部6および映像処理部5に送信される。
音声処理部6は、信号処理が施された映像コンテンツを受信し、音声処理を施した信号をスピーカ9に送信する。
スピーカ9は、音声処理が施された信号を受信し、音声を出力する。
また、映像処理部5は、信号処理が施された映像コンテンツを受信し、映像処理を施した信号を表示装置7に送信する。
表示装置7は、映像処理が施された信号を受信し、LCDパネル等で構成される表示画面(映像表示部)8に映像を表示する。
また、この実施の形態においては、映像表示装置1Aは内部記憶装置17を備えている。この内部記憶装置17は、上記外部記録機器19と同様に、受信した放送番組を丸録りし、タイムシフト再生することが可能である。
また、この実施の形態においては、映像表示装置1Aは、上記のようにUSB接続やLAN接続される外部記憶機器19を備えている。上記受信された映像コンテンツはこの外部記憶機器19に記録することも可能である。
また、この実施の形態においては、映像表示装置1Aは、上記撮像部30Aを備え、ユーザを撮像することが可能である。
また、上記のように、映像表示装置1Aに対するユーザの操作は、例えばリモコン(リモートコントローラ)21等の操作機器によって指示される。
これらの処理は、上記のように、制御部11に制御される。
また、映像表示装置1Aは、送受信部(ネットワークインターフェース)22、ネットワーク26を介してサーバ27に接続され、例えば、図2に示すように映像表示装置1Bとネットワークで接続される。
図3は、実施形態に係わる映像出力装置の映像処理部の構成を示すブロック図である。
上記のように、例えば、映像出力装置1Aに設けられた撮像装置(カメラ)30Aで1人または複数の視聴者(ユーザ)が撮像され、上記映像処理部5に向けて視聴者の撮像映像が出力される。
この視聴者の撮像映像は、顔画像検出部71で受信され、例えば、上記フェイストラッキング処理が行われる。そして、複数の視聴者(ユーザ)(例えば、視聴者(ユーザ)Aおよび視聴者(ユーザ)B)の位置(顔)が認識される。
続いて、このフェイストラッキング処理に用いられた映像データは、瞬き検出部72に向けて出力される。
瞬き検出部72では、上記のように、複数の視聴者(ユーザ)(例えば、視聴者(ユーザ)Aおよび視聴者(ユーザ)B)それぞれの眼の瞬きの回数をカウントする。そして、ここでカウントされた上記複数の視聴者(ユーザ)(例えば、視聴者(ユーザ)Aおよび視聴者(ユーザ)B)それぞれの眼の瞬きの回数の値が、瞬き回数による奥行き調整部73に向けて出力される。
瞬き回数による奥行き調整部73では、各ユーザの所定時間の瞬き回数のカウント値を、予め設定された値(例えば、40回/分)と比較する。
ここで、成人男性の瞬き回数は、平均は20回から30回程度、そして一般に、40回程度の瞬き回数は多いと言われている。
そこで、この実施形態では、目が疲労した場合の瞬き回数を40回/分以上とした。
しかし、この実施形態では、ユーザの所定時間の瞬き回数のカウント値と比較する、上記予め設定された値を、例えば、40回/分としたが、この設定値は、後述するように変更することが可能である。
そして、上記複数の視聴者(ユーザ)(例えば、視聴者(ユーザ)Aおよび視聴者(ユーザ)B)の中で、一人でも、上記予め設定された値(例えば、40回/分)を超える瞬き回数が検出されたかをチェックする。
そして、一人でも、上記予め設定された値(例えば、40回/分)を超える瞬き回数が検出されたユーザがいる場合は、例えば、立体視(3D)映像生成部76に向けて、立体視(3D)映像の「奥行き調整値」を出力する。
この「奥行き調整値」は、例えば、上記全ユーザの最大瞬き回数カウント値に応じ、立体視(3D)映像の奥行き(デプス)値が小さくなるように指示する。
また、ここでは、上記チューナ3等の入力装置から立体視(3D)映像が出力される。この立体視(3D)映像には、奥行き(デプス)値が付与されている。そして、この立体視(3D)映像は、映像受信部74で受信され、3D奥行生成部75に向けて出力される。
3D奥行生成部75は、受信した映像信号に付与されている奥行き(デプス)値(ここでは、「奥行き基準値」)を、上記立体視(3D)映像生成部76に向けて出力する。
そして、立体視(3D)映像生成部76は、上記瞬き回数による奥行き調整部73から出力された「奥行き調整値」および、3D奥行生成部75から出力された「奥行き基準値」を受信し、上記「奥行き基準値」で決定される上記立体視(3D)映像よりも奥行きが小さい立体視(3D)映像を生成し、出力する。
この立体視(3D)映像生成部76から出力された立体視(3D)映像は、表示画面8で受信され、上記立体視(3D)映像よりも奥行きが小さい立体視(3D)映像が表示出力される。
図4は、実施形態に係わる映像出力装置から出力される瞬き検出3D奥行き調整機能の設定画面を示す図である。
この実施形態においては、映像出力装置1Aは、例えば、ユーザのリモコン21操作に応じ、例えば、表示画面8に、瞬き検出3D奥行き調整機能の設定画面を出力することが可能である。
ここでは、例えば、表示画面8に、「瞬き検出3D奥行き(デプス)調整機能を設定しますか?」と表示出力される。
ユーザは、例えば、リモコン21を操作し、上記「瞬き検出3D奥行き(デプス)調整機能」を設定する場合は、「Yes」31を指定する。また、「瞬き検出3D奥行き(デプス)調整機能」を設定する場合は、「No」を指定する。ここでは、「Yes」31が指定されている。
ここでの設定は、例えば、上記フラッシュメモリ15に記憶される。
図5は、実施形態に係わる映像出力装置から出力される瞬き検出の設定値の設定画面を示す図である。
この実施形態においては、映像出力装置1Aは、例えば、ユーザのリモコン21操作に応じ、例えば、表示画面8に、「瞬き検出の設定値」の設定画面を出力することが可能である。
ここでは、「瞬き検出の設定値」として、例えば、「1分間に40回」が予め設定されている。
そして、ここでは、ユーザは、例えば、リモコン21の「+」キー、「−」キー等を操作し、上記「瞬き検出の設定値」を変更することが可能である。
そして、ユーザは、例えば、リモコン21を操作し、表示されている「瞬き検出の設定値」を設定する場合は、「Yes」41を指定する。また、「瞬き検出3D奥行き(デプス)調整機能」を設定する場合は、「No」を指定する。ここでは、「Yes」41が指定されている。
ここでの設定は、例えば、上記フラッシュメモリ15に記憶される。
図6は、実施形態に係わる映像出力装置から出力されるメッセージの出力画面を示す図である。
この実施形態においては、上記のように、映像出力装置1Aの前にいる一人または複数の視聴者(ユーザ)の瞬き回数が検出される。そして、各ユーザの所定時間の瞬き回数のカウント値が、予め設定された値(例えば、40回/分)と比較される。
そして、ここでは、上記複数の視聴者(ユーザ)の中で、一人でも、上記予め設定された値(例えば、40回/分)を超える瞬き回数が検出された場合は、図6に示すように、表示画面8に、例えば、「目が疲れていませんか?」というメッセージが表示出力される。
このメッセージは、上記「瞬き検出3D奥行き調整」と合わせて行なうことで、より、視聴者(ユーザ)の目の疲労を低減する効果が期待できる。
図7は、実施形態に係わる映像出力装置に構成される、ユーザの瞬き回数が増加すると立体視(3D)映像の奥行きを段階的に小さくする制御例を示す図である。
ここでは、縦軸は、上記立体視(3D)映像生成部76から出力される立体視(3D)映像の奥行き(デプス)値のようすを示している。
横軸は、上記検出される視聴者(ユーザ)の瞬き回数である。上記のように、この瞬き回数は、複数のユーザの中で最大の値が好ましいが、平均値を用いる等、種々、変更は可能である。
上記のように、立体視(3D)映像生成部76は、上記瞬き回数による奥行き調整部73から出力された「奥行き調整値」および、3D奥行生成部75から出力された「奥行き基準値」を受信し、上記のように設定値を超える瞬き回数が検出された場合に、上記「奥行き基準値」で決定される上記立体視(3D)映像よりも奥行きが小さい立体視(3D)映像を生成し、出力する。
ここでは、上記検出された視聴者(ユーザ)の瞬き回数が、例えば、40回に達するまでは、第1の奥行き値の立体視(3D)映像が生成され、出力される。この第1の奥行き値の立体視(3D)映像は、上記「奥行き調整値」の影響がないか、または少ないものである。
また、上記検出された視聴者(ユーザ)の瞬き回数が、例えば、40回を超え、45回に達するまでは、第2の奥行き値の立体視(3D)映像が生成され、出力される。この第2の奥行き値の立体視(3D)映像は、上記第1の奥行き値の立体視(3D)映像よりも「奥行き調整値」の影響が大きく、すなわち、3D効果が小さくなる。
これにより、立体視(3D)映像による影響が低減される。
また、上記検出された視聴者(ユーザ)の瞬き回数が、例えば、45回を超え、50回に達するまでは、第3の奥行き値の立体視(3D)映像が生成され、出力される。この第3の奥行き値の立体視(3D)映像は、上記第2の奥行き値の立体視(3D)映像よりも「奥行き調整値」の影響がさらに大きく、すなわち、3D効果がさらに小さくなる。
これにより、立体視(3D)映像による影響がさらに低減される。
また、上記検出された視聴者(ユーザ)の瞬き回数が、例えば、50回を超えると、第4の奥行き値の立体視(3D)映像が生成され、出力される。この第4の奥行き値の立体視(3D)映像は、上記第3の奥行き値の立体視(3D)映像よりも「奥行き調整値」の影響がさらに大きく、すなわち、3D効果がさらに小さくなる。
これにより、立体視(3D)映像による影響がさらに低減される。
すなわち、この実施形態においては、ユーザの瞬き回数が増加すると、立体視(3D)映像の効果は段階的に小さくなるように制御される
図8は、実施形態に係わる映像出力装置の動作を説明するフローチャートである。
図8は、実施形態に係わる映像出力装置の動作を説明するフローチャートである。
ステップS100は、ここでの開始ステップである。続いて、ステップS101に進む。
ステップS101は、立体視(3D)映像を出力する立体視(3D)映像出力モードが設定されているかを判別するステップである。立体視(3D)映像出力モードが設定されている場合は、ステップS102に進む(Yes)。立体視(3D)映像出力モードが設定されていない場合は、ここでの処理を繰り返す(No)。
ステップS102は、上記3D奥行生成部75から出力される奥行き(デプス)基準値で立体視(3D)映像を出力するステップである。続いて、ステップS103に進む。
ステップS103は、例えば、映像出力装置1Aの前にいて、映像出力装置1Aから出力される映像を視聴する視聴者(ユーザ)を撮像し、上記フェイストラッキング処理等で視聴者を検出するステップである。続いて、ステップS104に進む。
ステップS104は、上記フェイストラッキング処理等でユーザは検出されたかを判別するステップである。ユーザは検出されたかと判別される場合は、ステップS105に進む(Yes)。ユーザは検出されないと判別される場合は、ステップS103に進み、上記処理を繰り返す(No)。
ステップS105は、上記瞬き検出の設定がされているかを判別するステップである。上記瞬き検出の設定がされていると判別される場合は、ステップS106に進む(Yes)。上記瞬き検出の設定がされていないと判別される場合は、ステップS103に進み、上記処理を繰り返す(No)。
ステップS106は、上記検出されたユーザ(1人または複数)全員の瞬き回数を所定時間、例えば、1分間カウントするステップである。続いて、ステップS107に進む。
ステップS107は、各ユーザの所定時間の瞬き回数のカウント値を、予め設定された値(例えば、40回/分)と比較するステップである。続いて、ステップS108に進む。
ステップS108は、上記設定値を超える瞬き回数は検出されたかを判別するステップである。上記設定値を超える瞬き回数は検出されたと判別される場合は、ステップS109に進む(Yes)。上記設定値を超える瞬き回数は検出されないと判別される場合は、ステップS102に進み、上記処理を繰り返す(No)。
ステップS109は、奥行き調整、すなわち、全ユーザの最大瞬き回数カウント値に応じ、奥行き(デプス)値を小さく、した立体視(3D)映像を出力するステップである。続いて、ステップS110に進む。
ステップS110は、図6に示すように、表示画面8に、「目は疲れていませんか?」等のメッセージを出力するステップである。続いて、ステップS103に進み、上記処理を繰り返す。
すなわち、この実施形態に係る映像出力装置は、立体視(3D)映像を出力する立体視(3D)映像出力部(撮像装置(カメラ)30A)を備える。
また、撮像を行い、この撮像映像からユーザを検出する検出部(顔画像検出部71)を備える。
また、上記検出されたユーザの瞬きの回数をカウントするカウント部(瞬き検出部)を備える。
また、上記カウントされたユーザの瞬きの回数が、予め設定された値を超える場合は、上記立体視(3D)映像より奥行きが小さい立体視(3D)映像を出力するよう制御する制御部(瞬き回数による奥行き調整部)を備える。
また、上記ユーザ検出はフェイストラッキング処理を含む。
また、上記ユーザ検出は複数のユーザを検出可能である。
また、上記カウントされた瞬きの回数が上記予め設定された値を超える場合に、メッセージを出力するメッセージ出力部(制御部11)を備える。
また、上記予め設定された値を変更可能な表示画面を出力する表示画面出力部(制御部11)を備える。
また、上記出力される立体視(3D)映像より奥行きが小さい立体視(3D)映像は、上記ユーザの瞬き回数が増加すると段階的に小さくなるように制御される。
また、上記出力される立体視(3D)映像より奥行きが小さい立体視(3D)映像の出力を設定可能な表示画面を出力する設定画面出力部(制御部11)を備える。
上記のように構成することによって、この実施形態においては、視聴者(ユーザ)の目の疲労を低減することが可能な映像出力装置を提供することが可能になる。
なお、上記実施形態の制御処理の手順は全てソフトウェアによって実行することが可能である。このため、制御処理の手順を実行するプログラムを格納したコンピュータ読み取り可能な記憶媒体を通じてこのプログラムを通常のコンピュータにインストールして実行するだけで、上記実施形態と同様の効果を容易に実現することができる。
なお、上記実施形態は、記述そのものに限定されるものではなく、実施段階では、その趣旨を逸脱しない範囲で、構成要素を種々変形して具体化することが可能である。
また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。
例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に亘る構成要素を適宜組み合せてもよい。
1A…映像出力装置、2…アンテナ、3…チューナ、4…信号処理部、5…映像処理部、6…音声処理部、7…表示装置、8…表示画面(映像表示部)、9…スピーカ、10…バス、11…制御部、12…CPU、13…RAM、14…ROM、15…フラッシュメモリ、16…記憶部、17…内部記録装置、18…外部インターフェース、25…放送局、26…ネットワーク、27…サーバ、30A…撮像部(カメラ)、71…顔画像検出部(フェイストラッキング)、72…瞬き検出部、73…瞬き回数による奥行き調整部、74…映像受信部、75…3D奥行生成部、76…立体視(3D)映像生成部。
Claims (9)
- 立体視映像を出力する立体視映像出力部と、
立体映像出力部と対抗するユーザの瞬きの回数をカウントするカウント部と、
前記カウントされたユーザの瞬きの回数が、予め設定された値を超える場合は、前記立体視映像より奥行きが小さい立体視映像を出力するよう制御する制御部を備える映像出力装置。 - 前記ユーザ検出はフェイストラッキング処理を含む請求項1に記載の映像出力装置。
- 前記ユーザ検出は複数のユーザを検出可能である請求項1に記載の映像出力装置。
- 前記カウントされた瞬きの回数が前記予め設定された値を超える場合に、メッセージを出力するメッセージ出力部を備える請求項1に記載の映像出力装置。
- 前記予め設定された値を変更可能な表示画面を出力する表示画面出力部を備える請求項1に記載の映像出力装置。
- 前記出力される立体視映像より奥行きが小さい立体視映像は、前記ユーザの瞬き回数が増加すると段階的に小さくなるように制御される請求項1に記載の映像出力装置。
- 前記出力される立体視映像より奥行きが小さい立体視映像の出力を設定可能な表示画面を出力する設定画面出力部を備える請求項1に記載の映像出力装置。
- 立体視映像を出力するステップと、
撮像を行い、この撮像映像からユーザを検出するステップと、
前記検出されたユーザの瞬きの回数をカウントするステップと、
前記カウントされたユーザの瞬きの回数が、予め設定された値を超える場合は、前記立体視映像より奥行きが小さい立体視映像を出力するよう制御するステップを備える映像出力方法。 - 立体視映像を出力するステップと、
撮像を行い、この撮像映像からユーザを検出するステップと、
前記検出されたユーザの瞬きの回数をカウントするステップと、
前記カウントされたユーザの瞬きの回数が、予め設定された値を超える場合は、前記立体視映像より奥行きが小さい立体視映像を出力するよう制御するステップを備え、映像出力装置を制御する映像出力装置の制御プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012019335A JP2013157961A (ja) | 2012-01-31 | 2012-01-31 | 映像出力装置、映像出力方法、映像出力装置の制御プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012019335A JP2013157961A (ja) | 2012-01-31 | 2012-01-31 | 映像出力装置、映像出力方法、映像出力装置の制御プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013157961A true JP2013157961A (ja) | 2013-08-15 |
Family
ID=47263003
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012019335A Pending JP2013157961A (ja) | 2012-01-31 | 2012-01-31 | 映像出力装置、映像出力方法、映像出力装置の制御プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013157961A (ja) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000221953A (ja) * | 1999-01-29 | 2000-08-11 | Sony Corp | 映像表示装置、映像処理方法及びこれらを応用した映像表示システム |
JP2004289527A (ja) * | 2003-03-24 | 2004-10-14 | Sanyo Electric Co Ltd | 立体画像表示装置 |
JP2004357760A (ja) * | 2003-06-02 | 2004-12-24 | Sophia Co Ltd | 遊技機 |
JP2010259006A (ja) * | 2009-04-28 | 2010-11-11 | Nikon Corp | 画像提示システム、プログラムおよび画像提示方法 |
JP2010258872A (ja) * | 2009-04-27 | 2010-11-11 | Mitsubishi Electric Corp | 立体映像および音声記録方法、立体映像および音声再生方法、立体映像および音声記録装置、立体映像および音声再生装置、立体映像および音声記録媒体 |
JP2011064894A (ja) * | 2009-09-16 | 2011-03-31 | Fujifilm Corp | 立体画像表示装置 |
JP2011205481A (ja) * | 2010-03-26 | 2011-10-13 | Sharp Corp | 立体映像視聴具及び立体映像表示システム |
JP2012010217A (ja) * | 2010-06-28 | 2012-01-12 | Nikon Corp | 眼鏡および表示システム |
-
2012
- 2012-01-31 JP JP2012019335A patent/JP2013157961A/ja active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000221953A (ja) * | 1999-01-29 | 2000-08-11 | Sony Corp | 映像表示装置、映像処理方法及びこれらを応用した映像表示システム |
JP2004289527A (ja) * | 2003-03-24 | 2004-10-14 | Sanyo Electric Co Ltd | 立体画像表示装置 |
JP2004357760A (ja) * | 2003-06-02 | 2004-12-24 | Sophia Co Ltd | 遊技機 |
JP2010258872A (ja) * | 2009-04-27 | 2010-11-11 | Mitsubishi Electric Corp | 立体映像および音声記録方法、立体映像および音声再生方法、立体映像および音声記録装置、立体映像および音声再生装置、立体映像および音声記録媒体 |
JP2010259006A (ja) * | 2009-04-28 | 2010-11-11 | Nikon Corp | 画像提示システム、プログラムおよび画像提示方法 |
JP2011064894A (ja) * | 2009-09-16 | 2011-03-31 | Fujifilm Corp | 立体画像表示装置 |
JP2011205481A (ja) * | 2010-03-26 | 2011-10-13 | Sharp Corp | 立体映像視聴具及び立体映像表示システム |
JP2012010217A (ja) * | 2010-06-28 | 2012-01-12 | Nikon Corp | 眼鏡および表示システム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9509916B2 (en) | Image presentation method and apparatus, and terminal | |
US20120262555A1 (en) | Method for adjusting playback of multimedia content according to detection result of user status and related apparatus thereof | |
JP6252849B2 (ja) | 撮像装置および方法 | |
US9270934B2 (en) | 3D video communication apparatus and method for video processing of 3D video communication apparatus | |
US9282310B2 (en) | Mobile terminal and control method thereof | |
WO2015184724A1 (zh) | 一种选座的提示方法及装置 | |
US10291907B2 (en) | Multi-view display control for channel selection | |
CN110764859B (zh) | 一种对屏幕可视区域进行自动调整及优化显示的方法 | |
US20130141550A1 (en) | Method, apparatus and computer program for selecting a stereoscopic imaging viewpoint pair | |
KR20130006965A (ko) | 영상표시 장치 및 그 제어방법 | |
US9118903B2 (en) | Device and method for 2D to 3D conversion | |
JP2012044308A (ja) | 3d画像出力装置及び3d画像表示装置 | |
JP4225307B2 (ja) | テレビジョン受信装置 | |
JP5599063B2 (ja) | 表示制御装置、表示制御方法及びプログラム | |
EP2716052A1 (en) | Interactive user interface for stereoscopic effect adjustment | |
KR20130033815A (ko) | 영상표시장치 및 그 동작방법 | |
US20130016094A1 (en) | Vergence control method for stereo-scopic image control and portable device supporting the same | |
US20150103150A1 (en) | Information processing method and electronic device | |
JP2013157961A (ja) | 映像出力装置、映像出力方法、映像出力装置の制御プログラム | |
US10785445B2 (en) | Audiovisual transmissions adjustments via omnidirectional cameras | |
US20170324921A1 (en) | Method and device for displaying multi-channel video | |
US20120281073A1 (en) | Customization of 3DTV User Interface Position | |
US10021366B2 (en) | Image process apparatus | |
CN113689810A (zh) | 图像显示设备及其方法 | |
JP2011250322A (ja) | 表示装置、警告表示方法、プログラムおよび記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130611 |