JP2013210641A - 画像表示装置およびプログラム - Google Patents

画像表示装置およびプログラム Download PDF

Info

Publication number
JP2013210641A
JP2013210641A JP2013088068A JP2013088068A JP2013210641A JP 2013210641 A JP2013210641 A JP 2013210641A JP 2013088068 A JP2013088068 A JP 2013088068A JP 2013088068 A JP2013088068 A JP 2013088068A JP 2013210641 A JP2013210641 A JP 2013210641A
Authority
JP
Japan
Prior art keywords
user
image
display
display screen
allowable range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013088068A
Other languages
English (en)
Inventor
Yutaka Matsunobu
豊 松延
Akio Shinagawa
明生 品川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Casio Mobile Communications Ltd
Original Assignee
NEC Casio Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Casio Mobile Communications Ltd filed Critical NEC Casio Mobile Communications Ltd
Priority to JP2013088068A priority Critical patent/JP2013210641A/ja
Publication of JP2013210641A publication Critical patent/JP2013210641A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】簡便な操作で3D表示を見るのに最適な位置を設定し得る画像表示装置を提供する。
【解決手段】3D表示用のコンテンツデータを表示する場合には制御部が眼位置チェック処理を実行する。眼位置チェック処理では、ユーザの顔をインカメラで撮像したカメラ映像を、適正範囲(3D表示を見るのに最適な位置範囲)を表す眼位置ガイド画面に重ね合わせて表示画面に表示する一方、カメラ映像から検出したユーザの視点位置が眼位置ガイド画面の適正範囲から逸脱していれば、適正範囲からどの方向へどの程度ずれているのかをユーザに案内する。したがって、ユーザはモニタ表示される自分の左右両眼の位置を適正範囲に合わせるだけで良い為、簡便な操作で3D表示を見るのに最適な位置を設定できる。
【選択図】図4

Description

本発明は、簡便な操作で3D表示(立体視表示)を見るのに最適な位置を設定したり、確実に3D表示を立体視させたりする画像表示装置およびプログラムに関する。
眼鏡を使用せずに両眼視差を利用して立体視させる3D表示の方式としてレンチキュラー方式や視差バリア(パララックスバリア)方式が知られている。ここで、図11を参照して視差バリア方式の3D表示について概説する。図11は視差バリア方式による表示手段として、液晶表示パネルを用いる場合の原理的構成を示す図である。この図において、液晶表示パネル20は、両眼視差を形成するための右眼用映像と左眼用映像とを短冊状に交互に表示する。視差バリア30は、液晶表示パネル20から所定距離を隔てた前方に配置される。視差バリア30には、所定ピッチで刻まれる複数のスリットが設けられる。
上記構成によれば、観察者の両眼が正視位置にあると、視差バリア30のスリットにより観察者の右眼が液晶表示パネル20上の右眼用映像を視覚し、一方、観察者の左眼が液晶表示パネル20上の左眼用映像を視覚する結果、両眼視差による立体感が得られるようになっている。
こうした表示原理に基づき3D表示する装置については、例えば特許文献1に開示されている。また、例えば特許文献2には、上述した視差バリア30のスリットを電気的に形成又は解消して2D表示/3D表示の切り替えを可能にした表示手段が開示されている。さらに、特許文献3には、立体視感を得る視点(図11に図示する正視位置)を探し出せるようにする為、ユーザの左眼に赤色画像を、右眼に青色画像を視覚させる視線補助画像を表示する技術が開示されている。
特開2006−235332号公報 特開2004−153489号公報 特開平10−28764号公報
ところで、両眼視差を利用した3D表示では、立体視感が得られる正視位置(図11参照)をユーザに認知させる必要がある。その為、上記特許文献3に開示の技術は、視線補助画像を表示しておき、左眼で赤色画像を視覚すると同時に、右眼で青色画像を視覚するようユーザ自らが顔の位置(眼の位置)を移動させて正視位置を探し出せるようにしているが、不慣れなユーザであると、その探し出す手間を煩わしく感じてしまう。
また、3D表示時の際に、例えば右眼で左眼用の表示を見てしまう等、ユーザの視点が立体視感を得る正視位置からずれていると、ぶれた画像として視認してしまい大きな違和感を覚える。こういった違和感を回避するには、上記特許文献2に開示の技術を用い、ユーザが3D表示を立体視することが出来ない時に2D表示へ切り替える態様を想定し得るが、そのような態様ではユーザに対して確実に3D表示を立体視させることができない。
つまり、以上の内容を換言すると、従来の技術では、簡便な操作で3D表示を見るのに最適な位置を設定したり、確実に3D表示を立体視させたりすることができない、という問題がある。
そこで本発明は、上述した事情に鑑みてなされたもので、簡便な操作で3D表示を見るのに最適な位置を設定でき、しかも確実に3D表示を立体視させることもできる画像表示装置およびプログラムを提供することを目的としている。
上記目的を達成するため、請求項1に記載の発明では、両眼視差を利用して立体視させる3D画像を表示画面に表示する画像表示装置において、前記表示画面に対向するユーザを撮像した映像から当該ユーザの位置を取得する位置取得手段と、前記位置取得手段により取得されたユーザの位置が、前記表示画面に対して所定許容範囲位置にあるか否かを判別する位置判別手段と、前記位置判別手段の判別結果に応じて、前記表示画面を見るユーザの位置の適否を報知する報知手段とを具備することを特徴とする。
上記請求項1に従属する請求項2に記載の発明では、前記報知手段は、前記位置判別手段によりユーザの位置が前記表示画面に対して所定許容範囲内と判別された場合には立体視できる位置であることを報知し、一方、所定許容範囲外と判別された場合には立体視できない位置にあることを報知することを特徴とする。
上記請求項1に従属する請求項3に記載の発明では、前記位置取得手段は、前記表示画面に対向するユーザを撮像した映像から当該ユーザの左右の眼の位置を取得し、前記位置判別手段は、前記位置取得手段により取得されたユーザの左右の眼の位置が、立体視可能な許容範囲位置にあるか否かを判定することを特徴とする。
上記請求項3に従属する請求項4に記載の発明では、前記位置判別手段は、前記位置取得手段により取得されたユーザの左右の眼の位置が、立体視可能な許容範囲位置から横方向にずれているか否かを判定することを特徴とする。
上記請求項3に従属する請求項5に記載の発明では、前記位置判別手段は、前記位置取得手段により取得されたユーザの左右の眼の位置の間隔が、立体視可能な許容範囲間隔であるか否かを判定することを特徴とする。
上記請求項1に従属する請求項6に記載の発明では、前記位置判別手段は、前記位置取得手段により取得されたユーザの位置が、前記表示画面に対して所定許容範囲位置にないと判別した場合に、取得されたユーザの位置と所定許容範囲位置との差分方向を検出し、前記報知手段は、前記位置判別手段により検出された差分方向へずらすことを案内報知することを特徴とする。
上記請求項1に従属する請求項7に記載の発明では、前記位置取得手段は、前記表示画面に3D画像を表示するのに先立って、前記表示画面に対向するユーザを撮像した映像から当該ユーザの位置を取得し、前記位置判別手段は、前記表示画面に3D画像を表示するのに先立って、前記位置取得手段により取得されたユーザの位置が、前記表示画面に対して所定許容範囲位置にあるか否かを判別することを特徴とする。
上記請求項1に従属する請求項8に記載の発明では、前記位置判別手段は、取得されたユーザの位置が前記表示画面に対して所定許容範囲位置にないと判別した場合には前記表示画面での3D画像の表示を抑制し、一方、取得されたユーザの位置が前記表示画面に対して所定許容範囲位置にあると判別した場合には前記表示画面に3D画像を表示させることを特徴とする。
請求項9に記載の発明では、両眼視差を利用して立体視させる3D画像を表示画面に表示する画像表示装置において、前記表示画面に対向するユーザを撮像した映像から当該ユーザの位置を取得する位置取得手段と、前記位置取得手段により取得されたユーザの位置が、前記表示画面に対して所定許容範囲位置にあるか否かを判別する位置判別手段と、前記位置判別手段の判別結果に応じて、前記表示画面に3D画像を表示するか否かを制御する表示制御手段とを具備することを特徴とする。
上記請求項9に従属する請求項10に記載の発明では、前記表示制御手段は、前記位置判別手段が所定許容範囲位置にあると判別した場合には前記表示画面に3D画像を表示し、所定許容範囲位置にないと判別した場合には3D画像を2D画像として前記表示画面に表示することを特徴とする。
上記請求項9に従属する請求項11に記載の発明では、前記表示制御手段は、前記位置判別手段が所定許容範囲位置にあると判別した場合には前記表示画面に3D画像を表示し、所定許容範囲位置にないと判別した場合には前記表示画面での3D画像の表示を抑制することを特徴とする。
上記請求項9に従属する請求項12に記載の発明では、前記表示制御手段は、前記位置判別手段が所定許容範囲位置にないと判別した場合に画像データ再生出力を停止して前記表示画面での3D画像の表示を抑制することを特徴とする。
上記請求項9に従属する請求項13に記載の発明では、前記位置取得手段は、前記表示画面に対向するユーザを撮像した映像から当該ユーザの左右の眼の位置を取得し、前記位置判別手段は、前記位置取得手段により取得されたユーザの左右の眼の位置が、立体視可能な許容範囲位置にあるか否かを判定することを特徴とする。
上記請求項9に従属する請求項14に記載の発明では、前記位置判別手段は、前記位置取得手段により取得されたユーザの左右の眼の位置が、立体視可能な許容範囲位置から横方向にずれているか否かを判定することを特徴とする。
上記請求項9に従属する請求項15に記載の発明では、前記位置判別手段は、前記位置取得手段により取得されたユーザの左右の眼の位置の間隔が、立体視可能な許容範囲間隔であるか否かを判定することを特徴とする。
上記請求項9に従属する請求項16に記載の発明では、前記位置取得手段は、前記表示画面に対向するユーザの位置を光測位にて取得することを特徴とする。
請求項17に記載の発明では、両眼視差を利用して立体視させる3D画像を表示画面に表示する画像表示装置で実行されるプログラムであって、前記表示画面に対向するユーザを撮像した映像から当該ユーザの位置を取得する位置取得ステップと、前記位置取得ステップにて取得されたユーザの位置が、前記表示画面に対して所定許容範囲位置にあるか否かを判別する位置判別ステップと、前記位置判別ステップでの判別結果に応じて、前記表示画面を見るユーザの位置の適否を報知する報知ステップとをコンピュータで実行させることを特徴とする。
上記請求項17に従属する請求項18に記載の発明では、前記位置判別ステップでの判別結果に応じて、前記表示画面に3D画像を表示するか否かを制御する表示制御ステップを更に備えることを特徴とする。
本発明によれば、簡便な操作で3D表示を見るのに最適な位置を設定でき、しかも確実に3D表示を立体視させることもできる。
第1実施形態による携帯電話10の外観構成を示す図である。 第1実施形態による携帯電話10の電気的構成を示すブロック図である。 第1実施形態のコンテンツ表示処理の動作を示すフローチャートである。 第1実施形態の眼位置チェック処理の動作を示すフローチャートである。 眼位置ガイド画面EGの一例を示す図である。 第1実施形態の眼位置チェック処理の動作を説明するための図である。 第1実施形態の眼位置チェック処理の動作を説明するための図である。 第1実施形態の眼位置チェック処理の動作を説明するための図である。 第2実施形態のコンテンツ表示処理の動作を示すフローチャートである。 第2実施形態のコンテンツ表示処理の動作を示すフローチャートである。 背景技術を説明するための図である。
以下、図面を参照して本発明の実施の形態について説明する。
[第1実施形態]
A.構成
(1)携帯電話10の外観構成
図1は、第1実施形態による画像表示装置を備えた携帯電話10の外観構成を示す図である。携帯電話10は、受話部筐体と送話部筐体とを折り畳む周知の折り畳み開閉タイプの筐体構造を有し、図1は折り畳みが開かれた展開状態での正面外観を図示している。この図に示すように、携帯電話10の受話部筐体には、ユーザの顔を撮像するインカメラ103、2D表示/3D表示の切り替えが可能な表示画面107aおよび3D表示時にユーザの視点位置が適正範囲にあるか否かを報知するガイドLEDが配設される。なお、送話部筐体には、後述の操作部108を構成する各種操作キーや操作ボタン、送話口(マイクMIC)等が設けられる。
(2)携帯電話10の電気的構成
次に、図2を参照して携帯電話10の電気的構成について説明する。図2において、制御部100は、CPUおよび入出力回路などから構成され、操作部108(後述する)から供給されるイベントに応じて各部動作を制御する。具体的には、3D表示用の3Dイメージデータを3D表示する場合に、簡便な操作で3D表示を見るのに最適な位置を設定したり、確実に3D表示を立体視させたりする制御動作を実行する。こうした本発明の要旨に係わる制御部100の特徴的な処理動作については追って詳述する。
ROM101は、プログラムエリアおよびデータエリアを備える。ROM101のプログラムエリアには、制御部100により実行される各種プログラムが記憶される。ここで言う各種プログラムとは、追って詳述するコンテンツ表示処理および眼位置チェック処理を含む。ROM101のデータエリアには、所定のプログラムにより参照される制御データの他、例えば後述の眼位置ガイド画面EG(図5参照)や、待受画面(不図示)などの各種表示画面を形成する画面データが格納される。
RAM102は、制御部100の処理に用いる各種レジスタ・フラグデータを一時記憶するワークエリア102aと、インカメラ103から撮像出力される撮像データ(画像データ)を一時記憶する撮像データエリア102bと、表示部107の表示画面107aに2D表示もしくは3D表示するコンテンツデータを記憶するコンテンツデータエリア102cとを備える。なお、ここで言うコンテンツデータとは、通常の2D表示用の画像データや、左眼用画像データと右眼用画像データとから構成され、視差バリア方式で3D表示するための3Dイメージデータを包含する総称である。
インカメラ103は、所謂『自分撮り用』として、表示部107の表示画面107aに対向するユーザの顔を撮像するカメラであって、制御部100の指示に従って撮像を開始し、これにより得られる画像データを出力する。インカメラ103から出力される画像データは、制御部100の制御の下に、RAM102の撮像データエリア102bにストアされる。
無線通信送受信部104は、データ通信時には制御部100の制御の下に、アンテナANT1を介して基地局(不図示)とデータ授受を行い、音声通話時にはアンテナANT1を介して受信復調した音声データを制御部100に出力する一方、制御部100から供給される音声データを変調して得た送信信号を高周波増幅してアンテナANT1から送出する。
音声信号処理部105は、スピーカSPおよびマイクMICを備え、制御部100から供給される音声データを音声信号にD/A変換してスピーカSPに供給したり、マイクMICから出力される音声信号を音声データにA/D変換して制御部100に供給する。
画像処理部106は、制御部100の指示に従い、RAM102の撮像データエリア102bにストアされる画像データを、ビューファインダ(表示画面107a)に表示する。また、画像処理部106は、制御部100の指示に従い、ビューファインダに表示した画像データに「人の顔」に相当する画像パターンが含まれているか否かを判定し、「人の顔」に相当する画像パターンが含まれている場合には、ビューファインダ中における顔の左右両眼の位置を検出して制御部100に出力する。さらに、画像処理部106は、前フレーム画像データに基づき検出した顔の左右両眼の位置と、次フレーム画像データに基づき検出した顔の左右両眼の位置との差分が所定閾値を超えた場合に、筐体の揺れを検出した旨を表す筐体揺れ検出イベントを発生して制御部100に供給する。
表示部107は、制御部100から2D表示用の画像データが供給された場合には視差バリアのスリットを電気的に解消して表示画面107aに2D表示し、一方、制御部100から3D表示用の3Dイメージデータが供給された場合には、視差バリアのスリットを電気的に形成して表示画面107aに3D表示する。また、表示部107では、制御部100が眼位置チェック処理(後述する)を実行する場合、図5に図示する眼位置ガイド画面EGを表示画面107aに表示する。眼位置ガイド画面EGが意図するところについては追って述べる。
操作部108には、パワーオンオフする電源スイッチ、通話開始/終了時に操作されるオフフック/オンフックスイッチ、ダイヤルスイッチと兼用の文字入力スイッチ等の各種操作キーの他、RAM102のコンテンツデータエリア102cに格納される各種コンテンツデータのいずれかを選択して表示するコンテンツ表示処理の実行を指示するコンテンツ表示ボタンを有し、これらキーやボタンの操作に応じたイベントを発生して制御部100に出力する。
B.動作
次に、図3〜図8を参照して携帯電話10の制御部100が実行するコンテンツ表示処理および眼位置チェック処理の各動作について説明する。なお、図3はコンテンツ表示処理の動作を示すフローチャート、図4は眼位置チェック処理の動作を示すフローチャートである。また、図5〜図8は眼位置チェック処理の動作を説明するための図である。
(1)コンテンツ表示処理の動作
携帯電話10が着信を待ち受ける待ち受け状態下である時に、ユーザが操作部108のコンテンツ表示ボタンを操作すると、この操作イベントに基づき制御部100は図3に図示するコンテンツ表示処理を実行してステップSA1に進む。ステップSA1では、RAM102のコンテンツデータエリア102cに格納されている各種コンテンツデータの属性(例えばファイル名や2D表示用/3D表示用を識別するコンテンツ種別など)を、当該コンテンツデータエリア102cから読み出し、これをコンテンツリストとして表示画面107aに一覧表示する。
次いで、ステップSA2では、上記ステップSA1にて表示されたコンテンツリストの中から2D表示もしくは3D表示したいコンテンツデータをユーザ操作に応じて選択する。そして、ステップSA3〜SA4では、選択したコンテンツデータの属性に含まれるコンテンツ種別に基づき、表示すべきコンテンツデータが2D表示用あるいは3D表示用のいずれであるかを判別する。以下、表示すべきコンテンツデータが2D表示用の場合と3D表示用の場合とに分けて動作の説明を進める。
<表示すべきコンテンツデータが2D表示用の場合>
表示すべきコンテンツデータが2D表示用であると、ステップSA4の判断結果は「NO」になり、ステップSA5に進み、上記ステップSA2において選択されたコンテンツデータをRAM102のコンテンツデータエリア102cから読み出して表示画面107aに2D表示する。なお、この際、表示部107では、制御部100から2D表示用のコンテンツデータが供給されるのに伴い、視差バリアのスリットを電気的に解消して表示画面107aを2D表示用の状態に設定する。そして、ステップSA6では、コンテンツ表示終了操作が行われるまで待機し、その操作が行われると、判断結果が「YES」となり、本処理を終える。
<表示すべきコンテンツデータが3D表示用の場合>
表示すべきコンテンツデータが3D表示用の3Dイメージデータであると、上記ステップSA4の判断結果は「YES」になり、ステップSA7を介して眼位置チェック処理を実行する。眼位置チェック処理では、後述するように、ユーザの顔をインカメラ103で撮像したカメラ映像を、立体視感を得る正視位置(以下、適正範囲と称す)を案内するための眼位置ガイド画面EGに重ね合わせて表示画面107aに表示する一方、カメラ映像から検出したユーザの左右両眼の位置が眼位置ガイド画面EG上に示される適正範囲から逸脱していれば、ユーザの視点位置が適正範囲からどの方向にどの程度ずれているのかを案内する。
そして、上記ステップSA7を介して実行される眼位置チェック処理によりユーザの視点位置が適正範囲内に収まると、ステップSA8に進み、上記ステップSA2において選択された3D表示用のコンテンツデータをRAM102のコンテンツデータエリア102cから読み出して表示画面107aに3D表示する。なお、この際、表示部107では、制御部100から3D表示用のコンテンツデータが供給されるのに伴い、視差バリアのスリットを電気的に形成して表示画面107aに3D表示する。
次いで、ステップSA9では、着信割り込みを検出したか否かを判断する。着信割り込みを検出した場合には、判断結果が「YES」になり、ステップSA10に進み、コンテンツ表示を停止した後、上述のステップSA7に処理を戻す。一方、着信割り込みを検出していなければ、上記ステップSA9の判断結果は「NO」になり、ステップSA11に進む。ステップSA11では、画像処理部106から筐体揺れ検出イベントが供給されたか否か、つまり筐体の揺れを検出したかどうかを判断する。筐体の揺れを検出した場合には、判断結果が「YES」となり、ステップSA10に進み、コンテンツ表示を停止した後、上述のステップSA7に処理を戻す。
これに対し、筐体の揺れを検出していなければ、上記ステップSA11の判断結果は「NO」になり、ステップSA12に進み、コンテンツ表示終了操作の有無を判断する。コンテンツ表示終了操作が為されていなければ、判断結果は「NO」になり、上述したステップSA9に処理を戻す。一方、コンテンツ表示終了操作が行われると、上記ステップSA12の判断結果が「YES」となり、本処理を終える。
(2)眼位置チェック処理の動作
次に、図4〜図8を参照して眼位置チェック処理の動作を説明する。上述したコンテンツ表示処理のステップSA7(図3参照)を介して本処理が実行されると、制御部100は図4に図示するステップSB1に進み、インカメラ103を起動させる。これによりインカメラ103は、表示部107の表示画面107aに対向するユーザの顔を撮像し始める。次いで、ステップSB2では、インカメラ103から出力されるカメラ映像をビューファインダとなる表示画面107aにモニタ表示する。
続いて、ステップSB3では、カメラ映像をモニタ表示している表示画面107aに、眼位置ガイド画面EGをスーパーインポーズして合成表示する。眼位置ガイド画面EGとは、例えば図5に図示する一例のように、左眼位置ガイド枠LE、右眼位置ガイド枠REおよび案内表示部GMを有する画面である。この画面EGの左眼位置ガイド枠LEおよび右眼位置ガイド枠REは、ユーザに適正範囲(立体視感を得る正視位置)を案内するためのものである。したがって、このような眼位置ガイド画面EGを、ユーザの顔を撮影してなるカメラ映像にスーパーインポーズして合成表示すると、図6に図示する一例の表示形態となる。
そして、ステップSB4では、制御部100の指示に従い、画像処理部106が、インカメラ103から出力されるカメラ映像に「人の顔」に相当する画像パターンが含まれているか否かを判定する顔認識を実行し、これにて「人の顔」に相当する画像パターンが含まれていると判定されると、認識した顔の左右両眼の位置を検出して制御部100に出力する。
こうして、ユーザの顔の左右両眼の位置が画像認識により検出されると、制御部100はステップSB5に進み、検出した左右の眼位置を適正位置と比較する。すなわち、検出した左右両眼の位置がそれぞれ左眼位置ガイド枠LEと右眼位置ガイド枠REとに収まっているかを比較する。次いで、ステップSB6では、上記ステップSB5の比較結果に基づき、左眼位置が左眼位置ガイド枠LE内に収まり、かつ右眼位置が右眼位置ガイド枠RE内に収まる適正範囲内であるか否かを判断する。
例えば図6に図示した一例のように、ユーザの左右両眼の位置が眼位置ガイド画面EGの左眼位置ガイド枠LEと右眼位置ガイド枠REとに収まる適正範囲内にある場合、つまり立体視感が得られる正視位置にユーザの左右両眼が位置していれば、上記ステップSB6の判断結果は「YES」となり、本処理を完了する。なお、この場合、眼位置チェック処理の完了に伴い、モニタ表示および眼位置ガイド画面EGの表示を終了させる。
これに対し、図7(a)又は図8(a)に図示する一例のように、ユーザの左右両眼の位置が適正範囲を逸脱していると、上記ステップSB6の判断結果は「NO」になり、ステップSB7に進み、不一致音をスピーカSPから放音するよう音声信号処理部105に指示し、続くステップSB8では、受話部筐体に配設されるガイドLED(図1参照)を点滅させて適正範囲を逸脱している旨をユーザに報知する。
なお、本実施形態では、不一致音を放音させながらガイドLEDを点滅させて適正範囲の逸脱をユーザに報知する態様としたが、これに限らず、ユーザの左右両眼が適正範囲内に収まった時に一致音を放音してガイドLEDを消灯させ、これによりユーザに対して立体視感が得られる正視位置にある旨を報知する態様としても構わない。
次いで、ステップSB9では、左右の眼の間隔が適正か否か、すなわち上記ステップSB4において検出されたユーザの左右両眼の位置から得られる眼の間隔が、図7(a)に図示する左眼位置ガイド枠LE右端から右眼位置ガイド枠RE左端までの間隔K1と、左眼位置ガイド枠LE左端から右眼位置ガイド枠RE右端までの間隔K2との間に収まるかどうかを判断する。つまり言い換えると、ステップSB9では、ユーザの眼の位置が表示画面107aから遠過ぎたり近づき過ぎたりせずに適正に離間しているかどうかを判断する。以下、ユーザの眼の位置が表示画面107aから適正に離間している場合と、そうでない場合とに分けて動作説明を進める。
<ユーザの眼の位置が表示画面107aから適正に離間している場合>
この場合には、ユーザの左右両眼の位置から得られる眼の間隔が上述した間隔K1と間隔K2との間に収まるので、上記ステップSB9の判断結果は「YES」になり、ステップSB10に進む。ステップSB10では、眼位置ガイド画面EGの左眼位置ガイド枠LEと右眼位置ガイド枠REとで規定される適正範囲から逸脱するユーザの眼の位置のズレ方向(上下方向あるいは左右方向)およびそのズレ量を検出する。
例えば図7(a)に図示する一例のように、ユーザの眼の位置が適正範囲から逸脱している状況では、図7(b)に図示する関係に基づきズレの方向およびそのズレ量を検出する。すなわち、左右のズレは、ユーザの眼の間隔ESの中心ECが適正中心TCの右側にあれば右方向のズレとなり、適正中心TCの左側にあれば左方向のズレとなる。
したがって、図7(b)に図示した一例は右方向のズレとなる。適正中心TCとは、図7(a)に図示した間隔K1(又は間隔K2)の中心を指す。また、左右方向のズレ量Lは、適正中心TCの位置とユーザの眼の間隔ESの中心ECの位置との差分(TC−EC)に係数C1を乗算して求める。係数C1は、表示画面107a上における差分(TC−EC)を実際の位置ズレの距離に換算する定数である。
一方、上下のズレは、ユーザの左眼/右眼位置のいずれかが左眼位置ガイド枠LE下端または右眼位置ガイド枠RE下端を超えた場合に下方向のズレとなり、左眼位置ガイド枠LE上端または右眼位置ガイド枠RE上端を超えた場合に上方向のズレとなる。また、図示していないが、上下方向のズレ量Lは、ガイド枠下端(もしくはガイド枠上端)とユーザの左眼位置(もしくは右眼位置)との上下ズレ差分に係数C2を乗算して求める。係数C2は、表示画面107a上における上下ズレ差分を実際の位置ズレの距離に換算する定数である。
で定義される。
上記ステップSB10において、適正範囲から逸脱するユーザの眼の位置のズレ方向(上下方向あるいは左右方向)およびそのズレ量が検出されると、制御部100はステップSB11に進み、検出したズレ方向とズレ量とを、眼位置ガイド画面EGの案内表示部GMにガイド表示する。例えば図7(a)に図示した一例の場合、同図(b)に図示する通り、眼位置ガイド画面EGの案内表示部GMに「右にずれています。:5cm」なるガイドメッセージを表示してユーザに報知する。
こうして、ユーザの視点位置が適正範囲からどの方向へどの程度ずれているのかを案内し終えると、制御部100は上述したステップSB4に処理を戻し、再びユーザの顔の左右両眼の位置を検出し、検出した左右両眼の位置が適正範囲内であるか否かを判断する。この時、上述したガイドメッセージに従ってユーザが視点の位置を移動させ、これによりユーザの左右両眼の位置が適正範囲内に収まるようになると、上述したステップSB6の判断結果が「YES」になり、本処理を終える。
<ユーザの眼の位置が表示画面107aから適正に離間していない場合>
この場合には、ユーザの左右両眼の位置から得られる眼の間隔が前述した間隔K1と間隔K2との間に収まらないので、上記ステップSB9の判断結果は「NO」になり、ステップSB12に進む。ステップSB12では、眼位置ガイド画面EGの左眼位置ガイド枠LEと右眼位置ガイド枠REとで規定される適正範囲から逸脱するユーザの眼の位置のズレ方向(前後方向)およびそのズレ量を検出する。
例えば図8(a)に図示する一例のように、ユーザの眼の位置が適正範囲から逸脱している状況では、図8(b)に図示する関係に基づきズレの方向およびそのズレ量を検出する。すなわち、遠過ぎたり近づき過ぎたりする前後のズレは、ユーザの眼の間隔ESが間隔K1より小さければ後方向のズレとなり、間隔K2より大きければ前方向のズレとなる。したがって、図8(b)に図示した一例は後方向のズレとなる。
後方向のズレ量Lは、図8(b)に図示するように、間隔K1とユーザの眼の間隔ESとの差分(K1−ES)に係数C3を乗算して求める。係数C3は、表示画面107a上における差分(K1−ES)を実際の位置ズレの距離に換算する定数である。一方、前方向のズレ量Lは、図示していないが、ユーザの眼の間隔ESと間隔K2との差分(ES−K2)に係数C4を乗算して求める。係数C4は、表示画面107a上における差分(ES−K2)を実際の位置ズレの距離に換算する定数である。
上記ステップSB12において、適正範囲から逸脱するユーザの眼の位置のズレ方向(前後のズレ)およびそのズレ量を検出すると、制御部100はステップSB13に進み、検出したズレ方向とズレ量とを、眼位置ガイド画面EGの案内表示部GMにガイド表示する。例えば、図8(a)に図示した一例の場合、同図(b)に図示する通り、眼位置ガイド画面EGの案内表示部GMに「遠すぎます。:10cm」なるガイドメッセージを表示してユーザに報知する。
こうして、ユーザの視点位置が適正範囲からどの方向へどの程度ずれているのかを案内し終えると、制御部100は前述したステップSB4に処理を戻し、再びユーザの顔の左右両眼の位置を検出し、検出した左右両眼の位置が適正範囲内であるか否かを判断する。この時、ガイドメッセージに従ってユーザが視点の位置を移動させ、これによりユーザの左右両眼の位置が適正範囲内に収まるようになると、上述したステップSB6の判断結果が「YES」になり、本処理を終える。
このように、眼位置チェック処理では、ユーザの顔をインカメラ103で撮像したカメラ映像を眼位置ガイド画面EGにスーパーインポーズして表示画面107aにモニタ表示する一方、カメラ映像に画像認識を施してユーザの左右両眼の位置を検出し、検出したユーザの左右両眼の位置が眼位置ガイド画面EGの左眼位置ガイド枠LEと右眼位置ガイド枠REとで規定され、立体視感を得る最適な正視位置の範囲を表す適正範囲にあるか否かを判断する。そして、適正範囲から逸脱していれば、正視位置からどの程度ずれているのかを案内する。以後、ユーザの左右両眼の位置が眼位置ガイド画面EGの適正範囲内に収まるようになるまで上記の案内動作を繰り返し、ユーザの左右両眼の位置が正視位置になると、本処理を完了するようになっている。
以上のように、第1実施形態では、表示すべきコンテンツデータが3D表示用の3Dイメージデータであると、ユーザの顔をインカメラ103で撮像したカメラ映像を、立体視感を得る最適な正視位置(適正範囲)を案内する眼位置ガイド画面EGに重ね合わせて表示画面107aに表示する一方、カメラ映像から検出したユーザの左右両眼の位置が眼位置ガイド画面EGの適正範囲から逸脱していれば、どの方向へどの程度ずれているのかを案内する。
そして、ユーザの左右両眼の位置が眼位置ガイド画面EGの適正範囲内に収まるようになるまで案内動作を繰り返し、ユーザの左右両眼の位置が適正範囲に収まると、3D表示用のコンテンツデータをRAM102のコンテンツデータエリア102cから読み出して表示画面107aに3D表示する。したがって、ユーザはモニタ表示される自分の左右両眼の位置を、眼位置ガイド画面EGの左眼位置ガイド枠LEと右眼位置ガイド枠REとに合わせるだけで良い為、簡便な操作で3D表示を見るのに最適な位置を設定することができる。
なお、上述した第1実施形態では、眼位置ガイド画面EG(図5参照)の左眼位置ガイド枠LEと右眼位置ガイド枠REとで規定される適正範囲から逸脱するユーザの眼の位置のズレ方向およびそのズレ量を画像処理に基づき検出するようにしたが、これに替えて、周知の赤外線測距するフォーカスセンサの出力に基づき適正範囲から逸脱するユーザの顔位置(眼の位置)のズレ方向およびそのズレ量を測距する態様としても構わない。
また、上述した第1実施形態では、インカメラ103が撮像したカメラ映像をビューファインダとなる表示画面107aにモニタ表示し、このモニタ表示している表示画面107aに、適正範囲(立体視感を得る正視位置)を案内する眼位置ガイド画面EGをスーパーインポーズして合成表示するようにしたが、これに限らず、コンテンツデータを3D表示する表示画面107aとは別に補助表示画面を設け、この補助表示画面をビューファインダとしてカメラ映像をモニタ表示する一方、表示画面107a上で3D画像が最適に見えるようにするための適正範囲を示す眼位置ガイド画面EGを、当該補助表示画面に重ね合わせて表示する形態にすることも可能である。
さらに、第1実施形態では、カメラ映像に画像認識を施してユーザの左右両眼の位置を検出し、検出したユーザの左右両眼の位置が眼位置ガイド画面EGで規定される適正範囲にあるか否かを判断し、適正範囲から逸脱した状態であれば、ユーザに正視位置からどの程度ずれているのかを案内/報知する態様としたが、これに限らず、ユーザの左右両眼の位置が眼位置ガイド画面EGの適正範囲内に収まると、ユーザに正視位置にあることを報知する態様としても構わない。
[第2実施形態]
次に、図9〜図10を参照して第2実施形態について説明する。第2実施形態の構成は上述した第1実施形態と共通するので、その説明を省略する。以下では、第1実施形態と相違する第2実施形態によるコンテンツ表示処理の動作を説明する。
上述した第1実施形態と同様、携帯電話10が着信を待ち受ける待ち受け状態下である時に、ユーザが操作部108のコンテンツ表示ボタンを操作すると、この操作イベントに基づき制御部100は図9に図示するコンテンツ表示処理を実行してステップSC1に進む。ステップSC1では、RAM102のコンテンツデータエリア102cに格納されている各種コンテンツデータの属性(例えばファイル名や2D表示用/3D表示用を識別するコンテンツ種別など)を、当該コンテンツデータエリア102cから読み出し、これをコンテンツリストとして表示画面107aに一覧表示する。
続いて、ステップSC2では、上記ステップSC1にて表示されたコンテンツリストの中から2D表示もしくは3D表示したいコンテンツデータをユーザ操作に応じて選択する。そして、ステップSC3〜SC4では、選択したコンテンツデータの属性に含まれるコンテンツ種別に基づき、表示すべきコンテンツデータが2D表示用あるいは3D表示用のいずれであるかを判別する。以下、表示すべきコンテンツデータが2D表示用の場合と3D表示用の場合とに分けて動作の説明を進める。
<表示すべきコンテンツデータが2D表示用の場合>
表示すべきコンテンツデータが2D表示用であると、ステップSC4の判断結果は「NO」になり、ステップSC5に進み、上記ステップSC2において選択されたコンテンツデータをRAM102のコンテンツデータエリア102cから読み出して表示画面107aに2D表示する。なお、この際、表示部107では、制御部100から2D表示用のコンテンツデータ(画像データ)が供給されるのに伴い、視差バリアのスリットを電気的に解消して表示画面107aを2D表示用の状態に設定する。そして、ステップSC6では、コンテンツ表示終了操作が行われるまで待機し、その操作が行われると、判断結果が「YES」となり、本処理を終える。
<表示すべきコンテンツデータが3D表示用の場合>
表示すべきコンテンツデータが3D表示用の3Dイメージデータであると、上記ステップSC4の判断結果は「YES」になり、ステップSC7に進み、インカメラ103を起動させる。これによりインカメラ103は、表示部107の表示画面107aに対向するユーザの顔を撮影し始める。
続いて、ステップSC8〜SC9では、制御部100の指示に従い、画像処理部106が、インカメラ103から出力されるカメラ映像に「人の顔」に相当する画像パターンが含まれているか否かを判定する顔認識を実行し、これにて「人の顔」に相当する画像パターンが含まれていれば、認識したユーザの顔から眼位置を検出可能かどうかを判断する。
眼位置を検出することが出来なければ、ステップSC9の判断結果は「NO」になり、ステップSC10に進む。ステップSC10では、3D優先表示設定の有無を判断する。なお、3D優先表示設定とは、コンテンツデータを表示する際に3D表示を優先する表示態様に設定することを意味し、例えば操作部108に配設される3D優先表示設定スイッチの操作に応じて設定される。そして、3D優先表示設定が為されていれば、判断結果は「YES」になり、ステップSC11に進み、コンテンツ表示を停止した後、上記ステップSC8に処理を戻す。つまり、3D優先表示設定されている場合には、ユーザの左右両眼の位置を検出できる状態になるまでコンテンツ表示を停止する。
これに対し、3D優先表示設定が為されていないと、上記ステップSC10の判断結果は「NO」になり、ステップSC12に進み、3D表示用の3Dイメージデータを2D表示用に変換してコンテンツを2D表示した後、上記ステップSC8に処理を戻す。つまり、3D優先表示設定されていない場合には、ユーザの左右両眼の位置を検出できる状態になるまで3D表示用の3Dイメージデータを2D表示用に変換してコンテンツを2D表示する。
そして、ユーザの左右両眼の位置が検出可能になると、上記ステップSC9の判断結果が「YES」になり、図10に図示するステップSC13に処理を進める。ステップSC13では、検出したユーザの左右両眼の位置を適正範囲と比較する。適正範囲とは、立体視感を得る正視位置の範囲を指す。続いて、ステップSC14では、上記ステップSC13の比較結果に基づき、ユーザの左右両眼の位置が適正範囲内であるか否かを判断する。ユーザの左右両眼の位置が適正範囲内であれば、判断結果は「YES」となり、ステップSC15に進む。
ステップSC15では、3D表示中であるか否かを判断する。3D表示中でなければ、判断結果は「NO」となり、ステップSC17に進む。一方、3D表示中であったならば、判断結果が「YES」になり、ステップSC16に進み、3D表示に切り替えた後、ステップSC17に進む。ステップSC17では、コンテンツ表示終了操作の有無を判断する。コンテンツ表示終了操作が行われなければ、判断結果は「NO」になり、上述したステップSC7(図9参照)に処理を戻すが、コンテンツ表示終了操作が行われると、上記ステップSC17の判断結果は「YES」になり、本処理を終える。
さて一方、検出したユーザの左右両眼の位置が適正範囲内でなければ、上記ステップSC14の判断結果が「NO」になり、ステップSC18に進み、3D表示中であるか否かを判断する。3D表示中でなければ、判断結果は「NO」となり、上述したステップSC17に進むが、3D表示中であると、判断結果が「YES」になり、ステップSC19に進む。
ステップSC19では、3D優先表示設定の有無を判断する。3D表示を優先する表示態様となる3D優先表示設定が為されていれば、判断結果は「YES」になり、ステップSC20に進み、コンテンツ表示を停止した後、後述のステップSC22に処理を進める。これに対し、3D優先表示設定が為されていないと、上記ステップSC19の判断結果は「NO」になり、ステップSC21に進み、2D表示に切り替える。つまり、3D表示用の3Dイメージデータを2D表示用に変換してコンテンツを2D表示させた後、ステップSC22に進む。
ステップSC22では、検出されたユーザの左右の眼の間隔が適正か否か、すなわちユーザの眼の位置が表示画面107aから遠過ぎたり近づき過ぎたりせずに適正に離間しているかどうかを判断する。ユーザの眼の位置が表示画面107aから適正に離間していると、判断結果は「YES」になり、ステップSC23に進み、適正範囲から逸脱するユーザの眼の位置のズレ方向(上下方向あるいは左右方向)およびそのズレ量を検出し、続くステップSC24では、検出したズレ方向とズレ量とを表示画面107aにガイド表示した後、上述のステップSC17に処理を戻す。
一方、ユーザの眼の位置が表示画面107aから適正に離間していない場合、つまり表示画面107aから遠過ぎたり近づき過ぎたりしていると、上記ステップSC22の判断結果は「NO」になり、ステップSC25に進み、適正範囲から逸脱するユーザの眼の位置のズレ方向(前後方向)およびそのズレ量を検出し、続くステップSC26では、検出したズレ方向とズレ量とを表示画面107aにガイド表示した後、上述のステップSC17に処理を戻す。
以上のように、第2実施形態では、表示すべきコンテンツデータが3D表示用の3Dイメージデータであると、ユーザの顔を撮像するインカメラ103の出力に画像認識を施してユーザの左右両眼の位置を検出する。そして、検出したユーザの左右両眼の位置が適正範囲内になく、かつ3D優先表示設定が為されていると、コンテンツ表示を停止した後、ユーザの左右両眼の位置が適正範囲内に収まるようになるまで案内動作を繰り返し、この案内動作によってユーザの左右両眼の位置が適正範囲内になると、3D表示するので、ユーザに対して確実に3D表示を立体視させることができる。
また、検出したユーザの左右両眼の位置が適正範囲内になく、かつ3D優先表示設定が為されていなければ、3D表示用の3Dイメージデータを2D表示用に変換してコンテンツを2D表示しながら、ユーザの左右両眼の位置が適正範囲内に収まるようになるまで案内動作を繰り返し、この案内動作によってユーザの左右両眼の位置が適正範囲内になると、3D表示に切り替えるので、ユーザに対して確実に3D表示を立体視させることができる。
なお、上述した第1および第2実施形態では、それぞれ本発明による画像表示装置を備えた携帯電話10を一例として挙げたが、本発明の要旨は、これに限定されるものではなく、3D表示可能な表示手段を備える電子機器全般に適用可能であることは言うまでもない。
10 携帯電話
100 制御部
101 ROM
102 RAM
102a ワークエリア
102b 撮像データエリア
102c コンテンツデータエリア
103 インカメラ
104 無線通信送受信部
105 音声信号処理部
106 画像処理部
107 表示部
107a 表示画面
108 操作部

Claims (18)

  1. 両眼視差を利用して立体視させる3D画像を表示画面に表示する画像表示装置において、
    前記表示画面に対向するユーザを撮像した映像から当該ユーザの位置を取得する位置取得手段と、
    前記位置取得手段により取得されたユーザの位置が、前記表示画面に対して所定許容範囲位置にあるか否かを判別する位置判別手段と、
    前記位置判別手段の判別結果に応じて、前記表示画面を見るユーザの位置の適否を報知する報知手段と
    を具備することを特徴とする画像表示装置。
  2. 前記報知手段は、前記位置判別手段によりユーザの位置が前記表示画面に対して所定許容範囲内と判別された場合には立体視できる位置であることを報知し、一方、所定許容範囲外と判別された場合には立体視できない位置にあることを報知することを特徴とする請求項1記載の画像表示装置。
  3. 前記位置取得手段は、前記表示画面に対向するユーザを撮像した映像から当該ユーザの左右の眼の位置を取得し、
    前記位置判別手段は、前記位置取得手段により取得されたユーザの左右の眼の位置が、立体視可能な許容範囲位置にあるか否かを判定することを特徴とする請求項1記載の画像表示装置。
  4. 前記位置判別手段は、前記位置取得手段により取得されたユーザの左右の眼の位置が、立体視可能な許容範囲位置から横方向にずれているか否かを判定することを特徴とする請求項3記載の画像表示装置。
  5. 前記位置判別手段は、前記位置取得手段により取得されたユーザの左右の眼の位置の間隔が、立体視可能な許容範囲間隔であるか否かを判定することを特徴とする請求項3記載の画像表示装置。
  6. 前記位置判別手段は、前記位置取得手段により取得されたユーザの位置が、前記表示画面に対して所定許容範囲位置にないと判別した場合に、取得されたユーザの位置と所定許容範囲位置との差分方向を検出し、
    前記報知手段は、前記位置判別手段により検出された差分方向へずらすことを案内報知することを特徴とする請求項1記載の画像表示装置。
  7. 前記位置取得手段は、前記表示画面に3D画像を表示するのに先立って、前記表示画面に対向するユーザを撮像した映像から当該ユーザの位置を取得し、
    前記位置判別手段は、前記表示画面に3D画像を表示するのに先立って、前記位置取得手段により取得されたユーザの位置が、前記表示画面に対して所定許容範囲位置にあるか否かを判別することを特徴とする請求項1記載の画像表示装置。
  8. 前記位置判別手段は、取得されたユーザの位置が前記表示画面に対して所定許容範囲位置にないと判別した場合には前記表示画面での3D画像の表示を抑制し、一方、取得されたユーザの位置が前記表示画面に対して所定許容範囲位置にあると判別した場合には前記表示画面に3D画像を表示させることを特徴とする請求項1記載の画像表示装置。
  9. 両眼視差を利用して立体視させる3D画像を表示画面に表示する画像表示装置において、
    前記表示画面に対向するユーザを撮像した映像から当該ユーザの位置を取得する位置取得手段と、
    前記位置取得手段により取得されたユーザの位置が、前記表示画面に対して所定許容範囲位置にあるか否かを判別する位置判別手段と、
    前記位置判別手段の判別結果に応じて、前記表示画面に3D画像を表示するか否かを制御する表示制御手段と
    を具備することを特徴とする画像表示装置。
  10. 前記表示制御手段は、前記位置判別手段が所定許容範囲位置にあると判別した場合には前記表示画面に3D画像を表示し、所定許容範囲位置にないと判別した場合には3D画像を2D画像として前記表示画面に表示することを特徴とする請求項9記載の画像表示装置。
  11. 前記表示制御手段は、前記位置判別手段が所定許容範囲位置にあると判別した場合には前記表示画面に3D画像を表示し、所定許容範囲位置にないと判別した場合には前記表示画面での3D画像の表示を抑制することを特徴とする請求項9記載の画像表示装置。
  12. 前記表示制御手段は、前記位置判別手段が所定許容範囲位置にないと判別した場合に画像データ再生出力を停止して前記表示画面での3D画像の表示を抑制することを特徴とする請求項9記載の画像表示装置。
  13. 前記位置取得手段は、前記表示画面に対向するユーザを撮像した映像から当該ユーザの左右の眼の位置を取得し、
    前記位置判別手段は、前記位置取得手段により取得されたユーザの左右の眼の位置が、立体視可能な許容範囲位置にあるか否かを判定することを特徴とする請求項9記載の画像表示装置。
  14. 前記位置判別手段は、前記位置取得手段により取得されたユーザの左右の眼の位置が、立体視可能な許容範囲位置から横方向にずれているか否かを判定することを特徴とする請求項9記載の画像表示装置。
  15. 前記位置判別手段は、前記位置取得手段により取得されたユーザの左右の眼の位置の間隔が、立体視可能な許容範囲間隔であるか否かを判定することを特徴とする請求項9記載の画像表示装置。
  16. 前記位置取得手段は、前記表示画面に対向するユーザの位置を光測位にて取得することを特徴とする請求項9記載の画像表示装置。
  17. 両眼視差を利用して立体視させる3D画像を表示画面に表示する画像表示装置で実行されるプログラムであって、
    前記表示画面に対向するユーザを撮像した映像から当該ユーザの位置を取得する位置取得ステップと、
    前記位置取得ステップにて取得されたユーザの位置が、前記表示画面に対して所定許容範囲位置にあるか否かを判別する位置判別ステップと、
    前記位置判別ステップでの判別結果に応じて、前記表示画面を見るユーザの位置の適否を報知する報知ステップと
    をコンピュータで実行させることを特徴とするプログラム。
  18. 前記位置判別ステップでの判別結果に応じて、前記表示画面に3D画像を表示するか否かを制御する表示制御ステップを更に備えることを特徴とする請求項17記載のプログラム。
JP2013088068A 2013-04-19 2013-04-19 画像表示装置およびプログラム Pending JP2013210641A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013088068A JP2013210641A (ja) 2013-04-19 2013-04-19 画像表示装置およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013088068A JP2013210641A (ja) 2013-04-19 2013-04-19 画像表示装置およびプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008094633A Division JP5322264B2 (ja) 2008-04-01 2008-04-01 画像表示装置およびプログラム

Publications (1)

Publication Number Publication Date
JP2013210641A true JP2013210641A (ja) 2013-10-10

Family

ID=49528474

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013088068A Pending JP2013210641A (ja) 2013-04-19 2013-04-19 画像表示装置およびプログラム

Country Status (1)

Country Link
JP (1) JP2013210641A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9538071B2 (en) 2013-12-27 2017-01-03 Samsung Electronics Co., Ltd. Electronic apparatus having a photographing function and method of controlling the same

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1042315A (ja) * 1996-07-22 1998-02-13 Sanyo Electric Co Ltd 立体映像表示装置
JPH10174127A (ja) * 1996-12-13 1998-06-26 Sanyo Electric Co Ltd 立体表示方法および立体表示装置
JP2000078612A (ja) * 1998-08-31 2000-03-14 Toshiba Corp 立体映像表示装置
JP2001091210A (ja) * 1999-09-24 2001-04-06 Sanyo Electric Co Ltd 観察者頭部位置検出装置
JP2002300610A (ja) * 2001-03-29 2002-10-11 Sanyo Electric Co Ltd 立体映像表示装置
JP2003107392A (ja) * 2001-09-28 2003-04-09 Sanyo Electric Co Ltd 頭部位置追従型立体映像表示装置
JP2004048644A (ja) * 2002-05-21 2004-02-12 Sony Corp 情報処理装置、情報処理システム、及び対話者表示方法
JP2005033428A (ja) * 2003-07-10 2005-02-03 Sharp Corp 3次元立体映像表示装置
JP2009250987A (ja) * 2008-04-01 2009-10-29 Casio Hitachi Mobile Communications Co Ltd 画像表示装置およびプログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1042315A (ja) * 1996-07-22 1998-02-13 Sanyo Electric Co Ltd 立体映像表示装置
JPH10174127A (ja) * 1996-12-13 1998-06-26 Sanyo Electric Co Ltd 立体表示方法および立体表示装置
JP2000078612A (ja) * 1998-08-31 2000-03-14 Toshiba Corp 立体映像表示装置
JP2001091210A (ja) * 1999-09-24 2001-04-06 Sanyo Electric Co Ltd 観察者頭部位置検出装置
JP2002300610A (ja) * 2001-03-29 2002-10-11 Sanyo Electric Co Ltd 立体映像表示装置
JP2003107392A (ja) * 2001-09-28 2003-04-09 Sanyo Electric Co Ltd 頭部位置追従型立体映像表示装置
JP2004048644A (ja) * 2002-05-21 2004-02-12 Sony Corp 情報処理装置、情報処理システム、及び対話者表示方法
JP2005033428A (ja) * 2003-07-10 2005-02-03 Sharp Corp 3次元立体映像表示装置
JP2009250987A (ja) * 2008-04-01 2009-10-29 Casio Hitachi Mobile Communications Co Ltd 画像表示装置およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9538071B2 (en) 2013-12-27 2017-01-03 Samsung Electronics Co., Ltd. Electronic apparatus having a photographing function and method of controlling the same

Similar Documents

Publication Publication Date Title
JP5322264B2 (ja) 画像表示装置およびプログラム
US9485430B2 (en) Image processing device, imaging device, computer readable medium and image processing method
EP2833638B1 (en) Image processing device, imaging device, and image processing method
JP5740045B2 (ja) 画像処理装置及び方法並びに撮像装置
JP5753323B2 (ja) 撮像装置及び画像表示方法
JP6165681B2 (ja) 画像表示装置及び画像表示方法
WO2014046039A1 (ja) 撮像装置及び合焦確認表示方法
JP2017041887A (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP5955417B2 (ja) 画像処理装置、撮像装置、プログラム及び画像処理方法
JP5564633B2 (ja) 立体画像表示制御装置、これを備える撮像装置、及び立体画像表示制御方法
JP2012015661A (ja) 撮像装置及び撮像方法
JP2013210641A (ja) 画像表示装置およびプログラム
JP2012053113A (ja) 撮像装置、3次元画像生成システム、及び3次元画像生成プログラム
JP5571257B2 (ja) 画像処理装置、方法およびプログラム
JP5580486B2 (ja) 画像出力装置、方法およびプログラム
JP5212521B2 (ja) 画像表示装置
JPWO2013046833A1 (ja) 画像表示装置及び画像撮像装置
WO2012026372A1 (ja) 立体表示装置
KR20060010089A (ko) 입체영상이 구현되는 이동통신 단말기
JP2013070153A (ja) 撮像装置
JP5638985B2 (ja) 撮像装置および撮像プログラム
JP2004242092A (ja) カメラ付き携帯電話
CN114945066A (zh) 摄像装置、摄像装置的控制方法和存储介质
JP5751472B2 (ja) 撮影機器
JP2019161482A (ja) 携帯端末および画像送信方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140320

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141028

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141126

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150302