JP5676608B2 - 立体表示装置、立体撮影装置、および指示判定方法 - Google Patents

立体表示装置、立体撮影装置、および指示判定方法 Download PDF

Info

Publication number
JP5676608B2
JP5676608B2 JP2012522509A JP2012522509A JP5676608B2 JP 5676608 B2 JP5676608 B2 JP 5676608B2 JP 2012522509 A JP2012522509 A JP 2012522509A JP 2012522509 A JP2012522509 A JP 2012522509A JP 5676608 B2 JP5676608 B2 JP 5676608B2
Authority
JP
Japan
Prior art keywords
instruction
stereoscopic
user
unit
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012522509A
Other languages
English (en)
Other versions
JPWO2012002057A1 (ja
Inventor
田中 康一
康一 田中
林 淳司
林  淳司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2012522509A priority Critical patent/JP5676608B2/ja
Publication of JPWO2012002057A1 publication Critical patent/JPWO2012002057A1/ja
Application granted granted Critical
Publication of JP5676608B2 publication Critical patent/JP5676608B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/18Stereoscopic photography by simultaneous viewing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof

Description

本発明は、ユーザの指示を受け付けるための指示画像を立体表示した場合でも、ユーザの指示位置を的確に判定することができる立体表示装置、立体撮影装置、および指示判定方法に関する。
従来、右目用画像および左目用画像からなる立体画像を表示画面に同時に表示するとともに、その表示画面上に配置したタッチパネルにユーザが指やタッチペンでタッチすると、そのタッチされた表示画面上の指示位置を検出する立体表示装置が知られている。
例えば、特許文献1には、指示画像を2次元表示した場合と3次元表示した場合とで、表示画面上の指示位置を検出するための制御範囲の位置を変更することが開示されている。3次元表示の場合には、立体像の出現位置に制御範囲を設定する。
また、特許文献2には、3次元物体を右目用および左目用にそれぞれ投影処理することで右目用および左目用の2次元画像を作成して立体表示装置に表示し、操作者によって位置制御されるカーソルを使い3次元物体上の作用点を選択する際に、操作者の利き目に応じ、利き目側の2次元画像を作成するために使用した投影条件に基づいて、3次元物体上の作用点を計算する構成が開示されている。具体的には、カーソル位置に対応する投影面の一点と投影中心とを結ぶ直線を3次元物体側に延長し、その3次元物体と直線との交点をユーザ所望の作用点と決定する。
特開2010−55266号公報 特開2004−362218号公報
図14に示すように、右目用指示画像53Rおよび左目用指示画像53Lからなる立体指示画像53を表示する立体表示装置において、ユーザが立体指示画像53を見ながら立体指示画像53を指やタッチペンで指示する操作を行った場合、立体指示画像53の出現位置とその立体指示画像53の元となっている2次元指示画像(右目用指示画像53Rおよび左目用指示画像53L)の表示位置とは一致しないため、ユーザがどこの位置を指示したのか正確に検出することが困難である。
立体指示画像は、右目用指示画像および左目用指示画像の略中間位置に出現するが、ユーザが立体指示画像を見ながら、その立体指示画像を指し示そうとした場合、その指示位置は観察者の利き目に依存した位置となるためである。例えば、ユーザの利き目が右目である場合、右目用指示画像および左目用指示画像の中間位置よりも右目用指示画像位置に近い位置が指示される傾向にある。
特許文献1に記載の構成では、指示位置の検出領域を中間位置に設定するが、ユーザの利き目により右目用指示画像および左目用指示画像の中間位置をユーザが指示するとは限らないため、ユーザの指示を正しく判定することができない可能性がある。
特許文献2に記載の構成では、3次元物体の2次元面への投影条件が必須であるため、そのような投影条件を用いずに作成された立体画像に対して作用点を求めることができない。
本発明はこのような事情に鑑みてなされたもので、ユーザの指示を受け付けるための指示画像を立体表示した場合でも、ユーザの指示位置を的確に判定することができる立体表示装置、立体撮影装置、および指示判定方法を提供することを目的とする。
前記目的を達成するために、本発明は、ユーザの指示を受け付けるための右目用指示画像および左目用指示画像からなる立体指示画像を表示する立体表示部と、前記立体表示部の表示面上における前記ユーザの指示位置を検出する指示位置検出部と、前記ユーザの利き目が右目であるか左目であるかを示す利き目情報を取得する利き目情報取得部と、少なくとも前記利き目情報に基づいて、前記立体表示部の表示面上における前記指示位置の検出領域を決定する検出領域決定部であって、前記利き目情報が右目を示すときは少なくとも前記右目用指示画像を含む、右目用指示画像の表示位置寄りの検出領域を決定し、前記利き目情報が左目を示すときは少なくとも前記左目用指示画像を含む、左目用指示画像の表示位置寄りの検出領域を決定する検出領域検出部と、前記指示位置検出部により検出された前記指示位置が前記検出領域内であるか否かを判定することで、前記立体指示画像に対応する前記ユーザの指示を受け付ける判定部と、を備えた立体表示装置を提供する。
即ち、ユーザの利き目に応じて、立体指示画像の表示面上における指示位置の検出範囲が自在に変化するので、立体感のある立体指示画像を表示した場合でも、ユーザの指示位置を的確に判定することができる。
「立体指示画像」は、本明細書にて、指やタッチペン等の指示体によって指示させるための指示操作用画像であって立体視可能に表示(立体表示)された画像である。「立体指示画像」の具体例としては、所謂ボタン式の3D画像(例えば、3Dのボタン、3Dのアイコン、3Dのサムネイル)、所謂スライド式の3D画像(例えば、3Dのスライドバー)等が挙げられるが、タッチ操作の種類(ボタン操作、スライド操作など)および立体指示画像の表示態様(形状、図形/記号/模様の種別など)は特に限定されない。
本発明の一実施形態では、前記検出領域決定部は、前記利き目情報が有る場合、前記検出領域のサイズを前記利き目情報が無い場合よりも小さくする。即ち、利き目情報の取得により指示位置の検出領域のサイズが小さく設定されるので、指示位置の誤検出が防止されるとともに、複数の立体指示画像を密に配置することが可能となる。
本発明の一実施形態では、前記検出領域決定部は、前記利き目情報が無い場合、前記右目用指示画像の少なくとも一部および前記左目用指示画像の少なくとも一部が含まれるように、前記検出領域を決定する。即ち、利き目が分からなくても、ユーザの指示位置を正しく判定することができる。
本発明の一実施形態にて、前記利き目情報取得部は、前記立体表示部に前記立体指示画像が表示された状態で前記指示位置検出部により検出された前記ユーザの指示位置と、前記立体指示画像の視差量とに基づいて、ユーザの利き目および利き目の強弱を示す前記利き目情報を算出する。
即ち、ユーザの実際の指示操作中にユーザの利き目および利き目の強弱を測定し、その測定結果に基づいて指示位置の検出領域が決定されるので、ユーザの指示位置をより正確に判定できることになる。
本発明の一実施形態にて、前記立体指示画像を視差量を異ならせて前記立体表示部に複数回表示させて、前記ユーザの指示位置を前記指示位置検出部により複数回検出し、前記利き目情報を算出する。
本発明の一実施形態にて、前記立体指示画像を表示位置を異ならせて前記立体表示部に複数回表示させて、前記ユーザの指示位置を前記指示位置検出部により複数回検出し、前記利き目情報を算出する。
本発明の一実施形態にて、前記立体指示画像を表示位置を異ならせて前記立体表示部に複数個表示させて、前記ユーザの指示位置を前記指示位置検出部により複数回検出し、前記利き目情報を算出する。
本発明の一実施形態では、前記利き目情報取得部は、前記ユーザの利き目情報の入力操作を受け付ける。
本発明の一実施形態では、前記立体指示画像の立体感の大小の設定入力操作を受け付ける立体感設定部と、設定入力された立体感の大小に対応した視差量で前記立体指示画像を生成する立体指示画像生成部と、を備え、前記立体表示部は、前記立体指示画像生成部で生成された立体表示画像を表示し、前記検出領域決定部は、前記立体感の大小に対応した視差量にも基づいて、前記検出領域を決定する。
即ち、ユーザの感じる立体感には個人差があるが、立体指示画像の立体感の大小の設定入力操作を受け付けて、その立体感に対応した視差量で立体指示画像を表示するとともに、その立体感の大小に対応した視差量にも基づいて指示位置の検出領域が決定されるので、ユーザの立体感を満足させつつユーザの指示位置を的確に判定することができる。
本発明の一実施形態では、前記指示位置検出部によって指示を入力したユーザが切り替わったことを検出するユーザ切替検出部を備えた。
本発明の一実施形態では、前記ユーザ切替検出部は、前記指示位置検出部によって検出された指示位置が前記検出領域決定部によって決定された検出領域の範囲外であった回数または頻度を算出し、その算出結果に基づいてユーザの切り替わりを検出する。
本発明の一実施形態では、前記ユーザ切替検出部は、前記指示位置検出部によって検出された指示位置の履歴情報を作成し、その指示位置の履歴情報に基づいてユーザの切り替わりを検出する。
本発明の一実施形態では、前記ユーザ切替検出部は、前記指示位置の履歴情報に基づいて、利き目または利き目の強弱の変化を検出することでユーザの切り替わりを検出する。
本発明の一実施形態では、前記ユーザ切替検出部によってユーザの切り替わりが検出された場合、新たなユーザの前記利き目情報を取得して前記左目用指示画像および右目用指示画像の表示領域に対する前記検出領域の位置、サイズおよび形状のうちで少なくともひとつの差分を決定するキャリブレーション処理と、前記検出領域を前記利き目情報に基づいて決定する第1の検出モードから前記検出領域を前記第1の検出モード時よりもサイズが大きいデフォルトに設定にする第2の検出モードに切替える検出モード切替処理と、前記立体指示画像を表示する第1の表示モードから平面指示画像を表示する第2の表示モードに切替える表示モード切替処理と、警告を出力する警告処理とのうちで少なくともいずれかの処理を実行する制御部を備えた。
本発明の一実施形態では、ユーザの切り替わりが検出された場合に実行する処理の選択をユーザから受け付ける選択受付部を備えた。
また、本発明は、前記立体表示装置と、被写体を複数視点から撮像することで立体撮像画像を取得する立体撮像部と、を備え、前記立体撮像画像と前記立体指示画像とを合成して前記立体表示部により立体表示する立体撮影装置を提供する。
また、本発明は、ユーザの指示を受け付けるための右目用指示画像および左目用指示画像からなる立体指示画像を表示する立体表示部、前記立体表示部の表示面上における前記ユーザの指示位置を検出する指示位置検出部、および、前記ユーザの利き目を示す利き目情報を取得する利き目情報取得部を用いる指示判定方法であって、前記利き目情報取得部により取得された前記利き目情報に基づいて、前記立体表示部の表示面上における前記指示位置の検出領域を決定する検出領域決定ステップであって、前記利き目情報が右目を示すときは少なくとも前記右目用指示画像を含む、右目用指示画像の表示位置寄りの検出領域を決定し、前記利き目情報が左目を示すときは少なくとも前記左目用指示画像を含む、左目用指示画像の表示位置寄りの検出領域を決定する検出領域検出ステップと、前記指示位置検出部により、前記立体表示部の前記表示面上における前記ユーザの指示位置を検出する指示位置検出ステップと、前記指示位置検出部により検出された前記指示位置が前記検出領域内であるか否かを判定する判定ステップと、を備え、前記立体表示部に前記立体指示画像が表示された状態で前記指示位置検出部により検出された前記ユーザの指示位置と、前記立体指示画像の視差量とに基づいて、ユーザの利き目および利き目の強弱を示す前記利き目情報を算出するステップを含む指示判定方法を提供する。
本発明の一実施形態では、前記ユーザの利き目情報の入力操作を受け付けるステップを含む。
本発明の一実施形態では、前記指示位置検出部によって指示を入力したユーザが切り替わったことを検出し、ユーザの切り替わりが検出された場合、新たなユーザの前記利き目情報を取得して前記左目用指示画像および右目用指示画像の表示領域に対する前記検出領域の位置、サイズおよび形状のうちで少なくともひとつの差分を決定するキャリブレーション処理と、前記検出領域を前記利き目情報に基づいて決定する第1の検出モードから前記検出領域を前記第1の検出モード時よりもサイズが大きいデフォルトに設定にする第2の検出モードに切替える検出モード切替処理と、前記立体指示画像を表示する第1の表示モードから平面指示画像を表示する第2の表示モードに切替える表示モード切替処理と、警告を出力する警告処理とのうちで少なくともいずれかの処理を実行する。
また、本発明は、指示判定方法をコンピュータに実行させるプログラムを提供する。このプログラムは所定の記録媒体に記録して、プログラム記録媒体として提供及び利用することができる。
本発明によれば、ユーザの指示を受け付けるための指示画像を立体表示した場合でも、ユーザの指示位置を的確に判定することができる。
第1実施形態に係る立体表示装置の構成例を示すブロック図 利き目情報が取得済の場合における右目用指示画像、左目用指示画像および指示位置検出領域の例を示す説明図 指示判定処理の基本的な流れを示すフローチャート 利き目情報が未取得の場合における右目用指示画像、左目用指示画像および指示位置検出領域の例を示す説明図 第2実施形態に係る立体表示装置の構成例を示すブロック図 第2実施形態における指示判定処理例の流れを示すフローチャート 第3実施形態に係る立体表示装置の構成例を示すブロック図 第3実施形態における利き目測定処理の説明に用いる説明図 第3実施形態における利き目測定処理例の流れを示すフローチャート 第4実施形態に係る立体表示装置の構成例を示すブロック図 第4実施形態におけるユーザ切替検出例の流れを示すフローチャート 本発明に係る立体表示装置の基本的なハードウェア構成例を示すブロック図 本発明に係る立体表示装置を適用した立体撮影装置の一例を示すブロック図 本発明の課題の説明に用いる説明図
以下、添付図面に従って、本発明の実施形態について、詳細に説明する。
<第1実施形態>
図1は、第1実施形態に係る立体表示装置10の構成例を示すブロック図である。
画像入力部11は、一視点の2D画像を入力する。3次元画像処理部12は、画像入力部11から出力された一視点の2D画像を、複数視点の2D画像(右目用画像および左目用画像)からなる3D画像に、変換する。立体表示部13は、3D画像を立体表示する。
なお、本明細書にて、「2D」は二次元(平面)を意味し、「3D」は三次元(立体)を意味する。つまり、「2D画像」は平面画像であり、「3D画像」は立体画像(立体視可能な画像)である。
図2の(A)〜(C)は、ユーザの指示を受け付けるため、複数視点の2D指示画像(右目用指示画像53Rおよび左目用指示画像53L)からなる3D指示画像を立体表示部13に表示した様子を示す。なお、図2の(A)は視差量ゼロ(立体像の飛び出しなし)の場合における右目用指示画像53R、左目用指示画像53L、指示位置検出領域56の例を示し、図2の(B)は視差量小(立体像の飛び出し量小)の場合における右目用指示画像53R、左目用指示画像53L、指示位置検出領域56の例を示し、図2の(C)は視差量大(立体像の飛び出し量大)の場合における右目用指示画像53R、左目用指示画像53L、指示位置検出領域56の例を示す。
立体感設定部14は、3D指示画像の立体感の大小(強弱)の設定入力操作を受け付け、設定入力された立体感の大小に対応した視差量を記憶部15に記憶する。また、立体感設定部14は、記憶部15に記憶された視差量を、3次元画像処理部12および後述の指示位置検出領域決定部18に与える。
例えば、立体感設定部14は、立体感「強」、「中」、「弱」という選択メニューを立体表示部13に表示させて、ユーザから立体感レベルの選択入力を受け付け、その立体感レベルに対応する視差量dを記憶部15に記憶させる。ユーザの感じる立体感には個人差があるため、このように立体感を調整可能な構成は、重要である。
指示位置検出部16は、立体表示部13の表示面上に配置されており、ユーザにより指やタッチペン等で指示された立体表示部13の表示面上におけるユーザの指示位置を検出する。
利き目情報設定部17は、ユーザの利き目情報の設定入力を受け付け、設定入力された利き目情報を記憶部15に記憶する。即ち、ユーザの入力操作を受け付けることで、利き目情報を取得する。例えば、ユーザに利き目が左右のいずれであるかを表示(あるいは音声出力)により質問し、ユーザから左右の選択入力を受け付ける。なお、本実施形態では設定入力操作により利き目情報を取得する構成を説明し、ユーザの利き目を自動的に判定することで利き目情報を取得する態様については、後述の第3実施形態で説明する。
指示位置検出領域決定部18は、利き目情報および3D指示画像の視差量に基づいて、立体表示部13の表示面上における指示位置検出領域を決定する。例えば、利き目情報が取得されている場合、ユーザの利き目が右目であるか左目であるかに応じて、指示位置検出領域の表示面上における位置、サイズおよび形状のうち少なくともひとつを切り替える。
判定部19は、指示位置検出部16により検出された指示位置が、指示位置検出領域決定部18により決定された指示位置検出領域の範囲内であるか否かを判定することで、3D指示画像に対応するユーザの指示を受け付ける。即ち、判定部19は、3D指示画像に対応するユーザの指示の有無を判定する。
制御部20は、画像入力部11、立体感設定部14など、立体表示装置10の各部を制御する。
図1にて、画像入力部11、3次元画像処理部12、指示位置検出領域決定部18、判定部19および制御部20は、例えばマイクロプロセッサにより構成される。指示位置検出部16は、例えばタッチセンサにより構成される。立体感設定部14は、例えばタッチセンサおよびマイクロプロセッサにより構成される。利き目情報設定部17は、例えばタッチセンサおよびマイクロプロセッサにより構成される。立体感設定部14および利き目情報設定部17は、タッチセンサを用いないで、キー、マウス等の他の入力デバイスを含んで構成してもよい。記憶部15は、例えばメモリにより構成される。もっとも、各部の処理は、プログラムに従ってソフトウェアで実行してもよいし、回路によりハードウェアで実行してもよい。
図3は、3D指示画像を用いた指示判定処理の基本的な流れを示すフローチャートである。本処理は、制御部20の制御によりプログラムに従って実行される。
まず、画像入力部11により、一視点の2D指示画像が入力され(ステップS1)、立体感設定部14から3次元画像処理部12に視差量dが与えられて、3次元画像処理部12により、一視点の2D指示画像から、視差量dを有した3D指示画像が生成される(ステップS2)。生成された3D指示画像は、立体表示部13により立体表示される(ステップS3)。また、利き目情報設定部17から指示位置検出領域決定部18に利き目情報が与えられるとともに、立体感設定部14から指示位置検出領域決定部18に視差量dが与えられて、指示位置検出領域決定部18により、利き目情報および視差量dに基づいて指示位置検出領域が決定される(ステップS4)。指示位置検出部16によりユーザの指示位置が検出されると(ステップS5)、判定部19により、ユーザの指示位置が指示位置検出領域内であるか否かが判定される(ステップS6)。なお、図3において、指示位置検出領域決定(ステップS4)は、表示(ステップS3)よりも前に行なってもよい。
例えば、図2の(B)および(C)に示したように、右目用指示画像53Rと左目用指示画像53Lとを、視差量dだけx方向(左右方向)に位置をずらして立体表示部13に表示することで、3D指示画像を立体表示する。即ち、ユーザは、右目用指示画像53Rおよび左目用指示画像53Lからなる「P」ボタンの3D指示画像を、図面の手前側に飛び出した立体像として、認識することになる。
このような図2の(B)および図2の(C)に示した表示を行なうと、右目用指示画像53Rの中心位置と左目用指示画像53Lの中心位置との中間に立体像が出現するが、その立体像をユーザが見ながら立体表示部13の表示面上を指やタッチペン等で指示した場合、その指示位置は、ユーザの利き目に依存した位置となる。
具体的に、ユーザが右目利きの場合について説明する。ユーザの利き目が右目の場合、右目用指示画像53Rの中心位置と左目用指示画像53Lの中心位置との中間位置Cよりも、右目用指示画像53Rの中心位置に近い位置が、ユーザにより指示される傾向にある。本例では、右目用指示画像53Rの表示領域と中間位置Cとを含む指示位置検出領域を設定する。
例えば、図2に示したPボタンの右目用指示画像53Rおよび左目用指示画像53LのサイズをN×Nドット、右目用指示画像53Rの中心位置を(x1,y1)、視差量をd、としたとき、左目用指示画像の中心位置を(x2,y2)=(x1+d,y1)、指示位置検出領域56の左上座標(x_area1、y_area1)および右下座標(x_area2、y_area2)は、次式のように表される。
[数1]
dが正のとき
x_area1 = x1 − N/2
y_area1 = y1 - N/2
x_area2 = x1 + (d+N)/2
y_area2 = y1 + N/2
dが負のとき
x_area1 = x1 + (d - N)/2
y_area1 = y1 - N/2
x_area2 = x1 + N/2
y_area2 = y1 + N/2
ただし、立体表示部の表示面の左上を(0,0)として、水平方向をx軸、垂直方向をy軸とする。また、水平右方向をx軸の正方向、垂直下方向をy軸の正方向とする。なお、数1はあくまでも一例である。
このように、指示位置検出領域決定部18は、利き目情報が取得されている場合、指示位置検出領域を右目用指示画像および左目用指示画像のうち利き目の指示画像の表示位置寄りに配置する。
また、指示位置検出領域決定部18は、指示位置検出領域56の範囲を利き目情報および視差量dに応じて切り換えることで、ユーザの利き目および3D指示画像の立体感の強弱に応じて、ユーザの指示を的確に検出できる。ここで、立体感の強弱とは、右目用指示画像53Rと左目用指示画像53Lとの水平方向xにおけるズレ量(視差量d)に対応する。図2の(A)には視差量ゼロに設定した場合の指示位置検出領域56、図2の(B)には視差量小に設定した場合における指示位置検出領域56、図2の(C)には視差量大に設定した場合における指示位置検出領域56を、それぞれ示した。
本実施形態の指示位置検出領域決定部18は、利き目情報が取得されている(有る)場合、ユーザの利き目が右目であるか左目であるかに応じて、指示位置検出領域の位置、サイズおよび形状のうち、少なくともひとつを切り替える。例えば、利き目情報が取得されている(有る)場合、指示位置検出領域を利き目寄りに配置する。
なお、図2を用いて、利き目に対応する2D指示画像(例えば右目用指示画像53R)の全てを含むように指示位置検出領域を決定した場合を例に説明したが、利き目に対応する2D指示画像の少なくとも一部が含まれるように指示位置検出領域を決定してよい。
従来のように、指示位置検出領域を左右の中間位置に設定した場合、ユーザの利き目によっては中間位置を指等で指示しているとは限らないため、ユーザが意図した指示位置を正しく判定できない可能性がある。これに対して、本実施形態では、立体表示部13の表示面上の指示位置検出領域を、ユーザの利き目情報および視差量に応じて可変に決定することで、ユーザの意図した指示を正しく判定することができる。
<第2実施形態>
次に、第2実施形態について、説明する。以下では、第1実施形態と異なる事項を説明し、第1実施形態で既に説明した事項についてはその説明を省略する。
ユーザの利き目が判らない場合、それ相応に指示位置検出領域を決定する必要がある。従来例のように、左目用指示画像位置と右目用指示画像位置との中間位置のみでユーザの指示を検出するだけでは、指示される可能性のある領域をカバーできない。右目が利き目であるユーザは右目用指示画像の近傍を、左目が利き目であるユーザは左目用指示画像の近傍を、それぞれ指示する傾向にあるという理由による。
そこで、本実施形態の指示位置検出領域決定部18は、利き目情報が取得されていない(無い)場合、図4の(A)および(B)に示すように、右目用指示画像53Rの少なくとも一部および左目用指示画像53Lの少なくとも一部が含まれるように、指示位置検出領域56を決定する。なお、図4の(A)は視差量小(立体像の飛び出し量小)の場合における右目用指示画像53R、左目用指示画像53L、指示位置検出領域の例を示し、図4の(B)は、視差量大(立体像の飛び出し量大)の場合における右目用指示画像53R、左目用指示画像53L、指示位置検出領域56の例を示す。
図4の(A)および(B)にて、2D指示画像(右目用指示画像53Rおよび左目用指示画像53L)のサイズをN×N、右目用指示画像53Rの中心位置を(x1,y1)、左目用指示画像53Lの中心位置を(x1+d、y1)、dを3D指示画像の視差量としたとき、指示位置検出領域56の範囲は次のように計算される。
[数2]
dが正のとき
x_area1 = x1 − N/2
y_area1 = y1 - N/2
x_area2 = x1 + d + N/2
y_area2 = y1 + N/2
dが負のとき
x_area1 = x1 + d - N/2
y_area1 = y1 - N/2
x_area2 = x1 + N/2
y_area2 = y1 + N/2
ユーザの利き目が未知の場合とは、第1に、図5に示すように、図1の構成から利き目情報設定部17を省略した場合があり、第2に、図1に示した構成にて、利き目情報設定部17によりユーザの利き目情報が設定されなかった場合がある。
図6は、図1に示した構成において、利き目情報設定部17によりユーザの利き目情報を設定するかしないかを任意にした場合における、3D指示画像を用いた指示判定処理の一例の流れを示すフローチャートである。この処理は、制御部20の制御によりプログラムに従って実行される。
ステップS22にて、利き目情報が設定済みであるか否かを判定する。即ち、記憶部15にユーザの利き目情報が記憶されているか否か(有るか無いか)を判定する。設定されている場合にはステップS24に進み、設定されていない場合にはステップS30に進む。
ステップS24にて、利き目情報に基づいて、ユーザの利き目が右目であるか否かを判定する。利き目が右目である場合には、ステップS26にて、指示位置検出領域決定部18により、右利き目用の指示位置検出領域を決定し判定部19に設定する。利き目が左目である場合には、ステップS28にて、指示位置検出領域決定部18により、左利き目用の指示位置検出領域を決定し判定部19に設定する。
利き目情報が設定されていない場合、ステップS30にて、利き目情報設定部17により利き目設定を開始する。例えば、ユーザに利き目が左右のいずれであるかを表示(あるいは音声出力)により質問し、ユーザから左右の選択入力を受け付ける。
ステップS32にて、利き目情報が設定されたか否かを判定し、設定された場合にはステップS24に進み、設定されなかった場合には、ステップS34にて、指示位置検出領域決定部18により、図4に示したような利き目未設定用の指示位置検出領域56を決定し判定部19に設定する。
ステップS36にて、ユーザの指示受付を開始する。
ステップS38にて、指示位置検出部16に対しユーザの指示操作があったか否か(即ち指示位置検出部16で指示位置を検出したか否か)を判定し、指示操作があった場合にはステップS40に進み、指示操作がなかった場合にはステップS38の判定を繰り返す。
ステップS40にて、指示位置検出部16から指示位置(座標値)を取得する。
ステップS42にて、判定部19により、検出された指示位置が指示位置検出領域内であるか否かを判定する。
ステップS44にて、指示操作継続であるか終了であるかを判定し、指示操作継続である場合には、ステップS38に戻り、終了である場合には本処理を終了する。
本例の指示位置検出領域決定部18は、利き目情報設定部17による利き目情報の有無に応じて、指示位置検出領域の位置、サイズおよび形状のうち、少なくともひとつを切り替える。これにより、従来例の左目用指示画像位置と右目用指示画像位置との中間位置のみでユーザの指示を検出していた場合とは異なり、ユーザの利き目が判らない場合でも、ユーザにより指示される可能性のある領域を的確にカバーすることが可能なので、ユーザの指示の判定精度を向上させることができる。また、例えば、利き目情報が設定されている(有る)場合、指示位置検出領域のサイズを、利き目情報が設定されていない(無い)場合よりも小さくする。利き目情報が設定されている場合と設定されていない場合とで、指示位置検出領域の形状を異ならせてもよい。
<第3実施形態>
次に、第3実施形態について、説明する。図7は、第3実施形態における立体表示装置10cの構成例を示すブロック図である。なお、図1に示した構成要素には同じ符号を付してあり、説明済みの事項についてはその説明を省略する。
本実施形態の立体表示装置10cは、利き目情報取得部として利き目測定部21を備えており、利き目測定部21により利き目測定を行い、その測定結果である利き目情報を指示位置検出領域決定部18に与える。本実施形態の制御部20は、利き目測定部21を含む各部を制御する。
利き目測定部21は、右目用指示画像53Rおよび左目用指示画像53Lからなる3D指示画像の視差量と、その3D指示画像が立体表示部13に表示された状態で指示位置検出部16により検出されたユーザの指示位置とに基づいて、利き目パラメータを算出する。
利き目パラメータは、本実施形態における利き目情報であり、ユーザの利き目を示すとともに、利き目の強弱の程度(以下「利き目度合」という)を示す。利き目度合は、立体表示部13の表示面上におけるユーザの指示位置が、右目用指示画像53Rの表示位置および左目用指示画像53Lの表示位置のうちで利き目側の指示画像の表示位置に片寄る程度を示す。
例えば、図8の(A)〜(C)に示すように、右目用指示画像53Rおよび左目用指示画像53Lからなる3D指示画像を、立体表示部13に三通りの立体感で表示させる。本例では、立体感(立体像の飛び出し量)を小、中、大の3通りに変化させて表示させている。即ち、立体感設定部14により視差量をd1、d2、d3と変化させることで3D指示画像の立体感を変化させ、それぞれの3D指示画像に対しユーザに指示操作を行わせて、指示位置検出部16により各視差量d1、d2、d3に対応する指示位置p1、p2、p3を立体表示部13の表示面上の座標値として検出する。
本例では、利き目モデル式として、w=a×dを用いる。ここで、wは一方の指示画像の基準位置(本例では右目用指示画像53Rの中心位置)から指示位置までの距離であり、aは利き目パラメータであり、dは視差量である。即ち、利き目測定部21により、右目用指示画像53Rの基準位置(中心位置)と、それに対応する左目用指示画像53Lの基準位置(中心位置)とを基準とし、指示位置がいずれの指示画像の基準位置により近いか(片寄っているか)を示す数値a=w/dを、利き目パラメータとして算出する。
例えば、ユーザが右目利きである場合、利き目パラメータaは、0.5未満となる。つまり指示位置が右目用指示画像53Rの中心位置により近い位置になる。ユーザが左目利きである場合、利き目パラメータaは、0.5よりも大きくなる。つまり指示位置が左目用指示画像53Lの中心位置により近い位置になる。なお、利き目パラメータaが0.5になった場合、ユーザは両目利きである可能性が高いが、便宜上、右目利きまたは右目利きとして扱ってもよい。
本例では、視差量dと距離wの組が、(d1,w1)、(d2,w2)、(d3,w3)の3つである。一組だけを用いて利き目パラメータaを算出することも可能だが、より精度を高めるため、最小二乗法により、三組を用いて利き目パラメータaを算出する。自乗誤差Jは次式のように定義される。
[数3] J=Σ(wi−a×di) ・・・ (i=1,2,3)
自乗誤差Jを算出したいaで偏微分し、得られる式をゼロと置き、aについて解けばよい。
[数4] ∂J/∂a=−2×Σ{di×(wi−a×di)}=0
[数5] a=Σ(di×wi)/Σ(di×di)
このようにすることで、ユーザの利き目だけでなく利き目度合がわかる(aが小さいほど右利き目度合が強い)。このモデルは一例であり、他のモデルを用いても勿論よい。
図9は、第3実施形態における利き目測定処理例の流れを示すフローチャートである。この処理は、制御部20により、プログラムに従い実行される。
ステップS52にて、2D指示画像の設定を行い、ステップS54にて、インデックスiを初期化し(i=1)、ステップS56にて、3D指示画像の視差量をdiに設定し、ステップS58にて、3D指示画像の立体表示を行い、ステップS60にて、観察者による指示の受け付けを開始する。即ち、画像入力部11により3次元画像処理部12に対し2D指示画像を与えるとともに、立体感設定部14により3次元画像処理部12に対し視差量diを与えることで、3次元画像処理部12により視差量diを有する3D指示画像が生成され、その3D指示画像が立体表示部13の表示面に表示されるので、観察者は立体表示部13に表示された3D指示画像を見ながら、指等により立体表示部13の表示面上で指示操作を行う。
ステップS62にて、観察者による指示操作があったか否かを判定し、指示操作があった場合には、ステップS64にて、指示位置の座標値を取得し、ステップS66にて、指示位置の座標値と視差量diとを関連付けて保持する。即ち、指示位置検出部16により立体表示部13の表示面における観察者の指示位置を検出し、利き目測定部21により指示位置piと視差量diとを関連付けて記憶部15に記憶させる。
ステップS68にて、インデックスiが規定回数(本例では3回)に達したか否かを判定し、規定回数未満の場合には、ステップS70にてインデックスiをインクリメントし、ステップS56〜S66を繰り返す。
ステップS56〜S66を規定回数実行したとき、ステップS72にて、利き目パラメータaの計算および保持を行う。即ち、利き目測定部21により、指示位置piを記憶部15から読み出し、右目用指示画像の基準位置(中心位置)と指示位置との距離wiを算出して、そのwiと視差量diとに基づいて利き目パラメータaを算出し、そのaを記憶部15に保持(記憶)させる。本例の利き目パラメータaは、観察者の利き目および利き目度合の両方を示す。
なお、利き目パラメータaは、観察者(ユーザ)ごとに異なるため、ユーザID(例えば名前)と対応付けて記憶部15に記憶させておき、指示位置検出領域決定部18によりユーザごとに指示位置検出領域の範囲(位置およびサイズ)を決定することが、好ましい。
利き目測定部21による利き目測定の測定精度を向上させるため、次のような測定態様があげられる。
第1に、3D指示画像を、視差量を異ならせて立体表示部13に複数回表示させて、ユーザの指示位置を指示位置検出部16により複数回検出し、利き目情報を算出する態様がある。
第2に、3D指示画像を、表示位置を異ならせて立体表示部13に複数回表示させて、ユーザの指示位置を指示位置検出部16により複数回検出し、利き目情報を算出する態様がある。3D指示画像を1回表示するごとに、視差量を異ならせると、より好ましい。
第3に、3D指示画像を、表示位置を異ならせて立体表示部13に複数個同時に表示させて、ユーザの指示位置を指示位置検出部16により複数回検出し、利き目情報を算出する態様がある。3D指示画像ごとに、視差量を異ならせると、より好ましい。
本例の立体表示装置10cは、ユーザの利き目と利き目度合とを測定し、その測定結果に基づいて指示位置検出領域を決定するので、より的確にユーザの指示を判定することができる。
<第4実施形態>
次に、第4実施形態について、説明する。図10は、第4実施形態における立体表示装置10dの構成例を示すブロック図である。なお、図1に示した第1実施形態および図7に示した第3実施形態における構成要素には同じ符号を付してあり、説明済みの事項はその説明を省略する。
ユーザ切替検出部22は、指示位置検出部16によって指示を入力したユーザが切り替わったことを検出する。本例では、指示位置検出部16を構成しているタッチセンサにおけるタッチ操作(指示位置入力)の傾向の変化を検出することで、ユーザの切り替わりを検出する。ユーザ切替検出部22は、例えばマイクロプロセッサによって構成される。ユーザ切替検出部22は、例えば、次の検出態様1、2のいずれかで検出する。
検出態様1:指示位置検出部16によって検出された指示位置の履歴情報を作成し、その指示位置の履歴情報に基づいて、利き目および利き目の強弱のうち少なくとも一方の変化を検出することでユーザの切り替わりを検出する。具体的には、左目用指示画像および右目指示画像の表示位置(または指示位置検出領域の位置)を基準として、指示位置検出部16で検出された指示位置の差分の変化により、利き目または利き目の強弱の変化を検出する。
検出態様2:指示位置検出部16によって検出された指示位置(タッチ位置)が指示位置検出領域決定部18によって決定された指示位置検出領域(反応領域)の範囲外であった回数(ミスヒット数)または頻度を算出し、その算出結果に基づいてユーザの切り替わりを検出する。回数または頻度として、例えば、連続してミスヒットした回数(連続ミスヒット数)、所定のタッチ数を基準としたミスヒット数の比(ミスヒット比)を用いてもよい。
本実施形態の制御部20は、ユーザの切り替わりが検出された場合、次の処理1〜4のうち少なくともいずれかの処理を実行する。
処理1(キャリブレーション処理):新たなユーザの利き目情報を取得し、左目用指示画像および右目用指示画像の表示領域を基準として、指示位置検出領域の位置、サイズおよび形状のうちで少なくともひとつの差分を、決定する。
処理2(検出モード切替処理):指示位置検出領域を利き目情報に基づいて決定する第1の検出モードから、指示位置検出領域を第1の検出モード時よりもサイズが大きいデフォルトに設定にする第2の検出モードに切替える。第1の検出モードでは、第1実施形態で説明したように利き目情報に基づいて比較的狭い指示位置検出領域が設定され、第2の検出モードでは、第2実施形態で説明したように第1の検出モード時よりも広い指示位置検出領域が設定される。
処理3(表示モード切替処理):3D指示画像を表示する表示モードから2D指示画像を表示する表示モードに切替える。
処理4(警告処理):警告を出力する。
上記の処理1〜4は組み合わせて実行してもよい。例えば、2D表示モードに切替えることを表示する警告処理を実行した後に、前述の表示モード切替処理を実行し、2D指示画像の表示に切替える。
ユーザの切り替わりが検出された場合に実行する処理の選択をユーザから受け付けるようにしてもよい。例えば、立体表示部13に上記処理2とするか処理3とするかをユーザに選択させるユーザ選択画面を表示し、指示位置検出部16によりユーザの選択操作を受け付ける。なお、ユーザ選択画面では指示画像を2D表示すればよい。
図11は、第4実施形態におけるユーザ切替検出処理例の流れを示すフローチャートである。この処理は、制御部20およびユーザ切替検出部22により、プログラムに従い実行される。
ステップS102にて、各変数を初期化する。即ち、タッチした回数を示すタッチ回数t、指示位置検出領域内にタッチ(以下「ヒット」という)した回数を示すヒット数h、指示位置検出領域外にタッチ(以下「ミスヒット」という)した回数を示すミスタッチ数m1、およびミスヒットの連続回数を示す連続ミスヒット数m2を、ゼロに設定する(t=h=m1=m2=0)。
ステップS104にて、利き目情報に基づいて3D指示画像を立体表示部13に表示させる。
ステップS106にて、指示操作があったか否かを判定する。即ち、指示位置検出部16を構成しているタッチセンサによりタッチが検出されたか否かを判定する。タッチ操作があった場合には、ステップS108に進む。
ステップS108にて、指示位置検出部16から指示位置の座標値を取得し、タッチ回数tをインクリメントする(t=t+1)。
ステップS110にて、指示位置が指示位置検出領域決定部18で決定された指示位置検出領域内であるか否かを判定する。
指示位置検出領域内である場合には、ステップS112にて、ヒット数hをインクリメントし(h=h+1)、連続ミスヒット数m2をゼロに設定する(m2=0)。
指示位置検出領域外である場合には、ステップS114にて、ミスヒット数m1および連続ミスヒット数m2をインクリメントする(m1=m1+1、m2=m2+1)。
ステップS116にて、連続ミスヒット数m2>閾値N1(例えばN1=2)であるか否かを判定し、m2>N1である場合にはステップS124に進む。
ステップS118にて、タッチ回数t>閾値N2(例えばN2=4)であるか否かを判定し、t>N2である場合には、更に、ステップS120にて、ミスヒット数m1>N3(例えばN3=2)であるか否かを判定し、m1>N3である場合にはステップS124に進み、m1≦N3である場合にはタッチ回数tをクリア(t=0)してステップS126に進む。
ステップS124では、利き目測定部21によって利き目情報を算出し、キャリブレーション処理を行なう。
ステップS126にて、指示操作終了か否かを判定し、終了しない場合にはステップS106に戻り、終了する場合には本処理を終了する。
なお、第1実施形態〜第4実施形態において、ユーザの利き目情報に応じて指示位置検出領域の位置およびサイズの両方を決定する場合を例に説明したが、位置およびサイズのうちいずれか一方を、ユーザの利き目に応じて決定してもよい。また、指示位置検出領域の形状が四角形である場合を例に説明したが、特に指示位置検出領域の形状は限定されない。例えば、楕円形状でもよい。
また、ユーザの利き目に応じて、指示位置検出領域の形状を決定するようにしてもよい。
図12は、前述の第1実施形態から第4実施形態の立体表示装置を適用する基本的なハードウェア構成を示すブロック図である。図12の立体表示装置10eでは、マイクロプロセッサ110により、第1実施形態〜第4実施形態における画像入力部11、3次元画像処理部12、指示位置検出領域決定部18、判定部19、制御部20、利き目測定部21、ユーザ切替検出部22などを構成している。媒体インタフェース101は、メモリカード等、立体表示装置10dの本体に着脱自在な媒体に対しデータ読み取りおよびデータ書き込みを行なう。媒体インタフェース101として、ネットワークを介して通信を行なうネットワークインタフェースを用いてもよい。
このような立体表示装置10eとして、例えば、パーソナルコンピュータ、3Dテレビジョン装置、3Dゲーム装置、3D携帯端末装置など、各種の立体表示可能なデジタル装置を挙げることができる。
図13は、本発明の立体表示装置を適用した立体表示装置10f(3Dカメラ)の一例を示すブロック図である。なお、図12の立体表示装置10eに示した構成要素には、同じ符号を付した。図13の立体表示装置10fは、被写体を複数視点から撮像することで、右目用画像および左目用画像からなる立体撮像画像を取得する立体撮像部202を備える。本例の立体表示装置10fは、図12の立体表示装置10eと同様、マイクロプロセッサ110により、画像入力部11、3次元画像処理部12、指示位置検出領域決定部18、判定部19、制御部20、利き目測定部21、ユーザ切替検出部22などを構成している。このような立体表示装置10fでは、立体撮像部202により取得された立体撮像画像に対し、ユーザの指示を受け付けるための立体指示画像を合成して、立体表示することが可能である。
以上、各種の本発明の各種の態様についてそれぞれ説明したが、本明細書の記載事項を可能な限り組み合わせて実施してよいことは、言うまでもない。
本明細書にて説明した各種の方法をコンピュータに実行させるプログラムは、ディスク、メモリカード等の所定の記録媒体に記録して提供および利用することが可能である。
本発明は、本明細書において説明した例や図面に図示された例には限定されず、本発明の要旨を逸脱しない範囲において、各種の設計変更や改良を行ってよいのはもちろんである。
10(10a,10b,10c、10d、10e、10f)…立体表示装置、11…画像入力部、12…3次元画像処理部、13…立体表示部、14…立体感設定部、15…記憶部、16…指示位置検出部、17…利き目情報設定部(利き目情報取得部)、18…指示位置検出領域決定部、19…判定部、20…制御部、21…利き目測定部、22…ユーザ切替検出部、53R…右目用指示画像、53L…左目用指示画像、56…指示位置検出領域

Claims (21)

  1. ユーザの指示を受け付けるための右目用指示画像および左目用指示画像からなる立体指示画像を表示する立体表示部と、
    前記立体表示部の表示面上における前記ユーザの指示位置を検出する指示位置検出部と、
    前記ユーザの利き目が右目であるか左目であるかを示す利き目情報を取得する利き目情報取得部と、
    少なくとも前記利き目情報に基づいて、前記立体表示部の表示面上における前記指示位置の検出領域を決定する検出領域決定部であって、前記利き目情報が右目を示すときは少なくとも前記右目用指示画像を含む、右目用指示画像の表示位置寄りの検出領域を決定し、前記利き目情報が左目を示すときは少なくとも前記左目用指示画像を含む、左目用指示画像の表示位置寄りの検出領域を決定する検出領域検出部と、
    前記指示位置検出部により検出された前記指示位置が前記検出領域内であるか否かを判定することで、前記立体指示画像に対応する前記ユーザの指示を受け付ける判定部と、
    を備えた立体表示装置。
  2. 前記検出領域決定部は、前記利き目情報が有る場合、前記検出領域のサイズを前記利き目情報が無い場合よりも小さくする請求項に記載の立体表示装置。
  3. 前記検出領域決定部は、前記利き目情報が無い場合、前記右目用指示画像の少なくとも一部および前記左目用指示画像の少なくとも一部が含まれるように、前記検出領域を決定する請求項1又は2に記載の立体表示装置。
  4. 前記利き目情報取得部は、前記立体表示部に前記立体指示画像が表示された状態で前記指示位置検出部により検出された前記ユーザの指示位置と、前記立体指示画像の視差量とに基づいて、ユーザの利き目および利き目の強弱を示す前記利き目情報を算出する請求項1からのうちいずれか1項に記載の立体表示装置。
  5. 前記立体指示画像を視差量を異ならせて前記立体表示部に複数回表示させて、前記ユーザの指示位置を前記指示位置検出部により複数回検出し、前記利き目情報を算出する請求項に記載の立体表示装置。
  6. 前記立体指示画像を表示位置を異ならせて前記立体表示部に複数回表示させて、前記ユーザの指示位置を前記指示位置検出部により複数回検出し、前記利き目情報を算出する請求項またはに記載の立体表示装置。
  7. 前記立体指示画像を表示位置を異ならせて前記立体表示部に複数個表示させて、前記ユーザの指示位置を前記指示位置検出部により複数回検出し、前記利き目情報を算出する請求項またはに記載の立体表示装置。
  8. 前記利き目情報取得部は、前記ユーザの利き目情報の入力操作を受け付ける請求項1からのうちいずれか1項に記載の立体表示装置。
  9. 前記立体指示画像の立体感の大小の設定入力操作を受け付ける立体感設定部と、
    設定入力された立体感の大小に対応した視差量で前記立体指示画像を生成する立体指示画像生成部と、
    を備え、
    前記立体表示部は、前記立体指示画像生成部で生成された立体表示画像を表示し、
    前記検出領域決定部は、前記立体感の大小に対応した視差量にも基づいて、前記検出領域を決定する請求項1からのうちいずれか1項に記載の立体表示装置。
  10. 前記指示位置検出部によって指示を入力したユーザが切り替わったことを検出するユーザ切替検出部を備えた請求項1からのうちいずれか1項に記載の立体表示装置。
  11. 前記ユーザ切替検出部は、前記指示位置検出部によって検出された指示位置が前記検出領域決定部によって決定された検出領域の範囲外であった回数または頻度を算出し、その算出結果に基づいてユーザの切り替わりを検出する請求項10に記載の立体表示装置。
  12. 前記ユーザ切替検出部は、前記指示位置検出部によって検出された指示位置の履歴情報を作成し、その指示位置の履歴情報に基づいてユーザの切り替わりを検出する請求項10に記載の立体表示装置。
  13. 前記ユーザ切替検出部は、前記指示位置の履歴情報に基づいて、利き目または利き目の強弱の変化を検出することでユーザの切り替わりを検出する請求項12に記載の立体表示装置。
  14. 前記ユーザ切替検出部によってユーザの切り替わりが検出された場合、新たなユーザの前記利き目情報を取得して前記左目用指示画像および右目用指示画像の表示領域に対する前記検出領域の位置、サイズおよび形状のうちで少なくともひとつの差分を決定するキャリブレーション処理と、前記検出領域を前記利き目情報に基づいて決定する第1の検出モードから前記検出領域を前記第1の検出モード時よりもサイズが大きいデフォルトに設定にする第2の検出モードに切替える検出モード切替処理と、前記立体指示画像を表示する第1の表示モードから平面指示画像を表示する第2の表示モードに切替える表示モード切替処理と、警告を出力する警告処理とのうちで少なくともいずれかの処理を実行する制御部を備えた請求項10から13のうちいずれか1項に記載の立体表示装置。
  15. ユーザの切り替わりが検出された場合に実行する処理の選択をユーザから受け付ける選択受付部を備えた請求項10から14のうちいずれか1項に記載の立体表示装置。
  16. 請求項1から15のうちいずれか1項に記載の立体表示装置と、被写体を複数視点から撮像することで立体撮像画像を取得する立体撮像部と、を備え、前記立体撮像画像と前記立体指示画像とを合成して前記立体表示部により立体表示する立体撮影装置。
  17. ユーザの指示を受け付けるための右目用指示画像および左目用指示画像からなる立体指示画像を表示する立体表示部、前記立体表示部の表示面上における前記ユーザの指示位置を検出する指示位置検出部、および、前記ユーザの利き目を示す利き目情報を取得する利き目情報取得部を用いる指示判定方法であって、
    前記利き目情報取得部により取得された前記利き目情報に基づいて、前記立体表示部の表示面上における前記指示位置の検出領域を決定する検出領域決定ステップであって、前記利き目情報が右目を示すときは少なくとも前記右目用指示画像を含む、右目用指示画像の表示位置寄りの検出領域を決定し、前記利き目情報が左目を示すときは少なくとも前記左目用指示画像を含む、左目用指示画像の表示位置寄りの検出領域を決定する検出領域検出ステップと、
    前記指示位置検出部により、前記立体表示部の前記表示面上における前記ユーザの指示位置を検出する指示位置検出ステップと、
    前記指示位置検出部により検出された前記指示位置が前記検出領域内であるか否かを判定する判定ステップと、を備え、
    前記立体表示部に前記立体指示画像が表示された状態で前記指示位置検出部により検出された前記ユーザの指示位置と、前記立体指示画像の視差量とに基づいて、ユーザの利き目および利き目の強弱を示す前記利き目情報を算出するステップを含む指示判定方法。
  18. 前記ユーザの利き目情報の入力操作を受け付けるステップを含む請求項17に記載の指示判定方法。
  19. 前記指示位置検出部によって指示を入力したユーザが切り替わったことを検出し、ユーザの切り替わりが検出された場合、新たなユーザの前記利き目情報を取得して前記左目用指示画像および右目用指示画像の表示領域に対する前記検出領域の位置、サイズおよび形状のうちで少なくともひとつの差分を決定するキャリブレーション処理と、前記検出領域を前記利き目情報に基づいて決定する第1の検出モードから前記検出領域を前記第1の検出モード時よりもサイズが大きいデフォルトに設定にする第2の検出モードに切替える検出モード切替処理と、前記立体指示画像を表示する第1の表示モードから平面指示画像を表示する第2の表示モードに切替える表示モード切替処理と、警告を出力する警告処理とのうちで少なくともいずれかの処理を実行する請求項17または18に記載の指示判定方法。
  20. 請求項17から19のうちいずれか1項に記載の指示判定方法をコンピュータに実行させるプログラム。
  21. 請求項17から19のうちいずれか1項に記載の指示判定方法を実行するためにデジタル処理装置によって実行可能な機械読み取り可能である指示のプログラムを明確に格納したプログラム可能な記録媒体。
JP2012522509A 2010-06-29 2011-05-18 立体表示装置、立体撮影装置、および指示判定方法 Expired - Fee Related JP5676608B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012522509A JP5676608B2 (ja) 2010-06-29 2011-05-18 立体表示装置、立体撮影装置、および指示判定方法

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2010147508 2010-06-29
JP2010147508 2010-06-29
JP2011068593 2011-03-25
JP2011068593 2011-03-25
JP2012522509A JP5676608B2 (ja) 2010-06-29 2011-05-18 立体表示装置、立体撮影装置、および指示判定方法
PCT/JP2011/061399 WO2012002057A1 (ja) 2010-06-29 2011-05-18 立体表示装置、立体撮影装置、および指示判定方法

Publications (2)

Publication Number Publication Date
JPWO2012002057A1 JPWO2012002057A1 (ja) 2013-08-22
JP5676608B2 true JP5676608B2 (ja) 2015-02-25

Family

ID=45401791

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012522509A Expired - Fee Related JP5676608B2 (ja) 2010-06-29 2011-05-18 立体表示装置、立体撮影装置、および指示判定方法

Country Status (4)

Country Link
US (1) US9086742B2 (ja)
JP (1) JP5676608B2 (ja)
CN (1) CN102971692B (ja)
WO (1) WO2012002057A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI516093B (zh) * 2012-12-22 2016-01-01 財團法人工業技術研究院 影像互動系統、手指位置的偵測方法、立體顯示系統以及立體顯示器的控制方法
US9406253B2 (en) * 2013-03-14 2016-08-02 Broadcom Corporation Vision corrective display
WO2015008164A2 (en) * 2013-06-27 2015-01-22 Eyesight Mobile Technologies Ltd. Systems and methods of direct pointing detection for interaction with a digital device
US10198865B2 (en) 2014-07-10 2019-02-05 Seiko Epson Corporation HMD calibration with direct geometric modeling
CN105282375B (zh) * 2014-07-24 2019-12-31 钰立微电子股份有限公司 附着式立体扫描模块
CN104598035B (zh) * 2015-02-27 2017-12-05 北京极维科技有限公司 基于3d立体图像显示的光标显示方法、智能设备及系统
US10162412B2 (en) * 2015-03-27 2018-12-25 Seiko Epson Corporation Display, control method of display, and program
US10192133B2 (en) 2015-06-22 2019-01-29 Seiko Epson Corporation Marker, method of detecting position and pose of marker, and computer program
US10192361B2 (en) 2015-07-06 2019-01-29 Seiko Epson Corporation Head-mounted display device and computer program
US10424117B2 (en) * 2015-12-02 2019-09-24 Seiko Epson Corporation Controlling a display of a head-mounted display device
CN106265006B (zh) * 2016-07-29 2019-05-17 维沃移动通信有限公司 一种主视眼的矫正装置的控制方法及移动终端
JP2022183843A (ja) * 2021-05-31 2022-12-13 キヤノン株式会社 電子機器及びその制御方法及びプログラム及び記録媒体
CN113949862A (zh) * 2021-09-08 2022-01-18 西安诺瓦星云科技股份有限公司 3d画面显示测试方法和装置以及显示控制设备和系统
CN114979614A (zh) * 2022-05-16 2022-08-30 北京芯海视界三维科技有限公司 显示模式确定方法及显示模式确定装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0887380A (ja) * 1994-09-19 1996-04-02 Tabai Espec Corp 操作体対応型操作パネル装置
JP2006127486A (ja) * 2004-09-29 2006-05-18 Toshiba Corp 入力装置、コンピュータ装置、情報処理方法及び情報処理プログラム
JP2006293903A (ja) * 2005-04-14 2006-10-26 Konica Minolta Business Technologies Inc 情報処理装置および情報処理プログラム
JP2010055266A (ja) * 2008-08-27 2010-03-11 Fujifilm Corp 3次元表示時における指示位置設定装置および方法並びにプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003344086A (ja) * 2002-05-28 2003-12-03 Pioneer Electronic Corp タッチパネル装置及び自動車用表示入力装置
JP2004362218A (ja) 2003-06-04 2004-12-24 Canon Inc 三次元物体操作方法
US20060066589A1 (en) * 2004-09-29 2006-03-30 Masanori Ozawa Input device
CN101308442B (zh) * 2004-10-12 2012-04-04 日本电信电话株式会社 三维指示方法和三维指示装置
CN102812420B (zh) * 2010-03-18 2016-01-20 富士胶片株式会社 立体显示装置和立体成像装置、用于上述装置的优势眼判定方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0887380A (ja) * 1994-09-19 1996-04-02 Tabai Espec Corp 操作体対応型操作パネル装置
JP2006127486A (ja) * 2004-09-29 2006-05-18 Toshiba Corp 入力装置、コンピュータ装置、情報処理方法及び情報処理プログラム
JP2006293903A (ja) * 2005-04-14 2006-10-26 Konica Minolta Business Technologies Inc 情報処理装置および情報処理プログラム
JP2010055266A (ja) * 2008-08-27 2010-03-11 Fujifilm Corp 3次元表示時における指示位置設定装置および方法並びにプログラム

Also Published As

Publication number Publication date
US20130106694A1 (en) 2013-05-02
CN102971692B (zh) 2016-06-08
WO2012002057A1 (ja) 2012-01-05
CN102971692A (zh) 2013-03-13
US9086742B2 (en) 2015-07-21
JPWO2012002057A1 (ja) 2013-08-22

Similar Documents

Publication Publication Date Title
JP5676608B2 (ja) 立体表示装置、立体撮影装置、および指示判定方法
US10764565B2 (en) Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
US9164621B2 (en) Stereoscopic display apparatus and stereoscopic shooting apparatus, dominant eye judging method and dominant eye judging program for use therein, and recording medium
JP5693708B2 (ja) 立体表示装置、指示受付方法及びプログラムならびにその記録媒体
JP5689707B2 (ja) 表示制御プログラム、表示制御装置、表示制御システム、および、表示制御方法
JP5711962B2 (ja) ジェスチャ操作入力処理装置およびジェスチャ操作入力処理方法
KR101381928B1 (ko) 포인터를 사용하지 않는 가상 터치 장치 및 방법
JP6569496B2 (ja) 入力装置、入力方法、及びプログラム
JP5446769B2 (ja) 3次元入力表示装置
JP5263355B2 (ja) 画像表示装置及び撮像装置
US20120159330A1 (en) Method and apparatus for providing response of user interface
KR101441882B1 (ko) 포인터를 사용하지 않는 가상 터치 장치에서의 디스플레이 표시면 둘레의 가상 평면을 사용하여 전자기기를 제어하는 방법
CN103744518A (zh) 立体交互方法及其显示装置和系统
KR102549779B1 (ko) 전자기기, 전자기기의 제어방법, 및 컴퓨터 판독가능한 기억매체
JP5864043B2 (ja) 表示装置、操作入力方法、操作入力プログラム、及び記録媒体
JP2012141753A5 (ja)
JP2011180690A (ja) 表示制御装置、表示制御方法、および表示制御プログラム
JP6053845B2 (ja) ジェスチャ操作入力処理装置、3次元ディスプレイ装置およびジェスチャ操作入力処理方法
KR101455745B1 (ko) 양안 시차가 문제되는 투명 디스플레이에서의 선택을 가능하게 하는 양안의 커서

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140715

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141225

R150 Certificate of patent or registration of utility model

Ref document number: 5676608

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees