CN102812420A - 立体显示装置和立体成像装置、用于上述装置的优势眼判定方法和优势眼判定程序以及记录介质 - Google Patents

立体显示装置和立体成像装置、用于上述装置的优势眼判定方法和优势眼判定程序以及记录介质 Download PDF

Info

Publication number
CN102812420A
CN102812420A CN2010800655569A CN201080065556A CN102812420A CN 102812420 A CN102812420 A CN 102812420A CN 2010800655569 A CN2010800655569 A CN 2010800655569A CN 201080065556 A CN201080065556 A CN 201080065556A CN 102812420 A CN102812420 A CN 102812420A
Authority
CN
China
Prior art keywords
dominant eye
visual point
image
point image
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2010800655569A
Other languages
English (en)
Other versions
CN102812420B (zh
Inventor
柳田聪司
三泽充史
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of CN102812420A publication Critical patent/CN102812420A/zh
Application granted granted Critical
Publication of CN102812420B publication Critical patent/CN102812420B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects

Abstract

在公开的3D显示装置中,当用户触摸设置在触控面板(22)中的3D显示单元(14)上三维显示的包括左视点图像和右视点图像的优势眼判定图像时,通过触控面板(22)获得触摸的位置坐标。基于上述所获得的触摸位置坐标和针对每个优势眼判定图像的标准坐标,优势眼判定处理器(24)根据上述所获得的位置坐标是靠近左视点图像的标准坐标还是靠近右视点图像的标准坐标来判定用户的优势眼。该判定基于“3D优势眼判定图像上的触摸位置更靠近用户优势眼侧视点图像的标准坐标”的事实。因此,使用该3D显示装置可以容易地判定用户的优势眼,而且利用判定结果可以获得用户期望的位置坐标。

Description

立体显示装置和立体成像装置、用于上述装置的优势眼判定方法和优势眼判定程序以及记录介质
技术领域
本发明涉及立体显示装置及立体拍摄方法,特别地,涉及运用该立体显示装置判断用户优势眼的技术。
背景技术
通常,(专利文件1)提出了这样的一种装置,其中,当一个操作元件立体地显示在屏幕上且一个操作者触摸触控面板时,基于指示触摸位置的坐标数据检测到针对由立体显示装置立体显示的操作元件的操作指令,由立体合并部分形成的操作元件视差图像发生改变,且立体地显示在立体显示装置上的操作元件形状发生改变。例如,当操作元件由一个按键类型开关的图像表现时,若触摸触控面板上的开关图像进行开/关,则根据开/关来将开关图像的显示转变为立体显示或平面显示,由此提高可操作性。
此外,(专利文件2)提出了一种操作面板装置,其中,将立体视差图像显示在显示部件上,并且在于触控面板上执行操作之前将立体视差图像切换到一个平面图像,由此提高可操作性。
另一方面,(专利文件3)提出了一种视线方向检测装置,其中,对驾驶者的双眼视线进行检测,根据一个检测时段期间车辆行驶的路面状况来对检测结果与正常驾驶状态下的标准视线移动模式进行比较,确定双眼视线中哪一个与视线移动模式类似,然后将具有更加类似于视线移动模式的视线方向的那只眼睛确定为优势眼。
引用列表
专利文献
PTL 1:日本专利申请公开第10-105735号
PTL 2;日本专利申请公开第2004-280496号
PTL 3:日本专利申请公开第2006-293909号
发明内容
技术问题
如图28的(A)所示,当触摸一个立体显示的物体进行操作时,被认为触摸到的立体显示物体的位置实际上是一个与左视点图像(图28的(B))和右视点图像(图28的(C))中的一个视点图像上的立体显示物体相对应的位置。左视点图像上的对应点和右视点图像上的对应点中的哪一个与立体显示物体上的触摸位置接近取决于用户的优势眼。已知的是,对于优势眼为右眼的人来说,被认为触摸到的立体显示物体(3D图像)的位置与右视点图像(2D图像)的位置匹配或彼此非常相近。类似地,已知对于优势眼为左眼的人来说,被认为触摸到的立体显示物体(3D图像)的位置与左视点图像(2D图像)的位置匹配或彼此非常相近。
在专利文件1公开的发明中,完全没有考虑这样的事实,即,当操作触控面板上的立体显示物体时由于用户优势眼的原因而在触摸位置中产生位置偏离。
在专利文件2公开的发明中,在触控面板上执行操作之前就切换成了一个平面图像(2D图像),因此并不认为是对立体图像进行的触控面板操作。
另一方面,尽管专利文件3描述了通过利用视线方向检测装置检测驾驶者双眼的视线方向来确定驾驶者的优势眼,但其需要视线方向检测装置等,因此并不能较容易地确定优势眼。
鉴于上述情况而做出本发明,目的是提供立体显示装置和立体拍摄装置、用于上述装置中的优势眼判定方法和优势眼判定程序、以及记录介质,其中利用立体显示装置能够容易地判定用户优势眼,利用判定结果能够获得用户预期的立体显示屏上的位置坐标,并且能够提高如触控面板之类的坐标位置输入设备的操控性。
解决问题的方案
为达到上述目的,根据本发明第一方面的立体显示装置包括:立体显示部分,其显示由左视点图像和右视点图像形成的立体图像;坐标输入部分,其输入立体显示部分的显示表面上的期望坐标位置;显示控制部分,其使立体显示部分显示用于判定用户优势眼的优势眼判定图像,该优势眼判定图像是由一个左视点图像和一个右视点图像形成的,并表示了该左视点图像和右视点图像之间不同的参考坐标;获取部分,其获取由用户通过坐标输入部分输入的针对在立体显示部分上显示的优势眼判定图像的位置坐标;判定部分,其基于由左视点图像和右视点图像形成的优势眼判定图像的参考坐标和所获取的位置坐标并依据所获取的位置坐标是靠近左视点图像的参考坐标还是靠近右视点图像的参考坐标来判定通过坐标输入部分输入位置坐标的用户的优势眼。
当用户通过坐标输入部分输入针对在立体显示部分上显示的优势眼判定图像的位置坐标时,输入的位置坐标通过坐标输入部分而被获取。基于这些所获取的位置坐标和优势眼判定图像的参考坐标,根据“所获取的位置坐标是靠近左视点图像的参考坐标还是靠近右视点图像的参考坐标”来判定用户的优势眼。这是基于“由左视点图像和右视点图像形成的优势眼判定图像上输入的位置坐标靠近用户优势眼侧视点图像的参考坐标”的事实。
根据本发明第二方面的立体显示装置,在根据第一方面的立体显示装置中,显示控制部分使立体显示部分显示用于操作的图标图像来作为优势眼判定图像。据此,当点击一个普通图标图像进行操作时,可在装置内自动执行优势眼判定而根本不会让用户意识到优势眼判定,且判定结果可以用于其他控制。
根据本发明第三方面的立体显示装置,在根据第一方面的立体显示装置中,显示控制部分使立体显示部分显示诸如开始按钮或登录按钮之类的按钮图像来作为优势眼判定图像。用户在立体显示部分所显示的按钮图像上执行触摸操作而不会意识到优势眼判定。因此,在根据第三方面的立体显示装置中,可以在装置内自动执行优势眼判定而根本不会让用户意识到优势眼判定。注意,作为按钮图像,优选的是例如必然要被触摸的按钮,如开始按钮或登录按钮。
根据本发明第四方面的立体显示装置,在根据第一方面的立体显示装置中,显示控制部分使立体显示部分显示包含用于操作的调节器的滑动条图像来作为优势眼判定图像。利用滑动条的调节器被触摸到的位置,可进行用户优势眼判定。
根据本发明第五方面的立体显示装置,在根据第一方面的立体显示装置中,显示控制部分使立体显示部分显示线条画来作为优势眼判定图像,并且判定部分基于由表示线条画的左视点图像和右视点图像形成的优势眼判定图像每个轮廓线的坐标与通过勾画线条画而由坐标输入部分相继获取的坐标之间的平均距离,来判定勾画线条画的用户的优势眼。勾画立体显示部分所显示的线条画,并依据勾画轨迹是靠近左视点图像的线条画还是靠近右视点图像的线条画来判定用户优势眼。注意,作为线条画,优选的为容易被勾画的图画、图表等。
根据本发明第六方面的立体显示装置,在根据第一方面的立体显示装置中,显示控制部分使立体显示部分显示未完成的图画或图形来作为优势眼判定图像,且基于由表示未完成的图画或图形的左视点图像和右视点图像形成的优势眼判定图像的参考坐标和为了完成所述未完成的图画或图形而通过坐标输入部分添加的图画或图形的位置坐标,判定部分判定执行上述添加操作的用户的优势眼。用户优势眼的判定依据对左视点图像和右视点图像的未完成图画或图形所添加的图片或图形的位置坐标是靠近左视点图像还是右视点图像。
根据本发明第七方面的立体显示装置,在根据第一至第六任一方面的立体显示装置中,当不能判定通过坐标输入部分输入位置坐标的用户的优势眼时,判定部分判定右眼作为优势眼。也就是说,若不能做出优势眼判定,由于以右眼作为优势眼的人多于以左眼作为优势眼的人,所以将右眼判定为优势眼,由此尽可能减少了判定错误。
根据本发明第八方面的立体显示装置,在根据第一至第七任一方面的立体显示装置中,包括存储和登记部分,其在装置内存储和登记有关用户优势眼的信息。关于用户优势眼的信息可以登记在装置内,由此消除每次都要判定优势眼的需要。
根据本发明第九方面的立体显示装置,在根据第八方面的立体显示装置中,存储和登记部分基于判定部分的判定结果自动存储和登记有关优势眼的信息。
根据本发明第十方面的立体显示装置,在根据第八或第九方面的立体显示装置中,存储和登记部分包含优势眼信息输入部分,其接受关于由用户指示以及由用户输入的优势眼的信息,并且所述存储和登记部分存储和登记由优势眼信息输入部分所接受的有关用户优势眼的信息。
根据第九或第十方面,关于用户优势眼的信息可被自动登记,或者用户可以决定自己的优势眼并登记该优势眼。
根据本发明第十一方面的立体显示装置,在根据第八至第十任一方面的立体显示装置中包括位置输入部分,其通过坐标输入部分接受立体显示部分所显示的立体图像上期望的目标图像的位置坐标,其中由位置输入部分接受的位置坐标被处理为出自立体图像的左视点图像和右视点图像当中的优势眼侧视点图像上的坐标位置,该优势眼侧视点图像与被登记在存储和登记部分中的关于用户优势眼的信息相对应。这样,可减少用户预期的位置坐标与由设备侧确定的视点图像上的位置坐标之间的偏离,由此提高坐标输入部分的可操作性。
根据本发明第十二方面的立体显示装置,在根据第一至第十一任一方面的立体显示装置中,坐标输入部分是设置在立体显示部分的显示表面上的触控面板。
根据本发明第十三方面的立体显示装置,在根据第八至第十二任一方面的立体显示装置中包含显示模式切换部分,其在使立体显示部分显示由左视点图像和右视点图像形成的立体图像的3D显示模式与使立体显示部分显示出自构成立体图像的左视点图像和右视点图像当中的任一视点图像的2D显示模式之间进行切换,其中当由显示模式切换部分切换至2D显示模式时,显示控制部分使立体显示部分基于登记在存储和登记部分中的用户的优势眼信息来显示出自左视点图像和右视点图像当中的用户优势眼侧视点图像。
这样,可提高当显示从立体图像(3D图像)切换到左视点图像和右视点图像中的任一视点图像(2D图像)时的可视性。
根据本发明第十四方面的立体显示装置,在根据第十三方面的立体显示装置中,坐标输入部分是提供在立体显示部分的显示表面上的触控面板,且显示模式切换部分在触控面板每次检测到触摸时在2D显示模式和3D显示模式之间交替地进行切换。这样,可以容易地在2D显示模式和3D显示模式之间进行切换。
根据本发明第十五方面的立体显示装置,在根据第十三方面的立体显示装置中,坐标输入部分是设置在立体显示部分的显示表面上的触控面板,且当触控面板检测到触摸时,显示模式切换部分切换至2D显示模式,当触控面板没有检测到触摸或在预定时段或更长时段内没有检测到触摸时,显示模式切换部分切换至3D显示模式。这样,若持续触摸触控面板或无预定时间间隔或更长时间间隔地连续操作触控面板,则只有优势眼侧视点图像(2D图像)被显示,由此提高了可操作性。
根据本发明第十六方面的立体显示装置,在根据第八至第十五任一方面的立体显示装置中包括:视差量检测部分,其检测将在立体显示部分上显示的由左视点图像和右视点图像形成的立体图像的左右视差量;区域提取部分,其提取具有下述视差量的区域,即,该视差量为视差量检测部分所检测到的视差量当中超过预设定视差量或者超过显现出重像并由用户指定的区域的视差量的视差量;图像替换部分,其把区域提取部分提取的区域的立体图像只替换为与登记在存储和登记部分中并有关用户优势眼的信息相对应的用户优势眼侧视点图像。
有大视差量的区域在立体图像中显现出重像的情况存在。由于2D图像优于显现出重像的图像,因此将显现出重像的区域替换为优势眼侧视点图像(2D图像)。这里,要被替换为2D图像的区域可被自动提取为视差量超出预定视差量的区域,或者可由用户通过坐标输入部分指定显现出重像的区域。
根据本发明第十七方面的立体成像装置,立体拍摄装置包含根据第八至第十六中任一方面的立体显示装置,且包括:拍摄模式切换部分,其在拍摄二维图像的2D拍摄模式和拍摄由左视点图像和右视点图像形成的立体图像的3D拍摄模式之间进行切换;控制部分,其在拍摄模式切换部分切换至2D拍摄模式时使立体显示部分显示出自左视点图像和右视点图像当中的与登记在存储和登记部分中的有关用户优势眼的信息相对应的用户优势眼侧视点图像。
据此,立体拍摄装置在2D拍摄模式下拍摄2D图像就变得容易了。另外,拍摄师的优势眼不太容易疲劳且可获得更多信息量。
本发明的第十八方面涉及优势眼判定方法,其利用包含立体显示部分和在立体显示部分的显示表面上输入期望的位置坐标的坐标输入部分的立体显示装置,该方法包括下面步骤:使立体显示部分显示用于判定用户优势眼的优势眼判定图像,该优势眼判定图像是由左视点图像和右视点图像形成的,并表示了左视点图像和右视点图像之间不同的参考坐标;获取由用户通过坐标输入部分输入的针对在立体显示部分上显示的优势眼判定图像的位置坐标;判定部分基于由左视点图像和右视点图像形成的优势眼判定图像的参考坐标和所获取的位置坐标并依据所获取的位置坐标是靠近左视点图像的参考坐标还是靠近右视点图像的参考坐标来判定通过坐标输入部分输入位置坐标的用户的优势眼。
本发明的第十九方面提供一种程序,其使立体显示装置执行根据第十八方面的优势眼判定方法。
本发明的第二十方面提供一种记录介质,其上记录有根据第十九方面给出的程序的计算机可读代码。
本发明积极效果
根据本发明,只要由用户针对在立体显示部分上立体显示的用于判定优势眼的优势眼判定图像指示并输入想要的位置坐标,就可以容易地判定用户的优势眼。另外,通过利用此判定结果,当输入立体图像上想要的位置坐标时,可以获得用户预期的位置坐标,由此提高了触控面板之类的坐标输入部分的可操作性。
附图说明
图1是示出根据本发明的立体显示装置的第一实施例的框图;
图2是示出优势眼判定处理以及优势眼信息的存储和登记的流程图;
图3是示出优势眼判定图像以及触摸优势眼判定图像状态的示意图;
图4是用来描述左视点差值DL和右视点差值DR的计算方法的示意图;
图5是示出根据本发明的立体显示装置的第二实施例的框图;
图6是示出对用户触摸的立体图像上的位置坐标进行确定的处理过程的流程图;
图7是示出立体图像上的触摸位置是左视点图像上的位置还是右视点图像上的位置的示意图;
图8是示出根据本发明的立体显示装置的第三实施例的框图;
图9是示出从显示立体图像(3D图像)的状态切换到显示左视点图像或右视点图像的2D图像的状态的处理过程的流程图;
图10是示出从显示立体图像(3D图像)的状态到显示用户优势眼侧视点图像(2D图像)的状态的显示切换示意图;
图11是示出本发明第四实施例的流程图;
图12是示出根据本发明第四实施例的立体图像(3D图像)显示状态与用户优势眼侧视点图像(2D图像)显示状态间的显示切换示意图;
图13是示出根据本发明的立体拍摄装置的一个实施例(第五实施例)的框图;
图14是示出根据本发明第五实施例的用于显示通过图像(through image)的立体拍摄装置的示意图;
图15是示出当立体拍摄装置拍摄立体图像或2D图像时的处理过程的流程图;
图16是示出根据本发明的立体显示装置的第六实施例的框图;
图17是示出立体拍摄装置拍摄深度方向上位于远处的物体(对象)的状态的示意图;
图18是示出本发明的第六实施例的流程图;
图19是示出左视点图像中具有大视差的局部图像被右视点图像中的对应局部图像替换的状态的示意图;
图20是示出使用按钮图像作为优势眼判定图像且触摸该优势眼判定图像的状态的示意图;
图21是示出当使用单轴滑动条图像作为优势眼判定图像时显示屏的示意图;
图22是示出当使用单轴型滑动条图像作为优势眼判定图像且触摸该优势眼判定图像时的状态的示意图;
图23是示出当使用双轴滑动条图像作为优势眼判定图像时立体显示部分的显示屏的示意图;
图24是示出当使用表示兔子的线条画作为优势眼判定图像时立体显示部件的显示屏的示意图;
图25是示出当使用未完成图画(没有耳朵的兔子图像)作为优势眼判定图像时立体显示部件的显示屏的示意图;
图26是示出添加了立体显示部件的显示屏上所显示的优势眼判定图像中缺少的图像(耳朵图像)的状态的示意图;
图27是示出本发明的第七实施例的流程图;以及
图28是示出立体图像上被认为已被触摸的位置与左右视点图像上实际被触摸的位置之间的关系的示意图。
具体实施方式
下面将参照附图描述根据本发明的立体显示装置和立体拍摄装置、在其中用到的优势眼判定方法和优势眼判定程序、以及记录介质的实施例。
<第一实施例>
图1是一个示出根据本发明的立体显示装置的第一实施例的框图。如图1所示,立体显示装置1的主要包括存储部分10、显示控制部分12、立体显示部分14、扬声器部分16、输入/输出部分18、记录介质记录部分20、触控面板22、优势眼判定部分24。
存储部分10包括闪存、RAM等,其存储根据本发明的优势眼判定程序、固件、由左视点图像和右视点图像形成的用于判定用户优势眼信息的优势眼判定图像、每个优势眼判定图像的参考坐标、以及用户优势眼信息,并且存储部分10用作暂时存储用于将要在立体显示部分14上显示的图像数据的存储器。需要注意,所使用的优势眼判定程序等可以存储在HDD或诸如CD/DVD/BD等之类的磁光记录介质中。
显示控制部分12是使立体显示部分14显示诸如下述图像的图像的部分:用于判定优势眼的优势眼判定图像、立体图像(3D图像)、优势眼侧视点图像(2D图像)、普通2D图像、以及包含用于GUI等的图像的其它图像,该显示控制部分12例如可以是中央处理单元(CPU)。
立体显示部分14是液晶监视器,其能显示具有视差屏障(parallax barrier)的两个视点图像(左视点图像和右视点图像)来作为各自有预定方向性的目标图像。注意,作为立体显示部分14,可以应用使用双凸透镜的部件或允许戴专用眼镜(如液晶快门眼镜)来分别看见左视点图像和右视点图像的部件。
扬声器部分16在重放附加音频的图像(静止图片或运动图片)时产生基于音频数据的声音。输入/输出部分18是向诸如个人计算机的外部装置输出诸如图像数据的信息、以及输入来自该外部装置的信息的接口。记录介质记录部分20将图像数据从存储卡之类的可移动记录介质30读出以及写入到存储卡之类的可移动记录介质30。
触控面板22设置在立体显示部分14的显示表面上,当用户触摸触控面板22上的任意位置时,该触摸位置的二维坐标数据被发送到优势眼判定部分24和立体触摸位置坐标确定部分26。
优势眼判定部分24基于判定优势眼时从触控面板22获得的触摸位置坐标数据来判定触摸触控面板22的用户的优势眼。注意,该优势眼判定的细节将在下文做进一步描述。
图2是示出优势眼判定处理以及优势眼信息的存储和登记的流程图。根据本发明的优势眼判定方法、优势眼判定程序等将依照图2所示的流程图进行如下描述。
[步骤S10]
开始优势眼设定和判定。在实践中,虽然理想的是在立体显示装置1启动时或在操作开始按钮或执行日期设定时在用户操作触控面板的处理中来判定优势眼,但是例如,优势眼判定可通过选择优势眼设定和判定菜单来启动。
[步骤S12]
当优势眼设定和判定启动时,显示控制部分12首先使立体显示部分14显示一个在其上对是否由用户输入关于优势眼的信息进行选择的屏幕。这里,当用户通过触控面板22输入关于优势眼的信息时(“是”的情况),进程转到步骤S14。当用户没有输入该信息时(“否”的情况),进程转到步骤S16。
[步骤S14]
显示控制部分12使立体显示部分14显示“哪个是你的优势眼,右眼还是左眼?”,以提示用户选择优势眼。当用户选择了自己的优势眼时,关于所选优势眼的信息被读出并被存储在存储部分10或记录介质记录部分30中,并且进程结束。
[步骤S16]
显示控制部分12使立体显示部分14显示一个在其上对是否使用之前的优势眼判定结果或存储的关于优势眼的信息进行选择的屏幕。当使用之前的或存储的关于优势眼的信息时,进程转到步骤S18。当没有使用时,进程转到步骤S20。
[步骤S18]
优势眼信息被从存储部分10或记录介质30中读出,进程结束。
[步骤S20]
显示控制部分12使立体显示部分14显示一个在其上对是否做出优势眼判定进行选择的屏幕。当没有做出优势眼判定时,进程转到步骤S22。当做出优势眼判定时,进程转到步骤S24。
[步骤S22]
在没有设定优势眼的情况下程序结束。
[步骤S24]
如图3所示,显示控制部分12使立体显示部分14显示优势眼判定图像和字符“请按十字中心”。
优势眼判定图像是由左视点图像和右视点图像形成的立体图像。在此实施例中,立体图像是内部带有十字的一个圆圈的标记图像。注意,优势眼判定图像以及每个图像的参考坐标(十字的中心坐标)被存储在存储部分10中。另外,优势眼判定图像不局限于此实施例中的图像,而可以任意图像,只要其是带有视差的且可指定用户按压位置的图像即可。
例如,显示在立体显示部分14上用于操作的一个或多个图标图像可以被用作优势眼判定图像。据此,当执行触摸或点击图标图像等的操作时,可在内部自动执行优势眼判定。
[步骤S26]
优势眼判定部分24检测立体显示部分14上的优势眼判定图像是否已被按下(触控面板22是否已被触摸)。若在预定时间或更长时间内还未按下该图像(“否”的情况),则进程转到步骤S28。若图像已被按下(“是”的情况),则进程转到步骤S30。
[步骤S28]
若确定无法检测到优势眼判定图像已被按下,则优势眼判定部分24把右眼判定为优势眼,并读出该判定结果以存储在存储部分10或记录介质30中,并且进程结束。这样做的原因在于,由于以右眼作为优势眼的人多于以左眼作为优势眼的人,因而以右眼作为优势眼,由此尽可能减少判定误差。
[步骤S30]
优势眼判定部分24通过触控面板22获得优势眼判定图像被按下处的位置坐标,并基于这些位置坐标及优势眼判定图像的左视点图像和右视点图像各自的参考位置来判定用户的优势眼。
即,由图4所示以及下面的方程1和方程2来计算左视点差值DL和右视点差值DR。
[方程1]
左视点差值DL=|((1)按下的左视点图像坐标)-((2)左视点图像的十字中心)|
DL = ( x 1 - x 2 ) 2 + ( y 1 - y 2 ) 2
[方程2]
右视点差值DR=|((1)按下的右视点图像坐标)-((2)右视点图像的十字中心)|
DR = ( x 3 - x 4 ) 2 + ( y 3 - y 4 ) 2
且当DL<DR时,左眼被判定为优势眼。当DR≤DL时,右眼被判定为优势眼。注意,当DR=DL时,不能做出优势眼判定,但此时,如在步骤S28所示,将右眼判定为优势眼。
关于由此判定出的用户优势眼的信息被存储在存储部分10或记录介质30中,并且进程结束。
利用所述方法,只需要触摸显示在立体显示部分14上的优势眼判定图像就可做出优势眼判定,且可登记该结果。
<第二实施例>
图5是示出根据本发明的立体显示装置的第二实施例的框图。与图1所示第一实施例共有的那些部分被提供有相同的参考编号并且在此不再详细描述。
如图5所示,第二实施例的立体显示装置2与第一实施例中的立体显示装置的不同点在于添加了立体触摸位置坐标确定部分26。
立体触摸位置坐标确定部分26基于关于用户的优势眼信息和从触控面板22获得的触摸位置的坐标数据来确定立体图像上用户触摸位置的坐标。
图6是示出对用户触摸的立体图像上的位置坐标进行确定的处理进程的流程图,下面依照图6所示的流程图进行描述。
[步骤S40]
立体显示装置2开始立体显示。注意,立体显示开始时,如上所述,假设用户的优势眼信息被登记在存储部分10或记录介质30中。
[步骤S42]
立体触摸位置坐标确定部分26从存储部分10或记录介质30中读出预先登记的用户的优势眼信息。
[步骤S44]
显示控制部分12从存储部分10或记录介质30中读出立体图像或者通过输入/输出部分18从外部设备读出立体图像,并使立体显示部分14显示读出的立体图像。
[步骤S46]
当操作所显示的立体图像时,用户触摸触控面板22,从而立体触摸位置坐标确定部分26确定用户是否已触摸了立体显示部分14的屏幕(触控面板22)。当检测到屏幕已被触摸时,进程转到步骤S48。
[步骤S48]
被接触的触控面板22上的坐标(x,y)作为所显示的立体图像中用户的优势眼侧视点图像上的坐标而被读出,且被存储在存储部分10中。
即,在如图7所示的优势眼为右眼的情况下,当触摸显示在立体显示部分14上的立体图像(左视点图像和右视点图像)的任意位置时,将触摸的坐标(x,y)作为右视点图像上的坐标来进行处理。这样,立体图像上用户认为要触摸的位置与视点图像上实际被检测为触摸位置的位置之间的偏离得以消除或减少,由此提高了通过触控面板22对立体图像的可操作性。
例如,当触摸一个对象且该对象进行了缩放显示时,可准确指示缩放中心。另外,当立体显示软按钮、各种图标等时,可防止软按钮等的误操作。
<第三实施例>
图8是示出根据本发明的立体显示装置的第三实施例的框图。注意,与图1所示第一实施例共有的那些部分被提供有相同的参考编号且在此不再详细描述。
如图8所示,第三实施例的立体显示装置3与第一实施例中的立体显示装置的不同点在于添加了3D/2D显示模式切换部分28。
在从立体图像(3D图像)切换到该3D图像的左视点图像或右视点图像的2D图像时,3D/2D显示模式切换部分28基于用户的优势眼信息做出切换指示,来指示将要显示左视点图像和右视点图像中的哪一个。
图9是示出从显示立体图像(3D图像)的状态切换到显示左视点图像或右视点图像的2D图像的状态的处理进程的流程图,下面依照图9所示的流程图进行描述。
[步骤S50]
立体显示装置3开始立体显示。注意,假设用户的优势眼信息在立体显示开始时已被登记在存储部分10或记录介质30中。
[步骤S52]
3D/2D显示模式切换部分28从存储部分10或记录介质30中读出预先登记的用户的优势眼信息。
[步骤S54]
显示控制部分12从存储部分10或记录介质30中读出立体图像或者通过输入/输出部分18从外部设备读出立体图像,并使立体显示部分14显示所读出的立体图像(3D图像)。
[步骤S56]
用户可按压显示模式切换按钮、触控面板22或没有示出的类似物以做出指示用以从立体图像(3D图像)切换到左视点图像或右视点图像的2D图像。显示控制部分12辨别是否存在从3D图像切换到2D图像的用户指示,并且当切换至2D图像的指示不存在时(“否”的情况),进程转到步骤S54,而当切换至2D图像的指示存在时(“是”的情况),进程转到步骤S58。
[步骤S58]
对于从3D图像切换至2D图像,3D/2D显示模式切换部分28基于在步骤S52读出的用户的优势眼信息来使立体显示部分14显示用户的优势眼侧视点图像(2D图像),或者给显示控制部分12提供将要显示左视点图像和右视点图像中的哪一个的指示,并使立体显示部分14只显示用户的优势眼侧视点图像。
如图10所示,在优势眼为右眼的情况下,当从显示在立体显示部分14上的立体图像(3D图像)切换到左视点图像或右视点图像的2D图像时,显示作为用户的优势眼侧视点图像的右视点图像(2D图像)。
[步骤S60]
显示控制部分12辨别是否存在从2D图像切换到3D图像的用户指示,并且当不存在切换至3D图像的指示时(“否”的情况),使进程转到步骤S58,而当存在切换至3D图像的指示时(“是”的情况),进程转到步骤S54。
利用所述方法,当显示状态从显示立体图像(3D图像)切换到显示2D图像时,可以减少随显示模式切换产生的不舒服感从而提高了可视性。
<第四实施例>
图11是示出本发明第四实施例的流程图。注意,立体显示装置的结构与图8所示第三实施例中的立体显示装置的结构相同,其中的不同点只在于下面要描述的处理细节。下面依照图11所示的流程图进行描述。
[步骤S70]
立体显示装置开始立体显示。注意,假设立体显示开始时用户的优势眼信息已被登记在存储部分10或记录介质30中。
[步骤S72]
3D/2D显示模式切换部分28从存储部分10或记录介质30中读出预先登记的用户的优势眼信息。
[步骤S74]
针对如下情况进行辨别:即,是设定当持续触摸触控面板22时进行2D显示的第一模式还是设定当每次触摸触控面板22时在3D显示与2D显示之间进行切换的第二模式。该辨别可以利用基于用户每次在立体显示部分14所显示的菜单屏幕上进行的模式选择操作的辨别方法来进行,或者可以利用预先选择和登记任一模式并基于所登记的模式进行辨别的方法来进行。
当选择持续触摸时进行2D显示的第一模式时(“是”的情况),进程转到步骤S72。当选择每次触摸触控面板22时在3D显示与2D显示之间进行切换的第二模式时(“否”的情况),进程转到步骤S84。
[步骤S76]
显示控制部分12从存储部分10或记录介质30中读出立体图像或者通过输入/输出部分18从外部设备读出立体图像,并使立体显示部分14显示所读出的立体图像(3D图像)。
[步骤S78]
当正在显示立体图像(3D图像)时,显示控制部分12辨别用户是否正触摸触控面板22。如果触控面板22正被触摸(“是”的情况),则进程转到步骤S80。如果没有被触摸(“否”的情况),进程转到步骤S76。
[步骤S80]
对于从3D图像切换至2D图像,3D/2D显示模式切换部分28使立体显示部分14基于在步骤S72读出的用户的优势眼信息来显示用户优势眼侧视点图像(2D图像),或者给显示控制部分12提供指令来指示要显示左视点图像和右视点图像中的哪一个,并且使立体显示部分14只显示用户优势眼侧视点图像。
[步骤S82]
当正在显示用户优势眼侧视点图像(2D图像)时,显示控制部分12辨别用户是否正触摸触控面板22。如果触控面板22正被触摸(“是”的情况),进程转到步骤S80。如果没有被触摸(“否”的情况),进程转到步骤S76。
这样,在用户持续操作触控面板22的时段,保持2D图像显示,由此提高了操作时的可视性和可操作性。应该注意,步骤S82中确定的“没有被触摸”不仅是当触控面板22没有检测到触摸时做出,而且也可以是在预定时段或更长时段内没有检测到触摸时做出。据此,在一系列触控面板操作期间可以切换至3D图像。
[步骤S84]
如在步骤S76,显示控制部分12从存储部分10或记录介质30中读出立体图像或者通过输入/输出部分18从外部设备读出立体图像,并使立体显示部分14显示读出的立体图像(3D图像)。
[步骤S86]
当正在显示立体图像(3D图像)时,显示控制部分12辨别用户是否正触摸(点击)触控面板22。如果触控面板22正被点击(“是”的情况),进程转到步骤S88。如果没有正被点击(“否”的情况),进程转到步骤S84。
[步骤S88]
当显示立体图像(3D图像)期间触控面板22被触摸一次(点击一次)时,显示控制部分12将显示从立体显示部分14上所显示的立体图像(3D图像)切换到用户优势眼侧视点图像(2D图像)。
如图12所示,在优势眼为右眼的情况下,通过触摸触控面板22一次,可以显示从立体图像(3D图像)切换至的优势眼侧视点图像(2D图像)。
[步骤S90]
当正在显示用户优势眼侧视点图像(2D图像)时,显示控制部分12辨别用户是否已触摸(点击)了触控面板22。如果触控面板22已被点击(“是”的情况),则进程转到步骤S84。如果还未点击(“否”的情况),进程转到步骤S88。
利用所述方法,通过触摸(点击)触控面板22一次可以交替切换立体图像(3D图像)和优势眼侧视点图像(2D图像),由此提高了可操作性。
<第五实施例>
图13是示出根据本发明的立体拍摄装置(第五实施例)的框图。与图1所示第一实施例共有的那些部分被提供有相同的参考编号并在此不再详细描述。
图13所示的立体拍摄装置5是拥有图1所示立体显示装置的一种装置,且其除了图1所示立体显示装置1外还包括立体拍摄部分32和2D通过图像显示视点选择部分34。
立体拍摄部分32例如由成对的左右拍摄部分形成,它们可以同时拍摄两个视点图像(左视点图像和右视点图像),且立体拍摄部分32拍摄的左视点图像和右视点图像可适当进行图像处理,然后被记录在记录介质30中。
如图14所示,立体显示部分14被提供在立体拍摄装置5的背面,在重放立体图像时用作显示器件,并且还作为拍摄时的取景器,该立体显示部分14显示3D图像或2D图像(通过图像)来作为由立体拍摄部分32连续拍摄的运动画面。
另外,立体拍摄装置5具有拍摄立体图像(3D图像)的3D拍摄模式和拍摄左视点图像或右视点图像的2D图像的2D拍摄模式,且包含用于从这些拍摄模式中进行选择的拍摄模式切换部分。
2D通过图像显示视点选择部分34做出指示以切换到各视点图像(即在从立体图像(3D图像)的通过图像切换到左视点图像或右视点图像的2D图像的通过图像时将要显示的左视点图像或右视点图像)的通过图像中的哪一个。
图15是示出当上述立体拍摄装置5拍摄立体图像或2D图像时处理进程的流程图。下面依照图15所示的流程图进行描述。
[步骤S100]
启动立体拍摄装置5对通过图像的拍摄。应该注意,假设拍摄开始时用户优势眼信息已被登记在存储部分10或记录介质30中。
[步骤S102]
2D通过图像显示视点选择部分34从存储部分10或记录介质30中读出预先登记的用户优势眼信息。
[步骤S104]
立体拍摄装置5辨别用于从3D拍摄模式切换到2D拍摄模式的拍摄模式切换按钮是否已被按下。如果用于切换至2D拍摄模式的按钮已被按下(“是”的情况),该装置使进程转到步骤S106。如果还没有按下(“否”的情况),该装置使进程转到步骤S 108。
[步骤S106]
2D通过图像显示视点选择部分34使立体拍摄部分32基于在步骤S102读出的用户优势眼信息来拍摄用户优势眼侧视点图像(2D图像),并使立体显示部分14显示其通过图像。
如图14所示,在优势眼为右眼的情况下,立体显示部分14上显示右视点图像(2D图像)作为通过图像。此时,当按下快门释放按钮时,只有用户优势眼侧视点图像(2D图像)被拍摄到,并被记录在记录介质30中。
[步骤S108]
立体拍摄装置5连续拍摄立体图像(左和右两个视点图像),并使立体显示部分14显示拍摄的立体图像(3D图像)作为通过图像。当按下快门释放按钮时,立体图像(3D图像)被拍摄到,并被记录在记录介质30中。
根据所述方法,当在2D拍摄模式时刻显示通过图像时,用户优势眼侧视点图像(2D图像)可以显示在立体显示部分14上。另外,由于当用优势眼看物体时用户不会感觉到不适,用户不太容易疲劳,且可以方便地获得更多的信息。
注意,所述方法并不局限于静止画面的拍摄模式,且还可应用于运动画面拍摄模式下3D图像和2D图像之间进行切换时的显示中。
<第六实施例>
图16是示出根据本发明的立体显示装置的第六实施例的框图。与图1所示第一实施例共有的那些部分被提供有相同的参考编号且在此不再详细描述。
如图16所示,第六实施例的立体显示装置6与第一实施例中的立体显示装置的不同点在于添加了图像替换部分36。
如图17所示,当立体拍摄装置5拍摄在深度方向上位于远处的物体(对象)时,很近处物体具有大视差量,从而不能被立体地看到而只是显现重像,这劣化了立体图像。
为处理此问题,在本发明第六实施例中,当一个具有与指定像素或更高像素相等的视差量的对象被自动指定时,或者当一个显现重像的对象被用户指定时,该对象部分的立体图像由优势眼侧视点图像替换,由此提高了立体图像质量。
也就是说,图16所示的图像替换部分36具有:视差量检测部分,其检测立体图像(3D图像)的左右视差量;以及区域提取部分,其在检测到的视差量当中提取超出预先设定的视差量(指定数量的像)或超过显现出重像的由用户指定的区域的视差量的对象区域。所提取的对象区域的立体图像只由与预先登记在存储部分10或记录介质30中的用户优势眼信息相对应的优势眼侧视点图像来替换。
图18是示出本发明第六实施例的流程图,下面依照图18所示的流程图进行描述。
[步骤S110]
立体显示装置6开始立体显示。假设立体显示开始时用户优势眼信息已被登记在存储部分10或记录介质30中。
[步骤S112]
图像替换部分36从存储部分10或记录介质30中读出预先登记的用户优势眼信息。
[步骤S114]
显示控制部分12使立体显示部分14显示接受指令输入的画面,该指令用来指示替换部分是自动选择还是模式为替换模式(替换模式中替换部分是手动指定),以提示用户进行输入。当选中其中自动选择替换部分的替换模式时(“是”的情况),进程转到步骤S116。当选中其中手动指定替换部分的替换模式时(“否”的情况),进程转到步骤S122。
[步骤S116]
图像替换部分36的区域提取部分从立体图像中查找具有与预先设定的视差量相等的视差量的位置。作为预先设定的视差量,例如,可以是默认设定的10个像素,并且可由用户任意设定该默认值。这是因为允许立体观察的融合极限随用户而不同。
[步骤S118]
基于步骤S112中读出的用户优势眼信息,图像替换部分36把所查找到的位置中不在用户优势眼侧的视点图像替换为用户优势眼侧视点图像(2D图像)。
如图19所示,当圆柱体左右视点图像之间的视差量大于预先设定的视差量且用户优势眼为右眼时,左视点图像中的圆柱体部分的图像被替换为右视点图像的圆柱体部分的图像。
[步骤S120]
显示控制部分12使立体显示部分14显示经过步骤S118处进行的替换后的立体图像。这样,不存在显现重像的位置,由此提高了立体图像质量。
所述方法基于“2D图像优于显现重像的图像”的构思。
[步骤S122]
当选中其中手动指定替换部分的替换模式时,立体显示装置6根据来自触控面板22的用户指令来接受显现重像的范围的输入。
[步骤S124]
至于步骤S122处接受的范围(输入的位置)中的立体图像,基于在步骤S112中读出的用户优势眼信息,图像替换部分36把输入位置中不在用户优势眼侧的视点图像替换为用户优势眼侧视点图像(2D图像)。注意,当用户在触控面板22上指定了显现重像的范围时,与指定范围具有相同视差量的范围被提取出,且所提取范围中不在用户优势眼侧的视点图像被替换为用户优势眼侧视点图像(2D图像)。
[步骤S126]
显示控制部分12使立体显示部分14显示经过步骤S124进行的替换后的立体图像。这样,由用户指定的范围中不会出现显现重像的位置,由此提高了立体图像质量。
应该注意,虽然在本实施例的描述中,将立体显示装置6上的触控面板22用作用户任意输入位置坐标的坐标输入器件,但并不意在限制于此,也可利用其他坐标输入器件,如光标2D显示在立体显示装置6上的一种器件,其中可利用十字键等来移动光标并按下OK按钮来输入位置坐标,或者可利用检测用户指尖位置空间传感器。
[优势眼判定图像和触摸输入的变型示例]
<第一变型示例>
图20是示出优势眼判定图像和触摸优势眼判定图像的状态的示意图,该示意图示出了使用用于操作的按钮图像来代替图3所示的带有十字的圆圈的标记图像的第一修改示例。
图20所示的第一变型示例中,表示诸如开始按钮或登录按钮之类的用于操作的按钮的图像作为优势眼判定图像显示在立体显示部分14上。该按钮图像由具有预定视差量的左视点图像和右视点图像组成,且每个图像上有参考坐标(按钮图像的中心坐标)。
显示控制部分(见图1)使立体显示部分14显示作为优势眼判定图像的按钮图像和“请按按钮”的字符。注意,在按钮图像必然要被按下的情况下,如开始按钮或登录按钮,则并不需要显示“请按按钮”的字符,且只要显示按钮名称之类的就足够了。
当用户按下立体显示部分14上立体显示的按钮图像时,执行与按下按钮图像相对应的处理(如,开始或登录)。另外,优势眼判定部分24通过触控面板22获得按下的按钮图像位置坐标,并基于这些位置坐标和按钮图像的左视点图像和右视点图像中每一个的参考位置来判定用户的优势眼。此优势眼判定方法可按基于图4、[方程1]和[方程2]所示的类似方式执行。
根据该方法,只要触摸立体显示部分14上显示的通用按钮图像,就可在器件侧自动执行优势眼的辨别,且可以登记其结果。
注意,为了增加优势眼判定的准确性,可以通过针对对多个按钮图像(可使用相同或不同类型的按钮图像)的触摸操作得出的优势眼判定结果的多数决定法做出最终的优势眼判定。
<第二变型示例>
图21和图22是示出优势眼判定图像的第二变型示例的示意图,图21示出了立体显示部分14的显示屏幕,图22示出了触摸显示屏上显示的优势眼判定图像时的状态。
如图21和图22所示的第二变型示例中,表示五个单轴型滑动条的图像(滑动条图像)作为优势眼判定图像显示在立体显示部分14上。这些滑动条图像由用于调节立体图像的视差量、亮度、对比度、白平衡和音量的滑动条图像组成,且每个滑动条图像由具有预定视差量的左视点图像和右视点图像构成,并且每个滑动条图像还具有每个图像的参考坐标(每个滑动条图像中调节器的中心坐标)。
显示控制部分12(见图1)使立体显示部分14显示作为优势眼判定图像的上述滑动条图像和字符“请进行各种调节”。
当用户触摸滑动条图像中的调节器并移动(拖动)调节器时,执行与调节器位置相对应的调节。另外,优势眼判定部分24通过触控面板22获得第一次触摸到滑动条图像的调节器的位置坐标,并基于这些位置坐标和调节器在滑动条图像中的位置(触摸前调节器的左视点图像和右视点图像中每一个的参考位置)来判定用户优势眼。此优势眼判定方法可按基于图4、[方程1]和[方程2]所示的类似方式执行。
根据该方法,只要对立体显示部分14上所显示的用于调节的任意一个滑动条图像上进行触摸操作,就会在器件侧自动执行优势眼辨别,且可以登记其结果。
应该注意,当在多个滑动条图像上执行触摸操作时,可以利用关于通过各触摸操作得出的优势眼判定结果的多数决定法做出最终的优势眼判定。
<第三变型示例>
图23是示出优势眼判定图像的第三变型示例的示意图,其中示出了双轴型滑动条图像。
如图23所示的第三变型示例中,表示双轴型滑动条的图像(滑动条图像)作为优势眼判定图像显示在立体显示部分14上。该滑动条图像利用调节器在水平方向上的位置来调节立体图像的对比度,利用调节器在竖直方向上的位置来调节立体图像的亮度,该滑动条图像由具有预定视差量的左视点图像和右视点图像构成,而且具有每个图像的参考坐标(滑动条图像中调节器的中心坐标)。
当用户触摸滑动条图像中的调节器并在二维平面内移动(拖动)调节器时,执行与调节器位置相对应的调节。另外,优势眼判定部分24通过触控面板22获得第一次触摸到滑动条图像的调节器的二维位置坐标,并基于这些位置坐标和滑动条图像中调节器的位置(触摸前调节器的左视点图像和右视点图像中每一个的参考位置)来判定用户优势眼。此优势眼判定方法可按基于图4、[方程1]和[方程2]所示的类似方式执行。
注意,可使用立体可视的操纵杆图像来代替上述第三变型示例中的双轴型滑动条图像。
<第四变型示例>
图24是示出优势眼判定图像的第四变型示例的示意图,其中示出了此示例中表示兔子的线条画。
在图24所示的第四变型示例中,立体可视的线条画作为优势眼判定图像显示在立体显示部分14上。该线条画用于使用户勾画其轮廓,该线条画由具有预定视差的左视点图像和右视点图像构成,而且具有每个图像中轮廓线的坐标。
当用户勾画显示在立体显示部分14上的线条画时,优势眼判定部分24通过触控面板22获得勾画轨迹的坐标,并基于勾画轨迹的坐标和线条画的轮廓线坐标(左视点图像和右视点图像中每一个的轮廓线坐标)来判定用户优势眼。在此优势眼判定方法中,找到根据轨迹的坐标与线条画的左视点图像的轮廓线坐标之间的最小距离的平均距离、以及勾画轨迹的坐标与线条画的右视点图像的轮廓线坐标之间的最小距离的平均距离,从而根据这两个平均距离当中较小的那一个(也就是说,勾画轨迹是靠近左视点图像的线条画还是靠近右视点图像的线条画)判定用户的优势眼。
注意,线条画优选的是简单的图形,如容易勾画的图画或圆。另外,用户优势眼的判定并不需要勾画线条画的全部轮廓线也可以执行。
<第五变型示例>
图25和图26是示出优势眼判定图像的第五变型示例的示意图,图25示出了立体显示部分14的显示屏幕,图26示出了添加了显示屏上所显示的优势眼判定图像中缺少的图像的状态。
图25和图26所示的第五变型示例中,未完成的图画或图形(图25中没有耳朵的兔子)作为优势眼判定图像显示在立体显示部分14上。没有耳朵的兔子图像用于使用户画出缺少的部分(耳朵),该图像由具有预定视差的左视点图像和右视点图像构成,而且具有每个图像中头部(将要在那里画上耳朵的部分)轮廓线的坐标。
显示控制部分12(参见图1)使立体显示部分14显示作为优势眼判定图像的没有耳朵的兔子图像和字符“请给兔子画出并加上耳朵”。
当用户在触控面板22上用手指(或手写笔)给立体显示部分14所显示的没有耳朵的兔子图像画出兔子耳朵时,显示控制部分12使立体显示部分14以2D显示方式显示画出的兔子耳朵。另一方面,优势眼判定部分24通过触控面板22获得兔子耳朵绘画轨迹的坐标,并基于画出的兔子耳朵的坐标与兔子头部的左视点图像和右视点图像的轮廓线的坐标来判定用户的优势眼。
也就是说,根据图26所示画出的兔子耳朵的基部是与兔子头部的左视点图像的轮廓线相匹配(类似)还是与其右视点图像的轮廓线相匹配(类似)来判定用户的优势眼。
注意,虽然此示例中用户画出了兔子耳朵,其并不意味着局限于此。兔子耳朵图像(部分图像)可以预先准备,然后拖动此部分图像使其与兔子头部联在一起。另外,未完成的图画并不局限于没有耳朵的兔子图画,而是可使用任何图片。此外,未完成的图画并不局限于图画,也可使用图形(如,缺少一边的多边形)。
根据该方法,可以在用户享受画画的同时自动地在器件上执行优势眼辨别并登记其结果。
<第七实施例>
图27是示出本发明第七实施例的流程图,下面依照图27所示的流程图进行描述。
[步骤S130]
立体显示装置6开始设定和判定优势眼。
[步骤S132]
当开始了优势眼设定和判定时,显示控制部分12(参见图1)首先使立体显示部分14显示用于选择优势眼判定方法的菜单,由此提示用户选择想要的优势眼判定方法。作为选择优势眼判定方法的菜单,呈现了使用图20的按钮图像的优势眼判定方法、利用图21的滑动条图像的优势眼判定方法、利用未完成图画(图25中没有耳朵的兔子图画)的优势眼判定方法、默认优势眼判定方法(例如,利用图3所示的优势眼判定图像的优势眼判定方法)等,并可根据需要选择任一种。
[步骤S134]
当选择了默认优势眼判定方法时,进程转到默认优势眼判定方法的处理。另外,当没有做出优势眼判定时,不执行优势眼判定就结束进程。
[步骤S136]
在步骤S132,当选择了利用图20的按钮图像的优势眼判定方法时,显示控制部分12使立体显示部分14显示作为优势眼判定图像的按钮图像和字符“请按下按钮”。
[步骤S138]
当用户按下按钮图像时,优势眼判定部分24通过触控面板22获得所按下的按钮图像的位置坐标,根据这些位置坐标是靠近按钮图像的左视点图像的参考位置还是靠近其右视点图像的参考位置来做出用户优势眼判定,存储优势眼判定结果,并结束进程。
[步骤S140]
当在步骤S132选择了利用图21的滑动条图像的优势眼判定方法时,显示控制部分12使立体显示部分14显示作为优势眼判定图像的滑动条图像和字符“请进行各种调节”。
[步骤S142]
当用户触摸滑动条图像的调节器来进行操作时,优势眼判定部分24通过触控面板22获得首先触摸的位置的坐标,依据这些位置坐标是否表示对滑动条图像的调节器进行操作之前的位置以及这些位置坐标是靠近左视点图像的调节器位置还是靠近右视点图像的调节器位置来做出用户优势眼判定,存储优势眼判定结果,并结束进程。
[步骤S144]
当在步骤S132选择了利用图25中没有耳朵的兔子图画的优势眼判定方法时,显示控制部分12使立体显示部分14显示作为优势眼判定图像的没有耳朵的兔子图画和字符“请给兔子画出并加上耳朵”。
[步骤S146]
一旦用户画出并加上了兔子耳朵,优势眼判定部分24就通过触控面板22获得画出并加上的兔子耳朵的基部的坐标,依据耳朵的基部坐标是否表示没有耳朵的兔子头部轮廓线的坐标以及耳朵的基部坐标是靠近左视点图像的头部轮廓线的坐标还是靠近右视点图像的头部轮廓线的坐标来做出优势眼判定,存储优势眼判定结果,并结束进程。
本发明并不局限于上述实施例,且在不背离本发明精神的范围内可进行各种修改。
参考符号列表
1,2,3,4,6...立体显示装置,5...立体拍摄装置,10...存储部分,12...显示控制部分,14...立体显示部分,16...扬声器部分,18...输入/输出部分,20...记录介质记录部分,22...触控面板,24...优势眼判定部分,26...立体触摸位置坐标确定部分,28...3D/2D显示模式切换部分,30...记录介质,32...立体拍摄部分,34...2D通过图像显示视点选择部分,36...图像替换部分。

Claims (20)

1.一种立体显示装置,包括:
立体显示部分,其显示由左视点图像和右视点图像形成的立体图像;
坐标输入部分,其输入立体显示部分的显示表面上的期望坐标位置;
显示控制部分,其使立体显示部分显示用于判定用户优势眼的优势眼判定图像,该优势眼判定图像是由一个左视点图像和一个右视点图像形成的,并表示了该左视点图像和右视点图像之间不同的参考坐标;
获取部分,其获取由用户通过坐标输入部分输入的针对在立体显示部分上显示的优势眼判定图像的位置坐标;
判定部分,其基于由左视点图像和右视点图像形成的优势眼判定图像的参考坐标和所获取的位置坐标并依据所获取的位置坐标是靠近左视点图像的参考坐标还是靠近右视点图像的参考坐标来判定通过坐标输入部分输入位置坐标的用户的优势眼。
2.根据权利要求1的立体显示装置,其中
显示控制部分使立体显示部分显示用于操作的图标图像来作为优势眼判定图像。
3.根据权利要求1的立体显示装置,其中
显示控制部分使立体显示部分显示开始按钮或登录按钮之类的按钮图像来作为优势眼判定图像。
4.根据权利要求1的立体显示装置,其中
显示控制部分使立体显示部分显示包含用于操作的调节器的滑动条图像来作为优势眼判定图像。
5.根据权利要求1的立体显示装置,其中
显示控制部分使立体显示部分显示线条画来作为优势眼判定图像,并且
判定部分基于由表示线条画的左视点图像和右视点图像形成的优势眼判定图像的每个轮廓线的坐标与通过勾画线条画而由坐标输入部分相继获取的坐标之间的平均距离,来判定勾画线条画的用户的优势眼。
6.根据权利要求1的立体显示装置,其中
显示控制部分使立体显示部分显示未完成的图画或图形来作为优势眼判定图像,且
基于由表示未完成图画或图形的左视点图像和右视点图像形成的优势眼判定图像的参考坐标和为了完成所述未完成的图画或图形而通过坐标输入部分添加的图画或图形的位置坐标,判定部分判定执行上述添加的用户的优势眼。
7.根据权利要求1至6中任一项的立体显示装置,其中
当不能判定通过坐标输入部分输入位置坐标的用户的优势眼时,判定部分判定右眼作为优势眼。
8.根据权利要求1至7中任一项的立体显示装置,包括存储和登记部分,其在装置内存储和登记用户优势眼信息。
9.根据权利要求8的立体显示装置,其中
存储和登记部分基于判定部分的判定结果自动存储和登记关于用户优势眼的信息。
10.根据权利要求8或9的立体显示装置,其中
存储和登记部分包括优势眼信息输入部分,其接受关于由用户指示以及由用户输入的优势眼的信息,并且所述存储和登记部分存储和登记由优势眼信息输入部分所接受的关于用户优势眼的信息。
11.根据权利要求8至10中任一项的立体显示装置,包括位置输入部分,其通过坐标输入部分接受立体显示部分所显示的立体图像上期望的目标图像的位置坐标,其中
由位置输入部分接受的位置坐标被处理为出自立体图像的左视点图像和右视点图像当中的优势眼侧视点图像上的坐标位置,该优势眼侧视点图像与被登记在存储和登记部分中的关于用户优势眼的信息相对应。
12.根据权利要求1至11中任一项的立体显示装置,其中
坐标输入部分是设置在立体显示部分的显示表面上的触控面板。
13.根据权利要求8至12中任一项的立体显示装置,包括显示模式切换部分,其在使立体显示部分显示由左视点图像和右视点图像形成的立体图像的3D显示模式与使立体显示部分显示出自构成立体图像的左视点图像和右视点图像当中的任一视点图像的2D显示模式之间进行切换,其中
当由显示模式切换部分切换至2D显示模式时,显示控制部分使立体显示部分基于登记在存储和登记部分中的关于用户优势眼的信息来显示出自左视点图像和右视点图像当中的用户优势眼侧视点图像。
14.根据权利要求13的立体显示装置,其中
坐标输入部分是设置在立体显示部分的显示表面上的触控面板,且
显示模式切换部分在触控面板每次检测到触摸时在2D显示模式和3D显示模式之间交替地进行切换。
15.根据权利要求13的立体显示装置,其中
坐标输入部分是设置在立体显示部分的显示表面上的触控面板,且
当触控面板检测到触摸时,显示模式切换部分切换至2D显示模式,当触控面板没有检测到触摸或在预定时段或更长时段内没有检测到触摸时,显示模式切换部分切换至3D显示模式。
16.根据权利要求8至15中任一项的立体显示装置,包括:
视差量检测部分,其检测将在立体显示部分上显示的由左视点图像和右视点图像形成的立体图像的左右视差量;
区域提取部分,其提取具有下述视差量的区域:该视差量为视差量检测部分所检测到的视差量当中超过预设定视差量或者超过显现出重像并由用户指定的区域的视差量的视差量;
图像替换部分,其将区域提取部分提取的区域的立体图像只替换为与登记在存储和登记部分中的关于用户优势眼的信息相对应的用户优势眼侧视点图像。
17.一种立体拍摄装置,其包括根据权利要求8至16中任一项的立体显示装置,所述立体拍摄装置包括:
拍摄模式切换部分,其在拍摄二维图像的2D拍摄模式和拍摄由左视点图像和右视点图像形成的立体图像的3D拍摄模式之间进行切换;以及
控制部分,其在拍摄模式切换部分切换至2D拍摄模式时使立体显示部分显示出自左视点图像和右视点图像当中的与登记在存储和登记部分中的关于用户优势眼的信息相对应的用户优势眼侧视点图像。
18.一种利用立体显示装置的优势眼判定方法,该立体显示装置包括立体显示部分和在立体显示部分的显示表面上输入期望的位置坐标的坐标输入部分,所述方法包括以下步骤:
使立体显示部分显示用于判定用户优势眼的优势眼判定图像,该优势眼判定图像是由左视点图像和右视点图像形成的,并表示了左视点图像和右视点图像之间不同的参考坐标;
获取由用户通过坐标输入部分输入的针对在立体显示部分上显示的优势眼判定图像的位置坐标;
判定部分基于由左视点图像和右视点图像形成的优势眼判定图像的参考坐标和所获取的位置坐标并依据所获取的位置坐标是靠近左视点图像的参考坐标还是靠近右视点图像的参考坐标来判定通过坐标输入部分输入位置坐标的用户的优势眼。
19.一种优势眼判定程序,其使立体显示装置执行根据权利要求18的优势眼判定方法。
20.一种记录介质,其上记录有根据权利要求19的程序的计算机可读代码。
CN201080065556.9A 2010-03-18 2010-10-29 立体显示装置和立体成像装置、用于上述装置的优势眼判定方法 Expired - Fee Related CN102812420B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2010-062869 2010-03-18
JP2010062869 2010-03-18
JP2010147509 2010-06-29
JP2010-147509 2010-06-29
PCT/JP2010/069275 WO2011114567A1 (ja) 2010-03-18 2010-10-29 立体表示装置及び立体撮影装置、並びに利き目判定方法及びこれに用いる利き目判定プログラム並びに記録媒体

Publications (2)

Publication Number Publication Date
CN102812420A true CN102812420A (zh) 2012-12-05
CN102812420B CN102812420B (zh) 2016-01-20

Family

ID=44648686

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201080065556.9A Expired - Fee Related CN102812420B (zh) 2010-03-18 2010-10-29 立体显示装置和立体成像装置、用于上述装置的优势眼判定方法

Country Status (4)

Country Link
US (1) US9164621B2 (zh)
JP (1) JP5450791B2 (zh)
CN (1) CN102812420B (zh)
WO (1) WO2011114567A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104378621A (zh) * 2014-11-25 2015-02-25 深圳超多维光电子有限公司 立体场景处理方法及装置
CN106265006A (zh) * 2016-07-29 2017-01-04 维沃移动通信有限公司 一种主视眼的矫正方法及移动终端
CN111258443A (zh) * 2018-12-03 2020-06-09 瑞萨电子株式会社 信息输入装置

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5073013B2 (ja) 2010-06-11 2012-11-14 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御方法および表示制御システム
WO2012002057A1 (ja) * 2010-06-29 2012-01-05 富士フイルム株式会社 立体表示装置、立体撮影装置、および指示判定方法
KR101783259B1 (ko) * 2010-12-31 2017-10-10 삼성디스플레이 주식회사 데이터 보상 방법 및 이를 수행하는 데이터 보상 장치 및 상기 데이터 보상 장치를 포함하는 표시 장치
KR20130008334A (ko) * 2011-07-12 2013-01-22 삼성전자주식회사 입체 영상 표시 제어를 위한 주시각 제어 방법 및 이를 지원하는 단말기
JP2013073449A (ja) * 2011-09-28 2013-04-22 Fujifilm Corp タッチパネル機能付き立体画像表示装置、及びタッチパネル
JPWO2013077338A1 (ja) * 2011-11-21 2015-04-27 株式会社ニコン 表示装置、表示制御プログラム
EP2801198B1 (en) * 2012-01-04 2023-10-11 InterDigital Madison Patent Holdings, SAS Processing 3d image sequences
US8884928B1 (en) * 2012-01-26 2014-11-11 Amazon Technologies, Inc. Correcting for parallax in electronic displays
JP5496425B2 (ja) * 2012-02-07 2014-05-21 オリンパス株式会社 表示装置
WO2013144670A1 (en) * 2012-03-30 2013-10-03 Sony Mobile Communications Ab Optimizing selection of a media object type in which to present content to a user of a device
JP6309185B2 (ja) * 2012-08-07 2018-04-11 任天堂株式会社 画像表示プログラム、画像表示装置、画像表示システム、および画像表示方法
US9189095B2 (en) 2013-06-06 2015-11-17 Microsoft Technology Licensing, Llc Calibrating eye tracking system by touch input
US9846486B2 (en) 2013-06-27 2017-12-19 Eyesight Mobile Technologies Ltd. Systems and methods of direct pointing detection for interaction with a digital device
WO2015179539A1 (en) 2014-05-20 2015-11-26 The Schepens Eye Research Institute, Inc. Quantification of inter-ocular suppression in binocular vision impairment
JP7356995B2 (ja) * 2018-03-14 2023-10-05 マジック リープ, インコーポレイテッド コンテンツをクリッピングし、視認快適性を増加させるためのディスプレイシステムおよび方法
JP7146585B2 (ja) * 2018-11-13 2022-10-04 本田技研工業株式会社 視線検出装置、プログラム、及び、視線検出方法
JP2021131490A (ja) * 2020-02-20 2021-09-09 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
IT202000022120A1 (it) * 2020-09-18 2020-12-18 Univ Degli Studi Di Trento Sistema e procedimento di quantificazione della dominanza oculare

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004362218A (ja) * 2003-06-04 2004-12-24 Canon Inc 三次元物体操作方法
EP2046020A1 (en) * 2007-10-05 2009-04-08 Fujifilm Corporation Image recording apparatus and image recording method
US20090237803A1 (en) * 2008-03-21 2009-09-24 Kabushiki Kaisha Toshiba Display device, display method and head-up display
WO2010023887A1 (ja) * 2008-08-27 2010-03-04 富士フイルム株式会社 3次元表示時における指示位置設定装置および方法並びにプログラム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4417768C2 (de) * 1994-05-20 1998-09-10 Juergen Prof Dr Med Lamprecht Verfahren und Vorrichtung zum Projizieren von Bildinformationen bei Personen mit durch eine Abweichung der Stellung ihrer Sehachse verursachten Störungen des Sehens
JPH10105735A (ja) 1996-09-30 1998-04-24 Terumo Corp 入力装置及び画像表示システム
US6584219B1 (en) * 1997-09-18 2003-06-24 Sanyo Electric Co., Ltd. 2D/3D image conversion system
JP2000209614A (ja) 1999-01-14 2000-07-28 Sony Corp 立体映像システム
US20060098282A1 (en) * 2002-07-02 2006-05-11 Mccart John R Visual media
JP2004280496A (ja) 2003-03-17 2004-10-07 Kyocera Mita Corp 操作パネル装置
JP2006293909A (ja) 2005-04-14 2006-10-26 Denso Corp 運転者の視線方向検出装置
PT3329838T (pt) * 2007-10-23 2020-11-24 Univ Mcgill Avaliação e terapia de visão binocular
WO2010035486A1 (ja) * 2008-09-29 2010-04-01 パナソニック株式会社 映像信号処理装置
US8629899B2 (en) * 2009-08-06 2014-01-14 Qualcomm Incorporated Transforming video data in accordance with human visual system feedback metrics
US9083958B2 (en) * 2009-08-06 2015-07-14 Qualcomm Incorporated Transforming video data in accordance with three dimensional input formats
US8878912B2 (en) * 2009-08-06 2014-11-04 Qualcomm Incorporated Encapsulating three-dimensional video data in accordance with transport protocols
US8284235B2 (en) * 2009-09-28 2012-10-09 Sharp Laboratories Of America, Inc. Reduction of viewer discomfort for stereoscopic images
US8830164B2 (en) * 2009-12-14 2014-09-09 Panasonic Intellectual Property Corporation Of America User interface device and input method
EP2544579B1 (en) * 2010-03-12 2018-08-15 Viking Systems, Inc. Stereoscopic visualization system
JP5704854B2 (ja) * 2010-07-26 2015-04-22 オリンパスイメージング株式会社 表示装置
US9191659B2 (en) * 2011-11-16 2015-11-17 Christie Digital Systems Usa, Inc. Collimated stereo display system
US8880336B2 (en) * 2012-06-05 2014-11-04 Apple Inc. 3D navigation
KR101931085B1 (ko) * 2012-09-03 2018-12-21 삼성디스플레이 주식회사 입체 영상 표시 장치
US8933882B2 (en) * 2012-12-31 2015-01-13 Intentive Inc. User centric interface for interaction with visual display that recognizes user intentions
US9319662B2 (en) * 2013-01-16 2016-04-19 Elwha Llc Systems and methods for differentiating between dominant and weak eyes in 3D display technology
US20130258463A1 (en) * 2013-03-11 2013-10-03 Allan Thomas Evans System, method, and apparatus for enhancing stereoscopic images
US20140253698A1 (en) * 2013-03-11 2014-09-11 Allan Thomas Evans System, apparatus, and method for enhancing stereoscopic images
US20130182086A1 (en) * 2013-03-11 2013-07-18 Allan Thomas Evans Apparatus for enhancing stereoscopic images

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004362218A (ja) * 2003-06-04 2004-12-24 Canon Inc 三次元物体操作方法
EP2046020A1 (en) * 2007-10-05 2009-04-08 Fujifilm Corporation Image recording apparatus and image recording method
US20090237803A1 (en) * 2008-03-21 2009-09-24 Kabushiki Kaisha Toshiba Display device, display method and head-up display
WO2010023887A1 (ja) * 2008-08-27 2010-03-04 富士フイルム株式会社 3次元表示時における指示位置設定装置および方法並びにプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104378621A (zh) * 2014-11-25 2015-02-25 深圳超多维光电子有限公司 立体场景处理方法及装置
CN106265006A (zh) * 2016-07-29 2017-01-04 维沃移动通信有限公司 一种主视眼的矫正方法及移动终端
CN106265006B (zh) * 2016-07-29 2019-05-17 维沃移动通信有限公司 一种主视眼的矫正装置的控制方法及移动终端
CN111258443A (zh) * 2018-12-03 2020-06-09 瑞萨电子株式会社 信息输入装置

Also Published As

Publication number Publication date
US20120320047A1 (en) 2012-12-20
JP5450791B2 (ja) 2014-03-26
JPWO2011114567A1 (ja) 2013-06-27
CN102812420B (zh) 2016-01-20
US9164621B2 (en) 2015-10-20
WO2011114567A1 (ja) 2011-09-22

Similar Documents

Publication Publication Date Title
CN102812420B (zh) 立体显示装置和立体成像装置、用于上述装置的优势眼判定方法
JP6569496B2 (ja) 入力装置、入力方法、及びプログラム
JP5413250B2 (ja) 画像処理装置、画像処理方法およびプログラム
US8923686B2 (en) Dynamically configurable 3D display
US9503629B2 (en) Image processing apparatus, image processing method, and computer-readable device having instructions for generating focused image
JP4657331B2 (ja) 3次元表示時における指示位置設定装置および方法並びにプログラム
US10969949B2 (en) Information display device, information display method and information display program
US9086742B2 (en) Three-dimensional display device, three-dimensional image capturing device, and pointing determination method
CN101751219A (zh) 终端装置、显示控制方法和显示控制程序
JP2012248066A (ja) 画像処理装置、その制御方法、および制御プログラム、並びに撮像装置
CN107741782B (zh) 一种设备虚拟漫游方法和装置
US9727229B2 (en) Stereoscopic display device, method for accepting instruction, and non-transitory computer-readable medium for recording program
CN106873886B (zh) 一种立体显示的控制方法、装置和电子设备
JP2015152939A (ja) 情報処理装置、情報処理方法、及びプログラム
KR20190027079A (ko) 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록 매체
CN105511620A (zh) 中文三维输入装置、头戴式装置及中文三维输入方法
JP6065908B2 (ja) 立体画像表示装置、そのカーソル表示方法及びコンピュータプログラム
JP2010107685A (ja) 3次元表示装置および方法並びにプログラム
CN102307308B (zh) 一种在触摸屏上生成立体图像的方法和设备
JP2018007082A (ja) 画像再生装置およびその制御方法およびプログラム
JP5915651B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2021005168A (ja) 画像処理装置、撮像装置、画像処理装置の制御方法、及びプログラム
CN104519233A (zh) 信息处理装置及其控制方法
JP5140719B2 (ja) 3次元表示時における指示位置設定装置および方法並びにプログラム
CN106951162B (zh) 一种信息处理方法及电子设备

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20160120