CN102591513A - 显示设备、位置校正方法以及程序 - Google Patents

显示设备、位置校正方法以及程序 Download PDF

Info

Publication number
CN102591513A
CN102591513A CN201110328549XA CN201110328549A CN102591513A CN 102591513 A CN102591513 A CN 102591513A CN 201110328549X A CN201110328549X A CN 201110328549XA CN 201110328549 A CN201110328549 A CN 201110328549A CN 102591513 A CN102591513 A CN 102591513A
Authority
CN
China
Prior art keywords
operating body
dimensional position
finger tip
display screen
control information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201110328549XA
Other languages
English (en)
Other versions
CN102591513B (zh
Inventor
德田贵宏
桑田昌行
天野绫子
若月玲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN102591513A publication Critical patent/CN102591513A/zh
Application granted granted Critical
Publication of CN102591513B publication Critical patent/CN102591513B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)

Abstract

一种显示设备,包括:操作体检测单元,其检测布置在显示屏幕上方的操作体;位置确定单元,其根据检测结果确定操作体的三维位置,并且输出该三维位置作为操作体的位置信息;位置指定单元,其指定显示屏幕上方的三维位置;向导信息生成单元,其生成请求用户在所指定的三维位置周围对操作体进行预定动作、然后将该操作体布置在所指定的三维位置处的向导信息;校正信息生成单元,其根据在所指定的三维位置和根据向导信息所布置的操作体的三维位置确定结果之间的误差,生成校正信息;以及位置校正单元,其基于校正信息来校正操作体的三维位置。

Description

显示设备、位置校正方法以及程序
技术领域
本公开涉及显示设备、位置校正方法以及程序。
背景技术
在相关技术中,存在诸如触摸型或接近型触摸面板的显示设备。在该显示设备中,用户通过检测一个或多个触摸和/或接近显示屏幕的一个或多个操作体(operating body)并确定操作体的位置来进行操作输入。另外,当确定了操作体的位置时,出现取决于传感器灵敏度的对显示设备特有的误差,或者出现取决于操作方法等的对用户特有的误差。因此,存在校正在显示屏幕上和/或显示屏幕上方检测到的操作体的位置以便提高操作输入的准确度的情况。
发明内容
在此,关于其中确定在显示屏幕上的操作体的二维位置的触摸操作,可以相对容易地校正在显示屏幕上所检测的操作体的位置。但是,关于其中确定在显示屏幕上方操作体的三维位置的非触摸操作,难以适当地向显示设备给出用于校正操作体位置的反馈,并且难以容易地校正在显示屏幕上方所检测的操作体的位置。
希望提供能够容易地校正在显示屏幕上方所检测的操作体的三维位置的显示设备、位置校正方法以及程序。
根据本公开的一个实施例,提供了一种显示设备,包括:操作体检测单元,其经由显示屏幕检测布置在显示屏幕上方的操作体;位置确定单元,其根据检测结果确定操作体的三维位置,并且输出该三维位置作为操作体的位置信息;位置指定单元,其指定显示屏幕上方的三维位置;向导信息生成单元,其生成请求用户在所指定的三维位置周围对操作体进行预定动作,然后将该操作体布置在所指定的三维位置处的向导信息,以便显示在显示屏幕上;校正信息生成单元,其根据在所指定的三维位置和根据向导信息所布置的操作体的三维位置确定结果之间的误差,生成校正信息;以及位置校正单元,其基于校正信息来校正操作体的三维位置。
预定动作可以是在两个指尖维持在指定的垂直位置的状态下、两个指尖从指尖相互分离的状态变为在指定的水平位置处相互接触的动作。
预定动作可以是在两个指尖维持在指定的垂直位置的状态下、两个指尖从指尖相互接触的状态相对于指定的水平位置相互分离的动作。
预定动作可以是在操作体维持在指定的垂直位置的状态下水平移动操作体、然后将其停止在指定的水平位置处的动作。
预定动作可以是在操作体维持在指定的水平位置的状态下垂直移动操作体、然后将其停止在指定的垂直位置处的动作。
校正信息生成单元可以多次基于1布置在指定的三维位置处的操作体的三维位置确定结果来生成校正信息。
根据本公开的另一实施例,提供了一种位置校正方法,包括:经由显示屏幕检测布置在显示屏幕上方的操作体;根据检测结果确定操作体的三维位置,并且输出该三维位置作为操作体的位置信息;指定显示屏幕上方的三维位置;生成请求用户在所指定的三维位置周围对操作体进行预定动作、然后将操作体布置在所指定的三维位置处的向导信息,以便显示在显示屏幕上;根据在所指定的三维位置和根据向导信息所布置的操作体的三维位置确定结果之间的误差,生成校正信息;以及基于该校正信息校正操作体的三维位置。
根据本公开的另一实施例,提供了一种使计算机能够执行该位置校正方法的程序。此处,可以使用计算机可读记录媒体提供所述程序,或者可以经由通信设备提供该程序。
能够提供能够能容易地校正在显示屏幕上方检测到的操作体的三维位置的显示设备、位置校正方法以及程序。
附图说明
图1是例示根据本公开的实施例的显示设备的配置的框图。
图2是例示在图1所示的显示设备中提供的操作体检测单元的外围的配置的图。
图3是例示图1中所示的背光的截面的图。
图4A是例示操作体的位置确定的例子的图(1/3)。
图4B是例示操作体的位置确定的例子的图(2/3)。
图4C是例示操作体的位置确定的例子的图(3/3)。
图5A是例示操作体位置确定中的误差的例子的图(1/3)。
图5B是例示操作体位置确定中的误差的例子的图(2/3)。
图5C是例示操作体位置确定中的误差的例子的图(3/3)。
图6是例示根据本公开的实施例的显示设备的操作过程的流程图。
图7是例示请求用户进行其中指尖变为相互接触的动作的向导信息的例子的图。
图8A是例示在指尖相互分离的状态下的操作体位置确定的例子的图(1/2)。
图8B是例示在指尖相互分离的状态下的操作体位置确定的例子的图(2/2)。
图9A是例示在指尖变为相互接触的状态下的操作体位置确定的例子的图(1/2)。
图9B是例示在指尖变为相互接触的状态下的操作体位置确定的例子的图(2/2)。
图10是例示在指尖变为相互接触的动作期间指尖之间的分离距离的变化的图。
图11是例示基于指尖变为相互接触的动作所获得的校正信息的例子的图。
图12是例示基于图11中所示的校正信息的操作体位置校正的例子的图。
图13A是例示基于指尖相互分离的动作所获得的校正信息的例子的图(1/2)。
图13B是例示基于指尖相互分离的动作所获得的校正信息的例子的图(2/2)。
图14A是例示基于操作体的水平移动动作和停止动作所获得的校正信息的例子的图(1/2)。
图14B是例示基于操作体的水平移动动作和停止动作所获得的校正信息的例子的图(2/2)。
图15A是例示基于操作体的垂直移动动作和停止动作所获得的校正信息的例子的图(1/2)。
图15B是例示基于操作体的垂直移动动作和停止动作所获得的校正信息的例子的图(2/2)。
图16A是例示基于其在显示屏幕上多个位置处垂直移动和停止操作体的动作所获得的校正信息的例子的图(1/2)。
图16B是例示基于其在显示屏幕上多个位置处垂直移动和停止操作体的动作所获得的校正信息的例子的图(2/2)。
具体实施方式
以下,将参照附图描述本公开的示范性实施例。另外,在本说明书和附图中,具有基于基本相同的功能配置的构成元件被给予相同的附图标记,并且将省略对它们的重复描述。
1.显示设备的配置
首先,将参照图1到图5C描述根据本公开一个实施例的显示设备的配置。该显示设备检测诸如用户手指或者铁笔(stylus)的一个或多个靠近显示屏幕11的操作体O的位置。该显示设备用于移动电话、便携式信息终端、个人计算机、电视机、数字相机、音乐播放器、视频游戏机、家用电器等。
图1是例示根据本公开一个实施例的显示设备的配置的框图。图2示出提供在图1中所示的显示设备中的操作体检测单元12的外围的配置。图3示出图1中所示的背光20的截面。
如图1中所示,根据本公开的实施例的显示设备包括显示面板10、背光20、以及控制单元30。
显示面板10配备有显示屏幕11,在显示屏幕11中,诸如液晶元件的显示像素以矩阵形式排列在基板上。显示面板10具有操作体检测单元12,该操作体检测单元12检测布置在显示屏幕11上方的操作体O,并且把检测结果提供给稍后描述的位置确定单元31。操作体检测单元12包括被布置为对应于显示像素的光传感器42B(参见图2)。背光20是被布置在显示面板10的后表面的光源,并且经由显示面板10照射显示屏幕11的前表面和上方。另外,稍后将描述显示面板10和背光20的细节。
控制单元30包括位置确定单元31、位置指定单元32、向导信息(guideinformation)生成单元33、校正信息生成单元34、位置校正单元35、以及存储单元36。选择性地在校正信息生成模式和正常操作模式之间操作控制单元30。
校正信息生成模式是这样的模式:其中,生成用于校正操作体O的三维位置确定结果的校正信息。正常操作模式是这样的模式:其中,不生成用校正信息,并且根据操作体O的三维位置进行预定处理。
位置确定单元31根据操作体检测单元12的检测结果来确定操作体O的三维位置,并且输出该三维位置作为操作体O的位置信息。位置确定单元31确定布置在显示屏幕11上方任意位置处的操作体O的三维位置,并且将该三维位置提供给位置校正单元35,以便按正常操作模式进行预定操作。在校正信息生成模式下,位置确定单元31确定根据稍后描述的向导信息G所布置的操作体O的三维位置,并且将该三维位置提供给校正信息生成单元34。
在校正信息生成模式下,位置指定单元32指定显示屏幕11上方的三维位置,并且将所指定的三维位置提供给向导信息生成单元33和校正信息生成单元34。显示屏幕11上方的三维位置由显示屏幕11上的水平位置和垂直位置指定。
在校正信息生成模式下,向导信息生成单元33生成向导信息G,并且将所生成的向导信息G提供给显示面板10。向导信息G是请求用户在所指定的三维位置周围对操作体O进行预定动作、然后将该操作体O布置在所指定三维位置处的信息。此处,使用显示在显示屏幕11上的标记、图标等指示指定的水平位置。使用在用户操作期间通常将操作体O布置在的高度来指示指定的垂直位置。
在校正信息生成模式下,校正信息生成单元34生成校正信息,并且将所生成的校正信息提供给存储单元36。生成校正信息以便消除在所指定的三维位置和根据向导信息G布置的操作体O的三维位置确定结果之间的误差,即,显示屏幕11上的水平位置和/或垂直位置的误差。
在正常操作模式下,在生成了校正信息的情况下,位置校正单元35基于该校正信息来校正操作体O的三维位置。位置校正单元35将所校正的三维位置提供给处理单元(未示出)等作为操作体O的位置信息。
存储单元36存储向导信息G或者校正信息。存储单元36至少由向导信息生成单元33、校正信息生成单元34以及位置校正单元35访问。
另外,在本实施例中,假设了在位置确定单元31的后一级提供位置校正单元35的情况,但是,位置校正单元35可以与位置确定单元31集成。在此情况下,在正常操作模式下,位置确定单元31使用校正信息与操作体O的检测结果一起确定操作体O的三维位置,并且输出该三维位置作为操作体O的位置信息。
控制单元30由硬件和/或软件构成。控制单元30包括CPU、ROM、RAM等,并且CPU将从ROM所读取的程序展开在RAM上用于执行,从而实现根据本公开的实施例的位置校正方法。
如图2中所示,显示设备具有显示面板10以及布置在显示面板10的后表面的背光20,该显示面板10包括TFT(薄膜晶体管)基板40、CF(滤色器,color filter)基板50。TFT基板40配备有在由玻璃制造的基板41上具有预定间距的多个TFT 42A和多个光传感器42B(以下也称为传感器42B)。TFT42A连接到像素电极46A,并且通过有源矩阵方法等驱动多个显示像素(像素电极46A)。传感器42B是可以将施加到半导体的PN结的光检测为电流或者电压的光检测元件,并被提供在稍后描述的不可见光透射黑部分53下方。传感器42B是例如使用硅半导体的PIN光电二极管、PDN(P掺杂的N)等。
例如,可以通过在基板41上同一层上的相同薄膜工艺来形成TFT 42A和传感器42B。另外,稍后将描述TFT 42A和传感器42B的细节。
在基板41上形成用于平坦化TFT 42A和传感器42B的不平整性的平坦化层43。形成公共电极44和多个像素电极46A以便它们在平坦化层43上经由绝缘膜45彼此相对。在它们之中,公共电极44被提供为各个显示像素的公共电极,并且各像素电极46A被分隔开并被提供用于各个显示像素。
在与像素电极46A相同的层上与稍后描述的不可见光透射黑部分53对应的区域中提供黑显示电极46B。黑显示电极46B通过驱动元件(未示出)阻挡入射到液晶层60的可见光,并且被提供为与公共电极44相对以便进行正常的黑显示。也就是说,向液晶层60施加恒定电压用于黑显示。另外,如以上所述,可以提供黑显示电极46B使得施加用于黑显示的电压;但是,可以使用公共电极44而不提供黑显示电极46B来施加电压。
CF基板50配备有周期地排列在由玻璃制造的基板51上的滤色器层52和不可见光透射黑部分53。例如,滤色器层52包括红色滤色器层52R、绿色滤色器层52G、以及蓝色滤色器层52B,这三个滤色器层52被提供为对应于各个显示像素(像素电极46A)。不可见光透射黑部分53起着用于阻挡光的黑矩阵(black matrix)的作用,并被提供以便改善显示对比度。但是,在本实施例中,不可见光透射黑部分53被配置为阻挡可见光以及透过不可见光,并且由例如与稍后描述的不可见光透射黑部分53相同的材料制造。
两个偏振片(polarizing plate)47和55以交叉Nichole棱镜状态布置。偏振片47是选择地透过从背光20侧入射的可见光的具体偏振分量以便入射到液晶层60的偏振器。偏振片55是透过与经过偏振片47的光垂直的偏振分量使得向上发射显示光的分析器。
在TFT基板40和CF基板50之间形成液晶层60,以便依据电场状态来调制经过其的光。另外,在液晶层60和TFT基板40之间以及在液晶层60和CF基板50之间分别形成校准层(未示出)。
背光20起着照射显示面板10的光源的作用,并且被布置为使其发光表面与显示屏幕11的整个表面相对。背光20发射不可见光L1以及可见光L2,如图3中所示。在背光20中,例如,不可见光源22A被提供在具有板形的光导板21的一端,并且可见光源22B被提供在光导板21的另一端。发光二极管等被用作不可见光源22A和可见光源22B。利用此配置,从不可见光源22A发射的不可见光L1和从可见光源22B发射的可见光L2经过光导板21传播,并且从TFT基板40的一个表面被获取。
不可见光L1是除了可见光L2之外的光,即,在除了人眼可见的波长范围(例如,380nm至780nm)之外的波长范围内的紫外光、红外光等。紫外光可以使用近紫外范围(300nm至380nm)内的光,并且红外光可以使用适合于Si电二极管的灵敏度的近红外范围(780nm至1100nm)内的光。但是,被提供在显示面板10的两个表面上的偏振片47和55具有可见范围内和近紫外范围内的偏振特性。因此,透射率降低,使得检测到的光量变小,因此,上述范围取决于依据像素电势而调制的图像光。另一方面,由于近红外区不具有偏振特性,所以抑制了检测到的光量的减少,从而该区域不依赖于图像光。为此原因,在使用液晶元件的情况下,其中如在本实施例中那样需要偏振片47和55,优选使用近红外光作为不可见光L1。
在显示设备中,当在公共电极44和像素电极46A之间提供等于或者大于预定阈值的驱动电压时,液晶状态由施加到液晶层60的预定电场来调制。由此,对于每个显示像素,从背光20侧经由偏振片47入射到液晶层60的可见光L2被调制,经过相应的滤色器层52,并且被发射到偏振片55的上面作为三色显示光。以此方式,在显示屏幕11上显示图像。另外,从背光20发射的入射到不可见光透射黑部分53的光被不可见光透射黑部分53阻挡,因此,显示光难以对光学特性产生不利影响。
来自背光20的可见光L2在显示屏幕11上显示图像,而来自背光20的不可见光L1经过偏振片47、TFT基板40、液晶层60和CF基板50、以及偏振片55。另外,不可见光L1经过液晶层60、滤色器层52、以及不可见光透射黑部分53而不被阻挡。
此处,如果将手指O(操作体O的一个例子)布置在显示屏幕11上方,则发射到偏振片55的上方的不可见光L1被手指O的表面散射并反射。反射光被传感器42B接收,从而获得手指O的光强度的分布信息。位置确定单元31接收该光强度的分布信息,并且计算手指O的中心坐标,由此确定手指O的位置。
图4A到4C示出操作体O的位置确定的例子。在图4A所示的例子中,作为操作体O的例子,将食指的指尖O1(第一指尖O1)和拇指的指尖O2(第二指尖O2)布置在显示屏幕11的上方。第一指尖O1被布置为使其中心位于显示在显示屏幕11上的X标记X1的上方高度h1处,并且第二指尖O2被布置为使其中心位于X标记X2的上方高度h2(>高度h1)处。高度h1被设置为这样的高度:在用户操作期间,指尖O1和O2的中心通常被布置在此高度。
操作体检测单元12检测从背光20发射的并且被第一和第二指尖O1和O2反射的光。图4B示出由与第一和第二指尖O1和O2的位置对应的传感器42B检测的光强度的一维分布。另外,以传感器42B的排列间隔单位表示图4B中的横轴。如图4B中所示,来自第一和第二指尖O1和O2的反射光束分别表示在最靠近显示屏幕11的中心处的最大强度I1和I2,并且表示其周围的强度降低。
另外,由于第一指尖O1比第二指尖O2更靠近显示屏幕11,所以来自第一指尖O1的反射光的最大强度I1大于来自第二指尖O2的反射光的最大强度I2。此处,最大强度I1和I2分别对应于来自布置在显示屏幕11上方高度h1和h2处的操作体O的反射光的强度。因此,如果在显示屏幕11中设置了统一的检测阈值It,则在比来自第二指尖O2的反射光更宽的区域中检测到来自第一指尖O1的反射光。
另外,位置确定单元31确定第一和第二指尖O1和O2的位置。图4C示出检测具有检测阈值It或更大的反射光的传感器42B的二维分布。此外,图4C中的X轴和Y轴是以传感器42B的排列间隔单位表示显示屏幕11上的位置的坐标,并且X轴和Y轴的原点被设置为显示屏幕11上的预定位置。另外,图4C中的阴影区域表示检测具有检测阈值It或更大的反射光的传感器42B的二维分布。
如图4C中所示,来自第一指尖O1的反射光由布置在显示屏幕11上的某区域中的多个传感器42B检测,并且来自第二指尖O2的反射光由布置在相对于该某区域的右上区域中的多个传感器42B检测。另外,第一指尖O1比第二指尖O2更靠近显示屏幕11,因此,来自第一指尖O1的反射光的检测区域(也称为第一指尖O1的检测区域)宽于来自第二指尖O2的反射光的检测区域(也称为第二指尖O2的检测区域)。
另外,位置确定单元31根据第一指尖O1的检测区域的中心将第一指尖O1的位置计算为(X,Y,Z)=(8,12,h1),并且根据第二指尖O2的检测区域的中心将第二指尖O2的位置计算为(X,Y,Z)=(28,6,h2)。
图5A到5C示出操作体O的位置确定中的误差的例子。在图5A中所示的例子中,按与图4A中所示情况相同的方式,第一和第二指尖O1和O2被布置在显示屏幕11的上方。但是,如图5B中所示,来自第一指尖O1的反射光被检测为处于小于图4B中所示强度的强度(最大强度I2),并且来自第二指尖O2的反射光被检测为从图4C中所示的情况向左下方偏移。
在此情况下,如图5C中所示,位置确定单元31根据第一指尖O1的检测区域的中心将第一指尖O1的位置计算为(X,Y,Z)=(8,12,h2),根据第二指尖O2的检测区域的中心将第二指尖O2的位置计算为(X,Y,Z)=(26,8,h2)。因此,第一指尖O1的位置被确定为高于原始位置,第二指尖O2的位置被确定为是相对原始位置的左下方位置。由于此原因,在确定第一和第二指尖O1和O2的位置时,出现误差。这些误差出现为取决于传感器42B的灵敏度的显示设备特有的误差,或者取决于操作方法的用户特有的误差。
2.显示设备的操作
接下来,将参照图6到16B描述根据本公开的实施例的显示设备的操作。
图6是示出根据本公开的实施例的操作过程。如图6中所示,在校正信息生成模式和正常操作模式下操作显示设备。可以由用户通过预定操作切换操作模式,或者可以根据显示设备将校正信息生成模式设置在预定频率(步骤S11)。在正常操作模式下,操作体检测单元12检测布置在显示屏幕11上方的操作体O(步骤S21)。位置确定单元31根据检测结果确定操作体O的三维位置(步骤S22),并且如果未生成校正信息(步骤S23中的“否”),则输出该三维位置作为操作体O的位置信息(步骤S25)。
另一方面,在校正信息生成模式下,位置指定单元32指定在显示屏幕11上方的三维位置(步骤S31)。向导信息生成单元33生成向导信息G,以便被显示在显示屏幕11上(步骤S32)。向导信息G是请求用户在指定的三维位置周围对操作体O进行预定动作、然后将操作体O布置在所指定的三维位置处的信息。
操作体检测单元12检测根据向导信息G布置在所指定的三维位置处的操作体O(步骤S33)。位置确定单元31根据检测结果确定操作体O的三维位置(步骤S34)。校正信息生成单元34从所指定的三维位置和根据向导信息G所布置的操作体O的三维位置之间的误差来生成校正信息(步骤S35)。将校正信息存储在存储单元36中(步骤S36)。
在正常操作模式下,如果生成了校正信息(步骤S23中的“是”),则位置校正单元35基于存储在存储单元36中的校正信息来校正操作体O的三维位置(步骤S24)。校正的三维位置被输出作为操作体O的位置信息(步骤S25)。另外,如以上所描述的,可以使用操作体O的检测结果和校正信息来确定操作体O的三维位置,并且可以将其输出作为操作体O的位置信息。
图7示出请求用户进行使指尖O1和O2相互接触的动作的向导信息G的例子。在校正信息生成模式下,将向导信息G与指定显示屏幕11上的水平位置的标记、图标等一起显示在显示屏幕11的任意位置处。向导信息G是请求用户反复进行这样的动作的信息:例如,将食指的指尖O1(第一指尖O1)和拇指的指尖O2(第二指尖O2)布置在显示屏幕11上的具体高度处,并从两个指尖O1和O2在该高度处相互分离的状态移动,然后它们在X标记上方变为相互接触。另外,显示屏幕11上方的具体高度对应于在用户操作期间通常将诸如指尖的操作体O布置在的高度h1。
如图7中所示,首先,用户根据向导信息G将第一指尖O1和第二指尖O2布置在显示屏幕11上方的高度h1处。另外,用户在维持该高度的状态下,将第一和第二指尖O1和O2从相互分离指尖的状态开始移动,并且准确地使指尖在X标记X1上方相互接触。用户重复此动作几次。此处,如稍后所描述的,假设了其中显示屏幕11上的水平位置(X,Y)=(10,12)由X标记X1指定的情况。
图8A和8B示出在指尖O1和O2相互分离的状态下操作体O的位置确定的例子。图9A和9B示出在指尖O1和O2变为相互接触的状态下操作体O的位置确定的例子。图8A和9A示出在显示屏幕11上设置的检测阈值It。另外,图8B和9B示出其中由X标记X1指示在显示屏幕11上指定的水平位置的情况。
在指尖O1和O2相互分离的状态下,如图8B中所示,将第一指尖O1布置在显示屏幕11的左下区域中,将第二指尖O2布置在显示屏幕11的右上区域中。如图8A中所示。操作体检测单元12在与第一和第二指尖O1和O2的位置对应的区域中检测具有检测阈值It或更大的反射光,并且在与指尖O1和O2的中心位置对应的区域中检测具有最大强度I1′的反射光。此处,最大强度I1′对应于来自在显示屏幕11上方高度h1+1单位处布置的操作体O的反射光的强度。另外,1个单位表示与传感器42B的垂直分辨率对应的距离。位置确定单元31将第一指尖O1的位置计算为(X,Y,Z)=(6,14,h1+1),将第二指尖O2的位置计算为(X,Y,Z)=(18,6,h1′)。位置确定单元31计算第一和第二指尖O1和O2之间的分离距离D1。
在指尖O1和O2相互接触的状态下,将第一指尖O1在右上方向上移动,将第二指尖O2在左下方向上移动。位置确定单元31将第一指尖O1的位置计算为(X,Y,Z)=(10,10,h1′),将第二指尖O2的位置计算为(X,Y,Z)=(14,10,h1′)。位置确定单元31计算第一和第二指尖O1和O2之间的分离距离D2。
操作体检测单元12响应于指尖O1和O2的移动,更新指尖O1和O2的检测结果,位置确定单元31更新指尖O1和O2的位置的确定结果。另外,在指尖O1和O2相互接触的状态下,位置确定单元31根据指尖O1和O2的位置的变化情况,得知指尖O1和O2停止移动。此处,位置确定单元31通过根据指尖O1和O2的移动连续地确定指尖O1和O2的位置,得知指尖O1和O2的移动的倾向。因此,在指尖O1和O2相互接触的状态下,位置确定单元31可以以高准确度确定指尖O1和O2的位置。
图10示出在指尖O1和O2变为相互接触的动作期间指尖O1和O2之间分离距离D的变化。指尖O1和O2之间的分离距离D对应于第一指尖O1的中心部分和第二指尖O2的中心部分之间的距离。图10示出当重复其中指尖O1和O2在相互分离的状态下变为相互接触、并在相互接触的状态下再次相互分离的动作时指尖O1和O2之间的分离距离D的时间序列变化。
分离距离D在指尖O1和O2相互接触的状态下是最小值D2。因此,例如,位置确定单元31可以基于分离距离D的变化,确定检测到在从最小值D2起的预定范围(例如,D2到1.1D2)内的分离距离的时间点,作为指尖O1和O2变为相互接触的时间点。另外,对于其中指尖O1和O2变为相互接触的每个动作,计算最小值D2,并且优选将其计算为通过重复动作所获得的平均值。另外,在从最小值D2起的预定范围内的分离距离D并不局限于操作体O的位置确定,而是可用于确定指尖O1和O2变为相互接触的状态。
图11示出基于指尖O1和O2变为相互接触的动作所获得的校正信息的例子。另外,图11中的X轴和Y轴是以传感器42B的排列间隔单位来表示显示屏幕11上的位置的坐标,并且X轴和Y轴的原点被设置为显示屏幕11上的预定位置。另外,图11中的Z轴是以传感器42B的分辨率单位表示显示屏幕11上的位置的坐标,并且Z轴的原点被设置为显示屏幕11的表面。
此处,假设在图9B所示的状态下已经确定了指尖O1和O2相互接触的状态。此时,如图9B中使用双圆圈所表示的,位置确定单元31将第一指尖O1的水平位置和第二指尖O2的水平位置之间的中间位置(X,Y)=(12,10)确定为根据向导信息G所布置的操作体O1和O2的水平位置。另外,对于其中指尖O1和O2变为相互接触的每个动作,计算该中间位置,并且优选将其计算为通过重复动作所获得的平均值。
此处,水平位置的确定结果从所指定的水平位置(X,Y)=(10,12)向上方和右方偏移了与两个传感器对应的距离。出现误差是因为例如在水平方向上不适当地调整了传感器42B的灵敏度,以及根据用户的观看方向,操作输入的位置偏离。
另外,假设已经在指尖O1和O2相互接触的状态下由与第一和第二指尖O1和O2的位置对应的传感器42B检测到光强度,如图9A中所示。在此情况下,位置确定单元31将与所检测的反射光的最大强度的平均值对应的、以便对应第一和第二指尖O1和O2的位置的高度(例如,显示屏幕11上的高度h1+1)确定为根据向导信息G所布置的操作体O1和O2的垂直位置。另外,还在指尖O1和O2相互分离的状态下而不限于指尖O1和O2变为相互接触的状态下确定操作体O1和O2的垂直位置,并且优选将其计算为其平均值。另外,对其中指尖O1和O2变为相互接触的每个动作,计算中间位置,并且优选将其计算为通过重复动作所获得的平均值。
此处,垂直位置的确定结果从所指定的垂直位置Z=h1向上方偏离了一个单位。出现误差是因为例如在垂直方向上不适当地调整了传感器42B的灵敏度,以及根据用户的观看方向,操作输入的位置偏离。
另外,如图11中所示,校正信息生成单元34根据所指定的三维位置和所确定的三维位置之间的误差生成校正信息。此处,校正信息生成单元34根据所指定的位置(X,Y,Z)=(10,12,h1)和位置确定结果(X,Y,Z)=(12,10,h1+1)之间的误差计算误差(Xd,Yd,Zd)=(+2,-2,+1)。所得到的误差表示位置确定结果从所指定的位置在水平方向上向右方和上方偏离了与两个传感器对应的距离,并且在垂直方向上向上方偏离了1个单位。
因此,校正信息生成单元34生成校正信息(Xc,Yc,Zc)=(-2,+2,-1),以消除误差。校正信息表示将操作体O的检测结果在水平方向上向左侧和下方移动与两个传感器对应的距离,并且在垂直方向上向下方移动1个单位。
图12示出基于图11中所示的校正信息的操作体O位置校正的例子。在图12中,在正常操作模式下,将作为操作体O的食指O1布置在显示屏幕11上方。位置确定单元31基于对操作体O的检测结果确定操作体O1的三维位置为例如(X,Y,Z)=(20,4,h2+1),如图4A到4C中所示。接下来,位置校正单元35基于上述校正信息(Xc,Yc,Zc)=(-2,+2,-1)将操作体O1的三维位置校正为(X,Y,Z)=(18,6,h2)。
图13A和13B示出基于指尖O1和O2相互分离的动作所获得的校正信息的例子。图13A示出请求用户进行将指尖O1和O2相互分离的动作的向导信息G,以及根据该向导信息G进行的动作。图13B示出基于图13A中所示的动作获得的校正信息。
如图13A中所示,用户根据向导信息G将食指的指尖O1(第一指尖O1)和拇指的指尖O2(第二指尖O2)布置在显示屏幕11的上方高度h1处。另外,在维持该高度的状态下,用户从准确地使指尖在X标记X1上方相互接触的状态移动第一和第二指尖O1和O2,然后将指尖从X标记X1统一地相互分离。此处,假设由X标记X1指定显示屏幕11上的水平位置(X,Y)=(10,12)的情况。另外,假设将第一和第二指尖O1和O2维持在垂直位置Z=h1处的情况。此外,在不将指尖O1和O2维持在垂直位置Z=h1的情况下,按与图11中所示情况相同的方式生成对于垂直位置的校正信息。
操作体检测单元12响应于指尖O1和O2的移动,更新指尖O1和O2的检测结果,位置确定单元31更新指尖O1和O2的位置的确定结果。另外,在指尖O1和O2相互分离的状态下,位置确定单元31根据指尖O1和O2的位置变化情况,得知指尖O1和O2停止移动。此处,位置确定单元31通过根据指尖O1和O2的移动连续地确定指尖O1和O2的位置,得知指尖O1和O2的移动倾向。因此,在指尖O1和O2相互分离的状态下,位置确定单元31可以准确地确定指尖O1和O2的位置。
如图13B中所示,首先,在指尖O1和O2相互分离的状态下,位置确定单元31将第一指尖O1的位置计算为(X,Y,Z)=(6,14,h1),将第二指尖O2的位置计算为(X,Y,Z)=(18,6,h1)。接下来,位置确定单元31将第一指尖O1的水平位置和第二指尖O2的水平位置之间的中间位置(X,Y)=(12,10)确定为根据向导信息G所布置的操作体O的位置。
另外,校正信息生成单元34根据指定位置(X,Y,Z)=(10,12,h1)和位置确定结果(X,Y,Z)=(12,10,h1)之间的误差计算误差(Xd,Yd,Zd)=(+2,-2,0)。校正信息生成单元34生成校正信息(Xc,Yc,Zc)=(-2,+2,0),以消除误差。
图14A和14B示出基于指尖O1的水平移动和停止动作所获得的校正信息的例子。图14A示出请求用户进行水平地移动指尖O1、然后停止的动作的向导信息G,以及根据该向导信息G进行的动作。图14B示出基于图14A中所示的动作获得的校正信息。
如图14A中所示,用户根据向导信息G将食指的指尖O1(第一指尖O1)布置在显示屏幕11上方高度h1处。另外,在维持该高度的状态下,用户水平地移动第一指尖O1,然后在X标记X1上方准确地停止第一指尖O1。此处,假设由X标记X1指定显示屏幕11上的水平位置(X,Y)=(10,12)的情况。另外,假设将第一指尖O1维持在垂直位置Z=h1的情况。此外,在不将指尖O1维持在垂直位置Z=h1的情况下,按与图11中所示情况相同的方式生成对于垂直位置的校正信息。
操作体检测单元12响应于指尖O1的移动,更新指尖O1的检测结果,位置确定单元31更新指尖O1的位置的确定结果。另外,在停止指尖O1的情况下,位置确定单元31根据指尖O1的位置的变化情况,得知指尖O1停止移动。此处,位置确定单元31通过根据指尖O1的移动连续地确定指尖O1的位置,得知指尖O1的移动倾向。因此,在停止指尖O1的状态下,位置确定单元31可以准确地确定指尖O1的位置。
如图14B中所示,首先,在停止指尖O1的状态下,校正信息生成单元34将第一指尖O1的位置计算为(X,Y,Z)=(12,10,h1),并且将其确定为根据向导信息G布置的操作体O1的位置。另外,校正信息生成单元34还根据指定位置(X,Y,Z)=(10,12,h1)和位置确定结果(X,Y,Z)=(12,10,h1)之间的误差来计算误差(Xd,Yd,Zd)=(+2,-2,0)。校正信息生成单元34生成校正信息(Xc,Yc,Zc)=(-2,+2,0),以便消除误差。
图15A和15B示出基于指尖O1的垂直移动和停止动作所获得的校正信息的例子。图15A示出请求用户进行垂直移动指尖O1然后停止的动作的向导信息G,以及根据向导信息G进行的动作。图15B示出基于图15A中所示的动作获得的校正信息。
如图15A中所示,首先,例如,用户根据向导信息G将食指的指尖O1(第一指尖O1)布置在X标记X1上方。另外,在维持水平位置的状态下,用户垂直移动第一指尖O1,然后将第一指尖O1准确地停止在高度h1处。此处,假设由X标记X1指定显示屏幕11上的水平位置(X,Y)=(10,12)、并且第一指尖O1被维持在水平位置(X,Y)=(10,12)的情况。另外,在不将第一指尖O1维持在水平位置(X,Y)=(10,12)的情况下,按与图11中所示情况相同的方式生成对于水平位置的校正信息。
操作体检测单元12响应于指尖O1的移动,更新指尖O1的检测结果,并且位置确定单元31更新指尖O1的位置的确定结果。另外,在停止指尖O1的情况下,位置确定单元31根据指尖O1的位置的变化情况,得知指尖O1停止移动。此处,位置确定单元31通过根据指尖O1的移动连续地确定指尖O1的位置,得知指尖O1的移动倾向。因此,在指尖O1停止的情况下,位置确定单元31可以以高准确度确定指尖O1的位置。
首先,在停止指尖O1的状态下,校正信息生成单元34根据传感器42B的最大强度I1′将第一指尖O1的位置计算为(X,Y,Z)=(10,12,h1+1),并且将其确定为根据向导信息G布置的操作体O1的位置。另外,校正信息生成单元34根据指定位置(X,Y,Z)=(10,12,h1)和位置确定结果(X,Y,Z)=(10,12,h1+1)之间的误差计算误差(Xd,Yd,Zd)=(0,0,+1)。校正信息生成单元34生成校正信息(Xc,Yc,Zc)=(0,0,-1),以便消除误差。
另外,位置确定的结果并不局限于操作体O的位置确定,也可以用于用户操作期间设置指尖O1的中心通常被布置在的高度或者指尖O1的中心通常被布置在的高度的上限和/或下限。
图16A和16B示出基于垂直移动操作体O、然后将其停止在显示屏幕11上的多个位置处的动作所获得的校正信息的例子。图16A示出请求用户进行垂直移动指尖O1、然后停止在显示屏幕11上的多个位置处的动作的向导信息G,以及根据向导信息G进行的动作。图16B示出基于图16A中所示的动作所获得的校正信息。
如图16A中所示,例如,将显示屏幕11上的区域划分为左部分和右部分两个区域。首先,例如,用户根据向导信息G在第一区域中的X标记X1上方垂直移动食指的指尖O1(第一指尖O1),然后将指尖O1准确地停止在高度h1处。接下来,用户在第二区域中的X标记X2上方垂直移动第一指尖O1,然后将指尖O1准确地停止在高度h1处。此处,假设显示屏幕11上的水平位置(X,Y)=(6,10)和(X,Y)=(26,10)分别由第一和第二区域中的X标记X1和X标记X2指定、并且第一指尖O1被维持在水平位置(X,Y)=(6,10)和(X,Y)=(26,10)的情况。
如图16B中所示,传感器42B在与第一指尖O1的位置对应的区域中检测具有检测阈值It或更大的反射光,并且在与指尖O1的中心部分的位置对应的区域中检测具有最大强度It′的反射光。首先,在第一区域中,位置确定单元31将第一指尖O1的位置计算为(X,Y,Z)=(6,10,h1+1),在第二区域中,位置确定单元31将第一指尖O1的位置计算为(X,Y,Z)=(26,10,h1)。
另外,例如,关于第一区域,校正信息生成单元34根据位置确定结果(X,Y,Z)=(6,10,h1+1)和第一区域中的指定位置(X,Y,Z)=(6,10,h1)之间的误差计算误差(Xd,Yd,Zd)=(0,0,+1)。校正信息生成单元34生成校正信息(Xc,Yc,Zc)=(0,0,-1),以便消除误差。因此,确定传感器42B的灵敏度在第一区域中低,因此根据校正信息校正在第一区域上方检测到的操作体O的垂直位置。
另一方面,例如,关于第二区域,由于位置确定的结果(X,Y,Z)=(26,10,h1)对应于指定位置(X,Y,Z)=(26,10,h1),所以校正信息生成单元34计算第二区域中的误差(Xd,Yd,Zd)=(0,0,0)。在第二区域中,校正信息生成单元34生成校正信息为(Xc,Yc,Zc)=(0,0,0)。因此,确定在第二区域中,适当地调整了传感器42B的灵敏度,因此不校正在第二区域上方检测到的操作体O的垂直位置。
尽管已经参照图16A和16B描述了将显示屏幕11划分为左部分和右部分两个区域的情况,但是可以将显示屏幕11划分为左部分和右部分的3个或更多区域和/或上部分和下部分的两个区域。在此情况下,对于每一区域生成和存储校正信息,因此可以根据关于检测到操作体O的区域的校正信息来校正操作体O的垂直位置。
3.结论
如上所述,在根据本公开的实施例的显示设备和位置校正方法中,经由显示屏幕11检测布置在显示屏幕11上方的操作体O,并且根据检测结果确定操作体O的三维位置,并且将其输出作为操作体O的位置信息。另外,指定在显示屏幕11上方的一个三维位置,并且生成请求用户在指定的三维位置周围对于操作体O进行动作并将操作体O布置在所指定三维位置处的向导信息G,以便显示在显示屏幕11上。另外,根据指定的三维位置和根据向导信息G布置的操作体O的三维位置的确定结果之间的误差,生成校正信息,并且基于该校正信息校正操作体O的三维位置。于是,能够容易地校正在显示屏幕11上方检测到的操作体O的三维位置。
这样,尽管已经参照附图描述了本公开的优选实施例,但是本公开不限于该实施例。显然本领域技术人员可以构思在权利要求中所公开的技术精神的范围内的各种修改或者变更,并且理解它们无疑属于本公开的技术范围。
例如,在以上的描述中,描述了将操作体O的位置规定为传感器42B的排列间隔的整数倍的值的情况。然而,可以使用检测来自操作体O的具有检测阈值It或更大的反射光的多个传感器42B作为中心位置,并且可以将操作体O的位置规定为传感器42B的排列间隔的实数倍的值。在此情况下,校正信息也被生成为传感器42B的排列间隔的实数倍的值。
另外,尽管在以上的描述中描述了将食指O1和拇指O2、或者将食指O1用作操作体O的例子的情况,但是也可以使用其它手指。另外,代替手指,可以使用诸如铁笔的定点设备。
另外,尽管在以上的描述中描述了将向导信息G显示在显示屏幕上的情况,但是可以将多段向导信息G中的除了指定水平位置的标记之外的信息的通知作为声音信息发送给用户。
本公开包含与2010年11月2日在日本专利局提交的日本优先权专利申请JP 2010-246738中所公开的主题相关的主题,其全部内容通过参考合并于此。
本领域中技术人员应当理解,取决于设计要求和其它因素,可以发生各种修改、组合、子组合以及变更,只要其在所附权利要求或者其等效物的范围内即可。

Claims (8)

1.一种显示设备,包括:
操作体检测单元,其经由显示屏幕检测布置在显示屏幕上方的操作体;
位置确定单元,其根据检测结果确定操作体的三维位置,并且输出该三维位置作为操作体的位置信息;
位置指定单元,其指定显示屏幕上方的三维位置;
向导信息生成单元,其生成请求用户在所指定的三维位置周围对操作体进行预定动作、然后将该操作体布置在所指定的三维位置处的向导信息,以便显示在显示屏幕上;
校正信息生成单元,其根据在所指定的三维位置和根据向导信息所布置的操作体的三维位置确定结果之间的误差,生成校正信息;以及
位置校正单元,其基于校正信息来校正操作体的三维位置。
2.根据权利要求1所述的显示设备,其中,预定动作是在两个指尖维持在指定的垂直位置的状态下、两个指尖从指尖相互分离的状态变为在指定的水平位置处相互接触的动作。
3.根据权利要求1所述的显示设备,其中,预定动作是在两个指尖维持在指定的垂直位置的状态下、两个指尖从指尖相互接触的状态相对于指定的水平位置相互分离的动作。
4.根据权利要求1所述的显示设备,其中,预定动作是在操作体维持在指定的垂直位置的状态下水平移动操作体、然后将其停止在指定的水平位置处的动作。
5.根据权利要求1所述的显示设备,其中,预定动作是在操作体维持在指定的水平位置的状态下垂直移动操作体、然后将其停止在指定的垂直位置处的动作。
6.根据权利要求1所述的显示设备,其中,校正信息生成单元多次基于布置在指定的三维位置处的操作体的三维位置确定结果来生成校正信息。
7.一种位置校正方法,包括:
经由显示屏幕检测布置在显示屏幕上方的操作体;
根据检测结果确定操作体的三维位置,并且输出该三维位置作为操作体的位置信息;
指定显示屏幕上方的三维位置;
生成请求用户在所指定的三维位置周围对操作体进行预定动作、然后将操作体布置在所指定的三维位置处的向导信息,以便显示在显示屏幕上;
根据在所指定的三维位置和根据向导信息所布置的操作体的三维位置确定结果之间的误差,生成校正信息;以及
基于该校正信息校正操作体的三维位置。
8.一种使计算机能够执行位置校正方法的程序,所述方法包括:
经由显示屏幕检测布置在显示屏幕上方的操作体;
根据检测结果确定操作体的三维位置,并且输出该三维位置作为操作体的位置信息;
指定显示屏幕上方的三维位置;
生成请求用户在所指定的三维位置周围对操作体进行预定动作、然后将操作体布置在所指定的三维位置处的向导信息,以便显示在显示屏幕上;
根据在所指定的三维位置和根据向导信息所布置的操作体的三维位置确定结果之间的误差,生成校正信息;以及
基于该校正信息校正操作体的三维位置。
CN201110328549.XA 2010-11-02 2011-10-26 显示设备、位置校正方法以及程序 Active CN102591513B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010246738A JP5494423B2 (ja) 2010-11-02 2010-11-02 表示装置、位置補正方法およびプログラム
JP2010-246738 2010-11-02
JPJP2010-246738 2010-11-02

Publications (2)

Publication Number Publication Date
CN102591513A true CN102591513A (zh) 2012-07-18
CN102591513B CN102591513B (zh) 2016-06-08

Family

ID=45996148

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201110328549.XA Active CN102591513B (zh) 2010-11-02 2011-10-26 显示设备、位置校正方法以及程序

Country Status (3)

Country Link
US (2) US8614696B2 (zh)
JP (1) JP5494423B2 (zh)
CN (1) CN102591513B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103558915A (zh) * 2013-11-01 2014-02-05 王洪亮 人体耦合智能信息输入系统及方法
CN106029415A (zh) * 2013-12-27 2016-10-12 本田技研工业株式会社 调光控制装置
CN106068489A (zh) * 2014-12-26 2016-11-02 株式会社尼康 检测装置及程序

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2989483B1 (fr) 2012-04-11 2014-05-09 Commissariat Energie Atomique Dispositif d'interface utilisateur a electrodes transparentes
FR2982722B3 (fr) * 2012-06-20 2014-03-14 Samsung Electronics Co Ltd Dispositif d'affichage, dispositif de commande a distance et fonction de commande connexe
FR2995419B1 (fr) 2012-09-12 2015-12-11 Commissariat Energie Atomique Systeme d'interface utilisateur sans contact
FR2996933B1 (fr) 2012-10-15 2016-01-01 Isorg Appareil portable a ecran d'affichage et dispositif d'interface utilisateur
JP6221332B2 (ja) * 2013-05-02 2017-11-01 船井電機株式会社 操作装置及び情報処理装置
JP2016066254A (ja) * 2014-09-25 2016-04-28 シャープ株式会社 タッチ検出装置を備えた電子装置
JP6520918B2 (ja) * 2014-12-26 2019-05-29 株式会社ニコン 制御装置、電子機器、制御方法およびプログラム
US10359883B2 (en) 2014-12-26 2019-07-23 Nikon Corporation Detection device, electronic apparatus, detection method and program
WO2018003862A1 (ja) 2016-06-28 2018-01-04 株式会社ニコン 制御装置、表示装置、プログラムおよび検出方法
JP6658809B2 (ja) * 2018-07-04 2020-03-04 株式会社ニコン 検出装置、電子機器、検出方法およびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2254228A (en) * 1991-03-12 1992-09-30 Matsushita Electric Ind Co Ltd Three-dimensional information handling system
CN1694056A (zh) * 2004-05-06 2005-11-09 阿尔派株式会社 操作输入装置及操作输入方法
US20080049553A1 (en) * 2006-08-28 2008-02-28 Anil Chopra Method and apparatus for seismic data interpretation using 3D overall view
JP2010244422A (ja) * 2009-04-08 2010-10-28 Toshiba Tec Corp 情報表示装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10171588A (ja) * 1996-12-06 1998-06-26 Fuji Xerox Co Ltd ペン入力装置及び該装置におけるキャリブレーション方法
JP2003085590A (ja) 2001-09-13 2003-03-20 Nippon Telegr & Teleph Corp <Ntt> 3次元情報操作方法およびその装置,3次元情報操作プログラムならびにそのプログラムの記録媒体
JP4609557B2 (ja) 2008-08-29 2011-01-12 ソニー株式会社 情報処理装置及び情報処理方法
JP2010108255A (ja) 2008-10-30 2010-05-13 Denso Corp 車載操作システム
JP5098994B2 (ja) 2008-12-19 2012-12-12 富士通モバイルコミュニケーションズ株式会社 入力装置
JP4544482B1 (ja) * 2009-07-01 2010-09-15 大日本印刷株式会社 情報処理システム及びそのプログラム
US8514255B2 (en) * 2009-08-31 2013-08-20 Namco Bandai Games Inc. Information storage medium, image control device, and image control method
JP5703644B2 (ja) * 2010-09-13 2015-04-22 セイコーエプソン株式会社 光学式検出システム、電子機器

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2254228A (en) * 1991-03-12 1992-09-30 Matsushita Electric Ind Co Ltd Three-dimensional information handling system
CN1694056A (zh) * 2004-05-06 2005-11-09 阿尔派株式会社 操作输入装置及操作输入方法
US20080049553A1 (en) * 2006-08-28 2008-02-28 Anil Chopra Method and apparatus for seismic data interpretation using 3D overall view
JP2010244422A (ja) * 2009-04-08 2010-10-28 Toshiba Tec Corp 情報表示装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103558915A (zh) * 2013-11-01 2014-02-05 王洪亮 人体耦合智能信息输入系统及方法
CN106029415A (zh) * 2013-12-27 2016-10-12 本田技研工业株式会社 调光控制装置
US9707830B2 (en) 2013-12-27 2017-07-18 Honda Motor Co., Ltd. Dimming control device
CN106029415B (zh) * 2013-12-27 2018-01-12 本田技研工业株式会社 调光控制装置
CN106068489A (zh) * 2014-12-26 2016-11-02 株式会社尼康 检测装置及程序
CN106068489B (zh) * 2014-12-26 2021-03-19 株式会社尼康 检测装置及程序
US11137857B2 (en) 2014-12-26 2021-10-05 Nikon Corporation Detection device and program

Also Published As

Publication number Publication date
JP5494423B2 (ja) 2014-05-14
JP2012098959A (ja) 2012-05-24
US9323387B2 (en) 2016-04-26
US20140078114A1 (en) 2014-03-20
US20120105382A1 (en) 2012-05-03
US8614696B2 (en) 2013-12-24
CN102591513B (zh) 2016-06-08

Similar Documents

Publication Publication Date Title
CN102591513A (zh) 显示设备、位置校正方法以及程序
JP5528739B2 (ja) 検出装置、表示装置、および物体の近接距離測定方法
TWI491246B (zh) 立體影像顯示器件,物件近接偵測器件及電子裝置
JP4834482B2 (ja) 表示装置
US9354748B2 (en) Optical stylus interaction
US20130147743A1 (en) Spherical Touch Sensors and Signal/Power Architectures for Trackballs, Globes, Displays, and Other Applications
CN105786276B (zh) 圆形轮廓单层图案
US20110221997A1 (en) Method of Detecting Touch Position, Touch Position Detecting Apparatus for Performing the Method and Display Apparatus Having the Touch Position Detecting Apparatus
US8872778B2 (en) Apparatus with correlated emitter-detector pairs
CN104007869A (zh) 具有集成式触摸屏的显示装置
US8492719B2 (en) Optical position detection device and equipment with position detection function
WO2011102038A1 (ja) タッチパネル付き表示装置およびその制御方法、並びに制御プログラムおよび記録媒体
US8749524B2 (en) Apparatus with position detection function
US10725347B2 (en) Array substrate and display device
CN105353904B (zh) 互动显示系统及其触控互动遥控器和互动触控方法
JP2022528806A (ja) 指紋検出機能付き電子機器
JP2020510897A (ja) スイッチング要素による容量性ベースラインシフトの低減
US20150220167A1 (en) Digitizer using position-unique optical signals
US20180267671A1 (en) Touch screen system and method for driving the same
KR101276924B1 (ko) 위치 검출 기능을 갖는 투사형 투영 장치
CN107272969B (zh) 使用非整数激励的电容性感测
CN103649879A (zh) 使用位置唯一性光学信号的数字化仪
TW201546668A (zh) 顯示器上位置輸入技術
WO2011121842A1 (ja) 入力部付き表示装置およびその制御方法、並びに制御プログラムおよび記録媒体
JP5796648B2 (ja) 情報処理装置、情報処理方法および情報処理システム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant