CN102411438A - 输入装置 - Google Patents

输入装置 Download PDF

Info

Publication number
CN102411438A
CN102411438A CN2011102851476A CN201110285147A CN102411438A CN 102411438 A CN102411438 A CN 102411438A CN 2011102851476 A CN2011102851476 A CN 2011102851476A CN 201110285147 A CN201110285147 A CN 201110285147A CN 102411438 A CN102411438 A CN 102411438A
Authority
CN
China
Prior art keywords
user
display
unit
detecting unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2011102851476A
Other languages
English (en)
Inventor
平井卓哉
饭阪笃
山下敦士
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Godo Kaisha IP Bridge 1
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Publication of CN102411438A publication Critical patent/CN102411438A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • B60R11/0229Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for displays, e.g. cathodic tubes
    • B60R11/0235Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for displays, e.g. cathodic tubes of flat type, e.g. LCD
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Digital Computer Display Output (AREA)

Abstract

将操作触摸垫(4)设置在用户的手的附近。在显示器(2)上,显示有一个或多个GUI部分(3),用于让所述用户输入所期望的指令或信息。当所述用户用手(6)触摸所述触摸垫(4)以选择所述GUI部分(3)时,所述触摸垫(4)输出指示所述手(6)所接触的区域的接触位置数据。根据所述触摸垫(4)输出的所述接触位置数据,生成手形状模型的图像(7),并将其显示在所述显示器(2)上。根据显示在显示器(2)上的图像(7),所述用户移动手(6)从而使所述模型的指尖可以放在所期望的GUI部分(3)上,然后,按压所述触摸垫(4)。

Description

输入装置
本申请是申请日为2005年8月9日,题为“输入装置”,申请号为200580029654.6的专利申请的分案申请。
发明领域
本发明涉及一种让用户将指令或信息输入到设备的输入装置,更具体地说,涉及让用户可以基于在显示器等上面显示的信息通过使用诸如手之类的身体部位输入指令或信息的输入装置。
技术背景
触摸板显示器是让用户基于在显示器等显示屏上面显示的信息而通过使用他/她的手指等输入指令或信息的传统输入装置的一个实例。触摸板显示器采用的结构是:在显示器的显示屏上设置有触摸板。在屏幕上显示的GUI(图形用户界面)包括以菜单和按钮开关为代表的显示部分(后面称之为GUI部分)。通过触摸所期望的GUI部分,用户可以输入与GUI部分相关联的指令或信息。如上所述,通过使用触摸板显示器,可以容易并直观地输入指令或信息,从而可以实现一种使对输入操作不熟悉的人较为容易地操作的输入界面。由此,触摸板显示器广泛地应用于银行的ATM(自动柜员机)和汽车导航系统。
另一方面,让用户可以不通过触摸诸如触摸板显示器之类的显示屏而通过使用远离显示屏的操作单元进行输入的输入界面的实例包括触摸跟踪器和书写板,其通常用作PC(个人电脑)的输入装置(例如,参阅专利文献1)。在这些输入界面上,诸如箭头形状之类的指针显示在显示屏上,当用户移动他/她的手指或笔,并使其接触操作单元上提供的预定操作表面时,屏幕上的指针响应于该移动而移动。通过在确认指针已经移到所期望的GUI部分后执行预定的输入操作(例如,点击操作),用户可以输入与GUI部分相关联的指令或信息。
此外,在用户不直接触摸诸如触摸板显示器和书写板之类的操作表面的情况下,输入界面也是可用的,此时通过使用摄像机而检测到用户的手等的移动,并且,在屏幕上显示的指针响应于该移动而移动(例如,参见专利文献2)。在这种情况下,当用户在摄像机的视野内朝着他/她想要移动屏幕上显示的指针的方向在空中移动他/她的手时,屏幕上的指针响应于该移动而移动。通过在确认指针已经移到所期望的GUI部分后执行预定的输入操作(例如,握拳),用户可以输入与GUI部分相关联的指令或信息。
[专利文献1]日本专利公开申请No.H11-3169
[专利文献2]日本专利公开申请No.2000-181601
发明内容
本发明要解决的问题
但是,如上所述的传统界面存在以下缺陷:
在触摸板显示器中,由于通过直接触摸显示屏进行输入,因此对于显示屏的安装位置会出现两难局面。
对于使用他/她的手指触摸所述触摸板显示器的用户来说,需要将显示屏安装在他/她的附近。人机工程学提供了与VDT(视频显示终端)的操作相关联的输入界面的最佳安装条件,并确定了有利的距离是以人体为中心半径50厘米或更少的范围内。
另一方面,存在需要尽可能远地安装显示屏的情况。这种实例包括安装在室内的大屏幕电视和安装在汽车内的汽车导航系统。让眼睛从约30厘米的短距离去看电视是不合理的。对于在驾驶过程中使用的汽车导航系统来说,据报道,驾驶员的视线的焦距需要调整的时间会妨碍对驾驶的注意力。也就是说,在驾驶过程中的焦距(前面几米)和看到汽车导航系统的显示屏的焦距之间的差别越小,安全性就越高。当以使用镜头或镜子的HUD(平视显示器)为代表的远焦显示器作为显示装置时,可以增加看到显示屏时的焦距,因为用户不能触摸该远焦显示器的显示屏,所以,触摸板不能得到应用。
此外,触摸板显示器存在一个固有的问题,即,用户的输入操作时在显示屏上留下的指印会降低显示器的可视度。
另一方面,对于触摸跟踪器和书写板来说,因为显示屏和操作单元是分开的,所以,可以将显示屏放在远处而将操作单元放在近处。由于用户从不触摸屏幕,所以也不用担心指印会留在屏幕上。
但是,对于显示屏和操作单元分开的输入界面,由于需要在操作单元的操作表面上滑动手指或笔以移动屏幕上显示的指针,因此,与触摸显示面板不同的是,单次触摸无法选择到所期望的GUI部分。也就是说,因为在确认指针的当前位置之后,需要通过在操作表面上滑动手指,以把指针移到所期望的GUI部分上,所以,实现像使用触摸板显示器一样的快速输入是困难的。如上所述,显示屏和操作表面分开的输入界面在可操作性上次于触摸板显示器,因为,在输入界面上不可能实现像使用触摸板显示器一样的直观输入。
对于如上所述的使用摄像机检测手的移动的方法,实现像使用触摸板显示器一样的快速输入也是困难的,因为需要通过移动空中的手而把指针移到所期望的GUI部分上,例如触摸跟踪器和书写板的实例。此外,用户需要在空中移动手,这会导致疲劳。
当如上所述使用摄像机时,要考虑的是,检测到的不是手指的“移动(即,相对的位置改变)”而是用户的手指的方位,并根据该方位而检测到用户指向显示屏上的“位置”。但是,当用户指向远方目标时,因为眼睛的位置造成的视差影响,用户想要指向的目标正好位于用户指向的位置是很罕见的。因此,不能够仅根据手指的方位来准确地识别用户所指向的显示屏上的位置。此外,因为用户需要在空中移动他/她的手,所以,手的位置是不稳定的,因此,输入的准确性较低。
因此,本发明的目的是提供一种即使显示屏和操作单元是分开的情况下也能够直觉地并准确地进行输入的输入装置。
问题的解决方案
为了达到以上目的,本发明采用了以下结构。圆括号内的参考字符、附图数字以及辅助解释对应于用于帮助理解本发明的附图,其并不限制本发明的范围。
本发明的第一方面是提供了一种输入装置,其包括:检测单元(4,100),其具有操作表面,检测在所述操作表面上与所述用户的身体部位(6)相接触或接近的区域,并输出指示所述区域的接触位置数据(150A,150B);操作内容确定单元(500),基于所述接触位置数据,检测所述用户的特定输入操作(按压操作等);身体位置显示单元(600),基于所述接触位置数据,形成接触区域图像(图10B、图11B、图12B、图13B、图14B的103、图15B的104、图1的7),其对应于所述用户的身体部位在所述检测单元的操作表面上相接触或接近的所述区域;显示信息产生单元(700),产生便于所述用户执行操作的显示图像;图像组合单元(800),将由所述身体位置显示单元形成的所述接触区域图像和由所述显示信息产生单元产生的所述显示图像相互组合;以及,显示单元(2,200),显示由所述图像组合单元通过组合所获得的所述图像。
本发明的第二方面是根据第一方面的一个方面,其中,所述检测单元是接触式坐标输入装置(例如,触摸板或触摸垫)。
本发明的第三方面是根据第一方面的一个方面,其中,所述检测单元包括沿着所述操作表面排列的多个电容传感器(101)(图3)。因此,根据所述电容传感器的设置,不仅可以检测到所述用户的接触而且还可以检测到所述用户的身体部位的接近,因此,所述用户可以轻松地执行所述输入操作,并且,可以通过所述显示单元确定出接近时的条件。
本发明的第四方面是根据第三方面的一个方面,其中,所述身体位置显示单元形成由与所述检测单元的电容传感器相对应的圆点组成的接触区域图像(图10B)。这减轻了形成所述接触区域图像的处理负担。此外,因为知道了哪些电容传感器检测到所述用户的身体部位的接触,所以,可以使输入操作更精细和准确。
本发明的第五方面是根据第三方面的一个方面,其中,所述身体位置显示单元形成的接触区域图像(图11B)包括与所述检测单元的所述电容传感器相对应的圆点中近似形成一个图形的邻接圆点。这使得所述用户能够直观地获知所述接触区域的形状,这几乎不会导致什么不舒适感。
本发明的第六方面是根据第一方面的一个方面,其中,所述检测单元包括沿着所述操作表面排列的多个压力传感器(102)(图4)。当检测时,基于所述压力传感器的检测值,能够容易地分辨出诸如触摸、轻按和强按之类的输入操作,从而可以使所述用户易于执行各种输入操作。
本发明的第七方面是根据第六方面的一个方面,其中,所述接触位置数据包括由所述检测单元的压力传感器(150B)检测的压力值,以及,所述身体位置显示单元基于所述接触位置数据,形成与所述检测单元的压力传感器检测到的所述压力值相对应的接触区域图像。因此,可以将应用于所述操作表面的每个点的压力度数呈现给所述用户。
本发明的第八方面是根据第七方面的一个方面,其中,由所述身体位置显示单元形成的接触区域图像的部分的颜色根据所述检测单元的压力传感器检测到的所述压力值而变化(图12B、图13B)。因此,可以将应用于所述操作表面的每个点的具有颜色的压力度数呈现给所述用户。
本发明的第九方面是根据第一方面的一个方面,其还具有遮盖单元(图9,130),其遮盖所述检测单元的操作表面。因此,可以避免由物体落到所述检测单元的操作表面上而导致的故障。
本发明的第十方面是根据第一方面的一个方面,其中,所述身体位置显示单元基于先前保存的身体形状图案(图14A的103、图15A的104)和从所述检测单元输出的所述接触位置数据,对所述检测单元的操作表面上的所述用户身体部位的形状进行建模,并形成由所述建模结果获得的身体形状模型(图14A的103、图15A的104)的图像(7),作为所述接触区域图像。因此,由于位于所述检测单元操作表面上的所述用户的手的形状显示在所述显示单元上,因此使进行像直接触摸屏幕一样的输入操作成为可能。
本发明的第十一方面是根据第十方面的一个方面,其中,所述身体位置显示单元基于从所述检测单元输出的所述接触位置数据,执行校准处理,以获取所述用户的身体部位的特征(每个手指的长度等),并基于所述校准处理的结果对所述用户身体部位的形状进行建模。因此,使进行更加精确的建模成为了可能。
本发明的第十二方面是根据第十方面的一个方面,其还具有在所述检测单元附近的诸如红外传感器之类的非接触式位置检测传感器(110)(图16)。因此,使进行更加精确的建模成为了可能。
本发明的第十三方面是根据第十方面的一个方面,其中,所述图像组合单元仅将所述身体形状模型的轮廓与由所述显示信息产生单元产生的所述显示图像相组合(图23B)。因此,可以避免这样一种情况,即,由于显示所述身体形状模型而隐藏所述显示信息。
本发明的第十四方面是根据第十方面的一个方面,其中,当由所述身体位置显示单元形成的所述接触区域图像和由所述身体信息产生单元形成的所述显示图像相互组合时,所述图像组合单元改变所述身体形状模型的透明度(图23C)。因此,可以避免这样一种情况,即,由于显示所述身体形状模型而隐藏所述显示信息。
本发明的第十五方面是根据第十方面的一个方面,其中,当由所述身体位置显示单元形成的所述接触区域图像和由所述身体信息产生单元形成的所述显示图像相互组合时,所述图像组合单元突出所述身体形状模型的轮廓(图23C)。因此,可以清楚地显示所述身体形状模型。
本发明的第十六方面是根据第十方面的一个方面,其中,当由所述身体位置显示单元形成的所述接触区域图像和由所述身体信息产生单元形成的所述显示图像相互组合时,所述图像组合单元突出所述身体形状模型的指尖部分(图23D)。因此,可以以容易观看的方式,将与所述输入操作有较大关联的所述指尖部分的当前位置呈现给所述用户,从而提高可操作性。
本发明的第十七方面是根据第十六方面的一个方面,其中,所述检测单元包括由沿着所述操作表面排列的多个电容传感器(101)或压力传感器(102)组成的传感器组,以及,当由所述身体位置显示单元形成的所述接触区域图像和由所述身体信息产生单元形成的所述显示图像相互组合时,所述图像组合单元通过使用由与所述传感器组的传感器相对应的圆点组成的图像(图10B、图12B)来突出所述身体形状模型的指尖部分。因此,由于知道了哪些传感器检测到所述用户的身体部位的接触,所以,使输入操作更精细和准确成为了可能。
本发明的第十八方面是根据第十六方面的一个方面,其中,所述检测单元包括由沿着所述操作表面排列的多个电容传感器或压力传感器组成的传感器组,以及,当由所述身体位置显示单元形成的所述接触区域图像和由所述身体信息产生单元形成的所述显示图像相互组合时,所述图像组合单元通过使用由与所述传感器组的传感器相对应的圆点中近似形成一个图形的邻接圆点所组成的图像(图11B、图13B)来突出所述身体形状模型的指尖部分。因此,可以显示具有较小不自然度的平滑接触区域图像。
本发明的第十九方面是根据第十方面的一个方面,其中,当由所述身体位置显示单元形成的接触区域图像和由所述身体信息产生单元形成的所述显示图像相互组合时,所述图像组合单元将被所述身体形状模型所隐藏的所述显示图像中的显示信息弹出显示在未被所述身体形状模型所隐藏的区域中(图23F)。这也能够使所述用户确认出由于显示所述身体形状模型而隐藏的所述显示信息。
本发明的第二十方面是根据第十方面的一个方面,其中,当由所述身体位置显示单元形成的所述接触区域图像和由所述身体信息产生单元形成的所述显示图像相互组合时,所述图像组合单元将被所述身体形状模型隐藏的所述显示图像中的显示信息显示在所述身体形状模型的前面(图23G)。这也能够使所述用户确认出由于显示所述身体形状模型而隐藏的所述显示信息。
本发明的第二十一方面是根据第十方面的一个方面,其中,当由所述身体位置显示单元形成的所述接触区域图像和由所述身体信息产生单元形成的所述显示图像相互组合时,所述图像组合单元突出与所述身体形状模型的指尖部分相交迭的所述显示图像中的显示信息(图23H)。这能够使所述用户容易地确认出哪个显示信息与他/她的指尖位置相对应。
本发明的第二十二方面是根据第二十一方面的一个方面,其中,所述图像组合单元通过放大所述显示信息、改变所述显示信息的颜色或者通过改变所述显示信息以看起来有立体感来突出与所述指尖部分相交迭的所述显示图像中的所述显示信息(图23H)。这能够使用户容易地确认出哪个显示信息与他/她的指尖的当前位置相对应。
本发明的第二十三方面是根据第一方面的一个方面,其中,所述显示信息产生单元根据从所述检测单元输出的所述接触位置数据,改变将要形成的显示图像。因此,可以根据情况产生适当的显示信息。
本发明的第二十四方面是根据第二十三方面的一个方面,其还具有控制单元(400),其基于从所述检测单元输出的所述接触位置数据,判断所述用户的身体部位是否与所述检测单元的操作表面相接触或接近,以及,仅当所述控制单元基于从所述检测单元输出的所述接触位置数据判断出所述用户的身体部位与所述检测单元的所述操作表面相接触或接近时,所述显示信息产生单元才形成所述显示图像。因此,当未检测到所述身体部位时,可以通过不执行所述图像显示处理来抑制功耗。
本发明的第二十五方面是根据第二十三方面的一个方面,其还具有控制单元(400),其基于从所述检测单元输出的所述接触位置数据判断所述用户的身体部位是否与所述检测单元的操作表面相接触或接近,以及,当所述控制单元基于从所述检测单元输出的所述接触位置数据判断出所述用户的身体部位与所述检测单元的操作表面相接触或接近时,所述显示信息产生单元突出将要形成的所述显示图像中的GUI部分(图19B、图20B)。因此,当未检测到所述身体部位时,通过非显著地显示所述GUI部分,可以容易地查看除了所述GUI部分之外的显示信息,并且可以提升其信息量。
本发明的第二十六方面是根据第一方面的一个方面,其还具有特征检测模块(400,600),其基于从所述检测单元输出的所述接触位置数据,来检测与所述检测单元的操作表面相接触或接近的用户的身体部位的特征,以及,所述显示信息产生单元根据由所述特征检测模块检测到的所述用户的身体部位的特征而改变将要形成的所述显示图像。因此,可以根据所述用户的身体部位的特征,产生适当的显示信息。
本发明的第二十七方面是根据第二十六方面的一个方面,其中,所述特征检测模块基于从所述检测单元输出的所述接触位置数据,判断与所述检测单元的操作表面相接触或接近的所述用户的身体部位是否为右手或左手,以及,所述显示信息产生单元根据所述特征检测模块的判断结果,改变将要形成的所述显示图像(图21A、图21B)。因此,可以根据所述用户的身体部位是右手或左手,产生适当的显示信息。
本发明的第二十八方面是根据第二十七方面的一个方面,其中,仅当与所述检测单元的操作表面相接触或接近的所述用户的身体部位是右手或左手时,所述显示信息产生单元才产生显示信息。例如,这能够实现如下处理:只有当所述用户从所述检测单元的右侧执行所述输入操作时,才显示所述显示信息,以及,只有当所述用户从所述检测单元的左侧执行所述输入操作时,才显示所述显示信息。
本发明的第二十九方面是根据第二十七方面的一个方面,其中,当与所述检测单元的操作表面相接触或接近的所述用户的身体部位是右手或左手时,所述显示信息产生单元突出将要形成的所述显示图像中的GUI部分、改变所述GUI部分的位置(图21A、图21B)或改变所述GUI部分的有效性。这能够实现如下处理:只有当所述用户从所述检测单元的右侧(或左侧)执行所述输入操作时,所述GUI部分是突出的、所述GUI部分是有效的或者所述GUI部分被指示是无效的。此外,可以根据所述用户的位置,将所述GUI部分的位置改变成容易执行所述输入操作的位置。
本发明的第三十方面是根据第二十六方面的一个方面,其中,所述特征检测模块基于从所述检测单元输出的所述接触位置数据,判断与所述检测单元的操作表面相接触或接近的所述用户的身体部位是否为成年人的身体部位或者儿童的身体部位,以及,所述身体位置显示单元根据所述特征检测模块的判断结果,改变将要形成的所述显示图像(图22A、图22B)。因此,可以根据所述用户的身体部位是成年人的身体部位或儿童的身体部位,来产生适当的显示信息。
本发明的第三十一方面是根据第三十方面的一个方面,其中,仅当与所述检测单元的操作表面相接触或接近的所述用户的身体部位是成年人的身体部位或儿童的身体部位时,所述显示信息产生单元才产生显示信息。例如,这能够实现如下处理:只有当所述用户是成年人时才显示所述显示信息,或者,只有当所述用户是儿童时才显示所述显示信息。
本发明的第三十二方面是根据第三十方面的一个方面,其中,当与所述检测单元的操作表面相接触或接近的所述用户的身体部位是成年人的身体部位或儿童的身体部位时,所述显示信息产生单元突出将要形成的所述显示图像中的GUI部分、改变所述GUI部分的位置或改变所述GUI部分的有效性。这能够实现如下处理:仅当所述用户是成年人(或儿童)时,所述GUI部分才是突出的、所述GUI部分才是有效的(图22A)或者所述GUI部分才被指示是无效的。此外,可以根据所述用户是成年人还是儿童,而将所述GUI部分的位置改变成容易执行所述输入操作的位置。
本发明的第三十三方面是根据第一方面的一个方面,其中,所述输入装置具有两种操作模式:所述用户能够执行输入操作的模式和所述用户不能执行所述输入操作的模式,以及,在所述用户能够执行所述输入操作的模式中,所述图像组合单元将由所述显示信息产生单元形成的所述显示图像,原样显示在所述显示单元上,而未将所述显示图像与所述接触区域图像相组合。因此,当设置了所述用户不能执行所述输入操作的模式时,这可以显示给所述用户。
本发明的第三十四方面是根据第一方面的一个方面,其中,所述输入装置具有两种操作模式:所述用户能够执行输入操作的模式和所述用户不能执行所述输入操作的模式,以及,所述图像组合单元根据所述操作模式,改变由所述显示信息产生单元形成的所述显示图像与所述接触区域图像相互组合的方法。因此,例如,当设置了所述用户不能执行所述输入操作的模式时,这可以显示在屏幕上。
本发明的第三十五方面是根据第三十四方面的一个方面,其中,所述图像组合单元将所述显示图像和所述接触区域图像相组合,以便将所述接触区域图像半透明地显示、以其轮廓突出的方式显示或者以其轮廓突出的方式半透明地显示在所述用户能够执行所述输入操作的模式中,并且,以便将所述接触区域图像不透明地显示在所述用户不能执行所述输入操作的模式中。因此,当设置了所述用户不能执行所述输入操作的模式时,这可以显示给所述用户。
本发明的第三十六方面是根据第一方面的一个方面,其中,所述显示单元是放映机,其将图像放映在屏幕上。即使不像这样而使用了无法直接触摸的显示器设备,也可以执行直观的输入操作。
本发明的第三十七方面是一种交通工具,其包括:具有操作表面的检测单元(4,100),检测与所述用户的身体部位(6)在所述操作表面上相接触或接近的区域,并输出指示所述区域的接触位置数据(150A,150B);操作内容确定单元(500),基于所述接触位置数据检测所述用户的特定输入操作(按压操作等);身体位置显示单元(600),基于所述接触位置数据,形成与所述用户的身体部位在所述检测单元的所述操作表面上相接触或接近的所述区域相对应的接触区域图像(图10B、图11B、图12B、图13B、图14B的103、图15B的104、图1的7);显示信息产生单元(700),产生便于所述用户执行操作的显示图像;图像组合单元(800),将由所述身体位置显示单元形成的接触区域图像和由所述显示信息产生单元产生的所述显示图像相互组合;以及,显示单元(2,200),显示由所述图像组合单元通过组合所获得的所述图像。因此,驾驶员和乘客可以在不触摸所述屏幕的情况下执行所述输入操作,从而使所述输入操作容易化。具体而言,当驾驶员在驾驶中执行所述输入操作时,由于在不看手的情况下就可以可靠地执行所述输入操作,因此视点的运动量得到抑制,从而确保安全。
本发明的第三十八方面是根据第三十七方面的一个方面,其中,将所述检测单元安装在驾驶员座位的左侧或右侧,以及,安装在驾驶员可以用扶手上的他/她的肘操作所述检测单元的位置上(图5、图7)。这使所述驾驶员能够在舒适的位置执行所述输入操作。
本发明的第三十九方面是根据第三十七方面的一个方面,其中,将所述检测单元安装在方向盘上(图6)。因此,由于所述方向盘和所述检测单元是相互接近的,所以,也可以在驾驶过程中快速地执行所述输入操作。
本发明的第四十方面是根据第三十七方面的一个方面,其中,将所述检测单元安装在后座的中央(图8)。这使后座上的乘客能够执行所述输入操作。
发明效果
通过上述的本发明,可以精确地获取在所述操作表面上与所述用户的身体部位相接触(或接近)的位置对应的所述屏幕上的位置,因此,即使当所述显示屏幕和所述检测单元相互分开时,也能够像在直接触摸诸如触摸板之类的屏幕时进行输入那样,进行直观和精确的输入操作。
附图简述
[图1]图1的根据本发明的一个实施例的输入装置的示意图;
[图2]图2的框图示出了输入装置的结构;
[图3]图3示出了当在检测单元100中使用电容传感器101时从检测单元100输出的接触位置数据的示例;
[图4]图4示出了当在检测单元100中使用压力传感器102时从检测单元100输出的接触位置数据的示例;
[图5]图5示出了在汽车中安装输入装置的示例;
[图6]图6示出了在汽车中安装输入装置的示例;
[图7]图7示出了在汽车中安装输入装置的示例;
[图8]图8示出了在汽车中安装输入装置的示例;
[图9]图9示出了提供遮盖单元130以遮盖检测单元100的示例;
[图10A]图10A示出了当在检测单元100中使用电容传感器101时的接触位置数据的示例;
[图10B]图10B示出了当在检测单元100中使用电容传感器101时的接触区域图像的示例;
[图11A]图11A示出了当在检测单元100中使用电容传感器101时的接触位置数据的示例;
[图11B]图11B示出了当在检测单元100中使用电容传感器101时的接触区域图像的示例;
[图12A]图12A示出了当在检测单元100中使用压力传感器102时的接触位置数据的示例;
[图12B]图12B示出了当在检测单元100中使用压力传感器102时的接触区域图像的示例;
[图13A]图13A示出了当在检测单元100中使用压力传感器102时的接触位置数据的示例;
[图13B]图13B示出了当在检测单元100中使用压力传感器102时的接触区域图像的示例;
[图14A]图14A示出了准备的手形状模型103的示例;
[图14B]图14B示出了手形状模型103的形状基于接触位置数据而改变的示例;
[图15A]图15A示出了准备的手形状模型104的示例;
[图15B]图15B示出了手形状模型104的形状基于接触位置数据而改变的示例;
[图16]图16示出了在检测单元100的附近提供了红外传感器110的示例;
[图17]图17示出了用户特定的输入操作的示例;
[图18]图18的次序图示出了用于显示接触区域图像的控制单元400的处理流程;
[图19A]图19A示出了当未检测到接触区域时由显示信息产生单元700产生的显示信息的示例;
[图19B]图19B示出了当检测到接触区域时由显示信息产生单元700产生的显示信息的示例;
[图20A]图20A示出了当未检测到接触区域时由显示信息产生单元700产生的显示信息的示例;
[图20B]图20B示出了当检测到接触区域时由显示信息产生单元700产生的显示信息的示例;
[图21A]图21A示出了当检测到右手时由显示信息产生单元700产生的显示信息的示例;
[图21B]图21B示出了当检测到左手时由显示信息产生单元700产生的显示信息的示例;
[图22A]图22A示出了当检测到较大的手时由显示信息产生单元700产生的显示信息的示例;
[图22B]图22B示出了当检测到较小的手时由显示信息产生单元700产生的显示信息的示例;
[图23A]图23A示出了由图像组合单元800通过组合所获得的图像的示例;
[图23B]图23B示出了由图像组合单元800通过组合所获得的图像的示例;
[图23C]图23C示出了由图像组合单元800通过组合所获得的图像的示例;
[图23D]图23D示出了由图像组合单元800通过组合所获得的图像的示例;
[图23E]图23E示出了由图像组合单元800通过组合所获得的图像的示例;
[图23F]图23F示出了由图像组合单元800通过组合所获得的图像的示例;
[图23G]图23G示出了由图像组合单元800通过组合所获得的图像的示例;
[图23H]图23H示出了由图像组合单元800通过组合所获得的图像的示例;
[图24]图24的次序图示出了当检测到用户的按压操作时的控制单元400的处理流程;
[图25A]图25A是当用户的按压操作存在时由显示信息产生单元700产生的显示信息的示例;
[图25B]图25B是当用户的按压操作存在时由显示信息产生单元700产生的显示信息的示例。
参考字符的描述
2显示器
3    GUI部分
4    触摸垫
6    操作者的手
7    手形状模型图像
100  检测单元
101  电容传感器
102  压力传感器
103  手形状模型
104  手形状模型
110  红外传感器
130  遮盖单元
150A 接触位置数据
150B 接触位置数据
200  显示单元
300  计算单元
400  控制单元
500  操作内容确定单元
600  身体位置显示单元
700  显示信息产生单元
800  图像组合单元
1000 输入装置
具体实施方式
下面将详细描述本发明的实施例。
图1是根据本发明的实施例的输入装置的示意图。在图1中,在用户的手的附近设置了操作触摸垫4,以及,在远离用户的位置安装了显示器2。在显示器2上显示了让用户输入所期望的指令或信息的一个或多个GUI部分3。
触摸垫4的操作表面上的点与显示器2上的显示屏上的点一一对应。当用户用他/她的手指在触摸垫4的操作表面上按到一个点时,将指示接触位置的数据从触摸垫4输出到未示出的控制单元,基于该数据识别与接触位置相对应的GUI部分3,以及,输入与GUI部分3相关联的指令或信息。
另一方面,当用户把手放在触摸垫4上来选择GUI部分3时,由触摸垫4检测到在触摸垫4上与用户的手6相接触的区域(通常,该区域是与用户的指尖或手掌相接触的区域),并且,将指示接触区域的数据从触摸垫4发送到计算单元。计算单元根据从触摸垫4接收的数据估计位于触摸垫4上的手的形状,并基于所估计的形状生成手形状模型的图像7。然后,通过叠加将所生成的手形状模型的图像7显示在显示器2上。用户在移动手6后按触摸垫4,以使手形状模型的指尖处于所期望的GUI部分3,同时观看在显示器2上显示的手形状模型。然后,输入与接触位置(即,处于手形状模型的指尖的位置中的GUI部分3)相对应的关联于GUI部分3的指令或信息。
假设一种情况,即,手形状模型的图像7未显示在屏幕上。在这种情况下,例如,当选择在屏幕的中央显示的GUI部分3时,用户在用手指按触摸垫4之前,需要将他/她的视线转向触摸垫4的操作表面上,并确认触摸垫4的中央位置,这是不方便的。将视线转向手上是危险的,特别是在汽车驾驶过程中。但是,根据本发明的输入装置,可以通过观看显示器2上显示的手形状模型的图像7,确认与手指的当前位置相对应的屏幕上的位置。因此,用户可以选择GUI部分3,同时仅观看显示器2,而不用将他/她的视线转向触摸垫4上。
后面将更加详细地解释输入装置。
图2的框图示出了输入装置的结构。在图2中,输入装置1000包括检测单元100、显示单元200以及计算单元300。计算单元300包括:控制单元400,其控制整个计算单元300;操作内容确定单元500,其检测用户的特定输入操作;身体位置显示单元600,其形成指示用户的身体与检测单元100相接触的区域的图像(例如,图1的7);显示信息产生单元700,其产生用户输入指令或信息所必要的显示信息(即,包括GUI部分3的图像);以及,图像组合单元800,其将由身体位置显示单元600形成的图像与由显示信息产生单元700产生的显示信息相互组合。下面将详细解释这些单元的结构。
(检测单元100)
首先,将解释检测单元100。
检测单元100是让用户通过使用诸如手之类的身体部位输入指令或信息的模块,并具有当用户触摸操作表面时将指示接触位置的数据输出的功能。通常使用触摸板或触摸垫作为检测单元100。虽然典型的触摸板和触摸垫只可以同时检测一个接触位置,但是,当用户在操作表面上同时触摸多个位置时,在本发明中使用的检测单元100具有同时检测这些接触位置的功能。这种功能是通过在检测单元100的操作表面上二维地排列多个电容传感器(或压力传感器)来实现的。
图3和图4分别示出了从检测单元100输出的数据的示例。
图3示出了当在检测单元100中使用多个电容传感器时的示例。在图3中,在检测单元100中,将多个电容传感器101沿着操作表面二维排列。当用户的身体部位(在该示例中,手6)触摸(或接近)操作表面时,检测单元100和身体部位之间的电容会改变,并且该改变是由电容传感器101检测到的。检测单元100基于电容传感器101的检测结果,输出如图3所示的接触位置数据150A,其指示用户的身体部位在操作表面上的接触位置。
图4示出了当在检测单元100中使用多个压力传感器时的示例。在图4中,在检测单元100中,将多个压力传感器102沿着操作表面二维排列。当用户的身体部位(在该示例中,手6)触摸操作表面时,压力传感器102检测到由身体部位施加于操作表面的压力。检测单元100基于压力传感器102的检测结果,输出如图4所示的接触位置数据150B,其指示用户的身体部位在操作表面上的接触位置和压力。在图4的接触位置数据150B中,用较黑的颜色示出了受到较高压力的部分。
接下来,参考图5至图8,将解释在汽车中安装检测单元100的示例。
图5示出了第一安装示例。在该安装示例中,将检测单元100安装在中央控制台的外延上的位置,并且,驾驶员可以在此处用扶手上的他/她的肘执行操作。由于这使驾驶员能够用扶手上的他/她的肘执行输入操作,因此,即使在执行输入操作时汽车正在簸动,也可以稳定地操作检测单元100。此外,因为可以执行稳定的输入操作,所以,驾驶员的注意力集中在输入操作上的情况决不会发生,因此,在驾驶过程中执行输入操作不会妨碍驾驶。此外,由于将检测单元100安装在中央控制台上,所以,不仅是驾驶员,就连乘客座位或后座上的人也可以执行输入操作。
图6示出了第二安装示例。在该安装示例中,将检测单元100安装在方向盘的中央部分的倾斜位置,从而使其面向上。在该安装示例中,由于方向盘和检测单元100之间的距离非常短,因此,驾驶员可以快速地执行输入操作,而不用因较大程度地把手移开而无法用双手驾驶方向盘。
图7示出了第三安装示例。在该安装示例中,将检测单元100安装在驾驶员座位一侧的门的内部,并且,驾驶员可以在此处用扶手上的他/她的肘执行操作。由于这使驾驶员能够用他/她的右手执行输入操作(即,对于许多人来说是优势手),因此,对于许多驾驶员而言,可以进行更自然和稳定的输入操作。此外,可以操作只有驾驶员可以操作的内容(例如,诸如自动窗之类的中央控制器)。
图8示出了第四安装示例。在该安装示例中,将检测单元100安装在位于后座中央的扶手上。在这种情况下,对于显示单元200,可以使用针对后座上的乘客专门提供的显示器,如图8所示,或者,可以使用驾驶员座位显示器或乘客座位显示器,如图5至7所示。根据此第四安装示例,使后座上的乘客执行输入操作成为了可能。因此,本发明的输入装置可以用于特别为后座上的乘客提供的娱乐,如将本发明用作视频游戏机的输入装置。此外,由于将检测单元100设置在了后座的中央,所以,后座上的两个乘客可以共享检测单元100。
可以如图9所示来提供遮盖单元130,其遮盖检测单元100的操作表面。通过这种方式,可以防止除了用户身体部位外的物体与操作表面接触;例如,可以避免以下麻烦,即,物体落在检测单元100的操作表面上而导致装置发生故障或传感器损坏。
(显示单元200)
接下来,将解释显示单元200。
显示单元200将由图像组合单元800通过组合获得的图像显示在屏幕上,以及,可以将液晶显示器、CRT(阴极射线管)显示器、EL(电致发光)显示器等用作显示单元200。
显示单元200可以是诸如HUD(平视显示器)或HMD(头盔显示器)之类的显示器,其在空中通过使用半透镜、镜子、透镜等形成由图像组合单元800通过组合所获得的图像。在这种情况下,可以将图像显示在诸如汽车前车盖上部之类的较难安装显示单元200的位置上。
此外,放映机可以用作为显示单元200。在这种情况下,由于通过放映机将图像组合单元800通过组合所获得的图像放映到了屏幕上,因此,可以低成本地实现大屏幕显示器。
如上所述,根据安装的位置和显示的用途,适当地选择显示单元200的结构。
接下来,将解释计算单元300中的单元。
(身体位置显示单元600)
首先,将解释身体位置显示单元600。
身体位置显示单元600通过控制单元400获取从检测单元100输出的接触位置数据(图3的150A或图4的150B)、基于该接触位置数据形成指示用户的身体与检测单元100相接触的区域的图像(后面称之为接触区域图像),并将所形成的图像输出到控制单元400。后面,将具体解释身体位置显示单元600中的接触区域图像形成方法。
考虑两种方法,作为将用户的身体与检测单元100相接触的区域显示在显示单元200的屏幕上的方法。第一种方法是将接触区域形状自身显示为接触区域图像,以及,第二种方法是根据接触区域的形状估计位于检测单元100上的用户的手的位置和形状,基于估计结果产生手形状模型,以及将所产生的手形状模型的图像(图1中的7)显示为接触区域图像。下面将依次解释这些方法。
首先,将参考图10A至图12B解释将接触区域形状自身显示为接触区域图像的情形。
首先,参考图10A和10B,将解释把接触区域形状自身显示为接触区域图像的情形的第一具体示例。图10A示出了当用户的手放在具有600(20×30)个电容传感器101的检测单元100的操作表面上时的电容传感器101的检测结果(二进制)。电容传感器101的数量(即,检测单元100的分辨率)仅仅作为示例,并且,本发明并不限于此。图10A的电容传感器101的检测结果作为接触位置数据从检测单元100中输出。身体位置显示单元600基于该接触位置数据形成接触区域图像,其中,预定尺寸的圆点排列在与检测到手接触(或接近)的电容传感器101相对应的位置上,如图10B所示。以这种方式形成的接触区域图像通过后面描述的图像组合单元800的处理而与显示信息相组合,并显示在显示单元200上。因为这种显示能够让用户确认电容传感器101的位置位于屏幕上的他/她的手下面,所以,可以在特定的电容传感器101上执行诸如双击操作之类的输入操作。因此,当需要诸如选择精确的GUI部分之类的精确的输入操作时,该示例是特别有效的。
接下来,参考图11A和11B,将解释把接触区域形状自身显示为接触区域图像的情形的第二具体示例。图11A示出了当用户的手放在与如图10A所示的具有600(20×30)个电容传感器101的检测单元100的操作表面上时,电容传感器101的检测结果(二进制)。电容传感器101的数量(即,检测单元100的分辨率)仅仅作为示例,并且,本发明并不限于此。图11A的电容传感器101的检测结果作为接触位置数据从检测单元100中输出。身体位置显示单元600基于该接触位置数据,形成与实际接触区域的形状相接近的接触区域图像,如图11B所示。具体而言,在检测手的接触(或接近)的电容传感器101中,将邻接的电容传感器101视为一组,并且,将该组的形状近似成给定的图形(例如,椭圆形)。当然,也可以通过填充图10B的接触区域图像中的邻接圆点之间的空间,来形成与图11B相接近的接触区域图像。这种显示能够让用户直观地获知接触区域的形状,这几乎不产生什么不舒适感。对于显示变化,可以进行如下执行:仅仅显示接触区域的轮廓;将预定的结构粘贴到接触区域;或者根据接触的区域改变接触区域的颜色或透明度。
接下来,参考图12A和图12B,将解释把接触区域形状自身显示为接触区域图像的情形的第三具体示例。图12A示出了当用户的手放在具有600(20×30)个压力传感器102的检测单元100的操作表面上时,压力传感器102的检测结果(多值)。压力传感器102的数量(即,检测单元100的分辨率)仅仅作为示例,并且,本发明并不限于此。图12A的压力传感器102的检测结果作为接触位置数据从检测单元100中输出。身体位置显示单元600基于该接触位置数据,将预定尺寸的圆点排列在与检测压力的压力传感器102相对应的位置,如图12B所示,并形成接触区域图像,其中,压力传感器102检测到的压力越高,该压力传感器102所对应的圆点的颜色就越黑。因为这种显示能够让用户确认压力传感器102的位置位于屏幕上的他/她的手下面,所以,可以执行诸如对特定的压力传感器102进行双击操作之类的输入操作。因此,当需要诸如选择精确的GUI部分之类的精确的输入操作时,该示例是特别有效的。此外,由于可以在屏幕上确认由压力传感器102检测到的压力,因此,用户可以在执行按压操作时获知需要多少压力,以及指尖的哪部分将最高压力施于了操作表面。通过这种方式,例如,当错误地选择了与目标GUI部分不同的GUI部分时,可以确认其原因(例如,用手掌无意地将高压力施于了操作表面)。在图12B的示例中,当圆点的颜色根据压力而改变时,本发明并不限于此。例如,圆点的尺寸、圆点的透明度、圆点的形状、圆点的边缘线的存在或不存在、像素的边缘线的线型,以及像素的边缘线的厚度可以根据压力而改变。此外,可以将这些变化组合起来。
接下来,参考图13A和图13B,将解释把接触区域形状自身显示为接触区域图像的情形的第四具体示例。图13A示出了当用户的手放在如图12A一样的具有600(20×30)个压力传感器102的检测单元100的操作表面上时,压力传感器102的检测结果(多值)。压力传感器102的数量(即,检测单元100的分辨率)仅仅作为示例,并且,本发明并不限于此。图13A的压力传感器102的检测结果作为接触位置数据从检测单元100中输出。身体位置显示单元600基于该接触位置数据,形成与实际接触区域的形状接近的接触区域图像,如图13B所示。具体而言,在检测到高于预定值的压力的压力传感器102中,将邻接的压力传感器102视为一组,将该组的形状近似成给定的图形(例如,椭圆形),另外,根据压力传感器102检测到的压力,而在该图形的颜色中提供了等级。例如,将压力高的部分显示成红色,将压力低的部分显示成蓝色,并将处于两者之间的中间压力的部分显示成紫色。这种显示能够让用户直观地获知接触区域的形状,这几乎不产生什么不舒适感。在图13B的示例中,当椭圆的颜色根据压力而改变时,本发明并不限于此。例如,椭圆的尺寸、椭圆的透明度、椭圆的形状、椭圆的边缘线的存在或不存在、椭圆的边缘线的线型,以及椭圆的边缘线的厚度可以根据压力而改变。此外,可以将这些变化组合起来。
接下来,将参考图14A至图16,解释把基于接触区域的形状所形成的手形状模型的图像显示为接触区域图像的情形。
身体位置显示单元600基于从检测单元100输出的接触位置数据,执行手形状建模(图3的150A或图4的150B)。
对于手形状模拟,在用户进行输入操作之前,需要对每个用户进行校准处理。该校准处理是将把用户的手的特征反映在准备的手形状模型中,并且,在用户操作输入装置之前,仅仅需要执行一次。可以由用户通过使用给定的输入模块,直接将用户的手的特征(诸如手掌的尺寸和形状、每个手指的长度和厚度以及指尖到第一关节或第二关节之间的长度之类的参数)输入到身体位置显示单元600,或者,可以进行如下执行:用户对着检测单元100的操作表面按他/她的手,并且,由身体位置显示单元600基于从检测单元100输出的接触位置数据,自动识别所述参数。通过将以该方式获取的对用户特定的特征参数与用户的识别信息(例如,名字)一起存储在给定的存储装置中以备后用。这使得当用户使用输入装置时不必每次都对该用户执行校准处理。
身体位置显示单元600根据从检测单元100输出的接触位置数据,确定手掌的底部位置和指尖的位置,基于通过校准处理所获得的用户的手的位置和特征,将图14A中所示的所准备的手形状模型103的形状改变成图10B中所示的手形状模型,并将形状改变的手形状模型的图像作为接触区域图像输出到控制单元400。
可能存在用户未将他/她所有的五个手指与检测单元100的操作表面相接触的情况。例如,可以考虑用户仅将他/她的五个手指中的食指和拇指接触操作表面的情况。为了应付这种情况,准备了用户进行接触或组合的与手指的数量相对应的手形状模型的多个图案,以及,身体位置显示单元600基于从检测单元100输出的接触位置数据,判断用户用哪些手指与操作表面相接触,并通过使用与判断结果相对应的手形状模型,产生接触区域图像。例如,当用户仅用他/她的五个手指中的食指和拇指接触操作表面时,基于接触位置数据和用户的手的特征,在图15A中示出了所准备的手形状模型104的形状。
考虑如下方法作为判断五个手指中哪些手指进行接触的方法:鉴于检测单元100中的接触位置对其进行估计;鉴于接触区域之间的相对位置对其进行估计;以及,鉴于接触区域的转换历史对其进行估计。可以仅根据所接触的手指的数量进行手形状模型选择,而不用识别五个手指中的哪些手指在进行接触。例如,当只有一个手指进行接触时,可以使用只有食指伸展的手形状模型,而不考虑该手指实际上是否为食指。
可能存在用户仅将他/她的手指接触检测单元100的操作表面的情况。在这种情况下,身体位置显示单元600鉴于用户从哪个方向在检测单元100上执行输入操作,而根据指尖的接触位置估计手掌的位置。例如,在图7的示例中,由于假设用户使用扶手上的他/她的肘执行输入操作,因此,认为用户的手掌相对于指尖的位置总是位于后座的方向。身体位置显示单元600基于所估计的手掌位置、接触位置数据以及用户的手的特征,产生手形状模型的图像。
可以如下执行:将多个红外传感器110排列在检测单元100的操作表面的边缘部分,或者,围绕在操作表面的整个区域上,如图16所示,并检测人体是否在红外传感器110的上方。通过考虑这些红外传感器110的检测结果,身体位置显示单元600可以容易地判断用户的手的方位,即使当用户未用手掌接触检测单元100的操作表面时。也可以检测到用户的手位于远离检测单元100上方的操作表面的位置。
存在用户仅用他/她的手掌接触检测单元100的操作表面的情况。在这种情况下,身体位置显示单元600显示张开的手的手形状模型的图像。此外,可以通过使手形状模型呈半透明状,而向用户表明指尖未接触操作表面。这种显示能够使用户根据显示单元200上显示的图像,容易地获知他/她的手的情形,这使用户感到轻松自若。
当指尖和手掌均未接触检测单元100的操作表面时,身体位置显示单元600不产生接触区域图像。因此,用户可以根据显示单元200上显示的图像,容易地获知他/她的手的情形(即,手远离操作表面),并可以感到轻松自若。
(操作内容确定单元500)
接下来,将解释操作内容确定单元500。
操作内容确定单元500通过控制单元400,获取从检测单元100输出的接触位置数据,基于该接触位置数据检测用户的特定输入操作,并将结果输出到控制单元400。由操作内容确定单元500检测到的特定输入操作的示例包括:按压操作表面的操作(后面称之为按压操作);在用例如手指按压操作表面的同时,滑动该手指的操作;触摸操作表面上的点持续预定的或更长的时间段的操作(后面称之为持续操作);触摸操作表面上的点持续仅仅一瞬间的操作(后面称之为轻击操作);在短时间段内两次触摸操作表面上的点的操作(后面称之为双击操作)。为了检测持续操作、轻击操作以及双击操作,由于需要考虑接触位置随时间的变化,因此,需要适当地保存身体部位与操作表面上的每个点相接触的时间和历史。
当在检测单元100中使用压力传感器102时,可以通过将由压力传感器检测到的压力与预定门限值相比较,从而容易地检测到按压操作,当在检测单元100中使用电容传感器101时,需要一种发明。当在检测单元100中使用电容传感器101时,例如,可以通过根据接触位置数据计算用户的指尖所接触的区域面积,以及监控面积的变化,检测到按压操作。这利用了这样一种事实,即,当用户仅把他/她的手放在操作表面上时,指尖和操作表面之间的接触面积较小,则当用户对着操作表面按压指尖时,接触面积增加到约1.2倍至2倍。
可以如下执行:例如,用GUI部分将用于音量控制的旋转开关模拟地显示在显示单元200上,如图17所示,并且,当由操作内容确定单元500检测到诸如在检测单元100的操作表面上画圆圈之类的拖曳操作时,音量根据拖曳操作而改变。这实现了直观的输入操作,就像实际上转动旋转开关一样。
(控制单元400)
接下来,将解释控制单元400。
将控制单元400的处理大致分成:在显示单元200上执行显示接触区域图像的处理,该接触区域图像指示用户身体部位与检测单元100的操作表面的接触区域;以及,当存在用户的输入操作时执行的处理。
首先,将参考图18的次序图,解释由控制单元400所执行的将接触区域图像显示在显示单元200上的处理流程。
在步骤S501中,当检测单元100检测到用户身体部位接触(接近)操作表面的位置时,检测单元100将检测到的位置数据发送到控制单元400。
在步骤S502中,控制单元400在该时间点检查操作模式。这里,准备了如下两种模式作为操作模式:允许用户执行输入操作的模式;以及,禁止用户执行输入操作的模式。具体而言,在汽车导航系统中,由于驾驶员在驾驶时操作汽车导航系统会存在危险,因此通常禁止用户在驾驶时执行输入操作。当通过在步骤S502中的检查判断出不允许用户执行输入操作时,控制单元400指示图像组合单元800,将由显示信息产生单元700产生的显示信息(未将显示信息和接触区域图像相互组合),原样地输出到显示单元200。
当通过在步骤S502中的检查判断出允许用户执行输入操作时,在步骤S503中,控制单元400指示身体位置显示单元600产生接触区域图像,以及,在步骤S504中,指示显示信息产生单元700改变将要在显示单元200上显示的显示信息。当必要时,控制单元400可以检测与位于检测单元100的操作表面上的身体部位相关的特征(手的尺寸、左手还是右手等),并将这些特征发送到显示信息产生单元700。由于和上述处理相似,因此对于在身体位置显示单元600中形成接触区域图像的处理不再赘述。身体位置显示单元600基于接触位置数据,将手形状模型的图像形成为接触区域图像。
显示信息产生单元700根据控制单元400的指示,改变显示信息。下面将描述由显示信息产生单元700改变显示信息的示例。
图19A和图19B示出了第一示例,其中,在当检测单元100检测到接触位置时(即,当用户身体部位位于检测单元100的操作表面上时)和当检测单元100未检测到接触位置时(即,当用户身体部位未位于检测单元100的操作表面上时)之间,改变显示信息。控制单元400可以基于从检测单元100输出的接触位置数据,判断检测单元100是否检测到接触位置。控制单元400基于判断结果,指示显示信息产生单元700改变显示信息。图19A示出了当检测单元100未检测到接触位置时的屏幕显示示例。在该示例中,示出了可由用户选择的GUI部分(在该示例中,按钮)的边缘,其线型与仅用于消息显示的框的线型相同,在该用于消息显示的框中示出了消息“24分钟至目的地”。图19B示出了与图19A相对应的当检测单元100检测到接触位置时的屏幕显示示例。在该示例中,由于立体地显示了按钮,因此,用户可以迅速地认出要选择的区域。通过如上所述改变显示信息,当用户不想执行输入操作时,可以通过简化显示信息以提高显示信息的可视度,以及,当用户想执行输入操作时,可以通过突出要选择的目标以提高可操作性。
图20A和图20B示出了第二示例,其中,在当检测单元100检测到接触位置时(即,当用户身体部位位于检测单元100的操作表面上时)和当检测单元100未检测到接触位置时(即,当用户身体部位未位于检测单元100的操作表面上时)之间改变显示信息。图20A示出了当检测单元100未检测到接触位置时的另一屏幕显示示例。在该示例中,以较小尺寸示出了可由用户选择的GUI部分(在该示例中,按钮)。图20B示出了与图20A相对应的当检测单元100检测到接触位置时的屏幕显示示例。在该示例中,由于用比图20A中的尺寸大的尺寸示出了按钮,因此,便于用户选择按钮。通过如上所述改变显示信息,当用户不想执行输入操作时,可以通过提高除了按钮之外的信息的明显度来提高可操作性,以及,当用户想执行输入操作时,可以通过放大按钮来提高可操作性。
图21A和图21B示出了一个示例,其中,在当右手位于检测单元100的操作表面上时和当左手位于其上时之间改变显示信息。是左手还是右手位于检测单元100的操作表面上可以由控制单元400基于从检测单元100输出的接触位置数据来判断,或可以在校准处理中进行判断。对于该判断,可以使用各种现有的算法。控制单元400基于判断结果,指示显示信息产生单元700改变显示信息。图21A示出了当右手位于检测单元100的操作表面上时的屏幕显示示例,以及,图21B示出了当左手位于检测单元100的操作表面上时的屏幕显示示例。在该示例中,假设这样一种情况,即,当把检测单元100安装在汽车中的驾驶员座位和乘客座位之间时,两个用户位于检测单元100的右侧和左侧,位于检测器100的右侧的用户用他/她的左手操作检测单元100,以及,位于检测器100的左侧的用户用他/她的右手操作检测单元100。即,当右手位于检测单元100的操作表面上时,认为操作检测单元100的用户位于检测单元100的左侧。此时,如果GUI部分(在示例中,按钮)显示在屏幕的右上角,那么,当用户试图按压按钮时,用户的手掌会遮住检测单元100的中央的附近部分,因此,手形状模型的图像会遮住中央的附近部分,这降低了屏幕的明显度。为了避免这种问题,当右手位于操作单元100的操作表面上时,将按钮显示在屏幕的左侧,如图21A所示,相反,当左手位于操作单元100的操作表面上时,将按钮显示在屏幕的右侧,如图21B所示。
虽然在该示例中,按钮所在的位置在当右手位于检测单元100的操作表面上时和当左手位于检测单元100的操作表面上时之间改变,但是,按钮的功能、形状、尺寸以及数量也可以改变。例如,当把检测单元100安装在右手驾车的驾驶员座位和乘客座位之间时,考虑如下:在当汽车行驶时放置右手(即,乘客座位上的乘客的手)时,显示了需要诸如字符输入之类的较复杂输入操作的按钮和需要诸如屏幕滚动之类的较容易输入操作的按钮,以及,在当汽车行驶时放置左手(即,驾驶员的手)时,出于安全原因,仅显示了需要较容易输入操作的按钮。同样,当把检测单元100安装在左手驾车的驾驶员座位和乘客座位之间时,考虑如下:在当汽车行驶时放置左手(即,乘客座位上的乘客的手)时,显示了需要诸如字符输入之类的较复杂输入操作的按钮和需要诸如屏幕滚动之类的较容易输入操作的按钮,以及,在当汽车行驶时放置右手(即,驾驶员的手)时,仅显示了需要较容易输入操作的按钮。
图22A和图22B示出了一个示例,其中,显示信息在当较大的手(即,成年人的手)放在检测单元100的操作表面上时和当较小的手(即,儿童的手)放在其上时之间改变。是较大的手还是较小的手放在检测单元100的操作表面上可以由控制单元400基于从检测单元100输出的接触位置数据进行判断,或可以在校准处理中进行判断。对于该判断,可以使用各种现有的算法。控制单元400基于判断结果,指示显示信息产生单元700改变显示信息。图22A示出了当较大的手放在检测单元100的操作表面上时的屏幕显示示例。当较大的手放在检测单元100的操作表面上时,由于考虑到是成年人想要操作检测单元100,因此,并未特别限制输入操作。图22B示出了当较小的手放在检测单元100的操作表面上时的屏幕显示示例。当较小的手放在检测单元100的操作表面上时,由于考虑到是儿童想要操作检测单元100,因此,部分或所有按钮会失效,从而限制输入操作,此外,改变按钮的颜色或设置标记,从而把按钮无效指示给用户。
虽然在本示例中,当较小的手放在检测单元100的操作表面上时,改变按钮的颜色或设置标记,但本发明并不限于此,而是可以考虑各种显示信息改变示例。例如,考虑把显示信息中包括的较难的字词改变成简单的字词,并且,将屏幕结构和颜色设计改变成儿童的类型。
对于另一显示信息改变示例,仅当判断出用户身体部位位于操作表面上时,显示信息产生单元700才可以产生显示信息。通过这种方式,当用户不执行输入操作时,中断与图像显示相关联的处理,从而抑制功耗。同样,仅当判断出用户的右手(或左手)位于操作表面上时,显示信息产生单元700才可以产生显示信息。同样,仅当判断出成年人的手(或儿童的手)位于操作表面上时,显示信息产生单元700才可以产生显示信息。
位于检测单元100的操作表面上的物体并不总是用户的身体部位。因此,控制单元400可以基于来自检测单元100的接触位置数据,判断位于检测单元100的操作表面上的物体是否用户的身体部位,并在当其是身体部位时和当其不是身体部位(例如,行李)时之间改变显示信息。例如,当判断出位于检测单元100的操作表面上的物体不是身体部位时,显示信息产生单元700可以执行不产生显示信息的处理。可以通过诸如图案匹配之类的方法,判断位于检测单元100的操作表面上的物体是否用户的身体部位。
当改变显示信息时,在步骤S505中,控制单元400指示图像组合单元800,将由身体位置显示单元600形成的接触区域图像和由显示信息产生单元700产生(改变)的显示信息相组合。响应于该指示,图像组合单元800将接触区域图像和显示信息相互组合。下面将解释由图像组合单元800通过组合所获得的图像的示例。
图23A示出了当由身体位置显示单元600形成的接触区域图像(在该示例中,真实的手形状模型的图像)叠加在由显示信息产生单元700产生的显示信息上时的屏幕示例。像这样显示真实的手形状模型图像可以使用户觉得好像他/她实际上触摸到了屏幕似的,这实现了直观的输入操作。
图23B示出了仅当由身体位置显示单元600形成的接触区域图像的轮廓叠加在由显示信息产生单元700产生的显示信息上时的屏幕示例。通过这种图像组合,接触区域图像内的显示信息与接触区域的形状和位置同时显示,从而便于在操作过程中确认显示信息。
图23C示出了当由身体位置显示单元600形成的真实的手形状模型图像叠加在由显示信息产生单元700产生的显示信息上时的屏幕示例,经过处理后使其轮廓不透明并且使其内部透明。通过这种图像组合,使进行直观的输入操作成为可能,并且,便于在操作过程中确认显示信息。
图23D示出了当由身体位置显示单元600形成的接触区域图像的轮廓,在经过处理以突出指尖部分后,叠加在由显示信息产生单元700产生的显示信息上时的屏幕示例。通过这种图像组合,可以快速地确认用户想要按压的位置,并且,也显示接触区域图像内的显示信息,从而便于在操作过程中确认显示信息。对于检测指尖部分的方法,考虑如下方法,例如,通过使用图案匹配和从手形状模型中提取指甲部分,而从轮廓的形状中识别指尖部分。突出的示例包括:设置标记;改变颜色;改变透明度;向指尖方向逐渐增加轮廓的颜色黑度;以及,向指尖方向逐渐降低轮廓的透明度。此外,当由图像组合单元800将身体位置显示单元600形成的手形状模型(或其轮廓)和显示信息产生单元700产生的显示信息相互组合时,可以通过组合图10B(或图11B、图12B、图13B)的图像中至少的指尖部分,来突出手形状模型的指尖部分。
图23E示出了当由身体位置显示单元600形成的接触区域图像,在经过添加上半透明或不透明阴影后,叠加在由显示信息产生单元700产生的显示信息上时的屏幕示例。这种显示组合可以使用户觉得好像他/她实际上接触到了屏幕一样。
虽然在图23A至图23E的示例中,在接触区域图像叠加在由显示信息产生单元700产生的显示信息之前,根据需要对该接触区域图像进行处理,但也可以考虑处理除了图像组合中的接触区域图像之外的其它元素。下面将解释这些情况的示例。
图23F示出了一个示例,其中,当由身体位置显示单元600形成的接触区域图像叠加在显示信息上时,隐藏一些或所有的GUI部分,在GUI部分的附近弹出显示辅助信息(诸如GUI部分的标注或辅助解释之类的信息)。为了实现这种显示,首先,图像组合单元800通过使用已知的算法,判断在由显示信息产生单元700产生的显示信息中包括的各GUI部分是否与接触区域图像交迭。当与接触区域图像交迭的GUI部分存在时,在预定方向上(向右、向左等)找到远离该GUI部分的位置的一个区域,以及,该区域未与接触区域图像交迭,并将该GUI部分的辅助信息显示在该区域中。这种图像组合通过把接触区域图像叠加在GUI部分上,而能够使用户容易地获得在屏幕上显示的任意GUI部分的相关信息。此外,不用移动手就可以识别被接触区域图像隐藏的GUI部分,从而提高了可操作性。
图23G示出了一个示例,其中,当由身体位置显示单元600形成的接触区域图像叠加在显示信息上时,隐藏一些或所有的GUI部分,GUI部分的标注叠加在接触区域图像上。虽然在图23G的示例中,被隐藏的GUI部分的标注叠加在接触区域图像上,但是,隐藏的GUI部分的外形也可以叠加在其上。这种图像组合能够使用户不必移动手就可以识别被接触区域图像隐藏的GUI部分,从而提高了可操作性。
图23H示出了一个示例,其中,当由身体位置显示单元600形成的接触区域图像叠加在显示信息上时,突出与接触区域图像的指尖部分交迭的GUI部分。这种图像组合能够使用户容易地确认出接触区域图像的指尖部分位于哪个GUI部分上。对于检测指尖位置的方法,考虑如下方法,例如,通过使用图案匹配以及从手形状模型中提取指甲部分,而从轮廓的形状中识别指尖部分。可以通过各种方法实现突出,例如,改变颜色、改变透明度、改变形状、改变线型或线厚度、改变字符格式、改变图标或连续改变(分级)颜色或透明度。
虽然在该示例中,当通过在步骤S502中检查,判断出不允许用户执行输入操作时,控制单元400指示图像组合单元800,将显示信息产生单元700产生的显示信息,原样输出到显示单元200,但本发明并不限于此。即,图像组合单元800中的图像组合方法可以根据当前的操作模式而改变。更具体地说,可以如下执行:在允许用户执行输入操作的模式中,将接触区域图像半透明地显示出来,以其轮廓突出的方式显示出来,或者,以其轮廓突出的方式半透明地显示出来,以及,在禁止用户执行输入操作的模式中,将显示图像和接触区域图像相互组合起来,从而使接触区域图像半透明地显示出来。
接下来,将参考图24的次序,解释当存在用户的特定输入操作(在该示例中,按压操作)时,由控制单元400执行的处理流程。
在步骤S511中,当检测到用户的按压操作时,操作内容确定单元500将消息发送到控制单元400。
在步骤S512中,控制单元400指示显示信息产生单元700来改变显示信息。显示信息产生单元700根据控制单元400的指示改变显示信息。将通过使用图25A和图25B,解释在该步骤中显示信息改变的示例。
图25A示出了一个示例,其中,突出了与用户在检测单元100上按压的点相对应的GUI部分(即,用户所选择的GUI部分)。在图25A的示例中,将用户选择的GUI部分(在该示例中,按钮)改变成看起来像是被按下去了的按钮的图像。虽然为了方便起见,将接触区域图像示于图25A中,但实际上,接触区域图像并不包括在由显示信息产生单元700产生的显示信息中。显示信息的这种改变能够使用户容易地确认出是否正确地选择了他/她想要选择的GUI部分,从而提高了可操作性。
图25B示出了一个示例,其中,在屏幕上突出了与用户在检测单元100上按压的点相对应的点。在图25B的示例中,圆圈标记叠加在与用户在检测单元100上按压的点相对应的屏幕上的点上,好像是留下了手印一样。显示该圆圈标记直到自从显示该标记后经过了预定的时间段为止或者直到用户在检测单元100上按压另一点为止。显示信息的这种改变能够使用户容易地确认出是否正确地选择了他/她想要选择的点。具体而言,当用户想要指定的点和实际指定的点相互偏移时,可以确认出偏移的方向和距离。
当显示信息改变时,在步骤S513中,控制单元400指示图像组合单元800将由身体位置显示单元600形成的接触区域图像,和由显示信息产生单元700产生的显示信息相互组合。响应于该指示,图像组合单元800将接触区域图像和显示信息相互组合。
如上所述,根据本实施例的输入装置,用户可以使用GUI执行直观的输入操作,而不用直接地触摸屏幕,此外,也不用看手。
产业实用性
本发明的输入装置使得能够执行与触摸板显示器一样的直观的输入操作,而不用直接触摸屏幕,其适用于如下情况,即,当在远离显示器的位置执行输入操作时和当把远焦显示器作为显示模块时。由于在执行输入操作时不需要看手,故本发明的输入装置还适于用作汽车导航系统的输入装置。

Claims (22)

1.一种让用户将指令或信息输入到设备的输入装置,所述输入装置包括:
带有操作表面的检测单元,检测在所述操作表面上与所述用户的身体部位相接触或接近的区域,并输出指示所述区域的接触位置数据;
操作内容确定单元,基于所述接触位置数据,检测所述用户的特定输入操作;
身体位置显示单元,基于以前保存的身体形状图案和所述检测单元输出的接触位置数据,对所述用户放置在所述检测单元的操作表面上的身体部位的形状进行建模,并形成由于所述建模而获得的身体形状模型的图像,以此作为接触区域图像;
控制单元,基于从所述检测单元输出的所述接触位置数据,判断所述用户的身体部位是否与所述检测单元的操作表面相接触或接近;
显示信息产生单元,产生有助于所述用户执行操作的显示图像,并基于从所述检测单元输出的所述接触位置数据,改变将要形成的显示图像,并且,仅当所述控制单元判断出所述用户的身体部位与所述检测单元的操作表面相接触或接近时,所述显示信息产生单元才形成所述显示图像;
图像组合单元,将由所述身体位置显示单元形成的所述接触区域图像和由所述显示信息产生单元产生的所述显示图像相互组合;以及
显示单元,显示由所述图像组合单元通过所述组合获得的图像。
2.根据权利要求1所述的输入装置,其中,所述检测单元是接触式坐标输入装置。
3.根据权利要求1所述的输入装置,其中,所述检测单元包括沿着所述操作表面排列的多个电容传感器。
4.根据权利要求1所述的输入装置,其中,所述检测单元包括沿着所述操作表面排列的多个压力传感器。
5.根据权利要求4所述的输入装置,其中,所述接触位置数据包括由所述检测单元的压力传感器检测到的压力值,以及
所述身体位置显示单元基于所述接触位置数据,形成与所述检测单元的压力传感器检测到的所述压力值相对应的接触区域图像。
6.根据权利要求5所述的输入装置,其中,所述身体位置显示单元形成的所述接触区域图像的多个部分的颜色根据所述检测单元的压力传感器检测到的所述压力值而改变。
7.根据权利要求1所述的输入装置,其中,所述身体位置显示单元基于从所述检测单元输出的所述接触位置数据,执行校准处理,以获取所述用户的身体部位的特征,并基于所述校准处理的结果,对所述用户的身体部位的形状进行建模。
8.根据权利要求7所述的输入装置,还包括:
位于所述检测单元附近的非接触式位置检测传感器,其中,
所述非接触式位置检测传感器检测手相对于所述检测单元的方位,以及
所述身体位置显示单元用所述手的方位,形成所述接触区域图像。
9.根据权利要求8所述的输入装置,其中,基于从所述检测单元输出的所述手的方位和手指的接触位置,所述身体位置显示单元估计手掌的位置,以形成所述接触区域图像。
10.根据权利要求9所述的输入装置,其中,所述显示信息产生单元基于从所述检测单元输出的所述接触位置数据,改变将要形成的显示图像,并且,仅当所述控制单元判断出所述用户的身体部位与所述检测单元的操作表面相接触或接近时,所述显示信息产生单元才形成所述显示图像。
11.根据权利要求1所述的输入装置,其中,所述显示信息产生单元基于从所述检测单元输出的所述接触位置数据,改变将要形成的显示图像,并且,当所述控制单元判断出所述用户的身体部位与所述检测单元的操作表面相接触或接近时,所述显示信息产生单元突出将要形成的所述显示图像中的GUI部分。
12.根据权利要求1所述的输入装置,还包括:
特征检测模块,基于从所述检测单元输出的所述接触位置数据,检测与所述检测单元的操作表面相接触或接近的所述用户的身体部位的特征;
其中,所述显示信息产生单元根据由所述特征检测模块检测到的所述用户的身体部位的特征,改变将要形成的所述显示图像。
13.根据权利要求12所述的输入装置,其中,所述特征检测模块基于从所述检测单元输出的所述接触位置数据,判断与所述检测单元的操作表面相接触或接近的所述用户的身体部位是否为右手或左手;以及
所述显示信息产生单元根据所述特征检测模块的判断结果,改变将要形成的所述显示图像。
14.根据权利要求13所述的输入装置,其中,仅当与所述检测单元的操作表面相接触或接近的所述用户的身体部位是右手或左手时,所述显示信息产生单元才产生显示信息。
15.根据权利要求13所述的输入装置,其中,当与所述检测单元的操作表面相接触或接近的所述用户的身体部位是右手或左手时,所述显示信息产生单元突出将要形成的所述显示图像中的GUI部分、改变所述GUI部分的位置或改变所述GUI部分的有效性。
16.根据权利要求12所述的输入装置,其中,所述特征检测模块基于从所述检测单元输出的所述接触位置数据,判断与所述检测单元的操作表面相接触或接近的所述用户的身体部位是否为成年人的身体部位或儿童的身体部位;以及
所述身体位置显示单元根据所述特征检测模块的判断结果,改变将要形成的所述显示图像。
17.根据权利要求16所述的输入装置,其中,仅当与所述检测单元的操作表面相接触或接近的所述用户的身体部位是成年人的身体部位或儿童的身体部位时,所述显示信息产生单元才产生显示信息。
18.根据权利要求16所述的输入装置,其中,当与所述检测单元的操作表面相接触或接近的所述用户的身体部位是成年人的身体部位或儿童的身体部位时,所述显示信息产生单元突出将要形成的所述显示图像中的GUI部分、改变所述GUI部分的位置或改变所述GUI部分的有效性。
19.根据权利要求1所述的输入装置,其中,所述输入装置有两种操作模式:所述用户能够执行输入操作的模式和所述用户不能执行所述输入操作的模式;以及
在所述用户能够执行所述输入操作的模式中,所述图像组合单元将由所述显示信息产生单元形成的所述显示图像如实地显示在所述显示单元上,而不将所述显示图像与所述接触区域图像予以组合。
20.根据权利要求1所述的输入装置,其中,所述输入装置有两种操作模式:所述用户能够执行输入操作的模式和所述用户不能执行所述输入操作的模式;以及
所述图像组合单元根据所述操作模式,改变将由所述显示信息产生单元形成的所述显示图像与所述接触区域图像相互组合的方法。
21.根据权利要求20所述的输入装置,其中,所述图像组合单元将所述显示图像和所述接触区域图像予以组合,以便在所述用户能够执行所述输入操作的模式下将所述接触区域图像半透明地显示、以其轮廓突出的方式显示或者以其轮廓突出的方式半透明地显示,以及,以便在所述用户不能执行所述输入操作的模式下将所述接触区域图像不透明地显示。
22.一种交通工具,包括:
带有操作表面的检测单元,检测在所述操作表面上与用户的身体部位相接触或接近的区域,并输出指示所述区域的接触位置数据;
操作内容确定单元,基于所述接触位置数据,检测所述用户的特定输入操作;
身体位置显示单元,基于以前保存的身体形状图案和所述检测单元输出的接触位置数据,对所述用户放置在所述检测单元的操作表面上的身体部位的形状进行建模,并形成由于所述建模而获得的身体形状模型的图像,以此作为接触区域图像;
控制单元,基于从所述检测单元输出的所述接触位置数据,判断所述用户的身体部位是否与所述检测单元的操作表面相接触或接近;
显示信息产生单元,产生有助于所述用户执行操作的显示图像,并基于从所述检测单元输出的所述接触位置数据,改变将要形成的显示图像,并且,仅当所述控制单元判断出所述用户的身体部位与所述检测单元的操作表面相接触或接近时,所述显示信息产生单元才形成所述显示图像;
图像组合单元,将由所述身体位置显示单元形成的所述接触区域图像和由所述显示信息产生单元产生的所述显示图像相互组合;以及
显示单元,显示由所述图像组合单元通过所述组合获得的所述图像。
CN2011102851476A 2004-09-03 2005-08-09 输入装置 Pending CN102411438A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004257649A JP4351599B2 (ja) 2004-09-03 2004-09-03 入力装置
JP2004-257649 2004-09-03

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CNA2005800296546A Division CN101010661A (zh) 2004-09-03 2005-08-09 输入装置

Publications (1)

Publication Number Publication Date
CN102411438A true CN102411438A (zh) 2012-04-11

Family

ID=36036216

Family Applications (2)

Application Number Title Priority Date Filing Date
CN2011102851476A Pending CN102411438A (zh) 2004-09-03 2005-08-09 输入装置
CNA2005800296546A Pending CN101010661A (zh) 2004-09-03 2005-08-09 输入装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
CNA2005800296546A Pending CN101010661A (zh) 2004-09-03 2005-08-09 输入装置

Country Status (5)

Country Link
US (1) US20070262965A1 (zh)
EP (1) EP1811360A4 (zh)
JP (1) JP4351599B2 (zh)
CN (2) CN102411438A (zh)
WO (1) WO2006027924A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103207760A (zh) * 2013-04-07 2013-07-17 福州瑞芯微电子有限公司 手持移动终端操控电子设备的方法与系统
CN105103107A (zh) * 2013-04-02 2015-11-25 株式会社电装 输入装置
TWI628582B (zh) * 2014-10-28 2018-07-01 鴻海精密工業股份有限公司 一種操作模式切換系統及方法

Families Citing this family (145)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7462798B2 (en) * 2005-04-27 2008-12-09 Aruze Corp. Gaming machine
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
DE102006037156A1 (de) * 2006-03-22 2007-09-27 Volkswagen Ag Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung
US7538760B2 (en) 2006-03-30 2009-05-26 Apple Inc. Force imaging input device and system
JP4788455B2 (ja) * 2006-04-12 2011-10-05 株式会社デンソー 車載操作システム
JP2007302154A (ja) * 2006-05-12 2007-11-22 Alps Electric Co Ltd 車載用入力装置
JP4635957B2 (ja) * 2006-05-12 2011-02-23 株式会社デンソー 車載操作システム
JP4965223B2 (ja) * 2006-05-25 2012-07-04 パナソニック株式会社 手の接触感覚の評価装置及び評価方法
DE102007011543A1 (de) * 2006-08-31 2008-03-06 Volkswagen Ag Verfahren zum Bedienen von Einrichtungen eines Fahrzeugs und Bedienvorrichtung für solche Einrichtungen
JP5119636B2 (ja) * 2006-09-27 2013-01-16 ソニー株式会社 表示装置、表示方法
US8284168B2 (en) 2006-12-22 2012-10-09 Panasonic Corporation User interface device
US7876310B2 (en) * 2007-01-03 2011-01-25 Apple Inc. Far-field input identification
US7855718B2 (en) * 2007-01-03 2010-12-21 Apple Inc. Multi-touch input discrimination
JP2008217548A (ja) * 2007-03-06 2008-09-18 Tokai Rika Co Ltd 操作入力装置
JP4605170B2 (ja) * 2007-03-23 2011-01-05 株式会社デンソー 操作入力装置
JP2008257374A (ja) * 2007-04-03 2008-10-23 Sharp Corp 携帯情報端末及び携帯電話機
JP5453246B2 (ja) * 2007-05-04 2014-03-26 クアルコム,インコーポレイテッド コンパクト・デバイスのためのカメラ・ベースのユーザ入力
EP1988445B1 (en) * 2007-05-04 2016-04-20 Whirlpool Corporation User interface and cooking oven provided with such user interface
JP4891179B2 (ja) * 2007-08-13 2012-03-07 キヤノン株式会社 座標入力装置、座標入力方法
JP4930716B2 (ja) * 2007-08-23 2012-05-16 株式会社デンソー 車両用遠隔操作装置
EP2187291A4 (en) * 2007-09-05 2012-06-13 Panasonic Corp PORTABLE TERMINAL DEVICE AND DISPLAY CONTROL TECHNIQUE
US20110057889A1 (en) * 2007-09-05 2011-03-10 Panasonic Corporation Portable terminal device and display control method
JP4636064B2 (ja) * 2007-09-18 2011-02-23 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
JP2009193423A (ja) * 2008-02-15 2009-08-27 Panasonic Corp 電子機器の入力装置
KR101007045B1 (ko) * 2008-03-12 2011-01-12 주식회사 애트랩 접촉센서 장치 및 이 장치의 포인팅 좌표 결정 방법
JP5005585B2 (ja) * 2008-03-14 2012-08-22 パナソニック株式会社 操作装置及びその方法
KR101297144B1 (ko) * 2008-03-19 2013-08-21 가부시키가이샤 덴소 차량용 조작 입력 장치
JP5247200B2 (ja) * 2008-03-27 2013-07-24 株式会社デンソーアイティーラボラトリ 地図表示システム、地図表示方法およびプログラム
JP5077956B2 (ja) * 2008-04-23 2012-11-21 Kddi株式会社 情報端末装置
JP5448370B2 (ja) * 2008-05-20 2014-03-19 キヤノン株式会社 情報処理装置及びその制御方法、プログラム、記憶媒体
JP4896932B2 (ja) * 2008-06-26 2012-03-14 京セラ株式会社 入力装置
JP5080401B2 (ja) * 2008-08-25 2012-11-21 株式会社Pfu 情報処理装置、透過表示要素制御方法およびプログラム
JP4922266B2 (ja) * 2008-08-25 2012-04-25 パナソニック株式会社 入力装置及び入力方法
US8421756B2 (en) * 2008-09-23 2013-04-16 Sony Ericsson Mobile Communications Ab Two-thumb qwerty keyboard
CA2680666A1 (en) * 2008-10-08 2010-04-08 Research In Motion Limited An electronic device having a state aware touchscreen
JP4962467B2 (ja) * 2008-10-20 2012-06-27 パナソニック株式会社 入力装置および入力方法
JP4941450B2 (ja) * 2008-10-20 2012-05-30 パナソニック株式会社 入力装置および入力方法
JP4962466B2 (ja) * 2008-10-20 2012-06-27 パナソニック株式会社 入力装置および入力方法
US8502785B2 (en) * 2008-11-12 2013-08-06 Apple Inc. Generating gestures tailored to a hand resting on a surface
WO2010067537A1 (ja) * 2008-12-08 2010-06-17 シャープ株式会社 操作受付装置及びコンピュータプログラム
JP4743267B2 (ja) * 2008-12-12 2011-08-10 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
EP2199949A1 (en) * 2008-12-22 2010-06-23 BRITISH TELECOMMUNICATIONS public limited company Viewpoint determination
JP2010157047A (ja) * 2008-12-26 2010-07-15 Brother Ind Ltd 入力装置
JP2012515966A (ja) * 2009-01-26 2012-07-12 ズッロ・テクノロジーズ・(2009)・リミテッド 物体の挙動を監視するためのデバイスおよび方法
DE102009006448B4 (de) 2009-01-29 2019-01-31 Volkswagen Ag Verfahren zum Bestimmen einer Sitzposition eines Insassen in einem Fahrzeug, Bedienelement für ein Fahrzeug, Bediensystem für ein Fahrzeug und Fahrzeug
US9141268B2 (en) * 2009-01-30 2015-09-22 Brother Kogyo Kabushiki Kaisha Inputting apparatus and storage medium storing program
JP4771183B2 (ja) * 2009-01-30 2011-09-14 株式会社デンソー 操作装置
FR2945067B1 (fr) * 2009-02-23 2015-02-27 Dav Dispositif de commande d'un ouvrant
US20100220063A1 (en) * 2009-02-27 2010-09-02 Panasonic Corporation System and methods for calibratable translation of position
JP2010215194A (ja) * 2009-03-19 2010-09-30 Hyundai Motor Co Ltd 車載機器の操作装置
JP4840620B2 (ja) * 2009-04-30 2011-12-21 株式会社デンソー 車載用電子機器操作装置
JP2010277197A (ja) * 2009-05-26 2010-12-09 Sony Corp 情報処理装置、情報処理方法およびプログラム
TWI498786B (zh) 2009-08-24 2015-09-01 Semiconductor Energy Lab 觸控感應器及其驅動方法與顯示裝置
JP5482023B2 (ja) * 2009-08-27 2014-04-23 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
KR101612283B1 (ko) * 2009-09-10 2016-04-15 삼성전자주식회사 휴대용 단말기에서 사용자의 입력 패턴을 판단하기 위한 장치 및 방법
CN102023911B (zh) * 2009-09-16 2012-10-03 致伸科技股份有限公司 输入装置模型的测试系统
CA2775007A1 (en) * 2009-09-23 2011-03-31 Dingnan Han Method and interface for man-machine interaction
US9143640B2 (en) * 2009-09-30 2015-09-22 Brother Kogyo Kabushiki Kaisha Display apparatus and input apparatus
US8078359B2 (en) * 2009-10-05 2011-12-13 Tesla Motors, Inc. User configurable vehicle user interface
US9079498B2 (en) * 2009-10-05 2015-07-14 Tesla Motors, Inc. Morphing vehicle user interface
US8818624B2 (en) * 2009-10-05 2014-08-26 Tesla Motors, Inc. Adaptive soft buttons for a vehicle user interface
KR20110058623A (ko) * 2009-11-24 2011-06-01 삼성전자주식회사 사용자 조작의 시작 위치를 가이드 하는 gui 제공방법 및 이를 적용한 디지털 기기
US8564424B2 (en) * 2009-12-07 2013-10-22 Inventioneers Etc., Llc Steering wheel hand position sensing device
KR20110067559A (ko) * 2009-12-14 2011-06-22 삼성전자주식회사 디스플레이장치 및 그 제어방법, 디스플레이시스템 및 그 제어방법
JP4783456B2 (ja) 2009-12-22 2011-09-28 株式会社東芝 映像再生装置及び映像再生方法
JP5440224B2 (ja) * 2010-02-03 2014-03-12 株式会社デンソー ナビゲーション装置
US20110227831A1 (en) * 2010-03-21 2011-09-22 Andrew Jesse Mills Determining Properties of Fingers via Keystroke Dynamics
US9891820B2 (en) 2010-04-23 2018-02-13 Handscape Inc. Method for controlling a virtual keyboard from a touchpad of a computerized device
US9891821B2 (en) 2010-04-23 2018-02-13 Handscape Inc. Method for controlling a control region of a computerized device from a touchpad
US9311724B2 (en) * 2010-04-23 2016-04-12 Handscape Inc. Method for user input from alternative touchpads of a handheld computerized device
US9310905B2 (en) 2010-04-23 2016-04-12 Handscape Inc. Detachable back mounted touchpad for a handheld computerized device
US20150363038A1 (en) * 2010-04-23 2015-12-17 Handscape Inc. Method for orienting a hand on a touchpad of a computerized system
US9542032B2 (en) * 2010-04-23 2017-01-10 Handscape Inc. Method using a predicted finger location above a touchpad for controlling a computerized system
US9529523B2 (en) * 2010-04-23 2016-12-27 Handscape Inc. Method using a finger above a touchpad for controlling a computerized system
US9678662B2 (en) 2010-04-23 2017-06-13 Handscape Inc. Method for detecting user gestures from alternative touchpads of a handheld computerized device
US20140253486A1 (en) * 2010-04-23 2014-09-11 Handscape Inc. Method Using a Finger Above a Touchpad During a Time Window for Controlling a Computerized System
US9639195B2 (en) 2010-04-23 2017-05-02 Handscape Inc. Method using finger force upon a touchpad for controlling a computerized system
US8593418B2 (en) * 2010-08-08 2013-11-26 Qualcomm Incorporated Method and system for adjusting display content
JP5615642B2 (ja) * 2010-09-22 2014-10-29 京セラ株式会社 携帯端末、入力制御プログラム及び入力制御方法
JP5304848B2 (ja) * 2010-10-14 2013-10-02 株式会社ニコン プロジェクタ
US20130325151A1 (en) * 2010-10-25 2013-12-05 Uico, Llc Control system with solid state touch sensor for complex surface geometry
WO2012056795A1 (ja) * 2010-10-27 2012-05-03 アルプス電気株式会社 入力デバイス及び表示装置
JP5594194B2 (ja) * 2011-03-10 2014-09-24 アイシン・エィ・ダブリュ株式会社 タッチパネル式操作装置、タッチパネルの操作方法及びコンピュータプログラム
JP5708083B2 (ja) * 2011-03-17 2015-04-30 ソニー株式会社 電子機器、情報処理方法、プログラム、及び電子機器システム
JP5298161B2 (ja) * 2011-06-13 2013-09-25 シャープ株式会社 操作装置及び画像形成装置
JP4945694B2 (ja) * 2011-06-27 2012-06-06 株式会社東芝 映像再生装置及び映像再生方法
US9024843B2 (en) 2011-06-30 2015-05-05 Google Inc. Wearable computer with curved display and navigation tool
US20130002724A1 (en) * 2011-06-30 2013-01-03 Google Inc. Wearable computer with curved display and navigation tool
JP5449269B2 (ja) * 2011-07-25 2014-03-19 京セラ株式会社 入力装置
DE102011112448A1 (de) * 2011-09-03 2013-03-07 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Bereitstellen einer Nutzerschnittstelle, insbesondere in einem Fahrzeug
US20130057515A1 (en) * 2011-09-07 2013-03-07 Microsoft Corporation Depth camera as a touch sensor
US8941560B2 (en) 2011-09-21 2015-01-27 Google Inc. Wearable computer with superimposed controls and instructions for external device
US8750852B2 (en) * 2011-10-27 2014-06-10 Qualcomm Incorporated Controlling access to a mobile device
JP2013117784A (ja) * 2011-12-01 2013-06-13 Panasonic Corp 入力装置、情報端末、入力制御方法、および入力制御プログラム
CH705918A2 (de) * 2011-12-19 2013-06-28 Ralf Trachte Feld-Analysen für flexible Computer-Eingabe.
US9116598B1 (en) 2012-01-10 2015-08-25 Koji Yoden User interface for use in computing device with sensitive display
US8933912B2 (en) * 2012-04-02 2015-01-13 Microsoft Corporation Touch sensitive user interface with three dimensional input sensor
CN102622182A (zh) * 2012-04-16 2012-08-01 李波 具备近接感测投影点坐标指示的离屏触控交互系统
DE102012206247A1 (de) * 2012-04-17 2013-10-17 Ford Global Technologies, Llc Verfahren und Vorrichtung zur Anzeige einer Hand eines Bedieners eines Bedienelements eines Fahrzeugs
CN103425237B (zh) * 2012-05-16 2016-08-03 联想(北京)有限公司 一种显示控制方法和电子设备
JP5877374B2 (ja) 2012-06-13 2016-03-08 パナソニックIpマネジメント株式会社 操作表示装置、プログラム
WO2013192539A1 (en) 2012-06-21 2013-12-27 Nextinput, Inc. Wafer level mems force dies
US20140002339A1 (en) * 2012-06-28 2014-01-02 David Brent GUARD Surface With Touch Sensors for Detecting Proximity
AU2013204058A1 (en) * 2012-06-28 2014-01-16 Apolon IVANKOVIC An interface system for a computing device and a method of interfacing with a computing device
EP2870445A1 (en) 2012-07-05 2015-05-13 Ian Campbell Microelectromechanical load sensor and methods of manufacturing the same
US9244576B1 (en) * 2012-12-21 2016-01-26 Cypress Semiconductor Corporation User interface with child-lock feature
JP6018509B2 (ja) 2013-01-16 2016-11-02 アズビル株式会社 情報表示装置、方法、およびプログラム
EP2767888A3 (en) * 2013-02-19 2014-10-01 Handscape Inc. Method for user input from alternative touchpads of a handheld computerized device
CN104035686B (zh) * 2013-03-08 2017-05-24 联想(北京)有限公司 一种文件传输方法及装置
WO2014176370A2 (en) 2013-04-23 2014-10-30 Handscape Inc. Method for user input from alternative touchpads of a computerized system
CN108345390B (zh) * 2013-09-11 2021-11-16 联想(北京)有限公司 一种辅助输入方法、装置及应用其的电子设备
US9256072B2 (en) * 2013-10-02 2016-02-09 Philip Scott Lyren Wearable electronic glasses that detect movement of a real object copies movement of a virtual object
KR101611205B1 (ko) * 2013-11-11 2016-04-11 현대자동차주식회사 디스플레이 장치, 디스플레이 장치가 설치된 차량 및 디스플레이 장치의 제어 방법
WO2015093005A1 (ja) * 2013-12-16 2015-06-25 パナソニックIpマネジメント株式会社 表示システム
KR101500227B1 (ko) * 2013-12-18 2015-03-06 현대자동차주식회사 음파 터치 패드
WO2015106246A1 (en) 2014-01-13 2015-07-16 Nextinput, Inc. Miniaturized and ruggedized wafer level mems force sensors
WO2015116220A1 (en) * 2014-01-31 2015-08-06 Hewlett-Packard Development Company, L.P. Touch sensitive mat of a system with a projector unit
DE102014204800A1 (de) * 2014-03-14 2015-09-17 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Bereitstellen einer graphischen Nutzerschnittstelle in einem Fahrzeug
CN103973975B (zh) * 2014-04-10 2017-11-07 北京智谷睿拓技术服务有限公司 交互方法、装置及用户设备
JP5969551B2 (ja) * 2014-07-22 2016-08-17 日本電信電話株式会社 マルチタッチスクリーン付き携帯端末およびその動作方法
US9436296B2 (en) 2014-08-12 2016-09-06 Microsoft Technology Licensing, Llc Color control
US10310675B2 (en) * 2014-08-25 2019-06-04 Canon Kabushiki Kaisha User interface apparatus and control method
JP2016115011A (ja) 2014-12-11 2016-06-23 トヨタ自動車株式会社 タッチ操作検出装置
CN105808040B (zh) 2014-12-30 2019-01-15 华为终端(东莞)有限公司 一种图形用户界面的显示方法及移动终端
CN107848788B (zh) 2015-06-10 2023-11-24 触控解决方案股份有限公司 具有容差沟槽的加固的晶圆级mems力传感器
US9830495B2 (en) * 2015-07-17 2017-11-28 Motorola Mobility Llc Biometric authentication system with proximity sensor
KR102433879B1 (ko) * 2015-08-21 2022-08-18 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
CN105159500B (zh) * 2015-09-14 2018-07-10 广东欧珀移动通信有限公司 触摸屏的压力显示方法及装置
JP6786792B2 (ja) * 2015-12-03 2020-11-18 セイコーエプソン株式会社 情報処理装置、表示装置、情報処理方法、及び、プログラム
JP6751565B2 (ja) * 2016-01-29 2020-09-09 任天堂株式会社 ゴルフゲーム装置、ゴルフゲーム制御プログラム、ゴルフゲームシステムおよびゴルフゲーム制御方法
JP6390657B2 (ja) * 2016-04-07 2018-09-19 トヨタ自動車株式会社 車両用表示装置
US11255737B2 (en) 2017-02-09 2022-02-22 Nextinput, Inc. Integrated digital force sensors and related methods of manufacture
WO2018148510A1 (en) 2017-02-09 2018-08-16 Nextinput, Inc. Integrated piezoresistive and piezoelectric fusion force sensor
WO2019018641A1 (en) 2017-07-19 2019-01-24 Nextinput, Inc. STACK OF STRAIN TRANSFER IN A MEMS FORCE SENSOR
WO2019023309A1 (en) 2017-07-25 2019-01-31 Nextinput, Inc. FORCE SENSOR AND INTEGRATED FINGERPRINTS
WO2019023552A1 (en) 2017-07-27 2019-01-31 Nextinput, Inc. PIEZORESISTIVE AND PIEZOELECTRIC FORCE SENSOR ON WAFER AND METHODS OF MANUFACTURING THE SAME
US20190084418A1 (en) * 2017-09-20 2019-03-21 Ford Global Technologies, Llc Method and apparatus for display interaction mirroring
WO2019079420A1 (en) 2017-10-17 2019-04-25 Nextinput, Inc. SHIFT TEMPERATURE COEFFICIENT COMPENSATION FOR FORCE SENSOR AND STRAIN GAUGE
WO2019090057A1 (en) 2017-11-02 2019-05-09 Nextinput, Inc. Sealed force sensor with etch stop layer
US11874185B2 (en) 2017-11-16 2024-01-16 Nextinput, Inc. Force attenuator for force sensor
JP7242188B2 (ja) * 2018-03-08 2023-03-20 株式会社ワコム フォースセンサ無タッチセンサにおける疑似プッシュ判定方法
US20200218488A1 (en) * 2019-01-07 2020-07-09 Nuance Communications, Inc. Multimodal input processing for vehicle computer
US10962427B2 (en) 2019-01-10 2021-03-30 Nextinput, Inc. Slotted MEMS force sensor
CN114721576A (zh) * 2020-12-18 2022-07-08 华为技术有限公司 手指触摸操作显示方法及装置
US11847293B2 (en) * 2021-08-05 2023-12-19 Rolland & Hamann Innovations, LLC Selectable input alterations

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5708460A (en) * 1995-06-02 1998-01-13 Avi Systems, Inc. Touch screen
JPH10269012A (ja) * 1997-03-28 1998-10-09 Yazaki Corp タッチパネルコントローラ及びこれを用いた情報表示装置
JP2000006687A (ja) * 1998-06-25 2000-01-11 Yazaki Corp 車載機器スイッチ安全操作システム
CN1302409A (zh) * 1998-05-07 2001-07-04 Art-高级技巧识别技术有限公司 车辆部件的手写与话音控制
US6597347B1 (en) * 1991-11-26 2003-07-22 Itu Research Inc. Methods and apparatus for providing touch-sensitive input in multiple degrees of freedom
WO2004044664A1 (en) * 2002-11-06 2004-05-27 Julius Lin Virtual workstation

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS51145082U (zh) * 1975-05-14 1976-11-22
JPS6324319A (ja) * 1986-03-17 1988-02-01 Mitsubishi Electric Corp 情報入力装置
JPH02132510A (ja) * 1988-11-12 1990-05-22 Sony Corp 入力装置
JP2772153B2 (ja) * 1991-04-12 1998-07-02 アルパイン株式会社 データ入力装置
US5418712A (en) * 1993-06-04 1995-05-23 Matsushita Electric Industrial Co., Ltd. Manipulation performance evaluating apparatus for evaluating manipulation performance of a commodity having operating parts
DE4443912C2 (de) * 1994-12-09 2003-07-17 Bayerische Motoren Werke Ag Bedienvorrichtung in Kraftfahrzeugen
US5831584A (en) * 1995-07-28 1998-11-03 Chrysler Corporation Hand calibration system and virtual display selection for vehicle simulator
US6067079A (en) * 1996-06-13 2000-05-23 International Business Machines Corporation Virtual pointing device for touchscreens
JP3968477B2 (ja) * 1997-07-07 2007-08-29 ソニー株式会社 情報入力装置及び情報入力方法
JP3736599B2 (ja) * 1998-06-16 2006-01-18 株式会社フジクラ 車載用入力装置
US7079114B1 (en) * 1998-08-21 2006-07-18 Peter Smith Interactive methods for design of automobiles
US6492979B1 (en) * 1999-09-07 2002-12-10 Elo Touchsystems, Inc. Dual sensor touchscreen utilizing projective-capacitive and force touch sensors
JP2001265481A (ja) * 2000-03-21 2001-09-28 Nec Corp ページ情報表示方法及び装置並びにページ情報表示用プログラムを記憶した記憶媒体
JP2004196260A (ja) * 2002-12-20 2004-07-15 Nissan Motor Co Ltd 車両用表示装置
US7743348B2 (en) * 2004-06-30 2010-06-22 Microsoft Corporation Using physical objects to adjust attributes of an interactive display application

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6597347B1 (en) * 1991-11-26 2003-07-22 Itu Research Inc. Methods and apparatus for providing touch-sensitive input in multiple degrees of freedom
US5708460A (en) * 1995-06-02 1998-01-13 Avi Systems, Inc. Touch screen
JPH10269012A (ja) * 1997-03-28 1998-10-09 Yazaki Corp タッチパネルコントローラ及びこれを用いた情報表示装置
CN1302409A (zh) * 1998-05-07 2001-07-04 Art-高级技巧识别技术有限公司 车辆部件的手写与话音控制
JP2000006687A (ja) * 1998-06-25 2000-01-11 Yazaki Corp 車載機器スイッチ安全操作システム
WO2004044664A1 (en) * 2002-11-06 2004-05-27 Julius Lin Virtual workstation

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105103107A (zh) * 2013-04-02 2015-11-25 株式会社电装 输入装置
CN105103107B (zh) * 2013-04-02 2018-01-16 株式会社电装 输入装置
CN103207760A (zh) * 2013-04-07 2013-07-17 福州瑞芯微电子有限公司 手持移动终端操控电子设备的方法与系统
CN103207760B (zh) * 2013-04-07 2016-03-16 福州瑞芯微电子股份有限公司 手持移动终端操控电子设备的方法与系统
TWI628582B (zh) * 2014-10-28 2018-07-01 鴻海精密工業股份有限公司 一種操作模式切換系統及方法

Also Published As

Publication number Publication date
US20070262965A1 (en) 2007-11-15
EP1811360A1 (en) 2007-07-25
JP4351599B2 (ja) 2009-10-28
JP2006072854A (ja) 2006-03-16
CN101010661A (zh) 2007-08-01
WO2006027924A1 (ja) 2006-03-16
EP1811360A4 (en) 2012-01-18

Similar Documents

Publication Publication Date Title
CN102411438A (zh) 输入装置
US8085243B2 (en) Input device and its method
CN101375235B (zh) 信息处理装置
CN107479717B (zh) 屏幕键盘的显示方法及其计算机程序产品
RU2617621C2 (ru) Способ и устройство для отображения кисти руки оператора элемента управления транспортного средства
CN105584368A (zh) 用于在机动车中传输信息的系统
CN105144070B (zh) 用于在车辆中提供图形用户界面的方法和装置
JP2009530726A (ja) 対話型操作装置および対話型操作装置を動作させるための方法
KR101019254B1 (ko) 공간 투영 및 공간 터치 기능이 구비된 단말 장치 및 그 제어 방법
JP2010102508A (ja) 入力装置
US10579139B2 (en) Method for operating virtual reality spectacles, and system having virtual reality spectacles
CN102426486A (zh) 一种立体交互方法及被操作设备
CN109643219A (zh) 用于与在车辆中的显示设备上呈现的图像内容进行交互的方法
CN102508562A (zh) 一种立体交互系统
JP5837782B2 (ja) エレベータの操作パネル装置
US20160137064A1 (en) Touch input device and vehicle including the same
JP6115421B2 (ja) 入力装置および入力システム
CN102508561A (zh) 一种操作棒
JP5062898B2 (ja) ユーザインタフェイス装置
JP2017197015A (ja) 車載用情報処理システム
CN102508563A (zh) 一种立体交互方法以及被操作设备
EP3293624A1 (en) Input device and method
CN110462690B (zh) 图像显示系统
WO2019069249A1 (en) LASER POINTER THAT CAN BE USED FOR INTERFACE BETWEEN USER AND AUTOMOBILE
JP4962466B2 (ja) 入力装置および入力方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Owner name: INTELLECTUAL PROPERTY BRIDGE NO. 1 CO., LTD.

Free format text: FORMER OWNER: MATSUSHITA ELECTRIC INDUSTRIAL CO, LTD.

Effective date: 20140103

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20140103

Address after: Tokyo, Japan, Japan

Applicant after: GODO KAISHA IP BRIDGE 1

Address before: Osaka Japan

Applicant before: Matsushita Electric Industrial Co., Ltd.

C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20120411