CN105159445A - 输入装置 - Google Patents

输入装置 Download PDF

Info

Publication number
CN105159445A
CN105159445A CN201510486457.2A CN201510486457A CN105159445A CN 105159445 A CN105159445 A CN 105159445A CN 201510486457 A CN201510486457 A CN 201510486457A CN 105159445 A CN105159445 A CN 105159445A
Authority
CN
China
Prior art keywords
motion
display
user interface
operator
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510486457.2A
Other languages
English (en)
Other versions
CN105159445B (zh
Inventor
松原孝志
尾崎友哉
德永龙也
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Hitachi Maxell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Maxell Ltd filed Critical Hitachi Maxell Ltd
Publication of CN105159445A publication Critical patent/CN105159445A/zh
Application granted granted Critical
Publication of CN105159445B publication Critical patent/CN105159445B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种对于用户而言使用便利的输入装置,其具备:作为图像信号输入操作者的运动的输入部;根据输入到输入部的图像信号检测运动的运动检测部;显示图形用户界面的显示部;和根据由运动检测部检测到的运动,在显示部中变更图形用户界面的显示的控制部,其中,在操作者操作运动前,控制部在显示部中显示运动向导,该运动向导通过动画的变化表示与操作者的运动不同步的、所需要的操作者的运动和通过进行所需要的操作者的运动导致的显示的图形用户界面的变更状态,在操作者依照动画的变化操作运动后,控制部在显示部中,改变图形用户界面的显示,使得动画的变化与由运动检测部检测到的操作者的运动同步。

Description

输入装置
本案是申请号为201010167387.1、申请日为2010年4月23日的同名专利申请的分案申请
技术领域
本发明涉及输入装置。
背景技术
经由图形用户界面(以下称作GUI)接收用户(操作者)的操作,同时赋予用户操作结果的反馈的计算机及电视机正在普及。
专利文献1中,公开有显示用于辅助用户的操作的操作引导信息的便携终端。用户可根据该引导使手指上下左右动作,执行目的功能。
专利文献2中,公开有进行用于以视觉方式表示成为用户的操作的姿势的识别对象的姿势图像显示的接口装置。用户可边确认姿势图像边进行装置的操作。
专利文献3中公开有显示成为用户的操作的姿势的图表和显示所进行的操作的车载设备。用户为了容易地进行而可以了解姿势。
专利文献4中公开有表示驾驶中手的状态和显示操作对象设备的选择向导信息的车辆用操作输入装置。用户参照该向导动手,可选择目的操作设备。
专利文献1:日本专利特开2007-213245号公报
专利文献2:日本专利特开2008-52590号公报
专利文献3:日本专利特开2001-216069号公报
专利文献4:日本专利特开2005-250785号公报
任一专利文献都公开有表示用于操作的动作、停顿,用户根据这些指示执行与规定的装置相关的动作。
但是,用户为进行操作而进行规定的动作或采取规定的停顿时,直至规定的动作、规定的停顿,偶尔会将无意识进行的其它动作、其它停顿识别为用于操作的动作,可能会执行与非意图的装置相关的动作。
例如,用户为使所显示的内容向右方向动作,在将手向右方向动作时,处于右方向的手返回左方向的动作被识别为使内容向左方向动作的操作,可能会执行该动作。
即,任一专利文献中都没有考虑,在用户进行用于操作的姿势时,对于用户来说,是从直觉上理解用户的每一个动作是否是被识别的状态。
发明内容
因此,本发明的目的在于,在考虑到这样的事情方面,提供显示用户操作时进行的动作如何识别,且没有非意图的操作的使用性好的输入装置。
为实现所述目的,本发明提供一种输入装置,其具备:作为图像信号输入操作者的运动的输入部;根据输入到上述输入部的图像信号检测运动的运动检测部;显示图形用户界面的显示部;和根据由上述运动检测部检测到的运动,在上述显示部中变更上述图形用户界面的显示的控制部,上述控制部,在上述显示部中显示与由上述运动检测部检测到的运动同步的运动,并变更上述图形用户界面的显示。
在此,上述图形用户界面的显示是为从多个选择项目选择任意的选择项目而使多个选择项目的显示位置移动的显示,上述控制部在上述显示部中显示与由上述运动检测部检测到的运动同步的运动,并且根据该运动使上述多个选择项目的显示位置移动。
另外,上述输入装置中,上述控制部在上述显示部中显示用于对操作前的操作者说明通过哪一运动进行哪一操作的、需要由上述运动检测部进行检测的运动。
在此,上述图形用户界面的显示是为从多个选择项目选择任意的选择项目而使多个选择项目的显示位置移动的显示,上述控制部在上述显示部中显示使上述多个选择项目的显示位置移动所需的、需要由上述运动检测部进行检测的运动。
根据本发明,例如在用户根据姿势进行电视等装置的操作的情况下,用户了解目前自己进行的姿势如何识别,可以以仅进行有意识的操作的方式进行姿势调节。
附图说明
图1是表示实施例1的输入装置的概略图;
图2是表示实施例1的输入装置的构成的框图;
图3是表示实施例1的输入装置的用户的操作方法的概略图;
图4是说明实施例1的用户操作和输入装置的动作的对应的概略图;
图5是说明实施例1的输入装置的动作的流程图;
图6是说明实施例1的用户操作和输入装置的动作的对应的概略图;
图7是表示实施例2的输入装置的用户的操作方法的概略图;
图8是说明实施例2的用户操作和输入装置的动作的对应的概略图;
图9是说明实施例2的用户操作和输入装置的动作的对应的概略图;
图10是说明实施例3的用户操作和输入装置的动作的对应的概略图;
符号说明
100输入装置
101显示部
102摄像部
103用户
104操作向导
200动作检测(运动检测)部
201控制部
202影像信号处理部
300左右摆动手的动作
301操作滚轮
302选择项目
303转动手的动作
400动画操作向导
700操作菜单
701手的动作
800动画操作向导
1000操作映像
具体实施方式
下面,对应用了本发明的各实施例进行说明。
(实施例1)
本实施例的输入装置100是从拍摄到用户的动图像检测用户的手的动作并可根据该动作变更GUI的装置。
图1表示用户通过显示部101、摄像部102、用户103、操作引导部104使用输入装置100时的动作环境的概括。
显示部101是输入装置100的显示装置,例如由液晶显示器及等离子体显示器等显示装置构成。显示部101由显示面板和面板控制电路和面板控制驱动器构成,将从后述的影像信号处理部202供给的影像数据显示在该显示面板上。摄像部102是用于向输入装置100输入动图像的装置,例如为相机。用户103是对输入装置100进行操作的用户。操作引导部104是显示在显示部101上的GUI,是用于对上述用户103说明上述输入装置100的操作方法的文字及图。
例如图2所示,输入装置100具备显示部101、摄像部102、动作检测(运动检测)部200、控制部201、影像信号处理部202。
动作检测(运动检测)部200从摄像部102接收动图像信号,根据接收到的动图像信号检测例如人物伸出手、摆手、转动手等人物的动作。另外,根据检测到的动作输出与该动作相对应的规定的指令。控制部201例如由微处理机构成,根据从动作检测(运动检测)部200接收到的上述指令控制影像信号处理部202的动作。影像信号处理部202例如由ASIC、FPGA、MPU等处理装置构成。影像信号处理部202根据控制部201的控制将GUI的影像数据转换成可在显示部101进行处理的形式并输出。
图3表示用户103操作本发明的输入装置100时的用户103的动作和上述显示部101的动作及显示的对应。图3的“通常状态”的图表示用户103未进行输入装置100的操作的状态。本实施例的输入装置100的构成为,识别用户103左右摆手的动作300,开始左右摆手的动作300的识别,输入装置100开始用户103的操作的接收。因此,如图3的“开始操作”的图所示,用户103向输入装置100伸出手,进而左右摆动伸出的手,由此,如图3的“操作状态”的图所示,在上述显示部101显示操作用的菜单。另外,该菜单由操作滚轮301和多个选择项目302构成。用户103进行转动手的动作303时,与之连动,该操作滚轮301转动,并且,该多个选择项目302转动移动。这样,可用户103可选择该选择项目302的任意的项目。
图4是说明用户103操作图3所示的输入装置100时的用户103的动作和上述显示部101的显示的对应的图。作为显示对对应,有上述操作引导部104,动画操作向导400的显示方法及显示时机。动画操作向导400是操作向导,其通过运动的图像向用户说明用于对显示在上述显示部101中的菜单进行操作的方法。
其次,使用图1~图4、及图5的流程图对输入装置100的动作进行说明。
输入装置100是检测从拍摄到用户103的动图像信号检测用户103的手的动作并可根据该动作变更GUI的显示的装置。
首先,参照图2对输入装置100检测用户103的手的动作并根据该动作显示GUI之前的处理的流程。用户103对于输入装置100通过进行未图示的电源按钮等而开始输入装置100的动作。控制部201响应上述动作的开始,赋予影像信号处理部202显示规定的图像的指示。影像信号处理部202响应上述指示,输出用于显示部101的输入的影像信号。由此,在显示部101显示图像。
另外,控制部201响应上述动作的开始,对摄像部102指示动图像的拍摄的开始。摄像部102响应上述指示,开始动图像的拍摄,并将拍摄到的动图像数据向动作检测(运动检测)部200输出。动作检测(运动检测)部200使用从接收到的上述动图像的数据进行特征点提取等的方法来检测用户手的动作,进而在将该手的动作判断为是跟随预先决定的图案的情况下,向控制部201输出对应于该图案的指令。控制部201根据该指令对影像信号处理部202指示GUI的显示及显示的变更。影像信号处理部202响应上述指示,变更输出的影像信号,由此变更显示部101上的GUI的显示。
其次,使用图4及图5的流程图对用户103操作输入装置100时的操作向导104及动画操作导向件400的显示方法进行说明。
首先,用户103按规定的顺序开始输入装置100的动作,输入装置100的控制部201按之前叙述的顺序开始人物的手的动作(姿势)的识别(步骤500)。此时的用户103和输入装置100的状态之一例是图4的“通常状态”。
其次,如图4的“开始操作向导”,用户103向输入装置100伸出手(步骤501:Yes)。输入装置100识别用户103伸出手的动作,将操作向导104显示于显示部101(步骤502)。此时,操作向导104为用户103开始输入装置100的操作时进行的动作(操作开始用姿势)即说明手左右摆动的动作300的向导。另外,用户103放下手时,输入装置100使操作向导104的显示消失(步骤501:No或步骤503:No)。
其次,如图4的“开始操作”,用户103根据由操作向导104说明的内容进行朝向输入装置100左右摆手的动作(步骤503:Yes)。输入装置100识别该左右摆手的动作300,如图4的“动画操作向导”所示,在显示部101中显示由操作滚轮301和选择项目302构成的姿势操作用菜单(步骤504)。进而,输入装置100为说明该姿势操作用菜单的操作方法而在显示部101显示上述动画操作向导400(步骤505)。此时,动画操作向导400以描绘被拍摄的人物,描绘出的人物的手触摸操作滚轮301,手与操作滚轮一同转动移动的方式进行显示。由此,可以对用户103直观地说明在哪一位置进行哪一动作时进行哪一操作或手动作何种程度。
其次,如图4的“操作状态”所示,用户103根据动画操作向导400的显示进行转动手的动作303。当为(步骤506:Yes)时,输入装置100识别用户103的该动作,并通过动画操作向导400显示与所识别的该动作同步的动作,同时将识别出的该动作反映在姿势操作用菜单上(步骤507)。即,用户进行转动手的动作303时,在显示画面上也进行由动画操作向导400显示的人转动接触操作滚轮301的手,而使操作滚轮301转动,并使选择项目302转动的显示。
这样,动画操作向导400在步骤505中,在用户进行操作之前,与用户的动作无关地作为动画变化的非同步型操作向导动作。另外,在步骤507中用户开始操作的情况下,与用户103的动作同步,作为动画变化的同步操作向导进行动作(参照图6)。
这样,输入装置100识别用户103动手的动作,并根据该动作显示操作向导104和动画操作向导400,对用户103提示操作有效的动作(姿势)。由此,用户103可以确认在哪一时机进行哪一动作(姿势)时可以进行所希望的操作,因此,可以顺畅地进行菜单的显示及菜单项目的选择等操作。
另外,上述非同步型操作向导相对于操作前的用户使动画变化,对理解在进行哪一动作时进行哪一操作是有效的。本实施例中,在显示画面内显示操作滚轮301和选择项目302,这样,通过操作使绘画、图、图像移动,与之相对,对于不知道该进行哪一动作的用户特别有效。
另外,上述同步型操作向导对于操作后的用户,通过动画显示用户进行的动作,同时,为进行或不进行实际的操作,而可以使用户直觉上理解用户的每一个动作的状态是否被识别。因此,用户可以通过自身不进行非意图的操作的方式来修正动作。
(实施例2)
接着,对实施例2进行说明。本实施例中,与实施例1的输入装置100的操作方法不同,对用户通过两手的动作可操作输入装置100的情况下的操作方法和操作向导的显示方法进行说明。输入装置100的构成与实施例1相同,用户的操作方法不同。
下面,基于附图说明本实施例。另外,下面,与上述实施例相同的部分标注同一符号,省略其说明。
图7表示本实施例中用户操作输入装置100时的用户手的动作和显示于显示部101的GUI的状态。显示于显示部101的该操作菜单700中,在模拟三维空间内,在圆形的表(table)上配置三个选择项目。而且,通过该圆形的表旋转,位于画面正前的项目成为被选择的项目。另外,在该操作菜单700中,通过对用户103提示在该圆形的表上重叠手形的外观,赋予用户103手放在表上且旋转表的映像。用户手的动作701表示用户103为了操作上述操作菜单700而两手沿圆轨道动作。这样,用户通过使两手沿圆轨道动作而在圆表上转动,可在画面正前使要选择的项目动作。
使用图8对本实施例的输入装置100的动作和操作向导的显示方法进行说明。
图8的“菜单显示”的图表示以与实施例1相同的方法显示菜单的状态。输入装置100可以通过与实施例1相同的方法识别用户103的手的动作。用户103相对于输入装置100伸出双手时,如图8的“动画操作向导显示”所示,表示动画操作向导800。该动画操作向导800显示模拟了人物两手动作的样子的图像,表示用于用户使用有动作的图像操作操作菜单700的情况下进行的动作。其次,用户103根据该动画操作向导800所说明的动作开始操作菜单700的操作时,如图8的“操作”所示,该动画操作向导800的显示消除,将用户103的动作反映成向操作菜单700的操作。
这样,输入装置100通过操作菜单700的形状及外观赋予用户103操作方法的映像。另外,实际上用户103基于该映像进行操作时,更具体地提示说明用户的操作方法的动画操作向导800。
由此,用户可以在进行操作的定时接收有关操作的具体的向导。因此,用户自身要进行的操作有效,即能够理解是哪一操作方法并顺畅地进行菜单项目的操作。
另外,上述操作菜单700例如图9所示,也可以与由实施例1中说明的操作滚轮301和选择项目302构成的操作用菜单的组合构成。本构成中,在用户103对输入装置100伸出单手时,显示单手操作用的动画操作向导。另外,在用户103对于输入装置100伸出两手时,显示两手操作用的动画操作向导。据此,可经由菜单的形状及外观反映多个操作面板,并且可以中实际上用户进行特定的操作时引导用户的操作方法。
(实施例3)
其次,对实施例3进行说明。本实施例中,对在实施例2的输入装置100中,不显示上述动画操作向导,通过在上述操作菜单中操作动作的部位显示用户进行操作映像,实现与实施例2相同的操作方法的输入装置进行说明。
下面,基于附图说明本实施例。另外,下面对与上述的实施例相同的部分标注同一符号,省略其说明。
使用图10说明本实施例的输入装置100的动作和操作映像的显示方法。
图10的操作映像1000是反映了用户的手的图。本图中,用手按住上述操作菜单上的两个选择项目,对用户提示使上述操作菜单700内的圆形的表转动的操作方法。如图10的“抬起两手的状态1”,当用户103对输入装置100伸出两手时,显示操作圆形1000。由此,用户103可以理解,用户自身进行的操作是有效的状态、还是怎样操作方法。另外,图10的“抬起两手的状态2”表示用户103将两手伸出到比该图的“抬起两手的状态1”高的位置的状态。在该图的“抬起两手的状态2”中,操作有效1000的显示状态与该图的“抬起两手的状态1”相同。因此,用户103可以不依赖于伸手的位置,只要伸出两手,就可以识别为输入装置100为相同的动作。
这样,输入装置100不依赖于用户103的动作位置不同时的动作偏差,根据简单的动作在操作菜单上实际操作作用的部位显示操作映像1000。由此,用户在进行操作时,在理解为实际可操作的状态对同时在操作菜单上确认操作动作的部位,以不需要正确度的动作进行操作。

Claims (7)

1.一种输入装置,其特征在于,具备:
作为图像信号输入操作者的运动的输入部;
根据输入到所述输入部的图像信号检测运动的运动检测部;
显示图形用户界面的显示部;和
根据由所述运动检测部检测到的运动,在所述显示部中变更所述图形用户界面的显示的控制部,
其中,在操作者操作运动前,所述控制部在所述显示部中显示运动向导,该运动向导通过动画的变化表示与操作者的运动不同步的、所需要的操作者的运动和通过进行所需要的操作者的运动导致的显示的图形用户界面的变更状态,
在操作者依照动画的变化操作运动后,所述控制部在所述显示部中,改变所述图形用户界面的显示,使得动画的变化与由所述运动检测部检测到的操作者的运动同步。
2.如权利要求1所述的输入装置,其特征在于,
所述图形用户界面的显示包括:
具有多个选择项目的第一图形用户界面部分;
通过操作者改变所述第一图形用户界面部分的选择项目的被选择的状态的第二图形用户界面部分;和
指示所需要的操作者的运动的第三图形用户界面部分,
所述控制部在所述显示部中,显示用于表示随着所述第三图形用户界面部分的变化所述第二图形用户界面部分的操作的方式,以改变所述第一图形用户界面部分的选择项目的被选择的状态的向导,
在操作者操作运动时,所述第二图形用户界面部分和所述第三图形用户界面部分与由所述运动检测部检测到的操作者的运动同步运动,并且,所述控制部在所述显示部中改变所述第一图形用户界面部分的选择项目的被选择的状态。
3.如权利要求1所述的输入装置,其特征在于,
所述控制部在所述显示部中显示用于对操作前的操作者说明通过哪一运动进行哪一操作的、需要由所述运动检测部进行检测的运动。
4.如权利要求3所述的输入装置,其特征在于,
所述图形用户界面的显示是为从多个选择项目选择期望的选择项目而使多个选择项目的显示位置移动的显示,
所述控制部在所述显示部中显示使所述多个选择项目的显示位置移动所需的、需要由所述运动检测部进行检测的运动。
5.如权利要求3所述的输入装置,其特征在于,
需要被显示的运动是操作者单手操作的运动。
6.如权利要求5所述的输入装置,其特征在于,
需要被显示的运动是操作者双手操作的运动。
7.如权利要求3所述的输入装置,其特征在于,
所述控制部在所述显示部中显示运动向导,该运动向导通过动画的变化表示利用操作者伸出的单手或双手的、所需要的操作者的运动和通过进行所需要的操作者的运动导致的显示的图形用户界面的变更状态。
CN201510486457.2A 2009-04-23 2010-04-23 输入装置 Active CN105159445B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2009-104641 2009-04-23
JP2009104641A JP5256109B2 (ja) 2009-04-23 2009-04-23 表示装置
CN2010101673871A CN101901050A (zh) 2009-04-23 2010-04-23 输入装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN2010101673871A Division CN101901050A (zh) 2009-04-23 2010-04-23 输入装置

Publications (2)

Publication Number Publication Date
CN105159445A true CN105159445A (zh) 2015-12-16
CN105159445B CN105159445B (zh) 2019-03-01

Family

ID=42320359

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201510486457.2A Active CN105159445B (zh) 2009-04-23 2010-04-23 输入装置
CN2010101673871A Pending CN101901050A (zh) 2009-04-23 2010-04-23 输入装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN2010101673871A Pending CN101901050A (zh) 2009-04-23 2010-04-23 输入装置

Country Status (5)

Country Link
US (3) US9164578B2 (zh)
EP (1) EP2244166B1 (zh)
JP (1) JP5256109B2 (zh)
KR (1) KR101148484B1 (zh)
CN (2) CN105159445B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109152556A (zh) * 2016-06-06 2019-01-04 麦克赛尔株式会社 手指运动练习菜单生成系统、方法和程序

Families Citing this family (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4569613B2 (ja) 2007-09-19 2010-10-27 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
US9134800B2 (en) 2010-07-20 2015-09-15 Panasonic Intellectual Property Corporation Of America Gesture input device and gesture input method
EP2421252A1 (en) * 2010-08-17 2012-02-22 LG Electronics Display device and control method thereof
EP2421251A1 (en) * 2010-08-17 2012-02-22 LG Electronics Display device and control method thereof
US9164542B2 (en) * 2010-08-31 2015-10-20 Symbol Technologies, Llc Automated controls for sensor enabled user interface
TW201222429A (en) * 2010-11-23 2012-06-01 Inventec Corp Web camera device and operating method thereof
US9361009B2 (en) * 2010-12-01 2016-06-07 Adobe Systems Incorporated Methods and systems for setting parameter values via radial input gestures
US9575561B2 (en) * 2010-12-23 2017-02-21 Intel Corporation Method, apparatus and system for interacting with content on web browsers
JP5885309B2 (ja) * 2010-12-30 2016-03-15 トムソン ライセンシングThomson Licensing ジェスチャ認識のためのユーザ・インタフェース、装置および方法
KR20120080072A (ko) * 2011-01-06 2012-07-16 삼성전자주식회사 모션에 의해 제어되는 디스플레이 장치 및 그 모션 제어 방법
KR101858531B1 (ko) 2011-01-06 2018-05-17 삼성전자주식회사 모션에 의해 제어되는 디스플레이 장치 및 그 모션 제어 방법
KR101795574B1 (ko) 2011-01-06 2017-11-13 삼성전자주식회사 모션에 의해 제어되는 전자기기 및 그 제어 방법
US9058059B2 (en) 2011-03-03 2015-06-16 Omron Corporation Gesture input device and method for controlling gesture input device
US9317111B2 (en) 2011-03-30 2016-04-19 Elwha, Llc Providing greater access to one or more items in response to verifying device transfer
US8863275B2 (en) * 2011-03-30 2014-10-14 Elwha Llc Access restriction in response to determining device transfer
US9153194B2 (en) 2011-03-30 2015-10-06 Elwha Llc Presentation format selection based at least on device transfer determination
US8918861B2 (en) 2011-03-30 2014-12-23 Elwha Llc Marking one or more items in response to determining device transfer
JP2012215963A (ja) 2011-03-31 2012-11-08 Hitachi Consumer Electronics Co Ltd 映像表示装置
KR101514170B1 (ko) 2011-04-27 2015-04-21 엔이씨 솔루션 이노베이터 가부시키가이샤 입력 장치, 입력 방법 및 기록 매체
KR101514168B1 (ko) 2011-04-28 2015-04-21 엔이씨 솔루션 이노베이터 가부시키가이샤 정보 처리 장치, 정보 처리 방법 및 기록 매체
US10001898B1 (en) 2011-07-12 2018-06-19 Domo, Inc. Automated provisioning of relational information for a summary data visualization
US9792017B1 (en) 2011-07-12 2017-10-17 Domo, Inc. Automatic creation of drill paths
US9202297B1 (en) 2011-07-12 2015-12-01 Domo, Inc. Dynamic expansion of data visualizations
US9292112B2 (en) * 2011-07-28 2016-03-22 Hewlett-Packard Development Company, L.P. Multimodal interface
WO2013022222A2 (en) * 2011-08-05 2013-02-14 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on motion recognition, and electronic apparatus applying the same
ES2958183T3 (es) 2011-08-05 2024-02-05 Samsung Electronics Co Ltd Procedimiento de control de aparatos electrónicos basado en el reconocimiento de voz y de movimiento, y aparato electrónico que aplica el mismo
CN102360263A (zh) * 2011-09-26 2012-02-22 中兴通讯股份有限公司 一种以三维移动轨迹为输入的方法及移动终端
KR20130078490A (ko) * 2011-12-30 2013-07-10 삼성전자주식회사 전자 장치 및 그의 제어 방법
US9501152B2 (en) 2013-01-15 2016-11-22 Leap Motion, Inc. Free-space user interface and control using virtual constructs
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US9141197B2 (en) * 2012-04-16 2015-09-22 Qualcomm Incorporated Interacting with a device using gestures
US9448635B2 (en) * 2012-04-16 2016-09-20 Qualcomm Incorporated Rapid gesture re-engagement
TWI476706B (zh) * 2012-04-30 2015-03-11 Pixart Imaging Inc 偵測物件移動輸出命令的方法及其系統
KR101370022B1 (ko) * 2012-05-02 2014-03-25 주식회사 매크론 동작 인식 리모트 컨트롤러
US10360706B2 (en) 2012-05-22 2019-07-23 Sony Corporation Device method and program for adjusting a display state of a superimposed image
CN104508600B (zh) 2012-07-27 2017-06-13 日本电气方案创新株式会社 三维用户界面装置及三维操作方法
EP2698686B1 (en) * 2012-07-27 2018-10-10 LG Electronics Inc. Wrist-wearable terminal and control method thereof
SE537580C2 (sv) * 2012-08-03 2015-06-30 Crunchfish Ab Förbättrad inmatning
KR102063952B1 (ko) 2012-10-10 2020-01-08 삼성전자주식회사 멀티 디스플레이 장치 및 멀티 디스플레이 방법
KR101951228B1 (ko) 2012-10-10 2019-02-22 삼성전자주식회사 멀티 디스플레이 장치 및 그 촬상 방법
US20150212647A1 (en) 2012-10-10 2015-07-30 Samsung Electronics Co., Ltd. Head mounted display apparatus and method for displaying a content
KR101984683B1 (ko) 2012-10-10 2019-05-31 삼성전자주식회사 멀티 디스플레이 장치 및 그 제어 방법
KR102083937B1 (ko) 2012-10-10 2020-03-04 삼성전자주식회사 멀티 디스플레이 장치 및 그 툴 제공 방법
KR102083918B1 (ko) 2012-10-10 2020-03-04 삼성전자주식회사 멀티 디스플레이 장치 및 그 제어 방법
KR102061881B1 (ko) 2012-10-10 2020-01-06 삼성전자주식회사 멀티 디스플레이 장치 및 그 디스플레이 제어 방법
JP2014085964A (ja) * 2012-10-25 2014-05-12 Nec Personal Computers Ltd 情報処理方法、情報処理装置、及びプログラム
TWI454971B (zh) * 2012-12-11 2014-10-01 Pixart Imaging Inc 電子裝置控制方法以及使用此電子裝置控制方法的電子裝置
KR20140085061A (ko) * 2012-12-27 2014-07-07 삼성전자주식회사 디스플레이 장치 및 이의 제어 방법
JP2014127124A (ja) * 2012-12-27 2014-07-07 Sony Corp 情報処理装置、情報処理方法及びプログラム
CN103914126A (zh) * 2012-12-31 2014-07-09 腾讯科技(深圳)有限公司 一种多媒体播放器控制方法和装置
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
US9916009B2 (en) 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
JP6104707B2 (ja) * 2013-05-23 2017-03-29 アルパイン株式会社 電子機器、操作入力方法および操作入力プログラム
JP6004103B2 (ja) * 2013-06-25 2016-10-05 富士通株式会社 情報処理装置およびプログラム
US10281987B1 (en) 2013-08-09 2019-05-07 Leap Motion, Inc. Systems and methods of free-space gestural interaction
US20150067603A1 (en) * 2013-09-05 2015-03-05 Kabushiki Kaisha Toshiba Display control device
US20150193111A1 (en) * 2013-10-01 2015-07-09 Google Inc. Providing Intent-Based Feedback Information On A Gesture Interface
US10152136B2 (en) * 2013-10-16 2018-12-11 Leap Motion, Inc. Velocity field interaction for free space gesture interface and control
US9740296B2 (en) * 2013-12-16 2017-08-22 Leap Motion, Inc. User-defined virtual interaction space and manipulation of virtual cameras in the interaction space
JP6550643B2 (ja) * 2014-03-14 2019-07-31 本田技研工業株式会社 動作推定装置、ロボット、及び動作推定方法
US10845884B2 (en) * 2014-05-13 2020-11-24 Lenovo (Singapore) Pte. Ltd. Detecting inadvertent gesture controls
US20160034036A1 (en) * 2014-07-29 2016-02-04 Umm Al-Qura University Oled multi-use intelligent curtain and method
WO2016016674A1 (en) * 2014-07-29 2016-02-04 Umm Al-Qura University Transparent oled architectural partition and method
CN105516815A (zh) * 2014-09-25 2016-04-20 冠捷投资有限公司 使用者通过动作控制显示装置的操作界面的方法
WO2016051521A1 (ja) * 2014-09-30 2016-04-07 三菱電機エンジニアリング株式会社 画面操作装置及び画面操作方法
US10429923B1 (en) 2015-02-13 2019-10-01 Ultrahaptics IP Two Limited Interaction engine for creating a realistic experience in virtual reality/augmented reality environments
US9696795B2 (en) 2015-02-13 2017-07-04 Leap Motion, Inc. Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments
CN107533359B (zh) * 2015-05-20 2019-04-23 三菱电机株式会社 信息处理装置和联锁控制方法
US10460044B2 (en) 2017-05-26 2019-10-29 General Electric Company Methods and systems for translating natural language requirements to a semantic modeling language statement
USD855642S1 (en) * 2017-09-29 2019-08-06 Song Kug Im Portable terminal with a graphical user interface
US11875012B2 (en) 2018-05-25 2024-01-16 Ultrahaptics IP Two Limited Throwable interface for augmented reality and virtual reality environments
USD873285S1 (en) * 2018-07-24 2020-01-21 Magic Leap, Inc. Display panel or portion thereof with a graphical user interface
US11908243B2 (en) * 2021-03-16 2024-02-20 Snap Inc. Menu hierarchy navigation on electronic mirroring devices
US20230050526A1 (en) * 2021-08-10 2023-02-16 International Business Machines Corporation Internet of things configuration using eye-based controls

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
CN1531676A (zh) * 2001-06-01 2004-09-22 ���ṫ˾ 用户输入装置
JP2007122136A (ja) * 2005-10-25 2007-05-17 Sharp Corp メニュー項目の回転選択システム
CN101131609A (zh) * 2006-08-25 2008-02-27 株式会社东芝 接口装置和接口方法

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6323846B1 (en) * 1998-01-26 2001-11-27 University Of Delaware Method and apparatus for integrating manual input
JP2001216069A (ja) 2000-02-01 2001-08-10 Toshiba Corp 操作入力装置および方向検出方法
US7665041B2 (en) * 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US8745541B2 (en) 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
JP3945445B2 (ja) * 2003-04-21 2007-07-18 ソニー株式会社 表示方法及び表示装置
JP2004356819A (ja) * 2003-05-28 2004-12-16 Sharp Corp リモート操作装置
JP3941786B2 (ja) 2004-03-03 2007-07-04 日産自動車株式会社 車両用操作入力装置および方法
JP2006079281A (ja) * 2004-09-08 2006-03-23 Sony Corp 画像処理装置および方法、プログラム、並びに記録媒体
KR100687737B1 (ko) * 2005-03-19 2007-02-27 한국전자통신연구원 양손 제스쳐에 기반한 가상 마우스 장치 및 방법
US7657849B2 (en) 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
US8531396B2 (en) * 2006-02-08 2013-09-10 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
JP2007213245A (ja) 2006-02-08 2007-08-23 Nec Corp 携帯端末及びプログラム
US8972902B2 (en) * 2008-08-22 2015-03-03 Northrop Grumman Systems Corporation Compound gesture recognition
JP4650381B2 (ja) * 2006-09-08 2011-03-16 日本ビクター株式会社 電子機器
KR101304461B1 (ko) * 2006-12-04 2013-09-04 삼성전자주식회사 제스처 기반 사용자 인터페이스 방법 및 장치
JP2008146243A (ja) * 2006-12-07 2008-06-26 Toshiba Corp 情報処理装置、情報処理方法、及びプログラム
US7770136B2 (en) 2007-01-24 2010-08-03 Microsoft Corporation Gesture recognition interactive feedback
US20080215974A1 (en) * 2007-03-01 2008-09-04 Phil Harrison Interactive user controlled avatar animations
US8726194B2 (en) * 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
JP4569613B2 (ja) 2007-09-19 2010-10-27 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
JP5559691B2 (ja) 2007-09-24 2014-07-23 クアルコム,インコーポレイテッド 音声及びビデオ通信のための機能向上したインタフェース
US8413075B2 (en) * 2008-01-04 2013-04-02 Apple Inc. Gesture movies
US8196042B2 (en) * 2008-01-21 2012-06-05 Microsoft Corporation Self-revelation aids for interfaces
US8555207B2 (en) * 2008-02-27 2013-10-08 Qualcomm Incorporated Enhanced input using recognized gestures
US9772689B2 (en) * 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
US20100031202A1 (en) * 2008-08-04 2010-02-04 Microsoft Corporation User-defined gesture set for surface computing
TW201009650A (en) * 2008-08-28 2010-03-01 Acer Inc Gesture guide system and method for controlling computer system by gesture
US8610673B2 (en) * 2008-12-03 2013-12-17 Microsoft Corporation Manipulation of list on a multi-touch display
KR101979666B1 (ko) * 2012-05-15 2019-05-17 삼성전자 주식회사 표시부에 출력되는 입력 영역 운용 방법 및 이를 지원하는 단말기

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
CN1531676A (zh) * 2001-06-01 2004-09-22 ���ṫ˾ 用户输入装置
JP2007122136A (ja) * 2005-10-25 2007-05-17 Sharp Corp メニュー項目の回転選択システム
CN101131609A (zh) * 2006-08-25 2008-02-27 株式会社东芝 接口装置和接口方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109152556A (zh) * 2016-06-06 2019-01-04 麦克赛尔株式会社 手指运动练习菜单生成系统、方法和程序
CN109152556B (zh) * 2016-06-06 2022-06-24 麦克赛尔株式会社 手指运动练习菜单生成系统、方法和程序

Also Published As

Publication number Publication date
US20160018903A1 (en) 2016-01-21
JP2010257093A (ja) 2010-11-11
US9164578B2 (en) 2015-10-20
CN105159445B (zh) 2019-03-01
EP2244166B1 (en) 2018-10-31
CN101901050A (zh) 2010-12-01
EP2244166A3 (en) 2013-09-04
EP2244166A2 (en) 2010-10-27
JP5256109B2 (ja) 2013-08-07
US9411424B2 (en) 2016-08-09
US20100275159A1 (en) 2010-10-28
KR101148484B1 (ko) 2012-05-25
US11036301B2 (en) 2021-06-15
KR20100117036A (ko) 2010-11-02
US20160313802A1 (en) 2016-10-27

Similar Documents

Publication Publication Date Title
CN105159445A (zh) 输入装置
EP3461291B1 (en) Implementation of a biometric enrollment user interface
JP5333397B2 (ja) 情報処理端末およびその制御方法
JP4166229B2 (ja) タッチパネルを備えた表示装置
EP2328061A2 (en) Input apparatus
EP2659336B1 (en) User interface, apparatus and method for gesture recognition
CN101715087B (zh) 操作方法
JP5906984B2 (ja) 表示端末装置及びプログラム
US9612736B2 (en) User interface method and apparatus using successive touches
US20120249542A1 (en) Electronic apparatus to display a guide with 3d view and method thereof
JP5879880B2 (ja) タッチパネル式電子機器
JP2014078073A (ja) 情報処理プログラム、情報処理装置、情報処理システム、および画像表示方法
US20140317549A1 (en) Method for Controlling Touchscreen by Using Virtual Trackball
JP2015046949A (ja) 表示装置及びコンピュータプログラム
EP2827256A2 (en) Method for editing object and electronic device therefor
JP2011086035A (ja) 携帯機器、その画像表示制御方法および装置
CN106155284B (zh) 电子设备及信息处理方法
KR101541639B1 (ko) 전자기기 및 전자기기의 제어방법
JP6252042B2 (ja) 情報処理システム、情報処理装置、情報処理方法、およびプログラム
US20140225853A1 (en) Information processing device, information processing method, and program
KR101601763B1 (ko) 거치형 단말기에 대한 모션 제어 방법
JP2015005301A (ja) 携帯機器、その画像表示制御方法および装置
JP2017224358A5 (zh)
JP2008305023A (ja) プロジェクタ装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20180302

Address after: Kyoto Japan

Applicant after: MAXELL, Ltd.

Address before: Osaka Japan

Applicant before: Hitachi Maxell, Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder

Address after: Kyoto Japan

Patentee after: MAXELL, Ltd.

Address before: Kyoto Japan

Patentee before: MAXELL HOLDINGS, Ltd.

CP01 Change in the name or title of a patent holder
TR01 Transfer of patent right

Effective date of registration: 20220607

Address after: Kyoto Japan

Patentee after: MAXELL HOLDINGS, Ltd.

Address before: Kyoto Japan

Patentee before: MAXELL, Ltd.

TR01 Transfer of patent right