CN111007938A - 交互设备及其处理方法、装置 - Google Patents
交互设备及其处理方法、装置 Download PDFInfo
- Publication number
- CN111007938A CN111007938A CN201811168864.9A CN201811168864A CN111007938A CN 111007938 A CN111007938 A CN 111007938A CN 201811168864 A CN201811168864 A CN 201811168864A CN 111007938 A CN111007938 A CN 111007938A
- Authority
- CN
- China
- Prior art keywords
- interaction
- interactive
- state
- information
- target user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 252
- 238000003672 processing method Methods 0.000 title claims abstract description 9
- 230000003993 interaction Effects 0.000 claims abstract description 227
- 230000010365 information processing Effects 0.000 claims abstract description 41
- 230000009471 action Effects 0.000 claims description 54
- 235000013305 food Nutrition 0.000 claims description 34
- 238000000034 method Methods 0.000 claims description 34
- 238000004519 manufacturing process Methods 0.000 claims description 23
- 230000003238 somatosensory effect Effects 0.000 claims description 10
- 230000000763 evoking effect Effects 0.000 claims description 9
- 230000000875 corresponding effect Effects 0.000 description 20
- 230000008569 process Effects 0.000 description 12
- 235000012054 meals Nutrition 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000007514 turning Methods 0.000 description 4
- 235000021067 refined food Nutrition 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 230000001276 controlling effect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000006698 induction Effects 0.000 description 2
- 238000003754 machining Methods 0.000 description 2
- 235000013361 beverage Nutrition 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000007730 finishing process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/28—Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
- H04L12/2803—Home automation networks
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请实施例公开了交互设备及其处理方法、装置,所述交互设备配备有体感模块,以及信息处理模块;所述体感模块,用于感知用户的交互操作;所述信息处理模块,用于互动状态下,根据所述体感模块感知到的目标用户做出的交互操作信息,提供互动结果。通过本申请实施例,可以更方便的实现与交互设备的互动。
Description
技术领域
本申请涉及信息互动技术领域,特别是涉及交互设备及其处理方法、装置。
背景技术
“未来厨房”中,信息化的处理系统将会取代传统的纸质小票,相应的,会在厨房中配备大屏显示设备,可以显示出相关的信息。例如,可以包括当前正在加工的餐品的信息,已完成的餐品的信息,待加工的餐品的信息,等等。加工师傅可以通过查看大屏的方式获得上述信息,然后据此进行餐品的加工制作。
在使用大屏查看信息的过程中,如果屏幕展示的信息量比较大,则可能会遇到需要翻页查看,或者查看某一个具体订单的详细信息等互动需求。但是,在厨房这种场景中使用,加工师傅的主要工作室进行餐品的加工制作,双手经常会处于占满水或者油的状态;另外,加工师傅的加工工位离电视大屏也有一定的距离,在加工工位与大屏所在位置之间经常来回走动操作也不太方便,因此,不适合采用触摸屏的方式进行操作,也不太适合用鼠标操作。
为此,在厨房等应用场景中,如何使得加工师傅等用户更方便地与大屏设备进行互动,成为需要本领域技术人员解决的技术问题。
发明内容
本申请提供了交互设备及其处理方法、装置,可以更方便的实现与交互设备的互动。
本申请提供了如下方案:
一种餐品加工制作场所的信息处理系统,
所述系统包括:服务器,以及餐品加工制作场所内的至少一台交互设备;
所述交互设备包括体感模块,以及信息处理模块;
所述体感模块,用于感知用户的交互操作;
所述信息处理模块,用于在互动状态下,将所述体感模块感知到的目标用户做出的交互操作信息提交到服务器;
所述服务器,用于根据所述交互操作信息生成交互结果。
一种交互设备,
所述交互设备配备有体感模块,以及信息处理模块;
所述体感模块,用于感知用户的交互操作;
所述信息处理模块,用于互动状态下,根据所述体感模块感知到的目标用户做出的交互操作信息,提供互动结果。
一种信息交互方法,所述方法应用于互动设备中,包括:
在所述互动设备的互动状态下,通过所述互动设备的感知模块对目标用户做出的交互操作进行感知;
根据所感知到的交互操作信息,提供互动结果。
一种信息处理方法,包括:
接收交互设备提交的交互操作信息,所述交互操作信息是由所述交互设备在互动状态下通过感知用户的交互操作而确定的;
根据所述交互操作信息获得交互结果并返回给所述交互设备。
一种信息展示装置,包括:
交互操作感知单元,用于在所述互动设备的互动状态下,通过所述互动设备的感知模块对目标用户做出的交互操作进行感知;
互动结果提供单元,用于根据所感知到的交互操作信息,提供互动结果。
一种信息处理装置,包括:
交互操作信息接收单元,用于接收交互设备提交的交互操作信息,所述交互操作信息是由所述交互设备在互动状态下通过感知用户的交互操作而确定的;
交互结果返回单元,用于根据所述交互操作信息获得交互结果并返回给所述交互设备。
一种计算机系统,包括:
一个或多个处理器;以及
与所述一个或多个处理器关联的存储器,所述存储器用于存储程序指令,所述程序指令在被所述一个或多个处理器读取执行时,执行如下操作:
接收交互设备提交的交互操作信息,所述交互操作信息是由所述交互设备在互动状态下通过感知用户的交互操作而确定的;
根据所述交互操作信息获得交互结果并返回给所述交互设备。
根据本申请提供的具体实施例,本申请公开了以下技术效果:
通过本申请实施例,可以为交互设备可以配备有体感模块,可以感知用户的动作或者语音等交互操作信息,并根据感知到的体感交互操作信息提供相应的交互结果,包括获得查询结果,或者提交状态信息等等。这样,可以更方便地通过手势、动作、语音等实现与交互设备的互动,而不需要在工位与设备所在位置之间来回走动,更适合在厨房等场所中使用。
另外,可以为交互设备设定两种状态,分别为互动状态以及非互动状态,其中,在默认状态下,交互设备可以处于非互动状态,避免感应到过多的错误手势或者语音,在需要进行互动时,通过特定动作唤起交互设备的互动状态,然后再通过其他的特定动作或者语音等与交互设备进行互动,相应的,交互设备可以根据感知到的动作或者语音生成对应的指令,并通过具体的业务系统服务器等获得相应的互动结果,再进行展示。另外,即使在多人共用同一台交互设备、周围环境比较嘈杂的环境下,也可以正确地进行识别,而不会受到其他用户在执行的其他动作或者语音的干扰。
当然,实施本申请的任一产品并不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的系统的示意图;
图2是本申请实施例提供的交互设备的示意图;
图3是本申请实施例提供的第一方法的流程图;
图4是本申请实施例提供的第二方法的流程图;
图5是本申请实施例提供的第一装置的示意图;
图6是本申请实施例提供的第二装置的示意图;
图7是本申请实施例提供的计算机系统的示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员所获得的所有其他实施例,都属于本申请保护的范围。
在本申请实施例中,为了方便用户(例如,厨房中的加工制作者等)与交互设备(例如,厨房中部署的大屏设备等)进行互动,可以通过体感交互的方式来实现,也即,用户可以通过动作或者语音等与交互设备进行互动,这样,在互动的过程中,用户不需要走到大屏设备跟前,不需要通过触摸屏或者鼠标等进行操作,而是只需要在其工位上做出规定的动作或者发出语音即可,相应的,大屏设备便可以做出响应,提供对应的互动结果,因此,不需要为了互动而在自己的工位与交互设备所在的位置之间来回走动。
其中,本申请发明人在实现本申请的过程中还发现,在厨房等餐饮加工制作场所中,通常会存在人员比较多,环境比较嘈杂的情况,同一台交互设备的体感设备可能能够同时感知到多个用户的动作,此时,如果不进行特殊处理,系统可能会接收到很多错误手势,并且无法确定该对哪个用户的哪个手势做出响应。
为此,在本申请的优选实施例中,还可以将具体的交互设备设计为互动状态以及非互动状态这两种状态,在默认状态下,交互设备为非互动状态,在非互动状态下,即使设备前有很多用户做出各种不同的手势动作,相互进行交谈等,交互设备都无需做出响应。而如果某用户需要与该交互设备进行互动,从中获得其想要获知的信息,例如,查询当前待加工的餐品的详情信息时,则首先需要通过一个特定的交互动作,将交互设备唤起为互动状态,之后,便可以进一步通过其他的动作或语音等,与该交互设备进行互动。在一个用户互动结束后,交互设备则可以自动切换回非互动状态,直到感知到下一个唤起动作,再唤起互动状态。也就是说,每个用户在每次需要与交互设备进行互动时,都需要首先执行一个特定的动作,将交互设备唤起为互动状态,之后,该交互设备就会仅响应该用户的动作或语音,不会受到其他用户的其他不相关动作或语音的影响。这样,便可以实现在多人共用一台交互设备的情况下,通过动作或语音与该交互设备进行互动。
下面对具体的实现方式进行详细介绍。
实施例一
该实施例一首先提供了一种餐品加工制作场所的信息处理系统,参见图1,所述系统中具体可以包括:服务器,以及餐品加工制作场所内的至少一台交互设备101,在实际应用中,每台交互设备101可以为多个加工制作者所共用,当然,也可以存在为单个用户所专用的情况;
其中,所述交互设备101具体可以包括体感模块,以及信息处理模块;
所述体感模块,用于感知用户的交互操作,具体实现时,所述交互操作包括通过动作和/或语音等执行的体感交互操作;
所述信息处理模块,用于在互动状态下,将所述体感模块感知到的目标用户做出的交互操作信息提交到服务器;
所述服务器,用于根据所述交互操作信息生成交互结果。
具体的,所述服务器具体可以是餐饮服务业务系统的服务器,具体可以用于处理订单信息,另外还可以根据具体的订单生成加工制作任务,具体的任务信息就可以发送到具体的交互设备中进行展示,供加工制作者进行参考或者使用。
交互设备具体可以是通过电视大屏等设备来实现,但是,与传统的电视大屏不同的是,本申请实施例中的交互设备带有体感模块以及信息处理模块,能够感知用户的体感信息,并提供互动结果。其中,在互动的过程中,基于厨房这种特殊的场所,由于人流量大,环境嘈杂,多人共用同一交互设备等特点,还提出了特殊的互动方式,也即,需要通过特定的动作将交互设备唤起为互动状态后,才能够进行具体的体感互动,以此避免不同人员之间相互干扰,也避免交互设备感知到大量的错误动作或者语音,造成资源浪费。在与所述目标用户互动结束后,再将所述交互设备切换回非互动状态,直到通过所述体感模块感知到下一个第一特定交互操作时,再唤起互动状态。
关于上述交互设备的具体实现,下面通过实施例二进行更加详细地介绍。
实施例二
在该实施例二中,提供了一种交互设备,
其中,参见图2,所述交互设备配备有体感模块201,以及信息处理模块202;
所述体感模块201,用于感知用户的交互操作;
所述信息处理模块202,用于互动状态下,根据所述体感模块感知到的目标用户做出的交互操作信息,提供互动结果。
其中,所述交互设备可以是在某具体场所中用于展示相关信息的设备,由于通常具有比较大的显示屏,因此,通常被称为大屏设备,例如,可以是厨房等餐饮加工制作场所中展示与餐品加工制作过程相关信息的大屏设备等。其中,在餐饮加工制作场所中应用所述交互设备时,可以为同一个厨房配备一台交互设备,该交互设备可以连接到网络,从业务系统服务器接收推送的信息,并进行展示,而在本申请实施例中,则还可以用于与加工制作者等用户进行体感互动。或者,在优选的实现方式下,所述餐饮加工制作场所中可以包括分别对应于多道工序的工作区域,例如,分料、粗加工、精加工等,每道工序中都可以配备专门的加工制作者负责本工序的加工制作。此时,可以分别为每道工序的工作区域配备一台所述交互设备,当然,由于同一工序中可能也包括多个加工制作者,因此,每一台交互设备可以为同一道工序中的多个加工制作者所共用。这样也可以减少共用同一台交互设备的用户数量,使得同一个用户可以有更多的机会与交互设备进行互动。当然,在不同工序下,交互设备在响应用户的交互操作信息时,也可以有不同的设定。
具体的体感模块可以是由一个或多个传感器组成,例如,可以包括体感摄像头等图像传感器,或者,也可以包括麦克风等语音传感器,等等。具体的,体感模块可以内置于交互设备中,或者,还可以通过外置的方式连接到交互设备上,等等。总之,通过这种体感模块可以感知到用户的动作或者语音等,从而为体感互动打下基础。
如前文所述,为了避免多个用户之间相互干扰,以至于系统识别到过多的错误手势,可以将交互设备设置为互动状态以及非互动状态两种状态,在默认状态下,处于非互动状态,此时可以按照默认的方式进行信息展示,例如,默认展示各餐品的列表信息,在有新任务加入时,弹框展示数秒后,加入到列表中展示,等等。而在通过体感模块感知到某用户做出的唤起动作后,便会进入互动状态,进而与该用户进行体感互动。其中,对体感模块感应到的信息进行处理,并进一步做出响应的工作便可以由信息处理模块来完成。
具体实现时,所述用于唤起互动状态的第一特定交互动作可以有多种,例如,在一种方式下,可以是“五指朝上、手臂向上伸直,向体感摄像头左右晃动”,也就是说,信息展示模块在默认状态下为非互动状态,无论周边的用户做出何种动作或者语音,都不会与之互动,直到有用户做出上述动作并被体感模块感知到,信息处理模块便可以将交互设备唤起为互动状态,接下来,该用户便可以进一步通过其他的动作或者语音等,与交互设备进行互动。
其中,在交互设备进入互动状态后,可以通过界面进行提示,例如,弹出提示框,通知用户“互动状态已被唤起,您可以通过动作或语音与我互动了”,等等,这样,用户便可以获知交互设备已经准备好,接下来做出具体的动作或者发出具体的语音即可与交互设备进行互动。
关于具体用于互动的动作以及语音,以及对应的含义,可以根据具体的应用场景而进行设定。例如,在厨房等餐品加工制作场所的场景中,具体的用户可以是餐品的加工制作者。具体与交互设备进行互动的需求通常包括查看当前正在加工的餐品的详情信息,或者,待加工餐品的详情信息,或者,已加工完成的餐品的信息,或者,某订单的详情,等等,因此,可以分别针对上述各种需求定义对应的动作或者语音,相应的,加工制作者在将交互设备唤起为互动状态后,可以执行对应的动作或者发出对应的语音,相应的,体感模块中的体感设备等便可以实时识别用户动作、语音等,如果动作或者语音正确,则还可以生成对应的指令,该指令可以提交给业务系统的服务器进行操作,并给出对应的互动结果。或者,如果交互设备本地保存有相关的数据,也可以在本地做出响应,并给出互动结果,等等。对于用户而言,无论具体的互动结果来自服务器还是来自交互设备本地,都可以获得自己所需的信息。
其中,在餐品加工制作场所的场景下,预先为互动过程定义的动作或者语音以及对应的含义可以包括但不限于以下表1中所示的几种:
表1
其中,(1)第三特定交互动作,例如,五个手指朝上并向上滑动等,可以用来快速查询待加工菜品详情;(2)第四特定交互动作,例如,五个手指朝下并向下滑动等,可以用来快速查询已完成菜品详情;(3)第五特定交互动作,例如,手指向左和向右、向上和向下滑动等,可以用来进行翻页查询;(4)第六特定交互动作,可以用来确定该目标用户关联的正在处理的餐品信息,并对所述餐品信息的制作状态进行更新;(5)语音说餐品名、订单号或者桌号等信息,可以用来快速查询指定订单信息,等等。
其中,关于所述第六特定交互动作,在具体实现时,互动设备还可以包括用户身份识别模块,用于识别目标用户的身份信息,例如,具体可以通过人脸识别等方式来确定,这样,具体可以在识别出目标用户的身份信息后,通过服务器查询出该目标用户关联的正在处理的餐品信息(具体可以是由服务器向目标用户分配的任务,在系统中进行记录分配结果信息,并实时更新具体的任务状态,也即餐品的制作状态,例如,已完成分料,开始进行粗加工,已完成粗加工,等等),然后,再根据该目标用户所在的工序,以及餐品的上一状态信息,对该餐品的状态进行更新。例如,某时刻感知到某目标用户做出的第六特定交互动作,经过身份识别发现该目标用户属于精加工工序中的作业人员,其关联的正在处理的餐品的上一状态是开始进行精加工,则在感知到第六特定交互动作之后,可以将对应的餐品的状态更新为已完成精加工,等等。
当然,上述动作或者语音也不是固定不变的,可以根据实际需求修改为其他的动作或者语音。在具体实现时,所述信息处理模块还可以用于,在与所述目标用户互动结束后,将所述交互设备切换回非互动状态,直到通过所述体感模块感知到下一个第一特定交互动作时,再唤起互动状态。其中,信息处理模块可以有多种方式来确定一个目标用户是否已经结束互动,例如,其中一种方式下,目标用户可以在结束互动时做出第二特定交互动作,例如,可以是双手在胸前交叉,等等,这样,信息处理模块可以在通过所述体感模块感知所述目标用户做出第二特定交互动作时,确定与所述目标用户的互动结束。或者,在另一种实现方式下,信息处理模块还可以在所述体感模块未感应到所述目标用户的动作或语音且达到预置的时间阈值时,确定与所述目标用户的互动结束。例如,某目标用户在与唤起互动状态后,执行了一些互动动作或者语音,之后便不再执行规定的动作或者语音,则在一定的时间长度之后,便可以认为该目标用户不再有互动需求,因此,可以结束此次互动,进入到非互动状态,等待下一次被唤起。
另外,在具体实现时,还可以通过体感交互的方式实现对交互设备的开关机操作。
需要说明的是,在实际应用中,也可以通过其他方式来识别获得焦点的目标用户,例如,可以通过对目标用户的姿态、表情等进行识别,具体如,假设某用户原来是背对着交互设备,但在某时刻转身面向交互设备,并且视线落在交互设备上,面部表情严肃且专注,等等,则可以确定该目标用户需要与交互设备进行互动,此时,如果没有其他用户正在与该交互设备进行互动,则可以使得该目标用户获得焦点,接下来,交互设备将专注于感知该目标用户的交互操作,等等。
总之,通过本申请实施例,可以为交互设备可以配备有体感模块,可以感知用户的动作或者语音等交互操作信息,并根据感知到的体感交互操作信息提供相应的交互结果,包括获得查询结果,或者提交状态信息等等。这样,可以更方便地通过手势、动作、语音等实现与交互设备的互动,而不需要在工位与设备所在位置之间来回走动,更适合在厨房等场所中使用。
另外,还可以为交互设备设定两种状态,分别为互动状态以及非互动状态,其中,在默认状态下,交互设备可以处于非互动状态,避免感应到过多的错误手势或者语音,在需要进行互动时,通过特定动作唤起交互设备的互动状态,然后再通过其他的特定动作或者语音等与交互设备进行互动,相应的,交互设备可以根据感知到的动作或者语音生成对应的指令,并通过具体的业务系统服务器等获得相应的互动结果,再进行展示。另外,即使在多人共用同一台交互设备、周围环境比较嘈杂的环境下,也可以正确地进行识别,而不会受到其他用户在执行的其他动作或者语音的干扰。
实施例二
该实施例二是与实施例一项对应的,从交互设备的信息处理模块角度,提供了一种信息交互方法,参见图3,该方法具体可以包括:
S301:在所述互动设备的互动状态下,通过所述互动设备的感知模块对目标用户做出的交互操作进行感知;
S302:根据所感知到的交互操作信息,提供互动结果。
具体实现时,所述交互设备还可以包括非互动状态,且在默认状态下处于非互动状态;
此时,所述方法还可以包括:
通过所述体感模块感知到目标用户做出第一特定交互动作时,将所述交互设备唤起为互动状态,并将该目标用户确定为焦点对象,以便在该互动状态下,响应该目标用户的交互操作。
另外,还可以在与所述目标用户互动结束后,切换回非互动状态,直到通过所述体感模块感知到下一个第一特定交互动作时,再唤起互动状态。
其中,可以通过感知用户做出的第二特定交互动作来确定互动结束,或者,还可以根据无动作或语音的时间长度来确定是否互动结束,等等。
具体在进行互动的过程中,可以根据所述目标用户做出的第三特定交互动作,提供待加工餐品详情信息。
或者,还可以根据所述目标用户做出的第四特定交互动作,提供已完成餐品详情信息。
还可以根据所述目标用户做出的第五特定交互动作,提供翻页操作结果。
还可以根据所述目标用户做出的第六特定交互动作,确定该目标用户关联的正在处理的餐品信息,并对所述餐品信息的制作状态进行更新。
再者,还可以根据所述目标用户的语音信息,识别出餐品名、订单号或桌号信息,生成用于查询订单详情信息的查询指令,并提供对应订单详情信息的查询结果。
其中,具体在根据所感知到的交互操作信息,提供互动结果时,可以是将所述交互操作信息提交到服务器,由所述服务器提供所述互动结果。
实施例三
该实施例三也是与实施例一相对应的,从服务器的角度,提供了一种信息处理方法,参见图4,该方法具体可以包括:
S401:接收交互设备提交的交互操作信息,所述交互操作信息是由所述交互设备在互动状态下通过感知用户的交互操作而确定的;
S402:根据所述交互操作信息获得交互结果并返回给所述交互设备。
关于前述实施例二以及实施例三中的未详述部分,可以参见前述实施例一中的记载,这里不再赘述。
与实施例二相对应,本申请实施例还提供了一种信息展示装置,参见图5,该装置具体可以包括:
交互操作感知单元501,用于在所述互动设备的互动状态下,通过所述互动设备的感知模块对目标用户做出的交互操作进行感知;
互动结果提供单元502,用于根据所感知到的交互操作信息,提供互动结果。
具体实现时,所述交互设备还包括非互动状态,且在默认状态下处于非互动状态;
该装置还可以包括:
唤起单元,用于通过所述体感模块感知到目标用户做出第一特定交互动作时,将所述交互设备唤起为互动状态,并将该目标用户确定为焦点对象,以便在该互动状态下,响应该目标用户的交互操作。
另外,该装置还可以包括:
状态切换单元,用于在与所述目标用户互动结束后,切换回非互动状态,直到通过所述体感模块感知到下一个第一特定交互动作时,再唤起互动状态。
具体的,所述互动结果提供单元具体可以用于:
根据所述目标用户做出的第三特定交互动作,提供待加工餐品详情信息。
或者,所述互动结果提供单元具体可以用于:
根据所述目标用户做出的第四特定交互动作,提供已完成餐品详情信息。
或者,所述互动结果提供单元具体可以用于:
根据所述目标用户做出的第五特定交互动作,提供翻页操作结果。
或者,所述互动结果提供单元具体可以用于:
根据所述目标用户做出的第六特定交互动作,确定该目标用户关联的正在处理的餐品信息,并对所述餐品信息的制作状态进行更新。
或者,所述互动结果提供单元具体可以用于:
根据所述目标用户的语音信息,识别出餐品名、订单号或桌号信息,生成用于查询订单详情信息的查询指令,并提供对应订单详情信息的查询结果。
其中,所述互动结果提供单元具体可以用于:
将所述交互操作信息提交到服务器,由所述服务器提供所述互动结果。
与实施例三相对应,本申请实施例还提供了一种信息处理装置,参见图6,该装置可以包括:
交互操作信息接收单元601,用于接收交互设备提交的交互操作信息,所述交互操作信息是由所述交互设备在互动状态下通过感知用户的交互操作而确定的;
交互结果返回单元602,用于根据所述交互操作信息获得交互结果并返回给所述交互设备。
另外,对应于本申请实施例三,本申请实施例还提供了一种计算机系统,包括:
一个或多个处理器;以及
与所述一个或多个处理器关联的存储器,所述存储器用于存储程序指令,所述程序指令在被所述一个或多个处理器读取执行时,执行如下操作:
接收交互设备提交的交互操作信息,所述交互操作信息是由所述交互设备在互动状态下通过感知用户的交互操作而确定的;
根据所述交互操作信息获得交互结果并返回给所述交互设备。
其中,图7示例性的展示出了计算机系统的架构,具体可以包括处理器710,视频显示适配器711,磁盘驱动器712,输入/输出接口713,网络接口714,以及存储器720。上述处理器710、视频显示适配器711、磁盘驱动器712、输入/输出接口713、网络接口714,与存储器720之间可以通过通信总线730进行通信连接。
其中,处理器710可以采用通用的CPU(Central Processing Unit,中央处理器)、微处理器、应用专用集成电路(Application Specific Integrated Circuit,ASIC)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本申请所提供的技术方案。
存储器720可以采用ROM(Read Only Memory,只读存储器)、RAM(Random AccessMemory,随机存取存储器)、静态存储设备,动态存储设备等形式实现。存储器720可以存储用于控制计算机系统700运行的操作系统721,用于控制计算机系统700的低级别操作的基本输入输出系统(BIOS)。另外,还可以存储网页浏览器723,数据存储管理系统724,以及信息处理系统725等等。上述信息处理系统725就可以是本申请实施例中具体实现前述各步骤操作的应用程序。总之,在通过软件或者固件来实现本申请所提供的技术方案时,相关的程序代码保存在存储器720中,并由处理器710来调用执行。
输入/输出接口713用于连接输入/输出模块,以实现信息输入及输出。输入输出/模块可以作为组件配置在设备中(图中未示出),也可以外接于设备以提供相应功能。其中输入设备可以包括键盘、鼠标、触摸屏、麦克风、各类传感器等,输出设备可以包括显示器、扬声器、振动器、指示灯等。
网络接口714用于连接通信模块(图中未示出),以实现本设备与其他设备的通信交互。其中通信模块可以通过有线方式(例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WIFI、蓝牙等)实现通信。
总线730包括一通路,在设备的各个组件(例如处理器710、视频显示适配器711、磁盘驱动器712、输入/输出接口713、网络接口714,与存储器720)之间传输信息。
另外,该计算机系统700还可以从虚拟资源对象领取条件信息数据库741中获得具体领取条件的信息,以用于进行条件判断,等等。
需要说明的是,尽管上述设备仅示出了处理器710、视频显示适配器711、磁盘驱动器712、输入/输出接口713、网络接口714,存储器720,总线730等,但是在具体实施过程中,该设备还可以包括实现正常运行所必需的其他组件。此外,本领域的技术人员可以理解的是,上述设备中也可以仅包含实现本申请方案所必需的组件,而不必包含图中所示的全部组件。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本申请可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例或者实施例的某些部分所述的方法。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统或系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的系统及系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上对本申请所提供的交互设备及其处理方法、装置,进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本申请的限制。
Claims (21)
1.一种餐品加工制作场所的信息处理系统,其特征在于,
所述系统包括:服务器,以及餐品加工制作场所内的至少一台交互设备;
所述交互设备包括体感模块,以及信息处理模块;
所述体感模块,用于感知用户的交互操作;
所述信息处理模块,用于在互动状态下,将所述体感模块感知到的目标用户做出的交互操作信息提交到服务器;
所述服务器,用于根据所述交互操作信息生成交互结果。
2.根据权利要求1所述的系统,其特征在于,
所述交互设备还包括非互动状态,且在默认状态下处于非互动状态;
所述信息处理模块还用于,通过所述体感模块感知到目标用户做出第一特定交互动作时,将所述交互设备唤起为互动状态,并将该目标用户确定为焦点对象,以便在该互动状态下,响应该目标用户的交互操作。
3.根据权利要求2所述的系统,其特征在于,
所述信息处理模块还用于,在与所述目标用户互动结束后,将所述交互设备切换回非互动状态,直到通过所述体感模块感知到下一个第一特定交互操作时,再唤起互动状态。
4.一种交互设备,其特征在于,
所述交互设备配备有体感模块,以及信息处理模块;
所述体感模块,用于感知用户的交互操作;
所述信息处理模块,用于互动状态下,根据所述体感模块感知到的目标用户做出的交互操作信息,提供互动结果。
5.根据权利要求4所述的交互设备,其特征在于,
所述交互设备还包括非互动状态,且在默认状态下处于非互动状态;
所述信息处理模块还用于,通过所述体感模块感知到目标用户做出第一特定交互操作时,将所述交互设备唤起为互动状态,并将该目标用户确定为焦点对象,以便在该互动状态下,响应该目标用户的交互操作。
6.根据权利要求5所述的交互设备,其特征在于,
所述信息处理模块还用于,在与所述目标用户互动结束后,将所述交互设备切换回非互动状态,直到通过所述体感模块感知到下一个第一特定交互动作时,再唤起互动状态。
7.根据权利要求6所述的交互设备,其特征在于,
所述信息处理模块具体用于,在通过所述体感模块感知所述目标用户做出第二特定交互动作时,确定与所述目标用户的互动结束。
8.根据权利要求6所述的交互设备,其特征在于,
所述信息处理模块具体用于,在所述体感模块未感应到所述目标用户的交互操作且达到预置的时间阈值时,确定与所述目标用户的互动结束。
9.根据权利要求4至8任一项所述的交互设备,其特征在于,
所述交互设备应用于餐饮加工制作场所中。
10.根据权利要求9所述的交互设备,其特征在于,
所述餐饮加工制作场所中包括分别对应于多道工序的工作区域,其中,每道工序的工作区域中配备一台所述交互设备,为同一道工序中的多个加工制作者所共用。
11.根据权利要求10所述的交互设备,其特征在于,
所述信息处理模块具体用于,根据所述交互设备所关联的工序,以及所述交互操作信息,提供互动结果。
12.根据权利要求9所述的交互设备,其特征在于,
所述信息处理模块具体用于,在所述互动状态下,根据所述目标用户的语音信息,识别出餐品名、订单号或桌号信息,并提供对应订单详情信息的查询结果。
13.根据权利要求9所述的交互设备,其特征在于,
所述交互设备还包括用户身份识别模块;
所述用户身份识别模块用于识别所述目标用户的身份信息,以便根据所述身份信息提供交互结果。
14.一种信息交互方法,其特征在于,所述方法应用于互动设备中,包括:
在所述互动设备的互动状态下,通过所述互动设备的感知模块对目标用户做出的交互操作进行感知;
根据所感知到的交互操作信息,提供互动结果。
15.根据权利要求14所述的方法,其特征在于,
所述交互设备还包括非互动状态,且在默认状态下处于非互动状态;
所述方法还包括:
通过所述体感模块感知到目标用户做出第一特定交互动作时,将所述交互设备唤起为互动状态,并将该目标用户确定为焦点对象,以便在该互动状态下,响应该目标用户的交互操作。
16.根据权利要求15所述的方法,其特征在于,还包括:
在与所述目标用户互动结束后,切换回非互动状态,直到通过所述体感模块感知到下一个第一特定交互动作时,再唤起互动状态。
17.根据权利要求14所述的方法,其特征在于,
所述根据所感知到的交互操作信息,提供互动结果,包括:
根据所述目标用户的语音信息,识别出餐品名、订单号或桌号信息,生成用于查询订单详情信息的查询指令,并提供对应订单详情信息的查询结果。
18.一种信息处理方法,其特征在于,包括:
接收交互设备提交的交互操作信息,所述交互操作信息是由所述交互设备在互动状态下通过感知用户的交互操作而确定的;
根据所述交互操作信息获得交互结果并返回给所述交互设备。
19.一种信息展示装置,其特征在于,包括:
交互操作感知单元,用于在所述互动设备的互动状态下,通过所述互动设备的感知模块对目标用户做出的交互操作进行感知;
互动结果提供单元,用于根据所感知到的交互操作信息,提供互动结果。
20.一种信息处理装置,其特征在于,包括:
交互操作信息接收单元,用于接收交互设备提交的交互操作信息,所述交互操作信息是由所述交互设备在互动状态下通过感知用户的交互操作而确定的;
交互结果返回单元,用于根据所述交互操作信息获得交互结果并返回给所述交互设备。
21.一种计算机系统,其特征在于,包括:
一个或多个处理器;以及
与所述一个或多个处理器关联的存储器,所述存储器用于存储程序指令,所述程序指令在被所述一个或多个处理器读取执行时,执行如下操作:
接收交互设备提交的交互操作信息,所述交互操作信息是由所述交互设备在互动状态下通过感知用户的交互操作而确定的;
根据所述交互操作信息获得交互结果并返回给所述交互设备。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811168864.9A CN111007938B (zh) | 2018-10-08 | 2018-10-08 | 交互设备及其处理方法、装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811168864.9A CN111007938B (zh) | 2018-10-08 | 2018-10-08 | 交互设备及其处理方法、装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111007938A true CN111007938A (zh) | 2020-04-14 |
CN111007938B CN111007938B (zh) | 2023-11-28 |
Family
ID=70110693
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811168864.9A Active CN111007938B (zh) | 2018-10-08 | 2018-10-08 | 交互设备及其处理方法、装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111007938B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102622081A (zh) * | 2011-01-30 | 2012-08-01 | 北京新岸线网络技术有限公司 | 一种实现体感交互的方法和系统 |
CN102955567A (zh) * | 2011-08-31 | 2013-03-06 | 德信互动科技(北京)有限公司 | 人机互动系统和方法 |
CN103246351A (zh) * | 2013-05-23 | 2013-08-14 | 刘广松 | 一种用户交互系统和方法 |
CN104881125A (zh) * | 2015-06-12 | 2015-09-02 | 合肥市徽腾网络科技有限公司 | 一种基于Kinect的公共信息终端 |
CN105511619A (zh) * | 2015-06-26 | 2016-04-20 | 苏州大学 | 一种基于视觉红外感应技术的人机互动控制系统及方法 |
CN106297442A (zh) * | 2016-10-27 | 2017-01-04 | 深圳市成真教育科技有限公司 | 一种体感互动教育实现方法及系统 |
CN106569613A (zh) * | 2016-11-14 | 2017-04-19 | 中国电子科技集团公司第二十八研究所 | 一种多模态人机交互系统及其控制方法 |
CN107145329A (zh) * | 2017-04-10 | 2017-09-08 | 北京猎户星空科技有限公司 | 设备控制方法、装置及智能设备 |
CN107209624A (zh) * | 2015-01-14 | 2017-09-26 | 微软技术许可有限责任公司 | 用于设备个性化的用户交互模式提取 |
WO2017181901A1 (zh) * | 2016-04-20 | 2017-10-26 | 斑马网络技术有限公司 | 语音唤起方法、装置和设备 |
CN206833230U (zh) * | 2017-04-18 | 2018-01-02 | 青岛有屋科技有限公司 | 一种可实现人机交互的智能家居语音控制系统 |
-
2018
- 2018-10-08 CN CN201811168864.9A patent/CN111007938B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102622081A (zh) * | 2011-01-30 | 2012-08-01 | 北京新岸线网络技术有限公司 | 一种实现体感交互的方法和系统 |
CN102955567A (zh) * | 2011-08-31 | 2013-03-06 | 德信互动科技(北京)有限公司 | 人机互动系统和方法 |
CN103246351A (zh) * | 2013-05-23 | 2013-08-14 | 刘广松 | 一种用户交互系统和方法 |
CN107209624A (zh) * | 2015-01-14 | 2017-09-26 | 微软技术许可有限责任公司 | 用于设备个性化的用户交互模式提取 |
CN104881125A (zh) * | 2015-06-12 | 2015-09-02 | 合肥市徽腾网络科技有限公司 | 一种基于Kinect的公共信息终端 |
CN105511619A (zh) * | 2015-06-26 | 2016-04-20 | 苏州大学 | 一种基于视觉红外感应技术的人机互动控制系统及方法 |
WO2017181901A1 (zh) * | 2016-04-20 | 2017-10-26 | 斑马网络技术有限公司 | 语音唤起方法、装置和设备 |
CN106297442A (zh) * | 2016-10-27 | 2017-01-04 | 深圳市成真教育科技有限公司 | 一种体感互动教育实现方法及系统 |
CN106569613A (zh) * | 2016-11-14 | 2017-04-19 | 中国电子科技集团公司第二十八研究所 | 一种多模态人机交互系统及其控制方法 |
CN107145329A (zh) * | 2017-04-10 | 2017-09-08 | 北京猎户星空科技有限公司 | 设备控制方法、装置及智能设备 |
CN206833230U (zh) * | 2017-04-18 | 2018-01-02 | 青岛有屋科技有限公司 | 一种可实现人机交互的智能家居语音控制系统 |
Non-Patent Citations (2)
Title |
---|
HONGZHI SONG; YU QI; XUHONG TIAN; DONGFENG XU: "Navigating and visualizing long lists with fisheye view and graphical representation", 《SECOND WORKSHOP ON DIGITAL MEDIA AND ITS APPLICATION IN MUSEUM & HERITAGES (DMAMH 2007)》 * |
王军锋;余隋怀;IMRE HORVATH;王宁;: "智能环境基于用户交互模态的情境感知服务", 计算机工程与应用, no. 19 * |
Also Published As
Publication number | Publication date |
---|---|
CN111007938B (zh) | 2023-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11513608B2 (en) | Apparatus, method and recording medium for controlling user interface using input image | |
CN110582078B (zh) | 一种蓝牙配对方法、装置、存储介质及电子设备 | |
EP3143477B1 (en) | System and method for providing haptic feedback to assist in capturing images | |
US9900541B2 (en) | Augmented reality remote control | |
CN107479691B (zh) | 一种交互方法及其智能眼镜和存储装置 | |
EP3035283A1 (en) | Image processing method and apparatus, and terminal device | |
CN105980971B (zh) | 多任务和全屏幕菜单环境 | |
CN107003739A (zh) | 对接系统 | |
EP2731348A2 (en) | Apparatus and method for providing social network service using augmented reality | |
CN104881122B (zh) | 一种体感交互系统激活方法、体感交互方法及系统 | |
US20180196503A1 (en) | Information processing device, information processing method, and program | |
KR102193029B1 (ko) | 디스플레이 장치 및 그의 화상 통화 수행 방법 | |
WO2015159602A1 (ja) | 情報提供装置 | |
US20130229342A1 (en) | Information providing system, information providing method, information processing apparatus, method of controlling the same, and control program | |
CN110134476A (zh) | 一种应用显示的方法及设备 | |
CN104915004A (zh) | 一种体感控制屏幕滚动方法、体感交互系统及电子设备 | |
CN110109609A (zh) | 显示控制设备和方法,以及图像显示设备 | |
CN112965773A (zh) | 用于信息显示的方法、装置、设备和存储介质 | |
KR20210129067A (ko) | 상호작용 방법, 장치, 상호작용 장치, 전자 장치 및 저장 매체 | |
CN109951741A (zh) | 数据对象信息展示方法、装置及电子设备 | |
CN109542218B (zh) | 一种移动终端、人机交互系统及方法 | |
CN111007938A (zh) | 交互设备及其处理方法、装置 | |
CN113625878B (zh) | 手势信息处理方法、装置、设备、存储介质及程序产品 | |
CN104427289B (zh) | 一种信息处理方法及电子设备 | |
CN111093030B (zh) | 一种设备控制方法及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20230705 Address after: Room 210, 2nd Floor, Juyang Building, No. 1200 Pudong Avenue, China (Shanghai) Pilot Free Trade Zone, Pudong New Area, Shanghai Applicant after: HEMA (China) Co.,Ltd. Address before: Box 847, four, Grand Cayman capital, Cayman Islands, UK Applicant before: ALIBABA GROUP HOLDING Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TG01 | Patent term adjustment | ||
TG01 | Patent term adjustment |