CN109145847B - 识别方法、装置、穿戴式设备及存储介质 - Google Patents

识别方法、装置、穿戴式设备及存储介质 Download PDF

Info

Publication number
CN109145847B
CN109145847B CN201811001263.9A CN201811001263A CN109145847B CN 109145847 B CN109145847 B CN 109145847B CN 201811001263 A CN201811001263 A CN 201811001263A CN 109145847 B CN109145847 B CN 109145847B
Authority
CN
China
Prior art keywords
wearable device
information
identification
mode
guide
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811001263.9A
Other languages
English (en)
Other versions
CN109145847A (zh
Inventor
林肇堃
魏苏龙
麦绮兰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority to CN201811001263.9A priority Critical patent/CN109145847B/zh
Publication of CN109145847A publication Critical patent/CN109145847A/zh
Application granted granted Critical
Publication of CN109145847B publication Critical patent/CN109145847B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请实施例中提供的一种识别方法、装置、穿戴式设备及存储介质,该方法包括:获取穿戴式设备所处的环境信息,以及获取所述穿戴式设备的位置信息;根据所述环境信息和所述位置信息确定当前应用场景类别;根据所述当前应用场景类别确定所述穿戴式设备中对应的功能识别模式,并控制所述穿戴式设备根据所述功能识别模式执行相应的功能识别事件。本申请实施例通过根据环境信息和位置信息确定穿戴式设备的应用场景类别,进而可以根据应用场景类别来确定对应的识别模式,可以提高穿戴式设备的识别功能的操作效率。

Description

识别方法、装置、穿戴式设备及存储介质
技术领域
本申请实施例涉及穿戴式设备技术领域,尤其涉及一种识别方法、装置、穿戴式设备及存储介质。
背景技术
随着穿戴式设备的发展,穿戴式设备所应用的领域越来越多。穿戴式设备的使用一般是长时间由用户佩戴,和一般的移动终端相比可以采集到更多的用户相关数据,其以更好地辅助用户的日常生活和工作。但是目前的穿戴式设备的识别功能操作比较复杂,不便于用户的使用,需要对现有的穿戴式设备进行改进。
发明内容
本申请实施例提供的一种识别方法、装置、穿戴式设备及存储介质,可以提高穿戴式设备的识别功能的操作效率。
第一方面,本申请实施例提供了一种识别方法,包括:
获取穿戴式设备所处的环境信息,以及获取所述穿戴式设备的位置信息;
根据所述环境信息和所述位置信息确定当前应用场景类别;
根据所述当前应用场景类别确定所述穿戴式设备中对应的功能识别模式,并控制所述穿戴式设备根据所述功能识别模式执行相应的功能识别事件。
第二方面,本申请实施例提供了一种识别装置,包括:
环境信息确定模块,用于获取穿戴式设备所处的环境信息,以及获取所述穿戴式设备的位置信息;
类别模块,用于根据所述环境信息和所述位置信息确定当前应用场景类别;
模式确定模块,用于根据所述当前应用场景类别确定所述穿戴式设备中对应的功能识别模式,并控制所述穿戴式设备根据所述功能识别模式执行相应的功能识别事件。
第三方面,本申请实施例提供了一种穿戴式设备,包括:存储器,处理器及存储在存储器上并可在处理器运行的计算机程序,所述处理器执行所述计算机程序时实现如本申请实施例所述的识别方法。
第四方面,本申请实施例提供了一种包含穿戴式设备可执行指令的存储介质,所述穿戴式设备可执行指令在由穿戴式设备处理器执行时用于执行如本申请实施例所述的识别方法。
本申请实施例中提供的一种识别方案,通过获取穿戴式设备所处的环境信息,以及获取所述穿戴式设备的位置信息;根据所述环境信息和所述位置信息确定当前应用场景类别;根据所述当前应用场景类别确定所述穿戴式设备中对应的功能识别模式,并控制所述穿戴式设备根据所述功能识别模式执行相应的功能识别事件。本申请实施例通过根据环境信息和位置信息确定穿戴式设备的应用场景类别,进而可以根据应用场景类别来确定对应的识别模式,可以提高穿戴式设备的识别功能的操作效率。
附图说明
图1为本申请实施例提供的一种识别方法的流程示意图;
图2为本申请实施例提供的另一种识别方法的流程示意图;
图3为本申请实施例提供的另一种识别方法的流程示意图;
图4为本申请实施例提供的另一种识别方法的流程示意图;
图5为本申请实施例提供的另一种识别方法的流程示意图;
图6为本申请实施例提供的一种识别装置的结构框图;
图7为本申请实施例提供的一种穿戴式设备的结构示意图;
图8是本申请实施例提供的一种穿戴式设备的示意实物图。
具体实施方式
下面结合附图并通过具体实施方式来进一步说明本申请的技术方案。可以理解的是,此处所描述的具体实施例仅仅用于解释本申请,而非对本申请的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本申请相关的部分而非全部结构。
在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各步骤描述成顺序的处理,但是其中的许多步骤可以被并行地、并发地或者同时实施。此外,各步骤的顺序可以被重新安排。当其操作完成时所述处理可以被终止,但是还可以具有未包括在附图中的附加步骤。所述处理可以对应于方法、函数、规程、子例程、子程序等等。
图1为本申请实施例提供的一种识别方法的流程示意图,该方法可以由识别装置执行,其中该装置可以由软件和/或硬件实现,一般可以集成在穿戴式设备中,也可以集成在其他安装有操作系统的设备中。如图1所示,该方法包括:
S110、获取穿戴式设备所处的环境信息,以及获取所述穿戴式设备的位置信息。
其中,穿戴式设备是具有智能操作系统的穿戴式设备,可以是智能眼镜,智能眼镜一般是佩戴在用户的眼睛周围。穿戴式设备所处的环境信息即穿戴式设备当前所处环境的环境信息,可以是用户周围的环境信息。环境信息包括用于体现所述环境状况的数据。所述穿戴式设备的位置信息包括所述穿戴式设备所处的位置的坐标信息。
穿戴式设备上集成有可以采集各种信息的各种传感器,包括:采集用户的姿态信息的姿态传感器,采集图像的拍摄模块,采集声音的声音传感器,和检测用户体征信息的体征传感器等等。穿戴式设备上还设置有用于采集环境中的环境数据的环境采集模块,以及获取穿戴式设备的位置信息的定位模块。
所述定位模块可以是GPS(Global Positioning System,全球定位系统)模块,相应地,所述位置信息包括所述穿戴式设备的GPS数据。
可以通过定位模块采集所述穿戴式设备的位置信息,可以通过所述环境采集模块采集所述穿戴式设备所处的环境信息。
可选地,所述环境信息包括图像数据、红外数据、亮度数据和声音数据中的至少一种。相应地,所述环境采集模块包括采集图像数据的拍摄组件、采集红外数据的红外传感器、采集亮度数据的光线传感器以及采集声音数据的声音传感器。
其中,可以对采集到的所处环境的图像数据进行图像识别,从中可以获取到所处环境的环境状况,包括室内或室外、图像内包括的物体等。在所处环境光线较暗的情况,可以通过红外数据得到所处环境的红外图像,也可以确定所处环境的环境状况。根据亮度数据可以确定所处环境为室内或室外。根据所述声音传感器可以确定用户处于室内或室外,以及所处环境的嘈杂程度。
S111、根据所述环境信息和所述位置信息确定当前应用场景类别。
其中,所述应用场景类别为穿戴式设备根据使用功能的不同所划分的使用场景的分类,所述当前应用场景类别为所述穿戴式设备根据环境信息和所述位置信息所确定的适用于当前状态的应用场景类别。示例性地,用户在室外运动时一般会使用穿戴式设备的运动类功能,用户在不熟悉的地点一般会使用穿戴式设备的导航功能。不同的使用场景有对应的环境信息和位置信息,所以可以根据穿戴式设备的环境信息和位置信息确定穿戴式设备的当前应用场景类别。可选地,可以根据环境信息和位置信息,与应用场景类别的对应关系来进行确定,所述对应关系可以是系统预设或者用户预设。
可选地,如图2所示,根据所述环境信息和所述位置信息确定当前应用场景类别可以通过下述方式实施:
S1110、根据所述位置信息确定地点类别,其中,所述地点类别对应至少两个候选应用场景类别。
S1111、根据所述环境信息从所述至少两个候选应用场景类别中筛选出当前应用场景类别。
其中,位置信息包括所述穿戴式设备所处的位置的坐标信息,可以根据所述坐标信息获取在预设地图应用中对应的地点类别。所述预设地图应用中包括坐标信息和地点的对应关系,如谷歌地图或高德地图等地图应用程序,可以根据位置信息确定对应的地点类别;例如,所述位置信息在预设地图信息中对应的是人民公园,则可以确定所述地点类别为公园。
根据位置信息确定的地点类别可能是一个范围较大的地点,一个地点类别中对应至少两个候选应用场景类别,所述候选应用场景类别为所述地点类别的子类别,可以根据环境信息从所述至少两个候选应用场景类别中确定出当前应用场景类别。穿戴式设备可以实现多种应用功能,每个地点类别中可以对应至少两个候选应用场景类别,每个候选应用场景类别对应至少一个使用功能。
根据所述环境信息可以得到所处环境的环境状况,进而可以根据所述环境的环境状况确定适用的当前应用场景类别。
示例性地,如果所述地点类别对应的是一个商业中心,商业中心所包括候选应用场景类别包括:运动场地和购物区域。针对运动场地可以使用穿戴式设备的运动类功能,针对购物区域可以使用穿戴式设备的指引推荐功能。根据位置信息可能无法准确确定用户所处的环境的当前应用场景类别,所以可以根据采集所处环境的环境信息进一步确定穿戴式设备的当前应用场景类别。例如,所述环境信息包括图像数据,则可以根据图像处理技术识别图像数据中的是运动场地还是购物区域。
还可以根据所述环境信息和当前应用场景类别的对应关系,以查表的方式确定当前应用场景类别。
S112、根据所述当前应用场景类别确定所述穿戴式设备中对应的功能识别模式,并控制所述穿戴式设备根据所述功能识别模式执行相应的功能识别事件。
确定了应用场景类别后,可以确定应用场景类别对应的使用功能,并根据对应的用功能将所述穿戴式设备调整为对应的功能识别模式。所述功能识别模式为针对不同的应用场景执行不同的功能识别的模式。所述应用场景为穿戴式设备所处的环境。
所述功能识别可以是根据功能不同对所处环境进行相应的识别。可选地,控制所述穿戴式设备根据所述功能识别模式执行相应的功能识别事件可以通过下述方式实施:
控制所述穿戴式设备根据所述功能识别模式对应的识别项目和识别方式对当前环境进行识别,以得到识别结果;控制所述穿戴式设备根据所述识别结果执行相应的功能。
其中,不同功能识别模式对应不同的识别项目以及不同的识别方式,而如果采用不同的识别项目以及不同的识别方式,可以得到对应的识别结果。
示例性地,如果所述当前应用场景类别确定的是购物区域,所述功能识别模式可以是对购物区域的购物地点进行识别,并生成对应的指引推荐信息,所述指引推荐信息可以包括所述购物地点的相关信息,示例性地,可以是如购物点评网中对于该购物地点的点评信息。
如果所述当前应用场景类别确定的是运动区域,所述功能识别模式可以是对用户的运动场地的识别,并生成对应的运动辅助信息;还可以是对用户的运动时的体征进行检测并进行显示。具体的功能识别模式的可以根据穿戴式设备所包括的功能进行确定,在此不作限定。
本申请实施例中提供的一种识别方法,通过获取穿戴式设备所处的环境信息,以及获取所述穿戴式设备的位置信息;根据所述环境信息和所述位置信息确定当前应用场景类别;根据所述当前应用场景类别确定所述穿戴式设备中对应的功能识别模式,并控制所述穿戴式设备根据所述功能识别模式执行相应的功能识别事件。本申请实施例通过根据环境信息和位置信息确定穿戴式设备的应用场景类别,进而可以根据应用场景类别来确定对应的识别模式,可以提高穿戴式设备的识别功能的操作效率。
图3为本申请实施例提供的另一种识别方法的流程示意图,在上述实施例所提供的技术方案的基础上,对根据所述环境信息从所述至少两个候选应用场景类别中筛选出当前应用场景类别的操作进行了优化,可选地,如图3所示,该方法包括:
S120、获取穿戴式设备所处的环境信息,以及获取所述穿戴式设备的位置信息。
S121、根据所述位置信息确定地点类别,其中,所述地点类别对应至少两个候选应用场景类别。
上述操作的具体实施方式可以参考上文的相关描述,在此不再赘述。
S122、获取用户的体征状态信息,并根据所述体征状态信息确定用户状态。
所述体征状态信息可以是通过穿戴式设备上的体征状态采集模块所采集的。所述体征状态信息包括体现用户的体征状态的参数,可以包括心率、血压、呼吸频率和体温中的至少一个。根据用户的体征状态信息可以确定用户的状态,用户状态可以包括用户的运动状态和心情状态等。
S123、根据所述环境信息和所述用户状态从所述至少两个候选应用场景类别中筛选出当前应用场景类别。
其中,可以是通过所述环境信息从所述地点类别中确定出至少两个候选场景类别,再通过所述用户状态进一步从所述至少两个候选场景类别中筛选出当前应用场景类别。其中,所述候选场景类别为地点类别的子类别,候选应用场景类别为所述候选场景类别的子类别,每个地点类别中包括至少两个候选场景类别,每个候选场景类别中包括至少两个候选应用场景。
用户处在同一个场景中,可能也有不同的功能需求。在确定了用户状态之后,则可以根据用户状态,在确定的候选场景类别中进一步确定当前应用场景类别。
示例性地,用户处于购物区域,如果用户在寻找购物地点,则用户会持续移动,用户的心率比较高,此时用户所需要的穿戴式设备的功能识别模式可能是地点指引模式。而如果用户已经在一个购物地点,在对购物地点中的物品进行查看,用户可能不会进行较远的移动,且用户的心率相对较低,此时用户需要的可能是对物品的识别功能。
S124、根据所述当前应用场景类别确定所述穿戴式设备中对应的功能识别模式,并控制所述穿戴式设备根据所述功能识别模式执行相应的功能识别事件。
具体实施方式可以参考上文的相关描述,在此不再赘述。
本申请实施例获取用户的体征状态信息,并根据所述体征状态信息确定用户状态,根据所述环境信息和所述地点类别确定所述穿戴式设备的场景类别,根据所述用户状态和所述场景类别确定当前应用场景类别,可以进一步提高所述穿戴式设备的功能识别模式的准确性。
图4为本申请实施例提供的另一种识别方法的流程示意图,在上述实施例所提供的技术方案的基础上,对根据所述当前应用场景类别确定所述穿戴式设备中对应的功能识别模式的操作进行了优化,可选地,如图4所示,该方法包括:
S130、获取穿戴式设备所处的环境信息,以及获取所述穿戴式设备的位置信息。
S131、根据所述环境信息和所述位置信息确定当前应用场景类别。
上述操作的具体实施方式可以参考上文的相关描述,在此不再赘述。
S132、根据所述当前应用场景类别确定所述穿戴式设备中对应的功能模式,其中,所述功能模式对应至少两个候选功能识别模式。
确定了应用场景类别后,可以确定应用场景类别对应的使用功能,并根据对应的用功能将所述穿戴式设备调整为对应的功能模式。功能识别模式为所述功能模式的子类别,每个功能模式中包括至少两个候选识别功能模式。
示例性地,如果所述当前应用场景类别为运动场地,对应的功能模式为运动功能模式,运动功能模式可以包括对用户的运动场地的识别并生成对应的运动辅助信息的功能识别模式,还可以包括对用户的运动时的体征进行检测并进行显示的功能识别模式。而用户在进行运动时可能更关注运动的过程,例如用户在打乒乓球,可能会更关注打球的过程,而不会关心自己的体征信息。直到用户中场休息时可能会关注自己的体征信息。所以可以获取用户的姿态信息,进一步根据用户的姿态信息确定功能识别模式。
S133、获取用户的姿态信息。
可以根据所述穿戴式设备上的姿态传感器获取所述用户的姿态信息,所述用户为佩戴穿戴式设备的用户。姿态传感器可包括陀螺仪和加速度传感器,根据姿态传感器采集的姿态信息包括陀螺仪数据和加速度数据。
其中,本机穿戴式设备由用户佩戴。用户佩戴穿戴式设备并进行移动时,可以通过姿态传感器检测用户的姿态信息,姿态信息包括能够体现所述用户的移动姿态的参数。
可选地,所述姿态信息包括:头部姿态参数和/或身体姿态参数。用户佩戴穿戴式设备并进行移动时,可能会发生整体的移动和/或头部的移动。所述整体的移动是由用户的身体动作所导致的用户的人体发生移动,所述头部的移动包括用户的头部的倾斜和旋转等移动。
所述头部姿态参数包括头部倾斜角度和头部旋转角度等,所述身体姿态参数包括移动加速度、移动方位和移动距离等参数。用户转头或者歪头所发生的移动,可以根据陀螺仪的陀螺仪数据确定用户的头部倾斜角度、旋转角度等;用户走路或者跑步时用户发生的移动,可以根据加速度传感器和陀螺仪检测用户的移动加速度、移动方位和移动距离等数据。
S134、根据所述姿态信息从所述至少两个候选功能识别模式中筛选出所述穿戴式设备对应的功能识别模式。
所述功能识别模式为所述功能模式的子类别,所述姿态信息和功能识别模式的对应关系可以是系统预先设置或者用户预先设置,可以根据姿态信息和功能识别模式的对应关系以查表的方式从至少两个功能识别模式中确定功能识别模式。
本申请实施例通过根据所述当前应用场景类别确定所述穿戴式设备的功能模式,获取所述穿戴式设备的用户的姿态信息,根据所述姿态信息和所述功能模式确定功能识别模式,可以根据用户的姿态信息在功能模式中选择更适合的功能识别模式,可以提高功能识别模式的准确性。
图5为本申请实施例提供的另一种识别方法的流程示意图,在上述实施例所提供的技术方案的基础上,可选地,如图5所示,该方法包括:
S140、获取穿戴式设备所处的环境信息,以及获取所述穿戴式设备的位置信息。
S141、根据所述环境信息和所述位置信息确定当前应用场景类别。
所述当前应用场景类别包括地点指引类场景,所述地点指引类场景对应的功能识别模式包括地点引导模式。
所述地点指引类场景为:包括多个地点,且用于指引用户从多个地点中找到指引地点的场景。所述地点引导模式为所述穿戴式设备对地点指引类场景进行识别并进行相应的地点指引的模式。
可选地,所述地点指引类场景包括商场场景、景区场景和学校场景等。例如,用户在商场场景时,可以对商场场景中的多个商店进行指引,以使用户找到目标商店。用户在景区场景时,可以对景区内的景点进行指引,以使用户找到目标景点。用户在学校场景时,可以对学校中的多个教学楼或宿舍楼进行指引,以使用户找到目标楼栋。
S142、控制所述穿戴式设备根据所述地点引导模式对应的识别项目和识别方式识别所处的环境中包括的指引地点,并获取每个指引地点对应的指引信息;其中,所述指引信息包括所述指引地点的展示信息。
其中,所述指引地点为所述地点指引类场景中所包括的地点,可以通过预设地图信息中获取当前的应用场景类别中的多个指引地点,以及指引地点的指引信息。示例性地,如果用户在商场场景,则可以根据预设地图信息获取所述商场场景中所包括的购物地点。
所述指引信息包括向用户展示的关于所述地点的相关信息。示例性地,可以获取购物点评网中对于该购物地点的点评信息,并作为所述指引地点的指引信息。用户可以根据指引信息了解该指引地点的情况,以便决定是否前往。
S143、确定每个指引地点和用户的相对距离。
S144、根据所述相对距离确定每个指引地点的指引信息的显示参数,并根据所述显示参数显示对应的指引信息;其中,相对距离最近的指引地点的显示参数被设置为预设显示参数。
其中,可以根据预设地图信息获取每个指引地点的位置信息,以及根据穿戴式设备的定位模块获取用户的位置信息,根据每个指引地点的位置信息和用户的位置信息确定每个指引地点和用户的相对距离。
相对距离较远的指引地点,即用户到抵达该指引地点仍需要移动一段距离;而相对距离较近的指引地点,用户可以很快到达该地点。对于达到该指引地点的时间长短,用户对于指引地点的指引信息的显示需求也有所不同。
所述指引信息的显示参数包括:在所述穿戴式设备的显示部件上显示的参数信息,可选地,可以是字体大小、字体颜色和背景颜色等等。
所述预设显示参数可以是显示效果最好的显示参数,距离最近的指引地点的显示参数为预设显示参数;可以根据相对距离确定每个指引地点的显示参数,相对距离越近的指引地点的指引信息的显示参数更接近所述预设显示参数。
示例性地,对于相对距离较近的指引地点,可以将所述指引信息的显示字体设置为较大,用户可以更容易看到较近的指引地点的相关信息,进而确定是否为用户所需要。而对于较远的指引地点的相关信息,用户无需立即看到指引信息,可以将指引信息的显示字体设置为较小,可以随着用户接近该指引地点,逐渐将显示字体调大。所述相对距离和指引信息的显示参数的对应关系可以是系统预设或者用户设置,在此不作限定。
本申请实施例应用在地点指引类场景,通过所述穿戴式设备识别所处的环境中包括的指引地点,并获取每个指引地点对应的指引信息;确定每个指引地点和用户的相对距离,根据所述相对距离确定每个指引地点的指引信息的显示参数。根据相对距离调整指引信息的显示参数,可以提高指引用户的引导效率。
图6为本申请实施例提供的一种识别装置的结构框图,该装置可以执行识别方法,如图6所示,该装置包括:
环境信息确定模块220,用于获取穿戴式设备所处的环境信息,以及获取所述穿戴式设备的位置信息;
类别模块221,用于根据所述环境信息和所述位置信息确定当前应用场景类别;
模式确定模块222,用于根据所述当前应用场景类别确定所述穿戴式设备中对应的功能识别模式,并控制所述穿戴式设备根据所述功能识别模式执行相应的功能识别事件。
本申请实施例中提供的一种识别装置,通过获取穿戴式设备所处的环境信息,以及获取所述穿戴式设备的位置信息;根据所述环境信息和所述位置信息确定当前应用场景类别;根据所述当前应用场景类别确定所述穿戴式设备中对应的功能识别模式,并控制所述穿戴式设备根据所述功能识别模式执行相应的功能识别事件。本申请实施例通过根据环境信息和位置信息确定穿戴式设备的应用场景类别,进而可以根据应用场景类别来确定对应的识别模式,可以提高穿戴式设备的识别功能的操作效率。
可选地,类别模块具体包括:
地点确定模块,用于根据所述位置信息确定地点类别;其中,所述地点类别对应至少两个候选应用场景类别;
场景确定模块,用于根据所述环境信息从所述至少两个候选应用场景类别中筛选出当前应用场景类别。
可选地,还包括:
体征信息模块,用于根据所述环境信息和所述位置信息确定当前应用场景类别之前,获取用户的体征状态信息,并根据所述体征状态信息确定用户状态;
相应地,场景确定模块具体用于:
根据所述环境信息和所述用户状态从所述至少两个候选应用场景类别中筛选出当前应用场景类别。
可选地,所述环境信息包括图像数据、红外数据、亮度数据和声音数据中的至少一种。
可选地,模式确定模块具体用于:
根据所述当前应用场景类别确定所述穿戴式设备中对应的功能模式;其中,所述功能模式对应至少两个候选功能识别模式;
获取用户的姿态信息;
根据所述姿态信息从所述至少两个候选功能识别模式中筛选出所述穿戴式设备对应的功能识别模式。
可选地,模式确定模块具体用于:
控制所述穿戴式设备根据所述功能识别模式对应的识别项目和识别方式对当前环境进行识别,以得到识别结果;
控制所述穿戴式设备根据所述识别结果执行相应的功能。
可选地,所述当前应用场景类别包括地点指引类场景,所述地点指引类场景对应的功能识别模式包括地点引导模式;
模式确定模块具体用于:
控制所述穿戴式设备根据所述地点引导模式对应的识别项目和识别方式识别所处的环境中包括的指引地点,并获取每个指引地点对应的指引信息,其中,所述指引信息包括所述指引地点的展示信息;
确定每个指引地点和用户的相对距离;
根据所述相对距离确定每个指引地点的指引信息的显示参数,并根据所述显示参数显示对应的指引信息,其中,相对距离最近的指引地点的显示参数被设置为预设显示参数。
本实施例在上述各实施例的基础上提供了一种穿戴式设备,图7是本申请实施例提供的一种穿戴式设备的结构示意图,图8是本申请实施例提供的一种穿戴式设备的示意实物图。如图7和图8所示,该穿戴式设备200包括:存储器201、处理器(Central ProcessingUnit,CPU)202、显示部件203、触摸面板204、心率检测模组205、距离传感器206、摄像头207、骨传导扬声器208、麦克风209、呼吸灯210,这些部件通过一个或多个通信总线或信号线211来通信。
应该理解的是,图示穿戴式设备200仅仅是穿戴式设备的一个范例,并且穿戴式设备200可以具有比图中所示出的更多的或者更少的部件,可以组合两个或更多的部件,或者可以具有不同的部件配置。图中所示出的各种部件可以在包括一个或多个信号处理和/或专用集成电路在内的硬件、软件、或硬件和软件的组合中实现。
下面就本实施例提供的用于识别的穿戴式设备进行详细的描述,该穿戴式设备以智能眼镜为例。
存储器201,所述存储器201可以被处理模块202访问,所述存储器201可以包括高速随机存取存储器,还可以包括非易失性存储器,例如一个或多个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
显示部件203,可用于显示图像数据以及操作系统的操控界面,显示部件203嵌入在智能眼镜的镜框中,镜框内部设置有内部传输线路211,该内部传输线路211和显示部件203连接。示例性的,显示部件203可用于显示识别信息的识别结果。
触摸面板204,该触摸面板204设置在至少一个智能眼镜的镜腿的外侧,用于获取触摸数据,触摸面板204通过内部传输线路211和处理模块202连接。其中,触摸面板204可检测用户的手指滑动、点击操作,并相应的把检测到的数据传输至处理器202进行处理以生成对应的控制指令,示例性的,可以是左移指令、右移指令、上移指令、下移指令等。示例性的,显示部件203可显示处理器202传输的虚拟图像数据,该虚拟图像数据可相应的根据触摸面板204检测到的用户操作进行相应变化,具体的,可以是进行画面切换,当检测到左移指令或右移指令后相应的切换上一个或下一个虚拟图像画面;当显示部件203显示视频播放信息时,该左移指令可以是进行播放内容的回播,右移指令可以是进行播放内容的快进;当显示部件203显示的为可编辑文字内容时,该左移指令、右移指令、上移指令、下移指令可以是对光标的位移操作,即光标的位置可根据用户对触摸板的触摸操作而进行移动;当显示部件203显示的内容为游戏动画画面时,该左移指令、右移指令、上移指令、下移指令可以是对游戏中的对象进行控制,如飞机游戏中,可通过该左移指令、右移指令、上移指令、下移指令分别控制飞机的飞行方向;当显示部件203可显示不同频道的视频画面时,该左移指令、右移指令、上移指令、下移指令可进行不同频道的切换,其中,上移指令和下移指令可以是切换到预置频道(如用户使用的常用频道);当显示部件203显示静态图片时,该左移指令、右移指令、上移指令、下移指令可进行不同图片之间的切换,其中,左移指令可以是切换到上一幅图片,右移指令可以是切换至下一幅图,上移指令可以是切换到上一图集,下移指令可以是切换至下一图集。该触摸面板204还可用于对显示部件203的显示开关进行控制,示例性的,当长按压触摸面板204触摸区域时,显示部件203通电显示图像界面,当再次长按压触摸面板204触摸区域时,显示部件203断电,当显示部件203通电后,可通过在触摸面板204进行上滑和下滑操作以调节显示部件203中显示图像的亮度或分辨率。
心率检测模组205,用于测得用户的心率数据,心率指每分钟的心跳次数,该心率检测模组205设置在镜腿内侧。具体的,该心率检测模组205可以是通过电脉冲测量的方式使用干性电极获取人体心电数据,根据心电数据中的振幅峰值确定心率大小;该心率检测模组205还可以是由采用光电法测量心率的光线发射和光线接收器组成,相应的,该心率检测模组205设置在镜腿底部,人体耳廓的耳垂处。心率检测模组205采集到心率数据后可相应的发送至处理器202中进行数据处理已得到佩戴者当前的心率值,在一个实施例中,处理器202在确定出用户的心率值后,可将该心率值实时显示在显示部件203中,可选的处理器202在确定出心率值较低(如小于50)或较高(如大于100)可相应的触发报警器,同时将该心率值和/或生成的报警信息通过通信模块203发送至服务器。
距离传感器206,可设置在镜框上,该距离传感器206用于感应人脸到镜框101的距离,该距离传感器206可采用红外感应原理实现。具体的,该距离传感器206将采集的距离数据发送至处理器202,处理器202根据该距离数据控制显示部件203的亮暗。示例性的,当确定出距离传感器206采集到的距离小于5厘米时,处理器202相应的控制显示部件203处于点亮状态,当确定出距离传感器206为探测到有物体靠近时,相应的控制显示部件203处于关闭状态。
此外,智能眼镜的镜框上还可以设置其他类型的传感器,至少包括以下之一:加速度传感器、陀螺仪传感器和压力传感器,用于检测用户晃动、触碰或按压智能眼镜的操作,并将传感数据发送至处理模块202,以判断是否开启摄像头207进行图像采集。图7作为示例,示出了一种加速度传感器212,应当理解,这并非对本实施例的限定。
呼吸灯210,可设置在镜框的边缘,当显示部件203关闭显示画面时,该呼吸灯210可根据处理器202的控制而点亮呈渐变亮暗效果。
摄像头207,可以是设置在镜框的上边框的位置,采集用户前方的图像数据的前摄像模块,还可以采集用户眼球信息的后摄像模块,也可以是二者的结合。具体的,摄像头207采集前方图像时,将采集的图像发送至处理器202识别、处理,并根据识别结果触发相应的触发事件。示例性的,当用户在家中佩戴该智能眼镜上时,通过对采集的前方图像进行识别,如果识别到家具物品,则相应的查询是否存在对应的控制事件,如果存在,则相应的将该控制事件对应的控制界面显示在显示部件203中,用户可通过触摸面板204进行对应的家具物品的控制,其中该家具物品和智能眼镜通过蓝牙或无线自组网进行网络连接;当用户在户外佩戴该智能眼镜上时,可相应的开启目标识别模式,该目标识别模式可用于识别特定的人,摄像头207将采集的图像发送至处理器202进行人脸识别处理,如果识别到设定的预设人脸,则相应的可通过智能眼镜上集成的扬声器进行声音播报,该目标识别模式还可以用于识别不同的植物,例如,处理器202根据触摸面板204的触摸操作以记录摄像头207采集的当前图像并通过通信模块203发送至服务器以进行识别,服务器对采集图像中的植物进行识别并反馈相关的植物名称、介绍至智能眼镜,并将反馈数据显示在显示部件203中。摄像头207还可以是用于采集用户眼部如眼球的图像,通过对眼球的转动的识别生成不同的控制指令,示例性的,如眼球向上转动生成上移控制指令,眼球向下转动生成下移控制指令,眼球向左转动生成左移控制指令,眼球向右转动生成右移控制指令,其中合格,显示部件203可显示处理器202传输的虚拟图像数据,该虚拟图像数据可相应的根据摄像头207检测到的用户眼球的移动变化生成的控制指令而改变,具体的,可以是进行画面切换,当检测到左移控制指令或右移控制指令后相应的切换上一个或下一个虚拟图像画面;当显示部件203显示视频播放信息时,该左移控制指令可以是进行播放内容的回播,右移控制指令可以是进行播放内容的快进;当显示部件203显示的为可编辑文字内容时,该左移控制指令、右移控制指令、上移控制指令、下移控制指令可以是对光标的位移操作,即光标的位置可根据用户对触摸板的触摸操作而进行移动;当显示部件203显示的内容为游戏动画画面时,该左移控制指令、右移控制指令、上移控制指令、下移控制指令可以是对游戏中的对象进行控制,如飞机游戏中,可通过该左移控制指令、右移控制指令、上移控制指令、下移控制指令分别控制飞机的飞行方向;当显示部件203可显示不同频道的视频画面时,该左移控制指令、右移控制指令、上移控制指令、下移控制指令可进行不同频道的切换,其中,上移控制指令和下移控制指令可以是切换到预置频道(如用户使用的常用频道);当显示部件203显示静态图片时,该左移控制指令、右移控制指令、上移控制指令、下移控制指令可进行不同图片之间的切换,其中,左移控制指令可以是切换到上一幅图片,右移控制指令可以是切换至下一幅图,上移控制指令可以是切换到上一图集,下移控制指令可以是切换至下一图集。
骨传导扬声器208,骨传导扬声器208设置在至少一个镜腿的内壁侧,用于将接收到的处理器202发送的音频信号转换为振动信号。其中,骨传导扬声器208将声音通过颅骨传递至人体内耳,通过将音频的电信号转变为振动信号传递到颅骨耳蜗内,再被听觉神经所感知。通过骨传导扬声器208作为发声装置减少了硬件结构厚度,重量更轻,同时无电磁辐射也不会受到电磁辐射的影响,并且具备抗噪声、防水以及解放双耳的优点。
麦克风209,可设置在镜框的下边框上,用于采集外部(用户、环境)声音并传输至处理器202进行处理。示例性的,麦克风209对用户发出的声音进行采集并通过处理器202进行声纹识别,如果识别为认证用户的声纹,则相应的可接收后续的语音控制,具体的,用户可发出语音,麦克风209将采集到的语音发送至处理器202进行识别以根据识别结果生成对应的控制指令,如“开机”、“关机”、“提升显示亮度”、“降低显示亮度”,处理器202后续根据该生成的控制指令执行对应的控制处理。
上述实施例中提供的穿戴式设备的识别装置及穿戴式设备可执行本发明任意实施例所提供的穿戴式设备的识别方法,具备执行该方法相应的功能模块和有益效果。未在上述实施例中详尽描述的技术细节,可参见本发明任意实施例所提供的穿戴式设备的识别方法。
本申请实施例还提供一种包含穿戴式设备可执行指令的存储介质,所述穿戴式设备可执行指令在由穿戴式设备处理器执行时用于执行一种识别方法,该方法包括:
获取穿戴式设备所处的环境信息,以及获取所述穿戴式设备的位置信息;
根据所述环境信息和所述位置信息确定当前应用场景类别;
根据所述当前应用场景类别确定所述穿戴式设备中对应的功能识别模式,并控制所述穿戴式设备根据所述功能识别模式执行相应的功能识别事件。
在一个可能的实施例中,根据所述环境信息和所述位置信息确定当前应用场景类别包括:
根据所述位置信息确定地点类别,其中,所述地点类别对应至少两个候选应用场景类别;
根据所述环境信息从所述至少两个候选应用场景类别中筛选出当前应用场景类别。
在一个可能的实施例中,根据所述环境信息从所述至少两个候选应用场景类别中筛选出当前应用场景类别之前,还包括:
获取用户的体征状态信息,并根据所述体征状态信息确定用户状态;
相应地,根据所述环境信息从所述至少两个候选应用场景类别中筛选出当前应用场景类别包括:
根据所述环境信息和所述用户状态从所述至少两个候选应用场景类别中筛选出当前应用场景类别。
在一个可能的实施例中,所述环境信息包括图像数据、红外数据、亮度数据和声音数据中的至少一种。
在一个可能的实施例中,根据所述当前应用场景类别确定所述穿戴式设备中对应的功能识别模式包括:
根据所述当前应用场景类别确定所述穿戴式设备中对应的功能模式,其中,所述功能模式对应至少两个候选功能识别模式;
获取用户的姿态信息;
根据所述姿态信息从所述至少两个候选功能识别模式中筛选出所述穿戴式设备对应的功能识别模式。
在一个可能的实施例中,控制所述穿戴式设备根据所述功能识别模式执行相应的功能识别事件包括:
控制所述穿戴式设备根据所述功能识别模式对应的识别项目和识别方式对当前环境进行识别,以得到识别结果;
控制所述穿戴式设备根据所述识别结果执行相应的功能。
在一个可能的实施例中,所述当前应用场景类别包括地点指引类场景,所述地点指引类场景对应的功能识别模式包括地点引导模式;
相应地,控制所述穿戴式设备根据所述功能识别模式对应的识别项目和识别方式对当前环境进行识别,以得到识别结果,包括:
控制所述穿戴式设备根据所述地点引导模式对应的识别项目和识别方式识别所处的环境中包括的指引地点,并获取每个指引地点对应的指引信息,其中,所述指引信息包括所述指引地点的展示信息;
相应地,控制所述穿戴式设备根据所述识别结果执行相应的功能包括:
确定每个指引地点和用户的相对距离;
根据所述相对距离确定每个指引地点的指引信息的显示参数,并根据所述显示参数显示对应的指引信息,其中,相对距离最近的指引地点的显示参数被设置为预设显示参数。
在一个可能的实施例中,所述穿戴式设备包括穿戴式设备。
存储介质——任何的各种类型的存储器设备或存储设备。术语“存储介质”旨在包括:安装介质,例如CD-ROM、软盘或磁带装置;计算机系统存储器或随机存取存储器,诸如DRAM、DDR RAM、SRAM、EDO RAM,兰巴斯(Rambus)RAM等;非易失性存储器,诸如闪存、磁介质(例如硬盘或光存储);寄存器或其它相似类型的存储器元件等。存储介质可以还包括其它类型的存储器或其组合。另外,存储介质可以位于程序在其中被执行的第一计算机系统中,或者可以位于不同的第二计算机系统中,第二计算机系统通过网络(诸如因特网)连接到第一计算机系统。第二计算机系统可以提供程序指令给第一计算机用于执行。术语“存储介质”可以包括可以驻留在不同位置中(例如在通过网络连接的不同计算机系统中)的两个或更多存储介质。存储介质可以存储可由一个或多个处理器执行的程序指令(例如具体实现为计算机程序)。
当然,本申请实施例所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于如上所述的识别方法操作,还可以执行本发明任意实施例所提供的识别方法中的相关操作。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
注意,上述仅为本申请的较佳实施例及所运用技术原理。本领域技术人员会理解,本申请不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本申请的保护范围。因此,虽然通过以上实施例对本申请进行了较为详细的说明,但是本申请不仅仅限于以上实施例,在不脱离本申请构思的情况下,还可以包括更多其他等效实施例,而本申请的范围由所附的权利要求范围决定。

Claims (9)

1.一种识别方法,其特征在于,包括:
获取穿戴式设备所处的环境信息,以及获取所述穿戴式设备的位置信息;
根据所述环境信息和所述位置信息确定当前应用场景类别;
根据所述当前应用场景类别确定所述穿戴式设备中对应的功能识别模式,并控制所述穿戴式设备根据所述功能识别模式执行相应的功能识别事件;
所述控制所述穿戴式设备根据所述功能识别模式执行相应的功能识别事件包括:
控制所述穿戴式设备根据所述功能识别模式对应的识别项目和识别方式对当前环境进行识别,以得到识别结果;
控制所述穿戴式设备根据所述识别结果执行相应的功能;
所述当前应用场景类别包括地点指引类场景,所述地点指引类场景对应的功能识别模式包括地点引导模式;
相应地,控制所述穿戴式设备根据所述功能识别模式对应的识别项目和识别方式对当前环境进行识别,以得到识别结果,包括:
控制所述穿戴式设备根据所述地点引导模式对应的识别项目和识别方式识别所处的环境中包括的指引地点,并获取每个指引地点对应的指引信息,其中,所述指引信息包括所述指引地点的展示信息;
相应地,控制所述穿戴式设备根据所述识别结果执行相应的功能包括:
确定每个指引地点和用户的相对距离;
根据所述相对距离确定每个指引地点的指引信息的显示参数,并根据所述显示参数显示对应的指引信息,其中,相对距离最近的指引地点的显示参数被设置为预设显示参数。
2.根据权利要求1所述的方法,其特征在于,根据所述环境信息和所述位置信息确定当前应用场景类别包括:
根据所述位置信息确定地点类别,其中,所述地点类别对应至少两个候选应用场景类别;
根据所述环境信息从所述至少两个候选应用场景类别中筛选出当前应用场景类别。
3.根据权利要求2所述的方法,其特征在于,根据所述环境信息从所述至少两个候选应用场景类别中筛选出当前应用场景类别之前,还包括:
获取用户的体征状态信息,并根据所述体征状态信息确定用户状态;
相应地,根据所述环境信息从所述至少两个候选应用场景类别中筛选出当前应用场景类别包括:
根据所述环境信息和所述用户状态从所述至少两个候选应用场景类别中筛选出当前应用场景类别。
4.根据权利要求1所述的方法,其特征在于,所述环境信息包括图像数据、红外数据、亮度数据和声音数据中的至少一种。
5.根据权利要求1至4任一项所述的方法,其特征在于,根据所述当前应用场景类别确定所述穿戴式设备中对应的功能识别模式包括:
根据所述当前应用场景类别确定所述穿戴式设备中对应的功能模式,其中,所述功能模式对应至少两个候选功能识别模式;
获取用户的姿态信息;
根据所述姿态信息从所述至少两个候选功能识别模式中筛选出所述穿戴式设备对应的功能识别模式。
6.根据权利要求1所述的方法,其特征在于,所述穿戴式设备包括穿戴式设备。
7.一种识别装置,其特征在于,包括:
环境信息确定模块,用于获取穿戴式设备所处的环境信息,以及获取所述穿戴式设备的位置信息;
类别模块,用于根据所述环境信息和所述位置信息确定当前应用场景类别;
模式确定模块,用于根据所述当前应用场景类别确定所述穿戴式设备中对应的功能识别模式,并控制所述穿戴式设备根据所述功能识别模式执行相应的功能识别事件;
所述模式确定模块具体用于:
控制所述穿戴式设备根据所述功能识别模式对应的识别项目和识别方式对当前环境进行识别,以得到识别结果;
控制所述穿戴式设备根据所述识别结果执行相应的功能;
所述当前应用场景类别包括地点指引类场景,所述地点指引类场景对应的功能识别模式包括地点引导模式;
所述模式确定模块具体用于:
控制所述穿戴式设备根据所述地点引导模式对应的识别项目和识别方式识别所处的环境中包括的指引地点,并获取每个指引地点对应的指引信息,其中,所述指引信息包括所述指引地点的展示信息;
确定每个指引地点和用户的相对距离;
根据所述相对距离确定每个指引地点的指引信息的显示参数,并根据所述显示参数显示对应的指引信息,其中,相对距离最近的指引地点的显示参数被设置为预设显示参数。
8.一种穿戴式设备,包括:存储器,处理器及存储在存储器上并可在处理器运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现根据权利要求1-6任一项所述的识别方法。
9.一种包含穿戴式设备可执行指令的存储介质,其特征在于,所述穿戴式设备可执行指令在由穿戴式设备处理器执行时用于执行根据权利要求1-6任一项所述的识别方法。
CN201811001263.9A 2018-08-30 2018-08-30 识别方法、装置、穿戴式设备及存储介质 Active CN109145847B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811001263.9A CN109145847B (zh) 2018-08-30 2018-08-30 识别方法、装置、穿戴式设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811001263.9A CN109145847B (zh) 2018-08-30 2018-08-30 识别方法、装置、穿戴式设备及存储介质

Publications (2)

Publication Number Publication Date
CN109145847A CN109145847A (zh) 2019-01-04
CN109145847B true CN109145847B (zh) 2020-09-22

Family

ID=64829342

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811001263.9A Active CN109145847B (zh) 2018-08-30 2018-08-30 识别方法、装置、穿戴式设备及存储介质

Country Status (1)

Country Link
CN (1) CN109145847B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111744170B (zh) * 2019-03-27 2024-03-19 广东小天才科技有限公司 一种基于可穿戴设备的游戏控制方法及可穿戴设备
CN112150778A (zh) * 2019-06-29 2020-12-29 华为技术有限公司 环境音处理方法及相关装置
CN110544468B (zh) * 2019-08-23 2022-07-12 Oppo广东移动通信有限公司 应用唤醒方法、装置、存储介质及电子设备
CN113253797A (zh) * 2020-02-07 2021-08-13 阿里巴巴集团控股有限公司 数据处理系统、方法、装置、电子设备以及可穿戴设备
CN113015064B (zh) * 2021-03-15 2022-04-05 读书郎教育科技有限公司 一种扫描笔免打扰他人的播放系统及方法
CN116935478B (zh) * 2023-09-13 2023-12-22 深圳市格炎科技有限公司 一种智能手表的情感识别方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104463761A (zh) * 2014-11-17 2015-03-25 无锡知谷网络科技有限公司 一种机场移动自助服务方法和系统
CN105703982A (zh) * 2014-11-29 2016-06-22 华为技术有限公司 一种协同人体设备进行通信的方法及装置
CN106779339A (zh) * 2016-11-29 2017-05-31 捷开通讯(深圳)有限公司 一种智能快递方法及系统
CN107277260A (zh) * 2017-07-07 2017-10-20 珠海格力电器股份有限公司 一种情景模式调整方法、装置和移动终端
WO2018125742A2 (en) * 2016-12-30 2018-07-05 Nadav Zamir Dynamic depth-based content creation in virtual reality environments

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104463761A (zh) * 2014-11-17 2015-03-25 无锡知谷网络科技有限公司 一种机场移动自助服务方法和系统
CN105703982A (zh) * 2014-11-29 2016-06-22 华为技术有限公司 一种协同人体设备进行通信的方法及装置
CN106779339A (zh) * 2016-11-29 2017-05-31 捷开通讯(深圳)有限公司 一种智能快递方法及系统
WO2018125742A2 (en) * 2016-12-30 2018-07-05 Nadav Zamir Dynamic depth-based content creation in virtual reality environments
CN107277260A (zh) * 2017-07-07 2017-10-20 珠海格力电器股份有限公司 一种情景模式调整方法、装置和移动终端

Also Published As

Publication number Publication date
CN109145847A (zh) 2019-01-04

Similar Documents

Publication Publication Date Title
CN109145847B (zh) 识别方法、装置、穿戴式设备及存储介质
US20190070064A1 (en) Object detection, analysis, and alert system for use in providing visual information to the blind
CN109259724B (zh) 一种用眼监控方法、装置、存储介质及穿戴式设备
CN109224432B (zh) 娱乐应用的操控方法、装置、存储介质及穿戴式设备
KR20180062174A (ko) 햅틱 신호 생성 방법 및 이를 지원하는 전자 장치
CN111163906B (zh) 能够移动的电子设备及其操作方法
CN109241900B (zh) 穿戴式设备的控制方法、装置、存储介质及穿戴式设备
CN109059929B (zh) 导航方法、装置、穿戴式设备及存储介质
CN109254659A (zh) 穿戴式设备的控制方法、装置、存储介质及穿戴式设备
KR20160128119A (ko) 이동 단말기 및 이의 제어방법
JPWO2018150831A1 (ja) 情報処理装置、情報処理方法及び記録媒体
KR20190089627A (ko) Ar 서비스를 제공하는 디바이스 및 그 동작 방법
CN112245912B (zh) 虚拟场景中的声音提示方法、装置、设备及存储介质
CN109040462A (zh) 行程提醒方法、装置、存储介质及穿戴式设备
KR20170066054A (ko) 오디오 제공 방법 및 그 장치
CN109358744A (zh) 信息共享方法、装置、存储介质及穿戴式设备
KR20210136043A (ko) 포인팅 제어기를 사용하는 스마트 디바이스와의 상호작용
CN109061903B (zh) 数据显示方法、装置、智能眼镜及存储介质
CN109068126B (zh) 视频播放方法、装置、存储介质及穿戴式设备
CN109189225A (zh) 显示界面调整方法、装置、穿戴式设备及存储介质
CN109257490B (zh) 音频处理方法、装置、穿戴式设备及存储介质
CN109117819B (zh) 目标物识别方法、装置、存储介质及穿戴式设备
CN118103799A (zh) 与远程设备的用户交互
US20210303258A1 (en) Information processing device, information processing method, and recording medium
CN109240498B (zh) 交互方法、装置、穿戴式设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant