CN113642488A - 物品定位方法和装置 - Google Patents

物品定位方法和装置 Download PDF

Info

Publication number
CN113642488A
CN113642488A CN202110952798.XA CN202110952798A CN113642488A CN 113642488 A CN113642488 A CN 113642488A CN 202110952798 A CN202110952798 A CN 202110952798A CN 113642488 A CN113642488 A CN 113642488A
Authority
CN
China
Prior art keywords
item
user
gesture
location
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110952798.XA
Other languages
English (en)
Other versions
CN113642488B (zh
Inventor
王琨
陈秀
刘娟
张曼
丁琳
吴龙海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics China R&D Center
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics China R&D Center
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics China R&D Center, Samsung Electronics Co Ltd filed Critical Samsung Electronics China R&D Center
Priority to CN202110952798.XA priority Critical patent/CN113642488B/zh
Publication of CN113642488A publication Critical patent/CN113642488A/zh
Application granted granted Critical
Publication of CN113642488B publication Critical patent/CN113642488B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

提供了一种物品定位方法和装置。所述物品定位方法包括:识别用户的当前手势;当用户的当前手势被识别为拾取手势并且用户的拾取手中存在物品时,识别所述物品;在识别出所述物品之后,当用户的当前手势被识别为释放手势并且用户的拾取手中不存在所述物品时,确定所述物品的位置。

Description

物品定位方法和装置
技术领域
本申请涉及手势识别领域,更具体地,涉及一种物品定位方法和装置。
背景技术
在日常生活中,用户找寻物品需要花费一些时间,其中,电子类物品可以较容易地定位并且将位置信息数字化、系统化,但是非电子类物品很难直接定位并记录位置信息。目前,针对非电子类物品定位技术通常通过引导用户手动输入和更新位置信息或者通过在物品上添加电子元件来辅助实现物品位置的数字化。
然而,通过用户手动输入记录位置不够智能且无法在物品频繁变换位置时实时更新,而通过在物品上附加电子元件实时记录位置信息需要用户前期对物品进行较为繁琐的处理且限制了可以记录的物品数量。因此,目前的这些物品定位技术难以满足自然交互的需要。
发明内容
根据本发明的示例性实施例,提供了一种物品定位方法,包括:识别用户的当前手势;当用户的当前手势被识别为拾取手势并且用户的拾取手中存在物品时,识别所述物品;在识别出所述物品之后,当用户的当前手势被识别为释放手势并且用户的拾取手中不存在所述物品时,确定所述物品的位置。
识别用户的当前手势的步骤可包括:预先确定不同手势与无线保真(WIFI)信号数据之间的映射关系;基于当前WIFI信号波形数据来识别用户的当前手势。
所述物品定位方法还可包括:在用户的当前手势被识别为拾取手势或释放手势之后,获取用户的拾取手的图像;基于用户的拾取手的图像来确定用户的拾取手中是否存在所述物品。
识别所述物品的步骤可包括:基于所述图像来识别所述物品的信息。
所述物品的位置可基于超宽带(UWB)定位和接收信号强度(RSS)定位中的至少一个而被确定。
所述物品定位方法还可包括:响应于用户请求,向用户指示所述物品的位置。
所述物品可以为非电子类物品。
根据本发明的示例性实施例,提供了一种物品定位装置,包括:手势识别单元,被配置为识别用户的当前手势;物品识别单元,被配置为当用户的当前手势被识别为拾取手势并且用户的拾取手中存在物品时,识别所述物品;定位单元,被配置为在识别出所述物品之后,当用户的当前手势被识别为释放手势并且用户的拾取手中不存在所述物品时,确定所述物品的位置。
手势识别单元还可被配置为进行以下操作:预先确定不同手势与无线保真WIFI信号波形数据之间的映射关系;基于当前WIFI信号波形数据来识别用户的当前手势。
物品识别单元还可被配置为进行以下操作:在用户的当前手势被识别为拾取手势或释放手势之后,获取用户的拾取手的图像;基于用户的拾取手的图像来确定用户的拾取手中是否存在所述物品。
物品识别单元还可被配置为基于所述图像来识别所述物品的信息。
所述物品的位置可基于UWB定位和RSS定位中的至少一个而被确定。
所述物品定位装置还可包括:指示单元,被配置为响应于用户请求,向用户指示所述物品的位置。
所述物品可以为非电子类物品。
根据本发明的示例性实施例,提供了一种电子设备,包括存储器和处理器,存储器上存储有计算机可执行指令,当所述指令由处理器执行时,执行前述的方法。
根据本发明的示例性实施例,提供了一种计算机可读介质,其上存储有计算机可执行指令,当执行所述指令时,执行前述的方法。
附图说明
通过下面结合附图进行的详细描述,本发明的上述和其它目的和特点将会变得更加清楚,其中:
图1是示出根据本发明示例性实施例的物品定位方法的流程图;
图2是示出根据本发明示例性实施例的WIFI手势识别的示意图;
图3是示出根据本发明示例性实施例的WIFI手势识别方法的示意图;
图4是示出根据本发明示例性实施例的UWB定位的示意图;
图5是示出根据本发明示例性实施例的RSS定位的示意图;
图6是示出根据本发明示例性实施例的确定物品的描述信息的示意图;
图7是示出根据本发明示例性实施例的物品定位的示意图;
图8是示出根据本发明另一示例性实施例的物品定位的示意图;
图9是示出根据本发明示例性实施例的物品定位装置的框图。
具体实施方式
现将详细参照本发明的实施例,所述实施例的示例在附图中示出,其中,相同的标号始终指示相同的部件。以下将通过参照附图来说明所述实施例,以便解释本发明。
图1是示出根据本发明示例性实施例的物品定位方法的示图。
参照图1,在步骤S110,可识别用户的当前手势。这里,仅作为示例而非限制,可通过WIFI信号波形数据分析用户动作,在不干预用户行为的前提下触发对目标物品的识别、记录和定位。基于WIFI信号波形数据的手势识别原理是不同的动作对WIFI信号波形数据造成影响。
图2是示出根据本发明示例性实施例的WIFI手势识别的示意图。如图2所示,可以将WIFI信号波形数据的变化与不同手势建立映射关系,根据WIFI信号波形数据中的信道状态信息(CSI)判断当前手势,并且可随后由相机的辅助下确认。因此,识别用户的当前手势的步骤可包括:预先确定不同手势与WIFI信号波形数据之间的映射关系;基于当前WIFI信号波形数据来识别用户的当前手势。这里,基于WIFI的手势识别可提前收集目标手势以及其他情况下的WIFI信号波形数据,提取WIFI信号波形数据特征并通过神经网络进行训练,然后利用训练好的神经网络对手势进行识别。
图3是示出根据本发明示例性实施例的WIFI手势识别方法的示意图。如图3所示,根据本发明示例性实施例的WIFI手势识别方法可包括:1.数据收集:在诸如房间内的不同位置收集各种手势(诸如,拾取手势、释放手势)以及无手势情况下的WIFI信号波形数据;2.数据去噪,对WIFI信号波形数据进行主成分分析,获取噪声最低的数据成分;3.特征提取,对数据进行时频分析,获取WIFI信号波形数据的时域和频域特征;4.模型训练,使用获取的WIFI信号波形数据的时域和频域特征通过诸如机器学习或者深度学习来训练神经网络;5.手势识别,利用训练好的神经网络,通过当前WIFI信号波形数据的时域和频域特征来获取当前手势。应注意,通过WIFI信号波形数据来识别用户的当前手势仅为实力而非限制,本领域技术人员完全可以采用其他的方法来识别用户的当前手势,诸如,相机图像手势识别、超声波探测手势识别等。
在步骤S120,当用户的当前手势被识别为拾取手势并且用户的拾取手中存在物品时,可识别所述物品。此外,当用户的当前手势被识别为非拾取手势的其他手势时,继续进行手势检测。这里,该步骤可进一步包括:在用户的当前手势被识别为拾取手势(或下面的步骤S130中的释放手势)之后,获取用户的拾取手的图像;基于用户的拾取手的图像来确定用户的拾取手中是否存在所述物品。这里,可将用户的当前手势被识别为拾取手势并且用户的拾取手中存在物品的情况判定为一次有效的拾取动作,并可将用户的当前手势被识别为释放手势并且用户的拾取手中不存在所述物品的情况判定为一次有效的释放动作。此外,识别所述物品的步骤可包括基于所述图像来识别所述物品的信息,诸如名称、位置描述信息等。这里,物品识别和位置描述信息生成可以通过诸如深度神经网络来进行并且可以达到实时计算,并且可预先进行深度神经网络的物品识别训练。此外,这里的物品可以而不限于为非电子类物品。
在步骤S130,在识别出所述物品之后,当用户的当前手势被识别为释放手势并且用户的拾取手中不存在所述物品时,可确定所述物品的位置。此外,当用户的当前手势被识别为非释放手势的其他手势时,继续进行手势检测。此外,可响应于用户请求向用户指示所述物品的位置,诸如,可通过语音、图形界面等向用户指示所述物品的位置。这里,仅作为示例而非限制,所述物品的位置可基于UWB定位和RSS定位中的至少一个而被确定。
图4是示出根据本发明示例性实施例的UWB定位的示意图。如图4的(a)所示,当用户的当前手势被识别为释放手势并且用户的拾取手中不存在所述物品时,可通过用户佩戴或持有的电子设备(诸如,移动电话、电子手表等)发送UWB信号,并通过其他配置有UWB芯片的电子设备作为UWB基站接收用户的电子设备发送的UWB信号以对用户的电子设备进行定位,随后根据电子设备预设的与手部的距离,将该定位位置加上对应的与手部的距离作为释放的物品的位置。更具体地,如图4的(b)所示,可首先对UWB基站进行时间同步,随后当用户的当前手势被识别为释放手势并且用户的拾取手中不存在所述物品时,可由用户佩戴或持有的电子设备发送UWB信号,随后UWB基站接收该UWB信号对用户的电子设备进行定位并将位置信息和接收的该UWB信号的信息发送到服务器,最后由服务器计算释放的物品的位置。这里,服务器进行的操作可同样由其他装置进行,诸如可由用户的电子设备或UWB基站进行。
图5是示出根据本发明示例性实施例的RSS定位的示意图。可基于附近的多个WIFI或蓝牙设备的RSS来计算用户的电子设备距WIFI或蓝牙设备的距离。如图5的(a)所示,利用RSS来进行定位主要有两种方法,即,三角定位算法和指纹算法。在三角定位算法中,可通过三个WIFI/蓝牙设备来对用户的电子设备进行定位,在指纹算法中,可预先确定位置与各个RSS的对应关系作为位置指纹库,并随后基于当前的各个RSS通过位置指纹库来确定用户的电子设备的位置。更具体地,如图5的(b)所示,可在用户的当前手势被识别为释放手势并且用户的拾取手中不存在所述物品时,获取每个WIFI/蓝牙设备的RSS,并可分别通过三角定位算法或指纹算法来确定用户的电子设备的位置,并进而根据电子设备预设的与手部的距离来确定释放的物品的位置。
此外,还可在用户的当前手势被识别为释放手势并且用户的拾取手中不存在所述物品时,基于用户的拾取手的图像来确定所述物品的信息,诸如位置描述信息等。图6是示出根据本发明示例性实施例的确定物品的描述信息的示意图。可基于用户的拾取手的图像通过诸如深度神经网络来确定图像中的目标物品,并确定与所述目标物品重合度最高的物体作为目标位置,并基于目标物品和目标位置来产生描述信息,诸如如图6所示的“[钥匙]在[桌子]上”。
图7是示出根据本发明示例性实施例的物品定位的示意图。
参照图7,针对指定的使用场景,可实时识别场景中用户的手势,在识别出用户与物品的行为交互(即,用户的当前手势被识别为拾取手势并且用户的拾取手中存在物品)时,获取物品的信息,并在用户的行为交互结束(即,用户的当前手势被识别为释放手势并且用户的拾取手中不存在所述物品)时,记录物品的位置。更具体地,如图7的(a)所示,识别出用户的当前手势为拾取手势并且用户的拾取手中存在物品。如图7的(b)所示,通过相机识别用户的拾取手中的物品,并持续识别用户的手势。如图7的(c)所示,当用户的当前手势被识别为释放手势并且用户的拾取手中不存在所述物品时确定所述物品的位置。如图7的(d)所示,响应于用户请求,向用户指示所述物品的位置。
图8是示出根据本发明另一示例性实施例的物品定位的示意图。
参照图8,针对指定的预定物品,在识别出所述预定物品时即开始持续的追踪所述预定物品的位置在空间中的变化,此时用户的行为交互集中表现在物品最终位置确认的时机。更具体地,如图8的(a)所示,识别出用户与所述预定物品存在行为交互(即,用户的当前手势被识别为拾取手势并且用户的拾取手中存在所述预定物品)。如图8的(b)所示,当用户的当前手势被识别为释放手势时,通过相机识别用户的拾取手中不存在所述预定物品。如图8的(c)所示,确定所述预定物品的位置。如图8的(d)所示,响应于用户请求,向用户指示所述预定物品的位置。
图9是示出根据本发明示例性实施例的物品定位装置的框图。
参照图9,根据本发明示例性实施例的物品定位装置900可包括手势识别单元910、物品识别单元920和定位单元930。
手势识别单元910可被配置为识别用户的当前手势。更具体地,手势识别单元910还可预先确定不同手势与无线保真WIFI信号波形数据之间的映射关系,并基于当前WIFI信号波形数据来识别用户的当前手势。
物品识别单元920可被配置为当用户的当前手势被识别为拾取手势并且用户的拾取手中存在物品时,识别所述物品。更具体地,物品识别单元920可基于所述图像来识别所述物品的信息。此外,物品识别单元920还可在用户的当前手势被识别为拾取手势或释放手势之后,获取用户的拾取手的图像,基于用户的拾取手的图像来确定用户的拾取手中是否存在所述物品。这里,所述物品可以为非电子类物品。
定位单元930可被配置为在识别出所述物品之后,当用户的当前手势被识别为释放手势并且用户的拾取手中不存在所述物品时,确定所述物品的位置。这里,所述物品的位置可基于超宽带UWB定位和接收信号强度RSS定位中的至少一个而被确定。
此外,根据本发明示例性实施例的物品定位装置900还可包括:指示单元,可被配置为响应于用户请求,向用户指示所述物品的位置。
此外,根据本发明的示例性实施例,还可提供一种电子设备,包括存储器和处理器,存储器上存储有计算机可执行指令,当所述指令由处理器执行时,执行前述的方法。根据本发明的示例性实施例,还可提供一种计算机可读介质,其上存储有计算机可执行指令,当执行所述指令时,执行前述的方法。
根据本发明的示例性实施例,可在家庭空间中使用已有的设备在不干预用户行为的前提下识别用户手势作为触发,根据多设备之间的位置信息交换定位移动设备的位置并计算常用物品(特别是非电子类物品)在空间中的具体位置信息,精准定位物品位置,从而可在用户需要时向用户指示物品的位置以辅助用户快速寻找到物品,并可准确高效的记录物品的位置,保证了系统工作的可靠性。

Claims (16)

1.一种物品定位方法,包括:
识别用户的当前手势;
当用户的当前手势被识别为拾取手势并且用户的拾取手中存在物品时,识别所述物品;
在识别出所述物品之后,当用户的当前手势被识别为释放手势并且用户的拾取手中不存在所述物品时,确定所述物品的位置。
2.如权利要求1所述的物品定位方法,其中,识别用户的当前手势的步骤包括:
预先确定不同手势与无线保真WIFI信号波形数据之间的映射关系;
基于当前WIFI信号波形数据来识别用户的当前手势。
3.如权利要求1所述的物品定位方法,还包括:
在用户的当前手势被识别为拾取手势或释放手势之后,获取用户的拾取手的图像;
基于用户的拾取手的图像来确定用户的拾取手中是否存在所述物品。
4.如权利要求3所述的物品定位方法,其中,识别所述物品的步骤包括:
基于所述图像来识别所述物品的信息。
5.如权利要求1所述的物品定位方法,其中,所述物品的位置基于超宽带UWB定位和接收信号强度RSS定位中的至少一个而被确定。
6.如权利要求1所述的物品定位方法,还包括:
响应于用户请求,向用户指示所述物品的位置。
7.如权利要求1~6之一所述的物品定位方法,其中,所述物品为非电子类物品。
8.一种物品定位装置,包括:
手势识别单元,被配置为识别用户的当前手势;
物品识别单元,被配置为当用户的当前手势被识别为拾取手势并且用户的拾取手中存在物品时,识别所述物品;
定位单元,被配置为在识别出所述物品之后,当用户的当前手势被识别为释放手势并且用户的拾取手中不存在所述物品时,确定所述物品的位置。
9.如权利要求8所述的物品定位装置,其中,手势识别单元还被配置为进行以下操作:
预先确定不同手势与无线保真WIFI信号波形数据之间的映射关系;
基于当前WIFI信号波形数据来识别用户的当前手势。
10.如权利要求8所述的物品定位装置,其中,物品识别单元还被配置为进行以下操作:
在用户的当前手势被识别为拾取手势或释放手势之后,获取用户的拾取手的图像;
基于用户的拾取手的图像来确定用户的拾取手中是否存在所述物品。
11.如权利要求10所述的物品定位装置,其中,物品识别单元还被配置为基于所述图像来识别所述物品的信息。
12.如权利要求8所述的物品定位装置,其中,所述物品的位置基于超宽带UWB定位和接收信号强度RSS定位中的至少一个而被确定。
13.如权利要求8所述的物品定位装置,还包括:
指示单元,被配置为响应于用户请求,向用户指示所述物品的位置。
14.如权利要求8所述的物品定位装置,其中,所述物品为非电子类物品。
15.一种电子设备,包括存储器和处理器,存储器上存储有计算机可执行指令,当所述指令由处理器执行时,执行前述权利要求1~7中任一项所述的方法。
16.一种计算机可读介质,其上存储有计算机可执行指令,当执行所述指令时,执行前述权利要求1~7中任一项所述的方法。
CN202110952798.XA 2021-08-19 2021-08-19 物品定位方法和装置 Active CN113642488B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110952798.XA CN113642488B (zh) 2021-08-19 2021-08-19 物品定位方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110952798.XA CN113642488B (zh) 2021-08-19 2021-08-19 物品定位方法和装置

Publications (2)

Publication Number Publication Date
CN113642488A true CN113642488A (zh) 2021-11-12
CN113642488B CN113642488B (zh) 2024-10-29

Family

ID=78422850

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110952798.XA Active CN113642488B (zh) 2021-08-19 2021-08-19 物品定位方法和装置

Country Status (1)

Country Link
CN (1) CN113642488B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115002278A (zh) * 2022-05-12 2022-09-02 中国电信股份有限公司 无线设备手势控制方法及装置、存储介质及电子设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100104134A1 (en) * 2008-10-29 2010-04-29 Nokia Corporation Interaction Using Touch and Non-Touch Gestures
CN105531715A (zh) * 2013-06-26 2016-04-27 亚马逊科技公司 检测物品交互和移动
CN108268134A (zh) * 2017-12-30 2018-07-10 广州本元信息科技有限公司 拿放商品的手势识别装置及方法
CN108921645A (zh) * 2018-06-07 2018-11-30 深圳码隆科技有限公司 一种商品购买判定方法、装置和用户终端
US20190130180A1 (en) * 2016-04-06 2019-05-02 Nec Corporation Object type identifying apparatus, object type identifying method, and recording medium
CN110427945A (zh) * 2019-06-27 2019-11-08 福州瑞芯微电子股份有限公司 一种基于实物及手势的交互方法和计算机设备
CN112686166A (zh) * 2020-12-31 2021-04-20 遵义师范学院 基于有限源数据的遗失物检测及提示方法
CN113051972A (zh) * 2019-12-27 2021-06-29 陈良银 一种基于WiFi的手势识别系统

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100104134A1 (en) * 2008-10-29 2010-04-29 Nokia Corporation Interaction Using Touch and Non-Touch Gestures
CN105531715A (zh) * 2013-06-26 2016-04-27 亚马逊科技公司 检测物品交互和移动
US20190130180A1 (en) * 2016-04-06 2019-05-02 Nec Corporation Object type identifying apparatus, object type identifying method, and recording medium
CN108268134A (zh) * 2017-12-30 2018-07-10 广州本元信息科技有限公司 拿放商品的手势识别装置及方法
CN108921645A (zh) * 2018-06-07 2018-11-30 深圳码隆科技有限公司 一种商品购买判定方法、装置和用户终端
CN110427945A (zh) * 2019-06-27 2019-11-08 福州瑞芯微电子股份有限公司 一种基于实物及手势的交互方法和计算机设备
CN113051972A (zh) * 2019-12-27 2021-06-29 陈良银 一种基于WiFi的手势识别系统
CN112686166A (zh) * 2020-12-31 2021-04-20 遵义师范学院 基于有限源数据的遗失物检测及提示方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115002278A (zh) * 2022-05-12 2022-09-02 中国电信股份有限公司 无线设备手势控制方法及装置、存储介质及电子设备
CN115002278B (zh) * 2022-05-12 2023-10-10 中国电信股份有限公司 无线设备手势控制方法及装置、存储介质及电子设备

Also Published As

Publication number Publication date
CN113642488B (zh) 2024-10-29

Similar Documents

Publication Publication Date Title
US20240178894A1 (en) Self-learning based on wi-fi based monitoring and augmentation
CN103048654B (zh) 雷达传感器和使用所述雷达传感器检测对象的方法
CN108322855B (zh) 用于获取音频信息的方法及装置
EP2544077A1 (en) Method and apparatus for providing user interface using acoustic signal, and device including user interface
JP6807268B2 (ja) 画像認識エンジン連携装置およびプログラム
CN108364648B (zh) 用于获取音频信息的方法及装置
MX2021008847A (es) Captura y diagnostico de audio de vehiculo.
CN110610127B (zh) 人脸识别方法、装置、存储介质及电子设备
CN102257511A (zh) 用于提供自适应姿态分析的方法、装置和计算机程序产品
CN104954543A (zh) 自动报警方法、装置及移动终端
US9854208B2 (en) System and method for detecting an object of interest
CN104305991B (zh) 从心电信号中检测噪声的方法和设备
CN113642488B (zh) 物品定位方法和装置
CN110084187B (zh) 基于计算机视觉的位置识别方法、装置、设备及存储介质
RU2012139330A (ru) Способ, серверное устройство, клиентское устройство и система для взаимодействия сетевых платформ
CN105933502A (zh) 标记消息已读状态的方法和装置
CN101277314A (zh) 搜索系统、管理服务器、移动通信设备、搜索方法和程序
JP6114507B2 (ja) 作業実績管理装置、方法、及び、プログラム
JP6060501B2 (ja) 筆跡管理プログラム及び記録表示装置
KR101170292B1 (ko) 레이더분석서버를 이용한 표적 식별 시스템 및 표적 식별 방법
CN111078983B (zh) 一种待识别页面的确定方法及学习设备
CN104635990B (zh) 一种识别用户触屏的方法及装置
CN107422856A (zh) 用于机器处理用户命令的方法、装置和存储介质
US20200319291A1 (en) Method and apparatus for indoor localization
CN113158912B (zh) 手势识别方法及装置、存储介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant