CN106291523B - 手持装置、物件定位方法与计算机可读的记录介质 - Google Patents

手持装置、物件定位方法与计算机可读的记录介质 Download PDF

Info

Publication number
CN106291523B
CN106291523B CN201510377282.1A CN201510377282A CN106291523B CN 106291523 B CN106291523 B CN 106291523B CN 201510377282 A CN201510377282 A CN 201510377282A CN 106291523 B CN106291523 B CN 106291523B
Authority
CN
China
Prior art keywords
depth
mentioned
image
echo
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510377282.1A
Other languages
English (en)
Other versions
CN106291523A (zh
Inventor
吴俊熠
浦大钧
郭彦良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
HTC Corp
Original Assignee
High Tech Computer Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by High Tech Computer Corp filed Critical High Tech Computer Corp
Publication of CN106291523A publication Critical patent/CN106291523A/zh
Application granted granted Critical
Publication of CN106291523B publication Critical patent/CN106291523B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/411Identification of targets based on measurements of radar reflectivity
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/08Systems for measuring distance only
    • G01S13/10Systems for measuring distance only using transmission of interrupted, pulse modulated waves

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Electromagnetism (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

一种手持装置以及对应的物件定位方法与计算机可读的记录介质。上述手持装置包括雷达传感器、图像传感器和控制单元。雷达传感器发射探测波,并接收至少一物件反射探测波而产生的至少一回波。每一物件产生上述回波其中之一。图像传感器采集图像,此图像包括上述物件的一个子集合。控制单元提取每一个回波的波形特征并分别在时域和频域识别波形特征以判断每一物件的第一种类,根据回波取得每一物件的第一位置,根据图像取得每一物件的第二种类和第二位置,并进行物件比对以结合或比较上述物件的第一位置和第二位置。

Description

手持装置、物件定位方法与计算机可读的记录介质
技术领域
本发明涉及一种定位技术,且特别涉及一种手持装置、物件定位方法与计算机可读的记录介质。
背景技术
现在有许多三维场景的应用,例如虚拟实境(virtual reality)或照片中的多个物件之间的重新聚焦(refocus),这些应用已经逐渐普及到智能手机之类的手持装置,而这些应用都需要检测或计算多个物件在三维空间中的位置。
雷达可用来检测物件在三维空间中的位置,但是在单一指向性天线的雷达检测系统中,仅可以通过雷达返回时间(TOA:time of arrival)推算天线有效照射角度内的特定物件的相对位置。若欲得到三维空间的特定物件的位置,例如人、车、建筑…等,则必需采用阵列式天线进行波束扫描。此方式无论在天线设计或是后端演算处理上,均难以在手持装置上实现。
有些高阶手持装置具有两个图像传感器,可模拟人类的双眼拍摄立体图像(stereo images)。这些手持装置能用图像处理算法分析立体图像而推估三维空间的概况。但此方法若是在复杂环境时,例如图像内容出现太多相似物件,或拍摄到太单调的无特征画面,或因为视角差异而造成其中一幅图像中待比对的特征物件被遮蔽时,就难以得到正确的估测结果。
发明内容
本发明提供一种手持装置、物件定位方法与计算机可读的记录介质。本发明可在手持装置上实现一个或多个物件的完整而准确的三维空间定位。
本发明的手持装置至少包括雷达传感器、图像传感器和控制单元。雷达传感器发射探测波,并接收至少一物件反射探测波而产生的至少一回波。每一上述物件产生上述回波其中之一。图像传感器采集图像(takes an image),此图像包括上述物件的一个子集合。控制单元耦接雷达传感器与图像传感器。控制单元提取(extract)每一个回波的波形特征(signature),并分别在时域(time domain)和频域(frequency domain)识别波形特征以判断每一物件的第一种类,根据回波取得每一物件的第一位置,根据图像取得每一物件的第二种类和第二位置,并根据每一物件的第一种类、第二种类、第一位置和第二位置进行比对以结合或比较上述物件的第一位置和第二位置。
本发明的物件定位方法包括以下步骤:发射探测波,并接收至少一物件反射探测波而产生的至少一回波,其中每一物件产生上述回波其中之一;采集图像,此图像包括上述物件的一个子集合;提取每一回波的波形特征并分别在时域和频域识别波形特征以判断每一物件的第一种类;根据上述回波取得每一物件的第一位置;根据图像取得每一物件的第二种类和第二位置;以及
根据每一物件的第一种类、第二种类、第一位置和第二位置进行比对以结合或比较上述物件的第一位置和第二位置。
本发明的计算机可读的记录介质存储计算机程序,当手持装置载入并执行此计算机程序后,可完成上述的物件定位方法。
基于上述,本发明使用简单的雷达传感器和图像传感器互相辅助,所以能在手持装置上实现一个或多个物件的完整而准确的三维空间定位。
为让本发明的上述特征和优点能更明显易懂,下文特举实施例,并配合附图作详细说明如下。
附图说明
图1是依照本发明的一实施例的一种手持装置的示意图。
图2是依照本发明的一实施例的多个物件的深度与方位角度的示意图。
图3至图5是依照本发明的多个实施例的一种物件定位方法的流程图。
【符号说明】
100:手持装置
120:雷达传感器
125:探测波
140:图像传感器
160:控制单元
201~204:物件
305~360、405~450、505~565:方法步骤
D1~D4:物件的深度
θ1~θ4:物件的方位角度
具体实施方式
图1是依照本发明的一实施例的一种手持装置100的示意图。手持装置100可以是智能手机或平板计算机之类的手持式电子装置。手持装置100包括雷达传感器120、图像传感器140、以及控制单元160。控制单元160耦接雷达传感器120和图像传感器140。
雷达传感器120可发射探测波,例如以连续脉冲序列125的形式发射探测波。探测波可以是电磁波或超音波。手持装置100周围可以有一个或多个物件。雷达传感器120可接收上述物件反射探测波而产生的至少一个回波(reflected wave)。每一个物件可产生一个回波。如果手持装置100是智能手机,则雷达传感器120可用手持装置100的天线实现。
图像传感器140可采集图像,这个图像可包括上述物件的一个子集合。由于图像传感器的可视区(FOV:field of view)的限制,这个子集合可能包括上述的全部物件,或包括上述的部分物件,或没有任何物件。
控制单元160可根据上述物件的回波取得每一物件的第一种类T1和第一位置P1。控制单元160也可根据图像传感器140所采集的图像取得每一物件的第二种类T2和第二位置P2。然后,控制单元160可进行物件比对(object mapping)。所谓物件比对,就是根据每一物件的第一种类T1、第二种类T2、第一位置P1和第二位置P2进行比对,以结合或比较上述物件的第一位置P1和第二位置P2
举例而言,第一位置P1可以是物件相对于手持装置100的深度(也就是距离),第二位置P2可以是物件相对于手持装置100的方位角度。图2是依照本发明的一实施例的手持装置100前方的物件201~204的俯视图,物件201~204分别具有深度D1~D4与方位角度θ1~θ4。
手持装置100可包含一个波形特征数据库。此波形特征数据库存储多种波形特征和每一种波形特征对应的物件种类。控制单元160可提取每一物件的回波的波形特征,藉由波形特征数据库,分别在时域和频域识别此波形特征,以判断每一物件的第一种类T1。第一种类T1可以是人类、车辆或建筑等种类。另外,控制单元160可根据每一物件的回波的返回时间计算产生每一物件的深度P1。如此取得的第一种类T1和深度P1如下表所示。
物件 201 202 203 204
第一种类T<sub>1</sub> A B C D
深度P<sub>1</sub> D2 D4 D3 D1
手持装置100也可包含一个图像特征数据库。此图像特征数据库存储多种图像特征和每一种图像特征对应的物件种类。控制单元160可对图像中的每一物件进行二值化(thresholding)与边缘检测(edge detection)以提取每一物件的图像特征。然后控制单元160可藉由图像特征数据库,识别此图像特征,以判断每一物件的第二种类T2。第二种类T2可以是人类、车辆或建筑等种类。另外,控制单元160可根据每一物件在图像中的位置,以取得每一物件的方位角度P2。如此取得的第二种类T2和方位角度P2如下表所示。
物件 201 202 203 204
第二种类T<sub>2</sub> A B C D
方位角度P<sub>2</sub> θ1 θ2 θ3 θ4
如果每一个物件的第一种类T1和第二种类T2的判断结果相同,就可以进行物件比对来结合每一物件的深度P1和方位角度P2,以获得每一物件的完整空间位置,如下表所示。
物件 201 202 203 204
深度P<sub>1</sub> D2 D4 D3 D1
方位角度P<sub>2</sub> θ1 θ2 θ3 θ4
图3是依照本发明的一实施例的一种物件定位方法的流程图。本实施例中,每一物件的第一位置P1是该物件相对于手持装置100的深度,每一物件的第二位置P2是该物件相对于手持装置100的方位角度。雷达传感器120在步骤305发射探测波,并接收物件的回波。控制单元160在步骤310提取每一物件的回波的波形特征。控制单元160在步骤315藉由波形特征数据库识别此波形特征,以判断每一物件的第一种类T1。控制单元160在步骤320根据每一物件的回波的返回时间,计算产生每一物件的深度。
另一方面,图像传感器140在步骤325采集图像。控制单元160在步骤330校正(rectify)图像,也就是修正拍摄角度所造成的图像歪斜。控制单元160在步骤335进行物件辨识,也就是提取物件的图像特征,然后藉由图像特征数据库识别此图像特征,以判断物件的第二种类T2。控制单元160在步骤340根据物件是否在上述图像中而决定物件的方位角度。本实施例的方位角度只有两种,分别对应物件是否存在于图像中。
接下来,控制单元160在步骤345进行物件比对,以类似图2实施例的方式结合物件的深度和方位角度。控制单元160在步骤350检查是否物件的第一种类T1和第二种类T2都是一个特定种类,而且物件的深度和方位角度都在一个特定范围内。上述的特定种类可以是人类或其他具有呼吸与心跳等生理动作的动物。上述的特定范围是指物件在图像中而且物件的深度在一个适合测量生理动作的预设范围中(例如1.3~1.7公尺)。
当步骤350的检查得到否定结果,则流程分别返回步骤305和325。当步骤350的检查得到肯定结果,则控制单元160在步骤355控制雷达传感器120发射另一个探测波并接收物件的回波。步骤305和步骤355的探测波都包括多个脉冲,步骤305的探测波的脉冲间隔大于步骤355的探测波的脉冲间隔。例如在步骤305发射脉冲间隔为1毫秒(millisecond)的探测波,在步骤355则发射脉冲间隔为0.1毫秒的探测波。步骤305的探测波可用于确定物件位置。然后控制单元160可在步骤360利用步骤355的探测波检测物件的呼吸或心跳等细微的生理动作。本实施例可应用于老人、婴儿、伤患或病患的医疗监护。
图4是依照本发明的一实施例的一种物件定位方法的流程图。本实施例中,每一物件的第一位置P1是该物件相对于手持装置100的深度,每一物件的第二位置P2是该物件相对于手持装置100的方位角度。步骤405~420和步骤305~320相同。步骤425、430分别与步骤325、330相同。步骤435和440如同图2的实施例。
接下来,控制单元160在步骤445根据图像传感器140采集的图像取得每一物件的方位角度。更详细的说,控制单元160可将图像划分为多个区域,为每一区域指定一个对应的方位角度,然后将每一物件的方位角度设定为上述多个区域中包括该物件的该区域所对应的方位角度。以上的方位角度可以是一维或二维的方位角度。
接下来,控制单元160在步骤450进行物件比对以结合每一物件的深度和方位角度。如此可取得每一物件在三维空间的完整位置,以应用于建立三维图像或虚拟实境场景,或多个物件之间的重新聚焦。
图5是依照本发明的一实施例的一种物件定位方法的流程图。本实施例中,每一物件的第一位置P1和第二位置P2都是该物件相对于手持装置100的深度,这两个深度分别来自雷达传感器120和图像传感器140。本实施例的图像传感器140可以模仿人眼同时采集两个图像,分别对应左眼和右眼,所以物件会同时出现在这两个图像中。
步骤505~520和步骤305~320相同。图像传感器140在步骤525采集上述的两个图像。控制单元160在步骤530分别校正上述两个图像,在步骤535则是提取物件在两个图像中的图像特征,在步骤540利用图像特征数据库来识别图像特征以判断每一物件的第二种类T2。控制单元160在步骤545利用这两个图像之间的图像特征匹配以求取视差值(disparity),并将此视差值换算成物件的深度。
接下来,控制单元160在步骤550进行物件比对,以比较上述物件的根据雷达回波计算的深度和根据图像计算的深度,然后在步骤555检查这两种深度是否一致。如果这两种深度一致,则控制单元160在步骤560根据这两种深度产生上述物件的深度信息。此深度信息可用于建立三维图像或虚拟实境场景,或多个物件之间的重新聚焦。
如果上述两种深度不一致,则控制单元160在步骤565调整上述物件的图像特征,然后流程返回步骤545以重新计算来自图像特征的物件深度,并重新进行步骤550的物件比对。步骤565的调整可以是忽略不一致的深度所对应的图像特征,或重新选择不一致的深度所对应的物件的图像特征。
本实施例是用雷达做为辅助以取得正确的物件深度。当图像太复杂或太单调的时候,仅根据图像估算的深度可能有误,但若加上雷达检测所产生的深度一起作比对就能解决此问题。
本发明也提供一种计算机可读的记录介质,此记录介质可以是存储器、磁盘或光盘之类的实体存储装置。此记录介质可存储计算机程序。当手持装置载入并执行此计算机程序后,可完成如上所述的物件定位方法。
综上所述,本发明采用雷达传感器以及图像传感器同时进行物件的深度和方位角度的估算,而获得完整的物件位置。本发明也利用雷达传感器和图像传感器之间的配合与比对,而获得正确的物件深度与物件位置等信息。如此可达成正确的图像处理,可得到更佳的三维图像应用效果。
虽然本发明已以实施例公开如上,然其并非用以限定本发明,本领域技术人员在不脱离本发明的精神和范围内,当可作些许的更动与润饰,故本发明的保护范围当视所附权利要求书界定范围为准。

Claims (21)

1.一种手持装置,包括:
雷达传感器,发射第一探测波,并接收至少一物件反射该第一探测波而产生的至少一回波,其中每一上述物件产生该至少一回波其中之一;
图像传感器,采集第一图像,其中该第一图像包括该至少一物件的子集合;以及
控制单元,耦接该雷达传感器与该图像传感器,提取每一上述回波的波形特征,并分别在时域和频域识别该波形特征以判断每一上述物件的第一种类,根据该至少一回波取得每一上述物件的第一位置,根据该第一图像取得每一上述物件的第二种类和第二位置,并根据每一上述物件的该第一种类、该第二种类、该第一位置和该第二位置进行比对,并且在该第一种类与该第二种类相同时,结合或比较该第一位置和该第二位置。
2.如权利要求1所述的手持装置,其中该控制单元提取每一上述物件在该第一图像中的图像特征,并识别该图像特征以判断每一上述物件的该第二种类。
3.如权利要求1所述的手持装置,其中每一上述物件的该第一位置为根据该物件的该回波的返回时间所计算产生的深度,每一上述物件的该第二位置为根据该物件是否在该第一图像中而决定的该物件的方位角度,该控制单元进行上述比对以结合每一上述物件的该深度和该方位角度。
4.如权利要求3所述的手持装置,其中当该至少一物件的该第一种类和该第二种类皆为特定种类,而且该至少一物件的该深度和该方位角度皆在特定范围内时,则该控制单元控制该雷达传感器发射第二探测波以检测该至少一物件的生理动作。
5.如权利要求4所述的手持装置,其中该第一探测波包括多个脉冲,该第二探测波亦包括多个脉冲,该第一探测波的脉冲间隔大于该第二探测波的脉冲间隔。
6.如权利要求1所述的手持装置,其中每一上述物件的该第一位置为根据该物件的该回波的返回时间所计算产生的深度,该第一图像包括多个区域,每一上述区域对应一方位角度,每一上述物件的该第二位置为上述多个区域中包括该物件的该区域所对应的该方位角度,该控制单元进行上述比对以结合每一上述物件的该深度和该方位角度。
7.如权利要求1所述的手持装置,其中每一上述物件的该第一位置为根据该物件的该回波的返回时间所计算产生的第一深度,该图像传感器更采集一第二图像,该第一图像和该第二图像皆包括该至少一物件,每一上述物件的该第二位置为根据该物件在该第一图像和该第二图像中的一图像特征所计算的第二深度,该控制单元进行上述比对以比较该至少一物件的该第一深度和该第二深度。
8.如权利要求7所述的手持装置,其中当该至少一物件的该第一深度和该第二深度一致时,该控制单元根据该第一深度和该第二深度产生该至少一物件的深度信息。
9.如权利要求7所述的手持装置,其中当该至少一物件的该第一深度和该第二深度不一致时,该控制单元忽略不一致的深度所对应的上述该图像特征,重新计算该第二深度,并重新进行上述比对。
10.如权利要求7所述的手持装置,其中当该至少一物件的该第一深度和该第二深度不一致时,该控制单元重新选择不一致的深度所对应的上述物件的上述该图像特征,重新计算该第二深度,并重新进行上述比对。
11.一种物件定位方法,包括:
发射第一探测波,并接收至少一物件反射该第一探测波而产生的至少一回波,其中每一上述物件产生该至少一回波其中之一;
采集第一图像,其中该第一图像包括该至少一物件的一子集合;
提取每一上述回波的波形特征,并分别在时域和频域识别该波形特征以判断每一上述物件的第一种类;
根据该至少一回波取得每一上述物件的第一位置;
根据该第一图像取得每一上述物件的第二种类和第二位置;以及
根据每一上述物件的该第一种类、该第二种类、该第一位置和该第二位置进行比对,并且在该第一种类与该第二种类相同时,结合或比较该第一位置和该第二位置。
12.如权利要求11所述的物件定位方法,还包括:
提取每一上述物件在该第一图像中的图像特征,并识别该图像特征以判断每一上述物件的该第二种类。
13.如权利要求11所述的物件定位方法,其中每一上述物件的该第一位置为根据该物件的该回波的返回时间所计算产生的深度,每一上述物件的该第二位置为根据该物件是否在该第一图像中而决定的该物件的方位角度,上述比对结合每一上述物件的该深度和该方位角度。
14.如权利要求13所述的物件定位方法,还包括:
当该至少一物件的该第一种类和该第二种类皆为特定种类,而且该至少一物件的该深度和该方位角度皆在一特定范围内时,则发射第二探测波以检测该至少一物件的生理动作。
15.如权利要求14所述的物件定位方法,其中该第一探测波包括多个脉冲,该第二探测波亦包括多个脉冲,该第一探测波的脉冲间隔大于该第二探测波的脉冲间隔。
16.如权利要求11所述的物件定位方法,其中每一上述物件的该第一位置为根据该物件的该回波的返回时间所计算产生的深度,该第一图像包括多个区域,每一上述区域对应一方位角度,每一上述物件的该第二位置为上述多个区域中包括该物件的该区域所对应的该方位角度,上述比对结合每一上述物件的该深度和该方位角度。
17.如权利要求11所述的物件定位方法,其中每一上述物件的该第一位置为根据该物件的该回波的返回时间所计算产生的第一深度,而且该物件定位方法还包括:
采集第二图像,其中该第一图像和该第二图像皆包括该至少一物件,每一上述物件的该第二位置为根据该物件在该第一图像和该第二图像中的图像特征所计算的第二深度,上述比对比较该至少一物件的该第一深度和该第二深度。
18.如权利要求17所述的物件定位方法,还包括:
当该至少一物件的该第一深度和该第二深度一致时,根据该第一深度和该第二深度产生该至少一物件的深度信息。
19.如权利要求17所述的物件定位方法,还包括:
当该至少一物件的该第一深度和该第二深度不一致时,忽略不一致的深度所对应的上述该图像特征,重新计算该第二深度,并重新进行上述比对。
20.如权利要求17所述的物件定位方法,还包括:
当该至少一物件的该第一深度和该第二深度不一致时,重新选择不一致的深度所对应的上述物件的上述该图像特征,重新计算该第二深度,并重新进行上述比对。
21.一种计算机可读的记录介质,存储计算机程序,当手持装置载入并执行该计算机程序后,可完成如权利要求11所述的物件定位方法。
CN201510377282.1A 2015-06-24 2015-07-01 手持装置、物件定位方法与计算机可读的记录介质 Active CN106291523B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/749,617 US9778353B2 (en) 2015-06-24 2015-06-24 Handheld device, object positioning method and computer-readable recording medium
US14/749,617 2015-06-24

Publications (2)

Publication Number Publication Date
CN106291523A CN106291523A (zh) 2017-01-04
CN106291523B true CN106291523B (zh) 2019-04-05

Family

ID=56509424

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510377282.1A Active CN106291523B (zh) 2015-06-24 2015-07-01 手持装置、物件定位方法与计算机可读的记录介质

Country Status (4)

Country Link
US (1) US9778353B2 (zh)
CN (1) CN106291523B (zh)
DE (1) DE102016105891B4 (zh)
TW (1) TWI535265B (zh)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9575560B2 (en) 2014-06-03 2017-02-21 Google Inc. Radar-based gesture-recognition through a wearable device
US9811164B2 (en) 2014-08-07 2017-11-07 Google Inc. Radar-based gesture sensing and data transmission
US10268321B2 (en) 2014-08-15 2019-04-23 Google Llc Interactive textiles within hard objects
US9778749B2 (en) 2014-08-22 2017-10-03 Google Inc. Occluded gesture recognition
US11169988B2 (en) 2014-08-22 2021-11-09 Google Llc Radar recognition-aided search
US9600080B2 (en) 2014-10-02 2017-03-21 Google Inc. Non-line-of-sight radar-based gesture recognition
KR102002112B1 (ko) 2015-04-30 2019-07-19 구글 엘엘씨 제스처 추적 및 인식을 위한 rf―기반 마이크로―모션 추적
CN111880650A (zh) 2015-04-30 2020-11-03 谷歌有限责任公司 基于宽场雷达的手势识别
KR102011992B1 (ko) 2015-04-30 2019-08-19 구글 엘엘씨 타입-애그노스틱 rf 신호 표현들
US10088908B1 (en) 2015-05-27 2018-10-02 Google Llc Gesture detection and interactions
US9693592B2 (en) 2015-05-27 2017-07-04 Google Inc. Attaching electronic components to interactive textiles
US20170016986A1 (en) * 2015-07-17 2017-01-19 Thales-Raytheon Systems Company Llc System and method for providing remote target identification using optical tagging
EP3332266A4 (en) * 2015-08-03 2019-04-17 Commonwealth Scientific and Industrial Research Organisation MONITORING SYSTEMS AND METHODS
US10817065B1 (en) 2015-10-06 2020-10-27 Google Llc Gesture recognition using multiple antenna
WO2017192167A1 (en) 2016-05-03 2017-11-09 Google Llc Connecting an electronic component to an interactive textile
US10175781B2 (en) 2016-05-16 2019-01-08 Google Llc Interactive object with multiple electronics modules
WO2017200949A1 (en) 2016-05-16 2017-11-23 Google Llc Interactive fabric
US10579150B2 (en) 2016-12-05 2020-03-03 Google Llc Concurrent detection of absolute distance and relative movement for sensing action gestures
WO2018195546A1 (en) * 2017-04-21 2018-10-25 Tlc Millimeter Wave Products, Inc. Millimeter wave advanced threat detection system network
TWI641857B (zh) 2018-02-09 2018-11-21 宏碁股份有限公司 電子裝置以及定位方法
CN110609274B (zh) * 2018-06-15 2022-07-01 杭州海康威视数字技术股份有限公司 一种测距方法、装置及系统
TWI798037B (zh) * 2021-08-31 2023-04-01 宏達國際電子股份有限公司 虛擬影像顯示系統以及其控制器的指向方向的校正方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102114809A (zh) * 2011-03-11 2011-07-06 同致电子科技(厦门)有限公司 一体式视觉化倒车雷达影像辅助系统及信号的叠加方法
CN102428385A (zh) * 2009-05-19 2012-04-25 丰田自动车株式会社 物体探测设备
CN102508246A (zh) * 2011-10-13 2012-06-20 吉林大学 车辆前方障碍物检测跟踪方法
CN102542843A (zh) * 2010-12-07 2012-07-04 比亚迪股份有限公司 防止车辆碰撞的预警方法及装置
CN103576154A (zh) * 2012-08-01 2014-02-12 通用汽车环球科技运作有限责任公司 使用雷达和摄像机的障碍物探测的融合
CN103852757A (zh) * 2012-12-03 2014-06-11 株式会社电装 用于避免车辆与由安装至车辆的传感器所捕捉的目标之间的碰撞的目标检测装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL134518A0 (en) * 2000-02-13 2001-04-30 Hexagon System Engineering Ltd Integrated radar and communication system
JP4426436B2 (ja) 2004-12-27 2010-03-03 株式会社日立製作所 車両検知装置
US7990308B2 (en) 2009-02-20 2011-08-02 Raytheon Company Mirror image target detection and recognition
CN102713989A (zh) * 2010-03-17 2012-10-03 本田技研工业株式会社 车辆周围监测装置
US9830523B2 (en) 2012-05-31 2017-11-28 Korea Institute Of Science And Technology Method and apparatus for recognizing object material using spatial image and spatial radar information

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102428385A (zh) * 2009-05-19 2012-04-25 丰田自动车株式会社 物体探测设备
CN102542843A (zh) * 2010-12-07 2012-07-04 比亚迪股份有限公司 防止车辆碰撞的预警方法及装置
CN102114809A (zh) * 2011-03-11 2011-07-06 同致电子科技(厦门)有限公司 一体式视觉化倒车雷达影像辅助系统及信号的叠加方法
CN102508246A (zh) * 2011-10-13 2012-06-20 吉林大学 车辆前方障碍物检测跟踪方法
CN103576154A (zh) * 2012-08-01 2014-02-12 通用汽车环球科技运作有限责任公司 使用雷达和摄像机的障碍物探测的融合
CN103852757A (zh) * 2012-12-03 2014-06-11 株式会社电装 用于避免车辆与由安装至车辆的传感器所捕捉的目标之间的碰撞的目标检测装置

Also Published As

Publication number Publication date
DE102016105891A1 (de) 2016-12-29
US9778353B2 (en) 2017-10-03
CN106291523A (zh) 2017-01-04
US20160377712A1 (en) 2016-12-29
DE102016105891B4 (de) 2021-06-24
TW201701659A (zh) 2017-01-01
TWI535265B (zh) 2016-05-21

Similar Documents

Publication Publication Date Title
CN106291523B (zh) 手持装置、物件定位方法与计算机可读的记录介质
KR101362631B1 (ko) 머리 인식 방법
WO2020063987A1 (zh) 三维扫描方法、装置、存储介质和处理器
US10565719B2 (en) Floor detection in virtual and augmented reality devices using stereo images
US10105120B2 (en) Methods of, and apparatuses for, producing augmented images of a spine
KR20130044099A (ko) 영상 처리 방법 및 장치
US10055845B2 (en) Method and image processing system for determining parameters of a camera
JP6172432B2 (ja) 被写体識別装置、被写体識別方法および被写体識別プログラム
JP2013101113A (ja) シーン内の対象物を3d再構成するための方法
Hacihaliloglu et al. Projection-based phase features for localization of a needle tip in 2D curvilinear ultrasound
JP2021056017A (ja) 合成処理装置、合成処理システム及び合成処理方法
KR102274824B1 (ko) 홀로그램 기반 홈퍼니싱 시뮬레이션 시스템 및 방법
CN112076073A (zh) 按摩区域自动分割方法、装置、按摩机器人及存储介质
US10390799B2 (en) Apparatus and method for interpolating lesion detection
Nakajima et al. Depth-based gait feature representation
EP3074844B1 (en) Estimating gaze from un-calibrated eye measurement points
US20140078257A1 (en) Method for visualization of three-dimensional objects on a person
KR101546697B1 (ko) 표적 식별 정보 데이터베이스 구축 장치 및 방법
JP7133971B2 (ja) 3次元モデル生成装置及び3次元モデル生成方法
JP6311461B2 (ja) 視線分析システムおよび視線分析装置
KR20160052256A (ko) 가상 특징점을 이용하는 3차원 공간 매핑장치 및 그 방법
KR102177625B1 (ko) 펄스 레이더 장치 및 그 신호 처리 방법
Allmen et al. The computation of cloud base height from paired whole-sky imaging cameras
US20180274918A1 (en) Three-dimensional measurement apparatus, non-transitory computer readable medium, and three-dimensional measurement system
Zappa et al. Reliability of personal identification base on optical 3D measurement of a few facial landmarks

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant