CN106233307A - 对象识别 - Google Patents

对象识别 Download PDF

Info

Publication number
CN106233307A
CN106233307A CN201580021780.0A CN201580021780A CN106233307A CN 106233307 A CN106233307 A CN 106233307A CN 201580021780 A CN201580021780 A CN 201580021780A CN 106233307 A CN106233307 A CN 106233307A
Authority
CN
China
Prior art keywords
module
submodule
primary beam
detected
subsignal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201580021780.0A
Other languages
English (en)
Inventor
C·德尔夫斯
N·迪特里希
F·施密特
F·菲舍尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of CN106233307A publication Critical patent/CN106233307A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/17Image acquisition using hand-held instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/20Lamp housings
    • G03B21/2006Lamp housings characterised by the light source
    • G03B21/2033LED or laser light sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Optics & Photonics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Mechanical Optical Scanning Systems (AREA)

Abstract

提出一种用于与模块无接触式交互的方法,其中,所述模块具有第一子模块和第二子模块,其中,在第一方法步骤中,通过所述第一子模块产生初级射束,其中,在第二方法步骤中,通过所述第二子模块如此以扫描运动加载所述初级射束,使得图像信息被投影到投影区域中,其中,在第三方法步骤中,通过所述模块识别由对象执行的控制命令,其中,所述控制命令涉及与所述模块的无接触式交互,其中,在所述第三方法步骤中,通过所述模块探测所述对象的几何形状。

Description

对象识别
技术领域
本发明从一种根据权利要求1的前序部分的、用于与模块无接触式交互的方法出发。此外,本发明从一种激光投影仪和一种具有用于与对象无接触式交互的接口的模块出发。
背景技术
众所周知用于提供人机接口的设备。
发明内容
本发明的任务在于提出一种方法、一种模块和一种激光投影仪,由此以相对高的精确度通过检测用户姿势来实现控制命令的识别。
根据本发明的用于与模块无接触式交互的方法、根据并列权利要求的所述模块和激光投影仪相对于现有技术具有以下优点:由模块以相对高的精确度探测用于与模块无接触式交互的对象——例如用户的手指或手,从而尤其通过检测用户姿势来实现控制命令的或者输入命令的识别。此外,通过探测对象的几何形状实现在几何形状和确定的控制命令之间的对应关系,其中,几何形状例如涉及确定的手势和/或手指运动。在此,当模块例如集成在例如电设备中或者连接在电设备上时,对象与模块的无接触式交互优选包括模块的或者电设备的控制。优选地,第一子模块为红绿蓝(RGB)模块、尤其半导体激光构件,其中,第一子模块配置用于产生激光射束(初级射束)。优选地,扫描运动涉及初级射束的这样的运动,通过所述运动,通过图像信息到投影区域中的逐行投影来组成对于用户可见的图像、例如视频序列的单个图像或者静止图像。控制命令优选涉及用于控制模块和/或激光投影仪的输入命令。控制命令的探测尤其通过在使用初级射束的情况下对象的测位和通过在对象上的反射产生的次级信号的探测来实现。
由从属权利要求以及参照附图的说明书可以得出本发明的有利的构型和扩展方案。
根据一种优选的扩展方案设置,通过对象轮廓探测来识别所述对象的几何形状。
由此有利地可能的是,实现相对快速的对象识别,其中,所述对象识别例如通过与用于图像信息的投影相同的初级射束实现。对象轮廓探测尤其包括相对于对象(或者对象的子区域)的轮廓线沿着基本上与初级射束的传播方向垂直的、环绕对象的平面确定对象(或者对象的子区域)的外形或者边界。
根据另一种优选的扩展方案设置,通过所述模块根据所述对象的所探测的几何形状和/或根据所述对象的所探测的另外的几何形状识别所述控制命令。
由此有利地可能的是,探测对象的几何形状的变化。由此,尤其实现用户姿势的检测。此外,尤其探测控制命令,所述控制命令对应于用户姿势,其中,尤其实现这样的用户姿势的检测:在所述用户姿势中,改变对象的几何形状,其中,例如手或者手指从弯曲的位置转变到伸展的位置中。
根据另一种优选的扩展方案设置,所述第二子模块具有扫描镜结构,其中,如此以偏转运动加载所述扫描镜结构,使得所述初级射束在所述扫描运动期间行式地扫过(überstreicht)所述对象。
由此有利地可能的是,提供相对紧凑并且成本有利地设计的模块,所述模块根据组合部件原理(Baukasten)可以以匹配的方式集成到电设备——尤其便携式激光投影仪中。扫描镜结构优选为微机电扫描镜结构。
根据另一种优选的扩展方案设置,,所述模块具有第三子模块,其中,在所述第三方法步骤中,通过所述第三子模块探测通过所述初级射束在所述对象上的反射产生的次级信号,其中,通过所述模块根据所探测的次级信号如此产生测位信号,使得所述测位信号具有关于所述对象的几何形状的信息。
由此有利地可能的是,关于对象的几何形状的信息可由测位信号导出。
测位信号例如包括关于通过初级射束在对象的表面上产生的投影点与模块的间距的间距信息,其中,间距信息可对应于扫描镜结构的偏转位置。
根据另一种优选的扩展方案设置,所述第三子模块在空间上与所述第二子模块间隔开,其中,根据所探测的次级信号如此配置所述测位信号,使得所述测位信号包括关于所述对象的子区域的遮暗信息,其中,尤其所述子区域相对于另外的子区域被遮暗。
由此有利地可能的是,通过被遮暗的区域的探测实现对象轮廓探测,其中,被遮暗的区域尤其涉及对象的子区域,该子区域在初级射束的扫描运动期间不被或者仅仅部分地被初级射束检测。
根据另一种优选的扩展方案设置,所述模块包括两个在空间上相互间隔开的探测单元,其中,在所述第三方法步骤中,通过所述两个探测单元立体地探测所述次级信号。根据另一种优选的扩展方案设置,在所述第三方法步骤中,通过所述两个探测单元中的第一探测单元探测所述次级信号的第一次级子信号,并且通过所述两个探测单元中的第二探测单元探测所述次级信号中的第二次级子信号。根据另一种优选的扩展方案设置,通过所述模块根据所探测的第一次级子信号产生第一测位子信号,并且根据所探测的第二次级子信号产生第二测位子信号,其中,通过所述第一和第二测位子信号的叠加产生所述测位信号,其中,尤其通过分析处理所述测位信号来识别所述对象的几何形状。
由此有利地可能的是,以相对高的精确度通过检测用户姿势来实现控制命令的识别。尤其由此通过对象轮廓探测来实现相对快速并且可靠的对象识别,其中,通过至少两个探测单元——尤其光学传感器检测优选对象的至少各一个成像,所述至少两个探测单元例如相对于第二子模块(或者扫描镜结构)布置在两侧。优选地将对象的通过至少两个探测单元检测的至少两个成像如此叠加,其中,尤其探测对象的和/或被遮暗的区域的外形或者轮廓。
按照根据本发明的模块的一种优选的扩展方案设置,所述第二子模块具有用于在所述扫描镜结构的偏转位置中使所述初级射束偏转的扫描镜结构,其中,用于改变所述偏转位置的扫描镜结构如此配置,使得所述初级射束实施行式的扫描运动。
由此有利地可能的是,提供相对紧凑并且成本有利地设计的模块,所述模块根据组合部件原理可以以匹配的方式集成到电设备——尤其便携式激光投影仪中。扫描镜结构优选为微机电扫描镜结构。
按照根据本发明的模块的一种优选的扩展方案设置,所述模块具有用于探测通过所述初级射束在所述对象上的反射产生的次级信号的第一子信号的第一探测单元,和/或,其中,所述模块具有用于探测所述次级信号的第二子信号的第二探测单元,
其中,所述第一和/或第二探测单元与所述第二子模块间隔开,和/或,
其中,所述第一和第二探测单元如此相互间隔开,使得通过所述两个探测单元能够立体地探测所述对象。
由此有利地可能的是,通过探测被遮暗的子区域来实现改进的对象识别,其中,尤其探测对象的或者对象的子区域(例如被遮暗的区域)的轮廓或者外形。
第一和/或第二探测单元尤其集成在模块的第三子模块中。
附图说明
在附图中示出并且在以下的说明中详细地解释本发明的实施例。在此示出:
图1示出根据本发明的一种实施方式的模块,
图2示出根据本发明的一种实施方式的激光投影仪,
图3和4示出根据本发明的不同的实施方式的模块。
具体实施方式
在不同的附图中,相同的部分总是设有相同的附图标记并且因此通常也分别仅仅命名或者提到一次。
在图1中示出根据本发明的一种实施方式的模块2。通过模块2提供用于与对象4无接触式交互的接口——尤其用户接口或者人机接口(Human-Machine-Interface,HMI)。对象4尤其为由用户引导的选择对象或者控制对象——例如手指、笔或者其他的空间实体物品。模块2与对象4的交互尤其通过对象4的运动的和/或位置的探测来实现,其中,尤其对对象4测位。
模块2具有用于产生初级射束3的第一子模块21。第一子模块21尤其为光模块21、优选激光模块21、特别优选红绿蓝(RGB)模块21。初级射束3优选为初级激光射束3,其中,初级激光射束3具有红光、绿光、蓝光和/或红外光。
此外,模块2具有用于使初级射束3偏转的第二子模块22,从而初级射束3尤其实施行式的扫描运动。第二子模块22如此配置,使得通过初级射束3的偏转来将图像信息投影到投影区域200中——尤其投影到投影对象20的投影面200上。这尤其意味着,以这样的方式进行初级射束3的扫描运动,即借助初级射束3将对于用户可见的图像投影到投影对象20——例如壁上。图像信息尤其涉及逐行地组成的图像——例如视频序列的单个图像或者静止图像、所摄制的成像、计算机生成的图像和/或其他图像。优选地,第二子模块22为扫描模块22或者扫描镜模块22,其中,扫描镜模块22特别优选地包括用于使初级射束3偏转的微机电系统(MEMS)。优选地,通过第二模块22如此以偏转运动加载初级射束3,使得初级射束3实施沿着投影区域200(也即尤其沿着投影对象20的投影面200)的扫描运动(也即尤其多行的或者网格式的扫描运动)。优选地,扫描镜模块22配置用于产生关于在扫描运动期间扫描镜模块22的偏转位置的(与时间有关的)偏转位置信号。
优选地,模块2具有第三子模块23、尤其探测模块23,用于探测通过初级射束3与对象4的相互作用产生的次级信号5。例如,如果对象4如此相对于模块2定位和/或运动,使得对象4由初级射束3在初级射束3的扫描运动期间检测到,则通过初级射束3在对象4上的反射产生次级信号。这例如表示:对象4定位在与初级射束3关联的测位区30中。尤其通过探测模块23产生(时间有关的)探测信号,其中,探测信号尤其包括关于所探测的次级信号5的信息。
优选地,模块2具有用于产生测位信号的第四子模块24,其中,测位信号尤其包括关于探测信号与偏转位置信号的(时间)相关性的信息。由此有利地可能的是,无接触式地——尤其通过对象4的借助初级射束3的测位来探测对象4(相对于模块2和/或相对于投影对象20)的位置和/或运动和/或间距。在此“测位”尤其表示位置确定和/或间距确定(在使用初级射束3的情况下)。
优选地,模块2还具有用于控制第一子模块21和/或第二子模块22的第五子模块25。第五子模块25例如是控制模块25,用于产生用于控制第一子模块21和/或第二子模块22的控制信号,其中,控制信号尤其根据测位信号来产生。
在图2中示出根据本发明的实施方式的激光投影仪1,其中,根据本发明的实施方式的模块2集成在激光投影仪1中。在这里所示出的实施方式尤其基本上等同于根据本发明的其他实施方式。在此,激光投影仪1布置在底座10——桌子10上,其中,模块2集成在激光投影仪1中。在这里,初级射束3——即尤其RGB激光射束——通过RGB模块21产生并且朝扫描模块22的扫描镜结构7定向,其中,如此通过扫描镜结构7使初级射束3偏转,使得初级射束3实施扫描运动。在此,初级射束3的扫描运动以这样的方式实现:将图像信息投影到投影对象20上的投影面200——例如壁或者其他的屏幕单元上。
在图3中示出根据本发明的一种实施方式的模块2,其中,在这里示出的实施方式基本上等同于本发明的其他实施方式。在该示图中示出对象4的子区域401和另外的子区域402,其中,子区域401相对于另外的子区域402被遮暗。这意味着,子区域401比另外的子区域402更暗,因为初级射束3在扫描运动期间仅仅检测另外的子区域402和投影区域200(并且不检测子区域401)。模块2包括用于探测通过初级射束3在对象4上的反射产生的次级信号5的探测单元431。例如,通过初级射束3在投影区域4’中的反射产生次级信号5,其中,投影区域4’布置在对象4的另外的子区域402中。此外,通过附图标记3’和3”示出初级射束3在扫描运动期间的进一步的传播方向,由此要说明,初级射束3射到投影面200上。通过以下方式实现被遮暗的区域401的探测,即探测单元231与第二子模块22间隔开,初级射束3通过所述第二子模块反射。在此,基于在探测单元231和第二子模块22之间的错位,(被投影的图像信息的)一些图像点的初级射束3的经反射的光(次级信号5)不到达探测单元231。
在图4中示出根据本发明的一种实施方式的模块2,其中,在这里示出的实施方式基本上等同于本发明的其他实施方式。模块2包括两个在空间上相互间隔开的探测单元231、232。所述两个探测单元231、232例如相对于第二子模块22布置在两侧,其中,所述两个探测单元231、232分别具有到第二子模块22的同样大的间距230。优选地,通过所述两个探测单元231、232立体地探测次级信号5,所述次级信号通过初级射束3在对象4上的扫描运动期间产生的投影区域4’(或者图像点4’)中的反射产生。这尤其意味着,次级信号5包括两个次级子信号51、52,其中,通过所述两个探测单元231、232中的第一探测单元231探测次级信号5的第一次级子信号51,并且通过所述两个探测单元231、232中的第二探测单元232探测次级信号5的第二次级子信号52。由此,通过所述两个探测单元231、232——所述两个探测单元例如为两个光学传感器——检测对象4的至少各一个成像。优选地,对象4的通过至少两个探测单元231、232检测的至少两个成像叠加,其中,尤其探测对象4的和/或被遮暗的区域401的外形或轮廓(见附图标记200’)。

Claims (13)

1.一种用于与模块(2)无接触式交互的方法,其中,所述模块(2)具有第一子模块(21)和第二子模块(22),其中,在第一方法步骤中,通过所述第一子模块(21)产生初级射束(3),其中,在第二方法步骤中,通过所述第二子模块(22)如此以扫描运动加载所述初级射束(3),使得图像信息被投影到投影区域(200)中,其中,在第三方法步骤中,通过所述模块(2)识别由对象(4)执行的控制命令,其中,所述控制命令涉及与所述模块(2)的无接触式交互,其特征在于,在所述第三方法步骤中,通过所述模块(2)探测所述对象(4)的几何形状。
2.根据权利要求1所述的方法,其特征在于,通过对象轮廓探测来识别所述对象(4)的几何形状。
3.根据以上权利要求中任一项所述的方法,其特征在于,通过所述模块(2)根据所述对象(4)的所探测的几何形状和/或根据所述对象(4)的所探测的另外的几何形状识别所述控制命令。
4.根据以上权利要求中任一项所述的方法,其特征在于,所述第二子模块(22)具有扫描镜结构(7,7’),其中,如此以偏转运动加载所述扫描镜结构(7,7’),使得所述初级射束(3)在所述扫描运动期间行式地扫过所述对象(4)。
5.根据以上权利要求中任一项所述的方法,其特征在于,所述模块(2)具有第三子模块(23),其中,在所述第三方法步骤中,通过所述第三子模块(23)探测通过所述初级射束(3)在所述对象(4)上的反射产生的次级信号(5),其中,通过所述模块(2)根据所探测的次级信号(5)如此产生测位信号,使得所述测位信号具有关于所述对象(4)的几何形状的信息。
6.根据以上权利要求中任一项所述的方法,其特征在于,所述第三子模块(23)在空间上与所述第二子模块(22)间隔开,其中,根据所探测的次级信号(5)如此配置所述测位信号,使得所述测位信号包括关于所述对象的子区域(401)的遮暗信息,其中,尤其所述子区域(401)相对于另外的子区域(402)被遮暗。
7.根据以上权利要求中任一项所述的方法,其特征在于,所述模块(2)包括两个在空间上相互间隔开的探测单元(231,232),其中,在所述第三方法步骤中,通过所述两个探测单元(231,232)立体地探测所述次级信号(5)。
8.根据权利要求7所述的方法,其特征在于,在所述第三方法步骤中,通过所述两个探测单元(231,232)中的第一探测单元(231)探测所述次级信号(5)的第一次级子信号(51),并且通过所述两个探测单元(231,232)中的第二探测单元(232)探测所述次级信号(5)中的第二次级子信号(52)。
9.根据权利要求8所述的方法,其特征在于,通过所述模块(2)根据所探测的第一次级子信号(51)产生第一测位子信号,并且根据所探测的第二次级子信号(52)产生第二测位子信号,其中,通过所述第一和第二测位子信号的叠加产生所述测位信号,其中,尤其通过分析处理所述测位信号来识别所述对象(4)的几何形状。
10.一种具有用于与对象(4)无接触式交互的接口的模块(2),其中,所述模块(2)具有用于产生初级射束(3)的第一子模块(21),其中,所述模块(2)具有用于使所述初级射束(3)偏转的第二子模块(22),其中,用于产生所述初级射束(3)的扫描运动的所述第二子模块(22)如此配置,使得通过所述模块(2)将图像信息投影到投影区域(200)中,其中,所述模块(2)配置用于识别由对象(4)执行的控制命令,其中,所述控制命令涉及所述对象(4)与所述模块(2)的无接触式交互,其特征在于,所述模块(2)如此配置,使得能够通过所述模块(2)探测所述对象(4)的几何形状。
11.根据权利要求10所述的模块(2),其特征在于,所述第二子模块(22)具有用于在所述扫描镜结构(7,7’)的偏转位置中使所述初级射束(3)偏转的扫描镜结构(7,7’),其中,用于改变所述偏转位置的扫描镜结构(7,7’)如此配置,使得所述初级射束(3)实施行式的扫描运动。
12.根据权利要求10或11所述的模块(2),其特征在于,所述模块(2)具有用于探测通过所述初级射束(3)在所述对象(4)上的反射产生的次级信号(5)的第一子信号(51)的第一探测单元(231),和/或,其中,所述模块(2)具有用于探测所述次级信号(5)的第二子信号(52)的第二探测单元(232),
其中,所述第一和/或第二探测单元(231,232)与所述第二子模块(22)间隔开,和/或,
其中,所述第一和第二探测单元(231,232)如此相互间隔开,使得通过所述两个探测单元(231,232)能够立体地探测所述对象(4)。
13.一种激光投影仪(1),所述激光投影仪具有根据权利要求10至12中任一项所述的模块(2),其特征在于,所述激光投影仪(1)能够通过所述模块(2)根据由所述对象(4)执行的控制命令的识别来无接触式控制。
CN201580021780.0A 2014-04-28 2015-03-03 对象识别 Pending CN106233307A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102014207932.2A DE102014207932A1 (de) 2014-04-28 2014-04-28 Objekterkennung
DE102014207932.2 2014-04-28
PCT/EP2015/054389 WO2015165618A1 (de) 2014-04-28 2015-03-03 Objekterkennung

Publications (1)

Publication Number Publication Date
CN106233307A true CN106233307A (zh) 2016-12-14

Family

ID=52596511

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201580021780.0A Pending CN106233307A (zh) 2014-04-28 2015-03-03 对象识别

Country Status (5)

Country Link
US (1) US20170185157A1 (zh)
KR (1) KR20160148643A (zh)
CN (1) CN106233307A (zh)
DE (1) DE102014207932A1 (zh)
WO (1) WO2015165618A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114820670A (zh) * 2022-03-23 2022-07-29 合肥嘉石科普服务有限公司 一种激光投影互动方法、系统及装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI573985B (zh) * 2016-01-19 2017-03-11 台達電子工業股份有限公司 感測裝置安裝輔助裝置及其輔助調整感測範圍之方法
BR112019011460A2 (pt) * 2016-12-09 2019-10-15 Koninklijke Philips Nv módulo sensor a laser, dispositivo de comunicação móvel, método de detecção de partícula e produto de programa de computador

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101441513A (zh) * 2008-11-26 2009-05-27 北京科技大学 一种利用视觉进行非接触式人机交互的系统
CN102722254A (zh) * 2012-06-20 2012-10-10 清华大学深圳研究生院 一种定位交互方法及系统
CN102906623A (zh) * 2010-02-28 2013-01-30 奥斯特豪特集团有限公司 交互式头戴目镜上的本地广告内容
CN103365489A (zh) * 2013-06-25 2013-10-23 南京信息工程大学 一种交互雾屏投影系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101441513A (zh) * 2008-11-26 2009-05-27 北京科技大学 一种利用视觉进行非接触式人机交互的系统
CN102906623A (zh) * 2010-02-28 2013-01-30 奥斯特豪特集团有限公司 交互式头戴目镜上的本地广告内容
CN102722254A (zh) * 2012-06-20 2012-10-10 清华大学深圳研究生院 一种定位交互方法及系统
CN103365489A (zh) * 2013-06-25 2013-10-23 南京信息工程大学 一种交互雾屏投影系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ANONYMOUS: ""Handheld projector Wikipedia,the free encyclopedia"", 《URL:HTTP://EN.WIKIPEDIA.ORG/W/INDEX.PHP?TITLE=HANDHELD_PROJECTOR&OLDID=604830436》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114820670A (zh) * 2022-03-23 2022-07-29 合肥嘉石科普服务有限公司 一种激光投影互动方法、系统及装置

Also Published As

Publication number Publication date
WO2015165618A1 (de) 2015-11-05
US20170185157A1 (en) 2017-06-29
DE102014207932A1 (de) 2015-10-29
KR20160148643A (ko) 2016-12-26

Similar Documents

Publication Publication Date Title
US20210181857A1 (en) Systems and Methods of Creating a Realistic Displacement of a Virtual Object in Virtual Reality/Augmented Reality Environments
US20200320793A1 (en) Systems and methods of rerendering image hands to create a realistic grab experience in virtual reality/augmented reality environments
US10949027B2 (en) Interactive virtual display
KR20090034824A (ko) 애플리케이션 제어 방법, 위치 정보 제공 시스템 및 컴퓨터판독가능 매체
US8237656B2 (en) Multi-axis motion-based remote control
CN1222859C (zh) 用于通过图象处理而不用三维建模来指示目标的设备和方法
US8897499B2 (en) Position detection system, position detection method, program, object determination system and object determination method
CN105493154B (zh) 用于确定增强现实环境中的平面的范围的系统和方法
CN103299259A (zh) 检测装置、输入装置、投影机以及电子设备
JP6352208B2 (ja) 三次元モデル処理装置およびカメラ校正システム
CN105518584A (zh) 利用热区识别交互
JP2018508019A (ja) 光パターンの強度変動を利用した体積内の物体の深さマッピング
KR20160108386A (ko) 3d 실루엣 감지 시스템
JPWO2016158856A1 (ja) 撮像システム、撮像装置、撮像方法、及び撮像プログラム
CN101198964A (zh) 使用红外图案照射创建对象的三维图像
CN106233307A (zh) 对象识别
JP5416489B2 (ja) 三次元指先位置検出方法、三次元指先位置検出装置、およびプログラム
JP2010164440A (ja) 距離画像処理装置および撮影装置
CN103376897A (zh) 用于确定在所投影的图像的光锥中执行的手势的方法和设备
CN102033657A (zh) 触控系统及其指示物高度侦测方法和指示物坐标侦测方法
CN104931039B (zh) 自由空间定位方法及系统
Candela et al. HumanTop: A multi-object tracking tabletop
Matsubara et al. Touch detection method for non-display surface using multiple shadows of finger
Periverzov et al. 3D Imaging for hand gesture recognition: Exploring the software-hardware interaction of current technologies
RE Low cost augmented reality for industrial problems

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20161214

WD01 Invention patent application deemed withdrawn after publication