CN104583904B - 用于输入对机动车部件的控制命令的方法 - Google Patents

用于输入对机动车部件的控制命令的方法 Download PDF

Info

Publication number
CN104583904B
CN104583904B CN201380042805.6A CN201380042805A CN104583904B CN 104583904 B CN104583904 B CN 104583904B CN 201380042805 A CN201380042805 A CN 201380042805A CN 104583904 B CN104583904 B CN 104583904B
Authority
CN
China
Prior art keywords
input object
camera
image
change
location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201380042805.6A
Other languages
English (en)
Other versions
CN104583904A (zh
Inventor
U·米勒
J·施耐德
M·屈内
M·屈纳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Publication of CN104583904A publication Critical patent/CN104583904A/zh
Application granted granted Critical
Publication of CN104583904B publication Critical patent/CN104583904B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/20Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明涉及一种用于输入对于机动车部件的控制命令的方法,包括如下步骤:a)利用成像装置在给定的检测区域中产生由使用者控制的输入物体(14)的图像序列,b)基于图像序列来识别输入物体(14)的位置变化,c)基于所识别的位置变化来产生对机动车部件的控制命令。根据本发明提出:所述成像装置包括至少一个红外感应式的相机(10),利用至少一个红外光源(12)对所述检测区域进行照射。

Description

用于输入对机动车部件的控制命令的方法
技术领域
本发明涉及一种根据权利要求1前序部分所述的用于输入对于机动车部件的控制命令的方法。
背景技术
尤其在机动车中,应该使驾驶员在操作电子仪器时尽可能不从驾驶事件分心。在此方面,以姿势识别为基础的人机交互已得到证明。其中,识别使用者的手或者其它输入目标在检测装置的空间中的摆动并由此产生相应的控制命令,以将选择元件定位在电子仪器的显示屏上。
由DE 201 22 526已知一种方法,其中利用所谓的“结构光”、例如以形式为扇形发射的结构光,来实现虚拟的输入装置。此外已知的是:利用立体相机来确定使用者手的空间位置并且利用这一点来识别姿势。
已知的方法存在如下缺陷:对所检测的图像进行分析所需的计算量大。此外,市场上常见的姿势识别装置大多是针对居家应用设计的。而与大多的居家应用不同,在机动车中存在复杂得多的照明条件,使得对所检测图像的分析更加困难。
发明内容
因此本发明的目的是,提供一种根据权利要求1前序部分所述的方法,它能够在机动车中实现简单可靠的姿势识别。
这个目的通过具有权利要求1特征的方法得以实现。
一种用于输入对于机动车部件控制命令的方法,具有步骤:
a)利用成像装置在给定的检测区域中产生由使用者控制的输入物体的图像序列,
b)基于图像序列来识别输入物体的位置变化,
c)基于所识别的位置变化来产生对机动车部件的控制命令。
在此按照本发明规定,成像装置包括至少一个红外感应式的相机,利用至少一个红外光源对所述检测区域进行照射。
通过这种方式以微少的设备成本实现了简单可靠的姿势识别。尤其放弃立体图像识别可以使必要的计算成本降低,由此可以实时地执行图像识别。通过照射检测区域也在机动车中困难的照明条件下同时实现了可靠识别。在此例如使用者的手可以作为输入物体,但是也可以通过检测其它物体实现姿势输入。例如可以识别使用者的点头和摇头。可以使用体外的物体,例如输入笔迹。
在此特别适宜的是,通过使图像序列的至少两个图像匹配于输入物体的骨架模型并对该至少两个图像的骨架模型参数进行比较来识别输入物体的位置变化。
通过适配于这种骨架模型能够在评价测得的图像时快速减少数据,由此需要特别少的计算功率。这种骨架模型可以通过参数来描述输入物体的形状,它们描述例如各个手指关节的弯角。通过一直改变这些参数,直到骨架模型描述与在图像中可以识别的相同的手姿势,则得到一组参数,即,例如手指关节的弯角,利用所述参数通过计算机可以获得手指相对位置的评价。
在本发明的另一扩展结构中,为了针对特定的输入物体标定骨架模型,在输入物体在检测区域中处于给定位置的情况下检测出一标定图像。这一点只需一次性地进行,便可以随后对确定的物体进行识别。因此例如可以准确地检测使用者手的大小,用于随后由实际物体大小和图像大小之间的比例获得位置信息。
按照本发明的另一方面,利用所检测的输入物体的至少一个点在相机的探测矩阵上的坐标来确定该点在一与所述至少一个相机的视向相垂直的平面中的位置。通过这种方式特别简单地获得二维位置信息,它们本身已经可以用于姿势识别。
为确定输入物体的至少一个点沿一与所述至少一个相机的视向平行的轴线的位置,即获取深度信息,利用输入物体的至少两个点的像距以及其与该至少两个点的已知的物距的比例来确定深度位置。
可以通过以下方式获得其它的深度信息:利用由输入物体向相机散射回的红外光源光的光强来确定输入物体的至少一个点沿与所述至少一个相机的视向平行的轴线的位置。这样便能以最简单的方式实现准确的距离确定,因为由红外光源射出的光——由此也是散射回的光——的强度随距离的平方减小。因此小的距离变化便会导致可观的亮度变化,由此可实现高的测量精度。
为了适应变换的光条件和有限的相机带宽,在此适宜的是,红外光源的照射功率在至少两个给定的功率值之间循环变化。通过这种方式可以可靠地避免过曝光或曝光不足,它们可能不利地影响距离确定。在此照明功率的变化也可以包括其间红外光源完全不发出光线的间隔。因为按照已知的模式实现红外光源的这种节拍式工作,通过这种方式可以可靠地将光源的光分量与在红外环境光中的由环境引起的波动分开,由此明显简化了图像识别。
对于相同的目的也有利的是:所述至少一个相机的曝光时间在至少两个给定值之间循环变化。另外,通过例如只在图像中以长曝光时间来分析暗区并且只在图像中以短曝光时间分析亮区,在图像中的强对比度下也可以得到全部信息。
此外因为已知车辆内舱的几何形状,为了识别输入物体的至少一个点的位置,可以确定出在该至少一个点与由所述至少一个相机检测的相对于机动车固定的具有已知位置的物体之间的位置关系。通过使(输入)物体与已知的相对于机动车固定的物体建立关系,得到了附加的几何信息,它们可以用于改善位置识别精度或者对已确定的位置进行确认。
本发明还涉及一种机动车,它具有电子仪器和姿势控制装置,该控制装置具有成像装置,该成像装置用于检测在机动车内舱中操纵物体的操纵姿势,其中按照本发明规定,所述姿势控制装置设计成,执行根据上述权利要求中任一项所述的方法。由根据本方法描述的优点得到相同的优点。
附图说明
下面借助于附图详细解释本发明和其实施例。附图示出:
图1由输入物体建立骨架模型的示意图;
图2利用相机确定物体x-y位置的示意图;
图3利用两个相机更好地确定物体x-y位置的示意图;
图4利用图像大小确定物体z位置的示意图;
图5照明强度与光源距离之间的关系示意图;
图6使光强匹配于变换的物距的示意图;
图7相机曝光时间适配于不同光条件的示意图。
具体实施方式
在操纵机动车部件、例如娱乐系统、移动电话、导航仪或电动车窗、座椅调整装置、空调系统等时,应尽可能地使机动车驾驶员的注意力不偏离车道。因此应当通过姿势识别实现控制,这是因为在此情况下驾驶员无需寻找操纵元件并且无需使其注意力偏离车道。
为此通过至少一个红外相机10对围绕驾驶员的机动车内舱进行拍摄,同时利用至少一个红外光源、优选以780-870nm的波长范围对该区域进行照射。由所拍摄的图像序列可以确定出手14或者其它输入物体的位置变化,所述位置变化又可以被分派给确定的控制命令。
为了尽可能地降低在图像识别方面的计算成本并实现对相机图像的可靠的实时处理,首先在标定阶段中建立手14的所谓的骨架模型16。为此,在给定的标定位置中对手进行一次性地拍摄,由此可以确定手14的基本尺寸。所得到的骨架模型16为手14设定了各关节18以及指尖20的位置并且还包括各关联点之间的不可改变的距离。
然后为了利用相机10所获取的图像进行姿势识别,可以通过使骨架模型16与图像中的手14的形状进行匹配来进行分析。在此,在通过关节的相应弯角范围限定了的、手14的可能的运动空间中搜寻一与手14的图像一致的姿势。
此时,由在相继的图像序列中手14姿势的变化以及其相对于相机10的位置可以识别出使用者的姿势并产生相应的控制命令。
除了通过关节18的弯角限定的手14姿势以外,必须确定手相对于相机10的位置。
在此确定手14在x-y平面中、即垂直于相机10视向的平面中的位置是特别简单的。相机10包括具有大量像素24的矩阵传感器22。因此可以简单地由手14的图像16在矩阵传感器22上的位置获得x-y位置。
在此,通过使用两个相机10可以提高精度。在此,使这两个相机10取向成,使各矩阵传感器22的像素24不是正好重合,而是相互错开,如图3所示。
但是,除了x-y位置以外,也必须确定手14在z向、即沿相机10视向的位置。对此存在许多可能方案。
首先,可以由通过标定已知的手14的大小和手14在相机10的矩阵传感器22上的图像大小来推断手14与相机10之间的距离。如图4所示,图像大小取决于手的大小及其与相机10的距离,由此例如小手在小距离下可形成与大手在较大间距上相同的图像角。以这个原理可以获得精度约±5cm的粗略的z位置。
如果手14相对于z轴运动,则达到更好的精度。由成像大小在相继的图像中的变化可以——主要基于同心扩张——以±1cm的精度计算出手距变化。这种精度对于姿势识别的许多问题已经足够了。
为了以更高的精度确定z位置,可以利用红外光源12的光的传播特性。照明强度、即单位面积的光流量与(该处)距红外光源12的距离的平方成反比。这当然也适用于由手14到相机的散射回的或反射的光。由此,在手14与红外光源12之间微小的距离变化便导致手14在相机图像中剧烈的光强变化,以此为基础可以以±0.5mm的精度确定距离变化。
但是在此存在如下问题:相机10的带宽是有限的。如果手14在强烈的红外光源光强下非常靠近相机10,则可能导致相机10过控制,由此不再能实现有效的图像评价。如图6所示,因此适宜的是,使红外光源12的光强在多个给定值之间循环变化。由此可以放弃那些相机过控制或者明显曝光不足的图像,由此总是有足够多的良好曝光的图像被用于分析和姿势识别。这一点也可以通过相机10曝光时间的循环变化来实现,如同在图7中所示的那样。在此在纵轴上标示时间,其中图表的每个条柱代表相机10曝光。在这里也相应地放弃曝光缺陷的图像或者图像部位。
除了适配于由手14反射的光的强烈变换的强度以外,上述手段还实现了:使由于机动车中可能强烈变化的入射的环境光引起的错误光源(的影响)最小化。
由于不仅检测手的姿势,而且检测手在所有空间方向上的位置,可以将所拍摄的每个图像的相应值存储起来。由这些参数变化的序列可以可靠地通过已知的图像分析方法识别出驾驶员姿势。
所有上述的分析方法可以通过使用多个冗余的相机10改善。这能够实现对每个相机10所检测的值进行可信性评价并且必要时放弃不可信的拍摄或分析结果。通过这种方式尽管在机动车中存在强烈的干扰影响,也可以可靠地识别姿势并将其用于控制。

Claims (8)

1.一种用于输入对于机动车部件的控制命令的方法,包括如下步骤:
a)利用成像装置在给定的检测区域中产生由使用者控制的输入物体(14)的图像序列,
b)基于图像序列来识别输入物体(14)的位置变化,
c)基于所识别的位置变化来产生对机动车部件的控制命令,
为了针对特定的输入物体标定骨架模型(16),在输入物体(14)在检测区域中处于给定的标定位置的情况下一次性地检测出一标定图像,以随后对确定的输入物体进行检测,
其特征在于,
成像装置包括至少一个红外感应式的相机(10),利用至少一个红外光源(12)对所述检测区域进行照射,通过使图像序列的至少两个图像匹配于输入物体(14)的骨架模型(16)并对该至少两个图像的骨架模型(16)参数进行比较来识别输入物体(14)的位置变化,
随后由实际的通过标定已知的物体大小和在图像序列中的输入物体的图像大小之间的比例获得位置信息。
2.根据权利要求1所述的方法,其特征在于,利用所检测的输入物体(14)的至少一个点在相机(10)的探测矩阵(22)上的坐标来确定该点在一与所述至少一个相机(10)的视向相垂直的平面中的位置。
3.根据权利要求1或2所述的方法,其特征在于,利用输入物体(14)的至少两个点的像距以及其与该至少两个点的已知的物距的比例来确定输入物体(14)的至少一个点沿一与所述至少一个相机(10)的视向平行的轴线的位置。
4.根据权利要求1或2所述的方法,其特征在于,利用由输入物体(14)向相机(10)散射回的红外光源光的光强来确定输入物体(14)的至少一个点沿与所述至少一个相机(10)的视向平行的轴线的位置。
5.根据权利要求1或2所述的方法,其特征在于,红外光源(12)的照射功率在至少两个给定的功率值之间循环变化。
6.根据权利要求1或2所述的方法,其特征在于,所述至少一个相机(10)的曝光时间在至少两个给定值之间循环变化。
7.根据权利要求1或2所述的方法,其特征在于,为了识别输入物体(14)的至少一个点的位置,确定出在该至少一个点与由所述至少一个相机(10)检测的相对于机动车固定的具有已知位置的物体之间的位置关系。
8.一种机动车,具有电子仪器和姿势控制装置,该姿势控制装置具有成像装置(10),该成像装置用于检测在机动车内舱中的操纵物体(14)的操纵姿势,其特征在于,所述姿势控制装置设计成,执行根据权利要求1-7中任一项所述的方法。
CN201380042805.6A 2012-10-31 2013-10-18 用于输入对机动车部件的控制命令的方法 Active CN104583904B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102012110460.3A DE102012110460A1 (de) 2012-10-31 2012-10-31 Verfahren zum Eingeben eines Steuerbefehls für eine Komponente eines Kraftwagens
DE102012110460.3 2012-10-31
PCT/EP2013/003137 WO2014067626A1 (de) 2012-10-31 2013-10-18 Verfahren zum eingeben eines steuerbefehls für eine komponente eines kraftwagens

Publications (2)

Publication Number Publication Date
CN104583904A CN104583904A (zh) 2015-04-29
CN104583904B true CN104583904B (zh) 2018-06-26

Family

ID=49551573

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380042805.6A Active CN104583904B (zh) 2012-10-31 2013-10-18 用于输入对机动车部件的控制命令的方法

Country Status (5)

Country Link
US (1) US9612655B2 (zh)
EP (1) EP2915022B1 (zh)
CN (1) CN104583904B (zh)
DE (1) DE102012110460A1 (zh)
WO (1) WO2014067626A1 (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015054426A1 (en) * 2013-10-08 2015-04-16 Ali Kord Single-camera motion capture system
CN105095852A (zh) * 2014-05-23 2015-11-25 上海通用汽车有限公司 一种车载手势指令识别系统
DE102014118387A1 (de) 2014-12-12 2016-06-16 Valeo Schalter Und Sensoren Gmbh Erfassungsvorrichtung zum Erkennen einer Geste und/oder einer Blickrichtung eines Insassen eines Kraftfahrzeugs durch synchrone Ansteuerung von Leuchteinheiten, Bedienanordnung, Kraftfahrzeug sowie Verfahren
DE102015207768B4 (de) * 2015-04-28 2020-03-12 Volkswagen Aktiengesellschaft Verbesserte Gestenerkennung für ein Fahrzeug
KR101744809B1 (ko) * 2015-10-15 2017-06-08 현대자동차 주식회사 곡면 스크린 상의 터치 드래그 제스처를 인식하는 방법 및 장치
DE102017000452A1 (de) * 2017-01-18 2018-07-19 Novartis Ag Kalibrierverfahren für ein kamerabasiertes Messgerät der humanen Augendiagnostik
US10481736B2 (en) * 2017-06-21 2019-11-19 Samsung Electronics Company, Ltd. Object detection and motion identification using electromagnetic radiation
EP3735652A1 (en) * 2018-01-03 2020-11-11 Sony Semiconductor Solutions Corporation Gesture recognition using a mobile device
US11992969B2 (en) * 2021-06-04 2024-05-28 Oshkosh Corporation Mixer autonomy mode

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101813995A (zh) * 2010-05-12 2010-08-25 福州锐达数码科技有限公司 一种红外感应式电子白板识别手势的方法
CN102385237A (zh) * 2010-09-08 2012-03-21 微软公司 基于结构化光和立体视觉的深度相机
CN102439538A (zh) * 2009-12-29 2012-05-02 摩托罗拉移动公司 具有感测组件的电子设备以及用于解释偏移手势的方法

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19708240C2 (de) 1997-02-28 1999-10-14 Siemens Ag Anordnung und Verfahren zur Detektion eines Objekts in einem von Wellen im nichtsichtbaren Spektralbereich angestrahlten Bereich
US6215898B1 (en) * 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
DE10022321A1 (de) 2000-05-09 2001-11-15 Bayerische Motoren Werke Ag Vorrichtung in Fahrzeugen zum Erkennen einer Handstellung
DE20122526U1 (de) 2000-09-07 2006-06-01 Canesta, Inc., San Jose Eine Vorrichtung zum Erfassen und Lokalisieren einer Interaktion eines Benutzerobjekts und virtuelle Übertragungsvorrichtung
DE10133823A1 (de) 2001-07-16 2003-02-27 Gerd Reime Optoelektronische Vorrichtung zur Positions- und Bewegungserfassung sowie zugehöriges Verfahren
DE10242890A1 (de) 2002-09-16 2004-03-25 Technische Universität München Kostenbewusste visuelle Interaktion über ein Distanzsensorenfeld
KR100518824B1 (ko) * 2003-03-17 2005-10-05 삼성전자주식회사 필기 모션 획 구분 인식 시스템 및 그 인식방법
GB0311177D0 (en) * 2003-05-15 2003-06-18 Qinetiq Ltd Non contact human-computer interface
US7372977B2 (en) * 2003-05-29 2008-05-13 Honda Motor Co., Ltd. Visual tracking using depth data
JP3903968B2 (ja) * 2003-07-30 2007-04-11 日産自動車株式会社 非接触式情報入力装置
EP1676442A2 (en) * 2003-10-24 2006-07-05 Reactrix Systems, Inc. Method and system for managing an interactive video display system
JP4220408B2 (ja) * 2004-02-13 2009-02-04 株式会社日立製作所 テーブル型情報端末
US7593593B2 (en) * 2004-06-16 2009-09-22 Microsoft Corporation Method and system for reducing effects of undesired signals in an infrared imaging system
US8872899B2 (en) * 2004-07-30 2014-10-28 Extreme Reality Ltd. Method circuit and system for human to machine interfacing by hand gestures
CA2540404A1 (en) * 2005-03-21 2006-09-21 Magna International Inc. Image-based vehicle occupant classification system
WO2007105205A2 (en) * 2006-03-14 2007-09-20 Prime Sense Ltd. Three-dimensional sensing using speckle patterns
US8249334B2 (en) * 2006-05-11 2012-08-21 Primesense Ltd. Modeling of humanoid forms from depth maps
US8180114B2 (en) 2006-07-13 2012-05-15 Northrop Grumman Systems Corporation Gesture recognition interface system with vertical display
CN101715581B (zh) * 2007-04-20 2014-07-23 索夫特基奈蒂克软件公司 体积识别方法和系统
WO2009045861A1 (en) 2007-10-05 2009-04-09 Sensory, Incorporated Systems and methods of performing speech recognition using gestures
US20100195867A1 (en) * 2009-01-30 2010-08-05 Microsoft Corporation Visual target tracking using model fitting and exemplar
WO2010103482A2 (en) * 2009-03-13 2010-09-16 Primesense Ltd. Enhanced 3d interfacing for remote devices
JP5422735B2 (ja) * 2009-05-11 2014-02-19 ウニヴェルシテート ツ リューベック 可変姿勢を含む画像シーケンスのリアルタイム利用可能なコンピュータ支援分析方法
US8743176B2 (en) * 2009-05-20 2014-06-03 Advanced Scientific Concepts, Inc. 3-dimensional hybrid camera and production system
US20100306716A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Extending standard gestures
US8744121B2 (en) * 2009-05-29 2014-06-03 Microsoft Corporation Device for identifying and tracking multiple humans over time
US20100302138A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Methods and systems for defining or modifying a visual representation
US8194149B2 (en) * 2009-06-30 2012-06-05 Cisco Technology, Inc. Infrared-aided depth estimation
US8565479B2 (en) * 2009-08-13 2013-10-22 Primesense Ltd. Extraction of skeletons from 3D maps
US8547327B2 (en) 2009-10-07 2013-10-01 Qualcomm Incorporated Proximity object tracker
US20110150271A1 (en) * 2009-12-18 2011-06-23 Microsoft Corporation Motion detection using depth images
US20110164032A1 (en) * 2010-01-07 2011-07-07 Prime Sense Ltd. Three-Dimensional User Interface
US8787663B2 (en) * 2010-03-01 2014-07-22 Primesense Ltd. Tracking body parts by combined color image and depth processing
US8523667B2 (en) * 2010-03-29 2013-09-03 Microsoft Corporation Parental control settings based on body dimensions
US8594425B2 (en) * 2010-05-31 2013-11-26 Primesense Ltd. Analysis of three-dimensional scenes
DE102010031801A1 (de) 2010-07-20 2012-01-26 STM Sensor Technologie München GmbH Verfahren und Vorrichtung zur Abstandsmessung
JP5658500B2 (ja) * 2010-07-26 2015-01-28 キヤノン株式会社 情報処理装置及びその制御方法
US8582867B2 (en) * 2010-09-16 2013-11-12 Primesense Ltd Learning-based pose estimation from depth maps
US9535537B2 (en) * 2010-11-18 2017-01-03 Microsoft Technology Licensing, Llc Hover detection in an interactive display device
US9104239B2 (en) 2011-03-09 2015-08-11 Lg Electronics Inc. Display device and method for controlling gesture functions using different depth ranges
JP6074170B2 (ja) * 2011-06-23 2017-02-01 インテル・コーポレーション 近距離動作のトラッキングのシステムおよび方法
US8811664B2 (en) * 2011-12-06 2014-08-19 Xerox Corporation Vehicle occupancy detection via single band infrared imaging
US8811938B2 (en) * 2011-12-16 2014-08-19 Microsoft Corporation Providing a user interface experience based on inferred vehicle state
KR102086509B1 (ko) * 2012-11-23 2020-03-09 엘지전자 주식회사 3차원 영상 획득 방법 및 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102439538A (zh) * 2009-12-29 2012-05-02 摩托罗拉移动公司 具有感测组件的电子设备以及用于解释偏移手势的方法
CN101813995A (zh) * 2010-05-12 2010-08-25 福州锐达数码科技有限公司 一种红外感应式电子白板识别手势的方法
CN102385237A (zh) * 2010-09-08 2012-03-21 微软公司 基于结构化光和立体视觉的深度相机

Also Published As

Publication number Publication date
WO2014067626A1 (de) 2014-05-08
DE102012110460A1 (de) 2014-04-30
US20150301591A1 (en) 2015-10-22
CN104583904A (zh) 2015-04-29
EP2915022A1 (de) 2015-09-09
US9612655B2 (en) 2017-04-04
EP2915022B1 (de) 2019-05-22

Similar Documents

Publication Publication Date Title
CN104583904B (zh) 用于输入对机动车部件的控制命令的方法
JP4827744B2 (ja) 検査路設定及び検査領域決定方法
CN107680124B (zh) 提高三维姿态评分和消除三维图像数据杂点的系统及方法
KR101782542B1 (ko) 차량 도장표면 검사시스템 및 검사방법
CN102781631B (zh) 信息处理装置及控制该装置的方法
JP2018028535A (ja) 検査ステーションに配置された車両の最外寸法を測定するための方法及びシステム
JP2020526821A (ja) 統合撮像装置を使用しての視覚的データ、深さデータ、および微小振動データの抽出
JP5655134B2 (ja) 3次元シーンにおけるテクスチャを生成する方法及び装置
CN107850706B (zh) 用于使用多边形物体生成光图案的方法和系统
CN113146073B (zh) 基于视觉的激光切割方法及装置、电子设备、存储介质
CN108154126A (zh) 虹膜成像系统及方法
US20180275073A1 (en) Device and method for calculating area to be out of inspection target of inspection system
JPH11166818A (ja) 三次元形状計測装置の校正方法及び校正装置
CN109477714A (zh) 非接触式测头和操作方法
JP2001148025A5 (zh)
CN109900702A (zh) 车辆损伤检测的处理方法、装置、设备、服务器和系统
US20230044371A1 (en) Defect detection in a point cloud
JP7259660B2 (ja) イメージレジストレーション装置、画像生成システム及びイメージレジストレーションプログラム
JP6835020B2 (ja) 画像処理システム、画像処理装置、画像処理プログラム
Chávez-Aragón et al. Rapid 3D Modeling and Parts Recognition on Automotive Vehicles Using a Network of RGB‐D Sensors for Robot Guidance
KR102506261B1 (ko) 실시간 위상 제어 리사주 운동을 적용한 라이다의 운동에 의한 사물 인식 방법 및 장치
JP2020134221A (ja) 走査経路生成装置、走査経路生成プログラム、走査経路生成方法、及び外観検査システム
Taha et al. A comparison of two approaches for collision avoidance of an automated guided vehicle using monocular vision
US20230013892A1 (en) Detection device and detection method
JP7442752B1 (ja) 被検査体の形状検査方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant