CN104583904A - 用于输入对机动车部件的控制命令的方法 - Google Patents
用于输入对机动车部件的控制命令的方法 Download PDFInfo
- Publication number
- CN104583904A CN104583904A CN201380042805.6A CN201380042805A CN104583904A CN 104583904 A CN104583904 A CN 104583904A CN 201380042805 A CN201380042805 A CN 201380042805A CN 104583904 A CN104583904 A CN 104583904A
- Authority
- CN
- China
- Prior art keywords
- camera
- input object
- change
- image
- imaging device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 21
- 230000008859 change Effects 0.000 claims abstract description 23
- 238000003384 imaging method Methods 0.000 claims abstract description 11
- 238000001514 detection method Methods 0.000 claims abstract description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 210000001145 finger joint Anatomy 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 238000003703 image analysis method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 230000013011 mating Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/10—Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/653—Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/20—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/30—Transforming light or analogous information into electric information
- H04N5/33—Transforming infrared radiation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/146—Instrument input by gesture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/20—Optical features of instruments
- B60K2360/21—Optical features of instruments using cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/60—Instruments characterised by their location or relative disposition in or on vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30268—Vehicle interior
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Chemical & Material Sciences (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Combustion & Propulsion (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明涉及一种用于输入对于机动车部件的控制命令的方法,包括如下步骤:a)利用成像装置在给定的检测区域中产生由使用者控制的输入物体(14)的图像序列,b)基于图像序列来识别输入物体(14)的位置变化,c)基于所识别的位置变化来产生对机动车部件的控制命令。根据本发明提出:所述成像装置包括至少一个红外感应式的相机(10),利用至少一个红外光源(12)对所述检测区域进行照射。
Description
技术领域
本发明涉及一种根据权利要求1前序部分所述的用于输入对于机动车部件的控制命令的方法。
背景技术
尤其在机动车中,应该使驾驶员在操作电子仪器时尽可能不从驾驶事件分心。在此方面,以姿势识别为基础的人机交互已得到证明。其中,识别使用者的手或者其它输入目标在检测装置的空间中的摆动并由此产生相应的控制命令,以将选择元件定位在电子仪器的显示屏上。
由DE 201 22 526已知一种方法,其中利用所谓的“结构光”、例如以形式为扇形发射的结构光,来实现虚拟的输入装置。此外已知的是:利用立体相机来确定使用者手的空间位置并且利用这一点来识别姿势。
已知的方法存在如下缺陷:对所检测的图像进行分析所需的计算量大。此外,市场上常见的姿势识别装置大多是针对居家应用设计的。而与大多的居家应用不同,在机动车中存在复杂得多的照明条件,使得对所检测图像的分析更加困难。
发明内容
因此本发明的目的是,提供一种根据权利要求1前序部分所述的方法,它能够在机动车中实现简单可靠的姿势识别。
这个目的通过具有权利要求1特征的方法得以实现。
一种用于输入对于机动车部件控制命令的方法,具有步骤:
a)利用成像装置在给定的检测区域中产生由使用者控制的输入物体的图像序列,
b)基于图像序列来识别输入物体的位置变化,
c)基于所识别的位置变化来产生对机动车部件的控制命令。
在此按照本发明规定,成像装置包括至少一个红外感应式的相机,利用至少一个红外光源对所述检测区域进行照射。
通过这种方式以微少的设备成本实现了简单可靠的姿势识别。尤其放弃立体图像识别可以使必要的计算成本降低,由此可以实时地执行图像识别。通过照射检测区域也在机动车中困难的照明条件下同时实现了可靠识别。在此例如使用者的手可以作为输入物体,但是也可以通过检测其它物体实现姿势输入。例如可以识别使用者的点头和摇头。可以使用体外的物体,例如输入笔迹。
在此特别适宜的是,通过使图像序列的至少两个图像匹配于输入物体的骨架模型并对该至少两个图像的骨架模型参数进行比较来识别输入物体的位置变化。
通过适配于这种骨架模型能够在评价测得的图像时快速减少数据,由此需要特别少的计算功率。这种骨架模型可以通过参数来描述输入物体的形状,它们描述例如各个手指关节的弯角。通过一直改变这些参数,直到骨架模型描述与在图像中可以识别的相同的手姿势,则得到一组参数,即,例如手指关节的弯角,利用所述参数通过计算机可以获得手指相对位置的评价。
在本发明的另一扩展结构中,为了针对特定的输入物体标定骨架模型,在输入物体在检测区域中处于给定位置的情况下检测出一标定图像。这一点只需一次性地进行,便可以随后对确定的物体进行识别。因此例如可以准确地检测使用者手的大小,用于随后由实际物体大小和图像大小之间的比例获得位置信息。
按照本发明的另一方面,利用所检测的输入物体的至少一个点在相机的探测矩阵上的坐标来确定该点在一与所述至少一个相机的视向相垂直的平面中的位置。通过这种方式特别简单地获得二维位置信息,它们本身已经可以用于姿势识别。
为确定输入物体的至少一个点沿一与所述至少一个相机的视向平行的轴线的位置,即获取深度信息,利用输入物体的至少两个点的像距以及其与该至少两个点的已知的物距的比例来确定深度位置。
可以通过以下方式获得其它的深度信息:利用由输入物体向相机散射回的红外光源光的光强来确定输入物体的至少一个点沿与所述至少一个相机的视向平行的轴线的位置。这样便能以最简单的方式实现准确的距离确定,因为由红外光源射出的光——由此也是散射回的光——的强度随距离的平方减小。因此小的距离变化便会导致可观的亮度变化,由此可实现高的测量精度。
为了适应变换的光条件和有限的相机带宽,在此适宜的是,红外光源的照射功率在至少两个给定的功率值之间循环变化。通过这种方式可以可靠地避免过曝光或曝光不足,它们可能不利地影响距离确定。在此照明功率的变化也可以包括其间红外光源完全不发出光线的间隔。因为按照已知的模式实现红外光源的这种节拍式工作,通过这种方式可以可靠地将光源的光分量与在红外环境光中的由环境引起的波动分开,由此明显简化了图像识别。
对于相同的目的也有利的是:所述至少一个相机的曝光时间在至少两个给定值之间循环变化。另外,通过例如只在图像中以长曝光时间来分析暗区并且只在图像中以短曝光时间分析亮区,在图像中的强对比度下也可以得到全部信息。
此外因为已知车辆内舱的几何形状,为了识别输入物体的至少一个点的位置,可以确定出在该至少一个点与由所述至少一个相机检测的相对于机动车固定的具有已知位置的物体之间的位置关系。通过使(输入)物体与已知的相对于机动车固定的物体建立关系,得到了附加的几何信息,它们可以用于改善位置识别精度或者对已确定的位置进行确认。
本发明还涉及一种机动车,它具有电子仪器和姿势控制装置,该控制装置具有成像装置,该成像装置用于检测在机动车内舱中操纵物体的操纵姿势,其中按照本发明规定,所述姿势控制装置设计成,执行根据上述权利要求中任一项所述的方法。由根据本方法描述的优点得到相同的优点。
附图说明
下面借助于附图详细解释本发明和其实施例。附图示出:
图1由输入物体建立骨架模型的示意图;
图2利用相机确定物体x-y位置的示意图;
图3利用两个相机更好地确定物体x-y位置的示意图;
图4利用图像大小确定物体z位置的示意图;
图5照明强度与光源距离之间的关系示意图;
图6使光强匹配于变换的物距的示意图;
图7相机曝光时间适配于不同光条件的示意图。
具体实施方式
在操纵机动车部件、例如娱乐系统、移动电话、导航仪或电动车窗、座椅调整装置、空调系统等时,应尽可能地使机动车驾驶员的注意力不偏离车道。因此应当通过姿势识别实现控制,这是因为在此情况下驾驶员无需寻找操纵元件并且无需使其注意力偏离车道。
为此通过至少一个红外相机10对围绕驾驶员的机动车内舱进行拍摄,同时利用至少一个红外光源、优选以780-870nm的波长范围对该区域进行照射。由所拍摄的图像序列可以确定出手14或者其它输入物体的位置变化,所述位置变化又可以被分派给确定的控制命令。
为了尽可能地降低在图像识别方面的计算成本并实现对相机图像的可靠的实时处理,首先在标定阶段中建立手14的所谓的骨架模型16。为此,在给定的标定位置中对手进行一次性地拍摄,由此可以确定手14的基本尺寸。所得到的骨架模型16为手14设定了各关节18以及指尖20的位置并且还包括各关联点之间的不可改变的距离。
然后为了利用相机10所获取的图像进行姿势识别,可以通过使骨架模型16与图像中的手14的形状进行匹配来进行分析。在此,在通过关节的相应弯角范围限定了的、手14的可能的运动空间中搜寻一与手14的图像一致的姿势。
此时,由在相继的图像序列中手14姿势的变化以及其相对于相机10的位置可以识别出使用者的姿势并产生相应的控制命令。
除了通过关节18的弯角限定的手14姿势以外,必须确定手相对于相机10的位置。
在此确定手14在x-y平面中、即垂直于相机10视向的平面中的位置是特别简单的。相机10包括具有大量像素24的矩阵传感器22。因此可以简单地由手14的图像16在矩阵传感器22上的位置获得x-y位置。
在此,通过使用两个相机10可以提高精度。在此,使这两个相机10取向成,使各矩阵传感器22的像素24不是正好重合,而是相互错开,如图3所示。
但是,除了x-y位置以外,也必须确定手14在z向、即沿相机10视向的位置。对此存在许多可能方案。
首先,可以由通过标定已知的手14的大小和手14在相机10的矩阵传感器22上的图像大小来推断手14与相机10之间的距离。如图4所示,图像大小取决于手的大小及其与相机10的距离,由此例如小手在小距离下可形成与大手在较大间距上相同的图像角。以这个原理可以获得精度约±5cm的粗略的z位置。
如果手14相对于z轴运动,则达到更好的精度。由成像大小在相继的图像中的变化可以——主要基于同心扩张——以±1cm的精度计算出手距变化。这种精度对于姿势识别的许多问题已经足够了。
为了以更高的精度确定z位置,可以利用红外光源12的光的传播特性。照明强度、即单位面积的光流量与(该处)距红外光源12的距离的平方成反比。这当然也适用于由手14到相机的散射回的或反射的光。由此,在手14与红外光源12之间微小的距离变化便导致手14在相机图像中剧烈的光强变化,以此为基础可以以±0.5mm的精度确定距离变化。
但是在此存在如下问题:相机10的带宽是有限的。如果手14在强烈的红外光源光强下非常靠近相机10,则可能导致相机10过控制,由此不再能实现有效的图像评价。如图6所示,因此适宜的是,使红外光源12的光强在多个给定值之间循环变化。由此可以放弃那些相机过控制或者明显曝光不足的图像,由此总是有足够多的良好曝光的图像被用于分析和姿势识别。这一点也可以通过相机10曝光时间的循环变化来实现,如同在图7中所示的那样。在此在纵轴上标示时间,其中图表的每个条柱代表相机10曝光。在这里也相应地放弃曝光缺陷的图像或者图像部位。
除了适配于由手14反射的光的强烈变换的强度以外,上述手段还实现了:使由于机动车中可能强烈变化的入射的环境光引起的错误光源(的影响)最小化。
由于不仅检测手的姿势,而且检测手在所有空间方向上的位置,可以将所拍摄的每个图像的相应值存储起来。由这些参数变化的序列可以可靠地通过已知的图像分析方法识别出驾驶员姿势。
所有上述的分析方法可以通过使用多个冗余的相机10改善。这能够实现对每个相机10所检测的值进行可信性评价并且必要时放弃不可信的拍摄或分析结果。通过这种方式尽管在机动车中存在强烈的干扰影响,也可以可靠地识别姿势并将其用于控制。
Claims (10)
1.一种用于输入对于机动车部件的控制命令的方法,包括如下步骤:
a)利用成像装置在给定的检测区域中产生由使用者控制的输入物体(14)的图像序列,
b)基于图像序列来识别输入物体(14)的位置变化,
c)基于所识别的位置变化来产生对机动车部件的控制命令,
其特征在于,
成像装置包括至少一个红外感应式的相机(10),利用至少一个红外光源(12)对所述检测区域进行照射。
2.根据权利要求1所述的方法,其特征在于,通过使图像序列的至少两个图像匹配于输入物体(14)的骨架模型(16)并对该至少两个图像的骨架模型(16)参数进行比较来识别输入物体(14)的位置变化。
3.根据权利要求1或2所述的方法,其特征在于,为了针对特定的输入物体标定骨架模型(16),在输入物体(14)在检测区域中处于给定位置的情况下检测出一标定图像。
4.根据权利要求1至3中任一项所述的方法,其特征在于,利用所检测的输入物体(14)的至少一个点在相机(10)的探测矩阵(22)上的坐标来确定该点在一与所述至少一个相机(10)的视向相垂直的平面中的位置。
5.根据权利要求1至4中任一项所述的方法,其特征在于,利用输入物体(14)的至少两个点的像距以及其与该至少两个点的已知的物距的比例来确定输入物体(14)的至少一个点沿一与所述至少一个相机(10)的视向平行的轴线的位置。
6.根据权利要求1至5中任一项所述的方法,其特征在于,利用由输入物体(14)向相机(10)散射回的红外光源光的光强来确定输入物体(14)的至少一个点沿与所述至少一个相机(10)的视向平行的轴线的位置。
7.根据权利要求1至6中任一项所述的方法,其特征在于,红外光源(12)的照射功率在至少两个给定的功率值之间循环变化。
8.根据权利要求1至7中任一项所述的方法,其特征在于,所述至少一个相机(10)的曝光时间在至少两个给定值之间循环变化。
9.根据权利要求1至8中任一项所述的方法,其特征在于,为了识别输入物体(14)的至少一个点的位置,确定出在该至少一个点与由所述至少一个相机(10)检测的相对于机动车固定的具有已知位置的物体之间的位置关系。
10.一种机动车,具有电子仪器和姿势控制装置,该姿势控制装置具有成像装置(10),该成像装置用于检测在机动车内舱中的操纵物体(14)的操纵姿势,其特征在于,所述姿势控制装置设计成,执行根据上述权利要求中任一项所述的方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102012110460.3A DE102012110460A1 (de) | 2012-10-31 | 2012-10-31 | Verfahren zum Eingeben eines Steuerbefehls für eine Komponente eines Kraftwagens |
DE102012110460.3 | 2012-10-31 | ||
PCT/EP2013/003137 WO2014067626A1 (de) | 2012-10-31 | 2013-10-18 | Verfahren zum eingeben eines steuerbefehls für eine komponente eines kraftwagens |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104583904A true CN104583904A (zh) | 2015-04-29 |
CN104583904B CN104583904B (zh) | 2018-06-26 |
Family
ID=49551573
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201380042805.6A Active CN104583904B (zh) | 2012-10-31 | 2013-10-18 | 用于输入对机动车部件的控制命令的方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9612655B2 (zh) |
EP (1) | EP2915022B1 (zh) |
CN (1) | CN104583904B (zh) |
DE (1) | DE102012110460A1 (zh) |
WO (1) | WO2014067626A1 (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150097937A1 (en) * | 2013-10-08 | 2015-04-09 | Ali Kord | Single-camera motion capture system |
CN105095852A (zh) * | 2014-05-23 | 2015-11-25 | 上海通用汽车有限公司 | 一种车载手势指令识别系统 |
DE102014118387A1 (de) | 2014-12-12 | 2016-06-16 | Valeo Schalter Und Sensoren Gmbh | Erfassungsvorrichtung zum Erkennen einer Geste und/oder einer Blickrichtung eines Insassen eines Kraftfahrzeugs durch synchrone Ansteuerung von Leuchteinheiten, Bedienanordnung, Kraftfahrzeug sowie Verfahren |
DE102015207768B4 (de) * | 2015-04-28 | 2020-03-12 | Volkswagen Aktiengesellschaft | Verbesserte Gestenerkennung für ein Fahrzeug |
KR101744809B1 (ko) * | 2015-10-15 | 2017-06-08 | 현대자동차 주식회사 | 곡면 스크린 상의 터치 드래그 제스처를 인식하는 방법 및 장치 |
DE102017000452A1 (de) * | 2017-01-18 | 2018-07-19 | Novartis Ag | Kalibrierverfahren für ein kamerabasiertes Messgerät der humanen Augendiagnostik |
US10481736B2 (en) * | 2017-06-21 | 2019-11-19 | Samsung Electronics Company, Ltd. | Object detection and motion identification using electromagnetic radiation |
EP3735652A1 (en) * | 2018-01-03 | 2020-11-11 | Sony Semiconductor Solutions Corporation | Gesture recognition using a mobile device |
US11992969B2 (en) * | 2021-06-04 | 2024-05-28 | Oshkosh Corporation | Mixer autonomy mode |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060238490A1 (en) * | 2003-05-15 | 2006-10-26 | Qinetiq Limited | Non contact human-computer interface |
CN101813995A (zh) * | 2010-05-12 | 2010-08-25 | 福州锐达数码科技有限公司 | 一种红外感应式电子白板识别手势的方法 |
CN102385237A (zh) * | 2010-09-08 | 2012-03-21 | 微软公司 | 基于结构化光和立体视觉的深度相机 |
CN102439538A (zh) * | 2009-12-29 | 2012-05-02 | 摩托罗拉移动公司 | 具有感测组件的电子设备以及用于解释偏移手势的方法 |
Family Cites Families (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19708240C2 (de) | 1997-02-28 | 1999-10-14 | Siemens Ag | Anordnung und Verfahren zur Detektion eines Objekts in einem von Wellen im nichtsichtbaren Spektralbereich angestrahlten Bereich |
US6215898B1 (en) * | 1997-04-15 | 2001-04-10 | Interval Research Corporation | Data processing system and method |
DE10022321A1 (de) | 2000-05-09 | 2001-11-15 | Bayerische Motoren Werke Ag | Vorrichtung in Fahrzeugen zum Erkennen einer Handstellung |
DE20122526U1 (de) | 2000-09-07 | 2006-06-01 | Canesta, Inc., San Jose | Eine Vorrichtung zum Erfassen und Lokalisieren einer Interaktion eines Benutzerobjekts und virtuelle Übertragungsvorrichtung |
DE10133823A1 (de) | 2001-07-16 | 2003-02-27 | Gerd Reime | Optoelektronische Vorrichtung zur Positions- und Bewegungserfassung sowie zugehöriges Verfahren |
DE10242890A1 (de) | 2002-09-16 | 2004-03-25 | Technische Universität München | Kostenbewusste visuelle Interaktion über ein Distanzsensorenfeld |
KR100518824B1 (ko) * | 2003-03-17 | 2005-10-05 | 삼성전자주식회사 | 필기 모션 획 구분 인식 시스템 및 그 인식방법 |
US7372977B2 (en) * | 2003-05-29 | 2008-05-13 | Honda Motor Co., Ltd. | Visual tracking using depth data |
JP3903968B2 (ja) * | 2003-07-30 | 2007-04-11 | 日産自動車株式会社 | 非接触式情報入力装置 |
EP1676442A2 (en) * | 2003-10-24 | 2006-07-05 | Reactrix Systems, Inc. | Method and system for managing an interactive video display system |
JP4220408B2 (ja) * | 2004-02-13 | 2009-02-04 | 株式会社日立製作所 | テーブル型情報端末 |
US7593593B2 (en) * | 2004-06-16 | 2009-09-22 | Microsoft Corporation | Method and system for reducing effects of undesired signals in an infrared imaging system |
US8872899B2 (en) * | 2004-07-30 | 2014-10-28 | Extreme Reality Ltd. | Method circuit and system for human to machine interfacing by hand gestures |
CA2540404A1 (en) * | 2005-03-21 | 2006-09-21 | Magna International Inc. | Image-based vehicle occupant classification system |
JP5174684B2 (ja) * | 2006-03-14 | 2013-04-03 | プライムセンス リミテッド | スペックル・パターンを用いた三次元検出 |
CN103778635B (zh) * | 2006-05-11 | 2016-09-28 | 苹果公司 | 用于处理数据的方法和装置 |
US8180114B2 (en) | 2006-07-13 | 2012-05-15 | Northrop Grumman Systems Corporation | Gesture recognition interface system with vertical display |
BRPI0721562A2 (pt) * | 2007-04-20 | 2013-01-22 | Softkinetic S A | mÉtodo e sistema de reconhecimento de volume |
US8321219B2 (en) * | 2007-10-05 | 2012-11-27 | Sensory, Inc. | Systems and methods of performing speech recognition using gestures |
US20100195867A1 (en) * | 2009-01-30 | 2010-08-05 | Microsoft Corporation | Visual target tracking using model fitting and exemplar |
WO2010103482A2 (en) * | 2009-03-13 | 2010-09-16 | Primesense Ltd. | Enhanced 3d interfacing for remote devices |
EP2430614B1 (de) * | 2009-05-11 | 2013-09-18 | Universität zu Lübeck | Verfahren zur echtzeitfähigen, rechnergestützten analyse einer eine veränderliche pose enthaltenden bildsequenz |
US8743176B2 (en) * | 2009-05-20 | 2014-06-03 | Advanced Scientific Concepts, Inc. | 3-dimensional hybrid camera and production system |
US20100306716A1 (en) * | 2009-05-29 | 2010-12-02 | Microsoft Corporation | Extending standard gestures |
US8744121B2 (en) * | 2009-05-29 | 2014-06-03 | Microsoft Corporation | Device for identifying and tracking multiple humans over time |
US20100302138A1 (en) * | 2009-05-29 | 2010-12-02 | Microsoft Corporation | Methods and systems for defining or modifying a visual representation |
US8194149B2 (en) * | 2009-06-30 | 2012-06-05 | Cisco Technology, Inc. | Infrared-aided depth estimation |
US8565479B2 (en) * | 2009-08-13 | 2013-10-22 | Primesense Ltd. | Extraction of skeletons from 3D maps |
US8547327B2 (en) | 2009-10-07 | 2013-10-01 | Qualcomm Incorporated | Proximity object tracker |
US20110150271A1 (en) * | 2009-12-18 | 2011-06-23 | Microsoft Corporation | Motion detection using depth images |
US20110164032A1 (en) * | 2010-01-07 | 2011-07-07 | Prime Sense Ltd. | Three-Dimensional User Interface |
US8787663B2 (en) * | 2010-03-01 | 2014-07-22 | Primesense Ltd. | Tracking body parts by combined color image and depth processing |
US8523667B2 (en) * | 2010-03-29 | 2013-09-03 | Microsoft Corporation | Parental control settings based on body dimensions |
US8594425B2 (en) * | 2010-05-31 | 2013-11-26 | Primesense Ltd. | Analysis of three-dimensional scenes |
DE102010031801A1 (de) | 2010-07-20 | 2012-01-26 | STM Sensor Technologie München GmbH | Verfahren und Vorrichtung zur Abstandsmessung |
JP5658500B2 (ja) * | 2010-07-26 | 2015-01-28 | キヤノン株式会社 | 情報処理装置及びその制御方法 |
US8582867B2 (en) * | 2010-09-16 | 2013-11-12 | Primesense Ltd | Learning-based pose estimation from depth maps |
US9535537B2 (en) * | 2010-11-18 | 2017-01-03 | Microsoft Technology Licensing, Llc | Hover detection in an interactive display device |
US9104239B2 (en) | 2011-03-09 | 2015-08-11 | Lg Electronics Inc. | Display device and method for controlling gesture functions using different depth ranges |
JP6074170B2 (ja) * | 2011-06-23 | 2017-02-01 | インテル・コーポレーション | 近距離動作のトラッキングのシステムおよび方法 |
US8811664B2 (en) * | 2011-12-06 | 2014-08-19 | Xerox Corporation | Vehicle occupancy detection via single band infrared imaging |
US8811938B2 (en) * | 2011-12-16 | 2014-08-19 | Microsoft Corporation | Providing a user interface experience based on inferred vehicle state |
KR102086509B1 (ko) * | 2012-11-23 | 2020-03-09 | 엘지전자 주식회사 | 3차원 영상 획득 방법 및 장치 |
-
2012
- 2012-10-31 DE DE102012110460.3A patent/DE102012110460A1/de not_active Withdrawn
-
2013
- 2013-10-18 US US14/438,986 patent/US9612655B2/en active Active
- 2013-10-18 CN CN201380042805.6A patent/CN104583904B/zh active Active
- 2013-10-18 EP EP13786625.7A patent/EP2915022B1/de active Active
- 2013-10-18 WO PCT/EP2013/003137 patent/WO2014067626A1/de active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060238490A1 (en) * | 2003-05-15 | 2006-10-26 | Qinetiq Limited | Non contact human-computer interface |
CN102439538A (zh) * | 2009-12-29 | 2012-05-02 | 摩托罗拉移动公司 | 具有感测组件的电子设备以及用于解释偏移手势的方法 |
CN101813995A (zh) * | 2010-05-12 | 2010-08-25 | 福州锐达数码科技有限公司 | 一种红外感应式电子白板识别手势的方法 |
CN102385237A (zh) * | 2010-09-08 | 2012-03-21 | 微软公司 | 基于结构化光和立体视觉的深度相机 |
Also Published As
Publication number | Publication date |
---|---|
CN104583904B (zh) | 2018-06-26 |
EP2915022A1 (de) | 2015-09-09 |
WO2014067626A1 (de) | 2014-05-08 |
EP2915022B1 (de) | 2019-05-22 |
US9612655B2 (en) | 2017-04-04 |
DE102012110460A1 (de) | 2014-04-30 |
US20150301591A1 (en) | 2015-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104583904A (zh) | 用于输入对机动车部件的控制命令的方法 | |
US11204417B2 (en) | Selective attention mechanism for improved perception sensor performance in vehicular applications | |
CN108291968B (zh) | 具有目标视场的三维lidar系统 | |
CN107966155B (zh) | 对象定位方法、对象定位系统和电子设备 | |
US8023698B2 (en) | Information device operation apparatus | |
JP4485365B2 (ja) | 測距装置 | |
KR100794409B1 (ko) | 이동 로봇 및 그의 위치 및 자세의 산출방법 | |
CN112805585A (zh) | 改进的3d感测 | |
CN111989544A (zh) | 基于光学目标的室内车辆导航的系统和方法 | |
CN109073756A (zh) | 以变化的照射场密度进行基于lidar的3-d成像 | |
US20130258108A1 (en) | Road Surface Shape Recognition System and Autonomous Mobile Apparatus Using Same | |
CN107850706B (zh) | 用于使用多边形物体生成光图案的方法和系统 | |
CN101097599B (zh) | 生物体认证装置 | |
JP2020525936A (ja) | 少なくとも1つの物体の位置を決定するための検出器 | |
KR20090034824A (ko) | 애플리케이션 제어 방법, 위치 정보 제공 시스템 및 컴퓨터판독가능 매체 | |
CN106524922A (zh) | 测距校准方法、装置和电子设备 | |
CN111816020A (zh) | 将合成激光雷达数据迁移至真实域用于自动驾驶汽车训练 | |
DE112012005524T5 (de) | Verfahren und Vorrichtung zur Verwendung von Gesten zur Steuerung eines Lasertrackers | |
CN107076553B (zh) | 使用结构光的增强对象检测 | |
CN107783353A (zh) | 用于捕捉立体影像的装置及系统 | |
US20220137225A1 (en) | Three dimensional measurement device having a camera with a fisheye lens | |
CN112668603A (zh) | 产生识别传感器数据中的对象的识别模型用的训练数据的方法和设备、训练方法和操控方法 | |
CN109703555A (zh) | 用于探测道路交通中被遮蔽的对象的方法和设备 | |
JP2020153820A (ja) | 光学装置、検出装置及び電子機器 | |
CN111767843A (zh) | 三维位置预测方法、装置、设备以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |