JP2018503899A - 発光ユニットの同期作動によって自動車の乗員のジェスチャおよび/または視線方向を認識するための取込装置、操作装置、自動車、ならびに方法 - Google Patents

発光ユニットの同期作動によって自動車の乗員のジェスチャおよび/または視線方向を認識するための取込装置、操作装置、自動車、ならびに方法 Download PDF

Info

Publication number
JP2018503899A
JP2018503899A JP2017531284A JP2017531284A JP2018503899A JP 2018503899 A JP2018503899 A JP 2018503899A JP 2017531284 A JP2017531284 A JP 2017531284A JP 2017531284 A JP2017531284 A JP 2017531284A JP 2018503899 A JP2018503899 A JP 2018503899A
Authority
JP
Japan
Prior art keywords
sensor device
light
computer unit
capture
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017531284A
Other languages
English (en)
Inventor
トーマス、ヘービヒ
Original Assignee
ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー filed Critical ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー
Publication of JP2018503899A publication Critical patent/JP2018503899A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/10
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • B60K2360/146
    • B60K2360/1464
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus

Abstract

本発明は、自動車(1)の乗員(13)のジェスチャおよび/または視線方向を認識するための取込装置(3)に関し、第1のセンサデバイス(5)と、少なくとも1つの第2のセンサデバイス(6)と、を備え、センサデバイス(5、6)の各々が、光を放射する(11)ための発光ユニット(7)と、乗員(13)によって反射された光(12)を受光するための受光ユニット(8)と、発光ユニット(7)を作動させるため、ならびに反射光(12)に基づいてジェスチャおよび/または視線方向を認識するためのコンピュータユニット(9)と、をそれぞれ有し、センサデバイス(5、6)のコンピュータユニット(9)が、発光ユニット(7)を同期信号に応じて同期して作動させる。

Description

本発明は、自動車の乗員のジェスチャおよび/または視線方向を認識するための取込装置であって、第1のセンサデバイスを備え、かつ少なくとも1つの第2のセンサデバイスを備え、センサデバイスの各々が、光を放射するための発光ユニットと、乗員によって反射された光を受光するための受光ユニットと、発光ユニットを作動させるため、ならびに反射光に基づいてジェスチャおよび/または視線方向を認識するためのコンピュータユニットとをそれぞれ有する、取込装置に関する。本発明はさらに、操作装置および自動車に関する。最後に、本発明は、自動車の乗員のジェスチャおよび/または視線方向を認識するための方法に関する。
最新の自動車には多様な取込装置が設置され、それを用いて、例えば、車両乗員の操作動作が認識され得る。例として、そのような取込装置を使用した車両乗員のジェスチャの検出が知られている。この場合、取込装置は、例えば、センサデバイスをカメラの形で備え、それを用いて乗員の操作ジェスチャが取り込まれ得、対応するコンピュータユニットを用いて評価され得る。次いで、操作信号が取り込まれたジェスチャに応じて生成され得、前記操作信号を使用して自動車の機能デバイスを作動させることができる。
さらには、先行技術が、運転者の視線方向が取り込まれ得る取込装置を開示している。故に、例えば、運転者が視線を道路に向けているかどうかを認識することが可能である。さらに、運転者の視線方向に基づいて、例えば、運転者によって視線が向けられる自動車の機能デバイスを識別することが可能である。
車両乗員のジェスチャおよび/または視線方向を認識するためのそのような取込装置は、通常、アクティブな発光ユニットを有する光学センサを有する。特に、取込装置は、可視波長範囲内または赤外波長範囲内の光を放射する発光ユニットを有するカメラとして具現化される。カメラを使用して、例えば、乗員の部分、例えば手の画像を記録することが可能である。さらに、いわゆる3Dカメラが知られており、それを用いて距離の図形表現を提供することが可能である。これに関連して、例えば、発光ユニットで光を放射し、受光ユニットを用いて乗員によって反射された光を取り込むいわゆるTOF(TOF−飛行時間)カメラが知られている。また、光の飛行時間に基づいて、取込装置と乗員の少なくとも部分との間の距離を推測することが可能である。
このため、DE102008 048325 A1は、画像記録デバイスを備える作動入力ユニットについて記載する。さらに、作動入力ユニットは、画像記録デバイスによって記録された動きの画像において人の手の領域を検出する手領域検出デバイスを備える。さらに、検出された手領域の形および動きから手による作動を決定する手作動決定装置を提供する。最後に、決定された作動に基づいて選択されたメニューについて使用者に通知するメニュー選択表現デバイスが提供される。ここでは、多様な画像記録装置を備える作動入力機器も提供され得る。
さらに、DE102012110 460 A1は、自動車の構成部品に対する制御コマンドを入力するための方法について記載する。ここでは、使用者によって導かれた入力対象の画像シーケンスが、撮像デバイスを用いて既定の取込領域において生成される。さらには、入力対象の配向の変化が、画像シーケンスに基づいて識別され、制御コマンドが、認識された配向の変化に基づいて自動車の構成部品に対して出力される。ここでは、撮像デバイスは、少なくとも1つの赤外線感知カメラを備え得る。
さらに、WO2014/032822 A2は、車両機能を制御するための装置について記載する。この装置は、少なくとも1つのインターフェースを備え、使用者は静的および/または動的な使用者ジェスチャによってそのインターフェースと相互作用する。さらに、静的および動的な使用者ジェスチャを取り込む検出ユニットが提供される。さらに、使用者ジェスチャは制御ユニットを用いて取り込まれ、対応する車両機能が作動される。ここでは、検出ユニットは、特に、TOFカメラとして具現化される、1つ以上のカメラを備え得る。これらを使用して、好ましくは、頭部の一部の動き、特に目または鼻の動きを識別することが可能である。さらに、検出ユニットは、使用者の並行したジェスチャおよび/または複数の人のジェスチャを同時および/または連続した様式で認識するように構成される。
本発明の目的は、最初に記載された種類の取込装置が、自動車の乗員のジェスチャおよび/または視線方向を取り込むために、どのようにしてより確実に操作され得るかについての解決策を提供することである。
この目的は、それぞれの独立特許請求項による機能を有する取込装置、操作装置、自動車、および方法によって達成される。本発明の有利な実施形態は、従属請求項、明細書、および図面の主題である。
本発明に係る取込装置は、自動車の乗員のジェスチャおよび/または視線方向を認識する働きをする。取込装置は、第1のセンサデバイスと、少なくとも1つの第2のセンサデバイスと、を備える。センサデバイスの各々は、光を放射するための発光ユニットをそれぞれ有する。さらに、センサデバイスの各々は、乗員によって反射された光を受光するための受光ユニットを備える。さらには、センサデバイスの各々は、発光ユニットを作動させるため、ならびに反射光に基づいてジェスチャおよび/または視線方向を認識するためのコンピュータユニットを備える。ここでは、センサデバイスのコンピュータユニットは、発光ユニットを同期信号に応じて同期して作動させる。
取込装置は、自動車において使用され得る。取込装置を使用して、自動車の乗員のジェスチャおよび/または自動車の乗員の視線方向を取り込むことが可能である。取込装置は、例えば、自動車の内部に分散して配置され得る少なくとも2つのセンサデバイスを備える。センサデバイスは、光学センサまたはカメラを備えてもよい。センサデバイスの各々は発光ユニットを備える。この発光ユニットは、コンピュータユニットを用いて作動されてもよい。故に、発光時間、即ち、光がそれぞれの発光ユニットによって放射される持続時間を制御することが可能である。したがって、センサデバイスはアクティブな照光を有する。それぞれの発光ユニットによって放射された光は、乗員の一部、例えば、身体部位に衝突し、それによって反射されると、次いでそれぞれのセンサデバイスの受光ユニットに達する。反射光に応じて、次いでコンピュータユニットは、乗員のジェスチャおよび/または視線方向を識別することができる。
本発明は、アクティブな照光を有する少なくとも2つのセンサデバイスが使用される場合に、センサデバイス同士の影響が存在し得るという発見に基づく。例として、発光ユニットによって放射されたそれぞれの光の結果として、干渉が発生し得る。本ケースでは、それぞれのセンサデバイスのコンピュータユニットが、発光ユニットを同期信号に応じて同期して作動させることができる。したがって、例として、少なくとも2つのセンサデバイスの発光ユニットは、特定の順序で同時に作動され得る。センサデバイスのそれぞれの発光ユニットの同期操作の結果、センサデバイスの発光ユニットによってセンサデバイスの相互干渉を回避することが可能である。さらには、これにより、センサデバイスのそれぞれの検出領域の理想的な照光をさらに促進することができる。
好ましくは、第1のセンサデバイスのコンピュータユニットは、同期信号を提供し、その同期信号を第2のセンサデバイスのコンピュータユニットに送信する。故に、第1のセンサデバイスのコンピュータユニットは、マスタとして機能し、第2のセンサデバイスのコンピュータユニットは、スレーブとして機能する。第1のセンサデバイスのコンピュータユニットは、対応する同期信号を提供する。第1のセンサデバイスのコンピュータユニットのこの同期信号に応じて、第1のセンサデバイスの発光ユニットを作動させることが可能である。さらに、この同期信号は、第2のセンサデバイスの発光ユニットがいつ作動されるべきかに関する情報を含み得る。次いでこの同期信号は、第1のセンサデバイスのコンピュータユニットから送信される。第1のセンサデバイスのコンピュータユニットから第2のセンサデバイスのコンピュータユニットへの送信中に生じる時間遅延もまた、同期信号において考慮され得る。故に、同期信号は、センサデバイス自体のうちの1つのコンピュータユニットを使用して提供され得る。
さらに、第1のセンサデバイスおよび少なくとも1つの第2のセンサデバイスのコンピュータユニットは、同期信号を送信するためのデータ線を介して連結されると好適である。データ線によって、例えば、2つのセンサデバイスのコンピュータユニット間に直接的なデータリンクを提供することが可能である。故に、センサデバイス間の同期信号の確実な送信を確保することが可能である。さらに、同期信号の送信中の時間遅延は、直接的なリンクによって回避され得るか、または低減され得る。
好ましくは、データ線は、自動車のデータバス、特に、CANバスである。故に、同期信号の送信は、自動車の既存のデータバスによってもたらされ得る。同期信号、それに応じてセンサデバイスの各々のそれぞれの発光ユニットが作動される、の送信によって、センサデバイス同士の妨害を確実に回避することが可能である。ここで考慮されるのは、データバスを介して送信されるデータフレームを処理するための持続時間が、発光ユニットが作動されている間の発光持続時間よりも著しく長いということである。故に、取込装置の確実な操作が促進され得る。
さらなる実施形態において、第1のセンサデバイスおよび/または少なくとも1つの第2のセンサデバイスは、放射光および反射光の飛行時間に基づいて、乗員の少なくとも一部までの距離を決定する。異なる表現をすると、第1のセンサデバイスおよび/または第2のセンサデバイスは、いわゆる3DカメラまたはTOFカメラとして具現化される。故に、乗員の一部、例えば、乗員の手を空間的に取り込むことが可能である。このようにして、車両乗員の対応するジェスチャを認識し、コンピュータユニットを用いて、これらを評価することが可能である。その過程で、例えばコンピュータユニットに保存された、既定のジェスチャとの比較が存在し得る。取り込まれたジェスチャに応じて、次いで、対応する操作信号を自動車の機能デバイスに送信することが可能である。
さらなる実施形態において、第1のセンサデバイスおよび/または少なくとも1つの第2のセンサデバイスは、反射光に基づいて、乗員の少なくとも一部の画像を取り込むように構成される。異なる表現をすると、第1のセンサデバイスおよび/または少なくとも1つの第2のセンサデバイスは、カメラとして具現化され、それを用いて乗員の身体部位の画像を取り込むことが可能である。特に、第1のセンサデバイスおよび/または第2のセンサデバイスは、取り込まれた画像に基づいて乗員の視線方向を認識するように設計される。故に、例えば、運転者または乗員が視線を道路に向けているかどうかを認識することが可能である。さらには、例えば、運転者が目を開けているか、または閉じているかを識別することがさらに可能である。自動車のどの機能デバイスが、視線方向に基づいて乗員によって操作されることが意図されるかの識別も提供される。対応する操作信号は、取り込まれた視線方向に基づいて出力され得る。
さらには、第1のセンサデバイスのコンピュータユニットおよび少なくとも1つの第2のセンサデバイスのコンピュータユニットが、第1のセンサデバイスおよび少なくとも1つの第2のセンサデバイスでジェスチャを取り込むときに、発光ユニットを交互に作動させると好適である。異なる表現をすると、2つのセンサデバイスは、ジェスチャを取り込む目的のために交互に操作される。このようにして、ジェスチャを取り込むときのセンサデバイスの相互影響を防ぐことが可能である。
さらなる構成において、第1のセンサデバイスのコンピュータユニットおよび少なくとも1つの第2のセンサデバイスのコンピュータユニットは、第1のセンサデバイスおよび少なくとも1つの第2のセンサデバイスを用いて視線方向を取り込むときに、発光ユニットを同時に作動させる。乗員の視線方向が識別される必要がある場合、両方の発光ユニットが同時に有効であるように発光ユニットの同期が実行され得る。このようにして、それぞれのセンサデバイスの検出領域の理想的な照光を促進することが可能である。故に、乗員の視線方向を確実に取り込むことが可能である。
本発明に係る自動車用の操作装置は、本発明に係る取込装置を備える。さらに、操作装置は、取込装置によって認識されたジェスチャおよび/または視線方向に応じて作動可能である機能デバイスを備える。乗員のジェスチャおよび/または視線方向が取込装置で認識される場合、適切な操作信号を出力し、その操作信号を機能デバイスに送信することが可能である。次いで、機能デバイスはこの操作信号に応じて作動され得る。例として、自動車の機能デバイスは、インフォテインメントシステム、ナビゲーションシステムなどであり得る。ウィンドウリフト、外部ミラーを調整するためのアクチュエータなどである機能デバイスも提供され得る。操作装置はまた、例えば、操縦および/または制動システムにおいて介入を行う自動車の運転者支援システムの部分であり得る。これは特に、運転者の視線が道路から逸れて危険の恐れがあることを取込装置が識別する場合に有利である。
本発明に係る自動車は、本発明に係る操作装置を備える。特に、自動車は乗用自動車として具現化される。
本発明に係る方法は、自動車の乗員のジェスチャおよび/または視線方向を認識する働きをする。ここでは、第1のセンサデバイスと、少なくとも1つの第2のセンサデバイスと、が提供される。ここでは、センサデバイス1つ1つにおいて、光を放射するための発光ユニットがコンピュータユニットを用いて作動され、乗員によって反射された光が受光ユニットを用いて受光され、ジェスチャおよび/または視線方向が、反射光に基づいて、コンピュータユニットを用いて認識される。発光ユニットは、同期信号に応じて、センサデバイスのコンピュータユニットを用いて同期して作動する。
本明細書に係る取込装置に関して提示される好ましい実施形態およびそれらの利点は、本発明に係る操作装置、本発明に係る自動車、および本発明に係る方法について準用する。
さらなる機能および発明は、特許請求の範囲、図面、および図面の説明から明らかになる。上述された機能および機能の組み合わせ、ならびに以下の図面の説明で述べられるおよび/または図面でのみ示される機能および機能の組み合わせは、それぞれに明記された組み合わせだけでなく、本発明の範囲から逸脱することなく、他の組み合わせまたはそれら単独でも使用され得る。故に、図面においては明確に示されることも説明されることもないが、別個の機能の組み合わせによって説明された実施形態から明らかになり、かつ生産可能である実施形態もまた、したがって本発明に含まれ、本発明により開示されると見なされるものとする。したがって元々記載された独立請求項の全ての機能を有しない、機能の組み合わせに関する実施形態もまた、開示されると見なされるものとする。
本発明は、好ましい例示的な実施形態に基づいて、添付の図面を参照して、より詳細に説明される。
本発明の一実施形態に係る自動車の概略図を示す。 乗員のジェスチャおよび/または視線方向が取り込まれる、自動車の取込装置を示す。 第1のセンサデバイスおよび第2のセンサデバイスを備える、図2に係る取込装置を示す。
図中、等価または機能的に等価の要素は、同じ符号で表される。
図1は、本発明の一実施形態に係る自動車1の概略図を示す。本ケースでは、自動車1は乗用自動車として具現化される。自動車1は操作装置2を備える。次いで、操作装置2が取込装置3を備える。取込装置3を使用すると、以下により詳しく説明されるように、自動車1の乗員13のジェスチャおよび/または視線方向を取り込むことが可能である。取り込まれたジェスチャおよび/または取り込まれた視線方向に応じて、対応する操作信号を取込装置3から自動車1の機能デバイス4に送信することが可能である。
例として、自動車1の機能デバイス4は、ナビゲーションシステム、インフォテインメントシステム、空調ユニットなどであり得る。機能デバイス4はまた、窓を開閉するための適切なアクチュエータ、外部ミラーを調整するためのアクチュエータ、スライディングルーフまたはソフトトップを開閉するためのアクチュエータ、座席を調整するためのアクチュエータなどであり得る。機能デバイスはまた、自動車1の運転者支援システムの部分であり得る。
図2は、取込装置3の実施形態の概略図を示す。この例示的な実施形態において、取込装置3は、第1のセンサデバイス5および第2のセンサデバイス6を備える。また、2つのセンサデバイス5、6よりも多いセンサデバイスを備える取込装置3が提供され得る。センサデバイス5、6は、自動車1の内部に分散して配置され得る。センサデバイス5、6の各々が発光ユニット7を備え、それを用いて光を放射することが可能である。例として、発光ユニット7は、可視波長範囲内の光または赤外波長範囲内の光を放射するように具現化され得る。放射光11は、乗員13の一部によって反射される。反射光12は、それぞれのセンサデバイス5、6の受光ユニット8に達する。
センサデバイス5、6のうちの1つまたは両方は、反射光12に応じて、乗員13の少なくとも一部の画像を取り込み得るカメラとして具現化され得る。センサデバイス5、6のうちの1つまたは両方は、いわゆる3DカメラまたはTOFカメラとして具現化され得る。これらを使用すると、反射光12に基づいて乗員13の一部の空間的配向を認識することが可能である。故に、例えば、乗員13の手15によって行われるジェスチャを認識することが可能である。さらには、例えば、乗員13の頭部14の配向、傾きおよび/または回転を識別することが可能である。センサデバイス5、6はまた、例えば、乗員13の目の位置に基づいて、乗員13の視線方向を認識するように構成され得る。この場合、これは、矢印16により例示的に描写される。
センサデバイス5、6の各々がコンピュータユニット9を備える。例として、それは、適切なプロセッサ、集積回路、またはいわゆるFPGA(フィールドプログラマブルゲートアレイ)によって形成され得る。それぞれのコンピュータユニット9は、センサデバイス5、6の発光ユニット7を作動させる働きをする。それぞれの発光ユニット7が作動されると、それらは光11を放射する。さらに、コンピュータユニット9は、反射光12に基づいて乗員13のジェスチャまたは視線方向を認識するように設計される。この目的のため、例えば、どのジェスチャおよび/または視線方向が識別されるかに基づいて、適切な画像処理を行うことが可能である。
センサデバイス5、6は、データ送信用のデータ線10によって連結される。特に、それぞれのセンサデバイス5、6のコンピュータユニット9が、データ線10によって連結される。例として、データ線10は、自動車1のデータバス、例えば、CANバスによって形成され得る。データバスによって、対応する同期信号を送信することが可能であり、それぞれのコンピュータユニット9が、その同期信号に応じて、発光ユニット7を同期して作動させる。
図3は、さらなる実施形態の取込装置3を示す。ここでは、センサデバイス5、6の各々が対応するセンサボード17を有し、その上にコンピュータユニット9が配置されるということを認識することができる。さらに、対応するプロセッサ18が提供される。さらには、センサデバイス5、6の各々は、通信インターフェース19を有し、前記通信インターフェースはデータ線10で連結されている。さらには、データ線20によって通信インターフェースとコンピュータユニット9との間に直接的なリンクが提供される。取込装置3が起動すると、データ線、特にCANバスを介して、対応するデータフレームを送信することが可能である。ここでは、例えば、第1のセンサデバイスのコンピュータユニット9をマスタと規定することが可能である。第2のセンサデバイス6のコンピュータユニット9はスレーブと規定され得る。
次いで、対応する同期信号が、第1のセンサデバイス5のコンピュータユニット9によって提供され得る。この同期信号は、データ線10を介して送信される任意のデータフレームによって提供され得る。送信された同期信号に応じて、コンピュータユニット9は、次いで、それぞれの発光ユニット7を作動させることができる。例として、発光ユニット7は、同時に、または時間オフセットで作動され得る。発光ユニット7の同期操作の結果として、特に、センサデバイス5、6同士の影響を回避することが可能である。

Claims (11)

  1. 自動車(1)の乗員(13)のジェスチャおよび/または視線方向を認識するための取込装置(3)であって、第1のセンサデバイス(5)と、少なくとも1つの第2のセンサデバイス(6)と、を備え、前記センサデバイス(5、6)の各々が、光を放射する(11)ための発光ユニット(7)と、前記乗員(13)によって反射された前記光(12)を受光するための受光ユニット(8)と、前記発光ユニット(7)を作動させるため、ならびに前記反射光(12)に基づいて前記ジェスチャおよび/または前記視線方向を認識するためのコンピュータユニット(9)と、をそれぞれ有する取込装置(3)において、
    前記センサデバイス(5、6)の前記コンピュータユニット(9)が、前記発光ユニット(7)を同期信号に応じて同期して作動させることを特徴とする、取込装置(3)。
  2. 前記第1のセンサデバイス(5)の前記コンピュータユニット(9)が、前記同期信号を提供し、かつ前記同期信号を前記第2のセンサデバイス(6)の前記コンピュータユニット(9)に送信することを特徴とする、請求項1に記載の取込装置(3)。
  3. 前記第1のセンサデバイス(5)および前記少なくとも1つの第2のセンサデバイス(6)の前記コンピュータユニット(9)が、前記同期信号を送信するためのデータ線(10)を介して連結されることを特徴とする、請求項1または2に記載の取込装置(3)。
  4. 前記データ線(10)が、前記自動車(1)のデータバス、特に、CANバスであることを特徴とする、請求項3に記載の取込装置(3)。
  5. 前記第1のセンサデバイス(5)および/または前記少なくとも1つの第2のセンサデバイス(6)が、前記放射光(11)および前記反射光(12)の飛行時間に基づいて、前記乗員(13)の少なくとも一部までの距離を決定することを特徴とする、請求項1から4のいずれかに記載の取込装置(3)。
  6. 前記第1のセンサデバイス(5)および/または前記少なくとも1つの第2のセンサデバイス(6)が、前記反射光(12)に基づいて、前記乗員(13)の少なくとも一部の画像を取り込むように構成されることを特徴とする、請求項1から5のいずれかに記載の取込装置(3)。
  7. 前記第1のセンサデバイス(5)および前記少なくとも1つの第2のセンサデバイス(6)を用いて前記ジェスチャを取り込むときに、前記第1のセンサデバイス(5)の前記コンピュータユニット(9)および前記少なくとも1つの第2のセンサデバイス(6)の前記コンピュータユニット(9)が、前記発光ユニット(7)を交互に作動させることを特徴とする、請求項1から6のいずれかに記載の取込装置(3)。
  8. 前記第1のセンサデバイス(5)および前記少なくとも1つの第2のセンサデバイス(6)で前記視線方向を取り込むときに、前記第1のセンサデバイス(5)の前記コンピュータユニット(9)および前記少なくとも1つの第2のセンサデバイス(6)の前記コンピュータユニット(9)が、発光ユニット(7)を同時に作動させることを特徴とする、請求項1から7のいずれかに記載の取込装置(3)。
  9. 請求項1から8のいずれかに記載の取込装置(3)を備え、かつ前記取込装置(3)によって認識される前記ジェスチャおよび/または視線方向に応じて作動可能である機能デバイス(4)を備える、自動車(1)用の操作装置(2)。
  10. 請求項9に記載の操作装置(2)を備える自動車(1)。
  11. 自動車(1)の乗員(13)のジェスチャおよび/または視線方向を認識するための方法であって、第1のセンサデバイス(5)および少なくとも1つの第2のセンサデバイス(6)が提供され、前記センサデバイス(5、6)の各々において、光を放射する(11)ための発光ユニット(7)がコンピュータユニット(9)を用いて作動され、前記乗員(13)によって反射された前記光(12)が受光ユニット(8)を用いて受光され、前記ジェスチャおよび/または前記視線方向が、前記反射光(12)に基づいて、前記コンピュータユニット(9)を用いて認識される方法において、
    前記発光ユニット(7)が、同期信号に応じて、前記センサデバイス(5、6)の前記コンピュータユニット(9)を用いて同期して作動することを特徴とする、方法。
JP2017531284A 2014-12-12 2015-12-04 発光ユニットの同期作動によって自動車の乗員のジェスチャおよび/または視線方向を認識するための取込装置、操作装置、自動車、ならびに方法 Pending JP2018503899A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102014118387.8 2014-12-11
DE102014118387.8A DE102014118387A1 (de) 2014-12-12 2014-12-12 Erfassungsvorrichtung zum Erkennen einer Geste und/oder einer Blickrichtung eines Insassen eines Kraftfahrzeugs durch synchrone Ansteuerung von Leuchteinheiten, Bedienanordnung, Kraftfahrzeug sowie Verfahren
PCT/EP2015/078623 WO2016091736A1 (de) 2014-12-11 2015-12-04 Erfassungsvorrichtung zum erkennen einer geste und/oder einer blickrichtung eines insassen eines kraftfahrzeugs durch synchrone ansteuerung von leuchteinheiten

Publications (1)

Publication Number Publication Date
JP2018503899A true JP2018503899A (ja) 2018-02-08

Family

ID=54834808

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017531284A Pending JP2018503899A (ja) 2014-12-12 2015-12-04 発光ユニットの同期作動によって自動車の乗員のジェスチャおよび/または視線方向を認識するための取込装置、操作装置、自動車、ならびに方法

Country Status (6)

Country Link
US (1) US20170323165A1 (ja)
EP (1) EP3230828A1 (ja)
JP (1) JP2018503899A (ja)
CN (1) CN107209558A (ja)
DE (1) DE102014118387A1 (ja)
WO (1) WO2016091736A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020059325A (ja) * 2018-10-05 2020-04-16 現代自動車株式会社Hyundai Motor Company 注視検出装置及びその輻輳制御方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6333921B2 (ja) * 2016-11-09 2018-05-30 ファナック株式会社 撮像装置及び撮像方法
JP6894880B2 (ja) * 2018-11-07 2021-06-30 矢崎総業株式会社 監視システム
DE102019204481A1 (de) * 2019-03-29 2020-10-01 Deere & Company System zur Erkennung einer Bedienabsicht an einer von Hand betätigbaren Bedieneinheit
DE102021113811A1 (de) 2021-05-28 2022-12-01 Bayerische Motoren Werke Aktiengesellschaft System und Verfahren zur Innenraumüberwachung eines Fahrzeugs

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005138755A (ja) * 2003-11-07 2005-06-02 Denso Corp 虚像表示装置およびプログラム
JP2007233476A (ja) * 2006-02-27 2007-09-13 Toyota Motor Corp 車両用警報装置
JP2008294662A (ja) * 2007-05-23 2008-12-04 Toyota Motor Corp 通信装置、通信システム
WO2010073312A1 (ja) * 2008-12-22 2010-07-01 トヨタ自動車株式会社 車両用電子制御システム、車両用電子制御ユニット、車両用制御同期方法
WO2012157793A1 (en) * 2011-05-17 2012-11-22 Lg Electronics Inc. Gesture recognition method and apparatus
US20130050425A1 (en) * 2011-08-24 2013-02-28 Soungmin Im Gesture-based user interface method and apparatus
JP2013517575A (ja) * 2010-01-14 2013-05-16 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド 輸送手段の安全な運転を補助する装置及び方法
WO2013176265A1 (ja) * 2012-05-25 2013-11-28 国立大学法人静岡大学 瞳孔検出方法、角膜反射検出方法、顔姿勢検出方法及び瞳孔追尾方法
JP2014518422A (ja) * 2011-06-30 2014-07-28 ジョンソン・コントロールズ・ゲー・エム・ベー・ハー オブジェクト及び/又は人物及びそれによって行われ及び/又は実行されるジェスチャ及び/又は操作手順を非接触式に検出する装置及び方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5228439B2 (ja) 2007-10-22 2013-07-03 三菱電機株式会社 操作入力装置
US20120312956A1 (en) * 2011-06-11 2012-12-13 Tom Chang Light sensor system for object detection and gesture recognition, and object detection method
WO2013036621A1 (en) * 2011-09-09 2013-03-14 Thales Avionics, Inc. Controlling vehicle entertainment systems responsive to sensed passenger gestures
JP5743221B2 (ja) * 2012-06-29 2015-07-01 カシオ計算機株式会社 無線同期システム、無線装置、センサ装置、無線同期方法、及びプログラム
WO2014032822A2 (de) 2012-08-29 2014-03-06 Johnson Controls Gmbh Vorrichtung und verfahren zur steuerung von fahrzeugfunktionen durch detektion der interaktionen eines benutzers
DE102012110460A1 (de) 2012-10-31 2014-04-30 Audi Ag Verfahren zum Eingeben eines Steuerbefehls für eine Komponente eines Kraftwagens

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005138755A (ja) * 2003-11-07 2005-06-02 Denso Corp 虚像表示装置およびプログラム
JP2007233476A (ja) * 2006-02-27 2007-09-13 Toyota Motor Corp 車両用警報装置
JP2008294662A (ja) * 2007-05-23 2008-12-04 Toyota Motor Corp 通信装置、通信システム
WO2010073312A1 (ja) * 2008-12-22 2010-07-01 トヨタ自動車株式会社 車両用電子制御システム、車両用電子制御ユニット、車両用制御同期方法
JP2013517575A (ja) * 2010-01-14 2013-05-16 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド 輸送手段の安全な運転を補助する装置及び方法
WO2012157793A1 (en) * 2011-05-17 2012-11-22 Lg Electronics Inc. Gesture recognition method and apparatus
JP2014518422A (ja) * 2011-06-30 2014-07-28 ジョンソン・コントロールズ・ゲー・エム・ベー・ハー オブジェクト及び/又は人物及びそれによって行われ及び/又は実行されるジェスチャ及び/又は操作手順を非接触式に検出する装置及び方法
US20130050425A1 (en) * 2011-08-24 2013-02-28 Soungmin Im Gesture-based user interface method and apparatus
WO2013176265A1 (ja) * 2012-05-25 2013-11-28 国立大学法人静岡大学 瞳孔検出方法、角膜反射検出方法、顔姿勢検出方法及び瞳孔追尾方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020059325A (ja) * 2018-10-05 2020-04-16 現代自動車株式会社Hyundai Motor Company 注視検出装置及びその輻輳制御方法
JP7219041B2 (ja) 2018-10-05 2023-02-07 現代自動車株式会社 注視検出装置及びその輻輳制御方法

Also Published As

Publication number Publication date
WO2016091736A8 (de) 2017-12-14
EP3230828A1 (de) 2017-10-18
DE102014118387A1 (de) 2016-06-16
WO2016091736A1 (de) 2016-06-16
US20170323165A1 (en) 2017-11-09
CN107209558A (zh) 2017-09-26

Similar Documents

Publication Publication Date Title
US10937419B2 (en) Control device and method with voice and/or gestural recognition for the interior lighting of a vehicle
JP2018503899A (ja) 発光ユニットの同期作動によって自動車の乗員のジェスチャおよび/または視線方向を認識するための取込装置、操作装置、自動車、ならびに方法
US7400233B2 (en) Travel safety apparatus for vehicle
US10464478B2 (en) Device for controlling the interior lighting of a motor vehicle
CN109311474A (zh) 行人保护中的自主制动故障管理
US20140223384A1 (en) Systems, methods, and apparatus for controlling gesture initiation and termination
US20140195096A1 (en) Apparatus and method for contactlessly detecting objects and/or persons and gestures and/or operating procedures made and/or carried out thereby
US9919678B2 (en) Assembly module for a motor vehicle with an optical sensor system for monitoring a detection region and an actuation region
WO2017090319A1 (ja) 視線方向検出装置、及び視線方向検出システム
US9981598B2 (en) Alighting notification device
KR20160036242A (ko) 제스처 인식 장치, 그를 가지는 차량 및 그 제어 방법
JP2010143411A (ja) ヘッドアップディスプレイ装置
ES2902698T3 (es) Determinación de la posición de un objeto ajeno a un vehículo en un vehículo
WO2021175749A1 (en) Method and system for triggering picture-taking of the interior of a vehicle based on a detection of a free-space gesture
CN110070058A (zh) 一种车载手势识别装置及系统
JP2020057139A (ja) 機器制御装置
JP7138175B2 (ja) バーチャルコンテンツを表示するためのヘッドマウント式電子ディスプレイ装置の操作方法およびバーチャルコンテンツを表示するためのディスプレイシステム
KR20210120398A (ko) 차량에 탑재된 CMS 사이드 디스플레이(Camera Monitoring System Side Display)를 이용하여 영상을 디스플레이하는 전자 장치 및 그 동작 방법
US20210103748A1 (en) Vehicle occupant monitoring apparatus and vehicle occupant protecting system
JP2021059241A5 (ja)
US10599226B2 (en) Operating system and method for operating an operating system for a motor vehicle
JP6381585B2 (ja) 自車位置推定装置
US20210331586A1 (en) Vehicle control device and vehicle control method
JP2017178025A (ja) 運転支援装置
US10990834B2 (en) Method and apparatus for object detection in camera blind zones

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180803

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181026