JP2018150043A - 自動車における情報伝送のためのシステム - Google Patents

自動車における情報伝送のためのシステム Download PDF

Info

Publication number
JP2018150043A
JP2018150043A JP2018089978A JP2018089978A JP2018150043A JP 2018150043 A JP2018150043 A JP 2018150043A JP 2018089978 A JP2018089978 A JP 2018089978A JP 2018089978 A JP2018089978 A JP 2018089978A JP 2018150043 A JP2018150043 A JP 2018150043A
Authority
JP
Japan
Prior art keywords
gesture
handle
gesture recognition
display
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018089978A
Other languages
English (en)
Other versions
JP2018150043A5 (ja
Inventor
ヴァン ラック アレクサンダー
Van Laack Alexander
ヴァン ラック アレクサンダー
ステランドル バートランド
Stelandle Bertrand
ステランドル バートランド
プロイスラー シュテファン
Preussler Stephan
プロイスラー シュテファン
コッホ マティアス
Matthias Koch
コッホ マティアス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Visteon Global Technologies Inc
Original Assignee
Visteon Global Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Visteon Global Technologies Inc filed Critical Visteon Global Technologies Inc
Publication of JP2018150043A publication Critical patent/JP2018150043A/ja
Publication of JP2018150043A5 publication Critical patent/JP2018150043A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • B60K35/10
    • B60K35/23
    • B60K35/29
    • B60K35/60
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • B60K2360/146
    • B60K2360/182
    • B60K2360/334
    • B60K2360/782
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0181Adaptation to the pilot/driver
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Abstract

【課題】自動車における情報伝送のためのシステムを提供する。
【解決手段】自動車のパッセンジャーコンパートメント内に、ハンドル2、カバー4を備えたダッシュボード3、ダッシュボードディスプレイを備えたダッシュボードディスプレイ領域5、及びフロントガラスの領域に配置された表示デバイス8が提供される。システム1は、ジェスチャ認識に基づいて設計され、少なくとも一つのジェスチャ認識センサを備えたジェスチャ認識ユニット6を備える。ジェスチャ検出器センサは、知覚可能ジェスチャの領域7内の動作を検出するように構成される。少なくとも一つのジェスチャ認識センサは、車両ドライバの視認方向において、ハンドル2の後方の、ダッシュボードディスプレイ領域内5においてカバー4の下に一体化して配置される。ダッシュボードディスプレイ及び表示デバイス8は相互作用メニューを示すように設計される。
【選択図】図1

Description

本発明は、ダッシュボードディスプレイ及びフロントガラスの領域に配置された表示デバイスを用いた、車両ドライバによる相互作用操作を手段とした自動車における情報伝送のためのシステムに関する。システムは、ジェスチャ認識に基づいて設計され、少なくとも一つのジェスチャ認識センサを備えたジェスチャ認識ユニットを備える。ジェスチャ認識センサは、知覚可能ジェスチャの領域内の動作を検出するように構成される。システムを使用して、空調装置、例えばオーディオシステムといったインフォテインメントシステムなどの自動車の機能が制御される。
さらに、本発明は、選択された相互作用領域をディスプレイに強調表示するためのシステムの操作方法に加えて、ジェスチャベースの情報を伝送及び機能を実行するためのシステムの操作方法にも関する。
自動車の機能を制御するために、タッチセンサ式ディスプレイユニット、またはタッチセンサ式入出力デバイスを備えたディスプレイユニットなどのさまざまな従来の入力システム及び出力システムが使用されている。さらに、ジェスチャ認識システムが、情報を自動車の処理システムに入力するために使用されている。
先行技術から公知のジェスチャ認識システムは、パッセンジャーコンパートメントの中央位置、特に、ダッシュボード下部のセンターコンソール、それ故に、ハンドルから少し離れて配置される。ハンドルから少し離れてのシステムの配置では、情報を入力するためにハンドルから手を離し、注視位置が車道からそれるという結果を招き、車両ドライバにとって大きな注意散漫が引き起こされる。それによって、車両ドライバ及び自動車の乗員の安全に、悪影響が及ぼされる。
ジェスチャ認識システムに加えて、ハンドル内部及び/またはハンドルの表面にタッチセンサが配置された入力システムも公知となっている。情報は、種々のセンサとの種々のコンタクトの結果としてシステムに伝送される。しかしながら、ハンドルの表面におけるセンサの配置には、ごく限られたスペースのみしか利用できない。相互作用デバイスとしてのセンサの設計は、さらに、ハンドルに不利益な変更をもたらす。
操作要素としてハンドルの表面に形成された多数のスイッチ及び操作ノブに加えて、入力システムを操作するための、相互作用デバイスとしての、内部に配置された追加の電子的要素も、追加のケーブルの敷設と共に、ハンドルに多大な複雑性をもたらす。
しかしながら、入力システムが備える表示デバイスは、車両の速度などの値または警告メッセージのみを表示するために使用される。車両ドライバと表示デバイスとの間の直接的な相互作用は、提供されない。相互作用は、ハンドルの表面に配置されたセンサを通じてのみ行われる。
US2013/0076615A1は、自動車のオペレーティングシステムに車両ドライバ情報を入力するための装置、及び装置の操作方法を開示している。ここでは、車両ドライバは、両手でハンドルを保持したまま、車両ドライバの手の指の動作を通じて情報を伝送することができる。装置は、指の動作、それ故に、ジェスチャを検出するためのセンサ、動作を評価するためのプロセッサに加えて、車両ドライバの視野内に配置された表示デバイスも備えている。車両ドライバの指の動作によって伝送される、センサによって検出され、プロセッサによって評価された情報は、表示デバイスに表示することができる。表示デバイスは、いわゆる「ヘッドアップディスプレイ」として設計され、自動車のフロントガラスの領域に配置される。ヘッドアップディスプレイは、HUDとも省略され、情報が視野内に提示される故に、ユーザが、表示された情報を視認するために、頭部の位置及び元々の向きにおける視認方向を維持できるディスプレイシステムを指すと理解される。通常、HUDは、イメージを生成するイメージングユニット、光学モジュール、及び投影面を備える。光学モジュールは、反射性の光透過性パネルとして設計された投影面にイメージを導く。車両ドライバは、イメージングユニットにおける反射された情報、及びパネル後方の実環境を同時に見る。
US2013/0076615A1に開示されている装置を用いて情報伝送を開始及び終了するためには、スイッチなどのスイッチ素子または操作ノブを操作する必要がある。
センサは、ダッシュボードの表面に配置されており、それ故に、入射する太陽光線の方向次第では、直達太陽放射にさらされる。これにより、センサによる指ジェスチャの認識についてエラーが引き起こされる場合がある。装置は、片手のみの指の動作、特に、フロントガラスの領域に配置された表示デバイスを指し示している指である、右手の指の動作を記録するように構成される。情報の入力、記録及び出力は、フロントガラスの領域に配置された表示デバイスを通じてのみ行われる。
WO2013/036289A2も、自動車のオペレーティングシステムに車両ドライバ情報を入力するためのシステム、及び装置の操作方法を開示している。システムは、ダッシュボードに内蔵された表示デバイス、並びに人差し指の動作、及びハンドルに接触している車両ドライバの手の人差し指が指し示している表示デバイスの領域を検出するための少なくとも一つのセンサを備える。車両ドライバの手の人差し指によって指し示された位置は、カーソルとも称される位置インジケータによって、表示デバイス内に示される。指の動作に反応する機能が、システム内に実装される。
先行技術から公知のシステムでは、情報伝送を開始及び終了するためには、スイッチなどのスイッチ素子または操作ノブを操作する必要がある。さらに、システムは、ハンドルの表面におけるまたはそれに沿う動作を記録するようには設計されていない。さらに、片手によって行われる動作のみしか記録できない。
US2013/0076615A1 WO2013/036289A2
本発明の課題は、ダッシュボードディスプレイ及びフロントガラスの領域に配置された表示デバイスを用いた、車両ドライバによる相互作用操作を手段とした自動車の情報伝送のためのシステムの提供及び改善に関する。ここでは、ハンドルの領域内の車両ドライバの手及び/または指の有望な動作を手段として、自動車の機能を操作または変更することができる。車両ドライバとシステムとの間の相互作用は、ハンドル内またはそこに形成されたいかなる追加のセンサまたは他の電子的要素が無くても、可能であるべきである。伝送された信号及び情報の認識及び記録は、誤りのある情報、それ故に、システムの動作エラーを回避するための干渉をしなくても大部分は行われるべきである。ここでは、手の数または指の本数とは無関係に、情報を伝送することが可能であるべきである。
課題は、独立請求項の特徴を含む主題及び方法によって解決される。改善が、従属請求項に示される。
課題は、自動車における情報伝送のための、本発明に従うシステムによって解決される。自動車のパッセンジャーコンパートメント内に、ハンドル、カバーを備えたダッシュボード、ダッシュボードディスプレイを備えたダッシュボードディスプレイ領域、及びフロントガラスの領域に配置された表示デバイスが提供される。システムは、ジェスチャ認識に基づいて設計され、少なくとも一つのジェスチャ認識センサを備えたジェスチャ認識ユニットを備える。ここでは、ジェスチャ認識センサは、知覚可能ジェスチャの領域内の動作を検出するように構成される。
本発明の設計に従えば、少なくとも一つのジェスチャ認識センサは、車両ドライバの視認方向において、ハンドルの後方の、ダッシュボードディスプレイ領域内においてカバーの下に一体化して配置される。ダッシュボードディスプレイ及び表示デバイスは、相互作用メニューを示すように設計される。
ダッシュボードディスプレイ領域内のカバーの下へのジェスチャ認識センサの配置では、結果として、直達太陽放射からのセンサの効果的な保護、それ故に、センサによるジェスチャの乱されない認識がもたらされる。ジェスチャ認識ユニットは、ジェスチャ認識センサを備えたジェスチャ認識モジュールとも称され、有利にも、例えば、ハンドルに位置する両手のジェスチャを記録するように設計される。
車両ドライバによるシステムの相互作用操作は、二つのディスプレイを個別に、またはそれらの組み合わせとして、ダッシュボードディスプレイ、及びフロントガラスの領域に配置された表示デバイスの両方を用いて行うことができる。
本発明の好ましい実施形態に従えば、ジェスチャ認識ユニットは、イメージを生成し、知覚可能ジェスチャの領域内で実行されたジェスチャを検出するように構成される。ここでは、知覚可能ジェスチャの領域は、ハンドルの周囲に加えて、ハンドルとダッシュボードとの間にも広がる。
代替的な設計に従えば、知覚可能ジェスチャの領域は、車両ドライバの視認方向において、自動車のセンターコンソールの前に位置する領域も含む。
ジェスチャ認識ユニットは、有利にも、知覚可能ジェスチャの検出領域が、ハンドルの上部領域、特に、ハンドルの上縁まで広がるように構成される。ここでは、知覚可能ジェスチャの領域は、好ましくは、角度範囲の境界の各々が垂直方向から60°偏差して方向づけられた120°の角度範囲にわたって広がる。ハンドルをアナログ時計の文字盤にたとえると、知覚可能ジェスチャの領域は、12時マークが文字盤の中心から垂直方向に上方に配置された場合に、文字盤の10時マークと2時マークとの間を広がる。
本発明の改善に従えば、ジェスチャ認識ユニットは、ハンドルの領域内、特に、ハンドルの上部領域内のジェスチャを、ハンドルの動作と区別するように構成される。ここでは、ハンドルの位置の角度、及びハンドルの位置の角度の変化が、計算アルゴリズムに含まれる。
本発明の追加の有利な設計は、車両ドライバの視認方向においてダッシュボードディスプレイ領域の高さに、かつ水平方向においてダッシュボードディスプレイ領域の中央に、ハンドルによって画定された平面と平行の平面内に配置された少なくとも一つのジェスチャ認識センサにある。
ハンドル及び車両ドライバと相対的なジェスチャ認識センサの中央配置では、有利にも、ハンドルに位置する、車両ドライバの両手のジェスチャの記録が可能になる。
本発明の代替的な設計に従えば、システムは、ダッシュボードディスプレイ領域内に分配された、カバーの下に配置された複数のジェスチャ認識センサを備えるように設計される。ここでは、複数は、二つ以上のジェスチャ認識センサを意味するように理解される。
ジェスチャ認識ユニットは、好ましくは、ジェスチャ認識センサとして飛行時間型カメラを備えるように設計される。
本発明の別の有利な設計に従えば、ジェスチャ認識ユニットは、ダッシュボードディスプレイの方向及び/または表示デバイスの方向における車両ドライバの動作によって起動及び終了するように構成される。ここでは、車両ドライバとジェスチャ認識ユニットとの間の相互作用は、ダッシュボードディスプレイのメニュー及び/または表示デバイスのメニューに表示される。
ジェスチャ認識ユニットは、好ましくは、ジェスチャを深度記録するように設計された動き検出ハードウェアを備える。さらに、ハードウェアは、ジェスチャが指し示している位置を決定し、かつダッシュボードディスプレイ及び/または表示デバイスにおける位置を示すための、ジェスチャが発生した方向及び角度を持つベクトルを生成する。
それ故に、動き検出ハードウェアは、例えば、空間内の指の角度を考慮した、三次元空間内の指の位置、特に、指先の位置を検出し、その位置をディスプレイの少なくとも一つにおける参照に変換するために使用される。
ジェスチャ認識ユニットは、さらに、有利にも、少なくとも片方の手または少なくとも一本の指のサイズ及び/または形状を検出し、検出したサイズ及び/または形状をシステムに記憶されている値と比較し、それらをシステムに記憶されている個人のユーザプロフィールに関連付けるように構成される。ユーザプロフィールは、個々のユーザプロフィールを登録されている個人ごとにシステム内に設定できるように特定の個人に関連付けられる。その結果、ハンドルが触れられると、自動車を運転している個人を認識することができる。ユーザプロフィールは、機能の設定がプリセット(プリセッティング)に適応できるように、空調装置またはオーディオシステムなどの種々の機能をプリセットするための値を含む。
課題は、自動車における情報伝送のためのシステムを操作するための、本発明に従う方法によっても解決される。選択された相互作用領域をディスプレイに強調表示するための方法は、以下のステップを含む。
−システムのジェスチャ認識ユニットによって認識される、車両ドライバによるジェスチャを実行するステップ。
−ジェスチャ認識センサからジェスチャを受信し、ハードウェアに信号を伝送するステップ。
−ハードウェアを用いて伝送された信号を評価し、ジェスチャそれ自体(as such)を認識可能か否かを決定するステップ。
−ジェスチャそれ自体を認識できない場合に、ジェスチャ認識に関連するエラーメッセージを、ダッシュボードディスプレイ及び/または表示デバイスに送信するステップ、またはジェスチャが指し示している、ダッシュボードディスプレイの領域及び/または表示デバイスの領域を決定するステップ。
−ジェスチャが指し示している、ダッシュボードディスプレイの領域及び/または表示デバイスの領域が、ディスプレイの少なくとも一つの有効な相互作用領域に対応するか否かを照合するステップ。
−ジェスチャが有効な相互作用領域を指し示している場合に、ダッシュボードディスプレイの領域及び/または表示デバイスの領域を強調表示するステップ。
課題は、さらに、ジェスチャベースの情報を伝送するためのシステム、及び自動車内の機能を実行するためのシステムの本発明に従う操作方法によっても解決される。この方法は、以下のステップを含む。
−システムのジェスチャ認識ユニットによって認識される、車両ドライバによるジェスチャを実行するステップ。
−ジェスチャ認識センサからジェスチャを受信し、ハードウェアに信号を伝送することに加えて、角度に基づいてハンドルの位置を決定するステップ。
−ハードウェアを用いて、ジェスチャによって生成され、システムによって受信された信号、及びハンドル設定の信号を評価し、ジェスチャの使用がシステムを操作することを意図していたか否か、及びジェスチャそれ自体が認識可能であるか否かを決定するステップ。
−ジェスチャの使用がシステムを操作することを意図していなかった、またはジェスチャそれ自体が認識できなかった場合に、ジェスチャ認識に関連するエラーメッセージを、ダッシュボードディスプレイ及び/または表示デバイスに送信するステップ。または、
−操作モード及び車両データに基づいて、自動車の機能の変更及び切り替えを決定するステップ。
−設定される自動車の機能に関する、検出されたジェスチャのコンテキスト関連の比較を行うステップ。
−検出されたジェスチャのコンテキスト関連の類似が生じない場合に、一連の機能に関するエラーメッセージを、ダッシュボードディスプレイ及び/または表示デバイスに送信する、または自動車の選択された機能の実行及び確認を行うステップ。
要約すれば、自動車における情報伝送のための本発明に従うシステムは、さまざまな利点を有する。
−スイッチ及び操作ノブを備えることでハンドルに負荷をかけることのない、かつダッシュボードディスプレイ上のコンテンツの操作、フロントガラスの領域に配置された表示デバイス上のコンテンツの操作、及び自動車内で操作する他の機能とのコンタクトのために、ハンドル上またはその内部に複数の追加の電子的要素を一体化させることのない、自動車内の最も接触される要素、相互作用面、または適応性のある入力デバイスもしくは相互作用デバイスとしてのハンドルの設計。
−大きな追加の支出及びかなりの追加の費用もない、ダッシュボードディスプレイの既に高度に技術化されている領域内への、ジェスチャ認識ユニットのジェスチャ認識センサの一体化。同様に、
−ハンドルの領域内に敷設されるケーブルが少数でよく、再利用要素の使用頻度が低く、その結果、車両ドライバにとってフレキシブルとしてのシステム、及び適応性のある相互作用システムの効率の増大、並びに操作要素の複雑性の減少をもたらすような、ハンドル内部に追加の電子的要素が全くない、または最小数のみの追加。
−ダッシュボードディスプレイ及びフロントガラスの領域に配置された表示デバイスを通じた、オーディオシステム及び安全システムに関する、車両ドライバと自動車との全体的な相互作用が、入力面それ自体がダッシュボードに内蔵された電子機器の一部を示さないような、ダッシュボードに内蔵された電子機器を通じて、間違いのない、かつ直接的な方法において行われる。
−太陽放射から保護されたセンサの配置が、相互作用のために伝送される信号及び情報の概して乱されない検出及び記録をもたらし、それによって誤りのある情報及び操作エラーが回避される。
−自動車と車両ドライバとの間の全体的な相互作用が、目が道路を向き、手がハンドルに保持されたまま、換言すれば、手がハンドルから離れることなく、ハンドル付近の空中で実行されるジェスチャを手段として行われる。車両ドライバは、手をセンターコンソールに移動する必要がなく、それ故に、車両ドライバの注意散漫はほとんどまたは全くなく、高い注意力が増進される。
−車両ドライバとシステムとの間で伝送される情報が、手の数または指の本数とは無関係である。
本発明の設計のさらなる詳細、特徴及び利点は、関連する図面を参照する実施形態の実施例の以下の記述から明らかになる。
車両ドライバの視認方向において、車両ドライバの前に形成された、情報伝送のためのジェスチャベースのシステムを備えた、自動車のパッセンジャーコンパートメントの領域の側面図を示す。 車両ドライバの視認方向において、パッセンジャーコンパートメント内部において車両ドライバの前方に形成されたコンポーネントの配置を示す。 車両ドライバの視認方向において、車両ドライバの前方に配置された、図2が提供するコンポーネントの斜視図を示す。 選択された相互作用領域をディスプレイに強調表示する方法のフロー図を示す。 システムのジェスチャベースの情報伝送及び機能の実行のための方法のフロー図を示す。
図1は、車両ドライバの視認方向において、車両ドライバの前に形成された、情報伝送のためのジェスチャベースのシステム1を備えた、自動車のパッセンジャーコンパートメントの領域の側面図を示す。システム1は、ジェスチャを検出するために使用される。
システム1は、領域内において、運転方向前方、かつ車両ドライバの視認方向において、自動車のハンドル2の後方に広がる。車両ドライバの視認方向において、フロントガラスによって範囲を定められた領域は、さらに、カバー4を備えたダッシュボード3、及びダッシュボードディスプレイ領域5を有する。ダッシュボード3は、計器パネルとも参照される。
ダッシュボード3内部に、ジェスチャ認識ユニット6が配置される。ジェスチャ認識ユニット6は、特に、少なくとも一つのジェスチャ認識センサを備えて設計される。それ故に、ジェスチャ認識センサは、車両ドライバの視認方向においてハンドル2の後方の、ダッシュボードディスプレイ領域5内において一体化される。これは、知覚可能な領域7内の車両ドライバのジェスチャ及び動作を検出し、ジェスチャ認識ユニット6内の情報としてそれらを受信し、そしてジェスチャ認識ユニット6内の情報を処理する。ここでは、カバー4の下に配置されたジェスチャ認識センサは、ダッシュボードディスプレイのコンポーネントとして設計され、別個のモジュールには相当しない。ダッシュボードディスプレイ内のカバー4の下におけるジェスチャ認識センサの配置では、とりわけ直達太陽放射から保護され、ジェスチャを手段とした、相互作用のための伝送された情報の乱されない受信が可能になる。
ジェスチャ認識ユニット6は、イメージを生成し、ハンドル2とダッシュボード3との間の領域内のハンドル2上の、または自動車のセンターコンソールの領域内のいずれかにおいて実行されたジェスチャを検出するように構成される。
少なくとも一つのジェスチャ認識センサは、有利にも、車両ドライバの視認方向においてダッシュボードディスプレイ領域5の高さに、かつ水平方向においてダッシュボードディスプレイ領域5の中央に、ハンドル2によって画定された平面と平行の平面内に配置される。それ故に、車両ドライバの両手のジェスチャ及び動作の検出、受信及び識別が可能になる。代替的に、車両ドライバの両手のジェスチャ及び動作を検出、受信及び識別するために、二つ以上のジェスチャ認識センサを形成及び配置することもできる。二つ以上のジェスチャ認識センサの設計では、該センサは、知覚可能ジェスチャの領域7を最適にカバーするように、ダッシュボードディスプレイ領域5内に分配して配置される。
ここでは、ジェスチャ認識ユニット6のジェスチャ認識センサは、自動車の現在の機能を制御するために、車両ドライバの手10または両手、特に、指11、とりわけ、人差し指の動作を受信するように位置付けられる。手10及び指11は、ハンドル2上、またはハンドル2の領域2a内、特に、ハンドル2の上縁において、図1に従い移動し、車両ドライバの視認方向を指し示す。
ジェスチャ認識ユニット6は、手の動き検出モジュールとも称され、例えば、滑らかな動作だけでなく、跳びはねる動作も受信するようなセンサを備える。ここでは、センサは、例えば、超音波センサ、赤外線センサなど、または飛行時間型カメラ、もしくはイメージ、とりわけ、三次元イメージを生成する構造光を使用するためのものとして設計される。
飛行時間型カメラは、TOFカメラ(time of flight)とも称され、飛行時間法を使用して距離を測定する三次元カメラシステムである。ここでは、知覚可能ジェスチャの領域7には、光パルスが照射される。像点ごとに、カメラは、光がオブジェクトに到達し、そして元の位置に戻るのに必要な時間を測定する。必要な時間は、距離に正比例する。故に、カメラは、像点ごとに、そこに画像化されたオブジェクトまでの距離を決定できる。
構造光を用いた方法の場合では、特定のパターンが可視領域または赤外領域などの不可視領域において伝送され、パターンは、その後、空間内の三次元構造に従い曲がる。曲率が受信され、理想的なイメージと比較される。理想的なイメージと、曲率を用いて決定された実際のイメージとの間の距離から、空間内のオブジェクトの位置が決定される。
システム1は、ダッシュボードディスプレイ領域5に配置されたダッシュボードディスプレイに加えて、フロントガラスの領域に配置された表示デバイス8を有する。これは、とりわけ、「ヘッドアップディスプレイ」として設計される。ダッシュボードディスプレイに加えて、表示デバイス8も、相互作用メニュー及び要素を示すために使用される。
車両ドライバとダッシュボードディスプレイ及び/または表示デバイス8との間の相互作用は、手10の表面がハンドル2に接触したまま開始される。ここでは、相互作用は、例えば、ダッシュボード3の方向における、換言すれば、ダッシュボードディスプレイ及び/または取って代わった装置8の方向における車両ドライバの指11の動作によって開始される。車両ドライバとダッシュボードディスプレイ及び/または表示デバイス8との間の相互作用は、少なくとも一本の指11が二つのディスプレイのうちの一つを指し示すとすぐに、ダッシュボードディスプレイ及び/または表示デバイス8のメニューに示される。それ故に、ジェスチャ認識ユニット6は、スイッチを起動することなく、開始または停止させることができる。
代替的に、ジェスチャ認識ユニット6及び相互作用は、追加のコンポーネントの起動、またはハンドル2への接触によっても開始することができる。
相互作用の開始後、ダッシュボードディスプレイ及び/または表示デバイス8のユーザ面は、手10及び/または指11のジェスチャによって制御される。その内部に指11が配置されるジェスチャ認識ユニット6によって生成されたイメージを用いて、またはジェスチャ認識ユニット6に一体化された動き検出ハードウェアを用いたジェスチャの深度記録によって、手10の指11が検出され、指11の動作に応じたベクトル9が作り出される。ベクトル9の確立は、指11が指し示す正確な位置を決定するための、指11が指し示す方向及び角度の決定に使用される。
ジェスチャのこのベクトル空間関数9は、その後の、ジェスチャ認識ユニット6のさらなる計算を可能にする。別の位置、つまり、ダッシュボードディスプレイまたは表示デバイス8上のターゲットオブジェクトを指す指11の動作の結果、指11のベクトル9は変化する。その後、指11の新規の位置が計算され、ダッシュボードディスプレイまたは表示デバイス8上のターゲットオブジェクトに関連付けられる。
ダッシュボードディスプレイ及び/または表示デバイス8上に、指11が指し示すとすぐに適応する相互作用メニューが示される。ダッシュボードディスプレイの及び/または表示デバイス8上のユーザ面は、指の個々のジェスチャ11、指11の群のジェスチャ、または手10もしくは両手10のジェスチャによって制御される。この制御により、動作を手段とするダッシュボードディスプレイ及び/または表示デバイス8との車両ドライバの相互作用を使用して、メニュー選択が行われる。ジェスチャ、それ故に、ダッシュボードディスプレイ及び/または表示デバイス8のユーザ面と相対的な方向を持つ動作、及び対応するディスプレイによって、空調装置、インフォテインメントシステム、運転者支援システムなどの自動車の選択された機能が、実行及び制御される。指11及び/または手10の動作及びジェスチャは、自由空間内またはハンドル2面などの表面において行われ、自動車の種々の機能の変更または調節をもたらす。
システム1、特に、三次元ジェスチャ認識のためのジェスチャ認識ユニット6は、手10及び/または指11のサイズまたは形状を検出し、それらをシステム1に記憶されている特定のユーザプロフィール、つまり、特定の個人に関連付けるように構成される。個々のユーザプロフィールが、登録されている個人ごとにシステム1内にセットアップされているため、システム1を使用することによって、結果として、ハンドル2への接触時に既に、自動車を運転している個人を検出できる可能性がある。ここでは、ユーザプロフィールは、いくつかの情報の中でも、空調装置またはオーディオシステムなどの、自動車内の種々の機能をプリセットするための値を含有する。
手10及び/または指11に基づく個人の認識は、システム1に記憶された個人の集団に限定される。自動車を運転している個人の認識に応じて、車両内の特定の機能の設定は、適応することができる。
図2は、車両ドライバの視認方向において、パッセンジャーコンパートメント内部において車両ドライバの前方に形成されたコンポーネントのシステム1を示す。図3は、車両ドライバの視認方向において、車両ドライバの前方に配置された、図2が提供するコンポーネントの斜視図を示す。
ジェスチャ認識ユニット6のジェスチャ認識センサは、知覚可能ジェスチャの検出領域7が、ハンドル2の上部領域2a内、特に、ハンドル2の上縁における相互作用を十分に可能にするように、配置及び構成される。円形のハンドル2をアナログ時計の文字盤にたとえると、手10または指11のジェスチャは、10時と2時との間の領域において十分に検出される。ここでは、ハンドル2における表面相互作用のジェスチャに加えて、ハンドル2近辺の、特に、ハンドル2とダッシュボードディスプレイ領域5のカバー4との間のジェスチャも検出される。
検出可能なジェスチャは、例えば、タッピングジェスチャまたはタッピング動作、ヒッティング動作、ストローキング動作、ポインティングジェスチャなどを含む。ここでは、ハンドル2におけるタッピング動作またはヒッティング動作に加えて、ハンドル2にわたる手のストローキング動作も、認識、受信及びコマンドまたは命令に変換される。動作及びジェスチャは、さらに、システム1によって記録することができる。動作、とりわけ、ハンドル2の上縁に沿う手10によるストローキング動作によって、例えば、メニュー同士を通じるもしくはそれらの間の領域内の、スクローリング、ブラウジング、スイッチングもしくは移動または機能変化がもたらされる。例えば、システムが、ハンドル2の上縁における握ったまたは開いた手10を形成する手、及び上部領域2a内の動作を検出する場合には、動作を使用して、オーディオシステムの音量、空調装置の温度または光量などのスケールまたは大きさを設定することができる。
ここでは、どの領域が選択され、どの機能が変更されるかは、追加的に、右手または左手10である手10に応じて決めることができる。
ハンドル2の上縁における手10の動作を、ハンドルそれ自体の動作2と区別するために、ハンドル2の位置の角度及びハンドル2の角度の変化が、計算アルゴリズムに含まれる。ハンドル2が定位置にある、またはハンドル2の角度位置の変化が約0°である場合には、手10の動作は、ハンドル2の上縁にわたるストローキングとして検出され、以前に選択された機能のある程度の変化及び操作がもたらされる。ハンドルの角度位置の変化が0°から明らかに外れたときには、手10の動作は、ステアリング操作とみなされ、その場合には、選択された機能は変更されない。
車両ドライバとダッシュボードディスプレイ及び/または表示デバイス8との間の相互作用は、例えば、10時と2時との間の領域における両手10でのハンドル2への接触、及び指11、特に、人差し指を移動するまたは立てることによって開始される。システム1は、この標準ジェスチャを認識し、手10の表面がハンドル2に接触したまま、ジェスチャ認識ユニット6の入力面が起動する。
ダッシュボードディスプレイ及び/または表示デバイス8を指し示すと、それぞれのディスプレイの領域が、領域の周囲よりも強い照明によって強調表示される。その領域が選択される。
左手10の人差し指のヒッティング動作が自動車のオーディオシステムをスイッチオフし、一方で、左手10のストローキング動作が音量の調整をもたらす。右手10の種々のストローキング動作が、同様に、ディスプレイユニット8またはダッシュボードディスプレイ内のディスプレイにおける変更をもたらす。
表示デバイス8またはダッシュボードディスプレイの要素を指す、手10の指11の向きによって要素を選択し、一方で、ハンドル2の上縁における指11のタッピングによって、その要素の後方に位置する機能を実行する。
システム1は、さらに、自動車の種々の機能をプリセットまたはそれらに適応するための方法を含むように操作することができる。ここでは、ジェスチャ認識ユニット6を用いて、少なくとも片方の手及び/または少なくとも一本の指のサイズ及び/または形状を検出する。その後、検出したサイズ及び/または形状を、システム1に記憶されている値と比較し、システムに記憶されている個人のユーザプロフィールに関連付ける。この個々のユーザプロフィールは、登録されている個人ごとにシステム1に記憶されている。ハンドルに接触すると、それ故に、自動車を運転している個人が検出される。ユーザプロフィールが、空調装置またはオーディオシステムなどの、自動車内の種々の機能をプリセットするための値を含有するため、個人または特定のユーザプロフィールの識別後、機能の設定がプリセットに適応する。
図4は、選択された相互作用領域をディスプレイ、つまり、ダッシュボードディスプレイ及び/または表示デバイス8上に強調表示する方法のフローチャートを示す。
第一の方法ステップ20において、システム1のジェスチャ認識ユニット6によって検出されるジェスチャが、車両ドライバによって実行される。ジェスチャは、ジェスチャ認識センサによって受信され、次の方法ステップ21において、システム1の電子機器としてのハードウェアに伝送される。ハードウェアを用いて、受信した信号を評価し、その後の方法ステップ22において、ジェスチャをそのようなものとして認識すべきか否かを決定する。
ジェスチャをそのようなものとして認識すべきでない場合に、方法ステップ23として、ジェスチャの使用またはジェスチャの認識に関するエラーメッセージを、ダッシュボードディスプレイ及び/または表示デバイス8に送信する。さもなければ、方法ステップ24において、ジェスチャが指し示しているダッシュボードディスプレイの領域及び/または表示デバイス8の領域を決定する。
方法ステップ25において、ジェスチャが指し示しているダッシュボードディスプレイの領域及び/または表示デバイス8の領域が、ディスプレイの少なくとも一つの有効な相互作用領域に対応するか否かを決定するための検証を行う。対応しない場合には、方法ステップ26として、ダッシュボードディスプレイ及び/または表示デバイス8のいかなる領域も強調表示しない。ジェスチャが有効な相互作用領域を指し示している場合には、方法ステップ27において、例えば、領域の周囲よりも照明を強くすることによって、選択された相互作用領域を強調表示する。
図5は、システム1のジェスチャベースの情報伝送及び機能の実行のための方法のフロー図を示す。
第一の方法ステップ30において、システム1のジェスチャ認識ユニット6によって検出されるジェスチャが、車両ドライバによって実行される。ジェスチャは、ジェスチャ認識センサによって受信され、次の方法ステップ31において、システム1のハードウェアに伝送される。同時に、方法ステップ32において、ハンドル2の角度位置に基づいて、ハンドル位置を決定する。ハードウェアを用いて、ジェスチャによって生成され、システム1によって受信された信号、及びハンドル2の位置の信号を評価し、その後の方法ステップ33において、ジェスチャを、システム1を操作するものとして使用すべきか、そしてそのようなものとして認識すべきか否かを決定する。
ジェスチャをシステム1の操作に使用すべきでない、またはそれがそのようなものとして認識されない場合には、方法ステップ33として、ジェスチャの使用またはジェスチャの認識に関するエラーメッセージを、ダッシュボードディスプレイ及び/または表示デバイス8に送信する。返信メッセージまたは実行の拒否を、例えば、エラーメッセージまたは警告通知として示す。
システム1を操作するためのジェスチャが認識された場合には、次に、方法ステップ36において、設定される自動車の機能に関する、検出されたジェスチャのコンテキスト関連の比較を行う。ジェスチャのコンテキスト関連の比較に関して、方法ステップ35において、操作モード及び車両データにも基づいて、自動車のどの機能を変更または切り替えるべきかを決定する。
検出されたジェスチャのコンテキスト関連の類似が生じない場合には、次に、方法ステップ37において、一連の機能に関するエラーメッセージを、ダッシュボードディスプレイ及び/または表示デバイス8に送信する。
検出されたジェスチャのコンテキスト関連の比較について実行可能性がある場合には、方法ステップ38において、自動車の選択された機能の実行及び確認を行う。
ここでは、実行は、ダッシュボードディスプレイ及び/または表示デバイス8のメディアコンテンツ間のスイッチングまたはフリッピングも含むことができる。
1 システム
2 ハンドル
2a ハンドル2の上部領域
3 ダッシュボード
4 ダッシュボード3のカバー
5 ダッシュボードディスプレイ領域
6 ジェスチャ認識ユニット
7 知覚可能ジェスチャの領域
8 表示デバイス
9 ジェスチャのベクトル、ベクトル空間関数
10 手
11 指
20〜27 方法ステップ
30〜38 方法ステップ

Claims (10)

  1. ハンドル(2)と、カバー(4)を備えたダッシュボード(3)と、ダッシュボードディスプレイを備えたダッシュボードディスプレイ領域(5)と、フロントガラスの領域に配置された表示デバイス(8)と、を備えた自動車における情報伝送のためのシステム(1)であって、
    −ジェスチャ認識に基づいて設計されており、かつ
    −知覚可能ジェスチャの領域(7)内の動作を検出するように構成された少なくとも一つのジェスチャ認識センサを備えたジェスチャ認識ユニット(6)を備えており、そして
    −前記少なくとも一つのジェスチャ認識センサが、車両ドライバの視認方向において、前記ハンドル(2)の後方の、前記ダッシュボードディスプレイ領域(5)内において前記カバー(4)の下に、一体化して配置されており、
    −前記ダッシュボードディスプレイ及び前記表示デバイス(8)が相互作用メニューを示すように設計されることを特徴とする、自動車における情報伝送のためのシステム(1)。
  2. 前記ジェスチャ認識ユニット(6)が、イメージを生成し、前記知覚可能ジェスチャの領域(7)内で実行されたジェスチャを検出するように構成されており、前記領域(7)が、前記ハンドル(2)の周囲に加えて、前記ハンドル(2)と前記ダッシュボード(3)との間にも広がることを特徴とする、請求項1に記載のシステム(1)。
  3. 前記知覚可能ジェスチャの検出領域(7)が、前記ハンドル(2)の上部領域(2a)、特に、前記ハンドル(2)の上縁まで広がるように、前記ジェスチャ認識ユニット(6)が構成されており、前記領域(7)が120°の角度範囲にわたって広がり、前記角度範囲の境界の各々が垂直方向から60°偏差して方向づけられていることを特徴とする、請求項2に記載のシステム(1)。
  4. 前記ジェスチャ認識ユニット(6)が、前記ハンドル(2)の領域内、特に、前記ハンドル(2)の前記上部領域(2a)内のジェスチャを、前記ハンドル(2)の動作と区別するように構成されており、前記ハンドル(2)の位置の角度、及び前記ハンドル(2)の前記位置の角度の変化が、計算アルゴリズムに含まれることを特徴とする、請求項2または3に記載のシステム(1)。
  5. 前記少なくとも一つのジェスチャ認識センサが、前記車両ドライバの視認方向において、前記ダッシュボードディスプレイ領域(5)の高さに、かつ水平方向において前記ダッシュボードディスプレイ領域(5)の中心に、前記ハンドル(2)によって画定された平面と平行の平面内に配置されることを特徴とする、請求項1〜4のいずれか1項に記載のシステム(1)。
  6. 前記ジェスチャ認識ユニット(6)が、前記ダッシュボードディスプレイまたは前記表示デバイス(8)の方向における前記車両ドライバの動作によって起動及び終了するように構成されており、前記車両ドライバと前記ジェスチャ認識ユニット(6)との間の相互作用が、前記ダッシュボードディスプレイ及び/または前記表示デバイス(8)のメニューに表示されることを特徴とする、請求項1〜5のいずれか1項に記載のシステム(1)。
  7. 前記ジェスチャ認識ユニット(6)が、前記ジェスチャを深度記録するように設計された動き検出ハードウェアを備えており、前記ジェスチャが指し示している位置を決定し、かつ前記ダッシュボードディスプレイ及び/または前記表示デバイス(8)における位置を示すための、前記ジェスチャが発生した方向及び角度を持つベクトル(9)を生成することを特徴とする、請求項1〜6のいずれか1項に記載のシステム(1)。
  8. 前記ジェスチャ認識ユニット(6)が、少なくとも片方の手(10)及び/または少なくとも一本の指(11)のサイズ及び/または形状を検出し、前記検出したサイズ及び/または形状を前記システム(1)に記憶されている値と比較し、それらを前記システムに記憶されている個人のユーザプロフィールに関連付けるように構成されており、前記ユーザプロフィールが種々の機能のプリセットを含み、それにより、前記機能がプリセットに適応できるようになっていることを特徴とする、請求項1〜7のいずれか1項に記載のシステム(1)。
  9. 選択された相互作用領域をディスプレイに強調表示するための請求項1〜8のいずれか1項に記載のシステム(1)の操作方法であって、
    −前記システム(1)のジェスチャ認識ユニット(6)によって認識される、車両ドライバによるジェスチャを実行するステップと、
    −前記ジェスチャ認識センサによって前記ジェスチャを受信し、ハードウェアに信号を伝送するステップと、
    −前記ハードウェアを用いて前記伝送された信号を評価し、前記ジェスチャそれ自体を認識可能か否かを決定するステップと、
    −前記ジェスチャそれ自体を認識できない場合に、前記ジェスチャ認識に関連するエラーメッセージを、前記ダッシュボードディスプレイ及び/または前記表示デバイス(8)に送信するか、或いは、前記ジェスチャが指し示している、前記ダッシュボードディスプレイの領域及び/または前記表示デバイス(8)の領域を決定するステップと、
    −前記ジェスチャが指し示している、前記ダッシュボードディスプレイの前記領域及び/または前記表示デバイス(8)の前記領域が、前記ディスプレイの少なくとも一つの有効な相互作用領域に対応するか否かを照合するステップと、
    −前記ジェスチャが有効な相互作用領域を指し示している場合に、前記ダッシュボードディスプレイの前記領域及び/または前記表示デバイス(8)の前記領域を強調表示するステップと、を含む、方法。
  10. ジェスチャベースの情報を伝送して機能を実行するための、請求項1〜8のいずれか1項に記載のシステム(1)の操作方法であって、
    −前記システム(1)の前記ジェスチャ認識ユニット(6)によって認識される、車両ドライバによるジェスチャを実行するステップと、
    −前記ジェスチャ認識センサによって前記ジェスチャを受信し、ハードウェアに信号を伝送することに加えて、角度に基づいてハンドル(2)の位置を決定するステップと、
    −前記ハードウェアを用いて、前記ジェスチャによって生成され、前記システム(1)によって受信された前記信号、及び前記ハンドル(2)設定の前記信号を評価し、前記ジェスチャの使用が前記システム(1)を操作することを意図していたか否か、及び前記ジェスチャそれ自体を認識可能であるか否かを決定するステップと、
    −前記ジェスチャの使用が前記システム(1)を操作するためのものではなかった場合、または前記ジェスチャそれ自体を認識できなかった場合に、前記ジェスチャ認識に関連するエラーメッセージを、前記ダッシュボードディスプレイ及び/または前記表示デバイス(8)に送信するステップ、または
    −操作モード及び車両データに基づいて、前記自動車の前記機能の変更及び切り替えを決定するステップと、
    −設定された前記自動車の前記機能に関して、前記検出されたジェスチャのコンテキストに関する比較を行うステップと、
    −前記検出されたジェスチャのコンテキストに関する比較が行えない場合に、前記一連の機能に関するエラーメッセージを、前記ダッシュボードディスプレイ及び/または前記表示デバイス(8)に送信するか、或いは、前記自動車の選択された前記機能の実行及び確認を行うステップと、を含む、方法。
JP2018089978A 2014-11-07 2018-05-08 自動車における情報伝送のためのシステム Pending JP2018150043A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102014116292.7A DE102014116292A1 (de) 2014-11-07 2014-11-07 System zur Informationsübertragung in einem Kraftfahrzeug
DE102014116292.7 2014-11-07

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015217788A Division JP2016088513A (ja) 2014-11-07 2015-11-05 自動車における情報伝送のためのシステム

Publications (2)

Publication Number Publication Date
JP2018150043A true JP2018150043A (ja) 2018-09-27
JP2018150043A5 JP2018150043A5 (ja) 2018-12-20

Family

ID=55803242

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015217788A Pending JP2016088513A (ja) 2014-11-07 2015-11-05 自動車における情報伝送のためのシステム
JP2018089978A Pending JP2018150043A (ja) 2014-11-07 2018-05-08 自動車における情報伝送のためのシステム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2015217788A Pending JP2016088513A (ja) 2014-11-07 2015-11-05 自動車における情報伝送のためのシステム

Country Status (4)

Country Link
US (1) US20160132126A1 (ja)
JP (2) JP2016088513A (ja)
CN (1) CN105584368A (ja)
DE (1) DE102014116292A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020117184A (ja) * 2019-01-28 2020-08-06 株式会社東海理化電機製作所 動作認識装置、コンピュータプログラム、および記憶媒体

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6426025B2 (ja) * 2015-02-20 2018-11-21 クラリオン株式会社 情報処理装置
US9809231B2 (en) 2015-10-28 2017-11-07 Honda Motor Co., Ltd. System and method for executing gesture based control of a vehicle system
EP3543051B1 (de) 2016-07-06 2020-06-03 Audi AG Verfahren zum betreiben eines interaktiven sichtschutzes, eine scheibeneinrichtung sowie ein kraftfahrzeug
US10832031B2 (en) * 2016-08-15 2020-11-10 Apple Inc. Command processing using multimodal signal analysis
JP6669017B2 (ja) * 2016-09-01 2020-03-18 株式会社デンソー 車両用操作システム及びコンピュータプログラム
DE102016120999B4 (de) * 2016-11-03 2018-06-14 Visteon Global Technologies, Inc. Benutzerschnittstelle und Verfahren zur Ein- und Ausgabe von Informationen in einem Fahrzeug
CN108263338B (zh) 2016-12-30 2021-06-15 华为技术有限公司 汽车、方向盘以及驾驶员身份识别方法
WO2018131251A1 (ja) * 2017-01-12 2018-07-19 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
CN108874116B (zh) * 2017-05-12 2022-11-08 宝马股份公司 用于特定于用户的功能的系统、方法、设备以及车辆
DE102017113781B4 (de) * 2017-06-21 2023-10-05 SMR Patents S.à.r.l. Verfahren zum Betreiben einer Anzeigevorrichtung für einen Kraftwagen, sowie Kraftwagen
DE102017211462B4 (de) * 2017-07-05 2023-05-17 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Unterstützung eines Anwenders eines Fortbewegungsmittels, Fahrerassistenzsystem und Fortbewegungsmittel
FR3070635B1 (fr) * 2017-09-05 2019-08-23 Continental Automotive France Palette tactile a effet optique sur volant de conduite pour detection de doigt
JP6987341B2 (ja) 2017-10-24 2021-12-22 マクセル株式会社 情報表示装置およびその空間センシング装置
KR102463712B1 (ko) * 2017-11-24 2022-11-08 현대자동차주식회사 가상 터치 인식 장치 및 그의 인식 오류 보정 방법
EP3737579B1 (en) * 2018-01-09 2023-06-28 Motherson Innovations Company Limited Autonomous vehicles and methods of using same
US10404909B1 (en) * 2018-04-18 2019-09-03 Ford Global Technologies, Llc Measurements via vehicle sensors
FR3080688A1 (fr) * 2018-04-26 2019-11-01 Stmicroelectronics Sa Dispositif de detection de mouvement
CN108622176A (zh) * 2018-05-23 2018-10-09 常州星宇车灯股份有限公司 一种基于tof手势识别的多功能方向盘人车交互系统
CN110163045A (zh) * 2018-06-07 2019-08-23 腾讯科技(深圳)有限公司 一种手势动作的识别方法、装置以及设备
EP3623996A1 (en) * 2018-09-12 2020-03-18 Aptiv Technologies Limited Method for determining a coordinate of a feature point of an object in a 3d space
US11046320B2 (en) * 2018-12-13 2021-06-29 GM Global Technology Operations LLC System and method for initiating and executing an automated lane change maneuver
JP7290972B2 (ja) * 2019-03-27 2023-06-14 株式会社Subaru 車両の同乗者コミュニケーション装置
CN111746273A (zh) * 2019-03-28 2020-10-09 上海擎感智能科技有限公司 一种用于车载的交互方法、装置、系统及车辆
JP7183943B2 (ja) * 2019-05-09 2022-12-06 トヨタ自動車株式会社 ステアリングモジュール
GB2586857B (en) * 2019-09-06 2023-10-11 Bae Systems Plc User-Vehicle Interface
WO2021044116A1 (en) * 2019-09-06 2021-03-11 Bae Systems Plc User-vehicle interface
DE102019215290A1 (de) * 2019-10-04 2021-04-08 Brose Fahrzeugteile Se & Co. Kommanditgesellschaft, Bamberg Verfahren zum Betrieb einer Eingabevorrichtung eines Kraftfahrzeugs
DE102019131944A1 (de) * 2019-11-26 2021-05-27 Audi Ag Verfahren zur Steuerung zumindest einer Anzeigeeinheit, Kraftfahrzeug und Computerprogrammprodukt
CN111045521A (zh) * 2019-12-27 2020-04-21 上海昶枫科技有限公司 汽车电子装置控制系统及控制方法
CN112215198A (zh) * 2020-10-28 2021-01-12 郑小云 一种基于大数据的自适应人机交互系统与方法
US11507194B2 (en) * 2020-12-02 2022-11-22 Huawei Technologies Co., Ltd. Methods and devices for hand-on-wheel gesture interaction for controls

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005250785A (ja) * 2004-03-03 2005-09-15 Nissan Motor Co Ltd 車両用操作入力装置および方法
JP2009252105A (ja) * 2008-04-09 2009-10-29 Denso Corp プロンプター式操作装置
US20130076615A1 (en) * 2010-11-18 2013-03-28 Mike Iao Interface method and apparatus for inputting information with air finger gesture
WO2014095070A1 (en) * 2012-12-21 2014-06-26 Harman Becker Automotive Systems Gmbh Input device for a motor vehicle

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19952854C1 (de) * 1999-11-03 2001-08-09 Bosch Gmbh Robert Assistenzvorrichtung in einem Fahrzeug
WO2006109476A1 (en) * 2005-04-05 2006-10-19 Nissan Motor Co., Ltd. Command input system
DE102005038678A1 (de) * 2005-08-16 2007-02-22 Ident Technology Ag Erfassungssystem, sowie diesem unterlegtes Erfassungsverfahren
DE102007001266A1 (de) * 2007-01-08 2008-07-10 Metaio Gmbh Optische Anordnung, insbesondere für ein Head-Up-Display
DE102008048825A1 (de) * 2008-09-22 2010-03-25 Volkswagen Ag Anzeige- und Bediensystem in einem Kraftfahrzeug mit nutzerbeeinflussbarer Darstellung von Anzeigeobjekten sowie Verfahren zum Betreiben eines solchen Anzeige- und Bediensystems
US8775023B2 (en) * 2009-02-15 2014-07-08 Neanode Inc. Light-based touch controls on a steering wheel and dashboard
WO2012050573A1 (en) * 2010-10-13 2012-04-19 Hewlett-Packard Development Company, L.P. Dashboard display method and apparatus
JP5617581B2 (ja) * 2010-12-08 2014-11-05 オムロン株式会社 ジェスチャ認識装置、ジェスチャ認識方法、制御プログラム、および、記録媒体
US8782566B2 (en) * 2011-02-22 2014-07-15 Cisco Technology, Inc. Using gestures to schedule and manage meetings
DE102011112568B4 (de) * 2011-09-08 2015-11-19 Daimler Ag Bedienvorrichtung für ein Lenkrad eines Kraftfahrzeugs, Lenkrad für ein Kraftfahrzeug und Kraftfahrzeug
US20130063336A1 (en) * 2011-09-08 2013-03-14 Honda Motor Co., Ltd. Vehicle user interface system
JP5546029B2 (ja) * 2011-09-30 2014-07-09 日本電信電話株式会社 ジェスチャ認識装置及びそのプログラム
JP5958876B2 (ja) * 2011-10-21 2016-08-02 スズキ株式会社 車両の入力装置
US8750852B2 (en) * 2011-10-27 2014-06-10 Qualcomm Incorporated Controlling access to a mobile device
CH705918A2 (de) * 2011-12-19 2013-06-28 Ralf Trachte Feld-Analysen für flexible Computer-Eingabe.
EP2797796A4 (en) * 2011-12-29 2015-09-16 Intel Corp SYSTEMS, METHOD AND DEVICE FOR CONTROLLING GESTURE INITIATIONS AND TERMINATIONS
JP5500560B2 (ja) * 2012-01-18 2014-05-21 三井不動産レジデンシャル株式会社 転倒防止治具およびその取付け方法
US9632612B2 (en) * 2012-02-23 2017-04-25 Parade Technologies, Ltd. Circuits, systems, and methods for processing the proximity of large objects, including large objects on touch screens
DE102012205217B4 (de) * 2012-03-30 2015-08-20 Ifm Electronic Gmbh Informationsanzeigesystem mit einer virtuellen Eingabezone
JP2013218391A (ja) * 2012-04-05 2013-10-24 Pioneer Electronic Corp 操作入力装置、操作入力方法、及び、操作入力プログラム
DE102012018685B4 (de) * 2012-05-22 2017-08-03 Audi Ag System und Verfahren zur Steuerung von zumindest einem Fahrzeugsystem mittels von einem Fahrer durchgeführter Gesten
WO2014119894A1 (en) * 2013-01-29 2014-08-07 Samsung Electronics Co., Ltd. Method of performing function of device and device for performing the method
JP6057755B2 (ja) * 2013-02-08 2017-01-11 株式会社東海理化電機製作所 ジェスチャ操作装置及びジェスチャ操作プログラム
US9122916B2 (en) * 2013-03-14 2015-09-01 Honda Motor Co., Ltd. Three dimensional fingertip tracking
WO2015062637A1 (en) * 2013-10-29 2015-05-07 Telefonaktiebolaget L M Ericsson (Publ) A method and apparatus for assigning profile data to one or more vehicle sub-systems of a vehicle, as well as an integrated circuit card and a computer program for performing the method and a vehicle with such an apparatus
JP6331567B2 (ja) * 2014-03-27 2018-05-30 株式会社デンソー 車両用表示入力装置
US9720591B2 (en) * 2014-08-20 2017-08-01 Harman International Industries, Incorporated Multitouch chording language

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005250785A (ja) * 2004-03-03 2005-09-15 Nissan Motor Co Ltd 車両用操作入力装置および方法
JP2009252105A (ja) * 2008-04-09 2009-10-29 Denso Corp プロンプター式操作装置
US20130076615A1 (en) * 2010-11-18 2013-03-28 Mike Iao Interface method and apparatus for inputting information with air finger gesture
WO2014095070A1 (en) * 2012-12-21 2014-06-26 Harman Becker Automotive Systems Gmbh Input device for a motor vehicle

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020117184A (ja) * 2019-01-28 2020-08-06 株式会社東海理化電機製作所 動作認識装置、コンピュータプログラム、および記憶媒体

Also Published As

Publication number Publication date
CN105584368A (zh) 2016-05-18
JP2016088513A (ja) 2016-05-23
US20160132126A1 (en) 2016-05-12
DE102014116292A1 (de) 2016-05-12

Similar Documents

Publication Publication Date Title
JP2018150043A (ja) 自動車における情報伝送のためのシステム
US10466800B2 (en) Vehicle information processing device
CN106427571B (zh) 交互式操纵装置和用于运行所述交互式操纵装置的方法
EP2889726B1 (en) Systems and methods for controlling multiple displays with single controller and haptic enabled user interface
US9244527B2 (en) System, components and methodologies for gaze dependent gesture input control
JP5261554B2 (ja) 指先ポインティング、ジェスチャに基づく車両用ヒューマンマシンインタフェース
US10732760B2 (en) Vehicle and method for controlling the vehicle
CN108430819B (zh) 车载装置
US9939912B2 (en) Detection device and gesture input device
CN110740896B (zh) 用于运输工具的用户界面以及具有用户界面的运输工具
US10627913B2 (en) Method for the contactless shifting of visual information
KR102084032B1 (ko) 사용자 인터페이스, 운송 수단 및 사용자 구별을 위한 방법
US9446712B2 (en) Motor vehicle comprising an electronic rear-view mirror
JP2007106353A (ja) 車両用情報表示装置及び車両用情報表示システム
CN112384403B (zh) 用于运行显示操作设备的方法、显示操作设备以及机动车
US20140168068A1 (en) System and method for manipulating user interface using wrist angle in vehicle
WO2018022329A1 (en) Detecting user interactions with a computing system of a vehicle
JP2018055614A (ja) ジェスチャ操作システム、ジェスチャ操作方法およびプログラム
KR101806172B1 (ko) 차량 단말기 조작 시스템 및 그 방법
JP6414420B2 (ja) 車載機器操作装置
WO2018116565A1 (ja) 車両用情報表示装置及び車両用情報表示プログラム
US20190018556A1 (en) Vehicular control unit
JP2009190675A (ja) 車両用操作装置
JP2017197015A (ja) 車載用情報処理システム
WO2017188098A1 (ja) 車載用情報処理システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181105

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190930

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200106

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200511