JP2019169128A - マンマシンインタフェースを操作する方法並びにマンマシンインタフェース - Google Patents

マンマシンインタフェースを操作する方法並びにマンマシンインタフェース Download PDF

Info

Publication number
JP2019169128A
JP2019169128A JP2019000301A JP2019000301A JP2019169128A JP 2019169128 A JP2019169128 A JP 2019169128A JP 2019000301 A JP2019000301 A JP 2019000301A JP 2019000301 A JP2019000301 A JP 2019000301A JP 2019169128 A JP2019169128 A JP 2019169128A
Authority
JP
Japan
Prior art keywords
touch
gesture
control unit
man
machine interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019000301A
Other languages
English (en)
Inventor
ダーヴィト・アプト
Abt David
セーレン・レムケ
Lemcke Soeren
ニコライ・ポミトキン
Pomytkin Nikolaj
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BCS Automotive Interface Solutions GmbH
Original Assignee
BCS Automotive Interface Solutions GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BCS Automotive Interface Solutions GmbH filed Critical BCS Automotive Interface Solutions GmbH
Publication of JP2019169128A publication Critical patent/JP2019169128A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/10
    • B60K35/22
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • B60K2360/143
    • B60K2360/1434
    • B60K2360/1472
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D1/00Steering controls, i.e. means for initiating a change of direction of the vehicle
    • B62D1/02Steering controls, i.e. means for initiating a change of direction of the vehicle vehicle-mounted
    • B62D1/04Hand wheels
    • B62D1/046Adaptations on rotatable parts of the steering wheel for accommodation of switches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Abstract

【課題】多数の機能への容易なアクセスを可能にすると共にスペース需要も僅かで済むようなマンマシンインタフェースを操作する方法並びにマンマシンインタフェースの提供。【解決手段】制御ユニットと、タッチセンサ式表面として形成された少なくとも一つの操作面32とを有する自動車用マンマシンインタフェース30を操作する方法であって、少なくとも一つの操作面32の少なくとも一つの任意のタッチポイント46のタッチを認識するステップと、少なくとも一つの操作面上のタッチポイントの個数が認識されるステップと、少なくとも一つのタッチポイントが行う一つのジェスチャーが認識されるステップと、認識されたジェスチャー及び認識されたタッチポイントの個数に応じて制御ユニットによって一つの機能が実行されるステップとを含む。【選択図】図2b

Description

本発明は自動車用マンマシンインタフェースを操作する方法並びに自動車用マンマシンインタフェースに関する。
自動車用マンマシンインタフェースは公知に属し、タッチセンサ式表面の採用がますます多くなっている。ただし、タッチセンサ式表面の当該操作は、ボタン操作に比較して、ユーザにそれまで以上の注意力を要求し、このことがユーザの注意力の逸脱、特に、交通状況からの注意の逸脱を結果することになる。
こうした理由から、重要な機能又は使用頻度の高い機能は、自動車のマンマシンインタフェースのそれぞれ一つ一つの別々のボタンによって達成可能とされる。ただし、それぞれの機能向けに一つの専用のボタンが設けられていなければならないために、当該スペース需要が高まることになる。
そこで、本発明の目的は、多数の機能への容易なアクセスを可能にすると共に、スペース需要も僅かで済むような、マンマシンインタフェースを操作する方法並びにマンマシンインタフェースを提供することである。
上記目的は、制御ユニットと、タッチセンサ式表面として形成された少なくとも一つの操作面とを有する自動車用マンマシンインタフェースを操作する方法であって、
以下の当該ステップすなわち
a)少なくとも上記一つの操作面の少なくとも一つの任意のタッチポイントのタッチが認識されるステップと、
b) 少なくとも上記一つの操作面上のタッチポイントの当該個数が認識されるステップと、
c)少なくとも上記一つのタッチポイントが行う一つのジェスチャーが認識されるステップと、
d)認識された当該ジェスチャー及び認識されたタッチポイントの当該個数に応じて、上記制御ユニットによって一つの機能が実行されるステップと
を含んでなる方法によって達成される。
このようにして、非常に多くのさまざまな機能への非常に容易かつ直感的なアクセスが可能である。さまざまな当該ジェスチャーは、自動車乗員に、常用の器具とりわけスマートフォンから知られている。一つのジェスチャーの当該実施によって実行可能な当該機能の数は、タッチポイントの当該個数の当該認識によって増倍される。当該同一の操作面を経てさまざまな機能が達成可能であることから、当該所要スペースは僅かである。
その際、当該機能とは、例えばメディア出力の制御、ナビゲーションシステムの制御又は電話の制御等の自動車コンポーネントの制御機能である。例えば、当該機能により、現下の当該音楽再現を中断し、当該音量を変更し又は当該ナビゲーションを中止することができる。
好ましくは、上記制御ユニットは、少なくとも上記一つのタッチポイントが一本の指によるタッチに対応しているか否か及び対応している当該タッチポイントが何個であるかを検知し、その際、一本の指によるタッチに対応しているタッチポイントのみが顧慮される。これによって、例えば当該母指球による当該操作面の不注意なタッチは無視され、こうして、当該マンマシンインタフェースの当該操作はいっそう簡易化される。一本のタッチペン又は同様な補助手段によるタッチは1本の指によるタッチと同等に扱われることが可能である。
例えば、少なくとも上記一つの操作面の複数の任意のタッチポイントのタッチが認識され、その際、当該ジェスチャーは当該すべてのタッチポイントを用いて行われ、かつ、行われた当該ジェスチャーは、それがすべてのタッチポイントを用いて行われた場合にのみ、顧慮される。とりわけ、当該ジェスチャーは、それがすべてのタッチポイントを用いて行われる場合にのみ、顧慮される。このようにして、誤操作を効果的に防止することができる。
本発明の一態様において、上記制御ユニットはさまざまなジェスチャーを認識するように装備され、その際、さまざまなジェスチャーにはさまざまな機能が対応させられており、これによって、速やかに達成可能な機能の当該数をいっそう増加させることができる。上記制御ユニットが認識し得るさまざまな当該ジェスチャーは、使用可能なジェスチャーとも称される。とりわけ、各々のジェスチャーにはそれぞれ異なった一つの機能が対応させられている。
好ましくは、さまざまな当該ジェスチャーに対応させられている一連の当該機能は一つの機能セットを表し、その際、使用される当該機能セットは、少なくとも上記一つの操作面上において認識された上記タッチポイントの当該個数及び/又は共同して当該ジェスチャーを行う認識された上記タッチポイントの当該個数に応じて、セレクトされる。これによって、当該マンマシンインタフェースの当該操作をさらに簡易化することが可能である。
その際、一つの機能セットは複数の機能、とりわけ、上記制御ユニットが認識し得るジェスチャーの当該数と同じだけの数の機能を含んでいる。
当該一連の機能セットは、特に、さまざまな自動車コンポーネントに対応させられていてよく、例えば、当該ナビゲーションシステムを操作するための一つの機能セット、当該電話を操作するための別の一つの機能セットが設けられている。
本発明の一態様において、いずれの指(単数/複数)で上記操作面が操作されるかが認識され、その際、当該機能及び/又は当該機能セットは使用された指(単数/複数)に応じてセレクトされ、これによって、単一のジェスチャーによって実行可能な当該機能はさらに増加させられることになる。
例えば、上記操作面を操作する当該手が認識され、その際、当該機能及び/また当該機能セットは使用された当該手に応じてセレクトされる。このようにして、速やかに達成可能な機能の当該数も増加させることが可能である。
加えてさらに、例えば、当該ドライバーが上記操作面を操作するのかそれとも当該助手席同乗者が操作するのかを検知するために、当該操作面が右手で使用されるかそれとも左手で使用されるかを識別することが可能である。
好ましくは、一つのジェスチャーは少なくとも上記一つのタッチポイントの所定の一方向への運動によって行われ及び/又は一つのジェスチャーは少なくとも上記一つのタッチポイントの第一の所定の方向及び続いての第二の所定の方向への運動によって行われ、これによって、当該ジェスチャーの容易な、ただし明確な認識が可能である。例えば、上記第一と第二の所定の方向は互いに逆向きであるか又は互いに垂直をなしている。
一実施形態において、上記所定の方向とは、上記操作面に対して所定の方向である。
別法として又はさらに加えて、上記制御ユニットは、当該タッチポイント相互の当該ポジションに基づいてユーザの当該手の当該位置を検知し、その際、上記所定の方向とは当該手の当該位置に対して所定の方向である。
多数のジェスチャーを供し得るようにすべく、一つのジェスチャーは、当該タッチポイントが短時間だけ消失若しくは当該タッチポイントを生み出す当該指が短時間だけ引き離されて、再び基本的に同じ箇所に置かれることによって行われる。
例えば、さらにその他のジェスチャーが、多数回に及ぶ消失ないし引き離し並びに再度の載置によって行われることも思量可能である。また、さまざまなジェスチャーを、新たなタッチまでに経過した時間によって識別することも可能である。
本発明のさらに別の実施形態において、当該機能及び/又は当該機能セットは、当該ユーザの注意力の逸脱をできるだけ少なくすべく、上記操作面から空間的に切り離された出力スクリーン上に表示される。
当該出力は、少なくとも上記一つの操作面の少なくとも一つの任意のタッチポイントのタッチが認識されるや直ちに及び/又は少なくとも上記一つの操作面をタッチするタッチポイントの当該個数が認識されるや直ちに、例えば使用可能な当該ジェスチャーと共に行われことができる。
さらに、上記目的は、タッチセンサ式表面として形成された少なくとも上記一つの操作面と、本発明による方法を実施するべく装備された制御ユニットとを有し、少なくとも上記一つの操作面はデータ伝送のために上記制御ユニットと接続されているように構成した自動車用マンマシンインタフェースによって達成される。
好ましくは、上記マンマシンインタフェースは、上記操作面及び/又は上記操作面の設けられた自動車部品から空間的に切り離されて配置された出力スクリーンを有し、認識された当該ジェスチャー及び認識されたタッチポイントの当該個数に応じて上記制御ユニットによって実行される当該機能、使用可能な当該ジェスチャー及び/又は当該機能セットが上記出力スクリーンに表示される。これによって、上記マンマシンインタフェースの当該操作はさらに簡易化される。
一態様において、上記マンマシンインタフェースは少なくとも一つの自動車部品を有し、その際、上記操作面は少なくとも上記一つの自動車部品に配置され、とりわけ、複数の自動車部品が設けられ、その際、複数の操作面がさまざまな自動車部品に配置されている。これによって、当該ユーザはますます容易に上記操作面に達することができる。
複数の上記操作面は、一つのシートとりわけ当該ドライバーシートの異なった側に設けられていてよい。
好ましくは、複数の上記操作面は同一の機能性を有する。
例えば、上記操作面は、それぞれの当該自動車部品の当該表面積の少なくとも50%、とりわけ少なくとも75%に及んでいる。
上記操作面は当該自動車部品の装飾面の下に配置されていてよく、これによって、当該装飾面はタッチセンサ式表面の一部となる。
別法として又はさらに加えて、上記操作面及び/又は上記自動車部品は、触覚的フィードバックのための一つの機械式フィードバック素子を有していてよく、とりわけ、振動モータ、圧力抵抗及び/又は超音波源を有していてよい。
例えば、上記操作面の容易な操作を可能とすべく、上記自動車部品は、ハンドルホイール、シート、ジョイスティック、ドアパネル、アームレスト、センタコンソールの一部、インストルメントパネルの一部及び/又はオーバヘッドパネルの一部である。
本発明のその他の特徴及び利点は、以下の当該説明並びに参照される当該添付図面から判明する通りである。各図は以下を示している。
本発明によるマンマシンインタフェースを備えた自動車コックピットの斜視図である。 当該マンマシンインタフェースの操作面の領域における、図1aに示した当該コックピットの一部の概略的な断面図である。 本発明による方法を具体的に示す図である。 本発明による方法を具体的に示す図である。 本発明による方法を具体的に示す図である。 本発明による方法を具体的に示す図である。 本発明による方法を具体的に示す図である。 本発明による方法を具体的に示す図である。 本発明による方法を具体的に示す図である。 本発明による方法を具体的に示す図である。 本発明による方法を具体的に示す図である。
図1aには、自動車のコックピットが表されている。
当該コックピットは、通例、さまざまな自動車部品10―例えば、ハンドルホイール12、ドライバーシート14、助手席同乗車シート16、ドアパネル18、アームレスト20、インストルメントパネル22、センタコンソール24及びオーバヘッドパネル26―を有している。
当該コックピットには、さらに、ジョイスティック28が設けられていてよい。
さらに、当該コックピットは、図示実施例において、複数のタッチセンサ式表面として形成された複数の操作面32、少なくとも一つの制御ユニット34及び複数の出力スクリーン36を含んだマンマシンインタフェース30を有している。
当該制御ユニット34は、当該出力スクリーン36及び当該操作面32と、データ伝送のために接続されている。これは、有線又は無線で、行われることができる。
出力スクリーン36として、図1aには、インストルメントパネル22に二つのスクリーン37.1、37.2が設けられていると共に、ヘッドアップディスプレイ38(HUD)のスクリーンが同じく出力スクリーン36として設けられている。
図示実施例において、当該マンマシンインタフェース30は、当該自動車部品10のさまざまな部品に十一箇所の操作面32を有している。当該操作面32が設けられている当該自動車部品10は、したがって、当該マンマシンインタフェース30の一部である。
ただし、上記操作面32の上記の数は、一例として理解されなければならない。当該マンマシンインタフェース30は、同じく、当該自動車部品10のいずれか一つの部品の一つの操作面32のみで構成されているか又はその他の任意の数の操作面32で構成されていてもよい。
図示実施形態において、当該ドライバー側ドアないし当該助手席同乗者側ドアのそれぞれ一枚のドアパネル18又はそれに付属するアームレスト20に操作面32が配置されている。
同じく、ドライバー領域のオーバヘッドパネル26にも一つの操作面32が配置されている。
さらに別の操作面32がハンドルホイール12に設けられており、その際、図1aにおいて、当該操作面32は当該ハンドルホイール12の当該前面に表されている。当該操作面32が当該ハンドルホイール12の背面にまで延びあるいはそれが同所にのみ形成されているのも可能でありかつ有用である。
さらに、インストルメントパネル22に一つの操作面32が設けられ、センタコンソール24に一つのそれが設けられている。
また、操作面32はドライバーシート14と助手席同乗者シート16に設けられて、特に、シートの位置調節に使用される。具体的に分かりやすく図示すべく、これらの操作面は当該シート14、16の表側に表されている。ただし、これらは、当該シート14、16の横側の、当該シート位置調節装置の公知のポジションに位置していてもよい。
当該ジョイスティック28には、少なくとも一つの操作面32も設けられている。例えば、ジョイスティック28の当該操作面32は、当該ジョイスティック28の、ユーザの指先が密接し得る箇所に設けられたさまざまな領域に配分されている。
具体的に分かりやすく図示すべく、上述した操作面32は、それぞれ空間的に非常に限定されて表されている。言うまでもなく、当該操作面32はもっとずっと大きくてもよく、それぞれの当該自動車部品10の当該表面積の例えば少なくとも50%、とりわけ少なくとも75%を占めていてもよい。この場合、考慮されているのは、当該それぞれの自動車部品10の当該車内側の表面積のみである。
例えば、当該操作面32は、大きな操作面32を視覚的にアピールするようにして実現し得るように、それぞれの当該自動車部品10の装飾表面の上側又は下側に設けられていてよい。当該操作面32はタッチセンサ式フィルムを含むことができる。
当該操作面32の少なくとも一つは、当該出力スクリーン36の一つと共に、タッチディスプレイとして形成されていてよいことは言うまでない。
図1bには、一例として、一つの自動車部品10に設けられた一つの操作面32の断面が表されている。
図示実施例において、当該操作面32は、当該自動車部品10に直接取り付けられているわけではなく、当該操作面の下側に、光学素子40―この場合、さらに別のスクリーン―が設けられている。ただし、当該光学素子40はLEDマトリックス又は個々のLEDであってもよい。
当該スクリーンと当該操作面32とは共同して、例えばスマートフォン又はタブレットから公知の、タッチセンサ式タッチディスプレイを形成する。操作面32と光学素子40の順序は入れ替えられ及び/又は加えてさらに保護層が当該外側面に設けられることも思量可能であることは言うまでない。
さらに、当該操作面32と当該自動車部品10との間には機械式フィードバック素子42が設けられている。それは、図示実施例において、当該操作面32を振動させることのできる振動モータである。
当該機械式フィードバック素子42は、(例えばキーボードの)プッシュキーから公知のタイプの圧力抵抗であることも思量可能である。当該圧力抵抗は、当該操作面32のプッシュ時に触覚的フィードバックを供するために、機械式反力による一定の圧点を生み出すことができる。
ただし、当該機械式フィードバック素子42は、当該操作面32のプッシュ時に触覚的フィードバックを供するために、ユーザの当該指の方向に超音波を発射する超音波源であることも思量可能である。
図2aから図2c、図3aから図3c及び図4aから図4cには、当該マンマシンインタフェース30を操作する方法を説明するために、概略的に、当該操作面32の一つ(下)並びに当該出力スクリーン36の当該ディスプレイの一部(上)が表されている。
図2aから図2cに示した当該状況において、当初は、当該操作面32はタッチされず、当該出力スクリーン36にも情報の出力は行われていない(図2a)。
さて、ユーザが、図2bに示したように、同人の手44の二本の指を当該操作面32上に載置すると、同人は当該二本の指で同時に当該操作面32をタッチしたこととなり、これによって、二つの異なったタッチポイント46が生み出される。
当該ユーザは同人の手を当該操作面32の任意のどの箇所にも置くことができあるいは同人の指で当該操作面32の任意のどの箇所もタッチすることが可能であり、本方法がこれによって妨げられるようなことはない。
当該操作面32への当該指の当該タッチないし当該タッチポイント46は、当該制御ユニット34によって認識され、その際、当該制御ユニット34は、タッチポイント46の当該個数も検知する。
その際、当該制御ユニット34は、指による当該タッチに由来するタッチないしタッチポイント46のみを顧慮する。タッチポイント46が指によって生み出されたか否かの認識は、例えば、当該タッチポイント46相互の当該位置の解析によって行うことができるが、というのもそれは、当該タッチポイント46相互の当該位置は人体の解剖学的構造によって定まっているからである。
当該タッチポイント46の当該大きさも決定的であり得る。こうして、例えば、手44の当該母指球による当該操作面32の当該タッチを認識すると共に、それを無視することができる。
これにより、当該制御ユニット34は、当該タッチポイント46がいずれの指で生み出されたかも認識することができる。
また、当該制御ユニット34が、当該操作面32が左手で操作されるか又は右手で操作されるかを認識することも思量可能である。
当該制御ユニット34が当該タッチポイント46の当該個数―それゆえ、この場合、二つのタッチポイント46―を認識すると、該制御ユニットは、当該タッチポイント46の当該数に対応した、例えば、当該制御ユニット34のメモリに格納されている一つの機能セットを選択する。
一つの機能セットは、対応する当該機能がそれによって実行可能なそれぞれ一つのジェスチャーに対応した複数の機能を含んでいる。
本発明の範囲において、一つのジェスチャーは、当該操作面32又は当該ユーザの手44の配向に対する所定の方向への当該タッチポイント46の一つの相対運動から形成されている。また、一つのジェスチャーは、方向転換を含む複雑な運動例えばジグザグ運動、回転運動等を含むことができる。
ただし、本発明の範囲において、例えば、対応する当該指が、その間、当該操作面32から持ち上げられ、続いて、当該指がそこから持ち上げられたのと基本的に同じ箇所に再び載置されたために、当該タッチポイント46の一つが一定の時間だけ存在しなかった類の運動も一つのジェスチャーに該当する。
一定の当該タッチポイント46から指が引き離され、新たなタッチによって再び当該タッチポイントが生み出される当該頻度又は当該指が当該操作面32上に新たに載置されるまでの当該時間は、当該ジェスチャーの一部であってよく、これらをさまざまなジェスチャーの区別に援用することが可能である。
例えば、以下のジェスチャーを区別することができる。タップ(“Tap”)、ダブルタップ(“Double‐Tap”)、タップアンドホールド(“Tap‐and‐Hold”)、ドラッグ(“Drag”)、スワイプ(“Swipe”)、サークル(“Circle”)及びシャッフル(“Shuffle”)。
タップに際しては、少なくとも一本の対応する当該指が当該操作面32から引き離され、その後に、短時間だけ再び当該操作面32がタップされる。ダブルタップに際しては、当該指で二回、短時間だけ続けて当該操作面32がタップされる。これによって、短時間の間に再び、当該制御ユニット34によって認識され得る少なくとも一つの当該タッチポイント46が生ずる。
タップアンドホールドに際しては、当該指は当該操作面32の当該タップの後そのままにしておかれ、その際、当該指が当該操作面32の当該タップの後、同所に所定の時間だけ保持されると、当該ジェスチャーは完全に行われたものとして認識される。
ドラッグに際しては、少なくとも一本の当該指と共に、対応する少なくとも一つの当該タッチポイント46が当該操作面32上を運動させられて、当該運動の後、当該操作面32に接触したままとされる。
スワイプはドラッグと類似しており、その際、当該指は当該運動の最後に当該操作面32から持ち上げられる。
ジェスチャー“サークル”に際しては、少なくとも一本の当該指と共に、対応する少なくとも一つの当該タッチポイント46が、当該操作面上を円を描いて運動させられる。その際、当該ジェスチャーは、早くも、当該円の一定の区間例えば半円が描かれると、認識されることができる。時計回り方向の円運動と反時計回り方向の円運動とは異なったジェスチャーであってよい。
ジェスチャー“シャッフル”に際しては、少なくとも一本の当該指と共に、対応する少なくとも一つの当該タッチポイント46が、第一の所定の方向へ運動させられ、続いて、特に当該第一の方向とは反対向きの第二の所定の方向へ運動させられる。
上述したジェスチャーは一例でしかないことは言うまでもない。さらに、もっと複雑な、例えば“L”字形のような運動経過を有するその他のジェスチャーも思量可能である。
所定の方向とは、当該操作面32の当該配向又は当該ユーザの当該手44の配向を基準にして定められている。当該ユーザの当該手44の当該配向は、当該制御ユニット34によって認識可能である。
一つの機能セット内の当該機能は、好ましくは、テーマが類似しているか又は自動車の当該同一コンポーネントに関係している。
例えば、当該空調設備の制御に使用される、当該機能セット“空調設備”の当該機能は、“目標温度の引下げ”、“ファン速度の引上げ”、“ウィンドウヒーティング”及び“空気再循環運転”の各機能を表している。
その他の機能セットは、例えば、“ナビゲーション”、“エンターテインメント”、“電話”及び“自動モード”である(図4、参照)。
図示実施例において、二つのタッチポイント46による当該操作面32のタッチは、当該制御ユニット34によって相応してセレクトされる当該機能セット“空調設備”に対応している。
当該制御ユニット34は、続いて、当該出力スクリーン36上に、認識されたタッチポイント46の当該個数を―ここでは、対応する手のアイコン50によって―表示し、セレクトされた当該機能セットを―ここでは、対応するシンボル52によって―表示する。
さらに、当該制御ユニット34により、セレクトされた当該機能セット“空調設備”に含まれている当該機能が機能シンボル54によって表示される。当該ユーザは、これらの当該機能を、二本の指によるジェスチャーによって、つまり、二つのタッチポイント46によるジェスチャーで実行ないし達成することができる。
図示実施例において、当該ユーザは、空調設備の当該目標温度を引上げようとしている。この機能“目標温度の引上げ”には、当該ジェスチャー“上方へのドラッグ”が対応している。単純化のために、本説明において、当該方向指示は当該描図面に行われている。
したがって、当該ユーザは、対応する当該ジェスチャーを、図2cに具体的に示されているようにして実行する。
図2に示した当該状況において、当該ユーザは同人の二本の指を上方へ動かし、その結果、当該二つのタッチポイント46は、同様に、当該ユーザの当該手に対して、上方への相対運動を行う。
当該制御ユニット34は、当該タッチポイント46の当該運動及び当該軌跡を検知し、こうして、実行された当該ジェスチャーを決定する。したがって、この場合、当該制御ユニット34は、当該タッチポイント46が当該所定の方向(上方)へ向かって基本的に直線を描いて運動させられた当該ジェスチャー“上方へのドラッグ”を認識する。
一つのジェスチャーは、それが、先んじて認識されたすべてのタッチポイント46によって完全に実行された場合にのみ、当該制御ユニット34によって顧慮される。この場合にのみ、対応する当該機能が当該制御ユニット34によって実行される。
このジェスチャーには当該機能“目標温度の引上げ”が対応しているために、当該制御ユニット34は当該空調設備の当該目標温度を引き上げる。
同時に、当該制御ユニット34は、当該出力スクリーン36上に目下セレクトされている当該目標温度を表示し、当該ジェスチャーの当該実行時に該表示を変更する。
当該目標温度の変更数値は、例えば、当該タッチポイント46の当該移動距離に基づいて検知することが可能である。別法として又はさらに加えて、当該数値を、当該ジェスチャー実行中の当該タッチポイント46の当該速度又は当該加速度によって検知することも可能である。
当該所望の目標温度が設定されたら、当該ユーザは同人の手を当該操作面32から引き離し、これによって、当該タッチポイント46は消失する。
当該マンマシンインタフェース30との当該対話はかくて終了し、当該制御ユニット34は、遅くともこの時点に、当該ユーザの当該入力をメモリするか又はそれを対応する当該自動車コンポーネントに引き渡す。
ただしまた、当該ユーザが直ちに続いて、例えば同人が同人指を下方へ向かって動かすことによって、さらに別のジェスチャーを実行することも思量可能である。このジェスチャー、つまり“下方へのドラッグ”には、機能として、当該空調設備の当該目標温度の引下げが対応している。当該制御ユニット34は、当該運動に応じて、当該目標温度を適合化し、当該温度値を当該出力スクリーン36を経て出力する。
したがって、当該ユーザには、同人が当該二本の指で当該目標温度のためのスクロールバーを動かしているかのようなイリュージョンが生ずる。
その他の機能例えば“ファン速度の引上げ”及び“ファン速度の引下げ”は、例えば、当該手44に対する横方向への運動、したがって、ジェスチャー“右方向へのドラッグ”ないし“左方向へのドラッグ”に対応している。
また、当該ジェスチャー“時計回り方向の円運動”及び“反時計回り方向の円運動” によって、当該機能“ウィンドウヒーティング”ないし“空気再循環運転”が達成されるようにすることも思量可能である。
当該ユーザは、こうして、一つの個別のジェスチャーで、まったく意図的に一つの特定の機能を実行することができる。
図示実施例において、当該機能ないし当該機能セットは、当該タッチポイント46の当該個数つまり使用された指の当該本数に基づいてセレクトされた。別法として又はさらに加えて、当該機能ないし当該機能セットは、当該制御ユニット34によって、いずれの指が使用されるかに応じてセレクトされることも可能である。
当該制御ユニット34は、当該ドライバー又は当該助手席同乗者向けに異なった機能を供することができるように、当該操作面32が左手で操作されるか又は右手で操作されるかに応じて、当該機能ないし当該機能セットをセレクトすることもできることは言うまでもない。
図3aから図3cに示した当該状況において、当該ドライバーは、今や、現下の当該通話を一つのジェスチャーで終了させようとしている。さしあたり、図3aに示したように、当該操作面32上にはなんらのタッチないしタッチポイント46も存在していない。当該機能“通話断”は、それが三つのタッチポイント46で行われる場合のジェスチャー“シャッフル”に対応している。
したがって、当該ユーザは、通話断のために、同人の手44の三本の指で、当該操作面32の任意の箇所をタッチし(図3b)、これによって、当該機能セット“電話”がセレクトされる。続いて、当該ユーザは、当該操作面32上で同人の三本の指を短時間右方へ、その後、当該反対方向へ、つまり、当該手44に対して左方へ運動させる。
当該制御ユニット34は、当該ジェスチャー“シャッフル”を認識し、当該ジェスチャーに対応する当該機能を実行する。それは、この場合、当該ユーザによって所望されている電話通話の終了である。
その間に、当該ユーザは、当該出力スクリーン36を経て、視覚的フィードバックを得る。
図4aから図4cに示した当該状況において、当該出力スクリーン36に表示されるメニューにおいて、ナビゲーションのための当該ジェスチャーが使用される。
図4aに示した当該状況において、当該ユーザは、同人がさまざまな自動車コンポーネントを選択し得るメニューを前にしている。当該自動車コンポーネントはさまざまなシンボル56によって表され、その際、図4aに示した当該状況において、当該シンボル“メインメニュー”がカーソルによってマークされている。
ところで、当該ユーザは当該メニュー“電話通信”を利用しようとしており、その際、当該カーソルの当該運動は一本の指のジェスチャーによって達成される。
したがって、当該ユーザは一本の指を当該操作面32上に置き、当該操作面32上でその指を右方へ運動させる。
したがって、当該ユーザは、一本の指で当該ジェスチャー“右方へのスワイプ”を実行する。これによって、対応する当該タッチポイント46は、対応する当該ジェスチャーを行う。このジェスチャーには、一つのメニューポイントをセレクトするために当該カーソルが右方へ運動させられるという当該機能が対応している。
したがって、当該制御ユニット34はこの機能を実行し、当該カーソルは最終的に、図4bに示すように、当該空調設備のための当該シンボル56上に位置している。
その後、当該ユーザは、同人指を下方へ運動させるため、当該タッチポイント46も下方へ運動させられる。
こうして、当該タッチポイント46は、さらに別のジェスチャーつまり“下方へのスワイプ”を行う。このジェスチャーには、当該カーソルの下方への運動が対応している。
これに応じて、当該制御ユニット34は、当該カーソルを下方の、当該自動車コンポーネント“電話”のシンボル上に運動させる。
当該ユーザは、今や、同人所望のこの自動車コンポーネントをセレクトしようとし、そのために、同人指を短時間だけ当該操作面32から引き離して、その指を再び同じ当該箇所に置く。
これによって、当該タッチポイント46は、当該機能“セレクト”に対応する当該ジェスチャー“タップ”を行う。したがって、当該制御ユニット34は当該自動車コンポーネント“電話通信”をセレクトする。
別法として又はさらに加えて、当該機能“セレクト”は、他のジェスチャー例えばジェスチャー“タップアンドホールド”のように一箇所に指が長く置かれるジェスチャーに対応させられていてもよい。
図2から図4に示した当該状況は、別々の実施形態として理解されるには及ばず、単に、当該マンマシンインタフェース30の利用中におけるさまざまな状況を表しているにすぎない。ただし、これらの状況及び機能は単なる例示として理解されなければならない。
例えば、当該ユーザは、図4に示したナビゲーション中に、図2に示した二本の指を使用したジェスチャーによって、当該空調設備の当該目標温度を設定し、続いて、同人ナビゲーションを図4に示したように続行することが可能である。したがって、当該ジェスチャーは当該機能への高速アクセスを表している。

Claims (15)

  1. 制御ユニット(34)と、タッチセンサ式表面として形成された少なくとも一つの操作面(32)とを有する自動車用マンマシンインタフェース(30)を操作する方法であって、
    以下の当該ステップすなわち
    a)少なくとも前記一つの操作面(32)の少なくとも一つの任意のタッチポイント(46)のタッチが認識されるステップと、
    b)少なくとも前記一つの操作面(32)上のタッチポイント(46)の当該個数が認識されるステップと、
    c)少なくとも前記一つのタッチポイント(46)が行う一つのジェスチャーが認識されるステップと、
    d)認識された前記ジェスチャー及び認識されたタッチポイント(46)の前記当該個数に応じて、前記制御ユニット(34)によって一つの機能が実行されるステップと
    を含んでなる方法。
  2. 前記制御ユニット(34)は、少なくとも前記一つのタッチポイント(46)が一本の指によるタッチに対応しているか否か及び対応している当該タッチポイントが何個であるかを検知し、その際、一本の指によるタッチに対応しているタッチポイント(46)のみが顧慮されることを特徴とする、請求項1に記載の方法。
  3. 少なくとも前記一つの操作面(32)の複数の任意のタッチポイント(46)のタッチが認識され、その際、当該ジェスチャーは当該すべてのタッチポイント(46)を用いて行われ、かつ、行われた当該ジャスチャーは、それがすべてのタッチポイント(46)を用いて行われた場合にのみ、顧慮されることを特徴とする、請求項1又は2に記載の方法。
  4. 前記制御ユニット(34)はさまざまなジェスチャーを認識するように装備され、その際、さまざまなジェスチャーにはさまざまな機能が対応させられていることを特徴とする、請求項1から3のいずれか一項に記載の方法。
  5. 前記さまざまなジェスチャーに対応させられている当該機能は一つの機能セットを表し、その際、使用される当該機能セットは、少なくとも前記一つの操作面(32)上において認識された前記タッチポイント(46)の当該個数及び/又は共同して当該ジェスチャーを行う認識された前記タッチポイント(46)の当該個数に応じて、セレクトされることを特徴とする、請求項1から4のいずれか一項に記載の方法。
  6. 前記操作面(32)がいずれの指(単数/複数)で操作されるかが認識され、その際、当該機能及び/又は当該機能セットは使用された当該指(単数/複数)に応じてセレクトされることを特徴とする、請求項1から5のいずれか一項に記載の方法。
  7. 前記操作面(32)を操作する当該手(44)が認識され、その際、当該機能及び/又は当該機能セットは使用された当該手(44)に応じてセレクトされることを特徴とする、請求項1から6のいずれか一項に記載の方法。
  8. 一つのジェスチャーは所定の方向への少なくとも前記一つのタッチポイント(46)の一つの運動によって行われ及び/又は一つのジェスチャーは第一の所定の方向及び続いての第二の所定の方向への少なくとも前記一つのタッチポイント(46)の一つの運動によって行われることを特徴とする、請求項1から7のいずれか一項に記載の方法。
  9. 前記所定の方向は前記操作面(32)に対して所定であり及び/又は前記制御ユニット(34)は、前記タッチポイント(46)相互の当該ポジションに基づいて、ユーザの当該手(44)の当該位置を検知し、前記所定の方向は当該手(44)の当該位置に対して所定であることを特徴とする、請求項8に記載の方法。
  10. 一つのジェスチャーは―前記タッチポイント(46)が短時間だけ消失させられ、基本的に同一の当該箇所に再び設定されることによって―行われることを特徴とする、請求項1から9のいずれか一項に記載の方法。
  11. 前記機能及び/又は前記機能セットは、前記操作面(32)から空間的に切り離されて、出力スクリーン(36)上に表示されることを特徴とする、請求項1から10のいずれか一項に記載の方法。
  12. タッチセンサ式表面として形成された少なくとも一つの操作面(32)と、請求項1から11のいずれか一項に記載の方法を実施するべく装備された制御ユニット(34)とを有し、少なくとも前記一つの操作面(32)はデータ伝送のために前記制御ユニット(34)と接続されているように構成した自動車用マンマシンインタフェース。
  13. 前記マンマシンインタフェースは、前記操作面(32)及び/又は前記操作面(32)の設けられた自動車部品から空間的に切り離されて配置された出力スクリーン(36)を有し、認識された当該ジェスチャー及び認識されたタッチポイント(46)の当該個数に応じて前記制御ユニット(34)により実行される当該機能、使用可能な当該ジェスチャー及び/又は当該機能セットが前記出力スクリーン(36)に表示されることを特徴とする、請求項12に記載のマンマシンインタフェース。
  14. 前記マンマシンインタフェースは、少なくとも一つの自動車部品(10、12、14、16、18、20、22、24、26、28)を有し、前記操作面(32)は少なくとも前記一つの自動車部品(10、12、14、16、18、20、22、24、26、28)に配置され、とりわけ、複数の自動車部品(10、12、14、16、18、20、22、24、26、28)が設けられて、複数の操作面(32)がさまざまな自動車部品(10、12、14、16、18、20、22、24、26、28)に配置されていることを特徴とする、請求項12又は13に記載のマンマシンインタフェース。
  15. 前記自動車部品(10)は、ハンドルホイール(12)、シート(14、16)、ジョイスティック(28)、ドアパネル(18)、アームレスト(20)、センタコンソール(24)の一部、インストルメントパネル(22)の一部及び/又はオーバヘッドパネル(26)の一部であることを特徴とする、請求項14に記載のマンマシンインタフェース。
JP2019000301A 2018-01-05 2019-01-04 マンマシンインタフェースを操作する方法並びにマンマシンインタフェース Pending JP2019169128A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102018100197.5 2018-01-05
DE102018100197.5A DE102018100197A1 (de) 2018-01-05 2018-01-05 Verfahren zum Betreiben einer Mensch-Maschinen-Schnittstelle sowie Mensch-Maschinen-Schnittstelle

Publications (1)

Publication Number Publication Date
JP2019169128A true JP2019169128A (ja) 2019-10-03

Family

ID=64755303

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019000301A Pending JP2019169128A (ja) 2018-01-05 2019-01-04 マンマシンインタフェースを操作する方法並びにマンマシンインタフェース

Country Status (5)

Country Link
US (1) US20190212910A1 (ja)
EP (1) EP3508968A1 (ja)
JP (1) JP2019169128A (ja)
CN (1) CN110058773A (ja)
DE (1) DE102018100197A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10780909B2 (en) * 2018-08-03 2020-09-22 Tesla, Inc. User interface for steering wheel
JP7205236B2 (ja) * 2019-01-08 2023-01-17 トヨタ自動車株式会社 リモート走行システム及びリモート走行アプリケーションソフト
US11708104B2 (en) 2020-02-19 2023-07-25 Kuster North America, Inc. Steering wheel mounted display assembly retaining upright orientation regardless of rotated position
DE102020202918A1 (de) 2020-03-06 2021-09-09 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und System zur Ansteuerung wenigstens einer Funktion in einem Fahrzeug
DE102020208289A1 (de) 2020-07-02 2022-01-05 Volkswagen Aktiengesellschaft Benutzerschnittstelle eines Fahrzeugs

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4702959B2 (ja) * 2005-03-28 2011-06-15 パナソニック株式会社 ユーザインタフェイスシステム
US10437459B2 (en) * 2007-01-07 2019-10-08 Apple Inc. Multitouch data fusion
JP2008217548A (ja) * 2007-03-06 2008-09-18 Tokai Rika Co Ltd 操作入力装置
US9041660B2 (en) * 2008-12-09 2015-05-26 Microsoft Technology Licensing, Llc Soft keyboard control
DE102009059869A1 (de) * 2009-12-21 2011-06-22 Volkswagen AG, 38440 Verfahren zum Bereitstellen einer Benutzerschnittstelle und Bedienvorrichtung
GB2524442A (en) * 2013-02-08 2015-09-23 Motorola Solutions Inc Method and apparatus for managing user interface elements on a touch-screen device
DE102014213024A1 (de) * 2014-07-04 2016-01-07 Bayerische Motoren Werke Aktiengesellschaft Bedieneinrichtung für ein Kraftfahrzeug, Bediensystem sowie Verfahren zum Betreiben einer Bedieneinrichtung
DE102015219435A1 (de) * 2015-10-07 2017-04-13 Continental Automotive Gmbh Verwendung der Abstandsinformation von Berührkoordinaten bei Multi-Touch-Interaktion zur Unterscheidung zwischen verschiedenen Anwendungsfällen

Also Published As

Publication number Publication date
DE102018100197A1 (de) 2019-07-11
US20190212910A1 (en) 2019-07-11
CN110058773A (zh) 2019-07-26
EP3508968A1 (de) 2019-07-10

Similar Documents

Publication Publication Date Title
JP2019169128A (ja) マンマシンインタフェースを操作する方法並びにマンマシンインタフェース
US10936108B2 (en) Method and apparatus for inputting data with two types of input and haptic feedback
JP6935164B2 (ja) 車両の中で触覚フィードバックを用いるジェスチャー・ベースの入力システム
KR101500130B1 (ko) 스티어링 휠에 설치된 차량용 제어장치
JP2020506476A (ja) マンマシンインタフェースの操作方法並びにマンマシンインタフェース
US20140304636A1 (en) Vehicle's interactive system
JP6614087B2 (ja) 車両用操作装置
JP2013097513A (ja) 車両用入力装置
KR102355683B1 (ko) 차량의 그래픽 사용자 인터페이스의 조립체 및 차량에 그래픽 사용자 인터페이스를 제공하는 방법
JP2019153283A (ja) マンマシンインタフェースを操作する方法並びにマンマシンインタフェース
US10802701B2 (en) Vehicle including touch input device and control method of the vehicle
US11144193B2 (en) Input device and input method
US20160154488A1 (en) Integrated controller system for vehicle
CN106484276A (zh) 触摸输入设备和包括触摸输入设备的车辆
JP2018010472A (ja) 車内電子機器操作装置及び車内電子機器操作方法
Meschtscherjakov The steering wheel: A design space exploration
US20240109418A1 (en) Method for operating an operating device for a motor vehicle, and motor vehicle having an operating device
CN114040857A (zh) 用于运行车辆中的操作系统的方法和车辆中的操作系统
US10514784B2 (en) Input device for electronic device and vehicle including the same
CN107305460B (zh) 车辆及其控制方法
CN107783647B (zh) 柔性屏输入设备及信息娱乐系统
EP3125099B1 (en) Vehicle and method of controlling the same
JP5460890B2 (ja) 入力操作装置
JP2023540568A (ja) 車両の計器盤の別個のディスプレイデバイスでのコンテンツの提示
KR20140070874A (ko) 동작 인식에 의한 차량 제어 장치