JP2021166058A - 車両の中で触覚フィードバックを用いるジェスチャー・ベースの入力システム - Google Patents

車両の中で触覚フィードバックを用いるジェスチャー・ベースの入力システム Download PDF

Info

Publication number
JP2021166058A
JP2021166058A JP2021097299A JP2021097299A JP2021166058A JP 2021166058 A JP2021166058 A JP 2021166058A JP 2021097299 A JP2021097299 A JP 2021097299A JP 2021097299 A JP2021097299 A JP 2021097299A JP 2021166058 A JP2021166058 A JP 2021166058A
Authority
JP
Japan
Prior art keywords
vehicle
tactile
gesture
driver
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021097299A
Other languages
English (en)
Inventor
トリュオン ダット
Truong Dat
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of JP2021166058A publication Critical patent/JP2021166058A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W50/16Tactile feedback to the driver, e.g. vibration or force feedback to the driver on the steering wheel or the accelerator pedal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/10Interpretation of driver requests or demands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Computer Hardware Design (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】車両にジェスチャー・ベースの入力システムを組み込み、かつ、車両運転の主要な業務から運転者などのユーザの気を散らされないやり方でフィードバックをもたらすシステム及び方法を提供する。【解決手段】車両システムを制御するための触覚フィードバック・システム100は、触覚アクチュエータ110、ジェスチャー検出器60、コントローラ106及び複数の車両システム112を含む。ジェスチャー検出器は、車両の運転者または乗客の運動を捕捉して、車両の運転者または乗客が行ったジェスチャーを表すデータを出力する。コントローラは、ジェスチャー検出器からジェスチャーを表す信号を受け取り、検出されたジェスチャーに基づいて触覚効果を選択し、選択した触覚効果を与える信号を触覚アクチュエータに送り、選択した触覚効果と整合した特定の動作を遂行させる信号を、車両システムのうちの1つに対して送る。【選択図】図4

Description

本発明は、一般に、ジェスチャー・ベースの車両用入力システムに関し、より詳細には、車両システムを制御するためのジェスチャー・ベースの入力システムに関するものであって、ジェスチャー・ベースの入力を確認するためにユーザに対して触覚効果を与えるための触覚フィードバックを含む。
車両には、乗員を支援し、楽しませ、かつ/または快適な環境をもたらすための技術が追加され続けている。たとえば、限定するためではなく、全地球測位システム(GPS)を用いるナビゲーション・システム、環境調節または温度調節のシステム(HVAC制御など)、ラジオ、CDプレーヤ、補助デバイス・プレーヤ、ビデオ画面、DVDプレーヤ、電話システム、および他の類似のシステムが、しばしば車両に組み込まれている。これらのシステムの制御は、それだけではないが、つまみ、ボタン、ダイヤル、およびタッチスクリーンなど、様々な形態でもたらされる。タッチスクリーンには、ますます多くの制御システムが組み込まれている。運転者は、これらの制御を使用するのに道路から眼を離さなければならず、危険である。物理的入力の代替として、画面に表示された仮想ボタンおよび仮想スライダを利用しているタッチスクリーン・デバイスの使用が増加するのに伴って、これは特に問題となることがある。ユーザは、1本または2本以上の指で、画面上の仮想のボタン、スライダ、スクローラなどに触れること、および/またはその他の方法で操作したりすることにより、そのようなデバイスとほとんど独占的に相互に接続し得る。仮想ボタン、仮想スライドなどの間には、大抵の場合、物理的区別または「感触の」区別がないので、ユーザは、たとえば、物理的なボタンまたはつまみに対して可能であった、仮想ボタンの位置を「感じ取ること」ができない。さらに、画面上のグラフィック・ディスプレイが、操作に応答して視覚フィードバックをもたらすので、運転者は、道路ではなく画面を注視するようにさらに誘惑される。
最近の開発により、車両システムのうちのいくつかについては音声制御システムが可能になった。しかしながら、特に音声指令を受け取るためのマイクロフォンが音声指令を正確に受け付けない、または理解しない状況では、音声制御システムは、車両の中の乗客を混乱させる。これによって、ユーザが指令を繰り返したり、しばしば叫んだりすることになり、それによって車内の他の乗客の邪魔をする。さらに、車両の娯楽システムおよび道路騒音などの周囲の騒音が、指令を受け取るマイクロフォンの妨げになる可能性がある。
コンピュータシステムがユーザのジェスチャーまたは手の運動に反応することができるジェスチャー・ベースのインターフェースにおいて、最近いくつかの進化があった。しかしながら、ジェスチャー・ベースの指令がシステムによって適切に解釈されたことを確認するために、運転者が表示画面または他のデバイスを注視する傾向があるため、車両におけるジェスチャー・ベースのインターフェースは、運転者の気散じの問題を緩和しない可能性がある。さらに、システムが偶発的に起動するのを防止する必要がある。したがって、車両にジェスチャー・ベースの入力システムを組み込んで、運転者などのユーザが、主要な業務である車両運転から気を散らすことのないやり方でフィードバックを与えるのが望ましいであろう。
本発明の実施形態が対象とする、車両システムを制御するためのシステムは、触覚アクチュエータ、ジェスチャー検出デバイス、コントローラ、および複数の車両システムを含む。ジェスチャー検出デバイスは、車両の運転者または乗客の運動を捕捉して、車両の運転者または乗客が行ったジェスチャーを表すデータを出力する。ジェスチャー検出デバイスに結合されているコントローラが、ジェスチャー検出デバイスからジェスチャーを表す信号を受け取る。コントローラは、触覚アクチュエータに結合されており、検出されたジェスチャーに基づいて触覚効果を選択して、選択された触覚効果をもたらす信号を触覚アクチュエータに送る。コントローラは、車両システムにも結合されており、検出されたジェスチャーに基づき、車両システムのうちの1つに対して、特定の動作を遂行させる信号を送る。車両システムの特定の動作は、選択された触覚効果と整合したものである。
これも本発明の実施形態が対象とする、車両システムを制御するためのシステムは、触覚アクチュエータ、ジェスチャー検出デバイス、音声検出デバイス、コントローラ、および複数の車両システムを含む。ジェスチャー検出デバイスは、車両の運転者または乗客の運動を捕捉して、車両の運転者または乗客が行ったジェスチャーを表すデータを出力する。音声検出デバイスは、車両の運転者または乗客からの音声指令を検出して、音声指令を表すデータをコントローラに出力する。コントローラは、ジェスチャー検出デバイスおよび音声検出デバイスに結合されており、ジェスチャー検出デバイスからのジェスチャーを示す信号および音声検出デバイスからの音声指令を示す信号を受け取る。コントローラは、触覚アクチュエータに結合されており、検出されたジェスチャーまたは検出された音声指令に基づいて触覚効果を選択して、選択された触覚効果をもたらす信号を触覚アクチュエータに送る。コントローラは、車両システムにも結合されており、検出されたジェスチャーまたは検出された音声指令に基づいて、車両システムのうちの1つに対して、特定の動作を遂行させる信号を送る。車両システムの特定の動作は、選択された触覚効果と整合したものである。
本発明のジェスチャー・ベースの入力システムおよび触覚フィードバック・システムの一実施形態を示す様々なシステムを有する車両の概略図である。 図1の車両のシートのうちの1つの概略図である。 図1の車両の運転席と助手席の間の中心コンソールおよび肘掛けの概略図である。 本発明のジェスチャー・ベース入力システムおよび触覚フィードバック・システムの一実施形態のブロック図である。 車両の表示デバイスの概略図である。 本発明の、ジェスチャーおよび音声ベースの入力システムおよび触覚フィードバック・システムの一実施形態のブロック図である。
本発明の前述の特徴および利点ならびに他の特徴および利点が、添付図面に示されるような実施形態の以下の説明から明らかになるであろう。本明細書に組み込まれて本明細書の一部分を形成する添付図面は、本発明の原理について説明するとともに、当業者が本発明を製作して利用することを可能にするのにさらに役立つものである。図面は原寸に比例しない。
次に、図を参照しながら本発明の特定の実施形態が説明され、類似の参照番号は同一の要素または機能的に類似の要素を示す。以下の詳細な説明は、本質的に単なる例示であり、本発明または本発明の用途および利用法を限定するようには意図されていない。本発明の実施形態の説明は、車両の中のジェスチャー・ベース入力システムおよび触覚フィードバック・システムの文脈におけるものであるが、本発明は、本発明が有益であると見なされるいかなる他の用途にも使用され得る。さらに、先の技術分野、背景技術、発明の概要、または以下の詳細な説明において示される、表現される、または示唆されるいかなる理論によっても束縛されるような意図はない。
図1は車両Vの内部の概略図である。車両内部のいくつかの典型的な特徴を、図1〜図3に関して説明する。車両Vに含まれる運転席10は、頭受け12、背もたれ14、およびシート基部16を含む。助手席20は、同様に、頭受け22、背もたれ24、およびシート基部26を含む。運転席側の後部座席30は、頭受け32、背もたれ34、およびシート基部36を含み、助手席側の後部座席40は、頭受け42、背もたれ44、およびシート基部46を含む。当業者なら、車両Vは、(図1に示されたように)より多くのシートまたはより少ないシートを含み得ることを認識するであろう。さらに、すべてのシートが、本明細書で説明された特徴をすべて含む必要があるわけではない。たとえば、限定するためではなく、頭受けはなくてもよい。車両Vは、当技術分野で知られているように、ステアリング・ホイール18、および運転席10と助手席側前座席20の間に配設された肘掛け28を含む。
車両Vは、運転席10と助手席20の間の前部ダッシュに配設された電子制御および表示のシステム50も含み得る。電子制御および表示のシステム50は、システムの制御および表示の機能に使用することができるように、それだけではないが、ラジオ、ナビゲーション・システム、車両の温度調節システム、ブルートゥース・システム、DVDプレーヤなどの補助システム、CDプレーヤおよび携帯電話、情報システム、および当業者に既知の他のシステムなどの従来の制御および表示のシステムに類似のものでよい。運転席側後部の制御および表示のシステム38は、運転席の頭受け12に取り付けられて、運転席側の後部座席30に面してよい。同様に、助手席側後部の制御および表示のシステム48は、助手席の頭受け22に取り付けられて、助手席側の後部座席40に面してよい。制御および表示のシステム38、48は、それだけではないが、後部温度調節システム、DVDプレーヤおよびCDプレーヤなどの後部娯楽システム、ブルートゥース・システム、および当業者に既知の他のシステムなど、システムの機能を制御し、かつ表示するための従来の制御および表示のシステムを含み得る。
制御および表示のシステム50は、運転者および/または乗客の運動を検出するように構成されたカメラまたは他のジェスチャー入力検出器60を含み得る。同様に、制御および表示のシステム38、48は、以下でより詳細に説明されるように、それぞれ後部座席30、40の乗客の動きを検出するためのカメラまたは他のジェスチャー入力検出器39、49を含み得る。カメラ60、39、49は、それぞれの制御および表示のシステム50、38、48と関連して示されているが、本開示はそのような実施形態に限定されない。その代わりに、以下で詳細に説明されるように、運転者および乗客のジェスチャーが検出されて使用され得る任意のやり方が用いられてよい。たとえば、限定するためではなく、車両Vの内部にあるいくつかのカメラは、車両内部の全体の動きを追跡してよい。そのような一群のカメラは、乗客の手および指の動きのような詳細を含む、乗客のそれぞれの位置、配向、および運動を検出することができる。本実施形態で使用されるカメラは、光学的検出用に使用されるモーション・キャプチャ・カメラでよい。しかしながら、当業者なら、それだけではないが、赤外線カメラ、RFIDカメラ、および電磁式カメラなど、他のタイプのカメラまたは検出システムが使用され得ることを理解するであろう。ゲームで動きの検出および処理のために使用されているXBOX Kinect(商標)または類似のシステムなどのシステムが使用され得ることが当業者には理解されよう。
図2は、図1の運転席10のさらなる詳細を示す。特に、運転席10は、運転席10の各部に1つまたは複数の触覚アクチュエータ110を含み得る。図2に示された実施形態では、頭受け12、背もたれ14、およびシート基部16には、触覚アクチュエータ110が組み込まれている。しかしながら、運転席10において触覚アクチュエータ110が組み込まれる位置は、より多くてもより少なくてもよいことが当業者には理解されよう。以下でより詳細に説明されるように、触覚アクチュエータ110は、ジェスチャー・ベースの入力システムとともに使用される。さらに、図2には、運転席10に組み込まれた触覚アクチュエータ110が示されているが、触覚アクチュエータは、助手席20、運転席側の後部座席30、および助手席側の後部座席40にも組み込まれてよく、より詳細には、頭受け22、32、42、背もたれ24、34、44、およびシート基部26、36、46のそれぞれに組み込まれてよい。
図3は、運転席10と助手席20の間に配設された肘掛け28および中心コンソール29の一部分を示す。肘掛け28には、触覚アクチュエータ110が組み込まれてもよい。さらに、中心コンソール29は、カメラまたは他のジェスチャー入力検出器62を含み得る。ジェスチャー入力検出器62は、中心コンソール29で使用される状況では、カメラ60の代わりになり得る。さらに、カメラまたはジェスチャー入力検出器62が含み得るのは限定された視界であるため、ユーザは、カメラ62の近傍でジェスチャーをしなければならない。ユーザの意図的でない運動は、車両システムを制御するためのジェスチャーとして検出されることがないので、そのような状況は望ましいものであり得る。また、カメラまたはジェスチャー入力検出器62を表示システム50から分離すると、ユーザは、表示器を見ることとジェスチャーとを区別するように心理的に訓練され得る。したがって、運転者は、表示器50を見るのでなく道路から眼を離さない可能性が高くなり、このことは、以下でより詳細に説明される触覚フィードバック・システムによって支援されることになる。
触覚アクチュエータ110は、車両Vの他の共通の接触面に設けられてもよい。たとえば、限定するためではなく、図1に示されるように、ステアリング・ホイール18は触覚アクチュエータ110を含み得る。さらに、ドアの肘掛け、後部乗客席の間の肘掛け、シートベルト、および車両の床などの他の面は、触覚アクチュエータ110を含み得る。さらに、触覚アクチュエータは、車両Vの運転者または乗客によって着用可能な物体または品目の中に設けられてもよい。たとえば、限定するためではなく、触覚アクチュエータ110は、運転者または乗客が触覚効果を直接感じられるように着用する、手袋、帽子、ネックレス、腕輪または腕飾り、および他の類似の品目の中に設けられてよい。
一実施形態では、触覚アクチュエータ110は、シート10、20、30、40の各部分、肘掛け28、ステアリング・ホイール18、または着用可能な物体など、たとえばアクチュエータ110が配置されている物体の振動を生成する振動触覚デバイスでよい。他のタイプの触覚フィードバックが提供されてもよい。たとえば、限定するためではなく、触覚アクチュエータ110は、ユーザに静電気摩擦または超音波摩擦を与えてもよい。ユーザには、筋肉感覚フィードバック(たとえば能動的で抵抗性の力フィードバック)、変形、および/または手ざわりなどの他のタイプの触覚フィードバックを含む、他のタイプの触覚フィードバックが生成されて与えられ得る。図1〜図3に示されるように、異なるユーザに触覚効果を与えるために、または、以下でより詳細に説明されるように、異なる事象を表わすために、複数の触覚アクチュエータが、車両Vの異なる領域に組み込まれてよい。触覚アクチュエータ110は、電磁電動機、偏心した質量を電動機で動かす偏心回転質量アクチュエータ(「ERM」)、ばねに取り付けられた質量が前後に駆動される直線状共振アクチュエータ(「LRA」)、形状記憶合金、信号に応答して変形する電気活性ポリマー、剛性を変化させるメカニズム、振動触覚アクチュエータ、慣性アクチュエータ、圧電アクチュエータ、可動磁石アクチュエータ、または他の適切なタイプの駆動デバイスを含み得る。
図4は、ジェスチャー・ベース入力および触覚フィードバック・システム100の一実施形態のブロック図と、システム100を使用するための流れ図とを示す。特に、ジェスチャー入力ブロック102は、運転者などの車両のユーザによるジェスチャーを表す。そのようなジェスチャーは、ユーザによる手および/または指のジェスチャーであると企図されている。他のジェスチャーも用いられてよい。ジェスチャーはユーザによって行われると、カメラまたは他のジェスチャー検出器60は、ユーザのジェスチャーを検出する。上記で説明されたように、ジェスチャー検出器60は、単一のカメラ、複数のカメラ、またはユーザの位置、配向、および動きを検出するように構成された他のデバイスでよい。
カメラまたはジェスチャー検出器60は、ジェスチャーを検出したとき、ジェスチャー入力コントローラ/変換器104に信号を送る。ジェスチャー入力コントローラ/変換器104は、カメラ信号をジェスチャー信号に変換して、この信号をコンピュータ/コントローラ106に伝送する。たとえば、限定するためではなく、カメラ60は、検出された手/指の位置、運動の速度/方向、およびユーザの手/指の位置、配向、および動きに関する他のデータの形式でデータを供給してよい。ジェスチャー入力コントローラ/変換器104は、このデータを、可能性のあるジェスチャーの表から特定のジェスチャーに変換する。たとえば、限定するためではなく、可能なジェスチャーには、特定の方向に手を振ること、上下左右への指の動き、手/指の回転、指でつまむこと/つままないこと、急速に手を振ること、カメラに向かう指の動き、および当業者に既知の他のジェスチャーが含まれ得る。必要に応じて、精巧なジェスチャー検出システムが、たとえば、人さし指の動きを、動きによって小指の動きから区別するように、個々の指を検出してよい。しかしながら、以下でより詳細に説明されるように、相互通信型触覚フィードバック・システムを用いると、運動の小さな変化を認識したり、小さな変化の間を区別したりする必要のないシステムが可能になる。したがって、それほど高価でないジェスチャー認識システムが、相互通信型触覚フィードバック・システムと組み合わせて使用され得る。
ジェスチャー入力コントローラ/変換器104がデータを変換した後、ジェスチャー信号がコンピュータ/コントローラ106に送られる。当業者なら、ジェスチャー入力コントローラ/変換器104をコンピュータ/コントローラ106と結合してもよいことを理解するであろう。図4に示される実施形態では、コンピュータ/コントローラ106は、ジェスチャー信号を受け取ったとき、このデータを処理して、3つの異なるデバイスに信号を供給する。特に、コンピュータ/コントローラ106は、触覚の表108から選択された触覚効果とジェスチャー信号を照合する。たとえば、限定するためではなく、触覚効果が全般的に振動性の効果であれば、特定の振動性の効果が、度合い、大きさ、周波数、および/または持続時間に関して選択される。さらに、ジェスチャー・ベースの入力システムが複数のユーザからの入力を許容する場合、コンピュータ/コントローラ106は、触覚効果を伝えるべきユーザを選択する。さらに、一実施形態では、個人ユーザ向けに異なる触覚アクチュエータ110が選択されてよい。たとえば、限定するためではなく、運転席10の頭受け12の触覚アクチュエータ110の活性化は、運転席10のシート基部16の触覚アクチュエータ110の活性化とは異なるフィードバックの意味を有し得る。本質的には、コンピュータ/コントローラ106は、信号を送るべき触覚アクチュエータ110を選択する。したがって、コンピュータ/コントローラ106は、触覚の表108からの特定の触覚効果と、効果を適用する特定の触覚アクチュエータ110とを選択する。次いで、選択された触覚効果のための信号が、選択された触覚アクチュエータ110に送られる。
同時に、コンピュータ/コントローラ106は、表示器50に信号を送って、採用する動作を示す。たとえば、限定するためではなく、ユーザがアイコン(たとえばラジオ、ナビゲーション、温度調節など)を選択すると、コンピュータ/コントローラ106は、選択されたアイコンを強調するための信号を表示器50に送る。さらに、選択されたアイコンと関連した何らかのサブメニューが示されることになる。たとえば、限定するためではなく、図5は、主メニュー52およびサブメニュー54を有する例示的表示器を示す。以下でより詳細に説明されるように、ジェスチャーは、図5に示されるような主メニュー52上の温度調節アイコンを選択するものと解釈されてよい。そのような選択に伴って、図5に示されるように、コンピュータ/コントローラ106は、温度調節アイコンを強調する信号を表示器に送る。温度調節アイコンが選択されると、温度調節と関連したサブメニュー54が出現する。同様に、主メニュー52上の他のアイコンのうちのどれかが選択されると、その主メニューと関連したサブメニューが出現することになる。
さらに、ユーザのジェスチャーを特定のシステムの制御に用いる場合には、コンピュータ/コントローラ106は、車両システム112に対して、選択された制御を遂行するための信号も送る。たとえば、限定するためではなく、主メニュー52の温度調節アイコンが選択されたとき、運転席側の温度を上昇させるジェスチャーが、前述のようにカメラ60によって認識されて処理されると、コンピュータ/コントローラ106は、たとえば車両の温度調節システムに対して、運転席側の通気孔を通じて送風される高温の空気を増加させる信号を送る。別の例では、主メニュー52からラジオ・アイコンが選択されて、音量を増加するための特定のジェスチャーが認識されると、コンピュータ/コントローラ106は、ラジオ制御システム112に対して音量を増加する信号を送る。そのような信号は、CDプレーヤ、ナビゲーション・システム、電話、DVDプレーヤ、ゲームシステム、または他の車両システムもしくはサブシステム、または車両システムに結合された補助システムなどの他の車両制御システム112に送られることになる。さらに、表示器50は、他の車両システムとは別個に識別されているが、表示器50は車両システムのうちの1つであって、別個に識別される必要性はないことを、当業者なら認識するであろう。アイコンの強調などのいくつかの動作がもたらすのは、表示器に対する作用のみであるが、他の動作は、他の車両システムに対する作用のみ、または他の車両システムに対する作用と表示器に対する作用の両方、のいずれかをもたらすので、表示器50は、この説明では便宜上別個に識別される。
したがって、上記で説明された触覚フィードバックは、ジェスチャー・ベースの入力に基づいて採用される作用を確認する、または説明するために用いることができる。以下の表1に要約され、図5に示されるシステムなどのシステムに関して説明される一例では、車両Vの運転者のジェスチャーは、カメラ60によって監視される。以下の例は、運転者のジェスチャーと、運転者が感じる、以下で説明される特定の触覚効果に関して説明されるが、当業者なら、類似のジェスチャーが車両の中の乗客によって行われてよく、そのようなジェスチャーがカメラ60または他のカメラによって検出されてよく、触覚効果がジェスチャーをしている乗客に与えられ得ることを理解するであろう。もちろん、当業者なら、いくつかの実施形態では、車両の運転者のみが触覚フィードバックを感知し、乗客は、道路から眼を離してもよいので、音声または視覚などの他のタイプのフィードバックを受け取り得ることを認識するであろう。しかしながら、乗客にとって、ゲームシステムまたはビデオシステムなどの車両の中の娯楽システムと相互作用しているときには、触覚効果によって経験が向上するのが望ましいはずである。
表1に関して論じられる特定の例では、運転者が手/指を振ってシステムを起動する。したがって、コンピュータ/コントローラ106は、表108から短時間振動の触覚効果を選択するための信号を送り、選択した信号を、運転席10のものなど、運転者と関連した触覚アクチュエータ110に送る。運転者は、短時間振動を感じると、指または手で主メニュー52にわたってたどり始めてよい。運転者が指/手を動かしているとき、表示器50上のポインタがスクリーンにわたって移動していることを、軽い連続振動によって運転者に知らせる。ポインタが主メニュー52上の温度調節アイコンなどの選択可能な領域に達すると、振動の強度が中間の連続振動へと引き上げられる。運転者は、指でつまみ取ることによってアイコンを選択することができる。コンピュータ/コントローラ106は、ジェスチャーを認識すると、触覚効果の表108から複数の短時間振動を選択するための信号を送り、運転者と関連した触覚アクチュエータ110に対して、そのような振動のための信号を送ることになる。同時に、信号が表示器50に送られて、温度調節アイコンが強調され、表示器には、図5に示されるように、サブメニュー54上に温度調節サブメニューの選択肢が表示される。ユーザは、触覚効果によって、アイコンが選択されたことを知ることができる。運転者が表示器50を注視する必要性をさらに回避するために、運転者がシステムを活性化したとき、表示器50が常に特定のアイコンから始まってもよい。これによって、ユーザは、アイコンが選択される順番に慣れることができる。たとえば、表示器50が常にラジオ・アイコンから始まるなら、運転者には、4番目に中間強度の連続振動を感じたとき、ポインタが温度調節アイコン上にあることが分かる。どの特定のアイコンが選択されているか運転者が認識することを可能にする、他の多くの変形形態が可能である。たとえば、限定するためではなく、各アイコンは、特定の効果または運転者が効果を感じる位置などによって、それ自体の触覚効果を伴って示され得る。たとえば、限定するためではなく、ラジオ・アイコンが選択されたとき、触覚効果は、運転席10の頭受け12の触覚アクチュエータ110によって伝えられてよく、温度調節アイコンが選択されたときには、触覚効果は、運転席10のシート基部14の触覚アクチュエータによって伝えられてよい。もちろん、制御されるシステムの数に依拠して、他の変形形態が必要になることもあるであろう。たとえば、限定するためではなく、音声と関連した各アイコンは、頭受け12の触覚アクチュエータ110に伝えられる触覚効果に関連付けられてよく、1回の振動をラジオとし、2回の振動をCDプレーヤとし、3回の振動を電話とするなど、それぞれが独自の触覚効果を有する。同様に、温度調節アイコンの選択が、シート基部12に1回の振動をもたらしてよく、ナビゲーション・アイコンの選択が、シート基部14に2回の振動をもたらしてよい。同様に、すべての触覚効果が単一の触覚アクチュエータによって伝えられる場合、アイコンを区別するために触覚効果の変化を使用することが可能であろう。
前述のように、主メニュー52からアイコンが選択されて、選択されたシステムに関するサブメニュー54が出現すると、運転者は、サブメニュー54上に表示されているような選択したシステムを制御するためのさらなるジェスチャーをしてよい。したがって、図5および表1に与えられた例では、運転者は、温度調節アイコンを選択すると、主メニュー52に関して上記で説明されたのと同様に、サブメニュー54の上部のバーに沿って指を動かして項目を選択してよく、適切な触覚効果が与えられる。たとえば、限定するためではなく、運転者は、サブメニュー54の上部のバーで「自動」を選択すると、回転式ダイヤルまたはつまみと同様に、手を時計回りに回転させて温度を上昇させたり、反時計回りに回転させて温度を低下させたりしてよい。カメラ60がそのようなジェスチャーを認識すると、コンピュータ/コントローラ106は、触覚効果表108から大きさが増加する連続振動の触覚効果を選択する信号を送り、そのような効果に関する信号が、運転者と関連した触覚アクチュエータ110に送られ、運転者が効果を感じる。同時に、温度スライドにおける上向矢印を強調し、かつ示された温度設定を上昇させるために、信号が表示器50に送られる。また、温度を選択された値に設定するために、車両温度調節システムに信号が送られる。
Figure 2021166058
当業者なら、上記の説明および表の1が与えるのは、使用可能なジェスチャーおよび触覚効果のタイプの例のみであることを認識するであろう。類似の手のジェスチャーおよび触覚効果が、他の車両システムを制御するのに用いられ得る。さらに、異なるジェスチャーおよび触覚効果が用いられ得る。ジェスチャー識別および触覚効果フィードバック・システムの所望の目的は、表示器の方へ手を伸ばしたり、表示器を注視したりして、運転者が気を散らすことのないように、また、所望の操作がジェスチャー指令に応答して行われ、運転者または乗客が快適であるように、運転者または乗客のために、簡単な方法で、十分な触覚効果フィードバックを伴って車両システムを制御することを可能にすることである。さらに、そのような触覚フィードバックを与えることは、運転者および/または乗客の経験を高めるために用いられてよい。
さらに、上記で説明された実施形態は、触覚効果フィードバックを伴うジェスチャー・ベースの入力システムに関連するものであるが、当業者なら、高度なジェスチャーを検出するのは高くつく可能性があることを認識するであろう。したがって、図6および以下の表2は、上記の実施形態のように、触覚効果フィードバックが指令を確認するのに用いられる、ジェスチャー・ベースの入力と音声入力が組み合わされた実施形態を示す。特に、図6は、ジェスチャーおよび音声ベースの入力ならびにフィードバックのシステム200の一実施形態のブロック図と、システム200を使用するための流れ図とを示す。
図6では、ジェスチャー入力ブロック202は、運転者などの車両のユーザによるジェスチャーを表す。そのようなジェスチャーは、ユーザによる手および/または指のジェスチャーであると企図されている。他のジェスチャーも用いられてよい。ジェスチャーがユーザによって行われていると、カメラまたは他のジェスチャー検出器60は、ユーザのジェスチャーを検出する。上記で説明されたように、ジェスチャー検出器60は、単一のカメラ、複数のカメラ、またはユーザの位置、配向、および運動を検出するように構成された他のデバイスでよい。
同様に、ボイス/音声入力ブロック214は、運転者などの車両のユーザによって行われる音響または音声の指令を表す。そのようなボイス指令は、たとえば以下で表2に示される簡単なボイス指令であるように企図されている。他のボイス指令も用いられてよい。音声入力検出器またはマイクロフォン64が、音声/ボイス指令を検出する。マイクロフォン64は、図1に示されるようにカメラ60に隣接して、または当業者に知られているように、車両Vの他のどこかに配置されてよい。
カメラまたはジェスチャー検出器60は、ジェスチャーを検出したとき、ジェスチャー入力コントローラ/変換器204に信号を送る。ジェスチャー入力コントローラ/変換器204は、カメラ信号をジェスチャー信号に変換して、コンピュータ/コントローラ206に信号を伝送する。たとえば、限定するためではなく、カメラ60は、検出された手/指の位置、運動の速度/方向、およびユーザの手/指の位置、配向、および動きに関する他のデータの形式でデータを供給してよい。ジェスチャー入力コントローラ/変換器204は、このデータを、可能性のあるジェスチャーの表から特定のジェスチャーに変換する。たとえば、限定するためではなく、可能なジェスチャーには、特定の方向に手を振ること、上下左右への指の動き、手/指の回転、指でつまむこと/つままないこと、急速に手を振ること、カメラに向かう、またはカメラから遠ざかる指の動き、および当業者に既知の他のジェスチャーが含まれ得る。必要に応じて、精巧なジェスチャー検出システムが、たとえば、人さし指の動きを、動きによって小指の動きから区別するように、個々の指を検出してよい。しかしながら、以下でより詳細に説明されるように、相互通信型触覚フィードバック・システムを用いると、運動の小さな変化を認識したり、小さな変化の間を区別したりする必要のないシステムが可能になる。したがって、それほど高価でないジェスチャー認識システムが、相互通信型触覚フィードバック・システムと組み合わせて使用され得る。
同様に、マイクロフォン64は、音声を検出したとき、音声入力コントローラ/変換器218に信号を送る。音声入力コントローラ/変換器218は、ボイス信号を、ボイス指令を表すデータ信号に変換して、コンピュータ/コントローラ206に伝送する。
ジェスチャー入力コントローラ/変換器204および/または音声入力コントローラ/変換器218がデータを変換した後、信号がコンピュータ/コントローラ206に送られる。当業者なら、ジェスチャー入力コントローラ/変換器204、音声入力コントローラ/変換器218、およびコンピュータ/コントローラ206は、本発明から逸脱することなく組み合わされ得ることを認識するであろう。図6に示される実施形態では、コンピュータ/コントローラ206は、ジェスチャー信号または音声信号を受け取ったとき、このデータを処理して、3つの異なるデバイスに信号を供給する。具体的には、コンピュータ/コントローラ206は、触覚の表208から選択される触覚効果にジェスチャー信号または音声信号を照合する。たとえば、限定するためではなく、触覚効果が全般的に振動性の効果であれば、特定の振動性の効果が、度合い、大きさ、周波数、および/または持続時間に関して選択される。さらに、ジェスチャーおよび音声ベースの入力システムが複数のユーザからの入力を許容する場合、コンピュータ/コントローラ206は、触覚効果を伝えるべきユーザを選択する。さらに、一実施形態では、個人ユーザ向けに異なる触覚アクチュエータ110が選択されてよい。たとえば、限定するためではなく、運転席10の頭受け12の触覚アクチュエータ110の活性化は、運転席10のシート基部16の触覚アクチュエータ110の活性化とは異なるフィードバックの意味を有し得る。本質的には、コンピュータ/コントローラ206は、信号を送るべき触覚アクチュエータ110を選択する。したがって、コンピュータ/コントローラ206は、触覚の表208からの特定の触覚効果と、効果を適用する特定の触覚アクチュエータ110とを選択する。次いで、選択された触覚効果のための信号が、選択された触覚アクチュエータ110に送られる。
同時に、コンピュータ/コントローラ206は、表示器50に信号を送って、行われている動作を示す。たとえば、限定するためではなく、ユーザがアイコン(たとえばラジオ、ナビゲーション、温度調節など)を選択すると、コンピュータ/コントローラ206は、選択されたアイコンを強調するための信号を表示器50に送る。さらに、選択されたアイコンと関連した何らかのサブメニューが示されることになる。たとえば、限定するためではなく、図5は、主メニュー52およびサブメニュー54を有する例示的表示器を示す。ジェスチャーまたはボイス指令を用いるなどして、主メニュー52上で温度調節アイコンが選択されると、図5に示されるように、コンピュータ/コントローラ206は、温度調節アイコンを強調するための信号を表示器50に送る。温度調節アイコンが選択されると、温度調節と関連したサブメニュー54が出現する。同様に、主メニュー52上の他のアイコンのうちのどれかが選択されると、その主メニューと関連したサブメニューが出現することになる。
さらに、ユーザのジェスチャーまたは音声指令を特定のシステムの制御に用いる場合には、コンピュータ/コントローラ206は、車両システム212に対して、選択された制御を遂行するための信号も送る。たとえば、限定するためではなく、主メニュー52の温度調節アイコンが選択されたとき、運転席側の温度を上昇させるためにジェスチャーまたは音声指令が用いられ、カメラ60/マイクロフォン64によって認識されて、前述のように処理されると、コンピュータ/コントローラ206は、たとえば車両の温度調節システムに対して、運転席側の通気孔を通じて送風される高温の空気を増加させる信号を送る。別の例では、主メニュー52からラジオ・アイコンが選択されて、音量を増加するための特定のジェスチャーまたは音声指令が与えられると、コンピュータ/コントローラ206は、ラジオ制御システム212に対して音量を増加する信号を送る。そのような信号は、CDプレーヤ、ナビゲーション・システム、電話、DVDプレーヤ、ゲームシステム、または他の車両システムもしくはサブシステム、または車両システムに結合された補助システムなどの他の車両制御システム212に送られることになる。さらに、表示器50は、他の車両システムとは別個に識別されているが、表示器50は車両システムのうちの1つであって、別個に識別される必要性はないことを、当業者なら認識するであろう。アイコンの強調などのいくつかの動作がもたらすのは、表示器に対する作用のみであるが、他の動作は、他の車両システムに対する作用のみ、または他の車両システムに対する作用と表示器に対する作用の両方、のいずれかをもたらすので、表示器50は、この説明では便宜上分かれて識別される。
したがって、上記で説明された触覚フィードバックは、ジェスチャー・ベースの入力に基づいて採用される作用を確認する、または説明するために用いることができる。以下の表2に要約され、図5に示されるシステムなどのシステムに関して説明される一例では、車両Vの運転者は、カメラ60によって監視されるジェスチャーをするとともに、マイクロフォン64によって受け取られるボイス指令を与える。以下の例は、運転者のジェスチャーおよびボイス指令と、以下で説明される特定の触覚効果とに関して説明されるが、当業者なら、類似のジェスチャーおよびボイス指令が車両の中の乗客によって行われてよく、そのようなジェスチャーおよびボイス指令がカメラ60/マイクロフォン64または他のカメラ/マイクロフォンによって検出されてよく、触覚効果が、ジェスチャー/ボイス指令を与えているユーザに提供され得ることを認識するであろう。もちろん、当業者なら、いくつかの実施形態では、車両の運転者のみが触覚フィードバックを感知し、乗客は、道路から眼を離してもよいので、音声または視覚などの他のタイプのフィードバックを受け取り得ることを認識するであろう。しかしながら、乗客にとって、ゲームシステムまたはビデオシステムなどの車両の中の娯楽システムと相互作用しているときには、触覚効果によって経験が向上するのが望ましいはずである。
ジェスチャー・ベースの入力、音声ベースの入力、および触覚効果フィードバックを組み合わせる特定の例において、表2は、様々な車両システムを制御するための様々な手のジェスチャーおよびボイス指令と、そのような動作と関連した触覚効果とを示す。表2は、図5に示す例示的表示器50に関して説明することになる。したがって、運転者は、表1に関して上記で説明されたように、手または指を振ってシステムを活性化してよい。したがって、コンピュータ/コントローラ206は、表208から短時間振動の触覚効果を選択するための信号を送り、選択した信号を、運転席10のものなど、運転者と関連した触覚アクチュエータ110に送る。運転者は、短時間振動を感じると、指または手を動かして主メニュー52にわたってたどり始めてよい。運転者が指/手を動かしているとき、表2の「基本的ナビゲーション」に示されるように、運転者の手/指が主メニュー52の中のアイコンの上にくると、軽い連続振動で運転者に知らせる。次いで、運転者は、表2に示されるように、「選択」または「はい」などのボイス指令を与えることによってアイコンを選択することができる。コンピュータ/コントローラ206は、ボイス指令を認識すると、触覚効果表から短時間振動を選択するための信号を送り、運転者と関連した触覚アクチュエータ110に対して、そのような振動のための信号を送ることになる。同時に、信号が表示器50に送られて、温度調節アイコンが強調され、表示器には、図5に示されるように、サブメニュー54上に温度調節サブメニューの選択肢が表示される。運転者は、触覚効果によって、アイコンが選択されたことを知ることができる。前述のように、所望のアイコンが選択されたことに運転者が気付いていることを確認するのに、主メニュー52上の、各車両システムと関連した異なる触覚効果など、触覚フィードバックのためのいくつかの選択肢が用いられ得る。
前述のように、主メニュー52からアイコンが選択されて、選択されたシステムに関するサブメニュー54が出現すると、運転者は、サブメニュー54上に表示されている選択したシステムを制御するためのさらなるジェスチャーをしてよい。したがって、図5および表2に与えられた例では、運転者は、温度調節アイコンを選択すると、主メニュー52に関して上記で説明されたのと同様に、サブメニュー54の上部のバーに沿って指を動かして項目を選択してよく、適切な触覚効果が与えられる。たとえば、限定するためではなく、運転者がサブメニュー54の上部のバーに沿ってアイコンの上で手/指を移動させるとき、表2の「基本的ナビゲーション」機能が用いられる。したがって、運転者の手/指が「自動」アイコンの上にとどまると、触覚アクチュエータ110から軽い連続振動が感じられる。さらに、運転者は、前述のように「選択」または「はい」のボイス指令によって「自動」アイコンを選択し得る。コンピュータ/コントローラ206は、ボイス指令を認識すると、短時間振動用の信号を触覚アクチュエータ110に送り、「自動」アイコンを強調するための信号を表示器50に送る。
サブメニューが選択されているとき、次いで、運転者はサブメニューの中の他の作業を遂行することができる。たとえば、運転者は、図5の運転者側の温度読取り値72の上で指を移動することができる。運転者は、軽い連続振動などの触覚効果によって、温度が選択されていることを確認する。次いで、表2の「値の変更、直接入力、テキスト入力」の行に示されるように、運転者は、「74」などのボイス指令によって運転席側の温度の値を変化させることができる。したがって、コンピュータ/コントローラ206は、短時間振動用の信号を触覚アクチュエータ110に送り、示された運転席側の温度設定を「72」から「74」へ変更する信号を表示器50に送り、温度調節システムに信号を送って、車両HVACシステムによって運転席側に74度の温度をもたらす。
表2は、運転者が、ジェスチャーおよび音声入力と触覚効果フィードバックとの組合せを、表示器50を注視する必要なく、様々な車両機能の選択および制御を比較的簡単に行なうのに用いることができる様子を示す。特定のサブメニュー選択が上記で説明されているが、コンピュータ/コントローラ206によって指令が処理されたとのフィードバックをもたらす状況で、表2に示されている対応する触覚効果が、主メニュー52上のラジオ・アイコンを選択して局を変える、または音量を上げたり下げたりするボイス指令を用いることなどして、他の車両システムが表2に説明されるように制御され得ることを、当業者なら認識するであろう。
Figure 2021166058
表3に関して以下で説明される別の実施形態では、前席の乗客と後席の乗客の間の相互作用が触覚フィードバック・システムに組み込まれる。図4または図6に示される実施形態は、表3に示される応答を実行するのに用いることができる。
Figure 2021166058
前述のように、ジェスチャー、指令、および表1〜3に関して説明された特定の触覚効果は、単なる例である。当業者なら、本発明の範囲および内容から外れずに、特定のジェスチャー、指令、およびもたらされる触覚効果の無限の変化を企図することができる。
したがって、様々な実施形態が上記で説明されているが、本発明の説明および具体例としてのみ提示されており、限定するためではないことを理解されたい。当業者には、本発明の趣旨および範囲から逸脱することなく、形態および詳細における様々な変更形態を製作し得ることが明らかであろう。したがって、本発明の幅広さおよび範囲は、前述の例示的実施形態のうちのいかなるものによっても限定されるべきではなく、添付の特許請求の範囲およびそれらの等価物によってのみ定義されるべきである。本明細書で論じられた各実施形態の特徴および本明細書で引用された各参照の特徴は、任意の他の実施形態の特徴と組み合わせて用いられ得ることも理解されよう。本明細書で論じられたすべての特許および刊行物は、それらの全体が参照によって本明細書に組み込まれる。

Claims (23)

  1. 複数の車両システムのうちの1つまたは複数を制御するためのシステムであって、
    車両の運転者または乗客に触覚フィードバックを与えるように構成された触覚アクチュエータと、
    前記車両の内部に配設されたジェスチャー検出デバイスであって、前記車両の運転者または乗客の運動を捕捉して、前記車両の運転者または乗客が行ったジェスチャーを表すデータを出力するように構成されているジェスチャー検出デバイスと、
    前記ジェスチャー検出デバイスに結合され、前記ジェスチャー検出デバイスから前記ジェスチャーを表す信号を受け取るように構成されているコントローラであって、触覚効果フィードバック・システムおよび前記複数の車両システムに結合されているコントローラとを備え、
    前記コントローラは、前記ジェスチャーを表す信号に基づいて、効果表から触覚効果を選択するための信号を送り、前記触覚アクチュエータに対して、前記選択された触覚効果を与えるための信号を送るように構成されており、
    前記コントローラは、前記ジェスチャーを表す前記信号に基づいて、前記複数の車両システムのうちの少なくとも1つに対して、特定の動作を遂行させるための信号を送るようにさらに構成されており、前記車両システムの前記特定の動作は、前記選択された触覚効果と整合するものであるシステム。
  2. 前記車両システムは表示器であって、前記コントローラから前記表示器への前記信号は前記表示器上のアイコンを強調する、請求項1に記載のシステム。
  3. 前記コントローラは、前記複数の車両システムのうちの第2のものに対して、特定の動作を遂行させるための信号を送るようにさらに構成されており、前記複数の車両システムの第2のものの前記特定の動作は、前記表示器および前記触覚効果の特定の動作と整合するものである、請求項2に記載のシステム。
  4. 前記複数の車両システムは、表示器、ラジオ、CDプレーヤ、温度調節システム、ナビゲーション・システム、ブルートゥース・システム、および補助デバイス・システムから成るグループから選択されたものである、請求項1に記載のシステム。
  5. 前記触覚アクチュエータは、電磁モータ・アクチュエータ、偏心回転質量、直線状共振アクチュエータ、形状記憶合金アクチュエータ、電気活性高分子アクチュエータ、振動触覚アクチュエータ、慣性アクチュエータ、圧電アクチュエータ、および可動磁石アクチュエータから成るグループから選択されたものである、請求項1に記載のシステム。
  6. 前記触覚アクチュエータは、前記車両の内部の部分に結合されている、請求項1に記載のシステム。
  7. 前記触覚アクチュエータは、シート、ステアリング・ホイール、肘掛け、ドアの肘掛け、またはシートベルトのうちの少なくとも1つに結合されている、請求項6に記載のシステム。
  8. 前記触覚アクチュエータは、前記車両の運転者または乗客によって着用可能な物体に結合されている、請求項1に記載のシステム。
  9. 前記車両の運転者または乗客によって着用可能な前記物体は、手袋、帽子、腕輪、または腕飾りのうちの少なくとも1つである、請求項8に記載のシステム。
  10. 前記ジェスチャー検出デバイスは少なくとも1つのカメラである、請求項1に記載のシステム。
  11. 前記車両の内部に配設され、前記車両の運転者または乗客のボイス指令を受け取って前記ボイス指令を表すデータを出力するように構成されている音声検出デバイスをさらに備え、
    前記コントローラは、前記音声検出デバイスに結合され、前記音声検出デバイスから前記ボイス指令を表す信号を受け取るように構成されており、
    前記コントローラは、前記ボイス指令を表す前記信号に基づいて、前記効果表から触覚効果を選択するための信号を送り、前記触覚アクチュエータに対して、前記選択された触覚効果を与えるための信号を送るように構成されており、
    前記コントローラは、前記ボイス指令を表す前記信号に基づいて、前記複数の車両システムのうちの前記少なくとも1つに対して、特定の動作を遂行させるための信号を送るようにさらに構成されており、前記車両システムの前記特定の動作は、前記選択された触覚効果と整合するものである、請求項1に記載のシステム。
  12. 前記音声検出デバイスはマイクロフォンを備える、請求項11に記載のシステム。
  13. 複数の車両システムのうちの1つまたは複数を制御する方法であって、
    前記車両の運転者または乗客の動きを追跡して、ジェスチャーの表から、前記運転者または乗客のジェスチャーを検出するステップと、
    前記検出されたジェスチャーに基づいて、効果の表から触覚効果を選択するステップと、
    触覚アクチュエータによって前記運転者または乗客に前記触覚効果を与えるステップと、
    前記検出されたジェスチャーに基づき、前記複数の車両システムのうちの少なくとも1つを制御して、特定の動作を遂行するステップであって、複数の車両システムのうちの前記少なくとも1つの前記特定の動作は、前記選択された触覚効果と整合するものであるステップとを含む方法。
  14. 前記車両システムは表示器であり、前記特定の動作は、前記検出されたジェスチャーに基づいて前記表示器上のアイコンを強調するものである、請求項13に記載の方法。
  15. 前記複数の車両システムのうちの少なくとも第2のものを制御して特定の動作を遂行するステップであって、前記複数の車両システムの第2のものの前記特定の動作は、前記表示器および前記触覚効果の前記特定の動作と整合するものであるステップをさらに含む、請求項14に記載の方法。
  16. 前記複数の車両システムは、表示器、ラジオ、CDプレーヤ、温度調節システム、ナビゲーション・システム、ブルートゥース・システム、および補助デバイス・システムから成るグループから選択された複数の車両システムを含む、請求項13に記載の方法。
  17. 前記触覚アクチュエータは、電磁モータ・アクチュエータ、偏心回転質量、直線状共振アクチュエータ、形状記憶合金アクチュエータ、電気活性高分子アクチュエータ、振動触覚アクチュエータ、慣性アクチュエータ、圧電アクチュエータ、および可動磁石アクチュエータから成るグループから選択されたものである、請求項13に記載の方法。
  18. 前記触覚アクチュエータは前記車両の内部に結合されている、請求項13に記載の方法。
  19. 前記触覚アクチュエータは、シート、ステアリング・ホイール、肘掛け、ドアの肘掛け、またはシートベルトのうちの少なくとも1つに結合されている、請求項18に記載の方法。
  20. 前記触覚アクチュエータは、前記運転者または乗客によって着用可能な物体に結合されている、請求項13に記載の方法。
  21. 前記運転者または乗客の運動を追跡する前記ステップはカメラによって遂行される、請求項13に記載の方法。
  22. 前記車両内の音声を検出して、前記車両の運転者または乗客からのボイス指令を検出するステップと、
    前記検出されたボイス指令に基づいて、効果の表から触覚効果を選択するステップと、
    前記触覚アクチュエータによって前記触覚効果を与えるステップと、
    前記検出されたボイス指令に基づき、前記複数の車両システムのうちの少なくとも1つを制御して、特定の動作を遂行するステップであって、複数の車両システムのうちの前記少なくとも1つの前記特定の動作は、前記選択された触覚効果と整合するものであるステップとをさらに含む、請求項13に記載の方法。
  23. 前記車両内の音声を検出する前記ステップはマイクロフォンによって遂行される、請求項22に記載の方法。
JP2021097299A 2013-12-20 2021-06-10 車両の中で触覚フィードバックを用いるジェスチャー・ベースの入力システム Pending JP2021166058A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/137,540 2013-12-20
US14/137,540 US9248840B2 (en) 2013-12-20 2013-12-20 Gesture based input system in a vehicle with haptic feedback
JP2014257045A JP6935164B2 (ja) 2013-12-20 2014-12-19 車両の中で触覚フィードバックを用いるジェスチャー・ベースの入力システム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014257045A Division JP6935164B2 (ja) 2013-12-20 2014-12-19 車両の中で触覚フィードバックを用いるジェスチャー・ベースの入力システム

Publications (1)

Publication Number Publication Date
JP2021166058A true JP2021166058A (ja) 2021-10-14

Family

ID=52282392

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2014257045A Active JP6935164B2 (ja) 2013-12-20 2014-12-19 車両の中で触覚フィードバックを用いるジェスチャー・ベースの入力システム
JP2021097299A Pending JP2021166058A (ja) 2013-12-20 2021-06-10 車両の中で触覚フィードバックを用いるジェスチャー・ベースの入力システム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2014257045A Active JP6935164B2 (ja) 2013-12-20 2014-12-19 車両の中で触覚フィードバックを用いるジェスチャー・ベースの入力システム

Country Status (5)

Country Link
US (3) US9248840B2 (ja)
EP (2) EP3696651A1 (ja)
JP (2) JP6935164B2 (ja)
KR (1) KR20150073857A (ja)
CN (1) CN104731319A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024204462A1 (ja) * 2023-03-30 2024-10-03 フォスター電機株式会社 触感フィードバックシステム

Families Citing this family (117)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10146320B2 (en) 2007-10-29 2018-12-04 The Boeing Company Aircraft having gesture-based control for an onboard passenger service unit
DE112012004767T5 (de) * 2011-11-16 2014-11-06 Flextronics Ap, Llc Vollständiges Fahrzeugökosystem
US20140310379A1 (en) 2013-04-15 2014-10-16 Flextronics Ap, Llc Vehicle initiated communications with third parties via virtual personality
US9248840B2 (en) * 2013-12-20 2016-02-02 Immersion Corporation Gesture based input system in a vehicle with haptic feedback
US20150185845A1 (en) * 2013-12-26 2015-07-02 Wes A. Nagara Providing tactle feedback for gesture based inputs
US9430046B2 (en) * 2014-01-16 2016-08-30 Denso International America, Inc. Gesture based image capturing system for vehicle
US11625145B2 (en) 2014-04-28 2023-04-11 Ford Global Technologies, Llc Automotive touchscreen with simulated texture for the visually impaired
US9829979B2 (en) * 2014-04-28 2017-11-28 Ford Global Technologies, Llc Automotive touchscreen controls with simulated texture for haptic feedback
US10579252B2 (en) 2014-04-28 2020-03-03 Ford Global Technologies, Llc Automotive touchscreen with simulated texture for the visually impaired
US9827904B2 (en) 2014-10-20 2017-11-28 Immersion Corporation Systems and methods for enhanced continuous awareness in vehicles using haptic feedback
KR101866740B1 (ko) * 2014-11-13 2018-06-15 현대자동차주식회사 터치 입력장치 및 이를 포함하는 차량
US20160162092A1 (en) * 2014-12-08 2016-06-09 Fujitsu Ten Limited Operation device
KR101784472B1 (ko) * 2015-01-13 2017-10-11 주식회사 씨케이머티리얼즈랩 촉각 정보 제공 기기
US10099608B2 (en) * 2015-01-16 2018-10-16 Ford Global Technologies, Llc Haptic vehicle alert based on wearable device
DE102015204280A1 (de) * 2015-03-10 2016-09-15 Robert Bosch Gmbh Verfahren zur Aktivierung eines Aktuators eines Kraftfahrzeugs, zur Ausführung des Verfahrens eingerichtete Vorrichtung und Computerprogrammprodukt
US9550406B2 (en) * 2015-03-16 2017-01-24 Thunder Power Hong Kong Ltd. Thermal dissipation system of an electric vehicle
TWI552892B (zh) * 2015-04-14 2016-10-11 鴻海精密工業股份有限公司 車輛控制系統及其操作方法
EP3106343A1 (en) * 2015-06-19 2016-12-21 Continental Automotive GmbH Gesture based user input device for car electronics
JP2017026230A (ja) * 2015-07-23 2017-02-02 パナソニックIpマネジメント株式会社 空調制御装置、空調装置、空調制御方法、空調制御システム、空調制御プログラム、および記録媒体
KR101910383B1 (ko) * 2015-08-05 2018-10-22 엘지전자 주식회사 차량 운전 보조 장치 및 이를 구비한 차량
JP6585431B2 (ja) * 2015-08-31 2019-10-02 株式会社デンソーテン 入力装置、統合入力システム、入力装置の制御方法およびプログラム
US20170060245A1 (en) * 2015-08-31 2017-03-02 Fujitsu Ten Limited Input device, integrated input system, input device control method, and program
USD788170S1 (en) * 2015-09-03 2017-05-30 Continental Automotive Gmbh Display screen with icon
US10116873B1 (en) * 2015-11-09 2018-10-30 Ambarella, Inc. System and method to adjust the field of view displayed on an electronic mirror using real-time, physical cues from the driver in a vehicle
JP6576225B2 (ja) * 2015-11-27 2019-09-18 クラリオン株式会社 車両用報知装置および車両用報知方法
DE102015120605A1 (de) * 2015-11-27 2017-06-01 Valeo Schalter Und Sensoren Gmbh Bedienvorrichtung für ein Kraftfahrzeug mit Antriebseinrichtung zum Ausgeben einer haptischen Rückmeldung sowie Kraftfahrzeug
US9990078B2 (en) 2015-12-11 2018-06-05 Immersion Corporation Systems and methods for position-based haptic effects
US10013858B2 (en) * 2016-02-26 2018-07-03 At&T Intellectual Property I, L.P. Notification system with haptic feedback garment and methods for use therewith
EP3214528B1 (en) 2016-03-04 2019-09-11 Nxp B.V. Gesture feedback
CN109478354B (zh) 2016-07-22 2022-02-08 哈曼国际工业有限公司 触觉引导系统
US9891711B1 (en) 2016-07-26 2018-02-13 Toyota Motor Engineering & Manufacturing North America, Inc. Human machine interface with haptic response based on phased array LIDAR
DE102016214523A1 (de) * 2016-08-05 2018-02-08 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung zur gestenbasierten Steuerung eines Systems
DE102016214692B4 (de) * 2016-08-08 2018-02-15 Audi Ag Verfahren und Benutzerschnittstelle, betreffend eine haptische Rückmeldung für einen Bildschirm
DE102016216318A1 (de) 2016-08-30 2018-03-01 Continental Automotive Gmbh Verfahren und Vorrichtung zur Bedienung eines elektronischen Gerätes
EP3290284A1 (en) * 2016-08-30 2018-03-07 Honda Research Institute Europe GmbH Vehicle with a driver seat and at least one passenger seat and a method for providing a co-driver and/or at least one fellow passenger with information on a currently experienced driving situation
WO2018046302A1 (de) * 2016-09-09 2018-03-15 Behr-Hella Thermocontrol Gmbh Bedieneinheit für ein gerät, insbesondere für eine fahrzeugkomponente
US11059495B2 (en) * 2016-09-12 2021-07-13 Sony Corporation Information presentation apparatus, steering apparatus, and information presentation method
GB2555088A (en) 2016-10-11 2018-04-25 Jaguar Land Rover Ltd Interface apparatus and method
DE112016007259T5 (de) * 2016-10-24 2019-06-06 Ford Motor Company Gestenbasierte benutzerschnittstelle
EP3825822B1 (en) * 2016-11-17 2023-04-19 Sony Group Corporation Vibration presentation device, vibration presentation method, and program
DE102017200717A1 (de) * 2016-12-23 2018-06-28 Audi Ag Berührungslos bedienbare Bedienvorrichtung für ein Kraftfahrzeug sowie Kraftfahrzeug und Betriebsverfahren für die Bedienvorrichtung
DE102017100595A1 (de) * 2017-01-13 2018-07-19 Palm Beach Technology Llc Smart Chair
DE102017201236B4 (de) 2017-01-26 2023-09-07 Volkswagen Aktiengesellschaft Verfahren zum Betreiben eines Bediensystems, Bediensystem und Fahrzeug mit einem Bediensystem
US10732714B2 (en) 2017-05-08 2020-08-04 Cirrus Logic, Inc. Integrated haptic system
US10742061B2 (en) 2017-06-28 2020-08-11 Honda Motor Co., Ltd. Smart functional leather for recharging a portable electronic device
US10953793B2 (en) * 2017-06-28 2021-03-23 Honda Motor Co., Ltd. Haptic function leather component and method of making the same
US11665830B2 (en) 2017-06-28 2023-05-30 Honda Motor Co., Ltd. Method of making smart functional leather
US10682952B2 (en) 2017-06-28 2020-06-16 Honda Motor Co., Ltd. Embossed smart functional premium natural leather
US11225191B2 (en) 2017-06-28 2022-01-18 Honda Motor Co., Ltd. Smart leather with wireless power
US10272836B2 (en) 2017-06-28 2019-04-30 Honda Motor Co., Ltd. Smart functional leather for steering wheel and dash board
KR102406511B1 (ko) * 2017-07-04 2022-06-10 현대자동차주식회사 차량 시스템 및 그 제어 방법
US11259121B2 (en) 2017-07-21 2022-02-22 Cirrus Logic, Inc. Surface speaker
US20190073040A1 (en) * 2017-09-05 2019-03-07 Future Mobility Corporation Limited Gesture and motion based control of user interfaces
KR101968620B1 (ko) * 2017-09-11 2019-04-12 (주)신오전자 차량용 hmi 시스템 및 방법
US20190124290A1 (en) * 2017-10-20 2019-04-25 Shenzhen Matego Electronics Technology Co., Ltd. Dashboard Camera
US11273836B2 (en) 2017-12-18 2022-03-15 Plusai, Inc. Method and system for human-like driving lane planning in autonomous driving vehicles
US10433630B2 (en) 2018-01-05 2019-10-08 L'oreal Cosmetic applicator system including trackable cosmetic device, and client device to assist users in makeup application
US10810902B2 (en) 2018-01-05 2020-10-20 L'oreal Trackable cosmetic device to assist users in makeup application
US10620704B2 (en) 2018-01-19 2020-04-14 Cirrus Logic, Inc. Haptic output systems
US10455339B2 (en) 2018-01-19 2019-10-22 Cirrus Logic, Inc. Always-on detection systems
US11139767B2 (en) 2018-03-22 2021-10-05 Cirrus Logic, Inc. Methods and apparatus for driving a transducer
US10795443B2 (en) 2018-03-23 2020-10-06 Cirrus Logic, Inc. Methods and apparatus for driving a transducer
US10667051B2 (en) 2018-03-26 2020-05-26 Cirrus Logic, Inc. Methods and apparatus for limiting the excursion of a transducer
US10820100B2 (en) 2018-03-26 2020-10-27 Cirrus Logic, Inc. Methods and apparatus for limiting the excursion of a transducer
US10832537B2 (en) 2018-04-04 2020-11-10 Cirrus Logic, Inc. Methods and apparatus for outputting a haptic signal to a haptic transducer
WO2019213209A1 (en) * 2018-05-04 2019-11-07 Honda Motor Co., Ltd. Functional leather component and method of making the same
US11069206B2 (en) 2018-05-04 2021-07-20 Cirrus Logic, Inc. Methods and apparatus for outputting a haptic signal to a haptic transducer
EP3613638A1 (en) 2018-08-10 2020-02-26 Lg Electronics Inc. Vehicle display system for vehicle
US11269415B2 (en) 2018-08-14 2022-03-08 Cirrus Logic, Inc. Haptic output systems
US10800433B2 (en) 2018-09-14 2020-10-13 Honda Motor Co., Ltd. Seat haptic system and method of equalizing haptic output
KR102178939B1 (ko) * 2018-10-17 2020-11-13 유병훈 환경제어장치 및 환경제어방법
WO2020085521A1 (ko) * 2018-10-23 2020-04-30 엘지전자 주식회사 입출력 장치 및 그것을 포함하는 차량
GB201817495D0 (en) 2018-10-26 2018-12-12 Cirrus Logic Int Semiconductor Ltd A force sensing system and method
US11345309B2 (en) 2018-12-07 2022-05-31 Universal City Studios Llc Ride vehicle restraint system
US10682578B1 (en) 2018-12-14 2020-06-16 Universal City Studios Llc Ride vehicle restraint system
KR20200085970A (ko) * 2019-01-07 2020-07-16 현대자동차주식회사 자동차 및 그 제어 방법
US10810845B2 (en) * 2019-01-11 2020-10-20 Drift Net Security system for detecting hazardous events and occupants in a building
US11899448B2 (en) * 2019-02-21 2024-02-13 GM Global Technology Operations LLC Autonomous vehicle that is configured to identify a travel characteristic based upon a gesture
US10955955B2 (en) 2019-03-29 2021-03-23 Cirrus Logic, Inc. Controller for use in a device comprising force sensors
US11644370B2 (en) 2019-03-29 2023-05-09 Cirrus Logic, Inc. Force sensing with an electromagnetic load
US11283337B2 (en) 2019-03-29 2022-03-22 Cirrus Logic, Inc. Methods and systems for improving transducer dynamics
US12035445B2 (en) 2019-03-29 2024-07-09 Cirrus Logic Inc. Resonant tracking of an electromagnetic load
US10828672B2 (en) 2019-03-29 2020-11-10 Cirrus Logic, Inc. Driver circuitry
US11509292B2 (en) 2019-03-29 2022-11-22 Cirrus Logic, Inc. Identifying mechanical impedance of an electromagnetic load using least-mean-squares filter
US10992297B2 (en) 2019-03-29 2021-04-27 Cirrus Logic, Inc. Device comprising force sensors
US10726683B1 (en) 2019-03-29 2020-07-28 Cirrus Logic, Inc. Identifying mechanical impedance of an electromagnetic load using a two-tone stimulus
US11238671B2 (en) 2019-04-18 2022-02-01 Honda Motor Co., Ltd. System and method for providing haptic alerts within a vehicle
US11751337B2 (en) 2019-04-26 2023-09-05 Honda Motor Co., Ltd. Wireless power of in-mold electronics and the application within a vehicle
FR3095912B1 (fr) * 2019-05-06 2022-05-13 St Microelectronics Rousset Procédé de compensation d’un déphasage entre le signal émis par un objet et celui reçu d’un lecteur équipé d’un détecteur d’enveloppe et objet correspondant
CN111942242B (zh) * 2019-05-14 2022-10-25 奥迪股份公司 用于车辆中安抚儿童的系统、车辆、相对应的方法和介质
US11150733B2 (en) 2019-06-07 2021-10-19 Cirrus Logic, Inc. Methods and apparatuses for providing a haptic output signal to a haptic actuator
US10976825B2 (en) 2019-06-07 2021-04-13 Cirrus Logic, Inc. Methods and apparatuses for controlling operation of a vibrational output system and/or operation of an input sensor system
GB2604215B (en) 2019-06-21 2024-01-31 Cirrus Logic Int Semiconductor Ltd A method and apparatus for configuring a plurality of virtual buttons on a device
DE102019210010A1 (de) 2019-07-08 2021-01-14 Volkswagen Aktiengesellschaft Verfahren und Bediensystem zum Erfassen einer Nutzereingabe für eine Einrichtung eines Fahrzeugs
DE102019210009A1 (de) 2019-07-08 2021-01-28 Volkswagen Aktiengesellschaft Verfahren zum Betreiben eines Bediensystems in einem Fahrzeug und Bediensystem in einem Fahrzeug
DE102019210008A1 (de) 2019-07-08 2021-01-14 Volkswagen Aktiengesellschaft Verfahren zum Betreiben eines Bediensystems und Bediensystem
KR20210029921A (ko) * 2019-09-09 2021-03-17 현대자동차주식회사 터치 스크린, 그를 가지는 차량 및 그 제어 방법
WO2021049296A1 (ja) * 2019-09-09 2021-03-18 国立研究開発法人科学技術振興機構 力覚提示装置及び力覚提示方法
US11408787B2 (en) 2019-10-15 2022-08-09 Cirrus Logic, Inc. Control methods for a force sensor system
US11380175B2 (en) 2019-10-24 2022-07-05 Cirrus Logic, Inc. Reproducibility of haptic waveform
US11545951B2 (en) 2019-12-06 2023-01-03 Cirrus Logic, Inc. Methods and systems for detecting and managing amplifier instability
US11873000B2 (en) 2020-02-18 2024-01-16 Toyota Motor North America, Inc. Gesture detection for transport control
US20210276575A1 (en) * 2020-03-04 2021-09-09 Ford Global Technologies, Llc Vehicle component identification system
US11144129B2 (en) * 2020-03-04 2021-10-12 Panasonic Avionics Corporation Depth sensing infrared input device and associated methods thereof
US11662821B2 (en) 2020-04-16 2023-05-30 Cirrus Logic, Inc. In-situ monitoring, calibration, and testing of a haptic actuator
DE102020003923B3 (de) * 2020-06-30 2021-11-04 Daimler Ag Bedieneinheit mit einer berührungssensitiven Bedienfläche
GB2597492B (en) * 2020-07-23 2022-08-03 Nissan Motor Mfg Uk Ltd Gesture recognition system
US11521470B2 (en) * 2020-10-28 2022-12-06 Cerence Operating Company Haptic communication with a vehicle's occupant
WO2022241015A1 (en) * 2021-05-12 2022-11-17 Polestar Performance Ab Electroactive polymer seat
US11933822B2 (en) 2021-06-16 2024-03-19 Cirrus Logic Inc. Methods and systems for in-system estimation of actuator parameters
US11908310B2 (en) 2021-06-22 2024-02-20 Cirrus Logic Inc. Methods and systems for detecting and managing unexpected spectral content in an amplifier system
US11765499B2 (en) 2021-06-22 2023-09-19 Cirrus Logic Inc. Methods and systems for managing mixed mode electromechanical actuator drive
US20230049900A1 (en) * 2021-08-16 2023-02-16 Toyota Research Institute, Inc. Displaced haptic feedback
US11552649B1 (en) 2021-12-03 2023-01-10 Cirrus Logic, Inc. Analog-to-digital converter-embedded fixed-phase variable gain amplifier stages for dual monitoring paths
KR102559138B1 (ko) * 2022-12-28 2023-07-25 에이아이다이콤 (주) 차량용 비 접촉식 제어 시스템
WO2024144035A1 (ko) * 2022-12-28 2024-07-04 에이아이다이콤(주) 홀로그램 디스플레이 시스템 및 그 제어방법
CN118732886A (zh) * 2023-03-28 2024-10-01 纬创资通股份有限公司 具有触觉输出的电子装置及触觉输出的控制方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002149304A (ja) * 2000-11-13 2002-05-24 Toyota Motor Corp コンピュータのユーザ・インターフェース用システム及びユーザ・インターフェース提供方法
US20090267921A1 (en) * 1995-06-29 2009-10-29 Pryor Timothy R Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1052593B1 (en) * 1999-05-13 2015-07-15 Canon Kabushiki Kaisha Form search apparatus and method
US7050606B2 (en) 1999-08-10 2006-05-23 Cybernet Systems Corporation Tracking and gesture recognition system particularly suited to vehicular control applications
EP1330811B1 (en) * 2000-09-28 2012-08-22 Immersion Corporation Directional tactile feedback for haptic feedback interface devices
JP2003131785A (ja) * 2001-10-22 2003-05-09 Toshiba Corp インタフェース装置および操作制御方法およびプログラム製品
US7196790B2 (en) * 2002-03-18 2007-03-27 Honeywell International Inc. Multiple wavelength spectrometer
US7519223B2 (en) * 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
US7295904B2 (en) 2004-08-31 2007-11-13 International Business Machines Corporation Touch gesture based interface for motor vehicle
DE102004044880B3 (de) * 2004-09-14 2006-06-14 Siemens Ag Bedienelement für eine Heizungs- und Klimaanlage
US7792328B2 (en) 2007-01-12 2010-09-07 International Business Machines Corporation Warning a vehicle operator of unsafe operation behavior based on a 3D captured image stream
JP4605170B2 (ja) * 2007-03-23 2011-01-05 株式会社デンソー 操作入力装置
US8508486B2 (en) * 2007-10-01 2013-08-13 Immersion Corporation Directional haptic effects for a handheld device
US8031172B2 (en) 2007-10-12 2011-10-04 Immersion Corporation Method and apparatus for wearable remote interface device
DE102008051756A1 (de) 2007-11-12 2009-05-14 Volkswagen Ag Multimodale Benutzerschnittstelle eines Fahrerassistenzsystems zur Eingabe und Präsentation von Informationen
US9791918B2 (en) 2008-03-26 2017-10-17 Pierre Bonnat Breath-sensitive digital interface
CN102112945B (zh) 2008-06-18 2016-08-10 奥布隆工业有限公司 用于交通工具接口的基于姿态的控制系统
EP2457142B1 (en) 2009-07-22 2019-12-25 Immersion Corporation Interactive touch screen gaming metaphors with haptic feedback across platforms
KR101802520B1 (ko) * 2010-03-16 2017-11-28 임머숀 코퍼레이션 프리 터치 및 트루 터치용 시스템 및 방법
ES2791722T3 (es) 2012-02-02 2020-11-05 Airbus Helicopters Espana Sa Maqueta virtual con ayuda portátil háptica
KR102024006B1 (ko) * 2012-02-10 2019-09-24 삼성전자주식회사 진동 장치간 진동 전달을 제어하는 장치 및 방법
US8942881B2 (en) * 2012-04-02 2015-01-27 Google Inc. Gesture-based automotive controls
US9149236B2 (en) * 2013-02-04 2015-10-06 Intel Corporation Assessment and management of emotional state of a vehicle operator
US9248840B2 (en) * 2013-12-20 2016-02-02 Immersion Corporation Gesture based input system in a vehicle with haptic feedback
US9891711B1 (en) * 2016-07-26 2018-02-13 Toyota Motor Engineering & Manufacturing North America, Inc. Human machine interface with haptic response based on phased array LIDAR

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090267921A1 (en) * 1995-06-29 2009-10-29 Pryor Timothy R Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics
JP2002149304A (ja) * 2000-11-13 2002-05-24 Toyota Motor Corp コンピュータのユーザ・インターフェース用システム及びユーザ・インターフェース提供方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024204462A1 (ja) * 2023-03-30 2024-10-03 フォスター電機株式会社 触感フィードバックシステム

Also Published As

Publication number Publication date
JP2015133109A (ja) 2015-07-23
KR20150073857A (ko) 2015-07-01
EP2889723A1 (en) 2015-07-01
US9248840B2 (en) 2016-02-02
US20150175172A1 (en) 2015-06-25
EP3696651A1 (en) 2020-08-19
EP2889723B1 (en) 2020-03-11
US20180015933A1 (en) 2018-01-18
US9718477B2 (en) 2017-08-01
US10449972B2 (en) 2019-10-22
JP6935164B2 (ja) 2021-09-15
US20160144868A1 (en) 2016-05-26
CN104731319A (zh) 2015-06-24

Similar Documents

Publication Publication Date Title
JP6935164B2 (ja) 車両の中で触覚フィードバックを用いるジェスチャー・ベースの入力システム
US10394375B2 (en) Systems and methods for controlling multiple displays of a motor vehicle
CN110045825B (zh) 用于车辆交互控制的手势识别系统
US10579252B2 (en) Automotive touchscreen with simulated texture for the visually impaired
EP2933130B1 (en) Vehicle control apparatus and method thereof
US20180232057A1 (en) Information Processing Device
CN106427571B (zh) 交互式操纵装置和用于运行所述交互式操纵装置的方法
JP2020537209A (ja) ユーザインタフェースの動作及び運動ベースの制御
JP2020506476A (ja) マンマシンインタフェースの操作方法並びにマンマシンインタフェース
US20190212910A1 (en) Method for operating a human-machine interface and human-machine interface
CN112384403A (zh) 用于运行显示操作设备的方法、显示操作设备以及机动车
JP2016126784A (ja) 相互システムの情報を伝達するために触覚制御装置の触覚表面を動的に変化するための技術
US20230049900A1 (en) Displaced haptic feedback
CN110850975B (zh) 具有手掌辨识的电子系统、车辆及其操作方法
Zulkefli et al. Automotive Interior: A study on the Dashboard Touch Screen Panel and Its Impact to the Driver
CN107783647A (zh) 柔性屏输入设备及信息娱乐系统

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210707

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230403

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231117

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240228

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20240531