JP2016018558A - ヒューマンマシンインタラクションを支援する装置及び方法 - Google Patents
ヒューマンマシンインタラクションを支援する装置及び方法 Download PDFInfo
- Publication number
- JP2016018558A JP2016018558A JP2015118079A JP2015118079A JP2016018558A JP 2016018558 A JP2016018558 A JP 2016018558A JP 2015118079 A JP2015118079 A JP 2015118079A JP 2015118079 A JP2015118079 A JP 2015118079A JP 2016018558 A JP2016018558 A JP 2016018558A
- Authority
- JP
- Japan
- Prior art keywords
- user
- interest
- state
- systems
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 230000003993 interaction Effects 0.000 title description 8
- 230000001537 neural effect Effects 0.000 claims description 2
- 230000000007 visual effect Effects 0.000 abstract 1
- 238000004378 air conditioning Methods 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 230000006870 function Effects 0.000 description 3
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Instrument Panels (AREA)
Abstract
【課題】車両を運転する際に、車両搭載システムとインタラクトしている間の注意散漫を最小限にする装置及び方法を提供する。
【解決手段】車両システム等のシステムのセットとインタラクトする方法は、まず、センサー101を用いて、ユーザー視線等のユーザーの関心の方向を求める110。システムのうちの1つは、関心の方向に基づいて選択され120、選択されたシステムに対応するように状態が変更される130。ユーザーからの入力は、制御装置102(入力デバイス)を用いて取得され150、その後、状態と入力に従って、選択されたシステムに対し動作を行う160。
【選択図】図1
【解決手段】車両システム等のシステムのセットとインタラクトする方法は、まず、センサー101を用いて、ユーザー視線等のユーザーの関心の方向を求める110。システムのうちの1つは、関心の方向に基づいて選択され120、選択されたシステムに対応するように状態が変更される130。ユーザーからの入力は、制御装置102(入力デバイス)を用いて取得され150、その後、状態と入力に従って、選択されたシステムに対し動作を行う160。
【選択図】図1
Description
この発明は、包括的には、ヒューマンマシンインタラクション(HMI)に関し、より詳細には、HMIを簡略化することに関する。
多くの場合、ユーザーは、何らかの目的を遂行するために、マシン、機器、及びシステム(本明細書においては、包括的にシステムとする)とインタラクトすることを望む。しかしながら、多くのシステムは、ユーザーが行うことのできる多数の潜在的なインタラクションを有する。例えば、車両を考慮されたい。多くの車両は、車両の運転の主要なタスク、例えば、操縦、加速、及び減速を行うための、一般的に入力デバイスである制御装置に加えて、エンターテイメントシステム、空調システム、ナビゲーションシステム、座席システムを調整するための制御装置も有する。通常、各システムは、例えば、ラジオのための音量、フェーダー、及びチューナー、空調のための温度及びファン等の制御装置の専用セットを有する。多くの場合、運転者はこれらの制御装置を作動させるために、所望の目的、例えば、ラジオ局の変更を遂行するために注意を運転から著しく転じなければならない。
何らかのタスクを行うためにそのようなシステムとインタラクトする困難さをいくらか改善する1つの手法は、モーダル手法を用いることである。それにより、制御装置は、システムが1つのモードにあるときに、空調制御等の1つの機能を有することができ、システムが別のモードにあるときに、ラジオ制御等の別の機能を有することができる。この手法は、ユーザーがインタラクトしなければならない入力デバイスの数を大幅に減らすことができる。しかしながら、入力デバイスの数を大幅に減らすためにメニューシステムが極度に複雑になり、これはユーザーの更なる注意散漫及びフラストレーションにつながるおそれがある。
車両操縦者の注意散漫を減らすことができる別の手法は、ヘッドアップディスプレイ(HUD)を用いることである。それにより、運転者は運転中に視線を転じる必要がなくなる。しかしながら、HUDでは、システムが提供する多数のインタラクションを支援するための入力デバイスが多すぎるという問題が解決されない。
特許文献1は、ユーザーの視線に基づいてシステムを制御する方法を記載している。しかしながら、この方法は、マシンを視線の補助によって直感的に制御することに関して幾つかの短所を有する。
まず、このシステムにおいて、ユーザーは、グラフィカルユーザーインターフェース(GUI)のコンポーネントを直接注視して、特定の動作を選択しなければならない。この要件の結果として、アクティブにコンポーネントを注視している間に視線に従った動作を行うように、入力デバイスが依存的に構成される。これは、目と手とのギャップ(eye-hand gap)として知られる現象に起因して問題となり得る。目と手とのギャップは、人が、注視したGUIコンポーネントに関連した動作を行う際に生じる遅れであるが、マウスのクリック等の実際の入力動作のときには、多くの場合、視線は既に関心の対象から、操縦者が関心のある次のコンポーネントに移っている。
次に、操縦者は入力を向けている間コンポーネントを注視しなくてはならないため、ユーザーはその動作を続けている間、視線の向きを変えることができない。例えば、ユーザーはオーディオ音量を変えたい場合、音量制御コンポーネントを凝視し続けなければならない。
図1に示されるように、この発明の実施の形態は、ヒューマンマシンインタラクション(HMI)を簡略化する装置及び方法を提供し、より詳細には、車両を運転する際に、車両搭載システム170とインタラクトしている間の注意散漫を最小限にする装置及び方法を提供する。本方法のステップは、メモリに接続された1つ又は複数のプロセッサ100において実行することができる。
本方法は、ユーザーによって示された関心の推定方向に基づいてシステムに状態を変更させることにより、HMIを大幅に改善する。次に、システムの状態を用いて、例えば、入力デバイスの作用又はアクチュエーターの出力をシステムのために変え、ユーザーインタラクションの完了の成功を容易にすることができる。
1つの実施の形態では、車両は、車両システムにおける様々なステータスを示すヘッドアップディスプレイ(HUD)を備える。ユーザーは、様々な表示コンポーネントを選択し、それに応じて状態を変更することができる。次に、単一の入力デバイスが、コンポーネントと関連した制御機能を引き継ぐことができる。関心の方向は、眼球追跡又は頭部姿勢追跡により求めることができる。
この発明の実施の形態は、ヒューマンマシンインタラクション(HMI)を簡略化する装置及び方法を提供し、より詳細には、車両を運転する際に、車両搭載システムのセットとインタラクトしている間の注意散漫を最小限にする装置及び方法を提供する。
図1は、実施の形態に係る方法を示す。センサー101を用いて関心の方向105を求める(110)。関心の方向は、眼球追跡、頭部姿勢追跡、手指追跡、腕部追跡、神経パターン追跡、又はこれらの組み合わせを含む様々な方法で求めることができる。関心は、システム、ヘッドアップディスプレイ(HUD)、物理的な対象、又は仮想対象のうちの1つに向けることができる。
関心の方向を用いて、セット170内のシステムのうちの1つを選択することができる(120)。次いで、状態106を変更するか否かを判断する(130)。例えば、選択されたシステムが現在のシステムと同じであることに起因して、状態が変更されない場合(F)、ステップ110において継続する。そうでない場合(T)、状態を、選択したシステムの状態に変更する(140)。状態は、有限状態マシンとして保持することができる。次に、入力104が制御装置102から取得され(150)、それに応じて、選択されたものに対し動作が行われる(160)。
図2は、実施の形態に係る装置を示す。この実施の形態において、HUD200が用いられる。HUDは、ディスプレイの外縁に複数のコンテクストエリア(context area)201〜204を有するように構成することができる。セット170の各システムにつき1つのエリアが存在する。運転者が特定のエリアを注視すると、状態106は以前の状態から、ユーザーが注視しているエリアに関連する次の状態へと切り替えられる。頭部姿勢も用いることができる。
例えば、運転者がラジオエリア202を注視した場合、HUDの他の様々なエリアは、表示画面上のグラフィカルコンポーネント、例えば、フロントガラス又はアイコンとすることができる。コンポーネントは、局周波数及び音量212等の表示されたラジオ関連情報等に対応することができる。さらに、ハンドルに取り付けられたスクロールホイール又はスライダー等の入力デバイス又は制御装置102によって、例えば、車両の空調制御からラジオ音量212の制御へと作用を自動的に転じることができる。このようにして、操縦者は、視線を道路から大幅に動かすことも、両手をハンドルから大幅に動かすことも行う必要が一切なくなる。それにより、車両を運転するという主要タスクを注意散漫なしに行うことができる。入力は、音声又はジェスチャー認識システムによって取得することもできる。
本装置及び方法は、ユーザーの関心の方向をアクティブに監視し、この関心が、関連する状態を有する既知の(現実の、又はHUDにおける場合のように仮想の)システムに向けられたとき、この状態は選択したシステムに対応するように変更される。
状態を変える動作は、常に別個の変更でなくてもよい。代わりに、動作はユーザーの対象に対する関心又は注意の確率的測度とすることができる。
代替的な実施の形態では、例えば非決定論的状態マシンにおいて、ユーザーがシステムの状態を変えるアクティブな意図なしに関心のシステムを注視している状況をできる限り避けるために、複数の状態を同時に保持することができる。
Claims (16)
- システムのセットとインタラクトする方法であって、
センサーを用いてユーザーの関心の方向を求めるステップと、
前記関心の方向に基づいて前記システムのうちの1つを選択するステップと、
前記選択されたシステムに対応する状態に変更するか否かを判断するステップと、
真の場合、前記選択されたシステムに対応する前記状態に変更するステップと、
入力デバイスを用いて前記ユーザーから入力を取得するステップと、
前記状態及び前記入力に従って、前記選択されたシステムに対し動作を行うステップと、
を含み、前記ステップはプロセッサにおいて実行される、システムのセットとインタラクトする方法。 - 前記関心の方向は、眼球追跡、頭部姿勢追跡、手指追跡、腕部追跡、神経パターン追跡、又はこれらの組み合わせによって求められる、請求項1に記載の方法。
- 前記関心の方向は、表示画面上のグラフィカルコンポーネントに向けられる、請求項1の方法。
- 前記グラフィカルコンポーネントはヘッドアップディスプレイ(HUD)上にある、請求項3に記載の方法。
- 前記関心の方向は、前記システムのうちの1つのシステムの物理的コンポーネントに向けられる、請求項1に記載の方法。
- 前記関心の方向は仮想対象に向けられる、請求項1に記載の方法。
- 前記ユーザーは車両の運転者であり、前記システムは該車両に搭載される、請求項1に記載の方法。
- 前記状態は有限状態マシンにおいて保持される、請求項1に記載の方法。
- 前記有限状態マシンは非決定論的である、請求項8に記載の方法。
- 前記状態は確率的である、請求項1に記載の方法。
- 前記入力デバイスはハンドルに取り付けられる、請求項1に記載の方法。
- 前記入力デバイスは音声認識システムである、請求項1に記載の方法。
- 前記入力デバイスはジェスチャー認識システムである、請求項1に記載の方法。
- 前記状態は、前記ユーザーのためにディスプレイに提示されるグラフィカルコンポーネントの出力を変更する、請求項1に記載の方法。
- システムのセットとインタラクトするための装置であって、
非一時的メモリと、
センサーと、
前記非一時的メモリ及び前記センサーに接続されるプロセッサであって、該センサーを用いてユーザーの関心の方向を求め、該関心の方向に基づいて前記システムのうちの1つを選択し、該選択されたシステムに対応する状態に変更するか否かを判断し、真の場合、前記選択されたシステムに対応する前記状態に変更し、前記入力デバイスを用いてユーザーから入力を取得し、前記状態及び入力に従って、前記選択されたシステムに対し動作を行う、プロセッサと、
を備える、装置。 - 前記ユーザーは車両の運転者であり、前記システムは該車両に搭載される、請求項15に記載の装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/325,454 US20160011667A1 (en) | 2014-07-08 | 2014-07-08 | System and Method for Supporting Human Machine Interaction |
US14/325,454 | 2014-07-08 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016018558A true JP2016018558A (ja) | 2016-02-01 |
Family
ID=55067547
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015118079A Pending JP2016018558A (ja) | 2014-07-08 | 2015-06-11 | ヒューマンマシンインタラクションを支援する装置及び方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20160011667A1 (ja) |
JP (1) | JP2016018558A (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB201714572D0 (en) * | 2017-09-11 | 2017-10-25 | Bae Systems Plc | Head-mounted display and control apparatus and method |
CN113093907B (zh) * | 2021-04-03 | 2023-06-13 | 北京大学 | 人机交互方法、系统、设备及存储介质 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7126583B1 (en) * | 1999-12-15 | 2006-10-24 | Automotive Technologies International, Inc. | Interactive vehicle display system |
US6373472B1 (en) * | 1995-10-13 | 2002-04-16 | Silviu Palalau | Driver control interface system |
US6009355A (en) * | 1997-01-28 | 1999-12-28 | American Calcar Inc. | Multimedia information and control system for automobiles |
US6032089A (en) * | 1997-12-01 | 2000-02-29 | Chrysler Corporation | Vehicle instrument panel computer interface node |
US6240347B1 (en) * | 1998-10-13 | 2001-05-29 | Ford Global Technologies, Inc. | Vehicle accessory control with integrated voice and manual activation |
US20020140633A1 (en) * | 2000-02-03 | 2002-10-03 | Canesta, Inc. | Method and system to present immersion virtual simulations using three-dimensional measurement |
IL136652A0 (en) * | 2000-06-08 | 2001-06-14 | Arlinsky David | A closed-loop control system in a car |
JP2006315562A (ja) * | 2005-05-13 | 2006-11-24 | Matsushita Electric Ind Co Ltd | 車載用入力装置 |
US7764247B2 (en) * | 2006-02-17 | 2010-07-27 | Microsoft Corporation | Adaptive heads-up user interface for automobiles |
US20120169582A1 (en) * | 2011-01-05 | 2012-07-05 | Visteon Global Technologies | System ready switch for eye tracking human machine interaction control system |
-
2014
- 2014-07-08 US US14/325,454 patent/US20160011667A1/en not_active Abandoned
-
2015
- 2015-06-11 JP JP2015118079A patent/JP2016018558A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
US20160011667A1 (en) | 2016-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021166058A (ja) | 車両の中で触覚フィードバックを用いるジェスチャー・ベースの入力システム | |
JP2019197575A (ja) | 一つの制御装置及び触覚効果を利用可能なユーザインターフェースを使用して複数のディスプレイを制御するシステム並びに方法 | |
US10366602B2 (en) | Interactive multi-touch remote control | |
JP2020537209A (ja) | ユーザインタフェースの動作及び運動ベースの制御 | |
JP2011118857A (ja) | 車両のマルチメディアシステム操作用ユーザーインターフェース装置 | |
US10942630B2 (en) | Motor vehicle operator control apparatus having multiple coupled screens | |
EP3040843B1 (en) | Techniques for dynamically changing tactile surfaces of a haptic controller to convey interactive system information | |
EP3659848A1 (en) | Operating module, operating method, operating system and storage medium for vehicles | |
US20170293355A1 (en) | Method and apparatus for assigning control instructions in a vehicle, and vehicle | |
JP5754438B2 (ja) | ユーザインターフェース装置およびプログラム | |
JP2016018558A (ja) | ヒューマンマシンインタラクションを支援する装置及び方法 | |
JP6375715B2 (ja) | 視線入力装置 | |
CN111602102B (zh) | 用于视觉人-机交互的方法和系统 | |
JP6819539B2 (ja) | ジェスチャ入力装置 | |
US9939915B2 (en) | Control device and method for controlling functions in a vehicle, in particular a motor vehicle | |
JP2014182808A (ja) | タッチスクリーンユーザインターフェースのナビゲーション制御 | |
US20200247241A1 (en) | Multi-function vehicle input apparatuses with operational buttons for vehicle systems control and methods incorporating the same | |
JP2016185720A (ja) | 車両用入力システム | |
US20220129149A1 (en) | Control device, system, and program | |
JP2018063522A (ja) | 表示制御システムおよび表示制御プログラム | |
JP6371589B2 (ja) | 車載システム、視線入力受付方法及びコンピュータプログラム | |
WO2019146704A1 (ja) | 車両用操作メニュー表示制御装置、車載機器操作システム、及びguiプログラム | |
CN116783087A (zh) | 用于提高在操作设备期间的安全性的方法 | |
JP2020181279A (ja) | 車両用メニュー表示制御装置、車載機器操作システム、及びguiプログラム | |
JP2021068001A (ja) | 制御装置、プログラム、および制御システム |