JP2013082445A - 適応表示システムの表示コンポーネントの制御方法 - Google Patents

適応表示システムの表示コンポーネントの制御方法 Download PDF

Info

Publication number
JP2013082445A
JP2013082445A JP2012226220A JP2012226220A JP2013082445A JP 2013082445 A JP2013082445 A JP 2013082445A JP 2012226220 A JP2012226220 A JP 2012226220A JP 2012226220 A JP2012226220 A JP 2012226220A JP 2013082445 A JP2013082445 A JP 2013082445A
Authority
JP
Japan
Prior art keywords
menu
user
display
menus
display component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012226220A
Other languages
English (en)
Other versions
JP5547258B2 (ja
Inventor
Dinu Petre Madau
ピーター マダウ ディヌ
Matthew Mark Mikolajczak
マーク ミコライチャク マシュー
Paul Morris
モリス ポール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Visteon Global Technologies Inc
Original Assignee
Visteon Global Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Visteon Global Technologies Inc filed Critical Visteon Global Technologies Inc
Publication of JP2013082445A publication Critical patent/JP2013082445A/ja
Application granted granted Critical
Publication of JP5547258B2 publication Critical patent/JP5547258B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/29Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/60Instruments characterised by their location or relative disposition in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/65Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • B60K35/81Arrangements for controlling instruments for controlling displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/182Distributing information between displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/334Projection means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/77Instrument locations other than the dashboard
    • B60K2360/774Instrument locations other than the dashboard on or in the centre console
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Developmental Disabilities (AREA)
  • Pathology (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Educational Technology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Instrument Panels (AREA)

Abstract

【課題】手動操作を要求せずに、ユーザの視覚特性に基づいて表示コンポーネントの可視領域を最大にするように自動的に設定される適応表示システムの提供。
【解決手段】適応表示システムは、画像をユーザに提示するための表示コンポーネントと、ユーザの視覚特性を検出し、ユーザの視覚特性を表すセンサ信号を生成するセンサと、センサ及び表示コンポーネントと通信するプロセッサとを備えている。プロセッサは、センサ信号を受信し、命令セットに基づいてセンサ信号を解析することにより、ユーザの視覚特性を決定し、ユーザの視覚特性に基づいて表示コンポーネントの視覚的出力を制御する。
【選択図】図1

Description

本発明は、表示システム一般に関するものであり、特に、少なくとも1つの表示コンポーネントを含む適応表示システム、及びユーザの視線追跡に基づく、少なくとも1つの表示コンポーネントの視覚的出力の制御方法に関するものである。
視線追跡デバイスは、目の位置及び動きを検出する。視線追跡デバイスのいくつかの種類は、下記の特許文献1〜16に開示されている。現在、視線追跡デバイス及び方法は車両の運転手の眠気、及び不規則な動作を検出し、さらに、特定の車両システムのハンズフリー制御を可能にするために車両に実施される。
しかしながら、運転手は、一連の重要なタスク(ナビゲーション、速度及びガソリン残量のモニタリング、娯楽システム制御など)を実行するために、車両環境に関する視覚情報の取得を目的として、表示コンポーネント(例えば、ヘッドアップディスプレイ、ダッシュボードディスプレイ、及びセンタースタックディスプレイ)を頻繁に使用する必要がある。表示コンポーネントの限定された可視領域には、通常、典型的には何らかの手動制御により達成される調節機能が要求される。
米国特許第2288430号明細書 米国特許第2445787号明細書 米国特許第3462604号明細書 米国特許第3514193号明細書 米国特許第3534273号明細書 米国特許第3583794号明細書 米国特許第3806725号明細書 米国特許第3864030号明細書 米国特許第3992087号明細書 米国特許第4003642号明細書 米国特許第4034401号明細書 米国特許第4075657号明細書 米国特許第4102564号明細書 米国特許第4145122号明細書 米国特許第4169663号明細書 米国特許第4303394号明細書 米国特許第4648052号明細書 米国特許第4720189号明細書 米国特許第4836670号明細書 米国特許第4950069号明細書 米国特許第5008946号明細書 米国特許第5305012号明細書
手動操作を要求せずに、ユーザの視覚特性に基づいて表示コンポーネントの可視領域を最大にするように自動的に設定される適応表示システムの開発が所望されている。
本発明に従って、手動操作を要求せずに、ユーザの視覚特性に基づいて表示コンポーネントの可視領域を最大にするように自動的に設定される適応表示システムが驚くべきことに開発された。
一実施形態では、車両の表示システムの表示コンポーネントの制御方法は、メニューシステムをユーザに提示するように構成された表示コンポーネントを提供するステップと、ユーザの視覚特性を検出するセンサを提供するステップと、視覚特性に基づいてユーザの焦点視野を決定するステップと、ユーザの焦点視野がメニューシステムのメニューの既定領域にあるか否かを決定するステップと、その現在位置に基づいてメニューの形態を制御するステップとを含む。
別の実施形態では、車両の表示システムの表示コンポーネントの制御方法は、第1のメニュー、第2のメニュー及び第3のメニューを含むメニューシステムをユーザに提示するように構成された表示コンポーネントを提供するステップと、ユーザの視覚特性を検出するセンサを提供するステップと、視覚特性に基づいてユーザの焦点視野を決定するステップと、ユーザの焦点視野がメニューシステムのうちの1つのメニューの所定領域にあるか否かを決定するステップと、メニューシステムのうちの選択された1つのメニューが所望の位置にあるか否かを決定するステップと、その現在位置に基づいて選択された1つのメニューの形態を制御するステップとを含む。
さらなる別の実施形態では、車両の表示システムの表示コンポーネントの制御方法は、第1のメニュー、第2のメニュー及び第3のメニューを含むメニューシステムをユーザに提示するように構成された表示コンポーネントを提供するステップと、ユーザの視覚特性を検出するセンサを提供するステップと、視覚特性に基づいてユーザの焦点視野を決定するステップと、ユーザの焦点視野がメニューシステムのうちの1つのメニューの所定領域にあるか否かを決定するステップと、メニューシステムのうちの選択された1つのメニューを、最大位置に配置するステップと、を含む。
本発明の前述に加えて他の利点は、添付図面と照らし合わせて考慮される好ましい実施形態の以下の詳細な説明から当業者に容易に明らかとなる。
本発明の実施形態に従う、適応表示システムを含む車両を示す部分概略斜視図である。 複数の表示コンポーネントを含む、図1に示す表示システムを示す略ブロック図である。 本発明の実施形態に従う、図1及び図2に示す表示コンポーネントの少なくとも1つのメニューシステムの制御方法を示す図である。 図1の円4に示す表示システムの表示コンポーネントを示す拡大された部分概略斜視図である。表示コンポーネントの第1のメニューが選択され、左方に位置する。 図1の円5に示す表示システムの表示コンポーネントを示す拡大された部分概略斜視図である。表示コンポーネントの第1のメニューが中心に位置する。 図1の円6に示す表示システムの表示コンポーネントを示す拡大された部分概略斜視図である。表示コンポーネントの第2のメニューが選択され、中心に位置する。 図1の円7に示す表示システムの表示コンポーネントを示す拡大された部分概略斜視図である。表示コンポーネントの第2のメニューの代替的な画面が中央位置に表示される。 本発明の別の実施形態に従う、図1及び図2に示す表示コンポーネントの少なくとも1つのメニューシステムの制御方法を示す略ブロック図である。 図1の円9に示す表示システムの表示コンポーネントを示す拡大された部分概略斜視図である。表示コンポーネントの第1のメニュー、第2のメニュー及び第3のメニューのいずれも最小化される。 図1の円10に示す表示システムの表示コンポーネントを示す拡大された部分概略斜視図である。表示コンポーネントの第1及び第2のメニューが最小化され、第3のメニューが最大化される。 図1の円11に示す表示システムの表示コンポーネントを示す拡大された部分概略斜視図である。表示コンポーネントの第3のメニューから第2のメニューへのユーザの注視の推移を示す。 図1の円12に示す表示システムの表示コンポーネントを示す拡大された部分概略斜視図である。表示コンポーネントの第2のメニューが最大化され、第1及び第3のメニューが最小化される。 図1の円13に示す表示システムの表示コンポーネントを示す拡大部分正面図である。表示コンポーネントの第1のメニュー、第2のメニュー、第3のメニュー及び第4のメニューのいずれかも最小化される。 図1の円14に示す表示システムの表示コンポーネントのメニューシステムを示す拡大正面図である。第1のメニューが最大化され、第2、第3及び第4のメニューが最小化される。 図1の円15に示す表示システムの表示コンポーネントのメニューシステムを示す拡大正面図である。第2のメニューが最大化され、第1、第3及び第4のメニューが最小化される。 図1の円16に示す表示システムの表示コンポーネントのメニューシステムを示す拡大正面図である。第3のメニューが最大化され、第1、第2及び第4のメニューが最小化される。 図1の円17に示す表示システムの表示コンポーネントのメニューシステムを示す拡大正面図である。第4のメニューが最大化され、第1、第2及び第3のメニューが最小化される。 本発明の別の実施形態に従う、図1及び図2に示す表示コンポーネントの少なくとも1つのメニューシステムの制御方法を示す略ブロック図である。 図1の円19に示す表示システムの表示コンポーネントを示す拡大された部分概略斜視図である。表示コンポーネントの第1のメニュー、第2のメニュー及び第3のメニューのいずれも最小化される。 図1の円20に示す表示システムの表示コンポーネントを示す拡大された部分概略斜視図である。表示コンポーネントの第1のメニューが最大化され、第2及び第3のメニューが最小化される。 図1の円21に示す表示システムの表示コンポーネントを示す拡大された部分概略斜視図である。表示コンポーネントの第1のメニューが選択され、左方に位置する。 図1の円22に示す表示システムの表示コンポーネントを示す拡大された部分概略斜視図である。表示コンポーネントの第1のメニューが中心に位置する。 図1の円23に示す表示システムの表示コンポーネントを示す拡大された部分概略斜視図である。表示コンポーネントの第1のメニューの代替的な画面が中央位置に表示される。
以下の詳細な説明及び添付図面は、本発明の種々の実施形態を記述し、例証する。この記述及び図面の提供により、当業者は本発明を利用及び使用可能になる。ただしこれは、あらゆる方法において、本発明の範囲を制限することを意図しない。開示する方法に関して提示するステップは実際には例示であり、それ故、ステップの順序は必須又は重要ではない。
図1及び図2は、本発明の実施形態に従う、車両11用の適応表示システム10を示す。示すように、表示システム10は、少なくとも1つのセンサ12、プロセッサ14、及び複数の適応表示コンポーネント16,16’,16’’を含む。表示システム10は、所望に応じた任意の数のコンポーネント及びサブコンポーネントを含み得る。表示システム10は、任意のユーザ環境において一体化され得る。
示す例の少なくとも1つのセンサ12は、ユーザの顔又は頭の視覚特性(例えば、頭部姿勢、注視ベクトル又は方向、顔特徴など)を検出可能なユーザ追跡デバイスである。ある実施形態では、少なくとも1つのセンサ12は、ユーザの少なくとも頭の一部(例えば、顔又は目)の画像を取得し、画像を表すセンサ信号を生成する相補型金属酸化膜半導体(CMOS:complementary metal-oxide-semiconductor)カメラである。ただし、他のカメラ、画像取得デバイスなどを用いてもよい。
示す実施形態では、複数のセンサ12が共通軸(不図示)の周囲に配置され、複数の視角からのユーザの視覚特性の正確な検出が可能になる。ただし、1つ以上のセンサ12を、任意の位置及び構造で配置してもよいことが理解される。
非限定実施例では、ユーザの少なくとも頭の一部を照らすための可視光源18が配置される。さらなる非限定実施例では、可視光源18は赤外線発光ダイオードでもよい。ただし、他の可視光源を用いてもよい。
プロセッサ14は、入力信号(例えば、センサ信号)を受信し、その入力信号を解析し、入力信号の解析に応じて表示コンポーネント16、16’、16’’の少なくとも1つを構成する任意のデバイス又はシステムでもよい。ある実施形態では、プロセッサ14はマイクロコンピュータである。示す実施形態では、プロセッサ14は、少なくとも1つのセンサ12からの入力信号を受信する。
示す例のプロセッサ14は、命令セット20に基づいて入力信号を解析する。命令セット20は、任意のコンピュータ可読媒体内で具象化され得、プロセッサ14を構成し、種々のタスクを実行するためのプロセッサ実行可能命令を含む。プロセッサ14は、種々の機能、例えば、センサ12、表示コンポーネント16、16’、16’’、及び他の車両コンポーネント42(例えば、センサ、ヒューマンマシンインターフェース、マイクロホン、温度調節システム、ナビゲーションシステム、燃料供給装置、娯楽システム、ステアリングシステムなど)などの動作を制御し得る。種々のアルゴリズム及びソフトウェア(例えば、スウェーデンのSmart Eye ABにより生産されている「Smart Eye」ソフトウェア)を用いて、ユーザの頭、顔又は目の画像を解析し、その視覚特性を決定できることが理解される。任意のソフトウェア又はアルゴリズムを用いて、ユーザの頭又は顔の視覚特性を検出できることがさらに理解される。この技術は、例えば、特許文献17〜22に開示されている。
非限定実施例では、命令セット20は、(例えば、センサ信号により)プロセッサ14が受信した情報に基づいて、ユーザの注視ベクトル21を決定するように構成されたソフトウェアである。さらなる非限定実施例では、プロセッサ14は、ユーザの完全視野のうちの既定の一部である、ユーザの目の少なくとも1つの焦点視野22を決定する。ある実施形態では、焦点視野22は、命令セット20に応じて計算された注視ベクトル21からの既定の角度範囲(例えば、+/−5度)に規定される。計算した注視ベクトル21に関連する任意の角度範囲を用いて、焦点視野22を規定できることが理解される。例えば、頭部姿勢などの他の視覚特性を決定できることがさらに理解される。
ある実施形態では、プロセッサ14はストレージデバイス23を含む。ストレージデバイス23は、単一のストレージデバイスでもよいし、複数のストレージデバイスでもよい。さらに、ストレージデバイス23は、ソリッドステートストレージシステム、磁気記憶システム、光学式記憶システム、又は任意の他の適切なストレージシステムもしくはデバイスでもよい。ストレージデバイス23は、命令セット20を保存するように構成され得ることが理解される。例えば、センサ12が収集したデータ、計算した注視ベクトル21、及び焦点視野22などの他のデータ及び情報を、ストレージデバイス23に保存及び分類できる。
プロセッサ14は、プログラマブルコンポーネント24をさらに含み得る。プログラマブルコンポーネント24は、例えば、センサ12及びユーザインターフェース16などの、表示システム10の任意の他のコンポーネントと通信可能なことが理解される。ある実施形態では、プログラマブルコンポーネント24は、プロセッサ14の処理機能を管理及び制御するように構成される。特に、プログラマブルコンポーネント24は、命令セット20を修正し、プロセッサ14が受信した信号及び情報解析を制御するように構成される。プログラマブルコンポーネント24は、センサ12及び表示コンポーネント16、16’、16’’の少なくとも1つを管理及び制御するように構成され得ることが理解される。プログラマブルコンポーネント24は、データ及び情報をストレージデバイス23に保存し、それからデータ及び情報を検索するように構成され得ることがさらに理解される。
示す表示コンポーネント16はヘッドアップディスプレイ(HUD:heads-up-display)である。表示コンポーネント16は、ユーザに示す視覚的出力を生成するように構成される。非限定実施例では、生成される視覚的出力はメニューシステム26である。示すメニューシステム26は、共通軸(不図示)に沿って配置された第1のメニュー28a、第2のメニュー28b、及び第3のメニュー28cを含む。メニュー28a,28b,28c各々に表示される情報は、少なくとも1つの既定のユーザ選択に基づく。このユーザ選択は、速度計の数値、コンパス測定値、タコメータ表示、ガソリン残量センサ表示、ガソリン残量に基づく距離範囲、ナビゲーションシステム機能、温度調節システム機能、及び娯楽システム機能を含む(ただし、これに限定されない)。所望に応じて、任意の数のメニューを使用できることが理解される。
示す表示コンポーネント16’はダッシュボードディスプレイである。表示コンポーネント16’は、ユーザに示す視覚的出力を生成するように構成される。非限定実施例では、生成される視覚的出力はメニューシステム30である。示すメニューシステム30は、共通軸(不図示)に沿って配置された第1のメニュー32a、第2のメニュー32b、及び第3のメニュー32cを含む。メニュー32a,32b,32c各々に表示された情報は、少なくとも1つの既定のユーザ選択に基づく。ユーザ選択は、速度計の数値、コンパス測定値、タコメータ表示、ガソリン残量センサ表示、ガソリン残量に基づく距離範囲、ナビゲーションシステム機能、温度調節システム機能、及び娯楽システム機能を含む(ただし、これに限定されない)。所望に応じて、任意の数のメニューを使用できることが理解される。
表示コンポーネント16’’はセンタースタックディスプレイである。表示コンポーネント16’’は、ユーザに示す視覚的出力を生成するように構成される。非限定実施例では、生成される視覚的出力はメニューシステム34である。示すメニューシステム34は、第1のメニュー36a、第2のメニュー36b、第3のメニュー36c、及び第4のメニュー36dを含む。メニュー36a,36b,36c,36d各々は、センタースタックディスプレイの各辺に配置される。メニュー36a,36b,36c,36d各々に表示された情報は、少なくとも1つの既定のユーザ選択に基づく。ユーザ選択は、速度計の数値、コンパス測定値、タコメータ表示、ガソリン残量センサ表示、ガソリン残量に基づく距離範囲、ナビゲーションシステム機能、温度調節システム機能、及び娯楽システム機能を含む(ただし、これに限定されない)。所望に応じて、任意の数のメニューを使用できることが理解される。
運転中、ユーザは、下に詳細に記載する方法により、表示システム10の表示コンポーネント16、16’、16’’と交信する。プロセッサ14は、ユーザの視覚特性に関する入力信号(例えば、センサ信号)及び情報を連続的に受信する。プロセッサ14は、命令セット20に基づいて入力信号及び情報を解析することにより、ユーザの視覚特性を決定する。表示コンポーネント16、16’、16’’の少なくとも1つは、ユーザの視覚特性に基づいてプロセッサ14により構成される。非限定実施例では、プロセッサ14は、表示コンポーネント16、16’、16’’の少なくとも1つに制御信号を送信することにより、ユーザの視覚特性に基づいて生成された可視出力を修正する。
図3に、本発明の一実施形態に従う、表示コンポーネント16、16’、16’’のメニューシステム26,30,34各々の制御方法100を示す。メニューシステム26の制御方法100は、メニューシステム30,34の制御方法100と実質的に同一である。それ故、説明の簡潔さのために、メニューシステム26の制御方法100のみを下記する。ステップ102において、表示システム10を有効にする。
ステップ104において、プロセッサ14は、センサ12各々から信号を受信し、ユーザの視覚特性に基づいて注視ベクトル21を決定する。非限定実施例では、プロセッサ14は、命令セット20に基づいて注視ベクトル21を決定する。ステップ106において、プロセッサ14は、注視ベクトル21に基づいてユーザの焦点視野22を計算する。非限定実施例では、プロセッサ14は、命令セット20に基づいて注視ベクトル21を決定する。
ステップ108において、プロセッサ14は、ユーザの焦点視野22を解析し、メニューシステム26のメニュー28a,28b,28cの1つの所定領域内に焦点視野22があるか否かを決定する。非限定実施例では、プロセッサ14は、命令セット20に基づいて、メニュー28a,28b,28cの1つの所定領域内に焦点視野22があるか否かを決定する。焦点視野22がメニュー28a,28b,28cの所定領域の外側にある場合には、ステップ104を繰り返す。焦点視野22がメニュー28a,28b,28cの1つの所定領域内にある場合には、ステップ110において、プロセッサ14は、表示コンポーネント16を制御して、メニュー28a,28b,28cの1つが選択されたことをユーザに通知する。通知は、所望に応じた任意の手段、例えば、視覚的通知(例えば、選択されたメニューの強調表示)、聴覚的通知(例えば、ノイズ警報)、又は触覚的通知(例えば、振動)などでもよいことが理解される。非限定実施例では、プロセッサ14は、命令セット20に基づいて、表示コンポーネント16又は他の車両コンポーネント42(例えば、ハンドル、娯楽システム、クラクションなど)を制御してユーザに通知する。
ステップ112において、プロセッサ14は、メニュー28a,28b,28cの1つが選択されている間に、トリガ機構40がユーザによって起動されたか否かを決定する。トリガ機構40は、例えば、空間コマンド(例えば、目、頭又は手の動き)、可聴コマンド(例えば、音声命令)、及び触覚コマンド(例えば、押しボタン、スイッチ、スライドなど)などの任意の手段により起動される任意のトリガ機構40でもよいことが理解される。ある実施形態では、プロセッサ14は、トリガ機構40を起動するための、少なくとも1つの車両コンポーネント42(例えば、センサ、ヒューマンマシンインターフェース、マイクロホンなど)からの信号を受信する。非限定実施例では、プロセッサ14は、命令セット20に基づいてトリガ機構40の起動を決定する。メニュー28a,28b,28cの1つが選択されている間にトリガ機構40が起動しない場合には、ステップ104を繰り返す。
メニュー28a,28b,28cの1つが選択されている間にトリガ機構40が起動した場合には、ステップ114において、プロセッサ14は、メニュー28a,28b,28cの選択された1つが所望の位置にあるか否かを決定する。例えば、示す実施形態では、所望の位置は中央位置である。ただし、所望の位置は、メニューの他の配置における他の位置でもよいことが理解される。例えば、5つのメニューの円形配置における中央位置、メニューの垂直の直線配置における上方位置、少なくとも4つのメニューの方形配置における左上位置などの配置でもよい。非限定実施例では、プロセッサ14は、命令セット20に基づいてメニュー28a,28b,28cの選択された1つの位置を決定する。メニュー28a,28b,28cの選択された1つが所望の位置に無い場合には、ステップ116において、プロセッサ14は、表示コンポーネント16を制御して、メニュー28a,28b,28cの選択された1つと、所望の位置にあるメニュー28a,28b,28cの1つとを入れ替える。メニュー28a,28b,28cの選択された1つが所望の位置に配置されると、ステップ102を繰り返す。メニュー28a,28b,28cの選択された1つが所望の位置にある場合には、ステップ118において、プロセッサ14は、表示コンポーネント16を制御して、メニュー28a,28b,28cの選択された1つによって提示される情報を示す代替的な画面Aを表示する。メニュー28a,28b,28cの選択された1つが所望の位置に配置されると、ステップ102を繰り返す。
図3に示す方法100の実施例を図4〜図7に示す。図4に示す例では、ユーザは、表示コンポーネント16のメニューシステム26の第1のメニュー28aの方に注視する。ユーザの注視ベクトル21の焦点視野22は、第1のメニュー28aの所定領域内に位置するようにプロセッサ14により決定される。この結果、第1のメニュー28aが選択されたことがユーザに通知される。
図5に示す例では、第1のメニュー28aが選択されている間にトリガ機構40を起動する。この結果、選択された第1のメニュー28aが中央に位置し、第2のメニュー28bが左方に位置する。
図6に示す例では、ユーザの注視ベクトル21の焦点視野22は、メニューシステム26の第2のメニュー28bの所定領域内に位置するようにプロセッサ14により決定される。この結果、第2のメニュー28bが選択されたことがユーザに通知される。
図7に示す例では、第2のメニュー28bが選択されている間にトリガ機構40を起動する。第2のメニュー28bが中央位置にあるため、プロセッサ14は、表示コンポーネント16を制御して、選択された第2のメニュー28bによって提示される情報を示す代替的な画面Aを表示する。
図8に、本発明の別の実施形態に従う、表示コンポーネント16、16’、16’’のメニューシステム26,30,34各々の制御方法200を示す。メニューシステム26の制御方法200は、メニューシステム30,34の制御方法200と実質的に同一である。それ故、説明の簡潔さのために、メニューシステム26の制御方法200のみを下記する。ステップ202において、表示システム10を有効にする。
ステップ204において、プロセッサ14は、センサ12各々から信号を受信し、ユーザの視覚特性に基づいて注視ベクトル21を決定する。非限定実施例では、プロセッサ14は、命令セット20に基づいて注視ベクトル21を決定する。ステップ206において、プロセッサ14は、注視ベクトル21に基づいてユーザの焦点視野22を計算する。非限定実施例では、プロセッサ14は、命令セット20に基づいて注視ベクトル21を決定する。
ステップ208において、プロセッサ14は、ユーザの焦点視野22を解析し、メニューシステム26のメニュー28a,28b,28cの1つの所定領域内に焦点視野22があるか否かを決定する。非限定実施例では、プロセッサ14は、命令セット20に基づいて、メニュー28a,28b,28cの1つの所定領域内に焦点視野22があるか否かを決定する。焦点視野22がメニュー28a,28b,28cの所定領域の外側にある場合には、ステップ204を繰り返す。焦点視野22がメニュー28a,28b,28cの1つの所定領域内にある場合には、ステップ210において、プロセッサ14は、表示コンポーネント16を制御して、メニュー28a,28b,28cの1つを最小位置から最大位置に拡大して追加情報を明示する。非限定実施例では、プロセッサ14は、表示コンポーネント16を制御して、命令セット20に基づいてメニュー28a,28b,28cの1つを拡大する。
ステップ212において、プロセッサ14は、ユーザの焦点視野22を解析し、焦点視野22がメニューシステム26の最大メニュー28a,28b,28cの所定領域内にあるか否かを決定する。非限定実施例では、プロセッサ14は、命令セット20に基づいて、焦点視野22が最大メニュー28a,28b,28cの所定領域内にあるか否かを決定する。焦点視野22が最大メニュー28a,28b,28cの所定領域の外側にある場合には、ステップ214において、最大メニュー28a,28b,28cを最大位置から最小位置に縮小して追加情報を隠す。焦点視野22がメニュー28a,28b,28cの1つの所定領域内にある場合には、ステップ212を繰り返す。
図8に示す方法200の実施例を図9〜図17に示す。図9に示す例では、ユーザは、表示コンポーネント16のメニューシステム26のメニュー28a,28b,28cから外れた位置の方に注視する。ユーザの注視ベクトル21の焦点視野22は、メニュー28a,28b,28cの所定領域の外側に位置するようにプロセッサ14により決定される。この結果、表示コンポーネント16のメニューシステム26のメニュー28a,28b,28c各々は最小位置となる。
図10に示す例では、ユーザは、表示コンポーネント16のメニューシステム26の第3のメニュー28cの方に注視する。ユーザの注視ベクトル21の焦点視野22は、第3のメニュー28cの所定領域内に位置するようにプロセッサ14により決定される。この結果、第3のメニュー28cを、最小位置から最大位置に拡大して追加情報を明示し、メニュー28a,28b各々を最小位置に縮小して追加情報を隠す。
図11に示す例では、ユーザ視点が、表示コンポーネント16のメニューシステム26の第3のメニュー28cから第2のメニュー28bに推移する。ユーザの注視ベクトル21の焦点視野22は、第2のメニュー28bの所定領域内に位置するようにプロセッサ14により決定される。この結果、第2のメニュー28bが最小位置から最大位置に拡大して追加情報を明示し、第3のメニュー28cが部分的に縮小して追加情報を隠す。そして、第1のメニュー28aは最小位置に完全に縮小して追加情報を隠す。
図12に示す例では、ユーザは、表示コンポーネント16のメニューシステム26の第2のメニュー28bの方に注視する。ユーザの注視ベクトル21の焦点視野22は、第2のメニュー28bの所定領域内に位置するようにプロセッサ14により決定される。この結果、第2のメニュー28bが最小位置から最大位置に拡大して追加情報を明示し、メニュー28a,28c各々は最小位置となり追加情報を隠す。
図13に示す例では、ユーザは、表示コンポーネント16’’のメニューシステム34のメニュー36a,36b,36c,36dから外れた位置の方に注視する。ユーザの注視ベクトル21の焦点視野22は、メニュー36a,36b,36c,36dの所定領域の外側に位置するようにプロセッサ14により決定される。この結果、表示コンポーネント16’’のメニューシステム34のメニュー36a,36b,36c,36d各々は、最小位置となる。
図14に示す例では、ユーザは、表示コンポーネント16’’のメニューシステム34の第1のメニュー36aの方に注視する。ユーザの注視ベクトル21の焦点視野22は、第1のメニュー36aの所定領域内に位置するようにプロセッサ14により決定される。この結果、第1のメニュー36aが最小位置から最大位置に拡大して追加情報を明示し、メニュー36b,36c,36d各々は最小位置となり追加情報を隠す。
図15に示す例では、ユーザは、表示コンポーネント16’’のメニューシステム34の第2のメニュー36bの方に注視する。ユーザの注視ベクトル21の焦点視野22は、第2のメニュー36bの所定領域内に位置するようにプロセッサ14により決定される。この結果、第2のメニュー36bが最小位置から最大位置に拡大して追加情報を明示し、メニュー36a,36c,36d各々は最小位置となり追加情報を隠す。
図16に示す例では、ユーザは、表示コンポーネント16’’のメニューシステム34の第3のメニュー36cの方に注視する。ユーザの注視ベクトル21の焦点視野22は、第3のメニュー36cの所定領域内に位置するようにプロセッサ14により決定される。この結果、第3のメニュー36cが最小位置から最大位置に拡大して追加情報を明示し、メニュー36a,36b,36d各々は最小位置となり追加情報を隠す。
図17に示す例では、ユーザは、表示コンポーネント16’’のメニューシステム34の第4のメニュー36dの方に注視する。ユーザの注視ベクトル21の焦点視野22は、第4のメニュー36dの所定領域内に位置するようにプロセッサ14により決定される。この結果、第4のメニュー36dが最小位置から最大位置に拡大して追加情報を明示し、メニュー36a,36b,36c各々は最小位置となり追加情報を隠す。
図18に、本発明の別の実施形態に従う、表示コンポーネント16、16’、16’’のメニューシステム26,30,34各々の制御方法300を示す。メニューシステム26の制御方法300は、メニューシステム30,34の制御方法300と実質的に同一である。それ故、説明の簡潔さのために、メニューシステム26の制御方法300のみを下記する。ステップ302において、表示システム10を有効にする。
ステップ304において、プロセッサ14は、センサ12各々から信号を受信し、ユーザの視覚特性に基づいて注視ベクトル21を決定する。非限定実施例では、プロセッサ14は、命令セット20に基づいて注視ベクトル21を決定する。ステップ306において、プロセッサ14は、注視ベクトル21に基づいてユーザの焦点視野22を計算する。非限定実施例では、プロセッサ14は、命令セット20に基づいて注視ベクトル21を決定する。
ステップ308において、プロセッサ14は、ユーザの焦点視野22を解析し、メニューシステム26のメニュー28a,28b,28cの1つの所定領域内に焦点視野22があるか否かを決定する。非限定実施例では、プロセッサ14は、命令セット20に基づいて、メニュー28a,28b,28cの1つの所定領域内に焦点視野22があるか否かを決定する。焦点視野22がメニュー28a,28b,28cの所定領域の外側にある場合には、ステップ304を繰り返す。
焦点視野22がメニュー28a,28b,28cの1つの所定領域内にある場合には、ステップ310において、プロセッサ14は、表示コンポーネント16を制御して、メニュー28a,28b,28cの1つを最小位置から最大位置に拡大して追加情報を明示する。非限定実施例では、プロセッサ14は、表示コンポーネント16を制御して、命令セット20に基づいてメニュー28a,28b,28cの1つを拡大する。
ステップ312において、プロセッサ14は、ユーザの焦点視野22を解析し、焦点視野22がメニューシステム26の最大メニュー28a,28b,28cの所定領域内にあるか否かを決定する。非限定実施例では、プロセッサ14は、命令セット20に基づいて、焦点視野22が最大メニュー28a,28b,28cの所定領域内にあるか否かを決定する。焦点視野22が最大メニュー28a,28b,28cの所定領域の外側にある場合には、ステップ314において、最大メニュー28a,28b,28cを最大位置から最小位置に縮小して追加情報を隠す。焦点視野22が最大メニュー28a,28b,28cの所定領域内にある場合には、ステップ316において、プロセッサ14は、表示コンポーネント16を制御して、最大メニュー28a,28b,28cが選択されたことをユーザに通知する。通知は、所望に応じた任意の手段、例えば、視覚的通知(例えば、選択されたメニューの強調表示)、聴覚的通知(例えば、ノイズ警報)、又は触覚的通知(例えば、振動)などでもよいことが理解される。非限定実施例では、プロセッサ14は、命令セット20に基づいて、表示コンポーネント16、又は他の車両コンポーネント42(例えば、ハンドル、娯楽システム、クラクションなど)を制御してユーザに通知する。
ステップ318において、プロセッサ14は、最大メニュー28a,28b,28cが選択されている間にトリガ機構40がユーザによって起動されたか否かを決定する。トリガ機構40は、例えば、空間コマンド(例えば、目、頭又は手の動き)、可聴コマンド(例えば、音声命令)、及び触覚コマンド(例えば、押しボタン、スイッチ、スライドなど)などの任意の手段により起動される任意のトリガ機構40でもよいことが理解される。ある実施形態では、プロセッサ14は、トリガ機構40を起動するための、少なくとも1つの車両コンポーネント42(例えば、センサ、ヒューマンマシンインターフェース、マイクロホンなど)からの信号を受信する。非限定実施例では、プロセッサ14は、命令セット20に基づいてトリガ機構40の起動を決定する。トリガ機構40が起動しない場合には、最大メニュー28a,28b,28cが選択されている間にステップ304を繰り返す。
メニュー28a,28b,28cの1つが選択されている間にトリガ機構40が起動した場合には、ステップ320において、プロセッサ14は、選択された最大メニュー28a,28b,28cが所望の位置にあるか否かを決定する。例えば、示す実施形態では、所望の位置は中央位置である。ただし、所望の位置が、例えば、5つのメニューの円形配置における中央位置、メニューの垂直の直線配置における上方位置、少なくとも4つのメニューの方形配置における左上位置などのメニューの他の配置における他の位置でもよいことが理解される。非限定実施例では、プロセッサ14は、命令セット20に基づいて選択された最大メニュー28a,28b,28cの位置を決定する。選択された最大メニュー28a,28b,28cが所望の位置に無い場合には、ステップ322において、プロセッサ14は、表示コンポーネント16を制御して、選択された最大メニュー28a,28b,28cと、所望の位置にあるメニュー28a,28b,28cの1つとを入れ替える。選択された最大メニュー28a,28b,28cが所望の位置に配置されると、ステップ302を繰り返す。選択された最大メニュー28a,28b,28cが所望の位置にある場合には、ステップ324において、プロセッサ14は、表示コンポーネント16を制御して、選択された最大メニュー28a,28b,28cによって提示される情報を示す代替的な画面を表示する。選択された最大メニュー28a,28b,28cが所望の位置に配置されると、ステップ302を繰り返す。
図18に示す方法300の実施例を図19〜図23に示す。図19に示す例では、ユーザは、表示コンポーネント16のメニューシステム26のメニュー28a,28b,28cから外れた位置の方に注視する。ユーザの注視ベクトル21の焦点視野22は、メニュー28a,28b,28cの所定領域の外側に位置するようにプロセッサ14により決定される。この結果、表示コンポーネント16のメニューシステム26のメニュー28a,28b,28c各々は最小位置にある。
図20に示す例では、ユーザは、表示コンポーネント16のメニューシステム26の第1のメニュー28aの方に注視する。ユーザの注視ベクトル21の焦点視野22は、第1のメニュー28aの所定領域の外側に位置するようにプロセッサ14により決定される。この結果、第1のメニュー28aが最小位置から最大位置に拡大して追加情報を明示し、メニュー28b,28c各々は最小位置となり追加情報を隠す。
図21に示す例では、ユーザの注視ベクトル21の焦点視野22は、最大化された第1のメニュー28aの所定領域内に位置するようにプロセッサ14により決定される。この結果、最大化された第1のメニュー28aが選択されたことがユーザに通知される。
図22に示す例では、最大化された第1のメニュー28aが選択されている間にトリガ機構40を起動する。この結果、選択された最大化された第1のメニュー28aが中央位置に入れ替えられ、メニュー28b,28c各々は最小位置となる。
図23に示す例では、選択された最大化された第1のメニュー28aが中央に位置している間にトリガ機構40を起動する。この結果、プロセッサ14は、表示コンポーネント16を制御して、選択された最大化された第1のメニュー28aによって提示される情報を示す代替的な画面Aを表示する。
当業者は、以上の記述から、その精神及び範囲から逸脱することなく本発明の本質的特質を容易に確認し得、種々の用法及び条件に適応するように本発明の種々の修正及び変更を実行できる。
10 表示システム
11 車両
12 センサ
14 プロセッサ
16,16’,16’’ 適応表示コンポーネント
18 可視光源
20 命令セット
21 注視ベクトル
22 焦点視野
23 ストレージデバイス
24 プログラマブルコンポーネント
26メニューシステム
28a 第1のメニュー
28b 第2のメニュー
28c 第3のメニュー
30 メニューシステム
32a 第1のメニュー
32b 第2のメニュー
32c 第3のメニュー
34 メニューシステム
36a 第1のメニュー
36b 第2のメニュー
36c 第3のメニュー
36d 第4のメニュー
40 トリガ機構
42 車両コンポーネント

Claims (20)

  1. 車両の表示システムの表示コンポーネントの制御方法であって、
    メニューシステムをユーザに提示するように構成された前記表示コンポーネントを提供するステップと、
    ユーザの視覚特性を検出するセンサを提供するステップと、
    前記視覚特性に基づいてユーザの焦点視野を決定するステップと、
    前記ユーザの前記焦点視野が前記メニューシステムのメニューの既定領域にあるときを決定するステップと、
    その現在位置に基づいて前記メニューの形態を制御するステップと、
    を含む、方法。
  2. 前記表示コンポーネントは、ヘッドアップディスプレイ、ダッシュボードディスプレイ、及びセンタースタックディスプレイの少なくとも1つである、請求項1に記載の方法。
  3. 前記メニューの形態は、前記メニューによって提示された情報を示す画面及び前記メニュー位置の少なくとも1つを含む、請求項1に記載の方法。
  4. 前記センサ及び前記表示コンポーネントと通信するプロセッサであって、前記センサからの信号を受信し、命令セットに基づいて前記センサからの前記信号を解析して、前記ユーザの前記視覚特性を決定するプロセッサを提供するステップを更に含む、請求項1に記載の方法。
  5. 前記命令セットは、前記ユーザの頭部姿勢、前記ユーザの注視方向、及び前記ユーザの焦点視野の少なくとも1つを決定するためのソフトウェアである、請求項4に記載の方法。
  6. 前記ユーザの一部を照らして、前記ユーザの視覚特性の前記検出を容易にする可視光源を提供するステップを更に含む、請求項1に記載の方法。
  7. 車両の表示システムの表示コンポーネントの制御方法であって、
    複数のメニューを含むメニューシステムをユーザに提示するように構成された前記表示コンポーネントを提供するステップと、
    ユーザの視覚特性を検出するセンサを提供するステップと、
    前記視覚特性に基づいてユーザの焦点視野を決定するステップと、
    前記ユーザの前記焦点視野が前記メニューシステムのうちの1つの前記メニューの所定領域にあるか否かを決定するステップと、
    前記メニューシステムのうちの選択された1つの前記メニューが所望の位置にあるか否かを決定するステップと、
    その現在位置に基づいて、前記メニューシステムのうちの選択された1つの前記メニューの形態を制御するステップと、を含む、方法。
  8. 前記表示コンポーネントは、ヘッドアップディスプレイ、ダッシュボードディスプレイ、及びセンタースタックディスプレイの少なくとも1つである、請求項7に記載の方法。
  9. 前記選択された1つの前記メニューの形態は、前記選択された前記メニューによって提示された情報を示す画面及び前記選択された1つの前記メニュー位置の少なくとも1つを含む、請求項7に記載の方法。
  10. 前記ユーザの前記焦点視野が前記メニューシステムのうちの1つの前記メニューの前記所定領域にあるときに前記ユーザに通知をするステップを更に含む、請求項7に記載の方法。
  11. 前記ユーザの前記焦点視野が前記メニューシステムのうちの選択された1つの前記メニューの前記所定領域にある間に、トリガ機構が起動したか否かを決定するステップを更に含む、請求項7に記載の方法。
  12. 前記メニューシステムのうちの前記選択された1つの前記メニューと、前記所望の位置にある別のメニューの1つとを入れ替えるステップを更に含む、請求項7に記載の方法。
  13. 前記所望の位置にある前記選択された1つの前記メニューによって提示された情報を示す代替的な画面を表示するステップを更に含む、請求項7に記載の方法。
  14. 車両の表示システムの表示コンポーネントの制御方法であって、
    複数のメニューを含むメニューシステムをユーザに提示するように構成された前記表示コンポーネントを提供するステップと、
    ユーザの視覚特性を検出するセンサを提供するステップと、
    前記視覚特性に基づいてユーザの焦点視野を決定するステップと、
    前記ユーザの前記焦点視野が前記メニューシステムのうちの1つの前記メニューの所定領域にあるか否かを決定するステップと、
    前記メニューシステムのうちの選択された1つの前記メニューを最大位置に配置するステップと、を含む、方法。
  15. 前記表示コンポーネントは、ヘッドアップディスプレイ、ダッシュボードディスプレイ、及びセンタースタックディスプレイの少なくとも1つである、請求項14に記載の方法。
  16. 前記ユーザの前記焦点視野が前記少なくとも1つのメニューの前記所定領域の外側にあるときに、前記メニューシステムの前記メニューの少なくとも1つを最小位置に配置するステップを更に含む、請求項14に記載の方法。
  17. 前記ユーザの前記焦点視野が前記メニューシステムのうちの1つの前記メニューの前記所定領域にあるときに前記ユーザに通知をするステップを更に含む、請求項14に記載の方法。
  18. 前記ユーザの前記焦点視野が前記メニューシステムのうちの選択された1つの前記メニューの前記所定領域にある間に、トリガ機構が起動したか否かを決定するステップを更に含む、請求項14に記載の方法。
  19. 前記メニューシステムのうちの前記選択された1つの前記メニューと、所望の位置にある別のメニューの1つとを入れ替えるステップを更に含む、請求項14に記載の方法。
  20. 前記メニューシステムのうちの選択された1つの前記メニューによって提示された情報を示す代替的な画面を所望の位置に表示するステップを更に含む、請求項14に記載の方法。
JP2012226220A 2011-10-12 2012-10-11 適応表示システムの表示コンポーネントの制御方法 Expired - Fee Related JP5547258B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/271,843 2011-10-12
US13/271,843 US9383579B2 (en) 2011-10-12 2011-10-12 Method of controlling a display component of an adaptive display system

Publications (2)

Publication Number Publication Date
JP2013082445A true JP2013082445A (ja) 2013-05-09
JP5547258B2 JP5547258B2 (ja) 2014-07-09

Family

ID=47990831

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012226220A Expired - Fee Related JP5547258B2 (ja) 2011-10-12 2012-10-11 適応表示システムの表示コンポーネントの制御方法

Country Status (3)

Country Link
US (1) US9383579B2 (ja)
JP (1) JP5547258B2 (ja)
DE (1) DE102012109622A1 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015024709A (ja) * 2013-07-25 2015-02-05 株式会社デンソー 車両用ユーザインタフェースシステム
WO2015037268A1 (ja) * 2013-09-11 2015-03-19 クラリオン株式会社 情報処理装置、ジェスチャー検出方法、およびジェスチャー検出プログラム
KR20150051671A (ko) * 2013-11-05 2015-05-13 현대엠엔소프트 주식회사 차량 및 사용자 동작 인식에 따른 화면 제어 장치 및 그 운영방법
JP2015130173A (ja) * 2014-01-03 2015-07-16 ハーマン インターナショナル インダストリーズ インコーポレイテッド ディスプレイ上の両眼転導検出
JP2016084021A (ja) * 2014-10-27 2016-05-19 三菱電機株式会社 車両用表示装置及び車両用表示システム
JP2016153250A (ja) * 2015-02-20 2016-08-25 クラリオン株式会社 情報処理装置
JP2017084220A (ja) * 2015-10-30 2017-05-18 パイオニア株式会社 操作装置、制御方法、プログラム及び記憶媒体
WO2019044732A1 (ja) * 2017-08-31 2019-03-07 日本精機株式会社 車両用表示装置
JP2019530928A (ja) * 2016-09-22 2019-10-24 アップル インコーポレイテッドApple Inc. グラフィカルユーザインタフェースに影響する情報の状態変化の不注意状態期間までの延期
JP2020057441A (ja) * 2020-01-14 2020-04-09 パイオニア株式会社 操作装置、制御方法、プログラム及び記憶媒体
JP2020116965A (ja) * 2019-01-18 2020-08-06 矢崎総業株式会社 車両用表示装置
FR3107222A1 (fr) * 2020-02-19 2021-08-20 Valeo Vision Méthode de projection de lumière à l'intérieur d'un véhicule, projecteur de lumière automobile et assemblage de lumière automobile

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013242710A (ja) * 2012-05-21 2013-12-05 Sony Corp ユーザインターフェイス、情報表示方法およびプログラム
DE102012215407A1 (de) * 2012-08-30 2014-05-28 Bayerische Motoren Werke Aktiengesellschaft Bereitstellen einer Eingabe für ein Bedienelement
US9626072B2 (en) * 2012-11-07 2017-04-18 Honda Motor Co., Ltd. Eye gaze control system
US9410613B2 (en) * 2012-11-27 2016-08-09 Continental Automotive Systems, Inc. On-screen gear selector for automatic transmission
US9842511B2 (en) * 2012-12-20 2017-12-12 The United States Of America As Represented By The Secretary Of The Army Method and apparatus for facilitating attention to a task
US9513702B2 (en) * 2013-07-15 2016-12-06 Lg Electronics Inc. Mobile terminal for vehicular display system with gaze detection
DE102013221171A1 (de) * 2013-10-18 2015-05-07 Bayerische Motoren Werke Aktiengesellschaft Anpassung von Fahrzeugfunktionen an Fahrfähigkeiten eines Fahrers
KR20150073269A (ko) * 2013-12-20 2015-07-01 현대자동차주식회사 차량용 클러스터 장치
US9244532B2 (en) * 2013-12-31 2016-01-26 Immersion Corporation Systems and methods for controlling multiple displays with single controller and haptic enabled user interface
US10067341B1 (en) * 2014-02-04 2018-09-04 Intelligent Technologies International, Inc. Enhanced heads-up display system
DE102014207397A1 (de) * 2014-04-17 2015-10-22 Bayerische Motoren Werke Aktiengesellschaft Verfahren, Vorrichtung, Fahrzeugbediensystem, Computerprogramm zum Bedienen eines Fahrzeug und Computerprogrammprodukt
KR101575648B1 (ko) * 2014-07-01 2015-12-08 현대자동차주식회사 사용자 인터페이스 장치, 그를 가지는 차량 및 그의 제어 방법
EP3040809B1 (en) * 2015-01-02 2018-12-12 Harman Becker Automotive Systems GmbH Method and system for controlling a human-machine interface having at least two displays
JP6661883B2 (ja) * 2015-02-09 2020-03-11 株式会社デンソー 車両用表示制御装置及び車両用表示制御方法
GB2535544B (en) * 2015-02-23 2018-10-03 Jaguar Land Rover Ltd Display control apparatus and method
WO2016147499A1 (ja) * 2015-03-17 2016-09-22 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US10802620B2 (en) * 2015-03-17 2020-10-13 Sony Corporation Information processing apparatus and information processing method
JP6464869B2 (ja) * 2015-03-25 2019-02-06 株式会社デンソー 操作システム
US20160297362A1 (en) * 2015-04-09 2016-10-13 Ford Global Technologies, Llc Vehicle exterior side-camera systems and methods
CN104834446B (zh) * 2015-05-04 2018-10-26 惠州Tcl移动通信有限公司 一种基于眼球追踪技术的显示屏多屏控制方法及系统
US20180107320A1 (en) * 2015-05-08 2018-04-19 Lg Electronics Inc. Center fascia and controlling method thereof
JP6512016B2 (ja) * 2015-07-27 2019-05-15 日本精機株式会社 車両用表示装置
JP6387465B2 (ja) * 2015-07-29 2018-09-12 富士フイルム株式会社 投写型表示装置及び投写制御方法
US10867445B1 (en) * 2016-11-16 2020-12-15 Amazon Technologies, Inc. Content segmentation and navigation
EP3342619A1 (de) * 2016-12-27 2018-07-04 Volkswagen Aktiengesellschaft Anwenderschnittstellen, computerprogrammprodukt, signalfolge, fortbewegungsmittel und verfahren zum anzeigen von informationen auf einer anzeigeeinrichtung
WO2019010650A1 (en) * 2017-07-12 2019-01-17 Intel Corporation ADAPTIVE SCREEN SYSTEM
JP7109193B2 (ja) * 2018-01-05 2022-07-29 ラピスセミコンダクタ株式会社 操作判定装置及び操作判定方法
CN108501809A (zh) * 2018-03-26 2018-09-07 京东方科技集团股份有限公司 基于视线追踪的车载显示控制装置、显示系统及显示方法
DE202018103539U1 (de) * 2018-06-22 2019-10-07 Trw Automotive Safety Systems Gmbh Lenkvorrichtung für ein Kraftfahrzeug sowie Lenkvorrichtungsbaugruppe mit einer solchen Lenkvorrichtung
EP3626585A1 (en) * 2018-09-21 2020-03-25 Visteon Global Technologies, Inc. Driver assistance system and method for displaying traffic information
KR102650436B1 (ko) * 2019-07-01 2024-03-26 엘지전자 주식회사 차량 제어 장치 및 그것을 포함하는 차량
DE102020213770A1 (de) * 2020-11-02 2022-05-05 Continental Automotive Gmbh Anzeigevorrichtung für ein Fahrzeug
CN114879367B (zh) * 2022-05-27 2024-03-19 中国第一汽车股份有限公司 车载抬头显示装置显示控制方法、装置、车辆及存储介质
CN115570976B (zh) * 2022-12-08 2023-03-14 泽景(西安)汽车电子有限责任公司 画面呈现方法、装置、hud及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002347539A (ja) * 2001-05-25 2002-12-04 Nissan Motor Co Ltd 車両用表示装置
JP2007302116A (ja) * 2006-05-11 2007-11-22 Honda Motor Co Ltd 車両搭載機器の操作装置
JP2010023626A (ja) * 2008-07-17 2010-02-04 Toyota Motor Corp ドライバー監視装置
JP2010215194A (ja) * 2009-03-19 2010-09-30 Hyundai Motor Co Ltd 車載機器の操作装置

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2288430A (en) 1940-07-26 1942-06-30 Sterling Getchell Inc J Scanning apparatus
US2445787A (en) 1945-12-18 1948-07-27 Lilienfeld Julius Edgar Method of and apparatus for plotting an ordered set of quantities
US3462604A (en) 1967-08-23 1969-08-19 Honeywell Inc Control apparatus sensitive to eye movement
US3534273A (en) 1967-12-18 1970-10-13 Bell Telephone Labor Inc Automatic threshold level selection and eye tracking in digital transmission systems
US3514193A (en) 1968-09-30 1970-05-26 Siegfried Himmelmann Device for recording eye movement
US3583794A (en) 1969-03-10 1971-06-08 Biometrics Inc Direct reading eye movement monitor
DE2202172C3 (de) 1972-01-18 1982-04-01 Ernst Leitz Wetzlar Gmbh, 6330 Wetzlar Anordnung zum automatischen Nachführen
US3864030A (en) 1972-07-11 1975-02-04 Acuity Syst Eye position measuring technique
US4102564A (en) 1975-04-18 1978-07-25 Michael Henry L Portable device for the accurate measurement of eye movements both in light and obscurity
GB1540992A (en) 1975-04-22 1979-02-21 Smiths Industries Ltd Display or other systems and equipment for use in such systems
US4003642A (en) 1975-04-22 1977-01-18 Bio-Systems Research Inc. Optically integrating oculometer
US3992087A (en) 1975-09-03 1976-11-16 Optical Sciences Group, Inc. Visual acuity tester
US4075657A (en) 1977-03-03 1978-02-21 Weinblatt Lee S Eye movement monitoring apparatus
US4145122A (en) 1977-05-31 1979-03-20 Colorado Seminary Method and apparatus for monitoring the position of the eye
US4169663A (en) 1978-02-27 1979-10-02 Synemed, Inc. Eye attention monitor
US4303394A (en) 1980-07-10 1981-12-01 The United States Of America As Represented By The Secretary Of The Navy Computer generated image simulator
US6856873B2 (en) 1995-06-07 2005-02-15 Automotive Technologies International, Inc. Vehicular monitoring systems using image processing
US4648052A (en) 1983-11-14 1987-03-03 Sentient Systems Technology, Inc. Eye-tracker communication system
US4720189A (en) 1986-01-07 1988-01-19 Northern Telecom Limited Eye-position sensor
US4836670A (en) 1987-08-19 1989-06-06 Center For Innovative Technology Eye movement detector
JPH01158579A (ja) 1987-09-09 1989-06-21 Aisin Seiki Co Ltd 像認識装置
US4950069A (en) 1988-11-04 1990-08-21 University Of Virginia Eye movement detector with improved calibration and speed
US5305012A (en) 1992-04-15 1994-04-19 Reveo, Inc. Intelligent electro-optical system and method for automatic glare reduction
US7788008B2 (en) * 1995-06-07 2010-08-31 Automotive Technologies International, Inc. Eye monitoring system and method for vehicular occupants
JP2988178B2 (ja) 1993-03-11 1999-12-06 日産自動車株式会社 視線方向計測装置
US6027216A (en) 1997-10-21 2000-02-22 The Johns University School Of Medicine Eye fixation monitor and tracker
US7920102B2 (en) 1999-12-15 2011-04-05 Automotive Technologies International, Inc. Vehicular heads-up display system
DE10103922A1 (de) 2001-01-30 2002-08-01 Physoptics Opto Electronic Gmb Interaktives Datensicht- und Bediensystem
US6927674B2 (en) * 2002-03-21 2005-08-09 Delphi Technologies, Inc. Vehicle instrument cluster having integrated imaging system
ITTO20031055A1 (it) 2003-12-30 2005-06-30 Fiat Ricerche Sistema per l'assistenza remota di un operatore in una fase di lavoro.
DK1607840T3 (da) * 2004-06-18 2015-02-16 Tobii Technology Ab Øjenstyring af et computerapparat
US8700332B2 (en) * 2008-11-10 2014-04-15 Volkswagen Ag Operating device for a motor vehicle
US7924146B2 (en) 2009-04-02 2011-04-12 GM Global Technology Operations LLC Daytime pedestrian detection on full-windscreen head-up display
TWI410859B (zh) * 2010-05-28 2013-10-01 Quanta Comp Inc 多螢幕間之顯示內容切換方法
US20110309924A1 (en) * 2010-06-21 2011-12-22 Delphi Technologies, Inc. Vehicle display
US20120215403A1 (en) * 2011-02-20 2012-08-23 General Motors Llc Method of monitoring a vehicle driver
US10120438B2 (en) * 2011-05-25 2018-11-06 Sony Interactive Entertainment Inc. Eye gaze to alter device behavior
US9658687B2 (en) * 2011-09-30 2017-05-23 Microsoft Technology Licensing, Llc Visual focus-based control of coupled displays

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002347539A (ja) * 2001-05-25 2002-12-04 Nissan Motor Co Ltd 車両用表示装置
JP2007302116A (ja) * 2006-05-11 2007-11-22 Honda Motor Co Ltd 車両搭載機器の操作装置
JP2010023626A (ja) * 2008-07-17 2010-02-04 Toyota Motor Corp ドライバー監視装置
JP2010215194A (ja) * 2009-03-19 2010-09-30 Hyundai Motor Co Ltd 車載機器の操作装置

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015024709A (ja) * 2013-07-25 2015-02-05 株式会社デンソー 車両用ユーザインタフェースシステム
WO2015037268A1 (ja) * 2013-09-11 2015-03-19 クラリオン株式会社 情報処理装置、ジェスチャー検出方法、およびジェスチャー検出プログラム
JP2015055999A (ja) * 2013-09-11 2015-03-23 クラリオン株式会社 情報処理装置、ジェスチャー検出方法、およびジェスチャー検出プログラム
US9696814B2 (en) 2013-09-11 2017-07-04 Clarion Co., Ltd. Information processing device, gesture detection method, and gesture detection program
KR20150051671A (ko) * 2013-11-05 2015-05-13 현대엠엔소프트 주식회사 차량 및 사용자 동작 인식에 따른 화면 제어 장치 및 그 운영방법
KR102052405B1 (ko) * 2013-11-05 2019-12-05 현대엠엔소프트 주식회사 차량 및 사용자 동작 인식에 따른 화면 제어 장치 및 그 운영방법
JP2015130173A (ja) * 2014-01-03 2015-07-16 ハーマン インターナショナル インダストリーズ インコーポレイテッド ディスプレイ上の両眼転導検出
JP2016084021A (ja) * 2014-10-27 2016-05-19 三菱電機株式会社 車両用表示装置及び車両用表示システム
JP2016153250A (ja) * 2015-02-20 2016-08-25 クラリオン株式会社 情報処理装置
JP2017084220A (ja) * 2015-10-30 2017-05-18 パイオニア株式会社 操作装置、制御方法、プログラム及び記憶媒体
JP2019530928A (ja) * 2016-09-22 2019-10-24 アップル インコーポレイテッドApple Inc. グラフィカルユーザインタフェースに影響する情報の状態変化の不注意状態期間までの延期
US11016565B2 (en) 2016-09-22 2021-05-25 Apple Inc. Postponing the state change of an information affecting the graphical user interface until during the condition of inattentiveness
US11334156B2 (en) 2016-09-22 2022-05-17 Apple Inc. Postponing the state change of an information affecting the graphical user interface until during the condition of inattentiveness
WO2019044732A1 (ja) * 2017-08-31 2019-03-07 日本精機株式会社 車両用表示装置
JPWO2019044732A1 (ja) * 2017-08-31 2020-10-15 日本精機株式会社 車両用表示装置
JP2020116965A (ja) * 2019-01-18 2020-08-06 矢崎総業株式会社 車両用表示装置
US10984658B2 (en) 2019-01-18 2021-04-20 Yazaki Corporation Vehicle display device for displaying an obstacle warning
JP2020057441A (ja) * 2020-01-14 2020-04-09 パイオニア株式会社 操作装置、制御方法、プログラム及び記憶媒体
FR3107222A1 (fr) * 2020-02-19 2021-08-20 Valeo Vision Méthode de projection de lumière à l'intérieur d'un véhicule, projecteur de lumière automobile et assemblage de lumière automobile
WO2021165133A1 (en) * 2020-02-19 2021-08-26 Valeo Vision Method for projecting light in the interior of a vehicle, automotive light projector and automotive light assembly

Also Published As

Publication number Publication date
US9383579B2 (en) 2016-07-05
US20130097557A1 (en) 2013-04-18
JP5547258B2 (ja) 2014-07-09
DE102012109622A1 (de) 2013-04-18

Similar Documents

Publication Publication Date Title
JP5547258B2 (ja) 適応表示システムの表示コンポーネントの制御方法
US10394375B2 (en) Systems and methods for controlling multiple displays of a motor vehicle
US20110310001A1 (en) Display reconfiguration based on face/eye tracking
US10466800B2 (en) Vehicle information processing device
US8760432B2 (en) Finger pointing, gesture based human-machine interface for vehicles
US10528150B2 (en) In-vehicle device
US20120093358A1 (en) Control of rear-view and side-view mirrors and camera-coordinated displays via eye gaze
US20120169582A1 (en) System ready switch for eye tracking human machine interaction control system
JP2015130173A (ja) ディスプレイ上の両眼転導検出
JP6370358B2 (ja) 透明な電子ディスプレイ上の表示適合
JP2013203103A (ja) 車両用表示装置、その制御方法及びプログラム
US20130187845A1 (en) Adaptive interface system
JP2021140785A (ja) 注意に基づいた通知
US10782776B2 (en) Vehicle display configuration system and method
US20180157324A1 (en) Method and Device for Interacting with a Graphical User Interface
JP2021512392A (ja) バーチャルコンテンツを表示するためのヘッドマウント式電子ディスプレイ装置の操作方法およびバーチャルコンテンツを表示するためのディスプレイシステム
KR20160010540A (ko) 정보 처리 장치 및 기록 매체
JP2018055614A (ja) ジェスチャ操作システム、ジェスチャ操作方法およびプログラム
JP2018183249A (ja) 視線検知装置、視線検知プログラムおよび視線検知方法
KR20130076215A (ko) 차량의 영상 변화 알림 장치
CN111602102A (zh) 用于视觉人-机交互的方法和系统
JP6620682B2 (ja) 車載表示装置
JP2010118024A (ja) 表示制御システム、表示制御方法、及び表示制御プログラム
JP2018162023A (ja) 操作装置
JP2017062565A (ja) サポート装置及びサポート方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140414

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140514

R150 Certificate of patent or registration of utility model

Ref document number: 5547258

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees