JP7781663B2 - 制御装置 - Google Patents

制御装置

Info

Publication number
JP7781663B2
JP7781663B2 JP2022018816A JP2022018816A JP7781663B2 JP 7781663 B2 JP7781663 B2 JP 7781663B2 JP 2022018816 A JP2022018816 A JP 2022018816A JP 2022018816 A JP2022018816 A JP 2022018816A JP 7781663 B2 JP7781663 B2 JP 7781663B2
Authority
JP
Japan
Prior art keywords
display
user
selectable object
screen
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022018816A
Other languages
English (en)
Other versions
JP2023116170A (ja
Inventor
アン シェップ シェリー
ワグナー ヘルゲ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2022018816A priority Critical patent/JP7781663B2/ja
Priority to US18/098,320 priority patent/US12361759B2/en
Priority to CN202310051090.6A priority patent/CN116578206A/zh
Publication of JP2023116170A publication Critical patent/JP2023116170A/ja
Application granted granted Critical
Publication of JP7781663B2 publication Critical patent/JP7781663B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/211Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays producing three-dimensional [3D] effects, e.g. stereoscopic images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/60Instruments characterised by their location or relative disposition in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • B60K35/81Arrangements for controlling instruments for controlling displays
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/11Instrument graphical user interfaces or menu aspects
    • B60K2360/115Selection of menu items
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/11Instrument graphical user interfaces or menu aspects
    • B60K2360/117Cursors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/11Instrument graphical user interfaces or menu aspects
    • B60K2360/119Icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • B60K2360/14643D-gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/731Instruments adaptations for specific vehicle types or users by comprising user programmable systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/65Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/11Hand-related biometrics; Hand pose recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Analysis (AREA)

Description

本発明は、制御装置に関する。
車両のユーザから入力を受け取るための様々な技術が提案されている。特許文献1には、車両のユーザが非接触のジェスチャ(いわゆる、空中ジェスチャ)によって車載機器に入力を行うための技術が提案されている。
特開2018-132824号公報
手の特定の形状や手の特定の移動パターンのような操作によって入力を行うためには、これらの操作を事前に記憶していなければならない。そのため、制御装置のユーザ(以下、単にユーザと表す)が直感的な入力操作を行えない場合がある。本発明の一部の側面は、ユーザが直感的な入力操作を行うことを可能にする技術を提供することを目的とする。
上記課題に鑑みて、ユーザにユーザインタフェースを提供するための制御装置であって、表示装置に選択可能オブジェクトを表示する表示制御手段と、前記ユーザの手の画像を分析することによって、前記手の位置を検出する検出手段と、前記手の位置に基づいて、前記表示装置における指示位置を特定する特定手段と、前記指示位置が前記選択可能オブジェクトに重なったことに基づいて、前記選択可能オブジェクトに関連付けられた処理を実行する処理手段と、を備え、前記表示制御手段は、前記指示位置を示すカーソルを前記表示装置にさらに表示し、前記選択可能オブジェクトに関連付けられた処理は、前記選択可能オブジェクトを含む第1画面の表示を、第2選択可能オブジェクトを含む第2画面の表示に切り替えることを含み、前記処理手段は、前記第2画面の表示開始時点の前記指示位置が前記第2選択可能オブジェクトに重なる場合に、所定の条件を満たすまで、前記指示位置が前記第2選択可能オブジェクトに重なっていないとみなす、制御装置が提供される。
上記手段により、ユーザが直感的な入力操作を行うことが可能となる。
一部の実施形態による車両及び制御装置の構成例を説明する図。 一部の実施形態による車両レイアウト例を説明する図。 一部の実施形態による手の特徴点の例を説明する図。 一部の実施形態による表示画面の遷移を説明する図。 一部の実施形態による表示画面の遷移を説明する図。 一部の実施形態による表示画面の遷移を説明する図。 一部の実施形態による表示画面の遷移を説明する図。 一部の実施形態による表示画面の遷移を説明する図。 一部の実施形態による表示画面の遷移を説明する図。 一部の実施形態による制御装置の動作の例を説明する図。
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでなく、また実施形態で説明されている特徴の組み合わせの全てが発明に必須のものとは限らない。実施形態で説明されている複数の特徴のうち二つ以上の特徴が任意に組み合わされてもよい。また、同一若しくは同様の構成には同一の参照番号を付し、重複した説明は省略する。
本開示の一部の実施形態は、ユーザにユーザインタフェースを提供するための制御装置に関する。制御装置は、電力管理装置(静的デバイス)、車両、芝刈り機、航空機(動的デバイス)のような任意のタイプのデバイスを制御するための装置でありうる。以下は、制御装置が車両を制御する例について扱う。車両のユーザとは、車両の運転者であってもよいし、同乗者であってもよい。本開示の一部の実施形態によれば、ユーザは、特定の装置に接触することなく、手を移動するだけで入力操作を行える。また、表示装置のうちユーザが指し示している位置がカーソルによって示されるため、ユーザは、自分が表示装置のどの位置を指し示しているかを直感的に認識できる。
図1を参照して、車両100に搭載されるハードウェアの構成例及び制御装置101の機能構成例について説明する。以下では、実施形態の説明に使用される構成要素を中心に説明する。車両100の実施に使用されるが、実施形態の説明に使用されない構成要素(例えば、エンジンやモータなどの駆動装置、ブレーキ等の制動装置など)の説明は省略される。
車両100は、制御装置101と、撮影装置104と、表示装置105と、スピーカ106と、マイク107とを有する。制御装置101は、撮影装置104、表示装置105、スピーカ106及びマイク107を制御することによって、車両100のユーザにユーザインタフェースを提供する。以下、車両100のユーザを単にユーザと呼ぶ。制御装置101は、例えばECU(Electronic Control Unit)であってもよい。制御装置101は、単一の装置によって実現されてもよいし、互いに通信可能な複数の装置によって実現されてもよい。制御装置101は、プロセッサ102とメモリ103とを有する。メモリ103には、制御装置101の処理を行うために使用されるプログラム及びデータが記憶されている。また、メモリ103は、制御装置101が処理を実行中の一時データを記憶してもよい。メモリ103に記憶されているプログラムをプロセッサ102が実行することによって、制御装置101の動作が行われる。プロセッサ102は単一のプロセッサであってもよいし、複数のプロセッサであってもよい。メモリ103は単一のメモリであってもよいし、複数のメモリであってもよい。
撮影装置104は、ユーザの画像(特に、ユーザの手の画像)を撮影する。撮影装置104は、可視光を利用してユーザの画像を撮影する可視光カメラであってもよい。また、撮影装置104は、近赤外線を利用してユーザの画像を撮影する近赤外線カメラであってもよい。さらに、撮影装置104は、レーザを利用してユーザの画像を撮影するToF(Time of Flight)カメラであってもよい。撮影装置104は、ユーザの画像を撮影する他の任意のタイプのセンサであってもよい。車両100は、1種類の撮影装置104のみを有してもよいし、複数種類の撮影装置104を有してもよい。また、車両100は、各種類の撮影装置104を1つのみ有してもよいし、複数有してもよい。
表示装置105は、ユーザに視覚情報を提供するための装置である。例えば、表示装置105は、ドットマトリクス方式のディスプレイであってもよいし、セグメント方式のディスプレイであってもよいし、インジケータであってもよいし、他の任意の表示装置であってもよい。車両100は、表示装置105を1つのみ有してもよいし、複数有してもよい。
スピーカ106は、ユーザに聴覚情報を提供するための装置である。車両100は、スピーカ106を1つのみ有してもよいし、複数有してもよい。マイク107は、ユーザから音声入力を受け取るための装置である。車両100は、マイク107を1つのみ有してもよいし、複数有してもよい。車両100は、上記以外の入力装置、例えば物理ボタン、タッチパネル、レバーなどを有していてもよい。
図2を参照して、図1(a)で説明されたハードウェア要素の取り付け位置の例について説明する。図2は、車両100の車室中央から前方(フロントガラス201へ向かう方向)を見た図である。車両100は、進行方向に向かって右側にステアリングホイール202を有する、いわゆる右ハンドル車である。本開示は、左ハンドル車に対しても同様に適用可能である。
撮影装置104は、例えばフロントガラス201の上部中央付近に取り付けられる。例えば、撮影装置104は、車両100のルームミラー(不図示)に取り付けられてもよい。撮影装置104は、運転席に着席したユーザ(すなわち、運転者)の手と、助手席に着席したユーザ(すなわち、同乗者)の手との両方を撮影可能な位置に取り付けられる。制御装置101は、撮影装置104によって撮影された画像内の手が右手であるか左手であるかを認識できる。ユーザの手を撮影可能な範囲とは、ユーザが着席した状態で、身体の前方で手を動かすと考えられる範囲のことであってもよい。車両100は、運転席の正面に1つの撮影装置104を有し、助手席の正面に別の1つの撮影装置104を有してもよい。
表示装置105は、例えばフロントガラス201の下部中央付近に取り付けられる。例えば、表示装置105は、車両100のインストルメントパネル(不図示)に取り付けられてもよい。図2の例では車両100が1つの表示装置105のみを有する。これに代えて、車両100は、フロントガラス201の下部中央付近に取り付けられた表示装置105に加えて、助手席の正面に別の1つの表示装置105を有してもよい。表示装置105は、液晶ディスプレイや有機EL(electro-luminescence)ディスプレイのように自身に表示面を有する装置であってもよいし、ヘッドアップディスプレイのように装置外の物体に画像を投影する装置であってもよい。表示装置105は、3次元(3D)画像、ホログラム、仮想現実(VR)画像、強化現実(AR)画像を生成するデバイスであってもよい。
車両100は、図2に示される例において、表示装置105の下方の左右に一対のスピーカ106を有し、これらのスピーカ106の間にマイク107を有するが、これらのデバイスの配置はこの位置に限られない。
図1(b)を参照して、制御装置101の機能について説明する。制御装置101は、図1(b)に示す機能部を有する。これらの機能部は、メモリ103に記憶されたプログラムをプロセッサ102が実行することによって実現されてもよい。これに代えて、これらの機能部の一部又は全部は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの専用集積回路によって実現されてもよい。
画像分析部111は、撮影装置104によって撮影されたユーザの画像を取得し、この画像を分析する。撮影装置104によって撮影されたユーザの画像を、ユーザ画像と呼ぶ。ユーザ画像は、ユーザを含み、特に、ユーザの手を含む。画像分析部111は、ユーザ画像を分析することによって、ユーザの手の位置及び手の形状を検出する。
図3を参照して、ユーザ画像の分析方法の具体例について説明する。図3は、ユーザ画像に含まれる手300を示す。画像分析部111は、手300に含まれる複数の特徴点の位置に基づいて手300の位置及び形状を検出する。図3の例では、手300の20個の特徴点が設定されている。図3では、複数の特徴点のそれぞれを丸印で示し、そのうちの1つを特徴点301(人差し指の指先)としている。人差し指、中指、薬指及び小指のそれぞれについて、指先、第1関節、第2関節及び付け根が特徴点として設定されている。親指について、指先、第1関節及び付け根が特徴点として設定されている。さらに、手300の母指球の中心が特徴点として設定されている。
画像分析部111は、手300の複数の特徴点の中心位置に基づいて、手300の位置を検出する。例えば、画像分析部111は、ユーザ画像における複数の特徴点の2次元座標値をそれぞれ特定し、複数の特徴点の2次元座標値の単純平均を手300の2次元座標値として特定してもよい。ユーザ画像が2次元画像である場合に、この2次元画像の座標値が特徴点の2次元座標値となる。ユーザ画像が3次元画像である場合に、この3次元画像のうち特定の平面(例えば、車長方向に直交する平面)の座標値が特徴点の2次元座標値となる。ユーザ画像から認識できない特徴点が存在する場合に、画像分析部111は、認識できない特徴点を考慮せずに手300の位置を検出してもよい。これに代えて、画像分析部111は、認識できている特徴点に基づいて、認識できない特徴点の位置を推定し、この推定された位置と認識された特徴点の位置とに基づいて手300の位置を検出してもよい。このように複数の特徴点に基づいて手の位置を検出することによって、精度よく手の位置を検出できる。
画像分析部111は、複数の特徴点の相互の位置関係に基づいて、手300の形状を検出してもよい。例えば、画像分析部111は、人差し指の指先と中指の指先との間の距離が、人差し指の付け根と中指の付け根との間の距離よりも大きければ、人差し指と中指とが離れていることを検出する。画像分析部111は、人差し指の指先と中指の指先との間の距離が、人差し指の付け根と中指の付け根との間の距離と同程度であれば、人差し指と中指とが接触していることを検出する。手300の形状の検出は、複数の特徴点の2次元座標値を入力とし、実際の手の形状を出力とした教師あり学習によって得られたモデルを使用して行われてもよい。
図1(b)を再び参照し、指示位置特定部112は、ユーザの手の位置に基づいて、表示装置105のうちユーザが指示している位置を特定する。ユーザが指示している位置を指示位置と呼ぶ。例えば、指示位置特定部112は、ユーザ画像における手の位置の2次元座標値と、表示装置105の画面の2次元座標値との間のマッピングを記憶していてもよい。このマッピングに従って、指示位置特定部112は、画像において特定の2次元座標値を有する手300の位置を、表示装置105の画面の特定の2次元座標値に対応付け、その2次元座標値を指示位置として特定する。
指示位置特定部112は、ユーザの手の位置と、表示装置105の画面の中心との位置合わせを行ってもよい。例えば、指示位置特定部112は、表示装置105又はスピーカ106を用いて、表示装置105の画面の中心を指示する位置に手を移動するようにユーザに要求してもよい。ユーザの手が静止した後、指示位置特定部112は、ユーザの手の位置を検出し、この手の位置を表示装置105の画面の中心に対応付ける。
指示位置特定部112は、ユーザの手の位置の移動に基づいて表示装置105における指示位置を移動する。例えば、ユーザが手を自分から見て上に移動した場合に、指示位置特定部112は、それに応じて指示位置を上に移動する。ユーザが手を自分から見て右に移動した場合に、指示位置特定部112は、それに応じて指示位置を右に移動する。手の移動距離と指示位置の移動距離との関係は、事前に決定され、メモリ103に記憶されていてもよい。例えば、手が50mm移動した場合に、指示位置特定部112は、指示位置を同じ50mm移動してもよいし、それよりも短く(例えば、30mm)移動してもよいし、それよりも長く(例えば、100mm)移動してもよい。ユーザが手を移動した結果、指示位置が表示装置105の画面から外れた場合に、指示位置特定部112は、ユーザが表示装置105を指し示していないことを特定してもよい。手の移動距離に対する指示位置の移動距離の比率は、例えばメモリ103に記憶されている。ユーザはこの比率を変更可能であってもよい。
処理部113は、ユーザからの入力に応じた様々な処理を実行する。これらの処理はどのようなものであってもよく、例えば画面遷移、音楽再生、映像再生、経路案内、ブラウジング、ゲームプレイなどを含んでもよい。表示制御部114は、表示装置105における表示内容を制御する。表示制御部114の動作の具体例は後述する。時間測定部115は、制御装置101の動作中の様々な時間を測定する。ユーザ識別部116は、制御装置101が提供するユーザインタフェースを利用中のユーザを識別する。制御装置101は、識別された個別のユーザについて個別のユーザインタフェースを提供してもよい。
図4を参照して、制御装置101による表示装置105の表示内容の制御例について説明する。制御装置101(具体的に、その表示制御部114)は、表示装置105に画面400を表示する。画面400は、複数のアイコン(図4の例では、「1-1」~「1-6」のラベルが付された6個のアイコン)を含む。アイコンは、ユーザが選択可能なオブジェクト(選択可能オブジェクトとも呼ばれる)の一例である。選択可能なオブジェクトは、アイコン以外であってもよい。例えば、選択可能なオブジェクトは、リンクが張られた文字列又は画像であってもよい。以下では選択可能オブジェクトの例としてアイコンを扱うが、アイコン以外の他の選択可能オブジェクトに対しても以下の説明する技術を適用可能である。選択可能オブジェクトには、特定の処理(例えば、画面遷移、音楽再生開始、映像再生開始、音量増加など)が関連付けられてもよい。
制御装置101は、ユーザの手の位置に基づいて表示装置105における指示位置を特定し、表示装置105の画面400内に、この指示位置を示すカーソル402も表示する。図4の例では、カーソル402は矢印の形状を有しており、矢印の先端が指示位置を示す。カーソル402の形状は矢印に限られず、他の任意の形状又は表現であってもよい。例えば、カーソル402は円形であってもよいし、星形であってもよい。
ユーザが手を動かすことによって、点線403に沿って指示位置が移動したとする。この場合に、制御装置101は、カーソル402も点線403に沿って移動する。指示位置が特定のアイコン401に重なると、ユーザがアイコン401に関連付けられた処理を要求していると考えられる。そこで、制御装置101(具体的に、その処理部113)は、指示位置がアイコン401に重なったことに基づいて、アイコン401に関連付けられた処理を実行してもよい。このように、ユーザは、手を動かしてカーソル402をアイコン401に重ねるだけで、アイコン401に関連付けられた処理の実行を指示することが可能となる。したがって、ユーザは、直感的な入力操作を行うことができる。
制御装置101は、指示位置がアイコン401に重なった場合に、即座に処理を開始してもよい。しかし、本開示の実施形態のように、空中ジェスチャによる入力操作の場合に、指示位置がアイコン401に重なるように、ユーザが意図せずに手を動かしてしまう場合がある。そこで、一部の実施形態において、制御装置101(具体的に、その時間測定部115)は、指示位置がアイコン401に重なった状態の継続時間を測定する。そして、制御装置101(具体的に、その処理部113)は、この継続時間が閾値時間(例えば、3秒)に到達した場合に、アイコン401に関連付けられた処理を実行する。一方、制御装置101(具体的に、その処理部113)は、この継続時間が閾値時間に到達しなかった場合に(例えば、その前に指示位置がアイコン401から外れた場合に)、アイコン401に関連付けられた処理を実行しない。これによって、ユーザが意図しない処理が実行されることを抑制できる。継続時間が閾値時間に到達することは、閾値時間に設定されたタイマが満了したと言い換えられてもよい。閾値時間は、例えばメモリ103に記憶されている。ユーザは閾値時間を変更可能であってもよい。以下に説明する他の閾値時間についても同様である。
制御装置101は、指示位置がアイコン401に重なったことに応じて、時間の計測を開始する。それとともに、制御装置101は、画面400の表示を、タイマインジケータ411を含む画面410の表示に切り替える。このようにタイマインジケータ411を表示することによって、ユーザは、指示位置がアイコン401に重なっていることを認識しやすくなる。そのため、このような指示位置の移動がユーザの意図したものでなければ、ユーザは手を動かすと考えられる。
制御装置101は、タイマインジケータ411の見掛けを、指示位置がアイコン401に重なった状態の継続時間に応じて変化させる。例えば、画面420に示すように、制御装置101は、時間の経過とともに、タイマインジケータ411のハッチング部分を短くしてもよい。これによって、ユーザは、時間の経過によって処理が実行されることを把握できる。
図4の例では、タイマインジケータ411は、指示位置が重なっているアイコン401に関連付けて(例えば、アイコン401に重なるように)表示されている。これに代えて、タイマインジケータ411は、指示位置が重なっているアイコン401から独立した位置に(例えば、画面の右上など、事前に決められた位置に)表示されてもよい。また、タイマインジケータ411は、指示位置がアイコン401に重なった時点からの経過時間を示してもよいし、アイコン401に関連付けられた処理が開始されるまでの残り時間を示してもよい。また、タイマインジケータ411は、イラストであってもよいし、文字や記号であってもよい。
制御装置101は、指示位置がアイコン401に重なった状態の継続時間が閾値時間に到達する前に指示位置がアイコン401の外側に移動した場合に、アイコン401に関連付けられた処理を実行せず、画面400のようにアイコン401を通常の表示に戻す。制御装置101は、指示位置がアイコン401に重なった状態の継続時間が閾値時間に到達した場合に、アイコン401に関連付けられた処理を実行する。この処理の実行に応じて、制御装置101は、画面420の表示を、処理に固有の画面430の表示に切り替えてもよい。制御装置101は、表示するすべての選択可能オブジェクトについて、上述のように実行開始までのタイマを適用してもよいし、一部の選択可能オブジェクトについてのみタイマを適用してもよい。
図5を参照して、制御装置101による表示装置105の表示内容の別の制御例について説明する。制御装置101は、表示装置105に画面500を表示する。画面500は、複数のアイコン(図5の例では、「2-1」~「2-6」のラベルが付された6個のアイコン)を含む。さらに、画面500は、ユーザによる指示位置を示すカーソル402を含む。指示位置がアイコン501に重なっているため、タイマインジケータ502も表示されている。
制御装置101は、指示位置がアイコン501に重なった状態の継続時間が閾値時間に到達すると、アイコン501に関連付けられた処理を実行する。この処理が、画面500の表示を画面510の表示へ切り替えることを含むとする。画面510は、複数のアイコン(図5の例では、「3-1」~「3-6」のラベルが付された6個のアイコン)を含む。画面500から画面510への遷移において、ユーザによる指示位置に変化がなかった場合に、制御装置101は、表示装置105の同じ位置にカーソル402を表示し続ける。
遷移後の画面510が、指示位置と重なる位置にアイコン511を含んでいたとする。この場合に、指示位置がアイコン511に重なっているものの、ユーザはアイコン511を選択する意図がないかもしれない。そこで、制御装置101は、画面510の表示開始時点の指示位置がアイコン511に重なる場合に、所定の条件を満たすまで、指示位置がアイコン511に重なっていないとみなす。したがって、制御装置101は、経過時間の測定を開始せず、タイマインジケータを表示しない。これによって、ユーザが意図しない処理が実行されることを抑制できる。
上述の所定の条件は、指示位置がアイコン511に重なった状態の継続時間が閾値時間(例えば、5秒)に到達したことであってもよい。このようにユーザがある程度の時間、手を動かさなかった場合には、ユーザがアイコン511を選択しようとしていると考えられる。これに代えて又はこれに加えて、上述の所定の条件は、指示位置がアイコン511の外側に移動し、再度アイコン511に重なったことであってもよい。このようにユーザが意図的に指示位置を変更した場合には、ユーザがアイコン511を選択しようとしていると考えられる。
上述のような所定の条件を満たした場合に、制御装置101は、指示位置がアイコン511に重なっているとみなし、経過時間の計測を開始し、画面520のようにタイマインジケーション521を表示する。
図6を参照して、指示位置が遷移後の画面のアイコンに重なる場合の別の制御例について説明する。画面600は画面500と同様である。アイコン501に指示位置が重なった状態で、アイコン501に関連付けられた処理を開始するためのタイマが満了したとする。この場合に、制御装置101は、複数のアイコン(図5の例では、「3-1」~「3-6」のラベルが付された6個のアイコン)を含む画面610を表示する。
画面610の表示開始時点の指示位置がアイコン511に重なっているので、制御装置101は、ユーザの手の動きとは無関係に、画面610のうち何れのアイコンにも重ならない位置に指示位置が移動したとみなし、その移動後の指示位置を示すようにカーソル402も移動する。これによって、ユーザが意図しない処理が実行されることを抑制できる。この場合に、ユーザの手の実際の位置と指示位置とがずれることになるため、制御装置101は、撮影装置104によって撮影された画像における手の位置と、表示装置105における指示位置とのマッピングもずらず。
図7を参照して、指示位置が遷移後の画面のアイコンに重なる場合のさらに別の制御例について説明する。画面700は画面500と同様である。アイコン501に指示位置が重なった状態で、アイコン501に関連付けられた処理を開始するためのタイマが満了したとする。この場合に、制御装置101は、複数のアイコン(図5の例では、「3-1」~「3-6」のラベルが付された6個のアイコン)を含む画面710を表示する。
画面710の表示開始時点の指示位置が、アイコン511を元々表示する位置に重なるとする。この場合に、制御装置101は、画面710に示すように、画面710のうち指示位置に重ならない位置にアイコン511を表示する。その結果、指示位置は何れのアイコンとも重ならない。これによって、ユーザが意図しない処理が実行されることを抑制できる。図7の例では、制御装置101は、アイコン511のみを別の位置に表示しているが、それ以外のアイコンも含めて再配置を行ってもよい。
図8を参照して、制御装置101による表示装置105の表示内容の別の制御例について説明する。制御装置101は、表示装置105に画面800を表示する。画面800は、複数のアイコン(図8の例では、「4-1」~「4-6」のラベルが付された6個のアイコン)を含む。さらに、画面800は、ユーザによる指示位置を示すカーソル402を含む。また、画面800には、点線で示す位置に、現在の画面を別の画面に切り替えるための切替領域802も設定されている。図8の例では、画面800の左右両側に切替領域802が設定されている。これに代えて又はこれに加えて、切替領域802は、画面800の上側又は下側に設定されていてもよい。また、制御装置101は、切替領域802が存在することをユーザが認識できるように画面800を表示してもよい。
制御装置101は、指示位置が切替領域802に重なった状態の継続時間が閾値時間に到達した場合に、現在の画面800の表示を、切替領域802に関連付けられた画面(例えば、画面810)の表示に切り替える。このような切替領域802による画面の切り替えは、例えば画面のスクロールに利用されてもよい。指示位置がアイコン801に重なった場合と同様に、制御装置101は、指示位置が切替領域802に重なった状態の継続時間を示すタイマインジケータを表示してもよい。
切替領域802は、複数の切替領域802a~802cに分割されていてもよい。切替領域802cが画面800の端から最も遠く、切替領域802bは切替領域802cよりも画面800の端に近く、切替領域802aが画面800の端に最も近い。制御装置101は、複数の切替領域802a~802cのそれぞれについて、画面切り替えるための閾値時間を個別に設定してもよい。例えば、制御装置101は、画面800の端に近い領域ほど、閾値時間を短くしてもよい。例えば、切替領域802aに対する閾値時間が0.5秒であり、切替領域802bに対する閾値時間が1秒であり、切替領域802cに対する閾値時間が3秒であってもよい。画面の端から遠い切替領域ほど、ユーザが意図せず指し示してしまう可能性が高い。そこで、制御装置101は、画面の端から遠い切替領域ほど、閾値時間を長く設定している。これにより、ユーザが意図しない画面切り替えが行われることが抑制される。
図9を参照して、制御装置101による表示装置105の表示内容の別の制御例について説明する。制御装置101は、表示装置105に画面900を表示する。画面900は、複数のアイコン(図9の例では、「6-1」~「6-6」のラベルが付された6個のアイコン)を含む。さらに、画面900は、ユーザによる指示位置を示すカーソル402を含む。また、画面900には、オーバービュー画面910を表示させることを指示するためのアイコン902を含む。制御装置101は、上述の例と同様に、タイマが満了することによって、画面の遷移を行ってもよい。オーバービュー画面910を表示させることを指示するためのアイコン902は、表示装置105に表示される一部の画面のみに含まれてもよいし、表示装置105に表示されるすべての画面に含まれてもよい。
アイコン902が選択されることによって、制御装置101は、画面900の表示をオーバービュー画面910の表示に切り替える。オーバービュー画面910には、ユーザが実行可能な複数の機能がアイコン(図9では、「1」~「12」のラベルが付されている)によって示される。オーバービュー画面910の複数の領域911~913のそれぞれには、関連性の高い機能がまとまって表示されている。オーバービュー画面910は、遷移前にいた画面900に関する機能のアイコンを示すインジケータ914を含む。
図10を参照して、制御装置101の動作例について説明する。図10に説明される方法の各工程は、例えば、メモリ103に記憶されたプログラムをプロセッサ102が実行することによって行われてもよい。図10の方法は、車両100の電源がオンになったことに応じて開始されてもよいし、ユーザからの明示的な指示に応じて開始されてもよい。上記において詳細に説明した内容について、以下では重複する説明を繰り返さない。
ステップS1001で、制御装置101(例えば、その画像分析部111)は、ユーザ画像を分析することによって、ユーザの手を検出する。この検出を行うために、制御装置101は、表示装置105の画面の中心を指し示す位置に手を移動するようにユーザに要求してもよい。この際に、制御装置101は、ユーザの手の位置と、表示装置105の画面の中心との位置合わせを行ってもよい。
ステップS1002で、制御装置101(例えば、そのユーザ識別部116)は、検出された手の画像に基づいて、ユーザが特定の人物であるかどうかを判定する。特定の人物とは、制御装置101が提供するユーザインタフェースを過去に利用したことのある人物であってもよい。このような判定を行うために、制御装置101は、個別のユーザごとに、利用履歴をメモリ103に記憶してもよい。利用履歴は、例えば、各機能の使用頻度、手の移動距離に対する指示位置の移動距離の比率の設定、処理を実行するための閾値時間の長さの設定などを含んでもよい。
制御装置101は、ステップS1002で特定の人物であると判定された場合に(ステップS1002で「YES」)、処理をステップS1003に遷移し、それ以外の場合に(ステップS1002で「NO」)、処理をステップS1004に遷移する。
ステップS1003で、制御装置101は、識別された人物に固有の設定を読み出し、この設定に従って後続の画面の表示を制御する。例えば、制御装置101は、識別された人物により使用頻度が高い機能を優先的に表示してもよい。ステップS1004で、制御装置101は、デフォルトの設定を読み出し、この設定に従って後続の画面の表示を制御する。
ステップS1005で、制御装置101は、ユーザの手の位置の追跡を開始する。これ以降、制御装置101は、ユーザの手の位置を継続的に検出する。また、制御装置101は、表示装置105にスタート画面(または、ホーム画面)を表示し、ユーザの指示位置を示すカーソルを表示装置105に表示する。
ステップS1006で、制御装置101は、ユーザによって選択可能オブジェクト(例えば、アイコン)が選択されたかどうかを判定する。この判定は、上述のように、指示位置が選択可能オブジェクトに重なった状態の継続時間が閾値時間に到達したかどうかに基づいて行われてもよい。
制御装置101は、ステップS1006で選択可能オブジェクトが選択されたと判定された場合に(ステップS1006で「YES」)、処理をステップS1007に遷移し、それ以外の場合に(ステップS1006で「NO」)、処理をステップS1008に遷移する。ステップS1007で、制御装置101は、選択可能オブジェクトに関連付けられた処理を実行する。
ステップS1008で、制御装置101は、ユーザによって画面切り替えが要求されたかどうかを判定する。この判定は、上述のように、指示位置が切替領域に重なった状態の継続時間が閾値時間に到達したかどうかに基づいて行われてもよい。
制御装置101は、ステップS1008で画面切り替えが要求されたと判定された場合に(ステップS1008で「YES」)、処理をステップS1009に遷移し、それ以外の場合に(ステップS1008で「NO」)、処理をステップS1010に遷移する。ステップS1008で、制御装置101は、要求されたとおりに画面を切り替える。
ステップS1010で、制御装置101は、ユーザがスリープジェスチャを行ったかどうかを判定する。スリープジェスチャとは、表示装置105をスリープ状態にするためにユーザが行うジェスチャであり、事前に決定されている。例えば、スリープジェスチャは、広げた手を横に揺らすジェスチャであってもよい。
制御装置101は、ステップS1010でユーザがスリープジェスチャを行ったと判定された場合に(ステップS1010で「YES」)、処理をステップS1011に遷移し、それ以外の場合に(ステップS1010で「NO」)、処理をステップS1006に遷移する。ステップS1011で、制御装置101は、表示装置105をスリープ状態にする。
ステップS1012で、制御装置101は、ユーザがウェイクアップジェスチャを行ったかどうかを判定する。ウェイクアップジェスチャとは、表示装置105のスリープ状態を解除するためにユーザが行うジェスチャであり、事前に決定されている。例えば、ウェイクアップジェスチャは、サムズアップであってもよい。
制御装置101は、ステップS1012でユーザがウェイクアップジェスチャを行ったと判定された場合に(ステップS1012で「YES」)、処理をステップS1013に遷移し、それ以外の場合に(ステップS1012で「NO」)、ステップS1012を繰り返す。ステップS1013で、制御装置101は、表示装置105を起動する。
このように、表示装置105がスリープ状態である間に、制御装置101は、ウェイクアップジェスチャの検出を行うものの、ステップS1006及びS1008における判定は行わない。そのため、ユーザは、表示装置105がスリープ状態にすることによって、意図しない処理が行われることを抑制できる。
<実施形態のまとめ>
<項目1>
ユーザにユーザインタフェースを提供するための制御装置(101)であって、
表示装置(105)に選択可能オブジェクト(501など)を表示する表示制御手段(114)と、
前記ユーザの手(300)の画像を分析することによって、前記手の位置を検出する検出手段(111)と、
前記手の位置に基づいて、前記表示装置における指示位置を特定する特定手段(112)と、
前記指示位置が前記選択可能オブジェクトに重なったことに基づいて、前記選択可能オブジェクトに関連付けられた処理を実行する処理手段(113)と、を備え、
前記表示制御手段は、前記指示位置を示すカーソル(402)を前記表示装置にさらに表示する、制御装置。
この項目によれば、ユーザは、手を動かしてカーソルをアイコンに重ねるだけで、所望の処理を実行することが可能となる。したがって、ユーザは、直感的な入力操作を行うことができる。
<項目2>
前記検出手段は、前記手に含まれる複数の特徴点(301)の中心位置に基づいて、前記手の位置を検出する、項目1に記載の制御装置。
この項目によれば、複数の特徴点に基づいて手の位置を検出するため、精度よく手の位置を検出できる。
<項目3>
前記制御装置は、前記指示位置が前記選択可能オブジェクトに重なった状態の継続時間を計測する計測手段(115)をさらに備え、
前記処理手段は、
前記継続時間が閾値時間に到達した場合に、前記選択可能オブジェクトに関連付けられた処理を実行し、
前記継続時間が前記閾値時間に到達しなかった場合に、前記選択可能オブジェクトに関連付けられた処理を実行しない、項目1又は2に記載の制御装置。
この項目によれば、閾値時間が経過するまでは処理が実行されないため、ユーザが意図しない処理が実行されることを抑制できる。
<項目4>
前記制御装置は、前記指示位置が前記選択可能オブジェクトに重なった状態の継続時間を計測する計測手段(115)をさらに備え、
前記表示制御手段は、前記継続時間に応じて、前記選択可能オブジェクトを含む画面の見掛けを変化させる、項目1乃至3の何れか1項に記載の制御装置。
この項目によれば、時間の経過によって処理が実行されることを把握できる。
<項目5>
前記選択可能オブジェクトに関連付けられた処理は、前記選択可能オブジェクトを含む第1画面の表示を、第2選択可能オブジェクト(511)を含む第2画面の表示に切り替えることを含み、
前記処理手段は、前記第2画面の表示開始時点の前記指示位置が前記第2選択可能オブジェクトに重なる場合に、所定の条件を満たすまで、前記指示位置が前記第2選択可能オブジェクトに重なっていないとみなす、項目1乃至4の何れか1項に記載の制御装置。
この項目によれば、ユーザが意図しない処理が実行されることを抑制できる。
<項目6>
前記選択可能オブジェクトに関連付けられた処理は、前記選択可能オブジェクトを含む第1画面の表示を、第2選択可能オブジェクトを含む第2画面の表示に切り替えることを含み、
前記処理手段は、前記第2画面の表示開始時点の前記指示位置が前記第2選択可能オブジェクトに重なる場合に、前記第2画面のうち何れの選択可能オブジェクトにも重ならない位置に前記指示位置を移動する、項目1乃至4の何れか1項に記載の制御装置。
この項目によれば、ユーザが意図しない処理が実行されることを抑制できる。
<項目7>
前記選択可能オブジェクトに関連付けられた処理は、前記選択可能オブジェクトを含む第1画面の表示を、第2選択可能オブジェクトを含む第2画面の表示に切り替えることを含み、
前記処理手段は、前記第2画面の表示開始時点の前記指示位置が前記第2選択可能オブジェクトを表示する位置に重なる場合に、前記第2画面のうち前記指示位置に重ならない位置に前記第2選択可能オブジェクトを表示する、項目1乃至4の何れか1項に記載の制御装置。
この項目によれば、ユーザが意図しない処理が実行されることを抑制できる。
<項目8>
前記選択可能オブジェクトを含む第1画面は、第1切替位置(802b)と、前記第1切替位置よりも前記第1画面の端に近い第2切替位置(802a)とを含み、
前記表示制御手段は、
前記指示位置が前記第1切替位置に重なった状態の継続時間が第2閾値時間に到達した場合に、前記第1画面の表示を第3画面の表示に切り替え、
前記指示位置が前記第2切替位置に重なった状態の継続時間が第3閾値時間に到達した場合に、前記第1画面の表示を前記第3画面の表示に切り替え、
前記第3閾値時間は、前記第2閾値時間よりも短い、項目1乃至7の何れか1項に記載の制御装置。
この項目によれば、ユーザが意図しない画面切り替えが行われることが抑制される。
<項目9>
前記表示制御手段は、前記選択可能オブジェクトと第3選択可能オブジェクト(902)とを含む第1画面を前記表示装置に表示し、
前記第3選択可能オブジェクトに関連付けられた処理は、前記ユーザが実行可能な複数の機能を示す第4画面を(910)前記表示装置に表示することを含む、項目1乃至8の何れか1項に記載の制御装置。
この項目によれば、ユーザが複数の機能を把握しやすくなる。
<項目10>
前記手の画像に基づいて、前記ユーザが特定の人物であることを識別する識別手段(116)をさらに備え、
前記表示制御手段は、前記特定の人物に固有の設定に従って画面の表示を制御する、項目1乃至9の何れか1項に記載の制御装置。
この項目によれば、ユーザごとにカスタマイズされた表示制御が行われるため、ユーザの利便性が向上する。
<項目11>
コンピュータを項目1乃至10の何れか1項に記載の制御装置の各手段として機能させるためのプログラム。
この項目によれば、上記の効果を有するプログラムが提供される。
発明は上記の実施形態に制限されるものではなく、発明の要旨の範囲内で、種々の変形・変更が可能である。
100 車両、101 制御装置、105 表示装置、501 アイコン

Claims (10)

  1. ユーザにユーザインタフェースを提供するための制御装置であって、
    表示装置に選択可能オブジェクトを表示する表示制御手段と、
    前記ユーザの手の画像を分析することによって、前記手の位置を検出する検出手段と、
    前記手の位置に基づいて、前記表示装置における指示位置を特定する特定手段と、
    前記指示位置が前記選択可能オブジェクトに重なったことに基づいて、前記選択可能オブジェクトに関連付けられた処理を実行する処理手段と、を備え、
    前記表示制御手段は、前記指示位置を示すカーソルを前記表示装置にさらに表示し、
    前記選択可能オブジェクトに関連付けられた処理は、前記選択可能オブジェクトを含む第1画面の表示を、第2選択可能オブジェクトを含む第2画面の表示に切り替えることを含み、
    前記処理手段は、前記第2画面の表示開始時点の前記指示位置が前記第2選択可能オブジェクトに重なる場合に、所定の条件を満たすまで、前記指示位置が前記第2選択可能オブジェクトに重なっていないとみなす、制御装置。
  2. ユーザにユーザインタフェースを提供するための制御装置であって、
    表示装置に選択可能オブジェクトを表示する表示制御手段と、
    前記ユーザの手の画像を分析することによって、前記手の位置を検出する検出手段と、
    前記手の位置に基づいて、前記表示装置における指示位置を特定する特定手段と、
    前記指示位置が前記選択可能オブジェクトに重なったことに基づいて、前記選択可能オブジェクトに関連付けられた処理を実行する処理手段と、を備え、
    前記表示制御手段は、前記指示位置を示すカーソルを前記表示装置にさらに表示し、 前記選択可能オブジェクトに関連付けられた処理は、前記選択可能オブジェクトを含む第1画面の表示を、第2選択可能オブジェクトを含む第2画面の表示に切り替えることを含み、
    前記処理手段は、前記第2画面の表示開始時点の前記指示位置が前記第2選択可能オブジェクトに重なる場合に、前記第2画面のうち何れの選択可能オブジェクトにも重ならない位置に前記指示位置を移動する、制御装置。
  3. ユーザにユーザインタフェースを提供するための制御装置であって、
    表示装置に選択可能オブジェクトを表示する表示制御手段と、
    前記ユーザの手の画像を分析することによって、前記手の位置を検出する検出手段と、
    前記手の位置に基づいて、前記表示装置における指示位置を特定する特定手段と、
    前記指示位置が前記選択可能オブジェクトに重なったことに基づいて、前記選択可能オブジェクトに関連付けられた処理を実行する処理手段と、を備え、
    前記表示制御手段は、前記指示位置を示すカーソルを前記表示装置にさらに表示し、
    前記選択可能オブジェクトに関連付けられた処理は、前記選択可能オブジェクトを含む第1画面の表示を、第2選択可能オブジェクトを含む第2画面の表示に切り替えることを含み、
    前記処理手段は、前記第2画面の表示開始時点の前記指示位置が前記第2選択可能オブジェクトを表示する位置に重なる場合に、前記第2画面のうち前記指示位置に重ならない位置に前記第2選択可能オブジェクトを表示する、制御装置。
  4. ユーザにユーザインタフェースを提供するための制御装置であって、
    表示装置に選択可能オブジェクトを表示する表示制御手段と、
    前記ユーザの手の画像を分析することによって、前記手の位置を検出する検出手段と、
    前記手の位置に基づいて、前記表示装置における指示位置を特定する特定手段と、
    前記指示位置が前記選択可能オブジェクトに重なったことに基づいて、前記選択可能オブジェクトに関連付けられた処理を実行する処理手段と、を備え、
    前記表示制御手段は、前記指示位置を示すカーソルを前記表示装置にさらに表示し、
    前記選択可能オブジェクトを含む第1画面は、第1切替位置と、前記第1切替位置よりも前記第1画面の端に近い第2切替位置とを含み、
    前記表示制御手段は、
    前記指示位置が前記第1切替位置に重なった状態の継続時間が第2閾値時間に到達した場合に、前記第1画面の表示を第3画面の表示に切り替え、
    前記指示位置が前記第2切替位置に重なった状態の継続時間が第3閾値時間に到達した場合に、前記第1画面の表示を前記第3画面の表示に切り替え、
    前記第3閾値時間は、前記第2閾値時間よりも短い、制御装置。
  5. 前記検出手段は、前記手に含まれる複数の特徴点の中心位置に基づいて、前記手の位置を検出する、請求項1乃至4の何れか1項に記載の制御装置。
  6. 前記制御装置は、前記指示位置が前記選択可能オブジェクトに重なった状態の継続時間を計測する計測手段をさらに備え、
    前記処理手段は、
    前記継続時間が閾値時間に到達した場合に、前記選択可能オブジェクトに関連付けられた処理を実行し、
    前記継続時間が前記閾値時間に到達しなかった場合に、前記選択可能オブジェクトに関連付けられた処理を実行しない、請求項1乃至5の何れか1項に記載の制御装置。
  7. 前記制御装置は、前記指示位置が前記選択可能オブジェクトに重なった状態の継続時間を計測する計測手段をさらに備え、
    前記表示制御手段は、前記継続時間に応じて、前記選択可能オブジェクトを含む画面の見掛けを変化させる、請求項1乃至の何れか1項に記載の制御装置。
  8. 前記表示制御手段は、前記選択可能オブジェクトと第3選択可能オブジェクトとを含む第1画面を前記表示装置に表示し、
    前記第3選択可能オブジェクトに関連付けられた処理は、前記ユーザが実行可能な複数の機能を示す第4画面を前記表示装置に表示することを含む、請求項1乃至の何れか1項に記載の制御装置。
  9. 前記手の画像に基づいて、前記ユーザが特定の人物であることを識別する識別手段をさらに備え、
    前記表示制御手段は、前記特定の人物に固有の設定に従って画面の表示を制御する、請求項1乃至の何れか1項に記載の制御装置。
  10. コンピュータを請求項1乃至の何れか1項に記載の制御装置の各手段として機能させるためのプログラム。
JP2022018816A 2022-02-09 2022-02-09 制御装置 Active JP7781663B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022018816A JP7781663B2 (ja) 2022-02-09 2022-02-09 制御装置
US18/098,320 US12361759B2 (en) 2022-02-09 2023-01-18 Control apparatus allowing a user to input operations
CN202310051090.6A CN116578206A (zh) 2022-02-09 2023-02-02 控制装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022018816A JP7781663B2 (ja) 2022-02-09 2022-02-09 制御装置

Publications (2)

Publication Number Publication Date
JP2023116170A JP2023116170A (ja) 2023-08-22
JP7781663B2 true JP7781663B2 (ja) 2025-12-08

Family

ID=87521546

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022018816A Active JP7781663B2 (ja) 2022-02-09 2022-02-09 制御装置

Country Status (3)

Country Link
US (1) US12361759B2 (ja)
JP (1) JP7781663B2 (ja)
CN (1) CN116578206A (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000317141A (ja) 1999-05-12 2000-11-21 Mcm Japan Kk 仮想空間情報処理装置
JP2009064199A (ja) 2007-09-05 2009-03-26 Casio Comput Co Ltd ジェスチャー認識装置及びジェスチャー認識方法
JP2011221787A (ja) 2010-04-09 2011-11-04 Casio Comput Co Ltd 情報処理装置、及びプログラム
JP2015046038A (ja) 2013-08-28 2015-03-12 株式会社ニコン 撮像装置
WO2016185541A1 (ja) 2015-05-18 2016-11-24 三菱電機株式会社 表示制御装置および画像表示装置
JP2018088268A (ja) 2017-10-06 2018-06-07 株式会社コナミデジタルエンタテインメント 端末装置、及びプログラム
JP2018205930A (ja) 2017-05-31 2018-12-27 Line株式会社 プログラム、表示方法および情報処理端末
US20210263592A1 (en) 2020-02-26 2021-08-26 Magic Leap, Inc. Hand and totem input fusion for wearable systems

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI530847B (zh) * 2010-12-27 2016-04-21 聯詠科技股份有限公司 單擊手勢判斷方法、觸控感應控制晶片、觸控系統及電腦系統
US8886399B2 (en) * 2013-03-15 2014-11-11 Honda Motor Co., Ltd. System and method for controlling a vehicle user interface based on gesture angle
US9747898B2 (en) * 2013-03-15 2017-08-29 Honda Motor Co., Ltd. Interpretation of ambiguous vehicle instructions
US10600385B2 (en) * 2016-11-11 2020-03-24 Dell Products, Lp System and method for contextually managing digital display blue light intensity
JP2018132824A (ja) 2017-02-13 2018-08-23 株式会社Soken 操作装置
US20200301513A1 (en) * 2019-03-22 2020-09-24 Microsoft Technology Licensing, Llc Methods for two-stage hand gesture input
KR20210110068A (ko) * 2020-02-28 2021-09-07 삼성전자주식회사 제스처 인식 기반의 영상 편집 방법 및 이를 지원하는 전자 장치

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000317141A (ja) 1999-05-12 2000-11-21 Mcm Japan Kk 仮想空間情報処理装置
JP2009064199A (ja) 2007-09-05 2009-03-26 Casio Comput Co Ltd ジェスチャー認識装置及びジェスチャー認識方法
JP2011221787A (ja) 2010-04-09 2011-11-04 Casio Comput Co Ltd 情報処理装置、及びプログラム
JP2015046038A (ja) 2013-08-28 2015-03-12 株式会社ニコン 撮像装置
WO2016185541A1 (ja) 2015-05-18 2016-11-24 三菱電機株式会社 表示制御装置および画像表示装置
JP2018205930A (ja) 2017-05-31 2018-12-27 Line株式会社 プログラム、表示方法および情報処理端末
JP2018088268A (ja) 2017-10-06 2018-06-07 株式会社コナミデジタルエンタテインメント 端末装置、及びプログラム
US20210263592A1 (en) 2020-02-26 2021-08-26 Magic Leap, Inc. Hand and totem input fusion for wearable systems

Also Published As

Publication number Publication date
US12361759B2 (en) 2025-07-15
US20230249552A1 (en) 2023-08-10
JP2023116170A (ja) 2023-08-22
CN116578206A (zh) 2023-08-11

Similar Documents

Publication Publication Date Title
CN110045825B (zh) 用于车辆交互控制的手势识别系统
US11003242B2 (en) Eye tracking
US10394375B2 (en) Systems and methods for controlling multiple displays of a motor vehicle
CN101784412B (zh) 用于在车辆中显示信息的方法以及用于车辆的显示装置
US8760432B2 (en) Finger pointing, gesture based human-machine interface for vehicles
US9701201B2 (en) Input apparatus for vehicle and vehicle including the same
US20140282161A1 (en) Gesture-based control systems and methods
US20190050073A1 (en) Vehicular control unit and control method thereof
CN104619544A (zh) 操作界面、用于显示易于进行操作界面的操作的信息的方法和程序
US11144193B2 (en) Input device and input method
Pickering The search for a safer driver interface: a review of gesture recognition human machine interface
CN110850975B (zh) 具有手掌辨识的电子系统、车辆及其操作方法
JP7781663B2 (ja) 制御装置
CN118514706B (zh) 车辆控制方法、系统、设备、介质、计算机产品及车辆
EP4493988B1 (en) Control of a haptic touchscreen by eye gaze
JP7192413B2 (ja) 車両用操作装置
EP3125099A1 (en) Vehicle and method of controlling the same
TWM561857U (zh) 與使用者互動之電子裝置
KR20150085020A (ko) 작동 방법 및 작동 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20241127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20250825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20251015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20251114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20251126

R150 Certificate of patent or registration of utility model

Ref document number: 7781663

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150