JP6739864B2 - 車載用情報処理システム - Google Patents

車載用情報処理システム Download PDF

Info

Publication number
JP6739864B2
JP6739864B2 JP2016076080A JP2016076080A JP6739864B2 JP 6739864 B2 JP6739864 B2 JP 6739864B2 JP 2016076080 A JP2016076080 A JP 2016076080A JP 2016076080 A JP2016076080 A JP 2016076080A JP 6739864 B2 JP6739864 B2 JP 6739864B2
Authority
JP
Japan
Prior art keywords
operator
unit
screen
operating hand
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016076080A
Other languages
English (en)
Other versions
JP2017187919A (ja
Inventor
佐藤 晴彦
晴彦 佐藤
吉富 輝雄
輝雄 吉富
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Marelli Corp
Original Assignee
Marelli Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Marelli Corp filed Critical Marelli Corp
Priority to JP2016076080A priority Critical patent/JP6739864B2/ja
Priority to PCT/JP2017/013451 priority patent/WO2017175666A1/ja
Priority to US16/091,204 priority patent/US10788904B2/en
Publication of JP2017187919A publication Critical patent/JP2017187919A/ja
Application granted granted Critical
Publication of JP6739864B2 publication Critical patent/JP6739864B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/11Instrument graphical user interfaces or menu aspects
    • B60K2360/119Icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/141Activation of instrument input devices by approaching fingers or pens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1438Touch screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1438Touch screens
    • B60K2360/1442Emulation of input devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • B60K2360/1468Touch gesture
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04804Transparency, e.g. transparent or translucent windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Transportation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、車両に関する情報を制御するために車両に搭載される車載用情報処理システムに関する。
従来、操作者は、センターコンソールに設置されたタッチパッド上でタッチ操作を行うことにより、画面上に表示されたポインタ又はカーソルの操作、画面のスクロール操作、選択操作、及び入力操作などを行うことが可能である。
例えば、特許文献1に開示された操作入力装置は、走行中の車両の振動を含む外乱因子の影響を低減して、タッチパッド上でのタッチ操作に基づく表示部上のカーソル移動を滑らかにすることが可能である。
また例えば、特許文献2に開示された操作装置は、センターコンソールに設置されたタッチパッド上での操作者によるタッチ操作により、画面上に表示されたポインタ又はカーソルの操作、及び画面のスクロールを可能とする。
特開2015−174648 特開2016−012313
しかしながら、特許文献1及び2に開示された従来の装置は、画面上にポインタ、カーソル、又は移動ベクトルなどを描画することで操作者の操作に対して応答する。このような操作は、直感的ではない。また、操作者の操作手の位置と画面上のポインタなどの位置との対応関係が明確でないために、操作者が画面上のポインタなどを注視する時間は長くなる。従って、より直感的な操作を可能とするインターフェースの実現が望まれる。
かかる観点に鑑みてなされた本発明の目的は、直感的な操作を可能とする車載用情報処理システムを提供することにある。
上記課題を解決する第1の観点に係る車載用情報処理システムは、
少なくとも1つの画面を有し、前記画面上に機能項目を表示する表示部と、
操作者の操作手による接触を検出するタッチ操作部と
前記画面上の操作領域内の位置座標と、前記タッチ操作部の所定の領域内の位置座標とを対応させて、前記操作手の少なくとも一部を前記画面上に重畳表示させる制御部と、を備え
前記機能項目を表示している位置で重畳表示させる前記操作手の透過率は、前記機能項目を除く背景の位置で重畳表示させる前記操作手の透過率より高い
また、第2の観点に係る車載用情報処理システムでは、
前記操作手の少なくとも一部と、前記タッチ操作部とを撮像する撮像部を備え、
前記撮像部は、前記操作手全体を撮像する。
また、第3の観点に係る車載用情報処理システムでは、
前記タッチ操作部の前記所定の領域は、前記タッチ操作部の奥側に設定され、
前記画面上の前記操作領域は、当該設定に対応するように、前記画面の上部に設定される。
また、第4の観点に係る車載用情報処理システムでは、
前記制御部は、前記画面上の前記操作領域内で少なくとも1つのエリアを定めて、車両に関する情報を制御するための少なくとも1つの項目を、前記エリアに対応させて前記画面上に表示させる。
また、第5の観点に係る車載用情報処理システムでは、
前記制御部は、前記操作手の各部にそれぞれ機能を割り当てて、前記タッチ操作部における前記各部の動作に基づいて、前記画面上で前記機能を選択実行させる。
また、第6の観点に係る車載用情報処理システムでは、
前記操作手の指先に近づくほど透過率を上げる
また、第7の観点に係る車載用情報処理システムでは、
少なくとも1つの画面を有し、前記画面上に機能項目を表示する表示部と、
操作者の操作手による接触を検出するタッチ操作部と、
前記操作手の少なくとも一部と、前記タッチ操作部とを撮像する撮像部と、
前記画面上の操作領域内の位置座標と、前記タッチ操作部の所定の領域内の位置座標とを対応させて、前記撮像部により撮像された画像に基づいて、前記操作手の少なくとも一部を前記画面上に重畳表示させる制御部と、を備え、
前記機能項目を表示している位置で重畳表示させる前記操作手の透過率は、前記機能項目を除く背景の位置で重畳表示させる前記操作手の透過率より高い
第1の観点に係る車載用情報処理システムによれば、直感的な操作が可能である。
また、第2の観点に係る車載用情報処理システムによれば、操作者の操作手を精度良く識別することが可能である。
また、第3の観点に係る車載用情報処理システムによれば、必然的に操作者の操作手全体を撮像可能である。
また、第4の観点に係る車載用情報処理システムによれば、操作者が選択したい機能項目を容易に視認可能である。
また、第5の観点に係る車載用情報処理システムによれば、画面上の任意の場所で、各種機能を選択実行可能である。
また、第6の観点に係る車載用情報処理システムによれば、明瞭でより直感的な操作が可能である。
また、第7の観点に係る車載用情報処理システムによれば、直感的な操作が可能である
本実施形態に係る車載用情報処理システムの全体を示す模式図である。 図1の車載用情報処理システムの概略構成を示す機能ブロック図である。 表示部に表示される画像の一例を示した模式図である。 タッチ操作部を側面方向から見たときの断面を模式的に示す図である。 タッチ操作部の所定の領域と、表示部を構成する画面上の操作領域との対応関係の一例を示す模式図である。 車載用情報処理システムが行う画像処理の様子を示した模式図である。 表示部を構成する画面に表示される機能項目とタッチパッドとの対応関係を例示した模式図である。 画面上に重畳表示された操作者の操作手が仮想的に行う操作の様子を例示した模式図である。 図1の車載用情報処理システムの動作の一例を示すフローチャートである。
以降、諸図面を参照しながら、本発明の実施形態について詳細に説明する。
図1は、本実施形態に係る車載用情報処理システム10の全体を示す模式図である。図2は、図1の車載用情報処理システム10の概略構成を示す機能ブロック図である。車載用情報処理システム10は、表示部11と、タッチ操作部12と、撮像部13と、制御部14と、記憶部15とを有する。図3は、表示部11に表示される画像の一例を示した模式図である。図3(a)は、メニュー画面の一例を示し、図3(b)は、地図画面の一例を示す。図4は、タッチ操作部12を側面方向から見たときの断面を模式的に示す図である。
車載用情報処理システム10は、表示部11を構成する画面上の操作領域内の位置座標と、タッチ操作部12の所定の領域内の位置座標とを対応させて、撮像部13により撮像した画像に基づいて、操作者の操作手を画面上に重畳表示する。すなわち、タッチ操作部12上での操作者によるタッチ操作に基づいて、画面上に重畳表示した操作手が、対応する位置で仮想的に画面を操作する。車載用情報処理システム10は、画面上に重畳表示した操作手の動きを、撮像部13によって撮像した実際の操作者の操作手の動きと対応させる。ここで、操作者とは、例えば車両を運転する運転者又は助手席に座っている同乗者であり、操作手とは、例えばセンターコンソール側の運転者又は同乗者自身の手である。
図1に示すとおり、表示部11は、少なくとも1つの画面を有する。表示部11は、液晶ディスプレイなどの任意の表示装置により構成されてもよい。表示部11は、液晶ディスプレイによって構成される場合、例えばインストルメントパネルに配置される。表示部11を構成する表示装置は、タッチパネルディスプレイであってもよいし、タッチ操作不能のディスプレイであってもよい。以下では、表示部11は、タッチ操作不能のディスプレイであるとして説明する。

また、車載用情報処理システム10は、表示部11に加えて又は代えて、いわゆるヘッドアップディスプレイ型の装置を有してもよい。この場合、ヘッドアップディスプレイ型の装置は、表示情報を表示光として発生する発光部を有し、発生した表示光を運転者等の観察者へ向かうように反射して、フロントウィンドシールド越しに虚像を表示する。なお、観察者は運転者に限らず助手席に座っている同乗者等でもよい。
表示部11は、車両に関する情報若しくは当該情報を制御するための機能項目、又はこれらの組合せを表示する。以下では、これらをまとめて「表示内容」という。車両に関する情報は、例えば、空調、カーナビゲーション、オーディオ、電子ミラーによる車両周囲の画像、車速、複数車線における自車の走行位置、又は車間距離などの情報を含む。当該情報を制御するための機能項目は、例えば、「戻る」、「進む」、「ホーム」、「決定」、「各種メニュー」、「温度高い・低い」、「現在地」、「音量大・小」、「拡大・縮小」、「速度速い・遅い」、「車線変更」、又は「距離長い・短い」などの項目を含む。表示部11は、各項目を文字として表示してもよいし、アイコンとして表示してもよい。
例えば、図3(a)に示すとおり、表示部11は、車両に関する情報を制御するための機能項目として、各種メニューを表示する。具体的には、表示部11は、各種アプリを表示するための項目として「APPS」を、電話を使用するための項目として「TEL」を、エアコンを制御するための項目として「A/C」を、カーナビゲーションを使用するためのメニューとして「NAVI」を、オーディオを使用するためのメニューとして「AUDIO」を表示する。同様に、表示部11は、ホーム画面に戻るための項目として「HOME」を表示し、1つ前の画面に戻るための項目として「RETURN」を表示する。
例えば、図3(b)に示すとおり、表示部11は、車両に関する情報として、カーナビゲーションシステムの一部である地図情報を表示する。さらに、表示部11は、車両に関する情報及び当該情報を制御するための機能項目の組合せとして、当該地図情報に重畳させるように、「目的地設定」、「HOME」、及び「RETURN」などの機能項目を表示する。
表示部11は、上記の表示内容と重畳させるように操作者の操作手を表示する。表示部11は、図3に示すとおり、操作者の操作手を半透過にして、その背後に上記の表示内容を表示する。表示部11は、これに限定されず、操作者の操作手が重畳したときに、背後の表示内容が一時的に隠れるように、不透明な操作手を表示してもよい。
以下では、半透過の度合い、すなわち透過率は、重畳させる位置に依存せず一定であるとして説明するが、これに限定されず、重畳させる位置ごとに変化してもよい。例えば、機能項目を表示している位置では、操作者がどの項目を選択すべきかを十分に視認可能なように、表示部11は、透過率を所定値よりも上げて操作者の操作手を表示してもよい。逆に、単なる背景のみを表示している位置では、表示部11は、透過率を所定値よりも下げて表示してもよい。
また、表示部11は、グラデーションを付した操作者の操作手を表示してもよい。ここで述べるグラデーションは、明暗、色彩、若しくは透過率又はこれらの組合せに関する任意の段階的変化を含んでよい。表示部11は、操作者が背後の表示内容を容易に視認可能な任意の方法によりグラデーション表示するのが好適である。例えば、表示部11は、重畳表示した操作者の操作手の指先により近づくほど、操作手を徐々に明るくしたり、淡い色へと徐々に変えたり、透過率を徐々に上げたりして表示してもよい。
透過率が低いほど、重畳させる操作者の操作手のリアリティは向上するが、操作者は、背後の表示内容を視認することが困難となる。逆に、透過率が高いほど、操作者による背後の表示内容の視認は容易となるが、リアリティは低下する。従って、表示部11は、重畳させる操作者の操作手のリアリティを確保しつつ、表示内容を操作者が容易に視認可能な任意の表示方法によりそれぞれを表示するのが好適である。
表示部11は、上述の表示内容などが表示される仮想空間上に、現実世界の操作者の操作手を重畳させるものとして説明したが、これに限定されない。例えば、表示部11は、いわゆるミックスドリアリティのように、画面上に表示した操作者の操作手の前面から、表示内容などを重畳表示してもよい。
タッチ操作部12は、図1に示すとおり、例えばセンターコンソールに配置される。タッチ操作部12は、図2に示すとおり、タッチパッド121と、タクトスイッチ122とを有する。図4に示すとおり、操作者は、アームレスト及びパームレストに自身の腕及び手首をそれぞれ乗せて、操作手の一部、例えば指をタッチパッド121に接触させる。
タッチパッド121は、操作者の操作手又はスタイラスペンなどの接触物による接触を、対応する接触位置において検出する。特に、タッチパッド121は、操作者の操作手の一部、例えば指による接触を対応する接触位置において検出する。操作者は、タッチ操作部12、特にタッチパッド121上でタッチ操作を行うことにより、表示部11を構成する各画面上に表示される情報を操作する。タッチパッド121は、例えば透明なガラスにより形成され、抵抗膜方式、静電容量方式、表面弾性波方式、赤外線方式、又は電磁誘導方式などの任意の方式により構成されたタッチセンサを用いることができる。以下では、タッチパッド121は、静電容量方式による静電タッチパッドであるものとして説明する。
タクトスイッチ122は、図4に示すとおり、タッチパッド121の直下に配置され、基板により支持される。タクトスイッチ122は、操作者の押込みによってタッチパッド121が下方へと変位した場合、その押圧によりオンになる。タクトスイッチ122は、操作者の押込みが解除されタッチパッド121が元の位置に戻った場合、オフになる。操作者は、タッチパッド121を押込むと、タクトスイッチ122がオンになることで、クリック感を得る。
図4では、タクトスイッチ122は、タッチパッド121の直下において、その中心部に1つ配置されているが、これに限定されず、タッチパッド121からの押圧を検出可能であれば、任意の個数で任意の場所に配置されてもよい。例えば、タクトスイッチ122は、タッチパッド121の直下において、その外周部に1つ配置されてもよいし、分散した位置に複数個配置されてもよい。例えば、タッチパッド121の直下に複数のタクトスイッチ122が配置されることで、タッチ操作部12は、タッチパッド121の所定のエリアごとにタッチパッド121からの押圧を検出可能なように構成されてもよい。すなわち、タッチ操作部12は、操作者の複数の指が同時にタッチパッド121に接触している場合に、タッチパッド121上のどの位置で操作者が押込んだかを検出可能なように構成されてもよい。
タッチパッド121の直下に配置される構成部は、タクトスイッチ122に限定されず、タッチパッド121からの押圧を検出可能であれば、任意の構成であってよい。例えば、タクトスイッチ122に代えて、圧電素子などの感圧センサがタッチパッド121の直下に配置されてもよい。
タッチ操作部12は、タッチパッド121と、タクトスイッチ122とに加えて、車両走行中の振動によるタッチパッド121の不要な検出信号を除去するために、フィルターを有してもよい。
撮像部13は、少なくとも1つのカメラを有し、例えば、ルーフパネルに配置される。撮像部13を構成するカメラは、ルーフパネルから車内を撮像するように配置される。より具体的には、撮像部13は、タッチ操作部12でタッチ操作を行う操作者の操作手の少なくとも一部と、タッチ操作部12とを上方から撮像する。
撮像部13は、操作者の操作手の少なくとも一部、例えば5本の指のみを撮像してもよいが、手の甲なども含めた操作者の操作手全体を撮像するのが好適である。ここで、操作手全体とは、操作者の手首付近から指先までを含む部位全体である。この場合、撮像部13は、操作者の操作手全体を容易に撮像するために、例えば、ルーフパネルなど、操作手の上方に配置されるのが好適である。
撮像部13は、このような配置に限定されず、操作者の操作手の少なくとも一部を撮像可能であれば、任意の場所に配置されてもよい。例えば、撮像部13は、透明なタッチパッド121の直下に配置され、タッチパッド121でタッチ操作を行っている操作者の操作手の一部を下方から撮像してもよい。この場合、例えば、図4のパームレスト部分を任意の透明な支持部材に変えることで、撮像部13は、手の甲なども含めた操作者の操作手全体を撮像することも可能である。
撮像部13は、昼間の明るい状態及び夜間の暗い状態の両方で操作者の操作手を鮮明に撮像可能なように、ダイナミックレンジの広いカメラで構成されるのが好適である。また、カメラにより撮像される画像は、白黒画像であってもよいし、カラー画像であってもよい。
撮像部13は、ダイナミックレンジの広いカメラによる構成に限定されず、昼間の明るい状態で撮像可能なカメラにより構成されてもよい。この場合、撮像部13は、夜間でも操作者の操作手を鮮明に撮像するために、タッチパッド121上の操作者の操作手に上方からスポットライトを照射してもよい。
車両が自動運転を行う場合、操作者は、リクライニングシートを倒して、リラックスした状態でシートに寄りかかることが想定される。この時、タッチ操作部12の位置が固定されていると、操作者は、シートに寄りかかった状態で腕を伸ばしてタッチ操作を行う必要があり、不便性を感じる。従って、例えば、タッチ操作部12が配置されたセンターコンソールを、リクライニングシートの動きに連動して後方に下がるように構成することで、操作者は腕を伸ばすことなく、容易にタッチ操作を行うことができる。このような構成の場合、撮像部13は、リクライニングシートの動きに連動したタッチ操作部12のそれぞれの位置に合わせて、タッチパッド121上の操作手を撮像する必要がある。
従って、撮像部13は、上記に加えて、画角の広いカメラで構成されるのが好適である。撮像部13は、これに限定されず、画角の狭いカメラであっても、タッチ操作部12の位置の変化に連動してカメラ自体の角度が変化するように構成されてもよい。同様に、撮像部13は、タッチ操作部12の位置の変化に連動してカメラ自体が平行移動するように構成されてもよい。また、リクライニングシートの動きに連動して変化するタッチ操作部12の位置を、例えば、手動運転時の位置及び自動運転時の位置の二カ所に限定して、各々の位置に対応するように二台のカメラが配置されてもよい。
制御部14は、車載用情報処理システム10の各機能ブロックをはじめとして、車載用情報処理システム10の全体を制御及び管理するプロセッサである。制御部14は、制御手順を規定したプログラムを実行するCPU(Central Processing Unit)等のプロセッサで構成され、かかるプログラムは、例えば記憶部15に格納される。
制御部14は、タッチパッド121上で検出した接触情報を、入力信号としてタッチ操作部12から取得する。具体的には、制御部14は、接触物、例えば、操作者の指による接触及び対応する接触位置に関する検出情報を取得する。制御部14は、対応する接触位置に関する検出情報に基づいて、タッチ操作が行われるタッチパッド121上の正確な位置座標を識別する。
制御部14は、タクトスイッチ122のオン状態又はオフ状態に関する信号を、タッチ操作部12から取得する。具体的には、操作者が、タッチパッド121を介して、タクトスイッチ122を押込んだ場合、制御部14は、オン状態の信号を取得する。操作者が、タッチパッド121への押込みを止めて、タクトスイッチ122の押込みを解除した場合、制御部14は、オフ状態の信号を取得する。制御部14は、取得した信号に基づいて、タクトスイッチ122のオン状態又はオフ状態を識別する。
制御部14は、操作者の操作手の一部による接触をタッチパッド121が検出した場合、表示部11を構成する画面上の対応する項目を選択する。この時、制御部14は、当該項目をハイライトさせる。ハイライトとは、所定の項目を強調して表示することである。制御部14は、ハイライトにより上記の項目が選択状態にあることを操作者にフィードバックする。例えば、図3(a)に示すとおり、操作者の指による接触をタッチパッド121の対応する位置で検出した場合、制御部14は、画面上の「NAVI」の機能項目をハイライトさせる。この時、制御部14は、撮像部13により撮像された画像に基づいて、操作者の操作手を対応する位置に重畳表示させる。
続いて、制御部14は、操作者の操作手の一部によるタッチパッド121の押込みによりタクトスイッチ122がオンになった場合、画面上の所定の項目の選択を確定させる。画面上の所定の項目の選択を確定させる操作は、これに限定されず、例えば、タッチパッド121上でのダブルタップなど、任意の操作であってよい。この場合、タッチ操作部12は、タクトスイッチ122を有さなくてもよい。
例えば、図3(a)では、操作者の操作手の一部による押込みによりタクトスイッチ122がオンになった場合、制御部14は、画面上に表示された「NAVI」の項目の選択を確定させる。この時、制御部14は、タッチパッド121に接触している操作者の操作手の一部、例えば人差し指の押込み又はダブルタップなどに合わせて、同様の動きを画面上に表示させる。
制御部14は、車両に関する情報若しくは当該情報を制御するための機能項目、又はこれらの組合せを表示部11に表示させる。また、制御部14は、後述する画像処理により、表示部11を構成する画面上の操作領域の大きさに基づいた表示倍率で、操作者の操作手の少なくとも一部をその画面上に重畳表示させる。
制御部14は、記憶部15に格納された種々の情報を参照する。具体的には、制御部14は、上記の車両に関する情報又は当該情報を制御するための機能項目に関する情報を参照する。制御部14は、タクトスイッチ122のオン状態又はオフ状態に関する情報を参照する。制御部14は、撮像部13により撮像された画像情報を参照する。制御部14は、表示部11に最終的に重畳表示させる、画像処理された操作者の操作手に関する情報を参照する。
記憶部15は、半導体メモリ又は磁気メモリ等で構成することができ、上述した各種情報及び車載用情報処理システム10を動作させるためのプログラムなどを記憶する。また、記憶部15は、ワークメモリとしても機能する。一例を挙げると、記憶部15は、表示部11に最終的に重畳表示させる、画像処理された操作者の操作手に関する情報などを記憶する。
以下では、図5及び図6を参照して、車載用情報処理システム10が行う画像処理について詳細に説明する。
図5は、タッチ操作部12の所定の領域と、表示部11を構成する画面上の操作領域との対応関係の一例を示す模式図である。図5(a)は、タッチ操作部12の所定の領域R1を示す。図5(b)は、表示部11を構成する画面上の操作領域R2を示す。
制御部14は、タッチ操作部12の所定の領域R1及び表示部11を構成する画面上の操作領域R2を設定する。タッチ操作部12の所定の領域R1とは、操作者が操作手の一部によりタッチ操作を行うための領域である。例えば、タッチ操作部12の所定の領域R1は、タッチパッド121の一部又は全体の領域である。表示部11を構成する画面上の操作領域R2とは、画面上に重畳表示された操作者の操作手が仮想的に操作可能な画面上の領域である。例えば、表示部11を構成する画面上の操作領域R2は、当該画面の一部又は全体の領域である。
図5(a)に示すとおり、タッチ操作部12の所定の領域R1は、タッチ操作部12全体に操作者の操作手が重畳するように、タッチ操作部12の奥側に設定されるのが好適である。タッチ操作部12の奥側とは、例えば、タッチ操作部12を構成するタッチパッド121の奥側である。すなわち、図4及び図5に示すとおり、タッチ操作部12の奥側とは、操作者の腕及び手首をアームレスト及びパームレストにそれぞれ配置したときに、手首から最も離れるタッチパッド121上の領域である。
タッチ操作部12の所定の領域R1は、これに限定されず、上述のとおり、タッチパッド121上の任意の一部の領域であってもよいし、全体領域であってもよい。タッチ操作部12の所定の領域R1がタッチパッド121上の任意の一部の領域である場合、所定の領域R1以外のタッチパッド121上の領域は、タッチ操作に対して反応しないように構成されてもよい。
一方で、表示部11を構成する画面上の操作領域R2は、タッチパッド121の奥側に上記の所定の領域R1が設定されたとき、対応するように、画面の上部に設定される。すなわち、タッチパッド121の奥側及び手前側が、画面の上部及び下部にそれぞれ対応する。このように各々を対応させるのが最も直感的であるが、タッチパッド121と、表示部11を構成する画面との対応関係はこれに限定されない。例えば、上記の対応関係を逆にして、タッチパッド121の手前側及び奥側が、画面の上部及び下部にそれぞれ対応してもよい。この場合、タッチ操作部12全体に操作者の操作手を重畳させるために、タッチ操作部12の奥側の所定の領域R1に対応させて、表示部11を構成する画面上の操作領域R2は、その下部に設定されてもよい。
制御部14は、設定したタッチ操作部12の所定の領域R1内の位置座標と、表示部11を構成する画面上の操作領域R2内の位置座標とを対応させる。例えば、タッチ操作部12の所定の領域R1が、タッチパッド121の一部又は全体の四角の領域であり、画面上の操作領域R2が、当該画面の一部又は全体の四角の領域である場合を考える。この場合、制御部14は、所定の領域R1の4つの頂点と操作領域R2の4つの頂点とをそれぞれ対応させる。制御部14は、4つの頂点の位置座標の対応関係を識別することで、各頂点を結ぶ四角の領域内に位置する各点の位置座標の対応関係を決定することができる。
このような処理は、例えば、車載用情報処理システム10が車両に搭載された初期の段階でキャリブレーションとして実行されてもよいし、随時実行されてもよい。
図6は、車載用情報処理システム10が行う画像処理の様子を示した模式図である。図6(a)は、タッチ操作部12上でタッチ操作を行っている操作者の操作手の様子を示す。図6(b)は、表示部11を構成する画面上に重畳表示させた操作者の操作手の様子を示す。
制御部14は、カメラによって撮像された画像情報を、撮像部13から取得する。図6の領域R3により示すとおり、撮像された画像は、タッチ操作部12でタッチ操作を行う操作者の操作手の少なくとも一部と、タッチ操作部12、特にタッチパッド121とを含む。すなわち、撮像部13は、タッチ操作部12と操作者の操作手との位置関係を撮像する。加えて、上述のとおり、制御部14は、所定の領域R1内の位置座標と操作領域R2内の位置座標とを対応させるので、タッチ操作部12における操作者の操作手の位置と対応するように、当該操作手の少なくとも一部を画面上に重畳表示させることが可能である。
制御部14は、表示部11に操作者の操作手を重畳表示させるとき、上記の画像に基づいて、操作者の操作手の一部又は全体を抽出する画像処理を行う。すなわち、制御部14は、操作者の操作手の輪郭よりも外部の背景等の画像情報を除去する。なお、タッチパッド121の周囲を黒色の縁により囲むことで、制御部14は、撮像された画像に基づいて容易に操作者の操作手を抽出することができる。
さらに、制御部14は、撮像された画像が白黒画像の場合、画像処理によって操作手部分を着色してもよいし、着色しなくてもよい。表示部11に表示される操作者の操作手のリアリティをより向上させるためには、制御部14は、画像処理により着色するのが好適である。
一方で、制御部14は、撮像された画像がカラー画像の場合、操作者の操作手の実際の色彩及び明暗などに合わせて、画面上にそのまま重畳表示させるのが好適である。制御部14は、これに限定されず、背後の表示内容をより容易に視認可能とするために、操作手部分の色彩及び明暗などを排除して、代わりに例えば所定の一色を付す画像処理を行ってもよい。また、制御部14は、操作手部分の色彩及び明暗などを排除して、操作手部分を完全に無色透明とする画像処理を行ってもよい。この場合、制御部14は、操作手の輪郭近傍の部位のみを画面上に表示させる。
以下では、撮像部13によって撮像された画像はカラー画像であり、制御部14は、操作者の操作手の実際の色彩及び明暗などに合わせて、画面上にそのまま重畳表示させるものとして説明する。すなわち、制御部14は、色彩及び明暗などに関する画像処理を行う必要はないものとして説明する。
制御部14は、撮像された画像中のタッチ操作部12の所定の領域R1と、表示部11を構成する画面上の操作領域R2との間の大きさの比率に基づいて、操作者の操作手の表示倍率を決定する。例えば、タッチ操作部12の所定の領域R1が、タッチパッド121の一部又は全体の四角の領域であり、画面上の操作領域R2が、当該画面の一部又は全体の四角の領域である場合を考える。この場合、制御部14は、タッチ操作部12の所定の領域R1の各辺の長さと、画面上の操作領域R2の対応する各辺の長さとの比率をそれぞれ算出する。制御部14は、当該比率に基づいて、表示部11に重畳表示させる操作者の操作手の表示倍率を決定する。
制御部14は、決定した表示倍率に基づいて、撮像された操作者の操作手を、拡大若しくは縮小した状態、又はそのままの状態で表示部11に重畳表示させる。
制御部14は、操作者の操作手の表示倍率を上記の比率と同一としてもよいし、上記の比率に基づく異なる値としてもよい。また、表示倍率の決定処理は、例えば、車載用情報処理システム10が車両に搭載された初期の段階で上述のキャリブレーションと同時に実行されてもよいし、随時実行されてもよい。制御部14は、表示倍率を一度決定すると、その倍率を固定してもよいし、状況に応じて可変としてもよい。例えば、制御部14は、昼間と夜間とで操作者の操作手の表示倍率を変えてもよいし、操作者の設定により表示倍率を適宜変えてもよい。
例えば、表示部11が複数の画面により構成される場合、制御部14は、各々の画面の操作領域R2の大きさに基づいて、重畳表示させる操作者の操作手の表示倍率をそれぞれ変えてもよい。これに限定されず、制御部14は、各々の画面の操作領域R2の大きさに基づいて、例えば、その平均値を導出し、当該平均値に基づいて、重畳表示させる操作者の操作手の表示倍率を一定にしてもよい。
制御部14は、画面上の操作領域R2の大きさのみならず、画面上に表示する内容に応じて、操作者の操作手の表示倍率を変化させてもよい。例えば、表示部11が地図又は機能項目などを表示して、操作者が各々を操作する場合、制御部14は、操作者が操作しやすいようにその操作手の表示倍率を通常よりも低下させて、表示部11に重畳表示させてもよい。
また、制御部14は、例えば、操作手の大きさの異なる操作者間で、表示部11に重畳表示される操作手の大きさを一致させるために、操作者ごとに表示倍率を変えてもよい。一方で、制御部14は、操作手の大きさの異なる操作者間で、表示部11に重畳表示される操作手の表示倍率を一定にして、現実の操作者の操作手の大きさに合わせて重畳表示させてもよい。
制御部14は、撮像部13により撮像された画像に基づいて、所定の時間内で画像処理を行うのが好適である。所定の時間とは、操作者の実際の操作手による操作のタイミングと、画面上に重畳表示させた操作者の操作手の動きのタイミングとの間の時間遅れであって、操作者が意識しない程度の時間遅れを意味する。すなわち、制御部14は、操作者の反応速度及び認知能力などによって操作者が操作に違和感を感じる時間遅れよりも十分に短い時間内で画像処理を完結するのが好適である。例えば、制御部14は、上述した、撮像された操作者の操作手の抽出及び表示倍率の調整のみに画像処理を限定するのが好適である。
すなわち、操作者の操作手によるタッチ操作が検出されるタッチ操作部12の所定の領域R1内の位置座標は、撮像部13による撮像画像の画像処理により識別されるのではなく、上述したとおり、タッチ操作部12、特にタッチパッド121からの検出情報に基づいて識別されるのが好適である。
制御部14は、上記のように2つの画像処理を行うものとして説明するが、これに限定されず、所定の時間内であれば、3つ以上の画像処理を行ってもよい。この場合、例えば、操作者の操作手によるタッチ操作が検出されるタッチ操作部12の所定の領域R1内の位置座標は、撮像部13による撮像画像の画像処理により識別されてもよい。
制御部14は、上記の画像処理を行うにあたり、タッチ操作部12の所定の領域R1及び表示部11を構成する画面上の操作領域R2に関する情報を、記憶部15より参照する。すなわち、制御部14は、検出情報に対応させた、タッチパッド121の所定の領域R1内の位置座標に関する情報を参照する。制御部14は、表示部11を構成する各画面の操作領域R2内の位置座標に関する情報を参照する。制御部14は、キャリブレーションなどにより決定された、重畳表示させる操作者の操作手の表示倍率に関する情報を参照する。
以下では、図7及び図8を参照して、操作者が車載用情報処理システム10を用いて行う操作の一例を詳細に説明する。
図7は、表示部11を構成する画面に表示される機能項目とタッチパッド121との対応関係を例示した模式図である。制御部14は、画面上の操作領域R2内で少なくとも1つのエリアを定めて、操作者が車両に関する情報を制御するための少なくとも1つの機能項目を、エリアごとに対応させて画面上に表示させる。例えば、制御部14は、その画面の上部に設定された操作領域R2をさらに7つのエリアR21、R22、R23、R24、R25、R26、及びR27に分けて、「APPS」、「TEL」、「A/C」、「NAVI」、「AUDIO」、「HOME」、及び「RETURN」の機能項目をそれぞれのエリアに対応させて表示させる。7つのエリアR21乃至R27は、タッチ操作部12の所定の領域R1中のエリアR11、R12、R13、R14、R15、R16、及びR17にそれぞれ対応する。
制御部14が分けるエリアの数は7つに限定されず、少なくとも1つのエリアが定められていればよい。また、各エリアに表示させる機能項目は、上記に限定されず、車両に関する情報を制御するための任意の項目であってよい。各機能項目の表示方法は、図7に示した文字による表示に限定されず、例えば、矢印などのアイコンによる表示など、操作者が視認可能な任意の表示方法であってよい。
操作者は、例えば、カーナビゲーションを起動したいときは、エリアR14でタッチ操作を行う。タッチパッド121が操作者の操作手の一部による接触をエリアR14で検出した場合、制御部14は、エリアR24に表示された「NAVI」の項目をハイライトさせる。この時、制御部14は、撮像部13により撮像された画像に基づいて、操作者の操作手を対応する位置に重畳表示させる。
続いて、操作者の操作手の一部によるタッチパッド121の押込みによりタクトスイッチ122がオンになった場合、制御部14は、エリアR24に表示された「NAVI」の項目の選択を確定させる。この時、制御部14は、エリアR14に接触している操作者の操作手の一部、例えば人差し指の押込みに合わせて、同様の動きを画面上で表示させる。
同様に、操作者がエリアR11でタッチ操作を行うと、制御部14は、エリアR21に表示された「APPS」に関する処理を行う。操作者がエリアR12でタッチ操作を行うと、制御部14は、エリアR22に表示された「TEL」に関する処理を行う。操作者がエリアR13でタッチ操作を行うと、制御部14は、エリアR23に表示された「A/C」に関する処理を行う。操作者がエリアR15でタッチ操作を行うと、制御部14は、エリアR25に表示された「AUDIO」に関する処理を行う。操作者がエリアR16でタッチ操作を行うと、制御部14は、エリアR26に表示された「HOME」に関する処理を行う。操作者がエリアR17でタッチ操作を行うと、制御部14は、エリアR27に表示された「RETURN」に関する処理を行う。
図7では、制御部14は、操作領域R2内に定められたエリアごとに各機能項目を対応させて表示させるものとして説明したが、これに限定されない。図8に示すとおり、制御部14は、操作者の操作手の各部にそれぞれ機能を割り当てて、タッチ操作部12における各部の動作に基づいて、画面上で各種機能を選択実行させてもよい。この場合、制御部14は、各種機能を選択実行させるためにエリアごとに各機能項目を表示させる必要はない。
図8は、画面上に重畳表示された操作者の操作手が仮想的に行う操作の様子を例示した模式図である。制御部14は、画面上に各機能項目を表示させる代わりに、操作者の操作手の各部、例えば3本の指それぞれに各種機能を割り当てる。より具体的には、制御部14は、操作者の操作手の親指、人差し指、及び中指に、「RETURN」、「NAVI」、及び「HOME」の機能をそれぞれ割り当てる。各種機能を割り当てる指の種類及び本数は上記に限定されず、任意の本数の任意の指に、任意の機能が割り当てられてもよい。
例えば、操作者が人差し指をタッチパッド121に接触させた場合、制御部14は、タッチパッド121上の接触に関する検出信号を、タッチ操作部12から取得する。この時、制御部14は、撮像部13から取得した撮像画像により、タッチパッド121に接触している指の種類を識別する。すなわち、制御部14は、タッチ操作部12から取得した検出情報に基づいて、タッチパッド121上の接触の位置座標を識別し、撮像部13から取得した画像情報に基づいて、接触している指の種類を識別する。
制御部14は、操作者の操作手による接触を識別した場合、画面上に任意の合図を表示させてもよい。制御部14は、操作者の操作手による接触を識別しない場合、画面上に当該合図を表示させない。例えば、制御部14は、前者の場合、画面上に重畳表示された操作者の人差し指の近傍に「NAVI」という項目を文字で表示させてもよいし、所定のアイコンで表示させてもよい。制御部14は、さらに、表示した項目をハイライトさせてもよい。また、制御部14は、操作者の人差し指による接触の識別を操作者に視覚情報としてフィードバックするために、人差し指の周囲をサークル状のポインタなどで囲むように表示させてもよい。以上により、操作者は、どの指がタッチパッド121に接触しているかを、視覚情報としても容易に認識することができる。
続いて、操作者がタッチパッド121を押込み、タクトスイッチ122がオンになった場合、制御部14は、操作者の人差し指の近傍に表示された「NAVI」の項目の選択を確定させる。この時、制御部14は、タッチパッド121上の対応する位置に接触している操作者の人差し指の押込みに合わせて、同様の動きを画面上で表示する。
同様に、操作者が親指でタッチ操作を行うと、制御部14は、「RETURN」に関する処理を行う。操作者が中指でタッチ操作を行うと、制御部14は、「HOME」に関する処理を行う。
例えば、操作者が親指、人差し指、及び中指を同時にタッチパッド121に接触させた場合、制御部14は、上記の全ての項目を画面上に同時に表示してもよい。すなわち、制御部14は、画面上に重畳表示された操作者の親指、人差し指、及び中指の近傍に、「RETURN」、「NAVI」、及び「HOME」という項目をそれぞれ文字又はアイコンで同時に表示させてもよい。制御部14は、さらに、表示した項目をそれぞれハイライトさせてもよい。また、制御部14は、操作者の各指による接触の識別を操作者に視覚情報としてフィードバックするために、各指の周囲をサークル状のポインタなどでそれぞれ囲むように表示させてもよい。続いて、操作者が特定の指でタッチパッド121を押込むと、制御部14は、その指に割り当てられた機能の選択を確定させる。
上記の場合、制御部14は、例えば、撮像部13によって撮像された画像情報に基づいて、押込んだ指を識別してもよい。また、より精度良く押込んだ指を識別するために、制御部14は、例えば、タッチパッド121の直下に配置された複数のタクトスイッチ122からの検出信号に基づいて、押込んだ指を識別してもよい。すなわち、制御部14は、操作者が各指を同時にタッチパッド121に接触させた時点で、それぞれの位置座標及び指の種類を識別する。その後、制御部14は、タクトスイッチ122によりタッチパッド121上のどの位置で押圧があったかを識別する。これにより、制御部14は、どの指の機能の選択を確定させるかを識別する。
図9は、車載用情報処理システム10の動作の一例を示すフローチャートである。
初めに、制御部14は、キャリブレーションを行う。すなわち、制御部14は、設定されたタッチ操作部12の所定の領域R1内の位置座標と、表示部11を構成する画面上の操作領域R2内の位置座標とを対応させる(ステップS10)。
続いて、制御部14は、キャリブレーションなどによって、表示部11に重畳表示させる操作者の操作手の表示倍率を決定する(ステップS11)。
次に、制御部14は、撮像部13により撮像された画像に基づいて、タッチ操作部12上に操作者の操作手が重畳しているかを判別する(ステップS12)。
制御部14は、タッチ操作部12上に操作者の操作手が重畳していると判別した場合、ステップS13に進む。制御部14は、タッチ操作部12上に操作者の操作手が重畳していないと判別した場合、再度ステップS12に戻り、操作者の操作手が重畳するまで待機する。
制御部14は、タッチ操作部12上に操作者の操作手が重畳していると判別した場合、操作者の操作手の一部又は全体を抽出する画像処理を行う(ステップS13)。
続いて、制御部14は、ステップS11で決定された表示倍率に基づいて、撮像された操作者の操作手を重畳表示させる(ステップS14)。
続いて、制御部14は、タッチ操作部12からタッチ操作に関する検出情報を取得したかを判別する(ステップS15)。
制御部14は、検出情報を取得した場合、ステップS16に進む。制御部14は、検出情報を取得しない場合、再度ステップS15に戻り、検出情報を取得するまで待機する。
制御部14は、検出情報を取得した場合、識別したタッチ操作部12の所定の領域R1内の位置座標に対応する機能項目をハイライトさせる(ステップS16)。
続いて、制御部14は、タクトスイッチ122がオン状態の信号をタッチ操作部12より取得したかを判別する(ステップS17)。
制御部14は、オン状態の信号を取得した場合、ステップS18に進む。制御部14は、オン状態の信号を取得しない場合、ステップS15に戻り、検出情報を取得したかを再度判別する。
制御部14は、オン状態の信号を取得した場合、ステップS16でハイライトさせた機能項目の選択を確定させる(ステップS18)。
その後、フローは終了する。
以上により、本実施形態に係る車載用情報処理システム10は、表示部11に表示された操作者の操作手が仮想的に画面上で情報を操作するので、操作者に対して直感的な操作を可能とする。すなわち、操作者は、実際の感覚により近い状態で画面内にアクセスできる。また、操作者は、操作手の実際の位置と画面上の位置関係とを直感的に認識できる。従って、車載用情報処理システム10は、ポインタなどを表示させる従来の装置と比べて、操作者が画面を注視する時間を低減させることが可能である。
車載用情報処理システム10は、画像処理を行う時間を限定するので、最小限の遅延により、操作者の操作手を重畳表示させることが可能である。すなわち、車載用情報処理システム10は、実際の操作手と画面上に重畳表示された操作手との間で、時間的な動きのズレを低減することができる。これにより、操作者は、より違和感なく画面上に表示される情報を操作可能である。
車載用情報処理システム10は、撮像部13により撮像された操作者の操作手を抽出する画像処理を行うので、画面上で操作者の操作手を忠実に重畳表示させることが可能である。これにより、操作者は、画面上に重畳表示された操作手を、自身の手であると直感的に認識することができる。
車載用情報処理システム10は、撮像部13により撮像された操作者の操作手の表示倍率を変更する画像処理を行うので、画面に合わせた最適な大きさで操作者の操作手を重畳表示させることが可能である。これにより、操作者は、画面上に重畳表示されている操作手にリアリティを感じつつ、その背後に表示された表示内容を容易に視認可能である。
車載用情報処理システム10は、タッチ操作が検出される所定の領域R1内の位置座標を画像処理により識別する場合と比べて、最小限の遅延により、操作者の操作手を重畳表示させることが可能である。また、車載用情報処理システム10は、撮像部13により撮像された画像に基づいて間接的に位置座標を識別するのではなく、タッチ操作部12により直接識別するので、精度良く位置座標を識別することができる。すなわち、車載用情報処理システム10は、タッチ操作部12により操作手が実際に接触している位置を検出するので、操作者が画面上に表示された機能項目などを選択する際に、誤動作を引き起こす可能性が低い。
車載用情報処理システム10では、撮像部13が操作者の操作手全体を撮像することで、操作者は、画面上に重畳表示された操作手が自身の手であることを容易に認識できる。さらに、操作者は、操作手のどの部分を動かしているのかを、画面上の表示に基づいて容易に認識できる。また、操作者は、実際の操作手の位置と、画面上の位置との関係を正確に認識するので、操作手の移動量及び移動可能な画面上の領域を容易に把握できる。
車載用情報処理システム10は、撮像部13により操作者の操作手全体を撮像することで、タッチパッド121上の操作者の操作手を精度良く識別することが可能である。すなわち、車載用情報処理システム10は、操作者の操作手を人の手として精度良く認識することが可能である。さらに、車載用情報処理システム10は、操作者の操作手の各部の識別をより精度良く行うことが可能である。すなわち、車載用情報処理システム10は、撮像された画像中の指がどの指に対応するかを精度良く識別することが可能である。また、車載用情報処理システム10は、操作手全体を撮像することで、操作手全体の大きさ、操作手全体に占める各部の大きさの割合などを精度良く識別することが可能である。これにより、車載用情報処理システム10は、画面中での操作者の操作手の移動量、移動可能な画面上の領域を、タッチパッド121上の実際の操作手の動きと対応させて精度良く識別することが可能である。
車載用情報処理システム10は、タッチパッド121の奥側に所定の領域R1を設定し、画面上の上部に操作領域R2を設定することで、操作者は、必然的にタッチ操作部12全体に自身の操作手を重畳させることになる。この時、車載用情報処理システム10は、撮像部13により、必然的に操作者の操作手全体を撮像可能である。なお、所定の領域R1以外のタッチパッド121上の領域をタッチ操作に対して無反応とすることで、操作者の意識は所定の領域R1により集中することになる。この時、車載用情報処理システム10は、より確実に操作者の操作手全体を撮像可能である。
車載用情報処理システム10は、操作領域R2内に定められたエリアごとに各機能項目を対応させて表示させるので、操作者は、選択したい機能項目を容易に視認可能である。換言すると、操作者は、所定の機能項目を選択する場合に、タッチ操作部12上のどのエリアでタッチ操作を行うべきかを直感的に認識可能である。
一方で、車載用情報処理システム10は、操作者の操作手の各部にそれぞれ機能を割り当てる場合、画面上の任意の場所で、各種機能を選択実行可能である。すなわち、車載用情報処理システム10は、タッチ操作において、操作者の動作範囲を最小限に抑えることが可能であり、操作者は、容易にタッチ操作を行うことができる。
車載用情報処理システム10は、操作者が接触により選択した項目をハイライトさせることで、どの指がタッチパッド121に接触しているかを、視覚情報としても明瞭に認識することができる。また、操作者は、重畳表示された操作手が画面上のどの位置で接触しているのか、又はどの項目が選択されているのかを容易に視認可能である。
車載用情報処理システム10は、タクトスイッチ122がオンになるときに操作者に対してクリック感を与えるので、操作者は、自身の動作による触感的なフィードバックを得ることができ、より直感的な操作が可能である。換言すると、タクトスイッチ122が選択の確定に用いられることで、操作者は、自然な動作で選択した項目を確定させることができる。加えて、操作者は、指に働く反力によって、画面上に重畳表示された操作手に対してよりリアリティを感じる。すなわち、操作者は、自身の実際の操作手があたかも直接画面に触れているような錯覚を覚えやすくなる。
車載用情報処理システム10は、重畳表示させる操作者の操作手を半透過にするので、リアリティを確保しつつ、操作者は、画面上に表示される情報を容易に視認可能である。すなわち、操作者は、より直感的に画面上に表示される情報を操作可能である。
車載用情報処理システム10は、タッチ操作部12の上方に撮像部13を設置することで、操作者の操作手全体をより容易に撮像可能である。
本発明は、その精神又はその本質的な特徴から離れることなく、上述した実施形態以外の他の所定の形態で実現できることは当業者にとって明白である。従って、先の記述は例示的なものであり、これに限定されるものではない。発明の範囲は、先の記述によってではなく、付加した請求項によって定義される。あらゆる変更のうちその均等の範囲内にあるいくつかの変更は、その中に包含されるものとする。
10 車載用情報処理システム
11 表示部
12 タッチ操作部
121 タッチパッド
122 タクトスイッチ
13 撮像部
14 制御部
15 記憶部
R1 所定の領域
R11、R12、R13、R14、R15、R16、R17 エリア
R2 操作領域
R21、R22、R23、R24、R25、R26、R27 エリア
R3 領域

Claims (7)

  1. 少なくとも1つの画面を有し、前記画面上に機能項目を表示する表示部と、
    操作者の操作手による接触を検出するタッチ操作部と
    前記画面上の操作領域内の位置座標と、前記タッチ操作部の所定の領域内の位置座標とを対応させて、前記操作手の少なくとも一部を前記画面上に重畳表示させる制御部と、を備え
    前記機能項目を表示している位置で重畳表示させる前記操作手の透過率は、前記機能項目を除く背景の位置で重畳表示させる前記操作手の透過率より高い、
    車載用情報処理システム。
  2. 前記操作手の少なくとも一部と、前記タッチ操作部とを撮像する撮像部を備え、
    前記撮像部は、前記操作手全体を撮像する、
    請求項1に記載の車載用情報処理システム。
  3. 前記タッチ操作部の前記所定の領域は、前記タッチ操作部の奥側に設定され、
    前記画面上の前記操作領域は、当該設定に対応するように、前記画面の上部に設定される、
    請求項1又は2に記載の車載用情報処理システム。
  4. 前記制御部は、前記画面上の前記操作領域内で少なくとも1つのエリアを定めて、車両に関する情報を制御するための少なくとも1つの項目を、前記エリアに対応させて前記画面上に表示させる、
    請求項1乃至3のいずれか一項に記載の車載用情報処理システム。
  5. 前記制御部は、前記操作手の各部にそれぞれ機能を割り当てて、前記タッチ操作部における前記各部の動作に基づいて、前記画面上で前記機能を選択実行させる、
    請求項1乃至3のいずれか一項に記載の車載用情報処理システム。
  6. 前記操作手の指先に近づくほど透過率を上げる、
    請求項1乃至5のいずれか一項に記載の車載用情報処理システム。
  7. 少なくとも1つの画面を有し、前記画面上に機能項目を表示する表示部と、
    操作者の操作手による接触を検出するタッチ操作部と、
    前記操作手の少なくとも一部と、前記タッチ操作部とを撮像する撮像部と、
    前記画面上の操作領域内の位置座標と、前記タッチ操作部の所定の領域内の位置座標とを対応させて、前記撮像部により撮像された画像に基づいて、前記操作手の少なくとも一部を前記画面上に重畳表示させる制御部と、を備え、
    前記機能項目を表示している位置で重畳表示させる前記操作手の透過率は、前記機能項目を除く背景の位置で重畳表示させる前記操作手の透過率より高い、
    車載用情報処理システム。
JP2016076080A 2016-04-05 2016-04-05 車載用情報処理システム Active JP6739864B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016076080A JP6739864B2 (ja) 2016-04-05 2016-04-05 車載用情報処理システム
PCT/JP2017/013451 WO2017175666A1 (ja) 2016-04-05 2017-03-30 車載用情報処理システム
US16/091,204 US10788904B2 (en) 2016-04-05 2017-03-30 In-vehicle information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016076080A JP6739864B2 (ja) 2016-04-05 2016-04-05 車載用情報処理システム

Publications (2)

Publication Number Publication Date
JP2017187919A JP2017187919A (ja) 2017-10-12
JP6739864B2 true JP6739864B2 (ja) 2020-08-12

Family

ID=60001236

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016076080A Active JP6739864B2 (ja) 2016-04-05 2016-04-05 車載用情報処理システム

Country Status (3)

Country Link
US (1) US10788904B2 (ja)
JP (1) JP6739864B2 (ja)
WO (1) WO2017175666A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022134238A1 (de) * 2022-12-20 2024-06-20 Bayerische Motoren Werke Aktiengesellschaft Fortbewegungsmittel, Vorrichtung und Verfahren zur Anpassung einer Detailtiefe einer Augmented-Reality-Anwenderschnittstelle eines Fortbewegungsmittels

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5201999B2 (ja) * 2006-02-03 2013-06-05 パナソニック株式会社 入力装置、及びその方法
JP2008217548A (ja) * 2007-03-06 2008-09-18 Tokai Rika Co Ltd 操作入力装置
JP5057937B2 (ja) * 2007-11-09 2012-10-24 三菱電機株式会社 携帯電子機器
US8319832B2 (en) * 2008-01-31 2012-11-27 Denso Corporation Input apparatus and imaging apparatus
JP5172485B2 (ja) * 2008-06-10 2013-03-27 シャープ株式会社 入力装置及び入力装置の制御方法
US8228345B2 (en) * 2008-09-24 2012-07-24 International Business Machines Corporation Hand image feedback method and system
JP5364925B2 (ja) * 2009-02-27 2013-12-11 現代自動車株式会社 車載機器の入力装置
JP2013061848A (ja) * 2011-09-14 2013-04-04 Panasonic Corp 非接触入力装置
JP2015174648A (ja) 2014-03-18 2015-10-05 株式会社日本自動車部品総合研究所 操作入力装置、および操作入力方法
JP2016012313A (ja) 2014-06-30 2016-01-21 トヨタ自動車株式会社 操作装置

Also Published As

Publication number Publication date
US20190278392A1 (en) 2019-09-12
WO2017175666A1 (ja) 2017-10-12
JP2017187919A (ja) 2017-10-12
US10788904B2 (en) 2020-09-29

Similar Documents

Publication Publication Date Title
CN110045825B (zh) 用于车辆交互控制的手势识别系统
JP4351599B2 (ja) 入力装置
US9604542B2 (en) I/O device for a vehicle and method for interacting with an I/O device
KR101503108B1 (ko) 사용자가 디스플레이 객체의 표시에 영향을 미칠 수 있는 자동차의 디스플레이 및 조작 시스템과 그 디스플레이 및 조작 시스템을 작동하는 방법
JP5617783B2 (ja) 車両用の操作入力装置及び制御システム
JP5644962B2 (ja) 操作装置
JP2010224684A (ja) 操作入力装置、制御方法、およびプログラム
US11119576B2 (en) User interface and method for contactlessly operating a hardware operating element in a 3-D gesture mode
CN108108042B (zh) 车辆用显示装置及其控制方法
US10139988B2 (en) Method and device for displaying information arranged in lists
US10953749B2 (en) Vehicular display device
JP6341343B2 (ja) 情報処理システム、情報処理装置、制御方法、及びプログラム
US20200310548A1 (en) Method for operating a display device for a motor vehicle and motor vehicle
JP2018195134A (ja) 車載用情報処理システム
JP2018136616A (ja) 表示操作システム
JP2017197015A (ja) 車載用情報処理システム
WO2017188098A1 (ja) 車載用情報処理システム
JP2018010472A (ja) 車内電子機器操作装置及び車内電子機器操作方法
JP6739864B2 (ja) 車載用情報処理システム
US20130328802A1 (en) Method for operating functions of a vehicle and corresponding device
JP2017187922A (ja) 車載用情報処理システム
TWM564749U (zh) 車輛多螢幕控制系統
JP7529380B2 (ja) 車両用操作制御装置
JP2017199203A (ja) 車載用情報処理システム
US20230249552A1 (en) Control apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200721

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200721

R150 Certificate of patent or registration of utility model

Ref document number: 6739864

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S343 Written request for registration of root pledge or change of root pledge

Free format text: JAPANESE INTERMEDIATE CODE: R316354

SZ02 Written request for trust registration

Free format text: JAPANESE INTERMEDIATE CODE: R316Z02

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S803 Written request for registration of cancellation of provisional registration

Free format text: JAPANESE INTERMEDIATE CODE: R316803

SZ02 Written request for trust registration

Free format text: JAPANESE INTERMEDIATE CODE: R316Z02

SZ03 Written request for cancellation of trust registration

Free format text: JAPANESE INTERMEDIATE CODE: R316Z03

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350