JP2017149225A - 車両用コントロールユニット - Google Patents

車両用コントロールユニット Download PDF

Info

Publication number
JP2017149225A
JP2017149225A JP2016032324A JP2016032324A JP2017149225A JP 2017149225 A JP2017149225 A JP 2017149225A JP 2016032324 A JP2016032324 A JP 2016032324A JP 2016032324 A JP2016032324 A JP 2016032324A JP 2017149225 A JP2017149225 A JP 2017149225A
Authority
JP
Japan
Prior art keywords
controller
application
touch sensor
vehicle
menu screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016032324A
Other languages
English (en)
Inventor
成人 服部
Shigeto Hattori
成人 服部
和弘 村上
Kazuhiro Murakami
和弘 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2016032324A priority Critical patent/JP2017149225A/ja
Priority to EP17756187.5A priority patent/EP3421300A4/en
Priority to US16/078,640 priority patent/US11221735B2/en
Priority to PCT/JP2017/004444 priority patent/WO2017145746A1/ja
Publication of JP2017149225A publication Critical patent/JP2017149225A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

【課題】視線を前方としたままで車両内の機器を操作することができる車両用コントロールユニットを提供する。【解決手段】車両内の機器を操作するアプリケーションを起動するオブジェクトを含むメニュー画面を表示する表示部20と、タッチセンサ11から取得する制御情報に応じて、オブジェクトに対応するアプリケーションを起動するコントローラ10とを備え、コントローラ10は、押圧に基づくデータに関する第1段階及び第2段階の閾値を設定し、押圧に基づくデータが第2段階の閾値に達した場合、メニュー画面を切り替える車両用コントロールユニット1。【選択図】図1

Description

本発明は、車両用コントロールユニットに関する。
車両には、運転者が車両に搭載された機器(以下、車両搭載機器ともいう)を操作する操作部が設けられる(例えば、特許文献1参照)。操作部は、センターコンソール又はその近辺に設けられる。運転者は、車両搭載機器を操作するために、センターコンソール近辺に設けられた操作部を見て、操作内容を確認する。
特開2002−12091号公報
しかし、運転者が車両の運転中に車両搭載機器を操作する場合、運転中にもかかわらず、視線が前方から外れてセンターコンソール近辺に移動してしまうことがある。
そこで本発明は、上述の点に鑑みてなされた車両搭載機器を操作することができる車両用コントロールユニットを提供することを目的とする。
上記目的を達成する本発明の一実施形態に係る車両用コントロールユニットは、
タッチセンサと、
前記タッチセンサへの押圧を検出する押圧検出部と、
車両に搭載された機器を操作するアプリケーションを起動するオブジェクトを含むメニュー画面を表示する表示部と、
前記タッチセンサから取得する制御情報と、前記押圧検出部から取得する押圧に基づくデータとに応じて、前記オブジェクトに対応するアプリケーションを起動するコントローラと
を備え、
前記コントローラは、
前記押圧に基づくデータに関する第1段階閾値と、前記第1段階閾値より大きい第2段階閾値とを設定し、
前記押圧に基づくデータが前記第2段階閾値に達した場合、前記メニュー画面を切り替える。
上記目的を達成する本発明の一実施形態に係る車両用コントロールユニットは、
タッチセンサと、
車両に搭載された機器を操作するアプリケーションを起動するオブジェクトを含むメニュー画面を表示する表示部と、
前記タッチセンサから取得する制御情報に応じて、前記オブジェクトに対応するアプリケーションを起動するコントローラと
を備え、
前記コントローラは、前記制御情報が所定のジェスチャーを含むスライド入力である場合、前記メニュー画面を切り替える。
また好ましくは、前記コントローラは、少なくとも2点のタッチが検出される場合に前記メニュー画面を切り替える。
上記目的を達成する本発明の一実施形態に係る車両用コントロールユニットは、
タッチセンサと、
前記タッチセンサへの押圧を検出する押圧検出部と、
車両に搭載された機器を操作するアプリケーションを起動するオブジェクトを含むメニュー画面又は起動されたアプリケーションの操作画面を表示する表示部と、
前記タッチセンサから取得する制御情報と、前記押圧検出部から取得する押圧に基づくデータとに応じて、前記オブジェクトに対応するアプリケーションを起動するコントローラと
を備え、
前記コントローラは、
前記押圧に基づくデータに関する第1段階閾値と、前記第1段階閾値より大きい第2段階閾値とを設定し、
前記押圧に基づくデータが前記第2段階閾値に達した場合、前記起動されたアプリケーションから他のアプリケーションへ切り替える。
上記目的を達成する本発明の一実施形態に係る車両用コントロールユニットは、
タッチセンサと、
車両に搭載された機器を操作するアプリケーションを起動するオブジェクトを含むメニュー画面又は起動されたアプリケーションの操作画面を表示する表示部と、
タッチセンサから取得する制御情報に応じて、前記オブジェクトに対応するアプリケーションを起動するコントローラと
を備え、
前記コントローラは、前記制御情報が所定のジェスチャーを含むスライド入力である場合、前記起動されたアプリケーションから他のアプリケーションへ切り替える。
また好ましくは、前記コントローラは、少なくとも2点のタッチが検出される場合に前記起動されたアプリケーションから他のアプリケーションへ切り替える。
本発明の一実施形態に係る車両用コントロールユニットによれば、安全に運転することができる。
一実施形態に係る車両用コントロールユニットの概略構成例を示す機能ブロック図である。 センターコンソールにおける車両搭載機器及びタッチセンサの配置例である。 第1メニュー画面の一例である。 第2メニュー画面の一例である。 アプリケーションの操作画面の一例である。 アプリケーションの操作画面の一例である。 押圧入力を検出する制御方法の一例を示すフローチャートである。 ジェスチャー入力を検出する制御方法の一例を示すフローチャートである。
(実施形態)
以下、一実施形態について、図面を参照しながら詳細に説明する。本実施形態に係る車両用コントロールユニットは、車載機器とすることができる。
[ユニット構成]
図1は、一実施形態に係る車両用コントロールユニット1の概略構成例を示す機能ブロック図である。図1に示されるように、車両用コントロールユニット1は、コントローラ10と、タッチセンサ11と、触感呈示部12と、押圧検出部13と、表示部20とを備える。
コントローラ10は、タッチセンサ11、触感呈示部12、押圧検出部13、及び表示部20とそれぞれ接続される。コントローラ10は、接続される各部に信号又は信号に対応づけられる情報(以下、制御情報ともいう)を送信し、又は、接続される各部から制御情報を取得する。図1において、コントローラ10と各部とを接続する矢印は、制御情報が出力される主な方向を示している。例えば、コントローラ10とタッチセンサ11との間は、タッチセンサ11からコントローラ10に向かう矢印で接続されており、主にタッチセンサ11からコントローラ10に向けて、制御情報が出力されることが示されている。
コントローラ10は、記憶部14を備える。記憶部14は、半導体メモリ等で構成することができる。記憶部14には、各種情報、又は車両用コントロールユニット1を動作させるためのプログラム等が格納される。また記憶部14は、ワークメモリとしても機能する。
コントローラ10は、制御情報を記憶部14に格納する。また、コントローラ10は、制御情報を記憶部14から取得する。また、コントローラ10は、制御情報に応じて、接続される各部を制御する。コントローラ10が実行する制御動作については後述する。
コントローラ10は、車両に搭載された機器(以下、車両搭載機器80ともいう)に接続される。コントローラ10は、タッチセンサ11への入力に応じて、車両搭載機器80を操作するための制御情報(以下、機器操作情報ともいう)を出力する。またコントローラ10は、車両搭載機器80の状態を示す制御情報を取得する。
またコントローラ10は、車両搭載機器80を操作するために、車両搭載機器80を操作するアプリケーション(以下、単にアプリケーションともいう)を実行する。コントローラ10は、アプリケーションに対するユーザの入力に応じて、機器操作情報を生成する。そしてコントローラ10は、機器操作情報を車両搭載機器80に出力する。車両搭載機器80は、コントローラ10から取得した機器操作情報に基づいて動作する。アプリケーションにより操作される車両搭載機器80は、種々のものが考えられる。車両搭載機器80は、例えば、カーナビゲーションシステム、エアコンディショナ、オーディオ、テレビ、又は通信機器等を含みうる。アプリケーションについては後述する。
タッチセンサ11は、タッチセンサ11に対する指又はスタイラスなどの物体のタッチを検出する。以下、タッチセンサ11に対して指でタッチするものとして説明するが、スタイラスなどの他の物体でタッチしても同様である。タッチセンサ11がタッチを検出する方式としては、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、又は荷重検出方式等の任意の方式が用いられうる。
タッチセンサ11は、指のタッチを検出した場合、タッチされた位置の座標を取得し、制御情報としてコントローラ10に出力する。ユーザは、タッチセンサ11に指をタッチすることにより、タッチ位置に対応する入力をすることができる。またユーザは、タッチセンサ11に指をタッチしたままスライドすることにより、スライドの経路に対応する文字又は図形等のパターンを入力することができる。
触感呈示部12は、コントローラ10から取得した駆動信号に応じた、種々のパターンの振動を発生することによって、タッチセンサ11にタッチするユーザの指に触感を呈示する。つまり、コントローラ10は、触感呈示部12に対して制御情報として駆動信号を出力することにより、触感呈示部12の駆動を開始する。
触感呈示部12は、圧電素子、超音波振動子、又は振動モータ(偏心モータ)等を用いて構成される。触感呈示部12は、例えば、クリック感、材質感等に対応する振動パターンによる振動を発生させ、タッチセンサ11にタッチしたユーザの指に対して、クリック感、材質感等の触感を呈示する。
押圧検出部13は、ユーザが指又はスタイラス等でタッチセンサ11にタッチして、さらにタッチセンサ11を押し込むことにより生じる圧力(押圧)を検出し、押圧に基づくデータを制御情報としてコントローラ10に出力する。
押圧検出部13は、例えば、押圧に応じて物理的又は電気的特性(歪み、抵抗、電圧等)が変化する歪みゲージセンサや圧電素子等を用いて構成される。押圧検出部13が、例えば圧電素子を用いて構成された場合、押圧検出部13の圧電素子は、タッチセンサ11に対する押圧による荷重の大きさに応じて、電気的特性である電圧値(押圧に基づくデータ)が変化する。押圧に基づくデータは、電圧値に限られず、押圧による荷重の大きさ、抵抗値等でもよい。
また、押圧検出部13は、タッチセンサ11の検出方式に応じて構成することができる。例えば、タッチセンサ11の検出方式が抵抗膜方式の場合には、接触面積の大きさに応じた抵抗の大きさを、タッチセンサ11に対する押圧の荷重に対応づけることができる。あるいは、タッチセンサ11が静電容量方式の場合には、静電容量の大きさをタッチセンサ11に対する押圧の荷重に対応づけることができる。このようにすることで、歪みゲージセンサ又は圧電素子等を用いることなく押圧検出部13を構成することができる。
コントローラ10は、押圧検出部13から取得した押圧に基づくデータが所定の閾値以上である場合(押圧が所定の圧力以上である場合)に、タッチされている位置にある操作オブジェクトに対する入力を確定させる。以下、押圧に基づくデータが所定の閾値以上となって確定した入力(押圧が所定の圧力以上となって確定した入力)を押圧入力ともいう。
コントローラ10は、押圧の大きさに対して多段階の閾値を設定してもよい。例えばコントローラ10は、第1段階閾値と第2段階閾値とを設定してもよい。この場合コントローラ10は、押圧検出部13から取得した押圧に基づくデータが第1段階閾値に達したか第2段階閾値に達したかを判定する。そしてコントローラ10は、判定結果に応じて異なる制御を実行する。ここで第2段階閾値は、第1段階閾値よりも大きい。以下、押圧に基づくデータが第1段階閾値及び第2段階閾値に達した場合の入力をそれぞれ、第1段押圧入力及び第2段押圧入力ともいう。以上、2段階の閾値の設定を例示して説明してきたが、3段階以上の閾値が設定されてもよい。
触感呈示部12と押圧検出部13とは、一体化して構成されてもよい。特に、圧電素子を用いて触感呈示部12及び押圧検出部13を構成する場合、圧電素子を共用することもできる。圧電素子は、圧力が加わると電圧を発生し、電圧が加わると変形するためである。
表示部20は、コントローラ10から取得した制御情報に基づき、ユーザが視認できる文字又は画像等を表示させる。表示部20は、例えばヘッドアップディスプレイ(以下、HUDともいう)である。HUDは、車両のフロントウィンドシールド82(図2参照)に画像を投射し、投射された画像の反射光を虚像としてユーザに視認させるものである。
表示部20は、液晶ディスプレイ(LCD)、又は、有機若しくは無機ELディスプレイ等であってもよい。この場合表示部20は、ユーザが車両の運転中に車両前方から視線をできるだけ外さなくて済むように、車両のセンターコンソールの上部に設けられることが好ましい。なお、表示部20は、上述の構成に限られるものではない。
図2は、本実施形態に係る車両用コントロールユニット1の車両搭載機器80とタッチセンサ11を車両のセンターコンソールに配置した例を示す図である。タッチセンサ11は、車両搭載機器80とシフトレバー81との間に配置されている。また図2において表示部20としてHUDが配置される。表示部20は、フロントウィンドシールド82の下部中央に表示面20aが形成されるように、ダッシュボード上に配置される。表示面20aは、表示部20から投射された画像の虚像として運転者に視認される。
本実施形態において、タッチセンサ11から車両の進行方向の延長線上に表示面20aが形成されている。このようにすることで、車両前方への視線を外さないように表示面20aを視認しつつ、タッチセンサ11にブラインドタッチする際、タッチセンサ11を操作しやすくなる。
[アプリケーション]
本実施形態に係る車両用コントロールユニット1のコントローラ10は、車両搭載機器80を操作するアプリケーションを実行する。車両搭載機器80はそれぞれ、自身を操作するアプリケーションに対応づけられる。例えばユーザが車両搭載機器80としてエアコンディショナを操作する場合、コントローラ10はエアコンディショナに対応するアプリケーションを起動する。
<アプリケーションの起動>
車両用コントロールユニット1は、ユーザが操作する車両搭載機器80に対応するアプリケーションを選択して起動するためのメニューを備える。メニューは、例えば、カーナビゲーションシステムの操作又はエアコンディショナの操作等のアプリケーションを起動するオブジェクトを含む。ユーザが押圧入力をしてオブジェクトを選択した場合、コントローラ10は、当該オブジェクトに対応するアプリケーションを起動する。
オブジェクトは、ユーザが押圧入力をすることにより選択可能なように、タッチセンサ11の所定の位置に対応づけられる。つまり、タッチセンサ11の所定の位置における押圧入力があった場合、所定の位置に対応づけられるオブジェクトが選択される。オブジェクトとタッチセンサ11との対応関係は、コントローラ10により設定される。
コントローラ10は、オブジェクトとタッチセンサ11との対応関係を表示部20により表示面20aに表示させる。表示部20は、表示面20aの形状がタッチセンサ11の形状と同じになるように表示する。本実施形態においては、タッチセンサ11を矩形とし、表示面20aの形状も矩形とする。タッチセンサ11及び表示面20aの形状は矩形に限られず、他の形状であってもよい。また、オブジェクトがタッチセンサ11の左上に対応づけられる場合、表示部20は、当該オブジェクトを表示面20aの左上に表示する。つまり表示部20は、アプリケーションに対応づけられるオブジェクトがタッチセンサ11上の位置に対応するように配列されるメニュー画面を表示面20aに表示する。これにより、ユーザはオブジェクトとタッチセンサ11との対応関係を知ることができる。
本実施形態に係るメニュー画面において、タッチセンサ11に同時に対応づけられるオブジェクトの数、つまり表示面20aに同時に表示されるオブジェクトの数を4つとする。そして各オブジェクトは、タッチセンサ11の4つの隅部の付近に設けられる所定の位置に対応づけられる。なお、タッチセンサ11に同時に対応づけられるオブジェクトの数は4つに限られるものではない。
図3は、表示部20により表示面20aに表示されるメニュー画面の例である。図3においては、表示部20は、4つのオブジェクト(1)〜(4)を表示面20aに表示している。この場合、オブジェクト(1)は、タッチセンサ11の左上の領域に対応づけられる。オブジェクト(2)〜(4)についても同様に、タッチセンサ11の右上、左下及び右下の領域にそれぞれ対応づけられる。図3においては、表示面20aの中央にはオブジェクトが表示されていない。しかし、例えば中央の楕円領域に、タッチセンサ11の中央の領域に対応づけられるオブジェクトが表示されてもよい。
コントローラ10は、タッチセンサ11及び押圧検出部13から取得した制御情報に基づきオブジェクトに対応づけられた位置へ押圧入力がされたか、つまりオブジェクトが選択されたか判定する。オブジェクトが選択された場合、コントローラ10は、当該オブジェクトに対応するアプリケーションを起動する。例えば、オブジェクト(1)にカーナビゲーションシステムの操作のアプリケーションが対応づけられている場合、コントローラ10は、オブジェクト(1)が選択されたことに応じてカーナビゲーションシステムの操作のアプリケーションを起動する。
<メニュー画面切り替え>
車両用コントロールユニット1が5台以上の車両搭載機器80を操作できる場合、図3に示される例において、表示されるオブジェクトは、1〜4台目の車両搭載機器80に対応するアプリケーションを起動するオブジェクトに限られる。つまり図3に示される例においては、表示部20は、5台目の車両搭載機器80に対応するアプリケーションを起動するオブジェクトを表示面20aに表示できない。そこでコントローラ10は、5台目以降の車両搭載機器80に対応するアプリケーションを起動するオブジェクトを表示するためにメニュー画面を切り替える。以下、図3に例示されたメニュー画面を第1のメニュー画面ともいう。また、第1のメニュー画面から切り替えたメニュー画面を第2のメニュー画面ともいう。
図4は、表示部20により表示面20aに表示される第2のメニュー画面の例である。表示部20は、4つのオブジェクト(5)〜(8)を表示面20aに表示している。この場合、オブジェクト(5)は、タッチセンサ11の左上の領域に対応づけられる。オブジェクト(6)〜(8)についても同様に、タッチセンサ11の右上、左下及び右下の領域にそれぞれ対応づけられる。表示面20aの中央については、図3と同様であるため説明を省略する。
コントローラ10は、タッチセンサ11への入力に応じてメニュー画面を切り替える。例えばコントローラ10は、メニュー画面にメニュー切り替えを実行するオブジェクトを設け、当該オブジェクトへの押圧入力に応じてメニュー画面を切り替える。
またコントローラ10は、表示面20aにメニュー画面が表示されている状態において、第2段押圧入力があった場合にメニュー画面を切り替える。この場合、オブジェクトを選択するための入力が第1段押圧入力であると設定されることが好ましい。このようにすれば、タッチセンサ11のどの位置で第2段押圧入力されても、オブジェクトが選択されることなくメニュー画面を切り替えることができる。
また、第2段押圧入力に応じてメニュー画面が切り替えられる場合において、少なくとも2点にタッチしながら第2段押圧入力をするという条件をさらに加えてもよい。例えば、2本の指で第2段押圧入力をすることで、2点にタッチしながら第2段押圧入力をすることができる。このようにすることで、ユーザが意図しないメニュー画面の切り替えが発生する可能性を減らせる。
またコントローラ10は、表示面20aにメニュー画面が表示されている状態において、タッチセンサ11に対して所定のジェスチャーを含むスライド入力(以下、ジェスチャー入力ともいう)があった場合にメニュー画面を切り替える。所定のジェスチャーは、例えば、単に一方向にスライドするスワイプ入力である。また所定のジェスチャーは、スライドの経路によって特定の文字、例えばZ、V、O、N等の文字を表すものであってもよい。また所定のジェスチャーは、スライドの経路によって特定の図形、例えば三角形、四角形、又は星型等の図形を表すものであってもよい。
また、ジェスチャー入力に応じてメニュー画面が切り替えられる場合において、少なくとも2点にタッチしながらジェスチャー入力をするという条件をさらに加えてもよい。例えば、2本の指でタッチしながらスライドすることで、2点にタッチしながらジェスチャー入力をすることができる。このようにすることで、ユーザが意図しないメニュー画面の切り替えが発生する可能性を減らせる。
以上、メニュー画面の切り替えについて説明してきた。このようにすることで、ユーザはタッチセンサ11を見ずに、つまり、車両前方から視線を外さずにメニュー画面を切り替えることができる。
<アプリケーション切り替え>
車両用コントロールユニット1がある1台の車両搭載機器80を操作するアプリケーションを起動している場合において、ユーザは他の車両搭載機器80の操作をしたくなることがある。この場合、アプリケーションを切り替えることにより、他の車両搭載機器80の操作が可能になる。アプリケーションを切り替える方法の一つとして、アプリケーションにメニュー画面に戻る操作のためのオブジェクトを設けてもよい。図5は、表示部20により表示面20aに表示されるアプリケーションの操作画面の一例である。図5において、例えばhomeと記載されているオブジェクトを選択することにより、メニュー画面に戻る。この場合ユーザは、当該オブジェクトを選択してメニュー画面に一旦戻り、メニュー画面において他の車両搭載機器80に対応するアプリケーションを起動するオブジェクトを選択する。
また、アプリケーションを切り替える他の方法として、アプリケーションの起動中に、他のアプリケーションに直接切り替えるようにしてもよい。この場合コントローラ10は、タッチセンサ11への入力に応じてアプリケーションを切り替える。このようにすることで、ユーザはメニュー画面に戻る必要がなく、アプリケーションをより速く切り替えることができる。
アプリケーションを切り替えるために、コントローラ10は、表示面20aにアプリケーションの操作画面が表示されている状態において、第2段押圧入力があった場合にアプリケーションを切り替える。この場合、アプリケーションの操作画面のオブジェクトを選択するための入力が第1段押圧入力であると設定されることが好ましい。このようにすれば、タッチセンサ11のどの位置で第2段押圧入力されても、オブジェクトが選択されることなくアプリケーションを切り替えることができる。
また、第2段押圧入力に応じてアプリケーションが切り替えられる場合において、少なくとも2点にタッチしながら第2段押圧入力をするという条件をさらに加えてもよい。例えば、2本の指で第2段押圧入力をすることで、2点にタッチしながら第2段押圧入力をすることができる。このようにすることで、意図しないアプリケーションの切り替えの可能性を減らせる。
図6は、表示部20により表示面20aに表示されるアプリケーションの操作画面の一例である。図6に示されるアプリケーションの操作画面は、エアコンディショナの風量設定(Air Flow)、エアコンディショナの温度設定(Temp)、及びエアコンディショナのオン/オフ(ON/OFF)の操作をするためのオブジェクトを含む。図6において、オブジェクトの有無にかかわらず、タッチセンサ11のどの位置で第2段押圧入力をしてもアプリケーションを切り替えることができる。例えば、図5に示されるアプリケーションと図6に示されるアプリケーションとの間で切り替えられてもよい。また、他のアプリケーションに順次切り替えられてもよい。
またコントローラ10は、表示面20aにアプリケーションの操作画面が表示されている状態において、タッチセンサ11に対して所定のジェスチャーを含むスライド入力があった場合にアプリケーションを切り替える。所定のジェスチャーに係る説明は、上述のメニュー画面切り替えに係る説明と同様であるので省略する。
また、ジェスチャー入力に応じてアプリケーションが切り替えられる場合において、少なくとも2点にタッチしながらジェスチャー入力をするという条件をさらに加えてもよい。例えば、2本の指でタッチしながらスライドすることで、2点にタッチしながらジェスチャー入力をすることができる。このようにすることで、意図しないアプリケーションの切り替えの可能性を減らせる。
以上、アプリケーションの切り替えについて説明してきた。このようにすることで、ユーザはタッチセンサ11を見ずに、つまり、車両前方から視線を外さずにアプリケーションを切り替えることができる。またユーザは、メニュー画面に戻ることなくアプリケーションを切り替えることができ、操作の快適性が向上する。
[フローチャート]
以上、車両搭載機器80を操作するアプリケーションについて説明してきた。ここで、コントローラ10の動作をフローチャートにより説明する。図7及び図8は、コントローラ10が実行する制御方法のフローチャートである。
<押圧入力>
図7を参照して押圧入力を検出する制御方法について説明する。まずコントローラ10は、押圧検出部13に圧力の検出を開始させる(ステップS11)。
続いてコントローラ10は、押圧検出部13から押圧に基づくデータを取得し、押圧に基づくデータが第1段階閾値以上であるか判定する(ステップS12)。
押圧に基づくデータが第1段階閾値以上でない場合(ステップS12:NO)、コントローラ10は、図8のステップS41に進む。
押圧に基づくデータが第1段階閾値以上である場合(ステップS12:YES)、コントローラ10は、押圧に基づくデータを記憶部14に格納する(ステップS13)。なおコントローラ10は、押圧に基づくデータが第1段階閾値以上であると判定した時点で、触感呈示部12により第1段押圧入力に対応するクリック感等の触感をユーザに呈示させることが好ましい。
続いてコントローラ10は、押圧検出部13から押圧に基づくデータを取得し、押圧に基づくデータが第2段階閾値以上であるか判定する(ステップS14)。
押圧に基づくデータが第2段階閾値以上である場合(ステップS14:YES)、コントローラ10は、押圧に基づくデータを記憶部14に格納する(ステップS15)。なおコントローラ10は、押圧に基づくデータが第2段階閾値以上であると判定した時点で、触感呈示部12により第2段押圧入力に対応するクリック感等の触感をユーザに呈示させることが好ましい。
押圧に基づくデータが第2段階閾値以上でない場合(ステップS14:NO)、コントローラ10は、押圧検出部13から押圧に基づくデータを取得し、押圧に基づくデータが第1段階閾値未満であるか判定する(ステップS16)。押圧に基づくデータが第1段階閾値未満でない場合(ステップS17:NO)、コントローラ10は、ステップS13に戻る。
押圧に基づくデータが第1段階閾値未満である場合(ステップS16:YES)、コントローラ10は、記憶部14に格納された押圧に基づくデータの最大値が第2段階閾値以上であるか判定する(ステップS17)。
押圧に基づくデータの最大値が第2段階閾値以上でない場合(ステップS17:NO)、コントローラ10は、第1段押圧入力があったことを確定する(ステップS18)。
続いてコントローラ10は、第1段押圧入力があった位置に対応づけられたオブジェクトを選択する(ステップS19)。表示面20aにメニュー画面が表示されている場合、コントローラ10は、当該オブジェクトに対応するアプリケーションを起動する。また、起動されているアプリケーションの操作画面が表示面20aに表示されている場合、コントローラ10は、当該オブジェクトに対応する機器操作情報を車両搭載機器80に出力する。その後、コントローラ10は、図7のフローチャートの処理を終了する。
押圧に基づくデータが第2段階閾値以上である場合(ステップS17:YES)、コントローラ10は、第2段押圧入力があったことを確定する(ステップS20)。
続いてコントローラ10は、表示面20aにメニュー画面が表示されている場合、メニュー画面を切り替える(ステップS21)。またコントローラ10は、起動されているアプリケーションの操作画面が表示面20aに表示されている場合、アプリケーションを切り替える。その後、コントローラ10は、図7のフローチャートの処理を終了する。
図7のフローチャートの処理において、第1段押圧入力及び第2段押圧入力は、押圧に基づくデータが第1段階閾値未満となった後に確定される。このようにすることで、3段目以上の多段入力に対応することができる。一方で、コントローラ10が3段目以上の押圧入力を受け付けない場合、コントローラ10は、押圧に基づくデータが第2段階閾値以上となった時点で第2段押圧入力を確定してもよい。このようにすることで操作性が向上する。
またコントローラ10は、押圧に基づくデータが第1段階閾値以上となった後、押圧に基づくデータが第1段階閾値以上第2段階閾値未満である状態が所定時間続いた時点で、第1段押圧入力を確定してもよい。
<ジェスチャー入力>
続いて図8を参照してジェスチャー入力を検出する制御方法を説明する。上述の通り、図7のステップS15において押圧に基づくデータが第1段階閾値以上でない場合(ステップS15:NO)、コントローラ10は図8のステップS41に進む。コントローラ10は、タッチセンサ11にタッチしている指がスライドしたか判定する(ステップS41)。指がスライドしていない場合(ステップS41:NO)、コントローラ10は、図7のステップS13に戻る。
指がスライドしている場合(ステップS41:YES)、コントローラ10は、スライド入力が所定のジェスチャーを含むか判定する(ステップS42)。スライド入力が所定のジェスチャーを含まない場合(ステップS42:NO)、コントローラ10は、図7のステップS13に戻る。
スライド入力が所定のジェスチャーを含む場合(ステップS42:YES)、コントローラ10は、ジェスチャー入力があったことを確定する(ステップS43)。この際コントローラ10は、触感呈示部12にジェスチャー入力に対応するクリック感等の触感を呈示させることが好ましい。
続いてコントローラ10は、表示面20aにメニュー画面が表示されている場合、メニュー画面を切り替える。またコントローラ10は、起動されているアプリケーションの操作画面が表示面20aに表示されている場合、アプリケーションを切り替える。その後、コントローラ10は、図8のフローチャートの処理を終了する。
以上、図7及び図8を参照してコントローラ10が実行する制御方法について説明してきた。このようにすることで、ユーザはタッチセンサ11を見ずに、つまり、車両前方から視線を外さずにアプリケーションを切り替えることができる。
図7及び図8のフローチャートでは、押圧入力とジェスチャー入力とを用いてメニュー画面及びアプリケーションの切り替えを実行している。しかし、押圧入力及びジェスチャー入力のいずれか一方だけが用いられるように構成されてもよい。
以上、本実施形態に係る車両用コントロールユニット1について説明してきた。本実施形態に係る車両用コントロールユニット1によれば、ユーザはタッチセンサ11を見ずに、つまり、車両前方から視線を外さずにアプリケーションを切り替えることができる。またユーザは、メニュー画面に戻ることなくアプリケーションを切り替えることができ、操作の快適性が向上する。
本発明を諸図面や実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本発明の範囲に含まれることに留意されたい。例えば、各構成部、各ステップなどに含まれる機能などは論理的に矛盾しないように再配置可能であり、複数の構成部やステップなどを1つに組み合わせたり、或いは分割したりすることが可能である。また、本発明について装置を中心に説明してきたが、本発明は装置の各構成部が実行するステップを含む方法としても実現し得るものである。また、本発明について装置を中心に説明してきたが、本発明は装置が備えるプロセッサにより実行される方法、プログラム、又はプログラムを記録した記憶媒体としても実現し得るものであり、本発明の範囲にはこれらも包含されるものと理解されたい。
1 車両用コントロールユニット
10 コントローラ
11 タッチセンサ
12 触感呈示部
13 押圧検出部
14 記憶部
20 表示部
20a 表示面
80 車両搭載機器
81 シフトレバー
82 フロントウィンドシールド

Claims (6)

  1. タッチセンサと、
    前記タッチセンサへの押圧を検出する押圧検出部と、
    車両に搭載された機器を操作するアプリケーションを起動するオブジェクトを含むメニュー画面を表示する表示部と、
    前記タッチセンサから取得する制御情報と、前記押圧検出部から取得する押圧に基づくデータとに応じて、前記オブジェクトに対応するアプリケーションを起動するコントローラと
    を備え、
    前記コントローラは、
    前記押圧に基づくデータに関する第1段階閾値と、前記第1段階閾値より大きい第2段階閾値とを設定し、
    前記押圧に基づくデータが前記第2段階閾値に達した場合、前記メニュー画面を切り替える車両用コントロールユニット。
  2. タッチセンサと、
    車両に搭載された機器を操作するアプリケーションを起動するオブジェクトを含むメニュー画面を表示する表示部と、
    前記タッチセンサから取得する制御情報に応じて、前記オブジェクトに対応するアプリケーションを起動するコントローラと
    を備え、
    前記コントローラは、前記制御情報が所定のジェスチャーを含むスライド入力である場合、前記メニュー画面を切り替える車両用コントロールユニット。
  3. 前記コントローラは、少なくとも2点のタッチが検出される場合に前記メニュー画面を切り替える、請求項1又は2に記載の車両用コントロールユニット。
  4. タッチセンサと、
    前記タッチセンサへの押圧を検出する押圧検出部と、
    車両に搭載された機器を操作するアプリケーションを起動するオブジェクトを含むメニュー画面又は起動されたアプリケーションの操作画面を表示する表示部と、
    前記タッチセンサから取得する制御情報と、前記押圧検出部から取得する押圧に基づくデータとに応じて、前記オブジェクトに対応するアプリケーションを起動するコントローラと
    を備え、
    前記コントローラは、
    前記押圧に基づくデータに関する第1段階閾値と、前記第1段階閾値より大きい第2段階閾値とを設定し、
    前記押圧に基づくデータが前記第2段階閾値に達した場合、前記起動されたアプリケーションから他のアプリケーションへ切り替える車両用コントロールユニット。
  5. タッチセンサと、
    車両に搭載された機器を操作するアプリケーションを起動するオブジェクトを含むメニュー画面又は起動されたアプリケーションの操作画面を表示する表示部と、
    タッチセンサから取得する制御情報に応じて、前記オブジェクトに対応するアプリケーションを起動するコントローラと
    を備え、
    前記コントローラは、前記制御情報が所定のジェスチャーを含むスライド入力である場合、前記起動されたアプリケーションから他のアプリケーションへ切り替える車両用コントロールユニット。
  6. 前記コントローラは、少なくとも2点のタッチが検出される場合に前記起動されたアプリケーションから他のアプリケーションへ切り替える、請求項4又は5に記載の車両用コントロールユニット。
JP2016032324A 2016-02-23 2016-02-23 車両用コントロールユニット Pending JP2017149225A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016032324A JP2017149225A (ja) 2016-02-23 2016-02-23 車両用コントロールユニット
EP17756187.5A EP3421300A4 (en) 2016-02-23 2017-02-07 VEHICLE CONTROL UNIT
US16/078,640 US11221735B2 (en) 2016-02-23 2017-02-07 Vehicular control unit
PCT/JP2017/004444 WO2017145746A1 (ja) 2016-02-23 2017-02-07 車両用コントロールユニット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016032324A JP2017149225A (ja) 2016-02-23 2016-02-23 車両用コントロールユニット

Publications (1)

Publication Number Publication Date
JP2017149225A true JP2017149225A (ja) 2017-08-31

Family

ID=59686121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016032324A Pending JP2017149225A (ja) 2016-02-23 2016-02-23 車両用コントロールユニット

Country Status (4)

Country Link
US (1) US11221735B2 (ja)
EP (1) EP3421300A4 (ja)
JP (1) JP2017149225A (ja)
WO (1) WO2017145746A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019197547A (ja) * 2018-05-09 2019-11-14 和碩聯合科技股▲ふん▼有限公司Pegatron Corporation コンピュータシステム及びそのインターフェース操作方法
JP2020189613A (ja) * 2019-05-24 2020-11-26 株式会社デンソー タッチパネルの制御装置及びコンピュータプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107037956A (zh) * 2016-11-01 2017-08-11 华为机器有限公司 一种终端及其切换应用的方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010090033A1 (ja) * 2009-02-06 2010-08-12 パナソニック株式会社 画像表示装置
WO2012114760A1 (ja) * 2011-02-23 2012-08-30 京セラ株式会社 タッチセンサを備えた電子機器
JP2013210963A (ja) * 2012-03-30 2013-10-10 Denso Corp 表示制御装置及びプログラム
JP2013218570A (ja) * 2012-04-10 2013-10-24 Denso Corp 表示システム、表示装置、及び操作装置
JP2014046867A (ja) * 2012-08-31 2014-03-17 Sony Corp 入力装置
JP2014110010A (ja) * 2012-12-04 2014-06-12 Denso Corp 入力装置
JP2015022766A (ja) * 2013-07-18 2015-02-02 本田技研工業株式会社 ユーザから車両への対話型操作のためのタッチパッド
WO2015083267A1 (ja) * 2013-12-05 2015-06-11 三菱電機株式会社 表示制御装置及び表示制御方法
JP2015114936A (ja) * 2013-12-13 2015-06-22 本田技研工業株式会社 アプリケーション制御のプログラム、方法、装置、及び記録媒体

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4675458B2 (ja) 2000-06-28 2011-04-20 京セラ株式会社 ハンズフリー装置
US9684521B2 (en) 2010-01-26 2017-06-20 Apple Inc. Systems having discrete and continuous gesture recognizers
JP5889519B2 (ja) * 2010-06-30 2016-03-22 京セラ株式会社 触感呈示装置および触感呈示装置の制御方法
CN106095418B (zh) 2010-12-20 2019-09-13 苹果公司 事件识别
US20130275924A1 (en) 2012-04-16 2013-10-17 Nuance Communications, Inc. Low-attention gestural user interface
DE112013002410T5 (de) * 2012-05-09 2015-01-22 Apple Inc. Variieren der Ausgabe für eine rechnende Vorrichtung basierend auf Tracking-Fenstern
CN109298789B (zh) 2012-05-09 2021-12-31 苹果公司 用于针对激活状态提供反馈的设备、方法和图形用户界面
US20140267066A1 (en) * 2013-03-14 2014-09-18 Nomovok Co. Ltd. Vehicle dashboard device with a touchable mobile remote control
US9658740B2 (en) * 2013-03-15 2017-05-23 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
EP3144780A1 (en) 2013-06-11 2017-03-22 Immersion Corporation Systems and methods for pressure-based haptic effects
CN105283356B (zh) * 2013-06-12 2017-12-12 本田技研工业株式会社 应用程序控制方法以及信息终端
WO2015017693A1 (en) 2013-07-31 2015-02-05 Smarthud, Inc. Vehicle use portable heads-up display
JP6273989B2 (ja) 2014-04-10 2018-02-07 株式会社デンソー 操作装置及び車両
US10289260B2 (en) * 2014-08-27 2019-05-14 Honda Motor Co., Ltd. Systems and techniques for application multi-tasking
US9645732B2 (en) * 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010090033A1 (ja) * 2009-02-06 2010-08-12 パナソニック株式会社 画像表示装置
WO2012114760A1 (ja) * 2011-02-23 2012-08-30 京セラ株式会社 タッチセンサを備えた電子機器
JP2013210963A (ja) * 2012-03-30 2013-10-10 Denso Corp 表示制御装置及びプログラム
JP2013218570A (ja) * 2012-04-10 2013-10-24 Denso Corp 表示システム、表示装置、及び操作装置
JP2014046867A (ja) * 2012-08-31 2014-03-17 Sony Corp 入力装置
JP2014110010A (ja) * 2012-12-04 2014-06-12 Denso Corp 入力装置
JP2015022766A (ja) * 2013-07-18 2015-02-02 本田技研工業株式会社 ユーザから車両への対話型操作のためのタッチパッド
WO2015083267A1 (ja) * 2013-12-05 2015-06-11 三菱電機株式会社 表示制御装置及び表示制御方法
JP2015114936A (ja) * 2013-12-13 2015-06-22 本田技研工業株式会社 アプリケーション制御のプログラム、方法、装置、及び記録媒体

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019197547A (ja) * 2018-05-09 2019-11-14 和碩聯合科技股▲ふん▼有限公司Pegatron Corporation コンピュータシステム及びそのインターフェース操作方法
JP2020189613A (ja) * 2019-05-24 2020-11-26 株式会社デンソー タッチパネルの制御装置及びコンピュータプログラム
JP7310301B2 (ja) 2019-05-24 2023-07-19 株式会社デンソー 制御システム及びコンピュータプログラム

Also Published As

Publication number Publication date
WO2017145746A1 (ja) 2017-08-31
EP3421300A1 (en) 2019-01-02
EP3421300A4 (en) 2019-12-18
US20190018556A1 (en) 2019-01-17
US11221735B2 (en) 2022-01-11

Similar Documents

Publication Publication Date Title
JP6613170B2 (ja) 車両用コントロールユニット及びその制御方法
JP2007310496A (ja) タッチ操作入力装置
JP6086350B2 (ja) タッチパネル式入力装置、およびタッチパネル式入力方法
WO2016051440A1 (ja) 車両及びステアリングユニット
KR20140097358A (ko) 조작 장치
US10558310B2 (en) Onboard operation apparatus
US20170220113A1 (en) Input device, display device, and method for controlling input device
JP7043166B2 (ja) 表示制御装置、表示制御システム及び表示制御方法
JP2015202698A (ja) 操作装置及び車両
WO2017145746A1 (ja) 車両用コントロールユニット
CN109564469B (zh) 显示操作装置
US11144193B2 (en) Input device and input method
JP5946806B2 (ja) タッチスイッチモジュール
JP2018195134A (ja) 車載用情報処理システム
JP2017030746A (ja) 車両及びステアリングユニット
WO2014171096A1 (ja) 車載機器の制御装置、車載機器
JP2014172413A (ja) 操作支援システム、操作支援方法及びコンピュータプログラム
JP2014100998A (ja) 操作支援システム、操作支援方法及びコンピュータプログラム
JP2011107900A (ja) 入力表示装置
JP2014102657A (ja) 操作支援システム、操作支援方法及びコンピュータプログラム
JP6938426B2 (ja) 電子機器
JP7192413B2 (ja) 車両用操作装置
JP2017095066A (ja) 車両及び車両における制御方法
JP2022030157A (ja) 表示制御装置および表示制御方法
JP2022150236A (ja) 入力装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190410

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190926

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20190926

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20191007

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20191008

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20191101

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20191112

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200331

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20200602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200730

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20200901

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20201006

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20201006