JP2019211979A - 表示装置、表示制御方法およびプログラム - Google Patents

表示装置、表示制御方法およびプログラム Download PDF

Info

Publication number
JP2019211979A
JP2019211979A JP2018107127A JP2018107127A JP2019211979A JP 2019211979 A JP2019211979 A JP 2019211979A JP 2018107127 A JP2018107127 A JP 2018107127A JP 2018107127 A JP2018107127 A JP 2018107127A JP 2019211979 A JP2019211979 A JP 2019211979A
Authority
JP
Japan
Prior art keywords
display
screen
finger
screen data
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018107127A
Other languages
English (en)
Inventor
立也 秋丸
Tatsuya Akimaru
立也 秋丸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2018107127A priority Critical patent/JP2019211979A/ja
Priority to CN201910417131.2A priority patent/CN110554830A/zh
Priority to US16/418,172 priority patent/US20190369867A1/en
Publication of JP2019211979A publication Critical patent/JP2019211979A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1407General aspects irrespective of display type, e.g. determination of decimal point position, display with fixed or driving decimal point, suppression of non-significant zeros
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1438Touch screens
    • B60K2360/1442Emulation of input devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • B60K2360/1468Touch gesture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】画面間の遷移において簡易な設定操作を可能とする表示装置を提供する。【解決手段】選択可能な複数の項目を有する画面データを表示部に表示する表示装置において、表示部の表示面へのタッチ操作により、画面データを当該画面データに含まれる項目の選択に応じて遷移させる。そのタッチ操作の過程において、項目に対向する表示面上の空間内の位置に応じて画面データを遷移させる。【選択図】図4

Description

本発明は、タッチパネルを有する表示装置、表示制御方法およびプログラムに関する。
車両に搭載される表示装置は、ナビゲーション画面や設定画面など様々なユーザインタフェース画面を提供するようになってきており、車両の搭乗者にとっての操作性の向上がますます求められている。そのような要求に応じて、車両の搭乗者が直感的に操作し易いように表示画面が構成されたものが多くなってきている。
特許文献1には、幅のある直線をつないで四角形の額縁のような枠体とし、階層の数だけの枠体を画面上に配置し、枠体を手前から奥行き方向に並べて配置し、一点透視法を用いて、画面中央を消失点として表現することが記載されている。また、そのような構成において、メニュー項目を選択したとき、枠体を拡大してから枠体の個数を減らすことにより、一つ奥の枠体が手前に移動したように表示され、表示されている枠体の個数から、階層の深さを感覚的に認識することができると記載されている。
特許文献2には、タッチパッド面と表示面とが垂直にあるような関係の構成において、複数のアイコン添付面21a、21b、21cが手前から奥行き方向に配置される仮想立体空間を表示することが記載されている。また、そのような構成において、ユーザは、タッチパッドを2本以上の指で前後方向に移動指示することにより、全てのアイコン添付面21a、21b、21cを前後に移動させることができると記載されている。
特許文献3には、表示装置がインストルメントパネル上部且つセンターコンソールの前方位置に設置され、検出部が表示装置と運転席の乗員との間の空間の側方に配置されていることが記載されている。また、そのような構成において、表示装置と運転席との間の空間中に運転手が手の指を伸ばし、表示装置に向けて指を動かしたことを検出するので、表示装置から離れた位置からでも表示装置に対して直感的な入力操作を行うことができると記載されている。また、運転手は表示装置に向けて伸ばした指先を上下に動かす空中操作により、円弧を描いて上下に並ぶ複数のアイコン画像のうちの一つを選択するが、指先を左に動かして検出部に接近させることで、選択入力を確定させることが記載されている。
特開2004−70829号公報 特開2012−51398号公報 特開2016−9300号公報
設定画面などは、複数階層のメニュー画面で構成されている場合が多く、あるメニュー画面での項目の選択指示に応じて次のメニュー画面が表示される。そのような設定画面を表示する表示装置が車両など、操作者が運転等、操作以外の動作を行う必要がある場合には、複数階層間でのメニュー画面の遷移も簡易的な操作で行われることが望ましい。しかしながら、特許文献1〜3のいずれも、画面間の遷移において、項目の選択指示を含めて簡易な設定操作を可能とする構成については記載されていない。
上記の点に鑑み、本発明は、画面間の遷移において簡易な設定操作を可能とする表示装置、表示制御方法およびプログラムを提供することを目的とする。
本発明に係る表示装置は、選択可能な複数の項目を有する画面データを表示する表示手段と、前記表示手段の表示面へのタッチ操作により、前記画面データを当該画面データに含まれる項目の選択に応じて遷移させる表示制御手段と、を備え、前記表示制御手段は、前記タッチ操作の過程において、項目に対向する前記表示面上の空間内の位置に応じて前記画面データを遷移させることを特徴とする。
また、本発明に係る表示制御方法は、表示装置において実行される表示制御方法であって、選択可能な複数の項目を有する画面データを表示手段に表示する表示工程と、前記表示手段の表示面へのタッチ操作により、前記画面データを当該画面データに含まれる項目の選択に応じて遷移させる表示制御工程と、を有し、前記表示制御工程では、前記タッチ操作の過程において、項目に対向する前記表示面上の空間内の位置に応じて前記画面データを遷移させることを特徴とする。
本発明によれば、画面間の遷移において簡易な設定操作を可能とする。
表示装置が車両内に搭載されている様子を示す図である。 表示装置の内部構成を示す図である。 一発タッチ設定モードに移行する処理を示すフローチャートである。 指の近接に伴う画面遷移の処理を示すフローチャートである。 指の軌跡情報の取得処理を示すフローチャートである。 領域に関する判定処理を示すフローチャートである。 画面の決定処理を示すフローチャートである。 一発タッチ設定モードを説明するための図である。 一発タッチ設定モードを説明するための図である。 一発タッチ設定モードを説明するための図である。 画面データの生成処理を示すフローチャートである。 選択項目の配置が最適化された画面を示す図である。 選択項目の配置の最適化を説明するための図である。 領域調整処理を示すフローチャートである。
以下、本発明の実施形態について図を参照しながら説明する。なお、同一の構成要素には同一の参照番号を付して、その説明を省略する。
図1は、本実施形態における表示装置が車両内に搭載されている様子を示す図である。図1に示すように、表示装置110は、車両100の車室内のインストルメントパネルのおよそ中央部に設けられている。しかしながら、表示装置110の設置箇所は、図1に示す箇所に限られるものではなく、例えば、助手席に対向する位置や、後部座席に対向する位置に設けられるようにしても良い。
図2は、表示装置110の内部構成を示す図である。図2に示すように、表示装置110は、制御部200、記憶部210、スピーカ220、マイク221、タッチパネル222、操作受付部223を含んで構成される。制御部200は、表示装置110全体を統括的に制御し、他のECU(Engine Control Unit)230とも相互に通信可能である。
制御部200内は、バス構成で各ブロックが接続されており、CPU201がバスに接続された各ブロックを制御する。ROM202には、制御部200を動作させるための基本的な制御プログラムやパラメータが格納されており、CPU201がそれらをRAM203にロードして実行することにより、本実施形態で説明するような表示装置110の動作が実現される。また、表示装置110は、プログラムに係る本発明を実施するコンピュータとなり得る。ROM202は、軌跡取得部204がタッチパネル222から取得した軌跡情報を記憶する。
軌跡取得部204は、タッチパネル222から、タッチパネル222上で搭乗者の指が辿った軌跡情報を取得する。画面データ生成部205は、後述する操作履歴情報212に基づいて、タッチパネル222に表示する画面データを生成する。領域調整部206は、ECU230から取得したユーザ属性情報に基づいて、タッチパネル222上での指を検出するための検出領域を調整する。ユーザ属性情報については後述する。
記憶部210は、ハードディスク等で構成され、画面データ211、操作履歴情報212、領域調整基準情報213を記憶する。画面データ211は、例えば、車両100の車室内に構成されている各デバイス240の設定画面であり、複数階層の画面データを有する。操作履歴情報212は、表示装置110のユーザがタッチパネル222上でどの設定項目を選択したかという操作に関する履歴情報である。本実施形態では、ユーザとは、車両100の車室内の搭乗者をいう。領域調整基準情報213は、領域調整部206が、タッチパネル222上での指を検出するための検出領域を調整するための基準情報を記憶する。
スピーカ220は、例えば、タッチパネル222に表示される設定画面やナビゲーション画面のためのガイダンスを音声出力する。マイク221は、ユーザからの音声を入力する。入力された音声データは、例えば搭乗者の認証に用いられても良い。タッチパネル222は、近接した導電性を有する物体、例えば指との間の静電容量の変化を検出可能であり、その変化の検出によって指の位置を特定可能な静電容量方式タッチパネルである。タッチパネル222は、表面型静電容量方式であっても良いし、投影型静電容量方式であっても良い。操作受付部223は、電源スイッチやLED、ハードウェアキー等により、ユーザからの操作を受付可能である。
ECU230は、車両100の運転制御を実現するための制御装置に搭載されるユニットである。ここでの運転制御とは、車両システムが運転主体となる制御と、ドライバが運転主体となる制御とを含む。ECU230は、車両100の車室内に構成されたカメラ231で撮像された搭乗者の画像データを取得し、ユーザを識別する。ECU230は、カメラ231だけでなく、シート上に設けられた圧力センサ等のセンサ232からの検知情報を用いてユーザを識別するようにしても良い。
ECU230は、I/F233を用いて、無線通信ネットワーク(不図示)を介して外部のサーバ250と相互に通信可能である。サーバ250は、CPU251、ROM252、RAM253、記憶部254を含む。CPU251は、ROM252に記憶されたプログラムをRAM253にロードして実行することにより、サーバ251を統括的に制御する。記憶部254は、車両100の搭乗者を識別するための情報を記憶し、CPU251は、例えば、車両100から送信された画像データやセンサの検知情報に基づいて、搭乗者を識別可能である。
表示装置110は、デバイス240と相互に通信可能に接続されている。ここで、デバイス240は、車両100の車室内に構成された空調機241、照明242、オーディオ機器243、ラジオ244を含む。表示装置110は、タッチパネル222に表示された設定画面上で設定された設定情報、例えばオーディオ機器243のボリューム情報をデバイス240の各デバイスに送信する。各デバイスは、送信された設定情報に基づいて、自機の動作を制御する。
図3は、一発タッチ設定モードへ移行する処理を示すフローチャートである。表示装置110の電源が投入されると、図3の処理が開始する。S101において、CPU201は、各部の初期化により表示装置110を起動する。S102において、CPU201は、タッチパネル222上にメイン画面を表示する。S103において、CPU201は、本実施形態で説明する一発タッチ設定モードの指定を受け付けたか否かを判定する。
ここで、図8、図9、図10を参照しながら、一発タッチ設定モードについて説明する。図8は、タッチパネル222の表面に対して、ユーザの指804が近接する様子を示す図である。一般的に、静電容量方式のタッチパネルであれば、指が画面に接触する前であっても、その指のタッチパネル上での位置を特定することが可能である。つまり、図8に示すように、指804がタッチパネル222の表示面上に接触していなくても、タッチ操作の過程において指804が領域801、802、803のいずれに存在するときであっても、その指804のXY平面上での位置を特定可能である。そのような特徴に基づき、本実施形態では、指804が矢印に示すようにタッチパネル222に近接していくにつれ、タッチパネル222上に表示される画面が遷移していく。
本実施形態では、図8に示すように、指804を検出する領域として領域801、802、803が定められている。領域801、802、803のX方向及びY方向は、タッチパネル222の縦横の長さに対応する。一方、領域801、802、803のZ方向の各距離は、所定の静電容量の範囲に対応する。
図9は、タッチパネル222上に表示される設定画面の遷移の一例を示す図である。例えば、画面900には、機能を選択するための選択項目901、902、903、904が示されている。選択項目901が選択されれば、電話機能に関する設定画面に遷移し、選択項目902が選択されれば、車内温度調整機能に関する設定画面に遷移する。また、選択項目903が選択されれば、ナビゲーション機能に関する設定画面に遷移し、選択項目904が選択されれば、オーディオ機能に関する設定画面に遷移する。
画面900は、選択項目904が選択された様子を示しており、その場合、画面910に遷移する。画面910には、デバイスを選択するための選択項目911、912、913が示されている。選択項目911が選択されれば、CDについての設定画面に遷移し、選択項目912が選択されれば、ラジオについての設定画面に遷移し、選択項目913が選択されれば、USBについての設定画面に遷移する。
画面910は、選択項目912が選択された様子を示しており、その場合、画面920に遷移する。画面920には、局を選択するための選択項目921、922、923が示されている。例えば、選択項目923が選択されると、ラジオ244に対して80.0MHzの局のラジオ放送を出力させる。
図10は、指804の近接に伴う画面遷移のイメージを表す図である。図10では、説明上、画面900、910、920は互いにずらして示しているが、本来は、いずれの画面もタッチパネル222上に表示されるものである。図10では、画面920の位置がタッチパネル222の表面の位置に相当し、指804が矢印のように空間内を通過して近接していく。
まず、指804が図8の領域801に達すると、タッチパネル222上に画面900が表示される。指804が領域801に存在する間、画面900が表示され続ける。
画面900において、ユーザが選択項目904を選択するとする。その際、ユーザは、XY平面上で選択項目904の位置に指804を移動させ、そのままタッチパネル222にさらに近接させる(Z方向の移動)。そして、図8に示すように、指804が領域802に達すると、タッチパネル222上に画面910が表示される。指804が領域802に存在する間、画面910が表示され続ける。
画面910において、ユーザが選択項目912を選択するとする。その際、ユーザは、XY平面上で選択項目912の位置に指804を移動させ、そのままタッチパネル222にさらに近接させる(Z方向の移動)。そして、図8に示すように、指804が領域803に達すると、タッチパネル222上に画面920が表示される。指804が領域803に存在する間、画面920が表示され続ける。画面920において、ユーザが選択項目923を選択するとする。その際、ユーザは、タッチパネル222上の選択項目923に指804を接触させる。
上記の一連の指804の移動の軌跡により、選択項目904、912、923が選択される。図10の矢印は、上記の一連の指804の軌跡を表している。このように、本実施形態によれば、各画面において選択確定のための特有の操作をする必要がないので、複数階層を有する設定画面において、より簡易な操作で設定を行わせることができる。以上のような一連の指804の動作により設定を行うモードを、本実施形態では「一発タッチ設定モード」という。
再び、図3を参照する。S102で表示されるメイン画面では、まだ一発タッチ設定モードではない。ここで、メイン画面上で、例えば、画面900に遷移する機能設定メニューなどがタッチパネル222上で選択された場合に、S103で一発タッチ設定モードの指定を受け付けたと判定する。その場合、S104において、CPU201は、タッチパネル222を一発タッチ設定モードで動作するように設定する。その後、図3の処理を終了する。一方、S103で一発タッチ設定モードの指定を受け付けていないと判定した場合には、そのまま図3の処理を終了する。
上記では、S103の判定は、一発タッチ設定モード用のメニューが選択されたか否かを例として説明したが、メイン画面内で「一発タッチ設定モードを実行」等のボタンを表示するようにし、それが選択されると、S103で一発タッチ設定モードの指定を受け付けたと判定するようにしても良い。
S102で表示されるメイン画面では、一発タッチ設定モードではないと説明した。これは、例えば、タッチパネル222表面と指804との間が接触状態となったときに、即ち、指804との間の静電容量が閾値より大きくなったときに指804のXY平面上の位置が特定可能となるように制限することで実現しても良い。そして、S104では、CPU201は、その制限を解除するようにしても良い。
図4は、指804の近接に伴う画面遷移の処理を示すフローチャートである。指804がタッチパネル222に近接し、図8の領域801に達したときに、図4の処理が開始する。S201において、CPU201は、タッチパネル222上に第1画面を表示する。ここで、第1画面とは、例えば、図9の画面900である。
S202において、CPU201は、指804が第1領域、即ち、領域801に存在するか否かを判定する。指804が領域801に存在すると判定された場合、S203に進み、CPU201は、XY平面上の指804の軌跡情報を取得し、ROM202に格納する。このときに、CPU201は、XY平面上の指804の位置に対応するように、画面900上にポインタを表示する。そのような構成により、ユーザは、指804がタッチパネル222から離れていても、タッチパネル222上のどの辺りを示しているのかを容易に認識することができる。
S203の後、S202の処理を繰り返す。一方、S202で指804が領域801に存在しないと判定された場合、S204に進む。S204において、CPU201は、指804が第2領域、即ち、領域802に存在するか否かを判定する。指804が領域802に存在しないと判定された場合、S205において、CPU201は、ROM202に格納された軌跡情報をリセットする。その場合、指804は、領域801から遠ざかったということなので、再度、指804が領域801に達したときに、S201の処理を実行する。一方、S204で指804が領域802に存在すると判定された場合、S206に進む。
ここで、S202、S203、S204の処理の流れの詳細について、図5及び図6を参照しながら説明する。
S201でタッチパネル222上で第1画面を表示した後、S202の処理が開始される場合に、図6の処理が実行される。S401において、CPU201は、指804のXY平面上における位置の変化に伴い、静電容量が変化したか否かを判定する。ここで、静電容量が所定の範囲内である場合、CPU201は、静電容量が変化していないと判定する。そして、S406において、CPU201は、指804は領域801に存在すると判定し、図6の処理を終了する。これは、図4のS202で指804が領域801に存在すると判定された場合に相当する。一方、静電容量が所定の範囲から逸脱した場合、CPU201は、静電容量が変化したと判定する。そして、S402において、CPU201は、指804は領域801から移動したと判定する。その後、S403に進む。
S403において、CPU201は、S401での静電容量の変化は増加であるか否かを判定する。ここで、静電容量の変化は増加であると判定された場合、S404において、CPU201は、指804はタッチパネル222に近づく方向に移動したと判定し、図6の処理を終了する。これは、図4のS204で指804が領域802に存在すると判定された場合に相当する。一方、静電容量の変化は増加ではない、即ち減少であると判定された場合、S405において、CPU201は、指804はタッチパネル222から離れる方向に移動したと判定し、図6の処理を終了する。これは、図4のS204で指804が領域802に存在しないと判定された場合に相当する。
S202で指804が領域801に存在すると判定され、S203の処理が開始される場合に、図5の処理が実行される。S301において、CPU201は、XY平面上の座標位置を取得する。S302において、CPU201は、S301で取得された座標位置における静電容量を取得する。そして、S303において、CPU201は、S301で取得された座標位置と、S302で取得された静電容量とを互いに対応付けてROM202に格納し、図5の処理を終了する。
再び、図4を参照する。S204で指804が領域802に存在すると判定された場合、S206に進む。S206において、CPU201は、第2画面を決定し、S207において、第2画面を表示する。ここで、第2画面とは、例えば、図9の画面910である。
図7を参照しながら、S206の処理を説明する。S501において、CPU201は、S401で静電容量が変化したと判定される直前の指804のXY平面上の座標位置を取得する。S502において、CPU201は、S501で取得された座標位置に対応する画面上の設定項目を特定する。これは、例えば、図10において、画面910の表示前に指804が選択項目904の位置にあったことを特定することに相当する。
S503において、CPU201は、特定された項目に応じて、遷移する画面を決定する。例えば、画面900の選択項目904が選択された場合には、遷移する画面として画面910を決定する。その後、図7の処理を終了する。
S208において、CPU201は、指804が第2領域、即ち、領域802に存在するか否かを判定する。指804が領域802に存在すると判定された場合、S209に進み、CPU201は、XY平面上の指804の軌跡情報を取得し、ROM202に格納する。このときに、CPU201は、XY平面上の指804の位置に対応するように、画面910上にポインタを表示する。そのような構成により、ユーザは、指804がタッチパネル222から離れていても、タッチパネル222上のどの辺りを示しているのかを容易に認識することができる。
S209の後、S208の処理を繰り返す。一方、S208で指804が領域802に存在しないと判定された場合、S210に進む。S210において、CPU201は、指804が第3領域、即ち、領域803に存在するか否かを判定する。指804が領域803に存在しないと判定された場合、S211において、CPU201は、ROM202に格納された軌跡情報をリセットする。その場合、指804は、領域801へ遠ざかったということなので、再度、S201の処理を実行する。一方、S210で指804が領域803に存在すると判定された場合、S212に進む。
ここで、S208、S209、S210の処理の流れの詳細について、図5及び図6を参照しながら説明する。
S207でタッチパネル222上で第2画面を表示した後、S208の処理が開始される場合に、図6の処理が実行される。S401において、CPU201は、指804のXY平面上における位置の変化に伴い、静電容量が変化したか否かを判定する。ここで、静電容量が所定の範囲内である場合、CPU201は、静電容量が変化していないと判定する。そして、S406において、CPU201は、指804は領域802に存在すると判定し、図6の処理を終了する。これは、図4のS208で指804が領域802に存在すると判定された場合に相当する。一方、静電容量が所定の範囲から逸脱した場合、CPU201は、静電容量が変化したと判定する。そして、S402において、CPU201は、指804は領域802から移動したと判定する。その後、S403に進む。
S403において、CPU201は、S401での静電容量の変化は増加であるか否かを判定する。ここで、静電容量の変化は増加であると判定された場合、S404において、CPU201は、指804はタッチパネル222に近づく方向に移動したと判定し、図6の処理を終了する。これは、図4のS210で指804が領域803に存在すると判定された場合に相当する。一方、静電容量の変化は増加ではない、即ち減少であると判定された場合、S405において、CPU201は、指804はタッチパネル222から離れる方向に移動したと判定し、図6の処理を終了する。これは、図4のS210で指804が領域803に存在しないと判定された場合に相当する。
S208で指804が領域802に存在すると判定され、S209の処理が開始される場合に、図5の処理が実行される。S301において、CPU201は、XY平面上の座標位置を取得する。S302において、CPU201は、S301で取得された座標位置における静電容量を取得する。そして、S303において、CPU201は、S301で取得された座標位置と、S302で取得された静電容量とを互いに対応付けてROM202に格納し、図5の処理を終了する。
再び、図4を参照する。S210で指804が領域803に存在すると判定された場合、S212に進む。S212において、CPU201は、第3画面を決定し、S213において、第3画面を表示する。ここで、第3画面とは、例えば、図9の画面920である。
図7を参照しながら、S212の処理を説明する。S501において、CPU201は、S401で静電容量が変化したと判定される直前の指804のXY平面上の座標位置を取得する。S502において、CPU201は、S501で取得された座標位置に対応する画面上の設定項目を特定する。これは、例えば、図10において、画面920の表示前に指804が選択項目912の位置にあったことを特定することに相当する。
S503において、CPU201は、特定された項目に応じて、遷移する画面を決定する。例えば、画面910の選択項目912が選択された場合には、遷移する画面として画面920を決定する。その後、図7の処理を終了する。
S214において、CPU201は、指804がタッチパネル222に近接するに伴って選択されてきた選択項目の組み合わせに基づいて、デバイス240の制御を行う。図9及び図10に示す例の場合、選択904、912、923が選択されているので、CPU201は、ラジオ244に対して80.0MHzを選局させるよう設定情報を送信する。以上のように、本実施形態によれば、ユーザが指804をタッチパネル222に近接させる動作上で、選択項目の選択およびその選択に伴う画面の遷移を行うので、ユーザ操作をより簡易化することができる。
S214においては、選択されてきた選択項目の組み合わせに基づいてデバイス240の制御を行うと説明した。その際に、選択項目の組み合わせをユーザ識別情報と関連付けて、操作履歴情報212として記憶部210に格納するようにしても良い。その場合のユーザ識別情報とは、例えば、ユーザが車両100に乗車したときに、ECU230がカメラ231やセンサ232により取得した特徴量に基づいて識別した情報である。また、ECU230は、カメラ231やセンサ232により取得した特徴量を外部のサーバ(不図示)に送信し、サーバがその特徴量によりユーザを識別してユーザ識別情報をECU230に送信するようにしても良い。
以下、図11を参照しながら、ユーザにより使用頻度の高い選択項目の組み合わせに基づいて、タッチパネル222上に表示する画面データの生成処理について説明する。図11の処理は、例えば、ユーザが車両100に乗車した際に開始される。
S601において、CPU201は、ユーザを識別する。これは、上述のようにECU230が取得したユーザ識別情報をCPU201が取得するようにしても良い。S602において、CPU201は、S601で識別したユーザに対応した操作履歴情報212を記憶部210から取得する。そして、S603において、CPU201は、取得した操作履歴情報212のうち、ユーザにより最も使用頻度が高い選択項目の組み合わせを特定する。例えば、CPU201は、ユーザAに対応する操作履歴情報212として、「オーディオ、CD、ランダム再生」といったような選択項目の組み合わせを特定する。
S604において、CPU201は、S603で特定した選択項目のアイコンそれぞれがZ軸方向に揃うように、即ち、指804がタッチパネル222に近接していく際にXY軸方向の指804の動きが小さくなるように、最適化する。以下、図13を参照しながら、S604の処理について説明する。
図13(a)〜(c)において、画面1301は図9及び図10の画面900に対応し、画面1302は図9及び図10の画面910に対応し、画面1303は図9及び図10の画面920に対応する。図13(a)〜(c)では、図中の上下方向が図8のZ軸方向に対応し、点線が各画面を表し、実線が選択項目のアイコンを表している。選択項目1311〜1313は、ユーザにより最も使用頻度が高い選択項目である。
ここで、選択項目1311が「オーディオ」に対応し、選択項目1312が「CD」に対応し、選択項目1313が「ランダム再生」に対応するとする。図13(a)は、画面1301〜1303において選択項目がデフォルト配置の場合を示している。
図13(a)に示すように、選択項目1311、1312、1313は、Z軸方向に対して散在している。CPU201は、まず、デフォルト配置において、選択項目1311〜1313のZ軸方向が最も揃うように、即ち、指804がタッチパネル222に近接していく際にXY軸方向の指804の動きが最も小さくなるように、選択項目1311〜1313の位置を入れ替える。
選択項目1311〜1313のZ軸方向が最も揃うようにする処理について説明する。選択項目1311のアイコン幅をw1、選択項目1312のアイコン幅をw2、選択項目1313のアイコン幅をw3とする。選択項目1311〜1313のZ軸方向が最も揃うように処理するとは、アイコン幅w1、w2、w3の重複する幅w4が最も大きくなるように各アイコンの位置を調整するということである。図13(b)は、デフォルト配置において、幅w4が最も大きくなるような位置に選択項目1311〜1313が配置されている。
再び、図11を参照する。S605において、CPU201は、各画面の選択項目数が所定の条件を満たすか否かを判定する。ここでは、第3画面の選択項目数≧第2画面の選択項目数≧第1画面の選択項目数 を満たすか否かを判定する。ここで、第1画面は画面1301であり、第2画面は画面1302であり、第3画面は画面1303である。
例えば、図13(b)の場合には、第1画面の選択項目数=4、第2画面の選択項目数=5、第3画面の選択項目数=4であるので、上記の関係式を満たさない。従って、その場合、S607に進む。S607において、CPU201は、上記の関係式を満たすように、各画面において使用頻度の低い選択項目の表示を制限する。
S607の処理について説明する。図13(b)において、画面1301について使用頻度の低いものから順に2つの選択項目を特定し、画面1302について使用頻度の低いものから順に2つの選択項目を特定する。つまり、原則として、第3画面の選択項目数≧第2画面の選択項目数≧第1画面の選択項目数 を満たすように、使用頻度の低い選択項目を特定する。例えば、図13(b)の場合には、上記のように使用頻度の低い選択項目数を特定して表示を制限することにより、4≧3≧2となって上記関係式を満たす。
次に、CPU201は、幅w4が最大となるように、選択項目1311〜1313のアイコン幅w1〜w3を調整する。例えば、図13(c)に示すように、アイコン幅w1及びアイコン幅w2を広げることにより、幅w4がアイコン幅w3と等しくなるようにする。上述したように、4≧3≧2となるよう使用頻度の低い選択項目数を特定することによって、選択項目1311、1312の調整幅の範囲を大きくすることができる。
図12は、S607で使用頻度の低い選択項目の表示を制限した一例を示す図である。図13の画面1301において、デフォルトで4つの選択項目が配置されていた画面が、S607の処理によって使用頻度の低い2つの選択項目の表示が制限され、結果、使用頻度が最も高い選択項目を含む2つの選択項目のみが表示されている。そして、画面1200の2つの選択項目は、図9の画面900の選択項目よりも大きいサイズのアイコンで表示されている。本実施形態では、このような表示制御を行うことにより、指804のZ軸方向の移動において、XY平面方向の変位(即ち、表示面上での散らばり)をできる限り少なくすることができる。また、タッチパネル222から離れるほど指804の検出精度は低下していくが、本表示制御により、タッチパネル222から離れるほど、選択項目は少なく且つそのアイコンサイズは大きくなっていくので、指804の検出精度の低下を補うことができる。
また、上記の説明では、画面1301と画面1302における使用頻度の低い選択項目の特定を1回のS607の処理で行ったが、複数回のS607の処理で行うようにしても良い。つまり、まず、S607で画面1302における使用頻度の低い選択項目を特定し、その後、S604に戻り、S605の後、再度、S607で画面1301における使用頻度の低い選択項目を特定するようにしても良い。
S605で各画面の選択項目数が所定の条件を満たすと判定された場合、S606において、CPU201は、最適化された選択項目の配置に基づいて、画面データを生成する。例えば、図13(c)の選択項目1311〜1313の配置に基づいて、画面1301〜1303を示す画面データが生成される。
S606で画面データが生成された後、例えば、図12の画面1200のような画面がタッチパネル222に表示されるが、その際には、アイコン1201も表示される。ユーザがアイコン1201の位置に所定時間、指804を合わせることにより、図9の画面900の画面を表示可能としても良い。以上のように、本実施形態では、ユーザの操作履歴に基づき各画面の選択項目数(アイコン数)が所定の条件を満たすように表示していたが、ユーザの操作履歴に関わらず、タッチパネル222から離れるほど選択項目を少なく且つそのアイコンサイズが大きくなるよう予め設定するようにしてもよい。例えば、以下のような処理で実現されても良い。図3のS101で表示装置110を起動すると、CPU201は、記憶部210から、タッチパネル222でデフォルト表示される複数階層の画面データを取得し、その複数階層の画面データを表示する際に、各階層の画面データそれぞれについて表示対象のアイコン、表示非対象のアイコンをユーザが特定可能とする。そのような特定は、表示装置110の起動後に画面データのアイコンの編集画面を表示し、当該画面上で行うようにしても良い。また、ユーザに特定させる際には、所定の条件(例えば、タッチパネル222から離れるほどアイコン数が少なくなる)を満たすようにユーザにメッセージ等で促すようにする。各階層の画面データそれぞれについてユーザによる特定が行われると、各階層で表示対象となったアイコン(若しくはアイコンの集合)について、Z軸方向に揃うように最適化する。その際の最適化は、S604における説明と同様である。
次に、ユーザの属性に応じて、図8の領域801〜803の範囲を変更する処理を説明する。静電容量方式タッチパネルは、近接する人体(指)との間の静電容量に応じて、指の位置を検出するものであるので、その検出性能は、指の状態によって変動し得る。例えば、指の湿気等が多い状態と少ない状態とでは、検出性能は異なる。言い換えると、領域801〜803それぞれの領域が固定であれば、指の状態によっては、正確に検出できない場合が生じ得る。以下、図14を参照しながら、指の状態を含むユーザ属性に応じて、領域801〜803のZ軸方向の範囲を変更する処理について説明する。
S701において、CPU201は、ユーザ属性情報を取得する。例えば、CPU201は、ECU230からユーザ識別情報を取得する際に、合わせてユーザ属性情報を取得する。ユーザ属性情報とは、例えば、国籍、身長、体重、指の湿気の程度などである。国籍や身長、体重等の情報は、例えば、外部のサーバ250にユーザ識別情報と関連付けて蓄積されていても良い。その場合、サーバは、カメラ231やセンサ232により取得された情報をECU230から受信してユーザを識別すると、ユーザ識別情報と合わせて、国籍や身長、体重等のユーザ属性情報をECU230に送信するようにしても良い。また、指の湿気の程度は、例えば、ECU230がハンドルに設けられた湿度センサから検知した情報に基づいて取得されても良い。
静電容量は、指804の湿気の程度と大きさに大きく影響されるので、その2つの要素が導かれるのであれば、ユーザ属性情報は、上記の情報に限られない。
S702において、CPU201は、S701で取得したユーザ属性情報に基づいて、領域801〜803それぞれのZ軸方向の範囲を調整する。例えば、CPU201は、指804の湿気の程度が大きいほど検出性能の向上を期待できるので、領域801〜803それぞれのZ軸方向の範囲を小さくする。若しくは、指804のサイズが大きいほど検出性能の向上を期待できるので、領域801〜803それぞれのZ軸方向の範囲を小さくする。若しくは、それらの組み合わせでも良い。指804のサイズについては、身長および体重、もしくは、国籍等から推測するようにしても良い。
本実施形態では、指804のZ軸方向の位置を静電容量に基づいて検出するとして説明した。しかしながら、他の検出手法によって指804のZ軸方向の位置を検出するようにしても良い。例えば、タッチパネル222の表示面に対して垂直で、且つ、側方に位置するように、静電容量を検出するための複数の電極パターンが配置された検出板を構成しても良い。つまり、指804のZ軸方向の位置を、タッチパネル222の電極により検出するのではなく、側方に構成された検出板の電極により検出するようにする。また、そのような検出板が、指804のZ軸方向の位置と、XY平面上の位置とを静電容量の変化によって検出するように構成するのであれば、タッチパネル222の代わりに、静電容量方式タッチパネルでない表示部が用いられても良い。また、上記の検出板は、静電容量を検出するための構成でなくても良く、例えば、赤外線センサ等により、指804の空間上の位置を検出する構成であっても良い。
<実施形態のまとめ>
上記実施形態の表示装置は、選択可能な複数の項目を有する画面データを表示する表示手段と(タッチパネル222)、前記表示手段の表示面へのタッチ操作により、前記画面データを当該画面データに含まれる項目の選択に応じて遷移させる表示制御手段と(図4)、を備え、前記表示制御手段は、前記タッチ操作の過程において、項目に対向する前記表示面上の空間内の位置に応じて前記画面データを遷移させる(S204、S206、S210、S212)ことを特徴とする。また、前記表示制御手段は、前記項目に対向する前記表示面上の空間内の位置を通過すると、当該項目が選択されたとして前記画面データを遷移させることを特徴とする。
そのような構成により、選択対象の項目に対向する空間上の位置を通過すると、当該項目が選択されたとして画面データを遷移させることができ、ユーザ操作をより簡易化することができる。
また、前記表示手段は、導電性を有する物体との間での静電容量の変化を検出可能な静電容量方式のタッチパネルであることを特徴とする(タッチパネル222、図8)。そのような構成により、静電容量方式のタッチパネルでの画面データの表示において、ユーザ操作をより簡易化することができる。
また、表示装置は、前記物体との間での静電容量を検出する検出手段と(S302)、前記検出手段により検出する静電容量が所定の範囲に含まれるか否かを判定する判定手段と(S401)、をさらに備え、前記表示制御手段は、前記判定手段により静電容量が前記所定の範囲に含まれると判定された後、前記判定手段による判定の結果が前記所定の範囲に含まれなくなったと変化した場合に、前記項目が選択されたとして前記画面データを遷移させる(S402)ことを特徴とする。そのような構成により、静電容量の変化に基づいて、画面データを遷移させることができる。
また、前記物体は、指であり、前記指に関する情報に基づいて前記所定の範囲を変更する変更手段(図14)、をさらに備えることを特徴とする。また、前記指に関する情報は、湿気と指のサイズの少なくともいずれかを含むことを特徴とする。そのような構成により、例えば、指の湿気に基づいて、静電容量の所定範囲を変更することができる。
また、前記指に関する情報を取得する取得手段、をさらに備えることを特徴とする(S701)。また、前記表示装置は、車両に搭載され、前記取得手段は、前記車両の搭乗者に関する情報に基づいて、前記指に関する情報を取得することを特徴とする。そのような構成により、例えば、車両の搭乗者に関する情報に基づいて、指のサイズを取得することができる。
また、前記表示制御手段による遷移対象の画面データが有する項目の数は、当該遷移する先の画面データが有する項目の数以下であることを特徴とする(S605)。そのような構成により、タッチパネルの表示面上から離れるほど、項目数を少なくするので、検出精度の低下を補うことができる。
また、前記表示制御手段は、予め定められた複数の画面データの間で、前記画面データを遷移させることを特徴とする。また、前記複数の画面データそれぞれが有する項目の配置を決定する決定手段、をさらに備えることを特徴とする(図11)。また、表示装置は、選択された項目を履歴情報として記憶する記憶手段(記憶部210)、をさらに備え、前記決定手段は、前記履歴情報に基づいて、前記複数の画面データそれぞれが有する項目の配置を決定する、ことを特徴とする。また、前記決定手段は、前記複数の画面データそれぞれが有する項目の前記表示面上での散らばりが小さくなるように配置を決定することを特徴とする(図13)。
そのような構成により、例えば、使用頻度の高い選択項目の組み合わせについて、XY平面上での変位を少なくするように配置することができる。
100 車両: 110 表示装置: 201 CPU: 202 ROM: 203 RAM: 222 タッチパネル

Claims (15)

  1. 選択可能な複数の項目を有する画面データを表示する表示手段と、
    前記表示手段の表示面へのタッチ操作により、前記画面データを当該画面データに含まれる項目の選択に応じて遷移させる表示制御手段と、を備え、
    前記表示制御手段は、前記タッチ操作の過程において、項目に対向する前記表示面上の空間内の位置に応じて前記画面データを遷移させる、
    ことを特徴とする表示装置。
  2. 前記表示制御手段は、前記項目に対向する前記表示面上の空間内の位置を通過すると、当該項目が選択されたとして前記画面データを遷移させることを特徴とする請求項1に記載の表示装置。
  3. 前記表示手段は、導電性を有する物体との間での静電容量の変化を検出可能な静電容量方式のタッチパネルであることを特徴とする請求項1又は2に記載の表示装置。
  4. 前記物体との間での静電容量を検出する検出手段と、
    前記検出手段により検出する静電容量が所定の範囲に含まれるか否かを判定する判定手段と、をさらに備え、
    前記表示制御手段は、前記判定手段により静電容量が前記所定の範囲に含まれると判定された後、前記判定手段による判定の結果が前記所定の範囲に含まれなくなったと変化した場合に、前記項目が選択されたとして前記画面データを遷移させる、
    ことを特徴とする請求項3に記載の表示装置。
  5. 前記物体は、指であり、
    前記指に関する情報に基づいて前記所定の範囲を変更する変更手段、をさらに備えることを特徴とする請求項4に記載の表示装置。
  6. 前記指に関する情報は、湿気と指のサイズの少なくともいずれかを含むことを特徴とする請求項5に記載の表示装置。
  7. 前記指に関する情報を取得する取得手段、をさらに備えることを特徴とする請求項5又は6に記載の表示装置。
  8. 前記表示装置は、車両に搭載され、
    前記取得手段は、前記車両の搭乗者に関する情報に基づいて、前記指に関する情報を取得することを特徴とする請求項7に記載の表示装置。
  9. 前記表示制御手段による遷移対象の画面データが有する項目の数は、当該遷移する先の画面データが有する項目の数以下であることを特徴とする請求項1乃至8のいずれか1項に記載の表示装置。
  10. 前記表示制御手段は、予め定められた複数の画面データの間で、前記画面データを遷移させることを特徴とする請求項1乃至9のいずれか1項に記載の表示装置。
  11. 前記複数の画面データそれぞれが有する項目の配置を決定する決定手段、をさらに備えることを特徴とする請求項10に記載の表示装置。
  12. 選択された項目を履歴情報として記憶する記憶手段と、
    前記決定手段は、前記履歴情報に基づいて、前記複数の画面データそれぞれが有する項目の配置を決定する、ことを特徴とする請求項11に記載の表示装置。
  13. 前記決定手段は、前記複数の画面データそれぞれが有する項目の前記表示面上での散らばりが小さくなるように配置を決定することを特徴とする請求項11又は12に記載の表示装置。
  14. 表示装置において実行される表示制御方法であって、
    選択可能な複数の項目を有する画面データを表示手段に表示する表示工程と、
    前記表示手段の表示面へのタッチ操作により、前記画面データを当該画面データに含まれる項目の選択に応じて遷移させる表示制御工程と、を有し、
    前記表示制御工程では、前記タッチ操作の過程において、項目に対向する前記表示面上の空間内の位置に応じて前記画面データを遷移させる、
    ことを特徴とする表示制御方法。
  15. 請求項1乃至13のいずれか1項に記載の表示装置の各手段としてコンピュータを機能させるためのプログラム。
JP2018107127A 2018-06-04 2018-06-04 表示装置、表示制御方法およびプログラム Pending JP2019211979A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018107127A JP2019211979A (ja) 2018-06-04 2018-06-04 表示装置、表示制御方法およびプログラム
CN201910417131.2A CN110554830A (zh) 2018-06-04 2019-05-20 显示装置、显示控制方法以及存储程序的存储介质
US16/418,172 US20190369867A1 (en) 2018-06-04 2019-05-21 Display apparatus, display control method, and non-transitory computer-readable storage medium for storing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018107127A JP2019211979A (ja) 2018-06-04 2018-06-04 表示装置、表示制御方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2019211979A true JP2019211979A (ja) 2019-12-12

Family

ID=68693680

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018107127A Pending JP2019211979A (ja) 2018-06-04 2018-06-04 表示装置、表示制御方法およびプログラム

Country Status (3)

Country Link
US (1) US20190369867A1 (ja)
JP (1) JP2019211979A (ja)
CN (1) CN110554830A (ja)

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009116583A (ja) * 2007-11-06 2009-05-28 Ricoh Co Ltd 入力制御装置および入力制御方法
JP2011117742A (ja) * 2009-11-30 2011-06-16 Pioneer Electronic Corp 情報処理装置、入力方法、入力プログラムおよび記録媒体
JP5299244B2 (ja) * 2009-12-01 2013-09-25 株式会社デンソー 表示装置
JP5305039B2 (ja) * 2010-03-25 2013-10-02 アイシン・エィ・ダブリュ株式会社 表示装置、表示方法、及び表示プログラム
JP5751233B2 (ja) * 2012-10-02 2015-07-22 株式会社デンソー 操作デバイス
US20140267130A1 (en) * 2013-03-13 2014-09-18 Microsoft Corporation Hover gestures for touch-enabled devices
KR101873814B1 (ko) * 2013-12-19 2018-08-02 삼성전자주식회사 디스플레이 장치 및 디스플레이 장치의 컨텐츠 추천 방법
JP6119679B2 (ja) * 2014-06-24 2017-04-26 株式会社デンソー 車両用入力装置
JP6310787B2 (ja) * 2014-06-24 2018-04-11 株式会社デンソー 車両用入力装置および車両用コックピットモジュール
JP6304095B2 (ja) * 2015-03-26 2018-04-04 株式会社Jvcケンウッド 電子機器

Also Published As

Publication number Publication date
US20190369867A1 (en) 2019-12-05
CN110554830A (zh) 2019-12-10

Similar Documents

Publication Publication Date Title
JP5052677B2 (ja) 表示入力装置
JP5355683B2 (ja) 表示入力装置および車載情報機器
EP2690542B1 (en) Display device and control method thereof
KR102079054B1 (ko) 터치 패드를 사용하여 이동 단말의 촬영 초점 거리를 조절하는 방법 및 이동 단말
EP2846242B1 (en) Method of adjusting screen magnification of electronic device, machine-readable storage medium, and electronic device
JP2014203206A (ja) 入力装置
EP2642369A1 (en) Haptic operation input system
JP7338184B2 (ja) 情報処理装置、情報処理システム、移動体、情報処理方法、及びプログラム
JP5858059B2 (ja) 入力装置
JP5700254B2 (ja) 操作入力システム
CN104699249A (zh) 一种信息处理方法及电子设备
JP6034281B2 (ja) オブジェクト選択方法、装置及びコンピュータ・プログラム
KR20140110646A (ko) 사용자 단말 및 사용자 단말에서 화면 표시 방법
JP2019211979A (ja) 表示装置、表示制御方法およびプログラム
JPWO2019239450A1 (ja) 入力制御装置、操作装置および入力制御方法
JP2013164710A (ja) 電子機器、その制御方法、及び制御プログラム
US20110142260A1 (en) Method and apparatus for outputting audio signal in portable terminal
WO2014162698A1 (ja) 入力装置
KR101992314B1 (ko) 포인터 제어 방법 및 그 전자 장치
KR102272107B1 (ko) 사용자 단말에서 사용자 인터페이스 장치 및 방법
JP2013134722A (ja) 操作入力システム
KR101165388B1 (ko) 이종의 입력 장치를 이용하여 화면을 제어하는 방법 및 그 단말장치
JP5984718B2 (ja) 車載情報表示制御装置、車載情報表示装置および車載表示装置の情報表示制御方法
WO2021059479A1 (ja) 操作対象物を操作可能範囲内に表示する表示制御装置
JP5950851B2 (ja) 情報表示制御装置、情報表示装置および情報表示制御方法