JP2012256147A - Display input device - Google Patents
Display input device Download PDFInfo
- Publication number
- JP2012256147A JP2012256147A JP2011128029A JP2011128029A JP2012256147A JP 2012256147 A JP2012256147 A JP 2012256147A JP 2011128029 A JP2011128029 A JP 2011128029A JP 2011128029 A JP2011128029 A JP 2011128029A JP 2012256147 A JP2012256147 A JP 2012256147A
- Authority
- JP
- Japan
- Prior art keywords
- display
- unit
- display image
- hierarchy
- displayed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は、表示入力装置に関する。 The present invention relates to a display input device.
従来の技術として、利用者の意思決定が入力されなくても表示中の選択肢に属する下位の階層の選択肢を表示する表示入力装置がある(例えば、特許文献1参照)。 As a conventional technique, there is a display input device that displays lower hierarchy options belonging to a displayed option even if a user's decision is not input (see, for example, Patent Document 1).
この表示入力装置は、表示装置と、表示装置上に配置されて利用者の指等の接触位置を検出する接触位置検出手段と、ツリー構造を有する複数の選択肢のうちある上位階層の選択肢が表示されている場合に接触位置に対応する上位階層の選択肢に属する下位階層の選択肢を表示する表示制御手段と、利用者の指等が接触位置検出手段の前方の空間に接近したことを検出するセンサとを有し、表示制御手段は、センサによって指等が表示装置に表示された上位階層の選択肢に近接したことが検出された場合、当該選択肢の下位階層の選択肢を表示装置に表示する。 This display input device displays a display device, contact position detection means for detecting a contact position of a user's finger or the like arranged on the display device, and a higher-level option among a plurality of options having a tree structure. Display control means for displaying lower-layer options belonging to upper-layer options corresponding to the contact position, and a sensor for detecting that the user's finger or the like has approached the space in front of the contact position detection means When the sensor detects that a finger or the like is close to an option on the upper layer displayed on the display device, the display control means displays the option on the lower layer of the option on the display device.
この表示入力装置によれば、利用者による意思決定が入力されなくても下位の階層を表示するため、意思決定を入力する前に下位の階層の内容を確認して、所望の下位階層の選択肢を含む上位階層を決定することができる。 According to this display input device, in order to display the lower hierarchy even if the decision by the user is not input, the contents of the lower hierarchy are confirmed before inputting the decision, and the desired lower hierarchy option is selected. Can be determined.
しかし、特許文献1に示す表示入力装置は、決定した上位階層に属する下位階層の選択肢を表示中に、当該選択肢以外の選択肢に辿り付くためには、再び上位階層を一覧する表示形態に戻り、該当する上位階層の選択肢を選択する必要があった。
However, the display input device shown in
従って、本発明の目的は、階層毎に選択肢が表示される場合に所望の選択肢に辿り着くための操作手順を減少することができる表示入力装置を提供することにある。 Therefore, an object of the present invention is to provide a display input device that can reduce an operation procedure for reaching a desired option when the option is displayed for each layer.
本発明の一態様は、複数の選択肢画像を有する階層を複数有し、各階層の座標が隣り合う階層の座標と対応付けられた表示画像情報を記憶する記憶部と、操作内容を検出して少なくとも第1の検出信号及び第2の検出信号を出力する操作部と、表示画像を表示する表示部と、前記記憶部に記憶された前記表示画像情報のうち前記表示部に表示される表示画像の領域を示す表示領域を、前記操作部が出力した前記第1の検出信号に基づいて階層上において座標移動させ、又は前記第2の検出信号に基づいて同一座標において隣り合う階層へ移動させ、移動させた結果としての当該表示領域に基づいて前記表示部に表示する表示画像を生成する表示画像生成部とを有する表示入力装置を提供する。 One embodiment of the present invention has a plurality of hierarchies having a plurality of option images, a storage unit that stores display image information associated with the coordinates of adjacent hierarchies, and the operation content is detected. An operation unit that outputs at least a first detection signal and a second detection signal, a display unit that displays a display image, and a display image displayed on the display unit among the display image information stored in the storage unit The display area indicating the area is moved on the hierarchy on the basis of the first detection signal output by the operation unit, or moved to the adjacent hierarchy on the same coordinate based on the second detection signal, Provided is a display input device including a display image generation unit that generates a display image to be displayed on the display unit based on the display area as a result of the movement.
上記表示入力装置の操作部は、操作内容を検出して第3の検出信号を出力し、上記表示入力装置は、前記操作部が出力した第3の検出信号に基づいて、前記表示部に表示された表示画像に含まれる選択肢画像に関連付けられた制御信号を出力する制御部をさらに有させてもよい。 The operation unit of the display input device detects the operation content and outputs a third detection signal, and the display input device displays on the display unit based on the third detection signal output by the operation unit. You may further have a control part which outputs the control signal linked | related with the choice image contained in the displayed image.
上記表示入力装置の操作部は、操作内容を検出して第4の検出信号を出力し、上記表示画像生成部は、前記操作部が出力する第4の検出信号に基づいて前記表示領域を拡大又は縮小してもよい。 The operation unit of the display input device detects an operation content and outputs a fourth detection signal, and the display image generation unit enlarges the display area based on the fourth detection signal output by the operation unit. Or you may reduce.
本発明によれば、階層毎に選択肢が表示される場合に所望の選択肢に辿り着くための操作手順を減少することができる。 ADVANTAGE OF THE INVENTION According to this invention, when the choice is displayed for every hierarchy, the operation procedure for reaching a desired choice can be reduced.
(表示入力装置の構成)
図1は、実施の形態に係る表示入力装置が搭載された車両内の構成の一例を示す概略図である。
(Configuration of display input device)
FIG. 1 is a schematic diagram illustrating an example of a configuration inside a vehicle in which the display input device according to the embodiment is mounted.
この表示入力装置1は、車両6に搭載されたシート位置調整装置、空調装置、ナビゲーション装置、オーディオ装置、視界確保装置及び運転支援装置等の電子機器の操作、並びに文字等の入力を行うことができるものである。
The
表示入力装置1の表示部14aは、例えば、図1に示すように、運転席と助手席の間であり、垂直方向に設けられたセンターコンソール60に配置されている。また、表示部14aに対応したタッチセンサ部12aは、シフトレバー64付近に配置されている。
For example, as shown in FIG. 1, the
また、表示入力装置1の表示部14bは、メータパネル62等のサブモニタとして配置され、表示部14bに対応したタッチセンサ部12bは、ステアリングホイール63上に配置される。
The display unit 14 b of the
図2は、実施の形態に係る表示入力装置の構成の一例を示すブロック図である。 FIG. 2 is a block diagram illustrating an example of the configuration of the display input device according to the embodiment.
この表示入力装置1は、画像や文字等を表示する表示部14a、14b(以下、表示部14として記載する。)と、表示部14a、14bにそれぞれ対応し、なされた操作に基づく検出信号を出力する検出部としてのタッチセンサ部12a、12b(以下、タッチセンサ部12として記載する。)と、タッチセンサ部12から出力された検出信号に基づいてなされた操作を判定する判定部24と、判定部24により行われた画像の配置を変更する操作の判定に基づいて、マイクロコンピュータ20上の記憶部に記憶された表示画像情報260に基づいて複数の画像の少なくとも1つの画像の配置を変更して表示部14に表示させる表示画像を生成する表示画像生成部26と、制御情報320に基づいて、表示画像に割り付けられた機能を実行する制御部32と、を備えて概略構成されている。
The
(タッチセンサ部12の構成)
タッチセンサ部12は、例えば、操作者の体の一部(例えば、指)でカバー120の検出面121に触れた場合、触れた検出面121上の位置を検出するタッチセンサである。操作者は、例えば、検出面121に操作を行うことにより、接続された電子機器の操作及び入力を行うことが可能となる。タッチセンサ部12としては、例えば、周知の抵抗膜方式、赤外線方式、SAW方式、静電容量方式等のタッチパネルを用いることが可能である。
(Configuration of touch sensor unit 12)
The
本実施の形態に係るタッチセンサ部12は、例えば、検出面121に指が近づくことによる、第1の電極122及び第2の電極123と指との距離に反比例した電流の変化を検出信号として出力する静電容量方式のタッチセンサである。
For example, the
このタッチセンサ部12は、例えば、図2に示すように、カバー120と、第1の電極122及び第2の電極123と、を備えて概略構成されている。
For example, as shown in FIG. 2, the
カバー120は、例えば、PET(Polyethylene terephthalate)又はガラスを用いて、板状に形成される。 The cover 120 is formed in a plate shape using, for example, PET (Polyethylene terephthalate) or glass.
第1の電極122及び第2の電極123は、例えば、ITO(スズドープ酸化インジウム:Indium Tin Oxide)を用いて、カバー120に形成される。 The first electrode 122 and the second electrode 123 are formed on the cover 120 using, for example, ITO (Indium Tin Oxide).
第1の電極122及び第2の電極123は、例えば、図2に示すように、紙面の縦方向及び横方向に沿って並んでいる。本実施の形態では、図2の紙面の横方向をx軸、縦方向をy軸とし、タッチセンサ部12の左上を原点としている。
For example, as shown in FIG. 2, the first electrode 122 and the second electrode 123 are arranged along the vertical direction and the horizontal direction of the paper surface. In the present embodiment, the horizontal direction in FIG. 2 is the x axis, the vertical direction is the y axis, and the upper left of the
x軸方向には、例えば、m個の第2の電極123が等間隔で並んでいる。このmは、例えば、正の整数である。この第2の電極123は、例えば、タッチ検出部125と接続され、タッチ検出部125は、クロック信号に応じて順番に第2の電極123に接続して静電容量を読み出す。 In the x-axis direction, for example, m second electrodes 123 are arranged at equal intervals. This m is, for example, a positive integer. For example, the second electrode 123 is connected to the touch detection unit 125, and the touch detection unit 125 sequentially connects to the second electrode 123 according to the clock signal and reads the capacitance.
y軸方向には、例えば、n個の第1の電極122が等間隔で並んでいる。このnは、例えば、正の整数である。この第1の電極122は、例えば、駆動部124と接続され、駆動部124は、クロック信号生成部36が生成するクロック信号に応じて順番に電圧を供給する。この電圧は、例えば、図2に示すように、車両6の電源より供給、あるいは、表示入力装置1の動作に必要な電圧に調整されて供給される。
In the y-axis direction, for example, n first electrodes 122 are arranged at equal intervals. This n is, for example, a positive integer. The first electrode 122 is connected to, for example, the drive unit 124, and the drive unit 124 supplies a voltage in order according to the clock signal generated by the clock
y軸に平行に並べられた第2の電極123は、例えば、x軸に平行に並べられた第1の電極122よりも検出面121に近い層に形成されている。また、第1の電極122は、例えば、第2の電極123と電気的に絶縁されている。 For example, the second electrodes 123 arranged in parallel to the y-axis are formed in a layer closer to the detection surface 121 than the first electrodes 122 arranged in parallel to the x-axis. Further, the first electrode 122 is electrically insulated from the second electrode 123, for example.
ここで、x軸の座標は、xに下付きの数字(1〜m)を付して、左から右に向かってx1〜xmと示すものとする。また、y軸の座標は、yに下付きの数字(1〜n)を付して、上から下に向かってy1〜ynと示すものとする。 Here, the coordinates of the x-axis are indicated by x 1 to x m from the left to the right, with subscript numbers ( 1 to m ) added to x. The coordinates of the y-axis is denoted by the subscript numbers (1 to n) to y, from top to bottom and indicates the y 1 ~y n.
具体的には、駆動部124は、例えば、第1の電極122のy1〜ynの順番で電圧を供給する。また、タッチ検出部125は、例えば、第2の電極123のx1〜xmの順番に静電容量を読み出すように構成されている。 Specifically, the drive unit 124 is, for example, supplies a voltage in the order of y 1 ~y n of the first electrode 122. In addition, the touch detection unit 125 is configured to read out the capacitance in the order of x 1 to x m of the second electrode 123, for example.
タッチ検出部125は、例えば、読み出した各第2の電極123の静電容量の値(静電容量値)に基づいて、座標値(xmの静電容量値、ynの静電容量値、t)を生成し、検出信号としてセンサコントローラ34に出力するように構成されている。なお、時間tは、例えば、クロック信号が出力された時刻を示している。
The touch detection unit 125, for example, on the basis of the read value of the capacitance of each of the second electrode 123 (capacitance value), the coordinate values (capacitance value of x m, the capacitance value of y n , T) is generated and output to the
(表示部14の構成)
表示部14は、例えば、TFT(Thin Film Transistor)型等の周知の液晶ディスプレイである。この表示部14は、例えば、マイクロコンピュータ20の表示コントローラ22に接続され、表示コントローラ22から出力される表示信号に基づいて表示画面140に画像を表示させる。
(Configuration of display unit 14)
The
(マイクロコンピュータ20の構成)
マイクロコンピュータ20は、例えば、プログラムに従って、取得したデータに演算、加工等を行うCPU、半導体メモリであるRAM(Random Access Memory)及びROM(Read Only Memory)等から構成される。このROMには、例えば、CPUが動作するためのプログラム等が格納されている。RAMは、例えば、一時的に演算結果等を格納する記憶領域として用いられる。
(Configuration of microcomputer 20)
The microcomputer 20 includes, for example, a CPU that performs operations and processing on acquired data according to a program, a RAM (Random Access Memory) that is a semiconductor memory, a ROM (Read Only Memory), and the like. For example, a program for operating the CPU is stored in the ROM. For example, the RAM is used as a storage area for temporarily storing calculation results and the like.
マイクロコンピュータ20は、例えば、図2に示すように、表示コントローラ22と、判定部24と、表示画像生成部26と、制御部32と、センサコントローラ34と、クロック信号生成部36と、を備えて概略構成されている。
For example, as shown in FIG. 2, the microcomputer 20 includes a
表示コントローラ22は、例えば、表示画像生成部26から出力された表示画像情報260に基づいて表示信号を生成し、表示信号に基づいた画像を表示部14に表示させるように構成されている。
For example, the
判定部24は、例えば、タッチセンサ部12のタッチ検出部125から取得した検出信号に基づいた座標値から、指が接触、又は近づいた座標を算出する。この座標の算出方法は、例えば、加重平均を用いた方法等の周知の方法が用いられる。そして、判定部24は、算出した少なくとも1つの座標の時間変化から、ドラッグ操作、ピンチアウト操作、ピンチイン操作、タッチ操作、タップ操作及び長押操作等の操作を判定する。
The
表示画像生成部26は、例えば、判定部24が判定した操作に基づいて表示部14に表示させる表示画像を生成するように構成されている。表示画像生成部26は、例えば、表示部14に表示させる表示画像の情報である表示画像情報260を生成して表示コントローラ22に出力する。なお、表示画像情報260は、例えば、表示画面140の全域に表示される背景画像の情報を含む。
The display
制御部32は、判定部24が判定した操作と、表示部14に表示された表示画像に割り付けられた機能を定義する制御情報320とに基づいて、車両6に搭載されたシート位置調整装置、空調装置、ナビゲーション装置、オーディオ装置、視界確保装置及び運転支援装置等の電子機器を制御する。また、制御部32は、例えば、マイクロコンピュータ20の各部を制御する。
The
センサコントローラ34は、例えば、タッチセンサ部12を制御する。具体的には、供給する電圧の制御、供給時間の制御、静電容量の読み出しのタイミングの制御等を行うように構成されている。
For example, the
クロック信号生成部36は、例えば、表示入力装置1の動作に必要なクロック信号を生成し、各部に供給している。
The
メモリ38は、例えば、半導体メモリである。このメモリ38には、接続機器情報380が格納されている。この接続機器情報380は、表示入力装置1が接続される電子機器の情報である。この電子機器の情報とは、例えば、表示画面140に表示させる画像の情報、当該画像に割り付けられた機能の情報等である。なお、メモリ38は、例えば、マイクロコンピュータ20のROM等のメモリを用いて構成されても良い。また、長押操作により表示させる機能一覧が、電子機器に依存せず共通である場合は、機能一覧に関する共通の情報が格納される。
The
通信部40は、例えば、接続された電子機器と通信可能となるように構成されている。接続機器情報380は、例えば、この通信部40を介してメモリ38に格納される。この通信部40は、例えば、有線又は無線により、電子機器と接続されている。
The communication unit 40 is configured to be able to communicate with a connected electronic device, for example. The connected device information 380 is stored in the
図3は、実施の形態に係る表示画像情報の構成の一例を示す概略図である。 FIG. 3 is a schematic diagram illustrating an example of a configuration of display image information according to the embodiment.
表示画像情報260は、複数の階層S1、S2、S3…から構成される。階層S1は、選択肢s11、s12、s13、s14、s15を有している。また、階層S2は、選択肢s21、s22、s23…を有しており、階層S3は、選択肢s31、s32、s33…を有している。 The display image information 260 includes a plurality of hierarchies S1, S2, S3,. The hierarchy S1 has options s11, s12, s13, s14, and s15. Further, the hierarchy S2 has options s21, s22, s23..., And the hierarchy S3 has options s31, s32, s33.
各階層S1、S2、S3…はツリー構造のように相互に関連しており、例えば、階層S2において、階層S1の選択肢s11に対応する領域に選択肢s21、s22、s23、s24、s25、s26がs11に属するように配置されている。また、階層S3において、階層S2の選択s21に対応する領域にs31、s32が配置されている。 The hierarchies S1, S2, S3,... Are related to each other like a tree structure. For example, in the hierarchy S2, options s21, s22, s23, s24, s25, s26 are provided in an area corresponding to the option s11 of the hierarchy S1. It is arranged so as to belong to s11. In the hierarchy S3, s31 and s32 are arranged in an area corresponding to the selection s21 of the hierarchy S2.
また、各階層S1、S2、S3…の同一の領域に配置された選択肢のうち、最も値の大きな階層に配置された選択肢には、制御情報320が割り当てられている。例えば、階層S2において、階層S1の選択肢s11に対応する領域に選択肢s21、s22、s23、s24、s25、s26が配置されているが、階層S3において、階層S2の選択肢s21に対応する領域に選択肢s31、s32がさらに配置されており、これより高い階層がない場合であるので、選択肢s31及びs32にそれぞれシートを「+」方向及び「−」方向にスライドさせる制御情報320が割り当てられている。 Further, among the options arranged in the same area of each hierarchy S1, S2, S3..., Control information 320 is assigned to the option arranged in the hierarchy having the largest value. For example, in the hierarchy S2, the options s21, s22, s23, s24, s25, and s26 are arranged in the area corresponding to the option s11 in the hierarchy S1, but the option in the area corresponding to the option s21 in the hierarchy S2 is arranged in the hierarchy S3. Since s31 and s32 are further arranged and there is no higher hierarchy, control information 320 for sliding the sheet in the “+” direction and the “−” direction is assigned to the options s31 and s32, respectively.
各階層S1、S2、S3…のうち、表示領域A1の部分が表示画面140に表示される。表示領域A1は、後述するドラッグ操作により移動可能であり、ピンチイン、ピンチアウト操作によってサイズが可変である。また、表示領域A1のサイズの下限及び上限を超えてピンチイン、ピンチアウトすることによって表示領域A1は、各階層S1、S2、S3…の間を移動する。詳しくは後述する動作の項目において説明する。
Of each hierarchy S1, S2, S3..., A portion of the display area A1 is displayed on the
図4(a)〜(c)は、実施の形態におけるタッチセンサ部に対する代表的な操作例を示す概略図である。 4A to 4C are schematic diagrams illustrating a typical operation example with respect to the touch sensor unit in the embodiment.
図4(a)に示す動作は、ドラッグと呼ばれる操作であり、例えば、利用者の手H1の任意の指を検出面121に接触させたまま移動させる操作を示す。 The operation shown in FIG. 4A is an operation called “drag”, for example, an operation of moving an arbitrary finger of the user's hand H1 while being in contact with the detection surface 121.
また、図4(b)に示す動作は、ピンチアウトと呼ばれる操作であり、利用者の手H1の任意の2本の指を検出面121に接触させたまま互いに遠ざかる方向に移動させる操作を示す。 The operation shown in FIG. 4B is an operation called “pinch out”, and shows an operation of moving any two fingers of the user's hand H1 away from each other while being in contact with the detection surface 121. .
また、図4(c)に示す動作は、ピンチインと呼ばれる操作であり、利用者の手H1の任意の2本の指を検出面121に接触させたまま互いに近づく方向に移動させる操作を示す。 The operation shown in FIG. 4C is an operation called pinch-in, and shows an operation of moving any two fingers of the user's hand H1 toward each other while keeping the detection surface 121 in contact.
その他、図示しないがタッチ操作、タップ操作及び長押操作等を用いることもできる。 In addition, although not shown, a touch operation, a tap operation, and a long press operation can also be used.
タッチ操作とは、例えば、指で検出面121に接触する操作を示す。タップ操作は、タッチ操作よりも短い時間で検出面121に接触する操作、言い換えれば、検出面121を叩くような操作を示す。また、タップ操作は、予め定められた時間内に複数回繰り返すことで、回数に応じた異なる機能を実行させることができる。例えば、1回のタップ操作は、マウスで行うクリックに相当する。また、例えば、連続する2回のタップ操作(ダブルタップ操作)は、マウスで行うダブルクリックに相当する。 The touch operation refers to an operation of touching the detection surface 121 with a finger, for example. The tap operation indicates an operation of touching the detection surface 121 in a shorter time than the touch operation, in other words, an operation of hitting the detection surface 121. Further, by repeating the tap operation a plurality of times within a predetermined time, different functions corresponding to the number of times can be executed. For example, one tap operation corresponds to a click performed with a mouse. In addition, for example, two consecutive tap operations (double tap operations) correspond to double clicks performed with a mouse.
長押操作とは、検出面121上を、予め定められた時間よりも長く接触し続ける操作である。この長押操作の判定は、例えば、マイクロコンピュータ20又はメモリ38に記憶された操作時間に関するしきい値と、長押操作が継続する時間と、を比較することにより行われる。判定部24は、例えば、操作がアイコン上になされ、かつ、操作が継続する時間がしきい値を超えるとき、長押操作がなされていると判定する。
The long press operation is an operation in which the detection surface 121 is kept in contact for a longer time than a predetermined time. This determination of the long press operation is performed, for example, by comparing the threshold value related to the operation time stored in the microcomputer 20 or the
(動作)
まず、車両6の電源から電圧Vが投入されると、マイクロコンピュータ20、タッチセンサ部12、表示部14等の各部に電力が供給される。
(Operation)
First, when the voltage V is input from the power source of the vehicle 6, power is supplied to each unit such as the microcomputer 20, the
次に、マイクロコンピュータ20の表示画像生成部26は、初期設定として表示領域A1が表示画像情報260の階層S1の全体となるように表示画像情報260を出力する。
Next, the display
次に、表示コントローラ22は、表示画像生成部26から出力された表示画像情報260に基づいて表示信号を生成し、表示信号に基づいた画像を表示部14に表示させる。
Next, the
また、センサコントローラ34は、タッチセンサ部12に供給する電圧の制御、供給時間の制御、静電容量の読み出しのタイミングの制御等を行う。
In addition, the
判定部24は、タッチセンサ部12のタッチ検出部125から取得した検出信号に基づいた座標値から、指が接触、又は近づいた座標を算出し、ドラッグ操作、ピンチアウト操作、ピンチイン操作、タッチ操作、タップ操作及び長押操作等の操作を判定する。
The
次に、表示画像生成部26は、判定部24が判定した操作に基づいて表示部14に表示させる表示画像を生成する。その具体的な動作の一例を以下に示す。
Next, the display
図5A及び図5Bは、表示画面140に表示される表示画像A2と、表示画像情報260と、表示領域A1と、判定部24が判定した操作内容との関係から表示入力装置1の動作の一例を説明するための概略図である。
5A and 5B are examples of the operation of the
図5A(a)は、初期設定として表示画面140に表示される表示画像A2である。この場合、マイクロコンピュータ20の表示画像生成部26は、表示領域A1が表示画像情報260の階層S1の全体となるように表示画像情報260を出力している。
FIG. 5A (a) is a display image A2 displayed on the
この表示画像A2が表示されている状態において、タッチセンサ部12に対して図4(a)に説明したドラッグ操作であって検出面121に対して右下に移動するものがなされると、判定部24は、タッチセンサ部12のタッチ検出部125から取得した検出信号に基づいて右下に移動するドラッグ操作であると判定する。
When the display image A2 is being displayed, if the drag operation described in FIG. 4A with respect to the
次に、表示画像生成部26は、判定部24が判定したドラッグ操作に基づいて表示部14に表示させる表示画像情報として、図5A(b)に示すように、表示領域A1が表示画像情報260の階層S1の左上に移動した状態に対応する表示画像情報260を出力する。この結果、「シート」を示す選択肢s11が中央に位置する表示画像A2が表示画面140に表示される。
Next, as shown in FIG. 5A (b), the display
次に、図5A(b)に示す表示画像A2が表示されている状態において、タッチセンサ部12に対して図4(b)に説明したピンチアウト操作がなされると、判定部24は、タッチセンサ部12のタッチ検出部125から取得した検出信号に基づいてピンチアウト操作であると判定する。
Next, when the pinch-out operation described in FIG. 4B is performed on the
次に、表示画像生成部26は、判定部24が判定したピンチアウト操作に基づいて表示部14に表示させる表示画像情報として、図5A(c)に示すように、表示領域A1が図5A(b)のものに比べて縮小された状態に対応する表示画像情報260を出力する。この結果、「シート」を示す選択肢s11が中央に位置し、図5A(b)のものに比べて拡大された表示画像A2が表示画面140に表示される。
Next, as shown in FIG. 5A (c), the display
次に、図5A(c)に示す表示画像A2が表示されている状態において、タッチセンサ部12に対してさらにピンチアウト操作がなされると、判定部24は、タッチセンサ部12のタッチ検出部125から取得した検出信号に基づいてピンチアウト操作であると判定する。
Next, in the state where the display image A2 shown in FIG. 5A (c) is displayed, when a further pinch-out operation is performed on the
次に、表示画像生成部26は、判定部24が判定したピンチアウト操作に基づいて表示部14に表示させる表示画像情報として、A1をさらに縮小しようとするが、A1のサイズが下限値に達すると、図5B(a)に示すように、表示領域A1が階層S2に移動した状態に対応する表示画像情報260を出力する。この結果、「シート」に関連する「スライド」「リクライニング」「バーチカル」「ランバーサポート」「サイドサポート」「シートメモリ」等の選択肢s21〜s26が表示された表示画像A2が表示画面140に表示される。
Next, the display
次に、図5B(a)に示す表示画像A2が表示されている状態において、タッチセンサ部12に対してドラッグ操作であって検出面121に対して左に移動するものがなされると、判定部24は、タッチセンサ部12のタッチ検出部125から取得した検出信号に基づいてドラッグ操作であると判定する。
Next, in the state where the display image A2 shown in FIG. 5B (a) is displayed, if the
次に、表示画像生成部26は、判定部24が判定したドラッグ操作に基づいて表示部14に表示させる表示画像情報として、図5B(b)に示すように、表示領域A1が階層S2上を右に移動した状態に対応する表示画像情報260を出力する。この結果、階層S1の「エアコン」に関連する階層S2の「温度」「風量」「吹出し口」「シートヒータ」「A/C」「AUTO」等の選択肢s27〜s212が表示された表示画像A2が表示画面140に表示される。
Next, as shown in FIG. 5B (b), the display
次に、図5B(b)に示す表示画像A2が表示されている状態において、タッチセンサ部12に対してピンチイン操作がなされると、判定部24は、タッチセンサ部12のタッチ検出部125から取得した検出信号に基づいてピンチイン操作であると判定する。
Next, in a state where the display image A2 shown in FIG. 5B (b) is displayed, when a pinch-in operation is performed on the
次に、表示画像生成部26は、判定部24が判定したピンチイン操作に基づいて表示部14に表示させる表示画像情報として、A1を拡大しようとするが、A1のサイズが上限値に達すると、図5B(c)に示すように、表示領域A1が階層S1に移動した状態に対応する表示画像情報260を出力する。この結果、階層S2の「温度」「風量」「吹出し口」「シートヒータ」「A/C」「AUTO」等の選択肢s27〜s212に関連する階層S1の「エアコン」の選択肢s12が表示された表示画像A2が表示画面140に表示される。
Next, the display
また、制御部32は、次の階層が存在しない選択肢が表示された状態において、判定部24がさらにピンチアウト操作がされたと判定した場合、その選択肢に割り付けられた機能を定義する制御情報320とに基づいて、車両6に搭載されたシート位置調整装置、空調装置、ナビゲーション装置、オーディオ装置、視界確保装置及び運転支援装置等の電子機器を制御する。また、制御部32は、例えば、マイクロコンピュータ20の各部を制御する。例えば、階層S2の「スライド」を示す選択肢s11に対応する階層S3の「+」、「−」を示す選択肢s31、s32が表示された状態においてピンチアウトがなされると、制御部32は、シート位置調整装置に対しシートを「+」方向、「−」方向にスライドするよう指示する。
In addition, when the
(実施の形態の効果)
上記した実施の形態によると、表示画像情報260の階層S1の選択肢(例えば、s11)に対応した下位の階層S2の選択肢(例えば、s21〜s26)が対応した領域に配置され、タッチセンサ部12に対する操作に応じて表示領域A1が階層S1、S2間を移動するよう構成し、また、各階層上を自由に移動可能としたため、上位階層で選択した選択肢と異なる選択肢に属する下位の選択肢を探す場合に上位階層に一旦戻ることなく辿り着くことができる。つまり、階層毎に選択肢が表示される場合に所望の選択肢に辿り着くための操作手順を減少することができる。
(Effect of embodiment)
According to the above-described embodiment, the options (for example, s21 to s26) of the lower layer S2 corresponding to the options (for example, s11) of the layer S1 of the display image information 260 are arranged in the region corresponding to the
また、階層S2において、カテゴリ分けが曖昧な「シートヒータ」等を示す選択肢を上位階層の選択肢である「シート」と「エアコン」との境界付近の領域対応する位置に配置することで利用者が所望の選択肢に辿り着くのに要する操作手順を減少することができる。 Also, in the hierarchy S2, the user can arrange the option indicating “seat heater” or the like whose category is ambiguous at a position corresponding to the region near the boundary between the “seat” and “air conditioner” that are the options in the upper hierarchy. It is possible to reduce the operating procedure required to reach the desired option.
なお、本発明は、上記した実施の形態に限定されず、本発明の技術思想を逸脱あるいは調整しない範囲内で種々の変形が可能である。例えば、判定部24が判定する操作は、ドラッグ操作、ピンチアウト操作、ピンチイン操作等に限らずタッチセンサ部12に入力可能な操作であればその種類を問わない。また、実施の形態において説明した判定部24の判定と、表示領域A1の移動、拡大・縮小等との対応付けは一例であり、その対応付けは任意に変更可能である。また、タッチセンサ部12に代えて、十字キーや決定ボタン等を用いてもよい。
The present invention is not limited to the above-described embodiment, and various modifications can be made without departing from or adjusting the technical idea of the present invention. For example, the operation determined by the
1…表示入力装置、6…車両、12…タッチセンサ部、14…表示部、20…マイクロコンピュータ、22…表示コントローラ、24…判定部、26…表示画像生成部、32…制御部、34…センサコントローラ、36…クロック信号生成部、38…メモリ、40…通信部、60…センターコンソール、62…メータパネル、63…ステアリングホイール、64…シフトレバー、120…カバー、121…検出面、122…第1の電極、123…第2の電極、124…駆動部、125…タッチ検出部、140…表示画面、260…表示画像情報、320…制御情報、380…接続機器情報
DESCRIPTION OF
Claims (3)
操作内容を検出して少なくとも第1の検出信号及び第2の検出信号を出力する操作部と、
表示画像を表示する表示部と、
前記記憶部に記憶された前記表示画像情報のうち前記表示部に表示される表示画像の領域を示す表示領域を、前記操作部が出力した前記第1の検出信号に基づいて階層上において座標移動させ、又は前記第2の検出信号に基づいて同一座標において隣り合う階層へ移動させ、移動させた結果としての当該表示領域に基づいて前記表示部に表示する表示画像を生成する表示画像生成部とを有する表示入力装置。 A storage unit that stores a plurality of layers having a plurality of option images, and stores display image information associated with coordinates of adjacent layers in which coordinates of each layer are adjacent;
An operation unit for detecting operation content and outputting at least a first detection signal and a second detection signal;
A display unit for displaying a display image;
The display area indicating the area of the display image displayed on the display section of the display image information stored in the storage section is moved on the hierarchy based on the first detection signal output by the operation section. Or a display image generation unit that generates a display image to be displayed on the display unit based on the display area as a result of the movement to an adjacent hierarchy at the same coordinates based on the second detection signal. A display input device.
前記操作部が出力した前記第3の検出信号に基づいて、前記表示部に表示された表示画像に含まれる選択肢画像に関連付けられた制御信号を出力する制御部をさらに有する請求項1に記載の表示入力装置。 The operation unit detects an operation content and outputs a third detection signal,
The control unit according to claim 1, further comprising: a control unit that outputs a control signal associated with an option image included in a display image displayed on the display unit based on the third detection signal output from the operation unit. Display input device.
前記表示画像生成部は、前記操作部が出力する前記第4の検出信号に基づいて前記表示領域を拡大又は縮小する請求項1に記載の表示入力装置。 The operation unit detects an operation content and outputs a fourth detection signal,
The display input device according to claim 1, wherein the display image generation unit enlarges or reduces the display area based on the fourth detection signal output from the operation unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011128029A JP2012256147A (en) | 2011-06-08 | 2011-06-08 | Display input device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011128029A JP2012256147A (en) | 2011-06-08 | 2011-06-08 | Display input device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012256147A true JP2012256147A (en) | 2012-12-27 |
Family
ID=47527669
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011128029A Withdrawn JP2012256147A (en) | 2011-06-08 | 2011-06-08 | Display input device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012256147A (en) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014530395A (en) * | 2011-09-09 | 2014-11-17 | マイクロソフト コーポレーション | Semantic zoom gesture |
JP2014531646A (en) * | 2011-09-09 | 2014-11-27 | マイクロソフト コーポレーション | Semantic zoom animation |
US9229918B2 (en) | 2010-12-23 | 2016-01-05 | Microsoft Technology Licensing, Llc | Presenting an application change through a tile |
US9244802B2 (en) | 2011-09-10 | 2016-01-26 | Microsoft Technology Licensing, Llc | Resource user interface |
US9383917B2 (en) | 2011-03-28 | 2016-07-05 | Microsoft Technology Licensing, Llc | Predictive tiling |
US9423951B2 (en) | 2010-12-31 | 2016-08-23 | Microsoft Technology Licensing, Llc | Content-based snap point |
US9535597B2 (en) | 2011-05-27 | 2017-01-03 | Microsoft Technology Licensing, Llc | Managing an immersive interface in a multi-application immersive environment |
CN106325734A (en) * | 2015-07-03 | 2017-01-11 | 威斯通全球技术公司 | Multifunctional operating device and method for operating a multifunctional operating device |
US9557909B2 (en) | 2011-09-09 | 2017-01-31 | Microsoft Technology Licensing, Llc | Semantic zoom linguistic helpers |
US9645667B2 (en) | 2013-09-21 | 2017-05-09 | Kabushiki Kaisha Toyota Jidoshokki | Touch switch module which performs multiple functions based on a touch time |
US9665384B2 (en) | 2005-08-30 | 2017-05-30 | Microsoft Technology Licensing, Llc | Aggregation of computing device settings |
US9696888B2 (en) | 2010-12-20 | 2017-07-04 | Microsoft Technology Licensing, Llc | Application-launching interface for multiple modes |
US9766790B2 (en) | 2010-12-23 | 2017-09-19 | Microsoft Technology Licensing, Llc | Application reporting in an application-selectable user interface |
US10114865B2 (en) | 2011-09-09 | 2018-10-30 | Microsoft Technology Licensing, Llc | Tile cache |
US10254955B2 (en) | 2011-09-10 | 2019-04-09 | Microsoft Technology Licensing, Llc | Progressively indicating new content in an application-selectable user interface |
US10303325B2 (en) | 2011-05-27 | 2019-05-28 | Microsoft Technology Licensing, Llc | Multi-application environment |
US10579250B2 (en) | 2011-09-01 | 2020-03-03 | Microsoft Technology Licensing, Llc | Arranging tiles |
-
2011
- 2011-06-08 JP JP2011128029A patent/JP2012256147A/en not_active Withdrawn
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9665384B2 (en) | 2005-08-30 | 2017-05-30 | Microsoft Technology Licensing, Llc | Aggregation of computing device settings |
US9696888B2 (en) | 2010-12-20 | 2017-07-04 | Microsoft Technology Licensing, Llc | Application-launching interface for multiple modes |
US11126333B2 (en) | 2010-12-23 | 2021-09-21 | Microsoft Technology Licensing, Llc | Application reporting in an application-selectable user interface |
US9229918B2 (en) | 2010-12-23 | 2016-01-05 | Microsoft Technology Licensing, Llc | Presenting an application change through a tile |
US10969944B2 (en) | 2010-12-23 | 2021-04-06 | Microsoft Technology Licensing, Llc | Application reporting in an application-selectable user interface |
US9870132B2 (en) | 2010-12-23 | 2018-01-16 | Microsoft Technology Licensing, Llc | Application reporting in an application-selectable user interface |
US9864494B2 (en) | 2010-12-23 | 2018-01-09 | Microsoft Technology Licensing, Llc | Application reporting in an application-selectable user interface |
US9766790B2 (en) | 2010-12-23 | 2017-09-19 | Microsoft Technology Licensing, Llc | Application reporting in an application-selectable user interface |
US9423951B2 (en) | 2010-12-31 | 2016-08-23 | Microsoft Technology Licensing, Llc | Content-based snap point |
US9383917B2 (en) | 2011-03-28 | 2016-07-05 | Microsoft Technology Licensing, Llc | Predictive tiling |
US9535597B2 (en) | 2011-05-27 | 2017-01-03 | Microsoft Technology Licensing, Llc | Managing an immersive interface in a multi-application immersive environment |
US11698721B2 (en) | 2011-05-27 | 2023-07-11 | Microsoft Technology Licensing, Llc | Managing an immersive interface in a multi-application immersive environment |
US10303325B2 (en) | 2011-05-27 | 2019-05-28 | Microsoft Technology Licensing, Llc | Multi-application environment |
US10579250B2 (en) | 2011-09-01 | 2020-03-03 | Microsoft Technology Licensing, Llc | Arranging tiles |
US10353566B2 (en) | 2011-09-09 | 2019-07-16 | Microsoft Technology Licensing, Llc | Semantic zoom animations |
US9557909B2 (en) | 2011-09-09 | 2017-01-31 | Microsoft Technology Licensing, Llc | Semantic zoom linguistic helpers |
JP2014531646A (en) * | 2011-09-09 | 2014-11-27 | マイクロソフト コーポレーション | Semantic zoom animation |
JP2014530395A (en) * | 2011-09-09 | 2014-11-17 | マイクロソフト コーポレーション | Semantic zoom gesture |
US10114865B2 (en) | 2011-09-09 | 2018-10-30 | Microsoft Technology Licensing, Llc | Tile cache |
US10254955B2 (en) | 2011-09-10 | 2019-04-09 | Microsoft Technology Licensing, Llc | Progressively indicating new content in an application-selectable user interface |
US9244802B2 (en) | 2011-09-10 | 2016-01-26 | Microsoft Technology Licensing, Llc | Resource user interface |
US9645667B2 (en) | 2013-09-21 | 2017-05-09 | Kabushiki Kaisha Toyota Jidoshokki | Touch switch module which performs multiple functions based on a touch time |
CN106325734A (en) * | 2015-07-03 | 2017-01-11 | 威斯通全球技术公司 | Multifunctional operating device and method for operating a multifunctional operating device |
JP2017016664A (en) * | 2015-07-03 | 2017-01-19 | ビステオン グローバル テクノロジーズ インコーポレイテッド | Multifunctional operation device and method for operating multifunctional operation device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2012256147A (en) | Display input device | |
US10037091B2 (en) | System and method for providing absolute coordinate and zone mapping between a touchpad and a display screen | |
US11307756B2 (en) | System and method for presenting moving graphic animations in inactive and active states | |
US20140062946A1 (en) | Systems and methods for enhanced display images | |
US8558806B2 (en) | Information processing apparatus, information processing method, and program | |
KR102355683B1 (en) | Assembly of a graphical user interface in a vehicle and method of providing a graphical user interface to a vehicle | |
JP2015151035A (en) | Operation input device and air conditioner using the same | |
US20110134071A1 (en) | Display apparatus and touch sensing method | |
JP5852592B2 (en) | Touch operation type input device | |
JP2017121866A (en) | Air conditioning control device | |
JP5558418B2 (en) | Display input device | |
KR20140039871A (en) | Touch screen device and electronic device using the same | |
EP2818988A2 (en) | Electronic device and touch sensing method thereof | |
JP2012212240A (en) | Touch panel system | |
JP5985829B2 (en) | Vehicle control device | |
JP2012212318A (en) | Navigation device | |
JP2018128968A (en) | Input device for vehicle and control method for input device for vehicle | |
JP5734829B2 (en) | Display input device | |
JP2013073426A (en) | Display input device | |
JP2018124811A (en) | Operation device | |
JP7001368B2 (en) | Operation device | |
JP2017004405A (en) | Operation device | |
CN108073311B (en) | System and method for providing absolute sum zone coordinate mapping in graphical animation | |
JP2016170500A (en) | Operation input device | |
JP2013109607A (en) | Display input device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140902 |