JP2012256147A - Display input device - Google Patents

Display input device Download PDF

Info

Publication number
JP2012256147A
JP2012256147A JP2011128029A JP2011128029A JP2012256147A JP 2012256147 A JP2012256147 A JP 2012256147A JP 2011128029 A JP2011128029 A JP 2011128029A JP 2011128029 A JP2011128029 A JP 2011128029A JP 2012256147 A JP2012256147 A JP 2012256147A
Authority
JP
Japan
Prior art keywords
display
unit
display image
hierarchy
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011128029A
Other languages
Japanese (ja)
Inventor
Tsuneyuki Yamamoto
恒行 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokai Rika Co Ltd
Original Assignee
Tokai Rika Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokai Rika Co Ltd filed Critical Tokai Rika Co Ltd
Priority to JP2011128029A priority Critical patent/JP2012256147A/en
Publication of JP2012256147A publication Critical patent/JP2012256147A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a display input device capable of reducing operation procedures to reach a desired option in the case where options are displayed hierarchy-by-hierarchy.SOLUTION: A display input device 1 comprising hierarchies S1, S2, S3 ... each having a plurality of optional images includes: a storage unit on a microcomputer 20 for storing display image information 260 in which coordinates of each of the hierarchies S1, S2, S3 ... are mapped to coordinates of each adjacent hierarchy; a touch sensor 12 as an operation unit for detecting operation contents to output a detection signal; a display unit 14 for displaying a display image; and a display image generation unit 26 in which a display region A1, showing a region of a display image displayed on the display unit 14 out of the display image information 260 stored in the storage unit, is coordinately moved on the hierarchy on the basis of the detection signal output by the touch sensor 12 or is moved to an adjacent hierarchy within the same coordinate and, on the basis of the display region as a result of the movement, a display image to be displayed on the display unit 14 is generated.

Description

本発明は、表示入力装置に関する。   The present invention relates to a display input device.

従来の技術として、利用者の意思決定が入力されなくても表示中の選択肢に属する下位の階層の選択肢を表示する表示入力装置がある(例えば、特許文献1参照)。   As a conventional technique, there is a display input device that displays lower hierarchy options belonging to a displayed option even if a user's decision is not input (see, for example, Patent Document 1).

この表示入力装置は、表示装置と、表示装置上に配置されて利用者の指等の接触位置を検出する接触位置検出手段と、ツリー構造を有する複数の選択肢のうちある上位階層の選択肢が表示されている場合に接触位置に対応する上位階層の選択肢に属する下位階層の選択肢を表示する表示制御手段と、利用者の指等が接触位置検出手段の前方の空間に接近したことを検出するセンサとを有し、表示制御手段は、センサによって指等が表示装置に表示された上位階層の選択肢に近接したことが検出された場合、当該選択肢の下位階層の選択肢を表示装置に表示する。   This display input device displays a display device, contact position detection means for detecting a contact position of a user's finger or the like arranged on the display device, and a higher-level option among a plurality of options having a tree structure. Display control means for displaying lower-layer options belonging to upper-layer options corresponding to the contact position, and a sensor for detecting that the user's finger or the like has approached the space in front of the contact position detection means When the sensor detects that a finger or the like is close to an option on the upper layer displayed on the display device, the display control means displays the option on the lower layer of the option on the display device.

この表示入力装置によれば、利用者による意思決定が入力されなくても下位の階層を表示するため、意思決定を入力する前に下位の階層の内容を確認して、所望の下位階層の選択肢を含む上位階層を決定することができる。   According to this display input device, in order to display the lower hierarchy even if the decision by the user is not input, the contents of the lower hierarchy are confirmed before inputting the decision, and the desired lower hierarchy option is selected. Can be determined.

特開2010−19643号公報JP 2010-19643 A

しかし、特許文献1に示す表示入力装置は、決定した上位階層に属する下位階層の選択肢を表示中に、当該選択肢以外の選択肢に辿り付くためには、再び上位階層を一覧する表示形態に戻り、該当する上位階層の選択肢を選択する必要があった。   However, the display input device shown in Patent Document 1 returns to the display form that lists the upper hierarchy again in order to reach the alternatives other than the option while displaying the lower hierarchy options belonging to the determined upper hierarchy, It was necessary to select the appropriate upper-layer option.

従って、本発明の目的は、階層毎に選択肢が表示される場合に所望の選択肢に辿り着くための操作手順を減少することができる表示入力装置を提供することにある。   Therefore, an object of the present invention is to provide a display input device that can reduce an operation procedure for reaching a desired option when the option is displayed for each layer.

本発明の一態様は、複数の選択肢画像を有する階層を複数有し、各階層の座標が隣り合う階層の座標と対応付けられた表示画像情報を記憶する記憶部と、操作内容を検出して少なくとも第1の検出信号及び第2の検出信号を出力する操作部と、表示画像を表示する表示部と、前記記憶部に記憶された前記表示画像情報のうち前記表示部に表示される表示画像の領域を示す表示領域を、前記操作部が出力した前記第1の検出信号に基づいて階層上において座標移動させ、又は前記第2の検出信号に基づいて同一座標において隣り合う階層へ移動させ、移動させた結果としての当該表示領域に基づいて前記表示部に表示する表示画像を生成する表示画像生成部とを有する表示入力装置を提供する。   One embodiment of the present invention has a plurality of hierarchies having a plurality of option images, a storage unit that stores display image information associated with the coordinates of adjacent hierarchies, and the operation content is detected. An operation unit that outputs at least a first detection signal and a second detection signal, a display unit that displays a display image, and a display image displayed on the display unit among the display image information stored in the storage unit The display area indicating the area is moved on the hierarchy on the basis of the first detection signal output by the operation unit, or moved to the adjacent hierarchy on the same coordinate based on the second detection signal, Provided is a display input device including a display image generation unit that generates a display image to be displayed on the display unit based on the display area as a result of the movement.

上記表示入力装置の操作部は、操作内容を検出して第3の検出信号を出力し、上記表示入力装置は、前記操作部が出力した第3の検出信号に基づいて、前記表示部に表示された表示画像に含まれる選択肢画像に関連付けられた制御信号を出力する制御部をさらに有させてもよい。   The operation unit of the display input device detects the operation content and outputs a third detection signal, and the display input device displays on the display unit based on the third detection signal output by the operation unit. You may further have a control part which outputs the control signal linked | related with the choice image contained in the displayed image.

上記表示入力装置の操作部は、操作内容を検出して第4の検出信号を出力し、上記表示画像生成部は、前記操作部が出力する第4の検出信号に基づいて前記表示領域を拡大又は縮小してもよい。   The operation unit of the display input device detects an operation content and outputs a fourth detection signal, and the display image generation unit enlarges the display area based on the fourth detection signal output by the operation unit. Or you may reduce.

本発明によれば、階層毎に選択肢が表示される場合に所望の選択肢に辿り着くための操作手順を減少することができる。   ADVANTAGE OF THE INVENTION According to this invention, when the choice is displayed for every hierarchy, the operation procedure for reaching a desired choice can be reduced.

図1は、実施の形態に係る表示入力装置が搭載された車両内の構成の一例を示す概略図である。FIG. 1 is a schematic diagram illustrating an example of a configuration inside a vehicle in which the display input device according to the embodiment is mounted. 図2は、実施の形態に係る表示入力装置の構成の一例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of the configuration of the display input device according to the embodiment. 図3は、実施の形態に係る表示画像情報の構成の一例を示す概略図である。FIG. 3 is a schematic diagram illustrating an example of a configuration of display image information according to the embodiment. 図4(a)〜(c)は、実施の形態におけるタッチセンサ部に対する代表的な操作例を示す概略図である。4A to 4C are schematic diagrams illustrating a typical operation example with respect to the touch sensor unit in the embodiment. 図5Aは、表示画面に表示される表示画像と、表示画像情報と、表示領域と、判定部が判定した操作内容との関係から表示入力装置の動作の一例を説明するための概略図である。FIG. 5A is a schematic diagram for explaining an example of the operation of the display input device based on the relationship between the display image displayed on the display screen, the display image information, the display area, and the operation content determined by the determination unit. . 図5Bは、表示画面に表示される表示画像と、表示画像情報と、表示領域と、判定部が判定した操作内容との関係から表示入力装置の動作の一例を説明するための概略図である。FIG. 5B is a schematic diagram for explaining an example of the operation of the display input device based on the relationship between the display image displayed on the display screen, the display image information, the display area, and the operation content determined by the determination unit. .

(表示入力装置の構成)
図1は、実施の形態に係る表示入力装置が搭載された車両内の構成の一例を示す概略図である。
(Configuration of display input device)
FIG. 1 is a schematic diagram illustrating an example of a configuration inside a vehicle in which the display input device according to the embodiment is mounted.

この表示入力装置1は、車両6に搭載されたシート位置調整装置、空調装置、ナビゲーション装置、オーディオ装置、視界確保装置及び運転支援装置等の電子機器の操作、並びに文字等の入力を行うことができるものである。   The display input device 1 can operate electronic devices such as a seat position adjustment device, an air conditioning device, a navigation device, an audio device, a view securing device, and a driving support device mounted on the vehicle 6, and input characters and the like. It can be done.

表示入力装置1の表示部14aは、例えば、図1に示すように、運転席と助手席の間であり、垂直方向に設けられたセンターコンソール60に配置されている。また、表示部14aに対応したタッチセンサ部12aは、シフトレバー64付近に配置されている。   For example, as shown in FIG. 1, the display unit 14 a of the display input device 1 is disposed between a driver seat and a passenger seat, and is disposed on a center console 60 provided in a vertical direction. The touch sensor unit 12a corresponding to the display unit 14a is disposed in the vicinity of the shift lever 64.

また、表示入力装置1の表示部14bは、メータパネル62等のサブモニタとして配置され、表示部14bに対応したタッチセンサ部12bは、ステアリングホイール63上に配置される。   The display unit 14 b of the display input device 1 is arranged as a sub monitor such as the meter panel 62, and the touch sensor unit 12 b corresponding to the display unit 14 b is arranged on the steering wheel 63.

図2は、実施の形態に係る表示入力装置の構成の一例を示すブロック図である。   FIG. 2 is a block diagram illustrating an example of the configuration of the display input device according to the embodiment.

この表示入力装置1は、画像や文字等を表示する表示部14a、14b(以下、表示部14として記載する。)と、表示部14a、14bにそれぞれ対応し、なされた操作に基づく検出信号を出力する検出部としてのタッチセンサ部12a、12b(以下、タッチセンサ部12として記載する。)と、タッチセンサ部12から出力された検出信号に基づいてなされた操作を判定する判定部24と、判定部24により行われた画像の配置を変更する操作の判定に基づいて、マイクロコンピュータ20上の記憶部に記憶された表示画像情報260に基づいて複数の画像の少なくとも1つの画像の配置を変更して表示部14に表示させる表示画像を生成する表示画像生成部26と、制御情報320に基づいて、表示画像に割り付けられた機能を実行する制御部32と、を備えて概略構成されている。   The display input device 1 corresponds to the display units 14a and 14b (hereinafter referred to as the display unit 14) for displaying images, characters, and the like, and the display units 14a and 14b, and detects detection signals based on the operations performed. Touch sensor units 12a and 12b (hereinafter referred to as touch sensor unit 12) as detection units to be output, and a determination unit 24 that determines an operation performed based on a detection signal output from the touch sensor unit 12, Based on the display image information 260 stored in the storage unit on the microcomputer 20, the arrangement of at least one of the plurality of images is changed based on the determination of the operation for changing the arrangement of the images performed by the determination unit 24. The display image generation unit 26 that generates a display image to be displayed on the display unit 14 and the function assigned to the display image based on the control information 320 are executed. A control unit 32, comprises a are schematic configuration that.

(タッチセンサ部12の構成)
タッチセンサ部12は、例えば、操作者の体の一部(例えば、指)でカバー120の検出面121に触れた場合、触れた検出面121上の位置を検出するタッチセンサである。操作者は、例えば、検出面121に操作を行うことにより、接続された電子機器の操作及び入力を行うことが可能となる。タッチセンサ部12としては、例えば、周知の抵抗膜方式、赤外線方式、SAW方式、静電容量方式等のタッチパネルを用いることが可能である。
(Configuration of touch sensor unit 12)
The touch sensor unit 12 is, for example, a touch sensor that detects a position on the touched detection surface 121 when the detection surface 121 of the cover 120 is touched with a part of the operator's body (for example, a finger). For example, the operator can operate and input the connected electronic device by operating the detection surface 121. As the touch sensor unit 12, for example, a well-known resistive film type, infrared type, SAW type, capacitance type touch panel, or the like can be used.

本実施の形態に係るタッチセンサ部12は、例えば、検出面121に指が近づくことによる、第1の電極122及び第2の電極123と指との距離に反比例した電流の変化を検出信号として出力する静電容量方式のタッチセンサである。   For example, the touch sensor unit 12 according to the present embodiment uses, as a detection signal, a change in current that is inversely proportional to the distance between the first electrode 122 and the second electrode 123 and the finger due to the finger approaching the detection surface 121. It is a capacitive touch sensor that outputs.

このタッチセンサ部12は、例えば、図2に示すように、カバー120と、第1の電極122及び第2の電極123と、を備えて概略構成されている。   For example, as shown in FIG. 2, the touch sensor unit 12 includes a cover 120, and a first electrode 122 and a second electrode 123.

カバー120は、例えば、PET(Polyethylene terephthalate)又はガラスを用いて、板状に形成される。   The cover 120 is formed in a plate shape using, for example, PET (Polyethylene terephthalate) or glass.

第1の電極122及び第2の電極123は、例えば、ITO(スズドープ酸化インジウム:Indium Tin Oxide)を用いて、カバー120に形成される。   The first electrode 122 and the second electrode 123 are formed on the cover 120 using, for example, ITO (Indium Tin Oxide).

第1の電極122及び第2の電極123は、例えば、図2に示すように、紙面の縦方向及び横方向に沿って並んでいる。本実施の形態では、図2の紙面の横方向をx軸、縦方向をy軸とし、タッチセンサ部12の左上を原点としている。   For example, as shown in FIG. 2, the first electrode 122 and the second electrode 123 are arranged along the vertical direction and the horizontal direction of the paper surface. In the present embodiment, the horizontal direction in FIG. 2 is the x axis, the vertical direction is the y axis, and the upper left of the touch sensor unit 12 is the origin.

x軸方向には、例えば、m個の第2の電極123が等間隔で並んでいる。このmは、例えば、正の整数である。この第2の電極123は、例えば、タッチ検出部125と接続され、タッチ検出部125は、クロック信号に応じて順番に第2の電極123に接続して静電容量を読み出す。   In the x-axis direction, for example, m second electrodes 123 are arranged at equal intervals. This m is, for example, a positive integer. For example, the second electrode 123 is connected to the touch detection unit 125, and the touch detection unit 125 sequentially connects to the second electrode 123 according to the clock signal and reads the capacitance.

y軸方向には、例えば、n個の第1の電極122が等間隔で並んでいる。このnは、例えば、正の整数である。この第1の電極122は、例えば、駆動部124と接続され、駆動部124は、クロック信号生成部36が生成するクロック信号に応じて順番に電圧を供給する。この電圧は、例えば、図2に示すように、車両6の電源より供給、あるいは、表示入力装置1の動作に必要な電圧に調整されて供給される。   In the y-axis direction, for example, n first electrodes 122 are arranged at equal intervals. This n is, for example, a positive integer. The first electrode 122 is connected to, for example, the drive unit 124, and the drive unit 124 supplies a voltage in order according to the clock signal generated by the clock signal generation unit 36. For example, as shown in FIG. 2, this voltage is supplied from the power source of the vehicle 6 or adjusted to a voltage necessary for the operation of the display input device 1.

y軸に平行に並べられた第2の電極123は、例えば、x軸に平行に並べられた第1の電極122よりも検出面121に近い層に形成されている。また、第1の電極122は、例えば、第2の電極123と電気的に絶縁されている。   For example, the second electrodes 123 arranged in parallel to the y-axis are formed in a layer closer to the detection surface 121 than the first electrodes 122 arranged in parallel to the x-axis. Further, the first electrode 122 is electrically insulated from the second electrode 123, for example.

ここで、x軸の座標は、xに下付きの数字(1〜m)を付して、左から右に向かってx〜xと示すものとする。また、y軸の座標は、yに下付きの数字(1〜n)を付して、上から下に向かってy〜yと示すものとする。 Here, the coordinates of the x-axis are indicated by x 1 to x m from the left to the right, with subscript numbers ( 1 to m ) added to x. The coordinates of the y-axis is denoted by the subscript numbers (1 to n) to y, from top to bottom and indicates the y 1 ~y n.

具体的には、駆動部124は、例えば、第1の電極122のy〜yの順番で電圧を供給する。また、タッチ検出部125は、例えば、第2の電極123のx〜xの順番に静電容量を読み出すように構成されている。 Specifically, the drive unit 124 is, for example, supplies a voltage in the order of y 1 ~y n of the first electrode 122. In addition, the touch detection unit 125 is configured to read out the capacitance in the order of x 1 to x m of the second electrode 123, for example.

タッチ検出部125は、例えば、読み出した各第2の電極123の静電容量の値(静電容量値)に基づいて、座標値(xの静電容量値、yの静電容量値、t)を生成し、検出信号としてセンサコントローラ34に出力するように構成されている。なお、時間tは、例えば、クロック信号が出力された時刻を示している。 The touch detection unit 125, for example, on the basis of the read value of the capacitance of each of the second electrode 123 (capacitance value), the coordinate values (capacitance value of x m, the capacitance value of y n , T) is generated and output to the sensor controller 34 as a detection signal. The time t indicates, for example, the time when the clock signal is output.

(表示部14の構成)
表示部14は、例えば、TFT(Thin Film Transistor)型等の周知の液晶ディスプレイである。この表示部14は、例えば、マイクロコンピュータ20の表示コントローラ22に接続され、表示コントローラ22から出力される表示信号に基づいて表示画面140に画像を表示させる。
(Configuration of display unit 14)
The display unit 14 is a known liquid crystal display such as a TFT (Thin Film Transistor) type. For example, the display unit 14 is connected to the display controller 22 of the microcomputer 20 and displays an image on the display screen 140 based on a display signal output from the display controller 22.

(マイクロコンピュータ20の構成)
マイクロコンピュータ20は、例えば、プログラムに従って、取得したデータに演算、加工等を行うCPU、半導体メモリであるRAM(Random Access Memory)及びROM(Read Only Memory)等から構成される。このROMには、例えば、CPUが動作するためのプログラム等が格納されている。RAMは、例えば、一時的に演算結果等を格納する記憶領域として用いられる。
(Configuration of microcomputer 20)
The microcomputer 20 includes, for example, a CPU that performs operations and processing on acquired data according to a program, a RAM (Random Access Memory) that is a semiconductor memory, a ROM (Read Only Memory), and the like. For example, a program for operating the CPU is stored in the ROM. For example, the RAM is used as a storage area for temporarily storing calculation results and the like.

マイクロコンピュータ20は、例えば、図2に示すように、表示コントローラ22と、判定部24と、表示画像生成部26と、制御部32と、センサコントローラ34と、クロック信号生成部36と、を備えて概略構成されている。   For example, as shown in FIG. 2, the microcomputer 20 includes a display controller 22, a determination unit 24, a display image generation unit 26, a control unit 32, a sensor controller 34, and a clock signal generation unit 36. It is roughly structured.

表示コントローラ22は、例えば、表示画像生成部26から出力された表示画像情報260に基づいて表示信号を生成し、表示信号に基づいた画像を表示部14に表示させるように構成されている。   For example, the display controller 22 is configured to generate a display signal based on the display image information 260 output from the display image generation unit 26 and display an image based on the display signal on the display unit 14.

判定部24は、例えば、タッチセンサ部12のタッチ検出部125から取得した検出信号に基づいた座標値から、指が接触、又は近づいた座標を算出する。この座標の算出方法は、例えば、加重平均を用いた方法等の周知の方法が用いられる。そして、判定部24は、算出した少なくとも1つの座標の時間変化から、ドラッグ操作、ピンチアウト操作、ピンチイン操作、タッチ操作、タップ操作及び長押操作等の操作を判定する。   The determination unit 24 calculates, for example, the coordinates at which the finger touches or approaches from the coordinate value based on the detection signal acquired from the touch detection unit 125 of the touch sensor unit 12. As the calculation method of the coordinates, for example, a known method such as a method using a weighted average is used. Then, the determination unit 24 determines operations such as a drag operation, a pinch-out operation, a pinch-in operation, a touch operation, a tap operation, and a long press operation from the calculated time change of at least one coordinate.

表示画像生成部26は、例えば、判定部24が判定した操作に基づいて表示部14に表示させる表示画像を生成するように構成されている。表示画像生成部26は、例えば、表示部14に表示させる表示画像の情報である表示画像情報260を生成して表示コントローラ22に出力する。なお、表示画像情報260は、例えば、表示画面140の全域に表示される背景画像の情報を含む。   The display image generation unit 26 is configured to generate a display image to be displayed on the display unit 14 based on the operation determined by the determination unit 24, for example. For example, the display image generation unit 26 generates display image information 260 that is information of a display image to be displayed on the display unit 14 and outputs the display image information 260 to the display controller 22. The display image information 260 includes, for example, background image information displayed on the entire display screen 140.

制御部32は、判定部24が判定した操作と、表示部14に表示された表示画像に割り付けられた機能を定義する制御情報320とに基づいて、車両6に搭載されたシート位置調整装置、空調装置、ナビゲーション装置、オーディオ装置、視界確保装置及び運転支援装置等の電子機器を制御する。また、制御部32は、例えば、マイクロコンピュータ20の各部を制御する。   The control unit 32 includes a seat position adjustment device mounted on the vehicle 6 based on the operation determined by the determination unit 24 and the control information 320 that defines the function assigned to the display image displayed on the display unit 14. It controls electronic devices such as air conditioners, navigation devices, audio devices, visibility securing devices, and driving support devices. Moreover, the control part 32 controls each part of the microcomputer 20, for example.

センサコントローラ34は、例えば、タッチセンサ部12を制御する。具体的には、供給する電圧の制御、供給時間の制御、静電容量の読み出しのタイミングの制御等を行うように構成されている。   For example, the sensor controller 34 controls the touch sensor unit 12. Specifically, it is configured to control the voltage to be supplied, control the supply time, control the readout timing of the capacitance, and the like.

クロック信号生成部36は、例えば、表示入力装置1の動作に必要なクロック信号を生成し、各部に供給している。   The clock signal generator 36 generates, for example, a clock signal necessary for the operation of the display input device 1 and supplies the clock signal to each unit.

メモリ38は、例えば、半導体メモリである。このメモリ38には、接続機器情報380が格納されている。この接続機器情報380は、表示入力装置1が接続される電子機器の情報である。この電子機器の情報とは、例えば、表示画面140に表示させる画像の情報、当該画像に割り付けられた機能の情報等である。なお、メモリ38は、例えば、マイクロコンピュータ20のROM等のメモリを用いて構成されても良い。また、長押操作により表示させる機能一覧が、電子機器に依存せず共通である場合は、機能一覧に関する共通の情報が格納される。   The memory 38 is a semiconductor memory, for example. The memory 38 stores connected device information 380. The connected device information 380 is information on an electronic device to which the display input device 1 is connected. The information on the electronic device is, for example, information on an image to be displayed on the display screen 140, information on a function assigned to the image, and the like. The memory 38 may be configured using a memory such as a ROM of the microcomputer 20, for example. When the function list displayed by the long press operation is common without depending on the electronic device, common information regarding the function list is stored.

通信部40は、例えば、接続された電子機器と通信可能となるように構成されている。接続機器情報380は、例えば、この通信部40を介してメモリ38に格納される。この通信部40は、例えば、有線又は無線により、電子機器と接続されている。   The communication unit 40 is configured to be able to communicate with a connected electronic device, for example. The connected device information 380 is stored in the memory 38 via the communication unit 40, for example. The communication unit 40 is connected to the electronic device by, for example, wired or wireless.

図3は、実施の形態に係る表示画像情報の構成の一例を示す概略図である。   FIG. 3 is a schematic diagram illustrating an example of a configuration of display image information according to the embodiment.

表示画像情報260は、複数の階層S1、S2、S3…から構成される。階層S1は、選択肢s11、s12、s13、s14、s15を有している。また、階層S2は、選択肢s21、s22、s23…を有しており、階層S3は、選択肢s31、s32、s33…を有している。   The display image information 260 includes a plurality of hierarchies S1, S2, S3,. The hierarchy S1 has options s11, s12, s13, s14, and s15. Further, the hierarchy S2 has options s21, s22, s23..., And the hierarchy S3 has options s31, s32, s33.

各階層S1、S2、S3…はツリー構造のように相互に関連しており、例えば、階層S2において、階層S1の選択肢s11に対応する領域に選択肢s21、s22、s23、s24、s25、s26がs11に属するように配置されている。また、階層S3において、階層S2の選択s21に対応する領域にs31、s32が配置されている。   The hierarchies S1, S2, S3,... Are related to each other like a tree structure. For example, in the hierarchy S2, options s21, s22, s23, s24, s25, s26 are provided in an area corresponding to the option s11 of the hierarchy S1. It is arranged so as to belong to s11. In the hierarchy S3, s31 and s32 are arranged in an area corresponding to the selection s21 of the hierarchy S2.

また、各階層S1、S2、S3…の同一の領域に配置された選択肢のうち、最も値の大きな階層に配置された選択肢には、制御情報320が割り当てられている。例えば、階層S2において、階層S1の選択肢s11に対応する領域に選択肢s21、s22、s23、s24、s25、s26が配置されているが、階層S3において、階層S2の選択肢s21に対応する領域に選択肢s31、s32がさらに配置されており、これより高い階層がない場合であるので、選択肢s31及びs32にそれぞれシートを「+」方向及び「−」方向にスライドさせる制御情報320が割り当てられている。   Further, among the options arranged in the same area of each hierarchy S1, S2, S3..., Control information 320 is assigned to the option arranged in the hierarchy having the largest value. For example, in the hierarchy S2, the options s21, s22, s23, s24, s25, and s26 are arranged in the area corresponding to the option s11 in the hierarchy S1, but the option in the area corresponding to the option s21 in the hierarchy S2 is arranged in the hierarchy S3. Since s31 and s32 are further arranged and there is no higher hierarchy, control information 320 for sliding the sheet in the “+” direction and the “−” direction is assigned to the options s31 and s32, respectively.

各階層S1、S2、S3…のうち、表示領域A1の部分が表示画面140に表示される。表示領域A1は、後述するドラッグ操作により移動可能であり、ピンチイン、ピンチアウト操作によってサイズが可変である。また、表示領域A1のサイズの下限及び上限を超えてピンチイン、ピンチアウトすることによって表示領域A1は、各階層S1、S2、S3…の間を移動する。詳しくは後述する動作の項目において説明する。   Of each hierarchy S1, S2, S3..., A portion of the display area A1 is displayed on the display screen 140. The display area A1 can be moved by a drag operation described later, and the size can be changed by a pinch-in and pinch-out operation. Further, the display area A1 moves between the layers S1, S2, S3... By pinching in and out beyond the lower limit and upper limit of the size of the display area A1. Details will be described in the item of operation described later.

図4(a)〜(c)は、実施の形態におけるタッチセンサ部に対する代表的な操作例を示す概略図である。   4A to 4C are schematic diagrams illustrating a typical operation example with respect to the touch sensor unit in the embodiment.

図4(a)に示す動作は、ドラッグと呼ばれる操作であり、例えば、利用者の手H1の任意の指を検出面121に接触させたまま移動させる操作を示す。   The operation shown in FIG. 4A is an operation called “drag”, for example, an operation of moving an arbitrary finger of the user's hand H1 while being in contact with the detection surface 121.

また、図4(b)に示す動作は、ピンチアウトと呼ばれる操作であり、利用者の手H1の任意の2本の指を検出面121に接触させたまま互いに遠ざかる方向に移動させる操作を示す。   The operation shown in FIG. 4B is an operation called “pinch out”, and shows an operation of moving any two fingers of the user's hand H1 away from each other while being in contact with the detection surface 121. .

また、図4(c)に示す動作は、ピンチインと呼ばれる操作であり、利用者の手H1の任意の2本の指を検出面121に接触させたまま互いに近づく方向に移動させる操作を示す。   The operation shown in FIG. 4C is an operation called pinch-in, and shows an operation of moving any two fingers of the user's hand H1 toward each other while keeping the detection surface 121 in contact.

その他、図示しないがタッチ操作、タップ操作及び長押操作等を用いることもできる。   In addition, although not shown, a touch operation, a tap operation, and a long press operation can also be used.

タッチ操作とは、例えば、指で検出面121に接触する操作を示す。タップ操作は、タッチ操作よりも短い時間で検出面121に接触する操作、言い換えれば、検出面121を叩くような操作を示す。また、タップ操作は、予め定められた時間内に複数回繰り返すことで、回数に応じた異なる機能を実行させることができる。例えば、1回のタップ操作は、マウスで行うクリックに相当する。また、例えば、連続する2回のタップ操作(ダブルタップ操作)は、マウスで行うダブルクリックに相当する。   The touch operation refers to an operation of touching the detection surface 121 with a finger, for example. The tap operation indicates an operation of touching the detection surface 121 in a shorter time than the touch operation, in other words, an operation of hitting the detection surface 121. Further, by repeating the tap operation a plurality of times within a predetermined time, different functions corresponding to the number of times can be executed. For example, one tap operation corresponds to a click performed with a mouse. In addition, for example, two consecutive tap operations (double tap operations) correspond to double clicks performed with a mouse.

長押操作とは、検出面121上を、予め定められた時間よりも長く接触し続ける操作である。この長押操作の判定は、例えば、マイクロコンピュータ20又はメモリ38に記憶された操作時間に関するしきい値と、長押操作が継続する時間と、を比較することにより行われる。判定部24は、例えば、操作がアイコン上になされ、かつ、操作が継続する時間がしきい値を超えるとき、長押操作がなされていると判定する。   The long press operation is an operation in which the detection surface 121 is kept in contact for a longer time than a predetermined time. This determination of the long press operation is performed, for example, by comparing the threshold value related to the operation time stored in the microcomputer 20 or the memory 38 with the time during which the long press operation continues. For example, when the operation is performed on the icon and the time for which the operation continues exceeds a threshold value, the determination unit 24 determines that the long press operation is performed.

(動作)
まず、車両6の電源から電圧Vが投入されると、マイクロコンピュータ20、タッチセンサ部12、表示部14等の各部に電力が供給される。
(Operation)
First, when the voltage V is input from the power source of the vehicle 6, power is supplied to each unit such as the microcomputer 20, the touch sensor unit 12, and the display unit 14.

次に、マイクロコンピュータ20の表示画像生成部26は、初期設定として表示領域A1が表示画像情報260の階層S1の全体となるように表示画像情報260を出力する。   Next, the display image generation unit 26 of the microcomputer 20 outputs the display image information 260 so that the display area A1 is the entire hierarchy S1 of the display image information 260 as an initial setting.

次に、表示コントローラ22は、表示画像生成部26から出力された表示画像情報260に基づいて表示信号を生成し、表示信号に基づいた画像を表示部14に表示させる。   Next, the display controller 22 generates a display signal based on the display image information 260 output from the display image generation unit 26 and causes the display unit 14 to display an image based on the display signal.

また、センサコントローラ34は、タッチセンサ部12に供給する電圧の制御、供給時間の制御、静電容量の読み出しのタイミングの制御等を行う。   In addition, the sensor controller 34 performs control of voltage supplied to the touch sensor unit 12, control of supply time, control of timing of readout of capacitance, and the like.

判定部24は、タッチセンサ部12のタッチ検出部125から取得した検出信号に基づいた座標値から、指が接触、又は近づいた座標を算出し、ドラッグ操作、ピンチアウト操作、ピンチイン操作、タッチ操作、タップ操作及び長押操作等の操作を判定する。   The determination unit 24 calculates the coordinates at which the finger touches or approaches from the coordinate value based on the detection signal acquired from the touch detection unit 125 of the touch sensor unit 12, and performs a drag operation, a pinch-out operation, a pinch-in operation, and a touch operation. The operation such as the tap operation and the long press operation is determined.

次に、表示画像生成部26は、判定部24が判定した操作に基づいて表示部14に表示させる表示画像を生成する。その具体的な動作の一例を以下に示す。   Next, the display image generation unit 26 generates a display image to be displayed on the display unit 14 based on the operation determined by the determination unit 24. An example of the specific operation is shown below.

図5A及び図5Bは、表示画面140に表示される表示画像A2と、表示画像情報260と、表示領域A1と、判定部24が判定した操作内容との関係から表示入力装置1の動作の一例を説明するための概略図である。   5A and 5B are examples of the operation of the display input device 1 based on the relationship between the display image A2 displayed on the display screen 140, the display image information 260, the display area A1, and the operation content determined by the determination unit 24. It is the schematic for demonstrating.

図5A(a)は、初期設定として表示画面140に表示される表示画像A2である。この場合、マイクロコンピュータ20の表示画像生成部26は、表示領域A1が表示画像情報260の階層S1の全体となるように表示画像情報260を出力している。   FIG. 5A (a) is a display image A2 displayed on the display screen 140 as an initial setting. In this case, the display image generation unit 26 of the microcomputer 20 outputs the display image information 260 so that the display area A1 is the entire hierarchy S1 of the display image information 260.

この表示画像A2が表示されている状態において、タッチセンサ部12に対して図4(a)に説明したドラッグ操作であって検出面121に対して右下に移動するものがなされると、判定部24は、タッチセンサ部12のタッチ検出部125から取得した検出信号に基づいて右下に移動するドラッグ操作であると判定する。   When the display image A2 is being displayed, if the drag operation described in FIG. 4A with respect to the touch sensor unit 12 moves to the lower right with respect to the detection surface 121, the determination is made. The unit 24 determines that the drag operation moves to the lower right based on the detection signal acquired from the touch detection unit 125 of the touch sensor unit 12.

次に、表示画像生成部26は、判定部24が判定したドラッグ操作に基づいて表示部14に表示させる表示画像情報として、図5A(b)に示すように、表示領域A1が表示画像情報260の階層S1の左上に移動した状態に対応する表示画像情報260を出力する。この結果、「シート」を示す選択肢s11が中央に位置する表示画像A2が表示画面140に表示される。   Next, as shown in FIG. 5A (b), the display image generation unit 26 displays the display image information 260 as display image information to be displayed on the display unit 14 based on the drag operation determined by the determination unit 24. The display image information 260 corresponding to the state moved to the upper left of the hierarchy S1 is output. As a result, the display image A2 in which the option s11 indicating “sheet” is located at the center is displayed on the display screen 140.

次に、図5A(b)に示す表示画像A2が表示されている状態において、タッチセンサ部12に対して図4(b)に説明したピンチアウト操作がなされると、判定部24は、タッチセンサ部12のタッチ検出部125から取得した検出信号に基づいてピンチアウト操作であると判定する。   Next, when the pinch-out operation described in FIG. 4B is performed on the touch sensor unit 12 in the state where the display image A2 illustrated in FIG. It is determined that the operation is a pinch-out operation based on the detection signal acquired from the touch detection unit 125 of the sensor unit 12.

次に、表示画像生成部26は、判定部24が判定したピンチアウト操作に基づいて表示部14に表示させる表示画像情報として、図5A(c)に示すように、表示領域A1が図5A(b)のものに比べて縮小された状態に対応する表示画像情報260を出力する。この結果、「シート」を示す選択肢s11が中央に位置し、図5A(b)のものに比べて拡大された表示画像A2が表示画面140に表示される。   Next, as shown in FIG. 5A (c), the display image generation unit 26 displays the display region A1 in FIG. 5A (FIG. 5A) as display image information to be displayed on the display unit 14 based on the pinch-out operation determined by the determination unit 24. The display image information 260 corresponding to a reduced state is output as compared with that in b). As a result, the option s11 indicating “sheet” is located at the center, and the display image A2 enlarged as compared with that in FIG. 5A (b) is displayed on the display screen 140.

次に、図5A(c)に示す表示画像A2が表示されている状態において、タッチセンサ部12に対してさらにピンチアウト操作がなされると、判定部24は、タッチセンサ部12のタッチ検出部125から取得した検出信号に基づいてピンチアウト操作であると判定する。   Next, in the state where the display image A2 shown in FIG. 5A (c) is displayed, when a further pinch-out operation is performed on the touch sensor unit 12, the determination unit 24 causes the touch detection unit of the touch sensor unit 12 to Based on the detection signal acquired from 125, it is determined that the operation is a pinch-out operation.

次に、表示画像生成部26は、判定部24が判定したピンチアウト操作に基づいて表示部14に表示させる表示画像情報として、A1をさらに縮小しようとするが、A1のサイズが下限値に達すると、図5B(a)に示すように、表示領域A1が階層S2に移動した状態に対応する表示画像情報260を出力する。この結果、「シート」に関連する「スライド」「リクライニング」「バーチカル」「ランバーサポート」「サイドサポート」「シートメモリ」等の選択肢s21〜s26が表示された表示画像A2が表示画面140に表示される。   Next, the display image generation unit 26 tries to further reduce A1 as display image information to be displayed on the display unit 14 based on the pinch-out operation determined by the determination unit 24, but the size of A1 reaches the lower limit value. Then, as shown in FIG. 5B (a), display image information 260 corresponding to the state in which the display area A1 has moved to the hierarchy S2 is output. As a result, the display image A2 on which the options s21 to s26 such as “slide”, “reclining”, “vertical”, “lumbar support”, “side support”, and “sheet memory” related to “seat” are displayed is displayed on the display screen 140. .

次に、図5B(a)に示す表示画像A2が表示されている状態において、タッチセンサ部12に対してドラッグ操作であって検出面121に対して左に移動するものがなされると、判定部24は、タッチセンサ部12のタッチ検出部125から取得した検出信号に基づいてドラッグ操作であると判定する。   Next, in the state where the display image A2 shown in FIG. 5B (a) is displayed, if the touch sensor unit 12 is a drag operation and moves to the left with respect to the detection surface 121, the determination is made. The unit 24 determines that the operation is a drag operation based on the detection signal acquired from the touch detection unit 125 of the touch sensor unit 12.

次に、表示画像生成部26は、判定部24が判定したドラッグ操作に基づいて表示部14に表示させる表示画像情報として、図5B(b)に示すように、表示領域A1が階層S2上を右に移動した状態に対応する表示画像情報260を出力する。この結果、階層S1の「エアコン」に関連する階層S2の「温度」「風量」「吹出し口」「シートヒータ」「A/C」「AUTO」等の選択肢s27〜s212が表示された表示画像A2が表示画面140に表示される。   Next, as shown in FIG. 5B (b), the display image generation unit 26 displays the display area A1 on the hierarchy S2 as display image information to be displayed on the display unit 14 based on the drag operation determined by the determination unit 24. Display image information 260 corresponding to the state moved to the right is output. As a result, the display image A2 on which the options s27 to s212 such as “temperature”, “air volume”, “air outlet”, “seat heater”, “A / C”, “AUTO”, etc. of the hierarchy S2 related to the “air conditioner” of the hierarchy S1 are displayed. Is displayed on the display screen 140.

次に、図5B(b)に示す表示画像A2が表示されている状態において、タッチセンサ部12に対してピンチイン操作がなされると、判定部24は、タッチセンサ部12のタッチ検出部125から取得した検出信号に基づいてピンチイン操作であると判定する。   Next, in a state where the display image A2 shown in FIG. 5B (b) is displayed, when a pinch-in operation is performed on the touch sensor unit 12, the determination unit 24 starts from the touch detection unit 125 of the touch sensor unit 12. It is determined that the operation is a pinch-in operation based on the acquired detection signal.

次に、表示画像生成部26は、判定部24が判定したピンチイン操作に基づいて表示部14に表示させる表示画像情報として、A1を拡大しようとするが、A1のサイズが上限値に達すると、図5B(c)に示すように、表示領域A1が階層S1に移動した状態に対応する表示画像情報260を出力する。この結果、階層S2の「温度」「風量」「吹出し口」「シートヒータ」「A/C」「AUTO」等の選択肢s27〜s212に関連する階層S1の「エアコン」の選択肢s12が表示された表示画像A2が表示画面140に表示される。   Next, the display image generation unit 26 tries to enlarge A1 as display image information to be displayed on the display unit 14 based on the pinch-in operation determined by the determination unit 24. When the size of A1 reaches the upper limit value, As shown in FIG. 5B (c), display image information 260 corresponding to the state in which the display area A1 has moved to the hierarchy S1 is output. As a result, the option “s12” of the “air conditioner” of the hierarchy S1 related to the options s27 to s212 such as “temperature”, “air flow”, “air outlet”, “seat heater”, “A / C”, and “AUTO” of the hierarchy S2 is displayed. The display image A2 is displayed on the display screen 140.

また、制御部32は、次の階層が存在しない選択肢が表示された状態において、判定部24がさらにピンチアウト操作がされたと判定した場合、その選択肢に割り付けられた機能を定義する制御情報320とに基づいて、車両6に搭載されたシート位置調整装置、空調装置、ナビゲーション装置、オーディオ装置、視界確保装置及び運転支援装置等の電子機器を制御する。また、制御部32は、例えば、マイクロコンピュータ20の各部を制御する。例えば、階層S2の「スライド」を示す選択肢s11に対応する階層S3の「+」、「−」を示す選択肢s31、s32が表示された状態においてピンチアウトがなされると、制御部32は、シート位置調整装置に対しシートを「+」方向、「−」方向にスライドするよう指示する。   In addition, when the determination unit 24 determines that a pinch-out operation has been performed in a state where an option that does not have the next hierarchy is displayed, the control unit 32 includes control information 320 that defines a function assigned to the option. Based on the above, electronic devices such as a seat position adjusting device, an air conditioner, a navigation device, an audio device, a view securing device, and a driving support device mounted on the vehicle 6 are controlled. Moreover, the control part 32 controls each part of the microcomputer 20, for example. For example, when a pinch out is performed in a state in which the options s31 and s32 indicating “+” and “−” in the hierarchy S3 corresponding to the option s11 indicating “slide” in the hierarchy S2 are displayed, the control unit 32 causes the sheet to be displayed. The position adjustment device is instructed to slide the sheet in the “+” direction and the “−” direction.

(実施の形態の効果)
上記した実施の形態によると、表示画像情報260の階層S1の選択肢(例えば、s11)に対応した下位の階層S2の選択肢(例えば、s21〜s26)が対応した領域に配置され、タッチセンサ部12に対する操作に応じて表示領域A1が階層S1、S2間を移動するよう構成し、また、各階層上を自由に移動可能としたため、上位階層で選択した選択肢と異なる選択肢に属する下位の選択肢を探す場合に上位階層に一旦戻ることなく辿り着くことができる。つまり、階層毎に選択肢が表示される場合に所望の選択肢に辿り着くための操作手順を減少することができる。
(Effect of embodiment)
According to the above-described embodiment, the options (for example, s21 to s26) of the lower layer S2 corresponding to the options (for example, s11) of the layer S1 of the display image information 260 are arranged in the region corresponding to the touch sensor unit 12. Since the display area A1 moves between the hierarchies S1 and S2 in accordance with an operation on the display area and is freely movable on each hierarchy, a lower option belonging to an option different from the option selected in the upper hierarchy is searched. In this case, it is possible to arrive without returning to the upper hierarchy. That is, the operation procedure for reaching the desired option when the option is displayed for each layer can be reduced.

また、階層S2において、カテゴリ分けが曖昧な「シートヒータ」等を示す選択肢を上位階層の選択肢である「シート」と「エアコン」との境界付近の領域対応する位置に配置することで利用者が所望の選択肢に辿り着くのに要する操作手順を減少することができる。   Also, in the hierarchy S2, the user can arrange the option indicating “seat heater” or the like whose category is ambiguous at a position corresponding to the region near the boundary between the “seat” and “air conditioner” that are the options in the upper hierarchy. It is possible to reduce the operating procedure required to reach the desired option.

なお、本発明は、上記した実施の形態に限定されず、本発明の技術思想を逸脱あるいは調整しない範囲内で種々の変形が可能である。例えば、判定部24が判定する操作は、ドラッグ操作、ピンチアウト操作、ピンチイン操作等に限らずタッチセンサ部12に入力可能な操作であればその種類を問わない。また、実施の形態において説明した判定部24の判定と、表示領域A1の移動、拡大・縮小等との対応付けは一例であり、その対応付けは任意に変更可能である。また、タッチセンサ部12に代えて、十字キーや決定ボタン等を用いてもよい。   The present invention is not limited to the above-described embodiment, and various modifications can be made without departing from or adjusting the technical idea of the present invention. For example, the operation determined by the determination unit 24 is not limited to a drag operation, a pinch-out operation, a pinch-in operation, and the like, and any type can be used as long as the operation can be input to the touch sensor unit 12. Further, the association between the determination of the determination unit 24 described in the embodiment and the movement, enlargement / reduction, and the like of the display area A1 is an example, and the association can be arbitrarily changed. Further, instead of the touch sensor unit 12, a cross key, a determination button, or the like may be used.

1…表示入力装置、6…車両、12…タッチセンサ部、14…表示部、20…マイクロコンピュータ、22…表示コントローラ、24…判定部、26…表示画像生成部、32…制御部、34…センサコントローラ、36…クロック信号生成部、38…メモリ、40…通信部、60…センターコンソール、62…メータパネル、63…ステアリングホイール、64…シフトレバー、120…カバー、121…検出面、122…第1の電極、123…第2の電極、124…駆動部、125…タッチ検出部、140…表示画面、260…表示画像情報、320…制御情報、380…接続機器情報 DESCRIPTION OF SYMBOLS 1 ... Display input device, 6 ... Vehicle, 12 ... Touch sensor part, 14 ... Display part, 20 ... Microcomputer, 22 ... Display controller, 24 ... Determination part, 26 ... Display image generation part, 32 ... Control part, 34 ... Sensor controller 36 ... Clock signal generation unit 38 ... Memory 40 ... Communication unit 60 ... Center console 62 ... Meter panel 63 ... Steering wheel 64 ... Shift lever 120 ... Cover 121 ... Detection surface 122 ... 1st electrode, 123 ... 2nd electrode, 124 ... drive part, 125 ... touch detection part, 140 ... display screen, 260 ... display image information, 320 ... control information, 380 ... connected device information

Claims (3)

複数の選択肢画像を有する階層を複数有し、各階層の座標が隣り合う階層の座標と対応付けられた表示画像情報を記憶する記憶部と、
操作内容を検出して少なくとも第1の検出信号及び第2の検出信号を出力する操作部と、
表示画像を表示する表示部と、
前記記憶部に記憶された前記表示画像情報のうち前記表示部に表示される表示画像の領域を示す表示領域を、前記操作部が出力した前記第1の検出信号に基づいて階層上において座標移動させ、又は前記第2の検出信号に基づいて同一座標において隣り合う階層へ移動させ、移動させた結果としての当該表示領域に基づいて前記表示部に表示する表示画像を生成する表示画像生成部とを有する表示入力装置。
A storage unit that stores a plurality of layers having a plurality of option images, and stores display image information associated with coordinates of adjacent layers in which coordinates of each layer are adjacent;
An operation unit for detecting operation content and outputting at least a first detection signal and a second detection signal;
A display unit for displaying a display image;
The display area indicating the area of the display image displayed on the display section of the display image information stored in the storage section is moved on the hierarchy based on the first detection signal output by the operation section. Or a display image generation unit that generates a display image to be displayed on the display unit based on the display area as a result of the movement to an adjacent hierarchy at the same coordinates based on the second detection signal. A display input device.
前記操作部は、操作内容を検出して第3の検出信号を出力し、
前記操作部が出力した前記第3の検出信号に基づいて、前記表示部に表示された表示画像に含まれる選択肢画像に関連付けられた制御信号を出力する制御部をさらに有する請求項1に記載の表示入力装置。
The operation unit detects an operation content and outputs a third detection signal,
The control unit according to claim 1, further comprising: a control unit that outputs a control signal associated with an option image included in a display image displayed on the display unit based on the third detection signal output from the operation unit. Display input device.
前記操作部は、操作内容を検出して第4の検出信号を出力し、
前記表示画像生成部は、前記操作部が出力する前記第4の検出信号に基づいて前記表示領域を拡大又は縮小する請求項1に記載の表示入力装置。
The operation unit detects an operation content and outputs a fourth detection signal,
The display input device according to claim 1, wherein the display image generation unit enlarges or reduces the display area based on the fourth detection signal output from the operation unit.
JP2011128029A 2011-06-08 2011-06-08 Display input device Withdrawn JP2012256147A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011128029A JP2012256147A (en) 2011-06-08 2011-06-08 Display input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011128029A JP2012256147A (en) 2011-06-08 2011-06-08 Display input device

Publications (1)

Publication Number Publication Date
JP2012256147A true JP2012256147A (en) 2012-12-27

Family

ID=47527669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011128029A Withdrawn JP2012256147A (en) 2011-06-08 2011-06-08 Display input device

Country Status (1)

Country Link
JP (1) JP2012256147A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014530395A (en) * 2011-09-09 2014-11-17 マイクロソフト コーポレーション Semantic zoom gesture
JP2014531646A (en) * 2011-09-09 2014-11-27 マイクロソフト コーポレーション Semantic zoom animation
US9229918B2 (en) 2010-12-23 2016-01-05 Microsoft Technology Licensing, Llc Presenting an application change through a tile
US9244802B2 (en) 2011-09-10 2016-01-26 Microsoft Technology Licensing, Llc Resource user interface
US9383917B2 (en) 2011-03-28 2016-07-05 Microsoft Technology Licensing, Llc Predictive tiling
US9423951B2 (en) 2010-12-31 2016-08-23 Microsoft Technology Licensing, Llc Content-based snap point
US9535597B2 (en) 2011-05-27 2017-01-03 Microsoft Technology Licensing, Llc Managing an immersive interface in a multi-application immersive environment
CN106325734A (en) * 2015-07-03 2017-01-11 威斯通全球技术公司 Multifunctional operating device and method for operating a multifunctional operating device
US9557909B2 (en) 2011-09-09 2017-01-31 Microsoft Technology Licensing, Llc Semantic zoom linguistic helpers
US9645667B2 (en) 2013-09-21 2017-05-09 Kabushiki Kaisha Toyota Jidoshokki Touch switch module which performs multiple functions based on a touch time
US9665384B2 (en) 2005-08-30 2017-05-30 Microsoft Technology Licensing, Llc Aggregation of computing device settings
US9696888B2 (en) 2010-12-20 2017-07-04 Microsoft Technology Licensing, Llc Application-launching interface for multiple modes
US9766790B2 (en) 2010-12-23 2017-09-19 Microsoft Technology Licensing, Llc Application reporting in an application-selectable user interface
US10114865B2 (en) 2011-09-09 2018-10-30 Microsoft Technology Licensing, Llc Tile cache
US10254955B2 (en) 2011-09-10 2019-04-09 Microsoft Technology Licensing, Llc Progressively indicating new content in an application-selectable user interface
US10303325B2 (en) 2011-05-27 2019-05-28 Microsoft Technology Licensing, Llc Multi-application environment
US10579250B2 (en) 2011-09-01 2020-03-03 Microsoft Technology Licensing, Llc Arranging tiles

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9665384B2 (en) 2005-08-30 2017-05-30 Microsoft Technology Licensing, Llc Aggregation of computing device settings
US9696888B2 (en) 2010-12-20 2017-07-04 Microsoft Technology Licensing, Llc Application-launching interface for multiple modes
US11126333B2 (en) 2010-12-23 2021-09-21 Microsoft Technology Licensing, Llc Application reporting in an application-selectable user interface
US9229918B2 (en) 2010-12-23 2016-01-05 Microsoft Technology Licensing, Llc Presenting an application change through a tile
US10969944B2 (en) 2010-12-23 2021-04-06 Microsoft Technology Licensing, Llc Application reporting in an application-selectable user interface
US9870132B2 (en) 2010-12-23 2018-01-16 Microsoft Technology Licensing, Llc Application reporting in an application-selectable user interface
US9864494B2 (en) 2010-12-23 2018-01-09 Microsoft Technology Licensing, Llc Application reporting in an application-selectable user interface
US9766790B2 (en) 2010-12-23 2017-09-19 Microsoft Technology Licensing, Llc Application reporting in an application-selectable user interface
US9423951B2 (en) 2010-12-31 2016-08-23 Microsoft Technology Licensing, Llc Content-based snap point
US9383917B2 (en) 2011-03-28 2016-07-05 Microsoft Technology Licensing, Llc Predictive tiling
US9535597B2 (en) 2011-05-27 2017-01-03 Microsoft Technology Licensing, Llc Managing an immersive interface in a multi-application immersive environment
US11698721B2 (en) 2011-05-27 2023-07-11 Microsoft Technology Licensing, Llc Managing an immersive interface in a multi-application immersive environment
US10303325B2 (en) 2011-05-27 2019-05-28 Microsoft Technology Licensing, Llc Multi-application environment
US10579250B2 (en) 2011-09-01 2020-03-03 Microsoft Technology Licensing, Llc Arranging tiles
US10353566B2 (en) 2011-09-09 2019-07-16 Microsoft Technology Licensing, Llc Semantic zoom animations
US9557909B2 (en) 2011-09-09 2017-01-31 Microsoft Technology Licensing, Llc Semantic zoom linguistic helpers
JP2014531646A (en) * 2011-09-09 2014-11-27 マイクロソフト コーポレーション Semantic zoom animation
JP2014530395A (en) * 2011-09-09 2014-11-17 マイクロソフト コーポレーション Semantic zoom gesture
US10114865B2 (en) 2011-09-09 2018-10-30 Microsoft Technology Licensing, Llc Tile cache
US10254955B2 (en) 2011-09-10 2019-04-09 Microsoft Technology Licensing, Llc Progressively indicating new content in an application-selectable user interface
US9244802B2 (en) 2011-09-10 2016-01-26 Microsoft Technology Licensing, Llc Resource user interface
US9645667B2 (en) 2013-09-21 2017-05-09 Kabushiki Kaisha Toyota Jidoshokki Touch switch module which performs multiple functions based on a touch time
CN106325734A (en) * 2015-07-03 2017-01-11 威斯通全球技术公司 Multifunctional operating device and method for operating a multifunctional operating device
JP2017016664A (en) * 2015-07-03 2017-01-19 ビステオン グローバル テクノロジーズ インコーポレイテッド Multifunctional operation device and method for operating multifunctional operation device

Similar Documents

Publication Publication Date Title
JP2012256147A (en) Display input device
US10037091B2 (en) System and method for providing absolute coordinate and zone mapping between a touchpad and a display screen
US11307756B2 (en) System and method for presenting moving graphic animations in inactive and active states
US20140062946A1 (en) Systems and methods for enhanced display images
US8558806B2 (en) Information processing apparatus, information processing method, and program
KR102355683B1 (en) Assembly of a graphical user interface in a vehicle and method of providing a graphical user interface to a vehicle
JP2015151035A (en) Operation input device and air conditioner using the same
US20110134071A1 (en) Display apparatus and touch sensing method
JP5852592B2 (en) Touch operation type input device
JP2017121866A (en) Air conditioning control device
JP5558418B2 (en) Display input device
KR20140039871A (en) Touch screen device and electronic device using the same
EP2818988A2 (en) Electronic device and touch sensing method thereof
JP2012212240A (en) Touch panel system
JP5985829B2 (en) Vehicle control device
JP2012212318A (en) Navigation device
JP2018128968A (en) Input device for vehicle and control method for input device for vehicle
JP5734829B2 (en) Display input device
JP2013073426A (en) Display input device
JP2018124811A (en) Operation device
JP7001368B2 (en) Operation device
JP2017004405A (en) Operation device
CN108073311B (en) System and method for providing absolute sum zone coordinate mapping in graphical animation
JP2016170500A (en) Operation input device
JP2013109607A (en) Display input device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140902