WO2007097414A1 - 操作入力装置 - Google Patents

操作入力装置 Download PDF

Info

Publication number
WO2007097414A1
WO2007097414A1 PCT/JP2007/053383 JP2007053383W WO2007097414A1 WO 2007097414 A1 WO2007097414 A1 WO 2007097414A1 JP 2007053383 W JP2007053383 W JP 2007053383W WO 2007097414 A1 WO2007097414 A1 WO 2007097414A1
Authority
WO
WIPO (PCT)
Prior art keywords
operation input
touch panel
display device
screen
icon
Prior art date
Application number
PCT/JP2007/053383
Other languages
English (en)
French (fr)
Inventor
Katsuaki Kawamura
Original Assignee
Pioneer Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corporation filed Critical Pioneer Corporation
Priority to US12/279,451 priority Critical patent/US20090021491A1/en
Priority to JP2008501761A priority patent/JP4545212B2/ja
Priority to EP07714854A priority patent/EP1988448A1/en
Publication of WO2007097414A1 publication Critical patent/WO2007097414A1/ja

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/13Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells
    • G02F1/133Constructional arrangements; Operation of liquid crystal cells; Circuit arrangements
    • G02F1/1333Constructional arrangements; Manufacturing methods
    • G02F1/13338Input devices, e.g. touch panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/141Activation of instrument input devices by approaching fingers or pens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices

Definitions

  • the present invention relates to a display device and a device that performs operation input using a touch panel.
  • a multi-screen display type liquid crystal display capable of displaying different images in different observation directions has been commercialized (see, for example, Patent Document 1).
  • a map image from the navigation device is displayed in the direction of observation from the driver's seat, and a movie or the like is displayed in the direction of observation from the passenger's seat.
  • an operation input device capable of performing various operation inputs can be configured by arranging a touch panel on the display surface of the liquid crystal display and sensing the contact position.
  • the following image display method is known when inputting touch panel power.
  • the first method is to display a display screen that can be input in both directions, that is, to display one screen.
  • the operation input position on the screen and the display position of the icon indicating it are arranged so that they do not overlap between the two screens, so that the other party's icon cannot be seen from each other. To do.
  • the icons indicating the other party's operation input position cannot be seen from each other, and the other party's operation icon part may be touched by mistake. It was.
  • Patent Document 1 Japanese Patent Laid-Open No. 2005-78076
  • Main departure The purpose is to enable smooth operation inputs without interfering with each other's screen display function in an operation input device capable of multi-screen display.
  • an operation input device includes a multi-screen display device that displays different images in different directions on the left and right or up and down, and a touch panel provided on the multi-screen display device.
  • a proximity sensor unit provided around the touch panel for detecting an approach direction of an operation input object approaching the touch panel for operation input, and an operation input to the touch panel from a direction different from the detected approach direction.
  • a control unit for limiting the force.
  • the operation input device includes a multi-screen display device such as a liquid crystal display device capable of displaying two screens left and right or up and down.
  • a touch panel is provided in the display area of the multi-screen display device.
  • a proximity sensor unit is provided around the touch panel.
  • the proximity sensor unit can be composed of a plurality of proximity sensors, and detects the approaching direction of the user's finger approaching the touch panel, touch pen and other operation input objects for operation input. And a control part restrict
  • the control unit invalidates an operation input from a direction different from the detected approach direction. As a result, while the operation input object is approaching from one direction, even if the operation input is made to the touch panel from the other direction, the input is invalidated.
  • Another aspect of the operation input device includes icon display means for displaying an icon indicating an operation input position on the touch panel on the multi-screen display device, and an operation input approaching the touch panel.
  • the icon display unit erases the icon included in the image displayed in a direction different from the detected approaching direction.
  • each screen displayed on the multi-screen display device has no An icon indicating the operation input position on the touch panel is displayed.
  • the icon display is deleted from the screen displayed in the opposite direction. Therefore, the user who is viewing the display screen in the opposite direction disappears from the screen, so that the user can recognize that the operation cannot be performed and the state has been entered, and erroneous input is prevented.
  • control unit is configured such that the operation input object is approaching the touch panel even after the operation input to the touch panel by the operation input object is completed. While the proximity sensor unit is detecting, the operation input restriction is continued. This prevents incorrect input by continuing to restrict input from the opposite direction while the operation input object is still in the vicinity of the touch panel even after input to the touch panel is completed.
  • FIG. 1 is a block diagram showing a schematic configuration of a navigation device according to an embodiment.
  • FIG. 2 is an external view of a display device.
  • FIG.4 An example of the display screen during operation input control processing is shown.
  • FIG. 5 is a flowchart of an operation input control process.
  • FIG. 1 shows the configuration of the navigation device 1.
  • the navigation device 1 roughly includes a main unit 10 and a display device 20.
  • the display device 20 is a liquid crystal display device, and includes a liquid crystal display device 22, a touch panel 24, and proximity sensors 26al to 26a3 and 26bl to 26b3.
  • 2 (a) and 2 (b) show the appearance of the display device 20.
  • FIG. FIG. 2 (a) is a perspective view of the display device 20 viewed from an oblique upward force
  • FIG. 2 (b) is a front view of the display device 20.
  • the liquid crystal display device 22 has a two-screen simultaneous display function capable of displaying different images when observed from the left-right direction.
  • arrows Da and Db indicate the viewing directions with respect to the display device 20, respectively.
  • the screen A is displayed on the display device 20.
  • the screen B is displayed on the display device 20.
  • the screen A displayed with respect to the direction Da from the right side (driver's seat side) is, for example, a map image by the navigation unit, and is displayed with respect to the left side (passenger side) force direction Db.
  • screen B to be a movie such as a movie.
  • a touch panel 24 is attached so as to cover the entire display screen of the liquid crystal display device 22.
  • the contact position detection method of the touch panel 24 is not limited.
  • proximity sensors 26al to 26a3 and 26bl to 26b3 are provided around the display area of the liquid crystal display device 22, that is, around the touch panel 24, a plurality of proximity sensors 26al to 26a3 and 26bl to 26b3 are provided.
  • the six proximity sensors are represented as “proximity sensor 26”.
  • These proximity sensors 26al to 26a3 and 26bl to 26b3 constitute a proximity sensor section.
  • three proximity sensors 26al to 26a3 are provided on the right side of the liquid crystal display device 22 in the figure, and these operate the touch panel 24 from the right side (that is, from the direction Da). Has a function of detecting an object to be detected. Operate the touch panel 24.
  • the object to be created is, for example, a user's finger or touch pen (hereinafter also referred to as “operation input object”.)
  • operation input object a user's finger or touch pen
  • three proximity sensors 26b 1 to 26b3 are shown on the left side of the liquid crystal display device 22 These have a function of detecting an object that operates the touch panel 24 from the left side (ie, from the direction Db).
  • the proximity sensor 26 is a so-called capacitive proximity sensor.
  • a capacitive proximity sensor is a sensor that detects that an object has approached by utilizing the fact that the capacitance between electrodes changes when an object having a dielectric constant different from that of the atmosphere approaches between a pair of electrodes. Since it is known per se, a detailed description thereof will be omitted.
  • various types of proximity sensors such as a high-frequency oscillation type using electromagnetic induction and a magnetic type using magnets can be applied instead of the capacitance type.
  • each proximity sensor 26 outputs a voltage corresponding to the distance to the object when the object approaches. Therefore, basically, a proximity sensor closer to an approaching object outputs a larger voltage value. Details of the detection process will be described later.
  • FIG. 3 (a) is a schematic diagram of the detection sensitivity directivity of the proximity sensor 26 shown in FIG. 2 (b), and is a perspective view showing the upward force of the display device 20.
  • FIG. FIG. 3B is a schematic diagram of the detection sensitivity directivity of the proximity sensor 26 when viewed from the front direction of the display device 20.
  • the broken line 30a indicates the directivity on the right side of the display device 20
  • the broken line 30b indicates the directivity on the left side. Note that these directivity characteristics are combined characteristics of sensors that detect each direction. That is, the directivity on the right side of the display device 20 indicated by the broken line 30a is defined by the proximity sensors 26al to 26a3 shown in FIG. 2 (b), and the directivity on the left side of the display device 20 indicated by the broken line 30b is shown in FIG. ) Is specified by proximity sensors 26bl to 26b3.
  • the main unit 10 includes an image reproduction unit 11, a navigation unit 12, an image composition unit 14, and a control unit 15.
  • the image reproduction unit 11 reproduces a moving image such as a movie from an image source such as a DVD. Further, the image reproduction unit 11 may reproduce the TV signal using a TV tuner or the like.
  • the reproduced image signal S1 is supplied to the image composition unit 14.
  • the image playback unit 11 has the same configuration as the DVD playback unit of a known navigation device having a DVD playback function. It can be done.
  • the navigation unit 12 includes a GPS unit, a map data storage unit, and the like, and generates an image signal S2 corresponding to the navigation image and supplies it to the image composition unit 14.
  • a navigation image is generally a map in which the current position of a vehicle is displayed.
  • the image synthesizing unit 14 synthesizes the image signal S1 supplied from the image reproducing unit 11 and the image signal S2 supplied from the navigation unit 12, and generates a multi-image signal S5 for two-screen display.
  • the liquid crystal display device 22 in the device 20 is supplied.
  • the two-screen display type liquid crystal display device 22 displays a multi-image signal S5, thereby displaying a navigation image as the screen A in the direction Da and displaying a moving image such as a movie as the screen B in the direction Db. .
  • the control unit 15 comprehensively controls each element in the main unit 10. Specifically, the control unit 15 sends control signals S9 and S8 to the image reproduction unit 11 and the navigation unit 12 in accordance with an operation input made by the user to the touch panel 24, and controls them. For example, when a user watching a screen B of a movie from the direction Db performs an operation input such as playing, stopping, or pausing a movie on the touch panel 24, a control signal S6 corresponding to the operation input is sent to the control unit 15. Supplied. In response to this, the control unit 15 supplies a control signal S9 to the image reproduction unit 11, and instructs the image reproduction unit 11 to reproduce, stop, pause, etc. a movie.
  • control unit 15 supplies the control signal S8 to the navigation unit 12 and controls the operation of the navigation unit 12.
  • control unit 15 receives the output signal S7 from the plurality of proximity sensors 26, and detects the approaching direction of the operation input object approaching the touch panel 42 for operation input. Details of this process will be described later.
  • control unit 15 supplies control signals S9 and S8 to the image reproduction unit 11 and the navigation unit 12 based on the detected approach direction of the operation input object, and an image displayed on the liquid crystal display device 22 Controls the display and deletion of icons included in the.
  • This icon is LCD This is an icon indicating the position of an operation input on the touch panel 24 attached to the display device 22 in an overlapping manner (also referred to as “operation input icon”;). That is, by touching the position on the touch panel 24 corresponding to the display position of the icon, an operation input corresponding to the icon is made.
  • the approach direction of the operation input object approaching the display device 20 when the user performs an operation input in the display device including the two-screen display type liquid crystal display device 22, the approach direction of the operation input object approaching the display device 20 when the user performs an operation input.
  • the direction input to the touch panel 24 is also restricted by a direction different from the approaching direction.
  • FIG. 4 shows an example of an image displayed on the display device 20.
  • FIG. 4 (a) shows a navigation image 35a as an image display example of screen A displayed in the direction Da from the driver's seat side.
  • the navigation image 35a includes a map including a current position mark of the vehicle and a plurality of operation input icons 37a to 37e.
  • Icons 37a to 37c correspond to the scale change instruction of the displayed map
  • icon 37d corresponds to the route search instruction to the home
  • icon 37e corresponds to the instruction to stop the route guidance.
  • FIG. 4 (b) shows a movie image 35b as an image display example of the screen B displayed in the direction Db from the passenger seat side.
  • the movie image 35b includes operation input icons 36a to 36e related to movie playback.
  • the icons 36a and 36b correspond to a volume change instruction
  • the icon 36c corresponds to a playback stop instruction
  • the icon 36d corresponds to a playback instruction
  • the icon 36e corresponds to a pause instruction.
  • Navigation screen 35a shown in Fig. 4 (a) is displayed as V, or screen A
  • movie image 35b shown in Fig. 4 (b) is displayed as screen B. It is assumed that the user performs an operation input on an icon included in the navigation image 35a.
  • the control unit 15 determines the direction Da side force based on the change in the output of the proximity sensor 26. It detects that the operation input object is approaching. Then, the control unit 15 does not perform operation input from the direction Db opposite to the direction Da that is the approach direction of the operation input object. It is effective.
  • the operation input made to the position on the touch panel 24 corresponding to the icons 36a to 36e on the screen B is invalidated.
  • the control unit 15 sends a control signal S9 to the image reproduction unit 11, and erases the display of the operation input icons 36a to 36e in the movie image 35b reproduced from the image reproduction unit 11.
  • Figure 4 (c) shows a display example at that time. Note that the operation input icons 36a to 36e indicated by broken lines indicate that they are temporarily deleted.
  • control unit 15 invalidates the operation input from the direction Da side and is included in the navigation image 35a which is the screen A.
  • the operation input icons 37a to 37e to be displayed are deleted.
  • Figure 5 shows a flowchart of the operation input control process. This process is basically performed by the control unit 15 in the main unit 10. Further, this process is periodically and repeatedly executed in a state where screen A and screen B each including an operation input icon are displayed on the two-screen display type display device 20.
  • the control unit 15 determines whether or not the output change of the proximity sensor 26 exceeds the set value (step Sl l). When the inter-electrode capacitance changes due to the proximity of the operation input object, the output voltage of the proximity sensor 26 changes accordingly.
  • the control unit 15 monitors the output signal S7 from the proximity sensor 26, and determines that the operation input object has approached when detecting a change in the output voltage exceeding a predetermined set value.
  • the reason for the comparison with the set value is that it excludes the proximity of objects at a distance that is not considered to be an operation input to the touch panel 24, and eliminates the influence of error factors such as temperature and humidity. This is to ensure a stable detection operation.
  • step S11 may be determined to be Yes when the output changes of all six proximity sensors 26 exceed the set value, or the output changes of some proximity sensors 26 may have the set value. It may be judged as Yes when it exceeds.
  • step Sl l When the output change of each proximity sensor 26 exceeds the set value (step Sl l; Yes), the control unit 15 sets the maximum change value among the proximity sensors 26al to 26a3 arranged on the direction Da side. Store as Am ax in internal memory or register (step S12). Further, the control unit 15 stores the maximum change value among the proximity sensors 26bl to 26b3 arranged on the direction Db side as Bmax in an internal memory or a register (step S13). Then, the control unit 15 compares the maximum change values Amax and Bmax (step S14).
  • step S14 determines that the operation input object is approaching from the direction Da (step S15), and is on the opposite side. Restrict operation input for screen B. Specifically, the control unit invalidates the operation input for screen B and deletes the operation input icon (step S16). On the other hand, when the maximum change value Amax force is smaller than 3 ⁇ 4max (step S14; No), the control unit 15 determines that the operation input object is approaching from the direction Db (step S17), and the screen A is on the opposite side. Restrict the operation input. Specifically, the control unit 15 invalidates the operation input on screen A and deletes the operation input icon (step S18). As a result, while the operation input object is approaching, the operation input from the opposite side is restricted, so that erroneous input can be prevented.
  • Step S19 when an operation input is made to the touch panel 24, the control unit 15 executes a process corresponding to the input (Step S19).
  • the operation input of the direction and the reverse force determined in step S15 or S17 is limited in step S16 or S18. Therefore, the operation input from the direction detected in step S15 or S17 is limited. Processing corresponding to the operation input will be executed.
  • step S20 determines whether or not the operation input to the touch panel 24 is continued (step S20), and continues the execution of the corresponding process while the operation is continued. On the other hand, when the operation input ends (step S20; No), the process ends. As a result, the restriction of the operation input executed in step S16 or S18, that is, the invalidation of the operation input and the deletion of the icon are finished.
  • step S20 when the operation input to the touch panel 24 is completed in step S20, the invalidation of the operation input from the opposite side and the icon erasure are ended. Instead, even if the operation input to the touch panel 24 is finished, the detected operation input object force S still exists within a predetermined distance from the touch panel 24, while the operation input to the opposite screen is disabled and You may continue erasing the icon.
  • the control unit 15 operates the operation input object while the output voltage of the proximity sensor 26 exceeds the predetermined set value corresponding to the predetermined distance. Is still near the touch panel 24, and the process of step S16 or S18 is continued during that time. Then, when the output voltage of the proximity sensor 26 becomes smaller than a predetermined set value, it is determined that the operation input object catch panel 24 is sufficiently separated, and the processes of steps S16 and S18 are ended.
  • the operation input device displays the two-screen display type liquid crystal display device that displays different images in the left and right or up and down different directions, and the liquid crystal display device.
  • a touch panel provided above, a proximity sensor provided around the touch panel for detecting an approaching direction of an object approaching the touch panel for operation input, and the direction from a direction different from the detected approaching direction.
  • a control unit that restricts operation input to the touch panel. According to this device, even if another operator tries to operate the device from a direction other than the direction in which one operator wants to operate the device, the control unit receives the operation input from the other user side. Invalidate the icon display. Therefore, before the other user touches the touch panel, he / she notices that the current operation is not possible and can prevent erroneous input. In addition, each operator can smoothly operate the display contents that he / she is viewing.
  • the present invention is applied to the left and right two-screen display type display devices, but the present invention can also be applied to the upper and lower two-screen display type display devices.
  • a predetermined number of proximity sensors are respectively arranged on the upper side and the lower side of the display device.
  • the present invention can also be applied to a multi-screen display device capable of simultaneously displaying different images of three or more screens in different directions.
  • the present invention can be used in a navigation apparatus for a moving body represented by a vehicle or the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Nonlinear Science (AREA)
  • Optics & Photonics (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Mathematical Physics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Navigation (AREA)

Abstract

 マルチ画面表示が可能な操作入力装置において、お互いの画面の表示機能を阻害すること無く、互いに円滑な操作入力を可能とする。  操作入力装置は、例えば左右又は上下に2画面表示が可能な液晶表示装置などのマルチ画面表示装置を備える。また、マルチ画面表示装置の表示領域にはタッチパネルが設けられる。さらに、タッチパネルの周囲には近接センサ部が設けられる。近接センサ部は、複数の近接センサにより構成することができ、操作入力のためにタッチパネルに接近するユーザの指、タッチペンその他の操作入力物体の接近方向を検出する。そして、制御部は、検出された方向とは異なる方向からの操作入力を制限する。例えば操作入力装置が左右の2画面表示装置を備える場合、右方向からの操作入力物体の接近が検出されたときには、左方向からの操作入力を無効とし、左方向に表示される画面上の操作入力用アイコンを消去する。

Description

明 細 書
操作入力装置
技術分野
[0001] 本発明は、表示装置及びタツチパネルを用いて操作入力を行う装置に関する。
背景技術
[0002] 異なる観察方向に対して異なる画像を表示可能なマルチ画面表示型液晶ディスプ レイが製品化されている(例えば特許文献 1を参照)。このような液晶ディスプレイを車 両に取り付けた場合、運転席側からの観察方向に対してはナビゲーシヨン装置から の地図画像などを表示し、助手席側からの観察方向に対しては例えば映画などの画 像を表示することができる。また、この液晶ディスプレイの表示面にタツチパネルを配 置し、接触位置を感知することにより、様々な操作入力を行うことができる操作入力装 置を構成することができる。
上記の液晶ディスプレイ装置において、タツチパネル力もの入力時には、以下のよ うな画像表示方法が知られている。第 1の方法は、入力が可能な表示画面を両方向 に表示する、即ち、表示を 1画面にしてしまうものである。また、第 2の方法は、画面上 の操作入力位置及びそれを示すアイコンの表示位置を、 2つの画面間で重複しな ヽ ように配置し、お互いに相手側のアイコンが見えな 、ようにするものである。
[0003] し力し、上記の第 1の方法では、タツチパネルからの入力時には表示画面が 1画面 になってしまうので、その間の一定期間にわたって、タツチパネルを操作しない側の 表示ができな!/、と!/、う問題があった。
また、第 2の方法では、お互いに相手側の操作入力位置を示すアイコンの位置が 見えないため、相手側の操作アイコン部分に誤ってタツチしてしまうことがあり、誤入 力、誤操作の原因になっていた。
特許文献 1:特開 2005 - 78076号公報
発明の開示
発明が解決しょうとする課題
[0004] 本発明が解決しょうとする課題としては、上記のものが一例として挙げられる。本発 明は、マルチ画面表示が可能な操作入力装置において、お互いの画面の表示機能 を阻害すること無ぐ互いに円滑な操作入力を可能とすることを目的とする。
[0005] 本発明の 1つの実施形態では、操作入力装置は、左右又は上下の異なる方向に対 して異なる画像を表示するマルチ画面表示装置と、前記マルチ画面表示装置上に 設けられたタツチパネルと、前記タツチパネルの周囲に設けられ、操作入力のために 前記タツチパネルに接近してきた操作入力物体の接近方向を検出する近接センサ 部と、検出された接近方向とは異なる方向からの前記タツチパネルに対する操作入 力を制限する制御部と、を備える。
[0006] 上記の操作入力装置は、例えば左右又は上下に 2画面表示が可能な液晶表示装 置などのマルチ画面表示装置を備える。また、マルチ画面表示装置の表示領域には タツチパネルが設けられる。さらに、タツチパネルの周囲には近接センサ部が設けら れる。近接センサ部は、複数の近接センサにより構成することができ、操作入力のた めにタツチパネルに接近するユーザの指、タツチペンその他の操作入力物体の接近 方向を検出する。そして、制御部は、検出された方向とは異なる方向からの操作入力 を制限する。例えば操作入力装置が左右の 2画面表示装置を備える場合、右方向か らの操作入力物体の接近が検出されたときには、左方向からの操作入力を制限する 。これにより、一方の方向から操作入力物体が接近しているときの他方向からの誤入 力を防止することができる。
[0007] 上記の操作入力装置の一態様では、前記制御部は、前記検出された接近方向と 異なる方向からの操作入力を無効とする。これにより、一方向から操作入力物体が接 近している間は、他方向からタツチパネルに対して操作入力がなされた場合でも、そ の入力は無効とされる。
[0008] 上記の操作入力装置の他の一態様は、前記タツチパネル上の操作入力位置を示 すアイコンを前記マルチ画面表示装置上に表示するアイコン表示手段を備え、前記 タツチパネルに接近してきた操作入力物体の接近方向を前記近接センサ部が検出 したときには、前記アイコン表示手段は、前記検出された接近方向と異なる方向に対 して表示される画像に含まれるアイコンを消去する。
[0009] この態様では、通常状態では、マルチ画面表示装置に表示される各画面には、タ ツチパネル上の操作入力位置を示すアイコンが表示される。但し、一方向から操作 入力物体が接近した場合には、それと反対方向に表示される画面から、アイコンの表 示が消去される。よって、反対方向の表示画面を見ているユーザは、画面からアイコ ンの表示が消えるので、操作入力できな 、状態になったことを認識することができ、 誤入力が防止される。
[0010] 上記の操作入力装置の他の一態様では、前記制御部は、前記操作入力物体によ る前記タツチパネルに対する操作入力が終了した後でも、操作入力物体がタツチパ ネルに接近していることを前記近接センサ部が検出している間は、前記操作入力の 制限を継続する。これにより、タツチパネルに対する入力が終了した後でもまだ操作 入力物体がタツチパネル近傍にある間は、引き続き反対方向からの入力を制限し続 けることにより、誤入力を防止する。
図面の簡単な説明
[0011] [図 1]実施例によるナビゲーシヨン装置の概略構成を示すブロック図である。
[図 2]ディスプレイ装置の外観図である。
[図 3]近接センサの合成指向性特性を示す。
[図 4]操作入力制御処理中の表示画面例を示す。
[図 5]操作入力制御処理のフローチャートである。
符号の説明
[0012] 1 ナビゲーシヨン装置
10 本体ユニット
11 画像再生部
12 ナビゲーシヨンユニット
15 制御部
20 ディスプレイ装置
22 液晶表示装置
24 タツチパネル
26 近接センサ
発明を実施するための最良の形態 [0013] 以下、図面を参照して本発明の好適な実施例について説明する。なお、以下の説 明は、本発明を車両用のナビゲーシヨン装置に適用した例を示す。
[0014] [装置構成]
図 1に、ナビゲーシヨン装置 1の構成を示す。図 1に示すように、ナビゲーシヨン装置 1は、大別して、本体ユニット 10と、ディスプレイ装置 20とを備える。
[0015] ディスプレイ装置 20は液晶ディスプレイ装置であり、液晶表示装置 22、タツチパネ ル 24及び近接センサ 26al〜26a3、 26bl〜26b3を備える。図 2 (a)及び図 2 (b)に ディスプレイ装置 20の外観を示す。図 2 (a)はディスプレイ装置 20を斜め上方力ゝら見 た斜視図であり、図 2 (b)はディスプレイ装置 20の正面図である。
[0016] 液晶表示装置 22は、左右方向から観察したときに、互いに異なる画像を表示する ことが可能な 2画面同時表示機能を有する。具体的には、図 2 (a)及び図 2 (b)にお いて、矢印 Da、 Dbはそれぞれディスプレイ装置 20に対する観察方向を示している。 ディスプレイ装置 20に対して右側からの方向 Daから見た場合、ディスプレイ装置 20 には画面 Aが表示される。一方、ディスプレイ装置 20に対して左側からの方向 Dbか ら見た場合、ディスプレイ装置 20には画面 Bが表示される。本実施例では、右側(運 転席側)からの方向 Daに対して表示される画面 Aは例えばナビゲーシヨンユニットに よる地図画像であり、左側 (助手席側)力 の方向 Dbに対して表示される画面 Bは例 えば映画などの動画であるとする。
[0017] 液晶表示装置 22の表示画面上には、液晶表示装置 22の表示画面全体を覆うよう にタツチパネル 24が取り付けられる。なお、本発明では、タツチパネル 24の接触位置 検出方式は問わない。
[0018] 液晶表示装置 22の表示領域の周囲、即ち、タツチパネル 24の周囲には、複数の 近接センサ 26al〜26a3、 26bl〜26b3力待設けられる。なお、以下の説明において は、個々の近接センサを区別する必要がない場合、 6個の近接センサを代表して「近 接センサ 26」と記す。これら近接センサ 26al〜26a3、 26bl〜26b3により近接セン サ部が構成される。具体的に、図 2 (b)の例では、液晶表示装置 22の図中右側には 3つの近接センサ 26al〜26a3が設けられ、これらが右側から(即ち、方向 Daから)タ ツチパネル 24を操作する物体を検出する機能を有する。なお、タツチパネル 24を操 作する物体とは、例えばユーザの指、タツチペンなどである(以下、これを「操作入力 物体」とも呼ぶ。 ) o一方、液晶表示装置 22の図中左側には 3つの近接センサ 26b 1 〜26b3力設けられ、これらが左側から(即ち、方向 Dbから)タツチパネル 24を操作 する物体を検出する機能を有する。
[0019] 本実施例では、近接センサ 26はいわゆる静電容量式近接センサである。静電容量 式近接センサとは、大気と異なる誘電率を有する物体が一対の電極間に接近すると 電極間容量が変化することを利用して物体が接近したことを検出するセンサであるが 、これ自体は既知であるので詳細な説明は省略する。なお、本発明では、静電容量 式の代わりに、電磁誘導を利用した高周波発振型、磁石を用いた磁気型などの各種 の方式の近接センサを適用することが可能である。
[0020] 具体的には、各近接センサ 26は、物体が近づくと、物体との距離に応じた電圧を 出力する。よって、基本的には、接近している物体に近い近接センサほど大きな電圧 値を出力することになる。なお、検出処理の詳細は後述する。
[0021] 図 3 (a)は、図 2 (b)に示した近接センサ 26の検出感度指向性の概略図であり、ディ スプレイ装置 20の上方力も見た斜視図である。また、図 3 (b)は、ディスプレイ装置 2 0の正面方向から見たときの、近接センサ 26の検出感度指向性の概略図である。図 3 (a)、図 3 (b)において、破線 30aがディスプレイ装置 20の右側の指向性を示し、破 線 30bが左側の指向性を示す。なお、これらの指向性特性は、各方向を検出するセ ンサの合成特性となっている。即ち、破線 30aが示すディスプレイ装置 20の右側の 指向性は、図 2 (b)に示す近接センサ 26al〜26a3により規定され、破線 30bが示す ディスプレイ装置 20の左側の指向性は、図 2 (b)に示す近接センサ 26bl〜26b3に より規定される。
[0022] 次に、図 1に戻り、本体ユニット 10の構成について説明する。本体ユニット 10は、画 像再生部 11と、ナビゲーシヨンユニット 12と、画像合成部 14と、制御部 15とを備える 。画像再生部 11は、例えば DVDなどの画像ソースから映画などの動画像を再生す る。また、画像再生部 11は、 TVチューナなどにより TV信号を再生してもよい。再生 された画像信号 S1は、画像合成部 14へ供給される。なお、画像再生部 11は、 DVD 再生機能を備えた既知のナビゲーシヨン装置の DVD再生ユニットと同様の構成とす ることがでさる。
[0023] 一方、ナビゲーシヨンユニット 12は、 GPSユニット、地図データ記憶部などを備え、 ナビゲーシヨン画像に対応する画像信号 S2を生成して画像合成部 14へ供給する。 ナビゲーシヨン画像は、一般的には地図上に車両の現在位置が表示されたものであ る。
[0024] 画像合成部 14は、画像再生部 11から供給された画像信号 S1と、ナビゲーシヨンュ ニット 12から供給された画像信号 S2を合成し、 2画面表示用のマルチ画像信号 S5 を生成し、ディスプレイ装置 20内の液晶表示装置 22へ供給する。 2画面表示型の液 晶表示装置 22は、マルチ画像信号 S5を表示することにより、方向 Daに画面 Aとして ナビゲーシヨン画像を表示するとともに、方向 Dbに画面 Bとして映画などの動画像を 表示する。
[0025] 制御部 15は、本体ユニット 10内の各要素を統括的に制御する。具体的には、制御 部 15は、ユーザがタツチパネル 24に対して行った操作入力に応じて、画像再生部 1 1、ナビゲーシヨンユニット 12へ制御信号 S9、 S8を送り、それらを制御する。例えば、 方向 Dbから映画の画面 Bを見ているユーザがタツチパネル 24に対して映画の再生、 停止、一時停止などの操作入力を行うと、その操作入力に対応する制御信号 S6が 制御部 15に供給される。制御部 15は、これに応じて、制御信号 S9を画像再生部 11 へ供給し、画像再生部 11による映画の再生、停止、一時停止などを指示する。また、 方向 Daからナビゲーシヨン画像の画面 Aを見ているユーザがタツチパネル 24に対し てナビゲーシヨンユニットの操作入力を行うと、その操作入力に対応する制御信号 S6 が制御部 15へ供給される。制御部 15は、これに応じて、制御信号 S8をナビゲーショ ンユニット 12へ供給し、ナビゲーシヨンユニット 12の動作を制御する。
[0026] また、制御部 15は、複数の近接センサ 26から出力信号 S7を受け取り、操作入力の ためにタツチパネル 42に接近して ヽる操作入力物体の接近方向を検出する。なお、 この処理の詳細については後述する。
[0027] さらに、制御部 15は、検出した操作入力物体の接近方向に基づいて、画像再生部 11及びナビゲーシヨンユニット 12に制御信号 S9、 S8を供給し、液晶表示装置 22に 表示される画像に含まれるアイコンの表示、消去を制御する。このアイコンは、液晶 表示装置 22に重ねて取り付けられたタツチパネル 24上における操作入力の位置を 示すアイコンである(「操作入力用アイコン」とも呼ぶ。;)。即ち、このアイコンの表示位 置に対応するタツチパネル 24上の位置にタツチすることにより、当該アイコンに対応 する操作入力がなされる。
[0028] [操作制御]
次に、上記のナビゲーシヨン装置 1による操作制御について説明する。上述のよう に、本実施例では、 2画面表示型の液晶表示装置 22を備えるディスプレイ装置にお いて、ユーザが操作入力を行う際にディスプレイ装置 20に接近してくる操作入力物 体の接近方向を検出し、その接近方向と異なる方向、本実施例では接近方向と反対 方向カもタツチパネル 24への操作入力を制限する。
[0029] 図 4に、ディスプレイ装置 20に表示される画像例を示す。図 4 (a)は、運転席側から の方向 Daに対して表示される画面 Aの画像表示例として、ナビゲーシヨン画像 35a を示している。ナビゲーシヨン画像 35aは、車両の現在位置マークを含む地図と、複 数の操作入力用アイコン 37a〜37eを含む。アイコン 37a〜37cは表示された地図の 縮尺変更指示に対応し、アイコン 37dは自宅までのルート探索指示に対応し、アイコ ン 37eはルート案内の中止指示に対応する。
[0030] 図 4 (b)は、助手席側からの方向 Dbに対して表示される画面 Bの画像表示例として 、映画画像 35bを示している。映画画像 35bは、映画の再生に関連する操作入力用 アイコン 36a〜36eを含む。アイコン 36a、 36bは音量の変更指示に対応し、アイコン 36cは再生停止の指示に対応し、アイコン 36dは再生指示に対応し、アイコン 36eは 一時停止指示に対応する。
[0031] V、ま、画面 Aとして図 4 (a)に示すナビゲーシヨン画像 35aが表示され、画面 Bとして 図 4 (b)に示す映画画像 35bが表示されている状態で、運転席側からユーザがナビ ゲーシヨン画像 35aに含まれるアイコンに対して操作入力を行うとする。ユーザの操 作入力物体が方向 Da側力もディスプレイ装置 20のタツチパネル 24に接近すると、近 接センサ 26の出力が変化し、制御部 15は近接センサ 26の出力の変化に基づいて、 方向 Da側力も操作入力物体が接近していることを検出する。そして、制御部 15は、 操作入力物体の接近方向である方向 Daと反対である方向 Dbからの操作入力を無 効とする。具体的には、画面 Bのアイコン 36a〜36eに対応するタツチパネル 24上の 位置に対してなされた操作入力を無効とする。さらに、制御部 15は、画像再生部 11 に制御信号 S9を送り、画像再生部 11から再生される映画画像 35b中の操作入力用 アイコン 36a〜36eの表示を消去する。図 4 (c)にそのときの表示例を示す。なお、操 作入力用アイコン 36a〜36eが破線で示されているのは、それらが一時的に消去さ れていることを示している。
[0032] 逆に、方向 Db側力も操作入力物体が接近していることを検出したときには、制御部 15は、方向 Da側からの操作入力を無効とし、画面 Aであるナビゲーシヨン画像 35a に含まれる操作入力用アイコン 37a〜37eの表示を消去する。
[0033] 以上の処理により、方向 Da側から操作入力物体が接近しているときに、方向 Db側 力もの操作入力を制限し、方向 Db側力もの誤操作を防止することができる。また、方 向 Da側力 操作入力物体が接近して 、るときには、それと反対側の画面 B上の操作 入力用アイコンが消去されるので、助手席側のユーザは操作ができなくなつているこ とを認識し、誤入力を防止することができる。
[0034] 次に、操作入力制御処理について説明する。図 5は操作入力制御処理のフローチ ヤートを示す。この処理は、基本的に本体ユニット 10内の制御部 15が行う。また、こ の処理は、 2画面表示型のディスプレイ装置 20に、それぞれ操作入力用アイコンを 含む画面 A及び画面 Bが表示されている状態で、定期的に繰り返し実行される。
[0035] まず、制御部 15は、近接センサ 26の出力変化が設定値を超えた力否かを判定す る (ステップ Sl l)。近接センサ 26は、操作入力物体の接近により内部の電極間容量 が変化すると、それに応じて出力電圧が変化する。制御部 15は、近接センサ 26から の出力信号 S7を監視し、所定の設定値を超える出力電圧の変化を検出した場合、 操作入力物体が接近してきたと判断する。所定の設定値と比較している理由は、タツ チパネル 24に対する操作入力とは考えられない程度の遠い距離における物体の接 近を除外するとともに、温度や湿度などの誤差要因の影響を排除し、安定な検出動 作を担保するためである。なお、ステップ S 11の判定は、 6個全ての近接センサ 26の 出力変化が設定値を超えた場合に Yesと判定してもよいし、いくつかの近接センサ 2 6の出力変化が設定値を超えた場合に Yesと判定してもよい。 [0036] 各近接センサ 26の出力変化が設定値を超えた場合 (ステップ Sl l ;Yes)、制御部 15は、方向 Da側に配置された近接センサ 26al〜26a3のうち、最大の変化値を Am axとして内部のメモリやレジスタなどに格納する (ステップ S12)。また、制御部 15は、 方向 Db側に配置された近接センサ 26bl〜26b3のうち、最大の変化値を Bmaxとし て内部のメモリやレジスタなどに格納する (ステップ S 13)。そして、制御部 15は、最 大の変化値 Amaxと Bmaxを比較する(ステップ S 14)。
[0037] 最大の変化値 Amax力 ¾maxより大きい場合 (ステップ S14 ;Yes)、制御部 15は操 作入力物体が方向 Daから接近していると判定し (ステップ S15)、それと反対側であ る画面 Bについて、操作入力を制限する。具体的には、制御部は、画面 Bについて 操作入力を無効とするとともに、操作入力用アイコンを消去する (ステップ S16)。一 方、最大の変化値 Amax力 ¾maxより小さい場合 (ステップ S14 ;No)、制御部 15は 操作入力物体が方向 Dbから接近していると判定し (ステップ S17)、それと反対側で ある画面 Aについて、操作入力を制限する。具体的には、制御部 15は、画面 Aにつ V、て操作入力を無効とするとともに、操作入力用アイコンを消去する (ステップ S 18)。 これにより、操作入力物体が接近している間、それと反対側からの操作入力が制限さ れるので、誤入力を防止することができる。
[0038] 次に、制御部 15は、タツチパネル 24に対する操作入力がなされると、それに対応 する処理を実行する (ステップ S19)。この場合、ステップ S 15又は S 17で判定された 方向と逆方向力 の操作入力はステップ S 16又は S 18で制限されて 、るので、ステツ プ S 15又は S 17で検出された方向からの操作入力に対応する処理が実行されること になる。
[0039] 次に、制御部 15はタツチパネル 24に対する操作入力が継続している力否かを判定 し (ステップ S 20)、継続中は対応する処理の実行を継続する。一方、操作入力が終 了すると (ステップ S20 ;No)、処理は終了する。これにより、ステップ S16又は S18で 実行されていた操作入力の制限、即ち、操作入力の無効化及びアイコンの消去は終 了する。
[0040] このように、本実施例では、近接センサ 26の出力変化に基づいて操作入力物体の 接近を検出し、その接近方向と反対側の画面に対する操作入力を制限するので、誤 入力を防止することができる。
[0041] なお、上記の例では、ステップ S20でタツチパネル 24に対する操作入力が終了し たときに、反対側からの操作入力の無効化及びアイコン消去を終了している。その代 わりに、タツチパネル 24に対する操作入力が終了しても、検出された操作入力物体 力 Sタツチパネル 24から所定距離以内に依然として存在して 、る間は、反対側の画面 に対する操作入力の無効化及びアイコンの消去を継続してもよい。その場合には、タ ツチパネル 24に対する操作入力が終了した後でも、制御部 15は、近接センサ 26の 出力電圧が上記所定距離に対応する所定の設定値を超えている間は、操作入力物 体が依然としてタツチパネル 24の近くにあると判定し、その間はステップ S16又は S1 8の処理を継続する。そして、近接センサ 26の出力電圧が所定の設定値より小さくな つたときに、操作入力物体カ^ッチパネル 24から十分に離れたと判断し、ステップ S1 6及び S 18の処理を終了する。
[0042] 以上詳述したように、本実施例によれば、操作入力装置は、左右又は上下の異な る方向に対して異なる画像を表示する 2画面表示型液晶表示装置と、その液晶表示 装置上に設けられたタツチパネルと、タツチパネルの周囲に設けられ、操作入力のた めにタツチパネルに接近してきた物体の接近方向を検出する近接センサと、検出さ れた接近方向とは異なる方向からの前記タツチパネルに対する操作入力を制限する 制御部と、を備える。この装置によれば、ある操作者が装置を操作しょうとしている方 向以外の方向から他の操作者が装置を操作しょうとした場合でも、制御部は他のュ 一ザ側からの操作入力を無効とし、アイコン表示も消去する。よって、他のユーザは タツチパネルに接触する以前に、現在操作ができない状態であることに気づき、誤入 力を防止できる。また、各操作者は、自分が見ている表示内容に対して円滑な操作 ができるようになる。
さらに、 2画面表示型液晶ディスプレイ装置の夫々異なる表示画面 A及び Bに対し て、それら表示画面上の同一場所に、それぞれ異なるタツチパネルの操作入力位置 を設定し、操作に対応するアイコンを表示することが出来る。即ち、図 4 (a)及び図 4 ( b)の例に示されるように、タツチパネル 24上のほぼ同一位置に対して、画面 Aではァ イコン 37eを設定し、画面 Bではアイコン 36eを設定することができる。よって、液晶デ イスプレイの画面の全面積に対して、必要な操作入力エリアと、それに対応するアイ コン表示を自由に設定することができ、誤操作が起き難い大きなエリア設定が可能と なる。
[変形例]
上記の実施例では、左右の 2画面表示型ディスプレイ装置に本発明を適用して ヽ るが、上下の 2画面表示型ディスプレイ装置に本発明を適用することもできる。その場 合には、ディスプレイ装置の上側と下側にそれぞれ所定数の近接センサが配置され る。ディスプレイ装置の上側に操作入力物体が接近したことが検出された場合には 下側画面への操作入力が制限され、ディスプレイ装置の下側に操作入力物体が接 近したことが検出された場合には上側画面への操作入力が制限される。
[0043] また、本発明は、 3画面以上の異なる画像を異なる方向に同時に表示可能なマル チ画面表示装置に適用することも可能である。
産業上の利用可能性
[0044] 本発明は、車両などに代表される移動体のナビゲーシヨン装置に利用することがで きる。

Claims

請求の範囲
[1] 左右又は上下の異なる方向に対して異なる画像を表示するマルチ画面表示装置と 前記マルチ画面表示装置上に設けられたタツチパネルと、
前記タツチパネルの周囲に設けられ、操作入力のために前記タツチパネルに接近 してきた操作入力物体の接近方向を検出する近接センサ部と、
検出された接近方向とは異なる方向からの前記タツチパネルに対する操作入力を 制限する制御部と、を備えることを特徴とする操作入力装置。
[2] 前記制御部は、前記検出された接近方向と異なる方向からの操作入力を無効とす ることを特徴とする請求の範囲第 1項に記載の操作入力装置。
[3] 前記タツチパネル上の操作入力位置を示すアイコンを前記マルチ画面表示装置上 に表示するアイコン表示手段を備え、
前記タツチパネルに接近してきた操作入力物体の接近方向を前記近接センサ部が 検出したときには、前記アイコン表示手段は、前記検出された接近方向と異なる方向 に対して表示される画像に含まれるアイコンを消去することを特徴とする請求の範囲 第 1項に記載の操作入力装置。
[4] 前記制御部は、前記操作入力物体による前記タツチパネルに対する操作入力が終 了した後でも、操作入力物体カ^ッチパネルに接近して 、ることを前記近接センサ部 が検出している間は、前記操作入力の制限を継続することを特徴とする請求の範囲 第 1項に記載の操作入力装置。
PCT/JP2007/053383 2006-02-23 2007-02-23 操作入力装置 WO2007097414A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US12/279,451 US20090021491A1 (en) 2006-02-23 2007-02-23 Operation input device
JP2008501761A JP4545212B2 (ja) 2006-02-23 2007-02-23 操作入力装置
EP07714854A EP1988448A1 (en) 2006-02-23 2007-02-23 Operation input device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006-046690 2006-02-23
JP2006046690 2006-02-23

Publications (1)

Publication Number Publication Date
WO2007097414A1 true WO2007097414A1 (ja) 2007-08-30

Family

ID=38437449

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/053383 WO2007097414A1 (ja) 2006-02-23 2007-02-23 操作入力装置

Country Status (4)

Country Link
US (1) US20090021491A1 (ja)
EP (1) EP1988448A1 (ja)
JP (1) JP4545212B2 (ja)
WO (1) WO2007097414A1 (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008217576A (ja) * 2007-03-06 2008-09-18 Sharp Corp 液晶タッチパネルと操作キーを有する装置
WO2009143941A1 (de) 2008-05-26 2009-12-03 Volkswagen Aktiengesellschaft Anzeigeverfahren für ein anzeigesystem, anzeigesystem und bedienverfahren für ein navigationssystem eines fahrzeugs
JP2010211789A (ja) * 2009-02-12 2010-09-24 Seiko Instruments Inc ポインティングデバイス
JP2010277198A (ja) * 2009-05-26 2010-12-09 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2014115876A (ja) * 2012-12-11 2014-06-26 Mitsubishi Electric Corp 3次元タッチパネルを用いた被操作端末の遠隔操作方法
CN104199552A (zh) * 2014-09-11 2014-12-10 福州瑞芯微电子有限公司 多屏显示方法、设备及系统
JP2015500545A (ja) * 2011-12-14 2015-01-05 マイクロチップ テクノロジー インコーポレイテッドMicrochip Technology Incorporated 容量近接ベースのジェスチャ入力システム
US9024897B2 (en) 2012-03-14 2015-05-05 Konica Minolta Business Technologies, Inc. Instruction input device and recording medium
JP2015138125A (ja) * 2014-01-22 2015-07-30 京セラディスプレイ株式会社 液晶表示装置
JP2016033830A (ja) * 2015-11-24 2016-03-10 株式会社ジャパンディスプレイ タッチパネル、表示装置および電子機器
JP2016184271A (ja) * 2015-03-26 2016-10-20 アルパイン株式会社 入力装置、情報処理装置及びコンピュータプログラム
JP2017050029A (ja) * 2016-12-13 2017-03-09 株式会社ジャパンディスプレイ タッチパネル、表示装置および電子機器
JPWO2015083264A1 (ja) * 2013-12-05 2017-03-16 三菱電機株式会社 表示制御装置及び表示制御方法
JP2018055718A (ja) * 2012-08-27 2018-04-05 マイクロチップ テクノロジー ジャーマニー ゲーエムベーハー 手姿勢制御を伴う入力デバイス
US10712874B2 (en) 2017-09-27 2020-07-14 Seiko Epson Corporation Position detection device, position detection system, and method for controlling position detection device

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5028038B2 (ja) * 2006-07-06 2012-09-19 クラリオン株式会社 車載表示装置および車載表示装置の表示方法
US20090144667A1 (en) * 2007-11-30 2009-06-04 Nokia Corporation Apparatus, method, computer program and user interface for enabling user input
KR20100031204A (ko) * 2008-09-12 2010-03-22 삼성전자주식회사 근접 센서 기반의 입력 장치 및 그의 운용 방법
TWI425400B (zh) * 2009-05-26 2014-02-01 Japan Display West Inc 資訊輸入裝置、資訊輸入方法、資訊輸入輸出裝置、儲存媒體及電子單元
WO2011003467A1 (en) * 2009-07-10 2011-01-13 Tomtom International B.V. Touchscreen input on a multi-view display screen
US9079498B2 (en) * 2009-10-05 2015-07-14 Tesla Motors, Inc. Morphing vehicle user interface
US8818624B2 (en) * 2009-10-05 2014-08-26 Tesla Motors, Inc. Adaptive soft buttons for a vehicle user interface
US8892299B2 (en) * 2009-10-05 2014-11-18 Tesla Motors, Inc. Vehicle user interface with proximity activation
KR20110041110A (ko) * 2009-10-15 2011-04-21 삼성전자주식회사 휴대용 단말기에서 터치 기능 관리 방법 및 장치
EP2367095A3 (de) * 2010-03-19 2015-04-01 Garmin Switzerland GmbH Portables elektronisches Navigationsgerät
KR20110125358A (ko) * 2010-05-13 2011-11-21 삼성전자주식회사 휴대 단말기의 표시부 제어 방법 및 장치
KR101114873B1 (ko) * 2010-08-31 2012-02-28 주식회사 이음플러스 근접센서를 이용한 이동 감지장치 및 이동 감지방법
EP2444882A1 (en) * 2010-10-05 2012-04-25 Koninklijke Philips Electronics N.V. Multi-view display
CN102446011A (zh) * 2010-10-11 2012-05-09 宏碁股份有限公司 多主机触控显示装置
JP2013003841A (ja) * 2011-06-16 2013-01-07 Sony Corp 情報処理装置と情報処理方法ならびにプログラム
JP5857465B2 (ja) * 2011-06-16 2016-02-10 ソニー株式会社 情報処理装置と情報処理方法ならびにプログラム
CN103294208A (zh) * 2012-03-05 2013-09-11 联想(北京)有限公司 一种信息处理的方法和输入装置及一种电子设备
JP2013218549A (ja) * 2012-04-10 2013-10-24 Alpine Electronics Inc 電子機器
JP2013228797A (ja) * 2012-04-24 2013-11-07 Ricoh Co Ltd 画像制御装置、画像処理システムおよびプログラム
EP3040829A1 (de) * 2015-01-02 2016-07-06 Volkswagen AG Anwenderschnittstelle und Verfahren zum Betrieb einer Anwenderschnittstelle für ein Fortbewegungsmittel
TWI579826B (zh) * 2016-03-30 2017-04-21 佳世達科技股份有限公司 顯示裝置及其運作方法
CN110286834A (zh) * 2019-06-20 2019-09-27 Oppo(重庆)智能科技有限公司 显示控制方法及相关设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000329577A (ja) * 1999-05-18 2000-11-30 Fujitsu Ten Ltd 電子装置
JP2004233816A (ja) * 2003-01-31 2004-08-19 Olympus Corp 映像表示装置及び映像表示方法
JP2004245606A (ja) * 2003-02-10 2004-09-02 Denso Corp 車載機器の操作装置
JP2005078076A (ja) 2003-08-30 2005-03-24 Sharp Corp マルチプルビュー方向ディスプレイ
JP2005284592A (ja) * 2004-03-29 2005-10-13 Sharp Corp 表示装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004081777A1 (en) * 2003-03-10 2004-09-23 Koninklijke Philips Electronics N.V. Multi-view display
JP2006047534A (ja) * 2004-08-03 2006-02-16 Alpine Electronics Inc 表示制御システム
US20070297064A1 (en) * 2004-10-27 2007-12-27 Fujitsu Ten Limited Display Device
GB2428153A (en) * 2005-07-08 2007-01-17 Sharp Kk Interactive multiple view display

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000329577A (ja) * 1999-05-18 2000-11-30 Fujitsu Ten Ltd 電子装置
JP2004233816A (ja) * 2003-01-31 2004-08-19 Olympus Corp 映像表示装置及び映像表示方法
JP2004245606A (ja) * 2003-02-10 2004-09-02 Denso Corp 車載機器の操作装置
JP2005078076A (ja) 2003-08-30 2005-03-24 Sharp Corp マルチプルビュー方向ディスプレイ
JP2005284592A (ja) * 2004-03-29 2005-10-13 Sharp Corp 表示装置

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008217576A (ja) * 2007-03-06 2008-09-18 Sharp Corp 液晶タッチパネルと操作キーを有する装置
WO2009143941A1 (de) 2008-05-26 2009-12-03 Volkswagen Aktiengesellschaft Anzeigeverfahren für ein anzeigesystem, anzeigesystem und bedienverfahren für ein navigationssystem eines fahrzeugs
US10330488B2 (en) 2008-05-26 2019-06-25 Volkswagen Ag Display method for a display system, display system and operating method for a navigation system of a vehicle
US9459116B2 (en) 2008-05-26 2016-10-04 Volkswagen Ag Display method for a display system, display system and operating method for a navigation system of a vehicle
JP2010211789A (ja) * 2009-02-12 2010-09-24 Seiko Instruments Inc ポインティングデバイス
JP2010277198A (ja) * 2009-05-26 2010-12-09 Sony Corp 情報処理装置、情報処理方法およびプログラム
US10346027B2 (en) 2009-05-26 2019-07-09 Sony Corporation Information processing apparatus, information processing method, and program
JP2015500545A (ja) * 2011-12-14 2015-01-05 マイクロチップ テクノロジー インコーポレイテッドMicrochip Technology Incorporated 容量近接ベースのジェスチャ入力システム
US9024897B2 (en) 2012-03-14 2015-05-05 Konica Minolta Business Technologies, Inc. Instruction input device and recording medium
JP2018055718A (ja) * 2012-08-27 2018-04-05 マイクロチップ テクノロジー ジャーマニー ゲーエムベーハー 手姿勢制御を伴う入力デバイス
JP2014115876A (ja) * 2012-12-11 2014-06-26 Mitsubishi Electric Corp 3次元タッチパネルを用いた被操作端末の遠隔操作方法
JPWO2015083264A1 (ja) * 2013-12-05 2017-03-16 三菱電機株式会社 表示制御装置及び表示制御方法
JP2015138125A (ja) * 2014-01-22 2015-07-30 京セラディスプレイ株式会社 液晶表示装置
CN104199552B (zh) * 2014-09-11 2017-10-27 福州瑞芯微电子股份有限公司 多屏显示方法、设备及系统
CN104199552A (zh) * 2014-09-11 2014-12-10 福州瑞芯微电子有限公司 多屏显示方法、设备及系统
JP2016184271A (ja) * 2015-03-26 2016-10-20 アルパイン株式会社 入力装置、情報処理装置及びコンピュータプログラム
JP2016033830A (ja) * 2015-11-24 2016-03-10 株式会社ジャパンディスプレイ タッチパネル、表示装置および電子機器
JP2017050029A (ja) * 2016-12-13 2017-03-09 株式会社ジャパンディスプレイ タッチパネル、表示装置および電子機器
US10712874B2 (en) 2017-09-27 2020-07-14 Seiko Epson Corporation Position detection device, position detection system, and method for controlling position detection device

Also Published As

Publication number Publication date
JP4545212B2 (ja) 2010-09-15
EP1988448A1 (en) 2008-11-05
JPWO2007097414A1 (ja) 2009-07-16
US20090021491A1 (en) 2009-01-22

Similar Documents

Publication Publication Date Title
JP4545212B2 (ja) 操作入力装置
JP5409657B2 (ja) 画像表示装置
JP4450657B2 (ja) 表示装置
JP5933824B2 (ja) 車両用電子装置
JP3773716B2 (ja) グラフィカルユーザインターフェース表示装置及びその装置での処理をコンピュータにて行なわせるためのプログラムを格納した記録媒体
WO2013136776A1 (ja) ジェスチャ入力操作処理装置
JP5659595B2 (ja) 情報処理装置、情報処理方法、及びプログラム
EP2829440B1 (en) On-board apparatus
JP5720003B2 (ja) 表示装置
JP2008197934A (ja) 操作者判別方法
US20130097553A1 (en) Information display device and method for shifting operation of on-screen button
WO2011118431A1 (ja) 情報処理装置、表示制御方法、プログラム及び記録媒体
JP2011204023A (ja) 表示装置、表示方法、及び表示プログラム
WO2017169263A1 (ja) 表示処理装置、及び、表示処理プログラム
JP6177660B2 (ja) 入力装置
JP2008065504A (ja) タッチパネル制御装置およびタッチパネル制御方法
WO2007105457A1 (ja) 操作入力装置及びナビゲーション装置
JP2014021748A (ja) 操作入力装置及びそれを用いた車載機器
WO2007097415A1 (ja) 操作入力装置
JP2008114772A (ja) 表示装置
JP2012173997A (ja) 表示装置、表示方法、及び表示プログラム
JP5681013B2 (ja) 電子機器及びその制御方法
JP2014174818A (ja) 電子装置
KR20150100081A (ko) 측면 터치 입력이 가능한 휴대 전자 기기 및 그 제어 방법
JP2014032502A (ja) 操作入力装置、それを用いた車載機器及び操作入力処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
ENP Entry into the national phase

Ref document number: 2008501761

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2007714854

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 12279451

Country of ref document: US