WO2009128148A1 - 遠隔操作装置 - Google Patents

遠隔操作装置 Download PDF

Info

Publication number
WO2009128148A1
WO2009128148A1 PCT/JP2008/057424 JP2008057424W WO2009128148A1 WO 2009128148 A1 WO2009128148 A1 WO 2009128148A1 JP 2008057424 W JP2008057424 W JP 2008057424W WO 2009128148 A1 WO2009128148 A1 WO 2009128148A1
Authority
WO
WIPO (PCT)
Prior art keywords
control device
remote control
display
touchpad
switch
Prior art date
Application number
PCT/JP2008/057424
Other languages
English (en)
French (fr)
Inventor
謙一 大塚
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Priority to JP2010508063A priority Critical patent/JPWO2009128148A1/ja
Priority to PCT/JP2008/057424 priority patent/WO2009128148A1/ja
Publication of WO2009128148A1 publication Critical patent/WO2009128148A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects

Definitions

  • the present invention relates to a remote control device in which a touchpad is arranged away from a display device.
  • a switch operation on an in-vehicle display there are known a method of touching the screen as it is and a method of remote control using a joystick or a rotary commander mounted at a position away from the screen.
  • the problems to be solved by the present invention include the above-mentioned problems as an example.
  • the invention predicts a next operation target based on an operation state detected by the touchpad detecting the operation state of the operation surface and the touchpad, And a control device that generates a video signal for displaying the next operation object in a selected state.
  • FIG. 1 is a diagram illustrating an example of an appearance inside a vehicle in which the remote control device 1 according to the first embodiment is mounted.
  • the remote operation device 1 includes a first touch pad 11, a second touch pad 12, and an integrated control device 13.
  • the remote control device 1 only needs to include at least one of the first touch pad 11 and the second touch pad 12.
  • the configuration of the remote control device 1 may further include a display 14.
  • the display 14 performs display based on the video signal output from the integrated control device 13.
  • the first touch pad 11 is disposed between the driver's seat 4 and the passenger seat in the vehicle, and is connected to the integrated control device 13.
  • the first touch pad 11 detects the operation state of the operation surface, and outputs the operation state, that is, coordinates indicating the position of the contact portion to the integrated control device 13.
  • the first touch pad 11 can push the operation surface in the vertical direction as will be described later, and outputs a confirmation signal to the integrated control device 13 when pushed.
  • the second touch pad 12 is, for example, disposed on the steering wheel 5 in the vehicle and connected to the integrated control device 13.
  • the second touch pad 12 detects the operation state of the operation surface, and outputs the operation state, that is, coordinates indicating the position of the contact portion to the integrated control device 13. Further, the second touch pad 12 can push the operation surface in the vertical direction as will be described later, and outputs a confirmation signal to the integrated control device 13 when pushed.
  • the integrated control device 13 detects that the operation object has been operated by receiving a confirmation signal when an operation object such as a switch is in a selected state.
  • first touch pad 11 and the second touch pad 12 for example, a pressure-sensitive or electrostatic touch pad can be adopted.
  • the second touch pad 12 will be described unless otherwise required.
  • the display 14 is disposed at a slightly upper position of the dashboard 3 between the driver's seat 4 and the passenger seat, for example, as a position that is easily visible in the vehicle.
  • the display 14 is connected to the integrated control device 13 and performs display based on the video signal output by the integrated control device 13.
  • the display 14 is installed apart from the second touch pad 12 and displays the next operation object in the display area based on the video signal under the control of the integrated control device 13.
  • the display 14 displays an image such as a moving image or a still image, a map, and an operation target such as a switch or a cross cursor over the map.
  • the integrated control device 13 is arranged inside the dashboard 3 in the vehicle.
  • the integrated control device 13 corresponds to a control device, predicts the next operation object displayed on the display 14 based on the operation state detected by the second touch pad 12, and sets the operation object to the selected state.
  • a video signal for generating a display mode is generated.
  • the integrated control device 13 may have a navigation function for performing guidance according to a route search result, an audio function for outputting video and sound, or a function of any combination thereof.
  • the integrated control device 13 can communicate with an air conditioner device that adjusts the temperature inside the vehicle, for example, and can control this or display the state on the display 14.
  • the integrated control device 13 controls the display area of the display 14 based on the sliding direction from the position where the sliding of the operation surface of the second touchpad 12 is started by the contact of the operator's finger. It is predicted that the next operation object arranged ahead of the corresponding sliding direction should be selected.
  • the integrated control device 13 is arranged at a position moved by the sliding amount in the vicinity of the sliding direction in the display area based on the sliding amount and the sliding direction from the position where sliding started on the operation surface. Predict that the next operation object should be selected.
  • FIG. 2 and 3 are cross-sectional views showing examples of the cross-sectional structure of the second touch pad 12 shown in FIG.
  • FIG. 2 shows a state in which the second touchpad 12 is touched with the operator's finger
  • FIG. 3 shows a state in which the second touchpad 12 is pushed in with the operator's finger.
  • the first touch pad 11 has substantially the same configuration and function as the second touch pad 12 except for the appearance such as the shape of the operation surface 11a, and thus the description thereof is omitted.
  • the second touch pad 12 includes a housing 12c, a base portion 12d, a support 12e, an operation portion 12b, and a detection switch 12f.
  • the structure of the support 12e is shown in a simplified manner.
  • the housing 12c constitutes the exterior of the second touch pad 12, and is formed with a recess that is recessed from the operation surface 12a in the thickness direction.
  • a base portion 12d is disposed at the bottom of the recess, and a detection switch 12f is disposed substantially at the center of the base portion 12d.
  • the detection switch 12f operates when the operation surface 12a is pushed.
  • the detection switch 12f has a projection 12g as shown in FIG. 3, and is in contact with a part of the operation unit 12b supported in a state of being urged by the support 12e so as to be parallel to the base 12d. .
  • This detection switch 12f incorporates a spring or rubber.
  • the support column 12e is a member for maintaining the parallel state of the operation unit 12b and the base unit 12d.
  • the operating portion 12b is urged in the direction pushed out from the back of the recess along the thickness direction T by the repulsive force of the spring or rubber while being supported so as to be parallel to the base portion 12d. ing.
  • Such a support 12e is parallel to the base portion 12d and smooth without causing the operation portion 12b to tilt or touch the housing 12c even when the end of the support surface 12a is pressed near the center. Is provided to move on.
  • the second touch pad 12 has a function that allows the operation unit 12b to maintain a parallel posture with respect to the base portion 12d and to be pushed in smoothly even when the end portion of the operation unit 12b is pressed.
  • the operation portion 12b is repelled by the spring or rubber as shown in FIG. Is urged to return to the original position.
  • the state where the operation unit 12b is pushed in as shown in FIG. 3 is referred to as “Enter”.
  • FIG. 4 is a conceptual diagram showing an example of the configuration and appearance of the remote control device 1 shown in FIG.
  • FIG. 4 is a block diagram showing the functions of the integrated control device 13 in the remote control device 1 in a simplified manner.
  • the first touch pad 11 and the second touch pad 12 are connected to the integrated control device 13, and the integrated control device 13 is connected to the display 14.
  • the second touch pad 12 or the like outputs a coordinate signal related to coordinates representing the operation position according to the operation state of the operation surface 12a to the integrated control device 13, or the detection switch when the operation surface 12a is pushed.
  • 12f is activated, a confirmation signal is output.
  • the integrated control device 13 includes a prediction unit 13b and a control unit 13a.
  • the prediction unit 13b predicts the next operation target based on the operation state detected by at least one of the first touch pad 11 and the second touch pad 12.
  • the control unit 13a detects that the next operation object such as a switch that has been selected when the detection switch 12f is activated is confirmed.
  • the control part 13a produces
  • the integrated control device 13 outputs a video signal to the display 14.
  • the remote operation device 1 has one configuration example as described above. Next, an example of a remote operation method according to the one configuration example will be described with reference to FIGS. In the following description, the first touch pad 11 is omitted and the second touch pad 12 is used unless otherwise specified.
  • the above-described second touch pad 12 can obtain two-dimensional coordinates according to the position where the operator's finger or the like is in contact.
  • the touch pad such as the second touch pad 12 selects and employs one of the following operation rules.
  • the absolute coordinates touched on the operation surface 12a of the second touch pad 12 are set as pointer coordinates on the screen.
  • the second touch pad 12 integrates the coordinate signal based on the absolute coordinate of the position where the sliding has started from the absolute coordinate of the position where the sliding is started.
  • Output to the control device 13. the integrated control device 13 generates a video signal for moving the pointer from the corresponding start coordinate to the end coordinate in the display area of the display 14 as shown in FIG.
  • the pointer on the screen is set relative to the current position in accordance with at least one of the sliding movement amount and sliding direction on the operation surface 12a of the second touch pad 12.
  • Move For example, as shown in FIG. 7, when the finger F is slid as shown by an arrow, the second touch pad 12 integrates the coordinate signal based on the relative coordinates of the position where the sliding is started from the relative coordinates of the position where the sliding is started.
  • the prediction unit 13b of the integrated control device 13 causes the operation target that is closest to the reference to the absolute coordinate position where the finger F first touches the operation surface 12a to be operated next. Predict as a thing. For example, as shown in FIG. 9, when the finger F touches the lower right of the operation surface 12a, the touched position corresponds to the region TP in the corresponding display area of the display device 14 in FIG.
  • the “Climate” switch 14c is selected as the operation object having coordinates closest to the position. Note that the selection state referred to here represents a state where the operation is completed when confirmed, and in this embodiment, it is exemplified that the operation object is visually displayed as shown in the drawing. . If not only the “Climate” switch 14c but also the “Audio” switch 14a, the “Navi” switch 14b or the “return” switch 14d are determined as selected states, the respective functions are executed or the corresponding next Transition to the screen.
  • the predicting unit 13b of the integrated control device 13 will want to operate the nearest operation object next in accordance with at least one of the sliding direction and the sliding amount from the position where the finger F first touches. Predict that it is an operation object. For example, as shown in FIG. 11, when a certain amount is slid to the left, the “Navi” switch 14b, which is the operation object on the left, is selected in the corresponding display area of the display device 14 of FIG. In this way, regardless of the display size of the “Navi” switch 14b, when the touched coordinate moves by a certain amount (hereinafter referred to as “sliding amount”), the switch adjacent to the moving direction, etc.
  • sliding amount a certain amount
  • the operator does not need to slide the finger F by the size of the operation object such as a switch. Furthermore, when the operator slides the finger F to the left by a predetermined sliding amount as shown in FIG. 13, the control unit 13a of the integrated control device 13 is arranged further to the left in the display area of the display device 14 shown in FIG.
  • the “Audio” switch 14a that is the operation target to be switched is switched to the selected state. Note that the cross cursor is drawn in FIGS. 12 and 14 described above and FIG. 16 described later, but this is merely an expression for explaining the position, and in actuality, the cross cursor is not displayed on these screens.
  • the selected operation object is “Audio”. If the switch 14a remains unchanged, but the finger F is slid rightward without being separated from the operation surface 12a, and the total sliding direction falls within the range between the reference point Ra and the reference point Rb, As shown in FIG. 16, the “return” switch 14d is selected.
  • the control unit 13a of the integrated control device 13 selects a certain operation target (for example, “Climate” switch 14c illustrated in FIG. 10) by touching the operation surface 12a with the finger F as illustrated in FIG.
  • a certain operation target for example, “Climate” switch 14c illustrated in FIG. 10
  • the control unit 13a uses, for example, a “Climate” switch 14c indicated by hatching in FIG. 18 as the display mode of the operation target thus determined.
  • this fixed display mode may be a mode in which an operation object such as a switch is displayed in reverse video.
  • the control unit 13a of the integrated control device 13 cancels the selection state of the operation target such as each switch described above. Thereafter, when the operator touches the operation surface 12a with the finger F, the process returns to the first rule.
  • the second touch pad 12 is mounted at a fixed position on the steering wheel and has a size of, for example, 5 to 7.5 cm (equivalent to 2 to 3 inches).
  • the operator who is an operator can perform the following operations. That is, after the operator has mastered the operation to some extent, if the operator knows a rough position on the operation surface 12a corresponding to the absolute position where the desired switch 14a exists on the display area of the display 14, the operation surface It is possible to perform an ambiguous operation without visually recognizing 12a.
  • the operator touches the finger F so as to be close to the desired operation target on the operation surface 12a, and then slides the finger F to the desired operation target while referring to the display 14, There is no need to slide the operation surface 12a accurately in accordance with the coordinates of the operation object on the display area of the display 14, and if the sliding direction is approximately the same, the desired operation object can be smoothly and quickly moved. You can reach to choose.
  • This artist selection screen is a screen for selecting one of the list items by displaying the list items 14o, 14p, 14q, 14r, and 14s by sliding the slide portion 14n of the scroll bar 14m.
  • the list item 14s ("Noriyuki Makihara" shown in the figure) arranged at the lowermost part is selected correspondingly as shown in FIG. .
  • a bottom list item is displayed. You can choose quickly.
  • the finger F touches the operation surface 12a and “Makihara Noriyuki” is selected as shown in FIG. Then, the operator's intention to select the list item after “Noriyuki Makihara” may be determined, and scrolling may be continuously performed while the finger F is touching the operation surface 12a. When the finger F is slid in the upward direction (reverse direction) of the operation surface 12a from this state, the scroll may be stopped and the lowest target may be selected.
  • the present embodiment can be applied as follows.
  • the screen transits to the navigation basic screen and transits to the destination selection screen of the screen hierarchy shown in FIG.
  • this destination selection screen five list items are arranged vertically along the scroll bar 14m in the left and right regions.
  • the list of prefectures arranged vertically in the left region in FIG. 26 is scrolled, and the operation surface shown in FIG.
  • the names of the municipalities arranged in the vertical direction in the right area in FIG. 26 are scrolled.
  • the list items on the left and right are linked, and the municipality name on the right side is the name of the municipality corresponding to the prefecture name (in the example shown in the figure) selected by the prefecture name on the left side. Note that when sliding as shown in FIG. 27 is performed at a normal speed, the selection items can be changed as described above.
  • the control unit 13a of the integrated control device 13 switches between two modes, for example, a normal mode and a map operation mode.
  • the normal mode represents a state in which the rule of the above-described embodiment that can be operated by predicting the next operation object is applied as before, and the rule described below is applied to the map operation mode. It represents the state that was done.
  • the normal mode represents a state in which the operation object (corresponding to the “view” switch or the like shown in the figure) is displayed on the display area of the display 14 as described above and the map is displayed and only the operation of the operation object is allowed. ing.
  • the map operation mode represents an operation state in which a transition from the normal mode is triggered when a specific operation state is detected by the second touch pad 12, and an operation at an arbitrary point on the map is permitted with the cross cursor 14x.
  • a specific operation state for example, as shown in FIG. 29, the sliding direction of the finger F can be adjusted in a direction in which there is no operation object between switches or the like.
  • a predetermined switch for changing from the normal mode to the map operation mode may be pressed and confirmed.
  • the cross cursor 14x is displayed together with the operation object on the map displayed on the display device 14 as shown in FIG.
  • the cross cursor 14x can scroll the display content so that the touched position on the map is the center, or touch the top, bottom, left, and right edges of the operation surface 12a, and continuously in that direction while touching. It can be scrolled.
  • the cross cursor 14x can be moved in a desired direction in the display area by the operator sliding the finger F while touching the operation surface 12a. At this time, when the finger F is pushed vertically into the operation surface 12a at a certain point, the point is fixed.
  • FIG. 31 is a plan view showing a configuration example of the operation surface 12a of the second touch pad 12 partially provided with the shortcut area 12g.
  • the shortcut area 12g may be formed on the operation surface of the first touch pad 11 described above.
  • the second touch pad 12 is provided with a shortcut area 12g below the operation surface 12a.
  • the remaining area of the operation surface 12a is referred to as a normal area 12h.
  • the shortcut region 12g may have a convex portion or a concave portion as a boundary 12i extending between the normal region 12h and the shortcut region 12g.
  • the shortcut area 12g may be configured such that the surface thereof is different from the normal area 12h by tactile sense. That is, the shortcut region 12g may be configured such that, for example, the surface roughness thereof is different from the surface roughness of the normal region 12h. The shortcut area 12g may be made different from the material of the normal area 12h, for example. In this way, the operator can identify the normal area 12h and the shortcut area 12g by simply touching with the finger F without gazing.
  • the shortcut screen 14z corresponding to the shared screen may be preferentially displayed.
  • the shortcut screen 14z includes, for example, operation objects for operations that are frequently used, as well as operation objects for operations common to the transitioned screens (such as the “Navi” switch in FIG. 10 described above). Yes.
  • the operation object for common operation in each screen here corresponds to an example of “common operation object”.
  • the second touch pad 12 vibrates the operation surface 12a at the moment when the operation object such as a switch is switched according to the manual state of the operation surface 12a by the operator's finger F, and the operation object is sensed by touch. It may be possible to recognize that the operation object has been switched without being close to vision.
  • the second touch pad 12 gives a tactile sensation over the convex portion or the concave portion as the finger F slides on the operation surface 12a.
  • the vertical movement may be given in the vertical direction to the operation surface 12a.
  • the touchpads 11 and 12 that detect the operation state of the operation surface and the next operation based on the operation state detected by the touchpads 11 and 12.
  • a control device 13 (corresponding to an integrated control device) that generates a video signal for predicting the object and setting the display state in which the next operation object is selected.
  • the next operation object predicted from the operation state is specified, and the next operation object is selected. It can be in a selected state. Even if such an ambiguous operation is performed, the operator can intuitively select the desired operation target, so that it is not necessary to pay attention to the operation of the desired operation target.
  • an operator can operate a desired operation target as a selected state by an ambiguous operation without knowing a specific operation content such as a gesture for operating the desired operation target. it can.
  • the touchpads 11 and 12 are further provided apart from each other, and the next control based on the video signal is controlled by the control device 13. It has the display apparatus 14 (equivalent to a display) which displays an operation target.
  • the next operation object of the display device 14 predicted from the operation state is specified, and the next The operation object can be selected. Even if such an ambiguous operation is performed, the operator can intuitively select the desired operation object on the display device 14, so that the display device 14 can be operated when operating the desired operation object. No need to watch.
  • an operator can operate a desired operation target as a selected state by an ambiguous operation without knowing a specific operation content such as a gesture for operating the desired operation target. it can.
  • control device 13 further displays the display on the display device 14 based on the sliding direction from the position where sliding started on the operation surface. It is predicted that the next operation object disposed ahead of the corresponding sliding direction in the region should be selected.
  • control device 13 is further configured based on the sliding amount and the sliding direction from the position where the operation surfaces 11a and 12a start sliding. In the display area, it is predicted that the next operation object to be placed at a position moved by the sliding amount in the vicinity of the sliding direction should be selected.
  • the touchpads 11 and 12 further include detection switches 12f that detect that the touchpads 11 and 12 (the operation unit 12b) are pushed.
  • the control device 13 detects that the next operation object which has been selected when the detection switch 12f is activated is determined as an operation object.
  • the operator can not only select the next operation target even if the operation surfaces 11a and 12a of the touchpads 11 and 12 are ambiguously operated, but also the operation surface without moving the finger F.
  • the next operation object can be easily determined as the object to be operated.
  • the touch pads 11 and 12 do not require a space for placing a hard switch for determination around the touch pads 11 and 12, and thus can be mounted on a small surface area such as the steering wheel 5.
  • the next operation object is superimposed on the display area of the display device 14 to display a map, and only the operation of the next operation object is performed.
  • a map operation mode that transitions from the normal mode when a specific operation state is detected by the touchpads 11 and 12 and allows an operation at an arbitrary point on the map. It is characterized by switching.
  • the operator can not only operate the operation target on the map by an ambiguous operation while displaying the map in the display area of the display device 14 in the normal mode, but also can display the map as necessary.
  • the mode is changed to the operation mode, and an operation can be performed on a desired point on the map. For this reason, the operator can freely perform a desired operation according to the situation.
  • the control unit 13a selects the operation target according to the predicted next operation. You may make it.
  • the control device 13 operates the specific area 12g (corresponding to the shortcut area) of the operation surfaces 11a and 12a with the touchpads 11 and 12.
  • a shared screen (corresponding to a shortcut screen) 14z for displaying a shared operation object is displayed in a part of the display area corresponding to the specific area 12g.
  • an information switch for presenting certain specific information can be exemplified in addition to a switch over each screen when a plurality of screens are changed.
  • the operator can touch the specific area and display the common screen 14z in the display area without paying attention to the operation surfaces 11a and 12a of the touch pads 11 and 12. Then, the shared operation object can be displayed frequently or on each screen on the shared screen 14z, and the shared operation object can be displayed immediately.
  • the operation surfaces 11a and 12a of the touchpads 11 and 12 include the specific area 12g (corresponding to a shortcut area) and other areas 12h (normally (Corresponding to the region) is made of a surface member made of a material or processing that can be identified by tactile sense.
  • the operator can grasp the position of the specific area by touch without touching the operation surfaces 11a, 12a of the touch pads 11, 12, and touch the specific area to make the common screen 14z a display area. Can be displayed.
  • the operation surfaces 11a and 12a of the touchpads 11 and 12 have a boundary 12i between the specific region 12g and the other region 12h.
  • a groove or a convex portion is formed along.
  • the integrated control device 13 may control the following modes according to the contact state of the operator's finger F with the operation surface 12a. . That is, when the operation surface 12a is slid in the circumferential direction, that is, in an arc shape with the operator's finger F, the integrated control device 13 temporarily stops the selection of each switch described above, for example, the sliding direction of the operation surface 12a.
  • the audio volume may be changed according to the above.
  • Examples of the same switch that is repeatedly operated include a “return” switch arranged at the right end of the screen. In this way, when returning to the upper layer continuously, the “return” switch can be operated continuously without moving the finger F even if the switch layout of the screen that passes is different. become.
  • the integrated control device 13 may recognize only the confirmation operation after a predetermined time has elapsed after recognizing the contact of the operation surface 12a as a true confirmation operation.
  • the integrated control device 13 may provide a constant width portion (hereinafter referred to as “non-detection zone”) that does not detect the contact of the finger F at the boundary between the shortcut region 12g and the normal region 12h on the operation surface 12a. Providing the non-detection band in this way can prevent malfunction when the operator touches the boundary with the finger F.
  • the remote control device 1 in the above embodiment is further configured so that the temporal transition of the operation state when the pressure-sensitive touch pad 12 detects pressure is in a specific direction (downward). Direction), the operation state is detected by excluding the transition of the operation state in the specific direction.
  • the control device 13 may not only exclude the operation state but also reduce the detection sensitivity of the operation state.
  • the remote control device 1 in the above embodiment is further detected by the touch pad 12 when an increase in contact area is detected by the electrostatic touch pad 12.
  • the operation state is detected by excluding the transition of the operation state in the specific direction.
  • the control device 13 may not only exclude the operation state but also reduce the detection sensitivity of the operation state.
  • the operation object is displayed according to the next screen. May be left as it is, or the display of the operation target may be deleted.
  • a switch for enlarging or reducing the map display can be cited as a case where the display of the operation target is left in accordance with the next screen.
  • a switch that may not be used on the next screen can be cited.
  • the integrated control device 13 is a strip-like invalidation area that invalidates the contact state over a certain width along the boundary 12i between the shortcut area 12g and the normal area 12h of the operation surface 12a of the touch pad 12. It is also good. In this way, it is possible to prevent the unintended shortcut screen 14z from being displayed every time the operator accidentally touches the boundary 12i with the finger F.
  • the remote control device 1 in the above embodiment can be applied not only to the above-described form but also to a remote controller of a home-use television receiver, a touch pad of a notebook computer, or the like.
  • FIG. 1st Embodiment It is a figure which shows an example of the external appearance in the vehicle carrying the remote control apparatus in 1st Embodiment. It is sectional drawing which shows the cross-sectional structural example of the 2nd touchpad shown in FIG. It is sectional drawing which shows the cross-sectional structural example of the 2nd touchpad shown in FIG. It is a conceptual diagram which shows the connection structural example of the remote control apparatus shown in FIG. It is a figure which shows an example of a mode that the operator's finger

Abstract

【課題】所望の操作対象物を注視しながら位置合わせをしなければ操作することができなかった。 【解決手段】遠隔操作装置1が、操作面11a,12aの操作状態を検知するタッチパッド11,12によって検知された操作状態に基づいて次の操作対象物を予測し、当該操作対象物を選択状態とした表示態様とするための映像信号を生成する統合制御装置13を有する。操作者は、曖昧な操作でも所望の次の操作対象物を操作することができる。

Description

遠隔操作装置
 本発明は、タッチパッドが表示装置から離れて配置されている遠隔操作装置に関する。
 車載用ディスプレイ(以下「ディスプレイ」と称する)上のスイッチ操作としては、画面をそのままタッチする方法と、画面から離れた位置に搭載したジョイスティックやロータリーコマンダーなどにより遠隔操作する方法が知られている。
 前者は、運転者が容易に指で触れることのできる位置にディスプレイを搭載しなければならず、ディスプレイの位置が相対的に低くなってしまうため、運転者が路面から視線を逸らす時間が長くなってしまう。またディスプレイ搭載位置の制約は、インテリアデザインへの制約にもなってしまう。よって近年、後者の遠隔操作する方法が採用される場合が多い。
特開2000-187554号公報
 しかしながら、上下左右スイッチ、ジョイスティック、ロータリーコマンダーなどを用いた遠隔操作では操作が煩雑となるため、タッチ式のように画面上に多くのスイッチを置くことができなかった。このような対策として多くの階層の画面遷移をおこなうようにすると、その画面の階層が深くなり操作にあたり画面を注視しなければならない時間が増えるといった問題点があった。また運転者にとっても、直感的にスイッチを選択することができず複雑な操作を強いられる傾向があるという潜在的な不満が生じていた。
 本発明が解決しようとする課題には、上記した問題が一例として挙げられる。
 上記課題を解決するために、請求項1に記載の発明は、操作面の操作状態を検知するタッチパッドと、前記タッチパッドによって検知された操作状態に基づいて次の操作対象物を予測し、前記次の操作対象物を選択状態とした表示態様とするための映像信号を生成する制御装置と、を有する。
 以下、本発明の一実施の形態を図面を参照しつつ説明する。
 図1は、第1実施形態における遠隔操作装置1を搭載する車内の外観の一例を示す図である。遠隔操作装置1は、第1タッチパッド11、第2タッチパッド12及び統合制御装置13を備えている。なお、遠隔操作装置1は、第1タッチパッド11及び第2タッチパッド12の少なくとも一方を備えていれば良い。この遠隔操作装置1の構成にはさらにディスプレイ14を含んでいても良い。ディスプレイ14は、統合制御装置13が出力する映像信号に基づいて表示をおこなう。
 第1タッチパッド11は車内における運転席4と助手席との間に配置されており、統合制御装置13に接続されている。第1タッチパッド11はその操作面の操作状態を検知し、その操作状態、つまり接触部分の位置を表す座標を統合制御装置13に出力する。また第1タッチパッド11は、後述するように操作面をその垂直方向に押し込むことが可能であり、押し込んだ際に確定信号を統合制御装置13に出力する。
 第2タッチパッド12は、たとえば、車内におけるステアリングホイール5に配置されており、統合制御装置13に接続されている。この第2タッチパッド12はその操作面の操作状態を検知し、その操作状態、つまり接触部分の位置を表す座標を統合制御装置13に出力する。また、第2タッチパッド12は、後述するように操作面をその垂直方向に押し込むことが可能であり、押し込んだ際に確定信号を統合制御装置13に出力する。この統合制御装置13は、あるスイッチなどの操作対象物が選択状態にある場合に確定信号を受け取ったことでこの操作対象物が操作されたものと検出する。
 第1タッチパッド11及び第2タッチパッド12としては、例えば感圧式又は静電式のタッチパッドを採用することができる。以下の説明では、特に必要がある場合を除いて第2タッチパッド12を用いて説明する。
 ディスプレイ14は、車内における視認しやすい位置として、例えば運転席4と助手席との間のダッシュボード3のやや上部に配置されている。このディスプレイ14は、統合制御装置13に接続されており、統合制御装置13が出力する映像信号に基づいて表示をおこなう。ディスプレイ14は、第2タッチパッド12とは離れて設置されており、統合制御装置13の制御によって当該映像信号に基づいて次の操作対象物を表示領域に表示する。ディスプレイ14は、その表示領域に、動画や静止画などの映像、地図、これらに重ねてスイッチ、十字カーソルなどの操作対象物を表示する。
 統合制御装置13は、車内においてダッシュボード3の内部に配置されている。統合制御装置13は制御装置に相当し、第2タッチパッド12によって検知された操作状態に基づいてディスプレイ14に表示されている次の操作対象物を予測し、当該操作対象物を選択状態とした表示態様とするための映像信号を生成する。統合制御装置13は、このような機能の他にも、経路の探索結果に従って誘導をおこなうナビゲーション機能、映像や音を出力させるオーディオ機能又はこれらいずれかの組み合わせの機能を有する形態であってもよい。統合制御装置13は、例えば車内の温度調整をおこなうエアーコンディショナー装置との間で通信をおこない、これを制御したり、その状態をディスプレイ14に表示させることができる。
 具体的には、統合制御装置13は、第2タッチパッド12の操作面において操作者の指の接触により摺動を開始した位置からの摺動方向に基づいて、上記ディスプレイ14の表示領域にて対応するその摺動方向の先に配置している次の操作対象物が選択状態とされるべきであると予測する。
 また統合制御装置13は、その操作面において摺動を開始した位置からの摺動量及びその摺動方向に基づいて、その表示領域においてその摺動方向近傍でその摺動量分移動した位置に配置する次の操作対象物が選択状態とされるべきであると予測する。
 図2及び図3は、それぞれ図1に示す第2タッチパッド12の断面構成例を示す断面図である。図2は、操作者の指で第2タッチパッド12を触れた様子を示しており、図3は、操作者の指で第2タッチパッド12を押し込んだ様子を示している。なお第1タッチパッド11は、操作面11aの形状などの外観を除いて第2タッチパッド12とほぼ同様の構成及び機能であるので説明を省略する。
 第2タッチパッド12は、筐体12c、ベース部12d、支柱12e、操作部12b及び検出スイッチ12fを有する。なお支柱12eの構成については簡素化して図示している。
 筐体12cは、第2タッチパッド12における外装を構成しており、操作面12aから厚さ方向に窪んだ構成の凹部が形成されている。この凹部の底部にはベース部12dが配置しており、そのベース部12dのほぼ中央には検出スイッチ12fが配置されている。この検出スイッチ12fは、操作面12aが押し込まれることで作動する。この検出スイッチ12fは、図3に示すように突起部12gを有し、ベース部12dと平行となるように支柱12eによって付勢された状態で支えられた操作部12bの一部に接している。この検出スイッチ12fはバネやゴムを内蔵している。
 この支柱12eは、操作部12bとベース部12dとの平行状態を保つための部材である。操作部12bは、そのようにベース部12dと平行となるように支えられた状態で、上記バネやゴムによる反発力により、厚み方向Tに沿って凹部の奥からから押し出される方向に付勢されている。このような支柱12eは、操作面12aの中心付近ではなく端を押した時でも操作部12bが傾いたり、筐体12cと触れて引っかかったりすることなく、ベース部12dと平行に、かつ、スムーズに移動するために設けられている。このように第2タッチパッド12は、その操作部12bの端の部分を押しても操作部12bがベース部12dに対して平行姿勢を維持し、スムーズに押し込むことができる機能を有する。操作者が指Fで操作面12aを触れた状態で、図3に示すように操作部12bを押し込んだ後に力を緩めると、図2に示すように操作部12bが上記バネやゴムによる反発力により元の位置に戻るように付勢されている。以下の説明では、図3に示すように操作部12bが押し込まれた状態を「確定(Enter)」と呼んでいる。
 図4は、図1に示す遠隔操作装置1の構成例及び外観の一例を示す概念図である。なお、図4は遠隔操作装置1のうち統合制御装置13の機能を簡素化して表したブロック図である。
 遠隔操作装置1は、第1タッチパッド11及び第2タッチパッド12が統合制御装置13に接続されており、この統合制御装置13がディスプレイ14に接続されている。第2タッチパッド12等は、統合制御装置13に対し、その操作面12aの操作状態に応じて操作位置を表す座標に関する座標信号を出力したり、操作面12aが押し込まれた場合に上記検出スイッチ12fが作動した時に確定信号を出力する。
 統合制御装置13は予測部13b及び制御部13aを有する。予測部13bは第1タッチパッド11及び第2タッチパッド12の少なくとも一方によって検知された操作状態に基づいて次の操作対象物を予測する。
 制御部13aは、その検出スイッチ12fが作動した際に選択状態であったスイッチなどの次の操作対象物が確定されたものと検出する。制御部13aは、その予測された次の操作対象物を選択状態とした表示態様とするための映像信号を生成する。この統合制御装置13は、ディスプレイ14に対して映像信号を出力する。
 遠隔操作装置1は以上のような一構成例であり、次に図1~図4を参照しつつ当該一構成例による遠隔操作方法の一例について説明する。なお以下の説明においても、特に必要がない限り第1タッチパッド11を省略し、第2タッチパッド12を用いて説明する。
 上述した第2タッチパッド12は、操作者の指などが接触した位置に応じて二次元の座標を得ることができる。第2タッチパッド12などのタッチパッドにおいては次のようないずれかの操作ルールを選択して採用している。
1.絶対座標を用いた操作ルール
 絶対座標を用いたルールでは、第2タッチパッド12の操作面12a上において触れた絶対座標を画面上のポインタ座標とする。例えば図5に示すように指Fを矢印のように摺動させると、第2タッチパッド12は、その摺動を開始した位置の絶対座標から終了した位置の絶対座標に基づく座標信号を上記統合制御装置13に出力する。すると、この統合制御装置13は、図6に示すようにディスプレイ14の表示領域内において対応する開始座標から終了座標までポインタを移動させる映像信号を生成し、ディスプレイ14に対して出力する。
2.相対座標を用いたルール
 相対座標を用いたルールでは、第2タッチパッド12の操作面12a上の摺動の移動量及び摺動方向の少なくとも一方に応じて画面上のポインタを現在の位置から相対的に動かす。例えば図7に示すように指Fを矢印のように摺動させると、第2タッチパッド12は、その摺動を開始した位置の相対座標から終了した位置の相対座標に基づく座標信号を上記統合制御装置13に出力する。すると、この統合制御装置13は、図8に示すように表示領域内において相対的に対応する開始座標から終了座標までポインタを移動させる映像信号を生成し、ディスプレイ14に対して出力する。
 本実施形態では、以下の4つのルールを適用して画面上の操作対象物を選択することを例示する。
 第1ルールでは、統合制御装置13の予測部13bは、指Fが操作面12aの最初に触れた絶対座標の位置を基準に一番近い位置の操作対象物が次に操作したいであろう操作対象物として予測する。例えば図9に示すように指Fが操作面12aの右下を触れると、これに対応した図10の表示装置14の表示領域では、その触れた位置が領域TPに相当するが、この触れた位置から最も近接する座標の操作対象物として「Climate」スイッチ14cが選択状態となる。なおここでいう選択状態とは、確定すると操作が完了する状態を表しており、本実施形態では、視覚上、図示のように操作対象物が縁取りされた表示態様となっているものと例示する。またこのような「Climate」スイッチ14cのみならず、「Audio」スイッチ14a、「Navi]スイッチ14b又は「戻る」スイッチ14dを選択状態として確定すると、各々その機能を実行するか、または、対応した次の画面に遷移する。
 第2ルールでは、統合制御装置13の予測部13bは、指Fが最初に触れた位置からの摺動方向及び摺動量の少なくとも一方に応じて、最も近い操作対象物が次に操作したいであろう操作対象物であると予測する。例えば図11に示すように一定量左に摺動させると、これに対応した図12の表示装置14の表示領域では、左隣の操作対象物である「Navi」スイッチ14bが選択状態となる。このようにすると、この「Navi」スイッチ14bの表示上の大きさにかかわらず、触れた座標が一定量(以下、「摺動量」と称する)移動した場合に、その移動方向に隣接するスイッチなどの操作対象物が存在すれば、その操作対象物に切り替えるため、操作者は指Fをスイッチなどの操作対象物の大きさ分摺動させる必要がなくなる。またさらに操作者が図13に示すように指Fを所定の摺動量左に摺動させると、統合制御装置13の制御部13aは、図14に示す表示装置14の表示領域においてさらに左に配置する操作対象物である「Audio」スイッチ14aを選択状態に切り替える。なお、上述した図12、図14及び後述する図16に十字カーソルが描かれているが、これはあくまでも位置を説明するための表現であり、実際にはこれらの画面に十字カーソルは表示されない。
 この状態から操作者が図15に示すように指Fを基準点Raと基準点Rbとの間の右上方向に摺動させると、対応する図16の表示装置14の表示領域にほぼその方向の先に「戻る」スイッチ14dがあるため、この「戻る」スイッチ14fが選択された状態に切り替わる。この場合、その摺動方向が現在位置を基準とした場合に基準点Raの方向へは多少大きめにずれても、その他に選択可能なスイッチが存在しないため、「戻る」スイッチ14dが選択状態に切り替わる。
 このとき、その摺動方向が現在位置から基準点Raの左側に傾きながらもおおよそ上方向に向いている場合は、選択される操作対象物はその「戻る」スイッチ14dのまま変わらないようになっている。一方、その摺動方向が現在位置から基準点Rbの右側に傾きながらもおおよそ「Navi」スイッチ14bの方向(又はやや下方)に向いている場合には、「戻る」スイッチ14dではなく「Navi」スイッチ14bが選択されるよう切り替わる。
 また、その代わりに図13に示す指Fの位置からの摺動方向が図17に示すように真上方向より左に傾いて向いている場合は、選択されている操作対象物が「Audio」スイッチ14aのまま変更ないが、その後に指Fを操作面12aから離さずに右方向に摺動させてトータルの摺動方向が基準点Raと基準点Rbとの範囲に入った場合は、上述した図16に示すように「戻る」スイッチ14dが選択される。
 第3ルールでは、統合制御装置13の制御部13aは、図9に示すように指Fが操作面12aに触れ、ある操作対象物(例えば図10に示す「Climate」スイッチ14c)を選択している状態でそのまま操作面12aを押し込むと、その「Climate」スイッチ14cが確定したものとする。この制御部13aは、このように確定した操作対象物の表示態様として、例えば図18に斜線で示した「Climate」スイッチ14cとする。なおこの確定した表示態様としては、スイッチなどの操作対象物が反転表示された態様であってもよい。
 第4ルールでは、統合制御装置13の制御部13aは、操作者が指Fを操作面12aから離すと、上述した各スイッチなどの操作対象物の選択状態は解除される。その後に操作者が指Fで操作面12aに触れると、上記第1ルールに戻る。
 上述のように第2タッチパッド12は、たとえば、ステアリングホイール上の固定された位置に搭載され、大きさは例えば5~7.5cm(2~3インチに相当)であるため、運転者や同乗者である操作者は次のような操作が可能である。すなわち操作者は、ある程度操作を習得した後は、ディスプレイ14の表示領域上の所望のスイッチ14aなどの存在する絶対位置に相当する操作面12a上の大まかな位置を把握しておけば、操作面12aを視認することなく曖昧に操作することが可能である。
 これにより操作者は、指Fで操作面12a上における所望の操作対象物の近くとなるように触れて、その後ディスプレイ14を参照しながら所望の操作対象物まで指Fを摺動させる場合も、ディスプレイ14の表示領域上の操作対象物の座標に合わせて操作面12aを正確に摺動させる必要がなく、その摺動方向がおおよそ合っていれば、円滑に短時間で所望の操作対象物を選択することに到達することができる。
 <変形例>
 このようなルールを適用すると、次のようなリスト選択にも応用することができる。上述したルールに従って「Audio」スイッチ14aが確定された場合、画面の階層が変わり、オーディオ基本画面への遷移を経て、図19に示すようなアーティストの選択画面が表示される。
 このアーティストの選択画面では、スクロールバー14mのスライド部14nをスライドさせることにより、リスト項目14o,14p,14q,14r,14sを表示させ、いずれかのリスト項目を選択するための画面である。
 図20に示すように操作者が指Fで操作面12aの上部に触れると、図21に示すようにアーティストの選択画面では、その操作面12a内で触れた絶対座標での位置に最も近い対応する表示装置14の表示領域におけるリスト項目14o(図示の「Modonna」)が選択される。
 操作者が図22に示すように下部を触れると、これに対応して、図23に示すように最も下部に配置するリスト項目14s(図示の「牧原のりゆき」)が選択された状態となる。このようにすると、デフォルト(一番上)の選択状態から順番にリスト項目の選択を切り替えなければならなかった従来のロータリーコマンダーを用いた操作に比べて、このような一番下のリスト項目を素早く選ぶことができるようになる。
 次に操作者がそのように操作面12aに指Fを触れたまま図24に示すように真下方向に素早く摺動させると、これに対応して、図25に示すようにスクロールバー14mのスライド部14nが下部に下がるとともに、最も下部に選択された状態で位置していたリスト項目14s(図示の「牧原のりゆき」)が上部にスクロールして移動した表示態様となる。このようにスクロールバー14mのスライド部14nが移動して表示態様が変化することを「スクロール動作」と称する。その他にも、このようにスクロールさせたい場合に、リストの上端、下端を超えるように指Fを操作面12aにおいて摺動させるようにしてもよい。具体的には、例えば図22に示すように指Fが操作面12aに触れて図23に示すように「牧原のりゆき」が選択された状態で、そこからさらに下方向に指Fを摺動させると、「牧原のりゆき」の次以降のリスト項目を選択したいという操作者の意思を判断し、指Fが操作面12aに触れている間連続してスクロールさせるようにしても良い。この状態から指Fを操作面12aの上方向(逆方向)に摺動させると、スクロールを停止し一番下の対象を選択させるようにしても良い。
 また本実施形態は次のように応用することもできる。図10に示すメニュー画面において例えば「Navi」スイッチ14bが選択され確定した場合には、ナビゲーション基本画面への遷移を経て図26に示す画面階層の目的地選択画面に遷移する。この目的地選択画面では、左右の各領域に縦方向にリスト項目がスクロールバー14mに沿って5個ずつ配列している。
 この応用例では、図27に示す操作面12aの左側領域を下方向に素早く摺動させると、図26において左側領域に縦方向に配列する都道府県名リストがスクロールされ、図27に示す操作面12aの右側領域において下方向に素早く摺動させると、図26において右側領域に縦方向に配列する市区町村名がスクロールされる。左右のリスト項目は連動しており、右側の市区町村名は左側の都道府県名で選択された都道府県名(図示の例では)に対応した市区町村名が表示されている。なお図27に示すような摺動を通常の速度でおこなうと、上述したように選択項目を変更することができる。
 <地図表示>
 上記実施形態における各ルールでは、各画面に表示されたスイッチなどの操作対象物を操作するには便利だが、一見すると、図28に地図を表示して特定地点を指定したい場合には操作上不都合が生じてしまうようにも思える。
 そこで本実施形態では、統合制御装置13の制御部13aは、例えば通常モードと地図操作モードとの2つのモードを切り替えるようにしている。通常モードは、これまでのように次の操作対象物を予測して操作可能な上記実施形態のルールが適用された状態を表しており、地図操作モードは、以下に説明するようなルールが適用された状態を表している。
 まず通常モードは、上述のようにディスプレイ14の表示領域に操作対象物(図示の「ビュー」スイッチなどに相当)を重ねて地図を表示し、その操作対象物の操作のみを許容する状態を表している。
 一方、地図操作モードは、第2タッチパッド12によって特定の操作状態が検知されたことを契機として通常モードから遷移し、その地図上の任意地点の操作を十字カーソル14xで許容する操作状態を表している。このような特定の操作状態としては、例えば図29に示すようにスイッチなどの間の操作対象物が存在しない方向に指Fの摺動方向を合わせることを挙げることができる。また、このような特定の操作状態としては、例えば通常モードから地図操作モードに遷移するための所定のスイッチ(図示せず)が押されて確定されたことであっても良い。
 上述した地図操作モードでは、図30に示すように表示装置14に表示した地図上に操作対象物とともに十字カーソル14xが表示されている。この十字カーソル14xは、地図上の触れた位置が中心となるように表示内容をスクロールさせることができ、または操作面12aの上下左右の端を触れると、触れている間その方向に連続してスクロールさせることができる。なお十字カーソル14xは、操作者が指Fを操作面12aに触れつつ摺動させることで表示領域内を所望の方向に移動させることができる。このとき、ある地点にて指Fを操作面12aに垂直に押し込むと、その地点が確定される。
 <ショートカット画面>
 図31は、一部にショートカット領域12gが設けられた第2タッチパッド12の操作面12aの構成例を示す平面図である。なおこのショートカット領域12gは上述した第1タッチパッド11の操作面に形成されていても良い。
 第2タッチパッド12は、その操作面12aの下部にショートカット領域12gが設けられている。以下の説明では、その操作面12aの残りの領域を通常領域12hと称する。このショートカット領域12gは、通常領域12hとショートカット領域12gとの間に沿った境界12iとして凸部又は凹部が形成されてもよい。
 またショートカット領域12gは、その表面が触覚により通常領域12hと異なるように構成されていても良い。つまりショートカット領域12gは、例えばその表面荒さが通常領域12hの表面荒さとは異なるように構成されていても良い。またこのショートカット領域12gは、例えば通常領域12hの材質と異ならせるようにしてもよい。このようにすると、操作者は注視しなくても指Fで触れるだけで通常領域12hとショートカット領域12gとを識別することができる。
 使用者が指Fでショートカット領域12gに触れると、統合制御装置13の制御部13aは、図32又は図33のように表示装置14の表示領域に表示している表示内容に重ねて手前側に、共用の画面に相当するショートカット画面14zを優先的に表示させるようにしても良い。このショートカット画面14zは、例えば使用頻度の高い操作のための操作対象物の他、遷移した各画面において共通する操作のための操作対象物(上述した図10の「Navi」スイッチなど)を含んでいる。ここでいう各画面において共通する操作のための操作対象物は「共用の操作対象物」の一例に相当する。
 これにより操作者は、使用頻度の高い操作や各画面モードにおいて共通なスイッチなどの操作対象物をいつでも容易に呼び出して操作することができる。また、これらのショートカット画面14zのスイッチ操作と通常の画面上のスイッチ操作を交互におこなう場合でも、視覚に頼らず指Fで操作面12aの下部を触れるだけで操作を切り替えることができるため、操作性をより向上することができる。また第2タッチパッド12においては、このようなショートカット画面14zの領域分操作面12aを仮に大きくしても、それとは引き替えに、従来から車載されているハードスイッチを削減できるばかりでなく、視覚的にもデザインを良好なものとすることができる。
 またこの第2タッチパッド12は、例えば操作者の指Fによる操作面12aの手動状態に応じてスイッチなどの操作対象物が切り替わる瞬間にその操作面12aに振動を与えて、触感により操作対象物の切り替わりを伝えて、視覚に寄らなくても操作対象物が切り替わったことを認識することができるようにしても良い。
 また第2タッチパッド12は、上述のように境界12iに凸部又は凹部があると仮定した場合に、指Fが操作面12aの摺動するに従ってこの凸部又は凹部の上を乗り越える触感を与えるように操作面12aに対して垂直方向に上下運動を与えても良い。
 以上説明したように、本実施形態における遠隔操作装置1においては、操作面の操作状態を検知するタッチパッド11,12と、前記タッチパッド11,12によって検知された操作状態に基づいて次の操作対象物を予測し、前記次の操作対象物を選択状態とした表示態様とするための映像信号を生成する制御装置13(統合制御装置に相当)と、を有することを特徴とする。
 このようにすると、操作者がタッチパッド11,12の操作面11a,12aを曖昧に操作しても、その操作状態から予測される次の操作対象物を特定し、当該次の操作対象物を選択状態とすることができる。操作者は、このような曖昧な操作であっても直感的に、当該所望の操作対象物を選択状態とすることができるため、所望の操作対象物の操作にあたり注視する必要がなくなる。また操作者は、所望の操作対象を操作するためのジェスチャーなどのような特定の操作内容を覚えていなくても感覚的に、曖昧な操作によって所望の操作対象物を選択状態として操作することができる。
 上記実施形態における遠隔操作装置1においては、上述した構成に加えてさらに、前記タッチパッド11,12とは離れて設置されており、前記制御装置13の制御により前記映像信号に基づいて前記次の操作対象物を表示する表示装置14(ディスプレイに相当)を有することを特徴とする。
 このようにすると、操作者がタッチパッド11,12の操作面11a,12aを曖昧に操作しても、その操作状態から予測される表示装置14の次の操作対象物を特定し、当該次の操作対象物を選択状態とすることができる。操作者は、このような曖昧な操作であっても直感的に、表示装置14において当該所望の操作対象物を選択状態とすることができるため、所望の操作対象物の操作にあたり表示装置14を注視する必要がなくなる。また操作者は、所望の操作対象を操作するためのジェスチャーなどのような特定の操作内容を覚えていなくても感覚的に、曖昧な操作によって所望の操作対象物を選択状態として操作することができる。
 上記実施形態における遠隔操作装置1においては、上述した構成に加えてさらに、前記制御装置13は、前記操作面において摺動を開始した位置からの摺動方向に基づいて、前記表示装置14の表示領域にて対応する前記摺動方向の先に配置している前記次の操作対象物が選択状態とされるべきであると予測することを特徴とする。
 このようにすると、操作者は、曖昧な操作であってもその曖昧な操作から予測された次の操作対象物を選択状態とすることができる。このため操作者は、次の操作対象物を選択するのに必要な注視時間を短くすることができる。
 上記実施形態における遠隔操作装置1においては、上述した構成に加えてさらに、前記制御装置13は、前記操作面11a,12aにおいて摺動を開始した位置からの摺動量及び前記摺動方向に基づいて、前記表示領域において前記摺動方向近傍で前記摺動量分移動した位置に配置する前記次の操作対象物が選択状態とされるべきであると予測することを特徴とする。
 このようにすると、操作者は、曖昧な操作であってもその曖昧な操作から、摺動方向のみからでは予測が付きにくい場合にもさらに正確に予測された次の操作対象物を選択することができる。このため操作者は、次の操作対象物を選択するのに注視時間を必要としなくなる。
 上記実施形態における遠隔操作装置1においては、上述した構成に加えてさらに、前記タッチパッド11,12は、前記タッチパッド11,12(の操作部12b)が押し込まれたことを検出する検出スイッチ12fを備え、前記制御装置13は、前記検出スイッチ12fが作動した際に選択状態であった前記次の操作対象物が操作対象として確定されたものと検出することを特徴とする。
 このようにすると、操作者は、タッチパッド11,12の操作面11a,12aを曖昧に操作しても次の操作対象物を選択できるばかりでなく、指Fを移動させなくてもその操作面11a,12aをそのまま押し込むという簡単な方法により、容易に当該次の操作対象物を操作すべき対象物として確定することができる。その他にも、タッチパッド11,12は、その周辺に確定用のハードスイッチを配置するスペースが不要となるため、ステアリングホイール5のような表面積の小さな場所にも搭載することができる。
 上記実施形態における遠隔操作装置1においては、上述した構成に加えてさらに、前記表示装置14の表示領域に前記次の操作対象物を重ねて地図を表示し、前記次の操作対象物の操作のみを許容する通常モードと、前記タッチパッド11,12によって特定の操作状態が検知されたことを契機として前記通常モードから遷移し、前記地図上の任意地点の操作を許容する地図操作モードと、を切り替えることを特徴とする。
 このようにすると、操作者は、通常モードにおいて表示装置14の表示領域に地図を表示しながら曖昧な操作によりその地図上の操作対象物を操作することができるばかりでなく、必要に応じて地図操作モードに遷移し、その地図上の所望の地点に対して操作をおこなうことができるようになる。このため操作者は、状況に応じて必要な所望の操作を自由におこなうことができる。なおタッチパッド12によって操作者が指Fで操作面12aの中央部に接触している状態である検出された場合、制御部13aは、予測された次の操作に応じて操作対象物を選択状態とするようにしても良い。
 上記実施形態における遠隔操作装置1においては、上述した構成に加えてさらに、前記制御装置13は、前記タッチパッド11,12によって前記操作面11a,12aの特定領域12g(ショートカット領域に相当)が操作されたことが検出された場合、前記特定領域12gに対応する前記表示領域の一部に、共用の操作対象物を表示するための共用の画面(ショートカット画面に相当)14zを表示させる。このような特定の操作対象物としては、複数の画面を遷移する場合に各画面に跨るスイッチの他にも、例えばある特定の情報を提示させるためのインフォメーションスイッチを例示することができる。
 このようにすると、操作者は、タッチパッド11,12の操作面11a,12aを注視しなくても特定領域に触れて共用の画面14zを表示領域に表示させることができる。すると、共用の画面14zに頻繁に又は各画面にて共用する共用の操作対象物を表示させることができ、共用の操作対象物を即座に表示することができる。
 上記実施形態における遠隔操作装置1においては、上述した構成に加えてさらに、前記タッチパッド11,12の操作面11a,12aは、前記特定領域12g(ショートカット領域に相当)とその他の領域12h(通常領域に相当)とが触覚により識別可能な材質又は加工の表面部材で構成されている。
 このようにすると、操作者は、タッチパッド11,12の操作面11a,12aを注視しなくても触覚により特定領域の位置を把握し、その特定領域に触れて共用の画面14zを表示領域に表示させることができる。
 上記実施形態における遠隔操作装置1においては、上述した構成に加えてさらに、前記タッチパッド11,12の操作面11a,12aには、前記特定領域12gとその他の領域12hとの間の境界12iに沿って溝又は凸部が形成されている。
 このようにすると、操作者は、タッチパッド11,12の操作面11a,12aを注視しなくても触覚により特定領域の位置を把握し、その特定領域に触れてショートカット画面14zを表示領域に表示させることができる。
 なお、本実施形態は、上記に限られず、種々の変形が可能である。以下、そのような変形例を順を追って説明する。
 <操作のバリエーション>
 統合制御装置13は、表示装置14のみならずオーディオ機器を制御している場合、操作者の指Fの操作面12aとの接触状態に応じて、次の各態様のように制御しても良い。すなわち操作者の指Fで操作面12aを円周方向、つまり円弧状に摺動させた場合、統合制御装置13は、上述した各スイッチの選択を一旦停止し、例えば操作面12aの摺動方向に応じてオーディオの音量の変更をおこなうようにしても良い。
 <確定操作がされた後のスイッチ選択状態の解除タイミング>
 また上記実施形態における操作者の指Fによる操作としては、確定により画面(スイッチレイアウト)が変わる場合、操作者の指Fが操作面12aに触れ続けていても、上述した各スイッチの選択を一旦解除し、指Fを離して再度触れるまで選択状態としないようにしても良い。一方、確定により画面(スイッチレイアウト)が変わらない場合、または画面(スイッチレイアウト)が変わってもそれまで選択状態だったスイッチが同じ位置に残って表示されている場合、操作者の指Fが操作面12aに触れ続けていればスイッチ選択状態を継続し、そのまま押し込むことで同じスイッチを繰り返し操作することができる。このような繰り返し操作する同じスイッチとしては、例えば画面右端に配置している「戻る」スイッチを挙げることができる。このようにすると、連続して上位の階層へ戻っていくような場合、経由する画面のスイッチレイアウトは異なっていても指Fを動かさずに「戻る」スイッチを連続して操作することができるようになる。
 <指Fが触れたことを認識する間もなく即座に確定スイッチが押された場合の不感タイミングの設定>
 操作者が指Fを操作面12aから離間させていた状態から急に操作面12aを押し込むと、表示領域の画面のどのスイッチを選択したのかについて表示に反映する前に、確定してしまうのを防ぐため、統合制御装置13は、操作面12aの接触を認識して一定時間経過した後の確定操作のみを真の確定操作とみなすようにしてもよい。
 <ショートカット領域12gと通常領域12hとの境界>
 統合制御装置13は、操作面12aにおけるショートカット領域12gと通常領域12hとの境界に指Fの接触を検知しない一定幅の部分(以下「非検知帯」と称する)を設けても良い。このように非検知帯を設けると、操作者が指Fで当該境界を触れた場合の誤動作を防止することができる。
 <確定操作をする場合の接触座標の誤検知防止対策>
 上記実施形態における遠隔操作装置1は、上述した構成に加えてさらに、前記制御装置13は、感圧式の前記タッチパッド12が圧力を検知した際における操作状態の時間的な遷移が特定方向(下方向)である場合、前記特定方向への操作状態の遷移を除外して操作状態を検知する。なおこの制御装置13は、このような場合に操作状態を除外するばかりでなく、その操作状態の検出感度を鈍くするようにしても良い。
 このようにすると、操作者が指Fでタッチパッド12の操作面12aを押し込んだ時に生じやすい接触位置ずれ誤差による選択誤りを抑制することができる。
 上記実施形態における遠隔操作装置1は、上述した構成に加えてさらに、前記制御装置13は、静電式の前記タッチパッド12によって接触面積の増加が検知された際に前記タッチパッド12によって検知された操作状態の時間的な遷移が特定方向である場合、前記特定方向への操作状態の遷移を除外して操作状態を検知する。ここで、そのような操作状態の時間的な遷移としては、接触面積の中心が手前に移動する。なおこの制御装置13は、このような場合に操作状態を除外するばかりでなく、その操作状態の検出感度を鈍くするようにしても良い。
 このようにすると、操作者が指Fでタッチパッド12の操作面12aを押し込んだ時に生じやすい接触位置ずれ誤差による選択誤りを抑制することができる。
 上記実施形態においては、操作者が指で操作面の操作対象物を押し込んでから元に戻った後でも指を離さず操作面に触れていた場合、その次の画面に応じて当該操作対象物の表示を残したままとしても良いし、当該操作対象物の表示を消去しても良い。具体的には、その次の画面に応じて当該操作対象物の表示を残したままとする場合としては、例えば地図表示を拡大したり縮小するためのスイッチを挙げることができる。一方、その次の画面に応じて当該操作対象物の表示を消去する場合としては、例えば当該次の画面にて用いる可能性のないスイッチを挙げることができる。
 上記実施形態では、統合制御装置13は、タッチパッド12の操作面12aのショートカット領域12gと通常領域12hとの間の境界12iに沿って一定幅に渡り接触状態を無効化する帯状の無効化領域としても良い。このようにすると、操作者が指Fで誤ってその境界12iを触れる度に、意図しないショートカット画面14zが表示されてしまうことを抑制することができる。
 上記実施形態における遠隔操作装置1は、上述した形態のみならず、家庭用のテレビジョン受像機のリモートコントローラ、ノートブック型コンピュータのタッチパッドなどにも適用することができる。
 また、以上既に述べた以外にも、上記実施形態や各変形例による手法を適宜組み合わせて利用しても良い。
第1実施形態における遠隔操作装置を搭載する車内の外観の一例を示す図である。 図1などに示す第2タッチパッドの断面構成例を示す断面図である。 図1などに示す第2タッチパッドの断面構成例を示す断面図である。 図1に示す遠隔操作装置の接続構成例を示す概念図である。 操作者の指がタッチパッドの操作面に触れている様子の一例を示す図である。 表示装置の表示領域にて十字カーソルが移動する様子の一例を示す図である。 操作者の指がタッチパッドの操作面に触れている様子の一例を示す図である。 表示装置の表示領域にて十字カーソルが移動する様子の一例を示す図である。 操作者の指がタッチパッドの操作面に触れている様子の一例を示す図である。 表示装置の表示領域にてスイッチが選択された様子の一例を示す図である。 操作者の指がタッチパッドの操作面を摺動している様子の一例を示す図である。 表示装置の表示領域にてスイッチの選択状態が切り替わる様子の一例を示す図である。 操作者の指がタッチパッドの操作面を摺動している様子の一例を示す図である。 表示装置の表示領域にてスイッチの選択状態が切り替わる様子の一例を示す図である。 操作者の指がタッチパッドの操作面を摺動している様子の一例を示す図である。 表示装置の表示領域にてスイッチの選択状態が切り替わる様子の一例を示す図である。 操作者の指がタッチパッドの操作面を摺動している様子の一例を示す図である。 表示装置の表示領域にて選択状態のスイッチが押し込まれた様子の一例を示す図である。 遷移した画面にリスト項目が配列している様子の一例を示す図である。 操作者の指がタッチパッドの操作面に触れている様子の一例を示す図である。 リスト項目が選択状態である様子の一例を示す図である。 操作者の指がタッチパッドの操作面に触れている様子の一例を示す図である。 リスト項目の選択状態が切り替わる様子の一例を示す図である。 操作者の指がタッチパッドの操作面を摺動している様子の一例を示す図である。 リスト項目がスクロールされる様子の一例を示す図である。 遷移した画面にリスト項目が配列している様子の一例を示す図である。 操作者の指がタッチパッドの操作面を摺動している様子の一例を示す図である。 遷移した画面に地図に重ねてスイッチが表示されている様子の一例を示す図である。 操作者の指がタッチパッドの操作面を摺動している様子の一例を示す図である。 地図上に十字カーソルが表示されている様子の一例を示す図である。 タッチパッドの操作面にショートカット領域が存在する様子の一例を示す平面図である。 ショートカット画面が表示された様子の一例を示す図である。 ショートカット画面が表示された様子の一例を示す図である。
符号の説明
 1        遠隔操作装置
 11       第1タッチパッド
 11a      操作面
 12       第2タッチパッド
 12a      操作面
 12b      操作部
 12f      検出スイッチ
 12g      ショートカット領域(特定領域に相当)
 12h      通常領域(その他の領域に相当)
 12i      境界
 13       統合制御装置
 14       表示装置
 14a      スイッチ(操作対象物に相当)
 14b      スイッチ(操作対象物に相当)
 14c      スイッチ(操作対象物に相当)
 14z      ショートカット画面(共用の画面に相当)

Claims (11)

  1.  操作面の操作状態を検知するタッチパッドと、
     前記タッチパッドによって検知された操作状態に基づいて次の操作対象物を予測し、前記次の操作対象物を選択状態とした表示態様とするための映像信号を生成する制御装置と、
    を有することを特徴とする遠隔操作装置。
  2.  請求項1に記載の遠隔操作装置において、
     前記タッチパッドとは離れて設置されており、前記制御装置の制御によって前記映像信号に基づく前記次の操作対象物を表示する表示装置
    を有することを特徴とする遠隔操作装置。
  3.  請求項2に記載の遠隔操作装置において、
     前記制御装置は、
     前記操作面において摺動を開始した位置からの摺動方向に基づいて、前記表示装置の表示領域にて対応する前記摺動方向の先に配置している前記次の操作対象物が選択状態とされるべきであると予測する
    ことを特徴とする遠隔操作装置。
  4.  請求項2に記載の遠隔操作装置において、
     前記制御装置は、
     前記操作面において摺動を開始した位置からの摺動量及び前記摺動方向に基づいて、前記表示領域において前記摺動方向近傍で前記摺動量分移動した位置に配置する前記次の操作対象物が選択状態とされるべきであると予測する
    ことを特徴とする遠隔操作装置。
  5.  請求項2に記載の遠隔操作装置において、
     前記タッチパッドは、
     前記タッチパッドが押し込まれたことを検出する検出スイッチを備え、
     前記制御装置は、
     前記検出スイッチが作動した際に選択状態であった前記次の操作対象物が操作すべき対象物として確定されたものと検出する
    ことを特徴とする遠隔操作装置。
  6.  請求項2に記載の遠隔操作装置において、
     前記制御装置は、
     感圧式の前記タッチパッドが圧力を検知した際における操作状態の時間的な遷移が特定方向である場合、前記特定方向への操作状態の遷移を除外して操作状態を検知する
    ことを特徴とする遠隔操作装置。
  7.  請求項2に記載の遠隔操作装置において、
     前記制御装置は、
     静電式の前記タッチパッドによって接触面積の増加が検知された際に前記タッチパッドによって検知された操作状態の時間的な遷移が特定方向である場合、前記特定方向への操作状態の遷移を除外して操作状態を検知する
    ことを特徴とする遠隔操作装置。
  8.  請求項2に記載の遠隔操作装置において、
     前記制御装置は、
     前記表示装置の表示領域に前記次の操作対象物を重ねて地図を表示し、前記次の操作対象物の操作のみを許容する通常モードと、
     前記タッチパッドによって特定の操作状態が検知されたことを契機として前記通常モードから遷移し、前記地図上の任意地点の操作を許容する地図操作モードと、
    を切り替えることを特徴とする遠隔操作装置。
  9.  請求項2乃至請求項8のいずれかに記載の遠隔操作装置において、
     前記制御装置は、
     前記タッチパッドによって前記操作面の特定領域が操作されたことが検出された場合、前記特定領域に対応する前記表示領域の一部に、共用の操作対象物を表示するための共用の画面を表示させる
    ことを特徴とする遠隔操作装置。
  10.  請求項9に記載の遠隔操作装置において、
     前記タッチパッドの操作面は、
     前記特定領域とその他の領域とが触覚により識別可能な材質又は加工の表面部材で構成されている
    ことを特徴とする遠隔操作装置。
  11.  請求項9に記載の遠隔操作装置において、
     前記タッチパッドの操作面には、
     前記特定領域とその他の領域との間の境界に沿って溝又は凸部が形成されている
    ことを特徴とする遠隔操作装置。
PCT/JP2008/057424 2008-04-16 2008-04-16 遠隔操作装置 WO2009128148A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010508063A JPWO2009128148A1 (ja) 2008-04-16 2008-04-16 運転者用遠隔操作装置
PCT/JP2008/057424 WO2009128148A1 (ja) 2008-04-16 2008-04-16 遠隔操作装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2008/057424 WO2009128148A1 (ja) 2008-04-16 2008-04-16 遠隔操作装置

Publications (1)

Publication Number Publication Date
WO2009128148A1 true WO2009128148A1 (ja) 2009-10-22

Family

ID=41198860

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2008/057424 WO2009128148A1 (ja) 2008-04-16 2008-04-16 遠隔操作装置

Country Status (2)

Country Link
JP (1) JPWO2009128148A1 (ja)
WO (1) WO2009128148A1 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013534345A (ja) * 2010-08-16 2013-09-02 コーニンクレッカ フィリップス エヌ ヴェ ディスプレイ上のオブジェクトの強調
JP2013539140A (ja) * 2010-10-01 2013-10-17 トムソン ライセンシング ユーザーインターフェースにおけるナビゲーションのためのシステムおよび方法
JP2014002996A (ja) * 2012-05-22 2014-01-09 Tokai Rika Co Ltd 入力装置
JP2015133059A (ja) * 2014-01-15 2015-07-23 富士通株式会社 ジェスチャui装置、ジェスチャui方法及びプログラム
CN105480171A (zh) * 2015-12-14 2016-04-13 麦格纳内外饰(苏州)有限公司 一种车顶中控装置及其控制方法
JP2017027562A (ja) * 2015-07-28 2017-02-02 トヨタ自動車株式会社 情報処理装置
JP2017030746A (ja) * 2016-09-28 2017-02-09 京セラ株式会社 車両及びステアリングユニット
JP2017219957A (ja) * 2016-06-06 2017-12-14 株式会社東海理化電機製作所 操作予測装置
JP2018063725A (ja) * 2017-12-26 2018-04-19 パイオニア株式会社 デバイス、及びデバイス制御プログラム
JP2019219808A (ja) * 2018-06-18 2019-12-26 株式会社東海理化電機製作所 制御装置、制御方法、およびプログラム
JP2020057441A (ja) * 2020-01-14 2020-04-09 パイオニア株式会社 操作装置、制御方法、プログラム及び記憶媒体
US10866777B2 (en) 2017-03-21 2020-12-15 Fujitsu Limited Information processing apparatus, information processing system and information processing method
JP2021114229A (ja) * 2020-01-21 2021-08-05 株式会社東海理化電機製作所 遠隔制御装置、処理装置、およびコンピュータプログラム
JP2021114230A (ja) * 2020-01-21 2021-08-05 株式会社東海理化電機製作所 遠隔制御装置、処理装置、およびコンピュータプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10222307A (ja) * 1997-02-04 1998-08-21 Nec Corp マウスカーソル移動制御システム
JP2000330715A (ja) * 1999-05-24 2000-11-30 Sony Corp 情報処理装置および方法、並びに媒体
JP2001142634A (ja) * 1999-11-04 2001-05-25 Hewlett Packard Co <Hp> 専用化した機能の領域を有するトラックパッドポインティング装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002055781A (ja) * 2000-08-14 2002-02-20 Canon Inc 情報処理装置及びその制御方法、コンピュータ可読メモリ
JP4479264B2 (ja) * 2003-02-14 2010-06-09 パナソニック株式会社 車両用入力装置
JP2005071246A (ja) * 2003-08-27 2005-03-17 Nissan Motor Co Ltd 操作入力装置及び操作入力方法
US20060227065A1 (en) * 2005-04-08 2006-10-12 Matsushita Electric Industrial Co. Ltd. Human machine interface system for automotive application

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10222307A (ja) * 1997-02-04 1998-08-21 Nec Corp マウスカーソル移動制御システム
JP2000330715A (ja) * 1999-05-24 2000-11-30 Sony Corp 情報処理装置および方法、並びに媒体
JP2001142634A (ja) * 1999-11-04 2001-05-25 Hewlett Packard Co <Hp> 専用化した機能の領域を有するトラックパッドポインティング装置

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013534345A (ja) * 2010-08-16 2013-09-02 コーニンクレッカ フィリップス エヌ ヴェ ディスプレイ上のオブジェクトの強調
US10963136B2 (en) 2010-08-16 2021-03-30 Koninklijke Philips N.V. Highlighting of objects on a display
JP2013539140A (ja) * 2010-10-01 2013-10-17 トムソン ライセンシング ユーザーインターフェースにおけるナビゲーションのためのシステムおよび方法
US10705625B2 (en) 2010-10-01 2020-07-07 Interdigital Madison Patent Holdings System and method for navigation in a user interface
JP2014002996A (ja) * 2012-05-22 2014-01-09 Tokai Rika Co Ltd 入力装置
JP2015133059A (ja) * 2014-01-15 2015-07-23 富士通株式会社 ジェスチャui装置、ジェスチャui方法及びプログラム
CN106406653B (zh) * 2015-07-28 2019-12-17 丰田自动车株式会社 信息处理装置
US10572105B2 (en) 2015-07-28 2020-02-25 Toyota Jidosha Kabushiki Kaisha Information processing device for setting a reaction area corresponding to GUI component
CN106406653A (zh) * 2015-07-28 2017-02-15 丰田自动车株式会社 信息处理装置
JP2017027562A (ja) * 2015-07-28 2017-02-02 トヨタ自動車株式会社 情報処理装置
CN105480171A (zh) * 2015-12-14 2016-04-13 麦格纳内外饰(苏州)有限公司 一种车顶中控装置及其控制方法
JP2017219957A (ja) * 2016-06-06 2017-12-14 株式会社東海理化電機製作所 操作予測装置
JP2017030746A (ja) * 2016-09-28 2017-02-09 京セラ株式会社 車両及びステアリングユニット
US10866777B2 (en) 2017-03-21 2020-12-15 Fujitsu Limited Information processing apparatus, information processing system and information processing method
JP2018063725A (ja) * 2017-12-26 2018-04-19 パイオニア株式会社 デバイス、及びデバイス制御プログラム
JP2019219808A (ja) * 2018-06-18 2019-12-26 株式会社東海理化電機製作所 制御装置、制御方法、およびプログラム
JP2020057441A (ja) * 2020-01-14 2020-04-09 パイオニア株式会社 操作装置、制御方法、プログラム及び記憶媒体
JP2021114229A (ja) * 2020-01-21 2021-08-05 株式会社東海理化電機製作所 遠隔制御装置、処理装置、およびコンピュータプログラム
JP2021114230A (ja) * 2020-01-21 2021-08-05 株式会社東海理化電機製作所 遠隔制御装置、処理装置、およびコンピュータプログラム
JP7277392B2 (ja) 2020-01-21 2023-05-18 株式会社東海理化電機製作所 遠隔制御装置、処理装置、およびコンピュータプログラム

Also Published As

Publication number Publication date
JPWO2009128148A1 (ja) 2011-08-04

Similar Documents

Publication Publication Date Title
WO2009128148A1 (ja) 遠隔操作装置
JP6315456B2 (ja) タッチパネル式の車両用情報表示装置
JP4960127B2 (ja) 操作デバイス
US9176634B2 (en) Operation device
US20080024451A1 (en) Remote input device and electronic apparatus using the same
JP5704408B2 (ja) 操作入力システム
JP6035828B2 (ja) 表示操作装置および表示システム
CN107918504B (zh) 车载操作装置
JP2014046867A (ja) 入力装置
CN107797726B (zh) 信息终端
JP4548325B2 (ja) 車載用表示装置
JP5700254B2 (ja) 操作入力システム
KR20210156126A (ko) 노브를 이용한 디스플레이 제어 시스템
US20130201126A1 (en) Input device
JP2016206930A (ja) 入力表示装置
JP2018195134A (ja) 車載用情報処理システム
JP6487837B2 (ja) 車両用表示装置
JP2018136616A (ja) 表示操作システム
JP2011141796A (ja) 平面入力デバイスの操作ガイド構造
JP2018010472A (ja) 車内電子機器操作装置及び車内電子機器操作方法
EP3361367A1 (en) In-vehicle input device, in-vehicle input system, and in-vehicle input device control method
JP2013011573A (ja) 操作装置、操作方法、及びプログラム
JP2014182808A (ja) タッチスクリーンユーザインターフェースのナビゲーション制御
KR20180070235A (ko) 차량용 조작 시스템 및 그 제어방법
JP2013134722A (ja) 操作入力システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 08740503

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010508063

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 08740503

Country of ref document: EP

Kind code of ref document: A1