WO2016038676A1 - 触感制御システムおよび触感制御方法 - Google Patents

触感制御システムおよび触感制御方法 Download PDF

Info

Publication number
WO2016038676A1
WO2016038676A1 PCT/JP2014/073769 JP2014073769W WO2016038676A1 WO 2016038676 A1 WO2016038676 A1 WO 2016038676A1 JP 2014073769 W JP2014073769 W JP 2014073769W WO 2016038676 A1 WO2016038676 A1 WO 2016038676A1
Authority
WO
WIPO (PCT)
Prior art keywords
tactile sensation
tactile
operation area
sensation control
user
Prior art date
Application number
PCT/JP2014/073769
Other languages
English (en)
French (fr)
Inventor
下谷 光生
英一 有田
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2016547284A priority Critical patent/JP6284648B2/ja
Priority to CN201480081820.6A priority patent/CN106687906B/zh
Priority to PCT/JP2014/073769 priority patent/WO2016038676A1/ja
Priority to DE112014006939.6T priority patent/DE112014006939T5/de
Publication of WO2016038676A1 publication Critical patent/WO2016038676A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/014Force feedback applied to GUI

Definitions

  • the present invention relates to a tactile sensation control system and a tactile sensation control method for controlling a user's tactile sensation during operation on an operation surface of a touch panel or a touch pad.
  • a technique for imparting tactile sensation to a finger by irradiating the finger with ultrasonic waves is disclosed (for example, see Patent Documents 1 and 2).
  • a technique for imparting a tactile sensation to a user by vibrating an arbitrary area of the touch panel by ultrasonic vibration is disclosed (for example, see Non-Patent Document 1).
  • a technique for imparting a tactile sensation by dynamically (physically) raising and lowering an arbitrary area of a touch panel is disclosed (for example, see Patent Document 3).
  • Patent Documents 1 to 3 and Non-Patent Document 1 When using the techniques of Patent Documents 1 to 3 and Non-Patent Document 1, it is considered that the user can operate with the tactile sensation without concentrating the line of sight on the display screen.
  • Patent Documents 1 to 3 and Non-Patent Document 1 do not disclose any specific use and cannot provide a user interface that is easy to use.
  • the present invention has been made to solve such a problem, and provides a tactile sensation control system and a tactile sensation control method that allow a user to perform a user-friendly operation without concentrating the line of sight on the display screen during operation.
  • the purpose is to provide.
  • a tactile sensation control system is a tactile sensation control system that controls a user's tactile sensation during an operation on an operation surface of a touch panel or a touchpad, and an operation performed by a user on the operation surface
  • An operation area information acquisition unit that acquires information related to an area as operation area information
  • an event occurrence detection unit that detects the occurrence of a specific event that is predetermined as an event that defines a valid or invalid state of an operation
  • operation area information acquisition The tactile sensation between the operation area in which the operation is valid and the operation area in which the operation is invalid is different based on the operation area information acquired by the section and the specific event detected by the event occurrence detection section
  • a tactile sensation control unit for controlling as described above.
  • a tactile sensation control method is a tactile sensation control method for controlling a user's tactile sensation during operation on an operation surface of a touch panel or a touch pad, and information regarding an operation region on which the user operates on the operation surface.
  • the occurrence of a specific event that is predetermined as an event that defines the valid state or invalid state of the operation is detected, and the operation is in a valid state based on the acquired operation area information and the detected specific event Control is performed such that the tactile sensation between the operation area and the operation area in which the operation is invalid is different.
  • the tactile sensation control system is a tactile sensation control system that controls a user's tactile sensation during an operation on an operation surface of a touch panel or a touch pad.
  • An operation region information acquisition unit acquired as an event
  • an event occurrence detection unit that detects the occurrence of a specific event that is predetermined as an event that defines a valid or invalid state of an operation
  • an operation acquired by the operation region information acquisition unit Based on the region information and the specific event detected by the event occurrence detection unit, the tactile sensation control unit that controls the tactile sensation between the operation region in which the operation is valid and the operation region in which the operation is invalid. It is possible to perform a user-friendly operation without concentrating the line of sight on the display screen during operation. That.
  • the tactile sensation control method is a tactile sensation control method for controlling the tactile sensation of the user when operating the operation surface of the touch panel or the touch pad, and acquires information on the operation region on which the user operates on the operation surface as operation region information. Detecting an occurrence of a specific event that is predetermined as an event that defines the valid state or invalid state of the operation, and an operation region in which the operation is in a valid state based on the acquired operation region information and the detected specific event; Since the control is performed so that the tactile sensation differs from the operation area in which the operation is invalid, it is possible for the user to perform a user-friendly operation without concentrating the line of sight on the display screen during the operation.
  • FIG. 1 is a block diagram showing an example of the configuration of the tactile sensation control device 1 according to the first embodiment.
  • FIG. 1 shows the minimum necessary components constituting the tactile sensation control device 1.
  • the tactile sensation control device 1 includes at least an operation area information acquisition unit 2, an event occurrence detection unit 3, and a tactile sensation control unit 4.
  • the operation area information acquisition unit 2 acquires, as operation area information, information related to an operation area that is operated by the user on the operation surface of the touch panel or the touch pad.
  • the event occurrence detection unit 3 detects the occurrence of an event (specific event) that is determined in advance as an event that defines the valid or invalid state of the operation.
  • the tactile sensation control unit 4 is based on the operation region information acquired by the operation region information acquisition unit 2 and the event detected by the event occurrence detection unit 3. Control is performed so that the tactile sensation differs from the operation area in the invalid state.
  • FIG. 2 is a diagram illustrating an example of three tactile sensations of “smooth”, “half-gritty”, and “gritty”.
  • the horizontal axis indicates the strength of the tactile sensation
  • the leftmost column indicates “smooth”
  • the middle two columns indicate “half rough”
  • the rightmost column indicates “gritty”.
  • the tactile sensation of the entire square is expressed by vibrating the dot or line pattern portion expressed in black shown in each square by, for example, ultrasonic vibration. That is, for example, when the intensity of vibration in each square is the same, the tactile sensation of “roughness” is stronger on the right side than on the left side in FIG.
  • the first line in FIG. 2 indicates that the larger the dot eyes, the stronger the feel of the grain.
  • the second line indicates that the narrower the grid interval, the stronger the feel of the grain.
  • the third line It shows that the feel of roughness increases as the line changes from a broken line to a solid line and the line becomes thicker. Note that the texture pattern of the rough texture is not particular to FIG. 2, and there are infinite combinations.
  • FIG. 2 shows a method for obtaining a different rough feel by changing the pattern even if the vibration intensity is the same. However, if the vibration intensity is changed even if the pattern is the same, A tactile sensation can be obtained.
  • the texture of“ smooth ” can be expressed by not performing ultrasonic vibration, for example.
  • the texture of “gritty” can be expressed by, for example, performing ultrasonic vibration with a strength equal to or greater than a predetermined threshold.
  • the “half rough” tactile sensation can be expressed by, for example, performing ultrasonic vibration smaller than the above threshold.
  • the strength of the rough tactile sensation can be expressed.
  • the rough texture pattern and the static rough texture that does not change the vibration intensity have been explained.
  • the vibration intensity is changed with time, or the rough texture pattern is temporal. It is also possible to express the tactile sensation of moving by changing it to (ie, by dynamically changing the vibration pattern or the tactile pattern of the gritty tactile).
  • FIGS. 3 to 5 are diagrams illustrating an example of generating a “moving rough” tactile sensation by changing the intensity of vibration over time. 3 to 5, the horizontal axis indicates time, and the vertical axis indicates the strength of tactile sensation.
  • FIG. 3 shows a case where the tactile sensation is made constant and the tactile sensation occurs at a constant cycle.
  • FIG. 4 shows a case where the tactile sensation is changed and the tactile sensation occurs at a constant cycle.
  • FIG. 5 shows a case where the tactile sensation is constant and the tactile sensation cycle changes.
  • the user can obtain a tactile sensation as if, for example, the “gritty” area is moving (that is, the tactile sensation of “moving rough”).
  • the “gritty” tactile feel and the “smooth” tactile feel are alternately switched.
  • the “gritty” tactile feel and the “half-gritty” tactile feel may be alternately switched.
  • the texture of the “roughness” may be switched continuously instead of discretely, and a continuous change and a discrete change may be freely combined.
  • FIG. 6 is a diagram illustrating another example of generating a “moving rough” tactile sensation by changing the rough tactile sensation pattern over time.
  • the vertical axis indicates time.
  • region b have a tactile feeling, for example.
  • the positions of the area a and the area b are moved with time.
  • the region a and the region b having a tactile sensation the user can obtain a tactile sensation as if the “rough” region is moving (ie, a “moving rough” tactile sense).
  • Each of region a and region b may have a tactile sensation as shown in any of FIGS.
  • the “gritty” tactile sensation region and the “smooth” tactile sensation region are moved temporally, but the “gritty” tactile sensation region and the “half-gritty” tactile sensation region are It may be configured and moved in time, or an area in which the “gritty” tactile sensation changes discretely or continuously may be configured to move in time. 3 to 6, when a “gritty” tactile sensation that changes continuously is adopted, a smooth “growing gritty” tactile sensation can be obtained.
  • FIG. 7 is a block diagram showing an example of the configuration of the tactile sensation control device 5.
  • the tactile sensation control device 5 includes a control unit 6, a display information generation / output unit 7, a tactile touch panel control unit 8, an operation information acquisition unit 9, a vehicle information acquisition unit 10, and map information acquisition.
  • the display information generation / output unit 7 is connected to the display 13
  • the tactile touch panel control unit 8 and the operation information acquisition unit 9 are connected to the tactile touch panel 14, and
  • the map information acquisition unit 11 is connected to a map DB (database) 15.
  • the external device information acquisition control unit 12 is connected to the audio 16 and the air conditioner 17.
  • the control unit 6 controls the entire tactile sensation control device 5.
  • the control unit 6 controls the display information generation / output unit 7, the tactile touch panel control unit 8, the vehicle information acquisition unit 10, the map information acquisition unit 11, and the external device information acquisition control unit 12.
  • the control unit 6 includes an event occurrence detection unit 3.
  • the event occurrence detection unit 3 detects the occurrence of an event (specific event) that is predetermined as an event that defines the valid state or invalid state of the operation. Specifically, the event occurrence detection unit 3 detects whether a moving body such as a vehicle is moving.
  • the display information generation / output unit 7 generates display information in accordance with instructions from the control unit 6.
  • the display information generation / output unit 7 converts the generated display information into a video signal and outputs the video signal to the display 13.
  • the tactile touch panel control unit 8 includes an operation area information acquisition unit 2 and a tactile control unit 4.
  • the operation area information acquisition unit 2 acquires operation area information input from the control unit 6.
  • the tactile sensation control unit 4 is based on the operation region information acquired by the operation region information acquisition unit 2 and the event detected by the event occurrence detection unit 3.
  • the tactile sensation control information for controlling the tactile sensation to be different from the operation area in the invalid state is output to the tactile sensation touch panel 14.
  • the operation information acquisition unit 9 acquires information related to a user operation on the tactile touch panel 14 as operation information from the tactile touch panel 14.
  • the vehicle information acquisition unit 10 includes sensor information (vehicle speed pulse information and the like) detected by various sensors provided in the vehicle via an in-vehicle LAN (Local Area Network), vehicle control information (information about the engine, and brake). Information, information on a side brake, etc.) or GPS (Global Positioning System) information or the like is acquired as vehicle information.
  • sensor information vehicle speed pulse information and the like
  • vehicle control information information about the engine, and brake
  • GPS Global Positioning System
  • the map information acquisition unit 11 acquires map information from the map DB 15.
  • the external device information acquisition control unit 12 acquires information regarding external devices (audio 16 and air conditioner 17) that are the operation target of the user as external device information.
  • the external device information acquisition control unit 12 controls external devices (audio 16 and air conditioner 17).
  • the display unit 13 displays the display information input from the display information generation / output unit 7 on the display screen.
  • the tactile touch panel 14 outputs information related to the touch operation by the user (information such as presence / absence of touch, touch position, operation content) to the operation information acquisition unit 9 as operation information. Further, the tactile touch panel 14 provides a tactile sensation (“smooth”, “half-gritty”, “gritty”, “moving gritty”) at an arbitrary position on the touch panel based on the haptic control information input from the haptic touch-panel control unit 8. Change.
  • the tactile touch panel 14 is provided on the display screen of the display device 13 and can be used by the user as if the user directly operated the display screen. That is, the display screen area of the display 13 and the area where the tactile sensation of the tactile touch panel 14 is generated may completely coincide with each other. Moreover, either the display screen area
  • the tactile touch panel 14 is installed so that the area where the tactile sensation of the tactile touch panel 14 is generated protrudes from the display screen area of the display device 13 and is used as an area where the touch operation can be input although it is not displayed. Also good.
  • FIG. 8 is a flowchart showing an example of the operation of the tactile sensation control device 5.
  • FIG. 9 is a diagram illustrating an example of the operation of the tactile sensation control device 5. In FIG. 9, the left diagram shows the display and tactile sensation when the vehicle is stopped, and the right diagram shows the display and tactile sensation while the vehicle is traveling.
  • step S11 the display information generation / output unit 7 generates display information in accordance with an instruction from the control unit 6, converts the generated display information into a video signal, and outputs the video signal to the display 13.
  • step S12 the event occurrence detection unit 3 detects whether or not the vehicle is traveling based on the vehicle information acquired by the vehicle information acquisition unit 10. Specifically, the event occurrence detection unit 3 may detect, for example, whether or not the vehicle is running based on a vehicle speed pulse, and is stopped when the vehicle speed becomes zero by applying a brake. It may be detected that the vehicle is at a stop when the vehicle speed is zero and the side brake is pulled. Further, the event occurrence detection unit 3 may determine whether or not the vehicle is traveling based on an image taken by the camera. In this case, the vehicle information acquisition part 10 acquires the image image
  • step S13 the tactile touch panel control unit 8 sets the tactile feel control information of the travel operation restriction icon 18 (operation area) in which the operation is invalid according to an instruction from the control unit 6 to “smooth”.
  • step S14 the tactile sensation touch panel control unit 8 sets the tactile sensation control information of the travel operation restriction icon 18 in which the operation is valid in accordance with an instruction from the control unit 6 to “gritty”.
  • step S15 the tactile touch panel control unit 8 outputs the tactile touch control information set in step S13 or step S14 to the tactile touch panel 14.
  • the tactile touch panel 14 is controlled based on the tactile sensation control information input from the tactile touch panel control unit 8 so that the tactile sensation of the travel operation restriction icon 18 is different depending on whether the operation is enabled or disabled.
  • the travel operation restriction icon 18 when the vehicle is stopped, the operation of the travel operation restriction icon 18 is in an effective state, and thus the tactile feeling is “gritty”. On the other hand, when the vehicle is traveling, the operation of the traveling operation restriction icon 18 is in an invalid state, and thus the tactile sensation is “smooth”. Further, when the travel operation unrestricted icon 19 that does not depend on the travel state of the vehicle is displayed on the display screen of the display 13, the tactile sensation on the tactile touch panel 14 of the travel operation unrestricted icon 19 is related to the travel state of the vehicle. (Ie, the operation of the travel operation unrestricted icon 19 is always in a valid state).
  • the travel operation restriction icon 18 includes various operation icons on the navigation screen. In this case, it is assumed that the control unit 6 has a navigation function. Examples of the travel operation unrestricted icon 19 include a volume adjustment icon for the audio 16 and a temperature adjustment icon for the air conditioner 17.
  • the user operates (icon operation) the traveling operation restriction icon 18 and the traveling operation unrestricted icon 19 by touch input.
  • the touch input in the first embodiment can feel a tactile sensation as a preliminary operation of the icon operation when the user touches the operation surface of the tactile touch panel 14 lightly, and the icon when the user strongly presses the operation surface. Operation methods that accept operations are also included.
  • step S ⁇ b> 16 the control unit 6 determines whether or not the user has operated the tactile touch panel 14 via the operation information acquisition unit 9. When the user operates the tactile touch panel 14, the process proceeds to step S17. On the other hand, when the user does not operate the tactile touch panel 14, the process proceeds to step S11.
  • step S17 the control unit 6 performs transition of the display screen according to the user's operation.
  • FIG. 10 is a diagram illustrating another example of the operation of the tactile sensation control device 5.
  • the left figure shows the display and tactile sensation when the vehicle is stopped, and the right figure shows the display and tactile sensation while the vehicle is running.
  • the gesture input area 21 refers to an area in which a user can input by a gesture operation in the display screen.
  • the tactile sensation in the gesture input area 21 is “half rough”.
  • the tactile sensation of the travel operation unrestricted icon 20 is “gritty”, and the tactile sensation of the area other than the travel operation unrestricted icon 20 and the gesture input area 21 is “half rough”.
  • the tactile sensation control unit 4 may change the tactile sensation indicating the invalid state to the tactile sensation indicating the valid state.
  • the tactile sensation control unit 4 changes the tactile sensation of the travel operation restriction icon 18 from “smooth” to “gritty”. change.
  • Whether or not the user sitting in the passenger seat performs an operation can be detected by, for example, a camera or a sensor. By doing so, the operability from the passenger seat side is improved.
  • the display mode of the travel operation restriction icon 18 may be changed depending on whether the vehicle is stopped or traveling. For example, in FIG. 9, when the vehicle is stopped, a display (for example, color display) showing that the operation of the travel operation restriction icon 18 is valid is performed, and when the vehicle is traveling, the travel operation is performed. A display that indicates that the operation of the restriction icon 18 is in an invalid state (for example, gray display) is performed.
  • a display for example, color display
  • the tactile sensation of the travel operation restriction icon 18 is changed according to whether or not the vehicle is traveling is described, but the present invention is not limited to this.
  • the tactile sensation on the tactile touch panel 14 for example, the tactile sensation of the travel operation restriction icon 18 shown in FIG.
  • the tactile sensation of the gesture input area 21 shown may be controlled.
  • the position of the mobile communication terminal can be detected by GPS, and whether or not the mobile communication terminal is moving can be detected by an acceleration sensor.
  • the operation is disabled and the tactile sensation is controlled, and if the owner is indoors, the operation is enabled and the tactile sensation is controlled. Also good. In the situation where the owner pays attention to the surroundings, the operation of depriving the sight is prohibited, so that there is an effect of further suppressing the decrease in attention.
  • Each of the traveling operation restriction icon 18, the traveling operation unrestricted icon 19, and the traveling operation unrestricted icon 20 shown in FIGS. 9 and 10 may have a physically raised shape.
  • the tactile sensation is changed according to the traveling state (moving state) of a moving body such as a vehicle or a mobile communication terminal. It is not necessary to concentrate, and it is possible to easily grasp that the operation is in the valid state or the invalid state. That is, an operation that is convenient for the user can be performed.
  • the indicator 13 is provided on the meter panel 22, and the tactile touch pad 23 is replaced with the tactile touch pad 14 in the vicinity of the driver. (I.e., the display 13 and the tactile touch pad 23 are separately installed at different locations) may be applied to a tactile control system for a meter panel.
  • the meter panel 22 is provided with a display 13 and a speedometer 24.
  • the display device 13 is provided on the meter panel 22, the display device 13 and the tactile touch pad 23 are separated from each other, so that an effect of largely preventing a reduction in the attention of the driver during operation can be obtained.
  • the display device 13 provided in the meter panel 22 may use a partial region or the entire region of the meter panel 22 as a display region of the display device 13.
  • the size of the region where the tactile sensation occurs on the tactile touch pad 23 and the size of the display region on the display 13 may be the same, may be similar, or may not be similar.
  • the second embodiment of the present invention is characterized in that when the vehicle is about to travel a curve, the tactile sensation of the icon in which the operation is valid is changed to a tactile sensation indicating that the operation is invalid. Since the configuration of the tactile sensation control apparatus according to the second embodiment is the same as that of the tactile sensation control apparatus 5 (see FIG. 7) according to the first embodiment, the description thereof is omitted here.
  • FIG. 12 is a flowchart showing an example of the operation of the tactile sensation control apparatus according to the second embodiment. Note that steps S21 and S23 to S27 in FIG. 12 correspond to steps S11 and S13 to S17 in FIG.
  • step S ⁇ b> 22 the event occurrence detection unit 3 is about to curve the vehicle soon based on the vehicle information acquired by the vehicle information acquisition unit 10 and the map information acquired from the map DB 15 via the map information acquisition unit 11. It detects whether or not the vehicle travels (detects whether or not to notify the presence of a curve ahead of the vehicle generated by a predetermined rule). Specifically, the event occurrence detection unit 3 travels a curve after the vehicle travels a predetermined distance from the current position based on the information on the current position of the vehicle included in the GPS information and the map information. Whether or not is detected. When the vehicle is about to travel a curve (when notifying the presence of a curve ahead of the vehicle), the process proceeds to step S23. On the other hand, if the vehicle will not travel on the curve soon, the process proceeds to step S24.
  • step S22 the event occurrence detection unit 3 determines whether to proceed to step S23 or step S24 based on the information regarding the curvature of the curve included in the map information and the vehicle speed information included in the vehicle information. You may make it perform. Specifically, when the curvature of the curve is smaller than a predetermined threshold, the process may proceed to step S23 in order to invalidate the operation of the travel operation restriction icon 18. Further, when the vehicle speed is slower than a predetermined threshold value, the process may proceed to step S24 in order to validate the operation of the travel operation restriction icon 18.
  • the tactile sensation of the travel operation restriction icon 18 is changed depending on whether or not the vehicle is about to travel a curve is described, but the present invention is not limited to this.
  • the tactile sensation is changed so that the operation of the travel operation restriction icon 18 becomes invalid when the number of other vehicles is equal to or greater than a predetermined threshold.
  • the presence and position of other vehicles can be detected by, for example, a camera or a laser radar.
  • the tactile sensation is varied according to the driving load on the driver, such as when driving on a curve or when there are many other vehicles in the vicinity.
  • the user does not need to concentrate his / her line of sight on the display screen during the operation, and can easily grasp that the operation is in the valid state or the invalid state. That is, an operation that is convenient for the user can be performed.
  • the third embodiment of the present invention is characterized in that when an incoming call is received, the tactile sensation of an icon whose operation is invalid is changed to a tactile sensation indicating that the operation is valid.
  • FIG. 13 is a block diagram showing an example of the configuration of the tactile sensation control device 25 according to the third embodiment.
  • the tactile sensation control device 25 includes a communication unit 26.
  • Other configurations are the same as those of the first embodiment (see FIG. 7), and thus the description thereof is omitted here.
  • the communication unit 26 is communicably connected to a communication terminal (not shown).
  • a communication terminal not shown.
  • the user selects an incoming call reception icon 28 (see FIG. 15 described later) displayed on the display unit 13. By doing so, it becomes possible to make a call (hands-free call).
  • FIG. 14 is a flowchart showing an example of the operation of the tactile sensation control device 25.
  • FIG. 15 is a diagram illustrating an example of the operation of the tactile sensation control device 25.
  • steps S31, S36, and S37 in FIG. 14 are the same as steps S11, S16, and S17 in FIG.
  • the left diagram shows the display and tactile sensation when there is no incoming call
  • the right diagram shows the display and tactile sensation when there is an incoming call.
  • step S32 the event occurrence detection unit 3 detects whether an incoming call is received from the outside via the communication unit 26. If there is an incoming call, the process proceeds to step S33. On the other hand, if there is no incoming call, the process proceeds to step S34.
  • step S33 the tactile touch panel control unit 8 sets the tactile control information of the incoming call reception icon 28 (operation area) in which the operation is invalid according to an instruction from the control unit 6 to “smooth”.
  • step S34 the tactile sensation touch panel control unit 8 sets the tactile sensation control information of the incoming call reception icon 28 in which the operation is valid in accordance with an instruction from the control unit 6 to “gritty”.
  • step S35 the tactile touch panel control unit 8 outputs the tactile touch control information set in step S33 or step S34 to the tactile touch panel 14.
  • the tactile touch panel 14 is controlled based on the tactile sensation control information input from the tactile touch panel control unit 8 so that the tactile sensation of the incoming call reception icon 28 differs depending on whether the operation is enabled or disabled.
  • the operation of the incoming call reception icon 28 when there is no incoming call, the operation of the incoming call reception icon 28 is in an invalid state, so that the touch is “smooth”.
  • the tactile sensation is “gritty”.
  • another operation icon 27 is displayed on the display screen of the display device 13, and the tactile sensation on the tactile touch panel 14 of the operation icon 27 is “rough” regardless of whether there is an incoming call. (That is, the operation of the operation icon 27 is always in a valid state).
  • examples of the operation icon 27 include an operation icon for navigation, an operation icon for the audio 16, and an operation icon for the air conditioner 17.
  • the incoming call includes not only an incoming voice call but also an incoming call related to communication from the outside, and specifically includes reception of e-mail, push-type information distribution, traffic information, disaster information, and the like.
  • Each of the operation icon 27 and the incoming call reception icon 28 shown in FIG. 15 may have a physically raised shape.
  • the tactile sensation of the incoming call reception icon 28 varies depending on whether or not there is an incoming call, the user does not need to concentrate his / her line of sight on the display screen at the time of operation. Can respond. That is, an operation that is convenient for the user can be performed.
  • the tactile sensation control device described above is not only an in-vehicle navigation device, that is, a car navigation device, but also a PND (Portable Navigation Device) and a mobile communication terminal (for example, a mobile phone, a smartphone, and a tablet terminal) that can be mounted on a vehicle,
  • the present invention can also be applied to a navigation apparatus constructed as a system by appropriately combining servers and the like or an apparatus other than the navigation apparatus.
  • each function or each component of the tactile sensation control device is distributed and arranged in each function that constructs the system.
  • the function of the tactile sensation control device can be arranged in the server.
  • tactile sensation control is provided by including a display device 30 and a tactile touch panel 31 on the user side, and providing at least the operation region information acquisition unit 2, event occurrence detection unit 3, and tactile control unit 4 in the server 29.
  • a system can be constructed.
  • the functions of the operation region information acquisition unit 2, the event occurrence detection unit 3, and the tactile sensation control unit 4 are the same as the functions of the operation region information acquisition unit 2, the event occurrence detection unit 3, and the tactile sensation control unit 4 in FIG. is there.
  • the server 29 may be provided with each component as shown in FIGS. At this time, each component provided in the server 29 may be appropriately distributed and arranged in the server 29 and the display device 30.
  • the function of the tactile sensation control device can be arranged in the server and the mobile communication terminal.
  • the display device 30 and the tactile touch panel 31 are provided on the user side
  • the operation area information acquisition unit 2 and the event occurrence detection unit 3 are provided on the server 32
  • the tactile sense control unit 4 is provided on the mobile communication terminal 33.
  • a tactile sensation control system can be constructed.
  • the functions of the operation region information acquisition unit 2, the event occurrence detection unit 3, and the tactile sensation control unit 4 are the same as the functions of the operation region information acquisition unit 2, the event occurrence detection unit 3, and the tactile sensation control unit 4 in FIG. is there.
  • the server 32 and the mobile communication terminal 33 may include each component as shown in FIGS. At this time, each component provided in the server 32 and the mobile communication terminal 33 may be appropriately distributed and arranged in the display device 30, the server 32, and the mobile communication terminal 33.
  • software for executing the operation in the above embodiment may be incorporated in, for example, a server or a mobile communication terminal.
  • the above-described tactile sensation control method is a tactile sensation control method for controlling the tactile sensation of the user when operating the operation surface of the touch panel or the touch pad, and relates to an operation area in which the user operates on the operation surface.
  • Information is acquired as operation area information, the occurrence of a specific event that is predetermined as an event that defines the valid state or invalid state of the operation is detected, and an operation is performed based on the acquired operation area information and the detected specific event. Control is performed such that the tactile sensation of the operation area in which is in the valid state and the operation area in which the operation is invalid are different.
  • the operation area information acquisition unit 2 the event occurrence detection unit 3, the tactile sensation control unit 4, the control unit 6, the display information generation / output unit 7, the tactile touch panel control unit 8, and the operation
  • the information acquisition unit 9 the vehicle information acquisition unit 10, the map information acquisition unit 11, the external device information acquisition control unit 12, and the communication unit 26 executes program processing using a CPU (Central Processing Unit) based on software. Is realized.
  • a CPU Central Processing Unit
  • the acquisition unit 10, the map information acquisition unit 11, the external device information acquisition control unit 12, and the communication unit 26 is configured with hardware (for example, an operation / configuration configured to perform a specific operation or process on an electrical signal. A processing circuit or the like). Further, both of the above may be mixed.
  • 1 tactile sensation control device 2 operation region information acquisition unit, 3 event occurrence detection unit, 4 tactile control unit, 5 tactile control device, 6 control unit, 7 display information generation output unit, 8 tactile touch panel control unit, 9 operation information acquisition unit 10, vehicle information acquisition unit, 11 map information acquisition unit, 12 external device information acquisition control unit, 13 indicator, 14 tactile touch panel, 15 map DB, 16 audio, 17 air conditioner, 18 travel operation restriction icon, 19, 20 travel operation Unrestricted icon, 21 gesture input area, 22 meter panel, 23 tactile touchpad, 24 speedometer, 25 tactile control device, 26 communication unit, 27 operation icon, 28 incoming call acceptance icon, 29 server, 30 display device, 31 tactile touch panel , 32 servers, 33 mobile communication terminals.

Abstract

 本発明は、ユーザが操作時に表示画面に視線を集中させることなく使い勝手の良い操作を行うことが可能な触感制御システムおよび触感制御方法を提供することを目的とする。本発明による触感制御システムは、タッチパネルまたはタッチパッドの操作面に対する操作時のユーザの触感を制御する触感制御システムであって、操作面におけるユーザが操作を行う操作領域に関する情報を操作領域情報として取得する操作領域情報取得部と、操作の有効状態または無効状態を規定するイベントとして予め定められた特定イベントの発生を検出するイベント発生検出部と、操作領域情報取得部にて取得された操作領域情報と、イベント発生検出部にて検出された特定イベントとに基づいて、操作が有効状態である操作領域と、操作が無効状態である操作領域との触感が異なるように制御する触感制御部とを備える。

Description

触感制御システムおよび触感制御方法
 本発明は、タッチパネルまたはタッチパッドの操作面に対する操作時のユーザの触感を制御する触感制御システムおよび触感制御方法に関する。
 従来、タッチパネルを備える表示装置の表示画面に対してユーザが操作を行う際に、操作に応じた触感をユーザに付与する技術がある。
 例えば、指に超音波を照射することによって、指に触感を付与する技術が開示されている(例えば、特許文献1,2参照)。また、超音波振動によってタッチパネルの任意の領域を振動させることによって、ユーザに触感を付与する技術が開示されている(例えば、非特許文献1参照)。また、タッチパネルの任意の領域を動的(物理的に)に起伏させることによって触感を付与する技術が開示されている(例えば、特許文献3参照)。
特開2003-29898号公報 国際公開第2012/102026号 特表2005-512241号公報
"触感が得られるタッチパネルを搭載したタブレットを試作"、[online]、平成26年2月24日、富士通株式会社、[平成26年5月12日]、インターネット〈URL : http://pr.fujitsu.com/jp/news/2014/02/24.html?nw=pr〉
 ユーザは、特許文献1~3および非特許文献1の技術を用いれば、操作を行う際に、表示画面に視線を集中させることなく触感を頼りに操作することが可能であると考えられる。しかし、特許文献1~3および非特許文献1では、具体的な使用について何ら開示されておらず、使い勝手の良いユーザインタフェースを提供しているとはいえなかった。
 本発明は、このような問題を解決するためになされたものであり、ユーザが操作時に表示画面に視線を集中させることなく使い勝手の良い操作を行うことが可能な触感制御システムおよび触感制御方法を提供することを目的とする。
 上記の課題を解決するために、本発明による触感制御システムは、タッチパネルまたはタッチパッドの操作面に対する操作時のユーザの触感を制御する触感制御システムであって、操作面におけるユーザが操作を行う操作領域に関する情報を操作領域情報として取得する操作領域情報取得部と、操作の有効状態または無効状態を規定するイベントとして予め定められた特定イベントの発生を検出するイベント発生検出部と、操作領域情報取得部にて取得された操作領域情報と、イベント発生検出部にて検出された特定イベントとに基づいて、操作が有効状態である操作領域と、操作が無効状態である操作領域との触感が異なるように制御する触感制御部とを備える。
 また、本発明による触感制御方法は、タッチパネルまたはタッチパッドの操作面に対する操作時のユーザの触感を制御する触感制御方法であって、操作面におけるユーザが操作を行う操作領域に関する情報を操作領域情報として取得し、操作の有効状態または無効状態を規定するイベントとして予め定められた特定イベントの発生を検出し、取得した操作領域情報と、検出した特定イベントとに基づいて、操作が有効状態である操作領域と、操作が無効状態である操作領域との触感が異なるように制御する。
 本発明によると、触感制御システムは、タッチパネルまたはタッチパッドの操作面に対する操作時のユーザの触感を制御する触感制御システムであって、操作面におけるユーザが操作を行う操作領域に関する情報を操作領域情報として取得する操作領域情報取得部と、操作の有効状態または無効状態を規定するイベントとして予め定められた特定イベントの発生を検出するイベント発生検出部と、操作領域情報取得部にて取得された操作領域情報と、イベント発生検出部にて検出された特定イベントとに基づいて、操作が有効状態である操作領域と、操作が無効状態である操作領域との触感が異なるように制御する触感制御部とを備えるため、ユーザが操作時に表示画面に視線を集中させることなく使い勝手の良い操作を行うことが可能となる。
 また、触感制御方法は、タッチパネルまたはタッチパッドの操作面に対する操作時のユーザの触感を制御する触感制御方法であって、操作面におけるユーザが操作を行う操作領域に関する情報を操作領域情報として取得し、操作の有効状態または無効状態を規定するイベントとして予め定められた特定イベントの発生を検出し、取得した操作領域情報と、検出した特定イベントとに基づいて、操作が有効状態である操作領域と、操作が無効状態である操作領域との触感が異なるように制御するため、ユーザが操作時に表示画面に視線を集中させることなく使い勝手の良い操作を行うことが可能となる。
 本発明の目的、特徴、態様、および利点は、以下の詳細な説明と添付図面とによって、より明白となる。
本発明の実施の形態1による触感制御装置の構成の一例を示すブロック図である。 本発明の実施の形態1による触感を説明するための図である。 本発明の実施の形態1による触感を説明するための図である。 本発明の実施の形態1による触感を説明するための図である。 本発明の実施の形態1による触感を説明するための図である。 本発明の実施の形態1による触感を説明するための図である。 本発明の実施の形態1による触感制御装置の構成の他の一例を示すブロック図である。 本発明の実施の形態1による触感制御装置の動作の一例を示すフローチャートである。 本発明の実施の形態1による触感制御装置の動作の一例を示す図である。 本発明の実施の形態1による触感制御装置の動作の一例を示す図である。 本発明の実施の形態1による触感制御システムの構成の一例を示す図である。 本発明の実施の形態2による触感制御装置の動作の一例を示すフローチャートである。 本発明の実施の形態3による触感制御装置の構成の一例を示すブロック図である。 本発明の実施の形態3による触感制御装置の動作の一例を示すフローチャートである。 本発明の実施の形態3による触感制御装置の動作の一例を示す図である。 本発明の実施の形態による触感制御システムの構成の一例を示すブロック図である。 本発明の実施の形態による触感制御システムの構成の他の一例を示すブロック図である。
 本発明の実施の形態について、図面に基づいて以下に説明する。
 <実施の形態1>
 まず、本発明の実施の形態1による触感制御システムの構成について説明する。なお、本実施の形態および以下の各実施の形態においては、触感制御システムを触感制御装置単体で実現した場合について説明する。
 図1は、本実施の形態1による触感制御装置1の構成の一例を示すブロック図である。なお、図1では、触感制御装置1を構成する必要最小限の構成要素を示している。
 図1に示すように、触感制御装置1は、少なくとも操作領域情報取得部2と、イベント発生検出部3と、触感制御部4とを備えている。
 操作領域情報取得部2は、タッチパネルまたはタッチパッドの操作面におけるユーザが操作を行う操作領域に関する情報を操作領域情報として取得する。
 イベント発生検出部3は、操作の有効状態または無効状態を規定するイベントとして予め定められたイベント(特定イベント)の発生を検出する。
 触感制御部4は、操作領域情報取得部2にて取得された操作領域情報と、イベント発生検出部3にて検出されたイベントとに基づいて、操作が有効状態である操作領域と、操作が無効状態である操作領域との触感が異なるように制御する。
 ここで、触感制御部4が制御する触感について、図2~6を用いて説明する。
 図2は、「つるつる」、「半ザラザラ」、および「ザラザラ」の3つの触感の一例を示す図である。
 図2において、横軸は触感の強さを示しており、最も左側の一列は「つるつる」を示し、中央の二列は「半ザラザラ」を示し、最も右側の一列は「ザラザラ」を示している。また、各四角内に示す黒で表現したドットや線のパターン部分を例えば超音波振動によって振動させることによって、四角内全体の触感を表現している。すなわち、例えば各四角内における振動の強さが同じである場合において、図2の左側よりも右側の方が「ザラザラ」の触感が強くなる。具体的には、図2の1行目はドットの目が大きいほどザラザラの触感が強いことを示し、2行目は格子の間隔が狭いほどザラザラの触感が強いことを示し、3行目は線が破線から実線、かつ線が太くなるに従ってザラザラの触感が強いことを示している。なお、ザラザラの触感のパターンは、図2にこだわるものではなく、無限の組み合わせが存在する。
 図2の例は、振動の強さが同じであってもパターンを変えることによって異なるザラザラの触感を得る方法を示したが、同一のパターンであっても振動の強さを変えると異なるザラザラの触感を得ることができる。
 「つるつる」の触感は、例えば超音波振動を行わないことによって表現することができる。
 「ザラザラ」の触感は、例えば予め定められた閾値以上の強さで超音波振動を行うことによって表現することができる。
 「半ザラザラ」の触感は、例えば上記の閾値よりも小さい超音波振動を行うことによって表現することができる。
 また、振動の強さと、図2に示すようなザラザラの触感のパターンとの両方を組み合わせることによって、ザラザラの触感の強弱を表現することができる。
 図2では、ザラザラの触感のパターンと、振動の強度が変化しない静的なザラザラの触感の発生とについて説明したが、振動の強弱を時間的に変化させたり、ザラザラの触感のパターンを時間的に変化させたりすることによって(すなわち、振動の強弱、あるいはザラザラの触感のパターンを動的に変化させることによって)、動くザラザラの触感を表現することもできる。
 図3~5は、振動の強度を時間的に変化させることによって「動くザラザラ」の触感を発生させる一例を示す図である。図3~5において、横軸は時間、縦軸は触感の強さを示している。
 図3は、触感の強さを一定にし、かつ当該触感が一定周期で発生する場合について示している。また、図4は、触感の強さを変化させ、かつ当該触感が一定周期で発生する場合について示している。また、図5は、触感の強さを一定にし、かつ当該触感の発生の周期が変化する場合について示している。
 図3~5に示すように触感を変化させることによって、ユーザは例えば「ザラザラ」した領域が動いているかのような触感(すなわち、「動くザラザラ」の触感)を得ることができる。なお、図3~5では、「ザラザラ」の触感と「つるつる」の触感とを交互に切り替えているが、「ザラザラ」の触感と「半ザラザラ」の触感とを交互に切り替えてもよく、「ザラザラ」の触感を離散的ではなく連続的に切り替えてもよく、連続的変化と離散的変化とを自由に組み合わせてもよい。
 図6は、ザラザラの触感のパターンが時間的に変化することによって「動くザラザラ」の触感を発生させる他の一例を示す図である。図6において、縦軸は時間を示している。また、領域aおよび領域bは、例えば「ザラザラ」の触感を有している。
 図6に示すように、領域aおよび領域bは、時間の経過とともに位置が移動している。このように、触感を有する領域aおよび領域bを移動させることによって、ユーザは例えば「ザラザラ」した領域が動いているかのような触感(すなわち、「動くザラザラ」の触感)を得ることができる。なお、領域aおよび領域bの各々は、図3~5にいずれかに示すような触感を有していてもよい。
 また、図6では、「ザラザラ」の触感の領域と「つるつる」の触感の領域とを時間的に移動させているが、「ザラザラ」の触感の領域と「半ザラザラ」の触感の領域とを構成して時間的に移動させてもよく、「ザラザラ」の触感が離散的または連続的に変化する領域を構成し、当該領域を時間的に移動させるようにしてもよい。図3~6において、連続的に変化する「ザラザラ」の触感を採用した場合は、滑らかな「動くザラザラ」の触感を得ることができる。
 次に、図1の操作領域情報取得部2、イベント発生検出部3、および触感制御部4を含む触感制御装置1の他の構成について説明する。
 図7は、触感制御装置5の構成の一例を示すブロック図である。
 図7に示すように、触感制御装置5は、制御部6と、表示情報生成出力部7と、触感タッチパネル制御部8と、操作情報取得部9と、車両情報取得部10と、地図情報取得部11と、外部機器情報取得制御部12とを備えている。また、表示情報生成出力部7は表示器13に接続され、触感タッチパネル制御部8および操作情報取得部9は触感タッチパネル14に接続され、地図情報取得部11は地図DB(database)15に接続され、外部機器情報取得制御部12はオーディオ16およびエアコン17に接続されている。
 制御部6は、触感制御装置5全体の制御を行う。図7に示す例では、制御部6は、表示情報生成出力部7、触感タッチパネル制御部8、車両情報取得部10、地図情報取得部11、および外部機器情報取得制御部12の制御を行う。
 また、制御部6は、イベント発生検出部3を備えている。イベント発生検出部3は、操作の有効状態または無効状態を規定するイベントとして予め定められたイベント(特定イベント)の発生を検出する。具体的には、イベント発生検出部3は、車両などの移動体が移動中か否かを検出する。
 表示情報生成出力部7は、制御部6の指示に従って表示情報を生成する。また、表示情報生成出力部7は、生成した表示情報を映像信号に変換して表示器13に出力する。
 触感タッチパネル制御部8は、操作領域情報取得部2と触感制御部4とを備えている。操作領域情報取得部2は、制御部6から入力された操作領域情報を取得する。触感制御部4は、操作領域情報取得部2にて取得された操作領域情報と、イベント発生検出部3にて検出されたイベントとに基づいて、操作が有効状態である操作領域と、操作が無効状態である操作領域との触感が異なるように制御するための触感制御情報を触感タッチパネル14に出力する。
 操作情報取得部9は、触感タッチパネル14から、当該触感タッチパネル14に対するユーザの操作に関する情報を操作情報として取得する。
 車両情報取得部10は、車内LAN(Local Area Network)を介して、車両内に設けられた各種センサーによって検出されたセンサー情報(車速パルス情報など)、車両の制御情報(エンジンに関する情報、ブレーキに関する情報、サイドブレーキに関する情報など)、あるいはGPS(Global Positioning System)情報などを車両情報として取得する。
 地図情報取得部11は、地図DB15から地図情報を取得する。
 外部機器情報取得制御部12は、ユーザの操作対象となる外部機器(オーディオ16、エアコン17)に関する情報を外部機器情報として取得する。また、外部機器情報取得制御部12は、外部機器(オーディオ16、エアコン17)の制御を行う。
 表示器13は、表示情報生成出力部7から入力された表示情報を表示画面に表示する。
 触感タッチパネル14は、ユーザによるタッチ操作に関する情報(タッチの有無、タッチの位置、操作内容などの情報)を操作情報として操作情報取得部9に出力する。また、触感タッチパネル14は、触感タッチパネル制御部8から入力された触感制御情報に基づいて、タッチパネルの任意の位置の触感(「つるつる」、「半ザラザラ」、「ザラザラ」、「動くザラザラ」)を変化させる。
 なお、触感タッチパネル14は、表示器13の表示画面上に設けられており、ユーザは表示画面に対して直接的に操作する感覚で使用することができる。すなわち、表示器13の表示画面領域と触感タッチパネル14の触感を発生させる領域とは、完全に一致していてもよい。また、表示器13の表示画面領域と触感タッチパネル14の触感を発生させる領域とのうちのいずれか一方が他方よりも広い領域であってもよい。例えば、触感タッチパネル14の触感を発生させる領域が表示器13の表示画面領域からはみ出すように触感タッチパネル14を設置し、当該はみ出した領域では表示しないがタッチ操作の入力が可能な領域として活用してもよい。
 次に、触感制御装置5の動作について、図8および図9を用いて説明する。
 図8は、触感制御装置5の動作の一例を示すフローチャートである。図9は、触感制御装置5の動作の一例を示す図である。なお、図9において、左図は車両が停車中における表示および触感を示しており、右図は車両が走行中における表示および触感を示している。
 ステップS11において、表示情報生成出力部7は、制御部6の指示に従って表示情報を生成し、生成した表示情報を映像信号に変換して表示器13に出力する。
 ステップS12において、イベント発生検出部3は、車両情報取得部10にて取得された車両情報に基づいて、車両が走行中か否かを検出する。具体的には、イベント発生検出部3は、例えば車速パルスに基づいて車両が走行中であるか否かを検出してもよく、ブレーキをかけて車速がゼロになったときを停車中であると検出してもよく、車速がゼロでかつサイドブレーキを引いたときを停車中であると検出してもよい。また、イベント発生検出部3は、カメラによって撮影された画像に基づいて車両が走行中であるか否かを判断してもよい。この場合、車両情報取得部10は、カメラによって撮影された画像を車両情報として取得する。車両が走行中である場合は、ステップS13に移行する。一方、車両が停車中である場合は、ステップS14に移行する。
 ステップS13において、触感タッチパネル制御部8は、制御部6の指示に従って、操作が無効状態である走行操作制限アイコン18(操作領域)の触感制御情報を「つるつる」に設定する。
 ステップS14において、触感タッチパネル制御部8は、制御部6の指示に従って、操作が有効状態である走行操作制限アイコン18の触感制御情報を「ザラザラ」に設定する。
 ステップS15において、触感タッチパネル制御部8は、ステップS13またはステップS14にて設定された触感制御情報を触感タッチパネル14に出力する。触感タッチパネル14では、触感タッチパネル制御部8から入力された触感制御情報に基づいて、操作が有効状態または無効状態で走行操作制限アイコン18の触感が異なるように制御される。
 具体的には、図9に示すように、車両が停車中である場合は、走行操作制限アイコン18の操作は有効状態であるため、その触感は「ザラザラ」となっている。一方、車両が走行中である場合は、走行操作制限アイコン18の操作は無効状態であるため、その触感は「つるつる」となっている。また、車両の走行状態に依存しない走行操作非制限アイコン19が表示器13の表示画面に表示されている場合において、走行操作非制限アイコン19の触感タッチパネル14における触感は、車両の走行状態に関わらず「ザラザラ」となっている(すなわち、走行操作非制限アイコン19の操作は、常に有効状態となっている)。なお、走行操作制限アイコン18としては、ナビゲーション画面における各種操作アイコンなどが挙げられる。この場合、制御部6は、ナビゲーション機能を有しているものとする。また、走行操作非制限アイコン19としては、オーディオ16の音量調整アイコンや、エアコン17の温度調整アイコンなどが挙げられる。
 ユーザは、タッチ入力することによって走行操作制限アイコン18および走行操作非制限アイコン19を操作(アイコン操作)する。本実施の形態1におけるタッチ入力は、ユーザが触感タッチパネル14の操作面に軽く触れた場合はアイコン操作の予備操作として触感を感じることが可能であり、ユーザが操作面を強く押し込んだ場合にアイコン操作を受け付けるような操作方法も含むものとする。
 ステップS16において、制御部6は、操作情報取得部9を介して、ユーザが触感タッチパネル14を操作したか否かを判断する。ユーザが触感タッチパネル14を操作した場合は、ステップS17に移行する。一方、ユーザが触感タッチパネル14を操作しない場合は、ステップS11に移行する。
 ステップS17において、制御部6は、ユーザの操作に応じた表示画面の遷移を行う。
 図10は、触感制御装置5の動作の他の一例を示す図である。図10において、左図は車両が停車中における表示および触感を示しており、右図は車両が走行中における表示および触感を示している。
 図10に示すように、車両が停車中である場合は、ジェスチャー操作が有効であるため、ジェスチャー入力領域21の触感は「つるつる」となっている。このとき、走行操作非制限アイコン20の触感は「ザラザラ」であり、走行操作非制限アイコン20およびジェスチャー入力領域21以外の領域の触感は「半ザラザラ」となっている。ここで、ジェスチャー入力領域とは、表示画面内においてユーザがジェスチャー操作によって入力することが可能な領域のことをいう。
 一方、車両が走行中である場合は、ジェスチャー操作が無効であるため、ジェスチャー入力領域21の触感は「半ザラザラ」となっている。このとき、走行操作非制限アイコン20の触感は「ザラザラ」であり、走行操作非制限アイコン20およびジェスチャー入力領域21以外の領域の触感は「半ザラザラ」となっている。
 なお、上記において、車両が走行中に助手席に座っているユーザが操作を行う場合において、触感制御部4は、無効状態を示す触感を、有効状態を示す触感に変更するようにしてもよい。例えば、図9において、走行中に助手席に座っているユーザが走行操作制限アイコン18を操作する場合において、触感制御部4は、走行操作制限アイコン18の触感を「つるつる」から「ザラザラ」に変更する。助手席に座っているユーザが操作を行うか否かについては、例えばカメラやセンサーなどによって検出することが可能である。このようにすることによって、助手席側からの操作性が向上する。
 上記において、走行操作制限アイコン18は、停車中と走行中とで表示態様を変えてもよい。例えば、図9において、車両が停車中である場合は、走行操作制限アイコン18の操作が有効状態であることが分かる表示(例えばカラー表示)を行い、車両が走行中である場合は、走行操作制限アイコン18の操作が無効状態であることが分かる表示(例えばグレー表示)を行う。
 上記では、車両が走行中であるか否かに応じて走行操作制限アイコン18の触感を変える場合について説明したが、これに限るものではない。例えば、スマートフォンなどの携帯通信端末の所有者が歩行中(移動中)であるか否かに応じて、触感タッチパネル14における触感(例えば、図9に示す走行操作制限アイコン18の触感、図10に示すジェスチャー入力領域21の触感)を制御してもよい。この場合は、携帯通信端末の位置はGPSによって検出可能であり、携帯通信端末が移動中であるか否かは加速度センサーによって検出可能である。また、携帯通信端末の所有者が存在する環境に応じて触感を制御してもよい。例えば、携帯通信端末の所有者が駅、崖、狭い道路、屋外などに存在する場合は操作を無効として触感を制御し、所有者が屋内に存在する場合は操作を有効として触感を制御してもよい。所有者が周囲に注意を払う状況において視覚を奪う操作を禁止するため、より注意力の低下を抑える効果がある。
 上記では、「つるつる」および「ザラザラ」の触感を用いる場合を一例として説明したが、これに限るものではない。例えば、「半ザラザラ」あるいは「動くザラザラ」を適宜組み合わせて用いてもよい。
 図9および図10に示す走行操作制限アイコン18、走行操作非制限アイコン19、および走行操作非制限アイコン20の各々は、物理的に盛り上がった形状であってもよい。
 以上のことから、本実施の形態1によれば、車両や携帯通信端末などの移動体の走行状態(移動状態)に応じて触感を異ならせているため、ユーザは操作時に表示画面に視線を集中させる必要がなく、また操作が有効状態または無効状態であることを容易に把握することができる。すなわち、ユーザにとって使い勝手の良い操作を行うことができる。
 実施の形態1では、触感タッチパネル14を用いる場合について説明したが、図11に示すように、メータパネル22に表示器13が設けられ、触感タッチパネル14の代わりに触感タッチパッド23を運転者の近辺に設置する(すなわち、表示器13と触感タッチパッド23とは、別個に異なる箇所に設置されている)メータパネル用の触感制御システムに適用してもよい。図11の例では、メータパネル22には、表示器13および速度計24が設けられている。メータパネル22に表示器13を設けた場合は、表示器13と触感タッチパッド23とが離れているため、運転者の操作時の注意力低下を大きく防止する効果が得られる。なお、メータパネル22に設けられた表示器13は、メータパネル22の一部の領域または全域を表示器13の表示領域としてもよい。また、触感タッチパッド23における触感が発生する領域の大きさと、表示器13における表示領域の大きさとは、同じであってもよく、相似関係であってもよく、相似関係でなくてもよい。
 <実施の形態2>
 本発明の実施の形態2では、車両が間もなくカーブを走行する場合において、操作が有効状態であったアイコンの触感を、操作が無効状態であることを示す触感に変えることを特徴とする。本実施の形態2による触感制御装置の構成は、実施の形態1による触感制御装置5(図7参照)と同様であるため、ここでは説明を省略する。
 図12は、本実施の形態2による触感制御装置の動作の一例を示すフローチャートである。なお、図12のステップS21,ステップS23~ステップS27は、図8のステップS11,ステップS13~ステップS17に対応しているため、ここでは説明を省略する。
 ステップS22において、イベント発生検出部3は、車両情報取得部10にて取得された車両情報と、地図情報取得部11を介して地図DB15から取得した地図情報とに基づいて、車両が間もなくカーブを走行するか否かを検出する(予め定められた規則によって発生する車両前方のカーブの存在を通知するか否かを検出する)。具体的には、イベント発生検出部3は、GPS情報に含まれる車両の現在位置の情報と、地図情報とに基づいて、車両が現在位置から予め定められた距離を走行した後にカーブを走行するか否かを検出する。車両が間もなくカーブを走行する場合(車両前方のカーブの存在を通知する場合)は、ステップS23に移行する。一方、車両が間もなくカーブを走行しない場合は、ステップS24に移行する。
 なお、ステップS22において、イベント発生検出部3は、地図情報に含まれるカーブの曲率に関する情報と、車両情報に含まれる車両の速度情報とに基づいて、ステップS23またはステップS24への移行の判断を行うようにしてもよい。具体的には、カーブの曲率が予め定められた閾値よりも小さい場合は、走行操作制限アイコン18の操作を無効にすべくステップS23に移行するようにしてもよい。また、車両の速度が予め定められた閾値よりも遅い場合は、走行操作制限アイコン18の操作を有効にすべくステップS24に移行するようにしてもよい。
 上記では、車両が間もなくカーブを走行するか否かに応じて走行操作制限アイコン18の触感を変える場合について説明したが、これに限るものではない。例えば、車両の周辺に存在する他の車両の数に応じて、他の車両の数が予め定められた閾値以上の場合に走行操作制限アイコン18の操作が無効状態となるように触感を変えてもよい。他の車両の有無や位置については、例えばカメラやレーザレーダなどによって検出することができる。
 以上のことから、本実施の形態2によれば、カーブを走行する場合や、周辺に他の車両が多く存在している場合など、運転者に対する運転負荷に応じて触感を異ならせているため、ユーザは操作時に表示画面に視線を集中させる必要がなく、また操作が有効状態または無効状態であることを容易に把握することができる。すなわち、ユーザにとって使い勝手の良い操作を行うことができる。
 <実施の形態3>
 本発明の実施の形態3では、着信があった場合において、操作が無効状態であったアイコンの触感を、操作が有効状態であることを示す触感に変えることを特徴とする。
 図13は、本実施の形態3による触感制御装置25の構成の一例を示すブロック図である。
 図13に示すように、触感制御装置25は、通信部26を備えることを特徴としている。その他の構成は、実施の形態1(図7参照)と同様であるため、ここでは説明を省略する。
 通信部26は、通信端末(図示せず)と通信可能に接続されている。当該通信端末に対して外部(触感制御装置25の外部)の他の通信端末から着信がある場合において、ユーザは表示器13に表示されている着信受付アイコン28(後述の図15参照)を選択することによって通話(ハンズフリーで通話)することが可能となる。
 次に、触感制御装置25の動作について、図14および図15を用いて説明する。
 図14は、触感制御装置25の動作の一例を示すフローチャートである。図15は、触感制御装置25の動作の一例を示す図である。
 なお、図14のステップS31,ステップS36,ステップS37は、図8のステップS11,ステップS16,ステップS17と同様であるため、ここでは説明を省略する。また、図15において、左図は着信がない場合における表示および触感を示しており、右図は着信時における表示および触感を示している。
 ステップS32において、イベント発生検出部3は、通信部26を介して外部から着信があったか否かを検出する。着信があった場合は、ステップS33に移行する。一方、着信がなかった場合は、ステップS34に移行する。
 ステップS33において、触感タッチパネル制御部8は、制御部6の指示に従って、操作が無効状態である着信受付アイコン28(操作領域)の触感制御情報を「つるつる」に設定する。
 ステップS34において、触感タッチパネル制御部8は、制御部6の指示に従って、操作が有効状態である着信受付アイコン28の触感制御情報を「ザラザラ」に設定する。
 ステップS35において、触感タッチパネル制御部8は、ステップS33またはステップS34にて設定された触感制御情報を触感タッチパネル14に出力する。触感タッチパネル14では、触感タッチパネル制御部8から入力された触感制御情報に基づいて、操作が有効状態または無効状態で着信受付アイコン28の触感が異なるように制御される。
 具体的には、図15に示すように、着信がない場合は、着信受付アイコン28の操作は無効状態であるため、その触感は「つるつる」となっている。一方、着信時の場合は、着信受付アイコン28の操作は有効状態であるため、その触感は「ザラザラ」となっている。また、図15の例では、他の操作アイコン27が表示器13の表示画面に表示されており、操作アイコン27の触感タッチパネル14における触感は、着信の有無に関わらず「ザラザラ」となっている(すなわち、操作アイコン27の操作は、常に有効状態となっている)。ここで、操作アイコン27としては、ナビゲーション用の操作アイコン、オーディオ16用の操作アイコン、あるいはエアコン17用の操作アイコンなどが挙げられる。また、着信は、音声通話の着信だけでなく外部からの通信に関する着信も含み、具体的には、電子メール、プッシュ型の情報配信、交通情報、災害情報等の受信も含む。
 上記では、「つるつる」および「ザラザラ」の触感を用いる場合を一例として説明したが、これに限るものではない。例えば、「半ザラザラ」あるいは「動くザラザラ」を適宜組み合わせて用いてもよい。
 図15に示す操作アイコン27および着信受付アイコン28の各々は、物理的に盛り上がった形状であってもよい。
 以上のことから、本実施の形態3によれば、着信の有無に応じて着信受付アイコン28の触感を異ならせているため、ユーザは操作時に表示画面に視線を集中させる必要がなく、容易に応答することができる。すなわち、ユーザにとって使い勝手の良い操作を行うことができる。
 以上で説明した触感制御装置は、車載用ナビゲーション装置、すなわちカーナビゲーション装置だけでなく、車両に搭載可能なPND(Portable Navigation Device)および携帯通信端末(例えば携帯電話、スマートフォン、およびタブレット端末など)、並びにサーバなどを適宜に組み合わせてシステムとして構築されるナビゲーション装置あるいはナビゲーション装置以外の装置にも適用することができる。この場合、触感制御装置の各機能あるいは各構成要素は、上記システムを構築する各機能に分散して配置される。
 具体的には、一例として、触感制御装置の機能をサーバに配置することができる。例えば、図16に示すように、ユーザ側に表示装置30および触感タッチパネル31を備え、サーバ29に少なくとも操作領域情報取得部2、イベント発生検出部3、および触感制御部4を備えることによって触感制御システムを構築することができる。なお、操作領域情報取得部2、イベント発生検出部3、および触感制御部4の機能は、図1の操作領域情報取得部2、イベント発生検出部3、および触感制御部4の機能と同様である。また、サーバ29は、必要に応じて図7,13に示すような各構成要素を備えるようにしてもよい。このとき、サーバ29に備えられる各構成要素は、適宜にサーバ29および表示装置30に分散して配置するようにしてもよい。
 また、他の一例として、触感制御装置の機能をサーバおよび携帯通信端末に配置することができる。例えば、図17に示すように、ユーザ側に表示装置30および触感タッチパネル31を備え、サーバ32に操作領域情報取得部2およびイベント発生検出部3を備え、携帯通信端末33に触感制御部4を備えることによって触感制御システムを構築することができる。なお、操作領域情報取得部2、イベント発生検出部3、および触感制御部4の機能は、図1の操作領域情報取得部2、イベント発生検出部3、および触感制御部4の機能と同様である。また、サーバ32および携帯通信端末33は、必要に応じて図7,13に示すような各構成要素を備えるようにしてもよい。このとき、サーバ32および携帯通信端末33に備えられる各構成要素は、適宜に表示装置30、サーバ32、および携帯通信端末33に分散して配置するようにしてもよい。
 上記の構成とした場合であっても、上記の実施の形態と同様の効果が得られる。
 また、上記の実施の形態における動作を実行するソフトウェア(触感制御方法)を、例えばサーバや携帯通信端末に組み込んでもよい。
 具体的には、一例として、上記の触感制御方法は、タッチパネルまたはタッチパッドの操作面に対する操作時のユーザの触感を制御する触感制御方法であって、操作面におけるユーザが操作を行う操作領域に関する情報を操作領域情報として取得し、操作の有効状態または無効状態を規定するイベントとして予め定められた特定イベントの発生を検出し、取得した操作領域情報と、検出した特定イベントとに基づいて、操作が有効状態である操作領域と、操作が無効状態である操作領域との触感が異なるように制御する。
 上記より、上記の実施の形態における動作を実行するソフトウェアをサーバや携帯通信端末に組み込んで動作させることによって、上記の実施の形態と同様の効果が得られる。
 なお、図1,7,13,16,17において、操作領域情報取得部2、イベント発生検出部3、触感制御部4、制御部6、表示情報生成出力部7、触感タッチパネル制御部8、操作情報取得部9、車両情報取得部10、地図情報取得部11、外部機器情報取得制御部12、および通信部26の各々は、ソフトウェアに基づくCPU(Central Processing Unit)を用いたプログラム処理を実行することによって実現される。また、可能であれば、操作領域情報取得部2、イベント発生検出部3、触感制御部4、制御部6、表示情報生成出力部7、触感タッチパネル制御部8、操作情報取得部9、車両情報取得部10、地図情報取得部11、外部機器情報取得制御部12、および通信部26の各々を、ハードウェア(例えば、電気信号に対して特定の演算あるいは処理を行うように構成された演算/処理回路等)として構成するようにしてもよい。また、上記の両者を混在させてもよい。
 なお、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略することが可能である。
 本発明は詳細に説明されたが、上記した説明は、すべての態様において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。
 1 触感制御装置、2 操作領域情報取得部、3 イベント発生検出部、4 触感制御部、5 触感制御装置、6 制御部、7 表示情報生成出力部、8 触感タッチパネル制御部、9 操作情報取得部、10 車両情報取得部、11 地図情報取得部、12 外部機器情報取得制御部、13 表示器、14 触感タッチパネル、15 地図DB、16 オーディオ、17 エアコン、18 走行操作制限アイコン、19,20 走行操作非制限アイコン、21 ジェスチャー入力領域、22 メータパネル、23 触感タッチパッド、24 速度計、25 触感制御装置、26 通信部、27 操作アイコン、28 着信受付アイコン、29 サーバ、30 表示装置、31 触感タッチパネル、32 サーバ、33 携帯通信端末。

Claims (7)

  1.  タッチパネルまたはタッチパッドの操作面に対する操作時のユーザの触感を制御する触感制御システムであって、
     前記操作面における前記ユーザが操作を行う操作領域に関する情報を操作領域情報として取得する操作領域情報取得部と、
     前記操作の有効状態または無効状態を規定するイベントとして予め定められた特定イベントの発生を検出するイベント発生検出部と、
     前記操作領域情報取得部にて取得された前記操作領域情報と、前記イベント発生検出部にて検出された前記特定イベントとに基づいて、前記操作が有効状態である前記操作領域と、前記操作が無効状態である前記操作領域との前記触感が異なるように制御する触感制御部と、
    を備える、触感制御システム。
  2.  前記特定イベントは、移動体が移動中か否かであり、
     前記触感制御部は、前記移動体が移動中である前記特定イベントが発生した場合において、前記有効状態であった前記操作領域の触感を前記無効状態である前記操作領域の触感に変更することを特徴とする、請求項1に記載の触感制御システム。
  3.  前記移動体は車両であり、
     前記触感制御部は、前記車両が走行中に前記ユーザが助手席から前記操作を行う場合において、前記無効状態である前記操作領域の触感を前記有効状態である前記操作領域の触感に変更することを特徴とする、請求項2に記載の触感制御システム。
  4.  前記特定イベントは、予め定められた規則によって発生する車両前方のカーブの存在を通知するか否かであり、
     前記触感制御部は、前記通知する前記特定イベントが発生した場合において、前記有効状態であった前記操作領域の触感を前記無効状態である前記操作領域の触感に変更することを特徴とする、請求項1に記載の触感制御システム。
  5.  前記特定イベントは、前記触感制御システム外から通信に関する着信があったか否かであり、
     前記触感制御部は、前記着信があった前記特定イベントが発生した場合において、前記無効状態である前記操作領域の触感を前記有効状態である前記操作領域の触感に変更することを特徴とする、請求項1に記載の触感制御システム。
  6.  前記特定イベントは、携帯通信端末の所有者である前記ユーザが存在する環境が変化したか否かであり、
     前記触感制御部は、前記環境が変化した前記特定イベントが発生した場合において、前記有効状態であった前記操作領域の触感を前記無効状態である前記操作領域の触感に変更することを特徴とする、請求項1に記載の触感制御システム。
  7.  タッチパネルまたはタッチパッドの操作面に対する操作時のユーザの触感を制御する触感制御方法であって、
     前記操作面における前記ユーザが操作を行う操作領域に関する情報を操作領域情報として取得し、
     前記操作の有効状態または無効状態を規定するイベントとして予め定められた特定イベントの発生を検出し、
     前記取得した前記操作領域情報と、前記検出した前記特定イベントとに基づいて、前記操作が有効状態である前記操作領域と、前記操作が無効状態である前記操作領域との前記触感が異なるように制御する、触感制御方法。
PCT/JP2014/073769 2014-09-09 2014-09-09 触感制御システムおよび触感制御方法 WO2016038676A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016547284A JP6284648B2 (ja) 2014-09-09 2014-09-09 触感制御システムおよび触感制御方法
CN201480081820.6A CN106687906B (zh) 2014-09-09 2014-09-09 触感控制系统及触感控制方法
PCT/JP2014/073769 WO2016038676A1 (ja) 2014-09-09 2014-09-09 触感制御システムおよび触感制御方法
DE112014006939.6T DE112014006939T5 (de) 2014-09-09 2014-09-09 Tastempfindung-Steuersystem und Tastempfindung- Steuerverfahren

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/073769 WO2016038676A1 (ja) 2014-09-09 2014-09-09 触感制御システムおよび触感制御方法

Publications (1)

Publication Number Publication Date
WO2016038676A1 true WO2016038676A1 (ja) 2016-03-17

Family

ID=55458469

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/073769 WO2016038676A1 (ja) 2014-09-09 2014-09-09 触感制御システムおよび触感制御方法

Country Status (4)

Country Link
JP (1) JP6284648B2 (ja)
CN (1) CN106687906B (ja)
DE (1) DE112014006939T5 (ja)
WO (1) WO2016038676A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022054382A1 (ja) * 2020-09-11 2022-03-17 菱洋エレクトロ株式会社 電子機器及び電子機器の制御方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004061252A (ja) * 2002-07-26 2004-02-26 Equos Research Co Ltd 車載装置、データ作成装置、及びデータ作成プログラム
JP2004309962A (ja) * 2003-04-10 2004-11-04 Denso Corp タッチパネル付き表示装置
JP2007331692A (ja) * 2006-06-19 2007-12-27 Xanavi Informatics Corp 車載電子装置およびタッチパネル装置
JP2008199272A (ja) * 2007-02-13 2008-08-28 Mitsubishi Electric Corp 携帯電話機
WO2010050154A1 (ja) * 2008-10-27 2010-05-06 日本電気株式会社 情報処理装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09505426A (ja) * 1994-09-07 1997-05-27 フィリップス エレクトロニクス ネムローゼ フェンノートシャップ ユーザがプログラムできる触覚のフィードバックを有する仮想作業領域
JP2005258666A (ja) * 2004-03-10 2005-09-22 Sony Corp 入力装置および電子機器並びに電子機器の感触フィードバック入力方法
JP4493451B2 (ja) * 2004-09-16 2010-06-30 クラリオン株式会社 車載装置
JP2007310496A (ja) * 2006-05-16 2007-11-29 Alps Electric Co Ltd タッチ操作入力装置
KR20190015624A (ko) * 2009-03-12 2019-02-13 임머숀 코퍼레이션 표면-기반 햅틱 효과를 특징으로 하는 인터페이스에 대한 시스템 및 방법, 및 유형의 컴퓨터 판독가능 매체
KR20120049307A (ko) * 2009-08-27 2012-05-16 교세라 가부시키가이샤 촉각제시장치 및 촉각제시장치의 제어방법
FR2955813B1 (fr) * 2010-02-02 2015-05-22 Dav Module de retour haptique destine a etre integre dans un vehicule automobile pour dispositif nomade et dispositif de commande correspondant
JP5630119B2 (ja) * 2010-07-26 2014-11-26 株式会社リコー タッチパネル装置、これを含むタッチパネル付き表示装置、及びタッチパネル装置の制御方法
JP5778904B2 (ja) * 2010-09-27 2015-09-16 株式会社東海理化電機製作所 タッチ式入力装置
JP6071372B2 (ja) * 2012-09-21 2017-02-01 キヤノン株式会社 電子機器及び電子機器の制御方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004061252A (ja) * 2002-07-26 2004-02-26 Equos Research Co Ltd 車載装置、データ作成装置、及びデータ作成プログラム
JP2004309962A (ja) * 2003-04-10 2004-11-04 Denso Corp タッチパネル付き表示装置
JP2007331692A (ja) * 2006-06-19 2007-12-27 Xanavi Informatics Corp 車載電子装置およびタッチパネル装置
JP2008199272A (ja) * 2007-02-13 2008-08-28 Mitsubishi Electric Corp 携帯電話機
WO2010050154A1 (ja) * 2008-10-27 2010-05-06 日本電気株式会社 情報処理装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022054382A1 (ja) * 2020-09-11 2022-03-17 菱洋エレクトロ株式会社 電子機器及び電子機器の制御方法

Also Published As

Publication number Publication date
CN106687906B (zh) 2020-02-28
JP6284648B2 (ja) 2018-02-28
DE112014006939T5 (de) 2017-06-01
CN106687906A (zh) 2017-05-17
JPWO2016038676A1 (ja) 2017-04-27

Similar Documents

Publication Publication Date Title
CN109476318B (zh) 用于车辆的触觉通知系统
US10650676B2 (en) Using automobile driver attention focus area to share traffic intersection status
US20190369939A1 (en) Haptic notification manager
US9116547B2 (en) Traffic information presentation system, traffic information presentation method, and electronic device
US20160321880A1 (en) Systems And Methods For Tactile Guidance
US11410634B2 (en) Information processing apparatus, information processing method, display system, and mobile object
CN106687905B (zh) 触感控制系统及触感控制方法
JP6258513B2 (ja) 触感制御システムおよび触感制御方法
TW200949203A (en) Navigation apparatus and method that adapts to driver's workload
JP2015085807A (ja) 車載用表示システム
CN105739681B (zh) 改变触觉控制器的触觉表面来传达交互式系统信息的技术
CN114125376A (zh) 为车载信息娱乐和娱乐提供增强现实的环境交互系统
JP2008249648A (ja) 車載機器の誤操作防止装置および誤操作防止方法
JP6284648B2 (ja) 触感制御システムおよび触感制御方法
WO2014087523A1 (ja) 電子機器
Prabhakar et al. A brief survey on interactive automotive UI
JP4849193B2 (ja) 車載機器の誤操作防止装置および誤操作防止方法
KR102388306B1 (ko) 모바일 컴퓨팅 디바이스를 통한 충전 전용 연결의 차량 내 검출
JP6434259B2 (ja) 触感制御システムおよび触感制御方法
CN111568447A (zh) 信息处理装置和信息处理方法
JP6483379B2 (ja) 触感制御システムおよび触感制御方法
KR20220098339A (ko) 차량용 스크린의 제어 방법 및 장치, 전자 기기 및 저장 매체
JP2021018480A (ja) 画像表示装置、画像表示システムおよび画像表示方法
Garcia In-Vehicle Infotainment (IVI) System User Interface (UI) Enhancement
JP2020201624A (ja) 画像表示装置、画像表示システムおよび画像表示方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14901708

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016547284

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 112014006939

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14901708

Country of ref document: EP

Kind code of ref document: A1