WO2016035207A1 - 車載機器制御システム - Google Patents

車載機器制御システム Download PDF

Info

Publication number
WO2016035207A1
WO2016035207A1 PCT/JP2014/073530 JP2014073530W WO2016035207A1 WO 2016035207 A1 WO2016035207 A1 WO 2016035207A1 JP 2014073530 W JP2014073530 W JP 2014073530W WO 2016035207 A1 WO2016035207 A1 WO 2016035207A1
Authority
WO
WIPO (PCT)
Prior art keywords
operation part
user
information
touch
finger
Prior art date
Application number
PCT/JP2014/073530
Other languages
English (en)
French (fr)
Inventor
太郎 熊谷
佐々木 雄一
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2014/073530 priority Critical patent/WO2016035207A1/ja
Priority to JP2016546277A priority patent/JP6214779B2/ja
Publication of WO2016035207A1 publication Critical patent/WO2016035207A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Definitions

  • the present invention relates to an in-vehicle device control system for controlling the operation of an in-vehicle device.
  • touch panels that are operated by touching a display screen of a display device with a finger or the like are widely used to operate in-vehicle devices such as a car navigation device and an audio device.
  • a touch panel operation is performed by the user confirming the arrangement of a GUI (graphic user interface) displayed on the display device and adjusting the position of the fingertip to perform the touch operation.
  • GUI graphic user interface
  • the user when the user is in a situation where concentration on the touch operation is allowed, such as when taking a break in the living room, the user confirms the arrangement of the displayed GUI and adjusts the position of the fingertip as described above.
  • concentration on the touch operation such as when taking a break in the living room
  • the user confirms the arrangement of the displayed GUI and adjusts the position of the fingertip as described above.
  • Patent Document 1 discloses a method of rearranging input icons around a touch point touched by a user on a touch panel, and performing line-of-sight movement for icon search and reduction of input operations. Is described. Patent Document 2 also describes a method for performing an accurate operation on a touch panel.
  • the present invention has been made in order to solve the above-described problems.
  • the user's line of sight is easily removed from the front as a caution target as much as possible.
  • An object of the present invention is to provide an in-vehicle device control system capable of performing a touch operation.
  • the present invention calls an operation part on which an operation instruction can be input on a pointing device and is mounted on a vehicle based on operation instruction information input by a user's finger through the operation part.
  • An in-vehicle device control system for controlling operation of an in-vehicle device, wherein the pointing device and a shape connecting a plurality of contact points of the user's finger, or transition of the user's finger on the shape and the pointing device
  • An input processing unit that outputs shape information consisting of any of the above information as input information, and a shape in which the operation parts are linked and a plurality of contact points of the user's finger are connected, or the shape and the pointing device From the input processing unit, the shape information set in advance consisting of any of the user's finger transition information above Based on the similarity with the obtained input information, the touch analysis unit that outputs the operation part corresponding to the input information, and the operation part output by the touch analysis unit is called and output to the pointing device, And an output control unit configured
  • the user is not looking at the display screen because the operation parts can be called and operated based on the shape information of the user's finger on the pointing device. Even when the vehicle is driving, it is possible to easily perform the touch operation without removing the user's line of sight from the front of the attention object as much as possible. It becomes.
  • FIG. 4 is a table showing an example of model information stored in an operation parts DB according to Embodiment 1 in which a user's finger shape information on a pointing device and operation parts are associated with each other. It is a table which shows an example of the database with which the operation parts memorize
  • 3 is a flowchart showing processing of the in-vehicle device control system in the first embodiment. It is a table which shows an example of the database with which the operation part memorize
  • FIG. 6 is a flowchart showing processing of the in-vehicle device control system in the second embodiment. If the shape information of the user's finger on the pointing device 1 stored in the operation part DB in the second embodiment, the operation part, and the operation part are already displayed, the display form needs to be changed. It is a table which shows an example of the model information linked
  • 14 is a flowchart illustrating processing of the in-vehicle device control system according to Embodiment 3.
  • 14 is a flowchart illustrating another example of processing of the in-vehicle device control system according to Embodiment 3. It is a block diagram which shows an example of the vehicle equipment control system by Embodiment 4.
  • 14 is a table showing an example of model information associated with voice information and operation parts stored in a voice recognition operation part DB in the fourth embodiment.
  • 14 is a flowchart showing processing of the in-vehicle device control system in the fourth embodiment.
  • the in-vehicle device control system calls an operation part to which an operation instruction can be input on a pointing device, and is installed in the vehicle based on the operation instruction information input by the user's finger through the operation part. It controls the operation of in-vehicle equipment.
  • FIG. 1 is a block diagram showing an example of an in-vehicle device control system according to Embodiment 1 of the present invention.
  • This in-vehicle device control system 10 is connected to a pointing device 1 as an input device and an in-vehicle device 2 to be controlled, and includes an input processing unit 11, a touch analysis unit 12, and an output control unit 14, and includes a pointing device. 1, the in-vehicle device 2, and the in-vehicle device control system 10 cooperate to control the operation of the in-vehicle device 2.
  • the pointing device 1 is an input device that can be touched by a user's finger or the like, such as a touch panel or a touch pad.
  • the pointing device 1 will be described as a touch panel that also has a display device 20. That is, the pointing device 1 will be described as including the display device 20.
  • the in-vehicle device 2 may be any device having an operation control function, such as a car navigation device, an air conditioner device, an audio device, a mirror angle adjustment device, and the like.
  • the device control system 10 itself may be incorporated in those in-vehicle devices.
  • the in-vehicle device 2 connected to the in-vehicle device control system 10 will be described as an audio device.
  • the form in which the in-vehicle device control system 10 is connected to the pointing device 1 or the in-vehicle device 2 may be wired or wireless such as Bluetooth (registered trademark) or Wi-Fi (registered trademark). 10 may be configured as a server on the network.
  • the input processing unit 11 receives information on a touch point (a contact point between the pointing device 1 and the user's finger) input from the pointing device 1 and processes input information (position information on the touch point and the touch point information).
  • the touch point position transition information is output to the touch analysis unit 12 and the output control unit 14. More specifically, the input processing unit 11 not only outputs touch information in a normal touch operation, but also a shape connecting the pointing device 1 and a plurality of contact points of the user's finger, or the shape and the pointing device. Shape information consisting of any of the above-mentioned finger finger transition information is output as input information.
  • the touch analysis unit 12 stores the input information acquired from the input processing unit 11, specifically, the shape connecting the touch points and the touch position transition information of the user's finger in the operation part database (operation part DB) 13. Matching is performed with the preset shape information, and operation part information when matching is output to the output control unit 14. That is, the touch analysis unit 12 associates the operation parts and connects the pointing device 1 and a plurality of contact points of the user's finger, or the transition information of the user's finger on the pointing device. Based on the similarity between the shape information set in advance and the input information acquired from the input processing unit 11, the operation part corresponding to the input information is output to the output control unit 14.
  • the operation part DB 13 is information on the shape of the user's finger on the pointing device 1, that is, a shape connecting a plurality of contact points between the pointing device 1 and the user's finger, or the shape and the user's finger on the pointing device 1.
  • This is a database in which model information in which shape information composed of any one of finger transition information and operation parts is linked is stored.
  • FIG. 2 is a table showing an example of model information stored in the operation part DB 13 in the first embodiment, in which the shape information of the user's finger on the pointing device 1 is associated with the operation part.
  • the shape information of the user's finger on the pointing device 1 is, as described above, a shape connecting a plurality of contact points of the pointing device 1 and the user's finger, or the shape and the pointing device 1. It is information consisting of any of the user's finger transition information.
  • a rotary dial is linked as an operation part
  • the pointing device 1 When the shape (shape information) connecting a plurality of contact points of the user's finger is a triangle (upper triangle or lower triangle), a button (up button or down button) is linked as an operation part, and the pointing device 1
  • the shape (shape information) connecting a plurality of contact points of the user's finger is a bar (vertical bar or horizontal bar)
  • a slider vertical slider or horizontal slider
  • the shape connecting the pointing device 1 and a plurality of contact points of the user's finger is a substantially right triangle
  • transition information that the finger has transitioned in the same direction from each of the contact points is acquired as shape information
  • the mouse is linked as an operation part, and there are two contact points between the pointing device 1 and the user's finger, and they are in the vicinity, and a rectangle is formed by the transition of the finger from each of the contact points.
  • transition information is acquired as shape information
  • a handwriting input window is linked as an operation part.
  • the output control unit 14 controls the content of information displayed on the display device 20 of the pointing device 1 based on the input information acquired from the input processing unit 11, and performs touch analysis on the input information acquired from the input processing unit 11. It converts into operation corresponding to the operation part output by the part 12, and controls operation
  • the operation of the in-vehicle device 2 is controlled based on the operated instruction information.
  • the operation content database (operation content DB) 15 is a database in which operation parts, operation methods corresponding to the operation parts, and operation contents indicating what functions are performed by the operation methods are stored in association with each other.
  • FIG. 3 is a table showing an example of a database stored in the operation content DB 15 in which operation parts, operation methods, and functions to be performed (operation content) are associated with each other.
  • a line connecting adjacent touch points on the pointing device (touch panel) 1 has a circular shape.
  • a rotary dial is called and displayed as an operation part at the location of the touch point, and a one-finger touch operation using the rotary dial (an operation to rotate while touching with one finger)
  • the volume adjustment (volume adjustment) of the audio device that is the in-vehicle device 2 can be performed.
  • buttons 1 and 3 (2) and (3) for example, by touching the pointing device (touch panel) 1 so as to be an upper triangle or a lower triangle, the location of the touch point
  • the upper button and the lower button are called and displayed as operation parts, and the upper and lower movements of the music title and the like can be performed by one-point touch operation on the buttons.
  • the shape information including the transition information from the touch point enables operation using the operation parts.
  • the three fingers of the thumb, the little finger, and the ring finger are touched in a substantially right-angled triangle shape, and the three fingers are set in the same direction as they are.
  • the mouse is called and displayed as an operation part by moving more than the distance, and the mouse is moved by the movement (slide) of the three fingers touched or the click operation to touch another finger (index finger or middle finger).
  • the same operation is possible.
  • it is possible to implement a function such as selecting the displayed song name by operating the mouse.
  • a rectangular shape using a touch at a nearby position with two fingers and a movement (transition) from that position By drawing, a handwriting input window is called and displayed as an operation part, and a character input operation can be performed there. Thereby, it is possible to perform a function such as searching by inputting a song name or an artist name.
  • execution function operation content
  • (3) Up button increases volume
  • (3) Down button The volume adjustment (volume adjustment) function may be executed by the upper and lower buttons of (2) and (3), or the user can set the volume appropriately. Good.
  • the shape information as shown in FIG. 2 has been described as being stored in the operation parts DB 13.
  • 2 (6) and (7) may be symmetrical shape information.
  • the shape information shown in (6) and (7) of FIG. 2 and the left and right symmetry so that it can be applied to both a left-hand drive vehicle and a right-hand drive vehicle and can be operated from the passenger seat. Both pieces of shape information may be stored in the operation parts DB 13, and any shape information may function.
  • the operation parts DB 13 may be included in the touch analysis unit 12 or may be included in the in-vehicle device control system 10. Further, it may exist as another storage unit, or may be provided in a server on the network. Similarly, the operation content DB 15 may also be included in the output control unit 14 or may be included in the in-vehicle device control system 10. Further, it may exist as another storage unit, or may be provided in a server on the network. Furthermore, the operation parts DB 13 and the operation content DB 15 may be stored in the same storage unit.
  • FIG. 4 is a flowchart showing processing of the in-vehicle device control system 10 according to the first embodiment.
  • the in-vehicle device 2 to be connected is an audio device.
  • the input processing unit 11 acquires touch information (touch ID and touch position coordinates) from the touch panel (pointing device 1) (step ST101), and if there is a release within a certain time (YES in step ST102) ), A touch information matrix from touch to release is output to the touch analysis unit 12 and the output control unit 14.
  • the touch analysis unit 12 analyzes the touch shape by matching the input information (touch information matrix information) acquired from the input processing unit 11 with the shape information stored in the operation part DB 13 (step ST103). ).
  • the touch analysis unit 12 When there is matching shape information (YES in step ST104), the touch analysis unit 12 outputs the operation part information linked to the shape information to the output control unit 14, and the output control unit 14 Calls the operation part corresponding to the acquired operation part information from the operation content DB 15 and displays it on the touch panel (display device 20 of the pointing device 1) (step ST105).
  • the input processing unit 11 When the input processing unit 11 further acquires touch information (touch ID and touch position coordinates) from the touch panel (pointing device 1) in this state (YES in step ST106), the input processing unit 11 displays the touch information. Output to the output control unit 14.
  • the output control unit 14 determines whether or not the acquired touch information is an operation (operation method) for the operation part at the operation part position called in Step ST105 by referring to the operation content DB 15 (Step S1). ST107). That is, it is checked whether or not the acquired touch information is a touch at the operation part position called in step ST105, and the touch information is matched with the operation method corresponding to the operation part called in step ST105. Judgment by
  • the output control unit 14 has input the operation content corresponding to the operation part using the operation part. Obtained as operation instruction information and instructing the in-vehicle device 2 to execute the execution function corresponding to the operation part based on the operation instruction information (step ST108).
  • step ST107 if it is determined that the operation is not an operation on the operation part at the operation part position (in the case of NO in step ST107), the output control unit 14 is normally based on the touch information acquired from the input processing unit 11 in step ST106. The touch operation is executed (step ST109).
  • step ST102 when there is no release within a certain time in step ST102 (in the case of NO in step ST102), the input processing unit 11 outputs the touch information acquired in step ST101 to the output control unit 14, thereby normal A touch operation is executed (step ST109).
  • step ST104 If there is no matching shape information in step ST104 (in the case of NO in step ST104), since the operation part is not output from the touch analysis unit 12 to the output control unit 14, the output control unit 14 in step ST102 ( A normal touch operation is executed based on the input information (touch information matrix information) acquired from the input processing unit 11 (in the case of YES) (step ST109).
  • the operation part is determined not only by the number of contact points between the pointing device 1 and the user's finger (the number of touching fingers) but also by the shape of the figure connecting the contact points, for example,
  • the operation part can be called with either two fingers or three fingers, and the operation part can be called and operated in a manner that is easy for the user to touch.
  • the pointing device 1 connected to the in-vehicle device control system 10 has been described as a touch panel including the display device 20, but is a touch pad that does not include the display device 20. But the same is true. However, in this case, only the process of displaying the operation part on the display device 20 after the output control unit 14 calls the operation part is omitted.
  • “calling an operation part” means that the pointing device 1 is a device that does not have a display function such as a touch pad other than displaying the operation part on the display device 20. This also includes making it possible to accept an operation corresponding to the operation part on the pointing device 1. The same applies to the following embodiments.
  • the user can call and operate the operation parts based on the shape information of the user's finger on the pointing device 1 so that the user can display the display screen.
  • the desired touch operation can be performed even if the user is not looking at the camera, so that even when the vehicle is driving, the user can easily perform the touch operation without removing the user's line of sight from the front of the attention object as much as possible. Can be done.
  • the size of the operation part may be changed according to the touched shape size. That is, the output control unit 14 may determine the size of the operation part according to the size of the shape connecting the pointing device 1 and a plurality of contact points of the user's finger.
  • the rotation dial when the user with a large hand touches the circle can be enlarged, or the button when the triangle is touched can be enlarged.
  • An operation part having a large size is called up, so that a more intuitive operation for the user can be realized and a malfunction can be prevented.
  • the in-vehicle device 2 connected to the in-vehicle device control system 10 has been described as an audio device, it is also applicable to other in-vehicle devices such as a car navigation device, an air conditioner device, a display device, and a mirror angle adjustment device. Is possible. Further, for example, an in-vehicle device having a plurality of functions such as an audio integrated car navigation device may be used, or the in-vehicle device control system 10 may be connected to a plurality of in-vehicle devices.
  • the output control unit 14 corresponds to the operation part depending on the situation, for example, whether to adjust the volume (volume adjustment) of the audio device or to adjust the temperature of the air conditioner. (Operation instruction information) may be dynamically changed.
  • the pointing device 1 includes the display device 20, the display device The operation instruction information corresponding to the called operation part can be dynamically changed based on the display screen displayed at 20.
  • FIG. 5 shows an example of a database in which operation parts, operation methods, and functions (operation contents) executed for each in-vehicle device are stored in the operation contents DB 15 in such a case. It is a table to show.
  • an audio screen is displayed on the display device 20 (when the display screen is an audio screen), for example, the same function as described with reference to FIG.
  • the air conditioner screen is displayed (when the display screen is an air conditioner screen)
  • a one-finger touch operation using the rotary dial of (1) an operation to rotate while touching with one finger
  • the temperature adjustment of the air conditioner can be performed by a one-point touch operation on the buttons of (2) and (3).
  • a car navigation screen is displayed on the display device 20 (when the display screen is a car navigation screen), for example, a one-finger touch operation using the rotary dial of (1) (touching with one finger).
  • the displayed map can be enlarged / reduced by (rotating while rotating), (1) a one-point touch operation on the buttons in (2) and (3), and up and down on the sliders in (4) and (5).
  • the displayed map can be moved up and down or left and right by a left and right slide operation.
  • the displayed map is moved by the movement of the three fingers touched by (6) (mouse slide) or the mouse click operation for touching another finger (index finger or middle finger).
  • Functions such as selecting a spot can be implemented.
  • a function such as searching for a destination or a store can be performed by a character input operation in the handwriting input window of (7).
  • FIG. 6 shows a display device when the pointing device 1 is a touch panel including a display device 20 having a large screen extending from the front of the user to the vicinity of the user, that is, from the dashboard of the vehicle to the center console. It is a figure which shows the example of installation.
  • the pointing device 1 is a touch panel including a display device 20 having a large screen extending from the dashboard of the vehicle to the center console, for example, a car navigation screen is displayed on the main screen.
  • a state in which a menu screen for other in-vehicle devices is displayed on a part of the display device 20 is conceivable.
  • FIG. 7 is a diagram illustrating an example of a display screen displayed on the display device 20 in FIG. 6.
  • a car navigation screen is displayed as the main screen 21 of the display device 20, and an air conditioner screen is displayed on the menu screen 22 at the lower left.
  • an audio screen is displayed in the lower right menu screen 23, an audio screen is displayed.
  • the function for the air conditioner device is executed, and the touch operation is performed on the audio screen displayed on the lower right menu screen 23.
  • a function for the audio device is executed.
  • menu screen is a little more detailed or is changed from time to time, it is necessary for the user to touch the finger after visually recognizing, but in the large screen as shown in FIGS. If the user can operate without viewing the display screen completely, such as an air conditioner screen on the lower left menu screen 22 and an audio screen fixed on the lower right menu screen 23, the user can A desired touch operation can be performed on a desired in-vehicle device without looking at the display screen.
  • the pointing device 1 includes the display device 20, as a method of dynamically changing the function (operation instruction information) of the operation part according to the situation, the user's finger touches the pointing device 1.
  • the operation instruction information corresponding to the called operation part may be dynamically changed based on the display screen at the position.
  • the pointing device 1 is a touch panel including a display device 20 having a large screen extending from the dashboard of the vehicle to the center console, that is, the in-vehicle device control system according to the first embodiment.
  • the system 10 operates the display device 20 that extends from the dashboard to the center console, the touchable area is too wide to reach the end, but the user cannot reach it.
  • the touchable area extends to the hand that can be operated even if the user does not reach that much, so the display content can be confirmed with the edge of the eye even when facing the front, and touching with the hand Because it can be operated, it is easy to remove the user's line of sight from the front of the attention object It is possible touch operation, thereby improving the operability for the user.
  • the temperature is a predetermined first temperature (for example, 28 degrees) or more, Alternatively, when the temperature is lower than a predetermined second temperature (for example, 20 degrees), the function for the air conditioner is executed, or when the audio is being played, the function for the audio device is executed.
  • the function of the operation part may be dynamically changed according to the situation in the vehicle.
  • FIG. A block diagram showing an example of the in-vehicle device control system according to the second embodiment of the present invention is the same as the block diagram shown in FIG.
  • the in-vehicle device control system 10 according to the second embodiment described below can simplify the combination display of operation parts when the pointing device 1 includes the display device 20. That is, even when an operation part is displayed at a location touched by the user (in the contact point), it is possible to easily perform a touch operation without removing the user's line of sight from the front of the attention object as much as possible. Is.
  • the first embodiment when displaying the upper button and the lower button, the first embodiment requires touching with the upper triangle or the lower triangle as shown in FIG. 2, but it is troublesome to change the shape of the finger. There's a problem.
  • the upper triangle has a shape that is relatively easy to touch, there is a problem that it may be difficult for each user to operate, such as being difficult to touch in the state of the lower triangle.
  • the pointing device 1 includes the display device 20, and the touch analysis unit 12 acquires the same shape information multiple times as input information.
  • the display form of the operation part associated with the shape information is changed to a different display form and output.
  • the display form of the operation part of the upper button linked to the shape information of the upper triangle is displayed by superimposing the operation part.
  • the display mode is changed to “display upper and lower buttons simultaneously”.
  • the upper button is displayed above the lower side of the touched upper triangle and the lower button is displayed below the lower side, so that both the upper button and the lower button are displayed.
  • the user knows where he / she touched twice in the upper triangle shape, so if he touches the part above the two fingers which are the vertices of the lower side of the upper triangle, he can operate the upper button.
  • the lower button can be operated by touching the portion below it, and the operation associated with the button can be performed by the touch operation on each button.
  • the user can operate without looking at the display screen as much as possible, so it is easy to remove the user's line of sight from the front of the attention as much as possible. Touch operation is possible.
  • the upper button when the first upper triangular touch is displayed, the upper button is displayed, and when the second upper triangular touch is performed within a certain time, the upper triangular shape information is linked.
  • the display form of the operation part of the upper button is deleted, and the display is converted to the operation part of the lower button which is a different display form.
  • FIG. 8 is a flowchart showing processing of the in-vehicle device control system 10 according to the second embodiment.
  • the in-vehicle device 2 to be connected is an audio device.
  • the input processing unit 11 acquires touch information (touch ID and touch position coordinates) from the touch panel (pointing device 1) (step ST201), and if there is a release within a certain time (YES in step ST202) ), A touch information matrix from touch to release is output to the touch analysis unit 12 and the output control unit 14.
  • the touch analysis unit 12 analyzes the touch shape by matching the input information (touch information matrix information) acquired from the input processing unit 11 with the shape information stored in the operation part DB 13 (step ST203). ).
  • the touch analysis unit 12 determines whether there is an already displayed operation part (step ST205), and an already displayed operation part. If there is an operation part (YES in step ST205), an operation part that requires a change in display form exists in the operation part DB 13 by a combination of the displayed operation part information and the touch shape information analyzed in step ST203. It is confirmed whether or not (step ST206).
  • FIG. 9 shows the shape information of the user's finger on the pointing device 1 stored in the operation part DB 13 in the second embodiment, the operation part, and the operation part when the operation part is already displayed. It is a table which shows an example of the model information which linked
  • step ST206 When it is determined in step ST206 that there is an operation part that requires a change in display form (in the case of YES in step ST206), the changed operation part information is output to the output control unit 14, and the output control unit 14 Then, an operation part corresponding to the acquired operation part information is called from the operation content DB 15 and displayed on the touch panel (step ST207).
  • step ST205 when it is determined in step ST205 that there is no operation part already displayed (in the case of NO in step ST205), or in step ST206, it is determined that there is no operation part that requires a change in display form (step ST205).
  • NO in ST206 the same processing as step ST105 in the flowchart of FIG. 4 in the first embodiment is performed. That is, the operation part information associated with the shape information determined to have a matching shape in step ST204 is output to the output control unit 14, and the output control unit 14 selects the operation part corresponding to the acquired operation part information as the operation content. Called from DB 15 and displayed on the touch panel (display device 20 of pointing device 1) (step ST208).
  • the input processing unit 11 When the input processing unit 11 further acquires touch information (touch ID and touch position coordinates) from the touch panel (pointing device 1) in this state (YES in step ST209), the input processing unit 11 outputs the touch information. Output to the control unit 14.
  • the output control unit 14 determines whether or not the acquired touch information is an operation for the operation part called in step ST207 or step ST208 by referring to the operation content DB 15 (step ST209). That is, it is checked whether or not the acquired touch information is a touch at the operation part position called in step ST207 or step ST208, and the operation corresponding to the touch information and the operation part called in step ST207 or step ST208 is performed. Judgment is made by matching with the method.
  • the output control unit 14 When it is determined that the operation is performed on the operation part at the operation part position (in the case of YES in step ST210), the output control unit 14 has input the operation content corresponding to the operation part using the operation part. Obtained as operation instruction information and instructing the in-vehicle device 2 to execute the execution function corresponding to the operation part based on the operation instruction information (step ST211).
  • step ST210 when it is determined that the operation is not an operation on the operation part at the operation part position (in the case of NO in step ST210), the output control unit 14 is normally based on the touch information acquired from the input processing unit 11 in step ST209. The touch operation is executed (step ST212).
  • step ST202 when there is no release within a certain time (in the case of NO in step ST202), the input processing unit 11 outputs the touch information acquired in step ST202 to the output control unit 14, thereby causing a normal operation.
  • a touch operation is executed (step ST212).
  • step ST204 when there is no matching shape information (NO in step ST204), the operation part is not output from the touch analysis unit 12 to the output control unit 14, and therefore the output control unit 14 in step ST202 ( In the case of YES, a normal touch operation is executed based on the input information (touch information matrix information) acquired from the input processing unit 11 (step ST212).
  • the second embodiment even when the vehicle is in operation, it is possible to easily perform a touch operation without removing the user's line of sight from the front of the attention object as much as possible.
  • the desired operation part is called after being erased, so that the operability can be improved.
  • FIG. 3 The block diagram showing an example of the in-vehicle device control system according to the third embodiment of the present invention is the same as the block diagram shown in FIG.
  • the in-vehicle device control system according to the third embodiment described below can further improve the operability of the touch operation as compared with the in-vehicle device control system according to the first embodiment.
  • the in-vehicle device control system executes a function corresponding to an operation part by an operation on the operation part (operation at the position of the operation part) after the operation part is called.
  • a function corresponding to an operation part by an operation on the operation part (operation at the position of the operation part) after the operation part is called.
  • the user's finger may be slightly shifted, or because the operation was interrupted to concentrate on driving, The user's finger may be slightly shifted.
  • the in-vehicle device control system according to the third embodiment, if the operation part is called within a predetermined period, Even if there is an operation instruction by a user's finger at a position different from the above, it is determined that the operation instruction is via the operation part.
  • FIG. 10 is a flowchart showing processing of the in-vehicle device control system 10 according to the third embodiment.
  • the in-vehicle device 2 to be connected is an audio device.
  • steps ST301 to ST305 and ST309 is the same as the processing of steps ST101 to ST105 and ST109 in the flowchart shown in FIG.
  • step ST305 in a state where the operation part is called and displayed on the touch panel (display device 20 of the pointing device 1), the input processing unit 11 further touches the touch information (touch ID and touch position) from the touch panel (pointing device 1).
  • touch information touch ID and touch position
  • the input processing unit 11 outputs touch information to the output control unit 14.
  • the output control unit 14 determines by referring to the operation content DB 15 whether or not the acquired touch information is an operation on the operation part called in step ST305 in a predetermined period (predetermined period) (step S1). ST307).
  • the “predetermined period” means that the operation instruction information input by the user's finger is acquired for a period from when the operation part is called by the user's finger until a predetermined time elapses. The period until a predetermined time elapses, and if the vehicle speed at the time of calling the operation part is 4 km / hour or less, the user again, for example, the period when the vehicle speed is 4 km / hour or less. It is a period that can be set as appropriate according to the user's preference.
  • the period from when the operation part is called until a predetermined time elapses or depending on the user's finger Even if there is an operation instruction by a user's finger at a position different from that on the called operation part, as long as it is within a predetermined time period after the input operation instruction information is acquired. Then, it is determined that the operation instruction is for the operation part.
  • the operation part is called while the vehicle is stopped by a signal, and the signal changes to blue before the operation instruction is given, the operation can not be performed.
  • the vehicle speed at the time of calling the operation part is 4 km / hour or less so that it can be determined that the operation instruction given when the operation is ready is the operation instruction for the operation part that was previously called. While the vehicle speed is again below 4 km / hour, even if an operation instruction is given at a position different from that on the previously called operation part, it is determined that the operation instruction is for the operation part.
  • the operation part After the operation part is called, if it is within a traveling distance of 500 m, even if there is an operation instruction by a user's finger at a position different from that on the called operation part, the operation part The user can appropriately set a predetermined period, such as determining that the instruction is an operation instruction.
  • step ST307 even if the touch information acquired in step ST306 is not a touch operation performed at the operation part position called in step ST305, the operation is performed for a predetermined period (predetermined period). It is determined that the operation is for a part, and the touch information is determined by matching the operation method corresponding to the called operation part.
  • the output control unit 14 inputs the operation content corresponding to the operation part using the operation part. And instructing the in-vehicle device 2 to execute the execution function corresponding to the operation part based on the operation instruction information (step ST308).
  • step ST307 when it is determined that the operation is not an operation on the called operation part (NO in step ST307), the output control unit 14 performs a normal touch operation based on the touch information acquired from the input processing unit 11 in step ST306. Is executed (step ST309).
  • the operation instruction for the operation part is By determining, it is possible to improve the operability of the touch operation performed without removing the user's line of sight from the front of the attention object as much as possible.
  • FIG. 11 is a flowchart illustrating another example of the process of the in-vehicle device control system 10 according to the third embodiment.
  • the processing in steps ST301 to ST305 and ST307 to ST309 is the same as the processing in steps ST301 to ST305 and ST307 to 309 in the flowchart shown in FIG.
  • step ST305 the operation part is called and displayed on the touch panel (the display device 20 of the pointing device 1), and the input processing unit 11 further touches the touch information (touch ID and touch position coordinates) from the touch panel (pointing device 1). (YES in step ST306), the input processing unit 11 outputs touch information to the output control unit 14.
  • step ST106 in the flowchart shown in FIG. 4 in the first embodiment step ST209 in the flowchart shown in FIG. 8 in the second embodiment, and step ST306 in the flowchart shown in FIG.
  • a predetermined time after the operation part is called is waited until the touch information (touch ID and touch position coordinates) is acquired from the pointing device 1).
  • the process waits until the touch information is acquired until the time elapses (in the case of NO in step ST310), but if the touch information is not acquired even after a predetermined time has elapsed since the operation part is called (YES in step ST310). If) poi the called operation parts Erase the on computing device 1 (step ST 311).
  • the third embodiment even when the vehicle is in operation, it is possible to easily perform a touch operation without removing the user's line of sight as much as possible from the front of the attention object. Not only that, but if it is a predetermined period after the operation part is called, even if an operation instruction is given at a position different from that on the called operation part, it is an operation instruction for the operation part. By determining, the operability of the touch operation can be improved. Further, even if an operation part is called on the pointing device 1 by mistake, the operation part can be erased over time, so that the operability can be improved.
  • This predetermined range may be defined as, for example, a range in which each side is doubled when a single operation part is enclosed in a rectangle, and if there are a plurality of operation parts, the interfering area is defined.
  • the equally distributed range may be regarded as the operation range of each operation part.
  • the called operation part is called for a predetermined period. Needless to say, even when an operation instruction is given at a position different from the above, it may be determined that the operation instruction is for the operation part.
  • FIG. FIG. 12 is a block diagram showing an example of an in-vehicle device control system 40 according to Embodiment 4 of the present invention.
  • symbol is attached
  • the in-vehicle device control system 40 of the fourth embodiment shown below is a trigger for calling an operation part having a function different from that of the already displayed operation part as compared with the in-vehicle device control system 10 in the first to third embodiments. Is further provided. Note that a microphone 3 is connected to the in-vehicle device control system 40 shown in FIG. 12 in the fourth embodiment, and the trigger receiving unit 16 is configured by a voice recognition processing unit 17.
  • the voice recognition processing unit 17 acquires and recognizes a user's uttered voice, has a voice recognition dictionary (not shown), and collects sounds collected by the microphone 3 (voices uttered by the user).
  • a / D conversion is performed, for example, in PCM (Pulse Code Modulation) format, and voice recognition processing is performed by collating a voice feature quantity with a voice recognition dictionary (not shown).
  • PCM Pulse Code Modulation
  • voice recognition processing for example, a general method such as Hidden Markov Model may be used.
  • the voice recognition processing unit 17 stores the result of voice recognition processing of the voice acquired from the microphone 3 using a voice recognition dictionary (not shown) in the voice recognition operation parts database (voice recognition operation parts DB) 18. Matching is performed with the stored audio information, and operation part information when matching is output to the output control unit 14.
  • the voice recognition operation parts DB 18 is a database storing model information in which voice information expected to be spoken by the user to call the operation parts and the operation parts are associated with each other.
  • FIG. 13 is a table showing an example of model information stored in the voice recognition operation part DB 18 according to Embodiment 4 in which voice information and operation parts are linked.
  • the voice information processed by the voice recognition processing unit 17 is “dial” or “commander”, a rotary dial is linked as an operation part, and the voice information is “upper”.
  • the up button and down button are linked as operation parts
  • the audio information is “vertical slider” and “horizontal slider”
  • the vertical slider and horizontal type are used as operation parts.
  • the slider is tied.
  • the voice information is “mouse”, a mouse is linked as an operation part.
  • the voice information is “input window”
  • a handwriting input window is linked as an operation part.
  • the output control unit 14 collates the voice feature amount acquired by the voice recognition processing unit 17 with the voice recognition dictionary, and as a result, the voice recognition operation part DB 18 is obtained. If it matches the audio information stored in the operation part, the operation part to be called is changed to an operation part having a function different from that of the already displayed operation part.
  • FIG. 14 is a flowchart showing processing of the in-vehicle device control system 40 in the fourth embodiment.
  • the in-vehicle device 2 to be connected is an audio device.
  • voice recognition processing unit 17 acquires voice from microphone 3 (YES in step ST401), voice recognition processing unit 17 performs voice recognition processing using a voice recognition dictionary (not shown) (step ST402). If there is matching voice information (YES in step ST403), the voice recognition processing unit 17 outputs the operation part information linked to the voice information to the output control unit 14, and the output control unit 14 calls an operation part corresponding to the acquired operation part information from the operation content DB 15 and displays it on the touch panel (display device 20 of the pointing device 1) (step ST404).
  • the input processing unit 11 acquires touch information (touch ID and touch position coordinates) from the touch panel (pointing device 1) (in the case of YES in step ST405), the input processing unit 11 outputs the touch information. Output to the control unit 14.
  • the output control unit 14 moves the position of the operation part so that the touch position of the acquired touch information becomes the center position of the displayed operation part called in step ST404, that is, performs operation part position control ( Step ST406).
  • the output control unit 14 determines whether or not the acquired touch information is an operation (operation method) for the operation part called in step ST404 by referring to the operation content DB 15 (step ST407). That is, it is determined by matching the acquired touch information with the operation method corresponding to the operation part called in step ST404.
  • the output control unit 14 uses the operation content corresponding to the operation part as operation instruction information input using the operation part. Obtaining and instructing the in-vehicle device 2 to execute the execution function corresponding to the operation part based on the operation instruction information (step ST408).
  • step ST407 the output control unit 14 performs a normal touch operation based on the touch information acquired from the input processing unit 11 in step ST405. It executes (step ST409).
  • the trigger receiving unit 16 (in this fourth embodiment, the voice recognition processing unit 17) that receives a trigger for calling an operation part that is different from the operation part that has already been displayed receives the trigger voice.
  • the trigger voice By acquiring and recognizing, even if the user is driving and can not take his hand off the steering wheel, different operation parts can be easily called and displayed by voice, and the screen transitions directly It becomes possible to make it.
  • the trigger receiving unit 16 is described as the voice recognition processing unit 17, but various other triggers are conceivable.
  • the pointing device 1 includes a display device 20 having a large screen as shown in FIG. 6, the upper half area or the lower half area on the pointing device 1 is used for receiving a trigger.
  • an operation part having a function different from that of the current operation part may be called by using an operation instruction by a user's finger in the predetermined area as a trigger. .
  • the current operation part is an operation part corresponding to the car navigation device
  • the operation part is operated in the lower half area on the pointing device 1
  • the operation part remains in the function corresponding to the car navigation device.
  • an operation part having a function different from the current operation part is called, such as an operation part having a function corresponding to the air conditioner.
  • the trigger receiving unit 16 determines that the trigger receiving unit 16 is a trigger for calling an operation part having a function different from that of the current operation part when an operation instruction with a user's finger is performed in a predetermined area on the pointing device 1. To do. Thereby, even if it is the same touch shape or the same touch shape and transition information, a plurality of types of operation parts can be called.
  • the trigger receiver 16 is provided for calling the operation parts different from the operation parts already displayed.
  • the different operation parts can be easily called up and displayed.
  • the touch shape is the same, or the touch shape and the transition information are the same, a plurality of types of operation parts can be called.
  • the in-vehicle device control system of the present invention is connected to a pointing device that can be operated by a user, and is connected to various in-vehicle devices mounted on a vehicle such as a car navigation device, an air conditioner device, and an audio device. It controls equipment. Further, the in-vehicle device control system itself may be incorporated in these in-vehicle devices, or this in-vehicle device control system may be configured as a server on the network.
  • 1 pointing device touch panel, touch pad
  • 2 onboard equipment 3 microphones, 10, 40 onboard equipment control system
  • 11 input processing section 12 touch analysis section
  • 13 operation parts database operation parts DB
  • 14 output control section 15 operation content database (operation content DB)
  • 16 trigger receiving unit 17 speech recognition processing unit
  • 18 operation part database for speech recognition operation part DB for speech recognition
  • 20 display device 21 main screen of display device 20, 22 Menu screen on the lower left of the display device 20, 23 Menu screen on the lower right of the display device 20.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

 この発明の車載機器制御システムによれば、ポインティングデバイス上でのユーザの指の形状情報に基づいて、操作パーツを呼び出して操作することができるようにしたことにより、ユーザが表示画面を見ていなくても所望のタッチ操作を行うことができるので、車両の運転中であっても、ユーザの視線を注意対象である前方から可能な限り外すことなく、かつ、簡単にタッチ操作を行うことが可能となる。

Description

車載機器制御システム
 この発明は、車載機器の操作を制御する車載機器制御システムに関するものである。
 近年、カーナビゲーション装置やオーディオ装置等の車載機器を操作するために、指などで表示装置の表示画面に触れることで操作を行うタッチパネルが広く使用されている。
 このようなタッチパネル操作は、ユーザが表示装置に表示されているGUI(グラフィック・ユーザ・インターフェイス)の配置を確認し、指先の位置を調整してタッチ操作を行うことが一般的である。
 そのため、例えばリビングでの休憩時など、タッチ操作への集中が許容される状況にある場合は、上述のように、ユーザが表示されているGUIの配置を確認して指先の位置を調整するというタッチ操作でも問題はないが、車両での走行中にタッチパネルを利用する場合など、タッチ操作以外に注意を向ける対象が存在する場合は、ユーザの視線を注意対象から外さず、かつ、簡単に操作可能であることが望まれる。
 簡単に正確な操作をする技術として、例えば、特許文献1には、タッチパネル上でユーザが触れたタッチ点の周囲に入力アイコンを再配置し、アイコン探索の視線移動や入力動作の低減を行う方法が記載されている。また、特許文献2にも、タッチパネル上で正確な操作を行う方法が記載されている。
特開2011-210083号公報 特開2007-188233号公報
 しかしながら、例えば特許文献1のような従来の技術では、タッチ点の周囲に入力アイコンが再配置されたあとは、ユーザが目視で配置を確認して操作しなければならず、また、例えば特許文献2のような従来の技術でも、ユーザが目視でGUIの配置を確認することが必要である。すなわち、特許文献1,2等に記載されているような従来の技術では、車両の走行中など、車両内においてタッチ操作以外に注意を向ける対象が存在する場合に、ユーザの視線を注意対象である前方から外さなければ操作ができない、という課題があった。
 この発明は、上記のような課題を解決するためになされたものであり、車載機器の操作を制御する際に、ユーザの視線を注意対象である前方から可能な限り外すことなく、かつ、簡単にタッチ操作を行うことが可能な車載機器制御システムを提供することを目的とする。
 上記目的を達成するため、この発明は、ポインティングデバイス上に操作指示の入力可能な操作パーツを呼び出し、当該操作パーツを介してユーザの指により入力された操作指示情報に基づいて、車両に搭載された車載機器の操作を制御する車載機器制御システムであって、前記ポインティングデバイスと前記ユーザの指の複数の接触点を結んだ形状、または、当該形状と前記ポインティングデバイス上でのユーザの指の遷移情報、のいずれかからなる形状情報を入力情報として出力する入力処理部と、前記操作パーツが紐付けられ、前記ユーザの指の複数の接触点を結んだ形状、または、当該形状と前記ポインティングデバイス上でのユーザの指の遷移情報、のいずれかからなる、あらかじめ設定された形状情報と、前記入力処理部から取得した入力情報との類似度に基づいて、前記入力情報に対応する前記操作パーツを出力するタッチ解析部と、前記タッチ解析部によって出力された操作パーツを呼び出して前記ポインティングデバイスに出力するとともに、当該操作パーツを介して前記ユーザの指により入力された操作指示情報を取得し、前記取得した操作指示情報に基づいて前記車載機器の操作を制御する出力制御部とを備えることを特徴とする。
 この発明の車載機器制御システムによれば、ポインティングデバイス上でのユーザの指の形状情報に基づいて、操作パーツを呼び出して操作することができるようにしたことにより、ユーザが表示画面を見ていなくても所望のタッチ操作を行うことができるので、車両の運転中であっても、ユーザの視線を注意対象である前方から可能な限り外すことなく、かつ、簡単にタッチ操作を行うことが可能となる。
実施の形態1による車載機器制御システムの一例を示すブロック図である。 実施の形態1における操作パーツDBに記憶されている、ポインティングデバイス上でのユーザの指の形状情報と操作パーツとを紐付けしたモデル情報の一例を示すテーブルである。 操作内容DBに記憶されている、操作パーツと、操作方法と、実施される機能(操作内容)とが対応付けられているデータベースの一例を示すテーブルである。 実施の形態1における車載機器制御システムの処理を示すフローチャートである。 操作内容DBに記憶されている、操作パーツと、操作方法と、車載機器ごとに実施される機能(操作内容)とが対応付けられているデータベースの一例を示すテーブルである。 ポインティングデバイスが車両のダッシュボードからセンターコンソールまで伸びた大画面からなる表示装置を備えたタッチパネルである場合の、表示装置の設置例を示す図である。 図6における表示装置に表示される表示画面の一例を示す図である。 実施の形態2における車載機器制御システムの処理を示すフローチャートである。 実施の形態2における操作パーツDBに記憶されている、ポインティングデバイス1上でのユーザの指の形状情報と、操作パーツと、既にその操作パーツが表示されている場合には表示形態の変更を要する場合の変更後の操作パーツとを紐付けしたモデル情報の一例を示すテーブルである。 実施の形態3における車載機器制御システムの処理を示すフローチャートである。 実施の形態3における車載機器制御システムの処理の別の一例を示すフローチャートである。 実施の形態4による車載機器制御システムの一例を示すブロック図である。 実施の形態4における音声認識用操作パーツDBに記憶されている、音声情報と操作パーツとを紐付けしたモデル情報の一例を示すテーブルである。 実施の形態4における車載機器制御システムの処理を示すフローチャートである。
 以下、この発明の実施の形態について、図面を参照しながら詳細に説明する。
 この発明の車載機器制御システムは、ポインティングデバイス上に操作指示の入力可能な操作パーツを呼び出し、当該操作パーツを介してユーザの指により入力された操作指示情報に基づいて、車両に搭載された各種車載機器の操作を制御するものである。
実施の形態1. 
 図1は、この発明の実施の形態1による車載機器制御システムの一例を示すブロック図である。この車載機器制御システム10は、入力装置であるポインティングデバイス1と制御対象となる車載機器2に接続されており、入力処理部11と、タッチ解析部12と、出力制御部14を備え、ポインティングデバイス1と車載機器2とこの車載機器制御システム10とが連携して、車載機器2の操作制御を行う。
 ポインティングデバイス1は、タッチパネルやタッチパッドなど、ユーザの指等によるタッチ操作が可能な入力装置である。なお、この実施の形態1では、ポインティングデバイス1は、表示装置20も兼ね備えたタッチパネルであるものとして説明する。すなわち、ポインティングデバイス1は、表示装置20を備えているものとして説明する。
 車載機器2としては、例えば、カーナビゲーション装置、エアコン装置、オーディオ装置、ミラー角度調整装置など、操作制御機能を有するものであれば何でもよく、表示装置20を備えたタッチパネルであるポインティングデバイス1や車載機器制御システム10自体がそれらの車載機器に組み込まれていてもよい。なお、この実施の形態1では、車載機器制御システム10と接続されている車載機器2は、オーディオ装置であるものとして説明する。
 また、車載機器制御システム10がポインティングデバイス1や車載機器2と接続される形態としては、有線でもよいし、Bluetooth(登録商標)やWi-Fi(登録商標)など無線でもよく、車載機器制御システム10をネットワーク上のサーバとして構成してもよい。
 入力処理部11は、ポインティングデバイス1から入力されたタッチ点(ポインティングデバイス1とユーザの指との接触点)の情報を受信し、そのタッチ点情報を処理した入力情報(タッチ点の位置情報およびタッチ点の位置遷移情報)をタッチ解析部12および出力制御部14に出力する。より具体的には、入力処理部11は、通常のタッチ操作におけるタッチ情報を出力するだけでなく、ポインティングデバイス1とユーザの指の複数の接触点を結んだ形状、または、当該形状とポインティングデバイス上でのユーザの指の遷移情報、のいずれかからなる形状情報を、入力情報として出力する。
 タッチ解析部12は、入力処理部11から取得した入力情報、具体的には、そのタッチ点を結んだ形状やユーザの指のタッチ位置遷移情報を、操作パーツデータベース(操作パーツDB)13に保存されているあらかじめ設定された形状情報とマッチングを行い、マッチングした場合の操作パーツ情報を出力制御部14に出力する。すなわち、タッチ解析部12は、操作パーツが紐付けられ、ポインティングデバイス1とユーザの指の複数の接触点を結んだ形状、または、当該形状とポインティングデバイス上でのユーザの指の遷移情報、のいずれかからなる、あらかじめ設定された形状情報と、入力処理部11から取得した入力情報との類似度に基づいて、入力情報に対応する操作パーツを出力制御部14に出力する。
 操作パーツDB13は、ポインティングデバイス1上でのユーザの指の形状情報、すなわち、ポインティングデバイス1とユーザの指の複数の接触点を結んだ形状、または、当該形状とポインティングデバイス1上でのユーザの指の遷移情報、のいずれかからなる形状情報と、操作パーツとを紐付けしたモデル情報が記憶されているデータベースである。
 図2は、実施の形態1における操作パーツDB13に記憶されている、ポインティングデバイス1上でのユーザの指の形状情報と操作パーツとを紐付けしたモデル情報の一例を示すテーブルである。ここで、ポインティングデバイス1上でのユーザの指の形状情報とは、前述のとおり、ポインティングデバイス1とユーザの指の複数の接触点を結んだ形状、または、当該形状とポインティングデバイス1上でのユーザの指の遷移情報、のいずれかからなる情報のことである。
 図2に示すように、例えば、ポインティングデバイス1とユーザの指の複数の接触点を結んだ形状(形状情報)が円形の場合には、操作パーツとして回転ダイヤルが紐付けられ、ポインティングデバイス1とユーザの指の複数の接触点を結んだ形状(形状情報)が三角形(上三角形または下三角形)の場合には、操作パーツとしてボタン(上ボタンまたは下ボタン)が紐付けられ、ポインティングデバイス1とユーザの指の複数の接触点を結んだ形状(形状情報)が棒(縦棒または横棒)の場合には、操作パーツとしてスライダー(縦型スライダーまたは横型スライダー)が紐付けられている。
 また、ポインティングデバイス1とユーザの指の複数の接触点を結んだ形状が略直角三角形であり、かつ、その接触点それぞれから同一方向へ指が遷移したという遷移情報が形状情報として取得された場合には、操作パーツとしてマウスが紐付けられ、ポインティングデバイス1とユーザの指の接触点が2つでそれらが近傍位置にあり、かつ、その接触点それぞれからの指の遷移により長方形を形成するような遷移情報が形状情報として取得された場合には、操作パーツとして手書き入力窓が紐づけされている。
 出力制御部14は、入力処理部11から取得した入力情報に基づいて、ポインティングデバイス1の表示装置20に表示させる情報の内容を制御するとともに、入力処理部11から取得した入力情報を、タッチ解析部12により出力された操作パーツに対応する操作に変換して、車載機器2の動作を制御する。すなわち、出力制御部14は、タッチ解析部12によって出力された操作パーツを呼び出してポインティングデバイス1に出力するとともに、当該操作パーツを介してユーザの指により入力された操作指示情報を取得し、取得した操作指示情報に基づいて車載機器2の操作を制御する。
 操作内容データベース(操作内容DB)15は、操作パーツと、それに対応する操作方法と、当該操作方法によってどのような機能が実施されるかという操作内容とが対応付けて記憶されているデータベースである。
 図3は、操作内容DB15に記憶されている、操作パーツと、操作方法と、実施される機能(操作内容)とが対応付けられているデータベースの一例を示すテーブルである。
 この実施の形態1で実施可能なアプリケーションとしては、図2および図3の(1)に示したように、例えば、ポインティングデバイス(タッチパネル)1上で隣り合うタッチ点を結んだ線が円形状になるようにタッチを行うことで、そのタッチ点の場所に操作パーツとして回転ダイヤルを呼び出して表示し、その回転ダイヤルを用いた1本指タッチ操作(1本指でタッチしながら回転させる操作)により、車載機器2であるオーディオ装置のボリューム調整(音量調整)等を可能とする。
 また、図2および図3の(2)(3)に示したように、例えば、ポインティングデバイス(タッチパネル)1上で上三角形や下三角形になるようにタッチを行うことで、そのタッチ点の場所に操作パーツとして上ボタンや下ボタンを呼び出して表示し、そのボタン上での1点タッチ操作により、曲名等の上移動や下移動等を可能とする。
 また、図2および図3の(4)(5)に示したように、例えば、ポインティングデバイス(タッチパネル)1上で縦線上に2点(または3点)や横線上に2点(または3点)のタッチを行うことで、そのタッチ点の場所に操作パーツとして縦型スライダーや横型スライダーを呼び出して表示し、そのスライダー上で左右または上下にスライド操作を行うことにより、曲名等のリスト操作や音楽再生場所の指定等を可能とする。
 また、タッチ時の形状だけではなく、タッチ点からの遷移情報も加えた形状情報により、操作パーツを用いた操作を可能とする。例えば、図2および図3の(6)に示したように、親指、小指、薬指の3本の指で横向きに傾いた略直角三角形形状でタッチし、そのまま3本の指を同じ方向に所定の距離以上移動させることにより、操作パーツとしてマウスを呼び出して表示し、そのタッチしている3本の指の移動(スライド)や、他の指(人差し指または中指)をタッチさせるクリック操作により、マウスと同様の操作を可能とする。これにより、表示されている曲名をマウス操作により選択する等の機能を実施することができる。
 また、図2および図3の(7)に示した手書き入力窓の例のように、2本指での近傍位置でのタッチと、その位置からの移動(遷移)を利用して長方形の形状を描くことにより、操作パーツとして手書き入力窓を呼び出して表示し、そこでの文字入力操作を可能とする。これにより、曲名やアーティスト名を入力して検索する等の機能を実施することができる。
 なお、それぞれの操作パーツにどのような実施機能(操作内容)を割り当てるかについては、図3に示した例に限らず、例えば、(2)の上ボタンによって音量アップ、(3)の下ボタンによって音量ダウン、といったように、(2)(3)の上ボタン、下ボタンによって、ボリューム調整(音量調整)の機能が実行されるようにしてもよいし、ユーザが適宜設定できるようにしてもよい。
 また、ここでは左ハンドルの車両であることを想定して、図2に示すような形状情報が操作パーツDB13に記憶されているものとして説明したが、右ハンドルの車両である場合には、図2の(6)および(7)は、左右対称の形状情報とすればよい。また、左ハンドルの車両にも右ハンドルの車両にも対応できるよう、および、助手席からの操作にも対応できるよう、図2の(6)(7)に示す形状情報と、それを左右対称にした形状情報の両方が操作パーツDB13に記憶されているようにし、いずれの形状情報であっても機能するようにしてもよい。
 また、操作パーツDB13は、タッチ解析部12が備えていてもよいし、車載機器制御システム10が備えていてもよい。また、他の記憶部として存在していてもよいし、ネットワーク上のサーバなどに備えられていてもよい。
 同様に、操作内容DB15もまた、出力制御部14が備えていてもよいし、車載機器制御システム10が備えていてもよい。また、他の記憶部として存在していてもよいし、ネットワーク上のサーバなどに備えられていてもよい。
 さらに、操作パーツDB13と操作内容DB15が、同じ記憶部に格納されていてもよい。
 次に、このように構成された実施の形態1における車載機器制御システム10の動作について、図4を参照しながら具体的に説明する。図4は、実施の形態1における車載機器制御システム10の処理を示すフローチャートである。なお、前述のとおり、接続される車載機器2はオーディオ装置であるものとする。
 まず初めに、入力処理部11が、タッチパネル(ポインティングデバイス1)からタッチ情報(タッチIDおよびタッチ位置座標)を取得し(ステップST101)、一定時間内にリリースがあった場合(ステップST102のYESの場合)、タッチからリリースまでのタッチ情報行列をタッチ解析部12および出力制御部14に出力する。
 タッチ解析部12は、入力処理部11から取得した入力情報(タッチ情報行列の情報)と、操作パーツDB13に記憶されている形状情報とのマッチングを行うことにより、タッチ形状を解析する(ステップST103)。
 そして、マッチングする形状情報があった場合(ステップST104のYESの場合)、タッチ解析部12は、その形状情報と紐づけされている操作パーツ情報を出力制御部14に出力し、出力制御部14は、取得した操作パーツ情報に該当する操作パーツを操作内容DB15から呼び出して、タッチパネル(ポインティングデバイス1の表示装置20)に表示させる(ステップST105)。
 この状態でさらに、入力処理部11が、タッチパネル(ポインティングデバイス1)からタッチ情報(タッチIDおよびタッチ位置座標)を取得すると(ステップST106のYESの場合)、入力処理部11は、そのタッチ情報を出力制御部14に出力する。
 出力制御部14は、取得したタッチ情報が、ステップST105で呼び出した操作パーツ位置における、当該操作パーツに対する操作(操作方法)であるか否かを、操作内容DB15を参照することにより判断する(ステップST107)。すなわち、取得したタッチ情報が、ステップST105で呼び出した操作パーツ位置におけるタッチであるか否かというチェックを行うとともに、そのタッチ情報とステップST105で呼び出した操作パーツに該当する操作方法とのマッチングを行うことにより判断する。
 そして、操作パーツ位置における当該操作パーツに対する操作であると判断した場合(ステップST107のYESの場合)、出力制御部14は、その操作パーツに対応する操作内容をその操作パーツを用いて入力された操作指示情報として取得し、当該操作指示情報に基づいてその操作パーツに対応する実施機能を実行するよう、車載機器2に対して指示を行う(ステップST108)。
 一方、操作パーツ位置における当該操作パーツに対する操作ではないと判断した場合(ステップST107のNOの場合)は、出力制御部14は、ステップST106において入力処理部11から取得したタッチ情報に基づいて、通常のタッチ操作を実行する(ステップST109)。
 なお、ステップST102において、一定時間内にリリースがなかった場合(ステップST102のNOの場合)は、入力処理部11がステップST101において取得したタッチ情報を出力制御部14に出力することにより、通常のタッチ操作が実行される(ステップST109)。
 また、ステップST104において、マッチングする形状情報がなかった場合(ステップST104のNOの場合)は、タッチ解析部12から出力制御部14に操作パーツが出力されないので、出力制御部14はステップST102において(YESの場合に)入力処理部11から取得した入力情報(タッチ情報行列の情報)に基づいて、通常のタッチ操作を実行する(ステップST109)。
 このように、ポインティングデバイス1とユーザの指との接触点を結んだ形状、または、当該形状とポインティングデバイス1上でのユーザの指の遷移情報、のいずれか(ポインティングデバイス1上でのユーザの指の形状情報)に基づいて、操作パーツを呼び出して操作することができるようにしたので、ユーザが表示画面を見ていなくても所望のタッチ操作を行うことができる。すなわち、車両の運転中であっても、ユーザの視線を注意対象である前方から可能な限り外すことなく、かつ、簡単にタッチ操作を行うことが可能となる。
 また、ポインティングデバイス1とユーザの指との接触点の個数(接触している指の本数)だけでなく、その接触点を結んだ図形の形状により操作パーツを判断するようにしたので、例えば、操作パーツとしてスライダーを呼び出したい場合に、指2本でも指3本でもどちらでも呼び出すことができ、ユーザにとってタッチしやすいやり方で操作パーツを呼び出して操作することができる。
 なお、この実施の形態1では、車載機器制御システム10と接続されているポインティングデバイス1は、表示装置20を備えたタッチパネルであるものとして説明したが、表示装置20を備えていないタッチパッドであっても同様である。ただし、この場合には、出力制御部14が操作パーツを呼び出した後に当該操作パーツを表示装置20に表示させる処理のみが省略される。
 すなわち、この実施の形態1において「操作パーツを呼び出す」とは、表示装置20に操作パーツを表示させること以外に、ポインティングデバイス1がタッチパッドなどの表示機能を備えていないデバイスである場合には、ポインティングデバイス1上で操作パーツに対応する操作を受付可能とすることも含んでいる。以下の実施の形態においても、同様である。
 以上のように、この実施の形態1によれば、ポインティングデバイス1上でのユーザの指の形状情報に基づいて、操作パーツを呼び出して操作することができるようにしたことにより、ユーザが表示画面を見ていなくても所望のタッチ操作を行うことができるので、車両の運転中であっても、ユーザの視線を注意対象である前方から可能な限り外すことなく、かつ、簡単にタッチ操作を行うことが可能となる。
 なお、操作パーツの大きさについては、タッチした形状サイズに応じて変化するようにしてもよい。すなわち、出力制御部14が、ポインティングデバイス1とユーザの指の複数の接触点を結んだ形状のサイズに応じて、操作パーツのサイズを決定するようにしてもよい。
 これにより、例えば、手の大きなユーザが円形状にタッチ操作した場合の回転ダイヤルを大きくしたり、三角形にタッチした場合のボタンを大きくしたりすることができるので、ユーザがタッチした感覚に合わせた大きさの操作パーツが呼び出されることになり、ユーザにとってより直感的な操作を実現し、また、誤動作も防ぐことができる。
 また、車載機器制御システム10と接続されている車載機器2は、オーディオ装置であるものとして説明したが、カーナビゲーション装置、エアコン装置、表示装置、ミラー角度調整装置など、他の車載機器にも適用可能である。また、例えば、オーディオ一体型のカーナビゲーション装置など、複数の機能を備えた車載機器であってもよいし、車載機器制御システム10が複数の車載機器と接続されるものであってもよい。
 ここで、車載機器制御システム10が複数の車載機器2と接続されている場合には、上述した実施の形態1と同様のタッチ形状で、同様の操作パーツを呼び出して表示した場合でも、以降の段落で詳細を説明するように、出力制御部14が、例えば、オーディオ装置のボリューム調整(音量調整)を行うのかエアコン装置の温度調整を行うのかなど、状況に応じてその操作パーツに対応する機能(操作指示情報)を動的に変更させるようにしてもよい。
 このように、状況に応じて操作パーツの機能(操作指示情報)を動的に変更する方法としてはいくつか考えられるが、ポインティングデバイス1が表示装置20を備えている場合には、その表示装置20に表示されている表示画面に基づいて、呼び出された操作パーツに対応する操作指示情報を動的に変更させるようにすることができる。
 この場合、操作内容DB15には、操作パーツと、それに対応する操作方法、および、車載機器2が何であるかによって(車載機器2ごとに)その操作パーツに対する操作方法によりどのような機能が実施されるかという操作内容とが対応付けて記憶されている。
 図5は、このような場合に、操作内容DB15に記憶されている、操作パーツと、操作方法と、車載機器ごとに実施される機能(操作内容)とが対応付けられているデータベースの一例を示すテーブルである。
 そして、表示装置20にオーディオ画面が表示されている場合(表示画面がオーディオ画面である場合)には、例えば、図3を用いて説明したのと同じ機能が実施されるが、表示装置20にエアコン画面が表示されている場合(表示画面がエアコン画面である場合)には、例えば、(1)の回転ダイヤルを用いた1本指タッチ操作(1本指でタッチしながら回転させる操作)や、(2)(3)のボタン上での1点タッチ操作により、エアコン装置の温度調整(アナログ的な温度調整や、1度ずつの温度調整)等を可能とする。
 また、例えば、(4)の縦型スライダー上で上下にスライド操作を行うことにより、エアコンメニュー(温度、風量などのメニュー)操作や、(5)の横型スライダー上で左右にスライド操作を行うことにより、風量調整等を可能とする。
 また、表示装置20にカーナビ画面が表示されている場合(表示画面がカーナビ画面である場合)には、例えば、(1)の回転ダイヤルを用いた1本指タッチ操作(1本指でタッチしながら回転させる操作)により、表示されている地図の拡大/縮小等を可能としたり、(2)(3)のボタン上での1点タッチ操作や、(4)(5)のスライダー上の上下または左右のスライド操作により、表示されている地図の上下や左右の移動等を可能とする。
 さらに、例えば、(6)のタッチしている3本の指の移動(マウスのスライド)や、他の指(人差し指または中指)をタッチさせるマウスのクリック操作により、表示されている地図を移動させたり地点を選択する等の機能を実施することができる。
 また、例えば、(7)の手書き入力窓における文字入力操作により、目的地や店舗の地点検索等の機能を実施することができる。
 このように、表示画面に応じた操作パーツを呼び出して表示させることにより、複数の機能を備えた車載機器と接続されている場合や、複数の車載機器と接続されている場合であっても、ユーザにとって直感的に適切な操作をすることができる。
 また、図6は、ポインティングデバイス1が、ユーザの前方から手元付近まで、すなわち、車両のダッシュボードからセンターコンソールまで伸びた大画面からなる表示装置20を備えたタッチパネルである場合の、表示装置の設置例を示す図である。
 この図6に示すように、ポインティングデバイス1が車両のダッシュボードからセンターコンソールまで伸びた大画面からなる表示装置20を備えたタッチパネルである場合などは、例えば、メイン画面にはカーナビ画面が表示されており、表示装置20の一部に他の車載機器用のメニュー画面等が表示されている状態が考えられる。
 図7は、図6における表示装置20に表示される表示画面の一例を示す図であり、表示装置20のメイン画面21としてカーナビ画面が表示されており、左下のメニュー画面22にはエアコン画面が、右下のメニュー画面23にはオーディオ画面が表示されているものとする。
 この場合、左下のメニュー画面22に表示されているエアコン画面上でタッチ操作を行えば、エアコン装置に対する機能が実行され、右下のメニュー画面23に表示されているオーディオ画面上でタッチ操作を行えば、オーディオ装置に対する機能が実行される。
 メニュー画面がもう少し細かくわかれていたり、随時変更される状態である場合には、ユーザが視認してから指を接触させることが必要となるが、図6,図7に示すような大画面において、左下のメニュー画面22にはエアコン画面、右下のメニュー画面23にはオーディオ画面が固定されて表示されているなど、表示画面を完全には見なくても操作可能な状態であれば、ユーザは表示画面を見ていなくても所望の車載機器に対する所望のタッチ操作を行うことができる。
 このように、ポインティングデバイス1が表示装置20を備えている場合に、状況に応じて操作パーツの機能(操作指示情報)を動的に変更する方法として、ポインティングデバイス1上でユーザの指が接触した位置における表示画面に基づいて、呼び出された操作パーツに対応する操作指示情報を動的に変更させるようにしてもよい。
 これにより、車両の運転中であっても、ユーザの視線を注意対象である前方から可能な限り外すことなく、かつ、簡単に、表示内容に応じたタッチ操作を行うことが可能となる。また、表示画面に応じた操作パーツを出すことにより、ユーザにとって直感的に適切な操作をすることができる。
 なお、図6に示すように、ポインティングデバイス1が車両のダッシュボードからセンターコンソールまで伸びた大画面からなる表示装置20を備えたタッチパネルである場合、すなわち、この実施の形態1における車載機器制御システム10が、ダッシュボードからセンターコンソールまで伸びているような表示装置20を操作するシステムである場合にはなおさら、タッチ可能な領域が広すぎて端まではユーザの手が届かないが、操作するスペースが大きく、ユーザがそれほど手を伸ばさなくても操作可能な手元までタッチ可能領域が伸びているので、前方を向いたままでも目の端で表示内容を確認することができ、かつ、手元でタッチ操作はできるため、ユーザの視線を注意対象である前方から可能な限り外すことなく、かつ、簡単にタッチ操作が可能であり、ユーザにとっての操作性が向上する。
 また、状況に応じて操作パーツの機能を動的に変更する他の方法として、例えば、車両内の温度状況に基づいて、温度があらかじめ定められた第1の温度(例えば、28度)以上、または、あらかじめ定められた第2の温度(例えば、20度)未満の場合には、エアコン装置に対する機能が実行されるようにしたり、オーディオ再生中であればオーディオ装置に対する機能が実行されるようにするなど、車両内の状況に応じて操作パーツの機能を動的に変更するようにしてもよい。
実施の形態2.
 この発明の実施の形態2による車載機器制御システムの一例を示すブロック図は、実施の形態1における図1に示すブロック図と同じであるため、図示および説明を省略する。
 以下に示す実施の形態2の車載機器制御システム10は、ポインティングデバイス1が表示装置20を備えている場合に、操作パーツの組み合わせ表示を簡易化することができるものである。すなわち、ユーザがタッチした(接触点の)場所に操作パーツが表示される場合であっても、ユーザの視線を注意対象である前方から可能な限り外すことなく、簡単にタッチ操作を可能とするものである。
 例えば、上ボタン、下ボタンを表示させたい場合、実施の形態1では、図2に示すように、上三角または下三角でのタッチが必要であるが、指の形状を変化させることはわずらわしいという問題がある。また、上三角は比較的タッチしやすい形状であるが、下三角の状態でタッチすることは難しいなど、それぞれのユーザによって操作しにくい場合があるという問題もある。
 そこで、このような問題を解決するために、この実施の形態2では、ポインティングデバイス1が表示装置20を備えており、タッチ解析部12が、入力情報として複数回の同一の形状情報を取得した場合に、その形状情報に紐付けられた操作パーツの表示形態を、異なる表示形態に変更して出力する。
 具体的には、例えば、上三角形状でのタッチが2回続いた場合には、その上三角形の形状情報に紐付けられた上ボタンの操作パーツの表示形態を、その操作パーツの重畳表示である「上下のボタンを同時に表示する」という表示形態に変更させる。これにより、例えば、タッチされた上三角形状の下辺より上の部分に上ボタンが表示され、下辺より下の部分に下ボタンが表示されるなど、上ボタンと下ボタンが両方表示された状態になる。
 このとき、ユーザは自らが上三角形状で2回タッチした場所はわかっているので、その上三角形の下辺の頂点となる2本の指より上の部分をタッチすれば上ボタンの操作を行うことができ、それより下の部分をタッチすれば下ボタンの操作を行うことができ、それぞれのボタン上でのタッチ操作により、そのボタンに対応付けられた操作を行うことができる。また、タッチした場所がわかっていることにより、ユーザは表示画面を極力見なくても操作することが可能となるので、ユーザの視線を注意対象である前方から可能な限り外すことなく、簡単にタッチ操作が可能である。
 このように、タッチを時系列で解釈し、操作パーツの表示形態を変化させることにより、操作の手間が省けるとともに、タッチしにくい形状をタッチしやすい形状で操作パーツを呼び出すことが可能となり、操作しやすくなる。
 また、例えば、1回目の上三角形状のタッチでは上ボタンを表示させ、一定時間内に2回目の上三角形状のタッチが実施された場合には、その上三角形の形状情報に紐付けられた上ボタンの操作パーツの表示形態を消去し、異なる表示形態である下ボタンの操作パーツに転換表示させる。これにより、間違えて操作パーツをポインティングデバイス1上に呼び出した場合でも、すぐに(時間が経てば)、訂正(消去)して正しい(所望の)操作パーツを呼び出してくれるため、操作性を向上させることができる。
 この実施の形態2における車載機器制御システム10の動作について、図8を参照しながら具体的に説明する。図8は、実施の形態2における車載機器制御システム10の処理を示すフローチャートである。なお、ここでも、接続される車載機器2はオーディオ装置であるものとする。
 まず初めに、入力処理部11が、タッチパネル(ポインティングデバイス1)からタッチ情報(タッチIDおよびタッチ位置座標)を取得し(ステップST201)、一定時間内にリリースがあった場合(ステップST202のYESの場合)、タッチからリリースまでのタッチ情報行列をタッチ解析部12および出力制御部14に出力する。
 タッチ解析部12は、入力処理部11から取得した入力情報(タッチ情報行列の情報)と、操作パーツDB13に記憶されている形状情報とのマッチングを行うことにより、タッチ形状を解析する(ステップST203)。
 そして、マッチングする形状情報があった場合(ステップST204のYESの場合)、タッチ解析部12は、既に表示済みの操作パーツがあるか否かを判断し(ステップST205)、既に表示済みの操作パーツがある場合(ステップST205のYESの場合)には、その表示済みの操作パーツ情報と、ステップST203で解析したタッチ形状情報との組み合わせにより、表示形態の変更を要する操作パーツが操作パーツDB13に存在するか否かを確認する(ステップST206)。
 図9は、この実施の形態2における操作パーツDB13に記憶されている、ポインティングデバイス1上でのユーザの指の形状情報と、操作パーツと、既にその操作パーツが表示されている場合には表示形態の変更を要する場合の変更後の操作パーツとを紐付けしたモデル情報の一例を示すテーブルである。この図9では、操作パーツを転換表示する場合の例を示している。
 そして、ステップST206において、表示形態の変更を要する操作パーツが存在すると判断された場合(ステップST206のYESの場合)、変更後の操作パーツ情報を出力制御部14に出力し、出力制御部14は、取得した操作パーツ情報に該当する操作パーツを操作内容DB15から呼び出して、タッチパネルに表示させる(ステップST207)。
 一方、ステップST205において既に表示済みの操作パーツがないと判断された場合(ステップST205のNOの場合)、または、ステップST206において表示形態の変更を要する操作パーツが存在しないと判断された場合(ステップST206のNOの場合)は、実施の形態1における図4のフローチャートのステップST105と同様の処理を行う。すなわち、ステップST204においてマッチング形状ありとされた形状情報と紐づけされている操作パーツ情報を出力制御部14に出力し、出力制御部14は、取得した操作パーツ情報に該当する操作パーツを操作内容DB15から呼び出して、タッチパネル(ポインティングデバイス1の表示装置20)に表示させる(ステップST208)。
 この状態でさらに、入力処理部11が、タッチパネル(ポインティングデバイス1)からタッチ情報(タッチIDおよびタッチ位置座標)を取得すると(ステップST209のYESの場合)、入力処理部11は、タッチ情報を出力制御部14に出力する。
 出力制御部14は、取得したタッチ情報が、ステップST207またはステップST208で呼び出した操作パーツに対する操作であるか否かを、操作内容DB15を参照することにより判断する(ステップST209)。すなわち、取得したタッチ情報と、ステップST207またはステップST208で呼び出した操作パーツ位置におけるタッチであるか否かというチェックを行うとともに、そのタッチ情報とステップST207またはステップST208で呼び出した操作パーツに該当する操作方法とのマッチングを行うことにより判断する。
 そして、操作パーツ位置における当該操作パーツに対する操作であると判断した場合(ステップST210のYESの場合)、出力制御部14は、その操作パーツに対応する操作内容をその操作パーツを用いて入力された操作指示情報として取得し、当該操作指示情報に基づいてその操作パーツに対応する実施機能を実行するよう、車載機器2に対して指示を行う(ステップST211)。
 一方、操作パーツ位置における当該操作パーツに対する操作ではないと判断した場合(ステップST210のNOの場合)は、出力制御部14は、ステップST209において入力処理部11から取得したタッチ情報に基づいて、通常のタッチ操作を実行する(ステップST212)。
 なお、ステップST202において、一定時間内にリリースがなかった場合(ステップST202のNOの場合)は、入力処理部11がステップST202において取得したタッチ情報を出力制御部14に出力することにより、通常のタッチ操作が実行される(ステップST212)。
 また、ステップST204において、マッチングする形状情報がなかった場合(ステップST204のNOの場合)は、タッチ解析部12から出力制御部14に操作パーツが出力されないので、出力制御部14はステップST202において(YESの場合に)入力処理部11から取得した入力情報(タッチ情報行列の情報)に基づいて、通常のタッチ操作を実行する(ステップST212)。
 以上のように、この実施の形態2によれば、車両の運転中であっても、ユーザの視線を注意対象である前方から可能な限り外すことなく、かつ、簡単にタッチ操作を行うことができるだけでなく、タッチを時系列で解釈し、操作パーツの表示形態を変化させることにより、操作の手間が省けるとともに、タッチしにくい形状をタッチしやすい形状で操作パーツを呼び出すことが可能となり、操作しやすくなる。また、間違えて操作パーツをポインティングデバイス1上に呼び出した場合でも、消去した上で所望の操作パーツを呼び出してくれるため、操作性を向上させることができる。
実施の形態3.
 この発明の実施の形態3による車載機器制御システムの一例を示すブロック図は、実施の形態1における図1に示すブロック図と同じであるため、図示および説明を省略する。
 以下に示す実施の形態3の車載機器制御システムは、実施の形態1の車載機器制御システムと比べると、タッチ操作の操作性をさらに向上させることができるものである。
 実施の形態1の車載機器制御システムは、操作パーツが呼び出された後、その操作パーツ上での操作(その操作パーツ位置における操作)により、当該操作パーツに対応する機能を実行させるものであったが、ユーザの視線を注意対象である前方から可能な限り外すことなく行うタッチ操作であるためにユーザの指が多少ずれる場合もあることや、運転に集中するために操作が中断したことにより、ユーザの指が多少ずれる場合がある。
 そこで、そのようにユーザの指が多少ずれる場合があることを考慮して、この実施の形態3の車載機器制御システムでは、あらかじめ定められた所定期間内である場合には、呼び出された操作パーツ上とは異なる位置でユーザの指による操作指示があっても、その操作パーツを介した操作指示であると判断するものである。
 この実施の形態3における車載機器制御システム10の動作について、図10を参照しながら具体的に説明する。図10は、実施の形態3における車載機器制御システム10の処理を示すフローチャートである。なお、ここでも、接続される車載機器2はオーディオ装置であるものとする。
 ステップST301~ST305およびST309の処理については、実施の形態1における図4に示したフローチャートのステップST101~ST105およびST109の処理と同じであるため、説明を省略する。
 そして、ステップST305において、操作パーツを呼び出してタッチパネル(ポインティングデバイス1の表示装置20)に表示させた状態で、さらに、入力処理部11がタッチパネル(ポインティングデバイス1)からタッチ情報(タッチIDおよびタッチ位置座標)を取得すると(ステップST306のYESの場合)、入力処理部11は、タッチ情報を出力制御部14に出力する。
 出力制御部14は、取得したタッチ情報が、あらかじめ定められた期間(所定期間)におけるステップST305で呼び出した操作パーツに対する操作であるか否かを、操作内容DB15を参照することにより判断する(ステップST307)。
 ここで、「あらかじめ定められた期間」とは、ユーザの指により操作パーツが呼び出されてから、あらかじめ定められた所定時間が経過するまでの期間、ユーザの指により入力された操作指示情報を取得してから、あらかじめ定められた所定時間が経過するまでの期間、操作パーツ呼び出し時の車速が4km/時以下であった場合には、再度車速が4km/時以下になっている期間など、ユーザの好みに合わせて適宜設定することができる期間である。
 これは、例えば、操作パーツ呼び出し後に、ユーザの視線を注意対象である前方から可能な限り外すことなく行うタッチ操作であるためにユーザの指が多少ずれる場合があることや、運転に集中するために操作が中断したことにより、ユーザの指が多少ずれる場合があることなどを考慮して、操作パーツが呼び出されてから、あらかじめ定められた所定時間が経過するまでの期間や、ユーザの指により入力された操作指示情報を取得してから、あらかじめ定められた所定時間が経過するまでの期間内であれば、呼び出された操作パーツ上とは異なる位置でユーザの指による操作指示があっても、その操作パーツに対する操作指示であると判断するものである。
 また、例えば、信号で停車中に操作パーツを呼び出した場合であって、操作指示をする前に信号が青に変わって操作ができなくなった場合などを考慮して、再度信号などで停車して操作可能な状態になった時に行った操作指示を、以前に呼び出した操作パーツに対する操作指示であると判断することができるように、操作パーツ呼び出し時の車速が4km/時以下であった場合に、再度車速が4km/時以下になっている間には、以前に呼び出した操作パーツ上とは異なる位置で操作指示した場合でも、その操作パーツに対する操作指示であると判断するものである。
 なお、この他にも、例えば、操作パーツが呼び出された後、走行距離500m以内であれば、呼び出された操作パーツ上とは異なる位置でユーザの指による操作指示があっても、その操作パーツに対する操作指示であると判断するなど、あらかじめ定められた期間については、ユーザが適宜設定することができるものである。
 すなわち、ステップST307では、ステップST306で取得したタッチ情報が、ステップST305で呼び出した操作パーツ位置で行われたタッチ操作ではなかったとしても、あらかじめ定められた期間(所定期間)であれば、当該操作パーツに対する操作であると判断して、そのタッチ情報と、呼び出した操作パーツに該当する操作方法とのマッチングを行うことにより判断する。
 そして、呼び出した操作パーツに対する操作であると判断した場合(ステップST307のYESの場合)、出力制御部14は、その操作パーツに対応する操作内容をその操作パーツを用いて入力された操作指示情報として取得し、当該操作指示情報に基づいてその操作パーツに対応する実施機能を実行するよう、車載機器2に対して指示を行う(ステップST308)。
 一方、呼び出した操作パーツに対する操作ではないと判断した場合(ステップST307のNOの場合)は、出力制御部14は、ステップST306において入力処理部11から取得したタッチ情報に基づいて、通常のタッチ操作を実行する(ステップST309)。
 このように、操作パーツが呼び出されてから、あらかじめ定められた所定期間である場合には、呼び出された操作パーツ上とは異なる位置で操作指示した場合でも、その操作パーツに対する操作指示であると判断することにより、ユーザの視線を注意対象である前方から可能な限り外すことなく行うタッチ操作の操作性を向上させることができる。
 また、図11は、実施の形態3における車載機器制御システム10の処理の別の一例を示すフローチャートである。
 ステップST301~ST305およびST307~ST309の処理については、前述の図10に示したフローチャートのステップST301~ST305およびST307~309の処理と同じであるため、説明を省略する。
 ステップST305において、操作パーツを呼び出してタッチパネル(ポインティングデバイス1の表示装置20)に表示させた状態で、さらに、入力処理部11がタッチパネル(ポインティングデバイス1)からタッチ情報(タッチIDおよびタッチ位置座標)を取得すると(ステップST306のYESの場合)、入力処理部11は、タッチ情報を出力制御部14に出力する。
 この際、実施の形態1における図4に示すフローチャートのステップST106、実施の形態2における図8に示すフローチャートのステップST209、前述の図10に示すフローチャートのステップST306では、入力処理部11がタッチパネル(ポインティングデバイス1)からタッチ情報(タッチIDおよびタッチ位置座標)を取得するまで待つようになっていたが、この図11に示すフローチャートでは、操作パーツが呼び出されてから、あらかじめ定められた所定時間が経過するまで(ステップST310のNOの場合)はタッチ情報を取得するまで待つが、操作パーツが呼び出されてから、所定時間が経過してもタッチ情報を取得しなかった場合(ステップST310のYESの場合)は、呼び出された操作パーツをポインティングデバイス1上から消去する(ステップST311)。
 これにより、間違えて操作パーツをポインティングデバイス1上に呼び出してしまった場合でも、時間が経てば消去してくれるため、操作性を向上させることができる。
 以上のように、この実施の形態3によれば、車両の運転中であっても、ユーザの視線を注意対象である前方から可能な限り外すことなく、かつ、簡単にタッチ操作を行うことができるだけでなく、操作パーツが呼び出された後、あらかじめ定められた所定期間である場合には、呼び出された操作パーツ上とは異なる位置で操作指示した場合でも、その操作パーツに対する操作指示であると判断することにより、タッチ操作の操作性を向上させることができる。また、間違えて操作パーツをポインティングデバイス1上に呼び出してしまった場合でも、時間が経てば消去してくれるため、操作性を向上させることができる。
 なお、上述の実施の形態3では、あらかじめ定められた所定期間の場合には、呼び出された操作パーツ上とは異なる位置で操作指示した場合でも、その操作パーツに対する操作指示であると判断しているため、呼び出された操作パーツ上と操作指示位置とが大きく異なる場合であっても、その操作パーツに対する操作指示であると判断するものであるが、この位置についても、あらかじめ定められた所定範囲内であれば、当該操作パーツに対する操作指示であると判断する、というように条件を付けるようにしてもよい。
 この所定範囲については、例えば、操作パーツ単体を矩形で囲んだ場合に、各辺を2倍に拡張した範囲と定義してもよいし、複数の操作パーツが存在する場合は、干渉する領域を等分に分配した範囲を、各操作パーツの操作範囲とみなすようにしてもよい。
 なお、この実施の形態3は、実施の形態1と比較して説明したが、実施の形態2においても、この実施の形態3で説明したように、所定期間であれば、呼び出された操作パーツ上とは異なる位置で操作指示した場合でも、その操作パーツに対する操作指示であると判断するようしてもよいことは、言うまでもない。
実施の形態4.
 図12は、この発明の実施の形態4による車載機器制御システム40の一例を示すブロック図である。なお、実施の形態1で説明したものと同様の構成には、同一の符号を付して重複した説明を省略する。
 以下に示す実施の形態4の車載機器制御システム40は、実施の形態1~3における車載機器制御システム10と比べると、既に表示されている操作パーツとは異なる機能の操作パーツを呼び出すためのトリガーを受信するトリガー受信部16をさらに備えるものである。
 なお、この実施の形態4における図12に示す車載機器制御システム40には、マイク3が接続されており、トリガー受信部16は音声認識処理部17により構成されている。
 音声認識処理部17は、ユーザの発話音声を取得して認識するものであり、音声認識辞書(図示せず)を有し、マイク3により集音された音(ユーザにより発話された音声)をA/D変換して、例えばPCM(Pulse Code Modulation)形式で取得し、音声の特徴量と音声認識辞書(図示せず)とを照合することによって音声認識処理を行う。ここで、音声認識処理としては、例えばHidden Markov Modelのような一般的な方法を用いて行えばよい。
 そして、音声認識処理部17は、マイク3から取得した音声を音声認識辞書(図示せず)を用いて音声認識処理した結果を、音声認識用操作パーツデータベース(音声認識用操作パーツDB)18に保存されている音声情報とマッチングを行い、マッチングした場合の操作パーツ情報を出力制御部14に出力する。
 音声認識用操作パーツDB18は、操作パーツを呼び出すためにユーザが発話することが想定される音声情報と、操作パーツとを紐付けしたモデル情報が記憶されているデータベースである。
 図13は、実施の形態4における音声認識用操作パーツDB18に記憶されている、音声情報と操作パーツとを紐付けしたモデル情報の一例を示すテーブルである。
 図13に示すように、例えば、音声認識処理部17が音声認識処理した音声情報が「ダイヤル」または「コマンダ」である場合には、操作パーツとして回転ダイヤルが紐付けられ、音声情報が「上ボタン」「下ボタン」である場合には、操作パーツとして上ボタン、下ボタンが紐付けられ、音声情報が「縦型スライダー」「横型スライダー」の場合には、操作パーツとして縦型スライダー、横型スライダーが紐付けられている。また、音声情報が「マウス」である場合には、操作パーツとしてマウスが紐付けられ、音声情報が「入力窓」である場合には、操作パーツとして手書き入力窓が紐付けられている。
 そして、出力制御部14は、トリガー受信部16がトリガーを受信した場合、ここでは、音声認識処理部17が取得した音声の特徴量と音声認識辞書とを照合した結果、音声認識用操作パーツDB18に保存されている音声情報とマッチングした場合、呼び出す操作パーツを、既に表示されている操作パーツとは異なる機能の操作パーツに変更する。
 次に、このように構成された実施の形態4における車載機器制御システム40の動作について、図14を参照しながら具体的に説明する。図14は、実施の形態4における車載機器制御システム40の処理を示すフローチャートである。なお、ここでも、接続される車載機器2はオーディオ装置であるものとする。
 まず、基本的には、実施の形態1における図4(または、実施の形態2,3における図8,図10,図11)に示すフローチャートと同様の処理が行われるが、これについては図示および説明を省略する。そして、これらの基本的な処理によって、操作パーツが呼び出されて表示されている状態であるものとして、以降の処理について説明する。
 音声認識処理部17は、マイク3から音声を取得すると(ステップST401のYESの場合)、音声認識辞書(図示せず)を用いて音声認識処理を行う(ステップST402)。
 そして、マッチングする音声情報があった場合(ステップST403のYESの場合)、音声認識処理部17は、その音声情報と紐づけされている操作パーツ情報を出力制御部14に出力し、出力制御部14は、取得した操作パーツ情報に該当する操作パーツを操作内容DB15から呼び出して、タッチパネル(ポインティングデバイス1の表示装置20)に表示させる(ステップST404)。
 この状態で、入力処理部11が、タッチパネル(ポインティングデバイス1)からタッチ情報(タッチIDおよびタッチ位置座標)を取得すると(ステップST405のYESの場合)、入力処理部11は、そのタッチ情報を出力制御部14に出力する。
 出力制御部14は、取得したタッチ情報のタッチ位置が、ステップST404で呼び出した表示させた操作パーツの中心位置になるように、操作パーツの位置を移動させる、すなわち、操作パーツ位置制御を行う(ステップST406)。
 さらに、出力制御部14は、取得したタッチ情報が、ステップST404で呼び出した操作パーツに対する操作(操作方法)であるか否かを、操作内容DB15を参照することにより判断する(ステップST407)。すなわち、取得したタッチ情報とステップST404で呼び出した操作パーツに該当する操作方法とのマッチングを行うことにより判断する。
 そして、当該操作パーツに対する操作であると判断した場合(ステップST407のYESの場合)、出力制御部14は、その操作パーツに対応する操作内容をその操作パーツを用いて入力された操作指示情報として取得し、当該操作指示情報に基づいてその操作パーツに対応する実施機能を実行するよう、車載機器2に対して指示を行う(ステップST408)。
 一方、当該操作パーツに対する操作ではないと判断した場合(ステップST407のNOの場合)は、出力制御部14は、ステップST405において入力処理部11から取得したタッチ情報に基づいて、通常のタッチ操作を実行する(ステップST409)。
 このように、既に表示されている操作パーツとは異なる操作パーツを呼び出すためのトリガーを受信するトリガー受信部16(この実施の形態4では、音声認識処理部17)が、そのトリガーである音声を取得して認識することにより、ユーザが運転中であってハンドルから手を離すことができない状態であったとしても、音声により簡単に異なる操作パーツを呼び出して表示させることができ、画面を直接遷移させることが可能となる。
 なお、この実施の形態4では、トリガー受信部16が音声認識処理部17であるものとして説明したが、この他にも、様々なトリガーが考えられる。例えば、ポインティングデバイス1が図6に示すような大画面からなる表示装置20を備えているような場合には、ポインティングデバイス1上の上半分の領域や下半分の領域など、トリガーを受け付けるための領域があらかじめ定められている場合に、そのあらかじめ定められた領域でユーザの指による操作指示が行われたことをトリガーとして、現在の操作パーツとは異なる機能の操作パーツを呼び出すようにしてもよい。
 例えば、現在の操作パーツがカーナビゲーション装置に対応する操作パーツであった場合に、ポインティングデバイス1上の下半分の領域で操作された場合には、カーナビゲーション装置に対応する機能の操作パーツのままであるが、ポインティングデバイス1上の上半分の領域で操作された場合には、エアコン装置に対応する機能の操作パーツになるなど、現在の操作パーツとは異なる機能の操作パーツが呼び出されるようになる。
 すなわち、トリガー受信部16は、ポインティングデバイス1上のあらかじめ定められた領域でユーザの指による操作指示が行われた場合に、現在の操作パーツとは異なる機能の操作パーツを呼び出すトリガーであると判断する。
 これにより、同じタッチ形状、または、同じタッチ形状および遷移情報であったとしても、複数種類の操作パーツを呼び出すことができる。
 以上のように、この実施の形態4によれば、車両の運転中であっても、ユーザの視線を注意対象である前方から可能な限り外すことなく、かつ、簡単にタッチ操作を行うことができるだけでなく、基本的には実施の形態1~3による操作パーツの呼び出しを行った上で、既に表示されている操作パーツとは異なる操作パーツを呼び出すためのトリガー受信部16を備えたことにより、異なる操作パーツを呼び出したい場合に、ユーザが運転中であってハンドルから手を離すことができない状態であったとしても、簡単に異なる操作パーツを呼び出して表示させることができる。また、同じタッチ形状、または、同じタッチ形状および遷移情報であったとしても、複数種類の操作パーツを呼び出すことができる。
 なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
 この発明の車載機器制御システムは、ユーザが操作可能なポインティングデバイスと接続されるとともに、例えば、カーナビゲーション装置、エアコン装置、オーディオ装置など、車両に搭載された各種車載機器に接続され、それらの車載機器の制御を行うものである。また、車載機器制御システム自体がそれらの車載機器に組み込まれていてもよいし、この車載機器制御システムをネットワーク上のサーバとして構成してもよい。
 1 ポインティングデバイス(タッチパネル、タッチパッド)、2 車載機器、3 マイク、10,40 車載機器制御システム、11 入力処理部、12 タッチ解析部、13 操作パーツデータベース(操作パーツDB),14 出力制御部、15 操作内容データベース(操作内容DB)、16 トリガー受信部、17 音声認識処理部、18 音声認識用操作パーツデータベース(音声認識用操作パーツDB)、20 表示装置、21 表示装置20のメイン画面、22 表示装置20の左下のメニュー画面、23 表示装置20の右下のメニュー画面。

Claims (14)

  1.  ポインティングデバイス上に操作指示の入力可能な操作パーツを呼び出し、当該操作パーツを介してユーザの指により入力された操作指示情報に基づいて、車両に搭載された車載機器の操作を制御する車載機器制御システムであって、
     前記ポインティングデバイスと前記ユーザの指の複数の接触点を結んだ形状、または、当該形状と前記ポインティングデバイス上でのユーザの指の遷移情報、のいずれかからなる形状情報を入力情報として出力する入力処理部と、
     前記操作パーツが紐付けられ、前記ユーザの指の複数の接触点を結んだ形状、または、当該形状と前記ポインティングデバイス上でのユーザの指の遷移情報、のいずれかからなる、あらかじめ設定された形状情報と、前記入力処理部から取得した入力情報との類似度に基づいて、前記入力情報に対応する前記操作パーツを出力するタッチ解析部と、
     前記タッチ解析部によって出力された操作パーツを呼び出して前記ポインティングデバイスに出力するとともに、当該操作パーツを介して前記ユーザの指により入力された操作指示情報を取得し、前記取得した操作指示情報に基づいて前記車載機器の操作を制御する出力制御部と
     を備えることを特徴とする車載機器制御システム。
  2.  前記ポインティングデバイスは、表示装置を備えており、
     前記出力制御部は、前記表示装置の表示画面に基づいて、または、前記ポインティングデバイス上で前記ユーザの指が接触した位置における表示画面に基づいて、前記呼び出された操作パーツに対応する前記操作指示情報を動的に変更する
     ことを特徴とする請求項1記載の車載機器制御システム。
  3.  前記ポインティングデバイスは、表示装置を備えており、
     前記タッチ解析部は、前記入力情報として複数回の同一の前記形状情報を取得した場合、当該形状情報に紐付けられた前記操作パーツの表示形態を変更して出力する
     ことを特徴とする請求項1記載の車載機器制御システム。
  4.  前記表示形態の変更とは、前記操作パーツの重畳表示である
     ことを特徴とする請求項3記載の車載機器制御システム。
  5.  前記表示形態の変更とは、前記操作パーツの転換表示である
     ことを特徴とする請求項3記載の車載機器制御システム。
  6.  前記出力制御部は、あらかじめ定められた期間内である場合は、前記呼び出された操作パーツとは異なる位置で前記ユーザの指による操作指示があっても、当該操作パーツを介した操作指示であると判断する
     ことを特徴とする請求項1記載の車載機器制御システム。
  7.  前記あらかじめ定められた期間は、前記操作パーツが呼び出されてから、あらかじめ定められた時間が経過するまでの期間である
     ことを特徴とする請求項6記載の車載機器制御システム。
  8.  前記あらかじめ定められた期間は、前記出力制御部が前記ユーザの指により入力された操作指示情報を取得してから、あらかじめ定められた時間が経過するまでの期間である
     ことを特徴とする請求項6記載の車載機器制御システム。
  9.  前記出力制御部は、前記操作パーツが呼び出されてから、あらかじめ定められた時間が経過した場合、当該呼び出された操作パーツを前記ポインティングデバイス上から消去する
     ことを特徴とする請求項6記載の車載機器制御システム。
  10.  前記ポインティングデバイスは、表示装置を備えており、
     前記表示装置に表示されている操作パーツとは異なる機能の操作パーツを呼び出すためのトリガーを受信するトリガー受信部をさらに備え、
     前記出力制御部は、前記トリガー受信部が前記トリガーを受信した場合、呼び出す操作パーツを、前記表示装置に表示されている操作パーツとは異なる機能の操作パーツに変更する
     ことを特徴とする請求項1記載の車載機器制御システム。
  11.  前記トリガー受信部は、前記ユーザの発話音声を取得して認識する音声認識処理部である
     ことを特徴とする請求項10記載の車載機器制御システム。
  12.  前記トリガー受信部は、前記ポインティングデバイス上のあらかじめ定められた領域で前記ユーザの指による操作指示が行われたことを、前記トリガーとして受信する
     ことを特徴とする請求項10記載の車載機器制御システム。
  13.  前記ポインティングデバイスは、車両のダッシュボードからセンターコンソールまで伸びた表示装置を備えている
     ことを特徴とする請求項1記載の車載機器制御システム。
  14.  前記出力制御部は、前記ポインティングデバイスと前記ユーザの指の複数の接触点を結んだ形状のサイズに応じて、前記操作パーツのサイズを決定する
     ことを特徴とする請求項1記載の車載機器制御システム。
PCT/JP2014/073530 2014-09-05 2014-09-05 車載機器制御システム WO2016035207A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2014/073530 WO2016035207A1 (ja) 2014-09-05 2014-09-05 車載機器制御システム
JP2016546277A JP6214779B2 (ja) 2014-09-05 2014-09-05 車載機器制御システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/073530 WO2016035207A1 (ja) 2014-09-05 2014-09-05 車載機器制御システム

Publications (1)

Publication Number Publication Date
WO2016035207A1 true WO2016035207A1 (ja) 2016-03-10

Family

ID=55439305

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/073530 WO2016035207A1 (ja) 2014-09-05 2014-09-05 車載機器制御システム

Country Status (2)

Country Link
JP (1) JP6214779B2 (ja)
WO (1) WO2016035207A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019045913A (ja) * 2017-08-29 2019-03-22 株式会社Subaru 車両制御装置およびそれを用いた車両制御方法
DE112016007545T5 (de) 2016-12-26 2019-09-19 Mitsubishi Electric Corporation Tastfeld-eingabeeinrichtung, tastgesten-beurteilungseinrichtung, tastgesten-beurteilungsverfahren und tastgesten-beurteilungs-programm
US10852919B2 (en) 2017-06-20 2020-12-01 Mitsubishi Electric Corporation Touch input judgment device, touch panel input device, touch input judgment method, and a computer readable medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001083266A1 (fr) * 2000-04-27 2001-11-08 Mitsubishi Denki Kabushiki Kaisha Dispositif d'installation d'un appareil, destine a un corps mobile
WO2012025957A1 (ja) * 2010-08-25 2012-03-01 三菱電機株式会社 ナビゲーション装置
JP2012201250A (ja) * 2011-03-25 2012-10-22 Nippon Seiki Co Ltd 車両用表示装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001083266A1 (fr) * 2000-04-27 2001-11-08 Mitsubishi Denki Kabushiki Kaisha Dispositif d'installation d'un appareil, destine a un corps mobile
WO2012025957A1 (ja) * 2010-08-25 2012-03-01 三菱電機株式会社 ナビゲーション装置
JP2012201250A (ja) * 2011-03-25 2012-10-22 Nippon Seiki Co Ltd 車両用表示装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112016007545T5 (de) 2016-12-26 2019-09-19 Mitsubishi Electric Corporation Tastfeld-eingabeeinrichtung, tastgesten-beurteilungseinrichtung, tastgesten-beurteilungsverfahren und tastgesten-beurteilungs-programm
US10852919B2 (en) 2017-06-20 2020-12-01 Mitsubishi Electric Corporation Touch input judgment device, touch panel input device, touch input judgment method, and a computer readable medium
JP2019045913A (ja) * 2017-08-29 2019-03-22 株式会社Subaru 車両制御装置およびそれを用いた車両制御方法
JP7032079B2 (ja) 2017-08-29 2022-03-08 株式会社Subaru 車両制御装置およびそれを用いた車両制御方法

Also Published As

Publication number Publication date
JPWO2016035207A1 (ja) 2017-04-27
JP6214779B2 (ja) 2017-10-18

Similar Documents

Publication Publication Date Title
US10845871B2 (en) Interaction and management of devices using gaze detection
US8532871B2 (en) Multi-modal vehicle operating device
US9346471B2 (en) System and method for controlling a vehicle user interface based on gesture angle
US10719146B2 (en) Input device with plurality of touch pads for vehicles
JP5234160B2 (ja) 車両用装置および情報表示システム
US9261908B2 (en) System and method for transitioning between operational modes of an in-vehicle device using gestures
JPWO2003078930A1 (ja) 車両用ナビゲーション装置
US9495088B2 (en) Text entry method with character input slider
JP2017156966A (ja) 情報処理装置、情報処理方法、およびプログラム
US10628008B2 (en) Information terminal controlling an operation of an application according to a user's operation received via a touch panel mounted on a display device
CN109804429B (zh) 机动车中的多模式对话
KR20100062901A (ko) 터치 패턴을 이용한 경로 탐색 방법 및 장치
JP6214779B2 (ja) 車載機器制御システム
JP6208837B1 (ja) ユーザインタフェースを制御する方法、プログラム及び装置
US20150253887A1 (en) Information processing apparatus
CN105103087B (zh) 一种用于显示和/或输出帮助的方法和配置给车辆的装置
KR100861353B1 (ko) 복합기능을 구비한 네비게이션 시스템 및 그 동작방법
JP3731499B2 (ja) 音声認識制御装置、及び車載用情報処理装置
JP2019070990A (ja) 表示制御装置
JP6798608B2 (ja) ナビゲーションシステムおよびナビゲーションプログラム
JP4491724B2 (ja) 車両用情報表示装置
KR100850919B1 (ko) 텔레매틱스의 터치스크린 제어방법 및 장치
WO2022254669A1 (ja) 対話サービス装置及び対話システム制御方法
JP2006047192A (ja) ナビゲーション装置、および周辺施設の検索方法
JP2016201016A (ja) 車載装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14901375

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016546277

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14901375

Country of ref document: EP

Kind code of ref document: A1