WO2020152849A1 - タッチパネル制御装置及びタッチパネル制御方法 - Google Patents

タッチパネル制御装置及びタッチパネル制御方法 Download PDF

Info

Publication number
WO2020152849A1
WO2020152849A1 PCT/JP2019/002484 JP2019002484W WO2020152849A1 WO 2020152849 A1 WO2020152849 A1 WO 2020152849A1 JP 2019002484 W JP2019002484 W JP 2019002484W WO 2020152849 A1 WO2020152849 A1 WO 2020152849A1
Authority
WO
WIPO (PCT)
Prior art keywords
touch operation
touch
determination unit
person
operation surface
Prior art date
Application number
PCT/JP2019/002484
Other languages
English (en)
French (fr)
Inventor
村上 洋介
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2019/002484 priority Critical patent/WO2020152849A1/ja
Priority to JP2020563804A priority patent/JP6833146B2/ja
Publication of WO2020152849A1 publication Critical patent/WO2020152849A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Definitions

  • the present invention relates to a touch panel control device and a touch panel control method for controlling a touch panel.
  • the above-mentioned conventional touch panel control device installs a touch panel at a place where the hand is likely to be placed even if the user does not intend to operate it, such as an armrest provided in the hand of the user sitting on the seat. That is not what we expected. Therefore, the above-mentioned conventional touch panel control device receives the touch operation even if the user's hand touches the touch panel in a state in which the user's line of sight is detected, but the touch operation is accepted even if there is no intention of the user's operation, and an erroneous operation May be caused.
  • the present invention has been made to solve the above problems, and an object thereof is to provide a touch panel control device capable of preventing an unintended touch operation.
  • the touch panel control device is based on image data acquired by an image data acquisition unit that acquires image data of a captured image from a camera that captures the surroundings on the touch operation surface of the touch panel, and image data acquired by the image data acquisition unit.
  • image data acquired by the line-of-sight determination unit that determines whether the line of sight of a person present around the touch operation surface is facing the touch operation surface
  • image data acquired by the image data acquisition unit Based on the image data acquired by the line-of-sight determination unit that determines whether the line of sight of a person present around the touch operation surface is facing the touch operation surface, and the image data acquired by the image data acquisition unit, The hand of an existing person exists in the detection area set in front of the touch operation surface, and the action determination unit that determines whether or not the touch operation surface is not touched, and the line-of-sight determination unit Based on the determination result, and the operation permission determination unit that determines whether to permit the touch operation on the touch operation surface of the person based on the determination result of the operation determination unit, and the determination
  • FIG. 3 is a block diagram showing a configuration of a touch panel display including the touch panel control device according to the first embodiment.
  • FIG. 3 is a block diagram showing a configuration of a touch panel display connected to the touch panel control device according to the first embodiment.
  • FIG. 3 is a block diagram showing the configuration of the touch panel control device according to the first embodiment.
  • FIG. 4A is a diagram showing a hardware configuration example of the touch panel control device according to the first embodiment.
  • FIG. 4B is a diagram showing another hardware configuration example of the touch panel control device according to the first embodiment.
  • 5 is a flowchart showing an operation procedure of the touch panel control device according to the first embodiment.
  • 7 is a flowchart showing an operation procedure when a person has an intention to continue operation in the touch panel control device according to the first embodiment.
  • FIG. 6 is a block diagram showing a configuration of a touch panel display including a touch panel control device according to a second embodiment.
  • 7 is a block diagram showing a configuration of a touch panel display connected to the touch panel control device according to the second embodiment.
  • FIG. 7 is a block diagram showing a configuration of a touch panel control device according to a second embodiment.
  • FIG. 7 is a flowchart showing an operation procedure of the touch panel control device according to the second embodiment.
  • 9 is a flowchart showing an operation procedure when a display screen needs to be divided in the touch panel control device according to the second embodiment.
  • FIG. 6 is a diagram illustrating an operation of the touch panel control device when the touch panel control device according to the second embodiment is applied to a touch panel display mounted on an armrest in a vehicle interior.
  • FIG. 12A is an operation explanatory diagram when a touch panel display is individually provided for a plurality of operation target devices.
  • FIG. 12B is an operation explanatory diagram when a common touch panel display is provided for a plurality of operation target devices.
  • FIG. 12C is another operation explanatory diagram when a common touch panel display is provided for a plurality of operation target devices.
  • FIG. 12D is a diagram illustrating still another operation when a common touch panel display is provided for a plurality of operation target devices.
  • Embodiment 1 The touch panel control device according to the first embodiment will be described with reference to FIGS. 1 to 6.
  • the touch panel control device according to the first embodiment assumes a case where the person who touch-operates the touch operation surface of the touch panel is alone.
  • FIG. 1 is a block diagram showing a configuration of a touch panel display including the touch panel control device according to the first embodiment.
  • FIG. 2 is a block diagram showing a configuration of a touch panel display connected to the touch panel control device according to the first embodiment.
  • the touch panel display 1A according to the first embodiment is provided inside the vehicle compartment.
  • the touch panel display 1A includes a touch panel control device 10A, a display device 11, a camera 12, an image conversion unit 13, and a touch sensor 14.
  • the display device 11 has a touch panel 21 and a display unit 22.
  • the touch panel 21 has a touch operation surface.
  • the touch operation surface receives a touch operation by a person's hand.
  • the display unit 22 displays a display screen corresponding to an operation on the touch operation surface of a person.
  • the camera 12 photographs the surroundings on the touch operation surface of the touch panel 21.
  • the camera 12 outputs the image data of the captured image to the touch panel control device 10A.
  • the image conversion unit 13 converts the image data acquired from the touch panel control device 10A into an image that can be displayed on the display unit 22.
  • the touch sensor 14 is provided on the touch panel 21.
  • the touch sensor 14 detects a touch position on the touch operation surface of a person.
  • the touch sensor 14 outputs touch position information regarding the touch position to the touch panel control device 10A.
  • the touch panel control device 10A determines, based on the image data acquired from the camera 12, whether or not to permit a touch operation on the touch operation surface of a person present around the touch operation surface. Further, the touch panel control device 10A acquires the touch position information from the touch sensor 14 when the touch operation is permitted, and does not acquire the touch position information from the touch sensor 14 when the touch operation is not permitted.
  • the touch panel display 1A may be configured by excluding the touch panel control device 10A and the camera 12 from the configuration and using them as external devices.
  • the touch panel display 1B shown in FIG. 2 is connected to the control unit 3 and the camera 12 installed outside.
  • the touch panel display 1B and the camera 12 are provided inside the vehicle compartment.
  • the touch panel display 1B includes a display device 11, an image conversion unit 13, a touch sensor 14, and an I/F unit 16.
  • the I/F unit 16 is connected to the image conversion unit 13 and the touch sensor 14.
  • the control unit 3 includes a touch panel control device 10A and an I/F unit 17.
  • the touch panel control device 10A is connected to the camera 12 and the I/F unit 17.
  • the I/F unit 17 is connected to the I/F unit 16.
  • the camera 12 may be a driver monitoring system camera instead of a dedicated camera.
  • FIG. 3 is a block diagram showing the configuration of the touch panel control device according to the first embodiment.
  • the touch panel control device 10A includes an image data acquisition unit 31, a line-of-sight determination unit 32, a motion determination unit 33, an operation permission determination unit 34, and a control unit 35.
  • the image data acquisition unit 31 acquires, from the camera 12, image data of a captured image captured by the camera 12.
  • the image data acquisition unit 31 outputs the image data to the line-of-sight determination unit 32 and the motion determination unit 33.
  • the line-of-sight determination unit 32 determines, based on the image data acquired by the image data acquisition unit 31, whether or not the line of sight of a person present around the touch operation surface faces the touch operation surface.
  • the line-of-sight determination unit 32 outputs the determination result to the operation permission determination unit 34.
  • the motion determination unit 33 determines that a person's hand existing around the touch operation surface exists in the detection area set in front of the touch operation surface. Also, it is determined whether or not the touch operation surface is not touched. The operation determination unit 33 outputs the determination result to the operation permission determination unit 34.
  • the detection area used during the determination operation of the operation determination unit 33 is set at a predetermined distance from the touch operation surface toward the front and in the direction perpendicular to the touch operation surface.
  • the detection area is a spatial area through which the person's hand passes when the person's hand tries to touch the touch operation surface.
  • the front of the touch operation surface is the direction toward the passenger compartment when viewed from the touch operation surface.
  • the predetermined distance is, for example, a range of 2 to 5 cm from the touch operation surface toward the front.
  • the operation permission determination unit 34 determines whether or not to permit a touch operation on the touch operation surface of a person based on the determination result of the gaze determination unit 32 and the determination result of the motion determination unit 33.
  • the operation permission determination unit 34 outputs the determination result to the control unit 35.
  • the operation permission determination unit 34 determines that the line-of-sight determination unit 32 determines that the line of sight of the person is facing the touch operation surface, and the motion determination unit 33 determines that the person's hand is in the detection area. Moreover, when it is determined that the touch operation surface is not touched, the touch operation on the touch operation surface of the person is permitted. On the other hand, the operation permission determination unit 34 determines the line-of-sight determination unit even when the motion determination unit 33 determines that the person's hand is in the detection area and the touch operation surface is not touched. When 32 determines that the line of sight of the person does not face the touch operation surface, the touch operation on the touch operation surface of the person is not permitted.
  • the operation permission determination unit 34 once permits the touch operation on the touch operation surface of the person, and then the line-of-sight determination unit 32 determines that the line of sight of the person does not face the touch operation surface, or the operation determination When the unit 33 determines that the hand of the person does not exist in the detection area, the touch operation permission on the touch operation surface of the person is released.
  • the control unit 35 controls the touch panel 21 based on the determination result of the operation permission determination unit 34.
  • the control unit 35 causes the touch panel control device 10A to acquire the touch position information from the touch sensor 14. By permitting, the touch operation on the touch operation surface of the person is reflected in the operation target device.
  • the control unit 35 does not permit the touch panel control device 10A to acquire the touch position information from the touch sensor 14. As a result, the touch operation on the touch operation surface of the person is not reflected in the operation target device.
  • the operation target device is, for example, an audio device, a navigation device, a rear seat entertainment device, or the like.
  • FIG. 4A is a diagram showing a hardware configuration example of the touch panel control device according to the first embodiment.
  • FIG. 4B is a diagram showing another hardware configuration example of the touch panel control device according to the first embodiment.
  • the touch panel control device 10A is composed of a computer, and the computer has a processor 51 and a memory 52.
  • a program for causing the computer to function as the image data acquisition unit 31, the line-of-sight determination unit 32, the motion determination unit 33, the operation permission determination unit 34, and the control unit 35 is stored in the memory 52.
  • the functions of the image data acquisition unit 31, the line-of-sight determination unit 32, the motion determination unit 33, the operation permission determination unit 34, and the control unit 35 are realized by the processor 51 reading and executing the program stored in the memory 52. To be done.
  • the touch panel control device 10A may include a processing circuit 53.
  • the functions of the image data acquisition unit 31, the line-of-sight determination unit 32, the motion determination unit 33, the operation permission determination unit 34, and the control unit 35 may be realized by the processing circuit 53.
  • the touch panel control device 10A may include a processor 51, a memory 52, and a processing circuit 53 (not shown).
  • a processor 51 some of the functions of the image data acquisition unit 31, the line-of-sight determination unit 32, the motion determination unit 33, the operation permission determination unit 34, and the control unit 35 are realized by the processor 51 and the memory 52, and the remaining The function may be realized by the processing circuit 53.
  • the processor 51 uses, for example, at least one of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), a microprocessor, a microcontroller, and a DSP (Digital Signal Processor).
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • microprocessor a microcontroller
  • DSP Digital Signal Processor
  • the memory 52 uses, for example, at least one of a semiconductor memory and a magnetic disk. More specifically, the memory 52 includes a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable Read Only Memory-Memory), and an EEPROM (Electrically Integrated Memory). At least one of State Drive) or HDD (Hard Disk Drive) is used.
  • RAM Random Access Memory
  • ROM Read Only Memory
  • flash memory an EPROM (Erasable Programmable Read Only Memory-Memory)
  • EEPROM Electrically Integrated Memory
  • At least one of State Drive) or HDD (Hard Disk Drive) is used.
  • the processing circuit 53 is, for example, an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), an FPGA (Field-Programmable Gate Array), or an FPGA (Field-Integrated Gate Array) or a SoC-Soc (Soc)-Soc (Soc)-Soc (S) At least one of the above is used.
  • ASIC Application Specific Integrated Circuit
  • PLD Programmable Logic Device
  • FPGA Field-Programmable Gate Array
  • FPGA Field-Integrated Gate Array
  • S SoC-Soc-Soc-Soc
  • FIG. 5 is a flowchart showing an operation procedure of the touch panel control device according to the first embodiment.
  • step ST11 the control unit 35 puts the touch panel 21 into the touch operation restricted state and does not accept the touch operation on the touch operation surface of the person. That is, the control unit 35 does not reflect the touch operation on the touch operation surface of the person on the operation target device.
  • step ST12 the image data acquisition unit 31 acquires from the camera 12 the image data of the captured image captured by the camera 12.
  • step ST13 the line-of-sight determination unit 32 determines, based on the image data acquired by the image data acquisition unit 31, whether or not the line of sight of a person present around the touch operation surface faces the touch operation surface. ..
  • the operation of the touch panel control device 10A proceeds to step ST14.
  • the operation of the touch panel control device 10A returns to step ST11.
  • step ST14 the motion determination unit 33 determines that the hand of the person existing around the touch operation surface is in the detection area based on the image data acquired by the image data acquisition unit 31, and the touch operation surface is not detected. It is determined whether or not is touched.
  • the operation of the touch panel control device 10A proceeds to step ST15. ..
  • the operation of the touch panel control device 10A returns to step ST11.
  • step ST15 the operation permission determination unit 34 permits the touch operation on the touch operation surface of the person.
  • step ST16 the control unit 35 controls the touch panel 21. That is, the control unit 35 reflects the touch operation on the touch operation surface of the person on the operation target device. Then, the operation of the touch panel control device 10A ends.
  • FIG. 6 is a flowchart showing an operation procedure in the touch panel control device according to the first embodiment when a person has an intention to continue the operation.
  • step ST21 the control unit 35 puts the touch panel 21 into the touch operation restricted state and does not accept the touch operation on the touch operation surface of the person. That is, the control unit 35 does not reflect the touch operation on the touch operation surface of the person on the operation target device.
  • step ST22 the image data acquisition unit 31 acquires from the camera 12 the image data of the captured image captured by the camera 12.
  • step ST23 the line-of-sight determination unit 32 determines, based on the image data acquired by the image data acquisition unit 31, whether or not the line of sight of a person present around the touch operation surface faces the touch operation surface. ..
  • the operation of the touch panel control device 10A proceeds to step ST24.
  • the operation of the touch panel control device 10A returns to step ST21.
  • step ST24 the motion determination unit 33 determines that the hand of the person present around the touch operation surface is in the detection area based on the image data acquired by the image data acquisition unit 31 and the touch operation surface is not detected. It is determined whether or not is touched.
  • the operation of the touch panel control device 10A proceeds to step ST25. ..
  • the operation of the touch panel control device 10A returns to step ST21.
  • step ST25 the operation permission determination unit 34 permits the touch operation on the touch operation surface of the person.
  • step ST26 the control unit 35 controls the touch panel 21. That is, the control unit 35 reflects the touch operation on the touch operation surface of the person on the operation target device.
  • step ST27 the touch panel control device 10A determines whether or not a certain period of time has elapsed since the touch position information was acquired from the touch sensor 14.
  • the operation of the touch panel control device 10A proceeds to step ST28.
  • the touch panel control device 10A determines that the predetermined time has not elapsed, the operation of the touch panel control device 10A repeats step ST27.
  • the fixed time is, for example, 2 seconds.
  • step ST28 the line-of-sight determination unit 32 determines, based on the image data acquired by the image data acquisition unit 31, whether the line of sight of a person who is once permitted to perform a touch operation on the touch operation surface faces the touch operation surface. Determine whether.
  • the operation of the touch panel control device 10A proceeds to step ST29.
  • the operation of the touch panel control device 10A proceeds to step ST30.
  • step ST29 the motion determination unit 33 determines whether the hand of the person who is once permitted to perform the touch operation on the touch operation surface exists in the detection area based on the image data acquired by the image data acquisition unit 31. Determine if no. At this time, the motion determination unit 33 does not care whether or not the hand of the person touches the touch operation surface.
  • the operation of the touch panel control device 10A returns to step ST27.
  • the operation of the touch panel control device 10A proceeds to step ST30.
  • step ST30 the operation permission determination unit 34 releases the touch operation permission on the touch operation surface of the person who is once permitted to operate the touch operation surface. Then, the operation of the touch panel control device 10A returns to step ST21.
  • the touch panel control device 10A acquires the image data of the captured image from the camera 12 that captures the surroundings on the touch operation surface of the touch panel 21, and the image data acquisition unit 31. Based on the image data acquired by the image data acquisition unit 31, a line-of-sight determination unit 32 that determines whether or not the line of sight of a person present around the touch operation surface faces the touch operation surface. Whether or not the person's hand existing around the touch operation surface exists in the detection area set in front of the touch operation surface based on the image data and is not touching the touch operation surface.
  • the operation permission that determines whether or not the touch operation on the touch operation surface of the person is permitted.
  • the determination unit 34 and the control unit 35 that controls the touch panel 21 based on the determination result of the operation permission determination unit 34 are provided. As a result, the touch panel control device 10A can prevent an unintended touch operation.
  • the line-of-sight determination unit 32 determines that the line of sight of the person is facing the touch operation surface, and the motion determination unit 33 detects the hand of the person. When it is determined that the touch screen is present in the area and the touch operation surface is not touched, the touch operation on the touch operation surface of the person is permitted, and the line-of-sight determination unit 32 determines that the line of sight of the person touches the touch operation surface. When it is determined that the person is not suitable for, the touch operation on the touch operation surface of the person is not permitted.
  • the touch panel control device 10A permits the touch operation on the touch operation surface of the person based on the position of the hand of the person on the assumption that the line of sight of the person is facing the touch operation surface. Therefore, the touch panel control device 10A does not permit the touch operation on the touch operation surface of the person even if the line of sight of the person turns to the touch operation surface after the person's hand touches the touch operation surface. Absent.
  • the operation permission determination unit 34 of the touch panel control device 10A temporarily permits the touch operation on the touch operation surface of the person, and then the line-of-sight determination unit 32 does not direct the line of sight of the person to the touch operation surface.
  • the touch operation permission on the touch operation surface of the person is released.
  • the touch panel control device 10A can prevent an erroneous operation on the touch operation surface after that.
  • the image data acquisition unit 31 acquires the image data of the captured image from the camera 12 that captures the periphery of the touch operation surface of the touch panel 21, and the line-of-sight determination unit 32 determines the image data. Based on the image data acquired by the acquisition unit 31, it is determined whether or not the line of sight of a person present around the touch operation surface faces the touch operation surface, and the motion determination unit 33 causes the image data acquisition unit 31 to operate. Based on the image data acquired by the touch operation surface, a person's hand present around the touch operation surface is present in the detection area set in front of the touch operation surface and is not touching the touch operation surface.
  • the operation permission determination unit 34 determines whether or not the operation permission determination unit 34 permits the touch operation on the touch operation surface of the person based on the determination result of the line-of-sight determination unit 32 and the determination result of the motion determination unit 33.
  • the control unit 35 controls the touch panel 21 based on the determination result of the operation permission determination unit 34. Thereby, the touch panel control method can prevent an unintended touch operation.
  • Embodiment 2 The touch panel control device according to the second embodiment will be described with reference to FIGS. 7 to 12.
  • the touch panel control device according to the second embodiment assumes a case where there are a plurality of persons who touch-operate the touch operation surface of the touch panel.
  • FIG. 7 is a block diagram showing the configuration of a touch panel display including the touch panel control device according to the second embodiment.
  • FIG. 8 is a block diagram showing a configuration of a touch panel display connected to the touch panel control device according to the second embodiment.
  • the touch panel display 2A according to the second embodiment shown in FIG. 7 is the same as the touch panel display 1A according to the first embodiment shown in FIG. It has a configuration in which 15 is added.
  • the touch panel display 2A includes the touch panel control device 10B, the display device 11, the camera 12, the image conversion unit 13, the touch sensor 14, and the fingerprint sensor 15.
  • the fingerprint sensor 15 detects the fingerprint of the hand touching the touch operation surface of the touch panel 21.
  • the fingerprint sensor 15 outputs fingerprint information regarding the fingerprint to the touch panel control device 10B.
  • the touch panel control device 10B performs a touch operation on the touch operation surface of a single person or a plurality of people selected from all the persons existing around the touch operation surface based on the image data acquired from the camera 12. Determine whether to allow.
  • the touch panel display 2A may be configured by excluding the touch panel control device 10B and the camera 12 from the configuration and using them as external devices.
  • the touch panel display 2B shown in FIG. 8 is connected to the control unit 3 and the camera 12 installed outside.
  • the touch panel display 2B includes a display device 11, an image conversion unit 13, a touch sensor 14, a fingerprint sensor 15, and an I/F unit 16.
  • the I/F unit 16 is connected to the image conversion unit 13, the touch sensor 14, and the fingerprint sensor 15.
  • the camera 12 may be a camera of a driver monitoring system instead of a dedicated camera.
  • FIG. 9 is a block diagram showing the configuration of the touch panel control device according to the second embodiment.
  • the touch panel control device 10B according to the second embodiment is the same as the touch panel control device 10A according to the first embodiment except that the fingerprint information acquisition unit 36, the operator determination unit 37, the image processing unit 38, the display output unit 39, and The touch position information acquisition unit 40 is added. That is, the touch panel control device 10B includes the image data acquisition unit 31, the line-of-sight determination unit 32, the motion determination unit 33, the operation permission determination unit 34, the control unit 35, the fingerprint information acquisition unit 36, the operator determination unit 37, and the image processing unit 38. The display output unit 39 and the touch position information acquisition unit 40 are provided.
  • the fingerprint information acquisition unit 36 acquires, from the fingerprint sensor 15, fingerprint information about the fingerprint of the hand touching the touch operation surface of the touch panel 21.
  • the fingerprint information acquisition unit 36 outputs fingerprint information regarding the fingerprint to the operator determination unit 37.
  • the operator determination unit 37 determines that there are a plurality of persons around the touch operation surface based on the image data acquired by the image data acquisition unit 31, the operator determination unit 37 A person who intends to perform a touch operation on the touch operation surface is determined based on the image data. The operator determination unit 37 also determines a person who is performing a touch operation on the touch operation surface based on the image data acquired by the image data acquisition unit 31 and the fingerprint information acquired by the fingerprint information acquisition unit 36. To do. The operator determination unit 37 outputs the determination result to the operation permission determination unit 34 and the control unit 35.
  • the image processing unit 38 generates image data of an image displayed on the display unit 22 based on an operation instruction from the control unit 35. For example, the image processing unit 38 generates image data for dividing and displaying the display screen corresponding to the touch operation on the touch operation surface of the person, corresponding to each person determined by the operation permission determination unit 34. The image processing unit 38 outputs the generated image data to the display output unit 39.
  • the display output unit 39 converts the image data generated by the image processing unit 38 into an image that can be displayed on the display unit 22.
  • the display output unit 39 outputs the converted image to the image conversion unit 13.
  • the touch position information acquisition unit 40 acquires, from the touch sensor 14, touch position information regarding a touch position in a touch operation of a person.
  • the touch position information acquisition unit 40 outputs the touch position information regarding the touch position to the control unit 35.
  • the operation permission determination unit 34 determines that the line-of-sight determination unit 32 determines that the line-of-sight is determined to be directed to the touch operation surface, and that the motion determination unit 33 exists in the detection area and that the touch operation surface
  • the line-of-sight determination unit It is determined that the person having the line of sight determined by 32, the person having the hand determined by the motion determination unit 33, and the person determined by the operator determination unit 37 match, and this match Permits touch operation on the touch operation surface of the person determined to be present.
  • the operation permission determination unit 34 determines that the line-of-sight determination unit 32 determines that the line-of-sight is directed toward the touch operation surface, and the motion determination unit 33 exists in the detection area and touches the touch operation surface.
  • the gaze determination unit 32 determines It is determined that the person having the selected line of sight, the person having the hand determined by the motion determination unit 33, and the person determined by the operator determination unit 37 do not match, and this does not match. Do not allow the touch operation on the touch operation surface of the person who did.
  • the operation permission determination unit 34 allows the touch operation on the person's touch operation surface for each operation target device. Determine whether or not.
  • the control unit 35 determines the touch operation surface for the person based on the touch position information acquired by the touch position information acquisition unit 40. Set the touch operation area. Further, the control unit 35 divides the touch operation area of the touch operation surface based on the image data generated by the image processing unit 38, corresponding to each display screen divided and displayed on the display unit 22.
  • the hardware configuration of the touch panel control device 10B may be the hardware configuration of the touch panel control device 10A shown in FIGS. 4A and 4B. That is, the touch panel control device 10A may include the processor 51 and the memory 52, or may include the processor 51, the memory 52, and the processing circuit 53.
  • FIG. 10 is a flowchart showing an operation procedure of the touch panel control device according to the second embodiment.
  • step ST41 the control unit 35 puts the touch panel 21 into the touch operation restricted state and does not accept the touch operation on the touch operation surface of the person. That is, the control unit 35 does not reflect the touch operation on the touch operation surface of the person on the operation target device.
  • step ST42 the image data acquisition unit 31 acquires from the camera 12 the image data of the captured image captured by the camera 12.
  • step ST43 the line-of-sight determination unit 32 determines, based on the image data acquired by the image data acquisition unit 31, whether or not the line of sight of a person present around the touch operation surface faces the touch operation surface. ..
  • the determination operation of the line-of-sight determination unit 32 is performed on all the persons present around the touch operation surface.
  • the operation of the touch panel control device 10B proceeds to step ST44.
  • the operation of the touch panel control device 10B returns to step ST41.
  • step ST44 based on the image data acquired by the image data acquisition unit 31, the motion determination unit 33 determines that the hand of the person existing around the touch operation surface is within the detection area and the touch operation surface is not detected. It is determined whether or not is touched. The determination operation of the operation determination unit 33 is performed on all the persons present around the touch operation surface.
  • the operation of the touch panel control device 10B is step Proceed to ST45.
  • the operation of the touch panel control device 10B returns to step ST41.
  • step ST45 the operator determination unit 37 tries to perform a touch operation on the touch operation surface from all the persons existing around the touch operation surface based on the image data acquired by the image data acquisition unit 31. Determine more than one person to do.
  • step ST46 the operation permission determination unit 34 is based on the person with the line of sight determined by the line-of-sight determination unit 32, the person with the hand determined by the motion determination unit 33, and the person determined by the operator determination unit 37. Then, it is determined whether or not the touch operation on the touch operation surface of the person is permitted.
  • the determination operation of the operation permission determination unit 34 is performed for all persons who are going to perform a touch operation on the touch operation surface.
  • the operation of the touch panel control device 10B proceeds to step ST47.
  • the operation of the touch panel control device 10B returns to step ST41.
  • step ST47 the control unit 35 reflects the touch operation on the touch operation surface of the selected one or more persons on the operation target device.
  • step ST48 the touch panel control device 10B determines whether or not a certain time has elapsed since the touch position information was acquired from the touch sensor 14.
  • the touch panel control device 10B determines that a certain time has elapsed
  • the operation of the touch panel control device 10B proceeds to step ST49.
  • the touch panel control device 10B determines that the fixed time has not elapsed
  • the operation of the touch panel control device 10B repeats step ST48.
  • step ST49 the line-of-sight determination unit 32 determines, based on the image data acquired by the image data acquisition unit 31, whether or not the line of sight of the person who is once permitted to perform the touch operation on the touch operation surface faces the touch operation surface. Determine whether. The determination operation of the line-of-sight determination unit 32 is performed for all persons who are once permitted to perform a touch operation on the touch operation surface.
  • the operation of the touch panel control device 10B proceeds to step ST50.
  • the operation of the touch panel control device 10B proceeds to step ST51. Proceed to.
  • step ST50 based on the image data acquired by the image data acquisition unit 31, the operation determination unit 33 determines whether the hand of the person who is once permitted to perform the touch operation on the touch operation surface is present in the detection area. Determine if no. At this time, the motion determination unit 33 does not care whether or not the person's hand touches the touch operation surface. The determination operation of the operation determination unit 33 is performed for all persons who are once permitted to perform a touch operation on the touch operation surface. Here, when the motion determining unit 33 determines that even one person has his/her hand in the detection area, the operation of the touch panel control device 10B returns to step ST48. On the other hand, when the operation determination unit 33 determines that the hands of all the persons who are once permitted to perform the touch operation on the touch operation surface do not exist in the detection area, the operation of the touch panel control device 10B proceeds to step ST51. move on.
  • step ST51 the operation permission determination unit 34 cancels the touch operation permission on the touch operation surfaces of all persons who are once permitted to operate the touch operation surfaces. Then, the operation of the touch panel control device 10B returns to step ST21.
  • FIG. 11 is a flowchart showing an operation procedure when the display screen needs to be divided in the touch panel control device according to the second embodiment.
  • step ST61 the control unit 35 puts the touch panel 21 into the touch operation restricted state and does not accept the touch operation on the touch operation surface of the person. That is, the control unit 35 does not reflect the touch operation on the touch operation surface of the person.
  • step ST62 the image data acquisition unit 31 acquires from the camera 12 the image data of the captured image captured by the camera 12.
  • step ST63 the line-of-sight determination unit 32 determines, based on the image data acquired by the image data acquisition unit 31, whether or not the line of sight of a person present around the touch operation surface faces the touch operation surface. .. The determination operation of the line-of-sight determination unit 32 is performed on all the persons present around the touch operation surface. If the line-of-sight determination unit 32 determines that the line of sight is directed to the touch operation surface even by one person, the operation of the touch panel control device 10B proceeds to step ST64. On the other hand, when the line-of-sight determination unit 32 determines that the line-of-sight of all persons who are present around the touch operation surface does not face the touch operation surface, the operation of the touch panel control device 10B returns to step ST61.
  • step ST64 the motion determining unit 33 determines that the person's hand around the touch operation surface is in the detection area based on the image data acquired by the image data acquisition unit 31, and It is determined whether or not is touched.
  • the determination operation of the operation determination unit 33 is performed on all the persons present around the touch operation surface.
  • the operation of the touch panel control device 10B is step Go to ST65.
  • the operation of the touch panel control device 10B returns to step ST61.
  • step ST65 the operator determination unit 37 tries to perform a touch operation on the touch operation surface from all the persons existing around the touch operation surface based on the image data acquired by the image data acquisition unit 31. Determine more than one person to do.
  • step ST66 the operation permission determination unit 34 is based on the person with the line of sight determined by the line of sight determination unit 32, the person with the hand determined by the motion determination unit 33, and the person determined by the operator determination unit 37. Then, it is determined whether or not the touch operation on the touch operation surface of the person is permitted.
  • the determination operation of the operation permission determination unit 34 is performed for all persons who are going to perform a touch operation on the touch operation surface.
  • the operation of the touch panel control device 10B proceeds to step ST67.
  • the operation of the touch panel control device 10B returns to step ST61.
  • step ST67 the control unit 35 causes the image processing unit 38 to generate image data corresponding to the number of persons determined by the operation permission determination unit 34. Further, the control unit 35 divides the touch operation area of the touch operation surface on the basis of the image data generated by the image processing unit 38, corresponding to each display screen divided and displayed on the display unit 22.
  • step ST68 the control unit 35 reflects the touch operation in each touch operation area of the selected persons on each operation target device.
  • step ST69 the touch panel control device 10B determines whether or not a certain period of time has elapsed since the touch position information was acquired from the touch sensor 14.
  • the touch panel control device 10B determines that a certain time has elapsed
  • the operation of the touch panel control device 10B proceeds to step ST70.
  • the touch panel control device 10B determines that the fixed time has not elapsed
  • the operation of the touch panel control device 10B repeats step ST69.
  • step ST70 the line-of-sight determination unit 32, based on the image data acquired by the image data acquisition unit 31, the line-of-sight of a person who is once permitted to perform a touch operation in the divided touch operation areas faces the touch operation surface. Is determined.
  • the operation of the touch panel control device 10B proceeds to step ST71. move on.
  • the line-of-sight determination unit 32 determines that the line-of-sight of all persons who are once permitted to perform the touch operation in each of the divided touch operation areas does not face the touch operation surface, the operation of the touch panel control device 10B. Proceeds to step ST72.
  • step ST71 the motion determination unit 33 determines that the hand of the person who is once permitted to perform the touch operation in the divided touch operation area exists in the detection area based on the image data acquired by the image data acquisition unit 31. It is determined whether or not. At this time, the motion determination unit 33 does not care whether or not the person's hand touches the touch operation surface. The determination operation of the operation determination unit 33 is performed for all persons who are once permitted to perform the touch operation in each of the divided touch operation areas. Here, when the motion determination unit 33 determines that even one person's hand is present in the detection area, the motion of the touch panel control device 10B returns to step ST69.
  • Step ST72 when the operation determination unit 33 determines that the hands of all the persons who are once permitted to perform the touch operation in each of the divided touch operation areas do not exist in the detection area, the operation of the touch panel control device 10B is performed. , Step ST72.
  • step ST72 the operation permission determination unit 34 releases the touch operation permission in the touch operation area of all the persons who are once permitted to operate in the divided touch operation areas. Then, the operation of the touch panel control device 10B returns to step ST61.
  • FIGS. 12A to 12C represent the direction of the line of sight of the person.
  • FIG. 12A is an operation explanatory diagram when a touch panel display is individually provided for a plurality of operation target devices.
  • the two persons shown in FIG. 12A are seated on the left and right rear seats 61 and 62 provided in the vehicle compartment, respectively.
  • the armrests 71 and 72 are provided corresponding to the rear seats 61 and 62.
  • the touch panel 21 is provided on each of the armrests 71 and 72.
  • the person seated on the right rear seat 62 has his/her hand touching the touch operation surface of the touch panel 21, but the line of sight is not directed to the touch operation surface.
  • the touch panel control device 10B does not accept the operation on the touch operation surface of the person sitting on the rear seat 62.
  • FIG. 12B is an operation explanatory diagram when a common touch panel display is provided for a plurality of operation target devices.
  • the two persons shown in FIG. 12B are seated in the rear seats 61 and 62, respectively.
  • the armrest 73 is provided between the rear seats 61 and 62.
  • the touch panel 21 is provided on the armrest 73.
  • the person sitting on the left rear seat 61 has his or her line of sight directed toward the touch operation surface, but his or her hand does not touch the touch operation surface.
  • the person sitting on the right rear seat 62 has his/her hand touching the touch operation surface of the touch panel 21, but the line of sight is not directed to the touch operation surface.
  • the touch panel control device 10B does not accept operations on the touch operation surfaces of two persons.
  • FIG. 12C is another operation explanatory diagram when a common touch panel display is provided for a plurality of operation target devices.
  • the two persons shown in FIG. 12C are persons who operate different operation target devices using the common touch panel 21 and are permitted to perform a touch operation on the touch operation surface.
  • the touch panel control device 10B simultaneously receives operations on the touch operation surfaces of two persons.
  • FIG. 12D is a diagram for explaining still another operation when a common touch panel display is provided for a plurality of operation target devices.
  • the two persons shown in FIG. 12D are persons who operate different operation target devices using the common touch panel 21 and are permitted to perform a touch operation on the touch operation surface.
  • the touch panel control device 10B simultaneously receives operations on the touch operation surfaces of two persons.
  • the touch panel control device 10B divides the touch operation area on the touch operation surface and the display screen of the display unit 22 corresponding thereto into two as occupied areas based on the number of persons. The division direction is performed based on the arrangement of persons.
  • touch panel control device 10B shown in FIGS. 12A to 12D is applied to the touch panel display mounted on the armrests 71 to 73 in the vehicle interior, it is applied to the touch panel display embedded in the upper surface and the wall surface of the desk. You can also
  • the touch panel control device 10B determines that there are a plurality of persons around the touch operation surface based on the image data acquired by the image data acquisition unit 31
  • An operator determination unit 37 that determines a person who intends to perform a touch operation on the touch operation surface based on the image data from a plurality of persons is provided.
  • the operation permission determination unit 34 permits the touch operation on the touch operation surface of the person based on the determination result of the line-of-sight determination unit 32, the determination result of the motion determination unit 33, and the determination result of the operator determination unit 37. It is determined whether to do. As a result, the touch panel control device 10B can prevent an unintended touch operation even if there are a plurality of people around the touch operation surface.
  • the operation permission determination unit 34 of the touch panel control device 10B exists in the detection region by the line-of-sight determined by the line-of-sight determination unit 32 and the action determination unit 33. Further, the hand determined to be in a state where the touch operation surface is not touched and the person determined to be the person who intends to perform the touch operation on the touch operation surface by the operator determination unit 37 are associated with each other. In this case, it is determined that the person having the line of sight determined by the line-of-sight determination unit 32, the person having the hand determined by the motion determination unit 33, and the person determined by the operator determination unit 37 match each other. Then, the touch operation on the touch operation surface of the person determined to match is permitted.
  • the operation permission determination unit 34 detects that the line-of-sight determined by the line-of-sight determination unit 32 is directed to the touch operation surface, and that the operation determination unit 33 exists in the detection area and touches the touch operation surface.
  • the gaze determination unit 32 determines It is determined that the person having the selected line of sight, the person having the hand determined by the motion determination unit 33, and the person determined by the operator determination unit 37 do not match, and this does not match. Do not allow the touch operation on the touch operation surface of the person who did.
  • the touch panel control device 10B prevents an unintended touch operation even when the person whose line of sight is facing the touch operation surface and the person who is trying to perform the touch operation on the touch operation surface are different. can do.
  • the touch panel control device 10B includes a touch position information acquisition unit 40 that acquires touch position information regarding the touch position from the touch sensor 14 that detects the touch position on the touch operation surface of a person.
  • the control unit 35 performs a touch operation on the person based on the touch position information acquired by the touch position information acquisition unit 40. Set the touch operation area of the surface.
  • the touch panel control device 10B can cause the person who has permitted the touch operation on the touch operation surface to perform the touch operation at a position where the person can easily perform the touch operation.
  • the touch panel control device 10B includes a fingerprint information acquisition unit 36 that acquires fingerprint information regarding a fingerprint from the fingerprint sensor 15 that detects the fingerprint of the hand touching the touch operation surface.
  • the operator determination unit 37 also determines a person who is performing a touch operation on the touch operation surface based on the image data acquired by the image data acquisition unit 31 and the fingerprint information acquired by the fingerprint information acquisition unit 36. To do. As a result, the touch panel control device 10B can determine whether the person who has permitted the touch operation on the touch operation surface is the person who has permitted the operation while the touch operation is being performed.
  • the operation permission determination unit 34 of the touch panel control device 10B When a plurality of operation target devices are operated using the common touch operation surface, the operation permission determination unit 34 of the touch panel control device 10B according to the second embodiment, for each operation target device, the touch operation surface of the person. It is determined whether or not the touch operation at is permitted. As a result, the touch panel control device 10B can accept only the touch operation of the person who is allowed to perform the touch operation on the touch operation surface, among the plurality of people.
  • the touch panel control device 10B displays image data for displaying a display screen corresponding to a touch operation on the touch operation surface of a person in a divided manner corresponding to each person determined by the operation permission determination unit 34. And a display output unit 39 that outputs the image data generated by the image processing unit 38 to the image conversion unit 13 for converting the image data into an image that can be displayed on the display unit 22. Equipped with. Accordingly, the touch panel control device 10B can simultaneously accept touch operations on the touch operation surfaces of a plurality of persons.
  • the control unit 35 of the touch panel control device 10B based on the image data generated by the image processing unit 38, touches the touch operation surface corresponding to each display screen divided and displayed on the display unit 22.
  • the operation area is divided as an occupied area.
  • the touch panel control device 10B does not accept touch operations on the touch operation surfaces of other people even when a plurality of people perform touch operations on the touch operation surface.
  • a touch panel control device and a touch panel control method according to the present invention can determine whether or not a touch operation on a touch operation surface of a person is permitted and prevent an unintended touch operation. It is suitable for use in control devices and touch panel control methods.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

タッチパネル制御装置(10A)は、タッチパネル(21)のタッチ操作面における周囲を撮影するカメラ(12)から、撮影画像の画像データを取得する画像データ取得部(31)と、画像データに基づいて、タッチ操作面の周囲に存在する人物の視線が、タッチ操作面に向いているか否かを判定する視線判定部(32)と、画像データに基づいて、タッチ操作面の周囲に存在する人物の手が、タッチ操作面の前方に設定される検出領域内に存在し、且つ、タッチ操作面に触れていない状態であるか否かを判定する動作判定部(33)と、視線判定部(32)の判定結果及び動作判定部(33)の判定結果に基づいて、人物のタッチ操作面でのタッチ操作を許可するか否かを判定する操作許可判定部(34)と、操作許可判定部(34)の判定結果に基づいて、タッチパネル21を制御する制御部(35)とを備える。

Description

タッチパネル制御装置及びタッチパネル制御方法
 この発明は、タッチパネルを制御するタッチパネル制御装置及びタッチパネル制御方法に関する。
 従来、ユーザの視線をカメラによって検出した場合に、タッチパネルでのタッチ操作を許可するタッチパネル制御装置が提供されている。このタッチパネル制御装置は、例えば、特許文献1に開示されている。
特開2009-227246号公報
 上記従来のタッチパネル制御装置は、座席に着座したユーザの手元に設けられるアームレストのような、ユーザの操作意図が無くても、その手が置かれてしまう可能性が高い場所に、タッチパネルを設置することを想定したものではない。このため、上記従来のタッチパネル制御装置は、ユーザの視線を検出した状態で、ユーザの手がタッチパネルに触れているが、当該ユーザの操作意図が無い場合でも、そのタッチ操作を受け付けてしまい、誤操作を招くおそれがある。
 この発明は、上記のような課題を解決するためになされたもので、意図しないタッチ操作を防止することができるタッチパネル制御装置を提供することを目的とする。
 この発明に係るタッチパネル制御装置は、タッチパネルのタッチ操作面における周囲を撮影するカメラから、撮影画像の画像データを取得する画像データ取得部と、画像データ取得部によって取得された画像データに基づいて、タッチ操作面の周囲に存在する人物の視線が、タッチ操作面に向いているか否かを判定する視線判定部と、画像データ取得部によって取得された画像データに基づいて、タッチ操作面の周囲に存在する人物の手が、タッチ操作面の前方に設定される検出領域内に存在し、且つ、タッチ操作面に触れていない状態であるか否かを判定する動作判定部と、視線判定部の判定結果、及び、動作判定部の判定結果に基づいて、人物のタッチ操作面でのタッチ操作を許可するか否かを判定する操作許可判定部と、操作許可判定部の判定結果に基づいて、タッチパネルを制御する制御部とを備えることを特徴とするものである。
 この発明によれば、意図しないタッチ操作を防止することができる。
実施の形態1に係るタッチパネル制御装置を備えたタッチパネルディスプレイの構成を示したブロック図である。 実施に形態1に係るタッチパネル制御装置に接続されるタッチパネルディスプレイの構成を示したブロック図である。 実施の形態1に係るタッチパネル制御装置の構成を示したブロック図である。 図4Aは実施の形態1に係るタッチパネル制御装置のハードウェア構成例を示した図である。図4Bは実施の形態1に係るタッチパネル制御装置の他のハードウェア構成例を示した図である。 実施の形態1に係るタッチパネル制御装置の動作手順を示したフローチャートである。 実施の形態1に係るタッチパネル制御装置における人物に操作継続意図がある場合の動作手順を示したフローチャートである。 実施の形態2に係るタッチパネル制御装置を備えたタッチパネルディスプレイの構成を示したブロック図である。 実施に形態2に係るタッチパネル制御装置に接続されるタッチパネルディスプレイの構成を示したブロック図である。 実施の形態2に係るタッチパネル制御装置の構成を示したブロック図である。 実施の形態2に係るタッチパネル制御装置の動作手順を示したフローチャートである。 実施の形態2に係るタッチパネル制御装置における表示画面の分割が必要となる場合の動作手順を示したフローチャートである。 実施の形態2に係るタッチパネル制御装置を車室内のアームレストに搭載されたタッチパネルディスプレイに適用した場合における当該タッチパネル制御装置の動作を説明した図である。図12Aは複数の操作対象デバイスに対して、タッチパネルディスプレイが個々に設けられる場合の動作説明図である。図12Bは複数の操作対象デバイスに対して、互いに共通のタッチパネルディスプレイが設けられる場合の動作説明図である。図12Cは複数の操作対象デバイスに対して、互いに共通のタッチパネルディスプレイが設けられる場合の他の動作説明図である。図12Dは複数の操作対象デバイスに対して、互いに共通のタッチパネルディスプレイが設けられる場合の更に他の動作説明図である。
 以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
 実施の形態1に係るタッチパネル制御装置について、図1から図6を用いて説明する。この実施の形態1に係るタッチパネル制御装置は、タッチパネルのタッチ操作面をタッチ操作する人物が独りとなる場合を想定している。
 先ず、実施の形態1に係るタッチパネル制御装置10Aが適用されるタッチパネルディスプレイ1A,1Bについて、図1及び図2を用いて説明する。図1は、実施の形態1に係るタッチパネル制御装置を備えたタッチパネルディスプレイの構成を示したブロック図である。図2は、実施に形態1に係るタッチパネル制御装置に接続されるタッチパネルディスプレイの構成を示したブロック図である。
 実施の形態1に係るタッチパネルディスプレイ1Aは、車室内に設けられている。このタッチパネルディスプレイ1Aは、タッチパネル制御装置10A、表示装置11、カメラ12、画像変換部13、及び、タッチセンサ14を備えている。
 表示装置11は、タッチパネル21及び表示部22を有している。タッチパネル21は、タッチ操作面を有している。このタッチ操作面は、人物の手によるタッチ操作を受け付ける。表示部22は、人物のタッチ操作面での操作に対応する表示画面を表示する。
 カメラ12は、タッチパネル21のタッチ操作面における周囲を撮影する。このカメラ12は、撮影した撮影画像の画像データをタッチパネル制御装置10Aに出力する。
 画像変換部13は、タッチパネル制御装置10Aから取得した画像データを、表示部22で表示可能となる画像に変換する。
 タッチセンサ14は、タッチパネル21に設けられている。このタッチセンサ14は、人物のタッチ操作面でのタッチ位置を検出する。このタッチセンサ14は、タッチ位置に関するタッチ位置情報をタッチパネル制御装置10Aに出力する。
 タッチパネル制御装置10Aは、カメラ12から取得した画像データに基づいて、タッチ操作面の周囲に存在する人物のタッチ操作面でのタッチ操作を許可するか否かを判定する。また、タッチパネル制御装置10Aは、タッチ操作を許可した場合に、タッチセンサ14からタッチ位置情報を取得し、タッチ操作を許可しない場合に、タッチセンサ14からタッチ位置情報を取得しない。
 但し、図1に示したタッチパネルディスプレイ1Aの構成を簡素にしたい場合には、当該タッチパネルディスプレイ1Aは、タッチパネル制御装置10A及びカメラ12をその構成から除外して、それらを外部装置とすれば良い。
 例えば、図2に示したタッチパネルディスプレイ1Bは、外部に設置された制御ユニット3及びカメラ12と接続している。タッチパネルディスプレイ1B及びカメラ12は、車室内に設けられている。このタッチパネルディスプレイ1Bは、表示装置11、画像変換部13、タッチセンサ14、及び、I/F部16を備えている。I/F部16は、画像変換部13及びタッチセンサ14と接続している。
 制御ユニット3は、タッチパネル制御装置10A及びI/F部17を備えている。タッチパネル制御装置10Aは、カメラ12及びI/F部17と接続している。I/F部17は、I/F部16と接続している。
 また、タッチパネルディスプレイ1Bを車室内に設置する場合には、カメラ12は、専用のカメラではなく、ドライバーモニタリングシステムのカメラを適用しても構わない。
 次に、実施の形態1に係るタッチパネル制御装置10Aについて、図3を用いて説明する。図3は、実施の形態1に係るタッチパネル制御装置の構成を示したブロック図である。
 実施の形態1に係るタッチパネル制御装置10Aは、画像データ取得部31、視線判定部32、動作判定部33、操作許可判定部34、及び、制御部35を備えている。
 画像データ取得部31は、カメラ12から、当該カメラ12が撮影した撮影画像の画像データを取得する。この画像データ取得部31は、画像データを視線判定部32及び動作判定部33に出力する。
 視線判定部32は、画像データ取得部31によって取得された画像データに基づいて、タッチ操作面の周囲に存在する人物の視線が、タッチ操作面に向いているか否かを判定する。この視線判定部32は、判定結果を操作許可判定部34に出力する。
 動作判定部33は、画像データ取得部31によって取得された画像データに基づいて、タッチ操作面の周囲に存在する人物の手が、当該タッチ操作面の前方に設定される検出領域内に存在し、且つ、タッチ操作面に触れていない状態であるか否かを判定する。この動作判定部33は、判定結果を操作許可判定部34に出力する。
 動作判定部33の判定動作時に使用される検出領域は、タッチ操作面から前方に向けて所定の距離で、且つ、当該タッチ操作面に対して、垂直方向に設定されている。これにより、検出領域は、人物の手がタッチ操作面をタッチ操作しようとするときに、当該人物の手が通過する空間領域となっている。なお、タッチ操作面の前方とは、タッチ操作面から見て車室側の方向である。また、所定の距離とは、例えば、タッチ操作面から前方に向けて、2~5cmの範囲である。
 操作許可判定部34は、視線判定部32の判定結果、及び、動作判定部33の判定結果に基づいて、人物のタッチ操作面でのタッチ操作を許可するか否かを判定する。この操作許可判定部34は、その判定結果を制御部35に出力する。
 具体的には、操作許可判定部34は、視線判定部32が、人物の視線がタッチ操作面に向いていると判定し、動作判定部33が、人物の手が検出領域内に存在し、且つ、タッチ操作面に触れていない状態であると判定した場合に、人物のタッチ操作面でのタッチ操作を許可する。一方、操作許可判定部34は、動作判定部33が、人物の手が検出領域内に存在し、且つ、タッチ操作面に触れていない状態であると判定した場合であっても、視線判定部32が、人物の視線がタッチ操作面に向いていないと判定した場合には、人物のタッチ操作面でのタッチ操作を許可しない。
 また、操作許可判定部34は、人物のタッチ操作面でのタッチ操作を一旦許可した後に、視線判定部32が、人物の視線がタッチ操作面に向いていないと判定した場合、または、動作判定部33が、人物の手が検出領域内に存在しないと判定した場合に、人物のタッチ操作面でのタッチ操作許可を解除する。
 制御部35は、操作許可判定部34の判定結果に基づいて、タッチパネル21を制御する。
 具体的には、制御部35は、操作許可判定部34が、人物のタッチ操作面でのタッチ操作を許可すると判定した場合に、タッチパネル制御装置10Aによるタッチセンサ14からのタッチ位置情報の取得を許可することにより、人物のタッチ操作面でのタッチ操作を操作対象デバイスに反映する。一方、制御部35は、操作許可判定部34が、人物のタッチ操作面でのタッチ操作を許可しないと判定した場合に、タッチパネル制御装置10Aによるタッチセンサ14からのタッチ位置情報の取得を許可しないことにより、人物のタッチ操作面でのタッチ操作を操作対象デバイスに反映しない。なお、操作対象デバイスとしては、例えば、オーディオ装置、ナビゲーション装置、及び、リヤシートエンタテイメント装置等である。
 次に、実施の形態1に係るタッチパネル制御装置10Aのハードウェア構成例について、図4を用いて説明する。図4Aは、実施の形態1に係るタッチパネル制御装置のハードウェア構成例を示した図である。図4Bは、実施の形態1に係るタッチパネル制御装置の他のハードウェア構成例を示した図である。
 図4Aに示す如く、タッチパネル制御装置10Aは、コンピュータにより構成されており、当該コンピュータは、プロセッサ51及びメモリ52を有している。メモリ52には、そのコンピュータを、画像データ取得部31、視線判定部32、動作判定部33、操作許可判定部34、及び、制御部35として機能させるためのプログラムが記憶されている。メモリ52に記憶されているプログラムをプロセッサ51が読み出して実行することにより、画像データ取得部31、視線判定部32、動作判定部33、操作許可判定部34、及び、制御部35の機能が実現される。
 または、図4Bに示す如く、タッチパネル制御装置10Aは、処理回路53を有するものであっても良い。この場合、画像データ取得部31、視線判定部32、動作判定部33、操作許可判定部34、及び、制御部35の機能が処理回路53により実現されるものであっても良い。
 または、タッチパネル制御装置10Aは、プロセッサ51、メモリ52、及び、処理回路53を有するものであっても良い(不図示)。この場合、画像データ取得部31、視線判定部32、動作判定部33、操作許可判定部34、及び、制御部35の機能のうちの一部がプロセッサ51及びメモリ52により実現されて、残余の機能が処理回路53により実現されるものであっても良い。
 プロセッサ51は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、マイクロプロセッサ、マイクロコントローラ又はDSP(Digital Signal Processor)のうちの少なくとも一つを用いたものである。
 メモリ52は、例えば、半導体メモリ又は磁気ディスクのうちの少なくとも一方を用いたものである。より具体的には、メモリ52は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、SSD(Solid State Drive)又はHDD(Hard Disk Drive)のうちの少なくとも一つを用いたものである。
 処理回路53は、例えば、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field-Programmable Gate Array)、SoC(System-on-a-Chip)又はシステムLSI(Large-Scale Integration)のうちの少なくとも一つを用いたものである。
 次に、実施の形態1に係るタッチパネル制御装置10Aの動作について、図5及び図6を用いて説明する。
 図5は、実施の形態1に係るタッチパネル制御装置の動作手順を示したフローチャートである。
 ステップST11において、制御部35は、タッチパネル21をタッチ操作制限状態とし、人物のタッチ操作面でのタッチ操作を受け付けない。即ち、制御部35は、人物のタッチ操作面でのタッチ操作を操作対象デバイスに反映しない。
 ステップST12において、画像データ取得部31は、カメラ12から、当該カメラ12が撮影した撮影画像の画像データを取得する。
 ステップST13において、視線判定部32は、画像データ取得部31によって取得された画像データに基づいて、タッチ操作面の周囲に存在する人物の視線が、タッチ操作面に向いているか否かを判定する。ここで、視線判定部32が、その視線がタッチ操作面に向いていると判定した場合には、タッチパネル制御装置10Aの動作は、ステップST14に進む。一方、視線判定部32が、その視線がタッチ操作面に向いていないと判定した場合には、タッチパネル制御装置10Aの動作は、ステップST11に戻る。
 ステップST14において、動作判定部33は、画像データ取得部31によって取得された画像データに基づいて、タッチ操作面の周囲に存在する人物の手が、検出領域内に存在し、且つ、タッチ操作面に触れていない状態であるか否かを判定する。ここで、動作判定部33が、その手が検出領域内に存在し、且つ、タッチ操作面に触れていない状態であると判定した場合には、タッチパネル制御装置10Aの動作は、ステップST15に進む。一方、動作判定部33が、その手が検出領域内に存在しないと判定した場合には、タッチパネル制御装置10Aの動作は、ステップST11に戻る。
 ステップST15において、操作許可判定部34は、人物のタッチ操作面でのタッチ操作を許可する。
 ステップST16において、制御部35は、タッチパネル21を制御する。即ち、制御部35は、人物のタッチ操作面でのタッチ操作を操作対象デバイスに反映する。そして、タッチパネル制御装置10Aの動作は、終了する。
 図6は、実施の形態1に係るタッチパネル制御装置における人物に操作継続意図がある場合の動作手順を示したフローチャートである。
 ステップST21において、制御部35は、タッチパネル21をタッチ操作制限状態とし、人物のタッチ操作面でのタッチ操作を受け付けない。即ち、制御部35は、人物のタッチ操作面でのタッチ操作を操作対象デバイスに反映しない。
 ステップST22において、画像データ取得部31は、カメラ12から、当該カメラ12が撮影した撮影画像の画像データを取得する。
 ステップST23において、視線判定部32は、画像データ取得部31によって取得された画像データに基づいて、タッチ操作面の周囲に存在する人物の視線が、タッチ操作面に向いているか否かを判定する。ここで、視線判定部32が、その視線がタッチ操作面に向いていると判定した場合には、タッチパネル制御装置10Aの動作は、ステップST24に進む。一方、視線判定部32が、その視線がタッチ操作面に向いていないと判定した場合には、タッチパネル制御装置10Aの動作は、ステップST21に戻る。
 ステップST24において、動作判定部33は、画像データ取得部31によって取得された画像データに基づいて、タッチ操作面の周囲に存在する人物の手が、検出領域内に存在し、且つ、タッチ操作面に触れていない状態であるか否かを判定する。ここで、動作判定部33が、その手が検出領域内に存在し、且つ、タッチ操作面に触れていない状態であると判定した場合には、タッチパネル制御装置10Aの動作は、ステップST25に進む。一方、動作判定部33が、その手が検出領域内に存在しないと判定した場合には、タッチパネル制御装置10Aの動作は、ステップST21に戻る。
 ステップST25において、操作許可判定部34は、人物のタッチ操作面でのタッチ操作を許可する。
 ステップST26において、制御部35は、タッチパネル21を制御する。即ち、制御部35は、人物のタッチ操作面でのタッチ操作を操作対象デバイスに反映する。
 ステップST27において、タッチパネル制御装置10Aは、タッチセンサ14からタッチ位置情報を取得してから、一定時間経過したか否かを判定する。ここで、タッチパネル制御装置10Aが、一定時間経過したと判定した場合には、当該タッチパネル制御装置10Aの動作は、ステップST28に進む。一方、タッチパネル制御装置10Aが、一定時間経過していないと判定した場合には、当該タッチパネル制御装置10Aの動作は、ステップST27を繰り返す。なお、一定時間とは、例えば、2秒である。
 ステップST28において、視線判定部32は、画像データ取得部31によって取得された画像データに基づいて、タッチ操作面でのタッチ操作を一旦許可された人物の視線が、タッチ操作面に向いているか否かを判定する。ここで、視線判定部32が、その視線がタッチ操作面に向いていると判定した場合には、タッチパネル制御装置10Aの動作は、ステップST29に進む。一方、視線判定部32が、その視線がタッチ操作面に向いていないと判定した場合には、タッチパネル制御装置10Aの動作は、ステップST30に進む。
 ステップST29において、動作判定部33は、画像データ取得部31によって取得された画像データに基づいて、タッチ操作面でのタッチ操作を一旦許可された人物の手が、検出領域内に存在しているか否を判定する。このとき、動作判定部33は、人物の手がタッチ操作面に触れているか否かについては問わない。ここで、動作判定部33が、その手が検出領域内に存在していると判定した場合には、タッチパネル制御装置10Aの動作は、ステップST27に戻る。一方、動作判定部33が、その手が検出領域内に存在しないと判定した場合には、タッチパネル制御装置10Aの動作は、ステップST30に進む。
 ステップST30において、操作許可判定部34は、タッチ操作面での操作を一旦許可された人物のタッチ操作面でのタッチ操作許可を解除する。そして、タッチパネル制御装置10Aの動作は、ステップST21に戻る。
 以上より、実施の形態1に係るタッチパネル制御装置10Aは、タッチパネル21のタッチ操作面における周囲を撮影するカメラ12から、撮影画像の画像データを取得する画像データ取得部31と、画像データ取得部31によって取得された画像データに基づいて、タッチ操作面の周囲に存在する人物の視線が、タッチ操作面に向いているか否かを判定する視線判定部32と、画像データ取得部31によって取得された画像データに基づいて、タッチ操作面の周囲に存在する人物の手が、タッチ操作面の前方に設定される検出領域内に存在し、且つ、タッチ操作面に触れていない状態であるか否かを判定する動作判定部33と、視線判定部32の判定結果、及び、動作判定部33の判定結果に基づいて、人物のタッチ操作面でのタッチ操作を許可するか否かを判定する操作許可判定部34と、操作許可判定部34の判定結果に基づいて、タッチパネル21を制御する制御部35とを備えている。これにより、タッチパネル制御装置10Aは、意図しないタッチ操作を防止することができる。
 実施の形態1に係るタッチパネル制御装置10Aの操作許可判定部34は、視線判定部32が、人物の視線がタッチ操作面に向いていると判定し、動作判定部33が、人物の手が検出領域内に存在し、且つ、タッチ操作面に触れていない状態であると判定した場合に、人物のタッチ操作面でのタッチ操作を許可し、視線判定部32が、人物の視線がタッチ操作面に向いていないと判定した場合に、人物のタッチ操作面でのタッチ操作を許可しない。これにより、タッチパネル制御装置10Aは、人物の視線がタッチ操作面に向いていることを前提にして、人物の手の位置に基づいて、当該人物のタッチ操作面でのタッチ操作を許可する。従って、タッチパネル制御装置10Aは、人物の手がタッチ操作面に触れている状態で、人物の視線がその後からタッチ操作面に向いても、人物のタッチ操作面でのタッチ操作を許可することはない。
 実施の形態1に係るタッチパネル制御装置10Aの操作許可判定部34は、人物のタッチ操作面でのタッチ操作を一旦許可した後に、視線判定部32が、人物の視線がタッチ操作面に向いていないと判定した場合、または、動作判定部33が、人物の手が検出領域内に存在しないと判定した場合に、人物のタッチ操作面でのタッチ操作許可を解除する。これにより、タッチパネル制御装置10Aは、人物のタッチ操作面でのタッチ操作を一旦許可した場合であっても、その後におけるタッチ操作面での誤操作を防止することができる。
 実施の形態1に係るタッチパネル制御方法は、画像データ取得部31が、タッチパネル21のタッチ操作面における周囲を撮影するカメラ12から、撮影画像の画像データを取得し、視線判定部32が、画像データ取得部31によって取得された画像データに基づいて、タッチ操作面の周囲に存在する人物の視線が、タッチ操作面に向いているか否かを判定し、動作判定部33が、画像データ取得部31によって取得された画像データに基づいて、タッチ操作面の周囲に存在する人物の手が、タッチ操作面の前方に設定される検出領域内に存在し、且つ、タッチ操作面に触れていない状態であるか否かを判定し、操作許可判定部34が、視線判定部32の判定結果、及び、動作判定部33の判定結果に基づいて、人物のタッチ操作面でのタッチ操作を許可するか否かを判定し、制御部35が、操作許可判定部34の判定結果に基づいて、タッチパネル21を制御する。これにより、タッチパネル制御方法は、意図しないタッチ操作を防止することができる。
実施の形態2.
 実施の形態2に係るタッチパネル制御装置について、図7から図12を用いて説明する。この実施の形態2に係るタッチパネル制御装置は、タッチパネルのタッチ操作面をタッチ操作する人物が複数となる場合を想定している。
 先ず、実施の形態2に係るタッチパネル制御装置10Bが適用されるタッチパネルディスプレイ2A,2Bについて、図7及び図8を用いて説明する。図7は、実施の形態2に係るタッチパネル制御装置を備えたタッチパネルディスプレイの構成を示したブロック図である。図8は、実施に形態2に係るタッチパネル制御装置に接続されるタッチパネルディスプレイの構成を示したブロック図である。
 図7に示した実施の形態2に係るタッチパネルディスプレイ2Aは、図1に示した実施の形態1に係るタッチパネルディスプレイ1Aに対して、タッチパネル制御装置10Aからタッチパネル制御装置10Bに変更すると共に、指紋センサ15を追加した構成となっている。これにより、タッチパネルディスプレイ2Aは、タッチパネル制御装置10B、表示装置11、カメラ12、画像変換部13、タッチセンサ14、及び、指紋センサ15を備えている。
 指紋センサ15は、タッチパネル21のタッチ操作面をタッチ操作している手の指紋を検出する。この指紋センサ15は、指紋に関する指紋情報をタッチパネル制御装置10Bに出力する。
 タッチパネル制御装置10Bは、カメラ12から取得した画像データに基づいて、タッチ操作面の周囲に存在する全ての人物の中から選ばれた独りの人物または複数の人物のタッチ操作面でのタッチ操作を許可するか否かを判定する。
 但し、図7に示したタッチパネルディスプレイ2Aの構成を簡素にしたい場合には、当該タッチパネルディスプレイ2Aは、タッチパネル制御装置10B及びカメラ12をその構成から除外して、それらを外部装置とすれば良い。
 例えば、図8に示したタッチパネルディスプレイ2Bは、外部に設置された制御ユニット3及びカメラ12と接続している。このタッチパネルディスプレイ2Bは、表示装置11、画像変換部13、タッチセンサ14、指紋センサ15、及び、I/F部16を備えている。I/F部16は、画像変換部13、タッチセンサ14、及び、指紋センサ15と接続している。
 また、タッチパネルディスプレイ2Bを車室内に設置する場合には、カメラ12は、専用のカメラではなく、ドライバーモニタリングシステムのカメラを適用しても構わない。
 次に、実施の形態2に係るタッチパネル制御装置10Bについて、図9を用いて説明する。図9は、実施の形態2に係るタッチパネル制御装置の構成を示したブロック図である。
 実施の形態2に係るタッチパネル制御装置10Bは、実施の形態1に係るタッチパネル制御装置10Aの構成に、指紋情報取得部36、操作者判定部37、画像処理部38、表示出力部39、及び、タッチ位置情報取得部40を追加した構成となっている。即ち、タッチパネル制御装置10Bは、画像データ取得部31、視線判定部32、動作判定部33、操作許可判定部34、制御部35、指紋情報取得部36、操作者判定部37、画像処理部38、表示出力部39、及び、タッチ位置情報取得部40を備えている。
 指紋情報取得部36は、指紋センサ15から、タッチパネル21のタッチ操作面をタッチ操作している手の指紋に関する指紋情報を取得する。この指紋情報取得部36は、指紋に関する指紋情報を操作者判定部37に出力する。
 操作者判定部37は、画像データ取得部31によって取得された画像データに基づいて、タッチ操作面の周囲に存在する人物が複数であると判定した場合に、その全ての人物の中から、当該画像データに基づいて、タッチ操作面に対するタッチ操作を行おうとする人物を判定する。また、操作者判定部37は、画像データ取得部31によって取得された画像データ、及び、指紋情報取得部36によって取得された指紋情報に基づいて、タッチ操作面をタッチ操作している人物を判定する。この操作者判定部37は、判定結果を、操作許可判定部34及び制御部35に出力する。
 画像処理部38は、表示部22で表示する画像の画像データを、制御部35からの動作指示に基づいて生成する。例えば、画像処理部38は、人物のタッチ操作面でのタッチ操作に対応する表示画面を、操作許可判定部34によって判定された人物ごとに対応して分割表示するための画像データを生成する。この画像処理部38は、生成した画像データを表示出力部39に出力する。
 表示出力部39は、画像処理部38が生成した画像データを、表示部22で表示可能となる画像に変換する。この表示出力部39は、変換した画像を画像変換部13に出力する。
 タッチ位置情報取得部40は、タッチセンサ14から、人物のタッチ操作でのタッチ位置に関するタッチ位置情報を取得する。このタッチ位置情報取得部40は、タッチ位置に関するタッチ位置情報を制御部35に出力する。
 操作許可判定部34は、視線判定部32の判定結果、動作判定部33の判定結果、及び、操作者判定部37の判定結果に基づいて、人物のタッチ操作面でのタッチ操作を許可するか否かを判定する。
 具体的には、操作許可判定部34は、視線判定部32によって、タッチ操作面に向いていると判定された視線と、動作判定部33によって、検出領域内に存在し、且つ、タッチ操作面に触れていない状態であると判定された手と、操作者判定部37によって、タッチ操作面に対するタッチ操作を行おうとする人物であると判定された人物とが関連付けられた場合に、視線判定部32によって判定された視線を有する人物と、動作判定部33によって判定された手を有する人物と、操作者判定部37によって判定された人物とが、一致していると判定し、この一致していると判定した人物のタッチ操作面でのタッチ操作を許可する。
 一方、操作許可判定部34は、視線判定部32によって、タッチ操作面に向いていると判定された視線と、動作判定部33によって、検出領域内に存在し、且つ、タッチ操作面に触れていない状態であると判定された手と、操作者判定部37によって、タッチ操作面に対するタッチ操作を行おうとする人物であると判定された人物とが関連付けられない場合に、視線判定部32によって判定された視線を有する人物と、動作判定部33によって判定された手を有する人物と、操作者判定部37によって判定された人物とが、一致していないと判定し、この一致していないと判定した人物のタッチ操作面でのタッチ操作を許可しない。
 また、操作許可判定部34は、複数の操作対象デバイスが互い共通のタッチ操作面を用いて操作される場合に、当該操作対象デバイスごとに、人物のタッチ操作面でのタッチ操作を許可するか否かを判定する。
 制御部35は、操作者判定部37によって判定された人物がタッチ操作面をタッチ操作したときに、タッチ位置情報取得部40によって取得されたタッチ位置情報に基づいて、当該人物に対するタッチ操作面のタッチ操作領域を設定する。また、制御部35は、画像処理部38が生成した画像データに基づいて、表示部22において分割表示された各表示画面に対応して、タッチ操作面のタッチ操作領域を分割する。
 なお、タッチパネル制御装置10Bのハードウェア構成としては、図4A及び図4Bに示したタッチパネル制御装置10Aのハードウェア構成を採用すれば良い。即ち、タッチパネル制御装置10Aは、プロセッサ51及びメモリ52を有するか、または、プロセッサ51、メモリ52、及び、処理回路53を有するものであっても良い。
 次に、実施の形態2に係るタッチパネル制御装置10Bの動作について、図10及び図11を用いて説明する。
 図10は、実施の形態2に係るタッチパネル制御装置の動作手順を示したフローチャートである。
 ステップST41において、制御部35は、タッチパネル21をタッチ操作制限状態とし、人物のタッチ操作面でのタッチ操作を受け付けない。即ち、制御部35は、人物のタッチ操作面でのタッチ操作を操作対象デバイスに反映しない。
 ステップST42において、画像データ取得部31は、カメラ12から、当該カメラ12が撮影した撮影画像の画像データを取得する。
 ステップST43において、視線判定部32は、画像データ取得部31によって取得された画像データに基づいて、タッチ操作面の周囲に存在する人物の視線が、タッチ操作面に向いているか否かを判定する。この視線判定部32の判定動作は、タッチ操作面の周囲に存在する全ての人物に対して行われる。ここで、視線判定部32が、一人でも、その視線がタッチ操作面に向いていると判定した場合には、タッチパネル制御装置10Bの動作は、ステップST44に進む。一方、視線判定部32が、タッチ操作面の周囲に存在する全て人物の視線がタッチ操作面に向いていないと判定した場合には、タッチパネル制御装置10Bの動作は、ステップST41に戻る。
 ステップST44において、動作判定部33は、画像データ取得部31によって取得された画像データに基づいて、タッチ操作面の周囲に存在する人物の手が、検出領域内に存在し、且つ、タッチ操作面に触れていない状態であるか否かを判定する。この動作判定部33の判定動作は、タッチ操作面の周囲に存在する全ての人物に対して行われる。ここで、動作判定部33が、一人でも、その手が検出領域内に存在し、且つ、タッチ操作面に触れていない状態であると判定した場合には、タッチパネル制御装置10Bの動作は、ステップST45に進む。一方、動作判定部33が、タッチ操作面の周囲に存在する全ての人物の手が検出領域内に存在しないと判定した場合には、タッチパネル制御装置10Bの動作は、ステップST41に戻る。
 ステップST45において、操作者判定部37は、画像データ取得部31によって取得された画像データに基づいて、タッチ操作面の周囲に存在する全ての人物の中から、タッチ操作面に対するタッチ操作を行おうとする一人以上の人物を判定する。
 ステップST46において、操作許可判定部34は、視線判定部32によって判定された視線の人物と、動作判定部33によって判定された手の人物と、操作者判定部37によって判定された人物とに基づいて、人物のタッチ操作面でのタッチ操作を許可するか否かを判定する。この操作許可判定部34の判定動作は、タッチ操作面に対するタッチ操作を行おうとする一人以上の全ての人物に対して行われる。ここで、操作許可判定部34が、一人でも、人物にタッチ操作を許可した場合には、タッチパネル制御装置10Bの動作は、ステップST47に進む。一方、操作許可判定部34が、タッチ操作面に対するタッチ操作を行おうとする一人以上の全ての人物にタッチ操作を許可しない場合には、タッチパネル制御装置10Bの動作は、ステップST41に戻る。
 ステップST47において、制御部35は、選ばれた一人または複数の人物のタッチ操作面でのタッチ操作を操作対象デバイスに反映する。
 ステップST48において、タッチパネル制御装置10Bは、タッチセンサ14からタッチ位置情報を取得してから、一定時間経過したか否かを判定する。ここで、タッチパネル制御装置10Bが、一定時間経過したと判定した場合には、当該タッチパネル制御装置10Bの動作は、ステップST49に進む。一方、タッチパネル制御装置10Bが、一定時間経過していないと判定した場合には、当該タッチパネル制御装置10Bの動作は、ステップST48を繰り返す。
 ステップST49において、視線判定部32は、画像データ取得部31によって取得された画像データに基づいて、タッチ操作面でのタッチ操作を一旦許可された人物の視線が、タッチ操作面に向いているか否かを判定する。この視線判定部32の判定動作は、タッチ操作面でのタッチ操作を一旦許可された全ての人物に対して行われる。ここで、視線判定部32が、一人でも、その視線がタッチ操作面に向いていると判定した場合には、タッチパネル制御装置10Bの動作は、ステップST50に進む。一方、視線判定部32が、タッチ操作面でのタッチ操作を一旦許可された全ての人物の視線がタッチ操作面に向いていないと判定した場合には、タッチパネル制御装置10Bの動作は、ステップST51に進む。
 ステップST50において、動作判定部33は、画像データ取得部31によって取得された画像データに基づいて、タッチ操作面でのタッチ操作を一旦許可された人物の手が、検出領域内に存在しているか否を判定する。このとき、動作判定部33は、その人物の手がタッチ操作面に触れているか否かについては問わない。この動作判定部33の判定動作は、タッチ操作面でのタッチ操作を一旦許可された全ての人物に対して行われる。ここで、動作判定部33が、一人でも、その手が検出領域内に存在していると判定した場合には、タッチパネル制御装置10Bの動作は、ステップST48に戻る。一方、動作判定部33が、タッチ操作面でのタッチ操作を一旦許可された全ての人物の手が検出領域内に存在しないと判定した場合には、タッチパネル制御装置10Bの動作は、ステップST51に進む。
 ステップST51において、操作許可判定部34は、タッチ操作面での操作を一旦許可された全ての人物のタッチ操作面でのタッチ操作許可を解除する。そして、タッチパネル制御装置10Bの動作は、ステップST21に戻る。
 図11は、実施の形態2に係るタッチパネル制御装置における表示画面の分割が必要となる場合の動作手順を示したフローチャートである。
 ステップST61において、制御部35は、タッチパネル21をタッチ操作制限状態とし、人物のタッチ操作面でのタッチ操作を受け付けない。即ち、制御部35は、人物のタッチ操作面でのタッチ操作を反映しない。
 ステップST62において、画像データ取得部31は、カメラ12から、当該カメラ12が撮影した撮影画像の画像データを取得する。
 ステップST63において、視線判定部32は、画像データ取得部31によって取得された画像データに基づいて、タッチ操作面の周囲に存在する人物の視線が、タッチ操作面に向いているか否かを判定する。この視線判定部32の判定動作は、タッチ操作面の周囲に存在する全ての人物に対して行われる。ここで、視線判定部32が、一人でも、その視線がタッチ操作面に向いていると判定した場合には、タッチパネル制御装置10Bの動作は、ステップST64に進む。一方、視線判定部32が、タッチ操作面の周囲に存在する全て人物の視線がタッチ操作面に向いていないと判定した場合には、タッチパネル制御装置10Bの動作は、ステップST61に戻る。
 ステップST64において、動作判定部33は、画像データ取得部31によって取得された画像データに基づいて、タッチ操作面の周囲に存在する人物の手が、検出領域内に存在し、且つ、タッチ操作面に触れていない状態であるか否かを判定する。この動作判定部33の判定動作は、タッチ操作面の周囲に存在する全ての人物に対して行われる。ここで、動作判定部33が、一人でも、その手が検出領域内に存在し、且つ、タッチ操作面に触れていない状態であると判定した場合には、タッチパネル制御装置10Bの動作は、ステップST65に進む。一方、動作判定部33が、タッチ操作面の周囲に存在する全ての人物の手が検出領域内に存在しないと判定した場合には、タッチパネル制御装置10Bの動作は、ステップST61に戻る。
 ステップST65において、操作者判定部37は、画像データ取得部31によって取得された画像データに基づいて、タッチ操作面の周囲に存在する全ての人物の中から、タッチ操作面に対するタッチ操作を行おうとする一人以上の人物を判定する。
 ステップST66において、操作許可判定部34は、視線判定部32によって判定された視線の人物と、動作判定部33によって判定された手の人物と、操作者判定部37によって判定された人物とに基づいて、人物のタッチ操作面でのタッチ操作を許可するか否かを判定する。この操作許可判定部34の判定動作は、タッチ操作面に対するタッチ操作を行おうとする一人以上の全ての人物に対して行われる。ここで、操作許可判定部34が、一人でも、人物にタッチ操作を許可した場合には、タッチパネル制御装置10Bの動作は、ステップST67に進む。一方、操作許可判定部34が、タッチ操作面に対するタッチ操作を行おうとする一人以上の全ての人物にタッチ操作を許可しない場合には、タッチパネル制御装置10Bの動作は、ステップST61に戻る。
 ステップST67において、制御部35は、操作許可判定部34によって判定された人物の人数に対応した画像データを、画像処理部38に生成させる。また、制御部35は、画像処理部38によって生成された上記画像データに基づいて、表示部22において分割表示された各表示画面に対応して、タッチ操作面のタッチ操作領域を分割する。
 ステップST68において、制御部35は、選ばれた複数の人物の各タッチ操作領域でのタッチ操作を各操作対象デバイスに反映する。
 ステップST69において、タッチパネル制御装置10Bは、タッチセンサ14からタッチ位置情報を取得してから、一定時間経過したか否かを判定する。ここで、タッチパネル制御装置10Bが、一定時間経過したと判定した場合には、当該タッチパネル制御装置10Bの動作は、ステップST70に進む。一方、タッチパネル制御装置10Bが、一定時間経過していないと判定した場合には、当該タッチパネル制御装置10Bの動作は、ステップST69を繰り返す。
 ステップST70において、視線判定部32は、画像データ取得部31によって取得された画像データに基づいて、分割されたタッチ操作領域でのタッチ操作を一旦許可された人物の視線が、タッチ操作面に向いているか否かを判定する。この視線判定部32の判定動作は、ここで、視線判定部32が、一人でも、その視線がタッチ操作面に向いていると判定した場合には、タッチパネル制御装置10Bの動作は、ステップST71に進む。一方、視線判定部32が、分割された各タッチ操作領域でのタッチ操作を一旦許可された全ての人物の視線がタッチ操作面に向いていないと判定した場合には、タッチパネル制御装置10Bの動作は、ステップST72に進む。
 ステップST71において、動作判定部33は、画像データ取得部31によって取得された画像データに基づいて、分割されたタッチ操作領域でのタッチ操作を一旦許可された人物の手が、検出領域内に存在しているか否を判定する。このとき、動作判定部33は、その人物の手がタッチ操作面に触れているか否かについては問わない。この動作判定部33の判定動作は、分割された各タッチ操作領域でのタッチ操作を一旦許可された全ての人物に対して行われる。ここで、動作判定部33が、一人でも、その手が検出領域内に存在していると判定した場合には、タッチパネル制御装置10Bの動作は、ステップST69に戻る。一方、動作判定部33が、分割された各タッチ操作領域でのタッチ操作を一旦許可された全ての人物の手が検出領域内に存在しないと判定した場合には、タッチパネル制御装置10Bの動作は、ステップST72に進む。
 ステップST72において、操作許可判定部34は、分割された各タッチ操作領域での操作を一旦許可された全ての人物の当該タッチ操作領域でのタッチ操作許可を解除する。そして、タッチパネル制御装置10Bの動作は、ステップST61に戻る。
 次に、実施の形態2に係るタッチパネル制御装置を車室内のアームレストに搭載されたタッチパネルディスプレイに適用した場合における当該タッチパネル制御装置の動作について、図12を用いて説明する。なお、図12Aから図12Cで示した点線は、人物の視線の向きを表している。
 図12Aは、複数の操作対象デバイスに対して、タッチパネルディスプレイが個々に設けられる場合の動作説明図である。この図12Aに示した2人の人物は、車室内に設けられた左右両側の後部座席61,62にそれぞれ着座している。アームレスト71,72は、後部座席61,62に対応して設けられている。タッチパネル21は、アームレスト71,72のそれぞれに設けられている。右側の後部座席62に着座した人物は、手がタッチパネル21のタッチ操作面に触れているが、視線がそのタッチ操作面に向いていない。これにより、タッチパネル制御装置10Bは、後部座席62に着座した人物のタッチ操作面での操作を受け付けない。
 図12Bは、複数の操作対象デバイスに対して、互いに共通のタッチパネルディスプレイが設けられる場合の動作説明図である。この図12Bに示した2人の人物は、後部座席61,62にそれぞれ着座している。アームレスト73は、後部座席61,62の間に設けられている。タッチパネル21は、アームレスト73に設けられている。左側の後部座席61に着座した人物は、視線がタッチ操作面に向いているが、手がタッチ操作面に触れていない。また、右側の後部座席62に着座した人物は、手がタッチパネル21のタッチ操作面に触れているが、視線がそのタッチ操作面に向いていない。これにより、タッチパネル制御装置10Bは、2人の人物のタッチ操作面での操作を受け付けない。
 図12Cは、複数の操作対象デバイスに対して、互いに共通のタッチパネルディスプレイが設けられる場合の他の動作説明図である。この図12Cに示した2人の人物は、互いに異なった操作対象デバイスを、互いに共通のタッチパネル21を用いて操作し、且つ、そのタッチ操作面でのタッチ操作を許可された人物である。これにより、タッチパネル制御装置10Bは、2人の人物のタッチ操作面での操作を同時に受け付ける。
 図12Dは、複数の操作対象デバイスに対して、互いに共通のタッチパネルディスプレイが設けられる場合の更に他の動作説明図である。この図12Dに示した2人の人物は、互いに異なった操作対象デバイスを、互いに共通のタッチパネル21を用いて操作し、且つ、そのタッチ操作面でのタッチ操作を許可された人物である。これにより、タッチパネル制御装置10Bは、2人の人物のタッチ操作面での操作を同時に受け付ける。このとき、タッチパネル制御装置10Bは、タッチ操作面のタッチ操作領域と、これに対応する表示部22の表示画面とを、人物の人数に基づいて、占有領域として2つに分割する。それらの分割方向は、人物の配置に基づいて行われる。
 但し、図12Aから図12Dに示したタッチパネル制御装置10Bは、車室内のアームレスト71~73に搭載されたタッチパネルディスプレイに適用しているが、机の上面及び壁面に埋め込まれたタッチパネルディスプレイに適用することもできる。
 以上より、実施の形態2に係るタッチパネル制御装置10Bは、画像データ取得部31によって取得された画像データに基づいて、タッチ操作面の周囲に存在する人物が複数であると判定した場合に、その複数の人物の中から、当該画像データに基づいて、タッチ操作面に対するタッチ操作を行おうとする人物を判定する操作者判定部37を備えている。また、操作許可判定部34は、視線判定部32の判定結果、動作判定部33の判定結果、及び、操作者判定部37の判定結果に基づいて、人物のタッチ操作面でのタッチ操作を許可するか否かを判定する。これにより、タッチパネル制御装置10Bは、タッチ操作面の周囲に存在する人物が複数であっても、意図しないタッチ操作を防止することができる。
 実施の形態2に係るタッチパネル制御装置10Bの操作許可判定部34は、視線判定部32によって、タッチ操作面に向いていると判定された視線と、動作判定部33によって、検出領域内に存在し、且つ、タッチ操作面に触れていない状態であると判定された手と、操作者判定部37によって、タッチ操作面に対するタッチ操作を行おうとする人物であると判定された人物とが関連付けられた場合に、視線判定部32によって判定された視線を有する人物と、動作判定部33によって判定された手を有する人物と、操作者判定部37によって判定された人物とが、一致していると判定し、この一致していると判定した人物のタッチ操作面でのタッチ操作を許可する。また、操作許可判定部34は、視線判定部32によって、タッチ操作面に向いていると判定された視線と、動作判定部33によって、検出領域内に存在し、且つ、タッチ操作面に触れていない状態であると判定された手と、操作者判定部37によって、タッチ操作面に対するタッチ操作を行おうとする人物であると判定された人物とが関連付けられない場合に、視線判定部32によって判定された視線を有する人物と、動作判定部33によって判定された手を有する人物と、操作者判定部37によって判定された人物とが、一致していないと判定し、この一致していないと判定した人物のタッチ操作面でのタッチ操作を許可しない。これにより、タッチパネル制御装置10Bは、タッチ操作面に向いている視線の人物と、タッチ操作面に対するタッチ操作を行おうとする手の人物とが、異なる場合であっても、意図しないタッチ操作を防止することができる。
 実施の形態2に係るタッチパネル制御装置10Bは、人物のタッチ操作面でのタッチ位置を検出するタッチセンサ14から、タッチ位置に関するタッチ位置情報を取得するタッチ位置情報取得部40を備えている。また、制御部35は、操作者判定部37によって判定された人物がタッチ操作面をタッチ操作したときに、タッチ位置情報取得部40によって取得されたタッチ位置情報に基づいて、当該人物に対するタッチ操作面のタッチ操作領域を設定する。これにより、タッチパネル制御装置10Bは、タッチ操作面でのタッチ操作を許可した人物がタッチ操作し易い位置で、当該人物のタッチ操作を行わせることができる。
 実施の形態2に係るタッチパネル制御装置10Bは、タッチ操作面をタッチ操作している手の指紋を検出する指紋センサ15から、指紋に関する指紋情報を取得する指紋情報取得部36を備えている。また、操作者判定部37は、画像データ取得部31によって取得された画像データ、及び、指紋情報取得部36によって取得された指紋情報に基づいて、タッチ操作面をタッチ操作している人物を判定する。これにより、タッチパネル制御装置10Bは、タッチ操作面でのタッチ操作を許可した人物が、タッチ操作をしている最中でも、当該人物が操作を許可した人物であるか否を判定することができる。
 実施の形態2に係るタッチパネル制御装置10Bの操作許可判定部34は、複数の操作対象デバイスが互いに共通のタッチ操作面を用いて操作される場合に、操作対象デバイスごとに、人物のタッチ操作面でのタッチ操作を許可するか否かを判定する。これにより、タッチパネル制御装置10Bは、複数の人物の中でも、タッチ操作面でのタッチ操作を許可した人物のタッチ操作のみを受け付けることができる。
 実施の形態2に係るタッチパネル制御装置10Bは、人物のタッチ操作面でのタッチ操作に対応する表示画面を、操作許可判定部34によって判定された人物ごとに対応して分割表示するための画像データを生成する画像処理部38と、画像処理部38が生成した画像データを、当該画像データを表示部22で表示可能となる画像に変換するための画像変換部13に出力する表示出力部39とを備えている。これにより、タッチパネル制御装置10Bは、複数の人物のタッチ操作面でのタッチ操作を同時に受け付けることができる。
 実施の形態2に係るタッチパネル制御装置10Bの制御部35は、画像処理部38が生成した画像データに基づいて、表示部22において分割表示された各表示画面に対応して、タッチ操作面のタッチ操作領域を占有領域として分割する。これにより、タッチパネル制御装置10Bは、複数の人物がタッチ操作面でのタッチ操作を行う場合であっても、他の人物のタッチ操作面でのタッチ操作を受け付けることはない。
 なお、本願発明は、その発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは、各実施の形態における任意の構成要素の変形、もしくは、各実施の形態における任意の構成要素の省略が可能である。
 この発明に係るタッチパネル制御装置及びタッチパネル制御方法は、人物のタッチ操作面でのタッチ操作を許可するか否かを判定して、意図しないタッチ操作を防止することができるので、タッチパネルを制御するタッチパネル制御装置及びタッチパネル制御方法等に用いるのに適している。
 1A,1B,2A,2B タッチパネルディスプレイ、3 制御ユニット、10A,10B タッチパネル制御装置、11 表示装置、12 カメラ、13 画像変換部、14 タッチセンサ、15 指紋センサ、16,17 I/F部、21 タッチパネル、22 表示部、31 画像データ取得部、32 視線判定部、33 動作判定部、34 操作許可判定部、35 制御部、36 指紋情報取得部、37 操作者判定部、38 画像処理部、39 表示出力部、40 タッチ位置情報取得部、51 プロセッサ、52 メモリ、53 処理回路、61,62 後部座席、71~73 アームレスト。

Claims (12)

  1.  タッチパネルのタッチ操作面における周囲を撮影するカメラから、撮影画像の画像データを取得する画像データ取得部と、
     前記画像データ取得部によって取得された画像データに基づいて、前記タッチ操作面の周囲に存在する人物の視線が、前記タッチ操作面に向いているか否かを判定する視線判定部と、
     前記画像データ取得部によって取得された画像データに基づいて、前記タッチ操作面の周囲に存在する人物の手が、前記タッチ操作面の前方に設定される検出領域内に存在し、且つ、前記タッチ操作面に触れていない状態であるか否かを判定する動作判定部と、
     前記視線判定部の判定結果、及び、前記動作判定部の判定結果に基づいて、人物の前記タッチ操作面でのタッチ操作を許可するか否かを判定する操作許可判定部と、
     前記操作許可判定部の判定結果に基づいて、前記タッチパネルを制御する制御部とを備える
     ことを特徴とするタッチパネル制御装置。
  2.  前記操作許可判定部は、
     前記視線判定部が、人物の視線が前記タッチ操作面に向いていると判定し、前記動作判定部が、人物の手が前記検出領域内に存在し、且つ、前記タッチ操作面に触れていない状態であると判定した場合に、人物の前記タッチ操作面でのタッチ操作を許可し、
     前記視線判定部が、人物の視線が前記タッチ操作面に向いていないと判定した場合に、人物の前記タッチ操作面でのタッチ操作を許可しない
     ことを特徴とする請求項1記載のタッチパネル制御装置。
  3.  前記操作許可判定部は、
     人物の前記タッチ操作面でのタッチ操作を一旦許可した後に、
     前記視線判定部が、人物の視線が前記タッチ操作面に向いていないと判定した場合、または、前記動作判定部が、人物の手が前記検出領域内に存在しないと判定した場合に、
     人物の前記タッチ操作面でのタッチ操作許可を解除する
     ことを特徴とする請求項2記載のタッチパネル制御装置。
  4.  前記画像データ取得部によって取得された画像データに基づいて、前記タッチ操作面の周囲に存在する人物が複数であると判定した場合に、その全ての人物の中から、当該画像データに基づいて、前記タッチ操作面に対するタッチ操作を行おうとする人物を判定する操作者判定部を備え、
     前記操作許可判定部は、
     前記視線判定部の判定結果、前記動作判定部の判定結果、及び、前記操作者判定部の判定結果に基づいて、人物の前記タッチ操作面でのタッチ操作を許可するか否かを判定する
     ことを特徴とする請求項1記載のタッチパネル制御装置。
  5.  前記操作許可判定部は、
     前記視線判定部によって、前記タッチ操作面に向いていると判定された視線と、前記動作判定部によって、前記検出領域内に存在し、且つ、前記タッチ操作面に触れていない状態であると判定された手と、前記操作者判定部によって、前記タッチ操作面に対するタッチ操作を行おうとする人物であると判定された人物とが関連付けられた場合に、前記視線判定部によって判定された視線を有する人物と、前記動作判定部によって判定された手を有する人物と、前記操作者判定部によって判定された人物とが、一致していると判定し、この一致していると判定した人物の前記タッチ操作面でのタッチ操作を許可し、
     前記視線判定部によって、前記タッチ操作面に向いていると判定された視線と、前記動作判定部によって、前記検出領域内に存在し、且つ、前記タッチ操作面に触れていない状態であると判定された手と、前記操作者判定部によって、前記タッチ操作面に対するタッチ操作を行おうとする人物であると判定された人物とが関連付けられない場合に、前記視線判定部によって判定された視線を有する人物と、前記動作判定部によって判定された手を有する人物と、前記操作者判定部によって判定された人物とが、一致していないと判定し、この一致していないと判定した人物の前記タッチ操作面でのタッチ操作を許可しない
     ことを特徴とする請求項4記載のタッチパネル制御装置。
  6.  人物の前記タッチ操作面でのタッチ位置を検出するタッチセンサから、タッチ位置に関するタッチ位置情報を取得するタッチ位置情報取得部を備え、
     前記制御部は、
     前記操作者判定部によって判定された人物が前記タッチ操作面をタッチ操作したときに、前記タッチ位置情報取得部によって取得されたタッチ位置情報に基づいて、当該人物に対する前記タッチ操作面のタッチ操作領域を設定する
     ことを特徴とする請求項4に記載のタッチパネル制御装置。
  7.  前記タッチ操作面をタッチ操作している手の指紋を検出する指紋センサから、指紋に関する指紋情報を取得する指紋情報取得部を備え、
     前記操作者判定部は、
     前記画像データ取得部によって取得された画像データ、及び、前記指紋情報取得部によって取得された指紋情報に基づいて、前記タッチ操作面をタッチ操作している人物を判定する
     ことを特徴とする請求項4記載のタッチパネル制御装置。
  8.  前記操作許可判定部は、
     複数の操作対象デバイスが互いに共通の前記タッチ操作面を用いて操作される場合に、前記操作対象デバイスごとに、人物の前記タッチ操作面でのタッチ操作を許可するか否かを判定する
     ことを特徴とする請求項4記載のタッチパネル制御装置。
  9.  人物の前記タッチ操作面でのタッチ操作に対応する表示画面を、前記操作許可判定部によって判定された人物ごとに対応して分割表示するための画像データを生成する画像処理部と、
     前記画像処理部が生成した画像データを、当該画像データを表示部で表示可能となる画像に変換するための画像変換部に出力する表示出力部とを備える
     ことを特徴とする請求項4記載のタッチパネル制御装置。
  10.  前記制御部は、
     前記画像処理部が生成した画像データに基づいて、前記表示部において分割表示された各表示画面に対応して、前記タッチ操作面のタッチ操作領域を占有領域として分割する
     ことを特徴とする請求項9記載のタッチパネル制御装置。
  11.  前記検出領域は、前記タッチ操作面に対して、垂直方向に設定される
     ことを特徴とする請求項1記載のタッチパネル制御装置。
  12.  画像データ取得部が、タッチパネルのタッチ操作面における周囲を撮影するカメラから、撮影画像の画像データを取得し、
     視線判定部が、前記画像データ取得部によって取得された画像データに基づいて、前記タッチ操作面の周囲に存在する人物の視線が、前記タッチ操作面に向いているか否かを判定し、
     動作判定部が、前記画像データ取得部によって取得された画像データに基づいて、前記タッチ操作面の周囲に存在する人物の手が、前記タッチ操作面の前方に設定される検出領域内に存在し、且つ、前記タッチ操作面に触れていない状態であるか否かを判定し、
     操作許可判定部が、前記視線判定部の判定結果、及び、前記動作判定部の判定結果に基づいて、人物の前記タッチ操作面でのタッチ操作を許可するか否かを判定し、
     制御部が、前記操作許可判定部の判定結果に基づいて、前記タッチパネルを制御する
     ことを特徴とするタッチパネル制御方法。
PCT/JP2019/002484 2019-01-25 2019-01-25 タッチパネル制御装置及びタッチパネル制御方法 WO2020152849A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2019/002484 WO2020152849A1 (ja) 2019-01-25 2019-01-25 タッチパネル制御装置及びタッチパネル制御方法
JP2020563804A JP6833146B2 (ja) 2019-01-25 2019-01-25 タッチパネル制御装置及びタッチパネル制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/002484 WO2020152849A1 (ja) 2019-01-25 2019-01-25 タッチパネル制御装置及びタッチパネル制御方法

Publications (1)

Publication Number Publication Date
WO2020152849A1 true WO2020152849A1 (ja) 2020-07-30

Family

ID=71736748

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/002484 WO2020152849A1 (ja) 2019-01-25 2019-01-25 タッチパネル制御装置及びタッチパネル制御方法

Country Status (2)

Country Link
JP (1) JP6833146B2 (ja)
WO (1) WO2020152849A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7014874B1 (ja) 2020-09-24 2022-02-01 レノボ・シンガポール・プライベート・リミテッド 情報処理装置及び情報処理方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009255903A (ja) * 2008-03-19 2009-11-05 Denso Corp 車両用操作入力装置
JP2011054069A (ja) * 2009-09-04 2011-03-17 Sharp Corp 表示装置及びプログラム
JP2014044735A (ja) * 2013-10-11 2014-03-13 Sony Corp 情報処理装置及び情報処理方法、並びにコンピューター・プログラム
JP2018032360A (ja) * 2016-08-28 2018-03-01 功 藤野 情報処理装置、制御方法およびプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009255903A (ja) * 2008-03-19 2009-11-05 Denso Corp 車両用操作入力装置
JP2011054069A (ja) * 2009-09-04 2011-03-17 Sharp Corp 表示装置及びプログラム
JP2014044735A (ja) * 2013-10-11 2014-03-13 Sony Corp 情報処理装置及び情報処理方法、並びにコンピューター・プログラム
JP2018032360A (ja) * 2016-08-28 2018-03-01 功 藤野 情報処理装置、制御方法およびプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7014874B1 (ja) 2020-09-24 2022-02-01 レノボ・シンガポール・プライベート・リミテッド 情報処理装置及び情報処理方法
JP2022053121A (ja) * 2020-09-24 2022-04-05 レノボ・シンガポール・プライベート・リミテッド 情報処理装置及び情報処理方法

Also Published As

Publication number Publication date
JPWO2020152849A1 (ja) 2021-02-18
JP6833146B2 (ja) 2021-02-24

Similar Documents

Publication Publication Date Title
US10894476B2 (en) Display system in a vehicle and a method for control thereof
US7489303B1 (en) Reconfigurable instrument panels
US20100182137A1 (en) Control systems involving novel physical controls and touch screens
CN105027062A (zh) 信息处理装置
JP3938193B2 (ja) データ処理装置
WO2007066488A1 (ja) 表示装置及びタッチパネル操作制御方法
WO2007141941A1 (ja) 表示装置および同装置における操作制限方法
GB2428094A (en) A controller for an input device, an input device, and a method of using an input device
JP6275363B1 (ja) エレベータ表示システム
CN110341475B (zh) 车辆用显示装置
WO2020152849A1 (ja) タッチパネル制御装置及びタッチパネル制御方法
US20200169705A1 (en) Vehicle system
JP2007099191A (ja) データ処理装置
JP2006506681A (ja) ミラーディスプレイメッセージボード
CN113226827B (zh) 具有便携式接口单元的操作系统和具有操作系统的机动车
JP4888063B2 (ja) 手動操作装置
JP5857183B2 (ja) ジェスチャー解読装置
US11602992B2 (en) Method for displaying points of interest on a digital map
KR20150067679A (ko) 차량용 제스처 인식 시스템 및 그 방법
JP2013196457A (ja) 表示装置、表示方法、及び表示プログラム
JP2011250198A (ja) 情報入力装置
WO2020044734A1 (ja) 情報提供システムおよび情報提供方法
JP2018180851A (ja) ユーザインタフェースシステム
US11320669B2 (en) Non-contact operating apparatus for vehicle and vehicle
US11281316B2 (en) Dynamic touch user interface systems and methods

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19911785

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020563804

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19911785

Country of ref document: EP

Kind code of ref document: A1