WO2011127836A1 - 触摸定位方法和系统、以及显示器 - Google Patents

触摸定位方法和系统、以及显示器 Download PDF

Info

Publication number
WO2011127836A1
WO2011127836A1 PCT/CN2011/072848 CN2011072848W WO2011127836A1 WO 2011127836 A1 WO2011127836 A1 WO 2011127836A1 CN 2011072848 W CN2011072848 W CN 2011072848W WO 2011127836 A1 WO2011127836 A1 WO 2011127836A1
Authority
WO
WIPO (PCT)
Prior art keywords
touch object
touch
information
mirrored
position information
Prior art date
Application number
PCT/CN2011/072848
Other languages
English (en)
French (fr)
Inventor
刘平
叶新林
刘建军
刘新斌
Original Assignee
北京汇冠新技术股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 北京汇冠新技术股份有限公司 filed Critical 北京汇冠新技术股份有限公司
Priority to US13/641,433 priority Critical patent/US20130027357A1/en
Priority to KR1020127030013A priority patent/KR20130052567A/ko
Priority to JP2013504109A priority patent/JP2013525884A/ja
Publication of WO2011127836A1 publication Critical patent/WO2011127836A1/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0428Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form

Definitions

  • the present invention relates to the field of optoelectronic technologies, and in particular, to a touch positioning method and system, and a display. Background technique
  • the camera touch screen With the camera touch screen, two camera images are used to collect the image data of the touch detection area. According to the position information of the touch object in the image data, the position of the touch object and the connection between the optical centers of the two cameras and the optical centers of the two cameras can be determined. The angle between the connections, and then triangulation, can be used to calculate the position of the touch object.
  • the camera touch screen can precisely locate the touch object.
  • the “ghost point” appears when the touch screen with the camera calculates the position information of the touch object. At this time, the touch screen with the camera head cannot accurately position the touch object.
  • “ghost point” refers to the non-actual touch object. Summary of the invention
  • the present invention provides a touch positioning method and system, and a display for accurately positioning a touch object during positioning of two or more touch objects.
  • the present invention provides a touch positioning method applied to an optical touch screen including a touch detection area, two imaging devices, a light source, and a mirror, the touch detection area and the touch detection area being mirrored with respect to the mirror
  • the touch detection zones are all located within the field of view of each imaging device, the method comprising:
  • the invention also provides a touch positioning system, comprising: An optical touch screen comprising a touch detection area, two imaging devices, a light source and a mirror, the touch detection area and the mirrored touch detection area of the touch detection area with respect to the mirror are located at each imaging device Within the field of view;
  • a touch object position information acquiring module configured to acquire position information of the touch object according to the actual touch object collected by the two imaging devices and the image data of the actual touch object with respect to the mirror touch object of the mirror,
  • the touch object includes the actual touch object and the virtual touch object;
  • the actual touch object position information acquiring module is configured to obtain, according to the image relationship between the actual touch object and the mirrored touch object of the actual touch object, and the position information of the touch detection area, from the position information of the touch object The location information of the actual touch object.
  • the present invention also provides a display comprising a display unit, further comprising a touch positioning system as described above.
  • the processing unit acquires location information of the touch object according to the actual touch object collected by the two imaging devices and the image data of the actual touch object with respect to the mirrored touch object of the mirror, and then, the processing unit according to the actual touch object and The mirror relationship of the actual touch object of the touch object acquires the position information of the actual touch object from the position information of the touch object, thereby avoiding the occurrence of "ghost points" in the process of locating two or more touch objects, and accurately positioning the touch object position.
  • FIG. 1 is a schematic structural diagram of an optical touch screen in a first embodiment of a touch positioning method according to the present invention
  • FIG. 2 is a schematic flow chart of a first embodiment of a touch positioning method according to the present invention.
  • FIG. 3 is a schematic flow chart of a second embodiment of a touch positioning method according to the present invention.
  • FIG. 4 is a schematic diagram of a working process of an optical touch screen in a second embodiment of the touch positioning method of the present invention.
  • FIG. 5 is a schematic flowchart diagram of a third embodiment of a touch positioning method according to the present invention.
  • FIG. 6 is a schematic flow chart of a fourth embodiment of a touch positioning method according to the present invention.
  • FIG. 7 is a schematic diagram of a working process of an optical touch screen in a fourth embodiment of the touch positioning method according to the present invention.
  • FIG. 8 is a schematic flow chart of a fifth embodiment of a touch positioning method according to the present invention.
  • FIG. 9 is a schematic flow chart of a sixth embodiment of a touch positioning method according to the present invention.
  • FIG. 10 is a schematic diagram of a working process of an optical touch screen in a sixth embodiment of the touch positioning method according to the present invention
  • FIG. 11 is a schematic flowchart of a seventh embodiment of the touch positioning method according to the present invention.
  • FIG. 12 is a schematic structural view of a first embodiment of a touch positioning system according to the present invention.
  • FIG. 13 is a schematic structural view of a second embodiment of a touch positioning system according to the present invention
  • 14 is a schematic structural view of a third embodiment of a touch positioning system according to the present invention
  • FIG. 15 is a schematic structural view of a fourth embodiment of a touch positioning system according to the present invention.
  • FIG. 16 is a schematic structural diagram of a fifth embodiment of a touch positioning system according to the present invention.
  • FIG. 17 is a schematic structural view of a sixth embodiment of a touch positioning system according to the present invention.
  • FIG. 18 is a schematic structural diagram of a seventh embodiment of a touch positioning system according to the present invention.
  • 19 is a schematic structural view of an embodiment of a display of the present invention. detailed description
  • the embodiment is applied to an optical touch screen comprising a touch detection area, two imaging devices, a light source and a mirror, and the touch detection area and the touch detection area of the touch detection area are located on each imaging device. Within the field of view.
  • FIG. 1 it is a schematic structural diagram of an optical touch screen according to a first embodiment of the touch positioning method of the present invention, the optical touch screen includes a touch screen frame, a touch detection area 15 , and two imaging systems.
  • the device, the light source 13, the mirror 14 and the processing unit (not shown), the touch screen frame includes a first edge 111, a second edge 112, a third edge 113 and a fourth edge 114, and the inside of the touch screen frame is a touch detection area 15,
  • the two imaging devices include a first imaging device 121 mounted at an intersection of the first edge 111 and the second edge 112, and a second imaging device 122 mounted at the first edge 111 and At the intersection of the four edges 114, the mirror 14 is mounted on the third edge 113, and the light source 13 is mounted on the first edge 111, the second edge 112 and the fourth edge 114.
  • the fields of view of the first imaging device 121 and the second imaging device 122 cover the entire touch detection area 15 and the touch detection area 15 with respect to the mirror touch detection area of the mirror 14, and the reflection surface of the mirror 14 faces the first edge 111.
  • the light source 13 includes the illuminant 131, the light guide 132, and The reflector 133 is disposed at a port of the light guide 132.
  • the reflector 133 is formed at a side of the light guide 132 away from the touch detection area 15.
  • the reflector 133 is separated from the light guide 132, and the illuminator 131 emits The light is incident on the light guide 132 and transmitted in the light guide 132.
  • the light source 13 can also be a set of infrared emission tubes, and the light emitting surface faces the touch detection area 15.
  • FIG. 2 it is a schematic flowchart of a touch positioning method according to a first embodiment of the present invention, which may include the following steps:
  • Step 21 The processing unit acquires location information of the touch object.
  • the processing unit acquires location information of the touch object according to the actual touch object collected by the two imaging devices and the image data of the actual touch object with respect to the mirrored touch object of the mirror, where the touch object includes the actual touch object and the virtual touch object;
  • the processing unit may acquire the location information of the touch object by using the following method: First, the processing unit obtains according to the actual touch object collected by the two imaging devices and the image data of the actual touch object with respect to the mirror touch object of the mirror.
  • the information and the second direction information, and the first direction information and the second direction information of the mirrored touch object of the actual touch object are obtained by triangulation to obtain the position information of the touch object.
  • the first direction information may be a first angle
  • the second direction information may specifically be a second angle
  • the first angle of the touch object includes a location where the touch object is located and an optical center of the first imaging device.
  • the angle between the connection and the connection of the optical centers of the two imaging devices, the second angle of the touch object includes the position of the touch object and the connection of the optical center of the second imaging device with the optical centers of the two imaging devices
  • the angle of the connection, the first direction information of the touch object about the mirrored touch object of the mirror includes the position of the mirrored touch object of the touch object and the connection of the optical center of the first imaging device with the optical center of the two imaging devices
  • the angle between the lines, the second angle of the mirrored object of the touch object includes the angle between the position of the mirrored touch object of the touch object and the line connecting the optical center of the second imaging device and the line connecting the optical centers of the two imaging devices
  • the first angle of the actual touch object is the angle between the connection between the actual touch object and the optical center of the first
  • processing unit can acquire 2N first angles and 2N second angles.
  • processing unit a first angle and a second angle may acquire location information according to a touch object, the processing unit may acquire the position information of a total of (2N) 2 touch object, N is equal to or greater than 1, Natural number.
  • Step 22 The processing unit acquires location information of the actual touch object.
  • the processing unit acquires the location information of the actual touch object from the location information of the touch object according to the mirror relationship of the actual touch object and the mirror image of the actual touch object and the position information of the touch detection area.
  • step 21 the processing unit acquires according to the actual touch objects P1 and P2 collected by the first imaging device 121 and the second imaging device 122, and the image data of the mirrored touches P1, P2' of the actual touch objects P1 and P2.
  • the processing unit can obtain 16 according to the first angle and the second angle of the actual touch objects P1 and P2 and the first angle and the second angle of the mirrored objects P and P2 of the actual touch objects P1 and P2.
  • Position information of the touch object including position information of the actual touch objects P1 and P2 and position information of another 14 virtual touch objects, the position information of the other 14 virtual touch objects including the mirror touch of the actual touch objects P1 and P2 Location information of objects P1' and P2'.
  • the processing unit may obtain the actual touch object P1 from the position information of the 16 touch objects according to the actual touch objects P1 and P2, and the mirror relationship of the mirrored touch objects ⁇ and P2' of the actual touch objects P1 and P2. Location information of P2.
  • the processing unit acquires location information of the touch object according to the actual touch object collected by the two imaging devices and the image data of the actual touch object with respect to the mirrored touch object of the mirror, and then, the processing unit according to the actual touch object and The mirror relationship of the actual touch object and the position information of the touch detection area, and the position information of the actual touch object is obtained from the position information of the touch object, thereby avoiding the occurrence of "ghost" in the process of locating two or more touch objects. Click " to pinpoint the location of the touch object.
  • Step 31 The processing unit acquires the location information of the first touch object and the location information of the second touch object. Specifically, the location information of the touch detection area of the optical touch screen is known, and the processing unit may be based on the location information of the touch detection area. Acquiring the position information of the first touch object and the position information of the second touch object from the position information of the touch object, the first touch object includes a touch object located in the touch detection area of the optical touch screen, and the second touch object includes the touch detection area External touch object;
  • Step 32 The processing unit acquires the location information of the actual touch object according to the location information of the first touch object. Specifically, for each first touch object, first, the processing unit may acquire the first location according to the location information of the first touch object. a touch object with respect to the position information of the mirror of the mirror, and then, when the first touch object is the actual touch object, the image touch of the first touch object with respect to the mirror exists in the position information of the second touch object Position information of the object, when the first touch object is a virtual touch object, the position information of the first touch object with respect to the mirror touch object of the mirror is not present in the position information of the second touch object, and therefore, the processing unit can compare The position information of the mirrored touch object of the first touch object and the position information of the second touch object, when the position information of the mirror touch object of the first touch object exists in the position information of the second touch object, the first touch The location information of the object is used as the location information of the actual touch object.
  • the working process of the embodiment is briefly described by taking two actual touch objects as an example: As shown in FIG. 4, it is a working process diagram of the optical touch screen in the second embodiment of the touch positioning method of the present invention, and the structure of the optical touch screen and FIG.
  • the structure of the optical touch screen is the same as the following.
  • the working process of the optical touch screen is as follows: In step 21, the processing unit acquires the location information of the touch object. The specific working process of the step is the same as that of step 21 of the previous embodiment, and details are not described herein again. In step 31, the processing unit acquires the location information of the first touch object and the location information of the second touch object from the location information of the touch object.
  • step 32 for each first touch object, for example: the first touch object P3, first, the processing unit may acquire the mirrored touch object of the first touch object P3 with respect to the mirror 14 according to the position information of the first touch object P3. P3, the location information, then, the processing unit can compare the location information of the mirrored touch object P3 of the first touch object P3 with the location information of the second touch object, and the first touch object P3 exists in the location information of the second touch object
  • the position information of the touch object P3' is mirrored
  • the first touch object P3 is the actual touch object
  • the position information of the first touch object P3 can be used as the position information of the actual touch object, and the position information of the second touch object does not exist.
  • the first touch object P3 mirrors the touch object P3, the first touch object P3 is a virtual touch object.
  • the processing unit performs step 32 for all of the first touches, the location information of all the actual touch objects can be obtained.
  • the processing unit acquires position information of the touch object according to the actual touch object collected by the two imaging devices and the image data of the actual touch object with respect to the mirror touch object of the mirror, and then the processing unit receives the touch object.
  • the processing unit acquires position information of the mirrored touch object of the first touch object with respect to the mirror according to the position information of the first touch object, where the first touch object exists in the position information of the second touch object.
  • the position information of the first touch object is used as the position information of the actual touch object, thereby avoiding the occurrence of "ghost points" in the process of locating two or more touch objects, and accurately positioning the touch object.
  • step 32 can be as follows:
  • Step 51 The processing unit acquires the location information of the actual touch object according to the location information of the second touch object. Specifically, for each second touch object, the processing unit acquires the second touch object according to the location information of the second touch object. Regarding the position information of the mirrored touch object of the mirror, when the position information of the mirrored touch object of the second touch object with respect to the mirror is the actual touch object, the second touch object exists in the position information of the first touch object.
  • Position information of the mirrored touch object of the mirror when the position information of the mirrored touch object of the second touch object with respect to the mirror is not the actual touch object, the second touch object is not reflected in the position information of the first touch object
  • the position information of the mirrored object of the mirror so that the processing unit can compare the position information of the mirrored touch object of the second touch object with the position information of the first touch object, and the first position information of the first touch object exists.
  • the position information of the touch object is mirrored by the touch object
  • the position information of the mirror touch object of the second touch object is used as the real The position information of the touch object.
  • step 51 of this embodiment is similar to the working process of step 32 of the previous embodiment, except that step 32 of the previous embodiment is obtained according to the mirrored touch object of the actual touch object in the second touch object.
  • the actual touch object, step 51 of the embodiment acquires the actual touch object according to the mirror touch object of the mirror touch object of the actual touch object in the first touch object.
  • the processing unit acquires position information of the touch object according to the actual touch object collected by the two imaging devices and the image data of the actual touch object with respect to the mirror touch object of the mirror, and then the processing unit receives the touch object.
  • the processing unit acquires the second touch object about the mirror according to the location information of the second touch object.
  • the position information of the mirrored touch object, and the position information of the mirrored touch object of the second touch object is compared with the position information of the first touch object, and the mirror image of the second touch object exists in the position information of the first touch object
  • the position information of the mirrored touch object of the second touch object is used as the position information of the actual touch object, thereby avoiding the occurrence of "ghost points" in the process of locating two or more touch objects, and accurately positioning the touch.
  • the location of the object Touch positioning method fourth embodiment
  • step 22 may include the following steps:
  • Step 61 The processing unit acquires location information of the first touch object.
  • the processing unit may acquire the location information of the first touch object from the location information of the touch object according to the location information of the touch detection area, where the first touch object includes a touch object in the touch detection area of the optical touch screen;
  • Step 62 The processing unit acquires location information of the actual touch object according to the location information of the first touch object and the location information of the touch object.
  • the processing unit performs the following processing: the processing unit acquires, according to the location information of the first touch object, location information of the mirrored touch object of the first touch object with respect to the mirror, according to the first And acquiring, by the location information of the mirrored object of the touch object, the first direction information and the second direction information of the mirrored touch object of the first touch object, where the first direction information of the mirrored touch object of the first touch object includes the first touch
  • the position of the mirrored object of the object is relative to the direction of the optical center of the first imaging device
  • the second direction information of the mirrored touch object of the first touch object includes the position of the mirrored touch object of the first touch object relative to the second imaging
  • the second direction information and the first direction information of the mirrored touch object of the first touch object acquire position information of the fourth touch object, and the first touch
  • the first touch object is a virtual touch object. After the processing unit performs the above processing on all the first touch objects, position information of all the actual touch objects can be obtained.
  • the first direction information may be a first angle
  • the second direction information may be a second angle.
  • the first angle of the first touch object is the location of the first touch object and the first The angle between the connection of the optical center of the imaging device and the line connecting the optical centers of the two imaging devices, and the second angle of the first touch object is the connection between the position of the first touch object and the optical center of the second imaging device
  • the angle between the line and the line connecting the optical centers of the two imaging devices, the first angle of the mirrored touch object of the first touch object is the position of the mirrored touch object of the first touch object and the light of the first imaging device
  • the angle between the connection of the heart and the line connecting the optical centers of the two imaging devices, the second angle of the mirrored touch of the first touch object is the position of the mirrored touch object of the first touch object and the position of the second imaging device
  • FIG. 7 it is a schematic diagram of the working process of the optical touch screen in the fourth embodiment of the touch positioning method of the present invention.
  • the structure of the optical touch screen is the same as that shown in FIG. 1 .
  • the working process of this embodiment is as follows: The processing unit obtains the location information of the touch object, and the specific working process of the step is the same as the step 21 of the first embodiment of the touch positioning method, and details are not described herein again.
  • step 61 the processing unit acquires the location information of the first touch object from the location information of the touch object.
  • step 62 for each first touch object, for example: the first touch object P3, the processing unit acquires the mirrored touch object P3' of the first touch object P3 with respect to the mirror 14 according to the position information of the first touch object P3.
  • Position information according to position information of the mirrored touch object P3 of the first touch object P3, acquiring a first angle and a second angle of the mirrored touch object P3' of the first touch object P3, according to the first touch object P3
  • the location information is compared with the location information of the touch object, and the location information of the mirrored touch object of the first
  • the processing unit acquires position information of the touch object according to the actual touch object collected by the two imaging devices and the image data of the actual touch object with respect to the mirror touch object of the mirror, and then the processing unit receives the touch object.
  • the processing unit acquires location information of the mirrored touch object of the first touch object about the mirror according to the location information of the first touch object, Obtaining, according to the location information of the mirrored touch object of the first touch object, first direction information and second direction information of the mirrored touch object of the first touch object, according to the first direction information of the first touch object and the second Direction information, and first direction information and second direction information of the mirrored touch object of the first touch object, acquiring position information of the third touch object and the fourth touch object, where the first touch exists in the position information of the touch object The first touch when the position information of the object mirror image, the position information of the third touch object, and the position information of the fourth touch object Position information as the
  • step 22 may include the following steps:
  • Step 81 The processing unit acquires location information of the second touch object.
  • the processing unit may acquire the location information of the second touch object from the location information of the touch object according to the location information of the touch detection area, where the second touch object includes a touch object outside the touch detection area of the optical touch screen;
  • Step 82 The processing unit acquires location information of the actual touch object according to the location information of the second touch object and the location information of the touch object.
  • the processing unit performs the following processing: the processing unit acquires, according to the location information of the second touch object, location information of the mirrored touch object of the second touch object with respect to the mirror, according to the second And acquiring, by the location information of the mirrored object of the touch object, the first direction information and the second direction information of the mirrored touch object of the second touch object, where the first direction information of the mirrored touch object of the second touch object includes the second touch a direction in which the mirrored object of the object is located in a line with the optical center of the first imaging device and a line connecting the optical centers of the two imaging devices, and the second direction information of the mirrored touch object of the second touch object includes the second a direction of a line connecting the mirrored object of the touch object and a line connecting the optical center of the second imaging device to the optical center of the two imaging devices, according to the first direction information of the second touch object and the second touch object
  • the second direction information of the mirrored object obtaining position information of the fifth touch object, according to the
  • the first direction information may be a first angle
  • the second direction information may be a second angle
  • the first angle of the second touch object is the location of the second touch object and the first The angle between the connection of the optical center of the imaging device and the connection of the optical centers of the two imaging devices
  • the second angle of the second touch object is the connection between the position of the second touch object and the optical center of the second imaging device
  • the first angle of the mirrored touch object is the angle between the position of the mirrored touch object of the second touch object and the connection between the optical center of the first imaging device and the optical center of the two imaging devices
  • the second touch The second angle of the mirrored object of the object is the angle between the location of the mirrored touch object of the second touch object and the line connecting the optical center of the second imaging device and the optical center of the two imaging devices.
  • the method of this embodiment is similar to the previous embodiment, except that the second touch object located outside the touch detection area is used in the embodiment, and the first touch object located in the touch detection area is used in the previous embodiment. .
  • the processing unit acquires position information of the touch object according to the actual touch object collected by the two imaging devices and the image data of the actual touch object with respect to the mirror touch object of the mirror, and then the processing unit receives the touch object.
  • the processing unit acquires location information of the second touch object in the location information
  • the processing unit acquires location information of the mirrored touch object of the second touch object with respect to the mirror according to the location information of the second touch object, Obtaining, according to the location information of the mirrored touch object of the second touch object, the first direction information and the second direction information of the mirrored touch object of the second touch object, and according to the first direction information of the second touch object and the second Direction information, and first direction information and second direction information of the mirrored touch object of the second touch object, acquiring position information of the fifth touch object and the sixth touch object, where the second touch exists in the position information of the touch object When the position information of the object of the object is mirrored, the position information of the fifth touch object, and the position information of the sixth touch object
  • step 22 may include the following steps:
  • Step 91 The processing unit acquires location information of the first touch object.
  • the processing unit acquires location information of the first touch object from the location information of the touch object according to the location information of the touch detection area, where the first touch object includes a touch object located in the touch detection area of the optical touch screen;
  • Step 92 The processing unit acquires all the first touch object groups from the first touch object;
  • each first touch object group includes a first touch object of the actual number of touch objects, assuming that the number of the first touch objects is M, M is a natural number greater than or equal to 2, and the number of actual touch objects is N, N is a natural number greater than or equal to 2, and N is less than or equal to M, and the number of the first touch object group is fl.
  • Step 93 The processing unit acquires an error of all the first touch object groups
  • the processing unit acquires position information of the mirrored touch object of the first touch object with respect to the mirror according to the position information of the first touch object in the first touch object group, according to the first Touch object
  • the position information of the mirrored touch object acquires the first direction information and the second direction information of the mirrored touch object of the first touch object
  • the first direction information of the mirrored touch object of the first touch object includes the mirrored touch object of the first touch object
  • the second direction information of the mirrored touch object of the first touch object includes the direction of the position of the mirrored touch object of the first touch object relative to the optical center of the second imaging device, with respect to the direction of the optical center of the first imaging device.
  • the position information of the touch object and the position information of the touch object acquire the sum of the squares of the distances between the first suspected touch object and the touch object, and the sum of the squares of the distances is used as the error of the first touch object group, wherein the first touch object is the first The direction information and the first direction information of the mirrored touch object of the first touch object and the first direction information of the actual touch object and the mirror touch of the actual touch object
  • the first direction information is in one-to-one correspondence according to the size order
  • the second direction information of the touch object is sequentially arranged in a size order, so that the position information of each first suspected touch object
  • Step 94 The processing unit acquires location information of the actual touch object according to the error of all the first touch object groups; specifically, the processing unit compares the errors of all the first touch object groups, and minimizes the error (ie, the minimum mean square error).
  • the position information of the first touch object in a touch object group is used as the position information of the actual touch object.
  • the first direction information may be a first angle
  • the second direction information may be a second angle.
  • the first angle of the first touch object is the location of the first touch object and the first The angle between the connection of the optical center of the imaging device and the line connecting the optical centers of the two imaging devices
  • the second angle of the first touch object is the connection between the position of the first touch object and the optical center of the second imaging device
  • the angle between the line and the line connecting the optical centers of the two imaging devices, the first angle of the mirrored touch object of the first touch object is the position of the mirrored touch object of the first touch object and the optical center of the first imaging device
  • the angle between the connection and the connection of the optical centers of the two imaging devices, the second angle of the mirrored touch object of the first touch object is the position of the mirrored touch object of the first touch object and the light center of the second imaging device
  • the optical touch screen has the same structure as the optical touch screen shown in FIG. 1.
  • the working process of the optical touch screen is as follows: In step 21, The processing unit obtains the location information of the touch object, and the specific working process of the step is the same as the step 21 of the first embodiment of the touch positioning method, and details are not described herein again. In step 91, the processing unit acquires location information of the first touch object.
  • step 92 at The processing unit acquires all the first touch object groups, and in step 93, for the first touch object in each first touch object group, for example: first touch objects P3 and P4, wherein the first touch objects P3 and P4 The first angle and the second angle have been obtained in step 21, and the processing unit acquires position information of the actual touches P3 and P4 with respect to the mirrored touches P3' and P4' of the mirror 14, according to the first touch object P3 and The positional information of the mirrored touch objects P3' and P4' of P4, the first angle and the second angle of the mirrored touch object P3 of the first touch object P3, and the mirrored touch object P4' of the first touch object P4 The first angle and the second angle are further according to the first angle and the second angle of the first touch objects P3 and P4, and the mirrored touches P3, and P4 of the first touch objects P3 and P4, An angle between the angle and the second angle, obtaining position information of the first suspected touch object, and obtaining a square sum of distances between the first
  • first angle of the first touch objects P3 and P4 and the first angle of the mirrored touch objects P3, and P4' of the first touch objects P3 and P4 and the first angle and actual of the actual touch objects P1 and P2 The first angles of the mirrored objects ⁇ and P2 of the touch objects P1 and P2 are in order of magnitude - correspondingly, the second angle of the first touch objects P3 and P4 and the mirrored touch object P3 of the first touch objects P3 and P4
  • the second angle between 'and P4' and the second angle of the actual touch objects P1 and P2 and the second angle of the mirrored touch objects P and P2 of the actual touch objects P1 and P2 are in order of magnitude - corresponding to each
  • the position information of the first suspected touch object and the position information of each touch object correspond to the corresponding relationship between the first angle and the second angle according to the position information of each first suspected touch object and the position information of each touch object. stand up.
  • the processing unit compares the errors of all the first touch object groups, and
  • the processing unit acquires location information of the touch object according to the actual touch object collected by the two imaging devices and the image data of the actual touch object with respect to the mirrored touch object of the mirror, and the processing unit is from the position information of the touch object.
  • Obtaining location information of the first touch object acquiring all first touch object groups from the first touch object, and then the processing unit acquires errors of all the first touch object groups, and finally the processing unit compares errors of all the first touch object groups,
  • the position information of the first touch object in the first touch object group with the smallest error is used as the position information of the actual touch object, thereby avoiding the occurrence of "ghost points" in the process of locating two or more touch objects, and accurately positioning the touch object position.
  • step 22 may include the following steps:
  • Step 111 The processing unit acquires location information of the second touch object.
  • the processing unit acquires location information of the second touch object from the location information of the touch object according to the location information of the touch detection area, where the second touch object includes a touch object located outside the touch detection area;
  • Step 112 The processing unit acquires all the second touch object groups from the second touch object;
  • each second touch object group includes a second touch object of the actual number of touch objects
  • Step 113 The processing unit acquires an error of all the second touch object groups
  • the processing unit acquires location information of the second touch object about the mirrored touch object of the mirror according to the location information of the second touch object in the second touch object group, according to the second And acquiring, by the location information of the mirrored object of the touch object, the first direction information and the second direction information of the mirrored touch object of the second touch object, where the first direction information of the mirrored touch object of the second touch object includes a mirror image of the second touch object
  • the second direction information of the mirrored touch object of the second touch object includes the position of the mirrored touch object of the second touch object relative to the optical center of the second image forming device.
  • the position information of the suspected touch object and the position information of the touch object, and the sum of the squares of the distance between the second suspected touch object and the touch object, and the distance The squared sum is the error of the second touch object group; wherein the first direction information of the second touch object and the first direction information of the mirrored touch object of the second touch object and the first direction information of the actual touch object and the actual touch object.
  • the first direction information of the mirrored touch object is in one-to-one correspondence according to the size order, the second direction information of the second touch object and the second direction information of the mirrored touch object of the second touch object and the second direction information and actual of the actual touch object
  • the second direction information of the mirrored touch object of the touch object is sequentially arranged in order of magnitude, so that the position information of each second suspected touch object and the
  • Step 114 The processing unit acquires position information of the actual touch object according to the error of all the second touch object groups. Specifically, the processing unit compares the errors of all the second touch object groups, and minimizes the error (ie, the minimum mean square error).
  • the position information of the mirrored touch object of the second touch object in the two touch object group is used as the position information of the actual touch object.
  • the method of this embodiment is similar to the method of the previous embodiment, except that the second touch object located outside the touch detection area is used in the embodiment, and the first touch is used in the touch detection area in the previous embodiment. Things.
  • the first direction information may be a first angle
  • the second direction information may be a second angle
  • the first angle of the second touch object is the location of the second touch object and the first
  • the second angle of the second touch object is the connection between the position of the second touch object and the optical center of the second imaging device
  • the angle between the line and the line connecting the optical centers of the two imaging devices, the first angle of the mirrored touch object of the second touch object is the position of the mirrored touch object of the second touch object and the optical center of the first imaging device
  • the angle between the connection and the line connecting the optical centers of the two imaging devices, and the second angle of the mirrored touch of the second touch object An angle between a line connecting the mirrored object of the second touch object and a line connecting the optical centers of the second imaging device and the optical centers of the two imaging devices.
  • the processing unit acquires location information of the touch object according to the actual touch object collected by the two imaging devices and the image data of the actual touch object with respect to the mirrored touch object of the mirror, and the processing unit is from the position information of the touch object.
  • FIG. 12 it is a schematic structural diagram of a touch positioning system according to a first embodiment of the present invention, which may include an optical touch screen 1201, a touch object position information acquiring module 1202, and an actual touch object position information acquiring module 1203.
  • the touch object position information acquisition module 1202 is connected to the optical touch screen 1201, and the actual touch object position information acquisition module 1203 is connected to the touch object position information acquisition module 1202.
  • the optical touch screen 1201 includes a touch detection area, two imaging devices, a light source and a mirror, and the touch detection area and the touch detection area of the touch detection area with respect to the mirror are located in the field of view of each imaging device.
  • the optical touch screen 1201 can also include a touch screen frame.
  • the specific structure can be seen in FIG. 1 , and details are not described herein.
  • the touch object position information acquisition module 1202 is configured to obtain position information of the touch object according to the actual touch object collected by the two imaging devices and the image data of the actual touch object with respect to the mirror touch object of the mirror, the touch object includes the actual touch object and the virtual touch object. Touch the object.
  • the actual touch object position information acquisition module 1203 is configured to obtain the position information of the actual touch object from the position information of the touch object according to the mirror relationship of the actual touch object and the mirror image of the actual touch object and the position information of the touch detection area.
  • the touch object position information acquiring module 1202 may include a direction acquiring unit 1221 and a touch object position information acquiring unit 1222.
  • the direction acquiring unit 1221 is connected to the two imaging devices of the optical touch screen 1201, and the touch object position information acquiring unit 1222 is connected to the actual touch object position information acquiring module 1203 and the direction acquiring unit 1221.
  • the direction obtaining unit 1221 is configured to acquire first direction information and second direction information of the actual touch object, and actual touch according to the actual touch object collected by the two imaging devices and the image data of the actual touch object with respect to the mirrored touch object of the mirror.
  • the first direction information and the second direction information of the object of the object, wherein the actual touch object The first direction information includes a direction in which the actual touch object is located relative to the optical center of the first imaging device, and the second direction information of the actual touch object includes a direction in which the actual touch object is located relative to the optical center of the second imaging device, the actual touch
  • the first direction information of the mirrored object of the object includes the direction of the position of the mirrored touch object of the actual touch object relative to the optical center of the first imaging device, and the second direction information of the mirrored touch object of the actual touch object includes the image of the actual touch object.
  • the touch object position information acquiring unit 1222 is configured to acquire the position information of the touch object according to the first direction information and the second direction information of the actual touch object, and the first direction information and the second direction information of the mirrored touch object of the actual touch object. Specifically, the touch object position information acquiring unit 1222 can acquire the position information of the touch object by using the triangulation method.
  • the two imaging devices include a first imaging device and a second imaging device.
  • the first direction information may specifically be a first angle
  • the second direction information may specifically be a second angle, the first of the touch object.
  • the included angle includes an angle between a line where the touch object is located and an optical center of the first imaging device and a line connecting the optical centers of the two imaging devices
  • the second angle of the touch object includes the position of the touch object and the second imaging device
  • the angle between the connection of the optical center and the connection of the optical centers of the two imaging devices, the first direction information of the mirrored touch object of the touch object with respect to the mirror includes the location of the mirrored touch object of the touch object and the position of the first imaging device
  • the angle between the connection of the optical center and the connection of the optical centers of the two imaging devices, and the second angle of the mirrored touch object of the touch object includes the position of the mirrored touch object of the touch object and the optical center of the second imaging device
  • the first angle of the actual touch object is the connection between the actual touch object position and the optical center of the first imaging device and the light of the two imaging devices.
  • Heart The angle between the lines, the second angle of the actual touch object is the angle between the actual touch object position and the connection between the optical center of the second imaging device and the optical center of the two imaging devices, and the actual touch object is mirrored.
  • the first angle of the touch object is the angle between the position of the mirrored touch object of the actual touch object and the connection between the optical center of the first imaging device and the optical center of the two imaging devices, and the mirrored touch object of the actual touch object
  • the second angle is the angle between the position of the actual touch object and the connection between the optical center of the second imaging device and the optical center of the two imaging devices.
  • the touch object position information acquiring module 1202 acquires the position information of the touch object according to the actual touch object collected by the two imaging devices of the optical touch screen 1201 and the image data of the actual touch object with respect to the mirror touch object of the mirror. Then, the actual touch object position information acquiring module 1203 acquires the position information of the actual touch object from the position information of the touch object according to the mirror relationship of the actual touch object and the mirrored touch object of the actual touch object, thereby avoiding positioning two or more touches.
  • the "ghost point" appears in the process of the object, precisely positioning the location of the touch object.
  • the actual touch object location information acquiring module 1203 may include touch object location information classification.
  • the touch object position information classification unit 1231 is connected to the touch object position information acquisition unit 1222, and the first actual touch object position information acquisition unit 1232 is connected to the touch object position information classification unit 1231.
  • the touch object location information classification unit 1231 is configured to acquire location information of the first touch object and location information of the second touch object from the location information of the touch object according to the location information of the touch detection area, where the first touch object is located in the optical
  • the touch object in the touch detection area of the touch screen includes a touch object located outside the touch detection area.
  • the first actual touch object position information acquiring unit 1232 is configured to acquire, according to the position information of the first touch object, position information of the mirrored touch object of the first touch object with respect to the mirror for each first touch object, and compare the first Position information of the touch object of the touch object and position information of the second touch object, when the position information of the mirror touch object of the first touch object exists in the position information of the second touch object, the first touch object
  • the location information is used as the location information of the actual touch object.
  • the touch object position information acquiring module 1202 acquires the position information of the touch object according to the actual touch object collected by the two imaging devices of the optical touch screen 1201 and the image data of the actual touch object with respect to the mirror touch object of the mirror. Then, the touch object position information classification unit 1231 acquires the position information of the first touch object and the position information of the second touch object from the position information of the touch object, and for each first touch object, the first actual touch object position information acquiring unit The position information of the mirrored touch object of the first touch object with respect to the mirror is obtained according to the position information of the first touch object, and the position information of the mirror touch object of the first touch object exists in the position information of the second touch object.
  • the position information of the first touch object is used as the position information of the actual touch object
  • the first actual touch object position information acquiring unit 1232 processes all the first touch objects
  • the position information of all the actual touch objects can be obtained. , thus avoiding the appearance of "ghost points" in the process of locating more than two touch objects.
  • Position location of the touch object is located.
  • FIG. 14 is a schematic structural diagram of a touch positioning system according to a third embodiment of the present invention, which is different from the structural schematic diagram shown in FIG. 11 in that the actual touch object position information acquiring module 1203 may include a touch object position information classification unit 1231. And the second actual touch object position information acquiring unit 1233.
  • the touch object position information classification unit 1231 is connected to the touch object position information acquiring unit 1222, and the second actual touch object position information acquiring unit 1233 is connected to the touch object position information sorting unit 1231.
  • the touch object position information classification unit 1231 is configured to acquire position information of the first touch object and position information of the second touch object from the position information of the touch object according to the position information of the touch detection area, where the first touch object includes A touch object located in a touch detection area of the optical touch screen, the second touch object including a touch object located outside the touch detection area.
  • the second actual touch object position information acquiring unit 1233 is configured to acquire, for each second touch object, location information of the mirrored touch object of the second touch object with respect to the mirror according to the position information of the second touch object, The position information of the mirrored touch object of the second touch object is compared with the position information of the first touch object, and when the position information of the mirror touch object of the second touch object exists in the position information of the first touch object, the second touch is The position information of the mirrored object of the object is used as the position information of the actual touch object.
  • the working process of this embodiment is similar to the working process of the previous embodiment. The difference is that the previous embodiment obtains the actual touch object according to the mirrored touch object of the actual touch object in the second touch object. A mirrored touch of the mirrored touch of the actual touch object exists in a touch object to acquire the actual touch object.
  • the touch object position information acquiring module 1202 acquires the position information of the touch object according to the actual touch object collected by the two imaging devices of the optical touch screen 1201 and the image data of the actual touch object with respect to the mirror touch object of the mirror. Then, the touch object position information classification unit 1231 acquires the position information of the first touch object and the position information of the second touch object from the position information of the touch object, and for each second touch object, the second actual touch object position information acquiring unit The position information of the mirrored touch object of the second touch object with respect to the mirror is obtained according to the position information of the second touch object, and the position information of the mirror touch object of the second touch object exists in the position information of the first touch object.
  • the second actual touch object position information acquiring unit 1233 processes all the second touch objects, all the actual touches can be obtained. Position information of the object, thereby avoiding the appearance of two or more touch objects "Ghost point", which precisely locates the touch object.
  • FIG. 15 it is a schematic structural diagram of a fourth embodiment of the touch positioning system of the present invention, which is different from the structural schematic diagram shown in FIG. 12 in that the actual touch object position information acquiring module 1203 may include the first touch object position information acquisition.
  • the first touch object position information acquiring unit 1234 is connected to the touch object position information acquiring unit 1222, and the third actual touch object position information acquiring unit 1235 and the direction acquiring unit 1221, the touch object position information acquiring unit 1222, and the first touch object position information are acquired.
  • Unit 1234 is connected.
  • the first touch object position information acquiring unit 1234 is configured to acquire position information of the first touch object from the position information of the touch object according to the position information of the touch detection area, where the first touch object includes a touch located in the touch detection area of the optical touch screen. Things.
  • the third actual touch object position information acquiring unit 1235 is configured to acquire, for each first touch object, position information of the mirrored touch object of the first touch object with respect to the mirror according to the position information of the first touch object, Obtaining, according to the location information of the mirrored touch object of the first touch object, first direction information and second direction information of the mirrored touch object of the first touch object, where the first direction information of the mirrored touch object of the first touch object includes The position of the mirrored touch object of the first touch object is relative to the direction of the optical center of the first imaging device, and the second direction information of the mirrored touch object of the first touch object includes the position of the mirrored touch object of the first touch object.
  • the position information of the third touch object is obtained according to the direction of the optical center of the second imaging device, according to the first Obtaining, by the second direction information of the touch object and the first direction information of the mirrored touch object of the first touch object, location information of the fourth touch object, location information of the mirrored touch object of the first touch object, and a third touch
  • the position information of the object and the position information of the fourth touch object are compared with the position information of the touch object, and the mirror touch of the first touch object exists in the position information of the touch object
  • the position information of the first touch object is used as the position information of the actual touch object.
  • the first direction information may be a first angle
  • the second direction information may be a second angle.
  • the first angle of the first touch object is the location of the first touch object and the first The angle between the connection of the optical center of the imaging device and the line connecting the optical centers of the two imaging devices
  • the second angle of the first touch object is the connection between the position of the first touch object and the optical center of the second imaging device
  • the angle between the line and the line connecting the optical centers of the two imaging devices, the first angle of the mirrored touch object of the first touch object is the position of the mirrored touch object of the first touch object and the optical center of the first imaging device
  • the angle between the connection and the connection of the optical centers of the two imaging devices, the second angle of the mirrored touch object of the first touch object is the position of the mirrored touch object of the first touch object and the light center of the second imaging device
  • the touch object position information acquiring module 1202 acquires the position information of the touch object according to the actual touch object collected by the two imaging devices of the optical touch screen 1201 and the image data of the actual touch object with respect to the mirror touch object of the mirror.
  • the first touch object position information acquiring unit 1234 acquires the position information of the first touch object from the position information of the touch object.
  • the third actual touch object position information acquiring unit 1235 first acquires the first touch object.
  • the location information of the touch object has the location information of the first touch object, the location information of the third touch object, and the location information of the fourth touch object
  • the location information of the first touch object is actually used.
  • FIG. 16 is a schematic structural diagram of a fifth embodiment of the touch positioning system of the present invention, which is different from the structural diagram shown in FIG. 12 in that, in this embodiment, the actual touch object position information acquiring module 1203 may include the first The second touch object position information acquiring unit 1236 and the fourth actual touch object position information acquiring unit 1237.
  • the second touch object position information acquiring unit 1236 is connected to the touch object position information acquiring unit 1222, and the fourth actual touch object position information acquiring unit 1237 and the direction acquiring unit 1221, the touch object position information acquiring unit 1222, and the second touch object position information are acquired.
  • Unit 1236 is connected.
  • the second touch object position information acquiring unit 1236 is configured to acquire the position information of the second touch object from the position information of the touch object according to the position information of the touch detection area, and the second touch object includes the touch object located outside the touch detection area.
  • the fourth actual touch object position information acquiring unit 1237 is configured to acquire, according to the position information of the second touch object, position information of the mirrored touch object of the second touch object with respect to the mirror for each second touch object, according to the first The first direction information and the second direction information of the mirrored touch object of the second touch object are obtained by the location information of the mirrored touch object of the second touch object, and the first direction information of the mirrored touch object of the second touch object includes the second The direction of the mirrored object of the touch object is relative to the direction of the optical center of the first imaging device, and the second direction information of the mirrored touch object of the second touch object includes the position of the mirrored touch object of the second touch object relative to the second a direction of the optical center of the imaging device, according to the first direction information of the second
  • the position information of the mirrored touch object of the second touch object is used as the position information of the actual touch object.
  • the working process of this embodiment is similar to that of the previous embodiment, except that the second touch object located outside the touch detection area is used in the embodiment, and the first touch is used in the touch detection area in the previous embodiment. Things.
  • the first direction information may be a first angle
  • the second direction information may be a second angle
  • the first angle of the second touch object is the location of the second touch object and the first
  • the second angle of the second touch object is the connection between the position of the second touch object and the optical center of the second imaging device
  • the angle between the line and the line connecting the optical centers of the two imaging devices, the first angle of the mirrored touch object of the second touch object is the position of the mirrored touch object of the second touch object and the light of the first imaging device
  • the angle between the connection of the heart and the line connecting the optical centers of the two imaging devices, the second angle of the mirrored touch of the second touch object is the position of the mirrored touch object of the second touch object and the position of the second imaging device
  • the direction acquiring unit 1221 acquires the first direction information of the actual touch object according to the actual touch object collected by the two imaging devices of the optical touch screen 1201 and the image data of the actual touch object with respect to the mirror touch object of the mirror.
  • the second direction information, and the first direction information and the second direction information of the mirrored touch object of the actual touch object, the touch object position information acquiring unit 1222, according to the first direction information and the second direction information of the actual touch object, and the actual touch object The first direction information and the second direction information of the mirrored object are obtained, and the location information of the touch object is obtained.
  • the second touch object location information acquiring unit 1236 acquires the location information of the second touch object from the location information of the touch object.
  • Each second touch object, the fourth actual touch object position information acquiring unit 1237 acquires position information of the mirrored touch object of the second touch object with respect to the mirror according to the position information of the second touch object, according to the second touch object Position information of the mirrored touch object, obtaining a mirrored touch object of the second touch object a direction information and a second direction information, and then acquiring the location information of the fifth touch object and the location information of the sixth touch object, and the location information of the mirrored touch object of the second touch object exists in the location information of the touch object, the fifth When the position information of the touch object and the position information of the sixth touch object are used, the position information of the mirrored touch object of the second touch object is used as the position information of the actual touch object, and the fourth actual touch object position information acquiring unit 1237 After the two touch objects are processed, the position information of all the actual touch objects can be obtained, thereby avoiding the occurrence of "ghost points" in the process of locating two or more touch objects, and accurately positioning the touch object.
  • the actual touch object location information acquiring module 1203 may include a first touch object group acquiring unit 1238, The first touch object group error acquiring unit 1239 and the fifth actual touch object position information acquiring unit 12310.
  • the first touch object group acquisition unit 1238 is connected to the touch object position information acquisition unit 1222
  • the first touch object group error acquisition unit 1239 is connected to the first touch object group acquisition unit 1238, the direction acquisition unit 1221, and the touch object position information acquisition unit 1222.
  • the fifth actual touch object position information acquiring unit 12310 is connected to the first touch object group error acquiring unit 1239.
  • the first touch object group obtaining unit 1238 is configured to acquire position information of the first touch object from the position information of the touch object according to the position information of the touch detection area, where the first touch object includes a touch object located in the touch detection area of the optical touch screen. And acquiring, by the first touch object, the first touch object group, each first touch object group including the first touch object of the actual touch object number.
  • the first touch object group error acquiring unit 1239 is configured to use, for each first touch object group, according to the Position information of the first touch object in the first touch object group, acquiring position information of the first touch object with respect to the mirror touch object of the mirror, and acquiring the first touch object according to the position information of the mirror touch object of the first touch object Mirroring the first direction information and the second direction information of the touch object, the first direction information of the mirrored touch object of the first touch object includes a direction of a position of the mirrored touch object of the first touch object relative to an optical center of the first imaging device, The second direction information of the mirrored touch object of the first touch object includes a direction of the position of the mirrored touch object of the first touch object relative to the optical center of the second imaging device, according to the first direction information and the second direction of the first touch object The information, and the first direction information and the second direction information of the mirrored touch object of the first touch object acquire position information of the first suspected touch object, and obtain the first information according to the position information of the first suspected touch object and the
  • the first direction information may be a first angle
  • the second direction information may be a second angle
  • the first angle of the first touch object is the location of the first touch object and the first The angle between the connection of the optical center of the imaging device and the line connecting the optical centers of the two imaging devices
  • the second angle of the first touch object is the connection between the position of the first touch object and the optical center of the second imaging device
  • the angle between the line and the line connecting the optical centers of the two imaging devices, the first angle of the mirrored touch object of the first touch object is the position of the mirrored touch object of the first touch object and the optical center of the first imaging device
  • the angle between the connection and the connection of the optical centers of the two imaging devices, the second angle of the mirrored touch object of the first touch object is the position of the mirrored touch object of the first touch object and the light center of the second imaging device
  • the direction acquiring unit 1221 acquires the first direction information of the actual touch object according to the actual touch object collected by the two imaging devices of the optical touch screen 1201 and the image data of the actual touch object with respect to the mirror touch object of the mirror.
  • the second direction information, and the first direction information and the second direction information of the mirrored touch object of the actual touch object, the touch object position information acquiring unit 1222, according to the first direction information and the second direction information of the actual touch object, and the actual touch object The first direction information and the second direction information of the mirrored object are obtained, and the position information of the touch object is obtained.
  • the first touch object group acquiring unit 1238 acquires the position information of the first touch object from the position information of the touch object, and then Acquiring a first touch object group in the first touch object, the first touch object group error acquiring unit 1239 acquires an error of each first touch object group, and the fifth actual touch object position information acquiring unit 12310 first touches the first touch object with the smallest error
  • the position information of the first touch object in the group is used as the position information of the actual touch object, thereby avoiding "Ghost" positioning of the two or more touch objects occurs during pinpoint the location of the touch object.
  • Touch positioning system seventh embodiment As shown in FIG. 18, it is a schematic structural diagram of a seventh embodiment of the touch positioning system of the present invention.
  • the actual touch object location information acquiring module 1203 may include a second touch object group obtaining unit 12311, The second touch object group error acquiring unit 12312 and the sixth actual touch object position information acquiring unit 12313.
  • the second touch object group obtaining unit 12311 is connected to the touch object position information acquiring unit 1222
  • the second touch object group error acquiring unit 12312 is connected to the second touch object group acquiring unit 12311, the direction acquiring unit 1221, and the touch object position information acquiring unit 1222.
  • the sixth actual touch object position information acquiring unit 12313 is connected to the second touch object group error acquiring unit 12312.
  • the second touch object group obtaining unit 12311 is configured to acquire position information of the second touch object from the position information of the touch object according to the position information of the touch detection area, where the second touch object includes the touch object outside the touch detection area. All second touch object groups are acquired from the second touch object, and each second touch object group includes a second touch object of the actual number of touch objects.
  • the second touch object group error acquiring unit 12312 is configured to acquire, for each second touch object group, the mirrored touch object of the second touch object with respect to the mirror according to the position information of the second touch object in the second touch object group.
  • Position information acquiring first direction information and second direction information of the mirrored touch object of the second touch object according to the position information of the mirrored touch object of the second touch object, where the first direction information of the mirrored touch object of the second touch object includes The position of the mirrored touch object of the second touch object is relative to the direction of the optical center of the first imaging device, and the second direction information of the mirrored touch object of the second touch object includes the position of the mirrored touch object of the second touch object relative to the second a direction of the optical center of the imaging device, acquiring the second suspected touch object according to the first direction information and the second direction information of the second touch object, and the first direction information and the second direction information of the mirrored touch object of the second touch object
  • the location information according to the location information of the second suspected touch object and the location information of the touch object, obtaining the distance between the second suspected touch object and the touch object
  • the sum of the squares, the sum of the squares of the distances is used as the error of the second set of touch objects.
  • the first direction information may be a first angle
  • the second direction information may be a second angle
  • the first angle of the second touch object is the location of the second touch object and the first
  • the second angle of the second touch object is the connection between the position of the second touch object and the optical center of the second imaging device
  • the angle between the line and the line connecting the optical centers of the two imaging devices, the first angle of the mirrored touch object of the second touch object is the position of the mirrored touch object of the second touch object and the optical center of the first imaging device
  • the angle between the connection and the connection of the optical centers of the two imaging devices, the second angle of the mirrored touch of the second touch object is the position of the mirrored touch object of the second touch object and the optical center of the second imaging device
  • the direction acquiring unit 1221 acquires the first direction information of the actual touch object according to the actual touch object collected by the two imaging devices of the optical touch screen 1201 and the image data of the actual touch object with respect to the mirror touch object of the mirror.
  • the second direction information, and the first direction information and the second direction information of the mirrored touch object of the actual touch object, the touch object position information acquiring unit 1222, according to the first direction information and the second direction information of the actual touch object, and the actual touch object The first direction information and the second direction information of the mirrored object are obtained, and the position information of the touch object is obtained.
  • the second touch object group acquiring unit 12311 obtains the position information of the second touch object from the position information of the touch object, and then All second touch object groups are acquired in the second touch object, the second touch object group error acquiring unit 12312 acquires an error of each second touch object group, and the sixth actual touch object position information acquiring unit 12313 detects the second touch with the smallest error.
  • the position information of the mirrored touch object of the second touch object in the object group is used as the position information of the actual touch object, To avoid the appearance of "ghost" in the positioning of the two or more touch objects in the process, the precise positioning of the touch object location.
  • FIG. 19 it is a schematic structural diagram of an embodiment of a display of the present invention, which may include a display unit and a touch positioning system 193.
  • the display unit comprises a display screen 191 and a display frame 192 which is installed in front of the display screen 191, on the side close to the user, and inside the display frame 192.
  • the touch positioning system 193 can also be mounted external to the display frame 192, and the touch positioning system 193 can also be integrated with the display frame 192.
  • the touch location system 193 can include any of the foregoing touch location system embodiments, and is not described herein.
  • the imaging device may be an image capturing device such as a camera or a camera.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

触摸定位方法和系统、 以及显示器 技术领域
本发明涉及光电技术领域, 尤其涉及一种触摸定位方法和系统、 以及显示器。 背景技术
随着计算机技术的普及, 在 20世纪 90年代初出现了一种新的人机交互技术一触 摸屏技术。 釆用这种技术, 使用者只要用手或笔等物体轻轻地触摸计算机显示屏上的 图形或文字就能操作计算机, 从而摆脱了键盘和鼠标的束縛, 极大地方便了使用者。 常用的触摸屏有: 红外触摸屏、 带摄像头触摸屏、 表面声波式触摸屏和投射电容式触 摸屏。
带摄像头触摸屏釆用两个摄像头釆集触摸检测区的图像数据, 根据图像数据中触 摸物的位置信息可以确定触摸物所在位置和两个摄像头的光心的连线与两个摄像头的 光心之间的连线的夹角, 然后釆用三角测量法, 可以计算出触摸物的位置信息。 当存 在一个触摸物时, 带摄像头触摸屏可以精确定位触摸物所在位置。 但是, 当存在两个 以上触摸物时, 带摄像头触摸屏计算触摸物的位置信息时会出现 "鬼点", 此时, 带摄 像头触摸屏不能精确定位触摸物所在位置。 其中, "鬼点" 指的是非实际触摸物。 发明内容
本发明提供一种触摸定位方法和系统、 以及显示器, 用以实现在定位两个以上触 摸物的过程中, 精确定位触摸物所在位置。
本发明提供一种触摸定位方法, 所述方法应用于包括触摸检测区、 两个成像设备、 光源和反光镜的光学触摸屏, 所述触摸检测区和所述触摸检测区关于所述反光镜的镜 像触摸检测区都位于每个成像设备的视场内, 所述方法包括:
根据所述两个成像设备釆集的实际触摸物和所述实际触摸物关于所述反光镜的镜 像触摸物的图像数据, 获取触摸物的位置信息, 所述触摸物包括所述实际触摸物和虚 拟触摸物;
根据所述实际触摸物和所述实际触摸物的镜像触摸物的镜像关系、 以及所述触摸 检测区的位置信息, 从所述触摸物的位置信息中获取所述实际触摸物的位置信息。
本发明还提供一种触摸定位系统, 包括: 光学触摸屏, 所述光学触摸屏包括触摸检测区、 两个成像设备、 光源和反光镜, 所述触摸检测区和所述触摸检测区关于所述反光镜的镜像触摸检测区都位于每个成像 设备的视场内;
触摸物位置信息获取模块, 用于根据所述两个成像设备釆集的实际触摸物和所述 实际触摸物关于所述反光镜的镜像触摸物的图像数据, 获取触摸物的位置信息, 所述 触摸物包括所述实际触摸物和虚拟触摸物;
实际触摸物位置信息获取模块, 用于根据所述实际触摸物和所述实际触摸物的镜 像触摸物的镜像关系、 以及所述触摸检测区的位置信息, 从所述触摸物的位置信息中 获取所述实际触摸物的位置信息。
本发明还提供一种显示器, 包括显示单元, 还包括如上所述的触摸定位系统。 在本实施例中, 处理单元根据两个成像设备釆集的实际触摸物和实际触摸物关于 反光镜的镜像触摸物的图像数据, 获取触摸物的位置信息, 然后, 处理单元根据实际 触摸物和实际触摸物的镜像触摸物的镜像关系, 从触摸物的位置信息中获取实际触摸 物的位置信息, 从而避免了在定位两个以上触摸物的过程中出现 "鬼点" , 精确定位 触摸物所在位置。 附图说明
图 1为本发明触摸定位方法第一实施例中光学触摸屏的结构示意图;
图 2为本发明触摸定位方法第一实施例的流程示意图;
图 3为本发明触摸定位方法第二实施例的流程示意图;
图 4为本发明触摸定位方法第二实施例中光学触摸屏的工作过程示意图;
图 5为本发明触摸定位方法第三实施例的流程示意图;
图 6为本发明触摸定位方法第四实施例的流程示意图;
图 7为本发明触摸定位方法第四实施例中光学触摸屏工作过程示意图;
图 8为本发明触摸定位方法第五实施例的流程示意图;
图 9为本发明触摸定位方法第六实施例的流程示意图;
图 10为本发明触摸定位方法第六实施例中光学触摸屏的工作过程示意图; 图 11为本发明触摸定位方法第七实施例的流程示意图;
图 12为本发明触摸定位系统第一实施例的结构示意图;
图 13为本发明触摸定位系统第二实施例的结构示意图; 图 14为本发明触摸定位系统第三实施例的结构示意图;
图 15为本发明触摸定位系统第四实施例的结构示意图;
图 16为本发明触摸定位系统第五实施例的结构示意图;
图 17为本发明触摸定位系统第六实施例的结构示意图;
图 18为本发明触摸定位系统第七实施例的结构示意图;
图 19为本发明显示器实施例的结构示意图。 具体实施方式
下面结合说明书附图和具体实施方式对本发明作进一步的描述。
触摸定位方法第一实施例
本实施例应用于一种光学触摸屏, 该光学触摸屏包括触摸检测区、 两个成像设备、 光源和反光镜, 触摸检测区和触摸检测区关于反光镜的镜像触摸检测区都位于每个成 像设备的视场内。
下面给出一种光学触摸物的具体结构: 如图 1所示, 为本发明触摸定位方法第一 实施例中光学触摸屏的结构示意图, 该光学触摸屏包括触摸屏框架、 触摸检测区 15、 两个成像设备、 光源 13、 反光镜 14和处理单元 (未示出) , 触摸屏框架包括第一边 缘 111、 第二边缘 112、 第三边缘 113和第四边缘 114, 触摸屏框架的内部为触摸检测 区 15 , 两个成像设备包括第一成像设备 121和第二成像设备 122, 第一成像设备 121 安装在第一边缘 111和第二边缘 112的交角处,第二成像设备 122安装在第一边缘 111 和第四边缘 114的交角处, 反光镜 14安装在第三边缘 113上, 光源 13安装在第一边 缘 111、 第二边缘 112和第四边缘 114上。
第一成像设备 121和第二成像设备 122的视场都覆盖整个触摸检测区 15和触摸检 测区 15关于反光镜 14的镜像触摸检测区, 反光镜 14的反射面朝向第一边缘 111。
下面以安装在第四边缘 114的光源 13为例介绍光源 13的具体结构: 再参见图 1 , 椭圆框中所示为光源 13的详细结构图, 光源 13包括发光体 131、 导光体 132和反射 板 133 , 发光体 131置于导光体 132的端口, 反射板 133形成于导光体 132内远离触 摸检测区 15的侧面处, 反射板 133与导光体 132分立, 发光体 131发出的光线射入导 光体 132并在导光体 132内传输, 在导光体 132内传输的部分光线经由反射板 133反 射后再经导光体 132射出并分布于触摸检测区 15; 同时, 在导光体 132内传输的部分 光线则直接经导光体 132射出并分布于触摸检测区 15。 可选地, 光源 13也可以为一组红外发射管, 发光面朝向触摸检测区 15。
如图 2所示, 为本发明触摸定位方法第一实施例的流程示意图, 可以包括如下步 骤:
步骤 21、 处理单元获取触摸物的位置信息;
具体地, 处理单元根据两个成像设备釆集的实际触摸物和实际触摸物关于反光镜 的镜像触摸物的图像数据, 获取触摸物的位置信息, 触摸物包括实际触摸物和虚拟触 摸物;
在本步骤中, 处理单元可以釆用如下方法获取触摸物的位置信息: 首先, 处理单 元根据两个成像设备釆集的实际触摸物和实际触摸物关于反光镜的镜像触摸物的图像 数据, 获取实际触摸物的第一方向信息和第二方向信息、 以及实际触摸物的镜像触摸 物的第一方向信息和第二方向信息, 其中, 实际触摸物的第一方向信息包括实际触摸 物所在位置相对于第一成像设备的光心的方向, 实际触摸物的第二方向信息包括实际 触摸物所在位置相对于第二成像设备的光心的方向, 实际触摸物的镜像触摸物的第一 方向信息包括实际触摸物的镜像触摸物所在位置相对于两个成像设备的光心的方向, 实际触摸物的镜像触摸物的第二方向信息包括实际触摸物的镜像触摸物所在位置相对 于第二成像设备的光心的方向; 然后, 处理单元根据实际触摸物的第一方向信息和第 二方向信息、 以及实际触摸物的镜像触摸物的第一方向信息和第二方向信息, 釆用三 角测量法, 获取触摸物的位置信息。
在本实施例中, 第一方向信息具体可以为第一夹角, 第二方向信息具体可以为第 二夹角, 触摸物的第一夹角包括触摸物所在位置和第一成像设备的光心的连线与两个 成像设备的光心的连线的夹角, 触摸物的第二夹角包括触摸物所在位置和第二成像设 备的光心的连线与两个成像设备的光心的连线的夹角, 触摸物关于反光镜的镜像触摸 物的第一方向信息包括触摸物的镜像触摸物所在位置和第一成像设备的光心的连线与 两个成像设备的光心的连线的夹角, 触摸物的镜像触摸物的第二夹角包括触摸物的镜 像触摸物所在位置和第二成像设备的光心的连线与两个成像设备的光心的连线的夹 角, 那么, 实际触摸物的第一夹角为实际触摸物所在位置和第一成像设备的光心的连 线与两个成像设备的光心的连线的夹角, 实际触摸物的第二夹角为实际触摸物所在位 置和第二成像设备的光心的连线与两个成像设备的光心的连线的夹角, 实际触摸物的 镜像触摸物的第一夹角为实际触摸物的镜像触摸物所在位置和第一成像设备的光心的 连线与两个成像设备的光心的连线的夹角, 实际触摸物的镜像触摸物的第二夹角为实 际触摸物的镜像触摸物所在位置和第二成像设备的光心的连线与两个成像设备的光心 的连线的夹角。 另外, 三角测量法为现有技术, 在此不再赘述。
在本步骤中, 假设实际触摸物的个数为 N, 则实际触摸物的镜像触摸物的个数也 为 N, 这样, 处理单元可以获取 2N个第一夹角和 2N个第二夹角, 处理单元根据 1个 第一夹角和 1个第二夹角可以获取 1个触摸物的位置信息, 则处理单元一共可以获取 ( 2N ) 2个触摸物的位置信息, N为大于或等于 1的自然数。
步骤 22、 处理单元获取实际触摸物的位置信息;
具体地, 处理单元根据实际触摸物和实际触摸物的镜像触摸物的镜像关系、 以及 触摸检测区的位置信息, 从触摸物的位置信息中获取实际触摸物的位置信息。
下面以两个实际触摸物为例简要介绍图 1所示结构示意图的工作过程: 再参见图 1所示结构示意图, P1和 P2为两个实际触摸物, ΡΓ和 P2'为实际触摸物 P1和 P2关 于反光镜 14的镜像触摸物。 在步骤 21中, 处理单元根据第一成像设备 121和第二成 像设备 122釆集的实际触摸物 P1和 P2、 以及实际触摸物 P1和 P2的镜像触摸物 Pl, 和 P2'的图像数据, 获取实际触摸物 P1的第一夹角和第二夹角、 实际触摸物 P2的第 一夹角和第二夹角、 实际触摸物 P1的镜像触摸物 ΡΓ的第一夹角和第二夹角、 以及实 际触摸物 P2的镜像触摸物 P2,的第一夹角和第二夹角。 然后, 处理单元根据实际触 摸物 P1和 P2的第一夹角和第二夹角以及实际触摸物 P1和 P2的镜像触摸物 ΡΓ和 P2, 的第一夹角和第二夹角, 可以获取 16个触摸物的位置信息, 其中包括实际触摸物 P1 和 P2的位置信息以及另外 14个虚拟触摸物的位置信息,该另外 14个虚拟触摸物的位 置信息中包括实际触摸物 P1和 P2的镜像触摸物 P1'和 P2'的位置信息。在步骤 22中, 处理单元可以根据实际触摸物 P1和 P2、 以及实际触摸物 P1和 P2的镜像触摸物 ΡΓ 和 P2'的镜像关系,从 16个触摸物的位置信息中获取实际触摸物 P1和 P2的位置信息。
在本实施例中, 处理单元根据两个成像设备釆集的实际触摸物和实际触摸物关于 反光镜的镜像触摸物的图像数据, 获取触摸物的位置信息, 然后, 处理单元根据实际 触摸物和实际触摸物的镜像触摸物的镜像关系、 以及触摸检测区的位置信息, 从触摸 物的位置信息中获取实际触摸物的位置信息, 从而避免了在定位两个以上触摸物的过 程中出现 "鬼点" , 精确定位触摸物所在位置。
触摸定位方法第二实施例
如图 3所示, 为本发明触摸定位方法第二实施例的流程示意图, 与图 2所示流程 示意图的不同之处在于, 步骤 22可以包括如下步骤: 步骤 31、 处理单元获取第一触摸物的位置信息和第二触摸物的位置信息; 具体地, 光学触摸屏的触摸检测区的位置信息是已知的, 处理单元可以根据触摸 检测区的位置信息, 从触摸物的位置信息中获取第一触摸物的位置信息和第二触摸物 的位置信息, 第一触摸物包括位于光学触摸屏的触摸检测区内的触摸物, 第二触摸物 包括位于触摸检测区外的触摸物;
步骤 32、 处理单元根据第一触摸物的位置信息获取实际触摸物的位置信息; 具体地, 对于每个第一触摸物, 首先, 处理单元可以根据该第一触摸物的位置信 息, 获取该第一触摸物关于反光镜的镜像触摸物的位置信息, 然后, 由于当该第一触 摸物为实际触摸物时, 则第二触摸物的位置信息中存在该第一触摸物关于反光镜的镜 像触摸物的位置信息, 当该第一触摸物为虚拟触摸物时, 则第二触摸物的位置信息中 不存在该第一触摸物关于反光镜的镜像触摸物的位置信息, 因此, 处理单元可以比较 该第一触摸物的镜像触摸物的位置信息与第二触摸物的位置信息, 当第二触摸物的位 置信息中存在该第一触摸物的镜像触摸物的位置信息时, 将该第一触摸物的位置信息 作为实际触摸物的位置信息。
下面以两个实际触摸物为例简要介绍本实施例的工作过程: 如图 4所示, 为本发 明触摸定位方法第二实施例中光学触摸屏的工作过程图, 该光学触摸屏的结构与图 1 所示结构示意图相同, 该光学触摸屏的工作过程如下: 在步骤 21中, 处理单元获取触 摸物的位置信息,该步骤的具体工作过程与上一实施例的步骤 21相同,在此不再赘述。 在步骤 31中,处理单元从触摸物的位置信息中获取第一触摸物的位置信息和第二触摸 物的位置信息。 在步骤 32中, 对于每个第一触摸物, 例如: 第一触摸物 P3 , 首先, 处理单元可以根据第一触摸物 P3的位置信息,获取第一触摸物 P3关于反光镜 14的镜 像触摸物 P3,的位置信息, 然后, 处理单元可以比较第一触摸物 P3的镜像触摸物 P3, 的位置信息和第二触摸物的位置信息, 当第二触摸物的位置信息中存在第一触摸物 P3 的镜像触摸物 P3'的位置信息时, 则第一触摸物 P3为实际触摸物, 第一触摸物 P3的 位置信息可以作为实际触摸物的位置信息, 当第二触摸物的位置信息中不存在第一触 摸物 P3的镜像触摸物 P3,的位置信息时, 则第一触摸物 P3为虚拟触摸物。 当处理单 元对于所有第一触摸物执行步骤 32后, 就可以得到所有实际触摸物的位置信息。
在本实施例中, 首先, 处理单元根据两个成像设备釆集的实际触摸物和实际触摸 物关于反光镜的镜像触摸物的图像数据, 获取触摸物的位置信息, 然后, 处理单元从 触摸物的位置信息中获取第一触摸物的位置信息和第二触摸物的位置信息, 对于每个 第一触摸物, 处理单元根据该第一触摸物的位置信息, 获取该第一触摸物关于反光镜 的镜像触摸物的位置信息, 当第二触摸物的位置信息中存在该第一触摸物的镜像触摸 物的位置信息时, 将该第一触摸物的位置信息作为实际触摸物的位置信息, 从而避免 了在定位两个以上触摸物的过程中出现 "鬼点" , 精确定位触摸物所在位置。
触摸定位方法第三实施例
如图 5所示, 为本发明触摸定位方法第三实施例的流程示意图, 与图 3所示流程 示意图的不同之处在于, 步骤 32可以为如下步骤:
步骤 51、 处理单元根据第二触摸物的位置信息获取实际触摸物的位置信息; 具体地, 对于每个第二触摸物, 处理单元根据该第二触摸物的位置信息, 获取该 第二触摸物关于反光镜的镜像触摸物的位置信息, 由于当该第二触摸物关于反光镜的 镜像触摸物的位置信息为实际触摸物时, 则第一触摸物的位置信息中存在该第二触摸 物关于反光镜的镜像触摸物的位置信息, 当该第二触摸物关于反光镜的镜像触摸物的 位置信息不是实际触摸物时, 则第一触摸物的位置信息中不存在该第二触摸物关于反 光镜的镜像触摸物的位置信息, 因此, 处理单元可以将该第二触摸物的镜像触摸物的 位置信息与第一触摸物的位置信息相比较, 当第一触摸物的位置信息中存在该第二触 摸物的镜像触摸物的位置信息时, 将该第二触摸物的镜像触摸物的位置信息作为实际 触摸物的位置信息。 当处理单元对所有第二触摸物进行上述处理后, 就可以获取所有 实际触摸物的位置信息。
本实施例的步骤 51的工作过程与上一实施例的步骤 32 的工作过程相似, 不同之 处在于,上一实施例的步骤 32根据第二触摸物中存在实际触摸物的镜像触摸物来获取 实际触摸物,本实施例的步骤 51根据第一触摸物中存在实际触摸物的镜像触摸物的镜 像触摸物来获取实际触摸物。
在本实施例中, 首先, 处理单元根据两个成像设备釆集的实际触摸物和实际触摸 物关于反光镜的镜像触摸物的图像数据, 获取触摸物的位置信息, 然后, 处理单元从 触摸物的位置信息中获取第一触摸物的位置信息和第二触摸物的位置信息, 对于每个 第二触摸物, 处理单元根据该第二触摸物的位置信息, 获取该第二触摸物关于反光镜 的镜像触摸物的位置信息, 再将该第二触摸物的镜像触摸物的位置信息与第一触摸物 的位置信息相比较, 当第一触摸物的位置信息中存在该第二触摸物的镜像触摸物的位 置信息时, 将该第二触摸物的镜像触摸物的位置信息作为实际触摸物的位置信息, 从 而避免了在定位两个以上触摸物的过程中出现 "鬼点" , 精确定位触摸物所在位置。 触摸定位方法第四实施例
如图 6所示, 为本发明触摸定位方法第四实施例的流程示意图, 与图 2所示流程 示意图的不同之处在于, 步骤 22可以包括如下步骤:
步骤 61、 处理单元获取第一触摸物的位置信息;
具体地, 光学触摸屏的触摸检测区的位置信息是已知的, 处理单元可以根据触摸 检测区的位置信息, 从触摸物的位置信息中获取第一触摸物的位置信息, 第一触摸物 包括位于光学触摸屏的触摸检测区内的触摸物;
步骤 62、 处理单元根据第一触摸物的位置信息和触摸物的位置信息获取实际触摸 物的位置信息;
具体地, 对于每个第一触摸物, 处理单元进行以下处理: 处理单元根据该第一触 摸物的位置信息, 获取该第一触摸物关于反光镜的镜像触摸物的位置信息, 根据该第 一触摸物的镜像触摸物的位置信息, 获取该第一触摸物的镜像触摸物的第一方向信息 和第二方向信息, 该第一触摸物的镜像触摸物的第一方向信息包括该第一触摸物的镜 像触摸物所在位置相对于第一成像设备的光心的方向, 该第一触摸物的镜像触摸物的 第二方向信息包括该第一触摸物的镜像触摸物所在位置相对于第二成像设备的光心的 方向, 根据该第一触摸物的第一方向信息和该第一触摸物的镜像触摸物的第二方向信 息, 获取第三触摸物的位置信息, 根据该第一触摸物的第二方向信息和该第一触摸物 的镜像触摸物的第一方向信息, 获取第四触摸物的位置信息, 将该第一触摸物的镜像 触摸物的位置信息、 第三触摸物的位置信息以及第四触摸物的位置信息与触摸物的位 置信息相比较, 当触摸物的位置信息中存在该第一触摸物的镜像触摸物的位置信息、 第三触摸物的位置信息以及第四触摸物的位置信息时,则该第一触摸物为实际触摸物, 将该第一触摸物的位置信息作为实际触摸物的位置信息, 当触摸物的位置信息中不存 在该第一触摸物的镜像触摸物的位置信息、 第三触摸物的位置信息以及第四触摸物的 位置信息时, 则该第一触摸物为虚拟触摸物。 当处理单元对所有第一触摸物执行上述 处理后, 可以得到所有实际触摸物的位置信息。
在本实施例中, 第一方向信息具体可以为第一夹角, 第二方向信息具体可以为第 二夹角, 第一触摸物的第一夹角为该第一触摸物所在位置和第一成像设备的光心的连 线与两个成像设备的光心的连线的夹角, 第一触摸物的第二夹角为该第一触摸物所在 位置和第二成像设备的光心的连线与两个成像设备的光心的连线的夹角, 第一触摸物 的镜像触摸物的第一夹角为该第一触摸物的镜像触摸物所在位置和第一成像设备的光 心的连线与两个成像设备的光心的连线的夹角, 第一触摸物的镜像触摸物的第二夹角 为该第一触摸物的镜像触摸物所在位置和第二成像设备的光心的连线与两个成像设备 的光心的连线的夹角。
下面以两个实际触摸物为例介绍本实施例的工作过程。 如图 7所示, 为本发明触 摸定位方法第四实施例中光学触摸屏工作过程示意图, 该光学触摸屏的结构与图 1所 示结构示意图相同, 本实施例的工作过程如下: 在步骤 21中, 处理单元获取触摸物的 位置信息, 该步骤的具体工作过程与触摸定位方法第一实施例的步骤 21相同, 在此不 再赘述。 在步骤 61中, 处理单元从触摸物的位置信息中获取第一触摸物的位置信息。 在步骤 62中, 对于每个第一触摸物, 例如: 第一触摸物 P3 , 处理单元根据第一触摸 物 P3的位置信息, 获取第一触摸物 P3关于反光镜 14的镜像触摸物 P3'的位置信息, 根据第一触摸物 P3的镜像触摸物 P3,的位置信息, 获取第一触摸物 P3的镜像触摸物 P3'的第一夹角和第二夹角,根据第一触摸物 P3的第一夹角和第一触摸物 P3的镜像触 摸物 P3,的第二夹角, 获取第三触摸物 Q3的位置信息, 根据第一触摸物 P3的第二夹 角和第一触摸物 P3的镜像触摸物 P3,的第一夹角, 获取第四触摸物 Q4的位置信息, 将第一触摸物 P3的镜像触摸物 P3,的位置信息、 第三触摸物 Q3的位置信息以及第四 触摸物 Q4 的位置信息与触摸物的位置信息相比较, 当触摸物的位置信息中存在第一 触摸物 P3的镜像触摸物的位置信息、 第三触摸物 Q3的位置信息以及第四触摸物 Q4 的位置信息时, 将第一触摸物 P3的位置信息作为实际触摸物的位置信息。 当处理单元 对所有第一触摸物执行上述处理后, 可以得到所有实际触摸物的位置信息。
在本实施例中, 首先, 处理单元根据两个成像设备釆集的实际触摸物和实际触摸 物关于反光镜的镜像触摸物的图像数据, 获取触摸物的位置信息, 然后, 处理单元从 触摸物的位置信息中获取第一触摸物的位置信息, 对于每个第一触摸物, 处理单元根 据该第一触摸物的位置信息,获取该第一触摸物关于反光镜的镜像触摸物的位置信息, 根据该第一触摸物的镜像触摸物的位置信息, 获取该第一触摸物的镜像触摸物的第一 方向信息和第二方向信息, 再根据该第一触摸物的第一方向信息和第二方向信息、 以 及该第一触摸物的镜像触摸物的第一方向信息和第二方向信息, 获取第三触摸物和第 四触摸物的位置信息, 当触摸物的位置信息中存在该第一触摸物的镜像触摸物的位置 信息、 第三触摸物的位置信息以及第四触摸物的位置信息时, 将该第一触摸物的位置 信息作为实际触摸物的位置信息,从而避免了在定位两个以上触摸物的过程中出现 "鬼 点" , 精确定位触摸物所在位置。 触摸定位方法第五实施例
如图 8所示, 为本发明触摸定位方法第五实施例的流程示意图, 与图 2所示流程 示意图的不同之处在于, 步骤 22可以包括如下步骤:
步骤 81、 处理单元获取第二触摸物的位置信息;
具体地, 光学触摸屏的触摸检测区的位置信息是已知的, 处理单元可以根据触摸 检测区的位置信息, 从触摸物的位置信息中获取第二触摸物的位置信息, 第二触摸物 包括位于光学触摸屏的触摸检测区外的触摸物;
步骤 82、 处理单元根据第二触摸物的位置信息和触摸物的位置信息获取实际触摸 物的位置信息;
具体地, 对于每个第二触摸物, 处理单元执行以下处理: 处理单元根据该第二触 摸物的位置信息, 获取该第二触摸物关于反光镜的镜像触摸物的位置信息, 根据该第 二触摸物的镜像触摸物的位置信息, 获取该第二触摸物的镜像触摸物的第一方向信息 和第二方向信息, 该第二触摸物的镜像触摸物的第一方向信息包括该第二触摸物的镜 像触摸物所在位置和第一成像设备的光心的连线与两个成像设备的光心的连线的方 向, 该第二触摸物的镜像触摸物的第二方向信息包括该第二触摸物的镜像触摸物所在 位置和第二成像设备的光心的连线与两个成像设备的光心的连线的方向, 根据该第二 触摸物的第一方向信息和该第二触摸物的镜像触摸物的第二方向信息, 获取第五触摸 物的位置信息, 根据该第二触摸物的第二方向信息和该第二触摸物的镜像触摸物的第 一方向信息, 获取第六触摸物的位置信息, 将该第二触摸物的镜像触摸物的位置信息、 第五触摸物的位置信息以及第六触摸物的位置信息与触摸物的位置信息相比较, 当触 摸物的位置信息中存在该第二触摸物的镜像触摸物的位置信息、 第五触摸物的位置信 息以及第六触摸物的位置信息时, 则该第二触摸物为实际触摸物的镜像触摸物, 将该 第二触摸物的镜像触摸物的位置信息作为实际触摸物的位置信息, 当触摸物的位置信 息中不存在该第二触摸物的镜像触摸物的位置信息、 第五触摸物的位置信息以及第六 触摸物的位置信息时, 则该第二触摸物不是实际触摸物的镜像触摸物, 而是虚拟触摸 物。
在本实施例中, 第一方向信息具体可以为第一夹角, 第二方向信息具体可以为第 二夹角, 第二触摸物的第一夹角为该第二触摸物所在位置和第一成像设备的光心的连 线与两个成像设备的光心的连线的夹角, 第二触摸物的第二夹角为该第二触摸物所在 位置和第二成像设备的光心的连线与两个成像设备的光心的连线的夹角, 第二触摸物 的镜像触摸物的第一夹角为该第二触摸物的镜像触摸物所在位置和第一成像设备的光 心的连线与两个成像设备的光心的连线的夹角, 第二触摸物的镜像触摸物的第二夹角 为该第二触摸物的镜像触摸物所在位置和第二成像设备的光心的连线与两个成像设备 的光心的连线的夹角。
本实施例的方法与上一实施例类似, 不同之处在于, 本实施例釆用位于触摸检测 区外的第二触摸物, 而上一实施例釆用位于触摸检测区内的第一触摸物。
在本实施例中, 首先, 处理单元根据两个成像设备釆集的实际触摸物和实际触摸 物关于反光镜的镜像触摸物的图像数据, 获取触摸物的位置信息, 然后, 处理单元从 触摸物的位置信息中获取第二触摸物的位置信息, 对于每个第二触摸物, 处理单元根 据该第二触摸物的位置信息,获取该第二触摸物关于反光镜的镜像触摸物的位置信息, 根据该第二触摸物的镜像触摸物的位置信息, 获取该第二触摸物的镜像触摸物的第一 方向信息和第二方向信息, 再根据该第二触摸物的第一方向信息和第二方向信息、 以 及该第二触摸物的镜像触摸物的第一方向信息和第二方向信息, 获取第五触摸物和第 六触摸物的位置信息, 当触摸物的位置信息中存在该第二触摸物的镜像触摸物的位置 信息、 第五触摸物的位置信息以及第六触摸物的位置信息时, 将该第二触摸物的镜像 触摸物的位置信息作为实际触摸物的位置信息, 从而避免了在定位两个以上触摸物的 过程中出现 "鬼点" , 精确定位触摸物所在位置。
触摸定位方法第六实施例
如图 9所示, 为本发明触摸定位方法第六实施例的流程示意图, 与图 2所示流程 示意图的不同之处在于, 步骤 22可以包括如下步骤:
步骤 91、 处理单元获取第一触摸物的位置信息;
具体地, 处理单元根据触摸检测区的位置信息, 从触摸物的位置信息中获取第一 触摸物的位置信息, 第一触摸物包括位于光学触摸屏的触摸检测区内的触摸物;
步骤 92、 处理单元从第一触摸物中获取所有第一触摸物组;
其中, 每个第一触摸物组包括实际触摸物个数的第一触摸物, 假设第一触摸物的 个数为 M, M为大于或等于 2的自然数, 实际触摸物的个数为 N, N为大于或等于 2 的自然数, 并且 N小于或等于 M, 则第一触摸物组的个数为 fl。
步骤 93、 处理单元获取所有第一触摸物组的误差;
具体地, 对于每个第一触摸物组, 处理单元根据该第一触摸物组中的第一触摸物 的位置信息, 获取第一触摸物关于反光镜的镜像触摸物的位置信息, 根据第一触摸物 的镜像触摸物的位置信息, 获取第一触摸物的镜像触摸物的第一方向信息和第二方向 信息, 第一触摸物的镜像触摸物的第一方向信息包括第一触摸物的镜像触摸物所在位 置相对于第一成像设备的光心的方向, 第一触摸物的镜像触摸物的第二方向信息包括 第一触摸物的镜像触摸物所在位置相对于第二成像设备的光心的方向, 根据第一触摸 物的第一方向信息和第二方向信息、 以及第一触摸物的镜像触摸物的第一方向信息和 第二方向信息, 获取第一疑似触摸物的位置信息, 根据第一疑似触摸物的位置信息和 触摸物的位置信息, 获取第一疑似触摸物与触摸物的距离的平方和, 将距离的平方和 作为第一触摸物组的误差, 其中, 第一触摸物的第一方向信息和第一触摸物的镜像触 摸物的第一方向信息与实际触摸物的第一方向信息和实际触摸物的镜像触摸物的第一 方向信息按照大小顺序一一对应, 第一触摸物的第二方向信息和第一触摸物的镜像触 摸物的第二方向信息与实际触摸物的第二方向信息和实际触摸物的镜像触摸物的第二 方向信息按照大小顺序——对应, 从而各个第一疑似触摸物的位置信息与各个触摸物 的位置信息按照获取各个第一疑似触摸物的位置信息与各个触摸物的位置信息时所依 据的第一方向信息和第二方向信息的对应关系对应起来;
步骤 94、 处理单元根据所有第一触摸物组的误差, 获取实际触摸物的位置信息; 具体地, 处理单元比较所有第一触摸物组的误差, 将误差最小(即最小均方误差) 的第一触摸物组中的第一触摸物的位置信息作为实际触摸物的位置信息。
在本实施例中, 第一方向信息具体可以为第一夹角, 第二方向信息具体可以为第 二夹角, 第一触摸物的第一夹角为该第一触摸物所在位置和第一成像设备的光心的连 线与两个成像设备的光心的连线的夹角, 第一触摸物的第二夹角为该第一触摸物所在 位置和第二成像设备的光心的连线与两个成像设备的光心的连线的夹角, 第一触摸物 的镜像触摸物的第一夹角为该第一触摸物的镜像触摸物所在位置和第一成像设备的光 心的连线与两个成像设备的光心的连线的夹角, 第一触摸物的镜像触摸物的第二夹角 为该第一触摸物的镜像触摸物所在位置和第二成像设备的光心的连线与两个成像设备 的光心的连线的夹角。
下面以两个实际触摸物为例介绍本实施例的工作过程。 如图 10所示, 为发明触摸 定位方法第六实施例中光学触摸屏的工作过程示意图, 本光学触摸屏与图 1所示光学 触摸屏的结构相同, 本光学触摸屏的工作过程如下:在步骤 21 中, 处理单元获取触摸 物的位置信息, 该步骤的具体工作过程与触摸定位方法第一实施例的步骤 21相同, 在 此不再赘述。 在步骤 91中, 处理单元获取第一触摸物的位置信息。 在步骤 92中, 处 理单元获取所有第一触摸物组,在步骤 93中,对于每个第一触摸物组中的第一触摸物, 例如: 第一触摸物 P3和 P4, 其中, 第一触摸物 P3和 P4的第一夹角和第二夹角在步 骤 21中已经得到, 处理单元获取实际触摸物 P3和 P4的关于反光镜 14的镜像触摸物 P3 '和 P4'的位置信息, 根据第一触摸物 P3和 P4的镜像触摸物 P3 '和 P4'的位置信息, 获取第一触摸物 P3的镜像触摸物 P3,的第一夹角和第二夹角、 以及第一触摸物 P4的 镜像触摸物 P4'的第一夹角和第二夹角, 再根据第一触摸物 P3和 P4的第一夹角和第 二夹角、 以及第一触摸物 P3和 P4的镜像触摸物 P3,和 P4,的第一夹角和第二夹角, 获 取第一疑似触摸物的位置信息,根据第一疑似触摸物的位置信息和触摸物的位置信息, 获取第一疑似触摸物与触摸物的距离的平方和, 将距离的平方和作为第一触摸物组的 误差。其中,第一触摸物 P3和 P4的第一夹角和第一触摸物 P3和 P4的镜像触摸物 P3, 和 P4'的第一夹角与实际触摸物 P1和 P2的第一夹角和实际触摸物 P1和 P2的镜像触 摸物 ΡΓ和 P2,的第一夹角按照大小顺序——对应,第一触摸物 P3和 P4的第二夹角和 第一触摸物 P3和 P4的镜像触摸物 P3'和 P4'的第二夹角与实际触摸物 P1和 P2的第二 夹角和实际触摸物 P1和 P2的镜像触摸物 ΡΓ和 P2,的第二夹角按照大小顺序——对 应, 从而各个第一疑似触摸物的位置信息与各个触摸物的位置信息按照获取各个第一 疑似触摸物的位置信息与各个触摸物的位置信息时所依据的第一夹角和第二夹角的对 应关系对应起来。 在步骤 94中, 处理单元比较所有第一触摸物组的误差, 将误差最小 的第一触摸物组中的第一触摸物的位置信息作为实际触摸物的位置信息。
在本实施例中, 处理单元根据两个成像设备釆集的实际触摸物和实际触摸物关于 反光镜的镜像触摸物的图像数据, 获取触摸物的位置信息, 处理单元从触摸物的位置 信息中获取第一触摸物的位置信息, 再从第一触摸物中获取所有第一触摸物组, 然后 处理单元获取所有第一触摸物组的误差,最后处理单元比较所有第一触摸物组的误差, 将误差最小的第一触摸物组中的第一触摸物的位置信息作为实际触摸物的位置信息, 从而避免了在定位两个以上触摸物的过程中出现 "鬼点" , 精确定位触摸物所在位置。
触摸定位方法第七实施例,
如图 11所示, 为本发明触摸定位方法第七实施例的流程示意图, 与图 2所示流程 示意图的不同之处在于, 步骤 22可以包括如下步骤:
步骤 111、 处理单元获取第二触摸物的位置信息;
具体地, 处理单元根据触摸检测区的位置信息, 从触摸物的位置信息中获取第二 触摸物的位置信息, 第二触摸物包括位于触摸检测区外的触摸物; 步骤 112、 处理单元从第二触摸物中获取所有第二触摸物组;
其中, 每个第二触摸物组包括实际触摸物个数的第二触摸物;
步骤 113、 处理单元获取所有第二触摸物组的误差;
具体地, 对于每个第二触摸物组, 处理单元根据该第二触摸物组中的第二触摸物 的位置信息, 获取第二触摸物关于反光镜的镜像触摸物的位置信息, 根据第二触摸物 的镜像触摸物的位置信息, 获取第二触摸物的镜像触摸物的第一方向信息和第二方向 信息, 第二触摸物的镜像触摸物的第一方向信息包括第二触摸物的镜像触摸物所在位 置相对于第一成像设备的光心的方向, 第二触摸物的镜像触摸物的第二方向信息包括 第二触摸物的镜像触摸物所在位置相对于第二成像设备的光心的方向, 根据第二触摸 物的第一方向信息和第二方向信息、 以及第二触摸物的镜像触摸物的第一方向信息和 第二方向信息, 获取第二疑似触摸物的位置信息, 根据第二疑似触摸物的位置信息和 触摸物的位置信息, 获取第二疑似触摸物与触摸物的距离的平方和, 将距离的平方和 作为第二触摸物组的误差; 其中, 第二触摸物的第一方向信息和第二触摸物的镜像触 摸物的第一方向信息与实际触摸物的第一方向信息和实际触摸物的镜像触摸物的第一 方向信息按照大小顺序一一对应, 第二触摸物的第二方向信息和第二触摸物的镜像触 摸物的第二方向信息与实际触摸物的第二方向信息和实际触摸物的镜像触摸物的第二 方向信息按照大小顺序——对应, 从而各个第二疑似触摸物的位置信息与各个触摸物 的位置信息按照获取各个第二疑似触摸物的位置信息与各个触摸物的位置信息时所依 据的第一方向信息和第二方向信息的对应关系对应起来;
步骤 114、 处理单元根据所有第二触摸物组的误差, 获取实际触摸物的位置信息; 具体地, 处理单元比较所有第二触摸物组的误差, 将误差最小(即最小均方误差) 的第二触摸物组中的第二触摸物的镜像触摸物的位置信息作为实际触摸物的位置信 息。 本实施例的方法与上一实施例的方法类似, 不同之处在于, 本实施例釆用位于触 摸检测区外的第二触摸物, 上一实施例釆用位于触摸检测区内的第一触摸物。
在本实施例中, 第一方向信息具体可以为第一夹角, 第二方向信息具体可以为第 二夹角, 第二触摸物的第一夹角为该第二触摸物所在位置和第一成像设备的光心的连 线与两个成像设备的光心的连线的夹角, 第二触摸物的第二夹角为该第二触摸物所在 位置和第二成像设备的光心的连线与两个成像设备的光心的连线的夹角, 第二触摸物 的镜像触摸物的第一夹角为该第二触摸物的镜像触摸物所在位置和第一成像设备的光 心的连线与两个成像设备的光心的连线的夹角, 第二触摸物的镜像触摸物的第二夹角 为该第二触摸物的镜像触摸物所在位置和第二成像设备的光心的连线与两个成像设备 的光心的连线的夹角。
在本实施例中, 处理单元根据两个成像设备釆集的实际触摸物和实际触摸物关于 反光镜的镜像触摸物的图像数据, 获取触摸物的位置信息, 处理单元从触摸物的位置 信息中获取第二触摸物的位置信息, 再从第二触摸物中获取所有第二触摸物组, 然后 处理单元获取所有第二触摸物组的误差,最后处理单元比较所有第二触摸物组的误差, 将误差最小的第二触摸物组中的第二触摸物的镜像触摸物的位置信息作为实际触摸物 的位置信息, 从而避免了在定位两个以上触摸物的过程中出现 "鬼点" , 精确定位触 摸物所在位置。
触摸定位系统第一实施例
如图 12所示, 为本发明触摸定位系统第一实施例的结构示意图, 可以包括光学触 摸屏 1201、 触摸物位置信息获取模块 1202和实际触摸物位置信息获取模块 1203。 触 摸物位置信息获取模块 1202与光学触摸屏 1201连接, 实际触摸物位置信息获取模块 1203与触摸物位置信息获取模块 1202连接。
其中, 光学触摸屏 1201包括触摸检测区、 两个成像设备、 光源和反光镜, 触摸检 测区和触摸检测区关于反光镜的镜像触摸检测区都位于每个成像设备的视场内。
光学触摸屏 1201还可以包括触摸屏框架, 其具体结构可以参见图 1 , 在此不再赘 述。
触摸物位置信息获取模块 1202 用于根据两个成像设备釆集的实际触摸物和实际 触摸物关于反光镜的镜像触摸物的图像数据, 获取触摸物的位置信息, 触摸物包括实 际触摸物和虚拟触摸物。实际触摸物位置信息获取模块 1203用于根据实际触摸物和实 际触摸物的镜像触摸物的镜像关系、 以及触摸检测区的位置信息, 从触摸物的位置信 息中获取实际触摸物的位置信息。
进一步地, 在本实施例中, 触摸物位置信息获取模块 1202可以包括方向获取单元 1221和触摸物位置信息获取单元 1222。 其中, 方向获取单元 1221与光学触摸屏 1201 的两个成像设备连接,触摸物位置信息获取单元 1222与实际触摸物位置信息获取模块 1203和方向获取单元 1221连接。
方向获取单元 1221 用于根据两个成像设备釆集的实际触摸物和实际触摸物关于 反光镜的镜像触摸物的图像数据, 获取实际触摸物的第一方向信息和第二方向信息、 以及实际触摸物的镜像触摸物的第一方向信息和第二方向信息, 其中, 实际触摸物的 第一方向信息包括实际触摸物所在位置相对于第一成像设备的光心的方向, 实际触摸 物的第二方向信息包括实际触摸物所在位置相对于第二成像设备的光心的方向, 实际 触摸物的镜像触摸物的第一方向信息包括实际触摸物的镜像触摸物所在位置相对于第 一成像设备的光心的方向, 实际触摸物的镜像触摸物的第二方向信息包括实际触摸物 的镜像触摸物所在位置相对于第二成像设备的光心的方向。 触摸物位置信息获取单元 1222用于根据实际触摸物的第一方向信息和第二方向信息、 以及实际触摸物的镜像触 摸物的第一方向信息和第二方向信息, 获取触摸物的位置信息。 具体地, 触摸物位置 信息获取单元 1222可以釆用三角测量法获取触摸物的位置信息。
在本实施例中, 两个成像设备包括第一成像设备和第二成像设备, 第一方向信息 具体可以为第一夹角, 第二方向信息具体可以为第二夹角, 触摸物的第一夹角包括触 摸物所在位置和第一成像设备的光心的连线与两个成像设备的光心的连线的夹角, 触 摸物的第二夹角包括触摸物所在位置和第二成像设备的光心的连线与两个成像设备的 光心的连线的夹角, 触摸物关于反光镜的镜像触摸物的第一方向信息包括触摸物的镜 像触摸物所在位置和第一成像设备的光心的连线与两个成像设备的光心的连线的夹 角, 触摸物的镜像触摸物的第二夹角包括触摸物的镜像触摸物所在位置和第二成像设 备的光心的连线与两个成像设备的光心的连线的夹角, 那么, 实际触摸物的第一夹角 为实际触摸物所在位置和第一成像设备的光心的连线与两个成像设备的光心的连线的 夹角, 实际触摸物的第二夹角为实际触摸物所在位置和第二成像设备的光心的连线与 两个成像设备的光心的连线的夹角, 实际触摸物的镜像触摸物的第一夹角为实际触摸 物的镜像触摸物所在位置和第一成像设备的光心的连线与两个成像设备的光心的连线 的夹角, 实际触摸物的镜像触摸物的第二夹角为实际触摸物的镜像触摸物所在位置和 第二成像设备的光心的连线与两个成像设备的光心的连线的夹角。
在本实施例中, 触摸物位置信息获取模块 1202根据光学触摸屏 1201的两个成像 设备釆集的实际触摸物和实际触摸物关于反光镜的镜像触摸物的图像数据, 获取触摸 物的位置信息, 然后, 实际触摸物位置信息获取模块 1203根据实际触摸物和实际触摸 物的镜像触摸物的镜像关系, 从触摸物的位置信息中获取实际触摸物的位置信息, 从 而避免了在定位两个以上触摸物的过程中出现 "鬼点" , 精确定位触摸物所在位置。
触摸定位系统第二实施例
如图 13所示, 为本发明触摸定位系统第二实施例的结构示意图, 在图 12所示结 构示意图的基础上,实际触摸物位置信息获取模块 1203可以包括触摸物位置信息分类 单元 1231和第一实际触摸物位置信息获取单元 1232。 其中, 触摸物位置信息分类单 元 1231 与触摸物位置信息获取单元 1222 连接, 第一实际触摸物位置信息获取单元 1232与触摸物位置信息分类单元 1231连接。
其中, 触摸物位置信息分类单元 1231用于根据触摸检测区的位置信息, 从触摸物 的位置信息中获取第一触摸物的位置信息和第二触摸物的位置信息, 第一触摸物包括 位于光学触摸屏的触摸检测区内的触摸物, 第二触摸物包括位于触摸检测区外的触摸 物。 第一实际触摸物位置信息获取单元 1232用于对于每个第一触摸物,根据该第一触 摸物的位置信息, 获取该第一触摸物关于反光镜的镜像触摸物的位置信息, 比较该第 一触摸物的镜像触摸物的位置信息与第二触摸物的位置信息, 当第二触摸物的位置信 息中存在该第一触摸物的镜像触摸物的位置信息时, 将该第一触摸物的位置信息作为 实际触摸物的位置信息。
本实施例的具体工作过程可以参见图 4, 在此不再赘述。
在本实施例中, 触摸物位置信息获取模块 1202根据光学触摸屏 1201的两个成像 设备釆集的实际触摸物和实际触摸物关于反光镜的镜像触摸物的图像数据, 获取触摸 物的位置信息, 然后, 触摸物位置信息分类单元 1231从触摸物的位置信息中获取第一 触摸物的位置信息和第二触摸物的位置信息, 对于每个第一触摸物, 第一实际触摸物 位置信息获取单元 1232根据该第一触摸物的位置信息,获取该第一触摸物关于反光镜 的镜像触摸物的位置信息, 当第二触摸物的位置信息中存在该第一触摸物的镜像触摸 物的位置信息时, 将该第一触摸物的位置信息作为实际触摸物的位置信息, 当第一实 际触摸物位置信息获取单元 1232对所有第一触摸物进行处理后,就可以得到所有实际 触摸物的位置信息, 从而避免了在定位两个以上触摸物的过程中出现 "鬼点" , 精确 定位触摸物所在位置。
触摸定位系统第三实施例
如图 14所示, 为本发明触摸定位系统第三实施例的结构示意图, 与图 11所示结 构示意图的不同之处在于,实际触摸物位置信息获取模块 1203可以包括触摸物位置信 息分类单元 1231和第二实际触摸物位置信息获取单元 1233。 触摸物位置信息分类单 元 1231 与触摸物位置信息获取单元 1222 连接, 第二实际触摸物位置信息获取单元 1233和触摸物位置信息分类单元 1231连接。
其中, 触摸物位置信息分类单元 1231用于根据触摸检测区的位置信息, 从触摸物 的位置信息中获取第一触摸物的位置信息和第二触摸物的位置信息, 第一触摸物包括 位于光学触摸屏的触摸检测区内的触摸物, 第二触摸物包括位于触摸检测区外的触摸 物。 第二实际触摸物位置信息获取单元 1233用于对于每个第二触摸物,根据该第二触 摸物的位置信息, 获取该第二触摸物关于反光镜的镜像触摸物的位置信息, 将该第二 触摸物的镜像触摸物的位置信息与第一触摸物的位置信息相比较, 当第一触摸物的位 置信息中存在该第二触摸物的镜像触摸物的位置信息时, 将该第二触摸物的镜像触摸 物的位置信息作为实际触摸物的位置信息。
本实施例的工作过程与上一实施例的工作过程相似, 不同之处在于, 上一实施例 根据第二触摸物中存在实际触摸物的镜像触摸物来获取实际触摸物, 本实施例根据第 一触摸物中存在实际触摸物的镜像触摸物的镜像触摸物来获取实际触摸物。
在本实施例中, 触摸物位置信息获取模块 1202根据光学触摸屏 1201的两个成像 设备釆集的实际触摸物和实际触摸物关于反光镜的镜像触摸物的图像数据, 获取触摸 物的位置信息, 然后, 触摸物位置信息分类单元 1231从触摸物的位置信息中获取第一 触摸物的位置信息和第二触摸物的位置信息, 对于每个第二触摸物, 第二实际触摸物 位置信息获取单元 1233根据该第二触摸物的位置信息,获取该第二触摸物关于反光镜 的镜像触摸物的位置信息, 当第一触摸物的位置信息中存在该第二触摸物的镜像触摸 物的位置信息时, 将该第二触摸物的镜像触摸物的位置信息作为实际触摸物的位置信 息, 当第二实际触摸物位置信息获取单元 1233对所有第二触摸物进行处理后, 就可以 得到所有实际触摸物的位置信息,从而避免了在定位两个以上触摸物的过程中出现 "鬼 点" , 精确定位触摸物所在位置。
触摸定位系统第四实施例
如图 15所示, 为本发明触摸定位系统第四实施例的结构示意图, 与图 12所示结 构示意图的不同之处在于,实际触摸物位置信息获取模块 1203可以包括第一触摸物位 置信息获取单元 1234和第三实际触摸物位置信息获取单元 1235。 第一触摸物位置信 息获取单元 1234与触摸物位置信息获取单元 1222连接, 第三实际触摸物位置信息获 取单元 1235与方向获取单元 1221、 触摸物位置信息获取单元 1222和第一触摸物位置 信息获取单元 1234连接。
第一触摸物位置信息获取单元 1234用于根据触摸检测区的位置信息,从触摸物的 位置信息中获取第一触摸物的位置信息, 第一触摸物包括位于光学触摸屏的触摸检测 区内的触摸物。 第三实际触摸物位置信息获取单元 1235用于对于每个第一触摸物, 根 据该第一触摸物的位置信息,获取该第一触摸物关于反光镜的镜像触摸物的位置信息, 根据该第一触摸物的镜像触摸物的位置信息, 获取该第一触摸物的镜像触摸物的第一 方向信息和第二方向信息, 该第一触摸物的镜像触摸物的第一方向信息包括该第一触 摸物的镜像触摸物所在位置相对于第一成像设备的光心的方向, 该第一触摸物的镜像 触摸物的第二方向信息包括该第一触摸物的镜像触摸物所在位置相对于第二成像设备 的光心的方向, 根据该第一触摸物的第一方向信息和该第一触摸物的镜像触摸物的第 二方向信息, 获取第三触摸物的位置信息, 根据该第一触摸物的第二方向信息和该第 一触摸物的镜像触摸物的第一方向信息, 获取第四触摸物的位置信息, 将该第一触摸 物的镜像触摸物的位置信息、 第三触摸物的位置信息以及第四触摸物的位置信息与触 摸物的位置信息相比较, 当触摸物的位置信息中存在该第一触摸物的镜像触摸物的位 置信息、 第三触摸物的位置信息以及第四触摸物的位置信息时, 将该第一触摸物的位 置信息作为实际触摸物的位置信息。
在本实施例中, 第一方向信息具体可以为第一夹角, 第二方向信息具体可以为第 二夹角, 第一触摸物的第一夹角为该第一触摸物所在位置和第一成像设备的光心的连 线与两个成像设备的光心的连线的夹角, 第一触摸物的第二夹角为该第一触摸物所在 位置和第二成像设备的光心的连线与两个成像设备的光心的连线的夹角, 第一触摸物 的镜像触摸物的第一夹角为该第一触摸物的镜像触摸物所在位置和第一成像设备的光 心的连线与两个成像设备的光心的连线的夹角, 第一触摸物的镜像触摸物的第二夹角 为该第一触摸物的镜像触摸物所在位置和第二成像设备的光心的连线与两个成像设备 的光心的连线的夹角。
本实施例的具体工作过程可以参见图 7 , 在此不再赘述。
在本实施例中, 触摸物位置信息获取模块 1202根据光学触摸屏 1201的两个成像 设备釆集的实际触摸物和实际触摸物关于反光镜的镜像触摸物的图像数据, 获取触摸 物的位置信息,第一触摸物位置信息获取单元 1234从触摸物的位置信息中获取第一触 摸物的位置信息, 对于每个第一触摸物, 第三实际触摸物位置信息获取单元 1235首先 获取该第一触摸物关于反光镜的镜像触摸物的位置信息, 然后获取该第一触摸物的镜 像触摸物的第一方向信息和第二方向信息, 再获取第三触摸物的位置信息和第四触摸 物的位置信息, 当触摸物的位置信息中存在该第一触摸物的镜像触摸物的位置信息、 第三触摸物的位置信息以及第四触摸物的位置信息时, 将该第一触摸物的位置信息作 为实际触摸物的位置信息,当第三实际触摸物位置信息获取单元 1235对所有第一实际 触摸物进行处理后, 就可以得到所有实际触摸物的位置信息, 从而避免了在定位两个 以上触摸物的过程中出现 "鬼点" , 精确定位触摸物所在位置。
触摸定位系统第五实施例
如图 16所示, 为本发明触摸定位系统第五实施例的结构示意图, 与图 12所示结 构示意图的不同之处在于, 在本实施例中, 实际触摸物位置信息获取模块 1203可以包 括第二触摸物位置信息获取单元 1236和第四实际触摸物位置信息获取单元 1237。 第 二触摸物位置信息获取单元 1236与触摸物位置信息获取单元 1222连接, 第四实际触 摸物位置信息获取单元 1237与方向获取单元 1221、 触摸物位置信息获取单元 1222和 第二触摸物位置信息获取单元 1236连接。
第二触摸物位置信息获取单元 1236用于根据触摸检测区的位置信息,从触摸物的 位置信息中获取第二触摸物的位置信息,第二触摸物包括位于触摸检测区外的触摸物。 第四实际触摸物位置信息获取单元 1237用于对于每个第二触摸物,根据该第二触摸物 的位置信息, 获取该第二触摸物关于反光镜的镜像触摸物的位置信息, 根据该第二触 摸物的镜像触摸物的位置信息, 获取该第二触摸物的镜像触摸物的第一方向信息和第 二方向信息, 该第二触摸物的镜像触摸物的第一方向信息包括该第二触摸物的镜像触 摸物所在位置相对于第一成像设备的光心的方向, 该第二触摸物的镜像触摸物的第二 方向信息包括该第二触摸物的镜像触摸物所在位置相对于第二成像设备的光心的方 向,根据该第二触摸物的第一方向信息和该第二触摸物的镜像触摸物的第二方向信息, 获取第五触摸物的位置信息, 根据该第二触摸物的第二方向信息和该第二触摸物的镜 像触摸物的第一方向信息, 获取第六触摸物的位置信息, 将该第二触摸物的镜像触摸 物的位置信息、 第五触摸物的位置信息以及第六触摸物的位置信息与触摸物的位置信 息相比较, 当触摸物的位置信息中存在该第二触摸物的镜像触摸物的位置信息、 第五 触摸物的位置信息以及第六触摸物的位置信息时, 将该第二触摸物的镜像触摸物的位 置信息作为实际触摸物的位置信息。 本实施例的工作过程与上一实施例类似, 不同之 处在于, 本实施例釆用位于触摸检测区外的第二触摸物, 而上一实施例釆用位于触摸 检测区内的第一触摸物。
在本实施例中, 第一方向信息具体可以为第一夹角, 第二方向信息具体可以为第 二夹角, 第二触摸物的第一夹角为该第二触摸物所在位置和第一成像设备的光心的连 线与两个成像设备的光心的连线的夹角, 第二触摸物的第二夹角为该第二触摸物所在 位置和第二成像设备的光心的连线与两个成像设备的光心的连线的夹角, 第二触摸物 的镜像触摸物的第一夹角为该第二触摸物的镜像触摸物所在位置和第一成像设备的光 心的连线与两个成像设备的光心的连线的夹角, 第二触摸物的镜像触摸物的第二夹角 为该第二触摸物的镜像触摸物所在位置和第二成像设备的光心的连线与两个成像设备 的光心的连线的夹角。
在本实施例中, 方向获取单元 1221根据光学触摸屏 1201的两个成像设备釆集的 实际触摸物和实际触摸物关于反光镜的镜像触摸物的图像数据, 获取实际触摸物的第 一方向信息和第二方向信息、 以及实际触摸物的镜像触摸物的第一方向信息和第二方 向信息,触摸物位置信息获取单元 1222根据实际触摸物的第一方向信息和第二方向信 息、 以及实际触摸物的镜像触摸物的第一方向信息和第二方向信息, 获取触摸物的位 置信息, 然后, 第二触摸物位置信息获取单元 1236从触摸物的位置信息中获取第二触 摸物的位置信息, 对于每个第二触摸物, 第四实际触摸物位置信息获取单元 1237根据 该第二触摸物的位置信息, 获取该第二触摸物关于反光镜的镜像触摸物的位置信息, 根据该第二触摸物的镜像触摸物的位置信息, 获取该第二触摸物的镜像触摸物的第一 方向信息和第二方向信息,然后获取第五触摸物的位置信息和第六触摸物的位置信息, 当触摸物的位置信息中存在该第二触摸物的镜像触摸物的位置信息、 第五触摸物的位 置信息以及第六触摸物的位置信息时, 将该第二触摸物的镜像触摸物的位置信息作为 实际触摸物的位置信息,当第四实际触摸物位置信息获取单元 1237对所有第二触摸物 进行处理后, 就可以得到所有实际触摸物的位置信息, 从而避免了在定位两个以上触 摸物的过程中出现 "鬼点" , 精确定位触摸物所在位置。
触摸定位系统第六实施例
如图 17所示, 为本发明触摸定位系统第六实施例的结构示意图, 在图 12所示结 构示意图的基础上,实际触摸物位置信息获取模块 1203可以包括第一触摸物组获取单 元 1238、第一触摸物组误差获取单元 1239和第五实际触摸物位置信息获取单元 12310。 第一触摸物组获取单元 1238与触摸物位置信息获取单元 1222连接, 第一触摸物组误 差获取单元 1239与第一触摸物组获取单元 1238、 方向获取单元 1221和触摸物位置信 息获取单元 1222连接,第五实际触摸物位置信息获取单元 12310与第一触摸物组误差 获取单元 1239连接。
第一触摸物组获取单元 1238用于根据触摸检测区的位置信息,从触摸物的位置信 息中获取第一触摸物的位置信息, 第一触摸物包括位于光学触摸屏的触摸检测区内的 触摸物, 从第一触摸物中获取第一触摸物组, 每个第一触摸物组包括实际触摸物个数 的第一触摸物。 第一触摸物组误差获取单元 1239用于对于每个第一触摸物组, 根据该 第一触摸物组中的第一触摸物的位置信息, 获取第一触摸物关于反光镜的镜像触摸物 的位置信息, 根据第一触摸物的镜像触摸物的位置信息, 获取第一触摸物的镜像触摸 物的第一方向信息和第二方向信息, 第一触摸物的镜像触摸物的第一方向信息包括第 一触摸物的镜像触摸物所在位置相对于第一成像设备的光心的方向, 第一触摸物的镜 像触摸物的第二方向信息包括第一触摸物的镜像触摸物所在位置相对于第二成像设备 的光心的方向, 根据第一触摸物的第一方向信息和第二方向信息、 以及第一触摸物的 镜像触摸物的第一方向信息和第二方向信息, 获取第一疑似触摸物的位置信息, 根据 第一疑似触摸物的位置信息和触摸物的位置信息, 获取第一疑似触摸物与触摸物的距 离的平方和, 将距离的平方和作为该第一触摸物组的误差。 第五实际触摸物位置信息 获取单元 12310用于比较所有第一触摸物组的误差, 将误差最小的第一触摸物组中的 第一触摸物的位置信息作为实际触摸物的位置信息。
在本实施例中, 第一方向信息具体可以为第一夹角, 第二方向信息具体可以为第 二夹角, 第一触摸物的第一夹角为该第一触摸物所在位置和第一成像设备的光心的连 线与两个成像设备的光心的连线的夹角, 第一触摸物的第二夹角为该第一触摸物所在 位置和第二成像设备的光心的连线与两个成像设备的光心的连线的夹角, 第一触摸物 的镜像触摸物的第一夹角为该第一触摸物的镜像触摸物所在位置和第一成像设备的光 心的连线与两个成像设备的光心的连线的夹角, 第一触摸物的镜像触摸物的第二夹角 为该第一触摸物的镜像触摸物所在位置和第二成像设备的光心的连线与两个成像设备 的光心的连线的夹角。 本实施例的具体工作过程可以参见图 10, 在此不再赘述。
在本实施例中, 方向获取单元 1221根据光学触摸屏 1201的两个成像设备釆集的 实际触摸物和实际触摸物关于反光镜的镜像触摸物的图像数据, 获取实际触摸物的第 一方向信息和第二方向信息、 以及实际触摸物的镜像触摸物的第一方向信息和第二方 向信息,触摸物位置信息获取单元 1222根据实际触摸物的第一方向信息和第二方向信 息、 以及实际触摸物的镜像触摸物的第一方向信息和第二方向信息, 获取触摸物的位 置信息, 然后, 第一触摸物组获取单元 1238从触摸物的位置信息中获取第一触摸物的 位置信息, 再从第一触摸物中获取第一触摸物组, 第一触摸物组误差获取单元 1239 获取每个第一触摸物组的误差, 第五实际触摸物位置信息获取单元 12310将误差最小 的第一触摸物组中的第一触摸物的位置信息作为实际触摸物的位置信息, 从而避免了 在定位两个以上触摸物的过程中出现 "鬼点" , 精确定位触摸物所在位置。
触摸定位系统第七实施例 如图 18所示, 为本发明触摸定位系统第七实施例的结构示意图, 在图 2所示结构 示意图的基础上,实际触摸物位置信息获取模块 1203可以包括第二触摸物组获取单元 12311、第二触摸物组误差获取单元 12312和第六实际触摸物位置信息获取单元 12313。 第二触摸物组获取单元 12311与触摸物位置信息获取单元 1222连接,第二触摸物组误 差获取单元 12312与第二触摸物组获取单元 12311、 方向获取单元 1221和触摸物位置 信息获取单元 1222连接,第六实际触摸物位置信息获取单元 12313与第二触摸物组误 差获取单元 12312连接。
第二触摸物组获取单元 12311用于根据触摸检测区的位置信息, 从触摸物的位置 信息中获取第二触摸物的位置信息, 第二触摸物包括位 s于触摸检测区外的触摸物, 从第二触摸物中获取所有第二触摸物组, 每个第二触摸物组包括实际触摸物个数的第 二触摸物。 第二触摸物组误差获取单元 12312用于对于每个第二触摸物组, 根据该第 二触摸物组中的第二触摸物的位置信息, 获取第二触摸物关于反光镜的镜像触摸物的 位置信息, 根据第二触摸物的镜像触摸物的位置信息, 获取第二触摸物的镜像触摸物 的第一方向信息和第二方向信息, 第二触摸物的镜像触摸物的第一方向信息包括第二 触摸物的镜像触摸物所在位置相对于第一成像设备的光心的方向, 第二触摸物的镜像 触摸物的第二方向信息包括第二触摸物的镜像触摸物所在位置相对于第二成像设备的 光心的方向, 根据第二触摸物的第一方向信息和第二方向信息、 以及第二触摸物的镜 像触摸物的第一方向信息和第二方向信息, 获取第二疑似触摸物的位置信息, 根据第 二疑似触摸物的位置信息和触摸物的位置信息, 获取第二疑似触摸物与触摸物的距离 的平方和, 将距离的平方和作为该第二触摸物组的误差。 第六实际触摸物位置信息获 取单元 12313用于比较所有第二触摸物组的误差, 将误差最小的第二触摸物组中的第 二触摸物的镜像触摸物的位置信息作为实际触摸物的位置信息。
在本实施例中, 第一方向信息具体可以为第一夹角, 第二方向信息具体可以为第 二夹角, 第二触摸物的第一夹角为该第二触摸物所在位置和第一成像设备的光心的连 线与两个成像设备的光心的连线的夹角, 第二触摸物的第二夹角为该第二触摸物所在 位置和第二成像设备的光心的连线与两个成像设备的光心的连线的夹角, 第二触摸物 的镜像触摸物的第一夹角为该第二触摸物的镜像触摸物所在位置和第一成像设备的光 心的连线与两个成像设备的光心的连线的夹角, 第二触摸物的镜像触摸物的第二夹角 为该第二触摸物的镜像触摸物所在位置和第二成像设备的光心的连线与两个成像设备 的光心的连线的夹角。 在本实施例中, 方向获取单元 1221根据光学触摸屏 1201的两个成像设备釆集的 实际触摸物和实际触摸物关于反光镜的镜像触摸物的图像数据, 获取实际触摸物的第 一方向信息和第二方向信息、 以及实际触摸物的镜像触摸物的第一方向信息和第二方 向信息,触摸物位置信息获取单元 1222根据实际触摸物的第一方向信息和第二方向信 息、 以及实际触摸物的镜像触摸物的第一方向信息和第二方向信息, 获取触摸物的位 置信息, 然后, 第二触摸物组获取单元 12311从触摸物的位置信息中获取第二触摸物 的位置信息, 再从第二触摸物中获取所有第二触摸物组, 第二触摸物组误差获取单元 12312获取每个第二触摸物组的误差, 第六实际触摸物位置信息获取单元 12313将误 差最小的第二触摸物组中的第二触摸物的镜像触摸物的位置信息作为实际触摸物的位 置信息, 从而避免了在定位两个以上触摸物的过程中出现 "鬼点" , 精确定位触摸物 所在位置。
包括触摸定位系统的显示器实施例
如图 19所示, 为本发明显示器实施例的结构示意图, 可以包括显示单元和触摸定 位系统 193。 其中, 显示单元包括显示屏幕 191和显示器框架 192, 触摸定位系统 193 安装在显示屏幕 191前面、 靠近使用者的一侧, 并且位于显示器框架 192内部。
另外, 触摸定位系统 193也可以安装在显示器框架 192外部, 触摸定位系统 193 还可以与显示器框架 192整合安装在一起。
触摸定位系统 193可以包括前述触摸定位系统实施例中的任一模块, 在此不再赘 述。
需要说明的是, 在上述所有实施例中, 成像设备可以为摄像头、 照相机等图像捕 捉设备。
本发明所述的技术方案并不限于具体实施方式中所述的实施例。 本领域技术人员 根据本发明的技术方案得出其他的实施方式, 同样属于本发明的技术创新范围。

Claims

权利要求
1、 一种触摸定位方法, 其特征在于, 所述方法应用于包括触摸检测区、 两个成像 设备、 光源和反光镜的光学触摸屏, 所述触摸检测区和所述触摸检测区关于所述反光 镜的镜像触摸检测区都位于每个成像设备的视场内, 所述方法包括:
根据所述两个成像设备釆集的实际触摸物和所述实际触摸物关于所述反光镜的镜 像触摸物的图像数据, 获取触摸物的位置信息, 所述触摸物包括所述实际触摸物和虚 拟触摸物;
根据所述实际触摸物和所述实际触摸物的镜像触摸物的镜像关系、 以及所述触摸 检测区的位置信息, 从所述触摸物的位置信息中获取所述实际触摸物的位置信息。
2、 根据权利要求 1所述的方法, 其特征在于, 所述根据所述实际触摸物和所述实 际触摸物的镜像触摸物的镜像关系、 以及所述触摸检测区的位置信息, 从所述触摸物 的位置信息中获取所述实际触摸物的位置信息包括:
根据所述触摸检测区的位置信息, 从所述触摸物的位置信息中获取第一触摸物的 位置信息和第二触摸物的位置信息, 所述第一触摸物包括位于所述光学触摸屏的触摸 检测区内的触摸物, 所述第二触摸物包括位于所述触摸检测区外的触摸物;
对于每个第一触摸物, 根据所述第一触摸物的位置信息, 获取所述第一触摸物关 于所述反光镜的镜像触摸物的位置信息, 比较所述第一触摸物的镜像触摸物的位置信 息与所述第二触摸物的位置信息, 当所述第二触摸物的位置信息中存在所述第一触摸 物的镜像触摸物的位置信息时, 将所述第一触摸物的位置信息作为实际触摸物的位置 信息。
3、 根据权利要求 1所述的方法, 其特征在于, 所述根据所述实际触摸物和所述实 际触摸物的镜像触摸物的镜像关系、 以及所述触摸检测区的位置信息, 从所述触摸物 的位置信息中获取所述实际触摸物的位置信息包括:
根据所述触摸检测区的位置信息, 从所述触摸物的位置信息中获取第一触摸物的 位置信息和第二触摸物的位置信息, 所述第一触摸物包括位于所述光学触摸屏的触摸 检测区内的触摸物, 所述第二触摸物包括位于所述触摸检测区外的触摸物;
对于每个第二触摸物, 根据所述第二触摸物的位置信息, 获取所述第二触摸物关 于所述反光镜的镜像触摸物的位置信息, 将所述第二触摸物的镜像触摸物的位置信息 与所述第一触摸物的位置信息相比较, 当所述第一触摸物的位置信息中存在所述第二 触摸物的镜像触摸物的位置信息时, 将所述第二触摸物的镜像触摸物的位置信息作为 实际触摸物的位置信息。
4、 根据权利要求 1所述的方法, 其特征在于, 所述两个成像设备包括第一成像设 备和第二成像设备, 所述根据所述两个成像设备釆集的实际触摸物和所述实际触摸物 关于所述反光镜的镜像触摸物的图像数据, 获取触摸物的位置信息包括:
根据所述两个成像设备釆集的实际触摸物和所述实际触摸物关于所述反光镜的镜 像触摸物的图像数据, 获取所述实际触摸物的第一方向信息和第二方向信息、 以及所 述实际触摸物的镜像触摸物的第一方向信息和第二方向信息, 其中, 所述实际触摸物 的第一方向信息包括所述实际触摸物所在位置相对于所述第一成像设备的光心的方 向, 所述实际触摸物的第二方向信息包括所述实际触摸物所在位置相对于所述第二成 像设备的光心的方向, 所述实际触摸物的镜像触摸物的第一方向信息包括所述实际触 摸物的镜像触摸物所在位置相对于所述第一成像设备的光心的方向, 所述实际触摸物 的镜像触摸物的第二方向信息包括所述实际触摸物的镜像触摸物所在位置相对于所述 第二成像设备的光心的方向;
根据所述实际触摸物的第一方向信息和第二方向信息、 以及所述实际触摸物的镜 像触摸物的第一方向信息和第二方向信息, 获取所述触摸物的位置信息。
5、 根据权利要求 4所述的方法, 其特征在于, 所述根据所述实际触摸物和所述实 际触摸物的镜像触摸物的镜像关系、 以及所述触摸检测区的位置信息, 从所述触摸物 的位置信息中获取所述实际触摸物的位置信息包括:
根据所述触摸检测区的位置信息, 从所述触摸物的位置信息中获取第一触摸物的 位置信息, 所述第一触摸物包括位于所述光学触摸屏的触摸检测区内的触摸物; 对于每个第一触摸物, 根据所述第一触摸物的位置信息, 获取所述第一触摸物关 于所述反光镜的镜像触摸物的位置信息, 根据所述第一触摸物的镜像触摸物的位置信 息, 获取所述第一触摸物的镜像触摸物的第一方向信息和第二方向信息, 所述第一触 摸物的镜像触摸物的第一方向信息包括所述第一触摸物的镜像触摸物所在位置相对于 所述第一成像设备的光心的方向, 所述第一触摸物的镜像触摸物的第二方向信息包括 所述第一触摸物的镜像触摸物所在位置相对于所述第二成像设备的光心的方向, 根据 所述第一触摸物的第一方向信息和所述第一触摸物的镜像触摸物的第二方向信息, 获 取第三触摸物的位置信息, 根据所述第一触摸物的第二方向信息和所述第一触摸物的 镜像触摸物的第一方向信息, 获取第四触摸物的位置信息, 将所述第一触摸物的镜像 触摸物的位置信息、 所述第三触摸物的位置信息以及所述第四触摸物的位置信息与所 述触摸物的位置信息相比较, 当所述触摸物的位置信息中存在所述第一触摸物的镜像 触摸物的位置信息、 所述第三触摸物的位置信息以及所述第四触摸物的位置信息时, 将所述第一触摸物的位置信息作为实际触摸物的位置信息。
6、 根据权利要求 4所述的方法, 其特征在于, 所述根据所述实际触摸物和所述实 际触摸物的镜像触摸物的镜像关系、 以及所述触摸检测区的位置信息, 从所述触摸物 的位置信息中获取所述实际触摸物的位置信息包括:
根据所述触摸检测区的位置信息, 从所述触摸物的位置信息中获取第二触摸物的 位置信息, 所述第二触摸物包括位于所述触摸检测区外的触摸物;
对于每个第二触摸物, 根据所述第二触摸物的位置信息, 获取所述第二触摸物关 于所述反光镜的镜像触摸物的位置信息, 根据所述第二触摸物的镜像触摸物的位置信 息, 获取所述第二触摸物的镜像触摸物的第一方向信息和第二方向信息, 所述第二触 摸物的镜像触摸物的第一方向信息包括所述第二触摸物的镜像触摸物所在位置相对于 所述第一成像设备的光心的方向, 所述第二触摸物的镜像触摸物的第二方向信息包括 所述第二触摸物的镜像触摸物所在位置相对于所述第二成像设备的光心的方向, 根据 所述第二触摸物的第一方向信息和所述第二触摸物的镜像触摸物的第二方向信息, 获 取第五触摸物的位置信息, 根据所述第二触摸物的第二方向信息和所述第二触摸物的 镜像触摸物的第一方向信息, 获取第六触摸物的位置信息, 将所述第二触摸物的镜像 触摸物的位置信息、 所述第五触摸物的位置信息以及所述第六触摸物的位置信息与所 述触摸物的位置信息相比较, 当所述触摸物的位置信息中存在所述第二触摸物的镜像 触摸物的位置信息、 所述第五触摸物的位置信息以及所述第六触摸物的位置信息时, 将所述第二触摸物的镜像触摸物的位置信息作为实际触摸物的位置信息。
7、 根据权利要求 4所述的方法, 其特征在于, 所述根据所述实际触摸物和所述实 际触摸物的镜像触摸物的镜像关系、 以及所述触摸检测区的位置信息, 从所述触摸物 的位置信息中获取所述实际触摸物的位置信息包括:
根据所述触摸检测区的位置信息, 从所述触摸物的位置信息中获取第一触摸物的 位置信息, 所述第一触摸物包括位于所述光学触摸屏的触摸检测区内的触摸物; 从所述第一触摸物中获取所有第一触摸物组, 每个第一触摸物组包括实际触摸物 个数的第一触摸物;
对于每个第一触摸物组, 根据所述第一触摸物组中的第一触摸物的位置信息, 获 取所述第一触摸物关于所述反光镜的镜像触摸物的位置信息, 根据所述第一触摸物的 镜像触摸物的位置信息, 获取所述第一触摸物的镜像触摸物的第一方向信息和第二方 向信息, 所述第一触摸物的镜像触摸物的第一方向信息包括所述第一触摸物的镜像触 摸物所在位置相对于所述第一成像设备的光心的方向, 所述第一触摸物的镜像触摸物 的第二方向信息包括所述第一触摸物的镜像触摸物所在位置相对于所述第二成像设备 的光心的方向, 根据所述第一触摸物的第一方向信息和第二方向信息、 以及所述第一 触摸物的镜像触摸物的第一方向信息和第二方向信息, 获取第一疑似触摸物的位置信 息, 根据所述第一疑似触摸物的位置信息和所述触摸物的位置信息, 获取所述第一疑 似触摸物与所述触摸物的距离的平方和, 将所述距离的平方和作为所述第一触摸物组 的误差;
比较所有第一触摸物组的误差, 将误差最小的第一触摸物组中的第一触摸物的位 置信息作为所述实际触摸物的位置信息。
8、 根据权利要求 4所述的方法, 其特征在于, 所述根据所述实际触摸物和所述实 际触摸物的镜像触摸物的镜像关系、 以及所述触摸检测区的位置信息, 从所述触摸物 的位置信息中获取所述实际触摸物的位置信息包括:
根据所述触摸检测区的位置信息, 从所述触摸物的位置信息中获取第二触摸物的位置 信息, 所述第二触摸物包括位于所述触摸检测区外的触摸物;
从所述第二触摸物中获取所有第二触摸物组, 每个第二触摸物组包括实际触摸物 个数的第二触摸物;
对于每个第二触摸物组, 根据所述第二触摸物组中的第二触摸物的位置信息, 获 取所述第二触摸物关于所述反光镜的镜像触摸物的位置信息, 根据所述第二触摸物的 镜像触摸物的位置信息, 获取所述第二触摸物的镜像触摸物的第一方向信息和第二方 向信息, 所述第二触摸物的镜像触摸物的第一方向信息包括所述第二触摸物的镜像触 摸物所在位置相对于所述第一成像设备的光心的方向, 所述第二触摸物的镜像触摸物 的第二方向信息包括所述第二触摸物的镜像触摸物所在位置相对于所述第二成像设备 的光心的方向, 根据所述第二触摸物的第一方向信息和第二方向信息、 以及所述第二 触摸物的镜像触摸物的第一方向信息和第二方向信息, 获取第二疑似触摸物的位置信 息, 根据所述第二疑似触摸物的位置信息和所述触摸物的位置信息, 获取所述第二疑 似触摸物与所述触摸物的距离的平方和, 将所述距离的平方和作为所述第二触摸物组 的误差;
比较所有第二触摸物组的误差, 将误差最小的第二触摸物组中的第二触摸物的镜 像触摸物的位置信息作为所述实际触摸物的位置信息。
9、 根据权利要求 4-8任一所述的方法, 其特征在于, 所述第一方向信息具体为第 一夹角, 所述第二方向信息具体为第二夹角, 所述触摸物的第一夹角包括所述触摸物 所在位置和所述第一成像设备的光心的连线与所述两个成像设备的光心的连线的夹 角, 所述触摸物的第二夹角包括所述触摸物所在位置和所述第二成像设备的光心的连 线与所述两个成像设备的光心的连线的夹角, 所述触摸物关于所述反光镜的镜像触摸 物的第一方向信息包括所述触摸物的镜像触摸物所在位置和所述第一成像设备的光心 的连线与所述两个成像设备的光心的连线的夹角, 所述触摸物的镜像触摸物的第二夹 角包括所述触摸物的镜像触摸物所在位置和所述第二成像设备的光心的连线与所述两 个成像设备的光心的连线的夹角。
10、 一种触摸定位系统, 其特征在于, 包括:
光学触摸屏, 所述光学触摸屏包括触摸检测区、 两个成像设备、 光源和反光镜, 所述触摸检测区和所述触摸检测区关于所述反光镜的镜像触摸检测区都位于每个成像 设备的视场内;
触摸物位置信息获取模块, 用于根据所述两个成像设备釆集的实际触摸物和所述 实际触摸物关于所述反光镜的镜像触摸物的图像数据, 获取触摸物的位置信息, 所述 触摸物包括所述实际触摸物和虚拟触摸物;
实际触摸物位置信息获取模块, 用于根据所述实际触摸物和所述实际触摸物的镜 像触摸物的镜像关系、 以及所述触摸检测区的位置信息, 从所述触摸物的位置信息中 获取所述实际触摸物的位置信息。
11、 根据权利要求 10所述的系统, 其特征在于, 所述实际触摸物位置信息获取模 块包括:
触摸物位置信息分类单元, 用于根据所述触摸检测区的位置信息, 从所述触摸物 的位置信息中获取第一触摸物的位置信息和第二触摸物的位置信息, 所述第一触摸物 包括位于所述光学触摸屏的触摸检测区内的触摸物, 所述第二触摸物包括位于所述触 摸检测区外的触摸物;
第一实际触摸物位置信息获取单元, 用于对于每个第一触摸物, 根据所述第一触 摸物的位置信息, 获取所述第一触摸物关于所述反光镜的镜像触摸物的位置信息, 比 较所述第一触摸物的镜像触摸物的位置信息与所述第二触摸物的位置信息, 当所述第 二触摸物的位置信息中存在所述第一触摸物的镜像触摸物的位置信息时, 将所述第一 触摸物的位置信息作为实际触摸物的位置信息。
12、 根据权利要求 10所述的系统, 其特征在于, 所述实际触摸物位置信息获取模 块包括:
触摸物位置信息分类单元, 用于根据所述触摸检测区的位置信息, 从所述触摸物 的位置信息中获取第一触摸物的位置信息和第二触摸物的位置信息, 所述第一触摸物 包括位于所述光学触摸屏的触摸检测区内的触摸物, 所述第二触摸物包括位于所述触 摸检测区外的触摸物;
第二实际触摸物位置信息获取单元, 用于对于每个第二触摸物, 根据所述第二触 摸物的位置信息, 获取所述第二触摸物关于所述反光镜的镜像触摸物的位置信息, 将 所述第二触摸物的镜像触摸物的位置信息与所述第一触摸物的位置信息相比较, 当所 述第一触摸物的位置信息中存在所述第二触摸物的镜像触摸物的位置信息时, 将所述 第二触摸物的镜像触摸物的位置信息作为实际触摸物的位置信息。
13、 根据权利要求 10所述的系统, 其特征在于, 所述两个成像设备包括第一成像 设备和第二成像设备, 所述触摸物位置信息获取模块包括:
方向获取单元, 用于根据所述两个成像设备釆集的实际触摸物和所述实际触摸物 关于所述反光镜的镜像触摸物的图像数据, 获取所述实际触摸物的第一方向信息和第 二方向信息、 以及所述实际触摸物的镜像触摸物的第一方向信息和第二方向信息, 其 中, 所述实际触摸物的第一方向信息包括所述实际触摸物所在位置相对于所述第一成 像设备的光心的方向, 所述实际触摸物的第二方向信息包括所述实际触摸物所在位置 相对于所述第二成像设备的光心的方向, 所述实际触摸物的镜像触摸物的第一方向信 息包括所述实际触摸物的镜像触摸物所在位置相对于所述第一成像设备的光心的方 向, 所述实际触摸物的镜像触摸物的第二方向信息包括所述实际触摸物的镜像触摸物 所在位置相对于所述第二成像设备的光心的方向;
触摸物位置信息获取单元, 用于根据所述实际触摸物的第一方向信息和第二方向 信息、 以及所述实际触摸物的镜像触摸物的第一方向信息和第二方向信息, 获取所述 触摸物的位置信息。
14、 根据权利要求 13所述的系统, 其特征在于, 所述实际触摸物位置信息获取模 块包括:
第一触摸物位置信息获取单元, 用于根据所述触摸检测区的位置信息, 从所述触 摸物的位置信息中获取第一触摸物的位置信息, 所述第一触摸物包括位于所述光学触 摸屏的触摸检测区内的触摸物;
第三实际触摸物位置信息获取单元, 用于对于每个第一触摸物, 根据所述第一触 摸物的位置信息, 获取所述第一触摸物关于所述反光镜的镜像触摸物的位置信息, 根 据所述第一触摸物的镜像触摸物的位置信息, 获取所述第一触摸物的镜像触摸物的第 一方向信息和第二方向信息, 所述第一触摸物的镜像触摸物的第一方向信息包括所述 第一触摸物的镜像触摸物所在位置相对于所述第一成像设备的光心的方向, 所述第一 触摸物的镜像触摸物的第二方向信息包括所述第一触摸物的镜像触摸物所在位置相对 于所述第二成像设备的光心的方向, 根据所述第一触摸物的第一方向信息和所述第一 触摸物的镜像触摸物的第二方向信息, 获取第三触摸物的位置信息, 根据所述第一触 摸物的第二方向信息和所述第一触摸物的镜像触摸物的第一方向信息, 获取第四触摸 物的位置信息, 将所述第一触摸物的镜像触摸物的位置信息、 所述第三触摸物的位置 信息以及所述第四触摸物的位置信息与所述触摸物的位置信息相比较, 当所述触摸物 的位置信息中存在所述第一触摸物的镜像触摸物的位置信息、 所述第三触摸物的位置 信息以及所述第四触摸物的位置信息时, 将所述第一触摸物的位置信息作为实际触摸 物的位置信息。
15、 根据权利要求 13所述的系统, 其特征在于, 所述实际触摸物位置信息获取模 块包括:
第二触摸物位置信息获取单元, 用于根据所述触摸检测区的位置信息, 从所述触 摸物的位置信息中获取第二触摸物的位置信息, 所述第二触摸物包括位于所述触摸检 测区外的触摸物;
第四实际触摸物位置信息获取单元, 与所述方向获取单元和所述第二触摸物位置 信息获取单元连接, 用于对于每个第二触摸物, 根据所述第二触摸物的位置信息, 获 取所述第二触摸物关于所述反光镜的镜像触摸物的位置信息, 根据所述第二触摸物的 镜像触摸物的位置信息, 获取所述第二触摸物的镜像触摸物的第一方向信息和第二方 向信息, 所述第二触摸物的镜像触摸物的第一方向信息包括所述第二触摸物的镜像触 摸物所在位置相对于所述第一成像设备的光心的方向, 所述第二触摸物的镜像触摸物 的第二方向信息包括所述第二触摸物的镜像触摸物所在位置相对于所述第二成像设备 的光心的方向, 根据所述第二触摸物的第一方向信息和所述第二触摸物的镜像触摸物 的第二方向信息, 获取第五触摸物的位置信息, 根据所述第二触摸物的第二方向信息 和所述第二触摸物的镜像触摸物的第一方向信息, 获取第六触摸物的位置信息, 将所 述第二触摸物的镜像触摸物的位置信息、 所述第五触摸物的位置信息以及所述第六触 摸物的位置信息与所述触摸物的位置信息相比较, 当所述触摸物的位置信息中存在所 述第二触摸物的镜像触摸物的位置信息、 所述第五触摸物的位置信息以及所述第六触 摸物的位置信息时, 将所述第二触摸物的镜像触摸物的位置信息作为实际触摸物的位 置信息。
16、 根据权利要求 13所述的系统, 其特征在于, 所述实际触摸物位置信息获取模 块包括:
第一触摸物组获取单元, 用于根据所述触摸检测区的位置信息, 从所述触摸物的 位置信息中获取第一触摸物的位置信息, 所述第一触摸物包括位于所述光学触摸屏的 触摸检测区内的触摸物, 从所述第一触摸物中获取第一触摸物组, 每个第一触摸物组 包括所述实际触摸物个数的第一触摸物;
第一触摸物组误差获取单元, 用于对于每个第一触摸物组, 根据所述第一触摸物组 中的第一触摸物的位置信息, 获取所述第一触摸物关于所述反光镜的镜像触摸物的位置 信息, 根据所述第一触摸物的镜像触摸物的位置信息, 获取所述第一触摸物的镜像触摸 物的第一方向信息和第二方向信息, 所述第一触摸物的镜像触摸物的第一方向信息包括 所述第一触摸物的镜像触摸物所在位置相对于所述第一成像设备的光心的方向, 所述第 一触摸物的镜像触摸物的第二方向信息包括所述第一触摸物的镜像触摸物所在位置相对 于所述第二成像设备的光心的方向, 根据所述第一触摸物的第一方向信息和第二方向信 息、 以及所述第一触摸物的镜像触摸物的第一方向信息和第二方向信息, 获取第一疑似 触摸物的位置信息, 根据所述第一疑似触摸物的位置信息和所述触摸物的位置信息, 获 取所述第一疑似触摸物与所述触摸物的距离的平方和, 将所述距离的平方和作为所述第 一触摸物组的误差;
第五实际触摸物位置信息获取单元, 用于比较所有第一触摸物组的误差, 将误差 最小的第一触摸物组中的第一触摸物的位置信息作为所述实际触摸物的位置信息。
17、 根据权利要求 13所述的系统, 其特征在于, 所述实际触摸物位置信息获取模 块包括:
第二触摸物组获取单元, 用于根据所述触摸检测区的位置信息, 从所述触摸物的 位置信息中获取第二触摸物的位置信息, 所述第二触摸物包括位于所述触摸检测区外 的触摸物, 从所述第二触摸物中获取所有第二触摸物组, 每个第二触摸物组包括实际 触摸物个数的第二触摸物; 第二触摸物组误差获取单元, 用于对于每个第二触摸物组, 根据所述第二触摸物 组中的第二触摸物的位置信息, 获取所述第二触摸物关于所述反光镜的镜像触摸物的 位置信息, 根据所述第二触摸物的镜像触摸物的位置信息, 获取所述第二触摸物的镜 像触摸物的第一方向信息和第二方向信息, 所述第二触摸物的镜像触摸物的第一方向 信息包括所述第二触摸物的镜像触摸物所在位置相对于所述第一成像设备的光心的方 向, 所述第二触摸物的镜像触摸物的第二方向信息包括所述第二触摸物的镜像触摸物 所在位置相对于所述第二成像设备的光心的方向, 根据所述第二触摸物的第一方向信 息和第二方向信息、 以及所述第二触摸物的镜像触摸物的第一方向信息和第二方向信 息, 获取第二疑似触摸物的位置信息, 根据所述第二疑似触摸物的位置信息和所述触 摸物的位置信息, 获取所述第二疑似触摸物与所述触摸物的距离的平方和, 将所述距 离的平方和作为所述第二触摸物组的误差;
第六实际触摸物位置信息获取单元, 用于比较所有第二触摸物组的误差, 将误差 最小的第二触摸物组中的第二触摸物的镜像触摸物的位置信息作为所述实际触摸物的 位置信息。
18、 根据权利要求 13-17任一所述的系统, 其特征在于, 所述第一方向信息具体 为第一夹角, 所述第二方向信息具体为第二夹角, 所述触摸物的第一夹角包括所述触 摸物所在位置和所述第一成像设备的光心的连线与所述两个成像设备的光心的连线的 夹角, 所述触摸物的第二夹角包括所述触摸物所在位置和所述第二成像设备的光心的 连线与所述两个成像设备的光心的连线的夹角, 所述触摸物关于所述反光镜的镜像触 摸物的第一方向信息包括所述触摸物的镜像触摸物所在位置和所述第一成像设备的光 心的连线与所述两个成像设备的光心的连线的夹角, 所述触摸物的镜像触摸物的第二 夹角包括所述触摸物的镜像触摸物所在位置和所述第二成像设备的光心的连线与所述 两个成像设备的光心的连线的夹角。
19、 根据权利要求 10-17任一所述的系统, 其特征在于, 所述光学触摸屏还包括触摸 屏框架, 所述触摸屏框架包括第一边缘、 第二边缘、 第三边缘和第四边缘, 所述两个成像 设备分别安装在所述第一边缘和所述第二边缘的交角处、 以及所述第一边缘和所述第四边 缘的交角处, 所述反光镜安装在所述第三边缘上, 所述光源安装在所述第一边缘、 第二边 缘和第四边缘上。
20、 一种显示器, 包括显示单元, 其特征在于, 还包括如权利要求 10-19 中任一 项所述的触摸定位系统。
PCT/CN2011/072848 2010-04-16 2011-04-15 触摸定位方法和系统、以及显示器 WO2011127836A1 (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US13/641,433 US20130027357A1 (en) 2010-04-16 2011-04-15 Touch locating method and system, display
KR1020127030013A KR20130052567A (ko) 2010-04-16 2011-04-15 터치 로케이팅 방법과 시스템 및 디스플레이
JP2013504109A JP2013525884A (ja) 2010-04-16 2011-04-15 接触位置特定方法並びにシステム及びディスプレイ

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201010152319.8 2010-04-16
CN2010101523198A CN102221938A (zh) 2010-04-16 2010-04-16 触摸定位方法和系统、以及显示器

Publications (1)

Publication Number Publication Date
WO2011127836A1 true WO2011127836A1 (zh) 2011-10-20

Family

ID=44778501

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2011/072848 WO2011127836A1 (zh) 2010-04-16 2011-04-15 触摸定位方法和系统、以及显示器

Country Status (4)

Country Link
JP (1) JP2013525884A (zh)
KR (1) KR20130052567A (zh)
CN (1) CN102221938A (zh)
WO (1) WO2011127836A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107515700A (zh) * 2017-09-05 2017-12-26 电子科技大学中山学院 一种用于智能镜子的非接触式触屏效果模拟方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015152873A1 (en) * 2014-03-31 2015-10-08 Hewlett-Packard Development Company, L.P. Interaction with surface acoustic wave touchscreens
TWI574196B (zh) * 2016-01-21 2017-03-11 緯創資通股份有限公司 光學觸控裝置、觸控指示點位置決定方法以及光學觸控系統

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002007072A2 (en) * 2000-07-19 2002-01-24 Next Holdings Limited Touch panel display system
CN1577386A (zh) * 2003-06-30 2005-02-09 索尼株式会社 位置检测装置
CN101566897A (zh) * 2009-06-03 2009-10-28 广东威创视讯科技股份有限公司 触摸屏定位装置及触摸屏定位方法
CN201429831Y (zh) * 2009-04-29 2010-03-24 北京汇冠新技术股份有限公司 一种带摄像头触摸屏
CN101907956A (zh) * 2010-08-13 2010-12-08 苏州佳世达电通有限公司 判断光学触控屏幕被触控位置的方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002007072A2 (en) * 2000-07-19 2002-01-24 Next Holdings Limited Touch panel display system
CN1577386A (zh) * 2003-06-30 2005-02-09 索尼株式会社 位置检测装置
CN201429831Y (zh) * 2009-04-29 2010-03-24 北京汇冠新技术股份有限公司 一种带摄像头触摸屏
CN101566897A (zh) * 2009-06-03 2009-10-28 广东威创视讯科技股份有限公司 触摸屏定位装置及触摸屏定位方法
CN101907956A (zh) * 2010-08-13 2010-12-08 苏州佳世达电通有限公司 判断光学触控屏幕被触控位置的方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107515700A (zh) * 2017-09-05 2017-12-26 电子科技大学中山学院 一种用于智能镜子的非接触式触屏效果模拟方法

Also Published As

Publication number Publication date
KR20130052567A (ko) 2013-05-22
CN102221938A (zh) 2011-10-19
JP2013525884A (ja) 2013-06-20

Similar Documents

Publication Publication Date Title
US10324563B2 (en) Identifying a target touch region of a touch-sensitive surface based on an image
TWI446249B (zh) 光學影像式觸控裝置
US8743089B2 (en) Information processing apparatus and control method thereof
US10003777B2 (en) Projection screen for specularly reflecting light
TW201040850A (en) Gesture recognition method and interactive input system employing same
US20160077670A1 (en) System with projector unit and computer
TWI498785B (zh) 觸控感應裝置以及觸碰點偵測方法
TWI536226B (zh) 光學觸控裝置與觸控影像處理方法
WO2012071880A1 (en) Coordinate locating method and apparatus
TW201030578A (en) A detection module and an optical detection system comprising the same
TWI461990B (zh) 光學影像式觸控裝置與觸控影像處理方法
CN102033640B (zh) 一种触摸系统及多点定位方法
WO2012031513A1 (zh) 触摸定位方法、触摸屏、触摸系统和显示器
WO2011127836A1 (zh) 触摸定位方法和系统、以及显示器
WO2011000328A1 (zh) 一种交互式显示器
US10275092B2 (en) Transforming received touch input
US9323346B2 (en) Accurate 3D finger tracking with a single camera
WO2011147301A1 (zh) 触摸屏标定方法和装置、触摸屏、触摸系统和显示器
TW201222365A (en) Optical screen touch system and method thereof
US20130027357A1 (en) Touch locating method and system, display
Motamedi Hd touch: multi-touch and object sensing on a high definition lcd tv
US9652081B2 (en) Optical touch system, method of touch detection, and computer program product
JP2010282463A (ja) タッチパネル装置
TWM355612U (en) Table with touch-controlled display picture
CN102033641B (zh) 一种触摸系统及多点定位方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11768447

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2013504109

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 13641433

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 20127030013

Country of ref document: KR

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 11768447

Country of ref document: EP

Kind code of ref document: A1