WO2018203595A1 - Projector capable of touch interaction - Google Patents

Projector capable of touch interaction Download PDF

Info

Publication number
WO2018203595A1
WO2018203595A1 PCT/KR2018/002237 KR2018002237W WO2018203595A1 WO 2018203595 A1 WO2018203595 A1 WO 2018203595A1 KR 2018002237 W KR2018002237 W KR 2018002237W WO 2018203595 A1 WO2018203595 A1 WO 2018203595A1
Authority
WO
WIPO (PCT)
Prior art keywords
infrared
touch
sensor
panel
screen
Prior art date
Application number
PCT/KR2018/002237
Other languages
French (fr)
Korean (ko)
Inventor
임성현
Original Assignee
임성현
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020170056855A external-priority patent/KR102417534B1/en
Priority claimed from KR1020170056857A external-priority patent/KR102417535B1/en
Application filed by 임성현 filed Critical 임성현
Publication of WO2018203595A1 publication Critical patent/WO2018203595A1/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/54Accessories
    • G03B21/56Projection screens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means

Definitions

  • a projector capable of touch interaction includes a panel for converting light from a light source into an image; A pattern beam providing unit configured to output a pattern beam; A single lens for projecting the pattern beam and the image from the panel onto a screen and receiving a signal by touch interaction on the screen; A sensor for recognizing position coordinates of the touch object currently touched on the screen based on the signal generated by the touch interaction; And transmitting light from the light source to the panel, transmitting an image from the panel to the lens, reflecting the pattern beam to the lens, and receiving a signal by the touch interaction received from the lens. It includes; an optical separation element for sending to the sensor.
  • an interaction signal processor configured to determine which touch object is generated based on the position coordinates from the sensor and convert the touch event into a corresponding touch event.
  • the signal by the touch interaction may be infrared light whose pattern is distorted or changed in shape at a corresponding touch point as the user touches a touch object with a body part in the image projected on the screen.
  • a projector capable of touch interaction a panel for converting light from the light source into an image;
  • a pattern beam providing unit configured to output a pattern beam;
  • a single lens for projecting the pattern beam and the image from the panel onto a screen and receiving a signal by touch interaction on the screen;
  • a sensor for recognizing position coordinates of the touch object currently touched on the screen based on the signal generated by the touch interaction;
  • an optical separation element for transmitting an image from the panel to the lens, reflecting the pattern beam to the lens, and sending a signal of the touch interaction received from the lens to the sensor.
  • a projector capable of touch interaction a panel for converting light from the light source into an image; A single lens for projecting an image from the panel onto a screen and receiving a signal by touch interaction on the screen; A sensor for recognizing position coordinates of the touch object currently touched on the screen based on the signal generated by the touch interaction; And an optical separation element configured to transmit an image from the panel to the lens and to transmit a signal due to the touch interaction received from the lens to the sensor.
  • the panel may be formed of a transmissive panel, the light source and the panel may be installed to face the first surface of the optical separation element, the light source may be installed at the rear of the panel, and the lens is the optical separation element It may be installed to face the second surface of the sensor, the sensor may be installed to face the third surface of the optical separation element.
  • projectors that can be touched on any surface using a dedicated pen can be used to control the contents or OS that are displayed on portable and portable small projectors. Can be implemented.
  • the utilization of the present invention is expected to increase further.
  • FIG. 7 is a flowchart for describing a touch interaction operation using the projector illustrated in FIG. 2.
  • FIG. 10 is a view for explaining the overall operation concept of the projector capable of touch interaction according to another embodiment of the present invention.
  • FIG. 12 is a diagram illustrating a recognition area of a sensor illustrated in FIG. 11.
  • FIG. 14 is a diagram illustrating another example of the internal configuration of the projector shown in FIG. 10.
  • FIG. 15 is a flowchart for describing a touch interaction operation using the projector illustrated in FIG. 14.
  • FIG. 19 is a block diagram illustrating an embodiment of a configuration of a terminal device illustrated in FIG. 16.
  • 22 is a flowchart illustrating an embodiment of a method of setting an infrared brightness threshold of an infrared sensor.
  • FIG. 25 is a block diagram illustrating another exemplary embodiment of the configuration of the terminal device illustrated in FIG. 16.
  • 26 is a flowchart illustrating a parameter setting method for infrared signal processing according to another embodiment of the present invention.
  • 27 is a flowchart illustrating another embodiment of a method of setting an infrared brightness threshold of an infrared sensor.
  • 28 and 29 are diagrams for describing an example of a method of setting an infrared brightness threshold according to a brightness item designated by a user.
  • FIG. 30 is a flowchart illustrating a filtering method for infrared signal processing according to an embodiment of the present invention.
  • 31 is a flowchart illustrating an embodiment of a method of determining a frame motion event by analyzing an infrared signal.
  • FIG. 1 is a view for explaining the overall operation concept of a projector capable of touch interaction according to an embodiment of the present invention.
  • the projector 100 capable of touch interaction according to the exemplary embodiment of the present invention is positioned to be spaced apart from the screen 200 by a predetermined distance.
  • the projector 100 is small enough to be portable and mobile, and may be referred to as a pico projector, for example.
  • the projector 100 may project a predetermined image (eg, including one or more touch objects (selection menu)) and a pattern beam (eg, an infrared pattern beam) to the screen 200 through the lenses 33 and 43. have.
  • a predetermined image eg, including one or more touch objects (selection menu)
  • a pattern beam eg, an infrared pattern beam
  • the pattern beam will spread evenly so as to cover the entire front surface of the screen 200.
  • the projector 100 may process a touch event corresponding to the generated touch interaction.
  • the touch interaction is generated by the user's touch.
  • a touch object with a body part (eg, a finger) on an image projected on the screen 200 (eg, including one or more touch objects (selection menu)
  • the touch point Pattern distortion or shape change will occur. That is, an infrared pattern beam (for example, a structured light beam) is formed on the front surface of the screen 200.
  • a touch object is touched by a finger
  • a pattern distortion or shape change is performed at the touch point by the finger. Will cause.
  • pattern distortion or shape change may occur at a corresponding touch point.
  • the infrared light whose pattern is distorted or changed in shape at the corresponding touch point as compared to other points may be referred to as an example of a signal by touch interaction described in the claims of the present invention.
  • Using the pattern distortion or shape change described above will also contribute to the enlargement of the distance between the projector 100 and the screen 200.
  • the receiving side will receive an infrared pattern beam having a smaller amount of light than other positions.
  • the touch object is touched by a body part, a change in the amount of infrared light may occur at a corresponding touch point. Therefore, infrared light having a changed amount of light at the corresponding touch point compared to other points may be referred to as an example of a signal by touch interaction described in the claims of the present invention.
  • FIG. 2 is a diagram illustrating an example of an internal configuration of the projector illustrated in FIG. 1.
  • the projector of FIG. 2 may be referred to as a digital light processing (DLP) projector, and may directly touch the screen 200 with a body part (eg, a finger).
  • DLP digital light processing
  • the projector 100 illustrated in FIG. 2 includes a light source 30, a panel 11, an infrared pattern beam providing unit 32, a lens 33, a filter 34, a sensor 35, and an interaction signal processor 36. And an optical separation element 37.
  • the light source 30 emits predetermined light.
  • the light source 30 may include a laser diode, an LCD, an LED, and the like.
  • Light emitted from the light source 30 may be referred to as light that becomes an image to be displayed on the screen 200.
  • the panel 31 may convert light (light) generated by the light source 30 into an image that can be viewed by a person. In other words, an image based on the light from the light source 30 is formed on the panel 31. That is, the panel 31 may be formed with an image to be displayed on the screen 200.
  • the panel 31 may be composed of a reflective panel. Accordingly, the light source 30 is provided on the side spaced apart from the panel 31 by a predetermined distance.
  • the infrared pattern beam providing unit 32 outputs an infrared pattern beam projected on the front surface of the screen 200.
  • the infrared pattern beam will spread evenly to cover the entirety of the screen 200.
  • the infrared pattern beam may refer to a beam of a predetermined pattern formed of infrared light.
  • the infrared pattern beam may be an example of the pattern beam described in the claims of the present invention.
  • the lens 33 magnifies an image from the panel 31 and sends it to the screen 200.
  • the lens 33 sends the infrared pattern beam from the infrared pattern beam providing unit 32 to spread evenly over the front surface of the screen 200.
  • the lens 33 may receive an infrared signal (light) due to a touch interaction on the screen 200.
  • the lens 33 may receive infrared light having a pattern distortion or a shape change at a corresponding touch point.
  • the lens 33 may receive infrared light having a changed amount of light at the touch point.
  • lens 33 will also receive infrared light at points other than touch points.
  • the lens 33 is installed at the front of the projector 100.
  • the lens 33 may be installed to be exposed from the projector 100 as shown in FIG. 1.
  • the filter 34 is preferably installed at the front end of the sensor 35.
  • the light emitted from the light source 30 is not all reflected by the light splitting element 37 to be incident on the panel 31, but some of the light may pass through the light splitting element 37 as it is.
  • the light emitted from the light source 30 is a laser
  • the laser includes an infrared region, so that light corresponding to the infrared region passes through the optical separation element 37 as it is and enters the sensor 35. Can be.
  • the sensor 35 will perform abnormal sensing.
  • the filter 34 is installed at the front end of the sensor 35 to remove light (that is, light of the light source 30) that does not need to be applied to the sensor 35.
  • the sensor 35 recognizes the position coordinates of the touch object currently touched based on the received infrared signal (that is, including a signal by touch interaction). That is, the sensor 35 may receive an infrared signal when the user touches any one of the touch objects on the screen 200, and recognize the position coordinates of the touch object based on the received infrared signal. A detailed description of the position coordinate recognition operation of the sensor 35 will be described later.
  • the interaction signal processor 36 may convert the touch event into a corresponding touch event when determining which touch object has occurred.
  • the interaction signal processor 36 may process the touch event.
  • the inclined surface 37a is formed inside the optical separation element 37.
  • the oblique surface 37a may reflect the light from the light source 30 toward the panel 31 side, and transmit the image from the panel 31 as it is.
  • the inclined surface 37a may reflect the infrared pattern beam from the infrared pattern beam providing unit 32 toward the lens 33 side.
  • the inclined surface 37a may reflect the infrared signal (which may be light) incident through the lens 33 toward the sensor 35.
  • the optical separation element 37 may be configured of a hexahedron.
  • the light source 30 may be provided to face the first surface (eg, the left surface) of the light splitter 37.
  • the panel 31 may be provided to face the second side (eg, the rear side) of the optical separation element 37.
  • the lens 33 may be provided to face the third surface (eg, the front surface) of the light separation element 37.
  • the infrared pattern beam providing unit 32, the filter 34, and the sensor 35 may be provided to face the fourth surface (eg, the right side) of the optical separation element 37.
  • the projection range and the interaction range become the same as in Fig. 5, and the recognizable range (i.e., the recognition area) is enlarged.
  • the sensor 35 will recognize that the infrared signal (that is, the infrared pattern beam) at all positions in the recognition area is the same light amount. However, if there is a touch, only the amount of light of the infrared signal at the corresponding touch point in the recognition area will be different. Therefore, when the touch point is present in the recognition area, the sensor 35 can easily calculate the X and Y coordinate values of the touch point based on the recognition area.
  • the above-described X, Y coordinate values may range from 0 to 4095. That is, the position coordinate values of X and Y in the sensor 35 may be calculated as a value between 0 and 4095 and input to the interaction signal processor 36. If necessary, the sensor 35 may further calculate an X, Y coordinate value of the touch point by further employing an algorithm for identifying the fingertip point. Algorithms for identifying the fingertips will be fully understood by those skilled in the art.
  • the coordinate values required by the projector 100 will vary depending on the resolution of the projector 100. For example, if the resolution of the projector 100 is 1920 ⁇ 1080, the coordinate values required by the projector 100 may be 0 to 1980 horizontally and 0 to 1080 vertically.
  • the interaction signal processor 36 converts the coordinate data of the sensor 35 into real world coordinate data (that is, coordinate data used by the projector) using a warping algorithm or a geometric transformation. can do.
  • the interaction signal processor 36 may map the converted coordinate data into a corresponding touch event.
  • the interaction signal processor 36 may process the touch event.
  • the light source 30 is turned on, and the infrared pattern beam providing unit 32 is turned on (S102, S104).
  • the light source 30 emits light (for example, laser light) to the light splitting element 37, and the light emitted from the light source 30 is reflected on the inclined surface 37a of the light splitting element 37 so that the panel ( It enters into 31) (S106). As a result, a predetermined image is formed on the panel 31. That is, since light emitted from the light source 30 may be referred to as light to be displayed on the screen 200, a predetermined image may be formed on the panel 31 by the light from the light source 30.
  • the infrared pattern beam providing unit 32 outputs the infrared pattern beam to the optical separation element 37.
  • the image transmitted to the lens 33 is projected onto the screen 200 through the lens 33, and the infrared pattern beam is spread evenly on the front surface of the screen 200 through the lens 33 (S110).
  • the screen 200 not only distributes the infrared pattern beam but also displays one or more touch objects (ie, a selection menu).
  • touch objects ie, a selection menu
  • the user views an image (eg, including one or more touch objects (selection menus)) displayed on the screen 200 and touches a touch object with a body part (eg, a finger).
  • an image eg, including one or more touch objects (selection menus)
  • a touch object e.g, a finger
  • the pattern distortion or the shape change will occur at the corresponding touch point. That is, an infrared pattern beam (for example, a structured light beam) is formed on the front surface of the screen 200.
  • a pattern distortion or shape change is performed at the touch point by the finger. Will cause.
  • the change in the amount of infrared light will occur at the corresponding touch point. That is, the infrared pattern beam of a certain amount of light is uniformly distributed on the front surface of the screen 200.
  • the amount of light of the infrared pattern beam at the corresponding touch position is determined by the infrared pattern beam at the other position. It will be different from the amount of light.
  • the infrared signal (light) at the point where the touch interaction occurs and the infrared signal (light) at other points without the touch interaction enter both the recognition area of the sensor 35. Accordingly, the sensor 35 coordinates (ie, X, Y coordinates) of the corresponding touch point at which the pattern distortion or shape change has occurred, or coordinate values (ie, X, Y coordinates) of the corresponding touch point having a difference in the amount of light. Value) can be easily recognized (calculated or converted) (S116).
  • the sensor 35 transmits the recognized position coordinate value to the interaction signal processor 36 (S118).
  • the interaction signal processor 36 converts the position coordinate value of the sensor 35 into real world coordinate data, and maps the converted coordinate data into a corresponding touch event (S120).
  • touch interaction is possible without going through another operation (correction process). For example, even if the angle and direction of the screen projected after the movement are different from those before the movement, or the projected shape such as the curved TV is changed, the touch interaction can be performed without calibration.
  • FIG. 8 is a diagram illustrating another example of an internal configuration of the projector illustrated in FIG. 1.
  • the projector of FIG. 8 may be referred to as an LCD projector or an LED projector, and may directly touch the screen 200 with a body part (eg, a finger).
  • a body part eg, a finger
  • the projector 100 illustrated in FIG. 8 includes a light source 40, a panel 41, an infrared pattern beam providing unit 42, a lens 43, a filter 44, a sensor 45, and an interaction signal processor 46. , And an optical separation element 47.
  • the light source 40 emits predetermined light.
  • the light source 40 may include a laser diode, an LCD, an LED, and the like.
  • Light emitted from the light source 40 may be referred to as light that becomes an image to be displayed on the screen 200.
  • the panel 41 may be composed of a transmissive panel.
  • the light source 40 is installed behind the panel 41.
  • the infrared pattern beam providing unit 42 outputs an infrared pattern beam of a predetermined amount of light projected on the front surface of the screen 200.
  • the infrared pattern beam will spread evenly to cover the entirety of the screen 200.
  • the infrared pattern beam may refer to a beam of a predetermined pattern formed of infrared light.
  • the infrared pattern beam may be an example of the pattern beam described in the claims of the present invention.
  • the lens 43 magnifies an image from the panel 41 and sends it to the screen 200.
  • the lens 43 sends the infrared pattern beam from the infrared pattern beam providing unit 42 to spread evenly over the front surface of the screen 200.
  • the lens 43 is installed at the front of the projector 100.
  • the lens 43 may be installed to be exposed from the projector 100 as shown in FIG. 1.
  • the filter 44 is preferably installed at the front end of the sensor 45.
  • the sensor 45 recognizes the position coordinates of the touch object currently touched based on the received infrared signal (that is, including a signal by touch interaction). That is, the sensor 45 may receive an infrared signal when the user touches any touch object on the screen 200, and recognize the position coordinates of the touch object based on the received infrared signal. A more detailed description of the position coordinate recognition operation of the sensor 45 may be replaced with the contents of the sensor 35 described above with reference to FIG. 6.
  • the interaction signal processor 46 may determine to which touch object a touch event occurs based on the position coordinates from the sensor 45.
  • the interaction signal processor 46 may process the touch event.
  • the optical separation element 47 transmits the image from the panel 41 to the lens 43.
  • the optical separation element 47 reflects the infrared pattern beam from the infrared pattern beam providing unit 42 and sends it to the lens 43.
  • the optical separation element 47 reflects the infrared signal (light) incident through the lens 43 toward the sensor 45.
  • the inclined surface 47a is formed inside the optical separation element 47.
  • the oblique surface 47a can transmit the image from the panel 41 as it is.
  • the inclined surface 47a may reflect the infrared pattern beam from the infrared pattern beam provider 42 toward the lens 43.
  • the oblique surface 47a may reflect the infrared signal (which may be light) incident through the lens 43 toward the sensor 45.
  • the optical separation element 47 may be configured of a hexahedron.
  • the light source 40 and the panel 41 may be provided to face the first surface (eg, the rear surface) of the light splitter 47.
  • the lens 43 may be provided to face the second surface (eg, the front) of the light splitter 47.
  • the infrared pattern beam providing unit 42, the filter 44, and the sensor 45 may be provided to face the fourth surface (eg, the right side) of the light splitter 47.
  • the interaction signal processor 46 is installed inside the projector 100, but may be installed inside a portable device (eg, a smartphone) or a PC on which an OS is mounted. If the interaction signal processor 46 is installed in the portable apparatus or the PC, a separate transmission module may be included in the sensor 45 to transmit the position coordinate value to the portable apparatus or the PC.
  • the power of the projector 100 is turned on (S200).
  • the light source 40 is turned on, and the infrared pattern beam providing part 42 is turned on (S202 and S204).
  • a light beam (for example, laser light) of the light source 40 is directly incident to the rear surface of the panel 41, and a predetermined image is formed on the panel 21 (S206 and S208). That is, since the light emitted from the light source 40 may be referred to as light to be an image to be displayed on the screen 200, a predetermined image will be formed on the panel 41 by the light from the light source 40.
  • the infrared pattern beam providing unit 42 outputs the infrared pattern beam to the optical separation element 47.
  • the image of the panel 41 passes through the optical separation element 47 and is directed to the lens 43, and the infrared pattern beam is reflected from the inclined surface 47a and directed to the lens 43 (S210).
  • the image transmitted to the lens 43 is projected onto the screen 200 through the lens 43, and the infrared pattern beam is spread evenly on the front surface of the screen 200 through the lens 43 (S212).
  • the screen 200 not only distributes the infrared pattern beam but also displays one or more touch objects (ie, a selection menu).
  • touch objects ie, a selection menu
  • the user views an image (eg, including one or more touch objects (selection menus)) displayed on the screen 200 and touches a touch object with a body part (eg, a finger).
  • an image eg, including one or more touch objects (selection menus)
  • a touch object e.g, a finger
  • the pattern distortion or the shape change will occur at the corresponding touch point. That is, an infrared pattern beam (for example, a structured light beam) is formed on the front surface of the screen 200.
  • a pattern distortion or shape change is performed at the touch point by the finger. Will cause.
  • the change in the amount of infrared light will occur at the corresponding touch point. That is, the infrared pattern beam of a certain amount of light is uniformly distributed on the front surface of the screen 200.
  • the amount of light of the infrared pattern beam at the corresponding touch position is determined by the infrared pattern beam at the other position. It will be different from the amount of light.
  • the infrared signal at the point where the touch interaction occurs and the infrared signal at other points without the touch interaction are incident on the screen separation device 47 through the lens 43.
  • Infrared signals (lights) incident on the light splitter 47 are reflected by the oblique plane 47a and passed through the filter 44 to the sensor 45 (S216).
  • the sensor 45 may determine a coordinate value (ie, X and Y coordinate values) of the corresponding touch point where the pattern distortion or shape change has occurred, or a coordinate value (ie, X and Y coordinates) of the corresponding touch point with a difference in light quantity. Value) can be easily recognized (calculated or converted) (S218).
  • the sensor 45 transmits the recognized position coordinate value to the interaction signal processor 46 (S220).
  • the interaction signal processor 46 converts the position coordinate value of the sensor 45 into real world coordinate data, and maps the converted coordinate data into a corresponding touch event (S222).
  • the interaction signal processor 46 processes the touch event (S224).
  • FIG. 10 is a view for explaining the overall operation concept of the projector capable of touch interaction according to another embodiment of the present invention.
  • the projector 100 capable of touch interaction according to another embodiment of the present invention is positioned to be spaced apart from the screen 200 by a predetermined distance.
  • the projector 100 is small enough to be portable and mobile, and may be referred to as a pico projector, for example.
  • the projector 100 can be utilized in various digital signages, it is applicable not only to a mobile projector but also to a large and difficult environment for calibration (correction) for interaction such as a large object screen.
  • the projector 100 may project a predetermined image (eg, including one or more touch objects (selection menu)) to the screen 200 through the lenses 12 and 22.
  • a predetermined image eg, including one or more touch objects (selection menu)
  • the projector 100 may receive a signal corresponding thereto.
  • the projector 100 may process a touch event corresponding to the generated touch interaction.
  • the screen 200 may be a projection screen, and the screen 200 may be formed of a flat surface as shown in FIG. 10.
  • the screen 200 may be made of an uneven surface. For example, even if a predetermined image is projected toward an area where the boundaries of two flat surfaces touch each other, the projected images will be divided into two surfaces and appear to be naturally connected to each other.
  • the projector 100 illustrated in FIG. 11 includes a light source 10, a panel 11, a lens 12, a filter 13, a sensor 14, an interaction signal processor 15, and an optical separation element 16. Include.
  • the panel 11 may convert light (light) generated by the light source 10 into an image that can be viewed by a person.
  • the panel 11 bears an image based on the light from the light source 10. That is, the panel 11 may be formed with an image to be displayed on the screen 200.
  • the panel 11 may be composed of a reflective panel. Accordingly, the light source 10 is provided on the side spaced apart from the panel 11 by a predetermined distance.
  • the lens 12 magnifies an image from the panel 11 and sends it to the screen 200.
  • the lens 12 is preferably installed at the front of the projector 100 and is positioned to face the screen 200.
  • the lens 12 may be installed to be exposed from the projector 100 as shown in FIG. 10.
  • the filter 13 removes the sunlight or light of the light source 10 so as not to affect the sensor 14. In other words, the filter 13 passes only the infrared signal reflected by the screen 200 and incident through the lens 12 and the optical separation element 16 and removes other signals.
  • the filter 13 is preferably installed at the front end of the sensor 14.
  • the light emitted from the light source 10 inside the projector 100 is not reflected by the light separating element 16 and is incident on the panel 11, but some of the light is separated from the light separating element 16.
  • Permeable For example, assuming that the light emitted from the light source 10 is a laser, the laser includes an infrared region, so that light corresponding to the infrared region passes through the optical separation element 16 as it is and enters the sensor 14. Can be. In this case, the sensor 14 will perform abnormal sensing.
  • the filter 13 is installed at the front end of the sensor 14 to remove light (that is, light of the light source 10) that does not need to be applied to the sensor 14.
  • sunlight may flow into the projector 100 from the outside of the projector 100.
  • the sensor 14 may perform abnormal sensing. Accordingly, the filter 13 is installed in front of the sensor 14 to remove light (ie, sunlight) that may be applied to the sensor 14.
  • the sensor 14 recognizes the position coordinates of the touch object currently touched based on the received infrared signal (ie, a signal by touch interaction). That is, the sensor 14 receives an infrared signal (ie, generated by a touch device) when the user touches any touch object on the screen 200, and based on the received infrared signal, position coordinates of the touch object. Can be recognized. A detailed description of the position coordinate recognition operation of the sensor 14 will be described later.
  • the interaction signal processor 15 may determine to which touch object a touch event occurs based on the position coordinates from the sensor 14.
  • the interaction signal processor 15 may process the corresponding touch event.
  • the light separation element 16 reflects the light from the light source 10 toward the panel 11 side, transmits the image from the panel 11 to the lens 12.
  • the optical separation element 16 reflects the infrared signal (light) incident through the lens 12 to the sensor 14 side.
  • the inclined surface 16a is formed inside the optical separation element 16.
  • the inclined surface 16a may reflect light from the light source 10 toward the panel 11 side, and transmit the image from the panel 11 as it is.
  • the inclined surface 16a may reflect the infrared signal (which may be light) incident through the lens 12 toward the sensor 14.
  • the optical separation element 16 may be configured of a hexahedron.
  • the light source 10 may be provided to face the first surface (eg, the left surface) of the light separation element 16.
  • the panel 11 may be installed to face the second side (eg, the rear side) of the light separation element 16.
  • the lens 12 may be provided to face the third surface (eg, the front surface) of the light separation element 16.
  • the filter 13 and the sensor 14 may be provided to face the fourth side (eg, the right side) of the optical separation element 16.
  • the power of the projector 100 is turned on (S10).
  • the panel 21 may convert light (light) generated by the light source 20 into an image that can be viewed by a person.
  • the panel 21 bears an image based on the light from the light source 20. That is, it can be said that the image to be displayed on the screen 200 is formed on the panel 21.
  • the interaction signal processor 25 may process the touch event.
  • the slanted surface 26a is formed inside the light separation element 26.
  • the oblique surface 26a may transmit the image from the panel 21 as it is.
  • the inclined surface 26a may reflect the infrared signal (which may be light) incident through the lens 22 toward the sensor 24.
  • the image of the panel 21 Since the image of the panel 21 also emits light, the image of the panel 21 passes through the optical separation element 21 and is directed to the lens 22 (S48).
  • the sensor 24 recognizes (calculates or converts) coordinate values (that is, X and Y coordinate values) of the corresponding position (touch point) (S56).
  • the sensor 24 transmits the recognized position coordinate value to the interaction signal processing unit 25 (S58).
  • the infrared signal processing apparatus 400 recognizes infrared rays emitted from the electronic pen 300. By sending the corresponding coordinate information to the terminal device 500.
  • the terminal device 500 processes the coordinate information received from the infrared signal processing device 400 and transmits the coordinate information to the display device 600 so that the writing content is visualized through the display device 600.
  • the electronic pen 300 may have an infrared light source (not shown) for emitting infrared rays at one end thereof to emit infrared rays.
  • an infrared light source (not shown) for emitting infrared rays at one end thereof to emit infrared rays.
  • the infrared signal processing apparatus 400 may include an infrared sensor (or an infrared camera module) for recognizing infrared rays.
  • the infrared signal processing apparatus 400 may analyze an infrared signal output from the infrared sensor, perform noise filtering and alignment, and may include an electronic pen ( The infrared signal emitted from 300 may be screened to obtain coordinate information corresponding thereto.
  • the infrared signal processing apparatus 400 automatically sets the parameters for processing the infrared signal as described above according to the surrounding environment, and the infrared based electronic blackboard system according to the embodiment of the present invention. Wherever it is installed, it can be operated without errors adaptively to the mobile environment.
  • the terminal device 500 is equipped with electronic blackboard operating software for processing and visualizing coordinate information transmitted from the infrared signal processing apparatus 400.
  • the electronic blackboard operating software corrects the coordinate information or provides an angle of view setting function. And a function of designating, recognizing, and processing a region of interest (ROI).
  • ROI region of interest
  • the display device 600 may be implemented as a TV, a monitor, a projector, or the like, but the present invention is not limited thereto, and the display device 600 may include a screen such as a smartphone, a tablet PC, or the like, in which a writing using the electronic pen 300 may be performed. It may be a mobile device provided.
  • the terminal device 500 transmits the coordinate information of the electronic pen 300 to a relay communication server (not shown), and is also a display device which is various service clients capable of communicating with the relay communication server. (Not shown) allows the writing to be synchronized.
  • the signal processor 420 sequentially analyzes, filters, and sorts the infrared signals output from the infrared receiver 410, and performs a function of selecting coordinates of the infrared signals emitted from the electronic pen 300 to obtain coordinate information. can do.
  • the parameter setting unit 430 may set the optimal parameter for the infrared signal processing according to the surrounding environment and transmit it to the infrared receiver 410 or the signal processor 420.
  • the short range communication module 440 may transmit coordinate information obtained from the signal processor 420 to the terminal device 500 or receive a command message from the terminal device 500 using a short range communication method such as Bluetooth.
  • the controller 450 may control the overall operation of the infrared signal processing apparatus 400 as described above, and may perform a function such as initial setting of the infrared signal processing apparatus 400.
  • the storage unit 460 may store reference values for signal processing, coordinate information detected by the signal processor 420, and parameters set by the parameter setting unit 430.
  • FIG. 18 is a flowchart illustrating an embodiment of an operating method of the infrared signal processing apparatus according to the present invention, and the infrared signal processing apparatus 400 according to the exemplary embodiment of the present invention shown in FIG. A description will be given in conjunction with the block diagram showing the configuration of the "
  • the controller 450 of the infrared signal processing apparatus 400 checks a current power state value and an operating state value, and an interrupt generated when the switch is pressed for 3 seconds during the operation of the infrared signal processing apparatus 400. If there is an interrupt, the power mode state value is changed (step S300).
  • the short-range communication module 440 may receive a command message transmitted from the outside, for example, the terminal device 500 (step S310), and perform an operation corresponding to the received command message. .
  • the parameter setting unit 430 operates a mobile environment recognition engine to apply a noise filter processing algorithm that is robust to a mobile environment in which external signals such as sunlight and remote control reflections interfere.
  • the optimal parameter values required can be set automatically.
  • the parameter setting unit 430 may determine the radius of the infrared ray recognized by the infrared receiver 410 and the reference value stored in the storage unit 460. By comparing the parameters, the parameters can be set automatically according to the comparison result.
  • the infrared receiver 410 recognizes the infrared rays of the front area including the infrared rays emitted from the electronic pen 300 and outputs an infrared signal (step S330), and the signal processor 420 is an infrared ray output from the infrared receiver 410.
  • the signal is analyzed to detect attributes of an infrared signal including an area, an average brightness value avgBright, a maximum brightness maxBright, and the like (S340).
  • step S340 the signal processor 420 analyzes the infrared signal converted by the infrared sensor of the infrared receiver 410 to the digital infrared light emitted from the electronic pen 300, and analyzes the infrared signal.
  • the current operation state of may be determined as any one frame motion event among three state values (MotionDown, MotionUp, MotionMove).
  • step S350 the signal processing unit 420 filters out infrared rays or noise by DSLR flash, sunlight, etc. to select a signal by infrared rays emitted from the electronic pen 300 from among the analyzed infrared coordinates.
  • the infrared signal analyzed together with the infrared signal may be excluded from the ROI by determining whether the IR signal is within the ROI.
  • the signal processor 420 filters the infrared coordinates if the infrared signal value corresponding to each infrared coordinate is equal to or greater than or equal to a preset value according to the infrared rays emitted from the electronic pen 300, and then sorts the infrared coordinates. Can be excluded.
  • step S360 the signal processor 420 tracks the infrared signal recognized in the previous frame by using the unique ID of the infrared signal, so that the signal value recognized in the previous frames is changed from "up” to "down". If changed, the infrared coordinates are sorted according to the sum of the area, average brightness, and maximumbright values of the infrared signals acquired in the current frame, and then stored in the storage unit 460. The infrared signal closest to the reference value can be selected as the reference signal.
  • the short range communication module 440 transmits the coordinate information of the reference signal selected above to the terminal device 500 (operation S370).
  • FIG. 19 is a block diagram illustrating an embodiment of the configuration of the terminal device illustrated in FIG. 16.
  • the terminal device 500 illustrated includes a short range communication module 510, a coordinate converter 520, and a display unit 530.
  • the controller may include a parameter setting unit 540, a control unit 550, a storage unit 560, and an angle of view setting unit 570. Since the components illustrated in FIG. 19 are not essential, the terminal device 500 may be implemented to have more components or fewer components.
  • the short range communication module 510 communicates with the infrared signal processing apparatus 400 or the display apparatus 600 using a short range communication scheme such as Bluetooth, for example, from the infrared signal processing apparatus 400.
  • the coordinate information of the reference signal may be received or the command message may be transmitted to the infrared signal processing apparatus 400.
  • the coordinate converter 520 may convert the infrared coordinates received from the infrared signal processing apparatus 400 into two-dimensional planarized coordinates in accordance with the resolution of the terminal apparatus 500 or the display apparatus 600.
  • the display unit 530 may represent the infrared coordinates converted by the coordinate converter 520 to perform application program functions such as drawing, sharing, and content control as an application layer.
  • the parameter setting unit 540 performs a function for setting an optimal parameter required for infrared signal processing according to the surrounding environment.
  • the angle of view setting unit 570 is a guide so that the direction toward the infrared sensor or infrared camera module provided in the infrared signal processing device 400, more specifically, the infrared signal processing device 400 and its recognition area can be set. In this case, even when the user wants to install the infrared signal processing apparatus 400 by moving to various places and locations, the distance from the display apparatus 600 and the pan tilt position can be correctly corrected. have.
  • the controller 550 controls the overall operation of the terminal device 500 as described above including an initial setting and the like, and the storage unit 560 is responsible for storing various information or data described above. .
  • FIG. 20 is a flowchart illustrating an embodiment of a method of operating a terminal device according to the present invention.
  • the operation method shown in FIG. 19 is a configuration of the terminal device 500 according to an embodiment of the present invention shown in FIG. It will be described in conjunction with the block diagram shown.
  • the controller 550 of the terminal device 500 first performs a setup process of turning on power and an initial setting of configuring a short range communication channel with the infrared signal processing apparatus 400 (S500).
  • the angle of view setting unit 570 guides the angle of view setting so as to set the direction and the recognition area that the infrared signal processing apparatus 400 faces (S510).
  • the angle of view setting unit 570 may operate through the short range communication module 510.
  • the distance and pan tilt to move the infrared signal processing apparatus 400 may be displayed by determining the position and direction of the infrared signal processing apparatus 400 according to the property information of the infrared coordinates received from the infrared signal processing apparatus 400. have.
  • the angle of view setting unit 570 may display a large circle through the display unit 530 when the distance between the infrared signal processing device 400 and the display device 600 is closer than a reference value. 400 to move closer to the display device 600, and if the distance between the infrared signal processing device 400 and the display device 600 is farther than the reference value, a small circle is displayed through the display unit 530 to infrared The signal processing apparatus 400 may be moved to move away from the display apparatus 600.
  • the angle of view setting unit 570 may display the lower left arrow through the display unit 530 when the direction toward which the infrared signal processing apparatus 400 is directed is the upper right side of the display apparatus 600.
  • the pan tilt adjustment guide to guide the adjustment of the direction of the lower left direction 200 may be performed together.
  • control unit 550 stores the infrared signal of the moving environment recognized by the infrared signal processing apparatus 400 in the storage unit 560 to use as a reference for determining whether the infrared coordinates are noise (step S520). ).
  • the parameter setting unit 540 may set the brightness threshold value of the infrared signal recognized by the infrared camera included in the infrared signal processing apparatus 400 within a range of 0 to 255, when the room is dark, b normally, and bright. Can be set to c (a ⁇ b ⁇ c).
  • the parameter setting unit 540 sets, in addition to the brightness threshold of the infrared camera included in the infrared signal processing apparatus 400, attribute information of a corresponding signal value when recognizing an infrared signal value. Can be set to one of two or more formats, ranging from simplified to large properties, and can set the number of infrared signals that an infrared camera can recognize.
  • controller 550 performs a calibration to designate the ROI (operation S540).
  • the ROI refers to an area that the infrared signal processing apparatus 400 intends to recognize in the entire area (eg, 4095 x 4095) that the infrared signal processing apparatus 400 can recognize.
  • Infrared coordinates generated within the range of the rectangle (LeftTop, RightTop, LeftBottom, RightBottom) designated as the moving environment coordinates within the recognizable area are designated by the infrared signal processing apparatus 400 as a rectangular range. It can be managed by specifying left and right.
  • the controller 550 drives the middleware to perform a de-warping and smoothing algorithm (step S550).
  • the de-warping algorithm is a matrix algorithm that converts the distorted two-dimensional square data obtained through calibration into two-dimensional square data flattened according to the resolution of the terminal device 500, and the smoothing.
  • Algorithm is to use the average value of the previous coordinates and the current coordinates to correct the shaking of the recognized infrared signal.
  • an electronic blackboard operating application for performing the steps illustrated in FIG. 20 may be installed in the terminal device 500.
  • FIG. 21 is a flowchart illustrating a method for automatically setting parameters for infrared signal processing according to an embodiment of the present invention, wherein the infrared signal processing apparatus 400 performs the parameter setting step (step S320) shown in FIG. 18. An example of the method is shown.
  • the infrared signal processing apparatus 400 analyzes an infrared signal output from an infrared sensor (step S600) and detects size information among attributes of the infrared signal obtained according to the analysis result (step S610).
  • the attribute information detected according to the result of analyzing the infrared signal may be changed according to the surrounding environment such as ambient brightness, and thus may be obtained from information about the surrounding environment based on the attribute information.
  • the infrared signal processing apparatus 400 compares the detected size information of the infrared signal with a reference value (step S620), and changes the infrared brightness threshold of the infrared sensor based on the comparison result (step S630).
  • the size information for example, the radius of the infrared region detected by the infrared sensor
  • the infrared signal processing apparatus 400 Can adjust the infrared brightness threshold of the infrared sensor adaptively to the ambient brightness.
  • the signal processor 420 of the infrared signal processing apparatus 400 receives and analyzes an infrared signal from an infrared receiver 410 including at least one infrared sensor to form infrared rays emitted from the electronic pen 300. Infrared region can be detected.
  • the infrared brightness threshold is initially set to a default value calculated according to the property of the infrared light emitted from the electronic pen 300 (for example, intensity or brightness), and thus the infrared sensor emits from the electronic pen 300.
  • the infrared signal stored in the storage unit 460 or more may be recognized to output an infrared signal.
  • the signal processor 420 may detect an infrared region formed by the infrared rays emitted from the electronic pen 300 based on a result of analyzing the infrared signal output from the infrared sensor, and calculate the radius of the detected infrared region.
  • the parameter setting unit 430 may adaptively change the brightness threshold of the infrared light recognized by the infrared sensor, based on a correlation between the radius of the infrared region detected by the signal processor 420 and the ambient brightness.
  • the parameter setting unit 430 of the infrared signal processing apparatus 400 checks whether the radius of the infrared region detected by the signal processing unit 420 matches a preset reference value (S700).
  • the parameter setting unit 430 determines that the two values match. In this case, the preset IR brightness threshold is not changed.
  • the parameter setting unit 430 decreases the infrared brightness threshold (step S720).
  • infrared rays emitted from the electronic pen 300 located on the ROI 800 displayed through the screen of the display apparatus 600 are recognized by an infrared sensor, and output an infrared signal output from the infrared sensor.
  • the infrared region 810 by the electronic pen 300 may be detected in a form similar to a circle.
  • the parameter setting unit 430 decreases the infrared brightness threshold of the infrared sensor, and as the infrared brightness threshold decreases, the radius of the infrared region 810 recognized by the infrared sensor increases to approach the reference value. Can be.
  • the parameter setting unit 430 increases the infrared brightness threshold (step S730).
  • the parameter setting unit 430 increases the infrared brightness threshold of the infrared sensor, and as the infrared brightness threshold increases, the radius of the infrared region 810 recognized by the infrared sensor decreases to approach the reference value. Can be.
  • steps S700 to S730 as described with reference to FIG. 22 are repeated, and thus the magnitude of the infrared signal output from the infrared sensor. Can be maintained within a preset range adaptively to the surrounding environment.
  • FIG. 25 is a block diagram illustrating another exemplary embodiment of the configuration of the terminal device illustrated in FIG. 16.
  • the terminal device 500 illustrated in FIG. 25 is viewed in comparison with the terminal device 500 illustrated in FIG. 19. Only when the user input unit 580 is further provided, the remaining components are the same. Therefore, the same components as those described in FIG. 19 will be omitted. Since the components illustrated in FIG. 25 are not essential, the terminal device 500 may be implemented to have more or fewer components.
  • the user input unit 580 generates input data for the user to control the operation of the terminal device 500.
  • the user input unit 380 may include a key pad dome switch, a touch pad (static pressure / capacitance), a jog wheel, a jog switch, and the like.
  • the user input unit 580 may serve to receive a user selection necessary for the operation of the parameter setting unit 540 or the angle of view setting unit 570 as described above.
  • FIG. 26 is a flowchart illustrating a parameter setting method for infrared signal processing according to another exemplary embodiment of the present invention.
  • the terminal device 500 performs the parameter setting step shown in FIG. 20 (step S530). It shows an example.
  • the user input unit 580 of the terminal device 500 selects one of a plurality of brightness items representing ambient brightness from the user (operation S900), and the parameter setting unit 540 is the user input unit ( In operation S910, an infrared brightness threshold corresponding to the brightness item selected by the user is set.
  • the infrared sensor (or an infrared camera including one or more infrared sensors) may recognize an infrared ray having a predetermined brightness threshold of infrared rays and output an infrared signal corresponding thereto.
  • the infrared sensor provided in the infrared signal processing apparatus 400 recognizes infrared rays that are equal to or greater than an infrared brightness threshold value among the infrared rays emitted from the electronic pen 300, and outputs an infrared signal corresponding to the infrared light threshold value. After the user checks the brightness of the surroundings, the user may dynamically set the brightness according to the designated brightness item.
  • the user may select a brightness item closest to the current ambient brightness among a plurality of brightness items representing different ambient brightness displayed on the display unit 530 of the terminal device 500.
  • the storage unit 560 provided with the memory may store in advance infrared brightness thresholds corresponding to each of the plurality of user-selectable brightness items, and when the user selects the brightness item through the user input unit 580.
  • the parameter setting unit 540 may search the memory and read an infrared brightness threshold corresponding to the selected brightness item.
  • the plurality of brightness items include “dark”, “normal”, and “bright” based on the ambient brightness, and the brighter the ambient brightness according to the selected brightness item is, the higher the infrared brightness threshold is to be set. Can be.
  • the infrared brightness threshold recognized by the infrared sensor may be set to a value between '0' and '255', and the smallest value when the brightness item selected by the user is "dark". (T1), the middle value T2 in the case of "normal”, and the highest value T3 in the case of "bright".
  • the short-range communication module 510 which is a communication unit of the terminal device 500, transmits the infrared brightness threshold set in step S910 to the infrared signal processing apparatus 400 equipped with the infrared sensor (S920).
  • the parameter setting unit 430 of the infrared signal processing apparatus 400 sets one or more parameters for infrared signal processing to a preset initial value (step S1000).
  • the parameters include an infrared brightness threshold recognized by the infrared sensor, in addition to the format of the infrared signal attribute value recognized by the infrared sensor or the number of infrared signals recognized by the infrared sensor. (tracking object number) and the like.
  • the infrared signal attribute value format may be selected from one of three formats ranging from a simplified attribute to a large number of attributes, and a value “0x09” corresponding to the simplified attribute format is initially set. Can be.
  • the number of infrared signal represents the number of infrared signals that can be recognized by the infrared sensor to the maximum, "2" may be set as an initial value.
  • the infrared brightness threshold may be set to “200” as an initial value.
  • the user places the electronic pen 300 at a point on the screen of the display device 600 to emit infrared rays, and the infrared sensor (or one or more infrared sensors).
  • An infrared camera including a) may recognize the infrared rays emitted from the electronic pen 300 and output an infrared signal corresponding thereto.
  • the infrared sensor of the infrared signal processing apparatus 400 it is preferable to position the infrared sensor of the infrared signal processing apparatus 400 in a diagonal direction at a distance of approximately 1.5 times the horizontal length of the screen or the screen of the TV. This is because it is not recognized when the infrared sensor of the infrared signal processing apparatus 400 is covered. That is, when the user is right-handed, the infrared signal processing apparatus 400 may be positioned to face the display apparatus 600 in a diagonal direction to the left of the display apparatus 600. When the user is left-handed, the infrared signal processing apparatus 400 may be positioned to face the display apparatus 600 in a diagonal direction to the right of the display apparatus 600.
  • FIG. 37 View angle setting steps as described with reference to may be performed in the terminal device 500.
  • a first circle indicating the attribute of the current infrared signal on the screen 1200 may be smaller than the second circle 1225.
  • an arrow 1230 which guides the tilt direction of the infrared camera provided in the infrared signal processing apparatus 400 toward the upper left is adjusted to the screen 1200 of the terminal device 500. ) May be displayed.
  • the first and second images for inducing the angle of view setting are displayed through the display unit 530 of the terminal device 500.
  • the present invention is not limited thereto.
  • the first image or the second image may be received and displayed on the screen.

Abstract

Provided is a projector, which can be carried by a user and is capable of touch interaction without any other operation when moving. The provided projector comprises: a panel for converting light from a light source into an image; a pattern beam providing unit for outputting a pattern beam; a single lens for projecting, onto a screen, the pattern beam and the image from the panel, and receiving a signal generated by a touch interaction on the screen; a sensor for recognizing, on the basis of the signal generated by a touch interaction, location coordinates of a touch object currently touched on the screen; and a light splitting element for sending the light from the light source to the panel, passing the image through the panel so as to send the same to the lens, reflecting the pattern beam so as to send the same to the lens, and sending the signal generated by a touch interaction, received from the lens, to the sensor.

Description

터치 인터랙션이 가능한 프로젝터Projector with touch interaction
본 발명은 터치 인터랙션이 가능한 프로젝터에 관한 것으로, 보다 상세하게는 소형 빔 프로젝터로부터 투사되는 화면에 터치 인터랙션이 가능하도록 하는 프로젝터에 관한 것이다.The present invention relates to a projector that is capable of touch interaction, and more particularly, to a projector that enables touch interaction on a screen projected from a small beam projector.
최근 스마트폰과 태블릿 PC 등의 휴대용 장치들이 널리 보급됨에 따라 휴대용 장치들과 연동되는 제품이 소비자들에게 큰 인기를 얻고 있다. Recently, as portable devices such as smartphones and tablet PCs are widely used, products linked with portable devices have gained great popularity among consumers.
특히, 스마트폰과 같이 크기가 작은 화면을 크게 보여줄 수 있는 휴대용 프로젝터가 크게 인기를 얻고 있다.In particular, portable projectors capable of displaying large screens such as smartphones are gaining popularity.
그런데, 휴대용 프로젝터는 화면을 크게 볼 수만 있을 뿐, 화면의 컨텐츠를 제어 및 조작하려고 하면 사용자는 터치스크린을 직접 터치하거나 휴대 장치(예컨대, 스마트폰)의 키를 누름으로써 명령을 입력하게 된다. 이때, 사용자가 휴대 장치의 화면을 터치하게 되면 초점을 맞춘 상태로 특정 위치에 놓아둔 휴대 장치의 위치도 어긋날 수 있다. 이와 같이 되면 외부로 투사되는 이미지가 흔들릴 수 있다.However, the portable projector can only view the screen largely, and when a user tries to control and manipulate the contents of the screen, the user inputs a command by directly touching the touch screen or pressing a key of the portable device (eg, a smartphone). In this case, when the user touches the screen of the portable device, the position of the portable device which is placed at a specific position in a focused state may also be shifted. In this case, the image projected to the outside may be shaken.
이를 해결하기 위해, 프로젝터 화면을 직접 터치가 가능하도록 만드는 기술이 개발되었고, 인터랙션이 되는 프로젝터가 출시되고 있고 소비자들도 관련 제품에 많은 관심을 가지고 있다.To solve this problem, a technology for making a direct touch of the projector screen has been developed, an interactive projector is being released, and consumers are interested in related products.
하지만, 현재 시중에 나온 터치 인터랙션이 가능한 프로젝터는 화면을 투사하는 렌즈와 인터랙션을 인식하는 렌즈가 각각 설치되어 있어서 크기가 크다. 또한, 프로젝터를 이동시킬 때마다 인터랙션을 위한 캘리브레이션을 매번 수행해야 하는 불편함이 있다. 즉, 기존에는 빔 프로젝터에서 터치를 인식하기 위해서는 화면을 투사하는 렌즈 이외에 터치를 인식하는 렌즈를 별도로 두어야 하고, 비춰지는 화면 영역에 따라 터치 영역을 캘리브레이션해야 한다.However, currently available touch-interacting projectors are large in size because they have a lens for projecting a screen and a lens for detecting an interaction. In addition, it is inconvenient to perform a calibration for interaction every time the projector is moved. That is, conventionally, in order to recognize a touch in the beam projector, a lens for recognizing the touch must be separately provided in addition to the lens for projecting the screen, and the touch area must be calibrated according to the illuminated screen area.
본 발명은 상기한 종래의 문제점을 해결하기 위해 제안된 것으로, 사용자가 휴대할 수 있고 이동할 때마다 다른 조작(보정과정)이 없이 터치 인터랙션이 가능한 프로젝터를 제공함에 그 목적이 있다.The present invention has been proposed to solve the above-mentioned conventional problems, and an object thereof is to provide a projector that can be carried by a user and enables touch interaction without any other operation (correction process) every time the user moves.
상기와 같은 목적을 달성하기 위하여 본 발명의 바람직한 실시양태에 따른 터치 인터랙션이 가능한 프로젝터는, 광원으로부터의 광을 영상으로 변환하는 패널; 패턴빔을 출력하는 패턴빔 제공부; 상기 패턴빔 및 상기 패널로부터의 영상을 스크린에게로 투사하고, 상기 스크린에서의 터치 인터랙션에 의한 신호를 수신하는 단일의 렌즈; 상기 터치 인터랙션에 의한 신호에 근거하여 상기 스크린에서 현재 터치된 터치 객체의 위치 좌표를 인식하는 센서; 및 상기 광원으로부터의 광을 상기 패널에게로 보내고, 상기 패널로부터의 영상을 투과시켜 상기 렌즈에게로 보내고, 상기 패턴빔을 반사시켜 상기 렌즈에게로 보내고, 상기 렌즈에서 수신되는 상기 터치 인터랙션에 의한 신호를 상기 센서에게로 보내는 광분리 소자;를 포함한다.In order to achieve the above object, a projector capable of touch interaction according to a preferred embodiment of the present invention includes a panel for converting light from a light source into an image; A pattern beam providing unit configured to output a pattern beam; A single lens for projecting the pattern beam and the image from the panel onto a screen and receiving a signal by touch interaction on the screen; A sensor for recognizing position coordinates of the touch object currently touched on the screen based on the signal generated by the touch interaction; And transmitting light from the light source to the panel, transmitting an image from the panel to the lens, reflecting the pattern beam to the lens, and receiving a signal by the touch interaction received from the lens. It includes; an optical separation element for sending to the sensor.
상기 패널은 반사 패널로 구성될 수 있고, 상기 광원은 상기 광분리 소자의 제 1면에 대향하여 설치될 수 있고, 상기 패널은 상기 광분리 소자의 제 2면에 대향하여 설치될 수 있고, 상기 렌즈는 상기 광분리 소자의 제 3면에 대향하여 설치될 수 있고, 상기 패턴빔 제공부 및 상기 센서는 상기 광분리 소자의 제 4면에 대향하여 설치될 수 있다.The panel may be configured as a reflective panel, the light source may be installed opposite the first surface of the optical separation element, the panel may be installed opposite the second surface of the optical separation element, The lens may be installed to face the third surface of the light splitter, and the pattern beam providing unit and the sensor may be installed to face the fourth face of the light splitter.
상기 센서로부터의 위치 좌표를 근거로 어느 터치 객체에 대하여 터치 이벤트가 발생하였는지를 판단하여 해당하는 터치 이벤트로 변환시키는 인터랙션 신호 처리부;를 추가로 포함할 수 있다.And an interaction signal processor configured to determine which touch object is generated based on the position coordinates from the sensor and convert the touch event into a corresponding touch event.
태양광 또는 상기 광원의 광이 상기 센서에게 영향을 미치지 않도록 제거하는 필터;를 추가로 포함할 수 있다.It may further include a filter for removing the sunlight or the light of the light source does not affect the sensor.
상기 패턴빔은 적외선 광으로 형성될 수 있다.The pattern beam may be formed of infrared light.
상기 터치 인터랙션에 의한 신호는, 사용자가 상기 스크린상에 투사된 영상에서 신체 일부로 어느 한 터치 객체를 터치함에 따라 해당 터치 지점에서 패턴 왜곡 또는 모양 변화된 적외선 광일 수 있다.The signal by the touch interaction may be infrared light whose pattern is distorted or changed in shape at a corresponding touch point as the user touches a touch object with a body part in the image projected on the screen.
상기 터치 인터랙션에 의한 신호는, 사용자가 상기 스크린상에 투사된 영상에서 신체 일부로 어느 한 터치 객체를 터치함에 따라 다른 지점과 비교하여 해당 터치 지점에서 변화된 광량을 가진 적외선 광일 수 있다.The signal generated by the touch interaction may be infrared light having a changed amount of light at a corresponding touch point compared to another point as the user touches a touch object with a body part in the image projected on the screen.
한편, 본 발명의 바람직한 다른 실시양태에 따른 터치 인터랙션이 가능한 프로젝터는, 광원으로부터의 광을 영상으로 변환하는 패널; 패턴빔을 출력하는 패턴빔 제공부; 상기 패턴빔 및 상기 패널로부터의 영상을 스크린에게로 투사하고, 상기 스크린에서의 터치 인터랙션에 의한 신호를 수신하는 단일의 렌즈; 상기 터치 인터랙션에 의한 신호에 근거하여 상기 스크린에서 현재 터치된 터치 객체의 위치 좌표를 인식하는 센서; 및 상기 패널로부터의 영상을 투과시켜 상기 렌즈에게로 보내고, 상기 패턴빔을 반사시켜 상기 렌즈에게로 보내고, 상기 렌즈에서 수신되는 상기 터치 인터랙션에 의한 신호를 상기 센서에게로 보내는 광분리 소자;를 포함한다.On the other hand, a projector capable of touch interaction according to another preferred embodiment of the present invention, a panel for converting light from the light source into an image; A pattern beam providing unit configured to output a pattern beam; A single lens for projecting the pattern beam and the image from the panel onto a screen and receiving a signal by touch interaction on the screen; A sensor for recognizing position coordinates of the touch object currently touched on the screen based on the signal generated by the touch interaction; And an optical separation element for transmitting an image from the panel to the lens, reflecting the pattern beam to the lens, and sending a signal of the touch interaction received from the lens to the sensor. do.
상기 패널은 투과 패널로 구성될 수 있고, 상기 광원 및 상기 패널은 상기 광분리 소자의 제 1면에 대향하여 설치되되 상기 광원은 상기 패널의 후방에 설치될 수 있고, 상기 렌즈는 상기 광분리 소자의 제 2면에 대향하여 설치될 수 있고, 상기 패턴빔 제공부 및 상기 센서는 상기 광분리 소자의 제 3면에 대향하여 설치될 수 있다.The panel may be formed of a transmissive panel, the light source and the panel may be installed to face the first surface of the optical separation element, the light source may be installed at the rear of the panel, and the lens is the optical separation element The pattern beam providing unit and the sensor may be installed to face the third surface of the optical splitter.
한편, 본 발명의 바람직한 또 다른 실시양태에 따른 터치 인터랙션이 가능한 프로젝터는, 광원으로부터의 광을 영상으로 변환하는 패널; 상기 패널로부터의 영상을 스크린에게로 투사하고, 상기 스크린에서의 터치 인터랙션에 의한 신호를 수신하는 단일의 렌즈; 상기 터치 인터랙션에 의한 신호에 근거하여 상기 스크린에서 현재 터치된 터치 객체의 위치 좌표를 인식하는 센서; 및 상기 광원으로부터의 광을 상기 패널에게로 보내고, 상기 패널로부터의 영상을 투과시켜 상기 렌즈에게로 보내고, 상기 렌즈에서 수신되는 상기 터치 인터랙션에 의한 신호를 상기 센서에게로 보내는 광분리 소자;를 포함한다.On the other hand, a projector capable of touch interaction according to another preferred embodiment of the present invention, a panel for converting light from the light source into an image; A single lens for projecting an image from the panel onto a screen and receiving a signal by touch interaction on the screen; A sensor for recognizing position coordinates of the touch object currently touched on the screen based on the signal generated by the touch interaction; And an optical separation element for transmitting light from the light source to the panel, transmitting an image from the panel to the lens, and transmitting a signal of the touch interaction received from the lens to the sensor. do.
상기 패널은 반사 패널로 구성될 수 있고, 상기 광원은 상기 광분리 소자의 제 1면에 대향하여 설치될 수 있고, 상기 패널은 상기 광분리 소자의 제 2면에 대향하여 설치될 수 있고, 상기 렌즈는 상기 광분리 소자의 제 3면에 대향하여 설치될 수 있고, 상기 센서는 상기 광분리 소자의 제 4면에 대향하여 설치될 수 있다.The panel may be configured as a reflective panel, the light source may be installed opposite the first surface of the optical separation element, the panel may be installed opposite the second surface of the optical separation element, The lens may be installed to face the third surface of the optical separation element, and the sensor may be installed to face the fourth surface of the optical separation element.
상기 터치 인터랙션에 의한 신호는, 사용자가 상기 스크린상에 투사된 영상에서 터치기기로 어느 한 터치 객체를 터치함에 따라 터치 지점에서 상기 터치기기에 의해 방출되는 특정 광일 수 있다.The signal by the touch interaction may be specific light emitted by the touch device at the touch point as the user touches a touch object with the touch device in the image projected on the screen.
상기 특정 광은 적외선 광일 수 있다.The specific light may be infrared light.
한편, 본 발명의 바람직한 또 다른 실시양태에 따른 터치 인터랙션이 가능한 프로젝터는, 광원으로부터의 광을 영상으로 변환하는 패널; 상기 패널로부터의 영상을 스크린에게로 투사하고, 상기 스크린에서의 터치 인터랙션에 의한 신호를 수신하는 단일의 렌즈; 상기 터치 인터랙션에 의한 신호에 근거하여 상기 스크린에서 현재 터치된 터치 객체의 위치 좌표를 인식하는 센서; 및 상기 패널로부터의 영상을 투과시켜 상기 렌즈에게로 보내고, 상기 렌즈에서 수신되는 상기 터치 인터랙션에 의한 신호를 상기 센서에게로 보내는 광분리 소자;를 포함한다.On the other hand, a projector capable of touch interaction according to another preferred embodiment of the present invention, a panel for converting light from the light source into an image; A single lens for projecting an image from the panel onto a screen and receiving a signal by touch interaction on the screen; A sensor for recognizing position coordinates of the touch object currently touched on the screen based on the signal generated by the touch interaction; And an optical separation element configured to transmit an image from the panel to the lens and to transmit a signal due to the touch interaction received from the lens to the sensor.
상기 패널은 투과 패널로 구성될 수 있고, 상기 광원 및 상기 패널은 상기 광분리 소자의 제 1면에 대향하여 설치되되 상기 광원은 상기 패널의 후방에 설치될 수 있고, 상기 렌즈는 상기 광분리 소자의 제 2면에 대향하여 설치될 수 있고, 상기 센서는 상기 광분리 소자의 제 3면에 대향하여 설치될 수 있다.The panel may be formed of a transmissive panel, the light source and the panel may be installed to face the first surface of the optical separation element, the light source may be installed at the rear of the panel, and the lens is the optical separation element It may be installed to face the second surface of the sensor, the sensor may be installed to face the third surface of the optical separation element.
이러한 구성의 본 발명에 따르면, 하나의 렌즈를 통해 화면 투사와 터치 인식을 가능하도록 하고, 화면 영역에 따라 터치 영역을 별도의 캘리브레이션 없이 동작하도록 할 수 있다. According to the present invention having such a configuration, it is possible to enable screen projection and touch recognition through a single lens, and to operate the touch area according to the screen area without additional calibration.
다양한 투사면(사각형, 원, 원기둥 등의 비평면 사물스크린, 초근접 광각의 투사면)에 대해서 휴대용, 이동형 소형 프로젝터에서 보여주는 컨텐츠나 OS 제어를 전용펜을 이용해서 어떤 면에서나 터치가 가능한 프로젝터를 구현할 수 있다.For various projection surfaces (non-planar object screens such as rectangles, circles, and cylinders, and ultra-wide-angle projection planes), projectors that can be touched on any surface using a dedicated pen can be used to control the contents or OS that are displayed on portable and portable small projectors. Can be implemented.
종래에는 스크린의 형태가 평면에서만 동작 가능하였으나, 본 발명에 따르면 환경이 바뀔 때마다 번거롭게 수행하여야 하는 복잡한 보정과정없이 인터랙션 환경을 바꾸어가면서 사용할 수 있다. In the related art, the screen may be operated only on a flat surface, but according to the present invention, it may be used while changing the interaction environment without the complicated correction process that has to be performed every time the environment changes.
그리고, 사물스크린과 같이 기존에 공간구성을 변경하지 않고 만들어지는 콘텐츠에 대해서도 인터랙션을 적용하여 다양한 서비스와 콘텐츠 기술로 활용할 수 있다.In addition, interactions can be applied to contents that are created without changing a space configuration, such as an object screen, and can be utilized as various services and content technologies.
최근 자동차 전장 시장이나 애프터 마켓의 헤드업 디스플레이(HUD)가 활성화 됨에 따라 본 발명의 활용도는 더욱 늘어날 것으로 예상된다. Recently, as the head-up display (HUD) of the automotive electronics market or aftermarket is activated, the utilization of the present invention is expected to increase further.
또한, 패턴빔과 인식센서가 좌표평면이 일체화된 센서로 발전하여 3D 인식과 자연 입력영상의 텍스처 맵핑이 동시에 이루어져 스마트폰용 3D 스캐너 역할을 하여, 다양한 인터랙션을 이용한 입력장치의 거리 확대 및 증강현실에도 활용이 가능하다.In addition, the pattern beam and the recognition sensor have been developed as a sensor with integrated coordinate planes, so that 3D recognition and texture mapping of natural input images can be performed at the same time, thus serving as a 3D scanner for smartphones. It can be used.
도 1은 본 발명의 일실시예에 따른 터치 인터랙션이 가능한 프로젝터의 전체적인 동작 개념을 설명하기 위한 도면이다.1 is a view for explaining the overall operation concept of a projector capable of touch interaction according to an embodiment of the present invention.
도 2는 도 1에 도시된 프로젝터의 내부 구성의 일 예를 나타낸 도면이다.2 is a diagram illustrating an example of an internal configuration of the projector illustrated in FIG. 1.
도 3 내지 도 5는 도 2의 구성에 의해 캘리브레이션이 필요없는 이유를 설명하기 위한 도면이다.3 to 5 are diagrams for explaining the reason why the calibration of the configuration of Figure 2 is not necessary.
도 6은 도 2에 도시된 센서의 인식 영역을 예시한 도면이다.FIG. 6 is a diagram illustrating a recognition area of a sensor illustrated in FIG. 2.
도 7은 도 2에 도시된 프로젝터를 이용한 터치 인터랙션 동작을 설명하기 위한 플로우차트이다.FIG. 7 is a flowchart for describing a touch interaction operation using the projector illustrated in FIG. 2.
도 8은 도 1에 도시된 프로젝터의 내부 구성의 다른 예를 나타낸 도면이다.8 is a diagram illustrating another example of an internal configuration of the projector illustrated in FIG. 1.
도 9는 도 8에 도시된 프로젝터를 이용한 터치 인터랙션 동작을 설명하기 위한 플로우차트이다.FIG. 9 is a flowchart for describing a touch interaction operation using the projector illustrated in FIG. 8.
도 10은 본 발명의 다른 일실시예에 따른 터치 인터랙션이 가능한 프로젝터의 전체적인 동작 개념을 설명하기 위한 도면이다.10 is a view for explaining the overall operation concept of the projector capable of touch interaction according to another embodiment of the present invention.
도 11은 도 10에 도시된 프로젝터의 내부 구성의 일 예를 나타낸 도면이다.FIG. 11 is a diagram illustrating an example of an internal configuration of the projector illustrated in FIG. 10.
도 12는 도 11에 도시된 센서의 인식 영역을 예시한 도면이다.FIG. 12 is a diagram illustrating a recognition area of a sensor illustrated in FIG. 11.
도 13은 도 11에 도시된 프로젝터를 이용한 터치 인터랙션 동작을 설명하기 위한 플로우차트이다.FIG. 13 is a flowchart for describing a touch interaction operation using the projector illustrated in FIG. 11.
도 14는 도 10에 도시된 프로젝터의 내부 구성의 다른 예를 나타낸 도면이다.14 is a diagram illustrating another example of the internal configuration of the projector shown in FIG. 10.
도 15는 도 14에 도시된 프로젝터를 이용한 터치 인터랙션 동작을 설명하기 위한 플로우차트이다.FIG. 15 is a flowchart for describing a touch interaction operation using the projector illustrated in FIG. 14.
도 16은 본 발명의 일실시예에 따른 적외선 기반 전자 칠판 시스템의 구성을 나타내는 블록도이다.16 is a block diagram showing a configuration of an infrared ray-based copyboard system according to an embodiment of the present invention.
도 17은 도 16에 도시된 적외선 신호 처리 장치의 구성에 대한 일실시예를 나타내는 블록도이다.FIG. 17 is a block diagram illustrating an exemplary embodiment of the configuration of the infrared signal processing apparatus illustrated in FIG. 16.
도 18은 본 발명에 따른 적외선 신호 처리 장치의 동작 방법에 대한 일실시예를 나타내는 흐름도이다.18 is a flowchart illustrating an embodiment of a method of operating an infrared signal processing apparatus according to the present invention.
도 19는 도 16에 도시된 단말 장치의 구성에 대한 일실시예를 나타내는 블록도이다.19 is a block diagram illustrating an embodiment of a configuration of a terminal device illustrated in FIG. 16.
도 20은 본 발명에 따른 단말 장치의 동작 방법에 대한 일실시예를 나타내는 흐름도이다.20 is a flowchart illustrating an embodiment of a method of operating a terminal device according to the present invention.
도 21은 본 발명의 일실시예에 따른 적외선 신호 처리를 위한 파라미터 자동 설정 방법을 나타내는 흐름도이다.21 is a flowchart illustrating a parameter automatic setting method for infrared signal processing according to an embodiment of the present invention.
도 22는 적외선 센서의 적외선 밝기 임계값을 설정하는 방법에 대한 일실시예를 나타내는 흐름도이다.22 is a flowchart illustrating an embodiment of a method of setting an infrared brightness threshold of an infrared sensor.
도 23 및 도 24는 적외선 영역의 반지름에 따라 적외선 밝기 임계값을 변화시키는 방법에 대한 실시예들을 설명하기 위한 도면이다.23 and 24 are diagrams for describing embodiments of a method of changing an infrared brightness threshold according to a radius of an infrared region.
도 25는 도 16에 도시된 단말 장치의 구성에 대한 다른 일실시예를 나타내는 블록도이다.FIG. 25 is a block diagram illustrating another exemplary embodiment of the configuration of the terminal device illustrated in FIG. 16.
도 26은 본 발명의 다른 일실시예에 따른 적외선 신호 처리를 위한 파라미터 설정 방법을 나타내는 흐름도이다.26 is a flowchart illustrating a parameter setting method for infrared signal processing according to another embodiment of the present invention.
도 27은 적외선 센서의 적외선 밝기 임계값을 설정하는 방법에 대한 다른 일실시예를 나타내는 흐름도이다.27 is a flowchart illustrating another embodiment of a method of setting an infrared brightness threshold of an infrared sensor.
도 28 및 도 29는 사용자가 지정한 밝기 항목에 따라 적외선 밝기 임계값을 설정하는 방법에 대한 일예를 설명하기 위한 도면이다.28 and 29 are diagrams for describing an example of a method of setting an infrared brightness threshold according to a brightness item designated by a user.
도 30은 본 발명의 일실시예에 따른 적외선 신호 처리를 위한 필터링 방법을 나타내는 흐름도이다.30 is a flowchart illustrating a filtering method for infrared signal processing according to an embodiment of the present invention.
도 31은 적외선 신호를 분석하여 프레임 모션 이벤트를 결정하는 방법에 대한 일실시예를 나타내는 흐름도이다.31 is a flowchart illustrating an embodiment of a method of determining a frame motion event by analyzing an infrared signal.
도 32 내지 도 36은 적외선 신호를 필터링하여 전자펜의 적외선 좌표를 검출하는 방법에 대한 실시예들을 설명하기 위한 도면들이다.32 to 36 are diagrams for describing embodiments of a method of detecting an infrared coordinate of an electronic pen by filtering an infrared signal.
도 37은 본 발명의 일실시예에 따른 화각 설정 방법을 나타내는 흐름도이다.37 is a flowchart illustrating a view angle setting method according to an embodiment of the present invention.
도 38 내지 도 44는 단말 장치에서의 화각 가이드 동작 방법에 대한 실시예들을 설명하기 위한 도면들이다.38 to 44 are diagrams for describing embodiments of a method of operating an angle of view guide in a terminal device.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다.As the inventive concept allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description.
그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art, and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, with reference to the accompanying drawings, it will be described in detail a preferred embodiment of the present invention. In the following description of the present invention, the same reference numerals are used for the same elements in the drawings and redundant descriptions of the same elements will be omitted.
도 1은 본 발명의 일실시예에 따른 터치 인터랙션이 가능한 프로젝터의 전체적인 동작 개념을 설명하기 위한 도면이다.1 is a view for explaining the overall operation concept of a projector capable of touch interaction according to an embodiment of the present invention.
본 발명의 일실시예에 따른 터치 인터랙션이 가능한 프로젝터(100)는 스크린(200)을 향해 소정 거리 이격되게 위치한다. The projector 100 capable of touch interaction according to the exemplary embodiment of the present invention is positioned to be spaced apart from the screen 200 by a predetermined distance.
프로젝터(100)는 휴대 및 이동가능할 정도의 작은 사이즈로서, 예를 들어 피코(pico) 프로젝터라고 할 수도 있다.The projector 100 is small enough to be portable and mobile, and may be referred to as a pico projector, for example.
물론, 프로젝터(100)는 다양한 디지털 사이니지에도 활용가능하므로, 이동형 프로젝터 뿐만 아니라 대형의 사물스크린 등과 같이 인터랙션을 위한 캘리브레이션(보정)이 크고 어려운 환경에서도 적용가능하다.Of course, since the projector 100 can be utilized in various digital signages, it is applicable not only to a mobile projector but also to a large and difficult environment for calibration (correction) for interaction such as a large object screen.
프로젝터(100)는 렌즈(33, 43)를 통해 소정의 영상(예컨대, 하나 이상의 터치 객체(선택 메뉴)를 포함) 및 패턴빔(예컨대, 적외선 패턴빔)을 스크린(200)에게로 투사할 수 있다. 여기서, 패턴빔은 스크린(200)의 전면을 전부 커버할 수 있도록 골고루 퍼질 것이다.The projector 100 may project a predetermined image (eg, including one or more touch objects (selection menu)) and a pattern beam (eg, an infrared pattern beam) to the screen 200 through the lenses 33 and 43. have. Here, the pattern beam will spread evenly so as to cover the entire front surface of the screen 200.
그리고, 프로젝터(100)는 스크린(200)상에서 터치 인터랙션이 발생하면 그에 상응하는 신호를 수신할 수 있다. In addition, when a touch interaction occurs on the screen 200, the projector 100 may receive a signal corresponding thereto.
또한, 프로젝터(100)는 발생된 터치 인터랙션에 상응하는 터치 이벤트를 처리할 수 있다.In addition, the projector 100 may process a touch event corresponding to the generated touch interaction.
여기서, 터치 인터랙션은 사용자의 터치에 의해 발생된다. 예를 들어, 사용자가 스크린(200)상에 투사된 영상(예컨대, 하나 이상의 터치 객체(선택 메뉴)를 포함)에서 신체 일부(예컨대, 손가락)로 어느 한 터치 객체를 터치하게 되면 해당 터치 지점에서는 패턴 왜곡 또는 모양 변화가 발생하게 된다. 즉, 스크린(200)의 전면에는 적외선 패턴빔(예컨대, 구조광빔(structured light beam))이 형성되어 있는데, 어느 한 터치 객체를 손가락으로 터치하게 되면 손가락에 의해 해당 터치 지점에서는 패턴 왜곡 또는 모양 변화를 일으키게 된다. 이와 같이 신체 일부로 터치 객체를 터치함에 따라 해당 터치 지점에서 패턴 왜곡 또는 모양 변화가 일어나게 하는 것을 터치 인터랙션이라고 할 수 있다. 따라서, 다른 지점과 비교하여 해당 터치 지점에서 패턴 왜곡 또는 모양 변화된 적외선 광을 본 발명의 청구범위에 기재된 터치 인터랙션에 의한 신호의 일 예라고 할 수 있다. 상기 예로 든 패턴 왜곡 또는 모양 변화를 이용하는 것은 프로젝터(100)와 스크린(200)간의 거리 확대에도 기여할 것이다.Here, the touch interaction is generated by the user's touch. For example, if a user touches a touch object with a body part (eg, a finger) on an image projected on the screen 200 (eg, including one or more touch objects (selection menu)), the touch point Pattern distortion or shape change will occur. That is, an infrared pattern beam (for example, a structured light beam) is formed on the front surface of the screen 200. When a touch object is touched by a finger, a pattern distortion or shape change is performed at the touch point by the finger. Will cause. As such, when the touch object is touched by a body part, pattern distortion or shape change may occur at a corresponding touch point. Accordingly, the infrared light whose pattern is distorted or changed in shape at the corresponding touch point as compared to other points may be referred to as an example of a signal by touch interaction described in the claims of the present invention. Using the pattern distortion or shape change described above will also contribute to the enlargement of the distance between the projector 100 and the screen 200.
한편, 상기 예로 든 패턴 왜곡 또는 모양 변화를 이용하는 것 이외에도, 광량 변화를 이용할 수도 있다. 예를 들어, 사용자가 스크린(200)상에 투사된 영상(예컨대, 하나 이상의 터치 객체(선택 메뉴)를 포함)에서 신체 일부(예컨대, 손가락)로 어느 한 터치 객체를 터치하게 되면 해당 터치 지점에서는 적외선 광량 변화가 발생하게 된다. 즉, 스크린(200)의 전면에 일정한 광량의 적외선 패턴빔이 골고루 분포하고 있는데, 어느 한 터치 객체를 손가락으로 터치하게 되면 해당 터치 지점에서의 적외선 패턴빔의 광량은 다른 위치에서의 적외선 패턴빔의 광량과는 차이날 것이다. 다시 말해서, 손가락에서 난반사 등이 일어나므로 수신측에서는 다른 위치에 비해 광량이 보다 적은 적외선 패턴빔을 수신할 것이다. 이와 같이 신체 일부로 터치 객체를 터치함에 따라 해당 터치 지점에서 적외선 광량 변화가 일어나게 하는 것을 터치 인터랙션이라고 할 수 있다. 따라서, 다른 지점과 비교하여 해당 터치 지점에서 변화된 광량을 가진 적외선 광을 본 발명의 청구범위에 기재된 터치 인터랙션에 의한 신호의 일 예라고 할 수 있다.On the other hand, in addition to using the above-described pattern distortion or shape change, a light amount change can also be used. For example, if a user touches a touch object with a body part (eg, a finger) on an image projected on the screen 200 (eg, including one or more touch objects (selection menu)), the touch point Infrared light amount changes occur. That is, the infrared pattern beam of a certain amount of light is uniformly distributed on the front surface of the screen 200. When one touch object is touched with a finger, the amount of light of the infrared pattern beam at the corresponding touch point is determined by the infrared pattern beam at another position. It will be different from the amount of light. In other words, since diffused reflection or the like occurs in the finger, the receiving side will receive an infrared pattern beam having a smaller amount of light than other positions. As such, when the touch object is touched by a body part, a change in the amount of infrared light may occur at a corresponding touch point. Therefore, infrared light having a changed amount of light at the corresponding touch point compared to other points may be referred to as an example of a signal by touch interaction described in the claims of the present invention.
스크린(200)은 투사화면이 될 수 있는데, 스크린(200)은 도 1에서와 같이 평평한 면으로 이루어지는 것이 바람직할 것이다.The screen 200 may be a projection screen, and the screen 200 may be formed of a flat surface as shown in FIG. 1.
그러나, 스크린(200)은 평평하지 않은 면으로 이루어져도 무방하다. 예를 들어, 평평한 두 개의 면의 경계가 서로 닿아 있는 부위를 향해 소정의 영상을 투사하더라도 투사되는 영상이 두 개의 면에 나뉘어져서 서로 자연스럽게 연결된 것처럼 보여질 것이다.However, the screen 200 may be made of an uneven surface. For example, even if a predetermined image is projected toward an area where the boundaries of two flat surfaces touch each other, the projected images will be divided into two surfaces and appear to be naturally connected to each other.
도 2는 도 1에 도시된 프로젝터의 내부 구성의 일 예를 나타낸 도면이다. 도 2의 프로젝터는 DLP(Digital Light Processing) 프로젝터라고 할 수 있으며, 신체 일부(예컨대, 손가락)로 스크린(200)을 직접 터치할 수 있다. 2 is a diagram illustrating an example of an internal configuration of the projector illustrated in FIG. 1. The projector of FIG. 2 may be referred to as a digital light processing (DLP) projector, and may directly touch the screen 200 with a body part (eg, a finger).
도 2에 도시된 프로젝터(100)는 광원(30), 패널(11), 적외선 패턴빔 제공부(32), 렌즈(33), 필터(34), 센서(35), 인터랙션 신호 처리부(36), 및 광분리 소자(37)를 포함한다.The projector 100 illustrated in FIG. 2 includes a light source 30, a panel 11, an infrared pattern beam providing unit 32, a lens 33, a filter 34, a sensor 35, and an interaction signal processor 36. And an optical separation element 37.
광원(30)은 소정의 광을 방사한다. 예를 들어, 광원(30)은 레이저 다이오드, LCD, LED 등을 포함할 수 있다. The light source 30 emits predetermined light. For example, the light source 30 may include a laser diode, an LCD, an LED, and the like.
광원(30)에서 방사되는 광은 스크린(200)에 디스플레이될 영상이 되는 광이라고 할 수 있다. Light emitted from the light source 30 may be referred to as light that becomes an image to be displayed on the screen 200.
패널(31)은 광원(30)에서 발생하는 광(빛)을 사람이 볼 수 있는 영상으로 변환할 수 있다. 다시 말해서, 패널(31)에는 광원(30)으로부터의 광을 근거로 하는 영상이 맺힌다. 즉, 패널(31)에는 스크린(200)에 디스플레이될 영상이 맺힌다고 할 수 있다.The panel 31 may convert light (light) generated by the light source 30 into an image that can be viewed by a person. In other words, an image based on the light from the light source 30 is formed on the panel 31. That is, the panel 31 may be formed with an image to be displayed on the screen 200.
여기서, 패널(31)은 반사 패널로 구성될 수 있다. 그에 따라, 광원(30)은 패널(31)과 소정 거리 이격된 측방에 설치된다.Here, the panel 31 may be composed of a reflective panel. Accordingly, the light source 30 is provided on the side spaced apart from the panel 31 by a predetermined distance.
적외선 패턴빔 제공부(32)는 스크린(200)의 전면에 투사되는 적외선 패턴빔을 출력한다. 적외선 패턴빔은 스크린(200)의 전면을 전부 커버할 수 있도록 골고루 퍼질 것이다. 적외선 패턴빔은 적외선 광으로 형성된 소정 패턴의 빔을 의미할 수 있다. 적외선 패턴빔은 본 발명의 청구범위에 기재된 패턴빔의 일 예가 될 수 있다.The infrared pattern beam providing unit 32 outputs an infrared pattern beam projected on the front surface of the screen 200. The infrared pattern beam will spread evenly to cover the entirety of the screen 200. The infrared pattern beam may refer to a beam of a predetermined pattern formed of infrared light. The infrared pattern beam may be an example of the pattern beam described in the claims of the present invention.
렌즈(33)는 패널(31)로부터의 영상을 확대하여 스크린(200)에게로 보낸다.The lens 33 magnifies an image from the panel 31 and sends it to the screen 200.
렌즈(33)는 적외선 패턴빔 제공부(32)로부터의 적외선 패턴빔을 스크린(200)의 전면에 골고루 퍼질 수 있도록 보낸다.The lens 33 sends the infrared pattern beam from the infrared pattern beam providing unit 32 to spread evenly over the front surface of the screen 200.
그리고, 렌즈(33)는 스크린(200)에서의 터치 인터랙션에 의한 적외선 신호(광)를 수광할 수 있다. 예를 들어, 사용자가 신체 일부로 터치 객체를 터치하게 되면 렌즈(33)는 해당 터치 지점에서의 패턴 왜곡 또는 모양 변화된 적외선 광을 수광할 수 있다. 다른 예로는, 사용자가 신체 일부로 터치 객체를 터치하게 되면 렌즈(33)는 해당 터치 지점에서 변화된 광량을 가진 적외선 광을 수광할 수 있다. 물론, 렌즈(33)는 터치 지점 이외의 지점에서의 적외선 광도 수광할 것이다.In addition, the lens 33 may receive an infrared signal (light) due to a touch interaction on the screen 200. For example, when a user touches a touch object with a body part, the lens 33 may receive infrared light having a pattern distortion or a shape change at a corresponding touch point. As another example, when the user touches the touch object with a body part, the lens 33 may receive infrared light having a changed amount of light at the touch point. Of course, lens 33 will also receive infrared light at points other than touch points.
렌즈(33)는 프로젝터(100)의 최전방에 설치된다.The lens 33 is installed at the front of the projector 100.
렌즈(33)는 도 1에서와 같이 프로젝터(100)에서 노출되게 설치될 수 있다.The lens 33 may be installed to be exposed from the projector 100 as shown in FIG. 1.
필터(34)는 태양광 또는 광원(30)의 빛이 센서(35)에 영향을 미치지 않도록 제거한다. 다시 말해서, 필터(34)는 스크린(200)에서 반사되어 렌즈(33) 및 광분리 소자(37)를 거쳐 입사되는 적외선 신호(광량 변화가 있는 적외선 신호 및 광량 변화가 없는 적외선 신호)만을 통과시키고 그 이외의 신호는 제거한다.The filter 34 removes the sunlight or light of the light source 30 so as not to affect the sensor 35. In other words, the filter 34 reflects only the infrared signal (infrared signal with light quantity change and infrared signal without light quantity change) incident on the screen 200 and reflected through the lens 33 and the optical separation element 37. Other signals are removed.
필터(34)는 센서(35)의 전단에 설치됨이 바람직하다. The filter 34 is preferably installed at the front end of the sensor 35.
도 2에서, 광원(30)에서 방사되는 광은 광분리 소자(37)에서 모두 반사되어 패널(31)로 입사되는 것이 아니라 그 중의 일부는 광분리 소자(37)를 그대로 투과할 수 있다. 예를 들어, 광원(30)에서 방사되는 광이 레이저라고 가정하였을 경우 레이저는 적외선 영역을 포함하므로 적외선 영역에 해당하는 광이 광분리 소자(37)를 그대로 투과하여 센서(35)에게로 입사될 수 있다. 이 경우, 센서(35)는 비정상적인 센싱을 수행하게 될 것이다. 따라서, 필터(34)는 센서(35)의 전단에 설치됨으로써 센서(35)에 인가될 필요가 없는 광(즉, 광원(30)의 광)을 제거한다. In FIG. 2, the light emitted from the light source 30 is not all reflected by the light splitting element 37 to be incident on the panel 31, but some of the light may pass through the light splitting element 37 as it is. For example, assuming that the light emitted from the light source 30 is a laser, the laser includes an infrared region, so that light corresponding to the infrared region passes through the optical separation element 37 as it is and enters the sensor 35. Can be. In this case, the sensor 35 will perform abnormal sensing. Accordingly, the filter 34 is installed at the front end of the sensor 35 to remove light (that is, light of the light source 30) that does not need to be applied to the sensor 35.
또한, 프로젝터(100)의 외부에서 태양광이 프로젝터(100)의 내부로 유입될 수 있다. 이때, 프로젝터(100)의 내부로 유입된 태양광이 센서(35)에게로 입사되면 센서(35)는 비정상적인 센싱을 수행하게 될 것이다. 따라서, 필터(34)는 센서(35)의 전단에 설치됨으로써 센서(35)에 인가될 수 있는 광(즉, 태양광)을 제거한다. In addition, sunlight may flow into the projector 100 from the outside of the projector 100. In this case, when the sunlight introduced into the projector 100 is incident to the sensor 35, the sensor 35 may perform abnormal sensing. Accordingly, the filter 34 is installed at the front of the sensor 35 to remove light (that is, sunlight) that can be applied to the sensor 35.
센서(35)는 입력받은 적외선 신호(즉, 터치 인터랙션에 의한 신호를 포함)에 근거하여 현재 터치된 터치 객체의 위치 좌표를 인식한다. 즉, 센서(35)는 사용자가 스크린(200)상의 어느 한 터치 객체를 터치함에 따른 적외선 신호를 수신하고, 수신된 적외선 신호를 근거로 해당 터치 객체에 대한 위치 좌표를 인식할 수 있다. 센서(35)의 위치 좌표 인식 동작에 대한 보다 자세한 설명은 후술하기로 한다. The sensor 35 recognizes the position coordinates of the touch object currently touched based on the received infrared signal (that is, including a signal by touch interaction). That is, the sensor 35 may receive an infrared signal when the user touches any one of the touch objects on the screen 200, and recognize the position coordinates of the touch object based on the received infrared signal. A detailed description of the position coordinate recognition operation of the sensor 35 will be described later.
인터랙션 신호 처리부(36)는 센서(35)로부터의 위치 좌표를 근거로 어느 터치 객체에 대하여 터치 이벤트가 발생하였는지를 판단할 수 있다.The interaction signal processor 36 may determine to which touch object a touch event occurs based on the position coordinates from the sensor 35.
한편, 인터랙션 신호 처리부(36)는 어느 터치 객체에 대하여 터치 이벤트가 발생하였는지를 판단하면 해당하는 터치 이벤트로 변환시킬 수 있다.Meanwhile, the interaction signal processor 36 may convert the touch event into a corresponding touch event when determining which touch object has occurred.
그리고, 인터랙션 신호 처리부(36)는 해당 터치 이벤트를 처리할 수 있다.The interaction signal processor 36 may process the touch event.
광분리 소자(37)는 광원(30)으로부터의 광을 패널(31)측으로 반사시키고, 패널(31)로부터의 영상을 투과시켜 렌즈(33)에게로 보낸다. 광분리 소자(37)는 적외선 패턴빔 제공부(32)로부터의 적외선 패턴빔을 반사시켜 렌즈(33)에게로 보낸다. 또한, 광분리 소자(37)는 렌즈(33)를 통해 입사되는 적외선 신호(광)를 센서(35)측으로 반사시킨다.The light separation element 37 reflects the light from the light source 30 toward the panel 31, and transmits the image from the panel 31 to the lens 33. The optical separation element 37 reflects the infrared pattern beam from the infrared pattern beam providing unit 32 and sends it to the lens 33. In addition, the optical separation element 37 reflects the infrared signal (light) incident through the lens 33 toward the sensor 35 side.
보다 상세하게는, 광분리 소자(37)의 내부에는 빗면(37a)이 형성된다. 빗면(37a)은 광원(30)으로부터의 광을 패널(31)측으로 반사시키고, 패널(31)로부터의 영상을 그대로 투과시킬 수 있다. 빗면(37a)은 적외선 패턴빔 제공부(32)로부터의 적외선 패턴빔을 렌즈(33)측으로 반사시킬 수 있다. 그리고, 빗면(37a)은 렌즈(33)를 통해 입사되는 적외선 신호(광이 될 수 있음)를 센서(35)측으로 반사시킬 수 있다.More specifically, the inclined surface 37a is formed inside the optical separation element 37. The oblique surface 37a may reflect the light from the light source 30 toward the panel 31 side, and transmit the image from the panel 31 as it is. The inclined surface 37a may reflect the infrared pattern beam from the infrared pattern beam providing unit 32 toward the lens 33 side. In addition, the inclined surface 37a may reflect the infrared signal (which may be light) incident through the lens 33 toward the sensor 35.
도 2에서, 광분리 소자(37)는 육면체로 구성될 수 있다. 광원(30)은 광분리 소자(37)의 제 1면(예컨대, 좌측면)에 대향하여 설치될 수 있다. 패널(31)은 광분리 소자(37)의 제 2면(예컨대, 배면)에 대향하여 설치될 수 있다. 렌즈(33)는 광분리 소자(37)의 제 3면(예컨대, 정면)에 대향하여 설치될 수 있다. 적외선 패턴빔 제공부(32)와 필터(34) 및 센서(35)는 광분리 소자(37)의 제 4면(예컨대, 우측면)에 대향하여 설치될 수 있다.In FIG. 2, the optical separation element 37 may be configured of a hexahedron. The light source 30 may be provided to face the first surface (eg, the left surface) of the light splitter 37. The panel 31 may be provided to face the second side (eg, the rear side) of the optical separation element 37. The lens 33 may be provided to face the third surface (eg, the front surface) of the light separation element 37. The infrared pattern beam providing unit 32, the filter 34, and the sensor 35 may be provided to face the fourth surface (eg, the right side) of the optical separation element 37.
상술한 도 2에서는 인터랙션 신호 처리부(36)를 프로젝터(100)의 내부에 설치되는 것으로 하였는데, OS가 탑재된 휴대장치(예컨대, 스마트폰) 또는 PC의 내부에 설치시켜도 된다. 만약, 인터랙션 신호 처리부(36)가 휴대장치 또는 PC의 내부에 설치되었을 경우에는 센서(35)의 내부에는 별도의 송신 모듈이 포함되어 위치 좌표값을 휴대장치 또는 PC에게로 보낼 수 있을 것이다.In FIG. 2, the interaction signal processor 36 is installed inside the projector 100, but may be installed inside a portable device (eg, a smartphone) or a PC on which an OS is mounted. If the interaction signal processor 36 is installed in the portable apparatus or the PC, a separate transmission module may be included in the sensor 35 to transmit the position coordinate value to the portable apparatus or the PC.
도 3 내지 도 5는 도 2의 구성에 의해 캘리브레이션이 필요없는 이유를 설명하기 위한 도면이다.3 to 5 are diagrams for explaining the reason why the calibration of the configuration of Figure 2 is not necessary.
기존의 터치 인터랙션이 가능한 프로젝터는 도 3에서와 같이 스크린에게로 소정의 영상을 투사하는 투사 렌즈, 및 스크린상에서의 터치 인터랙션에 따른 신호(빛)를 수광하는 인터랙션 렌즈를 각각 설치한다.Conventional touch interaction projectors are provided with a projection lens for projecting a predetermined image onto the screen as shown in Figure 3, and the interaction lens for receiving a signal (light) according to the touch interaction on the screen, respectively.
그에 따라, 기존의 터치 인터랙션이 가능한 프로젝터는 도 3에서와 같이 두 렌즈 사이의 거리 때문에 인식 영역에서 차이가 발생한다. 즉, 인터랙션 범위와 투사 범위가 서로 차이난다.Accordingly, in the conventional touch-interactable projector, a difference occurs in the recognition area due to the distance between the two lenses as shown in FIG. 3. That is, the interaction range and the projection range are different from each other.
그리하여, 도 4에서와 같이 기존에는 투사 렌즈와 인터랙션 렌즈의 설치 각도를 조절하여 동시 인식 가능 범위를 늘렸다. 이 과정에서, 투사 렌즈와 인터랙션 렌즈의 광축이 서로 달라지게 되므로, 이에 따른 오차를 없애기 위해 캘리브레이션을 행하였다. 두 렌즈 사이에 발생하는 오차는 스크린과 프로젝터 사이의 거리, 각도에 따라 변하기 때문에 프로젝터 설치 위치가 변경될 때마다 캘리브레이션이 필요하였다. Thus, as shown in FIG. 4, the range of simultaneous recognition is increased by adjusting the installation angles of the projection lens and the interaction lens. In this process, since the optical axes of the projection lens and the interaction lens are different from each other, a calibration is performed to eliminate the error. The error between the two lenses varies with the distance and angle between the screen and the projector, so a calibration was required whenever the projector installation position was changed.
그런데, 도 5에서와 같이 본 발명에서는 투사와 인터랙션을 하나의 렌즈(33)에서 처리하게 되므로, 투사 렌즈와 인터랙션 렌즈의 광축이 일치가 된다. 따라서, 광축이 동일하여 오차가 없고, 오차가 없으므로 캘리브레이션이 필요없게 된다.However, in the present invention, as shown in Fig. 5, since the projection and the interaction are processed by one lens 33, the optical axes of the projection lens and the interaction lens are coincident with each other. Therefore, since the optical axes are the same, there is no error and there is no error, so no calibration is necessary.
다시 말해서, 본 발명에 의해서는 도 5에서와 같이 투사범위와 인터랙션 범위가 동일하게 되고, 인식가능범위(즉, 인식 영역)가 확대된다. In other words, according to the present invention, the projection range and the interaction range become the same as in Fig. 5, and the recognizable range (i.e., the recognition area) is enlarged.
도 6은 도 2에 도시된 센서의 인식 영역을 예시한 도면이다.FIG. 6 is a diagram illustrating a recognition area of a sensor illustrated in FIG. 2.
앞서 설명한 바와 같이, 도 2의 구성에 의해서는 별도의 캘리브레이션이 필요없게 되므로, 도 6에서와 같이 센서(35)의 인식 영역(범위)은 고정적으로 정해질 것이다. As described above, since a separate calibration is not required by the configuration of FIG. 2, the recognition area (range) of the sensor 35 will be fixed as shown in FIG. 6.
패턴 왜곡 또는 모양 변화를 이용하는 경우, 터치가 없으면 센서(35)는 인식 영역내의 모든 위치에서 패턴 왜곡 또는 모양 변화가 없는 적외선 신호(즉, 적외선 패턴빔)를 인식할 것이다. 그런데, 터치가 있게 되면 인식 영역내의 해당 터치 지점에서는 패턴 왜곡 또는 모양 변화가 발생할 것이다. 따라서, 센서(35)는 인식 영역내에 터치 지점이 있게 되면 인식 영역을 기준으로 해당 터치 지점의 X,Y좌표값을 손쉽게 계산할 수 있다. In the case of using the pattern distortion or the shape change, without the touch, the sensor 35 will recognize the infrared signal (ie the infrared pattern beam) without the pattern distortion or the shape change at all positions in the recognition area. However, if there is a touch, pattern distortion or shape change will occur at the corresponding touch point in the recognition area. Therefore, when the touch point is present in the recognition area, the sensor 35 can easily calculate the X and Y coordinate values of the touch point based on the recognition area.
한편, 광량을 이용하는 경우, 터치가 없으면 센서(35)는 인식 영역내의 모든 위치에서의 적외선 신호(즉, 적외선 패턴빔)가 동일한 광량인 것으로 인식할 것이다. 그런데, 터치가 있게 되면 인식 영역내의 해당 터치 지점에서의 적외선 신호의 광량만이 차이날 것이다. 따라서, 센서(35)는 인식 영역내에 터치 지점이 있게 되면 인식 영역을 기준으로 해당 터치 지점의 X,Y좌표값을 손쉽게 계산할 수 있다. On the other hand, in the case of using the light amount, if there is no touch, the sensor 35 will recognize that the infrared signal (that is, the infrared pattern beam) at all positions in the recognition area is the same light amount. However, if there is a touch, only the amount of light of the infrared signal at the corresponding touch point in the recognition area will be different. Therefore, when the touch point is present in the recognition area, the sensor 35 can easily calculate the X and Y coordinate values of the touch point based on the recognition area.
예를 들어, 상술한 X,Y좌표값의 범위는 0 ~ 4095 일 수 있다. 즉, 센서(35)에서의 X,Y의 위치 좌표값은 0 ~ 4095 사이의 값으로 계산되어 인터랙션 신호 처리부(36)에게로 입력될 것이다. 필요에 따라, 센서(35)는 손가락 끝점을 파악할 수 있는 알고리즘을 추가로 채용하여 보다 정확하게 터치 지점의 X,Y좌표값을 계산할 수 있다. 손가락 끝점을 파악할 수 있는 알고리즘은 당업자라면 주지의 기술을 통해 충분히 이해할 수 있으리라 본다. For example, the above-described X, Y coordinate values may range from 0 to 4095. That is, the position coordinate values of X and Y in the sensor 35 may be calculated as a value between 0 and 4095 and input to the interaction signal processor 36. If necessary, the sensor 35 may further calculate an X, Y coordinate value of the touch point by further employing an algorithm for identifying the fingertip point. Algorithms for identifying the fingertips will be fully understood by those skilled in the art.
프로젝터(100)에서 필요로 하는 좌표값은 해당 프로젝터(100)의 해상도에 따라 다를 것이다. 예를 들어, 프로젝터(100)의 해상도가 1920 × 1080이라면 프로젝터(100)가 필요로 하는 좌표값은 가로 0 ~ 1980, 세로 0 ~ 1080 값이 될 것이다. The coordinate values required by the projector 100 will vary depending on the resolution of the projector 100. For example, if the resolution of the projector 100 is 1920 × 1080, the coordinate values required by the projector 100 may be 0 to 1980 horizontally and 0 to 1080 vertically.
그에 따라, 인터랙션 신호 처리부(36)는 워핑(Warping) 알고리즘 또는 지오메트릭 변환(Geometry translation) 등을 사용하여 센서(35)의 좌표데이터를 실세계 좌표데이터(즉, 프로젝터에서 사용하는 좌표데이터)로 변환할 수 있다. 그리고, 인터랙션 신호 처리부(36)는 변환된 좌표데이터를 그에 상응하는 터치 이벤트(Touch Event)로 매핑시킬 수 있다. 그리고, 인터랙션 신호 처리부(36)는 해당 터치 이벤트를 처리할 수 있다.Accordingly, the interaction signal processor 36 converts the coordinate data of the sensor 35 into real world coordinate data (that is, coordinate data used by the projector) using a warping algorithm or a geometric transformation. can do. In addition, the interaction signal processor 36 may map the converted coordinate data into a corresponding touch event. The interaction signal processor 36 may process the touch event.
이번에는, 도 7의 플로우차트를 참조하여, 도 2에 도시된 프로젝터를 이용한 터치 인터랙션 동작을 설명한다.This time, the touch interaction operation using the projector shown in FIG. 2 will be described with reference to the flowchart of FIG. 7.
먼저, 프로젝터(100)의 전원을 온(ON)시킨다(S100).First, the power of the projector 100 is turned on (S100).
그에 따라, 광원(30)이 온(ON)되고, 적외선 패턴빔 제공부(32)가 온(ON)된다(S102, S104). Accordingly, the light source 30 is turned on, and the infrared pattern beam providing unit 32 is turned on (S102, S104).
광원(30)은 광(예컨대, 레이저 광)을 광분리 소자(37)에게로 방사하게 되고, 광원(30)에서 방사된 광은 광분리 소자(37)의 빗면(37a)에서 반사되어 패널(31)에게로 입사된다(S106). 그에 따라, 패널(31)에는 소정의 영상이 맺힌다. 즉, 광원(30)에서 방사되는 광은 스크린(200)에 디스플레이될 영상이 되는 광이라고 할 수 있으므로, 패널(31)에는 광원(30)으로부터의 광에 의해 소정의 영상이 형성될 것이다. 이와 함께, 적외선 패턴빔 제공부(32)는 적외선 패턴빔을 광분리 소자(37)에게로 출력한다.The light source 30 emits light (for example, laser light) to the light splitting element 37, and the light emitted from the light source 30 is reflected on the inclined surface 37a of the light splitting element 37 so that the panel ( It enters into 31) (S106). As a result, a predetermined image is formed on the panel 31. That is, since light emitted from the light source 30 may be referred to as light to be displayed on the screen 200, a predetermined image may be formed on the panel 31 by the light from the light source 30. In addition, the infrared pattern beam providing unit 32 outputs the infrared pattern beam to the optical separation element 37.
이어, 패널(31)의 영상은 광분리 소자(37)를 투과하여 렌즈(33)에게로 향하고, 적외선 패턴빔은 빗면(37a)에서 반사되어 렌즈(33)에게로 향한다(S108). Subsequently, the image of the panel 31 passes through the optical separation element 37 to be directed to the lens 33, and the infrared pattern beam is reflected from the oblique surface 37a to be directed to the lens 33 (S108).
렌즈(33)에게로 전달된 영상은 렌즈(33)를 통해 스크린(200)에 투사되고, 적외선 패턴빔은 렌즈(33)를 통해 스크린(200)의 전면에 골고루 퍼지게 된다(S110).The image transmitted to the lens 33 is projected onto the screen 200 through the lens 33, and the infrared pattern beam is spread evenly on the front surface of the screen 200 through the lens 33 (S110).
그에 따라, 스크린(200)에는 적외선 패턴빔이 분포할 뿐만 아니라 하나 이상의 터치 객체(즉, 선택 메뉴)가 디스플레이된다. 여기서, 터치 객체의 제한은 없다. 만약, 스마트폰 화면이 프로젝터(100)를 통해 스크린(200)에 투사되고 있다면 스마트폰에 있는 모든 메뉴(전화걸기, 카카오톡, 메시지, 인터넷 등)가 터치 객체가 될 수 있다. PC 화면이 스크린(200)에 투사되고 있다면 PC에 있는 모든 메뉴가 터치 객체가 될 수 있다.Accordingly, the screen 200 not only distributes the infrared pattern beam but also displays one or more touch objects (ie, a selection menu). Here, there is no limitation of the touch object. If the smartphone screen is projected on the screen 200 through the projector 100, all menus (calling, KakaoTalk, message, Internet, etc.) in the smartphone may be touch objects. If the PC screen is projected on the screen 200, all menus in the PC may be touch objects.
이후, 사용자는 스크린(200)에 디스플레이된 영상(예컨대, 하나 이상의 터치 객체(선택 메뉴)를 포함)을 보고서 신체 일부(예컨대, 손가락)로 어느 한 터치 객체를 터치하게 된다. Thereafter, the user views an image (eg, including one or more touch objects (selection menus)) displayed on the screen 200 and touches a touch object with a body part (eg, a finger).
그에 따라, 패턴 왜곡 또는 모양 변화를 근거로 터치 인터랙션의 위치를 파악하는 경우에는 해당 터치 지점에서 패턴 왜곡 또는 모양 변화가 발생하게 될 것이다. 즉, 스크린(200)의 전면에는 적외선 패턴빔(예컨대, 구조광빔(structured light beam))이 형성되어 있는데, 어느 한 터치 객체를 손가락으로 터치하게 되면 손가락에 의해 해당 터치 지점에서는 패턴 왜곡 또는 모양 변화를 일으키게 된다. Accordingly, when the position of the touch interaction is detected based on the pattern distortion or the shape change, the pattern distortion or the shape change will occur at the corresponding touch point. That is, an infrared pattern beam (for example, a structured light beam) is formed on the front surface of the screen 200. When a touch object is touched by a finger, a pattern distortion or shape change is performed at the touch point by the finger. Will cause.
이와 다르게, 적외선 광량 변화를 근거로 터치 인터랙션의 위치를 파악하는 경우에는 해당 터치 지점에서 적외선 광량 변화가 발생하게 될 것이다. 즉, 스크린(200)의 전면에 일정한 광량의 적외선 패턴빔이 골고루 분포하고 있는데, 어느 한 터치 객체를 손가락으로 터치하게 되면 해당 터치 위치에서의 적외선 패턴빔의 광량은 다른 위치에서의 적외선 패턴빔의 광량과는 차이날 것이다. In contrast, when the location of the touch interaction is detected based on the change in the amount of infrared light, the change in the amount of infrared light will occur at the corresponding touch point. That is, the infrared pattern beam of a certain amount of light is uniformly distributed on the front surface of the screen 200. When one touch object is touched with a finger, the amount of light of the infrared pattern beam at the corresponding touch position is determined by the infrared pattern beam at the other position. It will be different from the amount of light.
이와 같이, 사용자가 스크린(200)상에 투사된 영상에서 신체 일부(예컨대, 손가락)로 어느 한 터치 객체를 터치하게 되면 해당 터치 지점에서 터치 인터랙션이 발생한다(S112에서 "Yes"). As such, when a user touches a touch object with a body part (for example, a finger) in an image projected on the screen 200, a touch interaction occurs at a corresponding touch point (“Yes” in S112).
이후, 터치 인터랙션이 발생한 지점에서의 적외선 신호 및 터치 인터랙션이 없는 다른 지점들에서의 적외선 신호가 스크린(200)에서 렌즈(33)를 통해 광분리 소자(37)에게로 입사된다. 광분리 소자(37)에게로 입사된 적외선 신호(광)들은 빗면(37a)에서 반사되어 필터(34)를 통과하여 센서(35)에게로 입력된다(S114).Thereafter, the infrared signal at the point where the touch interaction occurs and the infrared signal at other points without the touch interaction are incident on the screen separation element 37 through the lens 33. Infrared signals (lights) incident on the optical separation element 37 are reflected by the oblique plane 37a and passed through the filter 34 to the sensor 35 (S114).
센서(35)의 인식영역에는 터치 인터랙션이 발생한 지점에서의 적외선 신호(광) 및 터치 인터랙션이 없는 다른 지점들에서의 적외선 신호(광)가 모두 들어온다. 그에 따라, 센서(35)는 패턴 왜곡 또는 모양 변화가 발생한 해당 터치 지점의 좌표값(즉, X,Y좌표값), 또는 광량에서 차이가 있는 해당 터치 지점의 좌표값(즉, X,Y좌표값)을 손쉽게 인식(계산 또는 변환)해 낼 수 있다(S116).The infrared signal (light) at the point where the touch interaction occurs and the infrared signal (light) at other points without the touch interaction enter both the recognition area of the sensor 35. Accordingly, the sensor 35 coordinates (ie, X, Y coordinates) of the corresponding touch point at which the pattern distortion or shape change has occurred, or coordinate values (ie, X, Y coordinates) of the corresponding touch point having a difference in the amount of light. Value) can be easily recognized (calculated or converted) (S116).
그리고, 센서(35)는 인식한 위치 좌표값을 인터랙션 신호 처리부(36)에게로 전달한다(S118).Then, the sensor 35 transmits the recognized position coordinate value to the interaction signal processor 36 (S118).
인터랙션 신호 처리부(36)는 센서(35)의 위치 좌표값을 실세계 좌표데이터로 변환하고, 변환된 좌표데이터를 그에 상응하는 터치 이벤트(Touch Event)로 매핑시킨다(S120). The interaction signal processor 36 converts the position coordinate value of the sensor 35 into real world coordinate data, and maps the converted coordinate data into a corresponding touch event (S120).
그리고 나서, 인터랙션 신호 처리부(36)는 해당 터치 이벤트를 처리한다(S122).Then, the interaction signal processor 36 processes the corresponding touch event (S122).
상술한 바에 따르면, 하나의 렌즈를 통해 화면 투사와 터치 인식을 가능하게 된다. As described above, screen projection and touch recognition are possible through one lens.
또한, 이동할 때마다 다른 조작(보정과정)을 거치지 않고 터치 인터랙션이 가능하다. 예를 들어, 이동 후에 투사되는 화면과의 각도와 방향이 이동 전과 차이나거나, 커브드 TV와 같이 투사되는 모양에 변화가 있더라도 캘리브레이션을 하지 않고도 터치 인터랙션이 가능하다.In addition, each time it moves, touch interaction is possible without going through another operation (correction process). For example, even if the angle and direction of the screen projected after the movement are different from those before the movement, or the projected shape such as the curved TV is changed, the touch interaction can be performed without calibration.
도 8은 도 1에 도시된 프로젝터의 내부 구성의 다른 예를 나타낸 도면이다. 도 8의 프로젝터는 LCD 프로젝터 또는 LED 프로젝터라고 할 수 있으며, 신체 일부(예컨대, 손가락)로 스크린(200)을 직접 터치할 수 있다. 8 is a diagram illustrating another example of an internal configuration of the projector illustrated in FIG. 1. The projector of FIG. 8 may be referred to as an LCD projector or an LED projector, and may directly touch the screen 200 with a body part (eg, a finger).
도 8에 도시된 프로젝터(100)는 광원(40), 패널(41), 적외선 패턴빔 제공부(42), 렌즈(43), 필터(44), 센서(45), 인터랙션 신호 처리부(46), 및 광분리 소자(47)를 포함한다.The projector 100 illustrated in FIG. 8 includes a light source 40, a panel 41, an infrared pattern beam providing unit 42, a lens 43, a filter 44, a sensor 45, and an interaction signal processor 46. , And an optical separation element 47.
광원(40)은 소정의 광을 방사한다. 예를 들어, 광원(40)은 레이저 다이오드, LCD, LED 등을 포함할 수 있다. The light source 40 emits predetermined light. For example, the light source 40 may include a laser diode, an LCD, an LED, and the like.
광원(40)에서 방사되는 광은 스크린(200)에 디스플레이될 영상이 되는 광이라고 할 수 있다. Light emitted from the light source 40 may be referred to as light that becomes an image to be displayed on the screen 200.
패널(41)은 광원(40)에서 발생하는 광(빛)을 사람이 볼 수 있는 영상으로 변환할 수 있다. 다시 말해서, 패널(41)에는 광원(40)으로부터의 광을 근거로 하는 영상이 맺힌다. 즉, 패널(41)에는 스크린(200)에 디스플레이될 영상이 맺힌다고 할 수 있다.The panel 41 may convert light (light) generated by the light source 40 into an image that can be viewed by a person. In other words, the panel 41 has an image based on the light from the light source 40. That is, it can be said that the panel 41 has an image to be displayed on the screen 200.
여기서, 패널(41)은 투과 패널로 구성될 수 있다. 그에 따라, 광원(40)은 패널(41)의 후방에 설치된다.Here, the panel 41 may be composed of a transmissive panel. Thus, the light source 40 is installed behind the panel 41.
적외선 패턴빔 제공부(42)는 스크린(200)의 전면에 투사되는 일정 광량의 적외선 패턴빔을 출력한다. 적외선 패턴빔은 스크린(200)의 전면을 전부 커버할 수 있도록 골고루 퍼질 것이다. 적외선 패턴빔은 적외선 광으로 형성된 소정 패턴의 빔을 의미할 수 있다. 적외선 패턴빔은 본 발명의 청구범위에 기재된 패턴빔의 일 예가 될 수 있다.The infrared pattern beam providing unit 42 outputs an infrared pattern beam of a predetermined amount of light projected on the front surface of the screen 200. The infrared pattern beam will spread evenly to cover the entirety of the screen 200. The infrared pattern beam may refer to a beam of a predetermined pattern formed of infrared light. The infrared pattern beam may be an example of the pattern beam described in the claims of the present invention.
렌즈(43)는 패널(41)로부터의 영상을 확대하여 스크린(200)에게로 보낸다.The lens 43 magnifies an image from the panel 41 and sends it to the screen 200.
렌즈(43)는 적외선 패턴빔 제공부(42)로부터의 적외선 패턴빔을 스크린(200)의 전면에 골고루 퍼질 수 있도록 보낸다.The lens 43 sends the infrared pattern beam from the infrared pattern beam providing unit 42 to spread evenly over the front surface of the screen 200.
그리고, 렌즈(43)는 스크린(200)에서의 터치 인터랙션에 의한 적외선 신호(광)를 수광할 수 있다. 예를 들어, 사용자가 신체 일부로 터치 객체를 터치하게 되면 렌즈(43)는 해당 터치 지점에서의 패턴 왜곡 또는 모양 변화된 적외선 광을 수광할 수 있다. 다른 예로는, 사용자가 신체 일부로 터치 객체를 터치하게 되면 렌즈(43)는 해당 터치 지점에서 변화된 광량을 가진 적외선 광을 수광할 수 있다. 물론, 렌즈(43)는 터치 지점 이외의 지점에서의 적외선 광도 수광할 것이다.In addition, the lens 43 may receive an infrared signal (light) due to a touch interaction on the screen 200. For example, when the user touches the touch object with a body part, the lens 43 may receive infrared light whose pattern is distorted or changed in shape at the touch point. As another example, when the user touches the touch object with a part of the body, the lens 43 may receive infrared light having a changed amount of light at the touch point. Of course, lens 43 will also receive infrared light at points other than touch points.
렌즈(43)는 프로젝터(100)의 최전방에 설치된다.The lens 43 is installed at the front of the projector 100.
렌즈(43)는 도 1에서와 같이 프로젝터(100)에서 노출되게 설치될 수 있다.The lens 43 may be installed to be exposed from the projector 100 as shown in FIG. 1.
필터(44)는 태양광 또는 광원(40)의 빛이 센서(45)에 영향을 미치지 않도록 제거한다. 다시 말해서, 필터(44)는 스크린(200)에서 반사되어 렌즈(43) 및 광분리 소자(47)를 거쳐 입사되는 적외선 신호(광량 변화가 있는 적외선 신호 및 광량 변화가 없는 적외선 신호)만을 통과시키고 그 이외의 신호는 제거한다. Filter 44 removes sunlight or light from light source 40 so as not to affect sensor 45. In other words, the filter 44 reflects only the infrared signal (infrared signal with light quantity change and infrared signal without light quantity change) incident on the screen 200 and reflected through the lens 43 and the light splitter 47. Other signals are removed.
필터(44)는 센서(45)의 전단에 설치됨이 바람직하다. The filter 44 is preferably installed at the front end of the sensor 45.
필터(44)의 채용 목적에 대한 구체적인 설명은 상술한 도 2에서의 필터(34) 설명으로 충분하리라 본다.Detailed description of the purpose of employing the filter 44 is sufficient to explain the filter 34 in FIG. 2 described above.
센서(45)는 입력받은 적외선 신호(즉, 터치 인터랙션에 의한 신호를 포함)에 근거하여 현재 터치된 터치 객체의 위치 좌표를 인식한다. 즉, 센서(45)는 사용자가 스크린(200)상의 어느 한 터치 객체를 터치함에 따른 적외선 신호를 수신하고, 수신된 적외선 신호를 근거로 해당 터치 객체에 대한 위치 좌표를 인식할 수 있다. 센서(45)의 위치 좌표 인식 동작에 대한 보다 구체적인 설명은 앞서 도 6을 근거로 설명한 센서(35)의 내용으로 대체가능하리라 본다. The sensor 45 recognizes the position coordinates of the touch object currently touched based on the received infrared signal (that is, including a signal by touch interaction). That is, the sensor 45 may receive an infrared signal when the user touches any touch object on the screen 200, and recognize the position coordinates of the touch object based on the received infrared signal. A more detailed description of the position coordinate recognition operation of the sensor 45 may be replaced with the contents of the sensor 35 described above with reference to FIG. 6.
인터랙션 신호 처리부(46)는 센서(45)로부터의 위치 좌표를 근거로 어느 터치 객체에 대하여 터치 이벤트가 발생하였는지를 판단할 수 있다.The interaction signal processor 46 may determine to which touch object a touch event occurs based on the position coordinates from the sensor 45.
한편, 인터랙션 신호 처리부(46)는 어느 터치 객체에 대하여 터치 이벤트가 발생하였는지를 판단하면 해당하는 터치 이벤트로 변환시킬 수 있다.On the other hand, the interaction signal processor 46 may determine which touch object the touch event has occurred to convert it to the corresponding touch event.
그리고, 인터랙션 신호 처리부(46)는 해당 터치 이벤트를 처리할 수 있다.The interaction signal processor 46 may process the touch event.
다시 말해서, 인터랙션 신호 처리부(46)는 워핑(Warping) 알고리즘 또는 지오메트릭 변환(Geometry translation) 등을 사용하여 센서(45)의 좌표데이터를 실세계 좌표데이터(즉, 프로젝터에서 사용하는 좌표데이터)로 변환할 수 있다. 그리고, 인터랙션 신호 처리부(46)는 변환된 좌표데이터를 그에 상응하는 터치 이벤트(Touch Event)로 매핑시킬 수 있다. 그리고, 인터랙션 신호 처리부(46)는 해당 터치 이벤트를 처리할 수 있다.In other words, the interaction signal processor 46 converts the coordinate data of the sensor 45 into real world coordinate data (that is, coordinate data used by the projector) using a warping algorithm or a geometric transformation. can do. In addition, the interaction signal processor 46 may map the converted coordinate data into a corresponding touch event. The interaction signal processor 46 may process the touch event.
광분리 소자(47)는 패널(41)로부터의 영상을 투과시켜 렌즈(43)에게로 보낸다. 광분리 소자(47)는 적외선 패턴빔 제공부(42)로부터의 적외선 패턴빔을 반사시켜 렌즈(43)에게로 보낸다. 또한, 광분리 소자(47)는 렌즈(43)를 통해 입사되는 적외선 신호(광)를 센서(45)측으로 반사시킨다.The optical separation element 47 transmits the image from the panel 41 to the lens 43. The optical separation element 47 reflects the infrared pattern beam from the infrared pattern beam providing unit 42 and sends it to the lens 43. In addition, the optical separation element 47 reflects the infrared signal (light) incident through the lens 43 toward the sensor 45.
보다 상세하게는, 광분리 소자(47)의 내부에는 빗면(47a)이 형성된다. 빗면(47a)은 패널(41)로부터의 영상을 그대로 투과시킬 수 있다. 빗면(47a)은 적외선 패턴빔 제공부(42)로부터의 적외선 패턴빔을 렌즈(43)측으로 반사시킬 수 있다. 그리고, 빗면(47a)은 렌즈(43)를 통해 입사되는 적외선 신호(광이 될 수 있음)를 센서(45)측으로 반사시킬 수 있다.More specifically, the inclined surface 47a is formed inside the optical separation element 47. The oblique surface 47a can transmit the image from the panel 41 as it is. The inclined surface 47a may reflect the infrared pattern beam from the infrared pattern beam provider 42 toward the lens 43. The oblique surface 47a may reflect the infrared signal (which may be light) incident through the lens 43 toward the sensor 45.
도 8에서, 광분리 소자(47)는 육면체로 구성될 수 있다. 광원(40) 및 패널(41)은 광분리 소자(47)의 제 1면(예컨대, 배면)에 대향하여 설치될 수 있다. 렌즈(43)는 광분리 소자(47)의 제 2면(예컨대, 정면)에 대향하여 설치될 수 있다. 적외선 패턴빔 제공부(42)와 필터(44) 및 센서(45)는 광분리 소자(47)의 제 4면(예컨대, 우측면)에 대향하여 설치될 수 있다.In FIG. 8, the optical separation element 47 may be configured of a hexahedron. The light source 40 and the panel 41 may be provided to face the first surface (eg, the rear surface) of the light splitter 47. The lens 43 may be provided to face the second surface (eg, the front) of the light splitter 47. The infrared pattern beam providing unit 42, the filter 44, and the sensor 45 may be provided to face the fourth surface (eg, the right side) of the light splitter 47.
상술한 도 8에서는 인터랙션 신호 처리부(46)를 프로젝터(100)의 내부에 설치되는 것으로 하였는데, OS가 탑재된 휴대장치(예컨대, 스마트폰) 또는 PC의 내부에 설치시켜도 된다. 만약, 인터랙션 신호 처리부(46)가 휴대장치 또는 PC의 내부에 설치되었을 경우에는 센서(45)의 내부에는 별도의 송신 모듈이 포함되어 위치 좌표값을 휴대장치 또는 PC에게로 보낼 수 있을 것이다.In FIG. 8, the interaction signal processor 46 is installed inside the projector 100, but may be installed inside a portable device (eg, a smartphone) or a PC on which an OS is mounted. If the interaction signal processor 46 is installed in the portable apparatus or the PC, a separate transmission module may be included in the sensor 45 to transmit the position coordinate value to the portable apparatus or the PC.
그리고, 상술한 바와 같은 도 8의 구성에 의해서도 캘리브레이션이 필요없게 된다. 캘리브레이션이 필요없는 이유는 상술한 도 3 내지 도 5의 내용을 참조하면 충분히 이해할 수 있으리라 본다.In addition, calibration is unnecessary even with the configuration of FIG. 8 as described above. The reason why no calibration is required will be fully understood with reference to the above-described contents of FIGS. 3 to 5.
이번에는, 도 9의 플로우차트를 참조하여, 도 8에 도시된 프로젝터를 이용한 터치 인터랙션 동작을 설명한다.Next, the touch interaction operation using the projector shown in FIG. 8 will be described with reference to the flowchart of FIG. 9.
먼저, 프로젝터(100)의 전원을 온(ON)시킨다(S200).First, the power of the projector 100 is turned on (S200).
그에 따라, 광원(40)이 온(ON)되고, 적외선 패턴빔 제공부(42)가 온(ON)된다(S202, S204). As a result, the light source 40 is turned on, and the infrared pattern beam providing part 42 is turned on (S202 and S204).
광원(40)의 광빔(예컨대, 레이저 광)이 패널(41)의 후면으로 직접 입사되어, 패널(21)에는 소정의 영상이 맺힌다(S206, S208). 즉, 광원(40)에서 방사되는 광은 스크린(200)에 디스플레이될 영상이 되는 광이라고 할 수 있으므로, 패널(41)에는 광원(40)으로부터의 광에 의해 소정의 영상이 형성될 것이다. 이와 함께, 적외선 패턴빔 제공부(42)는 적외선 패턴빔을 광분리 소자(47)에게로 출력한다.A light beam (for example, laser light) of the light source 40 is directly incident to the rear surface of the panel 41, and a predetermined image is formed on the panel 21 (S206 and S208). That is, since the light emitted from the light source 40 may be referred to as light to be an image to be displayed on the screen 200, a predetermined image will be formed on the panel 41 by the light from the light source 40. In addition, the infrared pattern beam providing unit 42 outputs the infrared pattern beam to the optical separation element 47.
이어, 패널(41)의 영상은 광분리 소자(47)를 투과하여 렌즈(43)에게로 향하고, 적외선 패턴빔은 빗면(47a)에서 반사되어 렌즈(43)에게로 향한다(S210). Subsequently, the image of the panel 41 passes through the optical separation element 47 and is directed to the lens 43, and the infrared pattern beam is reflected from the inclined surface 47a and directed to the lens 43 (S210).
렌즈(43)에게로 전달된 영상은 렌즈(43)를 통해 스크린(200)에 투사되고, 적외선 패턴빔은 렌즈(43)를 통해 스크린(200)의 전면에 골고루 퍼지게 된다(S212).The image transmitted to the lens 43 is projected onto the screen 200 through the lens 43, and the infrared pattern beam is spread evenly on the front surface of the screen 200 through the lens 43 (S212).
그에 따라, 스크린(200)에는 적외선 패턴빔이 분포할 뿐만 아니라 하나 이상의 터치 객체(즉, 선택 메뉴)가 디스플레이된다. 여기서, 터치 객체의 제한은 없다. 만약, 스마트폰 화면이 프로젝터(100)를 통해 스크린(200)에 투사되고 있다면 스마트폰에 있는 모든 메뉴(전화걸기, 카카오톡, 메시지, 인터넷 등)가 터치 객체가 될 수 있다. PC 화면이 스크린(200)에 투사되고 있다면 PC에 있는 모든 메뉴가 터치 객체가 될 수 있다.Accordingly, the screen 200 not only distributes the infrared pattern beam but also displays one or more touch objects (ie, a selection menu). Here, there is no limitation of the touch object. If the smartphone screen is projected on the screen 200 through the projector 100, all menus (calling, KakaoTalk, message, Internet, etc.) in the smartphone may be touch objects. If the PC screen is projected on the screen 200, all menus in the PC may be touch objects.
이후, 사용자는 스크린(200)에 디스플레이된 영상(예컨대, 하나 이상의 터치 객체(선택 메뉴)를 포함)을 보고서 신체 일부(예컨대, 손가락)로 어느 한 터치 객체를 터치하게 된다. Thereafter, the user views an image (eg, including one or more touch objects (selection menus)) displayed on the screen 200 and touches a touch object with a body part (eg, a finger).
그에 따라, 패턴 왜곡 또는 모양 변화를 근거로 터치 인터랙션의 위치를 파악하는 경우에는 해당 터치 지점에서 패턴 왜곡 또는 모양 변화가 발생하게 될 것이다. 즉, 스크린(200)의 전면에는 적외선 패턴빔(예컨대, 구조광빔(structured light beam))이 형성되어 있는데, 어느 한 터치 객체를 손가락으로 터치하게 되면 손가락에 의해 해당 터치 지점에서는 패턴 왜곡 또는 모양 변화를 일으키게 된다. Accordingly, when the position of the touch interaction is detected based on the pattern distortion or the shape change, the pattern distortion or the shape change will occur at the corresponding touch point. That is, an infrared pattern beam (for example, a structured light beam) is formed on the front surface of the screen 200. When a touch object is touched by a finger, a pattern distortion or shape change is performed at the touch point by the finger. Will cause.
이와 다르게, 적외선 광량 변화를 근거로 터치 인터랙션의 위치를 파악하는 경우에는 해당 터치 지점에서 적외선 광량 변화가 발생하게 될 것이다. 즉, 스크린(200)의 전면에 일정한 광량의 적외선 패턴빔이 골고루 분포하고 있는데, 어느 한 터치 객체를 손가락으로 터치하게 되면 해당 터치 위치에서의 적외선 패턴빔의 광량은 다른 위치에서의 적외선 패턴빔의 광량과는 차이날 것이다. In contrast, when the location of the touch interaction is detected based on the change in the amount of infrared light, the change in the amount of infrared light will occur at the corresponding touch point. That is, the infrared pattern beam of a certain amount of light is uniformly distributed on the front surface of the screen 200. When one touch object is touched with a finger, the amount of light of the infrared pattern beam at the corresponding touch position is determined by the infrared pattern beam at the other position. It will be different from the amount of light.
이와 같이, 사용자가 스크린(200)상에 투사된 영상에서 신체 일부(예컨대, 손가락)로 어느 한 터치 객체를 터치하게 되면 해당 터치 지점에서 터치 인터랙션이 발생한다(S214에서 "Yes"). As such, when a user touches a touch object with a body part (for example, a finger) in the image projected on the screen 200, a touch interaction occurs at a corresponding touch point (“Yes” in S214).
이후, 터치 인터랙션이 발생한 지점에서의 적외선 신호 및 터치 인터랙션이 없는 다른 지점들에서의 적외선 신호가 스크린(200)에서 렌즈(43)를 통해 광분리 소자(47)에게로 입사된다. 광분리 소자(47)에게로 입사된 적외선 신호(광)들은 빗면(47a)에서 반사되어 필터(44)를 통과하여 센서(45)에게로 입력된다(S216).Thereafter, the infrared signal at the point where the touch interaction occurs and the infrared signal at other points without the touch interaction are incident on the screen separation device 47 through the lens 43. Infrared signals (lights) incident on the light splitter 47 are reflected by the oblique plane 47a and passed through the filter 44 to the sensor 45 (S216).
센서(45)의 인식영역에는 터치 인터랙션이 발생한 지점에서의 적외선 신호(광) 및 터치 인터랙션이 없는 다른 지점들에서의 적외선 신호(광)가 모두 들어온다. 그에 따라, 센서(45)는 패턴 왜곡 또는 모양 변화가 발생한 해당 터치 지점의 좌표값(즉, X,Y좌표값), 또는 광량에서 차이가 있는 해당 터치 지점의 좌표값(즉, X,Y좌표값)을 손쉽게 인식(계산 또는 변환)해 낼 수 있다(S218).Both the infrared signal (light) at the point where the touch interaction occurred and the infrared signal (light) at other points without the touch interaction enter the recognition area of the sensor 45. Accordingly, the sensor 45 may determine a coordinate value (ie, X and Y coordinate values) of the corresponding touch point where the pattern distortion or shape change has occurred, or a coordinate value (ie, X and Y coordinates) of the corresponding touch point with a difference in light quantity. Value) can be easily recognized (calculated or converted) (S218).
그리고, 센서(45)는 인식한 위치 좌표값을 인터랙션 신호 처리부(46)에게로 전달한다(S220).Then, the sensor 45 transmits the recognized position coordinate value to the interaction signal processor 46 (S220).
인터랙션 신호 처리부(46)는 센서(45)의 위치 좌표값을 실세계 좌표데이터로 변환하고, 변환된 좌표데이터를 그에 상응하는 터치 이벤트(Touch Event)로 매핑시킨다(S222). The interaction signal processor 46 converts the position coordinate value of the sensor 45 into real world coordinate data, and maps the converted coordinate data into a corresponding touch event (S222).
그리고 나서, 인터랙션 신호 처리부(46)는 해당 터치 이벤트를 처리한다(S224).Then, the interaction signal processor 46 processes the touch event (S224).
도 10은 본 발명의 다른 일실시예에 따른 터치 인터랙션이 가능한 프로젝터의 전체적인 동작 개념을 설명하기 위한 도면이다.10 is a view for explaining the overall operation concept of the projector capable of touch interaction according to another embodiment of the present invention.
본 발명의 다른 일실시예에 따른 터치 인터랙션이 가능한 프로젝터(100)는 스크린(200)을 향해 소정 거리 이격되게 위치한다. The projector 100 capable of touch interaction according to another embodiment of the present invention is positioned to be spaced apart from the screen 200 by a predetermined distance.
프로젝터(100)는 휴대 및 이동가능할 정도의 작은 사이즈로서, 예를 들어 피코(pico) 프로젝터라고 할 수도 있다. The projector 100 is small enough to be portable and mobile, and may be referred to as a pico projector, for example.
물론, 프로젝터(100)는 다양한 디지털 사이니지에도 활용가능하므로, 이동형 프로젝터 뿐만 아니라 대형의 사물스크린 등과 같이 인터랙션을 위한 캘리브레이션(보정)이 크고 어려운 환경에서도 적용가능하다.Of course, since the projector 100 can be utilized in various digital signages, it is applicable not only to a mobile projector but also to a large and difficult environment for calibration (correction) for interaction such as a large object screen.
프로젝터(100)는 렌즈(12, 22)를 통해 소정의 영상(예컨대, 하나 이상의 터치 객체(선택 메뉴)를 포함)을 스크린(200)에게로 투사할 수 있다. The projector 100 may project a predetermined image (eg, including one or more touch objects (selection menu)) to the screen 200 through the lenses 12 and 22.
그리고, 프로젝터(100)는 스크린(200)상에서 터치 인터랙션이 발생하면 그에 상응하는 신호를 수신할 수 있다. In addition, when a touch interaction occurs on the screen 200, the projector 100 may receive a signal corresponding thereto.
또한, 프로젝터(100)는 발생된 터치 인터랙션에 상응하는 터치 이벤트를 처리할 수 있다.In addition, the projector 100 may process a touch event corresponding to the generated touch interaction.
여기서, 터치 인터랙션은 사용자가 스크린(200)상에 투사된 영상(예컨대, 하나 이상의 터치 객체(선택 메뉴)를 포함)에서 적외선펜과 같은 전용의 터치기기로 어느 한 터치 객체를 터치하게 되면 터치기기가 해당 터치 지점에 대해 적외선 광을 방출하는 것을 의미할 수 있다. 따라서, 터치 지점에서 터치기기에 의해 방출되는 적외선 광을 본 발명의 청구범위에 기재된 터치 인터랙션에 의한 신호의 일 예라고 할 수 있다.Here, the touch interaction is a touch device when the user touches any touch object with a dedicated touch device such as an infrared pen on an image projected on the screen 200 (eg, including one or more touch objects (selection menu)). May mean to emit infrared light with respect to the touch point. Therefore, the infrared light emitted by the touch device at the touch point can be referred to as an example of the signal by the touch interaction described in the claims of the present invention.
스크린(200)은 투사화면이 될 수 있는데, 스크린(200)은 도 10에서와 같이 평평한 면으로 이루어지는 것이 바람직할 것이다.The screen 200 may be a projection screen, and the screen 200 may be formed of a flat surface as shown in FIG. 10.
그러나, 스크린(200)은 평평하지 않은 면으로 이루어져도 무방하다. 예를 들어, 평평한 두 개의 면의 경계가 서로 닿아 있는 부위를 향해 소정의 영상을 투사하더라도 투사되는 영상이 두 개의 면에 나뉘어져서 서로 자연스럽게 연결된 것처럼 보여질 것이다.However, the screen 200 may be made of an uneven surface. For example, even if a predetermined image is projected toward an area where the boundaries of two flat surfaces touch each other, the projected images will be divided into two surfaces and appear to be naturally connected to each other.
도 11은 도 10에 도시된 프로젝터의 내부 구성의 일 예를 나타낸 도면이다. 도 11의 프로젝터는 DLP(Digital Light Processing) 프로젝터라고 할 수 있으며, 적외선펜과 같은 전용의 터치기기를 이용한다. 여기서, 터치기기는 적외선 광을 출력할 수 있다. FIG. 11 is a diagram illustrating an example of an internal configuration of the projector illustrated in FIG. 10. The projector of FIG. 11 may be referred to as a digital light processing (DLP) projector and uses a dedicated touch device such as an infrared pen. Here, the touch device may output infrared light.
도 11에 도시된 프로젝터(100)는 광원(10), 패널(11), 렌즈(12), 필터(13), 센서(14), 인터랙션 신호 처리부(15), 및 광분리 소자(16)를 포함한다.The projector 100 illustrated in FIG. 11 includes a light source 10, a panel 11, a lens 12, a filter 13, a sensor 14, an interaction signal processor 15, and an optical separation element 16. Include.
광원(10)은 소정의 광을 방사한다. 예를 들어, 광원(10)은 레이저 다이오드, LCD, LED 등을 포함할 수 있다. The light source 10 emits predetermined light. For example, the light source 10 may include a laser diode, an LCD, an LED, and the like.
광원(10)에서 방사되는 광은 스크린(200)에 디스플레이될 영상이 되는 광이라고 할 수 있다. Light emitted from the light source 10 may be referred to as light that becomes an image to be displayed on the screen 200.
패널(11)은 광원(10)에서 발생하는 광(빛)을 사람이 볼 수 있는 영상으로 변환할 수 있다. 다시 말해서, 패널(11)에는 광원(10)으로부터의 광을 근거로 하는 영상이 맺힌다. 즉, 패널(11)에는 스크린(200)에 디스플레이될 영상이 맺힌다고 할 수 있다.The panel 11 may convert light (light) generated by the light source 10 into an image that can be viewed by a person. In other words, the panel 11 bears an image based on the light from the light source 10. That is, the panel 11 may be formed with an image to be displayed on the screen 200.
여기서, 패널(11)은 반사 패널로 구성될 수 있다. 그에 따라, 광원(10)은 패널(11)과 소정 거리 이격된 측방에 설치된다.Here, the panel 11 may be composed of a reflective panel. Accordingly, the light source 10 is provided on the side spaced apart from the panel 11 by a predetermined distance.
렌즈(12)는 패널(11)로부터의 영상을 확대하여 스크린(200)에게로 보낸다. The lens 12 magnifies an image from the panel 11 and sends it to the screen 200.
렌즈(12)는 스크린(200)에서의 터치 인터랙션에 의한 적외선 신호(광)를 수광할 수 있다. 즉, 렌즈(12)는 터치 지점에서 터치기기에 의해 방출되는 적외선 광을 수광할 수 있다.The lens 12 may receive an infrared signal (light) by touch interaction on the screen 200. That is, the lens 12 may receive infrared light emitted by the touch device at the touch point.
렌즈(12)는 프로젝터(100)의 최전방에 설치되고, 스크린(200)을 향하도록 위치함이 바람직하다.The lens 12 is preferably installed at the front of the projector 100 and is positioned to face the screen 200.
렌즈(12)는 도 10에서와 같이 프로젝터(100)에서 노출되게 설치될 수 있다.The lens 12 may be installed to be exposed from the projector 100 as shown in FIG. 10.
필터(13)는 태양광 또는 광원(10)의 빛이 센서(14)에 영향을 미치지 않도록 제거한다. 다시 말해서, 필터(13)는 스크린(200)에서 반사되어 렌즈(12) 및 광분리 소자(16)를 거쳐 입사되는 적외선 신호만을 통과시키고 그 이외의 신호는 제거한다.The filter 13 removes the sunlight or light of the light source 10 so as not to affect the sensor 14. In other words, the filter 13 passes only the infrared signal reflected by the screen 200 and incident through the lens 12 and the optical separation element 16 and removes other signals.
필터(13)는 센서(14)의 전단에 설치됨이 바람직하다. The filter 13 is preferably installed at the front end of the sensor 14.
도 11에서, 프로젝터(100) 내부의 광원(10)에서 방사되는 광은 광분리 소자(16)에서 모두 반사되어 패널(11)로 입사되는 것이 아니라 그 중의 일부는 광분리 소자(16)를 그대로 투과할 수 있다. 예를 들어, 광원(10)에서 방사되는 광이 레이저라고 가정하였을 경우 레이저는 적외선 영역을 포함하므로 적외선 영역에 해당하는 광이 광분리 소자(16)를 그대로 투과하여 센서(14)에게로 입사될 수 있다. 이 경우, 센서(14)는 비정상적인 센싱을 수행하게 될 것이다. 따라서, 필터(13)는 센서(14)의 전단에 설치됨으로써 센서(14)에 인가될 필요가 없는 광(즉, 광원(10)의 광)을 제거한다. In FIG. 11, the light emitted from the light source 10 inside the projector 100 is not reflected by the light separating element 16 and is incident on the panel 11, but some of the light is separated from the light separating element 16. Permeable. For example, assuming that the light emitted from the light source 10 is a laser, the laser includes an infrared region, so that light corresponding to the infrared region passes through the optical separation element 16 as it is and enters the sensor 14. Can be. In this case, the sensor 14 will perform abnormal sensing. Thus, the filter 13 is installed at the front end of the sensor 14 to remove light (that is, light of the light source 10) that does not need to be applied to the sensor 14.
또한, 프로젝터(100)의 외부에서 태양광이 프로젝터(100)의 내부로 유입될 수 있다. 이때, 프로젝터(100)의 내부로 유입된 태양광이 센서(14)에게로 입사되면 센서(14)는 비정상적인 센싱을 수행하게 될 것이다. 따라서, 필터(13)는 센서(14)의 전단에 설치됨으로써 센서(14)에 인가될 수 있는 광(즉, 태양광)을 제거한다. In addition, sunlight may flow into the projector 100 from the outside of the projector 100. In this case, when the sunlight introduced into the projector 100 is incident on the sensor 14, the sensor 14 may perform abnormal sensing. Accordingly, the filter 13 is installed in front of the sensor 14 to remove light (ie, sunlight) that may be applied to the sensor 14.
센서(14)는 입력받은 적외선 신호(즉, 터치 인터랙션에 의한 신호)에 근거하여 현재 터치된 터치 객체의 위치 좌표를 인식한다. 즉, 센서(14)는 사용자가 스크린(200)상의 어느 한 터치 객체를 터치함에 따른 적외선 신호(즉, 터치기기에서 발생)를 수신하고, 수신된 적외선 신호를 근거로 해당 터치 객체에 대한 위치 좌표를 인식할 수 있다. 센서(14)의 위치 좌표 인식 동작에 대한 보다 자세한 설명은 후술하기로 한다. The sensor 14 recognizes the position coordinates of the touch object currently touched based on the received infrared signal (ie, a signal by touch interaction). That is, the sensor 14 receives an infrared signal (ie, generated by a touch device) when the user touches any touch object on the screen 200, and based on the received infrared signal, position coordinates of the touch object. Can be recognized. A detailed description of the position coordinate recognition operation of the sensor 14 will be described later.
인터랙션 신호 처리부(15)는 센서(14)로부터의 위치 좌표를 근거로 어느 터치 객체에 대하여 터치 이벤트가 발생하였는지를 판단할 수 있다.The interaction signal processor 15 may determine to which touch object a touch event occurs based on the position coordinates from the sensor 14.
한편, 인터랙션 신호 처리부(15)는 어느 터치 객체에 대하여 터치 이벤트가 발생하였는지를 판단하면 해당하는 터치 이벤트로 변환시킬 수 있다.Meanwhile, the interaction signal processor 15 may convert a touch event into a corresponding touch event when determining which touch object has occurred.
그리고, 인터랙션 신호 처리부(15)는 해당 터치 이벤트를 처리할 수 있다.The interaction signal processor 15 may process the corresponding touch event.
광분리 소자(16)는 광원(10)으로부터의 광을 패널(11)측으로 반사시키고, 패널(11)로부터의 영상을 투과시켜 렌즈(12)에게로 보낸다. 또한, 광분리 소자(16)는 렌즈(12)를 통해 입사되는 적외선 신호(광)를 센서(14)측으로 반사시킨다.The light separation element 16 reflects the light from the light source 10 toward the panel 11 side, transmits the image from the panel 11 to the lens 12. In addition, the optical separation element 16 reflects the infrared signal (light) incident through the lens 12 to the sensor 14 side.
보다 상세하게는, 광분리 소자(16)의 내부에는 빗면(16a)이 형성된다. 빗면(16a)은 광원(10)으로부터의 광을 패널(11)측으로 반사시키고, 패널(11)로부터의 영상을 그대로 투과시킬 수 있다. 그리고, 빗면(16a)은 렌즈(12)를 통해 입사되는 적외선 신호(광이 될 수 있음)를 센서(14)측으로 반사시킬 수 있다.More specifically, the inclined surface 16a is formed inside the optical separation element 16. The inclined surface 16a may reflect light from the light source 10 toward the panel 11 side, and transmit the image from the panel 11 as it is. In addition, the inclined surface 16a may reflect the infrared signal (which may be light) incident through the lens 12 toward the sensor 14.
도 11에서, 광분리 소자(16)는 육면체로 구성될 수 있다. 광원(10)은 광분리 소자(16)의 제 1면(예컨대, 좌측면)에 대향하여 설치될 수 있다. 패널(11)은 광분리 소자(16)의 제 2면(예컨대, 배면)에 대향하여 설치될 수 있다. 렌즈(12)는 광분리 소자(16)의 제 3면(예컨대, 정면)에 대향하여 설치될 수 있다. 필터(13) 및 센서(14)는 광분리 소자(16)의 제 4면(예컨대, 우측면)에 대향하여 설치될 수 있다.In FIG. 11, the optical separation element 16 may be configured of a hexahedron. The light source 10 may be provided to face the first surface (eg, the left surface) of the light separation element 16. The panel 11 may be installed to face the second side (eg, the rear side) of the light separation element 16. The lens 12 may be provided to face the third surface (eg, the front surface) of the light separation element 16. The filter 13 and the sensor 14 may be provided to face the fourth side (eg, the right side) of the optical separation element 16.
상술한 도 11에서는 인터랙션 신호 처리부(15)를 프로젝터(100)의 내부에 설치되는 것으로 하였는데, OS가 탑재된 휴대장치(예컨대, 스마트폰) 또는 PC의 내부에 설치시켜도 된다. 만약, 인터랙션 신호 처리부(15)가 휴대장치 또는 PC의 내부에 설치되었을 경우에는 센서(14)의 내부에는 별도의 송신 모듈이 포함되어 위치 좌표값을 휴대장치 또는 PC에게로 보낼 수 있을 것이다.In FIG. 11, the interaction signal processor 15 is installed inside the projector 100, but may be installed inside a portable device (eg, a smartphone) or a PC on which an OS is mounted. If the interaction signal processor 15 is installed in the portable apparatus or the PC, a separate transmission module may be included in the sensor 14 to transmit the position coordinate value to the portable apparatus or the PC.
도 11의 구성에 의해 캘리브레이션이 필요없는 이유는 상술한 도 3 내지 도 5를 근거로 설명한 내용과 동일하다. 당업자라면 도 3 내지 도 5의 설명을 근거로 충분히 이해할 수 있으리라 사료되므로 그에 대한 설명은 생략하기로 한다.The reason why no calibration is required by the configuration of FIG. 11 is the same as the content described above with reference to FIGS. 3 to 5. Those skilled in the art will be able to fully understand based on the description of Figures 3 to 5, so a description thereof will be omitted.
도 12는 도 11에 도시된 센서의 인식 영역을 예시한 도면이다.FIG. 12 is a diagram illustrating a recognition area of a sensor illustrated in FIG. 11.
앞서 설명한 바와 같이, 도 11의 구성에 의해서는 별도의 캘리브레이션이 필요없게 되므로, 도 12에서와 같이 센서(14)의 인식 영역(범위)은 고정적으로 정해질 것이다. 센서(14)는 인식 영역내에 적외선 빛이 들어오면 인식 영역을 기준으로 X,Y좌표값을 손쉽게 계산할 수 있다. 예를 들어, X,Y좌표값의 범위는 0 ~ 4095 일 수 있다. 즉, 센서(14)에서의 X,Y의 위치 좌표값은 0 ~ 4095 사이의 값으로 계산되어 인터랙션 신호 처리부(15)에게로 입력될 것이다. 필요에 따라, 센서(35)는 터치기기의 끝점을 파악할 수 있는 알고리즘을 추가로 채용하여 보다 정확하게 터치 지점의 X,Y좌표값을 계산할 수 있다. 터치기기의 끝점을 파악할 수 있는 알고리즘은 당업자라면 주지의 기술을 통해 충분히 이해할 수 있으리라 본다. As described above, since a separate calibration is not required by the configuration of FIG. 11, the recognition area (range) of the sensor 14 will be fixed as shown in FIG. 12. The sensor 14 can easily calculate the X and Y coordinate values based on the recognition area when the infrared light enters the recognition area. For example, the range of X, Y coordinate values may be 0 to 4095. That is, the position coordinate values of X and Y in the sensor 14 may be calculated as a value between 0 and 4095 and input to the interaction signal processor 15. If necessary, the sensor 35 may further calculate an X, Y coordinate value of the touch point by further employing an algorithm for identifying the end point of the touch device. Algorithms that can grasp the end point of the touch device will be fully understood by those skilled in the art through known techniques.
한편, 프로젝터(100)에서 필요로 하는 좌표값은 해당 프로젝터(100)의 해상도에 따라 다를 것이다. 예를 들어, 프로젝터(100)의 해상도가 1920 × 1080이라면 프로젝터(100)가 필요로 하는 좌표값은 가로 0 ~ 1980, 세로 0 ~ 1080 값이 될 것이다. Meanwhile, the coordinate values required by the projector 100 will vary depending on the resolution of the projector 100. For example, if the resolution of the projector 100 is 1920 × 1080, the coordinate values required by the projector 100 may be 0 to 1980 horizontally and 0 to 1080 vertically.
그에 따라, 인터랙션 신호 처리부(15)는 워핑(Warping) 알고리즘 또는 지오메트릭 변환(Geometry translation) 등을 사용하여 센서(14)의 좌표데이터를 실 세계 좌표데이터(즉, 프로젝터에서 사용하는 좌표데이터)로 변환할 수 있다. 그리고, 인터랙션 신호 처리부(15)는 변환된 좌표데이터를 그에 상응하는 터치 이벤트(Touch Event)로 매핑시킬 수 있다. 그리고, 인터랙션 신호 처리부(15)는 해당 터치 이벤트를 처리할 수 있다.Accordingly, the interaction signal processor 15 converts the coordinate data of the sensor 14 into real world coordinate data (that is, coordinate data used by the projector) using a warping algorithm or a geometric transformation. I can convert it. In addition, the interaction signal processor 15 may map the converted coordinate data into a corresponding touch event. The interaction signal processor 15 may process the corresponding touch event.
이번에는, 도 13의 플로우차트를 참조하여, 도 11에 도시된 프로젝터를 이용한 터치 인터랙션 동작을 설명한다.This time, touch interaction operations using the projector shown in FIG. 11 will be described with reference to the flowchart in FIG.
먼저, 프로젝터(100)의 전원을 온(ON)시킨다(S10).First, the power of the projector 100 is turned on (S10).
그에 따라, 광원(10)이 온(ON)되어 동작한다. 즉, 프로젝터(100)의 전원이 온됨에 따라 광원(10)은 광(예컨대, 레이저 광)을 광분리 소자(16)에게로 방사하게 된다(S12).Accordingly, the light source 10 is turned on to operate. That is, as the power of the projector 100 is turned on, the light source 10 emits light (for example, laser light) to the light splitter 16 (S12).
광원(10)에서 방사된 광은 광분리 소자(16)의 빗면(16a)에서 반사되어 패널(11)에게로 입사된다(S14).The light emitted from the light source 10 is reflected by the oblique surface 16a of the light separation element 16 and is incident on the panel 11 (S14).
그에 따라, 패널(11)에는 소정의 영상이 맺힌다. 즉, 광원(10)에서 방사되는 광은 스크린(200)에 디스플레이될 영상이 되는 광이라고 할 수 있으므로, 패널(11)에는 광원(10)으로부터의 광에 의해 소정의 영상이 형성될 것이다. 영상에서도 빛을 발하므로, 패널(11)의 영상은 광분리 소자(11)를 투과하여 렌즈(12)에게로 향한다(S16). Accordingly, a predetermined image is formed on the panel 11. That is, since light emitted from the light source 10 may be referred to as light to be displayed on the screen 200, a predetermined image may be formed on the panel 11 by light from the light source 10. Since the image also emits light, the image of the panel 11 passes through the optical separation element 11 and is directed to the lens 12 (S16).
렌즈(12)에게로 전달된 영상은 렌즈(12)를 통해 스크린(200)에 투사된다(S18). 그에 따라, 스크린(200)에는 하나 이상의 터치 객체(즉, 선택 메뉴)가 디스플레이된다. 여기서, 터치 객체의 제한은 없다. 만약, 스마트폰 화면이 프로젝터(100)를 통해 스크린(200)에 투사되고 있다면 스마트폰에 있는 모든 메뉴(전화걸기, 카카오톡, 메시지, 인터넷 등)가 터치 객체가 될 수 있다. PC 화면이 스크린(200)에 투사되고 있다면 PC에 있는 모든 메뉴가 터치 객체가 될 수 있다.The image transmitted to the lens 12 is projected onto the screen 200 through the lens 12 (S18). Accordingly, one or more touch objects (ie, selection menus) are displayed on the screen 200. Here, there is no limitation of the touch object. If the smartphone screen is projected on the screen 200 through the projector 100, all menus (calling, KakaoTalk, message, Internet, etc.) in the smartphone may be touch objects. If the PC screen is projected on the screen 200, all menus in the PC may be touch objects.
이후, 사용자는 스크린(200)에 디스플레이된 영상(예컨대, 하나 이상의 터치 객체(선택 메뉴)를 포함)을 보고서 적외선펜과 같은 전용의 터치기기로 어느 한 터치 객체를 터치하게 된다. 그에 따라, 터치기기는 해당 지점(즉, 터치 객체를 터치한 위치)에서 적외선 신호(광)를 출력하게 된다. Thereafter, the user views an image (eg, including one or more touch objects (selection menu)) displayed on the screen 200 and touches one touch object with a dedicated touch device such as an infrared pen. Accordingly, the touch device outputs an infrared signal (light) at the corresponding point (that is, the position where the touch object is touched).
이와 같이, 사용자가 스크린(200)상에 투사된 영상에서 전용의 터치기기로 어느 한 터치 객체를 터치하게 되면 터치기기가 해당 터치 지점에서 적외선 신호(광)를 방출하는 터치 인터랙션이 발생한다(S20에서 "Yes").As such, when a user touches a touch object with a dedicated touch device in an image projected on the screen 200, a touch interaction occurs in which the touch device emits an infrared signal (light) at a corresponding touch point (S20). "Yes").
그에 따라, 해당 터치 지점에서의 적외선 신호(광)는 스크린(200)에서 반사되어 렌즈(12)를 통해 광분리 소자(16)에게로 입사된다. 광분리 소자(16)에게로 입사된 적외선 신호(광)는 빗면(16a)에서 반사되어 필터(13)를 통과하여 센서(14)에게로 입력된다(S22).Accordingly, the infrared signal (light) at the touch point is reflected by the screen 200 and is incident on the optical separation element 16 through the lens 12. The infrared signal (light) incident on the optical separation element 16 is reflected by the oblique plane 16a and passed through the filter 13 to the sensor 14 (S22).
센서(14)는 인식영역내에 적외선 신호(광)가 들어오게 됨에 따라 해당 위치(터치 지점)의 좌표값(즉, X,Y좌표값)을 인식(계산 또는 변환)해 낸다(S24).As the infrared signal (light) enters the recognition area, the sensor 14 recognizes (calculates or converts) coordinate values (that is, X and Y coordinate values) of the corresponding position (touch point) (S24).
그리고, 센서(14)는 인식한 위치 좌표값을 인터랙션 신호 처리부(15)에게로 전달한다(S26).Then, the sensor 14 transmits the recognized position coordinate value to the interaction signal processor 15 (S26).
인터랙션 신호 처리부(15)는 센서(14)의 위치 좌표값을 실세계 좌표데이터로 변환하고, 변환된 좌표데이터를 그에 상응하는 터치 이벤트(Touch Event)로 매핑시킨다(S28). The interaction signal processor 15 converts the position coordinate value of the sensor 14 into real world coordinate data, and maps the converted coordinate data into a corresponding touch event (S28).
그리고 나서, 인터랙션 신호 처리부(15)는 해당 터치 이벤트를 처리한다(S30).Then, the interaction signal processor 15 processes the corresponding touch event (S30).
상술한 바에 따르면, 하나의 렌즈를 통해 화면 투사와 터치 인식을 가능하게 된다.  As described above, screen projection and touch recognition are possible through one lens.
또한, 이동할 때마다 다른 조작(보정과정)을 거치지 않고 터치 인터랙션이 가능하다. 예를 들어, 이동 후에 투사되는 화면과의 각도와 방향이 이동 전과 차이나거나, 커브드 TV와 같이 투사되는 모양에 변화가 있더라도 캘리브레이션을 하지 않고도 터치 인터랙션이 가능하다.In addition, each time it moves, touch interaction is possible without going through another operation (correction process). For example, even if the angle and direction of the screen projected after the movement are different from those before the movement, or the projected shape such as the curved TV is changed, the touch interaction can be performed without calibration.
도 14는 도 10에 도시된 프로젝터의 내부 구성의 다른 예를 나타낸 도면이다. 도 14의 프로젝터는 LCD 프로젝터 또는 LED 프로젝터라고 할 수 있으며, 적외선펜과 같은 전용의 터치기기를 이용한다. 여기서, 터치기기는 적외선 광을 출력할 수 있다.14 is a diagram illustrating another example of the internal configuration of the projector shown in FIG. 10. The projector of FIG. 14 may be referred to as an LCD projector or an LED projector, and uses a dedicated touch device such as an infrared pen. Here, the touch device may output infrared light.
도 14에 도시된 프로젝터(100)는 광원(20), 패널(21), 렌즈(22), 필터(23), 센서(24), 인터랙션 신호 처리부(25), 및 광분리 소자(26)를 포함한다.The projector 100 illustrated in FIG. 14 includes a light source 20, a panel 21, a lens 22, a filter 23, a sensor 24, an interaction signal processor 25, and an optical separation element 26. Include.
광원(20)은 소정의 광을 방사한다. 예를 들어, 광원(20)은 레이저 다이오드, LCD, LED 등을 포함할 수 있다. The light source 20 emits predetermined light. For example, the light source 20 may include a laser diode, an LCD, an LED, and the like.
광원(20)에서 방사되는 광은 스크린(200)에 디스플레이될 영상이 되는 광이라고 할 수 있다. The light emitted from the light source 20 may be referred to as light that becomes an image to be displayed on the screen 200.
패널(21)은 광원(20)에서 발생하는 광(빛)을 사람이 볼 수 있는 영상으로 변환할 수 있다. 다시 말해서, 패널(21)에는 광원(20)으로부터의 광을 근거로 하는 영상이 맺힌다. 즉, 패널(21)에는 스크린(200)에 디스플레이될 영상이 맺힌다고 할 수 있다.The panel 21 may convert light (light) generated by the light source 20 into an image that can be viewed by a person. In other words, the panel 21 bears an image based on the light from the light source 20. That is, it can be said that the image to be displayed on the screen 200 is formed on the panel 21.
여기서, 패널(21)은 투과 패널로 구성될 수 있다. 그에 따라, 광원(20)은 패널(21)의 후방에 설치된다.Here, the panel 21 may be composed of a transmissive panel. Accordingly, the light source 20 is installed behind the panel 21.
렌즈(22)는 패널(21)로부터의 영상을 확대하여 스크린(200)에게로 보낸다. The lens 22 magnifies an image from the panel 21 and sends it to the screen 200.
렌즈(22)는 스크린(200)에서의 터치 인터랙션에 의한 적외선 신호(광)를 수광할 수 있다. 즉, 렌즈(22)는 터치 지점에서 터치기기에 의해 방출되는 적외선 광을 수광할 수 있다.The lens 22 may receive an infrared signal (light) by touch interaction on the screen 200. That is, the lens 22 may receive infrared light emitted by the touch device at the touch point.
렌즈(22)는 프로젝터(100)의 최전방에 설치되고, 스크린(200)을 향하도록 위치함이 바람직하다.The lens 22 is preferably installed at the front of the projector 100 and is positioned to face the screen 200.
렌즈(22)는 도 10에서와 같이 프로젝터(100)에서 노출되게 설치될 수 있다.The lens 22 may be installed to be exposed from the projector 100 as shown in FIG. 10.
필터(23)는 태양광 또는 광원(20)의 빛이 센서(24)에 영향을 미치지 않도록 제거한다. 다시 말해서, 필터(23)는 스크린(200)에서 반사되어 렌즈(22) 및 광분리 소자(26)를 거쳐 입사되는 적외선 신호만을 통과시키고 그 이외의 신호는 제거한다.The filter 23 removes the sunlight or light of the light source 20 so as not to affect the sensor 24. In other words, the filter 23 passes only the infrared signal reflected by the screen 200 and incident through the lens 22 and the optical separation element 26 and removes other signals.
필터(23)는 센서(24)의 전단에 설치됨이 바람직하다. The filter 23 is preferably installed in front of the sensor 24.
필터(23)의 채용 목적에 대한 구체적인 설명은 상술한 도 11에서의 필터(13) 설명으로 충분하리라 본다.A detailed description of the purpose of employing the filter 23 is sufficient to describe the filter 13 in FIG. 11 described above.
센서(24)는 입력받은 적외선 신호(광)(즉, 터치 인터랙션에 의한 신호)에 근거하여 현재 터치된 터치 객체의 위치 좌표를 인식한다. 즉, 센서(24)는 사용자가 스크린(200)상의 어느 한 터치 객체를 터치함에 따른 적외선 신호(즉, 터치기기에서 발생)를 수신하고, 수신된 적외선 신호를 근거로 해당 터치 객체에 대한 위치 좌표를 인식할 수 있다. 센서(24)의 위치 좌표 인식 동작에 대한 보다 구체적인 설명은 앞서 도 12를 근거로 설명한 내용으로 대체가능하리라 본다. The sensor 24 recognizes the position coordinates of the touch object currently touched based on the received infrared signal (light) (that is, a signal by touch interaction). That is, the sensor 24 receives an infrared signal (ie, generated by the touch device) when the user touches any touch object on the screen 200 and based on the received infrared signal, position coordinates of the touch object. Can be recognized. A more detailed description of the position coordinate recognition operation of the sensor 24 will be replaced with the above description based on FIG. 12.
인터랙션 신호 처리부(25)는 센서(24)로부터의 위치 좌표를 근거로 어느 터치 객체에 대하여 터치 이벤트가 발생하였는지를 판단할 수 있다.The interaction signal processor 25 may determine to which touch object a touch event occurs based on the position coordinates from the sensor 24.
한편, 인터랙션 신호 처리부(25)는 어느 터치 객체에 대하여 터치 이벤트가 발생하였는지를 판단하면 해당하는 터치 이벤트로 변환시킬 수 있다.Meanwhile, the interaction signal processor 25 may convert a touch event into a corresponding touch event when determining which touch object has occurred.
그리고, 인터랙션 신호 처리부(25)는 해당 터치 이벤트를 처리할 수 있다.The interaction signal processor 25 may process the touch event.
다시 말해서, 인터랙션 신호 처리부(25)는 워핑(Warping) 알고리즘 또는 지오메트릭 변환(Geometry translation) 등을 사용하여 센서(24)의 좌표데이터를 실 세계 좌표데이터(즉, 프로젝터에서 사용하는 좌표데이터)로 변환할 수 있다. 그리고, 인터랙션 신호 처리부(25)는 변환된 좌표데이터를 그에 상응하는 터치 이벤트(Touch Event)로 매핑시킬 수 있다. 그리고, 인터랙션 신호 처리부(25)는 해당 터치 이벤트를 처리할 수 있다.In other words, the interaction signal processor 25 converts the coordinate data of the sensor 24 into real world coordinate data (that is, coordinate data used in the projector) using a warping algorithm or a geometric transformation. I can convert it. In addition, the interaction signal processor 25 may map the converted coordinate data into a corresponding touch event. The interaction signal processor 25 may process the touch event.
광분리 소자(26)는 패널(21)로부터의 영상을 투과시켜 렌즈(22)에게로 보낸다. 또한, 광분리 소자(26)는 렌즈(22)를 통해 입사되는 적외선 신호(광)를 센서(24)측으로 반사시킨다.The optical separation element 26 transmits the image from the panel 21 to the lens 22. In addition, the optical separation element 26 reflects the infrared signal (light) incident through the lens 22 toward the sensor 24.
보다 상세하게는, 광분리 소자(26)의 내부에는 빗면(26a)이 형성된다. 빗면(26a)은 패널(21)로부터의 영상을 그대로 투과시킬 수 있다. 그리고, 빗면(26a)은 렌즈(22)를 통해 입사되는 적외선 신호(광이 될 수 있음)를 센서(24)측으로 반사시킬 수 있다.More specifically, the slanted surface 26a is formed inside the light separation element 26. The oblique surface 26a may transmit the image from the panel 21 as it is. In addition, the inclined surface 26a may reflect the infrared signal (which may be light) incident through the lens 22 toward the sensor 24.
도 14에서, 광분리 소자(26)는 육면체로 구성될 수 있다. 광원(20) 및 패널(21)은 광분리 소자(26)의 제 1면(예컨대, 배면)에 대향하여 설치될 수 있다. 렌즈(22)는 광분리 소자(26)의 제 2면(예컨대, 정면)에 대향하여 설치될 수 있다. 필터(23) 및 센서(24)는 광분리 소자(26)의 제 3면(예컨대, 우측면)에 대향하여 설치될 수 있다.In FIG. 14, the optical separation element 26 may be configured of a hexahedron. The light source 20 and the panel 21 may be installed to face the first surface (eg, the rear surface) of the light separation element 26. The lens 22 may be installed to face the second surface (eg, the front surface) of the light separation element 26. The filter 23 and the sensor 24 may be provided to face the third side (eg, the right side) of the optical separation element 26.
상술한 도 14에서는 인터랙션 신호 처리부(25)를 프로젝터(100)의 내부에 설치되는 것으로 하였는데, OS가 탑재된 휴대장치(예컨대, 스마트폰) 또는 PC의 내부에 설치시켜도 된다. 만약, 인터랙션 신호 처리부(15)가 휴대장치 또는 PC의 내부에 설치되었을 경우에는 센서(14)의 내부에는 별도의 송신 모듈이 포함되어 위치 좌표값을 휴대장치 또는 PC에게로 보낼 수 있을 것이다.In FIG. 14 described above, the interaction signal processing unit 25 is installed inside the projector 100. The interaction signal processing unit 25 may be installed inside a portable device (for example, a smartphone) or a PC equipped with an OS. If the interaction signal processor 15 is installed in the portable apparatus or the PC, a separate transmission module may be included in the sensor 14 to transmit the position coordinate value to the portable apparatus or the PC.
그리고, 상술한 바와 같은 도 14의 구성에 의해서도 캘리브레이션이 필요없게 된다. 캘리브레이션이 필요없는 이유는 상술한 도 3 내지 도 5의 내용을 참조하면 충분히 이해할 수 있으리라 본다.In addition, the configuration of FIG. 14 as described above also eliminates the need for calibration. The reason why no calibration is required will be fully understood with reference to the above-described contents of FIGS. 3 to 5.
이번에는, 도 15의 플로우차트를 참조하여, 도 14에 도시된 프로젝터를 이용한 터치 인터랙션 동작을 설명한다.This time, touch interaction operations using the projector shown in FIG. 14 will be described with reference to the flowchart of FIG. 15.
먼저, 프로젝터(100)의 전원을 온(ON)시킨다(S40).First, the power of the projector 100 is turned on (S40).
그에 따라, 광원(20)이 온(ON)되어 동작한다. 즉, 프로젝터(100)의 전원이 온됨에 따라 광원(20)의 광빔(예컨대, 레이저 광)이 패널(21)의 후면으로 직접 입사된다(S42, S44).Accordingly, the light source 20 is turned on to operate. That is, as the power of the projector 100 is turned on, a light beam (eg, laser light) of the light source 20 is directly incident on the rear surface of the panel 21 (S42 and S44).
그에 따라, 패널(21)에는 소정의 영상이 맺힌다(S46). Accordingly, a predetermined image is formed on the panel 21 (S46).
패널(21)의 영상에서도 빛을 발하므로, 패널(21)의 영상은 광분리 소자(21)를 투과하여 렌즈(22)에게로 향한다(S48). Since the image of the panel 21 also emits light, the image of the panel 21 passes through the optical separation element 21 and is directed to the lens 22 (S48).
렌즈(22)에게로 전달된 영상은 렌즈(22)를 통해 스크린(200)에 투사된다(S50). 그에 따라, 스크린(200)에는 하나 이상의 터치 객체(즉, 선택 메뉴)가 디스플레이된다. 여기서, 터치 객체의 제한은 없다. 만약, 스마트폰 화면이 프로젝터(100)를 통해 스크린(200)에 투사되고 있다면 스마트폰에 있는 모든 메뉴(전화걸기, 카카오톡, 메시지, 인터넷 등)가 터치 객체가 될 수 있다. PC 화면이 스크린(200)에 투사되고 있다면 PC에 있는 모든 메뉴가 터치 객체가 될 수 있다.The image transmitted to the lens 22 is projected onto the screen 200 through the lens 22 (S50). Accordingly, one or more touch objects (ie, selection menus) are displayed on the screen 200. Here, there is no limitation of the touch object. If the smartphone screen is projected on the screen 200 through the projector 100, all menus (calling, KakaoTalk, message, Internet, etc.) in the smartphone may be touch objects. If the PC screen is projected on the screen 200, all menus in the PC may be touch objects.
이후, 사용자는 스크린(200)에 디스플레이된 영상(예컨대, 하나 이상의 터치 객체(선택 메뉴)를 포함)을 보고서 적외선펜과 같은 전용의 터치기기로 어느 한 터치 객체를 터치하게 된다. 그에 따라, 터치기기는 해당 지점(즉, 터치 객체를 터치한 위치)에서 적외선 신호(광)를 출력하게 된다. Thereafter, the user views an image (eg, including one or more touch objects (selection menu)) displayed on the screen 200 and touches one touch object with a dedicated touch device such as an infrared pen. Accordingly, the touch device outputs an infrared signal (light) at the corresponding point (that is, the position where the touch object is touched).
이와 같이, 사용자가 스크린(200)상에 투사된 영상에서 전용의 터치기기로 어느 한 터치 객체를 터치하게 되면 터치기기가 해당 터치 지점에서 적외선 신호(광)를 방출하는 터치 인터랙션이 발생한다(S52에서 "Yes").As such, when a user touches a touch object with a dedicated touch device in an image projected on the screen 200, a touch interaction occurs in which the touch device emits an infrared signal (light) at the touch point (S52). "Yes").
그에 따라, 해당 터치 지점에서의 적외선 신호(광)는 스크린(200)에서 반사되어 렌즈(22)를 통해 광분리 소자(26)에게로 입사된다. 광분리 소자(26)에게로 입사된 적외선 신호(광)는 빗면(26a)에서 반사되어 필터(23)를 통과하여 센서(24)에게로 입력된다(S54).Accordingly, the infrared signal (light) at the touch point is reflected by the screen 200 and is incident on the optical separation element 26 through the lens 22. The infrared signal (light) incident on the optical separation element 26 is reflected by the oblique plane 26a and passed through the filter 23 to the sensor 24 (S54).
센서(24)는 인식영역내에 적외선 신호(광)가 들어오게 됨에 따라 해당 위치(터치 지점)의 좌표값(즉, X,Y좌표값)을 인식(계산 또는 변환)해 낸다(S56).As the infrared signal (light) enters the recognition area, the sensor 24 recognizes (calculates or converts) coordinate values (that is, X and Y coordinate values) of the corresponding position (touch point) (S56).
그리고, 센서(24)는 인식한 위치 좌표값을 인터랙션 신호 처리부(25)에게로 전달한다(S58).Then, the sensor 24 transmits the recognized position coordinate value to the interaction signal processing unit 25 (S58).
인터랙션 신호 처리부(25)는 센서(24)의 위치 좌표값을 실세계 좌표데이터로 변환하고, 변환된 좌표데이터를 그에 상응하는 터치 이벤트(Touch Event)로 매핑시킨다(S60). The interaction signal processor 25 converts the position coordinate value of the sensor 24 into real world coordinate data, and maps the converted coordinate data into a corresponding touch event (S60).
그리고 나서, 인터랙션 신호 처리부(25)는 해당 터치 이벤트를 처리한다(S62). Then, the interaction signal processing unit 25 processes the touch event (S62).
상술한 바에 따르면, 하나의 렌즈를 통해 화면 투사와 터치 인식을 가능하게 된다. As described above, screen projection and touch recognition are possible through one lens.
또한, 이동할 때마다 다른 조작(보정과정)을 거치지 않고 터치 인터랙션이 가능하다. 예를 들어, 이동 후에 투사되는 화면과의 각도와 방향이 이동 전과 차이나거나, 커브드 TV와 같이 투사되는 모양에 변화가 있더라도 캘리브레이션을 하지 않고도 터치 인터랙션이 가능하다.In addition, each time it moves, touch interaction is possible without going through another operation (correction process). For example, even if the angle and direction of the screen projected after the movement are different from those before the movement, or the projected shape such as the curved TV is changed, the touch interaction can be performed without calibration.
상술한 바와 같은 터치 인터랙션이 가능한 프로젝터는 후술하는 적외선 기반 전자 칠판 시스템에 적용가능하다.The projector that is capable of touch interaction as described above is applicable to the infrared-based copyboard system described below.
도 16은 본 발명의 일실시예에 따른 적외선 기반 전자 칠판 시스템의 구성을 블록도로 도시한 것으로, 도시된 전자 칠판 시스템은 전자펜(300), 적외선신호처리장치(400), 단말 장치(500) 및 디스플레이 장치(600)를 포함하여 구성될 수 있다.16 is a block diagram illustrating a configuration of an infrared based electronic blackboard system according to an embodiment of the present invention. The illustrated electronic blackboard system includes an electronic pen 300, an infrared signal processing apparatus 400, and a terminal device 500. And a display device 600.
도 16을 참조하면, 사용자가 디스플레이 장치(600)의 스크린상에서 전자펜(300)을 이동시켜 판서를 하는 행위를 하면, 적외선 신호 처리 장치(400)는 전자펜(300)으로부터 방출되는 적외선을 인식하여 그에 대응되는 좌표 정보를 단말 장치(500)로 보낸다. Referring to FIG. 16, when the user moves the electronic pen 300 on the screen of the display apparatus 600 to write, the infrared signal processing apparatus 400 recognizes infrared rays emitted from the electronic pen 300. By sending the corresponding coordinate information to the terminal device 500.
단말 장치(500)는 상기 적외선 신호 처리 장치(400)로부터 수신되는 좌표 정보를 처리한 후 디스플레이 장치(600)로 전송하여, 디스플레이 장치(600)를 통해 판서 내용이 시각화되도록 한다.The terminal device 500 processes the coordinate information received from the infrared signal processing device 400 and transmits the coordinate information to the display device 600 so that the writing content is visualized through the display device 600.
좀 더 구체적으로, 전자펜(300)은 일단에 적외선을 방출하기 위한 적외선 광원(미도시)을 구비하여 적외선을 방출할 수 있다. More specifically, the electronic pen 300 may have an infrared light source (not shown) for emitting infrared rays at one end thereof to emit infrared rays.
적외선 신호 처리 장치(400)는 적외선을 인식하기 위한 적외선 센서(또는, 적외선 카메라 모듈)을 구비할 수 있으며, 상기 적외선 센서로부터 출력되는 적외선 신호를 분석하고 노이즈 필터링 및 정렬을 수행하여, 전자펜(300)으로부터 방출되는 적외선 신호를 선별해 그에 대응되는 좌표 정보를 획득할 수 있다. The infrared signal processing apparatus 400 may include an infrared sensor (or an infrared camera module) for recognizing infrared rays. The infrared signal processing apparatus 400 may analyze an infrared signal output from the infrared sensor, perform noise filtering and alignment, and may include an electronic pen ( The infrared signal emitted from 300 may be screened to obtain coordinate information corresponding thereto.
본 발명의 일실시예에 따르면, 적외선 신호 처리 장치(400)는 상기한 바와 같은 적외선 신호의 처리를 위한 파라미터를 주변 환경에 따라 자동으로 설정하여, 본 발명의 실시예에 따른 적외선 기반 전자 칠판 시스템이 어느 위치에 설치되더라도 이동형 환경에 적응적으로 오류없이 동작하도록 할 수 있다.According to an embodiment of the present invention, the infrared signal processing apparatus 400 automatically sets the parameters for processing the infrared signal as described above according to the surrounding environment, and the infrared based electronic blackboard system according to the embodiment of the present invention. Wherever it is installed, it can be operated without errors adaptively to the mobile environment.
단말 장치(500)에는 상기 적외선 신호 처리 장치(400)로부터 전달되는 좌표 정보를 처리하여 시각화하기 위한 전자 칠판 운용 소프트웨어가 설치되어 있으며, 전자 칠판 운용 소프트웨어는 상기 좌표 정보를 보정하거나, 화각 설정 기능을 처리하고, 관심 영역(ROI, Region Of Interest)를 지정, 인식하고 처리하는 기능 등을 수행할 수 있다.The terminal device 500 is equipped with electronic blackboard operating software for processing and visualizing coordinate information transmitted from the infrared signal processing apparatus 400. The electronic blackboard operating software corrects the coordinate information or provides an angle of view setting function. And a function of designating, recognizing, and processing a region of interest (ROI).
단말 장치(500)는 휴대폰, 스마트 폰(smart phone), 태블릿 PC, 노트북 컴퓨터, 데스크탑 형태의 PC(Personal Computer) 등으로 구현될 수 있으나, 본 발명은 이에 한정되지 아니하며, 상기 전자 칠판 운용 소프트웨어가 디스플레이 장치(600)에 설치되어 본 발명의 일실시예에 따른 단말 장치(300)의 구성 및 기능이 디스플레이 장치(600)에 통합되어 구현될 수도 있다.The terminal device 500 may be implemented as a mobile phone, a smart phone, a tablet PC, a notebook computer, a personal computer (PC) in a desktop form, and the like, but the present invention is not limited thereto. Installed in the display apparatus 600, the configuration and functions of the terminal apparatus 300 according to an embodiment of the present invention may be integrated into the display apparatus 600 and implemented.
또한, 상기 전자 칠판 운용 소프트웨어는 서버 내에 클라우드 서비스 또는 ASP(Application Service Provider)형태로 설치되어 운용될 수도 있다.In addition, the copyboard operating software may be installed and operated in the form of a cloud service or an application service provider (ASP) in a server.
한편, 디스플레이 장치(600)는 TV, 모니터, 프로젝터 등으로 구현될 수 있으나, 본 발명은 이에 한정되지 아니하며, 전자펜(300)을 이용한 판서가 수행될 수 있는 스마트폰, 태블릿 PC 등과 같이 스크린을 구비하는 모바일 장치일 수도 있다.The display device 600 may be implemented as a TV, a monitor, a projector, or the like, but the present invention is not limited thereto, and the display device 600 may include a screen such as a smartphone, a tablet PC, or the like, in which a writing using the electronic pen 300 may be performed. It may be a mobile device provided.
본 발명의 또 다른 실시예에 따르면, 단말 장치(500)는 전자펜(300)의 좌표 정보를 릴레이 통신 서버(미도시)로 전송하여, 릴레이 통신 서버와 통신 가능한 다양한 서비스 클라이언트인 또 디스플레이 장치들(미도시)에 판서 내용이 동기화 되도록 할 수 있다.According to another embodiment of the present invention, the terminal device 500 transmits the coordinate information of the electronic pen 300 to a relay communication server (not shown), and is also a display device which is various service clients capable of communicating with the relay communication server. (Not shown) allows the writing to be synchronized.
도 17은 도 16에 도시된 적외선 신호 처리 장치의 구성에 대한 일실시예를 블록도로 도시한 것으로, 도시된 적외선 신호 처리 장치(400)는 적외선 수신부(410), 신호 처리부(420), 파라미터 설정부(430), 근거리 통신 모듈(440), 제어부(450) 및 저장부(460)을 포함하여 구성될 수 있다. 한편, 도 17에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 적외선 신호 처리 장치(400)가 구현될 수도 있다.FIG. 17 is a block diagram illustrating an embodiment of the configuration of the infrared signal processing apparatus shown in FIG. 16. The infrared signal processing apparatus 400 illustrated includes an infrared receiver 410, a signal processor 420, and parameter settings. The unit 430 may include a short range communication module 440, a control unit 450, and a storage unit 460. Meanwhile, since the components illustrated in FIG. 17 are not essential, the infrared signal processing apparatus 400 having more components or fewer components may be implemented.
도 17을 참조하면, 적외선 수신부(410)은 관심 영역(ROI) 내에서 전자펜(300)이 방출하는 적외선을 수신하여 인식하여, 그에 상응하는 적외선 신호를 출력할 수 있다. 그를 위해, 상기 적외선 수신부(410)는 하나 이상의 적외선 센서들을 포함하는 적외선 카메라 모듈로 구현될 수 있다.Referring to FIG. 17, the infrared receiver 410 may receive and recognize infrared rays emitted from the electronic pen 300 in the ROI, and output an infrared signal corresponding thereto. For that purpose, the infrared receiver 410 may be implemented as an infrared camera module including one or more infrared sensors.
신호 처리부(420)는 적외선 수신부(410)로부터 출력되는 적외선 신호에 대한 분석, 필터링 및 정렬을 순차적으로 수행하여, 전자펜(300)으로부터 방출되는 적외선 신호를 선별해 좌표 정보를 획득하는 기능을 수행할 수 있다.The signal processor 420 sequentially analyzes, filters, and sorts the infrared signals output from the infrared receiver 410, and performs a function of selecting coordinates of the infrared signals emitted from the electronic pen 300 to obtain coordinate information. can do.
한편, 파라미터 설정부(430)는 주변 환경에 따라 적외선 신호 처리를 위해 필요한 최적의 파라미터를 설정하여 적외선 수신부(410) 또는 신호 처리부(420)로 전달할 수 있다.On the other hand, the parameter setting unit 430 may set the optimal parameter for the infrared signal processing according to the surrounding environment and transmit it to the infrared receiver 410 or the signal processor 420.
근거리 통신 모듈(440)은 블루투스 등과 같은 근거리 통신 방식을 이용해 신호 처리부(420)에서 획득된 좌표 정보를 단말 장치(500)로 전송하거나 또는 단말 장치(500)로부터 명령 전문을 수신할 수 있다.The short range communication module 440 may transmit coordinate information obtained from the signal processor 420 to the terminal device 500 or receive a command message from the terminal device 500 using a short range communication method such as Bluetooth.
제어부(450)는 상기한 바와 같은 적외선 신호 처리 장치(400)의 전체적인 동작을 제어하며, 적외선 신호 처리 장치(400)의 초기 설정 등의 기능을 수행할 수 있다.The controller 450 may control the overall operation of the infrared signal processing apparatus 400 as described above, and may perform a function such as initial setting of the infrared signal processing apparatus 400.
한편, 저장부(460)에는 신호 처리를 위한 기준값들, 신호 처리부(420)에서 검출된 좌표 정보, 파라미터 설정부(430)에서 설정된 파라미터 등을 저장할 수 있다.The storage unit 460 may store reference values for signal processing, coordinate information detected by the signal processor 420, and parameters set by the parameter setting unit 430.
도 18은 본 발명에 따른 적외선 신호 처리 장치의 동작 방법에 대한 일실시예를 흐름도로 도시한 것으로, 도시된 동작 방법을 도 17에 도시된 본 발명의 일실시예에 따른 적외선 신호 처리 장치(400)의 구성을 나타내는 블록도와 결부시켜 설명하기로 한다.18 is a flowchart illustrating an embodiment of an operating method of the infrared signal processing apparatus according to the present invention, and the infrared signal processing apparatus 400 according to the exemplary embodiment of the present invention shown in FIG. A description will be given in conjunction with the block diagram showing the configuration of the "
도 18을 참조하면, 적외선 신호 처리 장치(400)의 제어부(450)는 현재 전원 상태 값과 동작 상태 값을 확인하며, 적외선 신호 처리 장치(400)의 동작 중 스위치를 3초간 누르고 있으면 발생하는 인터럽트가 있는지 체크하여 인터럽트가 발생되면 전원 모드 상태 값을 변경시킨다(S300 단계).Referring to FIG. 18, the controller 450 of the infrared signal processing apparatus 400 checks a current power state value and an operating state value, and an interrupt generated when the switch is pressed for 3 seconds during the operation of the infrared signal processing apparatus 400. If there is an interrupt, the power mode state value is changed (step S300).
인터럽트가 발생되지 않으면, 근거리 통신 모듈(440)은 외부, 예를 들어 단말 장치(500)로부터 전달되는 명령 전문을 수신하여(S310 단계), 상기 수신된 명령 전문에 대응되는 동작을 수행할 수 있다.If the interrupt is not generated, the short-range communication module 440 may receive a command message transmitted from the outside, for example, the terminal device 500 (step S310), and perform an operation corresponding to the received command message. .
또한, 파라미터 설정부(430)는 적외선 수신부(410)의 적외선 센서가 인식하는 적외선의 밝기 임계값(bright threshold) 등을 포함하는 파라미터를 설정한다(S320 단계).In addition, the parameter setting unit 430 sets a parameter including a brightness threshold of the infrared light recognized by the infrared sensor of the infrared receiver 410 (step S320).
상기 S320 단계에서, 파라미터 설정부(430)는, 태양 광, 리모콘 반사 등의 외부 신호가 간섭하는 이동형 환경에 강인한 잡음 필터 처리 알고리즘을 적용하여 다양한 환경에도 적용 가능하도록, 이동 환경 인식 엔진이 운용되는데 필요한 최적의 파라메터 값을 자동으로 설정할 수 있다.In operation S320, the parameter setting unit 430 operates a mobile environment recognition engine to apply a noise filter processing algorithm that is robust to a mobile environment in which external signals such as sunlight and remote control reflections interfere. The optimal parameter values required can be set automatically.
예를 들어, 주변 밝기에 따라 적외선 신호의 속성 중 반지름(Radius)이 변할 수 있으므로, 파라미터 설정부(430)는 적외선 수신부(410)를 통해 인식된 적외선의 반지름과 저장부(460)에 저장된 기준값을 비교하여, 비교 결과에 따라 파라메터를 자동으로 설정할 수 있다.For example, since the radius of the infrared signal may change according to the ambient brightness, the parameter setting unit 430 may determine the radius of the infrared ray recognized by the infrared receiver 410 and the reference value stored in the storage unit 460. By comparing the parameters, the parameters can be set automatically according to the comparison result.
적외선 수신부(410)는 전자펜(300)으로부터 방출되는 적외선을 포함하는 전방 영역의 적외선을 인식하여 적외선 신호를 출력하고(S330 단계), 신호 처리부(420)는 적외선 수신부(410)로부터 출력되는 적외선 신호를 분석하여 영역(area), 평균 밝기 값(avgBright), 밝기 최대값(maxBright) 등을 포함하는 적외선 신호의 속성을 검출한다(S340 단계).The infrared receiver 410 recognizes the infrared rays of the front area including the infrared rays emitted from the electronic pen 300 and outputs an infrared signal (step S330), and the signal processor 420 is an infrared ray output from the infrared receiver 410. The signal is analyzed to detect attributes of an infrared signal including an area, an average brightness value avgBright, a maximum brightness maxBright, and the like (S340).
예를 들어, 신호 처리부(420)는 상기 영역(area), 평균 밝기 값(avgBright), 밝기 최대값(maxBright)의 세 가지 속성들을 이용해 주변의 밝기를 분석할 수 있으며, 상기 신호 처리부(420)에서 분석된 주변 밝기에 대한 정보는 파라미터 설정부(430)가 최적의 파라미터를 설정하는데 이용될 수 있다.For example, the signal processor 420 may analyze the brightness of the surroundings by using three attributes of the area, the average brightness value avgBright, and the maximum brightness value maxBright. The information about the ambient brightness analyzed in the parameter setting unit 430 may be used to set the optimal parameter.
여기서, 상기 영역(area)은 적외선의 속성 중 적외선의 세기 값을 나타내며, 상기 평균 밝기 값(avgBright)은 적외선 밝기의 평균값을 나타내며, 밝기 최대값(maxBright)은 적외선 밝기의 최대 값을 나타낼 수 있으며, 이들은 추후 적외선 신호를 필터링하거나 정렬할 때 이용될 수 있다.Here, the area may represent an intensity value of infrared rays among the attributes of infrared rays, the average brightness value avgBright may represent an average value of infrared brightness, and a brightness maximum value maxBright may represent a maximum value of infrared brightness. These can be used later to filter or align infrared signals.
또한, 상기 S340 단계에서, 신호 처리부(420)는 전자펜(300)에서 방출되는 아날로그 적외선을 적외선 수신부(410)의 적외선 센서가 인식하여 디지털로 변환한 적외선 신호를 분석하여, 전자펜(300)의 현재 동작 상태를 세 가지 상태 값(MotionDown, MotionUp, MotionMove) 중 어느 하나의 프레임 모션 이벤트로 판단할 수 있다.In addition, in step S340, the signal processor 420 analyzes the infrared signal converted by the infrared sensor of the infrared receiver 410 to the digital infrared light emitted from the electronic pen 300, and analyzes the infrared signal. The current operation state of may be determined as any one frame motion event among three state values (MotionDown, MotionUp, MotionMove).
예를 들어, 전 프레임에서 적외선 신호 값이 인식되지 않은 상태에서 현재 프레임에서 인식된 적외선 신호는 "down"이며, 전 프레임에서 인식한 적외선 신호 값이 "down"이거나 "move"이면 현재 프레임에서 인식된 적외선 신호는 "move"이고,전 프레임에서 인식한 적외선 신호 값이 "down" 또는 "move"이고 현재 프레임에서 적외선 신호 값이 인식되지 않았으면 "up"으로판단될 수 있다.For example, if the infrared signal value is not recognized in the previous frame and the infrared signal recognized in the current frame is "down", if the infrared signal value recognized in the previous frame is "down" or "move", it is recognized in the current frame. If the infrared signal is "move" and the infrared signal value recognized in the previous frame is "down" or "move" and the infrared signal value is not recognized in the current frame, it may be determined as "up".
그 후, 신호 처리부(420)는 상기 S340 단계에서 분석된 적외선 신호를 필터링하여 적외선 수신부(410)를 통해 인식된 적외선 좌표들을 기준 신호 범위 내의 좌표와 기준 신호 범위 밖의 좌표로 분리한다(S350 단계).Thereafter, the signal processor 420 filters the infrared signal analyzed in operation S340 to separate the infrared coordinates recognized by the infrared receiver 410 into coordinates within a reference signal range and coordinates outside the reference signal range (S350). .
상기 S350 단계에서, 신호 처리부(420)는 복수의 분석된 적외선 좌표들 중에서 전자펜(300)으로부터 방출되는 적외선에 의한 신호를 선별하기 위해, DSLR 플레쉬나 태양빛 등에 의한 적외선이나 노이즈 등을 필터링하며, 그와 함께 분석된적외선 신호가 관심 영역(ROI) 내에 있는지 판단하여 관심 영역(ROI) 밖의 적외선 신호를 제외시킬 수 있다.In step S350, the signal processing unit 420 filters out infrared rays or noise by DSLR flash, sunlight, etc. to select a signal by infrared rays emitted from the electronic pen 300 from among the analyzed infrared coordinates. In addition, the infrared signal analyzed together with the infrared signal may be excluded from the ROI by determining whether the IR signal is within the ROI.
그를 위해, 신호 처리부(420)는 각각의 적외선 좌표에 대응되는 적외선 신호값이 전자펜(300)으로부터 방출되는 적외선에 따라 미리 설정된 특정 값 이상이거나 특정 값 이하이면 해당 적외선 좌표를 필터링하여 추후 정렬 대상에서 제외할 수 있다.To this end, the signal processor 420 filters the infrared coordinates if the infrared signal value corresponding to each infrared coordinate is equal to or greater than or equal to a preset value according to the infrared rays emitted from the electronic pen 300, and then sorts the infrared coordinates. Can be excluded.
그 후, 신호 처리부(420)는 전자펜(300)으로부터 방출되는 적외선에 대응되는 적외선 신호를 기준 신호로 선별하기 위해 상기 S350 단계에서 필터링된 적외선 좌표들을 정렬한다(S360 단계).Thereafter, the signal processor 420 sorts the infrared coordinates filtered in step S350 to select an infrared signal corresponding to the infrared light emitted from the electronic pen 300 as a reference signal (step S360).
예를 들어, 상기 S360 단계에서, 신호 처리부(420)는 적외선 신호의 고유 ID를 이용해 이전 프레임에서 인식된 적외선 신호를 추적하여, 이전 프레임들에서 인식된 신호 값이 "up"에서"down"으로 변화된 경우, 현재 프레임에서 획득한 적외선 신호의 속성들인 영역(area), 평균 밝기값(avgbright), 최대 밝기값(maxbright)을 합산한 결과에 따라 적외선 좌표들을 정렬한 후 저장부(460)에 저장된 기준 값에 가장 가까운 적외선 신호를 기준 신호로 선택할 수 있다.For example, in step S360, the signal processor 420 tracks the infrared signal recognized in the previous frame by using the unique ID of the infrared signal, so that the signal value recognized in the previous frames is changed from "up" to "down". If changed, the infrared coordinates are sorted according to the sum of the area, average brightness, and maximumbright values of the infrared signals acquired in the current frame, and then stored in the storage unit 460. The infrared signal closest to the reference value can be selected as the reference signal.
한편, 이전 프레임에서 인식된 신호 값이 "move" 또는 "down"인 경우에는, 신호 처리부(420)가 이전 프레임에서 기준 신호로 선택된 적외선 신호의 ID와 동일한 ID를 가지는 적외선 신호를 기준 신호로 선택할 수 있다.On the other hand, when the signal value recognized in the previous frame is "move" or "down", the signal processor 420 selects the infrared signal having the same ID as the ID of the infrared signal selected as the reference signal in the previous frame as the reference signal. Can be.
근거리 통신 모듈(440)은 상기에서 선택된 기준 신호의 좌표 정보를 단말 장치(500)로 전송한다(S370 단계).The short range communication module 440 transmits the coordinate information of the reference signal selected above to the terminal device 500 (operation S370).
상기에서 도 18을 참조하여 설명한 단계들 중 일부는 생략될 수도 있으며, 도 18에 도시된 단계들의 수행 순서 또한 필요에 따라 변경될 수 있다.Some of the steps described above with reference to FIG. 18 may be omitted, and the order of performing the steps illustrated in FIG. 18 may also be changed as necessary.
도 19는 도 16에 도시된 단말 장치의 구성에 대한 일실시예를 블록도로 도시한 것으로, 도시된 단말 장치(500)는 근거리 통신 모듈(510), 좌표 변환부(520), 표시부(530), 파라미터 설정부(540), 제어부(550), 저장부(560) 및 화각 설정부(570)를 포함하여 구성될 수 있다. 도 19에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖도록 단말 장치(500)가 구현될 수도 있다.FIG. 19 is a block diagram illustrating an embodiment of the configuration of the terminal device illustrated in FIG. 16. The terminal device 500 illustrated includes a short range communication module 510, a coordinate converter 520, and a display unit 530. The controller may include a parameter setting unit 540, a control unit 550, a storage unit 560, and an angle of view setting unit 570. Since the components illustrated in FIG. 19 are not essential, the terminal device 500 may be implemented to have more components or fewer components.
도 19를 참조하면, 근거리 통신 모듈(510)은 블루투스 등의 근거리 통신 방식을 이용하여 적외선 신호 처리 장치(400) 또는 디스플레이 장치(600)와 통신하며,예를 들어 적외선 신호 처리 장치(400)로부터 기준 신호의 좌표 정보를 수신하거나 적외선 신호 처리 장치(400)로 명령 전문을 전송할 수 있다.Referring to FIG. 19, the short range communication module 510 communicates with the infrared signal processing apparatus 400 or the display apparatus 600 using a short range communication scheme such as Bluetooth, for example, from the infrared signal processing apparatus 400. The coordinate information of the reference signal may be received or the command message may be transmitted to the infrared signal processing apparatus 400.
좌표 변환부(520)는 적외선 신호 처리 장치(400)로부터 수신된 적외선 좌표를 단말 장치(500) 또는 디스플레이 장치(600)의 해상도에 맞추어 2차원 평면화된 좌표로 변환할 수 있다.The coordinate converter 520 may convert the infrared coordinates received from the infrared signal processing apparatus 400 into two-dimensional planarized coordinates in accordance with the resolution of the terminal apparatus 500 or the display apparatus 600.
표시부(530)는 상기 좌표 변환부(520)에서 변환된 적외선 좌표를 표현하여, 응용 계층으로서 그리기, 공유, 컨텐츠 제어 등의 응용프로그램 기능을 수행할 수있다.The display unit 530 may represent the infrared coordinates converted by the coordinate converter 520 to perform application program functions such as drawing, sharing, and content control as an application layer.
파라미터 설정부(540)는 주변 환경에 따라 적외선 신호 처리를 위해 필요한 최적의 파라미터를 설정하기 위한 기능을 수행한다.The parameter setting unit 540 performs a function for setting an optimal parameter required for infrared signal processing according to the surrounding environment.
본 발명의 일실시예에 따르면, 파라미터 설정부(540)는 사용자가 지정하는 값(예를 들어, 주변 밝기 값)에 따라 밝기 임계값(bright threshold)를 동적으로 설정하여 근거리 통신 모듈(510)을 통해 적외선 신호 처리 장치(400)로 전송할 수 있다.According to an embodiment of the present invention, the parameter setting unit 540 dynamically sets a bright threshold value according to a value designated by a user (for example, an ambient brightness value), thereby executing the short range communication module 510. Through the infrared signal processing apparatus 400 may be transmitted.
한편, 화각 설정부(570)는 적외선 신호 처리 장치(400), 보다 상세하게는 적외선 신호 처리 장치(400)에 구비된 적외선 센서 또는 적외선 카메라 모듈이 향하는 방향과 그의 인식 영역이 설정될 수 있도록 가이드하는 기능을 수행하며, 그로 인해 사용자가 적외선 신호 처리 장치(400)를 다양한 장소 및 위치에 이동시켜 설치하고자 하는 경우에도 디스플레이 장치(600)와의 거리와 팬틸트 위치 등이 올바르게 보정될 수 있도록 할 수 있다.On the other hand, the angle of view setting unit 570 is a guide so that the direction toward the infrared sensor or infrared camera module provided in the infrared signal processing device 400, more specifically, the infrared signal processing device 400 and its recognition area can be set. In this case, even when the user wants to install the infrared signal processing apparatus 400 by moving to various places and locations, the distance from the display apparatus 600 and the pan tilt position can be correctly corrected. have.
제어부(550)는 초기 설정 등을 포함하는 상기한 바와 같은 단말 장치(500)의 전체적인 동작을 제어하며, 저장부(560)는 상기에서 기술되어 있는 여러 정보 또는 데이터 등을 저장하는 기능을 담당한다.The controller 550 controls the overall operation of the terminal device 500 as described above including an initial setting and the like, and the storage unit 560 is responsible for storing various information or data described above. .
도 20은 본 발명에 따른 단말 장치의 동작 방법에 대한 일실시예를 흐름도로 도시한 것으로, 도시된 동작 방법을 도 19에 도시된 본 발명의 일실시예에 따른 단말 장치(500)의 구성을 나타내는 블록도와 결부시켜 설명하기로 한다.20 is a flowchart illustrating an embodiment of a method of operating a terminal device according to the present invention. The operation method shown in FIG. 19 is a configuration of the terminal device 500 according to an embodiment of the present invention shown in FIG. It will be described in conjunction with the block diagram shown.
도 20을 참조하면, 단말 장치(500)의 제어부(550)는 먼저 전원을 켜는 셋업 과정 및 적외선 신호 처리 장치(400)와의 근거리 통신 채널을 구성하는 초기 설정을 수행한다(S500 단계).Referring to FIG. 20, the controller 550 of the terminal device 500 first performs a setup process of turning on power and an initial setting of configuring a short range communication channel with the infrared signal processing apparatus 400 (S500).
화각 설정부(570)는 적외선 신호 처리 장치(400)가 바라보고 있는 방향과 인식 영역을 설정할 수 있도록 화각 설정을 가이드한다(S510 단계).The angle of view setting unit 570 guides the angle of view setting so as to set the direction and the recognition area that the infrared signal processing apparatus 400 faces (S510).
예를 들어, 화각 설정 가이드 기능이 실행된 후, 전자펜(300)이 디스플레이 장치(600)의 스크린 상에 접촉되어 적외선을 방출하면, 화각 설정부(570)는 근거리 통신 모듈(510)을 통해 적외선 신호 처리 장치(400)로부터 수신되는 적외선 좌표의 속성 정보에 따라 적외선 신호 처리 장치(400)의 위치 및 방향을 판단하여 적외선 신호 처리 장치(400)를 이동시켜야 할 거리와 팬틸트를 표시할 수 있다.For example, after the angle of view setting guide function is executed, when the electronic pen 300 contacts the screen of the display device 600 to emit infrared rays, the angle of view setting unit 570 may operate through the short range communication module 510. The distance and pan tilt to move the infrared signal processing apparatus 400 may be displayed by determining the position and direction of the infrared signal processing apparatus 400 according to the property information of the infrared coordinates received from the infrared signal processing apparatus 400. have.
좀 더 구체적으로, 화각 설정부(570)는 적외선 신호 처리 장치(400)와 디스플레이 장치(600) 사이의 거리가 기준치보다 가까운 경우 큰 원이 표시부(530)를 통해 표시되도록 하여 적외선 신호 처리 장치(400)를 디스플레이 장치(600)로 가깝게 이동시키도록 유도하고, 적외선 신호 처리 장치(400)와 디스플레이 장치(600) 사이의 거리가 기준치보다 먼 경우 작은 원이 표시부(530)를 통해 표시되도록 하여 적외선 신호 처리 장치(400)를 디스플레이 장치(600)로부터 멀게 이동시키도록 유도할 수 있다.More specifically, the angle of view setting unit 570 may display a large circle through the display unit 530 when the distance between the infrared signal processing device 400 and the display device 600 is closer than a reference value. 400 to move closer to the display device 600, and if the distance between the infrared signal processing device 400 and the display device 600 is farther than the reference value, a small circle is displayed through the display unit 530 to infrared The signal processing apparatus 400 may be moved to move away from the display apparatus 600.
또한, 화각 설정부(570)는, 적외선 신호 처리 장치(400)가 향하는 방향이 디스플레이 장치(600)보다 우측 상단을 향하고 있다면 좌측 하단 화살표가 표시부(530)를 통해 표시되도록 하여 적외선 신호 처리 장치(200)의 방향을 좌측 하단 방향으로 조정하도록 유도하는 팬틸트 조정가이드를 함께 실시할 수 있다.In addition, the angle of view setting unit 570 may display the lower left arrow through the display unit 530 when the direction toward which the infrared signal processing apparatus 400 is directed is the upper right side of the display apparatus 600. The pan tilt adjustment guide to guide the adjustment of the direction of the lower left direction 200 may be performed together.
한편, 제어부(550)는 적외선 좌표가 노이즈인지 여부를 판단하기 위한 기준으로서 이용하기 위해 적외선 신호 처리 장치(400)를 통해 인식된 이동 환경의 적외선 신호를 저장부(560)에 저장시킨다(S520 단계).On the other hand, the control unit 550 stores the infrared signal of the moving environment recognized by the infrared signal processing apparatus 400 in the storage unit 560 to use as a reference for determining whether the infrared coordinates are noise (step S520). ).
그 후, 파라미터 설정부(540)는 적외선 신호 처리 장치(400)의 이동 환경 인식 엔진이 운용되는데 필요한 최적의 파라미터를 사용자 지정 값에 따라 설정한다(S530 단계).Thereafter, the parameter setting unit 540 sets an optimal parameter required for operating the moving environment recognition engine of the infrared signal processing apparatus 400 according to a user-specified value (step S530).
예를 들어, 파라미터 설정부(540)는 적외선 신호 처리 장치(400)에 구비된 적외선 카메라가 인식하는 적외선 신호의 밝기 임계값을 0 내지 255 범위 내에서 실내가 어두우면 a, 보통이면 b, 밝으면 c로 설정할 수 있다(a<b<c).For example, the parameter setting unit 540 may set the brightness threshold value of the infrared signal recognized by the infrared camera included in the infrared signal processing apparatus 400 within a range of 0 to 255, when the room is dark, b normally, and bright. Can be set to c (a <b <c).
또한, 파라미터 설정부(540)는, 적외선 신호 처리 장치(400)에 구비된 적외선 카메라의 밝기 임계값 이외에, 적외선 신호 값을 인식할 때의 해당 신호 값의 속성 정보를 설정하는 포맷(reporting format)을 간소화된 속성부터 대량의 속성까지 2 이상의 포맷들 중 하나로 설정할 수 있도록 지원할 수 있으며, 적외선 카메라가 최대로 인식할 수 있는 적외선 신호의 개수를 설정할 수 있도록 지원할 수 있다.In addition, the parameter setting unit 540 sets, in addition to the brightness threshold of the infrared camera included in the infrared signal processing apparatus 400, attribute information of a corresponding signal value when recognizing an infrared signal value. Can be set to one of two or more formats, ranging from simplified to large properties, and can set the number of infrared signals that an infrared camera can recognize.
그 후, 제어부(550)는 칼리브레이션을 수행하여 관심 영역(ROI)을 지정한다(S540 단계).Thereafter, the controller 550 performs a calibration to designate the ROI (operation S540).
상기, 관심 영역(ROI)은 적외선 신호 처리 장치(400)가 인식 가능한 전체 영역(예를 들어, 4095 x 4095) 내에서 실제 적외선 신호 처리 장치(400)가 인식하고자 하는 영역을 의미하는 것으로, 상기 인식 가능 영역내의 이동 환경 좌표로 지정한 사각형 (LeftTop, RightTop, LeftBottom, RightBottom) 범위 내에서 발생하는 적외선 좌표 만을 적외선 신호 처리 장치(400)가 인식하도록 지정한 사각 범위로써 전용 전자펜(300)을 이용해 상하좌우를 지정하여 관리될 수 있다.The ROI refers to an area that the infrared signal processing apparatus 400 intends to recognize in the entire area (eg, 4095 x 4095) that the infrared signal processing apparatus 400 can recognize. Infrared coordinates generated within the range of the rectangle (LeftTop, RightTop, LeftBottom, RightBottom) designated as the moving environment coordinates within the recognizable area are designated by the infrared signal processing apparatus 400 as a rectangular range. It can be managed by specifying left and right.
제어부(550)는 미들웨어를 구동시켜 디와핑(De-Warping) 및 스무딩(Smoothing) 알고리즘 등을 수행한다(S550 단계).The controller 550 drives the middleware to perform a de-warping and smoothing algorithm (step S550).
상기 디와핑(De-Warping) 알고리즘은 칼리브레이션을 통해 획득한 왜곡된 2차원 사각형 데이터를 단말 장치(500)의 해상도에 맞게 평면화 된 2차원 사각형 데이터로 변환시켜주는 매트릭스 알고리즘이며, 상기 스무딩(Smoothing) 알고리즘은 인식된 적외선 신호의 떨림 현상을 보정하기 위해 이전 좌표들과 현재 좌표의 평균값을 이용하는 알고리즘이다.The de-warping algorithm is a matrix algorithm that converts the distorted two-dimensional square data obtained through calibration into two-dimensional square data flattened according to the resolution of the terminal device 500, and the smoothing. ) Algorithm is to use the average value of the previous coordinates and the current coordinates to correct the shaking of the recognized infrared signal.
상기에서 도 20을 참조하여 설명한 단계들 중 일부는 생략될 수도 있으며, 도 20에 도시된 단계들의 수행 순서 또한 필요에 따라 변경될 수 있다.Some of the steps described above with reference to FIG. 20 may be omitted, and the order of performing the steps illustrated in FIG. 20 may also be changed as necessary.
한편, 상기 도 20에 도시된 단계들을 수행하기 위한 전자 칠판 운용 애플리케이션(application)이 단말 장치(500)에 설치될 수 있다.Meanwhile, an electronic blackboard operating application for performing the steps illustrated in FIG. 20 may be installed in the terminal device 500.
도 21은 본 발명의 일실시예에 따른 적외선 신호 처리를 위한 파라미터 자동 설정 방법을 흐름도로 도시한 것으로, 적외선 신호 처리 장치(400)가 도 18에 도시된 파라미터 설정 단계(S320 단계)를 수행하는 방법에 대한 일예를 나타낸 것이다.FIG. 21 is a flowchart illustrating a method for automatically setting parameters for infrared signal processing according to an embodiment of the present invention, wherein the infrared signal processing apparatus 400 performs the parameter setting step (step S320) shown in FIG. 18. An example of the method is shown.
도 21을 참조하면, 적외선 신호 처리 장치(400)는 적외선 센서로부터 출력되는 적외선 신호를 분석하여(S600 단계), 분석 결과에 따라 얻어진 적외선 신호의 속성 들 중 크기 정보를 검출한다(S610 단계).Referring to FIG. 21, the infrared signal processing apparatus 400 analyzes an infrared signal output from an infrared sensor (step S600) and detects size information among attributes of the infrared signal obtained according to the analysis result (step S610).
적외선 센서(또는 하나 이상의 적외선 센서를 포함하는 적외선 카메라)는 미리 설정되어 있는 적외선의 밝기 임계값 이상의 적외선을 인식하여 그에 상응하는 적외선 신호를 출력할 수 있다.An infrared sensor (or an infrared camera including one or more infrared sensors) may recognize infrared rays having a predetermined brightness threshold of infrared rays and output an infrared signal corresponding thereto.
예를 들어, 적외선 신호 처리 장치(400)에 구비된 적외선 센서는 전자펜(300)으로부터 방출되는 적외선 중 적외선 밝기 임계값 이상인 적외선을 인식하여 그에 상응하는 적외선 신호를 출력하며, 상기 적외선 신호를 분석하여 영역(area), 평균 밝기 값(avgBright), 밝기 최대값(maxBright) 등을 포함하는 적외선 신호의 속성들이 검출될 수 있다.For example, the infrared sensor provided in the infrared signal processing apparatus 400 recognizes infrared rays that are equal to or greater than an infrared brightness threshold among the infrared rays emitted from the electronic pen 300, and outputs corresponding infrared signals, and analyzes the infrared signals. The attributes of the infrared signal including an area, an average brightness value avgBright, a maximum brightness maxBright, and the like may be detected.
상기 적외선 신호를 분석한 결과에 따라 검출되는 속성 정보들은 주변 밝기 등과 같은 주변 환경에 따라 변화될 수 있으며, 따라서 상기 속성 정보에 기초하여 주변 환경에 대한 정보에 얻어질 수 있다.The attribute information detected according to the result of analyzing the infrared signal may be changed according to the surrounding environment such as ambient brightness, and thus may be obtained from information about the surrounding environment based on the attribute information.
적외선 신호 처리 장치(400)는 상기 검출된 적외선 신호의 크기 정보를 기준치와 비교하고(S620 단계), 상기 비교 결과에 기초하여 적외선 센서의 적외선 밝기 임계값을 변화시킨다(S630 단계).The infrared signal processing apparatus 400 compares the detected size information of the infrared signal with a reference value (step S620), and changes the infrared brightness threshold of the infrared sensor based on the comparison result (step S630).
본 발명의 일실시예에 따르면, 상기 적외선 신호에 대한 크기 정보(예를 들어, 적외선 센서를 통해 검출된 적외선 영역의 반지름)는 주변 밝기에 따라 변화되며, 이를 이용하여 적외선 신호 처리 장치(400)는 주변 밝기에 적응적으로 적외선 센서의 적외선 밝기 임계값을 조정할 수 있다.According to one embodiment of the invention, the size information (for example, the radius of the infrared region detected by the infrared sensor) for the infrared signal is changed according to the ambient brightness, using the infrared signal processing apparatus 400 Can adjust the infrared brightness threshold of the infrared sensor adaptively to the ambient brightness.
예를 들어, 적외선 신호 처리 장치(400)의 신호처리부(420)는 적어도 하나의 적외선 센서를 포함하는 적외선수신부(410)로부터 적외선 신호를 입력받아 분석하여 전자펜(300)으로부터 방출되는 적외선이 형성하는 적외선 영역을 검출할 수 있다.For example, the signal processor 420 of the infrared signal processing apparatus 400 receives and analyzes an infrared signal from an infrared receiver 410 including at least one infrared sensor to form infrared rays emitted from the electronic pen 300. Infrared region can be detected.
상기 적외선 밝기 임계값은 전자펜(300)으로부터 방출되는 적외선의 속성(예를 들어, 세기 또는 밝기 등)에 따라 계산된 기본값으로 초기 설정되어 있으며, 그에 따라 적외선 센서는 전자펜(300)으로부터 방출되는 적외선 중 저장부(460)에 저장된 기본값 이상인 적외선을 인식하여 적외선 신호를 출력할 수 있다.The infrared brightness threshold is initially set to a default value calculated according to the property of the infrared light emitted from the electronic pen 300 (for example, intensity or brightness), and thus the infrared sensor emits from the electronic pen 300. Among the infrared rays, the infrared signal stored in the storage unit 460 or more may be recognized to output an infrared signal.
신호처리부(420)는 상기 적외선 센서로부터 출력되는 적외선 신호을 분석한 결과에 기초하여 전자펜(300)으로부터 방출되는 적외선이 형성하는 적외선 영역을 검출하고, 상기 검출된 적외선 영역의 반지름을 계산할 수 있다.The signal processor 420 may detect an infrared region formed by the infrared rays emitted from the electronic pen 300 based on a result of analyzing the infrared signal output from the infrared sensor, and calculate the radius of the detected infrared region.
이 경우, 상기 전자펜(300) 적외선 영역의 반지름은 주변 밝기에 따라 변화될 수 있으며, 주변 밝기가 어두울 수록 상기 신호처리부(420)에서 검출되는 적외선 영역의 반지름이 작아질 수 있다.In this case, the radius of the infrared region of the electronic pen 300 may vary according to the ambient brightness, and the darker the ambient brightness, the smaller the radius of the infrared region detected by the signal processor 420.
파라미터 설정부(430)는 상기 신호처리부(420)에서 검출되는 적외선 영역의 반지름과 상기 주변 밝기의 상관성에 기초하여, 적외선 센서가 인식하는 적외선의 밝기 임계값을 적응적으로 변화시킬 수 있다.The parameter setting unit 430 may adaptively change the brightness threshold of the infrared light recognized by the infrared sensor, based on a correlation between the radius of the infrared region detected by the signal processor 420 and the ambient brightness.
이하, 도 22를 참조하여 상기 신호처리부(420)에서 검출된 전자펜(300)에 의한 적외선 영역의 반지름을 이용하여 적외선 센서의 적외선 밝기 임계값을 설정하는 방법에 대한 일실시예를 설명하기로 한다.Hereinafter, an embodiment of a method of setting an infrared light intensity threshold of an infrared sensor by using a radius of an infrared ray area detected by the electronic pen 300 detected by the signal processor 420 will be described with reference to FIG. 22. do.
도 22를 참조하면, 적외선 신호 처리 장치(400)의 파라미터설정부(430)는 상기 신호처리부(420)에서 검출된 적외선 영역의 반지름이 미리 설정된 기준치와 일치하는지 여부를 확인한다(S700 단계).Referring to FIG. 22, the parameter setting unit 430 of the infrared signal processing apparatus 400 checks whether the radius of the infrared region detected by the signal processing unit 420 matches a preset reference value (S700).
예를 들어, 파라미터설정부(430)는 신호처리부(420)에서 검출된 적외선 영역의 반지름이 오차 범위 내에서 저장부(460)에 저장된 반지름의 기준치에 근접하는 경우, 두 값이 일치하는 것으로 판단할 수 있으며, 이 경우 기설정된 적외선 밝기 임계값은 변경되지 아니한다.For example, if the radius of the infrared region detected by the signal processor 420 approaches the reference value of the radius stored in the storage unit 460 within an error range, the parameter setting unit 430 determines that the two values match. In this case, the preset IR brightness threshold is not changed.
한편, 신호처리부(420)에서 검출된 적외선 영역의 반지름이 기준치와 일치하지 않는 경우, 상기 신호처리부(420)에서 검출된 적외선 영역의 반지름이 기준치보다 작은지 여부가 확인된다(S710 단계).On the other hand, if the radius of the infrared region detected by the signal processor 420 does not match the reference value, it is checked whether the radius of the infrared region detected by the signal processor 420 is smaller than the reference value (step S710).
상기 확인 결과, 상기 신호처리부(420)에서 검출된 적외선 영역의 반지름이 기준치보다 작은 경우, 파라미터설정부(430)는 적외선 밝기 임계값을 감소시킨다(S720 단계).As a result of the check, if the radius of the infrared region detected by the signal processor 420 is smaller than the reference value, the parameter setting unit 430 decreases the infrared brightness threshold (step S720).
도 23을 참조하면, 디스플레이 장치(600)의 스크린을 통해 표시되는 관심 영역(800) 상에 위치한 전자펜(300)으로부터 방출되는 적외선은 적외선 센서에 의해 인식되어, 상기 적외선 센서로부터 출력되는 적외선 신호를 분석하면 전자펜(300)에 의한 적외선 영역(810)이 원과 유사한 형태로 검출될 수 있다.Referring to FIG. 23, infrared rays emitted from the electronic pen 300 located on the ROI 800 displayed through the screen of the display apparatus 600 are recognized by an infrared sensor, and output an infrared signal output from the infrared sensor. In this case, the infrared region 810 by the electronic pen 300 may be detected in a form similar to a circle.
한편, 주변 밝기가 어두울수록 적외선 센서에 의해 인식되는 적외선 영역(810)의 반지름이 작아져, 도 23에 도시된 바와 같이 적외선 영역(810)의 반지름이 기준이 되는 적외선 영역(820)의 반지름보다 작아질 수 있다.On the other hand, the darker the ambient brightness is, the smaller the radius of the infrared region 810 recognized by the infrared sensor is, and as shown in FIG. 23, the radius of the infrared region 810 is larger than the radius of the infrared region 820 on which the reference is made. Can be small.
이 경우, 파라미터설정부(430)는 적외선 센서의 적외선 밝기 임계값을 감소시키고, 상기 적외선 밝기 임계값이 감소됨에 따라 적외선 센서에 의해 인식되는 적외선 영역(810)의 반지름이 커져 기준치에 근접하게 될 수 있다.In this case, the parameter setting unit 430 decreases the infrared brightness threshold of the infrared sensor, and as the infrared brightness threshold decreases, the radius of the infrared region 810 recognized by the infrared sensor increases to approach the reference value. Can be.
한편, 상기 확인 결과, 상기 신호처리부(420)에서 검출된 적외선 영역의 반지름이 기준치보다 큰 경우, 파라미터설정부(430)는 적외선 밝기 임계값을 증가시킨다(S730 단계).If the radius of the infrared region detected by the signal processor 420 is greater than the reference value, the parameter setting unit 430 increases the infrared brightness threshold (step S730).
도 24를 참조하면, 주변 밝기가 밝을수록 적외선 센서에 의해 인식되는 적외선 영역(810)의 반지름이 커져, 적외선 영역(810)의 반지름이 기준이 되는 적외선 영역(820)의 반지름보다 커질 수 있다.Referring to FIG. 24, the brighter the ambient brightness is, the larger the radius of the infrared region 810 recognized by the infrared sensor is, so that the radius of the infrared region 810 may be larger than the radius of the infrared region 820 on which it is a reference.
이 경우, 파라미터설정부(430)는 적외선 센서의 적외선 밝기 임계값을 증가시키고, 상기 적외선 밝기 임계값이 증가됨에 따라 적외선 센서에 의해 인식되는 적외선 영역(810)의 반지름이 작아져 기준치에 근접하게 될 수 있다.In this case, the parameter setting unit 430 increases the infrared brightness threshold of the infrared sensor, and as the infrared brightness threshold increases, the radius of the infrared region 810 recognized by the infrared sensor decreases to approach the reference value. Can be.
신호처리부(420)에서 검출된 적외선 영역의 반지름이 오차 범위 내에서 기준치와 일치할 때까지, 도 22를 참조하여 설명한 바와 같은 S700 단계 내지 S730 단계가 반복되어, 적외선 센서로부터 출력되는 적외선 신호의 크기가 주변 환경에 적응적으로 미리 설정된 범위 내로 유지될 수 있다.Until the radius of the infrared region detected by the signal processor 420 coincides with the reference value within the error range, steps S700 to S730 as described with reference to FIG. 22 are repeated, and thus the magnitude of the infrared signal output from the infrared sensor. Can be maintained within a preset range adaptively to the surrounding environment.
도 25는 도 16에 도시된 단말 장치의 구성에 대한 다른 일실시예를 블록도로 도시한 것으로, 도 25에 도시된 단말 장치(500)는 도 19에 도시된 단말 장치(500)와 비교하여 볼 때 사용자 입력부(580)를 더 구비하였을 뿐, 나머지 구성요소는 동일하다. 따라서, 도 19에서 설명한 구성요소와 동일한 구성요소에 대해서는 설명을 생략하기로 한다. 도 25에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖도록 단말 장치(500)가 구현될 수도 있다. FIG. 25 is a block diagram illustrating another exemplary embodiment of the configuration of the terminal device illustrated in FIG. 16. The terminal device 500 illustrated in FIG. 25 is viewed in comparison with the terminal device 500 illustrated in FIG. 19. Only when the user input unit 580 is further provided, the remaining components are the same. Therefore, the same components as those described in FIG. 19 will be omitted. Since the components illustrated in FIG. 25 are not essential, the terminal device 500 may be implemented to have more or fewer components.
도 25를 참조하면, 사용자 입력부(580)는 사용자가 단말 장치(500)의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(380)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다.Referring to FIG. 25, the user input unit 580 generates input data for the user to control the operation of the terminal device 500. The user input unit 380 may include a key pad dome switch, a touch pad (static pressure / capacitance), a jog wheel, a jog switch, and the like.
본 발명의 일실시예에 따르면, 사용자 입력부(580)는 상기한 바와 같은 파라미터 설정부(540) 또는 화각 설정부(570)의 동작을 위해 필요한 사용자 선택을 수신하는 역할을 수행할 수 있다.According to an embodiment of the present invention, the user input unit 580 may serve to receive a user selection necessary for the operation of the parameter setting unit 540 or the angle of view setting unit 570 as described above.
한편, 상술한 도 25의 단말 장치의 동작 방법은 상술한 도 20의 흐름도에 따라 진행될 것이다. Meanwhile, the operation method of the terminal device of FIG. 25 described above will proceed according to the flowchart of FIG. 20 described above.
도 26은 본 발명의 다른 일실시예에 따른 적외선 신호 처리를 위한 파라미터 설정 방법을 흐름도로 도시한 것으로, 단말 장치(500)가 도 20에 도시된 파라미터 설정 단계(S530 단계)를 수행하는 방법에 대한 일예를 나타낸 것이다.FIG. 26 is a flowchart illustrating a parameter setting method for infrared signal processing according to another exemplary embodiment of the present invention. In the method in which the terminal device 500 performs the parameter setting step shown in FIG. 20 (step S530). It shows an example.
도 26을 참조하면, 단말 장치(500)의 사용자 입력부(580)는 주변 밝기를 나타내는 복수의 밝기 항목들 중 하나를 사용자로부터 선택받고(S900 단계), 파라미터 설정부(540)는 상기 사용자 입력부(580)를 통해 사용자가 선택한 밝기 항목에 대응되는 적외선 밝기 임계값을 설정한다(S910 단계).Referring to FIG. 26, the user input unit 580 of the terminal device 500 selects one of a plurality of brightness items representing ambient brightness from the user (operation S900), and the parameter setting unit 540 is the user input unit ( In operation S910, an infrared brightness threshold corresponding to the brightness item selected by the user is set.
여기서, 적외선 센서(또는 하나 이상의 적외선 센서를 포함하는 적외선 카메라)는 미리 설정되어 있는 적외선의 밝기 임계값 이상의 적외선을 인식하여 그에 상응하는 적외선 신호를 출력할 수 있다.Here, the infrared sensor (or an infrared camera including one or more infrared sensors) may recognize an infrared ray having a predetermined brightness threshold of infrared rays and output an infrared signal corresponding thereto.
예를 들어, 적외선 신호 처리 장치(400)에 구비된 적외선 센서는 전자펜(300)으로부터 방출되는 적외선 중 적외선 밝기 임계값 이상인 적외선을 인식하여 그에 상응하는 적외선 신호를 출력하며, 상기 적외선 밝기 임계값은 사용자가 주변의 밝기를 확인한 후 지정한 밝기 항목에 따라 동적으로 설정될 수 있다.For example, the infrared sensor provided in the infrared signal processing apparatus 400 recognizes infrared rays that are equal to or greater than an infrared brightness threshold value among the infrared rays emitted from the electronic pen 300, and outputs an infrared signal corresponding to the infrared light threshold value. After the user checks the brightness of the surroundings, the user may dynamically set the brightness according to the designated brightness item.
그를 위해, 사용자는 단말 장치(500)의 표시부(530)를 통해 표시된 서로 다른 주변 밝기를 나타내는 복수의 밝기 항목들 중에서 현재 주변 밝기에 가장 가까운 밝기 항목을 선택할 수 있다.To this end, the user may select a brightness item closest to the current ambient brightness among a plurality of brightness items representing different ambient brightness displayed on the display unit 530 of the terminal device 500.
이 경우, 메모리가 구비된 저장부(560)에는 사용자가 선택 가능한 복수의 밝기 항목들 각각에 대응되는 적외선 밝기 임계값들이 미리 저장되어 있으며, 사용자가 사용자 입력부(580)를 통해 밝기 항목을 선택하면 파라미터 설정부(540)가 메모리를 검색하여 상기 선택된 밝기 항목에 대응되는 적외선 밝기 임계값을 읽어들일 수 있다.In this case, the storage unit 560 provided with the memory may store in advance infrared brightness thresholds corresponding to each of the plurality of user-selectable brightness items, and when the user selects the brightness item through the user input unit 580. The parameter setting unit 540 may search the memory and read an infrared brightness threshold corresponding to the selected brightness item.
예를 들어, 복수의 밝기 항목들은 주변 밝기를 기준으로 "어두움", "보통" 및 "밝음"을 포함하며, 상기 선택된 밝기 항목에 따른 주변 밝기가 밝을수록, 상기 적외선 밝기 임계값이 높게 설정될 수 있다.For example, the plurality of brightness items include “dark”, “normal”, and “bright” based on the ambient brightness, and the brighter the ambient brightness according to the selected brightness item is, the higher the infrared brightness threshold is to be set. Can be.
좀 더 구체적으로, 적외선 센서(또는 적외선 카메라)가 인식하는 적외선 밝기 임계값은 '0' 부터 '255' 사이의 값으로 설정될 수 있으며, 사용자가 선택한 밝기 항목이 "어두움"인 경우 가장 작은값(T1), "보통"인 경우 중간값(T2), "밝음"인 경우 가장 높은값(T3)으로 설정될 수 있다.More specifically, the infrared brightness threshold recognized by the infrared sensor (or infrared camera) may be set to a value between '0' and '255', and the smallest value when the brightness item selected by the user is "dark". (T1), the middle value T2 in the case of "normal", and the highest value T3 in the case of "bright".
그 후, 단말 장치(500)의 통신부인 근거리 통신 모듈(510)은 상기 S910 단계에서 설정된 적외선 밝기 임계값을 적외선 센서가 구비된 적외선 신호 처리 장치(400)로 전송한다(S920 단계).Thereafter, the short-range communication module 510, which is a communication unit of the terminal device 500, transmits the infrared brightness threshold set in step S910 to the infrared signal processing apparatus 400 equipped with the infrared sensor (S920).
이하, 도 27을 참조하여 상기 단말 장치(500)에서 설정된 적외선 센서의 적외선 밝기 임계값 등을 이용하여 적외선 신호 처리 장치(400)가 파라미터를 설정하는 방법에 대한 일실시예를 설명하기로 한다.Hereinafter, an embodiment of a method for setting the parameter by the infrared signal processing apparatus 400 by using the infrared brightness threshold value of the infrared sensor set in the terminal device 500 will be described with reference to FIG. 27.
도 27을 참조하면, 적외선 신호 처리 장치(400)의 파라미터설정부(430)는 적외선 신호 처리를 위한 하나 이상의 파라미터들을 미리 설정된 초기값으로 설정한다(S1000 단계).Referring to FIG. 27, the parameter setting unit 430 of the infrared signal processing apparatus 400 sets one or more parameters for infrared signal processing to a preset initial value (step S1000).
상기 파라미터들은 적외선 센서가 인식하는 적외선 밝기 임계값(bright threshold)을 포함하며, 그 이외에 적외선 센서에 의해 인식되는 적외선 신호 속성값에 대한 포맷(report format) 또는 적외선 센서에 의해 인식되는 적외선 신호의 개수(tracking object number)등을 포함할 수 있다.The parameters include an infrared brightness threshold recognized by the infrared sensor, in addition to the format of the infrared signal attribute value recognized by the infrared sensor or the number of infrared signals recognized by the infrared sensor. (tracking object number) and the like.
예를 들어, 상기 적외선 신호 속성값 포맷(report format)은 간소화된 속성부터 대량의 속성까지 3개의 포맷들 중 하나로 선택 가능할 수 있으며, 초기값으로 간소화된 속성 포맷에 해당하는 값 "0x09"이 설정될 수 있다.For example, the infrared signal attribute value format may be selected from one of three formats ranging from a simplified attribute to a large number of attributes, and a value “0x09” corresponding to the simplified attribute format is initially set. Can be.
한편, 상기 적외선 신호 개수(tracking object number)는적외선 센서가 최대로 인식할 수 있는 적외선 신호의 개수를 나타내며, 초기값으로 "2"가 설정될 수 있다. On the other hand, the number of infrared signal (tracking object number) represents the number of infrared signals that can be recognized by the infrared sensor to the maximum, "2" may be set as an initial value.
또한, 상기 적외선 밝기 임계값(bright threshold)은 초기값으로 "200"이 설정될 수 있다.In addition, the infrared brightness threshold may be set to “200” as an initial value.
적외선 신호 처리 장치(400)의 근거리 통신 모듈(440)는 단말 장치(500)로부터 파라미터를 수신하고(S1010 단계), 파라미터 설정부(430)는 상기 단말 장치(500)로부터 수신된 파라미터가 기설정된(또는 상기 S1000 단계에서 초기값으로 설정된) 파라미터와 동일한지 비교하여 파라미터 변경 여부를 확인한다(S1020 단계).The short-range communication module 440 of the infrared signal processing device 400 receives a parameter from the terminal device 500 (step S1010), and the parameter setting unit 430 presets the parameter received from the terminal device 500. It is checked whether or not the parameter is changed by comparing with the same parameter (or set as the initial value in step S1000) (step S1020).
예를 들어, 사용자는 도 28에 도시된 단말 장치(500)의 화면(900) 상에서 "기본값 설정", "사용자 기반 동적 설정" 및 "주변환경 기반 자동 설정" 중 어느 하나를 적외선 센서 관련 파라미터를 설정하기 위한 방법으로 선택할 수 있다.For example, the user may set one of the "default setting", "user-based dynamic setting", and "perimeter-based auto setting" on the screen 900 of the terminal device 500 shown in FIG. Can be selected as a method to set.
사용자가 "기본값 설정" 버튼(910)을 선택하는 경우, 상기 S1000 단계에서 초기값으로 설정된 파라미터들이 변경되지 아니할 수 있다.When the user selects the "default setting" button 910, the parameters set as initial values in step S1000 may not be changed.
한편, 사용자가 "사용자 기반 동적 설정" 버튼(920)을 선택하는 경우, 도 29에 도시된 바와 같이 사용자는 현재 주변 밝기를 기준으로 "어두움", "보통" 및 "밝음" 중 어느 하나의 밝기 항목(940, 950, 960)을 지정할 수 있다.On the other hand, when the user selects the "user-based dynamic setting" button 920, as shown in Figure 29, the user is the brightness of any one of "dark", "normal" and "bright" based on the current ambient brightness Items 940, 950, and 960 can be specified.
사용자가 화면(900) 상에서 "밝음" 버튼(960)을 선택하는 경우, 도 26을 참조하여 설명한 바와 같은 파라미터 설정 방법에 따라 적외선 밝기 임계값이 미리 설정된 가장 높은 높은값(T3, 예를 들어 "255")으로 설정되며, 상기 설정된 적외선 밝기 임계값(T3)은 블루투스 등의 근거리 무선 통신 방식을 이용해 적외선 신호 처리 장치(500)로 전송될 수 있다.When the user selects the "bright" button 960 on the screen 900, the highest brightness T3 (eg, "3") is set in advance according to the parameter setting method described with reference to FIG. 26. 255 ", and the set infrared brightness threshold T3 may be transmitted to the infrared signal processing apparatus 500 using a short range wireless communication method such as Bluetooth.
이 경우, 적외선 신호 처리 장치(400)는 적외선 센서의 적외선 밝기 임계값이 초기값인 "200"에서 "255"로 증가되었음을 확인할 수 있다.In this case, the infrared signal processing apparatus 400 may confirm that the infrared brightness threshold of the infrared sensor is increased from "200" which is an initial value to "255".
그 후, 파라미터가 변경된 경우, 적외선 신호 처리 장치(400)의 파라미터 설정부(430)는 상기 단말 장치(500)로부터 전송된 값으로 파라미터를 재설정한다(S1030 단계).Thereafter, when the parameter is changed, the parameter setting unit 430 of the infrared signal processing apparatus 400 resets the parameter to the value transmitted from the terminal device 500 (step S1030).
한편, 도 28에 도시된 단말 장치(500)의 화면(900) 상에서 "주변환경 기반 자동 설정" 버튼(930)이 선택되는 경우, 적외선 신호 처리 장치(400)가 주변 환경을 자동으로 인식하여 그에 적합한 최적의 파라미터값들을 설정할 수 있다.On the other hand, when the "main conversion mirror based automatic setting" button 930 is selected on the screen 900 of the terminal device 500 shown in Figure 28, the infrared signal processing apparatus 400 automatically recognizes the surrounding environment and Appropriate optimal parameter values can be set.
한편, 상기에서는 "사용자 기반 동적 설정" 방식과, "주변환경 기반 자동 설정" 방식이 각각 수행되는 것을 예로 들어 본 발명의 실시예를 설명하였으나, 본 발명은 이에 한정되지 아니하며, 사용자가 주변 밝기를 지정한 경우라도 "주변환경 기반 자동 설정" 방식이 주기적으로 수행되어 본 발명의 실시예에 따른 전자 칠판 시스템이 주변 환경 변화 시마다 운용에 필요한 최적의 파라미터들을 설정할 수도 있다.On the other hand, the above has been described an embodiment of the present invention by taking the "user-based dynamic setting" method and the "main conversion mirror-based automatic setting" method as an example, the present invention is not limited to this, the user is to change the ambient brightness Even if it is specified, the " main conversion mirror-based automatic setting " method is periodically performed, so that the copyboard system according to the embodiment of the present invention can set the optimal parameters required for operation whenever the surrounding environment changes.
도 30은 본 발명의 일실시예에 따른 적외선 신호 처리를 위한 필터링 방법을 흐름도로 도시한 것으로, 적외선 신호 처리 장치(200)가 도 18에 도시된 적외선 신호 분석, 필터링 및 정렬 단계들(S340 내지 S360단계)을 수행하는 방법에 대한 일예를 나타낸 것이다.30 is a flowchart illustrating a filtering method for processing an infrared signal according to an embodiment of the present invention. In the infrared signal processing apparatus 200, the infrared signal analyzing, filtering, and sorting steps S340 to FIG. 18 are performed. An example of how to perform step S360) is shown.
도 30을 참조하면, 적외선 신호 처리 장치(400)의 신호 처리부(420)는 적외선 센서에 의해 인식된 하나 이상의 적외선 신호의 속성을 분석한다(S1100 단계).Referring to FIG. 30, the signal processor 420 of the infrared signal processing apparatus 400 analyzes attributes of one or more infrared signals recognized by the infrared sensor (step S1100).
적외선 센서(또는 하나 이상의 적외선 센서를 포함하는 적외선 카메라)는 미리 설정되어 있는 적외선의 밝기 임계값 이상의 적외선을 인식하여 그에 상응하는 적외선 신호를 출력할 수 있다.An infrared sensor (or an infrared camera including one or more infrared sensors) may recognize infrared rays having a predetermined brightness threshold of infrared rays and output an infrared signal corresponding thereto.
예를 들어, 적외선 신호 처리 장치(400)에 구비된 적외선 센서는 전자펜(300)으로부터 방출되는 적외선 중 적외선 밝기 임계값 이상인 적외선을 인식하여 그에 상응하는 적외선 신호를 출력하며, 상기 적외선 신호를 분석하여 영역(area), 평균 밝기 값(avgBright), 밝기 최대값(maxBright) 등을 포함하는 적외선 신호의 속성들이 검출된다.For example, the infrared sensor provided in the infrared signal processing apparatus 400 recognizes infrared rays that are equal to or greater than an infrared brightness threshold among the infrared rays emitted from the electronic pen 300, and outputs corresponding infrared signals, and analyzes the infrared signals. The attributes of the infrared signal are detected including an area, an average brightness value avgBright, a maximum brightness maxBright, and the like.
상기한 바와 같이, 상기 적외선 신호의 영역(area)은 적외선 신호의 세기 값을 나타내며, 상기 평균 밝기 값(avgBright)은 적외선 밝기의 평균값을 나타내고, 상기 밝기 최대값(maxBright)은 적외선 밝기의 최대값을 나타낼 수 있다.As described above, the area of the infrared signal represents the intensity value of the infrared signal, the average brightness value avgBright represents the average value of the infrared brightness, and the brightness maximum value maxBright is the maximum value of the infrared brightness. Can be represented.
한편, 상기 적외선 센서는 서로 다른 좌표를 가지는 복수의 적외선 신호들을 인식하여 출력할 수 있으며, 상기 S1100 단계에서는 상기 복수의 적외선 신호들(또는 그들에 대응되는 복수의 적외선 좌표들) 각각에 대해 속성이 분석될 수 있다.Meanwhile, the infrared sensor may recognize and output a plurality of infrared signals having different coordinates, and in step S1100, an attribute may be set for each of the plurality of infrared signals (or a plurality of infrared coordinates corresponding thereto). Can be analyzed.
신호 처리부(420)는 상기 분석된 적외선 신호의 속성과 기준 신호의 속성을 비교하여 해당 적외선 신호가 기준 신호 속성 범위 내인지 여부를 확인하고(S1110 단계), 상기 확인 결과에 따라 기준 신호 속성 범위 밖의 속성을 가지는 적외선 신호를 정렬 대상에서 제외시킨다(S1120 단계).The signal processor 420 checks whether the corresponding infrared signal is within the reference signal property range by comparing the analyzed infrared signal property with the property of the reference signal (step S1110), and according to the result of the check, out of the reference signal property range. The infrared signal having the property is excluded from the alignment target (S1120).
그를 위해, 전자펜(300)으로부터 방출되는 적외선의 속성에 기초하여 상기 기준 신호의 속성이 정의되고, 상기 정의된 기준 신호의 속성값과 함께 상기 기준 신호의 속성값을 중심으로 해당 속성의 최소값과 최대값이 기준 신호 속성 범위로 저장부(460)에 미리 저장되어 있을 수 있다.For that purpose, an attribute of the reference signal is defined based on an attribute of infrared rays emitted from the electronic pen 300, and the minimum value of the attribute is centered on the attribute value of the reference signal together with the attribute value of the defined reference signal. The maximum value may be previously stored in the storage unit 460 as a reference signal attribute range.
신호 처리부(420)는 상기 S1100 단계에서 분석된 적외선 신호의 속성값이 저장부(460)에 저장된 최소값보다 작거나 최대값보다 큰 경우, 해당 적외선 신호가 기준 신호 범위를 벗어난 것으로 판단하여 정렬 대상에서 제외시킬 수 있다.When the attribute value of the infrared signal analyzed in step S1100 is smaller than the minimum value or larger than the maximum value stored in the storage unit 460, the signal processor 420 determines that the infrared signal is out of the reference signal range, and then determines the Can be excluded.
예를 들어, 적외선 센서에 의해 인식된 복수의 적외선 좌표들 중에서, 적외선 신호의 속성들인 영역(area), 평균 밝기 값(avgBright) 및 밝기 최대값(maxBright) 중 어느 하나라도 미리 설정된 기준 신호 속성 범위를 벗어난 적외선 좌표에 대해서는 이후 전자펜 좌표로 선택될 수 있는 정렬 대상에서 제외될 수 있다.For example, among the plurality of infrared coordinates recognized by the infrared sensor, any one of the area, the average brightness value avgBright and the maximum brightness maxBright, which are properties of the infrared signal, is preset The infrared coordinates deviating from may be excluded from the alignment object that may be selected as the electronic pen coordinates.
또한, 신호 처리부(420)는 적외선 센서에 의해 인식된 적외선 신호의 좌표 정보를 이용하여, 기설정된 관심 영역(ROI) 외부에 위치하는 적외선 신호를 상기 정렬 대상에서 제외시킬 수 있다.In addition, the signal processor 420 may exclude the infrared signal located outside the preset ROI from the alignment target by using the coordinate information of the infrared signal recognized by the infrared sensor.
한편, 신호 처리부(420)는 정렬 대상에 포함된 적외선 신호의 고유 식별 정보를 이용하여, 이전 프레임에서 인식된 적외선 신호 중 고유 식별 정보가 동일한 적외선 신호를 검출한다(S1130 단계).Meanwhile, the signal processor 420 detects an infrared signal having the same unique identification information among the infrared signals recognized in the previous frame by using the unique identification information of the infrared signals included in the alignment target (S1130).
예를 들어, 적외선 센서로부터 출력되는 적외선 신호들은 각각 고유의 식별 정보인 ID를 가질 수 있으며, 상기 ID에 의해 적외선 신호들이 서로 구별될 수 있다.For example, the infrared signals output from the infrared sensor may have IDs that are unique identification information, and the infrared signals may be distinguished from each other by the IDs.
신호 처리부(420)는 상기 적외선 신호의 ID를 이용하여 시간에 따라 순차적으로 획득되는 프레임들 사이에서 특정 적외선 신호를 추적할 수 있다.The signal processor 420 may track a specific infrared signal among frames sequentially obtained over time using the ID of the infrared signal.
그에 따라, 상기 S1130 단계에서는, 현재 프레임에서 인식된 적외선 신호와 동일한 ID를 가지는 적외선 신호가 이전 프레임에서도 존재하였는지 여부, 현재 프레임에서 인식된 적외선 신호에 대한 이전 프레임에서의 좌표 등이 확인될 수 있다.Accordingly, in step S1130, whether an infrared signal having the same ID as the infrared signal recognized in the current frame exists in the previous frame, coordinates in the previous frame with respect to the infrared signal recognized in the current frame, and the like may be checked. .
그 후, 신호 처리부(420)는 정렬 대상에 포함된 적외선 신호 중에서, 기설정된 기준 신호와 가장 근접한 속성을 가지는 적외선 신호 또는 이전 프레임에서 검출된 적외선 신호와 동일한 고유 식별 정보를 가지는 적외선 신호를 전자펜의 적외선 신호로 선택되며, 상기 선택된 적외선 신호의 좌표 정보는 근거리 통신 모듈(440)을 통해 단말 장치(500)로 전송된다(S1140 단계).Thereafter, the signal processor 420 may select an infrared signal having an attribute closest to the preset reference signal or an infrared signal having the same unique identification information as the infrared signal detected in the previous frame among the infrared signals included in the alignment target. Is selected as the infrared signal, the coordinate information of the selected infrared signal is transmitted to the terminal device 500 through the short-range communication module 440 (step S1140).
예를 들어, 상기 S1100 단계의 분석 과정 중, 또는 그 이전이나 이후에, 신호 처리부(420)는 이전 프레임과 현재 프레임에서 인식되는 적외선 신호를 이용하여 현재 프레임에 대한 모션 이벤트(motion event)를 결정하며, 상기 결정된 프레임 모션 이벤트에 기초하여 상기 S1140 단계에서 적외선 신호가 선택될 수 있다.For example, during, or before or after the analysis of step S1100, the signal processor 420 determines a motion event for the current frame using infrared signals recognized in the previous frame and the current frame. An infrared signal may be selected in step S1140 based on the determined frame motion event.
좀 더 구체적으로, 이전 프레임에서 적외선 신호가 인식되지 않은 경우 현재 프레임에서 인식된 적외선 신호에 따른 현재 프레임의 모션 이벤트는 제1 값을 가지며, 이전 프레임의 모션 이벤트가 상기 제1 값을 가지는 경우 현재 프레임에서 인식된 적외선 신호에 따른 현재 프레임의 모션 이벤트는 제2 값을 가질 수 있다.More specifically, when the infrared signal is not recognized in the previous frame, the motion event of the current frame according to the infrared signal recognized in the current frame has a first value, and when the motion event of the previous frame has the first value, The motion event of the current frame according to the infrared signal recognized in the frame may have a second value.
한편, 이전 프레임의 모션 이벤트가 상기 제2 값을 가지는 경우 현재 프레임에서 인식된 적외선 신호에 따른 현재 프레임의 모션 이벤트는 상기 제2 값을 가지며, 이전 프레임의 모션 이벤트가 상기 제1 값 또는 제2 값을 가지는 경우 현재 프레임에서 인식되지 않은 적외선 신호에 따른 현재 프레임의 모션 이벤트는 제3 값을 가질 수 있다.Meanwhile, when the motion event of the previous frame has the second value, the motion event of the current frame according to the infrared signal recognized in the current frame has the second value, and the motion event of the previous frame is the first value or the second value. If the value has a value, the motion event of the current frame according to the infrared signal not recognized in the current frame may have a third value.
신호 처리부(420)는, 현재 프레임의 모션 이벤트가 상기 제1 값을 가지는 경우, 정렬 대상에 포함된 적외선 신호 중 저장부(460)에 저장된 기준 신호 속성값에 가장 가까운 속성값을 가지는 적외선 신호를 선택할 수 있다.When the motion event of the current frame has the first value, the signal processor 420 may output an infrared signal having an attribute value closest to the reference signal attribute value stored in the storage unit 460 among the infrared signals included in the alignment target. You can choose.
한편, 현재 프레임의 모션 이벤트가 상기 제2 값을 가지는 경우, 신호 처리부(420)는 이전 프레임에서 검출된 적외선 신호와 동일한 고유 식별 정보를 가지는 적외선 신호를 선택할 수 있다.Meanwhile, when the motion event of the current frame has the second value, the signal processor 420 may select an infrared signal having the same unique identification information as the infrared signal detected in the previous frame.
도 31은 적외선 신호를 분석하여 프레임 모션 이벤트를 결정하는 방법에 대한 일실시예를 흐름도로 도시한 것으로, 상기 프레임 모션 이벤트는 'down', 'move' 및 'up'중 어느 하나로 결정될 수 있다.FIG. 31 is a flowchart illustrating an example of a method of determining a frame motion event by analyzing an infrared signal. The frame motion event may be determined as one of 'down', 'move', and 'up'.
도 31을 참조하면, 현재 프레임에서 적외선 신호가 인식되는지 여부가 판단된다(S1200 단계).Referring to FIG. 31, it is determined whether an infrared signal is recognized in a current frame (S1200).
예를 들어, 미리 설정된 기준 신호 속성 범위 내의 속성값을 가지는 정상적인 적외선 좌표가 관심 영역(ROI) 내에 하나 이상 존재하는 경우 적외선 신호가 인식된 것으로 판단되며, 상기 정상적인 적외선 좌표가 관심 영역(ROI) 내에 하나도 존재하지 않는 경우에는 적외선 신호가 인식되지 않은 것으로 판단될 수 있다.For example, when one or more normal infrared coordinates having attribute values within a preset reference signal attribute range exist in the ROI, it is determined that the infrared signal is recognized, and the normal infrared coordinates are within the ROI. If none exists, it may be determined that the infrared signal is not recognized.
도 32에 도시된 바와 같이, 적외선 센서(또는 하나 이상의 적외선 센서를 구비한 적외선 카메라)에 의해 인식 가능한 전체 인식 영역(1000)이 존재하고, 상기 전체 인식 영역(1000) 내에 디스플레이 화면 또는 프로젝터 스크린 등과 같은 디스플레이 장치(600)의 스크린 영역(1010)이 존재할 수 있다.As shown in FIG. 32, an entire recognition area 1000 recognizable by an infrared sensor (or an infrared camera having one or more infrared sensors) exists, and a display screen, a projector screen, or the like is present in the entire recognition area 1000. The screen area 1010 of the same display device 600 may exist.
또한, 전자펜(300)으로부터 방출되는 적외선의 좌표가 관심 영역(ROI, 1020) 내에 있는 경우에만 전자 칠판 시스템에 의해 판서 내용이 인식될 수 있으며, 상기 관심 영역(1020)은 디스플레이 장치(600)의 스크린 영역(1010)보다 작게 설정될 수 있다.In addition, the writing content may be recognized by the electronic blackboard system only when the coordinates of the infrared rays emitted from the electronic pen 300 are within the ROI 1020, and the ROI 1020 is the display apparatus 600. It may be set smaller than the screen area 1010.
그에 따라, 적외선 센서에 의해 인식된 복수의 적외선 좌표들(P1 내지 P5) 중에서, 관심 영역(1020) 밖의 적외선 좌표들(P1, P2)은 정상적이지 않은 좌표로서 제외되며, 관심 영역(1020) 내의 적외선 좌표들(P3, P4, P5)만이 정상적인 좌표로 판단될 수 있다.Accordingly, of the plurality of infrared coordinates P1 to P5 recognized by the infrared sensor, the infrared coordinates P1 and P2 outside the region of interest 1020 are excluded as non-normal coordinates, and within the region of interest 1020. Only infrared coordinates P3, P4, and P5 may be determined to be normal coordinates.
현재 프레임에서 적외선 신호가 인식되지 않은 경우, 이전 프레임의 모션 이벤트가 'down' 또는 'move'가 아니었다면(S1210 단계), 현재 프레임의 모션 이벤트는 초기값을 가진다(S1220 단계).When the infrared signal is not recognized in the current frame, if the motion event of the previous frame is not 'down' or 'move' (step S1210), the motion event of the current frame has an initial value (step S1220).
한편, 현재 프레임에서 적외선 신호가 인식되지 않은 경우, 이전 프레임의 모션 이벤트가 'down' 또는 'move' 이었다면(S1210 단계), 현재 프레임의 모션 이벤트는 'up'으로결정된다(S1230 단계).Meanwhile, when the infrared signal is not recognized in the current frame, if the motion event of the previous frame is 'down' or 'move' (step S1210), the motion event of the current frame is determined as 'up' (step S1230).
현재 프레임에서 적외선 신호가 인식된 경우, 이전 프레임의 모션 이벤트가 초기값 또는 'up'이었다면(S1240 단계), 현재 프레임의 모션 이벤트는 'down'으로 결정된다(S1250 단계).When the infrared signal is recognized in the current frame, if the motion event of the previous frame is the initial value or 'up' (step S1240), the motion event of the current frame is determined to be 'down' (step S1250).
또한, 현재 프레임에서 적외선 신호가 인식된 경우, 이전 프레임의 모션 이벤트가 'up'이 아니었다면, 즉 'down' 또는 'move' 였다면(S1240 단계), 현재 프레임의 모션 이벤트는 'move'로 결정된다(S1260 단계).In addition, when the infrared signal is recognized in the current frame, if the motion event of the previous frame was not 'up', that is, 'down' or 'move' (step S1240), the motion event of the current frame is determined as 'move'. (Step S1260).
예를 들어, 도 33에 도시된 이전 프레임의 모션 이벤트가 'up'이고, 도 34에 도시된 현재 프레임의 모션 이벤트가 'down'인 경우, 이전 프레임에서는 전자펜에 의한 적외선 좌표가 존재하지 않으므로, 신호 처리부(420)는 적외선 센서로 인식된 복수의 적외선 신호들 중 기준 신호의 속성값과 가장 근접한 속성값을 가지는 적외선 신호의 좌표(P3)를 검출하여, 해당 좌표 정보가 근거리 통신 모듈(440)을 통해 단말 장치(500)로 전송되도록 할 수 있다.For example, when the motion event of the previous frame shown in FIG. 33 is 'up' and the motion event of the current frame shown in FIG. 34 is 'down', infrared coordinates by the electronic pen do not exist in the previous frame. The signal processor 420 detects the coordinate P3 of the infrared signal having the attribute value closest to the attribute value of the reference signal among the plurality of infrared signals recognized by the infrared sensor, and the corresponding coordinate information is short-range communication module 440. ) To be transmitted to the terminal device 500.
한편, 도 35에 도시된 이전 프레임의 모션 이벤트가 'down'이고, 도 36에 도시된 현재 프레임의 모션 이벤트가 'move'인 경우, 이전/현재 프레임 간에 전자펜에 의한 적외선 좌표가 이동된 것이므로, 신호 처리부(420)는 적외선 센서로 인식된 복수의 적외선 신호들 중 이전 프레임의 적외선 좌표(P3)와 동일한 ID를 가지는 적외선 신호를 검출하여, 해당 좌표 정보가 근거리 통신 모듈(440)을 통해 단말 장치(500)로 전송되도록 할 수 있다.Meanwhile, when the motion event of the previous frame shown in FIG. 35 is 'down' and the motion event of the current frame shown in FIG. 36 is 'move', the infrared coordinates of the electronic pen are moved between the previous / current frames. The signal processor 420 detects an infrared signal having the same ID as the infrared coordinate P3 of the previous frame among the plurality of infrared signals recognized by the infrared sensor, and the corresponding coordinate information is transmitted through the short range communication module 440. May be sent to the device 500.
본 발명의 또 다른 실시예에 따르면, 적외선 기반 전자 칠판 시스템의 이동 설치시 적외선 센서로부터 출력되는 적외선 신호의 속성 및 좌표에 따라 화각을 설정할 수 있도록 함으로써, 적외선 기반 전자 칠판 시스템이 어느 위치에 설치되더라도 이동형 환경에 적응적으로 오류없이 동작하도록 할 수 있다.According to another embodiment of the present invention, by setting the angle of view according to the properties and coordinates of the infrared signal output from the infrared sensor during the mobile installation of the infrared-based copyboard system, even if the infrared-based copyboard system is installed at any position It can be operated without error adaptively to mobile environment.
도 37은 본 발명의 일실시예에 따른 화각 설정 방법을 흐름도로 도시한 것으로, 단말 장치(500)가 도 20의 화각 설정 단계(S510 단계)를 수행하는 방법에 대한 일예를 나타낸 것이다.FIG. 37 is a flowchart illustrating a view angle setting method according to an embodiment of the present invention, and illustrates an example of a method in which the terminal device 500 performs the view angle setting step (step S510) of FIG. 20.
도 37을 참조하면, 단말 장치(500)는 적외선 센서에 의해 인식된 적외선 신호의 속성 정보 및 좌표 정보를 획득한다(S1300 단계).Referring to FIG. 37, the terminal device 500 acquires attribute information and coordinate information of an infrared signal recognized by an infrared sensor (S1300).
단말 장치(500)에서 화각 설정을 위한 가이드가 실행되면, 사용자는 전자펜(300)을 디스플레이 장치(600)의 스크린 상의 일지점에 위치시켜 적외선이 방출되도록 하고, 적외선 센서(또는 하나 이상의 적외선 센서를 포함하는 적외선 카메라)는 상기 전자펜(300)으로부터 방출되는 적외선을 인식하여 그에 상응하는 적외선 신호를 출력할 수 있다.When the guide for setting the angle of view is executed in the terminal device 500, the user places the electronic pen 300 at a point on the screen of the display device 600 to emit infrared rays, and the infrared sensor (or one or more infrared sensors). An infrared camera including a) may recognize the infrared rays emitted from the electronic pen 300 and output an infrared signal corresponding thereto.
한편, 적외선 신호 처리 장치(400)는 상기 적외선 센서로부터 출력되는 적외선 신호를 분석하여 영역(area), 평균 밝기 값(avgBright), 밝기 최대값(maxBright) 등을 포함하는 적외선 신호의 속성들과 적외선 좌표를 검출하고, 상기 검출된 적외선 신호의 속성 정보와 좌표 정보를 단말 장치(500)로 전송할 수 있다.Meanwhile, the infrared signal processing apparatus 400 analyzes the infrared signal output from the infrared sensor and analyzes the properties of the infrared signal including the area, the average brightness value (avgBright), the maximum brightness value (maxBright), and the infrared rays. Coordinates may be detected, and attribute information and coordinate information of the detected infrared signal may be transmitted to the terminal device 500.
예를 들어, 적외선 신호의 속성들 중 상기 영역(area) 값은 해당 적외선 신호의 세기를 나타내어, 디스플레이 장치(600)의 스크린과 적외선 신호 처리 장치(400) 간의 거리에 따라 변동될 수 있다.For example, the area value among the attributes of the infrared signal may indicate the intensity of the infrared signal, and may vary according to the distance between the screen of the display apparatus 600 and the infrared signal processing apparatus 400.
좀 더 구체적으로, 디스플레이 장치(600)의 스크린과 적외선 신호 처리 장치(400) 간의 거리가 가까울 수록, 적외선 신호의 속성들 중 상기 영역(area) 값이 커질 수 있다.More specifically, the closer the distance between the screen of the display apparatus 600 and the infrared signal processing apparatus 400 is, the larger the area value among the attributes of the infrared signal may be.
단말 장치(500)의 화각 설정부(570)는 상기 S1300 단계에서 획득된 적외선 신호의 속성 정보에 상응하는 크기를 가지는 제1 이미지를 생성한다(S1310 단계).The angle of view setting unit 570 of the terminal device 500 generates a first image having a size corresponding to the attribute information of the infrared signal acquired in step S1300 (step S1310).
예를 들어, 상기 제1 이미지는 적외선 신호의 속성 정보에 기초하여 판단되는 디스플레이 장치(600)의 스크린과 적외선 신호 처리 장치(400) 간 거리가 가까울 수록 큰 반지름을 가지는 원으로 표시되도록 처리될 수 있다.For example, the first image may be processed to be displayed as a circle having a larger radius as the distance between the screen of the display apparatus 600 and the infrared signal processing apparatus 400 determined based on the attribute information of the infrared signal is closer. have.
화각 설정부(570)는 상기 S1300 단계에서 획득된 적외선 신호의 좌표 정보에 기초하여 해당 좌표 정보가 정상인지 여부를 확인한다(S1320 단계).The angle of view setting unit 570 determines whether the corresponding coordinate information is normal based on the coordinate information of the infrared signal obtained in step S1300 (step S1320).
여기서, 화각 가이드 실행을 위하여, 전자펜(300)이 스크린 상의 특정 위치(예를 들어, 중앙 지점)에 터치되도록 유도될 수 있다.Here, in order to execute the angle of view guide, the electronic pen 300 may be induced to touch a specific position (eg, a center point) on the screen.
이 경우, 상기 S1300 단계에서 획득된 적외선 신호의 좌표가 스크린 상의 특정 위치(예를 들어, 중앙 지점)의 좌표와 미리 설정된 오차 범위 내에서 일치하지 않는 경우, 좌표 정보가 정상이 아닌 것으로 판단될 수 있다.In this case, when the coordinates of the infrared signal obtained in step S1300 do not coincide with the coordinates of a specific position (for example, the center point) on the screen within a preset error range, it may be determined that the coordinate information is not normal. have.
반대로, 상기 S1300 단계에서 획득된 적외선 신호의 좌표가 스크린 상의 특정 위치(예를 들어, 중앙 지점)의 좌표와 미리 설정된 오차 범위 내에서 일치하는 경우에는, 좌표 정보가 정상인 것으로 판단될 수 있다.On the contrary, when the coordinates of the infrared signal obtained in step S1300 coincide with the coordinates of a specific position (for example, the center point) on the screen within a preset error range, the coordinate information may be determined to be normal.
상기 판단 결과 좌표 정보가 정상이 아닌 경우, 화각 설정부(570)는 적외선 신호 처리 장치(400)의 방향을 조정시키기 위한 제2 이미지를 생성한다(S1330 단계).When the coordinate information is not normal as a result of the determination, the angle of view setting unit 570 generates a second image for adjusting the direction of the infrared signal processing apparatus 400 (step S1330).
예를 들어, 상기 제2 이미지는 상기 S1300 단계에서 획득된 적외선 신호의 좌표와 특정 위치(예를 들어, 중앙 지점)의 좌표 간 차이를 보상하기 위한 방향을 나타내는 화살표로 표시되도록 처리될 수 있다.For example, the second image may be processed to be displayed as an arrow indicating a direction for compensating for a difference between the coordinates of the infrared signal acquired in step S1300 and the coordinates of a specific position (for example, a center point).
그 후, 표시부(530)는, 제어부(550)의 제어를 받아, 화각 설정부(570)에서 생성된 제1, 2 이미지들 중 적어도 하나를 표시한다(S1340 단계).Thereafter, the display unit 530 displays at least one of the first and second images generated by the angle of view setting unit 570 under the control of the controller 550 (step S1340).
이하, 도 38 내지 도 44를 참조하여, 단말 장치(500)에서 화각 가이드를 실행하는 방법에 대한 실시예들을 보다 상세히 설명하기로 한다.Hereinafter, embodiments of a method of executing an angle of view guide in the terminal device 500 will be described in detail with reference to FIGS. 38 to 44.
도 38을 참조하면, 사용자는 적외선 신호 처리 장치(400)를 디스플레이 장치(600)를 향하도록 설치한 후 전원을 켜고, 단말 장치(500)에 설치된 전자 칠판 운용 애플리케이션을 실행시켜 적외선 신호 처리 장치(400)와의 통신이 가능하도록 한 후 화각 가이드 메뉴를 선택할 수 있다. 여기서, 적외선 신호 처리 장치(400)를 디스플레이 장치(600)를 향하도록 설치하는 방법에 대해 부연설명하면 다음과 같다. 디스플레이 장치(600)는 스크린 또는 TV 등이 될 수 있는데, 스크린 또는 TV의 화면의 가로 길이의 대략 1.5배 거리에 적외선 신호 처리 장치(400)의 적외선 센서를 위치시키는 것이 좋다. 예를 들어, 스크린 또는 TV의 화면의 가로 길이의 대략 1.5배 거리에서 대각선 방향으로 적외선 신호 처리 장치(400)의 적외선 센서를 위치시키는 것이 좋다. 이는 적외선 신호 처리 장치(400)의 적외선 센서가 가려지면 인식이 되지 않기 때문이다. 즉, 사용자가 오른손잡이인 경우에는 적외선 신호 처리 장치(400)를 디스플레이 장치(600)의 왼쪽 대각선 방향에서 디스플레이 장치(600)를 향하도록 위치시킬 수 있다. 사용자가 왼손잡이인 경우에는 적외선 신호 처리 장치(400)를 디스플레이 장치(600)의 오른쪽 대각선 방향에서 디스플레이 장치(600)를 향하도록 위치시킬 수 있다. 물론, 스크린 또는 TV의 화면의 가로 길이의 대략 1.5배 거리에서 화면의 전방에 적외선 신호 처리 장치(400)의 적외선 센서를 위치시켜도 된다. 이 경우, 사용자는 스크린 또는 TV의 화면 중앙에 위치하도록 화면 앞에 서서 적외선 신호 처리 장치(400)의 적외선 센서가 사용자의 눈을 바라보도록 조정하면 된다.Referring to FIG. 38, after the user installs the infrared signal processing apparatus 400 to face the display apparatus 600, the user turns on the power and executes the copyboard operation application installed in the terminal apparatus 500 to execute the infrared signal processing apparatus ( After enabling communication with 400, the angle of view guide menu can be selected. Here, the method of installing the infrared signal processing device 400 toward the display device 600 will be described in detail. The display device 600 may be a screen or a TV, and the infrared sensor of the infrared signal processing device 400 may be positioned approximately 1.5 times the horizontal length of the screen or the screen of the TV. For example, it is preferable to position the infrared sensor of the infrared signal processing apparatus 400 in a diagonal direction at a distance of approximately 1.5 times the horizontal length of the screen or the screen of the TV. This is because it is not recognized when the infrared sensor of the infrared signal processing apparatus 400 is covered. That is, when the user is right-handed, the infrared signal processing apparatus 400 may be positioned to face the display apparatus 600 in a diagonal direction to the left of the display apparatus 600. When the user is left-handed, the infrared signal processing apparatus 400 may be positioned to face the display apparatus 600 in a diagonal direction to the right of the display apparatus 600. Of course, the infrared sensor of the infrared signal processing apparatus 400 may be positioned in front of the screen at a distance of approximately 1.5 times the width of the screen of the screen or the TV. In this case, the user may stand in front of the screen so as to be positioned at the center of the screen of the screen or the TV so that the infrared sensor of the infrared signal processing apparatus 400 looks at the user's eyes.
도 38에 도시된 화면(1200) 상에 표시된 안내에 따라 사용자가 "START" 버튼(1210)을 누른 후 전자펜(300)을 디스플레이 장치(600)의 스크린 상의 중앙 지점에 터치하면, 도 37을 참조하여 설명한 바와 같은 화각 설정 단계들이 단말 장치(500)에서 수행될 수 있다.According to the guidance displayed on the screen 1200 shown in FIG. 38, when the user presses the “START” button 1210 and touches the electronic pen 300 at a center point on the screen of the display device 600, FIG. 37 is shown. View angle setting steps as described with reference to may be performed in the terminal device 500.
도 39를 참조하면, 디스플레이 장치(600)의 스크린과 적외선 신호 처리 장치(400)에 구비된 적외선 카메라 사이의 거리가 가까운 경우, 화면(1200) 상에 현재 적외선 신호의 속성을 나타내는 제1 원(1220)이 기준이 되는 제2 원(1225) 보다 크게 표시될 수 있다.Referring to FIG. 39, when the distance between the screen of the display apparatus 600 and the infrared camera included in the infrared signal processing apparatus 400 is close to each other, a first circle indicating an attribute of the current infrared signal on the screen 1200 ( 1220 may be larger than the second circle 1225.
이 경우, 도 39에 도시된 화면(1200) 상에 표시된 안내에 따라 사용자가 적외선 신호 처리 장치(400)를 디스플레이 장치(600)의 스크린 반대 방향으로 이동시키면, 화면(1200) 상에 표시된 제1 원(1220)의 크기가 점진적으로 감소할 수 있다.In this case, when the user moves the infrared signal processing apparatus 400 in a direction opposite to the screen of the display apparatus 600 according to the guidance displayed on the screen 1200 illustrated in FIG. 39, the first display displayed on the screen 1200 is performed. The size of the circle 1220 may be gradually reduced.
제1 원(1220)이 제2 원(1225)과 일치할 때까지 사용자가 적외선 신호 처리 장치(400)를 디스플레이 장치(600)의 스크린으로부터 멀리 이동시키면, 거리 조정이 완료되었음을 알리는 알람이 음성 또는 화면(1200)을 통해 제공될 수 있다.When the user moves the infrared signal processing apparatus 400 away from the screen of the display apparatus 600 until the first circle 1220 coincides with the second circle 1225, an alarm indicating that the distance adjustment is completed is voice or It may be provided through the screen 1200.
도 40을 참조하면, 디스플레이 장치(600)의 스크린과 적외선 신호 처리 장치(400)에 구비된 적외선 카메라 사이의 거리가 먼 경우, 화면(1200) 상에 현재 적외선 신호의 속성을 나타내는 제1 원(1220)이 기준이 되는 제2 원(1225) 보다 작게 표시될 수 있다.Referring to FIG. 40, when the distance between the screen of the display apparatus 600 and the infrared camera provided in the infrared signal processing apparatus 400 is far, a first circle indicating the attribute of the current infrared signal on the screen 1200 ( 1220 may be smaller than the second circle 1225.
이 경우, 도 40에 도시된 화면(1200) 상에 표시된 안내에 따라 사용자가 적외선 신호 처리 장치(400)를 디스플레이 장치(600)의 스크린을 향하여 이동시키면, 화면(1200) 상에 표시된 제1 원(1220)의 크기가 점진적으로 증가할 수 있다.In this case, when the user moves the infrared signal processing apparatus 400 toward the screen of the display apparatus 600 according to the guidance displayed on the screen 1200 illustrated in FIG. 40, the first circle displayed on the screen 1200 is displayed. The size of 1220 may increase gradually.
제1 원(1220)이 제2 원(1225)과 일치할 때까지 사용자가 적외선 신호 처리 장치(400)를 디스플레이 장치(600)의 스크린에 인접하게 이동시키면, 거리 조정이 완료되었음을 알리는 알람이 음성 또는 화면(1200)을 통해 제공될 수 있다.When the user moves the infrared signal processing apparatus 400 adjacent to the screen of the display apparatus 600 until the first circle 1220 coincides with the second circle 1225, an alarm indicating that the distance adjustment is completed is a voice. Or it may be provided through the screen 1200.
도 41을 참조하면, 사용자는 전자펜(300)을 디스플레이 장치(600)의 스크린 상의 중앙 지점(C)에 터치하였으나, 적외선 신호 처리 장치(400)에 구비된 적외선 카메라(적외선 센서일 수도 있음)가 스크린의 우측 하단 방향을 향함에 의해, 전자펜(300)의 적외선 좌표(P)가 관심 영역(1020)의 좌측 상단에 위치하는 것으로 인식될 수 있다. 여기서, 사용자가 전자펜(300)을 사용하여 디스플레이 장치(600)의 스크린상의 중앙이 되는 지점을 터치하게 되면 스크린에는 도 41에서와 같이 중앙 지점(C)이 나타난다. 이때, 적외선 카메라가 스크린의 우측 하단 방향을 향하고 있으므로 적외선 좌표(P)는 적외선 카메라의 중앙부가 현재 바라보는 적외선 좌표를 표시한다.Referring to FIG. 41, the user touches the electronic pen 300 at the center point C on the screen of the display apparatus 600, but the infrared camera provided in the infrared signal processing apparatus 400 may be an infrared sensor. Toward the lower right of the screen, it can be recognized that the infrared coordinate P of the electronic pen 300 is located on the upper left of the region of interest 1020. Here, when the user touches a point that becomes the center on the screen of the display apparatus 600 using the electronic pen 300, the center point C appears on the screen as shown in FIG. 41. At this time, since the infrared camera faces the lower right direction of the screen, the infrared coordinate P displays the infrared coordinates currently viewed by the center of the infrared camera.
이 경우, 도 42에 도시된 바와 같이, 적외선 신호 처리 장치(400)에 구비된 적외선 카메라가 향하는 방향을 좌측 상단으로 팬틸트 조정하도록 유도하는 화살표(1230)가 단말 장치(500)의 화면(1200)에 표시될 수 있다.In this case, as illustrated in FIG. 42, an arrow 1230 which guides the tilt direction of the infrared camera provided in the infrared signal processing apparatus 400 toward the upper left is adjusted to the screen 1200 of the terminal device 500. ) May be displayed.
도 42에 도시된 화면(1200) 상에 표시된 안내에 따라 사용자가 적외선 신호 처리 장치(400)가 향하는 방향을 좌측 상단으로 팬틸트 조정하면, 화면(1200) 상에 표시된 화살표(1230)의 크기가 점진적으로 감소할 수 있다.According to the guidance displayed on the screen 1200 illustrated in FIG. 42, when the user pan tilts the direction toward which the infrared signal processing apparatus 400 is directed to the upper left, the size of the arrow 1230 displayed on the screen 1200 is increased. It may decrease gradually.
화면(1200) 상에 표시된 화살표(1230)가 사라질 때까지 사용자가 적외선 신호 처리 장치(400)의 방향을 팬틸트 조정하면, 방향 조정이 완료되었음을 알리는 알람이 음성 또는 화면(1200)을 통해 제공될 수 있다.When the user pan tilts the direction of the infrared signal processing apparatus 400 until the arrow 1230 displayed on the screen 1200 disappears, an alarm indicating that the direction adjustment is completed may be provided through the voice or the screen 1200. Can be.
상술한 팬틸트 조정에 대해 부연설명하면 다음과 같다. The above-described pan tilt adjustment will be described in detail.
도 43에서와 같이, 적외선 좌표(P)가 디스플레이 장치(600)의 화면내의 중앙 지점(C) 보다 위쪽 또는 아래쪽에 있으면 사용자가 적외선 신호 처리 장치(400)의 적외선 센서의 머리 부분을 상/하로 회전시켜 화면 중앙을 바라보게 조정한다. 이때, 적외선 좌표(P)는 화면의 중앙에 있는 중앙 지점(C)의 방향으로 이동하게 되며 화살표의 크기가 점진적으로 감소할 수 있다. As shown in FIG. 43, when the infrared coordinate P is above or below the center point C in the screen of the display apparatus 600, the user moves the head of the infrared sensor of the infrared signal processing apparatus 400 up and down. Rotate it to face the center of the screen. In this case, the infrared coordinate P may move in the direction of the center point C in the center of the screen, and the size of the arrow may gradually decrease.
한편, 도 44에서와 같이, 적외선 좌표(P)가 디스플레이 장치(600)의 화면내의 중앙 지점(C) 보다 왼쪽 또는 오른쪽에 있으면 사용자가 적외선 신호 처리 장치(400)를 좌/우로 회전시켜 화면 중앙을 바라보게 조정한다. 이때, 적외선 좌표(P)는 화면의 중앙에 있는 중앙 지점(C)의 방향으로 이동하게 되며 화살표의 크기가 점진적으로 감소할 수 있다.On the other hand, as shown in Figure 44, if the infrared coordinates (P) to the left or right of the center point C in the screen of the display device 600, the user rotates the infrared signal processing device 400 to the left / right to the center of the screen Adjust to look at In this case, the infrared coordinate P may move in the direction of the center point C in the center of the screen, and the size of the arrow may gradually decrease.
상기에서는 화각 설정을 유도하기 위한 제1, 2 이미지들이 단말 장치(500)의 표시부(530)를 통해 표시되는 것으로 설명하였으나, 본 발명은 이에 한정되지 아니하며, 디스플레이 장치(600)가 단말 장치로부터 상기 제1 이미지 또는 제2 이미지를 수신하여 스크린을 통해 표시할 수도 있다.In the above description, the first and second images for inducing the angle of view setting are displayed through the display unit 530 of the terminal device 500. However, the present invention is not limited thereto. The first image or the second image may be received and displayed on the screen.
이상에서와 같이 도면과 명세서에서 최적의 실시예가 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로, 본 기술 분야의 통상의 지식을 가진자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 청구범위의 기술적 사상에 의해 정해져야 할 것이다.As described above, the best embodiment has been disclosed in the drawings and the specification. Although specific terms have been used herein, they are used only for the purpose of describing the present invention and are not used to limit the scope of the present invention as defined in the meaning or claims. Therefore, those skilled in the art will understand that various modifications and equivalent other embodiments are possible from this. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.

Claims (20)

  1. 광원으로부터의 광을 영상으로 변환하는 패널;A panel for converting light from a light source into an image;
    패턴빔을 출력하는 패턴빔 제공부;A pattern beam providing unit configured to output a pattern beam;
    상기 패턴빔 및 상기 패널로부터의 영상을 스크린에게로 투사하고, 상기 스크린에서의 터치 인터랙션에 의한 신호를 수신하는 단일의 렌즈; A single lens for projecting the pattern beam and the image from the panel onto a screen and receiving a signal by touch interaction on the screen;
    상기 터치 인터랙션에 의한 신호에 근거하여 상기 스크린에서 현재 터치된 터치 객체의 위치 좌표를 인식하는 센서; 및A sensor for recognizing position coordinates of the touch object currently touched on the screen based on the signal generated by the touch interaction; And
    상기 광원으로부터의 광을 상기 패널에게로 보내고, 상기 패널로부터의 영상을 투과시켜 상기 렌즈에게로 보내고, 상기 패턴빔을 반사시켜 상기 렌즈에게로 보내고, 상기 렌즈에서 수신되는 상기 터치 인터랙션에 의한 신호를 상기 센서에게로 보내는 광분리 소자;를 포함하는 것을 특징으로 하는 터치 인터랙션이 가능한 프로젝터.Sends light from the light source to the panel, transmits the image from the panel to the lens, reflects the pattern beam to the lens, and receives a signal from the touch interaction received at the lens. And an optical separation element sent to the sensor.
  2. 청구항 1에 있어서,The method according to claim 1,
    상기 패널은 반사 패널로 구성되고,The panel consists of a reflective panel,
    상기 광원은 상기 광분리 소자의 제 1면에 대향하여 설치되고,The light source is provided opposite to the first surface of the optical separation element,
    상기 패널은 상기 광분리 소자의 제 2면에 대향하여 설치되고,The panel is provided to face the second surface of the optical separation element,
    상기 렌즈는 상기 광분리 소자의 제 3면에 대향하여 설치되고,The lens is provided to face the third surface of the optical separation element,
    상기 패턴빔 제공부 및 상기 센서는 상기 광분리 소자의 제 4면에 대향하여 설치되는 것을 특징으로 하는 터치 인터랙션이 가능한 프로젝터.And the pattern beam providing unit and the sensor are disposed to face the fourth surface of the optical separation element.
  3. 청구항 1에 있어서,The method according to claim 1,
    상기 센서로부터의 위치 좌표를 근거로 어느 터치 객체에 대하여 터치 이벤트가 발생하였는지를 판단하여 해당하는 터치 이벤트로 변환시키는 인터랙션 신호 처리부;를 추가로 포함하는 것을 특징으로 하는 터치 인터랙션이 가능한 프로젝터.And an interaction signal processor configured to determine which touch object has occurred on the basis of the position coordinates from the sensor and convert the touch event into a corresponding touch event.
  4. 청구항 1에 있어서,The method according to claim 1,
    태양광 또는 상기 광원의 광이 상기 센서에게 영향을 미치지 않도록 제거하는 필터;를 추가로 포함하는 것을 특징으로 하는 터치 인터랙션이 가능한 프로젝터.And a filter for removing sunlight or light from the light source so as not to affect the sensor.
  5. 청구항 1에 있어서,The method according to claim 1,
    상기 패턴빔은 적외선 광으로 형성된 것을 특징으로 하는 터치 인터랙션이 가능한 프로젝터.And the pattern beam is formed of infrared light.
  6. 청구항 5에 있어서,The method according to claim 5,
    상기 터치 인터랙션에 의한 신호는,The signal by the touch interaction is,
    사용자가 상기 스크린상에 투사된 영상에서 신체 일부로 어느 한 터치 객체를 터치함에 따라 해당 터치 지점에서 패턴 왜곡 또는 모양 변화된 적외선 광인 것을 특징으로 하는 터치 인터랙션이 가능한 프로젝터.And an infrared light having a pattern distortion or a shape change at a corresponding touch point as a user touches a touch object with a body part in an image projected on the screen.
  7. 청구항 5에 있어서,The method according to claim 5,
    상기 터치 인터랙션에 의한 신호는,The signal by the touch interaction is,
    사용자가 상기 스크린상에 투사된 영상에서 신체 일부로 어느 한 터치 객체를 터치함에 따라 다른 지점과 비교하여 해당 터치 지점에서 변화된 광량을 가진 적외선 광인 것을 특징으로 하는 터치 인터랙션이 가능한 프로젝터.And an infrared light having a changed amount of light at a corresponding touch point as a user touches a touch object with a body part in the image projected on the screen.
  8. 광원으로부터의 광을 영상으로 변환하는 패널;A panel for converting light from a light source into an image;
    패턴빔을 출력하는 패턴빔 제공부;A pattern beam providing unit configured to output a pattern beam;
    상기 패턴빔 및 상기 패널로부터의 영상을 스크린에게로 투사하고, 상기 스크린에서의 터치 인터랙션에 의한 신호를 수신하는 단일의 렌즈; A single lens for projecting the pattern beam and the image from the panel onto a screen and receiving a signal by touch interaction on the screen;
    상기 터치 인터랙션에 의한 신호에 근거하여 상기 스크린에서 현재 터치된 터치 객체의 위치 좌표를 인식하는 센서; 및A sensor for recognizing position coordinates of the touch object currently touched on the screen based on the signal generated by the touch interaction; And
    상기 패널로부터의 영상을 투과시켜 상기 렌즈에게로 보내고, 상기 패턴빔을 반사시켜 상기 렌즈에게로 보내고, 상기 렌즈에서 수신되는 상기 터치 인터랙션에 의한 신호를 상기 센서에게로 보내는 광분리 소자;를 포함하는 것을 특징으로 하는 터치 인터랙션이 가능한 프로젝터.And an optical separation element for transmitting an image from the panel to the lens, reflecting the pattern beam to the lens, and transmitting a signal of the touch interaction received from the lens to the sensor. Projector capable of touch interaction, characterized in that.
  9. 청구항 8에 있어서,The method according to claim 8,
    상기 패널은 투과 패널로 구성되고,The panel consists of a transmissive panel,
    상기 광원 및 상기 패널은 상기 광분리 소자의 제 1면에 대향하여 설치되되 상기 광원은 상기 패널의 후방에 설치되고,The light source and the panel are installed opposite to the first surface of the optical separation element, the light source is installed behind the panel,
    상기 렌즈는 상기 광분리 소자의 제 2면에 대향하여 설치되고,The lens is provided to face the second surface of the optical separation element,
    상기 패턴빔 제공부 및 상기 센서는 상기 광분리 소자의 제 3면에 대향하여 설치되는 것을 특징으로 하는 터치 인터랙션이 가능한 프로젝터.And the pattern beam providing unit and the sensor are provided to face the third surface of the optical separation element.
  10. 청구항 8에 있어서,The method according to claim 8,
    상기 센서로부터의 위치 좌표를 근거로 어느 터치 객체에 대하여 터치 이벤트가 발생하였는지를 판단하여 해당하는 터치 이벤트로 변환시키는 인터랙션 신호 처리부;를 추가로 포함하는 것을 특징으로 하는 터치 인터랙션이 가능한 프로젝터.And an interaction signal processor configured to determine which touch object has occurred on the basis of the position coordinates from the sensor and convert the touch event into a corresponding touch event.
  11. 청구항 8에 있어서,The method according to claim 8,
    태양광 또는 상기 광원의 광이 상기 센서에게 영향을 미치지 않도록 제거하는 필터;를 추가로 포함하는 것을 특징으로 하는 터치 인터랙션이 가능한 프로젝터.And a filter for removing sunlight or light from the light source so as not to affect the sensor.
  12. 광원으로부터의 광을 영상으로 변환하는 패널;A panel for converting light from a light source into an image;
    상기 패널로부터의 영상을 스크린에게로 투사하고, 상기 스크린에서의 터치 인터랙션에 의한 신호를 수신하는 단일의 렌즈; A single lens for projecting an image from the panel onto a screen and receiving a signal by touch interaction on the screen;
    상기 터치 인터랙션에 의한 신호에 근거하여 상기 스크린에서 현재 터치된 터치 객체의 위치 좌표를 인식하는 센서; 및A sensor for recognizing position coordinates of the touch object currently touched on the screen based on the signal generated by the touch interaction; And
    상기 광원으로부터의 광을 상기 패널에게로 보내고, 상기 패널로부터의 영상을 투과시켜 상기 렌즈에게로 보내고, 상기 렌즈에서 수신되는 상기 터치 인터랙션에 의한 신호를 상기 센서에게로 보내는 광분리 소자;를 포함하는 것을 특징으로 하는 터치 인터랙션이 가능한 프로젝터.And an optical separation device configured to transmit light from the light source to the panel, transmit an image from the panel to the lens, and transmit a signal of the touch interaction received from the lens to the sensor. Projector capable of touch interaction, characterized in that.
  13. 청구항 12에 있어서,The method according to claim 12,
    상기 패널은 반사 패널로 구성되고,The panel consists of a reflective panel,
    상기 광원은 상기 광분리 소자의 제 1면에 대향하여 설치되고,The light source is provided opposite to the first surface of the optical separation element,
    상기 패널은 상기 광분리 소자의 제 2면에 대향하여 설치되고,The panel is provided to face the second surface of the optical separation element,
    상기 렌즈는 상기 광분리 소자의 제 3면에 대향하여 설치되고,The lens is provided to face the third surface of the optical separation element,
    상기 센서는 상기 광분리 소자의 제 4면에 대향하여 설치되는 것을 특징으로 하는 터치 인터랙션이 가능한 프로젝터.And the sensor is installed to face the fourth surface of the optical separation element.
  14. 청구항 12에 있어서,The method according to claim 12,
    상기 센서로부터의 위치 좌표를 근거로 어느 터치 객체에 대하여 터치 이벤트가 발생하였는지를 판단하여 해당하는 터치 이벤트로 변환시키는 인터랙션 신호 처리부;를 추가로 포함하는 것을 특징으로 하는 터치 인터랙션이 가능한 프로젝터.And an interaction signal processor configured to determine which touch object has occurred on the basis of the position coordinates from the sensor and convert the touch event into a corresponding touch event.
  15. 청구항 12에 있어서,The method according to claim 12,
    태양광 또는 상기 광원의 광이 상기 센서에게 영향을 미치지 않도록 제거하는 필터;를 추가로 포함하는 것을 특징으로 하는 터치 인터랙션이 가능한 프로젝터.And a filter for removing sunlight or light from the light source so as not to affect the sensor.
  16. 청구항 12에 있어서,The method according to claim 12,
    상기 터치 인터랙션에 의한 신호는,The signal by the touch interaction is,
    사용자가 상기 스크린상에 투사된 영상에서 터치기기로 어느 한 터치 객체를 터치함에 따라 터치 지점에서 상기 터치기기에 의해 방출되는 특정 광인 것을 특징으로 하는 터치 인터랙션이 가능한 프로젝터.And a specific light emitted by the touch device at a touch point as the user touches any touch object with the touch device in the image projected on the screen.
  17. 광원으로부터의 광을 영상으로 변환하는 패널;A panel for converting light from a light source into an image;
    상기 패널로부터의 영상을 스크린에게로 투사하고, 상기 스크린에서의 터치 인터랙션에 의한 신호를 수신하는 단일의 렌즈; A single lens for projecting an image from the panel onto a screen and receiving a signal by touch interaction on the screen;
    상기 터치 인터랙션에 의한 신호에 근거하여 상기 스크린에서 현재 터치된 터치 객체의 위치 좌표를 인식하는 센서; 및A sensor for recognizing position coordinates of the touch object currently touched on the screen based on the signal generated by the touch interaction; And
    상기 패널로부터의 영상을 투과시켜 상기 렌즈에게로 보내고, 상기 렌즈에서 수신되는 상기 터치 인터랙션에 의한 신호를 상기 센서에게로 보내는 광분리 소자;를 포함하는 것을 특징으로 하는 터치 인터랙션이 가능한 프로젝터.And an optical separation element configured to transmit an image from the panel to the lens, and to transmit a signal of the touch interaction received from the lens to the sensor.
  18. 청구항 17에 있어서,The method according to claim 17,
    상기 패널은 투과 패널로 구성되고,The panel consists of a transmissive panel,
    상기 광원 및 상기 패널은 상기 광분리 소자의 제 1면에 대향하여 설치되되 상기 광원은 상기 패널의 후방에 설치되고,The light source and the panel are installed opposite to the first surface of the optical separation element, the light source is installed behind the panel,
    상기 렌즈는 상기 광분리 소자의 제 2면에 대향하여 설치되고,The lens is provided to face the second surface of the optical separation element,
    상기 센서는 상기 광분리 소자의 제 3면에 대향하여 설치되는 것을 특징으로 하는 터치 인터랙션이 가능한 프로젝터.And the sensor is installed to face the third surface of the optical separation element.
  19. 청구항 17에 있어서,The method according to claim 17,
    상기 센서로부터의 위치 좌표를 근거로 어느 터치 객체에 대하여 터치 이벤트가 발생하였는지를 판단하여 해당하는 터치 이벤트로 변환시키는 인터랙션 신호 처리부;를 추가로 포함하는 것을 특징으로 하는 터치 인터랙션이 가능한 프로젝터.And an interaction signal processor configured to determine which touch object has occurred on the basis of the position coordinates from the sensor and convert the touch event into a corresponding touch event.
  20. 청구항 17에 있어서,The method according to claim 17,
    태양광 또는 상기 광원의 광이 상기 센서에게 영향을 미치지 않도록 제거하는 필터;를 추가로 포함하는 것을 특징으로 하는 터치 인터랙션이 가능한 프로젝터.And a filter for removing sunlight or light from the light source so as not to affect the sensor.
PCT/KR2018/002237 2017-05-04 2018-02-23 Projector capable of touch interaction WO2018203595A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2017-0056855 2017-05-04
KR10-2017-0056857 2017-05-04
KR1020170056855A KR102417534B1 (en) 2017-05-04 2017-05-04 Touch-enabled projector
KR1020170056857A KR102417535B1 (en) 2017-05-04 2017-05-04 Touch-enabled projector

Publications (1)

Publication Number Publication Date
WO2018203595A1 true WO2018203595A1 (en) 2018-11-08

Family

ID=64016095

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/002237 WO2018203595A1 (en) 2017-05-04 2018-02-23 Projector capable of touch interaction

Country Status (1)

Country Link
WO (1) WO2018203595A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112306442A (en) * 2020-11-20 2021-02-02 Oppo广东移动通信有限公司 Cross-device content screen projection method, device, equipment and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080309620A1 (en) * 2002-06-26 2008-12-18 Klony Lieberman Multifunctional integrated image sensor and application to virtual interface technology
JP2013134661A (en) * 2011-12-27 2013-07-08 Seiko Epson Corp Display device, projector, and display system
KR20140118085A (en) * 2013-03-28 2014-10-08 엘지전자 주식회사 Laser Projector
JP2015064550A (en) * 2013-08-26 2015-04-09 ソニー株式会社 Projection type display device
KR20150062952A (en) * 2013-11-29 2015-06-08 주식회사 크레모텍 Laser projector with position detecting capability and position detection method using the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080309620A1 (en) * 2002-06-26 2008-12-18 Klony Lieberman Multifunctional integrated image sensor and application to virtual interface technology
JP2013134661A (en) * 2011-12-27 2013-07-08 Seiko Epson Corp Display device, projector, and display system
KR20140118085A (en) * 2013-03-28 2014-10-08 엘지전자 주식회사 Laser Projector
JP2015064550A (en) * 2013-08-26 2015-04-09 ソニー株式会社 Projection type display device
KR20150062952A (en) * 2013-11-29 2015-06-08 주식회사 크레모텍 Laser projector with position detecting capability and position detection method using the same

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112306442A (en) * 2020-11-20 2021-02-02 Oppo广东移动通信有限公司 Cross-device content screen projection method, device, equipment and storage medium
CN112306442B (en) * 2020-11-20 2023-05-12 Oppo广东移动通信有限公司 Cross-device content screen projection method, device, equipment and storage medium

Similar Documents

Publication Publication Date Title
WO2015142023A1 (en) Method and wearable device for providing a virtual input interface
WO2016080708A1 (en) Wearable device and method for outputting virtual image
WO2016072565A1 (en) Image output device, mobile terminal, and control method therefor
WO2016171403A1 (en) Electronic device and method
WO2017213365A1 (en) Moving picture capturing apparatus having dual camera
WO2016208984A1 (en) Mobile terminal capable of performing remote control of plurality of devices
WO2013125745A1 (en) Electronic device and method of controlling the same
WO2017111268A1 (en) Deformable display device and image display method using same
WO2017010651A1 (en) Display system
WO2015093665A1 (en) Electronic device and method for controlling electronic device
WO2018139790A1 (en) Mobile/portable terminal
WO2016093510A1 (en) Display apparatus and display method
WO2015194773A1 (en) Display device and driving method therefor
WO2017164717A1 (en) Sensor module and method for operating same
WO2020085873A1 (en) Camera and terminal having same
WO2017039130A1 (en) Display device and operating method therefor
WO2018203595A1 (en) Projector capable of touch interaction
WO2021137629A1 (en) Display device, mobile device, video calling method performed by the display device, and video calling method performed by the mobile device
WO2016182124A1 (en) Display device and operation method therefor
WO2019066133A1 (en) System for implementing virtual mobile terminal in mixed reality, and control method therefor
WO2016125966A1 (en) Image projection apparatus and operation method thereof
WO2021080061A1 (en) Electronic pen sensing device and electronic appliance comprising same
WO2019151570A1 (en) Display apparatus
WO2022065552A1 (en) Mobile terminal and control method thereof
WO2021075910A1 (en) Electronic device and method for operating screen capturing by electronic device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18793864

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18793864

Country of ref document: EP

Kind code of ref document: A1