WO2019066273A1 - 전자칠판 및 그 제어방법 - Google Patents

전자칠판 및 그 제어방법 Download PDF

Info

Publication number
WO2019066273A1
WO2019066273A1 PCT/KR2018/010055 KR2018010055W WO2019066273A1 WO 2019066273 A1 WO2019066273 A1 WO 2019066273A1 KR 2018010055 W KR2018010055 W KR 2018010055W WO 2019066273 A1 WO2019066273 A1 WO 2019066273A1
Authority
WO
WIPO (PCT)
Prior art keywords
color
writing body
sensing
writing
processing unit
Prior art date
Application number
PCT/KR2018/010055
Other languages
English (en)
French (fr)
Inventor
김상호
김관형
하지혜
Original Assignee
삼성전자(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자(주) filed Critical 삼성전자(주)
Priority to US16/650,145 priority Critical patent/US20200278768A1/en
Publication of WO2019066273A1 publication Critical patent/WO2019066273A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection

Definitions

  • the present invention relates to an electronic blackboard and a control method thereof, and more particularly, to an electronic blackboard capable of sensing a touch position and a color of a handwriting that touches the screen of the electronic blackboard, and a control method thereof.
  • An electronic blackboard or an electronic note can be implemented using a display device that senses a touch. That is, a display device that senses a touch position of a handwriting body that touches a screen of a display device and displays an image based on the trajectory formed by the sensed touch position on the screen may perform functions of an electronic board or an electronic note.
  • One of the prior art attempts to solve this problem by providing a UI that allows a user to select a color to be displayed according to the trajectory of a handwriting on a menu of the electronic blackboard.
  • a UI that allows a user to select a color to be displayed according to the trajectory of a handwriting on a menu of the electronic blackboard.
  • the user wants to change the color he / she has to select the desired color in the menu every time.
  • An object of the present invention is to provide an electronic blackboard that automatically recognizes the color of a writing body touching the screen of the electronic whiteboard and displays an image having that color on the screen.
  • a method for detecting a touch position of a writing body with respect to a screen of a copyboard and displaying a trajectory corresponding thereto And to provide an electronic blackboard that provides a user's experience of writing directly on the electronic blackboard.
  • an electronic whiteboard comprising: a display; A first sensing unit for sensing a touch position of a handwriting on a screen of the display unit; A second sensing unit for acquiring an image by performing imaging; And a control unit for determining a target area in which the motion exists in the image in comparison with a series of images captured by the second sensing unit, determining a color of the target object in the determined target area, And displaying the image having the determined hue at a position corresponding to the determined color. Accordingly, the present invention automatically recognizes the color of the writing body touching the screen of the copyboard and displays the trajectory of the writing body on the screen, thereby providing a user experience in which the user writes directly to the copyboard using the writing body can do.
  • the present invention can quickly recognize the color of the writing body before detecting the touch position of the writing body with respect to the screen of the electronic blackboard, and display the locus with the color, the color of the writing body is reflected only after the writing starts It is possible to provide a user experience to write in the color of the handwriting immediately from the start of the handwriting.
  • the processing unit may determine a color closest to the color of the target area among a plurality of predetermined colors as the color of the writing body. According to this, it is possible to quickly determine the color of the writing body from the object area without needing to recognize details of the shape, shape, kind, and the like of the object corresponding to the writing body.
  • the processing unit may determine the color of the writing body based on a mutual distance relation between the writing body and the body holding the writing body. According to this, the size of the region to be determined by the color of the writing body can be reduced, the color recognition speed can be further increased, and the accuracy of handwritten color recognition can be improved.
  • the processing unit may determine the color of the writing body based on the density of the color distribution of the object area.
  • the processing unit may determine the color of the writing body based on information excluding a color component not corresponding to the writing body in the color distribution of the object area. According to this, the speed of the handwriting color determination can be maintained at a high speed, and its accuracy can be further improved.
  • the processing unit may determine a hue appearing continuously in a predetermined direction in the target area as the color of the writing body. This makes it possible to increase the reliability of the handwriting color determination.
  • the processing unit may maintain the color of the handwriting sensed when it is detected again within a predetermined time after the detection of the handwriting is stopped. According to this, in the case where the user uses the same writing body but continues the writing discontinuously, the color of the once recognized writing body can be utilized again, and the color of the writing body can be recognized more quickly.
  • the processing unit may detect the motion of each writing body by allocating a separate area in the image to each of the first writing body and the second writing body. According to this, even when a plurality of writing bodies are used, the color recognition of the writing body can be performed quickly.
  • an electronic whiteboard comprising: a display; At least one first sensing unit for sensing color information of the writing body based on a touch position of a writing body with respect to the display unit using a sensing signal and a reflection signal reflected from a writing body of the sensing signal; And a processor for displaying an image having a color of the handwriting on the screen of the display unit, the color of which is determined based on the sensed color information, at a position corresponding to the touch of the handwriting body.
  • the color and touch position of the writing body can be detected by only one sensing unit, it is possible to reduce the production cost of the electronic blackboard as compared with the case of sensing each of them through a separate sensing unit, . Further, the color of the writing body can be detected without image capturing, and the color of the writing body can be determined more quickly.
  • the sensing signal may include a plurality of signals having different wavelengths.
  • the first sensing unit may include a signal transmitting unit for transmitting an infrared signal and a signal receiving unit for receiving an infrared signal.
  • a control method for an electronic whiteboard comprising: determining a target area in which motion exists in the image in comparison with a series of images captured; Determining a color of the writing body in the determined object area; Sensing a touch position of a writing body with respect to a screen of the copyboard; And displaying the image having the determined color at a position corresponding to the touch of the writing body on the screen of the copyboard. Accordingly, the present invention automatically recognizes the color of the writing body touching the screen of the copyboard and displays the trajectory of the writing body on the screen, thereby providing a user experience in which the user writes directly to the copyboard using the writing body can do.
  • the present invention can quickly recognize the color of the writing body before detecting the touch position of the writing body with respect to the screen of the electronic blackboard, and display the locus with the color, the color of the writing body is reflected only after the writing starts It is possible to provide a user experience to write in the color of the handwriting immediately from the start of the handwriting.
  • the color of the writing body may be determined as the color of the writing body that is closest to the color of the target area among a predetermined plurality of colors. According to this, it is possible to quickly determine the color of the writing body from the object area without needing to recognize details of the shape, shape, kind, and the like of the object corresponding to the writing body.
  • the step of determining the color of the writing body may determine the color of the writing body based on the mutual distance between the writing body and the body holding the writing body. According to this, the size of the region to be determined by the color of the writing body can be reduced, the color recognition speed can be further increased, and the accuracy of handwritten color recognition can be improved.
  • the step of determining the color of the writing body may determine the color of the writing body based on the density of the color distribution of the object area.
  • the step of determining the color of the writing body may determine the color of the writing body based on information excluding a color component not corresponding to the writing body in the color distribution of the object area. According to this, the speed of the handwriting color determination can be maintained at a high speed, and its accuracy can be further improved.
  • the step of determining the hue of the writing body may determine a hue appearing continuously in a predetermined direction in the object area as the hue of the writing body. This makes it possible to increase the reliability of the handwriting color determination.
  • the step of determining the hue of the writing body may maintain the hue of the sensed writing body when the sensing of the writing body is detected again within a predetermined time after the detection of the writing body is stopped. According to this, in the case where the user uses the same writing body but continues the writing discontinuously, the color of the once recognized writing body can be utilized again, and the color of the writing body can be recognized more quickly.
  • the step of determining the target area may detect the movement of each writing body by allocating a separate area within the image to each of the first writing body and the second writing body. According to this, even when a plurality of writing bodies are used, the color recognition of the writing body can be performed quickly.
  • a control method for an electronic whiteboard including the steps of: sensing a touch position of a writing body with respect to the copyboard using a sensing signal; Sensing color information of the writing body based on the color information; And displaying an image having a color of the writing body determined based on the sensed color information at a position corresponding to a touch of the writing body on a screen of the electronic whiteboard.
  • the sensing signal may include a plurality of signals having different wavelengths.
  • a computer program stored in a medium for executing the above control method in combination with an electronic board.
  • the computer program may be stored in a medium in the server and downloaded to the electronic board through a network.
  • the color of the writing body touching the screen of the copyboard can be automatically recognized, and the trajectory of the writing body can be displayed on the screen with the color.
  • the touch position of the writing body with respect to the screen of the electronic copyboard is detected, and the trajectory is displayed by the recognition of the color of the writing body quickly before the trajectory corresponding thereto is displayed, To provide a user experience that seems to be handwritten directly to the user.
  • FIG. 1 is a view showing an electronic whiteboard according to an embodiment of the present invention
  • FIG. 2 is a view showing a configuration of a copyboard according to an embodiment of the present invention
  • FIG. 3 is a view illustrating a control method of the electronic whiteboard according to an embodiment of the present invention
  • FIG. 4 is a diagram illustrating an example of a second sensing unit according to an embodiment of the present invention.
  • FIG. 5 is a diagram illustrating an example of a method of determining a target area according to an embodiment of the present invention.
  • FIG. 6 is a diagram illustrating a control method of the electronic whiteboard including an example of a method of determining a color of a writing body according to an embodiment of the present invention
  • FIG. 7 is a view showing another example of a method of determining a color of a writing body according to an embodiment of the present invention.
  • FIG. 8 is a diagram illustrating another example of a method for determining a color of a writing body according to an embodiment of the present invention.
  • FIG. 9 is a diagram illustrating another example of a method of determining a color of a writing body according to an embodiment of the present invention.
  • FIG. 10 is a diagram illustrating another example of a method for determining a color of a writing body according to an embodiment of the present invention.
  • FIG. 11 is a view showing an example of use of the copyboard according to another embodiment of the present invention.
  • FIG. 13 is a view showing an example of a copyboard according to another embodiment of the present invention.
  • FIG. 14 is a view illustrating a color sensing method of the electronic whiteboard according to another embodiment of the present invention.
  • &quot comprising, " " including, " " having ", and the like, Or < / RTI >
  • 'module' or 'sub-module' performs at least one function or operation, and may be implemented in hardware or software, or a combination of hardware and software, And may be implemented as at least one processor.
  • the electronic whiteboard 100 according to an embodiment of the present invention can be implemented, for example, by a TV.
  • the electronic whiteboard 100 according to another embodiment of the present invention may be applied to a wearable device such as a smartphone, a tablet, a mobile phone, a smart watch, a head-mounted display, a computer, a multimedia player, A digital billboard, a digital billboard, a large format display (LFD), a digital signage, a set-top box, a refrigerator, and the like.
  • the electronic whiteboard 100 according to an embodiment of the present invention is not limited thereto, and any device capable of sensing a touch and outputting an image can be used.
  • the electronic whiteboard 100 includes a first sensing unit 201, a second sensing unit 202, a processing unit 203, and a display unit 204.
  • the configuration of the electronic whiteboard 100 shown in FIG. 2 is merely an example, and the electronic whiteboard 100 according to an embodiment of the present invention may be implemented in other configurations as well. That is, the electronic whiteboard 100 according to an embodiment of the present invention may be implemented by adding a configuration other than the configuration shown in FIG. 2, or by excluding some of the configurations shown in FIG.
  • the first sensing unit 201 senses the touch position of the handwriting on the screen of the display unit 204.
  • the term " writing body " means an object capable of leaving a writing trace by touching the screen of the display unit 204, and there is no particular limitation on the type of object.
  • a cursive may be a stylus pen, a thin and thin object such as a regular pen or rod, or an object that is not generally associated with a pen, such as a lEGO block, toy, or fruit.
  • the body of a person can also be a writing body.
  • the first sensing unit 201 may be implemented by any type of sensor capable of sensing contact or pressure of the writing body.
  • the first sensing unit 201 may be a touch sensing sensor or a pressure sensor such as a capacitive overlay, a resistive overlay, or an infrared beam. Lt; / RTI >
  • the first sensing unit 201 generates a reception signal when it receives a touch input of the writing body, and transmits the reception signal to the processing unit 203.
  • the second sensing unit 202 performs imaging with respect to the periphery of the display unit 204 to generate an image.
  • the second sensing unit 202 senses a handwriting to be particularly touched on the screen of the display unit 204, generates an image, and transmits the image to the processing unit 203.
  • the second sensing unit 202 may be implemented by a camera, for example.
  • the camera may be implemented as a CMOS (Complementary Metal Oxide Semiconductor) or CCD (Charge-coupled Device) image sensor that senses light input through the lens and a lens through which light is received.
  • CMOS Complementary Metal Oxide Semiconductor
  • CCD Charge-coupled Device
  • the processing unit 203 performs image processing based on signals transmitted from the first sensing unit 201 and the second sensing unit 202 and displays the result on the display unit 204.
  • the processing unit 203 may be implemented as one or more hardware and / or software modules that perform the above-mentioned processing, or a combination thereof.
  • the processing unit 202 may perform control for operating all components of the copyboard 100.
  • the processing unit 203 controls the first sensing unit 201 to receive a touch input, controls the second sensing unit 202 to capture an image to obtain an image, Can be displayed.
  • the processing unit 202 includes a control program (or an instruction) for performing the above-described control operation, a nonvolatile memory in which the control program is installed, a volatile memory in which at least a part of the installed control program is loaded, And a central processing unit (CPU).
  • a control program may be stored in other electronic apparatuses other than the electronic whiteboard 100.
  • the control program may include program (s) implemented in the form of at least one of a BIOS, a device driver, an operating system, firmware, a platform and an application program.
  • the application program is installed or stored in advance on the copyboard 100 at the time of manufacture of the copyboard 100, or receives data of the application program from the outside at the time of use, And may be installed in the electronic whiteboard 100.
  • the data of the application program may be downloaded to the copyboard 100 from an external server such as an application market, but is not limited thereto.
  • the processing unit 203 may be implemented as a device, a S / W module, a circuit, a chip, or the like.
  • the electronic whiteboard 100 shown in FIG. 2 is embodied in a configuration in which processing and control are performed in a single processing unit 203, this is only an example, and in accordance with another embodiment of the present invention
  • the electronic whiteboard 100 may be implemented with a configuration in which a control unit is additionally provided separately from the processing unit.
  • the display unit 204 can display an image in response to a touch of the writing body with respect to the screen of the display unit.
  • the implementation of the display unit 204 is not limited.
  • a liquid crystal, a plasma, a light-emitting diode, an organic light-emitting diode, And can be implemented by various display methods such as electron emission, electron emission, electron emission, -Conduction Electron-Emitter, Carbon Nano-Tube, and Nano-Crystall.
  • the display unit 204 includes a backlight unit for supplying light to the liquid crystal display panel and the liquid crystal display panel, and a panel driver for driving the liquid crystal display panel when the liquid crystal display is used.
  • the display unit 204 may be implemented as an OLED panel that is a self-luminous element without a backlight unit.
  • the processing unit 203 of the copyboard 100 determines a target area in which motion exists in the image in contrast to a series of images captured by the second sensing unit 202.
  • the target area is an area to be subjected to processing for determining the color of the writing body in the image captured by the second sensing unit 202, and is a region in which movement of the writing body is expected to exist. A specific method for determining the target area will be described later.
  • the processing unit 203 determines the color of the writing body in the determined target area. A specific method of determining the color of the writing body in the target area will be described later.
  • the processing unit 203 displays the image having the determined color at a position corresponding to the touch of the handwriting on the screen of the display unit 204.
  • the color of the writing body touching the screen of the display unit 204 is automatically recognized, and the trajectory of the writing body is displayed on the screen by the color of the writing body, so that the user can directly write the writing on the writing board 100 It is possible to provide a user-like experience.
  • the processing unit 203 of the electronic whiteboard 100 is configured such that a motion exists in the image in comparison with a series of images captured by the second sensing unit 202 Determines the target area, and directly determines the color of the writing object in the determined target area. That is, the processing unit 203 recognizes the specific shape, shape, and type of the object corresponding to the handwriting in the image captured by the second sensing unit 202 in detail, and then, without discriminating the color of the recognized object , And quickly extracts the object area in which the motion exists with respect to the electronic copyboard 100. [ Accordingly, it is not necessary to separately apply an object extraction algorithm, which requires a relatively large number of processing steps and time, so that simple and quick processing is possible. In addition, since the color determination algorithm is applied only to the target area in the image, and it is not applied to the remaining areas, it is possible to perform a simpler and faster processing. Therefore, the color of the writing body can be quickly judged.
  • the color of the writing body can be quickly recognized before the touch position of the writing body with respect to the screen of the electronic copyboard 100 is detected and the trajectory can be displayed with the color, the color of the writing body It is possible to provide a user experience of writing in the color of the handwriting immediately from the beginning of the handwriting without the occurrence of the reflected phenomenon.
  • FIG. 3 shows a control method of the electronic whiteboard 100 according to an embodiment of the present invention.
  • the processing unit 203 of the copyboard 100 controls the second sensing unit 202 so that the second sensing unit 202 picks up an image of the periphery of the display unit 204 to obtain an image (S301).
  • the second sensing unit 202 may include a predetermined area 220 (hereinafter referred to as " second sensing area ") located on one side of the copyboard 100 and facing the screen 101 of the display unit 204 Quot; imaging region ").
  • &quot predetermined area 220
  • the position of the second sensing unit 202 and the sensing area 220 are not limited to those shown in FIG.
  • the image obtained as the second sensing unit 202 images the periphery of the display unit 204 is transmitted to the processing unit 203.
  • the processing unit 203 receiving the image from the second sensing unit 202 determines whether movement for writing on the screen 101 of the display unit 204 has occurred (S302).
  • One example of such a determination method is to measure the amount of change between the image of the previous frame and the image of the current frame.
  • the processing unit 203 may determine that a motion for handwriting occurs when the sum of pixel value differences of two images is equal to or greater than a predetermined value. That is, it is possible to determine whether or not a motion is generated without specific analysis of the specific content of the image or a specific area in the image.
  • the predetermined value is a predetermined value, and the sensitivity of the motion detection may be changed according to the setting.
  • the predetermined value when the predetermined value is set to be large, the motion detection for writing can be somewhat insensitive. If the predetermined value is set small, the motion reduction can be somewhat sensitive.
  • the predetermined value may be set by the user or automatically set or adjusted by the copyboard 100.
  • the processing unit 203 proceeds to the next step so that when a slight movement or change It is possible to prevent the user from going to the color judgment of the writing body.
  • an image of a current frame may be compared to an image of a plurality of previous frames.
  • the comparison frame (reference image) selection method for determining the target area since all of the comparison frame (reference image) selection method for determining the target area below can be applied, the detailed method will be described later in the description of the method of determining the target area.
  • the processing unit 203 determines a target area in which motion exists in the image, in contrast to a series of images captured by the second sensing unit 202.
  • the processing unit 203 may compare the current image 501 captured at the time of motion generation determination with the at least one reference image 502 captured at the previous point of time, You can decide.
  • the reference image refers to an image captured at a point in time when the user does not write on the screen 101 of the display using the writing body. In this case, by comparing the current image 501 and the reference image 502, it is possible to derive an area 503 in which a substantial movement has occurred with respect to the copyboard 100 among the current images.
  • the current image includes the user's hand and the writing body on the background around the screen 101 of the display unit 204, Only the background around the screen 101 of the display unit 204 is included. Therefore, if the same part as the reference image is removed from the current image, only the user's hand and handwriting are left (503) and the remaining background is removed.
  • only one reference image can be used or plural reference images can be used.
  • the reference image can be continuously changed to a new frame at a predetermined time interval.
  • the range of the reference image to be considered in determining the target area can be variously set. As an example, only a predetermined number of the most recently captured reference images, for example, 10 reference images, may be compared with the current image to determine an object area, and in another example, all of the captured reference images It may be possible to determine the target area by comparing it with the current image.
  • the degree of consideration of the reference image may be adjusted according to the degree of temporal proximity to the current image by setting different weights for the respective reference images.
  • the degree of consideration of the reference image may be adjusted according to the degree of temporal proximity to the current image by setting different weights for the respective reference images.
  • the processing unit 203 determining the target area through the above method determines the color of the handwriting in the determined target area (S304).
  • the processing unit 203 can determine the color of the portion occupying the largest area in the object area as the color of the writing body.
  • the processing unit 203 can derive the color of the portion occupying the largest area by finding the most frequently displayed value among the pixel values of each pixel in the object region.
  • the processing unit 203 may obtain the representative color of the target area and determine the color of the handwriting color that is closest to the representative color of the target area among a plurality of predetermined hues (see FIG. 6).
  • the processing unit 203 sets the average value of all pixel values Can be compared with these eight colors to determine the closest color to the color of the writing body. Further, the processing unit 203 may combine the above two examples. That is, the processing unit 203 may re-designate the closest hue among a plurality of predetermined hues for each pixel of the target area as the hue value of each pixel, and then decide the hue of the writing body as the hue most represented. According to this, the hue of the writing body can be determined quickly from the target area without needing to recognize in detail the specific shape, shape, kind, etc. of the object corresponding to the writing body in the image captured by the second sensing unit 202. Another method for quickly determining the color of the writing body from the target area will be described later.
  • the processing steps S301 to S304 of FIG. 3 described above are performed in the same manner as the processes performed by the second sensing unit 202 and the processing unit 203 during a time period until the handwriting object is touched close to the screen 101 of the display unit 204 to be.
  • the first sensing unit 201 senses the touch position of the handwriting on the screen 101 of the display unit 204 (S305).
  • the process of determining the color of the writing body by detecting the movement of the writing body approaching the screen 101 of the display unit 204 in the second sensing unit 202 and the processing unit 203
  • the color of the writing body can be determined until the touch position of the writing body is sensed at the first sensing unit 201 at the latest. Accordingly, since the processing unit 203 can display an image having a determined color at a position corresponding to the touch of the writing body (S306), the processing unit 203 can not recognize the color of the writing body only after the writing starts, The user can provide a writing experience with the color of the corresponding cursive.
  • the processing unit 203 of the electronic whiteboard 100 controls the processing speed of the processing unit 203 or the frame sensing speed of the second sensing unit 202,
  • the size of the imaging area 220 can be changed. For example, as the speed of the processing unit 203 increases, the frame sensing speed of the second sensing unit 202 increases, or the distance between the sensing area and the second sensing unit 202 increases, The size of the imaging area 220 can be set small. In this case, even if the size of the imaging area is small, the fast moving object can be detected and the color can be quickly extracted from it, so that the size of the imaging area can be set small. In this way, when the imaging area itself becomes smaller, the target area extracted therefrom becomes smaller, and the speed of the processing for determining the color of the writing body can be further accelerated.
  • the processing speed of the processing unit 203 to the frame sensing speed of the second sensing unit 202 such as the SVGA, the HD, and the FHD, in consideration of factors such as the distance between the second sensing unit 202 and the second sensing unit 202.
  • the speed of the handwriting color determination can be maintained at a high speed, and its accuracy can be improved.
  • the control unit 203 of the copyboard 100 determines the color of the writing body based on the mutual distance between the writing body and the body holding the writing body, The color can be determined. This will be described with reference to FIG.
  • the user brings the writing body close to the display screen 101 while holding the writing body with the user's body, for example, a hand, and performs writing.
  • the object area in which the motion exists may include the hand of the user in addition to the writing body.
  • the reliability of the curled color determination can be increased.
  • the processing unit 203 can determine the color of the writing body based on the mutual distance between the writing body and the body holding the writing body. For example, in accordance with a predetermined height from one end of a writing body touching a display screen 101 to a portion where a user holds a writing body by hand, The color of the writing body can be determined by considering only the area 701 which is close to the height.
  • the predetermined height may be predetermined and may be set through input, or may be set differently for each user.
  • the color recognition speed can be improved as the size of the region to be color-determined of the writing body is reduced, and the accuracy of the handwriting color recognition can be improved.
  • the processing unit 203 can determine the color of the writing body based on the density of the color distribution of the object area 503. This will be described with reference to FIG.
  • FIG. 8 shows a graph in which color information of the target area 503 is analyzed.
  • the graph showing the color distribution of the target area 503 is the same as 801 in FIG. 8 (the horizontal axis is the color and the vertical axis is the distribution degree), 811 colors among the four colors 810-813, Its density is the highest. Accordingly, the processing unit 203 can determine the color of the writing body as 811 colors.
  • the speed of the handwriting color determination can be maintained at a high speed, and its accuracy can be improved.
  • the method of analyzing the density of the color distribution of the target area is not limited to the above-described graph analysis method.
  • the processing unit 203 determines, based on information excluding a color component (hereinafter also referred to as a " noise component " The color of the writing body can be determined. This will be described with reference to FIG.
  • the processing unit 203 can refer to the information excluding the noise component from the color distribution of the target area.
  • the noise component may be, for example, a color component corresponding to the user's body.
  • the processing section 203 determines whether or not the color distribution graph 901 of the target area 503 A new graph 903 obtained by subtracting the value of the graph 902 representing the color distribution of the corresponding color component is derived and then the color 911 having the highest density of the color distribution can be determined as the color of the writing body. That is, the color component 913 corresponding to the user's hand can be excluded when determining the cursive color.
  • the speed of the handwriting color determination can be maintained at a high speed, and its accuracy can be further improved.
  • the processing unit 203 can determine the color appearing continuously in a predetermined direction in the object area as the color of the writing body. This will be described with reference to FIG.
  • the processing unit 203 of the copyboard 100 may include a second sensing unit 202 for sensing images of the second sensing unit 202 around the display unit 204 and transmitting an image (S1001).
  • the processing unit 203 receives the image from the second sensing unit 202 and detects whether a movement for writing on the screen 101 of the display unit 204 has occurred (S1002).
  • the processing unit 203 determines an object area in which an image exists in the image in contrast to a series of images captured by the second sensing unit 202 (S1003).
  • S1003 object area in which an image exists in the image in contrast to a series of images captured by the second sensing unit 202
  • the processing unit 203 determines the color appearing continuously in a predetermined direction in the target area as the color of the writing body (S1004).
  • the user of the electronic whiteboard 100 selects a typical object to be used as a handwriting object from everyday objects, such as a rod or rectangle having a fixed shape rather than an irregular or atypical object, There may be a tendency to choose objects with shapes such as.
  • the writing body may be made of the same color as the whole in its shape. In this case, since a predetermined color is continuously displayed in a predetermined direction in the object area, the processing unit 203 can determine the color of the writing body by utilizing such a characteristic.
  • Various methods can be used as a method of grasping colors appearing continuously in a predetermined direction in a target area.
  • the color value of each pixel is compared with the color value of the surrounding pixel, and when the same color value is set, the pixels are connected to an edge After generating the graph, the color value of the pixel belonging to the longest connected graph can be determined as the color value of the writing body among the generated various graphs in one direction.
  • the processing unit 203 displays the image having the determined color through the above process at a position corresponding to the touch of the writing body (S1005).
  • the color of the writing body can be determined by utilizing the general property of the writing body, the reliability of the determination of the writing body color can be improved.
  • the processing unit 203 of the copyboard 100 senses the color and touch trajectory of the writing body and performs the writing while sensing the writing body is stopped and then detected again within a predetermined time The color of the handwriting sensed can be maintained.
  • the user In the process of writing on the electronic whiteboard 100 by the user using the writing body, the user temporarily separates the writing body from the screen 101 of the display unit 204, performs some thinking or other action, There may be times when you want to continue. In this case, it is inefficient to newly recognize the movement of the writing body each time the writing body approaches the screen 101 of the display unit 204 and to determine the color.
  • the processing unit 203 of the electronic whiteboard 100 detects the color and touch trajectory of the writing body and performs the writing operation while sensing the writing body, If it is sensed, the color of the handwriting that has been sensed can be used again in the case where the user continues the handwriting discontinuously while using the same handwriting.
  • the predetermined time it may be preset, the user may set it arbitrarily, and the processing part may set or change the value automatically or adaptively.
  • the color of the once recognized writing body can be utilized again, and the color of the writing body can be recognized more quickly.
  • the electronic whiteboard 100 according to the present invention is also capable of writing at the same time by one or a plurality of users using a plurality of writing bodies.
  • the processing unit 203 of the copyboard 100 according to another embodiment of the present invention can assign the individual areas within the image to each of the first writing body and the second writing body to detect the movement of each writing body have. This will be described with reference to FIG.
  • FIG. 11 shows an example in which the first user uses the first writing body 1101 to write on the screen 101 of the copyboard 100 while the second user uses the second writing body 1102 to write Two writing bodies 1102 approaching the screen 101 of the copying apparatus 100.
  • the processing unit 203 of the electronic whiteboard 100 senses the movement and color and touch position of the second writing body 1102 through the method described above, for example, can do.
  • the processing unit 203 determines whether the first writing body 1101 is currently moving or touching the second writing body 1102 with respect to the remaining area excluding the area 1110 corresponding to the movement or touch position of the first writing body 1101 It may be efficient to detect the movement or the touch position of the two-handed body 1102. In other words, the processing unit 203 can detect the movement of each writing body by allocating a separate area in the image to each of the first writing body and the second writing body.
  • the first writing body 1101 and the second writing body 1102 are overlapped with each other in the second sensing unit 202 so that the second writing body 1102
  • a plurality of second sensing units 202 may be disposed at different positions on the copyboard 100. In this case,
  • the color recognition of the writing body can be performed quickly.
  • the first sensing unit 201 senses the touch position of the writing body and the second sensing unit 202 acquires an image by performing image sensing so as to be used as basic data for analyzing movement and color of the writing body.
  • the embodiments have been described.
  • the electronic whiteboard 1300 according to another embodiment of the present invention includes only one sensing unit, and can detect both the touch position and the color information of the writing body using the sensing unit. This will be described with reference to FIG.
  • the electronic whiteboard 1300 shows the configuration of the copyboard 1300 according to another embodiment of the present invention.
  • the electronic whiteboard 1300 according to another embodiment of the present invention includes a first sensing unit 1201, a processing unit 1202, and a display unit 1203. Since the processing unit 1202 and the display unit 1203 can be applied as described above with reference to FIG. 2, duplicate descriptions will be omitted.
  • the first sensing unit 1201 senses the color information of the writing body based on the touch position of the writing body with respect to the display unit 1203 and the reflection signal reflected from the writing body using the sensing signal.
  • the sensing signal may be a signal having a predetermined wavelength and a signal that can be emitted, for example, an infrared (IR) signal or a radio frequency (RF) signal.
  • the sensing signal may include a plurality of signals having different wavelengths.
  • the first sensing unit 1201 may include an IR sensor or an RF sensor.
  • the first sensing unit 1201 may further include a signal transmitting unit for transmitting signals and a signal receiving unit for receiving the transmitted signals.
  • the first sensing unit 1201 may include an array-type sensor. In this case, the number of sensors may vary depending on the size of the display unit 1203 or the required color recognition precision.
  • the processing unit 1202 can display an image having the color of the handwriting on the screen of the display unit 1203 at a position corresponding to the touch of the handwriting on the basis of the sensed color information.
  • FIG. 13 the operation of the copyboard 1300 according to another embodiment of the present invention having the above-described structure will be described in detail with reference to FIGS. 13 and 14.
  • FIG. 13 the operation of the copyboard 1300 according to another embodiment of the present invention having the above-described structure will be described in detail with reference to FIGS. 13 and 14.
  • the first sensing unit 1201 of the electronic whiteboard 1300 includes a sensor array arranged along the outer frame of the screen of the display unit 1203 Fig.
  • each sensor is an IR sensor.
  • the first sensing unit 1201 may include both the IR transmitting unit and the IR receiving unit.
  • the processing unit 1202 can sense the touch position of the writing body. 13, when the writing body 1301 touches the screen of the display unit 1203, the IR signal transmitted from the IR transmission sensors 1310 and 1320 corresponding to the touch position is transmitted to the opposite side The IR receiving sensors 1330 and 1340 can not reach the IR receiving sensors 1330 and 1340. Therefore, the processing unit 1202 can sense the touch coordinates of the writing body using the information.
  • the first sensing unit 1201 senses color information of a writing body
  • the IR sensor 1310 Can receive a reflected signal in which the detection signal is reflected from the writing body.
  • the reflected signal reflected from the writing body may have different characteristics depending on the color of the writing body. For example, the intensity of the reflected signal may vary depending on the color of the writing body.
  • the IR sensor 1310 can sense the color information of the writing body based on the intensity of the received reflected signal, and the processing unit 1202 can recognize the color of the writing body based on the color information of the writing body received by the IR sensor 1310 Can be determined.
  • the sensing signal may include a plurality of signals having different wavelengths.
  • the IR sensor 1310 may emit a sensing signal having three wavelengths of 700 nm (1401), 800 nm (1402), and 900 nm (1403).
  • the reflection signal reflected from the writing body may have different characteristics depending on the color of the writing body, and the characteristics may be different for each wavelength of the sensing signal. That is, when the intensity of the reflected signal varies according to the color of the writing body, the intensity of the reflected signal may vary according to each wavelength of the sensing signal.
  • the intensity of a reflected signal reflected from a black writing object may be different for each wavelength 1401-1403 of the sensing signal, as shown in a graph 1420 of FIG. Since the intensity of the reflected signal varies depending on the wavelength of the sensing signal, the processing unit 1202 can determine the color of the writing body by analyzing the intensity of the reflected signal for each wavelength of the sensing signal.
  • the color and the touch position of the writing body can be detected with only one sensing unit, the production cost of the electronic whiteboard 1300 can be reduced compared to the case where separate sensing units are provided for each, The degree of freedom of design is improved. Further, the color of the writing body can be detected without image capturing, and the color of the writing body can be determined more quickly.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Drawing Aids And Blackboards (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 전자칠판에 관한 것으로서, 전자칠판은, 디스플레이부; 상기 디스플레이부의 화면에 대한 필기체(體)의 터치 위치를 감지하는 제1감지부; 촬상을 수행하여 이미지를 얻는 제2감지부; 및 상기 제2감지부에서 촬상한 일련의 이미지를 대비하여 상기 이미지 내에 움직임이 존재하는 대상영역을 결정하고, 상기 결정된 대상영역에서 상기 필기체의 색상을 결정하고, 상기 디스플레이부의 화면에서 상기 필기체의 터치에 대응하는 위치에, 상기 결정된 색상을 가지는 영상을 표시하는 처리부를 포함한다. 이에 의하여, 전자칠판의 화면을 터치하는 필기체의 색상을 자동으로 인식하여 그 색상으로 필기체의 궤적을 화면에 표시함으로써, 사용자가 해당 필기체로 전자칠판에 직접 필기를 하는 듯한 사용자 경험을 제공할 수 있다.

Description

전자칠판 및 그 제어방법
본 발명은 전자칠판 및 그 제어방법에 관한 것으로서, 보다 구체적으로는 전자칠판의 화면을 터치하는 필기체(體)의 터치 위치 및 색상을 감지할 수 있는 전자칠판 및 그 제어방법에 관한 것이다.
터치를 감지하는 디스플레이장치를 이용하여 전자칠판이나 전자노트를 구현할 수 있다. 즉, 디스플레이장치의 화면을 터치하는 필기체(體)의 터치 위치를 감지하고 감지된 터치 위치가 이루는 궤적에 기초한 영상을 화면에 표시하는 디스플레이장치는 전자칠판 또는 전자노트의 기능을 수행할 수 있다.
디스플레이장치를 전자칠판의 용도로 사용할 경우, 전자칠판의 화면에 필기체의 궤적이 흑색 외의 다채로운 색상으로 표시되기를 원하는 사용자의 요구가 존재한다.
종래 기술 중 하나는, 전자칠판의 메뉴에서 필기체의 궤적에 따라 표시될 색상을 사용자가 선택할 수 있게 하는 UI를 제공함으로써 이를 해결하고자 하였다. 그러나 사용자가 색상 변경을 원할 때마다 매번 메뉴에서 희망 색상을 선택해야 하는 번거로움이 있었다.
이에 본 발명은, 전자칠판의 화면을 터치하는 필기체의 색상을 자동으로 인식하여 그 색상을 가지는 영상을 화면에 표시하는 전자칠판을 제공하는 것을 목적으로 한다.
또한 본 발명은, 전자칠판의 화면에 대한 필기체의 터치 위치를 감지하고 그에 따른 궤적을 표시하기 이전에, 빠르게 필기체의 색상을 인식하여 그 색상으로 궤적이 표시되도록 함으로써, 사용자가 파지하고 있는 필기체로 전자칠판에 직접 필기를 하는 듯한 사용자 경험을 제공하는 전자칠판을 제공하는 것을 목적으로 한다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 전자칠판은, 디스플레이부; 상기 디스플레이부의 화면에 대한 필기체(體)의 터치 위치를 감지하는 제1감지부; 촬상을 수행하여 이미지를 얻는 제2감지부; 및 상기 제2감지부에서 촬상한 일련의 이미지를 대비하여 상기 이미지 내에 움직임이 존재하는 대상영역을 결정하고, 상기 결정된 대상영역에서 상기 필기체의 색상을 결정하고, 상기 디스플레이부의 화면에서 상기 필기체의 터치에 대응하는 위치에, 상기 결정된 색상을 가지는 영상을 표시하는 처리부를 포함한다. 이에 의하면, 본 발명은 전자칠판의 화면을 터치하는 필기체의 색상을 자동으로 인식하여 그 색상으로 필기체의 궤적을 화면에 표시함으로써, 사용자가 해당 필기체로 전자칠판에 직접 필기를 하는 듯한 사용자 경험을 제공할 수 있다. 또한, 본 발명은 전자칠판의 화면에 대한 필기체의 터치 위치를 감지하기 이전에 빠르게 필기체의 색상을 인식하여 그 색상으로 궤적이 표시할 수 있으므로, 필기가 시작된 이후에야 해당 필기체의 색상이 반영되는 현상의 발생 없이, 필기의 시작부터 바로 해당 필기체의 색상으로 필기하는 사용자 경험 제공할 수 있다.
상기 처리부는, 기 설정된 복수의 색상 중에서 상기 대상영역의 색상에 가장 가까운 색상을 상기 필기체의 색상으로 결정할 수 있다. 이에 의하면, 필기체에 해당하는 물체의 구체적인 모양, 형태, 종류 등을 세부적으로 인식할 필요 없이, 대상영역으로부터 필기체의 색상을 빠르게 결정할 수 있다.
상기 처리부는, 상기 필기체와 이를 파지한 신체 사이의 상호 거리관계에 기초하여 상기 필기체의 색상을 결정할 수 있다. 이에 의하면, 필기체의 색상 결정의 대상이 되는 영역의 크기가 줄어들어 색상 인식 속도가 더욱 빨라질 수 있고, 필기체 색상 인식의 정확도도 향상될 수 있다.
상기 처리부는, 상기 대상영역의 색상분포의 밀집도에 기초하여 상기 필기체의 색상을 결정할 수 있다. 또한, 상기 처리부는, 상기 대상영역의 색상분포에서 필기체에 대응하지 않는 색상성분을 배제한 정보에 기초하여 상기 필기체의 색상을 결정할 수 있다. 이에 의하면, 필기체 색상 결정의 속도는 빠르게 유지하면서도 그 정확도를 더욱 향상시킬 수 있다.
상기 처리부는, 상기 대상영역에서 소정 방향으로 연속하여 나타나는 색상을 상기 필기체의 색상으로 결정할 수 있다. 이에 의하면, 필기체 색상 결정의 신뢰도를 높일 수 있다.
상기 처리부는, 상기 필기체에 대한 감지가 중단된 후 소정 시간 내에 다시 감지되면, 기 감지된 필기체의 색상을 유지할 수 있다. 이에 의하면, 사용자가 동일한 필기체를 이용하되 불연속적으로 필기를 계속하는 경우에 있어서, 한번 인식한 필기체의 색상을 그대로 다시 활용할 수 있어, 필기체의 색상을 더욱 빠르게 인식할 수 있다.
상기 처리부는 제1필기체와 제2필기체 각각에 대하여 이미지 내의 개별영역을 할당하여 각 필기체의 움직임을 감지할 수 있다. 이에 의하면, 복수의 필기체를 사용하는 경우에도 빠르게 필기체의 색상 인식을 할 수 있다.
상기 목적을 달성하기 위한 본 발명의 다른 실시예에 따른 전자칠판은, 디스플레이부; 감지신호를 이용하여 상기 디스플레이부에 대한 필기체(體)의 터치 위치 및 상기 감지신호가 필기체에서 반사된 반사신호에 기초하여 상기 필기체의 색상정보를 감지하는 적어도 하나의 제1감지부; 및 상기 디스플레이부의 화면에서 상기 필기체의 터치에 대응하는 위치에, 상기 감지한 색상정보에 기초하여 결정된 상기 필기체의 색상을 가지는 영상을 표시하는 처리부를 포함한다. 이에 의하면, 하나의 감지부만으로 필기체의 색상과 터치 위치를 모두 감지할 수 있으므로, 각각을 별도의 감지부를 통해 감지하는 경우에 비해 전자칠판의 생산비용을 절감할 수 있고 디자인 측면에서도 설계의 자유도가 향상된다. 또한, 이미지 촬상을 하지 않고도 필기체의 색상을 감지할 수 있게 되어 필기체의 색상을 더욱 빠르게 결정할 수 있다.
여기서 상기 감지신호는 파장이 서로 다른 복수의 신호를 포함할 수 있다. 또한, 상기 제1감지부는 적외선신호를 발신하는 신호발신부 및 적외선신호를 수신하는 신호수신부를 포함할 수 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 전자칠판의 제어방법은, 촬상한 일련의 이미지를 대비하여 상기 이미지 내에 움직임이 존재하는 대상영역을 결정하는 단계; 상기 결정된 대상영역에서 상기 필기체의 색상을 결정하는 단계; 상기 전자칠판의 화면에 대한 필기체(體)의 터치 위치를 감지하는 단계; 및 상기 전자칠판의 화면에서 상기 필기체의 터치에 대응하는 위치에, 상기 결정된 색상을 가지는 영상을 표시하는 단계를 포함한다. 이에 의하면, 본 발명은 전자칠판의 화면을 터치하는 필기체의 색상을 자동으로 인식하여 그 색상으로 필기체의 궤적을 화면에 표시함으로써, 사용자가 해당 필기체로 전자칠판에 직접 필기를 하는 듯한 사용자 경험을 제공할 수 있다. 또한, 본 발명은 전자칠판의 화면에 대한 필기체의 터치 위치를 감지하기 이전에 빠르게 필기체의 색상을 인식하여 그 색상으로 궤적이 표시할 수 있으므로, 필기가 시작된 이후에야 해당 필기체의 색상이 반영되는 현상의 발생 없이, 필기의 시작부터 바로 해당 필기체의 색상으로 필기하는 사용자 경험 제공할 수 있다.
상기 필기체의 색상을 결정하는 단계는, 기 설정된 복수의 색상 중에서 상기 대상영역의 색상에 가장 가까운 색상을 상기 필기체의 색상으로 결정할 수 있다. 이에 의하면, 필기체에 해당하는 물체의 구체적인 모양, 형태, 종류 등을 세부적으로 인식할 필요 없이, 대상영역으로부터 필기체의 색상을 빠르게 결정할 수 있다.
상기 필기체의 색상을 결정하는 단계는, 상기 필기체와 이를 파지한 신체 사이의 상호 거리관계에 기초하여 상기 필기체의 색상을 결정할 수 있다. 이에 의하면, 필기체의 색상 결정의 대상이 되는 영역의 크기가 줄어들어 색상 인식 속도가 더욱 빨라질 수 있고, 필기체 색상 인식의 정확도도 향상될 수 있다.
상기 필기체의 색상을 결정하는 단계는, 상기 대상영역의 색상분포의 밀집도에 기초하여 상기 필기체의 색상을 결정할 수 있다. 또한, 상기 필기체의 색상을 결정하는 단계는, 상기 대상영역의 색상분포에서 필기체에 대응하지 않는 색상성분을 배제한 정보에 기초하여 상기 필기체의 색상을 결정할 수 있다. 이에 의하면, 필기체 색상 결정의 속도는 빠르게 유지하면서도 그 정확도를 더욱 향상시킬 수 있다.
상기 필기체의 색상을 결정하는 단계는, 상기 대상영역에서 소정 방향으로 연속하여 나타나는 색상을 상기 필기체의 색상으로 결정할 수 있다. 이에 의하면, 필기체 색상 결정의 신뢰도를 높일 수 있다.
상기 필기체의 색상을 결정하는 단계는, 상기 필기체에 대한 감지가 중단된 후 소정 시간 내에 다시 감지되면, 기 감지된 필기체의 색상을 유지할 수 있다. 이에 의하면, 사용자가 동일한 필기체를 이용하되 불연속적으로 필기를 계속하는 경우에 있어서, 한번 인식한 필기체의 색상을 그대로 다시 활용할 수 있어, 필기체의 색상을 더욱 빠르게 인식할 수 있다.
상기 대상영역을 결정하는 단계는, 제1필기체와 제2필기체 각각에 대하여 이미지 내의 개별영역을 할당하여 각 필기체의 움직임을 감지할 수 있다. 이에 의하면, 복수의 필기체를 사용하는 경우에도 빠르게 필기체의 색상 인식을 할 수 있다.
상기 목적을 달성하기 위한 본 발명의 다른 실시예에 따른 전자칠판의 제어방법은, 감지신호를 이용하여 상기 전자칠판에 대한 필기체(體)의 터치 위치 및 상기 감지신호가 필기체에서 반사된 반사신호에 기초하여 상기 필기체의 색상정보를 감지하는 단계; 및 상기 전자칠판의 화면에서 상기 필기체의 터치에 대응하는 위치에, 상기 감지한 색상정보에 기초하여 결정된 상기 필기체의 색상을 가지는 영상을 표시하는 단계를 포함한다. 이에 의하면, 하나의 감지부만으로 필기체의 색상과 터치 위치를 모두 감지할 수 있으므로, 각각을 별도의 감지부를 통해 감지하는 경우에 비해 전자칠판의 생산비용을 절감할 수 있고 디자인 측면에서도 설계의 자유도가 향상된다. 또한, 이미지 촬상을 하지 않고도 필기체의 색상을 감지할 수 있게 되어 필기체의 색상을 더욱 빠르게 결정할 수 있다.
상기 감지신호는 파장이 서로 다른 복수의 신호를 포함할 수 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 컴퓨터프로그램은, 전자칠판과 결합되어 위 제어방법을 실행시키기 위하여 매체에 저장된 컴퓨터프로그램이다.
상기 컴퓨터프로그램은 서버 내의 매체에 저장되고 네트워크를 통해 상기 전자칠판에 다운로드 될 수 있다.
상기한 바와 같이, 본 발명에 의하면, 전자칠판의 화면을 터치하는 필기체의 색상을 자동으로 인식하여 그 색상으로 필기체의 궤적을 화면에 표시할 수 있다.
또한 본 발명에 의하면, 전자칠판의 화면에 대한 필기체의 터치 위치를 감지하고 그에 따른 궤적을 표시하기 이전에, 빠르게 필기체의 색상을 인식하여 그 색상으로 궤적이 표시되도록 함으로써, 사용자가 필기체로 전자칠판에 직접 필기를 하는 듯한 사용자 경험을 제공할 수 있다.
도 1은 본 발명의 일 실시예에 따른 전자칠판을 나타내는 도면,
도 2는 본 발명의 일 실시예에 따른 전자칠판의 구성을 나타내는 도면,
도 3은 본 발명의 일 실시예에 따른 전자칠판의 제어방법을 나타내는 도면,
도 4는 본 발명의 일 실시예에 따른 제2감지부의 일 예를 나타내는 도면,
도 5는 본 발명의 일 실시예에 따른 대상영역 결정방법의 일 예를 나타내는 도면,
도 6은 본 발명의 일 실시예에 따른 필기체의 색상 결정 방법의 일 예를 포함한 전자칠판의 제어방법을 나타내는 도면,
도 7은 본 발명의 일 실시예에 따른 필기체의 색상 결정 방법의 다른 예를 나타내는 도면,
도 8은 본 발명의 일 실시예에 따른 필기체의 색상 결정 방법의 또 다른 예를 나타내는 도면,
도 9는 본 발명의 일 실시예에 따른 필기체의 색상 결정 방법의 또 다른 예를 나타내는 도면,
도 10은 본 발명의 일 실시예에 따른 필기체의 색상 결정 방법의 또 다른 예를 나타내는 도면,
도 11은 본 발명의 다른 실시예에 따른 전자칠판의 사용예를 나타내는 도면,
도 12는 본 발명의 또 다른 실시예에 따른 전자칠판의 구성을 나타내는 도면,
도 13은 본 발명의 또 다른 실시예에 따른 전자칠판의 일 예를 나타내는 도면,
도 14는 본 발명의 또 다른 실시예에 따른 전자칠판의 색상 감지 방법을 나타내는 도면.
이하에서는 첨부 도면을 참조하여 본 발명의 실시예들을 상세히 설명한다. 도면에서 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 구성요소를 지칭하며, 도면에서 각 구성요소의 크기는 설명의 명료성과 편의를 위해 과장되어 있을 수 있다. 다만, 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 이하의 실시예에 설명된 구성 또는 작용으로만 한정되지는 않는다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다.
본 발명의 실시예에서, 제1, 제2 등과 같이 서수를 포함하는 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 본 발명의 실시예에서, '구성되다', '포함하다', '가지다' 등의 용어는 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 또한, 본 발명의 실시예에서, '모듈' 혹은 '부'는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있으며, 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서로 구현될 수 있다.
도 1은 본 발명의 일 실시예에 따른 전자칠판(100)을 도시한다. 본 발명의 일 실시예에 따른 전자칠판(100)은, 예컨대, TV로 구현될 수 있다. 또한, 본 발명의 다른 실시예에 따른 전자칠판(100)은, 예컨대, 스마트폰, 태블릿, 모바일폰, 스마트워치, 헤드 마운트형 디스플레이(Head-Mounted Display) 등의 웨어러블 디바이스, 컴퓨터, 멀티미디어 재생기, 전자액자, 디지털 광고판, LFD(Large Format Display), 디지털 싸이니지, 셋탑박스, 냉장고 등의 장치로 구현될 수 있다. 그러나 본 발명의 일 실시예에 따른 전자칠판(100)은 이에 한정되지 않고, 터치를 감지하고 영상을 출력할 수 있는 장치라면 무엇이든 가능하다.
도 2는 본 발명의 일 실시예에 따른 전자칠판(100)의 구성을 도시한다. 본 발명의 일 실시예에 따른 전자칠판(100)은 제1감지부(201), 제2감지부(202), 처리부(203) 및 디스플레이부(204)를 포함한다. 다만, 도 2에 도시된 본 전자칠판(100)의 구성은 하나의 예시일 뿐이며, 본 발명의 일 실시예에 의한 전자칠판(100)은 다른 구성으로도 구현될 수 있다. 즉, 본 발명의 일 실시예에 의한 전자칠판(100)은 도 2에 도시된 구성 외에 다른 구성이 추가되거나, 혹은 도 2에 도시된 구성 중 일부가 배제되어 구현될 수도 있다.
제1감지부(201)는 디스플레이부(204)의 화면에 대한 필기체(體)의 터치 위치를 감지한다. 여기서 필기체란, 디스플레이부(204)의 화면을 터치하여 필기 궤적을 남길 수 있는 물체를 의미하는 것으로서, 물체의 종류에 특별한 제한은 없다. 예를 들어, 필기체는 스타일러스 펜일 수 있고, 일반 펜이나 막대 등과 같이 얇고 가는 물체일 수도 있으며, 레고 블록이나 장난감, 과일 등과 같이 일반적으로 펜과는 관련성이 높지 않은 물체일 수도 있다. 나아가 사람의 신체도 필기체에 해당할 수 있다.
제1감지부(201)는 필기체의 접촉 또는 압력을 감지할 수 있는 모든 종류의 센서로 구현 가능하다. 예를 들어, 제1감지부(201)는 정전용량 방식(capacitive overlay), 압력식 저항막 방식(resistive overlay), 적외선 감지 방식(infrared beam) 등의 터치 감지 센서 또는 압력 센서(pressure sensor)로 구성될 수 있다. 제1감지부(201)는 필기체의 터치 입력을 수신하면 수신신호를 발생시켜 이를 처리부(203)로 전송한다.
제2감지부(202)는 디스플레이부(204) 주변에 대한 촬상을 수행하여 이미지를 생성한다. 제2감지부(202)는 특히 디스플레이부(204)의 화면을 터치하고자 하는 필기체를 촬상하여 이미지를 생성한 후 이를 처리부(203)로 전송한다.
제2감지부(202)는, 예를 들어, 카메라로 구현될 수 있다. 카메라는 광이 수신되는 렌즈와, 이를 통하여 입력되는 광을 감지하는 CMOS(Complementary Metal Oxide Semiconductor) 또는 CCD(Charge-coupled device) 이미지 센서로 구현될 수 있다.
처리부(203)는 제1감지부(201) 및 제2감지부(202)에서 전송한 신호에 기초하여 영상 처리를 수행하고 그 결과가 디스플레이부(204)에 표시되도록 한다. 처리부(203)는, 이상 언급된 처리를 수행하는 하나 이상의 하드웨어 및/또는 소프트웨어 모듈 혹은 그 조합으로서 구현될 수 있다.
처리부(202)는, 전자칠판(100)의 제반 구성들이 동작하기 위한 제어를 수행할 수 있다. 예를 들어 처리부(203)는 제1감지부(201)가 터치입력을 수신하도록 제어하고, 제2감지부(202)가 촬상을 수행하여 이미지를 얻도록 제어하며, 디스플레이부(204)가 영상을 표시하도록 제어할 수 있다.
처리부(202)는 위와 같은 제어 동작을 수행할 수 있도록 하는 제어프로그램(혹은 인스트럭션)과, 제어프로그램이 설치되는 비휘발성의 메모리, 설치된 제어프로그램의 적어도 일부가 로드되는 휘발성의 메모리 및 로드된 제어프로그램을 실행하는 적어도 하나의 프로세서 혹은 CPU(Central Processing Unit)를 포함할 수 있다. 또한, 이와 같은 제어프로그램은, 전자칠판(100) 이외의 다른 전자기기에도 저장될 수 있다.
제어프로그램은 BIOS, 디바이스드라이버, 운영체계, 펌웨어, 플랫폼 및 응용프로그램(어플리케이션) 중 적어도 하나의 형태로 구현되는 프로그램(들)을 포함할 수 있다. 일 실시예로서, 응용프로그램은, 전자칠판(100)의 제조 시에 전자칠판(100)에 미리 설치 또는 저장되거나, 혹은 추후 사용 시에 외부로부터 응용프로그램의 데이터를 수신하여 수신된 데이터에 기초하여 전자칠판(100)에 설치될 수 있다. 응용프로그램의 데이터는, 예컨대, 어플리케이션 마켓과 같은 외부 서버로부터 전자칠판(100)으로 다운로드될 수도 있으나, 이에 한정되는 것은 아니다.
한편, 처리부(203)는 device, S/W module, circuit, chip 등의 형태로 구현될 수 있다. 또한, 도 2에 도시된 전자칠판(100)은 하나의 처리부(203)에서 처리와 제어를 함께 수행하는 구성으로 구현된 것을 나타내나, 이는 하나의 예시일 뿐이며, 본 발명의 다른 실시예에 의한 전자칠판(100)은 처리부와 별도로 제어부를 추가 구비한 구성으로 구현될 수도 있다.
디스플레이부(204)는, 디스플레이부의 화면에 대한 필기체의 터치에 대응하여 영상을 표시할 수 있다. 디스플레이부(204)의 구현 방식은 한정되지 않으며, 예컨대 액정(Liquid Crystal), 플라즈마(Plasma), 발광 다이오드(Light-Emitting Diode), 유기발광 다이오드(Organic Light-Emitting Diode), 면전도 전자총(Surface-Conduction Electron-Emitter), 탄소 나노 튜브(Carbon Nano-Tube), 나노 크리스탈(Nano-Crystral) 등의 다양한 디스플레이 방식으로 구현될 수 있다. 디스플레이부(204)는, 액정 방식인 경우에, 액정 디스플레이 패널과 액정 디스플레이 패널에 광을 공급하는 백라이트유닛과, 액정 디스플레이 패널을 구동시키는 패널구동부 등을 포함한다. 디스플레이부(204)는, 백라이트유닛 없이, 자발광 소자인 OLED 패널로 구현될 수 있다.
이하 본 발명의 일 실시예에 따른 전자칠판(100)의 처리부(203)의 작동을 구체적으로 설명한다.
본 발명의 일 실시예에 따른 전자칠판(100)의 처리부(203)는, 제2감지부(202)에서 촬상한 일련의 이미지를 대비하여 상기 이미지 내에 움직임이 존재하는 대상영역을 결정한다. 여기서 대상영역이란, 제2감지부(202)가 촬상한 이미지 내에서 필기체의 색상을 결정하기 위한 처리의 대상이 되는 영역으로서, 필기체의 움직임이 존재하는 것으로 예상되는 영역을 말한다. 대상영역을 결정하는 구체적인 방법은 후술한다.
다음으로 처리부(203)는, 상기 결정된 대상영역에서 필기체의 색상을 결정한다. 대상영역에서 필기체의 색상을 결정하는 구체적인 방법은 후술한다.
이후 처리부(203)는, 디스플레이부(204)의 화면에서 필기체의 터치에 대응하는 위치에, 상기 결정된 색상을 가지는 영상을 표시한다.
이에 의하면, 본 발명은 디스플레이부(204)의 화면을 터치하는 필기체의 색상을 자동으로 인식하여 그 색상으로 필기체의 궤적을 화면에 표시함으로써, 사용자가 해당 필기체로 전자칠판(100)에 직접 필기를 하는 듯한 사용자 경험을 제공할 수 있다.
또한, 앞서 살펴본 바와 같이, 본 발명의 일 실시예에 따른 전자칠판(100)의 처리부(203)는, 제2감지부(202)에서 촬상한 일련의 이미지를 대비하여 상기 이미지 내에 움직임이 존재하는 대상영역을 결정하고, 상기 결정된 대상영역에서 상기 필기체의 색상을 바로 결정한다. 즉, 처리부(203)는 제2감지부(202)가 촬상한 이미지 내에서 필기체에 해당하는 물체의 구체적인 모양, 형태, 종류 등을 세부적으로 인식한 후 인식된 해당 물체의 색상을 판별하는 과정 없이, 전자칠판(100)에 대하여 움직임이 존재하는 대상영역을 빠르게 추출한다. 그에 따라 상대적으로 많은 처리 과정과 시간을 요하는 오브젝트 추출 알고리즘 등을 별도로 적용하지 않아도 되므로, 간이하고 신속한 처리가 가능하다. 또한, 이미지 중에서 대상영역에 대해서만 색상 판단 알고리즘을 적용하고 나머지 영역에 대해서는 이를 적용하지 않으므로, 더욱 간이하고 신속한 처리가 가능하다. 따라서, 필기체의 색상을 신속하게 판단할 수 있다.
이에 의하면, 본 발명은 전자칠판(100)의 화면에 대한 필기체의 터치 위치를 감지하기 이전에 빠르게 필기체의 색상을 인식하여 그 색상으로 궤적이 표시할 수 있으므로, 필기가 시작된 이후에야 해당 필기체의 색상이 반영되는 현상의 발생 없이, 필기의 시작부터 바로 해당 필기체의 색상으로 필기하는 사용자 경험을 제공할 수 있다.
이하 도 3을 참조하여 본 발명의 일 실시예에 따른 전자칠판(100)의 제어방법을 더욱 구체적으로 설명한다. 도 3는 본 발명의 일 실시예에 따른 전자칠판(100)의 제어방법을 도시한다.
본 발명의 일 실시예에 따른 전자칠판(100)의 처리부(203)는, 제2감지부(202)가 디스플레이부(204) 주변을 촬상하여 이미지를 얻도록 제2감지부(202)를 제어한다(S301). 예를 들어, 제2감지부(202)는, 도 4와 같이, 전자칠판(100)의 일 측면에 위치하여 디스플레이부(204)의 화면(101)이 향하는 방향에 있는 소정 영역(220; 이하 '촬상 영역'이라고도 함)을 촬상할 수 있다. 그러나 제2감지부(202)의 위치 및 촬상 영역(220)은 도 4의 도시에 한정되지 않고, 디스플레이부(204)의 화면(101)에 필기하려는 필기체의 움직임을 감지할 수 있는 위치와 영역이라면 어디든 가능하다. 제2감지부(202)가 디스플레이부(204) 주변을 촬상함에 따라 얻어진 이미지는 처리부(203)로 전송된다.
제2감지부(202)로부터 이미지를 수신한 처리부(203)는, 디스플레이부(204)의 화면(101)에 대하여 필기를 하기 위한 움직임이 발생했는지를 판단한다(S302). 그 판단 방법의 일 예는, 이전 프레임의 이미지와 현 프레임의 이미지 사이의 변화량을 측정하는 것이다. 예를 들어, 처리부(203)는 두 이미지의 각 픽셀값 차이의 총합이 소정값 이상일 경우 필기를 하기 위한 움직임이 발생한 것으로 판단할 수 있다. 즉, 이미지의 구체적인 내용이나 이미지 내의 특정 영역에 대한 구체적인 분석 없이도 움직임 발생 여부를 판단할 수 있다. 여기서 소정값은 기 설정된 값으로서, 그 설정에 따라 움직임 감지의 민감도가 달라질 수 있다. 예를 들어, 소정값이 크게 설정되면 필기를 하기 위한 움직임 감지는 다소 둔감해질 수 있고, 소정값이 작게 설정되면 움직임 감소는 다소 민감해질 수 있다. 소정값은 사용자에 의해 설정될 수도 있고, 전자칠판(100)에 의해 자동으로 설정 또는 조정될 수도 있다.
이상과 같이 이미지 사이의 변화량이 소정값 이상인 경우에만 필기를 하기 위한 움직임이 발생한 것으로 판단하고 다음 단계를 진행함으로써, 처리부(203)는 실질적으로 필기를 하기 위한 움직임이 아닌 경미한 움직임이나 변화가 발생한 경우에는 필기체의 색상 판단으로 나아가는 것을 방지할 수 있다.
움직임 감지(판단) 방법의 다른 예로, 현 프레임의 이미지를 복수의 이전 프레임의 이미지와 비교할 수도 있다. 이에 대해서는 아래 대상영역을 결정할 때의 비교 프레임(참조이미지) 선택 방법이 모두 적용 가능하므로, 자세한 방법은 이후 대상영역 결정 방법 설명 시 상술한다.
필기를 하기 위한 움직임이 발생한 것으로 판단된 경우, 처리부(203)는 제2감지부(202)에서 촬상한 일련의 이미지를 대비하여 이미지 내에서 움직임이 존재하는 대상영역을 결정한다.
도 5를 참조하여 대상영역 결정 방법을 보다 구체적으로 설명한다.
대상영역 결정 방법의 일 예로, 처리부(203)는 움직임 발생 판단 시점에 촬상한 현재이미지(501)를, 그 이전 시점에 촬상한 적어도 하나의 참조이미지(502)와 대비하여 대상영역(503)을 결정할 수 있다. 여기서 참조이미지란, 사용자가 필기체를 이용하여 디스플레이의 화면(101)에 대한 필기를 하지 않은 시점에 촬상된 이미지를 말한다. 그 경우, 현재이미지(501)와 참조이미지(502)를 비교하면, 현재이미지 중 전자칠판(100)에 대하여 실질적으로 움직임이 발생한 영역(503)을 도출할 수 있다.
예를 들어, 사용자가 필기체를 파지하고 전자칠판(100)으로 근접한 경우, 현재이미지에는 디스플레이부(204)의 화면(101) 주변의 배경 위에 사용자의 손과 필기체가 포함되어 있는 반면, 참조이미지에는 디스플레이부(204)의 화면(101) 주변의 배경만이 포함되어 있다. 따라서 현재이미지에서 참조이미지와 동일한 부분을 제거하면 사용자의 손과 필기체만이 남게 되고(503) 나머지 배경은 제거된다.
이에 의하면, 필기체 색상 결정 시, 실질적인 움직임이 없었던 디스플레이 주변의 배경은 고려 대상에서 제외할 수 있으므로, 필기체 색상 결정 속도가 향상된다.
현재이미지와 비교함에 있어서 참조이미지는 하나만 사용할 수도 있고 복수 개 사용할 수도 있다. 하나의 참조이미지만을 사용할 경우, 참조이미지는 일정 시간 간격으로 계속적으로 새로운 프레임으로 변경될 수 있다. 복수 개의 참조이미지를 사용하여 대상영역을 결정하는 경우, 대상영역 결정 시 고려할 참조이미지의 범위는 다양하게 설정 가능하다. 일 예로, 현 시점을 기준으로 가장 최근에 촬상된 소정 개수, 예를 들어 10개의 참조이미지들만을 현재이미지와 비교하여 대상영역을 결정할 수도 있고, 다른 예로, 현 시점에 이르기까지 촬상된 모든 참조이미지들을 전부 활용하여 이를 현재이미지와 비교하여 대상영역을 결정할 수도 있다. 복수 개의 참조이미지를 사용할 경우, 각 참조이미지들에 대하여 가중치를 서로 다르게 설정함으로써, 현재이미지에 시간적으로 근접한 정도에 따라 해당 참조이미지의 고려 정도를 조절할 수도 있다. 이상과 같이 복수 개의 참조이미지를 사용하여 대상영역을 결정할 경우, 대상영역 결정 시 더 많은 시점의 배경 정보를 반영할 수 있게 됨에 따라 배경에서의 일시적인 변화는 배경이 아닌 것으로 처리되므로, 대상영역 추출의 신뢰도를 높일 수 있다.
다시 도 3을 참조하면, 위 방법을 통해 대상영역을 결정한 처리부(203)는, 결정된 대상영역에서 필기체의 색상을 결정한다(S304). 대상영역에서 필기체의 색상을 결정하는 방법은 다양한 방법이 가능하다. 일 예로, 처리부(203)는 대상 영역에서 가장 많은 면적을 차지하는 부분의 색을 필기체의 색상으로 결정할 수 있다. 이 경우 처리부(203)는 대상영역의 각 픽셀의 픽셀값 중 가장 많이 나타난 값을 구함으로써 가장 많은 면적을 차지하는 부분의 색을 도출할 수 있다. 다른 예로, 처리부(203)는 대상영역의 대표색을 구하고, 기 설정된 복수의 색상 중에서 대상영역의 대표색에 가장 가까운 색상을 해당 색상을 필기체의 색상으로 결정할 수도 있다(도 6 참조). 예를 들어, 빨강, 주황, 노랑, 초록, 파랑, 남색, 보라, 검정의 8가지 색상을 기 설정된 복수의 색상으로 설정한 경우, 처리부(203)는 대상영역의 대표색으로서 모든 픽셀값의 평균값을 이들 8가지 색상과 비교하여 가장 근접한 색상을 필기체의 색상으로 결정할 수 있다. 나아가 처리부(203)는 위 두 예를 결합할 수도 있다. 즉, 처리부(203)는 대상영역의 각 픽셀에 대하여 기 설정된 복수의 색상 중 가장 근접한 색상을 각 픽셀의 색상값으로 재지정한 후, 그 중에서 가장 많이 나타난 색상을 필기체의 색상으로 결정할 수도 있다. 이에 의하면, 제2감지부(202)가 촬상한 이미지 내에서 필기체에 해당하는 물체의 구체적인 모양, 형태, 종류 등을 세부적으로 인식할 필요 없이, 대상영역으로부터 필기체의 색상을 빠르게 결정할 수 있다. 대상영역으로부터 필기체의 색상을 빠르게 결정할 수 있는 또 다른 방법은 후술한다.
이상 설명한 도 3의 처리 과정(S301-S304)은 필기체가 디스플레이부(204)의 화면(101)에 근접하여 터치되기 전까지의 시간동안 제2감지부(202) 및 처리부(203)에서 수행되는 과정이다. 한편, 필기체가 디스플레이부(204)의 화면(101)에 터치하게 되면, 제1감지부(201)는 디스플레이부(204)의 화면(101)에 대한 필기체의 터치 위치를 감지한다(S305). 본 발명의 일 실시예에 의하면, 제2감지부(202) 및 처리부(203)에서 디스플레이부(204)의 화면(101)에 근접하는 필기체의 움직임을 감지하여 필기체의 색상을 결정하는 처리를 빠르게 수행할 수 있으므로, 늦어도 제1감지부(201)에서 필기체의 터치 위치를 감지하는 때까지는 필기체의 색상을 결정할 수 있다. 따라서 처리부(203)는 필기체의 터치에 대응하는 위치에, 결정된 색상을 가지는 영상을 표시할 수 있게 되므로(S306), 필기가 시작된 이후에야 해당 필기체의 색상이 반영되는 현상의 발생 없이, 필기의 시작부터 바로 해당 필기체의 색상으로 필기하는 사용자 경험 제공할 수 있다.
본 발명의 실 실시예에 따른 전자칠판(100)의 처리부(203)는, 처리부(203)의 처리 속도 내지 제2감지부(202)의 프레임 감지 속도, 촬상 영역과 제2감지부(202)와의 거리 등에 따라 촬상 영역(220)의 크기를 변경할 수 있다. 예를 들어, 처리부(203)는 처리부(203)의 속도가 빠를수록, 제2감지부(202)의 프레임 감지 속도가 빠를수록, 또는 촬상 영역과 제2감지부(202)와의 거리가 가까울수록 촬상 영역(220)의 크기를 작게 설정할 수 있다. 그 경우 촬상 영역의 작더라도 빠르게 움직이는 필기체를 감지하여 그로부터 색상을 빠르게 추출해낼 수 있으므로 촬상 영역의 크기를 작게 설정하는 것이 가능하다. 이처럼 촬상 영역 자체가 작아지는 경우, 그로부터 추출된 대상 영역도 작아지게 되어 그로부터 필기체의 색상을 결정하는 처리의 속도는 더욱 빨라질 수 있다.
또는, 위와 같이 촬상 영역(220) 자체의 크기를 변경하는 대신, 촬상 영역에서 고화질의 영상을 통해 세부적으로 분석할 영역의 크기를 제한하는 것도 가능하다. 예를 들어, 촬상 영역(220) 전체에 대해서는 VGA 화질의 영상을 통해 움직임이 존재하는 대상 영역을 결정한 후, 처리부(203)의 처리 속도 내지 제2감지부(202)의 프레임 감지 속도, 촬상 영역과 제2감지부(202)와의 거리 등의 요소를 고려하여, SVGA, HD, FHD 등의 고화질 영상으로 분석을 수행하여 필기체의 색상을 결정할 영역을 한정할 수도 있다. 이에 의하면, 필기체 색상 결정의 속도는 빠르게 유지하면서도 그 정확도를 향상시킬 수 있다.
대상영역으로부터 필기체의 색상을 빠르게 결정하는 다른 방법으로서, 본 발명의 일 실시예에 따른 전자칠판(100)의 제어부(203)는, 필기체와 이를 파지한 신체 사이의 상호 거리관계에 기초하여 필기체의 색상을 결정할 수 있다. 도 7을 참조하여 이를 설명한다.
사용자는 필기체를 사용자의 신체, 예를 들어 손으로 잡은 상태로 디스플레이 화면(101)에 필기체를 근접시키고 필기를 수행하는 경우가 많다. 이 경우 움직임이 존재하는 대상영역에는 필기체 외에 사용자의 손도 포함될 수 있다. 이 때 사용자의 손에 해당하는 영역을 배제하고 나머지 영역으로부터 필기체의 색상을 결정할 수 있다면 필기체 색상 결정의 신뢰도를 높일 수 있다.
이를 위해 처리부(203)는 필기체와 이를 파지한 신체 사이의 상호 거리관계에 기초하여 필기체의 색상을 결정할 수 있다. 예를 들어, 디스플레이의 화면(101)에 접촉하는 필기체의 일단으로부터 사용자가 손으로 필기체를 잡은 부분까지의 소정 높이에 따라, 처리부(203)는 대상영역(503) 중에서 디스플레이화면(101)에 소정 높이 이내로 근접한 영역(701)만을 고려하여 필기체의 색상을 결정할 수 있다. 여기서 소정 높이는 미리 정해져 있을 수 있고 입력을 통해 설정할 수도 있으며, 사용자별로 다르게 설정할 수도 있다.
이에 의하면, 필기체의 색상 결정의 대상이 되는 영역의 크기가 감소함에 따라 색상 인식 속도를 향상시킬 수 있는 동시에, 필기체 색상 인식의 정확도도 향상될 수 있다.
대상영역으로부터 필기체의 색상을 빠르게 결정하는 또 다른 방법으로서, 처리부(203)는 대상영역(503)의 색상분포의 밀집도에 기초하여 상기 필기체의 색상을 결정할 수 있다. 도 8을 참조하여 이를 설명한다.
도 8은 대상영역(503)의 색상정보를 분석한 그래프를 도시한다. 대상영역(503)의 색상분포를 나타내는 그래프가 도 8의 801과 같을 경우(가로축이 색상, 세로축이 분포 정도), 색상분포의 정도가 상대적으로 높은 4개의 색상(810-813) 중에서 811 색상이 그 밀집도가 가장 높다. 따라서 처리부(203)는 811 색상을 필기체의 색상으로 결정할 수 있다.
이에 의하면, 필기체 색상 결정의 속도는 빠르게 유지하면서도 그 정확도를 향상시킬 수 있다. 다만, 대상영역의 색상분포의 밀집도를 분석하는 방법이 위와 같은 그래프 분석 방법에 한정되는 것은 아니다.
대상영역으로부터 필기체의 색상을 빠르게 결정하는 또 다른 방법으로서, 처리부(203)는, 대상영역의 색상분포에서 필기체에 대응하지 않는 색상성분(이하, '노이즈성분'이라고도 함)을 배제한 정보에 기초하여 상기 필기체의 색상을 결정할 수 있다. 도 9를 참조하여 이를 설명한다.
대상영역(503)의 색상분포를 나타내는 그래프가 도 9의 901과 같을 경우, 대상영역(503)의 색상분포 그래프(901)에 있어서는 2개의 색상(911, 913)이 그 밀집도에 있어서 유사하게 높은 수치를 보이므로, 처리부(203)로서는 둘 중 어느 색을 필기체의 색상으로 할지 명확하게 결정하기 어려울 수 있다.
이 때 처리부(203)는 대상영역의 색상분포에서 노이즈성분을 배제한 정보를 참조할 수 있다. 노이즈성분은, 예컨대, 사용자의 신체에 대응하는 색상성분일 수 있다. 구체적으로, 사용자의 신체, 예를 들어 손에 대응하는 색상성분의 색상분포를 나타내는 그래프가 902와 같을 경우, 처리부(203)는 대상영역(503)의 색상분포 그래프(901)에서 사용자의 손에 대응하는 색상성분의 색상분포를 나타내는 그래프(902)의 값을 뺀 새로운 그래프(903)를 도출한 후, 그 중에서 색상분포의 밀집도가 가장 높은 911 색상을 필기체의 색상으로 결정할 수 있다. 즉, 사용자의 손에 대응하는 색상성분인 913 색상은 필기체 색상 결정 시 배제할 수 있다.
이에 의하면, 필기체 색상 결정의 속도는 빠르게 유지하면서도 그 정확도를 더욱 향상시킬 수 있다.
대상영역으로부터 필기체의 색상을 빠르게 결정하는 또 다른 방법으로서, 처리부(203)는, 대상영역에서 소정 방향으로 연속하여 나타나는 색상을 상기 필기체의 색상으로 결정할 수 있다. 도 10을 참조하여 이를 설명한다.
본 발명의 또 다른 실시예에 따른 전자칠판(100)의 처리부(203)는, 제2감지부(202)가 디스플레이부(204) 주변을 촬상하여 이미지를 전송하도록 제2감지부(202)를 제어한다(S1001). 제2감지부(202)로부터 이미지를 수신한 처리부(203)는, 디스플레이부(204)의 화면(101)에 대하여 필기를 하기 위한 움직임이 발생했는지를 감지한다(S1002). 필기를 하기 위한 움직임이 발생한 것으로 판단된 경우, 처리부(203)는 제2감지부(202)에서 촬상한 일련의 이미지를 대비하여 이미지 내에 움직임이 존재하는 대상영역을 결정한다(S1003). 위 각 단계의 구체적인 작동은 앞서 살펴본 내용이 모두 적용 가능하므로 생략한다.
대상영역을 결정한 후, 처리부(203)는 대상영역에서 소정 방향으로 연속하여 나타나는 색상을 필기체의 색상으로 결정한다(S1004). 전자칠판(100)의 사용자는 일상적으로 사용하는 사물들 중에서 필기체(體)로 사용할 사물을 선택함에 있어서, 그 형상이 불규칙하거나 비전형적인 사물 보다는 형상이 고정적이고 전형적인 사물, 예를 들어 막대 형태나 직사각형 등의 모양을 갖는 사물을 택하는 경향이 있을 수 있다. 또한 그 필기체는 그 형상 내에서 전체적으로 동종의 색상으로 이루어진 경우가 많을 수 있다. 그 경우 필기체는 대상영역 내에서 소정 색상이 소정 방향으로 연속하여 나타나게 되므로 처리부(203)는 이러한 특성을 활용하여 필기체의 색상을 결정할 수 있다.
대상영역 내에서 소정 방향으로 연속하여 나타나는 색상을 파악하는 방법으로는 다양한 방법이 가능하다. 일 예는, 대상영역의 각 픽셀을 노드(Node)로 하고, 각 픽셀의 색상값과 그 주변 픽셀의 색상값을 비교하여 동종의 색상값을 띠는 경우 그 픽셀들을 에지(Edge)로 연결하는 그래프를 생성한 후, 생성된 여러 그래프 중에서 한 방향으로 가장 길게 연결된 그래프를 찾아 그에 속한 픽셀의 색상값을 필기체의 색상값으로 결정할 수 있다.
처리부(203)는 이상의 과정을 거쳐 결정된 색상을 가지는 영상을, 필기체의 터치에 대응하는 위치에 표시한다(S1005).
이에 의하면, 필기체의 일반적인 속성을 활용하여 필기체의 색상을 결정할 수 있으므로, 필기체 색상 결정의 신뢰도를 높일 수 있다.
본 발명의 또 다른 실시예에 따른 전자칠판(100)의 처리부(203)는, 필기체에 대한 색상 및 터치 궤적을 감지하여 필기를 수행하는 중에, 필기체에 대한 감지가 중단된 후 소정 시간 내에 다시 감지되면, 기 감지된 필기체의 색상을 유지할 수 있다.
사용자가 필기체를 이용하여 전자칠판(100)에 필기를 하는 과정에서, 사용자는 필기체를 디스플레이부(204)의 화면(101)에서 잠시 떼어 놓고 무언가 생각을 하거나 다른 행동을 한 뒤 다시 동일한 필기체로 필기를 계속하는 경우가 종종 있을 수 있다. 이 경우 필기체가 디스플레이부(204)의 화면(101)에 접근할 때마다 매번 새로이 필기체의 움직임을 인식하고 색상을 결정하는 것은 비효율적일 수 있다. 이에 본 발명의 또 다른 실시예에 따른 전자칠판(100)의 처리부(203)는, 필기체에 대한 색상 및 터치 궤적을 감지하여 필기를 수행하는 중에, 필기체에 대한 감지가 중단된 후 소정 시간 내에 다시 감지되면, 기 감지된 필기체의 색상을 유지함으로써, 사용자가 위와 같이 동일한 필기체를 이용하되 불연속적으로 필기를 계속하는 경우에 있어서, 한번 인식한 필기체의 색상을 그대로 다시 활용할 수 있다. 여기서 소정 시간에 특별한 한정은 없고, 기 설정되어 있을 수 있고, 사용자가 임의로 설정할 수도 있으며, 처리부가 자동적 또는 적응적으로 그 값을 설정하고 변경할 수도 있다.
이에 의하면, 사용자가 동일한 필기체를 이용하되 불연속적으로 필기를 계속하는 경우에 있어서, 한번 인식한 필기체의 색상을 그대로 다시 활용할 수 있어, 필기체의 색상을 더욱 빠르게 인식할 수 있다.
본 발명에 따른 전자칠판(100)은 한명 또는 다수의 사용자가 복수의 필기체를 사용하여 동시에 필기를 하는 것도 가능하다. 그 경우, 본 발명의 또 다른 실시예에 따른 전자칠판(100)의 처리부(203)는, 제1필기체와 제2필기체 각각에 대하여 상기 이미지 내의 개별영역을 할당하여 각 필기체의 움직임을 감지할 수 있다. 도 11을 참조하여 이를 설명한다.
도 11은 제1사용자가 제1필기체(1101)을 사용하여 전자칠판(100)의 화면(101)에 필기를 하고 있는 중에, 제2사용자도 제2필기체(1102)를 사용하여 필기를 하려고 제2필기체(1102)를 전자칠판(100)의 화면(101)에 접근시키는 상황을 도시한다. 이 경우 본 발명의 일 실시예에 따른 전자칠판(100)의 처리부(203)는, 앞서 설명한 방법, 예를 들어 도 3의 방법을 거쳐 제2필기체(1102)의 움직임과 색상 및 터치위치를 감지할 수 있다. 이 경우 처리부(203)는, 제2필기체(1102)의 움직임 또는 터치위치를 감지함에 있어서, 현재 제1필기체(1101)의 움직임 또는 터치위치에 대응하는 영역(1110)을 배제한 나머지 영역에 대해서만 제2필기체(1102)의 움직임 또는 터치위치를 감지하는 것이 효율적일 수 있다. 다시 말해, 처리부(203)는, 제1필기체와 제2필기체 각각에 대하여 이미지 내의 개별영역을 할당하여 각 필기체의 움직임을 감지할 수 있다. 이 경우 제2감지부(202)가 디스플레이의 일 측에 하나만 존재하면 그 제2감지부(202)에서는 제1필기체(1101)와 제2필기체(1102)가 겹치게 되어 제2필기체(1102)를 인식하지 못하게 되는 경우가 있을 수 있으므로, 제2감지부(202)는 복수 개 구비하여 전자칠판(100)의 서로 다른 위치에 배치될 수 있다.
이에 의하면, 복수의 필기체를 사용하는 경우에도 빠르게 필기체의 색상 인식을 할 수 있다.
한편, 이상에서는 필기체의 터치 위치를 감지하는 제1감지부(201)와, 필기체의 움직임 및 색상을 분석하는 기초 자료로 활용되도록, 촬상을 수행하여 이미지를 얻는 제2감지부(202)를 별도로 구비한 실시예를 설명하였다. 그러나, 본 발명의 또 다른 실시예에 따른 전자칠판(1300)은, 하나의 감지부만을 구비하여 이를 이용하여 필기체의 터치 위치와 색상정보를 모두 감지할 수도 있다. 도 12를 참조하여 이를 설명한다.
도 12는 본 발명의 또 다른 실시예에 따른 전자칠판(1300)의 구성을 도시한다. 본 발명의 또 다른 실시예에 따른 전자칠판(1300)은 제1감지부(1201), 처리부(1202), 디스플레이부(1203)를 포함한다. 이 중 처리부(1202)와 디스플레이부(1203)에 대해서는 앞서 도 2를 참조하여 설명한 내용이 그대로 적용 가능하므로, 중복되는 내용은 생략한다.
제1감지부(1201)는 감지신호를 이용하여 디스플레이부(1203)에 대한 필기체(體)의 터치 위치 및 상기 감지신호가 필기체에서 반사된 반사신호에 기초하여 상기 필기체의 색상정보를 감지한다. 여기서 감지신호는 일정한 파장을 가지는 신호이자 발사 가능한 신호로서, 예를 들어 적외선(Infrared, IR)이나 라디오파(Radio Frequency, RF)를 포함할 수 있다. 감지신호는 파장이 서로 다른 복수의 신호를 포함할 수도 있다.
감지신호가 IR이나 RF일 경우, 제1감지부(1201)는 IR센서 또는 RF 센서를 포함할 수 있다. 제1감지부(1201)는 각 신호를 발신하는 신호발신부와 발신된 신호를 수신하는 신호수신부를 더 포함할 수 있다. 또한, 제1감지부(1201)는 어레이(array) 형태를 띤 센서를 포함할 수 있다. 이 때 센서의 개수는 디스플레이부(1203)의 크기 또는 요구되는 색상 인식 정밀도에 따라 달라질 수 있다.
제1감지부(1201)가 감지신호를 이용하여 디스플레이부(1203)에 대한 필기체(體)의 터치 위치 및 상기 감지신호가 필기체에서 반사된 반사신호에 기초하여 상기 필기체의 색상정보를 감지하면, 처리부(1202)는 디스플레이부(1203)의 화면에서 상기 필기체의 터치에 대응하는 위치에, 상기 감지한 색상정보에 기초하여 결정된 상기 필기체의 색상을 가지는 영상을 표시할 수 있다.
이하 도 13과 도 14를 참조하여 위와 같은 구성을 갖는 본 발명의 또 다른 실시예에 따른 전자칠판(1300)의 작동을 구체적으로 설명한다.
도 13은 본 발명의 또 다른 실시예에 따른 전자칠판(1300)의 제1감지부(1201)가, 디스플레이부(1203) 화면의 외곽부를 따라 배치된 센서 어레이(Sensor Array)를 포함하는 일 실시예를 도시한다. 설명의 편의를 위해 각 센서들은 IR 센서라고 가정한다. 그 경우 제1감지부(1201)는 IR 발신부와 IR 수신부를 모두 포함할 수 있다.
제1감지부(1201)가 도 13과 같이 배치된 IR 센서 어레이를 포함할 경우, 처리부(1202)는 필기체의 터치 위치를 감지할 수 있다. 예를 들어, 도 13에 도시된 바와 같이, 디스플레이부(1203)의 화면을 필기체(1301)가 터치하면 그 터치 위치에 대응하는 IR 발신센서(1310, 1320)에서 발신된 IR 신호가 그 반대편에 있는 IR 수신센서(1330, 1340)에 도달하지 못하게 되므로, 처리부(1202)는 그 정보를 이용하여 필기체의 터치 좌표를 감지할 수 있다.
도 14를 참조하여 제1감지부(1201)가 필기체의 색상정보를 감지하는 방법을 설명한다. 도 14의 1410과 같이, IR 센서(1310)가 디스플레이부(1203)의 화면 위를 감지하고 있는 상황에서, IR 센서(1310)의 감지 영역 내로 필기체(1301)가 이동한 경우, IR 센서(1310)는 감지신호가 필기체에서 반사된 반사신호를 수신할 수 있다. 필기체에서 반사되는 반사신호는 필기체의 색상에 따라 다른 특성을 띨 수 있다. 일 예로, 반사신호는 필기체의 색상에 따라 그 신호의 세기가 달라질 수 있다. 그 경우 IR 센서(1310)는 수신된 반사신호의 세기에 기초하여 필기체의 색상정보를 감지할 수 있고, 처리부(1202)는 IR 센서(1310)에서 수신한 필기체의 색상정보에 기초하여 필기체의 색상을 결정할 수 있다.
감지신호는 파장이 서로 다른 복수의 신호를 포함할 수 있다. 일 예로, IR 센서(1310)는 700nm(1401), 800nm(1402), 900nm(1403)의 세 파장을 가지는 감지신호를 발사할 수 있다. 그 경우, 필기체에서 반사된 반사신호는 필기체의 색상에 따라 다른 특성을 띨 수 있고, 그 특성은 다시 감지신호의 각 파장별로 서로 다르게 나타날 수 있다. 즉, 필기체의 색상에 따라 반사신호의 세기가 달라질 경우, 반사신호의 세기는 감지신호의 각 파장별로 달라질 수 있다.
예를 들어 필기체가 검은 색을 띨 경우, 검은 색의 필기체로부터 반사된 반사신호의 세기는, 도 14의 그래프 1420과 같이, 감지신호의 각 파장(1401-1403) 별로 달라질 수 있다. 이렇게 감지신호의 각 파장에 따라 달라지는 반사신호의 세기는, 필기체의 색상에 대응하여 결정되므로, 처리부(1202)는 감지신호의 각 파장별로 반사신호의 세기를 분석하여 필기체의 색상을 결정할 수 있다.
이에 의하면, 하나의 감지부만으로 필기체의 색상과 터치 위치를 모두 감지할 수 있으므로, 각각에 대해 별도의 감지부를 마련하여 감지하는 경우에 비해 전자칠판(1300)의 생산비용을 절감할 수 있고 디자인 측면에서도 설계의 자유도가 향상된다. 또한, 이미지 촬상을 하지 않고도 필기체의 색상을 감지할 수 있게 되어 필기체의 색상을 더욱 빠르게 결정할 수 있다.

Claims (15)

  1. 전자칠판에 있어서,
    디스플레이부;
    상기 디스플레이부의 화면에 대한 필기체(體)의 터치 위치를 감지하는 제1감지부;
    촬상을 수행하여 이미지를 얻는 제2감지부; 및
    상기 제2감지부에서 촬상한 일련의 이미지를 대비하여 상기 이미지 내에 움직임이 존재하는 대상영역을 결정하고,
    상기 결정된 대상영역에서 상기 필기체의 색상을 결정하고,
    상기 디스플레이부의 화면에서 상기 필기체의 터치에 대응하는 위치에, 상기 결정된 색상을 가지는 영상을 표시하는 처리부를 포함하는 전자칠판.
  2. 제1항에 있어서,
    상기 처리부는, 기 설정된 복수의 색상 중에서 상기 대상영역의 색상에 가장 가까운 색상을 상기 필기체의 색상으로 결정하는 전자칠판.
  3. 제1항에 있어서,
    상기 처리부는, 상기 필기체와 이를 파지한 신체 사이의 상호 거리관계에 기초하여 상기 필기체의 색상을 결정하는 전자칠판.
  4. 제1항에 있어서,
    상기 처리부는, 상기 대상영역의 색상분포의 밀집도에 기초하여 상기 필기체의 색상을 결정하는 전자칠판.
  5. 제1항에 있어서,
    상기 처리부는, 상기 대상영역의 색상분포에서 필기체에 대응하지 않는 색상성분을 배제한 정보에 기초하여 상기 필기체의 색상을 결정하는 전자칠판.
  6. 제1항에 있어서,
    상기 처리부는, 상기 대상영역에서 소정 방향으로 연속하여 나타나는 색상을 상기 필기체의 색상으로 결정하는 전자칠판.
  7. 제1항에 있어서,
    상기 처리부는, 상기 필기체에 대한 감지가 중단된 후 소정 시간 내에 다시 감지되면, 기 감지된 필기체의 색상을 유지하는 전자칠판.
  8. 제1항에 있어서,
    상기 처리부는 제1필기체와 제2필기체 각각에 대하여 상기 이미지 내의 개별영역을 할당하여 각 필기체의 움직임을 감지하는 전자칠판.
  9. 전자칠판에 있어서,
    디스플레이부;
    감지신호를 이용하여 상기 디스플레이부에 대한 필기체(體)의 터치 위치 및 상기 감지신호가 필기체에서 반사된 반사신호에 기초하여 상기 필기체의 색상정보를 감지하는 적어도 하나의 제1감지부; 및
    상기 디스플레이부의 화면에서 상기 필기체의 터치에 대응하는 위치에, 상기 감지한 색상정보에 기초하여 결정된 상기 필기체의 색상을 가지는 영상을 표시하는 처리부를 포함하는 전자칠판.
  10. 제9항에 있어서,
    상기 감지신호는 파장이 서로 다른 복수의 신호를 포함하는 전자칠판.
  11. 제9항에 있어서,
    상기 제1감지부는 적외선신호를 발신하는 신호발신부 및 적외선신호를 수신하는 신호수신부를 포함하는 전자칠판.
  12. 전자칠판의 제어방법에 있어서,
    촬상한 일련의 이미지를 대비하여 상기 이미지 내에 움직임이 존재하는 대상영역을 결정하는 단계;
    상기 결정된 대상영역에서 상기 필기체의 색상을 결정하는 단계;
    상기 전자칠판의 화면에 대한 필기체(體)의 터치 위치를 감지하는 단계; 및
    상기 전자칠판의 화면에서 상기 필기체의 터치에 대응하는 위치에, 상기 결정된 색상을 가지는 영상을 표시하는 단계를 포함하는 전자칠판의 제어방법.
  13. 제12항에 있어서,
    상기 필기체의 색상을 결정하는 단계는, 기 설정된 복수의 색상 중에서 상기 대상영역의 색상에 가장 가까운 색상을 상기 필기체의 색상으로 결정하는 전자칠판의 제어방법.
  14. 제12항에 있어서,
    상기 필기체의 색상을 결정하는 단계는, 상기 필기체와 이를 파지한 신체 사이의 상호 거리관계에 기초하여 상기 필기체의 색상을 결정하는 전자칠판의 제어방법.
  15. 제12항에 있어서,
    상기 필기체의 색상을 결정하는 단계는, 상기 대상영역의 색상분포의 밀집도에 기초하여 상기 필기체의 색상을 결정하는 전자칠판의 제어방법.
PCT/KR2018/010055 2017-09-26 2018-08-30 전자칠판 및 그 제어방법 WO2019066273A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/650,145 US20200278768A1 (en) 2017-09-26 2018-08-30 Electronic blackboard and control method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020170124424A KR20190035341A (ko) 2017-09-26 2017-09-26 전자칠판 및 그 제어방법
KR10-2017-0124424 2017-09-26

Publications (1)

Publication Number Publication Date
WO2019066273A1 true WO2019066273A1 (ko) 2019-04-04

Family

ID=65901635

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/010055 WO2019066273A1 (ko) 2017-09-26 2018-08-30 전자칠판 및 그 제어방법

Country Status (3)

Country Link
US (1) US20200278768A1 (ko)
KR (1) KR20190035341A (ko)
WO (1) WO2019066273A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10872444B2 (en) 2018-09-21 2020-12-22 Samsung Electronics Co., Ltd. Display apparatus and control method thereof

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11301063B2 (en) * 2018-07-18 2022-04-12 John J. King, JR. Smart pen device and method of implementing a smart pen device
USD969810S1 (en) * 2019-05-17 2022-11-15 Samsung Electronics Co., Ltd. Electronic board
KR20210026194A (ko) 2019-08-29 2021-03-10 삼성전자주식회사 전자 장치 및 그 동작 방법
CN113176834B (zh) * 2021-03-15 2023-03-24 华能国际电力股份有限公司上海石洞口第一电厂 屏幕书写系统
CN115167736B (zh) * 2022-07-07 2024-04-12 深圳乐播科技有限公司 一种图文位置调整方法、设备和存储介质
CN118057961A (zh) * 2022-09-19 2024-05-21 广州视源电子科技股份有限公司 交互系统、板卡、书写轨迹显示方法、平板和存储介质
CN115237309B (zh) * 2022-09-21 2022-12-20 深圳市方成教学设备有限公司 一种基于智能书写板的显示控制方法以及智能书写板

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000172422A (ja) * 1998-12-04 2000-06-23 Hitachi Software Eng Co Ltd 電子ボードシステム
JP2001067183A (ja) * 1999-08-30 2001-03-16 Ricoh Co Ltd 座標入力/検出装置および電子黒板システム
KR100753597B1 (ko) * 2005-11-22 2007-08-30 (주)유비콤기술 전자칠판 시스템
JP2012066564A (ja) * 2010-08-25 2012-04-05 Hitachi Solutions Ltd 電子黒板システム及びプログラム
US20140285473A1 (en) * 2013-03-25 2014-09-25 Hon Hai Precision Industry Co., Ltd. Electronic white board system, electronic stylus and writing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000172422A (ja) * 1998-12-04 2000-06-23 Hitachi Software Eng Co Ltd 電子ボードシステム
JP2001067183A (ja) * 1999-08-30 2001-03-16 Ricoh Co Ltd 座標入力/検出装置および電子黒板システム
KR100753597B1 (ko) * 2005-11-22 2007-08-30 (주)유비콤기술 전자칠판 시스템
JP2012066564A (ja) * 2010-08-25 2012-04-05 Hitachi Solutions Ltd 電子黒板システム及びプログラム
US20140285473A1 (en) * 2013-03-25 2014-09-25 Hon Hai Precision Industry Co., Ltd. Electronic white board system, electronic stylus and writing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10872444B2 (en) 2018-09-21 2020-12-22 Samsung Electronics Co., Ltd. Display apparatus and control method thereof

Also Published As

Publication number Publication date
KR20190035341A (ko) 2019-04-03
US20200278768A1 (en) 2020-09-03

Similar Documents

Publication Publication Date Title
WO2019066273A1 (ko) 전자칠판 및 그 제어방법
WO2021112406A1 (en) Electronic apparatus and method for controlling thereof
WO2018128472A1 (en) Virtual reality experience sharing
WO2014025219A1 (en) Portable terminal device and method for operating the same
WO2009107935A2 (en) Virtual optical input device with feedback and method of controlling the same
WO2014175520A1 (en) Display apparatus for providing recommendation information and method thereof
WO2015030307A1 (en) Head mounted display device and method for controlling the same
WO2019045499A1 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND COMPUTER-READABLE RECORDING MEDIUM
WO2020080845A1 (en) Electronic device and method for obtaining images
WO2018012729A1 (ko) 디스플레이 장치 및 디스플레이 장치의 텍스트 인식 방법
WO2019088476A1 (en) Image processing apparatus, method for processing image and computer-readable recording medium
WO2015102248A1 (en) Display apparatus and channel map managing method thereof
WO2018117518A1 (en) Display apparatus and controlling method thereof
WO2018080204A1 (ko) 영상처리장치, 영상처리방법 및 컴퓨터 판독가능 기록 매체
WO2019054698A1 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND COMPUTER-READABLE RECORDING MEDIUM
WO2019156454A1 (ko) 밝기 정보에 기반하여 콘텐트의 표시를 제어하는 전자 장치 및 그의 동작 방법
WO2022075605A1 (ko) 전자 장치 및 이의 제어 방법
WO2021162241A1 (ko) 이미지 센서 제어 방법 및 장치
WO2019147028A1 (ko) 영상 처리 장치, 영상 처리 방법 및 컴퓨터 판독가능 기록 매체
WO2018056640A1 (en) Display apparatus and input method thereof
WO2018155957A2 (en) Electronic apparatus and control method thereof
WO2023013887A1 (ko) 카메라의 위치에 대한 가이드 표시 방법 및 전자 장치
WO2021246574A1 (ko) 손 모양 및 조도 센서에 기초하여 가상현실 콘텐츠를 제어하는 휴대용 단말 및 이를 포함하는 vr 뷰어 시스템
WO2019013443A1 (ko) 디스플레이장치 및 그 제어방법
WO2022163943A1 (en) Display apparatus and control method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18860370

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18860370

Country of ref document: EP

Kind code of ref document: A1