KR20190035341A - 전자칠판 및 그 제어방법 - Google Patents

전자칠판 및 그 제어방법 Download PDF

Info

Publication number
KR20190035341A
KR20190035341A KR1020170124424A KR20170124424A KR20190035341A KR 20190035341 A KR20190035341 A KR 20190035341A KR 1020170124424 A KR1020170124424 A KR 1020170124424A KR 20170124424 A KR20170124424 A KR 20170124424A KR 20190035341 A KR20190035341 A KR 20190035341A
Authority
KR
South Korea
Prior art keywords
color
writing body
sensing
writing
image
Prior art date
Application number
KR1020170124424A
Other languages
English (en)
Inventor
김상호
김관형
하지혜
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020170124424A priority Critical patent/KR20190035341A/ko
Priority to US16/650,145 priority patent/US20200278768A1/en
Priority to PCT/KR2018/010055 priority patent/WO2019066273A1/ko
Publication of KR20190035341A publication Critical patent/KR20190035341A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Drawing Aids And Blackboards (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 전자칠판에 관한 것으로서, 전자칠판은, 디스플레이부; 상기 디스플레이부의 화면에 대한 필기체(體)의 터치 위치를 감지하는 제1감지부; 촬상을 수행하여 이미지를 얻는 제2감지부; 및 상기 제2감지부에서 촬상한 일련의 이미지를 대비하여 상기 이미지 내에 움직임이 존재하는 대상영역을 결정하고, 상기 결정된 대상영역에서 상기 필기체의 색상을 결정하고, 상기 디스플레이부의 화면에서 상기 필기체의 터치에 대응하는 위치에, 상기 결정된 색상을 가지는 영상을 표시하는 처리부를 포함한다.
이에 의하여, 전자칠판의 화면을 터치하는 필기체의 색상을 자동으로 인식하여 그 색상으로 필기체의 궤적을 화면에 표시함으로써, 사용자가 해당 필기체로 전자칠판에 직접 필기를 하는 듯한 사용자 경험을 제공할 수 있다.

Description

전자칠판 및 그 제어방법 {ELECTRONIC BOARD AND THE CONTROL METHOD THEREOF}
본 발명은 전자칠판 및 그 제어방법에 관한 것으로서, 보다 구체적으로는 전자칠판의 화면을 터치하는 필기체(體)의 터치 위치 및 색상을 감지할 수 있는 전자칠판 및 그 제어방법에 관한 것이다.
터치를 감지하는 디스플레이장치를 이용하여 전자칠판이나 전자노트를 구현할 수 있다. 즉, 디스플레이장치의 화면을 터치하는 필기체(體)의 터치 위치를 감지하고 감지된 터치 위치가 이루는 궤적에 기초한 영상을 화면에 표시하는 디스플레이장치는 전자칠판 또는 전자노트의 기능을 수행할 수 있다.
디스플레이장치를 전자칠판의 용도로 사용할 경우, 전자칠판의 화면에 필기체의 궤적이 흑색 외의 다채로운 색상으로 표시되기를 원하는 사용자의 요구가 존재한다.
종래 기술 중 하나는, 전자칠판의 메뉴에서 필기체의 궤적에 따라 표시될 색상을 사용자가 선택할 수 있게 하는 UI를 제공함으로써 이를 해결하고자 하였다. 그러나 사용자가 색상 변경을 원할 때마다 매번 메뉴에서 희망 색상을 선택해야 하는 번거로움이 있었다.
이에 본 발명은, 전자칠판의 화면을 터치하는 필기체의 색상을 자동으로 인식하여 그 색상을 가지는 영상을 화면에 표시하는 전자칠판을 제공하는 것을 목적으로 한다.
또한 본 발명은, 전자칠판의 화면에 대한 필기체의 터치 위치를 감지하고 그에 따른 궤적을 표시하기 이전에, 빠르게 필기체의 색상을 인식하여 그 색상으로 궤적이 표시되도록 함으로써, 사용자가 파지하고 있는 필기체로 전자칠판에 직접 필기를 하는 듯한 사용자 경험을 제공하는 전자칠판을 제공하는 것을 목적으로 한다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 전자칠판은, 디스플레이부; 상기 디스플레이부의 화면에 대한 필기체(體)의 터치 위치를 감지하는 제1감지부; 촬상을 수행하여 이미지를 얻는 제2감지부; 및 상기 제2감지부에서 촬상한 일련의 이미지를 대비하여 상기 이미지 내에 움직임이 존재하는 대상영역을 결정하고, 상기 결정된 대상영역에서 상기 필기체의 색상을 결정하고, 상기 디스플레이부의 화면에서 상기 필기체의 터치에 대응하는 위치에, 상기 결정된 색상을 가지는 영상을 표시하는 처리부를 포함한다. 이에 의하면, 본 발명은 전자칠판의 화면을 터치하는 필기체의 색상을 자동으로 인식하여 그 색상으로 필기체의 궤적을 화면에 표시함으로써, 사용자가 해당 필기체로 전자칠판에 직접 필기를 하는 듯한 사용자 경험을 제공할 수 있다. 또한, 본 발명은 전자칠판의 화면에 대한 필기체의 터치 위치를 감지하기 이전에 빠르게 필기체의 색상을 인식하여 그 색상으로 궤적이 표시할 수 있으므로, 필기가 시작된 이후에야 해당 필기체의 색상이 반영되는 현상의 발생 없이, 필기의 시작부터 바로 해당 필기체의 색상으로 필기하는 사용자 경험 제공할 수 있다.
상기 처리부는, 기 설정된 복수의 색상 중에서 상기 대상영역의 색상에 가장 가까운 색상을 상기 필기체의 색상으로 결정할 수 있다. 이에 의하면, 필기체에 해당하는 물체의 구체적인 모양, 형태, 종류 등을 세부적으로 인식할 필요 없이, 대상영역으로부터 필기체의 색상을 빠르게 결정할 수 있다.
상기 처리부는, 상기 필기체와 이를 파지한 신체 사이의 상호 거리관계에 기초하여 상기 필기체의 색상을 결정할 수 있다. 이에 의하면, 필기체의 색상 결정의 대상이 되는 영역의 크기가 줄어들어 색상 인식 속도가 더욱 빨라질 수 있고, 필기체 색상 인식의 정확도도 향상될 수 있다.
상기 처리부는, 상기 대상영역의 색상분포의 밀집도에 기초하여 상기 필기체의 색상을 결정할 수 있다. 또한, 상기 처리부는, 상기 대상영역의 색상분포에서 필기체에 대응하지 않는 색상성분을 배제한 정보에 기초하여 상기 필기체의 색상을 결정할 수 있다. 이에 의하면, 필기체 색상 결정의 속도는 빠르게 유지하면서도 그 정확도를 더욱 향상시킬 수 있다.
상기 처리부는, 상기 대상영역에서 소정 방향으로 연속하여 나타나는 색상을 상기 필기체의 색상으로 결정할 수 있다. 이에 의하면, 필기체 색상 결정의 신뢰도를 높일 수 있다.
상기 처리부는, 상기 필기체에 대한 감지가 중단된 후 소정 시간 내에 다시 감지되면, 기 감지된 필기체의 색상을 유지할 수 있다. 이에 의하면, 사용자가 동일한 필기체를 이용하되 불연속적으로 필기를 계속하는 경우에 있어서, 한번 인식한 필기체의 색상을 그대로 다시 활용할 수 있어, 필기체의 색상을 더욱 빠르게 인식할 수 있다.
상기 처리부는 제1필기체와 제2필기체 각각에 대하여 이미지 내의 개별영역을 할당하여 각 필기체의 움직임을 감지할 수 있다. 이에 의하면, 복수의 필기체를 사용하는 경우에도 빠르게 필기체의 색상 인식을 할 수 있다.
상기 목적을 달성하기 위한 본 발명의 다른 실시예에 따른 전자칠판은, 디스플레이부; 감지신호를 이용하여 상기 디스플레이부에 대한 필기체(體)의 터치 위치 및 상기 감지신호가 필기체에서 반사된 반사신호에 기초하여 상기 필기체의 색상정보를 감지하는 적어도 하나의 제1감지부; 및 상기 디스플레이부의 화면에서 상기 필기체의 터치에 대응하는 위치에, 상기 감지한 색상정보에 기초하여 결정된 상기 필기체의 색상을 가지는 영상을 표시하는 처리부를 포함한다. 이에 의하면, 하나의 감지부만으로 필기체의 색상과 터치 위치를 모두 감지할 수 있으므로, 각각을 별도의 감지부를 통해 감지하는 경우에 비해 전자칠판의 생산비용을 절감할 수 있고 디자인 측면에서도 설계의 자유도가 향상된다. 또한, 이미지 촬상을 하지 않고도 필기체의 색상을 감지할 수 있게 되어 필기체의 색상을 더욱 빠르게 결정할 수 있다.
여기서 상기 감지신호는 파장이 서로 다른 복수의 신호를 포함할 수 있다. 또한, 상기 제1감지부는 적외선신호를 발신하는 신호발신부 및 적외선신호를 수신하는 신호수신부를 포함할 수 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 전자칠판의 제어방법은, 촬상한 일련의 이미지를 대비하여 상기 이미지 내에 움직임이 존재하는 대상영역을 결정하는 단계; 상기 결정된 대상영역에서 상기 필기체의 색상을 결정하는 단계; 상기 전자칠판의 화면에 대한 필기체(體)의 터치 위치를 감지하는 단계; 및 상기 전자칠판의 화면에서 상기 필기체의 터치에 대응하는 위치에, 상기 결정된 색상을 가지는 영상을 표시하는 단계를 포함한다. 이에 의하면, 본 발명은 전자칠판의 화면을 터치하는 필기체의 색상을 자동으로 인식하여 그 색상으로 필기체의 궤적을 화면에 표시함으로써, 사용자가 해당 필기체로 전자칠판에 직접 필기를 하는 듯한 사용자 경험을 제공할 수 있다. 또한, 본 발명은 전자칠판의 화면에 대한 필기체의 터치 위치를 감지하기 이전에 빠르게 필기체의 색상을 인식하여 그 색상으로 궤적이 표시할 수 있으므로, 필기가 시작된 이후에야 해당 필기체의 색상이 반영되는 현상의 발생 없이, 필기의 시작부터 바로 해당 필기체의 색상으로 필기하는 사용자 경험 제공할 수 있다.
상기 필기체의 색상을 결정하는 단계는, 기 설정된 복수의 색상 중에서 상기 대상영역의 색상에 가장 가까운 색상을 상기 필기체의 색상으로 결정할 수 있다. 이에 의하면, 필기체에 해당하는 물체의 구체적인 모양, 형태, 종류 등을 세부적으로 인식할 필요 없이, 대상영역으로부터 필기체의 색상을 빠르게 결정할 수 있다.
상기 필기체의 색상을 결정하는 단계는, 상기 필기체와 이를 파지한 신체 사이의 상호 거리관계에 기초하여 상기 필기체의 색상을 결정할 수 있다. 이에 의하면, 필기체의 색상 결정의 대상이 되는 영역의 크기가 줄어들어 색상 인식 속도가 더욱 빨라질 수 있고, 필기체 색상 인식의 정확도도 향상될 수 있다.
상기 필기체의 색상을 결정하는 단계는, 상기 대상영역의 색상분포의 밀집도에 기초하여 상기 필기체의 색상을 결정할 수 있다. 또한, 상기 필기체의 색상을 결정하는 단계는, 상기 대상영역의 색상분포에서 필기체에 대응하지 않는 색상성분을 배제한 정보에 기초하여 상기 필기체의 색상을 결정할 수 있다. 이에 의하면, 필기체 색상 결정의 속도는 빠르게 유지하면서도 그 정확도를 더욱 향상시킬 수 있다.
상기 필기체의 색상을 결정하는 단계는, 상기 대상영역에서 소정 방향으로 연속하여 나타나는 색상을 상기 필기체의 색상으로 결정할 수 있다. 이에 의하면, 필기체 색상 결정의 신뢰도를 높일 수 있다.
상기 필기체의 색상을 결정하는 단계는, 상기 필기체에 대한 감지가 중단된 후 소정 시간 내에 다시 감지되면, 기 감지된 필기체의 색상을 유지할 수 있다. 이에 의하면, 사용자가 동일한 필기체를 이용하되 불연속적으로 필기를 계속하는 경우에 있어서, 한번 인식한 필기체의 색상을 그대로 다시 활용할 수 있어, 필기체의 색상을 더욱 빠르게 인식할 수 있다.
상기 대상영역을 결정하는 단계는, 제1필기체와 제2필기체 각각에 대하여 이미지 내의 개별영역을 할당하여 각 필기체의 움직임을 감지할 수 있다. 이에 의하면, 복수의 필기체를 사용하는 경우에도 빠르게 필기체의 색상 인식을 할 수 있다.
상기 목적을 달성하기 위한 본 발명의 다른 실시예에 따른 전자칠판의 제어방법은, 감지신호를 이용하여 상기 전자칠판에 대한 필기체(體)의 터치 위치 및 상기 감지신호가 필기체에서 반사된 반사신호에 기초하여 상기 필기체의 색상정보를 감지하는 단계; 및 상기 전자칠판의 화면에서 상기 필기체의 터치에 대응하는 위치에, 상기 감지한 색상정보에 기초하여 결정된 상기 필기체의 색상을 가지는 영상을 표시하는 단계를 포함한다. 이에 의하면, 하나의 감지부만으로 필기체의 색상과 터치 위치를 모두 감지할 수 있으므로, 각각을 별도의 감지부를 통해 감지하는 경우에 비해 전자칠판의 생산비용을 절감할 수 있고 디자인 측면에서도 설계의 자유도가 향상된다. 또한, 이미지 촬상을 하지 않고도 필기체의 색상을 감지할 수 있게 되어 필기체의 색상을 더욱 빠르게 결정할 수 있다.
상기 감지신호는 파장이 서로 다른 복수의 신호를 포함할 수 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 컴퓨터프로그램은, 전자칠판과 결합되어 위 제어방법을 실행시키기 위하여 매체에 저장된 컴퓨터프로그램이다.
상기 컴퓨터프로그램은 서버 내의 매체에 저장되고 네트워크를 통해 상기 전자칠판에 다운로드 될 수 있다.
상기한 바와 같이, 본 발명에 의하면, 전자칠판의 화면을 터치하는 필기체의 색상을 자동으로 인식하여 그 색상으로 필기체의 궤적을 화면에 표시할 수 있다.
또한 본 발명에 의하면, 전자칠판의 화면에 대한 필기체의 터치 위치를 감지하고 그에 따른 궤적을 표시하기 이전에, 빠르게 필기체의 색상을 인식하여 그 색상으로 궤적이 표시되도록 함으로써, 사용자가 필기체로 전자칠판에 직접 필기를 하는 듯한 사용자 경험을 제공할 수 있다.
도 1은 본 발명의 일 실시예에 따른 전자칠판을 나타내는 도면,
도 2는 본 발명의 일 실시예에 따른 전자칠판의 구성을 나타내는 도면,
도 3은 본 발명의 일 실시예에 따른 전자칠판의 제어방법을 나타내는 도면,
도 4는 본 발명의 일 실시예에 따른 제2감지부의 일 예를 나타내는 도면,
도 5는 본 발명의 일 실시예에 따른 대상영역 결정방법의 일 예를 나타내는 도면,
도 6은 본 발명의 일 실시예에 따른 필기체의 색상 결정 방법의 일 예를 포함한 전자칠판의 제어방법을 나타내는 도면,
도 7은 본 발명의 일 실시예에 따른 필기체의 색상 결정 방법의 다른 예를 나타내는 도면,
도 8은 본 발명의 일 실시예에 따른 필기체의 색상 결정 방법의 또 다른 예를 나타내는 도면,
도 9는 본 발명의 일 실시예에 따른 필기체의 색상 결정 방법의 또 다른 예를 나타내는 도면,
도 10은 본 발명의 일 실시예에 따른 필기체의 색상 결정 방법의 또 다른 예를 나타내는 도면,
도 11은 본 발명의 다른 실시예에 따른 전자칠판의 사용예를 나타내는 도면,
도 12는 본 발명의 또 다른 실시예에 따른 전자칠판의 구성을 나타내는 도면,
도 13은 본 발명의 또 다른 실시예에 따른 전자칠판의 일 예를 나타내는 도면,
도 14는 본 발명의 또 다른 실시예에 따른 전자칠판의 색상 감지 방법을 나타내는 도면.
이하에서는 첨부 도면을 참조하여 본 발명의 실시예들을 상세히 설명한다. 도면에서 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 구성요소를 지칭하며, 도면에서 각 구성요소의 크기는 설명의 명료성과 편의를 위해 과장되어 있을 수 있다. 다만, 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 이하의 실시예에 설명된 구성 또는 작용으로만 한정되지는 않는다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다.
본 발명의 실시예에서, 제1, 제2 등과 같이 서수를 포함하는 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 본 발명의 실시예에서, '구성되다', '포함하다', '가지다' 등의 용어는 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 또한, 본 발명의 실시예에서, '모듈' 혹은 '부'는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있으며, 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서로 구현될 수 있다.
도 1은 본 발명의 일 실시예에 따른 전자칠판(100)을 도시한다. 본 발명의 일 실시예에 따른 전자칠판(100)은, 예컨대, TV로 구현될 수 있다. 또한, 본 발명의 다른 실시예에 따른 전자칠판(100)은, 예컨대, 스마트폰, 태블릿, 모바일폰, 스마트워치, 헤드 마운트형 디스플레이(Head-Mounted Display) 등의 웨어러블 디바이스, 컴퓨터, 멀티미디어 재생기, 전자액자, 디지털 광고판, LFD(Large Format Display), 디지털 싸이니지, 셋탑박스, 냉장고 등의 장치로 구현될 수 있다. 그러나 본 발명의 일 실시예에 따른 전자칠판(100)은 이에 한정되지 않고, 터치를 감지하고 영상을 출력할 수 있는 장치라면 무엇이든 가능하다.
도 2는 본 발명의 일 실시예에 따른 전자칠판(100)의 구성을 도시한다. 본 발명의 일 실시예에 따른 전자칠판(100)은 제1감지부(201), 제2감지부(202), 처리부(203) 및 디스플레이부(204)를 포함한다. 다만, 도 2에 도시된 본 전자칠판(100)의 구성은 하나의 예시일 뿐이며, 본 발명의 일 실시예에 의한 전자칠판(100)은 다른 구성으로도 구현될 수 있다. 즉, 본 발명의 일 실시예에 의한 전자칠판(100)은 도 2에 도시된 구성 외에 다른 구성이 추가되거나, 혹은 도 2에 도시된 구성 중 일부가 배제되어 구현될 수도 있다.
제1감지부(201)는 디스플레이부(204)의 화면에 대한 필기체(體)의 터치 위치를 감지한다. 여기서 필기체란, 디스플레이부(204)의 화면을 터치하여 필기 궤적을 남길 수 있는 물체를 의미하는 것으로서, 물체의 종류에 특별한 제한은 없다. 예를 들어, 필기체는 스타일러스 펜일 수 있고, 일반 펜이나 막대 등과 같이 얇고 가는 물체일 수도 있으며, 레고 블록이나 장난감, 과일 등과 같이 일반적으로 펜과는 관련성이 높지 않은 물체일 수도 있다. 나아가 사람의 신체도 필기체에 해당할 수 있다.
제1감지부(201)는 필기체의 접촉 또는 압력을 감지할 수 있는 모든 종류의 센서로 구현 가능하다. 예를 들어, 제1감지부(201)는 정전용량 방식(capacitive overlay), 압력식 저항막 방식(resistive overlay), 적외선 감지 방식(infrared beam) 등의 터치 감지 센서 또는 압력 센서(pressure sensor)로 구성될 수 있다. 제1감지부(201)는 필기체의 터치 입력을 수신하면 수신신호를 발생시켜 이를 처리부(203)로 전송한다.
제2감지부(202)는 디스플레이부(204) 주변에 대한 촬상을 수행하여 이미지를 생성한다. 제2감지부(202)는 특히 디스플레이부(204)의 화면을 터치하고자 하는 필기체를 촬상하여 이미지를 생성한 후 이를 처리부(203)로 전송한다.
제2감지부(202)는, 예를 들어, 카메라로 구현될 수 있다. 카메라는 광이 수신되는 렌즈와, 이를 통하여 입력되는 광을 감지하는 CMOS(Complementary Metal Oxide Semiconductor) 또는 CCD(Charge-coupled device) 이미지 센서로 구현될 수 있다.
처리부(203)는 제1감지부(201) 및 제2감지부(202)에서 전송한 신호에 기초하여 영상 처리를 수행하고 그 결과가 디스플레이부(204)에 표시되도록 한다. 처리부(203)는, 이상 언급된 처리를 수행하는 하나 이상의 하드웨어 및/또는 소프트웨어 모듈 혹은 그 조합으로서 구현될 수 있다.
처리부(202)는, 전자칠판(100)의 제반 구성들이 동작하기 위한 제어를 수행할 수 있다. 예를 들어 처리부(203)는 제1감지부(201)가 터치입력을 수신하도록 제어하고, 제2감지부(202)가 촬상을 수행하여 이미지를 얻도록 제어하며, 디스플레이부(204)가 영상을 표시하도록 제어할 수 있다.
처리부(202)는 위와 같은 제어 동작을 수행할 수 있도록 하는 제어프로그램(혹은 인스트럭션)과, 제어프로그램이 설치되는 비휘발성의 메모리, 설치된 제어프로그램의 적어도 일부가 로드되는 휘발성의 메모리 및 로드된 제어프로그램을 실행하는 적어도 하나의 프로세서 혹은 CPU(Central Processing Unit)를 포함할 수 있다. 또한, 이와 같은 제어프로그램은, 전자칠판(100) 이외의 다른 전자기기에도 저장될 수 있다.
제어프로그램은 BIOS, 디바이스드라이버, 운영체계, 펌웨어, 플랫폼 및 응용프로그램(어플리케이션) 중 적어도 하나의 형태로 구현되는 프로그램(들)을 포함할 수 있다. 일 실시예로서, 응용프로그램은, 전자칠판(100)의 제조 시에 전자칠판(100)에 미리 설치 또는 저장되거나, 혹은 추후 사용 시에 외부로부터 응용프로그램의 데이터를 수신하여 수신된 데이터에 기초하여 전자칠판(100)에 설치될 수 있다. 응용프로그램의 데이터는, 예컨대, 어플리케이션 마켓과 같은 외부 서버로부터 전자칠판(100)으로 다운로드될 수도 있으나, 이에 한정되는 것은 아니다.
한편, 처리부(203)는 device, S/W module, circuit, chip 등의 형태로 구현될 수 있다. 또한, 도 2에 도시된 전자칠판(100)은 하나의 처리부(203)에서 처리와 제어를 함께 수행하는 구성으로 구현된 것을 나타내나, 이는 하나의 예시일 뿐이며, 본 발명의 다른 실시예에 의한 전자칠판(100)은 처리부와 별도로 제어부를 추가 구비한 구성으로 구현될 수도 있다.
디스플레이부(204)는, 디스플레이부의 화면에 대한 필기체의 터치에 대응하여 영상을 표시할 수 있다. 디스플레이부(204)의 구현 방식은 한정되지 않으며, 예컨대 액정(Liquid Crystal), 플라즈마(Plasma), 발광 다이오드(Light-Emitting Diode), 유기발광 다이오드(Organic Light-Emitting Diode), 면전도 전자총(Surface-Conduction Electron-Emitter), 탄소 나노 튜브(Carbon Nano-Tube), 나노 크리스탈(Nano-Crystral) 등의 다양한 디스플레이 방식으로 구현될 수 있다. 디스플레이부(204)는, 액정 방식인 경우에, 액정 디스플레이 패널과 액정 디스플레이 패널에 광을 공급하는 백라이트유닛과, 액정 디스플레이 패널을 구동시키는 패널구동부 등을 포함한다. 디스플레이부(204)는, 백라이트유닛 없이, 자발광 소자인 OLED 패널로 구현될 수 있다.
이하 본 발명의 일 실시예에 따른 전자칠판(100)의 처리부(203)의 작동을 구체적으로 설명한다.
본 발명의 일 실시예에 따른 전자칠판(100)의 처리부(203)는, 제2감지부(202)에서 촬상한 일련의 이미지를 대비하여 상기 이미지 내에 움직임이 존재하는 대상영역을 결정한다. 여기서 대상영역이란, 제2감지부(202)가 촬상한 이미지 내에서 필기체의 색상을 결정하기 위한 처리의 대상이 되는 영역으로서, 필기체의 움직임이 존재하는 것으로 예상되는 영역을 말한다. 대상영역을 결정하는 구체적인 방법은 후술한다.
다음으로 처리부(203)는, 상기 결정된 대상영역에서 필기체의 색상을 결정한다. 대상영역에서 필기체의 색상을 결정하는 구체적인 방법은 후술한다.
이후 처리부(203)는, 디스플레이부(204)의 화면에서 필기체의 터치에 대응하는 위치에, 상기 결정된 색상을 가지는 영상을 표시한다.
이에 의하면, 본 발명은 디스플레이부(204)의 화면을 터치하는 필기체의 색상을 자동으로 인식하여 그 색상으로 필기체의 궤적을 화면에 표시함으로써, 사용자가 해당 필기체로 전자칠판(100)에 직접 필기를 하는 듯한 사용자 경험을 제공할 수 있다.
또한, 앞서 살펴본 바와 같이, 본 발명의 일 실시예에 따른 전자칠판(100)의 처리부(203)는, 제2감지부(202)에서 촬상한 일련의 이미지를 대비하여 상기 이미지 내에 움직임이 존재하는 대상영역을 결정하고, 상기 결정된 대상영역에서 상기 필기체의 색상을 바로 결정한다. 즉, 처리부(203)는 제2감지부(202)가 촬상한 이미지 내에서 필기체에 해당하는 물체의 구체적인 모양, 형태, 종류 등을 세부적으로 인식한 후 인식된 해당 물체의 색상을 판별하는 과정 없이, 전자칠판(100)에 대하여 움직임이 존재하는 대상영역을 빠르게 추출한다. 그에 따라 상대적으로 많은 처리 과정과 시간을 요하는 오브젝트 추출 알고리즘 등을 별도로 적용하지 않아도 되므로, 간이하고 신속한 처리가 가능하다. 또한, 이미지 중에서 대상영역에 대해서만 색상 판단 알고리즘을 적용하고 나머지 영역에 대해서는 이를 적용하지 않으므로, 더욱 간이하고 신속한 처리가 가능하다. 따라서, 필기체의 색상을 신속하게 판단할 수 있다.
이에 의하면, 본 발명은 전자칠판(100)의 화면에 대한 필기체의 터치 위치를 감지하기 이전에 빠르게 필기체의 색상을 인식하여 그 색상으로 궤적이 표시할 수 있으므로, 필기가 시작된 이후에야 해당 필기체의 색상이 반영되는 현상의 발생 없이, 필기의 시작부터 바로 해당 필기체의 색상으로 필기하는 사용자 경험을 제공할 수 있다.
이하 도 3을 참조하여 본 발명의 일 실시예에 따른 전자칠판(100)의 제어방법을 더욱 구체적으로 설명한다. 도 3는 본 발명의 일 실시예에 따른 전자칠판(100)의 제어방법을 도시한다.
본 발명의 일 실시예에 따른 전자칠판(100)의 처리부(203)는, 제2감지부(202)가 디스플레이부(204) 주변을 촬상하여 이미지를 얻도록 제2감지부(202)를 제어한다(S301). 예를 들어, 제2감지부(202)는, 도 4와 같이, 전자칠판(100)의 일 측면에 위치하여 디스플레이부(204)의 화면(101)이 향하는 방향에 있는 소정 영역(220; 이하 '촬상 영역'이라고도 함)을 촬상할 수 있다. 그러나 제2감지부(202)의 위치 및 촬상 영역(220)은 도 4의 도시에 한정되지 않고, 디스플레이부(204)의 화면(101)에 필기하려는 필기체의 움직임을 감지할 수 있는 위치와 영역이라면 어디든 가능하다. 제2감지부(202)가 디스플레이부(204) 주변을 촬상함에 따라 얻어진 이미지는 처리부(203)로 전송된다.
제2감지부(202)로부터 이미지를 수신한 처리부(203)는, 디스플레이부(204)의 화면(101)에 대하여 필기를 하기 위한 움직임이 발생했는지를 판단한다(S302). 그 판단 방법의 일 예는, 이전 프레임의 이미지와 현 프레임의 이미지 사이의 변화량을 측정하는 것이다. 예를 들어, 처리부(203)는 두 이미지의 각 픽셀값 차이의 총합이 소정값 이상일 경우 필기를 하기 위한 움직임이 발생한 것으로 판단할 수 있다. 즉, 이미지의 구체적인 내용이나 이미지 내의 특정 영역에 대한 구체적인 분석 없이도 움직임 발생 여부를 판단할 수 있다. 여기서 소정값은 기 설정된 값으로서, 그 설정에 따라 움직임 감지의 민감도가 달라질 수 있다. 예를 들어, 소정값이 크게 설정되면 필기를 하기 위한 움직임 감지는 다소 둔감해질 수 있고, 소정값이 작게 설정되면 움직임 감소는 다소 민감해질 수 있다. 소정값은 사용자에 의해 설정될 수도 있고, 전자칠판(100)에 의해 자동으로 설정 또는 조정될 수도 있다.
이상과 같이 이미지 사이의 변화량이 소정값 이상인 경우에만 필기를 하기 위한 움직임이 발생한 것으로 판단하고 다음 단계를 진행함으로써, 처리부(203)는 실질적으로 필기를 하기 위한 움직임이 아닌 경미한 움직임이나 변화가 발생한 경우에는 필기체의 색상 판단으로 나아가는 것을 방지할 수 있다.
움직임 감지(판단) 방법의 다른 예로, 현 프레임의 이미지를 복수의 이전 프레임의 이미지와 비교할 수도 있다. 이에 대해서는 아래 대상영역을 결정할 때의 비교 프레임(참조이미지) 선택 방법이 모두 적용 가능하므로, 자세한 방법은 이후 대상영역 결정 방법 설명 시 상술한다.
필기를 하기 위한 움직임이 발생한 것으로 판단된 경우, 처리부(203)는 제2감지부(202)에서 촬상한 일련의 이미지를 대비하여 이미지 내에서 움직임이 존재하는 대상영역을 결정한다.
도 5를 참조하여 대상영역 결정 방법을 보다 구체적으로 설명한다.
대상영역 결정 방법의 일 예로, 처리부(203)는 움직임 발생 판단 시점에 촬상한 현재이미지(501)를, 그 이전 시점에 촬상한 적어도 하나의 참조이미지(502)와 대비하여 대상영역(503)을 결정할 수 있다. 여기서 참조이미지란, 사용자가 필기체를 이용하여 디스플레이의 화면(101)에 대한 필기를 하지 않은 시점에 촬상된 이미지를 말한다. 그 경우, 현재이미지(501)와 참조이미지(502)를 비교하면, 현재이미지 중 전자칠판(100)에 대하여 실질적으로 움직임이 발생한 영역(503)을 도출할 수 있다.
예를 들어, 사용자가 필기체를 파지하고 전자칠판(100)으로 근접한 경우, 현재이미지에는 디스플레이부(204)의 화면(101) 주변의 배경 위에 사용자의 손과 필기체가 포함되어 있는 반면, 참조이미지에는 디스플레이부(204)의 화면(101) 주변의 배경만이 포함되어 있다. 따라서 현재이미지에서 참조이미지와 동일한 부분을 제거하면 사용자의 손과 필기체만이 남게 되고(503) 나머지 배경은 제거된다.
이에 의하면, 필기체 색상 결정 시, 실질적인 움직임이 없었던 디스플레이 주변의 배경은 고려 대상에서 제외할 수 있으므로, 필기체 색상 결정 속도가 향상된다.
현재이미지와 비교함에 있어서 참조이미지는 하나만 사용할 수도 있고 복수 개 사용할 수도 있다. 하나의 참조이미지만을 사용할 경우, 참조이미지는 일정 시간 간격으로 계속적으로 새로운 프레임으로 변경될 수 있다. 복수 개의 참조이미지를 사용하여 대상영역을 결정하는 경우, 대상영역 결정 시 고려할 참조이미지의 범위는 다양하게 설정 가능하다. 일 예로, 현 시점을 기준으로 가장 최근에 촬상된 소정 개수, 예를 들어 10개의 참조이미지들만을 현재이미지와 비교하여 대상영역을 결정할 수도 있고, 다른 예로, 현 시점에 이르기까지 촬상된 모든 참조이미지들을 전부 활용하여 이를 현재이미지와 비교하여 대상영역을 결정할 수도 있다. 복수 개의 참조이미지를 사용할 경우, 각 참조이미지들에 대하여 가중치를 서로 다르게 설정함으로써, 현재이미지에 시간적으로 근접한 정도에 따라 해당 참조이미지의 고려 정도를 조절할 수도 있다. 이상과 같이 복수 개의 참조이미지를 사용하여 대상영역을 결정할 경우, 대상영역 결정 시 더 많은 시점의 배경 정보를 반영할 수 있게 됨에 따라 배경에서의 일시적인 변화는 배경이 아닌 것으로 처리되므로, 대상영역 추출의 신뢰도를 높일 수 있다.
다시 도 3을 참조하면, 위 방법을 통해 대상영역을 결정한 처리부(203)는, 결정된 대상영역에서 필기체의 색상을 결정한다(S304). 대상영역에서 필기체의 색상을 결정하는 방법은 다양한 방법이 가능하다. 일 예로, 처리부(203)는 대상 영역에서 가장 많은 면적을 차지하는 부분의 색을 필기체의 색상으로 결정할 수 있다. 이 경우 처리부(203)는 대상영역의 각 픽셀의 픽셀값 중 가장 많이 나타난 값을 구함으로써 가장 많은 면적을 차지하는 부분의 색을 도출할 수 있다. 다른 예로, 처리부(203)는 대상영역의 대표색을 구하고, 기 설정된 복수의 색상 중에서 대상영역의 대표색에 가장 가까운 색상을 해당 색상을 필기체의 색상으로 결정할 수도 있다(도 6 참조). 예를 들어, 빨강, 주황, 노랑, 초록, 파랑, 남색, 보라, 검정의 8가지 색상을 기 설정된 복수의 색상으로 설정한 경우, 처리부(203)는 대상영역의 대표색으로서 모든 픽셀값의 평균값을 이들 8가지 색상과 비교하여 가장 근접한 색상을 필기체의 색상으로 결정할 수 있다. 나아가 처리부(203)는 위 두 예를 결합할 수도 있다. 즉, 처리부(203)는 대상영역의 각 픽셀에 대하여 기 설정된 복수의 색상 중 가장 근접한 색상을 각 픽셀의 색상값으로 재지정한 후, 그 중에서 가장 많이 나타난 색상을 필기체의 색상으로 결정할 수도 있다. 이에 의하면, 제2감지부(202)가 촬상한 이미지 내에서 필기체에 해당하는 물체의 구체적인 모양, 형태, 종류 등을 세부적으로 인식할 필요 없이, 대상영역으로부터 필기체의 색상을 빠르게 결정할 수 있다. 대상영역으로부터 필기체의 색상을 빠르게 결정할 수 있는 또 다른 방법은 후술한다.
이상 설명한 도 3의 처리 과정(S301-S304)은 필기체가 디스플레이부(204)의 화면(101)에 근접하여 터치되기 전까지의 시간동안 제2감지부(202) 및 처리부(203)에서 수행되는 과정이다. 한편, 필기체가 디스플레이부(204)의 화면(101)에 터치하게 되면, 제1감지부(201)는 디스플레이부(204)의 화면(101)에 대한 필기체의 터치 위치를 감지한다(S305). 본 발명의 일 실시예에 의하면, 제2감지부(202) 및 처리부(203)에서 디스플레이부(204)의 화면(101)에 근접하는 필기체의 움직임을 감지하여 필기체의 색상을 결정하는 처리를 빠르게 수행할 수 있으므로, 늦어도 제1감지부(201)에서 필기체의 터치 위치를 감지하는 때까지는 필기체의 색상을 결정할 수 있다. 따라서 처리부(203)는 필기체의 터치에 대응하는 위치에, 결정된 색상을 가지는 영상을 표시할 수 있게 되므로(S306), 필기가 시작된 이후에야 해당 필기체의 색상이 반영되는 현상의 발생 없이, 필기의 시작부터 바로 해당 필기체의 색상으로 필기하는 사용자 경험 제공할 수 있다.
본 발명의 실 실시예에 따른 전자칠판(100)의 처리부(203)는, 처리부(203)의 처리 속도 내지 제2감지부(202)의 프레임 감지 속도, 촬상 영역과 제2감지부(202)와의 거리 등에 따라 촬상 영역(220)의 크기를 변경할 수 있다. 예를 들어, 처리부(203)는 처리부(203)의 속도가 빠를수록, 제2감지부(202)의 프레임 감지 속도가 빠를수록, 또는 촬상 영역과 제2감지부(202)와의 거리가 가까울수록 촬상 영역(220)의 크기를 작게 설정할 수 있다. 그 경우 촬상 영역의 작더라도 빠르게 움직이는 필기체를 감지하여 그로부터 색상을 빠르게 추출해낼 수 있으므로 촬상 영역의 크기를 작게 설정하는 것이 가능하다. 이처럼 촬상 영역 자체가 작아지는 경우, 그로부터 추출된 대상 영역도 작아지게 되어 그로부터 필기체의 색상을 결정하는 처리의 속도는 더욱 빨라질 수 있다.
또는, 위와 같이 촬상 영역(220) 자체의 크기를 변경하는 대신, 촬상 영역에서 고화질의 영상을 통해 세부적으로 분석할 영역의 크기를 제한하는 것도 가능하다. 예를 들어, 촬상 영역(220) 전체에 대해서는 VGA 화질의 영상을 통해 움직임이 존재하는 대상 영역을 결정한 후, 처리부(203)의 처리 속도 내지 제2감지부(202)의 프레임 감지 속도, 촬상 영역과 제2감지부(202)와의 거리 등의 요소를 고려하여, SVGA, HD, FHD 등의 고화질 영상으로 분석을 수행하여 필기체의 색상을 결정할 영역을 한정할 수도 있다. 이에 의하면, 필기체 색상 결정의 속도는 빠르게 유지하면서도 그 정확도를 향상시킬 수 있다.
대상영역으로부터 필기체의 색상을 빠르게 결정하는 다른 방법으로서, 본 발명의 일 실시예에 따른 전자칠판(100)의 제어부(203)는, 필기체와 이를 파지한 신체 사이의 상호 거리관계에 기초하여 필기체의 색상을 결정할 수 있다. 도 7을 참조하여 이를 설명한다.
사용자는 필기체를 사용자의 신체, 예를 들어 손으로 잡은 상태로 디스플레이 화면(101)에 필기체를 근접시키고 필기를 수행하는 경우가 많다. 이 경우 움직임이 존재하는 대상영역에는 필기체 외에 사용자의 손도 포함될 수 있다. 이 때 사용자의 손에 해당하는 영역을 배제하고 나머지 영역으로부터 필기체의 색상을 결정할 수 있다면 필기체 색상 결정의 신뢰도를 높일 수 있다.
이를 위해 처리부(203)는 필기체와 이를 파지한 신체 사이의 상호 거리관계에 기초하여 필기체의 색상을 결정할 수 있다. 예를 들어, 디스플레이의 화면(101)에 접촉하는 필기체의 일단으로부터 사용자가 손으로 필기체를 잡은 부분까지의 소정 높이에 따라, 처리부(203)는 대상영역(503) 중에서 디스플레이화면(101)에 소정 높이 이내로 근접한 영역(701)만을 고려하여 필기체의 색상을 결정할 수 있다. 여기서 소정 높이는 미리 정해져 있을 수 있고 입력을 통해 설정할 수도 있으며, 사용자별로 다르게 설정할 수도 있다.
이에 의하면, 필기체의 색상 결정의 대상이 되는 영역의 크기가 감소함에 따라 색상 인식 속도를 향상시킬 수 있는 동시에, 필기체 색상 인식의 정확도도 향상될 수 있다.
대상영역으로부터 필기체의 색상을 빠르게 결정하는 또 다른 방법으로서, 처리부(203)는 대상영역(503)의 색상분포의 밀집도에 기초하여 상기 필기체의 색상을 결정할 수 있다. 도 8을 참조하여 이를 설명한다.
도 8은 대상영역(503)의 색상정보를 분석한 그래프를 도시한다. 대상영역(503)의 색상분포를 나타내는 그래프가 도 8의 801과 같을 경우(가로축이 색상, 세로축이 분포 정도), 색상분포의 정도가 상대적으로 높은 4개의 색상(810-813) 중에서 811 색상이 그 밀집도가 가장 높다. 따라서 처리부(203)는 811 색상을 필기체의 색상으로 결정할 수 있다.
이에 의하면, 필기체 색상 결정의 속도는 빠르게 유지하면서도 그 정확도를 향상시킬 수 있다. 다만, 대상영역의 색상분포의 밀집도를 분석하는 방법이 위와 같은 그래프 분석 방법에 한정되는 것은 아니다.
대상영역으로부터 필기체의 색상을 빠르게 결정하는 또 다른 방법으로서, 처리부(203)는, 대상영역의 색상분포에서 필기체에 대응하지 않는 색상성분(이하, '노이즈성분'이라고도 함)을 배제한 정보에 기초하여 상기 필기체의 색상을 결정할 수 있다. 도 9를 참조하여 이를 설명한다.
대상영역(503)의 색상분포를 나타내는 그래프가 도 9의 901과 같을 경우, 대상영역(503)의 색상분포 그래프(901)에 있어서는 2개의 색상(911, 913)이 그 밀집도에 있어서 유사하게 높은 수치를 보이므로, 처리부(203)로서는 둘 중 어느 색을 필기체의 색상으로 할지 명확하게 결정하기 어려울 수 있다.
이 때 처리부(203)는 대상영역의 색상분포에서 노이즈성분을 배제한 정보를 참조할 수 있다. 노이즈성분은, 예컨대, 사용자의 신체에 대응하는 색상성분일 수 있다. 구체적으로, 사용자의 신체, 예를 들어 손에 대응하는 색상성분의 색상분포를 나타내는 그래프가 902와 같을 경우, 처리부(203)는 대상영역(503)의 색상분포 그래프(901)에서 사용자의 손에 대응하는 색상성분의 색상분포를 나타내는 그래프(902)의 값을 뺀 새로운 그래프(903)를 도출한 후, 그 중에서 색상분포의 밀집도가 가장 높은 911 색상을 필기체의 색상으로 결정할 수 있다. 즉, 사용자의 손에 대응하는 색상성분인 913 색상은 필기체 색상 결정 시 배제할 수 있다.
이에 의하면, 필기체 색상 결정의 속도는 빠르게 유지하면서도 그 정확도를 더욱 향상시킬 수 있다.
대상영역으로부터 필기체의 색상을 빠르게 결정하는 또 다른 방법으로서, 처리부(203)는, 대상영역에서 소정 방향으로 연속하여 나타나는 색상을 상기 필기체의 색상으로 결정할 수 있다. 도 10을 참조하여 이를 설명한다.
본 발명의 또 다른 실시예에 따른 전자칠판(100)의 처리부(203)는, 제2감지부(202)가 디스플레이부(204) 주변을 촬상하여 이미지를 전송하도록 제2감지부(202)를 제어한다(S1001). 제2감지부(202)로부터 이미지를 수신한 처리부(203)는, 디스플레이부(204)의 화면(101)에 대하여 필기를 하기 위한 움직임이 발생했는지를 감지한다(S1002). 필기를 하기 위한 움직임이 발생한 것으로 판단된 경우, 처리부(203)는 제2감지부(202)에서 촬상한 일련의 이미지를 대비하여 이미지 내에 움직임이 존재하는 대상영역을 결정한다(S1003). 위 각 단계의 구체적인 작동은 앞서 살펴본 내용이 모두 적용 가능하므로 생략한다.
대상영역을 결정한 후, 처리부(203)는 대상영역에서 소정 방향으로 연속하여 나타나는 색상을 필기체의 색상으로 결정한다(S1004). 전자칠판(100)의 사용자는 일상적으로 사용하는 사물들 중에서 필기체(體)로 사용할 사물을 선택함에 있어서, 그 형상이 불규칙하거나 비전형적인 사물 보다는 형상이 고정적이고 전형적인 사물, 예를 들어 막대 형태나 직사각형 등의 모양을 갖는 사물을 택하는 경향이 있을 수 있다. 또한 그 필기체는 그 형상 내에서 전체적으로 동종의 색상으로 이루어진 경우가 많을 수 있다. 그 경우 필기체는 대상영역 내에서 소정 색상이 소정 방향으로 연속하여 나타나게 되므로 처리부(203)는 이러한 특성을 활용하여 필기체의 색상을 결정할 수 있다.
대상영역 내에서 소정 방향으로 연속하여 나타나는 색상을 파악하는 방법으로는 다양한 방법이 가능하다. 일 예는, 대상영역의 각 픽셀을 노드(Node)로 하고, 각 픽셀의 색상값과 그 주변 픽셀의 색상값을 비교하여 동종의 색상값을 띠는 경우 그 픽셀들을 에지(Edge)로 연결하는 그래프를 생성한 후, 생성된 여러 그래프 중에서 한 방향으로 가장 길게 연결된 그래프를 찾아 그에 속한 픽셀의 색상값을 필기체의 색상값으로 결정할 수 있다.
처리부(203)는 이상의 과정을 거쳐 결정된 색상을 가지는 영상을, 필기체의 터치에 대응하는 위치에 표시한다(S1005).
이에 의하면, 필기체의 일반적인 속성을 활용하여 필기체의 색상을 결정할 수 있으므로, 필기체 색상 결정의 신뢰도를 높일 수 있다.
본 발명의 또 다른 실시예에 따른 전자칠판(100)의 처리부(203)는, 필기체에 대한 색상 및 터치 궤적을 감지하여 필기를 수행하는 중에, 필기체에 대한 감지가 중단된 후 소정 시간 내에 다시 감지되면, 기 감지된 필기체의 색상을 유지할 수 있다.
사용자가 필기체를 이용하여 전자칠판(100)에 필기를 하는 과정에서, 사용자는 필기체를 디스플레이부(204)의 화면(101)에서 잠시 떼어 놓고 무언가 생각을 하거나 다른 행동을 한 뒤 다시 동일한 필기체로 필기를 계속하는 경우가 종종 있을 수 있다. 이 경우 필기체가 디스플레이부(204)의 화면(101)에 접근할 때마다 매번 새로이 필기체의 움직임을 인식하고 색상을 결정하는 것은 비효율적일 수 있다. 이에 본 발명의 또 다른 실시예에 따른 전자칠판(100)의 처리부(203)는, 필기체에 대한 색상 및 터치 궤적을 감지하여 필기를 수행하는 중에, 필기체에 대한 감지가 중단된 후 소정 시간 내에 다시 감지되면, 기 감지된 필기체의 색상을 유지함으로써, 사용자가 위와 같이 동일한 필기체를 이용하되 불연속적으로 필기를 계속하는 경우에 있어서, 한번 인식한 필기체의 색상을 그대로 다시 활용할 수 있다. 여기서 소정 시간에 특별한 한정은 없고, 기 설정되어 있을 수 있고, 사용자가 임의로 설정할 수도 있으며, 처리부가 자동적 또는 적응적으로 그 값을 설정하고 변경할 수도 있다.
이에 의하면, 사용자가 동일한 필기체를 이용하되 불연속적으로 필기를 계속하는 경우에 있어서, 한번 인식한 필기체의 색상을 그대로 다시 활용할 수 있어, 필기체의 색상을 더욱 빠르게 인식할 수 있다.
본 발명에 따른 전자칠판(100)은 한명 또는 다수의 사용자가 복수의 필기체를 사용하여 동시에 필기를 하는 것도 가능하다. 그 경우, 본 발명의 또 다른 실시예에 따른 전자칠판(100)의 처리부(203)는, 제1필기체와 제2필기체 각각에 대하여 상기 이미지 내의 개별영역을 할당하여 각 필기체의 움직임을 감지할 수 있다. 도 11을 참조하여 이를 설명한다.
도 11은 제1사용자가 제1필기체(1101)을 사용하여 전자칠판(100)의 화면(101)에 필기를 하고 있는 중에, 제2사용자도 제2필기체(1102)를 사용하여 필기를 하려고 제2필기체(1102)를 전자칠판(100)의 화면(101)에 접근시키는 상황을 도시한다. 이 경우 본 발명의 일 실시예에 따른 전자칠판(100)의 처리부(203)는, 앞서 설명한 방법, 예를 들어 도 3의 방법을 거쳐 제2필기체(1102)의 움직임과 색상 및 터치위치를 감지할 수 있다. 이 경우 처리부(203)는, 제2필기체(1102)의 움직임 또는 터치위치를 감지함에 있어서, 현재 제1필기체(1101)의 움직임 또는 터치위치에 대응하는 영역(1110)을 배제한 나머지 영역에 대해서만 제2필기체(1102)의 움직임 또는 터치위치를 감지하는 것이 효율적일 수 있다. 다시 말해, 처리부(203)는, 제1필기체와 제2필기체 각각에 대하여 이미지 내의 개별영역을 할당하여 각 필기체의 움직임을 감지할 수 있다. 이 경우 제2감지부(202)가 디스플레이의 일 측에 하나만 존재하면 그 제2감지부(202)에서는 제1필기체(1101)와 제2필기체(1102)가 겹치게 되어 제2필기체(1102)를 인식하지 못하게 되는 경우가 있을 수 있으므로, 제2감지부(202)는 복수 개 구비하여 전자칠판(100)의 서로 다른 위치에 배치될 수 있다.
이에 의하면, 복수의 필기체를 사용하는 경우에도 빠르게 필기체의 색상 인식을 할 수 있다.
한편, 이상에서는 필기체의 터치 위치를 감지하는 제1감지부(201)와, 필기체의 움직임 및 색상을 분석하는 기초 자료로 활용되도록, 촬상을 수행하여 이미지를 얻는 제2감지부(202)를 별도로 구비한 실시예를 설명하였다. 그러나, 본 발명의 또 다른 실시예에 따른 전자칠판(1300)은, 하나의 감지부만을 구비하여 이를 이용하여 필기체의 터치 위치와 색상정보를 모두 감지할 수도 있다. 도 12를 참조하여 이를 설명한다.
도 12는 본 발명의 또 다른 실시예에 따른 전자칠판(1300)의 구성을 도시한다. 본 발명의 또 다른 실시예에 따른 전자칠판(1300)은 제1감지부(1201), 처리부(1202), 디스플레이부(1203)를 포함한다. 이 중 처리부(1202)와 디스플레이부(1203)에 대해서는 앞서 도 2를 참조하여 설명한 내용이 그대로 적용 가능하므로, 중복되는 내용은 생략한다.
제1감지부(1201)는 감지신호를 이용하여 디스플레이부(1203)에 대한 필기체(體)의 터치 위치 및 상기 감지신호가 필기체에서 반사된 반사신호에 기초하여 상기 필기체의 색상정보를 감지한다. 여기서 감지신호는 일정한 파장을 가지는 신호이자 발사 가능한 신호로서, 예를 들어 적외선(Infrared, IR)이나 라디오파(Radio Frequency, RF)를 포함할 수 있다. 감지신호는 파장이 서로 다른 복수의 신호를 포함할 수도 있다.
감지신호가 IR이나 RF일 경우, 제1감지부(1201)는 IR센서 또는 RF 센서를 포함할 수 있다. 제1감지부(1201)는 각 신호를 발신하는 신호발신부와 발신된 신호를 수신하는 신호수신부를 더 포함할 수 있다. 또한, 제1감지부(1201)는 어레이(array) 형태를 띤 센서를 포함할 수 있다. 이 때 센서의 개수는 디스플레이부(1203)의 크기 또는 요구되는 색상 인식 정밀도에 따라 달라질 수 있다.
제1감지부(1201)가 감지신호를 이용하여 디스플레이부(1203)에 대한 필기체(體)의 터치 위치 및 상기 감지신호가 필기체에서 반사된 반사신호에 기초하여 상기 필기체의 색상정보를 감지하면, 처리부(1202)는 디스플레이부(1203)의 화면에서 상기 필기체의 터치에 대응하는 위치에, 상기 감지한 색상정보에 기초하여 결정된 상기 필기체의 색상을 가지는 영상을 표시할 수 있다.
이하 도 13과 도 14를 참조하여 위와 같은 구성을 갖는 본 발명의 또 다른 실시예에 따른 전자칠판(1300)의 작동을 구체적으로 설명한다.
도 13은 본 발명의 또 다른 실시예에 따른 전자칠판(1300)의 제1감지부(1201)가, 디스플레이부(1203) 화면의 외곽부를 따라 배치된 센서 어레이(Sensor Array)를 포함하는 일 실시예를 도시한다. 설명의 편의를 위해 각 센서들은 IR 센서라고 가정한다. 그 경우 제1감지부(1201)는 IR 발신부와 IR 수신부를 모두 포함할 수 있다.
제1감지부(1201)가 도 13과 같이 배치된 IR 센서 어레이를 포함할 경우, 처리부(1202)는 필기체의 터치 위치를 감지할 수 있다. 예를 들어, 도 13에 도시된 바와 같이, 디스플레이부(1203)의 화면을 필기체(1301)가 터치하면 그 터치 위치에 대응하는 IR 발신센서(1310, 1320)에서 발신된 IR 신호가 그 반대편에 있는 IR 수신센서(1330, 1340)에 도달하지 못하게 되므로, 처리부(1202)는 그 정보를 이용하여 필기체의 터치 좌표를 감지할 수 있다.
도 14를 참조하여 제1감지부(1201)가 필기체의 색상정보를 감지하는 방법을 설명한다. 도 14의 1410과 같이, IR 센서(1310)가 디스플레이부(1203)의 화면 위를 감지하고 있는 상황에서, IR 센서(1310)의 감지 영역 내로 필기체(1301)가 이동한 경우, IR 센서(1310)는 감지신호가 필기체에서 반사된 반사신호를 수신할 수 있다. 필기체에서 반사되는 반사신호는 필기체의 색상에 따라 다른 특성을 띨 수 있다. 일 예로, 반사신호는 필기체의 색상에 따라 그 신호의 세기가 달라질 수 있다. 그 경우 IR 센서(1310)는 수신된 반사신호의 세기에 기초하여 필기체의 색상정보를 감지할 수 있고, 처리부(1202)는 IR 센서(1310)에서 수신한 필기체의 색상정보에 기초하여 필기체의 색상을 결정할 수 있다.
감지신호는 파장이 서로 다른 복수의 신호를 포함할 수 있다. 일 예로, IR 센서(1310)는 700nm(1401), 800nm(1402), 900nm(1403)의 세 파장을 가지는 감지신호를 발사할 수 있다. 그 경우, 필기체에서 반사된 반사신호는 필기체의 색상에 따라 다른 특성을 띨 수 있고, 그 특성은 다시 감지신호의 각 파장별로 서로 다르게 나타날 수 있다. 즉, 필기체의 색상에 따라 반사신호의 세기가 달라질 경우, 반사신호의 세기는 감지신호의 각 파장별로 달라질 수 있다.
예를 들어 필기체가 검은 색을 띨 경우, 검은 색의 필기체로부터 반사된 반사신호의 세기는, 도 14의 그래프 1420과 같이, 감지신호의 각 파장(1401-1403) 별로 달라질 수 있다. 이렇게 감지신호의 각 파장에 따라 달라지는 반사신호의 세기는, 필기체의 색상에 대응하여 결정되므로, 처리부(1202)는 감지신호의 각 파장별로 반사신호의 세기를 분석하여 필기체의 색상을 결정할 수 있다.
이에 의하면, 하나의 감지부만으로 필기체의 색상과 터치 위치를 모두 감지할 수 있으므로, 각각에 대해 별도의 감지부를 마련하여 감지하는 경우에 비해 전자칠판(1300)의 생산비용을 절감할 수 있고 디자인 측면에서도 설계의 자유도가 향상된다. 또한, 이미지 촬상을 하지 않고도 필기체의 색상을 감지할 수 있게 되어 필기체의 색상을 더욱 빠르게 결정할 수 있다.
100: 전자칠판
201: 제1감지부
202: 제2감지부
203: 처리부
204: 디스플레이부

Claims (20)

  1. 전자칠판에 있어서,
    디스플레이부;
    상기 디스플레이부의 화면에 대한 필기체(體)의 터치 위치를 감지하는 제1감지부;
    촬상을 수행하여 이미지를 얻는 제2감지부; 및
    상기 제2감지부에서 촬상한 일련의 이미지를 대비하여 상기 이미지 내에 움직임이 존재하는 대상영역을 결정하고,
    상기 결정된 대상영역에서 상기 필기체의 색상을 결정하고,
    상기 디스플레이부의 화면에서 상기 필기체의 터치에 대응하는 위치에, 상기 결정된 색상을 가지는 영상을 표시하는 처리부를 포함하는 전자칠판.
  2. 제1항에 있어서,
    상기 처리부는, 기 설정된 복수의 색상 중에서 상기 대상영역의 색상에 가장 가까운 색상을 상기 필기체의 색상으로 결정하는 전자칠판.
  3. 제1항에 있어서,
    상기 처리부는, 상기 필기체와 이를 파지한 신체 사이의 상호 거리관계에 기초하여 상기 필기체의 색상을 결정하는 전자칠판.
  4. 제1항에 있어서,
    상기 처리부는, 상기 대상영역의 색상분포의 밀집도에 기초하여 상기 필기체의 색상을 결정하는 전자칠판.
  5. 제1항에 있어서,
    상기 처리부는, 상기 대상영역의 색상분포에서 필기체에 대응하지 않는 색상성분을 배제한 정보에 기초하여 상기 필기체의 색상을 결정하는 전자칠판.
  6. 제1항에 있어서,
    상기 처리부는, 상기 대상영역에서 소정 방향으로 연속하여 나타나는 색상을 상기 필기체의 색상으로 결정하는 전자칠판.
  7. 제1항에 있어서,
    상기 처리부는, 상기 필기체에 대한 감지가 중단된 후 소정 시간 내에 다시 감지되면, 기 감지된 필기체의 색상을 유지하는 전자칠판.
  8. 제1항에 있어서,
    상기 처리부는 제1필기체와 제2필기체 각각에 대하여 상기 이미지 내의 개별영역을 할당하여 각 필기체의 움직임을 감지하는 전자칠판.
  9. 전자칠판에 있어서,
    디스플레이부;
    감지신호를 이용하여 상기 디스플레이부에 대한 필기체(體)의 터치 위치 및 상기 감지신호가 필기체에서 반사된 반사신호에 기초하여 상기 필기체의 색상정보를 감지하는 적어도 하나의 제1감지부; 및
    상기 디스플레이부의 화면에서 상기 필기체의 터치에 대응하는 위치에, 상기 감지한 색상정보에 기초하여 결정된 상기 필기체의 색상을 가지는 영상을 표시하는 처리부를 포함하는 전자칠판.
  10. 제9항에 있어서,
    상기 감지신호는 파장이 서로 다른 복수의 신호를 포함하는 전자칠판.
  11. 제9항에 있어서,
    상기 제1감지부는 적외선신호를 발신하는 신호발신부 및 적외선신호를 수신하는 신호수신부를 포함하는 전자칠판.
  12. 전자칠판의 제어방법에 있어서,
    촬상한 일련의 이미지를 대비하여 상기 이미지 내에 움직임이 존재하는 대상영역을 결정하는 단계;
    상기 결정된 대상영역에서 상기 필기체의 색상을 결정하는 단계;
    상기 전자칠판의 화면에 대한 필기체(體)의 터치 위치를 감지하는 단계; 및
    상기 전자칠판의 화면에서 상기 필기체의 터치에 대응하는 위치에, 상기 결정된 색상을 가지는 영상을 표시하는 단계를 포함하는 전자칠판의 제어방법.
  13. 제12항에 있어서,
    상기 필기체의 색상을 결정하는 단계는, 기 설정된 복수의 색상 중에서 상기 대상영역의 색상에 가장 가까운 색상을 상기 필기체의 색상으로 결정하는 전자칠판의 제어방법.
  14. 제12항에 있어서,
    상기 필기체의 색상을 결정하는 단계는, 상기 필기체와 이를 파지한 신체 사이의 상호 거리관계에 기초하여 상기 필기체의 색상을 결정하는 전자칠판의 제어방법.
  15. 제12항에 있어서,
    상기 필기체의 색상을 결정하는 단계는, 상기 대상영역의 색상분포의 밀집도에 기초하여 상기 필기체의 색상을 결정하는 전자칠판의 제어방법.
  16. 제12항에 있어서,
    상기 필기체의 색상을 결정하는 단계는, 상기 대상영역의 색상분포에서 필기체에 대응하지 않는 색상성분을 배제한 정보에 기초하여 상기 필기체의 색상을 결정하는 전자칠판의 제어방법.
  17. 제12항에 있어서,
    상기 필기체의 색상을 결정하는 단계는, 상기 대상영역에서 소정 방향으로 연속하여 나타나는 색상을 상기 필기체의 색상으로 결정하는 전자칠판의 제어방법.
  18. 제12항에 있어서,
    상기 필기체의 색상을 결정하는 단계는, 상기 필기체에 대한 감지가 중단된 후 소정 시간 내에 다시 감지되면, 기 감지된 필기체의 색상을 유지하는 전자칠판의 제어방법.
  19. 제12항에 있어서,
    상기 대상영역을 결정하는 단계는, 제1필기체와 제2필기체 각각에 대하여 상기 이미지 내의 개별영역을 할당하여 각 필기체의 움직임을 감지하는 전자칠판의 제어방법.
  20. 제12항에 있어서,
    상기 필기체의 색상을 결정하는 단계는, 상기 대상 영역에서 가장 많은 면적을 차지하는 부분의 색상을 상기 필기체의 색상으로 결정하는 전자칠판의 제어방법.
KR1020170124424A 2017-09-26 2017-09-26 전자칠판 및 그 제어방법 KR20190035341A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020170124424A KR20190035341A (ko) 2017-09-26 2017-09-26 전자칠판 및 그 제어방법
US16/650,145 US20200278768A1 (en) 2017-09-26 2018-08-30 Electronic blackboard and control method thereof
PCT/KR2018/010055 WO2019066273A1 (ko) 2017-09-26 2018-08-30 전자칠판 및 그 제어방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170124424A KR20190035341A (ko) 2017-09-26 2017-09-26 전자칠판 및 그 제어방법

Publications (1)

Publication Number Publication Date
KR20190035341A true KR20190035341A (ko) 2019-04-03

Family

ID=65901635

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170124424A KR20190035341A (ko) 2017-09-26 2017-09-26 전자칠판 및 그 제어방법

Country Status (3)

Country Link
US (1) US20200278768A1 (ko)
KR (1) KR20190035341A (ko)
WO (1) WO2019066273A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10872444B2 (en) 2018-09-21 2020-12-22 Samsung Electronics Co., Ltd. Display apparatus and control method thereof
CN113176834A (zh) * 2021-03-15 2021-07-27 华能国际电力股份有限公司上海石洞口第一电厂 屏幕书写系统
US11360665B2 (en) 2019-08-29 2022-06-14 Samsung Electronics Co., Ltd. Electronic device and operation method of expanding writing input area

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11301063B2 (en) * 2018-07-18 2022-04-12 John J. King, JR. Smart pen device and method of implementing a smart pen device
USD969810S1 (en) * 2019-05-17 2022-11-15 Samsung Electronics Co., Ltd. Electronic board
CN115167736B (zh) * 2022-07-07 2024-04-12 深圳乐播科技有限公司 一种图文位置调整方法、设备和存储介质
CN118057961A (zh) * 2022-09-19 2024-05-21 广州视源电子科技股份有限公司 交互系统、板卡、书写轨迹显示方法、平板和存储介质
CN115237309B (zh) * 2022-09-21 2022-12-20 深圳市方成教学设备有限公司 一种基于智能书写板的显示控制方法以及智能书写板

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000172422A (ja) * 1998-12-04 2000-06-23 Hitachi Software Eng Co Ltd 電子ボードシステム
JP2001067183A (ja) * 1999-08-30 2001-03-16 Ricoh Co Ltd 座標入力/検出装置および電子黒板システム
KR100753597B1 (ko) * 2005-11-22 2007-08-30 (주)유비콤기술 전자칠판 시스템
JP5680976B2 (ja) * 2010-08-25 2015-03-04 株式会社日立ソリューションズ 電子黒板システム及びプログラム
TWI557646B (zh) * 2013-03-25 2016-11-11 鴻海精密工業股份有限公司 電子白板系統、電子書寫筆及電子書寫方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10872444B2 (en) 2018-09-21 2020-12-22 Samsung Electronics Co., Ltd. Display apparatus and control method thereof
US11360665B2 (en) 2019-08-29 2022-06-14 Samsung Electronics Co., Ltd. Electronic device and operation method of expanding writing input area
CN113176834A (zh) * 2021-03-15 2021-07-27 华能国际电力股份有限公司上海石洞口第一电厂 屏幕书写系统

Also Published As

Publication number Publication date
US20200278768A1 (en) 2020-09-03
WO2019066273A1 (ko) 2019-04-04

Similar Documents

Publication Publication Date Title
KR20190035341A (ko) 전자칠판 및 그 제어방법
KR101184460B1 (ko) 마우스 포인터 제어 장치 및 방법
EP2898399B1 (en) Display integrated camera array
KR102267397B1 (ko) 전자 장치 및 이의 제어 방법
US9697431B2 (en) Mobile document capture assist for optimized text recognition
CN108701439B (zh) 一种图像显示优化方法及装置
US10650502B2 (en) Image processing method and apparatus, and storage medium
CN110955367A (zh) 显示装置及其控制方法
CN110070063B (zh) 目标对象的动作识别方法、装置和电子设备
US20170214862A1 (en) Projection video display device and control method thereof
JP4690473B2 (ja) 画像解析装置、画像解析方法、撮像装置、画像解析プログラムおよび記録媒体
CN110084204B (zh) 基于目标对象姿态的图像处理方法、装置和电子设备
WO2010047256A1 (ja) 撮像装置、表示撮像装置および電子機器
CN108733296B (zh) 书写笔迹的擦除方法、装置和设备
EP3664445B1 (en) Image processing method and device therefor
US11402926B2 (en) Ambient light sensing device and method, and interactive device using same
US11610424B2 (en) Systems and methods for registering a fingerprint based on an optical fingerprint recognition
EP2717568A2 (en) Imaging device and method
KR20150078229A (ko) 디스플레이 장치 및 디스플레이 장치의 채널 맵 관리 방법
US20150138045A1 (en) Vehicle head unit and method for setting screen of vehicle head unit
EP3340015B1 (en) Display device for adjusting transparency of indicated object and display method for the same
KR102384234B1 (ko) 영상처리장치, 영상처리방법 및 컴퓨터 판독가능 기록 매체
CN110620955B (zh) 直播系统及其直播方法
CN112513871B (zh) 光学指纹识别的校准方法、装置和电子设备
JP2015184906A (ja) 肌色検出条件決定装置、肌色検出条件決定方法及び肌色検出条件決定用コンピュータプログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E902 Notification of reason for refusal
E601 Decision to refuse application