WO2014123309A1 - 프리젠테이션 시스템에서 레이저 포인터를 이용한 영상 판서 방법 - Google Patents

프리젠테이션 시스템에서 레이저 포인터를 이용한 영상 판서 방법 Download PDF

Info

Publication number
WO2014123309A1
WO2014123309A1 PCT/KR2014/000376 KR2014000376W WO2014123309A1 WO 2014123309 A1 WO2014123309 A1 WO 2014123309A1 KR 2014000376 W KR2014000376 W KR 2014000376W WO 2014123309 A1 WO2014123309 A1 WO 2014123309A1
Authority
WO
WIPO (PCT)
Prior art keywords
screen
laser
image
laser pointer
camera
Prior art date
Application number
PCT/KR2014/000376
Other languages
English (en)
French (fr)
Inventor
신중식
Original Assignee
(주)유한프리젠
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)유한프리젠 filed Critical (주)유한프리젠
Priority to CN201480002428.8A priority Critical patent/CN104685450B/zh
Publication of WO2014123309A1 publication Critical patent/WO2014123309A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/18Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical projection, e.g. combination of mirror and condenser and objective
    • G02B27/20Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical projection, e.g. combination of mirror and condenser and objective for imaging minute objects, e.g. light-pointer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/54Accessories
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03542Light pens for emitting or receiving light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • G03B17/54Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector

Definitions

  • the present invention relates to an image writing method for displaying a character or a picture on the screen as an image in a presentation system. More particularly, the present invention automatically reads a character or picture intended by a presenter by reading a trajectory of a position indicated by a laser pointer. An image writing method using a laser pointer of a presentation system for displaying an image on a screen.
  • the presenter uses a laser pointer to irradiate a laser beam on the screen and instructs the underline, triangle, square, It may be indicated by a circle or the like and may simply be indicated by text.
  • the laser pointer only points to the presenter's current point (called the laser point) when turned on, but cannot be displayed continuously in the presentation image. It has the drawback of having a temporary property that disappears in.
  • the presenter implements a seamlessly indicated shape such as an underline, a triangle, a square, and a circle indicated by the laser pointer together with the presentation image, so that the presenter can improve the delivery power during the presentation.
  • a seamlessly indicated shape such as an underline, a triangle, a square, and a circle indicated by the laser pointer together with the presentation image, so that the presenter can improve the delivery power during the presentation.
  • the technology has been patented by the applicant and registered under the registration number 10-122543.
  • Patent No. 10-1222543 pre-registered by the present applicant, extracts and stores the trajectory of the laser pointer, compares it with a preset figure, and applies the image of the most similar figure to the corresponding position of the presentation image to indicate the position of the laser pointer.
  • the figure is displayed continuously in the presentation image. Therefore, the registered patent No. 10-1222543 has a problem in that the writing function of displaying characters on an image is insufficient.
  • the present invention has been proposed to solve the above problems, and an object of the present invention is to quickly read the trajectory of the position indicated by the laser pointer to automatically present a character or picture intended by the presenter on the screen as a presentation It is to provide an image writing method using a laser pointer of the system.
  • the method of the present invention provides a presentation in which a beam projector displays a presentation image provided from a user terminal, a laser pointer scans a laser point on the screen, and a camera shoots the screen.
  • a presentation system comprising: capturing a frame by capturing the screen at regular intervals by the camera; Detecting a laser point in an image of a current frame captured by the camera; When the laser point is detected in the image of the current frame, recognizing a position of the laser point and storing the laser point in a coordinate set; Counting the number of unrecognized frames if the laser point is not detected in the image of the current frame; Calculating a long axis length and a short axis length by performing an elliptic fitting if the laser point disappears from the screen, the specific frame number A passes, and the stored coordinates are equal to or greater than the specific number B; Judging by a straight line when the ratio between the short axis length and the long axis length is less
  • the area of the screen obtained varies depending on the position of the camera, so that the corner points are found in the acquired image by scanning a white screen on the screen to match the position of the laser point with the position of the screen.
  • the method may further include matching a corner point of the terminal screen.
  • the camera is a camera that recognizes the light of the laser pointer or infrared light according to the type of laser pointer, and can adjust the exposure, brightness, contrast, and white balance so that the laser pointer recognizes the laser point indicated on the screen. It is.
  • the coordinates of the position indicated by the laser pointer while accumulating the screen at a predetermined frame interval are quickly stored in a line or ellipse according to a predetermined writing algorithm. Recognizing) and immediately displaying on the screen has the advantage of maximizing the convenience of the presenter by continuously displaying the characters or pictures indicated by the presenter on the presentation video.
  • the method of the present invention matches and utilizes the position value extraction for the laser image using the laser pointer and the extraction for the closest image, thereby accurately matching the position indicated by the presenter in the presentation image to best match the intention of the presenter.
  • FIG. 1 is a schematic diagram showing the overall configuration of a typical presentation system to which the present invention can be applied;
  • FIG. 2 is a block diagram showing the configuration of the camera in FIG. 1;
  • FIG. 3 is a block diagram showing a configuration of a user terminal in FIG. 1;
  • FIG. 4 is a flowchart illustrating a procedure of writing an image using a laser pointer in a presentation system according to the present invention.
  • the component when one component 'transmits' data or a signal to another component, the component may directly transmit the data or signal to another component, and through at least one other component. This means that data or signals can be transmitted to other components.
  • the presentation system includes a beam projector 100, a screen 200, a laser pointer 300, a camera 400, a user terminal 500, and an IP network 600.
  • the IP network 600 is a communication network capable of a large capacity, long distance voice and data service, and may be, for example, the Internet.
  • the IP network may be a next-generation wired or wireless network for providing high-speed multimedia services based on ALL IP (Internet Protocol).
  • the camera 400 may be a camera or an infrared camera that recognizes the light of the laser pointer according to the type of the laser pointer 300, and the laser pointer 300 may recognize the laser point indicated on the screen 200 most brightly. Exposure, brightness, contrast, white balance, etc. can be adjusted so that the beam projector 100 captures the screen 200 to scan. At this time, since the area of the screen obtained is different according to the position of the camera 400, the position of the laser point is different from the position of the screen. It finds each corner point and transforms it using homography and perspective transform so that each corner point becomes an edge point of the user terminal screen.
  • FIG. 2 is a diagram illustrating a configuration of the camera 400 in FIG. 1.
  • the camera 400 includes a CMOS module 410, a micro controller unit (MCU) 420, a laser imaging module 430, a first storage unit 440, a first transmission and reception terminal 450, and a first transmission unit 450.
  • the laser imaging module 430 includes a laser imaging means 431 and a laser position value extraction means 432.
  • the module may mean a functional and structural combination of hardware for performing the technical idea of the present invention and software for driving the hardware.
  • the module may mean a logical unit of a predetermined code and a hardware resource for performing the predetermined code, and means a physically connected code or does not necessarily mean one kind of hardware. It can be easily inferred by the average expert in the art.
  • the MCU 420 connects the data session with the user terminal 500 by controlling the first transmission / reception terminal 450 or the first I / O interface 460, and then connects the data session with the user terminal 500.
  • the CMOS module 410 is driven to enter a photographing standby mode by receiving a photographing command for the screen 200 and each position value set by the user terminal 500.
  • the MCU 420 stores the received position values in the first storage unit 440. That is, the MCU 420 controls the first transmitting and receiving terminal 450 when connecting the data session through the user terminal 500 and the IP network 600, and the data session with the user terminal 500 through the direct data cable.
  • the first I / O interface 460 is controlled.
  • the laser is irradiated from the laser pointer 300 carried by the user to one of the position values set on the screen 200 by the user terminal 500 on the screen 200 through the CMOS module 410.
  • the detected MCU 420 wakes up the laser imaging module 430.
  • the laser photographing means 431 of the laser photographing module 430 photographs the laser image during the continuous irradiation time of the laser output from the laser pointer 300 and then stores the laser image in the first storage unit 440.
  • the laser position value extracting means 432 of the laser photographing module 430 extracts the position value of the laser continuously irradiated with respect to the laser image photographed by the laser photographing means 431 at a predetermined time interval and then stores the first value. Stored in the unit 440.
  • the laser photographing module 430 irradiates a laser beam to the screen 200 by using the laser pointer 300 when the user makes a presentation.
  • the laser photographing module 430 underlines a certain area with the laser pointer 300. In the case of designating triangles, squares, circles, etc., the shape of one underline, triangle, square, circle, etc. may be recognized as one continuous laser irradiation.
  • the laser photographing means 431 photographs a laser image during a continuous irradiation time output from the laser pointer on the screen 200 when the laser image is photographed.
  • the range is preferably set to 1/100 to 1/2 second.
  • the first storage unit 440 and the second storage unit 550 to be described later are non-volatile memory (NVM). Even though power is not supplied, the first storage unit 440 maintains the stored data and does not delete the flash memory. Memory), magnetic random access memory (MRAM), phase-change random access memory (PRAM), ferroelectric RAM (FRAM), and the like.
  • NVM non-volatile memory
  • MRAM magnetic random access memory
  • PRAM phase-change random access memory
  • FRAM ferroelectric RAM
  • the MCU 420 may be configured to transmit the laser image during the continuous irradiation time taken through the data session connected with the user terminal 500 and the extracted position value according to a preset time interval of the laser image to the user terminal 500.
  • the first transceiver 450 and the first I / O interface 460 are controlled.
  • the user terminal 500 includes a second transceiver 510, a second I / O interface 520, a central controller 530, a presentation image implementation module 540, and a second storage unit ( 550, an input / output unit 560, and a laser pointer writing module 570.
  • the central controller 530 includes a camera / beam projector control module 531, and the presentation image implementing module 540 includes screen position value setting means 541, laser image extracting means 542, and image converting means ( 543).
  • the user terminal 500 stores a presentation program such as PowerPoint in the second storage unit 550, the central control unit 530 is loaded on the system memory in response to a user's request through the input and output unit 560 do.
  • the camera / beam projector control module 531 of the central controller 530 connects the second transceiver 510 or the second I / O interface 520 so that the beam projector 100 and the camera 400 connect data sessions. To control. Thereafter, the camera / beam projector control module 531 controls the presentation image to be implemented by the beam projector 100 through the connected data session, and then wakes up the presentation image implementation module 540.
  • the screen position value setting means 541 of the presentation image implementation module 540 has a horizontal direction (X) and a vertical direction (X) for the screen 200 on which the presentation image output from the beam projector 100 is implemented.
  • Each position value by the combination of Y) is set and stored in the second storage unit 550.
  • the position value may be set to a pixel value or a coordinate value, and may be set to various numerical values according to the resolution of the presentation image implemented by the beam projector 100.
  • the laser image extraction unit 542 of the presentation image implementation module 540 compares the received laser image with a plurality of images stored in the second storage unit 550 and extracts an image having the closest shape.
  • the image conversion means 543 of the presentation image implementation module 540 divides the shape of the nearest image extracted by the laser image extraction means 542 at a predetermined time interval, and then extracts the image of the divided shape.
  • the presentation matching laser image is generated by matching the extracted position values at predetermined time intervals of the laser image, and then stored in the second storage unit 550.
  • the camera / beam projector control module 531 synchronizes the presentation matching laser image generated by the presentation image implementing module 540 with the presentation image being output to the beam projector 100 according to the passage of time. Control the beam projector 100 to be.
  • the laser pointer writing module 570 uses an elliptic fitting and a linear fitting to track the movement of the laser pointer 300 when writing on the screen 200 using the laser pointer 300. Or it calculates in a straight line and displays various colors on the screen. That is, when the laser pointer 300 operates and is exposed to the screen 200, the camera 400 acquires it, stores it in the coordinate system of the monitor, and continuously stores the laser pointer 300 when the laser pointer 300 continuously operates.
  • a specific number of frames (A) passes and the stored coordinates are more than a certain number (B)
  • elliptic fitting is performed to find a long axis length, a short axis length, a principal axis angle, a center point, and the like. If it is approximate to the horizontal and the short axis length / long axis length is less than or equal to the specific value C, it is determined as a straight line, and if it is greater than or equal to the specific value, it is determined as an ellipse.
  • FIG. 4 is a flowchart illustrating a procedure of writing an image using a laser pointer in a presentation system according to the present invention.
  • the writing algorithm according to the present invention focuses on the fact that most characters (particularly, Hangul) or figures can be represented by straight lines and ellipses (circles), so that the presenter writes on the screen 200 using the laser pointer 300.
  • the trajectory of the laser point is judged as an ellipse or a straight line through elliptic fitting and linear fitting, and a continuous image is written at the corresponding position on the screen.
  • Such a laser pointer writing algorithm of the present invention is executed as a program in the user terminal 500. Through a series of simulations, it is determined that a series of scanning is completed because no laser point is detected in a frame captured by the camera 400.
  • the frame 400 sets a frame period for capturing (shooting) the screen 200 to obtain frame data capturing the screen 200 at a set period interval.
  • a coordinate set for storing trajectory coordinates of a laser point is initialized (S1). Thereafter, the camera 400 receives image data of the current frame capturing the screen, determines whether there is a laser point in the current frame, and if there is a laser point, recognizes the coordinates of the laser point and adds the coordinates to the coordinate set (S2, S3).
  • step S2 If there is no laser point in the current frame and the recognition fails, the number of unrecognized frames is accumulated and it is determined whether the accumulated count value exceeds a preset A value. If the A value is not exceeded, the process returns to step S2 and repeats. If the value A is exceeded, the process returns to step S1 to initialize the coordinate set (S4, S5).
  • the process returns to step S2 and repeats (S7).
  • the ellipse is displayed on the screen 200 through the beam projector 100 (S9). S10).
  • the ratio of the short axis length to the long axis length (short axis / long axis) obtained through the wave fitting is less than the preset C value, it is judged as a straight line, and the linear set of coordinates is fitted.
  • the color of the ellipse or the straight line may be preset or selected or randomly determined by manipulation.
  • the screen screen continuously displays and outputs a character or a picture written by the presenter using the radar pointer 300 as an image.
  • the clear button is input, the writing is written on the screen 200.
  • One image is erased and the coordinate set is initialized to start writing again (S14).
  • the invention can also be embodied as computer readable code on a computer readable recording medium.
  • Computer-readable recording media include all kinds of recording devices that store data that can be read by a computer system.
  • Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disks, optical data storage devices, and the like, which are also implemented in the form of carrier waves (eg, transmission over the Internet). It also includes.
  • the computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
  • functional programs, codes and code segments for implementing the present invention can be easily inferred by programmers in the art to which the present invention belongs.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)

Abstract

본 발명은 레이저 포인터가 지시하는 위치의 궤적을 판독하여 발표자가 의도한 문자나 그림을 자동으로 스크린상에 영상으로 표시해주는 프리젠테이션 시스템의 레이저 포인터를 이용한 영상 판서 방법에 관한 것이다. 본 발명의 방법은 카메라가 일정 간격으로 스크린을 촬영하여 프레임을 캡춰하고, 캡춰된 현재 프레임의 영상에서 레이저포인트를 검출하여 레이저포인터로 지시한 문자나 그림을 빔프로젝터에 의해 스크린에 영상으로 표시하는 방법을 제시하고 있다.

Description

프리젠테이션 시스템에서 레이저 포인터를 이용한 영상 판서 방법
본 발명은 프리젠테이션 시스템에서 스크린상에 문자나 그림을 영상으로 표시하는 영상 판서 방법에 관한 것으로, 더욱 상세하게는 레이저 포인터가 지시하는 위치의 궤적을 판독하여 발표자가 의도한 문자나 그림을 자동으로 스크린상에 영상으로 표시해주는 프리젠테이션 시스템의 레이저 포인터를 이용한 영상 판서 방법에 관한 것이다.
발표자가 빔프로젝터와 노트북과 같은 사용자단말을 이용하여 프리젠테이션을 하는 경우, 레이저 포인터를 활용하여 스크린에 레이저 빔을 조사하여 지시하게 되는데, 이때 레이저 포인터를 가지고 강조할 부분에 밑줄, 세모, 네모, 동그라미 등으로 표시하거나 부가 설명을 간단히 문자로 표시하기도 한다.
그러나 프리젠테이션에서 레이저 포인터는 온될 경우 발표자가 가르키는 현재 위치를 점(이를 레이저 포인트라 한다)으로 지시만 하지 프리젠테이션 영상에 계속하여 표시해 둘 수가 없으므로 레이저 포인터가 지나가면 이전의 그림이나 문자는 화면에서 사라져 버리는 일시적인 특성을 갖는 단점이 있다.
이러한 단점을 해결하기 위해 프리젠테이션 영상을 위한 데이터를 생성시 레이저 포인터로 입력할 밑줄, 세모, 네모, 동그라미 등과 같은 형상을 미리 순차적으로 입력하는 방식을 취하고 있으나 이는 데이터 생성을 위한 시간이 많이 소모되는 단점을 갖는다.
이에 따라 해당 기술분야에 있어서는 레이저 포인터가 지시한 영상인 밑줄, 세모, 네모, 동그라미 등과 같이 끊어짐 없이 지시한 형상을 프리젠테이션 영상과 함께 구현함으로써, 발표자가 보다 프리젠테이션 시의 전달력을 향상시키기 위한 기술이 본 출원인에 의해 특허출원되어 등록번호 제10-122543호로 등록된 바 있다.
[관련기술문헌]
1. 레이저 포인터 마우스를 이용한 프리젠테이션 시스템(Presentation system using a Laser-pointer mouse) (특허출원번호 제10-2000-0016712호)
2. 레이저 포인터를 이용한 입력 장치와 그를 이용한 프리젠테이션 제공 시스템(Input apparatus using a raser pointer and system foroffering presentation using the apparatus) (특허출원번호 제10-2005-0109878호)
3. 레이저 포인터 영상 추출에 따른 프리젠테이션 영상으로의 적용 방법(특허 등록번호 제10-1222543호)
본 출원인에 의해 선등록된 특허 제10-1222543호는 레이저 포인터의 궤적을 추출하여 저장한 후 미리 설정된 도형과 비교하여 가장 유사한 도형의 이미지를 프리젠테이션 영상의 해당 위치에 적용하여 레이저 포인터가 지시한 도형이 프리젠테이션 영상에 계속 표시되도록 하는 것이다. 따라서 선등록된 특허 제10-1222543호는 스크린상에 영상으로 문자를 표시하는 판서 기능이 미흡한 문제점이 있다.
본 발명은 상기의 문제점을 해결하기 위해 제안된 것으로, 본 발명의 목적은 레이저 포인터가 지시하는 위치의 궤적을 신속히 판독하여 발표자가 의도한 문자나 그림을 자동으로 스크린상에 영상으로 표시해주는 프리젠테이션 시스템의 레이저 포인터를 이용한 영상 판서 방법을 제공하는 것이다.
상기와 같은 목적을 달성하기 위하여 본 발명의 방법은, 사용자단말로부터 제공되는 프리젠테이션 영상을 빔프로젝터가 스크린에 디스플레이하고, 레이저포인터가 스크린에 레이저포인트를 주사하며, 카메라가 스크린을 촬영하도록 된 프리젠테이션 시스템에 있어서, 상기 카메라가 일정 간격으로 상기 스크린을 촬영하여 프레임을 캡춰하는 단계; 상기 카메라에 의해 캡춰된 현재 프레임의 영상에서 레이저포인트를 검출하는 단계; 현재 프레임의 영상에서 레이저포인트가 검출되면, 해당 레이저포인트의 위치를 인식하여 좌표 세트에 저장하는 단계; 현재 프레임의 영상에서 레이저포인트가 검출되지 않으면, 인식 안 된 프레임의 수를 카운트하는 단계; 레이저포인트가 화면에서 사라지고 특정한 프레임 수(A)가 지나고, 저장된 좌표가 특정 개수(B) 이상이면, 타원 핏팅을 하여 장축길이와 단축길이를 계산하는 단계; 단축길이와 장축길이의 비가 특정값(C) 이하이면 직선으로 판단하고, 특정값 이상이면 타원으로 판단하는 단계; 타원으로 판단시 빔프로젝터를 통해 스크린의 화면에 계산된 값으로 타원을 표시하는 단계; 및 직선으로 판단시 저장된 좌표 세트를 직선 핏팅한 후, 저장된 좌표 세트에서 직선의 시작점과 끝점을 계산한 후 빔프로젝터를 통해 스크린 화면에 직선을 표시하는 단계를 포함하여 레이저포인터로 지시한 문자나 그림을 빔프로젝터에 의해 스크린에 영상으로 표시하는 것을 특징으로 한다.
상기 영상 판서 방법은 카메라의 위치에 따라 획득되는 스크린의 영역이 달라지므로 레이저 포인트의 위치를 화면의 위치와 일치시키기 위해 스크린에 백색의 화면을 주사하여 획득된 영상에서 모서리 끝점을 찾아서 각 모서리 점이 사용자 단말 화면의 모서리 점이 되도록 일치시키는 단계를 더 포함한다.
또한, 상기 카메라는 레이저포인터의 종류에 따라 레이저 포인터의 빛을 인식하거나 적외선을 인식하는 카메라이고, 레이저포인터가 스크린에 지시하는 레이저포인트를 인식할 수 있도록 노출과 밝기, 대비, 화이트 밸런스를 조정할 수 있는 것이다.
본 발명에 따른 프리젠테이션 시스템의 레이저 포인터를 이용한 영상 판서 방법은, 일정 프레임 간격으로 스크린을 촬영하면서 레이저 포인터가 지시하는 위치의 좌표를 축적한 후 소정의 판서 알고리즘에 따라 신속하게 선이나 타원(원)으로 인식하여 스크린에 즉시 표시해줌으로써 발표자가 지시한 문자나 그림을 프리젠테이션 영상에 지속적으로 표시하여 발표자의 편의를 극대화할 수 있는 장점이 있다.
또한, 본 발명의 방법은 레이저 포인터를 이용한 레이저 영상에 대한 위치값 추출과 가장 근접한 영상에 대한 추출을 매칭하여 활용함으로써, 프리젠테이션 영상에서 발표자가 지시한 위치에 정확하게 매칭시켜 발표자의 의도와 가장 부합하는 직선, 도형, 문자 등을 간략하게 표시할 수 있는 효과가 있다.
도 1은 본 발명이 적용될 수 있는 전형적인 프리젠테이션 시스템의 전체 구성을 도시한 개략도,
도 2는 도 1에서의 카메라의 구성을 도시한 구성 블럭도,
도 3은 도 1에서의 사용자단말의 구성을 도시한 구성 블럭도,
도 4는 본 발명에 따른 프리젠테이션 시스템에서 레이저 포인터를 이용하여 영상으로 판서하는 절차를 도시한 순서도이다.
*부호의 설명*
100: 빔프로젝터 200: 스크린
300: 레이저포인터 400: 카메라
500: 사용자단말 600: IP망
이하, 본 발명의 바람직한 실시예의 상세한 설명은 첨부된 도면들을 참조하여 설명할 것이다. 하기에서 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.
본 명세서에 있어서는 어느 하나의 구성요소가 다른 구성요소로 데이터 또는 신호를 '전송'하는 경우에는 구성요소는 다른 구성요소로 직접 상기 데이터 또는 신호를 전송할 수 있고, 적어도 하나의 또 다른 구성요소를 통하여 데이터 또는 신호를 다른 구성요소로 전송할 수 있음을 의미한다.
도 1은 본 발명이 적용될 수 있는 전형적인 프리젠테이션 시스템의 전체 구성을 도시한 개략도이다. 도 1을 참조하면, 본 발명에 따른 프리젠테이션 시스템은 빔프로젝터(100), 스크린(200), 레이저 포인터(300), 카메라(400), 사용자단말(500) 및 IP망(600)을 포함한다. 여기서 IP망(600)은 대용량, 장거리 음성 및 데이터 서비스가 가능한 통신망이며, 예컨대, 인터넷(Internet)이 될 수 있다. 또한, IP망은 ALL IP(Internet Protocol) 기반의 고속의 멀티미디어 서비스를 제공하기 위한 차세대 유선 또는 무선 망일 수 있다.
또한 카메라(400)는 레이저 포인터(300)의 종류에 따라 레이저 포인터의 빛을 인식하는 카메라나 적외선 카메라일 수도 있으며, 레이저 포인터(300)가 스크린(200)에 지시하는 레이저 포인트를 가장 밝게 인식할 수 있도록 노출과 밝기, 대비, 화이트 밸런스 등을 조정할 수 있고, 빔프로젝터(100)가 주사하는 스크린(200)을 캡쳐하고 있다. 이때 카메라(400)의 위치에 따라 획득되는 스크린의 영역이 달라지므로 레이저 포인트의 위치가 화면의 위치와 다르므로 이를 해결하기 위해 스크린(200)에 백색의 화면을 주사하여 획득된 영상에서 모서리 끝점을 찾아서 각 모서리 점이 사용자 단말 화면의 모서리 점이 되도록 호모그래피(Homography)와 퍼스펙티브 트랜스폼(Perspective transform)을 이용하여 변환한다.
도 2는 도 1에서의 카메라(400)의 구성을 나타내는 도면이다. 도 2를 참조하면, 카메라(400)는 CMOS 모듈(410), MCU(Micro Contol Unit: 420), 레이저 촬영모듈(430), 제 1 저장부(440), 제 1 송수신단(450) 및 제 1 I/O 인터페이스(460)를 포함하며, 레이저 촬영모듈(430)은 레이저 촬영수단(431) 및 레이저 위치값 추출수단(432)을 구비한다.
그리고 본 명세서에서 모듈이라 함은, 본 발명의 기술적 사상을 수행하기 위한 하드웨어 및 상기 하드웨어를 구동하기 위한 소프트웨어의 기능적, 구조적 결합을 의미할 수 있다. 예컨대, 상기 모듈은 소정의 코드와 상기 소정의 코드가 수행되기 위한 하드웨어 리소스의 논리적인 단위를 의미할 수 있으며, 반드시 물리적으로 연결된 코드를 의미하거나, 한 종류의 하드웨어를 의미하는 것은 아님은 본 발명의 기술분야의 평균적 전문가에게는 용이하게 추론될 수 있다.
MCU(420)는 제 1 송수신단(450) 또는 제 1 I/O 인터페이스(460)에 대한 제어에 의해 사용자단말(500)과 데이터 세션을 연결한 뒤, 연결된 데이터 세션을 통해 사용자단말(500)로부터 스크린(200)에 대한 촬영 명령 및 사용자단말(500)에 의해 설정된 각 위치값을 수신함으로써, CMOS 모듈(410)을 구동시켜 촬영 대기 모드로 진입한다. 이때, MCU(420)는 수신된 각 위치값을 제 1 저장부(440)에 저장한다. 즉, MCU(420)는 사용자단말(500)과 IP망(600)을 통한 데이터 세션을 연결할 경우 제 1 송수신단(450)을 제어하며, 직접적 데이터 케이블에 의한 사용자단말(500)과 데이터 세션을 연결할 경우 제 1 I/O 인터페이스(460)를 제어한다.
사용자가 소지한 레이저 포인터(300)로부터 레이저가 스크린(200)상에 사용자단말(500)에 의해 스크린(200) 상에 설정된 위치값 중 하나의 위치값으로 조사되는 것으로 CMOS 모듈(410)을 통해 감지한 MCU(420)는 레이저 촬영모듈(430)을 웨이크업(Wake-Up) 한다. 이에 따라 레이저 촬영모듈(430)의 레이저 촬영수단(431)은 레이저 포인터(300)로부터 출력된 레이저의 연속된 조사 시간 동안 레이저 영상을 촬영한 뒤, 제 1 저장부(440)에 저장한다. 동시에 레이저 촬영모듈(430)의 레이저 위치값 추출수단(432)은 레이저 촬영수단(431)에 의해 촬영되는 레이저 영상에 대해 연속되게 조사되는 레이저의 위치값도 미리 설정된 시간 간격으로 추출한 뒤 제 1 저장부(440)에 저장한다. 즉, 레이저 촬영모듈(430)은 사용자가 프리젠테이션을 할 때 레이저 포인터(300)를 활용하여 스크린(200)에 레이저를 조사하여 지시하게 되는데, 이때 레이저 포인터(300)를 가지고 일정한 영역을 밑줄, 세모, 네모, 동그라미 등으로 지시할 경우 이러한 하나의 밑줄, 세모, 네모, 동그라미 등의 형상을 하나의 연속된 레이저 조사로 인식할 수 있도록 한다.
여기서 레이저 촬영수단(431)은 레이저 영상에 대한 촬영시 스크린(200) 상에서 상기 레이저 포인터로부터 출력된 연속된 조사 시간 동안 레이저 영상을 촬영하게 되는데, 연속된 조사 시간의 범위를 벗어나는 조사되지 않는 시간의 범위는 1/100~1/2초(second)로 설정되는 것이 바람직하다.
그리고 제 1 저장부(440) 및 후술할 제 2 저장부(550)는 비휘발성 메모리(Non-volatile memory, NVM)로써 전원이 공급되지 않아도 저장된 데이터를 계속 유지하며 삭제되지 않으며, 플래시 메모리(Flash Memory), MRAM(Magnetic Random Access Memory), PRAM(Phase-change Random Access memory: 상변화 램), FRAM(Ferroelectric RAM: 강유전체 램) 등으로 구성될 수 있다.
MCU(420)는 사용자단말(500)과 연결된 데이터 세션을 통해 촬영된 연속된 조사 시간 동안의 레이저 영상과 레이저 영상의 미리 설정된 시간 간격에 따라 추출된 위치값을 사용자단말(500)로 전송하도록 제 1 송수신단(450) 및 제 1 I/O 인터페이스(460)를 제어한다.
도 3은 도 1에서의 사용자단말(500)의 구성을 나타내는 도면이다. 도 3을 참조하면, 사용자단말(500)은 제 2 송수신단(510), 제 2 I/O 인터페이스(520), 중앙제어부(530), 프리젠테이션 영상 구현 모듈(540), 제 2 저장부(550), 입출력부(560), 레이저포인터 판서모듈(570)을 포함한다. 그리고 중앙제어부(530)는 카메라/빔프로젝터 제어모듈(531)을 구비하며, 프리젠테이션 영상 구현 모듈(540)은 스크린 위치값 설정수단(541), 레이저 영상 추출수단(542) 및 영상변환수단(543)을 구비한다. 한편, 사용자단말(500)은 파워포인트와 같은 프리젠테이션 프로그램을 제 2 저장부(550)에 저장하며, 입출력부(560)를 통한 사용자의 요청에 따라 중앙제어부(530)가 시스템 메모리 상에 로딩한다.
중앙제어부(530)의 카메라/빔프로젝터 제어모듈(531)은 빔프로젝터(100) 및 카메라(400)가 데이터 세션을 연결하도록 제 2 송수신단(510) 또는 제 2 I/O 인터페이스(520)를 제어한다. 이후, 카메라/빔프로젝터 제어모듈(531)은 연결된 데이터 세션을 통해 빔프로젝터(100)로 프리젠테이션 영상이 구현되도록 제어한 뒤, 프리젠테이션 영상 구현 모듈(540)을 웨이크업 한다.
이에 따라, 프리젠테이션 영상 구현 모듈(540)의 스크린 위치값 설정수단(541)은 빔프로젝터(100)에서 출력된 프리젠테이션 영상이 구현되는 스크린(200)에 대한 가로방향(X) 및 세로방향(Y)의 조합에 의한 각 위치값을 설정하여 제 2 저장부(550)에 저장한다. 여기서 위치값은 픽셀값 또는 좌표값으로 설정가능하며, 빔프로젝터(100)에 의해 구현되는 프리젠테이션 영상의 해상도에 따라 다양한 숫자의 값으로 설정가능하다.
프리젠테이션 영상 구현 모듈(540)의 레이저 영상 추출수단(542)은 수신된 레이저 영상을 제 2 저장부(550)에 저장된 다수의 영상과 비교하여 가장 근접한 형태를 갖는 영상을 추출한다.
프리젠테이션 영상 구현 모듈(540)의 영상변환수단(543)은 레이저 영상 추출수단(542)에 의해 추출된 가장 근접한 영상의 형상을 미리 설정된 시간 간격으로 분할한 뒤, 분할된 형상의 영상을 추출된 레이저 영상의 미리 설정된 시간 간격에 따라 추출된 위치값과 각각 매칭시켜 프리젠테이션 매칭형 레이저 영상을 생성한 뒤, 제 2 저장부(550)에 저장한다.
카메라/빔프로젝터 제어모듈(531)은 프리젠테이션 영상 구현 모듈(540)에 의해 생성된 프리젠테이션 매칭형 레이저 영상을 빔프로젝터(100)에 출력되고 있는 프리젠테이션 영상과 시간의 흐름에 따라 동기화시켜 출력되도록 빔프로젝터(100)를 제어한다.
한편, 레이저포인터 판서 모듈(570)은 레이저 포인터(300)를 이용하여 스크린(200)에 판서 시 레이저포인터(300)가 움직인 궤적을 타원피팅(Fitting)과 직선피팅(Fitting)을 이용하여 타원 또는 직선으로 계산한 후 스크린 화면에 다양한 색상을 표시한다. 즉, 레이저포인터(300)가 동작하여 스크린(200)에 노출되면 카메라(400)에서 이를 획득하여 모니터의 좌표계로 저장하고, 레이저포인터(300)가 연속적으로 동작시 계속 저장한다. 그리고 레이저포인터(300)가 화면에 없을 시 특정한 프레임 수(A)가 지나고 저장된 좌표가 특정 개수(B) 이상이면 타원 핏팅을 하여 장축길이, 단축길이, 주축각도, 중심점 등을 찾고, 주축각도가 수평에 근사하고 단축길이/장축길이가 특정값(C) 이하면 직선으로 판단하고, 특정값 이상이면 타원으로 판단한다. 타원으로 판단시 화면에 계산된 값으로 타원을 그리고, 직선으로 판단시 저장된 좌표를 직선피팅한 후 저장된 좌표의 좌, 우 좌표를 이용하여 그릴 직선의 시작점과 끝점을 계산한 후 화면에 직선을 그리며, 이러한 과정을 프로그램 종료시까지 루프를 돌며 반복한다.
도 4는 본 발명에 따른 프리젠테이션 시스템에서 레이저 포인터를 이용하여 영상으로 판서하는 절차를 도시한 순서도이다.
먼저, 본 발명에 따른 판서 알고리즘은 대부분의 문자(특히 한글)나 도형을 직선과 타원(원)으로 나타낼 수 있음에 착안하여 발표자가 레이저포인터(300)를 이용하여 스크린(200)에 판서할 경우 레이저포인트의 궤적을 타원피팅과 직선피팅을 통해 타원이나 직선으로 판단하여 스크린상의 해당 위치에 지속적인 영상으로 판서하는 것이다. 이러한 본 발명의 레이저포인터 판서 알고리즘은 사용자 단말(500)에서 프로그램으로 실행되는데, 일련의 시뮬레이션을 통해는 카메라(400)가 캡춰한 프레임에서 레이저포인트가 검출되지 않아 일련의 주사가 종료된 것으로 판단하기 위한 프레임 수(A)와, 좌표 세트에 저장된 좌표가 판서하기에 충분하다고 판단되는 특정 개수(B)를 설정하고, 타원피팅을 하여 직선인지 타원인지를 판단하기 위한 단축길이와 장축길이의 비값(C)을 미리 설정한다. 또한, 스크린상의 위치와 사용자단말(500)의 모니터 화면 위치 및 카메라 위치에 따른 영상 프레임을 일치(동기)시키기 위해 스크린에 백색의 화면을 스캔하여 모서리를 일치시키는 일련의 동기화 절차를 수행함과 아울러 카메라(400)가 스크린(200)을 캡춰(촬영)하는 프레임 주기를 설정하여 설정된 주기 간격으로 스크린(200)을 캡춰한 프레임 데이터를 획득한다.
도 4를 참조하면, 먼저 레이저포인트의 궤적 좌표를 저장하기 위한 좌표 세트(set)를 초기화한다(S1). 이후 카메라(400)가 스크린을 캡춰한 현재 프레임의 영상 데이터를 입력받아 현재 프레임에 레이저포인트가 있는지를 판단한 후 레이저포인트가 있으면 레이저포인트의 좌표를 인식하여 좌표 세트에 추가한다(S2,S3).
만일 현재 프레임에 레이저포인트가 없어 인식에 실패하면 인식 안 된 프레임 수를 누적 카운트하고, 누적된 카운트 값이 미리 설정된 A값을 초과하는지 판단한다. A값을 초과하지 않으면 S2 단계로 돌아가 반복하고, 초과하면 S1 단계로 돌아가 좌표 세트를 초기화한다(S4,S5).
좌표 세트에 저장된 좌표의 수가 미리 설정된 B값을 초과하면, 인식 안 된 프레임의 수가 A값을 초과하는지 판단하여 초과하면 좌표 세트를 타원 피팅(Fitting)하여 단축길이와 장축길이 등을 계산한다(S6~S8). 만일, 인식 안 된 프레임 수가 A값 미만이면 S2 단계로 돌아가 반복한다(S7).
이어 파원피팅을 통해 구한 단축길이와 장축길이의 비(단축/장축) 값이 미리 설정된 C값을 초과하면 타원으로 판단하여 빔프로젝터(100)를 통해 스크린(200) 화면에 타원을 표시한다(S9,S10).
그리고 파원피팅을 통해 구한 단축길이와 장축길이의 비(단축/장축) 값이 미리 설정된 C값 미만이면 직선으로 판단하여 좌표 세트를 직선피팅을 한 후, 스크린 화면에 그릴 직선의 시작점과 끝점을 계산하여 빔프로젝터(100)를 통해 스크린 화면에 직선을 표시한다(S11~S13). 이때 타원이나 직선의 색상은 미리 설정하거나 조작을 통해 선택 혹은 랜덤하게 결정할 수 있다.
이와 같은 레이저포인터 판서 프로그램이 계속 실행되면, 스크린 화면에는 발표자가 레이터포인터(300)를 이용하여 판서한 문자나 그림이 영상으로 지속적으로 표시되어 출력되고, 클리어 버튼이 입력되면 스크린(200)에 판서한 영상이 지워지고 좌표 세트를 초기화시켜 다시 판서를 시작할 수 있게 한다(S14).
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.
컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.
또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의해 용이하게 추론될 수 있다.
이상과 같이, 본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.

Claims (3)

  1. 사용자단말로부터 제공되는 프리젠테이션 영상을 빔프로젝터가 스크린에 디스플레이하고, 레이저포인터가 스크린에 레이저포인트를 주사하며, 카메라가 스크린을 촬영하도록 된 프리젠테이션 시스템에 있어서,
    상기 카메라가 일정 간격으로 상기 스크린을 촬영하여 프레임을 캡춰하는 단계;
    상기 카메라에 의해 캡춰된 현재 프레임의 영상에서 레이저포인트를 검출하는 단계;
    현재 프레임의 영상에서 레이저포인트가 검출되면, 해당 레이저포인트의 위치를 인식하여 좌표 세트에 저장하는 단계;
    현재 프레임의 영상에서 레이저포인트가 검출되지 않으면, 인식 안 된 프레임의 수를 카운트하는 단계;
    레이저포인트가 화면에서 사라지고 특정한 프레임 수(A)가 지나고, 저장된 좌표가 특정 개수(B) 이상이면, 타원 핏팅을 하여 장축길이와 단축길이를 계산하는 단계;
    단축길이와 장축길이의 비가 특정값(C) 이하이면 직선으로 판단하고, 특정값 이상이면 타원으로 판단하는 단계;
    타원으로 판단시 빔프로젝터를 통해 스크린의 화면에 계산된 값으로 타원을 표시하는 단계; 및
    직선으로 판단시 저장된 좌표 세트를 직선 핏팅한 후, 저장된 좌표 세트에서 직선의 시작점과 끝점을 계산한 후 빔프로젝터를 통해 스크린 화면에 직선을 표시하는 단계를 포함하여 레이저포인터로 지시한 문자나 그림을 빔프로젝터에 의해 스크린에 영상으로 표시하는 것을 특징으로 하는 프리젠테이션 시스템의 레이저 포인터를 이용한 영상 판서 방법.
  2. 제1항에 있어서, 상기 영상 판서 방법은
    카메라의 위치에 따라 획득되는 스크린의 영역이 달라지므로 레이저 포인트의 위치를 화면의 위치와 일치시키기 위해 스크린에 백색의 화면을 주사하여 획득된 영상에서 모서리 끝점을 찾아서 각 모서리 점이 사용자 단말 화면의 모서리 점이 되도록 일치시키는 단계를 더 포함하는 것을 특징으로 하는 프리젠테이션 시스템의 레이저 포인터를 이용한 영상 판서 방법.
  3. 제1항에 있어서, 상기 카메라는
    레이저포인터의 종류에 따라 레이저 포인터의 빛을 인식하거나 적외선을 인식하는 카메라이고, 레이저포인터가 스크린에 지시하는 레이저포인트를 인식할 수 있도록 노출과 밝기, 대비, 화이트 밸런스를 조정할 수 있는 것을 특징으로 하는 프리젠테이션 시스템의 레이저 포인터를 이용한 영상 판서 방법.
PCT/KR2014/000376 2013-02-07 2014-01-14 프리젠테이션 시스템에서 레이저 포인터를 이용한 영상 판서 방법 WO2014123309A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201480002428.8A CN104685450B (zh) 2013-02-07 2014-01-14 在演示系统中利用激光指示器的影像书写方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2013-0013681 2013-02-07
KR1020130013681A KR101258910B1 (ko) 2013-02-07 2013-02-07 프리젠테이션 시스템에서 레이저 포인터를 이용한 영상 판서 방법

Publications (1)

Publication Number Publication Date
WO2014123309A1 true WO2014123309A1 (ko) 2014-08-14

Family

ID=48443892

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2014/000376 WO2014123309A1 (ko) 2013-02-07 2014-01-14 프리젠테이션 시스템에서 레이저 포인터를 이용한 영상 판서 방법

Country Status (3)

Country Link
KR (1) KR101258910B1 (ko)
CN (1) CN104685450B (ko)
WO (1) WO2014123309A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112748814A (zh) * 2019-10-29 2021-05-04 北京小米移动软件有限公司 环境光检测方法及装置、终端

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106774868B (zh) * 2016-12-06 2020-04-10 杨超峰 一种无线演示装置
CN108874187A (zh) * 2018-06-06 2018-11-23 哈尔滨工业大学 一种投影仪笔记系统
CN112785884A (zh) * 2021-01-27 2021-05-11 吕瑞 智能辅助学习系统、方法及学习桌
CN112785883A (zh) * 2021-01-27 2021-05-11 吕瑞 基于图像识别的点读位置标记方法、系统及智能学习桌

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050086154A (ko) * 2004-02-25 2005-08-30 김성필 영상인식 프리젠테이션 시스템 및 방법
KR20070105322A (ko) * 2005-02-10 2007-10-30 유겐가이샤 타크람 디자인 엔지니어링 포인터광 트래킹 방법, 프로그램 및 그 기록 매체
KR100820839B1 (ko) * 2007-02-12 2008-04-11 엘지전자 주식회사 영상 처리 장치와 이를 이용한 영상 디스플레이 시스템 및그 방법
JP2012230653A (ja) * 2011-04-27 2012-11-22 Nagasakiken Koritsu Daigaku Hojin プレゼンテーション装置
KR101222543B1 (ko) * 2012-09-06 2013-01-17 (주)유한프리젠 레이저 포인터 영상 추출에 따른 프리젠테이션 영상으로의 적용 방법

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004079558A1 (ja) * 2003-03-03 2004-09-16 Matsushita Electric Industrial Co., Ltd. プロジェクタシステム
CN101071350B (zh) * 2006-05-11 2011-06-15 华移联科(沈阳)技术有限公司 一种通过识别动态轨迹操作光标、视窗的装置
CN101251784B (zh) * 2008-04-03 2010-06-30 上海交通大学 激光笔指示与光点轨迹识别方法
CN102238361B (zh) * 2010-04-22 2013-07-31 联想(北京)有限公司 一种终端及其显示方法
CN102346572B (zh) * 2010-08-04 2014-01-15 宝硕财务科技股份有限公司 光点远距同步显示系统及其方法
CN102402680B (zh) * 2010-09-13 2014-07-30 株式会社理光 人机交互系统中手部、指示点定位方法和手势确定方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050086154A (ko) * 2004-02-25 2005-08-30 김성필 영상인식 프리젠테이션 시스템 및 방법
KR20070105322A (ko) * 2005-02-10 2007-10-30 유겐가이샤 타크람 디자인 엔지니어링 포인터광 트래킹 방법, 프로그램 및 그 기록 매체
KR100820839B1 (ko) * 2007-02-12 2008-04-11 엘지전자 주식회사 영상 처리 장치와 이를 이용한 영상 디스플레이 시스템 및그 방법
JP2012230653A (ja) * 2011-04-27 2012-11-22 Nagasakiken Koritsu Daigaku Hojin プレゼンテーション装置
KR101222543B1 (ko) * 2012-09-06 2013-01-17 (주)유한프리젠 레이저 포인터 영상 추출에 따른 프리젠테이션 영상으로의 적용 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112748814A (zh) * 2019-10-29 2021-05-04 北京小米移动软件有限公司 环境光检测方法及装置、终端

Also Published As

Publication number Publication date
CN104685450B (zh) 2017-09-08
KR101258910B1 (ko) 2013-04-29
CN104685450A (zh) 2015-06-03

Similar Documents

Publication Publication Date Title
WO2014123309A1 (ko) 프리젠테이션 시스템에서 레이저 포인터를 이용한 영상 판서 방법
JP3867205B2 (ja) 指示位置検出装置、及び指示位置検出システム、並びに指示位置検出方法
TW378159B (en) Input position detection device and entertainment system
CN106843602B (zh) 一种大屏幕遥控交互系统及其交互方法
US20110249019A1 (en) Projection system and method
US8896692B2 (en) Apparatus, system, and method of image processing, and recording medium storing image processing control program
CN102682272A (zh) 电子系统、影像校正方法及其计算机程序产品
US11074715B2 (en) Image processing apparatus and method
CN108595928A (zh) 人脸识别的信息处理方法、装置及终端设备
EP4261799A3 (en) Systems and methods of power-management on smart devices
KR101686143B1 (ko) 영상 처리 장치 및 영상 처리 방법
CN206378680U (zh) 基于结构光多模块360度空间扫描和定位的3d相机
US11659134B2 (en) Image processing apparatus and image processing method
CN110880161A (zh) 一种多主机多深度摄像头的深度图像拼接融合方法及系统
KR101311158B1 (ko) 프리젠테이션 시스템에서 동영상을 이용한 강조 표현 방법
WO2014038819A1 (ko) 레이저 포인터 영상 추출에 따른 프리젠테이션 영상으로의 적용 방법
CN114040097A (zh) 一种基于多通道图像采集融合的大场景交互动作捕捉系统
US20110249124A1 (en) Monitoring system and method
CN112672057A (zh) 拍摄方法及装置
KR101280840B1 (ko) 프리젠테이션 시스템의 스크린상에서 레이저 포인트 위치 좌표 인식 방법
US20110157000A1 (en) Projection system and method
KR20190110369A (ko) 지정 피사체의 자동 추적이 가능한 지능형 카메라 시스템 및 이를 이용한 영상촬영 방법
KR102515405B1 (ko) Kinect 장치들을 이용한 AR 콘텐츠용 3D 공간 맵 지원 방법 및 이를 지원하는 전자 장치
CN118013989A (zh) 二维码调整方法、装置、设备和存储介质
JP2003256842A (ja) 動体位置検出装置および方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14749435

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14749435

Country of ref document: EP

Kind code of ref document: A1