WO2014038819A1 - 레이저 포인터 영상 추출에 따른 프리젠테이션 영상으로의 적용 방법 - Google Patents

레이저 포인터 영상 추출에 따른 프리젠테이션 영상으로의 적용 방법 Download PDF

Info

Publication number
WO2014038819A1
WO2014038819A1 PCT/KR2013/007872 KR2013007872W WO2014038819A1 WO 2014038819 A1 WO2014038819 A1 WO 2014038819A1 KR 2013007872 W KR2013007872 W KR 2013007872W WO 2014038819 A1 WO2014038819 A1 WO 2014038819A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
laser
user terminal
presentation
continuous irradiation
Prior art date
Application number
PCT/KR2013/007872
Other languages
English (en)
French (fr)
Inventor
신중식
Original Assignee
(주)유한프리젠
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)유한프리젠 filed Critical (주)유한프리젠
Publication of WO2014038819A1 publication Critical patent/WO2014038819A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03542Light pens for emitting or receiving light
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/18Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical projection, e.g. combination of mirror and condenser and objective
    • G02B27/20Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical projection, e.g. combination of mirror and condenser and objective for imaging minute objects, e.g. light-pointer
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay

Definitions

  • the present invention relates to a method for applying to a presentation image by extracting a laser pointer image. More specifically, the present invention relates to a method of extracting a laser pointer image to enable the presentation image to be continuously displayed using a laser pointer. The present invention relates to a presentation method.
  • the laser pointer is used to irradiate a laser beam on the screen to indicate a certain area with underlines, triangles, squares, circles, and the like. .
  • the laser pointer since the laser pointer is only turned on and not indicated, it cannot be displayed on the presentation image.
  • the laser pointer is turned off, the irradiated laser disappears from the screen and has a temporary characteristic of not knowing the path already passed.
  • the presenter implements a seamlessly indicated shape such as an underline, a triangle, a square, and a circle indicated by the laser pointer together with the presentation image, so that the presenter can improve the delivery power during the presentation.
  • a seamlessly indicated shape such as an underline, a triangle, a square, and a circle indicated by the laser pointer together with the presentation image, so that the presenter can improve the delivery power during the presentation.
  • the present invention is to solve the above problems
  • the present invention provides a method of applying to a presentation image by extracting a laser pointer image so as to satisfy the presenter's intention by outputting together with the output.
  • a method of applying a presentation image by extracting a laser pointer image may include: a user terminal photographing a laser image during a continuous irradiation time of a laser output from a laser pointer; Transmitting to the first step; And extracting, from the plurality of pre-stored images, an image having a form closest to a laser image during the continuous irradiation time received by the user terminal from the camera. And a third step of outputting the image having the closest shape extracted in the second step together with the presentation image output by the beam projector through the beam projector at the user terminal. It consists of.
  • the user terminal controls the beam projector for outputting the presentation image, and the combination of the horizontal direction (X) and the vertical direction (Y) for the screen on which the presentation image is implemented. Setting each position value by the means; Is preferably performed further.
  • the first step is a step 1-1 in which the camera takes a laser image during the continuous irradiation time of the laser output from the laser pointer, and the position value of the laser continuously irradiated at a predetermined time interval Thereafter, steps 1-2 of matching the position values of the laser and the photographed laser image during the continuous irradiation time, and transmitting the position values of the laser matched with the laser image during the continuous irradiation time to the user terminal. It is preferably composed of the first 1-3 steps.
  • the third step may further include a step 3-1 of matching the image of the shape divided from the image of the closest form from which the user terminal is extracted with the position value of the laser extracted at the predetermined time interval; It is preferable that the step 3-2 is performed by generating an image having a divided shape matching the position value of the extracted laser and outputting it as an image through a beam projector.
  • each position value set by the user terminal before the first step may be set to a pixel value or a coordinate value, and the number of position values may vary according to the resolution of the presentation image implemented by the beam projector. It is preferable to be set.
  • the first step is a range of non-irradiated time outside the range of continuous irradiation time when the camera takes a laser image during the continuous irradiation time output from the laser pointer is 1/100 ⁇ 1/2 second ( second).
  • the method of applying a presentation to a presentation image by extracting a laser pointer image provides an effect that can continuously implement a shape continuously indicated by using a laser pointer on the presentation image.
  • the application method to the presentation image according to the laser pointer image extraction according to another embodiment of the present invention by automatically extracting the image that is closest to the laser image irradiated with the laser pointer and implemented by matching the presentation image, It provides the effect of maximizing presenter's convenience.
  • the method of applying to the presentation image according to the laser pointer image extraction according to another embodiment of the present invention by matching the position value extraction for the laser image using the laser pointer with the extraction for the closest image, By accurately matching the position indicated by the presenter in the presentation image, it provides an effect of simply displaying a line, a figure, etc. that best matches the presenter's intention.
  • FIG. 1 is a diagram showing a system implementing a method of applying a presentation image to a laser pointer image according to an embodiment of the present invention
  • FIG. 2 is a diagram illustrating a configuration of a camera in FIG. 1.
  • FIG. 3 is a view showing the configuration of a user terminal in FIG.
  • FIG. 4 is a flowchart illustrating a method of applying to a presentation image according to laser pointer image extraction according to an embodiment of the present invention.
  • CMOS module 420 MCU
  • laser imaging module 431 laser imaging means
  • laser position value extraction means 440 first storage unit
  • first transceiver end 460 first I / O interface
  • camera / beam projector control module 540 presentation image implementation module
  • image conversion means 550 second storage unit
  • input and output unit 600 IP network
  • the component when one component 'transmits' data or a signal to another component, the component may directly transmit the data or signal to another component, and through at least one other component. This means that data or signals can be transmitted to other components.
  • FIG. 1 is a diagram illustrating a system in which a method of applying a presentation to a presentation image according to laser pointer image extraction according to an embodiment of the present invention is implemented.
  • a beam projector 100, a screen 200, a laser pointer 300, a camera 400, a user terminal 500, and an IP network 600 are included.
  • the IP network 600 is a communication network capable of a large capacity, long distance voice and data service, and may be, for example, the Internet.
  • the IP network may be a next-generation wired or wireless network for providing high-speed multimedia services based on ALL IP (Internet Protocol).
  • FIG. 2 is a diagram illustrating a configuration of the camera 400 in FIG. 1.
  • the camera 400 includes a CMOS module 410, a micro controller unit (MCU) 420, a laser imaging module 430, a first storage unit 440, a first transmission and reception terminal 450, and a first transmission unit 450.
  • the laser imaging module 430 includes a laser imaging means 431 and a laser position value extraction means 432.
  • the module may mean a functional and structural combination of hardware for performing the technical idea of the present invention and software for driving the hardware.
  • the module may mean a logical unit of a predetermined code and a hardware resource for performing the predetermined code, and means a physically connected code or does not necessarily mean one kind of hardware. It can be easily inferred by the average expert in the art.
  • the MCU 420 connects the data session with the user terminal 500 by controlling the first transmission / reception terminal 450 or the first I / O interface 460, and then connects the data session with the user terminal 500.
  • the CMOS module 410 is driven to enter a photographing standby mode by receiving a photographing command for the screen 200 and each position value set by the user terminal 500.
  • the MCU 420 stores the received position values in the first storage unit 440. That is, the MCU 420 controls the first transmitting and receiving terminal 450 when connecting the data session through the user terminal 500 and the IP network 600, and the data session with the user terminal 500 through the direct data cable.
  • the first I / O interface 460 is controlled.
  • the laser is irradiated from the laser pointer 300 carried by the user to one of the position values set on the screen 200 by the user terminal 500 on the screen 200 through the CMOS module 410.
  • the detected MCU 420 wakes up the laser imaging module 430.
  • the laser photographing means 431 of the laser photographing module 430 photographs the laser image during the continuous irradiation time of the laser output from the laser pointer 300 and then stores the laser image in the first storage unit 440.
  • the laser position value extracting means 432 of the laser photographing module 430 extracts the position value of the laser continuously irradiated with respect to the laser image photographed by the laser photographing means 431 at a predetermined time interval and then stores the first value. Stored in the unit 440.
  • the laser photographing module 430 irradiates a laser beam to the screen 200 by using the laser pointer 300 when the user makes a presentation.
  • the laser photographing module 430 underlines a certain area with the laser pointer 300. In the case of designating triangles, squares, circles, etc., the shape of one underline, triangle, square, circle, etc. may be recognized as one continuous laser irradiation.
  • the laser photographing means 431 photographs a laser image during a continuous irradiation time output from the laser pointer on the screen 200 when the laser image is photographed.
  • the range is preferably set to 1/100 to 1/2 second.
  • the first storage unit 440 and the second storage unit 550 to be described later are non-volatile memory (NVM). Even though power is not supplied, the first storage unit 440 maintains the stored data and does not delete the flash memory. Memory), magnetic random access memory (MRAM), phase-change random access memory (PRAM), ferroelectric RAM (FRAM), and the like.
  • NVM non-volatile memory
  • MRAM magnetic random access memory
  • PRAM phase-change random access memory
  • FRAM ferroelectric RAM
  • the MCU 420 may be configured to transmit the laser image during the continuous irradiation time taken through the data session connected with the user terminal 500 and the extracted position value according to a preset time interval of the laser image to the user terminal 500.
  • the first transceiver 450 and the first I / O interface 460 are controlled.
  • the user terminal 500 includes a second transceiver 510, a second I / O interface 520, a central controller 530, a presentation image implementation module 540, and a second storage unit ( 550 and an input / output unit 560.
  • the central controller 530 includes a camera / beam projector control module 531, and the presentation image implementing module 540 includes screen position value setting means 541, laser image extracting means 542, and image converting means ( 543).
  • the user terminal 500 stores a presentation program such as PowerPoint in the second storage unit 550, the central control unit 530 is loaded on the system memory in response to a user's request through the input and output unit 560 do.
  • the camera / beam projector control module 531 of the central controller 530 connects the second transceiver 510 or the second I / O interface 520 so that the beam projector 100 and the camera 400 connect data sessions. To control. Thereafter, the camera / beam projector control module 531 controls the presentation image to be implemented by the beam projector 100 through the connected data session, and then wakes up the presentation image implementation module 540.
  • the screen position value setting means 541 of the presentation image implementation module 540 has a horizontal direction (X) and a vertical direction (X) for the screen 200 on which the presentation image output from the beam projector 100 is implemented.
  • Each position value by the combination of Y) is set and stored in the second storage unit 550.
  • the position value may be set to a pixel value or a coordinate value, and may be set to various numerical values according to the resolution of the presentation image implemented by the beam projector 100.
  • the laser image extraction unit 542 of the presentation image implementation module 540 compares the received laser image with a plurality of images stored in the second storage unit 550 and extracts an image having the closest shape.
  • the image conversion means 543 of the presentation image implementation module 540 divides the shape of the nearest image extracted by the laser image extraction means 542 at a predetermined time interval, and then extracts the image of the divided shape.
  • the presentation matching laser image is generated by matching the extracted position values at predetermined time intervals of the laser image, and then stored in the second storage unit 550.
  • the camera / beam projector control module 531 synchronizes the presentation matching laser image generated by the presentation image implementing module 540 with the presentation image being output to the beam projector 100 according to the passage of time. Control the beam projector 100 to be.
  • FIG. 4 is a flowchart illustrating a method of applying to a presentation image by extracting a laser pointer image according to an exemplary embodiment of the present invention.
  • the user terminal 500 controls the beam projector 100 to which the data session is connected, and the horizontal direction of the screen 200 in which the presentation image output from the beam projector 100 is implemented.
  • Each position value by the combination of (X) and the longitudinal direction Y is set (S11).
  • the position value may be set to a pixel value or a coordinate value, and may be set to various numerical values according to the resolution of the presentation image implemented by the beam projector 100.
  • the user owned laser After the step (S11), after transmitting the shooting command for the screen 200 and each position value set in the step (S11) to the camera 400 through a data session connected from the user terminal 500, the user owned laser The laser is irradiated from the pointer 300 onto one of the position values set by the step S11 on the screen 200 (S12).
  • the camera 400 captures a laser image during the continuous irradiation time of the laser output from the laser pointer 300, and also extracts a position value of the laser continuously irradiated at a predetermined time interval ( S13).
  • the camera 400 determines one shooting unit until the laser is irradiated onto the screen 200 more than a predetermined time interval when capturing the laser image as one photographing unit, and the preset time used when extracting the position value.
  • the interval is preferably set to a few ⁇ S (Micro Second) to a few mS (Mili Second).
  • the camera 400 extracts the laser image during the continuous irradiation time captured in the step S12 and the predetermined time interval of the laser image through a data session connected with the user terminal 500.
  • the value is transmitted to the user terminal 500 (S14).
  • the user terminal 500 compares the laser image received in operation S14 with a plurality of images stored in the second storage unit 550, and extracts an image having the closest form in operation S15.
  • step S15 the user terminal 500 divides the shape of the closest image extracted in step S15 at a predetermined time interval, and then divides the divided shape image of the laser image extracted in step S13.
  • the presentation matching laser image is generated by matching the extracted position values at predetermined time intervals and stored in the second storage unit 550 (S16).
  • the user terminal 500 controls the presentation matching laser image generated in the step S16 of the presentation image and the time being output to the beam projector 100 through the control according to the step S11.
  • the beam projector 100 outputting the presentation image to the screen 200 is controlled to be synchronized and output according to the flow (S17).
  • the method of applying the presentation to the presentation image according to the laser pointer image extraction thus arranged may include: a first step of the camera photographing and transmitting a laser image to a user terminal during a continuous irradiation time of the laser output from the laser pointer; And
  • the user terminal controls the beam projector for outputting the presentation image, the combination of the horizontal (X) and vertical (Y) for the screen on which the presentation image is implemented. And setting each position value.
  • steps 1-1 in which the camera takes a laser image during the continuous irradiation time of the laser output from the laser pointer, and preset position values of the lasers continuously irradiated After extracting at a time interval, the first and second steps of matching the laser position value and the laser image taken during the continuous irradiation time, and the position value of the laser matching the laser image during the continuous irradiation time the user terminal It consists of the first 1-3 steps to transmit.
  • the third step in which the user terminal matches an image of a shape divided from the closest shape image extracted with the position value of the laser extracted at the predetermined time interval may be used.
  • Step 3-2 is performed by generating an image having a divided shape matching the position value of the extracted laser and outputting the image as an image through a beam projector.
  • each position value set by the user terminal may be set to a pixel value or a coordinate value, and the number of position values may be set to vary according to the resolution of the presentation image implemented by the beam projector.
  • the range of non-irradiated time outside the range of continuous irradiation time when the camera takes a laser image during the continuous irradiation time output from the laser pointer is preferably limited to 1/100 to 1/2 second. Do.
  • the invention can also be embodied as computer readable code on a computer readable recording medium.
  • Computer-readable recording media include all kinds of recording devices that store data that can be read by a computer system.
  • Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disks, optical data storage devices, and the like, which are also implemented in the form of carrier waves (eg, transmission over the Internet). It also includes.
  • the computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
  • functional programs, codes and code segments for implementing the present invention can be easily inferred by programmers in the art to which the present invention belongs.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)

Abstract

본 발명은 레이저 포인터 영상 추출에 따른 프리젠테이션 영상으로의 적용 방법에 관한 것이다. 본 발명은, 카메라가 레이저 포인터로부터 출력된 레이저의 연속된 조사 시간 동안 레이저 영상을 촬영하여 사용자단말로 전송하는 제 1 단계; 및 상기 사용자단말이 상기 카메라로부터 전송받은 상기 연속된 조사 시간 동안 레이저 영상에 가장 근접한 형태를 갖는 영상을 미리 저장된 다수의 영상 중에서 추출하는 제 2 단계; 및 상기 제 2 단계에서 추출된 가장 근접한 형태를 갖는 영상을 상기 빔프로젝터에 의해 출력되고 있는 프리젠테이션 영상과 함께 상기 사용자단말에서 상기 빔프로젝터를 통하여 출력하도록 하는 제 3 단계; 로 구성된다. 본 발명에 따른 레이저 포인터 영상 추출에 따른 프리젠테이션 영상으로의 적용 방법은, 레이저 포인터를 이용해 연속적으로 지시한 형상을 프리젠테이션 영상에 지속적으로 구현 가능한 효과를 제공한다.

Description

레이저 포인터 영상 추출에 따른 프리젠테이션 영상으로의 적용 방법
본 발명은 레이저 포인터 영상 추출에 따른 프리젠테이션 영상으로의 적용 방법에 관한 것으로, 보다 구체적으로는, 레이저 포인터를 이용해 연속적으로 지시한 영상을 프리젠테이션 영상에 구현 가능하도록 하기 위한 레이저 포인터 영상 추출에 따른 프리젠테이션 영상으로의 적용 방법에 관한 것이다.
발표자가 빔프로젝터와 사용자단말을 이용하여 프리젠테이션을 하는 경우, 레이저 포인터를 활용하여 스크린에 레이저를 조사하여 지시하게 되는데, 이때 레이저 포인터를 가지고 일정한 영역을 밑줄, 세모, 네모, 동그라미 등으로 지시한다.
그러나 프리젠테이션에서 레이저 포인터는 켜서 지시만 하지 이를 프리젠테이션 영상에 표시해 둘 수가 없어 레이저 포인터를 끄면 조사된 레이저는 화면에서 사라지고, 이미 지나온 경로를 알 수 없는 일시적인 특성을 갖는 단점이 있다.
이러한 단점을 해결하기 위해 프리젠테이션 영상을 위한 데이터를 생성시 레이저 포인터로 입력할 밑줄, 세모, 네모, 동그라미 등과 같은 형상을 미리 순차적으로 입력하는 방식을 취하고 있으나 이는 데이터 생성을 위한 시간이 많이 소모되는 단점을 갖는다.
이에 따라 해당 기술분야에 있어서는 레이저 포인터가 지시한 영상인 밑줄, 세모, 네모, 동그라미 등과 같이 끊어짐 없이 지시한 형상을 프리젠테이션 영상과 함께 구현함으로써, 발표자가 보다 프리젠테이션 시의 전달력을 향상시키기 위한 기술개발이 요구되고 있다.
[관련기술문헌]
1. 레이저 포인터 마우스를 이용한 프리젠테이션 시스템(Presentation system using a Laser-pointer mouse) (특허출원번호 제10-2000-0016712호)
2. 레이저 포인터를 이용한 입력 장치와 그를 이용한 프리젠테이션 제공 시스템(Input apparatus using a raser pointer and system foroffering presentation using the apparatus) (특허출원번호 제10-2005-0109878호)
본 발명은 상기의 문제점을 해결하기 위한 것으로,
빔프로젝터에 의해 프리젠테이션 영상이 구현되는 스크린을 촬영하고 있는 카메라를 활용하여 레이저 포인터가 지시한 연속적인 영상을 촬영한 뒤, 레이저 포인터에 의해 지시한 영상과 가장 근접한 형상을 갖는 영상을 프리젠테이션 영상과 함께 출력함으로써, 발표자의 의도를 만족하도록 하기 위한 레이저 포인터 영상 추출에 따른 프리젠테이션 영상으로의 적용 방법을 제공하기 위한 것이다.
상기의 목적을 달성하기 위해 본 발명의 실시예에 따른 레이저 포인터 영상 추출에 따른 프리젠테이션 영상으로의 적용 방법은, 카메라가 레이저 포인터로부터 출력된 레이저의 연속된 조사 시간 동안 레이저 영상을 촬영하여 사용자단말로 전송하는 제 1 단계; 및 상기 사용자단말이 상기 카메라로부터 전송받은 상기 연속된 조사 시간 동안 레이저 영상에 가장 근접한 형태를 갖는 영상을 미리 저장된 다수의 영상 중에서 추출하는 제 2 단계; 및 상기 제 2 단계에서 추출된 가장 근접한 형태를 갖는 영상을 상기 빔프로젝터에 의해 출력되고 있는 프리젠테이션 영상과 함께 상기 사용자단말에서 상기 빔프로젝터를 통하여 출력하도록 하는 제 3 단계; 로 구성된다.
이때, 상기 제 1 단계 이전에, 상기 사용자단말이 상기 프리젠테이션 영상 출력을 위해 빔프로젝터를 제어하며, 상기 프리젠테이션 영상이 구현되는 스크린에 대한 가로방향(X) 및 세로방향(Y)의 조합에 의한 각 위치값을 설정하는 단계; 가 더 수행되는 것이 바람직하다.
또한, 상기 제 1 단계는 상기 카메라가 상기 레이저 포인터로부터 출력된 레이저의 연속된 조사 시간 동안 레이저 영상을 촬영하는 제 1-1 단계와, 연속되게 조사되는 레이저의 위치값을 미리 설정된 시간 간격으로 추출한 뒤, 상기 연속된 조사 시간 동안의 촬영된 레이저 영상과 레이저의 위치값을 매칭시키는 제1-2 단계와, 연속된 조사 시간 동안의 레이저 영상과 매칭된 레이저의 위치값을 상기 사용자단말로 전송하는 제 1-3 단계로 구성되는 것이 바람직하다.
또한, 상기 제 3 단계는 상기 사용자단말이 추출된 가장 근접한 형태의 영상으로부터 분할된 형상의 영상을 상기 미리 설정된 시간 간격에 따라 추출된 레이저의 위치값과 매칭시키는 제 3-1 단계와; 추출된 레이저의 위치값과 매칭된 분할된 형상의 영상을 생성하여 빔프로젝터를 통하여 영상으로 출력하는 제 3-2 단계로 구성되는 것이 바람직하다.
또한, 상기 제 1 단계 이전에 상기 사용자단말에 의해 설정되는 각 위치값은 픽셀값 또는 좌표값으로 설정가능하며, 상기 빔프로젝터에 의해 구현되는 상기 프리젠테이션 영상의 해상도에 따라 위치값의 수가 가변되어 설정되는 것이 바람직하다.
또한, 상기 제 1 단계는 상기 카메라가 상기 레이저 포인터로부터 출력된 연속된 조사 시간 동안 레이저 영상을 촬영시 연속된 조사 시간의 범위를 벗어나는 조사되지 않는 시간의 범위는 1/100~1/2초(second)로 설정되는 것이 바람직하다.
본 발명의 실시예에 따른 레이저 포인터 영상 추출에 따른 프리젠테이션 영상으로의 적용 방법은, 레이저 포인터를 이용해 연속적으로 지시한 형상을 프리젠테이션 영상에 지속적으로 구현 가능한 효과를 제공한다.
또한, 본 발명의 다른 실시예에 따른 레이저 포인터 영상 추출에 따른 프리젠테이션 영상으로의 적용 방법은, 레이저 포인터를 이용해 조사한 레이저 영상과 가장 근접한 영상을 자동적으로 추출하여 프리젠테이션 영상에 매칭시켜 구현함으로써, 발표자의 편의를 극대화하는 효과를 제공한다.
뿐만 아니라, 본 발명의 다른 실시예에 따른 레이저 포인터 영상 추출에 따른 프리젠테이션 영상으로의 적용 방법은, 레이저 포인터를 이용한 레이저 영상에 대한 위치값 추출과 가장 근접한 영상에 대한 추출을 매칭하여 활용함으로써, 프리젠테이션 영상에서 발표자가 지시한 위치에 정확하게 매칭시켜 발표자의 의도와 가장 부합하는 직선, 도형 등을 간략하게 표시할 수 있는 효과를 제공한다.
도 1은 본 발명의 실시예에 따른 레이저 포인터 영상 추출에 따른 프리젠테이션 영상으로의 적용 방법이 구현되는 시스템을 나타내는 도면.
도 2는 도 1에서의 카메라의 구성을 나타내는 도면.
도 3은 도 1에서의 사용자단말의 구성을 나타내는 도면.
도 4는 본 발명의 실시예에 따른 레이저 포인터 영상 추출에 따른 프리젠테이션 영상으로의 적용 방법을 나타내는 흐름도.
*부호의 설명*
100: 빔프로젝터 200: 스크린
300: 레이저 포인터 400: 카메라
410: CMOS 모듈 420: MCU
430: 레이저 촬영모듈 431: 레이저 촬영수단
432: 레이저 위치값 추출수단 440: 제 1 저장부
450: 제 1 송수신단 460: 제 1 I/O 인터페이스
500: 사용자단말 510: 제 2 송수신단
520: 제 2 I/O 인터페이스 530: 중앙제어부
531: 카메라/빔프로젝터 제어모듈 540: 프리젠테이션 영상 구현 모듈
541: 스크린 위치값 설정수단 542: 레이저 영상 추출수단
543: 영상변환수단 550: 제 2 저장부
560: 입출력부 600: IP망
이하, 본 발명의 바람직한 실시예의 상세한 설명은 첨부된 도면들을 참조하여 설명할 것이다. 하기에서 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.
본 명세서에 있어서는 어느 하나의 구성요소가 다른 구성요소로 데이터 또는 신호를 '전송'하는 경우에는 구성요소는 다른 구성요소로 직접 상기 데이터 또는 신호를 전송할 수 있고, 적어도 하나의 또 다른 구성요소를 통하여 데이터 또는 신호를 다른 구성요소로 전송할 수 있음을 의미한다.
도 1은 본 발명의 실시예에 따른 레이저 포인터 영상 추출에 따른 프리젠테이션 영상으로의 적용 방법이 구현되는 시스템을 나타내는 도면이다. 도 1을 참조하면, 빔프로젝터(100), 스크린(200), 레이저 포인터(300), 카메라(400), 사용자단말(500) 및 IP망(600)을 포함한다. 여기서 IP망(600)은 대용량, 장거리 음성 및 데이터 서비스가 가능한 통신망이며, 예컨대, 인터넷(Internet)이 될 수 있다. 또한, IP망은 ALL IP(Internet Protocol) 기반의 고속의 멀티미디어 서비스를 제공하기 위한 차세대 유선 또는 무선 망일 수 있다.
도 2는 도 1에서의 카메라(400)의 구성을 나타내는 도면이다. 도 2를 참조하면, 카메라(400)는 CMOS 모듈(410), MCU(Micro Contol Unit: 420), 레이저 촬영모듈(430), 제 1 저장부(440), 제 1 송수신단(450) 및 제 1 I/O 인터페이스(460)를 포함하며, 레이저 촬영모듈(430)은 레이저 촬영수단(431) 및 레이저 위치값 추출수단(432)을 구비한다.
그리고 본 명세서에서 모듈이라 함은, 본 발명의 기술적 사상을 수행하기 위한 하드웨어 및 상기 하드웨어를 구동하기 위한 소프트웨어의 기능적, 구조적 결합을 의미할 수 있다. 예컨대, 상기 모듈은 소정의 코드와 상기 소정의 코드가 수행되기 위한 하드웨어 리소스의 논리적인 단위를 의미할 수 있으며, 반드시 물리적으로 연결된 코드를 의미하거나, 한 종류의 하드웨어를 의미하는 것은 아님은 본 발명의 기술분야의 평균적 전문가에게는 용이하게 추론될 수 있다.
MCU(420)는 제 1 송수신단(450) 또는 제 1 I/O 인터페이스(460)에 대한 제어에 의해 사용자단말(500)과 데이터 세션을 연결한 뒤, 연결된 데이터 세션을 통해 사용자단말(500)로부터 스크린(200)에 대한 촬영 명령 및 사용자단말(500)에 의해 설정된 각 위치값을 수신함으로써, CMOS 모듈(410)을 구동시켜 촬영 대기 모드로 진입한다. 이때, MCU(420)는 수신된 각 위치값을 제 1 저장부(440)에 저장한다. 즉, MCU(420)는 사용자단말(500)과 IP망(600)을 통한 데이터 세션을 연결할 경우 제 1 송수신단(450)을 제어하며, 직접적 데이터 케이블에 의한 사용자단말(500)과 데이터 세션을 연결할 경우 제 1 I/O 인터페이스(460)를 제어한다.
사용자가 소지한 레이저 포인터(300)로부터 레이저가 스크린(200)상에 사용자단말(500)에 의해 스크린(200) 상에 설정된 위치값 중 하나의 위치값으로 조사되는 것으로 CMOS 모듈(410)을 통해 감지한 MCU(420)는 레이저 촬영모듈(430)을 웨이크업(Wake-Up) 한다. 이에 따라 레이저 촬영모듈(430)의 레이저 촬영수단(431)은 레이저 포인터(300)로부터 출력된 레이저의 연속된 조사 시간 동안 레이저 영상을 촬영한 뒤, 제 1 저장부(440)에 저장한다. 동시에 레이저 촬영모듈(430)의 레이저 위치값 추출수단(432)은 레이저 촬영수단(431)에 의해 촬영되는 레이저 영상에 대해 연속되게 조사되는 레이저의 위치값도 미리 설정된 시간 간격으로 추출한 뒤 제 1 저장부(440)에 저장한다. 즉, 레이저 촬영모듈(430)은 사용자가 프리젠테이션을 할 때 레이저 포인터(300)를 활용하여 스크린(200)에 레이저를 조사하여 지시하게 되는데, 이때 레이저 포인터(300)를 가지고 일정한 영역을 밑줄, 세모, 네모, 동그라미 등으로 지시할 경우 이러한 하나의 밑줄, 세모, 네모, 동그라미 등의 형상을 하나의 연속된 레이저 조사로 인식할 수 있도록 한다.
여기서 레이저 촬영수단(431)은 레이저 영상에 대한 촬영시 스크린(200) 상에서 상기 레이저 포인터로부터 출력된 연속된 조사 시간 동안 레이저 영상을 촬영하게 되는데, 연속된 조사 시간의 범위를 벗어나는 조사되지 않는 시간의 범위는 1/100~1/2초(second)로 설정되는 것이 바람직하다.
그리고 제 1 저장부(440) 및 후술할 제 2 저장부(550)는 비휘발성 메모리(Non-volatile memory, NVM)로써 전원이 공급되지 않아도 저장된 데이터를 계속 유지하며 삭제되지 않으며, 플래시 메모리(Flash Memory), MRAM(Magnetic Random Access Memory), PRAM(Phase-change Random Access memory: 상변화 램), FRAM(Ferroelectric RAM: 강유전체 램) 등으로 구성될 수 있다.
MCU(420)는 사용자단말(500)과 연결된 데이터 세션을 통해 촬영된 연속된 조사 시간 동안의 레이저 영상과 레이저 영상의 미리 설정된 시간 간격에 따라 추출된 위치값을 사용자단말(500)로 전송하도록 제 1 송수신단(450) 및 제 1 I/O 인터페이스(460)를 제어한다.
도 3은 도 1에서의 사용자단말(500)의 구성을 나타내는 도면이다. 도 3을 참조하면, 사용자단말(500)은 제 2 송수신단(510), 제 2 I/O 인터페이스(520), 중앙제어부(530), 프리젠테이션 영상 구현 모듈(540), 제 2 저장부(550) 그리고 입출력부(560)를 포함한다. 그리고 중앙제어부(530)는 카메라/빔프로젝터 제어모듈(531)을 구비하며, 프리젠테이션 영상 구현 모듈(540)은 스크린 위치값 설정수단(541), 레이저 영상 추출수단(542) 및 영상변환수단(543)을 구비한다. 한편, 사용자단말(500)은 파워포인트와 같은 프리젠테이션 프로그램을 제 2 저장부(550)에 저장하며, 입출력부(560)를 통한 사용자의 요청에 따라 중앙제어부(530)가 시스템 메모리 상에 로딩한다.
중앙제어부(530)의 카메라/빔프로젝터 제어모듈(531)은 빔프로젝터(100) 및 카메라(400)가 데이터 세션을 연결하도록 제 2 송수신단(510) 또는 제 2 I/O 인터페이스(520)를 제어한다. 이후, 카메라/빔프로젝터 제어모듈(531)은 연결된 데이터 세션을 통해 빔프로젝터(100)로 프리젠테이션 영상이 구현되도록 제어한 뒤, 프리젠테이션 영상 구현 모듈(540)을 웨이크업 한다.
이에 따라, 프리젠테이션 영상 구현 모듈(540)의 스크린 위치값 설정수단(541)은 빔프로젝터(100)에서 출력된 프리젠테이션 영상이 구현되는 스크린(200)에 대한 가로방향(X) 및 세로방향(Y)의 조합에 의한 각 위치값을 설정하여 제 2 저장부(550)에 저장한다. 여기서 위치값은 픽셀값 또는 좌표값으로 설정가능하며, 빔프로젝터(100)에 의해 구현되는 프리젠테이션 영상의 해상도에 따라 다양한 숫자의 값으로 설정가능하다.
프리젠테이션 영상 구현 모듈(540)의 레이저 영상 추출수단(542)은 수신된 레이저 영상을 제 2 저장부(550)에 저장된 다수의 영상과 비교하여 가장 근접한 형태를 갖는 영상을 추출한다.
프리젠테이션 영상 구현 모듈(540)의 영상변환수단(543)은 레이저 영상 추출수단(542)에 의해 추출된 가장 근접한 영상의 형상을 미리 설정된 시간 간격으로 분할한 뒤, 분할된 형상의 영상을 추출된 레이저 영상의 미리 설정된 시간 간격에 따라 추출된 위치값과 각각 매칭시켜 프리젠테이션 매칭형 레이저 영상을 생성한 뒤, 제 2 저장부(550)에 저장한다.
카메라/빔프로젝터 제어모듈(531)은 프리젠테이션 영상 구현 모듈(540)에 의해 생성된 프리젠테이션 매칭형 레이저 영상을 빔프로젝터(100)에 출력되고 있는 프리젠테이션 영상과 시간의 흐름에 따라 동기화시켜 출력되도록 빔프로젝터(100)를 제어한다.
도 4는 본 발명의 실시예에 따른 레이저 포인터 영상 추출에 따른 프리젠테이션 영상으로의 적용 방법을 나타내는 흐름도이다. 도 1 내지 도 4를 참조하면, 사용자단말(500)은 데이터 세션이 연결된 빔프로젝터(100)를 제어하며, 빔프로젝터(100)에서 출력된 프리젠테이션 영상이 구현되는 스크린(200)에 대한 가로방향(X) 및 세로방향(Y)의 조합에 의한 각 위치값을 설정한다(S11). 여기서 위치값은 픽셀값 또는 좌표값으로 설정가능하며, 빔프로젝터(100)에 의해 구현되는 프리젠테이션 영상의 해상도에 따라 다양한 숫자의 값으로 설정가능하다.
단계(S11) 이후, 사용자단말(500)로부터 연결된 데이터 세션을 통해 카메라(400)로 스크린(200)에 대한 촬영 명령 및 단계(S11)에서 설정된 각 위치값을 전송된 뒤, 사용자가 소지한 레이저 포인터(300)로부터 레이저가 스크린(200)상에 단계(S11)에 의해 설정된 위치값 중 하나의 위치값으로 조사된다(S12).
단계(S12) 이후, 카메라(400)는 레이저 포인터(300)로부터 출력된 레이저의 연속된 조사 시간 동안 레이저 영상을 촬영과 함께, 연속되게 조사되는 레이저의 위치값도 미리 설정된 시간 간격으로 추출한다(S13). 여기서 카메라(400)는 레이저 영상에 대한 촬영시 미리 설정된 시간 간격 이상 스크린(200) 상으로 레이저의 조사가 끊긴 경우까지를 하나의 촬영단위로 판단하며, 그리고 위치값 추출시에 사용되는 미리 설정된 시간 간격은 수 μS(Micro Second) 내지 수 mS(Mili Second) 로 설정되는 것이 바람직하다.
단계(S13) 이후, 카메라(400)는 사용자단말(500)과 연결된 데이터 세션을 통해 단계(S12)에서 촬영된 연속된 조사 시간 동안의 레이저 영상과 레이저 영상의 미리 설정된 시간 간격에 따라 추출된 위치값을 사용자단말(500)로 전송한다(S14).
단계(S14) 이후, 사용자단말(500)은 단계(S14)에서 수신된 레이저 영상을 제 2 저장부(550)에 저장된 다수의 영상과 비교하여 가장 근접한 형태를 갖는 영상을 추출한다(S15).
단계(S15) 이후, 사용자단말(500)은 단계(S15)에서 추출된 가장 근접한 영상의 형상을 미리 설정된 시간 간격으로 분할한 뒤, 분할된 형상의 영상을 단계(S13)에서 추출된 레이저 영상의 미리 설정된 시간 간격에 따라 추출된 위치값과 각각 매칭시켜 프리젠테이션 매칭형 레이저 영상을 생성한 뒤, 제 2 저장부(550)에 저장한다(S16).
단계(S16) 이후, 사용자단말(500)은 단계(S16)에서 생성된 프리젠테이션 매칭형 레이저 영상을 단계(S11)에 따른 제어를 통해 빔프로젝터(100)에 출력되고 있는 프리젠테이션 영상과 시간의 흐름에 따라 동기화시켜 출력하도록, 스크린(200)으로 프리젠테이션 영상을 출력하고 있는 빔프로젝터(100)를 제어한다(S17).
이와 같이 정리되는 레이저 포인터 영상 추출에 따른 프리젠테이션 영상으로의 적용 방법은, 카메라가 레이저 포인터로부터 출력된 레이저의 연속된 조사 시간 동안 레이저 영상을 촬영하여 사용자단말로 전송하는 제 1 단계; 및
상기 사용자단말이 상기 카메라로부터 전송받은 상기 연속된 조사 시간 동안 레이저 영상에 가장 근접한 형태를 갖는 영상을 미리 저장된 다수의 영상 중에서 추출하는 제 2 단계; 및
상기 제 2 단계에서 추출된 가장 근접한 형태를 갖는 영상을 상기 빔프로젝터에 의해 출력되고 있는 프리젠테이션 영상과 함께 상기 사용자단말에서 상기 빔프로젝터를 통하여 출력하도록 하는 제 3 단계; 로 구성된다.
그리고, 상기 제 1 단계 이전에, 상기 사용자단말이 상기 프리젠테이션 영상 출력을 위해 빔프로젝터를 제어하며, 상기 프리젠테이션 영상이 구현되는 스크린에 대한 가로방향(X) 및 세로방향(Y)의 조합에 의한 각 위치값을 설정하는 단계를 더 포함한다.
위의 제 1 단계를 세분화하여 설명하면, 상기 카메라가 상기 레이저 포인터로부터 출력된 레이저의 연속된 조사 시간 동안 레이저 영상을 촬영하는 제 1-1 단계와, 연속되게 조사되는 레이저의 위치값을 미리 설정된 시간 간격으로 추출한 뒤, 상기 연속된 조사 시간 동안의 촬영된 레이저 영상과 레이저 위치값을 매칭시키는 제 1-2 단계와, 연속된 조사 시간 동안의 레이저 영상과 매칭된 레이저의 위치값을 상기 사용자단말로 전송하는 제 1-3 단계로 구성된다.
그리고, 제 3 단계를 세분화하여 설명하면, 상기 사용자단말이 추출된 가장 근접한 형태의 영상으로부터 분할된 형상의 영상을 상기 미리 설정된 시간 간격에 따라 추출된 레이저의 위치값과 매칭시키는 제 3-1 단계와;
추출된 레이저의 위치값과 매칭된 분할된 형상의 영상을 생성하여 빔프로젝터를 통하여 영상으로 출력하는 제 3-2 단계로 구성된다.
또한, 상기 사용자단말에 의해 설정되는 각 위치값은, 픽셀값 또는 좌표값으로 설정되며, 상기 빔프로젝터에 의해 구현되는 상기 프리젠테이션 영상의 해상도에 따라 위치값의 수가 가변되어 설정될 수 있으며, 상기 카메라가 상기 레이저 포인터로부터 출력된 연속된 조사 시간 동안 레이저 영상을 촬영시 연속된 조사 시간의 범위를 벗어나는 조사되지 않는 시간의 범위는 1/100~1/2초(second) 인 것으로 한정하는 것이 바람직하다.
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.
컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.
또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의해 용이하게 추론될 수 있다.
이상과 같이, 본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.

Claims (2)

  1. 카메라가 레이저 포인터로부터 출력된 레이저의 연속된 조사 시간 동안 레이저 영상을 촬영하여 사용자단말로 전송하는 제 1 단계; 및
    상기 사용자단말이 상기 카메라로부터 전송받은 상기 연속된 조사 시간 동안 레이저 영상에 가장 근접한 형태를 갖는 영상을 미리 저장된 다수의 영상 중에서 추출하는 제 2 단계; 및
    상기 제 2 단계에서 추출된 가장 근접한 형태를 갖는 영상을 빔프로젝터에 의해 출력되고 있는 프리젠테이션 영상과 함께 상기 사용자단말에서 상기 빔프로젝터를 통하여 출력하도록 하는 제 3 단계; 로 구성되고,
    상기 제 1 단계는,
    상기 카메라가 상기 레이저 포인터로부터 출력된 레이저의 연속된 조사 시간 동안 레이저 영상을 촬영하는 제 1-1 단계와;
    상기 카메라가 연속되게 조사되는 레이저의 위치값을 미리 설정된 시간 간격으로 추출한 뒤, 연속된 조사 시간 동안의 촬영된 레이저 영상과 추출한 레이저의 위치값을 매칭시키는 제 1-2 단계와;
    연속된 조사 시간 동안의 레이저 영상과 매칭된 레이저의 위치값을 상기 사용자단말로 전송하는 제 1-3 단계로 구성되며,
    상기 제 3 단계는,
    상기 사용자단말이 추출된 가장 근접한 형태의 영상으로부터 분할된 형상의 영상을 상기 미리 설정된 시간 간격에 따라 추출된 레이저의 위치값과 매칭시키는 제 3-1 단계와;
    추출된 레이저의 위치값과 매칭된 분할된 형상의 영상을 생성하여 빔프로젝터를 통하여 영상으로 출력하는 제 3-2 단계로 구성된 레이저 포인터 영상 추출에 따른 프리젠테이션 영상으로의 적용 방법.
  2. 제 1 항에 있어서, 상기 카메라가 상기 레이저 포인터로부터 출력된 연속된 조사 시간 동안 레이저 영상을 촬영시 연속된 조사 시간의 범위를 벗어나는 조사되지 않는 시간의 범위는 1/100~1/2초(second) 인 것을 특징으로 하는 레이저 포인터 영상 추출에 따른 프리젠테이션 영상으로의 적용 방법.
PCT/KR2013/007872 2012-09-06 2013-08-31 레이저 포인터 영상 추출에 따른 프리젠테이션 영상으로의 적용 방법 WO2014038819A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20120098569A KR101222543B1 (ko) 2012-09-06 2012-09-06 레이저 포인터 영상 추출에 따른 프리젠테이션 영상으로의 적용 방법
KR10-2012-0098569 2012-09-06

Publications (1)

Publication Number Publication Date
WO2014038819A1 true WO2014038819A1 (ko) 2014-03-13

Family

ID=47841902

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2013/007872 WO2014038819A1 (ko) 2012-09-06 2013-08-31 레이저 포인터 영상 추출에 따른 프리젠테이션 영상으로의 적용 방법

Country Status (2)

Country Link
KR (1) KR101222543B1 (ko)
WO (1) WO2014038819A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101258910B1 (ko) * 2013-02-07 2013-04-29 (주)유한프리젠 프리젠테이션 시스템에서 레이저 포인터를 이용한 영상 판서 방법
KR101311158B1 (ko) * 2013-04-23 2013-09-23 (주)유한프리젠 프리젠테이션 시스템에서 동영상을 이용한 강조 표현 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050086154A (ko) * 2004-02-25 2005-08-30 김성필 영상인식 프리젠테이션 시스템 및 방법
JP2008027080A (ja) * 2006-07-19 2008-02-07 Casio Comput Co Ltd プレゼンテーションシステム
JP2008287624A (ja) * 2007-05-21 2008-11-27 Sony Corp 画像処理システム、画像処理装置および方法、並びにプログラム
JP2011150609A (ja) * 2010-01-22 2011-08-04 Kyocera Corp 投影制御装置及び投影方法、並びに投影制御用コンピュータプログラム
KR20120067479A (ko) * 2010-12-16 2012-06-26 에스케이플래닛 주식회사 촬영 영상을 이용한 길 안내 시스템 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050086154A (ko) * 2004-02-25 2005-08-30 김성필 영상인식 프리젠테이션 시스템 및 방법
JP2008027080A (ja) * 2006-07-19 2008-02-07 Casio Comput Co Ltd プレゼンテーションシステム
JP2008287624A (ja) * 2007-05-21 2008-11-27 Sony Corp 画像処理システム、画像処理装置および方法、並びにプログラム
JP2011150609A (ja) * 2010-01-22 2011-08-04 Kyocera Corp 投影制御装置及び投影方法、並びに投影制御用コンピュータプログラム
KR20120067479A (ko) * 2010-12-16 2012-06-26 에스케이플래닛 주식회사 촬영 영상을 이용한 길 안내 시스템 및 방법

Also Published As

Publication number Publication date
KR101222543B1 (ko) 2013-01-17

Similar Documents

Publication Publication Date Title
US7336313B2 (en) Image sensing apparatus and signal processing apparatus
CN103660641A (zh) 移动终端装置、图像形成方法以及图像形成系统
EP0694847A3 (en) Data streaming in a computer system
WO2014123309A1 (ko) 프리젠테이션 시스템에서 레이저 포인터를 이용한 영상 판서 방법
CN101968730A (zh) 多处理器级联信号传输数据交互同步处理方法及其系统
WO2020235806A1 (ko) 인식 영역의 스타일을 트랜스퍼하는 시스템 및 방법
CN106131407A (zh) 拍摄同步方法及同步装置
WO2013051905A2 (ko) 위치 인식 장치 및 그 방법
WO2014038819A1 (ko) 레이저 포인터 영상 추출에 따른 프리젠테이션 영상으로의 적용 방법
JP2017021445A (ja) 通信装置、その制御方法、プログラム
US10395547B2 (en) Supporting popularization of information and communications technology in the field of education
WO2022045550A1 (ko) 실시간 원격지 영상 조작 기능을 제공하기 위한 방법 및 시스템
CN107493460A (zh) 一种图像采集方法及系统
KR20170133033A (ko) 멀티드론을 이용한 건물 탐지 시스템 및 방법
WO2020101121A1 (ko) 딥러닝 기반의 영상분석 방법, 시스템 및 휴대 단말
EP2847888A1 (en) Method of transmitting contents and user's interactions among multiple devices
CN112911776B (zh) 一种闪光灯控制方法及系统
KR101311158B1 (ko) 프리젠테이션 시스템에서 동영상을 이용한 강조 표현 방법
CN209281401U (zh) 一种用于身份识别的注册系统
CN106791603A (zh) 一种具有全方位监控功能的机器人
CN106154708A (zh) 投影机及投影系统
CN108332718B (zh) 一种结构光信息采集系统
CN109669366A (zh) 控制方法和装置
CN218217469U (zh) 一种智能机动应急指挥系统
TWI552597B (zh) 行動無線環物攝影之系統及其方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13835963

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13835963

Country of ref document: EP

Kind code of ref document: A1