KR101280840B1 - Method of identifying the laser point position on screen of presentation system - Google Patents

Method of identifying the laser point position on screen of presentation system Download PDF

Info

Publication number
KR101280840B1
KR101280840B1 KR1020130044679A KR20130044679A KR101280840B1 KR 101280840 B1 KR101280840 B1 KR 101280840B1 KR 1020130044679 A KR1020130044679 A KR 1020130044679A KR 20130044679 A KR20130044679 A KR 20130044679A KR 101280840 B1 KR101280840 B1 KR 101280840B1
Authority
KR
South Korea
Prior art keywords
image
screen
camera
coordinates
laser
Prior art date
Application number
KR1020130044679A
Other languages
Korean (ko)
Inventor
신중식
Original Assignee
(주)유한프리젠
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)유한프리젠 filed Critical (주)유한프리젠
Priority to KR1020130044679A priority Critical patent/KR101280840B1/en
Application granted granted Critical
Publication of KR101280840B1 publication Critical patent/KR101280840B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/40012Conversion of colour to monochrome

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)

Abstract

PURPOSE: A laser point position coordinate recognizing method on a screen of a presentation system is provided to recognize the laser point coordinate quickly and exactly on a screen image photographed by a camera, thereby exactly indicating the line, shape, or character that most match to the intention of a presenter in the position where the presenter indicated in the presentation image. CONSTITUTION: A presentation system converts the size of an image which is obtained from a camera into the fixed size (S101). If the image is colored, the system converts the image into a black and white image (S102). The system calculates a conversion matrix through the homographic calculation, and prospectively transforms the monitor screen area of the image into the monitor screen by using the conversion matrix (S103,S104). The system removes the noise from the binary image of the converted black and white image (S105,S106). The system changes the calculated central point coordinate into a monitor coordinate by using the labeling of the binary image (S107-S111). [Reference numerals] (AA) Start; (BB) Return; (S101) Convert a size of images; (S102) Convert images into a black and white image; (S103) Homographic calculation; (S104) Perspective transform; (S105) Image binarization; (S106) Noise removal with morphology; (S107) Labeling; (S108) Size calculation of each label; (S109) Select the largest label; (S110) Central point calculation; (S111) Conversion into a monitor coordinate

Description

프리젠테이션 시스템의 스크린상에서 레이저 포인트 위치 좌표 인식 방법{ METHOD OF IDENTIFYING THE LASER POINT POSITION ON SCREEN OF PRESENTATION SYSTEM}TECHNICAL FIELD [0001] The present invention relates to a method of recognizing a laser point position on a screen of a presentation system,

본 발명은 프리젠테이션 시스템에서 스크린상에 문자나 그림을 영상으로 표시하기 위하여 레이저 포인터가 지시하는 위치의 좌표를 인식하는 방법에 관한 것으로, 더욱 상세하게는 카메라가 취득한 스크린 영상에서 투시 변환 등을 이용하여 레이저 포인터가 지시한 레이저 포인트의 위치 좌표를 자동으로 인식하는 방법에 관한 것이다.
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method of recognizing coordinates of a position indicated by a laser pointer in order to display a character or a picture on a screen in a presentation system, And automatically recognizing the position coordinates of the laser point pointed by the laser pointer.

발표자가 빔프로젝터와 노트북과 같은 사용자단말을 이용하여 프리젠테이션을 하는 경우, 레이저 포인터를 활용하여 스크린에 레이저 빔을 조사하여 지시하게 되는데, 이때 레이저 포인터를 가지고 강조할 부분에 밑줄, 세모, 네모, 동그라미 등으로 표시하거나 부가 설명을 간단히 문자로 표시하기도 한다.When a presenter makes a presentation using a user terminal such as a beam projector and a notebook, the user directs a laser beam to the screen by using a laser pointer. At this time, underlining, triangle, square, It may be displayed in a circle or the like, or the additional description may be simply displayed in characters.

그러나 프리젠테이션에서 레이저 포인터는 온될 경우 발표자가 가르키는 현재 위치를 점(이를 '레이저 포인트'라 한다)으로 지시만 하지 프리젠테이션 영상에 계속하여 표시해 둘 수가 없으므로 레이저 포인터가 지나가면 이전의 그림이나 문자는 화면에서 사라져 버리는 일시적인 특성을 갖는 단점이 있다.However, when the laser pointer is turned on in the presentation, the current position indicated by the presenter is referred to as a point (referred to as "laser point"). However, since the laser pointer does not continue to be displayed on the presentation image, Has a disadvantage in that it has temporal characteristics that disappear from the screen.

이러한 단점을 해결하기 위해 프리젠테이션 영상을 위한 데이터를 생성시 레이저 포인터로 입력할 밑줄, 세모, 네모, 동그라미 등과 같은 형상을 미리 순차적으로 입력하는 방식을 취하고 있으나 이는 데이터 생성을 위한 시간이 많이 소모되는 단점을 갖는다. In order to solve this disadvantage, a method of sequentially inputting shapes such as an underline, a triangle, a rectangle, and a circle to be input by a laser pointer in generating a data for a presentation image is taken in advance, .

이에 따라 해당 기술분야에 있어서는 레이저 포인터가 지시한 영상인 밑줄, 세모, 네모, 동그라미 등과 같이 끊어짐 없이 지시한 형상을 프리젠테이션 영상과 함께 구현함으로써, 발표자가 보다 프리젠테이션 시의 전달력을 향상시키기 위한 기술이 본 출원인에 의해 특허출원되어 등록번호 제10-122543호로 등록된 바 있다.
Accordingly, in the related art, by designing a shape instructed without interruption such as an underline, a triangle, a rectangle, and a circle, which are images instructed by a laser pointer, together with a presentation image, The technology has been patented by the present applicant and registered with Registration No. 10-122543.

[관련기술문헌][Related Technical Literature]

1. 레이저 포인터 마우스를 이용한 프리젠테이션 시스템(Presentation system using a Laser-pointer mouse) (특허출원번호 제10-2000-0016712호)1. A presentation system using a laser pointer mouse (Patent Application No. 10-2000-0016712)

2. 레이저 포인터를 이용한 입력 장치와 그를 이용한 프리젠테이션 제공 시스템(Input apparatus using a raser pointer and system foroffering presentation using the apparatus) (특허출원번호 제10-2005-0109878호)2. An input apparatus using a laser pointer and a presentation providing system using the same (Patent Application No. 10-2005-0109878)

3. 레이저 포인터 영상 추출에 따른 프리젠테이션 영상으로의 적용 방법(특허 등록번호 제10-1222543호)
3. Application of Laser Pointer Image Extraction to Presentation Image (Patent Registration No. 10-1222543)

본 출원인에 의해 선등록된 특허 제10-1222543호는 레이저 포인터의 궤적을 추출하여 저장한 후 미리 설정된 도형과 비교하여 가장 유사한 도형의 이미지를 프리젠테이션 영상의 해당 위치에 적용하여 레이저 포인터가 지시한 도형이 프리젠테이션 영상에 계속 표시되도록 하는 것이다. 따라서 선등록된 특허 제10-1222543호와 같이 스크린상에 영상으로 문자나 그림 등을 표시하기 위해서는 레이저 포인트의 위치 좌표를 구하는 기술이 요구된다. 즉, 프리젠테이션을 하고 있는 상태에서 레이저포인터를 이용하여 레이저포인트를 쏘고 있을 때, 전체 화면에 대하여 레이저포인트의 위치에 대한 좌표값을 설정해야 나중에 그 위치에서의 타원 또는 밑줄 등의 영상을 레이저포인트 그 위치에 그려줄 수 있게 된다.Patent No. 10-1222543 pre-registered by the applicant of the present invention extracts and stores the trajectory of the laser pointer, compares the trajectory of the laser pointer with a preset figure, applies the most similar figure image to the corresponding position of the presentation image, So that the graphics are continuously displayed on the presentation image. Therefore, in order to display letters, pictures, etc. on an image on a screen as disclosed in Japanese Patent No. 10-1222543, it is required to obtain a position coordinate of the laser point. That is, when a laser pointer is shot using a laser pointer while a presentation is being performed, a coordinate value for the position of the laser point with respect to the entire screen must be set so that an image such as an ellipse or an underline at that position is set to a laser point You will be able to draw in that position.

본 발명은 상기와 같은 필요성을 충족시키기 위해 제안된 것으로, 본 발명의 목적은 레이저 포인터가 지시하는 위치의 좌표를 신속하고 정확하게 인식할 수 있는 프리젠테이션 시스템의 스크린상에서 레이저 포인트의 위치 좌표를 인식하는 방법을 제공하는 것이다.
It is an object of the present invention to provide a method and apparatus for recognizing position coordinates of a laser point on a screen of a presentation system capable of quickly and accurately recognizing coordinates of a position indicated by a laser pointer Method.

상기와 같은 목적을 달성하기 위하여 본 발명의 방법은, 사용자 단말로부터 제공되는 프리젠테이션 영상을 빔프로젝터가 스크린에 디스플레이하고, 레이저포인터가 스크린에 레이저포인트를 주사하며, 카메라가 스크린을 촬영하도록 된 프리젠테이션 시스템에 있어서, 외곽포인트 설정 모드에서 스크린 전체화면의 4 모서리를 설정하는 제1단계; 레이저 포인트 인식 모드에서 카메라로부터 획득된 이미지의 크기를 일정 크기로 변환하는 제2단계; 카메라로부터 획득된 이미지가 컬러이면, 흑백 이미지로 변환하는 제3단계; 호모그래피 계산을 통해 변환행렬(H)을 산출하는 제4단계; 변환행렬을 이용하여 획득된 이미지 중 모니터 화면에 해당하는 영역을 모니터 화면과 동일하게 투시변환하는 제5단계; 투시변환된 흑백 이미지를 설정된 임계치를 이용하여 이진화 영상으로 변환하는 제6단계; 이진화 영상에서 잡음을 제거하는 제7단계; 잡음이 제거된 이진화 영상에서 1인 부분의 연결된 영역에 라벨을 부여하고, 각 라벨의 1의 개수를 합산하여 크기를 계산하는 제8단계; 특정 크기 내의 라벨 중에서 가장 큰 크기의 라벨을 선택하고, 선택된 라벨의 중심점을 계산하는 제9단계; 및 계산된 중심점 좌표를 모니터 좌표로 환산하는 제10단계를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a method of displaying a presentation image on a screen, the method comprising: displaying a presentation image provided from a user terminal on a screen, the laser pointer scanning a laser point on the screen, A first step of setting four corners of a screen full screen in an outline point setting mode; A second step of converting the size of the image obtained from the camera to a predetermined size in the laser point recognition mode; A third step of converting the image obtained from the camera into a monochrome image if the image is color; A fourth step of calculating a transformation matrix H through homography calculation; A fifth step of performing a perspective transformation of an area corresponding to the monitor screen among the images acquired using the conversion matrix in the same manner as the monitor screen; A sixth step of converting the perspective transformed monochrome image into a binarized image using a set threshold value; A seventh step of removing noise from the binarized image; An eighth step of assigning a label to the connected region of the one portion in the binarized image from which the noise is removed, and adding the number of 1s of each label to calculate the size; A ninth step of selecting a label having the largest size among labels within a specific size, and calculating a center point of the selected label; And a tenth step of converting the calculated center point coordinates into monitor coordinates.

상기 제1단계는 카메라 모드를 외곽 포인트 설정 모드로 변경하는 단계와, 화면의 외곽 포인트를 찾기 위해 빔프로젝터에서 모니터 화면을 흰색으로 주사하여 흰색의 다이얼로그를 스크린에 띄우는 단계와, 스크린에 표시된 다이얼로그 영상을 캡춰하고 캡춰된 다이얼로그 영상을 흑백으로 변환하여 이진화한 후 1인 영역의 좌상, 좌하, 우상, 우하 좌표를 구해 전체 화면의 4 모서리 좌표를 설정하는 단계로 구성된다.The method includes the steps of changing a camera mode to an outlier point setting mode, displaying a white dialog on a screen by scanning a monitor screen in white by a beam projector to find an outline point of the screen, And converting the captured dialogue image into black and white, and binarizing it, and then setting the upper left corner, the lower left corner, the upper right corner, and the lower right coordinate of the one-person region to set four corner coordinates of the entire screen.

상기 제4단계는 카메라 핀홀 모델과 프로젝티브 변환을 이용하여 다음 수학식

Figure 112013035562638-pat00001
으로 변환행렬(H)을 산출하고, 상기 제6단계는 수학식
Figure 112013035562638-pat00002
에 따라 해당 위치의 이미지 값이 임계치(T) 미만이면 0으로, 임계치(T) 이상이면 1로 이진화하는 것이다.The fourth step uses the camera pinhole model and the projective transformation to obtain the following equation
Figure 112013035562638-pat00001
(H), and the sixth step is a step of calculating a transformation matrix
Figure 112013035562638-pat00002
0 " if the image value of the corresponding position is less than the threshold value T, and " 1 "

또한, 상기 제7단계는 모폴로지에서 침식과 팽창을 이용하여 잡음을 제거하되, 침식 연산은 3*3 크기의 필터를 3회 이하 사용하고, 팽창 연산은 3*3 크기의 필터를 3회 이하 사용하고, 상기 제9단계는 선택된 라벨의 x좌표의 중심(Cx), y좌표의 중심(Cy)을 수학식

Figure 112013035562638-pat00003
로 산출하며, 상기 제10단계는 모니터 화면의 가로크기(W), 세로크기(H), 이진 영상의 가로크기(BW), 세로크기(BH)라고 할 때, 모니터 좌표(Mx,My)는 수학식
Figure 112013035562638-pat00004
으로 환산한다.
In the seventh step, the noise is removed using the erosion and expansion in the morphology. In the erosion operation, the 3 * 3 size filter is used less than 3 times, and the expansion operation is performed 3 times or less ( Cx ) of the x-coordinate of the selected label and the center of the y-coordinate ( Cy )
Figure 112013035562638-pat00003
When called, the step 10 is a horizontal dimension (W) of the monitor screen, the vertical size (H), width of the binary image size (B W), the vertical size (B H) is calculated, the monitor coordinates (M x, M y )
Figure 112013035562638-pat00004
.

본 발명에 따른 프리젠테이션 시스템의 스크린상에서 레이저 포인터가 지시하는 위치의 좌표를 자동으로 인식하는 방법은, 카메라가 촬영한 스크린 영상에서 레이저 포인트의 좌표를 신속하고 정확하게 인식하여 프리젠테이션 영상에서 발표자가 지시한 위치에 발표자의 의도와 가장 부합하는 직선, 도형, 문자 등을 정확하게 표시할 수 있는 효과가 있다.
A method of automatically recognizing coordinates of a position indicated by a laser pointer on a screen of a presentation system according to the present invention is a method of quickly and accurately recognizing the coordinates of a laser point on a screen image captured by a camera, It is possible to accurately display a straight line, a figure, a character, and the like that best match the presenter's intention in one place.

도 1은 본 발명이 적용될 수 있는 전형적인 프리젠테이션 시스템의 전체 구성을 도시한 개략도,
도 2는 도 1에서의 카메라의 구성을 도시한 구성 블럭도,
도 3은 도 1에서의 사용자단말의 구성을 도시한 구성 블럭도,
도 4는 본 발명에 따른 프리젠테이션 시스템에서 레이저 포인터의 위치를 인식하기 위한 자동 좌표 계산 절차를 도시한 순서도,
도 5는 본 발명에 따른 프리젠테이션 시스템에서 실시간으로 좌표를 계산하는 절차를 도시한 순서도이다.
BRIEF DESCRIPTION OF THE DRAWINGS Figure 1 is a schematic diagram showing the overall configuration of a typical presentation system to which the present invention may be applied;
Fig. 2 is a block diagram showing the configuration of the camera shown in Fig. 1,
3 is a block diagram showing a configuration of a user terminal in FIG. 1,
4 is a flowchart illustrating an automatic coordinate calculation procedure for recognizing a position of a laser pointer in a presentation system according to the present invention.
5 is a flowchart illustrating a procedure for calculating coordinates in real time in the presentation system according to the present invention.

이하, 본 발명의 바람직한 실시예의 상세한 설명은 첨부된 도면들을 참조하여 설명할 것이다. 하기에서 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a detailed description of preferred embodiments of the present invention will be given with reference to the accompanying drawings. In the following description of the present invention, detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

본 명세서에 있어서는 어느 하나의 구성요소가 다른 구성요소로 데이터 또는 신호를 '전송'하는 경우에는 구성요소는 다른 구성요소로 직접 상기 데이터 또는 신호를 전송할 수 있고, 적어도 하나의 또 다른 구성요소를 통하여 데이터 또는 신호를 다른 구성요소로 전송할 수 있음을 의미한다.In the present specification, when any one element 'transmits' data or signals to another element, the element can transmit the data or signal directly to the other element, and through at least one other element Data or signal can be transmitted to another component.

도 1은 본 발명이 적용될 수 있는 전형적인 프리젠테이션 시스템의 전체 구성을 도시한 개략도이다. 도 1을 참조하면, 본 발명에 따른 프리젠테이션 시스템은 빔프로젝터(100), 스크린(200), 레이저 포인터(300), 카메라(400), 사용자단말(500) 및 IP망(600)을 포함한다. 여기서 IP망(600)은 대용량, 장거리 음성 및 데이터 서비스가 가능한 통신망이며, 예컨대, 인터넷(Internet)이 될 수 있다. 또한, IP망은 ALL IP(Internet Protocol) 기반의 고속의 멀티미디어 서비스를 제공하기 위한 차세대 유선 또는 무선 망일 수 있다.BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a schematic diagram showing the overall configuration of a typical presentation system to which the present invention may be applied; FIG. 1, a presentation system according to the present invention includes a beam projector 100, a screen 200, a laser pointer 300, a camera 400, a user terminal 500, and an IP network 600 . Here, the IP network 600 is a communication network capable of a large-capacity, long-distance voice and data service, and can be, for example, the Internet. Also, the IP network may be a next generation wired or wireless network for providing high-speed multimedia service based on ALL IP (Internet Protocol).

또한 카메라(400)는 레이저 포인터(300)의 종류에 따라 레이저 포인터의 빛을 인식하는 카메라나 적외선 카메라일 수도 있으며, 레이저 포인터(300)가 스크린(200)에 지시하는 레이저 포인트를 가장 밝게 인식할 수 있도록 노출과 밝기, 대비, 화이트 밸런스 등을 조정할 수 있고, 빔프로젝터(100)가 주사하는 스크린(200)을 캡쳐하고 있다. 이때 카메라(400)의 위치에 따라 획득되는 스크린의 영역이 달라지므로 레이저 포인트의 위치가 화면의 위치와 다르므로 이를 해결하기 위해 스크린(200)에 백색의 화면을 주사하여 획득된 영상에서 모서리 끝점을 찾아서 각 모서리 점이 사용자 단말 화면의 모서리 점이 되도록 호모그래피(Homography)와 투시변환(perspective transform)을 이용하여 변환한다.The camera 400 may be a camera or an infrared camera that recognizes the light of the laser pointer 300 according to the type of the laser pointer 300. The camera 400 may recognize the laser point pointed to the screen 200 most brightly Brightness, contrast, white balance, and the like, so that the beam projector 100 captures the screen 200 to be scanned. In this case, since the area of the screen obtained according to the position of the camera 400 is changed, the position of the laser point is different from the position of the screen. Therefore, in order to solve this problem, And transforms them using homography and perspective transform so that each corner point becomes a corner point of the user terminal screen.

도 2는 도 1에서의 카메라(400)의 구성을 나타내는 도면이다. 도 2를 참조하면, 카메라(400)는 CMOS 모듈(410), MCU(Micro Contol Unit: 420), 레이저 촬영모듈(430), 제 1 저장부(440), 제 1 송수신단(450) 및 제 1 I/O 인터페이스(460)를 포함하며, 레이저 촬영모듈(430)은 레이저 촬영수단(431) 및 레이저 위치값 추출수단(432)을 구비한다.Fig. 2 is a diagram showing a configuration of the camera 400 in Fig. 2, the camera 400 includes a CMOS module 410, an MCU (Micro Control Unit) 420, a laser imaging module 430, a first storage unit 440, a first transmission / reception unit 450, And an I / O interface 460. The laser photographing module 430 includes a laser photographing unit 431 and a laser position value extracting unit 432. [

그리고 본 명세서에서 모듈이라 함은, 본 발명의 기술적 사상을 수행하기 위한 하드웨어 및 상기 하드웨어를 구동하기 위한 소프트웨어의 기능적, 구조적 결합을 의미할 수 있다. 예컨대, 상기 모듈은 소정의 코드와 상기 소정의 코드가 수행되기 위한 하드웨어 리소스의 논리적인 단위를 의미할 수 있으며, 반드시 물리적으로 연결된 코드를 의미하거나, 한 종류의 하드웨어를 의미하는 것은 아님은 본 발명의 기술분야의 평균적 전문가에게는 용이하게 추론될 수 있다.In this specification, a module may mean a functional and structural combination of hardware for carrying out the technical idea of the present invention and software for driving the hardware. For example, the module may mean a logical unit of a predetermined code and a hardware resource for executing the predetermined code, and it does not necessarily mean a physically connected code or a kind of hardware. Can be easily deduced to the average expert in the field of < / RTI >

MCU(420)는 제 1 송수신단(450) 또는 제 1 I/O 인터페이스(460)에 대한 제어에 의해 사용자단말(500)과 데이터 세션을 연결한 뒤, 연결된 데이터 세션을 통해 사용자단말(500)로부터 스크린(200)에 대한 촬영 명령 및 사용자단말(500)에 의해 설정된 각 위치값을 수신함으로써, CMOS 모듈(410)을 구동시켜 촬영 대기 모드로 진입한다. 이때, MCU(420)는 수신된 각 위치값을 제 1 저장부(440)에 저장한다. 즉, MCU(420)는 사용자단말(500)과 IP망(600)을 통한 데이터 세션을 연결할 경우 제 1 송수신단(450)을 제어하며, 직접 데이터 케이블에 의한 사용자단말(500)과 데이터 세션을 연결할 경우 제 1 I/O 인터페이스(460)를 제어한다. The MCU 420 connects the data session with the user terminal 500 under the control of the first transmission / reception terminal 450 or the first I / O interface 460, The image capturing command for the screen 200 and each position value set by the user terminal 500, thereby driving the CMOS module 410 to enter the photographing standby mode. At this time, the MCU 420 stores the received position values in the first storage unit 440. That is, when the MCU 420 connects the data session through the IP network 600 with the user terminal 500, the MCU 420 controls the first transmission / reception terminal 450 and transmits the data session with the user terminal 500 via the direct data cable And controls the first I / O interface 460 when connecting.

사용자가 소지한 레이저 포인터(300)로부터 레이저가 스크린(200)상에 사용자단말(500)에 의해 스크린(200) 상에 설정된 위치값 중 하나의 위치값으로 조사되는 것으로 CMOS 모듈(410)을 통해 감지한 MCU(420)는 레이저 촬영모듈(430)을 웨이크업(Wake-Up) 한다. 이에 따라 레이저 촬영모듈(430)의 레이저 촬영수단(431)은 레이저 포인터(300)로부터 출력된 레이저의 연속된 조사 시간 동안 레이저 영상을 촬영한 뒤, 제 1 저장부(440)에 저장한다. 동시에 레이저 촬영모듈(430)의 레이저 위치값 추출수단(432)은 레이저 촬영수단(431)에 의해 촬영되는 레이저 영상에 대해 연속되게 조사되는 레이저의 위치값도 미리 설정된 시간 간격으로 추출한 뒤 제 1 저장부(440)에 저장한다. 즉, 레이저 촬영모듈(430)은 사용자가 프리젠테이션을 할 때 레이저 포인터(300)를 활용하여 스크린(200)에 레이저를 조사하여 지시하게 되는데, 이때 레이저 포인터(300)를 가지고 일정한 영역을 밑줄, 세모, 네모, 동그라미 등으로 지시할 경우 이러한 하나의 밑줄, 세모, 네모, 동그라미 등의 형상을 하나의 연속된 레이저 조사로 인식할 수 있도록 한다. The laser from the laser pointer 300 carried by the user is irradiated by the user terminal 500 onto the screen 200 with one position value set on the screen 200 and through the CMOS module 410 The sensed MCU 420 wakes-up the laser imaging module 430. Accordingly, the laser photographing unit 431 of the laser photographing module 430 photographs the laser image during the continuous irradiation time of the laser output from the laser pointer 300, and then stores it in the first storage unit 440. At the same time, the laser position value extracting means 432 of the laser photographing module 430 extracts the position value of the laser continuously irradiated to the laser image photographed by the laser photographing means 431 at a predetermined time interval, (440). That is, when the user makes a presentation, the laser photographing module 430 irradiates a laser to the screen 200 by using the laser pointer 300. At this time, the laser pointer 300 is used to underline, If you specify a triangle, rectangle, or circle, you can recognize the shape of one such underline, triangle, square, and circle as one continuous laser irradiation.

여기서 레이저 촬영수단(431)은 레이저 영상에 대한 촬영시 스크린(200) 상에서 상기 레이저 포인터로부터 출력된 연속된 조사 시간 동안 레이저 영상을 촬영하게 되는데, 연속된 조사 시간의 범위를 벗어나는 조사되지 않는 시간의 범위는 1/100~1/2초(second)로 설정되는 것이 바람직하다. Here, the laser photographing means 431 photographs the laser image during the continuous irradiation time output from the laser pointer on the screen 200 at the time of photographing the laser image, The range is preferably set to 1/100 to 1/2 second.

그리고 제 1 저장부(440) 및 후술할 제 2 저장부(550)는 비휘발성 메모리(Non-volatile memory, NVM)로써 전원이 공급되지 않아도 저장된 데이터를 계속 유지하며 삭제되지 않으며, 플래시 메모리(Flash Memory), MRAM(Magnetic Random Access Memory), PRAM(Phase-change Random Access memory: 상변화 램), FRAM(Ferroelectric RAM: 강유전체 램) 등으로 구성될 수 있다.The first storage unit 440 and the second storage unit 550, which will be described later, are non-volatile memories (NVMs), which do not delete the data stored in the flash memory Memory, a magnetic random access memory (MRAM), a phase-change random access memory (PRAM), and a ferroelectric RAM (FRAM).

MCU(420)는 사용자단말(500)과 연결된 데이터 세션을 통해 촬영된 연속된 조사 시간 동안의 레이저 영상과 레이저 영상의 미리 설정된 시간 간격에 따라 추출된 위치값을 사용자단말(500)로 전송하도록 제 1 송수신단(450) 및 제 1 I/O 인터페이스(460)를 제어한다. The MCU 420 may transmit the extracted positional value to the user terminal 500 according to a predetermined time interval between the laser image and the laser image for the continuous irradiation time taken through the data session connected to the user terminal 500 1 transmission / reception terminal 450 and the first I / O interface 460.

도 3은 도 1에서의 사용자단말(500)의 구성을 나타내는 도면이다. 도 3을 참조하면, 사용자단말(500)은 제 2 송수신단(510), 제 2 I/O 인터페이스(520), 중앙제어부(530), 프리젠테이션 영상 구현 모듈(540), 제 2 저장부(550), 입출력부(560), 레이저포인터 판서모듈(570)을 포함한다. 그리고 중앙제어부(530)는 카메라/빔프로젝터 제어모듈(531)을 구비하며, 프리젠테이션 영상 구현 모듈(540)은 스크린 위치값 설정수단(541), 레이저 영상 추출수단(542) 및 영상변환수단(543)을 구비한다. 한편, 사용자단말(500)은 파워포인트와 같은 프리젠테이션 프로그램을 제 2 저장부(550)에 저장하며, 입출력부(560)를 통한 사용자의 요청에 따라 중앙제어부(530)가 시스템 메모리 상에 로딩한다. FIG. 3 is a diagram showing a configuration of the user terminal 500 in FIG. 3, the user terminal 500 includes a second transmission / reception terminal 510, a second I / O interface 520, a central control unit 530, a presentation image implementation module 540, a second storage unit 550, an input / output unit 560, and a laser pointer writing module 570. The central control unit 530 includes a camera / beam projector control module 531. The presentation image implementation module 540 includes a screen position value setting unit 541, a laser image extracting unit 542, 543). Meanwhile, the user terminal 500 stores a presentation program such as a power point in the second storage unit 550, and the central control unit 530 loads the program in the system memory according to a user's request through the input / output unit 560 do.

중앙제어부(530)의 카메라/빔프로젝터 제어모듈(531)은 빔프로젝터(100) 및 카메라(400)가 데이터 세션을 연결하도록 제 2 송수신단(510) 또는 제 2 I/O 인터페이스(520)를 제어한다. 이후, 카메라/빔프로젝터 제어모듈(531)은 연결된 데이터 세션을 통해 빔프로젝터(100)로 프리젠테이션 영상이 구현되도록 제어한 뒤, 프리젠테이션 영상 구현 모듈(540)을 웨이크업 한다. The camera / beam projector control module 531 of the central control unit 530 controls the second transmission / reception terminal 510 or the second I / O interface 520 so that the beam projector 100 and the camera 400 connect data sessions. . Then, the camera / beam projector control module 531 controls the beam projector 100 to implement the presentation image through the connected data session, and then wakes up the presentation image implementing module 540.

이에 따라, 프리젠테이션 영상 구현 모듈(540)의 스크린 위치값 설정수단(541)은 빔프로젝터(100)에서 출력된 프리젠테이션 영상이 구현되는 스크린(200)에 대한 가로방향(X) 및 세로방향(Y)의 조합에 의한 각 위치값을 설정하여 제 2 저장부(550)에 저장한다. 여기서 위치값은 픽셀값 또는 좌표값으로 설정가능하며, 빔프로젝터(100)에 의해 구현되는 프리젠테이션 영상의 해상도에 따라 다양한 숫자의 값으로 설정가능하다.The screen position value setting means 541 of the presentation image implementing module 540 sets the screen position value of the presentation image output from the beam projector 100 in the horizontal direction X and the vertical direction Y) is set and stored in the second storage unit 550. Here, the position value can be set as a pixel value or a coordinate value, and can be set to various numbers according to the resolution of the presentation image implemented by the beam projector 100.

또한 본 발명의 실시예에서 스크린 위치값 설정수단(541)은 카메라/빔프로젝터 제어모듈(531)과 연동하여 카메라(400)가 획득한 영상에서 레이저 포인터(300)가 지시하는 위치 좌표를 인식하기 위하여 카메라의 동작 모드를 외곽포인트 설정 모드와 레이저 포인트 인식모드로 제어한다. 외곽포인트 설정 모드는 카메라의 노출값(exposure), 밝기(brightness), 감마(gamma), sharpness를 셋팅 프로그램에서 조정하여 스크린에 비췬 화면을 그대로 볼 수 있는 모드이고, 레이져 포인트 인식 모드는 카메라의 노출값(exposure), 밝기(brightness), 감마(gamma), sharpness를 셋팅 프로그램에서 조정하여 스크린에 비췬 화면은 볼 수 없고 레이져 포인트만 획득할 수 있는 모드이다.In the embodiment of the present invention, the screen position value setting means 541 is configured to recognize the position coordinates indicated by the laser pointer 300 in the image acquired by the camera 400 in cooperation with the camera / beam projector control module 531 The operation mode of the camera is controlled by the outline point setting mode and the laser point recognition mode. The outline point setting mode is to adjust the camera exposure, brightness, gamma and sharpness in the setting program so that the screen can be seen on the screen. exposure, brightness, gamma, and sharpness in the setting program so that only the laser point can be acquired without viewing the screen on the screen.

프리젠테이션 영상 구현 모듈(540)의 레이저 영상 추출수단(542)은 수신된 레이저 영상을 제 2 저장부(550)에 저장된 다수의 영상과 비교하여 가장 근접한 형태를 갖는 영상을 추출한다.The laser image extracting unit 542 of the presentation image implementing module 540 compares the received laser image with a plurality of images stored in the second storage unit 550 to extract an image having the closest shape.

프리젠테이션 영상 구현 모듈(540)의 영상변환수단(543)은 레이저 영상 추출수단(542)에 의해 추출된 가장 근접한 영상의 형상을 미리 설정된 시간 간격으로 분할한 뒤, 분할된 형상의 영상을 추출된 레이저 영상의 미리 설정된 시간 간격에 따라 추출된 위치값과 각각 매칭시켜 프리젠테이션 매칭형 레이저 영상을 생성한 뒤, 제 2 저장부(550)에 저장한다.The image converting means 543 of the presentation image implementing module 540 divides the shape of the nearest image extracted by the laser image extracting means 542 at predetermined time intervals and then extracts the divided shape image Matching the position values extracted according to the predetermined time intervals of the laser images to generate presentation-matching type laser images, and stores the generated laser images in the second storage unit 550.

카메라/빔프로젝터 제어모듈(531)은 프리젠테이션 영상 구현 모듈(540)에 의해 생성된 프리젠테이션 매칭형 레이저 영상을 빔프로젝터(100)에 출력되고 있는 프리젠테이션 영상과 시간의 흐름에 따라 동기화시켜 출력되도록 빔프로젝터(100)를 제어한다.The camera / beam projector control module 531 synchronizes the presentation-matching type laser image generated by the presentation image implementation module 540 with the presentation image being output to the beam projector 100 according to the flow of time, So as to control the beam projector 100 as much as possible.

한편, 레이저포인터 판서 모듈(570)은 레이저 포인터(300)를 이용하여 스크린(200)에 판서 시 레이저포인터(300)가 움직인 궤적을 타원피팅(Fitting)과 직선피팅(Fitting)을 이용하여 타원 또는 직선으로 계산한 후 스크린 화면에 다양한 색상을 표시한다. 즉, 레이저포인터(300)가 동작하여 스크린(200)에 노출되면 카메라(400)에서 이를 획득하여 모니터의 좌표계로 저장하고, 레이저포인터(300)가 연속적으로 동작시 계속 저장한다. 그리고 레이저포인터(300)가 화면에 없을 시 특정한 프레임 수(A)가 지나고 저장된 좌표가 특정 개수(B) 이상이면 타원 핏팅을 하여 장축길이, 단축길이, 주축각도, 중심점 등을 찾고, 주축각도가 수평에 근사하고 단축길이/장축길이가 특정값(C) 이하면 직선으로 판단하고, 특정값 이상으면 타원으로 판단한다. 타원으로 판단시 화면에 계산된 값으로 타원을 그리고, 직선으로 판단시 저장된 좌표를 직선피팅한 후 저장된 좌표의 좌, 우 좌표를 이용하여 그릴 직선의 시작점과 끝점을 계산한 후 화면에 직선을 그리며, 이러한 과정을 프로그램 종료시까지 루프를 돌며 반복한다.The laser pointer writing module 570 uses an elliptic fitting and a linear fitting to determine a trajectory of the laser pointer 300 on the screen 200 using the laser pointer 300, Or a straight line, and displays various colors on the screen screen. That is, when the laser pointer 300 is operated and exposed to the screen 200, the camera 400 acquires it and stores it in the coordinate system of the monitor, and continuously stores the laser pointer 300 when the laser pointer 300 is continuously operated. If the number of stored frames (A) exceeds the number of stored frames (A) when the laser pointer 300 is not on the screen and the number of stored coordinates is greater than or equal to a predetermined number B, an ellipse fitting is performed to search for a long axis length, a short axis length, If it is horizontal and the short axis length / long axis length is less than or equal to the specific value C, it is determined as a straight line. When ellipse is judged, the ellipse is calculated as the calculated value on the screen. Then, the straight line is fitted to the coordinates stored in the straight line, and the starting point and the ending point of the drawn line are calculated using the left and right coordinates of the stored coordinates, , And repeats this process by looping until the end of the program.

한편, 이와 같은 프리젠테이션 시스템에서 레이저 포인터가 지시하는 스크린상의 위치 좌표를 인식하기 위하여 본 발명에서는 먼저 전체 화면의 네 모서리에 대한 좌표를 찾아서 임계치를 설정해 두고, 실시간 좌표계산 알고리즘을 이용하여 실시간의 레이저포인트 좌표값을 인식하도록 한다.In order to recognize the position coordinates on the screen indicated by the laser pointer in this presentation system, in the present invention, first, the coordinates of the four corners of the entire screen are searched for and thresholds are set, Point coordinates are recognized.

도 4는 본 발명에 따른 프리젠테이션 시스템에서 레이저 포인터의 위치를 인식하기 위한 자동 좌표 계산 절차를 도시한 순서도이다.4 is a flowchart illustrating an automatic coordinate calculation procedure for recognizing a position of a laser pointer in a presentation system according to the present invention.

본 발명에 따라 레이저 포인터(300)가 지시한 레이저 포인트의 좌표를 인식하기 위한 자동 좌표 계산 절차는 도 4에 도시된 바와 같이, 카메라 모드 변경 단계(S1)와, 스크린상에 흰색 다이얼로그를 띄우는 단계(S2)와, 카메라 이미지를 획득하는 단계(S4)와, 좌상, 좌하, 우상, 우하 좌표를 찾는 단계(S4)로 구성된다.The automatic coordinate calculation procedure for recognizing the coordinates of the laser point indicated by the laser pointer 300 according to the present invention includes a camera mode changing step S1 and a white dialogue- (S2), acquiring a camera image (S4), and searching for upper left, lower left, upper right, and lower right coordinates (S4).

먼저, 빔프로젝터(100)에서 스크린(200)에 주사한 화면을 카메라(400)에서 획득시 사용자 단말(500)의 모니터 화면과 좌표가 맞지 않으며, 이를 보정하기 위해 호모그래피와 투시변환(perspective transform)을 이용한다. 호모그래피와 투시변환(perspective transform)은 4개의 점이 필요하므로 종래에는 카메라에서 획득된 영상에서 모니터 화면에 해당하는 영역을 설정하기 위해 마우스로 모서리 4개의 점을 클릭하여 변환할 좌표를 얻어왔으나 정확한 좌표를 클릭하여 얻어오는 것이 쉽지 않기 때문에 본 발명에서는 영상처리를 통한 자동 좌표계산 알고리즘을 이용한다. 본 발명에 따른 자동 좌표 계산 알고리즘은 카메라 모드를 외곽포인트 설정 모드로 변경 후, 셋팅 프로그램에서 모니터에 흰색의 화면을 띄우고, 이 화면이 스크린에 비춰지면 카메라로 획득한 후 획득된 이미지를 이용하여 흰색영역의 모서리 지점을 찾아오는 것이다.First, when the screen scanned by the beam projector 100 on the screen 200 is acquired by the camera 400, the coordinates of the monitor screen of the user terminal 500 are not matched. To correct this, the homography and perspective transform ). Since four points are required for the homography and perspective transform, conventionally, in order to set the area corresponding to the monitor screen in the image obtained by the camera, coordinates to be converted are obtained by clicking four points of the corner with the mouse, It is not easy to obtain by clicking on the image. Therefore, the present invention uses an automatic coordinate calculation algorithm through image processing. The automatic coordinate calculation algorithm according to the present invention changes the camera mode to the outline point setting mode and then displays a white screen on the monitor in the setting program. If the screen is displayed on the screen, it is acquired by the camera, It will find the corner point of the area.

도 4를 참조하면, 카메라 모드 변경 단계(S1)에서는 카메라 모드를 외곽포인트 설정모드로 변경한 후 스크린(200)에 비췬 화면이 잘 보이도록 카메라(400)의 노출값(exposure), 밝기(brightness), 감마(gamma), 샤프니스(sharpness) 설정을 변경한다. 본 발명의 실시예에서 카메라 모드는 2가지가 있는데, 외곽포인트 설정 모드는 카메라의 노출값(exposure), 밝기(brightness), 감마(gamma), 샤프니스(sharpness)를 셋팅 프로그램에서 조정하여 스크린에 비췬 화면을 그대로 볼 수 있는 모드이고, 레이져 포인트 인식 모드는 카메라의 노출값(exposure), 밝기(brightness), 감마(gamma), 샤프니스(sharpness)를 셋팅 프로그램에서 조정하여 스크린에 비췬 화면은 볼 수 없고 레이져 포인트만 획득할 수 있는 모드이다.4, in the camera mode change step S1, the camera mode is changed to the outline point setting mode, and then the exposure, brightness, and the like of the camera 400 are displayed on the screen 200, , Gamma, and sharpness settings. In the embodiment of the present invention, there are two camera modes. In the outline point setting mode, the exposure program, the brightness, the gamma, and the sharpness of the camera are adjusted in the setting program, The laser point recognition mode can be used to adjust the camera exposure, brightness, gamma, and sharpness in the setting program so that the screen can not be seen on the screen, It is a mode that can acquire only.

이어 흰색 다이얼로그 띄우는 단계(S2)에서는 화면의 끝점을 잘 찾기 위해 빔프로젝터(100)에서 모니터 화면을 흰색으로 주사하여 흰색의 다이얼로그를 스크린에 띄운다.Then, in step S 2 of displaying a white dialogue, the beam projector 100 scans the monitor screen in white to find the end point of the screen and displays a white dialog on the screen.

카메라 이미지 획득 단계(S3)에서는 스크린(200)에 주사된 다이얼로그 영상을 캡쳐하고, 좌상, 좌하, 우상, 우하 좌표를 찾는 단계(S4)에서는 다이얼로그 영상을 흑백으로 변경한 후 이진화하여 1인 영역의 좌상, 좌하, 우상, 우하 좌표 찾는다. 즉, 흑백 영상(f)을 설정된 임계치(T)를 이용하여 다음 수학식 1과 같이 이진화 영상(B)으로 변환하여 다이얼로그 화면의 4 모서리 좌표를 구한다.In the camera image acquiring step S3, the dialog image scanned on the screen 200 is captured. In step S4, the dialog image is changed to black and white, and then the binarized image is binarized. Find the upper left, lower left, upper right, and lower right coordinates. That is, the monochrome image f is converted into the binarized image B as shown in the following Equation 1 using the set threshold value T to obtain the four corner coordinates of the dialog screen.

Figure 112013035562638-pat00005
Figure 112013035562638-pat00005

도 5는 본 발명에 따른 프리젠테이션 시스템에서 실시간으로 좌표를 계산하는 절차를 도시한 순서도이다.5 is a flowchart illustrating a procedure for calculating coordinates in real time in the presentation system according to the present invention.

본 발명에 따라 실시간으로 좌표를 계산하는 절차는 카메라 모드가 레이저 포인트 인식 모드인 상태에서 이루어지는데, 도 5에 도시된 바와 같이 카메라(400)로부터 획득된 이미지의 크기를 일정 크기로 변환하는 단계(S101)와, 카메라로부터 획득된 이미지가 컬러이면, 흑백 이미지로 변환하는 단계(S102)와, 호모그래피 계산을 통해 변환행렬(H)을 산출하는 단계(S103)와, 변환행렬을 이용하여 획득된 이미지 중 모니터 화면에 해당하는 영역을 모니터 화면과 동일하게 투시변환(Perspective Tranform)하는 단계(S104)와, 투시변환된 흑백 이미지를 설정된 임계치를 이용하여 이진화 영상으로 변환하는 단계(S105)와, 모폴로지를 이용한 잡음 제거단계(S106)와, 레이블링 단계(S107)와, 각 레벨의 크기를 계산하는 단계(S108)와, 가장 큰 라벨을 선택하는 단계(S109)와, 중심점을 계산하는 단계(S110)와, 모니터 좌표로 환산하는 단계(S111)로 구성된다.The procedure for calculating coordinates in real time according to the present invention is performed in a state in which the camera mode is the laser point recognition mode. The step of converting the size of the image obtained from the camera 400 to a predetermined size (S102) of converting the image obtained from the camera into a monochrome image (S102); calculating a transformation matrix (H) through homography calculation (S103); A step S104 of perspectively transforming an area corresponding to the monitor screen in the same manner as the monitor screen, a step S105 of converting the perspective-converted monochrome image into a binarized image using a preset threshold value, A labeling step S107, a step S108 of calculating the size of each level, a step S109 of selecting the largest label, And a step (S110) of calculating, consists of a step (S111) for converting the monitor coordinates.

도 5를 참조하면, 이미지 크기 변환 단계(S101)는 카메라에서 획득한 이미지를 실시간 처리를 위하여 정해둔 크기로 영상을 축소하는 것이다. 즉, 카메라의 해상도에 따라 이미지의 크기가 달라지므로 고해상도의 카메라를 사용하더라도 실시간 처리가 가능하도록 이미지 크기를 일정하게 제한한다.Referring to FIG. 5, the image size conversion step (S101) is to reduce the image size of the image acquired by the camera to a predetermined size for real-time processing. That is, since the size of the image varies depending on the resolution of the camera, the image size is limited so as to enable real-time processing even if a high-resolution camera is used.

이미지 흑백 변환 단계(S102)는 카메라(400)가 컬러 카메라일 경우, 획득된 이미지를 흑백으로 변환하고, 흑백 카메라일 경우는 이 단계를 생략한다.The image monochrome conversion step S102 converts the obtained image into monochrome if the camera 400 is a color camera, and omits this step if it is a monochrome camera.

호모그래피(Homography) 계산 단계(S103)는 투시변환(Perspective transform)을 수행하기 위해서 변환행렬(H)를 계산한다. 이를 위하여 카메라 모델은 다음 수학식 2와 같이 카메라 핀 홀(Camera Pinhole Model)을 이용한다. Homography calculation step S103 calculates a transformation matrix H to perform a perspective transformation. To do this, the camera model uses a camera pinhole model as shown in Equation (2).

Figure 112013035562638-pat00006
Figure 112013035562638-pat00006

카메라 모델에서 평면간의 변환은 프로젝티브 변환(Projective Transformation)을 이용한다.The transformation between the planes in the camera model uses Projective Transformation.

h가 프로젝티브 변환(Projective Transformation)이면 역행렬이 존재하는 3x3 행렬 H가 존재하여 다음 수학식 3으로 표현할 수 있다.If h is a projective transformation, there exists a 3x3 matrix H in which an inverse matrix exists and can be expressed by the following equation (3).

Figure 112013035562638-pat00007
Figure 112013035562638-pat00007

투시변환(Perspective transform) 단계(S104)에서는 호모그래피(Homography)에서 계산된 H를 이용하여 획득된 이미지 중 모니터 화면에 해당하는 영역을 모니터 화면과 동일하게 변환한다. 즉, 일반적으로 카메라를 이용하여 건물 사진을 획득하면 투시왜곡(Perspective Distortion)이 존재하는데, 여기에서 4점을 선택하고 이들 4점이 정사각형이 되도록 H를 구하고, 이를 이용하여 다음 수학식에 따라 연산하면 된다.In the perspective transformation step (S104), an area corresponding to the monitor screen among the images obtained using the H calculated by the homography is transformed into the same as the monitor screen. In other words, generally, when a photograph of a building is acquired by using a camera, Perspective Distortion exists. Here, 4 points are selected and H is obtained so that these four points are squares. do.

Figure 112013035562638-pat00008
Figure 112013035562638-pat00008

영상 이진화 단계(S105)에서는 흑백 영상(f)을 설정된 임계치(T)를 이용하여 앞서 설명한 수학식 1에 의해 이진화 영상(B)으로 변환한다. 즉, 레이져 포인트는 밝게 들어오므로 이진화 영상에서 1인 부분을 해석하여 찾을 수 있다. In the image binarization step S105, the monochrome image f is converted into the binarized image B by using the above-described equation (1) using the set threshold value T. In other words, the laser point comes in brightly, so it can be found by interpreting the one part in the binarized image.

한편, 이진화 영상에서 1인 부분은 레이져 포인트가 아닌 부분에도 잡음으로 발생할 수 있기 때문에 모폴로지를 이용한 잡음제거 단계(S106)에서는 모폴로지에서 침식과 팽창을 이용하여 잡음을 제거한다. 침식 연산은 3*3 크기의 필터와 사용 횟수(3회 이하)에 따라 작은 덩어리의 객체들을 사라지게 할 수 있고, 팽창 연산은 3*3 크기의 필터와 사용 횟수(3회 이하)에 따라 객체 내부에 있는 작은 구멍들을 사라지게 할 수 있다.On the other hand, in the noise removal step using the morphology (S106), noise is removed by using erosion and expansion in the morphology since the one part in the binarized image can be generated by noise even in the non-laser point. The erosion operation can cause the objects of small chunks to disappear according to the 3 * 3 size filter and the use frequency (less than 3 times), and the expansion operation can be performed by using the 3 * 3 size filter and the use frequency Can be made to disappear.

레이블링 단계에서는 이진 영상에서 1인 부분의 연결된 영역에 번호(라벨)를 다르게 부여하여 구분하고, 각 라벨의 1의 개수를 합산하여 크기를 계산한다((S107,S108).In the labeling step, the numbers (labels) are differently assigned to the connected regions of one portion in the binary image, and the sizes of 1s of the labels are summed up to calculate sizes (S107, S108).

그리고 미처 제거되지 않은 잡음에 의해 레이저 포인트가 잘못 인식되는 것을 방지하기 위해 특정 크기 내의 라벨 중 가장 큰 크기의 라벨에 해당하는 것을 찾고, 다음 수학식 5에 따라 선택된 라벨의 x좌표의 중심(Cx), y좌표의 중심(Cy)을 찾는다(S109,S110).And searching the one that corresponds to the largest size of label of the labels within a given size by the noise is not micheo removed in order to prevent the laser point is erroneously recognized, the center of the x-coordinate of the selected label according to the following equation: 5 (C x ) and the center C y of the y coordinate (S109, S110).

Figure 112013035562638-pat00009
Figure 112013035562638-pat00009

그리고 모니터 좌표로 환산 단계(S111)에서는 모니터 화면의 가로크기(W), 세로크기(H)를 이용하여 앞서 계산된 좌표를 모니터 좌표(Mx,My)로 환산한다. 이진 영상의 가로크기(BW), 세로크기(BH)라고 할 때, 모니터 좌표(Mx,My)는 다음 수학식 6과 같이 환산된다.In the conversion step S111 of the monitor coordinates, the previously calculated coordinates are converted into monitor coordinates (M x , M y ) using the horizontal size (W) and the vertical size (H) of the monitor screen. (B W ) and the vertical size (B H ) of the binary image, the monitor coordinates (M x , M y ) are converted into the following Equation (6).

Figure 112013035562638-pat00010
Figure 112013035562638-pat00010

이상과 같이, 본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.
As described above, preferred embodiments of the present invention have been disclosed in the present specification and drawings, and although specific terms have been used, they have been used only in a general sense to easily describe the technical contents of the present invention and to facilitate understanding of the invention , And are not intended to limit the scope of the present invention. It is to be understood by those skilled in the art that other modifications based on the technical idea of the present invention are possible in addition to the embodiments disclosed herein.

100: 빔프로젝터 200: 스크린
300: 레이저포인터 400: 카메라
500: 사용자단말 600: IP망
100: a beam projector 200: a screen
300: laser pointer 400: camera
500: user terminal 600: IP network

Claims (7)

사용자단말로부터 제공되는 프리젠테이션 영상을 빔프로젝터가 스크린에 디스플레이하고, 레이저포인터가 스크린에 레이저포인트를 주사하며, 카메라가 스크린을 촬영하도록 된 프리젠테이션 시스템에 있어서,
외곽포인트 설정 모드에서 스크린 전체화면의 4 모서리를 설정하는 제1단계;
레이저 포인트 인식 모드에서 카메라로부터 획득된 이미지의 크기를 일정 크기로 변환하는 제2단계;
카메라로부터 획득된 이미지가 컬러이면, 흑백 이미지로 변환하는 제3단계;
호모그래피 계산을 통해 변환행렬(H)을 산출하는 제4단계;
변환행렬을 이용하여 획득된 이미지 중 모니터 화면에 해당하는 영역을 모니터 화면과 동일하게 투시변환하는 제5단계;
투시변환된 흑백 이미지를 설정된 임계치를 이용하여 이진화 영상으로 변환하는 제6단계;
이진화 영상에서 잡음을 제거하는 제7단계;
잡음이 제거된 이진화 영상에서 1인 부분의 연결된 영역에 라벨을 부여하고, 각 라벨의 1의 개수를 합산하여 크기를 계산하는 제8단계;
특정 크기 내의 라벨 중에서 가장 큰 크기의 라벨을 선택하고, 선택된 라벨의 중심점을 계산하는 제9단계; 및
계산된 중심점 좌표를 모니터 좌표로 환산하는 제10단계를 포함하는 프리젠테이션 시스템의 스크린상에서 레이저 포인트 위치 좌표 인식 방법.
A presentation system in which a beam projector displays a presentation image provided from a user terminal, a laser pointer scans a laser point on a screen, and a camera captures a screen,
A first step of setting four corners of the screen full screen in the outline point setting mode;
A second step of converting the size of the image obtained from the camera to a predetermined size in the laser point recognition mode;
A third step of converting the image obtained from the camera into a monochrome image if the image is color;
A fourth step of calculating a transformation matrix H through homography calculation;
A fifth step of performing a perspective transformation of an area corresponding to the monitor screen among the images acquired using the conversion matrix in the same manner as the monitor screen;
A sixth step of converting the perspective transformed monochrome image into a binarized image using a set threshold value;
A seventh step of removing noise from the binarized image;
An eighth step of assigning a label to the connected region of the one portion in the binarized image from which the noise is removed, and adding the number of 1s of each label to calculate the size;
A ninth step of selecting a label having the largest size among labels within a specific size, and calculating a center point of the selected label; And
And converting the computed center point coordinates into monitor coordinates. The method of any preceding claim,
제1항에 있어서, 상기 제1단계는
카메라 모드를 외곽 포인트 설정 모드로 변경하는 단계와, 화면의 외곽 포인트를 찾기 위해 빔프로젝터에서 모니터 화면을 흰색으로 주사하여 흰색의 다이얼로그를 스크린에 띄우는 단계와, 스크린에 표시된 다이얼로그 영상을 캡춰하고 캡춰된 다이얼로그 영상을 흑백으로 변환하여 이진화한 후 1인 영역의 좌상, 좌하, 우상, 우하 좌표를 구해 전체 화면의 4 모서리 좌표를 설정하는 단계로 구성된 것을 특징으로 하는 프리젠테이션 시스템의 스크린상에서 레이저 포인트 위치 좌표 인식 방법.
2. The method of claim 1, wherein the first step
Changing a camera mode to an outlier point setting mode, displaying a white dialog on a screen by scanning a monitor screen in white by a beam projector to find outline points on the screen, capturing a dialogue image displayed on the screen, Converting the dialogue image into black and white, binarizing the dialogue image, and then setting the four corner coordinates of the entire screen by obtaining the upper left, lower left, upper right, and lower right coordinates of the one-person region. Recognition method.
제1항 또는 제2항에 있어서, 상기 제4단계는
카메라 핀홀 모델과 프로젝티브 변환을 이용하여 다음 수학식
Figure 112013035562638-pat00011
으로 변환행렬(H)을 산출하는 것을 특징으로 하는 프리젠테이션 시스템의 스크린상에서 레이저 포인트 위치 좌표 인식 방법.
3. The method according to claim 1 or 2, wherein the fourth step
Using the camera pinhole model and the projective transformation,
Figure 112013035562638-pat00011
And a transformation matrix (H) is calculated from the transformation matrix (H).
제1항 또는 제2항에 있어서, 상기 제6단계는
B(x,y)는 이진화 영상, f(x,y)는 흑백 영상, T는 임계치라고 할 때, 수학식
Figure 112013035562638-pat00012
에 따라 해당 위치의 이미지 값이 임계치(T) 미만이면 0으로, 임계치(T) 이상이면 1로 이진화하는 것을 특징으로 하는 프리젠테이션 시스템의 스크린상에서 레이저 포인트 위치 좌표 인식 방법.
3. The method according to claim 1 or 2, wherein the sixth step
B (x, y) is a binarized image, f (x, y) is a monochrome image, and T is a threshold value,
Figure 112013035562638-pat00012
Wherein the binarizing step binarizes the value of the laser point position coordinates on the screen of the presentation system according to the value of the position of the presentation point.
제1항 또는 제2항에 있어서, 상기 제7단계는
모폴로지에서 침식과 팽창을 이용하여 잡음을 제거하되, 침식 연산은 3*3 크기의 필터를 3회 이하 사용하고, 팽창 연산은 3*3 크기의 필터를 3회 이하 사용하는 것을 특징으로 하는 프리젠테이션 시스템의 스크린상에서 레이저 포인트 위치 좌표 인식 방법.
The method according to claim 1 or 2, wherein the seventh step
In the morphology, the noise is removed by erosion and expansion. In the erosion operation, the 3 * 3 size filter is used less than 3 times and the expansion operation is made 3 times smaller than 3 * 3 filter. A method of recognizing laser point position coordinates on a screen of a system.
제1항 또는 제2항에 있어서, 상기 제9단계는
선택된 라벨의 x좌표의 중심(Cx), y좌표의 중심(Cy)을
수학식
Figure 112013035562638-pat00013
로 산출하는 것을 특징으로 하는 프리젠테이션 시스템의 스크린상에서 레이저 포인트 위치 좌표 인식 방법.
3. The method according to claim 1 or 2, wherein the ninth step
The center (C x ) of the x coordinate of the selected label, the center of the y coordinate (C y )
Equation
Figure 112013035562638-pat00013
And calculating the coordinates of the laser point position on the screen of the presentation system.
제1항 또는 제2항에 있어서, 상기 제10단계는
모니터 화면의 가로크기(W), 세로크기(H), 이진 영상의 가로크기(BW), 세로크기(BH)라고 할 때, 모니터 좌표(Mx,My)는 수학식
Figure 112013035562638-pat00014
으로 환산하는 것을 특징으로 하는 프리젠테이션 시스템의 스크린상에서 레이저 포인트 위치 좌표 인식 방법.
3. The method according to claim 1 or 2, wherein the step
Horizontal dimension (W) of the monitor screen, the vertical size (H), the horizontal scale (B W) of the binary image, when said vertical dimension (B H), the monitor coordinates (x M, y M) is formula
Figure 112013035562638-pat00014
Wherein the coordinates of the laser point position on the screen of the presentation system are converted into the coordinate of the laser point position on the screen.
KR1020130044679A 2013-04-23 2013-04-23 Method of identifying the laser point position on screen of presentation system KR101280840B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130044679A KR101280840B1 (en) 2013-04-23 2013-04-23 Method of identifying the laser point position on screen of presentation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130044679A KR101280840B1 (en) 2013-04-23 2013-04-23 Method of identifying the laser point position on screen of presentation system

Publications (1)

Publication Number Publication Date
KR101280840B1 true KR101280840B1 (en) 2013-07-02

Family

ID=48996292

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130044679A KR101280840B1 (en) 2013-04-23 2013-04-23 Method of identifying the laser point position on screen of presentation system

Country Status (1)

Country Link
KR (1) KR101280840B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114842094A (en) * 2022-07-04 2022-08-02 季华实验室 Full-color area-array camera and hyperspectral linear array camera combined calibration method and system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030034535A (en) * 2001-10-26 2003-05-09 이문기 Pointing apparatus using camera and the method of computing pointer position
KR20080073181A (en) * 2007-02-05 2008-08-08 전남대학교산학협력단 Control system using remote pointing device
KR20090091578A (en) * 2008-02-25 2009-08-28 한세대학교 산학협력단 Method and apparatus for detecting location of laser beam with minimized error using mono-camera
KR20110099461A (en) * 2010-03-02 2011-09-08 (주)실리콘화일 Apparatus and method for pointing control

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030034535A (en) * 2001-10-26 2003-05-09 이문기 Pointing apparatus using camera and the method of computing pointer position
KR20080073181A (en) * 2007-02-05 2008-08-08 전남대학교산학협력단 Control system using remote pointing device
KR20090091578A (en) * 2008-02-25 2009-08-28 한세대학교 산학협력단 Method and apparatus for detecting location of laser beam with minimized error using mono-camera
KR20110099461A (en) * 2010-03-02 2011-09-08 (주)실리콘화일 Apparatus and method for pointing control

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114842094A (en) * 2022-07-04 2022-08-02 季华实验室 Full-color area-array camera and hyperspectral linear array camera combined calibration method and system
CN114842094B (en) * 2022-07-04 2022-09-27 季华实验室 Full-color area-array camera and hyperspectral linear array camera combined calibration method and system

Similar Documents

Publication Publication Date Title
JP5826081B2 (en) Image processing apparatus, character recognition method, and computer program
JP6417702B2 (en) Image processing apparatus, image processing method, and image processing program
CN111345029B (en) Target tracking method and device, movable platform and storage medium
WO2014064870A1 (en) Image processing device and image processing method
US20150279121A1 (en) Active Point Cloud Modeling
CN104811660A (en) Control apparatus and control method
CN108648225B (en) Target image acquisition system and method
JP5693094B2 (en) Image processing apparatus, image processing method, and computer program
KR20130134163A (en) Apparatus and method for extracting target, and the recording media storing the program for performing the said method
JP2013042413A (en) Image processing apparatus, image processing method, and computer program
TW201544995A (en) Object recognition method and object recognition apparatus using the same
KR101258910B1 (en) Method of writing on screen by laser pointer in presentation system
KR102157588B1 (en) An apparatus for recognizing a license plate of a vehicle, a method therefor, and computer recordable medium storing program to perform the method
JP2020107170A (en) Annotation device, learning model, image sensor, annotation method, and computer program
KR102366396B1 (en) RGB-D Data and Deep Learning Based 3D Instance Segmentation Method and System
JP2011022927A (en) Hand image recognition device
JP2010092092A (en) Image processing apparatus and image processing method
JP2014142832A (en) Image processing apparatus, control method of image processing apparatus, and program
KR101726692B1 (en) Apparatus and method for extracting object
KR101280840B1 (en) Method of identifying the laser point position on screen of presentation system
US20170263013A1 (en) Information processing apparatus, information processing method, and storage medium
CN114565952A (en) Pedestrian trajectory generation method, device, equipment and storage medium
JP7123545B2 (en) Information processing device, information processing method and program
JP2018063675A (en) Image processor and control method
US10116809B2 (en) Image processing apparatus, control method, and computer-readable storage medium, which obtains calibration image information with which to correct image data

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160428

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170412

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190422

Year of fee payment: 7