KR101280840B1 - Method of identifying the laser point position on screen of presentation system - Google Patents
Method of identifying the laser point position on screen of presentation system Download PDFInfo
- Publication number
- KR101280840B1 KR101280840B1 KR1020130044679A KR20130044679A KR101280840B1 KR 101280840 B1 KR101280840 B1 KR 101280840B1 KR 1020130044679 A KR1020130044679 A KR 1020130044679A KR 20130044679 A KR20130044679 A KR 20130044679A KR 101280840 B1 KR101280840 B1 KR 101280840B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- screen
- camera
- coordinates
- laser
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 239000011159 matrix material Substances 0.000 claims abstract description 13
- 238000004364 calculation method Methods 0.000 claims abstract description 11
- 238000006243 chemical reaction Methods 0.000 claims abstract description 8
- 230000009466 transformation Effects 0.000 claims description 16
- 230000003628 erosive effect Effects 0.000 claims description 6
- 238000002372 labelling Methods 0.000 abstract description 4
- 230000005540 biological transmission Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000015654 memory Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
- G06T5/30—Erosion or dilatation, e.g. thinning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/40—Picture signal circuits
- H04N1/40012—Conversion of colour to monochrome
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Controls And Circuits For Display Device (AREA)
- Projection Apparatus (AREA)
Abstract
Description
본 발명은 프리젠테이션 시스템에서 스크린상에 문자나 그림을 영상으로 표시하기 위하여 레이저 포인터가 지시하는 위치의 좌표를 인식하는 방법에 관한 것으로, 더욱 상세하게는 카메라가 취득한 스크린 영상에서 투시 변환 등을 이용하여 레이저 포인터가 지시한 레이저 포인트의 위치 좌표를 자동으로 인식하는 방법에 관한 것이다.
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method of recognizing coordinates of a position indicated by a laser pointer in order to display a character or a picture on a screen in a presentation system, And automatically recognizing the position coordinates of the laser point pointed by the laser pointer.
발표자가 빔프로젝터와 노트북과 같은 사용자단말을 이용하여 프리젠테이션을 하는 경우, 레이저 포인터를 활용하여 스크린에 레이저 빔을 조사하여 지시하게 되는데, 이때 레이저 포인터를 가지고 강조할 부분에 밑줄, 세모, 네모, 동그라미 등으로 표시하거나 부가 설명을 간단히 문자로 표시하기도 한다.When a presenter makes a presentation using a user terminal such as a beam projector and a notebook, the user directs a laser beam to the screen by using a laser pointer. At this time, underlining, triangle, square, It may be displayed in a circle or the like, or the additional description may be simply displayed in characters.
그러나 프리젠테이션에서 레이저 포인터는 온될 경우 발표자가 가르키는 현재 위치를 점(이를 '레이저 포인트'라 한다)으로 지시만 하지 프리젠테이션 영상에 계속하여 표시해 둘 수가 없으므로 레이저 포인터가 지나가면 이전의 그림이나 문자는 화면에서 사라져 버리는 일시적인 특성을 갖는 단점이 있다.However, when the laser pointer is turned on in the presentation, the current position indicated by the presenter is referred to as a point (referred to as "laser point"). However, since the laser pointer does not continue to be displayed on the presentation image, Has a disadvantage in that it has temporal characteristics that disappear from the screen.
이러한 단점을 해결하기 위해 프리젠테이션 영상을 위한 데이터를 생성시 레이저 포인터로 입력할 밑줄, 세모, 네모, 동그라미 등과 같은 형상을 미리 순차적으로 입력하는 방식을 취하고 있으나 이는 데이터 생성을 위한 시간이 많이 소모되는 단점을 갖는다. In order to solve this disadvantage, a method of sequentially inputting shapes such as an underline, a triangle, a rectangle, and a circle to be input by a laser pointer in generating a data for a presentation image is taken in advance, .
이에 따라 해당 기술분야에 있어서는 레이저 포인터가 지시한 영상인 밑줄, 세모, 네모, 동그라미 등과 같이 끊어짐 없이 지시한 형상을 프리젠테이션 영상과 함께 구현함으로써, 발표자가 보다 프리젠테이션 시의 전달력을 향상시키기 위한 기술이 본 출원인에 의해 특허출원되어 등록번호 제10-122543호로 등록된 바 있다.
Accordingly, in the related art, by designing a shape instructed without interruption such as an underline, a triangle, a rectangle, and a circle, which are images instructed by a laser pointer, together with a presentation image, The technology has been patented by the present applicant and registered with Registration No. 10-122543.
[관련기술문헌][Related Technical Literature]
1. 레이저 포인터 마우스를 이용한 프리젠테이션 시스템(Presentation system using a Laser-pointer mouse) (특허출원번호 제10-2000-0016712호)1. A presentation system using a laser pointer mouse (Patent Application No. 10-2000-0016712)
2. 레이저 포인터를 이용한 입력 장치와 그를 이용한 프리젠테이션 제공 시스템(Input apparatus using a raser pointer and system foroffering presentation using the apparatus) (특허출원번호 제10-2005-0109878호)2. An input apparatus using a laser pointer and a presentation providing system using the same (Patent Application No. 10-2005-0109878)
3. 레이저 포인터 영상 추출에 따른 프리젠테이션 영상으로의 적용 방법(특허 등록번호 제10-1222543호)
3. Application of Laser Pointer Image Extraction to Presentation Image (Patent Registration No. 10-1222543)
본 출원인에 의해 선등록된 특허 제10-1222543호는 레이저 포인터의 궤적을 추출하여 저장한 후 미리 설정된 도형과 비교하여 가장 유사한 도형의 이미지를 프리젠테이션 영상의 해당 위치에 적용하여 레이저 포인터가 지시한 도형이 프리젠테이션 영상에 계속 표시되도록 하는 것이다. 따라서 선등록된 특허 제10-1222543호와 같이 스크린상에 영상으로 문자나 그림 등을 표시하기 위해서는 레이저 포인트의 위치 좌표를 구하는 기술이 요구된다. 즉, 프리젠테이션을 하고 있는 상태에서 레이저포인터를 이용하여 레이저포인트를 쏘고 있을 때, 전체 화면에 대하여 레이저포인트의 위치에 대한 좌표값을 설정해야 나중에 그 위치에서의 타원 또는 밑줄 등의 영상을 레이저포인트 그 위치에 그려줄 수 있게 된다.Patent No. 10-1222543 pre-registered by the applicant of the present invention extracts and stores the trajectory of the laser pointer, compares the trajectory of the laser pointer with a preset figure, applies the most similar figure image to the corresponding position of the presentation image, So that the graphics are continuously displayed on the presentation image. Therefore, in order to display letters, pictures, etc. on an image on a screen as disclosed in Japanese Patent No. 10-1222543, it is required to obtain a position coordinate of the laser point. That is, when a laser pointer is shot using a laser pointer while a presentation is being performed, a coordinate value for the position of the laser point with respect to the entire screen must be set so that an image such as an ellipse or an underline at that position is set to a laser point You will be able to draw in that position.
본 발명은 상기와 같은 필요성을 충족시키기 위해 제안된 것으로, 본 발명의 목적은 레이저 포인터가 지시하는 위치의 좌표를 신속하고 정확하게 인식할 수 있는 프리젠테이션 시스템의 스크린상에서 레이저 포인트의 위치 좌표를 인식하는 방법을 제공하는 것이다.
It is an object of the present invention to provide a method and apparatus for recognizing position coordinates of a laser point on a screen of a presentation system capable of quickly and accurately recognizing coordinates of a position indicated by a laser pointer Method.
상기와 같은 목적을 달성하기 위하여 본 발명의 방법은, 사용자 단말로부터 제공되는 프리젠테이션 영상을 빔프로젝터가 스크린에 디스플레이하고, 레이저포인터가 스크린에 레이저포인트를 주사하며, 카메라가 스크린을 촬영하도록 된 프리젠테이션 시스템에 있어서, 외곽포인트 설정 모드에서 스크린 전체화면의 4 모서리를 설정하는 제1단계; 레이저 포인트 인식 모드에서 카메라로부터 획득된 이미지의 크기를 일정 크기로 변환하는 제2단계; 카메라로부터 획득된 이미지가 컬러이면, 흑백 이미지로 변환하는 제3단계; 호모그래피 계산을 통해 변환행렬(H)을 산출하는 제4단계; 변환행렬을 이용하여 획득된 이미지 중 모니터 화면에 해당하는 영역을 모니터 화면과 동일하게 투시변환하는 제5단계; 투시변환된 흑백 이미지를 설정된 임계치를 이용하여 이진화 영상으로 변환하는 제6단계; 이진화 영상에서 잡음을 제거하는 제7단계; 잡음이 제거된 이진화 영상에서 1인 부분의 연결된 영역에 라벨을 부여하고, 각 라벨의 1의 개수를 합산하여 크기를 계산하는 제8단계; 특정 크기 내의 라벨 중에서 가장 큰 크기의 라벨을 선택하고, 선택된 라벨의 중심점을 계산하는 제9단계; 및 계산된 중심점 좌표를 모니터 좌표로 환산하는 제10단계를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a method of displaying a presentation image on a screen, the method comprising: displaying a presentation image provided from a user terminal on a screen, the laser pointer scanning a laser point on the screen, A first step of setting four corners of a screen full screen in an outline point setting mode; A second step of converting the size of the image obtained from the camera to a predetermined size in the laser point recognition mode; A third step of converting the image obtained from the camera into a monochrome image if the image is color; A fourth step of calculating a transformation matrix H through homography calculation; A fifth step of performing a perspective transformation of an area corresponding to the monitor screen among the images acquired using the conversion matrix in the same manner as the monitor screen; A sixth step of converting the perspective transformed monochrome image into a binarized image using a set threshold value; A seventh step of removing noise from the binarized image; An eighth step of assigning a label to the connected region of the one portion in the binarized image from which the noise is removed, and adding the number of 1s of each label to calculate the size; A ninth step of selecting a label having the largest size among labels within a specific size, and calculating a center point of the selected label; And a tenth step of converting the calculated center point coordinates into monitor coordinates.
상기 제1단계는 카메라 모드를 외곽 포인트 설정 모드로 변경하는 단계와, 화면의 외곽 포인트를 찾기 위해 빔프로젝터에서 모니터 화면을 흰색으로 주사하여 흰색의 다이얼로그를 스크린에 띄우는 단계와, 스크린에 표시된 다이얼로그 영상을 캡춰하고 캡춰된 다이얼로그 영상을 흑백으로 변환하여 이진화한 후 1인 영역의 좌상, 좌하, 우상, 우하 좌표를 구해 전체 화면의 4 모서리 좌표를 설정하는 단계로 구성된다.The method includes the steps of changing a camera mode to an outlier point setting mode, displaying a white dialog on a screen by scanning a monitor screen in white by a beam projector to find an outline point of the screen, And converting the captured dialogue image into black and white, and binarizing it, and then setting the upper left corner, the lower left corner, the upper right corner, and the lower right coordinate of the one-person region to set four corner coordinates of the entire screen.
상기 제4단계는 카메라 핀홀 모델과 프로젝티브 변환을 이용하여 다음 수학식으로 변환행렬(H)을 산출하고, 상기 제6단계는 수학식 에 따라 해당 위치의 이미지 값이 임계치(T) 미만이면 0으로, 임계치(T) 이상이면 1로 이진화하는 것이다.The fourth step uses the camera pinhole model and the projective transformation to obtain the following equation (H), and the sixth step is a step of calculating a transformation matrix 0 " if the image value of the corresponding position is less than the threshold value T, and " 1 "
또한, 상기 제7단계는 모폴로지에서 침식과 팽창을 이용하여 잡음을 제거하되, 침식 연산은 3*3 크기의 필터를 3회 이하 사용하고, 팽창 연산은 3*3 크기의 필터를 3회 이하 사용하고, 상기 제9단계는 선택된 라벨의 x좌표의 중심(Cx), y좌표의 중심(Cy)을 수학식 로 산출하며, 상기 제10단계는 모니터 화면의 가로크기(W), 세로크기(H), 이진 영상의 가로크기(BW), 세로크기(BH)라고 할 때, 모니터 좌표(Mx,My)는 수학식 으로 환산한다.
In the seventh step, the noise is removed using the erosion and expansion in the morphology. In the erosion operation, the 3 * 3 size filter is used less than 3 times, and the expansion operation is performed 3 times or less ( Cx ) of the x-coordinate of the selected label and the center of the y-coordinate ( Cy ) When called, the step 10 is a horizontal dimension (W) of the monitor screen, the vertical size (H), width of the binary image size (B W), the vertical size (B H) is calculated, the monitor coordinates (M x, M y ) .
본 발명에 따른 프리젠테이션 시스템의 스크린상에서 레이저 포인터가 지시하는 위치의 좌표를 자동으로 인식하는 방법은, 카메라가 촬영한 스크린 영상에서 레이저 포인트의 좌표를 신속하고 정확하게 인식하여 프리젠테이션 영상에서 발표자가 지시한 위치에 발표자의 의도와 가장 부합하는 직선, 도형, 문자 등을 정확하게 표시할 수 있는 효과가 있다.
A method of automatically recognizing coordinates of a position indicated by a laser pointer on a screen of a presentation system according to the present invention is a method of quickly and accurately recognizing the coordinates of a laser point on a screen image captured by a camera, It is possible to accurately display a straight line, a figure, a character, and the like that best match the presenter's intention in one place.
도 1은 본 발명이 적용될 수 있는 전형적인 프리젠테이션 시스템의 전체 구성을 도시한 개략도,
도 2는 도 1에서의 카메라의 구성을 도시한 구성 블럭도,
도 3은 도 1에서의 사용자단말의 구성을 도시한 구성 블럭도,
도 4는 본 발명에 따른 프리젠테이션 시스템에서 레이저 포인터의 위치를 인식하기 위한 자동 좌표 계산 절차를 도시한 순서도,
도 5는 본 발명에 따른 프리젠테이션 시스템에서 실시간으로 좌표를 계산하는 절차를 도시한 순서도이다.BRIEF DESCRIPTION OF THE DRAWINGS Figure 1 is a schematic diagram showing the overall configuration of a typical presentation system to which the present invention may be applied;
Fig. 2 is a block diagram showing the configuration of the camera shown in Fig. 1,
3 is a block diagram showing a configuration of a user terminal in FIG. 1,
4 is a flowchart illustrating an automatic coordinate calculation procedure for recognizing a position of a laser pointer in a presentation system according to the present invention.
5 is a flowchart illustrating a procedure for calculating coordinates in real time in the presentation system according to the present invention.
이하, 본 발명의 바람직한 실시예의 상세한 설명은 첨부된 도면들을 참조하여 설명할 것이다. 하기에서 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a detailed description of preferred embodiments of the present invention will be given with reference to the accompanying drawings. In the following description of the present invention, detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.
본 명세서에 있어서는 어느 하나의 구성요소가 다른 구성요소로 데이터 또는 신호를 '전송'하는 경우에는 구성요소는 다른 구성요소로 직접 상기 데이터 또는 신호를 전송할 수 있고, 적어도 하나의 또 다른 구성요소를 통하여 데이터 또는 신호를 다른 구성요소로 전송할 수 있음을 의미한다.In the present specification, when any one element 'transmits' data or signals to another element, the element can transmit the data or signal directly to the other element, and through at least one other element Data or signal can be transmitted to another component.
도 1은 본 발명이 적용될 수 있는 전형적인 프리젠테이션 시스템의 전체 구성을 도시한 개략도이다. 도 1을 참조하면, 본 발명에 따른 프리젠테이션 시스템은 빔프로젝터(100), 스크린(200), 레이저 포인터(300), 카메라(400), 사용자단말(500) 및 IP망(600)을 포함한다. 여기서 IP망(600)은 대용량, 장거리 음성 및 데이터 서비스가 가능한 통신망이며, 예컨대, 인터넷(Internet)이 될 수 있다. 또한, IP망은 ALL IP(Internet Protocol) 기반의 고속의 멀티미디어 서비스를 제공하기 위한 차세대 유선 또는 무선 망일 수 있다.BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a schematic diagram showing the overall configuration of a typical presentation system to which the present invention may be applied; FIG. 1, a presentation system according to the present invention includes a
또한 카메라(400)는 레이저 포인터(300)의 종류에 따라 레이저 포인터의 빛을 인식하는 카메라나 적외선 카메라일 수도 있으며, 레이저 포인터(300)가 스크린(200)에 지시하는 레이저 포인트를 가장 밝게 인식할 수 있도록 노출과 밝기, 대비, 화이트 밸런스 등을 조정할 수 있고, 빔프로젝터(100)가 주사하는 스크린(200)을 캡쳐하고 있다. 이때 카메라(400)의 위치에 따라 획득되는 스크린의 영역이 달라지므로 레이저 포인트의 위치가 화면의 위치와 다르므로 이를 해결하기 위해 스크린(200)에 백색의 화면을 주사하여 획득된 영상에서 모서리 끝점을 찾아서 각 모서리 점이 사용자 단말 화면의 모서리 점이 되도록 호모그래피(Homography)와 투시변환(perspective transform)을 이용하여 변환한다.The
도 2는 도 1에서의 카메라(400)의 구성을 나타내는 도면이다. 도 2를 참조하면, 카메라(400)는 CMOS 모듈(410), MCU(Micro Contol Unit: 420), 레이저 촬영모듈(430), 제 1 저장부(440), 제 1 송수신단(450) 및 제 1 I/O 인터페이스(460)를 포함하며, 레이저 촬영모듈(430)은 레이저 촬영수단(431) 및 레이저 위치값 추출수단(432)을 구비한다.Fig. 2 is a diagram showing a configuration of the
그리고 본 명세서에서 모듈이라 함은, 본 발명의 기술적 사상을 수행하기 위한 하드웨어 및 상기 하드웨어를 구동하기 위한 소프트웨어의 기능적, 구조적 결합을 의미할 수 있다. 예컨대, 상기 모듈은 소정의 코드와 상기 소정의 코드가 수행되기 위한 하드웨어 리소스의 논리적인 단위를 의미할 수 있으며, 반드시 물리적으로 연결된 코드를 의미하거나, 한 종류의 하드웨어를 의미하는 것은 아님은 본 발명의 기술분야의 평균적 전문가에게는 용이하게 추론될 수 있다.In this specification, a module may mean a functional and structural combination of hardware for carrying out the technical idea of the present invention and software for driving the hardware. For example, the module may mean a logical unit of a predetermined code and a hardware resource for executing the predetermined code, and it does not necessarily mean a physically connected code or a kind of hardware. Can be easily deduced to the average expert in the field of < / RTI >
MCU(420)는 제 1 송수신단(450) 또는 제 1 I/O 인터페이스(460)에 대한 제어에 의해 사용자단말(500)과 데이터 세션을 연결한 뒤, 연결된 데이터 세션을 통해 사용자단말(500)로부터 스크린(200)에 대한 촬영 명령 및 사용자단말(500)에 의해 설정된 각 위치값을 수신함으로써, CMOS 모듈(410)을 구동시켜 촬영 대기 모드로 진입한다. 이때, MCU(420)는 수신된 각 위치값을 제 1 저장부(440)에 저장한다. 즉, MCU(420)는 사용자단말(500)과 IP망(600)을 통한 데이터 세션을 연결할 경우 제 1 송수신단(450)을 제어하며, 직접 데이터 케이블에 의한 사용자단말(500)과 데이터 세션을 연결할 경우 제 1 I/O 인터페이스(460)를 제어한다. The MCU 420 connects the data session with the
사용자가 소지한 레이저 포인터(300)로부터 레이저가 스크린(200)상에 사용자단말(500)에 의해 스크린(200) 상에 설정된 위치값 중 하나의 위치값으로 조사되는 것으로 CMOS 모듈(410)을 통해 감지한 MCU(420)는 레이저 촬영모듈(430)을 웨이크업(Wake-Up) 한다. 이에 따라 레이저 촬영모듈(430)의 레이저 촬영수단(431)은 레이저 포인터(300)로부터 출력된 레이저의 연속된 조사 시간 동안 레이저 영상을 촬영한 뒤, 제 1 저장부(440)에 저장한다. 동시에 레이저 촬영모듈(430)의 레이저 위치값 추출수단(432)은 레이저 촬영수단(431)에 의해 촬영되는 레이저 영상에 대해 연속되게 조사되는 레이저의 위치값도 미리 설정된 시간 간격으로 추출한 뒤 제 1 저장부(440)에 저장한다. 즉, 레이저 촬영모듈(430)은 사용자가 프리젠테이션을 할 때 레이저 포인터(300)를 활용하여 스크린(200)에 레이저를 조사하여 지시하게 되는데, 이때 레이저 포인터(300)를 가지고 일정한 영역을 밑줄, 세모, 네모, 동그라미 등으로 지시할 경우 이러한 하나의 밑줄, 세모, 네모, 동그라미 등의 형상을 하나의 연속된 레이저 조사로 인식할 수 있도록 한다. The laser from the
여기서 레이저 촬영수단(431)은 레이저 영상에 대한 촬영시 스크린(200) 상에서 상기 레이저 포인터로부터 출력된 연속된 조사 시간 동안 레이저 영상을 촬영하게 되는데, 연속된 조사 시간의 범위를 벗어나는 조사되지 않는 시간의 범위는 1/100~1/2초(second)로 설정되는 것이 바람직하다. Here, the laser photographing means 431 photographs the laser image during the continuous irradiation time output from the laser pointer on the
그리고 제 1 저장부(440) 및 후술할 제 2 저장부(550)는 비휘발성 메모리(Non-volatile memory, NVM)로써 전원이 공급되지 않아도 저장된 데이터를 계속 유지하며 삭제되지 않으며, 플래시 메모리(Flash Memory), MRAM(Magnetic Random Access Memory), PRAM(Phase-change Random Access memory: 상변화 램), FRAM(Ferroelectric RAM: 강유전체 램) 등으로 구성될 수 있다.The
MCU(420)는 사용자단말(500)과 연결된 데이터 세션을 통해 촬영된 연속된 조사 시간 동안의 레이저 영상과 레이저 영상의 미리 설정된 시간 간격에 따라 추출된 위치값을 사용자단말(500)로 전송하도록 제 1 송수신단(450) 및 제 1 I/O 인터페이스(460)를 제어한다. The
도 3은 도 1에서의 사용자단말(500)의 구성을 나타내는 도면이다. 도 3을 참조하면, 사용자단말(500)은 제 2 송수신단(510), 제 2 I/O 인터페이스(520), 중앙제어부(530), 프리젠테이션 영상 구현 모듈(540), 제 2 저장부(550), 입출력부(560), 레이저포인터 판서모듈(570)을 포함한다. 그리고 중앙제어부(530)는 카메라/빔프로젝터 제어모듈(531)을 구비하며, 프리젠테이션 영상 구현 모듈(540)은 스크린 위치값 설정수단(541), 레이저 영상 추출수단(542) 및 영상변환수단(543)을 구비한다. 한편, 사용자단말(500)은 파워포인트와 같은 프리젠테이션 프로그램을 제 2 저장부(550)에 저장하며, 입출력부(560)를 통한 사용자의 요청에 따라 중앙제어부(530)가 시스템 메모리 상에 로딩한다. FIG. 3 is a diagram showing a configuration of the
중앙제어부(530)의 카메라/빔프로젝터 제어모듈(531)은 빔프로젝터(100) 및 카메라(400)가 데이터 세션을 연결하도록 제 2 송수신단(510) 또는 제 2 I/O 인터페이스(520)를 제어한다. 이후, 카메라/빔프로젝터 제어모듈(531)은 연결된 데이터 세션을 통해 빔프로젝터(100)로 프리젠테이션 영상이 구현되도록 제어한 뒤, 프리젠테이션 영상 구현 모듈(540)을 웨이크업 한다. The camera / beam
이에 따라, 프리젠테이션 영상 구현 모듈(540)의 스크린 위치값 설정수단(541)은 빔프로젝터(100)에서 출력된 프리젠테이션 영상이 구현되는 스크린(200)에 대한 가로방향(X) 및 세로방향(Y)의 조합에 의한 각 위치값을 설정하여 제 2 저장부(550)에 저장한다. 여기서 위치값은 픽셀값 또는 좌표값으로 설정가능하며, 빔프로젝터(100)에 의해 구현되는 프리젠테이션 영상의 해상도에 따라 다양한 숫자의 값으로 설정가능하다.The screen position value setting means 541 of the presentation
또한 본 발명의 실시예에서 스크린 위치값 설정수단(541)은 카메라/빔프로젝터 제어모듈(531)과 연동하여 카메라(400)가 획득한 영상에서 레이저 포인터(300)가 지시하는 위치 좌표를 인식하기 위하여 카메라의 동작 모드를 외곽포인트 설정 모드와 레이저 포인트 인식모드로 제어한다. 외곽포인트 설정 모드는 카메라의 노출값(exposure), 밝기(brightness), 감마(gamma), sharpness를 셋팅 프로그램에서 조정하여 스크린에 비췬 화면을 그대로 볼 수 있는 모드이고, 레이져 포인트 인식 모드는 카메라의 노출값(exposure), 밝기(brightness), 감마(gamma), sharpness를 셋팅 프로그램에서 조정하여 스크린에 비췬 화면은 볼 수 없고 레이져 포인트만 획득할 수 있는 모드이다.In the embodiment of the present invention, the screen position value setting means 541 is configured to recognize the position coordinates indicated by the
프리젠테이션 영상 구현 모듈(540)의 레이저 영상 추출수단(542)은 수신된 레이저 영상을 제 2 저장부(550)에 저장된 다수의 영상과 비교하여 가장 근접한 형태를 갖는 영상을 추출한다.The laser
프리젠테이션 영상 구현 모듈(540)의 영상변환수단(543)은 레이저 영상 추출수단(542)에 의해 추출된 가장 근접한 영상의 형상을 미리 설정된 시간 간격으로 분할한 뒤, 분할된 형상의 영상을 추출된 레이저 영상의 미리 설정된 시간 간격에 따라 추출된 위치값과 각각 매칭시켜 프리젠테이션 매칭형 레이저 영상을 생성한 뒤, 제 2 저장부(550)에 저장한다.The image converting means 543 of the presentation
카메라/빔프로젝터 제어모듈(531)은 프리젠테이션 영상 구현 모듈(540)에 의해 생성된 프리젠테이션 매칭형 레이저 영상을 빔프로젝터(100)에 출력되고 있는 프리젠테이션 영상과 시간의 흐름에 따라 동기화시켜 출력되도록 빔프로젝터(100)를 제어한다.The camera / beam
한편, 레이저포인터 판서 모듈(570)은 레이저 포인터(300)를 이용하여 스크린(200)에 판서 시 레이저포인터(300)가 움직인 궤적을 타원피팅(Fitting)과 직선피팅(Fitting)을 이용하여 타원 또는 직선으로 계산한 후 스크린 화면에 다양한 색상을 표시한다. 즉, 레이저포인터(300)가 동작하여 스크린(200)에 노출되면 카메라(400)에서 이를 획득하여 모니터의 좌표계로 저장하고, 레이저포인터(300)가 연속적으로 동작시 계속 저장한다. 그리고 레이저포인터(300)가 화면에 없을 시 특정한 프레임 수(A)가 지나고 저장된 좌표가 특정 개수(B) 이상이면 타원 핏팅을 하여 장축길이, 단축길이, 주축각도, 중심점 등을 찾고, 주축각도가 수평에 근사하고 단축길이/장축길이가 특정값(C) 이하면 직선으로 판단하고, 특정값 이상으면 타원으로 판단한다. 타원으로 판단시 화면에 계산된 값으로 타원을 그리고, 직선으로 판단시 저장된 좌표를 직선피팅한 후 저장된 좌표의 좌, 우 좌표를 이용하여 그릴 직선의 시작점과 끝점을 계산한 후 화면에 직선을 그리며, 이러한 과정을 프로그램 종료시까지 루프를 돌며 반복한다.The laser
한편, 이와 같은 프리젠테이션 시스템에서 레이저 포인터가 지시하는 스크린상의 위치 좌표를 인식하기 위하여 본 발명에서는 먼저 전체 화면의 네 모서리에 대한 좌표를 찾아서 임계치를 설정해 두고, 실시간 좌표계산 알고리즘을 이용하여 실시간의 레이저포인트 좌표값을 인식하도록 한다.In order to recognize the position coordinates on the screen indicated by the laser pointer in this presentation system, in the present invention, first, the coordinates of the four corners of the entire screen are searched for and thresholds are set, Point coordinates are recognized.
도 4는 본 발명에 따른 프리젠테이션 시스템에서 레이저 포인터의 위치를 인식하기 위한 자동 좌표 계산 절차를 도시한 순서도이다.4 is a flowchart illustrating an automatic coordinate calculation procedure for recognizing a position of a laser pointer in a presentation system according to the present invention.
본 발명에 따라 레이저 포인터(300)가 지시한 레이저 포인트의 좌표를 인식하기 위한 자동 좌표 계산 절차는 도 4에 도시된 바와 같이, 카메라 모드 변경 단계(S1)와, 스크린상에 흰색 다이얼로그를 띄우는 단계(S2)와, 카메라 이미지를 획득하는 단계(S4)와, 좌상, 좌하, 우상, 우하 좌표를 찾는 단계(S4)로 구성된다.The automatic coordinate calculation procedure for recognizing the coordinates of the laser point indicated by the
먼저, 빔프로젝터(100)에서 스크린(200)에 주사한 화면을 카메라(400)에서 획득시 사용자 단말(500)의 모니터 화면과 좌표가 맞지 않으며, 이를 보정하기 위해 호모그래피와 투시변환(perspective transform)을 이용한다. 호모그래피와 투시변환(perspective transform)은 4개의 점이 필요하므로 종래에는 카메라에서 획득된 영상에서 모니터 화면에 해당하는 영역을 설정하기 위해 마우스로 모서리 4개의 점을 클릭하여 변환할 좌표를 얻어왔으나 정확한 좌표를 클릭하여 얻어오는 것이 쉽지 않기 때문에 본 발명에서는 영상처리를 통한 자동 좌표계산 알고리즘을 이용한다. 본 발명에 따른 자동 좌표 계산 알고리즘은 카메라 모드를 외곽포인트 설정 모드로 변경 후, 셋팅 프로그램에서 모니터에 흰색의 화면을 띄우고, 이 화면이 스크린에 비춰지면 카메라로 획득한 후 획득된 이미지를 이용하여 흰색영역의 모서리 지점을 찾아오는 것이다.First, when the screen scanned by the
도 4를 참조하면, 카메라 모드 변경 단계(S1)에서는 카메라 모드를 외곽포인트 설정모드로 변경한 후 스크린(200)에 비췬 화면이 잘 보이도록 카메라(400)의 노출값(exposure), 밝기(brightness), 감마(gamma), 샤프니스(sharpness) 설정을 변경한다. 본 발명의 실시예에서 카메라 모드는 2가지가 있는데, 외곽포인트 설정 모드는 카메라의 노출값(exposure), 밝기(brightness), 감마(gamma), 샤프니스(sharpness)를 셋팅 프로그램에서 조정하여 스크린에 비췬 화면을 그대로 볼 수 있는 모드이고, 레이져 포인트 인식 모드는 카메라의 노출값(exposure), 밝기(brightness), 감마(gamma), 샤프니스(sharpness)를 셋팅 프로그램에서 조정하여 스크린에 비췬 화면은 볼 수 없고 레이져 포인트만 획득할 수 있는 모드이다.4, in the camera mode change step S1, the camera mode is changed to the outline point setting mode, and then the exposure, brightness, and the like of the
이어 흰색 다이얼로그 띄우는 단계(S2)에서는 화면의 끝점을 잘 찾기 위해 빔프로젝터(100)에서 모니터 화면을 흰색으로 주사하여 흰색의 다이얼로그를 스크린에 띄운다.Then, in step S 2 of displaying a white dialogue, the
카메라 이미지 획득 단계(S3)에서는 스크린(200)에 주사된 다이얼로그 영상을 캡쳐하고, 좌상, 좌하, 우상, 우하 좌표를 찾는 단계(S4)에서는 다이얼로그 영상을 흑백으로 변경한 후 이진화하여 1인 영역의 좌상, 좌하, 우상, 우하 좌표 찾는다. 즉, 흑백 영상(f)을 설정된 임계치(T)를 이용하여 다음 수학식 1과 같이 이진화 영상(B)으로 변환하여 다이얼로그 화면의 4 모서리 좌표를 구한다.In the camera image acquiring step S3, the dialog image scanned on the
도 5는 본 발명에 따른 프리젠테이션 시스템에서 실시간으로 좌표를 계산하는 절차를 도시한 순서도이다.5 is a flowchart illustrating a procedure for calculating coordinates in real time in the presentation system according to the present invention.
본 발명에 따라 실시간으로 좌표를 계산하는 절차는 카메라 모드가 레이저 포인트 인식 모드인 상태에서 이루어지는데, 도 5에 도시된 바와 같이 카메라(400)로부터 획득된 이미지의 크기를 일정 크기로 변환하는 단계(S101)와, 카메라로부터 획득된 이미지가 컬러이면, 흑백 이미지로 변환하는 단계(S102)와, 호모그래피 계산을 통해 변환행렬(H)을 산출하는 단계(S103)와, 변환행렬을 이용하여 획득된 이미지 중 모니터 화면에 해당하는 영역을 모니터 화면과 동일하게 투시변환(Perspective Tranform)하는 단계(S104)와, 투시변환된 흑백 이미지를 설정된 임계치를 이용하여 이진화 영상으로 변환하는 단계(S105)와, 모폴로지를 이용한 잡음 제거단계(S106)와, 레이블링 단계(S107)와, 각 레벨의 크기를 계산하는 단계(S108)와, 가장 큰 라벨을 선택하는 단계(S109)와, 중심점을 계산하는 단계(S110)와, 모니터 좌표로 환산하는 단계(S111)로 구성된다.The procedure for calculating coordinates in real time according to the present invention is performed in a state in which the camera mode is the laser point recognition mode. The step of converting the size of the image obtained from the
도 5를 참조하면, 이미지 크기 변환 단계(S101)는 카메라에서 획득한 이미지를 실시간 처리를 위하여 정해둔 크기로 영상을 축소하는 것이다. 즉, 카메라의 해상도에 따라 이미지의 크기가 달라지므로 고해상도의 카메라를 사용하더라도 실시간 처리가 가능하도록 이미지 크기를 일정하게 제한한다.Referring to FIG. 5, the image size conversion step (S101) is to reduce the image size of the image acquired by the camera to a predetermined size for real-time processing. That is, since the size of the image varies depending on the resolution of the camera, the image size is limited so as to enable real-time processing even if a high-resolution camera is used.
이미지 흑백 변환 단계(S102)는 카메라(400)가 컬러 카메라일 경우, 획득된 이미지를 흑백으로 변환하고, 흑백 카메라일 경우는 이 단계를 생략한다.The image monochrome conversion step S102 converts the obtained image into monochrome if the
호모그래피(Homography) 계산 단계(S103)는 투시변환(Perspective transform)을 수행하기 위해서 변환행렬(H)를 계산한다. 이를 위하여 카메라 모델은 다음 수학식 2와 같이 카메라 핀 홀(Camera Pinhole Model)을 이용한다. Homography calculation step S103 calculates a transformation matrix H to perform a perspective transformation. To do this, the camera model uses a camera pinhole model as shown in Equation (2).
카메라 모델에서 평면간의 변환은 프로젝티브 변환(Projective Transformation)을 이용한다.The transformation between the planes in the camera model uses Projective Transformation.
h가 프로젝티브 변환(Projective Transformation)이면 역행렬이 존재하는 3x3 행렬 H가 존재하여 다음 수학식 3으로 표현할 수 있다.If h is a projective transformation, there exists a 3x3 matrix H in which an inverse matrix exists and can be expressed by the following equation (3).
투시변환(Perspective transform) 단계(S104)에서는 호모그래피(Homography)에서 계산된 H를 이용하여 획득된 이미지 중 모니터 화면에 해당하는 영역을 모니터 화면과 동일하게 변환한다. 즉, 일반적으로 카메라를 이용하여 건물 사진을 획득하면 투시왜곡(Perspective Distortion)이 존재하는데, 여기에서 4점을 선택하고 이들 4점이 정사각형이 되도록 H를 구하고, 이를 이용하여 다음 수학식에 따라 연산하면 된다.In the perspective transformation step (S104), an area corresponding to the monitor screen among the images obtained using the H calculated by the homography is transformed into the same as the monitor screen. In other words, generally, when a photograph of a building is acquired by using a camera, Perspective Distortion exists. Here, 4 points are selected and H is obtained so that these four points are squares. do.
영상 이진화 단계(S105)에서는 흑백 영상(f)을 설정된 임계치(T)를 이용하여 앞서 설명한 수학식 1에 의해 이진화 영상(B)으로 변환한다. 즉, 레이져 포인트는 밝게 들어오므로 이진화 영상에서 1인 부분을 해석하여 찾을 수 있다. In the image binarization step S105, the monochrome image f is converted into the binarized image B by using the above-described equation (1) using the set threshold value T. In other words, the laser point comes in brightly, so it can be found by interpreting the one part in the binarized image.
한편, 이진화 영상에서 1인 부분은 레이져 포인트가 아닌 부분에도 잡음으로 발생할 수 있기 때문에 모폴로지를 이용한 잡음제거 단계(S106)에서는 모폴로지에서 침식과 팽창을 이용하여 잡음을 제거한다. 침식 연산은 3*3 크기의 필터와 사용 횟수(3회 이하)에 따라 작은 덩어리의 객체들을 사라지게 할 수 있고, 팽창 연산은 3*3 크기의 필터와 사용 횟수(3회 이하)에 따라 객체 내부에 있는 작은 구멍들을 사라지게 할 수 있다.On the other hand, in the noise removal step using the morphology (S106), noise is removed by using erosion and expansion in the morphology since the one part in the binarized image can be generated by noise even in the non-laser point. The erosion operation can cause the objects of small chunks to disappear according to the 3 * 3 size filter and the use frequency (less than 3 times), and the expansion operation can be performed by using the 3 * 3 size filter and the use frequency Can be made to disappear.
레이블링 단계에서는 이진 영상에서 1인 부분의 연결된 영역에 번호(라벨)를 다르게 부여하여 구분하고, 각 라벨의 1의 개수를 합산하여 크기를 계산한다((S107,S108).In the labeling step, the numbers (labels) are differently assigned to the connected regions of one portion in the binary image, and the sizes of 1s of the labels are summed up to calculate sizes (S107, S108).
그리고 미처 제거되지 않은 잡음에 의해 레이저 포인트가 잘못 인식되는 것을 방지하기 위해 특정 크기 내의 라벨 중 가장 큰 크기의 라벨에 해당하는 것을 찾고, 다음 수학식 5에 따라 선택된 라벨의 x좌표의 중심(Cx), y좌표의 중심(Cy)을 찾는다(S109,S110).And searching the one that corresponds to the largest size of label of the labels within a given size by the noise is not micheo removed in order to prevent the laser point is erroneously recognized, the center of the x-coordinate of the selected label according to the following equation: 5 (C x ) and the center C y of the y coordinate (S109, S110).
그리고 모니터 좌표로 환산 단계(S111)에서는 모니터 화면의 가로크기(W), 세로크기(H)를 이용하여 앞서 계산된 좌표를 모니터 좌표(Mx,My)로 환산한다. 이진 영상의 가로크기(BW), 세로크기(BH)라고 할 때, 모니터 좌표(Mx,My)는 다음 수학식 6과 같이 환산된다.In the conversion step S111 of the monitor coordinates, the previously calculated coordinates are converted into monitor coordinates (M x , M y ) using the horizontal size (W) and the vertical size (H) of the monitor screen. (B W ) and the vertical size (B H ) of the binary image, the monitor coordinates (M x , M y ) are converted into the following Equation (6).
이상과 같이, 본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.
As described above, preferred embodiments of the present invention have been disclosed in the present specification and drawings, and although specific terms have been used, they have been used only in a general sense to easily describe the technical contents of the present invention and to facilitate understanding of the invention , And are not intended to limit the scope of the present invention. It is to be understood by those skilled in the art that other modifications based on the technical idea of the present invention are possible in addition to the embodiments disclosed herein.
100: 빔프로젝터 200: 스크린
300: 레이저포인터 400: 카메라
500: 사용자단말 600: IP망100: a beam projector 200: a screen
300: laser pointer 400: camera
500: user terminal 600: IP network
Claims (7)
외곽포인트 설정 모드에서 스크린 전체화면의 4 모서리를 설정하는 제1단계;
레이저 포인트 인식 모드에서 카메라로부터 획득된 이미지의 크기를 일정 크기로 변환하는 제2단계;
카메라로부터 획득된 이미지가 컬러이면, 흑백 이미지로 변환하는 제3단계;
호모그래피 계산을 통해 변환행렬(H)을 산출하는 제4단계;
변환행렬을 이용하여 획득된 이미지 중 모니터 화면에 해당하는 영역을 모니터 화면과 동일하게 투시변환하는 제5단계;
투시변환된 흑백 이미지를 설정된 임계치를 이용하여 이진화 영상으로 변환하는 제6단계;
이진화 영상에서 잡음을 제거하는 제7단계;
잡음이 제거된 이진화 영상에서 1인 부분의 연결된 영역에 라벨을 부여하고, 각 라벨의 1의 개수를 합산하여 크기를 계산하는 제8단계;
특정 크기 내의 라벨 중에서 가장 큰 크기의 라벨을 선택하고, 선택된 라벨의 중심점을 계산하는 제9단계; 및
계산된 중심점 좌표를 모니터 좌표로 환산하는 제10단계를 포함하는 프리젠테이션 시스템의 스크린상에서 레이저 포인트 위치 좌표 인식 방법.
A presentation system in which a beam projector displays a presentation image provided from a user terminal, a laser pointer scans a laser point on a screen, and a camera captures a screen,
A first step of setting four corners of the screen full screen in the outline point setting mode;
A second step of converting the size of the image obtained from the camera to a predetermined size in the laser point recognition mode;
A third step of converting the image obtained from the camera into a monochrome image if the image is color;
A fourth step of calculating a transformation matrix H through homography calculation;
A fifth step of performing a perspective transformation of an area corresponding to the monitor screen among the images acquired using the conversion matrix in the same manner as the monitor screen;
A sixth step of converting the perspective transformed monochrome image into a binarized image using a set threshold value;
A seventh step of removing noise from the binarized image;
An eighth step of assigning a label to the connected region of the one portion in the binarized image from which the noise is removed, and adding the number of 1s of each label to calculate the size;
A ninth step of selecting a label having the largest size among labels within a specific size, and calculating a center point of the selected label; And
And converting the computed center point coordinates into monitor coordinates. The method of any preceding claim,
카메라 모드를 외곽 포인트 설정 모드로 변경하는 단계와, 화면의 외곽 포인트를 찾기 위해 빔프로젝터에서 모니터 화면을 흰색으로 주사하여 흰색의 다이얼로그를 스크린에 띄우는 단계와, 스크린에 표시된 다이얼로그 영상을 캡춰하고 캡춰된 다이얼로그 영상을 흑백으로 변환하여 이진화한 후 1인 영역의 좌상, 좌하, 우상, 우하 좌표를 구해 전체 화면의 4 모서리 좌표를 설정하는 단계로 구성된 것을 특징으로 하는 프리젠테이션 시스템의 스크린상에서 레이저 포인트 위치 좌표 인식 방법.
2. The method of claim 1, wherein the first step
Changing a camera mode to an outlier point setting mode, displaying a white dialog on a screen by scanning a monitor screen in white by a beam projector to find outline points on the screen, capturing a dialogue image displayed on the screen, Converting the dialogue image into black and white, binarizing the dialogue image, and then setting the four corner coordinates of the entire screen by obtaining the upper left, lower left, upper right, and lower right coordinates of the one-person region. Recognition method.
카메라 핀홀 모델과 프로젝티브 변환을 이용하여 다음 수학식
으로 변환행렬(H)을 산출하는 것을 특징으로 하는 프리젠테이션 시스템의 스크린상에서 레이저 포인트 위치 좌표 인식 방법.
3. The method according to claim 1 or 2, wherein the fourth step
Using the camera pinhole model and the projective transformation,
And a transformation matrix (H) is calculated from the transformation matrix (H).
B(x,y)는 이진화 영상, f(x,y)는 흑백 영상, T는 임계치라고 할 때, 수학식 에 따라 해당 위치의 이미지 값이 임계치(T) 미만이면 0으로, 임계치(T) 이상이면 1로 이진화하는 것을 특징으로 하는 프리젠테이션 시스템의 스크린상에서 레이저 포인트 위치 좌표 인식 방법.
3. The method according to claim 1 or 2, wherein the sixth step
B (x, y) is a binarized image, f (x, y) is a monochrome image, and T is a threshold value, Wherein the binarizing step binarizes the value of the laser point position coordinates on the screen of the presentation system according to the value of the position of the presentation point.
모폴로지에서 침식과 팽창을 이용하여 잡음을 제거하되, 침식 연산은 3*3 크기의 필터를 3회 이하 사용하고, 팽창 연산은 3*3 크기의 필터를 3회 이하 사용하는 것을 특징으로 하는 프리젠테이션 시스템의 스크린상에서 레이저 포인트 위치 좌표 인식 방법.
The method according to claim 1 or 2, wherein the seventh step
In the morphology, the noise is removed by erosion and expansion. In the erosion operation, the 3 * 3 size filter is used less than 3 times and the expansion operation is made 3 times smaller than 3 * 3 filter. A method of recognizing laser point position coordinates on a screen of a system.
선택된 라벨의 x좌표의 중심(Cx), y좌표의 중심(Cy)을
수학식 로 산출하는 것을 특징으로 하는 프리젠테이션 시스템의 스크린상에서 레이저 포인트 위치 좌표 인식 방법.
3. The method according to claim 1 or 2, wherein the ninth step
The center (C x ) of the x coordinate of the selected label, the center of the y coordinate (C y )
Equation And calculating the coordinates of the laser point position on the screen of the presentation system.
모니터 화면의 가로크기(W), 세로크기(H), 이진 영상의 가로크기(BW), 세로크기(BH)라고 할 때, 모니터 좌표(Mx,My)는 수학식 으로 환산하는 것을 특징으로 하는 프리젠테이션 시스템의 스크린상에서 레이저 포인트 위치 좌표 인식 방법.3. The method according to claim 1 or 2, wherein the step
Horizontal dimension (W) of the monitor screen, the vertical size (H), the horizontal scale (B W) of the binary image, when said vertical dimension (B H), the monitor coordinates (x M, y M) is formula Wherein the coordinates of the laser point position on the screen of the presentation system are converted into the coordinate of the laser point position on the screen.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130044679A KR101280840B1 (en) | 2013-04-23 | 2013-04-23 | Method of identifying the laser point position on screen of presentation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130044679A KR101280840B1 (en) | 2013-04-23 | 2013-04-23 | Method of identifying the laser point position on screen of presentation system |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101280840B1 true KR101280840B1 (en) | 2013-07-02 |
Family
ID=48996292
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130044679A KR101280840B1 (en) | 2013-04-23 | 2013-04-23 | Method of identifying the laser point position on screen of presentation system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101280840B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114842094A (en) * | 2022-07-04 | 2022-08-02 | 季华实验室 | Full-color area-array camera and hyperspectral linear array camera combined calibration method and system |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030034535A (en) * | 2001-10-26 | 2003-05-09 | 이문기 | Pointing apparatus using camera and the method of computing pointer position |
KR20080073181A (en) * | 2007-02-05 | 2008-08-08 | 전남대학교산학협력단 | Control system using remote pointing device |
KR20090091578A (en) * | 2008-02-25 | 2009-08-28 | 한세대학교 산학협력단 | Method and apparatus for detecting location of laser beam with minimized error using mono-camera |
KR20110099461A (en) * | 2010-03-02 | 2011-09-08 | (주)실리콘화일 | Apparatus and method for pointing control |
-
2013
- 2013-04-23 KR KR1020130044679A patent/KR101280840B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030034535A (en) * | 2001-10-26 | 2003-05-09 | 이문기 | Pointing apparatus using camera and the method of computing pointer position |
KR20080073181A (en) * | 2007-02-05 | 2008-08-08 | 전남대학교산학협력단 | Control system using remote pointing device |
KR20090091578A (en) * | 2008-02-25 | 2009-08-28 | 한세대학교 산학협력단 | Method and apparatus for detecting location of laser beam with minimized error using mono-camera |
KR20110099461A (en) * | 2010-03-02 | 2011-09-08 | (주)실리콘화일 | Apparatus and method for pointing control |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114842094A (en) * | 2022-07-04 | 2022-08-02 | 季华实验室 | Full-color area-array camera and hyperspectral linear array camera combined calibration method and system |
CN114842094B (en) * | 2022-07-04 | 2022-09-27 | 季华实验室 | Full-color area-array camera and hyperspectral linear array camera combined calibration method and system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5826081B2 (en) | Image processing apparatus, character recognition method, and computer program | |
JP6417702B2 (en) | Image processing apparatus, image processing method, and image processing program | |
CN111345029B (en) | Target tracking method and device, movable platform and storage medium | |
WO2014064870A1 (en) | Image processing device and image processing method | |
US20150279121A1 (en) | Active Point Cloud Modeling | |
CN104811660A (en) | Control apparatus and control method | |
CN108648225B (en) | Target image acquisition system and method | |
JP5693094B2 (en) | Image processing apparatus, image processing method, and computer program | |
KR20130134163A (en) | Apparatus and method for extracting target, and the recording media storing the program for performing the said method | |
JP2013042413A (en) | Image processing apparatus, image processing method, and computer program | |
TW201544995A (en) | Object recognition method and object recognition apparatus using the same | |
KR101258910B1 (en) | Method of writing on screen by laser pointer in presentation system | |
KR102157588B1 (en) | An apparatus for recognizing a license plate of a vehicle, a method therefor, and computer recordable medium storing program to perform the method | |
JP2020107170A (en) | Annotation device, learning model, image sensor, annotation method, and computer program | |
KR102366396B1 (en) | RGB-D Data and Deep Learning Based 3D Instance Segmentation Method and System | |
JP2011022927A (en) | Hand image recognition device | |
JP2010092092A (en) | Image processing apparatus and image processing method | |
JP2014142832A (en) | Image processing apparatus, control method of image processing apparatus, and program | |
KR101726692B1 (en) | Apparatus and method for extracting object | |
KR101280840B1 (en) | Method of identifying the laser point position on screen of presentation system | |
US20170263013A1 (en) | Information processing apparatus, information processing method, and storage medium | |
CN114565952A (en) | Pedestrian trajectory generation method, device, equipment and storage medium | |
JP7123545B2 (en) | Information processing device, information processing method and program | |
JP2018063675A (en) | Image processor and control method | |
US10116809B2 (en) | Image processing apparatus, control method, and computer-readable storage medium, which obtains calibration image information with which to correct image data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
A302 | Request for accelerated examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20160428 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20170412 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20190422 Year of fee payment: 7 |