KR102506127B1 - Virtual touch screen device with lidar - Google Patents

Virtual touch screen device with lidar Download PDF

Info

Publication number
KR102506127B1
KR102506127B1 KR1020210146620A KR20210146620A KR102506127B1 KR 102506127 B1 KR102506127 B1 KR 102506127B1 KR 1020210146620 A KR1020210146620 A KR 1020210146620A KR 20210146620 A KR20210146620 A KR 20210146620A KR 102506127 B1 KR102506127 B1 KR 102506127B1
Authority
KR
South Korea
Prior art keywords
setting
screen
unit
touch
setting page
Prior art date
Application number
KR1020210146620A
Other languages
Korean (ko)
Inventor
김재형
Original Assignee
(주)아이원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)아이원 filed Critical (주)아이원
Priority to KR1020210146620A priority Critical patent/KR102506127B1/en
Application granted granted Critical
Publication of KR102506127B1 publication Critical patent/KR102506127B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers

Abstract

The present invention relates to a virtual touch screen device using a LiDAR. More specifically, the present invention relates to the virtual touch screen device using the LiDAR that enables a current touch position to be recognized using a LiDAR sensor, which is not a command providing method using an expensive touch panel, and enables in providing the command. The virtual touch screen device using the LiDAR comprises: a screen part; a LiDAR sensor part; a computer terminal; and a beam projector.

Description

라이더를 이용한 가상 터치 스크린 장치{Virtual touch screen device with lidar} Virtual touch screen device with lidar}

본 발명은 라이더를 이용한 가상 터치 스크린 장치에 관한 것으로서, 더욱 상세하게는 값비싼 터치 패널을 이용한 명령 제공 방식이 아닌 라이더 센서를 이용하여 현재 터치 위치를 인식하여 명령 제공이 가능한 라이더를 이용한 가상 터치 스크린 장치에 관한 것이다.The present invention relates to a virtual touch screen device using a rider, and more particularly, to a virtual touch screen using a rider capable of recognizing a current touch position and providing commands using a lidar sensor rather than a method of providing commands using an expensive touch panel. It's about the device.

종래의 터치와 같은 모션을 인식하는 데에는, 압전 센서를 사용하는 방법과 마이크로소프트사의 키넥트, 인텔사의 리얼센스와 같은 장비를 사용하여 3차원 영상 정보를 사용하는 방법을 주로 사용하였다.In order to recognize motion such as a conventional touch, a method using a piezoelectric sensor and a method using 3D image information using equipment such as Microsoft's Kinect and Intel's RealSense have been mainly used.

압전 센서를 사용하는 방법은, 오락실에서 볼 수 있는 DDR 펌프 기계의 방식과 유사하여, 실제로 터치가 발생하는 위치 아래에 센서가 설치되어야 하기 때문에 센서 주변부의 터치 인식의 어려움과 터치로 인한 센서의 고장이 쉽게 발생한다는 문제가 있다.The method of using a piezoelectric sensor is similar to the method of a DDR pump machine found in an arcade, and since the sensor must be installed below the location where the touch actually occurs, difficulty in recognizing the touch around the sensor and failure of the sensor due to the touch The problem is that this happens easily.

한편, 3차원 영상 정보를 사용하는 방법은, 터치 순간의 위치, 거리 등의 다양한 정보를 획득할 수 있으나, 영상 정보에서 터치를 인식하기 위해서는 영상에서 사람을 인식하고 이를 추적해야 한다는 기술적 어려움이 있다.On the other hand, the method using 3D image information can acquire various information such as location and distance at the moment of touch, but there is a technical difficulty in recognizing a person in an image and tracking it in order to recognize a touch in image information. .

한편, 상기한 방식의 인식 기술을 적용할 분야는 많으나, 설치 비용이 상당하여 다양한 분야에 활용할 수 없어 대중화에 어려움을 가지고 있는 방식이다.On the other hand, there are many fields to which the above-described recognition technology can be applied, but it is difficult to popularize because the installation cost is considerable and it cannot be used in various fields.

예를 들어, 교육 현장이나 문화 장소 등에서 일반인들이 쉽게 참여할 수 있는 기술이 필요하게 되었다.For example, there is a need for technology that allows ordinary people to easily participate in educational sites or cultural venues.

대한민국등록특허공보 제10-2233395호Republic of Korea Patent Registration No. 10-2233395

따라서, 본 발명은 상기 종래의 문제점을 해소하기 위해 안출된 것으로,Therefore, the present invention has been made to solve the above conventional problems,

본 발명의 목적은 값비싼 터치 패널을 이용한 명령 제공 방식이 아닌 라이더 센서를 이용하여 현재 터치 위치를 인식하여 명령 제공이 가능한 라이더를 이용한 가상 터치 스크린 장치를 제공하고자 한다.An object of the present invention is to provide a virtual touch screen device using a lidar capable of recognizing a current touch position and providing a command using a lidar sensor, rather than a method of providing a command using an expensive touch panel.

본 발명이 해결하고자 하는 과제를 달성하기 위하여, 본 발명의 일실시예에 따른 라이더를 이용한 가상 터치 스크린 장치는,In order to achieve the problem to be solved by the present invention, a virtual touch screen device using a rider according to an embodiment of the present invention,

일정 크기로 형성되는 스크린부(400);와A screen unit 400 formed in a certain size; and

상기 스크린부로부터 일정 거리 이격된 위치에 설치 구성되어 터치 위치를 감지하여 해당 터치 위치를 포함하는 이벤트 신호를 생성하여 컴퓨터단말기로 제공하기 위한 라이더센서부(200);와A lidar sensor unit 200 configured to be installed at a location spaced apart from the screen unit to detect a touch position, generate an event signal including the touch position, and provide the generated event signal to a computer terminal;

상기 라이더센서부로부터 이벤트 신호를 획득할 경우에 빔프로젝터로 컨텐츠 시나리오 상의 다음 컨텐츠 정보를 송출시키기 위한 컴퓨터단말기(100);와A computer terminal 100 for transmitting next content information on a content scenario to a beam projector when an event signal is obtained from the lidar sensor unit;

상기 컴퓨터단말기와 유무선 통신 방식을 이용하여 연결되어 컴퓨터단말기의 제어에 따라 컨텐츠 정보를 상기 스크린부(400)에 표출시키기 위한 빔프로젝터(300);를 포함하여 구성함으로써, 본 발명의 과제를 해결하게 된다.A beam projector 300 connected to the computer terminal using a wired/wireless communication method to display content information on the screen unit 400 under the control of the computer terminal, thereby solving the problem of the present invention. do.

본 발명에 따른 라이더를 이용한 가상 터치 스크린 장치는,The virtual touch screen device using the rider according to the present invention,

값비싼 터치 패널을 이용한 명령 제공 방식이 아닌 라이더 센서를 이용하여 현재 터치 위치를 인식하여 명령 제공이 가능한 효과를 제공하게 된다.Instead of a command providing method using an expensive touch panel, a lidar sensor is used to recognize the current touch position and provide an effect of providing a command.

따라서, 다양한 교육 컨텐츠, 문화 컨텐츠 등을 상영할 수 있으며, 이를 통해 일반인들에게 다양한 참여 기회를 제공할 수 있게 된다.Therefore, various educational contents, cultural contents, etc. can be screened, and through this, various participation opportunities can be provided to the general public.

또한, 큰 장비없이, 값비싼 제품 구매 비용없이, 소형의 라이더 센서만으로 스크린 공간 상의 터치 위치를 손쉽게 인식할 수 있어 다양한 공간 활용이 가능한 장점을 제공하게 된다.In addition, without large equipment or expensive product purchase costs, it is possible to easily recognize the touch position on the screen space with only a small lidar sensor, providing the advantage of using various spaces.

도 1은 본 발명의 일실시예에 따른 라이더를 이용한 가상 터치 스크린 장치의 사시도이다.
도 2는 본 발명의 일실시예에 따른 라이더를 이용한 가상 터치 스크린 장치의 가상터치영역설정수단 블록도이다.
도 3 내지 도 4는 본 발명의 일실시예에 따른 라이더를 이용한 가상 터치 스크린 장치의 가상터치영역설정수단에 의해 화면에 표출되는 설정페이지 예시도이다.
1 is a perspective view of a virtual touch screen device using a rider according to an embodiment of the present invention.
2 is a block diagram of a virtual touch area setting unit of a virtual touch screen device using a rider according to an embodiment of the present invention.
3 and 4 are exemplary diagrams of a setting page displayed on a screen by a virtual touch area setting unit of a virtual touch screen device using a rider according to an embodiment of the present invention.

본 발명의 과제를 해결하기 위하여 바람직한 실시예에 따른 라이더를 이용한 가상 터치 스크린 장치는,In order to solve the problem of the present invention, a virtual touch screen device using a lidar according to a preferred embodiment,

일정 크기로 형성되는 스크린부(400);와A screen unit 400 formed in a certain size; and

상기 스크린부로부터 일정 거리 이격된 위치에 설치 구성되어 터치 위치를 감지하여 해당 터치 위치를 포함하는 이벤트 신호를 생성하여 컴퓨터단말기로 제공하기 위한 라이더센서부(200);와A lidar sensor unit 200 configured to be installed at a location spaced apart from the screen unit to detect a touch position, generate an event signal including the touch position, and provide the generated event signal to a computer terminal;

상기 라이더센서부로부터 이벤트 신호를 획득할 경우에 빔프로젝터로 컨텐츠 시나리오 상의 다음 컨텐츠 정보를 송출시키기 위한 컴퓨터단말기(100);와A computer terminal 100 for transmitting next content information on a content scenario to a beam projector when an event signal is obtained from the lidar sensor unit;

상기 컴퓨터단말기와 유무선 통신 방식을 이용하여 연결되어 컴퓨터단말기의 제어에 따라 컨텐츠 정보를 상기 스크린부(400)에 표출시키기 위한 빔프로젝터(300);를 포함하여 구성되는 것을 특징으로 한다.It is characterized in that it is configured to include; a beam projector 300 connected to the computer terminal using a wired/wireless communication method to display content information on the screen unit 400 according to the control of the computer terminal.

본 발명인 라이더를 이용한 가상 터치 스크린 장치는,The virtual touch screen device using the lidar of the present invention,

교육 컨텐츠에 적용될 경우에, 터치 스크린 없이도 터치 모션만으로도 컨텐츠 시나리오를 수행할 수 있는 것을 특징으로 한다.When applied to educational content, it is characterized in that a content scenario can be performed only with a touch motion without a touch screen.

이하, 본 발명에 의한 라이더를 이용한 가상 터치 스크린 장치의 실시예를 통해 상세히 설명하도록 한다.Hereinafter, an embodiment of a virtual touch screen device using a rider according to the present invention will be described in detail.

도 1은 본 발명의 일실시예에 따른 라이더를 이용한 가상 터치 스크린 장치의 사시도이다.1 is a perspective view of a virtual touch screen device using a rider according to an embodiment of the present invention.

도 1에 도시한 바와 같이, 본 발명인 라이더를 이용한 가상 터치 스크린 장치는,As shown in FIG. 1, the virtual touch screen device using the lidar of the present invention,

일정 크기로 형성되는 스크린부(400);와A screen unit 400 formed in a certain size; and

상기 스크린부로부터 일정 거리 이격된 위치에 설치 구성되어 터치 위치를 감지하여 해당 터치 위치를 포함하는 이벤트 신호를 생성하여 컴퓨터단말기로 제공하기 위한 라이더센서부(200);와A lidar sensor unit 200 configured to be installed at a location spaced apart from the screen unit to detect a touch position, generate an event signal including the touch position, and provide the generated event signal to a computer terminal;

상기 라이더센서부로부터 이벤트 신호를 획득할 경우에 빔프로젝터로 컨텐츠 시나리오 상의 다음 컨텐츠 정보를 송출시키기 위한 컴퓨터단말기(100);와A computer terminal 100 for transmitting next content information on a content scenario to a beam projector when an event signal is obtained from the lidar sensor unit;

상기 컴퓨터단말기와 유무선 통신 방식을 이용하여 연결되어 컴퓨터단말기의 제어에 따라 컨텐츠 정보를 상기 스크린부(400)에 표출시키기 위한 빔프로젝터(300);를 포함하여 구성되는 것을 특징으로 한다.It is characterized in that it is configured to include; a beam projector 300 connected to the computer terminal using a wired/wireless communication method to display content information on the screen unit 400 according to the control of the computer terminal.

구체적으로 설명하자면, 상기 일정 크기로 형성되는 스크린부(400)를 구성하고 있으며, 이때, 상기 스크린부로부터 일정 거리 이격된 위치에, 예를 들어, 상측에 라이더센서부(200)를 설치 구성하게 된다.Specifically, it constitutes the screen part 400 formed in a certain size, and at this time, the lidar sensor part 200 is installed at a position spaced apart from the screen part by a certain distance, for example, on the upper side. do.

따라서, 상기 라이더센서부를 통해 터치 위치를 감지하여 해당 터치 위치를 포함하는 이벤트 신호를 생성하여 컴퓨터단말기로 제공하게 되는 것이다.Accordingly, the touch position is sensed through the lidar sensor unit, and an event signal including the touch position is generated and provided to the computer terminal.

이때, 상기 컴퓨터단말기(100)는 상기 라이더센서부로부터 이벤트 신호를 획득할 경우에 빔프로젝터로 컨텐츠 시나리오 상의 다음 컨텐츠 정보를 송출시키기 위한 기능을 수행하게 되는 것이다.At this time, the computer terminal 100 performs a function of transmitting next content information on a content scenario to the beam projector when an event signal is obtained from the lidar sensor unit.

예를 들어, 현재 상영중인 컨텐츠가 풍선 터뜨리기일 경우에, 해당 선택된 풍선이 보라색이라면, 보라색이 터지는 다음 컨텐츠 정보를 빔프로젝터로 송출하여 터지는 영상을 스크린부에 표출시키게 되는 것이다.For example, when the currently playing content is balloon popping, if the selected balloon is purple, information on the next content popping purple is transmitted to the beam projector so that the popping image is displayed on the screen.

그리고, 상기 빔프로젝터(300)는 상기 컴퓨터단말기와 유무선 통신 방식을 이용하여 연결되어 컴퓨터단말기의 제어에 따라 컨텐츠 정보를 상기 스크린부(400)에 표출시키기 위한 기능을 수행하게 된다.In addition, the beam projector 300 is connected to the computer terminal using a wired/wireless communication method to perform a function of displaying content information on the screen unit 400 under the control of the computer terminal.

한편, 부가적인 양상에 따라, 도 2 내지 도 4에 도시한 바와 같이, 상기 컴퓨터단말기(100)는,On the other hand, according to an additional aspect, as shown in FIGS. 2 to 4, the computer terminal 100,

터치 영역을 설정하는 설정페이지를 제공하기 위한 터치영역설정페이지부(110);a touch area setting page unit 110 for providing a setting page for setting a touch area;

라이더 센서 영역의 표시 유무를 설정하기 위한 설정페이지를 제공하기 위한 라이더센서영역설정페이지부(120);a lidar sensor area setting page unit 120 for providing a setting page for setting whether or not the lidar sensor area is displayed;

스크린부(400)의 화면 클릭 방식을 설정하기 위한 설정페이지를 제공하기 위한 화면클릭모드설정페이지부(130);a screen click mode setting page unit 130 for providing a setting page for setting a screen click method of the screen unit 400;

터치 모드시, 드래그 가능 길이를 설정하기 위한 설정페이지를 제공하기 위한 터치드래그임계값설정페이지부(140);a touch-drag threshold setting page unit 140 for providing a setting page for setting a draggable length in touch mode;

라이더 센서가 스크린부의 상부 혹은 하부에 위치하는 지를 설정하기 위한 설정페이지를 제공하기 위한 센서위치선택설정페이지부(150);a sensor position selection setting page unit 150 for providing a setting page for setting whether the lidar sensor is located above or below the screen unit;

스크린부의 화면 상에서 클릭할 한계를 설정하기 위한 설정페이지를 제공하기 위한 화면조정설정페이지부(160); 중 적어도 어느 하나 이상을 포함하는 가상터치영역설정수단(190)을 포함하여 구성되는 것을 특징으로 한다.a screen adjustment setting page unit 160 for providing a setting page for setting a limit to be clicked on the screen of the screen unit; It is characterized in that it is configured to include a virtual touch area setting means 190 including at least one or more of the above.

구체적으로 설명하자면, 상기 터치영역설정페이지부(110)는 터치 영역을 설정하는 설정페이지를 제공하기 위한 기능을 수행하게 된다.Specifically, the touch area setting page unit 110 performs a function of providing a setting page for setting a touch area.

도 3에 도시한 바와 같이, 예를 들어, 터치영역설정페이지부(110)는 터치영역 가로길이 설정레이어, 터치영역 세로길이 설정레이어, 터치영역-센서 접점면 X축 보정 설정레이어, 터치영역-센서 접점면 Y축 보정 설정레이어, 터치영역-센서 접점면 수평 보정 설정레이어, 터치지점-X축 보정 설정레이어, 터치지점-Y축 보정 설정레이어, 터치지점-거리 보정 설정레이어 중 적어도 어느 하나 이상의 설정레이어를 포함하여 구성되는 것을 특징으로 한다.As shown in FIG. 3, for example, the touch area setting page unit 110 includes a touch area horizontal length setting layer, a touch area vertical length setting layer, a touch area-sensor contact surface X-axis correction setting layer, and a touch area-sensor contact surface X-axis correction setting layer. At least one or more of sensor contact surface Y-axis compensation setting layer, touch area-sensor contact surface horizontal compensation setting layer, touch point-X-axis compensation setting layer, touch point-Y axis compensation setting layer, and touch point-distance compensation setting layer. It is characterized in that it is configured to include a setting layer.

특히, 상기 터치영역-센서 접점면 수평 보정 설정레이어 상에 설정값을 변경하게 되면 이에 따라 파란선(2-1)의 방향이 변경되는 것을 특징으로 한다.In particular, when a setting value is changed on the touch area-sensor contact surface horizontal correction setting layer, the direction of the blue line 2-1 is changed accordingly.

즉, 관리자가 설정페이지 상의 변경된 값에 따라 변경되는 위치를 확인하도록 도 3에 도시한 바와 같이, 설정페이지와 매칭된 이미지표출레이어가 형성되어 있는 것을 특징으로 한다.That is, as shown in FIG. 3, an image display layer matched with the setting page is formed so that the administrator can check the changed position according to the changed value on the setting page.

또한, 라이더센서영역설정페이지부(120)는 라이더 센서 영역의 표시 유무를 설정하기 위한 설정페이지를 제공하기 위한 기능을 수행하게 된다.In addition, the lidar sensor area setting page unit 120 performs a function of providing a setting page for setting whether or not to display the lidar sensor area.

도 3에 도시한 바와 같이, 설정페이지와 매칭된 이미지표출레이어에 라이더 센서의 영역을 표시하게 되는데, 파란색(2-1)이 현재 설정된 라이더 센서의 영역을 나타낸 것이다.As shown in FIG. 3, the area of the lidar sensor is displayed on the image display layer matched with the setting page, and blue (2-1) indicates the area of the lidar sensor currently set.

따라서, 랜더링 켜기를 선택하게 되면 파란색으로 라이더 센서의 영역이 표시되게 되는 것이다.Therefore, when rendering on is selected, the lidar sensor area is displayed in blue.

또한, 상기 화면클릭모드설정페이지부(130)는 스크린부(400)의 화면 클릭 방식을 설정하기 위한 설정페이지를 제공하기 위한 기능을 수행하게 된다.In addition, the screen click mode setting page unit 130 performs a function of providing a setting page for setting the screen click method of the screen unit 400 .

도 3에 도시한 바와 같이, 화면 클릭 방식으로 마우스, 터치, 선택안함 등을 제공하고, 이 중 선택된 클릭 방식으로 적용되게 되는 것이다.As shown in FIG. 3, a mouse, touch, no selection, etc. are provided as a screen click method, and the selected click method is applied.

예를 들어, 마우스는 드래그 기능 무, 클릭 동시에 작동, 터치는 드래그 기능 유, 클릭 후 동작, 선택안함은 이벤트 발생 없음을 의미한다.For example, mouse means no drag function, click operation simultaneously, touch means drag function existence, operation after click, and no selection means no event occurs.

또한, 상기 터치드래그임계값설정페이지부(140)는 터치 모드시, 드래그 가능 길이를 설정하기 위한 설정페이지를 제공하기 위한 기능을 수행하게 된다.In addition, the touch drag threshold setting page unit 140 performs a function of providing a setting page for setting a draggable length in a touch mode.

도 3에 도시한 바와 같이, 터치드래그 임계값을 설정할 수 있는 설정창을 제공하게 되며, 여기서 임계값을 선택하게 되는 것이다.As shown in FIG. 3, a setting window for setting the touch drag threshold is provided, and the threshold is selected here.

즉, 터치 모드에서 드래그 가능 길이를 설정하기 위한 것이다.That is, it is for setting the draggable length in touch mode.

또한, 상기 센서위치선택설정페이지부(150)는 라이더 센서가 스크린부의 상부 혹은 하부에 위치하는 지를 설정하기 위한 설정페이지를 제공하기 위한 기능을 수행하게 된다.In addition, the sensor position selection setting page unit 150 performs a function of providing a setting page for setting whether the lidar sensor is located above or below the screen unit.

도 3에 도시한 바와 같이, 디스플레이 아래 혹은 디스플레이 위 중 어느 하나를 선택할 수 있는 설정창을 제공하고, 라이더 센서가 투사면의 상부 혹은 하부에 위치하는 지를 결정하게 되는 것이다.As shown in FIG. 3, a setting window for selecting either below the display or above the display is provided, and it is determined whether the lidar sensor is located above or below the projection surface.

본 발명의 예시에서는 라이더 센서 위치가 투사면 아래에 위치(5-1)함을 표출한 것이다.In the example of the present invention, it is expressed that the lidar sensor position is located below the projection surface (5-1).

또한, 상기 화면조정설정페이지부(160)는 스크린부의 화면 상에서 클릭할 한계를 설정하기 위한 설정페이지를 제공하기 위한 기능을 수행하게 된다.In addition, the screen adjustment setting page unit 160 performs a function of providing a setting page for setting a limit to be clicked on the screen of the screen unit.

도 4에 도시한 바와 같이, 화면 상에서 클릭할 한계를 설정하기 위한 것이다.As shown in FIG. 4, it is for setting a limit to be clicked on the screen.

구체적으로 녹색 영역(6-1)으로 표기되는데, 화면상에 볼펜 등 포인트를 클릭하면, 붉은색 점이 나타나는데, 위치는 좌상(6-2), 우상(6-3), 좌하(6-4), 우하(6-5) 등 원하는 옵션을 선택 후 붉은색 점까지 마우스로 드래그하여 위치를 설정하는 것이다.Specifically, it is indicated as a green area (6-1). When you click a point such as a ballpoint pen on the screen, a red dot appears, and the locations are upper left (6-2), upper right (6-3), and lower left (6-4). After selecting the desired option such as , lower right (6-5), etc., drag the mouse to the red dot to set the position.

화면 설정 예시로서, 미리보기 화면에서 좌상 클릭, 화면상 좌측 상단에 볼펜 등으로 위치시키고, 미리보기 화면에서 마우스로 6-2위치를 붉은점 중 라이더 센서(5-1)와 가장 가까운 점까지 드래그하게 된다.As an example of screen setting, click on the upper left on the preview screen, position it with a ballpoint pen on the upper left corner of the screen, and drag the 6-2 position with the mouse to the point closest to the lidar sensor (5-1) among the red dots on the preview screen. will do

동일한 방법으로 우상, 좌하, 우하를 설정하게 되는 것이다.The top right, bottom left, and bottom right are set in the same way.

상기와 같이, 가상터치영역설정수단(190)을 구성하는 이유는 스크린부의 사이즈가 설치 구성된 장소마다 다르기 때문에 사용하기 전 세팅시에 가상 터치 영역을 설정하기 위한 것이다.As described above, the reason for configuring the virtual touch area setting means 190 is to set a virtual touch area during setting before use because the size of the screen unit is different for each installed and configured place.

이를 통해, 정확한 클릭(터치) 위치를 확인할 수 있게 되는 것이다.Through this, it is possible to check the exact click (touch) position.

따라서, 본 발명인 라이더를 이용한 가상 터치 스크린 장치는,Therefore, the virtual touch screen device using the lidar of the present invention,

교육 컨텐츠에 적용될 경우에, 터치 스크린 없이도 터치 모션만으로도 컨텐츠 시나리오를 수행할 수 있는 것을 특징으로 한다.When applied to educational content, it is characterized in that a content scenario can be performed only with a touch motion without a touch screen.

그리고, 판서 혹은 그림 실행 프로그램을 실행하게 되면, 판서 혹은 그림을 그릴 수 있게 되는 것이다.And, when the writing or drawing execution program is executed, the writing or drawing can be done.

즉, 종래 터치 패널과 동일한 기능을 제공할 수 있는 장점을 제공하게 되는 것이다.That is, it provides the advantage of providing the same functions as the conventional touch panel.

상기와 같은 구성 및 동작을 통해, 값비싼 터치 패널을 이용한 명령 제공 방식이 아닌 라이더 센서를 이용하여 현재 터치 위치를 인식하여 명령 제공이 가능한 효과를 제공하게 된다.Through the configuration and operation as described above, an effect of providing a command by recognizing a current touch position using a lidar sensor rather than a method of providing a command using an expensive touch panel is provided.

따라서, 다양한 교육 컨텐츠, 문화 컨텐츠 등을 상영할 수 있으며, 이를 통해 일반인들에게 다양한 참여 기회를 제공할 수 있게 된다.Therefore, various educational contents, cultural contents, etc. can be screened, and through this, various participation opportunities can be provided to the general public.

또한, 큰 장비없이, 값비싼 제품 구매 비용없이, 소형의 라이더 센서만으로 스크린 공간 상의 터치 위치를 손쉽게 인식할 수 있어 다양한 공간 활용이 가능한 장점을 제공하게 된다.In addition, without large equipment or expensive product purchase costs, it is possible to easily recognize the touch position on the screen space with only a small lidar sensor, providing the advantage of using various spaces.

상기와 같은 내용의 본 발명이 속하는 기술분야의 당업자는 본 발명의 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시된 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. Those skilled in the art to which the present invention pertains as described above will understand that it can be implemented in other specific forms without changing the technical spirit or essential characteristics of the present invention. Therefore, the embodiments described above are illustrative in all respects and should be understood as not being limiting.

100 : 컴퓨터단말기
200 : 라이더센서부
300 : 빔프로젝터
400 : 스크린부
100: computer terminal
200: lidar sensor unit
300: beam projector
400: screen unit

Claims (2)

라이더를 이용한 가상 터치 스크린 장치에 있어서,
일정 크기로 형성되는 스크린부(400);와
상기 스크린부로부터 일정 거리 이격된 위치에 설치 구성되어 터치 위치를 감지하여 해당 터치 위치를 포함하는 이벤트 신호를 생성하여 컴퓨터단말기로 제공하기 위한 라이더센서부(200);와
상기 라이더센서부로부터 이벤트 신호를 획득할 경우에 빔프로젝터로 컨텐츠 시나리오 상의 다음 컨텐츠 정보를 송출시키기 위한 컴퓨터단말기(100);와
상기 컴퓨터단말기와 유무선 통신 방식을 이용하여 연결되어 컴퓨터단말기의 제어에 따라 컨텐츠 정보를 상기 스크린부(400)에 표출시키기 위한 빔프로젝터(300);를 포함하여 구성되되,
상기 컴퓨터단말기(100)는,
터치 영역을 설정하는 설정페이지를 제공하기 위한 터치영역설정페이지부(110);
라이더 센서 영역의 표시 유무를 설정하기 위한 설정페이지를 제공하기 위한 라이더센서영역설정페이지부(120);
스크린부(400)의 화면 클릭 방식을 설정하기 위한 설정페이지를 제공하기 위한 화면클릭모드설정페이지부(130);
터치 모드시, 드래그 가능 길이를 설정하기 위한 설정페이지를 제공하기 위한 터치드래그임계값설정페이지부(140);
라이더 센서가 스크린부의 상부 혹은 하부에 위치하는 지를 설정하기 위한 설정페이지를 제공하기 위한 센서위치선택설정페이지부(150);
스크린부의 화면 상에서 클릭할 한계를 설정하기 위한 설정페이지를 제공하기 위한 화면조정설정페이지부(160); 중 적어도 어느 하나 이상을 포함하는 가상터치영역설정수단(190)을 포함하여 구성되는 것을 특징으로 하는 라이더를 이용한 가상 터치 스크린 장치.
In the virtual touch screen device using the lidar,
A screen unit 400 formed in a certain size; and
A lidar sensor unit 200 configured to be installed at a location spaced apart from the screen unit to detect a touch position, generate an event signal including the touch position, and provide the generated event signal to a computer terminal;
A computer terminal 100 for transmitting next content information on a content scenario to a beam projector when an event signal is obtained from the lidar sensor unit;
It is configured to include; a beam projector 300 connected to the computer terminal using a wired/wireless communication method to display content information on the screen unit 400 under the control of the computer terminal,
The computer terminal 100,
a touch area setting page unit 110 for providing a setting page for setting a touch area;
a lidar sensor area setting page unit 120 for providing a setting page for setting whether or not the lidar sensor area is displayed;
a screen click mode setting page unit 130 for providing a setting page for setting a screen click method of the screen unit 400;
a touch-drag threshold setting page unit 140 for providing a setting page for setting a draggable length in touch mode;
a sensor position selection setting page unit 150 for providing a setting page for setting whether the lidar sensor is located above or below the screen unit;
a screen adjustment setting page unit 160 for providing a setting page for setting a limit to be clicked on the screen of the screen unit; A virtual touch screen device using a rider, characterized in that it is configured to include a virtual touch area setting means 190 including at least one of the following.
제 1항에 있어서,
상기 가상 터치 스크린 장치는,
교육 컨텐츠에 적용될 경우에, 터치 스크린 없이도 터치 모션만으로도 컨텐츠 시나리오를 수행할 수 있는 것을 특징으로 하는 라이더를 이용한 가상 터치 스크린 장치.
According to claim 1,
The virtual touch screen device,
When applied to educational content, a virtual touch screen device using a rider, characterized in that it can perform a content scenario with only touch motion without a touch screen.
KR1020210146620A 2021-10-29 2021-10-29 Virtual touch screen device with lidar KR102506127B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210146620A KR102506127B1 (en) 2021-10-29 2021-10-29 Virtual touch screen device with lidar

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210146620A KR102506127B1 (en) 2021-10-29 2021-10-29 Virtual touch screen device with lidar

Publications (1)

Publication Number Publication Date
KR102506127B1 true KR102506127B1 (en) 2023-03-07

Family

ID=85513699

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210146620A KR102506127B1 (en) 2021-10-29 2021-10-29 Virtual touch screen device with lidar

Country Status (1)

Country Link
KR (1) KR102506127B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180071398A (en) * 2014-06-03 2018-06-27 구글 엘엘씨 Radar-based gesture-recognition through a wearable device
KR20180094314A (en) * 2017-02-15 2018-08-23 (주)더블유알티랩 Method and appratus for recognizing pointing position using radar
KR102233395B1 (en) 2020-10-12 2021-03-30 (주)투핸즈인터랙티브 Augmented reality interactive sports apparatus using lidar sensors
KR20210105618A (en) * 2020-02-19 2021-08-27 주식회사 픽셀스코프 Method ahd device for motion recognizing with lider sensor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180071398A (en) * 2014-06-03 2018-06-27 구글 엘엘씨 Radar-based gesture-recognition through a wearable device
KR20180094314A (en) * 2017-02-15 2018-08-23 (주)더블유알티랩 Method and appratus for recognizing pointing position using radar
KR20210105618A (en) * 2020-02-19 2021-08-27 주식회사 픽셀스코프 Method ahd device for motion recognizing with lider sensor
KR102233395B1 (en) 2020-10-12 2021-03-30 (주)투핸즈인터랙티브 Augmented reality interactive sports apparatus using lidar sensors

Similar Documents

Publication Publication Date Title
US20140071098A1 (en) Remote control device, display system and associated display method
CN101382868B (en) Information display device
US9632593B2 (en) Information processing apparatus, information processing method, and computer-readable recording medium
CN101404152B (en) Information display device
WO2016117321A1 (en) Electronic information board apparatus and method
US9753643B2 (en) Projection screen, remote control terminal, projection device, display device, projection system and remote control method for projection system
CN102436327B (en) Screen input system and implementation method thereof
KR20130016277A (en) Interactive display system
EP3251005B1 (en) Image processing device and electronic whiteboard
CN108139825B (en) Electronic blackboard, storage medium, and information display method
CN111078035B (en) Drawing method based on HTML5Canvas
CN105700733A (en) low latency inking
WO2013161246A1 (en) Display control system, display device, and display panel
JP2023175845A (en) Handwriting input apparatus, handwriting input method, program, and input system
KR102506127B1 (en) Virtual touch screen device with lidar
JP7452155B2 (en) Handwriting input device, handwriting input method, program
JP2023184557A (en) Display device, display method, and program
JP2003069767A (en) Display system and display program
JP2015046094A (en) Information processor and program
JP2017224985A (en) Information processing apparatus, electronic blackboard, and program
KR20230166856A (en) Interactive video output system
KR20180016780A (en) Electronic board activating touch area according to user's approach, method for activating touch area of electronic board using the same
JP7354878B2 (en) Handwriting input device, handwriting input method, program, input system
CN112825135A (en) Display device, display method, and medium
JP2009169352A (en) Information processor

Legal Events

Date Code Title Description
GRNT Written decision to grant