KR102278747B1 - Contactless Screen Pad for Vehicle - Google Patents
Contactless Screen Pad for Vehicle Download PDFInfo
- Publication number
- KR102278747B1 KR102278747B1 KR1020150154469A KR20150154469A KR102278747B1 KR 102278747 B1 KR102278747 B1 KR 102278747B1 KR 1020150154469 A KR1020150154469 A KR 1020150154469A KR 20150154469 A KR20150154469 A KR 20150154469A KR 102278747 B1 KR102278747 B1 KR 102278747B1
- Authority
- KR
- South Korea
- Prior art keywords
- user
- hand
- screen pad
- wearable device
- sensor array
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
차량용 비접촉식 스크린 패드가 제공된다. 본 발명의 실시예에 따른 스크린 패드는, 사용자의 손끝을 비접촉식으로 감지하는 센서 어레이, 웨어러블 디바이스로부터 사용자 손의 위치 정보를 수신하는 통신 모듈 및 센서 어레이의 감지 결과와 위치 정보를 이용하여 사용자의 손가락에 의한 포인팅 지점을 인식하는 프로세싱 유닛을 포함한다. 이에 의해, 포인트 지시나 문자를 입력하는 등의 세밀한 조작이 필요한 경우, 센서와 웨어러블 디바이스에서 획득한 정보를 연동하여 사용자의 손의 위치를 정확히 판단할 수 있게 된다.A non-contact screen pad for a vehicle is provided. A screen pad according to an embodiment of the present invention includes a sensor array for non-contact sensing of a user's fingertip, a communication module for receiving location information of a user's hand from a wearable device, and a user's finger using the detection result and location information of the sensor array and a processing unit for recognizing a pointing point by Accordingly, when a detailed operation such as a point instruction or input of a character is required, the position of the user's hand can be accurately determined by linking the sensor and information obtained from the wearable device.
Description
본 발명은 포인팅 디바이스에 관한 것으로, 더욱 상세하게는 차량 내에서 비접촉식으로 포인트를 지정할 수 있는 스크린 패드에 관한 것이다.BACKGROUND OF THE
도 1은 BMW 社의 차량 내 제스처 인식 방법을 나타낸 이미지이다. 도 1에 도시된 방식은, 차량 내에서 단순 행동을 인식하는 것에 그치고 있다. 즉, AVN(Audio Video Navigation) 장치의 UI를 변경하거나 UI 내 Tab을 이동하는 수준으로 동작하고 있다.1 is an image illustrating a gesture recognition method in a vehicle of BMW. The method shown in FIG. 1 is limited to recognizing simple actions in the vehicle. That is, it operates at the level of changing the UI of an AVN (Audio Video Navigation) device or moving a tab within the UI.
차량 내부의 특수한 상황, 구체적으로 외부 조도 또는 사용자의 예상치 못한 움직임, 차량의 운행에 있어 과속 방지턱 등에 의해 잘못된 인식 등의 우려로 인해, 사용자의 단순 동작만을 인지하는 것이다.Due to concerns such as a special situation inside the vehicle, specifically, external illumination or unexpected movement of the user, misrecognition due to a speed bump in the operation of the vehicle, etc., it recognizes only a simple operation of the user.
하지만, 무인 자동차 및 차량 내 사용자 환경이 다양한 요청을 가능하도록 구성되는 추세이므로. 차량 내에서 좀 더 세밀한 동작을 인식할 수 있도록 하기 위한 방안의 모색이 요청된다.However, as driverless vehicles and in-vehicle user experiences are trending to be configured to enable various requests. It is required to find a way to recognize a more detailed motion in a vehicle.
도 2 는 Leap Motion 社의 손동작 인식 방법을 나타낸 이미지이다. 이는, 적외선 카메라와 광센서를 이용하여 사용자의 손동작에 대한 인식이 가능하도록 하였다. 하지만, 차량 내에 설치하는 것은 불가능하며, 외부 환경에 의한 오류가 많아 차량에는 적용되기는 어렵다.2 is an image showing a hand gesture recognition method of Leap Motion. This made it possible to recognize the user's hand gestures using an infrared camera and an optical sensor. However, it is impossible to install in a vehicle, and it is difficult to apply to a vehicle because there are many errors due to an external environment.
또한, 도 3에 나타난 바와 같이, 사용자의 손의 위치가 제품의 수직 부분에 위치해야 인식이 가능하다는 제약이 있으며, 사용자의 손이 제품에 가까이 갈수록 인식률이 떨어지는 단점이 있다.In addition, as shown in FIG. 3 , there is a restriction that recognition is possible only when the position of the user's hand is located in the vertical part of the product, and there is a disadvantage that the recognition rate decreases as the user's hand approaches the product.
도 4는 KAIST에 개발한 스크린 패드의 사용을 나타낸 이미지이다. 이 방식은 사용자가 스크린 패드에 손을 접촉하는 방식인데 접촉식이라는 한계가 있다.4 is an image showing the use of a screen pad developed by KAIST. This method is a method in which the user touches the screen pad with his or her hand, but there is a limit to the contact type.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 사용자가 스크린 패드에 직접 접촉하지 않는 비접촉식으로 차량 내에서 외부의 상태 변화에 관계없이 정확하게 다양한 입력이 가능한 스크린 패드를 제공함에 있다.The present invention has been devised to solve the above problems, and an object of the present invention is to provide a screen pad that allows the user to accurately input various types regardless of external state changes in the vehicle in a non-contact type that does not directly contact the screen pad. is in providing.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 스크린 패드는, 사용자의 손끝을 비접촉식으로 감지하는 센서 어레이; 웨어러블 디바이스로부터 사용자 손의 위치 정보를 수신하는 통신 모듈; 및 상기 센서 어레이의 감지 결과와 상기 위치 정보를 이용하여, 상기 사용자의 손가락에 의한 포인팅 지점을 인식하는 프로세싱 유닛;을 포함한다.According to an embodiment of the present invention for achieving the above object, the screen pad includes a sensor array for detecting a user's fingertips in a non-contact manner; a communication module for receiving location information of a user's hand from the wearable device; and a processing unit configured to recognize a pointing point of the user's finger by using the detection result of the sensor array and the location information.
그리고, 상기 프로세싱 유닛은, 상기 센서 어레이의 감지 결과로부터 포인팅 지점을 인식하고, 인식된 포인팅 지점을 상기 통신 모듈을 통해 수신된 상기 위치 정보를 참조하여 보정할 수 있다.The processing unit may recognize a pointing point from the detection result of the sensor array, and correct the recognized pointing point with reference to the location information received through the communication module.
또한, 상기 프로세싱 유닛은, 상기 센서 어레이의 감지 결과로부터 상기 손끝과 상기 스크린 패드의 거리를 계산하고, 계산 결과를 이용하여 상기 위치 정보를 보정할 수 있다.Also, the processing unit may calculate a distance between the fingertip and the screen pad from a detection result of the sensor array, and correct the location information using the calculation result.
그리고, 상기 통신 모듈은, 상기 웨어러블 디바이스로부터 상기 사용자 손의 움직임 정보를 더 수신하고, 상기 프로세싱 유닛은, 상기 움직임 정보를 통해 상기 사용자의 입력 동작을 감지할 수 있다.In addition, the communication module may further receive the motion information of the user's hand from the wearable device, and the processing unit may detect the input motion of the user through the motion information.
또한, 상기 센서 어레이는, 상기 손가락에 적외선을 발광하는 IR-LED 어레이; 및 상기 손가락에서 반사되는 적외선을 감지하는 CCD 어레이;를 포함할 수 있다.In addition, the sensor array, IR-LED array for emitting infrared light to the finger; and a CCD array that detects infrared rays reflected from the finger.
한편, 본 발명의 다른 실시예에 따른, 사용자 입력 시스템은, 사용자의 손끝을 비접촉식으로 감지하고, 사용자 손의 위치 정보를 이용하여 상기 사용자의 손가락에 의한 포인팅 지점을 인식하는 스크린 패드; 및 사용자 손의 위치 정보를 상기 스크린 패드로 전송하는 웨어러블 디바이스;를 포함한다.Meanwhile, according to another embodiment of the present invention, a user input system includes: a screen pad for detecting a user's fingertip in a non-contact manner and recognizing a pointing point by the user's finger using location information of the user's hand; and a wearable device that transmits the location information of the user's hand to the screen pad.
이상 설명한 바와 같이, 본 발명의 실시예들에 따르면, 사용자가 스크린 패드에 직접 접촉하지 않는 비접촉식으로 차량 내에서 외부의 상태 변화에 관계없이 정확하게 다양한 입력이 가능해진다.As described above, according to the embodiments of the present invention, various inputs can be accurately performed regardless of external state changes in the vehicle in a non-contact manner in which the user does not directly contact the screen pad.
특히, 본 발명의 실시예들에 따르면, 포인트 지시나 문자를 입력하는 등의 세밀한 조작이 필요한 경우, 센서와 웨어러블 디바이스에서 획득한 정보를 연동하여 사용자의 손의 위치를 정확히 판단할 수 있게 된다.In particular, according to embodiments of the present invention, when a detailed manipulation such as a point instruction or input of a character is required, the position of the user's hand can be accurately determined by linking the sensor with information obtained from the wearable device.
도 1은 종래의 차량 내 제스처 인식 방법을 나타낸 이미지,
도 2 및 도 3은 종래의 손동작 인식 방법을 나타낸 이미지,
도 4는 기존의 스크린 패드를 통한 사용자 정보 입력 방법을 나타낸 이미지,
도 5는 본 발명의 실시예에 따른 차량용 사용자 입력 시스템의 개념을 도시한 도면,
도 6은, 도 5에 도시된 차량용 사용자 입력 시스템에서의 입력 정보 획득 방식을 개념적으로 나타낸 도면,
도 7은 스크린 패드의 내부 구성을 나타낸 도면,
도 8은 프로세싱 유닛에 의한 포인팅 지점 인식 과정의 설명에 제공되는 도면,
도 9는 IR/CCD 어레이를 구성하는 하나의 IR-LED와 CCD에서 광량을 측정하는 상황을 나타낸 도면, 그리고,
도 10은 2차원 광량 분포를 이용한 근사 노이즈를 제거 방식의 설명에 제공되는 도면이다.1 is an image showing a conventional in-vehicle gesture recognition method;
2 and 3 are images showing a conventional hand gesture recognition method,
4 is an image showing a user information input method through a conventional screen pad;
5 is a view showing the concept of a vehicle user input system according to an embodiment of the present invention;
6 is a diagram conceptually illustrating an input information acquisition method in the vehicle user input system shown in FIG. 5;
7 is a view showing the internal configuration of the screen pad;
8 is a diagram provided for explanation of a pointing point recognition process by a processing unit;
9 is a view showing a situation in which the amount of light is measured in one IR-LED and CCD constituting the IR/CCD array, and
10 is a diagram provided to explain a method for removing approximate noise using a two-dimensional light quantity distribution.
본 발명의 실시예에서는, 사용자의 손 동작에 따른 제스처가 아닌, 사용자의 손가락에 의한 포인팅 지점을 비접촉식으로 인식하기 위한 차량용 사용자 입력 시스템을 제시한다. 이를 통해, 사용자는 비접촉식으로 문자 입력, 위치 지정, 아이콘/메뉴 선택이 가능해진다.An embodiment of the present invention provides a vehicle user input system for non-contact recognition of a pointing point by a user's finger, not a gesture according to a user's hand gesture. Through this, the user can input text, designate a location, and select an icon/menu in a non-contact manner.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.Hereinafter, the present invention will be described in more detail with reference to the drawings.
도 5는 본 발명의 실시예에 따른 차량용 사용자 입력 시스템의 개념을 도시한 도면이다. 본 발명의 실시예에 따른 차량용 사용자 입력 시스템은, 도 5에 도시된 바와 같이, 웨어러블 디바이스(100)와 스크린 패드(200)가 연동하여, 문자 입력 등을 처리한다.5 is a diagram illustrating a concept of a vehicle user input system according to an embodiment of the present invention. In the vehicle user input system according to an embodiment of the present invention, as shown in FIG. 5 , the
도 5에서 웨어러블 디바이스(100)는 사용자(운전자)의 손목에 착용되는 와치로 구현하였는데, 그 밖의 다른 형태의 디바이스(이를 테면, 반지,밴드, 장갑 등)로 구현하는 것도 가능하다.In FIG. 5 , the
스크린 패드(200)는 차량에 장착되어, 네비게이션, AV 시스템, 차량 정보 안내 등의 기능을 제공한다.The
도 6은, 도 5에 도시된 차량용 사용자 입력 시스템에서의 입력 정보 획득 방식을 개념적으로 나타낸 도면이다. 획득하는 입력 정보에는, 사용자의 손끝(손가락의 끝부분) 위치 정보, 손 위치 정보, 손 움직임 정보 등이 있다.FIG. 6 is a diagram conceptually illustrating an input information acquisition method in the vehicle user input system shown in FIG. 5 . The acquired input information includes user's fingertip (tip of a finger) location information, hand location information, hand movement information, and the like.
사용자 손끝 위치 정보는 스크린 패드(200)에 마련된 센서 어레이를 통해 비접촉식으로 감지한다. 센서 어레이는 사용자의 손가락에 적외선을 발광하는 IR-LED 어레이와 사용자의 손가락에서 반사되는 적외선의 광량을 감지하는 CCD(Charge Coupled Device) 어레이를 포함하는 IR/CCD 어레이(210)로 구성된다.The user's fingertip position information is sensed in a non-contact manner through a sensor array provided on the
사용자 손의 위치 정보와 사용자 손의 움직임 정보는, 웨어러블 디바이스(100)에 마련되어 있는 9축 자이로/가속도 센서, GPS 모듈 등을 통해 생성되어, 스크린 패드(200)로 실시간 무선 전송된다.The location information of the user's hand and the movement information of the user's hand are generated through a 9-axis gyro/acceleration sensor, a GPS module, etc. provided in the
도 6에서 웨어러블 디바이스(100)와 스크린 패드(200) 간의 무선 통신 방식으로 블루투스를 상정하였는데, 다른 방식의 무선 통신으로 대체될 수 있음은 물론이다.In FIG. 6 , it is assumed that Bluetooth is a wireless communication method between the
도 7에는 스크린 패드(200)의 내부 구성을 나타낸 도면이다. 도 7에 도시된 바와 같이, 스크린 패드(200)는 IR/CCD 어레이 구동부(220), 블루투스 모듈(230) 및 프로세싱 유닛(240)을 포함한다.7 is a view showing an internal configuration of the
IR/CCD 어레이 구동부(220)는 IR/CCD 어레이(210)를 구동하기 위한 구동 신호를 생성하기 위한 수단이다. 블루투스 모듈(230)은 웨어러블 디바이스(100)로부터 손 위치 정보와 손 움직임 정보를 수신하기 위한 수단이다.The IR/
프로세싱 유닛(240)은 IR/CCD 어레이(210)에서 획득된 손끝 위치정보와 블루투스 모듈(230)을 통해 수신한 웨어러블 디바이스(100)에 의해 획득된 손 위치정보를 이용하여, 손가락에 의한 포인팅 지점을 인식한다.The
도 8은 프로세싱 유닛(240)에 의한 포인팅 지점 인식 과정의 설명에 제공되는 도면이다.8 is a diagram provided for explanation of a pointing point recognition process by the
도 8에 도시된 바와 같이, 프로세싱 유닛(240)은 IR/CCD 어레이(210)에 의해 감지된 광량 분포를 수집하고(S310), 웨어러블 디바이스(100)로부터 손의 위치 정보와 움직임 정보를 수신한다(S320).As shown in FIG. 8 , the
다음, 프로세싱 유닛(240)은 S310단계에서 수집된 정보와 S320단계에서 수신된 정보를 이용하여, 사용자의 손가락에 의한 포인팅 지점을 파악한다(S330).Next, the
구체적으로, 프로세싱 유닛(240)은 S310단계에서 수집된 광량 분포를 분석하여, 포인팅 지점을 인식한다. 이 과정에서 S320단계에서 수신된 손 위치 정보가 참조될 수 있으며, 이에 대해서는 상세히 후술한다.Specifically, the
이후, 프로세싱 유닛(240)은 S320단계에서 수신된 손 위치 정보를 참조하여 포인팅 지점을 보정한다. 예를 들어, 손 위치 정보가 기준 위치로부터 좌측으로 치우쳐 있으면 포인팅 지점을 해당 거리 만큼 우측으로 이동시키는 보정을 수행하고, 손 위치 정보가 기준 위치로부터 우측으로 치우쳐 있으면 포인팅 지점을 좌측으로 이동시키는 보정을 수행할 수 있다.Thereafter, the
또한, 프로세싱 유닛(240)은 S320단계에서 수신한 손의 움직임 정보로부터 사용자의 입력 동작을 감지한다(S340). 예를 들어, 사용자의 손이 스크린 패드(200) 측으로 이동한 것으로 파악된 경우에는, 사용자의 입력 동작, 즉, 현재의 포인팅 지점을 선택하고자 하는 동작이 있는 것으로 취급한다.In addition, the
프로세싱 유닛(240)은 S330단계에서 파악된 포인팅 지점과 S340단계에서 파악된 입력 동작을 처리한다(S350). 구체적으로, S330단계에서 파악된 포인팅 지점에 포인터를 위치시키거나 해당 영역을 하이라이트 시키고, S340단계에서 입력 동작이 파악되면 해당 입력에 따른 기능(이를 테면, 문자 입력, 위치 지정, 아이콘/메뉴 선택)을 수행한다.The
도 9는 IR/CCD 어레이(210)를 구성하는 하나의 IR-LED와 CCD에서 광량을 측정하는 상황을 나타내었다. 이에 의해, 여러 개의 IR-LED와 CCD와 구성되는 IR/CCD 어레이(210)에서는 2차원의 광량 분포가 출력된다.9 shows a situation in which the amount of light is measured in one IR-LED and CCD constituting the IR/
그리고, 도 10에 도시된 바와 같이, 프로세싱 유닛(240)은 2차원 광량 분포를 2차원 행렬로 구성한 이후, 이를 다중 행렬로 변환하고, 각 셀간 노이즈 분석을 통해 근사 노이즈를 제거한다. 이때, 근사 노이즈의 기준은 웨어러블 디바이스(100)에 의해 획득된 사용자 손의 위치정보를 기초로 결정한다.Then, as shown in FIG. 10 , the
또한, 프로세싱 유닛(240)은 2차원 광량 분포로부터 사용자의 손끝과 스크린 패드(200) 간의 거리를 계산할 수 있다. 구체적으로, 광량이 가장 큰 지점에서의 광량(즉, 최대 광량)을 기초로 거리 계산이 가능하다. 광량과 거리는 반비례한다. 즉, 광량이 클수록 거리는 가깝게 계산되고, 광량이 작을수록 거리가 멀게 계산된다.Also, the
계산된 거리는 손끝과 스크린 패드(200) 간의 거리를 기초로, 웨어러블 디바이스(100)에 의해 생성된 손의 위치 정보를 보정할 수 있다. 즉, 광량 분포로부터 계산된 거리와, 웨어러블 디바이스(100)에 의해 생성된 손의 위치 정보를 통해 산출된 사용자 손과 스크린 패드(200) 간의 거리를 비교하여, 오차를 도출하고, 도출된 오차를 기반으로 웨어러블 디바이스(100)에 의해 생성된 손의 위치 정보를 보정하는 것이다.The calculated distance may correct the position information of the hand generated by the
본 발명의 실시예에서는, IR/CCD 어레이와 웨어러블 디바이스를 연동하여, 사용자의 손의 정확한 위치를 파악하고, 손 위치에서 확인된 손가락의 정보를 취합하여 정확한 포인팅 지점을 계산할 수 있게 된다.In an embodiment of the present invention, by interworking the IR/CCD array and the wearable device, the precise location of the user's hand can be identified, and the accurate pointing point can be calculated by collecting the finger information identified at the hand location.
또한, 본 발명의 실시예에서는, IR/CCD 어레이로 각 위치에서 손과 스크린 패드(200) 간의 거리를 확인하여, 손 위치를 보정함으로써, 포인트의 정확도를 높일 수 있게 된다.In addition, in the embodiment of the present invention, by checking the distance between the hand and the
힌편, 본 발명의 실시예에서는, IR/CCD가 어레이로 구성되어, 외부 환경에 대한 오류, 차량 이동 환경에 대한 오류를 제거할 수 있는 기준이 제공된다.On the other hand, in the embodiment of the present invention, the IR/CCD is configured as an array, and a standard capable of removing an error for the external environment and an error for the vehicle moving environment is provided.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In addition, although preferred embodiments of the present invention have been illustrated and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention belongs without departing from the gist of the present invention as claimed in the claims Various modifications are possible by those of ordinary skill in the art, and these modifications should not be individually understood from the technical spirit or prospect of the present invention.
100 : 웨어러블 디바이스
200 : 스크린 패드
210 : IR/CCD 어레이
220 : IR/CCD 어레이 구동부
230 : 블루투스 모듈
240 : 프로세싱 유닛100: wearable device
200: screen pad
210: IR/CCD Array
220: IR/CCD array driver
230: Bluetooth module
240: processing unit
Claims (6)
웨어러블 디바이스로부터 사용자 손의 위치 정보를 수신하는 통신 모듈; 및
상기 센서 어레이의 감지 결과와 상기 위치 정보를 이용하여, 상기 사용자의 손가락에 의한 포인팅 지점을 인식하는 프로세싱 유닛;을 포함하고,
상기 프로세싱 유닛은,
상기 센서 어레이의 감지 결과로부터 포인팅 지점을 인식하고, 인식된 포인팅 지점을 상기 통신 모듈을 통해 수신된 상기 사용자 손의 위치 정보를 참조하여 보정하는 것을 특징으로 하는 스크린 패드.
a sensor array for non-contact sensing of the user's fingertip position;
a communication module for receiving location information of a user's hand from the wearable device; and
a processing unit for recognizing a pointing point by the user's finger by using the detection result of the sensor array and the location information;
The processing unit is
Recognizing a pointing point from the detection result of the sensor array, and correcting the recognized pointing point with reference to the location information of the user's hand received through the communication module.
상기 프로세싱 유닛은,
상기 센서 어레이의 감지 결과로부터 상기 손끝과 상기 스크린 패드의 거리를 계산하고, 계산 결과를 이용하여 상기 위치 정보를 보정하는 것을 특징으로 하는 스크린 패드.
The method according to claim 1,
The processing unit is
The screen pad according to claim 1, wherein the distance between the fingertip and the screen pad is calculated from the sensing result of the sensor array, and the position information is corrected using the calculation result.
상기 통신 모듈은,
상기 웨어러블 디바이스로부터 상기 사용자 손의 움직임 정보를 더 수신하고,
상기 프로세싱 유닛은,
상기 움직임 정보를 통해 상기 사용자의 입력 동작을 감지하는 것을 특징으로 하는 스크린 패드.
The method according to claim 1,
The communication module is
Further receiving the motion information of the user's hand from the wearable device,
The processing unit is
The screen pad, characterized in that for detecting the input motion of the user through the motion information.
상기 센서 어레이는,
상기 손가락에 적외선을 발광하는 IR-LED 어레이; 및
상기 손가락에서 반사되는 적외선을 감지하는 CCD 어레이;를 포함하는 것을 특징으로 하는 스크린 패드.
The method according to claim 1,
The sensor array is
an IR-LED array that emits infrared light to the finger; and
The screen pad comprising a; CCD array for sensing infrared rays reflected from the finger.
사용자 손의 위치 정보를 상기 스크린 패드로 전송하는 웨어러블 디바이스;를 포함하고,
상기 스크린 패드는,
상기 센서 어레이의 감지 결과로부터 포인팅 지점을 인식하고, 인식된 포인팅 지점을 상기 웨어러블 디바이스로부터 수신한 상기 사용자 손의 위치 정보를 참조하여 보정하는 것을 특징으로 하는 사용자 입력 시스템.
a screen pad for detecting a user's fingertip position in a non-contact manner with a sensor array and recognizing a pointing point by the user's finger using the user's hand position information received from the following wearable device; and
Including; a wearable device for transmitting the location information of the user's hand to the screen pad;
The screen pad,
Recognizing a pointing point from the detection result of the sensor array, and correcting the recognized pointing point with reference to the location information of the user's hand received from the wearable device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150154469A KR102278747B1 (en) | 2015-11-04 | 2015-11-04 | Contactless Screen Pad for Vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150154469A KR102278747B1 (en) | 2015-11-04 | 2015-11-04 | Contactless Screen Pad for Vehicle |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20170052247A KR20170052247A (en) | 2017-05-12 |
KR102278747B1 true KR102278747B1 (en) | 2021-07-19 |
Family
ID=58739999
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150154469A KR102278747B1 (en) | 2015-11-04 | 2015-11-04 | Contactless Screen Pad for Vehicle |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102278747B1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102055572B1 (en) * | 2017-12-27 | 2019-12-13 | 한양대학교 산학협력단 | Wearable device for providing virtual input and control method for the same |
JP7135444B2 (en) * | 2018-05-29 | 2022-09-13 | 富士フイルムビジネスイノベーション株式会社 | Information processing device and program |
KR102437930B1 (en) * | 2022-04-19 | 2022-08-30 | (주) 아하 | Method for recognizing non-contact gestures in the display process and display using the same |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101524576B1 (en) * | 2014-09-03 | 2015-06-03 | 박준호 | Wearable device |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100069720A (en) * | 2008-12-17 | 2010-06-25 | 이성이 | Non-touch sensor screen |
KR101103058B1 (en) * | 2009-08-25 | 2012-01-05 | 김근섭 | Computer system and method of driving the same |
KR101979026B1 (en) * | 2012-10-30 | 2019-05-15 | 르노삼성자동차 주식회사 | System and method for recognizing gesture and method of controlling a vehicle using the method |
-
2015
- 2015-11-04 KR KR1020150154469A patent/KR102278747B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101524576B1 (en) * | 2014-09-03 | 2015-06-03 | 박준호 | Wearable device |
Also Published As
Publication number | Publication date |
---|---|
KR20170052247A (en) | 2017-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2017041433A1 (en) | Touch control response method and apparatus for wearable device, and wearable device | |
KR101234111B1 (en) | Apparatus for contact-free input interfacing and contact-free input interfacing method using the same | |
KR20110063075A (en) | Gesture input apparatus and gesture recognition method and apparatus using the same | |
US20100103104A1 (en) | Apparatus for user interface based on wearable computing environment and method thereof | |
KR20140060297A (en) | Method for detecting motion of input body and input device using same | |
US20150177836A1 (en) | Wearable information input device, information input system, and information input method | |
KR102278747B1 (en) | Contactless Screen Pad for Vehicle | |
RU2018125897A (en) | METHOD FOR LIGHTING DEVICE MANAGEMENT | |
CN104298340A (en) | Control method and electronic equipment | |
CN107272892B (en) | Virtual touch system, method and device | |
KR101103058B1 (en) | Computer system and method of driving the same | |
US10884518B2 (en) | Gesture detection device for detecting hovering and click | |
US20130229348A1 (en) | Driving method of virtual mouse | |
CN106598422B (en) | hybrid control method, control system and electronic equipment | |
US9606639B2 (en) | Pointing system and display having improved operable range | |
US10228768B2 (en) | Optical user interface | |
CN116057500A (en) | Optical stylus for optical position determining device | |
US9423893B2 (en) | Gesture detection device for detecting hovering and click | |
JP2016115310A (en) | Electronic apparatus | |
KR101860138B1 (en) | Apparatus for sharing data and providing reward in accordance with shared data | |
KR101588021B1 (en) | An input device using head movement | |
CN103677313B (en) | Electronic equipment and control method | |
US9354706B2 (en) | Storage medium having stored therein information processing program, information processing apparatus, information processing system, and method of calculating designated position | |
Prabhakar et al. | Comparison of three hand movement tracking sensors as cursor controllers | |
CN103376916A (en) | Three-dimensional pointing device and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |