KR20170126146A - Transparent or translucent type Internet of Things device based on dual touch sensing, and dual touch recognition method using the same - Google Patents
Transparent or translucent type Internet of Things device based on dual touch sensing, and dual touch recognition method using the same Download PDFInfo
- Publication number
- KR20170126146A KR20170126146A KR1020160056170A KR20160056170A KR20170126146A KR 20170126146 A KR20170126146 A KR 20170126146A KR 1020160056170 A KR1020160056170 A KR 1020160056170A KR 20160056170 A KR20160056170 A KR 20160056170A KR 20170126146 A KR20170126146 A KR 20170126146A
- Authority
- KR
- South Korea
- Prior art keywords
- transparent
- module
- touch
- translucent
- dual
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/12—Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
- H04L67/125—Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks involving control of end-device applications over a network
-
- H04L67/16—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/51—Discovery or management thereof, e.g. service location protocol [SLP] or web services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
본 발명은 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기, 그리고 이를 이용한 듀얼 터치 인식 방법에 관한 것으로, 보다 구체적으로는, 종래의 한쪽 면만을 터치하는 경우, 작동이 되는 투명 IoT 기기에 있어서 오작동이나 불필요한 작동을 방지하기 위해 손가락 두 개가 동시에 터치 되어야만 제어 명령을 구동하도록 하여 전반적인 IoT 기기나 이와 무선 방식으로 연결된 디스플레이 기기 등에서 활용하도록 하기 위한 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기, 그리고 이를 이용한 듀얼 터치 인식 방법에 관한 것이다. The present invention relates to a semi-transparent or transparent IoT device based on a dual touch recognition, and a dual-touch recognition method using the same. More particularly, the present invention relates to a translucent or transparent IoT device, A dual touch recognition based translucent or transparent IoT device for driving a control command only when two fingers are touched at the same time so as to be used in an overall IoT device or a wirelessly connected display device, ≪ / RTI >
종래의 투명 또는 반투명 재질로 형성되는 IoT 기기에서는 주로 한쪽 면만을 터차하도록 함으로써, 주머니나 이동시 의도치 않게 작동하는 불편함이 있었다.In conventional IoT devices formed of transparent or translucent materials, there is an inconvenience in that it is unintentionally operated when a bag or a portable device is moved.
즉, 압전식 터치패널을 사용할 경우 의도치 않는 외부 압력에 의하거나 정전식 터치패널을 사용할 경우 겨울철과 같이 정전기가 잘 발생하는 경우에 외부의 객체의 접촉에 의해 의도치 않는 입력이 발생할 수 있는 한계점이 있어 왔다.In other words, when a piezoelectric touch panel is used, when an unintentional external pressure or an electrostatic touch panel is used, when a static electricity is generated as in winter, Has come.
본 발명은 상기의 문제점을 해결하기 위한 것으로, 종래의 한쪽 면만을 터치하는 경우, 작동이 되는 투명 IoT 기기에 있어서 오작동이나 불필요한 작동을 방지하기 위해 손가락 두 개가 동시에 터치 되어야만 제어 명령을 구동하도록 하여 전반적인 IoT 기기나 이와 무선 방식으로 연결된 디스플레이 기기 등에서 활용하도록 하기 위한 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기, 그리고 이를 이용한 듀얼 터치 인식 방법을 제공하기 위한 것이다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and it is an object of the present invention to provide a transparent IoT device, A dual touch recognition based translucent or transparent IoT device for use in an IoT device or a display device connected thereto in a wireless manner, and a dual touch recognition method using the same.
그러나 본 발명의 목적들은 상기에 언급된 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.However, the objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned can be clearly understood by those skilled in the art from the following description.
상기의 목적을 달성하기 위해 본 발명의 실시예에 따른 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기는, 전면 구현 영역(11a)이 제 1 터치패널(TP1)의 상부면으로 구현되며, 후면 대응면 영역(11b)은 제 2 터치패널(TP2)의 일부 영역을 이루어서 형성되며, 전면 구현 영역(11a)은 커버 패널(CP) 상에 그래픽화 되어 나타나는 구조를 갖는 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기(10)에 있어서, 투명 또는 반투명 디스플레이(13)에 구현된 적어도 두 개 이상의 제어 대상 객체(아이콘) 중 하나에 대한 터치 입력을 수신 대기한 뒤, 하나의 제어 대상 객체(아이콘)에 대한 전면 구현 영역(11a)과 후면 대응면 영역(11b)에 대한 미리 설정된 임계 시간 내로의 동시 입력 여부를 분석하는 인식 모듈(12a); 인식 모듈(12a)에 의한 동시 입력으로 분석시 선택 입력된 제어 대상 객체(아이콘)의 위치 정보 좌표를 추출하여 추출된 위치 정보로부터 미리 설정된 영역 내의 백라이트(13a)를 점등하여, 사용자에게 터치 입력을 인식시키는 위치 추출 모듈(12b); 및 위치 추출 모듈(12b)에 의해 추출된 위치 정보 좌표와 매칭되는 제어 명령을 생성하여 처리하는 프로세스 처리 모듈(12c); 을 포함하는 것을 특징으로 한다.In order to achieve the above object, the dual-touch recognition based translucent or transparent IoT device according to the embodiment of the present invention is characterized in that the
상기의 목적을 달성하기 위해 본 발명의 실시예에 따른 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기를 이용한 듀얼 터치 인식 방법은, 인식 모듈(12a)이 투명 또는 반투명 디스플레이(13)에 구현된 적어도 두 개 이상의 제어 대상 객체(아이콘) 중 하나에 대한 터치 입력을 수신 대기하는 제 1 단계; 인식 모듈(12a)이 수신 대기에 따라 하나의 제어 대상 객체(아이콘)에 대한 전면 구현 영역(11a)과 후면 대응면 영역(11b)에 대한 미리 설정된 임계 시간 내로의 동시 입력 여부를 분석하는 제 2 단계; 위치 추출 모듈(12b)이 인식 모듈(12a)에 의한 동시 입력으로 분석시 선택 입력된 제어 대상 객체(아이콘)의 위치 정보 좌표를 추출하여 추출된 위치 정보로부터 미리 설정된 영역 내의 백라이트(13a)를 점등하여, 사용자에게 터치 입력을 인식시키는 제 3 단계; 및 프로세스 처리 모듈(12c)이 위치 추출 모듈(12b)에 의해 추출된 위치 정보 좌표와 매칭되는 제어 명령을 생성하여 처리하는 제 4 단계; 를 포함하는 것을 특징으로 한다.In order to achieve the above object, a dual touch recognition method using a translucent or transparent IoT device based on a dual touch recognition according to an embodiment of the present invention is characterized in that the
이때, 상기 제 4 단계 이후, 전송 처리 모듈(12d)이 프로세스 처리 모듈(12c)에 의해 생성된 제어 명령이 다른 IoT 기기 또는 외부 디스플레이 기기에 대한 제어 명령인 경우 무선 안테나(ant)를 통해 제어 명령을 전송 제어하는 제 5 단계; 를 더 포함하는 것을 특징으로 한다. If the control command generated by the
본 발명의 실시예에 따른 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기, 그리고 이를 이용한 듀얼 터치 인식 방법은, 종래의 한쪽 면만을 터치하는 경우, 작동이 되는 투명 IoT 기기에 있어서 오작동이나 불필요한 작동을 방지하기 위해 손가락 두 개가 동시에 터치 되어야만 제어 명령을 구동하도록 하여 전반적인 IoT 기기나 이와 무선 방식으로 연결된 디스플레이 기기 등에서 활용할 수 있는 효과를 제공한다.The dual-touch recognition-based translucent or transparent IoT device and the dual-touch recognition method using the same according to the embodiment of the present invention can prevent a malfunction or unnecessary operation in an operating transparent IoT device when a conventional single- It is necessary to touch both of the fingers at the same time so as to drive the control command so that it can be utilized in an overall IoT device or a display device connected thereto in a wireless manner.
도 1은 본 발명의 실시예에 따른 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기(10)의 외관을 나타내는 도면이다.
도 2는 도 1의 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기(10)의 구성요소를 나타내는 블록도이다.
도 3은 도 1의 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기(10) 중 전면 구현 영역(11a)과 후면 대응면 영역(11b)의 구조를 설명하기 위한 개념도이다.
도 4는 본 발명의 실시예에 따른 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기(10)를 이용한 듀얼 터치 인식 방법을 나타내는 흐름도이다. FIG. 1 is a view showing the appearance of a dual-touch recognition based translucent or
FIG. 2 is a block diagram illustrating the components of the dual-touch recognition based translucent or
FIG. 3 is a conceptual diagram for explaining the structure of the
4 is a flowchart illustrating a dual-touch recognition method using a translucent or
이하, 본 발명의 바람직한 실시예의 상세한 설명은 첨부된 도면들을 참조하여 설명할 것이다. 하기에서 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a detailed description of preferred embodiments of the present invention will be given with reference to the accompanying drawings. In the following description of the present invention, detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.
본 명세서에 있어서는 어느 하나의 구성요소가 다른 구성요소로 데이터 또는 신호를 '전송'하는 경우에는 구성요소는 다른 구성요소로 직접 상기 데이터 또는 신호를 전송할 수 있고, 적어도 하나의 또 다른 구성요소를 통하여 데이터 또는 신호를 다른 구성요소로 전송할 수 있음을 의미한다.In the present specification, when any one element 'transmits' data or signals to another element, the element can transmit the data or signal directly to the other element, and through at least one other element Data or signal can be transmitted to another component.
도 1은 본 발명의 실시예에 따른 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기(10)의 외관을 나타내는 도면이다. 도 1을 참조하면, 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기(10)는 투명 또는 반투명 하우징(14)의 전면부를 형성하는 투명 또는 반투명 디스플레이(13)에 제어 대상 객체(아이콘)를 구현하는 전면 구현 영역(11a)을 구비한다. FIG. 1 is a view showing the appearance of a dual-touch recognition based translucent or
다음으로, 도 2는 도 1의 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기(10)의 구성요소를 나타내는 블록도이다. Next, FIG. 2 is a block diagram illustrating the components of the dual-touch recognition based translucent or
도 3은 도 1의 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기(10) 중 전면 구현 영역(11a)과 후면 대응면 영역(11b)의 구조를 설명하기 위한 개념도이다.FIG. 3 is a conceptual diagram for explaining the structure of the
먼저, 도 2를 참조하면, 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기(10)는 듀얼 터치 영역(11), 제어부(12), 투명 또는 반투명 디스플레이(13)를 포함한다. 그리고, 제어부(12)는 인식 모듈(12a), 위치 추출 모듈(12b), 프로세스 처리 모듈(12c), 전송 처리 모듈(12d)로 구분된다. 2, a dual-touch recognition based translucent or
인식 모듈(12a)은 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기(10)의 전원 온(ON)에 따라 투명 또는 반투명 디스플레이(13)에 적어도 두 개 이상의 제어 대상 객체(아이콘)을 구현한 뒤, 투명 또는 반투명 디스플레이(13)에 구현된 적어도 두 개 이상의 제어 대상 객체(아이콘) 중 하나에 대한 터치 입력을 수신 대기한다. The
여기서 투명 또는 반투명 디스플레이(13)는 백라이트(13a)를 구비하는 터치 입력 모듈과 디스플레이가 하나의 모듈 형태로 형성된 투명 또는 반투명의 터치 스크린으로 형성될 수 있다.Here, the transparent or
또한, 인식 모듈(12a)은 수신 대기에 따라 사용자에 의한 손가락, 터치 펜 등을 이용한 하나의 제어 대상 객체(아이콘)에 대한 전면 구현 영역(11a)과 후면 대응면 영역(11b)에 대한 미리 설정된 임계 시간 내로의 동시 입력 여부를 분석한다. 여기서 후면 대응면 영역(11b)은 투명 또는 반투명 디스플레이(13) 중 후면에 형성된 것으로, 하나의 제어 대상 객체(아이콘)를 중심으로 투명 또는 반투명 디스플레이(13)의 전면에 형성된 전면 구현 영역(11a)과 투명 패널(15)을 중심으로 맞닿도록 형성된다. In addition, the
즉 도 3과 같이, 전면 구현 영역(11a)은 제 1 터치패널(TP1)의 상부면으로 구현되며, 후면 대응면 영역(11b)은 제 2 터치패널(TP2)의 일부 영역을 이루어서 형성되며, 전면 구현 영역(11a)은 커버 패널(CP) 상에 그래픽화 되어 나타나는 것이 바람직하다. 3, the
위치 추출 모듈(12b)은 인식 모듈(12a)에 의한 동시 입력으로 분석시 선택 입력된 제어 대상 객체(아이콘)의 위치 정보 좌표를 추출하여 추출된 위치 정보로부터 미리 설정된 영역 내의 백라이트(13a)를 점등함으로써, 사용자에게 터치 입력을 인식시킨다.The position extraction module 12b extracts the positional information coordinates of the control object (icon) selected and input during the simultaneous input by the
프로세스 처리 모듈(12c)은 위치 추출 모듈(12b)에 의해 추출된 위치 정보 좌표와 매칭되는 제어 명령을 생성한다. 이를 위해 프로세스 처리 모듈(12c)은 시스템 메모리을 구비하며, 시스템 메모리는 비휘발성 메모리(Non-volatile memory, NVM)로써 전원이 공급되지 않아도 저장된 데이터를 계속 유지하며 삭제되지 않으며, 플래시 메모리(Flash Memory), MRAM(Magnetic Random Access Memory), PRAM(Phase-change Random Access memory: 상변화 램), FRAM(Ferroelectric RAM: 강유전체 램) 등으로 구성될 수 있다.The
전송 처리 모듈(12d)은 프로세스 처리 모듈(12c)에 의해 생성된 제어 명령이 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기(10) 자체 처리 분류에 속하는 경우, 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기(10) 내부에서의 제어 명령을 수행한다. 한편, 전송 처리 모듈(12d)은 프로세스 처리 모듈(12c)에 의해 생성된 제어 명령이 다른 IoT 기기 또는 외부 디스플레이 기기에 대한 제어 분류에 속하는 경우, 다른 IoT 기기 또는 외부 디스플레이 기기에 대한 제어 명을 무선 안테나(ant)를 통해 제어 명령을 전송 제어한다. 여기서 전송 방식은 블루투스, 지그비, UWB, Binary CDMA 등 근거리 무선통신 방식일 수 있다.
도 4는 본 발명의 실시예에 따른 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기(10)를 이용한 듀얼 터치 인식 방법을 나타내는 흐름도이다. 도 4를 참조하면, 인식 모듈(12a)은 투명 또는 반투명 디스플레이(13)에 구현된 적어도 두 개 이상의 제어 대상 객체(아이콘) 중 하나에 대한 터치 입력을 수신 대기한다(S10).4 is a flowchart illustrating a dual-touch recognition method using a translucent or
단계(S10) 이후, 인식 모듈(12a)은 단계(S10)의 수신 대기에 따라 하나의 제어 대상 객체(아이콘)에 대한 전면 구현 영역(11a)과 후면 대응면 영역(11b)에 대한 미리 설정된 임계 시간 내로의 동시 입력 여부를 분석한다(S20).After the step S10, the
단계(S20) 이후, 위치 추출 모듈(12b)은 단계(S10)에서 인식 모듈(12a)에 의한 동시 입력으로 분석시 선택 입력된 제어 대상 객체(아이콘)의 위치 정보 좌표를 추출하여 추출된 위치 정보로부터 미리 설정된 영역 내의 백라이트(13a)를 점등함으로써, 사용자에게 터치 입력을 인식시킨다(S30).After the step S20, the position extraction module 12b extracts the position information coordinates of the control object (icon) selected and input during simultaneous input by the
단계(S30) 이후, 프로세스 처리 모듈(12c)은 단계(S30)에서 위치 추출 모듈(12b)에 의해 추출된 위치 정보 좌표와 매칭되는 제어 명령을 생성한다(S40).After step S30, the
단계(S40) 이후, 전송 처리 모듈(12d)은 단계(S40)에서 프로세스 처리 모듈(12c)에 의해 생성된 제어 명령이 다른 IoT 기기 또는 외부 디스플레이 기기에 대한 제어 명령인 경우 무선 안테나(ant)를 통해 제어 명령을 전송 제어한다(S50).After step S40, the
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.The present invention can also be embodied as computer-readable codes on a computer-readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored.
컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device and the like, and also implemented in the form of a carrier wave (for example, transmission over the Internet) .
또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의해 용이하게 추론될 수 있다.The computer readable recording medium may also be distributed over a networked computer system so that computer readable code can be stored and executed in a distributed manner. And functional programs, codes, and code segments for implementing the present invention can be easily inferred by programmers skilled in the art to which the present invention pertains.
이상과 같이, 본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.As described above, preferred embodiments of the present invention have been disclosed in the present specification and drawings, and although specific terms have been used, they have been used only in a general sense to easily describe the technical contents of the present invention and to facilitate understanding of the invention , And are not intended to limit the scope of the present invention. It is to be understood by those skilled in the art that other modifications based on the technical idea of the present invention are possible in addition to the embodiments disclosed herein.
10 : 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기
11 : 듀얼 터치 영역
11a : 전면 구현 영역
11b : 후면 대응면 영역
12 : 제어부
12a : 인식 모듈
12b : 위치 추출 모듈
12c : 프로세스 처리 모듈
12d : 전송 처리 모듈
13 : 투명 또는 반투명 디스플레이
13a : 백라이트
14 : 투명 또는 반투명 하우징
15 : 투명 패널10: Semi-transparent or transparent IoT devices based on dual touch recognition
11: Dual touch area
11a: Front Implementation Area
11b: rear surface area
12:
12a: recognition module
12b: Position extraction module
12c: Process processing module
12d: transmission processing module
13: Transparent or translucent display
13a: Backlight
14: transparent or translucent housing
15: Transparent panel
Claims (3)
투명 또는 반투명 디스플레이(13)에 구현된 적어도 두 개 이상의 제어 대상 객체(아이콘) 중 하나에 대한 터치 입력을 수신 대기한 뒤, 하나의 제어 대상 객체(아이콘)에 대한 전면 구현 영역(11a)과 후면 대응면 영역(11b)에 대한 미리 설정된 임계 시간 내로의 동시 입력 여부를 분석하는 인식 모듈(12a);
인식 모듈(12a)에 의한 동시 입력으로 분석시 선택 입력된 제어 대상 객체(아이콘)의 위치 정보 좌표를 추출하여 추출된 위치 정보로부터 미리 설정된 영역 내의 백라이트(13a)를 점등하여, 사용자에게 터치 입력을 인식시키는 위치 추출 모듈(12b); 및
위치 추출 모듈(12b)에 의해 추출된 위치 정보 좌표와 매칭되는 제어 명령을 생성하여 처리하는 프로세스 처리 모듈(12c); 을 포함하는 것을 특징으로 하는 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기.
The front surface area 11a is formed as an upper surface of the first touch panel TP1 and the rear surface area 11b is formed as a partial area of the second touch panel TP2, In a translucent or transparent IoT device (10) based on dual touch recognition having a structure that is graphically displayed on a cover panel (CP)
After receiving a touch input for one of at least two control objects (icons) embodied in the transparent or translucent display 13, the front implementation area 11a for one control object (icon) A recognition module (12a) for analyzing whether or not simultaneous input into the predetermined threshold time for the corresponding surface area (11b) is performed;
When the analysis module 12a performs simultaneous input, the position information coordinates of the selected control target object (icon) are extracted, and the backlight 13a in the predetermined area is lighted from the extracted position information. A position extraction module 12b for recognizing the position; And
A process processing module 12c for generating and processing a control command matched with the position information coordinates extracted by the position extraction module 12b; Wherein the first and second touches are based on a dual touch.
인식 모듈(12a)이 수신 대기에 따라 하나의 제어 대상 객체(아이콘)에 대한 전면 구현 영역(11a)과 후면 대응면 영역(11b)에 대한 미리 설정된 임계 시간 내로의 동시 입력 여부를 분석하는 제 2 단계;
위치 추출 모듈(12b)이 인식 모듈(12a)에 의한 동시 입력으로 분석시 선택 입력된 제어 대상 객체(아이콘)의 위치 정보 좌표를 추출하여 추출된 위치 정보로부터 미리 설정된 영역 내의 백라이트(13a)를 점등하여, 사용자에게 터치 입력을 인식시키는 제 3 단계; 및
프로세스 처리 모듈(12c)이 위치 추출 모듈(12b)에 의해 추출된 위치 정보 좌표와 매칭되는 제어 명령을 생성하여 처리하는 제 4 단계; 를 포함하는 것을 특징으로 하는 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기를 이용한 듀얼 터치 인식 방법.
A first step of the recognition module (12a) receiving a touch input for one of at least two control objects (icons) implemented in a transparent or translucent display (13);
The recognition module 12a analyzes the presence or absence of simultaneous entry of the front implementation area 11a and the rear surface area 11b within a preset threshold time for one control object (icon) step;
The position extraction module 12b extracts the positional information coordinates of the control object (icon) selected and input during simultaneous input by the recognition module 12a, and the backlight 13a in the predetermined area is lighted from the extracted positional information A third step of recognizing the touch input by the user; And
A fourth step of generating and processing a control command matching the position information coordinates extracted by the position extraction module 12b with the process processing module 12c; The dual touch recognition method according to claim 1, wherein the dual touch recognition is performed using a translucent or transparent IoT device based on a dual touch recognition.
전송 처리 모듈(12d)이 프로세스 처리 모듈(12c)에 의해 생성된 제어 명령이 다른 IoT 기기 또는 외부 디스플레이 기기에 대한 제어 명령인 경우 무선 안테나(ant)를 통해 제어 명령을 전송 제어하는 제 5 단계; 를 더 포함하는 것을 특징으로 하는 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기를 이용한 듀얼 터치 인식 방법.
3. The method of claim 2,
A fifth step of controlling transmission of the control command through the wireless antenna (ant) when the control command generated by the process processing module 12c is a control command for another IoT device or an external display device; The method of claim 1 or 2, further comprising the steps of:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160056170A KR20170126146A (en) | 2016-05-09 | 2016-05-09 | Transparent or translucent type Internet of Things device based on dual touch sensing, and dual touch recognition method using the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160056170A KR20170126146A (en) | 2016-05-09 | 2016-05-09 | Transparent or translucent type Internet of Things device based on dual touch sensing, and dual touch recognition method using the same |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20170126146A true KR20170126146A (en) | 2017-11-17 |
Family
ID=60808451
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160056170A KR20170126146A (en) | 2016-05-09 | 2016-05-09 | Transparent or translucent type Internet of Things device based on dual touch sensing, and dual touch recognition method using the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20170126146A (en) |
-
2016
- 2016-05-09 KR KR1020160056170A patent/KR20170126146A/en not_active Application Discontinuation
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10185415B2 (en) | Configurable communication protocol for communication between a stylus device and a host device | |
US10437468B2 (en) | Electronic apparatus having touch pad and operating method of electronic apparatus | |
EP1456740B1 (en) | Using touchscreen by pointing means | |
US9760187B2 (en) | Stylus with active color display/select for touch sensitive devices | |
KR101766187B1 (en) | Method and apparatus for changing operating modes | |
AU2015314951B2 (en) | Inactive region for touch surface based on contextual information | |
US9785259B2 (en) | Stylus-based slider functionality for UI control of computing device | |
US20160018911A1 (en) | Touch pen | |
US9507521B2 (en) | Input apparatus, input mode switching method and computer apparatus | |
CN102272699B (en) | gesture detection zones | |
US20120268411A1 (en) | Multi-modal capacitive touchscreen interface | |
JP2013524311A (en) | Apparatus and method for proximity based input | |
CN102246126A (en) | Gesture based edit mode | |
US9658703B2 (en) | Method and apparatus for operating mobile terminal | |
US10936184B2 (en) | Display apparatus and controlling method thereof | |
CN110874117A (en) | Method for operating handheld device, and computer-readable recording medium | |
US20180067580A1 (en) | Method for interacting with an electronic and/or computer device implementing a capacitive control surface and a peripheral surface, interface and device implementing this method | |
US20160231835A1 (en) | Touch Control Method and Electronic Device | |
CN104252263B (en) | Electronic equipment and its touch-sensing method | |
US20230409163A1 (en) | Input terminal device and operation input method | |
CN106557175A (en) | Character input method and electronic equipment | |
WO2024032470A9 (en) | Use method and apparatus based on stylus | |
JP2004030329A (en) | Stylus ui system and stylus | |
US11216121B2 (en) | Smart touch pad device | |
KR20170126146A (en) | Transparent or translucent type Internet of Things device based on dual touch sensing, and dual touch recognition method using the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |