KR20170126146A - Transparent or translucent type Internet of Things device based on dual touch sensing, and dual touch recognition method using the same - Google Patents

Transparent or translucent type Internet of Things device based on dual touch sensing, and dual touch recognition method using the same Download PDF

Info

Publication number
KR20170126146A
KR20170126146A KR1020160056170A KR20160056170A KR20170126146A KR 20170126146 A KR20170126146 A KR 20170126146A KR 1020160056170 A KR1020160056170 A KR 1020160056170A KR 20160056170 A KR20160056170 A KR 20160056170A KR 20170126146 A KR20170126146 A KR 20170126146A
Authority
KR
South Korea
Prior art keywords
transparent
module
touch
translucent
dual
Prior art date
Application number
KR1020160056170A
Other languages
Korean (ko)
Inventor
옥물결
Original Assignee
옥물결
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 옥물결 filed Critical 옥물결
Priority to KR1020160056170A priority Critical patent/KR20170126146A/en
Publication of KR20170126146A publication Critical patent/KR20170126146A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • H04L67/125Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks involving control of end-device applications over a network
    • H04L67/16
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/51Discovery or management thereof, e.g. service location protocol [SLP] or web services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention relates to a transparent or translucent type Internet of Things (IoT) device based on dual touch sensing, and a dual touch recognition method using the same. According to the present invention, the IoT device comprises: a recognition module (12a) receiving a touch input for one among two or more control target objects (icons) implemented on a transparent or translucent display (13), and then analyzing whether or not a simultaneous input for a front implementation region (11) for the one control target object (icon) and a rear corresponding surface region (11b) occurs within a predetermined threshold time; a location extraction module (12b) extracting location information coordinates of the selected and inputted control target object (icon) to turn on a backlight (13a) within a predetermined region from extracted location information to make a user recognize the touch input; and a process processing module (12c) to generate and process a control command matched to the extracted location information coordinates. According to the present invention, the control command is operated only when two fingers are simultaneously touched to prevent an incorrect or unnecessary operation; thereby providing an effect capable of being used in a general IoT device and a display device connected to the same in a wireless mode.

Description

듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기, 그리고 이를 이용한 듀얼 터치 인식 방법{Transparent or translucent type Internet of Things device based on dual touch sensing, and dual touch recognition method using the same} [0001] The present invention relates to a translucent or translucent IoT device based on a dual touch recognition, and a dual touch recognition method using the same,

본 발명은 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기, 그리고 이를 이용한 듀얼 터치 인식 방법에 관한 것으로, 보다 구체적으로는, 종래의 한쪽 면만을 터치하는 경우, 작동이 되는 투명 IoT 기기에 있어서 오작동이나 불필요한 작동을 방지하기 위해 손가락 두 개가 동시에 터치 되어야만 제어 명령을 구동하도록 하여 전반적인 IoT 기기나 이와 무선 방식으로 연결된 디스플레이 기기 등에서 활용하도록 하기 위한 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기, 그리고 이를 이용한 듀얼 터치 인식 방법에 관한 것이다. The present invention relates to a semi-transparent or transparent IoT device based on a dual touch recognition, and a dual-touch recognition method using the same. More particularly, the present invention relates to a translucent or transparent IoT device, A dual touch recognition based translucent or transparent IoT device for driving a control command only when two fingers are touched at the same time so as to be used in an overall IoT device or a wirelessly connected display device, ≪ / RTI >

종래의 투명 또는 반투명 재질로 형성되는 IoT 기기에서는 주로 한쪽 면만을 터차하도록 함으로써, 주머니나 이동시 의도치 않게 작동하는 불편함이 있었다.In conventional IoT devices formed of transparent or translucent materials, there is an inconvenience in that it is unintentionally operated when a bag or a portable device is moved.

즉, 압전식 터치패널을 사용할 경우 의도치 않는 외부 압력에 의하거나 정전식 터치패널을 사용할 경우 겨울철과 같이 정전기가 잘 발생하는 경우에 외부의 객체의 접촉에 의해 의도치 않는 입력이 발생할 수 있는 한계점이 있어 왔다.In other words, when a piezoelectric touch panel is used, when an unintentional external pressure or an electrostatic touch panel is used, when a static electricity is generated as in winter, Has come.

대한민국 특허출원 출원번호 제10-2012-7028992호 "투명인쇄회로 제조방법 및 투명터치패널 제조방법"Korean patent application No. 10-2012-7028992 "Transparent printed circuit manufacturing method and transparent touch panel manufacturing method" 대한민국 특허공개공보 공개번호 제10-2001-0030578호 " 투명터치패널용 투명도전막과 해당 투명도전막을 사용하는 투명터치패널 및 투명도전막의 제조방법"Korean Patent Laid-Open Publication No. 10-2001-0030578 entitled "Transparent Coating Film for Transparent Touch Panel and Method for Producing Transparent Coating Film and Transparent Coating Film Using the Transparent Conductive Film"

본 발명은 상기의 문제점을 해결하기 위한 것으로, 종래의 한쪽 면만을 터치하는 경우, 작동이 되는 투명 IoT 기기에 있어서 오작동이나 불필요한 작동을 방지하기 위해 손가락 두 개가 동시에 터치 되어야만 제어 명령을 구동하도록 하여 전반적인 IoT 기기나 이와 무선 방식으로 연결된 디스플레이 기기 등에서 활용하도록 하기 위한 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기, 그리고 이를 이용한 듀얼 터치 인식 방법을 제공하기 위한 것이다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and it is an object of the present invention to provide a transparent IoT device, A dual touch recognition based translucent or transparent IoT device for use in an IoT device or a display device connected thereto in a wireless manner, and a dual touch recognition method using the same.

그러나 본 발명의 목적들은 상기에 언급된 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.However, the objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned can be clearly understood by those skilled in the art from the following description.

상기의 목적을 달성하기 위해 본 발명의 실시예에 따른 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기는, 전면 구현 영역(11a)이 제 1 터치패널(TP1)의 상부면으로 구현되며, 후면 대응면 영역(11b)은 제 2 터치패널(TP2)의 일부 영역을 이루어서 형성되며, 전면 구현 영역(11a)은 커버 패널(CP) 상에 그래픽화 되어 나타나는 구조를 갖는 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기(10)에 있어서, 투명 또는 반투명 디스플레이(13)에 구현된 적어도 두 개 이상의 제어 대상 객체(아이콘) 중 하나에 대한 터치 입력을 수신 대기한 뒤, 하나의 제어 대상 객체(아이콘)에 대한 전면 구현 영역(11a)과 후면 대응면 영역(11b)에 대한 미리 설정된 임계 시간 내로의 동시 입력 여부를 분석하는 인식 모듈(12a); 인식 모듈(12a)에 의한 동시 입력으로 분석시 선택 입력된 제어 대상 객체(아이콘)의 위치 정보 좌표를 추출하여 추출된 위치 정보로부터 미리 설정된 영역 내의 백라이트(13a)를 점등하여, 사용자에게 터치 입력을 인식시키는 위치 추출 모듈(12b); 및 위치 추출 모듈(12b)에 의해 추출된 위치 정보 좌표와 매칭되는 제어 명령을 생성하여 처리하는 프로세스 처리 모듈(12c); 을 포함하는 것을 특징으로 한다.In order to achieve the above object, the dual-touch recognition based translucent or transparent IoT device according to the embodiment of the present invention is characterized in that the front implementation area 11a is implemented as an upper surface of the first touch panel TP1, The area 11b is formed as a partial area of the second touch panel TP2 and the front area 11a is formed by a dual touch recognition based translucent or transparent IoT The apparatus 10 is configured to receive a touch input for one of at least two control objects (icons) implemented in the transparent or semitransparent display 13, A recognition module (12a) for analyzing whether simultaneous input into the predetermined threshold time for the implementation area (11a) and the rear surface area (11b) is performed; When the analysis module 12a performs simultaneous input, the position information coordinates of the selected control target object (icon) are extracted, and the backlight 13a in the predetermined area is lighted from the extracted position information. A position extraction module 12b for recognizing the position; A process module 12c for generating and processing a control command matched with the position information coordinates extracted by the position extraction module 12b; And a control unit.

상기의 목적을 달성하기 위해 본 발명의 실시예에 따른 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기를 이용한 듀얼 터치 인식 방법은, 인식 모듈(12a)이 투명 또는 반투명 디스플레이(13)에 구현된 적어도 두 개 이상의 제어 대상 객체(아이콘) 중 하나에 대한 터치 입력을 수신 대기하는 제 1 단계; 인식 모듈(12a)이 수신 대기에 따라 하나의 제어 대상 객체(아이콘)에 대한 전면 구현 영역(11a)과 후면 대응면 영역(11b)에 대한 미리 설정된 임계 시간 내로의 동시 입력 여부를 분석하는 제 2 단계; 위치 추출 모듈(12b)이 인식 모듈(12a)에 의한 동시 입력으로 분석시 선택 입력된 제어 대상 객체(아이콘)의 위치 정보 좌표를 추출하여 추출된 위치 정보로부터 미리 설정된 영역 내의 백라이트(13a)를 점등하여, 사용자에게 터치 입력을 인식시키는 제 3 단계; 및 프로세스 처리 모듈(12c)이 위치 추출 모듈(12b)에 의해 추출된 위치 정보 좌표와 매칭되는 제어 명령을 생성하여 처리하는 제 4 단계; 를 포함하는 것을 특징으로 한다.In order to achieve the above object, a dual touch recognition method using a translucent or transparent IoT device based on a dual touch recognition according to an embodiment of the present invention is characterized in that the recognition module 12a includes at least two A first step of waiting for a touch input to one or more control target objects (icons); The recognition module 12a analyzes the presence or absence of simultaneous entry of the front implementation area 11a and the rear surface area 11b within a preset threshold time for one control object (icon) step; The position extraction module 12b extracts the positional information coordinates of the control object (icon) selected and input during simultaneous input by the recognition module 12a, and the backlight 13a in the predetermined area is lighted from the extracted positional information A third step of recognizing the touch input by the user; And a fourth step of generating and processing a control command matching the position information coordinates extracted by the position extraction module 12b with the process processing module 12c; And a control unit.

이때, 상기 제 4 단계 이후, 전송 처리 모듈(12d)이 프로세스 처리 모듈(12c)에 의해 생성된 제어 명령이 다른 IoT 기기 또는 외부 디스플레이 기기에 대한 제어 명령인 경우 무선 안테나(ant)를 통해 제어 명령을 전송 제어하는 제 5 단계; 를 더 포함하는 것을 특징으로 한다. If the control command generated by the process module 12c is a control command for another IoT device or an external display device after the fourth step, the transmission processing module 12d transmits a control command A fifth step of controlling transmission; And further comprising:

본 발명의 실시예에 따른 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기, 그리고 이를 이용한 듀얼 터치 인식 방법은, 종래의 한쪽 면만을 터치하는 경우, 작동이 되는 투명 IoT 기기에 있어서 오작동이나 불필요한 작동을 방지하기 위해 손가락 두 개가 동시에 터치 되어야만 제어 명령을 구동하도록 하여 전반적인 IoT 기기나 이와 무선 방식으로 연결된 디스플레이 기기 등에서 활용할 수 있는 효과를 제공한다.The dual-touch recognition-based translucent or transparent IoT device and the dual-touch recognition method using the same according to the embodiment of the present invention can prevent a malfunction or unnecessary operation in an operating transparent IoT device when a conventional single- It is necessary to touch both of the fingers at the same time so as to drive the control command so that it can be utilized in an overall IoT device or a display device connected thereto in a wireless manner.

도 1은 본 발명의 실시예에 따른 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기(10)의 외관을 나타내는 도면이다.
도 2는 도 1의 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기(10)의 구성요소를 나타내는 블록도이다.
도 3은 도 1의 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기(10) 중 전면 구현 영역(11a)과 후면 대응면 영역(11b)의 구조를 설명하기 위한 개념도이다.
도 4는 본 발명의 실시예에 따른 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기(10)를 이용한 듀얼 터치 인식 방법을 나타내는 흐름도이다.
FIG. 1 is a view showing the appearance of a dual-touch recognition based translucent or transparent IoT device 10 according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating the components of the dual-touch recognition based translucent or transparent IoT device 10 of FIG.
FIG. 3 is a conceptual diagram for explaining the structure of the front implementation area 11a and the rear operation area 11b of the dual-touch recognition based translucent or transparent IoT device 10 of FIG.
4 is a flowchart illustrating a dual-touch recognition method using a translucent or transparent IoT device 10 based on dual-touch recognition according to an exemplary embodiment of the present invention.

이하, 본 발명의 바람직한 실시예의 상세한 설명은 첨부된 도면들을 참조하여 설명할 것이다. 하기에서 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a detailed description of preferred embodiments of the present invention will be given with reference to the accompanying drawings. In the following description of the present invention, detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

본 명세서에 있어서는 어느 하나의 구성요소가 다른 구성요소로 데이터 또는 신호를 '전송'하는 경우에는 구성요소는 다른 구성요소로 직접 상기 데이터 또는 신호를 전송할 수 있고, 적어도 하나의 또 다른 구성요소를 통하여 데이터 또는 신호를 다른 구성요소로 전송할 수 있음을 의미한다.In the present specification, when any one element 'transmits' data or signals to another element, the element can transmit the data or signal directly to the other element, and through at least one other element Data or signal can be transmitted to another component.

도 1은 본 발명의 실시예에 따른 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기(10)의 외관을 나타내는 도면이다. 도 1을 참조하면, 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기(10)는 투명 또는 반투명 하우징(14)의 전면부를 형성하는 투명 또는 반투명 디스플레이(13)에 제어 대상 객체(아이콘)를 구현하는 전면 구현 영역(11a)을 구비한다. FIG. 1 is a view showing the appearance of a dual-touch recognition based translucent or transparent IoT device 10 according to an embodiment of the present invention. 1, a dual-touch recognition based translucent or transparent IoT device 10 includes a transparent or semi-transparent display 14 that forms a front surface of a transparent or semi-transparent housing 14, And an implementation area 11a.

다음으로, 도 2는 도 1의 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기(10)의 구성요소를 나타내는 블록도이다. Next, FIG. 2 is a block diagram illustrating the components of the dual-touch recognition based translucent or transparent IoT device 10 of FIG.

도 3은 도 1의 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기(10) 중 전면 구현 영역(11a)과 후면 대응면 영역(11b)의 구조를 설명하기 위한 개념도이다.FIG. 3 is a conceptual diagram for explaining the structure of the front implementation area 11a and the rear operation area 11b of the dual-touch recognition based translucent or transparent IoT device 10 of FIG.

먼저, 도 2를 참조하면, 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기(10)는 듀얼 터치 영역(11), 제어부(12), 투명 또는 반투명 디스플레이(13)를 포함한다. 그리고, 제어부(12)는 인식 모듈(12a), 위치 추출 모듈(12b), 프로세스 처리 모듈(12c), 전송 처리 모듈(12d)로 구분된다. 2, a dual-touch recognition based translucent or transparent IoT device 10 includes a dual touch area 11, a control unit 12, and a transparent or translucent display 13. The control unit 12 is divided into a recognition module 12a, a position extraction module 12b, a process module 12c, and a transfer module 12d.

인식 모듈(12a)은 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기(10)의 전원 온(ON)에 따라 투명 또는 반투명 디스플레이(13)에 적어도 두 개 이상의 제어 대상 객체(아이콘)을 구현한 뒤, 투명 또는 반투명 디스플레이(13)에 구현된 적어도 두 개 이상의 제어 대상 객체(아이콘) 중 하나에 대한 터치 입력을 수신 대기한다. The recognition module 12a implements at least two objects to be controlled (icons) on the transparent or semi-transparent display 13 according to the power ON of the translucent or transparent IoT device 10 based on the dual touch recognition, And receives a touch input for one of at least two control objects (icons) implemented in the transparent or semitransparent display 13.

여기서 투명 또는 반투명 디스플레이(13)는 백라이트(13a)를 구비하는 터치 입력 모듈과 디스플레이가 하나의 모듈 형태로 형성된 투명 또는 반투명의 터치 스크린으로 형성될 수 있다.Here, the transparent or translucent display 13 may be formed of a touch input module having a backlight 13a and a transparent or translucent touch screen in which the display is formed in the form of a module.

또한, 인식 모듈(12a)은 수신 대기에 따라 사용자에 의한 손가락, 터치 펜 등을 이용한 하나의 제어 대상 객체(아이콘)에 대한 전면 구현 영역(11a)과 후면 대응면 영역(11b)에 대한 미리 설정된 임계 시간 내로의 동시 입력 여부를 분석한다. 여기서 후면 대응면 영역(11b)은 투명 또는 반투명 디스플레이(13) 중 후면에 형성된 것으로, 하나의 제어 대상 객체(아이콘)를 중심으로 투명 또는 반투명 디스플레이(13)의 전면에 형성된 전면 구현 영역(11a)과 투명 패널(15)을 중심으로 맞닿도록 형성된다. In addition, the recognition module 12a sets the front implementation area 11a and the rear correspondence area 11b for a single control object (icon) using a finger, a touch pen, Analyze the simultaneous input into the critical time. Here, the rear surface area 11b is formed on the rear surface of the transparent or translucent display 13. The front surface area 11a formed on the front surface of the transparent or translucent display 13 around one control object (icon) And the transparent panel (15).

즉 도 3과 같이, 전면 구현 영역(11a)은 제 1 터치패널(TP1)의 상부면으로 구현되며, 후면 대응면 영역(11b)은 제 2 터치패널(TP2)의 일부 영역을 이루어서 형성되며, 전면 구현 영역(11a)은 커버 패널(CP) 상에 그래픽화 되어 나타나는 것이 바람직하다. 3, the front realization area 11a is formed as an upper surface of the first touch panel TP1, the rear surface area 11b is formed as a partial area of the second touch panel TP2, The front implementation area 11a preferably appears graphically on the cover panel CP.

위치 추출 모듈(12b)은 인식 모듈(12a)에 의한 동시 입력으로 분석시 선택 입력된 제어 대상 객체(아이콘)의 위치 정보 좌표를 추출하여 추출된 위치 정보로부터 미리 설정된 영역 내의 백라이트(13a)를 점등함으로써, 사용자에게 터치 입력을 인식시킨다.The position extraction module 12b extracts the positional information coordinates of the control object (icon) selected and input during the simultaneous input by the recognition module 12a, and the backlight 13a in the predetermined area is lighted from the extracted positional information Thereby allowing the user to recognize the touch input.

프로세스 처리 모듈(12c)은 위치 추출 모듈(12b)에 의해 추출된 위치 정보 좌표와 매칭되는 제어 명령을 생성한다. 이를 위해 프로세스 처리 모듈(12c)은 시스템 메모리을 구비하며, 시스템 메모리는 비휘발성 메모리(Non-volatile memory, NVM)로써 전원이 공급되지 않아도 저장된 데이터를 계속 유지하며 삭제되지 않으며, 플래시 메모리(Flash Memory), MRAM(Magnetic Random Access Memory), PRAM(Phase-change Random Access memory: 상변화 램), FRAM(Ferroelectric RAM: 강유전체 램) 등으로 구성될 수 있다.The process processing module 12c generates a control command matching with the position information coordinates extracted by the position extraction module 12b. To this end, the process module 12c includes a system memory. The system memory is a non-volatile memory (NVM) that does not lose power even if power is not supplied, , MRAM (Magnetic Random Access Memory), PRAM (Phase Change Random Access Memory), and FRAM (Ferroelectric RAM).

전송 처리 모듈(12d)은 프로세스 처리 모듈(12c)에 의해 생성된 제어 명령이 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기(10) 자체 처리 분류에 속하는 경우, 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기(10) 내부에서의 제어 명령을 수행한다. 한편, 전송 처리 모듈(12d)은 프로세스 처리 모듈(12c)에 의해 생성된 제어 명령이 다른 IoT 기기 또는 외부 디스플레이 기기에 대한 제어 분류에 속하는 경우, 다른 IoT 기기 또는 외부 디스플레이 기기에 대한 제어 명을 무선 안테나(ant)를 통해 제어 명령을 전송 제어한다. 여기서 전송 방식은 블루투스, 지그비, UWB, Binary CDMA 등 근거리 무선통신 방식일 수 있다. Transmission processing module 12d may be a dual touch aware based translucent or transparent IoT device 10 if the control command generated by process processing module 12c belongs to a dual touch aware based translucent or transparent IoT device 10 self- (10). On the other hand, when the control command generated by the process processing module 12c belongs to a control classification for another IoT device or an external display device, the transmission processing module 12d transmits a control name for another IoT device or an external display device to the wireless And transmits and receives a control command via the antenna ant. Here, the transmission scheme may be a short-range wireless communication scheme such as Bluetooth, ZigBee, UWB, or Binary CDMA.

도 4는 본 발명의 실시예에 따른 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기(10)를 이용한 듀얼 터치 인식 방법을 나타내는 흐름도이다. 도 4를 참조하면, 인식 모듈(12a)은 투명 또는 반투명 디스플레이(13)에 구현된 적어도 두 개 이상의 제어 대상 객체(아이콘) 중 하나에 대한 터치 입력을 수신 대기한다(S10).4 is a flowchart illustrating a dual-touch recognition method using a translucent or transparent IoT device 10 based on dual-touch recognition according to an exemplary embodiment of the present invention. Referring to FIG. 4, the recognition module 12a waits for a touch input to one of at least two control objects (icons) implemented in the transparent or translucent display 13 (S10).

단계(S10) 이후, 인식 모듈(12a)은 단계(S10)의 수신 대기에 따라 하나의 제어 대상 객체(아이콘)에 대한 전면 구현 영역(11a)과 후면 대응면 영역(11b)에 대한 미리 설정된 임계 시간 내로의 동시 입력 여부를 분석한다(S20).After the step S10, the recognition module 12a determines whether or not a predetermined threshold value is set for the front implementation area 11a and the rear surface area 11b for one control object (icon) It is analyzed whether or not simultaneous input into the time (S20).

단계(S20) 이후, 위치 추출 모듈(12b)은 단계(S10)에서 인식 모듈(12a)에 의한 동시 입력으로 분석시 선택 입력된 제어 대상 객체(아이콘)의 위치 정보 좌표를 추출하여 추출된 위치 정보로부터 미리 설정된 영역 내의 백라이트(13a)를 점등함으로써, 사용자에게 터치 입력을 인식시킨다(S30).After the step S20, the position extraction module 12b extracts the position information coordinates of the control object (icon) selected and input during simultaneous input by the recognition module 12a in step S10, The touch input is recognized by the user by turning on the backlight 13a in the preset area (S30).

단계(S30) 이후, 프로세스 처리 모듈(12c)은 단계(S30)에서 위치 추출 모듈(12b)에 의해 추출된 위치 정보 좌표와 매칭되는 제어 명령을 생성한다(S40).After step S30, the process processing module 12c generates a control command matched with the position information coordinates extracted by the position extraction module 12b in step S30 (S40).

단계(S40) 이후, 전송 처리 모듈(12d)은 단계(S40)에서 프로세스 처리 모듈(12c)에 의해 생성된 제어 명령이 다른 IoT 기기 또는 외부 디스플레이 기기에 대한 제어 명령인 경우 무선 안테나(ant)를 통해 제어 명령을 전송 제어한다(S50).After step S40, the transmission processing module 12d determines whether or not the control command generated by the process processing module 12c in step S40 is a control command for another IoT device or an external display device (S50).

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.The present invention can also be embodied as computer-readable codes on a computer-readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored.

컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device and the like, and also implemented in the form of a carrier wave (for example, transmission over the Internet) .

또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의해 용이하게 추론될 수 있다.The computer readable recording medium may also be distributed over a networked computer system so that computer readable code can be stored and executed in a distributed manner. And functional programs, codes, and code segments for implementing the present invention can be easily inferred by programmers skilled in the art to which the present invention pertains.

이상과 같이, 본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.As described above, preferred embodiments of the present invention have been disclosed in the present specification and drawings, and although specific terms have been used, they have been used only in a general sense to easily describe the technical contents of the present invention and to facilitate understanding of the invention , And are not intended to limit the scope of the present invention. It is to be understood by those skilled in the art that other modifications based on the technical idea of the present invention are possible in addition to the embodiments disclosed herein.

10 : 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기
11 : 듀얼 터치 영역
11a : 전면 구현 영역
11b : 후면 대응면 영역
12 : 제어부
12a : 인식 모듈
12b : 위치 추출 모듈
12c : 프로세스 처리 모듈
12d : 전송 처리 모듈
13 : 투명 또는 반투명 디스플레이
13a : 백라이트
14 : 투명 또는 반투명 하우징
15 : 투명 패널
10: Semi-transparent or transparent IoT devices based on dual touch recognition
11: Dual touch area
11a: Front Implementation Area
11b: rear surface area
12:
12a: recognition module
12b: Position extraction module
12c: Process processing module
12d: transmission processing module
13: Transparent or translucent display
13a: Backlight
14: transparent or translucent housing
15: Transparent panel

Claims (3)

전면 구현 영역(11a)이 제 1 터치패널(TP1)의 상부면으로 구현되며, 후면 대응면 영역(11b)은 제 2 터치패널(TP2)의 일부 영역을 이루어서 형성되며, 전면 구현 영역(11a)은 커버 패널(CP) 상에 그래픽화 되어 나타나는 구조를 갖는 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기(10)에 있어서,
투명 또는 반투명 디스플레이(13)에 구현된 적어도 두 개 이상의 제어 대상 객체(아이콘) 중 하나에 대한 터치 입력을 수신 대기한 뒤, 하나의 제어 대상 객체(아이콘)에 대한 전면 구현 영역(11a)과 후면 대응면 영역(11b)에 대한 미리 설정된 임계 시간 내로의 동시 입력 여부를 분석하는 인식 모듈(12a);
인식 모듈(12a)에 의한 동시 입력으로 분석시 선택 입력된 제어 대상 객체(아이콘)의 위치 정보 좌표를 추출하여 추출된 위치 정보로부터 미리 설정된 영역 내의 백라이트(13a)를 점등하여, 사용자에게 터치 입력을 인식시키는 위치 추출 모듈(12b); 및
위치 추출 모듈(12b)에 의해 추출된 위치 정보 좌표와 매칭되는 제어 명령을 생성하여 처리하는 프로세스 처리 모듈(12c); 을 포함하는 것을 특징으로 하는 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기.
The front surface area 11a is formed as an upper surface of the first touch panel TP1 and the rear surface area 11b is formed as a partial area of the second touch panel TP2, In a translucent or transparent IoT device (10) based on dual touch recognition having a structure that is graphically displayed on a cover panel (CP)
After receiving a touch input for one of at least two control objects (icons) embodied in the transparent or translucent display 13, the front implementation area 11a for one control object (icon) A recognition module (12a) for analyzing whether or not simultaneous input into the predetermined threshold time for the corresponding surface area (11b) is performed;
When the analysis module 12a performs simultaneous input, the position information coordinates of the selected control target object (icon) are extracted, and the backlight 13a in the predetermined area is lighted from the extracted position information. A position extraction module 12b for recognizing the position; And
A process processing module 12c for generating and processing a control command matched with the position information coordinates extracted by the position extraction module 12b; Wherein the first and second touches are based on a dual touch.
인식 모듈(12a)이 투명 또는 반투명 디스플레이(13)에 구현된 적어도 두 개 이상의 제어 대상 객체(아이콘) 중 하나에 대한 터치 입력을 수신 대기하는 제 1 단계;
인식 모듈(12a)이 수신 대기에 따라 하나의 제어 대상 객체(아이콘)에 대한 전면 구현 영역(11a)과 후면 대응면 영역(11b)에 대한 미리 설정된 임계 시간 내로의 동시 입력 여부를 분석하는 제 2 단계;
위치 추출 모듈(12b)이 인식 모듈(12a)에 의한 동시 입력으로 분석시 선택 입력된 제어 대상 객체(아이콘)의 위치 정보 좌표를 추출하여 추출된 위치 정보로부터 미리 설정된 영역 내의 백라이트(13a)를 점등하여, 사용자에게 터치 입력을 인식시키는 제 3 단계; 및
프로세스 처리 모듈(12c)이 위치 추출 모듈(12b)에 의해 추출된 위치 정보 좌표와 매칭되는 제어 명령을 생성하여 처리하는 제 4 단계; 를 포함하는 것을 특징으로 하는 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기를 이용한 듀얼 터치 인식 방법.
A first step of the recognition module (12a) receiving a touch input for one of at least two control objects (icons) implemented in a transparent or translucent display (13);
The recognition module 12a analyzes the presence or absence of simultaneous entry of the front implementation area 11a and the rear surface area 11b within a preset threshold time for one control object (icon) step;
The position extraction module 12b extracts the positional information coordinates of the control object (icon) selected and input during simultaneous input by the recognition module 12a, and the backlight 13a in the predetermined area is lighted from the extracted positional information A third step of recognizing the touch input by the user; And
A fourth step of generating and processing a control command matching the position information coordinates extracted by the position extraction module 12b with the process processing module 12c; The dual touch recognition method according to claim 1, wherein the dual touch recognition is performed using a translucent or transparent IoT device based on a dual touch recognition.
청구항 2에 있어서, 상기 제 4 단계 이후,
전송 처리 모듈(12d)이 프로세스 처리 모듈(12c)에 의해 생성된 제어 명령이 다른 IoT 기기 또는 외부 디스플레이 기기에 대한 제어 명령인 경우 무선 안테나(ant)를 통해 제어 명령을 전송 제어하는 제 5 단계; 를 더 포함하는 것을 특징으로 하는 듀얼 터치 인식 기반의 반투명 또는 투명 IoT 기기를 이용한 듀얼 터치 인식 방법.
3. The method of claim 2,
A fifth step of controlling transmission of the control command through the wireless antenna (ant) when the control command generated by the process processing module 12c is a control command for another IoT device or an external display device; The method of claim 1 or 2, further comprising the steps of:
KR1020160056170A 2016-05-09 2016-05-09 Transparent or translucent type Internet of Things device based on dual touch sensing, and dual touch recognition method using the same KR20170126146A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160056170A KR20170126146A (en) 2016-05-09 2016-05-09 Transparent or translucent type Internet of Things device based on dual touch sensing, and dual touch recognition method using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160056170A KR20170126146A (en) 2016-05-09 2016-05-09 Transparent or translucent type Internet of Things device based on dual touch sensing, and dual touch recognition method using the same

Publications (1)

Publication Number Publication Date
KR20170126146A true KR20170126146A (en) 2017-11-17

Family

ID=60808451

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160056170A KR20170126146A (en) 2016-05-09 2016-05-09 Transparent or translucent type Internet of Things device based on dual touch sensing, and dual touch recognition method using the same

Country Status (1)

Country Link
KR (1) KR20170126146A (en)

Similar Documents

Publication Publication Date Title
US10185415B2 (en) Configurable communication protocol for communication between a stylus device and a host device
US10437468B2 (en) Electronic apparatus having touch pad and operating method of electronic apparatus
EP1456740B1 (en) Using touchscreen by pointing means
US9760187B2 (en) Stylus with active color display/select for touch sensitive devices
KR101766187B1 (en) Method and apparatus for changing operating modes
AU2015314951B2 (en) Inactive region for touch surface based on contextual information
US9785259B2 (en) Stylus-based slider functionality for UI control of computing device
US20160018911A1 (en) Touch pen
US9507521B2 (en) Input apparatus, input mode switching method and computer apparatus
CN102272699B (en) gesture detection zones
US20120268411A1 (en) Multi-modal capacitive touchscreen interface
JP2013524311A (en) Apparatus and method for proximity based input
CN102246126A (en) Gesture based edit mode
US9658703B2 (en) Method and apparatus for operating mobile terminal
US10936184B2 (en) Display apparatus and controlling method thereof
CN110874117A (en) Method for operating handheld device, and computer-readable recording medium
US20180067580A1 (en) Method for interacting with an electronic and/or computer device implementing a capacitive control surface and a peripheral surface, interface and device implementing this method
US20160231835A1 (en) Touch Control Method and Electronic Device
CN104252263B (en) Electronic equipment and its touch-sensing method
US20230409163A1 (en) Input terminal device and operation input method
CN106557175A (en) Character input method and electronic equipment
WO2024032470A9 (en) Use method and apparatus based on stylus
JP2004030329A (en) Stylus ui system and stylus
US11216121B2 (en) Smart touch pad device
KR20170126146A (en) Transparent or translucent type Internet of Things device based on dual touch sensing, and dual touch recognition method using the same

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application