KR101627936B1 - The security input method and apparatus of voice control for display device - Google Patents
The security input method and apparatus of voice control for display device Download PDFInfo
- Publication number
- KR101627936B1 KR101627936B1 KR1020140145599A KR20140145599A KR101627936B1 KR 101627936 B1 KR101627936 B1 KR 101627936B1 KR 1020140145599 A KR1020140145599 A KR 1020140145599A KR 20140145599 A KR20140145599 A KR 20140145599A KR 101627936 B1 KR101627936 B1 KR 101627936B1
- Authority
- KR
- South Korea
- Prior art keywords
- unit
- voice
- input
- execution
- region
- Prior art date
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
음성인식 및 처리부가 구비된 영상표시 장치의 문자(이하 기호도 포함될 수 있음) 및 숫자 입력시 비밀번호(이하 노출 / 유출 시키지 않고자 하는 보안정보를 의미)의 노출 등의 문제를 해결하고 비밀번호의 변경 없이도 높은 보안성을 보장하면서 음성으로 손쉽게 보안입력을 하기 위해 안출된 방법 및 장치.(Hereinafter may be referred to as a symbol) of a video display device having a voice recognition and processing unit and a password (hereinafter, referred to as security information that is not to be exposed / leaked) A method and apparatus designed to facilitate secure input with voice while ensuring high security.
Description
본 발명은 음성인식 및 처리부가 구비된 영상표시 장치에서 문자(이하 기호도 포함될 수 있음) 및 숫자 입력시 비밀번호(이하 노출 / 유출 시키지 않고자 하는 보안정보를 의미)의 노출 등의 문제를 해결하고 비밀번호의 변경 없이도 높은 보안성을 보장하면서 음성으로 손쉽게 보안입력을 하기 위해 안출된 방법 및 장치에 관한 것으로, 은행의 ATM기계, 각종 다세대 주택, 사무실, 공장 및 기타 건물의 주 출입구(출입구 포함) 도어 잠금장치 및 기타 보안입력(특히, 앞으로 다가오는 IoT(Internet of things;사물인터넷) 시대에는 더욱 많은 사물을 네트워크로 연결해 정보를 공유할 것이고, 지금과는 다른 보안입력을 요구하는 시대가 도래할 것으로 판단된다.)을 요구하는 곳에 활용하여 사용자의 음성명령을 인식하여 보안입력(보안 입력시 보안내용의 유출이나 노출을 막는 것으로서, 후술되는 실시예에서 비밀번호‘1234’와 같은 정보를 사용자가 임의 노출하는 것을 원천적으로 막는 것은 아니다)을 이루기 위한 방법과 장치에 관한 것이다.The present invention solves the problem of exposure of letters (hereinafter may be referred to as symbols) and passwords (hereinafter referred to as " security information " (Including doorways) of bank ATM machines, various multi-family houses, offices, factories, and other buildings. The present invention relates to a method and an apparatus for easily inputting security by voice, Devices and other security inputs (especially in the coming days of IoT (Internet of things), we will share information by connecting more objects to the network, .) To recognize the voice command of the user and use the security input As to prevent the exposure, the present invention relates to information such as a password '1234' in the embodiment is described hereinafter a method and apparatus for achieving that are not inherently prevent a) the user to any exposure.
최근의 영상표시 장치가 점점 다기능화, 고도화됨에 따라, 영상표시장치를 제어하기 위한 다양한 입력 방법이 개발되어 왔다. 마우스, 키보드, 터치패드, 모션 센싱 리모콘, 터치스크린을 이용한 입력 방법 등이 개발되어 왔다. 2. Description of the Related Art As a recent image display device has become increasingly multifunctional and sophisticated, various input methods for controlling an image display device have been developed. A mouse, a keyboard, a touch pad, a motion sensing remote controller, and a touch screen input method have been developed.
특히, 다양한 입력 방법 중에서도 사용자가 더욱 손쉽게 영상표시 장치를 제어하기 위하여, 사용자의 음성을 인식하여 영상표시장치를 제어하는 음성인식 제어 방법이 각광을 받고 있으며 그 기술의 발전은 음소단위로 까지 확장되어 인식하는 등 기술의 발전은 음성인식률의 신뢰도를 향상시켜 왔으나 그 활용분야에는 다소 제한적인 상황이었다. 본원의 출원시점에서 선 출원되고 공개되지 않은 출원번호10-2014-0056992의 특징을 응용하여 보안입력을 이루기 위한 방법 및 장치를 제공한다.Particularly, among the various input methods, a voice recognition control method for controlling a video display device by recognizing a user's voice in order to control the video display device more easily by a user is highlighted, and the development of the technology is extended to a phonemic unit The recognition of the technology has improved the reliability of voice recognition rate, but its application was somewhat limited. A method and apparatus for achieving security input by applying the features of Application No. 10-2014-0056992 filed prior to the filing of the present application are provided.
본 발명은 상술한 음성인식의 활용분야를 제시한다. 종래의 보안입력장치는 지문인식, 홍채인식, 음성인식 등의 생체인식과, 비밀번호(문자, 숫자, 기호중 어느 한 종류, 혹은 두 가지 이상의 조합)입력 등을 이용하여 보안을 하고 있다. 지문인식, 홍채인식, 음성인식 등의 방법으로는 높은 보안성을 유지할 수 있을 것이나, 구현과 연구에 큰 비용이 소요될 것이다. 비밀번호를 입력하는 방법은 통상 물리적 키패드 및 터치스크린등을 통해 구현된다. 이 경우 은행의 ATM, 자가용 금고, 가정의 도어락 등에 물리적 키패드를 이용하는 데, 이 키패드에 실크스크린 방법으로 인쇄된 경우, 자주 사용되는 키는 그 인쇄가 벗겨질 수 있어 자주 사용하는 자리가 노출되어 비밀번호의 유출가능성이 높아지고, 최근 채택률이 높아져 가는 터치스크린 방식(영상표시장치)의 키패드도 지문 및 유분에 의해 스크린상에 자국이 남게 되고, 상술한 바와 마찬가지로 비밀번호의 유출가능성이 높아지게 된다. 이에 따라 사용자는 비밀번호를 자주 바꾸어야 하는 등 비밀번호의 노출위험성과 비밀번호 변경의 불편을 가지게 된다.The present invention proposes an application field of the above-described speech recognition. Conventional security input devices use biometrics such as fingerprint recognition, iris recognition, and voice recognition, and input using a password (any one of letters, numbers, symbols, and combinations of two or more). Fingerprint recognition, iris recognition, speech recognition, and other methods can maintain high security, but implementation and research will be costly. The method of inputting a password is usually implemented through a physical keypad and a touch screen. In this case, physical keypads are used for bank ATMs, private safes, and home door locks. When these keypads are printed on silk screen, frequently used keys can be peeled off, And the keypad of the touch screen type (video display device) in which the recent adoption rate is getting higher is left with a fingerprint and oil on the screen, and the likelihood of leakage of the password is increased as described above. As a result, the user has to change the password frequently, and the risk of the password being exposed and the password change are inconvenient.
음성인식부, 정보처리부, 메모리부, 디스플레이부 및 제어부를 포함하는 음성인식 및 처리부가 구비된 영상표시 장치의 음성인식을 이용한 보안입력 방법으로서,A security input method using speech recognition in an image display apparatus having a speech recognition and processing unit including a speech recognition unit, an information processing unit, a memory unit, a display unit, and a control unit,
상기 영상표시 장치의 디스플레이부를 통해 표시되는 화면 영역상에서 사용자가 발화한 음성명령을 이용해 상기 음성인식 및 처리부를 통해 입력신호를 발생시키고자 하는 실행영역 단위의 좌표를 검출하되,Detecting coordinates of a unit of an execution area to which an input signal is to be generated through the speech recognition and processing unit using a voice command uttered by a user on a screen area displayed through a display unit of the image display apparatus,
(a) 상기 정보처리부가 상기 디스플레이부를 가상의 실행영역 단위를 형성하여 구획하고, 상기 가상의 실행영역 단위 내에 각 영역별로 좌표를 부여하되, 가상의 실행영역 단위를 형성하여 구획시 입력창 실행표지 영역을 최소 하나이상의 영역으로 구획하는 단계;(a) the information processing unit forms and divides a virtual execution area unit of the display unit, and coordinates are given for each area within the virtual execution area unit, and a virtual execution area unit is formed, Dividing the region into at least one region;
(b) 상기 메모리부가 상기 실행영역 단위 내에 각 영역별로 부여된 좌표를 데이터베이스에 가상의 실행영역 단위내의 영역에 매칭되는 음성데이터와 할당하여 매핑(mapping)된 데이터베이스를 구축하되 각 좌표별로 할당되어 매핑(mapping)된 음성데이터의 명령어가 상기 디스플레이부에 현시되도록 구성하고, 상기 데이터베이스를 구축하는 음성데이터와 음성명령어의 데이터는 입력창 실행표지 영역 고유의 문자 혹은 숫자와 중복이 되지 않도록 하는 패턴을 부여하는 알고리즘(Algorithm)을 포함하는 단계;(b) The memory unit assigns coordinates assigned to each area within the execution area unit to voice data to be matched to an area in a virtual execution area unit in a database, and constructs a database mapped to each area, and the voice data and the voice command data for constructing the database are assigned a pattern such that they do not overlap with letters or numbers unique to the input window execution marker area (Algorithm);
(c) 상기 음성인식부가 사용자의 음성을 수신하여 상기 데이터베이스에서 매칭되는 음성데이터를 검색하여, 매칭되는 음성데이터가 있는지를 정보처리부에서 판별하는 단계;(c) receiving the voice of the user by the voice recognition unit, searching for voice data matched in the database, and discriminating from the information processing unit whether there is voice data to be matched;
(d) 상기 정보처리부에서 상기 사용자의 음성과 상기 데이터베이스에서 매칭되는 음성데이터가 있는 경우 해당되는 음성데이터에 매핑(mapping)된 실행영역 단위내의 영역에 해당되는 좌표를 검출하는 단계;(d) detecting coordinates corresponding to an area in the execution area unit mapped to the voice data when the voice processing unit matches the voice of the user with the voice data in the database;
를 포함하며 검출된 좌표에 제어부에서 입력/실행 신호를 발생하여 보안입력이 이루어지되, 상기 (a) 및 (b)단계는, 새로운 화면 입력마다 갱신되어 실행될 수 있고, 사용된 패턴은 사용되지 않은 패턴이 사용되기 전에 다시 사용될 수 없는 것을 특징으로 하는 영상표시 장치의 음성제어를 이용한 보안 입력 방법 및 장치를 통해 달성된다.And a security input is performed by generating an input / execution signal in a control unit in the detected coordinates. The steps (a) and (b) may be executed every time a new screen is input, The pattern can not be used again before it is used. The present invention also provides a method and apparatus for security input using voice control of a video display device.
본 발명은 사용자가 영상표시 장치상에 가상의 실행영역 단위로 분할하여 나누어진 영역에 표시되는, 짧은 단어 단위의 음성명령어를 발화하는 것을 통해 영상표시 장치에 보안입력을 하기 위한 방법으로서, 사용자의 발화내용을 통해 실제 입력되는 내용의 노출 및 유출이 없도록 하고, 이를 통해 비밀번호 등의 잦은 변경을 피하게 하고, 고효율의 보안성을 부여하는 효과가 있다.The present invention provides a method for making a security input to a video display device by speaking a voice command in units of a short word, which is displayed on a divided area of a virtual execution area on a video display device by a user, It is possible to prevent exposure and leakage of the actual input contents through the contents of the utterance, thereby avoiding frequent changes of the password and the like, and giving high efficiency of security.
또한, 후술될 제 1기기와 제 2기기간의 양방향 무선 통신이 개시되고 연결되어, 제 1 및 2기기간의 고유 ID등의 정보도 교환하고, 상기 정보를 이용하여 출입시스템의 보안입력장치에 적용한다면 보안입력시 연결 시점을 기준으로 입실시간, 퇴실시간 및 출입자의 정보를 획득할 수 있어 보안시스템에의 활용 또한 가능한 효과가 있다.When bi-directional wireless communication between a first device and a second device to be described later is started and connected to exchange information of a unique ID and the like between the first and second devices and is applied to the security input device of the access system using the information It is also possible to utilize it in the security system because it can acquire real time, exit time, and information of the passengers based on the connection point in security input.
[도면(1)] 본 발명의 실행과정을 보여주는 순서도
[도면(2)]내지 [도면(8)]는 본 발명에 따른 실시예에 있어 스마트폰 화면 변경을 보여주는 과정별 화면변화를 보여주는 도면
[도면(9)]본 발명에 따른 실시예에 있어 도면(3), 도면(4), 도면(6), 도면(7)의 과정에서 데이터베이스에 매핑(mapping)하는 개념도
[도면(10)] 도면(2)내지 도면(8)과의 다른 실시예에 있어서 스마트폰 화면으로 전화모드 홈화면
[도면(11)]도면(10)의 스마트폰 화면에서 상단 및 하단의 메뉴부분만 별도로 구역설정하는 개념도
[도면(12)]도면(10)의 스마트폰 화면에서 중앙하부의 다이얼만 별도로 구역설정하는 개념도
[도면(13)도면(11)의 설정된 고유좌표에 매핑(mapping)될 데이터베이스의 개념도
[도면(14)]도면(12)의 설정된 고유좌표에 매핑(mapping)될 데이터베이스의 개념도
[도면(15)]영상표시 장치 상에 표시되는 숫자 키패드
[도면(16)]도면(15)의 입력창 실행표지 영역(101)을 따로 4개의 영역으로 실행영역 단위 구획하는 개념도
[도면(17)]도면(15)에 대응 설정되는 고유좌표에 매핑(mappimg)될 데이터베이스의 개념도
[도면(18)]제 1기기와 제 2기기 간의 양방향 무선통신 관계도[Drawing (1)] A flowchart showing an execution process of the present invention
[Drawings (2)] to [Figure (8)] are diagrams showing screen-specific screen changes showing smartphone screen changes in the embodiment of the present invention
9 is a conceptual diagram for mapping to a database in the process of FIG. 3, FIG. 4, FIG. 6, and FIG. 7 in the embodiment of the present invention.
[Drawing (10)] In another embodiment of the drawings (2) to (8), a phone mode screen
[Drawings (11)] A conceptual diagram in which only the upper and lower menu portions of the smartphone screen of the drawing (10)
[Drawings (12)] A conceptual diagram separately setting dials in the center lower portion of the smartphone screen of the drawing (10)
[13] A conceptual diagram of the database to be mapped to the set unique coordinate in the drawing (11)
[Figure 14] A conceptual diagram of a database to be mapped to the set unique coordinates in the drawing (12)
[Drawing (15)] A numeric keypad
(16) A conceptual diagram partitioning the input window
[Figure 17] A conceptual diagram of a database to be mapped to a unique coordinate set corresponding to the drawing (15)
[18] The bidirectional wireless communication relationship between the first device and the second device
본 발명의 여러 실시예들을 상세히 설명하기 전에, 다음의 상세한 설명에 기재되거나 도면에 도시된 구성요소들의 구성 및 배열들의 상세로 그 응용이 제한되는 것이 아니라는 것을 알 수 있을 것이다. 본 발명은 다른 실시예들로 구현되고 실시될 수 있고 다양한 방법으로 수행될 수 있다. 또, 장치 또는 요소 방향(예를 들어 "전(front)", "후(back)", "위(up)", "아래(down)", "상(top)", "하(bottom)", "좌(left)", "우(right)", "횡(lateral)")등과 같은 용어들에 관하여 본원에 사용된 표현 및 술어는 단지 본 발명의 설명을 단순화하기 위해 사용되고, 관련된 장치 또는 요소가 단순히 특정 방향을 가져야 함을 나타내거나 의미하지 않는다는 것을 알 수 있을 것이다. 또한, "제 1(first)", "제 2(second)"와 같은 용어는 설명을 위해 본원 및 첨부 청구항들에 사용되고 상대적인 중요성 또는 취지를 나타내거나 의미하는 것으로 의도되지 않는다.Before describing in detail several embodiments of the invention, it will be appreciated that the application is not limited to the details of construction and arrangement of components set forth in the following detailed description or illustrated in the drawings. The invention may be embodied and carried out in other embodiments and carried out in various ways. It should also be noted that the device or element orientation (e.g., "front," "back," "up," "down," "top," "bottom, Expressions and predicates used herein for terms such as "left," " right, "" lateral," and the like are used merely to simplify the description of the present invention, Or that the element has to have a particular orientation. Also, terms such as " first "and" second "are used herein for the purpose of the description and the appended claims, and are not intended to indicate or imply their relative importance or purpose.
본 발명은 상기의 목적을 달성하기 위해 아래의 특징을 갖는다.The present invention has the following features in order to achieve the above object.
이하 첨부된 도면을 참조로 본 발명의 바람직한 실시예를 상세히 설명하도록 한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to the preferred embodiments of the present invention, examples of which are illustrated in the accompanying drawings. Prior to this, terms and words used in the present specification and claims should not be construed as limited to ordinary or dictionary terms, and the inventor should appropriately interpret the concepts of the terms appropriately It should be construed in accordance with the meaning and concept consistent with the technical idea of the present invention based on the principle that it can be defined.
따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다.Therefore, the embodiments described in this specification and the configurations shown in the drawings are merely the most preferred embodiments of the present invention and do not represent all the technical ideas of the present invention. Therefore, It is to be understood that equivalents and modifications are possible.
본 발명은 다음의 특징을 갖는다.The present invention has the following features.
음성인식부, 정보처리부, 메모리부, 디스플레이부 및 제어부를 포함하는 음성인식 및 처리부가 구비된 영상표시 장치의 음성인식을 이용한 보안입력 방법으로서,A security input method using speech recognition in an image display apparatus having a speech recognition and processing unit including a speech recognition unit, an information processing unit, a memory unit, a display unit, and a control unit,
상기 영상표시 장치의 디스플레이부를 통해 표시되는 화면 영역상에서 사용자가 발화한 음성명령을 이용해 상기 음성인식 및 처리부를 통해 입력신호를 발생시키고자 하는 실행영역 단위의 좌표를 검출하되,Detecting coordinates of a unit of an execution area to which an input signal is to be generated through the speech recognition and processing unit using a voice command uttered by a user on a screen area displayed through a display unit of the image display apparatus,
(a) 상기 정보처리부가 상기 디스플레이부를 가상의 실행영역 단위를 형성하여 구획하고, 상기 가상의 실행영역 단위 내에 각 영역별로 좌표를 부여하되, 가상의 실행영역 단위를 형성하여 구획시 입력창 실행표지 영역을 최소 하나이상의 영역으로 구획하는 단계;(a) the information processing unit forms and divides a virtual execution area unit of the display unit, and coordinates are given for each area within the virtual execution area unit, and a virtual execution area unit is formed, Dividing the region into at least one region;
(b) 상기 메모리부가 상기 실행영역 단위 내에 각 영역별로 부여된 좌표를 데이터베이스에 가상의 실행영역 단위내의 영역에 매칭되는 음성데이터와 할당하여 매핑(mapping)된 데이터베이스를 구축하되 각 좌표별로 할당되어 매핑(mapping)된 음성데이터의 명령어가 상기 디스플레이부에 현시되도록 구성하고, 상기 데이터베이스를 구축하는 음성데이터와 음성명령어의 데이터는 입력창 실행표지 영역 고유의 문자 혹은 숫자와 중복이 되지 않도록 하는 패턴을 부여하며, 문자 및 숫자 중 어느 하나 혹은 문자 및 숫자의 조합으로서 최소 하나이상의 자릿수로 구성하는 알고리즘(Algorithm);을 포함하는 단계;(b) The memory unit assigns coordinates assigned to each area within the execution area unit to voice data to be matched to an area in a virtual execution area unit in a database, and constructs a database mapped to each area, and the voice data and the voice command data for constructing the database are assigned a pattern such that they do not overlap with letters or numbers unique to the input window execution marker area And comprising at least one digit as a combination of letters and numbers or a combination of letters and numbers;
(c) 상기 음성인식부가 사용자의 음성을 수신하여 상기 데이터베이스에서 매칭되는 음성데이터를 검색하여, 매칭되는 음성데이터가 있는지를 정보처리부에서 판별하는 단계;(c) receiving the voice of the user by the voice recognition unit, searching for voice data matched in the database, and discriminating from the information processing unit whether there is voice data to be matched;
(d) 상기 정보처리부에서 상기 사용자의 음성과 상기 데이터베이스에서 매칭되는 음성데이터가 있는 경우 해당되는 음성데이터에 매핑(mapping)된 실행영역 단위내의 영역에 해당되는 좌표를 검출하는 단계;(d) detecting coordinates corresponding to an area in the execution area unit mapped to the voice data when the voice processing unit matches the voice of the user with the voice data in the database;
를 포함하며 검출된 좌표에 제어부에서 입력/실행 신호를 발생하여 보안입력이 이루어지되, 상기 (a) 및 (b)단계는, 새로운 화면 입력마다 갱신되어 실행될 수 있고, 사용된 패턴은 사용되지 않은 패턴이 사용되기 전에 다시 사용될 수 없는 것을 특징으로 하는 영상표시 장치의 음성제어를 이용한 보안 입력 방법이다. And a security input is performed by generating an input / execution signal in a control unit in the detected coordinates. The steps (a) and (b) may be executed every time a new screen is input, The pattern can not be used again before it is used.
이를 위한 영상표시 장치의 음성제어를 이용한 보안 입력 장치는 다음의 특징을 갖는다.The security input device using the voice control of the video display device has the following features.
음성인식부, 정보처리부, 메모리부, 디스플레이부 및 제어부를 포함하는 음성인식 및 처리부가 구비된 음성제어가 가능한 영상표시 장치로서,A video display device capable of voice control comprising a voice recognition and processing section including a voice recognition section, an information processing section, a memory section, a display section, and a control section,
상기 디스플레이부를 통해 표시되는 화면상의 실행영역 단위별로 음성데이터와 할당되어 매핑(mapping)된 데이터베이스가 저장된 메모리부;A memory unit for storing a database mapped with voice data in units of execution regions on the screen displayed through the display unit;
사용자의 음성명령어를 수신하는 음성인식부;A voice recognition unit for receiving a voice command of a user;
상기 음성인식부가 사용자의 음성명령을 수신한 경우 상기 데이터베이스를 검색하여, 상기 사용자의 음성명령어와 대응되는 음성데이터가 존재하는지 판단하는 정보처리부;An information processing unit for searching the database when the voice recognition unit receives a voice command of the user and determining whether voice data corresponding to the voice command of the user exists;
및, 상기 정보처리부의 판단 결과, 상기 사용자의 음성명령어와 대응되는 음성데이터가 존재하는 경우 해당 음성데이터가 할당된 실행영역 단위에 입력 / 실행 신호를 발생시키는 제어부; 를 포함하여 구성된 것을 특징으로 한다.And a control unit for generating an input / execution signal in units of execution regions to which the corresponding voice data is assigned when voice data corresponding to the user voice command exists as a result of the determination by the information processing unit; And a control unit.
상술된 ‘실행영역 단위’는 터치스크린 상에 터치입력 할 때, 터치스크린과 터치수단(예를 들면, 스타일러스 펜, 손 및 기타)이 접촉하는 접촉면에 해당하는 개념으로서, 화면상에 입력신호와 실행신호가 발생되는 범위를 규정하는 요소이고, 화면마다 그 크기와 수가 다를 수 있고, 원형, 사각형, 삼각형, 별 모양, 벌집모양 등 모양이 다양하게 설정될 수 있고, 배열 또한 여러 패턴을 가질 수 있는 가변적인 개념(미도시)이다. (공지 기술이기 때문에 자세한 설명은 생략하나, 화면은 수많은 pixel로 구성되며, 상기 ‘실행영역 단위’는 이러한 pixel들의 범위를 규정할 요소이다.)The 'execution area unit' described above is a concept corresponding to a contact surface in which a touch screen and a touch means (for example, a stylus pen, a hand, and the like) make contact when touching the touch screen, It is a factor that defines the range in which the execution signal is generated. The size and the number of each screen may be different, and shapes such as circle, square, triangle, star, and honeycomb may be variously set. (Not shown). (Since it is a publicly known technology, a detailed description is omitted, but the screen is made up of a number of pixels, and the 'execution area unit' is an element that defines the range of these pixels.)
상술된 ‘좌표’는 상기 ‘실행영역 단위’의 좌표이고, 화면상의 위치 정보로서, 좌표 그 자체에 어떠한 제어명령을 포함하거나 매칭시키진 않는다.The 'coordinates' described above are the coordinates of the 'execution area unit', and do not include or match any control command in the coordinates itself as position information on the screen.
상술된 ‘음성 명령어’는 사용자가 말을 하는 발화 내용이며, 화면상에 표시되도록 구성되고, 상기 데이터 베이스 내에 저장되는 ‘음성 데이터’와 비교되어질 대상이다.The above-described 'voice command' is the utterance content to be spoken by the user, and is configured to be displayed on the screen, and is an object to be compared with 'voice data' stored in the database.
상술된 ‘음성 데이터’는 사용자가 발화한 ‘음성 명령어’의 신호 분석 데이터와 비교될 대상으로서, 사용자의 발화를 통해 실행영역 단위의 좌표를 찾는 데에만 이용된다.The above-described 'voice data' is an object to be compared with the signal analysis data of the 'voice command word' uttered by the user, and is used only for finding the coordinates of the execution region unit through user's utterance.
상술된 ‘입력창 실행표지 영역’은 숫자 키패드, 가상 키보드 등이 실행될 때 식별을 위한 사각형 영역과 같은 GUI구성단위(일종의 GUI 레이아웃 개념)에 해당되고, (예를 들면, 도 10의 숫자 ‘1’ 키패드 영역 ; 숫자 1과 사각형 영역을 의미) 본 출원 발명과 관계없이 기 설정되고, 실행되는 프로그램과 관련된다.The 'input window execution cover area' corresponds to a GUI construction unit (a kind of GUI layout concept) such as a rectangular area for identification when a numeric keypad, a virtual keyboard or the like is executed (for example, Quot; keypad area "; " numeral 1 " and " rectangular area ").
상술된 ‘가상의 실행영역 단위를 형성하여 구획시 입력창 실행표지 영역을 최소 하나이상의 영역으로 구획’에서 최소의 경우인 하나의 영역으로 구획되면 상기 입력창 실행표지의 GUI 레이아웃과 일치하게 구획하는 경우이다. 이 경우 가상의 실행영역 단위, 할당되는 음성명령어 및 음성데이터, 입력창 실행표지가 각 각 1:1:1의 관계로 대응되는 것이며, 이 경우 음성명령어의 자릿수 구성에 따라서만 보안입력의 신뢰도가 결정된다.(예를 들어, 한자릿수 구성이고, 입력할 내용이 네 자리일 때의 신뢰도가 4라고 가정하면 네자릿수 구성이라면 단순히 봐도 4의 4배의 신뢰도를 얻게 될 것이며, 네 자릿수를 구성하는 원소의 개수에 따라 구성상 경우의 수가 달라지므로 실질적으론 4의 4배 이상의 신뢰도를 얻게 될 것이다.)If the virtual execution region unit is formed and the input window execution marker region is divided into at least one region and the minimum region in the division, the virtual execution region unit is partitioned in accordance with the GUI layout of the input window execution marker . In this case, the virtual execution area unit, the assigned voice command and the voice data, and the input window execution cover correspond to each 1: 1: 1 relationship. In this case, the reliability of the security input depends on the configuration of digits of the voice command (For example, assuming a single-digit number configuration and a four-digit confidence in the input content is 4, the four-digit reliability will be obtained by simply looking at the four-digit configuration, and the four- The number of configurations will vary depending on the number of configurations.
상술된 ‘가상의 실행영역 단위를 형성하여 구획시 입력창 실행표지 영역을 최소 하나이상의 영역으로 구획’에서 네 개의 영역으로 구획되면 상기 입력창 실행표지의 GUI 레이아웃을 4분할 구획하는 경우이다. 이 경우 가상의 실행영역 단위, 할당되는 음성명령어 및 음성데이터, 입력창 실행표지가 각 각 4:4:1의 관계로 대응되는 것이며, 이 경우 음성명령어의 자릿수 구성과 실행영역 단위의 수에 따라 보안입력의 신뢰도가 결정된다.(예를 들어, 한자릿수 구성이고, 입력할 내용이 “1,2,3,4” 네 자리일 때의 신뢰도는 ‘실행영역 단위의 수 = 4’에 비례하게 되어 16이 될 것이고, 네자릿수 구성이라면 단순히 봐도 16의 4배의 신뢰도를 얻게 될 것이며, 네 자릿수를 구성하는 원소의 개수에 따라 구성상 경우의 수가 달라지므로 실질적으론 16의 4배 이상의 신뢰도를 얻게 될 것이다.)When the virtual execution region unit is formed and the input window execution marker region is divided into at least one region and four regions, the GUI layout of the input window execution marker is divided into four regions. In this case, the virtual execution area unit, the assigned voice command and the voice data, and the input window execution mark correspond to each other in a 4: 4: 1 relationship. In this case, depending on the number of digits of the voice command and the number of execution area units Reliability of the security input is determined (for example, in a one-digit configuration, the reliability when the input content is "1, 2, 3, 4" four digits is proportional to the number of execution area units = 4 16, and if you have a four-digit configuration, you will get four times the reliability of 16 even if you look at it simply, and you will actually get a reliability of four or more times 16 because the number of elements in the configuration depends on the number of elements that make up the four digits will be.)
상술된 ‘입력창 실행표지 영역 고유 문자 및 숫자’의 경우 후술되는 예시적 실시예는 음성인식 및 처리부를 구비하는 영상표시 장치로 한정하였지만, 후술되는 ‘제 1기기(음성인식 및 처리부를 구비)’와 ‘제 2기기(음성인식 및 처리부 구비하지 아니하되 정보처리부, 메모리부, 제어부는 구비한다. 또한 물리적 키패드, 터치스크린 방식 영상표시 장치의 형태일 수도 있고, IoT 기기의 보안입력 장치 일수도 있다.)’의 경우를 살펴보면 장치의 범위와 용도에 따라 그 범위가 확대되어 응용되고, 적용될 수 있음을 알 수 있다.In the case of the above-described 'input window execution marker area unique letter and number', the exemplary embodiment described below is limited to a video display apparatus having a voice recognition and processing unit, but a 'first device (having a speech recognition and processing unit) And a second device (not including the voice recognition and processing unit but including the information processing unit, the memory unit, and the control unit) may be a physical keypad, a touch screen type video display device, or a security input device of the IoT device ), It can be seen that the range of the device can be expanded and applied depending on the range and the use of the device.
상술된 ‘알고리즘(Algorithm)’은 기존 공시된 알고리즘을 이용하되, 후술될 음성명령어와 짝이 되는 음성데이터를 데이터베이스에 구축하는 단계에서 숫자 키패드, 가상 키보드 등에 있어서 배열의 순서성, 방향성 및 개연성 등을 이용하여 보안정보의 내용이 유추될 수 있는 요소(도 (17)의 경우, 설명의 단순화를 위해 순서성, 방향성 및 개연성이 강한 음성명령어를 이용하여 도시, 설명되었고, 실제 구현에는 이러한 패턴은 배제되어야할 패턴 중 하나이다.)를 배제하고, 입력창 실행표지 영역 내에 존재하는 숫자, 문자, 기호 등 고유 문자(이하 숫자, 기호 포함)와 중복을 배제하며, 문자, 숫자, 기호 중 어느 하나 혹은 문자 숫자 등 두가지 이상의 조합으로 최소 한자릿수 이상의 자릿수로 음성 명령어와 짝이 되는 음성데이터의 패턴을 구성하여 부여하기 위한 알고리즘(Algorithm)으로서, 상술된 ‘배제되는 패턴’은 데이터베이스 구축시 할당되거나 부여되지 않는다.The above-mentioned 'Algorithm' uses the existing disclosed algorithm, and in the step of building the voice data to be paired with the voice command to be described later in the database, the order, directionality and likelihood of arrangement in the numeric keypad, In the case of the element 17 in which the contents of the security information can be deduced by using the voice command having a strong order, directionality and probability for simplification of description, (Including numerals and symbols) existing in the input window execution area, and it is possible to use any one of letters, numbers and symbols A pattern of voice data to be paired with a voice command is formed by combining at least two digits, As an algorithm for determining whether or not a pattern is to be excluded, the above-mentioned " excluded pattern "
또한, 상술된 알고리즘(Algorithm)은 새로운 화면 입력마다 갱신되어 실행될 수 있고, 상기 입력창 실행표지 영역 내에 존재하는 숫자, 문자, 기호 등 고유 문자들의 조합으로 만들어지는 모든 경우의 수에서 상기 입력창 실행표지 영역 내의 고유문자와 중복되는 경우에 해당되는 패턴은 제외하고, 사용된 패턴은 사용되지 않은 남은 모든 패턴이 사용되기 전에 다시 부여되지 않아 사용될 수 없도록 제한하는 규칙을 포함한다.In addition, the above-described algorithm (Algorithm) can be updated and executed every new screen input, and can be executed in the number of all cases created by combination of unique characters such as numbers, characters, The pattern used includes a rule for restricting that all remaining unused patterns can not be used again before they are used so that they can not be used.
또한, 상술된 실행과정과, 도 1에서 검출된 실행단위 영역의 좌표에 제어부는 입력/실행 신호를 발생하게 되는데, 보안입력이 필요하지 않은 통상의 경우 (즉, 스마트폰의 가상 쿼티자판 입력시 말풍선 표시되는 구성이나, 은행 ATM에서 키패드 입력시 GUI의 상태변화 등 사용자에게 정확한 인식이 되어 입력이 되고 있음을 알리는 구성) 화면상에 정확히 입력되는 지 확인토록 하는 구성이 있으나, 본 보안입력 방법이 실행되는 동안에는 상기 구성을 배제하도록 하는 것이 바람직하다.In addition, the control unit generates an input / execution signal in the above-described execution process and the coordinates of the execution unit area detected in FIG. 1. In a normal case in which a security input is not required (i.e., A configuration in which a speech balloon is displayed or a configuration in which a user recognizes that the input is being performed, such as a change in the state of the GUI when a keypad is input in a bank ATM, is displayed on the screen). However, It is preferable to exclude the above configuration during execution.
이하 본 발명의 바람직한 실시예에 따른 영상표시장치의 음성제어 입력 방법에 대해 상세히 설명하도록 한다. Hereinafter, a voice control input method of the video display apparatus according to the preferred embodiment of the present invention will be described in detail.
실시예로서, 도면(2)는 안드로이드 스마트폰 홈 화면이다. 터치화면을 터치하여 입력신호를 입력하는 통상의 스마트폰 사용 방법으로 도면(2)의 ‘abc'(①) 라는 애플리케이션을 홈 화면이 아닌, 도면(2)의 안드로이드 스마트폰 홈 화면 우측 하단, '앱스’(②) 아이콘을 터치하여, 도면(5)의 애플리케이션 화면에서 실행하고자 할 때, 도면(2)의 ‘앱스’(②) 아이콘을 터치하고, 도면(5)의 ‘abc'(③) 아이콘을 터치하여 도면(8)과 같이 애플리케이션이 실행을 시키게 된다.As an example, FIG. 2 shows an Android smartphone home screen. The application 'abc' (①) of the drawing (2) is displayed on the lower right side of the Android smartphone home screen of FIG. 2 (2) instead of the home screen by using a conventional smart phone using the touch screen, Abc '(3) in the figure (5) by touching the' abs 'icon in the drawing (2) when the user touches the' Touch the icon to execute the application as shown in Fig.
이 때 각각의 터치과정에서는 입력신호를 감지한 제어부가 실행명령을 내리게 되는데, 이 과정을 본 발명이 하고자 하는 방식으로 실행하는 과정은 다음과 같다. At this time, in each touch process, the control unit that senses the input signal issues an execution command. The process of executing this process in the method of the present invention is as follows.
도면(2)의 화면에서, 음성인식 모드로 진입하면, 도면(3)과 같이 실행영역 단위의 영역이 설정(이때, 기본적으로 사용자의 눈에 현시될 필요성은 없으나, 사용의 편의성을 고려하여 설계자는 현시되도록 구성할 수도 있음이다.)되고, 도면(4)와 같이 행렬 방식 표현 가능한 고유의 좌표를 설정한다. When the user enters the voice recognition mode on the screen of Fig. 2, an area in the execution area unit is set (in this case, basically, it is not necessary to be displayed in the user's eyes as shown in Fig. 3) And can be configured to be displayed), and unique coordinates that can be expressed in a matrix form are set as shown in FIG.
이때, 도면(3)과 도면(4)의 화면이 표시되고 있는 동안, 이 화면에 할당된 데이터베이스 도면(9)의 라이브러리를 호출하여 음성명령어 판별을 할 수 있도록 준비한다. 이 때의 라이브러리를 ‘라이브러리①’이라 하고, 이 ‘라이브러리①’에는 24개의 고유좌표에 매핑(mapping)된 음성명령 데이터를 가진다.At this time, the library of the database drawing 9 assigned to this screen is called while the screens of Figs. 3 and 4 are being displayed, so that voice commands can be discriminated. The library at this time is referred to as a 'library 1', and the 'library 1' has voice command data mapped to 24 unique coordinates.
상기 도면(2)의 '앱스‘(②)를 음성명령으로 실행 시킬 때, 도면(4)의 ‘F4’에 해당하는 좌표영역이다. 'F4' 영역에 “앱스”라는 특정 음성명령어 데이터가 음성데이터 베이스 ‘라이브러리①’에 저장되어 있다.When the 'abs' (2) in FIG. 2 is executed as a voice command, it is a coordinate area corresponding to 'F4' in FIG. In the 'F4' area, specific voice command data called 'apps' is stored in the voice database 'library 1'.
사용자가 “앱스”라고 발화하면 도면 (1)의 과정에서 처럼, ‘인식된 음성 데이터와 일치하는 음성데이터가 있는지 여부?’ 단계에 진입하고, 데이터베이스 ‘라이브러리①’에 저장된 음성데이터를 판별하여, 일치하면 도면(1)의 ‘일치하는 음성데이터에 할당되어 매핑된 좌표 검출’ 및 ‘검출된 좌표에 제어부에서 입력 / 실행 신호 발생’ 단계를 진행, 이 일치하는 음성데이터에 할당되어 도면 (9)와 같이 라이브러리①에 매핑(mapping)된 좌표 ‘F4’에 위치한 도면(2)의 아이콘 ‘앱스’(②)를 실행하는 변환된 입력신호를 발생한다.When the user speaks "APPS", the user enters a step of "whether there is voice data consistent with the recognized voice data?" As in the process of the drawing (1), and the voice data stored in the database " If the coincidence is found, the process proceeds to the step 'coordinate detection and mapping to the coincident speech data and the generation of the input / execution signal at the detected coordinates' in the figure (1) (2) of the drawing (2) located at the coordinate 'F4' mapped to the library (1) as shown in FIG.
즉, “앱스”라는 사용자의 특정 음성명령신호를 ‘인식된 음성 데이터와 일치하는 음성데이터가 있는지 여부?’ 를 확인하여, ‘일치하는 음성데이터에 할당되어 매핑된 좌표 검출’ 및 ‘검출된 좌표에 제어부에서 입력 / 실행 신호발생’이라는 단계를 통하여 이 변환된 입력신호를 상기 도면(2)의 ‘F4'영역을 터치하여 입력된 신호를 처리하는 방법과 동일하게 인식하여 실행하는 것이다. 상기과정이 실행되면 화면은 도면(5)의 화면으로 전환되고, 이 때 데이터 베이스를 호출하여 음성명령어 판별을 준비한다. 도면(5)의 화면에 할당된 음성 데이터베이스의 라이브러리를 도면(9)와 같이 ‘라이브러리②’라 하겠다.That is, a specific voice command signal of a user named " abs " is checked as to whether or not there is voice data matching the recognized voice data, and " detected coordinate mapped to the matching voice data "Quot; F4 " field of FIG. 2 through the step of " generating an input / execution signal at the control unit ", and recognizing and executing the input signal in the same manner as the method of processing the input signal. When the above process is executed, the screen is switched to the screen of FIG. 5, and at this time, a database is called to prepare voice command discrimination. The library of the voice database allocated to the screen of FIG. 5 is referred to as 'library 2' as shown in FIG. 9.
역시, 도면(6)과 같이 음성인식모드로 진입하면 실행영역 단위모양의 영역이 설정되고, ‘라이브러리②’는 24개의 음성명령 데이터를 가질 수 있다. 도면(5)의 ‘abc'(③) 아이콘은 도면(7)의 ‘C1’ 좌표 영역에 해당한다. ‘C1’ 좌표영역에 매핑(mapping)된 “abc”라는 특정 음성명령어 데이터가 도면(9)와 같이 음성데이터 베이스 ‘라이브러리②’에 저장되어 있다. 사용자가 “abc”라고 발화하면, 도면(1)의 ‘인식된 음성 데이터와 일치하는 음성데이터가 있는지 여부?’ 를 확인하고 일치하므로 ‘일치하는 음성데이터에 할당되어 매핑(mapping)된 좌표검출’ 및 ‘검출된 좌표에 제어부에서 입력 / 실행 신호발생’ 이라는 단계를 통하여 이 변환된 입력신호를 상기 도면(5)의 'C1'영역을 터치하여 입력된 신호를 처리하는 방법과 동일하게 인식하여 실행하게 되며, 화면은 도면(8)로 전환되면서 애플리케이션이 실행된다.Similarly, when entering the voice recognition mode as shown in FIG. 6, an area in the form of an execution area unit is set, and 'library 2' can have 24 voice command data. The 'abc' (③) icon in the figure (5) corresponds to the 'C1' coordinate area in the figure (7). Specific voice command data "abc" mapped to the 'C1' coordinate area is stored in the voice database 'library 2' as shown in FIG. When the user speaks "abc", it checks whether the voice data coincides with the recognized voice data in FIG. 1 and confirms that they are coincident with each other. Therefore, Quot; C1 " in the figure (5) through the step of " generating input / execution signals in the detected coordinates " in the control unit, And the screen is switched to the drawing (8), and the application is executed.
영상표시장치의 음성제어 입력 방법의 또 다른 실시예로서, 도면(10)은 안드로이드 스마트폰의 통화 화면이다. 통상 사용자가 터치를 통해 전화번호를 입력하게 되고, 통화 버튼을 터치하여 통화가 이루어지게 되는데, 음성인식 모드로 전환하여 이 과정을 진행하는 과정을 설명한다.As another embodiment of the voice control input method of the video display device, the drawing (10) is a call screen of the Android smartphone. A user normally inputs a telephone number through a touch, and a call is made by touching a call button. A process of switching to a voice recognition mode and proceeding with this process will be described.
도면(10)의 화면에서 음성인식 모드로 전환하는 경우, 한 개의 (m,n)행렬로는 표현이 어려운 경우가 발생한다. In the case of switching to the voice recognition mode on the screen of FIG. 10, it may be difficult to express a single (m, n) matrix.
예를 들어, 1행에는 ‘키패드’, ‘최근기록’, ‘즐겨찾기’, ‘연락처’라는 네게의 원소가 있고, 2행에는 입력된 전화번호를 출력하여 보여주는 표시 영역이며, 3행에는 숫자‘1’, ‘2’, ‘3’ 세 개의 원소가 있고, 4행에는 숫자‘4’, ‘5’, ‘6’ 세 개의 원소가 있고, 5행에는 숫자‘7’, ‘8’, ‘9’ 세 개의 원소가 있고, 6행에는 ‘*’, ‘0’, ‘#’ 세 개의 원소가 있으며, 7행에는 ‘통화’, ‘영상통화’, ‘메시지’, ‘☜’ 네 개의 원소가 있다. 앞에서 상술한 방법으로는 한 개의 (m,n)행렬로 표현하기보다는 1×4행렬, 4×3행렬, 1×4행렬이 세 개의 조합이나, 6×4행렬, 7×3행렬 두 개의 조합으로 표현이 가능할 것이다. 도면(11)과, 도면(12)는 후자의 조합, 즉 6×4행렬, 7×3행렬 두 개의 조합으로 나누어 가상 실행영역 단위를 설정하고 표시한 화면이다. 이 때, 미리 저장되어 있는 음성데이터베이스의 라이브러리도 두 개가 호출되며, 이 라이브러리는 각 각 6×4행렬, 7×3행렬 으로 표현이 가능한, 각 각 24개, 21개의 고유좌표를 가진 데이터를 저장하고 있다. For example, the first line includes elements such as 'keypad', 'recent record', 'favorites', and 'contact'. In the second line, There are three elements of '1', '2', and '3', three elements of numbers '4', '5', and '6' There are three elements of '9', there are three elements of '*', '0', and '#' on
이 단계에서 호출 되는 두 개의 라이브러리를 ‘라이브러리③’, ‘라이브러리④’라 하고, 각 각 도면(13)과 도면(14)로 표현된다. 사용자가 ‘키패드’를 누르고, ‘0 1 0 - 1 2 3 4 - 5 6 7 8’을 입력 후, ‘통화’ 버튼을 누르는 과정은, 도면(1)의 과정을 거치되 ‘라이브러리③’에서, ‘가1’을 실행하고, ‘라이브러리④’에서 ‘p2', 'j1', 'p2', - 'j1', 'j2', 'j3', 'k1', - 'k2', 'k3', 'm1', 'm2'를 실행한 후, 다시 ‘라이브러리③’에서 ‘바1’을 실행시키는 과정으로 구현될 수 있다.The two libraries called at this stage are called 'library ③' and 'library ④', and they are expressed by the respective diagrams (13) and (14). The process of pressing the 'call' button after the user presses the 'keypad' and inputs '0 1 0 - 1 2 3 4 - 5 6 7 8' is performed in the process of the drawing (1) , '1', 'p2', 'j1', 'p2', 'j1', 'j2', 'j3', 'k1', 'k2', 'k3' ',' m1 ',' m2 ', and then' bar 1 'in' library ③ 'again.
이상에서 음성인식을 이용하여 기존 사용자 경험(UX)을 기반으로 영상표시 장치를 제어하는 방법에 대하여 살펴보았다. 상술된 가상의 실행영역 단위는 입력 / 실행신호의 범위(터치스크린 터치시 접촉면에 해당)를 규정하는 요소이므로 현시되어야할 당위성은 없으나 구현할 때의 필요에 따라 현시될 수 도 있다. 또한, 실행단위 영역을 아이콘이나 입력창 실행표지에 맞추어 구획한 예 일뿐이고, 아이콘의 유무와 관계없이 다양한 패턴으로 구획될 수 있음이다.)이상의 기술적 사상을 이용하여 이후에 설명될 보안입력을 하는 방법에 대해서 살펴본다.In the above, a method of controlling an image display device based on the existing user experience (UX) using speech recognition has been described. The virtual execution area unit described above is an element that defines the range of the input / execution signal (corresponding to the contact surface when touching the touch screen), and therefore there is no necessity to be displayed, but it may be displayed according to the necessity of implementation. In addition, it is an example that the execution unit area is partitioned according to the icon or the execution window of the input window, and can be divided into various patterns irrespective of whether there is an icon or not.) Using the above technical idea, Let's look at the method.
이하 본 발명의 바람직한 실시예에 따른 영상표시장치의 음성제어를 이용한 보안입력 방법 및 장치에 대해 상세히 설명하도록 한다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a security input method and apparatus using voice control of a video display device according to a preferred embodiment of the present invention will be described in detail.
우선 상기 (a) 단계에서 입력창 실행표지 영역을 하나의 영역으로 구획하는 경우에 대한 과정은, 상술된 도면(12)에서 키패드 만을 따로 설정하여 표현된 도면 (15)를 보면, 도면(15)는 상술된 스마트폰의 화면으로만 볼 것이 아니고 은행의 ATM에서의 숫자 키패드로 볼 수도 있으며, 후술되는 내용은 쿼티입력 자판, 천지인 입력창의 경우도 동일한 패턴의 과정을 거치기 때문에 도시하지 않고, 도면 (15) 내지 도면 (17)과 후술되는 내용과 같은 범주로서 이해되어져야 한다.(본 발명의 기술적 사상의 범주는 후술되는 숫자 키패드상의 비밀번호 입력에 한정되는 것이 아니다.)The process of dividing the input window execution mark region into one region in the step (a) is as follows. Referring to the drawing (15) The present invention can be applied not only to the screen of the smart phone but also to the numeric keypad of the ATM of the bank. 15 to 17 and the following description. (The scope of the technical idea of the present invention is not limited to the password input on the numeric keypad described later.)
상기 도면 (15)에서 미리 설정된 비밀번호 ‘1234’의 네자리를 입력한다면 통상의 방법으로 터치하여 입력시키면 ‘1’, ‘2’, ‘3’, ‘4’의 화면에 실행신호가 발생되어 실행이 된다.If the four digits of the preset password '1234' are input in the drawing (15), an execution signal is generated on the screens of '1', '2', '3', and '4' .
도 (17)은 도면 (15)에 대응하는 실행영역 단위의 크기가 각 실행표지 영역별(도면 (15)의 숫자키패드별 GUI 레이아웃)로 할당되고 매핑되는 음성명령어의 데이터베이스이다(음성명령어 현시, 괄호 안은 고유좌표의 예시적 일실시예, 이 때 좌표는 현시되지 않음). 도(15)의‘1’영역에는 도(17)의 음성명령어 및 음성데이터 ‘대(좌표; a1)’가, 도(15)의‘2’영역에는 도(17)의 음성명령어 및 음성데이터 ‘한(좌표; a2)’이, 도(15)의‘3’영역에는 도(17)의 음성명령어 및 음성데이터 ‘민(좌표; a3)’, 도(15)의‘4’영역에는 도(17)의 음성명령어 및 음성데이터 ‘국(좌표; b1)’이 할당되고 매핑된다. 이 때 각 ‘1’,‘2’,‘3’,‘4’의 영역의 좌표 'a1','a2','a3','b1'은 도 (17)의 데이터베이스 ‘대’, ‘한’,‘민’, ‘국’의 음성데이터에 매핑되어 있다. 사용자가 “대,한,민,국”이라고 발화하면 도 (1)의 단계를 거친다. 도(1)의 단계를 거쳐 검출되는 좌표 ‘a1",'a2','a3','b1'에 입력신호를 발생시켜 “1,2,3,4”의 보안입력을 이루게 된다. (이 때, 설명의 단순화를 위하여 화면을 가상의 실행영역 단위로 구획시 각 실행영역 단위 영역의 좌표별로 할당되어 매핑(mapping)된 데이터베이스를 구축하는 음성데이터와 음성명령어의 데이터는 입력창 실행표지 영역 고유의 숫자와 중복이 되지 않도록 부여하고, 문자로서 한 자릿수로 구성하는 경우로 가정하고 설명하였으며, 실제 구현시에는 도(17)과 같이 숫자의 순차적 증가와 개연성이 있도록 문장이 되는 음성명령어의 데이터가 할당되는 경우의 수에 해당되는 패턴은 제외하는 수단으로서 알고리즘(Algorithm)을 둔다.)Figure 17 is a database of voice commands in which the size of the execution area unit corresponding to the figure 15 is allocated and mapped by each execution marker area (GUI layout for the numeric keypad of the drawing 15) (voice command display, An example in parentheses is an exemplary unique coordinate, in which coordinates are not shown). The voice command word and voice data 'coordinate (a1)' in FIG. 17 are stored in the '1' area of FIG. 15 and the voice command word and voice data (Coordinate a2) 'of the figure 15 and the voice command word and voice data' min (a3) 'of the figure 17 and the' 4 'area of the figure 15 in the area' 3 ' (Coordinates) b1 'of the speech data and the voice command word of the speech data 17 are allocated and mapped. At this time, the coordinates' a1 ',' a2 ',' a3 ', and' b1 'of the area of each of' 1 ',' 2 ',' 3 ', and' ',' Min ', and' Station '. If the user speaks "big, small, small, small", he goes through step (1). 1, 2, 3, and 4 "by generating input signals at the coordinates" a1 "," a2 "," a3 ", and" b1 "detected through the steps of (1) In order to simplify the explanation, the data of the voice data and the voice command to construct the database mapped by the coordinates of each execution area unit area when the screen is divided into the virtual execution area unit is divided into the input window execution area unique In the actual implementation, the data of the voice command word, which is a sentence so as to be sequentially increased in number and probable as shown in (17), is given as Algorithm is used as a means to exclude patterns corresponding to the number of cases to be allocated.)
음성인식 모드로 전환되면, 화면상에 도 (17)의 음성명령어 및 음성데이터의 데이터 베이스 내의 음성명령어(좌표값은 배제되어야 할 것임. 예를 들면,‘a1')가 도 (15)의 화면에 현시되도록 한다.(영역내에서 식별 가능한 위치; 숫자의 ‘상,하,좌,우’중 일측에든 숫자에 중첩되어 표시되든 식별가능하면 됨. 또한, 도시되지 않고 실시예를 기술하지 않았지만 사용자가 키패드의 위치와 비밀번호를 염두에 두고 위치를 명확히 알고 판단할 수 있는 경우, 상술한 도(15)의 화면에 도(17)화면처럼 음성명령어만 현시되도록 하여 사용자는 입력창 실행표지의 고유 문자 / 숫자를 참조하지 않고 보안입력 하는 것도 가능하다.) 사용자가 입력할 비밀번호 ‘1’,‘2’,‘3’,‘4’를 음성으로 ‘대한민국’이라 발화하면 도 1의 단계를 거쳐 입력된다. When the mode is switched to the voice recognition mode, voice commands in the database of the voice command word and the voice data in Fig. 17 (coordinate values should be excluded, for example, 'a1' (Identifiable position within the area, whether it is superimposed on the number on one side of the figure, upper, lower, left, or right), or identifiable. If only the voice command is displayed as shown in the screen (17) on the screen of the above figure 15, the user can recognize the position of the keypad and the password of the input window, 1 ',' 2 ',' 3 ', and' 4 'to be input by the user are called' Republic of Korea 'by voice. do.
다음은 상기 (a) 단계에서 입력창 실행표지 영역을 네개의 영역으로 구획하는 경우에 대한 과정을 설명한다.(입력창 실행표지 영역을 두 개의 영역으로 구획하는 경우, 세 개의 영역으로 구획하는 경우, 필요에 따라 네 개를 초과하는 영역으로 구획하는 경우의 실시예도, 후술되는 내용의 특징 및 기술적 사상과 본질이 다르지 않아 생략하도록 한다.) 도 (16)은 도 (15)의 키패드 중 ‘1’에 해당되는 입력창 실행표지 영역(101)만을 따로 확대한 도면이다. ‘1’을 입력할 때 터치스크린 사용하는 방법으로 입력할 때 201, 202, 203, 204의 위치 중 어느 곳을 터치 입력해도 같은 결과로 ‘1’의 입력이 실행된다. 그러면 201의 영역에 ‘대8@’, 202의 영역에 ’대7#‘, 203의 영역에 ‘대6*‘ 그리고 204의 영역에 ‘대5$’라는 음성명령어와 음성데이터(입력창 실행표지 영역 고유의 문자, 숫자와 중복이 되지 않도록 부여하고, 문자 및 숫자 중 어느 하나 혹은 문자 및 숫자의 조합으로서 세자릿수로 구성한 경우로서 도시되지 않음)가 101의 영역을 4등분하여 가상의 실행영역 단위로 구획하고 해당되는 데이터베이스 또한 이에 대응되도록 알고리즘(Algorithm)으로 구성한다면 이후의 실행과정은 상기 설명한 (a) 단계에서 입력창 실행표지 영역을 하나의 영역으로 구획하는 경우에 대한 과정의 설명과 다르지 않다.Next, a description will be made of a case where the input window execution cover region is divided into four regions in the step (a). (When the input window execution cover region is divided into two regions, (16) is the same as that of the keypad of FIG. 15 except for the case of dividing the area of " 1 " Is an enlarged view of only the input window
이상 간략하게 설명되었지만 ‘1’을 입력하는 것을 상술한 ‘대8@’, ’대7#‘,‘대6*‘ ,‘대5$’중 어느 하나의 음성명령어로 입력하면 ‘1’의 입력이라는 결과는 동일하지만, ‘1’이라는 입력을 노출하지 않고 입력할 수 있는 것이다. (‘@, #, *, $ ’등의 기호와 ‘8,7,6,5’등의 숫자는 미리 사용자가 발화할 때 발음기호화 하여 지정하고 제공하는 방법 등으로 사용자가 참조할 수단이 마련되거나, ‘@’를 발음할 때 ‘[골뱅이]’혹은 ‘[at]’등의 음성데이터로 발화가능성을 고려하여 데이터베이스에 미리 저장하는 식의 방법으로 대비하는 것이 바람직하다.)Although inputting '1' is described as above, inputting '1' by using any of voice commands such as '8', '7', '6', and '5' The result of the input is the same, but you can enter it without exposing the '1' input. (There are means for users to refer to symbols such as '@, #, *, $' and numbers such as '8,7,6,5' in advance by designating and providing them as pronunciation symbols when users speak. Or '@' is pre-stored in the database in consideration of the possibility of utterance as speech data such as '[at]' or '[at]'.
이상에서 상술한(a) 및 (b)단계의 경우에 따른 실시예를 설명하였고, ‘1’,‘2’,‘3,’,‘4’를 음성으로 입력할 때 다양한 문자,숫자,기호 등을 이용하여 한자리 이상의 자릿수로 표현하여 얻을 수 있는 보안효과를 짐작할 수 있을 것이다. 또한 상기 (a) 및 (b)단계는, 새로운 화면 입력마다 갱신되어 실행될 수 있고, 사용된 패턴은 모든 경우의 수에서 사용되지 않은 패턴이 사용되기 전에 다시 사용될 수 없도록 구성하여 이미 발화한 음성명령어를 토대로 원래의 입력정보를 노출시키지 않고, 유추할 수 없도록 한다.In the above description, the embodiments according to the above-described steps (a) and (b) have been described, and when inputting '1', '2', '3' It is possible to guess the security effect that can be obtained by expressing a digit more than one digit. In addition, the steps (a) and (b) may be updated and executed every new screen input, and the used pattern may be configured so that unused patterns can not be used again in all cases, The original input information is not exposed and can not be inferred.
이상, 상술한 바와 같이 음성인식부, 정보처리부, 메모리부, 디스플레이부 및 제어부를 포함하는 음성인식 및 처리부 가 구비된 영상표시 장치의 음성제어를 이용한 보안 입력 방법에 대하여 살펴보았다. 상술된 음성인식 및 처리부를 구비하는 영상표시 장치를 ‘제 1기기’, 상기 음성인식 및 처리부가 구비되지 않은 영상표시 장치 및 보안입력 장치를 ‘제 2기기(음성인식 및 처리부 구비하지 아니하고 정보처리부, 메모리부, 제어부는 구비하되, 영상표시 장치일 수도 있고, 단순히 물리적 키패드 방식일 수도 있으며, IoT 기기의 보안입력 장치 일수도 있다.)라 정의하고, 제 1기기를 이용한 제 2기기에 보안입력 하는 방법에 대하여 간략하게 살펴본다.As described above, the security input method using the voice control of the video display apparatus including the voice recognition and processing unit including the voice recognition unit, the information processing unit, the memory unit, the display unit, and the control unit has been described. The video display device having the above-described voice recognition and processing unit may be referred to as a first device, the video display device and the security input device not provided with the voice recognition and processing unit may be referred to as a second device , A memory unit, and a control unit, and may be an image display device, a physical keypad method, or a security input device of the IoT device), and transmits a security input to a second device using the first device A brief description will be given.
우선, 상기 제 1기기와 제 2기기는 양방향 무선통신(예를 들면, NFC, BLUETOOTH, WIFI 등의 방식이고, 제 1기기와 제 2기기 간의 통신규격이 상이한 경우 신호를 변환하고, 송수신 처리할 인터페이스를 구비한다.)으로 연결되고, 연결이 시작되고, 제 1기기가 음성인식 모드로 진입하여 보안입력을 준비함과 동시에 제 2기기는 제 1기기로 키패드의 신호와 정보를 송신한다. 제 1기기 키패드의 신호와 정보를 수신한 제 1기기의 디스플레이부는 제 1기기의 화면상에 제 2기기의 입력창 실행표지를 화상으로 출력하고, 상기 도 1의 단계를 거쳐 보안입력을 실행하는 과정에서 발생된 보안입력 신호와 정보를 제 2기기로 전송한다. 제 2기기는 수신된 보안입력 신호와 정보를 처리하여 상기 음성인식 및 처리부를 구비하지 않은 제 2기기의 음성제어를 이용한 보안입력을 이루게 된다.(이 경우의 실시예는 제 1기기와 제 2기기의 신호 및 정보의 송수신 관계와 과정만 다를 뿐 실질적인 보안입력의 실행과정은 제 1기기 내에서 단독으로 실행되는 경우에서 크게 벗어남이 없으므로 생략한다. 도 (18)참조.)First, when the first device and the second device are two-way wireless communication (for example, NFC, BLUETOOTH, WIFI, and the like, when the communication standard between the first device and the second device is different, And the connection is started, and the first device enters the voice recognition mode to prepare a security input, and at the same time, the second device transmits the signal and information of the keypad to the first device. The display unit of the first device receiving the signal and information of the first device keypad outputs an image of the input window execution sign of the second device on the screen of the first device and executes the security input through the step of FIG. And transmits the security input signal and information generated in the process to the second device. The second device processes the received security input signal and information to form a security input using voice control of the second device that does not have the voice recognition and processing unit. (In this case, the first device and the second device Only the transmission and reception relationship and process of the signal and information of the device are different from each other, but the actual execution process of the security input is omitted because it is not largely deviated from the case where it is executed in the first device alone.
또한, 상술된 제 1기기와 제 2기기간의 양방향 무선 통신이 개시되고 연결되는 것은, 제 1 및 2기기간의 고유 ID등의 정보도 교환되는 것을 의미하는 것을 알 수 있을 것이다. 이러한 정보를 이용하여 출입시스템의 보안입력장치(예를 들면 제 1기기 단독 사용시의 경우, 혹은 제 2기기로서 구성되고, 출입자 개개인의 스마트기기인 제 1기기를 이용하는 경우가 가능할 것이다.)에 적용한다면 보안입력시 연결 시점을 기준으로 입실시간, 퇴실시간 및 출입자의 정보를 획득할 수 있어 보안시스템에의 활용 또한 가능할 것이다.(상술된 ‘스마트 기기’는 ‘스마트폰’, ‘태블릿PC', '스마트 워치’, ‘스마트 글래스’ 등을 포함한다.) 즉, 제 1기기 및 제 2기기의 연결시 상호 고유ID 정보를 활용하여 1차 인증, 그리고 본 출원발명을 통한 2차 인증이 가능한 것이다.Further, it will be understood that the two-way radio communication between the first device and the second device described above is initiated and connected, meaning that information such as the unique ID between the first and second devices is also exchanged. This information can be applied to the security input device of the access system (for example, when the first device is used alone, or when it is configured as the second device, and it is possible to use the first device which is a smart device of each accessing person) ('Smart device', 'Smart phone', 'Tablet PC', 'Tablet PC', etc.) can be acquired based on the time of connection when the security input is performed. 'Smart watch', 'smart glass', etc.). That is, primary authentication using the unique ID information when the first device and the second device are connected and secondary authentication using the present invention are possible .
한편, 음성인식의 신뢰도를 높이기 위해 상기 제 1기기는 공지기술인 노이즈 캔슬링 등 기타 신호처리 기술이 적용될 수 있음은 물론이다.It is needless to say that other signal processing techniques such as noise cancellation may be applied to the first device in order to increase the reliability of speech recognition.
이상과 같은 영상표시 장치의 음성제어를 이용한 보안 입력 방법을 수행하기 위한 프로그램 코드(알고리즘(Algorithm) 포함)는 다양한 유형의 기록 매체에 저장될 수 있다. 구체적으로는, RAM(Random Access Memory), 플래시메모리, ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electronically Erasable and Programmable ROM), 래지스터, SSD, 하드디스크, 리무버블 디스크, 메모리카드, USB메모리, CD-ROM 등과 같이, 단말기에서 판독 가능한 다양한 유형의 기록매체에 저장되어 있을 수 있으며, 상기 제 1기기에, 상술한 프로그램 코드가 기록된 기록매체가 연결되거나 탑재된다면, 상술한 영상표시 장치의 음성제어를 이용한 보안 입력 방법이 지원될 수 있게 된다.The program code (including the algorithm) for performing the security input method using the voice control of the video display device as described above can be stored in various types of recording media. More specifically, it may be a random access memory (RAM), a flash memory, a ROM (Read Only Memory), an EPROM (Erasable Programmable ROM), an Electrically Erasable and Programmable ROM (EEPROM) Card, a USB memory, a CD-ROM, or the like, and if a recording medium on which the above-described program code is recorded is connected or mounted on the first device, A security input method using voice control of a video display device can be supported.
또한, 이상에서 살펴본 바와 같이 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특징의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention.
도면(2)의 ① 은 스마트폰 애플리케이션‘abc'
도면(2)의 ② 는 스마트폰 애플리케이션 모음 화면으로 진입하는 아이콘
도면(3)의 ④ 는 스마트폰 조작할 때 실행가능한 애플리케이션이 없는 영역
도면(5)의 ③ 은 스마트폰 애플리케이션 모음 화면에 위치한‘abc'라는 애플리케이션 아이콘
도면(9)의 “앱스”는 라이브러리①에 매핑(mapping)되는 음성명령어가 대응됨을 의미
도면(9)의 “abc" 는 라이브러리②에 매핑(mapping)되는 음성명령어가 대응됨을 의미
도면(15)의 “101”은 숫자 키패드상의 숫자 ‘1’에 해당되는 입력창 실행표지
도면(16)의 “201”,“202”,“203”,“204”는 상기 “101”을 네 개의 실행영역 단위로 구획된 영역
도면(17)의 “102”는 도 (15)의 “101”에 할당되고, 매핑되는 데이터베이스 영역(1) in the drawing (2) indicates that the smartphone application 'abc'
(2) in Fig. 2 shows an icon
(4) in the drawing (3) shows an area where there is no application executable when the smartphone is operated
3 of the drawing (5) shows an application icon 'abc' located on the smartphone application collection screen
"App" in the figure (9) means that the voice command mapped to the
"Abc" in the figure (9) means that a voice command mapped to the
"101" in the drawing (15) indicates an input window execution mark corresponding to the number "1" on the numeric keypad
"201", "202", "203", and "204" in the drawing (16)
&Quot; 102 " in the drawing (17) is assigned to " 101 &
Claims (6)
상기 영상표시 장치의 디스플레이부를 통해 표시되는 화면 영역상에서 사용자가 발화한 음성명령을 이용해 상기 음성인식 및 처리부를 통해 입력신호를 발생시키고자 하는 실행영역 단위의 좌표를 검출하되,
(a) 상기 정보처리부가 상기 디스플레이부를 가상의 실행영역 단위를 형성하여 구획하되 입력창 실행표지 영역을 최소 하나 이상의 영역으로 구획하고, 상기 가상의 실행영역 단위 내에 각 영역별로 좌표를 부여하는 단계;
(b) 상기 메모리부가 상기 실행영역 단위 내에 각 영역별로 부여된 좌표를 데이터베이스에 가상의 실행영역 단위 내의 영역에 매칭되는 음성데이터와 할당하여 매핑(mapping)된 데이터베이스를 구축하되, 상기 데이터베이스를 구축하는 음성데이터와 음성명령어의 데이터는 입력창 실행표지 영역 고유의 문자 혹은 숫자와 중복이 되지 않도록 하는 패턴을 부여하는 알고리즘(Algorithm)을 포함하고, 각 실행영역 단위의 좌표별로 할당되어 매핑(mapping)된 음성데이터의 명령어가 상기 디스플레이부에 현시되도록 구성하는 단계;
(c) 상기 음성인식부가 사용자의 음성을 수신하여 상기 데이터베이스에서 매칭되는 음성데이터를 검색하여, 매칭되는 음성데이터가 있는지를 정보처리부에서 판별하는 단계;
(d) 상기 정보처리부에서 상기 사용자의 음성과 상기 데이터베이스에서 매칭되는 음성데이터가 있는 경우 해당되는 음성데이터에 매핑(mapping)된 실행영역 단위내의 영역에 해당되는 좌표를 검출하는 단계;
를 포함하며 검출된 좌표에 제어부에서 입력/실행 신호를 발생하여 입력을 이루는 것을 특징으로 하는 영상표시 장치의 음성제어를 이용한 보안 입력 방법.A security input method using a voice control method of a video display apparatus having a voice recognition and processing unit including a voice recognition unit, an information processing unit, a memory unit, a display unit, and a control unit,
Detecting coordinates of a unit of an execution area to which an input signal is to be generated through the speech recognition and processing unit using a voice command uttered by a user on a screen area displayed through a display unit of the image display apparatus,
(a) dividing the input window execution mark region into at least one region by dividing the display unit into a virtual execution region unit, and assigning coordinates for each region within the virtual execution region unit;
(b) constructing a database mapped with the coordinates assigned to the respective areas within the execution area unit by assigning the coordinates to the database with voice data matched with the area in the virtual execution area unit, and constructing the database The data of the voice data and the voice command includes an algorithm (Algorithm) for giving a pattern such that it is not overlapped with a letter or a number unique to the input window execution mark region, and is allocated and mapped by each coordinate of each execution region Configuring an instruction of voice data to be displayed on the display unit;
(c) receiving the voice of the user by the voice recognition unit, searching for voice data matched in the database, and discriminating from the information processing unit whether there is voice data to be matched;
(d) detecting coordinates corresponding to an area in the execution area unit mapped to the voice data when the voice processing unit matches the voice of the user with the voice data in the database;
And generating an input / execution signal in a control unit in the detected coordinates to form an input.
상기 알고리즘(Algorithm)은 데이터베이스를 구축하는 음성데이터와 음성명령어의 데이터는 문자 및 숫자 중 어느 하나 혹은 문자 및 숫자의 조합으로서 최소 하나이상의 자릿수로 구성되는 패턴이 되도록 부여하는 것을 특징으로 하는 영상표시 장치의 음성제어를 이용한 보안 입력 방법.The method according to claim 1,
Wherein the algorithm (Algorithm) assigns the voice data for constructing the database and the data of the voice command word to be a pattern composed of at least one digit as a combination of any one of letters and numbers or letters and numbers. A security input method using voice control of.
(a) 및 (b)단계는, 새로운 화면 입력마다 갱신되어 실행되고, 사용된 패턴은 사용되지 않은 패턴이 사용되기 전에 다시 사용될 수 없는 것을 특징으로 하는 영상표시 장치의 음성제어를 이용한 보안 입력 방법.The method according to claim 1,
wherein the steps (a) and (b) are updated and executed every new screen input, and the used pattern can not be used again before an unused pattern is used. .
상기 영상표시 장치의 디스플레이부를 통해 표시되는 화면 영역상에서 사용자가 발화한 음성명령을 이용해 상기 음성인식 및 처리부를 통해 입력신호를 발생시키고자 하는 실행영역 단위의 좌표를 검출하되,
상기 디스플레이부를 가상의 실행영역 단위를 형성하여 구획하고, 상기 가상의 실행영역 단위 내에 각 영역별로 좌표를 부여하는 정보처리부;
상기 실행영역 단위 내에 각 영역별로 부여된 좌표를 데이터베이스에 가상의 실행영역 단위 내의 영역에 매칭되는 음성데이터와 할당하여 매핑(mapping)된 데이터베이스를 구축하되, 상기 데이터베이스를 구축하는 음성데이터와 음성명령어의 데이터는 입력창 실행표지 영역 고유의 문자 혹은 숫자와 중복이 되지 않도록 하는 패턴을 부여하는 알고리즘(Algorithm)을 포함하고, 각 실행영역 단위의 좌표별로 할당되어 매핑(mapping)된 음성데이터의 명령어가 상기 디스플레이부에 현시되도록 구성하는 메모리부;
상기 사용자의 음성을 수신하는 음성인식부;
상기 데이터베이스에서 매칭되는 음성데이터를 검색하여, 매칭되는 음성데이터가 있는지를 판별하여, 상기 사용자의 음성과 상기 데이터베이스에서 매칭되는 음성데이터가 있는 경우 해당되는 음성데이터에 매핑(mapping)된 실행영역 단위 영역에 해당되는 좌표를 검출하는 정보처리부;를 포함하며 검출된 좌표에 입력/실행 신호를 발생하시키는 제어부;를 포함하여 보안입력을 이루는 것을 특징으로 하는 영상표시 장치의 음성제어를 이용한 보안 입력 장치.A security input device using voice control of a video display device performed by the security input method according to any one of claims 1 to 3,
Detecting coordinates of an execution region unit to be generated by the speech recognition and processing unit using the voice command uttered by the user on the screen region displayed through the display unit of the image display apparatus,
An information processing unit for forming and dividing the display unit into virtual execution region units and assigning coordinates for each region within the virtual execution region units;
Wherein the database is mapped by assigning coordinates assigned to each region within the execution region unit to voice data matched with a region in a virtual execution region unit in a database, The data includes an algorithm (Algorithm) for giving a pattern such that it is not overlapped with letters or numbers unique to the input window execution marker area, and the instruction of voice data mapped and allocated for each coordinate of each execution area is A memory unit configured to be displayed on a display unit;
A voice recognition unit for receiving the voice of the user;
A matching unit for matching the voice data to be matched with the voice data of the user and the matching voice data if the voice data matches the voice data of the user, And an information processing unit for detecting coordinates corresponding to the coordinates of the input unit and the control unit, and generating a security input by generating an input / execution signal in the detected coordinates.
(e) 상기 제 1기기와 제 2기기는 양방향 무선통신으로 연결되는 단계;
(f) (e)단계의 양방향 무선통신 연결하고 신호의 변환을 처리하고 제어하는 인터페이스;를 포함하여 구성되되, 제 2기기의 입력정보를 제 1기기에 송신하여 제 1기기에서 보안입력을 이루어 제 2기기로 보안입력 정보를 송신하여 제 2기기의 보안입력을 이루는 것을 특징으로 하는 영상표시장치의 음성제어를 이용한 보안 입력 장치.A first device, which is a security input device using voice control of the video display device of claim 4, a video display device not equipped with the voice recognition and processing section, and a second device which is a security input device,
(e) the first device and the second device are connected by bidirectional wireless communication;
and (f) an interface for establishing a bidirectional wireless communication connection and processing and controlling signal conversion in step (e), wherein the input information of the second device is transmitted to the first device, and the security input is performed in the first device And transmits the security input information to the second device to form a security input of the second device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140145599A KR101627936B1 (en) | 2014-10-25 | 2014-10-25 | The security input method and apparatus of voice control for display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140145599A KR101627936B1 (en) | 2014-10-25 | 2014-10-25 | The security input method and apparatus of voice control for display device |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20160048602A KR20160048602A (en) | 2016-05-04 |
KR101627936B1 true KR101627936B1 (en) | 2016-06-07 |
Family
ID=56022093
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140145599A KR101627936B1 (en) | 2014-10-25 | 2014-10-25 | The security input method and apparatus of voice control for display device |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101627936B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107491965B (en) | 2017-07-31 | 2020-07-10 | 阿里巴巴集团控股有限公司 | Method and device for establishing biological feature library |
KR102599948B1 (en) * | 2018-11-16 | 2023-11-09 | 삼성전자주식회사 | ELECTRONIC APPARATUS AND WiFi CONNECTING METHOD THEREOF |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050131700A1 (en) | 2003-09-10 | 2005-06-16 | General Electric Company | Voice control of a generic input device for an ultrasound system |
CN102917143A (en) | 2012-10-09 | 2013-02-06 | 广东欧珀移动通信有限公司 | Method and device for call of special numbers |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100457509B1 (en) * | 2001-07-07 | 2004-11-17 | 삼성전자주식회사 | Communication terminal controlled through a touch screen and a voice recognition and instruction executing method thereof |
KR20120045410A (en) * | 2010-10-29 | 2012-05-09 | 유성민 | Password authentication method based on random table and user authentication system for the method |
KR101925879B1 (en) | 2012-11-02 | 2019-02-26 | 삼성전자주식회사 | Method of tracking motion using depth image and device thereof |
-
2014
- 2014-10-25 KR KR1020140145599A patent/KR101627936B1/en not_active IP Right Cessation
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050131700A1 (en) | 2003-09-10 | 2005-06-16 | General Electric Company | Voice control of a generic input device for an ultrasound system |
CN102917143A (en) | 2012-10-09 | 2013-02-06 | 广东欧珀移动通信有限公司 | Method and device for call of special numbers |
Also Published As
Publication number | Publication date |
---|---|
KR20160048602A (en) | 2016-05-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220261083A1 (en) | Gesture-based user interface | |
CN105706100B (en) | Directional-touch unlock for electronic equipment | |
US10360412B2 (en) | Contextual contemporaneous gesture and keyboard entry authentication | |
US9013424B2 (en) | Method for encoded input and control by fingerprint | |
TWI588735B (en) | Virtual keyboard | |
US7961903B2 (en) | Handwriting style data input via keys | |
CN103477342B (en) | Device access using voice authentication | |
JP2018074366A (en) | Electronic apparatus, control method, and program | |
EP2801905B1 (en) | Method and apparatus for unlocking a terminal device | |
CN105246807A (en) | Handwriting input and security | |
US11776543B2 (en) | Authentication system, authentication method, and, non-transitory computer-readable information recording medium for recording program | |
KR101627936B1 (en) | The security input method and apparatus of voice control for display device | |
KR20160025393A (en) | System for automatic door using transparent display and method for controlling the same | |
KR20150042086A (en) | Apparatus for anti-hacking fingerprint recognition means of cell-phone and surface means and method of the same | |
KR20150043272A (en) | The method of voice control for display device | |
KR20060003689A (en) | Apparatus and method for selecting menu of fingerprint identification communication terminal | |
KR20140037575A (en) | Method and apparatus for authenticating password using sensing information | |
WO2017063297A1 (en) | Code-based terminal input method and device | |
US20180300001A1 (en) | Electronic device, control method, and non-transitory storage medium | |
KR20170034056A (en) | Fingerprint Devices of Smartwatch | |
JP2016001426A (en) | Information input device and input information determination method using touch panel | |
KR101253745B1 (en) | Digital door lock and operation method of the same | |
US20190042724A1 (en) | Method and device for unlocking terminal | |
TW201543361A (en) | Input system for rapidly activating macro function | |
KR102365094B1 (en) | Touch interface device and control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
LAPS | Lapse due to unpaid annual fee |