KR20140060807A - Computer interface method using user's body and voice - Google Patents
Computer interface method using user's body and voice Download PDFInfo
- Publication number
- KR20140060807A KR20140060807A KR1020120127592A KR20120127592A KR20140060807A KR 20140060807 A KR20140060807 A KR 20140060807A KR 1020120127592 A KR1020120127592 A KR 1020120127592A KR 20120127592 A KR20120127592 A KR 20120127592A KR 20140060807 A KR20140060807 A KR 20140060807A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- voice
- computer interface
- computer
- motion
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03543—Mice or pucks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
본 발명은 사용자의 신체 및 음성을 이용한 컴퓨터 인터페이스 방법에 관한 것이다.The present invention relates to a computer interface method using a user's body and voice.
최근 들어 스마트폰의 보급과 함께 터치 스크린이 가장 편리한 사용자 인터페이스로 각광 받고 있다. 그러나, 터치 스크린에도 한계점은 분명히 존재한다. 그 중 하나는 여전히 무엇인가를 이용하거나 또는 사용자 신체 예컨대, 손가락을 직접 접촉시켜, 입력을 수행한다는 것이다.In recent years, along with the spread of smartphones, the touch screen has become the most convenient user interface. However, there are also clear limitations on the touch screen. One of them is still using something or carrying out the input by touching the user's body, for example, a finger directly.
또한, 터치 스크린에 있어서도, 그 스크린 자체가 키보드 자판 또는 마우스와 동일한 방식으로 이용되고 있다. 예컨대, 터치 스크린을 키보드로 사용하는 경우, 기존의 키보드와 같이, 사용자는 터치 스크린의 표면을 누르는 형식으로 입력을 수행한다.Also in the touch screen, the screen itself is used in the same manner as the keyboard or the mouse. For example, when the touch screen is used as a keyboard, the user performs input in the form of pressing the surface of the touch screen like a conventional keyboard.
이러한 기존의 키보드 또는 마우스와 같은 인터페이스 방식은 컴퓨터 사용자에게 새로운 컴퓨팅 환경을 제공하고 새로운 형식의 콘텐츠를 창출하기에는 그 한계가 있다. 이에, 새로운 컴퓨터 사용자 인터페이스를 제공하기 위한 많은 연구가 수행되고 있다.Such conventional interface methods such as a keyboard or a mouse have limitations in providing a new computing environment to computer users and creating new types of contents. Therefore, much research has been conducted to provide a new computer user interface.
도 1은 종래의 컴퓨터 인터페이스 장치를 나타낸 도면이고, 도 2는 도 1에 도시된 컴퓨터 인터페이스 장치의 사용 예를 나타낸 도면이다.FIG. 1 is a view showing a conventional computer interface device, and FIG. 2 is a view showing an example of use of the computer interface device shown in FIG.
도 1을 참조하면, 컴퓨터 인터페이스 장치는 RGB 카메라(10), 적외선 인식 센서(20), 적외선 레이저(30), 마이크 어레이(40) 및 틸트 모터(50)를 포함한다.1, the computer interface device includes an
상기 RGB 카메라(10), 적인선 인식 센서(20) 및 적외선 레이저(30)는 사용자의 동작을 인식하는데에 이용될 수 있다. 상기 RGB 카메라(10)는 단순히 물체의 색, 크기 및 개수와 같은 2차원 데이터를 획득 및 처리한다. 상기 적외선 인식 센서(20)와 적외선 레이저(30)는 도 2에 나타낸 바와 같이, 적외선 레이저를 이용한 물체의 반사를 상기 적외선 인식 센서(20)에서 검출하고 이를 기초로 물체의 깊이 정보를 3D로 처리한다. 상기 마이크 어레이(40)는 배열된 다수의 마이크들을 포함하며, 상기 틸트 모터(50)는 본 장치의 각도를 조절에 사용된다. The
그러나, 상기 종래의 컴퓨터 인터페이스 장치는 사용자의 동작 및 음성을 컴퓨터에서 인식할 수 있는 방법을 지원하지만, 상기 종래의 컴퓨터 인터페이스 장치의 입력 방식은 응용 프로그램에 적용할 수 없는 문제가 있다.
However, the conventional computer interface device supports a method of recognizing the user's operation and voice by a computer, but the input method of the conventional computer interface device can not be applied to an application program.
이에 본 발명은 상술한 사정을 감안하여 창출된 것으로서, 본 발명의 목적은 음성 인식 기술과 모션 인식 기술을 이용하여 직접적인 터치 없는 새로운 컴퓨팅 환경을 구축가능하게 하는 사용자 신체 및 음성을 이용한 컴퓨터 인터페이스 방법을 제공하는 것이다.SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and it is an object of the present invention to provide a computer interface method using a user body and voice, which enables a new computing environment without a direct touch to be constructed using speech recognition technology and motion recognition technology .
상기 목적을 달성하기 위한, 본 발명에 따른 사용자 신체 및 음성을 이용한 컴퓨터 인터페이스 방법은 RGB 카메라, 적외선 인식 센서, 적외선 레이저, 마이크 어레이, 틸트 모터, 메모리 및 컨트롤러를 포함하며, 상기 RGB 카메라, 상기 적외선 인식 센서 및 상기 적외선 레이저를 통해 사용자 신체의 3차원 위치 정보를 획득하여 사용자 신체의 움직임을 파악하며, 상기 마이크 어레이를 통해 입력되는 사용자 음성을 인식하는 컴퓨터 인터페이스 장치에 있어서의 컴퓨터 인터페이스 방법에 있어서, a) 상기 컨트롤러는 상기 컴퓨터 인터페이스 장치의 모드를 판단하는 단계; b) 상기 컨트롤러는 단계 a)에 의해 음성 모드로 판단되는 경우, 상기 마이크 어레이로부터 입력되는 음성 신호와 상기 메모리에 저장된 음성 데이터를 대비하고, 상기 대비 결과는 일치하는 경우, 상기 음성 신호에 대응하는 신호를 컴퓨터에 제공하는 단계; c) 상기 컨트롤러는 단계 a)에 의해 마우스 모드로 판단하는 경우, 마우스 기능을 사용자의 신체에 할당하고, 상기 RGB 카메라, 적외선 인식 센서 및 적외선 레이저를 통해 인식되는 상기 사용자 신체의 움직임을 상기 메모리에 저장된 데이터와 대비하며, 상기 사용자 신체의 움직임에 대응하는 마우스 기능 신호를 발생시키고, 상기 발생되는 마우스 기능 신호를 상기 컴퓨터에 제공하는 단계; 및 d) 상기 컨트롤러는 단계 a)에 의해 단축 모션 모드로 판단하는 경우, 단축 기능을 사용자의 신체에 할당하고, 상기 RGB 카메라, 적외선 인식 센서 및 적외선 레이저를 통해 인식되는 상기 사용자 신체의 움직임을 상기 메모리에 저장된 데이터와 대비하며 상기 할당된 사용자 신체의 움직임에 대응하는 단축 모션 신호를 발생시키고, 상기 발생되는 단축 모션 신호를 상기 컴퓨터에 제공하는 단계를 포함한다. According to an aspect of the present invention, there is provided a computer interface method using a user body and a voice, the method including: an RGB camera, an infrared ray recognition sensor, an infrared laser, a microphone array, a tilt motor, A computer interface method in a computer interface device for recognizing a user's voice inputted through a microphone array by acquiring three-dimensional position information of a user's body through a recognition sensor and the infrared laser, a) the controller determining a mode of the computer interface device; b) the controller compares the voice signal input from the microphone array with the voice data stored in the memory when it is judged in the voice mode by step a), and when the contrast result is coincident, Providing a signal to the computer; c) The controller assigns a mouse function to the user's body when the controller determines in the mouse mode in step a), and controls the movement of the user's body recognized through the RGB camera, the infrared recognition sensor and the infrared laser to the memory Generating a mouse function signal corresponding to the movement of the user's body in comparison with stored data and providing the generated mouse function signal to the computer; And d) the controller assigns the shortening function to the body of the user when judging the short axis motion mode by step a), and detects the movement of the user body recognized through the RGB camera, the infrared ray recognition sensor and the infrared laser, Generating a uniaxial motion signal corresponding to the motion of the user's body in contrast to the data stored in the memory, and providing the generated uniaxial motion signal to the computer.
상기 마우스의 기능은 좌클릭, 우클릭, 더블클릭, 휠, 커서 이동 및 드래그 작동 중 하나 이상을 포함한다.The function of the mouse includes at least one of left click, right click, double click, wheel, cursor movement, and drag operation.
상기 좌클릭, 우클릭, 더블클릭 및 휠은 사용자 신체의 왼손에 할당하고, 상기 커서 이동 및 드래그 작동은 사용자 신체의 오른손에 할당된다.The left click, right click, double click, and wheel are assigned to the left hand of the user's body, and the cursor movement and drag operation is assigned to the right hand of the user's body.
상기 단축 기능은 프로그램 종료, 새로 고침, 브라우저 실행, 뒤로 가기, 앞으로 가기, 앞으로 가기, 프로그램 최대화, 및 프로그램 최소화 중 하나 이상을 포함한다.The shortening function includes at least one of program end, refresh, browser execution, backward, forward, forward, program maximization, and program minimization.
본 발명에 의하면, 음성 인식 기술과 사람의 동작을 이해하는 모션 인식 기술을 이용하여 터치 없는 새로운 컴퓨팅 환경을 구축하여 누르지 않고 가까이 가지 않아도 작동하는 컴퓨팅환경을 구축할 수 있게 한다. 그리고 그 환경에 맞는 콘텐츠를 제공할 수 있는 기틀을 제공하여 기존 사용자 인터페이스에서는 접하지 못한 다양한 콘텐츠를 창조하는 하나의 기틀을 마련하게 된다.According to the present invention, a new computing environment without a touch can be constructed by using a speech recognition technology and a motion recognition technology that understands a person's movements, thereby making it possible to construct a computing environment that operates without being pressed. It provides a framework for providing content suitable for the environment, and thus provides a framework for creating various contents that are not available in the existing user interface.
도 1은 종래의 컴퓨터 인터페이스 장치를 나타낸 도면이다.
도 2는 도 1에 도시된 컴퓨터 인터페이스 장치의 사용 예를 나타낸 도면이다.
도 3은 본 발명의 실시 예에 따른 사용자 신체 및 음성을 이용한 컴퓨터 인터페이스 방법을 설명하기 위한 기능 동작 흐름도이다.
도 4는 본 발명의 실시 예에 따른 음성 인식 모드를 설명하기 위한 기능 동작 흐름도이다.
도 5 및 도 6은 본 발명의 실시 예에 따른 사용자 신체 및 음성을 이용한 컴퓨터 인터페이스 방법을 설명하기 위한 도면들이다.
도 7는 본 발명의 실시 예에 따른 마우스 모드를 설명하기 위한 기능 동작 흐름도이다.
도 8은 본 발명의 실시 예에 따른 단축 모드를 설명하기 위한 기능 동작 흐름도이다.
도 9는 본 발명의 실시 예에 따른 사용자 신체 및 음성을 이용한 컴퓨터 인터페이스 방법이 적용되는 시스템의 일 예를 나타낸 구성도이다.1 is a diagram showing a conventional computer interface device.
2 is a diagram showing an example of use of the computer interface apparatus shown in FIG.
FIG. 3 is a functional flowchart illustrating a computer interface method using a user body and voice according to an exemplary embodiment of the present invention. Referring to FIG.
4 is a functional flowchart illustrating a voice recognition mode according to an embodiment of the present invention.
5 and 6 are diagrams for explaining a computer interface method using a user body and voice according to an embodiment of the present invention.
7 is a functional flowchart illustrating a mouse mode according to an embodiment of the present invention.
8 is a functional operation flowchart for explaining a shortening mode according to an embodiment of the present invention.
9 is a block diagram illustrating an example of a system to which a computer interface method using a user body and voice according to an embodiment of the present invention is applied.
이하, 첨부한 도면을 참조하여 본원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 구현 예 및 실시 예를 상세히 설명한다.Hereinafter, embodiments and examples of the present invention will be described in detail with reference to the accompanying drawings, so that those skilled in the art can easily carry out the present invention.
그러나 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 구현 예 및 실시 예에 한정되지 않는다. 그리고 도면에서 본원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.It should be understood, however, that the present invention may be embodied in many different forms and is not limited to the embodiments and examples described herein. In the drawings, the same reference numbers are used throughout the specification to refer to the same or like parts.
본원 명세서 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout this specification, when an element is referred to as "comprising ", it means that it can include other elements as well, without departing from the other elements unless specifically stated otherwise.
도 9는 본 발명의 실시 예에 따른 사용자 신체 및 음성을 이용한 컴퓨터 인터페이스 방법이 적용되는 컴퓨터 시스템의 일 예를 나타낸 구성도이다. FIG. 9 is a block diagram illustrating an example of a computer system to which a computer interface method using a user body and voice according to an embodiment of the present invention is applied.
도 9를 참조하면, 본 발명이 적용되는 컴퓨터 시스템은 컴퓨터 인터페이스 장치(100) 및 컴퓨터(PC, 200)를 포함한다.Referring to FIG. 9, a computer system to which the present invention is applied includes a
상기 컴퓨터 인터페이스 장치(100)는 RGB 카메라(10), 적외선 인식 센서(20), 적외선 레이저(30), 마이크 어레이(40), 틸트 모터(50), 컨트롤러(70) 및 메모리(60)를 포함한다. The
상기 메모리(60)는 상기 컴퓨터 인터페이스 장치(100)의 제어에 필요한 데이터들을 저장한다. 예컨대, 상기 메모리(60)는 음성 인식, 마우스 및 단축 모드들에서의 동작에 필요한 데이터들을 저장한다.The
상기 컨트롤러(70)는 상기 컴퓨터 인터페이스 장치(100) 전반을 제어한다. The
상기 컴퓨터 인터페이스 장치(100)의 컨트롤러(70)는 사용자의 동작 및 음성을 인식하며 본 컴퓨터 인터페이스 장치(100)의 모드를 판단한다.The
상기 컴퓨터 인터페이스 장치(100)의 모드가 음성 인식 모드인 것으로 판단되는 경우, 상기 컨트롤러(70)는 상기 마이크 어레이(40)로부터 입력되는 음성 신호와 상기 메모리(60)에 사전에 저장된 음성 데이터를 대비하고, 상기 대비 결과는 일치하는 경우, 상기 음성 신호에 대응하는 신호를 컴퓨터(200)에 제공한다.When the mode of the
상기 컴퓨터 인터페이스 장치(100)의 컨트롤러(70)에 의한 상기 음성 인식은 상기 마이크 어레이(40)를 통해 입력받은 음성 소스를 분석하여 미리 설정해 놓은 음성 소스와 매칭이 된다면 이에 따른 신호를 컴퓨터(200)에 제공한다. 상기 음성 인식은 입력 받은 음성 소스가 사전에 준비된 데이터와 어느 정도 일치하는지 여부에 의해 결정될 수 있다. 또한, 상기 음성 인식은 앞으로 데이터가 많아지거나 음성 소스에 잡음이나 하울링을 제거하는 방법을 사용하면 보다 나은 음성 인식 결과를 얻을 수 있다. 물론, 새로운 처리 방식이나 새로운 알고리즘을 찾는다면 인식률은 보다 향상될 것이다.The voice recognition by the
또한, 상기 음성 인식은 다양한 언어들을 지원할 수 있다. 예컨대, 상기 컴퓨터 인터페이스 장치(100)는 입력되는 음성의 언어가 영어 인지 또는 한국어인지를 판단한다. 그리고 판단 결과에 따라 영어 또는 한국어를 인식할 수 있다.In addition, the speech recognition may support various languages. For example, the
상기 모드가 마우스 모드인 것으로 판단되는 경우, 상기 컴퓨터 인터페이스 장치(100)의 컨트롤러(70)는 사용자의 동작을 인식하게 된다. 상기 마우스 모드에서는 마우스 기능을 사용자의 신체에 할당되며, 상기 컴퓨터 인터페이스 장치(100)의 컨트롤러(70)는 상기 RGB 카메라(10), 적외선 인식 센서(20) 및 적외선 레이저(30)를 통해 인식되는 상기 할당된 사용자 신체의 움직임에 대응하는 마우스 기능 신호를 발생시키고, 상기 발생되는 마우스 기능 신호를 상기 컴퓨터(200)에 제공한다. 예컨대, 상기 컴퓨터 인터페이스 장치(100)는 도 5와 같이 사용자의 관절을 인식한다. 상기 컴퓨터 인터페이스 장치(100)는 인식한 관절의 위치를 추적하여 도 6과 같이 사람의 뼈대를 그릴 수 있고 관절이나 특정 위치에 가상의 이미지를 띄우거나 따라다니는 물체를 지정할 수도 있다. When it is determined that the mode is the mouse mode, the
또한, 상기 마우스 모드에서 상기 좌클릭, 우클릭, 더블클릭 및 휠은 사용자 신체의 왼손에 할당하고, 상기 커서 이동 및 드래그 작동은 사용자 신체의 오른손에 할당된다. 즉, 각 관절마다 x, y, z의 좌표 값이 지정되고 관절의 x, y, z의 좌표 값을 얻어올 수 있다. 이 특성을 이용하여 오른손 관절, 왼손 관절의 좌표와 화면상 커서의 위치를 매핑을 통해 마우스를 대체하여 사람의 신체로 컴퓨터 제어를 제어할 수 있게 된다.In the mouse mode, the left click, right click, double click, and wheel are assigned to the left hand of the user's body, and the cursor movement and drag operation are assigned to the right hand of the user's body. That is, coordinate values of x, y, and z are assigned to each joint, and coordinate values of x, y, and z of the joint can be obtained. By using this characteristic, it is possible to control the computer control by the human body by replacing the mouse by mapping the coordinates of the right and left joints and the position of the cursor on the screen.
한편, 상기 모드가 단축 모드인 것으로 판단되는 경우, 상기 컴퓨터 인터페이스 장치(100)는 또한 사용자의 동작을 인식하게 된다. 예컨대, 상기 컴퓨터 인터페이스 장치(100)는 단축 기능을 사용자의 신체에 할당하고, 상기 RGB 카메라(10), 적외선 인식 센서(20) 및 적외선 레이저(30)를 통해 인식되는 상기 할당된 사용자 신체의 움직임에 대응하는 단축 모션 신호를 발생시키고, 상기 발생되는 단축 모션 신호를 상기 컴퓨터(200)에 제공하게 된다. 예컨대, 상기 단축 기능은 프로그램 종료, 새로 고침, 브라우저 실행, 뒤로 가기, 앞으로 가기, 앞으로 가기, 프로그램 최대화, 및 프로그램 최소화 중 하나 이상을 포함하고, 상기 기능들에 각각의 모션이 부여된다. Meanwhile, when it is determined that the mode is the short mode, the
즉, 앞서 설명한 바와 같이, 상기 컴퓨터 인터페이스 장치(100)는 모션 인식을 위해 각 관절마다 좌표 값들을 비교하여 관절의 상대적인 값들을 얻어온다. 그리고, 그 상대적인 값들을 조건으로 넣으면 특정 모션에 특정 기능을 넣을 수 있다. 예컨대, 오른손 관절이 어깨 관절보다 위에 있다고 가정하면 사용자는 오른손을 위로 들고 있다고 인식할 수 있다. 그러나, 오른쪽 팔꿈치 관절이 어깨보다 위라고 할 때는 팔을 번쩍 들고 있는 상태임을 알 수 있다. 이처럼 각 관절의 상대적인 좌표를 이용하여 여러 가지 동작을 세밀하게 인식할 수 있다. 따라서, 인식한 동작들을 이용하여 다양한 기능을 구현할 수 있다.That is, as described above, the
이하, 도 3, 도 4, 도 7 및 도 8을 참조하여, 본 발명을 보다 상세히 설명한다.Hereinafter, the present invention will be described in more detail with reference to Figs. 3, 4, 7 and 8. Fig.
도 3은 도 1에 도시된 컴퓨터 시스템의 동작을 설명하기 위한 기능 동작 흐름도이다.3 is a functional operation flow chart for explaining the operation of the computer system shown in Fig.
먼저, 도 3을 참조하면, 상기 컴퓨터 인터페이스 장치(100)의 컨트롤러(70)는 상기 컴퓨터 인터페이스 장치(100)의 동작 모드를 판단한다(S1).Referring to FIG. 3, the
상기 컴퓨터 인터페이스 장치(100)의 동작 모드가 음성 인식 모드인 것으로 판단되는 경우, 상기 컴퓨터 인터페이스 장치(100)는 음성 인식을 개시한다(S2). If it is determined that the operation mode of the
상기 컴퓨터 인터페이스 장치(100)는 상기 마이크 어레이(40)로부터 입력되는 음성 신호와 상기 메모리(60)에 저장된 음성 데이터를 대비하고, 상기 대비 결과 일치하는 경우, 상기 음성 신호에 대응하는 신호를 컴퓨터에 제공한다(S3, S4).The
도 4를 참조로, 상기 컴퓨터 인터페이스 장치(100)의 음성 모드에서의 동작을 설명하면, 상기 컴퓨터 인터페이스 장치(100)는 입력되는 음성의 언어가 영어 인지 또는 한국어인지를 사용자에 의해 선택되거나 또는 자동으로 판단할 수 있다. 그리고 선택 또는 판단 결과에 따라 영어 또는 한국어를 인식을 시작한다(S41 내지 S44).Referring to FIG. 4, the operation of the
음성 인식이 개시된 후, 사용자로부터 음성이 입력되면, 상기 컴퓨터 인터페이스 장치(100)는 상기 음성을 인식하고, 상기 메모리(60)에 저장된 데이터와 대비한다(S45, S46).After voice recognition is started, if the user inputs a voice, the
상기 대비 결과, 상기 입력된 음성이 상기 메모리(60)에 저장된 데이터들 중 일치하는 것이 존재하는 경우, 해당 데이터에 따라 신호를 발생시키고, 상기 발생되는 신호를 상기 컴퓨터(200)에 제공한다(S47, S49).If there is a match among the data stored in the
이와 달리, 일치하는 데이터가 존재하지 않는다면, 음성 모드가 끝날 때까지 상기 컴퓨터 인터페이스 장치(100)는 상술한 단계들을 반복 수행한다(S48, S50).Otherwise, if there is no matching data, the
상기 단계 S1의 판단 결과, 상기 컴퓨터 인터페이스 장치(100)의 동작 모드가 마우스 모드인 것으로 판단되는 경우, 상기 컴퓨터 인터페이스 장치(100)는 동작 인식을 개시한다(S5).If it is determined in step S1 that the operation mode of the
상기 마우스 모드로 진입하면, 상기 컴퓨터 인터페이스 장치(100)는 사용자의 동작을 인식하게 된다(S6). Upon entering the mouse mode, the
상기 마우스 모드에서 상기 컴퓨터 인터페이스 장치(100)는 사용자의 손 움직임을 인식하고, 상기 사용자의 손 움직임을 상기 메모리(60)에 저장된 손목 움직임 데이터와 대비한 후, 해당 데이터에 따른 신호를 상기 컴퓨터(200)에 제공한다(S7). In the mouse mode, the
도 7을 참조로 상기 마우스 모드를 보다 상세히 설명하면, 상기 컴퓨터 인터페이스 장치(100)는 마우스 모드인지를 판단한 후, 판단 결과 마우스 모드인 경우(S71, S72), 상기 사용자의 왼손 움직임을 상기 메모리(60)에 저장된 데이터를 대비하고, 상기 사용자의 왼손 움직임이 상기 메모리(60)에 저장된 좌클릭, 우클릭, 더블클릭 또는 휠에 대응하면, 해당 기능에 대응하는 신호를 상기 컴퓨터(200)를 제공한다(S73).Referring to FIG. 7, the
또한, 상기 컴퓨터 인터페이스 장치(100)는 상기 사용자의 오른손 움직임을 상기 메모리(60)에 저장된 데이터를 대비하고, 상기 사용자의 오른손 움직임이 상기 메모리(60)에 저장된 X, Y 좌표의 커서 이동인지 또는 Z좌표의 드래그에 대응하면, 해당 기능에 대응하는 신호를 상기 컴퓨터(200)에 제공한다(S74, S75).Also, the
다시 도 3에서, 상기 모드가 단축 모드인 것으로 판단되는 경우, 상기 컴퓨터 인터페이스 장치(100)는 또한 사용자의 동작을 인식하게 된다(S8). 이어, 상기 컴퓨터 인터페이스 장치(100)는 상기 사용자 동작에 대응하는 단축 모션 신호를 발생시키고, 상기 발생되는 단축 모션 신호를 상기 컴퓨터(200)에 제공하게 된다(S9). 예컨대, 도 8에 나타낸 바와 같이, 상기 컴퓨터 인터페이스 장치(100)는 모드가 단축 모드인 것으로 판단되는 경우(S81, S82), 상기 사용자의 동작이 상기 메모리(60)에 저장된 데이터 즉, 프로그램 종료, 새로 고침, 브라우저 실행, 뒤로 가기, 앞으로 가기, 앞으로 가기, 프로그램 최대화, 및 프로그램 최소화 중 하나 이상에 대응하는지를 판단하고, 상기 사용자 동작에 상기 기능들 중 하나에 해당되는 것을 판단하는 경우, 해당 신호를 발생시켜 상기 컴퓨터(200)에 제공한다(S83, S84). Referring again to FIG. 3, when it is determined that the mode is the short mode, the
본 발명은 특정한 실시 예에 관련하여 도시하고 설명하였지만, 이하의 특허청구범위에 의해 제공되는 본 발명의 기술적 사상을 벗어나지 않는 한도 내에서, 본 발명이 다양하게 개량 및 변화될 수 있다는 것은 당업계에서 통상의 지식을 가진 자에게 있어서 자명할 것이다.While the present invention has been particularly shown and described with reference to specific embodiments thereof, it will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the following claims It will be apparent to those of ordinary skill in the art.
10: RGB 카메라 20: 적인선 인식 센서
30: 적외선 레이저 40: 마이크 어레이
50: 틸트 모터 60: 메모리
70: 컨트롤러 100: 컴퓨터 인터페이스 장치
200: 컴퓨터10: RGB camera 20: Line recognition sensor
30: Infrared laser 40: Microphone array
50: tilt motor 60: memory
70: controller 100: computer interface device
200: computer
Claims (4)
a) 상기 컨트롤러는 상기 컴퓨터 인터페이스 장치의 모드를 판단하는 단계;
b) 상기 컨트롤러는 단계 a)에 의해 음성 모드로 판단되는 경우, 상기 마이크 어레이로부터 입력되는 음성 신호와 상기 메모리에 저장된 음성 데이터를 대비하고, 상기 대비 결과는 일치하는 경우, 상기 음성 신호에 대응하는 신호를 컴퓨터에 제공하는 단계;
c) 상기 컨트롤러는 단계 a)에 의해 마우스 모드로 판단하는 경우, 마우스 기능을 사용자의 신체에 할당하고, 상기 RGB 카메라, 적외선 인식 센서 및 적외선 레이저를 통해 인식되는 상기 사용자 신체의 움직임을 상기 메모리에 저장된 데이터와 대비하며, 상기 사용자 신체의 움직임에 대응하는 마우스 기능 신호를 발생시키고, 상기 발생되는 마우스 기능 신호를 상기 컴퓨터에 제공하는 단계; 및
d) 상기 컨트롤러는 단계 a)에 의해 단축 모션 모드로 판단하는 경우, 단축 기능을 사용자의 신체에 할당하고, 상기 RGB 카메라, 적외선 인식 센서 및 적외선 레이저를 통해 인식되는 상기 사용자 신체의 움직임을 상기 메모리에 저장된 데이터와 대비하며 상기 할당된 사용자 신체의 움직임에 대응하는 단축 모션 신호를 발생시키고, 상기 발생되는 단축 모션 신호를 상기 컴퓨터에 제공하는 단계를 포함하는 것을 특징으로 하는
사용자 신체 및 음성을 이용한 컴퓨터 인터페이스 방법.Dimensional position information of the user's body through the RGB camera, the infrared ray recognition sensor, and the infrared laser to obtain a three-dimensional position information of the user's body by using the RGB camera, an infrared ray recognition sensor, an infrared ray laser, a microphone array, a tilt motor, A computer interface method in a computer interface device for recognizing a movement and recognizing a user's voice inputted through the microphone array,
a) the controller determining a mode of the computer interface device;
b) the controller compares the voice signal input from the microphone array with the voice data stored in the memory when it is judged in the voice mode by step a), and when the contrast result is coincident, Providing a signal to the computer;
c) The controller assigns a mouse function to the user's body when the controller determines in the mouse mode in step a), and controls the movement of the user's body recognized through the RGB camera, the infrared recognition sensor and the infrared laser to the memory Generating a mouse function signal corresponding to the movement of the user's body in comparison with stored data and providing the generated mouse function signal to the computer; And
d) If the controller determines in the short-motion mode by step a), the controller allocates the shortening function to the body of the user, and controls the motion of the user's body, which is recognized through the RGB camera, infrared- And generating a uniaxial motion signal corresponding to the motion of the user's body allocated to the user and providing the generated uniaxial motion signal to the computer,
Computer interface method using user body and voice.
사용자 신체 및 음성을 이용한 컴퓨터 인터페이스 방법.The method of claim 1, wherein the function of the mouse includes at least one of a left click, a right click, a double click, a wheel, a cursor movement, and a drag operation
Computer interface method using user body and voice.
사용자 신체 및 음성을 이용한 컴퓨터 인터페이스 방법.3. The method of claim 2, wherein the left click, right click, double click, and wheel are assigned to the left hand of the user's body, and the cursor movement and drag operations are assigned to the right hand of the user's body
Computer interface method using user body and voice.
사용자 신체 및 음성을 이용한 컴퓨터 인터페이스 방법.
4. The method according to any one of claims 1 to 3, wherein the shortening function includes at least one of a program end, a refresh, a browser execution, a backward, a forward, a forward, a program maximization, To
Computer interface method using user body and voice.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120127592A KR101414577B1 (en) | 2012-11-12 | 2012-11-12 | Computer Interface Method Using User's Body and Voice |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120127592A KR101414577B1 (en) | 2012-11-12 | 2012-11-12 | Computer Interface Method Using User's Body and Voice |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140060807A true KR20140060807A (en) | 2014-05-21 |
KR101414577B1 KR101414577B1 (en) | 2014-07-03 |
Family
ID=50890008
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120127592A KR101414577B1 (en) | 2012-11-12 | 2012-11-12 | Computer Interface Method Using User's Body and Voice |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101414577B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106933393A (en) * | 2017-03-24 | 2017-07-07 | 南京航空航天大学 | A kind of novel passive wireless mouse and its control method |
WO2020102977A1 (en) * | 2018-11-20 | 2020-05-28 | 深圳市欢太科技有限公司 | Image processing method and related product |
KR20220161094A (en) * | 2021-05-28 | 2022-12-06 | 주식회사 피앤씨솔루션 | Augmented reality glasses device with voice command translation in offline environment |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1031551A (en) * | 1996-07-15 | 1998-02-03 | Mitsubishi Electric Corp | Human interface system and high-speed moving body position detecting device using the same |
KR101046022B1 (en) * | 2009-03-11 | 2011-07-01 | 삼성전기주식회사 | Remote control device using human body motion and human voice |
KR101896947B1 (en) * | 2011-02-23 | 2018-10-31 | 엘지이노텍 주식회사 | An apparatus and method for inputting command using gesture |
-
2012
- 2012-11-12 KR KR1020120127592A patent/KR101414577B1/en active IP Right Grant
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106933393A (en) * | 2017-03-24 | 2017-07-07 | 南京航空航天大学 | A kind of novel passive wireless mouse and its control method |
CN106933393B (en) * | 2017-03-24 | 2023-03-17 | 南京航空航天大学 | Novel passive wireless mouse and control method thereof |
WO2020102977A1 (en) * | 2018-11-20 | 2020-05-28 | 深圳市欢太科技有限公司 | Image processing method and related product |
KR20220161094A (en) * | 2021-05-28 | 2022-12-06 | 주식회사 피앤씨솔루션 | Augmented reality glasses device with voice command translation in offline environment |
Also Published As
Publication number | Publication date |
---|---|
KR101414577B1 (en) | 2014-07-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11392212B2 (en) | Systems and methods of creating a realistic displacement of a virtual object in virtual reality/augmented reality environments | |
EP3436916B1 (en) | Applications for multi-touch input detection | |
US11010512B2 (en) | Improving predictive information for free space gesture control and communication | |
CN104956292B (en) | The interaction of multiple perception sensing inputs | |
JP2020052991A (en) | Gesture recognition-based interactive display method and device | |
US10372229B2 (en) | Information processing system, information processing apparatus, control method, and program | |
CN104969148A (en) | Depth-based user interface gesture control | |
JP6711817B2 (en) | Information processing apparatus, control method thereof, program, and storage medium | |
US20150316996A1 (en) | Systems and methods for remapping three-dimensional gestures onto a finite-size two-dimensional surface | |
KR20170009979A (en) | Methods and systems for touch input | |
JP2016224686A (en) | Information processing apparatus, control method thereof, program, and storage medium | |
KR101414577B1 (en) | Computer Interface Method Using User's Body and Voice | |
CN106598422B (en) | hybrid control method, control system and electronic equipment | |
US11620790B2 (en) | Generating a 3D model of a fingertip for visual touch detection | |
US20140304736A1 (en) | Display device and method of controlling the display device | |
JP2023527906A (en) | Control method, device, terminal and storage medium | |
CN105488832A (en) | Optical digital ruler | |
US11782548B1 (en) | Speed adapted touch detection | |
JP2010086367A (en) | Positional information inputting device, positional information inputting method, program, information processing system, and electronic equipment | |
Yeom et al. | [POSTER] Haptic Ring Interface Enabling Air-Writing in Virtual Reality Environment | |
CN113961067A (en) | Non-contact graffiti drawing method and recognition interaction system based on deep learning | |
KR102107182B1 (en) | Hand Gesture Recognition System and Method | |
Lee et al. | Mouse operation on monitor by interactive analysis of intuitive hand motions | |
WO2021075103A1 (en) | Information processing device, information processing method, and program | |
KR20130099708A (en) | Input apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |