KR20110068512A - Apparatus and method input and output in three-dimensional space - Google Patents
Apparatus and method input and output in three-dimensional space Download PDFInfo
- Publication number
- KR20110068512A KR20110068512A KR1020090125502A KR20090125502A KR20110068512A KR 20110068512 A KR20110068512 A KR 20110068512A KR 1020090125502 A KR1020090125502 A KR 1020090125502A KR 20090125502 A KR20090125502 A KR 20090125502A KR 20110068512 A KR20110068512 A KR 20110068512A
- Authority
- KR
- South Korea
- Prior art keywords
- data
- image
- input
- coordinate data
- coordinate
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
본 발명은, 3차원 공간에 출력되는 영상과 사용자의 3차원 상의 입력에 대한 상호작용 기술에 관한 것이다. 더욱 자세하게는, 3차원 공간에 출력되는 영상의 좌표와 사용자의 3차원 상의 입력의 좌표를 매핑하고, 입력과 영상의 좌표 상의 매핑 결과와 인식된 입력 동작에 근거하여 새로운 3차원 영상을 출력하는 기술에 관한 것이다.The present invention relates to an interaction technique for inputting an image output in a three-dimensional space and a user's three-dimensional image. More specifically, a technique for mapping the coordinates of the image output in the three-dimensional space and the coordinates of the user's input on the three-dimensional, and outputs a new three-dimensional image based on the mapping result of the input and the coordinate of the image and the recognized input operation It is about.
본 발명은 지식경제부의 사업의 일환으로 수행한 연구로부터 도출된 것이다. [과제명: 비접촉식 멀티포인트 실감 인터랙션 기술 개발]The present invention is derived from a study conducted as part of the Ministry of Knowledge Economy. [Project Name: Development of Contactless Multipoint Realistic Interaction Technology]
컴퓨터 및 유무선 통신망의 발달에 힘입어 멀티미디어 산업의 발전이 가속화되고 있다. 특히, 보급형 컴퓨터 성능의 고급화에 힘입어, 3차원의 그래픽을 이용한 멀티미디어 산업이 확대되고 있다. 또한, 이동통신 수단의 고성능화에 따라서, 3차원 그래픽을 이용한 멀티미디어 산업이 이제는 이동통신 수단에 까지 확장되고 있어, 멀티미디어 산업에 있어서 중요한 이슈가 되고 있다.The development of the multimedia industry is accelerating with the development of computers and wired and wireless communication networks. In particular, thanks to the advancement of low-end computer performance, the multimedia industry using three-dimensional graphics is expanding. In addition, with the high performance of the mobile communication means, the multimedia industry using three-dimensional graphics is now expanding to the mobile communication means, which is an important issue in the multimedia industry.
현재 사용되는 컴퓨터 상의 그래픽 사용자 인터페이스(Graphical User Interface)는 대부분 2차원이다. 하지만 최근, 스마트폰 등 이동 통신 수단의 고성능화에 힘입어, 3차원 그래픽을 이용한 이동통신 수단이 등장하고 있다. 컴퓨터의 그래픽 사용자 인터페이스 또한, 윈도우 비스타 등 3차원의 그래픽을 이용한 그래픽 사용자 인터페이스 또는 멀티미디어 컨텐츠의 보급이 확장되고 있는 추세이다. 그러나 상기 언급한 3차원 그래픽 사용자 인터페이스 또는 멀티미디어 컨텐츠는, 기존 2차원 디스플레이에 2차원 응용 프로그램을 그대로 사용하여, 3차원인 것처럼 보이는 것이 대부분이다.Currently, the graphical user interface on a computer is mostly two-dimensional. Recently, however, thanks to the high performance of mobile communication means such as smart phones, mobile communication means using three-dimensional graphics have emerged. Graphical user interface of computers In addition, the spread of graphic user interfaces or multimedia contents using three-dimensional graphics such as Windows Vista is expanding. However, the above-mentioned three-dimensional graphical user interface or multimedia content is mostly used as a two-dimensional application program on the existing two-dimensional display, and appear to be three-dimensional.
또한, 최근 급격하게 확장되고 있는 기술로서 가상 현실 체험 기술이 있다. 가상 현실 체험 기술은, 사용자가 일정한 출력 수단을 구비하면, 사용자에게 사실적인 출력을 제공하여 실제 생활에서 일어나는 것처럼 느끼게 하는 기술이다. 그러나, 이러한 기술 역시, 사용자는 출력되는 영상을 보기만 할 뿐, 사용자와 3차원 영상간의 상호작용은 존재하지 않는 것이 대부분이며, 또한 그 출력의 형태 또한 제한적인 점이 있었다.In addition, a technology that is rapidly expanding recently is a virtual reality experience technology. Virtual reality experience technology is a technology that, when the user has a certain output means, gives the user a realistic output to make it feel as if it is happening in real life. However, in such a technique, the user only sees the output image, and most of the interactions between the user and the 3D image do not exist, and the form of the output is also limited.
상기 언급한 문제점을 해결하기 위하여, 본 발명은 사용자에게 더욱 다양한 출력을 제공하고, 사용자와 3차원 영상간의 상호작용을 위한 기술을 제공하는 데 그 목적이 있다. 더욱 자세하게는, 사용자와 3차원 영상을 분석하고 이를 매핑하여, 사용자와 3차원 영상의 상호작용을 유도한다. 한편 사용자의 동작을 인식하고 이를 매핑된 결과에 적용시켜, 3차원 영상이 사용자에 의해서 변화되는 모습 또는 3차원 영상에 포함된 다양한 출력(예를 들어 촉각, 음향)들을 제공한다. 이를 통해 사용자에게 향상된 3차원 영상 기술을 제공하는 데 그 목적이 있다.In order to solve the above-mentioned problems, an object of the present invention is to provide a variety of output to the user, and to provide a technology for interaction between the user and the three-dimensional image. In more detail, the user and the 3D image are analyzed and mapped to induce interaction between the user and the 3D image. On the other hand, by recognizing a user's motion and applying it to the mapped result, the 3D image is changed by the user or various outputs (eg, tactile and sound) included in the 3D image are provided. The purpose is to provide improved 3D imaging technology to users.
상기 목적을 달성하기 위하여, 본 발명의 실시 예에 따른 3차원 공간 입출력 장치는, 센서부에 의해 측정된 3차원 공간 입력 동작을 인식하여 3차원의 입력 좌표 데이터 및 동작 데이터를 생성하는 동작 인식부와, 출력되는 3차원 영상을 분석하여 3차원의 영상 좌표 데이터를 생성하는 영상 분석부와, 입력 좌표 데이터와 영상 좌표 데이터를 매핑한 결과 및 동작 데이터에 근거한 반응 데이터를 생성하고 반응 데이터에 대응하는 3차원 영상을 실시간으로 송출하는 반응 제어부를 포함하는 것을 특징으로 한다.In order to achieve the above object, the three-dimensional space input and output device according to an embodiment of the present invention, the motion recognition unit for generating three-dimensional input coordinate data and motion data by recognizing the three-dimensional space input operation measured by the sensor unit And an image analyzer configured to analyze the output 3D image to generate 3D image coordinate data, and generate response data based on a result of mapping input coordinate data and image coordinate data and motion data and corresponding to the response data. It characterized in that it comprises a reaction control unit for transmitting a three-dimensional image in real time.
또한 본 발명의 실시 예에 따른 3차원 공간 입출력 방법은, 동작 인식부가 센서부에 의해 측정된 3차원 공간 입력 동작인 인식하여 3차원의 입력 좌표 데이터 및 동작 데이터를 생성하는 단계; 영상 분석부가 출력되고 있는 3차원 영상을 분석 하여 3차원의 영상 좌표 데이터를 생성하는 단계; 반응 제어부가 입력좌표 데이터와 영상 좌표 데이터를 매핑한 결과 및 동작 데이터에 근거한 반응 데이터를 생성하는 단계; 및 반응 제어부가 반응 데이터에 대응하는 3차원 영상을 실시간으로 송출하는 단계를 포함하는 것을 특징으로 한다.In addition, the three-dimensional space input and output method according to an embodiment of the present invention, the motion recognition unit recognizes that the three-dimensional space input operation measured by the sensor unit to generate three-dimensional input coordinate data and motion data; Generating three-dimensional image coordinate data by analyzing the three-dimensional image output from the image analyzer; Generating, by the reaction controller, response data based on a result of mapping input coordinate data and image coordinate data and motion data; And transmitting, by the reaction controller, a 3D image corresponding to the reaction data in real time.
본 발명의 실시 예에 따른 3차원 공간 입출력 장치 및 방법에 의하면, 사용자는 3차원의 그래픽을 체험하는 데 그치지 않고 3차원 영상과 상호작용할 수 있다. 또한, 사용자에게 영상의 출력뿐 아니라 반응 데이터에 대응하는 촉각, 음향 효과 등 다양한 출력을 함께 제공할 수 있다. 이에 의해서, 사용자는 3차원 그래픽 인터페이스 또는 멀티미디어를 효과적으로 사용할 수 있을 뿐 아니라, 3차원 영상을 활용한 장치 제어 또는 로봇 제어 기술에도 활용할 수 있는 효과가 있다.According to the three-dimensional space input and output device and method according to an embodiment of the present invention, the user can interact with the three-dimensional image, not just experience the three-dimensional graphics. In addition, the user may be provided with various outputs such as tactile and sound effects corresponding to the response data as well as the output of the image. As a result, the user may not only effectively use the 3D graphic interface or the multimedia, but also use the device control or the robot control technology using the 3D image.
이하, 도 1을 참조하여 본 발명의 실시 예에 따른 3차원 공간 입출력 장치에 대해서 설명하기로 한다. 이하의 설명에서 좌표축이 설정되는 공간은, 실제의 공간을 의미할 수 있다. 따라서 실제 공간상에 예를 들어 홀로그램 등을 이용하여 디스플레이되는 3차원 영상에 대한 입력 수단과의 관계는 실제 공간 상에서 이루어질 수 있을 것이다. 하지만 실제 공간 이외에도, 디스플레이 화면 등 본 발명의 기능이 수행될 수 있는 공간이면 어느 공간이라도 가능할 것이다.Hereinafter, a three-dimensional space input and output device according to an embodiment of the present invention will be described with reference to FIG. 1. In the following description, the space where the coordinate axis is set may mean an actual space. Therefore, the relation with the input means for the three-dimensional image displayed on the real space using, for example, a hologram may be made in the real space. However, in addition to the actual space, any space may be used as long as the space in which the functions of the present invention, such as a display screen, can be performed.
도 1은 본 발명의 실시 예에 따른 3차원 공간 입출력 장치에 대한 블록도이다.1 is a block diagram of a three-dimensional space input and output device according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 실시 예에 따른 3차원 공간 입출력 장치는, 동작 인식부(103), 영상 분석부(104), 및 반응 제어부(106)를 포함한다. 추가적으로, 입출력부(105) 또는 센서부(102)를 포함할 수 있다.Referring to FIG. 1, a three-dimensional spatial input / output device according to an embodiment of the present invention includes a
동작 인식부(103)는, 센서부(102)에 의해 측정된 3차원 상의 공간 입력 동작을 인식하여 3차원의 입력 좌표 데이터 및 동작 데이터를 생성하는 기능을 수행한다. 예를 들어 실제 공간(100) 상에서 사람의 손동작을 입력 수단(107)으로 할 때, 손의 위치 및 동작을 인식하여, 손의 위치에 따른 3차원의 입력 좌표 데이터를 생성한다. 또한, 손이 어떤 자세 또는 동작을 취하고 있는지를 인식하여 동작 데이터를 생성한다. 이를 통해서, 소정 좌표 상에서 입력 수단(107)(예를 들어 손)이 어떠한 자세와 동작으로 입력을 수행하는지 인식하는 기능을 수행한다. 본 발명의 실시 예에서 3차원 공간 입력 동작은 입력 수단(107)이 3차원 영상 데이터(101)가 출력되고 있는 공간 상에서 취할 수 있는 모든 동작을 의미할 것이다.The
센서부(102)는, 상기 언급한 입력 수단(107)의 위치, 자세 또는 동작을 인식할 수 있는 복수의 센서들을 포함할 수 있다. 예를 들어, 일반 촬영장치(예를 들어 카메라), GPS 기능을 포함하는 촬영장치, 적외선 센서, 자기장 센서, 초음파 센서 등이 입력 수단(107)의 위치를 감지하는 데 사용될 수 있다. 이외에도, 별도의 입력수단(예를 들어 적외선 센서가 포함된 글러브형 입력 장치)를 구비하고 이에 센서들을 부착하여 사용자가 착용한 입력 수단(107)의 위치를 감지할 수 있는 센서를 포함할 수 있을 것이다. 입력 수단(107)의 위치를 감지하여 위치 정보를 생성할 수 있는 센서라면 어느 것이나 가능할 것이다.The
센서부(102)에 포함되는 센서들은, 동작 인식을 수행하는 센서가 될 수 있다. 입력 수단(107)의 자세(또는 제스처) 또는 움직이는 동작을 인식한 정보를 동작 인식부(103)에 전달할 수 있는 센서들이 포함될 것이다. 예를 들어, 3차원 이미지를 생성하는 카메라를 포함하는 영상 촬영 장치, 손가락 굽힘 센서, 자이로 센서 등이 상기 센서에 포함될 수 있을 것이다. 이 외에도, 상기 언급한 별도의 입력 수단(107)에 센서들이 부착되어 있을 수 있다.The sensors included in the
동작 인식부(103)는 센서부(102)에 포함된 복수의 센서들로부터 입력 수단(107)의 위치, 자세, 또는 동작 정보를 수신한다. 이후, 영상 분석, GPS 좌표 분석, 자기장 분석, 초음파 데이터 분석 등을 통해, 소정의 3차원 입력 좌표 상에 입력 수단(107)의 위치를 매핑하고, 상기 입력 수단(107)의 위치에 대한 매핑 결과에 근거하여 3차원 공간 입력 좌표 데이터를 생성한다. 3차원 공간 입력 좌표 데이터는, x, y, z 축을 갖는 좌표축에 대한 입력 수단(107)의 위치 데이터를 의미한다. 따라서, 동작 인식부(103)는 센서들의 종류에 따른 센서 정보를 가공하여 좌표 데이터를 생성하는 연산 장치를 포함할 수 있을 것이다.The
또한, 동작 인식부(103)는 동작 데이터를 생성한다. 동작 데이터는, 상기 언급한 바와 같이 입력 수단(107)의 자세 또는 움직이는 동작을 의미한다. 센서부(102)에 포함된 복수의 센서들의 센서 정보에 근거하여, 입력 수단(107)이 어떠한 동작을 하고 있는지를 인식하게 된다. 동작 데이터에는, 입력 수단(107)의 자세(또는 제스처), 입력 수단(107)의 동작(예를 들어 소정 시간 내에 감지된 위치의 변화)이 포함될 수 있다. 자세의 변화 또한, 동작 데이터에 포함될 수 있을 것이 다.In addition, the
동작 인식부(103)는, 생성된 3차원 입력 좌표 데이터 및 동작 데이터를 반응 제어부(106)에 송신하게 된다.The
영상 분석부(104)는 입출력부(105)와 연결되어, 현재 출력되고 있는 3차원 영상을 분석하여 3차원의 영상 좌표 데이터를 생성하는 기능을 수행한다. 입출력부(105)는, 현재 출력되고 있는 3차원 영상 데이터를 영상 분석부(104)에 송신하고, 반응 제어부(106)에 의해 생성된 새로운 3차원 영상을 다시 출력하는 기능을 수행한다.The
따라서 입출력부(105)는 실제 공간상에 3차원 영상을 출력하여 사용자가 볼 수 있도록 하는 기능을 포함할 것이다. 따라서, 입출력부(105)는 예를 들어 3차원 영상을 표시하는 레이저 디스플레이 장치를 포함할 수 있을 것이다. 레이저 디스플레이 장치는 예를 들어 리니어 모터 시스템 및 고휘도 적외펄스 레이저를 조합하여 3차원 공간상에 입체 영상을 표현할 수 있는 장치가 될 수 있다. 입출력부(105)는 3차원 영상을 출력하는 기능 이외에도, 3차원 영상 데이터를 영상 분석부에 송신하고, 반응 제어부에 의해 생성된 새로운 3차원 영상 데이터를 수신하는 기능 역시 수행할 것이다.Therefore, the input /
영상 분석부(104)는 입출력부(105)로부터 현재 출력되고 있는 3차원 영상 데이터를 수신한다. 이후, 수신한 3차원 영상 데이터를 분석하여 3차원 영상을 3차원 좌표 상에 매핑한다. 결과적으로, 영상 분석부(104)는 3차원 영상 데이터가 존재하는 복수의 좌표 데이터를 연산하여 3차원 영상 좌표 데이터를 생성하게 되는 것이 다. 영상 분석부(104)는, 복수의 좌표 데이터 연산시에, 3차원 영상을 분석하여 소정 개수(예를 들어 60개)의 3차원 영상을 대표하는 점들을 설정한다. 그리고 소정 개수의 점에 대한 복수의 좌표 데이터를 연산하게 된다. 이를 통해 3차원 영상 좌표 데이터를 생성하게 되는 것이다. 따라서 3차원 영상 좌표 데이터는 소정 개수의 점에 대한 복수의 좌표 데이터를 포함할 수 있을 것이다.The
반응 제어부(106)는 동작 인식부(103)로부터 3차원 입력 좌표 데이터와 동작 데이터를 수신한다. 그리고 영상 분석부(104)로부터는 3차원 영상 좌표 데이터를 수신한다. 이후, 반응 제어부(106)는 입력 좌표 데이터, 영상 좌표 데이터, 및 동작 데이터에 근거하여 3차원 영상의 반응 데이터를 생성하고, 반응 데이터에 대응하는 새로운 3차원 영상을 실시간으로 송출하는 기능을 수행한다.The
반응 제어부(106)가 반응 데이터를 생성하는 기능을 수행하는 방법은 다음과 같다. 먼저, 입력 좌표 데이터와 영상 좌표 데이터를 매핑한다. 즉, 입력 좌표 데이터와 영상 좌표 데이터가 설정된 좌표축을 하나로 결합하여, 입력 좌표 데이터와 영상 좌표 데이터를 하나의 좌표축 상에 나타내는 것이다.The
입력 좌표 데이터가 설정된 좌표축과, 영상 좌표 데이터가 설정된 좌표축, 및 반응 제어부(106)에서 입력 좌표 데이터와 영상 좌표 데이터를 매핑시에 사용하는 좌표축은 본 발명의 실시 예에서 동일한 좌표축이다. 동일한 좌표축이라함은, 동일한 위치 및 방향에 설정된 좌표축을 의미한다. 즉, 반응 제어부(106)는 입력 좌표 데이터와 영상 좌표 데이터를 매핑시에, 좌표축이 조절된 입력 또는 영상 좌표 데이터를 생성할 필요가 없다. 따라서, 반응 제어부(106)는 동작 인식부(103) 및 영상 분석부(104)에서 입력 또는 영상 좌표 데이터를 생성하기 위해 설정된 좌표축과 동일한 좌표축을 저장할 수 있다. The coordinate axis in which the input coordinate data is set, the coordinate axis in which the image coordinate data is set, and the coordinate axis used in mapping the input coordinate data and the image coordinate data by the
그러나, 본 발명의 다른 실시 예에서는 동작 인식부(103), 영상 분석부(104) 및 반응 제어부(106)에 설정된 좌표축이 서로 동일한 좌표축이 아닐 수 있다. 따라서, 반응 제어부(106)에는 동작 인식부(103) 및 영상 분석부(104)에서 설정된 좌표축에 근거한 입력 또는 영상 좌표 데이터를 수정하는 기능을 더 포함할 수 있다. 반응 제어부(106)에 설정된 좌표축에 대응하도록 입력 또는 영상 좌표 데이터를 수정한다.However, in another embodiment of the present invention, the coordinate axes set in the
반응 제어부(106)에 의해 입력 또는 영상 좌표 데이터를 하나의 좌표축에 매핑하면, 영상 데이터(101)와 입력 수단(107)의 접촉 여부를 포함한 위치 관계를 판단할 수 있다. 반응 제어부(106)는 영상 데이터(101)와 입력 수단(107)의 위치 관계와, 수신한 동작 데이터에 근거하여 반응 데이터를 생성한다.When the input or image coordinate data is mapped to one coordinate axis by the
본 발명의 실시 예에서 반응 데이터는, 영상 데이터(101)의 변화 또는 영상 데이터(101)를 통해 사용자에게 전달되는 감각적 효과에 대한 데이터이다. 반응 데이터에는, 영상 데이터의 위치, 모양, 또는 형태의 변화 및 상기 변화의 연속적인 동작을 포함하여 사용자가 시각적으로 인식할 수 있는 모든 효과에 대한 데이터가 포함될 수 있다. 또한 추가적으로, 사용자가 감지할 수 있는 촉각 효과 데이터 또는 영상 데이터의 시각적 효과에 대응하는 음향 효과 데이터 역시 반응 데이터에 포함될 수 있다.In an embodiment of the present invention, the response data is data about a sensory effect transmitted to the user through the change of the
따라서 반응 제어부(106)에는, 반응 데이터를 효과별로 데이터베이스화하여 저장하는 기능을 더 포함할 수 있다. 상기 반응 데이터를 데이터베이스화하여 저장하는 저장부(도시되지 않음)가 반응 제어부(106)에 연결되어 있을 수도 있다.Therefore, the
반응 제어부(106)는, 반응 데이터 생성시에, 영상 데이터와 입력 수단(107)의 위치 관계와 동작 데이터에 대응하는 반응 데이터를 저장된 데이터베이스에서 검색하게 된다. 즉, 반응 데이터를 생성한다는 것은, 기 저장된 반응 데이터 중 영상 데이터와 입력 수단(107)의 위치 관계와 동작 데이터에 대응하는 반응 데이터를 검색하는 것을 의미할 수 있다. 물론 새로운 반응 데이터를 상기 위치 관계와 동작 데이터에 매칭하는 기능을 더 포함할 수 있으며, 이 때에는 반응 데이터를 새로 생성하거나, 반응 데이터를 생성하지 않고 현재 출력되는 3차원 영상 데이터에 포함된 효과를 유지할 수 있을 것이다.The
반응 제어부(106)는 반응 데이터가 생성되면 반응 데이터에 대응하는 새로운 3차원 영상 데이터를 생성한다. 반응 데이터에 포함된 복수의 효과들을 반영하여, 현재 출력되고 있는 3차원 영상 데이터를 변환한 3차원 영상 데이터를 생성한다. 그리고 입출력부(105)를 통해 3차원 영상 데이터를 실제 공간상에 실시간으로 출력하여, 사용자는 일련의 반응 효과를 포함하는 3차원 영상 데이터를 체험할 수 있는 것이다.When the reaction data is generated, the
도 2는 반응 제어부(106)에서의 입력 좌표 데이터와 영상 좌표 데이터를 비교한 것을 간략하게 도시한 것이다.FIG. 2 illustrates a brief comparison of input coordinate data and image coordinate data in the
도 2를 참조하면, 영상 데이터(201)은 제1 공간(200a) 내에 존재하게 된다. 영상 데이터(201)는 복수개 존재할 수 있다. 제1 공간(200a)은 예를 들어, 입출력 부(105)의 레이저 디스플레이 장치에 의해 표현될 수 있는 공간을 의미한다. 제1 공간(200a)내에 존재하는 영상 데이터(201)를 영상 분석부(104)가 분석하여 영상 좌표 데이터가 생성된다. 영상 좌표 데이터 생성시에는, 영상 분석부(104)에 저장된 제1 좌표축(204a)에 근거하여 영상 좌표 데이터가 생성된다. 상기 언급한 바와 같이, 영상 좌표 데이터는 영상 데이터(201)를 대표하는 소정 개수의 점들의 좌표 데이터를 포함할 수 있다.Referring to FIG. 2, the
입력 수단(202)은 제2 공간(200b) 내에 존재한다. 제2 공간(200a)은 본 발명의 실시 예에서 제1 공간(200a)과 일치한다. 제2 공간(200a) 내에 존재하는 입력 수단(202)의 위치를 동작 인식부(103)가 분석하여 입력 좌표 데이터를 생성하게 된다. 입력 좌표 데이터는 도 2에서는 입력 수단(202)인 손의 가운데 손가락 끝(203)이 위치하는 좌표 데이터를 의미한다. 그러나, 본 발명의 실시 예에서는 상기 영장 좌표 데이터와 마찬가지로, 입력 수단(202)을 대표하는 소정 개수(예를 들어 60개)의 점들의 좌표 데이터를 포함할 수 있다. 동작 인식부(103)에 설정된 제2 좌표축(204b)는 본 발명의 실시 예에서 제1 좌표축(204a)와 일치한다. 그러나 상기 언급한 바와 같이 제1 좌표축과 제2 좌표축은 다를 수도 있다.The input means 202 is present in the
반응 제어부(106)는 입력 좌표 데이터와 영상 좌표 데이터를 매핑하게 된다. 즉, 제1 좌표축 및 제2 좌표축과 동일한 좌표축이 반응 제어부(106)에 저장되어 있으므로, 반응 제어부는 좌표축에 영상 좌표 데이터 및 입력 좌표 데이터를 매핑한다. 매핑 결과에 의해서 영상 좌표 데이터와 입력 좌표 데이터가 일치하는 점이 있는 것으로 판단되는 경우, 이에 대응하는 반응 데이터를 검색하고, 검색된 반응 데 이터에 대응하는 소정의 효과를 포함한 새로운 영상 데이터를 출력하게 되는 것이다. 반응 데이터 검색시에는, 동작 데이터 역시 검색 조건에 포함될 수 있을 것이다. 영상 좌표 데이터와 입력 좌표 데이터가 일치하는 점이 없는 경우에도, 동작 데이터와 영상 좌표 데이터와 입력 좌표 데이터의 위치 관계에 대응하는 반응 데이터가 존재할 수 있을 것이다.The
도 3은, 본 발명의 실시 예에 따른 영상 데이터 출력의 예를 도시한 것이다.3 illustrates an example of image data output according to an exemplary embodiment of the present invention.
도 3을 참조하면, 소정의 공간(300) 내에 영상 데이터(301)가 입출력부(105)에 의해 출력되고 있다. 센서부(102)에 의해 입력 수단(302)의 위치 또는 움직임이 감지되면, 동작 인식부(103)는 입력 수단(302)에 관한 입력 좌표 데이터 및 동작 데이터를 생성한다. 이와 동시에 영상 분석부(104)는 현재 출력되고 있는 영상 데이터(301)의 영상 좌표 데이터를 생성한다. 반응 제어부는 입력 좌표 데이터 및 동작 데이터에 근거하여 입력 수단(302)이 영상 데이터(301) 쪽으로 움직이고 있으며, 영상 데이터와 입력 수단(302)이 접촉하는 지 여부를 판단하게 된다.Referring to FIG. 3,
반응 제어부(106)는 입력 수단(302)이 영상 데이터(301)에 접촉하기까지 입력 수단(302)과 영상 데이터(301)의 위치 및 동작 관계에 대응하는 반응 데이터를 실시간으로 생성하게 된다. 입력 수단(302)이 영상 데이터(301)를 때리는 순간, 영상 데이터(301)가 반응하는 방향으로 움직이면서 형태가 변하는 반응 데이터가 생성된다. 반응 데이터에 대응하는 새로운 출력, 즉 실시간으로 오른쪽으로 움직이면서 형태가 휘는 새로운 영상 데이터(303)의 움직임에 대한 출력이 이루어지게 된다.The
도 4는, 본 발명의 실시 예에 따른 3차원 공간 입출력 방법에 대한 플로우 차트이다. 도 4에 대한 설명에서는 상기 언급한 3차원 공간 입출력 장치에 대한 설명과 중복되는 부분은 생략하기로 한다.4 is a flowchart illustrating a three-dimensional space input and output method according to an embodiment of the present invention. In the description of FIG. 4, portions overlapping with the description of the above-described three-dimensional space input / output device will be omitted.
도 4를 참조하면, 본 발명의 실시 예에 따른 3차원 공간 입출력 방법은, 사용자가 입력 수단(예를 들어 사람의 손)을 통해 동작을 입력하면, 동작 인식부(103)가 센서부(102)의 감지 정보를 통해 입력 좌표 데이터 및 동작 데이터를 생성하는 단계(S1)가 수행된다. 사용자가 입력 수단을 통해 동작을 입력한다는 것은, 영상 데이터가 존재하는 소정의 공간(예를 들어 레이저 디스플레이가 출력하는 영상의 범위) 내에 입력 수단이 존재하게 되는 경우를 의미할 것이다. Referring to FIG. 4, in the three-dimensional space input / output method according to an exemplary embodiment of the present disclosure, when a user inputs an operation through an input means (for example, a human hand), the
S1 단계의 수행과 동시에, 즉 입력 수단의 동작 입력이 개시되면, 영상 분석부(104)는 3차원 영상 데이터를 분석하여 영상 좌표 데이터를 생성하는 단계(S2)를 수행한다. 반응 제어부(106)는 생성된 영상 좌표 데이터, 입력 좌표 데이터, 및 동작 데이터 중 하나 이상을 입력 받고, 영상 좌표 데이터와 입력 좌표 데이터를 매핑한다(S3). 즉 본 발명의 실시 예에서는 손동작과 영상을 매핑하는 것이다.Simultaneously with the execution of the step S1, that is, when the operation input of the input means is started, the
S3 단계가 수행되면, 반응 제어부(106)는 영상 좌표 데이터와 입력 좌표 데이터의 매핑 결과 및 동작 데이터에 근거하여 반응 데이터를 생성하는 단계(S4)를 수행한다. S4 단계는 상기 언급한 바와 같이 미리 반응 제어부(106) 또는 반응 제어부(106)에 연결된 저장부에 저장된 반응 데이터을 검색하는 것이다. 검색의 기준은, 상기 언급한 바와 같이 영상 좌표 데이터와 입력 좌표 데이터의 매핑 결과 및 동작 데이터이다.When the step S3 is performed, the
반응 제어부(106)는 이후 반응 데이터에 대응하여 효과를 발휘하는 새로운 3차원 영상 데이터를 생성하게 되며(S5), 이후 입출력부(105)를 통해서 실제 공간상에 반응 데이터에 대응하는 새로운 3차원 영상 데이터를 출력하게 된다.The
상기 언급한 본 발명의 실시 예에 따른 3차원 공간 입출력 장치 및 방법에 대한 설명은 오로지 설명적인 용도로만 사용되어야 할 것이며, 특허청구범위를 제한해서는 안 될 것이다. 또한, 본 발명의 실시 예 이외에도, 본 발명과 동일한 기능을 수행하는 균등한 발명 역시 본 발명의 권리 범위에 포함될 것임은 당연할 것이다.Description of the above-described three-dimensional space input and output device and method according to an embodiment of the present invention should be used only for explanatory purposes and should not limit the claims. In addition, in addition to the embodiment of the present invention, it will be obvious that the equivalent invention that performs the same function as the present invention will be included in the scope of the present invention.
도 1은 본 발명의 실시 예에 따른 3차원 공간 입출력 장치에 대한 블록도이다.1 is a block diagram of a three-dimensional space input and output device according to an embodiment of the present invention.
도 2는 반응 제어부(106)에서의 입력 좌표 데이터와 영상 좌표 데이터를 비교한 것을 간략하게 도시한 것이다.FIG. 2 illustrates a brief comparison of input coordinate data and image coordinate data in the
도 3은, 본 발명의 실시 예에 따른 영상 데이터 출력의 예를 도시한 것이다.3 illustrates an example of image data output according to an exemplary embodiment of the present invention.
도 4는, 본 발명의 실시 예에 따른 3차원 공간 입출력 방법에 대한 플로우 차트이다.4 is a flowchart illustrating a three-dimensional space input and output method according to an embodiment of the present invention.
Claims (1)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090125502A KR20110068512A (en) | 2009-12-16 | 2009-12-16 | Apparatus and method input and output in three-dimensional space |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090125502A KR20110068512A (en) | 2009-12-16 | 2009-12-16 | Apparatus and method input and output in three-dimensional space |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20110068512A true KR20110068512A (en) | 2011-06-22 |
Family
ID=44400748
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090125502A KR20110068512A (en) | 2009-12-16 | 2009-12-16 | Apparatus and method input and output in three-dimensional space |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20110068512A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10001841B2 (en) | 2015-02-05 | 2018-06-19 | Electronics And Telecommunications Research Institute | Mapping type three-dimensional interaction apparatus and method |
-
2009
- 2009-12-16 KR KR1020090125502A patent/KR20110068512A/en not_active Application Discontinuation
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10001841B2 (en) | 2015-02-05 | 2018-06-19 | Electronics And Telecommunications Research Institute | Mapping type three-dimensional interaction apparatus and method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3997552B1 (en) | Virtual user interface using a peripheral device in artificial reality environments | |
CN110753899B (en) | Displacement orientation interaction in computer-mediated reality | |
JP5936155B2 (en) | 3D user interface device and 3D operation method | |
EP3629129A1 (en) | Method and apparatus of interactive display based on gesture recognition | |
JP5871345B2 (en) | 3D user interface device and 3D operation method | |
CN105659295B (en) | For indicating the method for point of interest in the view of true environment on the mobile apparatus and for the mobile device of the method | |
JP6057396B2 (en) | 3D user interface device and 3D operation processing method | |
JP6288372B2 (en) | Interface control system, interface control device, interface control method, and program | |
KR101082829B1 (en) | The user interface apparatus and method for 3D space-touch using multiple imaging sensors | |
EP2879098A1 (en) | Three-dimensional environment sharing system, and three-dimensional environment sharing method | |
EP2814000A1 (en) | Image processing apparatus, image processing method, and program | |
CN105593787A (en) | Systems and methods of direct pointing detection for interaction with digital device | |
Lu et al. | Immersive manipulation of virtual objects through glove-based hand gesture interaction | |
EP3036718A1 (en) | Approaches for simulating three-dimensional views | |
KR102057531B1 (en) | Mobile devices of transmitting and receiving data using gesture | |
EP3118722B1 (en) | Mediated reality | |
WO2017021902A1 (en) | System and method for gesture based measurement of virtual reality space | |
US20150339859A1 (en) | Apparatus and method for navigating through volume image | |
KR20130068191A (en) | 3d interface device and method based motion tracking of user | |
KR101338958B1 (en) | system and method for moving virtual object tridimentionally in multi touchable terminal | |
KR20190048810A (en) | Apparatus and method for providing augmented reality contents | |
JPWO2014054317A1 (en) | User interface device and user interface method | |
WO2019127325A1 (en) | Information processing method and apparatus, cloud processing device, and computer program product | |
KR20110068512A (en) | Apparatus and method input and output in three-dimensional space | |
KR20150048608A (en) | Smart device with touchless controlling operation function and the control method of using the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Withdrawal due to no request for examination |