KR20180065645A - Ar device - Google Patents

Ar device Download PDF

Info

Publication number
KR20180065645A
KR20180065645A KR1020160166780A KR20160166780A KR20180065645A KR 20180065645 A KR20180065645 A KR 20180065645A KR 1020160166780 A KR1020160166780 A KR 1020160166780A KR 20160166780 A KR20160166780 A KR 20160166780A KR 20180065645 A KR20180065645 A KR 20180065645A
Authority
KR
South Korea
Prior art keywords
user
input
augmented reality
image
space
Prior art date
Application number
KR1020160166780A
Other languages
Korean (ko)
Inventor
남정모
Original Assignee
남정모
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 남정모 filed Critical 남정모
Priority to KR1020160166780A priority Critical patent/KR20180065645A/en
Publication of KR20180065645A publication Critical patent/KR20180065645A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to an augmented reality (AR) device. A signal input is realistically performed through a user′s hand movement in a 3D space. A 3D AR image of a real product is manipulated by movement of a user′s hand in a display device, thereby being optimized for design and creation. The AR device includes an input device, a central processing unit, and the display device.

Description

증강현실 기기{AR DEVICE}AR DEVICE}

본 발명은 증강현실 기기에 관한 것으로서, 신호 입력이 3D 공간 내에서 사용자의 손동작을 통해 현실적으로 이루어지도록 하며, 디스플레이 기기에서는 실제 구상품의 3D AR 이미지가 사용자의 손동작에 의해서 조작되도록 하여, 설계, 창작에 최적화된 증강현실 기기에 관한 것이다.The present invention relates to an augmented reality apparatus, in which a signal input is realistically performed through a user's hand movements in a 3D space, and in a display device, a 3D AR image of a real old product is operated by a user's hand operation, And the like.

증강현실(AR)이란 실제 현실에 가상의 이미지를 혼합하여 사용자의 시각에 컴퓨터가 만든 정보를 추가하는 것이다.Augmented Reality (AR) is a technique to add computer-generated information to a user's view by mixing virtual images with real world reality.

이러한 증강현실 기기의 예로, MS의 홀로렌즈, Google 의 구글 글래스가 있다. 홀로렌즈의 경우, 소정의 HMD(Head Mounted Device)를 착용하여 HMD 에 증강현실 이미지를 구현함으로써, 사용자가 증강현실을 체험하도록 한다. 이러한 증강현실을 이용함으로써, 게임 등 엔터테인먼트 외에도, 각종 기계의 설계, 창작 등 다양한 분야에서 편리한 인터페이스가 제공될 수 있다.Examples of these augmented reality devices include Microsoft's Hollolens, Google's Google Glass. In the case of a holographic lens, a predetermined HMD (Head Mounted Device) is worn to implement an augmented reality image in the HMD, thereby allowing the user to experience the augmented reality. By using such augmented reality, a convenient interface can be provided in various fields such as design and creation of various machines in addition to entertainment such as games.

그러나, 이러한 증강현실 기기에 사용되는 HMD 는 사용자의 머리에 착용되어 눈 앞에 증강현실 이미지를 구현하므로, 본질적인 한계를 갖는다. 즉, 무거운 HMD 에 의해 실제 사용감이 떨어지며, 눈 앞의 화상 구현으로 인해 눈의 피로가 심하여 실질적인 활용 가능 시간이 매우 짧다. 뿐만 아니라, 관련 컨텐츠가 마련되지 아니하여 시장 진입이 지연되는 단점도 있다.However, the HMD used in such an augmented reality device is inherently limited because it is worn on the head of the user to implement an augmented reality image in front of the user's eyes. In other words, the feeling of real feeling is lowered by the heavy HMD, and the fatigue of the eyes due to the image implementation in front of the eyes is serious, and the practical utilization time is very short. In addition, there is a disadvantage that the market entry is delayed because related contents are not provided.

따라서, 증강현실의 편리한 인터페이스를 제공하면서 실제 활용도도 높은 증강현실 기기의 제공이 필요하다. Therefore, it is necessary to provide augmented reality device which provides a convenient interface of the augmented reality and has high practical utilization.

공개특허 2016-0081855Published patent 2016-0081855

본 발명의 기술적 과제는, 신호 입력이 3D 공간 내에서 사용자의 손동작을 통해 현실적으로 이루어지도록 하며, 디스플레이 기기에서는 실제 구상품의 3D AR 이미지가 사용자의 손동작에 의해서 조작되도록 하여, 설계, 창작에 최적화된 증강현실 기기를 제공하는 데 그 목적이 있다.The technical object of the present invention is to make a signal input realistically through a hand operation of a user in a 3D space, and in a display device, a 3D AR image of a real old product is manipulated by a user's hand operation, And an object of the present invention is to provide an augmented reality apparatus.

상기 목적을 달성하기 위하여, 본 발명에 따른 증강현실 기기는, 신호가 입력되는 입력 장치; 입력된 신호를 처리하는 중앙 처리 장치; 및 상기 중앙 처리 장치에서 처리된 신호가 출력되는 디스플레이 장치;를 포함하며, 상기 입력 장치는, 사용자의 손 동작이 신호로 입력될 수 있도록 소정의 공간을 갖는 입력 공간, 상기 입력 공간 내의 사용자의 손 동작을 포착하는 센서부를 포함하며, 상기 중앙 처리 장치는, 상기 센서부에서 포착된 사용자의 손 동작과 소정의 증강 현실 이미지를 결합시키며, 상기 디스플레이 장치는, 상기 사용자의 손 동작과 상기 증강 현실 이미지를 영상 출력한다.According to an aspect of the present invention, there is provided an augmented reality device comprising: an input device to which a signal is input; A central processing unit for processing the input signal; And a display device for outputting a signal processed by the central processing unit, wherein the input device comprises: an input space having a predetermined space so that a user's hand motion can be input as a signal; Wherein the central processing unit combines a hand motion of a user captured by the sensor unit with a predetermined augmented reality image, and the display device displays the augmented reality image .

본원에 따른 증강 현실 기기는 공간 내에서 사용자의 손을 이용하여 3D AR 이미지를 조작한다는 개념만을 이용해도 설계, 창작 분야에서 활용도, 편의성이 월등한 플랫폼을 제공할 수 있다는 점에 착안한 것이다. It is pointed out that the augmented reality device according to the present invention can provide a platform superior in utilization in design and creation field and convenience in using 3D AR image by using only the user's hand in the space.

본 발명에 따른 증강 현실 기기는 종래의 설계, 창작 플랫폼에 비해 우수한 활용성, 편의성을 제공하며, 동시에 AR 디바이스에서 HMD의 사용에 따라 발생하는 한계를 배제할 수 있다. 즉, 본 발명은 종래의 설계 플랫폼의 한계와, HMD를 사용하는 AR 디바이스의 한계를 동시에 극복하여, 설계, 창작 분야에 최적화된 AR 디바이스를 제공할 수 있다. 구체적으로, 본 발명의 효과는 아래와 같다.The augmented reality device according to the present invention provides superior usability and convenience compared to the conventional design and creation platform, and at the same time, it can eliminate the limitation caused by the use of the HMD in the AR device. That is, the present invention overcomes both the limitations of the conventional design platform and the limitations of the AR device using the HMD, thereby providing an AR device optimized for design and creation. Specifically, the effects of the present invention are as follows.

1) 본 발명은 HMD의 사용을 배제할 수 있으므로, HMD 사용에 따른 사용자의 사용감 충족에 관한 문제점을 고려할 필요가 없다. 즉, HMD 의 집적화, 경량화, 및 소형화에 관한 고려 및 관련 기술 분야의 추가 개발이 필요 없다. 1) Since the use of the HMD can be excluded from the present invention, it is not necessary to consider the problem of satisfying the user's sense of using according to the use of the HMD. That is, there is no need to consider the integration, light weight, and downsizing of the HMD and further development of the related technical field.

2) 본 발명에서 3D AR 이미지는 HMD 가 아닌 일반 디스플레이 기기에서 재현되며, 이는 일반적인 종래의 PC 작업 환경과 유사한 작업 환경을 갖는다. 따라서, HMD 에 비해 사용자의 눈의 피로 발생이 현저하게 줄어들며, 시력 감퇴의 우려 또한 없다.2) In the present invention, the 3D AR image is reproduced in a general display device, not an HMD, which has a working environment similar to a conventional conventional PC working environment. Therefore, the occurrence of fatigue of the user's eyes is significantly reduced as compared with the HMD, and there is no fear of deterioration of vision.

3) 본 발명은 설계와 창작에 특화된 AR 디바이스이므로, 다양한 컨텐츠의 꾸준한 제공이 필요치 아니하다. 즉, 본 발명은 설계와 창작에 특화되어 사용자가 생각한 장치, 구조물 등을 구현하는 데 목적이 있는 것이므로, 특별히 사용자의 흥미를 끌 필요가 있는 컨텐츠의 지속적인 업데이트가 필요치 아니하다. 본 발명의 발전 방향은 단지 제품의 디자인, 제품의 기능(보다 정밀한 센서, 보다 해상도 높은 디스플레이 등)면에 치중하면 될 것으로 예상된다.3) Since the present invention is an AR device specialized in design and creation, it is not necessary to provide various contents steadily. That is, since the present invention is intended to implement a device, a structure, and the like, which is specialized in design and creation, the user does not need to constantly update contents that need to attract the user's interest. It is expected that the direction of development of the present invention will be focused only on the design of the product, the function of the product (more precise sensor, higher resolution display, etc.).

4) 본 발명은 입력 공간을 특정 공간 내로 한정하고 있으므로, 사용자의 동작에 따른 신호 입력의 정밀성이 보다 확대될 수 있다. 아울러, 박스 내의 한정된 공간에서 사용자의 손동작, 손위치의 정확한 포착만이 필요하므로, 광범위한 범위에서 정확한 GPS 가 제공될 필요가 없다. 단지 특정 범위의 입력 공간 내에서의 사용자의 손의 세밀한 움직임을 정확히 포착할 수 있는 동작 입력 센서만이 필요할 뿐이다.4) Since the present invention limits the input space to a specific space, the precision of signal input according to the operation of the user can be further enlarged. In addition, since accurate capture of the user's hand movements and hand positions is required only in a limited space within the box, accurate GPS is not required in a wide range. Only an action input sensor is needed that can accurately capture the fine movement of the user's hand within a specific range of input space.

5) 본 발명은 3D AR 이미지를 직접 손으로 조작하여 사물을 설계, 창작 가능하게 하므로, 설계자 및 창작자에게 최적의 설계 플랫폼을 제공할 수 있다. 즉, 도면이나 화면 상에서 2D 로 도시된 도면을 이용하여 작업하는 것이 아닌, 실제 실물을 손으로 조작하여 창작, 설계하는 형태의 설계 플랫폼을 제공하므로 설계 및 창작을 위해 깊은 수준의 프로그램 사용 지식을 필요로 하지 않으며, 사용자가 쉽게 접근할 수 있다.5) The present invention makes it possible to design and create objects by directly manipulating 3D AR images by hand, thereby providing an optimal design platform for designers and creators. In other words, it provides a design platform for creating and designing real objects by hand, not by using the drawings shown on the drawings or on the screen using 2D drawings. Therefore, it is necessary to have a deep level of program use knowledge for design and creation And can be easily accessed by the user.

도 1 은 본 발명의 일 실시예에 따른 증강현실 기기의 개념도이다.
도 2 는 본 발명의 일 실시예에 따른 증강현실 기기의 사용 형태를 나타낸 도면이다.
도 3 및 도 4 는 본 발명의 다른 실시예에 따른 증강현실 기기의 사용 형태를 나타낸 도면이다.
1 is a conceptual diagram of an augmented reality device according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating a use form of an augmented reality device according to an embodiment of the present invention. Referring to FIG.
FIG. 3 and FIG. 4 are views showing a use form of an augmented reality device according to another embodiment of the present invention.

이하, 첨부된 도면을 참조하여, 본 발명에 따른 바람직한 실시예에 대하여 설명한다. 본 실시예는 예시적인 것으로 어떤 식으로든 본 발명을 제한하는 것은 아니다. Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. The embodiments are illustrative and not intended to limit the invention in any way.

본 발명에 따른 증강현실 기기(1)는, 신호가 입력되는 입력 장치(2); 입력된 신호를 처리하는 중앙 처리 장치; 및 상기 중앙 처리 장치에서 처리된 신호가 출력되는 디스플레이 장치(3);를 포함하며, 상기 입력 장치(2)는, 사용자의 손 동작이 신호로 입력될 수 있도록 소정의 공간을 갖는 입력 공간(20), 상기 입력 공간(20) 내의 사용자의 손 동작을 포착하는 센서부를 포함하며, 상기 중앙 처리 장치는, 상기 센서부에서 포착된 사용자의 손 동작과 소정의 증강 현실 이미지를 결합시키며, 상기 디스플레이 장치(3)는, 상기 사용자의 손 동작과 상기 증강 현실 이미지를 영상 출력하도록 구성된다.An augmented reality device (1) according to the present invention comprises: an input device (2) for inputting a signal; A central processing unit for processing the input signal; And a display device (3) for outputting signals processed by the central processing unit. The input device (2) comprises an input space (20) having a predetermined space for inputting a hand motion of a user as a signal And a sensor unit for capturing a user's hand motion in the input space 20. The central processing unit combines a hand motion of a user captured by the sensor unit with a predetermined augmented reality image, (3) is configured to image the hand motion of the user and the augmented reality image.

본 발명에 따른 증강현실 기기(1)는, 전체적으로 큐브(cube) 형태로 구성되는 바디(10)를 가질 수 있으며, 이에 반드시 한정하는 것은 아니다. 바디(10)는 적어도 일 측면이 내측으로 함몰된 함몰 공간을 가지며, 상기 함몰 공간이 입력 공간(20)으로 기능하게 된다. 상기 입력 공간(20) 내에 사용자의 손이 위치하여 손동작이 신호로 입력될 수 있다. 이때, 입력 공간(20) 내에는 사용자의 손동작을 포착하는 소정의 동작 입력 센서와 카메라가 비치될 수 있다. The augmented reality device 1 according to the present invention may have a body 10 formed in a cube form as a whole, but is not limited thereto. The body 10 has a depressed space with at least one side being recessed inward, and the depressed space functions as the input space 20. A user's hand is positioned in the input space 20 and a hand gesture can be inputted as a signal. In this case, the input space 20 may be provided with a predetermined operation input sensor and a camera for capturing a user's hand motion.

중앙 처리 장치(CPU)는 바디(10) 내, 또는 외부에 마련될 수 있다. 중앙 처리 장치는 입력 장치(2)에서 입력된 사용자의 손동작을 신호로 변환하고, 촬영된 손동작에 대해 3D AR 이미지를 합성할 수 있다. 중앙 처리 장치에서는 3D AR 이미지의 구현, 변환을 위해 여러 알고리즘, 프로그램이 마련되어 있을 수 있다. 또한, 사용자의 손동작, 또는 그외 여러 신호에 따라서 상기 3D AR 이미지가 조작, 변환, 생성될 수 있도록 알고리즘, 프로그램이 마련되어 있을 수 있다.A central processing unit (CPU) may be provided in the body 10 or external. The central processing unit can convert the user's hand gesture input from the input device 2 to a signal and synthesize the 3D AR image with the photographed gesture. In the central processing unit, various algorithms and programs may be provided for implementing and converting the 3D AR image. In addition, an algorithm and a program may be provided so that the 3D AR image can be manipulated, converted, and generated in accordance with a user's hand gesture or other signals.

디스플레이 장치(3)는 바디(10) 상에 마련될 수 있다. 예컨대, 디스플레이 장치(3)는 소정의 액정 장치로 구성되며, 상기 큐브 형태의 바디(10)의 상면에 배치되어 화상을 재현하도록 마련될 수 있다. 바람직하게는 사용자의 사용감을 편하게 하도록 시야각에 따라서 기울어진 형태의 디스플레이 화면이 마련될 수 있다. 물론, 반드시 이에 한정하는 것은 아니다. 예컨대, 외부 디스플레이 장치(3)와 본 기기가 연결되어 TV 화면, 모니터 등에서 영상이 디스플레이 될 수도 있다.The display device 3 may be provided on the body 10. For example, the display device 3 may include a predetermined liquid crystal device, and may be disposed on the upper surface of the cube-shaped body 10 to reproduce an image. Preferably, a display screen inclined according to a viewing angle may be provided to facilitate user's feeling. Of course, the present invention is not limited thereto. For example, the external display device 3 and the apparatus may be connected to display an image on a TV screen, a monitor, or the like.

디스플레이 장치(3)는 중앙 처리 장치에서 합성된 사용자의 손동작 영상과 3D AR 이미지를 함께 나타낼 수 있다. 또한, 3D AR 이미지의 변환, 조작, 생성 등을 위해 각종 아이콘, 명령어, 인터페이스 등이 디스플레이 장치(3)에 표시될 수 있으며, 이는 입력 공간(20) 내의 사용자의 수신호를 통해 선택되어 처리, 명령될 수 있다.The display device 3 can display the 3D AR image and the hand motion image synthesized by the central processing unit. In addition, various icons, commands, interfaces, and the like can be displayed on the display device 3 for conversion, manipulation, generation, etc. of the 3D AR image, .

일 실시예에 의하면, 본 발명은 다른 형태의 디스플레이 기기, PC, 및 3D 프린터와 같은 다양한 출력 장치와 연계되어 사용될 수 있다. 이와 같이 본 발명의 출력 장치를 확장시킨 형태의 개념도는 도 3 과 같다.According to one embodiment, the present invention can be used in connection with various output devices such as display devices of other types, PCs, and 3D printers. 3 is a conceptual diagram of a form in which the output device of the present invention is extended.

도 3 과 같이, 대형 스크린에 3D AR 이미지와 사용자의 동작이 표시될 수 있다. 아울러, 생성된 AR 이미지는 소정의 프로그램, 또는 PC 에 의해서 3D CAD 파일과 같은 3D 도면으로 재현, 저장될 수 있고, 3D 프린터에 의해서 실체화될 수 있다. 또한, 역으로, 3D CAD 파일이 본 발명 장치에 입력되고, AR 이미지로 재현되며, AR 이미지를 사용자가 조작하여 다시 3D CAD 파일로 입력되는 것도 가능하다.As shown in FIG. 3, a 3D AR image and a user's operation can be displayed on a large screen. In addition, the generated AR image can be reproduced and stored by a predetermined program or a PC as a 3D drawing such as a 3D CAD file, and can be materialized by a 3D printer. Conversely, it is also possible that a 3D CAD file is input to the inventive device, reproduced as an AR image, and the AR image is input by a user into the 3D CAD file again.

도 4 는 본 발명의 다른 실시 형태를 나타낸다. 도 5 에서는 입력 장치(2)의 변형례를 나타낸 것이다.Fig. 4 shows another embodiment of the present invention. Fig. 5 shows a modification of the input device 2. Fig.

본 발명은 예컨대 특수 용지에 도시된 그림, 또는 특수 잉크로 도시된 그림을 상기 입력 공간(20) 내에 입력시켜서 디스플레이 장치(3)에 3D AR 이미지로 구현하는 형태로 실시될 수 있다.The present invention can be embodied in the form of a 3D AR image on the display device 3, for example, by inputting a picture shown on a special paper or a picture shown by a special ink into the input space 20.

도 4 와 같이, 소정의 용지 상에 기본 이미지를 2D 로 도시하고, 이미지가 도시된 용지를 입력 공간(20) 내에 위치시키면 중앙 처리 장치에서 해당 이미지를 3D AR 이미지로 변환하여 디스플레이 장치(3)에서 디스플레이되도록 할 수 있다. 4, when a basic image is displayed in 2D on a predetermined sheet of paper and an image is placed in the input space 20, the central processing unit converts the image into a 3D AR image, Lt; / RTI >

한편, 도시되지는 아니하였으나, 다른 예로, 사용자의 손동작을 보다 정밀하게 포착, 입력하기 위하여 소정의 센서가 부착된 장갑 형태의 입력 장치(2)가 사용될 수도 있다.On the other hand, although not shown, as another example, a glove-shaped input device 2 to which a predetermined sensor is attached may be used for more precisely capturing and inputting a user's hand operation.

본 발명에 따른 증강 현실 기기는, 상술한 발명의 효과와 같은 효과를 갖는다. 즉, HMD 의 사용 배제에 따른 생산 단가 절감, 기술 개발 기간 단축화, 빠른 시장 진입, 구매자 저변 확대가 가능하다. 아울러, 작업 환경이 종래의 VR, AR 기기 및 설계, 창작 환경에 비해 압도적으로 뛰어나며, 컨텐츠의 지속적인 업데이트가 필요치 아니하다.The augmented reality device according to the present invention has the same effect as the effect of the above-described invention. In other words, it is possible to reduce production cost, shorten technology development period, enter the market fast, and expand the buyer base by excluding the use of HMD. In addition, the working environment is overwhelmingly superior to the conventional VR, AR device and design and creation environment, and it is not necessary to continuously update the contents.

이상에서 본 발명의 바람직한 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다. While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, Of the right.

1: 증강현실 기기
2: 입력 장치
3: 디스플레이 장치
10: 바디
20: 입력 공간
1: Augmented Reality Device
2: Input device
3: Display device
10: Body
20: Input space

Claims (3)

증강현실 기기에 있어서,
신호가 입력되는 입력 장치;
상기 입력 장치에서 입력된 입력된 신호를 처리하고 증강 현실 이미지를 생성하는 중앙 처리 장치; 및
상기 중앙 처리 장치에서 처리된 신호 및 증강 현실 이미지가 출력되는 디스플레이 장치;를 포함하며,
상기 입력 장치는,
사용자의 손 동작이 신호로 입력될 수 있도록 소정의 공간을 갖는 입력 공간, 및
상기 입력 공간 내의 사용자의 손 동작을 포착하는 센서부를 포함하며,
상기 중앙 처리 장치는,
상기 센서부에서 포착된 사용자의 손 동작과 소정의 증강 현실 이미지를 결합시키며,
상기 디스플레이 장치는,
상기 사용자의 손 동작과 상기 증강 현실 이미지를 영상 출력하는 증강현실 기기.
In the augmented reality device,
An input device to which a signal is input;
A central processing unit for processing an input signal inputted from the input device and generating an augmented reality image; And
And a display device for outputting a signal processed by the central processing unit and an augmented reality image,
The input device includes:
An input space having a predetermined space so that a user's hand motion can be input as a signal, and
And a sensor unit for capturing a hand motion of the user in the input space,
The central processing unit,
And combining the hand motion of the user captured by the sensor unit with a predetermined augmented reality image,
The display device includes:
And outputs the image of the user's hand motion and the augmented reality image.
제1항에 있어서,
상기 중앙 처리 장치는,
상기 사용자의 손 동작이 상기 디스플레이 장치에 출력되도록 하되, 사용자의 손 동작에 따라서 상기 디스플레이 장치에 출력된 증강 현실 이미지가 조작되도록 하는 알고리즘을 포함하는 증강현실 기기.
The method according to claim 1,
The central processing unit,
And an algorithm for allowing the user's hand motion to be output to the display device so that the augmented reality image output to the display device is manipulated in accordance with a user's hand motion.
제1항에 있어서,
상기 증강현실 기기는 큐브 형태의 바디를 포함하되,
상기 바디의 상면에는 상기 디스플레이 장치가 구비되고, 일 측면은 상기 입력 공간이 구비되되, 상기 입력 공간은 상기 바디의 일 측면이 내측으로 함몰된 함몰 공간으로 구성되는 증강현실 기기.
The method according to claim 1,
Wherein the augmented reality device includes a cube-shaped body,
Wherein the body is provided with the display device on one side thereof, the input space is provided on one side, and the input space is formed by a recessed space in which one side of the body is recessed inward.
KR1020160166780A 2016-12-08 2016-12-08 Ar device KR20180065645A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160166780A KR20180065645A (en) 2016-12-08 2016-12-08 Ar device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160166780A KR20180065645A (en) 2016-12-08 2016-12-08 Ar device

Publications (1)

Publication Number Publication Date
KR20180065645A true KR20180065645A (en) 2018-06-18

Family

ID=62768027

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160166780A KR20180065645A (en) 2016-12-08 2016-12-08 Ar device

Country Status (1)

Country Link
KR (1) KR20180065645A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109343714A (en) * 2018-11-01 2019-02-15 北京天际微动科技有限公司 A kind of more Scene realization method, apparatus of reality enhancing and system based on cube
KR20230077189A (en) 2021-11-25 2023-06-01 주식회사 스탠스 Apparatus, user device and method for providing augmented reality contents

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160081855A (en) 2014-12-31 2016-07-08 이솔정보통신(주) Smart pen and augmented reality implementation system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160081855A (en) 2014-12-31 2016-07-08 이솔정보통신(주) Smart pen and augmented reality implementation system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109343714A (en) * 2018-11-01 2019-02-15 北京天际微动科技有限公司 A kind of more Scene realization method, apparatus of reality enhancing and system based on cube
KR20230077189A (en) 2021-11-25 2023-06-01 주식회사 스탠스 Apparatus, user device and method for providing augmented reality contents

Similar Documents

Publication Publication Date Title
CN110022470B (en) Method and system for training object detection algorithm using composite image and storage medium
US20210283496A1 (en) Realistic Virtual/Augmented/Mixed Reality Viewing and Interactions
US9367136B2 (en) Holographic object feedback
KR101171660B1 (en) Pointing device of augmented reality
US20100128112A1 (en) Immersive display system for interacting with three-dimensional content
JP6770536B2 (en) Techniques for displaying text more efficiently in virtual image generation systems
JP2019083033A (en) Method, system and device for navigating in virtual reality environment
Kovács et al. Tangible holographic 3d objects with virtual touch
JP2006127158A (en) Image processing method and image processor
JP6344530B2 (en) Input device, input method, and program
JP2013541747A (en) Interaction reality expansion for natural interactions
JP2007042055A (en) Image processing method and image processor
JP2007047294A (en) Stereoscopic image display device
US20190259198A1 (en) Systems and methods for generating visual representations of a virtual object for display by user devices
US20220155881A1 (en) Sensing movement of a hand-held controller
KR101638550B1 (en) Virtual Reality System using of Mixed reality, and thereof implementation method
KR20180065645A (en) Ar device
JP2016517505A (en) Adaptive depth detection
JP6314564B2 (en) Image processing apparatus, image processing method, and program
WO2021029256A1 (en) Information processing device, information processing method, and program
Lyne Development of virtual reality applications for the construction industry using the Oculus Rift head mounted display
Belhi et al. An integrated framework for the interaction and 3D visualization of cultural heritage
JPWO2017191702A1 (en) Image processing device
KR101177793B1 (en) Stereoscopic virtual experience apparatus and method
Speicher et al. Exploring 3D manipulation on large stereoscopic displays

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application