KR100911376B1 - The method and apparatus for realizing augmented reality using transparent display - Google Patents

The method and apparatus for realizing augmented reality using transparent display Download PDF

Info

Publication number
KR100911376B1
KR100911376B1 KR1020070113970A KR20070113970A KR100911376B1 KR 100911376 B1 KR100911376 B1 KR 100911376B1 KR 1020070113970 A KR1020070113970 A KR 1020070113970A KR 20070113970 A KR20070113970 A KR 20070113970A KR 100911376 B1 KR100911376 B1 KR 100911376B1
Authority
KR
South Korea
Prior art keywords
user
image data
augmented reality
unit
electronic device
Prior art date
Application number
KR1020070113970A
Other languages
Korean (ko)
Other versions
KR20090047889A (en
Inventor
유민기
추혜용
황치선
박상희
정우석
신재헌
조경익
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020070113970A priority Critical patent/KR100911376B1/en
Publication of KR20090047889A publication Critical patent/KR20090047889A/en
Application granted granted Critical
Publication of KR100911376B1 publication Critical patent/KR100911376B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/03Cooperating elements; Interaction or communication between different cooperating elements or between cooperating elements and receivers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Dermatology (AREA)
  • Human Computer Interaction (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 증강 현실 구현 방법에 관한 것으로, 투명 전자 소자를 이용하여 복잡한 광학적 구조가 필요 없는 증강 현실 구현 장치를 제공한다. The present invention relates to a method for implementing augmented reality, and provides an apparatus for implementing augmented reality using a transparent electronic device, which does not require a complicated optical structure.

이를 위하여 본 발명의 일실시 예에 따른 투명 전자 소자를 이용한 증강 현실 구현 방법은, (a) 사용자의 현재 위치를 인식하는 단계; (b) 상기 인식된 사용자의 현재 위치 정보를 위치에 따른 영상 데이터를 저장하는 서버로 출력하고, 상기 현재 위치 정보에 대응하여 상기 서버로부터 출력되는 영상 데이터를 수신하는 단계; (c) 사용자가 바라보는 방향을 인식하는 단계; 및 (d) 상기 인식된 방향 정보를 기반으로 상기 수신된 영상 데이터 중 상기 사용자에게 표시할 부분 영상 데이터를 외부로부터 입력되는 빛을 투과시키는 투명 전자 소자로 구성된 화면에 출력하는 단계를 포함한다. To this end, the augmented reality implementation method using a transparent electronic device according to an embodiment of the present invention, (a) recognizing the current location of the user; (b) outputting the recognized current location information of the user to a server storing image data according to a location, and receiving the image data output from the server corresponding to the current location information; (c) recognizing a direction that the user views; And (d) outputting partial image data of the received image data to be displayed to the user based on the recognized direction information on a screen composed of a transparent electronic device that transmits light input from the outside.

그럼으로써, 복잡한 광학적 구조가 없는 증강 현실 구현 장치를 제공하는 이점이 있다. Thereby, there is an advantage in providing an augmented reality realization apparatus without complicated optical structures.

증강 현실, 투명 디스플레이, 투명 전자 소자 Augmented Reality, Transparent Displays, Transparent Electronic Devices

Description

투명 디스플레이를 이용한 증강 현실 구현 방법 및 장치{THE METHOD AND APPARATUS FOR REALIZING AUGMENTED REALITY USING TRANSPARENT DISPLAY}Augmented reality implementation method and apparatus using a transparent display {THE METHOD AND APPARATUS FOR REALIZING AUGMENTED REALITY USING TRANSPARENT DISPLAY}

본 발명은 증강 현실 구현 방법에 관한 것으로, 특히 투명 전자 소자를 이용하여 증강 현실 영상을 표시하기 위한 방법에 관한 것이다. The present invention relates to a method for implementing augmented reality, and more particularly, to a method for displaying an augmented reality image using a transparent electronic device.

본 발명은 정보통신부 및 정보통신연구진흥원의 IT원천기술개발사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호: 2006-S-079-02, 과제명: 투명 전자 소자를 이용한 스마트 창]. The present invention is derived from the research conducted as part of the IT source technology development project of the Ministry of Information and Communication and the Ministry of Information and Communication Research and Development. [Task management number: 2006-S-079-02, Title: Smart window using transparent electronic device] .

최근 디스플레이 기술의 발달로 인하여 투명 전자 소자를 이용한 투명 디스플레이 장치가 개발되었다. 투명 디스플레이 장치는 투명한 유리 또는 투명한 플라스틱 상에 투명 전극, 투명 반도체 및 투명 절연체 등을 적층하여 구현한다. 발광면은 유기물 발광 소자(OLED : Organic Light Emitting Diode), 무기물 발광 소자(LED : Light Emitting Diode) 또는 액정(LCD : Liquid Crystal Display) 등으로 이루어진다. Recently, with the development of display technology, a transparent display device using a transparent electronic device has been developed. The transparent display device is implemented by stacking a transparent electrode, a transparent semiconductor, a transparent insulator, and the like on transparent glass or transparent plastic. The light emitting surface includes an organic light emitting diode (OLED), an inorganic light emitting diode (LED) or a liquid crystal display (LCD).

한편, 증강 현실(Augmented Reality)이란 일반적으로 가상 환경 및 가상 현실에서 파생한 용어로서, 실제 환경에 컴퓨터 그래픽 영상을 삽입하여 실세계 영상과 가상의 영상을 혼합한 것을 의미한다. 실세계 정보에는 사용자가 필요로 하지 않는 정보도 있고 때로는 사용자가 필요로 한 정보가 부족할 수도 있다. 그러나, 컴퓨터로 만든 가상 환경을 이용하면 필요로 하지 않는 정보를 단순하게 하거나 보이지 않는 정보들을 만들어낼 수도 있다. 즉, 증강 현실 시스템은 실세계와 가상 세계를 결합함으로써 실시간으로 사용자와 상호 작용이 이루어지도록 하는 것이다. Meanwhile, augmented reality is a term derived from a virtual environment and a virtual reality, and means a mixture of a real world image and a virtual image by inserting a computer graphic image into a real environment. Real-world information may contain information that the user does not need, and sometimes the user may lack information. However, computer-generated virtual environments can simplify information that is not needed or produce invisible information. In other words, the augmented reality system combines the real world and the virtual world to allow interaction with the user in real time.

상기와 같은 증강 현실을 구현하기 위해서는 실제의 영상을 입력받을 수 있는 카메라와 실제 영상과 가상 영상을 디스플레이할 수 있는 HMD(Head Mounted Display)와 같은 디스플레이 장치를 필요로 하는데, 일반 사용자는 비용 문제로 인하여 이러한 장치를 별도로 구비하기 힘들다.In order to implement such augmented reality, a display device such as a camera capable of receiving a real image and a head mounted display (HMD) capable of displaying a real image and a virtual image is required. Due to this it is difficult to equip separately.

또한, 상기와 같은 장치를 이용하는 경우 거울 등을 이용한 복잡한 광학적 장비가 필요하기 때문에 이를 구현하는 데 어려움이 있다. In addition, in the case of using such a device, it is difficult to implement this, because complex optical equipment using a mirror or the like is required.

따라서, 본 발명의 목적은, 투명 전자 소자를 이용하여 복잡한 광학적 구조가 필요 없는 증강 현실 구현 장치를 제공하는 데 있다. Accordingly, an object of the present invention is to provide an apparatus for implementing augmented reality that does not require a complicated optical structure using a transparent electronic device.

또한, 본 발명의 다른 목적은, 사용자가 바라보는 배경 및 사물에 가상 환경을 덧입혀 종래 기술에 비하여 좀 더 현실적인 증강 현실을 구현하기 위한 장치 및 방법을 제공하는 데 있다. In addition, another object of the present invention is to provide an apparatus and method for realizing a more realistic augmented reality compared to the prior art by adding a virtual environment to the background and objects viewed by the user.

또한, 본 발명의 다른 목적은, 하기의 설명 및 본 발명의 일실시 예에 의하여 파악될 수 있다. In addition, another object of the present invention can be understood by the following description and an embodiment of the present invention.

이를 위하여 본 발명의 일실시 예에 따른 투명 전자 소자를 이용한 증강 현실 구현 방법은, (a) 사용자의 현재 위치를 인식하는 단계; (b) 상기 인식된 사용자의 현재 위치 정보를 위치에 따른 영상 데이터를 저장하는 서버로 출력하고, 상기 현재 위치 정보에 대응하여 상기 서버로부터 출력되는 영상 데이터를 수신하는 단계; (c) 사용자가 바라보는 방향을 인식하는 단계; (d) 상기 인식된 방향 정보를 기반으로 상기 수신된 영상 데이터 중 상기 사용자에게 표시할 부분 영상 데이터를 외부로부터 입력되는 빛을 투과시키는 투명 전자 소자로 구성된 화면에 출력하는 단계; 및 (e) 상기 사용자로부터 입력된 음성 제어 명령에 따라 상기 부분 영상 데이터의 출력 위치를 이동시키거나, 상기 사용자로부터 입력된 키 입력 신호에 따라 상기 부분 영상 데이터의 출력 위치를 이동시키는 단계를 포함하는 것을 특징으로 한다.To this end, the augmented reality implementation method using a transparent electronic device according to an embodiment of the present invention, (a) recognizing the current location of the user; (b) outputting the recognized current location information of the user to a server storing image data according to a location, and receiving the image data output from the server corresponding to the current location information; (c) recognizing a direction that the user views; (d) outputting partial image data of the received image data to be displayed to the user based on the recognized direction information on a screen composed of a transparent electronic device that transmits light input from the outside; And (e) moving the output position of the partial image data according to a voice control command input from the user, or moving the output position of the partial image data according to a key input signal input from the user. It is characterized by.

또한, 이를 위하여 본 발명의 일실시 예에 따른 투명 전자 소자를 이용한 증강 현실 구현 장치는, 사용자의 현재 위치를 인식하는 위치 인식부; 상기 위치 인식부로부터 수신된 상기 사용자의 현재 위치 정보를 위치에 따른 영상 데이터를 저장하는 서버로 출력하고, 상기 현재 위치 정보에 대응하여 상기 서버로부터 출력되는 영상 데이터를 수신하는 무선부; 상기 사용자가 바라보는 방향을 인식하고 상기 인식된 방향에 관한 정보를 출력하는 방향 인식부; 상기 방향 인식부로부터 수신된 방향 정보를 기반으로 상기 무선부로부터 수신된 영상 데이터 중 사용자에게 표시할 부분 영상 데이터를 출력하는 제어부; 및 상기 제어부로부터 수신된 부분 영상 데이터를 출력하며, 외부로부터 입력되는 빛을 투과시키는 투명 전자 소자로 구성된 표시부; 사용자로부터 키 입력을 받기 위한 키 입력부; 및 사용자로부터 음성 제어 명령을 입력받거나 상기 무선부로부터 입력된 음성 데이터를 외부로 출력하는 음성 처리부를 포함하며, 상기 제어부는, 상기 키 입력부를 통하여 입력된 키 입력 신호에 따라 상기 표시부로 출력되는 부분 영상 데이터의 출력 위치를 이동시키고, 상기 음성 처리부를 통하여 입력된 음성 제어 명령에 따라 상기 표시부로 출력되는 부분 영상 데이터의 출력 위치를 이동시키는 것을 특징으로 한다.In addition, the augmented reality implementation apparatus using a transparent electronic device according to an embodiment of the present invention for this purpose, the location recognition unit for recognizing the current location of the user; A wireless unit outputting current location information of the user received from the location recognizing unit to a server storing image data according to a location, and receiving image data output from the server in response to the current location information; A direction recognizing unit recognizing a direction viewed by the user and outputting information on the recognized direction; A controller for outputting partial image data to be displayed to a user among image data received from the wireless unit based on the direction information received from the direction recognizing unit; And a display unit configured to output partial image data received from the controller and to transmit light input from the outside. A key input unit for receiving a key input from a user; And a voice processing unit for receiving a voice control command from a user or outputting voice data input from the wireless unit to the outside, wherein the control unit is output to the display unit according to a key input signal input through the key input unit. And move the output position of the image data and the output position of the partial image data output to the display unit according to the voice control command input through the audio processor.

삭제delete

상술한 바와 같이 본 발명은, 투명 전자 소자를 이용하여 복잡한 광학적 구조가 없는 증강 현실 구현 장치 및 방법을 제공하는 이점이 있다. As described above, the present invention has an advantage of providing an apparatus and method for implementing augmented reality that do not have a complicated optical structure by using a transparent electronic device.

또한, 본 발명은, 사용자의 위치 및 사용자가 바라보는 방향에 따른 영상 정보를 획득하여 종래 기술에 비하여 좀더 현실적인 증강 현실을 구현할 수 있는 이점이 있다. In addition, the present invention, there is an advantage that can implement a more realistic augmented reality than the prior art by obtaining the image information according to the user's location and the direction the user looks.

또한, 본 발명에 따른 증강 현실 구현 장치는, 영상이 출력되는 화면을 투명 전자 소자를 이용하여 곡면 형태로 제작할 수 있기 때문에 넓은 시야각을 보장할 수 있는 이점이 있다. In addition, the apparatus for implementing augmented reality according to the present invention has an advantage of ensuring a wide viewing angle because a screen on which an image is output may be manufactured in a curved form using a transparent electronic device.

이하, 본 발명의 바람직한 실시 예들을 첨부한 도면을 참조하여 상세히 설명한다. 또한, 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 상세한 설명을 생략한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In addition, detailed descriptions of well-known functions and configurations that may unnecessarily obscure the subject matter of the present invention will be omitted.

도 1은 본 발명의 일실시 예에 따른 투명 전자 소자를 이용한 증강 현실 구현 시스템의 블록 구성도이다. 본 발명의 일실시 예에 따른 투명 전자 소자를 이용한 증강 현실 구현 시스템은, 증강 현실 처리 서버(110) 및 증강 현실 구현 장치(120)를 포함한다. 이하, 도 1을 참조하여 본 발명의 일실시 예에 따른 투명 전 자 소자를 이용한 증강 현실 구현 시스템의 동작 및 구성에 대하여 상세히 설명한다. 1 is a block diagram of an augmented reality implementation system using a transparent electronic device according to an embodiment of the present invention. Augmented reality implementation system using a transparent electronic device according to an embodiment of the present invention, augmented reality processing server 110 and augmented reality implementation device 120. Hereinafter, an operation and configuration of an augmented reality implementation system using a transparent electronic device according to an embodiment of the present invention will be described in detail with reference to FIG. 1.

본 발명의 일실시 예에 따른 증강 현실 처리 서버(110)는, 위치에 따른 영상 데이터 및 음성 데이터를 저장하며, 본 발명의 일실시 예에 따른 증강 현실 구현 장치(120)로부터 출력되는 위치 정보에 대응되는 영상 데이터 및 음성 데이터를 증강 현실 구현 장치(120)로 출력한다. The augmented reality processing server 110 according to an embodiment of the present invention stores image data and audio data according to a location, and the position information output from the augmented reality implementing apparatus 120 according to an embodiment of the present invention. Corresponding image data and audio data are output to the augmented reality implementation device 120.

본 발명의 일실시 예에 따른 투명 전자 소자를 이용한 증강 현실 구현 장치(120)는, 사용자의 현재 위치를 인식하여 인식된 위치 정보를 증강 현실 처리 서버(110)로 출력하고, 상기 위치 정보에 대응하여 증강 현실 처리 서버(110)로부터 출력되는 영상 데이터를 수신하여 사용자에게 보여준다.The augmented reality implementation apparatus 120 using the transparent electronic device according to an embodiment of the present invention recognizes the current location of the user and outputs the recognized location information to the augmented reality processing server 110 and corresponds to the location information. Receive the image data output from the augmented reality processing server 110 and show it to the user.

즉, 본 발명의 일실시 예에 따른 투명 전자 소자를 이용한 증강 현실 구현 장치(120)는, 투명 전자 소자를 이용하여 사용자가 현재 바라보는 사물 및 배경 상에 상기 증강 현실 처리 서버(110)로부터 수신된 영상 데이터를 덧입혀 사용자에게 보여줌으로써 좀더 현실적인 증강 현실을 제공할 수 있다. That is, the apparatus 120 for implementing augmented reality using the transparent electronic device according to an embodiment of the present invention receives the information from the augmented reality processing server 110 on an object and a background currently viewed by the user using the transparent electronic device. More realistic augmented reality can be provided by overlaying the displayed image data to the user.

한편, 본 발명의 일실시 예에 따른 투명 전자 소자를 이용한 증강 현실 구현 장치(120)는 복잡한 광학적 구조를 필요로 하지 않기 때문에, 안경이나 고글 등의 착용이 간편한 형태로 제작할 수 있는 이점이 있다. On the other hand, the augmented reality implementation device 120 using a transparent electronic device according to an embodiment of the present invention does not require a complicated optical structure, there is an advantage that can be manufactured in a form that is easy to wear glasses or goggles.

이하, 도 2를 참조하여 본 발명의 일실시 예에 따른 투명 전자 소자를 이용 한 증강 현실 구현 장치(120)에 대하여 좀 더 상세히 설명한다. Hereinafter, the augmented reality implementation apparatus 120 using the transparent electronic device according to an embodiment of the present invention will be described in more detail with reference to FIG. 2.

도 2는 본 발명의 일실시 예에 따른 투명 전자 소자를 이용한 증강 현실 구현 장치(120)의 블록 구성도이다. 본 발명의 일실시 예에 따른 투명 전자 소자를 이용한 증강 현실 구현 장치(120)는, 무선부(210), 위치 인식부(212), 영상 촬영부(214), 음성 처리부(220), 제어부(230), 방향 인식부(232), 동작 인식부(234), 키 입력부(236), 뇌파 감지부(238) 및 표시부(240)를 포함한다. 이하, 도 2를 참조하여 본 발명의 일실시 예에 따른 투명 전자 소자를 이용한 증강 현실 구현 장치(120)의 구성 및 동작에 대하여 상세히 설명한다. 2 is a block diagram of an augmented reality implementation device 120 using a transparent electronic device according to an embodiment of the present invention. The augmented reality implementation apparatus 120 using the transparent electronic device according to an embodiment of the present invention, the wireless unit 210, the location recognition unit 212, the image capturing unit 214, the voice processing unit 220, the controller ( 230, a direction recognition unit 232, a motion recognition unit 234, a key input unit 236, an EEG detector 238, and a display unit 240. Hereinafter, the configuration and operation of the apparatus for implementing augmented reality using the transparent electronic device 120 according to an embodiment of the present invention will be described in detail with reference to FIG. 2.

본 발명의 일실시 예에 따른 무선부(210)는, 위치 인식부(212)로부터 출력되는 현재 위치 정보를 증강 현실 처리 서버(110)로 출력하고, 상기 현재 위치 정보에 대응하여 증강 현실 처리 서버(110)로부터 출력되는 영상 데이터를 수신한다. The wireless unit 210 according to an embodiment of the present invention outputs current location information output from the location recognizing unit 212 to the augmented reality processing server 110, and corresponds to the current location information. Receive image data output from 110.

또한, 본 발명의 일실시 예에 따른 무선부(210)는, 상기 위치 정보에 대응하여 증강 현실 처리 서버(110)로부터 출력되는 음성 데이터를 수신하여 음성 처리부(220)로 출력한다. In addition, the wireless unit 210 according to an embodiment of the present disclosure receives voice data output from the augmented reality processing server 110 in response to the position information and outputs the voice data to the voice processing unit 220.

또한, 본 발명의 일실시 예에 따른 무선부(210)는, 음성 처리부(220)를 통하여 입력된 음성 데이터를 외부로 출력한다. In addition, the wireless unit 210 according to an embodiment of the present invention outputs the voice data input through the voice processing unit 220 to the outside.

본 발명의 일실시 예에 따른 위치 인식부(212)는, 사용자의 현재 위치를 인 식하고 인식된 현재 위치 정보를 무선부(210)를 통하여 증강 현실 처리 서버(110)로 출력한다. 이 때, 위치 인식부(212)는 GPS(Global Positioning System) 수신기일 수 있다. The location recognition unit 212 according to an embodiment of the present disclosure recognizes the current location of the user and outputs the recognized current location information to the augmented reality processing server 110 through the wireless unit 210. In this case, the position recognizing unit 212 may be a global positioning system (GPS) receiver.

본 발명의 일실시 예에 따른 영상 촬영부(214)는, 사용자가 바라보는 방향의 사물을 촬영한다. 영상 촬영부(214)에서 촬영된 영상은 다른 사용자에게 유선 및 무선으로 직접 전송할 수도 있고, 증강 현실 처리 서버(110)를 통하여 전송할 수도 있다. 상기 무선으로의 직접 전송 및 증강 현실 처리 서버(110)를 통한 전송은 무선부(210)를 통하여 이루어질 수 있다. The image capturing unit 214 according to an embodiment of the present invention photographs an object in a direction that the user views. The image photographed by the image capturing unit 214 may be directly transmitted to another user by wire or wirelessly, or may be transmitted through the augmented reality processing server 110. The direct transmission to the wireless and the transmission through the augmented reality processing server 110 may be made through the wireless unit 210.

본 발명의 일실시 예에 따른 음성 처리부(220)는, 음성을 입력받기 위한 마이크(MIC) 및 음성을 출력하기 위한 스피커(SPK)를 포함하며, 무선부(210)로부터 수신되는 음성 데이터를 외부로 출력한다. 특히, 본 발명의 일실시 예에 따른 음성 처리부(220)를 이용하여 사용자는 화면에 표시되는 부분 영상 데이터가 사용자가 현재 바라보는 배경 및 사물에 적절하게 배치되지 않는 경우 부분 영상 데이터의 출력 위치를 이동시킬 수 있다. 즉, 사용자는 음성 처리부(220)를 통한 음성 제어 명령을 입력함으로써 표시부(240)에 표시되는 부분 영상 데이터의 출력 위치를 이동시킬 수 있다. The voice processor 220 according to an embodiment of the present invention includes a microphone MIC for receiving voice and a speaker SPK for outputting voice, and externally receives voice data received from the wireless unit 210. Will output In particular, when the partial image data displayed on the screen is not properly disposed on a background and an object currently viewed by the user using the voice processor 220 according to an embodiment of the present invention, an output position of the partial image data is determined. You can move it. That is, the user may move the output position of the partial image data displayed on the display unit 240 by inputting a voice control command through the voice processor 220.

또한, 본 발명의 일실시 예에 따른 음성 처리부(220)를 통하여 입력된 음성 데이터는 무선부(210)를 통하여 외부로 출력될 수 있고, 상기와 같이 외부로 출력 된 음성 데이터는 다른 사용자가 사용하는 본 발명의 일실시 예에 따른 증강 현실 구현 장치(120)에서 수신될 수 있다. 즉, 본 발명의 일실시 예에 따른 음성 처리부(220)를 통하여 타 사용자와 음성 통신을 할 수 있다. In addition, the voice data input through the voice processing unit 220 according to an embodiment of the present invention may be output to the outside through the wireless unit 210, the voice data output to the outside as described above is used by other users It may be received by the augmented reality implementation device 120 according to an embodiment of the present invention. That is, voice communication with another user may be performed through the voice processing unit 220 according to an embodiment of the present invention.

본 발명의 일실시 예에 따른 제어부(230)는, 방향 인식부(232)로부터 수신된 방향 정보를 기반으로 증강 현실 처리 서버(110)로부터 출력되어 무선부(210)를 통하여 수신된 영상 데이터 중 사용자에게 표시할 부분 영상 데이터를 표시부(240)로 출력한다. 즉, 현재 위치 정보에 기반하여 증강 현실 처리 서버(110)로부터 수신된 영상 데이터 중 사용자가 현재 바라보는 방향의 배경 및 사물에 적합한 화면을 사용자에게 보여준다. The control unit 230 according to an embodiment of the present invention, the image data output from the augmented reality processing server 110 based on the direction information received from the direction recognition unit 232 received through the wireless unit 210 of the The partial image data to be displayed to the user is output to the display unit 240. That is, among the image data received from the augmented reality processing server 110 based on the current location information, a screen suitable for a background and an object in a direction currently viewed by the user is shown to the user.

또한, 본 발명의 일실시 예에 따른 제어부(230)는, 키 입력부(236), 음성 처리부(220) 및 동작 인식부(234)를 통하여 입력된 제어 명령에 따라 표시부(240)에 출력되는 영상 데이터의 출력 위치를 이동시킨다. 즉, 본 발명의 일실시 예에 따른 제어부(230)는, 표시부(240)에 표시되는 부분 영상 데이터가 사용자가 현재 바라보는 배경 및 사물에 적절하게 배치되지 않는 경우, 키 입력부(236), 음성 처리부(220) 및 동작 인식부(234)를 통하여 입력된 제어 명령에 따라 영상 데이터의 출력 위치를 이동시킨다. In addition, the control unit 230 according to an embodiment of the present invention, the image output to the display unit 240 according to the control command input through the key input unit 236, the voice processing unit 220 and the motion recognition unit 234 Move the output position of data. That is, when the partial image data displayed on the display unit 240 is not properly disposed on a background and an object currently viewed by the user, the controller 230 according to an exemplary embodiment of the present invention may include a key input unit 236 and a voice. The output position of the image data is moved according to a control command input through the processor 220 and the motion recognition unit 234.

또한, 본 발명의 일실시 예에 따른 제어부(230)는, 뇌파 감지부(238)로부터 수신되는 사용자의 뇌파 정보에 따라 표시부(240)에 출력되는 영상 데이터의 밝기 및 음성 데이터의 크기를 조절한다. 예를 들어, 상기 뇌파 정보에 따른 사용자의 상태를 파악하여 사용자가 졸고 있는 경우 출력되는 영상 데이터의 밝기를 어둡게 하거나 음성 데이터의 크기를 작게 할 수 있다. In addition, the controller 230 according to an embodiment of the present invention adjusts the brightness of the image data and the size of the audio data output to the display unit 240 according to the brain wave information of the user received from the brain wave sensor 238. . For example, when the user sleeps by grasping the user's state according to the brain wave information, the brightness of the output image data may be decreased or the size of the voice data may be reduced.

본 발명의 일실시 예에 따른 방향 인식부(232)는, 사용자가 바라보는 방향을 인식하고 인식된 방향 정보를 제어부(230)로 출력한다. 이 때, 방향 인식부(232)는, 트랙커(tracker) 또는 자이로스코프(gyroscope)일 수 있다. The direction recognition unit 232 according to an embodiment of the present disclosure recognizes the direction that the user looks at and outputs the recognized direction information to the controller 230. In this case, the direction recognizing unit 232 may be a tracker or a gyroscope.

본 발명의 일실시 예에 따른 동작 인식부(234)는, 사용자의 동작을 인식하고 인식된 동작 정보를 제어부(230)로 출력한다. 이 때, 동작 인식부(234)는, 헴틱 디바이스일 수 있다. The motion recognition unit 234 according to an embodiment of the present disclosure recognizes a user's motion and outputs the recognized motion information to the controller 230. In this case, the gesture recognition unit 234 may be a hemtic device.

본 발명의 일실시 예에 따른 동작 인식부(234)를 이용하여 사용자는 화면에 표시된 사물의 위치를 이동시킬 수도 있고, 화면에 표시된 부분 영상 데이터가 사용자가 현재 바라보는 배경 및 사물에 적절하게 배치되지 않는 경우 부분 영상 데이터의 출력 위치를 이동시킬 수 있다. The user may move the position of the object displayed on the screen by using the motion recognition unit 234 according to an embodiment of the present invention, and the partial image data displayed on the screen is appropriately disposed on the background and the object currently viewed by the user. If not, the output position of the partial image data may be shifted.

본 발명의 일실시 예에 따른 키 입력부(236)는, 사용자가 누르는 키에 대응하는 키 입력 신호를 제어부(230)로 출력하며, 자판 및 터치 스크린 등을 포함한다. 사용자는 본 발명의 일실시 예에 따른 키 입력부(236)를 이용하여 각 종 정보를 입력할 수 있다. 특히, 본 발명의 일실시 예에 따른 키 입력부(236)를 이용하여 사용자는 화면에 표시되는 부분 영상 데이터가 사용자가 현재 바라보는 배경 및 사 물에 적절하게 배치되지 않는 경우 부분 영상 데이터의 출력 위치를 이동시킬 수 있다. The key input unit 236 according to an embodiment of the present invention outputs a key input signal corresponding to a key pressed by the user to the controller 230, and includes a keyboard and a touch screen. A user may input various kinds of information using the key input unit 236 according to an embodiment of the present invention. In particular, by using the key input unit 236 according to an embodiment of the present invention, the user outputs the partial image data when the partial image data displayed on the screen is not properly disposed on the background and the object currently viewed by the user. Can be moved.

본 발명의 일실시 예에 따른 뇌파 감지부(238)는, 사용자의 뇌파를 감지하여 감지된 뇌파 정보를 제어부(230)로 출력한다. 뇌파 감지부(238)에서 출력되는 사용자의 뇌파 정보를 이용하여 제어부(230)는 사용자가 졸고 있는지 등의 사용자 상태를 파악할 수 있으며, 이에 따라 사용자에게 들려주는 음성의 크기를 조절하게끔 할 수도 있고 사용자에게 표시되는 영상 데이터의 밝기를 조절할 수도 있다. The brain wave detector 238 according to an embodiment of the present invention detects brain waves of a user and outputs the detected brain wave information to the controller 230. Using the EEG information of the user output from the EEG detecting unit 238, the controller 230 can determine the user's state, such as whether the user is asleep, thereby adjusting the size of the voice heard by the user or the user You can also adjust the brightness of the image data displayed on the screen.

본 발명의 일실시 예에 따른 표시부(240)는, 투명 전자 소자로 구성된 투명 디스플레이를 포함한다. 도 3은 본 발명의 일실시 예에 따른 표시부(240)에 적용되는 투명 디스플레이를 설명하기 위한 도면이다. The display unit 240 according to an embodiment of the present invention includes a transparent display composed of transparent electronic devices. 3 is a view for explaining a transparent display applied to the display unit 240 according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 일실시 예에 적용되는 투명 디스플레이는 서브(302), 구동 패널(304), 표시 패널(306) 및 보호 덮개(308)를 포함한다. Referring to FIG. 3, a transparent display applied to an embodiment of the present invention includes a sub 302, a driving panel 304, a display panel 306, and a protective cover 308.

서브(302)는, 투명 전자 소자를 형성하기 위해 유리 또는 플라스틱 등으로 이루어진다. The sub 302 is made of glass, plastic, or the like to form a transparent electronic device.

구동 패널(304)은, 서브(302)상에 형성되는 투명 전극, 투명 반도체, 투명 절연체 등의 투명 전자소자를 이용하여 가상 영상을 구동하기 위한 영역이다. The driving panel 304 is an area for driving a virtual image using transparent electronic elements such as a transparent electrode, a transparent semiconductor, and a transparent insulator formed on the sub 302.

표시 패널(306)은, 유기물 발광 소자, 무기물 발광 소자 또는 LCD 등으로 이루어지며 수십에서 수백 마이크로미터의 크기를 가지는 픽셀은 구동 패널(304)로부 터 출력되는 신호에 의하여 점멸된다. The display panel 306 is formed of an organic light emitting device, an inorganic light emitting device, an LCD, or the like, and pixels having a size of several tens to hundreds of micrometers are flickered by a signal output from the driving panel 304.

보호 덮개(308)는, 구동 패널(304)과 표시 패널(306)을 보호하기 위해 형성된다. The protective cover 308 is formed to protect the drive panel 304 and the display panel 306.

이러한 투명 디스플레이를 이용한 표시부(240)는, 실선의 화살표로 표시된 외부로부터 입력되는 빛을 투과시키고, 점선의 화살표로 표시된 표시 패널(306)로부터 출력되는 영상을 출력하여, 사용자에게 실제 배경 및 사물에 가상 영상을 덧입혀 보여줄 수 있는 것이다. 또한, 이러한 투명 디스플레이는 곡면 형태로 제작이 가능하여 넓은 시야각을 보장하는 장점이 있다. The display unit 240 using the transparent display transmits light inputted from the outside indicated by a solid arrow, and outputs an image output from the display panel 306 indicated by a dotted arrow, so as to provide a user with an actual background and an object. Virtual images can be overlaid. In addition, such a transparent display can be manufactured in a curved form, thereby ensuring a wide viewing angle.

상기와 같은 본 발명은, 증강 현실 구현 장치(120)에서 출력된 위치 정보에 대응하여 증강 현실 처리 서버(110)로부터 수신된 영상 데이터를 사용자가 현재 바라보는 방향을 인식한 후 이에 맞게 출력함으로써, 사용자가 현재 바라보는 사물 및 배경과 더불어 이에 대응되는 화면을 볼 수 있게 한다. The present invention as described above, by recognizing the direction currently viewed by the user to the image data received from the augmented reality processing server 110 in response to the position information output from the augmented reality implementation apparatus 120, accordingly, It allows the user to see the object and background currently viewed and the corresponding screen.

도 4는 본 발명의 일실시 예에 따른 투명 전자 소자를 이용한 증강 현실 구현 방법을 나타내는 흐름도이다. 이하, 도 4를 참조하여 본 발명의 일실시 예에 따른 투명 전자 소자를 이용한 증강 현실 구현 방법에 대하여 상세히 설명하되 상기 도 1 및 도 2를 참조하여 설명한 본 발명의 일실시 예에 따른 투명 전자 소자를 이용한 증강 현실 구현 장치의 내용과 중복되는 내용은 생략한다. 4 is a flowchart illustrating a method of implementing augmented reality using a transparent electronic device according to an embodiment of the present invention. Hereinafter, a method for implementing augmented reality using a transparent electronic device according to an embodiment of the present invention will be described in detail with reference to FIG. 4, but the transparent electronic device according to an embodiment of the present invention described with reference to FIGS. 1 and 2 is described. The overlapping contents of the apparatus for implementing augmented reality using the above description will be omitted.

단계(401)에서 본 발명의 일실시 예에 따른 위치 인식부(212)는, 사용자의 현재 위치를 인식하고 무선부(210)를 통하여 상기 인식된 위치 정보를 증강 현실 처리 서버(110)로 출력한다. In operation 401, the location recognition unit 212 recognizes the current location of the user and outputs the recognized location information to the augmented reality processing server 110 through the wireless unit 210. do.

단계(403)에서 본 발명의 일실시 예에 따른 증강 현실 처리 서버(110)는, 수신된 위치 정보에 따른 영상 데이터를 출력하고, 무선부(210)는 증강 현실 처리 서버(110)로부터 수신된 영상 데이터를 제어부(230)로 출력한다. In step 403, the augmented reality processing server 110 according to an embodiment of the present invention outputs the image data according to the received position information, the wireless unit 210 is received from the augmented reality processing server 110 The image data is output to the controller 230.

단계(405)에서 본 발명의 일실시 예에 따른 방향 인식부(232)는, 사용자가 현재 바라보는 방향을 인식하고 인식된 방향 정보를 제어부(230)로 출력한다. In operation 405, the direction recognition unit 232 according to an embodiment of the present disclosure recognizes the direction currently viewed by the user and outputs the recognized direction information to the controller 230.

단계(407)에서 본 발명의 일실시 예에 따른 제어부(230)는, 위치 정보 및 방향 정보를 기반으로 상기 수신된 영상 데이터 중 사용자에게 표시할 부분 영상 데이터를 표시부(240)로 출력한다. In operation 407, the controller 230 according to an embodiment of the present disclosure outputs the partial image data to be displayed to the user among the received image data based on the location information and the direction information to the display unit 240.

단계(409)에서 본 발명의 일실시 예에 따른 제어부(230)는 사용자로부터 화면의 출력 위치를 이동시키는 제어 명령의 입력이 있는지 판단하고 있다면 단계(411)로 진행하고 그렇지 않으면 단계(401)로 진행한다. 이 때, 제어 명령의 입력은 키 입력부(236)를 통한 키 입력 또는 음성 처리부(220)를 통한 음성 입력으로 이루어질 수 있다. In step 409, if the controller 230 determines whether there is an input of a control command for moving the output position of the screen from the user, the control unit 230 proceeds to step 411; otherwise, the control unit 230 proceeds to step 401. Proceed. In this case, the control command may be input by a key input through the key input unit 236 or a voice input through the voice processing unit 220.

단계(411)에서 본 발명의 일실시 예에 따른 제어부(230)는 입력된 제어 명령에 따라 화면의 출력 위치를 이동시킨다. In operation 411, the controller 230 moves the output position of the screen according to the input control command.

상기와 같은 본 발명의 일실시 예에 따른 투명 전자 소자를 이용한 증강 현실 구현 방법을 도 5를 예로 들어 이하에서 설명한다. An augmented reality implementation method using a transparent electronic device according to an embodiment of the present invention as described above will be described below with reference to FIG. 5.

도 5는 본 발명의 일실시 예에 따른 투명 전자 소자를 이용한 증강 현실 구현 방법을 보여주기 위한 예시도이다. 5 is an exemplary view illustrating a method of implementing augmented reality using a transparent electronic device according to an embodiment of the present invention.

도 5의 (a)는 본 발명의 일실시 예에 따른 증강 현실 구현 장치를 네비게이션으로 사용하는 예를 보여주는 도면이다. 도 5의 (a)를 참조하면, 사용자가 안경 형태의 투명 디스플레이를 착용하고 운전을 하고 있음을 알 수 있다. 이 때, 네비게이션으로 이용되는 증강 현실 구현 장치는 현재의 위치 정보를 증강 현실 구현 서버로 전송하고, 전송된 정보에 대응하여 증강 현실 구현 서버로부터 수신된 정보를 투명 디스플레이에 표시하게 된다. 5A is a diagram illustrating an example of using an augmented reality implementing device according to an embodiment of the present invention as a navigation. Referring to FIG. 5A, it can be seen that the user is driving while wearing a transparent display in the form of glasses. At this time, the augmented reality implementation apparatus used for navigation transmits the current location information to the augmented reality implementation server, and displays the information received from the augmented reality implementation server in response to the transmitted information on the transparent display.

도 5의 (a)를 참조하면, 증강 현실 구현 서버로부터 전방의 4거리 상에서 좌회전을 유도하는 방향 표시 화살표(502)를 출력하는 데이터를 받은 것을 알 수 있는데, 기술상의 오차로 인하여 화살표(502)의 출력 위치가 사용자가 보는 배경에 일치하지 않는 것을 알 수 있다. 이 때, 사용자는 키 입력, 음성 입력 등을 통한 제어 명령을 입력하여 화살표(502)의 출력 위치를 이동시킬 수 있다. Referring to FIG. 5A, it can be seen that data received from the augmented reality implementation server outputs a direction indication arrow 502 which induces a left turn on four forward distances. Due to technical errors, the arrow 502 is received. You can see that the output location of does not match the background you see. In this case, the user may input a control command through a key input, a voice input, or the like to move the output position of the arrow 502.

도 5의 (b)는 도 5의 (a)와 같이 화살표(502)의 출력 위치가 사용자가 보는 배경 및 사물에 일치하지 아니하여 제어 명령을 통하여 화살표(502)의 출력 위치를 사용자가 보는 배경 및 사물에 일치하도록 출력 위치를 이동시킨 결과를 보여준다. 5B is a background of the user viewing the output position of the arrow 502 through a control command because the output position of the arrow 502 does not correspond to the background and the object seen by the user as shown in FIG. 5A. And a result of moving the output position to match the thing.

이렇듯, 본 발명에 따르면 사용자가 바라보는 실제 배경 및 사물에 가상 영상을 자연스럽게 덧입히고, 가상 영상을 적절한 위치에 배치하여 좀 더 정확한 정보를 전달할 수 있는 이점이 있게 된다. As described above, according to the present invention, the virtual image is naturally added to the real background and the object viewed by the user, and the virtual image is disposed at an appropriate position to deliver more accurate information.

상술한 본 발명의 설명에서는 구체적인 일실시 예에 관해 설명하였으나, 여러 가지 변형이 본 발명의 범위에서 벗어나지 않고 실시될 수 있다. 따라서, 본 발명의 범위는 설명된 실시 예에 의하여 정할 것이 아니고 특허청구범위와 특허청구범위의 균등한 것에 의해 정해져야 한다.In the above description of the present invention, a specific embodiment has been described, but various modifications may be made without departing from the scope of the present invention. Therefore, the scope of the present invention should not be defined by the described embodiments, but should be determined by the equivalent of claims and claims.

도 1은 본 발명의 일실시 예에 따른 투명 전자 소자를 이용한 증강 현실 구현 시스템의 블록 구성도, 1 is a block diagram of an augmented reality implementation system using a transparent electronic device according to an embodiment of the present invention;

도 2는 본 발명의 일실시 예에 따른 투명 전자 소자를 이용한 증강 현실 구현 장치의 블록 구성도, 2 is a block diagram of an apparatus for implementing augmented reality using a transparent electronic device according to an embodiment of the present disclosure;

도 3은 본 발명의 일실시 예에 따른 표시부에 적용되는 투명 디스플레이를 설명하기 위한 도면, 3 is a view for explaining a transparent display applied to the display unit according to an embodiment of the present invention;

도 4는 본 발명의 일실시 예에 따른 투명 전자 소자를 이용한 증강 현실 구현 방법을 나타내는 흐름도, 4 is a flowchart illustrating a method of implementing augmented reality using a transparent electronic device according to an embodiment of the present invention;

도 5는 본 발명의 일실시 예에 따른 투명 전자 소자를 이용한 증강 현실 구현 방법을 보여주기 위한 예시도.5 is an exemplary view for illustrating a method of implementing augmented reality using a transparent electronic device according to an embodiment of the present invention.

Claims (14)

(a) 사용자의 현재 위치를 인식하는 단계; (a) recognizing a user's current location; (b) 상기 인식된 사용자의 현재 위치 정보를 위치에 따른 영상 데이터를 저장하는 서버로 출력하고, 상기 현재 위치 정보에 대응하여 상기 서버로부터 출력되는 영상 데이터를 수신하는 단계;(b) outputting the recognized current location information of the user to a server storing image data according to a location, and receiving the image data output from the server corresponding to the current location information; (c) 사용자가 바라보는 방향을 인식하는 단계;(c) recognizing a direction that the user views; (d) 상기 인식된 방향 정보를 기반으로 상기 수신된 영상 데이터 중 상기 사용자에게 표시할 부분 영상 데이터를 외부로부터 입력되는 빛을 투과시키는 투명 전자 소자로 구성된 화면에 출력하는 단계; 및(d) outputting partial image data of the received image data to be displayed to the user based on the recognized direction information on a screen composed of a transparent electronic device that transmits light input from the outside; And (e) 상기 사용자로부터 입력된 음성 제어 명령에 따라 상기 부분 영상 데이터의 출력 위치를 이동시키거나, 상기 사용자로부터 입력된 키 입력 신호에 따라 상기 부분 영상 데이터의 출력 위치를 이동시키는 단계를 포함하는 투명 전자 소자를 이용한 증강 현실 구현 방법. (e) moving the output position of the partial image data according to a voice control command input from the user, or moving the output position of the partial image data according to a key input signal input from the user. Augmented Reality Implementation Method Using Electronic Device. 제 1항에 있어서, 상기 (d) 단계에서, The method of claim 1, wherein in step (d), 상기 사용자의 위치에 따른 음성 데이터를 수신하여 외부로 출력하는 단계Receiving voice data according to the location of the user and outputting the voice data to the outside; 를 더 포함하는 투명 전자 소자를 이용한 증강 현실 구현 방법. Augmented reality implementation method using a transparent electronic device further comprising. 삭제delete 삭제delete 제 1항에 있어서, 상기 (e) 단계에서, The method of claim 1, wherein in step (e), 상기 사용자의 뇌파를 감지하여 상기 감지된 뇌파 정보에 따라 상기 출력되는 부분 영상 데이터의 밝기를 조절하는 단계Adjusting the brightness of the output partial image data according to the detected EEG information by detecting the EEG of the user 를 더 포함하는 투명 전자 소자를 이용한 증강 현실 구현 방법. Augmented reality implementation method using a transparent electronic device further comprising. 제 2항에 있어서, 상기 (e) 단계에서, The method of claim 2, wherein in step (e), 상기 사용자의 뇌파를 감지하여 상기 감지된 뇌파 정보에 따라 상기 출력되는 음성 데이터의 크기를 조절하는 단계Detecting the brain wave of the user and adjusting the size of the output voice data according to the detected brain wave information 를 더 포함하는 투명 전자 소자를 이용한 증강 현실 구현 방법. Augmented reality implementation method using a transparent electronic device further comprising. 사용자의 현재 위치를 인식하는 위치 인식부; A location recognizing unit recognizing a current location of a user; 상기 위치 인식부로부터 수신된 상기 사용자의 현재 위치 정보를 위치에 따른 영상 데이터를 저장하는 서버로 출력하고, 상기 현재 위치 정보에 대응하여 상기 서버로부터 출력되는 영상 데이터를 수신하는 무선부; A wireless unit outputting current location information of the user received from the location recognizing unit to a server storing image data according to a location, and receiving image data output from the server in response to the current location information; 상기 사용자가 바라보는 방향을 인식하고 상기 인식된 방향에 관한 정보를 출력하는 방향 인식부; A direction recognizing unit recognizing a direction viewed by the user and outputting information on the recognized direction; 상기 방향 인식부로부터 수신된 방향 정보를 기반으로 상기 무선부로부터 수신된 영상 데이터 중 사용자에게 표시할 부분 영상 데이터를 출력하는 제어부; 및 A controller for outputting partial image data to be displayed to a user among image data received from the wireless unit based on the direction information received from the direction recognizing unit; And 상기 제어부로부터 수신된 부분 영상 데이터를 출력하며, 외부로부터 입력되는 빛을 투과시키는 투명 전자 소자로 구성된 표시부; A display unit configured to output partial image data received from the controller and to transmit light input from the outside; 사용자로부터 키 입력을 받기 위한 키 입력부; 및A key input unit for receiving a key input from a user; And 사용자로부터 음성 제어 명령을 입력받거나 상기 무선부로부터 입력된 음성 데이터를 외부로 출력하는 음성 처리부를 포함하며, A voice processing unit for receiving a voice control command from a user or outputting voice data input from the wireless unit to the outside; 상기 제어부는, 상기 키 입력부를 통하여 입력된 키 입력 신호에 따라 상기 표시부로 출력되는 부분 영상 데이터의 출력 위치를 이동시키고, 상기 음성 처리부를 통하여 입력된 음성 제어 명령에 따라 상기 표시부로 출력되는 부분 영상 데이터의 출력 위치를 이동시키는 것을 특징으로 하는 투명 전자 소자를 이용한 증강 현실 구현 장치. The control unit may move an output position of the partial image data output to the display unit according to a key input signal input through the key input unit, and output the partial image output to the display unit according to a voice control command input through the voice processing unit. Augmented reality implementation apparatus using a transparent electronic device, characterized in that for moving the output position of the data. 제 7항에 있어서, The method of claim 7, wherein 상기 무선부는, 상기 사용자의 위치에 따른 음성 데이터를 수신하는The wireless unit receives voice data according to the location of the user. 투명 전자 소자를 이용한 증강 현실 구현 장치. Augmented reality realization device using a transparent electronic device. 삭제delete 삭제delete 제 7항에 있어서, The method of claim 7, wherein 상기 사용자의 동작을 인식하는 동작 인식부를 더 포함하고, Further comprising a motion recognition unit for recognizing the motion of the user, 상기 제어부는, 상기 동작 인식부로부터 수신된 상기 사용자의 동작 정보에 따라 상기 표시부에 출력되는 부분 영상 데이터의 출력 위치를 이동시키는The controller is configured to move the output position of the partial image data output to the display unit according to the user's operation information received from the gesture recognition unit. 투명 전자 소자를 이용한 증강 현실 구현 장치. Augmented reality realization device using a transparent electronic device. 제 7항에 있어서, The method of claim 7, wherein 사용자의 뇌파를 감지하는 뇌파 감지부를 더 포함하고, Further comprising an EEG detecting unit for detecting the EEG of the user, 상기 제어부는, 상기 뇌파 감지부로부터 수신된 뇌파 정보에 따라 상기 표시부로 출력되는 부분 영상 데이터의 밝기를 조절하는The controller may adjust brightness of the partial image data output to the display unit according to the EEG information received from the EEG detector. 투명 전자 소자를 이용한 증강 현실 구현 장치. Augmented reality realization device using a transparent electronic device. 제 8항에 있어서, The method of claim 8, 사용자의 뇌파를 감지하는 뇌파 감지부를 더 포함하고, Further comprising an EEG detecting unit for detecting the EEG of the user, 상기 제어부는, 상기 뇌파 감지부로부터 수신된 뇌파 정보에 따라 상기 음성 처리부로 출력되는 음성 데이터의 크기를 조절하는The controller is configured to adjust the size of voice data output to the voice processor in accordance with the brain wave information received from the brain wave detector. 투명 전자 소자를 이용한 증강 현실 구현 장치. Augmented reality realization device using a transparent electronic device. 삭제delete
KR1020070113970A 2007-11-08 2007-11-08 The method and apparatus for realizing augmented reality using transparent display KR100911376B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070113970A KR100911376B1 (en) 2007-11-08 2007-11-08 The method and apparatus for realizing augmented reality using transparent display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070113970A KR100911376B1 (en) 2007-11-08 2007-11-08 The method and apparatus for realizing augmented reality using transparent display

Publications (2)

Publication Number Publication Date
KR20090047889A KR20090047889A (en) 2009-05-13
KR100911376B1 true KR100911376B1 (en) 2009-08-10

Family

ID=40857161

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070113970A KR100911376B1 (en) 2007-11-08 2007-11-08 The method and apparatus for realizing augmented reality using transparent display

Country Status (1)

Country Link
KR (1) KR100911376B1 (en)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101036600B1 (en) * 2009-12-18 2011-05-24 주식회사 비전소프트텍 3d virtual reality system and virtual image displaying method using transparent screen
KR101232864B1 (en) * 2010-02-25 2013-02-19 김희남 Method and system for providing peripheral information to mobile device
KR101299910B1 (en) * 2010-08-18 2013-08-23 주식회사 팬택 Method, User Terminal and Remote Terminal for Sharing Augmented Reality Service
KR101722784B1 (en) * 2010-09-10 2017-04-04 주식회사 엘지유플러스 Method for providing user interface of using augmeted reality and mobile terminal using therof
KR101663619B1 (en) * 2010-09-16 2016-10-07 엘지전자 주식회사 Transparent display device and method for providing local information
KR101036107B1 (en) * 2010-11-30 2011-05-19 심광호 Emergency notification system using rfid
KR101181967B1 (en) * 2010-12-29 2012-09-11 심광호 3D street view system using identification information.
TW201305789A (en) * 2011-04-19 2013-02-01 Neoviewkolon Co Ltd Bluetooth terminal apparatus having transparent display
US9497501B2 (en) 2011-12-06 2016-11-15 Microsoft Technology Licensing, Llc Augmented reality virtual monitor
US20130147686A1 (en) * 2011-12-12 2013-06-13 John Clavin Connecting Head Mounted Displays To External Displays And Other Communication Networks
US10365711B2 (en) 2012-05-17 2019-07-30 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for unified scene acquisition and pose tracking in a wearable display
WO2014014145A1 (en) * 2012-07-19 2014-01-23 엘지전자 주식회사 Head mount display device using a brainwave signal and method for controlling same
US9898866B2 (en) 2013-03-13 2018-02-20 The University Of North Carolina At Chapel Hill Low latency stabilization for head-worn displays
KR102170749B1 (en) 2013-11-29 2020-10-28 삼성전자주식회사 Electro device comprising transparent display and method for controlling thereof
WO2016073557A1 (en) 2014-11-04 2016-05-12 The University Of North Carolina At Chapel Hill Minimal-latency tracking and display for matching real and virtual worlds
US10410372B1 (en) 2018-06-14 2019-09-10 The University Of North Carolina At Chapel Hill Methods, systems, and computer-readable media for utilizing radial distortion to estimate a pose configuration
KR102445496B1 (en) * 2019-09-30 2022-09-21 주식회사 엘지유플러스 Wearable apparatus and operating method thereof and server for reconizing situation

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09159747A (en) * 1995-12-08 1997-06-20 Matsushita Electric Ind Co Ltd Head-mounted display device with built-in gps function
JP2001197400A (en) 2000-01-12 2001-07-19 Mixed Reality Systems Laboratory Inc Display device, head installation-type display device, control method of head installation-type display device, picture generation method for the same, computer and program storage medium
KR20020025301A (en) * 2000-09-28 2002-04-04 오길록 Apparatus and Method for Furnishing Augmented-Reality Graphic using Panoramic Image with Supporting Multiuser
KR20050055506A (en) * 2003-12-08 2005-06-13 한국전자통신연구원 Location information offering system and method of portable terminal user using augmented reality

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09159747A (en) * 1995-12-08 1997-06-20 Matsushita Electric Ind Co Ltd Head-mounted display device with built-in gps function
JP2001197400A (en) 2000-01-12 2001-07-19 Mixed Reality Systems Laboratory Inc Display device, head installation-type display device, control method of head installation-type display device, picture generation method for the same, computer and program storage medium
KR20020025301A (en) * 2000-09-28 2002-04-04 오길록 Apparatus and Method for Furnishing Augmented-Reality Graphic using Panoramic Image with Supporting Multiuser
KR20050055506A (en) * 2003-12-08 2005-06-13 한국전자통신연구원 Location information offering system and method of portable terminal user using augmented reality

Also Published As

Publication number Publication date
KR20090047889A (en) 2009-05-13

Similar Documents

Publication Publication Date Title
KR100911376B1 (en) The method and apparatus for realizing augmented reality using transparent display
US11087728B1 (en) Computer vision and mapping for audio applications
US10983593B2 (en) Wearable glasses and method of displaying image via the wearable glasses
US10564919B2 (en) Display system, display apparatus, method for controlling display apparatus, and program
CA2913650C (en) Virtual object orientation and visualization
US9375639B2 (en) Image display system and head-mounted display device
KR101773892B1 (en) Display device, head mounted display, display system, and control method for display device
US10303435B2 (en) Head-mounted display device, method of controlling head-mounted display device, and computer program
US20150379770A1 (en) Digital action in response to object interaction
US20190227694A1 (en) Device for providing augmented reality service, and method of operating the same
US10642348B2 (en) Display device and image display method
US20140285520A1 (en) Wearable display device using augmented reality
JP6492673B2 (en) Head-mounted display device, method for controlling head-mounted display device, computer program
WO2022006116A1 (en) Augmented reality eyewear with speech bubbles and translation
JP2017091433A (en) Head-mounted type display device, method of controlling head-mounted type display device, and computer program
KR20160016524A (en) Wearable glasses and method for displaying image therethrough
KR20180052156A (en) Mobile terminal and method for controlling the same
US9811160B2 (en) Mobile terminal and method for controlling the same
KR102201740B1 (en) Mobile terminal and method for controlling the same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120730

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20130729

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee