KR101274334B1 - 비전기반의 증강현실 시스템 - Google Patents

비전기반의 증강현실 시스템 Download PDF

Info

Publication number
KR101274334B1
KR101274334B1 KR1020110032593A KR20110032593A KR101274334B1 KR 101274334 B1 KR101274334 B1 KR 101274334B1 KR 1020110032593 A KR1020110032593 A KR 1020110032593A KR 20110032593 A KR20110032593 A KR 20110032593A KR 101274334 B1 KR101274334 B1 KR 101274334B1
Authority
KR
South Korea
Prior art keywords
infrared
marker
augmented reality
image
information
Prior art date
Application number
KR1020110032593A
Other languages
English (en)
Other versions
KR20120114817A (ko
Inventor
김응곤
류남훈
이혜미
정종욱
Original Assignee
순천대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 순천대학교 산학협력단 filed Critical 순천대학교 산학협력단
Priority to KR1020110032593A priority Critical patent/KR101274334B1/ko
Publication of KR20120114817A publication Critical patent/KR20120114817A/ko
Application granted granted Critical
Publication of KR101274334B1 publication Critical patent/KR101274334B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명에 따른 증강현실 시스템은 적외선 엘이디에 의해 구현되는 적외선 마커를 가진 대상체 및 상기 대상체의 실제 영상과 상기 대상체의 적외선 마커를 촬영하여, 촬영된 실제 영상 위에 상기 적외선 마커로부터 판독되는 가상 영상을 렌더링하여 증강현실 영상을 생성하는 증강현실 구현장치를 포함함으로써, 대상체에 적용되는 마커가 외관상 드러나지 않고도 증강현실을 구현할 수 있는 시스템을 제공한다.

Description

비전기반의 증강현실 시스템{AUGMENTED REALLITY SYSTEM BASED ON VISION}
본 발명은 증강현실 시스템에 관한 것으로서, 보다 상세하게는 비전을 기반으로 한 증강현실 시스템에 관한 것이다.
증강현실(AUGMENTED REALLITY, AG)이란 사용자가 눈으로 보는 현실세계에 가상 물체를 겹쳐 보여주는 기술로서, 현실세계에 실시간으로 부가정보를 갖는 가상세계를 합쳐 하나의 영상으로 보여주므로 혼합현실(MIXED REALLITY, MR)이라고도 한다. 현실세계를 가상세계로 보완해주는 개념인 증강현실은 컴퓨터 그래픽으로 만들어진 가상환경을 사용하지만 주역은 현실환경이다. 컴퓨터 그래픽은 현실환경에 필요한 정보를 추가 제공하는 역할을 한다. 사용자가 보는 실사 영상에 3차원 가상영상을 겹침(overlap)으로써 현실환경과 가상화면과의 구분이 모호해지도록 한다는 뜻이다. 실제환경과 가상의 객체가 혼합된 증강현실기술은 사용자가 실제환경을 볼 수 있게 하여 보다 나은 현실감과 부가 정보를 제공한다.
예를 들어 스마트폰 카메라로 주변을 비추면 인근에 있는 상점의 위치, 전화번호 등의 정보가 입체영상으로 표기되어 사용자가 가상의 콘텐츠를 제공받을 수 있는 것이다.
이를 위한 방식으로는 GPS 및 LBS 기반의 방식이 있고, 비전, 즉 시각을 기반으로 한 방식이 있는데, 본 발명은 비전 기반의 증강현실 시스템에 관련한 것이다.
비전 기반의 증강현실 시스템은 사전에 빌딩이나 상점 등에 마킹기술이 적용되고 카메라를 통해 판독하는 것으로서, 이러한 마킹기술에는 2차원 바코드의 일종인 QR(Quick Response) 코드나, 구조화된 글자형식의 코드인 (ePosition) 코드 등이 있다.
그런데, 종래의 비전 기반의 증강현실 시스템은 육안으로 보이는 마커(Visible Marker, VM)가 표시되어 있는 추적대상체(Target Object, TO)를 촬영하고 촬영된 영상에 가상영상을 렌더링한 화면이 출력되는 시스템인데, 이러한 종래의 시스템에서는 육안으로 보이는 마커를 이용하므로 정확하고 빠르게 증강현실을 구현할 수 있는 장점이 있으나, 이러한 마커는 추적대상체에 인위적으로 부가되어야 하는 부가물이기 때문에, 실제 원하는 대상물을 가리게 하거나 육안을 거슬리게 하는 문제가 있다.
또한, 대상체에 대응하는 각각의 마커들이 별도로 마련되어야 하는 바 그 응용 영역에 한계가 있다.
그리고, 육안으로 보이는 마커는 대상체와의 거리가 멀거나, 야간에는 카메라를 통해 인식이 되지 않기 때문에 주간이어야 하며 근접해야만 가상영상을 획득할 수 있는 한계도 있다.
본 발명은 상기와 같은 문제점을 해결하기 위한 것으로서, 대상체에 적용되는 마커가 외관상 드러나지 않는 증강현실 시스템을 제공하는 데 그 목적이 있다.
본 발명에 따른 증강현실 시스템은, 적외선 엘이디에 의해 구현되는 적외선 마커를 가진 대상체 및 상기 대상체의 실제 영상과 상기 대상체의 적외선 마커를 촬영하여, 촬영된 실제 영상 위에 상기 적외선 마커로부터 판독되는 가상 영상을 렌더링하여 새로운 영상을 생성하는 증강현실 구현장치를 포함하는 것을 특징으로 한다.
상기 증강현실 구현장치는, 상기 대상체의 실제 영상을 촬영하는 가시광선 카메라부, 상기 대상체의 적외선 마커를 촬영하는 적외선 카메라부 및 상기 가시광선 카메라부 및 상기 적외선 카메라부로부터 영상을 획득하고, 획득된 상기 적외선 마커 영상으로부터 상기 적외선 카메라부에 대한 상기 적외선 마커의 위치 및 자세를 판독하여 상기 대상체의 위치 및 자세에 대한 정보를 얻음으로써 해당 적외선 마커에 해당되는 가상 영상을 상기 실제 영상 위에 렌더링하여 새로운 영상을 생성하는 영상처리부를 포함하는 것을 구체적인 특징으로 하고,
상기 증강현실 구현장치는, 적외선 마커에 대응되는 가상 영상을 저장하는 가상 영상 DB를 더 포함하여, 촬영된 적외선 마커 영상에 해당되는 가상 영상을 상기 가상 영상 DB로부터 획득하거나,
통신망을 통해 정보의 송수신이 가능한 통신부를 더 포함하여, 촬영된 적외선 마커 영상에 해당되는 가상 영상을 상기 통신부를 통해 획득하는 것을 보다 구체적인 특징으로 한다.
또한, 본 발명에 따른 증강현실 시스템은, 상기 대상체에 구현될 적외선 마커에 대한 정보를 송신하는 마커정보 송신기를 더 포함하고,
상기 대상체는, 상기 마커정보 송신기로부터 적외선 마커에 대한 정보를 수신하는 마커정보 수신부, 다수의 적외선 엘이디를 포함하는 적외선 엘이디 발광부, 상기 적외선 엘이디 발광부로부터의 적외선을 외부로 투과시키는 적외선 마커 표시부, 상기 마커정보 수신부로부터 수신된 적외선 마커에 대한 정보에 의해 상기 적외선 엘이디 발광부를 제어하는 제어부를 더 포함하는 것을 또 다른 특징으로 하고,
상기 증강현실 구현장치에 의해 생성된 증강현실 영상을 출력하는 출력장치를 더 포함하는 것을 또 다른 특징으로 한다.
본 발명에 따르면,
추적대상체에 적용되는 마커가 외관상 드러나지 않기 때문에, 실제 원하는 대상물을 가리거나 육안을 거슬리게 하지 않는다.
또한, 대상체마다 별도의 마커가 구비될 필요가 없으며, 대량의 마커를 일거에 생성이 가능하므로 다양하게 그 응용이 가능해진다.
그리고, 적외선 마커를 적외선 카메라로 촬영하기 때문에 대상체로부터의 거리가 멀어도 가상영상의 출력이 가능하고, 야간에도 가상영상의 출력이 가능하다.
도1은 본 발명에 따른 증강현실 시스템을 도시한 것이다.
도2는 본 발명에 따른 증강현실 시스템의 일부를 도식화한 것이다.
도3은 본 발명에 적용되는 적외선 마커의 구성도이다.
도4는 적외선 마커로부터 Convex Hull 알고리즘을 활용하여 추출한 외곽점들을 도시한 것이다.
도5는 적외선 마커의 좌상단 코너점 검출 구성도이다.
도6은 적외선 마커의 마커 종류를 추출하기 위한 구성도이다.
본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 보다 구체적으로 설명하되, 이미 주지된 기술에 대해서는 설명을 생략하기로 한다.
도1은 본 발명에 따른 증강현실 시스템을 도시한 것이고, 도2는 본 발명에 따른 증강현실 시스템의 일부를 도식화한 것이다.
도1 내지 도2를 참조하여 설명하면, 본 발명에 따른 증강현실 시스템(100)은 대상체(110), 증강현실 구현장치(120), 마커정보송신기(130) 및 출력장치(140)를 포함하여 구성된다.
대상체(110)는 적외선 엘이디에 의해 구현되는 적외선 마커를 가진 것으로서 사용자가 가상의 콘텐츠를 보고자하는 대상물체이고, 마커정보 송신기(130)는 대상체(110)에 구현될 적외선 마커에 대한 정보를 송신하기 위한 수단이다.
본 발명의 증강현실 시스템(100)에서의 대상체(110)는 마커정보 수신부(미도시), 적외선 엘이디 발광부(미도시), 적외선 마커 표시부(IM) 및 제어부(미도시)를 포함하여 구성된다.
마커정보 수신부는 마커정보 송신기(130)로부터 송신된 적외선 마커에 대한 정보를 수신하기 위한 구성이고, 적외선 엘이디 발광부는 복수의 적외선 엘이디로 배열되어 전원 제어에 의해 복수의 적외선 엘이디 각각이 발광되는 구성이다. 적외선 마커 표시부(IM)는 발광된 적외선 엘이디의 빛이 대상체(110) 외부로 투과될 수 있도록 하는 구성이다.
즉, 마커정보 송신기(130)는 해당 대상체(110)에 대한 정보를 대상체(110)에서 적외선 마커의 형태로 구현될 수 있도록 하는 제어신호를 송신하게 되고, 대상체(110)의 마커정보 수신부는 마커정보 송신기(130)에서 전송된 제어신호를 수신하게 된다. 마커정보 수신부에 의해 수신된 제어신호는 제어부로 전달되며, 제어부는 제어신호에 따라 적외선 엘이디 발광부의 각각의 적외선 엘이디의 전원을 제어하게 된다. 제어부의 전원제어에 의해서 발광된 적외선 엘이디는 적외선 마커 표시부(IM)를 통해 외부로 투과되는 것이다.
여기에 적외선 발광부가 외부에서 인식되지 않도록 반투명 유색 아크릴 등으로 된 차단막(미도시)이 더 구성될 수 있고,
상술한 마커정보 송신기(130)와 마커정보 수신부는 유선, Zigbee, Bluetooth 등의 유무선 통신망에 의해 정보의 송수신이 가능하다.
다음으로, 증강현실 구현장치(120)는 대상체(110)의 실제 영상과 대상체(110)의 적외선 마커를 촬영하여, 촬영된 실제 영상 위에 적외선 마커로부터 판독되는 가상 영상을 렌더링하여 새로운 영상을 생성하는 장치로서, 가시광선 카메라부(121), 적외선 카메라부(122), 영상처리부(123), 가상영상 DB(124) 및 통신부(125)를 포함한다.
증강현실 구현장치(120)의 가시광선 카메라부(121)는 대상체(110)의 실제 영상을 촬영하기 위한 수단으로, 가시광선 파장 영역의 빛을 수광한다.
본 발명에서 증강현실 구현장치(120)는 가시광선 카메라부(121) 외에 적외선 카메라부(122)를 더 포함하여 구성된다.
적외선 카메라부(122)는 대상체(110)의 적외선 마커를 촬영하기 위한 수단으로, 가시광선 파장 영역보다 긴 적외선 파장 영역의 빛을 수광한다.
두 카메라부(121,122)에 의해 촬영된 영상은 영상처리부(123)에서 획득받게 된다. 영상처리부(123)는 두 카메라부(121,122)로부터 수신된 아날로그 영상신호를 디지털 영상신호로 변환하여 디지털신호처리 프로세서에 의해 디지털적으로 영상신호를 처리하게 된다.
즉, 영상처리부(123)에서는 적외선 마커 촬영하여 얻은 영상신호로부터 적외선 카메라부(122)에 대한 적외선 마커의 위치 및 자세를 실시간으로 추적하여 해석함으로써, 대상체(110)의 위치 및 자세 정보를 얻고, 획득된 대상체(110)의 위치 및 자세 정보를 통해서 적외선 마커의 위치 및 종류를 해석함으로써, 해당 적외선 마커에 대응되게 가상영상 DB(124)에 저장된 가상영상을 수신받게 된다.
여기서, 자세란 각도 및 방향을 의미하는 것으로서, 적외선 카메라부(122)의 촬영에 의해 적외선 카메라부(122)에 대한 적외선 마커의 각도 및 방향에 대한 정보를 통해 적외선 마커를 인식하는 것이다.
그리하여, 실제 영상을 촬영하여 얻은 영상에 가상영상이 겹쳐진(overlap) 증강현실 영상을 생성시킨다.
살핀 바와 같이, 가상영상 DB(124)는 적외선 마커에 대응되는 가상영상을 저장하기 위한 수단인데, 가상영상 DB(124)에 추가적으로 또는 배타적으로 통신부(125)가 구성될 수 있다.
통신부(125)는 통신망을 통하여 외부 네트워크로의 정보의 송신 및 외부 네트워크로부터 정보의 수신이 가능한 수단으로, 영상처리부(123)의 제어에 의해, 적외선 마커를 촬영하여 얻은 영상신호로부터 적외선 마커의 위치 및 종류를 해석함으로써, 해당 적외선 마커에 대응되는 가상영상을 통신망을 경유해서 외부 네트워크에 존재하는 서버(미도시)로부터 수신받을 수 있기 위한 구성이다.
이상의 구성에 의해서, 대상체(110)를 촬영하여 증강현실 구현장치(120)에 의해 생성된 증강현실 영상은 이를 출력하기 위한 디스플레이수단인 출력장치(140)에 의해 출력되도록 구성될 수 있는데, 이는 휴대폰의 디스플레이, 컴퓨터 모니터, HMD(Head Mounted Display), 크리스탈 아이즈(Crystal Eyes) 등의 입체안경이나 안경형 HMD(Optical See-Through HMD) 등일 수 있다.
도3 내지 도6은 본 발명에 적용되는 적외선 마커의 구성 및 그로부터 대상체의 위치 및 종류를 해석하는 방법에 관한 것이다.
도3 내지 도6을 참조하여, 적외선 마커의 구성 및 대상체의 위치 및 종류의 해석에 관해 설명하기로 한다.
도3은 본 발명에 적용되는 적외선 마커의 구성도이다.
도3을 참조하면, 마커 영역(210)은 마커 위치영역(220)과 마커 종류영역(230)으로 구성된다.
영상처리부(123)는 적외선 엘이디의 화소값 범위를 기저장하고 있음으로해서, 적외선 카메라부(122)를 통해 입력받은 영상으로부터 획득한 적외선 엘이디의 화소값 범위에 해당하는 값을 추출하여 적외선 엘이디 위치의 중심점 내지 시작점을 추출하고, 추출한 적외선 엘이디의 중심점을 기준으로 공지의 Convex Hull 알고리즘을 활용하여 외곽점들을 추출한다.
도 4는 Convex Hull 알고리즘을 활용하여 추출한 외곽점들을 나타낸다.
추출된 외곽점들 중 중간점(320, 360)의 추출은 수학식 1을 통해 추출할 수 있다.
Figure 112011025725603-pat00001
(여기서, Px는 각 점들의 X좌표이며, Py는 각 점들의 Y좌표이고, n은 추출된 적외선 엘이디의 중심점 번호를 나타낸다.)
도 5는 마커의 좌상단 코너점 검출 구성도이다.
마커의 좌상단 점을 추출하기 위해 추출된 6개의 외곽점들(310, 320, 330, 340, 350, 360) 중 각각의 모서리점(310, 330, 340, 350)에 대해 중간점(320, 360)과의 거리를 합산하여 최소값으로 추출된 모서리점을 좌상단 모서리점으로 선정한다.
좌상단 모서리점은 수학식 2를 통해 추출할 수 있다.
Figure 112011025725603-pat00002
(여기서, Pn은 모서리점(310, 330, 340, 350)의 좌표이며, C1과 C2는 각각 중간점(320, 360)을 나타낸다. P1(310)의 경우는, P1(310)과 C1(320) 사이의 거리(370)와, P1(310)과 C2(360) 사이의 거리(380) 합이며, P2(330)의 경우는, P2(330)와 C1(320) 사이의 거리(390)와, P2(330)와 C2(360) 사이의 거리(400) 합이며, P3(340)의 경우는, P3(340)와 C1(320) 사이의 거리(410)와, P3(340)와 C2(360) 사이의 거리(420) 합이며, P4(350)의 경우는, P4(350)와 C1(320) 사이의 거리(430)와, P4(350)와 C2(360) 사이의 거리(440) 합이다.)
도면6은 적외선마커의 마커 종류를 추출하기 위한 구성도이다.
마커 종류를 나타내는 점(510, 520, 530, 540)은 적외선 엘이디를 ON/OFF 함으로써 마커 종류(마커 번호)를 나타내는 것으로서,마커 종류를 나타내는 점(510, 520, 530, 540)들의 ON/OFF에 따른 마커 번호는 다음의 표 1과 같다. 점(510, 520, 530, 540)의 값 중 0은 적외선 엘이디가 OFF된 상태이며, 1은 적외선 엘이디가 ON된 상태이다.
점(510) 점(520) 점(530) 점(540) 마커 번호
0 0 0 0 0
0 0 0 1 1
0 0 1 0 2
0 0 1 1 3
0 1 0 0 4
0 1 0 1 5
0 1 1 0 6
0 1 1 1 7
1 0 0 0 8
1 0 0 1 9
1 0 1 0 10
1 0 1 1 11
1 1 0 0 12
1 1 0 1 13
1 1 1 0 14
1 1 1 1 15
마커 종류를 나타내는 점은 각각 2의 n승에 해당하는 값을 가지게 되는데, 표1에서 알 수 있듯이, 점1(510)은 2의 3승에 해당하는 8, 점2(510)은 2의 2승에 해당하는 4, 점3(510)은 2의 1승에 해당하는 2, 점4(510)은 2의 0승에 해당하는 1의 값을 가지고 있다.
이상과 같이, 마커 종류 영역은 마커의 종류 수에 따라 2×2, 3×3, 3×4, 4×4 등 다양하게 활용할 수 있게 된다.
위에서 설명한 바와 같이 본 발명에 대한 구체적인 설명은 첨부된 도면을 참조한 실시예에 의해서 이루어졌지만, 상술한 실시예는 본 발명의 바람직한 예를 들어 설명하였을 뿐이기 때문에, 본 발명이 상기의 실시예에만 국한되는 것으로 이해되어져서는 아니 되며, 본 발명의 권리범위는 후술하는 청구범위 및 그 등가개념으로 이해되어져야 할 것이다.
100 : 증강현실 시스템
110 : 대상체
120 : 증강현실 구현장치
130 : 마커정보 송신기
140 : 출력장치

Claims (6)

  1. 삭제
  2. 적외선 엘이디에 의해 구현되는 적외선 마커를 가진 대상체; 및
    상기 대상체의 실제 영상과 상기 대상체의 적외선 마커를 촬영하여, 촬영된 실제 영상 위에 상기 적외선 마커로부터 판독되는 가상 영상을 렌더링하여 증강현실 영상을 생성하는 증강현실 구현장치; 를 포함하는 증강현실 시스템으로서,
    상기 증강현실 구현장치는,
    상기 대상체의 실제 영상을 촬영하는 가시광선 카메라부;
    상기 대상체의 적외선 마커를 촬영하는 적외선 카메라부; 및
    상기 가시광선 카메라부 및 상기 적외선 카메라부로부터 영상을 획득하고, 획득된 상기 적외선 마커 영상으로부터 상기 적외선 카메라부에 대한 상기 적외선 마커의 위치 및 자세를 판독하여 상기 대상체의 위치 및 자세에 대한 정보를 얻음으로써, 해당 적외선 마커에 해당되는 가상 영상을 상기 실제 영상 위에 렌더링하여 증강현실 영상을 생성하는 영상처리부; 를 포함하며,
    상기 영상처리부는 적외선 엘이디의 화소값 범위를 기저장하고 있어 적외선 카메라부를 통해 입력받은 영상으로부터 획득한 적외선 엘이디의 화소값 범위에 해당하는 값을 추출하여 적외선 엘이디 위치의 중심점을 추출하고, 추출한 적외선 엘이디의 중심점을 기준으로 적외선 엘이디의 외곽점, 중간점 및 좌상단 모서리점을 추출함으로써 적외선 마커의 위치 및 자세를 판독하는 것을 특징으로 하는 증강현실 시스템.
  3. 제2항에 있어서,
    상기 증강현실 구현장치는,
    적외선 마커에 대응되는 가상 영상을 저장하는 가상 영상 DB; 를 더 포함하여,
    촬영된 적외선 마커 영상에 해당되는 가상 영상을 상기 가상 영상 DB로부터 획득하는 것을 특징으로 하는 증강현실 시스템.
  4. 제2항에 있어서,
    상기 증강현실 구현장치는,
    통신망을 통해 정보의 송수신이 가능한 통신부; 를 더 포함하여,
    촬영된 적외선 마커 영상에 해당되는 가상 영상을 상기 통신부를 통해 획득하는 것을 특징으로 하는 증강현실 시스템.
  5. 제2항에 있어서,
    상기 증강현실 시스템은,
    상기 대상체에 구현될 적외선 마커에 대한 정보를 송신하는 마커정보 송신기; 를 더 포함하고,
    상기 대상체는, 상기 마커정보 송신기로부터 적외선 마커에 대한 정보를 수신하는 마커정보 수신부; 다수의 적외선 엘이디를 포함하는 적외선 엘이디 발광부; 상기 적외선 엘이디 발광부로부터의 적외선을 외부로 투과시키는 적외선 마커 표시부; 상기 마커정보 수신부로부터 수신된 적외선 마커에 대한 정보에 의해 상기 적외선 엘이디 발광부를 제어하는 제어부; 를 포함하는 것을 특징으로 하는 증강현실 시스템.
  6. 제2항 또는 제5항에 있어서,
    상기 증강현실 구현장치에 의해 생성된 증강현실 영상을 출력하는 출력장치; 를 더 포함하는 것을 특징으로 하는 증강현실 시스템.
KR1020110032593A 2011-04-08 2011-04-08 비전기반의 증강현실 시스템 KR101274334B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110032593A KR101274334B1 (ko) 2011-04-08 2011-04-08 비전기반의 증강현실 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110032593A KR101274334B1 (ko) 2011-04-08 2011-04-08 비전기반의 증강현실 시스템

Publications (2)

Publication Number Publication Date
KR20120114817A KR20120114817A (ko) 2012-10-17
KR101274334B1 true KR101274334B1 (ko) 2013-06-13

Family

ID=47283879

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110032593A KR101274334B1 (ko) 2011-04-08 2011-04-08 비전기반의 증강현실 시스템

Country Status (1)

Country Link
KR (1) KR101274334B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100542370B1 (ko) * 2004-07-30 2006-01-11 한양대학교 산학협력단 보이지 않는 마커를 이용하는 비전기반 증강현실 시스템
KR20080107211A (ko) * 2007-06-05 2008-12-10 삼성전자주식회사 증강 현실 기술을 이용하여 가상 객체를 생성하기 위한시스템 및 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100542370B1 (ko) * 2004-07-30 2006-01-11 한양대학교 산학협력단 보이지 않는 마커를 이용하는 비전기반 증강현실 시스템
KR20080107211A (ko) * 2007-06-05 2008-12-10 삼성전자주식회사 증강 현실 기술을 이용하여 가상 객체를 생성하기 위한시스템 및 방법

Also Published As

Publication number Publication date
KR20120114817A (ko) 2012-10-17

Similar Documents

Publication Publication Date Title
US11693242B2 (en) Head-mounted display for virtual and mixed reality with inside-out positional, user body and environment tracking
CN108780578B (zh) 增强现实系统和操作增强现实系统的方法
US10354449B2 (en) Augmented reality lighting effects
US9323055B2 (en) System and method to display maintenance and operational instructions of an apparatus using augmented reality
US9324229B2 (en) System and method to display maintenance and operational instructions of an apparatus using augmented reality
US8780178B2 (en) Device and method for displaying three-dimensional images using head tracking
CN110476148B (zh) 用于提供多视图内容的显示系统和方法
CN106062862A (zh) 用于沉浸式和交互式多媒体生成的系统和方法
CN107004279A (zh) 自然用户界面相机校准
KR101274301B1 (ko) 적외선 엘이디 발광영역의 영상 복원을 통한 증강현실 시스템
CN105611267B (zh) 现实世界和虚拟世界图像基于深度和色度信息的合并
KR101756713B1 (ko) 입체형 다중 마커 구조의 증강 현실 구현 시스템 및 그 방법
KR20110136038A (ko) 복수개의 센서를 이용한 증강현실 장치 방향 트래킹 시스템
KR101236644B1 (ko) 마커 정보의 실시간 변경 및 다수의 마커 제작을 위한 증강현실 기반의 적외선 마커 활용 방법
CN110880161A (zh) 一种多主机多深度摄像头的深度图像拼接融合方法及系统
KR101274334B1 (ko) 비전기반의 증강현실 시스템
KR20200063937A (ko) 적외선 스테레오 카메라를 이용한 위치 검출 시스템
KR101315433B1 (ko) 모스 부호 기반의 증강현실 시스템
KR20230097163A (ko) 자동입체 텔레프레즌스 시스템들을 위한 3차원(3d) 얼굴 피처 추적
KR101820379B1 (ko) 입체형 더블 마커 기반의 증강 현실 장치
KR101788471B1 (ko) 조명 정보 기반의 객체 증강 현실 디스플레이 장치 및 방법
CN205139892U (zh) 一种电子设备
JP2021182259A (ja) 検出用マーカ
KR20240021098A (ko) 실내 공간에서 위치 정보를 획득하는 장치 및 방법
JP2020136754A (ja) 共有システム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160525

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170525

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180518

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190607

Year of fee payment: 7