KR20100138193A - 터치스크린기반 사용자 인터랙션을 지원하는 증강현실 콘텐츠 제공시스템 및 장치 - Google Patents

터치스크린기반 사용자 인터랙션을 지원하는 증강현실 콘텐츠 제공시스템 및 장치 Download PDF

Info

Publication number
KR20100138193A
KR20100138193A KR1020090056608A KR20090056608A KR20100138193A KR 20100138193 A KR20100138193 A KR 20100138193A KR 1020090056608 A KR1020090056608 A KR 1020090056608A KR 20090056608 A KR20090056608 A KR 20090056608A KR 20100138193 A KR20100138193 A KR 20100138193A
Authority
KR
South Korea
Prior art keywords
user
augmented reality
content
marker
touch screen
Prior art date
Application number
KR1020090056608A
Other languages
English (en)
Inventor
신동수
Original Assignee
넥스트키 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 넥스트키 주식회사 filed Critical 넥스트키 주식회사
Priority to KR1020090056608A priority Critical patent/KR20100138193A/ko
Publication of KR20100138193A publication Critical patent/KR20100138193A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 증강현실 기술에 관한 것으로, 사용자가 터치스크린을 이용하여 3D 콘텐츠, 동영상, 오디오, 이미지 등의 가상 영상을 조작할 수 있도록 하는 터치스크린 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠 제공 시스템 및 장치 방법에 관한 것이다.
본 발명은 실감형 콘텐츠를 제공하기 위한 장치 및 방법의 일종으로 현실세계의 영상을 입력받는 영상 입력부, 사용자와의 인터랙션을 하기 위한 터치 입력부, 상기 두 데이터를 입력받아 증강현실 콘텐츠를 제공하는 AR-software, 상기 정보를 사용자에게 제공하는 디스플레이부 시스템으로 이루어진다.
mixed reality, Augumented Reality(AR), touchscreen, content, user interaction

Description

터치스크린기반 사용자 인터랙션을 지원하는 증강현실 콘텐츠 제공시스템 및 장치{The augmented reality content providing system and equipment for the user interaction based on touchscreen}
가상현실에서 파생되어 나온 증강현실 기술에 관한 것으로, 사용자가 터치스크린을 이용하여 3D 콘텐츠, 동영상, 오디오, 이미지 등의 가상 영상을 조작할 수 있도록 하는 터치스크린 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠 제공 시스템 및 장치 방법에 관한 것이다.
증강 현실(Augmented Reality)이란, 일반적으로 가상 환경 및 가상현실에서 파생한 용어로서, 실제 환경에 컴퓨터 그래픽 영상을 삽입하여 실세계 영상과 가상의 영상을 혼합한 것을 의미한다. 실세계 정보에는 사용자가 필요로 하지 않는 정보도 있고 때로는 사용자가 필요로 한 정보가 부족할 수도 있다. 그러나 컴퓨터로 만든 가상 환경을 이용하면 필요로 하지 않는 정보를 단순하게 하거나 보이지 않게 할 수도 있다. 즉, 증강 현실 시스템은 실세계와 가상 세계를 결합함으로써 실시간으로 사용자와 상호 작용이 이루어지도록 하는 것이다.
증강 현실을 가장 간단한 형태로 응용하고 있는 분야는 엔터테인먼트나 뉴스 등이다. TV에서 일기예보를 하는 경우 기상캐스터 뒤의 지도가 자연스럽게 바뀌는 것을 볼 수 있는데, 실제로는 기상 캐스트가 블루스크린(Blue-Screen) 앞에 서있고 컴퓨터로 만들어진 가상의 영상이 가상 스튜디오 환경을 만들어 증강 현실을 이루어내는 것이다.
증강 현실의 가장 간단한 형태로는 엔터테인먼트와 뉴스 분야 등에서 응용되고 있다. TV에서 일기예보를 하는 경우 기상캐스터 앞의 날씨 지도가 자연스럽게 바뀌는 것을 볼 수 있는데, 실제로는 기상 캐스트가 블루스크린(Blue-Screen) 앞에서 있고 컴퓨터로 만들어진 가상의 영상이 가상 스튜디오 환경을 만들어 증강 현실을 이루어내는 것이다.
이 밖에도, 자기 공명 영상(Magnetic Resonance Image), 단층 영상(Computed Tomography Image) 및 초음파 영상 등과 같은 간접 검사를 통해 실시간으로 환자의 3차원 데이터를 취득한 후, 취득된 데이터를 실시간으로 렌더링 하여 환자와 겹쳐서 표현함으로써 의사로 하여금 환자의 수술을 원활하게 수행하도록 하기도 한다. 또한 조종사 헬멧의 바이저(Visor) 또는 조종석의 방풍유리에 가상 영상을 디스플레이하여 조종사에게 조종에 필요한 많은 정보를 알려줄 수도 있다.
이러한 증강현실을 구현하는 방법은 일반적으로 크게 두 가지 방법으로 나누어진다.
첫째는 실세계에 존재하는 물체로부터 수집된 특징 점들을 이용하여 형태매칭을 통해 그 위에 객체를 띄우는 방법이 있다.
둘째는 현실세계의 영상을 받아 오는 과정에 미리 제작된 마커를 삽입하여 이용하는 방법이 있다.
종래, 공지된 논문 "Immersive Authoring of Tangible Augmented Reality Applications"(Proceedings of the Third IEEE and ACM International Symposium on Mixed and Augmented Reality에 2004년 게재, Gun A. Lee; Claudia Nelles; Mark Billinghurst; Gerard Jounghyun Kim 공동 저, pp172-181)에는 기하마커와 디지털 채널코딩 기술을 이용하고 있으며, 기존의 시스템과 마찬가지로 비전 인식 알고리즘에 기반을 두어 네 꼭짓점을 찾고 RT매트릭스를 추출하고, 마커의 아이디 구분을 위해 마커의 내부를 36개의 영역으로 나눠 36비트를 할당하고, 10비트는 마커의 ID 구분을 위해 사용하고 26비트는 채널코딩의 일종인 CRC(Cyclical Redundancy Check) 코드로 할당하여 마커를 인식하는 혼합현실 시스템을 구현하였다.
증강현실을 구현하는 방법은 일반적으로 크게 두 가지 방법으로 나누어진다.
첫째는 실세계에 존재하는 물체로부터 수집된 특징 점들을 이용하여 형태매칭을 통해 그 위에 객체를 띄우는 방법이 있다. 이는 증강현실 분야에서는 지향하고 있는 방법이지만, 물체로부터 수집된 특징점 정보가 적거나 조명과 같은 환경 조건이 불안정할 경우에는 성능이 크게 떨어지거나 동작하지 않는 단점이 있다.
둘째는 현실세계의 영상을 받아 오는 과정에 미리 제작된 마커를 삽입하여 이용하는 것으로, 이는 전자에 비해 안정된 성능을 가지고 있지만 인위적으로 제작되어야 하며 영상 입력부에 변형이 없이 삽입되어야 하는 불편이 있으며, 객체에 맞게 제작하는 번거로움과 사용자들에게 배포방법이 한정적이고 사용에 불편함이 있는 단점이 있다. 이와 같은 단점으로 인해 증강현실 프로그램의 제작에 어려움이 있으며 제품의 상용화가 지연되고 있다.
본 발명의 목적은 증강현실 콘텐츠를 활용하는데 있어서 정밀하고 자유롭게 제어하며, 시각에 촉각적인 느낌을 더하면서도 접근성을 향상시켜 콘텐츠를 접할 수 있게 하는데 있다.
상기한 문제점을 해결하기 위한 본 발명의 목적은 마커를 대체하는 방식이며 터치스크린을 기반으로 마커의 단점을 보완하고, 센서와 액션을 활용하여 가상 콘텐츠에 대한 사용자의 인터랙션과 가상 콘텐츠 사이에서 발생하는 현상들을 쉽게 제어하는 시스템 및 방법을 제공하는 것이다.
본 발명에 따른 터치스크린기반 사용자 인터랙션을 지원하는 증강현실 콘텐츠 제공시스템 및 방법을 이용하여 사용자가 시스템 내부의 내용에 관한 영상을 스스로 다양하게 바꾸어 가면서 체험해 볼 수 있고 시각에 촉각을 더하여 사용하여 증강현실 응용 분야를 획기적으로 넓히고 콘텐츠의 내용이 변경 될 때마다 마커를 제작해야하는 노력과 비용을 절감할 수 있다.
본 도구를 통해 전자제품의 판매를 촉진하여 전자부품산업의 활성화에 기여하는 효과를 가져 올 수 있으며, 현재 온라인상에서 머물러 있는 e-러닝 산업을 기존의 오프라인 산업과 연계함으로써, 온/오프라인이 동반 성장하는 효과를 가져 올 수 있다. 또한, 기술의 개발 효과로 멀티 터치 기술은 여러 지점을 동시에 인식하여 사용자가 정확하고 구체적인 시스템과의 의사소통이 가능하며 산업 전반에 걸쳐 응용소프트웨어의 개발촉진과 게임, 애니메이션, 영화 등 영상기술의 발달 촉진, 전자출판, e러닝, 멀티미디어영상 등 교육 엔터테인먼트 산업의 시뮬레이션화 발달에 기여할 수 있으며, 항공기 훈련 등 국방 분야, 의료수술, 전시, 광고, 방송, 테마파크 등에서 광범히 하게 적용이 가능하다. 이로 인해 혼합현실 기술의 사회적인 용인 한계의 극복과 그로부터 일상에서 일반 사용자도 항상 사용할 수 있는 활용 방안과 혼합현실 응용 서비스를 도출하는 효과가 있다.
상기한 목적을 달성하기 위한 본 발명의 터치스크린(마커대체)기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠 제공 시스템은 터치스크린과 실감형 콘텐츠를 제공하기 위한 장치 및 방법의 일종으로 현실세계의 영상을 입력받는 영상 입력부, 사용자와의 인터랙션을 하기 위한 터치 입력부, 상기 두 데이터를 입력받아 증강현실 콘텐츠를 제공하는 AR-software, 상기 정보를 사용자에게 제공하는 디스플레이부 시스템으로 이루어지는 것을 특징으로 한다.
이하에서는 본 발명의 기술 분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있는 가장 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다.
본 발명의 터치입력부에서 사용되는 터치스크린의 방식은 도 1a, b, c, d의 기술을 활용하는 방식의 멀티터치스크린을 이용하여 마커와 객체제어를 동시에 실 행 할 수 있는 것을 특징으로 한다. 상기입력 방식을 사용하는 경우 주위환경의 변화에 영향을 받지 않고 안정적인 마커입력을 받을 수 있다.
기존의 마커는 실제 영상에 가상의 콘텐츠를 합성하는 MR(Mixed Reality: 실제현실과 가상현실이 혼합된 혼합현실) 응용프로그램에서 가상콘텐츠의 위치를 지정하는 레퍼런스로 책이나 큐브, 패드의 상단 면에 인쇄된 사각형의 그림이다. 카메라를 통해 인식되어 증강현실 콘텐츠를 보여주거나 정의되어진 조작(이동, 삭제, 확대, 도움말 등)을 할 수 있도록 정보를 준다.
이에 본 발명은 마커를 터치스크린을 활용하여 정의된 마커를 사용자가 그려서 AR-Software내부에 정의된 마커와 매칭 시키는 방법과 마커의 정의를 사용자가 원하는 모양으로 작성한 뒤 콘텐츠를 연동하여 구현하는 방법이다. 첫 번째 방법으로, 도 2a에 예시된 것과 같이 인쇄된 사각형의 마커를 대체하여 터치스크린에 사용자가 직접 입력하는 방식으로 도 3과 같이 터치스크린 입력 정보에서 좌표 값을 추출하여 모든 좌표 값의 평균을 구한 뒤, 초벌맥락(preliminary context)으로 변환하여 최대너비와 최대높이를 기반으로 사각박스를 형성한 뒤 네 꼭짓점과 RT매트릭스를 추출한다.
AR-Software에 내부에 정의되어있는 마커의 아이디 구분을 위해 박스의 내부를 36개의 영역으로 나눠 36비트를 할당하고, 10비트는 사용자의 터치스크린 입력정보(마커대체)의 ID 구분을 위해 사용하고 26비트는 채널코딩의 일종인 CRC(Cyclical Redundancy Check) 코드로 할당하여 내부마커와 사용자의 터치스크린입력정보(마커대체)와의 형태매칭으로 비교하고 유사도가 일정수치 이상일 경우 정 의된 위치에 객체를 맵핑시켜서 콘텐츠를 사용할 수 있게 한다.
두 번째 방법으로, 도4와 같이 터치스크린 입력 정보에서 좌표 값을 추출하여 모든 좌표 값의 평균을 구한 뒤, 초벌맥락(preliminary context)으로 변환하여 최대너비와 최대높이를 기반으로 사각박스를 형성한 뒤 네 꼭짓점과 RT매트릭스를 추출한다. AR-Software에 내부에 정의되어있는 객체ID구분을 위해 박스의 내부를 36개의 영역으로 나눠 36비트를 할당하고, 10비트는 사용자의 터치스크린 입력정보(마커대체)의 ID 구분을 위해 사용하고 26비트는 채널코딩의 일종인 CRC(Cyclical Redundancy Check) 코드로 할당하여 사용자의 터치스크린입력정보(마커대체)를 사용자가 정의한 객체에 대한 ID로 연동시켜서 터치스크린입력정보(마커대체)와 일정 유사도이상의 정보가 입력되면 객체를 맵핑시켜 콘텐츠를 사용할 수 있게 한다.두 가지 방법에 의하여 디스플레이에 맵핑된 콘텐츠를 도 5와 같이 사용자가 터치스크린에 입력하는 크기, 위치, 방향 또는 마커에 의해 맵핑된 콘텐츠의 이동(Translation), 회전(Rotation), 크기(Scale)를 제어하는 것을 특징으로 한다. 도 6은 이러한 특징을 가지고 있는 터치스크린기반 사용자 인터랙션을 지원하는 증강현실 콘텐츠 제공 시스템 및 장치가 동작하는 전체구성을 나타낸다.
도 1a 본 발명에 따른 인터랙션을 입력하는 터치스크린 DI (Diffused Illumination)방식의 도,
도 1b 본 발명에 따른 인터랙션을 입력하는 터치스크린 LLP(Laser Light Plane)방식의 도,
도 1c 본 발명에 따른 인터랙션을 입력하는 터치스크린 DSI(Diffused Surface Illumination)방식의 도,
도 1d 본 발명에 따른 인터랙션을 입력하는 터치스크린 FTIR(Frustrated Total Internal Reflection)방식의 도,
도 2a 본 발명에 따른 사용자 인터랙션을 터치스크린으로 발생시키는 예시도,
도 2b 본 발명에 따른 사용자 인터랙션을 마커로 인식하여 3D콘텐츠를 정의된 위치에 맵핑시키는 예시도,
도 3은 본 발명에 따른 입력받은 사용자의 터치스크린 입력데이터를 마커로 대체하는 방법 흐름도,
도 4는 본 발명에 따른 사용자가 직접 마커를 제작하여 정의된 콘텐츠와 연동시키는 방법 흐름도,
도 5는 정의된 위치에 제공되는 콘텐츠를 인터랙션에 의해 객체의 형태를 변환하는 방법 흐름도,
도 6은 본 발명에 따른 마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠 제공시스템이 동작하는 전체구성을 나타낸 블록도.

Claims (5)

  1. (a) 영상입력장치를 이용하여 현실세계영상을 받고 터치스크린으로 사용자가 입력한 데이터를 받는 단계;
    (b) 상기 입력받은 데이터를 분석하여 일치하는 콘텐츠를 정의된 위치에 디스플레이에 표시하는 단계;
    (c) 상기 띄워진 객체에 사용자의 인터랙션 입력을 받아 객체를 변형시키는 단계;
  2. 제1항에 있어서, 상기 (b)단계에서 상기 입력받은 사용자의 터치데이터를 마커로 대체하는 방법.
  3. 제2항에 있어서, 상기 대체한 마커에 미리 등록된 콘텐츠를 정의된 위치에 제공하는 방법.
  4. 제1항에 있어서, 상기 (c)단계에서 정의된 위치에 있는 객체를 사용자가 원하는 방향, 위치, 크기에 따라 콘텐츠를 변형시켜 제공하는 방법.
  5. 제1항에 또는 제3항 있어서, 상기 마커를 대체하는 방법에 있어서 사용자가 직접 마커를 제작하여 정의된 콘텐츠와 연동시키는 방법.
KR1020090056608A 2009-06-24 2009-06-24 터치스크린기반 사용자 인터랙션을 지원하는 증강현실 콘텐츠 제공시스템 및 장치 KR20100138193A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090056608A KR20100138193A (ko) 2009-06-24 2009-06-24 터치스크린기반 사용자 인터랙션을 지원하는 증강현실 콘텐츠 제공시스템 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090056608A KR20100138193A (ko) 2009-06-24 2009-06-24 터치스크린기반 사용자 인터랙션을 지원하는 증강현실 콘텐츠 제공시스템 및 장치

Publications (1)

Publication Number Publication Date
KR20100138193A true KR20100138193A (ko) 2010-12-31

Family

ID=43511695

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090056608A KR20100138193A (ko) 2009-06-24 2009-06-24 터치스크린기반 사용자 인터랙션을 지원하는 증강현실 콘텐츠 제공시스템 및 장치

Country Status (1)

Country Link
KR (1) KR20100138193A (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102693347A (zh) * 2011-03-22 2012-09-26 王鹏勃 基于增强现实技术的新型纸媒出版物系统
CN108305325A (zh) * 2017-01-25 2018-07-20 网易(杭州)网络有限公司 虚拟对象的显示方法及装置
KR102159721B1 (ko) * 2019-12-05 2020-09-24 에스피테크놀러지 주식회사 Amr 공간 위치 정보를 활용하여 ar 서비스를 제공하는 통신 단말기 및 그 제어방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102693347A (zh) * 2011-03-22 2012-09-26 王鹏勃 基于增强现实技术的新型纸媒出版物系统
CN108305325A (zh) * 2017-01-25 2018-07-20 网易(杭州)网络有限公司 虚拟对象的显示方法及装置
KR102159721B1 (ko) * 2019-12-05 2020-09-24 에스피테크놀러지 주식회사 Amr 공간 위치 정보를 활용하여 ar 서비스를 제공하는 통신 단말기 및 그 제어방법

Similar Documents

Publication Publication Date Title
US10565796B2 (en) Method and system for compositing an augmented reality scene
US10089794B2 (en) System and method for defining an augmented reality view in a specific location
Amin et al. Comparative study of augmented reality SDKs
Zollmann et al. Visualization techniques in augmented reality: A taxonomy, methods and patterns
Wang Augmented reality in architecture and design: potentials and challenges for application
Ha et al. Digilog book for temple bell tolling experience based on interactive augmented reality
CN110163942B (zh) 一种图像数据处理方法和装置
CN107168534B (zh) 一种基于cave系统的渲染优化方法及投影方法
CN108133454B (zh) 空间几何模型图像切换方法、装置、系统及交互设备
CN117635815A (zh) 基于三维点云的初始视角控制和呈现方法及系统
CN112614234A (zh) 对混合现实三维场景进行编辑的方法及混合现实设备
Fadzli et al. VoxAR: 3D modelling editor using real hands gesture for augmented reality
KR20100138193A (ko) 터치스크린기반 사용자 인터랙션을 지원하는 증강현실 콘텐츠 제공시스템 및 장치
CN114092670A (zh) 一种虚拟现实显示方法、设备以及存储介质
KR101582225B1 (ko) 인터랙티브 증강현실 서비스 시스템 및 방법
Romli et al. AR@ UNIMAP: A development of interactive map using augmented reality
CN114187426A (zh) 一种地图增强现实系统
CN115359213A (zh) 一种多人在线协同式装备虚拟设计实现方法及系统
Hwang et al. 3D building reconstruction by multiview images and the integrated application with augmented reality
WO2017147826A1 (zh) 智能设备的图像处理方法及装置
CN113434046A (zh) 三维交互系统、方法、计算机设备及可读存储介质
Bocevska et al. Implementation of interactive augmented reality in 3D assembly design presentation
Hagbi et al. In-place augmented reality
CN112489222A (zh) 基于ar的信息化机房作业信息融合体系构建方法
Abdullah et al. Virtual gasoline engine based on augment reality for mechanical engineering education

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application