KR20210067525A - Virtual Camera Tracking System, a real-time MR environment synthesis system using it - Google Patents
Virtual Camera Tracking System, a real-time MR environment synthesis system using it Download PDFInfo
- Publication number
- KR20210067525A KR20210067525A KR1020190157244A KR20190157244A KR20210067525A KR 20210067525 A KR20210067525 A KR 20210067525A KR 1020190157244 A KR1020190157244 A KR 1020190157244A KR 20190157244 A KR20190157244 A KR 20190157244A KR 20210067525 A KR20210067525 A KR 20210067525A
- Authority
- KR
- South Korea
- Prior art keywords
- virtual camera
- image capturing
- distance measuring
- capturing unit
- real
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Architecture (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
본 발명은 버츄얼 카메라 트랙킹 시스템, 이를 이용한 MR 환경 실시간 합성시스템에 관한 것이다.The present invention relates to a virtual camera tracking system and a real-time synthesizing system for a MMR environment using the same.
증강 현실(AR) 및/또는 가상 현실(VR) 시스템은 3 차원(3D) 몰입(immersive) 가상 환경을 생성할 수 있다. 사용자는 예를 들어, 디스플레이를 포함하는 헬멧 또는 다른 헤드 장착형 디바이스, 안경 또는 고글 - 사용자가 디스플레이 디바이스를 볼 때 이 안경 또는 고글을 통하여 봄(look through) - 센서가 갖춰진 글러브들, 센서들을 포함하는 외부 핸드 헬드 디바이스들 및 다른 그러한 전자 디바이스들과 같은 다양한 전자 디바이스들과의 인터랙션(interaction)을 통해 이러한 가상 환경을 경험할 수 있다. 일단, 가상 환경에 몰입되면, 가상 환경과의 사용자 인터랙션은, 예를 들어, 가상 환경과 인터랙션하고, 개인화하고 그리고 제어하기 위한 전자 디바이스의 물리적 움직임 및/또는 조작과 같은 다양한 형태를 취할 수 있다.Augmented reality (AR) and/or virtual reality (VR) systems may create three-dimensional (3D) immersive virtual environments. A user may, for example, a helmet or other head-mounted device comprising a display, glasses or goggles - when the user looks through the glasses or goggles - gloves equipped with a sensor, including sensors This virtual environment can be experienced through interaction with various electronic devices, such as external hand held devices and other such electronic devices. Once immersed in the virtual environment, user interaction with the virtual environment may take various forms, such as, for example, physical movement and/or manipulation of an electronic device to interact, personalize, and control the virtual environment.
본 발명이 해결하고자 하는 과제는 버츄얼 카메라 트랙킹 시스템, 이를 이용한 MR 환경 실시간 합성시스템을 제공하는 데 있다.The problem to be solved by the present invention is to provide a virtual camera tracking system and a real-time synthesizing system for a MMR environment using the same.
상기 과제를 해결하기 위한 본 발명의 일 실시예에 따른 버츄얼 카메라 트랙킹 시스템, 이를 이용한 MR 환경 실시간 합성시스템은 실내 및/또는 실외에서 촬영된 촬영영상과 MR 영상을 보다 정교하게 합성할 수 있다.A virtual camera tracking system according to an embodiment of the present invention for solving the above problems and a real-time MR environment synthesizing system using the same can more precisely synthesize the captured images and MR images captured indoors and/or outdoors.
본 발명의 일 실시예에 따른 버츄얼 카메라 트랙킹 시스템, 이를 이용한 MR 환경 실시간 합성시스템을 이용하면, 실내 및/또는 실외에서 촬영된 촬영영상과 MR 영상을 보다 정교하게 합성할 수 있다.By using the virtual camera tracking system according to an embodiment of the present invention and a real-time MR environment synthesizing system using the same, it is possible to more precisely synthesize the captured images and MR images captured indoors and/or outdoors.
도 1은 본 발명의 일 실시예에 따른 버츄얼 카메라 트랙킹 시스템, 이를 이용한 MR 환경 실시간 합성시스템을 나타낸 블럭도이다.
도 2 내지 도 4는 도 1에 도시된 버츄얼 카메라 트랙킹 시스템, 이를 이용한 MR 환경 실시간 합성시스템 간의 연결 구성도 및 지원 기능을 설명한 예시도이다.
도 5는 본 명세서에 개진된 하나 이상의 실시예가 구현될 수 있는 예시적인 컴퓨팅 환경을 도시한 도이다.1 is a block diagram illustrating a virtual camera tracking system and a real-time MR environment synthesis system using the same according to an embodiment of the present invention.
2 to 4 are exemplary diagrams illustrating a connection configuration diagram and a support function between the virtual camera tracking system shown in FIG.
5 illustrates an example computing environment in which one or more embodiments disclosed herein may be implemented.
다양한 실시예들 및/또는 양상들이 이제 도면들을 참조하여 개시된다. 하기 설명에서는 설명을 목적으로, 하나 이상의 양상들의 전반적 이해를 돕기 위해 다수의 구체적인 세부사항들이 개시된다. 그러나, 이러한 양상(들)은 이러한 구체적인 세부사항들 없이도 실행될 수 있다는 점 또한 본 발명의 기술 분야에서 통상의 지식을 가진 자에게 인식될 수 있을 것이다. 이후의 기재 및 첨부된 도면들은 하나 이상의 양상들의 특정한 예시적인 양상들을 상세하게 기술한다. 하지만, 이러한 양상들은 예시적인 것이고 다양한 양상들의 원리들에서의 다양한 방법들 중 일부가 이용될 수 있으며, 기술되는 설명들은 그러한 양상들 및 그들의 균등물들을 모두 포함하고자 하는 의도이다.Various embodiments and/or aspects are now disclosed with reference to the drawings. In the following description, for purposes of explanation, numerous specific details are set forth to provide a thorough understanding of one or more aspects. However, it will also be recognized by one of ordinary skill in the art that such aspect(s) may be practiced without these specific details. The following description and accompanying drawings set forth in detail certain illustrative aspects of one or more aspects. These aspects are illustrative, however, and some of the various methods in principles of various aspects may be employed, and the descriptions set forth are intended to include all such aspects and their equivalents.
또한, 다양한 양상들 및 특징들이 다수의 디바이스들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있는 시스템에 의하여 제시될 것이다. 다양한 시스템들이, 추가적인 장치들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있다는 점 그리고/또는 도면들과 관련하여 논의된 장치들, 컴포넌트들, 모듈들 등 전부를 포함하지 않을 수도 있다는 점 또한 이해되고 인식되어야 한다.Further, various aspects and features will be presented by a system that may include a number of devices, components and/or modules, and the like. It is also noted that various systems may include additional devices, components, and/or modules, etc. and/or may not include all of the devices, components, modules, etc. discussed with respect to the drawings. must be understood and recognized.
본 명세서에서 사용되는 "실시예", "예", "양상", "예시" 등은 기술되는 임의의 양상 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되지 않을 수도 있다. 아래에서 사용되는 용어들 '컴포넌트', '모듈', '시스템', '인터페이스' 등은 일반적으로 컴퓨터 관련 엔티티(computer-related entity)를 의미하며, 예를 들어, 하드웨어, 하드웨어와 소프트웨어의 조합, 소프트웨어를 의미할 수 있다.As used herein, “embodiment”, “example”, “aspect”, “exemplary”, etc. may not be construed as an advantage or advantage in any aspect or design described above over other aspects or designs. . The terms 'component', 'module', 'system', 'interface', etc. used below generally mean a computer-related entity, for example, hardware, a combination of hardware and software, It could mean software.
더불어, 용어 "또는"은 배타적 "또는"이 아니라 내포적 "또는"을 의미하는 것으로 의도된다. 즉, 달리 특정되지 않거나 문맥상 명확하지 않은 경우에, "X는 A 또는 B를 이용한다"는 자연적인 내포적 치환 중 하나를 의미하는 것으로 의도된다. 즉, X가 A를 이용하거나; X가 B를 이용하거나; 또는 X가 A 및 B 모두를 이용하는 경우, "X는 A 또는 B를 이용한다"가 이들 경우들 어느 것으로도 적용될 수 있다. 또한, 본 명세서에 사용된 "및/또는"이라는 용어는 열거된 관련 아이템들 중 하나 이상의 아이템의 가능한 모든 조합을 지칭하고 포함하는 것으로 이해되어야 한다.In addition, the term “or” is intended to mean an inclusive “or” rather than an exclusive “or.” That is, unless otherwise specified or clear from context, "X employs A or B" is intended to mean one of the natural implicit substitutions. That is, X employs A; X employs B; or when X employs both A and B, "X employs A or B" may apply to either of these cases. It should also be understood that the term “and/or” as used herein refers to and includes all possible combinations of one or more of the listed related items.
또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하지만, 하나 이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다. 또한, 달리 특정되지 않거나 단수 형태를 지시하는 것으로 문맥상 명확하지 않은 경우에, 본 명세서와 청구범위에서 단수는 일반적으로 "하나 또는 그 이상"을 의미하는 것으로 해석되어야 한다. 더불어, 본 명세서에서 사용되는 용어 "클라이언트", "유저" 및 "사용자"는 종종 상호교환가능하게 사용될 수 있다. 더불어, 본 명세서에서 사용되는 용어 "컴포넌트" 및 "엘리먼트" 또한 종종 상호교환가능하게 사용될 수 있다Also, the terms "comprises" and/or "comprising" mean that the feature and/or element is present, but excludes the presence or addition of one or more other features, elements, and/or groups thereof. should be understood as not Also, unless otherwise specified or unless the context is clear as to designating a singular form, the singular in the specification and claims should generally be construed to mean "one or more." In addition, as used herein, the terms “client,” “user,” and “user” are often used interchangeably. In addition, as used herein, the terms "component" and "element" may also be used interchangeably sometimes.
이하, 첨부된 도면들에 기초하여 본 발명의 일 실시예에 따른 버츄얼 카메라 트랙킹 시스템, 이를 이용한 MR 환경 실시간 합성시스템을 보다 상세하게 설명하도록 한다.Hereinafter, a virtual camera tracking system according to an embodiment of the present invention and a real-time MR environment synthesis system using the same will be described in more detail based on the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른 버츄얼 카메라 트랙킹 시스템, 이를 이용한 MR 환경 실시간 합성시스템을 나타낸 블럭도이고, 도 2 내지 도 4는 도 1에 도시된 버츄얼 카메라 트랙킹 시스템, 이를 이용한 MR 환경 실시간 합성시스템 간의 연결 구성도 및 지원 기능을 설명한 예시도이다.1 is a block diagram illustrating a virtual camera tracking system according to an embodiment of the present invention and a real-time MMR environment synthesis system using the same, and FIGS. 2 to 4 are the virtual camera tracking system shown in FIG. 1 and a real-time MMR environment using the same. It is an exemplary diagram explaining the configuration diagram of the connection between the synthesis systems and supporting functions.
도 1 내지 도 4를 참조, 본 발명에서 제시하는 버츄얼 카메라 트랙킹 시스템(10)은 뎁스카메라모듈(l1), 거리측정 스캐너(RPLIDAR)(12), 트랙킹부(13) 및 영상촬영부(14)를 포함한다.1 to 4, the virtual
상기 뎁스카메라모듈(l1), 트랙킹부(13) 및 거리측정 스캐너(12)는 영상촬영부(14)에 장착된다.The depth camera module 11 , the
상기 뎁스카메라모듈(11)은 후술할 영상촬영부(14)의 촬영동작의 위치(좌표)정보를 인식한다.The depth camera module 11 recognizes position (coordinate) information of a photographing operation of the
상기 거리측정 스캐너(12)는 주변 360도 전방향에 적외선을 출력하여 시계방향으로 전방향에 위치한 대상물을 스캔하는 기능을 한다.The
상기 트랙킹부(13)는 영상카메라의 촬영동작 순서를 트랙킹하는 기능을 수행한다.The
상기 영상촬영부(14)는 주변 영상을 촬영하는 카메라일 수 있다.The
여기서, 영상촬영부(14)는 4K 60F 언리얼엔지 4를 탑재한 카메라로서, 상술한 언리얼엔진 4의 절대좌표값 엔진 취득 실내/실외 알고리즘, 언리얼엔진 4 높이값 취득 알고리즘, 언리얼엔진 4 회전값 취득 알고리즘이 탑재될 수 있다.Here, the
여기서, 실내 알고리즘은 거리측정 스캐너와 연동되고, 실외 알고리즘은 좌표인식모듈과 연동되고, 높이값 취득 알고리즘은 IR 센서와 연동된다.Here, the indoor algorithm is linked with the distance measuring scanner, the outdoor algorithm is linked with the coordinate recognition module, and the height value acquisition algorithm is linked with the IR sensor.
또한, 회전값 취득 알고리즘은 사용자 단말(테블릿 PC)의 자이로센서와 연동될 수 있다.In addition, the rotation value acquisition algorithm may be linked with the gyro sensor of the user terminal (tablet PC).
다음으로, MR 환경 실시간 합성시스템(20)은 버츄얼 카메라 트랙킹 시스템(100)에서 촬영된 촬영영상, 실내/실외에서 촬영된 촬영영상의 절대좌표값, 높이, 회전값 등을 제공받고, 촬영영상 내에 MR 영상을 합성하는 기능을 수행한다.Next, the MRF environment real-
한편, 본원에 개시된 버츄얼 카메라 트랙킹 시스템(10)은 각 구성의 출력 데이터를 관리하기 위한 관리 인터페이스(UX/UI)를 제공할 수 있다. Meanwhile, the virtual
도 5는 본 명세서에 개진된 하나 이상의 실시예가 구현될 수 있는 예시적인 컴퓨팅 환경을 도시하는 도면으로, 상술한 하나 이상의 실시예를 구현하도록 구성된 컴퓨팅 디바이스(1100)를 포함하는 시스템(1000)의 예시를 도시한다. 예를 들어, 컴퓨팅 디바이스(1100)는 개인 컴퓨터, 서버 컴퓨터, 핸드헬드 또는 랩탑 디바이스, 모바일 디바이스(모바일폰, PDA, 미디어 플레이어 등), 멀티프로세서 시스템, 소비자 전자기기, 미니 컴퓨터, 메인프레임 컴퓨터, 임의의 전술된 시스템 또는 디바이스를 포함하는 분산 컴퓨팅 환경 등을 포함하지만, 이것으로 한정되는 것은 아니다.5 is a diagram illustrating an example computing environment in which one or more embodiments disclosed herein may be implemented, and is an illustration of a
컴퓨팅 디바이스(1100)는 적어도 하나의 프로세싱 유닛(1110) 및 메모리(1120)를 포함할 수 있다. 여기서, 프로세싱 유닛(1110)은 예를 들어 중앙처리장치(CPU), 그래픽처리장치(GPU), 마이크로프로세서, 주문형 반도체(Application Specific Integrated Circuit, ASIC), Field Programmable Gate Arrays(FPGA) 등을 포함할 수 있으며, 복수의 코어를 가질 수 있다. 메모리(1120)는 휘발성 메모리(예를 들어, RAM 등), 비휘발성 메모리(예를 들어, ROM, 플래시 메모리 등) 또는 이들의 조합일 수 있다. 또한, 컴퓨팅 디바이스(1100)는 추가적인 스토리지(1130)를 포함할 수 있다. 스토리지(1130)는 자기 스토리지, 광학 스토리지 등을 포함하지만 이것으로 한정되지 않는다. 스토리지(1130)에는 본 명세서에 개진된 하나 이상의 실시예를 구현하기 위한 컴퓨터 판독 가능한 명령이 저장될 수 있고, 운영 시스템, 애플리케이션 프로그램 등을 구현하기 위한 다른 컴퓨터 판독 가능한 명령도 저장될 수 있다. 스토리지(1130)에 저장된 컴퓨터 판독 가능한 명령은 프로세싱 유닛(1110)에 의해 실행되기 위해 메모리(1120)에 로딩될 수 있다. 또한, 컴퓨팅 디바이스(1100)는 입력 디바이스(들)(1140) 및 출력 디바이스(들)(1150)을 포함할 수 있다. The
여기서, 입력 디바이스(들)(1140)은 예를 들어 키보드, 마우스, 펜, 음성 입력 디바이스, 터치 입력 디바이스, 적외선 카메라, 비디오 입력 디바이스 또는 임의의 다른 입력 디바이스 등을 포함할 수 있다. 또한, 출력 디바이스(들)(1150)은 예를 들어 하나 이상의 디스플레이, 스피커, 프린터 또는 임의의 다른 출력 디바이스 등을 포함할 수 있다. 또한, 컴퓨팅 디바이스(1100)는 다른 컴퓨팅 디바이스에 구비된 입력 디바이스 또는 출력 디바이스를 입력 디바이스(들)(1140) 또는 출력 디바이스(들)(1150)로서 사용할 수도 있다.Here, the input device(s) 1140 may include, for example, a keyboard, mouse, pen, voice input device, touch input device, infrared camera, video input device, or any other input device, or the like. Further, the output device(s) 1150 may include, for example, one or more displays, speakers, printers, or any other output device, or the like. Also, the
또한, 컴퓨팅 디바이스(1100)는 컴퓨팅 디바이스(1100)가 다른 디바이스(예를 들어, 컴퓨팅 디바이스(1300))와 통신할 수 있게 하는 통신접속(들)(1160)을 포함할 수 있다.
여기서, 통신 접속(들)(1160)은 모뎀, 네트워크 인터페이스 카드(NIC), 통합 네트워크 인터페이스, 무선 주파수 송신기/수신기, 적외선 포트, USB 접속 또는 컴퓨팅 디바이스(1100)를 다른 컴퓨팅 디바이스에 접속시키기 위한 다른 인터페이스를 포함할 수 있다. 또한, 통신 접속(들)(1160)은 유선 접속 또는 무선 접속을 포함할 수 있다. 상술한 컴퓨팅 디바이스(1100)의 각 구성요소는 버스 등의 다양한 상호접속(예를 들어, 주변 구성요소 상호접속(PCI), USB, 펌웨어(IEEE 1394), 광학적 버스 구조 등)에 의해 접속될 수도 있고, 네트워크(1200)에 의해 상호접속될 수도 있다. 본 명세서에서 사용되는 "구성요소", "시스템" 등과 같은 용어들은 일반적으로 하드웨어, 하드웨어와 소프트웨어의 조합, 소프트웨어, 또는 실행중인 소프트웨어인 컴퓨터 관련 엔티티를 지칭하는 것이다. Here, communication connection(s) 1160 may be a modem, network interface card (NIC), integrated network interface, radio frequency transmitter/receiver, infrared port, USB connection, or other for connecting
예를 들어, 구성요소는 프로세서 상에서 실행중인 프로세스, 프로세서, 객체, 실행 가능물(executable), 실행 스레드, 프로그램 및/또는 컴퓨터일 수 있지만, 이것으로 한정되는 것은 아니다. 예를 들어, 컨트롤러 상에서 구동중인 애플리케이션 및 컨트롤러 모두가 구성요소일 수 있다. 하나 이상의 구성요소는 프로세스 및/또는 실행의 스레드 내에 존재할 수 있으며, 구성요소는 하나의 컴퓨터 상에서 로컬화될 수 있고, 둘 이상의 컴퓨터 사이에서 분산될 수도 있다.For example, a component can be, but is not limited to being, a process running on a processor, a processor, an object, an executable, a thread of execution, a program, and/or a computer. For example, both an application running on a controller and a controller may be a component. One or more components may reside within a process and/or thread of execution, and components may be localized on one computer or distributed between two or more computers.
지금까지 본 발명에 따른 구체적인 실시예에 관하여 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서는 여러 가지 변형이 가능함은 물론이다. 그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허 청구의 범위뿐 아니라 이 특허 청구의 범위와 균등한 것들에 의해 정해져야 한다.Although specific embodiments according to the present invention have been described so far, various modifications are possible without departing from the scope of the present invention. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be defined by the claims described below as well as the claims and equivalents.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 이는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명 사상은 아래에 기재된 특허청구범위에 의해서만 파악되어야 하고, 이의 균등 또는 등가적 변형 모두는 본 발명 사상의 범주에 속한다고 할 것이다.As described above, although the present invention has been described with reference to limited embodiments and drawings, the present invention is not limited to the above-described embodiments, which are various modifications and variations from these descriptions for those of ordinary skill in the art to which the present invention pertains. Transformation is possible. Accordingly, the spirit of the present invention should be understood only by the claims described below, and all equivalents or equivalent modifications thereof will fall within the scope of the spirit of the present invention.
10: 버츄얼 카메라 트랙킹 시스템
20: MR 환경 실시간 합성시스템10: Virtual Camera Tracking System
20: MMR environment real-time synthesis system
Claims (2)
상기 뎁스카메라모듈, 트랙킹부 및 거리측정 스캐너는 상기 영상촬영부에 장착되되,
상기 뎁스카메라모듈은 상기 영상촬영부의 촬영동작의 위치(좌표)정보를 인식하고, 상기 거리측정 스캐너는 주변 360도 전방향에 적외선을 출력하여 시계방향으로 전방향에 위치한 대상물을 스캔하며, 상기 트랙킹부는 상기 영상촬영부의 촬영동작 순서를 트랙킹하고, 상기 영상촬영부는 주변 영상을 촬영하는 카메라로 언리얼엔진 4의 절대좌표값 엔진 취득 실내/실외 알고리즘, 언리얼엔진 4 높이값 취득 알고리즘, 언리얼엔진 4 회전값 취득 알고리즘이 탑재되며, 상기 실내 알고리즘은 거리측정 스캐너와 연동되고, 상기 실외 알고리즘은 좌표인식모듈과 연동되며, 상기 높이값 취득 알고리즘은 IR 센서와 연동되고, 상기 회전값 취득 알고리즘은 사용자 단말의 자이로센서와 연동되는,
것을 특징으로 하는 버츄얼 카메라 트랙킹 시스템.Including a depth camera module, a distance measuring scanner (RPLIDAR), a tracking unit and an image capturing unit,
The depth camera module, the tracking unit and the distance measuring scanner are mounted on the image capturing unit,
The depth camera module recognizes the position (coordinate) information of the photographing operation of the image capturing unit, and the distance measuring scanner scans the object located in the clockwise direction by outputting infrared rays in all directions around 360 degrees, and the tracking The unit tracks the shooting operation sequence of the image capturing unit, and the image capturing unit is a camera that captures surrounding images. An acquisition algorithm is mounted, the indoor algorithm is linked with a distance measuring scanner, the outdoor algorithm is linked with a coordinate recognition module, the height value acquisition algorithm is linked with an IR sensor, and the rotation value acquisition algorithm is a gyro of the user terminal linked to the sensor,
Virtual camera tracking system, characterized in that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190157244A KR20210067525A (en) | 2019-11-29 | 2019-11-29 | Virtual Camera Tracking System, a real-time MR environment synthesis system using it |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190157244A KR20210067525A (en) | 2019-11-29 | 2019-11-29 | Virtual Camera Tracking System, a real-time MR environment synthesis system using it |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210067525A true KR20210067525A (en) | 2021-06-08 |
Family
ID=76399617
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190157244A KR20210067525A (en) | 2019-11-29 | 2019-11-29 | Virtual Camera Tracking System, a real-time MR environment synthesis system using it |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20210067525A (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170130580A (en) | 2015-07-07 | 2017-11-28 | 구글 엘엘씨 | Systems that track handheld devices in virtual reality |
-
2019
- 2019-11-29 KR KR1020190157244A patent/KR20210067525A/en unknown
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170130580A (en) | 2015-07-07 | 2017-11-28 | 구글 엘엘씨 | Systems that track handheld devices in virtual reality |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3852068A1 (en) | Method for training generative network, method for generating near-infrared image and apparatuses | |
US11625841B2 (en) | Localization and tracking method and platform, head-mounted display system, and computer-readable storage medium | |
US9613463B2 (en) | Augmented reality extrapolation techniques | |
US9940720B2 (en) | Camera and sensor augmented reality techniques | |
KR102222974B1 (en) | Holographic snap grid | |
US20210319621A1 (en) | Face modeling method and apparatus, electronic device and computer-readable medium | |
US9268410B2 (en) | Image processing device, image processing method, and program | |
KR101637990B1 (en) | Spatially correlated rendering of three-dimensional content on display components having arbitrary positions | |
WO2020019962A1 (en) | Coordinate system calibration method and device for augmented reality device | |
CN110457414A (en) | Offline map processing, virtual objects display methods, device, medium and equipment | |
CN108304075B (en) | Method and device for performing man-machine interaction on augmented reality device | |
US9182812B2 (en) | Virtual sensor systems and methods | |
US11087479B1 (en) | Artificial reality system with 3D environment reconstruction using planar constraints | |
CN110866977B (en) | Augmented reality processing method, device, system, storage medium and electronic equipment | |
US11132842B2 (en) | Method and system for synchronizing a plurality of augmented reality devices to a virtual reality device | |
CN106256124B (en) | Structuring is three-dimensional | |
CN111161336B (en) | Three-dimensional reconstruction method, three-dimensional reconstruction apparatus, and computer-readable storage medium | |
CN104081317A (en) | Image processing device, and computer program product | |
KR102337209B1 (en) | Method for notifying environmental context information, electronic apparatus and storage medium | |
Chen et al. | A case study of security and privacy threats from augmented reality (ar) | |
KR102566300B1 (en) | Method for indoor localization and electronic device | |
CN110286906A (en) | Method for displaying user interface, device, storage medium and mobile terminal | |
CN107704106B (en) | Attitude positioning method and device and electronic equipment | |
KR20200069009A (en) | Apparatus for Embodying Virtual Reality and Automatic Plan System of Electrical Wiring | |
CN115512046B (en) | Panorama display method and device for points outside model, equipment and medium |