KR20210067525A - Virtual Camera Tracking System, a real-time MR environment synthesis system using it - Google Patents

Virtual Camera Tracking System, a real-time MR environment synthesis system using it Download PDF

Info

Publication number
KR20210067525A
KR20210067525A KR1020190157244A KR20190157244A KR20210067525A KR 20210067525 A KR20210067525 A KR 20210067525A KR 1020190157244 A KR1020190157244 A KR 1020190157244A KR 20190157244 A KR20190157244 A KR 20190157244A KR 20210067525 A KR20210067525 A KR 20210067525A
Authority
KR
South Korea
Prior art keywords
virtual camera
image capturing
distance measuring
capturing unit
real
Prior art date
Application number
KR1020190157244A
Other languages
Korean (ko)
Inventor
이보람
Original Assignee
이보람
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이보람 filed Critical 이보람
Priority to KR1020190157244A priority Critical patent/KR20210067525A/en
Publication of KR20210067525A publication Critical patent/KR20210067525A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Architecture (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

According to one embodiment of the present invention, provided are a virtual camera tracking system, and a real-time MR environment synthesizing system using the same. The virtual camera tracking system has a feature of more precisely synthesizing photographed images photographed indoors and/or outdoors and MR images. The system includes a depth camera module, a distance measuring scanner (RPLIDAR), a tracking unit, and an image photographing unit.

Description

버츄얼 카메라 트랙킹 시스템, 이를 이용한 MR 환경 실시간 합성시스템{Virtual Camera Tracking System, a real-time MR environment synthesis system using it}Virtual Camera Tracking System, a real-time MR environment synthesis system using it

본 발명은 버츄얼 카메라 트랙킹 시스템, 이를 이용한 MR 환경 실시간 합성시스템에 관한 것이다.The present invention relates to a virtual camera tracking system and a real-time synthesizing system for a MMR environment using the same.

증강 현실(AR) 및/또는 가상 현실(VR) 시스템은 3 차원(3D) 몰입(immersive) 가상 환경을 생성할 수 있다. 사용자는 예를 들어, 디스플레이를 포함하는 헬멧 또는 다른 헤드 장착형 디바이스, 안경 또는 고글 - 사용자가 디스플레이 디바이스를 볼 때 이 안경 또는 고글을 통하여 봄(look through) - 센서가 갖춰진 글러브들, 센서들을 포함하는 외부 핸드 헬드 디바이스들 및 다른 그러한 전자 디바이스들과 같은 다양한 전자 디바이스들과의 인터랙션(interaction)을 통해 이러한 가상 환경을 경험할 수 있다. 일단, 가상 환경에 몰입되면, 가상 환경과의 사용자 인터랙션은, 예를 들어, 가상 환경과 인터랙션하고, 개인화하고 그리고 제어하기 위한 전자 디바이스의 물리적 움직임 및/또는 조작과 같은 다양한 형태를 취할 수 있다.Augmented reality (AR) and/or virtual reality (VR) systems may create three-dimensional (3D) immersive virtual environments. A user may, for example, a helmet or other head-mounted device comprising a display, glasses or goggles - when the user looks through the glasses or goggles - gloves equipped with a sensor, including sensors This virtual environment can be experienced through interaction with various electronic devices, such as external hand held devices and other such electronic devices. Once immersed in the virtual environment, user interaction with the virtual environment may take various forms, such as, for example, physical movement and/or manipulation of an electronic device to interact, personalize, and control the virtual environment.

공개특허공보 제10-2017-0130580호Laid-open Patent Publication No. 10-2017-0130580

본 발명이 해결하고자 하는 과제는 버츄얼 카메라 트랙킹 시스템, 이를 이용한 MR 환경 실시간 합성시스템을 제공하는 데 있다.The problem to be solved by the present invention is to provide a virtual camera tracking system and a real-time synthesizing system for a MMR environment using the same.

상기 과제를 해결하기 위한 본 발명의 일 실시예에 따른 버츄얼 카메라 트랙킹 시스템, 이를 이용한 MR 환경 실시간 합성시스템은 실내 및/또는 실외에서 촬영된 촬영영상과 MR 영상을 보다 정교하게 합성할 수 있다.A virtual camera tracking system according to an embodiment of the present invention for solving the above problems and a real-time MR environment synthesizing system using the same can more precisely synthesize the captured images and MR images captured indoors and/or outdoors.

본 발명의 일 실시예에 따른 버츄얼 카메라 트랙킹 시스템, 이를 이용한 MR 환경 실시간 합성시스템을 이용하면, 실내 및/또는 실외에서 촬영된 촬영영상과 MR 영상을 보다 정교하게 합성할 수 있다.By using the virtual camera tracking system according to an embodiment of the present invention and a real-time MR environment synthesizing system using the same, it is possible to more precisely synthesize the captured images and MR images captured indoors and/or outdoors.

도 1은 본 발명의 일 실시예에 따른 버츄얼 카메라 트랙킹 시스템, 이를 이용한 MR 환경 실시간 합성시스템을 나타낸 블럭도이다.
도 2 내지 도 4는 도 1에 도시된 버츄얼 카메라 트랙킹 시스템, 이를 이용한 MR 환경 실시간 합성시스템 간의 연결 구성도 및 지원 기능을 설명한 예시도이다.
도 5는 본 명세서에 개진된 하나 이상의 실시예가 구현될 수 있는 예시적인 컴퓨팅 환경을 도시한 도이다.
1 is a block diagram illustrating a virtual camera tracking system and a real-time MR environment synthesis system using the same according to an embodiment of the present invention.
2 to 4 are exemplary diagrams illustrating a connection configuration diagram and a support function between the virtual camera tracking system shown in FIG.
5 illustrates an example computing environment in which one or more embodiments disclosed herein may be implemented.

다양한 실시예들 및/또는 양상들이 이제 도면들을 참조하여 개시된다. 하기 설명에서는 설명을 목적으로, 하나 이상의 양상들의 전반적 이해를 돕기 위해 다수의 구체적인 세부사항들이 개시된다. 그러나, 이러한 양상(들)은 이러한 구체적인 세부사항들 없이도 실행될 수 있다는 점 또한 본 발명의 기술 분야에서 통상의 지식을 가진 자에게 인식될 수 있을 것이다. 이후의 기재 및 첨부된 도면들은 하나 이상의 양상들의 특정한 예시적인 양상들을 상세하게 기술한다. 하지만, 이러한 양상들은 예시적인 것이고 다양한 양상들의 원리들에서의 다양한 방법들 중 일부가 이용될 수 있으며, 기술되는 설명들은 그러한 양상들 및 그들의 균등물들을 모두 포함하고자 하는 의도이다.Various embodiments and/or aspects are now disclosed with reference to the drawings. In the following description, for purposes of explanation, numerous specific details are set forth to provide a thorough understanding of one or more aspects. However, it will also be recognized by one of ordinary skill in the art that such aspect(s) may be practiced without these specific details. The following description and accompanying drawings set forth in detail certain illustrative aspects of one or more aspects. These aspects are illustrative, however, and some of the various methods in principles of various aspects may be employed, and the descriptions set forth are intended to include all such aspects and their equivalents.

또한, 다양한 양상들 및 특징들이 다수의 디바이스들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있는 시스템에 의하여 제시될 것이다. 다양한 시스템들이, 추가적인 장치들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있다는 점 그리고/또는 도면들과 관련하여 논의된 장치들, 컴포넌트들, 모듈들 등 전부를 포함하지 않을 수도 있다는 점 또한 이해되고 인식되어야 한다.Further, various aspects and features will be presented by a system that may include a number of devices, components and/or modules, and the like. It is also noted that various systems may include additional devices, components, and/or modules, etc. and/or may not include all of the devices, components, modules, etc. discussed with respect to the drawings. must be understood and recognized.

본 명세서에서 사용되는 "실시예", "예", "양상", "예시" 등은 기술되는 임의의 양상 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되지 않을 수도 있다. 아래에서 사용되는 용어들 '컴포넌트', '모듈', '시스템', '인터페이스' 등은 일반적으로 컴퓨터 관련 엔티티(computer-related entity)를 의미하며, 예를 들어, 하드웨어, 하드웨어와 소프트웨어의 조합, 소프트웨어를 의미할 수 있다.As used herein, “embodiment”, “example”, “aspect”, “exemplary”, etc. may not be construed as an advantage or advantage in any aspect or design described above over other aspects or designs. . The terms 'component', 'module', 'system', 'interface', etc. used below generally mean a computer-related entity, for example, hardware, a combination of hardware and software, It could mean software.

더불어, 용어 "또는"은 배타적 "또는"이 아니라 내포적 "또는"을 의미하는 것으로 의도된다. 즉, 달리 특정되지 않거나 문맥상 명확하지 않은 경우에, "X는 A 또는 B를 이용한다"는 자연적인 내포적 치환 중 하나를 의미하는 것으로 의도된다. 즉, X가 A를 이용하거나; X가 B를 이용하거나; 또는 X가 A 및 B 모두를 이용하는 경우, "X는 A 또는 B를 이용한다"가 이들 경우들 어느 것으로도 적용될 수 있다. 또한, 본 명세서에 사용된 "및/또는"이라는 용어는 열거된 관련 아이템들 중 하나 이상의 아이템의 가능한 모든 조합을 지칭하고 포함하는 것으로 이해되어야 한다.In addition, the term “or” is intended to mean an inclusive “or” rather than an exclusive “or.” That is, unless otherwise specified or clear from context, "X employs A or B" is intended to mean one of the natural implicit substitutions. That is, X employs A; X employs B; or when X employs both A and B, "X employs A or B" may apply to either of these cases. It should also be understood that the term “and/or” as used herein refers to and includes all possible combinations of one or more of the listed related items.

또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하지만, 하나 이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다. 또한, 달리 특정되지 않거나 단수 형태를 지시하는 것으로 문맥상 명확하지 않은 경우에, 본 명세서와 청구범위에서 단수는 일반적으로 "하나 또는 그 이상"을 의미하는 것으로 해석되어야 한다. 더불어, 본 명세서에서 사용되는 용어 "클라이언트", "유저" 및 "사용자"는 종종 상호교환가능하게 사용될 수 있다. 더불어, 본 명세서에서 사용되는 용어 "컴포넌트" 및 "엘리먼트" 또한 종종 상호교환가능하게 사용될 수 있다Also, the terms "comprises" and/or "comprising" mean that the feature and/or element is present, but excludes the presence or addition of one or more other features, elements, and/or groups thereof. should be understood as not Also, unless otherwise specified or unless the context is clear as to designating a singular form, the singular in the specification and claims should generally be construed to mean "one or more." In addition, as used herein, the terms “client,” “user,” and “user” are often used interchangeably. In addition, as used herein, the terms "component" and "element" may also be used interchangeably sometimes.

이하, 첨부된 도면들에 기초하여 본 발명의 일 실시예에 따른 버츄얼 카메라 트랙킹 시스템, 이를 이용한 MR 환경 실시간 합성시스템을 보다 상세하게 설명하도록 한다.Hereinafter, a virtual camera tracking system according to an embodiment of the present invention and a real-time MR environment synthesis system using the same will be described in more detail based on the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 버츄얼 카메라 트랙킹 시스템, 이를 이용한 MR 환경 실시간 합성시스템을 나타낸 블럭도이고, 도 2 내지 도 4는 도 1에 도시된 버츄얼 카메라 트랙킹 시스템, 이를 이용한 MR 환경 실시간 합성시스템 간의 연결 구성도 및 지원 기능을 설명한 예시도이다.1 is a block diagram illustrating a virtual camera tracking system according to an embodiment of the present invention and a real-time MMR environment synthesis system using the same, and FIGS. 2 to 4 are the virtual camera tracking system shown in FIG. 1 and a real-time MMR environment using the same. It is an exemplary diagram explaining the configuration diagram of the connection between the synthesis systems and supporting functions.

도 1 내지 도 4를 참조, 본 발명에서 제시하는 버츄얼 카메라 트랙킹 시스템(10)은 뎁스카메라모듈(l1), 거리측정 스캐너(RPLIDAR)(12), 트랙킹부(13) 및 영상촬영부(14)를 포함한다.1 to 4, the virtual camera tracking system 10 presented in the present invention is a depth camera module 11, a distance measuring scanner (RPLIDAR) 12, a tracking unit 13 and an image capturing unit 14. includes

상기 뎁스카메라모듈(l1), 트랙킹부(13) 및 거리측정 스캐너(12)는 영상촬영부(14)에 장착된다.The depth camera module 11 , the tracking unit 13 and the distance measuring scanner 12 are mounted on the image capturing unit 14 .

상기 뎁스카메라모듈(11)은 후술할 영상촬영부(14)의 촬영동작의 위치(좌표)정보를 인식한다.The depth camera module 11 recognizes position (coordinate) information of a photographing operation of the image photographing unit 14, which will be described later.

상기 거리측정 스캐너(12)는 주변 360도 전방향에 적외선을 출력하여 시계방향으로 전방향에 위치한 대상물을 스캔하는 기능을 한다.The distance measuring scanner 12 functions to scan an object located in all directions in a clockwise direction by outputting infrared rays in all directions around 360 degrees.

상기 트랙킹부(13)는 영상카메라의 촬영동작 순서를 트랙킹하는 기능을 수행한다.The tracking unit 13 performs a function of tracking the shooting operation sequence of the video camera.

상기 영상촬영부(14)는 주변 영상을 촬영하는 카메라일 수 있다.The image capturing unit 14 may be a camera that captures a surrounding image.

여기서, 영상촬영부(14)는 4K 60F 언리얼엔지 4를 탑재한 카메라로서, 상술한 언리얼엔진 4의 절대좌표값 엔진 취득 실내/실외 알고리즘, 언리얼엔진 4 높이값 취득 알고리즘, 언리얼엔진 4 회전값 취득 알고리즘이 탑재될 수 있다.Here, the image capturing unit 14 is a camera equipped with 4K 60F Unreal Engine 4, and the above-described absolute coordinate value engine acquisition indoor/outdoor algorithm of Unreal Engine 4, Unreal Engine 4 height value acquisition algorithm, and Unreal Engine 4 rotation value acquisition Algorithms may be mounted.

여기서, 실내 알고리즘은 거리측정 스캐너와 연동되고, 실외 알고리즘은 좌표인식모듈과 연동되고, 높이값 취득 알고리즘은 IR 센서와 연동된다.Here, the indoor algorithm is linked with the distance measuring scanner, the outdoor algorithm is linked with the coordinate recognition module, and the height value acquisition algorithm is linked with the IR sensor.

또한, 회전값 취득 알고리즘은 사용자 단말(테블릿 PC)의 자이로센서와 연동될 수 있다.In addition, the rotation value acquisition algorithm may be linked with the gyro sensor of the user terminal (tablet PC).

다음으로, MR 환경 실시간 합성시스템(20)은 버츄얼 카메라 트랙킹 시스템(100)에서 촬영된 촬영영상, 실내/실외에서 촬영된 촬영영상의 절대좌표값, 높이, 회전값 등을 제공받고, 촬영영상 내에 MR 영상을 합성하는 기능을 수행한다.Next, the MRF environment real-time synthesis system 20 is provided with the absolute coordinate values, height, rotation values, etc. of the captured image captured by the virtual camera tracking system 100 and the captured image captured indoors/outdoors, and within the captured image. It performs the function of synthesizing MR images.

한편, 본원에 개시된 버츄얼 카메라 트랙킹 시스템(10)은 각 구성의 출력 데이터를 관리하기 위한 관리 인터페이스(UX/UI)를 제공할 수 있다. Meanwhile, the virtual camera tracking system 10 disclosed herein may provide a management interface (UX/UI) for managing output data of each configuration.

도 5는 본 명세서에 개진된 하나 이상의 실시예가 구현될 수 있는 예시적인 컴퓨팅 환경을 도시하는 도면으로, 상술한 하나 이상의 실시예를 구현하도록 구성된 컴퓨팅 디바이스(1100)를 포함하는 시스템(1000)의 예시를 도시한다. 예를 들어, 컴퓨팅 디바이스(1100)는 개인 컴퓨터, 서버 컴퓨터, 핸드헬드 또는 랩탑 디바이스, 모바일 디바이스(모바일폰, PDA, 미디어 플레이어 등), 멀티프로세서 시스템, 소비자 전자기기, 미니 컴퓨터, 메인프레임 컴퓨터, 임의의 전술된 시스템 또는 디바이스를 포함하는 분산 컴퓨팅 환경 등을 포함하지만, 이것으로 한정되는 것은 아니다.5 is a diagram illustrating an example computing environment in which one or more embodiments disclosed herein may be implemented, and is an illustration of a system 1000 including a computing device 1100 configured to implement one or more embodiments described above. shows For example, computing device 1100 may be a personal computer, server computer, handheld or laptop device, mobile device (mobile phone, PDA, media player, etc.), multiprocessor system, consumer electronics, minicomputer, mainframe computer, distributed computing environments including any of the aforementioned systems or devices, and the like.

컴퓨팅 디바이스(1100)는 적어도 하나의 프로세싱 유닛(1110) 및 메모리(1120)를 포함할 수 있다. 여기서, 프로세싱 유닛(1110)은 예를 들어 중앙처리장치(CPU), 그래픽처리장치(GPU), 마이크로프로세서, 주문형 반도체(Application Specific Integrated Circuit, ASIC), Field Programmable Gate Arrays(FPGA) 등을 포함할 수 있으며, 복수의 코어를 가질 수 있다. 메모리(1120)는 휘발성 메모리(예를 들어, RAM 등), 비휘발성 메모리(예를 들어, ROM, 플래시 메모리 등) 또는 이들의 조합일 수 있다. 또한, 컴퓨팅 디바이스(1100)는 추가적인 스토리지(1130)를 포함할 수 있다. 스토리지(1130)는 자기 스토리지, 광학 스토리지 등을 포함하지만 이것으로 한정되지 않는다. 스토리지(1130)에는 본 명세서에 개진된 하나 이상의 실시예를 구현하기 위한 컴퓨터 판독 가능한 명령이 저장될 수 있고, 운영 시스템, 애플리케이션 프로그램 등을 구현하기 위한 다른 컴퓨터 판독 가능한 명령도 저장될 수 있다. 스토리지(1130)에 저장된 컴퓨터 판독 가능한 명령은 프로세싱 유닛(1110)에 의해 실행되기 위해 메모리(1120)에 로딩될 수 있다. 또한, 컴퓨팅 디바이스(1100)는 입력 디바이스(들)(1140) 및 출력 디바이스(들)(1150)을 포함할 수 있다. The computing device 1100 may include at least one processing unit 1110 and a memory 1120 . Here, the processing unit 1110 may include, for example, a central processing unit (CPU), a graphic processing unit (GPU), a microprocessor, an Application Specific Integrated Circuit (ASIC), Field Programmable Gate Arrays (FPGA), etc. and may have a plurality of cores. The memory 1120 may be a volatile memory (eg, RAM, etc.), a non-volatile memory (eg, ROM, flash memory, etc.), or a combination thereof. Additionally, computing device 1100 may include additional storage 1130 . Storage 1130 includes, but is not limited to, magnetic storage, optical storage, and the like. The storage 1130 may store computer readable instructions for implementing one or more embodiments disclosed herein, and other computer readable instructions for implementing an operating system, an application program, and the like. Computer readable instructions stored in storage 1130 may be loaded into memory 1120 for execution by processing unit 1110 . Computing device 1100 may also include input device(s) 1140 and output device(s) 1150 .

여기서, 입력 디바이스(들)(1140)은 예를 들어 키보드, 마우스, 펜, 음성 입력 디바이스, 터치 입력 디바이스, 적외선 카메라, 비디오 입력 디바이스 또는 임의의 다른 입력 디바이스 등을 포함할 수 있다. 또한, 출력 디바이스(들)(1150)은 예를 들어 하나 이상의 디스플레이, 스피커, 프린터 또는 임의의 다른 출력 디바이스 등을 포함할 수 있다. 또한, 컴퓨팅 디바이스(1100)는 다른 컴퓨팅 디바이스에 구비된 입력 디바이스 또는 출력 디바이스를 입력 디바이스(들)(1140) 또는 출력 디바이스(들)(1150)로서 사용할 수도 있다.Here, the input device(s) 1140 may include, for example, a keyboard, mouse, pen, voice input device, touch input device, infrared camera, video input device, or any other input device, or the like. Further, the output device(s) 1150 may include, for example, one or more displays, speakers, printers, or any other output device, or the like. Also, the computing device 1100 may use an input device or an output device included in another computing device as the input device(s) 1140 or the output device(s) 1150 .

또한, 컴퓨팅 디바이스(1100)는 컴퓨팅 디바이스(1100)가 다른 디바이스(예를 들어, 컴퓨팅 디바이스(1300))와 통신할 수 있게 하는 통신접속(들)(1160)을 포함할 수 있다. Computing device 1100 may also include communication connection(s) 1160 that enable computing device 1100 to communicate with another device (eg, computing device 1300 ).

여기서, 통신 접속(들)(1160)은 모뎀, 네트워크 인터페이스 카드(NIC), 통합 네트워크 인터페이스, 무선 주파수 송신기/수신기, 적외선 포트, USB 접속 또는 컴퓨팅 디바이스(1100)를 다른 컴퓨팅 디바이스에 접속시키기 위한 다른 인터페이스를 포함할 수 있다. 또한, 통신 접속(들)(1160)은 유선 접속 또는 무선 접속을 포함할 수 있다. 상술한 컴퓨팅 디바이스(1100)의 각 구성요소는 버스 등의 다양한 상호접속(예를 들어, 주변 구성요소 상호접속(PCI), USB, 펌웨어(IEEE 1394), 광학적 버스 구조 등)에 의해 접속될 수도 있고, 네트워크(1200)에 의해 상호접속될 수도 있다. 본 명세서에서 사용되는 "구성요소", "시스템" 등과 같은 용어들은 일반적으로 하드웨어, 하드웨어와 소프트웨어의 조합, 소프트웨어, 또는 실행중인 소프트웨어인 컴퓨터 관련 엔티티를 지칭하는 것이다. Here, communication connection(s) 1160 may be a modem, network interface card (NIC), integrated network interface, radio frequency transmitter/receiver, infrared port, USB connection, or other for connecting computing device 1100 to another computing device. It may include interfaces. Also, the communication connection(s) 1160 may include a wired connection or a wireless connection. Each component of the aforementioned computing device 1100 may be connected by various interconnections such as a bus (eg, peripheral component interconnection (PCI), USB, firmware (IEEE 1394), optical bus structure, etc.) and may be interconnected by a network 1200 . As used herein, terms such as "component," "system," and the like, generally refer to a computer-related entity that is hardware, a combination of hardware and software, software, or software in execution.

예를 들어, 구성요소는 프로세서 상에서 실행중인 프로세스, 프로세서, 객체, 실행 가능물(executable), 실행 스레드, 프로그램 및/또는 컴퓨터일 수 있지만, 이것으로 한정되는 것은 아니다. 예를 들어, 컨트롤러 상에서 구동중인 애플리케이션 및 컨트롤러 모두가 구성요소일 수 있다. 하나 이상의 구성요소는 프로세스 및/또는 실행의 스레드 내에 존재할 수 있으며, 구성요소는 하나의 컴퓨터 상에서 로컬화될 수 있고, 둘 이상의 컴퓨터 사이에서 분산될 수도 있다.For example, a component can be, but is not limited to being, a process running on a processor, a processor, an object, an executable, a thread of execution, a program, and/or a computer. For example, both an application running on a controller and a controller may be a component. One or more components may reside within a process and/or thread of execution, and components may be localized on one computer or distributed between two or more computers.

지금까지 본 발명에 따른 구체적인 실시예에 관하여 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서는 여러 가지 변형이 가능함은 물론이다. 그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허 청구의 범위뿐 아니라 이 특허 청구의 범위와 균등한 것들에 의해 정해져야 한다.Although specific embodiments according to the present invention have been described so far, various modifications are possible without departing from the scope of the present invention. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be defined by the claims described below as well as the claims and equivalents.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 이는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명 사상은 아래에 기재된 특허청구범위에 의해서만 파악되어야 하고, 이의 균등 또는 등가적 변형 모두는 본 발명 사상의 범주에 속한다고 할 것이다.As described above, although the present invention has been described with reference to limited embodiments and drawings, the present invention is not limited to the above-described embodiments, which are various modifications and variations from these descriptions for those of ordinary skill in the art to which the present invention pertains. Transformation is possible. Accordingly, the spirit of the present invention should be understood only by the claims described below, and all equivalents or equivalent modifications thereof will fall within the scope of the spirit of the present invention.

10: 버츄얼 카메라 트랙킹 시스템
20: MR 환경 실시간 합성시스템
10: Virtual Camera Tracking System
20: MMR environment real-time synthesis system

Claims (2)

뎁스카메라모듈, 거리측정 스캐너(RPLIDAR), 트랙킹부 및 영상촬영부를 포함하고,
상기 뎁스카메라모듈, 트랙킹부 및 거리측정 스캐너는 상기 영상촬영부에 장착되되,
상기 뎁스카메라모듈은 상기 영상촬영부의 촬영동작의 위치(좌표)정보를 인식하고, 상기 거리측정 스캐너는 주변 360도 전방향에 적외선을 출력하여 시계방향으로 전방향에 위치한 대상물을 스캔하며, 상기 트랙킹부는 상기 영상촬영부의 촬영동작 순서를 트랙킹하고, 상기 영상촬영부는 주변 영상을 촬영하는 카메라로 언리얼엔진 4의 절대좌표값 엔진 취득 실내/실외 알고리즘, 언리얼엔진 4 높이값 취득 알고리즘, 언리얼엔진 4 회전값 취득 알고리즘이 탑재되며, 상기 실내 알고리즘은 거리측정 스캐너와 연동되고, 상기 실외 알고리즘은 좌표인식모듈과 연동되며, 상기 높이값 취득 알고리즘은 IR 센서와 연동되고, 상기 회전값 취득 알고리즘은 사용자 단말의 자이로센서와 연동되는,
것을 특징으로 하는 버츄얼 카메라 트랙킹 시스템.
Including a depth camera module, a distance measuring scanner (RPLIDAR), a tracking unit and an image capturing unit,
The depth camera module, the tracking unit and the distance measuring scanner are mounted on the image capturing unit,
The depth camera module recognizes the position (coordinate) information of the photographing operation of the image capturing unit, and the distance measuring scanner scans the object located in the clockwise direction by outputting infrared rays in all directions around 360 degrees, and the tracking The unit tracks the shooting operation sequence of the image capturing unit, and the image capturing unit is a camera that captures surrounding images. An acquisition algorithm is mounted, the indoor algorithm is linked with a distance measuring scanner, the outdoor algorithm is linked with a coordinate recognition module, the height value acquisition algorithm is linked with an IR sensor, and the rotation value acquisition algorithm is a gyro of the user terminal linked to the sensor,
Virtual camera tracking system, characterized in that.
제1항의 버츄얼 카메라 트랙킹 시스템에서 촬영된 촬영영상, 실내/실외에서 촬영된 촬영영상의 절대좌표값, 높이, 회전값 등을 제공받고, 촬영영상 내에 MR 영상을 합성하는 것을 특징으로 하는 MR 환경 실시간 합성시스템.A real-time MMR environment characterized by receiving the absolute coordinate values, height, rotation values, etc. of the captured image captured in the virtual camera tracking system of claim 1 and the indoor/outdoor captured image, and synthesizing the MR image within the captured image. synthetic system.
KR1020190157244A 2019-11-29 2019-11-29 Virtual Camera Tracking System, a real-time MR environment synthesis system using it KR20210067525A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190157244A KR20210067525A (en) 2019-11-29 2019-11-29 Virtual Camera Tracking System, a real-time MR environment synthesis system using it

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190157244A KR20210067525A (en) 2019-11-29 2019-11-29 Virtual Camera Tracking System, a real-time MR environment synthesis system using it

Publications (1)

Publication Number Publication Date
KR20210067525A true KR20210067525A (en) 2021-06-08

Family

ID=76399617

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190157244A KR20210067525A (en) 2019-11-29 2019-11-29 Virtual Camera Tracking System, a real-time MR environment synthesis system using it

Country Status (1)

Country Link
KR (1) KR20210067525A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170130580A (en) 2015-07-07 2017-11-28 구글 엘엘씨 Systems that track handheld devices in virtual reality

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170130580A (en) 2015-07-07 2017-11-28 구글 엘엘씨 Systems that track handheld devices in virtual reality

Similar Documents

Publication Publication Date Title
EP3852068A1 (en) Method for training generative network, method for generating near-infrared image and apparatuses
US11625841B2 (en) Localization and tracking method and platform, head-mounted display system, and computer-readable storage medium
US9613463B2 (en) Augmented reality extrapolation techniques
US9940720B2 (en) Camera and sensor augmented reality techniques
KR102222974B1 (en) Holographic snap grid
US20210319621A1 (en) Face modeling method and apparatus, electronic device and computer-readable medium
US9268410B2 (en) Image processing device, image processing method, and program
KR101637990B1 (en) Spatially correlated rendering of three-dimensional content on display components having arbitrary positions
WO2020019962A1 (en) Coordinate system calibration method and device for augmented reality device
CN110457414A (en) Offline map processing, virtual objects display methods, device, medium and equipment
CN108304075B (en) Method and device for performing man-machine interaction on augmented reality device
US9182812B2 (en) Virtual sensor systems and methods
US11087479B1 (en) Artificial reality system with 3D environment reconstruction using planar constraints
CN110866977B (en) Augmented reality processing method, device, system, storage medium and electronic equipment
US11132842B2 (en) Method and system for synchronizing a plurality of augmented reality devices to a virtual reality device
CN106256124B (en) Structuring is three-dimensional
CN111161336B (en) Three-dimensional reconstruction method, three-dimensional reconstruction apparatus, and computer-readable storage medium
CN104081317A (en) Image processing device, and computer program product
KR102337209B1 (en) Method for notifying environmental context information, electronic apparatus and storage medium
Chen et al. A case study of security and privacy threats from augmented reality (ar)
KR102566300B1 (en) Method for indoor localization and electronic device
CN110286906A (en) Method for displaying user interface, device, storage medium and mobile terminal
CN107704106B (en) Attitude positioning method and device and electronic equipment
KR20200069009A (en) Apparatus for Embodying Virtual Reality and Automatic Plan System of Electrical Wiring
CN115512046B (en) Panorama display method and device for points outside model, equipment and medium