KR102245760B1 - Table top devices and table top systems - Google Patents

Table top devices and table top systems Download PDF

Info

Publication number
KR102245760B1
KR102245760B1 KR1020190179232A KR20190179232A KR102245760B1 KR 102245760 B1 KR102245760 B1 KR 102245760B1 KR 1020190179232 A KR1020190179232 A KR 1020190179232A KR 20190179232 A KR20190179232 A KR 20190179232A KR 102245760 B1 KR102245760 B1 KR 102245760B1
Authority
KR
South Korea
Prior art keywords
image
table top
image sensor
camera
computing device
Prior art date
Application number
KR1020190179232A
Other languages
Korean (ko)
Inventor
하태진
김재인
구지향
이지원
최주곤
Original Assignee
주식회사 버넥트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 버넥트 filed Critical 주식회사 버넥트
Priority to KR1020190179232A priority Critical patent/KR102245760B1/en
Application granted granted Critical
Publication of KR102245760B1 publication Critical patent/KR102245760B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • H04N5/2257
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/04Manufacturing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • H04N21/6437Real-time Transport Protocol [RTP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N5/2252
    • H04N5/2258
    • H04N5/335
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Manufacturing & Machinery (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

According to an embodiment of the present invention, a table top device and a table top system including the same comprise: a table top housing including a bottom surface and an inclined surface having a predetermined slope with respect to the bottom surface; a display system disposed on an inclined surface of the table top housing; an image sensor disposed on the display system; and a processor assembly that generates virtual content for a photographed image based on the photographed image output from the display system and a user input image photographed by the image sensor.

Description

테이블 탑 디바이스 및 이를 포함하는 테이블 탑 시스템{TABLE TOP DEVICES AND TABLE TOP SYSTEMS}Table top devices and table top systems including the same {TABLE TOP DEVICES AND TABLE TOP SYSTEMS}

본 발명은 테이블 탑 디바이스 및 이를 포함하는 테이블 탑 시스템에 관한 것이다. 보다 상세하게는, 증강현실 기반의 커뮤니케이션 시스템을 제공하는 테이블 탑 디바이스 및 이를 포함하는 테이블 탑 시스템에 관한 것이다. The present invention relates to a table top device and a table top system including the same. In more detail, it relates to a table top device providing an augmented reality-based communication system and a table top system including the same.

일반적으로 산업 공장에는 특정 제품의 생산을 위한 각종 설비들이 배치되고, 각각의 설비에는 이를 담당하는 담당 작업자가 배치되어 제품 생산에 필요한 공정에 따라 작업들을 순차로 수행하게 된다. In general, various facilities for the production of a specific product are arranged in an industrial factory, and a worker in charge of this is arranged in each facility to sequentially perform tasks according to a process required for product production.

이때, 산업 공장 내 현장 설비 파트를 각각 담당하게 되는 작업자들은 자신이 맡은 조립 생산 공정의 숙련도에 따라 작업의 효율성 및 생산성에 크게 영향을 미치게 된다. At this time, the workers who are in charge of each field facility part in the industrial plant greatly affect the efficiency and productivity of work according to the skill level of the assembly production process in charge of them.

특히, 숙련되지 않은 작업자의 경우 자신이 담당하는 설비 파트에서의 공정 조립에 어려움을 겪을 수 있으며, 이는 전체 제품 생산, 즉 생산성의 저하로 이어지는 문제가 있었다. In particular, in the case of an unskilled worker, it may be difficult to assemble a process in a part of the facility in which he or she is in charge, and this has a problem that leads to a decrease in the overall product production, that is, productivity.

또한, 숙련자의 경우라도 작업지시 내용이 변경된 경우 이를 바로 인지하지 못하는 문제가 있으며, 특히 변경되는 작업지시 내용이 매번 관리자를 통해 직접 지시됨에 따른 시간적 지연의 문제가 있었다.In addition, even in the case of skilled workers, there is a problem of not immediately recognizing the change of the work order content, and in particular, there is a problem of time delay as the changed work order content is directly instructed by the manager each time.

특히, 작업자는 작업용 헬멧, 방진복 등 다양한 용품의 착용에 따른 방음 효과에 의해 작업자 간의 의사소통이 어려우며, 작업 공장에서의 소음은 작업자 간의 의사소통이 더욱 어렵게 만들게 되는데, 이는 곧 생산성 저하로 이어진다. In particular, it is difficult for workers to communicate between workers due to the soundproof effect of wearing various items such as work helmets and dustproof clothes, and noise in the work factory makes communication between workers more difficult, which soon leads to a decrease in productivity.

이에 기존의 산업 공장에서는 각 현장 설비 파트에 디스플레이를 부착하고, 출력물을 상시로 출력하여 작업 공정의 상태를 관리하는 방식이 적용되었다. Therefore, in the existing industrial factory, a method of managing the state of the work process was applied by attaching a display to each field facility part and outputting the printout at all times.

그러나 산업 공장 내 각 현장 설비 파트의 복잡한 시스템으로 인해 유기적인 공정 관리에는 어려움이 따르고 있다. However, it is difficult to manage organic processes due to the complex system of each field facility part in the industrial plant.

즉, 산업 공장에서의 점차 복잡한 시스템 증대로 인한 관리의 한계성과, 정보 공유를 위한 문서 작성에 많은 시간이 요구 되고, 실시간 공정 작업의 진척상황의 파악이 어려우며, 작업자들 및 관리자 간의 의사소통의 문제와, 추적 관리되지 않는 작업의 적체, 작업 공정의 변경 이력에 따른 관리의 한계 문제가 있었다.In other words, the limitations of management due to the increasingly complex system increase in industrial plants, a lot of time is required to create documents for information and sharing, it is difficult to grasp the progress of real-time process work, and communication between workers and managers is a problem. Wow, there was a problem of management limitations due to the redundancy of work that is not tracked and managed, and the change history of the work process.

한편, 최근 정보통신 기술(Information and Communication Technology, ICT)이 발달함에 따라서, 원거리 데이터 통신망을 매개하여 다양한 분야에 대한 정보를 적어도 하나의 호스트 서버를 통하여 다수의 가입자 측으로 실시간 제공하는 정보제공 기술이 활발하게 개발되고 있다. Meanwhile, with the recent development of information and communication technologies (ICT), information provision technology that provides real-time information on various fields through at least one host server through a long-distance data communication network is active. Is being developed.

또한, 최근 들어 가상현실(Virtual Reality: VR), 증강현실(Augmented Reality: AR), 혼합현실(Mixed Reality: MR)에 대한 관심이 급상승하고 있는 가운데, 확장현실(eXtended Reality: XR)까지 가세하면서 이용자의 몰입경험(Immersive Experience)을 제공하는 서비스 및 기기 시장이 나날이 발전하고 있고, 최근에는 이러한 기술은 공장에 다양한 형태로 적용하는 기술들이 개발되고 있다. In addition, while interest in Virtual Reality (VR), Augmented Reality (AR), and Mixed Reality (MR) is rapidly increasing recently, extended reality (XR) has also been added. The market for services and devices that provide users' immersive experience is developing day by day, and in recent years, technologies that apply these technologies to factories in various forms are being developed.

KR 10-2019-0076770 AKR 10-2019-0076770 A

본 발명은 증강현실 기반의 커뮤니케이션 시스템을 제공하는 테이블 탑 디바이스 및 이를 포함하는 테이블 탑 시스템을 제공하는데 그 목적이 있다. An object of the present invention is to provide a table top device that provides an augmented reality-based communication system and a table top system including the same.

다만, 본 발명 및 본 발명의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다. However, the technical problems to be achieved by the present invention and the embodiments of the present invention are not limited to the technical problems as described above, and other technical problems may exist.

본 발명의 실시예에 따른 테이블 탑 디바이스 및 이를 포함하는 테이블 탑 시스템은, 바닥면과 상기 바닥면에 대해 소정의 경사를 가지는 경사면을 포함하는 테이블 탑 하우징; 상기 테이블 탑 하우징의 경사면 상에 배치된 디스플레이 시스템; 상기 디스플레이 시스템의 상에 배치된 이미지 센서; 상기 디스플레이 시스템에서 출력되는 촬영영상 및 상기 이미지 센서에서 촬영된 사용자 입력영상을 기초로 상기 촬영영상에 대한 가상 컨텐츠를 생성하는 프로세서 어셈블리를 포함한다.A table top device and a table top system including the same according to an embodiment of the present invention include: a table top housing including a floor surface and an inclined surface having a predetermined inclination with respect to the floor surface; A display system disposed on an inclined surface of the table top housing; An image sensor disposed on the display system; And a processor assembly for generating virtual content for the captured image based on the captured image output from the display system and the user input image captured by the image sensor.

이때, 상기 테이블 탑 하우징은, 상기 경사면의 일측에서 연장되어 상기 이미지 센서가 상기 디스플레이 시스템 상에 배치되도록 지지하는 카메라 지지대를 더 포함한다. In this case, the table top housing further includes a camera support extending from one side of the inclined surface to support the image sensor so as to be disposed on the display system.

또한, 상기 카메라 지지대는, 상기 경사면으로부터 제 1 방향으로 연장되도록 형성된 제 1 지지대와, 상기 제 1 지지대의 일단에서 제 2 방향으로 연장되도록 형성된 제 2 지지대와, 상기 제 2 지지대의 일단에서 상기 이미지 센서를 수용하는 카메라 하우징을 포함한다. In addition, the camera support includes a first support formed to extend from the inclined surface in a first direction, a second support formed to extend in a second direction from one end of the first support, and the image at one end of the second support. It includes a camera housing that houses the sensor.

또한, 상기 카메라 지지대는, 상기 이미지 센서의 촬영방향이 상기 디스플레이 시스템의 상면을 향하도록 배치한다. In addition, the camera support is disposed so that the photographing direction of the image sensor faces an upper surface of the display system.

또한, 상기 프로세서 어셈블리는, 상기 이미지 센서에서 촬영된 사용자 입력영상에 대한 와핑 프로세스를 수행하여 왜곡을 보정한다. In addition, the processor assembly corrects distortion by performing a warping process on the user input image captured by the image sensor.

또한, 상기 프로세서 어셈블리는, 상기 사용자 입력영상에서 상기 디스플레이 시스템을 통해 출력된 촬영영상과 매칭되는 영역을 분리하고, 분리된 영역의 상기 사용자 입력영상에서 사용자의 제스처 입력을 검출한다. In addition, the processor assembly separates a region matching the captured image output through the display system from the user input image, and detects a user's gesture input from the user input image in the separated region.

또한, 상기 프로세서 어셈블리는, 상기 사용자 입력영상에서 사용자의 제스처 이미지를 검출하고, 상기 검출된 제스처 이미지의 위치에 따른 상기 촬영영상의 이미지 좌표를 결정하고, 상기 결정된 이미지 좌표에 상기 검출된 제스처 이미지에 따른 가상 컨텐츠를 생성한다. In addition, the processor assembly may detect a gesture image of the user from the user input image, determine image coordinates of the captured image according to the position of the detected gesture image, and add the detected gesture image to the determined image coordinates. Create virtual content according to.

본 발명의 실시예에 따른 테이블 탑 디바이스 및 이를 포함하는 테이블 탑 시스템은, 증강현실 기반의 커뮤니케이션 시스템을 구현하는 테이블 탑 디바이스 및 시스템을 제공함으로써, 원격의 컴퓨팅 디바이스로부터 획득되는 영상에 대한 사용자 입력을 보다 편리하게 획득할 수 있고, 이에 기반한 가상 콘텐츠를 제공하여 원격의 작업자에게 보다 쉽고 명확하게 가이던스(guidance)를 제공할 수 있는 효과가 있다. A table-top device and a table-top system including the same according to an embodiment of the present invention provide a table-top device and a system that implements an augmented reality-based communication system, so that a user input for an image acquired from a remote computing device is provided. It is possible to obtain more conveniently, and by providing virtual content based on this, there is an effect that it is possible to provide guidance more easily and clearly to remote workers.

또한, 본 발명의 실시예에 따른 테이블 탑 디바이스 및 이를 포함하는 테이블 탑 시스템은, 테이블 탑 디바이스의 카메라 화각이 테이블 탑 디바이스의 디스플레이 영역을 모두 포함하게 함으로써, 기준이 되는 촬영영상에 대한 사용자 입력을 유실없이 모두 감지할 수 있는 효과가 있다. In addition, in the table top device and the table top system including the same according to an embodiment of the present invention, the camera field of view of the table top device includes all of the display area of the table top device, so that a user input for a taken image as a reference is performed. It has an effect that can be detected all without loss.

다만, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 명확하게 이해될 수 있다. However, the effects obtainable in the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood from the following description.

도 1은 본 발명의 실시예에 따른 증강현실 기반 커뮤니케이션 시스템의 개념도이다.
도 2는 본 발명의 실시예에 따른 웨어러블 타입의 컴퓨팅 디바이스를 통해 확장현실 환경을 경험하는 개념도이다.
도 3은 본 발명의 실시예에 따른 모바일 타입의 컴퓨팅 디바이스를 통해 확장현실 환경을 경험하는 개념도이다.
도 4는 본 발명의 실시예에 따른 테이블 탑 디바이스를 설명하기 위한 도면이다.
도 5는 본 발명의 실시예에 따른 테이블 탑 디바이스를 보다 상세하게 설명하기 위한 도면이다.
도 6은 본 발명의 실시예에 따른 테이블 탑 디바이스의 내부 블록도이다.
도 7은 본 발명의 실시예에 따른 웨어러블 타입의 컴퓨팅 디바이스의 내부 블록도이다.
도 8은 본 발명의 실시예에 따른 모바일 타입의 컴퓨팅 디바이스의 내부 블록도이다.
도 9는 본 발명의 실시예에 따른 테이블 탑 디바이스에서 증강현실 기반 커뮤니케이션을 수행하는 방법을 설명하기 위한 흐름도이다.
도 10은 본 발명의 실시예에 따른 원격의 컴퓨팅 디바이스로부터 촬영영상을 수신하여 표시하는 모습의 일례이다.
도 11은 본 발명의 실시예에 따른 사용자의 제스처 입력에 따른 제스처 이미지를 검출한 모습의 일례이다.
도 12는 본 발명의 실시예에 따른 가상 컨텐츠를 원격의 컴퓨팅 디바이스로 송신하여 표시하는 모습의 일례이다.
1 is a conceptual diagram of an augmented reality-based communication system according to an embodiment of the present invention.
2 is a conceptual diagram of experiencing an extended reality environment through a wearable type computing device according to an embodiment of the present invention.
3 is a conceptual diagram of experiencing an extended reality environment through a mobile type computing device according to an embodiment of the present invention.
4 is a diagram illustrating a table top device according to an embodiment of the present invention.
5 is a view for explaining in more detail a table top device according to an embodiment of the present invention.
6 is an internal block diagram of a table top device according to an embodiment of the present invention.
7 is an internal block diagram of a wearable type computing device according to an embodiment of the present invention.
8 is an internal block diagram of a mobile type computing device according to an embodiment of the present invention.
9 is a flowchart illustrating a method of performing augmented reality-based communication in a table top device according to an embodiment of the present invention.
10 is an example of receiving and displaying a captured image from a remote computing device according to an embodiment of the present invention.
11 is an example of detecting a gesture image according to a user's gesture input according to an embodiment of the present invention.
12 is an example of transmitting and displaying virtual content to a remote computing device according to an embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. 이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 또한, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. 또한, 도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다.Since the present invention can apply various transformations and have various embodiments, specific embodiments are illustrated in the drawings and will be described in detail in the detailed description. Effects and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various forms. In the following embodiments, terms such as first and second are used for the purpose of distinguishing one constituent element from other constituent elements rather than a limiting meaning. In addition, expressions in the singular include plural expressions unless the context clearly indicates otherwise. In addition, terms such as include or have means that the features or components described in the specification are present, and do not preclude the possibility of adding one or more other features or components in advance. In addition, in the drawings, the size of components may be exaggerated or reduced for convenience of description. For example, the size and thickness of each component shown in the drawings are arbitrarily shown for convenience of description, and thus the present invention is not necessarily limited to what is shown.

이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, and when describing with reference to the drawings, the same or corresponding constituent elements are assigned the same reference numerals, and redundant descriptions thereof will be omitted. .

- 증강현실 기반 커뮤니케이션 시스템 -Augmented reality-based communication system

도 1은 본 발명의 실시예에 따른 증강현실 기반 커뮤니케이션 시스템의 개념도이고, 도 2는 본 발명의 실시예에 따른 웨어러블 타입의 컴퓨팅 디바이스를 통해 확장현실 환경을 경험하는 개념도이며, 도 3은 본 발명의 실시예에 따른 모바일 타입의 컴퓨팅 디바이스를 통해 확장현실 환경을 경험하는 개념도이다. 1 is a conceptual diagram of an augmented reality-based communication system according to an embodiment of the present invention, FIG. 2 is a conceptual diagram of experiencing an extended reality environment through a wearable type computing device according to an embodiment of the present invention, and FIG. A conceptual diagram of experiencing an extended reality environment through a mobile type computing device according to an embodiment of FIG.

도 1 내지 3을 참조하면, 본 발명의 실시예에 따른 네트워크 속도 반응형 확장현실(XR) 커뮤니케이션 시스템(이하, “커뮤니케이션 시스템”)은, 사용자들이 컴퓨팅 디바이스를 통해 확장현실 컨텐츠를 기초로 한 커뮤니케이션을 제공하는 시스템이다. 1 to 3, a network speed responsive extended reality (XR) communication system (hereinafter, “communication system”) according to an embodiment of the present invention allows users to communicate based on extended reality content through a computing device. It is a system that provides.

여기서, 확장현실 환경은, 사용자나 커뮤니케이션 상대방 주변의 물리적 공간에 연관된 가상 컨텐츠가 삽입되어 생성된 환경을 의미하며, 증강현실(AR) 환경과 혼합현실 환경(MR)을 포함할 수 있다. 상기 가상 컨텐츠는, 컴퓨팅 디바이스에서 생성된 가상의 컨텐츠로, 라벨, 텍스트 정보, 이미지, 드로잉 객체 및 3 차원 엔티티를 포함하며, 상기 물리적 공간이나 물리적 공간을 촬영한 영상에 대응하여 생성된 증강/혼합 컨텐츠이다. Here, the extended reality environment refers to an environment generated by inserting virtual contents related to a physical space around a user or a communication counterpart, and may include an augmented reality (AR) environment and a mixed reality environment (MR). The virtual contents are virtual contents generated by a computing device, including labels, text information, images, drawing objects, and 3D entities, and augmented/mixed generated in response to the physical space or an image photographed in the physical space. It's content.

그리고 확장현실 커뮤니케이션(XR Communication)이란, 상기 가상 컨텐츠를 포함한 실감형 미디어(예컨대, 영상, 음성)에 기반하여 서로 다른 사용자가 컴퓨팅 디바이스를 통해 상호 의사소통을 위한 커뮤니케이션 데이터(Communication data)를 주고받는 활동을 의미한다.And XR Communication means that different users exchange communication data for mutual communication through a computing device based on immersive media (eg, video, audio) including the virtual content. Means activity.

즉, 실시예에 따른 커뮤니케이션 시스템은, 일반적인 커뮤니케이션의 의사소통 매개인 음성 및 화상과 더불어 물리적 공간이나 촬영영상에 연관된 가상 컨텐츠를 추가 매개로 통신하여, 확장현실 환경 내에서 다자간 커뮤니케이션을 지원할 수 있다. That is, the communication system according to the embodiment may support multi-party communication within an extended reality environment by additionally communicating virtual content related to a physical space or a photographed image along with voice and image, which are communication mediums of general communication.

커뮤니케이션 데이터(Communication data)는, 서로 다른 사용자(예컨대, 원격 관리자 및 현장 작업자)의 컴퓨팅 디바이스가 네트워크를 통해 주고받는 음성, 영상 및/또는 가상 컨텐츠를 포함할 수 있다. 실시예에서, 커뮤니케이션 데이터는, 컴퓨팅 디바이스 및/또는 서버 등에 의해 네트워크를 기반으로 송수신될 수 있다.Communication data may include audio, video, and/or virtual content that computing devices of different users (eg, remote managers and field workers) exchange through a network. In an embodiment, communication data may be transmitted/received based on a network by a computing device and/or a server or the like.

실시예에서, 커뮤니케이션 시스템은, 사용자의 컴퓨팅 디바이스의 통신환경에 따라서 서로 다른 커뮤니케이션 데이터 통신방식을 제공하여, 통신환경에 최적화된 확장현실 커뮤니케이션 환경을 제공할 수 있다. In an embodiment, the communication system may provide different communication data communication methods according to the communication environment of the user's computing device, thereby providing an extended reality communication environment optimized for the communication environment.

한편, 본 발명의 실시예에서 이러한 커뮤니케이션 시스템은, 컴퓨팅 디바이스(100), 테이블 탑 시스템 및 커뮤니케이션 데이터 중계 서버 시스템(500: 이하, ”서버 시스템”)을 포함할 수 있다. Meanwhile, in an embodiment of the present invention, such a communication system may include a computing device 100, a table top system, and a communication data relay server system 500 (hereinafter, “server system”).

본 발명의 실시예에 따른 컴퓨팅 디바이스(100), 테이블 탑 시스템 및 커뮤니케이션 데이터 중계 서버 시스템은, 상호 연동하여 증강현실 기반의 커뮤니케이션 서비스를 제공할 수 있다. The computing device 100, the table top system, and the communication data relay server system according to an embodiment of the present invention may interwork with each other to provide an augmented reality-based communication service.

또한, 이러한 도 1의 각 구성요소는, 네트워크(Network)를 통해 연결될 수 있다. 네트워크는 컴퓨팅 디바이스(100) 및 데이터 중계 서버 시스템(500) 등과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예에는 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루투스(Bluetooth) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.In addition, each component of FIG. 1 may be connected through a network. The network refers to a connection structure in which information exchange is possible between each node such as the computing device 100 and the data relay server system 500, and an example of such a network is a 3GPP (3rd Generation Partnership Project) network, an LTE ( Long Term Evolution) Network, World Interoperability for Microwave Access (WIMAX) Network, Internet, Local Area Network (LAN), Wireless Local Area Network (LAN), Wide Area Network (WAN), Personal Area Network (PAN) , A Bluetooth network, a satellite broadcasting network, an analog broadcasting network, and a Digital Multimedia Broadcasting (DMB) network, but are not limited thereto.

자세히, 컴퓨팅 디바이스(100)는, 사용자에게 확장현실 환경을 제공하며, 이러한 확장현실 환경 내에서 음성, 화상 및 실제객체와 대응된 가상 컨텐츠를 이용하여 타사용자와 커뮤니케이션할 수 있는 확장현실 어플리케이션을 실행할 수 있다. In detail, the computing device 100 provides an extended reality environment to a user, and executes an extended reality application capable of communicating with other users using virtual contents corresponding to voice, image, and real objects within this extended reality environment. I can.

이러한 컴퓨팅 디바이스(100)는, 확장현실 어플리케이션이 설치된 다양한 타입(예컨대, 웨어러블 타입, 모바일 타입, 데스크 탑 타입 또는 테이블 탑 타입)의 컴퓨팅 디바이스(100)를 포함할 수 있다. The computing device 100 may include a computing device 100 of various types (eg, a wearable type, a mobile type, a desktop type, or a table top type) on which an extended reality application is installed.

또한, 이하 설명의 편의를 위하여, 컴퓨팅 디바이스(100)를 사용하는 주체, 환경 및/또는 목적에 따라서 그 역할을 구분하여 설명하기로 한다. In addition, for convenience of description, the roles of the computing device 100 will be classified and described according to the subject, environment, and/or purpose of the computing device 100.

실시예에서 컴퓨팅 디바이스(100)는, 제 1 사용자 컴퓨팅 디바이스 및 제 2 사용자 컴퓨팅 디바이스로 구분될 수 있다. 보다 상세히, 제 1 사용자 컴퓨팅 디바이스는, 작업 현장으로부터 원격에 위치하는 원격 관리자의 컴퓨팅 디바이스로서, 네트워크를 기반으로 제 2 사용자 컴퓨팅 디바이스와 데이터를 송수신할 수 있다. In an embodiment, the computing device 100 may be divided into a first user computing device and a second user computing device. In more detail, the first user computing device is a computing device of a remote administrator located remotely from a work site, and may transmit and receive data to and from the second user computing device based on a network.

이하의 설명에서는, 제 1 사용자 컴퓨팅 디바이스가 현장 작업자의 현장 컴퓨팅 디바이스로부터 수신된 촬영영상에 기초한 확장현실 환경을 제공하고, 제공된 확장현실 인터페이스 환경 내에서 제 1 사용자 입력에 따라 현장 작업자에게 의사를 전달하기 위해 커뮤니케이션 데이터를 생성하는 원격 관리자의 컴퓨팅 디바이스임을 기준으로 설명한다. In the following description, the first user computing device provides an extended reality environment based on a photographed image received from the field computing device of a field worker, and communicates the intention to the field worker according to the first user input within the provided extended reality interface environment. In order to do so, the description will be based on a computing device of a remote administrator that generates communication data.

여기서, 원격 관리자란, 작업이 진행되는 현장으로부터 원격의 위치에서 해당 현장 작업자의 작업을 지시 또는 보조하는 작업 가이던스(guidance)를 가상 컨텐츠로 제공하는 자일 수 있다. Here, the remote manager may be a person who provides work guidance as virtual content for instructing or assisting the work of a corresponding site worker at a location remote from the site where the work is performed.

또한, 현장 작업자란, 작업 현장에서 수신된 작업 가이던스를 통해 제공된 확장현실 환경을 기반으로 실제 작업을 수행하는 자일 수 있다. In addition, the field worker may be a person who performs actual work based on the extended reality environment provided through the work guidance received at the work site.

이하 설명에서, 제 1 사용자는 원격 관리자로, 제 2 사용자는 현장 작업자임을 기준으로 설명한다. In the following description, the first user is a remote administrator, and the second user is a field worker.

한편, 실시예에서 서버 시스템(500)은, 증강현실 기반의 커뮤니케이션 시스템을 제공하는 테이블 탑 서비스를 제공하기 위한 일련의 프로세스를 수행할 수 있다.Meanwhile, in an embodiment, the server system 500 may perform a series of processes for providing a table top service that provides an augmented reality-based communication system.

자세히, 서버 시스템(500)은, 사용자 컴퓨팅 디바이스(100)들과 통신 중계기 등 사이에서 네트워크 기반으로 송수신되는 커뮤니케이션 데이터의 교환을 중계할 수 있다. In detail, the server system 500 may relay the exchange of communication data transmitted and received on a network basis between the user computing devices 100 and a communication repeater.

이러한 서버 시스템(500)은, 데이터 중계 서버, 데이터 가공 서버, 가상 컨텐츠 데이터베이스 및 공간정보 데이터베이스를 포함할 수 있다. The server system 500 may include a data relay server, a data processing server, a virtual content database, and a spatial information database.

자세히, 데이터 중계 서버는, 데이터 중계를 위한 통신설비 등을 포함할 수 있으며, 유무선 통신 네트워크를 통해 커뮤니케이션 데이터를 컴퓨팅 디바이스(100) 간에 송수신하도록 중계할 수 있다. 예를 들어, 데이터 중계 서버는, 제 1 사용자의 컴퓨팅 디바이스와 제 2 사용자 컴퓨팅 디바이스 간에 송수신되는 커뮤니케이션 데이터를 네트워크 통신속도에 맞추어 제공하는 중계 역할을 수행할 수 있다. In detail, the data relay server may include a communication facility for data relay, and may relay communication data to be transmitted and received between the computing devices 100 through a wired or wireless communication network. For example, the data relay server may serve as a relay providing communication data transmitted and received between a computing device of a first user and a computing device of a second user according to a network communication speed.

또한, 데이터 가공 서버는, 네트워크 속도에 따라 서로 다르게 커뮤니케이션 데이터를 가공하는 역할을 수행할 수 있다. 이하, 실시예에서 네트워크 속도에 따른 커뮤니케이션 모드에 따라 커뮤니케이션 데이터를 가공하는 역할은 컴퓨팅 디바이스(100)에서 수행되는 것으로 설명한다. In addition, the data processing server may perform a role of processing communication data differently according to the network speed. Hereinafter, in an embodiment, the role of processing communication data according to a communication mode according to a network speed will be described as being performed by the computing device 100.

또한, 가상 컨텐츠 데이터베이스에는, 증강현실 환경이나, 혼합현실 환경을 구현하기 위한 가상 컨텐츠 데이터가 저장되어 있을 수 있다. 이러한 가상 컨텐츠 데이터베이스는, 상기 가상 컨텐츠를 실제객체(예컨대, 마커)나 공간좌표에 매칭시켜 가상 컨텐츠로 저장할 수 있다. In addition, virtual content data for implementing an augmented reality environment or a mixed reality environment may be stored in the virtual content database. The virtual content database may match the virtual content to an actual object (eg, a marker) or a spatial coordinate and store the virtual content as virtual content.

그리고 가상 컨텐츠 데이터베이스는, 컴퓨팅 디바이스(100) 요청시 상기 컴퓨팅 디바이스(100)의 주변 물리적 공간에 매칭된 가상 컨텐츠를 전달하는 가상 컨텐츠 소스 역할을 수행할 수 있다. In addition, the virtual content database may serve as a virtual content source that delivers virtual content matched to the surrounding physical space of the computing device 100 upon request of the computing device 100.

또한, 공간정보 데이터베이스는, 특정 영역의 물리적 공간을 스캔하거나 3차원 공간 모델링하여 물리적 공간에 대한 정보 데이터를 저장할 수 있다. 또한, 물리적 공간 내에 실제객체, 마커 등을 이미지 학습하여 획득된 특징 정보들이 더 저장될 수 있으며, 특징 정보들은 공간 정보와 매칭되어 저장될 수 있다. In addition, the spatial information database may store information data on the physical space by scanning a physical space of a specific area or modeling a three-dimensional space. In addition, feature information obtained by image learning of an actual object, a marker, etc. may be further stored in the physical space, and the feature information may be matched with the spatial information and stored.

즉, 서버 시스템(500)은, 컴퓨팅 디바이스(100)의 주변 물리적 공간에 대한 가상 컨텐츠 데이터와 공간정보 데이터를 함께 송신하여, 상기 컴퓨팅 디바이스(100)를 통해 증강현실 환경 또는 확장현실 환경을 제공할 수 있다. That is, the server system 500 transmits virtual content data and spatial information data for the surrounding physical space of the computing device 100 together, and provides an augmented reality environment or an extended reality environment through the computing device 100. I can.

이러한 서버 시스템(500)은, 적어도 하나 이상의 컴퓨팅 서버, 데이터베이스 서버로 구성될 수 있으며, 데이터 처리를 위한 프로세서들과, 커뮤니케이션 중계 서비스 제공을 위한 명령어들을 저장하는 메모리들을 포함할 수 있다.The server system 500 may include at least one computing server and a database server, and may include processors for processing data and memories storing instructions for providing a communication relay service.

이하, 첨부된 도면을 참조하여 커뮤니케이션 시스템의 테이블 탑 시스템에 대해 상세히 설명하고자 한다. Hereinafter, a table top system of a communication system will be described in detail with reference to the accompanying drawings.

- 테이블 탑 시스템 -Table top system

본 발명의 실시예에서 테이블 탑 시스템은, 원격의 컴퓨팅 디바이스(100)로부터 획득되는 촬영영상과, 테이블 탑 디바이스로부터 획득되는 촬영영상의 실제객체에 대응되는 가상객체를 통해 구현된 증강현실 환경을 사용자에게 제공하는 원격 커뮤니케이션 서비스를 구현할 수 있다. In an embodiment of the present invention, the table-top system provides a user with an augmented reality environment implemented through a virtual object corresponding to an actual object of a photographed image obtained from a remote computing device 100 and a photographed image obtained from the table-top device. You can implement a remote communication service provided to you.

자세히, 본 발명의 실시예에서 테이블 탑 시스템은, 테이블 탑 디바이스(400), 가이드 도구(200) 및 컴퓨팅 디바이스(100)를 포함할 수 있다. In detail, in an embodiment of the present invention, the table top system may include a table top device 400, a guide tool 200, and a computing device 100.

1. 테이블 탑 디바이스1. Table Top Device

먼저, 예시적 구현에 따르면 테이블 탑 디바이스(400)는, 기존 데스크 탑 타입의 컴퓨팅 디바이스(100)와 다른 새로운 형상과 구조의 테이블 탑(Tabletop) 형상으로 구현될 수 있고, 이러한 경우 테이블 탑 내에 포함된 시스템을 통해 확장현실 환경을 제공할 수 있다. First, according to an exemplary implementation, the table top device 400 may be implemented in a tabletop shape of a new shape and structure different from the existing desktop type computing device 100, and in this case, it is included in the table top. The extended reality environment can be provided through the system.

즉, 테이블 탑(Tabletop) 디바이스란, 원격 관리자가 현장 작업자의 컴퓨팅 디바이스(100)로부터 수신되는 영상을 용이하게 확인하고, 해당 영상에 표시되는 객체에 대한 작업 가이던스를 가상 컨텐츠를 기반으로 수월하게 입력하는 인터페이스 시스템을 제공하는 장치일 수 있다. That is, with a tabletop device, a remote administrator can easily check an image received from the field worker's computing device 100, and easily input work guidance for an object displayed in the image based on virtual content. It may be a device that provides an interface system to perform.

즉, 테이블 탑 디바이스(400)는, 타 유저의 컴퓨팅 디바이스(100)로부터 획득되는 영상 상에, 현재 위치에서 획득되는 영상의 실제객체를 기반으로 생성되는 가상 컨텐츠를 표시한 증강/혼합현실 영상을 생성 및 제공하는 시스템일 수 있다. That is, the table top device 400 displays an augmented/mixed reality image that displays virtual content generated based on the actual object of the image acquired at the current location on the image acquired from the computing device 100 of another user. It may be a system that creates and provides.

도 4는 본 발명의 실시예에 따른 테이블 탑 디바이스(400)를 설명하기 위한 도면이다. 그리고, 도 5는 본 발명의 실시예에 따른 테이블 탑 디바이스(400)를 보다 상세하게 설명하기 위한 도면이며, 도 6은 본 발명의 실시예에 따른 테이블 탑 디바이스(400)의 내부 블록도이다. 4 is a diagram illustrating a table top device 400 according to an embodiment of the present invention. Further, FIG. 5 is a diagram for explaining in more detail the table top device 400 according to an embodiment of the present invention, and FIG. 6 is an internal block diagram of the table top device 400 according to the embodiment of the present invention.

도 4 및 도 5를 참조하면, 실시예에 따른 테이블 탑 디바이스(400)는, 테이블 탑 하우징을 포함할 수 있다. 4 and 5, the table top device 400 according to the embodiment may include a table top housing.

자세히, 실시예에서 테이블 탑 하우징은, 테이블 탑 디바이스(400)의 외관을 형성하며, 내/외부에 테이블 탑 디바이스(400)의 구동에 필요한 각종 구성요소를 구비할 수 있다. In detail, in the embodiment, the table top housing forms the exterior of the table top device 400 and may include various components necessary for driving the table top device 400 inside/outside.

보다 상세히, 테이블 탑 하우징은, 테이블 탑 하우징을 지면으로부터 지지하는 바닥면(409), 소정의 각도를 가지는 경사면(401), 상기 바닥면(409)과 상기 경사면(401)을 상측면에서 연결하는 연결면(404) 및 상기 바닥면(409)과 상기 경사면(401)을 좌/우측면에서 연결하는 측면(403)을 포함할 수 있다. In more detail, the table top housing includes a bottom surface 409 supporting the table top housing from the ground, an inclined surface 401 having a predetermined angle, and connecting the bottom surface 409 and the inclined surface 401 from the upper surface. It may include a connection surface 404 and a side surface 403 connecting the bottom surface 409 and the inclined surface 401 on left/right sides.

이때, 상기 경사면(401)은, 사용자의 시야 기준에 따라서 상기 소정의 각도가 변동될 수 있다. In this case, the predetermined angle of the inclined surface 401 may be changed according to the user's viewing standard.

즉, 테이블 탑 하우징의 바닥면(409)과 경사면(401)은, 연결면(404) 및 측면(403)을 통하여 소정의 간격을 두고 결합될 수 있으며, 이를 통해 상기 테이블 탑 하우징의 내부에 소정의 공간이 형성될 수 있다. That is, the bottom surface 409 and the inclined surface 401 of the table top housing may be coupled at predetermined intervals through the connection surface 404 and the side surface 403, and through this Space can be formed.

또한, 테이블 탑 하우징 내부에 형성된 소정의 공간에는, 증강현실 기반의 커뮤니케이션 서비스를 제공하는 컴퓨팅 디바이스(100)가 배치될 수 있다. In addition, a computing device 100 providing an augmented reality-based communication service may be disposed in a predetermined space formed inside the table top housing.

더하여, 테이블 탑 하우징은, 적어도 하나 이상의 가이드 도구(200)를 수납할 수 있는 가이드 도구함(415)을 더 포함할 수 있다. In addition, the table top housing may further include a guide tool box 415 capable of accommodating at least one guide tool 200.

자세히, 가이드 도구함(415)은, 테이블 탑 하우징의 일면으로부터 연장되는 박스 형태로 구현될 수도 있고, 테이블 탑 하우징과는 이격된 별개의 유닛으로서 구현될 수도 있다. In detail, the guide tool box 415 may be implemented in the form of a box extending from one surface of the table top housing, or may be implemented as a separate unit spaced apart from the table top housing.

이러한 가이드 도구함(415)은, 다양한 형상으로 구현되는 적어도 하나 이상의 가이드 도구(201, 202, 203, …)를 내부에 수납 및 보관할 수 있다. 가이드 도구(200)에 대한 자세한 설명은 후술하기로 한다. The guide tool box 415 may accommodate and store at least one guide tool 201, 202, 203,… implemented in various shapes therein. A detailed description of the guide tool 200 will be described later.

보다 상세히, 도 6을 더 참조하면, 위와 같은 테이블 탑 하우징의 경사면(401)에는, 디스플레이(471)와 터치 센서(473, 도 6에 도시)를 포함하는 디스플레이 시스템(470)이 배치될 수 있다. In more detail, referring to FIG. 6, a display system 470 including a display 471 and a touch sensor 473 (shown in FIG. 6) may be disposed on the inclined surface 401 of the table top housing. .

또한, 상기 경사면(401)의 하단에는, 가이드 도구(200) 및/또는 기타 기구 등을 올려놓거나 받쳐줄 수 있는 지지턱(402)이 배치될 수 있다. In addition, at the lower end of the inclined surface 401, a support jaw 402 capable of placing or supporting the guide tool 200 and/or other devices may be disposed.

이때, 지지턱(402)은, 테이블 탑 하우징의 경사면(401)과 소정의 각도(예컨대, 90도)를 이루는 장방형의 돌출 형상으로 구현될 수 있다. At this time, the support jaw 402 may be implemented in a rectangular protruding shape forming a predetermined angle (eg, 90 degrees) with the inclined surface 401 of the table top housing.

또한, 테이블 탑 하우징의 경사면(401) 상에는, 카메라 지지대(408)가 더 배치될 수 있다. In addition, a camera support 408 may be further disposed on the inclined surface 401 of the table top housing.

자세히, 카메라 지지대(408)는, 이미지 센서(461)인 카메라(461)를 경사면(401)으로부터 소정의 높이 이상에 이격하여 배치하는 역할을 수행할 수 있다. In detail, the camera support 408 may play a role of disposing the camera 461, which is the image sensor 461, at a predetermined height or more from the inclined surface 401.

또한, 카메라 지지대(408)는, 카메라(461)를 디스플레이(471)로부터 소정의 높이 이상에 배치시키면서 카메라(461)와 디스플레이(471)를 서로 마주볼 수 있도록 배치하는 구조물일 수 있다. Further, the camera support 408 may be a structure in which the camera 461 and the display 471 face each other while the camera 461 is disposed above a predetermined height from the display 471.

이러한 카메라 지지대(408)는, 디스플레이(471)로부터 카메라(461)를 소정의 거리만큼 이격시킬 수 있는 위치라면 경사면(401) 상의 어느 영역에도 배치될 수 있으나, 사용자가 제스처 입력이나 가이드 도구(200)에 기반한 입력을 수행할 시의 가동 영역을 가장 효율적으로 형성할 수 있도록 경사면(401) 상부, 즉 경사면(401)의 가장자리 영역 중 최 상단 중앙 영역에 위치하는 것이 가장 바람직한 실시예일 수 있다. 이하에서는, 카메라 지지대(408)가 경사면(401) 상부에 배치되는 실시예에 한정하여 설명하기로 한다. The camera support 408 may be disposed in any area on the inclined surface 401 as long as the camera 461 can be separated from the display 471 by a predetermined distance, but the user may input a gesture or a guide tool 200. In order to most efficiently form a movable area when performing an input based on ), it may be the most preferable embodiment to be positioned above the inclined surface 401, that is, in the uppermost central area of the edge areas of the inclined surface 401. Hereinafter, the description will be limited to an embodiment in which the camera support 408 is disposed on the inclined surface 401.

보다 상세히, 카메라 지지대(408)는, 제 1 지지대(405), 제 2 지지대(406) 및 카메라 하우징(407)을 포함할 수 있다. In more detail, the camera support 408 may include a first support 405, a second support 406, and a camera housing 407.

여기서, 제 1 지지대(405)는, 경사면(401) 상단의 일측(예컨대, 중앙)으로부터, 상기 경사면(401)과 이격되는 방향인 타측 방향으로 연장되는 바(bar) 형상으로 구현될 수 있다. Here, the first support 405 may be implemented in a bar shape extending from one side (eg, the center) of the top of the inclined surface 401 to the other side, which is a direction spaced apart from the inclined surface 401.

이러한 제 1 지지대(405)는, 내부에 전선(L)이 통과할 수 있는 통로를 제공하는 소정의 내부 홈을 포함할 수 있다. The first support 405 may include a predetermined inner groove providing a passage through which the electric wire L can pass.

또한, 본 발명의 실시예에서 제 1 지지대(405)는, 소정의 방식을 통해 길이 조절이 가능할 수 있다. In addition, in the embodiment of the present invention, the length of the first support 405 may be adjustable through a predetermined method.

예를 들면, 제 1 지지대(405)는, 직선 왕복 운동으로 동력을 전달하는 막대 형태의 다단 샤프트로 구현되어 그 길이가 조절될 수 있다. 이때, 제 1 지지대(405)는, 사용자가 제 1 지지대(405)를 수동으로 조정함으로써 길이가 변경될 수도 있고, 제 1 지지대(405)의 길이를 설정하는 길이 조정 인터페이스에 기반한 사용자 입력을 기반으로 길이가 변경될 수도 있다. 또한, 제 1 지지대(405)는, 테이블 탑 디바이스(400)의 확장현실 어플리케이션에 기설정된 소정의 기준(예컨대, 기정의된 카메라(461)와 디스플레이(471) 간 필수 유지거리 조건 등)에 따라서 자동으로 길이가 조정될 수도 있다. For example, the first support 405 may be implemented as a rod-shaped multi-stage shaft that transmits power through a linear reciprocating motion, and its length may be adjusted. At this time, the length of the first support 405 may be changed by manually adjusting the first support 405 by the user, or based on a user input based on a length adjustment interface for setting the length of the first support 405. The length can also be changed. In addition, the first support 405, according to a predetermined criterion (e.g., a pre-defined essential maintenance distance condition between the camera 461 and the display 471) set in the extended reality application of the table top device 400 The length can also be adjusted automatically.

즉, 제 1 지지대(405)는, 소정의 방식으로 자체의 길이가 조절되어 카메라(461)와 디스플레이(471) 간의 거리를 조정하게 할 수 있고, 이를 통해 추후 디스플레이(471)를 통해 출력되는 영상 및 해당 영상에 대한 사용자 입력을 모두 원활하게 감지하도록 보조할 수 있다. That is, the first support 405 may adjust its length in a predetermined manner to adjust the distance between the camera 461 and the display 471, and through this, an image output through the display 471 at a later time. And it is possible to assist to smoothly detect all user inputs for the corresponding image.

한편, 제 2 지지대(406)는, 일단이 제 1 지지대(405)로부터 소정의 각도(예컨대, 수직)으로 꺾여서 연장되는 형태의 바(bar) 형상으로 구현될 수 있다. Meanwhile, the second support 406 may be implemented in a bar shape in which one end is bent at a predetermined angle (eg, vertically) from the first support 405 and extends.

이러한 제 2 지지대(406)는, 제 1 지지대(405)의 내부 홈으로부터 연장되는 형태의 내부 홈을 포함할 수 있으며, 제 1 지지대(405)의 내부 홈과 마찬가지로 전선(L)이 통과할 수 있는 통로를 제공할 수 있다. The second support 406 may include an inner groove extending from the inner groove of the first support 405, and like the inner groove of the first support 405, the electric wire L can pass. Can provide a passageway.

또한, 제 2 지지대(406)의 타단에는, 적어도 둘 이상의 카메라(461)를 배치할 수 있는 카메라 하우징(407)이 형성될 수 있다. In addition, at the other end of the second support 406, a camera housing 407 may be formed in which at least two cameras 461 may be disposed.

여기서, 디스플레이(471) 측을 촬영하는 카메라(461)의 화각이 비틀어지면, 해당 카메라(461)는 디스플레이(471)를 정면으로 마주보지 못하게 되고, 이 경우 상기 카메라(461)로 촬영된 영상의 디스플레이(471) 화면이 왜곡(예컨대, 직사각형의 디스플레이(471) 화면이 사다리꼴 형상으로 왜곡)될 수 있다. Here, when the angle of view of the camera 461 photographing the display 471 is twisted, the corresponding camera 461 cannot face the display 471 in front, and in this case, the image taken by the camera 461 is The screen of the display 471 may be distorted (for example, the screen of the rectangular display 471 may be distorted in a trapezoidal shape).

위와 같은 경우를 대비하여, 본 발명의 실시예에서 카메라 하우징(407)은, 카메라 하우징(407)에 배치된 적어도 하나 이상의 카메라(461)가 테이블 탑 디바이스(400)의 디스플레이(471)를 정면으로 바라보는 화각을 형성하도록 제 2 지지대(406) 상에 배치될 수 있다. In preparation for the above case, in the embodiment of the present invention, in the camera housing 407, at least one camera 461 disposed in the camera housing 407 faces the display 471 of the table top device 400 in front. It may be disposed on the second support 406 to form a viewing angle of view.

즉, 실시예에서 카메라 하우징(407)이 디스플레이(471)를 정면으로 바라보는 화각을 가지도록 배치됨으로써, 추후 디스플레이(471)를 통해 출력되는 영상 및 해당 영상에 대한 사용자 입력을 모두 빠짐없이 감지하게 할 수 있다. That is, in the embodiment, the camera housing 407 is arranged to have an angle of view facing the display 471 in front, so that an image output through the display 471 and a user input to the image can be detected without fail. can do.

다른 실시예에서, 카메라 지지대(408)의 변형으로 인해 카메라 하우징(407)의 카메라(461) 화각이 테이블 탑 디바이스(400)의 디스플레이(471)를 정면으로 바라보지 않는 경우, 테이블 탑 디바이스(400)의 확장현실 어플리케이션은, 와핑(warping) 프로세스를 수행하여 디스플레이(471) 화면의 왜곡을 최소화할 수 있다. 이에 대한 자세한 설명은 후술하기로 한다. In another embodiment, when the camera 461 field of view of the camera housing 407 does not face the display 471 of the table top device 400 due to the deformation of the camera support 408, the table top device 400 The extended reality application of) can minimize distortion of the screen of the display 471 by performing a warping process. A detailed description of this will be described later.

또한, 위와 같은 카메라 하우징(407)은, 내부에 적어도 하나 이상의 카메라(461)를 구비하고 있다가, 상기 카메라(461)를 노출시키는 제어 신호가 감지되면 개방되도록 동작할 수 있다. In addition, the camera housing 407 as described above has at least one camera 461 therein, and may operate to be opened when a control signal exposing the camera 461 is detected.

여기서, 카메라 하우징(407)에 포함되는 카메라(461)는, 실시예에서 소정의 간격을 두고 이격된 적어도 둘 이상의 카메라(461-1, 461-2)를 포함하는 스테레오 카메라(461)일 수 있다. Here, the camera 461 included in the camera housing 407 may be a stereo camera 461 including at least two cameras 461-1 and 461-2 spaced apart at a predetermined interval in the embodiment. .

또한, 카메라 하우징(407)은, 위와 같은 스테레오 카메라(461)를 수용하기 위하여 상기 제 2 지지대(406)의 길이 방향과 수직한 방향으로의 폭이 연장되는 형태로 형성될 수 있다. In addition, the camera housing 407 may be formed in a shape in which a width in a direction perpendicular to the length direction of the second support 406 is extended to accommodate the stereo camera 461 as described above.

본 발명의 실시예에서 위와 같은 구성요소들을 포함하는 테이블 탑 디바이스(400)는, 원격의 컴퓨팅 디바이스(100)로부터 획득되는 촬영영상을 상기 디스플레이 시스템(470)을 기반으로 제공할 수 있고, 상기 카메라(461)를 기초로 획득되는 촬영영상의 실제객체에 대응되는 가상객체를 구현할 수 있으며, 구현된 가상객체를 증강함으로써 생성되는 가상 컨텐츠를 사용자에게 제공하는 원격 커뮤니케이션 서비스를 구현할 수 있다. In an embodiment of the present invention, the table top device 400 including the above components may provide a photographed image acquired from a remote computing device 100 based on the display system 470, and the camera A virtual object corresponding to the real object of the captured image obtained based on 461 can be implemented, and a remote communication service that provides virtual content generated by augmenting the implemented virtual object to the user can be implemented.

한편, 위와 같은 테이블 탑 디바이스(400)는, 예시적으로 메모리(410), 프로세서 어셈블리(420), 통신 모듈(430), 인터페이스 모듈(440), 입력 시스템(450), 센서 시스템(460) 및 디스플레이 시스템(470)을 포함할 수 있다. 또한, 상기 구성요소들은 테이블 탑 하우징 내에 포함되도록 구현될 수 있다. Meanwhile, the table top device 400 as described above is illustratively a memory 410, a processor assembly 420, a communication module 430, an interface module 440, an input system 450, a sensor system 460, and A display system 470 may be included. In addition, the components may be implemented to be included in the table top housing.

자세히, 메모리(410)에는, 확장현실 어플리케이션(411)이 저장되며, 확장현실 어플리케이션(411)에는 확장현실 환경을 제공하기 위한 가상 컨텐츠, 이미지 버퍼, 위치 엔진, 가상 컨텐츠 디스플레이(471) 엔진 등이 포함될 수 있다. 즉, 메모리(410)는 확장현실 환경을 생성하기 위해 사용될 수 있는 명령 및 데이터를 저장할 수 있다. In detail, in the memory 410 , an extended reality application 411 is stored, and in the extended reality application 411, virtual contents, image buffers, location engines, and virtual contents display 471 engines for providing an extended reality environment are provided. Can be included. That is, the memory 410 may store commands and data that can be used to create an extended reality environment.

실시예에서 확장현실 어플리케이션(411)은, 확장현실 환경에 기초하여 커뮤니케이션을 수행하기 위한 커뮤니케이션 어플리케이션을 포함할 수 있다. 커뮤니케이션 어플리케이션은, 네트워크 속도 반응형 확장현실 커뮤니케이션 서비스를 제공하기 위한 각종 어플리케이션, 엔진, 데이터 및 명령어를 포함할 수 있다. In an embodiment, the extended reality application 411 may include a communication application for performing communication based on the extended reality environment. The communication application may include various applications, engines, data, and commands for providing a network speed responsive extended reality communication service.

또한, 메모리(410)는, 적어도 하나 이상의 비일시적 컴퓨터 판독 가능 저장매체와, 일시적 컴퓨터 판독 가능 저장매체를 포함할 수 있다. 예를 들어, 메모리(410)는, ROM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기일 수 있고, 인터넷(internet)상에서 상기 메모리(410)의 저장 기능을 수행하는 웹 스토리지(web storage)를 포함할 수 있다. Further, the memory 410 may include at least one non-transitory computer-readable storage medium and a temporary computer-readable storage medium. For example, the memory 410 may be various storage devices such as ROM, EPROM, flash drive, hard drive, etc., and a web storage that performs a storage function of the memory 410 on the Internet. It may include.

프로세서 어셈블리(420)는, 확장현실 환경을 생성하기 위한 다양한 작업을 수행하기 위해, 메모리(410)에 저장된 확장현실 어플리케이션(411)의 명령들을 실행할 수 있는 적어도 하나 이상의 프로세서를 포함할 수 있다. The processor assembly 420 may include at least one processor capable of executing instructions of the extended reality application 411 stored in the memory 410 in order to perform various tasks for creating an extended reality environment.

실시예에서 프로세서 어셈블리(420)는, 네트워크 속도 반응형 확장현실(XR) 커뮤니케이션 서비스를 제공하기 위하여 메모리(410)의 확장현실 어플리케이션(411)을 통해 구성요소의 전반적인 동작을 컨트롤할 수 있다. In an embodiment, the processor assembly 420 may control the overall operation of a component through the extended reality application 411 of the memory 410 in order to provide a network speed responsive extended reality (XR) communication service.

예를 들어, 프로세서 어셈블리(420)는, 이미지 센서(461)를 기반으로 획득된 영상으로부터 실제객체를 인식할 수 있고, 인식된 실제객체에 가상 컨텐츠를 매칭한 증강현실 영상을 생성하고 표시하도록 컴퓨팅 디바이스(100)의 구성요소들을 제어할 수 있다. For example, the processor assembly 420 can recognize a real object from an image acquired based on the image sensor 461, and computes to generate and display an augmented reality image matching virtual content with the recognized real object. Components of the device 100 can be controlled.

이러한 프로세서 어셈블리(420)는, 중앙처리장치(CPU) 및/또는 그래픽 프로세서 장치(GPU)를 포함할 수 있다. 또한, 프로세서 어셈블리(420)는, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세스(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 포함하여 구현될 수 있다. The processor assembly 420 may include a central processing unit (CPU) and/or a graphic processor unit (GPU). In addition, the processor assembly 420 includes application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), and controllers. ), micro-controllers, microprocessors, and electrical units for performing other functions.

통신 모듈(430)은, 다른 컴퓨팅 장치(예컨대, 서버 시스템(500))와 통신하기 위한 하나 이상의 장치를 포함할 수 있다. 이러한 통신 모듈(430)은, 무선 네트워크를 통해 통신할 수 있다. The communication module 430 may include one or more devices for communicating with other computing devices (eg, server system 500). The communication module 430 may communicate through a wireless network.

자세히, 통신 모듈(430)은, 확장현실 환경을 구현하기 위한 가상 컨텐츠 소스를 저장한 컴퓨팅 장치와 통신할 수 있으며, 사용자 입력을 받은 컨트롤러와 같은 다양한 사용자 입력 컴포넌트와 통신할 수 있다. In detail, the communication module 430 may communicate with a computing device storing a virtual content source for implementing an extended reality environment, and may communicate with various user input components such as a controller that receives a user input.

실시예에서 통신 모듈(430)은, 네트워크 속도 반응형 확장현실(XR) 커뮤니케이션 서비스와 관련된 커뮤니케이션 데이터를 서버 시스템(500) 및/또는 다른 컴퓨팅 디바이스(100)와 송수신할 수 있다. In an embodiment, the communication module 430 may transmit and receive communication data related to a network speed responsive extended reality (XR) communication service with the server system 500 and/or other computing device 100.

이러한 통신 모듈(430)은, 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced),5G NR(New Radio), WIFI) 또는 근거리 통신방식 등을 수행할 수 있는 통신장치를 통해 구축된 이동 통신망 상에서 기지국, 외부의 단말, 임의의 서버 중 적어도 하나와 무선으로 데이터를 송수신할 수 있다.These communication modules 430, technical standards or communication methods for mobile communication (e.g., LTE (Long Term Evolution), LTE-A (Long Term Evolution-Advanced), 5G NR (New Radio), WIFI) Alternatively, data may be wirelessly transmitted and received with at least one of a base station, an external terminal, and an arbitrary server on a mobile communication network established through a communication device capable of performing a short-range communication method.

센서 시스템(460)은, 이미지 센서(461), 위치 센서(IMU, 463), 오디오 센서(465), 거리 센서, 근접 센서, 접촉 센서 등 다양한 센서를 포함할 수 있다. The sensor system 460 may include various sensors such as an image sensor 461, a position sensor (IMU, 463), an audio sensor 465, a distance sensor, a proximity sensor, and a contact sensor.

이미지 센서(461)는, 컴퓨팅 디바이스(100) 주위의 물리적 공간에 대한 이미지 및/또는 영상을 캡처할 수 있다. The image sensor 461 may capture an image and/or an image of a physical space around the computing device 100.

실시예에서 이미지 센서(461)는, 네트워크 속도 반응형 확장현실(XR) 커뮤니케이션 서비스에 관련된 영상을 촬영하여 획득할 수 있다.In an embodiment, the image sensor 461 may acquire and capture an image related to a network speed responsive extended reality (XR) communication service.

또한, 이미지 센서(461)는, 컴퓨팅 디바이스(100)의 전면 또는/및 후면에 배치되어 배치된 방향에서의 촬영 방향으로 영상을 획득할 수 있으며, 컴퓨팅 디바이스(100)의 외부를 향해 배치된 카메라를 통해 작업 현장과 같은 물리적 공간을 촬영할 수 있다. In addition, the image sensor 461 may be disposed on the front or/and the rear of the computing device 100 to acquire an image in a photographing direction in the disposed direction, and the camera disposed toward the outside of the computing device 100 Through this, it is possible to photograph a physical space such as a work site.

이러한 이미지 센서(461)는, 이미지 센서(461)와 영상 처리 모듈을 포함할 수 있다. 자세히, 이미지 센서(461)는, 이미지 센서(461)(예를 들면, CMOS 또는 CCD)에 의해 얻어지는 정지영상 또는 동영상을 처리할 수 있다. The image sensor 461 may include an image sensor 461 and an image processing module. In detail, the image sensor 461 may process a still image or a moving picture obtained by the image sensor 461 (eg, CMOS or CCD).

또한, 이미지 센서(461)는, 영상 처리 모듈을 이용하여 이미지 센서(461)를 통해 획득된 정지영상 또는 동영상을 가공해 필요한 정보를 추출하고, 추출된 정보를 프로세서에 전달할 수 있다.In addition, the image sensor 461 may extract necessary information by processing a still image or a moving image acquired through the image sensor 461 using an image processing module, and transmit the extracted information to the processor.

이러한 이미지 센서(461)는, 적어도 하나 이상의 카메라를 포함하는 카메라 어셈블리일 수 있다. 카메라 어셈블리는, 가시광선 대역을 촬영하는 일반 카메라를 포함할 수 있으며, 적외선 카메라, 스테레오 카메라 등의 특수 카메라를 더 포함할 수 있다. The image sensor 461 may be a camera assembly including at least one camera. The camera assembly may include a general camera for photographing a visible light band, and may further include a special camera such as an infrared camera and a stereo camera.

IMU(463)는 컴퓨팅 디바이스(100)의 움직임 및 가속도 중 적어도 하나 이상을 감지할 수 있다. 예를 들어, 가속도계, 자이로스코프, 자력계와 같은 다양한 위치 센서의 조합으로 이루어 질 수 있다. 또한, 통신 모듈(430)의 GPS와 같은 위치 통신 모듈(430)과 연동하여, 컴퓨팅 디바이스(100) 주변의 물리적 공간에 대한 공간 정보를 인식할 수 있다. The IMU 463 may detect at least one or more of motion and acceleration of the computing device 100. For example, it can be made of a combination of various position sensors such as an accelerometer, a gyroscope, and a magnetometer. In addition, by interlocking with the location communication module 430 such as GPS of the communication module 430, spatial information on a physical space around the computing device 100 may be recognized.

또한, IMU(463)는, 검출된 위치 및 방향을 기초로 사용자의 시선 방향 및 머리 움직임을 검출 및 추적하는 정보를 검출할 수 있다. Also, the IMU 463 may detect information for detecting and tracking a user's gaze direction and head movement based on the detected position and direction.

또한, 일부 구현들에서, 확장현실 어플리케이션(411)은 이러한 IMU(463) 및 이미지 센서(461)를 사용하여 물리적 공간 내의 사용자의 위치 및 방향을 결정하거나 물리적 공간 내의 특징 또는 객체를 인식할 수 있다.In addition, in some implementations, the extended reality application 411 may use these IMUs 463 and image sensors 461 to determine the location and orientation of the user in the physical space or to recognize a feature or object in the physical space. .

오디오 센서(465)는, 컴퓨팅 디바이스(100) 주변의 소리를 인식할 수 있다. The audio sensor 465 may recognize sound around the computing device 100.

자세히, 오디오 센서(465)는, 컴퓨팅 디바이스(100) 사용자의 음성 입력을 감지할 수 있는 마이크로폰을 포함할 수 있다. In detail, the audio sensor 465 may include a microphone capable of detecting a voice input of a user of the computing device 100.

실시예에서 오디오 센서(465)는 확장현실 커뮤니케이션 서비스를 통해 전송할 커뮤니케이션 데이터의 음성 데이터를 사용자로부터 입력 받을 수 있다.In an embodiment, the audio sensor 465 may receive voice data of communication data to be transmitted through an extended reality communication service from a user.

인터페이스 모듈(440)은, 컴퓨팅 디바이스(100)를 하나 이상의 다른 장치와 통신 가능하게 연결할 수 있다. 자세히, 인터페이스 모듈(440)은, 하나 이상의 상이한 통신 프로토콜과 호환되는 유선 및/또는 무선 통신 장치를 포함할 수 있다. The interface module 440 may connect the computing device 100 to communicate with one or more other devices. In detail, the interface module 440 may include wired and/or wireless communication devices compatible with one or more different communication protocols.

이러한 인터페이스 모듈(440)을 통해 컴퓨팅 디바이스(100)는, 여러 입출력 장치들과 연결될 수 있다. The computing device 100 may be connected to various input/output devices through the interface module 440.

예를 들어, 인터페이스 모듈(440)은, 헤드셋 포트나 스피커와 같은 오디오 출력장치와 연결되어, 오디오를 출력할 수 있다. For example, the interface module 440 may be connected to an audio output device such as a headset port or a speaker to output audio.

예시적으로 오디오 출력장치가 인터페이스 모듈(440)을 통해 연결되는 것으로 설명하였으나, 컴퓨팅 디바이스(100) 내부에 설치되는 실시예도 포함될 수 있다. As an example, it has been described that the audio output device is connected through the interface module 440, but an embodiment installed inside the computing device 100 may also be included.

이러한 인터페이스 모듈(440)은, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port), 전력 증폭기, RF 회로, 송수신기 및 기타 통신 회로 중 적어도 하나를 포함하여 구성될 수 있다. The interface module 440 connects a wired/wireless headset port, an external charger port, a wired/wireless data port, a memory card port, and a device equipped with an identification module. Ports, audio input/output (I/O) ports, video input/output (I/O) ports, earphone ports, power amplifiers, RF circuits, transceivers and other communication circuits It may be configured to include at least one of.

입력 시스템(450)은 네트워크 속도 반응형 확장현실(XR) 커뮤니케이션 서비스와 관련된 사용자의 입력(예를 들어, 제스처, 음성 명령, 버튼의 작동 또는 다른 유형의 입력)을 감지할 수 있다. The input system 450 may sense a user's input (eg, gesture, voice command, button operation, or other type of input) related to a network speed responsive extended reality (XR) communication service.

자세히, 입력 시스템(450)은 버튼, 터치 센서(473) 및 사용자 모션 입력을 수신하는 이미지 센서(461)를 포함할 수 있다. In detail, the input system 450 may include a button, a touch sensor 473, and an image sensor 461 that receives a user motion input.

또한, 입력 시스템(450)은, 인터페이스 모듈(440)을 통해 외부 컨트롤러와 연결되어, 사용자의 입력을 수신할 수 있다. In addition, the input system 450 may be connected to an external controller through the interface module 440 and may receive a user's input.

실시예에서 디스플레이 시스템(470)은, 증강현실 기반의 커뮤니케이션 시스템을 제공하는 테이블 탑 서비스와 관련된 다양한 정보를 그래픽 이미지로 출력할 수 있다. In an embodiment, the display system 470 may output various information related to a table top service providing an augmented reality-based communication system as a graphic image.

이러한 디스플레이(471)는, 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다. Such a display 471 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display ( flexible display), a 3D display, and an e-ink display.

또한, 예시의 테이블 탑 디바이스(400)는, 디스플레이 시스템(470)을 통해 타 컴퓨팅 디바이스(100)에서 촬영된 촬영영상과, 상기 촬영영상에 연관된 가상 컨텐츠를 출력하여 확장현실 환경을 사용자에게 제공할 수 있다. In addition, the example table top device 400 outputs a photographed image captured by another computing device 100 through the display system 470 and virtual content related to the photographed image to provide an extended reality environment to the user. I can.

또한, 테이블 탑 디바이스(400)는, 디스플레이 시스템(470)의 디스플레이(471) 상에 터치 센서(473)를 통해 촬영영상에 대한 사용자의 포인팅, 드래그 등의 터치 입력을 받는 입출력 인터페이스를 제공할 수 있다. In addition, the table top device 400 may provide an input/output interface for receiving a touch input such as a user's pointing or dragging on the captured image through the touch sensor 473 on the display 471 of the display system 470. have.

또한, 테이블 탑 디바이스(400)는, 디스플레이 시스템(470) 상에 배치된 센서 시스템(460)(예컨대, 이미지 센서(461))를 통해 사용자의 손(LH, RH)의 제스처 입력을 수신할 수 있으며, 가이드 도구(200)(Guide tool, GT)에 따른 동작 입력을 수신할 수 있다. 이러한 제스처 입력과 가이드 도구(200)의 동작 입력 또한 디스플레이(471)에 촬영영상에 대응하여 입력될 수 있으며, 컴퓨팅 디바이스(100)는 촬영영상에 표시된 실제객체 이미지에 매칭하여 상기 사용자 입력을 감지할 수 있다. In addition, the table top device 400 may receive a gesture input of a user's hand (LH, RH) through a sensor system 460 (eg, an image sensor 461) disposed on the display system 470. In addition, a motion input according to the guide tool 200 (GT) may be received. The gesture input and the motion input of the guide tool 200 may also be input to the display 471 in response to the captured image, and the computing device 100 may detect the user input by matching the actual object image displayed on the captured image. I can.

즉, 실시예에 따른 테이블 탑 디바이스(400)의 확장현실 어플리케이션(411)은, 센서 시스템(460)을 통해 획득된 사용자 입력 기반으로 가상 컨텐츠를 시각화하여 제공하는 서비스를 구현하기 위한 일련의 프로세스를 실행할 수 있다. 이때, 사용자 입력은 디스플레이(471)에 표시된 촬영영상에 대응하여 수행되기 때문에, 입출력 인터페이스를 함께 제공함으로써, 사용자는 좀더 직관적으로 촬영영상에 대한 사용자 입력이 가능할 수 있다.That is, the extended reality application 411 of the table top device 400 according to the embodiment performs a series of processes for implementing a service that visualizes and provides virtual content based on a user input acquired through the sensor system 460. You can do it. In this case, since the user input is performed corresponding to the captured image displayed on the display 471, by providing an input/output interface together, the user can more intuitively input the user for the captured image.

2. 가이드 도구2. Guide tool

한편, 본 발명의 실시예에서 가이드 도구(200: Guide tool, GT)란, 테이블 탑 디바이스(400)의 디스플레이(471)에서 표시되는 촬영영상에 대응하여 가상객체를 증강하기 위한 매개체일 수 있다. Meanwhile, in the embodiment of the present invention, the guide tool 200 may be a medium for augmenting a virtual object in response to a photographed image displayed on the display 471 of the table top device 400.

자세히, 가이드 도구(200)는, 외형 또는 가이드 도구(200)에 배치된 마커등의 식별정보와 매칭된 특정 가상객체(예컨대, 드라이버, 스패너 또는 플라이어 등과 같은 각종 공구를 나타내는 가상객체)와 매칭되는 실제객체일 수 있다. In detail, the guide tool 200 is matched with a specific virtual object (e.g., a virtual object representing various tools such as a screwdriver, spanner, or plier) matched with the appearance or identification information such as a marker disposed on the guide tool 200 It can be a real object.

이러한 가이드 도구(200)는, 특정하려는 가상객체의 종류에 따라서 다양한 형상으로 구현될 수 있다. The guide tool 200 may be implemented in various shapes according to the type of virtual object to be specified.

예를 들면, 제 1 가이드 도구(200)는 '드라이버' 형상, 제 2 가이드 도구(200)는 '스패너' 형상 그리고 제 3 가이드 도구(200)는 '플라이어' 형상을 가지도록 구현될 수 있다. For example, the first guide tool 200 may have a'driver' shape, the second guide tool 200 may have a'spanner' shape, and the third guide tool 200 may have a'plier' shape.

실시예에서, 위와 같은 가이드 도구(200)는, 테이블 탑 디바이스(400)의 카메라에 의하여 실제객체로서 검출될 수 있다. 그리고 검출된 가이드 도구(200)의 형상, 자세 및 촬영영상과의 위치관계에 따라 상호작용되며 증강된 가상객체가 생성될 수 있다. 이에 대한 자세한 설명은 후술하기로 한다. In an embodiment, the guide tool 200 as described above may be detected as an actual object by the camera of the table top device 400. In addition, an augmented virtual object may be generated by interacting according to the detected shape, posture, and positional relationship with the photographed image of the guide tool 200. A detailed description of this will be described later.

다시 돌아와서, 실시예에서 가이드 도구(200) 정보를 생성하기 위해 테이블 탑 디바이스(400)는, 먼저 가이드 도구(200)의 식별정보를 메모리 상에 미리 저장할 수 있다. Returning again, in order to generate the guide tool 200 information in the embodiment, the table top device 400 may first store identification information of the guide tool 200 in a memory in advance.

여기서, 식별정보란, 가이드 도구(200)를 식별하기 위한 정보로서, 가이드 도구(200)의 외형을 이미지를 학습하여 획득된 특징 정보 또는/및 가이드 도구(200)에 부착된 마커의 특징 정보일 수 있다. Here, the identification information is information for identifying the guide tool 200, and is feature information obtained by learning an image of the appearance of the guide tool 200 or/and feature information of a marker attached to the guide tool 200. I can.

예를 들면, 테이블 탑 디바이스(400)는, 메모리 상에, '드라이버' 형상을 가지는 제 1 가이드 도구(200)의 식별정보, '스패너' 형상을 가지는 제 2 가이드 도구(200)의 식별정보 또는 '플라이어' 형상을 가지는 제 3 가이드 도구(200)의 식별정보를 획득하여 저장할 수 있다. For example, the table top device 400 may include identification information of the first guide tool 200 having a'driver' shape, identification information of the second guide tool 200 having a'spanner' shape, or Identification information of the third guide tool 200 having a'flyer' shape may be acquired and stored.

이를 위해, 테이블 탑 디바이스(400)는, 카메라를 통해 가이드 도구(200)를 촬영하여 외형의 특징 정보를 학습하여 획득하거나, 가이드 도구(200) 상에 배치된 마커의 특징 정보를 학습하여 획득할 수 있다. To this end, the table top device 400 acquires by taking a picture of the guide tool 200 through a camera to learn feature information of the appearance, or by learning feature information of a marker disposed on the guide tool 200. I can.

또한, 테이블 탑 디바이스(400)는, 가이드 도구(200) 식별정보에 매칭되는 적어도 하나 이상의 가상객체 정보를 메모리 상에 미리 저장할 수 있다. In addition, the table top device 400 may previously store information on at least one virtual object matching the identification information of the guide tool 200 in a memory.

여기서, 가상객체란, 가이드 도구(200)의 형상이 상징하는 특정 객체(예컨대, 드라이버, 스패너 또는 플라이어 등과 같은 각종 공구의 가상 형상)에 관련된 실제 형상을 기반으로 모델링되어 가상으로 시각화된 객체일 수 있다. Here, the virtual object may be an object modeled based on an actual shape related to a specific object (e.g., a virtual shape of various tools such as a screwdriver, a spanner, or a plier) symbolized by the shape of the guide tool 200 and visualized virtually. have.

이러한 가상객체는, 해당하는 가이드 도구(200) 식별정보에 매칭되어 메모리 상에 저장 및 관리될 수 있다. Such a virtual object may be matched with the identification information of the corresponding guide tool 200 and stored and managed in a memory.

예를 들면, 테이블 탑 디바이스(400)는, 제 1 가이드 도구(200) 식별정보에 매칭되는 제 1 가상객체, 제 2 가상객체 및 제 3 가상객체를 저장할 수 있다. For example, the table top device 400 may store a first virtual object, a second virtual object, and a third virtual object matching the identification information of the first guide tool 200.

이때, 제 1 가이드 도구(200)가 '플라이어' 형상인 경우, 제 1 가상객체는 플라이어의 일 종류인 '펜치'의 실제 형상에 기초하여 모델링된 가상객체, 제 2 가상객체는 플라이어의 다른 일 종류인 '롱로우즈 플라이어'의 실제 형상에 기초하여 모델링된 가상객체, 제 3 가상객체는 플라이어의 또 다른 일 종류인 '바이스플라이어'의 실제 형상에 기초하여 모델링된 가상객체일 수 있다. At this time, when the first guide tool 200 is in the shape of a'flyer', the first virtual object is a virtual object modeled based on the actual shape of the'pliers', which is a kind of pliers, and the second virtual object is another object of the pliers. The virtual object modeled based on the actual shape of the'Long Rose Flyer', which is a type, and the third virtual object, may be virtual objects modeled based on the actual shape of the'Vice Flyer', which is another type of the flyer.

또한, 테이블 탑 디바이스(400)는, 위와 같은 가이드 도구(200) 식별정보 및 해당 가이드 도구(200) 식별정보에 매칭되는 가상객체 정보를 포함하여 가이드 도구(200) 정보를 생성할 수 있다. 그리고 테이블 탑 디바이스(400)는, 생성된 가이드 도구(200) 정보를 메모리에 저장 및 관리할 수 있다. In addition, the table top device 400 may generate the guide tool 200 information including identification information of the guide tool 200 and virtual object information matching the identification information of the guide tool 200 as described above. In addition, the table top device 400 may store and manage the generated guide tool 200 information in a memory.

이와 같이, 실시예에서 테이블 탑 디바이스(400)는, 다양한 형상을 가지는 가이드 도구(200)에 매칭되는 복수의 가상객체를 저장해 놓음으로써, 추후 가이드 도구(200)에 기반한 가상객체를 영상 상에 시각화하여 제공하는 서비스를 구현할 수 있다. As described above, in the embodiment, the table top device 400 stores a plurality of virtual objects matching the guide tool 200 having various shapes, so that the virtual object based on the guide tool 200 is visualized on an image. The provided service can be implemented.

3. 컴퓨팅 디바이스3. Computing device

본 발명의 실시예에서 컴퓨팅 디바이스(100)는, 사용자에게 확장현실 환경을 제공하며, 이러한 확장현실 환경 내에서 음성, 화상 및 실제객체와 대응된 가상 컨텐츠를 이용하여 타사용자와 커뮤니케이션할 수 있는 확장현실 어플리케이션을 실행할 수 있다. In an embodiment of the present invention, the computing device 100 provides an extended reality environment to a user, and in this extended reality environment, an extension capable of communicating with other users using virtual contents corresponding to voice, image, and real objects You can run real applications.

이러한 컴퓨팅 디바이스(100)는, 확장현실 어플리케이션이 설치된 다양한 타입(예컨대, 웨어러블 타입, 모바일 타입, 데스크 탑 타입 또는 테이블 탑 타입)의 컴퓨팅 디바이스(100)를 포함할 수 있다. The computing device 100 may include a computing device 100 of various types (eg, a wearable type, a mobile type, a desktop type, or a table top type) on which an extended reality application is installed.

1. 웨어러블 타입의 컴퓨팅 디바이스(101, 102)1. Wearable type computing device (101, 102)

도 2는 본 발명의 실시예에 따른 웨어러블 타입의 컴퓨팅 디바이스(101, 102)를 통해 확장현실 환경을 경험하는 개념도이고, 도 7은 본 발명의 실시예에 따른 웨어러블 타입의 컴퓨팅 디바이스(101, 102)의 내부 블록도이다. 2 is a conceptual diagram illustrating an extended reality environment through wearable type computing devices 101 and 102 according to an embodiment of the present invention, and FIG. 7 is a wearable type computing device 101 and 102 according to an embodiment of the present invention. ) Is an internal block diagram.

도 2 및 7을 참조하면, 실시예에 따른 컴퓨팅 디바이스(101, 102)는, 스마트 글래스(smart glasses display)나 헤드 마운티드 디스플레이(HMD)와 같은 웨어러블 타입의 컴퓨팅 디바이스(101, 102)를 포함할 수 있다. 2 and 7, the computing devices 101 and 102 according to the embodiment may include wearable type computing devices 101 and 102 such as a smart glasses display or a head-mounted display (HMD). I can.

스마트 글라스 타입의 컴퓨팅 디바이스(101)는, 착용되는 동안 사용자가 주변 물리적 공간을 볼 수 있도록 광을 투과하면서 사용자의 시야 상에 가상 컨텐츠(예컨대, 가상객체 이미지)를 표시하는 글라스를 포함하는 디스플레이 시스템(470)을 포함할 수 있다. The smart glass-type computing device 101 is a display system including a glass that transmits light so that the user can see the surrounding physical space while being worn and displays virtual content (eg, virtual object image) on the user's field of view. (470) may be included.

자세히, 실시예의 컴퓨팅 디바이스(101)는, 주변 물리적 공간으로부터의 광이 사용자의 눈에 도달하도록 투과함과 동시에, 디스플레이 시스템(470)에 의해 표시된 가상 컨텐츠를 사용자의 눈을 향해 반사시키는 투명한 글래스 디스플레이(471)를 포함할 수 있다. In detail, the computing device 101 of the embodiment is a transparent glass display that transmits light from the surrounding physical space to reach the user's eyes and reflects the virtual content displayed by the display system 470 toward the user's eyes. (471) may be included.

예를 들어, 도 2를 참조하면, 컴퓨팅 디바이스(101)의 확장현실 어플리케이션은, 주변 물리적 공간(20)에서 실제객체(RO)와 실제객체 내 마커(MK) 등을 이미지 인식할 수 있으며, 인식된 마커(MK)에 대응되는 사용자의 시야에 가상 컨텐츠(VC1)을 표시하도록 제어할 수 있다. For example, referring to FIG. 2, the extended reality application of the computing device 101 can image recognition of a real object (RO) and a marker (MK) within the real object in the surrounding physical space 20, and It is possible to control to display the virtual content VC1 in the user's field of view corresponding to the marked marker MK.

또한, 확장현실 어플리케이션은, 학습된 실제객체를 인식할 수 있으며, 인식된 실제객체의 위치에 대응되는 사용자의 시야에 가상 컨텐츠(VC2)를 표시하도록 제어할 수 있다. In addition, the extended reality application may recognize the learned real object and control to display the virtual content VC2 in the user's field of view corresponding to the position of the recognized real object.

또한, 확장현실 어플리케이션은, 학습된 실제객체나 마커(MK)를 통해 물리적 공간을 인식할 수 있으며, 인식된 공간의 특정 위치에 매칭된 가상 컨텐츠를 사용자의 시야의 대응되도록 표시할 수 있다. In addition, the extended reality application may recognize a physical space through a learned real object or a marker MK, and may display virtual content matched to a specific location of the recognized space so as to correspond to the user's field of view.

이러한 가상 컨텐츠는 컴퓨팅 디바이스(101)에서 사용자 시야의 일부분에 디스플레이(471) 될 수 있는 이미지 또는 영상과 같은 시각 컨텐츠를 포함할 수 있다. 예를 들어, 가상 컨텐츠는 물리적 공간의 다양한 부분을 오버레이하는 가상객체 이미지들을 포함할 수 있다. 이러한 가상객체 이미지는 2D 이미지 또는 3D 이미지로 렌더링 될 수 있다. Such virtual content may include visual content such as an image or video that may be displayed 471 in a portion of the user's field of view on the computing device 101. For example, the virtual content may include virtual object images that overlay various parts of a physical space. This virtual object image can be rendered as a 2D image or a 3D image.

헤드 마운티드 디스플레이 타입의 컴퓨팅 디바이스(102)는, 디스플레이 시스템(470)에 의해서만, 디스플레이(471)된 이미지를 볼 수 있도록 주변 물리적 공간에 대한 광을 차단할 수 있다. 이러한 헤드 마운티드 디스플레이 타입의 컴퓨팅 디바이스(102)는, 3차원 장면을 인식시키기 위해 좌안과 우안 디스플레이(471) 각각에 시차에 오프셋을 둔 서로 다른 이미지를 출력함으로써, 3차원 영상을 출력할 수 있다. The computing device 102 of the head-mounted display type may block light to the surrounding physical space so that the displayed image can be viewed only by the display system 470. The head-mounted display type computing device 102 may output a 3D image by outputting different images offset by parallax to the left and right eye displays 471 in order to recognize a 3D scene.

그리고 헤드 마운티드 디스플레이 타입의 컴퓨팅 디바이스(102) 또한, 주변 물리적 공간을 촬영한 영상 및 상기 촬영한 영상을 기초로 생성된 가상 컨텐츠를 3차원 영상으로 출력함으로써, 확장현실 환경을 제공할 수 있다. In addition, the head-mounted display type computing device 102 may also provide an extended reality environment by outputting an image of a surrounding physical space and a virtual content generated based on the captured image as a 3D image.

이하에서는, 이러한 웨어러블 타입 디바이스 중 스마트 글라스 타입의 컴퓨팅 디바이스(101)를 중심으로 구체적인 구성요소를 설명하기로 한다. Hereinafter, specific components will be described centering on the smart glass-type computing device 101 among such wearable-type devices.

도 7을 참조하면, 예시적인 구현에 따른 컴퓨팅 디바이스(101)는, 확장현실 어플리케이션을 포함하는 메모리(110), 프로세서 어셈블리(120), 통신 모듈(130), 인터페이스 모듈(140), 입력 시스템(150), 센서 시스템(160) 및 디스플레이 시스템(470)을 포함할 수 있다. Referring to FIG. 7, a computing device 101 according to an exemplary implementation includes a memory 110 including an extended reality application, a processor assembly 120, a communication module 130, an interface module 140, an input system ( 150), a sensor system 160 and a display system 470.

이때, 상기 구성요소들은 컴퓨팅 디바이스(101)의 하우징 내에 포함되도록 구현될 수 있다. 웨어러블 타입 컴퓨팅 디바이스(101, 102)의 상기 구성요소에 대한 설명 중 중복되는 내용은 상기 기술한 구성요소에 대한 설명으로 대체하기로 하며, 이하에서는 차이점을 중심으로 설명한다.In this case, the components may be implemented to be included in the housing of the computing device 101. Among the descriptions of the components of the wearable type computing devices 101 and 102, the overlapping content will be replaced with the description of the above-described components, and the differences will be described below.

도 7을 보면, 디스플레이 시스템(470)은, 컴퓨팅 디바이스(101) 주변 물리적 공간으로부터의 광이 사용자의 눈에 도달하도록 투과함과 동시에, 디스플레이 시스템(470)에 의해 표시된 가상 컨텐츠를 사용자의 눈을 향해 반사시키는 투명한 글래스 디스플레이(471)를 포함할 수 있다. Referring to FIG. 7, the display system 470 transmits light from the physical space around the computing device 101 to reach the user's eyes, and at the same time transmits the virtual content displayed by the display system 470 to the user's eyes. It may include a transparent glass display 471 that reflects toward.

이러한 디스플레이 시스템(470)은, 컴퓨팅 디바이스(101)를 착용한 사용자의 좌안에 대응되는 좌측 디스플레이(171)와, 우안에 대응되는 우측 디스플레이(172)를 포함할 수 있으며, 좌측 디스플레이(171)와 우측 디스플레이(172)는 시차에 오프셋을 둔 서로 다른 이미지를 가상 컨텐츠로 출력함으로써, 사용자는 가상 컨텐츠를 3차원 이미지로 인식할 수 있다.The display system 470 may include a left display 171 corresponding to the left eye of a user wearing the computing device 101 and a right display 172 corresponding to the right eye, and the left display 171 and The right display 172 outputs different images offset by parallax as virtual content, so that the user can recognize the virtual content as a 3D image.

이러한 웨어러블 타입 컴퓨팅 디바이스(101, 102)는, 작업 현장과 같은 물리적 공간에 위치한 현장 작업자가 사용하기에 유리할 수 있다. These wearable type computing devices 101 and 102 may be advantageous for use by field workers located in a physical space such as a work site.

2. 모바일 타입 컴퓨팅 디바이스(103)2. Mobile type computing device (103)

도 3은 본 발명의 실시예에 따른 모바일 타입의 컴퓨팅 디바이스(103)를 통해 확장현실 환경을 경험하는 개념도이고, 도 8은 본 발명의 실시예에 따른 모바일 타입의 컴퓨팅 디바이스(103)의 내부 블록도이다. 3 is a conceptual diagram of experiencing an extended reality environment through a mobile-type computing device 103 according to an embodiment of the present invention, and FIG. 8 is an internal block diagram of a mobile-type computing device 103 according to an embodiment of the present invention. It is a degree.

다른 예시에서 컴퓨팅 디바이스(103)는, 확장현실 어플리케이션이 설치된 스마트 폰이나 테블릿 PC와 같은 모바일 장치일 수 있다. 이러한 모바일 타입 컴퓨팅 디바이스(103)는, 이미지 센서(461)로 주변 물리적 공간의 영상을 캡처하고, 디스플레이 시스템(470)을 통해 캡처된 영상과 물리적 공간에 매칭되어 표시되는 가상 컨텐츠를 표시하여 확장현실 환경을 사용자에게 제공할 수 있다. In another example, the computing device 103 may be a mobile device such as a smart phone or a tablet PC in which an extended reality application is installed. The mobile type computing device 103 captures an image of the surrounding physical space with an image sensor 461, and displays the image captured through the display system 470 and virtual content matched to the physical space to display extended reality. The environment can be provided to the user.

예를 들어, 컴퓨팅 디바이스(103)는 스마트 폰(smart phone), 휴대폰, 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 태블릿 PC(tablet PC), 등이 포함될 수 있다. For example, the computing device 103 may include a smart phone, a mobile phone, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a tablet PC, and the like.

도 4를 참조하면, 모바일 타입 컴퓨팅 디바이스(103)의 확장현실 어플리케이션은, 주변 물리적 공간(20)에서 실제객체(RO)와 마커(MK) 등을 이미지 캡처하고 디스플레이 시스템(470)을 제어하여 표시할 수 있다. 또한, 확장현실 어플리케이션은, 인식된 마커(MK)에 대응되는 위치에 가상 컨텐츠(VC1)을 표시하도록 제어할 수 있다. 또한, 확장현실 어플리케이션은, 특정 실제객체를 학습하여 인식할 수 있으며, 인식된 특정 실제객체의 위치에 대응되는 사용자의 시야에 가상 컨텐츠(VC2)를 표시하도록 제어할 수 있다. Referring to FIG. 4, the extended reality application of the mobile type computing device 103 captures an image of a real object (RO) and a marker (MK) in the surrounding physical space 20 and controls the display system 470 to display it. can do. In addition, the extended reality application may control to display the virtual content VC1 at a location corresponding to the recognized marker MK. In addition, the extended reality application may learn and recognize a specific real object, and control to display the virtual content VC2 in the user's field of view corresponding to the location of the recognized specific real object.

도 8를 참조하면, 예시적인 구현에 따른 모바일 타입 컴퓨팅 디바이스(103)는, 메모리(210), 프로세서 어셈블리(220), 통신 모듈(230), 인터페이스 모듈(240), 입력 시스템(250), 센서 시스템(260) 및 디스플레이 시스템(270)을 포함할 수 있다. 이러한 구성요소들은 컴퓨팅 디바이스(103)의 하우징 내에 포함되도록 구성될 수 있다. Referring to FIG. 8, a mobile type computing device 103 according to an exemplary implementation includes a memory 210, a processor assembly 220, a communication module 230, an interface module 240, an input system 250, and a sensor. System 260 and display system 270. These components may be configured to be contained within a housing of computing device 103.

모바일 타입 컴퓨팅 디바이스(103)의 상기 구성요소에 대한 설명 중 중복되는 내용은 웨어러블 타입 컴퓨팅 디바이스(101, 102)의 구성요소에 대한 설명으로 대체하기로 하며, 이하에서는 웨어러블 타입 컴퓨팅 디바이스(101, 102)와의 차이점을 중심으로 설명한다.Among the descriptions of the components of the mobile-type computing device 103, the overlapping content will be replaced with a description of the components of the wearable-type computing devices 101 and 102. Hereinafter, the wearable-type computing devices 101 and 102 ) And the difference between them.

이러한 모바일 타입 컴퓨팅 디바이스(103)의 하우징 내에는 상기 구성요소들이 배치될 수 있으며, 사용자 인터페이스는 사용자 터치 입력을 수신하도록 구성된 디스플레이(271) 상에 터치 센서(273)를 포함할 수 있다. The components may be disposed within the housing of such a mobile type computing device 103, and the user interface may include a touch sensor 273 on a display 271 configured to receive a user touch input.

자세히, 디스플레이 시스템(270)은, 이미지를 출력하는 디스플레이(271)와, 사용자의 터치 입력을 감지하는 터치 센서(273)를 포함할 수 있다.In detail, the display system 270 may include a display 271 for outputting an image and a touch sensor 273 for sensing a user's touch input.

예시적으로 디스플레이(271)는 터치 센서(273)와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린으로 구현될 수 있다. 이러한 터치 스크린은, 컴퓨팅 디바이스(103)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부로써 기능함과 동시에, 컴퓨팅 디바이스(103)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.For example, the display 271 may be implemented as a touch screen by forming a layer structure or integrally with the touch sensor 273. Such a touch screen may function as a user input unit that provides an input interface between the computing device 103 and a user, and may provide an output interface between the computing device 103 and the user.

또한, 센서 시스템(260)은, 이미지 센서(261)를 포함하며, 예시적으로 이미지 센서(261)는 컴퓨팅 디바이스(103)의 하우징에 일측 면과 타측 면에 배치될 수 있다. In addition, the sensor system 260 includes an image sensor 261, for example, the image sensor 261 may be disposed on one side and the other side of the housing of the computing device 103.

이때, 일측 면의 이미지 센서(461)가 물리적 공간을 향해 배향되어 물리적 공간을 촬영한 영상을 캡처할 수 있으며, 타측 면의 이미지 센서(461)는 사용자 측을 향해 배향되어 사용자 시야, 제스처 등을 촬영할 수 있다. At this time, the image sensor 461 on one side is oriented toward the physical space to capture an image of the physical space, and the image sensor 461 on the other side is oriented toward the user to control the user's field of view and gestures. You can shoot.

이러한 모바일 타입 컴퓨팅 디바이스(103)는, 작업 현장과 같은 물리적 공간에 위치한 현장 작업자에게 적합할 수 있다.The mobile type computing device 103 may be suitable for field workers located in a physical space such as a work site.

- 테이블 탑 디바이스에서 증강현실 기반 커뮤니케이션을 수행하는 방법 -How to perform augmented reality-based communication on a tabletop device

이하, 첨부된 도면을 참조하여 본 발명의 실시예에 따른 테이블 탑 디바이스(400)에서 증강현실 기반의 커뮤니케이션을 수행하는 방법에 대해 상세히 설명하고자 한다. 설명의 편의를 위해, 제 2 사용자 컴퓨팅 디바이스는 모바일 타입 컴퓨팅 디바이스(103)를 기준으로 설명하기로 한다. Hereinafter, a method of performing augmented reality-based communication in the table top device 400 according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings. For convenience of description, the second user computing device will be described based on the mobile type computing device 103.

도 9는 본 발명의 실시예에 따른 테이블 탑 디바이스(400)에서 증강현실 기반 커뮤니케이션을 수행하는 방법을 설명하기 위한 흐름도이다. 9 is a flowchart illustrating a method of performing augmented reality-based communication in the table top device 400 according to an embodiment of the present invention.

도 9를 참조하면, 본 발명의 실시예에서 테이블 탑 디바이스(400)는, 제 2 사용자 컴퓨팅 디바이스와 증강현실 기반의 확장현실 커뮤니케이션을 수행하기 위한 확장현실 어플리케이션을 실행할 수 있다. Referring to FIG. 9, in an embodiment of the present invention, the table top device 400 may execute an extended reality application for performing augmented reality-based extended reality communication with a second user computing device.

실행된 확장현실 어플리케이션은, 테이블 탑 디바이스(400)의 카메라와 디스플레이(471) 사이의 거리를 측정할 수 있다. (S101) The executed extended reality application may measure the distance between the camera of the table top device 400 and the display 471. (S101)

예를 들면, 확장현실 어플리케이션은, 카메라 하우징(407)에 배치된 스테레오 카메라의 제 1 카메라(461-1) 및 제 2 카메라(461-2)의 사영 원점 간 거리, 제 1 카메라(461-1)의 사영 원점과 디스플레이(471)의 일 지점 간의 거리 및 제 2 카메라(461-2)의 사영 원점과 디스플레이(471)의 일 지점 간의 거리를 산출할 수 있고, 이들을 기반으로 테이블 탑 디바이스(400)의 카메라와 디스플레이(471) 사이의 거리를 산출할 수 있다. For example, the extended reality application is the distance between the projection origin of the first camera 461-1 and the second camera 461-2 of the stereo camera disposed in the camera housing 407, the first camera 461-1 ) And a distance between the projection origin of the display 471 and a point of the display 471 and the distance between the projection origin of the second camera 461-2 and a point of the display 471 can be calculated, and based on these, the table top device 400 ), the distance between the camera and the display 471 can be calculated.

또한, 확장현실 어플리케이션은, 측정된 카메라와 디스플레이(471) 사이의 거리를 기반으로, 카메라가 소정의 영역 내에 배치되었는지 판단할 수 있다. (S103) In addition, the extended reality application may determine whether the camera is disposed within a predetermined area based on the measured distance between the camera and the display 471. (S103)

여기서, 소정의 영역이란, 카메라를 통해 촬영되는 입력 영상이 테이블 탑 디바이스(400)의 디스플레이(471) 영역을 모두 포함하는 영역일 수 있다. Here, the predetermined area may be an area in which the input image captured by the camera includes all of the display area 471 of the table top device 400.

이때, 확장현실 어플리케이션은, 카메라가 소정의 영역 외에 배치된 경우, 카메라의 위치를 조정할 수 있다. (S105) In this case, the extended reality application may adjust the position of the camera when the camera is disposed outside a predetermined area. (S105)

자세히, 확장현실 어플리케이션은, 사용자 입력 또는 기설정된 기준에 따른 자동 제어 방식에 기초하여, 테이블 탑 디바이스(400)의 제 1 지지대(405)의 길이를 제어해 카메라 하우징(407)의 위치를 조정할 수 있다. 이를 통해 확장현실 어플리케이션은, 카메라 하우징(407)에 내장된 카메라가 소정의 영역 내에 위치하게 할 수 있다. In detail, the extended reality application can adjust the position of the camera housing 407 by controlling the length of the first support 405 of the table top device 400 based on a user input or an automatic control method according to a preset standard. have. Through this, the extended reality application may allow the camera built in the camera housing 407 to be located within a predetermined area.

예를 들면, 확장현실 어플리케이션은, 직선 왕복 운동으로 동력을 전달하는 막대 형태의 다단 샤프트로 구현된 제 1 지지대(405)의 길이를 설정하는 길이 조정 인터페이스를 제공할 수 있고, 제공된 인터페이스에 기반한 사용자 입력을 기반으로 제 1 지지대(405)의 길이를 변경하여 카메라의 위치를 소정의 영역 내로 조정할 수 있다. For example, the extended reality application may provide a length adjustment interface for setting the length of the first support 405 implemented as a rod-shaped multistage shaft that transmits power through a linear reciprocating motion, and a user based on the provided interface. The position of the camera may be adjusted within a predetermined area by changing the length of the first support 405 based on the input.

다른 예로, 확장현실 어플리케이션은, 기설정된 소정의 기준(예컨대, 기정의된 카메라와 디스플레이(471) 간 필수 유지거리 조건 등)에 따라서 자동으로 제 1 지지대(405)의 길이를 조정할 수 있고, 이를 통해 카메라의 위치를 소정의 영역 내로 변경할 수 있다. As another example, the extended reality application may automatically adjust the length of the first support 405 according to a preset predetermined criterion (eg, a required maintenance distance condition between a predefined camera and the display 471), and this Through this, the position of the camera can be changed within a predetermined area.

여기서, 제 1 지지대(405)는, 사용자가 제 1 지지대(405)를 수동으로 조정함으로써 그 길이가 조정될 수도 있다. Here, the length of the first support 405 may be adjusted by a user manually adjusting the first support 405.

이와 같이, 실시예에서 확장현실 어플리케이션은, 소정의 영역 내에 카메라가 배치되도록 카메라와 디스플레이(471) 간의 거리를 조정함으로써, 추후 디스플레이(471)를 통해 출력되는 촬영영상 및 상기 촬영영상에 대한 사용자의 입력을 유실없이 모두 감지할 수 있다. As described above, in the embodiment, the extended reality application adjusts the distance between the camera and the display 471 so that the camera is placed in a predetermined area, so that the captured image output through the display 471 and the user's Any input can be detected without loss.

한편, 본 발명의 실시예에서 확장현실 어플리케이션은, 디스플레이(471) 측을 촬영하는 카메라의 화각이 비틀어진 경우 즉, 카메라 지지대(408)의 변형으로 인해 카메라 하우징(407)의 카메라 화각이 테이블 탑 디바이스(400)의 디스플레이(471)를 정면으로 바라보지 않는 경우, 테이블 탑 디바이스(400)의 확장현실 어플리케이션은, 와핑(warping) 프로세스를 수행하여 촬영영상의 디스플레이(471) 화면 왜곡을 최소화할 수 있다. On the other hand, in the extended reality application in the embodiment of the present invention, when the angle of view of the camera photographing the display 471 is twisted, that is, due to the deformation of the camera support 408, the camera angle of view of the camera housing 407 is When the display 471 of the device 400 is not viewed in front, the extended reality application of the table top device 400 performs a warping process to minimize the distortion of the screen of the display 471 of the captured image. have.

자세히, 예를 들어 확장현실 어플리케이션은, 먼저 카메라로부터 획득된 촬영영상에서 테이블 탑 디바이스(400)의 디스플레이(471)가 차지하는 영역을 이미지 분석을 통해 분리할 수 있다. 이때, 분리된 영역은, 비틀어진 카메라 화각으로 인하여 본래의 디스플레이(471) 형태(예컨대, 직사각형)와는 다르게 왜곡된 디스플레이(471) 형태(예컨대, 사다리꼴)일 수 있다. In detail, for example, the extended reality application may first separate the area occupied by the display 471 of the table top device 400 in the captured image obtained from the camera through image analysis. In this case, the separated area may have a distorted display 471 shape (eg, trapezoidal) different from the original display 471 shape (eg, a rectangle) due to a distorted camera angle of view.

그리고 확장현실 어플리케이션은, 분리된 영역에 대한 영상을 변조(예컨대, x/y축 회전 및/또는 스케일(scale) 조정 등)하여 본래의 디스플레이(471) 형태가 되도록 정규화시키는 와핑(warping) 프로세스를 수행할 수 있다. In addition, the extended reality application modulates the image for the separated area (eg, rotates the x/y axis and/or adjusts the scale, etc.) to normalize the original display 471 to a warping process. You can do it.

이와 같이, 확장현실 어플리케이션은, 카메라 화각이 비틀어진 경우 디스플레이(471) 화면 영상에 대한 왜곡을 최소화하는 기능을 제공함으로써, 카메라 화각이 디스플레이(471)를 정면으로 마주보지 않더라도, 촬영영상에서의 디스플레이(471) 영역을 본래의 디스플레이(471) 형상대로 감지하도록 최적화할 수 있다. In this way, the extended reality application provides a function of minimizing distortion to the screen image of the display 471 when the camera angle of view is distorted, so that even if the camera angle of view does not face the display 471 in front, the display in the captured image It is possible to optimize to detect the 471 area as the original shape of the display 471.

다시 돌아와서, 한편 본 발명의 실시예에서 확장현실 어플리케이션은, 카메라가 소정의 영역 내에 배치된 경우, 현장 컴퓨팅 디바이스로부터 촬영된 촬영영상을 수신하여 표시할 수 있다. (S107) Returning again, on the other hand, in the embodiment of the present invention, the extended reality application may receive and display a photographed image captured from a field computing device when the camera is disposed within a predetermined area. (S107)

도 10은 본 발명의 실시예에 따른 원격의 컴퓨팅 디바이스(100)로부터 촬영영상을 수신하여 표시하는 모습의 일례이다. 10 is an example of receiving and displaying a photographed image from a remote computing device 100 according to an embodiment of the present invention.

자세히, 도 10을 참조하면, 확장현실 어플리케이션은, 원격에 위치하는 현장 컴퓨팅 디바이스의 이미지 센서(461)를 기반으로 획득되는 기초 촬영영상을 통신 모듈(430)을 통해 수신할 수 있다. In detail, referring to FIG. 10, the extended reality application may receive a basic photographed image acquired based on an image sensor 461 of a field computing device located remotely through the communication module 430.

그리고 확장현실 어플리케이션은, 수신된 기초 촬영영상을 디스플레이(471)를 통하여 출력할 수 있다. In addition, the extended reality application may output the received basic photographed image through the display 471.

즉, 확장현실 어플리케이션은, 현장 컴퓨팅 디바이스에서 촬영되는 영상을 수신해 표시하여 실시간으로 공유할 수 있다. That is, the extended reality application may receive and display an image captured by a field computing device and share it in real time.

또한, 본 발명의 실시예에서 확장현실 어플리케이션은, 표시된 촬영영상에 기반한 사용자 입력을 검출할 수 있다. (S109) In addition, in an embodiment of the present invention, the extended reality application may detect a user input based on the displayed photographed image. (S109)

자세히, 확장현실 어플리케이션은, 제스처(gesture) 입력에 따른 사용자 입력을 검출할 수 있다. In detail, the extended reality application may detect a user input according to a gesture input.

여기서, 제스처 입력이란, 사용자의 특정 신체부위(예컨대, 손)나 가이드 도구(200)에 기반한 움직임(동작)을 나타내는 사용자의 입력일 수 있다. Here, the gesture input may be a user's input indicating a specific body part (eg, hand) of the user or a movement (motion) based on the guide tool 200.

보다 상세히, 확장현실 어플리케이션은, 먼저 카메라와 디스플레이(471) 사이의 물리적 공간을 촬영하여 사용자 입력영상을 획득할 수 있다. In more detail, the extended reality application may acquire a user input image by first photographing a physical space between the camera and the display 471.

그리고 확장현실 어플리케이션은, 획득된 사용자 입력영상으로부터 디스플레이(471)와 매칭되는 영역을 분리할 수 있다. In addition, the extended reality application may separate a region matching the display 471 from the acquired user input image.

예를 들면, 확장현실 어플리케이션은, 카메라를 통해 촬영된 사용자 입력영상에 대한 영상 전처리(preprocessing)를 수행할 수 있으며, 이미지 세그먼트(segment) 및 클러스터링(clustering)을 수행하여, 배경(background)과 전경(foreground)을 분리할 수 있다. 이후, 확장현실 어플리케이션은, 이미지 세그먼트에 의해 분리된 전경으로부터 오브젝트 즉, 디스플레이(471) 영역을 검출하여 분리할 수 있다. For example, an extended reality application can perform image preprocessing on a user input image captured through a camera, and perform image segmentation and clustering, so that the background and the foreground are (foreground) can be separated. Thereafter, the extended reality application may detect and separate an object, that is, an area of the display 471 from the foreground separated by the image segment.

도 11은 본 발명의 실시예에 따른 사용자의 제스처 입력에 따른 제스처 이미지를 검출한 모습의 일례이다. 11 is an example of detecting a gesture image according to a user's gesture input according to an embodiment of the present invention.

또한, 도 11을 참조하면, 확장현실 어플리케이션은, 분리된 디스플레이(471) 영역 내에서의 사용자 제스처 입력을 획득할 수 있고, 획득된 제스처 입력에 따른 제스처 이미지를 검출할 수 있다. In addition, referring to FIG. 11, the extended reality application may acquire a user gesture input within a separated display 471 area, and may detect a gesture image according to the acquired gesture input.

여기서, 제스처 이미지란, 사용자의 제스처 입력을 이미지 분석하여 해당 제스처를 이미지로 형상화한 정보일 수 있다. Here, the gesture image may be information obtained by analyzing an image of a user's gesture input and forming a corresponding gesture into an image.

예를 들면, 확장현실 어플리케이션은, 사용자의 특정 신체부위(예컨대, 손)나 가이드 도구(200)에 기반한 움직임(동작) 나타내는 제스처 입력을 뉴럴 네트워크(neural network), SVM(Support Vector Machine), 또는 HOG(Histograms of Oriented Gradients) 기법 등을 사용해 이미지 분석하여, 제스처 입력에 대한 제스처 이미지를 획득할 수 있다. For example, the extended reality application provides a gesture input representing a movement (movement) based on a user's specific body part (eg, hand) or the guide tool 200 by a neural network, a support vector machine (SVM), or By analyzing an image using a Histograms of Oriented Gradients (HOG) technique, etc., a gesture image for a gesture input can be obtained.

그리고 확장현실 어플리케이션은, 획득된 제스처 이미지에 기반하여 표시된 촬영영상에 대한 사용자 입력을 획득할 수 있다. In addition, the extended reality application may acquire a user input for a captured image displayed based on the acquired gesture image.

이때, 확장현실 어플리케이션은, 디스플레이 시스템(470)의 터치 센서(473)에 기반한 사용자의 터치 입력에 따른 사용자 입력도 획득할 수 있다. In this case, the extended reality application may also obtain a user input according to a user's touch input based on the touch sensor 473 of the display system 470.

이때, 확장현실 어플리케이션은, 정확한 사용자 입력을 획득하기 위하여, 현장 컴퓨팅 디바이스로부터 획득된 기초 촬영영상 상에서의 사용자 입력에 대한 2차원 좌표(x, y)를 결정한 후, 상기 기초 촬영영상의 이미지 좌표와 매칭시켜 디스플레이(471)에 표시된 촬영영상에 대한 사용자 입력을 획득할 수 있다. In this case, the extended reality application determines the two-dimensional coordinates (x, y) for the user input on the basic photographed image obtained from the field computing device in order to obtain an accurate user input, and then the image coordinates of the basic photographed image and By matching, a user input for a captured image displayed on the display 471 may be obtained.

이와 같이, 실시예에서 확장현실 어플리케이션은, 테이블 탑 시스템에 기반하여 보다 편리하게 사용자 입력을 획득할 수 있다. As described above, in the embodiment, the extended reality application may more conveniently acquire a user input based on the table top system.

또한, 본 발명의 실시예에서 확장현실 어플리케이션은, 검출된 사용자 입력을 기반으로 기초 촬영영상에 가상객체를 증강한 가상 컨텐츠를 생성하여 표시할 수 있다. (S111) In addition, in an embodiment of the present invention, the extended reality application may generate and display virtual content in which a virtual object is augmented in a basic photographed image based on the detected user input. (S111)

여기서, 가상 콘텐츠란, 컴퓨팅 디바이스(100)에서 생성된 가상의 컨텐츠로, 라벨, 텍스트 정보, 이미지, 드로잉 객체 및 3 차원 엔티티를 포함하며, 상기 물리적 공간이나 물리적 공간을 촬영한 영상에 대응하여 생성된 증강/혼합 컨텐츠이다. Here, the virtual content is virtual content generated by the computing device 100, including labels, text information, images, drawing objects, and 3D entities, and is generated in response to the physical space or an image photographed in the physical space. This is augmented/mixed content.

자세히, 확장현실 어플리케이션은, 검출된 사용자 입력에 대응되는 가상객체를 검출할 수 있고, 검출된 가상객체를 기초로 가상 컨텐츠를 생성할 수 있다. In detail, the extended reality application may detect a virtual object corresponding to the detected user input, and generate virtual content based on the detected virtual object.

실시예에서, 확장현실 어플리케이션은, 사용자 입력에 기반하여 사용자의 손(LH, RH)의 제스처 입력 및/또는 가이드 도구(200)(Guide tool, GT)에 따른 동작 입력을 받을 수 있다. In an embodiment, the extended reality application may receive a gesture input of a user's hand (LH, RH) and/or a motion input according to a guide tool (GT) based on a user input.

이때, 확장현실 어플리케이션은, 제스처 이미지에 기반한 사용자 입력으로부터 적어도 하나 이상의 실제객체 즉, 가이드 도구(200)를 검출할 수 있다. In this case, the extended reality application may detect at least one real object, that is, the guide tool 200, from a user input based on a gesture image.

자세히, 확장현실 어플리케이션은, 먼저 사용자 입력영상으로부터 획득되는 제스처 이미지에 기초하여 적어도 하나 이상의 실제객체를 검출할 수 있다. In detail, the extended reality application may first detect at least one real object based on a gesture image acquired from a user input image.

예를 들면, 확장현실 어플리케이션은, 카메라를 통해 촬영된 영상에 대한 영상 전처리(preprocessing)를 수행할 수 있으며, 세그먼트(segment) 및 클러스터링(clustering)을 수행하여, 배경(background)과 전경(foreground)을 분리할 수 있다. 이후, 확장현실 어플리케이션은, 이미지 세그먼트에 의해 분리된 전경으로부터 오브젝트(즉, 실제객체)를 검출할 수 있다. For example, an extended reality application may perform image preprocessing on an image captured through a camera, and perform segmentation and clustering to provide a background and a foreground. Can be separated. Thereafter, the extended reality application may detect an object (ie, an actual object) from the foreground separated by the image segment.

또한, 실시예에서 확장현실 어플리케이션은, 검출된 실제객체가 가이드 도구(200)인지 여부를 판단할 수 있다. In addition, in an embodiment, the extended reality application may determine whether the detected real object is the guide tool 200.

예를 들어, 확장현실 어플리케이션은, 이미지 세그먼트에 의해 분리된 오브젝트(즉, 실제객체)를 분류하고(classify), 확인할 수 있다(verify). 자세히, 확장현실 어플리케이션은, 뉴럴 네트워크(neural network)를 이용한 식별법, SVM(Support Vector Machine) 기법, Haar-like 특징을 이용한 AdaBoost에 의해 식별하는 기법, 또는 HOG(Histograms of Oriented Gradients) 기법 등을 사용하여, 검출된 적어도 하나 이상의 실제객체로부터 가이드 도구(200)를 식별할 수 있다. For example, an extended reality application may classify and verify objects separated by image segments (ie, real objects). In detail, the extended reality application uses a neural network identification method, a support vector machine (SVM) technique, a technique identification by AdaBoost using Haar-like features, or a Histograms of Oriented Gradients (HOG) technique. Thus, the guide tool 200 may be identified from the detected at least one or more actual objects.

이후, 실시예에서 확장현실 어플리케이션은, 검출된 실제객체가 가이드 도구(200)로 판단된 경우, 현장 컴퓨팅 디바이스로부터 획득된 기초 촬영영상 상에 해당 가이드 도구(200)에 대응되는 가상객체를 중첩하여 표시할 수 있다. Thereafter, in the embodiment, in the extended reality application, when the detected real object is determined as the guide tool 200, a virtual object corresponding to the guide tool 200 is superimposed on the basic photographed image obtained from the field computing device. Can be displayed.

이때, 확장현실 어플리케이션은, 카메라를 기반으로 촬영되는 가이드 도구(200)의 움직임(예컨대, 위치 이동, 제스처(gesture) 및/또는 모션(motion) 등)을 지속적으로 추적할 수 있다. In this case, the extended reality application may continuously track the movement (eg, position movement, gesture, and/or motion) of the guide tool 200 photographed based on the camera.

이를 통해, 확장현실 어플리케이션은, 추후 가이드 도구(200)의 움직임에 따라서 해당 가이드 도구(200)에 중첩되어 표시되는 가상객체 또한 대응되는 움직임을 수행하게 할 수 있다. Through this, the extended reality application may cause the virtual object displayed by being superimposed on the corresponding guide tool 200 to perform a corresponding movement according to the movement of the guide tool 200 in the future.

또한, 확장현실 어플리케이션은, 정확한 가이던스를 전달하기 위해, 디스플레이(471)에 표시되는 기초 촬영영상에 대한 가이드 도구(200)의 위치를 반영하여 가상객체의 중첩 위치를 결정할 수 있다. In addition, the extended reality application may determine the overlapping position of the virtual object by reflecting the position of the guide tool 200 with respect to the basic photographed image displayed on the display 471 in order to deliver accurate guidance.

자세히, 확장현실 어플리케이션은, 기초 촬영영상 상에서의 가이드 도구(200)의 2차원 좌표(x, y)를 결정한 후, 기초 촬영영상의 이미지 좌표와 매칭시켜 가상객체의 오버레이 위치를 결정할 수 있다. In detail, the extended reality application may determine the two-dimensional coordinates (x, y) of the guide tool 200 on the basic photographed image, and then match the image coordinates of the basic photographed image to determine the overlay position of the virtual object.

또한, 확장현실 어플리케이션은, 기초 촬영영상과 가이드 도구(200)사이의 거리(z)에 따라서, 가이드 도구(200)에 대응된 가상객체의 크기를 변경시킴으로써, 가상객체의 원근감을 조절 가능한 증강현실 인터페이스 환경을 제공할 수 있다. In addition, the extended reality application is an augmented reality that can adjust the perspective of the virtual object by changing the size of the virtual object corresponding to the guide tool 200 according to the distance z between the basic photographed image and the guide tool 200. Interface environment can be provided.

또한, 실시예에서 확장현실 어플리케이션은, 가상 콘텐츠로 표시되는 가이드 도구(200)의 움직임(예컨대, 위치 이동, 제스처(gesture) 및/또는 모션(motion) 등)을 지속적으로 추적할 수 있고, 가이드 도구(200)가 소정의 방식으로 동작하면, 해당 가이드 도구(200)에 중첩되어 표시된 가상객체 또한 동일한 방식으로 동작되게 할 수 있다. In addition, in the embodiment, the extended reality application can continuously track the movement of the guide tool 200 displayed as virtual content (eg, position movement, gesture and/or motion, etc.), and guide When the tool 200 operates in a predetermined manner, a virtual object displayed by being superimposed on the corresponding guide tool 200 may also be operated in the same manner.

예를 들면, 확장현실 어플리케이션은, 가이드 도구(200)가 회전 모션을 수행하는 경우, 해당 가이드 도구(200)에 매칭된 가상객체도 동일한 방식으로 회전 모션을 수행하게 할 수 있다. For example, in the extended reality application, when the guide tool 200 performs rotational motion, a virtual object matched to the corresponding guide tool 200 may perform rotational motion in the same manner.

이를 위해, 확장현실 어플리케이션은, 가이드 도구(200)를 촬영한 영상을 분석하여 가이드 도구(200)의 6 자유도 정보를 획득할 수 있다. 그리고 기 저장된 가상객체는 가이드 도구(200)의 6 자유도 변화에 대응되어 형상이 변화하도록 기 설계되어 있을 수 있다. 여기서, 6 자유도란, 3차원 공간에서 운동하는 오브젝트의 여섯 가지 회전 및 병진 동작 요소를 측정한 자세 추정 정보일 수 있다. To this end, the extended reality application may obtain information on 6 degrees of freedom of the guide tool 200 by analyzing an image photographed by the guide tool 200. In addition, the previously stored virtual object may be pre-designed to change its shape in response to a change of 6 degrees of freedom of the guide tool 200. Here, the six degrees of freedom may be posture estimation information obtained by measuring six rotational and translational motion elements of an object moving in a three-dimensional space.

또한, 확장현실 어플리케이션은, 가이드 도구(200)별 특징 동작들에 대한 가상객체의 이미지 변화를 매칭하여 저장할 수 있다. In addition, the extended reality application may match and store image changes of a virtual object with respect to feature movements for each guide tool 200.

예를 들어, 플라이어형 가이드 도구(200)의 경우, 집게 형상으로 집는 상태와 푸는 상태를 외형이 가능하며, 두 상태로 이동하는 특징 동작이 가능할 수 있다. For example, in the case of the plier-type guide tool 200, a pinch-shape and a pinch-off state can be externally formed, and a characteristic operation of moving into two states may be possible.

확장현실 어플리케이션은, 플라이어형 가이드 도구(200)를 학습하여 식별정보를 획득할 때, 상기 특징 동작에 대한 정보를 획득할 수 있다. The extended reality application may acquire information on the feature operation when acquiring identification information by learning the flyer-type guide tool 200.

그리고 확장현실 어플리케이션은, 가이드 도구(200)의 특징 동작에 따라서 가상객체 이미지가 변화하도록 저장할 수 있다. In addition, the extended reality application may store the virtual object image to change according to the feature operation of the guide tool 200.

이를 통해, 확장현실 어플리케이션은, 가이드 도구(200) 촬영 영상에서 가이드 도구(200)의 특징 동작이 검출되면, 상기 특징 동작에 따라서 가상객체의 이미지 또한 매칭되어 변화되도록 가상객체를 생성할 수 있다. Through this, the extended reality application may generate a virtual object such that, when a feature motion of the guide tool 200 is detected in an image captured by the guide tool 200, the image of the virtual object is also matched and changed according to the feature motion.

또한, 확장현실 어플리케이션은, 가이드 도구(200) 별 기준 포인트를 지정하고, 상기 기준 포인트에 대응한 가상객체 이미지 변화를 저장할 수 있다. In addition, the extended reality application may designate a reference point for each guide tool 200 and store a change in a virtual object image corresponding to the reference point.

여기서, 기준 포인트란, 가이드 도구(200)의 자세를 추정하기 위한 기준이 되는 가이드 도구(200) 상의 적어도 하나 이상의 지점을 의미한다. 이러한 기준 포인트는, 가이드 도구(200)에 기초하여 증강현실을 구현할 때 해당 가이드 도구(200)와 상호작용하는 가상객체 증강을 위한 기준으로 이용될 수 있다. Here, the reference point means at least one point on the guide tool 200 that is a reference for estimating the posture of the guide tool 200. This reference point may be used as a reference for augmenting a virtual object interacting with the guide tool 200 when implementing augmented reality based on the guide tool 200.

예를 들어, 기준 포인트는, 가이드 도구(200)가 ‘펜(pen)’ 형상일 경우, 펜 촉 지점을 기준 포인트로 지정하고, 펜 촉의 움직임에 따른 가상의 선을 가상객체로 증강하는 방식으로 가상 드로잉 증강현실 환경을 제공할 수 있다. 다른 예로, 기준 포인트는, 가이드 도구(200)가 ‘드라이버’ 형상일 경우, 드라이버의 끝(tip) 지점에 위치를 기준 포인트로 지정하고, 드라이버의 회전에 따라 끝 부분이 함께 회전하도록 하는 증강현실 환경을 제공할 수 있다. For example, the reference point is a method of designating a pen tip point as a reference point when the guide tool 200 has a'pen' shape, and augmenting a virtual line according to the movement of the pen tip into a virtual object. A virtual drawing augmented reality environment can be provided. As another example, the reference point is an augmented reality in which, when the guide tool 200 is in the shape of a'driver', a position is designated as a reference point at the tip of the driver, and the tip rotates together according to the rotation of the driver. It can provide an environment.

이러한 확장현실 어플리케이션은, 가이드 도구(200)의 기준 포인트의 6 자유도를 영상에서 직접 인식하기 어려우므로, 가이드 도구(200) 상에 마커를 인식하고 마커와 기준 포인트 사이의 위치관계에 따라 기준 포인트의 6 자유도를 추정할 수 있다. In this extended reality application, since it is difficult to directly recognize 6 degrees of freedom of the reference point of the guide tool 200 in the image, the marker is recognized on the guide tool 200 and the reference point is 6 degrees of freedom can be estimated.

이를 통해, 확장현실 어플리케이션은, 펜형 가이드 도구(200)를 촬영영상 상에서 움직이는 경우, 가이드 도구(200)의 기준 포인트의 6 자유도를 추정하고, 추정된 기준 포인트으 6자유도에 따라 가상 선분을 생성하여, 가이드 도구(200)에 따른 증강현실 가상객체를 생성할 수 있다. Through this, the extended reality application, when moving the pen-shaped guide tool 200 on the photographed image, estimates 6 degrees of freedom of the reference point of the guide tool 200, and generates a virtual line segment according to the 6 degrees of freedom from the estimated reference points. , It is possible to generate an augmented reality virtual object according to the guide tool 200.

이와 같이, 본 발명의 실시예에서 확장현실 어플리케이션은, 사용자가 가상 콘텐츠에 기반하여 원격에서 작업을 수행하는 작업자에게 가이드 도구(200)가 특정하는 객체(예컨대, 드라이버 등)를 이용한 작업 방식 등을 쉽고 명확하게 가이던스(guidance)하게 할 수 있다. As such, in the embodiment of the present invention, the extended reality application provides a work method using an object (eg, a driver, etc.) specified by the guide tool 200 to a worker performing a work remotely based on a virtual content. Guidance can be made easily and clearly.

다시 돌아와서, 또한 본 발명의 실시예에서 가상 컨텐츠를 생성한 확장현실 어플리케이션은, 생성된 가상 컨텐츠를 현장 컴퓨팅 디바이스로 송신할 수 있다. (S113) Returning again, the extended reality application that generated virtual content in an embodiment of the present invention may transmit the generated virtual content to the field computing device. (S113)

도 12는 본 발명의 실시예에 따른 가상 컨텐츠를 원격의 컴퓨팅 디바이스(100)로 송신하여 표시하는 모습의 일례이다. 12 is an example of transmitting and displaying virtual content to a remote computing device 100 according to an embodiment of the present invention.

자세히, 도 12를 참조하면, 확장현실 어플리케이션은, 테이블 탑 디바이스(400)로부터 생성된 가상 콘텐츠를 원격에 위치하는 현장 컴퓨팅 디바이스로 송신하여 표시되게 할 수 있다. In detail, referring to FIG. 12, the extended reality application may transmit and display virtual content generated from the table top device 400 to a field computing device located remotely.

이때, 확장현실 어플리케이션은, 가상 콘텐츠에 포함되는 가상객체만을 추출하여 송신할 수도 있고, 가상객체가 기초 촬영영상에 증강되어 생성된 증강영상을 송신할 수도 있다. In this case, the extended reality application may extract and transmit only a virtual object included in the virtual content, or may transmit an augmented image generated by augmenting the virtual object to the basic photographed image.

즉, 실시예에서 확장현실 어플리케이션은, 가상객체 또는 증강영상 중 어느 하나로 가상 컨텐츠를 선택적으로 생성해 제공하여, 가상객체만을 송신해 데이터 통신의 효율성을 도모할 수도 있고, 증강영상을 송신하여 교환되는 데이터의 정확성을 향상시킬 수도 있다. That is, in the embodiment, the extended reality application selectively generates and provides virtual content with either a virtual object or an augmented image, so that only the virtual object can be transmitted to improve the efficiency of data communication, or the augmented image is transmitted and exchanged. It can also improve the accuracy of the data.

이상, 본 발명의 실시예에 따른 테이블 탑 디바이스(400) 및 이를 포함하는 테이블 탑 시스템은, 증강현실 기반의 커뮤니케이션 시스템을 구현하는 테이블 탑 디바이스(400) 및 시스템을 제공함으로써, 원격의 컴퓨팅 디바이스(100)로부터 획득되는 영상에 대한 사용자 입력을 보다 편리하게 획득할 수 있고, 이에 기반한 가상 콘텐츠를 제공하여 원격의 작업자에게 보다 쉽고 명확하게 가이던스(guidance)를 제공할 수 있는 효과가 있다. As described above, the table top device 400 and the table top system including the same according to an embodiment of the present invention provide a table top device 400 and a system implementing an augmented reality-based communication system, thereby providing a remote computing device ( It is possible to more conveniently obtain a user input for an image obtained from 100), and by providing virtual contents based on this, there is an effect that it is possible to provide guidance more easily and clearly to a remote operator.

또한, 본 발명의 실시예에 따른 테이블 탑 디바이스(400) 및 이를 포함하는 테이블 탑 시스템은, 테이블 탑 디바이스(400)의 카메라 화각이 테이블 탑 디바이스(400)의 디스플레이(471) 영역을 모두 포함하게 함으로써, 기준이 되는 촬영영상에 대한 사용자 입력을 유실없이 모두 감지할 수 있는 효과가 있다. In addition, in the table top device 400 and the table top system including the same according to an embodiment of the present invention, the camera angle of view of the table top device 400 includes all of the display area 471 of the table top device 400. By doing so, there is an effect of being able to detect all user inputs for a reference photographed image without loss.

또한, 이상에서 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.Further, the embodiments according to the present invention described above may be implemented in the form of program instructions that can be executed through various computer components and recorded in a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the computer-readable recording medium may be specially designed and configured for the present invention or may be known and usable to those skilled in the computer software field. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magnetic-optical media such as floptical disks. medium), and a hardware device specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device can be changed to one or more software modules to perform the processing according to the present invention, and vice versa.

본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면(403)들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.Specific implementations described in the present invention are examples, and do not limit the scope of the present invention in any way. For brevity of the specification, descriptions of conventional electronic configurations, control systems, software, and other functional aspects 403 of the systems may be omitted. In addition, the connection or connection members of the lines between the components shown in the drawings exemplarily represent functional connections and/or physical or circuit connections, and in an actual device, various functional connections that can be replaced or additionally It may be referred to as a connection, or circuit connections. In addition, if there is no specific mention such as “essential” or “importantly”, it may not be an essential component for the application of the present invention.

또한 설명한 본 발명의 상세한 설명에서는 본 발명의 바람직한 실시 예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자 또는 해당 기술분야에 통상의 지식을 갖는 자라면 후술할 특허청구범위에 기재된 본 발명의 사상 및 기술 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 따라서, 본 발명의 기술적 범위는 명세서의 상세한 설명에 기재된 내용으로 한정되는 것이 아니라 특허청구범위에 의해 정하여져야만 할 것이다.In addition, although the detailed description of the present invention has been described with reference to a preferred embodiment of the present invention, the spirit of the present invention described in the claims to be described later if one of ordinary skill in the relevant technical field or those of ordinary skill in the relevant technical field And it will be understood that various modifications and changes can be made to the present invention within a range not departing from the technical field. Accordingly, the technical scope of the present invention should not be limited to the contents described in the detailed description of the specification, but should be determined by the claims.

Claims (7)

바닥면과 상기 바닥면에 대해 소정의 경사를 가지는 경사면을 포함하는 테이블 탑 하우징;
상기 테이블 탑 하우징의 경사면 상에 배치된 디스플레이 시스템;
상기 디스플레이 시스템의 상에 배치된 이미지 센서;
상기 디스플레이 시스템에서 출력되는 촬영영상 및 상기 이미지 센서에서 촬영된 사용자 입력영상을 기초로 상기 촬영영상에 대한 가상 컨텐츠를 생성하는 프로세서 어셈블리를 포함하고,
상기 프로세서 어셈블리는,
상기 이미지 센서가 포함하는 제 1 카메라와 상기 디스플레이 시스템의 제 1 지점 간의 거리와, 상기 이미지 센서가 포함하는 제 2 카메라와 상기 디스플레이 시스템의 제 1 지점 간의 거리를 기반으로, 이미지 센서와 디스플레이 시스템 간의 거리를 산출하고,
상기 프로세서 어셈블리는,
상기 산출된 이미지 센서와 디스플레이 시스템 간의 거리를 기반으로, 상기 이미지 센서에서 촬영된 사용자 입력영상이 상기 디스플레이 시스템에서 출력되는 촬영영상 영역을 모두 포함하는 소정의 영역에 상기 이미지 센서가 배치되었는지 판단하며,
상기 프로세서 어셈블리는,
상기 이미지 센서가 상기 소정의 영역 이외에 배치된 경우, 상기 이미지 센서의 위치를 상기 테이블 탑 하우징을 제어하여 조정하고,
상기 프로세서 어셈블리는,
상기 이미지 센서에서 촬영된 사용자 입력영상으로부터 상기 디스플레이 시스템에서 출력되는 촬영영상과 매칭되는 영역을 분리하고,
상기 분리된 영역에 대응되는 사용자 입력영상에서 사용자의 제스처 입력을 감지하며,
상기 감지된 제스처 입력을 기초로 상기 제스처 입력에 매칭되는 이미지를 나타내는 제스처 이미지를 검출하고,
상기 검출된 제스처 이미지에 기반하여 상기 촬영영상에 대한 가상 콘텐츠를 제공하는
테이블 탑 디바이스.
A table top housing including a bottom surface and an inclined surface having a predetermined inclination with respect to the floor surface;
A display system disposed on an inclined surface of the table top housing;
An image sensor disposed on the display system;
A processor assembly for generating virtual content for the captured image based on a captured image output from the display system and a user input image captured by the image sensor,
The processor assembly,
Based on the distance between the first camera included in the image sensor and the first point of the display system, and the distance between the second camera included in the image sensor and the first point of the display system, Calculate the distance,
The processor assembly,
Based on the calculated distance between the image sensor and the display system, it is determined whether the image sensor is disposed in a predetermined area including all areas of a captured image captured by the image sensor and output from the display system,
The processor assembly,
When the image sensor is disposed outside the predetermined area, the position of the image sensor is adjusted by controlling the table top housing,
The processor assembly,
Separating a region matching the photographed image output from the display system from the user input image photographed by the image sensor,
Detecting a user's gesture input in the user input image corresponding to the separated area,
Detecting a gesture image representing an image matching the gesture input based on the sensed gesture input,
Providing virtual content for the captured image based on the detected gesture image
Table top device.
제 1 항에 있어서,
상기 테이블 탑 하우징은,
상기 경사면의 일측에서 연장되어 상기 이미지 센서가 상기 디스플레이 시스템 상에 배치되도록 지지하는 카메라 지지대를 더 포함하는
테이블 탑 디바이스.
The method of claim 1,
The table top housing,
Further comprising a camera support extending from one side of the inclined surface to support the image sensor to be disposed on the display system
Table top device.
제 2 항에 있어서,
상기 카메라 지지대는,
상기 경사면으로부터 제 1 방향으로 연장되도록 형성된 제 1 지지대와, 상기 제 1 지지대의 일단에서 제 2 방향으로 연장되도록 형성된 제 2 지지대와, 상기 제 2 지지대의 일단에서 상기 이미지 센서를 수용하는 카메라 하우징을 포함하는
테이블 탑 디바이스.
The method of claim 2,
The camera support,
A first support formed to extend from the inclined surface in a first direction, a second support formed to extend in a second direction from one end of the first support, and a camera housing accommodating the image sensor at one end of the second support. Inclusive
Table top device.
제 3 항에 있어서,
상기 카메라 지지대는,
상기 이미지 센서의 촬영방향이 상기 디스플레이 시스템의 상면을 향하도록 배치하는
테이블 탑 디바이스.
The method of claim 3,
The camera support,
Arranged so that the photographing direction of the image sensor faces the top surface of the display system
Table top device.
제 1 항에 있어서,
상기 프로세서 어셈블리는,
상기 이미지 센서에서 촬영된 사용자 입력영상에 대한 와핑 프로세스를 수행하여 왜곡을 보정하는
테이블 탑 디바이스.
The method of claim 1,
The processor assembly,
Correcting distortion by performing a warping process on the user input image captured by the image sensor
Table top device.
삭제delete 제 1 항에 있어서,
상기 프로세서 어셈블리는,
상기 검출된 제스처 이미지의 위치에 따른 상기 촬영영상의 이미지 좌표를 결정하고,
상기 결정된 이미지 좌표에 상기 검출된 제스처 이미지에 따른 상기 가상 컨텐츠를 생성하는
테이블 탑 디바이스.
The method of claim 1,
The processor assembly,
Determining image coordinates of the captured image according to the position of the detected gesture image,
Generating the virtual content according to the detected gesture image at the determined image coordinates
Table top device.
KR1020190179232A 2019-12-31 2019-12-31 Table top devices and table top systems KR102245760B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190179232A KR102245760B1 (en) 2019-12-31 2019-12-31 Table top devices and table top systems

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190179232A KR102245760B1 (en) 2019-12-31 2019-12-31 Table top devices and table top systems

Publications (1)

Publication Number Publication Date
KR102245760B1 true KR102245760B1 (en) 2021-04-29

Family

ID=75728387

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190179232A KR102245760B1 (en) 2019-12-31 2019-12-31 Table top devices and table top systems

Country Status (1)

Country Link
KR (1) KR102245760B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101689923B1 (en) * 2010-09-09 2016-12-26 퀄컴 인코포레이티드 Online reference generation and tracking for multi-user augmented reality
CN206429818U (en) * 2016-12-01 2017-08-22 照彰实业(东莞)有限公司 Table top display angular adjustment apparatus
KR101977332B1 (en) * 2018-08-03 2019-05-10 주식회사 버넥트 Table top system for intuitive guidance in augmented reality remote video communication environment
KR20190076770A (en) 2017-12-22 2019-07-02 주식회사 이엠아이티 A augmented reality based assembly guide system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101689923B1 (en) * 2010-09-09 2016-12-26 퀄컴 인코포레이티드 Online reference generation and tracking for multi-user augmented reality
CN206429818U (en) * 2016-12-01 2017-08-22 照彰实业(东莞)有限公司 Table top display angular adjustment apparatus
KR20190076770A (en) 2017-12-22 2019-07-02 주식회사 이엠아이티 A augmented reality based assembly guide system
KR101977332B1 (en) * 2018-08-03 2019-05-10 주식회사 버넥트 Table top system for intuitive guidance in augmented reality remote video communication environment

Similar Documents

Publication Publication Date Title
KR102366293B1 (en) System and method for monitoring field based augmented reality using digital twin
US11127210B2 (en) Touch and social cues as inputs into a computer
US9639988B2 (en) Information processing apparatus and computer program product for processing a virtual object
US11308347B2 (en) Method of determining a similarity transformation between first and second coordinates of 3D features
KR102289745B1 (en) System and method for real-time monitoring field work
US10037614B2 (en) Minimizing variations in camera height to estimate distance to objects
US20130174213A1 (en) Implicit sharing and privacy control through physical behaviors using sensor-rich devices
US20170206666A1 (en) Information processing apparatus, information processing method, and program
KR102418994B1 (en) Method for providng work guide based augmented reality and evaluating work proficiency according to the work guide
US11587255B1 (en) Collaborative augmented reality eyewear with ego motion alignment
US11195341B1 (en) Augmented reality eyewear with 3D costumes
WO2022006116A1 (en) Augmented reality eyewear with speech bubbles and translation
KR102190743B1 (en) AUGMENTED REALITY SERVICE PROVIDING APPARATUS INTERACTING WITH ROBOT and METHOD OF THEREOF
TWI750822B (en) Method and system for setting presentable virtual object for target
US11645415B2 (en) Augmented reality remote communication method and system for providing security function for 3D space
US20210406542A1 (en) Augmented reality eyewear with mood sharing
KR102245760B1 (en) Table top devices and table top systems
KR20220165948A (en) Method and system for remote collaboration
KR102467017B1 (en) Method for augmented reality communication between multiple users
KR102618591B1 (en) An automated calibration system for calculating intrinsic parameter and extrinsic parameter of a camera module for precise tracking a real object, a calibration method, and a method for tracking a real object in an image based on the calibration method and augmenting a virtual model on the real object
Hou et al. A blind area information perception and AR assembly guidance method based on RGBD data for dynamic environments and user study
Tsai Geometry-aware augmented reality for remote collaboration

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant