KR20220095787A - Method and system for customzing network transmssion prameter - Google Patents

Method and system for customzing network transmssion prameter Download PDF

Info

Publication number
KR20220095787A
KR20220095787A KR1020200187660A KR20200187660A KR20220095787A KR 20220095787 A KR20220095787 A KR 20220095787A KR 1020200187660 A KR1020200187660 A KR 1020200187660A KR 20200187660 A KR20200187660 A KR 20200187660A KR 20220095787 A KR20220095787 A KR 20220095787A
Authority
KR
South Korea
Prior art keywords
image
extended reality
computing device
parameter
user
Prior art date
Application number
KR1020200187660A
Other languages
Korean (ko)
Other versions
KR102420166B1 (en
Inventor
하태진
전창길
Original Assignee
주식회사 버넥트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 버넥트 filed Critical 주식회사 버넥트
Priority to KR1020200187660A priority Critical patent/KR102420166B1/en
Publication of KR20220095787A publication Critical patent/KR20220095787A/en
Application granted granted Critical
Publication of KR102420166B1 publication Critical patent/KR102420166B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/752Media network packet handling adapting media to network capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • H04L12/1827Network arrangements for conference optimisation or adaptation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
    • H04L43/0876Network utilisation, e.g. volume of load or congestion level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/403Arrangements for multi-party communication, e.g. for conferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/80Responding to QoS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/157Conference systems defining a virtual conference space and using avatars or agents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Environmental & Geological Engineering (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

A customized network transmission information quality adjustment method, according to an embodiment, which is a customized network transmission information quality adjustment method performed by a processor of a computing device of a first user by executing a first extended reality application, comprises the steps of: executing an extended reality communication service for transmitting and receiving extended reality image content to and from at least one another computing device; detecting a network environment with the other computing device; setting at least one image parameter of the extended reality image content according to the detected network environment; generating the extended reality image content according to the set image parameter; and transmitting communication data including the generated extended reality image content to the other user computing device.

Description

맞춤형 네트워크 전송 정보 퀄리티 조정 방법 및 시스템{METHOD AND SYSTEM FOR CUSTOMZING NETWORK TRANSMSSION PRAMETER}Method and system for adjusting the quality of customized network transmission information

본 발명은 맞춤형 네트워크 전송 정보 퀄리티 조정 방법 및 시스템에 관한 것이다. 보다 상세하게는, 네트워크 전송 환경에 따라서 네트워크를 통해 전송되는 콘텐츠의 파라미터를 사용자 맞춤형으로 설정하는 방법에 관한 것이다. The present invention relates to a method and system for adjusting the quality of customized network transmission information. More particularly, it relates to a method of customizing a parameter of content transmitted through a network according to a network transmission environment.

최근, 가상현실(Virtual Reality: VR), 증강현실(Augmented Reality: AR), 혼합현실(Mixed Reality: MR)에 대한 관심이 급상승하고 있는 가운데, 확장현실(XR)(eXtended Reality: XR)까지 가세하면서 이용자의 몰입경험(Immersive Experience)을 제공하는 서비스 및 기기 시장이 나날이 발전하고 있다. Recently, with interest in Virtual Reality (VR), Augmented Reality (AR), and Mixed Reality (MR) rapidly increasing, XR (eXtended Reality: XR) is also on the rise. The market for services and devices that provide users with an immersive experience is developing day by day.

여기서, 확장현실(XR)이란, 가상현실과 증강현실, 그리고 혼합현실 기술을 모두 아우르는 용어로서, 증강현실, 가상현실 및 혼합현실을 모두 지원할 수 있는 새로운 형태의 기기에 융합되는 과정을 통해 그 개념이 탄생하게 되었다. Here, extended reality (XR) is a term that encompasses both virtual reality, augmented reality, and mixed reality technology, and its concept is through the process of convergence into a new type of device that can support both augmented reality, virtual reality and mixed reality. this was born

확장현실(XR) 기술은, VR, AR 그리고 MR 기반한 많은 요소 기술들을 공동으로 활용하고 있으며, 이러한 기술들이 통용될 수 있는 혁신적이고 새로운 형태의 기기에 적용되어서 다양한 새로운 경험이 가능해지고 있다. 예를 들면, 확장현실(XR) 기술은, 제조, 건축, 게임, 영상, 의료, 교육, 쇼핑, 마케팅, 관광, 자동차 또는 헬스케어 등에 이르기까지 다양한 산업에 적용되고 있다. Extended reality (XR) technology is jointly utilizing many element technologies based on VR, AR, and MR, and various new experiences are possible as these technologies are applied to innovative and new types of devices that can be used. For example, extended reality (XR) technology is being applied to various industries ranging from manufacturing, architecture, games, imaging, medical care, education, shopping, marketing, tourism, automobiles or healthcare.

한편, 정보 통신 기술(Information and Communication Technology, ICT)이 발전함에 따라 네트워크(network)에 기반한 데이터 통신(data communication)이 활발히 이루어지고 있다. Meanwhile, as information and communication technology (ICT) develops, data communication based on a network is being actively performed.

여기서, 통신이란, 두 개 이상의 통신장치 사이에서 동선이나 광섬유, 혹은 무선링크를 포함하는 전송미디어를 사용하여 정해진 규칙 즉, 통신 프로토콜에 따라 데이터로 표현되는 정보를 교환하는 과정을 의미한다. Here, communication refers to a process of exchanging information expressed in data according to a set rule, that is, a communication protocol, between two or more communication devices using a transmission medium including a copper wire, an optical fiber, or a wireless link.

최근 들어, 확장현실(XR) 기술의 성장과 함께 네트워크에 기반한 각종 확장현실(XR) 관련 데이터들의 교환 활동이 이루어지고 있으나, 통신장치나 네트워크의 자체적 상태, 통신 환경 및/또는 서로 다른 통신장치 간의 호환성 등의 다양한 원인으로 인하여 통신 즉, 커뮤니케이션(communication)을 수행하는 통신장치 간에 원활한 데이터 송수신이 어려움을 겪고 있는 실정이다. Recently, with the growth of extended reality (XR) technology, various activities of exchanging data related to extended reality (XR) based on networks are being conducted, but the communication device or network itself, communication environment, and/or between different communication devices Due to various reasons such as compatibility, it is difficult to transmit and receive data smoothly between communication devices performing communication, that is, communication.

10-1354133 B110-1354133 B1

본 발명은, 네트워크 환경에 따라서 사용자 맞춤형으로 확장현실 기반으로 커뮤니케이션 데이터의 퀄리티를 조정하여 송수신하는 맞춤형 네트워크 전송 정보 퀄리티 조정 방법 및 시스템을 제공하는데 그 목적이 있다. It is an object of the present invention to provide a customized method and system for adjusting the quality of network transmission information for transmitting/receiving by adjusting the quality of communication data based on extended reality customized to a user according to a network environment.

또한, 본 발명은, 측정된 네트워크 환경에 따라서 커뮤니케이션 데이터를 생성하여 통신하는 맞춤형 네트워크 전송 정보 퀄리티 조정 방법 및 시스템을 제공하는데 그 목적이 있다. Another object of the present invention is to provide a customized method and system for adjusting the quality of network transmission information for generating and communicating communication data according to a measured network environment.

실시예에 따른 맞춤형 네트워크 전송 정보 퀄리티 조정 방법은, 제 1 사용자의 컴퓨팅 디바이스의 프로세서에서 제 1 확장현실 어플리케이션을 실행하여 수행하는 맞춤형 네트워크 전송 정보 퀄리티 조정 방법으로서, 적어도 하나 이상의 타 컴퓨팅 디바이스와 확장현실 영상 콘텐츠를 송수신하는 확장현실 커뮤니케이션 서비스를 실행하는 단계; 타 컴퓨팅 디바이스와의 네트워크 환경을 감지하는 단계; 상기 감지된 네트워크 환경에 따라서 상기 확장현실 영상 콘텐츠의 적어도 하나 이상의 영상 파라미터를 설정하는 단계; 상기 설정된 영상 파라미터에 따라서 확장현실 영상 콘텐츠를 생성하는 단계; 및 상기 생성된 확장현실 영상 콘텐츠를 포함하는 커뮤니케이션 데이터를 상기 타 사용자 컴퓨팅 디바이스에 송신하는 단계를 포함한다.The customized network transmission information quality adjustment method according to the embodiment is a customized network transmission information quality adjustment method performed by executing a first extended reality application in a processor of a computing device of a first user, and includes at least one or more other computing devices and extended reality executing an extended reality communication service for transmitting and receiving video content; detecting a network environment with another computing device; setting at least one image parameter of the augmented reality image content according to the sensed network environment; generating extended reality image content according to the set image parameters; and transmitting communication data including the generated extended reality image content to the other user computing device.

이때, 상기 타 컴퓨팅 디바이스와의 네트워크 환경을 감지하는 단계는, 복수의 컴퓨팅 디바이스와의 대역폭을 각각 측정하는 단계와, 상기 측정된 대역폭 중 가장 작은 대역폭을 공통 대역폭으로 결정하는 단계를 포함할 수 있다. In this case, the sensing of the network environment with the other computing device may include measuring bandwidths with a plurality of computing devices, respectively, and determining a smallest bandwidth among the measured bandwidths as a common bandwidth. .

또한, 상기 감지된 네트워크 환경에 따라서 상기 확장현실 영상 콘텐츠의 적어도 하나 이상의 영상 파라미터를 설정하는 단계는, 확장현실 영상 출력모드를 결정하는 단계와, 상기 결정된 확장현실 영상 출력모드에서 상기 감지된 네트워크 환경에 기초하여 상기 영상 파라미터를 결정하는 단계를 포함할 수 있다. In addition, the step of setting at least one image parameter of the extended reality image content according to the sensed network environment may include determining an extended reality image output mode, and the detected network environment in the determined extended reality image output mode. The method may include determining the image parameter based on .

또한, 상기 확장현실 영상 출력모드를 결정하는 단계는, 서로 다른 영상 파라미터의 복수의 영상을 출력하는 단계와, 상기 출력된 복수의 영상 중 사용자 선택에 따라 하나의 영상이 결정되는 단계와, 상기 결정된 영상으로 상기 영상 파라미터를 결정하는 단계를 포함할 수 있다. In addition, the determining of the extended reality image output mode includes outputting a plurality of images of different image parameters, determining one image according to a user selection among the plurality of output images, and the determined It may include determining the image parameter with an image.

또한, 상기 결정된 확장현실 영상 출력모드에서 상기 감지된 네트워크 환경에 기초하여 상기 영상 파라미터를 결정하는 단계는, 상기 감지된 네트워크 환경에 따라서 네트워크 전송 파라미터를 결정하는 단계와, 상기 결정된 네트워크 전송 파라미터에 따라서 제 1 영상 파라미터를 결정하는 단계와, 상기 결정된 제 1 영상 파라미터에 따라서 나머지 영상 파라미터를 결정하는 단계를 포함할 수 있다. In addition, the determining of the image parameter based on the sensed network environment in the determined extended reality image output mode includes determining a network transmission parameter according to the sensed network environment, and according to the determined network transmission parameter The method may include determining a first image parameter and determining the remaining image parameters according to the determined first image parameter.

또한, 상기 결정된 확장현실 영상 출력모드에서 상기 감지된 네트워크 환경에 기초하여 상기 영상 파라미터를 결정하는 단계는, 제 2 영상 파라미터를 제 1 값으로 고정하는 단계와, 상기 결정된 제 1 영상 파라미터 내에서 상기 제 2 영상 파라미터가 제 1 값일 때의 제 3 영상 파라미터 값을 산출하여 영상 파라미터를 결정하는 단계와, 상기 제 1 영상 파라미터가 변경되면 상기 제 3 영상 파라미터를 재산출하여 결정하는 단계를 포함할 수 있다. In addition, the determining of the image parameter based on the sensed network environment in the determined extended reality image output mode includes: fixing a second image parameter to a first value; determining an image parameter by calculating a third image parameter value when the second image parameter is a first value; and determining by recalculating the third image parameter when the first image parameter is changed have.

또한, 상기 설정된 영상 파라미터에 따라서 확장현실 영상 콘텐츠를 생성하는 단계는, 영상을 획득하는 단계와, 상기 획득된 영상에 증강되는 가상 객체를 입력하는 유저 인터페이스를 제공하는 단계와, 상기 유저 인터페이스에 따라 생성된 가상 객체를 상기 확장현실 영상 콘텐츠에 포함하는 단계를 포함할 수 있다. In addition, the generating of the extended reality image content according to the set image parameter may include: acquiring an image; providing a user interface for inputting a virtual object augmented in the acquired image; The method may include including the generated virtual object in the extended reality image content.

또한, 상기 획득된 영상에 증강되는 가상 객체를 입력하는 유저 인터페이스를 제공하는 단계는, 상기 설정된 영상 파라미터에 따라서 상기 획득된 영상을 변경하는 단계와, 상기 설정된 영상 파라미터에 따라서 상기 가상 객체를 입력하기 위한 포인터의 종류 또는 모양을 변경하는 단계를 포함할 수 있다. In addition, providing a user interface for inputting the augmented virtual object to the acquired image may include changing the acquired image according to the set image parameter, and inputting the virtual object according to the set image parameter. It may include the step of changing the type or shape of the pointer.

또한, 상기 획득된 영상에 증강되는 가상 객체를 입력하는 유저 인터페이스를 제공하는 단계는, 상기 설정된 영상 파라미터에 따라서 상기 가상 객체의 종류, 형태, 크기 또는 색 중 적어도 하나를 변경하는 단계를 포함할 수 있다. In addition, the providing of the user interface for inputting the augmented virtual object to the obtained image may include changing at least one of a type, shape, size, or color of the virtual object according to the set image parameter. have.

또한, 상기 설정된 영상 파라미터에 대한 메타 정보를 결정하는 단계와, 상기 결정된 메타 정보와 상기 설정된 영상 파라미터를 매칭하여 저장하는 단계를 더 포함할 수 있다. The method may further include determining meta information for the set image parameter, and matching the determined meta information with the set image parameter and storing the matched meta information.

본 발명의 실시예에 따른 맞춤형 네트워크 전송 정보 퀄리티 조정 방법 및 시스템은, 데이터 통신에 이용되는 네트워크 환경을 기반으로 교환하려는 데이터를 가공하여 송수신함으로써, 네트워크 사용 환경에 최적화된 속도와 품질로 생성된 맞춤형 데이터 교환을 수행하여, 확장현실 환경 내에서 최적의 커뮤니케이션 서비스를 제공할 수 있다. The method and system for adjusting the quality of customized network transmission information according to an embodiment of the present invention process and transmit and receive data to be exchanged based on a network environment used for data communication, so that the customized generated with speed and quality optimized for the network use environment By exchanging data, it is possible to provide an optimal communication service within the extended reality environment.

또한, 본 발명의 실시예에 따른 맞춤형 네트워크 전송 정보 퀄리티 조정 방법 및 시스템은, 데이터 통신에 이용되는 네트워크 환경을 기반으로 맞춤형 데이터를 생성하여 제공함으로써, 확장현실(XR) 기술에 기반한 데이터 교환 시에도 네트워크 통신 부하, 버퍼링(buffering) 또는 데이터의 품질 저하 등과 같은 통신 문제를 최소화할 수 있는 효과가 있다. In addition, the method and system for adjusting the quality of customized network transmission information according to an embodiment of the present invention generates and provides customized data based on a network environment used for data communication, so that even when exchanging data based on extended reality (XR) technology There is an effect that can minimize communication problems such as network communication load, buffering, or deterioration of data quality.

다만, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 명확하게 이해될 수 있다. However, the effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned can be clearly understood from the description below.

도 1은 본 발명의 실시예에 따른 맞춤형 네트워크 전송 정보 퀄리티 조정 시스템의 개념도이다.
도 2는 본 발명의 실시예에 따른 웨어러블 타입의 컴퓨팅 디바이스를 통해 확장현실 환경을 제공하는 개념도이다.
도 3은 본 발명의 실시예에 따른 웨어러블 타입의 컴퓨팅 디바이스의 내부 블록도이다.
도 4는 본 발명의 실시예에 따른 모바일 타입의 컴퓨팅 디바이스를 통해 확장현실 환경을 제공하는 개념도이다.
도 5는 본 발명의 실시예에 따른 모바일 타입의 컴퓨팅 디바이스의 내부 블록도이다.
도 6은 본 발명의 실시예에 따른 데스크 탑 타입의 컴퓨팅 디바이스의 내부 블록도이다.
도 7은 본 발명의 실시예에 따른 테이블 탑 타입의 컴퓨팅 디바이스를 통해 확장현실 커뮤니케이션을 제공하는 개념도이다.
도 8은 본 발명의 실시예에 따른 테이블 탑 타입의 컴퓨팅 디바이스의 내부 블록도이다.
도 9는 본 발명의 실시예에 따른 맞춤형 네트워크 전송 정보 퀄리티 조정 방법을 설명하기 위한 흐름도이다.
도 10은 본 발명의 실시예에 따른 네트워크 전송 정보 퀄리티를 조정하는 유저 인터페이스의 일례이다.
도 11은 본 발명의 실시예에 따른 일반모드에서 네트워크 전송 정보 퀄리티를 조정하는 과정을 나타내는 흐름도이다.
도 12는 본 발명의 실시예에 따른 선명도 모드에서 네트워크 전송 정보 퀄리티를 조정하는 과정을 나타내는 흐름도이다.
도 13은 본 발명의 실시예에 따른 커스텀 모드에서 네트워크 전송 정보 퀄리티를 조정하는 유저 인터페이스의 일례이다.
도 14는 본 발명의 실시예에 따라 조정된 네트워크 전송 정보 퀄리티에 따라서 확장현실 커뮤니케이션을 제공하는 모습의 일례이다.
1 is a conceptual diagram of a customized network transmission information quality adjustment system according to an embodiment of the present invention.
2 is a conceptual diagram of providing an extended reality environment through a wearable type computing device according to an embodiment of the present invention.
3 is an internal block diagram of a wearable type computing device according to an embodiment of the present invention.
4 is a conceptual diagram of providing an extended reality environment through a mobile type computing device according to an embodiment of the present invention.
5 is an internal block diagram of a mobile type computing device according to an embodiment of the present invention.
6 is an internal block diagram of a desktop type computing device according to an embodiment of the present invention.
7 is a conceptual diagram of providing extended reality communication through a table-top type computing device according to an embodiment of the present invention.
8 is an internal block diagram of a table top type computing device according to an embodiment of the present invention.
9 is a flowchart illustrating a method for adjusting the quality of customized network transmission information according to an embodiment of the present invention.
10 is an example of a user interface for adjusting network transmission information quality according to an embodiment of the present invention.
11 is a flowchart illustrating a process of adjusting network transmission information quality in a normal mode according to an embodiment of the present invention.
12 is a flowchart illustrating a process of adjusting network transmission information quality in a sharpness mode according to an embodiment of the present invention.
13 is an example of a user interface for adjusting network transmission information quality in a custom mode according to an embodiment of the present invention.
14 is an example of a state of providing extended reality communication according to the network transmission information quality adjusted according to an embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. 이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 또한, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. 또한, 도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다.Since the present invention can apply various transformations and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail in the detailed description. Effects and features of the present invention, and a method for achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various forms. In the following embodiments, terms such as first, second, etc. are used for the purpose of distinguishing one component from another, not in a limiting sense. Also, the singular expression includes the plural expression unless the context clearly dictates otherwise. In addition, terms such as include or have means that the features or components described in the specification are present, and do not preclude the possibility that one or more other features or components will be added. In addition, in the drawings, the size of the components may be exaggerated or reduced for convenience of description. For example, since the size and thickness of each component shown in the drawings are arbitrarily indicated for convenience of description, the present invention is not necessarily limited to the illustrated bar.

이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, and when described with reference to the drawings, the same or corresponding components are given the same reference numerals, and the overlapping description thereof will be omitted. .

본 발명의 실시예에 따른 맞춤형 네트워크 전송 정보 퀄리티 조정 시스템(이하, “커뮤니케이션 시스템”)은, 사용자들이 컴퓨팅 디바이스의 확장현실 어플리케이션을 통해 확장현실 콘텐츠를 기초로 한 서로 간의 커뮤니케이션을 제공하는 시스템이다. A customized network transmission information quality adjustment system (hereinafter, “communication system”) according to an embodiment of the present invention is a system in which users communicate with each other based on extended reality content through an extended reality application of a computing device.

여기서, 확장현실 환경은, 사용자나 커뮤니케이션 상대방 주변의 물리적 공간에 대한 영상, 사용자들의 음성 및 이에 연관된 가상 콘텐츠가 삽입되어 생성된 환경을 의미하며, 증강현실(AR) 환경과 혼합현실 환경(MR)을 포함할 수 있다. Here, the extended reality environment refers to an environment created by inserting an image of a physical space around a user or a communication partner, users' voices, and related virtual content, and includes an augmented reality (AR) environment and a mixed reality (MR) environment. may include

상기 가상 콘텐츠는, 컴퓨팅 디바이스에서 생성된 가상의 콘텐츠로, 라벨, 텍스트 정보, 이미지, 드로잉 객체 및 3 차원 엔티티를 포함하며, 상기 물리적 공간이나 물리적 공간을 촬영한 영상에 대응하여 생성된 증강/혼합 콘텐츠다. The virtual content is virtual content generated by a computing device, and includes a label, text information, an image, a drawing object, and a three-dimensional entity, and is augmented/mixed generated in response to the physical space or an image obtained by photographing the physical space. it's content

그리고 확장현실 커뮤니케이션(XR Communication)이란, 서로 다른 사용자가 컴퓨팅 디바이스를 통해 상호 의사소통을 위하여 상기 가상 콘텐츠를 포함한 실감형 미디어(예컨대, 영상, 음성)를 포함하는 커뮤니케이션 데이터(Communication data)로 주고받는 활동을 의미한다.And the extended reality communication (XR Communication) is a communication data (Communication data) including immersive media (eg, video, voice) including the virtual content for mutual communication between different users through a computing device. means activity.

즉, 실시예에 따른 커뮤니케이션 시스템은, 일반적인 커뮤니케이션의 의사소통 매개인 음성 및 화상과 더불어 물리적 공간이나 촬영영상에 연관된 가상 콘텐츠를 추가 매개로 통신하여, 확장현실 환경 내에서 다자간 커뮤니케이션을 지원할 수 있다. That is, the communication system according to the embodiment communicates virtual content related to a physical space or a photographed image as an additional medium along with voice and image, which are communication media of general communication, to support multi-party communication in an extended reality environment.

이때, 커뮤니케이션 데이터(Communication data)는, 서로 다른 사용자(예컨대, 원격 관리자 및 현장 작업자)의 컴퓨팅 디바이스가 네트워크를 통해 주고받는 음성, 영상 및/또는 가상 콘텐츠를 포함할 수 있으며, 확장현실 영상 콘텐츠는 사용자들 중 적어도 하나의 주변 공간을 촬영한 영상과 상기 영상에 매칭된 가상 콘텐츠를 포함할 수 있다. 실시예에서, 커뮤니케이션 데이터는, 컴퓨팅 디바이스 및/또는 서버 등에 의해 네트워크를 기반으로 송수신될 수 있다.In this case, the communication data may include voice, image, and/or virtual content exchanged by computing devices of different users (eg, remote administrators and field workers) through a network, and the extended reality image content is It may include an image of at least one of the users in the surrounding space and virtual content matched to the image. In an embodiment, communication data may be transmitted/received based on a network by a computing device and/or a server or the like.

실시예에서, 커뮤니케이션 시스템은, 사용자의 컴퓨팅 디바이스의 통신환경에 따라서 서로 다른 커뮤니케이션 데이터 통신방식을 제공하여, 통신환경에 최적화된 확장현실 커뮤니케이션 환경을 제공할 수 있다. In an embodiment, the communication system may provide an extended reality communication environment optimized for the communication environment by providing different communication data communication methods according to the communication environment of the user's computing device.

또한, 실시예에 따른 커뮤니케이션 시스템은, 커뮤니케이션 데이터에서 주요 콘텐츠인 확장현실 영상 콘텐츠의 전송관련 파라미터들을 네트워크 환경에 따라 사용자 맞춤형으로 조정하여, 최적의 커뮤니케이션 환경을 제공할 수 있다. In addition, the communication system according to the embodiment may provide an optimal communication environment by customizing transmission-related parameters of extended reality image content, which is the main content in the communication data, according to the network environment.

예를 들어, 복수의 사용자 중 적어도 하나의 사용자의 주변을 촬영한 영상을 기준으로 일 사용자가 가상 콘텐츠를 제작하여 확장현실 영상 콘텐츠를 생성하고, 네트워크 환경에 따른 사용자 맞춤형으로 확장현실 영상 콘텐츠의 파라미터를 조정한 후 송신할 수 있다. For example, one user creates virtual content based on an image captured around at least one user among a plurality of users to create extended reality image content, and parameters of extended reality image content customized to the user according to the network environment After adjusting, it can be transmitted.

이하 설명의 편의를 위해, 컴퓨팅 디바이스를 사용하는 주체, 환경 및/또는 목적에 따라서 그 역할을 구분한 예시를 기준으로 설명하기로 한다. Hereinafter, for convenience of description, an example in which roles are divided according to a subject, environment, and/or purpose of using the computing device will be described.

실시예에서 컴퓨팅 디바이스는, 제 1 사용자 컴퓨팅 디바이스 및 제 2 사용자 컴퓨팅 디바이스로 구분될 수 있다. 보다 상세히, 제 1 사용자 컴퓨팅 디바이스는 작업 현장으로부터 원격에 위치하는 원격 관리자의 컴퓨팅 디바이스로서, 유무선 네트워크를 기반으로 제 2 사용자 컴퓨팅 디바이스와 커뮤니케이션 데이터를 송수신할 수 있다. 또한, 제 3 사용자 컴퓨팅 디바이스는, 또 다른 원격 관리자의 컴퓨팅 디바이스일 수 있으며, 제 1 사용자 컴퓨팅 디바이스에서 제공하는 확장현실 환경에 대한 커뮤니케이션 데이터를 수신하여 확장현실 환경을 출력하는 디바이스일 수 있다. 상황에 따라 제 3 사용자 컴퓨팅 디바이스 또한 작업 현장의 영상에 대해 가상 콘텐츠를 생성하여 제공할 수도 있을 것이다. In an embodiment, the computing device may be divided into a first user computing device and a second user computing device. In more detail, the first user computing device is a computing device of a remote manager located remotely from a work site, and may transmit/receive communication data to and from the second user computing device based on a wired/wireless network. In addition, the third user computing device may be a computing device of another remote manager, and may be a device that receives communication data for the extended reality environment provided by the first user computing device and outputs the extended reality environment. According to circumstances, the third user computing device may also generate and provide virtual content with respect to the image of the work site.

이하 설명에서는, 제 1 사용자 컴퓨팅 디바이스가 현장 작업자의 컴퓨팅 디바이스로부터 수신된 촬영영상에 기초한 확장현실 환경을 제공하고, 제공된 확장현실 인터페이스 환경 내에서 제 1 사용자 입력에 따라 현장 작업자에게 의사를 전달하기 위해 커뮤니케이션 데이터를 생성하는 작업 관리자의 컴퓨팅 디바이스임을 기준으로 설명한다. In the following description, the first user computing device provides an extended reality environment based on the captured image received from the computing device of the field worker, and in the provided extended reality interface environment, in order to deliver a message to the field worker according to the first user input It will be described based on the computing device of the task manager that generates communication data.

여기서, 원격 관리자란, 작업이 진행되는 현장으로부터 원격의 위치에서 해당 현장 작업자의 작업을 지시 또는 보조하는 작업 가이던스(guidance)를 가상 콘텐츠로 생성하여 현장 작업자에게 제공하는 자일 수 있다. Here, the remote manager may be a person who creates virtual content and provides work guidance to the field worker instructing or assisting the work of the field worker at a location remote from the site where the work is being performed.

또한, 현장 작업자란, 작업 현장에서 수신된 작업 가이던스를 통해 제공된 확장현실 환경을 기반으로 실제 작업을 수행하는 자일 수 있다. In addition, the field worker may be a person who performs an actual job based on the extended reality environment provided through the job guidance received at the job site.

다른 실시예에서는, 현장 작업자가 주변 촬영영상에 작업 가이던스를 가상 콘텐츠로 생성함으로써 생성된 확장현실 영상 콘텐츠를 원격 관리자로 송신하는 실시예도 가능할 것이다. In another embodiment, an embodiment in which the field worker transmits the expanded reality image content generated by generating the work guidance as virtual content in the surrounding photographed image to the remote manager will also be possible.

이하 설명에서, 제 1 사용자 및 제 3 사용자는 원격 관리자로, 제 2 사용자는 현장 작업자임을 기준으로 설명한다. In the following description, the first user and the third user are remote administrators, and the second user is a field worker.

이하, 이러한 커뮤니케이션 시스템의 세부적 구성부터 상세히 설명하기로 한다. Hereinafter, the detailed configuration of such a communication system will be described in detail.

<맞춤형 네트워크 전송 정보 퀄리티 조정 시스템> <Customized network transmission information quality adjustment system>

도 1은 본 발명의 실시예에 따른 맞춤형 네트워크 전송 정보 퀄리티 조정 시스템의 개념도이다. 1 is a conceptual diagram of a customized network transmission information quality adjustment system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시예에 따른 맞춤형 네트워크 전송 정보 퀄리티 조정 시스템은, 확장현실 환경을 제공하는 컴퓨팅 디바이스(100, 101, 200, 300, 400)와, 컴퓨팅 디바이스(100, 101, 200, 300, 400) 간 커뮤니케이션 데이터를 송수신하도록 중계하는 커뮤니케이션 데이터 중계 컴퓨팅 시스템 시스템(500)(이하, “서버 시스템”)을 포함할 수 있다. Referring to FIG. 1 , a customized network transmission information quality adjustment system according to an embodiment of the present invention includes computing devices 100 , 101 , 200 , 300 , 400 providing an extended reality environment, and computing devices 100 , 101 , 200, 300, and 400) may include a communication data relay computing system system 500 (hereinafter, “server system”) for relaying communication data to and from each other.

컴퓨팅 디바이스 및 서버 시스템(500)은, 상호 연동하여 데이터 통신에 이용되는 네트워크의 속도를 측정할 수 있고, 측정된 네트워크 환경을 기반으로 데이터를 가공하여 통신하는 확장현실(XR) 커뮤니케이션을 수행할 수 있다. The computing device and the server system 500 may measure the speed of a network used for data communication by interworking, and may perform extended reality (XR) communication in which data is processed and communicated based on the measured network environment. have.

이러한 도 1의 각 구성요소는, 네트워크(Network)를 통해 연결될 수 있다. 네트워크는 컴퓨팅 디바이스 및 데이터 중계 컴퓨팅 시스템 시스템(500) 등과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예에는 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루투스(Bluetooth) Each of these components of FIG. 1 may be connected through a network. The network refers to a connection structure capable of exchanging information between each node, such as a computing device and a data relay computing system system 500 , and an example of such a network includes a 3rd Generation Partnership Project (3GPP) network, a Long Term (LTE) network, and the like. Evolution) network, WIMAX (World Interoperability for Microwave Access) network, Internet (Internet), LAN (Local Area Network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network), PAN (Personal Area Network), Bluetooth (Bluetooth)

네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.networks, satellite broadcast networks, analog broadcast networks, Digital Multimedia Broadcasting (DMB) networks, and the like are included, but are not limited thereto.

- 서버 시스템(500)- Server system (500)

실시예에서 서버 시스템(500)은, 확장현실(XR) 커뮤니케이션 서비스를 제공하기 위한 일련의 프로세스를 수행할 수 있다.In an embodiment, the server system 500 may perform a series of processes for providing an extended reality (XR) communication service.

자세히, 서버 시스템(500)은, 사용자 컴퓨팅 디바이스들과 통신 중계기 등 사이에서 네트워크 기반으로 송수신되는 커뮤니케이션 데이터의 교환을 중계할 수 있다. In detail, the server system 500 may relay exchange of communication data transmitted/received based on a network between user computing devices and a communication repeater.

이러한 서버 시스템(500)은, 데이터 중계 컴퓨팅 시스템, 데이터 가공 컴퓨팅 시스템, 가상 콘텐츠 데이터베이스 및 공간정보 데이터베이스를 포함할 수 있다. The server system 500 may include a data relay computing system, a data processing computing system, a virtual content database, and a spatial information database.

자세히, 데이터 중계 컴퓨팅 시스템은, 데이터 중계를 위한 통신설비, 서버, 컴퓨팅 장치 등을 포함할 수 있으며, 유무선 통신 네트워크를 통해 커뮤니케이션 데이터를 컴퓨팅 디바이스 간에 송수신하도록 중계할 수 있다. 예를 들어, 데이터 중계 컴퓨팅 시스템은, 제 1 사용자의 컴퓨팅 디바이스와 제 2 사용자 컴퓨팅 디바이스 간에 송수신되는 커뮤니케이션 데이터를 전달하는 중계 역할을 수행할 수 있다. In detail, the data relay computing system may include a communication facility for data relay, a server, a computing device, and the like, and relay communication data to/from the computing devices through a wired/wireless communication network. For example, the data relay computing system may perform a relay role of transferring communication data transmitted/received between the computing device of the first user and the computing device of the second user.

또한, 데이터 가공 서버는, 네트워크 환경에 따라 설정된 영상 파라미터로 커뮤니케이션 데이터 내 확장현실 영상 콘텐츠를 가공하는 역할을 수행할 수 있다. In addition, the data processing server may perform a role of processing the extended reality image content in the communication data with image parameters set according to the network environment.

다만, 실시예에서 네트워크 환경에 따른 커뮤니케이션 모드에 따라 커뮤니케이션 데이터를 가공하는 역할은 확장현실 영상 콘텐츠를 제작하는 사용자의 컴퓨팅 디바이스에서 수행되는 것으로 설명한다. However, in the embodiment, it will be described that the role of processing communication data according to the communication mode according to the network environment is performed by the computing device of the user who produces the extended reality image content.

또한, 가상 콘텐츠 데이터베이스에는, 증강현실 환경이나, 혼합현실 환경을 구현하기 위한 가상 콘텐츠 데이터가 저장되어 있을 수 있다. 이러한 가상 콘텐츠 데이터베이스는, 상기 가상 콘텐츠를 실제객체(예컨대, 마커)나 공간좌표에 매칭시켜 가상 콘텐츠로 저장할 수 있다. In addition, virtual content data for implementing an augmented reality environment or a mixed reality environment may be stored in the virtual content database. The virtual content database may store the virtual content as virtual content by matching the virtual content with a real object (eg, a marker) or spatial coordinates.

그리고 가상 콘텐츠 데이터베이스는, 컴퓨팅 디바이스 요청시 상기 컴퓨팅 디바이스의 주변 물리적 공간에 매칭된 가상 콘텐츠를 전달하는 가상 콘텐츠 소스 역할을 수행할 수 있다. In addition, the virtual content database may serve as a virtual content source for delivering virtual content matched to the surrounding physical space of the computing device upon request of the computing device.

또한, 공간정보 데이터베이스는, 특정 영역의 물리적 공간을 스캔하거나 3차원 공간 모델링하여 물리적 공간에 대한 정보 데이터를 저장할 수 있다. 또한, 물리적 공간 내에 실제객체, 마커 등을 이미지 학습하여 획득된 특징 정보들이 더 저장될 수 있으며, 특징 정보들은 공간 정보와 매칭되어 저장될 수 있으며, 이러한 정보들을 메타 정보로 저장될 수 있다. In addition, the spatial information database may store information data on the physical space by scanning the physical space of a specific area or modeling the three-dimensional space. In addition, characteristic information obtained by image-learning a real object, a marker, etc. in a physical space may be further stored, the characteristic information may be matched with spatial information and stored, and such information may be stored as meta information.

그리고 공간정보 데이터베이스는, 메타정보에 매칭하여 네트워크 환경에 따라 설정한 영상 파라미터를 추가적으로 저장할 수 있다. 이를 통해 사용자는, 특정 메타정보에 대해 확장현실 커뮤니케이션을 진행할 때, 기 설정된 영상 파라미터에 따라서 조정된 확장현실 영상을 통해 커뮤니케이션을 수행할 수 있다. In addition, the spatial information database may additionally store image parameters set according to the network environment by matching the meta information. Through this, when performing extended reality communication with respect to specific meta information, the user can communicate through the extended reality image adjusted according to preset image parameters.

즉, 서버 시스템(500)은, 컴퓨팅 디바이스의 주변 물리적 공간에 대한 가상 콘텐츠 데이터와 공간정보 데이터를 함께 송신하여, 상기 컴퓨팅 디바이스를 통해 증강현실 환경 또는 확장현실 환경을 제공할 수 있다. That is, the server system 500 may provide an augmented reality environment or an extended reality environment through the computing device by transmitting virtual content data and spatial information data about the surrounding physical space of the computing device together.

이러한 서버 시스템(500)은, 적어도 하나 이상의 컴퓨팅 서버, 데이터베이스 서버로 구성될 수 있으며, 데이터 처리를 위한 프로세서들과, 커뮤니케이션 중계 서비스 제공을 위한 명령어들을 저장하는 메모리들을 포함할 수 있다. The server system 500 may include at least one computing server and a database server, and may include processors for data processing and memories for storing instructions for providing a communication relay service.

- 컴퓨팅 디바이스 - Computing device

상기 컴퓨팅 디바이스는, 사용자에게 확장현실 환경을 제공하며, 이러한 확장현실 환경 내에서 음성, 화상 및 실제객체와 대응된 가상 콘텐츠를 이용하여 타사용자와 커뮤니케이션할 수 있는 확장현실 어플리케이션을 실행할 수 있다. The computing device may provide an extended reality environment to the user and execute an extended reality application capable of communicating with other users using virtual content corresponding to voice, image, and real objects within the extended reality environment.

이러한 컴퓨팅 디바이스는, 확장현실 어플리케이션이 설치된 다양한 타입(예컨대, 웨어러블 타입, 모바일 타입, 데스크 탑 타입 또는 테이블 탑 타입)의 컴퓨팅 디바이스를 포함할 수 있다. The computing device may include various types of computing devices (eg, wearable type, mobile type, desktop type, or table top type) in which the extended reality application is installed.

1. 웨어러블 타입의 컴퓨팅 디바이스(100, 101)1. Wearable type computing device (100, 101)

도 2는 본 발명의 실시예에 따른 웨어러블 타입의 컴퓨팅 디바이스를 통해 확장현실 환경을 경험하는 개념도이고, 도 3은 본 발명의 실시예에 따른 웨어러블 타입의 컴퓨팅 디바이스의 내부 블록도이다. 2 is a conceptual diagram of experiencing an extended reality environment through a wearable-type computing device according to an embodiment of the present invention, and FIG. 3 is an internal block diagram of the wearable-type computing device according to an embodiment of the present invention.

실시예에 따른 컴퓨팅 디바이스(100, 101)는, 스마트 글래스(smart glasses display)나 헤드 마운티드 디스플레이(HMD)와 같은 웨어러블 타입의 컴퓨팅 디바이스를 포함할 수 있다. The computing devices 100 and 101 according to the embodiment may include a wearable type computing device such as a smart glasses display or a head mounted display (HMD).

스마트 글라스 타입의 컴퓨팅 디바이스(100)는, 착용되는 동안 사용자가 주변 물리적 공간을 볼 수 있도록 광을 투과하면서 사용자의 시야 상에 가상 콘텐츠(예컨대, 가상객체 이미지)를 표시하는 글라스를 포함하는 디스플레이 시스템을 포함할 수 있다.The smart glass type computing device 100 is a display system including glasses that display virtual content (eg, virtual object image) on the user's field of vision while transmitting light so that the user can see the surrounding physical space while worn. may include

자세히, 실시예의 컴퓨팅 디바이스(100)는, 주변 물리적 공간으로부터의 광이 사용자의 눈에 도달하도록 투과함과 동시에, 디스플레이 시스템에 의해 표시된 가상 콘텐츠를 사용자의 눈을 향해 반사시키는 투명한 글래스 디스플레이를 포함할 수 있다. Specifically, the computing device 100 of an embodiment may include a transparent glass display that transmits light from the surrounding physical space to reach the user's eyes, while at the same time reflecting the virtual content displayed by the display system towards the user's eyes. can

예를 들어, 도 2를 참조하면, 컴퓨팅 디바이스(100)의 확장현실 어플리케이션은, 주변 물리적 공간(20)에서 실제객체(RO)와 실제객체 내 마커(MK) 등을 이미지 인식할 수 있으며, 인식된 마커(MK)에 대응되는 사용자의 시야에 가상 콘텐츠(VC1)을 표시하도록 제어할 수 있다. For example, referring to FIG. 2 , the extended reality application of the computing device 100 may recognize an image of a real object (RO) and a marker (MK) within the real object in the surrounding physical space 20 , and recognize It is possible to control to display the virtual content VC1 in the user's field of view corresponding to the displayed marker MK.

또한, 확장현실 어플리케이션은, 학습된 실제객체를 인식할 수 있으며, 인식된 실제객체의 위치에 대응되는 사용자의 시야에 가상 콘텐츠(VC2)를 표시하도록 제어하여, 확장현실 영상 콘텐츠를 제공할 수 있다. In addition, the extended reality application can recognize the learned real object, and control to display the virtual content VC2 in the user's field of view corresponding to the position of the recognized real object, thereby providing the extended reality image content. .

또한, 확장현실 어플리케이션은, 학습된 실제객체나 마커(MK)를 통해 물리적 공간을 인식할 수 있으며, 인식된 공간의 특정 위치에 매칭된 가상 콘텐츠를 사용자의 시야의 대응되도록 표시하여, 확장현실 영상 콘텐츠를 제공할 수 있다. In addition, the extended reality application can recognize a physical space through a learned real object or marker (MK), and display virtual content matched to a specific location in the recognized space so as to correspond to the user's field of view, thereby providing an extended reality image content can be provided.

이러한 가상 콘텐츠는 컴퓨팅 디바이스에서 사용자 시야의 일부분에 디스플레이 될 수 있는 이미지 또는 영상과 같은 시각 콘텐츠를 포함할 수 있다. 예를 들어, 가상 콘텐츠는 물리적 공간의 다양한 부분을 오버레이하는 가상객체 이미지들을 포함할 수 있다. 이러한 가상객체 이미지는 2D 이미지 또는 3D 이미지로 렌더링 될 수 있다. Such virtual content may include visual content, such as an image or video, that may be displayed in a portion of the user's field of view on the computing device. For example, the virtual content may include virtual object images overlaying various parts of the physical space. This virtual object image may be rendered as a 2D image or a 3D image.

실시예에 따라서, 헤드 마운티드 디스플레이 타입의 컴퓨팅 디바이스(101)는, 사용자의 시야의 일 영역에 촬영영상에 대해 가상 객체가 증강된 확장현실 영상을 표시하는 방식으로, 확장현실 영상 콘텐츠를 제공할 수도 있다. According to an embodiment, the head-mounted display type computing device 101 may provide extended reality image content by displaying an augmented reality image in which a virtual object is augmented with respect to a captured image in an area of a user's field of view. have.

헤드 마운티드 디스플레이 타입의 컴퓨팅 디바이스(101)는, 디스플레이 시스템에 의해서만, 디스플레이된 이미지를 볼 수 있도록 주변 물리적 공간에 대한 광을 차단할 수 있다. 이러한 헤드 마운티드 디스플레이 타입의 컴퓨팅 디바이스는, 3차원 장면을 인식시키기 위해 좌안과 우안 디스플레이 각각에 시차에 오프셋을 둔 서로 다른 이미지를 출력함으로써, 3차원 영상을 출력할 수 있다. The head mounted display type computing device 101 may block light to the surrounding physical space so that the displayed image can be viewed only by the display system. The head-mounted display type computing device may output a 3D image by outputting different images with an offset in parallax to each of the left and right eye displays in order to recognize the 3D scene.

그리고 헤드 마운티드 디스플레이 타입의 컴퓨팅 디바이스(101) 또한, 주변 물리적 공간을 촬영한 영상 및 상기 촬영한 영상을 기초로 생성된 가상 콘텐츠를 3차원 영상으로 출력함으로써, 확장현실 환경을 제공할 수 있다. In addition, the head-mounted display type computing device 101 may provide an extended reality environment by outputting an image of the surrounding physical space and virtual content generated based on the captured image as a 3D image.

또한, 헤드 마운티드 디스플레이 타입의 컴퓨팅 디바이스(101)는, 주변 물리적 공간 또는 물리적 공간을 촬영한 영상을 기초로 사용자 입력에 따라서 가상객체를 생성하여 확장현실 영상 콘텐츠를 생성하는 유저 인터페이스를 제공할 수 있다. In addition, the head-mounted display type computing device 101 may provide a user interface for generating extended reality image content by generating a virtual object according to a user input based on an image captured in the surrounding physical space or physical space. .

또한, 헤드 마운티드 디스플레이 타입의 컴퓨팅 디바이스(101)는, 사용자 또는 타 사용자의 촬영 영상을 기초로 생성된 가상 콘텐츠를 증강한 확장현실 영상을 일 영역 상에 출력하는 방식으로 확장현실 영상 콘텐츠를 제공할 수도 있다. In addition, the head-mounted display type computing device 101 provides extended reality image content by outputting an extended reality image augmented with virtual content generated based on a captured image of a user or another user on an area. may be

이하에서는, 이러한 웨어러블 타입 디바이스 중 스마트 글라스 타입의 컴퓨팅 디바이스를 중심으로 구체적인 구성요소를 설명하기로 한다. Hereinafter, specific components will be described focusing on a smart glass type computing device among these wearable type devices.

도 3을 참조하면, 예시적인 구현에 따른 컴퓨팅 디바이스(100)는, 확장현실 어플리케이션을 포함하는 메모리(110), 프로세서 어셈블리(120), 통신 모듈(130), 인터페이스 모듈(140), 입력 시스템(150), 센서 시스템(160) 및 디스플레이 시스템(170)을 포함할 수 있다. 또한, 상기 구성요소들은 컴퓨팅 디바이스(100)의 하우징 내에 포함되도록 구현될 수 있다. Referring to FIG. 3 , a computing device 100 according to an exemplary implementation includes a memory 110 including an extended reality application, a processor assembly 120 , a communication module 130 , an interface module 140 , and an input system ( 150 ), a sensor system 160 , and a display system 170 . In addition, the components may be implemented to be included in the housing of the computing device 100 .

메모리(110)에는, 확장현실 어플리케이션(111)이 저장되며, 확장현실 어플리케이션(111)에는 확장현실 환경을 제공하기 위한 가상 콘텐츠, 이미지 버퍼, 위치 엔진, 가상 콘텐츠 디스플레이 엔진 등이 포함될 수 있다. 즉, 메모리(110)는 확장현실 환경을 생성하기 위해 사용될 수 있는 명령 및 데이터를 저장할 수 있다. The memory 110 stores the extended reality application 111 , and the extended reality application 111 may include virtual content for providing an extended reality environment, an image buffer, a location engine, a virtual content display engine, and the like. That is, the memory 110 may store commands and data that can be used to create an extended reality environment.

실시예에서 확장현실 어플리케이션(111)은, 확장현실 환경에 기초하여 커뮤니케이션을 수행하기 위한 커뮤니케이션 어플리케이션을 포함할 수 있다. 커뮤니케이션 어플리케이션은, 네트워크 환경 반응형 확장현실 커뮤니케이션 서비스를 제공하기 위한 각종 어플리케이션, 엔진, 데이터 및 명령어를 포함할 수 있다. In an embodiment, the extended reality application 111 may include a communication application for performing communication based on the extended reality environment. The communication application may include various applications, engines, data, and commands for providing a network environment responsive extended reality communication service.

또한, 메모리(110)는, 적어도 하나 이상의 비일시적 컴퓨터 판독 가능 저장매체와, 일시적 컴퓨터 판독 가능 저장매체를 포함할 수 있다. 예를 들어, 메모리(110)는, ROM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기일 수 있고, 인터넷(internet)상에서 상기 메모리(110)의 저장 기능을 수행하는 웹 스토리지(web storage)를 포함할 수 있다. Also, the memory 110 may include at least one or more non-transitory computer-readable storage media and a temporary computer-readable storage medium. For example, the memory 110 may be various storage devices such as ROM, EPROM, flash drive, hard drive, and the like, and web storage that performs a storage function of the memory 110 on the Internet. may include

프로세서 어셈블리(120)는, 확장현실 환경을 생성하기 위한 다양한 작업을 수행하기 위해, 메모리(110)에 저장된 확장현실 어플리케이션(111)의 명령들을 실행할 수 있는 적어도 하나 이상의 프로세서를 포함할 수 있다. The processor assembly 120 may include at least one processor capable of executing instructions of the extended reality application 111 stored in the memory 110 to perform various tasks for generating the extended reality environment.

실시예에서 프로세서 어셈블리(120)는, 확장현실(XR) 커뮤니케이션 서비스를 제공하기 위하여 메모리(110)의 확장현실 어플리케이션(111)을 통해 구성요소의 전반적인 동작을 컨트롤할 수 있다. In an embodiment, the processor assembly 120 may control overall operations of components through the extended reality application 111 of the memory 110 in order to provide an extended reality (XR) communication service.

예를 들어, 프로세서 어셈블리(120)는, 이미지 센서를 기반으로 획득된 영상으로부터 실제객체를 인식할 수 있고, 인식된 실제객체에 가상 콘텐츠를 매칭한 증강현실 영상을 생성하고 표시하도록 컴퓨팅 디바이스(100)의 구성요소들을 제어할 수 있다. For example, the processor assembly 120 may recognize a real object from an image obtained based on the image sensor, and generate and display an augmented reality image matching the recognized real object with virtual content. ) can be controlled.

이러한 프로세서 어셈블리(120)는, 중앙처리장치(CPU) 및/또는 그래픽 프로세서 장치(GPU)를 포함할 수 있다. 또한, 프로세서 어셈블리(120)는, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세스(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 포함하여 구현될 수 있다. The processor assembly 120 may include a central processing unit (CPU) and/or a graphics processor unit (GPU). In addition, the processor assembly 120, ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays), controllers (controllers) ), micro-controllers, microprocessors, and other electrical units for performing other functions.

통신 모듈(130)은, 다른 컴퓨팅 장치(예컨대, 서버 시스템(500))와 통신하기 위한 하나 이상의 장치를 포함할 수 있다. 이러한 통신 모듈(130)은, 무선 네트워크를 통해 통신할 수 있다. Communication module 130 may include one or more devices for communicating with other computing devices (eg, server system 500 ). The communication module 130 may communicate through a wireless network.

자세히, 통신 모듈(130)은, 확장현실 환경을 구현하기 위한 가상 콘텐츠 소스를 저장한 컴퓨팅 장치와 통신할 수 있으며, 사용자 입력을 받은 컨트롤러와 같은 다양한 사용자 입력 컴포넌트와 통신할 수 있다. In detail, the communication module 130 may communicate with a computing device storing a virtual content source for implementing an extended reality environment, and may communicate with various user input components such as a controller that has received a user input.

실시예에서 통신 모듈(130)은, 확장현실(XR) 커뮤니케이션 서비스와 관련된 커뮤니케이션 데이터를 서버 시스템(500) 및/또는 다른 컴퓨팅 디바이스(100)와 송수신할 수 있다. In an embodiment, the communication module 130 may transmit and receive communication data related to an extended reality (XR) communication service with the server system 500 and/or other computing device 100 .

이러한 통신 모듈(130)은, 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced),5G NR(New Radio), WIFI) 또는 근거리 통신방식 등을 수행할 수 있는 통신장치를 통해 구축된 이동 통신망 상에서 기지국, 외부의 단말, 임의의 서버 중 적어도 하나와 무선으로 데이터를 송수신할 수 있다.Such a communication module 130, the technical standards or communication methods for mobile communication (eg, Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), 5G NR (New Radio), WIFI) Alternatively, data may be wirelessly transmitted/received with at least one of a base station, an external terminal, and an arbitrary server on a mobile communication network constructed through a communication device capable of performing a short-range communication method.

센서 시스템(160)은, 이미지 센서(161), 위치 센서(IMU, 163), 오디오 센서, 거리 센서, 근접 센서, 접촉 센서 등 다양한 센서를 포함할 수 있다. The sensor system 160 may include various sensors such as an image sensor 161 , a position sensor IMU 163 , an audio sensor, a distance sensor, a proximity sensor, and a contact sensor.

이미지 센서(161)는, 컴퓨팅 디바이스(100) 주위의 물리적 공간에 대한 이미지 및/또는 영상을 캡처할 수 있다. The image sensor 161 may capture an image and/or an image of a physical space around the computing device 100 .

실시예에서 이미지 센서(161)는, 확장현실(XR) 커뮤니케이션 서비스에 관련된 영상을 촬영하여 획득할 수 있다.In an embodiment, the image sensor 161 may capture and acquire an image related to an extended reality (XR) communication service.

또한, 이미지 센서(161)는, 컴퓨팅 디바이스(100)의 전면 또는/및 후면에 배치되어 배치된 방향측을 촬영하여 영상을 획득할 수 있으며, 컴퓨팅 디바이스(100)의 외부를 향해 배치된 카메라를 통해 작업 현장과 같은 물리적 공간을 촬영할 수 있다. In addition, the image sensor 161 is disposed on the front or / and rear of the computing device 100 to obtain an image by photographing the disposed direction side, and a camera disposed toward the outside of the computing device 100 . Through this, it is possible to photograph a physical space such as a work site.

이러한 이미지 센서(161)는, 이미지 센서(161)와 영상 처리 모듈을 포함할 수 있다. 자세히, 이미지 센서(161)는, 이미지 센서(161)(예를 들면, CMOS 또는 CCD)에 의해 얻어지는 정지영상 또는 동영상을 처리할 수 있다. The image sensor 161 may include an image sensor 161 and an image processing module. Specifically, the image sensor 161 may process a still image or a moving image obtained by the image sensor 161 (eg, CMOS or CCD).

또한, 이미지 센서(161)는, 영상 처리 모듈을 이용하여 이미지 센서(161)를 통해 획득된 정지영상 또는 동영상을 가공해 필요한 정보를 추출하고, 추출된 정보를 프로세서에 전달할 수 있다.Also, the image sensor 161 may process a still image or a moving image obtained through the image sensor 161 using an image processing module to extract necessary information, and transmit the extracted information to the processor.

이러한 이미지 센서(161)는, 적어도 하나 이상의 카메라를 포함하는 카메라 어셈블리일 수 있다. 카메라 어셈블리는, 가시광선 대역을 촬영하는 일반 카메라를 포함할 수 있으며, 적외선 카메라, 스테레오 카메라 등의 특수 카메라를 더 포함할 수 있다. The image sensor 161 may be a camera assembly including at least one camera. The camera assembly may include a general camera that captures a visible light band, and may further include a special camera such as an infrared camera or a stereo camera.

IMU(163)는 컴퓨팅 디바이스(100)의 움직임 및 가속도 중 적어도 하나 이상을 감지할 수 있다. 예를 들어, 가속도계, 자이로스코프, 자력계와 같은 다양한 위치 센서의 조합으로 이루어 질 수 있다. 또한, 통신 모듈(130)의 GPS와 같은 위치 통신 모듈(130)과 연동하여, 컴퓨팅 디바이스(100) 주변의 물리적 공간에 대한 공간 정보를 인식할 수 있다. The IMU 163 may sense at least one of a motion and an acceleration of the computing device 100 . For example, it may consist of a combination of various position sensors such as an accelerometer, a gyroscope, and a magnetometer. In addition, by interworking with the location communication module 130 such as GPS of the communication module 130 , spatial information about the physical space around the computing device 100 may be recognized.

또한, IMU(163)는, 검출된 위치 및 방향을 기초로 사용자의 시선 방향 및 머리 움직임을 검출 및 추적하는 정보를 검출할 수 있다. In addition, the IMU 163 may detect information for detecting and tracking the user's gaze direction and head movement based on the detected position and direction.

또한, 일부 구현들에서, 확장현실 어플리케이션(111)은 이러한 IMU(163) 및 이미지 센서(161)를 사용하여 물리적 공간 내의 사용자의 위치 및 방향을 결정하거나 물리적 공간 내의 특징 또는 객체를 인식할 수 있다.Also, in some implementations, the augmented reality application 111 may use such an IMU 163 and the image sensor 161 to determine the location and orientation of a user in the physical space or to recognize a feature or object in the physical space. .

오디오 센서(165)는, 컴퓨팅 디바이스(100) 주변의 소리를 인식할 수 있다. The audio sensor 165 may recognize a sound around the computing device 100 .

자세히, 오디오 센서(165)는, 컴퓨팅 디바이스(100) 사용자의 음성 입력을 감지할 수 있는 마이크로폰을 포함할 수 있다. In detail, the audio sensor 165 may include a microphone capable of detecting a voice input of a user of the computing device 100 .

실시예에서 오디오 센서(165)는 확장현실 커뮤니케이션 서비스를 통해 전송할 커뮤니케이션 데이터의 음성 데이터를 사용자로부터 입력 받을 수 있다.In an embodiment, the audio sensor 165 may receive voice data of communication data to be transmitted through the extended reality communication service from the user.

인터페이스 모듈(140)은, 컴퓨팅 디바이스(100)를 하나 이상의 다른 장치와 통신 가능하게 연결할 수 있다. 자세히, 인터페이스 모듈(140)은, 하나 이상의 상이한 통신 프로토콜과 호환되는 유선 및/또는 무선 통신 장치를 포함할 수 있다. The interface module 140 may communicatively connect the computing device 100 with one or more other devices. Specifically, the interface module 140 may include wired and/or wireless communication devices compatible with one or more different communication protocols.

이러한 인터페이스 모듈(140)을 통해 컴퓨팅 디바이스(100)는, 여러 입출력 장치들과 연결될 수 있다. The computing device 100 may be connected to various input/output devices through the interface module 140 .

예를 들어, 인터페이스 모듈(140)은, 헤드셋 포트나 스피커와 같은 오디오 출력장치와 연결되어, 오디오를 출력할 수 있다. For example, the interface module 140 may be connected to an audio output device such as a headset port or a speaker to output audio.

예시적으로 오디오 출력장치가 인터페이스 모듈(140)을 통해 연결되는 것으로 설명하였으나, 컴퓨팅 디바이스(100) 내부에 설치되는 실시예도 포함될 수 있다. For example, although it has been described that the audio output device is connected through the interface module 140 , an embodiment in which the audio output device is installed inside the computing device 100 may also be included.

이러한 인터페이스 모듈(140)은, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리(110) 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port), 전력 증폭기, RF 회로, 송수신기 및 기타 통신 회로 중 적어도 하나를 포함하여 구성될 수 있다. Such an interface module 140, a wired / wireless headset port (port), an external charger port (port), a wired / wireless data port (port), a memory 110 card (memory card) port, a device equipped with an identification module port, audio I/O (Input/Output) port, video I/O (Input/Output) port, earphone port, power amplifier, RF circuit, transceiver and It may be configured to include at least one of other communication circuits.

입력 시스템(150)은 확장현실(XR) 커뮤니케이션 서비스와 관련된 사용자의 입력(예를 들어, 제스처, 음성 명령, 버튼의 작동 또는 다른 유형의 입력)을 감지할 수 있다. The input system 150 may detect a user's input (eg, a gesture, a voice command, operation of a button, or other type of input) related to an extended reality (XR) communication service.

자세히, 입력 시스템(150)은 버튼, 터치 센서 및 사용자 모션 입력을 수신하는 이미지 센서(161)를 포함할 수 있다. Specifically, the input system 150 may include a button, a touch sensor, and an image sensor 161 that receives user motion input.

또한, 입력 시스템(150)은, 인터페이스 모듈(140)을 통해 외부 컨트롤러와 연결되어, 사용자의 입력을 수신할 수 있다. Also, the input system 150 may be connected to an external controller through the interface module 140 to receive a user's input.

입력 시스템(150)을 통해 입력된 사용자 입력에 따라서 주변 물리적 공간에 대한 가상객체가 생성될 수 있으며, 프로세서 어셈블리는 이와 같이 입력 시스템(150)을 통해 확장현실 영상 콘텐츠를 생성하는 유저 인터페이스를 제공할 수 있다. A virtual object for the surrounding physical space may be generated according to a user input input through the input system 150 , and the processor assembly may provide a user interface for generating extended reality image content through the input system 150 as described above. can

디스플레이 시스템(170)은, 컴퓨팅 디바이스(100) 주변 물리적 공간으로부터의 광이 사용자의 눈에 도달하도록 투과함과 동시에, 디스플레이 시스템(170)에 의해 표시된 가상 콘텐츠를 사용자의 눈을 향해 반사시키는 투명한 글래스 디스플레이를 포함할 수 있다.The display system 170 is a transparent glass that transmits light from the physical space surrounding the computing device 100 to reach the user's eyes while reflecting the virtual content displayed by the display system 170 towards the user's eyes. It may include a display.

이러한 디스플레이 시스템(170)은, 컴퓨팅 디바이스(100)를 착용한 사용자의 좌안에 대응되는 좌측 디스플레이(171)와, 우안에 대응되는 우측 디스플레이(172)를 포함할 수 있으며, 좌측 디스플레이(171)와 우측 디스플레이(172)는 시차에 오프셋을 둔 서로 다른 이미지를 가상 콘텐츠로 출력함으로써, 사용자는 가상 콘텐츠를 3차원 이미지로 인식할 수 있다. The display system 170 may include a left display 171 corresponding to the left eye of the user wearing the computing device 100 and a right display 172 corresponding to the right eye of the user wearing the computing device 100 , and the left display 171 and The right display 172 outputs different images with an offset to the parallax as virtual content, so that the user may recognize the virtual content as a 3D image.

실시예에서 디스플레이 시스템(170)은, 확장현실(XR) 커뮤니케이션 서비스와 관련된 다양한 정보를 그래픽 이미지로 출력할 수 있다. In an embodiment, the display system 170 may output various information related to an extended reality (XR) communication service as a graphic image.

이러한 디스플레이는, 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다. Such displays include a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display. , a three-dimensional display (3D display), may include at least one of an electronic ink display (e-ink display).

이러한 웨어러블 타입 컴퓨팅 디바이스(100)는, 작업 현장과 같은 물리적 공간에 위치한 현장 작업자가 사용하기에 유리할 수 있다. The wearable type computing device 100 may be advantageous for use by field workers located in a physical space such as a work site.

2. 모바일 타입 컴퓨팅 디바이스(200)2. Mobile type computing device 200

도 4는 본 발명의 실시예에 따른 모바일 타입의 컴퓨팅 디바이스를 통해 확장현실 환경을 경험하는 개념도이고, 도 5는 본 발명의 실시예에 따른 모바일 타입의 컴퓨팅 디바이스의 내부 블록도이다. 4 is a conceptual diagram of experiencing an extended reality environment through a mobile-type computing device according to an embodiment of the present invention, and FIG. 5 is an internal block diagram of a mobile-type computing device according to an embodiment of the present invention.

다른 예시에서 컴퓨팅 디바이스(200)는, 확장현실 어플리케이션이 설치된 스마트 폰이나 테블릿 PC와 같은 모바일 장치일 수 있다. 이러한 모바일 타입 컴퓨팅 디바이스(200)는, 이미지 센서로 주변 물리적 공간의 영상을 캡처하고, 디스플레이 시스템을 통해 캡처된 영상과 물리적 공간에 매칭되어 표시되는 가상 콘텐츠를 표시하여 확장현실 환경을 사용자에게 제공할 수 있다. In another example, the computing device 200 may be a mobile device such as a smart phone or a tablet PC on which an extended reality application is installed. The mobile type computing device 200 provides an extended reality environment to the user by capturing an image of the surrounding physical space with an image sensor, and displaying the image captured through the display system and virtual content displayed by matching the physical space. can

예를 들어, 컴퓨팅 디바이스는 스마트 폰(smart phone), 휴대폰, 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 태블릿 PC(tablet PC), 등이 포함될 수 있다. For example, the computing device may include a smart phone, a mobile phone, a digital broadcasting terminal, personal digital assistants (PDA), a portable multimedia player (PMP), a tablet PC, and the like.

도 4를 참조하면, 모바일 타입 컴퓨팅 디바이스(200)의 확장현실 어플리케이션은, 주변 물리적 공간(20)에서 실제객체(RO)와 마커(MK) 등을 이미지 캡처하고 디스플레이 시스템을 제어하여 표시할 수 있다. 또한, 확장현실 어플리케이션은, 인식된 마커(MK)에 대응되는 위치에 가상 콘텐츠(VC1)을 표시하도록 제어할 수 있다. 또한, 확장현실 어플리케이션은, 특정 실제객체를 학습하여 인식할 수 있으며, 인식된 특정 실제객체의 위치에 대응되는 사용자의 시야에 가상 콘텐츠(VC2)를 표시하도록 제어할 수 있다. Referring to FIG. 4 , the extended reality application of the mobile type computing device 200 may capture images of real objects (RO) and markers (MK) in the surrounding physical space 20 and display them by controlling the display system. . In addition, the extended reality application may control to display the virtual content VC1 at a position corresponding to the recognized marker MK. In addition, the augmented reality application may learn and recognize a specific real object, and may control to display the virtual content VC2 in the user's field of view corresponding to the recognized location of the specific real object.

도 5를 참조하면, 예시적인 구현에 따른 모바일 타입 컴퓨팅 디바이스(200)는, 메모리(210), 프로세서 어셈블리(220), 통신 모듈(230), 인터페이스 모듈(240), 입력 시스템(250), 센서 시스템(260) 및 디스플레이 시스템(270)을 포함할 수 있다. 이러한 구성요소들은 컴퓨팅 디바이스(200)의 하우징 내에 포함되도록 구성될 수 있다. Referring to FIG. 5 , a mobile type computing device 200 according to an exemplary implementation includes a memory 210 , a processor assembly 220 , a communication module 230 , an interface module 240 , an input system 250 , and a sensor. may include a system 260 and a display system 270 . These components may be configured to be included within a housing of the computing device 200 .

모바일 타입 컴퓨팅 디바이스(200)의 상기 구성요소에 대한 설명 중 중복되는 내용은 웨어러블 타입 컴퓨팅 디바이스(100)의 구성요소에 대한 설명으로 대체하기로 하며, 이하에서는 웨어러블 타입 컴퓨팅 디바이스(100)와의 차이점을 중심으로 설명한다.The overlapping contents among the descriptions of the components of the mobile type computing device 200 will be replaced with the descriptions of the components of the wearable type computing device 100, and below, the differences with the wearable type computing device 100 will be described. explained in the center.

이러한 모바일 타입 컴퓨팅 디바이스(200)의 하우징 내에는 상기 구성요소들이 배치될 수 있으며, 사용자 인터페이스는 사용자 터치 입력을 수신하도록 구성된 디스플레이(271) 상에 터치 센서(273)를 포함할 수 있다. The above components may be disposed within the housing of the mobile type computing device 200 , and the user interface may include a touch sensor 273 on a display 271 configured to receive user touch input.

자세히, 디스플레이 시스템(270)은, 이미지를 출력하는 디스플레이(271)와, 사용자의 터치 입력을 감지하는 터치 센서(273)를 포함할 수 있다.In detail, the display system 270 may include a display 271 that outputs an image, and a touch sensor 273 that detects a user's touch input.

예시적으로 디스플레이(271)는 터치 센서(273)와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린으로 구현될 수 있다. 이러한 터치 스크린은, 컴퓨팅 디바이스(200)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부로써 기능함과 동시에, 컴퓨팅 디바이스(200)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.For example, the display 271 may be implemented as a touch screen by forming a layer structure with each other or integrally formed with the touch sensor 273 . Such a touch screen may function as a user input unit that provides an input interface between the computing device 200 and the user, and may provide an output interface between the computing device 200 and the user.

이러한 디스플레이 시스템(270)은 확장현실 영상 콘텐츠를 출력하여 확장현실 환경을 제공할 수 있으며, 또한, 표시되는 촬영영상에 대해 사용자 입력을 받아 가상객체를 생성하여 확장현실 영상 콘텐츠를 생성하는 입출력 인터페이스를 제공할 수도 있다. The display system 270 can provide an extended reality environment by outputting extended reality image content, and also provides an input/output interface for generating virtual objects by receiving a user input for a displayed captured image. may provide.

또한, 센서 시스템(260)은, 이미지 센서(261)를 포함하며, 예시적으로 이미지 센서(261)는 컴퓨팅 디바이스(200)의 하우징에 일측 면과 타측 면에 배치될 수 있다. Also, the sensor system 260 includes an image sensor 261 , and for example, the image sensor 261 may be disposed on one side and the other side of the housing of the computing device 200 .

이때, 일측 면의 이미지 센서가 물리적 공간을 향해 배향되어 물리적 공간을 촬영한 영상을 캡처할 수 있으며, 타측 면의 이미지 센서는 사용자 측을 향해 배향되어 사용자 시야, 제스처 등을 촬영할 수 있다. In this case, the image sensor on one side may be oriented toward the physical space to capture an image photographed in the physical space, and the image sensor on the other side may be oriented toward the user side to capture the user's view, gesture, and the like.

이러한 모바일 타입 컴퓨팅 디바이스(200)는, 작업 현장과 같은 물리적 공간에 위치한 현장 작업자에게 적합할 수 있다. The mobile type computing device 200 may be suitable for a field worker located in a physical space, such as a job site.

3. 데스크 탑 타입 컴퓨팅 디바이스(300)3. Desktop type computing device (300)

도 6은 본 발명의 실시예에 따른 데스크 탑 타입의 컴퓨팅 디바이스의 내부 블록도이다. 6 is an internal block diagram of a desktop type computing device according to an embodiment of the present invention.

데스크 탑 타입 컴퓨팅 디바이스의 상기 구성요소에 대한 설명 중 중복되는 내용은 웨어러블 타입 컴퓨팅 디바이스(100)의 구성요소에 대한 설명으로 대체하기로 하며, 이하에서는 웨어러블 타입 컴퓨팅 디바이스(100)와의 차이점을 중심으로 설명한다.In the description of the above components of the desktop type computing device, the overlapping contents will be replaced with the description of the components of the wearable type computing device 100 . Hereinafter, the difference with the wearable type computing device 100 will be mainly Explain.

도 6을 참조하면, 다른 예시에서 컴퓨팅 디바이스(300)는, 확장현실 어플리케이션(311)이 설치된 고정형 데스크 탑 PC, 노트북 컴퓨터(laptop computer), 울트라북(ultrabook)과 같은 퍼스널 컴퓨터 등과 같이 유/무선 통신을 기반으로 확장현실(XR) 커뮤니케이션 서비스를 실행하기 위한 프로그램이 설치된 장치를 더 포함할 수 있다.Referring to FIG. 6 , in another example, the computing device 300 is wired/wireless, such as a personal computer such as a fixed desktop PC, a notebook computer, and an ultrabook, in which the extended reality application 311 is installed. A device in which a program for executing an extended reality (XR) communication service based on communication is installed may be further included.

이러한 데스크 탑 타입 컴퓨팅 디바이스(300)는, 타 사용자의 컴퓨팅 디바이스(300)에서 주변 물리적 공간을 촬영한 영상을 수신하고, 수신된 영상 및 상기 물리적 공간에 매칭된 가상 콘텐츠를 증강하여 표시함으로써, 확장현실 환경을 사용자에게 제공할 수 있다. The desktop-type computing device 300 receives an image photographed in the surrounding physical space from the computing device 300 of another user, and augments and displays the received image and virtual content matched to the physical space, thereby expanding A real environment may be provided to the user.

또한, 데스크 탑 타입 컴퓨팅 디바이스(300)는, 타 사용자로부터 커뮤니케이션 데이터를 수신하고, 수신된 커뮤니케이션 데이터에서 확장현실 영상 콘텐츠를 출력하여, 확장현실 환경을 사용자에게 제공할 수 있다. In addition, the desktop type computing device 300 may receive communication data from another user and output extended reality image content from the received communication data to provide an extended reality environment to the user.

또한, 데스크 탑 타입 컴퓨팅 디바이스(300)는, 유저 인터페이스 시스템(350)을 포함하여, 사용자 입력(예컨대, 터치 입력, 마우스 입력, 키보드 입력, 제스처 입력, 가이드 도구를 이용한 모션 입력 등)을 수신할 수 있다. In addition, the desktop type computing device 300 includes the user interface system 350 to receive user input (eg, touch input, mouse input, keyboard input, gesture input, motion input using a guide tool, etc.). can

예시적으로, 컴퓨팅 디바이스(300)는, 유저 인터페이스 시스템(350)을 다양한 통신 프로토콜로 마우스(351), 키보드(352), 제스처 입력 컨트롤러, 이미지 센서(361)(예컨대, 카메라) 및 오디오 센서(365) 등 적어도 하나의 장치와 연결되어, 사용자 입력을 획득할 수 있다. Illustratively, the computing device 300 includes a mouse 351 , a keyboard 352 , a gesture input controller, an image sensor 361 (eg, a camera) and an audio sensor (eg, a camera) using the user interface system 350 with various communication protocols. 365), etc., may be connected to at least one device to obtain a user input.

또한, 데스크 탑 타입의 컴퓨팅 디바이스(300)는, 유저 인터페이스 시스템(350)을 통해 외부 출력 장치와 연결될 수 있으며, 예컨대, 디스플레이 장치(370), 오디오 출력 장치 등에 연결될 수 있다. In addition, the desktop type computing device 300 may be connected to an external output device through the user interface system 350 , for example, the display device 370 , an audio output device, or the like.

예시적인 구현으로, 데스크 탑 컴퓨팅 디바이스(300)의 확장현실 어플리케이션(311)은, 디스플레이 장치(370)를 통해 타유저의 컴퓨팅 디바이스(300)의 영상을 획득하여 출력할 수 있으며, 상기 영상에 대응한 사용자 입력을 수신하고 수신된 사용자 입력에 따라 영상에 대응되는 가상 콘텐츠를 생성할 수 있다. In an exemplary implementation, the extended reality application 311 of the desktop computing device 300 may obtain and output an image of the computing device 300 of another user through the display device 370 , and correspond to the image. A user input may be received and virtual content corresponding to an image may be generated according to the received user input.

또한, 확장현실 어플리케이션(311)은, 영상의 물리적 공간 내 센서 시스템(260)이나 기 매칭된 가상 콘텐츠 소스로부터 데이터를 수신하고, 수신된 데이터를 영상과 매칭된 가상 콘텐츠로 생성할 수 있다. Also, the extended reality application 311 may receive data from the sensor system 260 or a previously matched virtual content source in the physical space of the image, and may generate the received data as virtual content matched with the image.

또한, 확장현실 어플리케이션(311)은, 이와 같이 생성된 가상 콘텐츠를 디스플레이 장치에서 출력되는 영상에 오버레이하여 출력함으로써, 사용자에게 확장현실 환경을 제공할 수 있다. In addition, the extended reality application 311 may provide an extended reality environment to the user by overlaying the generated virtual content on an image output from the display device and outputting it.

또한, 확장현실 어플리케이션(311)은, 통신 모듈(330)을 통해 생성된 가상 콘텐츠를 커뮤니케이션 데이터로 송신하여, 음성, 화상과 더불어 물리적 공간에 대응된 가상 콘텐츠를 의사소통을 위한 매개로 활용할 수 있다. In addition, the augmented reality application 311 may transmit the virtual content generated through the communication module 330 as communication data, and use the virtual content corresponding to the physical space as well as voice and image as a communication medium. .

예시적인 구현에 따른 데스크 탑 타입 컴퓨팅 디바이스(300)는, 메모리(310), 프로세서 어셈블리(320), 통신 모듈(330), 유저 인터페이스 시스템(350) 및 입력 시스템(340)을 포함할 수 있다. 이러한 구성요소들은 컴퓨팅 디바이스(300)의 하우징 내에 포함되도록 구성될 수 있다. The desktop type computing device 300 according to the example implementation may include a memory 310 , a processor assembly 320 , a communication module 330 , a user interface system 350 , and an input system 340 . These components may be configured to be included within a housing of the computing device 300 .

데스크 탑 타입 컴퓨팅 디바이스(300)의 상기 구성요소에 대한 설명 중 중복되는 내용은 웨어러블 타입 컴퓨팅 디바이스(300)의 구성요소에 대한 설명으로 대체하기로 한다. In the description of the above components of the desktop type computing device 300 , the overlapping contents will be replaced with the description of the components of the wearable type computing device 300 .

이러한 데스크 탑 타입 컴퓨팅 디바이스(300)는, 현장 작업자의 컴퓨팅 디바이스(300)와 연동하여 원격으로 지시나 필요한 정보를 전달하는 원격 관지라가 사용하기 유리할 수 있다. Such a desktop type computing device 300 may be advantageous for use by a remote manager that remotely transmits instructions or necessary information in conjunction with the computing device 300 of a field worker.

4. 테이블 탑 타입 컴퓨팅 디바이스(400)4. Table Top Type Computing Device 400

예시적 구현에 따르면 테이블 탑 타입의 컴퓨팅 디바이스(400)는, 기존 데스크 탑 타입의 컴퓨팅 디바이스(300)와 다른 새로운 형상과 구조의 테이블 탑(Tabletop) 형상으로 구현될 수 있고, 이러한 경우 테이블 탑 내에 포함된 시스템을 통해 확장현실 환경을 제공할 수 있다. According to an exemplary implementation, the tabletop type computing device 400 may be implemented in a new shape and structure different from that of the existing desktop type computing device 300 , and in this case, the tabletop type computing device 400 may be An extended reality environment can be provided through the included system.

테이블 탑 타입 컴퓨팅 디바이스(400)의 상기 구성요소에 대한 설명 중 중복되는 내용은 데스크 탑 타입 컴퓨팅 디바이스(300)의 구성요소에 대한 설명으로 대체하기로 하며, 이하에서는 데스크 탑 타입 컴퓨팅 디바이스(300)와의 차이점을 중심으로 설명한다.In the description of the components of the table-top type computing device 400 , the overlapping contents will be replaced with the description of the components of the desktop type computing device 300 . Hereinafter, the desktop type computing device 300 . The difference between and will be explained.

도 7은 본 발명의 실시예에 따른 테이블 탑 타입의 컴퓨팅 디바이스를 통해 확장현실 커뮤니케이션을 경험하는 개념도이고, 도 8은 본 발명의 실시예에 따른 테이블 탑 타입의 컴퓨팅 디바이스의 내부 블록도이다. 7 is a conceptual diagram of experiencing extended reality communication through a table-top type computing device according to an embodiment of the present invention, and FIG. 8 is an internal block diagram of the table-top type computing device according to an embodiment of the present invention.

테이블 탑(Tabletop) 타입 컴퓨팅 디바이스(400)란, 원격 관리자가 현장 작업자의 컴퓨팅 디바이스로부터 수신되는 영상을 용이하게 확인하고, 해당 영상에 표시되는 객체에 대한 작업 가이던스를 가상 콘텐츠를 기반으로 수월하게 입력하는 인터페이스 시스템을 제공하는 장치일 수 있다. The tabletop type computing device 400 means that a remote administrator can easily check an image received from a computing device of a field worker, and easily input operation guidance for an object displayed on the image based on virtual content It may be a device that provides an interface system for

즉, 테이블 탑 타입 컴퓨팅 디바이스(400)는, 타 유저의 컴퓨팅 디바이스로부터 획득되는 영상 상에, 현재 위치에서 획득되는 영상의 실재객체를 기반으로 생성되는 가상 콘텐츠를 표시한 증강/혼합현실 영상을 생성 및 제공하는 시스템일 수 있다. That is, the tabletop type computing device 400 generates an augmented/mixed reality image in which virtual content generated based on a real object of an image acquired at a current location is displayed on an image acquired from a computing device of another user. And it may be a system that provides.

도 7 및 도 8을 참조하면, 예시적인 테이블 탑 타입 컴퓨팅 디바이스(400)는, 메모리(410), 프로세서 어셈블리(420), 통신 모듈(430), 인터페이스 모듈(440), 입력 시스템(450), 센서 시스템(460) 및 디스플레이 시스템(470)을 포함할 수 있다. 7 and 8 , an exemplary table top type computing device 400 includes a memory 410 , a processor assembly 420 , a communication module 430 , an interface module 440 , an input system 450 , It may include a sensor system 460 and a display system 470 .

이러한 구성요소들은 컴퓨팅 디바이스(400)의 하우징 내에 포함되도록 구성될 수 있다. 테이블 탑 타입 컴퓨팅 디바이스(400)의 상기 구성요소에 대한 설명 중 중복되는 내용은 상기 기술한 구성요소에 대한 설명으로 대체하기로 하며, 이하에서는 차이점을 중심으로 설명한다.These components may be configured to be included within a housing of computing device 400 . In the description of the components of the table-top type computing device 400, the overlapping contents will be replaced with the description of the above-described components, and the following description will focus on the differences.

도 7을 보면, 예시의 테이블 탑 타입 컴퓨팅 디바이스(400)는, 디스플레이 시스템(470)을 통해 타 컴퓨팅 디바이스에서 촬영된 촬영영상과, 상기 촬영영상에 연관된 가상 콘텐츠를 출력하여 확장현실 환경을 사용자에게 제공할 수 있다. Referring to FIG. 7 , an exemplary table-top type computing device 400 outputs a captured image captured by another computing device through a display system 470 and virtual content related to the captured image to provide an extended reality environment to the user. can provide

또한, 테이블 탑 타입 컴퓨팅 디바이스(400)는, 디스플레이 시스템(470)의 디스플레이(471) 상에 터치 센서(473)를 통해 촬영영상에 대한 사용자의 포인팅, 드래그 등의 터치 입력을 받는 입출력 인터페이스를 제공할 수 있다. In addition, the table-top type computing device 400 provides an input/output interface for receiving a touch input such as pointing and dragging a user for a captured image through a touch sensor 473 on the display 471 of the display system 470 . can do.

또한, 테이블 탑 타입 컴퓨팅 디바이스(400)는, 디스플레이 시스템(470) 상에 배치된 센서 시스템(460)(예컨대, 이미지 센서(461))를 통해 사용자의 손(LH, RH)의 제스처 입력을 받을 수 있으며, 가이드 도구(Guide tool, GT)에 따른 동작 입력을 받을 수 있다. 이러한 제스처 입력과 가이드 도구의 동작 입력 또한 디스플레이(471)에 촬영영상에 대응하여 입력될 수 있으며, 컴퓨팅 디바이스(300)는 촬영영상에 표시된 실제객체 이미지에 매칭하여 상기 사용자 입력을 감지할 수 있다. In addition, the table top type computing device 400 may receive a gesture input of the user's hands LH and RH through the sensor system 460 (eg, the image sensor 461 ) disposed on the display system 470 . and may receive a motion input according to a guide tool (GT). The gesture input and the motion input of the guide tool may also be input to the display 471 in response to the captured image, and the computing device 300 may detect the user input by matching the real object image displayed on the captured image.

즉, 실시예에 따른 테이블 탑 타입의 컴퓨팅 디바이스(400)의 확장현실 어플리케이션(411)은, 센서 시스템(460)을 통해 획득된 사용자 입력 기반으로 가상 콘텐츠를 시각화하여 제공하는 서비스를 구현하기 위한 일련의 프로세스를 실행할 수 있다. 이때, 사용자 입력은 디스플레이에 표시된 촬영영상에 대응하여 수행되기 때문에, 입출력 인터페이스를 함께 제공함으로써, 사용자는 좀더 직관적으로 촬영영상에 대한 사용자 입력이 가능할 수 있다. That is, the extended reality application 411 of the tabletop type computing device 400 according to the embodiment is a series for implementing a service provided by visualizing virtual content based on a user input obtained through the sensor system 460 . process can be executed. In this case, since the user input is performed in response to the captured image displayed on the display, by providing the input/output interface together, the user may more intuitively allow the user to input the captured image.

<맞춤형 네트워크 전송 정보 퀄리티 조정 방법> <How to adjust the quality of customized network transmission information>

이하, 첨부된 도면을 참조하여 제 1 사용자의 컴퓨팅 디바이스와 제 2 사용자의 컴퓨팅 디바이스와 제 3 사용자 컴퓨팅 디바이스 사이에서 맞춤형 네트워크 전송 정보 퀄리티 조정하여 확장현실(XR) 커뮤니케이션 서비스를 제공하는 방법에 대해 상세히 설명하고자 한다. Hereinafter, with reference to the accompanying drawings, a method of providing an extended reality (XR) communication service by adjusting the quality of customized network transmission information between a computing device of a first user, a computing device of a second user, and a computing device of a third user will be described in detail. I would like to explain

설명의 편의를 위해, 제 2 사용자 컴퓨팅 디바이스는 모바일 타입 컴퓨팅 디바이스(200)를 기준으로 설명하고, 제 1 사용자 컴퓨팅 디바이스와 제 3 사용자 컴퓨팅 디바이스는 데스크 타입 컴퓨팅 디바이스(300)를 기준으로 설명한다. For convenience of description, the second user computing device will be described with reference to the mobile type computing device 200 , and the first user computing device and the third user computing device will be described with reference to the desk type computing device 300 .

또한, 제 1 사용자 컴퓨팅 디바이스의 확장현실 어플리케이션은, 제 1 확장현실 어플리케이션으로 지칭하고, 제 2 사용자 컴퓨팅 디바이스의 확장현실 어플리케이션은 제 2 확장현실 어플리케이션으로 지칭하기로 하며, 제 3 사용자 컴퓨팅 디바이스의 확장현실 어플리케이션은 제 3 확장현실 어플리케이션이라고 지칭한다. In addition, the extended reality application of the first user computing device will be referred to as a first extended reality application, the extended reality application of the second user computing device will be referred to as a second extended reality application, and the extension of the third user computing device will be referred to as an extended reality application. The reality application is referred to as a third extended reality application.

도 9는 본 발명의 실시예에 따른 맞춤형 네트워크 전송 정보 퀄리티 조정 방법을 설명하기 위한 흐름도이다. 9 is a flowchart illustrating a method for adjusting the quality of customized network transmission information according to an embodiment of the present invention.

도 9를 참조하면, 본 발명의 실시예에서 제 1 사용자 컴퓨팅 디바이스는, 적어도 하나 이상의 제 2 사용자 컴퓨팅 디바이스와 확장현실(XR) 커뮤니케이션을 위하여 제 1 확장현실 어플리케이션을 실행할 수 있다. 또한, 제 3 사용자 컴퓨팅 디바이스 제 3 확장현실 어플리케이션을 통해 확장현실 커뮤니케이션에 참여할 수 있다. Referring to FIG. 9 , in an embodiment of the present invention, a first user computing device may execute a first extended reality application for extended reality (XR) communication with at least one or more second user computing devices. In addition, the third user computing device may participate in extended reality communication through the third extended reality application.

실행된 제 1 확장현실 어플리케이션은, 확장현실 영상 출력모드를 결정할 수 있다. (S101)The executed first augmented reality application may determine an extended reality image output mode. (S101)

확장현실 영상 출력모드는, 네트워크 환경에 따라서 확장현실 영상 파라미터 설정하여 설정된 확장현실 영상 파라미터에 따라서 확장현실 영상 콘텐츠를 제공할 수 있다. The extended reality image output mode may provide extended reality image content according to the extended reality image parameter set by setting the extended reality image parameter according to the network environment.

여기서, 확장현실 영상 파라미터는, 해상도(PPI), 초당 프레임수(FPS) 및 초당 데이터 전송율(이하, 비트레이트(bps))을 포함할 수 있다. Here, the extended reality image parameters may include resolution (PPI), frames per second (FPS), and data rate per second (hereinafter, bit rate (bps)).

이러한 확장현실 영상 출력모드는, 이전 설정한 출력모드로 결정될 수 있다. 즉, 이전 실행할 때 설정되어 있는 출력모드로 재실행시 자동 결정될 수 있다.This extended reality image output mode may be determined as a previously set output mode. That is, it can be automatically determined upon re-execution to the output mode set during previous execution.

또한, 확장현실 영상 출력모드는, 커뮤니케이션 데이터에 메타정보가 포함되어 있고, 메타정보에 매칭되어 출력모드가 설정되어 있는 경우, 상기 출력모드로 확장현실 영상 출력모드를 결정할 수 있다. In addition, in the extended reality image output mode, when meta information is included in the communication data and the output mode is set by matching the meta information, the extended reality image output mode may be determined as the output mode.

여기서, 메타정보는, 작업종류, 작업대상 객체, 위치 및 사용자 계정 중 적어도 하나 이상의 정보를 포함할 수 있다. Here, the meta information may include information about at least one of a work type, a work target object, a location, and a user account.

예를 들어, 촬영영상에 정밀작업이 요구되는 제 1 장비가 포함되고, 메타정보에는 제 1 장비와 제 1 장비에 대한 제 1 출력모드가 포함된 경우, 제 1 출력모드를 확장현실 영상 출력모드로 결정할 수 있다. For example, when the first equipment that requires precise work is included in the captured image, and the meta information includes the first equipment and the first output mode for the first equipment, the first output mode is set to the extended reality image output mode can be decided with

그리고 확장현실 영상 출력모드는, 사용자 선택에 따라서 설정이 변경될 수 있다. 예를 들어, 제 1 사용자가 확장현실 영상 출력모드를 직접 변경할 수 있으며, 또는 제 2 사용자나 제 3 사용자가 확장현실 영상 출력모드의 변경을 요청하고 제 1 사용자의 수락에 따라서 출력모드가 변경될 수도 있다. In addition, the extended reality image output mode may be set according to user selection. For example, the first user may directly change the extended reality image output mode, or the second or third user requests to change the extended reality image output mode and the output mode is changed according to the acceptance of the first user. may be

확장현실 영상 콘텐츠에 기초가 되는 촬영영상을 촬영하는 사용자와, 촬영영상에 대해 확장현실을 구현하기 위한 가상 콘텐츠를 생성하는 사용자가 있으며, 두 사용자는 동일인이거나 서로 다른 사람일 수 있다. There is a user who shoots a captured image, which is the basis of the extended reality image content, and a user who creates virtual content for realizing the extended reality for the captured image, and the two users may be the same person or different people.

여기서, 가상 콘텐츠를 생성하여 확장현실 영상 콘텐츠를 생성하는 사용자가 확장현실 영상 콘텐츠 생성 작업을 수행하므로, 복수의 커뮤니케이션에 참여한 사용자 중 최종적으로 확장현실 영상 출력모드를 결정하여 결정된 확장현실 영상 출력모드에 따라서 확장현실 영상 콘텐츠를 생성하고 공유하는 사용자일 수 있다. Here, since the user who creates the virtual content and creates the extended reality image content performs the extended reality image content creation task, the extended reality image output mode is finally determined among the users who participated in a plurality of communication and is applied to the determined extended reality image output mode. Therefore, it may be a user who creates and shares extended reality video content.

이하, 설명에서는, 제 1 사용자가 확장현실 영상 콘텐츠를 생성하는 사용자로 설명하고, 제 2 사용자에게서 촬영된 촬영영상으로 확장현실 영상 콘텐츠를 생성하는 것을 기준으로 설명하나, 서로 역할을 달리하거나 한 명이 모든 역할을 수행하는 등의 실시예가 포함될 수 있을 것이다. Hereinafter, in the description, the first user is described as a user who creates the extended reality video content, and the description is based on the generation of the extended reality video content from the captured image taken by the second user, but the roles are different or one person Examples such as performing all roles may be included.

다음으로, 제 1 확장현실 어플리케이션은, 커뮤니케이션 데이터 송수신을 위한 네트워크 환경을 감지할 수 있다. (S102)Next, the first extended reality application may detect a network environment for communication data transmission and reception. (S102)

자세히, 제 1 확장현실 어플리케이션은, 제 1 사용자와 서버 시스템(500)과의 네트워크 환경 또는/및 서버 시스템(500)을 통한 타 사용자와의 네트워크 환경을 감지할 수 있다. In detail, the first extended reality application may detect a network environment between the first user and the server system 500 or/and a network environment with other users through the server system 500 .

예를 들어, 제 1 확장현실 어플리케이션은, 제 2 사용자 및 제 3 사용자의 확장현실 어플리케이션과의 커뮤니케이션 데이터를 주고받는 네트워크 환경을 대역폭(bandwidth), 초당 전송속도와 같은 네트워크 전송 파라미터 등으로 측정할 수 있다. For example, the first extended reality application can measure the network environment for exchanging communication data with the extended reality application of the second and third users with network transmission parameters such as bandwidth and transmission rate per second. have.

그리고 제 1 확장현실 어플리케이션은, 감지된 네트워크 환경에 따라 커뮤니케이션 데이터 송수신을 위한 네트워크 전송 파라미터를 결정할 수 있다. (S103)In addition, the first augmented reality application may determine a network transmission parameter for communication data transmission/reception according to the sensed network environment. (S103)

일반적으로 제 1 확장현실 어플리케이션은, 각각의 타 사용자와의 네트워크 환경에 따라 네트워크 전송 파라미터를 개별적으로 결정할 수 있다. In general, the first augmented reality application may individually determine network transmission parameters according to a network environment with each other user.

실시예에서, 네트워크 전송 파라미터는, 타 컴퓨팅 디바이스와 커뮤니케이션 데이터를 주고받기 위한 대역폭일 수 있으며, 전체 컴퓨팅 디바이스에 대해 공통적으로 기 설정된 대역폭으로 커뮤니케이션 데이터를 송수신하거나, 각 컴퓨팅 디바이스마다 측정된 네트워크 환경에 따라서 각기 다른 대역폭으로 커뮤니케이션 데이터를 송수신할 수 있다. In an embodiment, the network transmission parameter may be a bandwidth for sending and receiving communication data with other computing devices, transmitting and receiving communication data with a commonly preset bandwidth for all computing devices, or in a network environment measured for each computing device. Therefore, communication data can be transmitted and received with different bandwidths.

다만, 개별적으로 네트워크 전송 파라미터를 다르게 설정할 경우, 다르게 설정된 네트워크 전송 파라미터에 따라서 확장현실 영상 콘텐츠 또한 다르게 생성(예컨대, 인코딩)해야 하므로, 제 1 컴퓨팅 디바이스의 데이터 처리 부하가 증가할 수 있다. However, when the network transmission parameters are individually set differently, the data processing load of the first computing device may increase because the augmented reality image content must also be generated (eg, encoded) differently according to the differently set network transmission parameters.

따라서, 실시예에서, 제 1 확장현실 어플리케이션은, 커뮤니케이션에 참여한 적어도 하나 이상의 사용자 중 네트워크 전송 파라미터가 가장 작은 사용자의 네트워크 전송 파라미터를 복수의 타 컴퓨팅 디바이스에 공통적으로 설정할 수 있다. Accordingly, in an embodiment, the first augmented reality application may set the network transmission parameter of a user having the smallest network transmission parameter among at least one or more users participating in communication in common to a plurality of other computing devices.

네트워크 전송 파라미터가 결정되면, 확장현실 영상 콘텐츠의 촬영모드에서 결정된 네트워크 전송 파라미터를 기준으로 확장영상 콘텐츠 파라미터를 결정할 수 있다. (S105)When the network transmission parameter is determined, the extended video content parameter may be determined based on the network transmission parameter determined in the shooting mode of the extended reality video content. (S105)

실시예에 따른 확장현실 영상 출력모드는, 복수의 출력모드를 포함할 수 있으며, 복수의 출력모드에는 사용자가 각 확장현실 영상 파라미터를 설정할 수 있는 커스텀 모드를 포함할 수 있다. The extended reality image output mode according to the embodiment may include a plurality of output modes, and the plurality of output modes may include a custom mode in which the user can set each extended reality image parameter.

예를 들어, 도 10을 참조하면, 확장현실 영상 출력모드는, 일반모드(61i) 및 선명도 모드(62i)를 포함할 수 있고, 커스텀 모드인 이지 모드(63i) 및 전문가 모드(64i)를 포함할 수 있다. For example, referring to FIG. 10 , the extended reality image output mode may include a normal mode 61i and a sharpness mode 62i, and includes a custom mode, an easy mode 63i and an expert mode 64i. can do.

실시예에서, 전문가 모드는 영상 파라미터의 각각의 파라미터를 수치로 설정할 수 있는 유저 인터페이스를 제공하는 커스텀 모드일 수 있다. In an embodiment, the expert mode may be a custom mode that provides a user interface for setting each parameter of the image parameter numerically.

예를 들어, 도 10을 보면, 해상도, FPS, 비트레이트 중 적어도 하나를 스크롤바(71i, 72i, 73i)를 통해 입력하여 설정하는 유저 인터페이스를 제공할 수 있다. For example, referring to FIG. 10 , a user interface for setting by inputting at least one of resolution, FPS, and bit rate through the scroll bars 71i, 72i, and 73i may be provided.

이때, 영상 파라미터 중 적어도 하나 예컨대 비트레이트는, 결정된 네트워크 전송 파라미터에 따라 자동 설정될 수 있다. In this case, at least one of the image parameters, for example, a bit rate, may be automatically set according to the determined network transmission parameter.

제 1 사용자는, 제 1 확장현실 어플리케이션의 전문가 모드 유저 인터페이스를 통해, 상기 설정된 비트레이트에 따라서 확장현실 영상 콘텐츠의 해상도와 FPS의 값을 결정할 수 있다. The first user may determine the resolution and FPS of the extended reality video content according to the set bit rate through the expert mode user interface of the first augmented reality application.

실시예에서, 제 1 확장현실 어플리케이션은, 해상도 또는 FPS 중 하나의 값을 지정하면, 나머지 하나의 값은 기 설정된 비트레이트에 따라서 산출하여 자동 설정할 수 있다. 예를 들어, 비트레이트가 결정된 대역폭에 따라서 2Mbps로 자동 설정되고, 제 1 사용자가 해상도를 720PPi로 설정하면 FPS를 설정하는 포인터(P1)는 자동으로 산출된 FPS 값을 24로 이동할 수 있다. In an embodiment, when one value of resolution or FPS is designated, the first augmented reality application may calculate and automatically set the other value according to a preset bit rate. For example, if the bit rate is automatically set to 2Mbps according to the determined bandwidth and the first user sets the resolution to 720PPi, the pointer P1 for setting the FPS may move the automatically calculated FPS value to 24.

이때, 전문가 모드 유저 인터페이스는, 네트워크 환경이 변경되어 대역폭과 이에 따른 비트레이트가 증감할 때의 따라 변동할 영상 파라미터와, 고정할 영상 파라미터를 지정할 수도 있다. In this case, the expert mode user interface may designate an image parameter to be changed and an image parameter to be fixed according to a change in the network environment and increase or decrease in bandwidth and corresponding bit rate.

예를 들어, 전문가 모드 유저 인터페이스는, 해상도를 고정 영상 파라미터로 지정하고, FPS를 변동 영상 파라미터로 설정할 수 있으며, 네트워크 환경에 따라 비트레이트가 증가한다면 FPS를 증가시키고, 비트레이트가 감소한다면 FPS를 감소시킬 수 있다. For example, the expert mode user interface can set the resolution as a fixed video parameter, and set the FPS as a variable video parameter. Depending on the network environment, if the bitrate increases, the FPS increases, and if the bitrate decreases, the FPS is set. can be reduced

또한, 전문가 유저 인터페이스는, 영상 파라미터 중 하나의 파라미터를 우선순위 파라미터로 설정할 수 있다. 예를 들어, 전문가 유저 인터페이스는, 해상도를 우선순위 파라미터로 설정할 경우, 네트워크 환경에 따라 비트레이트가 증가한다면 해상도를 증가시키고, 비트레이트가 감소한다면 FPS를 감소시키는 설정이 가능하다. Also, the expert user interface may set one parameter among the image parameters as a priority parameter. For example, when the resolution is set as a priority parameter in the expert user interface, it is possible to set the resolution to increase if the bit rate increases according to the network environment, and to decrease the FPS if the bit rate decreases.

이러한 커스텀 모드 설정을 통해, 사용자는 네트워크 환경에 따라 맞춤형 확장현실 영상 콘텐츠를 생성할 수 있다. 다만, 전문가가 아니라면 영상 파라미터에 대한 이해도가 낮아 자신이 원하는 영상 콘텐츠에 대한 설정이 어려울 수 있다. Through this custom mode setting, the user can create customized extended reality video content according to the network environment. However, if you are not an expert, your understanding of image parameters may be low, so it may be difficult to set the desired image content.

이를 위해, 제 1 확장현실 어플리케이션은, 다른 커스텀 모드로 이지 모드를 제공할 수 있다. To this end, the first extended reality application may provide the easy mode as another custom mode.

여기서, 이지 모드는, 제 1 사용자가 제 1 확장현실 어플리케이션을 통한 사용자 입력을 통해 확장현실 영상 콘텐츠를 생성하기 위한 파라미터를 설정하는 것이다. Here, in the easy mode, the first user sets a parameter for generating the augmented reality image content through a user input through the first augmented reality application.

실시예에서, 이지 모드는 사용자의 음성 입력을 통해 설정하는 유저 인터페이스를 제공함으로써 현장 작업자나 웨어러블 디바이스를 사용하는 사용자가 손쉽게 영상 파라미터를 설정할 수 있다. In an embodiment, the easy mode provides a user interface that is set through a user's voice input, so that a field worker or a user using a wearable device can easily set an image parameter.

이지 모드 유저 인터페이스는, 결정된 네트워크 전송 파라미터에 따라서 확장현실 영상 파라미터 중 적어도 하나인 비트레이트를 자동 설정할 수 있다. The easy mode user interface may automatically set a bit rate, which is at least one of the extended reality image parameters, according to the determined network transmission parameter.

그리고 설정된 비트레이트 내에서 각기 다른 확장현실 영상 파라미터 값을 가지는 복수의 확장현실 영상을 선택 가능하도록 출력할 수 있다. In addition, a plurality of extended reality images having different extended reality image parameter values within a set bit rate may be output to be selectable.

예를 들어, 도 13을 참조하면, 설정된 비트레이트에서 전송 가능한 복수의 확장현실 영상으로, 제 1 해상도와 제 1 FPS를 갖는 제 1 확장현실 영상(21i)과, 제 2 해상도와 제 2 FPS를 갖는 제 2 확장현실 영상(22i)과, 제 3 해상도와 제 3 FPS를 갖는 제 3 확장현실 영상(23i)과, 제 4 해상도와 제 4 FPS를 갖는 제 4 확장현실 영상(24i)을 각기 다른 영역에 출력할 수 있다. 여기서, 확장현실 영상은, 기 제작된 샘플 영상이거나, 각기 다른 파리미터로 인코딩한 실제 제공될 확장현실 영상일 수 있다. For example, referring to FIG. 13 , as a plurality of extended reality images transmittable at a set bit rate, a first extended reality image 21i having a first resolution and a first FPS, and a second resolution and a second FPS are displayed. A second extended reality image 22i having a second extended reality image 22i, a third extended reality image 23i having a third resolution and a third FPS, and a fourth extended reality image 24i having a fourth resolution and a fourth FPS are separated from each other. You can print to the area. Here, the extended reality image may be a pre-produced sample image or an extended reality image to be provided actually encoded with different parameters.

실시예에 따라서, 제 1 해상도에서 제 4 해상도로 갈수록 해상도 값이 작아질 수 있으며, 제 1 FPS에서 제 4FPS로 갈수록 FPS 값이 커질 수 있다. According to an embodiment, the resolution value may decrease from the first resolution to the fourth resolution, and the FPS value may increase from the first FPS to the fourth FPS.

제 1 사용자는 음성 입력 등을 통해 제 1 확장현실 영상 내지 제 4 확장현실 영상 중 하나의 영상을 선택할 수 있으며, 선택된 확장현실 영상의 파라미터가 확장현실 영상 파라미터 값으로 설정됨으로써, 네트워크 환경에 따른 확장현실 영상 파라미터를 손쉽게 사용자 맞춤형으로 설정할 수 있다. The first user may select one image from the first augmented reality image to the fourth augmented reality image through voice input, etc., and the parameter of the selected extended reality image is set as the extended reality image parameter value, thereby expanding according to the network environment Real image parameters can be easily customized to the user.

다른 실시예에서, 제 1 확장현실 어플리케이션은, 이지 모드에서 영상 파라미터에 따라 단계별로 설정하는 유저 인터페이스를 제공할 수도 있다. In another embodiment, the first augmented reality application may provide a user interface for setting step-by-step settings according to image parameters in the easy mode.

예를 들어, 제 1 확장현실 어플리케이션은, 1차적으로 해상도를 달리하고 FPS는 고정시킨 복수의 확장현실 영상을 선택하도록 제공하여 확장현실 영상 콘텐츠의 해상도를 설정하도록 하고, 2차적으로 FPS를 달리하고 해상도를 고정시킨 복수의 확장현실 영상을 선택 가능하도록 제공하여, 확장현실 영상 콘텐츠의 FPS를 설정하도록 할 수 있다. For example, the first extended reality application provides to select a plurality of extended reality images with different resolutions and fixed FPS primarily to set the resolution of the extended reality image content, and secondarily to change the FPS and It is possible to set the FPS of the extended reality image content by providing a plurality of extended reality images with a fixed resolution to be selectable.

이때, 제 1 확장현실 어플리케이션은, 1차적으로 선택된 제 1 파라미터에 따라서 기 설정된 비트레이트 내에 전송 가능한 제 2 파라미터의 최대 값을 산출하고, 제 2 파라미터의 최대 값 내에서 생성된 복수의 확장현실 영상 콘텐츠를 선택 가능하도록 제공할 수도 있다. At this time, the first augmented reality application calculates the maximum value of the second parameter that can be transmitted within the preset bit rate according to the first parameter selected primarily, and a plurality of extended reality images generated within the maximum value of the second parameter. Content can also be provided so that it can be selected.

한편, 제 1 확장현실 어플리케이션은, 영상 파라미터에서 고정 파라미터를 지정하고, 네트워크 환경에 따라 변경되는 비트레이트에 따라서 고정 파라미터 외 나머지 파라미터를 변경하는 일반모드와, 선명도 모드를 제공할 수 있다. Meanwhile, the first augmented reality application may provide a general mode and a sharpness mode in which a fixed parameter is designated in an image parameter and the remaining parameters other than the fixed parameter are changed according to a bit rate that is changed according to a network environment.

자세히, 도 11을 참조하면, 실시예에 따른 일반 모드는, FPS를 고정한 모드로 네트워크 환경에 따라 결정된 비트레이트 내에서 해상도를 변경한 확장현실 영상 콘텐츠를 제공할 수 있다. In detail, referring to FIG. 11 , the normal mode according to the embodiment may provide extended reality video content in which the resolution is changed within a bit rate determined according to a network environment in a mode in which the FPS is fixed.

자세히, 일반 모드로 설정되면, 제 1 확장현실 어플리케이션은, 제 1 영상 파라미터를 고정 값으로 설정할 수 있다. (S201)In detail, when the normal mode is set, the first augmented reality application may set the first image parameter to a fixed value. (S201)

예를 들어, 제 1 확장현실 어플리케이션은, 30FPS를 고정값으로 확장현실 영상 콘텐츠의 파라미터를 설정할 수 있다. For example, the first augmented reality application may set a parameter of the extended reality image content to 30 FPS as a fixed value.

그리고 원격 협업 접속이 이루어지면, 제 1 확장현실 어플리케이션은, 참여된 복수의 사용자의 컴퓨팅 디바이스와 네트워크 환경을 감지할 수 있다. (S202, S203)And when remote collaboration access is made, the first augmented reality application may detect the computing devices and network environments of a plurality of participating users. (S202, S203)

예를 들어, 제 1 확장현실 어플리케이션은, 제 2 컴퓨팅 디바이스와 제 3 컴퓨팅 디바이스의 네트워크 환경을 감지하고, 제 2 컴퓨팅 디바이스와 제 3 컴퓨팅 디바이스 중 최소의 네트워크 전송 파라미터를 네트워크 전송 파라미터로 결정할 수 있다. (S204)For example, the first augmented reality application may detect network environments of the second computing device and the third computing device, and determine a minimum network transmission parameter among the second computing device and the third computing device as the network transmission parameter. . (S204)

그리고 결정된 네트워크 전송 파라미터에 따라서 제 1 영상 파라미터를 고정된 상태에서, 나머지 영상 파라미터를 산출하여, 결정할 수 있다. (S205)In addition, in a state in which the first image parameter is fixed according to the determined network transmission parameter, the remaining image parameters may be calculated and determined. (S205)

예를 들어, 제 1 확장현실 어플리케이션은, 최소 네트워크 전송 파라미터가 3Mbps를 초과하면, 기 설정된 최대 값인 2.5Mbps를 비트레이트로 결정할 수 있다. 그리고 2.5Mbps의 비트레이트 내에서 30FPS라면 전송 가능하도록 영상의 최대 해상도를 720ppi로 산출할 수 있다. For example, when the minimum network transmission parameter exceeds 3 Mbps, the first extended reality application may determine a preset maximum value of 2.5 Mbps as the bit rate. And if it is 30 FPS within a bit rate of 2.5 Mbps, the maximum resolution of the image can be calculated as 720 ppi.

이를 통해, 일반 모드에서 네트워크 환경에 따른 영상 파라미터는, 해상도 720ppi, 초당 프레임 30FPS, 비트레이트 2.5Mbps로 결정될 수 있다. Through this, in the normal mode, image parameters according to the network environment may be determined to have a resolution of 720 ppi, frames per second of 30 FPS, and a bit rate of 2.5 Mbps.

또한, 제 1 확장현실 어플리케이션은, 최소 네트워크 전송 파라미터가 3Mbps 내지 1Mbps 사이의 제 1 구간이라면, 제 1 구간 내에서 기 설정된 값인 1Mbps를 비트레이트로 결정할 수 있다. 그리고 1Mbps의 비트레이트 내에서 30FPS라면 전송 가능하도록 영상의 최대 해상도를 360ppi로 산출할 수 있다. In addition, if the minimum network transmission parameter is a first section between 3Mbps and 1Mbps, the first extended reality application may determine a bit rate of 1Mbps, which is a preset value, within the first section. And if it is 30 FPS within the bit rate of 1 Mbps, the maximum resolution of the image can be calculated as 360 ppi.

이를 통해, 일반 모드에서 네트워크 환경에 따른 영상 파라미터는, 해상도 360ppi, 초당 프레임 30FPS, 비트레이트 1Mbps로 결정될 수 있다. Through this, the image parameters according to the network environment in the normal mode may be determined to have a resolution of 360 ppi, a frame per second of 30 FPS, and a bit rate of 1 Mbps.

또한, 제 1 확장현실 어플리케이션은, 최소 네트워크 전송 파라미터가 1Mbps 내지 0.5Mbps 사이의 제 2 구간이라면, 제 2 구간 내에서 기 설정된 값인 0.75Mbps를 비트레이트로 결정할 수 있다. 그리고 0.75Mbps의 비트레이트 내에서 30FPS라면 전송 가능하도록 영상의 최대 해상도 값인 240ppi를 산출할 수 있다. Also, if the minimum network transmission parameter is a second section between 1Mbps and 0.5Mbps, the first extended reality application may determine a bit rate of 0.75Mbps, which is a preset value, within the second section. And if it is 30 FPS within a bit rate of 0.75 Mbps, 240 ppi, which is the maximum resolution value of the image, can be calculated so that it can be transmitted.

이를 통해, 일반 모드에서 네트워크 환경에 따른 영상 파라미터는, 해상도 240ppi, 초당 프레임 30FPS, 비트레이트 0.75Mbps로 결정될 수 있다. Through this, the image parameters according to the network environment in the normal mode may be determined to have a resolution of 240 ppi, a frame per second of 30 FPS, and a bit rate of 0.75 Mbps.

그리고 제 1 확장현실 어플리케이션은, 결정된 영상 파라미터에 따라서 확장현실 영상을 생성하고, 참여된 사용자들의 컴퓨팅 디바이스로 최소 네트워크 전송 파라미터에 따라 전송할 수 있다. (S208)In addition, the first augmented reality application may generate an extended reality image according to the determined image parameter and transmit it to the computing devices of the participating users according to the minimum network transmission parameter. (S208)

즉, 일반모드에서는, 네트워크 환경에 관계없이 일정한 속도의 프레임을 제공함으로써, 실시간 작업정보 공유가 중요한 협업에 모드로 활용될 수 있다. That is, in the general mode, by providing a frame at a constant speed regardless of the network environment, real-time job information sharing can be utilized as a mode for important collaboration.

또한, 도 12를 참조하면, 실시예에 따른 선명도 모드는, 해상도를 고정한 모드로 네트워크 환경에 따라 결정된 비트레이트 내에서 FPS를 변경한 확장현실 영상 콘텐츠를 제공할 수 있다. Also, referring to FIG. 12 , the sharpness mode according to the embodiment may provide extended reality video content in which the FPS is changed within a bit rate determined according to a network environment in a mode in which a resolution is fixed.

자세히, 선명도 모드로 설정되면, 제 1 확장현실 어플리케이션은, 제 2 영상 파라미터를 고정 값으로 설정할 수 있다. (S301)In detail, when the sharpness mode is set, the first augmented reality application may set the second image parameter to a fixed value. (S301)

예를 들어, 제 1 확장현실 어플리케이션은, 720ppi를 해상도 고정값으로 확장현실 영상 콘텐츠의 파라미터를 설정할 수 있다. For example, the first augmented reality application may set a parameter of the extended reality video content to 720ppi as a fixed resolution value.

그리고 원격 협업 접속이 이루어지면, 제 1 확장현실 어플리케이션은, 참여된 복수의 사용자의 컴퓨팅 디바이스와 네트워크 환경을 감지할 수 있다. (S302, S303)And when remote collaboration access is made, the first augmented reality application may detect the computing devices and network environments of a plurality of participating users. (S302, S303)

예를 들어, 제 1 확장현실 어플리케이션은, 제 2 컴퓨팅 디바이스와 제 3 컴퓨팅 디바이스의 네트워크 환경을 감지하고, 제 2 컴퓨팅 디바이스와 제 3 컴퓨팅 디바이스 중 최소의 네트워크 전송 파라미터를 네트워크 전송 파라미터로 결정할 수 있다. (S304)For example, the first augmented reality application may detect network environments of the second computing device and the third computing device, and determine a minimum network transmission parameter among the second computing device and the third computing device as the network transmission parameter. . (S304)

그리고 결정된 네트워크 전송 파라미터에 따라서 제 2 영상 파라미터가 고정된 상태에서, 나머지 영상 파라미터를 산출하여, 결정할 수 있다. (S305)In addition, in a state in which the second image parameter is fixed according to the determined network transmission parameter, the remaining image parameters may be calculated and determined. (S305)

예를 들어, 제 1 확장현실 어플리케이션은, 최소 네트워크 전송 파라미터가 3Mbps를 초과하면, 기 설정된 최대 값인 2.5Mbps를 비트레이트로 결정할 수 있다. 그리고 2.5Mbps의 비트레이트 내에서 해상도가 720ppi라면 전송 가능하도록 영상의 최대 FPS 값을 30으로 산출할 수 있다. For example, when the minimum network transmission parameter exceeds 3 Mbps, the first extended reality application may determine a preset maximum value of 2.5 Mbps as the bit rate. And if the resolution is 720ppi within the bitrate of 2.5Mbps, the maximum FPS value of the image can be calculated as 30 so that it can be transmitted.

이를 통해, 선명도 모드에서 네트워크 환경에 따른 영상 파라미터는, 해상도 720ppi, 초당 프레임 30FPS, 비트레이트 2.5Mbps로 결정될 수 있다. Through this, the image parameter according to the network environment in the sharpness mode may be determined as a resolution of 720 ppi, a frame per second of 30 FPS, and a bit rate of 2.5 Mbps.

또한, 제 1 확장현실 어플리케이션은, 최소 네트워크 전송 파라미터가 3Mbps 내지 1Mbps 사이의 제 1 구간이라면, 제 1 구간 내에서 기 설정된 값인 2Mbps를 비트레이트로 결정할 수 있다. 그리고 2Mbps의 비트레이트 내에서 해상도가 720ppi라면 전송 가능하도록 영상의 최대 FPS를 24로 산출할 수 있다. In addition, if the minimum network transmission parameter is a first section between 3 Mbps and 1 Mbps, the first extended reality application may determine a bit rate of 2 Mbps, which is a preset value, within the first section. And if the resolution is 720ppi within the bitrate of 2Mbps, the maximum FPS of the video can be calculated as 24 so that it can be transmitted.

이를 통해, 선명도 모드에서 네트워크 환경에 따른 영상 파라미터는, 해상도 720ppi, 초당 프레임 24FPS, 비트레이트 2Mbps로 결정될 수 있다. Through this, the image parameters according to the network environment in the sharpness mode may be determined to have a resolution of 720 ppi, frames per second of 24 FPS, and a bit rate of 2 Mbps.

또한, 제 1 확장현실 어플리케이션은, 최소 네트워크 전송 파라미터가 1Mbps 내지 0.5Mbps 사이의 제 2 구간이라면, 제 2 구간 내에서 기 설정된 값인 1Mbps를 비트레이트로 결정할 수 있다. 그리고 1Mbps의 비트레이트 내에서 해상도가 720ppi라면 전송 가능한 영상의 최대 FPS 값을 10으로 산출할 수 있다. Also, if the minimum network transmission parameter is a second section between 1Mbps and 0.5Mbps, the first extended reality application may determine a bit rate of 1Mbps, which is a preset value, within the second section. And if the resolution is 720ppi within the bitrate of 1Mbps, the maximum FPS value of the transmittable image can be calculated as 10.

이를 통해, 선명도 모드에서 네트워크 환경에 따른 영상 파라미터는, 해상도 720ppi, 초당 프레임 10FPS, 비트레이트 1Mbps로 결정될 수 있다. Through this, the image parameters according to the network environment in the sharpness mode may be determined to have a resolution of 720 ppi, frames per second of 10 FPS, and a bit rate of 1 Mbps.

그리고 제 1 확장현실 어플리케이션은, 결정된 영상 파라미터에 따라서 확장현실 영상을 생성하고, 참여된 사용자들의 컴퓨팅 디바이스로 최소 네트워크 전송 파라미터에 따라 전송할 수 있다. (S308)In addition, the first augmented reality application may generate an extended reality image according to the determined image parameter and transmit it to the computing devices of the participating users according to the minimum network transmission parameter. (S308)

즉, 선명도 모드에서는, 네트워크 환경에 관계없이 일정한 화질의 해상도 영상을 제공함으로써, 정밀한 작업정보 공유가 중요한 협업에 모드로 활용될 수 있다. That is, in the sharpness mode, it can be used as a mode for collaboration in which precise sharing of work information is important by providing an image with a constant quality regardless of the network environment.

다시 도 9의 설명으로 돌아와, 이와 같이 실시예에서 제 1 확장현실 어플리케이션은, 최종적으로 결정된 출력모드의 영상 파라미터에 따라서 커뮤니케이션 데이터를 생성 및 송신할 수 있다. (S107) Returning to the description of FIG. 9 , in this embodiment, the first augmented reality application may generate and transmit communication data according to the finally determined image parameter of the output mode. (S107)

자세히, 제 1 확장현실 어플리케이션은, 제 1 사용자에게 송신할 음성 데이터, 확장현실 영상 콘텐츠 등을 포함하는 커뮤니케이션 데이터를 생성할 수 있다. In detail, the first augmented reality application may generate communication data including voice data to be transmitted to the first user, extended reality image content, and the like.

여기서, 제 1 확장현실 어플리케이션은, 결정된 영상 파라미터에 따라서 확장현실 영상 콘텐츠를 생성하여, 커뮤니케이션 데이터에 포함시킬 수 있다. Here, the first augmented reality application may generate extended reality image content according to the determined image parameter and include it in the communication data.

실시예에서, 확장현실 영상 콘텐츠는, 촬영영상에 제 1 사용자 입력에 따라 생성된 가상 객체가 증강된 확장현실 영상을 포함할 수 있다. In an embodiment, the extended reality image content may include an augmented reality image in which a virtual object generated according to a first user input is augmented in a captured image.

이를 위해 제 1 확장현실 어플리케이션은, 영상에 대해 가상 객체를 생성하는 유저 인터페이스를 제공할 수 있다. To this end, the first augmented reality application may provide a user interface for generating a virtual object for an image.

자세히, 제 1 확장현실 어플리케이션은, 제 2 컴퓨팅 디바이스에서 수신한 촬영영상을 출력하고, 상기 출력되는 촬영영상 상에서 사용자의 입력에 따라 객체의 종류, 형태, 위치를 결정하여, 촬영영상에 증강된 가상 객체를 생성할 수 있다. In detail, the first extended reality application outputs the captured image received from the second computing device, determines the type, shape, and location of the object according to the user's input on the output captured image, and the virtual augmented image on the captured image. object can be created.

이때, 촬영영상은, 제 2 컴퓨팅 디바이스에서 제 2 사용자가 설정한 영상 파라미터에 따라 인코딩하여 송신한 영상일 수 있다. In this case, the captured image may be an image encoded and transmitted by the second computing device according to the image parameter set by the second user.

제 1 확장현실 영상 어플리케이션은, 상기 촬영영상에 대해 가상 객체 입력 인터페이스를 제공하기 위해, 촬영영상을 현재 설정된 영상 파라미터에 따라서 변경할 수 있다. 예를 들어, 촬영영상의 기 설정된 해상도와 FPS에 따라서 변경하여 출력할 수 있다. The first augmented reality image application may change the captured image according to a currently set image parameter in order to provide a virtual object input interface for the captured image. For example, it is possible to change and output the captured image according to the preset resolution and FPS of the captured image.

그리고 제 1 확장현실 영상 어플리케이션은, 도 14와 같이 촬영영상(30i) 상에서 기 설정한 종류의 가상 객체를 표시할 위치를 결정하는 포인터(40i)를 제공할 수 있다. In addition, the first augmented reality image application may provide a pointer 40i that determines a position to display a preset type of virtual object on the captured image 30i as shown in FIG. 14 .

이때, 제 1 확장현실 영상 어플리케이션은, 표시되는 촬영영상(30i)의 영상 파라미터에 따라서 포인터(40i)의 종류, 모양을 변경할 수 있다. In this case, the first augmented reality image application may change the type and shape of the pointer 40i according to the image parameters of the displayed captured image 30i.

예를 들어, 제 1 확장현실 영상 어플리케이션은, 해상도가 소정의 값 이하로 낮아지는 경우, 포인터(40i)의 크기를 감소 또는 증가시키거나, 색을 변경함으로써, 낮은 해상도에서 포인터(40i)의 위치를 정확하게 인지시키도록 제공할 수 있다. For example, in the first augmented reality image application, when the resolution is lowered to a predetermined value or less, the size of the pointer 40i is reduced or increased or the color is changed, so that the position of the pointer 40i at a low resolution is lowered. can be provided to accurately recognize

또한, 제 1 확장현실 영상 어플리케이션은, 설정된 영상 파라미터에 따라서 표시되는 가상객체의 종류, 형태 또는 색 등을 변경할 수 있다.In addition, the first augmented reality image application may change the type, shape, or color of the displayed virtual object according to the set image parameter.

예를 들어, 제 1 확장현실 영상 어플리케이션은, FPS가 소정의 값 이하로 낮아지는 경우, 상대적으로 단순한 구조의 형상을 가지는 가상 객체로 형태를 변경하거나, 가상 객체의 크기를 감소시키거나, 색을 변경함으로써, 낮은 FPS에서 명확하게 가상 객체를 최대한 실시간으로 표시할 수 있도록 제공할 수 있다. For example, in the first extended reality image application, when the FPS is lowered to a predetermined value or less, the shape of the virtual object having a relatively simple structure is changed, the size of the virtual object is reduced, or the color is changed. By changing it, it can be provided so that the virtual object can be clearly displayed in real time as much as possible at low FPS.

그리고 제 1 확장현실 어플리케이션은, 상기와 같이 생성된 가상 객체에 대한 정보를 포함하는 확장현실 영상을 생성하여, 커뮤니케이션 데이터에 포함시킬 수 있다. In addition, the first augmented reality application may generate an extended reality image including information on the virtual object generated as described above and include it in the communication data.

확장현실 영상 콘텐츠는, 촬영영상에 제 1 사용자 입력에 따라 생성된 가상 객체 및 가상 객체의 표시위치 정보를 포함한 가상 콘텐츠를 포함할 수 있다. The extended reality image content may include a virtual object generated according to a first user input in a captured image and virtual content including display location information of the virtual object.

실시예에서, 제 1 확장현실 어플리케이션은, 결정된 영상 파라미터가 소정의 값 이하인 경우, 가상객체 생성시의 촬영영상의 촬영영역 정보, 가상 객체 및 표시위치 정보를 확장현실 영상 콘텐츠로 생성하여 커뮤니케이션 데이터 포함시킬 수 있다. In an embodiment, when the determined image parameter is less than or equal to a predetermined value, the first augmented reality application generates information about a shooting area of a captured image, a virtual object, and display location information of a captured image when creating a virtual object as extended reality image content and includes communication data can do it

즉, 네트워크 환경이 열악한 경우, 확장현실 영상 전체를 송신하는 것이 아닌, 가상 콘텐츠에 대한 정보를 공유하고, 각 사용자의 컴퓨팅 디바이스에 저장된 가상 객체를 업로딩하여 가상 콘텐츠 정보에 따라 각각의 컴퓨팅 디바이스에서 증강시켜 확장현실 환경을 제공할 수 있다. That is, when the network environment is poor, instead of transmitting the entire extended reality image, information on virtual content is shared, and virtual objects stored in each user's computing device are uploaded and augmented in each computing device according to the virtual content information. to provide an extended reality environment.

예를 들어, 소정의 해상도 이하라면, 제 1 확장현실 어플리케이션은, 가상 객체가 포인팅이라는 가상 객체 종류 정보와, 상기 포인터가 표시되는 3차원 공간 상의 좌표 또는 촬영영상 내 포인터와 특정 객체 사이의 위치관계 정보를 가상 객체 표시위치 정보로 포함하는 가상 콘텐츠를 송신할 수 있다. For example, if the resolution is less than or equal to a predetermined resolution, the first augmented reality application provides virtual object type information that the virtual object is pointing, coordinates in a three-dimensional space in which the pointer is displayed, or a positional relationship between the pointer and a specific object in the captured image. Virtual content including information as virtual object display position information may be transmitted.

제 2 사용자 컴퓨팅 디바이스의 제 2 확장현실 어플리케이션은, 가상 콘텐츠를 수신하여, 가상 콘텐츠에 따라 촬영영역에 가상 객체를 증강하여 표시함으로써, 제 1 사용자에 대한 확장현실 환경의 커뮤니케이션을 제공할 수 있다. The second augmented reality application of the second user computing device may provide communication of the extended reality environment to the first user by receiving the virtual content, augmenting and displaying the virtual object in the photographing area according to the virtual content.

또한, 제 3 사용자 컴퓨팅 디바이스의 제 3 확장현실 어플리케이션은, 가상 콘텐츠를 수신하고 제 2 사용자로부터 촬영영상을 수신하여, 촬영영상에 가상 콘텐츠에 따라 가상 객체를 증강함으로써, 제 1 사용자에 대한 확장현실 환경 커뮤니케이션을 제공할 수 있다. In addition, the third augmented reality application of the third user computing device receives the virtual content, receives the captured image from the second user, and augments the virtual object according to the virtual content in the captured image, thereby providing the extended reality for the first user. Environmental communication can be provided.

그리고 제 1 확장현실 어플리케이션은, 협업 커뮤니케이션이 종료된 후 사용자 피드백을 받아 영상 파라미터를 재설정할 수 있다. (S109)In addition, the first augmented reality application may reset the image parameter by receiving user feedback after the collaborative communication is finished. (S109)

예를 들어, 제 1 확장현실 어플리케이션은, 네트워크 환경에 따른 해상도와 FPS 각각의 만족도에 대한 평가를 받아, 평가에 따른 피드백에 따라서 해상도와 FPS의 수치를 변경할 수 있다. For example, the first extended reality application may receive an evaluation for each of the resolution and FPS according to the network environment, and change the numerical values of the resolution and the FPS according to the feedback according to the evaluation.

마지막으로, 제 1 확장현실 어플리케이션은, 설정된 영상 파라미터에 대한 메타 정보를 설정하는 인터페이스를 제공할 수 있고, 메타정보에 따라서 상기 설정된 영상 파라미터 정보를 저장할 수 있다. (S111)Finally, the first augmented reality application may provide an interface for setting meta information for a set image parameter, and store the set image parameter information according to the meta information. (S111)

여기서, 영상 파라미터 정보는, 확장현실 영상 출력모드와, 상기 출력모드에서 네트워크 환경에 따라 설정된 영상 파라미터 설정상태를 의미한다. Here, the image parameter information means an extended reality image output mode and an image parameter setting state set according to the network environment in the output mode.

그리고 메타정보는, 작업종류, 작업대상 객체, 위치 및 커뮤니케이션 상대 사용자 계정 중 적어도 하나 이상의 정보를 포함할 수 있다.In addition, the meta information may include at least one or more information of a work type, a work target object, a location, and a communication counterpart user account.

이러한 메타정보는, 제 1 확장현실 어플리케이션을 통해 사용자가 입력하여 결정하거나, 촬영영상이 촬영된 위치 또는 촬영영상 내에서 검출된 작업대상 객체 등을 통해 자동으로 결정될 수도 있다. Such meta information may be determined by input by a user through the first extended reality application, or may be automatically determined based on a location at which a captured image is captured or a work target object detected in the captured image.

메타정보가 결정되면, 제 1 확장현실 어플리케이션은, 결정된 메타정보에 매칭하여 설정된 영상 파라미터 정보를 저장할 수 있다. When the meta information is determined, the first augmented reality application may store image parameter information set by matching the determined meta information.

이후, 제 1 확장현실 어플리케이션은, 커뮤니케이션 서비스 제공 중 메타정보를 검출하면, 메타정보에 따라 설정된 영상 파라미터 정보로 세팅할 수 있다. Thereafter, when the first extended reality application detects meta information while providing the communication service, it may set the image parameter information set according to the meta information.

예를 들어, 제 1 확장현실 어플리케이션은, 촬영영상에서 제 1 작업대상 객체를 검출하고 제 1 작업대상 객체에 대한 영상 파라미터 정보가 기 저장되어 있다면, 해당 정보에 따라서 출력모드 및 출력모드에 따른 파라미터를 세팅할 수 있다. For example, if the first extended reality application detects a first work target object from a captured image and image parameter information for the first work target object is pre-stored, the output mode and parameters according to the output mode according to the information can be set.

또한, 제 1 확장현실 어플리케이션은, 촬영영상의 촬영위치가 제 1 위치의 소정의 반경 이내이고 제 1 위치에 대한 영상 파라미터 정보가 기 저장되어 있다면, 해당 정보에 따라서 출력모드 및 출력모드에 따른 파라미터를 세팅할 수 있다. In addition, in the first extended reality application, if the shooting position of the captured image is within a predetermined radius of the first position and image parameter information for the first position is pre-stored, the output mode and parameters according to the output mode according to the information can be set.

이상, 본 발명의 실시예에 따른 맞춤형 네트워크 전송 정보 퀄리티 조정 방법 및 시스템은, 데이터 통신에 이용되는 네트워크 환경을 기반으로 교환하려는 데이터를 가공하여 송수신함으로써, 네트워크 사용 환경에 최적화된 속도와 품질로 구현되는 맞춤형 데이터를 이용한 데이터 교환을 수행할 수 있는 효과가 있다. As described above, the method and system for adjusting the quality of customized network transmission information according to an embodiment of the present invention process and transmit/receive data to be exchanged based on a network environment used for data communication, so that it is implemented with speed and quality optimized for a network use environment There is an effect that data exchange using customized data can be performed.

또한, 본 발명의 실시예에 따른 맞춤형 네트워크 전송 정보 퀄리티 조정 방법 및 시스템은, 데이터 통신에 이용되는 네트워크 환경을 기반으로 맞춤형 데이터를 생성하여 제공함으로써, 확장현실(XR) 기술에 기반한 데이터 교환 시에도 네트워크 통신 부하, 버퍼링(buffering) 또는 데이터의 품질 저하 등과 같은 통신 문제를 최소화할 수 있는 효과가 있다. In addition, the method and system for adjusting the quality of customized network transmission information according to an embodiment of the present invention generates and provides customized data based on a network environment used for data communication, so that even when exchanging data based on extended reality (XR) technology There is an effect that can minimize communication problems such as network communication load, buffering, or deterioration of data quality.

또한, 본 발명의 실시예에 따른 맞춤형 네트워크 전송 정보 퀄리티 조정 방법 및 시스템은, 다자 간 원격 커뮤니케이션(Remote communication)을 구현하는 확장현실(XR) 커뮤니케이션 기술을 제공함으로써, 원격의 관리자가 적어도 하나 이상의 현장 작업자와 동시에 데이터 통신을 수행할 수 있는 효과가 있다. In addition, the method and system for adjusting the quality of customized network transmission information according to an embodiment of the present invention provides an extended reality (XR) communication technology that implements multi-party remote communication, so that a remote manager can use at least one field There is an effect that data communication can be performed simultaneously with the operator.

이상에서 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.The embodiments according to the present invention described above may be implemented in the form of program instructions that can be executed through various computer components and recorded in a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the computer-readable recording medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the computer software field. Examples of computer-readable recording media include hard disks, magnetic media such as floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floppy disks. medium), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. A hardware device may be converted into one or more software modules to perform processing in accordance with the present invention, and vice versa.

본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.The specific implementations described in the present invention are only examples, and do not limit the scope of the present invention in any way. For brevity of the specification, descriptions of conventional electronic components, control systems, software, and other functional aspects of the systems may be omitted. In addition, the connection or connection members of lines between the components shown in the drawings illustratively represent functional connections and/or physical or circuit connections, and in an actual device, various functional connections, physical connections that are replaceable or additional may be referred to as connections, or circuit connections. In addition, unless there is a specific reference such as “essential” or “importantly”, it may not be a necessary component for the application of the present invention.

또한 설명한 본 발명의 상세한 설명에서는 본 발명의 바람직한 실시 예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자 또는 해당 기술분야에 통상의 지식을 갖는 자라면 후술할 특허청구범위에 기재된 본 발명의 사상 및 기술 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 따라서, 본 발명의 기술적 범위는 명세서의 상세한 설명에 기재된 내용으로 한정되는 것이 아니라 특허청구범위에 의해 정하여져야만 할 것이다.In addition, although the detailed description of the present invention has been described with reference to a preferred embodiment of the present invention, those skilled in the art or those having ordinary knowledge in the art will have the spirit of the present invention described in the claims to be described later. And it will be understood that various modifications and variations of the present invention can be made without departing from the technical scope. Accordingly, the technical scope of the present invention should not be limited to the content described in the detailed description of the specification, but should be defined by the claims.

Claims (10)

제 1 사용자의 컴퓨팅 디바이스의 프로세서에서 제 1 확장현실 어플리케이션을 실행하여 수행하는 맞춤형 네트워크 전송 정보 퀄리티 조정 방법으로서,
적어도 하나 이상의 타 컴퓨팅 디바이스와 확장현실 영상 콘텐츠를 송수신하는 확장현실 커뮤니케이션 서비스를 실행하는 단계;
타 컴퓨팅 디바이스와의 네트워크 환경을 감지하는 단계;
상기 감지된 네트워크 환경에 따라서 상기 확장현실 영상 콘텐츠의 적어도 하나 이상의 영상 파라미터를 설정하는 단계;
상기 설정된 영상 파라미터에 따라서 확장현실 영상 콘텐츠를 생성하는 단계; 및
상기 생성된 확장현실 영상 콘텐츠를 포함하는 커뮤니케이션 데이터를 상기 타 사용자 컴퓨팅 디바이스에 송신하는 단계를 포함하는
맞춤형 네트워크 전송 정보 퀄리티 조정 방법.
As a method for adjusting the quality of customized network transmission information performed by executing a first extended reality application in a processor of a computing device of a first user, the method comprising:
executing an extended reality communication service for transmitting and receiving extended reality image content with at least one or more other computing devices;
detecting a network environment with another computing device;
setting at least one image parameter of the augmented reality image content according to the sensed network environment;
generating extended reality image content according to the set image parameters; and
Transmitting communication data including the generated extended reality image content to the other user computing device
How to adjust the quality of a custom network transmission information.
제 1 항에 있어서,
상기 타 컴퓨팅 디바이스와의 네트워크 환경을 감지하는 단계는,
복수의 컴퓨팅 디바이스와의 대역폭을 각각 측정하는 단계와,
상기 측정된 대역폭 중 가장 작은 대역폭을 공통 대역폭으로 결정하는 단계를 포함하는
맞춤형 네트워크 전송 정보 퀄리티 조정 방법.
The method of claim 1,
The step of detecting a network environment with the other computing device comprises:
Measuring each bandwidth with a plurality of computing devices;
Determining a smallest bandwidth among the measured bandwidths as a common bandwidth
How to adjust the quality of a custom network transmission information.
제 1 항에 있어서,
상기 감지된 네트워크 환경에 따라서 상기 확장현실 영상 콘텐츠의 적어도 하나 이상의 영상 파라미터를 설정하는 단계는,
확장현실 영상 출력모드를 결정하는 단계와,
상기 결정된 확장현실 영상 출력모드에서 상기 감지된 네트워크 환경에 기초하여 상기 영상 파라미터를 결정하는 단계를 포함하는
맞춤형 네트워크 전송 정보 퀄리티 조정 방법.
The method of claim 1,
The step of setting at least one image parameter of the extended reality image content according to the sensed network environment includes:
determining an extended reality image output mode;
Determining the image parameter based on the sensed network environment in the determined extended reality image output mode
How to adjust the quality of a custom network transmission information.
제 3 항에 있어서,
상기 확장현실 영상 출력모드를 결정하는 단계는,
서로 다른 영상 파라미터의 복수의 영상을 출력하는 단계와, 상기 출력된 복수의 영상 중 사용자 선택에 따라 하나의 영상이 결정되는 단계와, 상기 결정된 영상으로 상기 영상 파라미터를 결정하는 단계를 포함하는
맞춤형 네트워크 전송 정보 퀄리티 조정 방법.
4. The method of claim 3,
The step of determining the extended reality image output mode comprises:
Outputting a plurality of images of different image parameters, determining one image according to a user selection among the plurality of output images, and determining the image parameter based on the determined image
How to adjust the quality of a custom network transmission information.
제 3 항에 있어서,
상기 결정된 확장현실 영상 출력모드에서 상기 감지된 네트워크 환경에 기초하여 상기 영상 파라미터를 결정하는 단계는,
상기 감지된 네트워크 환경에 따라서 네트워크 전송 파라미터를 결정하는 단계와, 상기 결정된 네트워크 전송 파라미터에 따라서 제 1 영상 파라미터를 결정하는 단계와, 상기 결정된 제 1 영상 파라미터에 따라서 나머지 영상 파라미터를 결정하는 단계를 포함하는
맞춤형 네트워크 전송 정보 퀄리티 조정 방법.
4. The method of claim 3,
Determining the image parameter based on the sensed network environment in the determined extended reality image output mode includes:
determining a network transmission parameter according to the sensed network environment; determining a first video parameter according to the determined network transmission parameter; and determining the remaining video parameters according to the determined first video parameter. doing
How to adjust the quality of a custom network transmission information.
제 5 항에 있어서,
상기 결정된 확장현실 영상 출력모드에서 상기 감지된 네트워크 환경에 기초하여 상기 영상 파라미터를 결정하는 단계는,
제 2 영상 파라미터를 제 1 값으로 고정하는 단계와, 상기 결정된 제 1 영상 파라미터 내에서 상기 제 2 영상 파라미터가 제 1 값일 때의 제 3 영상 파라미터 값을 산출하여 영상 파라미터를 결정하는 단계와, 상기 제 1 영상 파라미터가 변경되면 상기 제 3 영상 파라미터를 재산출하여 결정하는 단계를 포함하는
맞춤형 네트워크 전송 정보 퀄리티 조정 방법.
6. The method of claim 5,
Determining the image parameter based on the sensed network environment in the determined extended reality image output mode includes:
fixing a second image parameter to a first value; determining an image parameter by calculating a value of a third image parameter when the second image parameter is a first value within the determined first image parameter; Comprising the step of re-calculating and determining the third image parameter when the first image parameter is changed
How to adjust the quality of a custom network transmission information.
제 1 항에 있어서,
상기 설정된 영상 파라미터에 따라서 확장현실 영상 콘텐츠를 생성하는 단계는,
영상을 획득하는 단계와, 상기 획득된 영상에 증강되는 가상 객체를 입력하는 유저 인터페이스를 제공하는 단계와, 상기 유저 인터페이스에 따라 생성된 가상 객체를 상기 확장현실 영상 콘텐츠에 포함하는 단계를 포함하는
맞춤형 네트워크 전송 정보 퀄리티 조정 방법.
The method of claim 1,
The step of generating the extended reality image content according to the set image parameter comprises:
Acquiring an image, providing a user interface for inputting a virtual object augmented in the obtained image, and including the virtual object generated according to the user interface in the extended reality image content
How to adjust the quality of a custom network transmission information.
제 7 항에 있어서,
상기 획득된 영상에 증강되는 가상 객체를 입력하는 유저 인터페이스를 제공하는 단계는,
상기 설정된 영상 파라미터에 따라서 상기 획득된 영상을 변경하는 단계와,
상기 설정된 영상 파라미터에 따라서 상기 가상 객체를 입력하기 위한 포인터의 종류 또는 모양을 변경하는 단계를 포함하는
맞춤형 네트워크 전송 정보 퀄리티 조정 방법.
8. The method of claim 7,
The step of providing a user interface for inputting the augmented virtual object to the obtained image comprises:
changing the acquired image according to the set image parameter;
changing the type or shape of a pointer for inputting the virtual object according to the set image parameter
How to adjust the quality of a custom network transmission information.
제 7 항에 있어서,
상기 획득된 영상에 증강되는 가상 객체를 입력하는 유저 인터페이스를 제공하는 단계는,
상기 설정된 영상 파라미터에 따라서 상기 가상 객체의 종류, 형태, 크기 또는 색 중 적어도 하나를 변경하는 단계를 포함하는
맞춤형 네트워크 전송 정보 퀄리티 조정 방법.
8. The method of claim 7,
The step of providing a user interface for inputting the augmented virtual object to the obtained image comprises:
changing at least one of a type, shape, size, or color of the virtual object according to the set image parameter;
How to adjust the quality of a custom network transmission information.
제 1 항에 있어서,
상기 설정된 영상 파라미터에 대한 메타 정보를 결정하는 단계와, 상기 결정된 메타 정보와 상기 설정된 영상 파라미터를 매칭하여 저장하는 단계를 더 포함하는
맞춤형 네트워크 전송 정보 퀄리티 조정 방법.
The method of claim 1,
determining meta information for the set image parameter; and storing the determined meta information by matching the set image parameter with the set image parameter
How to adjust the quality of a custom network transmission information.
KR1020200187660A 2020-12-30 2020-12-30 Method and system for customzing network transmssion prameter KR102420166B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200187660A KR102420166B1 (en) 2020-12-30 2020-12-30 Method and system for customzing network transmssion prameter

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200187660A KR102420166B1 (en) 2020-12-30 2020-12-30 Method and system for customzing network transmssion prameter

Publications (2)

Publication Number Publication Date
KR20220095787A true KR20220095787A (en) 2022-07-07
KR102420166B1 KR102420166B1 (en) 2022-07-12

Family

ID=82397720

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200187660A KR102420166B1 (en) 2020-12-30 2020-12-30 Method and system for customzing network transmssion prameter

Country Status (1)

Country Link
KR (1) KR102420166B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101354133B1 (en) 2013-12-12 2014-02-05 한라아이엠에스 주식회사 Remote place management type ballast water treatment system by augmented reality
KR20150126938A (en) * 2013-03-11 2015-11-13 매직 립, 인코포레이티드 System and method for augmented and virtual reality
KR20180082253A (en) * 2017-01-10 2018-07-18 삼성전자주식회사 Method for Outputting Image and the Electronic Device supporting the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150126938A (en) * 2013-03-11 2015-11-13 매직 립, 인코포레이티드 System and method for augmented and virtual reality
KR101354133B1 (en) 2013-12-12 2014-02-05 한라아이엠에스 주식회사 Remote place management type ballast water treatment system by augmented reality
KR20180082253A (en) * 2017-01-10 2018-07-18 삼성전자주식회사 Method for Outputting Image and the Electronic Device supporting the same

Also Published As

Publication number Publication date
KR102420166B1 (en) 2022-07-12

Similar Documents

Publication Publication Date Title
KR102366293B1 (en) System and method for monitoring field based augmented reality using digital twin
US10832448B2 (en) Display control device, display control method, and program
US11024083B2 (en) Server, user terminal device, and control method therefor
JP6126076B2 (en) A system for rendering a shared digital interface for each user&#39;s perspective
KR102289745B1 (en) System and method for real-time monitoring field work
EP3676745B1 (en) Privacy screen for computer simulated reality
CN110851095B (en) Multi-screen interactions in virtual and augmented reality
KR20220070292A (en) Automated eyewear device sharing system
CN109496293B (en) Extended content display method, device, system and storage medium
KR20150098362A (en) Head mounted display and method for controlling the same
US10546402B2 (en) Information processing system, information processing terminal, and information processing method
CN105786173A (en) Method And System For Remote Viewing Via Wearable Electronic Devices
KR101784095B1 (en) Head-mounted display apparatus using a plurality of data and system for transmitting and receiving the plurality of data
KR102260193B1 (en) Remote augmented reality communication method and system that provides security for 3d-space
KR102420166B1 (en) Method and system for customzing network transmssion prameter
JP6398630B2 (en) Visible image display method, first device, program, and visibility changing method, first device, program
KR20200003291A (en) Master device, slave device and control method thereof
KR102262019B1 (en) Method and system for extended reality communication soliciting network speed
KR102428438B1 (en) Method and system for multilateral remote collaboration based on real-time coordinate sharing
KR102467017B1 (en) Method for augmented reality communication between multiple users
JP6427298B1 (en) Information processing system
WO2024057783A1 (en) Information processing device provided with 360-degree image viewpoint position identification unit
KR20230063593A (en) A wearable device that supports remote collaboration through multiple medium
KR20230063588A (en) Method and system for providing augmented reality-based maintenance contents sharing platform
WO2020070756A1 (en) A system and a method for providing a virtual tour

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant