KR20190029398A - 다중 환경 간 사용자 화면 공유 방법 및 이를 수행하는 서버 시스템 - Google Patents

다중 환경 간 사용자 화면 공유 방법 및 이를 수행하는 서버 시스템 Download PDF

Info

Publication number
KR20190029398A
KR20190029398A KR1020170133351A KR20170133351A KR20190029398A KR 20190029398 A KR20190029398 A KR 20190029398A KR 1020170133351 A KR1020170133351 A KR 1020170133351A KR 20170133351 A KR20170133351 A KR 20170133351A KR 20190029398 A KR20190029398 A KR 20190029398A
Authority
KR
South Korea
Prior art keywords
screen
sharing
user
sharer
shared
Prior art date
Application number
KR1020170133351A
Other languages
English (en)
Inventor
심혁훈
Original Assignee
에이케이엔코리아 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에이케이엔코리아 주식회사 filed Critical 에이케이엔코리아 주식회사
Publication of KR20190029398A publication Critical patent/KR20190029398A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/1066Session management
    • H04L65/1083In-session procedures
    • H04L65/1089In-session procedures by adding media; by removing media
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • G06Q50/30
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • H04L12/1822Conducting the conference, e.g. admission, detection, selection or grouping of participants, correlating users to one or more conference sessions, prioritising transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/401Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference
    • H04L65/4015Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference where at least one of the additional parallel sessions is real time or time sensitive, e.g. white board sharing, collaboration or spawning of a subconference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/765Media network packet handling intermediate
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Business, Economics & Management (AREA)
  • Optics & Photonics (AREA)
  • General Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Computing Systems (AREA)
  • Information Transfer Between Computers (AREA)
  • Operations Research (AREA)

Abstract

본 발명은 사용자 화면 공유 방법에 관한 것으로 본 발명에 따른 사용자 화면 공유 방법은 미리 저장된 또는 스트리밍으로 표시되는 콘텐츠에 대한 사용자의 표시 화면의 공유 명령을 입력 받는 단계; 상기 화면을 공유 하는 사용자 또는 상기 화면을 공유 받는 공유 대상자의 리스트를 제1 사용자 인터페이스에 따라 제공하는 단계; 상기 제1 사용자 인터페이스에 따라 상기 리스트 중 상기 사용자 또는 상기 공유 대상자의 선택을 입력 받는 단계; 및 상기 화면이 상기 공유 대상자에게 표시되도록 상기 화면 또는 상기 화면에 포함된 적어도 일부의 콘텐츠를 전송하는 단계를 포함한다. 본 발명에 따르면, 미디어 데이터의 실행 중에 사용자가 다른 사용자와 화면을 쉽게 공유할 수 있으며, 저작권이 포함된 미디어 데이터의 공유 시 이에 따른 프로세스를 수행하여 사용자와 공유 대상자 간의 화면 공유의 문제를 해결하고 및 저작권자의 권리를 보호할 수 있다.

Description

다중 환경 간 사용자 화면 공유 방법 및 이를 수행하는 서버 시스템{Method for sharing user screen in multiple reality environment and server system for the method}
본 발명은 사용자 화면 공유 방법에 관한 것으로, 보다 상세하게는 현실 및 가상 현실 환경에서 사용자에게 표시되는 화면을 공유하는 방법에 관한 것이다.
인터넷 기술의 발달로 사용자는 소셜 네트워킹 서비스를 통해 자신의 경험과 관련된 이미지나 텍스트 등을 온라인 상에서 공유하고, 이에 대한 상호간의 의견을 수신하고 있다. 최근 다양한 형태의 소셜 네트워킹 서비스가 출시되어 사용자는 텍스트 외 이미지, 동영상 등을 공유할 수 있으며, 서비스의 제공 방식에 따른 고유의 사용자 인터페이스, 피드백 방식을 보고 자신의 취향에 맞는 서비스에 자신의 일상 생활을 공유할 수 있게 되었다.
이러한 소셜 네트워킹 서비스 중 하나인 메신저와 관련하여 최근에는 사용자 간의 실시간 통신을 위한 메신저 내에서 이미지나 음성 정보, 웹 링크 정보를 공유하고 실시간으로 의견을 교환할 수 있게 되었으며, 특정 미디어 데이터 외에 현재 사용자의 PC 화면을 다른 사용자에게 공유할 수 있는 기능도 메신저를 통해 제공되고 있다.
다만, 현재까지의 메신저를 통한 화면의 공유는 제한적인 방식의 공유만을 제공하고 있으며 복수의 사용자가 존재하는 소셜 네트워킹 서비스에서 상호간의 화면을 공유하고 이에 대한 의견을 서로 교환할 수 있는 방법은 제시되지 않고 있다.
또한, 특정 사용자의 화면에 영화나 음악 등의 저작권과 관련된 콘텐츠가 표시되는 경우 화면의 공유에 따른 저작권 문제를 해결하기 위한 방법을 제공하는 소셜 네트워킹 서비스는 존재하지 않고 있는 실정이다.
나아가, 현재의 사용자들은 현실 뿐만 아니라, 증강 현실(Augmented Reality), 가상 현실(Virtual Reality), 혼합 현실(Mixed Reality) 등의 다양한 환경에서 콘텐츠를 제공 받고 있다.
따라서, 앞서 말한 화면의 공유에 대한 니즈는 다양한 환경이 공존하는 현실에서도 발생할 수 있으며 이에 대한 해결책 역시 다가오는 미래에는 사용자들로 하여금 필요로 할 수 있다.
상기 기술적 과제를 해결하기 위해 고안된 본 발명은 미디어 데이터의 실행 중에 사용자가 다른 사용자와 화면을 공유할 수 있는 방법을 제안하는 것을 목적으로 한다.
또한, 미디어 데이터의 실행 중에 복수의 사용자들과 화면을 공유하는 경우 이를 제공하기 위한 사용자 인터페이스를 제안하는 것을 목적으로 한다.
또한, 미디어 데이터의 공유와 관련된 저작권 문제를 소셜 네트워크 상에서 처리하는 방법을 제안하는 것을 목적으로 한다.
또한, 다양한 현실이 공존하는 다중 환경에서 사용자의 화면을 공유할 수 있는 방법을 제안하는 것을 목적으로 한다.
또한, 다양한 현실이 공존하는 다중 환경에서 사용자의 공유 화면을 사용자가 이용하는 단말이 인식 가능한 제스처를 통해 제어할 수 있는 방법을 제안하는 것을 목적으로 한다.
또한, 사용자의 현실 화면 데이터와 가상 객체 부분의 데이터를 분리하여 전송함으로써, 네트워크 자원을 효율적으로 이용하는 방법을 제안하는 것을 목적으로 한다.
또한, 사용자에게 표시되는 화면을 동기화하여 공유된 사용자 간에 컨텐츠의 동일성을 보장하는 방법을 제안하는 것을 목적으로 한다.
상기 기술적 과제를 해결하기 위한 본 실시예에 따른 사용자 화면 공유 방법은 미리 저장된 또는 스트리밍으로 표시되는 콘텐츠에 대한 사용자의 표시 화면의 공유 명령을 입력 받는 단계; 상기 화면을 공유 하는 사용자 또는 상기 화면을 공유 받는 공유 대상자의 리스트를 제1 사용자 인터페이스에 따라 제공하는 단계; 상기 제1 사용자 인터페이스에 따라 상기 리스트 중 상기 사용자 또는 상기 공유 대상자의 선택을 입력 받는 단계; 및 상기 화면이 상기 공유 대상자에게 표시되도록 상기 화면 또는 상기 화면에 포함된 적어도 일부의 콘텐츠를 전송하는 단계를 포함한다.
상기 사용자 화면 공유 방법은, 제2 사용자 인터페이스에 따라 상기 사용자에게 표시되는 화면의 적어도 일 영역에 상기 공유 대상자에게 표시되는 화면을 함께 표시하는 것이 바람직하다.
상기 제공하는 단계는, 상기 제1 사용자 인터페이스에 따라 상기 화면의 공유 모드의 선택 메뉴를 제공하는 것이 바람직하다.
상기 전송하는 단계는, 상기 화면으로 출력되는 이미지 데이터 또는 상기 화면에 포함된 상기 콘텐츠를 상기 공유 대상자에게 스트리밍으로 전송하는 것이 바람직하다.
상기 전송하는 단계는, 상기 콘텐츠를 관리하는 미디어 데이터 서버를 통해 상기 공유 대상자에게 상기 콘텐츠를 상기 사용자에게 제공되는 싱크를 참조하여 스트리밍으로 전송하는 것이 바람직하다.
상기 전송하는 단계는, 상기 싱크를 기준으로 상기 콘텐츠의 단위 시간 동안의 데이터를 스트리밍으로 전송하는 것이 바람직하다.
상기 제2 사용자 인터페이스는 상기 일 영역에 표시되는 상기 공유 대상자의 화면을 상기 공유 대상자의 이미지 또는 상기 공유 대상자의 아바타 이미지로 전환을 위한 인터페이스 요소를 포함하는 것이 바람직하다.
상기 제1 사용자 인터페이스는 상기 화면에 포함된 적어도 일부의 콘텐츠를 선택하기 위한 인터페이스 요소를 포함한다.
상기 기술적 과제를 해결하기 위한 본 실시예에 따른 서버 시스템은 메모리;
프로세서; 및 상기 메모리에 포함되어 상기 프로세서에 의해 실행되는 사용자 화면 공유 모듈을 포함하고, 상기 사용자 화면 공유 모듈은 미리 저장된 또는 스트리밍으로 표시되는 콘텐츠에 대한 사용자의 표시 화면의 공유 명령을 입력 받는 단계; 상기 화면을 공유 하는 사용자 또는 상기 화면을 공유 받는 공유 대상자의 리스트를 제1 사용자 인터페이스에 따라 제공하는 단계; 상기 제1 사용자 인터페이스에 따라 상기 리스트 중 상기 사용자 또는 상기 공유 대상자의 선택을 입력 받는 단계; 및 상기 화면이 상기 공유 대상자에게 표시되도록 상기 화면 또는 상기 화면에 포함된 적어도 일부의 콘텐츠를 전송하는 단계를 수행하는 것이 바람직하다.
상기 기술적 과제를 해결하기 위한 본 실시예에 따른 사용자 화면 공유 방법을 수행하는 컴퓨터가 판독가능한 기록매체에 저장된 프로그램은 미리 저장된 또는 스트리밍으로 표시되는 콘텐츠에 대한 사용자의 표시 화면의 공유 명령을 입력 받는 단계; 상기 화면을 공유 하는 사용자 또는 상기 화면을 공유 받는 공유 대상자의 리스트를 제1 사용자 인터페이스에 따라 제공하는 단계; 상기 제1 사용자 인터페이스에 따라 상기 리스트 중 상기 사용자 또는 상기 공유 대상자의 선택을 입력 받는 단계; 상기 화면이 상기 공유 대상자에게 표시되도록 상기 화면 또는 상기 화면에 포함된 적어도 일부의 콘텐츠를 전송하는 단계를 수행할 수 있다.
상기 기술적 과제를 해결하기 위한 본 실시예에 따른 사용자 화면 공유 방법은 입력 받은 현실 환경의 현실 객체와 미리 저장된 또는 스트리밍되는 가상 객체에 대한 사용자의 표시 화면의 공유 명령을 입력 받는 단계; 상기 화면을 공유 하는 사용자 또는 상기 화면을 공유 받는 공유 대상자의 리스트를 제1 사용자 인터페이스에 따라 제공하는 단계; 상기 제1 사용자 인터페이스에 따라 상기 리스트 중 상기 사용자 또는 상기 공유 대상자의 선택을 입력 받는 단계; 및 상기 현실 객체 및 상기 가상 객체를 적어도 하나 이상 포함하는 화면이 상기 공유 대상자에게 표시되도록 상기 화면 또는 상기 화면에 포함된 적어도 일부의 상기 현실 객체 또는 상기 가상 객체를 전송하는 단계를 포함한다.
상기 전송하는 단계는, 상기 현실 객체와 상기 가상 객체를 구분하여 상기 현실 객체를 상기 공유 대상자에게 스트리밍하고, 상기 가상 객체의 객체 데이터를 상기 공유 대상자에게 전송하는 것이 바람직하다.
상기 사용자 화면 공유 방법은, 공유되는 가상 객체에 대한 사용자 또는 공유 대상자의 명령을 객체 제어 명령을 입력 받고, 상기 객체 제어 명령에 따라 상기 전송된 객체 데이터를 처리하여 처리 결과를 상호 공유하는 단계를 더 포함한다.
상기 전송하는 단계는, 상기 사용자의 이미지 또는 상기 사용자의 아바타 이미지를 함께 전송하는 것이 바람직하다.
상기 전송하는 단계는, 상기 사용자에게 증강 현실을 제공하는 사용자 단말을 통해 입력 받은 상기 사용자의 이미지를 상기 공유 대상자에게 전송하는 것이 바람직하다.
상기 전송하는 단계는, 상기 사용자에게 가상 또는 가상 및 증강 현실이 혼합된 혼합 현실을 제공하는 사용자 단말을 통해 상기 사용자의 아바타 이미지를 상기 공유 대상자에게 전송하는 것이 바람직하다.
상기 기술적 과제를 해결하기 위한 본 실시예에 따른 서버 시스템은 메모리; 프로세서; 및 상기 메모리에 포함되어 상기 프로세서에 의해 실행되는 사용자 화면 공유 모듈을 포함하고, 상기 사용자 화면 공유 모듈은 입력 받은 현실 환경의 현실 객체와 미리 저장된 또는 스트리밍되는 가상 객체에 대한 사용자의 표시 화면의 공유 명령을 입력 받는 단계; 상기 화면을 공유 하는 사용자 또는 상기 화면을 공유 받는 공유 대상자의 리스트를 제1 사용자 인터페이스에 따라 제공하는 단계; 상기 제1 사용자 인터페이스에 따라 상기 리스트 중 상기 사용자 또는 상기 공유 대상자의 선택을 입력 받는 단계; 및 상기 현실 객체 및 상기 가상 객체를 적어도 하나 이상 포함하는 화면이 상기 공유 대상자에게 표시되도록 상기 화면 또는 상기 화면에 포함된 적어도 일부의 상기 현실 객체 또는 상기 가상 객체를 전송하는 단계를 수행할 수 있다.
상기 기술적 과제를 해결하기 위한 본 실시예에 따른 사용자 화면 공유 방법을 수행하는 컴퓨터가 판독가능한 기록매체에 저장된 프로그램은 입력 받은 현실 환경의 현실 객체와 미리 저장된 또는 스트리밍되는 가상 객체에 대한 사용자의 표시 화면의 공유 명령을 입력 받는 단계; 상기 화면을 공유 하는 사용자 또는 상기 화면을 공유 받는 공유 대상자의 리스트를 제1 사용자 인터페이스에 따라 제공하는 단계; 상기 제1 사용자 인터페이스에 따라 상기 리스트 중 상기 사용자 또는 상기 공유 대상자의 선택을 입력 받는 단계; 및 상기 현실 객체 및 상기 가상 객체를 적어도 하나 이상 포함하는 화면이 상기 공유 대상자에게 표시되도록 상기 화면 또는 상기 화면에 포함된 적어도 일부의 상기 현실 객체 또는 상기 가상 객체를 전송하는 단계를 수행할 수 있다.
본 발명에 따르면, 미디어 데이터의 실행 중에 사용자가 다른 사용자와 화면을 쉽게 공유할 수 있으며, 저작권이 포함된 미디어 데이터의 공유 시 이에 따른 프로세스를 수행하여 사용자와 공유 대상자 간의 화면 공유의 문제를 해결하고 및 저작권자의 권리를 보호할 수 있다.
또한, 다중 환경 속에서 공유하고자 하는 객체를 선택하여 공유하며, 현재 속해 있는 현실 속에서 공유를 위하여 별도의 현실로 상태를 전환할 필요가 없다.
또한, 제공 받는 공유자와 공유 대상자 간의 상호 인터페이스 명령을 객체에 전달하고, 각 환경에 따라 상대방을 표시하는 방법을 달리하여 사용자는 상대방을 보다 용이하게 인식하며 원거리의 사용자 간에도 실감 있는 콘텐츠의 공유가 가능하도록 한다.
도 1은 본 발명의 일 실시예에 따른 사용자 화면 공유 방법이 수행되는 시스템의 구성을 나타내는 예시도이다.
도 2는 본 발명의 일 실시예에 따른 공유 서버의 구성을 나타내는 블록도이다.
도 3은 본 발명의 일 실시예에 따른 사용자 화면 공유 방법을 나타내는 흐름도이다.
도 4a 내지 4e는 본 발명의 일 실시예에 따른 사용자 인터페이스를 나타내는 도면이다.
도 5는 본 발명의 일 실시예에 따른 저작권 정보 관리부를 나타내는 블록도이다.
도 6은 본 발명의 일 실시예에 따른 다중 환경에서의 사용자 화면 공유 방법이 수행되는 시스템의 구성을 나타내는 예시도이다.
도 7은 본 발명의 일 실시예에 따른 다중 환경에서의 사용자 화면 공유 예를 나타내는 예시도이다.
도 8은 본 발명의 일 실시예에 따른 이종 환경에서의 사용자 화면 공유 방법이 수행되는 시스템의 구성을 나타내는 예시도이다.
도 9 내지 12는 본 발명의 일 실시예에 따른 이종 환경에서의 사용자 화면 공유 예를 나타내는 예시도이다.
도 13은 본 발명의 일 실시예에 따른 사용자 화면 공유 방법을 나타내는 흐름도이다.
이하의 내용은 단지 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시 되지 않았지만 발명의 원리를 구현하고 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시 예들은 원칙적으로, 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이외같이 특별히 열거된 실시 예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.
상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이며, 그에 따라 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다.
또한, 발명을 설명함에 있어서 발명과 관련된 공지 기술에 대한 구체적인 설명이 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하에는 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예에 대해 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른 사용자 화면 공유 방법이 수행되는 시스템의 구성을 나타내는 예시도이다.
도 1을 참조하면, 본 실시예에서 시스템은 네트워크(5)를 중심으로 사용자의 화면을 공유하기 위한 공유 서버(100)와, 사용자의 화면에 포함되는 콘텐츠를 관리하는 미디어 데이터 서버(200) 및 사용자와 공유 대상자의 단말(20)을 포함할 수 있다.
본 실시예에서는 화면을 공유하는 측을 공유자, 화면을 공유 받는 측을 공유 대상자로 정의하여 설명한다.
도 1에서 공유자는 PC(10)를 이용하여 자신이 시청하는 영상을 포함하는 화면을 공유 대상자의 사용자 단말(20)에 공유한다. 이때, 공유 서버(100)는 메모리(110)에 포함된 화면을 공유하기 위한 사용자 인터페이스를 프로세서(120)를 통해 사용자의 PC(10)에 실행하고, 사용자로부터 선택된 공유 대상자에게 네트워크(5)를 통해 화면이 공유되도록 한다.
또한, 미디어 데이터 서버(200)는 공유 서버(100)와 함께 사용자에게 제공되는 콘텐츠를 공유 대상자에게 제공하여 실질적으로 화면이 공유되도록 한다. 이때, 미디어 데이터 서버(200)는 비필수적인 구성으로, 사용자가 직접 콘텐츠를 보유하고 있는 경우에는 스트리밍을 통하여 공유 서버(100)를 통해 공유 대상자에게 직접 제공하는 것도 가능하다. 또한 사용자는 콘텐츠를 공유 대상자에게 제공함과 동시에 현재의 싱크 정보를 함께 제공하여 공유 대상자와 공유자의 콘텐츠의 동일성을 보장할 수 있다.
반면, 사용자가 미디어 데이터 서버(200)에서 관리하는 콘텐츠를 제공 받는 경우에는 사용자의 화면 공유 시 제공 받는 콘텐츠를 공유 대상자에게 미디어 데이터 서버(200)를 통해 콘텐츠를 제공하도록 할 수 있다. 나아가, 미디어 데이터 서버(200)는 콘텐츠를 공유 대상자에게 제공하고, 제공되는 콘텐츠의 싱크 정보는 공유자가 공유 대상자에게 직접 전송하도록 구성하는 것도 가능하다.
또는, 이러한 경우에도, 미디어 데이터 서버(200)의 개입 없이 사용자 PC가 스트리밍으로 제공 받은 콘텐츠를 공유 대상자의 사용자 단말(20)로 전달하는 것도 가능하다.
본 실시예에서 콘텐츠는 사용자들에게 제공되며, 시각적으로 인식가능한 미디어 데이터로서, 현실 환경에서 시각적으로 인식가능한 영화나 음악 데이터 뿐만 아니라, 가상 현실에서 제공되는 가상의 객체에 대한 데이터 등을 모두 포함할 수 있다.
이를 통해 사용자는 자신이 사용하는 장치가 스마트폰, 태블릿 pc, 스마트 안경과 같은 장치인 경우 현실 환경 또는 증강 현실(Augmented Reality) 환경에서 화면을 공유 할 수 있으며, HMD(Head Mounted Display) 장치인 경우에는 가상 현실(Augmented Reality) 또는 혼합 현실(Mixed Reality) 환경에서 표시되는 화면을 상호 공유할 수 있다.
이상의 미디어 데이터 서버(200)는 하나 이상의 서버 컴퓨터, 데스크탑 컴퓨터 등과 같은 컴퓨팅 장치 일 수 있으며 모바일 장치로 구현되는 것도 가능하다. 또한 미디어 데이터 서버(200)의 각 구성은 공유 서버(100)와 동일한 물리적 또는 논리적 시스템, 또는 상이한 물리적 또는 논리적 시스템에 통합 될 수 있다.
네트워크(5)는 본 실시예에서 사용자와 공유 대상자들이 상호간의 정보를 송수신할 수 있는 환경으로서 본 실시예에 따른 시스템의 구성을 유선 또는 무선 통신 방식으로 상호 연결해 준다.
네트워크(5)에서 이용되는 무선 통신 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. 또다른 예로, 유선 통신 기술로는 XDSL(Digital Subscriber Line), FTTH(Fibers to the home), PLC(Power Line Communication) 등이 이용될 수 있다.
또한, 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.
본 실시예에서 사용자 단말(20)은 데스크탑과 같은 PC외 모바일 장치를 포함한다. 모바일 장치는 이동 전화, 개인 휴대 정보 단말기, 태블릿 컴퓨터, 착용 식 컴퓨팅 장치 등과 같은 모바일 (즉, 휴대용) 컴퓨팅 장치 일 수 있다. 또한, 가상 환경을 제공하기 위한 HMD 등의 장치를 포함한다.
이하, 도 2를 참조하여 본 실시예에 따른 공유 서버(100)의 구성에 대하여 보다 상세히 설명한다.
도 2는 본 발명의 일 실시예에 따른 공유 서버(100)의 구성을 나타내는 블록도이다.
본 실시예에서 공유 서버(100)는 사용자 화면 공유 모듈(102), 사용자 인터페이스 모듈(104), 미디어 데이터 입력부(106), 저작권 정보 관리부(108), 및 사용자 정보 관리부(105)를 포함한다.
이상의 공유 서버(100)의 각 구성은 공유 서버(100) 자체에 포함되는 메모리(110), 프로세서(120), 및 기타 하드웨어 장치(미도시)에 따라 기능적으로 구현될 수 있다.
또한, 공유 서버(100)의 각 구성은 서버의 동작에 따라 분산되어 구현될 수 있으며 동시에 구현되는 것도 가능하다.
본 실시예에서 사용자 화면 공유 모듈(102)은 사용자와 공유 대상자 간의 정보의 공유와 상호 통신을 위한 서비스를 제공한다. 즉, 공유 서버(100)에서 직접 대상자 간의 메신저와 화면의 공유를 위한 소셜 네트워크 환경을 구성하고 이에 대한 정보의 송수신을 제어할 수 있다.
또는 별도의 서비스 주체에서 운영하는 소셜 네트워킹 서비스 주체로부터, 사용자 정보에 따른 사용자의 소셜 네트워크 정보를 수신하고, 이를 통해 화면을 공유하는 서비스를 추가적으로 제공해 주는 것도 가능하다.
즉, 본 실시예에서 사용자 화면 공유 모듈(102)은 콘텐츠의 재생과 재생되는 화면의 공유를 포함한 자체적인 서비스를 제공하고 이에 따른 사용자의 소셜 네트워크 정보를 관리하고 사용자가 화면을 공유할 수 있도록 할 수 있다.
이때, 공유자와 공유 대상자가 동일한 서비스를 이용하는 경우 화면의 공유 뿐 만 아니라, 화면에 재생되는 콘텐츠의 재생 옵션(싱크, 화질, 자막 유뮤, 자막 언어 등)도 동일하도록 설정하는 것도 가능하다. 이를 통해 공유 대상자는 별도의 설정 없이도 공유자가 시청하는 콘텐츠를 동일한 상태로 제공 받을 수 있다.
또는 타사의 콘텐츠 제공 서비스 또는 타사의 소셜 네트워킹 서비스 상의 사용자에 대한 소셜 네트워크 정보를 이용하여 화면 공유 기능을 추가로 제공해 주는 것도 가능하다. 즉, 타사의 서비스와 연동하여 화면을 공유하는 경우에는 콘텐츠 외에 콘텐츠의 재생과 관련된 여러 설정 정보를 함께 제공해 주어 공유되는 화면의 동일성을 보장할 수 있다. 나아가, WebRTC(Real Time Communication)와 같이 브라우저 간에 플러그인의 도움 없이 서로 통신할 수 있도록 설계된 API를 통해 사용자 화면 공유 모듈을 구현하여, 다른 소셜 네트워킹 서비스 또는 영상 제공 서비스와도 브라우저를 통해 쉽게 연동되도록 할 수 있다.
본 실시예에서 사용자 인터페이스 모듈(104)은 화면의 공유를 위한 사용자 인터페이스를 제공해 주며, 사용자 인터페이스에 따른 사용자의 입력을 수신하고 이에 따른 공유 서버(100)의 동작을 제어해 줄 수 있다.
본 실시에에서 사용자 인터페이스는 화면을 공유하기 위한 공유 대상자를 선택하는 사용자 인터페이스와 화면의 공유에 따라 사용자 또는 공유 대상자에게 화면을 분할하여 제공하는 사용자 인터페이스로 구성될 수 있다. 이에 대해서는 후술하는 도면을 통하여 보다 상세히 설명한다.
본 실시예에서 미디어 데이터 입력부(106)는 사용자의 화면 공유 시 화면에 포함된 콘텐츠의 미디어 데이터를 입력 받고, 공유 대상자에게 제공될 수 있도록 한다.
본 실시예에서 공유되는 미디어 데이터는 사용자의 단말(20)의 그래픽 처리 장치를 통해 디스플레이 장치에 표시되는 화면 자체에 대한 데이터, 화면을 통해 영상/음성 콘텐츠가 제공되는 경우 이러한 콘텐츠의 영상/음성 데이터 및 콘텐츠에 대한 메타 데이터를 모두 포함할 수 있다.
또한, 미디어 데이터는 실생활에서 직접 인식가능한 형태 뿐만 아니라, 가상 현실 환경에서 인식 가능하도록 컴퓨터 그래픽으로 생성되는 다양한 가상의 객체들의 데이터를 포함할 수 있다.
미디어 데이터 입력부(106)는 데이터를 입력 받고 이를 공유 데이터에 제공해 준다. 또한 본 실시예에서 공유 대상자는 사용자의 화면 전체를 공유 받거나 일부를 선택하여 공유 받을 수도 있다.
예를 들어 화면 전체를 그대로 공유 받아서, 사용자의 화면에 표시되는 운영체제의 작업표시줄에 대한 화면, 사용자의 마우스 커서, 등을 그대로 공유 받을 수 있다. 또는 일부로서 사용자가 화면 중 일부 화면을 통해 영상을 시청하는 경우 이에 대한 영상 데이터 만을 공유 받도록 선택하는 것도 가능하다.
나아가, 화면에 직접적으로 표시되지는 않으나 사용자의 단말(10)의 운영체제 상에서 백그라운드에서 실행되는 프로그램을 공유 받고, 공유 대상자의 단말(20)에는 표시되도록 하는 것도 가능하다.
즉, 본 실시예에서 화면 공유에 따라 입력되는 미디어 데이터는 사용자의 단말(10) 상에서 실행되고 있는 데이터 중 디스플레이 장치로 표시되거나 또는 표시될 수 있는 데이터들을 모두 포함할 수 있다.
본 실시예에서 저작권 정보 관리부(108)는 공유되는 화면에 포함된 콘텐츠와 관련된 저작권 정보를 관리한다.
예를 들어 사용자가 데스크탑 PC를 통해 영화를 시청하고 있는 경우 영화가 DRM(Digital Right Management)으로 보호되는 경우 DRM 정보를 저작권 정보 관리부(108)는 관리할 수 있다.
따라서, 영화가 재생되고 있는 화면을 대상 공유자에게 공유하려는 경우 저작권 정보 관리부(108)는 영화의 DRM 정보에 따라 화면의 공유 가부 및 공유 시 발생할 수 있는 저작권 사용료를 산출하고 과금 할 수 있다. 이때, 과금의 대상은 공유 받는 공유 대상자 및/또는 공유하는 사용자일 수 있다.
본 실시예에서 사용자 정보 관리부(105)는 사용자 화면 공유 모듈(102)에서 제공되는 소셜 네트워킹 서비스 상의 사용자 정보를 관리하고, 사용자가 화면의 공유를 위한 사용자 인터페이스를 요청 시, 사용자 정보에 따른 소셜 네트워크 상의 다른 사용자의 리스트를 사용자 인터페이스를 통해 제공될 수 있도록 한다.
이상의 공유 서버(100)는 상술한 각 구성을 통해 사용자의 화면 공유 요청 시 공유 대상자에게 화면을 공유 시키고, 이와 함께 공유 되는 화면에 포함된 콘텐츠의 저작권 관련 사항을 처리한다.
이하, 도 3을 참조하여 본 실시예에 따른 사용자 화면 공유 방법에 대하여 설명한다.
도 3은 본 발명의 일 실시예에 따른 사용자 화면 공유 방법을 나타내는 흐름도이다.
본 실시예에 따른 사용자 화면 공유 방법은 화면의 공유를 위해 사용자에게 표시되는 화면을 공유하기 위한 공유 명령을 입력 받는다(S100).
다음, 화면의 공유자 또는 공유 대상자의 리스트를 제1 사용자 인터페이스에 따라 제공한다(S100).
이하 본 실시예에 따른 사용자 인터페이스는 도 4를 참조하여, 디스플레이 장치에 표시되는 화면(400)을 기준으로 설명한다.
본 실시예에 따른 제1 사용자 인터페이스는 도 4a를 참조하여 보다 상세히 설명한다.
도 4a는 본 발명의 일 실시예에 따른 제1 사용자 인터페이스를 나타내는 도면이다.
도 4a는 본 실시예에서 공유자가 전체화면(402)으로 동영상을 시청하는 도중 이를 다른 사용자에게 공유하기 위한 상황을 나타내는 도이다.
본 실시예에서 공유자가 마우스나 터치 입력 등을 통해 화면의 공유의 명령을 입력하면(S100), 화면의 일부 영역에 사용자의 소셜 네트워크 상의 다른 사용자의 리스트(404)를 제공해 줄 수 있다(S200).
이러한, 사용자 인터페이스는 상술한 공유 서버(100)를 통해 제공되며 사용자가 이용하는 공유 프로그램이 동영상을 실행시키는 어플리케이션을 기반으로 제공되는 경우 사용자의 어플리케이션 상의 화면 공유 명령의 입력으로 제1 사용자 인터페이스를 제공 받을 수 있다.
또는 동영상을 실행시키는 어플리케이션과 별도로 실행되는 화면 공유를 위한 화면 공유 서비스로 제공 되는 경우 전체화면의 동영상의 실행 중에 백그라운드 명령의 입력을 통해 제1 사용자 인터페이스를 제공 받을 수 있다.
도 4a를 참조하면, 전체 화면(402)으로 재생되는 동영상의 화면 일부에 사용자의 소셜 네트워크 상의 다른 사용자의 리스트를 박스(404)로 표시하게 할 수 있다.
이상의 다른 사용자의 리스트를 제공하는 단계(S200)는 공유 명령을 입력 받는 단계(S100)와 순서를 바꾸어 수행될 수 도 있다. 즉, 사용자의 리스트를 먼저 제공해 주고, 제공된 리스트 중 공유 대상자의 선택을 공유 명령으로 입력 받는 것도 가능하다.
본 실시예에서, 사용자 화면 공유 방법은 제1 사용자 인터페이스에 의해 다른 사용자 리스트가 제공되면, 제1 사용자 인터페이스에 따라 상기 리스트 중 공유 대상자의 선택을 입력 받는다(S300).
본 실시예에서 공유 대상자의 선택은 도 4a에 따른 제1 사용자 인터페이스를 통하여 수행될 수 있다. 사용자가 화면의 일영역에 표시되는 박스(404) 내에서 구분되어 표시되는 다른 사용자 중에 하나를 마우스 클릭 또는 터치 입력을 통해 선택하면 제1 사용자 인터페이스는 클릭 또는 터치 된 위치에 대응하는 사용자를 공유 대상자로 선택한 것으로 입력 받을 수 있다.
추가적으로 도 4a는 다른 사용자의 이름 또는 ID를 텍스트로 표시하는 것을 예시하고 있으나, 사용자를 식별할 수 있는 이미지 등으로 표시하는 것도 가능하다.
또한, 본 실시예에서 제1 사용자 인터페이스는 공유 대상자의 선택과 함께 화면의 공유 시 공유 대상자에게 제공될 수 있는 콘텐츠를 선택하는 것도 가능하다.
본 실시예에서 화면의 공유란, 단어 그대로 화면 자체를 실시간으로 공유하여 다른 사용자에게 그대로 제공하는 것과 함께 화면의 일부 콘텐츠를 공유 하는 것을 포함한다. 후자의 경우 화면의 공유는 화면에 포함된 사용자의 콘텐츠 중의 하나를 공유하기 위한 초기 입력으로의 의미를 가질 수 있다.
예를 들어 도 4a와 달리 사용자가 전체화면이 아닌 일부 화면으로 동영상을 재생하고 있는 경우에 사용자는 동영상이 재생되는 일부 화면과 다른 배경 등이 포함된 화면을 공유할지 또는 동영상이 재생되는 일부 화면만을 공유 할지를 선택하는 것도 가능하다.
또한, 일부 화면으로 동영상을 재생하고 있는 경우에도, 동영상에 포함된 음성만을 제공할지 영상만을 제공할지 또는 자막과 같은 텍스트 정보만을 제공할지를 선택할 수 있다.
따라서, 본 실시예에서 화면의 공유는 화면에 표시되는 콘텐츠를 기준으로 다양한 형태의 미디어를 다른 사용자에게 제공해 주는 것을 의미한다.
도 4b를 참조하면, 본 실시예에서 공유 대상자에게 제공되는 콘텐츠의 선택은 도 4a에 따른 제1 사용자 인터페이스를 통해 연속적으로 수행될 수 있다.
도 4a에 따른 인터페이스 상의 박스 내 다른 사용자 중 사용자 1에 화면의 공유를 선택하는 경우(405), 추가적으로 사용자에게 공유할 콘텐츠를 선택하기 위한 인터페이스를 추가적인 박스로 제공해 줄 수 있다.
구체적으로 도 4b의 추가적인 박스에는 동영상(406), 음성(407), 텍스트(408)를 선택할 수 있는 요소들이 표시될 수 있다.
도 4b에서는 이러한 요소는 그래픽 사용자 인터페이스(GUI: Graphic User Interface) 요소와 함께 표시되며, 사용자는 이를 통해 동영상을 선택하여 영상과 음성 데이터를 공유하거나, 음성을 선택하여 음성 데이터만을 공유하거나, 텍스트를 선택하여 자막과 같은 텍스트 데이터만을 공유하는 것을 선택할 수 있다.
또한, 공유 대상자의 선택을 입력 받는 단계(S300)는 공유 대상자 측의 단말로부터 공유자의 선택을 입력 받는 단계로 수행되는 것도 가능하다. 즉, 상술한 다른 사용자의 리스트를 제공하는 단계(S200)는 공유 대상자 측의 단말에 사용자의 리스트를 제공하는 것으로 수행될 수 있다.
예를 들어, 공유자는 동영상을 실행시키고, 동영상을 공유하겠다는 의사만을 입력하면, 다른 사용자(공유 대상자 후보)들에게 현재 공유 가능한 동영상이 공유자의 리스트로 제공되도록 할 수 있다.
본 실시예에서 공유 대상자는 공유자들의 리스트를 통해 공유자에 대한 정보와 현재 공유자의 화면에 표시되는 콘텐츠의 정보를 확인하고, 공유 받고 싶은 공유자를 선택하면, 공유 서버(100)는 공유 대상자의 공유자의 화면을 공유 받고 싶다는 공유 명령을 입력 받고 화면을 공유시켜 주는 것도 가능하다.
또한, 일대일이 아닌 복수의 공유 대상자가 공유자의 화면을 공유 받는 것도 가능하다. 즉, 공유자가 동영상을 공유하겠다는 의사를 입력하면 채팅방과 같은 가상의 화면 공유방이 생성되고, 공유 대상자는 공유자가 생성한 화면 공유방에 참여하도록 할 수 있다.
이상의 사용자 인터페이스를 통해 사용자가 공유 대상자와 공유할 콘텐츠를 선택하면 본 실시예에서 사용자 공유 방법은 화면이 상기 공유 대상자에게 표시되도록 상기 화면에 포함된 적어도 일부의 콘텐츠를 전송한다(S400).
본 실시예에서 사용자 공유 방법은 콘텐츠를 전송하고 공유 대상자에게 표시되면 이를 사용자의 화면에 함께 표시하는 것이 가능하다.
구체적으로 본 실시예에서 사용자 화면 공유 방법은, 제2 사용자 인터페이스에 따라 상기 사용자에게 표시되는 화면의 일 영역에 상기 공유 대상자에게 표시되는 화면을 함께 표시해 줄 수 있다.
또한, 본 실시예에서 사용자는 상술한 제1 사용자 인터페이스를 통해 복수의 사용자에게 화면을 공유하는 것을 선택할 수 있다. 이때 사용자는 제2 사용자 인터페이스에 따라 화면의 일 영역에 공유 대상자에게 표시되는 화면을 함께 볼 수 있다.
공유 대상자에게 표시되는 화면을 통해 사용자는 공유 대상자가 자신이 공유한 화면을 어떠한 형태로 제공받는지를 확인할 수 있으며, 추가적인 인터페이스에 따라 공유 대상자에게 부가 정보를 제공하는 것도 가능하다.
또한, 본 실시예에서 전송하는 단계(S400)는 현실 객체 및 상기 가상 객체를 적어도 하나 이상 포함하는 화면이 상기 공유 대상자에게 표시되도록 상기 화면 또는 상기 화면에 포함된 적어도 일부의 상기 현실 객체 또는 상기 가상 객체를 전송하는 것도 가능하다.
즉, 현실 환경에서 단순히 디스플레이 장치에 표시되는 미디어 데이터를 공유하는 것 외에, 가상 현실이 공존하는 환경에서 상기 현실 객체와 상기 가상 객체를 구분하여 상기 현실 객체를 상기 공유 대상자에게 스트리밍하고, 상기 가상 객체의 객체 데이터를 상기 공유 대상자에게 전송하는 것도 가능하다.
도 4c를 참고하면, 도 4c는 본 실시예에 따른 사용자 화면 공유 방법을 통해 공유 대상자 3인에게 화면을 공유한 경우 사용자의 화면(400)을 나타내는 도로서, 각각의 공유 대상자에게 현재 공유되고 있는 상황을 표시해 준다. 즉, 제2 사용자 인터페이스는 사용자의 화면을 분할하고, 분할된 일 영역(412, 414, 416)은 공유 대상자의 수에 맞도록 분할하여 공유 대상자에게 표시되는 화면을 표시하도록 한다.
이와 같이 공유 대상자에게 표시되는 화면을 사용자에게 표시해주는 것은 본 실시예에 따른 사용자 화면 공유 방법이 단순 화면의 공유 외, 공유 대상자가 화면의 공유 이후에 제공 받는 콘텐츠의 종류를 선택하거나 콘텐츠의 제공 사항 즉 화면의 공유 양상을 별도로 설정할 수 있기 때문이다.
도 4c를 참조하면, 본 실시예에 따른 제2 사용자 인터페이스를 통해 사용자는 공유 대상자 중 사용자 1의 화면(412)은 화면을 공유한 사용자의 영상을 공유하되, 영상의 재생 시점을 달리하여 서로 다른 시점의 영상을 보는 것을 확인할 수 있다. 또한, 사용자 2의 화면(414)은 사용자의 화면과 동일한 재생 시점으로 영상을 보는 것을 확인할 수 있다. 사용자 3의 화면(416)은 음성 데이터 만을 수신하는 것을 확인할 수 있다.
또한, 본 실시예에서 공유 대상자의 영역의 분할은 공유 대상자 별로 화면의 공유 양상에 따라 다양하게 설정될 수 있다. 즉, 공유 대상자 별로 균등하게 분할되거나 중요도에 따라 영역의 크기를 달리하여 분할될 수 있다.
추가적으로, 본 실시예에 따른 제2 사용자 인터페이스는 상기 일 영역에 표시되는 상기 공유 대상자의 화면을 상기 공유 대상자의 이미지로 전환을 위한 인터페이스 요소를 포함할 수 있다.
이에 대해서는, 도 4d를 참조하여 보다 상세히 설명한다. 도 4d는 본 실시예에서 사용자가 6명의 공유 대상자에 대하여 자신의 화면을 공유하는 예를 나타낸다.
상술한 바와 같이 제2 사용자 인터페이스는 사용자 화면(400)의 일 영역에 대하여 공유 대상자에게 표시되는 화면을 공유 대상자의 수에 따라 분할하여 함께 표시해준다.
또한, 각 공유 대상자의 화면에 공유 대상자의 이미지로 전환할 수 있는 인터페이스를 포함하여, 사용자가 공유 대상자의 화면을 보거나 또는 공유 대상자의 영상을 수신하여 영상 통화를 하는 것도 가능하다.
본 실시예에서 제2 사용자 인터페이스는 공유 대상자의 화면과 공유 대상의 이미지 간의 전환을 위한 인터페이스 요소로서 공유 대상자의 각 영역에 그래픽 사용자 인터페이스(GUI: Graphic User Interface) 요소를 더욱 포함할 수 있다.
도 4d를 참조하면, 공유 대상자의 영역의 우측 하단에 GUI 요소를 포함하고 있다.
예를 들어 사용자 1의 화면(422)의 우측 하단에 사용자의 이미지로 전환을 위한 GUI 요소(424)를 포함하며, 사용자가 이를 선택하는 경우 사용자 1의 이미지를 표시하도록 할 수 있다. 또한 사용자 2의 화면(418)의 우측 하단에는 공유 대상자의 화면에서 공유한 사용자의 화면으로 전환을 위한 GUI 요소(420)를 포함하여, 화면을 전환하는 것도 가능하다.
또한, 본 실시예에서 콘텐츠를 전송하는 단계(S400)는 상기 사용자의 이미지 데이터를 더욱 전송하는 것도 가능하다.
즉, 사용자가 자신의 화면을 공유 대상자에게 공유함과 동시에 사용자 단말(20)에 포함된 카메라 모듈을 통해 자신을 촬영한 사용자의 이미지를 공유 대상자에게 전송할 수 있다.
도 4e를 참조하면, 도 4e는 공유 대상자가 사용자의 화면(402)을 공유 받음과 동시에 사용자의 이미지(430)를 수신하는 예를 나타낸다. 본 실시예에서 공유 대상자가 사용자의 이미지(430)를 수신하면 이를 공유되는 영상의 하단에 표시되도록 할 수 있다.
이때의 사용자의 이미지 공유는 공유 대상자가 사용자와 영상 통화를 수행하는 목적 외에, 공유되는 영상에 대한 부가적인 설명을 위한 목적으로 활용될 수 있다.
예를 들어, 공유 대상자에게 사용자가 수화를 통해 영상에 포함된 내용의 부가 설명을 진행하는 경우 공유 대상자는 이를 영상과 함께 확인할 수 있다.
또한, 가상 현실이 공존하는 다중 환경에서 전송하는 단계는 상기 사용자의 이미지 또는 상기 사용자의 아바타 이미지를 함께 전송하는 것도 가능하다. 즉, 사용자 일측이 사용자의 얼굴과 마주하는 카메라를 포함하며, 얼굴의 촬영이 가능한 경우 사용자의 이미지를 공유자 또는 공유 대상자에게 전송할 수 있다.
또는, 카메라가 없거나 촬영이 불가능한 경우에는 사용자의 아바타 이미지를 대신하여 전송하는 것도 가능하다.
즉, 본 실시예에서는 추가 절차로 공유 이전에 또는 공유 중에 사용자가 이용하는 단말을 확인하고 사용자의 단말에 따라 다른 사용자에게 표시되는 방식을 결정하도록 할 수 있다.
이를 통해 공유자와 공유 대상자가 공유하는 객체를 통해 서로 커뮤니케이션 하는 경우 몰입감을 높일 수 있다.
이상의 상술한 사용자 및 공유 대상자 측의 사용자 인터페이스를 통해 상호간의 화면의 공유 시, 자신이 설정한 화면의 공유 양상을 상대방에게 인지시킬 수 있으며 영상과 함께 자신의 이미지를 공유하여 부가적인 정보의 전송을 수행할 수 있다.
본 실시예에서 사용자 화면 공유 방법은 화면의 공유에 따라 상기 공유 대상자에 대한 과금 프로세스를 실행시키는 것도 가능하다.
상술한 바와 같이 본 실시예에서 공유 서버(100)는 저작권 정보 관리부(108)를 통해 영상의 공유 시 발생할 수 있는 저작권 문제를 처리할 수 있다.
이에 대해서는 도 5를 참조하여 보다 상세히 설명한다.
도 5는 본 발명의 일 실시예에 따른 저작권 정보 관리부(108)를 나타내는 블록도이다.
도 5를 참조하면, 본 실시예에서 저작권 정보 관리부(108)는 저작권자 정보 관리부(108a), 저작권료 산출부(108b), 공유 대상자 정보 관리부(108c), 비용 과금부(108d)를 포함한다.
본 실시예에서 저작권자 정보 관리부(108a)는 공유되는 영상과 관련된 저작권자의 정보를 관리한다. 본 실시예에서 저작권자는 공유되는 영상의 저작권을 소유하거나 관리하는 자로서, 공유 대상자 또는 사용자에게 저작권을 징수하는 주체일 수 있다.
따라서, 본 실시예에서 저작권 정보 관리부(108)는 산정된 저작권 사용료를 저작권 자의 정보를 참고하여 지급하도록 한다.
저작권료 산출부(108b)는 영상의 공유에 따른 저작권을 산출한다. 이 때 저작권료 산출부는 공유 대상자 별로 저작권료를 산출한다. 예를 들어 사용자가 영상을 공유하는 공유 대상자의 수가 많을수록 이에 따라 저작권료를 산출할 수 있다.
또한, 본 실시예에서 공유 대상자는 화면의 공유 시 공유 되는 화면의 공유 양상을 설정할 수 있는 바 이러한 설정 정보를 반영하는 것도 가능하다. 예를 들어 영상을 전체 공유 받는 경우, 영상의 일부만을 공유 받는 경우, 음성 또는 텍스트 정보 만을 공유 받는 경우에 따른 저작권료를 산출하는 것도 가능하다.
즉, 본 실시예에서 과금 프로세스는 복수의 상기 공유 대상자에 대하여 상기 전송된 콘텐츠의 데이터량을 상호 비교하여 각 공유 대상자에게 비용을 과금할 수 있다.
본 실시예에서 공유 대상자 정보 관리부(108c)는 저작권료 산출부(108b)에서 저작권료를 산출하기 위한 공유 대상자 각각의 정보를 관리한다. 공유 대상자 정보 관리부(108c)는 공유 대상자의 화면의 공유 양상에 대한 정보를 공유 대상자 별로 관리하고 이를 저작권료 산출부에 전달한다. 또한 공유 대상자 정보 관리부(108c)는 비용 과금부(108d)에서 산출된 저작권료를 공유 대상자 별로 각각 과금하는 경우에는 공유 대상자 정보 관리부에서 공유 대상자의 식별 정보를 제공하고 이에 따라 과금을 위한 사용자 인터페이스를 개별적으로 실행시킬 수 있다.
본 실시예에서 비용 과금부(108d)는 저작권료 산출부(108b)에서 산출된 저작권료를 저작권료 지급 대상자(10, 20)에게 과금 시킨다. 이때 비용 과금부(108d)는 비용의 과금을 위한 별도의 사용자 인터페이스를 영상의 공유 전에 각 공유 대상자의 화면에 실행시키고, 이를 통해 공유 대상자의 공유 인증이 완료된 경우에 화면을 공유하도록 할 수 있다.
또한, 본 실시예에서 비용의 과금 방식은 영상을 공유 받는 공유 대상자 각각에 대하여 과금하는 방법 외에, 사용자가 자신이 공유한 만큼에 대한 저작권료를 저작권자에게 지급하고, 공유 대상자에게는 사용자가 개별적으로 분할하여 과금하는 것도 가능하다.
예를 들어, 사용자는 자신의 소셜 네트워크를 활용하여 수많은 다른 사용자에게 화면을 공유하고, 이에 포함된 저작권료를 각 공유 대상자에게 지급 받는 것도 가능하다.
즉, 본 실시예에서 저작권 정보 관리부(108)는 상술한 구성을 통해 다양한 과금 프로세스를 화면의 공유 양상에 따라 사용자 및 공유 대상자 각각에 대하여 수행하고 화면의 공유를 통한 저작권의 사용에 따른 저작권료의 징수를 일괄적으로 처리될 수 있도록 한다. 나아가 저작권 정보 관리부(108)는 저작권에 따른 비용의 과금 외에, 저작권에 따른 화면의 공유 여부를 먼저 판단하고 이에 따라 화면의 공유를 제어하는 것도 가능하다.
이하, 본 발명의 다른 실시예로 가상 현실 환경 또는 가상 현실 환경과 현실 환경이 공존하는 환경에서의 화면 공유 방법에 대하여 보다 상세히 설명한다.
도 6은 본 실시예에 따른 가상 현실을 포함하는 환경의 화면 공유 방법이 동작하는 예를 나타내는 도이다.
도 6을 참조하면 HMD와 같이 사용자에게 가상 현실 환경을 제공할 수 있는 장치를 이용하여 상호 화면을 공유하는 경우를 나타낸다. 이때 공유자(10)는 자신의 HMD를 머리에 착용하고, 가상 현실 속에서 현재 보여지는 객체들을 화면으로 다른 공유 대상자(20)에게 공유할 수 있다.
또한, HMD가 외부의 현실과 함께 가상 현실을 제공하는 혼합 현실 환경을 제공하는 경우에는 실존하는 현실 객체와 가상 객체를 표시되는 화면을 기준으로 공유하는 것도 가능하다.
또한, 가상 현실과 가상 현실의 사용자 간의 공유 외에 가상 현실과 혼합 현실, 가상 현실과 증강 현실, 가상 현실과 일반 현실 간의 화면을 공유하는 것도 가능하다.
이때, 상술한 바와 같이 공유 서버(100)가 사용자 상호간의 공유자(10) 및 공유 대상자(20) 사이에서 콘텐츠를 직접 전달하는 것도 가능하며, 외부의 미디어 데이터 서버(200)를 통해 미디어 데이터를 공유자가 제공 받고 있는 경우에는 미디어 데이터 서버(200)에서 공유 대상자에게 스트리밍 하는 방식으로 화면을 공유하는 것도 가능하다.
구체적으로 공유되는 예를 설명하면, 도 7과 같이 공유 될 수 있다.
즉, 도 7을 참조하여 공유자 측의 HMD 장치를 통해 화면이 공유되는 예를 설명하면 공유 대상자에게 현실 객체 중 공유자 측의 카메라로 인식되는 부분을 스트리밍으로 공유 대상자에게 제공함과 동시에 가상 객체로서 표시되는 객체를 직접 또는 미디어 데이터 서버를 통해 전송하는 것도 가능하다.
예를 들어 공유자(10)가 혼합 현실 환경에서 화면을 공유하는 경우, 공유자(10) 측의 표시 화면(400)에서는 공유 대상자(20)의 아바타(20a)가 함께 표시될 수 있다. 이때, 혼합 현실 환경에서 가상 객체(600)와 아바타(20a)는 현실 공간 상(500)에 구현될 수 있다.
이를 통해 공유자(10)와 공유 대상자(20)는 공유하는 객체(600)들에 대하여 자유롭게 명령을 주고 받으며, 예를 들어 가상의 객체(600)를 가상 현실 공간에서 회전 시키며 서로 의견을 주고 받을 수 있다.
즉, 공유 서버(100)는 공유되는 가상 객체(600)에 대한 공유자(10) 또는 공유 대상자(20)의 객체 제어 명령을 입력 받고, 상기 객체 제어 명령에 따라 상기 전송된 객체 데이터를 처리하여 처리 결과를 상호 공유하도록 할 수 있다.
나아가, 도 7은 공유자(10) 외에 공유 대상자(20)의 경우도 동일하게 적용될 수 있다.
예를 들어 공유 대상자(20)도 공유자(10)의 아바타와 함께 객체를 공유 받을 수 있으며, 공유자(10)가 객체에 대해서 입력하는 명령에 따른 처리 결과를 실시간으로 입력 받을 수 있다. 공유자(10)가 눈에 보이는 현실 객체(500)와 가상 객체(600)를 공유 대상자(30)에게 전송하고, 아바타로 등장하여 객체에 대한 자유롭게 설명을 하는 것도 가능하다.
또한, 본 실시예에서 표시되는 아바타와 관련하여 아바타의 표시 방식을 사용자 별로 다양하게 설정할 수 있으며, 아바타를 통해 사용자의 동작이나 상태를 다른 사용자가 명확하게 인식하여 화면의 공유와 함께 화면에 표시된 콘텐츠에 대해 서로 공감하고 소통할 수 있도록 할 수 있다.
먼저, 아바타의 표시 방식으로 아바타의 신체부위를 구분하여 선택하거나 자신의 취향대로 커스터마이징 하는 것도 가능하며, 이러한 인터페이스들은 별도의 메뉴로 제공될 수 있다.
다음, 아바타를 통해 사용자의 동작이나 상태를 표시해주기 위하여 3차원 가상 공간에서 인식이 어려운 상대방의 시선을 아바타와 함께 표시해주는 것도 가능하다. 예를 들어 HMD 장치를 착용하고 있는 상태에서 다른 사용자가 현재 주시하고 있는 부분에 대해서는 아바타와 함께 가상의 점선 등을 통해 아바타의 시선으로 함께 표시해 주는 것도 가능하다. 이와는 별개로 아바타의 손짓이나 제스처를 통해 사용자의 의사나 관심 있는 콘텐츠의 부분을 표시해주는 것도 가능하다.
나아가, 복수의 공유 대상자가 참여하고 있는 경우 복수의 아바타가 가상 공간에 구현될 수 있으며, 이때 복수의 아바타 간의 접촉이 발생하는 경우 이에 대한 반응을 영상 처리를 통해 시각화 하는 것도 가능하다. 이를 통해 사용자들은 다른 사용자들과 보다 현실적인 교감을 나눌 수 있다.
그 외, 자신의 감정을 표현하기 위하여 사용자는 아바타 외 이모티콘을 가상 현실 환경 내에 표시하는 것도 가능하다.
또한, 도 8과 같이 HMD를 이용하는 공유 대상자(20)와 스마트폰이나 태블릿 pc같이 일반적인 모바일 단말 장치를 이용하는 공유자(10) 간의 화면 공유도 가능하다.
예를 들어, 증강 현실로서 디스플레이로 제공되는 화면(500)을 공유하는 경우, 도 9를 함께 참조하면 공유자(10)가 모바일 단말 장치를 이용하여 HMD를 착용한 공유 대상자(20)는 가상 현실 내 가상 객체(600)로 증강 현실로 표현되는 이미지를 제공받을 수 있다.
나아가, 이때에도 공유자(10)의 이미지(10a)를 제공해 줄 수 있다. 즉, 공유자(10)가 모바일 단말 장치를 통해 증강 현실을 이용하는 경우 모바일 단말 장치의 전면에 구비된 카메라를 통해 공유자(10)의 얼굴 이미지를 입력 받을 수 있으며, 이를 공유 대상자(20)의 HMD가 그래픽 처리를 통해 가상 현실 내 사용자 이미지(10a)로 공유 대상자(20)에게 제공하는 것도 가능하다.
또한, 화면을 공유하기 전에 공유 대상자를 선택하는 사용자 인터페이스도 가상 현실 환경에서는 다음과 같이 구현될 수 있다.
도 10을 참조하면 공유자(10)는 공유 대상자의 리스트를 가상 현실 환경 내에서 제공 받을 수 있다. 상술한 도 4a에서 리스트와 공유되는 화면을 겹쳐 공유 대상자의 리스트를 제공하는 인터페이스와 달리 가상 현실 환경에서는 사용자가 응시하는 화면(400)외에 측면에 별도의 공유 대상자 리스트(400-1)를 제공하여 사용자가 가상 현실 환경에서 객체(600)를 보는 시야에 방해가 없이 공유 대상자를 추가하도록 하는 것도 가능하다.
이에 따라 공유 대상자들이 복수로 선택되는 경우에는 공유자(10)가 다른 공유 대상자 1인이 아닌 여러 공유 대상자들에게 화면을 공유하는 것도 가능하다. 또한, 이때의 공유 대상자는 서로 다른 단말을 이용하여 참여할 수 있는 바 상술한 바와 같이 도 11을 참조하면 아바타(20a) 또는 사용자 이미지(20a')로 다양하게 가상 현실 화면(400) 내에서 표시될 수 있다. 이때, 가상 현실 화면(400)은 증강, 혼합 현실의 경우는 현실 환경으로 채워질 수 있으며 또는 별도의 공유자(10)가 원하는 가상 현실 환경으로 채워질 수 도 있다.
예를 들어, 원격 회의와 같은 상황에서 가상 현실 화면(400)은 회의실과 같은 이미지로 구현되어 표시될 수 있다.
즉, 본 발명에 따른 공유 방법은 가상 현실과 가상 현실의 사용자 간의 공유 외에 가상 현실과 혼합 현실, 가상 현실과 증강 현실, 가상 현실과 일반 현실 간의 화면을 공유하는 것도 가능하다.
추가적으로 화면을 공유하는 공유자와 공유 대상자는 서로 다른 환경에서 자신에게 표시되는 화면을 다른 사용자들에게 제공하기 위해 공유되는 화면을 특정 시점에 캡처하고, 이를 다른 사용자에게 제공하는 것도 가능하다.
이때, 캡처는 이용하는 단말의 내부 인터페이스를 통해 수행하는 것도 가능하며, 별도로 화면을 공유하는 서비스에서 제공하는 인터페이스를 통해 수행하는 것도 가능하다. 예를 들어 가상 환경 속에서 HMD 장치를 착용하고 화면을 공유하거나 공유 받는 사용자는 HMD 장치의 물리적인 버튼을 통해 화면을 캡처할 수 있다. 또는 증강 현실이나 혼합 현실과 같이 사용자의 손과 가상 현실이 함께 표시되고 인식될 있는 경우에는 사용자의 손 동작을 통해 캡처 명령을 입력 받는 것도 가능하다. 이상의 제스처를 통한 입력 외에 음성 입력 등 다양한 입력 방식도 물론 가능하다.
나아가, 본 발명에 따른 화면 공유 방법은 공유자 또는 공유 대상자의 설정에 따라 공유되는 화면의 현실 및 가상 객체와 함께 배경 환경 정보를 더욱 설정하는 것도 가능하다.
즉, 단순한 화면의 공유 외에 가상 현실이 포함된 화면의 공유의 경우는 다른 공유 대상자의 몰입도를 증가 시킬 수 있도록 공유되는 배경을 별도로 설정하는 것도 가능하다.
구체적으로 도 12를 참조하면, 본 실시예에서 화면의 공유시 배경을 VR로 처리하여 공유자가 원하는 배경 환경 정보를 설정할 수 있으며, 이와 함께 공유되는 가상의 객체(600)를 위한 가상의 테이블을 VR로 구성하고 공유자(10)와 공유 대상자(20a, 20a') 상호 간의 의사 소통 환경을 제공하는 것도 가능하다.
또한 예를 들어, 공유자가 스포츠를 시청하고 이를 공유하는 경우에는 다른 공유 대상자에게 스포츠의 관람석을 배경 환경 정보로 설정하고, 가상 현실로 구현될 수 있도록 하여, 공유 대상자는 직접 스포츠 관람석에 공유자와 함께 착석하고 스포츠를 관람하는 것처럼 느끼도록 할 수 있다.
이외에도, 미술관이나 박물관 관람, 교육과 관련된 콘텐츠의 경우에는 학교와 같은 배경 환경 정보를 설정하고 화면에 포함된 객체와 함께 공유 되도록 할 수 있다.
이하, 도 13을 참조하여 본 실시예에 따른 화면 공유 방법에 대하여 설명한다.
도 13은 본 발명의 일 실시예에 따른 공유 방법을 나타내는 흐름도이다.
본 실시예에 따라, 현실 환경과 가상 환경이 공존할 수 있는 다중 환경에서의 공유 방법은 먼저 입력 받은 현실 환경의 현실 객체와 미리 저장된 또는 스트리밍되는 가상 객체에 대한 사용자의 표시 화면의 공유 명령을 입력 받는다(S1000).
즉, 다중 환경에서는 현실의 객체에 대한 정보는 카메라를 통해 입력되며 가상 현실의 객체는 그래픽으로 처리되어 출력되는 데이터 자체로 이때의 현실 객체와 가상 객체를 포함하는 화면을 공유하는 경우 각 객체는 구분되어 공유 대상자에게 전송될 수 있으며, 공유 명령 역시 구분하여 입력 받을 수 있다.
즉, 사용자는 혼합 현실 속에서 가상의 객체 만을 공유하고자 할 수 있으며, 현실 객체와 함께 또는 현실 객체의 일부만을 공유하고자 할 수 있다.
따라서, 입력 받는 단계(S1000)는 현실 객체와 가상 객체를 구분하여 공유 명령을 입력 받는다.
공유 명령을 입력 받으면 상기 화면을 공유 하는 사용자 또는 상기 화면을 공유 받는 공유 대상자의 리스트를 제1 사용자 인터페이스에 따라 제공한다(S2000). 이때의 사용자 인터페이스는 상술한 인터페이스에 적용 환경만 달리하여 구현될 수 있다. 즉, 도 4a의 사용자 리스트(404)로 표시되는 인터페이스는 가상 현실 속에서 가상의 리스트 객체로 구현되어 사용자에게 제공될 수 있다.
다음 리스트 객체로 제공된 상기 제1 사용자 인터페이스에 따라 상기 리스트 중 상기 사용자 또는 상기 공유 대상자의 선택을 입력 받는다(S3000). 또한 공유 대상자의 선택과 함께 도 4b에서 설명한 바와 같이 공유할 콘텐츠를 선택하기 위한 인터페이스를 가상 현실에서 제공하는 것도 가능하다.
즉, 도 4b와 같이 공유 가능한 요소들을 선택할 수 있는 인터페이스를 제공하되 요소는 현실 객체, 가상 객체들의 리스트로 제공될 수 있다.
공유 대상자가 선택되면 상기 현실 객체 및 상기 가상 객체를 적어도 하나 이상 포함하는 화면이 상기 공유 대상자에게 표시되도록 상기 화면 또는 상기 화면에 포함된 적어도 일부의 상기 현실 객체 또는 상기 가상 객체를 전송한다(S4000).
구체적으로 전송하는 단계(S4000)는, 상기 현실 객체와 상기 가상 객체를 구분하여 상기 현실 객체를 상기 공유 대상자에게 스트리밍할 수 있다. 즉, 현실 객체는 공유자의 장치의 카메라를 통해 입력되는 현실 이미지 이므로 스트리밍 형태로 공유 대상자에게 제공될 수 있다.
또한, 가상 객체는 공유자의 경우에도 장치에서 그래픽 처리되어 표시되는 것이므로 가상 객체에 대한 객체 데이터를 상기 공유 대상자에게 전송하고, 이를 공유 대상자의 장치에서 시각적으로 처리되도록 할 수 있다.
이상, 본 실시예에 따른 화면 공유 방법 역시 상술한 공유 서버(100)에서 구현될 수 있으며 공유 서버(100)는 도 2와 같이 구현될 수 있다.
또한, 이상에서 설명된 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.
하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시예들이 제어 모듈(115) 자체로 구현될 수 있다.
소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리 모듈(미도시)에 저장되고, 제어부에 의해 실행될 수 있다.
이상의 본 발명에 따르면, 본 발명에 따르면, 미디어 데이터의 실행 중에 사용자가 다른 사용자와 화면을 쉽게 공유할 수 있으며, 저작권이 포함된 미디어 데이터의 공유 시 이에 따른 프로세스를 수행하여 사용자와 공유 대상자 간의 화면 공유의 문제를 해결하고 및 저작권자의 권리를 보호할 수 있다.
또한, 다중 환경 속에서 공유하고자 하는 객체를 선택하여 공유하며, 현재 속해 있는 현실 속에서 공유를 위하여 별도의 현실로 상태를 전환할 필요가 없다.
또한, 제공 받는 공유자와 공유 대상자 간의 상호 인터페이스 명령을 객체에 전달하고, 각 환경에 따라 상대방을 표시하는 방법을 달리하여 사용자는 상대방을 보다 용이하게 인식하며 원거리의 사용자 간에도 실감 있는 콘텐츠의 공유가 가능하도록 한다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다.
따라서, 본 발명에 개시된 실시 예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (28)

  1. 미리 저장된 또는 스트리밍으로 표시되는 콘텐츠에 대한 사용자의 표시 화면의 공유 명령을 입력 받는 단계;
    상기 화면을 공유 하는 공유자 또는 상기 화면을 공유 받는 공유 대상자의 리스트를 제1 사용자 인터페이스에 따라 제공하는 단계;
    상기 제1 사용자 인터페이스에 따라 상기 리스트 중 상기 공유자 또는 상기 공유 대상자의 선택을 입력 받는 단계;
    상기 화면이 상기 공유 대상자에게 표시되도록 상기 화면 또는 상기 화면에 포함된 적어도 일부의 콘텐츠를 전송하는 단계를 포함하는 것을 특징으로 하는 사용자 화면 공유 방법
  2. 제 1 항에 있어서,
    상기 사용자 화면 공유 방법은,
    제2 사용자 인터페이스에 따라 상기 공유자에게 표시되는 화면의 적어도 일 영역에 상기 공유 대상자에게 표시되는 화면을 함께 표시하는 것을 특징으로 하는 사용자 화면 공유 방법
  3. 제 1 항에 있어서,
    상기 제공하는 단계는,
    상기 제1 사용자 인터페이스에 따라 상기 화면의 공유 모드의 선택 메뉴를 제공하는 것을 특징으로 하는 사용자 화면 공유 방법
  4. 제 1 항에 있어서,
    상기 전송하는 단계는,
    상기 화면으로 출력되는 이미지 데이터 또는 상기 화면에 포함된 상기 콘텐츠를 상기 공유 대상자에게 스트리밍으로 전송하는 것을 특징으로 하는 사용자 화면 공유 방법
  5. 제 1 항에 있어서,
    상기 전송하는 단계는,
    상기 콘텐츠를 관리하는 미디어 데이터 서버를 통해 상기 공유 대상자에게 상기 콘텐츠를 상기 공유자에게 제공되는 싱크를 참조하여 스트리밍으로 전송하는 것을 특징으로 하는 사용자 화면 공유 방법
  6. 제 5 항에 있어서,
    상기 전송하는 단계는,
    상기 싱크를 기준으로 상기 콘텐츠의 단위 시간 동안의 데이터를 스트리밍으로 전송하는 것을 특징으로 하는 사용자 화면 공유 방법
  7. 제 2 항에 있어서,
    상기 제2 사용자 인터페이스는 상기 일 영역에 표시되는 상기 공유 대상자의 화면을 상기 공유 대상자의 이미지 또는 상기 공유 대상자의 아바타 이미지로 전환을 위한 인터페이스 요소를 포함하는 것을 특징으로 하는 사용자 화면 공유 방법
  8. 제 1 항에 있어서,
    상기 제1 사용자 인터페이스는 상기 화면에 포함된 적어도 일부의 콘텐츠를 선택하기 위한 인터페이스 요소를 포함하는 것을 특징으로 하는 사용자 화면 공유 방법
  9. 메모리;
    프로세서; 및
    상기 메모리에 포함되어 상기 프로세서에 의해 실행되는 공유자 화면 공유 모듈을 포함하고,
    상기 공유자 화면 공유 모듈은 미리 저장된 또는 스트리밍으로 표시되는 콘텐츠에 대한 사용자의 표시 화면의 공유 명령을 입력 받는 단계;
    상기 화면을 공유 하는 공유자 또는 상기 화면을 공유 받는 공유 대상자의 리스트를 제1 사용자 인터페이스에 따라 제공하는 단계;
    상기 제1 사용자 인터페이스에 따라 상기 리스트 중 상기 공유자 또는 상기 공유 대상자의 선택을 입력 받는 단계; 및
    상기 화면이 상기 공유 대상자에게 표시되도록 상기 화면 또는 상기 화면에 포함된 적어도 일부의 콘텐츠를 전송하는 단계를 수행하는 것을 특징으로 하는 서버 시스템
  10. 제 9 항에 있어서,
    상기 공유자 화면 공유 모듈은,
    제2 사용자 인터페이스에 따라 상기 공유자에게 표시되는 화면의 일 영역에 상기 공유 대상자에게 표시되는 화면이 함께 표시되도록 하는 것을 특징으로 하는 서버 시스템
  11. 제 9 항에 있어서,
    상기 공유자 화면 공유 모듈은,
    상기 제1 사용자 인터페이스에 따라 상기 화면의 공유 모드의 선택 메뉴를 제공하는 것을 특징으로 하는 서버 시스템
  12. 제 9 항에 있어서,
    상기 공유자 화면 공유 모듈은,
    상기 화면으로 출력되는 이미지 데이터 또는 상기 화면에 포함된 상기 콘텐츠를 상기 공유 대상자에게 스트리밍으로 전송 하는 것을 특징으로 하는 서버 시스템
  13. 제 9 항에 있어서,
    상기 전송하는 단계는,
    상기 콘텐츠를 관리하는 미디어 데이터 서버를 통해 상기 공유 대상자에게 상기 콘텐츠를 상기 공유자에게 제공되는 싱크를 참조하여 스트리밍으로 전송하는 것을 특징으로 하는 서버 시스템
  14. 제 13 항에 있어서,
    상기 전송하는 단계는,
    상기 싱크를 기준으로 상기 콘텐츠의 단위 시간 동안의 데이터를 스트리밍으로 전송하는 것을 특징으로 하는 서버 시스템
  15. 제 10 항에 있어서,
    상기 제2 사용자 인터페이스는 상기 일 영역에 표시되는 상기 공유 대상자의 화면을 상기 공유 대상자의 이미지 또는 상기 공유 대상자의 아바타 이미지로 전환을 위한 인터페이스 요소를 포함하는 것을 특징으로 하는 서버 시스템
  16. 제 9 항에 있어서,
    상기 제1 사용자 인터페이스는 상기 화면에 포함된 적어도 일부의 콘텐츠를 선택하기 위한 인터페이스 요소를 포함하는 것을 특징으로 하는 서버 시스템
  17. 미리 저장된 또는 스트리밍으로 표시되는 콘텐츠에 대한 사용자의 표시 화면의 공유 명령을 입력 받는 단계;
    상기 화면을 공유 하는 공유자 또는 상기 화면을 공유 받는 공유 대상자의 리스트를 제1 사용자 인터페이스에 따라 제공하는 단계;
    상기 제1 사용자 인터페이스에 따라 상기 리스트 중 상기 공유자 또는 상기 공유 대상자의 선택을 입력 받는 단계;
    상기 화면이 상기 공유 대상자에게 표시되도록 상기 화면 또는 상기 화면에 포함된 적어도 일부의 콘텐츠를 전송하는 단계를 수행하는 프로그램이 저장된 컴퓨터가 판독가능한 기록 매체
  18. 미리 저장된 또는 스트리밍으로 표시되는 콘텐츠에 대한 사용자의 표시 화면의 공유 명령을 입력 받는 단계;
    상기 화면을 공유 하는 공유자 또는 상기 화면을 공유 받는 공유 대상자의 리스트를 제1 사용자 인터페이스에 따라 제공하는 단계;
    상기 제1 사용자 인터페이스에 따라 상기 리스트 중 상기 공유자 또는 상기 공유 대상자의 선택을 입력 받는 단계;
    상기 화면이 상기 공유 대상자에게 표시되도록 상기 화면 또는 상기 화면에 포함된 적어도 일부의 콘텐츠를 전송하는 단계를 수행하는 컴퓨터가 판독가능한 기록 매체에 저장된 프로그램
  19. 입력 받은 현실 환경의 현실 객체와 미리 저장된 또는 스트리밍되는 가상 객체에 대한 사용자의 표시 화면의 공유 명령을 입력 받는 단계;
    상기 화면을 공유 하는 공유자 또는 상기 화면을 공유 받는 공유 대상자의 리스트를 제1 사용자 인터페이스에 따라 제공하는 단계;
    상기 제1 사용자 인터페이스에 따라 상기 리스트 중 상기 공유자 또는 상기 공유 대상자의 선택을 입력 받는 단계;
    상기 현실 객체 및 상기 가상 객체를 적어도 하나 이상 포함하는 화면이 상기 공유 대상자에게 표시되도록 상기 화면 또는 상기 화면에 포함된 적어도 일부의 상기 현실 객체 또는 상기 가상 객체를 전송하는 단계를 포함하는 것을 특징으로 하는 사용자 화면 공유 방법
  20. 제 19 항에 있어서,
    상기 전송하는 단계는,
    상기 현실 객체와 상기 가상 객체를 구분하여 상기 현실 객체를 상기 공유 대상자에게 스트리밍하고, 상기 가상 객체의 객체 데이터를 상기 공유 대상자에게 전송하는 것을 특징으로 하는 사용자 화면 공유 방법
  21. 제 20 항에 있어서,
    상기 사용자 화면 공유 방법은,
    공유되는 가상 객체에 대한 공유자 또는 공유 대상자의 명령을 객체 제어 명령을 입력 받고, 상기 객체 제어 명령에 따라 상기 전송된 객체 데이터를 처리하여 처리 결과를 상호 공유하는 단계를 더 포함하는 것을 특징으로 하는 사용자 화면 공유 방법
  22. 제 19 항에 있어서,
    상기 전송하는 단계는,
    상기 공유자의 이미지 또는 상기 공유자의 아바타 이미지를 함께 전송하는 것을 특징으로 하는 사용자 화면 공유 방법
  23. 제 22 항에 있어서,
    상기 전송하는 단계는,
    상기 공유자에게 증강 현실을 제공하는 공유자 단말을 통해 입력 받은 상기 공유자의 이미지를 상기 공유 대상자에게 전송하는 것을 특징으로 하는 사용자 화면 공유 방법
  24. 제 22 항에 있어서,
    상기 전송하는 단계는,
    상기 공유자에게 가상 또는 가상 및 증강 현실이 혼합된 혼합 현실을 제공하는 공유자 단말을 통해 상기 공유자의 아바타 이미지를 상기 공유 대상자에게 전송하는 것을 특징으로 하는 사용자 화면 공유 방법
  25. 제 19 항에 있어서,
    상기 전송하는 단계는,
    상기 공유자가 설정한 배경 환경 정보를 상기 현실 객체 또는 상기 가상 객체와 함께 전송하는 것을 특징으로 하는 사용자 화면 공유 방법
  26. 제 19 항에 있어서,
    상기 사용자 화면 공유 방법은,
    전송되는 상기 현실 객체 또는 상기 가상 객체를 포함하는 화면의 캡처 명령을 입력 받는 단계를 더 포함하고,
    상기 전송하는 단계는 공유자 또는 상기 공유 대상자에게 캡처 화면을 전송하는 것을 특징으로 하는 사용자 화면 공유 방법
  27. 메모리;
    프로세서; 및
    상기 메모리에 포함되어 상기 프로세서에 의해 실행되는 공유자 화면 공유 모듈을 포함하고,
    상기 공유자 화면 공유 모듈은 입력 받은 현실 환경의 현실 객체와 미리 저장된 또는 스트리밍되는 가상 객체에 대한 사용자의 표시 화면의 공유 명령을 입력 받는 단계;
    상기 화면을 공유 하는 공유자 또는 상기 화면을 공유 받는 공유 대상자의 리스트를 제1 사용자 인터페이스에 따라 제공하는 단계;
    상기 제1 사용자 인터페이스에 따라 상기 리스트 중 상기 공유자 또는 상기 공유 대상자의 선택을 입력 받는 단계;
    상기 현실 객체 및 상기 가상 객체를 적어도 하나 이상 포함하는 화면이 상기 공유 대상자에게 표시되도록 상기 화면 또는 상기 화면에 포함된 적어도 일부의 상기 현실 객체 또는 상기 가상 객체를 전송하는 단계를 수행하는 것을 특징으로 하는 서버 시스템
  28. 입력 받은 현실 환경의 현실 객체와 미리 저장된 또는 스트리밍되는 가상 객체에 대한 사용자의 표시 화면의 공유 명령을 입력 받는 단계;
    상기 화면을 공유 하는 공유자 또는 상기 화면을 공유 받는 공유 대상자의 리스트를 제1 사용자 인터페이스에 따라 제공하는 단계;
    상기 제1 사용자 인터페이스에 따라 상기 리스트 중 상기 공유자 또는 상기 공유 대상자의 선택을 입력 받는 단계;
    상기 현실 객체 및 상기 가상 객체를 적어도 하나 이상 포함하는 화면이 상기 공유 대상자에게 표시되도록 상기 화면 또는 상기 화면에 포함된 적어도 일부의 상기 현실 객체 또는 상기 가상 객체를 전송하는 단계를 수행하는 프로그램이 저장된 컴퓨터가 판독가능한 기록 매체
KR1020170133351A 2017-09-11 2017-10-13 다중 환경 간 사용자 화면 공유 방법 및 이를 수행하는 서버 시스템 KR20190029398A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/700,195 US20190081993A1 (en) 2017-09-11 2017-09-11 Method for sharing user screen in multiple reality environment and server system for the method
US15/700,195 2017-09-11

Publications (1)

Publication Number Publication Date
KR20190029398A true KR20190029398A (ko) 2019-03-20

Family

ID=65631769

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170133351A KR20190029398A (ko) 2017-09-11 2017-10-13 다중 환경 간 사용자 화면 공유 방법 및 이를 수행하는 서버 시스템

Country Status (2)

Country Link
US (1) US20190081993A1 (ko)
KR (1) KR20190029398A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024053845A1 (ko) * 2022-09-08 2024-03-14 삼성전자주식회사 오브젝트에 기초한 컨텐츠 공유를 제공하는 전자 장치 및 방법
WO2024071590A1 (ko) * 2022-09-29 2024-04-04 삼성전자 주식회사 디스플레이 장치 및 그 동작 방법

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102481894B1 (ko) * 2017-11-06 2022-12-28 삼성전자 주식회사 전자 장치 및 이를 이용한 화면 공유 방법
US11076125B2 (en) * 2018-03-28 2021-07-27 Sony Corporation Information processing apparatus and information processing method
EP3584692A1 (en) * 2018-06-19 2019-12-25 InterDigital CE Patent Holdings Sharing virtual content in a mixed reality scene
WO2020051111A1 (en) * 2018-09-04 2020-03-12 Ocelot Laboratories Llc Display device sharing and interactivity in simulated reality (sr)
CN116490250A (zh) * 2020-09-25 2023-07-25 苹果公司 环境的非对称呈现
CN114554168A (zh) * 2022-02-25 2022-05-27 深圳创维-Rgb电子有限公司 投屏器共享方法、装置、投屏器及计算机可读存储介质
WO2024059606A1 (en) * 2022-09-13 2024-03-21 Katmai Tech Inc. Avatar background alteration

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024053845A1 (ko) * 2022-09-08 2024-03-14 삼성전자주식회사 오브젝트에 기초한 컨텐츠 공유를 제공하는 전자 장치 및 방법
WO2024071590A1 (ko) * 2022-09-29 2024-04-04 삼성전자 주식회사 디스플레이 장치 및 그 동작 방법

Also Published As

Publication number Publication date
US20190081993A1 (en) 2019-03-14

Similar Documents

Publication Publication Date Title
KR20190029398A (ko) 다중 환경 간 사용자 화면 공유 방법 및 이를 수행하는 서버 시스템
US11722537B2 (en) Communication sessions between computing devices using dynamically customizable interaction environments
US20210344991A1 (en) Systems, methods, apparatus for the integration of mobile applications and an interactive content layer on a display
KR102234928B1 (ko) 가상 현실 경험 공유
US20180316939A1 (en) Systems and methods for video processing, combination and display of heterogeneous sources
US20180316944A1 (en) Systems and methods for video processing, combination and display of heterogeneous sources
KR20210135683A (ko) 인터넷 전화 기반 통화 중 리액션을 표시하는 방법, 시스템, 및 컴퓨터 프로그램
JP6861287B2 (ja) 映像のための効果共有方法およびシステム
CN106105174B (zh) 自动相机选择
JP7228338B2 (ja) 動画を配信するためのシステム、方法、及びプログラム
US20220253492A1 (en) Method, an apparatus, an electronic device and a storage medium for multimedia information processing
CN107113467A (zh) 用户终端装置、系统及其控制方法
JP2021086626A (ja) ビデオチャットに利用可能な評判バッチを提供する方法、システム、およびコンピュータプログラム
US20160320833A1 (en) Location-based system for sharing augmented reality content
JP2022097047A (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
CN108141565A (zh) 信息处理设备及信息处理方法
CN106850577B (zh) 数据交互的方法和装置、第一虚拟现实终端、会议服务器
CN106464976A (zh) 显示设备、用户终端设备、服务器及其控制方法
WO2022169668A1 (en) Integrating artificial reality and other computing devices
CN109788333A (zh) 用于全屏显示视频的方法及装置
KR20160037335A (ko) 소셜 서비스와 결합된 동영상 서비스를 제공하는 방법과 시스템, 그리고 기록 매체
TW201543900A (zh) 虛擬會議系統
CN115097984B (zh) 交互方法、装置、电子设备和存储介质
KR20150105131A (ko) 증강현실 제어 시스템 및 제어 방법
JP2022097475A (ja) 情報処理システム、情報処理方法およびコンピュータプログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E601 Decision to refuse application