KR20230011041A - Method and Sever for Providing Video Interaction Platform Performed - Google Patents

Method and Sever for Providing Video Interaction Platform Performed Download PDF

Info

Publication number
KR20230011041A
KR20230011041A KR1020210091590A KR20210091590A KR20230011041A KR 20230011041 A KR20230011041 A KR 20230011041A KR 1020210091590 A KR1020210091590 A KR 1020210091590A KR 20210091590 A KR20210091590 A KR 20210091590A KR 20230011041 A KR20230011041 A KR 20230011041A
Authority
KR
South Korea
Prior art keywords
user
image
information
interaction
tree
Prior art date
Application number
KR1020210091590A
Other languages
Korean (ko)
Other versions
KR102524015B1 (en
Inventor
이영복
유대훈
Original Assignee
주식회사 제네시스랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 제네시스랩 filed Critical 주식회사 제네시스랩
Priority to KR1020210091590A priority Critical patent/KR102524015B1/en
Publication of KR20230011041A publication Critical patent/KR20230011041A/en
Application granted granted Critical
Publication of KR102524015B1 publication Critical patent/KR102524015B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8545Content authoring for generating interactive applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4524Management of client data or end-user data involving the geographical location of the client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47202End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting content on demand, e.g. video on demand

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Tourism & Hospitality (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Security & Cryptography (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

The present invention relates to a method for providing a video interaction platform and a server system for performing the same and, more specifically, to a method for providing a video interaction platform that includes: providing a user with a specific image according to the position of a user in an image tree in an image tree composed of a plurality of images; moving the position of the user in the image tree according to the interaction of the user for the provided specific image; and finally providing a preset service according to one or more user interactions in the image tree, and a server system that performs the same. It is possible to arouse a user interest in participating in a service.

Description

동영상 인터랙션 플랫폼의 제공방법 및 이를 수행하는 서버시스템 {Method and Sever for Providing Video Interaction Platform Performed}Method and Server for Providing Video Interaction Platform Performed

본 발명은 동영상 인터랙션 플랫폼의 제공방법 및 이를 수행하는 서버시스템에 관한 것으로서, 더욱 상세하게는 복수의 영상으로 구성된 영상트리에서 상기 영상트리에서의 사용자 위치에 따른 특정 영상을 해당 사용자에게 제공하고, 제공받은 특정 영상에 대한 사용자의 인터랙션에 따라 영상트리에서의 사용자 위치가 이동되도록 하여, 최종적으로 영상트리에서의 사용자의 1 이상의 인터랙션에 따라 기설정된 서비스를 제공하는, 동영상 인터랙션 플랫폼의 제공방법 및 이를 수행하는 서버시스템에 관한 것이다.The present invention relates to a method for providing a video interaction platform and a server system for performing the same, and more particularly, in a video tree composed of a plurality of videos, providing and providing a specific video according to a user's location in the video tree to the corresponding user. A method for providing a video interaction platform that moves a user's position in a video tree according to a user's interaction with a received specific video and finally provides a preset service according to one or more interactions of a user in the video tree, and performs the same It is about a server system that does.

최근 사회적으로 비대면 서비스에 대한 수요가 증가함에 따라, 비대면 서비스를 구현하기 위한 다양한 기술들이 개발되고 있다. 특히, 사용자에게 적합한 비대면 서비스를 제공하기 위하여 사용자에게 설문과 같이 사전에 준비된 질문 세트를 제공하고, 사용자가 질문에 답변(인터랙션)한 내용에 기초하여 적합한 서비스를 제공하는 기술이 개발되고 있다.Recently, as the demand for non-face-to-face services increases in society, various technologies for implementing non-face-to-face services are being developed. In particular, in order to provide non-face-to-face services suitable for users, a technology is being developed that provides users with a set of questions prepared in advance, such as a questionnaire, and provides suitable services based on the contents of the user's answers (interactions) to the questions.

한편, 종래의 경우에는 사용자에게 텍스트 기반의 질문 세트를 제공하고, 사용자가 질문 세트에 대하여 미리 정해진 복수의 답변 가운데 특정 답변을 선택하는 것으로 사용자가 선택한 답변에 따른 서비스를 제공하는 방법이 개발되었다.Meanwhile, in the conventional case, a method of providing a text-based question set to a user and providing a service according to the answer selected by the user by allowing the user to select a specific answer from among a plurality of predetermined answers with respect to the question set has been developed.

다만, 종래의 기술의 경우 텍스트를 기반으로 하고, 질문에 대하여 미리 정해진 복수의 답변 가운데 특정 답변을 사용자가 선택하는 것에 지나지 않아, 사용자 측면에서 제공되는 질문에 대한 답변(인터랙션)을 수행하는 것에 대한 흥미를 유발하기 어렵고, 단순히 정해져 있는 선택지 가운데 특정 선택지를 결정하는 것에 지나지 않으므로, 사용자에게 매우 적합한 서비스를 제공하기 어려운 문제점이 존재한다.However, in the case of the conventional technology, it is based on text, and the user selects a specific answer from among a plurality of pre-determined answers to the question, so there is a need for answering (interaction) to the question provided from the user's side. Since it is difficult to arouse interest and merely determines a specific option among predetermined options, it is difficult to provide a service that is very suitable for the user.

따라서, 사용자의 인터랙션에 흥미를 부여함과 동시에 사용자에게 더욱 적합한 서비스를 제공하기 위한 새로운 인터랙션 플랫폼의 개발이 요구되는 상황이다.Therefore, there is a need to develop a new interaction platform to provide a more suitable service to the user while giving interest to the user's interaction.

본 발명은 동영상 인터랙션 플랫폼의 제공방법 및 이를 수행하는 서버시스템에 관한 것으로서, 더욱 상세하게는 복수의 영상으로 구성된 영상트리에서 상기 영상트리에서의 사용자 위치에 따른 특정 영상을 해당 사용자에게 제공하고, 제공받은 특정 영상에 대한 사용자의 인터랙션에 따라 영상트리에서의 사용자 위치가 이동되도록 하여, 최종적으로 영상트리에서의 사용자의 1 이상의 인터랙션에 따라 기설정된 서비스를 제공하는, 동영상 인터랙션 플랫폼의 제공방법 및 이를 수행하는 서버시스템을 제공하는 것을 목적으로 한다.The present invention relates to a method for providing a video interaction platform and a server system for performing the same, and more particularly, in a video tree composed of a plurality of videos, providing and providing a specific video according to a user's location in the video tree to the corresponding user. A method for providing a video interaction platform that moves a user's position in a video tree according to a user's interaction with a received specific video and finally provides a preset service according to one or more interactions of a user in the video tree, and performs the same Its purpose is to provide a server system that does.

상기와 같은 과제를 해결하기 위하여, 본 발명의 일 실시예에서는, 서버시스템에서 수행하는 동영상 인터랙션 플랫폼의 제공방법으로서, 상기 서버시스템에는 영상트리에 대한 복수의 영상 혹은 복수의 영상을 생성하기 위한 기초데이터를 포함하는 영상정보, 각 영상에 대한 사용자의 인터랙션을 판별하기 위한 판별조건 및 상기 판별조건에 따른 위치 이동에 대한 위치이동정보를 포함하는 위치조건정보, 및 상기 영상트리에서의 사용자의 위치 혹은 영상에 대한 사용자의 인터랙션에 상응하는 결과정보가 저장되어 있고, 상기 영상트리에서의 사용자의 위치는 해당 사용자의 영상에 대한 인터랙션에 따라 이동될 수 있고, 상기 동영상 인터랙션 플랫폼의 제공방법은, 상기 영상트리에서의 사용자의 현재 위치에 해당하는 영상을 사용자에게 제공하는 영상정보제공단계; 상기 영상정보제공단계를 통해 제공된 영상에 대한 사용자의 인터랙션에 대하여 상기 영상트리에서의 사용자의 현재 위치에 상응하는 위치조건정보를 적용하여 사용자의 다음 위치를 결정하는 위치결정단계; 및 사용자의 위치 혹은 1 이상의 영상에 대한 사용자의 인터랙션이 기설정된 조건에 상응하는 경우에 결과정보를 사용자에게 제공하는 결과정보제공단계;를 포함하는, 동영상 인터랙션 플랫폼의 제공방법을 제공한다.In order to solve the above problems, in one embodiment of the present invention, as a method for providing a video interaction platform performed in a server system, the server system has a plurality of images for a video tree or a basis for generating a plurality of images. Image information including data, location condition information including a determination condition for determining a user's interaction with each image and location movement information for location movement according to the determination condition, and the user's location in the image tree or Result information corresponding to the user's interaction with the video is stored, the user's position in the video tree can be moved according to the user's interaction with the video, and the video interaction platform provides the video An image information providing step of providing a user with an image corresponding to the user's current position in the tree; a positioning step of determining the user's next position by applying position condition information corresponding to the user's current position in the image tree to the user's interaction with the image provided through the image information providing step; and a result information providing step of providing result information to the user when the user's location or the user's interaction with one or more images corresponds to a predetermined condition.

본 발명의 일 실시예에서는, 상기 영상트리에서의 사용자의 위치 혹은 영상에 대한 사용자의 인터랙션에 상응하는 결과정보는 사용자에게 타 서비스를 제공하기 위한 타서비스연결정보를 포함하고, 상기 동영상 인터랙션 플랫폼의 제공방법은, 상기 결과정보제공단계를 통해 제공된 타서비스연결정보를 통해 사용자가 타 서비스로의 연결을 요청한 경우에, 사용자가 상기 영상트리에서 수행한 1 이상의 영상 각각에 대한 인터랙션을 포함하는 사용자인터랙션정보를 상기 타 서비스를 수행하는 타서비스서버 혹은 상기 타 서비스를 수행하는 상기 서버시스템의 내부 구성으로 송신하는 사용자인터랙션정보송신단계;를 더 포함할 수 있다.In one embodiment of the present invention, the result information corresponding to the user's position in the video tree or the user's interaction with the video includes other service connection information for providing other services to the user, and the video interaction platform In the providing method, when a user requests a connection to another service through the other service connection information provided through the result information providing step, user interaction including interaction with each of one or more images performed in the image tree It may further include a user interaction information transmission step of transmitting information to another service server performing the other service or an internal configuration of the server system performing the other service.

본 발명의 일 실시예에서는, 상기 영상트리에서의 사용자의 위치 혹은 영상에 대한 사용자의 인터랙션에 상응하는 결과정보는 사용자에게 타 서비스를 제공하기 위한 타서비스연결정보를 포함하고, 상기 동영상 인터랙션 플랫폼의 제공방법은, 상기 결과정보제공단계를 통해 제공된 타서비스연결정보를 통해 사용자가 타 서비스로의 연결을 요청한 경우에, 상기 영상트리에서 해당 사용자가 위치했던 1 이상의 위치정보를 상기 타 서비스를 수행하는 타서비스서버 혹은 상기 타 서비스서버를 수행하는 상기 서버시스템의 내부 구성으로 송신하는 사용자위치이력송신단계;를 더 포함할 수 있다.In one embodiment of the present invention, the result information corresponding to the user's position in the video tree or the user's interaction with the video includes other service connection information for providing other services to the user, and the video interaction platform In the providing method, when a user requests a connection to another service through the other service connection information provided through the result information providing step, one or more location information where the corresponding user is located in the image tree performs the other service. It may further include a user location history transmission step of transmitting to another service server or an internal configuration of the server system executing the other service server.

본 발명의 일 실시예에서는, 상기 영상트리에서의 사용자의 위치 혹은 영상에 대한 사용자의 인터랙션에 상응하는 결과정보는 사용자에게 타 서비스를 제공하기 위한 타서비스연결정보를 포함하고, 상기 영상트리에 포함된 특정 영상은, 상기 사용자가 상기 타 서비스를 수행하여 획득한 서비스결과정보와 연결될 수 있다.In one embodiment of the present invention, the result information corresponding to the user's location in the video tree or the user's interaction with the video includes other service connection information for providing other services to the user, and is included in the video tree. The selected specific image may be linked to service result information obtained by the user performing the other service.

본 발명의 일 실시예에서는, 상기 인터랙션은 영상에 대한 텍스트입력, 음성입력, 얼굴정보입력, 포즈입력, 제스쳐입력 및 배경정보입력 가운데 1 이상을 포함하고, 상기 위치결정단계는, 상기 인터랙션을 기계학습된 평가모델에 입력하여 출력된 추론정보 및 상기 영상트리에서의 사용자의 현재 위치에 상응하는 위치조건정보를 적용하여 사용자의 다음 위치를 결정할 수 있다.In one embodiment of the present invention, the interaction includes at least one of text input, voice input, face information input, pose input, gesture input, and background information input for an image, and the positioning step includes the interaction with a machine. The user's next location may be determined by applying inference information input and output to the learned evaluation model and location condition information corresponding to the user's current location in the image tree.

본 발명의 일 실시예에서는, 상기 인터랙션은 영상에 대한 복수의 선택지 가운데 특정 선택지에 대한 선택입력; 및 영상에 대한 텍스트입력, 음성입력, 얼굴정보입력, 포즈입력, 제스쳐입력 및 배경정보입력 가운데 1 이상의 입력;을 포함하고, 상기 위치결정단계는, 상기 특정 선택지에 대한 선택입력, 상기 영상에 대한 텍스트입력, 음성입력, 표정입력, 포즈입력, 제스쳐입력 및 배경정보입력 가운데 1 이상의 입력을 기계학습된 평가모델에 입력하여 출력된 추론정보 및 상기 영상트리에서의 사용자의 현재 위치에 상응하는 위치조건정보를 적용하여 사용자의 다음 위치를 결정할 수 있다.In one embodiment of the present invention, the interaction includes a selection input for a specific option among a plurality of options for an image; and at least one input of text input, voice input, face information input, pose input, gesture input, and background information input for an image, wherein the positioning step includes a selection input for the specific option, a selection input for the image At least one input among text input, voice input, facial expression input, pose input, gesture input, and background information input is input to the machine learning evaluation model, and the inference information output and the position condition corresponding to the user's current position in the image tree The information can be applied to determine the user's next location.

본 발명의 일 실시예에서는, 상기 위치이동정보는, 상기 판별조건에 따라 사용자가 입력한 인터랙션에 상응하는 영상에서 타 영상으로 해당 사용자의 위치를 이동하는 제1위치이동정보; 및 상기 판별조건에 따라 사용자가 직전에 입력한 인터랙션에 상응하는 영상에 대하여 다시 인터랙션을 입력하도록 하는 제2위치이동정보;를 포함할 수 있다.In one embodiment of the present invention, the location movement information may include first location movement information for moving the user's location from an image corresponding to an interaction input by the user to another image according to the determination condition; and second location movement information for re-inputting an interaction with respect to an image corresponding to an interaction previously input by the user according to the determination condition.

본 발명의 일 실시예에서는, 상기 동영상 인터랙션 플랫폼의 제공방법은, 사용자의 요청에 따라 복수의 영상을 수신하고, 각 영상에 대한 위치조건정보 및 결과정보의 설정을 입력받는 영상트리생성인터페이스를 상기 사용자에게 제공하는 제작빌더제공단계;를 더 포함할 수 있다.In one embodiment of the present invention, the method for providing the video interaction platform includes a video tree creation interface that receives a plurality of videos according to a user's request and receives setting of location condition information and result information for each video. It may further include; production builder provision step provided to the user.

본 발명의 일 실시예에서는, 상기 서버시스템에는 복수의 영상트리가 저장되어 있고, 영상트리의 위치이동정보는, 해당 영상트리에 포함된 영상에 대한 사용자의 인터랙션에 따른 판별조건에 기초하여 타 영상트리에 포함된 특정 영상으로 해당 사용자의 위치를 이동시키는 제3위치이동정보를 포함할 수 있다.In one embodiment of the present invention, a plurality of video trees are stored in the server system, and the location movement information of the video trees is based on a determination condition according to a user's interaction with the video included in the corresponding video tree to another video. Third location movement information for moving the user's location to a specific image included in the tree may be included.

본 발명의 일 실시예에서는, 상기 영상트리에서의 사용자의 위치 혹은 영상에 대한 사용자의 인터랙션에 상응하는 결과정보는 사용자에게 타 서비스를 제공하기 위한 타서비스연결정보를 포함하고, 상기 결과정보제공단계에서 제공되는 타서비스연결정보와 연결되는 타 서비스는, 기계학습된 평가모델을 통해 사용자의 인터랙션에 대한 응답정보를 도출하고, 상기 응답정보에 따라 발화하는 오브젝트를 사용자에게 제공할 수 있다.In one embodiment of the present invention, the result information corresponding to the user's position in the image tree or the user's interaction with the image includes other service connection information for providing other services to the user, and the providing result information step Other services connected to other service connection information provided in may derive response information for user interaction through a machine-learned evaluation model, and provide the user with an object that ignites according to the response information.

상기와 같은 과제를 해결하기 위하여, 본 발명의 일 실시예에서는, 동영상 인터랙션 플랫폼의 제공방법을 수행하는 서버시스템으로서, 상기 서버시스템에는 영상트리에 대한 복수의 영상 혹은 복수의 영상을 생성하기 위한 기초데이터를 포함하는 영상정보, 각 영상에 대한 사용자의 인터랙션을 판별하기 위한 판별조건 및 상기 판별조건에 따른 위치 이동에 대한 위치이동정보를 포함하는 위치조건정보, 및 상기 영상트리에서의 사용자의 위치 혹은 영상에 대한 사용자의 인터랙션에 상응하는 결과정보가 저장되어 있고, 상기 영상트리에서의 사용자의 위치는 해당 사용자의 영상에 대한 인터랙션에 따라 이동될 수 있고, 상기 영상트리에서의 사용자의 현재 위치에 해당하는 영상을 사용자에게 제공하는 영상정보제공단계; 상기 영상정보제공단계를 통해 제공된 영상에 대한 사용자의 인터랙션에 대하여 상기 영상트리에서의 사용자의 현재 위치에 상응하는 위치조건정보를 적용하여 사용자의 다음 위치를 결정하는 위치결정단계; 및 사용자의 위치 혹은 1 이상의 영상에 대한 사용자의 인터랙션이 기설정된 조건에 상응하는 경우에 결과정보를 사용자에게 제공하는 결과정보제공단계;를 수행하는, 서버시스템을 제공한다.In order to solve the above problems, in one embodiment of the present invention, as a server system that performs a method of providing a video interaction platform, the server system includes a plurality of images for a video tree or a basis for generating a plurality of images. Image information including data, location condition information including a determination condition for determining a user's interaction with each image and location movement information for location movement according to the determination condition, and the user's location in the image tree or Result information corresponding to the user's interaction with the video is stored, and the user's position in the video tree can be moved according to the user's interaction with the video, corresponding to the user's current position in the video tree. Image information providing step of providing the image to the user; a positioning step of determining the user's next position by applying position condition information corresponding to the user's current position in the image tree to the user's interaction with the image provided through the image information providing step; and a result information providing step of providing result information to the user when the user's location or user's interaction with one or more images corresponds to a preset condition.

본 발명의 일 실시예에 따르면, 동영상을 기반으로 하는 영상트리를 사용자에게 제공함으로써, 사용자의 서비스 참여에 대한 흥미를 유발할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, by providing a video tree based on a video to a user, it is possible to exert an effect of arousing interest in service participation of the user.

본 발명의 일 실시예에 따르면, 영상트리의 최종단계에서 사용자에게 타 서비스를 제공하는 타서비스서버 혹은 서버시스템의 타서비스제공부에 영상트리에서의 사용자의 1 이상의 위치 혹은 사용자인터랙션정보를 제공하므로, 사용자에게 더욱 적합한 타 서비스를 제공할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, at the final stage of the video tree, one or more positions of the user in the video tree or user interaction information is provided to another service server or other service providing unit of the server system that provides other services to the user. However, it can exert an effect of providing other services that are more suitable for users.

본 발명의 일 실시예에 따르면, 영상트리를 통해 사용자에게 타 서비스를 제공하고, 사용자가 타 서비스를 제공받아 도출된 서비스결과정보가 영상트리의 특정 영상과 연결되어 있으므로, 사용자에게 다양한 형태의 서비스를 제공할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, since other services are provided to users through a video tree, and service result information derived by the user receiving other services is connected to a specific video in the video tree, various types of services are provided to users. can exert the effect that can provide.

본 발명의 일 실시예에 따르면, 영상트리의 영상에 대하여 사용자는 다양한 인터랙션을 입력할 수 있고, 사용자의 인터랙션을 기계학습된 평가모델에 입력하여 판별조건을 도출할 수 있으므로, 기설정된 선택지를 선택하는 종래의 방법과 비교하여 사용자의 흥미를 유발함과 동시에 사용자에게 더욱 정확한 타 서비스를 제공할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, the user can input various interactions with respect to the images of the image tree, and since the user's interactions can be input to the machine-learned evaluation model to derive the discrimination condition, a preset option is selected. Compared to the conventional method of doing so, it is possible to exert an effect of arousing the user's interest and at the same time providing more accurate other services to the user.

본 발명의 일 실시예에 따르면, 사용자에게 영상트리생성인터페이스를 제공하여 사용자가 직접 영상트리를 구축할 수 있으므로, 동영상 인터랙션 플랫폼을 활성화할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, since a video tree creation interface is provided to a user so that the user can directly build a video tree, an effect of activating a video interaction platform can be exhibited.

본 발명의 일 실시예에 따르면, 영상트리의 영상에 대한 사용자의 인터랙션에 따라 타 영상트리의 특정 영상으로 사용자의 위치가 이동될 수 있으므로, 복수의 영상트리가 연계되어 사용자에게 다양한 타 서비스를 제공할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, since the user's position can be moved to a specific video of another video tree according to the user's interaction with the video of the video tree, a plurality of video trees are linked to provide various other services to the user. You can exert the effect you can.

도 1은 본 발명의 일 실시예에 따른 동영상 인터랙션 플랫폼의 제공방법을 수행하는 구성요소들을 개략적으로 도시한다.
도 2는 본 발명의 일 실시예에 따른 서버시스템의 내부 구성요소들을 개략적으로 도시한다.
도 3은 본 발명의 일 실시예에 따른 영상트리를 개략적으로 도시한다.
도 4는 본 발명의 일 실시예에 따른 동영상 인터랙션 플랫폼의 제공방법의 세부 단계들을 개략적으로 도시한다.
도 5는 본 발명의 일 실시예에 따른 사용자인터랙션정보송신단계 및 사용자위치이력송신단계를 개략적으로 도시한다.
도 6은 본 발명의 일 실시예에 따른 영상에 대하여 사용자가 입력한 인터랙션에 따라 추론정보를 도출하는 과정을 개략적으로 도시한다.
도 7은 본 발명의 일 실시예에 따른 피처추출모델의 내부 구성을 개략적으로 도시한다.
도 8은 본 발명의 일 실시예에 따른 피처추론모델의 내부 구성을 개략적으로 도시한다.
도 9는 본 발명의 일 실시예에 따른 복수의 영상트리가 연결되어 있는 구성을 개략적으로 도시한다.
도 10은 본 발명의 일 실시예에 따른 영상트리에서 사용자 인터랙션에 따른 사용자의 위치 이동을 개략적으로 도시한다.
도 11은 본 발명의 일 실시예에 따른 영상트리생성인터페이스를 개략적으로 도시한다.
도 12는 본 발명의 일 실시예에 따른 타 서비스가 제공되는 과정을 개략적으로 도시한다.
도 13은 본 발명의 일 실시예에 따른 컴퓨팅장치의 내부 구성을 개략적으로 도시한다.
1 schematically illustrates components performing a method of providing a video interaction platform according to an embodiment of the present invention.
2 schematically illustrates internal components of a server system according to an embodiment of the present invention.
3 schematically illustrates an image tree according to an embodiment of the present invention.
4 schematically illustrates detailed steps of a method for providing a video interaction platform according to an embodiment of the present invention.
5 schematically illustrates a user interaction information transmission step and a user location history transmission step according to an embodiment of the present invention.
6 schematically illustrates a process of deriving inference information according to an interaction input by a user with respect to an image according to an embodiment of the present invention.
7 schematically illustrates the internal configuration of a feature extraction model according to an embodiment of the present invention.
8 schematically illustrates the internal configuration of a feature inference model according to an embodiment of the present invention.
9 schematically illustrates a configuration in which a plurality of image trees are connected according to an embodiment of the present invention.
10 schematically illustrates movement of a user's location according to user interaction in a video tree according to an embodiment of the present invention.
11 schematically illustrates an image tree creation interface according to an embodiment of the present invention.
12 schematically illustrates a process of providing other services according to an embodiment of the present invention.
13 schematically illustrates the internal configuration of a computing device according to an embodiment of the present invention.

이하에서는, 다양한 실시예들 및/또는 양상들이 이제 도면들을 참조하여 개시된다. 하기 설명에서는 설명을 목적으로, 하나 이상의 양상들의 전반적 이해를 돕기 위해 다수의 구체적인 세부사항들이 개시된다. 그러나, 이러한 양상(들)은 이러한 구체적인 세부사항들 없이도 실행될 수 있다는 점 또한 본 발명의 기술 분야에서 통상의 지식을 가진 자에게 인식될 수 있을 것이다. 이후의 기재 및 첨부된 도면들은 하나 이상의 양상들의 특정한 예시적인 양상들을 상세하게 기술한다. 하지만, 이러한 양상들은 예시적인 것이고 다양한 양상들의 원리들에서의 다양한 방법들 중 일부가 이용될 수 있으며, 기술되는 설명들은 그러한 양상들 및 그들의 균등물들을 모두 포함하고자 하는 의도이다.In the following, various embodiments and/or aspects are disclosed with reference now to the drawings. In the following description, for purposes of explanation, numerous specific details are set forth in order to facilitate a general understanding of one or more aspects. However, it will also be appreciated by those skilled in the art that such aspect(s) may be practiced without these specific details. The following description and accompanying drawings describe in detail certain illustrative aspects of one or more aspects. However, these aspects are exemplary and some of the various methods in principle of the various aspects may be used, and the described descriptions are intended to include all such aspects and their equivalents.

또한, 다양한 양상들 및 특징들이 다수의 디바이스들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있는 시스템에 의하여 제시될 것이다. 다양한 시스템들이, 추가적인 장치들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있다는 점 그리고/또는 도면들과 관련하여 논의된 장치들, 컴포넌트들, 모듈들 등 전부를 포함하지 않을 수도 있다는 점 또한 이해되고 인식되어야 한다.Moreover, various aspects and features will be presented by a system that may include a number of devices, components and/or modules, and the like. It should also be noted that various systems may include additional devices, components and/or modules, and/or may not include all of the devices, components, modules, etc. discussed in connection with the figures. It must be understood and recognized.

본 명세서에서 사용되는 "실시예", "예", "양상", "예시" 등은 기술되는 임의의 양상 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되지 않을 수도 있다. 아래에서 사용되는 용어들 '~부', '컴포넌트', '모듈', '시스템', '인터페이스' 등은 일반적으로 컴퓨터 관련 엔티티(computer-related entity)를 의미하며, 예를 들어, 하드웨어, 하드웨어와 소프트웨어의 조합, 소프트웨어를 의미할 수 있다."Example", "example", "aspect", "exemplary", etc., used herein should not be construed as preferring or advantageous to any aspect or design being described over other aspects or designs. . The terms '~unit', 'component', 'module', 'system', 'interface', etc. used below generally mean a computer-related entity, and for example, hardware, hardware It may mean a combination of and software, software.

또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하지만, 하나 이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다.Also, the terms "comprises" and/or "comprising" mean that the feature and/or element is present, but excludes the presence or addition of one or more other features, elements and/or groups thereof. It should be understood that it does not.

또한, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.In addition, terms including ordinal numbers, such as first and second, may be used to describe various components, but the components are not limited by the terms. These terms are only used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention. The terms and/or include any combination of a plurality of related recited items or any of a plurality of related recited items.

또한, 본 발명의 실시예들에서, 별도로 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 실시예에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, in the embodiments of the present invention, unless otherwise defined, all terms used herein, including technical or scientific terms, are generally understood by those of ordinary skill in the art to which the present invention belongs. has the same meaning as Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in the embodiments of the present invention, an ideal or excessively formal meaning not be interpreted as

도 1은 본 발명의 일 실시예에 따른 동영상 인터랙션 플랫폼의 제공방법을 수행하는 구성요소들을 개략적으로 도시한다.1 schematically illustrates components performing a method of providing a video interaction platform according to an embodiment of the present invention.

도 1에 도시된 바와 같이 동영상 인터랙션 플랫폼의 제공방법은 서버시스템(1000)에서 사용자단말과 통신하여 수행될 수 있다. 구체적으로, 서비스 이용자는 해당 사용자단말(2000.1)을 통해 서버시스템(1000)으로부터 제공받고자 하는 타 서비스 또는 인터랙션을 수행하고자 하는 영상트리를 요청할 수 있고, 서버시스템(1000)은 상기 사용자단말(2000.1)에 상기 타 서비스에 상응하는 영상트리 혹은 요청에 상응하는 영상트리를 제공하는 것으로, 해당 서비스 이용자는 영상트리에 대한 인터랙션을 수행할 수 있다.As shown in FIG. 1 , the method of providing a video interaction platform may be performed by communicating with a user terminal in the server system 1000 . Specifically, the service user may request another service to be provided from the server system 1000 or an image tree to perform an interaction through the corresponding user terminal 2000.1, and the server system 1000 may request the user terminal 2000.1 By providing a video tree corresponding to the other service or a video tree corresponding to the request, the service user can interact with the video tree.

영상트리를 제공받은 사용자(서비스 이용자)는 영상트리의 최초 영상에 대한 인터랙션을 수행하고, 서버시스템(1000)은 최초 영상에 대하여 사용자가 입력한 인터랙션에 따라 다음 영상을 제공하며, 이와 같이 사용자는 순차적으로 제공되는 영상트리의 영상에 대한 인터랙션을 수행함으로써, 최종적으로 해당 사용자의 1 이상의 인터랙션에 따른 타 서비스를 제공받을 수 있다. 즉, 영상트리에는 복수의 영상이 포함되어 있고, 복수의 영상 각각은 특정한 위치를 가질 수 있다. 따라서 초기에 영상트리를 이용하는 사용자는 영상트리의 최초 영상에 위치해 있고, 사용자가 최초 영상에 대한 인터랙션을 수행함으로써, 사용자는 인터랙션에 따라 다른 위치에 해당하는 영상으로 이동할 수 있다. 이와 같이, 사용자가 1 이상의 인터랙션을 수행하는 것으로 영상트리에서의 사용자의 위치가 이동될 수 있고, 영상트리의 1 이상의 최종 영상 가운데 특정 영상에 위치하는 경우 혹은 1 이상의 특정 영상에서의 사용자의 특정 인터랙션을 입력하는 경우에 해당 특정 영상에 상응하는 타 서비스를 제공받을 수 있다.A user (service user) who receives the video tree performs an interaction with the first video of the video tree, and the server system 1000 provides the next video according to the interaction input by the user with respect to the first video. By performing interactions with the images of the image tree that are sequentially provided, other services may be finally provided according to one or more interactions of the corresponding user. That is, a plurality of images are included in the image tree, and each of the plurality of images may have a specific position. Therefore, the user using the image tree is initially located at the first image of the image tree, and when the user interacts with the first image, the user can move to the image corresponding to another location according to the interaction. In this way, the user's position in the image tree can be moved by the user performing one or more interactions, and when the user is located in a specific image among one or more final images of the image tree, or the user's specific interaction in one or more specific images When inputting , other services corresponding to the specific video may be provided.

한편, 본 발명의 서버시스템(1000)에서 수행하는 상기 동영상 인터랙션 플랫폼에서는 타 서비스를 직접 제공할 수도 있으나, 도 1에 도시된 바와 같이 상기 타 서비스는 별도의 타서비스서버(3000)를 통해 사용자에게 제공될 수 있다. 따라서, 사용자가 영상트리의 최종 영상 가운데 특정 영상에 위치하거나, 특정 영상에서 사용자가 특정 인터랙션을 입력하는 경우에 서버시스템(1000)은 사용자에게 타서비스연결정보를 제공하고, 상기 사용자는 상기 타서비스연결정보를 통해 별도의 타서비스서버(3000)와 통신을 수행하여 상기 타 서비스를 제공받을 수 있다. 한편, 상기 타서비스서버(3000)는 1 이상의 타 서비스를 사용자에게 제공할 수 있으며, 도 1에서 서버시스템(1000)이 하나의 타서비스서버(3000)와 통신을 수행하는 것으로 도시되어 있으나, 본 발명의 다른 실시예에서는 서버시스템(1000)을 통해 연결되는 타 서비스가 복수 개수인 경우에 상기 서버시스템(1000)은 복수의 타서비스서버(3000)와 통신을 수행할 수도 있다. 또한, 본 발명의 다른 실시예에서는, 상기 타 서비스는 서버시스템(1000)에 포함된 타서비스제공부(1700)를 통해 제공될 수도 있다.Meanwhile, the video interaction platform performed by the server system 1000 of the present invention may directly provide other services, but as shown in FIG. 1, the other services are provided to the user through a separate other service server 3000. can be provided. Therefore, when the user is located in a specific image among the final images of the image tree or the user inputs a specific interaction in the specific image, the server system 1000 provides other service connection information to the user, and the user receives the other service It is possible to receive the other service by performing communication with the separate other service server 3000 through the connection information. On the other hand, the other service server 3000 can provide one or more other services to the user, and although the server system 1000 is shown in FIG. 1 as communicating with one other service server 3000, this In another embodiment of the invention, when there are a plurality of other services connected through the server system 1000, the server system 1000 may communicate with a plurality of other service servers 3000. Also, in another embodiment of the present invention, the other service may be provided through the other service provider 1700 included in the server system 1000.

또한, 서버시스템(1000)에서 수행하는 동영상 인터랙션 플랫폼의 제공방법은 저장되어 있는 영상트리를 사용자에게 제공하고 사용자의 인터랙션에 따른 타 서비스를 제공하는 것뿐만 아니라, 사용자(서비스 빌더)의 요청에 따라 해당 사용자가 직접 영상트리를 생성하기 위한 인터페이스를 제공할 수도 있다. 구체적으로 사용자(서비스 빌더)의 사용자단말(2000.2)은 서버시스템(1000)에 영상트리를 생성하기 위한 인터페이스를 요청하는 경우에 서버시스템(1000)은 상기 사용자단말(2000.2)에 상기 인터페이스를 제공하고, 사용자(서비스 빌더)는 상기 인터페이스를 통해 영상트리를 구성할 수 있다. 이와 같이 구성된 영상트리는 타 사용자(서비스 이용자)들이 이용할 수도 있다.In addition, the method of providing a video interaction platform performed by the server system 1000 not only provides the stored video tree to the user and provides other services according to the user's interaction, but also according to the user's (service builder's) request. An interface for the corresponding user to directly create an image tree may be provided. Specifically, when a user terminal (2000.2) of a user (service builder) requests an interface for generating an image tree from the server system 1000, the server system 1000 provides the interface to the user terminal 2000.2 and , the user (service builder) can configure the image tree through the interface. The video tree configured in this way can be used by other users (service users).

본 발명의 일 실시예에서 각각의 사용자단말(2000.1 및 2000.2)은 상기 서버시스템(1000)을 통해 동영상 인터랙션 플랫폼을 제공받기 위하여, 별도의 어플리케이션 또는 별도의 웹페이지를 통해 상기 서버시스템(1000)과 통신을 수행할 수 있으며, 이에 따라 각각의 사용자단말(2000.1 및 2000.2)에는 상기 별도의 어플리케이션이 설치되거나, 혹은 각각의 사용자단말(2000.1 및 2000.2)에 설치되어 있는 웹브라우저를 통해 상기 별도의 웹페이지에 접속할 수 있다. 또한 사용자는 상기 어플리케이션 또는 상기 웹페이지를 통해 상기 서버시스템(1000)에 접속하기 위한 계정을 생성할 수 있고, 상기 사용자단말(2000.1 및 2000.2)은 사용자로부터 입력받은 계정정보를 통해 상기 서버시스템(1000)에 접속하여 동영상 인터랙션 플랫폼을 제공받을 수 있다.In one embodiment of the present invention, each of the user terminals (2000.1 and 2000.2) connects to the server system 1000 through a separate application or a separate web page in order to receive a video interaction platform through the server system 1000. It is possible to perform communication, and accordingly, the separate application is installed in each user terminal (2000.1 and 2000.2), or the separate web page is installed through a web browser installed in each user terminal (2000.1 and 2000.2). can access In addition, the user can create an account to access the server system 1000 through the application or the web page, and the user terminals 2000.1 and 2000.2 can access the server system 1000 through the account information input from the user. ) to receive a video interaction platform.

도 2는 본 발명의 일 실시예에 따른 서버시스템(1000)의 내부 구성요소들을 개략적으로 도시한다.2 schematically illustrates internal components of a server system 1000 according to an embodiment of the present invention.

도 2에 도시된 바와 같이, 동영상 인터랙션 플랫폼의 제공방법을 수행하는 서버시스템(1000)은 영상정보제공부(1100), 위치결정부(1200), 결과정보제공부(1300), 사용자인터랙션정보송신부(1400), 사용자위치이력송신부(1500), 제작빌더제공부(1600), 타서비스제공부(1700), 기계학습된 평가모델(1800) 및 DB(1900)를 포함한다.As shown in FIG. 2, the server system 1000 performing the method of providing a video interaction platform includes a video information providing unit 1100, a positioning unit 1200, a result information providing unit 1300, and a user interaction information transmitting unit. 1400, a user location history transmission unit 1500, a manufacturing builder providing unit 1600, a third-party service providing unit 1700, a machine-learned evaluation model 1800, and a DB 1900.

상기 서버시스템(1000)에는 영상트리에 대한 복수의 영상 혹은 복수의 영상을 생성하기 위한 기초데이터를 포함하는 영상정보, 각 영상에 대한 사용자의 인터랙션을 판별하기 위한 판별조건 및 상기 판별조건에 따른 위치 이동에 대한 위치이동정보를 포함하는 위치조건정보, 및 상기 영상트리에서의 사용자의 위치 혹은 영상에 대한 사용자의 인터랙션에 상응하는 결과정보가 저장될 수 있다.The server system 1000 includes a plurality of images for a video tree or image information including basic data for generating a plurality of images, a determination condition for determining a user's interaction with each image, and a location according to the determination condition. Location condition information including location movement information about movement and result information corresponding to the user's location in the image tree or the user's interaction with the image may be stored.

구체적으로, 상기 영상정보, 상기 위치조건정보 및 상기 결과정보는 DB(1900)에 저장될 수 있다. 상기 영상정보는 영상트리에 포함되는 복수의 영상 또는 복수의 영상을 생성하기 위한 기초데이터를 포함한다. 본 발명의 일 실시예에서 사용자에게 영상트리가 제공되는 경우에 영상트리에서의 사용자의 위치에 따라 상기 복수의 영상 가운데 해당 위치에 상응하는 특정 영상이 사용자에게 제공될 수 있고, 본 발명의 다른 실시예에서 사용자에게 영상트리가 제공되는 경우에 영상트리에서의 사용자의 위치에 따라 서버시스템(1000)에서 자동적으로 영상을 생성하고, 상기 생성된 영상이 사용자에게 제공될 수 있다. 상기 기초데이터는 서버시스템(1000)에서 자동적으로 영상을 생성하기 위한 요소에 해당할 수 있다. 구체적으로 상기 기초데이터는 종래의 AI 휴먼과 같이 상기 서버시스템(1000)에서 사용자의 입력에 따라 별도의 기계학습된 모델을 통해 자동적으로 상기 사용자의 입력에 대응하는 영상을 생성하기 위한 데이터에 해당할 수 있다.Specifically, the image information, the location condition information, and the result information may be stored in the DB 1900. The image information includes a plurality of images included in the image tree or basic data for generating a plurality of images. In one embodiment of the present invention, when an image tree is provided to a user, a specific image corresponding to a corresponding position among the plurality of images may be provided to the user according to the user's position in the image tree. In an example, when an image tree is provided to a user, the server system 1000 automatically generates an image according to the user's location in the image tree, and the generated image may be provided to the user. The basic data may correspond to an element for automatically generating an image in the server system 1000 . Specifically, the basic data may correspond to data for automatically generating an image corresponding to the user's input through a separate machine learning model according to the user's input in the server system 1000, like the conventional AI human. can

상기 위치조건정보는 판별조건 및 위치이동정보를 포함한다. 상기 판별조건은 사용자에게 제공되는 영상트리의 각 영상에 대하여 상기 사용자가 입력하는 인터랙션을 판별하기 위한 정보에 해당하며, 더 구체적으로 더 구체적으로 판별조건은 1 이상의 세부판별조건을 포함할 수 있다. 예를 들어, 사용자에게 제공되는 영상에 대하여 사용자가 인터랙션을 입력한 경우에 상기 서버시스템(1000)은 해당 영상에 대한 판별조건에 따라 상기 인터랙션이 해당 영상에 대한 긍정적 응답인지 혹은 부정적 응답인지를 판별할 수 있다. 이 때, 상기 긍정적 응답 및 부정적 응답 각각은 판별조건에 포함되는 각각의 세부판별조건에 해당할 수 있다. 상기 위치이동정보는 각 영상에 대한 판별조건에 따라 판별된 인터랙션에 따라 사용자의 위치를 이동하기 위한 정보에 해당한다. 예를 들어, 특정 영상에 대하여 사용자가 입력한 인터랙션이 상기 특정 영상에 대한 긍정적 응답인 것으로 판별된 경우에 상기 서버시스템(1000)은 상기 특정 영상에 대한 위치이동정보에 따라 해당 사용자의 위치를 타 영상으로 이동시키거나, 인터랙션을 다시 입력할 수 있는 위치로 이동시킬 수 있다.The location condition information includes determination conditions and location movement information. The determination condition corresponds to information for determining an interaction input by the user with respect to each image of the image tree provided to the user, and more specifically, the determination condition may include one or more detailed determination conditions. For example, when a user inputs an interaction with respect to a video provided to the user, the server system 1000 determines whether the interaction is a positive response or a negative response to the corresponding video according to a determination condition for the corresponding video. can do. In this case, each of the positive response and the negative response may correspond to each detailed determination condition included in the determination condition. The location movement information corresponds to information for moving a user's location according to an interaction determined according to a determination condition for each image. For example, when it is determined that the interaction input by the user with respect to a specific video is a positive response to the specific video, the server system 1000 determines the user's location according to the location movement information for the specific video. It can be moved to an image or moved to a position where interaction can be input again.

상기 결과정보는 사용자가 영상트리에서 인터랙션을 입력하여 특정 영상에 위치하거나, 혹은 특정 영상에서의 특정 인터랙션을 입력한 경우에 사용자에게 제공되는 정보에 해당한다. 구체적으로 상기 결과정보는 사용자가 상기 영상트리에서 입력한 1 이상의 인터랙션에 따라 최종적으로 사용자에게 제공되는 영상 또는 사용자가 입력한 1 이상의 인터랙션에 대한 분석결과에 대한 정보를 포함하고, 상기 결과정보는 사용자가 상기 영상트리에서 입력한 1 이상의 인터랙션에 따라 사용자에게 영상트리에서의 인터랙션과는 별도의 타 서비스를 제공하기 위한 타서비스연결정보를 더 포함할 수 있다.The result information corresponds to information provided to the user when the user inputs an interaction in the image tree and is located in a specific image or inputs a specific interaction in the specific image. Specifically, the result information includes information about an analysis result of an image finally provided to the user according to one or more interactions input by the user in the image tree or an analysis result of one or more interactions input by the user, and the result information is may further include other service connection information for providing other services separate from interactions in the image tree to the user according to one or more interactions input in the image tree.

상기 타서비스연결정보는 사용자가 영상트리에서의 인터랙션을 입력하여 특정 영상에 위치하거나, 혹은 특정 영상에서의 특정 인터랙션을 입력한 경우에 제공되는 타 서비스를 연결하기 위한 정보에 해당한다. 구체적으로, 영상트리는 1 이상의 타서비스연결정보를 포함할 수 있고, 각각의 타서비스연결정보는 상기 영상트리의 1 이상의 특정 영상 혹은 1 이상의 특정 영상에서의 특정 인터랙션과 매칭될 수 있다. 따라서, 사용자가 상기 영상트리의 1 이상의 특정 영상 가운데 어느 하나의 특정 영상에 위치하거나, 혹은 1 이상의 특정 영상 가운데 어느 하나의 특정 영상에 대하여 특정 인터랙션을 입력하는 경우에 매칭된 타서비스연결정보가 사용자에게 제공될 수 있고, 사용자는 상기 타서비스연결정보를 통해 타서비스서버(3000) 혹은 서버시스템(1000)에 포함된 내부 구성에 해당하는 타서비스제공부(1700)와 통신을 수행하여 인터랙션에 따른 타 서비스를 제공받을 수 있다. 또한, 도 1에 도시된 바와 같이, 상기 DB(1900)에는 서버시스템(1000)에 등록된 각각의 사용자에 대한 사용자정보가 저장될 수 있다.The other service connection information corresponds to information for connecting other services that are provided when a user inputs an interaction in a video tree and is located in a specific video or inputs a specific interaction in a specific video. Specifically, the image tree may include one or more other service connection information, and each other service connection information may be matched with one or more specific images of the image tree or a specific interaction in one or more specific images. Therefore, when the user is located in one of one or more specific images of the image tree or inputs a specific interaction with respect to one or more specific images among one or more specific images, the matched other service connection information is provided to the user. According to the interaction, the user communicates with the other service server 3000 or the other service provider 1700 corresponding to the internal configuration included in the server system 1000 through the other service connection information. Other services may be provided. In addition, as shown in FIG. 1 , user information for each user registered in the server system 1000 may be stored in the DB 1900 .

한편, 도 1에 도시된 바와 같이, 상기 DB(1900)에는 영상트리를 구성하는 요소들(영상정보, 위치조건정보 및 타서비스연결정보)이 개별적으로 저장되어 있으나, 본 발명의 다른 실시예에서 상기 DB(1900)에는 복수의 영상트리가 개별적으로 저장되고, 저장된 각각의 영상트리별로 해당 영상트리에 상응하는 영상정보, 위치조건정보 및 결과정보를 포함할 수도 있다.On the other hand, as shown in FIG. 1, the elements constituting the image tree (image information, location condition information, and other service connection information) are individually stored in the DB 1900, but in another embodiment of the present invention A plurality of image trees may be individually stored in the DB 1900, and image information, location condition information, and result information corresponding to the corresponding image tree may be included for each stored image tree.

상기 서버시스템(1000)은 상술한 바와 같이, 상기 DB(1900)에 저장된 영상정보, 위치조건정보 및 결과정보를 통해 동영상 인터랙션 플랫폼의 제공방법을 수행할 수 있다.As described above, the server system 1000 may perform the video interaction platform providing method through the image information, location condition information, and result information stored in the DB 1900.

구체적으로, 상기 영상정보제공부(1100)는 영상정보제공단계(S10)를 수행하여 사용자의 요청에 상응하는 영상트리를 제공하며, 바람직하게는 상기 영상정보제공부(1100)는 사용자의 요청에 상응하는 영상트리에서 사용자의 현재 위치에 해당하는 영상을 제공한다. 이를 통해 사용자는 해당 영상에 대한 인터랙션을 입력할 수 있다.Specifically, the image information providing unit 1100 provides an image tree corresponding to the user's request by performing the image information providing step (S10). Preferably, the image information providing unit 1100 responds to the user's request. Provides an image corresponding to the user's current location in the corresponding image tree. Through this, the user can input an interaction for the corresponding video.

상기 위치결정부(1200)는 위치결정단계(S11)를 수행하여 사용자에게 제공된 영상에 대하여 해당 사용자가 입력한 인터랙션에 따라 사용자의 다음 위치를 결정한다. 구체적으로, 상기 위치결정부(1200)는 사용자가 영상에 대하여 입력한 인터랙션을 해당 영상에 상응하는 판별조건에 따라 판별하고, 판별된 인터랙션 및 해당 영상에 상응하는 위치이동정보에 기초하여 사용자의 다음 위치를 결정한다. 상기 위치결정부(1200)에서 결정된 다음 위치는 상기 영상정보제공부(1100)에서 사용자에게 제공한 영상과 상이한 영상에 해당하거나, 혹은 상기 영상정보제공부(1100)에서 제공된 영상에 대하여 사용자가 다시 인터랙션을 입력할 수 있는 위치에 해당할 수 있다.The location determination unit 1200 determines the next location of the user according to the interaction input by the user with respect to the image provided to the user by performing the location determination step (S11). Specifically, the location determination unit 1200 determines the interaction input by the user with respect to the image according to the determination condition corresponding to the corresponding image, and determines the user's next interaction based on the determined interaction and the location movement information corresponding to the corresponding image. determine the location The next location determined by the location determination unit 1200 corresponds to an image different from the image provided to the user by the image information providing unit 1100, or the user returns to the image provided by the image information providing unit 1100. It may correspond to a position where an interaction can be input.

상기 결과정보제공부(1300)는 결과정보제공단계(S13)를 수행하여 영상트리에서의 사용자의 위치 또는 사용자에게 제공된 영상에 대하여 입력한 인터랙션이 기설정된 조건에 상응하는 경우에 타 서비스에 접속할 수 있는 결과정보를 사용자에게 제공한다. 구체적으로, 영상트리에는 1 이상의 조건이 기설정될 수 있고, 상기 1 이상의 조건 각각은 1 이상의 타서비스연결정보와 상응할 수 있다. 따라서 사용자가 영상트리에서 특정 조건에 상응하는 영상에 위치하거나, 혹은 특정 조건에 상응하는 인터랙션을 입력한 경우에, 상기 결과정보제공부(1300)는 상기 특정 조건에 상응하는 타서비스연결정보를 포함하는 결과정보를 사용자에게 제공할 수 있다. 이와 같이 사용자는 제공받은 타서비스연결정보를 통해 타 서비스를 제공하는 타서비스서버(3000) 혹은 서버시스템(1000)에 포함되는 타서비스제공부(1700)와 통신을 수행할 수 있다.The result information providing unit 1300 performs the result information providing step (S13) to access other services when the location of the user in the image tree or the interaction input with respect to the image provided to the user corresponds to a preset condition. It provides the result information to the user. Specifically, one or more conditions may be preset in the image tree, and each of the one or more conditions may correspond to one or more other service connection information. Therefore, when the user is located in a video corresponding to a specific condition in the video tree or inputs an interaction corresponding to the specific condition, the result information providing unit 1300 includes other service connection information corresponding to the specific condition. result information can be provided to the user. In this way, the user can communicate with the other service server 3000 that provides other services or the other service provider 1700 included in the server system 1000 through the received other service connection information.

상기 사용자인터랙션정보송신부(1400)는 사용자인터랙션정보송신단계를 수행하여 타 서비스를 제공하는 타서비스서버(3000) 또는 서버시스템(1000)에 포함된 타서비스제공부(1700)에 사용자가 상기 영상트리에 대하여 입력한 1 이상의 인터랙션을 포함하는 사용자인터랙션정보를 제공한다. 이를 통해 타 서비스를 제공하는 타서비스서버(3000) 또는 타서비스제공부(1700)는 상기 사용자인터랙션정보를 수신하여 사용자에게 적합한 타 서비스를 제공할 수 있다.The user interaction information transmitting unit 1400 performs the user interaction information transmitting step to send the video tree to the other service server 3000 that provides other services or to the other service providing unit 1700 included in the server system 1000. Provides user interaction information including one or more inputted interactions. Through this, the other service server 3000 or the other service provider 1700 providing other services can receive the user interaction information and provide other services suitable for the user.

상기 사용자위치이력송신부(1500)는 사용자위치이력송신단계를 수행하여 타 서비스를 제공하는 타서비스서버(3000) 또는 서버시스템(1000)에 포함된 타서비스제공부(1700)에 사용자가 상기 영상트리에 대하여 위치했던 1 이상의 위치정보를 제공한다. 이를 통해 상술한 사용자인터랙션정보송신부(1400)와 같이, 타 서비스를 제공하는 타서비스서버(3000) 또는 타서비스제공부(1700)는 상기 1 이상의 위치정보를 수신하여 사용자에게 적합한 타 서비스를 제공할 수 있다.The user location history transmission unit 1500 performs the user location history transmission step to send the video tree to the other service server 3000 that provides other services or to the other service provider 1700 included in the server system 1000. Provides one or more location information that was located with respect to . Through this, like the aforementioned user interaction information transmitter 1400, the other service server 3000 or other service provider 1700 that provides other services receives the one or more location information and provides other services suitable for the user. can

도 1에 도시된 바와 같이, 서버시스템(1000)은 상기 사용자인터랙션정보송신부(1400) 및 상기 사용자위치이력송신부(1500)를 모두 포함하여 타 서비스를 제공하는 타서비스서버(3000) 또는 서버시스템(1000)의 타서비스제공부(1700)에 사용자인터랙션정보 및 사용자가 영상트리에서 위치했던 1 이상의 위치정보를 제공할 수 있으나, 본 발명의 다른 실시예에서 상기 서버시스템(1000)은 상기 사용자인터랙션정보송신부(1400) 및 상기 사용자위치이력송신부(1500) 가운데 하나의 구성만을 포함하여, 상기 타서비스서버(3000) 또는 상기 타서비스제공부(1700)에 사용자인터랙션정보 및 1 이상의 위치정보 가운데 하나의 정보만을 제공할 수도 있다.As shown in FIG. 1, the server system 1000 includes both the user interaction information transmission unit 1400 and the user location history transmission unit 1500, and other service servers 3000 or server systems providing other services ( 1000), user interaction information and one or more location information where the user has been located in the image tree may be provided to the other service provider 1700, but in another embodiment of the present invention, the server system 1000 may provide the user interaction information Including only one of the transmission unit 1400 and the user location history transmission unit 1500, information of one of user interaction information and one or more pieces of location information to the other service server 3000 or the other service provider 1700 It is also possible to provide only

상기 제작빌더제공부(1600)는 제작빌더제공단계를 수행하여 사용자의 요청에 따라 사용자가 직접 영상트리를 생성할 수 있는 영상트리생성인터페이스(1610)를 해당 사용자의 사용자단말에 제공한다. 상기 영상트리생성인터페이스(1610)를 통해 사용자는 상술한 영상트리를 구성하는 요소에 해당하는 영상정보, 위치조건정보 및 타서비스연결정보를 입력하여 영상트리를 생성하며, 상기 영상트리생성인터페이스(1610)를 통해 입력된 정보는 상기 서버시스템(1000)의 DB(1900)에 저장될 수 있다.The fabrication builder provision unit 1600 performs the fabrication builder providing step and provides the image tree creation interface 1610 through which the user can directly create the image tree according to the user's request to the user terminal of the corresponding user. Through the video tree creation interface 1610, the user inputs video information, location condition information, and other service connection information corresponding to the elements constituting the above-described video tree to create a video tree, and the video tree creation interface 1610 Information input through ) may be stored in the DB 1900 of the server system 1000.

상기 타서비스제공부(1700)는 상기 결과정보제공부(1300)를 통해 사용자에게 제공된 결과정보에 포함된 타서비스연결정보에 따라 사용자에게 타 서비스를 제공한다. 구체적으로 사용자는 영상트리 상에서 입력한 1 이상의 인터랙션에 따라 사용자에게 적합한 타 서비스를 제공받을 수 있는 타서비스연결정보를 제공받고, 상기 타서비스제공부(1700)는 상기 타 서비스연결정보에 상응하는 타 서비스를 사용자에게 제공할 수 있다. 한편, 상기 타 서비스는 사용자에게 제공된 영상트리에서 사용자가 입력한 1 이상의 인터랙션 혹은 영상트리에서 사용자가 위치했던 1 이상의 위치에 따라 연계되는 서비스에 해당할 수 있다. 예를 들어, 영상트리는 사용자의 정신질환의 종류를 판단하기 위한 것에 해당할 수 있고, 상기 영상트리를 통해 사용자가 보유하고 있는 정신질환의 종류가 판단된 경우에, 타 서비스는 판단된 정신질환을 치료하기 위한 솔루션에 해당할 수 있다. 또한, 상기 타서비스제공부(1700)는 영상트리와 관련된 복수의 타 서비스를 제공할 수 있고, 본 발명의 다른 실시예에서 영상트리와 관련된 복수의 타 서비스의 개수에 상응하는 복수의 타서비스제공부(1700)가 개별적으로 상기 서버시스템(1000)에 포함될 수도 있다.The other service provider 1700 provides other services to the user according to other service connection information included in the result information provided to the user through the result information provider 1300 . Specifically, the user is provided with other service connection information through which other services suitable for the user can be provided according to one or more interactions input on the video tree, and the other service provider 1700 is provided with other service connection information corresponding to the other service connection information. Services can be provided to users. Meanwhile, the other service may correspond to a service linked according to one or more interactions input by the user in the video tree provided to the user or one or more locations where the user was located in the video tree. For example, the image tree may correspond to determining the type of mental illness of the user, and when the type of mental illness possessed by the user is determined through the image tree, other services may determine the mental illness. It may correspond to a solution for treatment. In addition, the other service provider 1700 may provide a plurality of other services related to the image tree, and in another embodiment of the present invention, a plurality of other services corresponding to the number of other services related to the image tree. The study 1700 may be included in the server system 1000 individually.

상기 평가모델(1800)은 사용자가 영상트리에 포함된 영상에 대하여 입력한 인터랙션을 입력받아 상기 인터랙션에 대한 추론정보를 도출한다. 구체적으로 상기 평가모델(1800)은 기계학습된 평가모델(1800)에 해당하며, 인터랙션을 입력받아 피처값을 추출하는 피처추출모델 및 상기 피처추출모델에서 도출된 피처값에 따라 추론정보를 도출하는 피처추론모델을 포함할 수 있다. 이와 같이, 본 발명에서는 평가모델(1800)을 통해 사용자가 기설정된 선택지 가운데 특정 선택지를 선택하는 인터랙션뿐만 아니라 정형화되지 않은 인터랙션에 대해서도 해당 인터랙션을 추론할 수 있게 된다.The evaluation model 1800 receives an interaction input by a user with respect to an image included in a video tree and derives inference information about the interaction. Specifically, the evaluation model 1800 corresponds to the machine-learned evaluation model 1800, a feature extraction model that extracts feature values by receiving interactions, and a feature extraction model that derives inference information based on feature values derived from the feature extraction model. Feature inference models may be included. In this way, in the present invention, through the evaluation model 1800, a corresponding interaction can be inferred not only for an interaction in which a user selects a specific option from among preset options, but also for an unstandardized interaction.

도 2에 도시된 바와 같이, 본 발명의 서버시스템(1000)은 단일 서버로 구성되어 상기 서버시스템(1000)의 내부 구성요소가 상기 단일 서버내에 모두 포함될 수 있으나, 본 발명의 다른 실시예에서는 상기 서버시스템(1000)은 복수의 서버로 구성될 수 있고, 복수의 서버에는 상술한 서버시스템(1000)의 내부 구성요소 가운데 1 이상의 내부 구성요소가 포함될 수 있고, 상기 복수의 서버는 상호 통신할 수도 있다.As shown in FIG. 2, the server system 1000 of the present invention is composed of a single server, and all internal components of the server system 1000 may be included in the single server, but in another embodiment of the present invention, the The server system 1000 may be composed of a plurality of servers, and one or more of the internal components of the above-described server system 1000 may be included in the plurality of servers, and the plurality of servers may communicate with each other. there is.

도 3은 본 발명의 일 실시예에 따른 영상트리를 개략적으로 도시한다.3 schematically illustrates an image tree according to an embodiment of the present invention.

도 3에 도시된 바와 같이 상기 영상트리는 복수의 영상으로 구성될 수 있다. 구체적으로, 상기 영상트리는 DB(1900)에 저장되어 있는 상기 영상트리에 상응하는 복수의 영상이 연결되어 있거나, 또는 상기 영상트리는 초기 영상만을 포함하고, 사용자가 상기 초기 영상에 대하여 입력한 인터랙션, 상기 초기 영상에 대한 위치조건정보 및 상기 영상트리에 상응하는 기초데이터에 기초하여 초기 영상으로부터 자동적으로 다음 영상이 생성되는 형태로 상기 영상트리가 구성될 수도 있다.As shown in FIG. 3, the image tree may be composed of a plurality of images. Specifically, the image tree is connected to a plurality of images corresponding to the image tree stored in the DB 1900, or the image tree includes only an initial image, and the interaction input by the user with respect to the initial image, the The image tree may be configured in such a way that a next image is automatically generated from the initial image based on location condition information for the initial image and basic data corresponding to the image tree.

도 3에 도시된 바와 같이, 상기 영상트리에 포함되는 복수의 영상 각각에는 고유한 위치값을 포함할 수 있고, 사용자가 상기 영상트리에 대하여 인터랙션을 하는 경우에 상기 영상트리에서 사용자의 최초 위치(위치 P1)에 상응하는 영상(영상#1)이 사용자에게 제공되고, 사용자가 해당 영상(영상#1)에 대하여 인터랙션을 입력하는 것(인터랙션#1)으로 상기 영상트리에서의 사용자의 위치가 이동될 수 있다.As shown in FIG. 3, each of the plurality of images included in the image tree may include a unique position value, and when the user interacts with the image tree, the user's initial position in the image tree ( The video (video #1) corresponding to the position P1) is provided to the user, and when the user inputs an interaction (interaction #1) with respect to the video (video #1), the user's position in the video tree moves. It can be.

구체적으로, 영상트리는 각 영상에 대하여 사용자가 입력한 인터랙션을 판별하고, 판별된 인터랙션에 따라 다른 영상으로 위치를 이동하기 위한 조건들을 포함할 수 있다. 상기 조건은 상술한 위치조건정보에 해당할 수 있다. 더 구체적으로, 상기 영상정보제공부(1100)에서 제공하는 영상트리에서의 사용자의 현재 위치에 상응하는 영상에 대하여 사용자가 인터랙션을 입력하는 경우에 상기 위치결정부(1200)는 해당 영상에 대한 판별조건에 따라 상기 인터랙션을 판별하고, 판별된 인터랙션 및 해당 영상에 대한 위치이동정보에 따라 사용자의 다음 위치를 결정한다.Specifically, the image tree may include conditions for determining an interaction input by a user for each image and moving a location to another image according to the determined interaction. The condition may correspond to the above-described location condition information. More specifically, when a user inputs an interaction with respect to an image corresponding to the user's current location in the image tree provided by the image information providing unit 1100, the location determining unit 1200 determines the corresponding image The interaction is determined according to conditions, and the next location of the user is determined according to the determined interaction and location movement information for the corresponding image.

예를 들어, 도 3에 도시된 바와 같이, 영상트리에서의 사용자의 현재 위치가 영상#1이고, 사용자가 상기 영상#1에 대하여 인터랙션#1을 입력한 경우에, 상기 위치결정부(1200)는 사용자가 입력한 인터랙션#1 및 조건#1에 상응하는 위치조건정보에 기초하여 사용자의 다음 위치를 영상#2(위치 P2)로 결정할 수 있다.For example, as shown in FIG. 3 , when the user's current position in the video tree is video #1 and the user inputs interaction #1 with respect to the video #1, the positioning unit 1200 may determine the user's next location as image #2 (position P2) based on the location condition information corresponding to interaction #1 and condition #1 input by the user.

이와 같이, 영상트리에서 사용자의 현재 위치에 상응하는 영상을 사용자에게 제공하고, 해당 영상에서의 사용자의 인터랙션에 따라 다음 위치를 결정하는 과정은 해당 사용자의 위치 또는 해당 사용자가 입력한 인터랙션이 기설정된 조건을 만족할 때까지 순차 반복될 수 있다.In this way, the process of providing the user with an image corresponding to the user's current location in the image tree and determining the next location according to the user's interaction in the image is the process of determining the user's location or the interaction input by the user in advance. It can be repeated sequentially until the condition is satisfied.

구체적으로, 도 3에 도시된 영상#4, 영상#5, 영상#6, 영상#8, 영상#9, 영상#10 및 영상#11과 같이 영상트리에서 위치조건정보가 연결되어 있지 않은 영상에 해당하는 위치로 사용자의 위치가 이동되는 경우에 상기 결과정보제공부(1300)는 사용자의 위치가 기설정된 조건을 만족한 것으로 판단하여 해당 위치에 상응하는 타서비스연결정보를 포함하는 결과정보를 사용자에게 제공할 수 있다. 또한 위치조건정보가 연결되어 있는 영상에 대해서 사용자가 특정 인터랙션을 입력한 경우에도 상기 결과정보제공부(1300)는 사용자가 입력한 특정 인터랙션이 기설정된 조건을 만족한 것으로 판단하여, 해당 영상 및 해당 영상에서 입력한 특정 인터랙션에 상응하는 타서비스연결정보를 포함하는 결과정보를 사용자에게 제공할 수 있다.Specifically, for images to which position condition information is not connected in the image tree, such as image #4, image #5, image #6, image #8, image #9, image #10, and image #11 shown in FIG. When the user's location is moved to the corresponding location, the result information providing unit 1300 determines that the user's location satisfies a preset condition and provides result information including other service connection information corresponding to the corresponding location to the user. can be provided to In addition, even when a user inputs a specific interaction for an image to which location condition information is connected, the result information providing unit 1300 determines that the specific interaction input by the user satisfies a preset condition, Result information including other service connection information corresponding to a specific interaction input in the video may be provided to the user.

예를 들어, 도 3에 도시된 바와 같이, 사용자가 영상#2(위치 P2)에 대하여 입력한 인터랙션#2 및 조건#4에 기초하여 사용자의 위치가 영상#10(위치 P3)으로 이동된 경우에 상기 결과정보제공부(1300)는 사용자의 위치가 기설정된 조건을 만족하는 것으로 판단하고 상기 영상#10에 상응하는 타서비스연결정보를 포함하는 결과정보를 사용자에게 제공할 수 있다. 이와 같이 사용자는 제공받은 타서비스연결정보를 통해 상기 영상#10에 상응하는 타 서비스를 제공하는 타서비스서버(3000) 혹은 서버시스템(1000)에 포함된 타서비스제공부(1700)에 접속하는 것으로 상기 영상#10에 상응하는 타 서비스를 제공받을 수 있다.For example, as shown in FIG. 3 , when the user's position is moved to image #10 (position P3) based on interaction #2 and condition #4 input with respect to image #2 (position P2). The result information provider 1300 may determine that the user's location satisfies a preset condition and provide result information including other service connection information corresponding to the image #10 to the user. In this way, the user accesses the other service server 3000 that provides other services corresponding to the image #10 or the other service provider 1700 included in the server system 1000 through the other service connection information provided. Other services corresponding to the above image #10 may be provided.

한편, 상기 영상트리에서의 사용자의 위치 혹은 영상에 대한 사용자의 인터랙션에 상응하는 결과정보는 사용자에게 타 서비스를 제공하기 위한 타서비스연결정보를 포함하고, 상기 영상트리에 포함된 특정 영상은, 상기 사용자가 상기 타 서비스를 수행하여 획득한 서비스결과정보와 연결될 수 있다.Meanwhile, the result information corresponding to the user's position in the image tree or the user's interaction with the image includes other service connection information for providing other services to the user, and the specific image included in the image tree It may be connected to service result information obtained by the user performing the other service.

구체적으로, 본 발명의 일 실시예에서는 사용자가 제공받은 결과정보에 포함된 타서비스연결정보를 통해 타 서비스를 제공받는 것으로 동영상 인터랙션 플랫폼의 서비스가 종료될 수도 있으나, 본 발명의 다른 실시예에서는 사용자가 타 서비스를 제공받아 상기 타서비스서버(3000) 또는 상기 타서비스제공부(1700)에서 도출된 서비스결과정보가 영상트리에 포함된 특정 영상과 연결되어, 사용자는 상기 특정 영상에 상응하는 위치에서부터 인터랙션을 다시 수행할 수 있다.Specifically, in one embodiment of the present invention, the service of the video interaction platform may end when the user is provided with another service through other service connection information included in the result information provided, but in another embodiment of the present invention, the user When other services are provided, the service result information derived from the other service server 3000 or the other service provider 1700 is connected to a specific image included in the image tree, so that the user can view the information from a location corresponding to the specific image. Interaction can be performed again.

예를 들어, 사용자가 정신질환을 판정하는 영상트리에 대한 1 이상의 인터랙션을 수행하여 우울증 치료에 대한 타 서비스를 제공받았고, 타 서비스에 대한 서비스결과정보가 우울증 판정을 다시 수행해야하는 것인 경우에 해당 영상트리에서 우울증 판정을 다시 할 수 있는 특정 영상(도 3에서는 영상#3)에 해당하는 위치에서 상기 사용자는 인터랙션을 수행할 수 있다.For example, this corresponds to the case where the user has received another service for depression treatment by performing one or more interactions with an image tree for determining mental illness, and the service result information for the other service is to perform depression determination again. In the image tree, the user can interact at a position corresponding to a specific image (image #3 in FIG. 3) capable of re-determining depression.

이와 같이, 본 발명에서는 타 서비스에서 제공된 서비스결과정보가 다시 영상트리의 특정 위치와 연결될 수 있으므로, 타 서비스에 대한 피드백을 수행하는 등의 다양한 형태의 서비스를 제공할 수 있는 효과를 발휘할 수 있다.In this way, in the present invention, since service result information provided from other services can be linked to a specific location of the image tree, various types of services such as feedback on other services can be provided.

한편, 본 발명에서는 복수의 영상으로 구성되어 있는 영상트리에 대해 기재하고 있으나, 본 발명의 다른 실시예에서 복수의 텍스트로 구성된 형태의 트리 또는 복수의 오디오로 구성된 형태의 트리를 사용할 수 있고, 사용자는 해당 트리에서의 현재 위치에 상응하는 텍스트에 대한 인터랙션 혹은 현재 위치에 상응하는 오디오에 대한 인터랙션을 입력할 수도 있다.Meanwhile, although the present invention describes an image tree composed of a plurality of images, in another embodiment of the present invention, a tree composed of a plurality of texts or a tree composed of a plurality of audios may be used, and the user may input an interaction for text corresponding to the current position in the corresponding tree or an interaction for audio corresponding to the current position.

도 4는 본 발명의 일 실시예에 따른 동영상 인터랙션 플랫폼의 제공방법의 세부 단계들을 개략적으로 도시한다.4 schematically illustrates detailed steps of a method for providing a video interaction platform according to an embodiment of the present invention.

도 4에 도시된 바와 같이, 상기 동영상 인터랙션 플랫폼의 제공방법은, 상기 영상트리에서의 사용자의 현재 위치에 해당하는 영상을 사용자에게 제공하는 영상정보제공단계(S10); 상기 영상정보제공단계(S10)를 통해 제공된 영상에 대한 사용자의 인터랙션에 대하여 상기 영상트리에서의 사용자의 현재 위치에 상응하는 위치조건정보를 적용하여 사용자의 다음 위치를 결정하는 위치결정단계(S11); 및 사용자의 위치 혹은 1 이상의 영상에 대한 사용자의 인터랙션이 기설정된 조건에 상응하는 경우에 결과정보를 사용자에게 제공하는 결과정보제공단계(S13);를 포함할 수 있다.As shown in FIG. 4 , the method of providing the video interaction platform includes a video information providing step (S10) of providing a video corresponding to the user's current location in the video tree to the user; Position determination step (S11) of determining the user's next position by applying position condition information corresponding to the user's current position in the image tree to the user's interaction with the image provided through the image information providing step (S10) ; and a result information providing step (S13) of providing result information to the user when the user's location or the user's interaction with one or more images corresponds to a preset condition.

구체적으로 상기 영상정보제공단계(S10)는 사용자가 요청한 영상트리에서의 사용자의 현재 위치에 상응하는 영상을 사용자에게 제공한다. 구체적으로, 사용자가 요청한 영상트리에서 최초로 영상을 제공하는 경우에, 해당 영상트리에서 초기 위치를 사용자의 현재 위치로 하고, 초기 위치에 상응하는 영상을 사용자에게 제공할 수 있다. 본 발명의 다른 실시예에서 상기 영상정보제공단계(S10)는 사용자에게 단순히 현재 위치에 상응하는 영상만을 제공하는 것이 아니라, 현재 위치에 상응하는 영상이 재생되는 인터페이스를 제공하고, 사용자는 해당 인터페이스를 통해 영상을 재생할 수 있고, 해당 영상에 대한 인터랙션을 입력할 수 있다.Specifically, in the image information providing step (S10), an image corresponding to the user's current location in the image tree requested by the user is provided to the user. Specifically, when an image is provided for the first time in a video tree requested by a user, the user may be provided with an image corresponding to the initial position, with the user's current position as the initial position in the corresponding video tree. In another embodiment of the present invention, the image information providing step (S10) does not simply provide the image corresponding to the current location to the user, but provides an interface in which the image corresponding to the current location is reproduced, and the user uses the interface Through this, the video can be played, and the interaction for the video can be input.

상기 영상정보제공단계(S10)를 통해 현재 위치에 상응하는 영상을 제공받은 사용자는 해당 영상에 대한 인터랙션을 입력할 수 있고, 상기 위치결정단계(S11)는 해당 영상에 대하여 사용자가 입력한 인터랙션에 따라 영상트리에서의 사용자의 다음 위치를 결정할 수 있다. 구체적으로 상기 위치결정단계(S11)는 해당 영상에 대하여 사용자가 입력한 인터랙션 및 해당 영상에 상응하는 위치조건정보에 기초하여 사용자의 다음 위치를 결정할 수 있다. 더 구체적으로 상기 위치결정단계(S11)는 해당 영상에 대한 인터랙션 및 해당 영상에 대한 위치조건정보에 포함되는 판별조건에 따라 상기 인터랙션을 판별하고, 판별된 인터랙션 및 해당 영상에 대한 위치조건정보에 포함되는 위치이동정보에 기초하여 사용자의 다음 위치를 결정할 수 있다.The user who has been provided with an image corresponding to the current location through the image information providing step (S10) can input an interaction for the image, and the positioning step (S11) is based on the interaction input by the user with respect to the image. Accordingly, the user's next position in the image tree can be determined. Specifically, in the location determination step (S11), the user's next location may be determined based on the interaction input by the user with respect to the corresponding image and the location condition information corresponding to the corresponding image. More specifically, the positioning step (S11) determines the interaction according to the determination condition included in the interaction for the corresponding video and the position condition information for the corresponding video, and includes the determined interaction and the position condition information for the corresponding video. The user's next location may be determined based on the location movement information.

한편, 상기 영상트리에서의 사용자의 위치를 이동시키기 위하여 상기 영상정보제공단계(S10) 및 상기 위치결정단계(S11)는 순차 반복될 수 있다. 구체적으로, 상기 위치결정단계(S11)를 통해 결정되는 사용자의 다음 위치가 기설정된 조건을 만족하는 지에 대한 여부, 혹은 해당 위치에 상응하는 영상에 대하여 사용자가 입력한 인터랙션이 기설정된 조건을 만족하는지에 대한 여부를 판별한다(S12).Meanwhile, the image information providing step (S10) and the positioning step (S11) may be sequentially repeated in order to move the user's position in the image tree. Specifically, whether the user's next location determined through the location determination step (S11) satisfies a preset condition, or whether the interaction input by the user with respect to the image corresponding to the corresponding location satisfies the preset condition. It is determined whether or not (S12).

만약 단계 S12에서 사용자의 다음 위치 혹은 사용자가 현재 위치에 상응하는 영상에 대하여 입력한 특정 인터랙션이 상기 기설정된 조건을 만족하지 못하는 경우에 상기 영상정보제공단계(S10) 및 상기 위치결정단계(S11)는 순차 반복될 수 있다.If, in step S12, the user's next location or a specific interaction input with respect to an image corresponding to the user's current location does not satisfy the preset condition, the image information providing step (S10) and the positioning step (S11) can be repeated sequentially.

한편, 단계 S12에서 사용자의 다음 위치 혹은 사용자가 현재 위치에 상응하는 영상에 대하여 입력한 특정 인터랙션이 상기 기설정된 조건을 만족하는 경우에 상기 결과정보제공단계(S13)가 수행될 수 있다.On the other hand, when the user's next location or the specific interaction input with respect to the image corresponding to the user's current location in step S12 satisfies the preset condition, the result information providing step (S13) may be performed.

구체적으로 상기 결과정보제공단계(S13)는 사용자의 다음 위치에 대한 영상에 상응하는 결과정보 혹은 사용자가 현재 위치의 영상에 대하여 입력한 특정 인터랙션에 상응하는 결과정보를 사용자에게 제공한다. 한편, 상기 결과정보는 상기 영상트리 상에서 사용자가 입력한 1 이상의 인터랙션 또는 사용자의 다음 위치에 대한 영상에 따른 최종 영상 또는 사용자가 입력한 1 이상의 인터랙션에 대한 분석결과 등을 포함할 수 있고, 상기 결과정보는 사용자에게 별도의 타 서비스를 제공하기 위한 타서비스연결정보를 더 포함할 수 있다.Specifically, the result information providing step (S13) provides the user with result information corresponding to the image of the user's next location or result information corresponding to a specific interaction input by the user with respect to the image of the current location. On the other hand, the result information may include one or more interactions input by the user on the image tree, a final image according to an image of the user's next location, or an analysis result of one or more interactions input by the user, and the like. The information may further include other service connection information for providing a separate other service to the user.

상기 타서비스연결정보는 사용자의 다음 위치에 대한 영상과 연관된 타 서비스 혹은 사용자가 현재 위치의 영상에 대하여 입력한 특정 인터랙션과 연관된 타 서비스를 제공하는 타서비스서버(3000) 혹은 서버시스템(1000)에 포함된 타서비스제공부(1700)에 사용자가 접속할 수 있는 정보에 해당할 수 있다. 예를 들어, 상기 타서비스연결정보는 상기 타서비스서버(3000) 혹은 타서비스제공부(1700)에 접속할 수 있는 링크정보에 해당할 수도 있다.The other service connection information is sent to the other service server 3000 or server system 1000 that provides other services related to the video of the user's next location or other services related to the specific interaction input by the user with respect to the video of the current location. It may correspond to information that allows the user to access the included other service provider 1700 . For example, the other service connection information may correspond to link information for accessing the other service server 3000 or the other service provider 1700 .

도 5는 본 발명의 일 실시예에 따른 사용자인터랙션정보송신단계 및 사용자위치이력송신단계를 개략적으로 도시한다.5 schematically illustrates a user interaction information transmission step and a user location history transmission step according to an embodiment of the present invention.

도 5의 (A)는 본 발명의 일 실시예에 따른 사용자인터랙션정보송신단계를 개략적으로 도시하고, 도 5의 (B)는 본 발명의 일 실시예에 따른 사용자위치이력송신단계를 개략적으로 도시한다.FIG. 5(A) schematically shows a user interaction information transmission step according to an embodiment of the present invention, and FIG. 5(B) schematically shows a user location history transmission step according to an embodiment of the present invention. do.

도 5의 (A)에 도시된 바와 같이, 상기 영상트리에서의 사용자의 위치 혹은 영상에 대한 사용자의 인터랙션에 상응하는 결과정보는 사용자에게 타 서비스를 제공하기 위한 타서비스연결정보를 포함하고, 상기 동영상 인터랙션 플랫폼의 제공방법은, 상기 결과정보제공단계(S13)를 통해 제공된 타서비스연결정보를 통해 사용자가 타 서비스로의 연결을 요청한 경우에, 사용자가 상기 영상트리에서 수행한 1 이상의 영상 각각에 대한 인터랙션을 포함하는 사용자인터랙션정보를 상기 타 서비스를 수행하는 타서비스서버(3000) 혹은 상기 타 서비스를 수행하는 상기 서버시스템(1000)의 내부 구성으로 송신하는 사용자인터랙션정보송신단계;를 더 포함할 수 있다.As shown in (A) of FIG. 5, the result information corresponding to the user's position in the image tree or the user's interaction with the image includes other service connection information for providing other services to the user, and the In the method of providing a video interaction platform, when a user requests a connection to another service through the other service connection information provided through the result information providing step (S13), each of one or more videos performed in the video tree Further comprising a user interaction information transmission step of transmitting user interaction information including an interaction to the other service server 3000 performing the other service or the internal configuration of the server system 1000 performing the other service. can

구체적으로, 사용자는 상기 결과정보제공단계(S13)를 통해 제공받은 결과정보에 포함된 타서비스연결정보를 통해 타 서비스를 제공하는 타서비스서버(3000) 혹은 타서비스제공부(1700)에 접속하여 상기 타 서비스를 요청(S20)하는 경우에, 상기 사용자인터랙션정보송신단계는 사용자가 상기 영상트리에 포함된 1 이상의 영상에 대하여 입력한 1 이상의 인터랙션을 포함하는 사용자인터랙션정보를 도출하고, 상기 사용자인터랙션정보를 사용자가 타 서비스를 요청한 타서비스서버(3000) 혹은 타서비스제공부(1700)로 송신(S21)한다.Specifically, the user accesses the other service server 3000 or other service provider 1700 that provides other services through the other service connection information included in the result information provided through the result information providing step (S13), In the case of requesting the other service (S20), the user interaction information transmitting step derives user interaction information including one or more interactions input by the user with respect to one or more images included in the image tree, and The information is transmitted to the other service server 3000 or other service provider 1700 requested by the user for other services (S21).

상기와 같은 구성을 통해, 사용자에게 타 서비스를 제공하는 타서비스서버(3000) 혹은 타서비스제공부(1700)는 사용자가 요청한 타 서비스를 제공함에 있어서, 사용자가 입력한 인터랙션들을 포함하는 사용자인터랙션정보를 이용하여 사용자 맞춤형 서비스를 제공할 수 있도록 하는 효과를 발휘할 수 있다.Through the above configuration, the other service server 3000 or the other service provider 1700 providing other services to the user provides user interaction information including interactions input by the user in providing other services requested by the user. It is possible to exert the effect of providing user-customized services by using.

한편, 도 5의 (B)에 도시된 바와 같이, 상기 영상트리에서의 사용자의 위치 혹은 영상에 대한 사용자의 인터랙션에 상응하는 결과정보는 사용자에게 타 서비스를 제공하기 위한 타서비스연결정보를 포함하고, 상기 동영상 인터랙션 플랫폼의 제공방법은, 상기 결과정보제공단계(S13)를 통해 제공된 타서비스연결정보를 통해 사용자가 타 서비스로의 연결을 요청한 경우에, 상기 영상트리에서 해당 사용자가 위치했던 1 이상의 위치정보를 상기 타 서비스를 수행하는 타서비스서버(3000) 혹은 상기 타 서비스서버를 수행하는 상기 서버시스템(1000)의 내부 구성으로 송신하는 사용자위치이력송신단계;를 더 포함할 수 있다.On the other hand, as shown in (B) of FIG. 5, the result information corresponding to the user's location in the image tree or the user's interaction with the image includes other service connection information for providing other services to the user. , In the video interaction platform providing method, when a user requests a connection to another service through the other service connection information provided through the result information providing step (S13), one or more information where the user is located in the video tree is requested. A user location history transmission step of transmitting location information to the other service server 3000 performing the other service or the internal configuration of the server system 1000 performing the other service server; may be further included.

구체적으로, 사용자는 상기 결과정보제공단계(S13)를 통해 제공받은 결과정보에 포함된 타서비스연결정보를 사용하여 타 서비스를 제공하는 타 서비스서버 혹은 타 서비스제공부에 접속함으로써 상기 타 서비스를 요청(S20)하는 경우에, 상기 사용자위치이력송신단계는 사용자가 상기 영상트리에서 위치했던 1 이상의 위치정보를 사용자가 타 서비스를 요청한 타서비스서버(3000) 혹은 타서비스제공부(1700)로 송신(S22)한다.Specifically, the user requests the other service by accessing another service server or other service provider that provides other service using the other service connection information included in the result information provided through the result information providing step (S13). In the case of (S20), the user location history transmission step transmits one or more location information where the user was located in the video tree to the other service server 3000 or other service provider 1700 requested by the user for another service ( S22).

본 발명의 다른 실시예에서, 상기 1 이상의 위치정보는 상기 영상트리에서의 1 이상의 사용자의 위치정보뿐만 아니라 사용자가 위치했던 1 이상의 영상에 대한 정보까지 포함할 수도 있다.In another embodiment of the present invention, the one or more location information may include not only location information of one or more users in the image tree, but also information about one or more images where the user is located.

상기와 같은 구성을 통해, 사용자에게 타 서비스를 제공하는 타서비스서버(3000) 혹은 타서비스제공부(1700)는 사용자가 요청한 타 서비스를 제공함에 있어서, 사용자가 영상트리에서 위치했던 1 이상의 위치정보를 이용하여 사용자 맞춤형 서비스를 제공할 수 있도록 하는 효과를 발휘할 수 있다.Through the above configuration, the other service server 3000 or the other service providing unit 1700 that provides other services to the user provides one or more location information where the user was located in the image tree when providing other services requested by the user. It is possible to exert the effect of providing user-customized services by using.

본 발명의 일 실시예에서는 상기 사용자인터랙션정보송신단계 및 상기 사용자위치이력송신단계 가운데 하나의 단계만을 수행하여 타서비스서버(3000) 혹은 타서비스제공부(1700)에 사용자인터랙션정보 및 사용자가 위치했던 1 이상의 위치정보 가운데 하나의 정보만을 제공할 수 있고, 본 발명의 다른 실시예에서는 상기 사용자인터랙션정보송신단계 및 상기 사용자위치이력송신단계를 모두 수행하여 타서비스서버(3000) 혹은 타서비스제공부(1700)에 사용자인터랙션정보 및 사용자가 위치했던 1 이상의 위치정보 모두를 제공할 수도 있다.In an embodiment of the present invention, only one of the user interaction information transmission step and the user location history transmission step is performed to determine whether the user interaction information and the user were located in the other service server 3000 or the other service provider 1700. Only one piece of location information can be provided, and in another embodiment of the present invention, the other service server 3000 or other service provider ( 1700), both user interaction information and one or more location information where the user is located may be provided.

도 6은 본 발명의 일 실시예에 따른 영상에 대하여 사용자가 입력한 인터랙션에 따라 추론정보를 도출하는 과정을 개략적으로 도시한다.6 schematically illustrates a process of deriving inference information according to an interaction input by a user with respect to an image according to an embodiment of the present invention.

도 6에 도시된 바와 같이, 상기 영상정보제공단계(S10)를 통해 영상트리에서의 사용자의 현재 위치에 상응하는 영상을 사용자에게 제공하고, 사용자는 제공받은 영상에 대한 인터랙션을 입력할 수 있고, 상기 위치결정단계(S11)에서는 사용자가 입력한 인터랙션을 기반으로 영상트리에서의 사용자의 다음 위치를 결정할 수 있다.As shown in FIG. 6, the image corresponding to the user's current position in the image tree is provided to the user through the image information providing step (S10), and the user can input an interaction for the provided image, In the position determination step (S11), the user's next position in the image tree may be determined based on the interaction input by the user.

구체적으로, 상기 인터랙션은 영상에 대한 텍스트입력, 음성입력, 얼굴정보입력, 포즈입력, 제스쳐입력 및 배경정보입력 가운데 1 이상을 포함하고, 상기 위치결정단계(S11)는, 상기 인터랙션을 기계학습된 평가모델(1800)에 입력하여 출력된 추론정보 및 상기 영상트리에서의 사용자의 현재 위치에 상응하는 위치조건정보를 적용하여 사용자의 다음 위치를 결정할 수 있다.Specifically, the interaction includes at least one of text input, voice input, face information input, pose input, gesture input, and background information input for an image, and the positioning step (S11) is performed by machine learning the interaction. The user's next location may be determined by applying inference information input and output to the evaluation model 1800 and location condition information corresponding to the user's current location in the image tree.

상기 영상정보제공단계(S10)를 통해 사용자는 영상트리에서의 사용자의 현재 위치에 상응하는 영상을 제공받고, 사용자는 제공받은 영상에 대한 인터랙션을 입력할 수 있다. 구체적으로, 상기 영상정보제공단계(S10)를 통해 사용자에 상응하는 사용자단말에는 사용자의 현재 위치에 상응하는 영상이 재생될 수 있는 인터페이스가 디스플레이되고, 사용자는 상기 인터페이스를 통해 영상에 대한 인터랙션을 입력할 수 있다.Through the image information providing step (S10), the user is provided with an image corresponding to the user's current position in the image tree, and the user can input an interaction for the provided image. Specifically, through the image information providing step (S10), an interface capable of reproducing an image corresponding to the user's current location is displayed on the user terminal corresponding to the user, and the user inputs an interaction with the image through the interface. can do.

상기 인터페이스를 통해 사용자가 입력하는 인터랙션은 텍스트입력, 음성입력, 얼굴정보입력, 포즈입력, 제스쳐입력 및 배경정보입력 가운데 1 이상을 포함할 수 있다. 상기 인터랙션은 사용자에게 제공되는 영상에 대한 사용자의 반응, 답변, 감정 등에 해당할 수 있고, 사용자는 상기 인터페이스 상에서 텍스트, 음성, 얼굴, 포즈 및 배경 가운데 1 이상의 유형을 사용하여 입력하는 것으로 영상에 대한 인터랙션을 부가할 수 있다. 이와 같이, 상기 인터페이스 상에서 사용자가 입력한 인터랙션은 상기 서버시스템(1000)으로 송신될 수 있다. 한편, 상기 얼굴정보입력, 상기 포즈입력, 상기 제스쳐입력 및 상기 배경정보입력은 사용자가 각각 별도로 입력하는 정보에 해당할 수 있으나, 본 발명의 다른 실시예에서 사용자는 상기 얼굴정보입력, 상기 포즈입력, 상기 제스쳐입력 및 상기 배경정보입력이 통합된 형태로 인터랙션을 입력할 수 있다. 예를 들어, 사용자가 자신이 위치한 장소, 자신의 얼굴, 포즈 및 제스쳐가 모두 포함된 이미지 혹은 영상을 인터랙션으로 입력하는 경우에 상기 얼굴정보입력, 상기 포즈입력, 상기 제스쳐입력 및 상기 배경정보입력이 통합된 형태로 입력될 수 있다.The interaction input by the user through the interface may include one or more of text input, voice input, face information input, pose input, gesture input, and background information input. The interaction may correspond to a user's reaction, answer, emotion, etc. to an image provided to the user, and the user inputs using one or more types among text, voice, face, pose, and background on the interface. Interactions can be added. In this way, the interaction input by the user on the interface may be transmitted to the server system 1000 . Meanwhile, the face information input, the pose input, the gesture input, and the background information input may correspond to information separately input by the user, but in another embodiment of the present invention, the user inputs the face information and the pose input. , It is possible to input an interaction in an integrated form of the gesture input and the background information input. For example, when a user inputs an image or video including a place where he is located, his face, a pose, and a gesture as an interaction, the face information input, the pose input, the gesture input, and the background information input It can be entered in an integrated form.

이를 위하여 상기 사용자단말은 상기 인터페이스 상에서 텍스트 입력을 수신하기 위하여 물리적 혹은 가상적 키보드가 구비될 수 있고, 음성 입력을 수신하기 위하여 마이크가 구비될 수 있고, 표정, 포즈 및 제스쳐 입력을 수신하기 위하여 카메라가 구비될 수 있다.To this end, the user terminal may include a physical or virtual keyboard to receive text input on the interface, a microphone to receive voice input, and a camera to receive facial expression, pose, and gesture input. may be provided.

상기 서버시스템(1000)은 사용자가 입력한 영상에 대한 인터랙션을 수신하고, 상기 위치결정단계(S11)는 상기 서버시스템(1000)에 포함된 기계학습된 평가모델(1800)을 사용하여 상기 인터랙션에 대한 추론정보를 도출한다. 이후에 상기 위치결정단계(S11)에서는 인터랙션에 대한 추론정보 및 해당 영상에 대한 판별조건에 기초하여 해당 추론정보가 판별조건에 부합하는지 확인한다. 그 다음으로 상기 위치결정단계(S11)는 상기 판별조건에 상응하는 위치이동조건을 적용하여 사용자의 다음 위치를 결정할 수 있다. 예를 들어, 영상에 대한 인터랙션으로 사용자가 다른 곳을 응시하고 있는 표정을 입력한 경우에, 상기 기계학습된 평가모델(1800)은 상기 인터랙션이 다른 곳을 응시하고 있는 표정이라는 것을 추론하는 추론정보를 도출하고, 상기 위치결정단계(S11)는 해당 추론정보에 상응하는 판별조건이 있는지를 확인한 후에 해당 판별조건에 상응하는 위치이동정보에 따라 사용자의 다음 위치를 결정할 수 있다.The server system 1000 receives an interaction for an image input by a user, and the positioning step (S11) determines the interaction by using the machine-learned evaluation model 1800 included in the server system 1000. Derive inferential information about Afterwards, in the positioning step (S11), it is checked whether the corresponding inference information satisfies the determination condition based on the inference information about the interaction and the determination condition for the corresponding image. Next, in the location determination step (S11), the user's next location may be determined by applying a location movement condition corresponding to the determination condition. For example, when a user inputs a facial expression of gazing at a different place as an interaction with an image, the machine-learned evaluation model 1800 infers that the interaction is a facial expression of gazing at a different place. is derived, and in the location determination step (S11), after confirming whether there is a determination condition corresponding to the inference information, the next position of the user can be determined according to the location movement information corresponding to the determination condition.

구체적으로, 상기 추론정보는 상기 인터랙션에 포함되는 얼굴정보입력을 통해 인식되는 사용자의 표정, 나이, 성별에 대한 추론정보에 해당하거나, 또는 상기 인터랙션에 포함되는 2 이상의 입력을 통해 인식되는 정보에 해당할 수 있다. 예를 들어, 상기 추론정보는 상기 인터랙션에 포함되는 텍스트입력, 음성입력, 얼굴정보입력, 포즈입력, 제스쳐입력 및 배경정보입력 가운데 2 이상의 입력을 통해 인식될 수 있는 사용자의 정신상태, 감정상태, 사용자가 위치한 장소에 대한 추론정보에 해당할 수 있다.Specifically, the inference information corresponds to inference information about the user's facial expression, age, and gender recognized through a face information input included in the interaction, or information recognized through two or more inputs included in the interaction. can do. For example, the reasoning information includes the user's mental state, emotional state, It may correspond to inference information about a place where a user is located.

한편, 본 발명의 다른 실시예에서는, 상기 인터랙션은 영상에 대한 복수의 선택지 가운데 특정 선택지에 대한 선택입력; 및 영상에 대한 텍스트입력, 음성입력, 얼굴정보입력, 포즈입력, 제스쳐입력 및 배경정보입력 가운데 1 이상의 입력;을 포함하고, 상기 위치결정단계는, 상기 특정 선택지에 대한 선택입력, 상기 영상에 대한 텍스트입력, 음성입력, 표정입력, 포즈입력, 제스쳐입력 및 배경정보입력 가운데 1 이상의 입력을 기계학습된 평가모델에 입력하여 출력된 추론정보 및 상기 영상트리에서의 사용자의 현재 위치에 상응하는 위치조건정보를 적용하여 사용자의 다음 위치를 결정할 수 있다.Meanwhile, in another embodiment of the present invention, the interaction may include a selection input for a specific option among a plurality of options for an image; and at least one input of text input, voice input, face information input, pose input, gesture input, and background information input for an image, wherein the positioning step includes a selection input for the specific option, a selection input for the image At least one input among text input, voice input, facial expression input, pose input, gesture input, and background information input is input to the machine learning evaluation model, and the inference information output and the position condition corresponding to the user's current position in the image tree The information can be applied to determine the user's next location.

구체적으로, 사용자가 영상에 대하여 입력하는 인터랙션은 상술한 영상에 대한 텍스트입력, 음성입력, 얼굴정보입력, 포즈입력, 제스쳐입력 및 배경정보입력 가운데 1 이상의 입력뿐만 아니라, 해당 영상에 대하여 사용자에게 제공되는 복수의 선택지 가운데 사용자가 선택한 특정 선택지에 대한 선택입력을 더 포함할 수 있다.Specifically, the interaction input by the user with respect to the image is provided to the user with respect to the corresponding image as well as one or more of the above-described text input, voice input, face information input, pose input, gesture input, and background information input for the image. A selection input for a specific option selected by the user among a plurality of options may be further included.

이를 통해 위치결정단계(S11)는, 상기 특정 선택지에 대한 선택입력 및 상술한 영상에 대한 텍스트입력, 음성입력, 얼굴정보입력, 포즈입력, 제스쳐입력 및 배경정보입력 가운데 1 이상의 입력에 대하여 기계학습된 평가모델(1800)에서 도출된 추론정보에 상응하는 판별조건이 있는 지를 확인한 후에 해당 판별조건에 상응하는 위치이동정보에 따라 사용자의 다음 위치를 결정할 수 있다.Through this, the positioning step (S11) is machine learning for one or more inputs among the selection input for the specific option and the text input, voice input, face information input, pose input, gesture input, and background information input for the above-described image. After confirming whether there is a discrimination condition corresponding to the inference information derived from the evaluated model 1800, the user's next location may be determined according to the location movement information corresponding to the discrimination condition.

예를 들어, 사용자에게 제공되는 영상에 대하여 '선택지 1. 저와 사귀어 주세요.' 및 '선택지 2. 안녕히 가세요.'라는 복수의 선택지가 존재하는 경우에, 사용자는 선택지 1을 선택하고, 추가적으로 얼굴정보입력에 대한 인터랙션을 입력할 수 있다.For example, 'option 1. Get to know me' for the video provided to the user. and 'Option 2. Goodbye', the user may select option 1 and additionally input an interaction for inputting face information.

이때 위치결정단계(S11)에서는 사용자가 선택한 '선택지 1' 및 상기 얼굴정보입력에 대한 기계학습 평가모델(1800)에서의 사용자의 나이에 대한 추론정보에 기초하여, 사용자가 20대인 것으로 추론된 경우에 "저는 연하와 사귀지 않습니다."라는 응답을 하는 영상으로 사용자의 다음 위치를 결정할 수 있고, 반면에 사용자가 30대인 것으로 추론된 경우에 "저도 좋아요."라는 응답을 하는 영상으로 사용자의 다음 위치를 결정할 수 있다.At this time, in the location determination step (S11), when it is inferred that the user is in his twenties based on 'option 1' selected by the user and inference information about the age of the user in the machine learning evaluation model 1800 for the face information input. , the user's next location can be determined by a video that responds "I'm not dating a younger woman", whereas if the user is inferred to be in her 30s, a video that responds "I like it too" can determine the user's next location. can decide

이와 같이, 본 발명에서는 단순히 사용자의 선택에 따라 사용자의 위치가 결정되는 것이 아니라, 사용자가 추가적으로 입력한 텍스트입력, 음성입력, 얼굴정보입력, 포즈입력, 제스쳐입력 및 배경정보입력 가운데 1 이상을 포함하는 인터랙션을 추가적으로 고려하여 사용자의 다음 위치가 결정될 수 있다.As such, in the present invention, the user's location is not simply determined according to the user's selection, but includes at least one of text input, voice input, face information input, pose input, gesture input, and background information input additionally input by the user. The next location of the user may be determined by additionally considering the interaction.

이와 같이, 본 발명에서는 영상에 대하여 기설정된 복수의 선택지 가운데 특정 선택지를 선택하는 것으로 영상트리에서의 사용자의 위치를 이동하는 것뿐만 아니라, 사용자로부터 비정형화된 인터랙션에 대해서도 영상트리를 통해 타 서비스를 제공할 수 있으므로, 사용자가 더욱 흥미있게 본 발명의 동영상 인터랙션 플랫폼을 사용할 수 있도록 한다.As such, in the present invention, by selecting a specific option among a plurality of preset options for a video, the user's position in the video tree is not only moved, but also other services are provided through the video tree for non-standard interactions from the user. can be provided, so that users can use the video interaction platform of the present invention more interestingly.

한편, 상기 기계학습된 평가모델(1800)의 구체적인 실시예에 대해서는 후술하는 도 7 및 도 8에서 설명하도록 한다.Meanwhile, specific embodiments of the machine-learned evaluation model 1800 will be described with reference to FIGS. 7 and 8 to be described later.

도 7은 본 발명의 일 실시예에 따른 피처추출모델의 내부 구성을 개략적으로 도시한다.7 schematically illustrates the internal configuration of a feature extraction model according to an embodiment of the present invention.

도 6에서 상술한 기계학습된 평가모델(1800)은 피처추출모델 및 피처추론모델을 포함할 수 있고, 도 7에 도시된 실시예에 따른 상기 피처추출모델은, 사용자가 입력한 인터랙션의 복수의 프레임의 영상정보로부터 복수의 영상특징정보를 도출하는 공간특징정보를 추출하는 제1딥뉴럴네트워크; 사용자가 입력한 인터랙션의 음성정보로부터 복수의 음성특징정보를 도출하는 공간특징정보를 추출하는 제2딥뉴럴네트워크; 상기 복수의 영상특징정보를 수신하여 제1특징정보를 도출하는 제1순환신경망모듈; 상기 복수의 음성특징정보를 수신하여 제2특징정보를 도출하는 제2순환신경망모듈; 상기 인터랙션의 텍스트정보를 수신하여 제3특징정보를 도출하는 제3순환신경망모듈;을 포함할 수 있다.The machine-learned evaluation model 1800 described above in FIG. 6 may include a feature extraction model and a feature inference model, and the feature extraction model according to the embodiment shown in FIG. A first deep neural network for extracting spatial feature information for deriving a plurality of image feature information from image information of a frame; a second deep neural network for extracting spatial feature information for deriving a plurality of voice feature information from voice information of interaction input by a user; a first recurrent neural network module for receiving the plurality of image feature information and deriving first feature information; a second recurrent neural network module for receiving the plurality of voice feature information and deriving second feature information; A third recurrent neural network module for receiving text information of the interaction and deriving third feature information.

상기 제1딥뉴럴네트워크 및 상기 제2딥뉴럴네트워크는 CNN모듈 등이 이에 해당할 수 있고, 도 7에 도시된 일 실시예에서 상기 제1딥뉴럴네트워크는 제1CNN모듈에 해당하고, 제2딥뉴럴네트워크는 제2CNN모듈에 해당할 수 있다.The first deep neural network and the second deep neural network may correspond to a CNN module or the like. In an embodiment shown in FIG. 7, the first deep neural network corresponds to a first CNN module and a second deep neural network. The neural network may correspond to the second CNN module.

상기 제1순환신경망모듈, 상기 제2순환신경망모듈, 및 상기 제3순환신경망모듈은 RNN모듈, 더 구체적으로는 RNN모듈의 하위 개념에 해당하는 LSTM모듈 등이 이에 해당할 수 있고, 도 7에 도시된 일 실시예에서는 제1순환신경망모듈은 제1LSTM모듈에 해당하고, 제2순환신경망모듈은 제2LSTM모듈에 해당하며, 제3순환신경망모듈은 제3LSTM모듈에 해당할 수 있다.The first recurrent neural network module, the second recurrent neural network module, and the third recurrent neural network module may correspond to an RNN module, more specifically, an LSTM module corresponding to a sub-concept of the RNN module, and the like. In the illustrated embodiment, the first recurrent neural network module may correspond to the first LSTM module, the second recurrent neural network module may correspond to the second LSTM module, and the third recurrent neural network module may correspond to the third LSTM module.

이하에서는 도 7에 도시된 실시예에 기초하여, 본 발명의 일 실시예에 따른 뉴럴네트워크의 동작에 대하여 설명하도록 한다.Hereinafter, the operation of a neural network according to an embodiment of the present invention will be described based on the embodiment shown in FIG. 7 .

상기 복수의 프레임은 기설정된 시간간격으로 영상의 이미지를 분할하여 생성될 수 있다. 또한, 제1CNN모듈에 의하여 도출된 복수의 영상특징정보는 제1LSTM모듈로 시계열 순으로 입력됨이 바람직하다.The plurality of frames may be generated by dividing an image of a video at predetermined time intervals. In addition, it is preferable that the plurality of image feature information derived by the first CNN module be input in time series to the first LSTM module.

한편, 기설정된 시간구간에 대한 음성에 대한 특징정보(피치, 세기 등) 혹은 음성 자체의 데이터는 제2CNN모듈로 입력되고, 제2CNN모듈로부터 도출된 음성특징정보는 제2LSTM모듈로 시계열 순으로 입력됨이 바람직하다. 또한, 상기 음성에 대한 특징정보는 음성의 피치 혹은 세기를 포함할 수 있으나, 바람직하게는 상기 음성을 일정한 구간으로 나누어, 각 구간에 대한 스펙트럼을 Mel Filter Bank를 적용하여 Cepstral 분석을 통해 특징을 추출하는 Mel-Frequency Cepstral Coefficient(MFCC)를 포함할 수 있다.On the other hand, feature information (pitch, intensity, etc.) or voice data for a preset time period is input to the 2nd CNN module, and voice feature information derived from the 2nd CNN module is input in time series to the 2nd LSTM module. It is desirable to be In addition, the feature information on the voice may include the pitch or strength of the voice, but preferably, the voice is divided into certain sections, and features are extracted through Cepstral analysis by applying Mel Filter Bank to the spectrum for each section. It may include a Mel-Frequency Cepstral Coefficient (MFCC) that

상기 피처추출모델이 입력되는 인터랙션의 텍스트정보는 바람직하게 해당 텍스트정보를 토큰단위로 임베딩된 복수의 벡터에 해당될 수 있다.The text information of the interaction into which the feature extraction model is input may preferably correspond to a plurality of vectors in which the corresponding text information is embedded in token units.

한편, 피처추출모델의 출력에 해당하는 특징정보(벡터열)는 상기 제1세부특징정보, 상기 제2세부특징정보 및 상기 제3세부특징정보에 기초하여 도출된다. 가장 간단한 방법으로는 상기 제1세부특징정보, 상기 제2세부특징정보 및 제3세부특징정보를 단순 결합하여 상기 특징정보를 도출할 수 있고, 혹은 상기 제1세부특징정보, 상기 제2세부특징정보 및 상기 제3세부특징정보에 가중치 등을 적용하여 상기 특징정보를 도출할 수도 있다.Meanwhile, feature information (vector train) corresponding to the output of the feature extraction model is derived based on the first detailed feature information, the second detailed feature information, and the third detailed feature information. In the simplest way, the feature information may be derived by simply combining the first detailed feature information, the second detailed feature information, and the third detailed feature information, or the first detailed feature information and the second detailed feature information. The feature information may be derived by applying a weight or the like to information and the third detailed feature information.

또한, 본 발명의 다른 실시예에서 상기 피처추출모델은 사용자가 입력할 수 있는 인터랙션에 유형에 따라 상이하게 구성될 수도 있다. 예를 들어, 사용자가 텍스트, 음성, 영상 모두를 복합적으로 포함하는 인터랙션을 입력할 수 있는 경우에 상기 피처추출모델은 도 7에 도시된 바와 같이, 영상정보에 대한 특징정보를 도출하는 구성요소, 음성정보에 대한 특징정보를 도출하는 구성요소 및 텍스트정보에 대한 특징정보를 도출하는 구성요소 모두를 포함할 수 있다. 한편, 사용자가 텍스트, 음성, 영상 가운데 1 이상의 유형을 사용하여 인터랙션을 입력할 수 있는 경우에 상기 피처추출모델은 해당 유형에 상응하는 구성요소만을 포함할 수도 있다.Also, in another embodiment of the present invention, the feature extraction model may be configured differently according to the type of interaction that can be input by the user. For example, when a user can input an interaction including text, voice, and video in a complex manner, the feature extraction model, as shown in FIG. 7, derives feature information for image information; It may include both a component for deriving feature information for voice information and a component for deriving feature information for text information. Meanwhile, when a user can input an interaction using at least one type among text, voice, and video, the feature extraction model may include only components corresponding to the corresponding type.

도 8은 본 발명의 일 실시예에 따른 피처추론모델의 내부 구성을 개략적으로 도시한다.8 schematically illustrates the internal configuration of a feature inference model according to an embodiment of the present invention.

도 8에 도시된 바와 같이, 피처추론모델은 피처추출모델로부터 도출된 특징정보에 대해 복수의 Fully Connected Layer에 의하여 학습된 가중치를 부여하여 중간결과(Representative Vector)를 도출하는 과정을 수행하여 사용자가 입력한 인터랙션에 대한 결과값을 도출한다. 예를 들어, 상술한 기계학습된 평가모델(1800)은 사용자가 입력한 인터랙션을 분석하여 해당 인터랙션에 대한 추론정보를 도출할 수 있다.As shown in FIG. 8, the feature inference model performs a process of deriving an intermediate result (Representative Vector) by assigning weights learned by a plurality of fully connected layers to the feature information derived from the feature extraction model. Derives the result value for the input interaction. For example, the above-described machine-learned evaluation model 1800 may analyze an interaction input by a user and derive inference information about the interaction.

상기 Fully Connected Layer의 개수는 도 8에 도시된 개수에 한정되지 아니하고, 상기 피처추론모델은 1 이상의 Fully Connected Layer를 포함할 수 있다. 상기 피처추론모델이 단일의 Fully Connected Layer로 이루어진 경우에 상기 중간결과는 생략될 수도 있다.The number of fully connected layers is not limited to the number shown in FIG. 8, and the feature inference model may include one or more fully connected layers. When the feature inference model is composed of a single fully connected layer, the intermediate result may be omitted.

한편, 본 발명의 다른 실시예에서 상기 피처추론모델은 Softmax 활성화 함수를 사용하여 기설정된 판별기준에 따라 분류하도록 하는 문제를 처리하거나 Sigmoid 활성화 함수 등을 이용하여 점수를 도출하는 방식으로 구현될 수도 있다.On the other hand, in another embodiment of the present invention, the feature inference model may be implemented in such a way that a Softmax activation function is used to process the problem of classifying according to a predetermined criterion or a score is derived using a Sigmoid activation function or the like. .

도 9는 본 발명의 일 실시예에 따른 복수의 영상트리가 연결되어 있는 구성을 개략적으로 도시한다.9 schematically illustrates a configuration in which a plurality of image trees are connected according to an embodiment of the present invention.

도 9에 도시된 바와 같이, 상기 위치이동정보는, 상기 판별조건에 따라 사용자가 입력한 인터랙션에 상응하는 영상에서 타 영상으로 해당 사용자의 위치를 이동하는 제1위치이동정보; 및 상기 판별조건에 따라 사용자가 직전에 입력한 인터랙션에 상응하는 영상에 대하여 다시 인터랙션을 입력하도록 하는 제2위치이동정보;를 포함할 수 있다.As shown in FIG. 9 , the location movement information includes first location movement information for moving the user's location from an image corresponding to an interaction input by the user to another image according to the determination condition; and second location movement information for re-inputting an interaction with respect to an image corresponding to an interaction previously input by the user according to the determination condition.

구체적으로, 영상트리에서의 사용자의 인터랙션에 따라 사용자의 위치를 이동하기 위한 정보에 해당하는 위치이동정보는 제1위치이동정보 및 제2위치이동정보를 포함한다. 상기 제1위치이동정보는 영상트리에서의 사용자의 현재 위치에 상응하는 영상에 대하여 사용자가 입력한 인터랙션이 해당 영상의 판별조건에 부합하는 경우, 더 구체적으로 판별조건에 포함되는 특정 세부판별조건에 부합하는 경우에 현재 위치에 상응하는 영상에서 타 영상으로 사용자의 위치를 이동시킬 수 있는 정보에 해당한다.Specifically, the location movement information corresponding to information for moving the user's location according to the user's interaction in the image tree includes first location movement information and second location movement information. The first location movement information is when the interaction input by the user with respect to the image corresponding to the user's current position in the image tree meets the discrimination condition of the corresponding image, and more specifically, to a specific detailed discrimination condition included in the discrimination condition. If it matches, it corresponds to information capable of moving the user's location from the image corresponding to the current location to another image.

한편, 상기 제2위치이동정보는 영상트리에서의 사용자의 현재 위치에 상응하는 영상에 대하여 사용자가 입력한 인터랙션이 해당 영상의 판별조건에 부합하는 경우, 더 구체적으로 판별조건에 포함되는 특정 세부판별조건에 부합하는 경우에 사용자가 직전에 인터랙션했던 영상, 즉 사용자의 현재 위치에 상응하는 영상에 대하여 사용자가 다시 인터랙션을 입력하도록 하는 정보에 해당한다. 이에 따라, 사용자가 현재 위치의 영상에 대하여 입력한 인터랙션이 제2위치이동정보에 상응하는 경우에 상기 서버시스템(1000)은 사용자에게 다시 현재 위치의 영상을 제공함으로써 사용자가 다시 인터랙션을 입력할 수 있도록 하거나, 혹은 다시 인터랙션을 수행하도록 요청하는 별도의 영상을 사용자에게 제공함으로써 다시 사용자가 인터랙션을 입력할 수 있도록 한다.On the other hand, the second location movement information is used to determine specific details included in the determination condition in more detail, when the interaction input by the user with respect to the video corresponding to the user's current position in the video tree meets the determination condition of the corresponding video. When the condition is satisfied, it corresponds to information that allows the user to input an interaction again with respect to an image that the user interacted with immediately before, that is, an image corresponding to the user's current location. Accordingly, when the interaction input by the user with respect to the image of the current location corresponds to the second location movement information, the server system 1000 provides the image of the current location to the user again, so that the user can input the interaction again. or by providing the user with a separate video requesting the user to perform the interaction again, so that the user can input the interaction again.

또한, 도 9에 도시된 바와 같이, 상기 서버시스템(1000)에는 복수의 영상트리가 저장되어 있고, 영상트리의 위치이동정보는, 해당 영상트리에 포함된 영상에 대한 사용자의 인터랙션에 따른 판별조건에 기초하여 타 영상트리에 포함된 특정 영상으로 해당 사용자의 위치를 이동시키는 제3위치이동정보를 포함할 수 있다.In addition, as shown in FIG. 9, a plurality of image trees are stored in the server system 1000, and the location movement information of the image trees is a determination condition according to a user's interaction with the image included in the corresponding image tree. Third location movement information for moving the location of the corresponding user to a specific image included in another image tree based on the image tree may be included.

구체적으로, 위치이동정보는 단일 영상트리 내에서의 사용자의 위치를 결정할 수 있는 것뿐만 아니라, 특정 영상트리에서 타 영상트리의 특정 영상에 상응하는 위치로 사용자의 위치를 이동하기 위한 제3위치이동정보를 더 포함할 수 있다. 즉, 상기 제3위치이동정보는 영상트리에서의 사용자의 현재 위치에 상응하는 영상에 대하여 사용자가 입력한 인터랙션이 해당 영상의 판별조건에 부합하는 경우, 더 구체적으로 판별조건에 포함되는 특정 세부판별조건에 부합하는 경우에 현재 위치에 상응하는 영상에서 타 영상트리에 포함된 특정 영상으로 사용자의 위치를 이동시킬 수 있는 정보에 해당한다.Specifically, the location movement information not only determines the user's location within a single image tree, but also moves the user's location from a specific image tree to a location corresponding to a specific image of another image tree. It may contain more information. That is, the third location movement information is used for specific detailed determination included in the determination condition when the interaction input by the user with respect to the video corresponding to the user's current position in the video tree meets the determination condition of the corresponding video. When the condition is met, it corresponds to information that can move the user's location from the image corresponding to the current location to a specific image included in another image tree.

이와 같이, 본 발명의 위치이동정보는 상술한 제1위치이동정보, 제2위치이동정보 및 제3위치이동정보를 포함하므로, 사용자 위치에 대한 다양한 루트를 설정할 수 있고, 따라서 사용자의 1 이상의 인터랙션에 따른 다양한 타 서비스를 제공할 수 있는 효과를 발휘할 수 있다.As described above, since the location movement information of the present invention includes the above-described first location movement information, second location movement information, and third location movement information, various routes to the user's location can be set, and thus one or more user interactions It is possible to demonstrate the effect of providing various other services according to

도 10은 본 발명의 일 실시예에 따른 영상트리에서 사용자 인터랙션에 따른 사용자의 위치 이동을 개략적으로 도시한다.10 schematically illustrates movement of a user's location according to user interaction in a video tree according to an embodiment of the present invention.

도 10은 상술한 영상트리의 예시적으로 도시한 도면에 해당한다. 도 10에 도시된 영상트리에서 사용자의 현재 위치가 영상 C1에 위치해 있는 경우에 상기 영상정보제공단계(S10)는 사용자에게 영상 C1을 제공하고, 사용자는 영상 C1에 대한 인터랙션을 입력할 수 있다.10 corresponds to an exemplary view of the above-described image tree. In the video tree shown in FIG. 10, when the user's current location is located on the video C1, the video information providing step (S10) provides the video C1 to the user, and the user can input an interaction with the video C1.

도 10의 위치조건정보에 기재된 바와 같이, 사용자는 영상 C1에 대한 다양한 유형의 인터랙션을 입력할 수 있다. 예를 들어, 사용자는 기설정된 복수의 행동 텍스트 가운데 특정 텍스트를 선택하여 인터랙션을 입력하거나, 음성을 발성하여 인터랙션을 입력하거나, 표정 및/또는 포즈를 촬영하여 인터랙션을 입력할 수 있다. 한편, 상기 인터랙션은 다양한 유형 가운데 어느 하나의 유형만을 포함할 수 있으나, 바람직하게는 다양한 유형 가운데 1 이상의 유형을 포함할 수 있다.As described in the location condition information of FIG. 10, the user can input various types of interactions with respect to the image C1. For example, the user may input an interaction by selecting a specific text among a plurality of preset action texts, input an interaction by uttering a voice, or input an interaction by photographing a facial expression and/or a pose. Meanwhile, the interaction may include only one type among various types, but preferably may include one or more types among various types.

상기 위치결정단계(S11)는 사용자가 입력한 인터랙션 및 해당 영상의 위치조건정보에 따라 영상트리에서의 사용자의 다음 위치를 결정한다. 도 10을 예로 들면, 사용자가 영상 C1에 대한 인터랙션으로 특정 행동 텍스트를 선택한 경우에 위치결정단계(S11)는 사용자가 선택한 특정 행동 텍스트에 상응하는 위치이동정보에 따라 사용자의 다음 위치를 영상 C2로 결정한다.In the location determination step (S11), the next location of the user in the image tree is determined according to the interaction input by the user and location condition information of the corresponding image. 10 as an example, when the user selects a specific action text as an interaction with the image C1, the positioning step (S11) moves the user's next position to the image C2 according to the location movement information corresponding to the specific action text selected by the user. Decide.

한편, 사용자가 영상 C1에 대한 인터랙션으로 다른 곳을 응시하는 표정 또는 포즈를 입력한 경우에 위치결정단계(S11)는 기계학습된 평가모델(1800)을 사용하여 해당 인터랙션이 다른 곳을 응시하는 것임을 판별하고, 다른 곳을 응시하는 인터랙션에 상응하는 위치이동정보에 따라 사용자의 다음 위치를 영상 C3으로 결정한다.On the other hand, when the user inputs a facial expression or pose of gazing at a different place as an interaction with the image C1, the positioning step (S11) uses the machine-learned evaluation model 1800 to indicate that the interaction is gazing at a different place. and determine the next location of the user as image C3 according to the location movement information corresponding to the interaction of staring at a different place.

또한, 사용자의 다음 위치가 영상 C3으로 결정되기 위한 위치이동정보가 상술한 제1위치이동정보인 경우에 사용자는 영상 C3에 대한 인터랙션을 입력할 수 있으며, 반면에 위치이동정보가 상술한 제2위치이동정보인 경우에 사용자는 영상 C3을 제공받고, 다시 영상 C1과 관련된 인터랙션을 입력할 수 있다.In addition, when the location movement information for determining the user's next location as the image C3 is the above-described first location movement information, the user can input an interaction for the image C3, whereas the location movement information is the above-described second location movement information. In the case of location movement information, the user may be provided with the image C3 and input an interaction related to the image C1 again.

도 11은 본 발명의 일 실시예에 따른 영상트리생성인터페이스(1610)를 개략적으로 도시한다.11 schematically illustrates an image tree creation interface 1610 according to an embodiment of the present invention.

도 11에 도시된 바와 같이, 상기 동영상 인터랙션 플랫폼의 제공방법은, 사용자의 요청에 따라 복수의 영상을 수신하고, 각 영상에 대한 위치조건정보 및 결과정보의 설정을 입력받는 영상트리생성인터페이스(1610)를 상기 사용자에게 제공하는 제작빌더제공단계;를 더 포함할 수 있다.As shown in FIG. 11, the method of providing the video interaction platform includes a video tree creation interface (1610) that receives a plurality of videos according to a user's request and receives location condition information and result information settings for each video. It may further include; a manufacturing builder providing step of providing a) to the user.

구체적으로, 본 발명의 동영상 인터랙션 플랫폼은 서버시스템(1000)에 기저장된 영상트리를 사용자에게 제공하는 것뿐만 아니라, 서버시스템(1000)에서 수행하는 제작빌더제공단계를 통해 사용자의 요청에 따라 사용자가 직접 영상트리를 생성할 수 있는 영상트리생성인터페이스(1610)를 제공할 수 있다.Specifically, the video interaction platform of the present invention not only provides the user with a video tree pre-stored in the server system 1000, but also provides the user with the user's request through the production builder providing step performed in the server system 1000. An image tree creation interface 1610 capable of directly generating an image tree may be provided.

도 11에 도시된 바와 같이 영상트리생성인터페이스(1610)는 영상트리의 생성을 요청한 사용자의 사용자단말에 디스플레이 되고, 상기 영상트리생성인터페이스(1610)는 영상트리를 설정하기 위한 다양한 요소들을 입력할 수 있는 영역들을 포함할 수 있다.As shown in FIG. 11, the image tree creation interface 1610 is displayed on the user terminal of the user who requested the creation of the image tree, and the image tree creation interface 1610 can input various elements for setting the image tree. areas may be included.

상기 영상트리생성인터페이스(1610)는 영상업로드영역(1611), 영상재생영역(1612), 판별조건설정영역(1613), 위치이동정보설정영역(1614) 및 영상트리미리보기영역(1615)을 포함할 수 있다. 상기 영상업로드영역(1611)은 영상트리에 포함되는 복수의 영상을 업로드할 수 있는 영역에 해당한다. 사용자는 상기 영상업로드영역(1611)을 통해 복수의 영상을 업로드하고, 업로드된 특정 영상(도 11에서는 영상#1)을 선택하는 경우에, 상기 영상트리생성인터페이스(1610)에서 특정 영상에 대한 판별조건 및 위치이동정보를 설정할 수 있다.The image tree creation interface 1610 includes an image upload area 1611, a video playback area 1612, a determination condition setting area 1613, a location movement information setting area 1614, and an image tree preview area 1615. can do. The image upload area 1611 corresponds to an area where a plurality of images included in the image tree can be uploaded. When a user uploads a plurality of images through the image upload area 1611 and selects a specific uploaded image (image #1 in FIG. 11), the image tree creation interface 1610 determines a specific image Conditions and location movement information can be set.

상기 영상재생영역(1612)은 상기 영상업로드영역(1611)에서 사용자가 선택한 특정 영상을 확인할 수 있는 영역에 해당하며, 사용자가 상기 영상재생영역(1612)에 포함된 재생엘리먼트를 선택하는 경우에 해당 영상은 상기 영상재생영역(1612)에서 재생될 수 있다.The video playback area 1612 corresponds to an area where a user can check a specific video selected in the video upload area 1611, and corresponds to a case where the user selects a playback element included in the video playback area 1612. Images can be reproduced in the image play area 1612 .

상기 판별조건설정영역(1613)은 선택된 영상에 대한 판별조건을 설정할 수 있는 영역에 해당한다. 사용자는 상기 판별조건설정영역(1613)에서 해당 영상에 대하여 사용자가 입력하는 인터랙션에 대한 판별조건, 구체적으로 상기 판별조건에 포함되는 1 이상의 세부판별조건을 설정할 수 있다. 예를 들어, 도 11에 도시된 바와 같이, 점심을 먹었는지 묻는 영상에 대한 세부판별조건으로 해당 영상트리를 생성하고자 하는 사용자는 점심을 먹었다는 긍정적 인터랙션에 대한 세부판별조건(도 11의 a) 및 점심을 먹지 않았다는 부정적 인터랙션에 대한 세부판별조건(도 11의 b)을 상기 판별조건설정영역(1613) 상에서 설정할 수 있다.The determination condition setting area 1613 corresponds to an area in which determination conditions for a selected image can be set. In the determination condition setting area 1613, the user can set a determination condition for an interaction input by the user with respect to the corresponding image, specifically one or more detailed determination conditions included in the determination condition. For example, as shown in FIG. 11, a user who wants to create a corresponding image tree as a detailed discriminant condition for an image asking if she ate lunch has a detailed discriminant condition for a positive interaction (a in FIG. 11) and A detailed discrimination condition (b in FIG. 11 ) for the negative interaction of not eating lunch can be set on the discrimination condition setting area 1613 .

상기 위치이동정보설정영역(1614)은 사용자가 입력한 영상에 대한 인터랙션이 특정 세부판별조건을 만족하는 경우에 사용자의 다음 위치를 결정하기 위한 위치이동정보를 설정할 수 있는 영역에 해당한다. 사용자는 해당 영상에 대한 세부판별조건별로 사용자의 다음 위치에 해당하는 영상을 설정하는 것으로 위치이동정보를 설정할 수 있다. 예를 들어, 도 11에 도시된 바와 같이, 영상트리를 생성하는 사용자는, 영상#1에 대하여 생성하고자 하는 영상트리를 이용하는 이용자가 입력한 인터랙션이 긍정적 인터랙션에 대한 세부판별조건에 부합하는 경우에 영상#2에 해당하는 위치로 이용자의 다음 위치를 결정하기 위한 위치이동정보를 설정할 수 있고, 이용자가 입력한 인터랙션이 부정적 인터랙션에 대한 세부판별조건에 부합하는 경우에 영상#4에 해당하는 위치로 이용자의 다음 위치를 결정하기 위한 위치이동정보를 설정할 수 있다. 또한, 상기 위치이동정보설정영역(1614)에서는 생성하고자 하는 영상트리에서의 세부판별조건에 상응하는 다음 위치로써 사용자에게 결과정보를 제공하는 것으로 설정할 수 있다. 예를 들어, 사용자가 입력한 인터랙션이 특정 세부판별조건을 만족하는 경우에, 영상트리에서 입력한 사용자의 1 이상의 인터랙션 및/또는 영상트리에서의 사용자가 위치 이력에 따른 최종결과 또는 영상트리에서 입력한 사용자의 1 이상의 인터랙션 및/또는 영상트리에서의 사용자가 위치 이력에 따른 타 서비스를 제공하기 위한 타서비스연결정보를 포함하는 결과정보를 사용자에게 제공하는 것으로 설정할 수도 있다.The location movement information setting area 1614 corresponds to an area in which location movement information for determining the user's next location can be set when the interaction with the image input by the user satisfies a specific detailed determination condition. The user may set the location movement information by setting an image corresponding to the user's next location for each detailed discrimination condition for the corresponding image. For example, as shown in FIG. 11, when a user creating a video tree meets the detailed discrimination condition for a positive interaction, the interaction input by the user using the video tree to be created for video #1 is met. Location movement information for determining the user's next location can be set to the location corresponding to image #2, and when the interaction entered by the user meets the detailed discrimination condition for negative interaction, the location corresponding to image #4 Location movement information for determining the user's next location may be set. In addition, in the location movement information setting area 1614, it can be set to provide result information to the user as the next location corresponding to the detailed discrimination condition in the image tree to be created. For example, when an interaction input by a user satisfies a specific detailed discrimination condition, one or more interactions of a user input in the video tree and/or a final result according to the location history of the user in the video tree or an input in the video tree It may be set to provide the user with result information including other service connection information for providing other services according to one or more interactions of one user and/or location history of the user in the image tree.

상기 영상트리미리보기영역(1615)은 사용자가 상기 영상트리생성인터페이스(1610)를 통해 설정한 혹은 설정 중에 있는 영상트리의 전체적인 형태가 시각적으로 도식화되어 표시되는 영역에 해당한다. 따라서 사용자는 상기 영상트리미리보기영역(1615)을 통해 생성하고자 하는 영상트리를 효과적으로 검토할 수 있다.The image tree preview area 1615 corresponds to an area in which the overall shape of the image tree set or being set by the user through the image tree creation interface 1610 is visually schematized and displayed. Therefore, the user can effectively review the image tree to be created through the image tree preview area 1615.

도 12는 본 발명의 일 실시예에 따른 타 서비스가 제공되는 과정을 개략적으로 도시한다.12 schematically illustrates a process of providing other services according to an embodiment of the present invention.

도 12에 도시된 바와 같이, 상기 영상트리에서의 사용자의 위치 혹은 영상에 대한 사용자의 인터랙션에 상응하는 결과정보는 사용자에게 타 서비스를 제공하기 위한 타서비스연결정보를 포함하고, 상기 결과정보제공단계(S13)에서 제공되는 타서비스연결정보와 연결되는 타 서비스는, 별도의 기계학습된 평가모델을 통해 사용자의 인터랙션에 대한 응답정보를 도출하고, 상기 응답정보에 따라 발화하는 오브젝트(1710)를 사용자에게 제공할 수 있다.As shown in FIG. 12, the result information corresponding to the user's position in the image tree or the user's interaction with the image includes other service connection information for providing other services to the user, and the result information providing step The other service connected to the other service connection information provided in (S13) derives response information for the user's interaction through a separate machine-learned evaluation model, and creates an object 1710 that is ignited according to the response information to the user. can be provided to

본 발명의 일 실시예에서 영상트리를 통해 사용자에게 제공되는 타 서비스는 전문가와의 비대면 상담이나, 기설정된 컨텐츠를 제공하는 것으로 구현될 수 있으나, 바람직하게는 상기 타 서비스는 AI 휴먼과 같이, 사용자와의 인터랙션에 따라 응답정보를 생성하고, 상기 응답정보에 따라 발화하는 오브젝트(1710)를 사용자에게 제공하는 형태로 구현될 수 있다.In one embodiment of the present invention, other services provided to the user through the image tree may be implemented as non-face-to-face consultation with experts or provision of preset content, but preferably, the other services, such as AI human, Response information may be generated according to the interaction with the user, and an object 1710 ignited according to the response information may be provided to the user.

이에 따라, 상기 타 서비스를 제공하는 타서비스서버(3000) 또는 서버시스템(1000)에 포함되는 타서비스제공부(1700)는 타 서비스를 제공받는 사용자가 입력한 질문에 대한 답변 등에 대한 인터랙션을 추론하기 위하여 별도의 기계학습된 평가모델을 사용할 수 있고, 상기 기계학습된 평가모델을 통해 도출된 추론정보에 따라 사용자가 입력한 인터랙션에 대응하는 텍스트 형태의 응답정보를 도출할 수 있다. 이어서 상기 타서비스서버(3000) 또는 상기 타서비스제공부(1700)는 도출된 응답정보를 오브젝트(1710)를 통해 사용자에게 제공할 수 있다.Accordingly, the other service server 3000 providing the other service or the other service provider 1700 included in the server system 1000 infers the interaction for the answer to the question input by the user receiving the other service. To do this, a separate machine-learned evaluation model can be used, and text-type response information corresponding to the interaction input by the user can be derived according to inference information derived through the machine-learned evaluation model. Subsequently, the other service server 3000 or the other service provider 1700 may provide the derived response information to the user through the object 1710.

구체적으로, 상기 오브젝트(1710)는 단순히 텍스트 형태의 응답정보 그대로를 표시하는 형태로 구현될 수 있고, 상기 타서비스서버(3000) 또는 상기 타서비스제공부(1700)는 상기 응답정보를 음성형태로 변환하고, 음성으로 변환된 응답정보를 오브젝트(1710)를 통해 오디오 형태로 사용자에게 제공하는 형태로 구현될 수 있다.Specifically, the object 1710 may simply be implemented in a form of displaying response information in text form as it is, and the other service server 3000 or the other service provider 1700 converts the response information into a voice form. It can be implemented in a form of converting and providing the response information converted to voice to the user in the form of audio through the object 1710.

바람직하게는 상기 타서비스서버(3000) 또는 상기 타서비스제공부(1700)는 상기 응답정보를 음성형태로 변환하고, 음성으로 변환된 응답정보에 기초하여 상기 오브젝트(1710)가 자연스럽게 발화하도록 하는 얼굴움직임정보를 도출함으로써, 상기 음성으로 변환된 응답정보 및 상기 얼굴움직임정보에 따라 상기 오브젝트(1710)가 얼굴의 표정이 변화하면서 상기 음성으로 변환된 응답정보를 발화하는 형태로 구현될 수 있다. 한편, 이와 같은 형태로 구현되는 경우에 상기 오브젝트(1710)는 인간의 외형, 또는 얼굴 형태를 가질 수 있다. 또한, 상기 타서비스서버(3000) 또는 상기 타서비스제공부(1700)는 텍스트 형태의 응답정보를 음성 형태로 변환하기 위한 Text to Speech(TTS) 모듈 및 음성 형태로 변환된 응답정보에 따라 오브젝트(1710)의 얼굴 움직임을 생성하기 위한 Speech to Face 모듈을 포함할 수 있다. 한편, 상기 TTS 모듈 및 Speech to Face 모듈은 종래에 사용되는 다양한 방법으로 구현될 수 있다.Preferably, the other service server 3000 or the other service provider 1700 converts the response information into a voice form and causes the object 1710 to speak naturally based on the response information converted into voice. By deriving motion information, the object 1710 may utter the response information converted into voice while the expression of the face changes according to the response information converted into voice and the facial movement information. Meanwhile, when implemented in this form, the object 1710 may have a human appearance or face shape. In addition, the other service server 3000 or the other service provider 1700 is a Text to Speech (TTS) module for converting text-type response information into voice form and an object ( 1710) may include a Speech to Face module for generating facial movements. Meanwhile, the TTS module and the Speech to Face module may be implemented in various conventional methods.

이와 같이, 타서비스서버(3000) 또는 타서비스제공부(1700)에서 사용자에게 제공하는 타 서비스는 사용자의 인터랙션에 따라 발화하는 오브젝트(1710)를 통해 구현되므로, 사용자 맞춤형 서비스를 제공할 수 있고, 사용자의 흥미를 유발할 수 있는 효과를 발휘할 수 있다.In this way, since other services provided to the user by the other service server 3000 or the other service provider 1700 are implemented through the object 1710 that fires according to the user's interaction, user-customized services can be provided, An effect capable of arousing user interest may be exerted.

도 13은 본 발명의 일 실시예에 따른 컴퓨팅장치의 내부 구성을 개략적으로 도시한다.13 schematically illustrates the internal configuration of a computing device according to an embodiment of the present invention.

상술한 도 1에 도시된 서버시스템(1000)은 상기 도 13에 도시된 컴퓨팅장치(11000)의 구성요소들을 포함할 수 있다.The server system 1000 shown in FIG. 1 may include components of the computing device 11000 shown in FIG. 13 .

도 13에 도시된 바와 같이, 컴퓨팅장치(11000)는 적어도 하나의 프로세서(processor)(11100), 메모리(memory)(11200), 주변장치 인터페이스(peripheral interface)(11300), 입/출력 서브시스템(I/O subsystem)(11400), 전력 회로(11500) 및 통신 회로(11600)를 적어도 포함할 수 있다. 이때, 컴퓨팅장치(11000)는 도 1에 도시된 서버시스템(1000)에 해당될 수 있다.As shown in FIG. 13, a computing device 11000 includes at least one processor 11100, a memory 11200, a peripheral interface 11300, an input/output subsystem ( It may include at least an I/O subsystem (11400), a power circuit (11500), and a communication circuit (11600). In this case, the computing device 11000 may correspond to the server system 1000 shown in FIG. 1 .

메모리(11200)는 일례로 고속 랜덤 액세스 메모리(high-speed random access memory), 자기 디스크, 에스램(SRAM), 디램(DRAM), 롬(ROM), 플래시 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(11200)는 컴퓨팅장치(11000)의 동작에 필요한 소프트웨어 모듈, 명령어 집합 또는 그 밖에 다양한 데이터를 포함할 수 있다.The memory 11200 may include, for example, high-speed random access memory, magnetic disk, SRAM, DRAM, ROM, flash memory, or non-volatile memory. . The memory 11200 may include a software module, a command set, or other various data necessary for the operation of the computing device 11000.

이때, 프로세서(11100)나 주변장치 인터페이스(11300) 등의 다른 컴포넌트에서 메모리(11200)에 액세스하는 것은 프로세서(11100)에 의해 제어될 수 있다.In this case, access to the memory 11200 from other components, such as the processor 11100 or the peripheral device interface 11300, may be controlled by the processor 11100.

주변장치 인터페이스(11300)는 컴퓨팅장치(11000)의 입력 및/또는 출력 주변장치를 프로세서(11100) 및 메모리 (11200)에 결합시킬 수 있다. 프로세서(11100)는 메모리(11200)에 저장된 소프트웨어 모듈 또는 명령어 집합을 실행하여 컴퓨팅장치(11000)을 위한 다양한 기능을 수행하고 데이터를 처리할 수 있다.Peripheral interface 11300 may couple input and/or output peripherals of computing device 11000 to processor 11100 and memory 11200 . The processor 11100 may execute various functions for the computing device 11000 and process data by executing software modules or command sets stored in the memory 11200 .

입/출력 서브시스템은 다양한 입/출력 주변장치들을 주변장치 인터페이스(11300)에 결합시킬 수 있다. 예를 들어, 입/출력 서브시스템은 모니터나 키보드, 마우스, 프린터 또는 필요에 따라 터치스크린이나 센서 등의 주변장치를 주변장치 인터페이스(11300)에 결합시키기 위한 컨트롤러를 포함할 수 있다. 다른 측면에 따르면, 입/출력 주변장치들은 입/출력 서브시스템을 거치지 않고 주변장치 인터페이스(11300)에 결합될 수도 있다.The input/output subsystem can couple various input/output peripherals to peripheral interface 11300. For example, the input/output subsystem may include a controller for coupling a peripheral device such as a monitor, keyboard, mouse, printer, or touch screen or sensor to the peripheral device interface 11300 as needed. According to another aspect, input/output peripherals may be coupled to the peripheral interface 11300 without going through the input/output subsystem.

전력 회로(11500)는 단말기의 컴포넌트의 전부 또는 일부로 전력을 공급할 수 있다. 예를 들어 전력 회로(11500)는 전력 관리 시스템, 배터리나 교류(AC) 등과 같은 하나 이상의 전원, 충전 시스템, 전력 실패 감지 회로(power failure detection circuit), 전력 변환기나 인버터, 전력 상태 표시자 또는 전력 생성, 관리, 분배를 위한 임의의 다른 컴포넌트들을 포함할 수 있다.The power circuit 11500 may supply power to all or some of the terminal's components. For example, power circuit 11500 may include a power management system, one or more power sources such as a battery or alternating current (AC), a charging system, a power failure detection circuit, a power converter or inverter, a power status indicator or power It may contain any other components for creation, management and distribution.

통신 회로(11600)는 적어도 하나의 외부 포트를 이용하여 다른 컴퓨팅장치와 통신을 가능하게 할 수 있다.The communication circuit 11600 may enable communication with another computing device using at least one external port.

또는 상술한 바와 같이 필요에 따라 통신 회로(11600)는 RF 회로를 포함하여 전자기 신호(electromagnetic signal)라고도 알려진 RF 신호를 송수신함으로써, 다른 컴퓨팅장치와 통신을 가능하게 할 수도 있다.Alternatively, as described above, the communication circuit 11600 may include an RF circuit and transmit/receive an RF signal, also known as an electromagnetic signal, to enable communication with other computing devices.

이러한 도 13의 실시예는, 컴퓨팅장치(11000)의 일례일 뿐이고, 컴퓨팅장치(11000)는 도 13에 도시된 일부 컴포넌트가 생략되거나, 도 13에 도시되지 않은 추가의 컴포넌트를 더 구비하거나, 2개 이상의 컴포넌트를 결합시키는 구성 또는 배치를 가질 수 있다. 예를 들어, 모바일 환경의 통신 단말을 위한 컴퓨팅장치는 도 13에 도시된 컴포넌트들 외에도, 터치스크린이나 센서 등을 더 포함할 수도 있으며, 통신 회로(11600)에 다양한 통신방식(WiFi, 3G, LTE, Bluetooth, NFC, Zigbee 등)의 RF 통신을 위한 회로가 포함될 수도 있다. 컴퓨팅장치(11000)에 포함 가능한 컴포넌트들은 하나 이상의 신호 처리 또는 어플리케이션에 특화된 집적 회로를 포함하는 하드웨어, 소프트웨어, 또는 하드웨어 및 소프트웨어 양자의 조합으로 구현될 수 있다.The embodiment of FIG. 13 is just one example of the computing device 11000, and the computing device 11000 may omit some components shown in FIG. 13, further include additional components not shown in FIG. 13, or 2 It may have a configuration or arrangement combining two or more components. For example, a computing device for a communication terminal in a mobile environment may further include a touch screen or a sensor in addition to the components shown in FIG. , Bluetooth, NFC, Zigbee, etc.) may include a circuit for RF communication. Components that may be included in the computing device 11000 may be implemented as hardware including one or more signal processing or application-specific integrated circuits, software, or a combination of both hardware and software.

본 발명의 실시예에 따른 방법들은 다양한 컴퓨팅장치를 통하여 수행될 수 있는 프로그램 명령(instruction) 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 특히, 본 실시예에 따른 프로그램은 PC 기반의 프로그램 또는 모바일 단말 전용의 어플리케이션으로 구성될 수 있다. 본 발명이 적용되는 어플리케이션은 파일 배포 시스템이 제공하는 파일을 통해 컴퓨팅장치(11000)에 설치될 수 있다. 일 예로, 파일 배포 시스템은 컴퓨팅장치(11000)의 요청에 따라 상기 파일을 전송하는 파일 전송부(미도시)를 포함할 수 있다.Methods according to embodiments of the present invention may be implemented in the form of program instructions that can be executed through various computing devices and recorded in computer readable media. In particular, the program according to the present embodiment may be composed of a PC-based program or a mobile terminal-specific application. An application to which the present invention is applied may be installed in the computing device 11000 through a file provided by a file distribution system. For example, the file distribution system may include a file transmission unit (not shown) that transmits the file according to a request of the computing device 11000 .

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented as a hardware component, a software component, and/or a combination of hardware components and software components. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA) , a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. The processing device may run an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로 (collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨팅장치 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. You can command the device. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or to provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed on networked computing devices and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program commands recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

본 발명의 일 실시예에 따르면, 동영상을 기반으로 하는 영상트리를 사용자에게 제공함으로써, 사용자의 서비스 참여에 대한 흥미를 유발할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, by providing a video tree based on a video to a user, it is possible to exert an effect of arousing interest in service participation of the user.

본 발명의 일 실시예에 따르면, 영상트리의 최종단계에서 사용자에게 타 서비스를 제공하는 타서비스서버 혹은 서버시스템의 타서비스제공부에 영상트리에서의 사용자의 1 이상의 위치 혹은 사용자인터랙션정보를 제공하므로, 사용자에게 더욱 적합한 타 서비스를 제공할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, at the final stage of the video tree, one or more positions of the user in the video tree or user interaction information is provided to another service server or other service providing unit of the server system that provides other services to the user. However, it can exert an effect of providing other services that are more suitable for users.

본 발명의 일 실시예에 따르면, 영상트리를 통해 사용자에게 타 서비스를 제공하고, 사용자가 타 서비스를 제공받아 도출된 서비스결과정보가 영상트리의 특정 영상과 연결되어 있으므로, 사용자에게 다양한 형태의 서비스를 제공할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, since other services are provided to users through a video tree, and service result information derived by the user receiving other services is connected to a specific video in the video tree, various types of services are provided to users. can exert the effect that can provide.

본 발명의 일 실시예에 따르면, 영상트리의 영상에 대하여 사용자는 다양한 인터랙션을 입력할 수 있고, 사용자의 인터랙션을 기계학습된 평가모델에 입력하여 판별조건을 도출할 수 있으므로, 기설정된 선택지를 선택하는 종래의 방법과 비교하여 사용자의 흥미를 유발함과 동시에 사용자에게 더욱 정확한 타 서비스를 제공할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, the user can input various interactions with respect to the images of the image tree, and since the user's interactions can be input to the machine-learned evaluation model to derive the discrimination condition, a preset option is selected. Compared to the conventional method of doing so, it is possible to exert an effect of arousing the user's interest and at the same time providing more accurate other services to the user.

본 발명의 일 실시예에 따르면, 사용자에게 영상트리생성인터페이스를 제공하여 사용자가 직접 영상트리를 구축할 수 있으므로, 동영상 인터랙션 플랫폼을 활성화할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, since a video tree creation interface is provided to a user so that the user can directly build a video tree, an effect of activating a video interaction platform can be exerted.

본 발명의 일 실시예에 따르면, 영상트리의 영상에 대한 사용자의 인터랙션에 따라 타 영상트리의 특정 영상으로 사용자의 위치가 이동될 수 있으므로, 복수의 영상트리가 연계되어 사용자에게 다양한 타 서비스를 제공할 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, since the user's position can be moved to a specific video of another video tree according to the user's interaction with the video of the video tree, a plurality of video trees are linked to provide various other services to the user. You can exert the effect you can.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, those skilled in the art can make various modifications and variations from the above description. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.

Claims (11)

서버시스템에서 수행하는 동영상 인터랙션 플랫폼의 제공방법으로서,
상기 서버시스템에는 영상트리에 대한 복수의 영상 혹은 복수의 영상을 생성하기 위한 기초데이터를 포함하는 영상정보, 각 영상에 대한 사용자의 인터랙션을 판별하기 위한 판별조건 및 상기 판별조건에 따른 위치 이동에 대한 위치이동정보를 포함하는 위치조건정보, 및 상기 영상트리에서의 사용자의 위치 혹은 영상에 대한 사용자의 인터랙션에 상응하는 결과정보가 저장되어 있고, 상기 영상트리에서의 사용자의 위치는 해당 사용자의 영상에 대한 인터랙션에 따라 이동될 수 있고,
상기 동영상 인터랙션 플랫폼의 제공방법은,
상기 영상트리에서의 사용자의 현재 위치에 해당하는 영상을 사용자에게 제공하는 영상정보제공단계;
상기 영상정보제공단계를 통해 제공된 영상에 대한 사용자의 인터랙션에 대하여 상기 영상트리에서의 사용자의 현재 위치에 상응하는 위치조건정보를 적용하여 사용자의 다음 위치를 결정하는 위치결정단계; 및
사용자의 위치 혹은 1 이상의 영상에 대한 사용자의 인터랙션이 기설정된 조건에 상응하는 경우에 결과정보를 사용자에게 제공하는 결과정보제공단계;를 포함하는, 동영상 인터랙션 플랫폼의 제공방법.
As a method of providing a video interaction platform performed in a server system,
The server system includes a plurality of images for a video tree or image information including basic data for generating a plurality of images, a determination condition for determining a user's interaction with each image, and a location movement according to the determination condition. Location condition information including location movement information and result information corresponding to the user's location in the image tree or the user's interaction with the image are stored, and the user's location in the image tree corresponds to the corresponding user's image. It can be moved according to the interaction with
The method of providing the video interaction platform,
an image information providing step of providing a user with an image corresponding to the user's current position in the image tree;
a positioning step of determining the user's next position by applying position condition information corresponding to the user's current position in the image tree to the user's interaction with the image provided through the image information providing step; and
Result information providing step of providing result information to the user when the user's location or user's interaction with one or more images corresponds to a preset condition;
청구항 1에 있어서,
상기 영상트리에서의 사용자의 위치 혹은 영상에 대한 사용자의 인터랙션에 상응하는 결과정보는 사용자에게 타 서비스를 제공하기 위한 타서비스연결정보를 포함하고,
상기 동영상 인터랙션 플랫폼의 제공방법은,
상기 결과정보제공단계를 통해 제공된 타서비스연결정보를 통해 사용자가 타 서비스로의 연결을 요청한 경우에, 사용자가 상기 영상트리에서 수행한 1 이상의 영상 각각에 대한 인터랙션을 포함하는 사용자인터랙션정보를 상기 타 서비스를 수행하는 타서비스서버 혹은 상기 타 서비스를 수행하는 상기 서버시스템의 내부 구성으로 송신하는 사용자인터랙션정보송신단계;를 더 포함하는, 동영상 인터랙션 플랫폼의 제공방법.
The method of claim 1,
The result information corresponding to the user's position in the image tree or the user's interaction with the image includes other service connection information for providing other services to the user,
The method of providing the video interaction platform,
When a user requests a connection to another service through the other service connection information provided through the result information providing step, user interaction information including interactions with each of one or more videos performed in the video tree is transmitted to the other service. A method of providing a video interaction platform, further comprising: transmitting user interaction information to another service server performing a service or an internal configuration of the server system performing the other service.
청구항 1에 있어서,
상기 영상트리에서의 사용자의 위치 혹은 영상에 대한 사용자의 인터랙션에 상응하는 결과정보는 사용자에게 타 서비스를 제공하기 위한 타서비스연결정보를 포함하고,
상기 동영상 인터랙션 플랫폼의 제공방법은,
상기 결과정보제공단계를 통해 제공된 타서비스연결정보를 통해 사용자가 타 서비스로의 연결을 요청한 경우에, 상기 영상트리에서 해당 사용자가 위치했던 1 이상의 위치정보를 상기 타 서비스를 수행하는 타서비스서버 혹은 상기 타 서비스서버를 수행하는 상기 서버시스템의 내부 구성으로 송신하는 사용자위치이력송신단계;를 더 포함하는, 동영상 인터랙션 플랫폼의 제공방법.
The method of claim 1,
The result information corresponding to the user's position in the image tree or the user's interaction with the image includes other service connection information for providing other services to the user,
The method of providing the video interaction platform,
When a user requests a connection to another service through the other service connection information provided through the result information providing step, one or more location information where the corresponding user is located in the image tree is sent to the other service server that performs the other service or The method of providing a video interaction platform, further comprising; transmitting the user location history to the internal configuration of the server system that performs the other service server.
청구항 1에 있어서,
상기 영상트리에서의 사용자의 위치 혹은 영상에 대한 사용자의 인터랙션에 상응하는 결과정보는 사용자에게 타 서비스를 제공하기 위한 타서비스연결정보를 포함하고,
상기 영상트리에 포함된 특정 영상은, 상기 사용자가 상기 타 서비스를 수행하여 획득한 서비스결과정보와 연결되어 있는, 동영상 인터랙션 플랫폼의 제공방법.
The method of claim 1,
The result information corresponding to the user's position in the image tree or the user's interaction with the image includes other service connection information for providing other services to the user,
The method of providing a video interaction platform, wherein the specific video included in the video tree is connected to service result information obtained by the user performing the other service.
청구항 1에 있어서,
상기 인터랙션은 영상에 대한 텍스트입력, 음성입력, 얼굴정보입력, 포즈입력, 제스쳐입력 및 배경정보입력 가운데 1 이상을 포함하고,
상기 위치결정단계는, 상기 인터랙션을 기계학습된 평가모델에 입력하여 출력된 추론정보 및 상기 영상트리에서의 사용자의 현재 위치에 상응하는 위치조건정보를 적용하여 사용자의 다음 위치를 결정하는, 동영상 인터랙션 플랫폼의 제공방법.
The method of claim 1,
The interaction includes at least one of text input, voice input, face information input, pose input, gesture input, and background information input for an image,
In the positioning step, the next position of the user is determined by applying inference information output by inputting the interaction to a machine-learned evaluation model and position condition information corresponding to the current position of the user in the image tree. How the platform is provided.
청구항 1에 있어서,
상기 인터랙션은 영상에 대한 복수의 선택지 가운데 특정 선택지에 대한 선택입력; 및 영상에 대한 텍스트입력, 음성입력, 얼굴정보입력, 포즈입력, 제스쳐입력 및 배경정보입력 가운데 1 이상의 입력;을 포함하고,
상기 위치결정단계는, 상기 특정 선택지에 대한 선택입력, 상기 영상에 대한 텍스트입력, 음성입력, 표정입력, 포즈입력, 제스쳐입력 및 배경정보입력 가운데 1 이상의 입력을 기계학습된 평가모델에 입력하여 출력된 추론정보 및 상기 영상트리에서의 사용자의 현재 위치에 상응하는 위치조건정보를 적용하여 사용자의 다음 위치를 결정하는, 동영상 인터랙션 플랫폼의 제공방법.
The method of claim 1,
The interaction includes a selection input for a specific option among a plurality of options for the image; And one or more inputs among text input, voice input, face information input, pose input, gesture input, and background information input for an image;
In the positioning step, one or more of the selection input for the specific option, text input for the image, voice input, facial expression input, pose input, gesture input, and background information input is input to the machine learning evaluation model and output. A method of providing a video interaction platform for determining a user's next location by applying the obtained inference information and location condition information corresponding to the user's current location in the video tree.
청구항 1에 있어서,
상기 위치이동정보는,
상기 판별조건에 따라 사용자가 입력한 인터랙션에 상응하는 영상에서 타 영상으로 해당 사용자의 위치를 이동하는 제1위치이동정보; 및
상기 판별조건에 따라 사용자가 직전에 입력한 인터랙션에 상응하는 영상에 대하여 다시 인터랙션을 입력하도록 하는 제2위치이동정보;를 포함하는, 동영상 인터랙션 플랫폼의 제공방법.
The method of claim 1,
The location movement information,
first location movement information for moving the user's location from an image corresponding to the interaction input by the user to another image according to the determination condition; and
A method for providing a video interaction platform comprising: second location movement information for allowing a user to input an interaction again with respect to an image corresponding to an interaction input immediately before according to the determination condition.
청구항 1에 있어서,
상기 동영상 인터랙션 플랫폼의 제공방법은,
사용자의 요청에 따라 복수의 영상을 수신하고, 각 영상에 대한 위치조건정보 및 결과정보의 설정을 입력받는 영상트리생성인터페이스를 상기 사용자에게 제공하는 제작빌더제공단계;를 더 포함하는, 동영상 인터랙션 플랫폼의 제공방법.
The method of claim 1,
The method of providing the video interaction platform,
A production builder providing step of receiving a plurality of images according to a user's request and providing the user with a video tree generation interface for receiving location condition information and result information settings for each image; further comprising a video interaction platform. How to provide.
청구항 1에 있어서,
상기 서버시스템에는 복수의 영상트리가 저장되어 있고,
영상트리의 위치이동정보는, 해당 영상트리에 포함된 영상에 대한 사용자의 인터랙션에 따른 판별조건에 기초하여 타 영상트리에 포함된 특정 영상으로 해당 사용자의 위치를 이동시키는 제3위치이동정보를 포함하는, 동영상 인터랙션 플랫폼의 제공방법.
The method of claim 1,
A plurality of image trees are stored in the server system,
The location movement information of the image tree includes third location movement information for moving the user's location to a specific image included in another image tree based on a determination condition according to the user's interaction with the image included in the corresponding image tree. How to provide a video interaction platform.
청구항 1에 있어서,
상기 영상트리에서의 사용자의 위치 혹은 영상에 대한 사용자의 인터랙션에 상응하는 결과정보는 사용자에게 타 서비스를 제공하기 위한 타서비스연결정보를 포함하고,
상기 결과정보제공단계에서 제공되는 타서비스연결정보와 연결되는 타 서비스는, 기계학습된 평가모델을 통해 사용자의 인터랙션에 대한 응답정보를 도출하고, 상기 응답정보에 따라 발화하는 오브젝트를 사용자에게 제공하는, 동영상 인터랙션 플랫폼의 제공방법.
The method of claim 1,
The result information corresponding to the user's position in the image tree or the user's interaction with the image includes other service connection information for providing other services to the user,
The other service connected to the other service connection information provided in the result information providing step derives response information for the user's interaction through a machine learning evaluation model, and provides the user with an object that ignites according to the response information , How to provide a video interaction platform.
동영상 인터랙션 플랫폼의 제공방법을 수행하는 서버시스템으로서,
상기 서버시스템에는 영상트리에 대한 복수의 영상 혹은 복수의 영상을 생성하기 위한 기초데이터를 포함하는 영상정보, 각 영상에 대한 사용자의 인터랙션을 판별하기 위한 판별조건 및 상기 판별조건에 따른 위치 이동에 대한 위치이동정보를 포함하는 위치조건정보, 및 상기 영상트리에서의 사용자의 위치 혹은 영상에 대한 사용자의 인터랙션에 상응하는 결과정보가 저장되어 있고, 상기 영상트리에서의 사용자의 위치는 해당 사용자의 영상에 대한 인터랙션에 따라 이동될 수 있고,
상기 영상트리에서의 사용자의 현재 위치에 해당하는 영상을 사용자에게 제공하는 영상정보제공단계;
상기 영상정보제공단계를 통해 제공된 영상에 대한 사용자의 인터랙션에 대하여 상기 영상트리에서의 사용자의 현재 위치에 상응하는 위치조건정보를 적용하여 사용자의 다음 위치를 결정하는 위치결정단계; 및
사용자의 위치 혹은 1 이상의 영상에 대한 사용자의 인터랙션이 기설정된 조건에 상응하는 경우에 결과정보를 사용자에게 제공하는 결과정보제공단계;를 수행하는, 서버시스템.
As a server system that performs a method of providing a video interaction platform,
The server system includes a plurality of images for a video tree or image information including basic data for generating a plurality of images, a determination condition for determining a user's interaction with each image, and a location movement according to the determination condition. Location condition information including location movement information and result information corresponding to the user's location in the image tree or the user's interaction with the image are stored, and the user's location in the image tree corresponds to the corresponding user's image. It can be moved according to the interaction with
an image information providing step of providing a user with an image corresponding to the user's current position in the image tree;
a positioning step of determining the user's next position by applying position condition information corresponding to the user's current position in the image tree to the user's interaction with the image provided through the image information providing step; and
A server system that performs a result information providing step of providing result information to a user when the user's location or user's interaction with one or more images corresponds to a preset condition.
KR1020210091590A 2021-07-13 2021-07-13 Method and Sever for Providing Video Interaction Platform Performed KR102524015B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210091590A KR102524015B1 (en) 2021-07-13 2021-07-13 Method and Sever for Providing Video Interaction Platform Performed

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210091590A KR102524015B1 (en) 2021-07-13 2021-07-13 Method and Sever for Providing Video Interaction Platform Performed

Publications (2)

Publication Number Publication Date
KR20230011041A true KR20230011041A (en) 2023-01-20
KR102524015B1 KR102524015B1 (en) 2023-04-20

Family

ID=85108643

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210091590A KR102524015B1 (en) 2021-07-13 2021-07-13 Method and Sever for Providing Video Interaction Platform Performed

Country Status (1)

Country Link
KR (1) KR102524015B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100063839A (en) * 2008-11-27 2010-06-14 삼성전자주식회사 Apparatus and method for providing other service in ip multimedia subsystem
KR20170072858A (en) * 2015-08-13 2017-06-27 이철우 Method and program for making reactive video
KR20190068341A (en) * 2017-12-08 2019-06-18 네이버웹툰 주식회사 Method and apparatus for providing contents controlled or synthesized in accordance with an interaction of user

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100063839A (en) * 2008-11-27 2010-06-14 삼성전자주식회사 Apparatus and method for providing other service in ip multimedia subsystem
KR20170072858A (en) * 2015-08-13 2017-06-27 이철우 Method and program for making reactive video
KR20190068341A (en) * 2017-12-08 2019-06-18 네이버웹툰 주식회사 Method and apparatus for providing contents controlled or synthesized in accordance with an interaction of user

Also Published As

Publication number Publication date
KR102524015B1 (en) 2023-04-20

Similar Documents

Publication Publication Date Title
KR102130750B1 (en) Method for providing bigdata and artificial intelligence based counseling and psychological service using bidirectional virtual reality contents
US10335954B2 (en) Methods and systems for managing dialogs of a robot
Fadhil Can a chatbot determine my diet?: Addressing challenges of chatbot application for meal recommendation
CN107895577A (en) Initiated using the task of long-tail voice command
CN110462676A (en) Electronic device, its control method and non-transient computer readable medium recording program performing
Cruz-Sandoval et al. Semi-autonomous conversational robot to deal with problematic behaviors from people with dementia
JP2021507381A (en) Communication model for cognitive systems
Brinkschulte et al. The EMPATHIC project: building an expressive, advanced virtual coach to improve independent healthy-life-years of the elderly
CN117541444A (en) Interactive virtual reality talent expression training method, device, equipment and medium
Huang et al. Developing context-aware dialoguing services for a cloud-based robotic system
Churamani et al. Affect-driven learning of robot behaviour for collaborative human-robot interactions
Sridhar et al. E-Bot: A facial recognition based human-robot emotion detection system
KR102524015B1 (en) Method and Sever for Providing Video Interaction Platform Performed
Feldman et al. Engagement with artificial intelligence through natural interaction models
Gamborino et al. Towards effective robot-assisted photo reminiscence: Personalizing interactions through visual understanding and inferring
CA3233781A1 (en) Mental health intervention using a virtual environment
US11706492B1 (en) Method, server and computer-readable medium for recommending nodes of interactive content
O'Dwyer et al. Affective computing using speech and eye gaze: a review and bimodal system proposal for continuous affect prediction
Liu et al. Let’s keep in touch online: a Facebook aware virtual human interface
KR20230132233A (en) Method, Server and Computer-readable Medium for Generating Interactive Content
Park et al. Music-aided affective interaction between human and service robot
KR20200141863A (en) System for providing personal recording data based ai chatting service
Mallios Virtual doctor: an intelligent human-computer dialogue system for quick response to people in need
KR102623467B1 (en) Method, apparatus and system for providing agency recommendation service based on user vocal evaluation information
CN116975654B (en) Object interaction method and device, electronic equipment and storage medium

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant