WO2024080851A1 - Method and device for concurrently participating in multiple events in virtual space - Google Patents

Method and device for concurrently participating in multiple events in virtual space Download PDF

Info

Publication number
WO2024080851A1
WO2024080851A1 PCT/KR2023/015928 KR2023015928W WO2024080851A1 WO 2024080851 A1 WO2024080851 A1 WO 2024080851A1 KR 2023015928 W KR2023015928 W KR 2023015928W WO 2024080851 A1 WO2024080851 A1 WO 2024080851A1
Authority
WO
WIPO (PCT)
Prior art keywords
event
avatar
information
virtual space
user
Prior art date
Application number
PCT/KR2023/015928
Other languages
French (fr)
Korean (ko)
Inventor
정혜원
박현수
Original Assignee
주식회사 와이드브레인
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 와이드브레인 filed Critical 주식회사 와이드브레인
Publication of WO2024080851A1 publication Critical patent/WO2024080851A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Definitions

  • This specification relates to a method and device for participating in an event in a virtual space, and more specifically, to a method and device for participating in multiple events in a virtual space simultaneously.
  • Virtual reality technology uses computers to build a virtual space that does not exist in the real world and then makes the virtual space feel like reality.
  • Augmented reality or mixed reality technology adds computer-generated information to the real world. It is defined as a technology that allows real-time interaction with users by combining the real world and the virtual world.
  • Meta-verse is a compound word of 'Meta', meaning processing and abstraction, and 'Universe', meaning the real world, and refers to a three-dimensional virtual world. Metaverse is an advanced concept than the existing term virtual reality environment, and provides an augmented reality environment in which virtual worlds such as the web and the Internet are absorbed into the real world.
  • This specification proposes a method and device that enable simultaneous participation in multiple events in a virtual space.
  • this specification proposes a method and device that allows an artificial intelligence (AI)-based avatar to attend an event and participate in activities on behalf of the user.
  • AI artificial intelligence
  • this specification proposes a method and device for displaying a screen displaying a virtual space in parallel and a graphical user interface (GUI) that changes according to the characteristics of the virtual space.
  • GUI graphical user interface
  • the method of simultaneously participating in a plurality of events in a virtual space includes receiving invitation information for a first event in the virtual space from a first administrator avatar, and receiving invitation information for a second event in the virtual space.
  • Receiving from a second manager avatar, participating in the first event based on an avatar directly controlled, and artificial intelligence (AI) interacting with other avatars in the second event that occurs simultaneously with the first event It may include a step of participating by an avatar based on artificial intelligence (AI).
  • the AI-based avatar can respond to the other avatar's inquiry in real time with a message or voice, or deliver material information related to the second event, based on machine learning.
  • the AI-based avatar can inquire with another avatar through a message or voice in real time, or transmit material information related to a second event, based on machine learning.
  • the AI-based avatar stores at least one of video information, audio information, and/or shared data information about the second event in the virtual space, and a request for confirmation of information from the user is received. Based on the input, at least one of the video information, the audio information, and/or the shared data information may be displayed.
  • the AI-based avatar can detect a preset voice or movement among the voices or movements of another avatar and display notification information.
  • the output screen for the virtual space includes a 3D space view and a 2D view configured in parallel with the 3D space view, and the 3D space view displays the virtual space,
  • the 2D view may display a graphical user interface that changes depending on the characteristics of the displayed virtual space.
  • the invitation information for the first event or the second event includes at least one of information about the event title, information about the event space, and/or information about the event progress time. can do.
  • An attendee terminal for simultaneously participating in multiple events in a virtual space of the present specification includes at least one transceiver, at least one processor, operably connected to the at least one processor, and executing by the at least one processor.
  • At least one memory storing instructions for performing operations based on what happens, the operations comprising: receiving invitation information for a first event in the virtual space from a first administrator avatar; Receiving invitation information for a second event in the virtual space from a second manager avatar, participating in the first event based on a directly controlled avatar, and taking place simultaneously with the first event in the virtual space
  • the second event may include participation by an artificial intelligence (AI)-based avatar that interacts with other avatars.
  • AI artificial intelligence
  • the AI-based avatar may respond to the other avatar's inquiry in real time with a message or voice, or deliver material information related to the second event, based on machine learning.
  • the AI-based avatar can inquire with another avatar through a message or voice in real time, or transmit material information related to the second event, based on machine learning.
  • the AI-based avatar stores at least one of video information, audio information, and/or shared data information about the second event in the virtual space, and requests confirmation of the information from the user. Based on this input, at least one of the video information, the audio information, and/or the shared material information may be displayed.
  • the AI-based avatar can detect a preset voice or movement among the voices or movements of another avatar and display notification information.
  • the output screen for the virtual space includes a 3D space view and a 2D view configured in parallel with the 3D space view, and the 3D space view displays the virtual space,
  • the 2D view may display a graphical user interface that changes depending on the characteristics of the displayed virtual space.
  • the invitation information for the first event or the second event includes at least one of information about the event title, information about the event space, and/or information about the event progress time. It can be included.
  • AI artificial intelligence
  • Figure 1 is a flow chart to explain the event participation method proposed in this specification.
  • Figure 2 is a diagram for explaining how the event manager proposed in this specification creates an event.
  • Figure 3 is a diagram to explain how the event manager proposed in this specification manages attendees.
  • FIG. 4 is a diagram illustrating a method for event attendees to check invitation information and approve attendance proposed in this specification.
  • Figure 5 is a diagram for explaining a method of directly attending an event proposed in this specification.
  • Figure 6 is a diagram for explaining a method of simultaneously participating in multiple events proposed in this specification.
  • Figure 7 is a diagram for explaining a method of configuring a 2D view in parallel with a 3D space view proposed in this specification.
  • Figure 8 is a flowchart illustrating a method for participant terminals to participate in multiple events simultaneously using the AI-based avatar proposed in this specification.
  • Figure 9 illustrates a block diagram of the event management system proposed in this specification.
  • Figure 10 illustrates a block diagram of an attendee terminal proposed in this specification.
  • Figure 11 is a diagram to explain a user interface that configures a 2D view in parallel with the 3D spatial view proposed in this specification, creates a surrogate bot, and participates in an event at the same time.
  • Figure 12 is a diagram for explaining an example of a user interface for simultaneously participating in an event by creating a surrogate bot proposed in this specification.
  • '/' means 'and', 'or', or 'and/or' depending on the context.
  • Figure 1 is a flow chart to explain the event participation method proposed in this specification.
  • the manager terminal and attendee terminal may be replaced with the manager avatar and attendee avatar. That is, the method proposed in this specification may be explained from the perspective of an avatar in a virtual space.
  • the administrator terminal may generate an event in virtual space in step S110.
  • Figure 2 is a diagram for explaining how the event manager proposed in this specification creates an event.
  • the administrator terminal may display a virtual space display unit 210 and a graphical user interface unit 220.
  • the administrator terminal may display the virtual space display unit 210 and the graphic user interface unit 220 through an output unit (eg, display).
  • the virtual space display unit 210 may display an administrator avatar (eg, a directly controlled avatar or an AI-based avatar) in the virtual space.
  • the movement and movement of the manager avatar may be displayed on the virtual space display unit 210.
  • the graphic user interface unit 220 is an area into which an administrator avatar cannot enter, and may refer to a part that provides convenience of operation to the user.
  • the administrator terminal receives the event name, event space (event hall), event date, event details, and attachments of the graphical user interface unit 220 from the user. ) can be input as event creation information.
  • the administrator terminal may include an input unit, and may receive event creation information, etc. from the user through the input unit.
  • the input unit may be a keyboard, mouse, wearable device, etc.
  • the manager terminal may transmit/deliver event invitation information to the attendee avatar (or attendee terminal) in step S120.
  • event invitation information may be information requesting attendance at an event created by an administrator terminal (or administrator).
  • the list of users or the list of user avatars invited to the event may be entered as included in the event creation information, or may be entered as included in the invitation request information separately after the event creation information is entered.
  • the invitation information may be transmitted/delivered to the avatars (or terminals) in the user list or the list of user avatars after event creation. .
  • the list of invited users or the list of user avatars is included in separate invitation request information, after an event is created and the invitation request information is entered, the avatars (or terminals) in the user list or the list of user avatars invitation information may be transmitted/delivered to the users. And/or the invitation link is delivered, and the user who receives the invitation link can receive/deliver the invitation information by clicking the invitation link.
  • the invitation information may be transmitted/delivered to any avatars (or terminals) displayed on the virtual space display unit 210 without receiving a separate user list or user avatar list.
  • the invitation information may be shared through bulletin boards in the virtual space, etc., without receiving a separate list of invited users or user avatars, and the event may be progressed by a person wishing to attend applying for the event by an avatar in the virtual space. there is.
  • the attendee terminal may approve attendance in step S130. Descriptions related to attendance approval will be described later in the operation of the attendee terminal (or attendee avatar).
  • the manager terminal may receive/deliver information related to attendance approval from the attendee avatar (or attendee terminal) in step S140.
  • information related to attendance approval may be information indicating attendance at an event during the event progress time.
  • the information related to attendance approval may be information indicating attendance at the event during the event progress time.
  • the attendance approval related information may include the attendee avatar (or attendee terminal) or attendee information.
  • information related to attendance approval may include information related to attendees or attendee avatars.
  • the information related to the attendee or attendee avatar may include the avatar's identification information (e.g., the avatar's registration number, etc.), and the affiliation information of the attendee or attendee avatar (e.g., company name, department name, company location, etc.).
  • the administrator terminal or administrator avatar
  • the next operation may proceed without receiving/transmitting information related to attendance approval.
  • the attendee avatar receives the user's attendance approval through the input unit, stores the contents of the invitation information, and notifies the user through the display unit when the event progress time approaches. For example, if the event start time is 2:00 PM, the attendee avatar (or attendee terminal) may announce the start of the event at 1:50 PM through an output unit (e.g., display).
  • an output unit e.g., display
  • the attendee terminal may attend the event in step S150.
  • the administrator terminal or administrator/administrator avatar
  • the graphic user interface unit 320 may include an event name (e.g., Event 1), an event space (e.g., Metaverse Hall 1), and an event progress time (e.g., 22/12/25, 12:00PM to 14:00PM). ), a list of participants, etc. may be displayed.
  • event-related shared information may be shared with the administrator terminal (or administrator avatar) and/or participant terminal (or participant avatar) before the event progress time. Attendees/users can review the information in advance and attend the event.
  • the attendee terminal may receive/deliver event invitation information from the administrator terminal (or administrator avatar) in step S120.
  • the output unit of the attendee terminal may display a scheduler on the graphic user interface unit 420, as shown in FIG. 4.
  • Scheduler may include an invitation part and a My Schedule part.
  • the invitation part may display the contents of the received invitation information.
  • the invitation part includes the event name (e.g. Event 1), event space (e.g. Metaverse Hall 1), event progress time (e.g.
  • An O button e.g., attendance approval button
  • an X button e.g., delete button
  • a button to display detailed information e.g., Show Detail button
  • Information related to approved events can be displayed in the My schedule part.
  • the My Schedule part contains the event name (e.g. Event 0), event space (e.g. Metaverse Hall 0), and event time (e.g. 22/12/25, 11:00PM to 12:00PM) for approved events. ), a delete button (X) for the event, a phrase indicating that it is impossible to attend the event (e.g., "Admission is possible 10 minutes before event start"), etc. may be displayed.
  • the text indicating that you cannot attend the event will be displayed on the direct attendance button (e.g. In Person button), the avatar attendance button (e.g. In Avatar button), and the exit button (e.g. Exit ) can be changed and displayed.
  • the direct attendance button e.g. In Person button
  • the avatar attendance button e.g. In Avatar button
  • the exit button e.g. Exit
  • the attendee terminal may approve attendance in step S130.
  • the attendee terminal may receive a click on the O button for invitation information from the user and move the invitation information for the event to the My schedule part and display it.
  • the user clicks the 0 button for Event 1 displayed in the invitation part of the graphical user interface unit 420 of FIG. 4 information about Event 1 is displayed, as in the graphical user interface unit 430.
  • My schedule including event name (e.g. Event 1), event space (e.g. Metaverse Hall 1), and event progress time (e.g. 22/12/25, 12:00PM ⁇ 14:00PM) ,
  • the attendee terminal may transmit/deliver information related to attendance approval to the manager avatar (or manager terminal) in step S140.
  • the corresponding operation may be omitted.
  • Information related to attendance approval is described in detail in the operation of the administrator terminal.
  • the attendee avatar may attend the event in step S150.
  • the direct attendance button e.g., In Person button
  • activation button e.g., In Person button
  • avatar attendance button e.g., In Avatar button
  • exit button e.g. Exit
  • the attendee terminal can receive a click on the direct attendance button (e.g., In Person button) for Event 0 from the user and attend Event 0 in a direct attendance manner.
  • the user can attend Event 0 by an avatar directly controlled by the user.
  • the virtual space display unit 530 displays the event space of Event 0
  • the graphical user interface unit 540 changes the job attendance button (e.g., In Person button) to 'Attending' and displays it. , can be displayed by activating the exit button (e.g. Exit).
  • the attendee terminal may receive a click on the avatar attendance button (eg, In Avatar button) for Event 1 of the graphical user interface unit 540 from the user.
  • the event space of Event 1 may be displayed in the upper right, like the virtual space display unit 610. That is, in the virtual space display unit 610, the event space of Event 0, which was attended in person, can be displayed simultaneously in full screen, and the event space of Event 1, attended by (AI-based) avatar attendance, can be displayed in a pop-up screen.
  • the graphic user interface unit 620 displays the (AI-based) avatar attendance button (e.g., In Avatar button) as 'Attending' and , can be displayed by activating the exit button (e.g. Exit).
  • the exit button e.g. Exit
  • an artificial intelligence (AI)-based avatar can attend Event 1 in place of the default avatar (i.e., an avatar controlled by the user) in Event 1 attended by an avatar attendance method.
  • the AI-based avatar can learn and save the meeting contents and conversation contents of Event 1.
  • an AI-based avatar can exchange business cards or have a conversation with other attendee avatars, manager avatars, etc. who attended Event 1 based on previously learned information, and such information is saved at the time of learning and can be shared with the user later. can be provided.
  • an AI-based avatar can send or receive messages to other participant avatars, manage schedules for future schedules discussed in Event 1, and even provide push notifications when the schedule approaches.
  • AI-based avatars can perform chatbot functions.
  • an AI-based avatar can deliver a push notification to the user or avatar participating in Event 0 when a specific word is detected during a meeting.
  • an AI-based avatar may provide information such as the user's company information and IR materials to other participants in Event 1.
  • AI-based avatars can not only attend events on behalf of users, but also actively/proactively proceed/participate in events. That is, in this specification, 'AI-based avatar that interacts with other avatars' may mean an AI-based avatar that can actively/proactively proceed/participate in events as described above.
  • the above-mentioned example focuses on attending the first event in person and then attending the second event as an AI-based avatar.
  • the person attends in person, or attends multiple events. You can only attend in person, or you can attend many events only with an AI-based avatar.
  • the user can attend both Event 0 and Event 1 as an avatar.
  • the (AI-based) avatar attendance button (In Avatar) is activated by the user. A click on a button) may be input.
  • the event space of Event 0 and the event space of Event 1 may be displayed as separate pop-up screens, or one of them may be displayed as a full screen and the other as a pop-up screen.
  • Event 0 may be converted to an (AI-based) avatar attendance method and Event 1 may be converted to a direct attendance method.
  • Event 1 may be converted to a direct attendance method.
  • an avatar attendance button (In Avatar button) for Event 0 displayed on the graphic user interface unit 620 of FIG. 6 is input or a direct attendance button (In Person button) for Event 1 is input
  • the virtual space On the display unit 630 the event space of Event 1 can be displayed in full screen, and the event space of Event 0 can be displayed in a pop-up screen.
  • the avatar attendance button (In Avatar button) for Event 0 and the direct attendance button (In Person button) for Event 1 displayed on the graphic user interface unit 620 are set to 'Attending' like the graphic user interface unit 640.
  • the display can be switched.
  • Event 0/Event 1 the description is focused on the operation of participating in two events (Event 0/Event 1), but the method is not limited thereto, and of course, the proposed method can also be applied to attending two or more events.
  • the operation of transmitting and receiving information between the manager terminal and the attendee terminal may include the operation of transmitting and receiving information based on the event management server device, as shown in FIG. 9.
  • the administrator terminal or attendee terminal can configure and display a 2D view in parallel with the screen for the virtual space.
  • Figure 7 illustrates a parallel configuration of a 3D spatial view and a 2D view.
  • the 3D spatial view and the 2D view can be displayed through the output unit of the administrator terminal or attendee terminal.
  • the 2D view can be placed sequentially to the right of the 3D spatial view.
  • the 3D spatial view may refer to a screen portion displaying a virtual space.
  • a 2D view can include common parts and specialized parts.
  • the specialized part may change depending on the situation of the user or avatar or the use/characteristics of the virtual space.
  • the 2D view may include a message button, an attendee button, a meeting minutes button 70, a my information button, a workspace button, a settings button, and a scheduler button.
  • the meeting minutes button 70 may be included in the specialized part and the rest may be included in the common part.
  • the meeting minutes button 70 may be displayed in the 2D view.
  • the meeting minutes button 70 may be changed to a shopping cart button and displayed.
  • the 2D view may be displayed by changing the size, ratio, graphic style, theme, etc. depending on the user's or avatar's situation or the purpose/characteristics of the virtual space. This specification can increase the utilization of space within the virtual space by configuring the 3D space view and the 2D view in parallel.
  • Figure 11 is a diagram to explain a user interface that configures a 2D view in parallel with the 3D spatial view proposed in this specification, creates a surrogate bot, and participates in an event at the same time.
  • a 3D spatial view and a 2D view may be displayed on the user display.
  • the 2D view may be placed sequentially to the left and/or right of the 3D spatial view.
  • the 3D spatial view may refer to a screen portion displaying a virtual space.
  • the 2D view may include an object 1103 that allows selection of the host's dedicated server.
  • information on the virtual space provided by the server may be displayed through the 2D view 1102, and the virtual space may be displayed in the adjacent 3D space view 1101.
  • the user can communicate with other users after entering the private space.
  • the user can create an avatar 1104 and enter the private space, and multiple avatars can be operated at the same time.
  • a user can create a surrogate bot and operate an avatar through the surrogate bot in order to participate in multiple private spaces at the same time.
  • the surrogate bot learns the user's language patterns and applies the purpose of the event to communicate with other users without user input, such as 1105. At this time, the surrogate bot can determine the context of the conversation, deliver the message to the user when an important message or question is received from the user, and reflect the user input in the conversation.
  • the surrogate bot can report activity details for a preset time to the user. For example, you can report to the user that as a result of attending today's conference, 2 questions were asked, 3 people expressed gratitude, and 16 people mentioned me.
  • Figure 12 is a diagram for explaining an example of a user interface for participating in an event by creating a surrogate bot proposed in this specification.
  • a user can participate in an event by creating a surrogate bot.
  • the surrogate bot can create the form of an avatar by reflecting the purpose, dress code, and items of the event without user input.
  • Figure 8 is a flow chart to explain a method of simultaneously participating in multiple events using the AI-based avatar proposed in this specification.
  • the method may be performed by an attendee terminal.
  • the attendee terminal may receive or receive invitation information for the first event in the virtual space from the first manager avatar in step S810.
  • invitation information may include information about the event title (e.g., Event 0), information about the event space (e.g., Metaverse Hall 0), and/or information about the time of the event (e.g., 22/12/25 11 :00PM ⁇ 12:00PM).
  • invitation information may include information about the event title (e.g., Event 1), information about the event space (e.g., Metaverse Hall 1), and/or information about the event time (e.g., 22/12/25 11 :00PM ⁇ 14:00PM).
  • the attendee terminal may participate in the first event based on the avatar directly controlled in step S830.
  • the attendee terminal receives a click on the in Person button for Event 0 of the graphical user interface unit 520 of FIG. 5
  • the attendee or attendee avatar can participate in the first event.
  • the attendee avatar may be an avatar directly controlled by the user.
  • the image of the button changes from the in Person button for Event 0 to an Attending button, as shown in the graphical user interface unit 620 of FIG. 6. It can be.
  • the attendee terminal may participate in the second event held simultaneously with the first event by an artificial intelligence (AI)-based avatar that interacts with other avatars in step S840.
  • AI artificial intelligence
  • the event time is 22/12/25 11:00PM ⁇ 12:00PM
  • Event 1 the event time is 22/12/25 11:00PM ⁇ 14:00PM, so they take place simultaneously.
  • an AI-based avatar can participate on your behalf.
  • the attendee terminal receives a click on the in Avatar button for Event 1 of the graphic user interface unit 520 of FIG. 5
  • the AI-based avatar can participate in the second event.
  • the click on the in Avatar button for Event 1 is input by the user, the image of the button changes from the in Avatar button for Event 1 to the Attending button, as shown in the graphical user interface unit 620 of FIG. 6. It can be.
  • the AI-based avatar replaces the user or the avatar (or attendee avatar) controlled by the user, and provides information within Event 1, such as presenting opinions/receiving opinions/delivering data/receiving data, etc. to other avatars (or attendees) of Event 1. Able to perform all necessary activities.
  • an AI-based avatar can respond to inquiries/inquiries from other avatars (or attendees) in real time with a message or voice, or deliver material information related to a second event, based on machine learning. And/or, the AI-based avatar can inquire with other avatars (or attendees) in real time through a message or voice, or deliver material information related to the second event, based on machine learning.
  • an AI-based avatar can participate in an event based on previously learned information or information learned in real time from the event.
  • the other avatar may be an avatar controlled by another attendee or an AI-based avatar of another attendee.
  • data information related to the second event may mean a data file prepared by the user related to the second event.
  • the second event-related data information may be files such as company information and IR data.
  • the AI-based avatar stores at least one of video information, audio information, and/or shared data information about the second event in the virtual space, and based on a request for confirmation of information input from the user, the video At least one of information, voice information, and/or shared data information may be displayed/output.
  • video information may mean a file or information in which the progress of a second event in a virtual space is stored as a video.
  • voice information may refer to all information output through a speaker, etc. during a second event in a virtual space, such as the speaker's voice, the participant's voice, and sounds generated from published materials.
  • shared material information may refer to all information shared by other attendees at the second event.
  • the attendee terminal can display/output the corresponding information through an output unit to be described later.
  • displaying/outputting the relevant information may mean displaying/outputting an icon image representing the relevant information, or may mean executing and displaying/outputting the relevant information.
  • the AI-based avatar may detect a preset word/sentence or movement among another avatar's voice or avatar movement, and display/output notification information. For example, if the “final discussion item” is already set, the AI-based avatar detects the “final discussion item” during the event, and the attendee terminal (or attendee avatar) displays a notification about this through the output unit, which will be described later. /Can be printed. And/or, when another avatar (of another attendee) detects a hand gesture indicating the AI-based avatar, the attendee terminal (or attendee avatar) may display/output a notification about this through an output unit to be described later.
  • the output screen for the virtual space is a 3D space view (or 3D space portion) (e.g., 3D space view in FIG. 7) and a 2D view (or 2D portion/GUI portion) configured in parallel with the 3D space view. ) (e.g., the 2D view in FIG. 7), the 3D space view displays a virtual space, and the 2D view displays a graphical user interface (GUI) that changes depending on the characteristics of the displayed virtual space.
  • GUI graphical user interface
  • the displayed virtual space may refer to a space where a user or a user avatar is located and displayed through a 3D spatial view.
  • the 2D view may include a meeting minutes icon 70, as shown in FIG. 7 .
  • the meeting minutes icon 70 in FIG. 7 may be changed to a shopping cart icon.
  • the operation of the attendee terminal (or attendee avatar) described with reference to FIG. 8 can be supplemented by the content described with reference to FIGS. 1 to 7 and 9 to 10.
  • the method of simultaneously participating in multiple events using an AI-based avatar can also be applied to an administrator terminal (or an administrator avatar).
  • the user of the manager terminal can manage multiple events simultaneously using an AI-based avatar.
  • the method proposed in this specification may be applied in terms of communication between the attendee terminal, the first manager terminal, the second manager terminal, and each other, and the first manager avatar in the virtual space, the second manager avatar, the attendee avatar, and each other in the virtual space. It can also be applied from the perspective of information transmission and reception.
  • Figure 9 illustrates a block diagram of the event management system proposed in this specification.
  • the event management system may include an attendee terminal 100, an administrator terminal 200, a communication network 300, and an event management server device 400.
  • the attendee terminal 100 and/or the manager terminal 200 are wired or wireless devices connected to the communication network 300, and connect to the event management server device 400 through the communication network 200, creating a virtual space as described above. It allows you to participate/manage multiple events at the same time using an AI-based avatar.
  • the attendee terminal 100 and the administrator terminal 200 may be controlled by the user. In this specification, a user may be replaced by an attendee or an administrator, and an attendee or an administrator may be replaced by a user.
  • the event management server device 400 allows attendee terminals 100 and manager terminals 200 or their users connected through the communication network 300 to create/manage events, and allows attendee terminals 100 or users to create/manage events. It is a server device that allows participation in multiple events in a virtual space using an AI-based avatar, and allows the administrator terminal 200 or a user to manage multiple events in a virtual space using an AI-based avatar. For example, transmitting and receiving information between the attendee terminal 100 and the manager terminal 200 may mean transmitting and receiving information based on the event management server device 400.
  • the attendee terminal 100, the administrator terminal 200, and the event management server device 400 are robots, XR (eXtended Reality) devices, vehicles, mobile devices, home appliances, IoT devices, AI devices/servers, etc., Or it may constitute part of them.
  • vehicles may include vehicles equipped with wireless communication functions, autonomous vehicles, vehicles capable of inter-vehicle communication, etc.
  • the vehicle may include an Unmanned Aerial Vehicle (UAV) (eg, a drone).
  • UAV Unmanned Aerial Vehicle
  • XR devices include AR (Augmented Reality)/VR (Virtual Reality)/MR (Mixed Reality) devices, HMD (Head-Mounted Device), HUD (Head-Up Display) installed in vehicles, televisions, smartphones, It can be implemented in the form of computers, wearable devices, home appliances, digital signage, vehicles, robots, etc.
  • Portable devices may include smartphones, smart pads, wearable devices (e.g., smartwatches, smart glasses), and computers (e.g., laptops, etc.).
  • Home appliances may include TVs, refrigerators, washing machines, etc.
  • IoT devices may include sensors, smart meters, etc.
  • Figure 10 illustrates a block diagram of an attendee terminal proposed in this specification.
  • the attendee terminal 100 may include one of one or more transceivers 110, one or more processors 120, and/or one or more memories 130.
  • Processor 120 controls memory 130 and/or transceiver 110 and may be configured to implement the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein. For example, the processor 120 may process information in the memory 130 to generate first information/signal and then transmit a wireless signal including the first information/signal through the transceiver 110. Additionally, the processor 120 may receive a wireless signal including the second information/signal through the transceiver 110 and then store information obtained from signal processing of the second information/signal in the memory 130.
  • the memory 130 may be connected to the processor 120 and may store various information related to the operation of the processor 120. For example, memory 130 may perform some or all of the processes controlled by processor 120 or instructions for performing the descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts disclosed herein. Software code containing them can be stored.
  • the transceiver 110 may be connected to the processor 120 and may transmit and/or receive wireless signals through one or more antennas.
  • Transceiver 110 may include a transmitter and/or receiver.
  • the transceiver 110 may be used interchangeably with an RF (Radio Frequency) unit.
  • the attendee terminal 100 may further include an input unit and/or an output unit.
  • the input unit may be connected to the transceiver 110, processor 120, and/or memory 130, and may receive a command from the user and send a command to the transceiver 110, processor 120, and/or memory 130. It can be delivered.
  • the input unit may be a keyboard, mouse, joystick, controller, headset, microphone, wearable input device, or parts thereof.
  • the output unit may be connected to the processor 120 and/or the memory 130 and may output signals to the user in response to commands from the processor 120 and/or the memory 130.
  • the output unit may be a monitor, speaker, headset, wearable output device, or parts thereof.
  • the manager terminal 200 may also include at least one component/means of the attendee terminal 100 of FIG. 10 .
  • Embodiments according to the present specification may be implemented by various means, for example, hardware, firmware, software, or a combination thereof.
  • an embodiment of the present invention includes one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), and FPGAs ( It can be implemented by field programmable gate arrays, processors, controllers, microcontrollers, microprocessors, etc.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays, processors, controllers, microcontrollers, microprocessors, etc.
  • an embodiment of the present invention may be implemented in the form of a module, procedure, function, etc. that performs the functions or operations described above.
  • Software code can be stored in memory and run by a processor.
  • the memory is located inside or outside the processor and can exchange data with the processor through various known means.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • Tourism & Hospitality (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computer Graphics (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Computation (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Information Transfer Between Computers (AREA)
  • Processing Or Creating Images (AREA)
  • Operations Research (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present specification proposes a method for concurrently participating in multiple events in a virtual space and a device therefor. Specifically, the method may include the steps of: receiving invitation information with respect to a first event of a virtual space from a first manager avatar; receiving invitation information with respect to a second event of the virtual space from a second manager avatar; participating in the first event on the basis of a directly-controlled avatar; and participating in the second event concurrently progressed with the first event by using an artificial intelligence (AI)-based avatar which interacts with other avatars.

Description

가상 공간에서 다수의 이벤트에 동시에 참여하는 방법 및 그 장치Method and device for simultaneously participating in multiple events in virtual space
본 명세서는 가상 공간의 이벤트에 참여하는 방법 및 그 장치에 관한 것으로, 상세하게는 가상 공간에서 다수의 이벤트에 동시에 참여하는 방법 및 이를 위한 장치에 관한 것이다.This specification relates to a method and device for participating in an event in a virtual space, and more specifically, to a method and device for participating in multiple events in a virtual space simultaneously.
최근, 컴퓨터 그래픽 기술을 응용한 가상현실(Virtual Reality), 증강현실(Augmented Reality) 및 혼합현실(Mixed Reality) 기술이 발달하고 있다. 가상현실 기술은 컴퓨터를 이용하여 현실 세계에 존재하지 않는 가상 공간을 구축한 후 그 가상 공간을 현실처럼 느끼게 하는 기술을, 증강현실 또는 혼합현실 기술은 현실 세계 위에 컴퓨터에 의해 생성된 정보를 덧붙여 표현하는 기술, 즉 현실 세계와 가상 세계를 결합함으로써 실시간으로 사용자와 상호작용이 이루어지도록 하는 기술로 정의된다.Recently, virtual reality, augmented reality, and mixed reality technologies that apply computer graphics technology are developing. Virtual reality technology uses computers to build a virtual space that does not exist in the real world and then makes the virtual space feel like reality. Augmented reality or mixed reality technology adds computer-generated information to the real world. It is defined as a technology that allows real-time interaction with users by combining the real world and the virtual world.
이들 중 증강현실과 혼합현실 기술은 다양한 분야의 기술(예컨대, 방송 기술, 의료 기술 및 게임 기술 등)들과 접목되어 활용/응용되어 사용자에게 서비스되고 있으며 대표적인 예로서, 메타버스(Meta-verse)가 있다. 이 메타버스는 가공, 추상을 의미하는 '메타(Meta)'와 현실세계를 의미하는 '유니버스(Universe)'의 합성어로 3차원 가상 세계를 의미한다. 메타버스는 기존의 가상현실 환경(Virtual reality environment)이라는 용어보다 진보된 개념으로서, 웹과 인터넷 등의 가상세계가 현실세계에 흡수된 증강 현실 환경을 제공한다.Among these, augmented reality and mixed reality technologies are combined with technologies in various fields (e.g., broadcasting technology, medical technology, game technology, etc.) and are utilized/applied to provide services to users. A representative example is Meta-verse. There is. This metaverse is a compound word of 'Meta', meaning processing and abstraction, and 'Universe', meaning the real world, and refers to a three-dimensional virtual world. Metaverse is an advanced concept than the existing term virtual reality environment, and provides an augmented reality environment in which virtual worlds such as the web and the Internet are absorbed into the real world.
한편, 최근 들어, 비대면 환경에 대한 요구가 증가하면서 화상 회의 등 비대면 업무를 지원하기 위한 여러 기술들이 개발되고 있으며, 화상 회의 등의 기능을 메타버스 서비스에 도입하는 사례도 증가하고 있다. 하지만, 기존 메타버스 기술은 동시에 진행되는 다수의 회의, 박람회 등의 이벤트에 동시에 참여하지 못하는 문제가 있다.Meanwhile, recently, as the demand for a non-face-to-face environment has increased, various technologies have been developed to support non-face-to-face work, such as video conferencing, and the number of cases of introducing functions such as video conferencing into metaverse services is increasing. However, existing metaverse technology has the problem of not being able to participate in multiple events such as conferences and exhibitions taking place simultaneously.
본 명세서는 가상 공간에서의 다수의 이벤트에 동시에 참여 가능하게 하는 방법 및 그 장치를 제안한다.This specification proposes a method and device that enable simultaneous participation in multiple events in a virtual space.
또한, 본 명세서는 인공지능(artificial intelligence, AI) 기반의 아바타가 이벤트에 대신 참석하여 활동할 수 있도록 하는 방법 및 그 장치를 제안한다.Additionally, this specification proposes a method and device that allows an artificial intelligence (AI)-based avatar to attend an event and participate in activities on behalf of the user.
또한, 본 명세서는 가상 공간을 표시하는 화면과 가상 공간의 특성에 변경되는 그래픽 유저 인터페이스(graphical user interface, GUI)를 병렬로 표시하는 방법 및 그 장치를 제안한다.Additionally, this specification proposes a method and device for displaying a screen displaying a virtual space in parallel and a graphical user interface (GUI) that changes according to the characteristics of the virtual space.
본 명세서에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in this specification are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below. You will be able to.
본 명세서의 가상 공간의 다수의 이벤트에 동시에 참여하는 방법은, 상기 가상 공간의 제1 이벤트에 대한 초대 정보를 제1 관리자 아바타로부터 수신하는 단계와, 상기 가상 공간의 제2 이벤트에 대한 초대 정보를 제2 관리자 아바타로부터 수신하는 단계와, 상기 제1 이벤트에는 직접 제어되는 아바타에 기반하여 참여는 단계와, 상기 제1 이벤트와 동시에 진행되는 상기 제2 이벤트에는, 다른 아바타와 상호작용하는 인공지능(artificial intelligence, AI) 기반의 아바타에 의해 참여하는 단계를 포함할 수 있다.The method of simultaneously participating in a plurality of events in a virtual space according to the present specification includes receiving invitation information for a first event in the virtual space from a first administrator avatar, and receiving invitation information for a second event in the virtual space. Receiving from a second manager avatar, participating in the first event based on an avatar directly controlled, and artificial intelligence (AI) interacting with other avatars in the second event that occurs simultaneously with the first event It may include a step of participating by an avatar based on artificial intelligence (AI).
또한, 본 명세서의 상기 방법에 있어서, 상기 AI 기반의 아바타는 머신 러닝에 기반하여, 실시간으로 상기 다른 아바타의 문의에 메시지 또는 음성으로 응답하거나, 제2 이벤트 관련 자료 정보를 전달할 수 있다.In addition, in the method of the present specification, the AI-based avatar can respond to the other avatar's inquiry in real time with a message or voice, or deliver material information related to the second event, based on machine learning.
또한, 본 명세서의 상기 방법에 있어서, 상기 AI 기반의 아바타는 머신 러닝에 기반하여, 실시간으로 다른 아바타에 메시지 또는 음성으로 문의하거나, 제2 이벤트 관련 자료 정보를 전달할 수 있다.Additionally, in the method of the present specification, the AI-based avatar can inquire with another avatar through a message or voice in real time, or transmit material information related to a second event, based on machine learning.
또한, 본 명세서의 상기 방법에 있어서, 상기 AI 기반의 아바타는 상기 가상 공간의 제2 이벤트에 대한 영상 정보, 음성 정보 및/또는 공유 자료 정보 중 적어도 하나를 저장하고, 사용자로부터 정보의 확인 요청이 입력된 것에 기반하여, 상기 영상 정보, 상기 음성 정보 및/또는 상기 공유 자료 정보 중 적어도 하나는 표시될 수 있다. In addition, in the method of the present specification, the AI-based avatar stores at least one of video information, audio information, and/or shared data information about the second event in the virtual space, and a request for confirmation of information from the user is received. Based on the input, at least one of the video information, the audio information, and/or the shared data information may be displayed.
또한, 본 명세서의 상기 방법에 있어서, 상기 AI 기반의 아바타는 다른 아바타의 음성 또는 움직임 중 기 설정된 음성 또는 움직임을 감지하고, 알림 정보를 표시할 수 있다.Additionally, in the method of the present specification, the AI-based avatar can detect a preset voice or movement among the voices or movements of another avatar and display notification information.
또한, 본 명세서의 상기 방법에 있어서, 상기 가상 공간에 대한 출력화면은 3D 공간 뷰와 상기 3D 공간 뷰와 병렬적으로 구성된 2D 뷰를 포함하고, 상기 3D 공간 뷰는 상기 가상 공간을 표시하며, 상기 2D 뷰는 상기 표시되는 가상 공간의 특성에 따라 변경되는 그래픽 유저 인터페이스를 표시할 수 있다.In addition, in the method of the present specification, the output screen for the virtual space includes a 3D space view and a 2D view configured in parallel with the 3D space view, and the 3D space view displays the virtual space, The 2D view may display a graphical user interface that changes depending on the characteristics of the displayed virtual space.
또한, 본 명세서의 상기 방법에 있어서, 상기 제1 이벤트 또는 상기 제2 이벤트에 대한 초대 정보는 이벤트 제목에 대한 정보, 이벤트 공간에 대한 정보, 및/또는 이벤트 진행 시간에 대한 정보 중 적어도 하나를 포함할 수 있다.Additionally, in the method of the present specification, the invitation information for the first event or the second event includes at least one of information about the event title, information about the event space, and/or information about the event progress time. can do.
본 명세서의 가상 공간의 다수의 이벤트에 동시에 참여하기 위한 참석자 단말은, 적어도 하나의 송수신기와, 적어도 하나의 프로세서와, 상기 적어도 하나의 프로세서에 작동 가능하게 연결되고, 상기 적어도 하나의 프로세서에 의해 실행되는 것에 기반하여, 동작들을 수행하는 명령어(instruction)들을 저장하는 적어도 하나의 메모리를 포함하고, 상기 동작들은, 상기 가상 공간의 제1 이벤트에 대한 초대 정보를 제1 관리자 아바타로부터 수신하는 단계와, 상기 가상 공간의 제2 이벤트에 대한 초대 정보를 제2 관리자 아바타로부터 수신하는 단계와, 상기 제1 이벤트에는 직접 제어되는 아바타에 기반하여 참여하는 단계와, 상기 가상 공간의 제1 이벤트와 동시에 진행되는 상기 제2 이벤트에는, 다른 아바타와 상호작용하는 인공지능(artificial intelligence, AI) 기반의 아바타에 의해 참여하는 단계를 포함할 수 있다.An attendee terminal for simultaneously participating in multiple events in a virtual space of the present specification includes at least one transceiver, at least one processor, operably connected to the at least one processor, and executing by the at least one processor. At least one memory storing instructions for performing operations based on what happens, the operations comprising: receiving invitation information for a first event in the virtual space from a first administrator avatar; Receiving invitation information for a second event in the virtual space from a second manager avatar, participating in the first event based on a directly controlled avatar, and taking place simultaneously with the first event in the virtual space The second event may include participation by an artificial intelligence (AI)-based avatar that interacts with other avatars.
또한, 본 명세서의 상기 참석자 단말에 있어서, 상기 AI 기반의 아바타는 머신 러닝에 기반하여, 실시간으로 상기 다른 아바타의 문의에 메시지 또는 음성으로 응답하거나, 제2 이벤트 관련 자료 정보를 전달할 수 있다.Additionally, in the attendee terminal of this specification, the AI-based avatar may respond to the other avatar's inquiry in real time with a message or voice, or deliver material information related to the second event, based on machine learning.
또한, 본 명세서의 상기 참석자 단말에 있어서, 상기 AI 기반의 아바타는 머신 러닝에 기반하여, 실시간으로 다른 아바타에 메시지 또는 음성으로 문의하거나, 제2 이벤트 관련 자료 정보를 전달할 수 있다.Additionally, in the attendee terminal of the present specification, the AI-based avatar can inquire with another avatar through a message or voice in real time, or transmit material information related to the second event, based on machine learning.
또한, 본 명세서의 상기 참석자 단말에 있어서, 상기 AI 기반의 아바타는 상기 가상 공간의 제2 이벤트에 대한 영상 정보, 음성 정보 및/또는 공유 자료 정보 중 적어도 하나를 저장하고, 사용자로부터 정보의 확인 요청이 입력된 것에 기반하여, 상기 영상 정보, 상기 음성 정보 및/또는 상기 공유 자료 정보 중 적어도 하나는 표시될 수 있다.Additionally, in the attendee terminal of the present specification, the AI-based avatar stores at least one of video information, audio information, and/or shared data information about the second event in the virtual space, and requests confirmation of the information from the user. Based on this input, at least one of the video information, the audio information, and/or the shared material information may be displayed.
또한, 본 명세서의 상기 참석자 단말에 있어서, 상기 AI 기반의 아바타는 다른 아바타의 음성 또는 움직임 중 기 설정된 음성 또는 움직임을 감지하고, 알림 정보를 표시할 수 있다.Additionally, in the attendee terminal of this specification, the AI-based avatar can detect a preset voice or movement among the voices or movements of another avatar and display notification information.
또한, 본 명세서의 상기 참석자 단말에 있어서, 상기 가상 공간에 대한 출력화면은 3D 공간 뷰와 상기 3D 공간 뷰와 병렬적으로 구성된 2D 뷰를 포함하고, 상기 3D 공간 뷰는 상기 가상 공간을 표시하며, 상기 2D 뷰는 상기 표시되는 가상 공간의 특성에 따라 변경되는 그래픽 유저 인터페이스를 표시할 수 있다.In addition, in the participant terminal of the present specification, the output screen for the virtual space includes a 3D space view and a 2D view configured in parallel with the 3D space view, and the 3D space view displays the virtual space, The 2D view may display a graphical user interface that changes depending on the characteristics of the displayed virtual space.
또한, 본 명세서의 상기 참석자 단말에 있어서, 상기 제1 이벤트 또는 상기 제2 이벤트에 대한 초대 정보는 이벤트 제목에 대한 정보, 이벤트 공간에 대한 정보, 및/또는 이벤트 진행 시간에 대한 정보 중 적어도 하나를 포함할 수 있다.Additionally, in the attendee terminal of the present specification, the invitation information for the first event or the second event includes at least one of information about the event title, information about the event space, and/or information about the event progress time. It can be included.
본 명세서에 따르면, 가상 공간에서의 다수의 이벤트에 동시에 참여 가능한 효과가 있다.According to this specification, there is an effect of being able to participate in multiple events in a virtual space simultaneously.
또한, 본 명세서에 따르면, 인공지능(artificial intelligence, AI) 기반의 아바타가 이벤트에 대신 참석하여 활동할 수 있도록 하는 효과가 있다.In addition, according to the present specification, there is an effect of allowing an artificial intelligence (AI)-based avatar to attend an event and participate in activities on behalf of the user.
또한, 본 명세서에 따르면, 가상 공간을 표시하는 화면과 가상 공간의 특성에 변경되는 GUI를 병렬로 표시할 수 있는 효과가 있다.In addition, according to the present specification, there is an effect of displaying a screen displaying a virtual space and a GUI that changes the characteristics of the virtual space in parallel.
본 명세서에서 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 명세서가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects that can be obtained in this specification are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below. .
본 명세서에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부 도면은 본 명세서에 대한 실시 예를 제공하고, 상세한 설명과 함께 본 명세서의 기술적 특징을 설명한다.The accompanying drawings, which are included as part of the detailed description to aid understanding of the present specification, provide examples of the present specification and explain technical features of the present specification together with the detailed description.
도 1은 본 명세서에서 제안하는 이벤트 참여 방법을 설명하기 위한 흐름도이다.Figure 1 is a flow chart to explain the event participation method proposed in this specification.
도 2는 본 명세서에서 제안하는 이벤트 관리자가 이벤트를 생성하는 방법을 설명하기 위한 도이다.Figure 2 is a diagram for explaining how the event manager proposed in this specification creates an event.
도 3은 본 명세서에서 제안하는 이벤트 관리자가 참석자를 관리하는 방법을 설명하기 위한 도이다.Figure 3 is a diagram to explain how the event manager proposed in this specification manages attendees.
도 4는 본 명세서에서 제안하는 이벤트 참석자가 초대 정보를 확인하고 참석을 승인하는 방법을 설명하기 위한 도이다.FIG. 4 is a diagram illustrating a method for event attendees to check invitation information and approve attendance proposed in this specification.
도 5는 본 명세서에서 제안하는 이벤트에 직접 참석하는 방법을 설명하기 위한 도이다.Figure 5 is a diagram for explaining a method of directly attending an event proposed in this specification.
도 6은 본 명세서에서 제안하는 다수의 이벤트에 동시에 참여하는 방법을 설명하기 위한 도이다.Figure 6 is a diagram for explaining a method of simultaneously participating in multiple events proposed in this specification.
도 7은 본 명세서에서 제안하는 3D 공간 뷰와 병렬적으로 2D 뷰를 구성하는 방법을 설명하기 위한 도이다.Figure 7 is a diagram for explaining a method of configuring a 2D view in parallel with a 3D space view proposed in this specification.
도 8은 본 명세서에서 제안하는 AI 기반의 아바타를 이용하여 참석자 단말이 다수의 이벤트에 동시에 참여하는 방법을 설명하기 위한 흐름도이다.Figure 8 is a flowchart illustrating a method for participant terminals to participate in multiple events simultaneously using the AI-based avatar proposed in this specification.
도 9는 본 명세서에서 제안하는 이벤트 관리 시스템의 블록도를 예시한다.Figure 9 illustrates a block diagram of the event management system proposed in this specification.
도 10은 본 명세서에서 제안하는 참석자 단말의 블록도를 예시한다.Figure 10 illustrates a block diagram of an attendee terminal proposed in this specification.
도 11은 본 명세서에서 제안하는 3D 공간 뷰와 병렬적으로 2D 뷰를 구성하고, 대리봇을 생성하여 이벤트에 동시에 참여하는 사용자인터페이스를 설명하기 위한 도이다. Figure 11 is a diagram to explain a user interface that configures a 2D view in parallel with the 3D spatial view proposed in this specification, creates a surrogate bot, and participates in an event at the same time.
도 12은 본 명세서에서 제안하는 대리봇을 생성하여 이벤트에 동시에 참여하는 사용자 인터페이스의 예시를 설명하기 위한 도이다.Figure 12 is a diagram for explaining an example of a user interface for simultaneously participating in an event by creating a surrogate bot proposed in this specification.
이하, 본 명세서에 따른 바람직한 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 명세서의 예시적인 실시형태를 설명하고자 하는 것이며, 본 명세서가 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다. 이하의 상세한 설명은 본 명세서의 완전한 이해를 제공하기 위해서 구체적 세부사항을 포함한다. 그러나, 당업자는 본 명세서가 이러한 구체적 세부사항 없이도 실시될 수 있음을 안다. Hereinafter, preferred embodiments according to the present specification will be described in detail with reference to the attached drawings. The detailed description set forth below in conjunction with the accompanying drawings is intended to illustrate exemplary embodiments of the present disclosure and is not intended to represent the only embodiments in which the disclosure may be practiced. The following detailed description includes specific details to provide a thorough understanding of the disclosure. However, one skilled in the art will recognize that the present disclosure may be practiced without these specific details.
몇몇 경우, 본 명세서의 개념이 모호해지는 것을 피하기 위하여 공지의 구조 및 장치는 생략되거나, 각 구조 및 장치의 핵심기능을 중심으로 한 블록도 형식으로 도시될 수 있다.In some cases, in order to avoid ambiguity in the concepts of the present specification, well-known structures and devices may be omitted or may be shown in block diagram form focusing on the core functions of each structure and device.
본 명세서에서 '/'는 문맥에 따라 'and', 'or' 또는 'and/or'을 의미한다.In this specification, '/' means 'and', 'or', or 'and/or' depending on the context.
도 1은 본 명세서에서 제안하는 이벤트 참여 방법을 설명하기 위한 흐름도이다. 이하, 도 1을 참조하여, 관리자 단말과 참석자 단말의 동작을 살펴본다. 이하, 본 명세서에서, 관리자 단말, 참석자 단말의 전부 또는 일부가 관리자 아바타, 참석자 아바타로 대체되어 적용될 수 있다. 즉, 본 명세서의 제안 방법은 가상 공간 내의 아바타의 관점에서 설명될 수도 있다.Figure 1 is a flow chart to explain the event participation method proposed in this specification. Hereinafter, with reference to FIG. 1, we will look at the operations of the administrator terminal and participant terminals. Hereinafter, in this specification, all or part of the manager terminal and attendee terminal may be replaced with the manager avatar and attendee avatar. That is, the method proposed in this specification may be explained from the perspective of an avatar in a virtual space.
먼저, 관리자 단말(또는 관리자 아바타)의 동작부터 살펴본다.First, let's look at the operation of the administrator terminal (or administrator avatar).
관리자 단말의 동작Operation of administrator terminal
관리자 단말(또는 관리자 아바타)은 S110 단계에서, 가상 공간 상에서 이벤트를 생성할 수 있다. 도 2는 본 명세서에서 제안하는 이벤트 관리자가 이벤트를 생성하는 방법을 설명하기 위한 도이다. 도 2를 참조하면, 관리자 단말(또는 관리자 아바타)은 가상 공간 표시부(210)와 그래픽 유저 인터페이스부(220)을 표시할 수 있다. 예를 들어, 관리자 단말(또는 관리자 아바타)은 출력부(예: 디스플레이)를 통해 가상 공간 표시부(210)와 그래픽 유저 인터페이스부(220)를 표시할 수 있다. 가상 공간 표시부(210)에는, 가상 공간에서의 관리자 아바타(예: 직접 제어하는 아바타 또는 AI 기반의 아바타)가 표시될 수 있다. 예를 들어, 관리자 아바타의 이동 및 움직임은 가상 공간 표시부(210)에 표시될 수 있다. 그래픽 유저 인터페이스부(220)는 관리자 아바타의 진입이 불가능한 영역으로, 사용자에 조작 편의를 제공하는 부분을 의미할 수 있다. 예를 들어, 관리자 단말은 사용자로부터 그래픽 유저 인터페이스부(220)의 이벤트 명(event name), 이벤트 공간(event hall), 이벤트 일자(event date), 이벤트 세부사항(event detail), 첨부파일(attachments)을 포함하는 이벤트 생성 정보를 입력 받을 수 있다. 예를 들어, 관리자 단말은 입력부를 포함할 수 있으며, 입력부를 통해 사용자로부터 이벤트 생성 정보 등을 입력 받을 수 있다. 입력부는 키보드, 마우스, 웨어러블 장치 등일 수 있다. 관리자 단말은 관리자로부터 이벤트 생성 정보 등을 입력 받으면, 이벤트 생성 정보에 기반하여 이벤트를 생성할 수 있다.The administrator terminal (or administrator avatar) may generate an event in virtual space in step S110. Figure 2 is a diagram for explaining how the event manager proposed in this specification creates an event. Referring to FIG. 2, the administrator terminal (or administrator avatar) may display a virtual space display unit 210 and a graphical user interface unit 220. For example, the administrator terminal (or administrator avatar) may display the virtual space display unit 210 and the graphic user interface unit 220 through an output unit (eg, display). The virtual space display unit 210 may display an administrator avatar (eg, a directly controlled avatar or an AI-based avatar) in the virtual space. For example, the movement and movement of the manager avatar may be displayed on the virtual space display unit 210. The graphic user interface unit 220 is an area into which an administrator avatar cannot enter, and may refer to a part that provides convenience of operation to the user. For example, the administrator terminal receives the event name, event space (event hall), event date, event details, and attachments of the graphical user interface unit 220 from the user. ) can be input as event creation information. For example, the administrator terminal may include an input unit, and may receive event creation information, etc. from the user through the input unit. The input unit may be a keyboard, mouse, wearable device, etc. When the administrator terminal receives event creation information, etc. from the manager, it can generate an event based on the event creation information.
그리고/또는, 관리자 단말(또는 관리자 아바타)은 S120 단계에서, 이벤트의 초대 정보를 참석자 아바타(또는 참석자 단말)에 전송/전달할 수 있다. 예를 들어, 이벤트의 초대 정보는 관리자 단말(또는 관리자)이 생성한 이벤트에 참석할 것을 요청하는 정보일 수 있다. 이벤트에 초대되는 사용자 목록 또는 사용자 아바타의 목록은 이벤트 생성 정보에 포함되어 입력될 수 있으며, 또는 이벤트 생성 정보가 입력된 후 별도로 초대 요청 정보에 포함되어 입력될 수 있다. 예를 들어, 초대되는 사용자 목록 또는 사용자 아바타의 목록이 이벤트 생성 정보에 포함되는 경우, 이벤트 생성 후 사용자 목록 또는 사용자 아바타의 목록의 아바타들(또는 단말들)에 초대 정보가 전송/전달될 수 있다. 예를 들어, 초대되는 사용자 목록 또는 사용자 아바타의 목록이 별도의 초대 요청 정보에 포함되는 경우, 이벤트가 생성되고 초대 요청 정보가 입력된 후, 사용자 목록 또는 사용자 아바타의 목록의 아바타들(또는 단말)들에 초대 정보가 전송/전달될 수 있다. 그리고/또는 초대 링크가 전달되고, 초대 링크를 전달받은 사용자는 초대 링크를 클릭하면, 초대 정보를 수신/전달 받을 수 있다.And/or, the manager terminal (or manager avatar) may transmit/deliver event invitation information to the attendee avatar (or attendee terminal) in step S120. For example, event invitation information may be information requesting attendance at an event created by an administrator terminal (or administrator). The list of users or the list of user avatars invited to the event may be entered as included in the event creation information, or may be entered as included in the invitation request information separately after the event creation information is entered. For example, if a list of invited users or a list of user avatars is included in the event creation information, the invitation information may be transmitted/delivered to the avatars (or terminals) in the user list or the list of user avatars after event creation. . For example, if the list of invited users or the list of user avatars is included in separate invitation request information, after an event is created and the invitation request information is entered, the avatars (or terminals) in the user list or the list of user avatars Invitation information may be transmitted/delivered to the users. And/or the invitation link is delivered, and the user who receives the invitation link can receive/deliver the invitation information by clicking the invitation link.
그리고/또는, 초대 정보는 별도의 사용자 목록 또는 사용자 아바타의 목록을 입력 받는 것 없이, 가상 공간 표시부(210)에 표시되는 임의의 아바타들(또는, 단말들)에 전송/전달될 수 있다.And/or, the invitation information may be transmitted/delivered to any avatars (or terminals) displayed on the virtual space display unit 210 without receiving a separate user list or user avatar list.
그리고/또는, 초대 정보는 별도의 초대되는 사용자 목록 또는 사용자 아바타의 목록을 입력 받는 것 없이, 가상 공간 내의 게시판 등을 통해 공유되고, 참석 희망자가 가상 공간 내 아바타에 의해 이벤트 참석 신청을 하여 진행될 수도 있다.And/or, the invitation information may be shared through bulletin boards in the virtual space, etc., without receiving a separate list of invited users or user avatars, and the event may be progressed by a person wishing to attend applying for the event by an avatar in the virtual space. there is.
그리고/또는, 참석자 단말(또는, 참석자 아바타)은 S130 단계에서, 참석을 승인할 수 있다. 참석 승인 관련 설명은 참석자 단말(또는, 참석자 아바타)의 동작에서 후술한다.And/or, the attendee terminal (or attendee avatar) may approve attendance in step S130. Descriptions related to attendance approval will be described later in the operation of the attendee terminal (or attendee avatar).
그리고/또는, 관리자 단말(또는 관리자 아바타)은 S140 단계에서, 참석 승인 관련 정보를 참석자 아바타(또는 참석자 단말)로부터 수신/전달 받을 수 있다. 예를 들어, 참석 승인 관련 정보는 이벤트 진행 시간에 이벤트에 참석하는 것을 알리는 정보일 수 있다. 다시 말해, 참석 승인 관련 정보는 이벤트 진행 시간에 해당 이벤트에 참석하는 것을 알리는 정보일 수 있다. 그리고/또는, 참석 승인 관련 정보는 참석자 아바타(또는 참석자 단말) 또는 참석자의 정보를 포함할 수 있다. 예를 들어, 참석 승인 관련 정보는 참석자 또는 참석자 아바타 관련 정보를 포함할 수 있다. 예를 들어, 참석자 또는 참석자 아바타 관련 정보는 아바타의 식별 정보(예: 아바타의 등록번호 등), 참석자 또는 참석자 아바타의 소속 정보(예: 회사명, 부서명, 회사위치 등)을 포함할 수 있다. 또는, 관리자 단말(또는 관리자 아바타)은 참석 승인 관련 정보는 별도로 수신/전달 받지 않을 수 있다. 즉, 참석 승인 관련 정보의 수신/전달 동작 없이 다음 동작이 진행될 수 있다.And/or, the manager terminal (or manager avatar) may receive/deliver information related to attendance approval from the attendee avatar (or attendee terminal) in step S140. For example, information related to attendance approval may be information indicating attendance at an event during the event progress time. In other words, the information related to attendance approval may be information indicating attendance at the event during the event progress time. And/or, the attendance approval related information may include the attendee avatar (or attendee terminal) or attendee information. For example, information related to attendance approval may include information related to attendees or attendee avatars. For example, the information related to the attendee or attendee avatar may include the avatar's identification information (e.g., the avatar's registration number, etc.), and the affiliation information of the attendee or attendee avatar (e.g., company name, department name, company location, etc.). Alternatively, the administrator terminal (or administrator avatar) may not separately receive/deliver information related to attendance approval. In other words, the next operation may proceed without receiving/transmitting information related to attendance approval.
그리고/또는, 참석자 아바타(또는 참석자 단말)는 입력부를 통해 사용자의 참석 승인을 입력 받고 초대 정보의 내용을 저장하며 추후 이벤트의 진행 시간에 가까워지는 경우 사용자에 표시부를 통해 알릴 수 있다. 예를 들어, 이벤트 시작 시간이 오후 2:00 인 경우, 참석자 아바타(또는 참석자 단말)는 출력부(예: 디스플레이)를 통해 오후 1:50분에 이벤트의 시작을 알릴 수 있다. And/or, the attendee avatar (or attendee terminal) receives the user's attendance approval through the input unit, stores the contents of the invitation information, and notifies the user through the display unit when the event progress time approaches. For example, if the event start time is 2:00 PM, the attendee avatar (or attendee terminal) may announce the start of the event at 1:50 PM through an output unit (e.g., display).
그리고/또는, 참석자 단말(또는 참석자 아바타)은 S150 단계에서, 이벤트에 참석할 수 있다. 예를 들어, 관리자 단말(또는 관리자/관리자 아바타)은 이벤트 진행 시간에 이벤트에 참가한 참가자 아바타(또는 참가자 단말)를 도 3과 같이, 가상 공간 표시부(310) 및/또는 그래픽 유저 인터페이스부(320)을 통해 확인할 수 있다. 예를 들어, 가상 공간 표시부(310)에는 6명의 참가자 아바타가 표시될 수 있다. 그리고/또는, 그래픽 유저 인터페이스부(320)에는 이벤트 명(예: Event 1), 이벤트 공간(예: Metaverse Hall 1), 이벤트 진행 시간(예: 22/12/25, 12:00PM~14:00PM), 참가자의 리스트 등이 표시될 수 있다.And/or, the attendee terminal (or attendee avatar) may attend the event in step S150. For example, the administrator terminal (or administrator/administrator avatar) displays the participant avatar (or participant terminal) participating in the event during the event progress time through the virtual space display unit 310 and/or the graphical user interface unit 320, as shown in FIG. You can check it through . For example, six participant avatars may be displayed on the virtual space display unit 310. And/or, the graphic user interface unit 320 may include an event name (e.g., Event 1), an event space (e.g., Metaverse Hall 1), and an event progress time (e.g., 22/12/25, 12:00PM to 14:00PM). ), a list of participants, etc. may be displayed.
그리고/또는, 관리자 단말(또는 관리자 아바타) 및/또는 참석자 단말(또는 참가자 아바타)에는 이벤트 진행 시간 이전에 이벤트 관련 공유 정보가 공유될 수 있다. 참석자/사용자는 해당 정보를 사전에 검토하고 이벤트에 참석할 수 있다.And/or, event-related shared information may be shared with the administrator terminal (or administrator avatar) and/or participant terminal (or participant avatar) before the event progress time. Attendees/users can review the information in advance and attend the event.
다음, 참석자 단말(또는 참석자 아바타)의 동작을 살펴본다.Next, let's look at the operation of the participant's terminal (or participant's avatar).
참석자 단말 동작Attendee terminal operation
참석자 단말(또는 참석자 아바타)은 S120 단계에서, 이벤트의 초대 정보를 관리자 단말(또는 관리자 아바타)로부터 수신/전달 받을 수 있다. 예를 들어, 참석자 단말의 출력부는 도 4와 같이, 스케줄러(Scheduler)를 그래픽 유저 인터페이스부(420)에 표시할 수 있다. 예를 들어, 스케줄러(Scheduler)는 초대(Invitation) 파트와 나의 스케줄(My schedule) 파트를 포함할 수 있다. 초대(Invitation) 파트에는 수신된 초대 정보의 내용이 표시될 수 있다. 예를 들어, 초대(Invitation) 파트에는 이벤트 명(예: Event 1), 이벤트 공간(예: Metaverse Hall 1), 이벤트 진행 시간(예: 22/12/25, 12:00PM~14:00PM), O 버튼(예: 참석 승인 버튼), X 버튼(예: 삭제 버튼), 세부 정보를 표시하기 위한 버튼(예: Show Detail 버튼) 등이 표시될 수 있다. 나의 스케줄(My schedule) 파트에는 승인된 이벤트와 관련된 정보가 표시될 수 있다. 예를 들어, 나의 스케줄 파트에는 승인된 이벤트의 이벤트 명(예: Event 0), 이벤트 공간(예: Metaverse Hall 0), 이벤트 진행 시간(예: 22/12/25, 11:00PM~12:00PM), 해당 이벤트의 삭제 버튼(X), 이벤트 참석이 불가함을 나타내는 문구(예: "Admission is possible 10 minutes before event start") 등이 표시될 수 있다. 예를 들어, 추후 이벤트 시작 10분 전 인 경우, 이벤트 참석이 불가함을 나타내는 문구는 직접 참석 버튼(예: In Person 버튼), 아바타 참석 버튼(예: In Avatar 버튼), 나가기 버튼(예: Exit)으로 변경되어 표시될 수 있다.The attendee terminal (or attendee avatar) may receive/deliver event invitation information from the administrator terminal (or administrator avatar) in step S120. For example, the output unit of the attendee terminal may display a scheduler on the graphic user interface unit 420, as shown in FIG. 4. For example, Scheduler may include an Invitation part and a My Schedule part. The Invitation part may display the contents of the received invitation information. For example, the invitation part includes the event name (e.g. Event 1), event space (e.g. Metaverse Hall 1), event progress time (e.g. 22/12/25, 12:00PM~14:00PM), An O button (e.g., attendance approval button), an X button (e.g., delete button), a button to display detailed information (e.g., Show Detail button), etc. may be displayed. Information related to approved events can be displayed in the My schedule part. For example, the My Schedule part contains the event name (e.g. Event 0), event space (e.g. Metaverse Hall 0), and event time (e.g. 22/12/25, 11:00PM to 12:00PM) for approved events. ), a delete button (X) for the event, a phrase indicating that it is impossible to attend the event (e.g., "Admission is possible 10 minutes before event start"), etc. may be displayed. For example, if it is 10 minutes before the start of a future event, the text indicating that you cannot attend the event will be displayed on the direct attendance button (e.g. In Person button), the avatar attendance button (e.g. In Avatar button), and the exit button (e.g. Exit ) can be changed and displayed.
그리고/또는, 참석자 단말(또는, 참석자 아바타)은 S130 단계에서, 참석을 승인할 수 있다. 예를 들어, 참석자 단말(또는, 참석자 아바타)은 사용자로부터 초대 정보의 O 버튼 클릭을 입력 받아 해당 이벤트의 초대 정보를 나의 스케줄(My schedule) 파트로 이동시켜 표시할 수 있다. 예를 들어, 사용자가 도 4의 그래픽 유저 인터페이스부(420)의 초대(Invitation) 파트에 표시된 Event 1에 대한 0 버튼을 클릭하면, 그래픽 유저 인터페이스부(430)와 같이, Event 1에 대한 정보는 나의 스케줄(My schedule) 파트로 이용하여, 이벤트 명(예: Event 1), 이벤트 공간(예: Metaverse Hall 1), 이벤트 진행 시간(예: 22/12/25, 12:00PM~14:00PM), X 버튼, 세부 정보를 표시하기 위한 버튼(예: Show Detail 버튼), 이벤트 참석이 불가함을 나타내는 문구(예: "Admission is possible 10 minutes before event start") 등으로 표시될 수 있다.And/or, the attendee terminal (or attendee avatar) may approve attendance in step S130. For example, the attendee terminal (or attendee avatar) may receive a click on the O button for invitation information from the user and move the invitation information for the event to the My schedule part and display it. For example, when the user clicks the 0 button for Event 1 displayed in the invitation part of the graphical user interface unit 420 of FIG. 4, information about Event 1 is displayed, as in the graphical user interface unit 430. Use it as part of My schedule, including event name (e.g. Event 1), event space (e.g. Metaverse Hall 1), and event progress time (e.g. 22/12/25, 12:00PM~14:00PM) ,
그리고/또는, 참석자 단말(또는 참석자 아바타)은 S140 단계에서, 관리자 아바타(또는 관리자 단말)에 참석 승인 관련 정보를 전송/전달할 수 있다. 다만, 해당 동작은 생략될 수도 있다. 참석 승인 관련 정보에 대한 설명은 관리자 단말의 동작에서 상술했다.And/or, the attendee terminal (or attendee avatar) may transmit/deliver information related to attendance approval to the manager avatar (or manager terminal) in step S140. However, the corresponding operation may be omitted. Information related to attendance approval is described in detail in the operation of the administrator terminal.
그리고/또는, 참석자 아바타(또는 참석자)는 S150 단계에서, 이벤트에 참석할 수 있다. 예를 들어, 도 5와 같이, 그래픽 유저 인터페이스부(520)는 이벤트 시작 10분 전인 경우, 이벤트 참석이 불가함을 나타내는 문구는 직접 참석 버튼(예: In Person 버튼)(활성버튼)과 아바타 참석 버튼(예: In Avatar 버튼)(활성버튼)과 나가기 버튼(예: Exit)(비활성버튼)으로 변경되어 표시될 수 있다. And/or, the attendee avatar (or attendee) may attend the event in step S150. For example, as shown in Figure 5, when the graphic user interface unit 520 is 10 minutes before the start of the event, a phrase indicating that event attendance is not possible is displayed on the direct attendance button (e.g., In Person button) (activation button) and the avatar attendance button. It can be displayed as a button (e.g. In Avatar button) (active button) and an exit button (e.g. Exit) (inactive button).
이때, 참석자 단말(또는 참석자 아바타/참석자)은 사용자로부터 Event 0에 대한 직접 참석 버튼(예: In Person 버튼)의 클릭을 입력 받고 Event 0에 직접 참석 방식으로 참석할 수 있다. 즉, 사용자는 Event 0에, 사용자가 직접 제어하는 아바타에 의해 참석할 수 있다. 이와 같이 직접 참석하는 경우, 가상 공간 표시부(530)에는 Event 0의 이벤트 공간이 표시되고, 그래픽 유저 인터페이스부(540)은 직업 참석 버튼(예: In Person 버튼)을 'Attending'으로 변경하여 표시하고, 나가기 버튼(예: Exit)을 활성화하여 표시할 수 있다.At this time, the attendee terminal (or attendee avatar/attendee) can receive a click on the direct attendance button (e.g., In Person button) for Event 0 from the user and attend Event 0 in a direct attendance manner. In other words, the user can attend Event 0 by an avatar directly controlled by the user. In this case, when attending in person, the virtual space display unit 530 displays the event space of Event 0, and the graphical user interface unit 540 changes the job attendance button (e.g., In Person button) to 'Attending' and displays it. , can be displayed by activating the exit button (e.g. Exit).
그리고, 참석자 단말(또는 참석자 아바타)은 사용자로부터 그래픽 유저 인터페이스부(540)의 Event 1에 대한 아바타 참석 버튼(예: In Avatar 버튼)의 클릭을 입력 받을 수 있다. 이 경우, Event 1의 이벤트 공간은 가상 공간 표시부(610)와 같이, 오른쪽 상부에 표시될 수 있다. 즉, 가상 공간 표시부(610)에는 직접 참석 방식으로 참석한 Event 0의 이벤트 공간이 전체화면으로, (AI 기반의) 아바타 참석 방식으로 참석한 Event 1의 이벤트 공간이 팝업화면으로 동시에 표시될 수 있다. 이와 같이 AI 기반의 아바타 방식으로 참석하는 경우, 도 6에 도시된 바와 같이, 그래픽 유저 인터페이스부(620)는 (AI 기반의) 아바타 참석 버튼(예: In Avatar 버튼)을 'Attending'으로 표시하고, 나가기 버튼(예: Exit)을 활성화하여 표시할 수 있다.Additionally, the attendee terminal (or attendee avatar) may receive a click on the avatar attendance button (eg, In Avatar button) for Event 1 of the graphical user interface unit 540 from the user. In this case, the event space of Event 1 may be displayed in the upper right, like the virtual space display unit 610. That is, in the virtual space display unit 610, the event space of Event 0, which was attended in person, can be displayed simultaneously in full screen, and the event space of Event 1, attended by (AI-based) avatar attendance, can be displayed in a pop-up screen. . In this case, when attending using the AI-based avatar method, as shown in FIG. 6, the graphic user interface unit 620 displays the (AI-based) avatar attendance button (e.g., In Avatar button) as 'Attending' and , can be displayed by activating the exit button (e.g. Exit).
이때, 아바타 참석 방식으로 참석한 Event 1에는 인공지능(artificial intelligence, AI) 기반의 아바타가 기본 아바타(즉, 사용자에 의해 제어되는 아바타)를 대신하여 참석할 수 있다. AI 기반의 아바타는 Event 1의 회의 내용, 대화 내용 등을 학습하고 저장할 수 있다. 예를 들어, AI 기반의 아바타는 기 학습된 정보를 기반으로 Event 1에 참석한 다른 참석자 아바타, 관리자 아바타 등과 명함을 교환하거나 대화를 나눌 수 있으며, 이와 같은 사항은 학습과 동시에 저장되고 추후 사용자에 제공될 수 있다. 예를 들어, AI 기반의 아바타는 다른 참가자 아바타에 메시지를 발송하거나 수신할 수 있고, Event 1에서 논의된 추후 일정에 대해 일정 관리를 진행하고 일정이 가까워지는 경우 푸쉬(push) 알람도 가능하다. 예를 들어, AI 기반의 아바타는 챗봇 기능을 수행할 수도 있다. 예를 들어, AI 기반의 아바타는 회의 중 특정 단어 등이 감지되었을 때, Event 0에 참여 중인 사용자 또는 아바타에 푸쉬 알림을 전달할 수도 있다. 예를 들어, AI 기반의 아바타는 사용자의 회사 정보, IR 자료 등의 정보를 Event 1의 다른 참여자들에 제공할 수도 있다. 즉, AI 기반의 아바타는 사용자를 대신하여 이벤트에 참석하는 것뿐만 아니라, 능동적/적극적으로 이벤트에 진행/참여할 수 있다. 즉, 본 명세서에서 '다른 아바타와 상호작용하는 AI 기반의 아바타'는 상술한 바와 같이 능동적/적극적으로 이벤트에 진행/참여할 수 있는 AI 기반의 아바타를 의미할 수 있다.At this time, an artificial intelligence (AI)-based avatar can attend Event 1 in place of the default avatar (i.e., an avatar controlled by the user) in Event 1 attended by an avatar attendance method. The AI-based avatar can learn and save the meeting contents and conversation contents of Event 1. For example, an AI-based avatar can exchange business cards or have a conversation with other attendee avatars, manager avatars, etc. who attended Event 1 based on previously learned information, and such information is saved at the time of learning and can be shared with the user later. can be provided. For example, an AI-based avatar can send or receive messages to other participant avatars, manage schedules for future schedules discussed in Event 1, and even provide push notifications when the schedule approaches. For example, AI-based avatars can perform chatbot functions. For example, an AI-based avatar can deliver a push notification to the user or avatar participating in Event 0 when a specific word is detected during a meeting. For example, an AI-based avatar may provide information such as the user's company information and IR materials to other participants in Event 1. In other words, AI-based avatars can not only attend events on behalf of users, but also actively/proactively proceed/participate in events. That is, in this specification, 'AI-based avatar that interacts with other avatars' may mean an AI-based avatar that can actively/proactively proceed/participate in events as described above.
상술한 예시는 제1 이벤트에 직접 참석 방식으로 참석 후 제2 이벤트에 AI 기반의 아바타로 참석한 것을 중심으로 설명됐으나, AI 기반의 아바타로 참석한 후 직접 참석 방식으로 참석하거나, 또는 다수의 이벤트에 직접 참석 방식으로만 참석하거나, 또는 다수의 이벤트에 AI 기반의 아바타로만 참석할 수 있다.The above-mentioned example focuses on attending the first event in person and then attending the second event as an AI-based avatar. However, after attending as an AI-based avatar, the person attends in person, or attends multiple events. You can only attend in person, or you can attend many events only with an AI-based avatar.
상술한 예시는 참석자 단말(또는 참석자)가 AI 기반의 아바타를 이용하는 중심으로 설명됐으나, 관리자 단말(또는 관리자)도 AI 기반의 아바타에 의해 다수의 이벤트를 관리할 수 있음은 물론이다.The above example has been explained with the focus on the attendee terminal (or attendee) using an AI-based avatar, but of course, the administrator terminal (or manager) can also manage multiple events using an AI-based avatar.
그리고/또는, 사용자는 Event 0과 Event 1을 모두 아바타 방식으로 참석할 수 있다. 예를 들어, 도 5의 그래픽 유저 인터페이스부(520)에 표시된 나의 스케줄(My schedule)의 Event 0에 대한 정보와 Event 1에 대한 정보에서 모두 사용자에 의해 (AI 기반의) 아바타 참석 버튼(In Avatar 버튼)의 클릭이 입력될 수 있다. 이 경우, Event 0의 이벤트 공간과 Event 1의 이벤트 공간은 별도의 팝업화면으로 표시되거나, 둘 중 하나는 전체화면으로 나머지 하나는 팝업화면으로 표시될 수 있다.And/or, the user can attend both Event 0 and Event 1 as an avatar. For example, in the information about Event 0 and Event 1 of My schedule displayed on the graphic user interface unit 520 of FIG. 5, the (AI-based) avatar attendance button (In Avatar) is activated by the user. A click on a button) may be input. In this case, the event space of Event 0 and the event space of Event 1 may be displayed as separate pop-up screens, or one of them may be displayed as a full screen and the other as a pop-up screen.
그리고/또는, (이벤트 진행 도중) Event 0은 (AI 기반의) 아바타 참석 방식으로, Event 1는 직접 참석 방식으로 전환될 수 있다. 예를 들어, 도 6의 그래픽 유저 인터페이스부(620)에 표시된 Event 0에 대한 아바타 참석(In Avatar 버튼) 버튼을 입력 받거나 또는 Event 1에 대한 직접 참석 버튼(In Person 버튼)을 입력 받으면, 가상 공간 표시부(630)에는 Event 1의 이벤트 공간이 전체화면으로, Event 0의 이벤트 공간이 팝업화면으로 전환되어 표시될 수 있다. 이때, 그래픽 유저 인터페이스부(620)에 표시된 Event 0에 대한 아바타 참석 버튼(In Avatar 버튼)과 Event 1에 대한 직접 참석 버튼(In Person 버튼)은 그래픽 유저 인터페이스부(640)과 같이'Attending'으로 전환되어 표시될 수 있다.And/or (during the event), Event 0 may be converted to an (AI-based) avatar attendance method and Event 1 may be converted to a direct attendance method. For example, when an avatar attendance button (In Avatar button) for Event 0 displayed on the graphic user interface unit 620 of FIG. 6 is input or a direct attendance button (In Person button) for Event 1 is input, the virtual space On the display unit 630, the event space of Event 1 can be displayed in full screen, and the event space of Event 0 can be displayed in a pop-up screen. At this time, the avatar attendance button (In Avatar button) for Event 0 and the direct attendance button (In Person button) for Event 1 displayed on the graphic user interface unit 620 are set to 'Attending' like the graphic user interface unit 640. The display can be switched.
상술한 실시 예들에서는 두개의 이벤트(Event 0/Event 1)에 참여하는 동작을 중심으로 설명하였으나 이에 한정되지 않으며, 제안 방법이 두개 이상의 이벤트의 참석에도 적용될 수 있음은 물론이다.In the above-described embodiments, the description is focused on the operation of participating in two events (Event 0/Event 1), but the method is not limited thereto, and of course, the proposed method can also be applied to attending two or more events.
상술한 실시 예들에서, 관리자 단말과 참석자 단말 간에 정보를 송수신하는 동작은 도 9와 같이, 이벤트 관리 서버장치에 기반하여 정보를 송수신하는 동작을 포함할 수도 있다.In the above-described embodiments, the operation of transmitting and receiving information between the manager terminal and the attendee terminal may include the operation of transmitting and receiving information based on the event management server device, as shown in FIG. 9.
3D 공간 뷰와 2D 뷰의 병렬적 구성Parallel composition of 3D spatial view and 2D view
관리자 단말 또는 참석자 단말은 가상 공간에 대한 화면과 병렬로 2D 뷰를 구성하여 표시할 수 있다. 도 7은 3D 공간 뷰와 2D 뷰의 병렬적 구성을 예시한다.The administrator terminal or attendee terminal can configure and display a 2D view in parallel with the screen for the virtual space. Figure 7 illustrates a parallel configuration of a 3D spatial view and a 2D view.
도 7을 참조하면, 3D 공간 뷰와 2D 뷰는 관리자 단말 또는 참석자 단말의 출력부를 통해 표시될 수 있다. 2D 뷰는 3D 공간 뷰의 우측에 병력적으로 배치될 수 있다. 3D 공간 뷰는 가상 공간이 표시된 화면부를 의미할 수 있다. 2D 뷰는 공통 부분과 특화 부분을 포함할 수 있다. 특화 부분은 사용자 또는 아바타의 상황 또는 가상 공간의 용도/특성 등에 따라 변경될 수 있다. 예를 들어, 2D 뷰는 메시지 버튼, 참석자 버튼, 회의록 버튼(70), 내 정보 버튼, 워크스페이스 버튼, 설정 버튼, 스케줄러 버튼을 포함할 수 있다. 이중 회의록 버튼(70)은 특화 부분에 포함되고 나머지는 공통 부분에 포함될 수 있다. 즉, 아바타가 위치 한 공간이 회의실인 경우, 회의록 버튼(70)이 2D 뷰에 표시될 수 있다. 예를 들어, 아바타가 가상 공간 내 상점에 위치하는 경우 회의록 버튼(70)은 장바구니 버튼으로 변경되어 표시될 수 있다. 그리고/또는, 2D 뷰는 사용자 또는 아바타의 상황 또는 가상 공간의 용도/특성 등에 따라 사이즈, 비율, 그래픽 스타일, 테마 등을 변경하여 표시할 수도 있다. 본 명세서는 이와 같이 3D 공간 뷰와 2D 뷰를 병렬적으로 구성함으로써, 가상 공간 내 공간의 활용도를 높일 수 있다.Referring to FIG. 7, the 3D spatial view and the 2D view can be displayed through the output unit of the administrator terminal or attendee terminal. The 2D view can be placed sequentially to the right of the 3D spatial view. The 3D spatial view may refer to a screen portion displaying a virtual space. A 2D view can include common parts and specialized parts. The specialized part may change depending on the situation of the user or avatar or the use/characteristics of the virtual space. For example, the 2D view may include a message button, an attendee button, a meeting minutes button 70, a my information button, a workspace button, a settings button, and a scheduler button. Of these, the meeting minutes button 70 may be included in the specialized part and the rest may be included in the common part. That is, if the space where the avatar is located is a conference room, the meeting minutes button 70 may be displayed in the 2D view. For example, if the avatar is located in a store in a virtual space, the meeting minutes button 70 may be changed to a shopping cart button and displayed. And/or, the 2D view may be displayed by changing the size, ratio, graphic style, theme, etc. depending on the user's or avatar's situation or the purpose/characteristics of the virtual space. This specification can increase the utilization of space within the virtual space by configuring the 3D space view and the 2D view in parallel.
도 11은 본 명세서에서 제안하는 3D 공간 뷰와 병렬적으로 2D 뷰를 구성하고, 대리봇을 생성하여 이벤트에 동시에 참여하는 사용자인터페이스를 설명하기 위한 도이다. Figure 11 is a diagram to explain a user interface that configures a 2D view in parallel with the 3D spatial view proposed in this specification, creates a surrogate bot, and participates in an event at the same time.
도 11을 참조하면, 사용자 디스플레이에 3D 공간 뷰와 2D 뷰가 표시될 수 있다. 2D 뷰는 3D 공간 뷰의 좌측 및/또는 우측에 병력적으로 배치될 수 있다. 3D 공간 뷰는 가상 공간이 표시된 화면부를 의미할 수 있다. Referring to FIG. 11, a 3D spatial view and a 2D view may be displayed on the user display. The 2D view may be placed sequentially to the left and/or right of the 3D spatial view. The 3D spatial view may refer to a screen portion displaying a virtual space.
도 11의 예에서 2D 뷰는 주최자의 전용 서버를 선택할 수 있는 객체 (1103)을 포함할 수 있다. 사용자가 임의의 서버를 선택하면, 2D뷰 (1102)를 통해 해당 서버에서 제공하는 가상 공간의 정보가 표시될 수 있으며, 인접하여 3D 공간뷰 (1101)에 상기 가상 공간이 표시될 수 있다. In the example of Figure 11, the 2D view may include an object 1103 that allows selection of the host's dedicated server. When a user selects a random server, information on the virtual space provided by the server may be displayed through the 2D view 1102, and the virtual space may be displayed in the adjacent 3D space view 1101.
도 11의 예에서 사용자는 프라이빗 공간에 입장한 뒤 다른 사용자와 커뮤니케이션할 수 있다. 이때 사용자는 아바타 (1104) 를 생성하여 프라이빗 공간에 입장할 수 있으며, 아바타는 동시에 다수개를 운용할 수 있다. In the example of Figure 11, the user can communicate with other users after entering the private space. At this time, the user can create an avatar 1104 and enter the private space, and multiple avatars can be operated at the same time.
본 발명의 실시예를 따르면, 사용자는 동시에 다수의 프라이빗 공간에 참여하기 위하여 대리봇을 생성하고, 대리봇을 통해 아바타를 운용할 수 있다. According to an embodiment of the present invention, a user can create a surrogate bot and operate an avatar through the surrogate bot in order to participate in multiple private spaces at the same time.
대리봇은 사용자의 언어 패턴을 학습하고 행사 목적을 적용하여 1105와 같이 사용자 입력없이 다른 사용자와 대화할 수 있다. 이때, 대리봇은 대화의 컨텍스트를 파악하여 사용자에게 중요한 메시지가 수신되거나 또는 질문이 수신되면 상기 사용자에게 메시지를 전달하고, 사용자 입력을 대화에 반영할 수 있다. The surrogate bot learns the user's language patterns and applies the purpose of the event to communicate with other users without user input, such as 1105. At this time, the surrogate bot can determine the context of the conversation, deliver the message to the user when an important message or question is received from the user, and reflect the user input in the conversation.
나아가 대리봇은 사용자에게 미리 설정된 시간동안의 활동 내역을 보고할 수 있다. 예를 들어, 오늘의 컨퍼런스 참석결과로 2개의 질문을 받음, 3명이 감사를 표함, 16명이 나를 언급함을 사용자에게 보고할 수 있다. Furthermore, the surrogate bot can report activity details for a preset time to the user. For example, you can report to the user that as a result of attending today's conference, 2 questions were asked, 3 people expressed gratitude, and 16 people mentioned me.
도 12은 본 명세서에서 제안하는 대리봇을 생성하여 이벤트에 참여하는 사용자 인터페이스의 예시를 설명하기 위한 도이다.Figure 12 is a diagram for explaining an example of a user interface for participating in an event by creating a surrogate bot proposed in this specification.
도 12를 참조하면, 사용자는 대리봇을 생성하여 이벤트에 참여할 수 있다. 대리봇은 사용자 입력없이, 이벤트의 목적, 드레스 코드, 아이템을 반영하여 아바타의 형태를 생성할 수 있다. Referring to Figure 12, a user can participate in an event by creating a surrogate bot. The surrogate bot can create the form of an avatar by reflecting the purpose, dress code, and items of the event without user input.
도 8은 본 명세서에서 제안하는 AI 기반의 아바타를 이용하여 다수의 이벤트에 동시에 참여하는 방법을 설명하기 위한 흐름도이다. 예를 들어, 해당 방법은 참석자 단말에 의해 수행될 수 있다.Figure 8 is a flow chart to explain a method of simultaneously participating in multiple events using the AI-based avatar proposed in this specification. For example, the method may be performed by an attendee terminal.
도 8을 참조하면, 먼저, 참석자 단말(또는, 참석자 아바타)은 S810 단계에서, 가상 공간의 제1 이벤트에 대한 초대 정보를 제1 관리자 아바타로부터 수신하거나 전달 받을 수 있다. 예를 들어, 초대 정보는 이벤트 제목에 대한 정보(예: Event 0), 이벤트 공간에 대한 정보(예: Metaverse Hall 0), 및/또는 이벤트 진행 시간에 대한 정보(예: 22/12/25 11:00PM~12:00PM) 중 적어도 하나를 포함할 수 있다.Referring to FIG. 8, first, the attendee terminal (or attendee avatar) may receive or receive invitation information for the first event in the virtual space from the first manager avatar in step S810. For example, invitation information may include information about the event title (e.g., Event 0), information about the event space (e.g., Metaverse Hall 0), and/or information about the time of the event (e.g., 22/12/25 11 :00PM~12:00PM).
그리고/또는, 참석자 단말(또는, 참석자 아바타)은 S820 단계에서, 가상 공간의 제2 이벤트에 대한 초대 정보를 제2 관리자 아바타로부터 수신하거나 전달 받을 수 있다. 예를 들어, 초대 정보는 이벤트 제목에 대한 정보(예: Event 1), 이벤트 공간에 대한 정보(예: Metaverse Hall 1), 및/또는 이벤트 진행 시간에 대한 정보(예: 22/12/25 11:00PM~14:00PM) 중 적어도 하나를 포함할 수 있다.And/or, the attendee terminal (or attendee avatar) may receive or receive invitation information for the second event in the virtual space from the second manager avatar in step S820. For example, invitation information may include information about the event title (e.g., Event 1), information about the event space (e.g., Metaverse Hall 1), and/or information about the event time (e.g., 22/12/25 11 :00PM~14:00PM).
그리고/또는, 참석자 단말(또는, 참석자 아바타)은 S830 단계에서, 제1 이벤트에 직접 제어되는 아바타에 기반하여 참여할 수 있다. 예를 들어, 참석자 단말이 도 5의 그래픽 유저 인터페이스부(520)의 Event 0에 대한 in Person 버튼의 클릭을 입력 받으면, 참석자 또는 참석자 아바타는 제1 이벤트에 참여할 수 있다. 예를 들어, 여기서, 참석자 아바타는 사용자에 의해 직접 제어되는 아바타일 수 있다. 예를 들어, Event 0에 대한 in Person 버튼의 클릭이 사용자에 의해 클릭되면, 해당 버튼의 이미지는 도 6의 그래픽 유저 인터페이스부(620)와 같이, Event 0에 대한 in Person 버튼에서 Attending 버튼으로 변경될 수 있다.And/or, the attendee terminal (or attendee avatar) may participate in the first event based on the avatar directly controlled in step S830. For example, when the attendee terminal receives a click on the in Person button for Event 0 of the graphical user interface unit 520 of FIG. 5, the attendee or attendee avatar can participate in the first event. For example, here, the attendee avatar may be an avatar directly controlled by the user. For example, when the in Person button for Event 0 is clicked by the user, the image of the button changes from the in Person button for Event 0 to an Attending button, as shown in the graphical user interface unit 620 of FIG. 6. It can be.
그리고/또는, 참석자 단말(또는, 참석자 아바타)은 S840 단계에서, 제1 이벤트와 동시에 진행되는 제2 이벤트에 다른 아바타와 상호작용하는 인공지능(artificial intelligence, AI) 기반의 아바타에 의해 참여할 수 있다. 예를 들어, Event 0의 경우 이벤트 시간은 22/12/25 11:00PM~12:00PM이고, Event 1의 경우 이벤트 시간은 22/12/25 11:00PM~14:00PM이므로, 동시에 진행되며, Event 1에는 AI 기반의 아바타가 대신하여 참여할 수 있다. 예를 들어, 참석자 단말이 도 5의 그래픽 유저 인터페이스부(520)의 Event 1에 대한 in Avatar 버튼의 클릭을 입력 받으면, AI 기반의 아바타는 제2 이벤트에 참여할 수 있다. 예를 들어, Event 1에 대한 in Avatar 버튼의 클릭이 사용자에 의해 입력되면, 해당 버튼의 이미지는 도 6의 그래픽 유저 인터페이스부(620)와 같이, Event 1에 대한 in Avatar 버튼에서 Attending 버튼으로 변경될 수 있다.And/or, the attendee terminal (or attendee avatar) may participate in the second event held simultaneously with the first event by an artificial intelligence (AI)-based avatar that interacts with other avatars in step S840. . For example, for Event 0, the event time is 22/12/25 11:00PM~12:00PM, and for Event 1, the event time is 22/12/25 11:00PM~14:00PM, so they take place simultaneously. In Event 1, an AI-based avatar can participate on your behalf. For example, when the attendee terminal receives a click on the in Avatar button for Event 1 of the graphic user interface unit 520 of FIG. 5, the AI-based avatar can participate in the second event. For example, when the click on the in Avatar button for Event 1 is input by the user, the image of the button changes from the in Avatar button for Event 1 to the Attending button, as shown in the graphical user interface unit 620 of FIG. 6. It can be.
상기 AI 기반의 아바타는 사용자 또는 사용자에 의해 제어되는 아바타(또는 참석자 아바타)를 대신하여, Event 1의 다른 아바타(또는, 참석자)에 의견제시/의견수신/자료전달/자료수신 등의 Event 1 내 모든 필요한 활동을 수행할 수 있다.The AI-based avatar replaces the user or the avatar (or attendee avatar) controlled by the user, and provides information within Event 1, such as presenting opinions/receiving opinions/delivering data/receiving data, etc. to other avatars (or attendees) of Event 1. Able to perform all necessary activities.
예를 들어, AI 기반의 아바타는 머신 러닝에 기반하여, 실시간으로 다른 아바타(또는, 참석자)의 문의/질의 등에 메시지 또는 음성 등으로 응답하거나, 제2 이벤트 관련 자료 정보를 전달할 수 있다. 그리고/또는, AI 기반의 아바타는 머신 러닝에 기반하여, 실시간으로 다른 아바타(또는, 참석자)에 메시지 또는 음성 등으로 문의하거나, 제2 이벤트 관련 자료 정보를 전달할 수 있다. 예를 들어, AI 기반의 아바타는 이전에 학습된 정보 또는 해당 이벤트에서 실시간으로 학습된 정보에 기반하여, 이벤트에 참여할 수 있다. 여기서, 다른 아바타는 다른 참석자에 의해 제어되는 아바타 또는 다른 참석자의 AI 기반의 아바타일 수 있다. 예를 들어, 제2 이벤트 관련 자료 정보는 제2 이벤트와 관련해 사용자가 준비한 자료 파일 등을 의미할 수 있다. 예를 들어, 제2 이벤트 관련 자료 정보는 회사 정보, IR 자료 등의 파일일 수 있다.For example, an AI-based avatar can respond to inquiries/inquiries from other avatars (or attendees) in real time with a message or voice, or deliver material information related to a second event, based on machine learning. And/or, the AI-based avatar can inquire with other avatars (or attendees) in real time through a message or voice, or deliver material information related to the second event, based on machine learning. For example, an AI-based avatar can participate in an event based on previously learned information or information learned in real time from the event. Here, the other avatar may be an avatar controlled by another attendee or an AI-based avatar of another attendee. For example, data information related to the second event may mean a data file prepared by the user related to the second event. For example, the second event-related data information may be files such as company information and IR data.
그리고/또는, AI 기반의 아바타는 가상 공간의 제2 이벤트에 대한 영상 정보, 음성 정보 및/또는 공유 자료 정보 등 중 적어도 하나를 저장하고, 사용자로부터 정보의 확인 요청이 입력된 것에 기반하여, 영상 정보, 음성 정보 및/또는 공유 자료 정보 등 중 적어도 하나는 표시/출력될 수 있다. 예를 들어, 영상 정보는 가상 공간 내 제2 이벤트의 진행이 영상으로 저장된 파일 또는 정보를 의미할 수 있다. 예를 들어, 음성 정보는 가상 공간 내 제2 이벤트의 진행 중 발언자의 음성, 참석자의 음성, 공개된 자료들에서 발생된 소리 등 스피커 등으로 출력되는 모든 정보를 의미할 수 있다. 예를 들어, 공유 자료 정보는 제2 이벤트에서 다른 참석자가 공유한 모든 정보를 의미할 수 있다. 예를 들어, 후술할 입력부를 통해 사용자로부터 정보의 확인 요청이 입력되면, 참석자 단말은 후술할 출력부를 통해 해당 정보들을 표시/출력할 수 있다. 여기서, 해당 정보들을 표시/출력한다 함은 해당 정보들을 나타내는 아이콘 이미지를 표시/출력하는 것을 의미하거나 해당 정보를 실행하여 표시/출력하는 것을 의미할 수 있다.And/or, the AI-based avatar stores at least one of video information, audio information, and/or shared data information about the second event in the virtual space, and based on a request for confirmation of information input from the user, the video At least one of information, voice information, and/or shared data information may be displayed/output. For example, video information may mean a file or information in which the progress of a second event in a virtual space is stored as a video. For example, voice information may refer to all information output through a speaker, etc. during a second event in a virtual space, such as the speaker's voice, the participant's voice, and sounds generated from published materials. For example, shared material information may refer to all information shared by other attendees at the second event. For example, when a request to confirm information is input from a user through an input unit to be described later, the attendee terminal can display/output the corresponding information through an output unit to be described later. Here, displaying/outputting the relevant information may mean displaying/outputting an icon image representing the relevant information, or may mean executing and displaying/outputting the relevant information.
그리고/또는, AI 기반의 아바타는 다른 아바타의 음성 또는 아바타 움직임 중 기 설정된 단어/문장 또는 움직임을 감지하고, 알림 정보를 표시/출력할 수 있다. 예를 들어, "최종 논의사항"이 기 설정된 경우, AI 기반의 아바타는 이벤트 진행 중 "최종 논의사항"이 감지된 경우, 참석자 단말(또는 참석자 아바타)은 이에 대한 알림을 후술할 출력부를 통해 표시/출력할 수 있다. 그리고/또는, (다른 참석자의) 다른 아바타가 AI 기반의 아바타를 지시하는 손짓을 감지한 경우, 참석자 단말(또는 참석자 아바타)은 이에 대한 알림을 후술할 출력부를 통해 표시/출력할 수 있다.And/or, the AI-based avatar may detect a preset word/sentence or movement among another avatar's voice or avatar movement, and display/output notification information. For example, if the “final discussion item” is already set, the AI-based avatar detects the “final discussion item” during the event, and the attendee terminal (or attendee avatar) displays a notification about this through the output unit, which will be described later. /Can be printed. And/or, when another avatar (of another attendee) detects a hand gesture indicating the AI-based avatar, the attendee terminal (or attendee avatar) may display/output a notification about this through an output unit to be described later.
그리고/또는, 가상 공간에 대한 출력화면은 3D 공간 뷰(또는, 3D 공간 부분)(예: 도 7의 3D 공간 뷰)와 상기 3D 공간 뷰와 병렬적으로 구성된 2D 뷰(또는 2D 부분/GUI부분)(예: 도 7의 2D 뷰)를 포함하고, 3D 공간 뷰는 가상 공간을 표시하며, 2D 뷰는 표시되는 가상 공간의 특성에 따라 변경되는 그래픽 유저 인터페이스(graphical user interface, GUI)를 표시할 수 있다. 예를 들어, 표시되는 가상 공간은 사용자 또는 사용자 아바타가 위치하여 3D 공간 뷰를 통해 표시되는 공간을 의미할 수 있다. 예를 들어, 표시되는 가상 공간이 회의실인 경우, 도 7과 같이 2D 뷰는 회의록 아이콘 (70)를 포함할 수 있다. 예를 들어, 사용자 또는 사용자 아바타가 상점으로 이동한 경우, 도 7의 회의록 아이콘(70)은 장바구니 아이콘으로 변경될 수 있다. And/or, the output screen for the virtual space is a 3D space view (or 3D space portion) (e.g., 3D space view in FIG. 7) and a 2D view (or 2D portion/GUI portion) configured in parallel with the 3D space view. ) (e.g., the 2D view in FIG. 7), the 3D space view displays a virtual space, and the 2D view displays a graphical user interface (GUI) that changes depending on the characteristics of the displayed virtual space. You can. For example, the displayed virtual space may refer to a space where a user or a user avatar is located and displayed through a 3D spatial view. For example, when the displayed virtual space is a conference room, the 2D view may include a meeting minutes icon 70, as shown in FIG. 7 . For example, when the user or the user avatar moves to a store, the meeting minutes icon 70 in FIG. 7 may be changed to a shopping cart icon.
도 8을 참조하여 설명한 참석자 단말(또는 참석자 아바타)의 동작은 도 1 내지 도 7, 도 9 내지 도 10을 참조하여 설명한 내용에 의해 보충될 수 있다.The operation of the attendee terminal (or attendee avatar) described with reference to FIG. 8 can be supplemented by the content described with reference to FIGS. 1 to 7 and 9 to 10.
상술한 제안 방법은 참석자 단말(또는 참석자 아바타)을 중심으로 설명하였으나, AI 기반의 아바타에 의해 다수의 이벤트에 동시에 참여하는 방법은 관리자 단말(또는 관리자 아바타)에도 적용될 수 있다. 즉, 관리자 단말의 사용자는 AI 기반의 아바타에 의해 다수의 이벤트를 동시에 관리할 수도 있다.Although the above-mentioned proposed method was explained focusing on an attendee terminal (or an attendee avatar), the method of simultaneously participating in multiple events using an AI-based avatar can also be applied to an administrator terminal (or an administrator avatar). In other words, the user of the manager terminal can manage multiple events simultaneously using an AI-based avatar.
본 명세서의 제안 방법은 참석자 단말, 제1 관리자 단말, 제2 관리자 단말 및 서로 간의 통신의 관점에서 적용될 수도 있고, 가상 공간 내 제1 관리자 아바타, 제2 관리자 아바타, 참석자 아바타 및 가상 공간 내 서로 간 정보 송수신 관점에서도 적용될 수 있다.The method proposed in this specification may be applied in terms of communication between the attendee terminal, the first manager terminal, the second manager terminal, and each other, and the first manager avatar in the virtual space, the second manager avatar, the attendee avatar, and each other in the virtual space. It can also be applied from the perspective of information transmission and reception.
도 9는 본 명세서에서 제안하는 이벤트 관리 시스템의 블록도를 예시한다.Figure 9 illustrates a block diagram of the event management system proposed in this specification.
도 9를 참조하면, 이벤트 관리 시스템은 참석자 단말(100), 관리자 단말(200), 통신망(300) 및 이벤트 관리 서버장치(400)를 포함할 수 있다.Referring to FIG. 9, the event management system may include an attendee terminal 100, an administrator terminal 200, a communication network 300, and an event management server device 400.
참석자 단말(100) 및/또는 관리자 단말(200)은 통신망(300)과 유선 또는 무선으로 장치로서, 통신망(200)을 통해 이벤트 관리 서버장치(400)에 접속하여, 상술한 바와 같이, 가상 공간 내 다중 이벤트에 AI 기반의 아바타를 이용하여 동시에 참여/관리할 수 있도록 한다. 참석자 단말(100), 관리자 단말(200)은 사용자에 의해 제어될 수 있다. 본 명세서에서, 사용자는 참석자 또는 관리자로, 참석자 또는 관리자는 사용자로 대체될 수 있다.The attendee terminal 100 and/or the manager terminal 200 are wired or wireless devices connected to the communication network 300, and connect to the event management server device 400 through the communication network 200, creating a virtual space as described above. It allows you to participate/manage multiple events at the same time using an AI-based avatar. The attendee terminal 100 and the administrator terminal 200 may be controlled by the user. In this specification, a user may be replaced by an attendee or an administrator, and an attendee or an administrator may be replaced by a user.
이벤트 관리 서버장치(400)는 통신망(300)을 통해 접속되는 참석자 단말(100) 및 관리자 단말(200) 또는 이들의 사용자가 이벤트를 생성/관리할 수 있도록 하고, 참석자 단말(100) 또는 사용자가 가상 공간 내 다수의 이벤트에 AI 기반의 아바타를 이용하여 참여할 수 있도록 하며, 관리자 단말(200) 또는 사용자가 가상 공간 내 다수의 이벤트를 AI 기반의 아바타를 이용하여 관리할 수 있도록 하는 서버장치이다. 예를 들어, 참석자 단말(100)과 관리자 단말(200)이 정보를 송수신한다 함은 이벤트 관리 서버장치(400)에 기반하여 정보를 송수신하는 것을 의미할 수 있다.The event management server device 400 allows attendee terminals 100 and manager terminals 200 or their users connected through the communication network 300 to create/manage events, and allows attendee terminals 100 or users to create/manage events. It is a server device that allows participation in multiple events in a virtual space using an AI-based avatar, and allows the administrator terminal 200 or a user to manage multiple events in a virtual space using an AI-based avatar. For example, transmitting and receiving information between the attendee terminal 100 and the manager terminal 200 may mean transmitting and receiving information based on the event management server device 400.
예를 들어, 참석자 단말(100), 관리자 단말(200), 이벤트 관리 서버장치(400)는 로봇, XR(eXtended Reality) 기기, 차량, 휴대 기기, 가전, IoT 기기, AI기기/서버 등이거나, 또는 이들의 일부를 구성할 수 있다. 예를 들어, 차량은 무선 통신 기능이 구비된 차량, 자율 주행 차량, 차량간 통신을 수행할 수 있는 차량 등을 포함할 수 있다. 여기서, 차량은 UAV(Unmanned Aerial Vehicle)(예, 드론)를 포함할 수 있다. XR 기기는 AR(Augmented Reality)/VR(Virtual Reality)/MR(Mixed Reality) 기기를 포함하며, HMD(Head-Mounted Device), 차량에 구비된 HUD(Head-Up Display), 텔레비전, 스마트폰, 컴퓨터, 웨어러블 디바이스, 가전 기기, 디지털 사이니지(signage), 차량, 로봇 등의 형태로 구현될 수 있다. 휴대 기기는 스마트폰, 스마트패드, 웨어러블 기기(예, 스마트워치, 스마트글래스), 컴퓨터(예, 노트북 등) 등을 포함할 수 있다. 가전은 TV, 냉장고, 세탁기 등을 포함할 수 있다. IoT 기기는 센서, 스마트미터 등을 포함할 수 있다. For example, the attendee terminal 100, the administrator terminal 200, and the event management server device 400 are robots, XR (eXtended Reality) devices, vehicles, mobile devices, home appliances, IoT devices, AI devices/servers, etc., Or it may constitute part of them. For example, vehicles may include vehicles equipped with wireless communication functions, autonomous vehicles, vehicles capable of inter-vehicle communication, etc. Here, the vehicle may include an Unmanned Aerial Vehicle (UAV) (eg, a drone). XR devices include AR (Augmented Reality)/VR (Virtual Reality)/MR (Mixed Reality) devices, HMD (Head-Mounted Device), HUD (Head-Up Display) installed in vehicles, televisions, smartphones, It can be implemented in the form of computers, wearable devices, home appliances, digital signage, vehicles, robots, etc. Portable devices may include smartphones, smart pads, wearable devices (e.g., smartwatches, smart glasses), and computers (e.g., laptops, etc.). Home appliances may include TVs, refrigerators, washing machines, etc. IoT devices may include sensors, smart meters, etc.
도 10은 본 명세서에서 제안하는 참석자 단말의 블록도를 예시한다.Figure 10 illustrates a block diagram of an attendee terminal proposed in this specification.
도 10을 참조하면, 참석자 단말(100)은 하나 이상의 송수신기(110), 하나 이상의 프로세서(120), 및/또는 하나 이상의 메모리(130) 중 하나를 포함할 수 있다.Referring to FIG. 10 , the attendee terminal 100 may include one of one or more transceivers 110, one or more processors 120, and/or one or more memories 130.
프로세서(120)는 메모리(130) 및/또는 송수신기(110)를 제어하며, 본 명세서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(120)는 메모리(130) 내의 정보를 처리하여 제1 정보/신호를 생성한 뒤, 송수신기(110)을 통해 제1 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(120)는 송수신기(110)를 통해 제2 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제2 정보/신호의 신호 처리로부터 얻은 정보를 메모리(130)에 저장할 수 있다. Processor 120 controls memory 130 and/or transceiver 110 and may be configured to implement the descriptions, functions, procedures, suggestions, methods and/or operational flowcharts disclosed herein. For example, the processor 120 may process information in the memory 130 to generate first information/signal and then transmit a wireless signal including the first information/signal through the transceiver 110. Additionally, the processor 120 may receive a wireless signal including the second information/signal through the transceiver 110 and then store information obtained from signal processing of the second information/signal in the memory 130.
메모리(130)는 프로세서(120)와 연결될 수 있고, 프로세서(120)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(130)는 프로세서(120)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 명세서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. The memory 130 may be connected to the processor 120 and may store various information related to the operation of the processor 120. For example, memory 130 may perform some or all of the processes controlled by processor 120 or instructions for performing the descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts disclosed herein. Software code containing them can be stored.
송수신기(110)는 프로세서(120)와 연결될 수 있고, 하나 이상의 안테나를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(110)는 송신기 및/또는 수신기를 포함할 수 있다. 송수신기(110)는 RF(Radio Frequency) 유닛과 혼용될 수 있다. The transceiver 110 may be connected to the processor 120 and may transmit and/or receive wireless signals through one or more antennas. Transceiver 110 may include a transmitter and/or receiver. The transceiver 110 may be used interchangeably with an RF (Radio Frequency) unit.
그리고/또는, 참석자 단말(100)은 입력부, 및/또는 출력부를 더 포함할 수 있다. 입력부는 송수신기(110), 프로세서(120), 및/또는 메모리(130)와 연결될 수 있고, 사용자로부터 명령을 입력 받아 송수신기(110), 프로세서(120), 및/또는 메모리(130)에 명령을 전달할 수 있다. 예를 들어, 입력부는 키보드, 마우스, 조이스틱, 컨트롤러, 헤드셋, 마이크, 웨어러블 입력장치 및 그 일부 등일 수 있다. 출력부는 프로세서(120), 및/또는 메모리(130)와 연결될 수 있고, 프로세서(120) 및/또는 메모리(130)로부터 명령들에 의해 사용자에 신호들을 출력할 수 있다. 예를 들어, 출력부는 모니터, 스피커, 헤드셋, 웨어러블 출력장치 및 그 일부 등일 수 있다.And/or, the attendee terminal 100 may further include an input unit and/or an output unit. The input unit may be connected to the transceiver 110, processor 120, and/or memory 130, and may receive a command from the user and send a command to the transceiver 110, processor 120, and/or memory 130. It can be delivered. For example, the input unit may be a keyboard, mouse, joystick, controller, headset, microphone, wearable input device, or parts thereof. The output unit may be connected to the processor 120 and/or the memory 130 and may output signals to the user in response to commands from the processor 120 and/or the memory 130. For example, the output unit may be a monitor, speaker, headset, wearable output device, or parts thereof.
그리고/또는, 관리자 단말(200)도 도 10의 참석자 단말(100)의 적어도 하나의 구성/수단을 포함할 수 있다. And/or, the manager terminal 200 may also include at least one component/means of the attendee terminal 100 of FIG. 10 .
이상에서 설명된 실시 예들은 본 명세서의 구성요소들과 특징들이 소정 형태로 결합된 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려되어야 한다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 발명의 실시 예를 구성하는 것도 가능하다. 본 발명의 실시 예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시 예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다. 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시 예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함시킬 수 있음은 자명하다.The embodiments described above combine the elements and features of the present specification in a predetermined form. Each component or feature should be considered optional unless explicitly stated otherwise. Each component or feature may be implemented in a form that is not combined with other components or features. Additionally, it is possible to configure an embodiment of the present invention by combining some components and/or features. The order of operations described in embodiments of the present invention may be changed. Some features or features of one embodiment may be included in other embodiments or may be replaced with corresponding features or features of other embodiments. It is obvious that claims that do not have an explicit reference relationship in the patent claims can be combined to form an embodiment or included as a new claim through amendment after filing.
본 명세서에 따른 실시 예는 다양한 수단, 예를 들어, 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 본 발명의 일 실시 예는 하나 또는 그 이상의 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서, 콘트롤러, 마이크로 콘트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.Embodiments according to the present specification may be implemented by various means, for example, hardware, firmware, software, or a combination thereof. In the case of implementation by hardware, an embodiment of the present invention includes one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), and FPGAs ( It can be implemented by field programmable gate arrays, processors, controllers, microcontrollers, microprocessors, etc.
펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 일 실시 예는 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차, 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리에 저장되어 프로세서에 의해 구동될 수 있다. 상기 메모리는 상기 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 상기 프로세서와 데이터를 주고 받을 수 있다.In the case of implementation by firmware or software, an embodiment of the present invention may be implemented in the form of a module, procedure, function, etc. that performs the functions or operations described above. Software code can be stored in memory and run by a processor. The memory is located inside or outside the processor and can exchange data with the processor through various known means.
본 명세서는 본 명세서의 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 통상의 기술자에게 자명하다. 따라서, 상술한 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 명세서의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 명세서의 등가적 범위 내에서의 모든 변경은 본 명세서의 범위에 포함된다.It is obvious to those skilled in the art that the present specification can be embodied in other specific forms without departing from the essential features of the present specification. Accordingly, the above detailed description should not be construed as restrictive in all respects and should be considered illustrative. The scope of this specification should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of this specification are included in the scope of this specification.

Claims (10)

  1. 가상 공간의 다수의 이벤트에 동시에 참여하는 방법에 있어서,In a method of participating in multiple events in a virtual space simultaneously,
    상기 가상 공간의 제1 이벤트에 대한 초대 정보를 제1 관리자 아바타로부터 수신하는 단계;Receiving invitation information for a first event in the virtual space from a first administrator avatar;
    상기 가상 공간의 제2 이벤트에 대한 초대 정보를 제2 관리자 아바타로부터 수신하는 단계;Receiving invitation information for a second event in the virtual space from a second manager avatar;
    사용자에 의해 직접 제어되는 아바타에 기반하여, 상기 제1 이벤트에 참여하는 단계; 및Participating in the first event based on an avatar directly controlled by the user; and
    상기 제2 이벤트에 참석한 다른 사용자 아바타와 상호작용하는 인공지능(artificial intelligence, AI) 기반의 아바타에 기반하여, 상기 제1 이벤트와 동시에 진행되는 상기 제2 이벤트에 참여하는 단계를 포함하되,Participating in the second event held simultaneously with the first event based on an artificial intelligence (AI)-based avatar that interacts with other user avatars attending the second event,
    상기 AI 기반의 아바타는 머신 러닝에 기반하여, 실시간으로 상기 다른 사용자 아바타의 문의에 대한 응답 및/또는 제2 이벤트 관련 자료 정보를 전송하고,The AI-based avatar responds to inquiries from other user avatars and/or transmits data related to a second event in real time based on machine learning,
    상기 AI 기반의 아바타는 상기 머신 러닝에 기반하여, 실시간으로 상기 다른 사용자 아바타에 문의하며, 상기 AI 기반의 아바타의 문의에 대한 응답을 수신하는 방법.The AI-based avatar inquires in real time to the other user avatar based on the machine learning, and receives a response to the AI-based avatar's inquiry.
  2. 제1항에 있어서,According to paragraph 1,
    상기 AI 기반의 아바타는 상기 가상 공간의 제2 이벤트에 대한 영상 정보, 음성 정보 및/또는 공유 자료 정보 중 적어도 하나를 저장하고, 상기 사용자로부터 정보의 확인 요청이 입력된 것에 기반하여, 상기 영상 정보, 상기 음성 정보 및/또는 상기 공유 자료 정보 중 적어도 하나는 표시되는 방법. The AI-based avatar stores at least one of video information, audio information, and/or shared data information about the second event in the virtual space, and based on a request for confirmation of information input from the user, the video information , A method in which at least one of the voice information and/or the shared material information is displayed.
  3. 제1항에 있어서,According to paragraph 1,
    상기 AI 기반의 아바타는 상기 다른 사용자 아바타의 음성 또는 움직임 중 기 설정된 음성 또는 움직임을 감지하고, 알림 정보를 표시하는 방법.A method wherein the AI-based avatar detects a preset voice or movement among the voices or movements of the other user's avatar and displays notification information.
  4. 제1항에 있어서,According to paragraph 1,
    상기 가상 공간에 대한 출력화면은 3D 공간 뷰와 상기 3D 공간 뷰와 병렬적으로 구성된 2D 뷰를 포함하고, 상기 3D 공간 뷰는 상기 가상 공간을 표시하며, 상기 2D 뷰는 상기 표시되는 가상 공간의 특성에 따라 변경되는 그래픽 유저 인터페이스를 표시하는 방법.The output screen for the virtual space includes a 3D space view and a 2D view configured in parallel with the 3D space view, the 3D space view displays the virtual space, and the 2D view displays characteristics of the displayed virtual space. How to display a graphical user interface that changes depending on the
  5. 제1항에 있어서, According to paragraph 1,
    상기 제1 이벤트 또는 상기 제2 이벤트에 대한 초대 정보는 이벤트 제목에 대한 정보, 이벤트 공간에 대한 정보, 및/또는 이벤트 진행 시간에 대한 정보 중 적어도 하나를 포함하는 방법.A method wherein the invitation information for the first event or the second event includes at least one of information about the event title, information about the event space, and/or information about the event progress time.
  6. 가상 공간의 다수의 이벤트에 동시에 참여하기 위한 참석자 단말에 있어서,In an attendee terminal for simultaneously participating in multiple events in a virtual space,
    적어도 하나의 송수신기;at least one transceiver;
    적어도 하나의 프로세서; 및at least one processor; and
    상기 적어도 하나의 프로세서에 작동 가능하게 연결되고, 상기 적어도 하나의 프로세서에 의해 실행되는 것에 기반하여, 동작들을 수행하는 명령어(instruction)들을 저장하는 적어도 하나의 메모리를 포함하고,At least one memory operably coupled to the at least one processor and storing instructions to perform operations based on execution by the at least one processor,
    상기 동작들은,The above operations are:
    상기 가상 공간의 제1 이벤트에 대한 초대 정보를 제1 관리자 아바타로부터 수신하는 동작;Receiving invitation information for a first event in the virtual space from a first administrator avatar;
    상기 가상 공간의 제2 이벤트에 대한 초대 정보를 제2 관리자 아바타로부터 수신하는 동작;Receiving invitation information for a second event in the virtual space from a second administrator avatar;
    상기 참석자 단말의 사용자에 의해 직접 제어되는 아바타에 기반하여 상기 제1 이벤트에 참여하는 동작; 및Participating in the first event based on an avatar directly controlled by a user of the attendee terminal; and
    상기 제2 이벤트에 참석한 다른 사용자 아바타와 상호작용하는 인공지능(artificial intelligence, AI) 기반의 아바타에 기반하여, 상기 가상 공간의 제1 이벤트와 동시에 진행되는 상기 제2 이벤트에 참여하는 동작을 포함하되,Based on an artificial intelligence (AI)-based avatar that interacts with other user avatars attending the second event, it includes participating in the second event that takes place simultaneously with the first event in the virtual space. However,
    상기 AI 기반의 아바타는 머신 러닝에 기반하여, 실시간으로 상기 다른 사용자 아바타의 문의에 대한 응답 및/또는 제2 이벤트 관련 자료 정보를 전송하고,The AI-based avatar responds to inquiries from other user avatars and/or transmits data related to a second event in real time based on machine learning,
    상기 AI 기반의 아바타는 상기 머신 러닝에 기반하여, 실시간으로 상기 다른 사용자 아바타에 문의하며, 상기 AI 기반의 아바타의 문의에 대한 응답을 수신하는 참석자 단말.The AI-based avatar inquires in real time to the other user avatar based on the machine learning, and an attendee terminal that receives a response to the AI-based avatar's inquiry.
  7. 제6항에 있어서,According to clause 6,
    상기 AI 기반의 아바타는 상기 가상 공간의 제2 이벤트에 대한 영상 정보, 음성 정보 및/또는 공유 자료 정보 중 적어도 하나를 저장하고, 상기 사용자로부터 정보의 확인 요청이 입력된 것에 기반하여, 상기 영상 정보, 상기 음성 정보 및/또는 상기 공유 자료 정보 중 적어도 하나는 표시되는 참석자 단말.The AI-based avatar stores at least one of video information, audio information, and/or shared data information about the second event in the virtual space, and based on a request for confirmation of information input from the user, the video information , an attendee terminal on which at least one of the voice information and/or the shared material information is displayed.
  8. 제6항에 있어서,According to clause 6,
    상기 AI 기반의 아바타는 상기 다른 사용자 아바타의 음성 또는 움직임 중 기 설정된 음성 또는 움직임을 감지하고, 알림 정보를 표시하는 참석자 단말.The AI-based avatar is an attendee terminal that detects a preset voice or movement among the voices or movements of the other user's avatar and displays notification information.
  9. 제6항에 있어서,According to clause 6,
    상기 가상 공간에 대한 출력화면은 3D 공간 뷰와 상기 3D 공간 뷰와 병렬적으로 구성된 2D 뷰를 포함하고, 상기 3D 공간 뷰는 상기 가상 공간을 표시하며, 상기 2D 뷰는 상기 표시되는 가상 공간의 특성에 따라 변경되는 그래픽 유저 인터페이스를 표시하는 참석자 단말.The output screen for the virtual space includes a 3D space view and a 2D view configured in parallel with the 3D space view, the 3D space view displays the virtual space, and the 2D view displays characteristics of the displayed virtual space. An attendee terminal that displays a graphical user interface that changes depending on the user.
  10. 제6항에 있어서, According to clause 6,
    상기 제1 이벤트 또는 상기 제2 이벤트에 대한 초대 정보는 이벤트 제목에 대한 정보, 이벤트 공간에 대한 정보, 및/또는 이벤트 진행 시간에 대한 정보 중 적어도 하나를 포함하는 참석자 단말.The invitation information for the first event or the second event includes at least one of information about the event title, information about the event space, and/or information about the event progress time.
PCT/KR2023/015928 2022-10-14 2023-10-16 Method and device for concurrently participating in multiple events in virtual space WO2024080851A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2022-0132242 2022-10-14
KR1020220132242A KR102593239B1 (en) 2022-10-14 2022-10-14 Method of simultaneously participating in multiple evnets in virtual space and apparatus thereof

Publications (1)

Publication Number Publication Date
WO2024080851A1 true WO2024080851A1 (en) 2024-04-18

Family

ID=88508801

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/015928 WO2024080851A1 (en) 2022-10-14 2023-10-16 Method and device for concurrently participating in multiple events in virtual space

Country Status (2)

Country Link
KR (1) KR102593239B1 (en)
WO (1) WO2024080851A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9165426B2 (en) * 2008-01-09 2015-10-20 International Business Machines Corporation System and method for attending a recorded event in a metaverse application
JP2017151649A (en) * 2016-02-23 2017-08-31 株式会社ソニー・インタラクティブエンタテインメント Event management server, information processing apparatus, information processing system, and event implementation method
KR20190104821A (en) * 2018-03-02 2019-09-11 주식회사 케이티 Server, device and method for providing avatar communication
KR102341752B1 (en) * 2021-09-13 2021-12-27 (주)인더스트리미디어 Method for assisting lectures with avatar of metaverse space and apparatus thereof
KR102449460B1 (en) * 2022-02-21 2022-09-29 금오공과대학교 산학협력단 Method to provide customized virtual exhibition space construction service using augmented and virtual reality

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140108436A (en) 2013-02-27 2014-09-11 주식회사 멀틱스 System and method for exercise game of social network type using augmented reality
KR102497681B1 (en) * 2021-08-13 2023-02-24 주식회사 케이와이엠 Digital map based virtual reality and metaverse online platform
KR102547942B1 (en) * 2021-08-19 2023-07-20 주식회사 앱플러 Method and apparatus for providing video special effects for producing short-form videos in a video commerce system
KR102493062B1 (en) * 2021-10-07 2023-01-30 주식회사 쓰리디팩토리 Server and method for managing for decentralized metaverse operation, and program stored in computer readable medium performing the same
KR102627728B1 (en) * 2021-11-02 2024-01-23 주식회사 엘지유플러스 Metaverse personalized content creation and authentication method and apparutus and system therefor
KR20230088993A (en) * 2021-12-13 2023-06-20 주식회사 한컴위드 A system that supports avatars to participate in events on behalf of the metaverse

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9165426B2 (en) * 2008-01-09 2015-10-20 International Business Machines Corporation System and method for attending a recorded event in a metaverse application
JP2017151649A (en) * 2016-02-23 2017-08-31 株式会社ソニー・インタラクティブエンタテインメント Event management server, information processing apparatus, information processing system, and event implementation method
KR20190104821A (en) * 2018-03-02 2019-09-11 주식회사 케이티 Server, device and method for providing avatar communication
KR102341752B1 (en) * 2021-09-13 2021-12-27 (주)인더스트리미디어 Method for assisting lectures with avatar of metaverse space and apparatus thereof
KR102449460B1 (en) * 2022-02-21 2022-09-29 금오공과대학교 산학협력단 Method to provide customized virtual exhibition space construction service using augmented and virtual reality

Also Published As

Publication number Publication date
KR102593239B1 (en) 2023-10-26

Similar Documents

Publication Publication Date Title
US20230155966A1 (en) Virtual Area Communications
US11380020B2 (en) Promoting communicant interactions in a network communications environment
JP2544581B2 (en) Conference system control method, conference device, and conference system
US9411489B2 (en) Interfacing with a spatial virtual communication environment
US8407605B2 (en) Application sharing
US20150156233A1 (en) Method and system for operating a collaborative network
US20120246582A1 (en) Interfacing with a spatial virtual communications environment
WO2011094354A2 (en) Web browser interface for spatial communication environments
JP4979954B2 (en) System and method for providing a class of users of an application with a view of what a user of another class of the application is experiencing visually
JP2003085112A (en) Network information processing system, and information processing method
US11647157B2 (en) Multi-device teleconferences
US20240087180A1 (en) Promoting Communicant Interactions in a Network Communications Environment
KR100611255B1 (en) Remote conference method of sharing work space
Kaeri et al. Agent-based management of support systems for distributed brainstorming
US20050253851A1 (en) System for providing virtual space, a virtual space providing server and a virtual space providing method for advancing communication between users in virtual space
US20050198139A1 (en) Multispeaker presentation system and method
WO2024080851A1 (en) Method and device for concurrently participating in multiple events in virtual space
CN115002392A (en) Video conference grouping management method and device
CN113885818A (en) Display method and device and electronic equipment
KR20230015685A (en) A video conference mediation platform, the method for inviting and accepting video conference using the same
JPH0981489A (en) Virtual conference method and system therefor
JP2000092466A (en) Method for state managing of conference participant and its storage medium
WO2024101521A1 (en) System for video conference and video learning services, and method for providing video conference and video learning services
JP7128489B2 (en) CONFERENCE MANAGEMENT DEVICE, CONFERENCE MANAGEMENT METHOD, PROGRAM AND CONFERENCE MANAGEMENT SYSTEM
JP2003085131A (en) Network information processing system and information processing method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23877774

Country of ref document: EP

Kind code of ref document: A1