WO2020213888A1 - 유니크베뉴 제공 방법, 장치 및 프로그램 - Google Patents

유니크베뉴 제공 방법, 장치 및 프로그램 Download PDF

Info

Publication number
WO2020213888A1
WO2020213888A1 PCT/KR2020/004793 KR2020004793W WO2020213888A1 WO 2020213888 A1 WO2020213888 A1 WO 2020213888A1 KR 2020004793 W KR2020004793 W KR 2020004793W WO 2020213888 A1 WO2020213888 A1 WO 2020213888A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
place
virtual reality
image
unique
Prior art date
Application number
PCT/KR2020/004793
Other languages
English (en)
French (fr)
Inventor
김보언
Original Assignee
김보언
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김보언 filed Critical 김보언
Publication of WO2020213888A1 publication Critical patent/WO2020213888A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0623Item investigation
    • G06Q30/0625Directed, with specific intent or strategy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0269Targeted advertisements based on user profile or attribute
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/12Hotels or restaurants
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/14Travel agencies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry

Definitions

  • the present invention relates to a method, an apparatus and a program for providing a unique venue.
  • the artificial intelligence (AI) system is a computer system that implements human-level intelligence, and unlike the existing rule-based smart system, the machine learns, judges, and becomes smarter. As artificial intelligence systems are used, their recognition rate improves and users' tastes can be understood more accurately, and existing rule-based smart systems are gradually being replaced by deep learning-based artificial intelligence systems.
  • Machine learning Deep learning
  • component technologies using machine learning.
  • Machine learning is an algorithm technology that classifies/learns the features of input data by itself
  • element technology is a technology that simulates functions such as cognition and judgment of the human brain using machine learning algorithms such as deep learning. It consists of technical fields such as understanding, reasoning/prediction, knowledge expression, and motion control.
  • Artificial intelligence technology is applied in various fields. In particular, it is possible to collect information and infer conclusions based on the collected information, or to derive new information by grasping the correlation between data included in big data.
  • virtual reality refers to an interface between a human and a computer that artificially creates a specific environment or situation, and makes it as if the person using it is interacting with the actual surrounding situation and environment.
  • virtual reality means artificial reality, cyberspace, virtual world, virtual environment, synthetic environment, artificial environment, and augmented reality. reality), mixed reality, etc.
  • the purpose of using virtual reality is to allow people to show and manipulate environments that are difficult to experience on a daily basis, without directly experiencing them, and their applications include education, remote operation, remote satellite surface exploration, and exploration. Data analysis, scientific visualization, etc.
  • MICE is a term after the letters in front of English such as Meeting, Incentive trip, Convention, Exhibition & Event, etc. It refers to a promising industry, and in a broader concept it refers to a convergence industry that includes reward tourism and mega events centered on participants.
  • the event includes all MICE and performances, events, festivals, shows, sports events, tourism, etc. hosted by the state, associations, companies, individuals and organizations.
  • Unique Venue a place where you can enjoy the unique charm of the host country and host city, is emerging as an important element of competitiveness. Therefore, it is becoming important in the MICE industry to select a place for MICE and provide a variety of services related to unique unique venues.
  • the problem to be solved by the present invention is to provide a method, apparatus, and program for providing a unique venue.
  • a method of providing a unique venue according to an aspect of the present invention for solving the above-described problem includes the steps of collecting member information (S110); Collecting event information (S120); Obtaining a list of at least one event holding place selectable from among a plurality of unique venues and a plurality of other places (S130); Selecting at least one place from the list based on the member information and the event information (S140); And providing information on the selected place (S150). Includes.
  • a place suitable for member information and event information may be selected, and various unique venues related to the selected place may be provided through a virtual reality image.
  • FIG. 1 is a diagram illustrating a system according to an embodiment of the present invention.
  • FIG. 2 is a flowchart illustrating a method for selecting a place according to an embodiment of the present invention.
  • FIG. 3 is a flowchart illustrating a method of providing a virtual reality image according to an embodiment of the present invention.
  • FIG. 4 is a flowchart illustrating a method of obtaining a unique venue and determining an order of providing the obtained unique venue according to an embodiment of the present invention.
  • FIG. 5 is a flowchart illustrating a method of providing a unique venue including time information as a virtual reality image according to an embodiment of the present invention.
  • 6 and 7 are flowcharts illustrating a method of generating a virtual reality image for a unique venue according to an embodiment of the present invention.
  • FIG. 8 is a flowchart specifically illustrating a method of selecting a place according to an embodiment of the present invention.
  • FIGS. 9 and 10 are diagrams and flowcharts illustrating a method of generating a virtual reality image including an avatar according to an embodiment of the present invention.
  • FIG. 11 is a block diagram of an apparatus according to an embodiment of the present invention.
  • a method of providing a unique venue according to an aspect of the present invention for solving the above-described problem includes the steps of collecting member information (S110); Collecting event information (S120); Obtaining a list of at least one event holding place selectable from among a plurality of unique venues and a plurality of other places (S130); Selecting at least one place from the list based on the member information and the event information (S140); And providing information on the selected place (S150). Includes.
  • the step of obtaining the at least one unique venue includes: obtaining at least one first unique venue corresponding to the member based on the member information (S161); Obtaining at least one second unique venue based on the event information (S162); And determining an order of providing the at least one first unique venue and the at least one second unique venue based on an event schedule included in the event information (S163). It may further include.
  • the providing of the virtual reality image (S170) may include: obtaining time information for the at least one first unique venue based on the member's preference information included in the member information (S171); Obtaining time information for the at least one second unique venue based on the event content included in the event information (S172); And providing a unique venue for the acquired time information as a virtual reality image (S173). It may include.
  • the Unique Venue is divided into a Unique Venue that includes accommodation and a Unique Venue that does not include accommodation, and the list of venues for the event is, among a plurality of other venues and Unique Venues including the accommodation. There may be at least one.
  • the providing of the virtual reality image (S170) may include obtaining a plurality of images and a plurality of images for the at least one unique venue (S®); Clustering the acquired plurality of images and the plurality of images based on place information to obtain a plurality of place clusters (S175); Obtaining a plurality of time clusters by clustering images and images included in a first place cluster among the obtained plurality of place clusters based on time information (S176); And generating a virtual reality image for the unique venue based on the image and the image included in the first time cluster among the plurality of time clusters (S177). It may include.
  • the step of generating the virtual reality image may include obtaining a plurality of objects included in the virtual reality image generated based on the image and the image included in the first time cluster (S210); Determining an object lacking information to be expressed as a 3D image from among the acquired plurality of objects (S220); If the determined object is greater than or equal to a preset ratio among the plurality of objects, extracting an image and an image having a degree of relationship between the image and time information included in the first place cluster less than or equal to a preset value (S230); And generating a virtual reality image for the unique venue based on the image and image included in the first time cluster and the extracted image and image (S240). It may include.
  • the step of collecting the member information (S110) includes the step of collecting the member's questionnaire information (S310); And collecting life information of the member (S320). Including, and the step of collecting the member's life information (S320), the step of collecting the personal information parameter of the member (S321); Collecting the conversation contents of the member (S322); And obtaining at least one keyword necessary for selecting a place from the conversation contents of the member through natural language processing (S323). Including, and obtaining the list (S130), obtaining a place candidate group (S131); And extracting the at least one selectable place from the place candidate group based on the purpose and program of holding the MICE and event, the holding period, the size of participation, budget, accessibility, and surrounding infrastructure information (S132).
  • the step of selecting the at least one place (S140), obtaining the member's preference information based on the collected questionnaire information and life information (S141); And selecting the at least one place from the list based on the preference information (S142).
  • a place map including information on the at least one place based on the characteristic of the at least one place
  • the place map is a clustered map based on the association of the at least one place, and places with high correlation are located closer to each other, and places with low correlation are located farther from each other (S143); And selecting a place closest to the center of clusters included in the place map based on the place map (S144). It may include.
  • the providing method includes the steps of classifying a plurality of member terminals for a plurality of members receiving the virtual reality image into at least one participant terminal and at least one observer terminal (S410); Receiving person information and object information from the at least one participant terminal (S420); And generating an avatar corresponding to each of the at least one participant terminal based on the person information and the object information (S430).
  • Including, and providing the virtual reality image (S170) comprises: generating a virtual reality image for the unique venue including the generated avatar (S440); And providing the generated virtual reality image to the member terminal (S450). It may include.
  • unit or “module” refers to a hardware component such as software, FPGA or ASIC, and the "unit” or “module” performs certain roles. However, “unit” or “module” is not meant to be limited to software or hardware.
  • the “unit” or “module” may be configured to be in an addressable storage medium, or may be configured to reproduce one or more processors.
  • “sub” or “module” refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, It includes procedures, subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays and variables. Components and functions provided within “sub” or “module” may be combined into a smaller number of components and “sub” or “modules” or into additional components and “sub” or “modules”. Can be further separated.
  • a computer refers to all kinds of hardware devices including at least one processor, and may be understood as encompassing a software configuration operating in a corresponding hardware device according to embodiments.
  • the computer may be understood as including all of a smartphone, a tablet PC, a desktop, a laptop, and a user client and an application running on each device, but is not limited thereto.
  • the virtual reality and virtual reality images are not limited to VR (Virtual Reality) and VR images, but virtual reality (VR) and virtual reality images, augmented reality (AR) and augmented reality images.
  • VR Virtual Reality
  • AR augmented reality
  • MR Mixed Reality
  • mixed reality images, and general images are included, and are not limited thereto, and are used as meanings including real, virtual, and all kinds of images in which reality and virtual are mixed.
  • embodiments of a method of using the virtual reality equipment disclosed in the present specification are applied to all of virtual reality (VR, Virtual Reality), augmented reality (AR), mixed reality (MR), and general images. It can be clearly understood by those skilled in the art.
  • FIG. 1 is a diagram illustrating a system according to an embodiment.
  • FIG. 1 At least one member 10, 20, and 30, virtual reality terminals 12, 22, and 32 of each member, and member terminals 14, 24 and 34 of each member are shown, respectively. have.
  • the virtual reality terminals 12, 22, and 32 may be configured in a HMD (Head Mounted Display) type, but are not limited thereto.
  • HMD Head Mounted Display
  • the member terminals 14, 24, and 34 may be smartphones, but are not limited thereto, and may include all types of computing devices including at least one processor.
  • each of the virtual reality terminals 12, 22, and 32 and the member terminals 14, 24, and 34 may be implemented as one electronic device, but are not limited thereto. That is, the virtual reality terminal 12 and the member terminal 14, the virtual reality terminal 22 and the member terminal 24, the virtual reality terminal 32 and the member terminal 34 can each be implemented as one electronic device. However, it is not limited thereto.
  • the server 100 may be implemented as a cloud server.
  • the server 100 may determine an event venue based on member information and event information for the members 10, 20, and 30.
  • the event information may be, for example, information on an event related to the MICE industry.
  • MICE is a term after the letters in front of English such as meeting, incentive trip, convention, exhibition and event, and in a narrow sense, international conferences and exhibitions are the main It refers to a promising industry, and in a broader concept it refers to a convergence industry that includes reward tourism and mega events centered on participants.
  • the server 100 may provide various virtual reality events related to the event venue to the members 10, 20, and 30.
  • each member 10, 20, and 30 receives a virtual reality event through the server 100.
  • the virtual reality event may include all types of events provided in the virtual space, and may include various MICEs provided in the virtual space according to embodiments.
  • the virtual reality event may be an event that takes place only in a virtual space, or may proceed with an event that takes place in a real space.
  • the virtual space may be generated based on the event site in the real space.
  • the virtual reality event may mean a conference conducted on a virtual reality image.
  • the virtual reality event may include a participant who directly participates in the conference and an observer who observes the conference.
  • the member terminals 14, 24 and 34 receive a virtual reality image corresponding to a virtual reality event from the server 100, and transmit the received virtual reality image to the virtual reality devices 12, 22 and 32. It can be displayed using.
  • a background of a virtual reality image in which a virtual reality event is provided may be composed of various Unique Venues.
  • Unique Venue is a compound word of'unique' and'Venue', meaning a place such as an old house, museum, and village with the theme of the culture and characteristics of a unique region. It may include tourist destinations and the like.
  • the definition of the unique venue is not limited to the above, and may include a unique background or landscape of each region.
  • Unique Venue may include a virtual background that reflects not only the modern but also the past times or historical backgrounds of each region.
  • the Unique Venue may include a background of the future expected according to the urban plan of each region, and may include various virtual backgrounds created by imagination, and is not limited to a specific type.
  • the background can be set in various ways in addition to a specific area, and if the entire schedule is replaced with virtual reality, the problem of moving places is solved.Therefore, places are selected and grouped based only on preference regardless of distance or traffic line. By implementing places in the background of virtual reality images, it is possible to indirectly visit many places preferred by members.
  • some of the actual MICE may be replaced with virtual reality.
  • the MICE may be composed of a group including at least one program and a place corresponding thereto, and the server 100 may determine whether to substitute virtual reality for at least a portion of at least one place included in the group. have.
  • the server 100 may determine to replace the corresponding place with virtual reality.
  • the virtual reality event may also be used for preliminary surveys for selecting an actual MICE venue.
  • members can collect necessary information without actually going to each place through virtual reality images.
  • the server 100 may virtually visit and experience places included in MICE through virtual reality, and may update a virtual reality image by reflecting real-time information. For example, when a specific place is under construction, a road is under control, a restaurant is closed or closed, or a hotel reservation is changed, etc., changes are collected and reflected in real time, so that members can obtain the latest information. By making it possible, we can provide a service that replaces the actual exploration.
  • information exchanged through the conference may be organized and recorded by artificial intelligence, and according to an embodiment, the contents of the conference may be disclosed to external visitors.
  • the number of participants may be limited, but in the case of a conference using virtual reality, observers or attendants other than the participant may watch the video of the conference held in the corresponding space.
  • the server 100 may be managed by a subject providing a virtual reality event, or may be managed by a subject providing a platform or solution for providing a virtual reality event.
  • FIGS. 2 to 10 a method of determining an event location and a method of providing a virtual reality image will be described in detail using FIGS. 2 to 10.
  • FIG. 2 is a flowchart illustrating a method for selecting a place according to an embodiment of the present invention.
  • step S110 the server 100 may collect member information.
  • the member may refer to a member of a company that is subject to reward tourism, may refer to a subject to participate in MICE, and is not limited thereto.
  • Member information may mean personal information including the personal information of the member, or may further include various other information.
  • step S120 the server 100 may collect event information.
  • the event information may mean event information suitable for the purpose of selecting a place.
  • the place to be selected may be a place related to MICE.
  • the event information may include information on MICE.
  • the event information includes different information depending on whether it is a meeting, incentive trip, convention, exhibition or event (Exhibition&Event) among MICE fields, or different weights even for the same type of information. Can be set.
  • a meeting among the MICE fields information on the number of attendees and places that can accommodate the attendees may be included in the event information with a high weight, and in the MICE field, related to incentive trips.
  • information related to time and movement, tourist destinations, and surrounding infrastructure may be included in event information having a high weight.
  • the server 100 may obtain a list of at least one event holding place selectable from among a plurality of unique venues and a plurality of other places.
  • the selectable places may be classified into a country unit, a city unit, or a larger or smaller area unit, or may be classified based on a symbolic place such as a famous tourist destination.
  • the selectable place may include at least one Unique Venue.
  • the unique venue can be classified according to various criteria.
  • Unique Venue includes 1) old castles, old palaces, old houses, historic sites with lodging facilities, 2) old castles, old palaces, old houses, historic sites, 3) museums, galleries and tourist attractions, 4) boats and Trains, 5) sports and leisure facilities, 6) theaters and concert halls, 7) complex theme facilities representing the region, 8) marine exhibition facilities and shipboard facilities, 9) design buildings, 10) university educational institutions, information and military headquarters , 11) Retail-related commercial facilities, and 12) Other landmark facilities.
  • Unique Venue includes 1) old castles, old palaces, old houses, historic sites with lodging facilities, 2) old castles, old palaces, old houses, historic sites, 3) museums, galleries and tourist attractions, 4) boats and Trains, 5) sports and leisure facilities, 6) theaters and concert halls, 7) complex theme facilities representing the region, 8) marine exhibition facilities and shipboard facilities, 9) design buildings, 10) university educational institutions, information and military headquarters , 11)
  • the list of event venues when the list of event venues includes a unique venue, the list of event venues may include only unique venues with accommodation facilities. That is, in many cases, it is not appropriate for accommodation facilities to be provided as a virtual reality image to be described later for the purpose of the facility. Accordingly, the server 100 may create a list to include only unique venues with accommodation facilities as a list of event venues.
  • the selectable place may further include information on at least one attraction, accommodation, restaurant, etc. to which each unique venue can be connected with a moving line.
  • a selectable place may include information on a conference hall, a grand ballroom, a hotel, an exhibition hall, etc., in which large and small international conferences can be performed.
  • the selectable place may further include information on accommodations, restaurants, tourist destinations, etc. for persons participating in the corresponding MICE.
  • the selectable places may mean places included within a range that can be selected based on cost, schedule, availability of reservation, and the like. A specific method of setting the selectable range will be described later.
  • step S140 the server 100 may select at least one place from the list obtained based on member information and event information.
  • the server 100 may select a place that satisfies the member information and the event information among event venues included in the list.
  • the server 100 selects a suitable place based on event information, or in the case of an incentive trip in the MICE field, the server 100 provides member information and events. Based on the information, members can select the desired location.
  • step S150 the server 100 may provide information on the selected place.
  • the server 100 may help members select by providing information on the selected place, and when planning MICE for the corresponding place, program arrangement for each place, setting of movement lines, base (for example, , Accommodations, restaurants, tourist destinations, meeting places, etc.) can be selected and reserved.
  • base for example, , Accommodations, restaurants, tourist destinations, meeting places, etc.
  • the place selected by the above-described method may be a place for members to actually visit.
  • the present invention is not limited thereto, and of course, a place for receiving a virtual reality image may be selected through the above-described method.
  • FIG. 3 is a flowchart illustrating a method of providing a virtual reality image according to an embodiment of the present invention.
  • an event venue is determined so that members may visit the corresponding venue according to the determined venue and schedule.
  • the server 100 may provide a place or a unique venue that cannot be directly visited using a virtual reality image.
  • the server 100 may acquire at least one unique venue associated with a selected place among a plurality of unique venues.
  • the server 100 may acquire at least one unique venue associated with the selected place based on information on the selected place in step S140. Specifically, the server 100 is configured to obtain object information for a selected place, obtain at least one object associated with the obtained object, and determine at least one unique venue including at least one obtained object. At least one unique venue associated with the selected place may be obtained through the step.
  • the server 100 acquires objects related to the Gyeongbokgung object (eg, Changgyeonggung object, Changdeokgung object, and Deoksugung object), and provides a unique venue associated with the obtained object. Can be obtained.
  • objects related to the Gyeongbokgung object eg, Changgyeonggung object, Changdeokgung object, and Deoksugung object
  • the server 100 may provide a virtual reality image for at least one acquired unique venue.
  • the virtual reality image may be provided using a head mounted display (HMD), but is not limited thereto, and may be provided as a 360 degree image using a general display.
  • HMD head mounted display
  • FIG. 4 is a flowchart illustrating a method of obtaining a unique venue and determining an order of providing the obtained unique venue according to an embodiment of the present invention.
  • the server 100 may provide members with a unique venue associated with a selected place according to various criteria.
  • the server 100 may acquire at least one first unique venue corresponding to the member based on the member information.
  • the member information may include member preference information.
  • the member's preference information can be obtained using collected questionnaire information and life information, which will be described later.
  • the server 100 may acquire at least one second unique venue based on the event information. That is, the server 100 may obtain the unique venue related to the event information as the second unique venue. For example, when the event is a reward tourism, the server 100 may acquire a unique venue, which is determined to be unable to visit due to the restriction of traffic, among the unique venues associated with the reward tourism destination as the second unique venue. As another example, when the event is an exhibition, the server 100 may acquire a unique venue related to the exhibition as a second unique venue, or acquire a unique venue related to an exhibition in the past as a second unique venue. That is, by using the virtual reality image, the server 100 can provide not only the current unique venue but also the past unique venue to members.
  • the server 100 may determine an order of providing at least one first unique venue and at least one second unique venue based on the event schedule included in the event information.
  • the associated unique venue may change as the tourist destination is moved. Accordingly, the server 100 may determine an order of providing the first unique venue and the second unique venue according to the event schedule information of the moving tourist destination.
  • FIG. 5 is a flowchart illustrating a method of providing a unique venue including time information as a virtual reality image according to an embodiment of the present invention.
  • the server 100 may acquire a unique venue related to a place based on member information and event information.
  • unique venues related to the same place may have different appearances or different meanings depending on the times.
  • the present Gyeongbokgung Palace and the past Gyeongbokgung Palace may have different meanings.
  • the server 100 may further acquire time information of the unique venue to be provided based on member information and event information, if necessary.
  • the server 100 may obtain time information for at least one first unique venue based on the member's preference information included in the member information.
  • the server 100 may acquire time information for at least one second unique venue based on the event content included in the event information.
  • the server 100 may provide a unique venue for the acquired time information as a virtual reality image.
  • 6 and 7 are flowcharts illustrating a method of generating a virtual reality image for a unique venue according to an embodiment of the present invention.
  • the virtual reality image may be generated by the image taken at the Unique Venue, but there may be cases where it is necessary to create a virtual reality image for the unique Venue in the past, or it may be difficult to shoot an image to create a virtual reality image. In addition, there may be insufficient parts in the captured virtual reality image.
  • the server 100 may acquire a plurality of images and a plurality of images for at least one unique venue.
  • the acquired plurality of images and images may include an image captured to generate a virtual reality image.
  • the plurality of acquired images and the plurality of images may be clustered based on the place information to obtain a plurality of place clusters.
  • the server 100 determines a range of virtual reality for generating a virtual reality image, obtains location information for the determined range, maps location information for each of a plurality of images and a plurality of images, and maps A plurality of place clusters may be obtained by performing clustering based on the obtained location information.
  • the image and image data included in the acquired place cluster will be data for the same location.
  • the location information may be obtained through the image and GPS information included in the image, but is not limited thereto.
  • the server 100 may extract an image and an object included in the image.
  • the server 100 stores GPS information of the image and image including the same object. Location information may be obtained from images and images that do not contain GPS information as a basis.
  • each place cluster generated according to the present invention may be a cluster for generating a virtual reality image of one unique venue, respectively. That is, the virtual reality image generated based on one place cluster may be a virtual reality image for one unique venue.
  • the virtual reality image generated by one place cluster is limited to be a virtual reality image for one unique venue, but is not limited thereto, and the virtual reality image generated from a plurality of place clusters is It goes without saying that a virtual reality image for one unique venue or a virtual reality image generated from one place cluster may be a virtual reality image for a plurality of unique venues.
  • the server 100 may acquire a plurality of time clusters by clustering images and images included in the first place cluster among the obtained plurality of place clusters based on time information.
  • the server 100 may cluster images and images for the same place based on time information.
  • the time information may be obtained through the image and the photographing time information included in the image.
  • the server 100 may generate a virtual reality image for the unique venue based on the images and images included in the first time cluster among the plurality of time clusters.
  • the server 100 may generate a virtual reality image at a specific point in time.
  • the server 100 may generate virtual reality images from various viewpoints, such as a virtual reality image of the current Gyeongbokgung Palace and a virtual reality image of Gyeongbokgung Palace in the Joseon Dynasty.
  • the server 100 may generate the virtual reality image by adding the images and images included in the other time cluster.
  • the server 100 may acquire an image included in the first time cluster and a plurality of objects included in a virtual reality image generated based on the image.
  • the server 100 may determine an object lacking information for expressing in a 3D image among the acquired plurality of objects.
  • an object lacking information for expressing a 3D image may be a case where an image for one side of the object exists but no image for the other side.
  • the server 100 may determine that the object is insufficient to be expressed as a 3D image. That is, when the element required to generate the 3D image is less than or equal to a preset ratio, the server 100 may determine that the object is insufficient to be expressed as a 3D image.
  • step S230 when the object lacking information for expressing as a 3D image is greater than or equal to a preset ratio among the plurality of objects, the server 100 has a preset degree of relation with time information among images and images included in the first place cluster. Images and videos below the value can be extracted.
  • the server 100 can generate objects with insufficient information from images and images included in the images and images in different time zones. have.
  • the server 100 may generate a virtual reality image for Unique Venue based on the image and image included in the first time cluster and the extracted image and image.
  • the server 100 may perform historical research of a virtual reality image for the generated Unique Venue.
  • the virtual reality image generated through the above-described method may include objects that do not fit the times.
  • the server 100 acquires time information of the virtual reality image, acquires information on a plurality of objects included in the virtual reality image, acquires time information of the acquired object, and provides time information of the object and the virtual reality image. If the time information is different, the object may be deleted from the virtual reality image.
  • the time information of the object is information on the time when the object first occurred (for example, information on the time when the car was first invented), information on the last time when the object existed (for example, information on the time when the dinosaur was extinct), etc. I can.
  • the date of birth and death of the person information on a place where the person is located by time zone, etc. may be information on the viewpoint of the object.
  • the server 100 determines that the car object is an incorrectly inserted object. And, it is possible to generate a virtual reality image in which the car object is deleted.
  • FIG. 8 is a flowchart specifically illustrating a method of selecting a place according to an embodiment of the present invention.
  • the server 100 may collect questionnaire information of members.
  • the server 100 may collect questionnaire information for selecting a place, performed for a member.
  • the questionnaire information may include a question that directly asks each member a desired place, or may include a question for collecting information related to each member's taste or preference.
  • the questionnaire items may be automatically obtained based on the artificial intelligence model.
  • an artificial intelligence model means a model learned based on machine learning (machine learning).
  • the artificial intelligence model clusters questionnaire items obtained from a database, and selects items that can collect information necessary for place selection, that is, provide meaningful information for each member to select a desired place. can do.
  • the training data used to train the artificial intelligence model may include information on a place actually desired by each member and information on which the member responds to each questionnaire.
  • the artificial intelligence model performs learning by using the training data, and can select questionnaire items that have a predetermined relationship between a location desired by a member and a response to the questionnaire question.
  • the artificial intelligence model may be trained based on learning data labeled with information on questionnaire questions, responses to them, and places desired by each respondent (tourist destinations, MICE venues, etc.). In this case, the artificial intelligence model may obtain a location desired by each member based on the responses to the questionnaire questions of each member.
  • the questionnaire information may be collected in advance before the place selection is made, but of course, it may be collected after participation in MICE and various events. That is, the server 100 may collect post questionnaire information for members who participated in the MICE held at the Unique Venue and after participating in various events.
  • the collected questionnaire information may include information such as satisfaction with events, inconveniences, and improvements.
  • the server 100 may use the collected post questionnaire information when selecting a location later. For example, in selecting a venue for an event that includes member information that is equal to or greater than a preset ratio with member information who participated in a post survey after participating in a past event, the server 100 places a place based on the post survey information of the members who participated in the past. Can be selected.
  • step S320 the server 100 collects the member's life information
  • step S321 the server 100 collects the member's personal information parameter
  • step S322 the server 100 collects the member's conversation content
  • step S323 the server 100 may obtain at least one keyword required for location selection through natural language processing from the conversation contents of the member.
  • the member's life information may include conversation contents of each member.
  • the life information of a member may include conversation contents performed by each member by using e-mail or messenger.
  • the daily life information of members includes various personal information parameters collected based on the member's commute time, work hours, work performance, welfare point usage history, other welfare (language, physical education, etc.) usage history, and consumption history for hobbies. Can include.
  • the server 100 may recommend a suitable place to each member based on the collected daily life information of the member.
  • the recommendation of a place may be performed based on the artificial intelligence model described above.
  • the artificial intelligence model may be learned based on life information of each member and learning data labeled with a place desired by each member.
  • the artificial intelligence model may be learned by using the questionnaire information and life information of each member together.
  • the artificial intelligence model may acquire keywords necessary for place selection through natural language processing from the conversation contents of the members, and obtain a place desired by the members through calculation based on the acquired keywords.
  • the artificial intelligence model determines at least one parameter that has a significant correlation with the selection of a place among the member's living information, extracts information corresponding to the parameter from the member's living information, and uses the extracted parameter. By carrying out learning, members can acquire the places they want.
  • the artificial intelligence model may collect information on a place desired by each member.
  • information on a place desired by each member may be obtained from direct questionnaire information, or may be obtained from an artificial intelligence model by the method described above.
  • step S131 the server 100 may obtain a place candidate group.
  • the place candidate group may be extracted by automatically recommending a place suitable for a purpose, or may be obtained based on information stored in an existing record or a database.
  • the server 100 may automatically select a predetermined place candidate group from the database based on the member's input.
  • the server 100 receives the purpose of selecting a place from the members, receives the range of the region (for example, domestic/overseas, travel time, continent, etc.), and then automatically selects the candidate group for the corresponding place. Can be obtained with.
  • the region for example, domestic/overseas, travel time, continent, etc.
  • the server 100 may extract at least one selectable place from the place candidate group based on the purpose and program of the MICE and the event, the hosting period, the size of participation, budget, accessibility, and surrounding infrastructure information.
  • the present invention is not limited thereto, and the server 100 extracts the selectable place, information on the number of participants in the event, information on space that can accommodate the number of participants in the event, information on accommodation facilities, information on traffic, information on space available during the holding period, It goes without saying that a variety of information such as city information can be used, and each of the various pieces of information can be used to extract selectable places by setting weights according to importance.
  • the server 100 may extract at least one selectable place from the place candidate groups.
  • the server 100 may obtain member preference information based on the collected questionnaire information and life information.
  • the server 100 may extract characteristics of a place preferred by each member based on the survey information and life information collected for each member. According to an embodiment, the server 100 may directly extract a place preferred by each member.
  • step S142 the server 100 may select at least one place from the list based on the preference information.
  • the server 100 may select a place preferred by each member from a list based on the member's preference information, or may select a place corresponding to the member's preferred characteristic from the list.
  • the server 100 may generate a place map including information on at least one place based on the feature of the at least one place.
  • the place map is a map clustered based on the association of at least one place, and places with high correlation may be located closer to each other, and places with low correlation may be located farther from each other.
  • step S144 the server 100 may select a place located closest to the center of clusters included in the place map based on the place map.
  • the artificial intelligence model can collect and cluster information on places desired by each member.
  • more members may select a desired place, and when different places are aggregated, a place map including information on each place may be generated based on characteristics of each place through clustering.
  • the place map may be a map that is clustered and organized based on the association of each place, and places with high correlation may be located closer to each other, and places with low correlation may be located farther away.
  • the place map may be configured in 2D or 3D, and may be configured in a higher dimension according to embodiments.
  • the artificial intelligence model may select a place located at the center of clusters included in the place map based on the place map. For example, even if 50% of the members selected place A, 20% selected place B, and 30% selected place C, the median calculated based on the place map is close to place B. , Place B can be finally selected.
  • the criteria for determining the relevance of places can be set differently according to the characteristics of each place. For example, in the case of reward tourism, whether each place is close to a resort, whether it is close to a tourist destination, whether it is hot, cold, or a mountain. It can be classified based on various parameters, such as whether there is a lot or a lot of sea.
  • a parameter for classifying each place may be set in advance or may be determined by clustering of an artificial intelligence model.
  • FIGS. 9 and 10 are diagrams and flowcharts illustrating a method of generating a virtual reality image including an avatar according to an embodiment of the present invention.
  • the server 100 may display an avatar corresponding to a member on the virtual reality image.
  • the avatar may have the same shape as each member, but may take various shapes such as the shape of a specific character or other person.
  • Members can manipulate their avatars to inform them of information, conduct guides, or experience Unique Venues. However, in certain cases, it may be unnecessary to display avatars for all members in a virtual reality image.
  • the number of members may be very large (eg, hundreds, thousands or more). Therefore, in this case, only the avatars of the members (hereinafter referred to as participants) who conduct the conference are displayed on the virtual reality image, and the member (hereinafter referred to as the spectator) who watches the conference is the desired or specified time without creating an avatar. You can observe the events in the virtual reality video at.
  • the server 100 may classify the terminal corresponding to the member into the participant terminal 200 and the observer terminal 300.
  • the participant terminal 200 is displayed on the virtual reality image, and the observer terminal 300 is not displayed on the virtual reality image, but at a specific time point or at an arbitrary time point. You can visit the virtual reality video conference.
  • some of the participant terminals 200 may be converted to the observer terminal 300, and some of the observer terminals 300 may be converted to the participant terminal 200.
  • the converted member terminal 400 may no longer be displayed on the virtual reality image.
  • the observer terminal 300 is switched to the participant terminal 200, the member terminal 400 to be switched may be displayed on a virtual reality image.
  • a participant or lecturer can return to the observer after completing the part in charge, some of the observers may ask a question or participate in the meeting, and the observer terminal 300, who was waiting while attending the conference as an observer, is his or her turn.
  • the participant terminal 200 may be switched to perform a lecture.
  • a lecture or presentation may be provided through a virtual reality image, and a separate space may be created for this.
  • a lecturer as one of the participants may sit on a stage provided in a virtual reality video to give a lecture, but the lecture may be conducted in a separate space specialized for a lecture or presentation.
  • a lecturer may create a separate virtual reality image for a lecture, and may notify participants and observers of a virtual reality image conference that the corresponding space has been created, and participate in a virtual reality image conference according to an embodiment. Even outsiders who are not doing it can be informed of the creation of virtual reality images through the network.
  • a virtual reality image is displayed on a virtual reality imaging device of a member who has selected to enter a virtual reality image among members who have received the notification, and the lecturer can perform a lecture on the virtual reality image.
  • the lecturer's avatar may be displayed and the audience may not be displayed.
  • the audience's avatar may also be displayed. In the case of the audience, the avatar may be temporarily displayed.
  • the lecture may be conducted in real time, but the previously recorded lecture may be displayed in a virtual reality image.
  • the type of lecture described in the above-described embodiment is not limited, and various types of lectures and events such as lectures, lectures, presentations, investment explanations, IR, auctions, demonstrations, and briefing sessions may be provided through virtual reality images. have.
  • each virtual reality image may be generated and modified by the lecturer and the host, and according to embodiments, a suitable structure and background may be automatically generated based on the contents of the lecture and event.
  • step S410 the server 100 classifies a plurality of member terminals for a plurality of members receiving a virtual reality image into at least one participant terminal and at least one observer terminal. I can.
  • the server 100 may receive person information and object information from at least one participant terminal.
  • the server 100 may generate avatars respectively corresponding to at least one participant terminal based on the person information and the object information.
  • step S440 the server 100 may generate a virtual reality image for the unique venue including the generated avatar.
  • step S450 the server 100 may provide the generated virtual reality image to the member terminal.
  • the server 100 may set the viewpoint of the participant terminal and the observer terminal, and provide an image corresponding to the set viewpoint to the participant terminal and the members corresponding to the observer terminal. .
  • the server 100 may provide the virtual reality image to the one or more participant terminals, and the viewpoint of the virtual reality image provided to the one or more participant terminals is the avatar corresponding to each of the one or more participant terminals. Can be fixed to the position of.
  • the server 100 may provide the virtual reality image to the one or more observer terminals, and the viewpoint of the virtual reality image provided to the one or more observer terminals may be set to be changed by a member.
  • the viewpoint of each participant may be fixed to a position where the avatar of each participant is actually placed in order to prevent confusion.
  • the viewpoint may be fixed to the position of the eyes of the avatar.
  • the viewpoint may also move accordingly. .
  • a virtual reality image based on a fixed viewpoint is provided. That is, the viewpoint of the participant may be fixed to the viewpoint of the avatar corresponding to the participant.
  • the viewpoint of the observer may be limited as a range, and of course, a range of a position in which the viewpoint cannot be placed may also be set.
  • the server 100 may calculate a range of viewpoints at which information that is difficult to be disclosed to outsiders can be viewed, and may prohibit the observer from moving the viewpoint of the range.
  • the server 100 may not render a portion unnecessary for the progress of a virtual reality video event in order to reduce the load on generating and viewing virtual reality images, and calculates a range of viewpoints at which the corresponding portion can be viewed. It is possible to prohibit the observer from moving the viewpoint of the scope.
  • a different virtual reality image may be provided to each observer according to each observer's authority. For example, the more a virtual reality video provided to an observer with high authority, the wider the range of view may be given, and for members who do not have access to specific information, the information will be blinded or viewed. A virtual reality image in which a possible viewpoint range is blocked may be provided.
  • the server 100 when the participant terminal is changed to the observer terminal, the server 100 deletes the created avatar, and when the observer terminal is changed to the participant terminal, the server 100 may generate a new avatar. That is, as described in FIG. 9, some observers may be changed to participants, and in this case, an avatar of a member changed to a participant may be generated and displayed on a virtual reality image.
  • the observer can immediately move from the existing viewpoint to the position where the avatar will be displayed in the virtual reality image, and the observer's viewpoint can also immediately move.
  • an observer's viewpoint may move from an existing viewpoint to a movement target position, and when the observer's viewpoint enters a preset range (for example, on the stage or a pulpit, etc.), an avatar of the observer is created and , The created avatar can be displayed at the viewer's viewpoint. Thereafter, the avatar may move according to the viewer's viewpoint position. When the observer is out of the preset range, the observer's avatar may be removed from the virtual reality image.
  • a preset range for example, on the stage or a pulpit, etc.
  • FIG. 11 is a block diagram of an apparatus according to an embodiment of the present invention.
  • the processor 102 may include at least one core (not shown), a graphic processing unit (not shown), and/or a connection path (eg, a bus) for transmitting and receiving signals with other components. have.
  • the processor 102 executes at least one instruction stored in the memory 104 to perform the method described with reference to FIGS. 1 to 10.
  • the processor 102 acquires new training data by executing at least one instruction stored in the memory, performs a test on the acquired new training data using the learned model, and the test result,
  • the new learning data from which the labeled information is obtained with an accuracy equal to or greater than a predetermined first reference value is extracted, the extracted first learning data is deleted from the new learning data, and the extracted learning data is deleted
  • the learned model may be retrained by using.
  • the processor 102 temporarily and/or permanently stores a signal (or data) processed inside the processor 102, a RAM (Random Access Memory, not shown) and a ROM (Read-Only Memory). , Not shown) may further include.
  • the processor 102 may be implemented in the form of a system on chip (SoC) including at least one of a graphic processing unit, RAM, and ROM.
  • SoC system on chip
  • the memory 104 may store programs (at least one instruction) for processing and controlling the processor 102. Programs stored in the memory 104 may be divided into a plurality of modules according to functions.
  • RAM Random Access Memory
  • ROM Read Only Memory
  • EPROM Erasable Programmable ROM
  • EEPROM Electrically Erasable Programmable ROM
  • Flash Memory hard disk, removable disk, CD-ROM, or It may reside on any type of computer-readable recording medium well known in the art to which the present invention pertains.
  • Components of the present invention may be implemented as a program (or application) and stored in a medium in order to be executed in combination with a computer that is hardware.
  • Components of the present invention may be implemented as software programming or software elements, and similarly, embodiments include various algorithms implemented with a combination of data structures, processes, routines or other programming elements, including C, C++ , Java, assembler, etc. may be implemented in a programming or scripting language. Functional aspects can be implemented with an algorithm running on at least one processor.

Landscapes

  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Engineering & Computer Science (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Marketing (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Economics (AREA)
  • Theoretical Computer Science (AREA)
  • Development Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Transfer Between Computers (AREA)
  • Operations Research (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

유니크베뉴의 제공방법, 장치 및 프로그램이 제공된다. 본 발명에 따른 유니크베뉴의 제공 방법은, 구성원정보를 수집하는 단계(S110); 행사정보를 수집하는 단계(S120); 복수의 유니크베뉴 및 복수의 기타 장소 중 선택 가능한 적어도 하나의 행사 개최 장소에 대한 리스트를 획득하는 단계(S130); 상기 구성원정보 및 상기 행사정보를 바탕으로 상기 리스트 중 적어도 하나의 장소를 선택하는 단계 (S140); 및 상기 선택된 장소에 대한 정보를 제공하는 단계(S150); 를 포함한다.

Description

유니크베뉴 제공 방법, 장치 및 프로그램
본 발명은 유니크베뉴 제공 방법, 장치 및 프로그램에 관한 것이다.
4차 산업 혁명에 따른 신기술의 등장으로, 다양한 분야에 새로운 기술이 접목되고 있다. 구체적으로, 가상 현실 기술, 인공 지능 기술 등의 새로운 기술들이 다양한 산업 분야에 적용되고 있다.
이러한 다양한 기술들 중, 인공지능(Artificial Intelligence, AI) 시스템은 인간 수준의 지능을 구현하는 컴퓨터 시스템이며, 기존 Rule 기반 스마트 시스템과 달리 기계가 스스로 학습하고 판단하며 똑똑해지는 시스템이다. 인공지능 시스템은 사용할수록 인식률이 향상되고 사용자 취향을 보다 정확하게 이해할 수 있게 되어, 기존 Rule 기반 스마트 시스템은 점차 딥러닝 기반 인공지능 시스템으로 대체되고 있다.
인공지능 기술은 기계학습(딥러닝) 및 기계학습을 활용한 요소 기술들로 구성된다.
기계학습은 입력 데이터들의 특징을 스스로 분류/학습하는 알고리즘 기술이며, 요소기술은 딥러닝 등의 기계학습 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 기술로서, 언어적 이해, 시각적 이해, 추론/예측, 지식 표현, 동작 제어 등의 기술 분야로 구성된다.
인공지능 기술은 다양한 분야에서 응용되며, 특히 정보를 수집하고 수집된 정보에 기초하여 결론을 추론하거나, 빅데이터에 포함된 데이터 간의 연관성을 파악하여 새로운 정보를 도출해내는 것도 가능하다.
또한, 가상 현실(Virtual Reality)은 어떤 특정한 환경이나 상황을 인위적으로 만들어서, 그것을 사용하는 사람이 마치 실제 주변 상황 및 환경과 상호작용을 하고 있는 것처럼 만들어 주는 인간과 컴퓨터 사이의 인터페이스를 말한다. 가상 현실이란 말은 인공현실(artificial reality), 사이버 공간(cyberspace), 가상세계(virtual world), 가상환경(virtual environment), 합성환경(synthetic environment), 인공환경(artificial environment), 증강현실(augmented reality), 혼합현실(mixed reality) 등의 용어로 혼용되기도 한다.
가상 현실의 사용 목적은 사람들이 일상적으로 경험하기 어려운 환경을 직접 체험하지 않고서도 그 환경에 들어와 있는 것처럼 보여주고 조작할 수 있게 해주는 것으로서, 그 응용분야는 교육, 원격조작, 원격위성 표면탐사, 탐사자료분석, 과학적 시각화(scientific visualization) 등이다.
한편, MICE는 기업회의(Meeting), 포상관광(Incentive trip), 컨벤션(Convention), 전시박람회와 이벤트(Exhibition&Event) 등의 영문 앞 글자를 딴 용어로, 좁은 의미에서는 국제회의와 전시회를 주축으로 한 유망 산업을 뜻하며, 광의적 개념으로는 참여자 중심의 보상관광과 메가 이벤트 등을 포함하는 융복합산업을 뜻한다. 또한, 행사란 국가, 협단체, 기업, 개인 및 단체가 주최하는 MICE 및 공연, 이벤트, 축제, 쇼, 스포츠 경기, 관광 등을 모두 포함한다. MICE 산업에 대한 세계적 관심이 높아지고 유치 경쟁이 치열해지면서, 개최 국가, 개최 도시의 독특한 매력을 즐길 수 있는 장소를 뜻하는 유니크베뉴(Unique Venue)가 경쟁력의 중요한 요소로 부각되고 있다. 따라서, MICE에 대한 장소 선정 및 특색 있는 유니크베뉴와 관련된 다양한 서비스를 제공하는 것이 MICE산업 분야에서 중요해지고 있다.
본 발명이 해결하고자 하는 과제는 유니크베뉴 제공 방법, 장치 및 프로그램을 제공하는 것이다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 유니크베뉴의 제공 방법은, 구성원정보를 수집하는 단계(S110); 행사정보를 수집하는 단계(S120); 복수의 유니크베뉴 및 복수의 기타 장소 중 선택 가능한 적어도 하나의 행사 개최 장소에 대한 리스트를 획득하는 단계(S130); 상기 구성원정보 및 상기 행사정보를 바탕으로 상기 리스트 중 적어도 하나의 장소를 선택하는 단계 (S140); 및 상기 선택된 장소에 대한 정보를 제공하는 단계(S150); 를 포함한다.
본 발명의 다양한 실시예에 따라, 구성원정보 및 행사정보에 맞는 장소를 선택할 수 있으며, 선택된 장소와 연관된 다양한 유니크베뉴를 가상 현실 영상을 통해 제공할 수 있다.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 시스템을 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 장소 선정 방법을 설명하기 위한 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 가상 현실 영상을 제공하는 방법을 설명하기 위한 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 유니크베뉴를 획득하고, 획득된 유니크베뉴의 제공 순서를 결정하는 방법을 설명하기 위한 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 시간정보를 포함하는 유니크베뉴를 가상 현실 영상으로 제공하는 방법을 설명하기 위한 흐름도이다.
도 6 및 도 7은 본 발명의 일 실시예에 따른 유니크베뉴에 대한 가상 현실 영상을 생성하는 방법을 설명하기 위한 흐름도이다.
도 8은 본 발명의 일 실시예에 따른 장소를 선정하는 방법을 구체적으로 설명하기 위한 흐름도이다.
도 9 및 도 10은 본 발명의 일 실시예에 따른 아바타를 포함하는 가상 현실 영상을 생성하는 방법을 설명하기 위한 도면 및 흐름도이다.
도 11은 본 발명의 일 실시예에 따른 장치의 구성도이다.
상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 유니크베뉴의 제공 방법은, 구성원정보를 수집하는 단계(S110); 행사정보를 수집하는 단계(S120); 복수의 유니크베뉴 및 복수의 기타 장소 중 선택 가능한 적어도 하나의 행사 개최 장소에 대한 리스트를 획득하는 단계(S130); 상기 구성원정보 및 상기 행사정보를 바탕으로 상기 리스트 중 적어도 하나의 장소를 선택하는 단계 (S140); 및 상기 선택된 장소에 대한 정보를 제공하는 단계(S150); 를 포함한다.
이때, 상기 복수의 유니크베뉴 중 상기 선택된 장소와 연관된 적어도 하나의 유니크베뉴를 획득하는 단계(S160); 및 상기 획득된 적어도 하나의 유니크베뉴에 대한 가상 현실 영상을 제공하는 단계(S170); 를 더 포함할 수 있다.
이때, 상기 적어도 하나의 유니크베뉴를 획득하는 단계(S160)는, 상기 구성원정보를 바탕으로 상기 구성원에 대응되는 적어도 하나의 제1 유니크베뉴를 획득하는 단계(S161); 상기 행사정보를 바탕으로 적어도 하나의 제2 유니크베뉴를 획득하는 단계(S162); 및 상기 행사정보에 포함된 행사 스케쥴을 바탕으로 상기 적어도 하나의 제1 유니크베뉴 및 상기 적어도 하나의 제2 유니크베뉴의 제공 순서를 결정하는 단계(S163); 를 더 포함할 수 있다.
이때, 상기 가상 현실 영상을 제공하는 단계(S170)는, 상기 구성원정보에 포함된 구성원의 선호도정보를 바탕으로 상기 적어도 하나의 제1 유니크베뉴에 대한 시간정보를 획득하는 단계(S171); 상기 행사정보에 포함된 행사 내용을 바탕으로 상기 적어도 하나의 제2 유니크베뉴에 대한 시간정보를 획득하는 단계(S172); 및 상기 획득된 시간정보에 대한 유니크베뉴를 가상 현실 영상으로 제공하는 단계(S173); 를 포함할 수 있다.
이때, 상기 유니크베뉴는, 숙박시설을 포함하는 유니크베뉴 및 숙박시설을 포함하지 않는 유니크베뉴로 구분되고, 상기 행사 개최 장소에 대한 리스트는, 상기 숙박시설을 포함하는 유니크베뉴 및 복수의 기타 장소 중 적어도 하나일 수 있다.
이때, 상기 가상 현실 영상을 제공하는 단계(S170)는, 상기 적어도 하나의 유니크베뉴에 대한 복수의 이미지 및 복수의 영상을 획득하는 단계(S174); 상기 획득한 복수의 이미지 및 복수의 영상을 장소 정보를 바탕으로 클러스터링하여 복수의 장소 클러스터를 획득하는 단계(S175); 상기 획득된 복수의 장소 클러스터 중 제1 장소 클러스터에 포함된 이미지 및 영상을 시간정보를 바탕으로 클러스터링하여 복수의 시간 클러스터를 획득하는 단계(S176); 및 상기 복수의 시간 클러스터 중 제1 시간 클러스터에 포함된 이미지 및 영상을 바탕으로 유니크베뉴에 대한 가상 현실 영상을 생성하는 단계(S177); 를 포함할 수 있다.
이때, 상기 가상 현실 영상을 생성하는 단계(S177)는, 상기 제1 시간 클러스터에 포함된 이미지 및 영상을 바탕으로 생성된 가상 현실 영상에 포함된 복수의 오브젝트를 획득하는 단계(S210); 상기 획득된 복수의 오브젝트 중, 3D 영상으로 표현하기 위한 정보가 부족한 오브젝트를 판단하는 단계(S220); 상기 판단된 오브젝트가 상기 복수의 오브젝트 중 기 설정된 비율 이상인 경우, 상기 제1 장소 클러스터에 포함된 이미지 및 영상 중 시간정보와의 관련도가 기 설정된 값 이하인 이미지 및 영상을 추출하는 단계(S230); 및 상기 제1 시간 클러스터에 포함된 이미지, 영상 및 상기 추출된 이미지, 영상을 바탕으로 유니크베뉴에 대한 가상 현실 영상을 생성하는 단계(S240); 를 포함할 수 있다.
이때, 상기 구성원정보를 수집하는 단계(S110)는, 구성원의 설문정보를 수집하는 단계(S310); 및 상기 구성원의 생활정보를 수집하는 단계(S320); 를 포함하고, 상기 구성원의 생활정보를 수집하는 단계(S320)는, 상기 구성원의 개인정보 파라미터를 수집하는 단계(S321); 상기 구성원의 대화내용을 수집하는 단계(S322); 및 상기 구성원의 대화내용으로부터 자연어 처리를 통해 장소 선정에 필요한 적어도 하나의 키워드를 획득하는 단계(S323); 를 포함하고, 상기 리스트를 획득하는 단계는(S130), 장소 후보군을 획득하는 단계(S131); 및 MICE 및 행사의 개최 목적 및 프로그램, 개최 기간, 참가 규모, 예산, 접근성, 주변 인프라 정보에 기초하여 상기 장소 후보군으로부터 상기 적어도 하나의 선택 가능한 장소를 추출하는 단계(S132); 를 포함하고, 상기 적어도 하나의 장소를 선택하는 단계(S140)는, 상기 수집된 설문정보 및 생활정보에 기초하여 상기 구성원의 선호도정보를 획득하는 단계(S141); 및 상기 선호도정보에 기초하여 상기 리스트로부터 상기 적어도 하나의 장소를 선택하는 단계(S142); 를 포함하고, 상기 선호도정보에 기초하여 상기 리스트로부터 상기 적어도 하나의 장소를 선택하는 단계(S142)는, 상기 적어도 하나의 장소의 특징에 기초하여 상기 적어도 하나의 장소에 대한 정보를 포함하는 장소 지도를 생성하되, 상기 장소 지도는 상기 적어도 하나의 장소의 연관성에 기초하여 클러스터링된 지도이고, 서로 연관성이 높은 장소일수록 서로 가까이에, 서로 연관성이 낮은 장소일수록 서로 멀리 위치하는, 단계(S143); 및 상기 장소 지도에 기초하여, 상기 장소 지도에 포함된 클러스터들의 중앙에 가장 가깝게 위치한 장소를 선택하는 단계(S144); 를 포함할 수 있다.
이때, 상기 제공 방법은, 상기 가상 현실 영상을 제공 받는 복수의 구성원에 대한 복수의 구성원 단말을 적어도 하나의 참여자 단말 및 적어도 하나의 참관자 단말로 분류하는 단계(S410); 상기 적어도 하나의 참여자 단말로부터 인물 정보 및 객체 정보를 수신하는 단계(S420); 및 상기 인물 정보 및 상기 객체 정보를 바탕으로 상기 적어도 하나의 참여자 단말에 각각 대응되는 아바타를 생성하는 단계(S430); 를 포함하고, 상기 가상 현실 영상을 제공하는 단계(S170)는, 상기 생성된 아바타를 포함하는 상기 유니크베뉴에 대한 가상 현실 영상을 생성하는 단계(S440); 및 상기 생성된 가상 현실 영상을 상기 구성원 단말에 제공하는 단계(S450); 를 포함할 수 있다.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 적어도 하나의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 적어도 하나의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.
공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.
본 명세서에서, 컴퓨터는 적어도 하나의 프로세서를 포함하는 모든 종류의 하드웨어 장치를 의미하는 것이고, 실시 예에 따라 해당 하드웨어 장치에서 동작하는 소프트웨어적 구성도 포괄하는 의미로서 이해될 수 있다. 예를 들어, 컴퓨터는 스마트폰, 태블릿 PC, 데스크톱, 노트북 및 각 장치에서 구동되는 사용자 클라이언트 및 애플리케이션을 모두 포함하는 의미로서 이해될 수 있으며, 또한 이에 제한되는 것은 아니다.
본 명세서에서, 가상 현실 및 가상 현실 영상은 VR(Virtual Reality) 및 VR 영상에 제한되는 것이 아니고, 가상 현실(VR, Virtual Reality)과 가상 현실 영상, 증강현실(AR, Augmented Reality)과 증강현실 영상, 혼합현실(MR, Mixed Reality)과 혼합현실 영상 및 일반 영상을 모두 포함하며, 또한 이에 제한되지 않고 현실, 가상 및 현실과 가상이 혼합된 모든 종류의 영상을 포함하는 의미로 사용된다.
또한, 본 명세서에 개시된 가상 현실 장비를 활용하는 방법에 대한 실시 예들은 가상 현실(VR, Virtual Reality), 증강현실(AR, Augmented Reality), 혼합현실(MR, Mixed Reality) 및 일반 영상 모두에 적용가능함은 본 기술분야의 통상의 기술자라면 자명하게 이해할 수 있다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.
본 명세서에서 설명되는 각 단계들은 컴퓨터에 의하여 수행되는 것으로 설명되나, 각 단계의 주체는 이에 제한되는 것은 아니며, 실시 예에 따라 각 단계들의 적어도 일부가 서로 다른 장치에서 수행될 수도 있다.
도 1은 일 실시 예에 따른 시스템을 도시한 도면이다.
도 1을 참조하면, 적어도 하나의 구성원(10, 20 및 30)와 각 구성원의 가상 현실 단말(12, 22, 및 32), 그리고 각 구성원의 구성원 단말(14, 24 및 34)이 각각 도시되어 있다.
일 실시 예에서, 가상 현실 단말(12, 22 및 32)은 HMD(Head Mounted Display)형태로 구성될 수 있으나, 이에 제한되는 것은 아니다.
일 실시 예에서, 구성원 단말(14, 24 및 34)은 스마트폰일 수 있으나, 이에 제한되지 않으며, 적어도 하나의 프로세서를 포함하는 모든 종류의 컴퓨팅 장치를 포함할 수 있다.
일 실시예에서, 가상 현실 단말(12, 22 및 32) 각각 및 구성원 단말(14, 24 및 34)은 하나의 전자 장치로 구현될 수 있으나 이에 제한되는 것은 아니다. 즉, 가상 현실 단말(12) 및 구성원 단말(14), 가상 현실 단말(22) 및 구성원 단말(24), 가상 현실 단말(32) 및 구성원 단말(34)은 각각 하나의 전자 장치로 구현될 수 있으나, 이에 제한되는 것은 아니다.
도 1을 참조하면, 서버(100)가 도시되어 있다. 서버(100)는 클라우드 서버로 구현될 수 있다.
서버(100)는 구성원(10, 20 및 30)에 대한 구성원정보 및 행사정보를 바탕으로 행사 개최 장소를 결정할 수 있다. 이때, 행사정보는 예를 들어, MICE 산업과 관련된 행사에 대한 정보일 수 있다.
이때, MICE는 기업회의(Meeting), 포상관광(Incentive trip), 컨벤션(Convention), 전시박람회와 이벤트(Exhibition&Event) 등의 영문 앞 글자를 딴 용어로, 좁은 의미에서는 국제회의와 전시회를 주축으로 한 유망 산업을 뜻하며, 광의적 개념으로는 참여자 중심의 보상관광과 메가 이벤트 등을 포함하는 융복합산업을 뜻한다.
나아가, 서버(100)는 행사 장소와 관련된 다양한 가상 현실 이벤트를 구성원(10, 20 및 30)에게 제공할 수 있다.
일 실시 예에서, 각각의 구성원(10, 20 및 30)는 서버(100)를 통하여 가상 현실 이벤트를 제공받는다. 일 실시 예에서, 가상 현실 이벤트는 가상 공간에서 제공되는 모든 종류의 이벤트를 포함할 수 있으며, 실시 예에 따라 가상 공간에서 제공되는 다양한 MICE 를 포함할 수 있다.
일 실시 예에서, 가상 현실 이벤트는 가상 공간에서만 이루어지는 이벤트일 수도 있고, 현실 공간에서 이루어지는 이벤트와 함께 진행될 수도 있다. 이 경우, 가상 공간은 현실 공간의 이벤트 현장에 기초하여 생성될 수 있다.
일 실시 예에서, 가상 현실 이벤트는 가상 현실 영상에서 진행되는 컨퍼런스를 의미할 수 있다. 이 경우, 가상 현실 이벤트는 컨퍼런스에 직접 참여하는 참여자와, 컨퍼런스를 참관하는 참관자를 포함할 수 있다.
일 실시 예에서, 구성원 단말(14, 24 및 34)은 서버(100)로부터 가상 현실 이벤트에 대응하는 가상 현실 영상을 수신하고, 수신된 가상 현실 영상을 가상 현실 기기(12, 22 및 32)를 이용하여 표시할 수 있다.
일 실시 예에서, 가상 현실 이벤트가 제공되는 가상 현실 영상의 배경은 다양한 유니크베뉴(Unique Venue)로 구성될 수 있다. 유니크베뉴는 '유니크(unique: 독특한)'와 '베뉴(Venue: 장소)'의 합성어로, 고유 지역의 문화, 특색을 테마로 한 고택, 박물관, 마을 등의 장소를 의미하고, 예를 들어 유명 관광지 등을 포함할 수 있다.
단, 유니크베뉴의 정의는 상술한 바에 제한되는 것은 아니고, 각 지역의 독특한 배경이나 풍경 등을 포함할 수 있다. 또한, 유니크베뉴는 현대뿐 아니라 각 지역의 과거의 시대상이나 역사적 배경을 반영한 가상의 배경을 포함할 수 있다. 또한, 유니크베뉴는 이외에도 각 지역의 도시계획에 따라 예상되는 미래의 배경을 포함할 수 있고, 또한 상상에 의하여 창조된 다양한 가상의 배경들을 포함할 수 있으며, 특정한 종류에 제한되지 않는다.
국제 회의의 경우, 회의 참가자 대상 개최 지역의 문화관광 프로그램 제공이 증가하는 추세로 가상 현실 영상을 활용한 유니크베뉴를 조성함으로 더욱 다양하고 독특한 체험을 제공할 수 있다. 또한, 회의 프로그램의 전체 또는 일부를 가상 현실 영상에서 진행하는 경우, 해당 지역을 실제로 방문할 필요가 없어지므로, 전체 일정이 가상 현실로 대체될 수도 있다. 이 경우, 가상 현실을 이용한 회의 중에 배경에 다양한 유니크베뉴들을 표시하면, 해당 지역에 실제로 방문하지 않더라도 간접 체험이 가능하도록 할 수 있다. 또는, 국제 회의는 현실 세계에서 진행하되, 시간 및 공간의 제약으로 방문하지 못하는 장소들은 가상 현실로 대체될 수도 있음은 물론이다.
또한, 배경은 특정 지역 외에도 다양하게 설정될 수 있으며, 가상 현실로 전 일정이 대체되는 경우 장소 이동의 문제가 해소되므로, 거리나 동선과 무관하게 선호도만을 기초로 하여 장소들을 선택하여 그룹핑하고, 해당 장소들을 가상 현실 영상의 배경에 구현함으로써 구성원들이 선호하는 많은 장소들을 간접적으로 방문하는 효과를 줄 수 있다.
일 실시 예에서, 실제 MICE의 일부가 가상 현실로 대체될 수도 있다.
예를 들어, MICE는 적어도 하나의 프로그램 및 이에 대응하는 장소를 포함하는 그룹으로 구성될 수 있으며, 서버(100)는 그룹에 포함된 적어도 하나의 장소 중 적어도 일부에 대한 가상 현실 대체여부를 결정할 수 있다.
예를 들어, MICE가 직원에 대한 포상 관광일 때, 특정 관광지가 공사중이거나 입장이 불가능한 경우가 있을 수 있고, 구성원의 선호도가 높은 장소이나 동선이나 시간관계상 방문이 어려울 수 있다. 이 경우, 서버(100)는 해당 장소를 가상 현실로 대체할 것을 결정할 수 있다.
또한, 국제회의를 주최하고자 하는 경우 참가인원이 너무 많거나, 서로 멀리 떨어져 있는 경우, 예산이 부족한 경우 등에 회의를 가상 현실로 대체하는 방안을 고려할 수 있다. 이 경우, 굳이 해당 국가에 방문할 필요가 없으므로, 전체 일정이 가상 현실로 대체될 수 있다.
일 실시 예에서, 가상 현실 이벤트는 실제 MICE 개최지 선정을 위한 사전답사에도 이용될 수 있다.
예를 들어, MICE 개최를 위한 각 장소예약 및 기획단계 이전에, 구성원은 가상 현실 영상을 통해 각 장소에 실제로 가지 않고도 필요한 정보를 수집할 수 있다.
예를 들어, 서버(100)는 가상 현실을 통해 MICE에 포함된 장소들을 가상으로 방문 및 체험할 수 있도록 하고, 실시간정보를 반영하여 가상 현실 영상을 업데이트할 수 있다. 예를 들어, 특정 장소가 공사중이거나, 도로가 통제중이거나, 식당이 휴업 또는 폐업하였거나, 호텔의 예약사항이 변경되는 경우 등 변동사항을 실시간으로 수집 및 반영하여, 구성원이 최신의 정보를 획득할 수 있도록 함으로써 실제 답사를 대체할 수 있도록 하는 서비스를 제공할 수 있다.
일 실시 예에서, 가상 현실 영상에서 컨퍼런스가 진행되는 경우, 해당 컨퍼런스를 통해 교류되는 정보는 인공지능에 의하여 정리 및 기록될 수 있고, 실시 예에 따라 컨퍼런스의 내용이 외부의 참관자들에 공개될 수도 있다. 예를 들어, 실제 컨퍼런스의 경우 참가인원이 제한될 수 있으나, 가상 현실을 이용한 컨퍼런스의 경우 참가자 외의 참관자들이나 수행원들이 해당 공간에서 진행되는 컨퍼런스 영상을 시청할 수 있다.
일 실시 예에서, 서버(100)는 가상 현실 이벤트를 제공하는 주체에 의하여 관리될 수도 있으며, 가상 현실 이벤트를 제공하기 위한 플랫폼이나 솔루션을 제공하는 주체에 의하여 관리될 수도 있다.
이하에서는 도 2 내지 도 10을 이용하여 행사 장소를 결정하는 방법 및 가상 현실 영상을 제공하는 방법에 대하여 구체적으로 살펴본다.
도 2는 본 발명의 일 실시예에 따른 장소 선정 방법을 설명하기 위한 흐름도이다.
단계 S110에서, 서버(100)는 구성원정보를 수집할 수 있다.
일 실시 예에서, 구성원은 포상관광 대상인 기업의 구성원을 의미할 수도 있고, MICE 참여 대상을 의미할 수도 있으며, 또한 이에 제한되는 것은 아니다.
구성원정보는 구성원의 신상을 포함하는 개인정보를 의미할 수도 있고, 기타 다양한 정보를 더 포함할 수 있다.
단계 S120에서, 서버(100)는 행사정보를 수집할 수 있다.
일 실시예에서, 행사정보는 장소 선정의 목적에 부합하는 행사정보를 의미할 수 있다. 예를 들어, 선정하고자 하는 장소는 MICE와 관련된 장소일 수 있다. 이 경우, 행사정보는 MICE에 대한 정보를 포함할 수 있다. 이때 행사정보는 MICE 분야 중 회의(Meeting)인지, 포상관광(Incentive Trip) 인지, 컨벤션(Convention)인지, 전시박람회와 이벤트(Exhibition&Event)인지에 따라 다른 정보를 포함하거나, 동일 유형의 정보라도 다른 가중치가 설정될 수 있다. 예를 들어, MICE 분야 중 회의(Meeting)인 경우, 참석 인원 및 참석인원을 수용할 수 있는 장소에 대한 정보가 가중치가 높은 행사정보에 포함될 수 있으며, MICE 분야 중 포상관광(Incentive Trip)과 관련된 이벤트인 경우, 시간 및 동선, 관광지 및 주변의 인프라와 관련된 정보가 가중치가 높은 행사정보에 포함될 수 있다.
단계 S130에서, 서버(100)는 복수의 유니크베뉴 및 복수의 기타 장소 중 선택 가능한 적어도 하나의 행사 개최 장소에 대한 리스트를 획득할 수 있다.
일 실시 예에서, 선택 가능한 장소는 나라 단위, 도시 단위 또는 그보다 크거나 작은 지역 단위로 구분될 수 있으며, 또는 유명한 관광지와 같은 상징적 장소에 기초하여 분류될 수도 있다.
예를 들어, 선택 가능한 장소는 적어도 하나의 유니크베뉴(Unique Venue)를 포함할 수 있다. 이때, 유니크베뉴는 다양한 기준에 의해 분류될 수 있다. 예를 들어, 유니크베뉴는 1) 숙박시설이 있는 고성, 고궁, 고택, 역사유적지, 2) 숙박시설이 없는 고성, 고궁, 고택, 역사유적지, 3) 박물관, 갤러리 및 관광 명소, 4) 보트 및 기차, 5) 스포츠 및 여가시설, 6) 극장 및 콘서트 홀, 7) 지역을 대표하는 복합 테마 시설, 8) 해양 전시 시설 및 선상 시설, 9) 디자인 건축물, 10) 대학 교육기관, 정보 및 군사본부, 11) 소매관련 상업시설, 12) 기타 랜드마크 시설 등의 분류 기준에 따라 분류될 수 있다. 그러나 상술한 분류는 하나의 예시에 불과한 것으로 다양한 기준에 따라 유니크베뉴가 분류될 수 있음은 물론이다.
한편, 본 발명에 따른 실시예로, 행사 개최 장소에 대한 리스트가 유니크베뉴를 포함하는 경우, 행사 개최 장소에 대한 리스트는 숙박시설이 있는 유니크베뉴만을 포함할 수 있음은 물론이다. 즉, 숙박 시설은 시설의 목적상 후술하는 가상 현실 영상으로 제공 받는 것이 적절하지 않은 경우가 많다. 따라서, 서버(100)는 행사 개최 장소에 대한 리스트로 숙박시설이 있는 유니크베뉴만을 포함하도록 리스트를 작성할 수 있다.
또한, 선택 가능한 장소는 각각의 유니크베뉴와 동선이 연결될 수 있는 적어도 하나의 명소나, 숙박업소, 식당 등에 대한 정보를 더 포함할 수 있다.
또한, MICE의 경우, 선택 가능한 장소는 크고 작은 국제회의 등을 수행할 수 있는 컨퍼런스 홀, 그랜드 볼룸, 호텔, 전시관 등에 대한 정보를 포함할 수 있다. 또한, 이 경우 선택 가능한 장소는 해당 MICE에 참여하는 인원을 위한 숙박업소, 식당, 관광지 등에 대한 정보를 더 포함할 수 있다.
또한, 선택 가능한 장소는 비용, 일정, 예약가능 여부 등에 기초하여 선택할 수 있는 범위 내에 포함된 장소들을 의미할 수 있다. 선택할 수 있는 범위를 설정하는 구체적인 방법은 이하에서 후술한다.
단계 S140에서, 서버(100)는 구성원정보 및 행사정보를 바탕으로 획득된 리스트 중 적어도 하나의 장소를 선택할 수 있다.
즉, 서버(100)는 리스트에 포함된 행사 개최 장소 중 구성원정보와 행사정보를 만족하는 장소를 선택할 수 있다.
예를 들어, MICE 분야 중 회의(Meeting)인 경우, 서버(100) 행사정보에 기초하여 적합한 장소를 선정하거나, MICE 분야 중 포상관광(Incentive Trip)인 경우, 서버(100)는 구성원정보 및 행사정보에 기초하여 구성원들이 원하는 장소를 선택할 수 있다.
단계 S150에서, 서버(100)는 선택된 장소에 대한 정보를 제공할 수 있다.
일 실시 예에서, 서버(100)는 선택된 장소에 대한 정보를 제공함으로써 구성원의 선택을 도울 수 있고, 해당 장소에 대한 MICE를 기획하고자 하는 경우, 장소별 프로그램 배치, 동선 설정, 거점(예를 들어, 숙박업소, 식당, 관광지, 회의장소 등)의 선택 및 예약 등을 보조할 수 있다.
일 실시예에 따라, 상술한 방법에 의해 선택되는 장소는 구성원들이 실제로 방문하기 위한 장소일 수 있다. 다만, 이에 한정되는 것은 아니며, 상술한 방법을 통해 가상 현실 영상을 제공받기 위한 장소가 선택될 수 있음은 물론이다.
도 3은 본 발명의 일 실시예에 따른 가상 현실 영상을 제공하는 방법을 설명하기 위한 흐름도이다.
일 실시예에 따라, 도 2에서 설명한 바와 같이 행사 개최 장소가 결정되어 구성원들이 결정된 장소 및 일정에 따라 해당 장소를 방문할 수 있다. 그러나 대부분의 경우 시간과 공간의 제약상, 결정된 장소와 연관된 다양한 장소 및 다양한 유니크베뉴를 직접 방문하고, 체험하는 것이 불가능한 경우가 많을 수 있다. 따라서, 서버(100)는 시간과 공간의 제약을 극복하기 위하여, 직접 방문이 불가능한 장소 또는 유니크베뉴를 가상 현실 영상을 이용하여 제공할 수 있다.
구체적으로, 단계 S160에서, 서버(100)는 복수의 유니크베뉴 중 선택된 장소와 연관된 적어도 하나의 유니크베뉴를 획득할 수 있다.
일 실시예로, 서버(100)는 단계 S140에서 선택된 장소에 대한 정보를 바탕으로, 선택된 장소와 연관된 적어도 하나의 유니크베뉴를 획득할 수 있다. 구체적으로, 서버(100)는 선택된 장소에 대한 오브젝트 정보를 획득하는 단계, 획득된 오브젝트와 연관된 적어도 하나의 오브젝트를 획득하는 단계 및 획득된 적어도 하나의 오브젝트를 포함하는 적어도 하나의 유니크베뉴를 판단하는 단계를 통해 선택된 장소와 연관된 적어도 하나의 유니크베뉴를 획득할 수 있다.
예를 들어 선택된 장소에 대한 오브젝트가 경복궁 오브젝트인 경우, 서버(100)는 경복궁 오브젝트와 관련된 오브젝트(예를 들어, 창경궁 오브젝트, 창덕궁 오브젝트 및 덕수궁 오브젝트)를 획득하고, 획득된 오브젝트와 연관된 유니크베뉴를 획득할 수 있다.
단계 S170에서, 서버(100)는 획득된 적어도 하나의 유니크베뉴에 대한 가상 현실 영상을 제공할 수 있다.
가상 현실 영상은 HMD(Head Mounted Display)를 이용하여 제공될 수 있으나, 이에 제한되지 않으며, 일반 디스플레이를 이용하여 360도 영상으로서 제공될 수도 있다.
도 4는 본 발명의 일 실시예에 따른 유니크베뉴를 획득하고, 획득된 유니크베뉴의 제공 순서를 결정하는 방법을 설명하기 위한 흐름도이다.
가상 현실 영상은 시간과 공간의 제약이 적기 때문에, 선택된 장소와 연관된 복수의 유니크베뉴를 제공하는 것이 가능하다. 따라서, 서버(100)는 다양한 기준에 따라 선택된 장소와 연관된 유니크베뉴를 구성원들에게 제공할 수 있다.
일 실시예로, 단계 S161에서, 서버(100)는 구성원정보를 바탕으로, 구성원에 대응되는 적어도 하나의 제1 유니크베뉴를 획득할 수 있다. 이때, 구성원정보는 구성원의 선호도정보를 포함할 수 있다. 구성원의 선호도정보는 수집된 설문정보 및 생활정보 등을 이용해 획득될 수 있으며, 이에 대하여는 후술한다.
단계 S162에서, 서버(100)는 행사정보를 바탕으로 적어도 하나의 제2 유니크베뉴를 획득할 수 있다. 즉, 서버(100)는 행사정보와 관련된 유니크베뉴를 제2 유니크베뉴로 획득할 수 있다. 예를 들어, 행사가 포상관광인 경우, 서버(100)는 포상관광지와 연관된 유니크베뉴 중 동선의 제약으로 방문할 수 없다고 판단되는 유니크베뉴를 제2 유니크베뉴로 획득할 수 있다. 또 다른 예로, 행사가 박람회인 경우, 서버(100)는 박람회와 관련된 유니크베뉴를 제2 유니크베뉴로 획득하거나, 과거 진행되었던 박람회와 관련된 유니크베뉴를 제2 유니크베뉴로 획득할 수 있다. 즉, 가상 현실 영상을 이용함으로써, 서버(100)는 현재의 유니크베뉴 뿐만 아니라 과거의 유니크베뉴를 구성원들에게 제공할 수 있다.
단계 S163에서, 서버(100)는 행사정보에 포함된 행사 스케쥴을 바탕으로 적어도 하나의 제1 유니크베뉴 및 적어도 하나의 제2 유니크베뉴의 제공 순서를 결정할 수 있다.
일 실시예로, 행사가 포상관광인 경우, 관광지를 이동함에 따라 연관된 유니크베뉴가 달라질 수 있다. 따라서, 서버(100)는 이동하는 관광지의 행사 스케쥴 정보에 따라 제1 유니크베뉴 및 제2 유니크베뉴의 제공 순서를 결정할 수 있다.
도 5는 본 발명의 일 실시예에 따른 시간정보를 포함하는 유니크베뉴를 가상 현실 영상으로 제공하는 방법을 설명하기 위한 흐름도이다.
도 4에서 설명한 바와 같이, 서버(100)는 구성원정보 및 행사정보를 바탕으로 장소와 관련된 유니크베뉴를 획득할 수 있다. 그러나 동일한 장소와 관련된 유니크베뉴라고 하더라도 시대에 따라 다른 모습을 가지고 있거나 다른 의미를 가질 수 있다. 예를 들어, 현재의 경복궁과 과거의 경복궁은 다른 의미를 가질 수 있다. 따라서, 서버(100)는 필요에 따라 구성원정보 및 행사정보를 바탕으로 제공하고자 하는 유니크베뉴의 시간정보를 더 획득할 수 있다.
구체적으로, 단계 S171에서, 서버(100)는 구성원정보에 포함된 구성원의 선호도정보를 바탕으로 적어도 하나의 제1 유니크베뉴에 대한 시간정보를 획득할 수 있다.
단계 S172에서, 서버(100)는 행사정보에 포함된 행사 내용을 바탕으로 적어도 하나의 제2 유니크베뉴에 대한 시간정보를 획득할 수 있다.
단계 S173에서, 서버(100)는 획득된 시간정보에 대한 유니크베뉴를 가상 현실 영상으로 제공할 수 있다.
도 6 및 도 7은 본 발명의 일 실시예에 따른 유니크베뉴에 대한 가상 현실 영상을 생성하는 방법을 설명하기 위한 흐름도이다.
가상 현실 영상은 유니크베뉴를 촬영한 영상에 의해 생성될 수 있으나, 과거 유니크베뉴에 대한 가상 현실 영상을 생성할 필요가 있거나, 가상 현실 영상을 생성하기 위해 영상을 촬영하는 것이 힘든 경우가 존재할 수 있으며, 촬영된 가상 현실 영상에도 부족한 부분이 존재할 수 있다.
따라서, 단계 S174에서, 서버(100)는 적어도 하나의 유니크베뉴에 대한 복수의 이미지 및 복수의 영상을 획득할 수 있다. 이때, 획득되는 복수의 이미지 및 영상에는 가상 현실 영상을 생성하기 위해 촬영된 영상이 포함될 수 있다.
단계 S175에서, 획득한 복수의 이미지 및 복수의 영상을 장소 정보를 바탕으로 클러스터링하여 복수의 장소 클러스터를 획득할 수 있다. 구체적으로, 서버(100)는 가상 현실 영상을 생성하기 위한 가상 현실의 범위를 결정하고, 결정된 범위에 대한 위치 정보를 획득하고, 복수의 이미지 및 복수의 영상 각각에 대해 위치 정보를 매핑하고, 매핑된 위치 정보를 바탕으로 클러스터링을 수행하여 복수의 장소 클러스터를 획득할 수 있다. 획득된 장소 클러스터에 포함된 이미지 및 영상 데이터는 동일한 위치에 대한 데이터일 것이다.
이때, 위치 정보는 이미지 및 영상에 포함된 GPS 정보를 통해 획득될 수 있으나, 이에 한정되는 것은 아니다. 서버(100)는 이미지 및 영상에 포함된 오브젝트를 추출할 수 있다. GPS 정보를 포함하는 이미지 및 영상에 포함된 오브젝트와 GPS 정보가 포함되지 않은 이미지 및 영상에 포함된 오브젝트가 동일하다고 판단된 경우, 서버(100)는 동일한 오브젝트를 포함하는 이미지 및 영상의 GPS 정보를 바탕으로 GPS 정보가 포함되지 않은 이미지 및 영상에 위치 정보를 획득할 수 있다.
일 실시예로, 본 발명에 따라 생성되는 각각의 장소 클러스터는 각각 하나의 유니크베뉴의 가상 현실 영상을 생성하기 위한 클러스터일 수 있다. 즉, 하나의 장소 클러스터를 바탕으로 생성되는 가상 현실 영상은 하나의 유니크베뉴에 대한 가상 현실 영상일 수 있다. 이하, 본 발명에서는 하나의 장소 클러스터에 의해 생성되는 가상 현실 영상은 하나의 유니크베뉴에 대한 가상 현실 영상인 것으로 한정하여 설명하나, 이에 한정되는 것은 아니며, 복수의 장소 클러스터로부터 생성되는 가상 현실 영상이 하나의 유니크베뉴에 대한 가상 현실 영상이거나, 하나의 장소 클러스터로부터 생성되는 가상 현실 영상이 복수의 유니크베뉴에 대한 가상 현실 영상일 수 있음은 물론이다.
단계 S176에서, 서버(100)는 획득된 복수의 장소 클러스터 중 제1 장소 클러스터에 포함된 이미지 및 영상을 시간정보를 바탕으로 클러스터링하여 복수의 시간 클러스터를 획득할 수 있다.
즉, 서버(100)는 동일한 장소에 대한 이미지 및 영상을 시간정보를 바탕으로 클러스터링 할 수 있다.
이때, 시간정보는 이미지 및 영상에 포함된 촬영 시간정보를 통해 획득될 수 있다.
단계 S177에서, 서버(100)는 복수의 시간 클러스터 중 제1 시간 클러스터에 포함된 이미지 및 영상을 바탕으로 유니크베뉴에 대한 가상 현실 영상을 생성할 수 있다.
상술한 방법을 통해 서버(100)는 특정 시점에서의 가상 현실 영상을 생성할 수 있다. 예를 들어, 서버(100)는 현재의 경복궁에 대한 가상 현실 영상, 조선시대의 경복궁에 대한 가상 현실 영상 등 다양한 시점에서의 가상 현실 영상을 생성할 수 있다.
한편, 서버(100)는 시간 클러스터에 포함된 이미지 및 영상이 가상 현실 영상을 생성하기 불충분한 경우, 다른 시간 클러스터에 포함된 이미지 및 영상을 추가하여 가상 현실 영상을 생성할 수 있다.
구체적으로, 단계 S210에서, 서버(100)는 제1 시간 클러스터에 포함된 이미지 및 영상을 바탕으로 생성된 가상 현실 영상에 포함된 복수의 오브젝트를 획득할 수 있다.
단계 S220에서, 서버(100)는 획득된 복수의 오브젝트 중 3D 영상으로 표현하기 위한 정보가 부족한 오브젝트를 판단할 수 있다. 이때, 3D 영상으로 표현하기 위한 정보가 부족한 오브젝트라고 함은, 오브젝트의 일 측면에 대한 이미지는 존재하나 다른 측면에 대한 이미지가 존재하지 않는 경우일 수 있다. 구체적으로, 특정 오브젝트에 대한 정면 이미지는 존재하나, 측면 및 후면 이미지가 존재하지 않는 경우, 서버(100)는 해당 오브젝트가 3D 영상으로 표현하기 불충분하다고 판단할 수 있다. 즉, 서버(100)는 3D 영상을 생성하는데 필요한 엘리먼트가 기 설정된 비율 이하인 경우, 해당 오브젝트가 3D 영상으로 표현하기 불충분하다고 판단할 수 있다.
단계 S230에서, 서버(100)는 3D 영상으로 표현하기 위한 정보가 부족한 오브젝트가 복수의 오브젝트 중 기 설정된 비율 이상인 경우, 제1 장소 클러스터에 포함된 이미지 및 영상 중 시간정보와의 관련도가 기 설정된 값 이하인 이미지 및 영상을 추출할 수 있다.
즉, 제1 장소 클러스터에 포함된 이미지 및 영상은 동일한 장소에 대한 서로 다른 시간대의 이미지 및 영상이므로, 서버(100)는 정보가 부족한 오브젝트는 다른 시간대의 이미지 및 영상에 포함된 오브젝트로부터 생성할 수 있다.
단계 S240에서, 서버(100)는 제1 시간 클러스터에 포함된 이미지, 영상 및 상기 추출된 이미지, 영상을 바탕으로 유니크베뉴에 대한 가상 현실 영상을 생성할 수 있다.
한편, 본 발명의 다양한 실시예에 따라, 서버(100)는 생성된 유니크베뉴에 대한 가상 현실 영상의 고증(historical research)을 수행할 수 있다. 예를 들어, 상술한 방법을 통해 생성된 가상 현실 영상은 시대에 맞지 않는 오브젝트를 포함하게 될 수 있다. 따라서, 서버(100)는 가상 현실 영상의 시간정보를 획득하고, 가상 현실 영상에 포함된 복수의 오브젝트 정보를 획득하고, 획득한 오브젝트의 시간정보를 획득하고, 오브젝트의 시간정보와 가상 현실 영상의 시간정보가 상이한 경우, 해당 오브젝트를 가상 현실 영상에서 삭제할 수 있다. 이때, 오브젝트의 시간정보는 문헌상 오브젝트가 처음 발생한 시점 정보(예를 들어 자동차가 처음 발명된 시점 정보), 오브젝트가 존재한 가장 마지막 시점 정보(예를 들어 공룡이 멸종한 시점 정보)등에 대한 정보일 수 있다. 다양한 실시예에 따라, 오브젝트가 역사적 인물인 경우, 해당 인물의 출생년도 및 사망 연도, 해당 인물이 시간대별로 위치한 장소에 대한 정보 등이 오브젝트에 대한 시점 정보일 수 있음은 물론이다.
예를 들어, 생성된 가상 현실 영상이 조선시대의 경복궁을 재현한 가상 현실 영상이고, 생성된 가상 현실 영상에 자동차 오브젝트가 포함된 경우, 서버(100)는 자동차 오브젝트가 잘못 삽입된 오브젝트인 것으로 판단하고, 자동차 오브젝트를 삭제한 가상 현실 영상을 생성할 수 있다.
도 8은 본 발명의 일 실시예에 따른 장소를 선정하는 방법을 구체적으로 설명하기 위한 흐름도이다.
단계 S310에서, 서버(100)는 구성원의 설문정보를 수집할 수 있다.
일 실시 예에서, 서버(100)는 구성원을 대상으로 수행된, 장소선정을 위한 설문정보를 수집할 수 있다. 예를 들어, 설문정보는 각 구성원이 원하는 장소를 직접적으로 질문하는 문항을 포함할 수도 있고, 각각의 구성원의 취향이나 선호도와 관련된 정보를 수집하기 위한 문항을 포함할 수도 있다. 일 실시 예에서, 설문 문항들은 인공지능 모델에 기초하여 자동으로 획득될 수 있다.
본 명세서에서, 인공지능 모델은 머신러닝(기계학습)에 기초하여 학습된 모델을 의미한다. 일 실시 예에서, 인공지능 모델은 데이터베이스로부터 획득되는 설문 문항들을 클러스터링하여, 장소 선정에 필요한 정보를 수집할 수 있는, 즉 각 구성원이 원하는 장소를 선정하는 데 유의미한 정보를 제공할 수 있는 문항들을 선정할 수 있다.
예를 들어, 인공지능 모델을 학습시키는데 이용되는 학습 데이터는 각 구성원이 실제로 원하는 장소에 대한 정보와, 해당 구성원이 각각의 설문 문항에 대하여 응답한 정보를 포함할 수 있다. 인공지능 모델은 학습 데이터를 이용하여 학습을 수행하고, 구성원이 원하는 장소와 설문 문항의 응답이 소정의 연관성을 갖는 설문 문항들을 골라낼 수 있다.
또한, 인공지능 모델은 설문 문항들과 이에 대한 응답, 그리고 각 응답자가 원하는 장소(관광지, MICE 개최 장소 등)에 대한 정보가 라벨링되어 있는 학습 데이터에 기초하여 학습될 수 있다. 이 경우, 인공지능 모델은 각 구성원들의 설문 문항에 대한 응답에 기초하여 각 구성원이 원하는 장소를 획득할 수 있다.
이때, 설문정보는 장소 선정이 이뤄지기 전에 사전적으로 수집될 수도 있으나, MICE 및 다양한 행사 참가 후 사후적으로 수집될 수도 있음은 물론이다. 즉, 서버(100)는 유니크 베뉴에서 개최된 MICE 및 다양한 행사 참가 후 행사 등에 참가한 구성원을 대상으로 한 사후 설문정보를 수집할 수 있다. 수집되는 설문정보에는 행사 등에 대한 만족도, 불편사항, 개선점 등의 정보가 포함될 수 있다. 서버(100)는 수집된 사후 설문정보를 추후 장소 선정시 사용할 수 있다. 예를 들어, 과거 행사 참여 후 사후 설문 조사에 참여한 구성원정보와 기 설정된 비율 이상 동일한 구성원정보를 포함하는 행사의 장소를 선정함에 있어서, 서버(100)는 과거 참여한 구성원의 사후 설문정보를 바탕으로 장소를 선정할 수 있다.
단계 S320에서, 서버(100)는 구성원의 생활정보를 수집하고, 단계 S321에서, 서버(100)는 구성원의 개인정보 파라미터를 수집하고, 단계 S322에서, 서버(100)는 구성원의 대화내용을 수집하고, 단계 S323에서, 서버(100)는 구성원의 대화내용으로부터 자연어 처리를 통해 장소 선정에 필요한 적어도 하나의 키워드를 획득할 수 있다.
일 실시 예에서, 구성원의 생활정보는 각 구성원의 대화내용을 포함할 수 있다. 예를 들어, 구성원의 생활정보는 각 구성원이 메일, 메신저 등을 이용하여 수행한 대화내용을 포함할 수 있다.
또한, 구성원의 생활정보는 구성원의 출퇴근 시간, 업무시간, 업무실적, 복지포인트 이용내역, 기타 복지(어학, 체육 등) 이용내역, 취미 활동을 위한 소비 내역 등에 기초하여 수집된 다양한 개인정보 파라미터들을 포함할 수 있다.
서버(100)는 수집된 구성원의 생활정보에 기초하여 각 구성원에게 적합한 장소를 추천할 수 있다. 장소의 추천은 상술한 인공지능 모델에 기초하여 수행될 수 있다.
예를 들어, 인공지능 모델은 각 구성원의 생활정보와, 각 구성원이 원하는 장소가 라벨링된 학습 데이터에 기초하여 학습될 수 있다. 실시 예에 따라서, 인공지능 모델은 각 구성원의 설문정보와 생활정보를 함께 이용하여 학습될 수도 있다.
일 실시 예에서, 인공지능 모델은 구성원의 대화내용으로부터 자연어 처리를 통해 장소 선정에 필요한 키워드들을 획득하고, 획득된 키워드에 기초하여 연산을 통해 구성원들이 원하는 장소를 획득할 수 있다.
일 실시 예에서, 인공지능 모델은 구성원의 생활정보 중 장소 선정과 유의미한 연관성을 갖는 적어도 하나의 파라미터를 결정하고, 해당 파라미터에 대응하는 정보를 구성원의 생활정보로부터 추출하고, 추출된 파라미터를 이용하여 학습을 수행함으로써 구성원이 원하는 장소를 획득할 수 있다.
일 실시 예에서, 인공지능 모델은 각 구성원들이 원하는 장소에 대한 정보를 취합할 수 있다. 예를 들어, 각 구성원들이 원하는 장소에 대한 정보는 직접적인 설문정보로부터 획득될 수도 있고, 상술한 방법에 의하여 인공지능 모델로부터 획득될 수도 있다.
단계 S131에서, 서버(100)는 장소 후보군을 획득할 수 있다.
일 실시 예에서, 장소 후보군은 목적에 맞는 장소를 자동으로 추천하여 추출될 수도 있고, 기존 기록이나 데이터베이스에 저장된 정보를 기반으로 획득될 수도 있다.
일 실시 예에서, 서버(100)는 구성원의 입력에 기반하여 데이터베이스로부터 소정의 장소 후보군을 자동으로 선택할 수 있다.
예를 들어, 서버(100)는 구성원으로부터 장소를 선택하는 목적을 입력받고, 지역의 범위(예를 들어, 국내/국외, 이동시간, 대륙 등)를 입력받은 후 이에 해당하는 장소의 후보군을 자동으로 획득할 수 있다.
단계 S132에서, 서버(100)는 MICE 및 행사의 개최 목적 및 프로그램, 개최 기간, 참가 규모, 예산, 접근성, 주변 인프라 정보에 기초하여 장소 후보군으로부터 적어도 하나의 선택 가능한 장소를 추출할 수 있다. 다만, 이에 한정되는 것은 아니며, 서버(100)는 선택 가능한 장소를 추출함에 있어서, 행사 참여 인원 정보, 행사 참여 인원을 수용 가능한 공간 정보, 숙박시설 정보, 교통 정보, 개최 기간에 사용 가능한 공간 정보, 도시 정보 등 다양한 정보들을 이용할 수 있으며, 다양한 정보들 각각은 중요도에 따라 가중치가 설정되어 선택 가능한 장소를 추출하는데 이용될 수 있음은 물론이다.
예를 들어, 장소 후보군들 중 예산범위를 벗어나거나, 인프라가 부족하거나, 예약불가 등으로 이용이 불가능한 경우가 있을 수 있다. 따라서, 서버(100)는 장소 후보군들로부터 선택 가능한 적어도 하나의 장소를 추출할 수 있다.
단계 S141에서, 서버(100)는 수집된 설문정보 및 생활정보에 기초하여 구성원의 선호도정보를 획득할 수 있다.
예를 들어, 서버(100)는 각 구성원들에 대하여 수집된 설문정보 및 생활정보에 기초하여 각 구성원이 선호하는 장소의 특성들을 추출할 수 있다. 실시 예에 따라서, 서버(100)는 각 구성원이 선호하는 장소를 직접적으로 추출할 수도 있다.
단계 S142에서, 서버(100)는 선호도정보에 기초하여 리스트로부터 적어도 하나의 장소를 선택할 수 있다.
예를 들어, 서버(100)는 구성원의 선호도정보에 기초하여 각 구성원이 선호하는 장소를 리스트로부터 선택하거나, 구성원이 선호하는 특성에 해당하는 장소를 리스트로부터 선택할 수 있다.
단계 S143에서, 서버(100)는 적어도 하나의 장소의 특징에 기초하여 적어도 하나의 장소에 대한 정보를 포함하는 장소 지도를 생성할 수 있다. 이때, 장소 지도는 적어도 하나의 장소의 연관성에 기초하여 클러스터링된 지도이고, 서로 연관성이 높은 장소일수록 서로 가까이에, 서로 연관성이 낮은 장소일수록 서로 멀리 위치할 수 있다.
단계 S144에서, 서버(100)는 장소 지도에 기초하여 장소 지도에 포함된 클러스터들의 중앙에 가장 가깝게 위치한 장소를 선택할 수 있다.
구체적으로, 인공지능 모델은 각 구성원들이 원하는 장소에 대한 정보를 취합하고, 클러스터링할 수 있다. 인공지능 모델은 더 많은 구성원들이 원하는 장소를 선택할 수도 있고, 서로 다른 장소들이 취합되는 경우, 클러스터링을 통해 각 장소들의 특징에 기초하여 각 장소들에 대한 정보를 포함하는 장소 지도를 생성할 수 있다.
예를 들어, 장소 지도는 각 장소들의 연관성에 기초하여 클러스터링되어 정리된 지도일 수 있으며, 서로 연관성이 높은 장소일수록 가까이에, 서로 연관성이 낮은 장소일수록 멀리 위치할 수 있다. 장소 지도는 2차원 또는 3차원으로 구성될 수 있으며, 실시 예에 따라 더 높은 차원으로 구성될 수도 있다.
인공지능 모델은 장소 지도에 기초하여, 장소 지도에 포함된 클러스터들의 중앙에 위치한 장소를 선택할 수 있다. 예를 들어, 장소 A를 선택한 구성원이 50%이고, 장소 B를 선택한 구성원이 20%이고, 장소 C를 선택한 구성원이 30%인 경우에도, 장소 지도에 기초하여 산출된 중앙값이 장소 B에 가까운 경우, 장소 B가 최종적으로 선정될 수 있다.
장소의 연관성을 판단하는 기준은 각 장소의 특징들에 의하여 서로 다르게 설정될 수 있으며, 예를 들어 포상 관광의 경우, 각 장소가 휴양지에 가까운지, 관광지에 가까운지, 더운지, 추운지, 산이 많은지, 바다가 많은지 등 다양한 파라미터에 기초하여 분류될 수 있다.
각 장소를 분류하는 파라미터는 미리 설정될 수도 있으며, 인공지능 모델의 클러스터링에 의하여 결정될 수도 있다.
도 9 및 도 10은 본 발명의 일 실시예에 따른 아바타를 포함하는 가상 현실 영상을 생성하는 방법을 설명하기 위한 도면 및 흐름도이다.
유니크베뉴에 대한 가상 현실 영상이 제공되는 경우, 서버(100)는 가상 현실 영상 상에 구성원에 대응되는 아바타를 표시할 수 있다. 아바타는 각 구성원과 같은 형상을 할 수도 있으나, 특정 캐릭터나 타인의 형상 등 다양한 형상을 취할 수 있다. 구성원은 자신의 아바타를 조작하여 정보를 알리거나, 가이드를 진행하거나, 또는 유니크베뉴를 체험할 수 있다. 그러나 특정 경우에는 모든 구성원에 대한 아바타가 가상 현실 영상에 표시되는 것이 불필요한 경우가 존재할 수 있다.
예를 들어, 가상 현실 영상에서 대규모 컨퍼런스가 진행되는 경우, 구성원의 수가 매우 많을(예를 들어, 수백, 수천명 이상) 수 있다. 따라서, 이 경우 가상 현실 영상에는 컨퍼런스를 진행하는 구성원들(이하 참여자)의 아바타만이 가상 현실 영상에 표시되고, 컨퍼런스를 관람하는 구성원(이하 참관자)은 아바타를 생성하지 않은 채로 원하는 시점 또는 지정된 시점에서 해당 가상 현실 영상에서 진행되는 이벤트를 참관할 수 있다.
따라서, 도 9에 도시된 바와 같이, 서버(100)는 구성원에 대응되는 단말을 참여자 단말(200) 및 참관자 단말(300)로 분류할 수 있다.
예를 들어, 상술한 바와 같이 가상 현실 영상 컨퍼런스에 있어서, 참여자 단말(200)는 가상 현실 영상에 표시되며, 참관자 단말(300)는 가상 현실 영상에 표시되지는 않지만, 특정 시점 혹은 임의의 시점에서 가상 현실 영상 컨퍼런스를 참관할 수 있다.
일 실시 예에서, 참여자 단말(200)중 일부가 참관자 단말(300)로 전환될 수도 있고, 참관자 단말(300)중 일부가 참여자 단말(200)로 전환될 수도 있다. 참여자 단말(200)이 참관자 단말(300)로 전환되는 경우, 전환되는 구성원 단말(400)은 가상 현실 영상에 더 이상 표시되지 않을 수 있다. 반대로 참관자 단말(300)가 참여자 단말(200)로 전환되는 경우, 전환되는 구성원 단말(400)은 가상 현실 영상에 표시될 수 있다.
예를 들어, 회의 참여자나 강연자가 담당한 부분을 마치고 참관자로 돌아갈 수 있으며, 참관자 중 일부가 질문을 하거나 회의에 참여할 수도 있고, 참관자로서 컨퍼런스를 참관하며 대기하던 참관자 단말(300)이 자신의 차례에서 강연을 위해 참여자 단말(200)로 전환되어 강연을 수행할 수도 있다.
일 실시 예에서, 가상 현실 영상을 통해 강연이나 프레젠테이션을 제공할 수 있으며, 이를 위한 별도의 공간이 생성될 수도 있다.
예를 들어, 기존의 가상 현실 영상 컨퍼런스에서 강연자가 참여자들 중 하나로서 가상 현실 영상에 마련된 무대에 올라 강연을 할 수도 있으나, 강연이나 프레젠테이션을 위하여 특화된 별도의 공간에서 강연을 진행할 수도 있다.
예를 들어, 강연자는 강연을 위한 별도의 가상 현실 영상을 생성할 수 있으며, 해당 공간이 생성되었음을 가상 현실 영상 컨퍼런스의 참여자들 및 참관자들에게 알릴 수 있고, 실시 예에 따라 가상 현실 영상 컨퍼런스에 참여하고 있지 않은 외부인들에게도 네트워크를 통해 가상 현실 영상의 생성사실을 알릴 수 있다.
알림을 수신한 구성원들 중 가상 현실 영상에 입장할 것을 선택한 구성원의 가상 현실 영상 기기에는 가상 현실 영상이 표시되며, 강연자는 해당 가상 현실 영상에서 강연을 수행할 수 있다. 가상 현실 영상에는 강연자의 아바타만이 표시될 수 있으며, 청중들은 표시되지 않을 수 있으나, 실시 예에 따라 청중들의 아바타 또한 표시될 수 있으며, 도 9와 관련하여 설명한 바와 같이 질문을 하거나 강연에 참여하는 청중의 경우 일시적으로 아바타가 표시될 수 있다.
강연은 실시간으로 진행될 수도 있으나, 이미 녹화된 강연이 가상 현실 영상에서 표시될 수도 있다. 상술한 실시 예에서 설명된 강연의 종류는 제한되지 않으며, 강의, 강연, 프레젠테이션, 투자설명, IR, 경매, 데모(demonstration), 설명회 등 다양한 종류의 강연과 이벤트가 가상 현실 영상을 통해 제공될 수 있다.
각 가상 현실 영상의 구조 및 배경은 강연자 및 진행자에 의하여 생성 및 수정될 수 있으며, 실시 예에 따라 강연 및 이벤트 내용에 기초하여 적합한 구조 및 배경이 자동으로 생성될 수도 있다.
구체적으로, 도 10에 도시된 바와 같이, 단계 S410에서, 서버(100)는 가상 현실 영상을 제공받는 복수의 구성원에 대한 복수의 구성원 단말을 적어도 하나의 참여자 단말 및 적어도 하나의 참관자 단말로 분류할 수 있다.
단계 S420에서, 서버(100)는 적어도 하나의 참여자 단말로부터 인물 정보 및 객체 정보를 수신할 수 있다.
단계 S430에서, 서버(100)는 인물 정보 및 객체 정보를 바탕으로 적어도 하나의 참여자 단말에 각각 대응되는 아바타를 생성할 수 있다.
단계 S440에서, 서버(100)는 생성된 아바타를 포함하는 유니크베뉴에 대한 가상 현실 영상을 생성할 수 있다.
단계 S450에서, 서버(100)는 생성된 가상 현실 영상을 구성원 단말에 제공할 수 있다.
한편, 본 발명에 따른 다양한 실시예에 따라, 서버(100)는 참여자 단말 및 참관자 단말의 시점을 설정하고, 설정된 시점에 대응되는 영상을 참여자 단말 및 참관자 단말에 대응되는 구성원들에게 제공할 수 있다.
구체적으로, 서버(100)는 상기 하나 이상의 참여자 단말에 상기 가상 현실 영상을 제공할 수 있으며, 상기 하나 이상의 참여자 단말에 제공되는 가상 현실 영상의 시점은, 상기 하나 이상의 참여자 단말에 각각 대응하는 상기 아바타의 위치로 고정될 수 있다.
또한, 서버(100)는 상기 하나 이상의 참관자 단말에 상기 가상 현실 영상을 제공할 수 있으며, 상기 하나 이상의 참관자 단말에 제공되는 가상 현실 영상의 시점은 구성원에 의하여 변경될 수 있도록 설정할 수 있다.
일 실시 예에서, 각 참여자의 시점은 혼동을 막기 위하여 실제로 각 참여자의 아바타가 배치된 위치로 고정될 수 있다. 구체적으로, 아바타가 인간형이나 동물형, 캐릭터형 등으로 눈을 포함하는 경우, 아바타의 눈의 위치로 시점이 고정될 수 있으며, 다만 아바타의 눈의 위치가 이동하는 경우 시점 또한 이에 따라 이동할 수 있다.
각 참여자에 대해서는 고정된 시점에 기초한 가상 현실 영상이 제공된다. 즉, 참여자의 시점은 참여자에 대응되는 아바타의 시점으로 고정될 수 있다.
그러나, 참관자의 경우 가상 현실 영상에 표시되지 않으므로, 원하는 다양한 시점에서 가상 현실 영상 이벤트를 참관할 수 있다. 다만, 실시 예에 따라서, 참관자의 시점은 범위로서 제한될 수도 있으며, 시점을 배치할 수 없는 위치의 범위 또한 설정될 수 있음은 물론이다.
예를 들어, 서버(100)는 외부인에게 공개되기 어려운 정보를 바라볼 수 있는 시점의 범위를 산출하고, 해당 범위에 대한 참관자의 시점이동을 금지할 수 있다. 또한, 서버(100)는 가상 현실 영상 생성 및 시청의 부하를 줄이기 위하여 가상 현실 영상 이벤트 진행에 불필요한 부분에 대한 렌더링을 하지 않을 수 있으며, 해당 부분을 바라볼 수 있는 시점의 범위를 산출하고, 해당 범위에 대한 참관자의 시점이동을 금지할 수 있다.
또 다른 실시예로, 각 참관자에게는 각 참관자의 권한별로 상이한 가상 현실 영상이 제공될 수 있다. 예를 들어, 권한이 큰 참관자에게 제공되는 가상 현실 영상일수록 더 넓은 시점범위의 선택권한이 주어질 수 있고, 특정 정보에 대한 접근권한이 없는 구성원에 대해서는 해당 정보가 블라인드 처리되거나, 해당 정보를 바라볼 수 있는 시점범위가 차단된 가상 현실 영상이 제공될 수 있다.
한편, 본 발명의 다양한 실시예에 따라, 서버(100)는 참여자 단말이 참관자 단말로 변경되면, 생성되었던 아바타를 삭제하고, 참관자 단말이 참여자 단말로 변경되면, 새롭게 아바타를 생성할 수 있다. 즉, 도 9에서 설명한 바와 같이 일부 참관자가 참여자로 변경될 수 있으며, 이 경우 참여자로 변경된 구성원의 아바타가 생성되어, 가상 현실 영상에 표시될 수 있다.
이 경우, 참관자는 기존 시점위치에서 가상 현실 영상 내에 아바타가 표시될 위치로 즉시 이동하고, 참관자의 시점 또한 즉시 이동할 수 있다. 다른 실시 예에서, 참관자의 시점은 기존 시점위치에서 이동목표 위치로 이동할 수 있고, 참관자의 시점이 기 설정된 범위(예를 들어, 무대 위 혹은 강단 등)에 진입하는 경우 해당 참관자의 아바타를 생성하고, 생성된 아바타를 해당 참관자의 시점위치에 표시할 수 있다. 이후, 아바타는 참관자의 시점위치를 따라 이동할 수 있다. 참관자가 기 설정된 범위를 벗어나는 경우, 참관자의 아바타는 가상 현실 영상에서 제거될 수 있다.
도 11은 본 발명의 일 실시예에 따른 장치의 구성도이다.
프로세서(102)는 적어도 하나의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예를 들어, 버스(bus) 등)를 포함할 수 있다.
일 실시예에 따른 프로세서(102)는 메모리(104)에 저장된 적어도 하나의 인스트럭션을 실행함으로써, 도 1 내지 도 10과 관련하여 설명된 방법을 수행한다.
예를 들어, 프로세서(102)는 메모리에 저장된 적어도 하나의 인스트럭션을 실행함으로써 신규 학습용 데이터를 획득하고, 학습된 모델을 이용하여, 상기 획득된 신규 학습용 데이터에 대한 테스트를 수행하고, 상기 테스트 결과, 라벨링된 정보가 소정의 제1 기준값 이상의 정확도로 획득되는 제1 학습용 데이터를 추출하고, 상기 추출된 제1 학습용 데이터를 상기 신규 학습용 데이터로부터 삭제하고, 상기 추출된 학습용 데이터가 삭제된 상기 신규 학습용 데이터를 이용하여 상기 학습된 모델을 다시 학습시킬 수 있다.
한편, 프로세서(102)는 프로세서(102) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(102)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다.
메모리(104)에는 프로세서(102)의 처리 및 제어를 위한 프로그램들(적어도 하나의 인스트럭션들)을 저장할 수 있다. 메모리(104)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
본 발명의 구성 요소들은 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 애플리케이션)으로 구현되어 매체에 저장될 수 있다. 본 발명의 구성 요소들은 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있으며, 이와 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 적어도 하나의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.

Claims (11)

  1. 서버에 의해 수행되는 유니크베뉴의 제공 방법에 있어서,
    구성원정보를 수집하는 단계(S110);
    행사정보를 수집하는 단계(S120);
    복수의 유니크베뉴 및 복수의 기타 장소 중 선택 가능한 적어도 하나의 행사 개최 장소에 대한 리스트를 획득하는 단계(S130);
    상기 구성원정보 및 상기 행사정보를 바탕으로 상기 리스트 중 적어도 하나의 장소를 선택하는 단계 (S140); 및
    상기 선택된 장소에 대한 정보를 제공하는 단계(S150); 를 포함하는 제공 방법.
  2. 제1항에 있어서,
    상기 복수의 유니크베뉴 중 상기 선택된 장소와 연관된 적어도 하나의 유니크베뉴를 획득하는 단계(S160); 및
    상기 획득된 적어도 하나의 유니크베뉴에 대한 가상 현실 영상을 제공하는 단계(S170); 를 더 포함하는 제공 방법.
  3. 제2항에 있어서,
    상기 적어도 하나의 유니크베뉴를 획득하는 단계(S160)는,
    상기 구성원정보를 바탕으로 상기 구성원에 대응되는 적어도 하나의 제1 유니크베뉴를 획득하는 단계(S161);
    상기 행사정보를 바탕으로 적어도 하나의 제2 유니크베뉴를 획득하는 단계(S162); 및
    상기 행사정보에 포함된 행사 스케쥴을 바탕으로 상기 적어도 하나의 제1 유니크베뉴 및 상기 적어도 하나의 제2 유니크베뉴의 제공 순서를 결정하는 단계(S163); 를 더 포함하는 제공 방법.
  4. 제3항에 있어서,
    상기 가상 현실 영상을 제공하는 단계(S170)는,
    상기 구성원정보에 포함된 구성원의 선호도정보를 바탕으로 상기 적어도 하나의 제1 유니크베뉴에 대한 시간정보를 획득하는 단계(S171);
    상기 행사정보에 포함된 행사 내용을 바탕으로 상기 적어도 하나의 제2 유니크베뉴에 대한 시간정보를 획득하는 단계(S172); 및
    상기 획득된 시간정보에 대한 유니크베뉴를 가상 현실 영상으로 제공하는 단계(S173); 를 포함하는 제공 방법.
  5. 제1항에 있어서,
    상기 유니크베뉴는, 숙박시설을 포함하는 유니크베뉴 및 숙박시설을 포함하지 않는 유니크베뉴로 구분되고,
    상기 행사 개최 장소에 대한 리스트는, 상기 숙박시설을 포함하는 유니크베뉴 및 복수의 기타 장소 중 적어도 하나인 것을 특징으로 하는 제공 방법.
  6. 제2항에 있어서,
    상기 가상 현실 영상을 제공하는 단계(S170)는,
    상기 적어도 하나의 유니크베뉴에 대한 복수의 이미지 및 복수의 영상을 획득하는 단계(S174);
    상기 획득한 복수의 이미지 및 복수의 영상을 장소 정보를 바탕으로 클러스터링하여 복수의 장소 클러스터를 획득하는 단계(S175);
    상기 획득된 복수의 장소 클러스터 중 제1 장소 클러스터에 포함된 이미지 및 영상을 시간정보를 바탕으로 클러스터링하여 복수의 시간 클러스터를 획득하는 단계(S176); 및
    상기 복수의 시간 클러스터 중 제1 시간 클러스터에 포함된 이미지 및 영상을 바탕으로 유니크베뉴에 대한 가상 현실 영상을 생성하는 단계(S177); 를 포함하는 것을 특징으로 하는 제공 방법.
  7. 제7항에 있어서,
    상기 가상 현실 영상을 생성하는 단계(S177)는,
    상기 제1 시간 클러스터에 포함된 이미지 및 영상을 바탕으로 생성된 가상 현실 영상에 포함된 복수의 오브젝트를 획득하는 단계(S210);
    상기 획득된 복수의 오브젝트 중, 3D 영상으로 표현하기 위한 정보가 부족한 오브젝트를 판단하는 단계(S220);
    상기 판단된 오브젝트가 상기 복수의 오브젝트 중 기 설정된 비율 이상인 경우, 상기 제1 장소 클러스터에 포함된 이미지 및 영상 중 시간정보와의 관련도가 기 설정된 값 이하인 이미지 및 영상을 추출하는 단계(S230); 및
    상기 제1 시간 클러스터에 포함된 이미지, 영상 및 상기 추출된 이미지, 영상을 바탕으로 유니크베뉴에 대한 가상 현실 영상을 생성하는 단계(S240); 를 포함하는 것을 특징으로 하는 제공 방법.
  8. 제1항에 있어서,
    상기 구성원정보를 수집하는 단계(S110)는,
    구성원의 설문정보를 수집하는 단계(S310); 및
    상기 구성원의 생활정보를 수집하는 단계(S320); 를 포함하고,
    상기 구성원의 생활정보를 수집하는 단계(S320)는,
    상기 구성원의 개인정보 파라미터를 수집하는 단계(S321);
    상기 구성원의 대화내용을 수집하는 단계(S322); 및
    상기 구성원의 대화내용으로부터 자연어 처리를 통해 장소 선정에 필요한 적어도 하나의 키워드를 획득하는 단계(S323); 를 포함하고,
    상기 리스트를 획득하는 단계는(S130),
    장소 후보군을 획득하는 단계(S131); 및
    MICE 및 행사의 개최 목적 및 프로그램, 개최 기간, 참가 규모, 예산, 접근성, 주변 인프라 정보에 기초하여 상기 장소 후보군으로부터 상기 적어도 하나의 선택 가능한 장소를 추출하는 단계(S132); 를 포함하고,
    상기 적어도 하나의 장소를 선택하는 단계(S140)는,
    상기 수집된 설문정보 및 생활정보에 기초하여 상기 구성원의 선호도정보를 획득하는 단계(S141); 및
    상기 선호도정보에 기초하여 상기 리스트로부터 상기 적어도 하나의 장소를 선택하는 단계(S142); 를 포함하고,
    상기 선호도정보에 기초하여 상기 리스트로부터 상기 적어도 하나의 장소를 선택하는 단계(S142)는,
    상기 적어도 하나의 장소의 특징에 기초하여 상기 적어도 하나의 장소에 대한 정보를 포함하는 장소 지도를 생성하되, 상기 장소 지도는 상기 적어도 하나의 장소의 연관성에 기초하여 클러스터링된 지도이고, 서로 연관성이 높은 장소일수록 서로 가까이에, 서로 연관성이 낮은 장소일수록 서로 멀리 위치하는, 단계(S143); 및
    상기 장소 지도에 기초하여, 상기 장소 지도에 포함된 클러스터들의 중앙에 가장 가깝게 위치한 장소를 선택하는 단계(S144); 를 포함하는 제공 방법.
  9. 제2항에 있어서,
    상기 제공 방법은,
    상기 가상 현실 영상을 제공 받는 복수의 구성원에 대한 복수의 구성원 단말을 적어도 하나의 참여자 단말 및 적어도 하나의 참관자 단말로 분류하는 단계(S410);
    상기 적어도 하나의 참여자 단말로부터 인물 정보 및 객체 정보를 수신하는 단계(S420); 및
    상기 인물 정보 및 상기 객체 정보를 바탕으로 상기 적어도 하나의 참여자 단말에 각각 대응되는 아바타를 생성하는 단계(S430); 를 포함하고,
    상기 가상 현실 영상을 제공하는 단계(S170)는,
    상기 생성된 아바타를 포함하는 상기 유니크베뉴에 대한 가상 현실 영상을 생성하는 단계(S440); 및
    상기 생성된 가상 현실 영상을 상기 구성원 단말에 제공하는 단계(S450); 를 포함하는 것을 특징으로 하는 제공 방법.
  10. 적어도 하나의 인스트럭션을 저장하는 메모리; 및
    상기 메모리에 저장된 상기 적어도 하나의 인스트럭션을 실행하는 프로세서를 포함하고,
    상기 프로세서는 상기 적어도 하나의 인스트럭션을 실행함으로써,
    제1 항의 방법을 수행하는, 장치.
  11. 하드웨어인 컴퓨터와 결합되어, 제1 항의 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된 컴퓨터프로그램.
PCT/KR2020/004793 2019-04-17 2020-04-09 유니크베뉴 제공 방법, 장치 및 프로그램 WO2020213888A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020190045054A KR102061624B1 (ko) 2019-04-17 2019-04-17 유니크베뉴 제공 방법, 장치 및 프로그램
KR10-2019-0045054 2019-04-17

Publications (1)

Publication Number Publication Date
WO2020213888A1 true WO2020213888A1 (ko) 2020-10-22

Family

ID=69155246

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/004793 WO2020213888A1 (ko) 2019-04-17 2020-04-09 유니크베뉴 제공 방법, 장치 및 프로그램

Country Status (2)

Country Link
KR (1) KR102061624B1 (ko)
WO (1) WO2020213888A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102061624B1 (ko) * 2019-04-17 2020-01-02 김보언 유니크베뉴 제공 방법, 장치 및 프로그램

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130271456A1 (en) * 2012-04-11 2013-10-17 Myriata, Inc. System and method for facilitating creation of a rich virtual environment
KR20140065384A (ko) * 2014-05-11 2014-05-29 이정우 주관성 분석을 이용한 사용자 분류와 그에 따른 개인화된 장소 추천 시스템 및 방법
KR20150011441A (ko) * 2013-07-22 2015-02-02 삼성전자주식회사 장소를 추천하는 방법 및 그 장치
KR20180044653A (ko) * 2016-10-24 2018-05-03 주식회사 웰스텍 가상현실을 이용한 관광체험 및 여행 플랜 서비스 시스템 및 방법
KR20190019708A (ko) * 2017-08-18 2019-02-27 (주)가우비즈 사용자 성향 기반의 힐링 헬스 여행 추천 및 가이드 제공 서버
KR102061624B1 (ko) * 2019-04-17 2020-01-02 김보언 유니크베뉴 제공 방법, 장치 및 프로그램

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130271456A1 (en) * 2012-04-11 2013-10-17 Myriata, Inc. System and method for facilitating creation of a rich virtual environment
KR20150011441A (ko) * 2013-07-22 2015-02-02 삼성전자주식회사 장소를 추천하는 방법 및 그 장치
KR20140065384A (ko) * 2014-05-11 2014-05-29 이정우 주관성 분석을 이용한 사용자 분류와 그에 따른 개인화된 장소 추천 시스템 및 방법
KR20180044653A (ko) * 2016-10-24 2018-05-03 주식회사 웰스텍 가상현실을 이용한 관광체험 및 여행 플랜 서비스 시스템 및 방법
KR20190019708A (ko) * 2017-08-18 2019-02-27 (주)가우비즈 사용자 성향 기반의 힐링 헬스 여행 추천 및 가이드 제공 서버
KR102061624B1 (ko) * 2019-04-17 2020-01-02 김보언 유니크베뉴 제공 방법, 장치 및 프로그램

Also Published As

Publication number Publication date
KR102061624B1 (ko) 2020-01-02

Similar Documents

Publication Publication Date Title
WO2020032469A1 (ko) 가상현실 이벤트 제공방법, 장치 및 프로그램
RU2621633C2 (ru) Система и способ для дополненной и виртуальной реальности
KR102180765B1 (ko) 구성원 정보를 바탕으로 획득되는 유니크베뉴 제공 방법, 장치 및 프로그램
NL2026359B1 (en) Method for multi-channel fusion and presentation of virtual learning environment oriented to field practice teaching
Nakanishi FreeWalk: a social interaction platform for group behaviour in a virtual space
WO2020032467A1 (ko) 인공지능 기반 질의응답 도출방법, 장치 및 프로그램
Nakanishi et al. Transcendent communication: location-based guidance for large-scale public spaces
WO2019245183A1 (ko) 장소선정 및 정보제공 방법, 장치 및 프로그램
WO2018155931A1 (ko) 지식 맵 기반의 멀티 유저 게임 서비스 제공 장치 및 그 방법
Crook et al. Simmc: Situated interactive multi-modal conversational data collection and evaluation platform
Díaz-Boladeras et al. Evaluating group-robot interaction in crowded public spaces: A week-long exploratory study in the wild with a humanoid robot guiding visitors through a science museum
WO2020213888A1 (ko) 유니크베뉴 제공 방법, 장치 및 프로그램
Yule et al. Operation citadel: Exploring the role of docents in mixed reality
KR102112074B1 (ko) 유니크베뉴를 포함하는 가상현실 이벤트 제공방법, 장치 및 프로그램
KR102276308B1 (ko) 참여자 단말 및 참관자 단말 기반 유니크베뉴 제공 방법, 장치 및 프로그램
JP2023075879A (ja) 情報処理システム、情報処理方法、情報処理プログラム
Kimura et al. CollectiveEars: sharing collective people’s hearing capability
KR102276306B1 (ko) 숙박시설 보유 유무를 기준으로 분류된 유니크베뉴 제공 방법, 장치 및 프로그램
KR102276307B1 (ko) 시간 정보를 포함하는 유니크베뉴 제공 방법, 장치 및 프로그램
JP2023075441A (ja) 情報処理システム、情報処理方法、情報処理プログラム
KR20130104131A (ko) 가상 세계에서의 영어강의 체험 방법
WO2019083234A1 (ko) 공간 콘텐츠 체험 정보의 시각화 및 보상 시스템
Hu et al. The investigation and novel trinity modeling for museum robots
Ursu et al. Socialising through orchestrated video communication
KR20190143793A (ko) 클러스터링 기반 장소 선정 방법, 장치 및 프로그램

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20792079

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20792079

Country of ref document: EP

Kind code of ref document: A1