WO2021095992A1 - Smart character toy having artificial intelligence function, and method and apparatus for creating virtual showroom - Google Patents

Smart character toy having artificial intelligence function, and method and apparatus for creating virtual showroom Download PDF

Info

Publication number
WO2021095992A1
WO2021095992A1 PCT/KR2020/000578 KR2020000578W WO2021095992A1 WO 2021095992 A1 WO2021095992 A1 WO 2021095992A1 KR 2020000578 W KR2020000578 W KR 2020000578W WO 2021095992 A1 WO2021095992 A1 WO 2021095992A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
data
information
item
virtual
Prior art date
Application number
PCT/KR2020/000578
Other languages
French (fr)
Korean (ko)
Inventor
문정원
Original Assignee
주식회사 아이유디자인
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아이유디자인 filed Critical 주식회사 아이유디자인
Publication of WO2021095992A1 publication Critical patent/WO2021095992A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions

Definitions

  • Embodiments of the present invention relate to a method and apparatus for creating a virtual showroom.
  • the present invention relates to a smart character toy, and more particularly, to a smart character toy implemented to transform into various shapes under certain conditions by embedding an artificial intelligence (AI) function in the character toy.
  • AI artificial intelligence
  • Virtual spaces implemented on the Internet are widely used through AR and VR, and this has been particularly recognized for its potential as a learning or play space.
  • Characters in such a virtual space are generally created by a user, and the operator generally seeks profit by selling various virtual goods related to the character to the user.
  • the character created in the virtual space allows the user to simply select a combination of predetermined character characteristics. Due to the limitation of character types, it is difficult to expand the distinguished characteristics for each individual, and connection with offline play is difficult. There is a difficult limit. In addition, there is a limitation in that it is difficult to form a mutual relationship with other users' characters.
  • the technical problem to be solved by the present invention relates to a method and apparatus for providing a virtual showroom in which the user's personalized characteristics are sufficiently reflected by using the user's activity information.
  • An object of the present invention is to enable (data) communication with a person or other entity (data) beyond the limitations of conventional toys through a smart toy with an artificial intelligence (AI) function embedded therein.
  • AI artificial intelligence
  • Another object of the present invention is to further increase the provision of emotional and psychological stability, which is a unique function of the toy, by using the sensing information collected therefrom by embedding a sensor unit including various sensors in a smart toy and an artificial intelligence (AI) function based thereon. It is intended to be able to perform various roles in various situations in daily life.
  • AI artificial intelligence
  • Another object of the present invention is to provide a smart toy that can be transformed into a variety of shapes.
  • a method for creating a virtual showroom performed by a computing device that provides first content includes generating a user character based on first user information, a first user Acquiring activity information, generating a user item based on the first user activity information, displaying a virtual showroom area in which the user item is displayed, and displaying a virtual item generated based on the second content information in the showroom It may include displaying on the area.
  • the generating of the user item may include transmitting a notification of a user's activity request to a first user terminal when the first user activity information is not obtained.
  • the first user activity information includes content use information of a first user
  • generating the user item includes generating a user item corresponding to an object included in the content. I can.
  • the first user activity information includes shopping mall use information of a first user, and generating the user item corresponds to a product determined based on the shopping mall use information of the first user among shopping mall products. It may include the step of creating a user item to be used.
  • displaying the virtual showroom area may include displaying product information of a shopping mall corresponding to the user item in the showroom area in response to a user input for the user item.
  • the virtual item may be generated based on product information of a shopping mall corresponding to an object included in the second content.
  • the second content is a virtual showroom area content of a second user
  • displaying the virtual item in the showroom area includes obtaining second user information using the first user information. And displaying the virtual item based on the second user activity information.
  • a virtual showroom generating apparatus includes a content receiving unit receiving first and second contents, a user character generating unit generating a user character based on first user information, and acquiring first user activity information. And a user item generation unit that generates a user item based on the first user activity information, a display unit that displays a virtual showroom area in which the user item is displayed, and a virtual item generated based on second content information in the showroom. It may include a virtual item generating unit to be displayed on the area.
  • a character toy having an artificial intelligence function for solving the above-described problem includes a memory; A sensor unit that recognizes an object and collects data sensed through at least one sensor related to the recognized object; A data processing unit comprising an artificial intelligence unit and generating output data of the character toy based on the collected sensor data through the artificial intelligence module; A control unit for controlling the overall operation of the character toy; And an output unit for outputting output data of the generated character toy.
  • the character toy is divided into at least two parts in a detachable structure, the first part has at least a part of the sensor part and the output part built-in, and the second part is at least the artificial intelligence. It characterized in that it comprises a data processing unit including a module and a control unit.
  • At least a part of the sensor unit built in the first part includes a sensor related to sight and hearing, and senses at least one of audio data, image data, and video data. It is done.
  • At least a part of the output unit built in the first part includes at least one of a speaker and a microphone, and outputs the generated output data in an audio format through the speaker and/or And receiving audio data input from an object through the microphone.
  • the artificial intelligence module embedded in the second part including a big data module, processes input data including the sensed data and audio data of the recognized object with big data, It is characterized in that output data including intelligent data on a service mode for communication with the object is generated from the data processed by big data.
  • the generated intelligent data includes at least one of interactive data, notification data, and control data for a linked device according to the service mode.
  • the service mode is at least one of a conversation service mode, a notification service mode, a device control service mode, and an object safety service mode.
  • the controller detects whether the first part and the second part are separated, and when the first part and the second part are separated and then reconnected, the first part and the second part It is characterized in that it recognizes the configurations built into 2 parts, and controls the recognized configurations of each part to be interlocked.
  • the control unit transmits notification data to a pre-registered device, and the notification
  • the sensor of the separated first part is randomly turned on and sensed data is transmitted to the pre-registered device.
  • the control unit collects sensing data immediately before separation through a sensor built in the first part immediately before separation, and the notification After data transmission, the sensing data is transmitted to the pre-registered device along with the sensing data transmitted according to the feedback received from the pre-registered device.
  • the present invention by using a sensor unit including various sensors in a smart toy and using the sensing information collected therefrom and an artificial intelligence (AI) function based thereon, the provision of emotional and psychological stability, which is a unique function of the toy, is further increased. It has the effect of being able to perform various roles in various situations in daily life.
  • AI artificial intelligence
  • FIG. 1 is a flowchart of a method of creating a virtual showroom according to an embodiment of the present invention.
  • FIG. 2 is a diagram for explaining some operations of FIG. 1 in detail.
  • 3 and 4 are diagrams for explaining a user item according to an embodiment of the present invention.
  • FIG. 5 is a diagram illustrating a customized user item according to an embodiment of the present invention.
  • FIG. 6 is a diagram for describing object information of content linked to a virtual showroom according to an embodiment of the present invention.
  • FIG. 7 and 8 are diagrams for explaining a virtual item created using content information according to an embodiment of the present invention.
  • FIG. 9 is a diagram for explaining in detail some operations of FIG. 1.
  • FIGS. 10 and 11 are diagrams for explaining a virtual item generated based on second user information according to an embodiment of the present invention.
  • FIG. 12 is a hardware block diagram of an apparatus for generating a virtual showroom according to an embodiment of the present invention.
  • FIG. 13 is a diagram for describing a hardware configuration and operation of an apparatus for generating a virtual showroom according to an embodiment of the present invention.
  • FIG. 14 is a schematic diagram of a service system including a smart character toy according to an embodiment of the present invention.
  • 15 is a block diagram showing the configuration of the smart character toy according to an embodiment of the present invention.
  • 16 is a flowchart illustrating a method of processing the smart character toy data in the service system according to an embodiment of the present invention.
  • 17 is a diagram illustrating the appearance and configuration of the smart character toy according to an embodiment of the present invention.
  • 18 to 20 are diagrams illustrating a smart character toy implemented according to an embodiment of the present invention and having a transformable structure.
  • 21 is a diagram illustrating a service system according to an embodiment of the present invention.
  • FIG. 1 shows a method of creating a virtual showroom according to an embodiment of the present invention.
  • a user item may be generated based on the user's activity information.
  • the user's activity information may reflect an online activity index obtained by indexing various online activity information. For example, the user's purchase and/or interest in an online shopping mall may be reflected.
  • the user's activity information may reflect an offline activity index obtained by indexing various offline activity information.
  • an offline activity index obtained by indexing various offline activity information.
  • the user's purchase and/or interest in an offline shopping mall may be reflected. That is, the offline activity index is implemented based on information on various products that the user has purchased and/or shown interest in the offline shopping mall, and data on the user's activity information can be constructed using this.
  • Each step shown in FIG. 1 may be implemented by a computing device such as a server.
  • a user character may be generated based on first user information.
  • the user information is static information of the user, and may include personal information of the user and user input information. Accordingly, according to an embodiment, a user character generated based on user information may be generated in a form directly designated by the user.
  • a user item may be generated based on the first user activity information.
  • User activity information is dynamic information of the user and includes content information used by the user, and more specifically, includes all information that can be obtained by processing raw data generated by the server by the user using the content.
  • the content may include all types of content provided to a user, such as video content, music content, advertisement content, and web content.
  • the first user activity information may include information on the video content itself, such as genre, field, historical background, place, and object included in the video content. 1 It may include interaction information between the user and the content, such as whether the user views the video content, the viewing time, the viewing period and the number of viewing.
  • the first user activity information may include information related to a product selected by the first user in a shopping mall, personal information of the first user, and information related to a shopping mall visit record of the first user.
  • the shopping mall may be linked to a virtual showroom according to an embodiment, but the present invention is not limited thereto, and may include other shopping malls that are not linked to the virtual showroom.
  • the first user and/or other shopping mall may perform data conversion work on the information of the first user's activity in another shopping mall that is not connected with the virtual showroom, and based on the information that can be obtained from this data.
  • User items can be created.
  • the user item may be an item determined by the user to be displayed in the showroom area. While using the content, the user may designate an object to be displayed in the showroom area, and display a user item corresponding to the object in the virtual showroom area.
  • the database of the content providing server and the database of the virtual showroom providing server may share information in advance or establish a network communication connection to exchange information when necessary.
  • the user item may be an object corresponding to a product selected by the first user in a shopping mall.
  • the user item may be an object corresponding to a product purchased by the first user in the shopping mall, and may be a product previously designated as a user item among products of the shopping mall.
  • the user item may be an object corresponding to a spherical joint doll designated by a user. It may be an object corresponding to the ornament of the spherical joint doll, or may be an object corresponding to the house or furniture of the spherical joint doll.
  • a virtual showroom area in which the user item is displayed may be displayed.
  • the virtual showroom area is a graphical user interface (GUI) area and may be an area in which a user's input is received.
  • GUI graphical user interface
  • the virtual showroom area may be manipulated only by input from a designated user.
  • the number of users who can manipulate the showroom area is not limited.
  • one showroom area may be operated by only one designated user, or may be operated by a plurality of designated users.
  • option information on the showroom area itself may be changed, and various attribute information on user characters, user items, and virtual items displayed in the showroom area may be changed. have.
  • a user character displayed in the showroom area corresponds to an object related to a spherical joint doll
  • the user can manipulate the user character to change the posture or change of the doll's clothing.
  • the user may manipulate the user item to rearrange the furniture or perform an interior design simulation to change the room structure.
  • the one or more user items are objects corresponding to a product related to a vehicle
  • the user An operation can be applied to change the paint color of the vehicle or to perform a tire change.
  • step S140 a virtual item generated based on the second content information may be displayed in the showroom area.
  • the second content may be content different from the first content related to the user item.
  • an instance in which the first content is provided and an instance in which the second content is provided may be different.
  • An instance is an object unit that provides one content, and each instance may display content provided by a different content provider.
  • the first content is a shopping mall page
  • the second content may be an image, cartoon, or advertisement content used by a user separately from the shopping mall.
  • the first content and the second content may be content provided from the same content provider.
  • the content may be provided in different instances, but received from the same content providing server.
  • a virtual item generated based on the second content information may correspond to an object included in the second content. For example, when a user views advertisement content, a virtual item corresponding to the advertised article may be created. Alternatively, a user item of a second user whose purchase details are similar to that of the first user may be displayed as a virtual item of the first user. A detailed description will be given later in FIG. 8.
  • the background of the showroom area may be displayed based on the second content information.
  • the background of the showroom area may correspond to the background of the video content.
  • content to be displayed in the background of the showroom area may be determined based on a user's input. A detailed description will be given later in FIG. 7.
  • FIG. 2 is a diagram for explaining in detail a user item generated based on user activity information.
  • a user item may be generated based on previously acquired user activity information.
  • step S210 it may be checked whether the activity information of the first user is acquired in step S210. If there is activity information of the user, a user item may be generated according to step S120 described above.
  • a notification requesting the user's activity may be delivered to the user terminal in step S220.
  • a user item related to the corresponding content may be generated according to a specified condition among various contents provided to the user, but a user item may be necessarily generated for the content provided to the user immediately after an alarm requesting the user's activity is received. have.
  • the notification requesting the user's activity to the user terminal as described above, the user's use of the showroom area can be continuously maintained.
  • FIG. 3 is an exemplary diagram for describing a user item and a user character according to an exemplary embodiment.
  • At least one user character 210 and user items 201 and 211 may be displayed in the virtual showroom area 200.
  • the user item is an item designated by the user to be displayed in the showroom area, and may be an item generated based on the user's activity information.
  • the first content is a shopping mall page
  • user activity information according to an embodiment of the present invention is user shopping mall use information.
  • the user character 210 may be generated based on user information.
  • the user character 210 may be created by a user, and the shape or attribute of the generated user character 210 may be manipulated by the user. For example, when a user uses the shopping mall 110 related to a spherical joint doll, a user character 210 corresponding to the doll product 111 selected by the user may be generated.
  • Each of the one or more user items 201 and 211 may be generated based on user activity information for various contents.
  • a user item 211 corresponding to the doll clothes is created based on product information of the shopping mall 110 related to the spherical joint doll, and the female clothes are added based on the information of the clothing product 121 in the women's clothing shopping mall 120.
  • Corresponding user items 201 may be created at the same time.
  • the user item may be generated based on product information purchased by the user at the shopping mall, or may be generated based on product information designated by the user to be displayed in a showroom among products of the shopping mall.
  • FIG. 4 is a diagram for describing a condition for generating a user item according to an exemplary embodiment.
  • a user item corresponding to the object may be generated.
  • the user can diversify products created as user items by changing the user item creation conditions.
  • the user item 202 corresponding to the product is designated to be displayed in the showroom 200 only for products included in the shopping cart 141 of the shopping mall 140, the user corresponds to the user item to be displayed in the showroom. You can put the items in the shopping cart.
  • the user displays an area 205 in which a user item corresponding to an object that satisfies the first condition is displayed among objects included in the content, and a user item corresponding to an object that satisfies the second condition is displayed.
  • Area 206 can be designated. That is, even if the user does not designate each user item displayed in the showroom area, an object that satisfies each condition and a user item corresponding to the object may also be changed as user activity information changes.
  • object information of the content corresponding to the user item may be changed.
  • object information of the content corresponding to the user item may be changed.
  • a user item generated based on product information of a shopping mall may be modified by a user, and option information of a product corresponding to the user item may be changed based on attribute information of the modified user item.
  • the user may change at least one of the attributes of the user item in the instance 150 provided separately from the instance 200 provided with the showroom area.
  • attribute information of at least one of attributes of a user item such as a ratio, color, material, and composition of the user item may be changed.
  • the attribute information of the changed user item may be transmitted from the instance 150 in which the operation of changing the attribute information of the user item is performed to the instance 110 in which the first content is provided.
  • option information of a product corresponding to attribute information of the user item may be changed. That is, by changing the user item attribute information of the showroom, option information of the object corresponding to the user item may also be changed.
  • object information 230 of the first content corresponding to the user item may be further displayed.
  • object information of the second content corresponding to the virtual item may be further displayed.
  • the object information 230 of the content is displayed in response to a user input for the user item or virtual item displayed in the showroom areas 200a and 200b, so that the user can select among the content information corresponding to each item and object information included in the content. At least one can be obtained.
  • the virtual item and the user item may be generated based on different conditions, respectively. Specifically, when a user item is generated based on an object selected by the user from the content, the virtual item may be generated based on an object not selected from the content by the user.
  • a virtual item corresponding to a product not purchased by the user in the shopping mall may be generated.
  • information on a product for which a user may purchase in the future may be further displayed.
  • the first content corresponding to the user item and the second content corresponding to the virtual item may be the same content.
  • a virtual item may be generated based on an object included in the second content.
  • a virtual item generated based on second content different from the first content will be described in detail with reference to FIGS. 7 and 8.
  • a virtual item 203 corresponding to an object included in the second content 310 and a virtual item 204 corresponding to an object included in the third content 320 may be displayed.
  • each object corresponding to one or more virtual items may be an object included in a single content.
  • the object corresponding to the first virtual item displayed in the showroom area and the object corresponding to the second virtual item may be objects included in the same content.
  • each object corresponding to one or more virtual items may be objects included in different contents.
  • the object corresponding to the first virtual item and the object corresponding to the second virtual item may be objects included in different contents.
  • the virtual item 203 displayed in the showroom area corresponds to the shelf object 311 of the image content 310 provided to the user
  • the other virtual item 204 displayed in the showroom area corresponds to the user. It may correspond to the bag object 321 of the webtoon content 320 provided to the user.
  • the background of the showroom area may be displayed based on external content.
  • the apparatus for generating a virtual showroom may receive content background information from an external content providing server, and may generate a background of the showroom area based on the received content background information.
  • the background of the showroom area may correspond to the background information of one of the plurality of external contents.
  • the external content background information 310 includes the background information of the living room of the house, although not shown in FIG. 7, the landscape of the living room of the house may be displayed on the background of the showroom area 200.
  • the background information of the showroom area according to an embodiment of the present invention may be generated by synthesizing information on a plurality of external contents, or may be generated based on background information of the showroom area of another user.
  • a virtual item 240 related to an object 331 included in a specific content 330 may be generated.
  • the generated virtual item 240 is a character of the character It may be a doll object or a costume object worn by a character.
  • the virtual showroom area may display a virtual item related to an object included in the second content by using the first content related to the user item and the second content information provided in a different instance.
  • step S141 second user information may be obtained by using the first user information.
  • At least one of the second user information and the second user activity information may be the same as at least one of the first user information and the first user activity information.
  • the first content is a shopping mall
  • at least one of the plurality of products selected by the second user in the shopping mall may be the same as the product selected by the first user in the shopping mall.
  • the age range of the second user and the age range of the first user may be the same.
  • the second user's shopping mall visit cycle or visit pattern may be similar to the first user's shopping mall visit cycle or visit pattern.
  • a virtual item generated based on the second user activity information may be displayed in the virtual showroom area.
  • either the user item of the second user or the virtual item of the second user may be displayed in the showroom area of the first user, and the user character of the second user may be displayed in the showroom area of the first user. I can.
  • the user information of the first user and the user information of the second user have at least one thing in common.
  • a new product that is highly likely to be purchased by the first user is displayed. You can provide more information about it.
  • second user information may be obtained based on user information of the first user, and a virtual item may be generated based on the second user information.
  • the generated virtual item 250 may be generated based on user B's information.
  • at least one of the user information 420 of the user B and the information 410 of the user A may be related.
  • at least one of the products included in the purchase history list 421 of the user B or the recently viewed product list 422 may be the same as any one of the products included in the purchase history 411 of the user A.
  • the showroom area 500 of the second user may be displayed.
  • the first user may further acquire information on the user item of the second user and the virtual item displayed in the showroom of the second user.
  • each of the user items or virtual items is corresponding. It goes without saying that the product information that is used may be further displayed.
  • FIG. 12 is a hardware block diagram of an apparatus for generating a virtual showroom according to an embodiment of the present invention.
  • the apparatus 600 for generating a virtual showroom may further include a user interface 610, a user information providing unit 630, a showroom providing unit 640 and a content providing unit 620.
  • the user interface 610 may receive an input from a user and output output data.
  • a virtual showroom interface, a shopping mall interface, and contents may be output through the user interface 610, and the content providing unit 620, the user information providing unit 630, and the showroom system are provided through the user interface 610.
  • User input may be transmitted to study 640.
  • the content providing unit 620 may include a content DB 621 and an object DB 622 in which information on an object constituting the content is stored.
  • the content DB 621 may store information related to content used for each user.
  • the content providing unit 620 may transmit information on an object included in the content to the user information providing unit 630 and the showroom providing unit 640.
  • content provided to the user may be delivered to the user interface 610.
  • the content providing unit 620 may further include a content background information DB.
  • the showroom providing unit 640 may obtain background information of the showroom by using the content background information obtained from the content providing unit 620.
  • the user information providing unit 630 includes an activity information DB 631 storing user's dynamic information including user's activity details and content information related to the user's activity details, and user's personal information including user's personal information. It may include a user DB 632 in which static information is stored. In an embodiment, the user information providing unit 630 may transmit user activity information and user information to the showroom providing unit 640 and may transmit content information related to user activity information to the user interface 610.
  • the showroom providing unit 640 includes a showroom generating unit 641, a user character generating unit 646, a user item generating unit 642, a virtual item generating unit 643, a user item DB 644, and It may include a virtual item DB (645).
  • the showroom generation unit 641 may generate a showroom by receiving user item and virtual item information generated from the user item generation unit 642 and the virtual item generation unit 643.
  • the user character generation unit 646 receives user information from the user information DB 632 of the user information providing unit 630, generates a user character based on the user information, and generates user character information. May be transmitted to the showroom generation unit 631.
  • the user item generation unit 642 receives user activity information from the activity information DB 631 of the user information providing unit 630, generates a user item based on the user activity information, and generates a user.
  • Item information may be delivered to the showroom generation unit 641.
  • the virtual item creation unit 643 generates a virtual item based on at least one of object information transmitted from the content providing unit 620 or user information or user activity information transmitted from the user information providing unit 630. Can be generated. In addition, the virtual item generation unit 643 may transmit the generated virtual item information to the showroom generation unit 641.
  • the user item DB 644 may store information on user items displayed in a showroom, content corresponding to each user item, or information related to an object included in the content.
  • the virtual item DB 645 may store information on virtual items displayed in a showroom, content corresponding to each virtual item, or information related to an object included in the content.
  • the computing device 700 performing the virtual showroom creation method includes a processor 701, a memory 702, a network interface 703, a display 704, and Storage 705 and may further include a system bus in some embodiments.
  • One or more instructions 710, 711, 712, and 713 that are loaded and stored in the memory 702 are executed through the processor 701. Note that the computing device 700 performing the virtual showroom generation method according to the present exemplary embodiment can perform the virtual showroom generation method described with reference to FIGS. 1 to 11 even without a separate description.
  • the network interface 703 may transmit the generated virtual showroom information to the user terminal. Also, content information and shopping mall product information may be received from an external server. The received information may be stored in the storage 705.
  • the storage 705 may include an activity information DB 721 including user content usage information related to a user item or a virtual item, and a user DB 722 in which personal information of the user is stored.
  • the one or more instructions may include a user character creation instruction 710, a user item creation instruction 711, a showroom area display instruction 712, and a virtual item creation instruction 713.
  • a user item may be generated based on the first user information by executing the user character creation instruction 710.
  • a user item may be generated based on the first user activity information by executing the user item creation instruction 711.
  • a virtual showroom area in which a user item is displayed may be displayed by executing the showroom area display instruction 712.
  • a virtual item generated based on the second content information may be displayed in the showroom area by executing the virtual item display instruction 713.
  • a smart toy or artificial intelligence toy with an artificial intelligence (AI) function built-in according to the present invention
  • a sensor unit including various sensors is built-in or attached to a smart toy, and the sensing information collected through it and the artificial intelligence (AI) function based thereon are utilized to provide emotional and psychological stability, which is a unique function of the toy. It will further increase the skills and describe how to play various roles in various situations in daily life.
  • the smart character toy according to the present invention is structured to have at least some components in a detachable/attachable structure, and a method of implementing a smart toy that can be transformed into various shapes through this is also described.
  • FIG. 14 is a schematic diagram of a service system 1100 including a smart character toy according to an embodiment of the present invention.
  • a service system 1100 including a smart character toy 1110 includes the smart character toy 1110 and a processor 1130.
  • the configuration of the service system 1100 according to the present invention is not limited thereto.
  • the service system 1100 may further include at least one of a terminal 1120 and a 3D (3D) printer 1140 as shown in FIG. 14.
  • the service system 1100 including the terminal 1120 and the 3D printer 1140 will be described as an example.
  • data communication may be performed between each component of FIG. 14 through a communication network using at least one communication protocol.
  • each component in the service system 1100 may or may not perform data communication with each other using one communication protocol.
  • the one communication protocol may be a dedicated protocol for the service system 1100 including the smart character toy 1110.
  • the dedicated protocol need not be defined separately, and may be determined from an existing communication protocol.
  • the smart character toy 1110 may incorporate or attach at least one sensor and a module for performing an AI function. According to an embodiment, the smart character toy 1110 may perform data communication with at least one terminal 1120 and/or at least one processor 1130 through a communication network.
  • the structure, function, etc. of the smart character toy 1110 will be described later in detail in a corresponding part of the present specification.
  • the terminal 1130 may communicate data with the smart character toy 1110 and/or the processor 1130.
  • data received from the smart character toy 1110 may be output so that a person can see it.
  • the terminal 1130 may upload data received from the smart character toy 1110 to the processor 1130 instead of it, download the data, and transmit the data to the smart character toy 1110. .
  • a specific function when a specific signal is received from the smart character toy 1110, a specific function may be performed in response thereto.
  • the terminal 1130 when the terminal 1130 is owned by a parent and still image or video data is received from the smart character toy 1110, it is output through the screen, and when an emergency call signal is received, the parent Actions can be taken to quickly recognize the situation according to the call signal.
  • the operation of the terminal 1120 may be defined in advance or according to a user's setting, and may be defined and included in the signal of the smart character toy 1110. At this time, it should be noted in advance that the scope of the present invention is not limited by the above-described embodiments or description.
  • the processor 1130 may perform various functions according to embodiments. For example, when the processor 1130 performs a function such as a server, it may receive and store data of the smart character toy 1110 or transmit a control signal in response thereto.
  • the server may include a cloud server, and may be a service server provided by a manufacturer providing the smart character toy 1110 or a vendor selling the toy.
  • the processor 1130 may be an entity in charge of overall control in a home or a building, or may be a central processing unit (CPU) or a control device of a specific device such as a home appliance. .
  • CPU central processing unit
  • a control device of a specific device such as a home appliance.
  • the 3D printer 1140 is an entity that designs, manufactures, etc. the entire or part of the smart character toy 1110.
  • a 3D printer is described as an example, the scope of the present invention is not limited thereto. Accordingly, the 3D printer 1140 may be substituted for the entire or partial configuration of the smart character toy 1110 as long as it is an object capable of designing, manufacturing, or the like.
  • the smart character toy 1110 cannot process the data collected by itself, at least one of the terminal 1120 and the processor 1130 may process it.
  • At least one of the terminal 1120 and the processor 1130 may download and install software such as an application or a program for data communication with the smart character toy 1110.
  • a terminal device a terminal, a terminal, a mobile station (MS), a mobile subscriber station (MSS), a subscriber station (SS), an advanced mobile station (AMS), a wireless terminal (WT), a machine -Type Communication) device, a machine-to-machine (M2M) device, and at least one of a device-to-device (D2D) device may be used as an embodiment.
  • MS mobile station
  • MSS mobile subscriber station
  • SS subscriber station
  • AMS advanced mobile station
  • WT wireless terminal
  • M2M machine-to-machine
  • D2D device-to-device
  • terminal in the present invention should be interpreted as a concept including all devices capable of transmitting data or signals that are currently developed and commercialized, or to be developed in the future, in addition to the above-described examples.
  • one terminal and one processor are illustrated for convenience of description, but the scope of the present invention is not limited thereto. Therefore, even if it is only described as'terminal' in this specification, it may mean a plurality of terminals or a plurality of processors depending on the context and embodiments.
  • the processor 1140 includes a cloud server, an IP Multimedia Subsystem (IMS) server, a telephony application server, an instant messaging (IM) server, a media gateway control function (MGCF) server, and a messaging (MSG) server.
  • IMS IP Multimedia Subsystem
  • IM instant messaging
  • MGCF media gateway control function
  • MSG messaging
  • Gateway Gateway
  • CSCF Call Session Control Function
  • the terminal 1130 or/and the service server 1140 may be implemented as a device indicating an entity capable of data communication such as a personal computer (PC), a notebook computer, and a tablet personal computer (PC).
  • PC personal computer
  • PC notebook computer
  • PC tablet personal computer
  • the wired/wireless communication network refers to a data communication network that supports various data communication such as text, digital image, digital image, and digital audio information in addition to sensing data between components of the service system 1100. And, the kind is not particularly limited.
  • the wired/wireless communication network may be an IP (Internet Protocol) network supporting large-capacity data communication through Internet Protocol (IP) or an All IP network integrating different IP networks.
  • IP Internet Protocol
  • IP All IP network integrating different IP networks.
  • the wired/wireless communication network includes a wired network, a wireless broadband (Wibro) network, a mobile communication network including WCDMA, a high speed downlink packet access (HSDPA) network, and a mobile communication network including a long term evolution (LTE) network, and LTE advanced. It may be formed by one of a mobile communication network including (LTE-A), a satellite communication network, and a Wi-Fi network, or a combination of at least one or more of them.
  • FIG. 15 is a block diagram showing the configuration of the smart character toy 1110 according to an embodiment of the present invention
  • FIG. 16 is a data of the smart character toy 1110 in the service system 1100 according to an embodiment of the present invention. It is a flow chart shown to explain the processing method
  • Figure 17 is a view showing to explain the appearance and configuration of the smart character toy 1110 according to an embodiment of the present invention
  • Figures 18 to 20 are A diagram illustrating a smart character toy 1110 implemented according to an embodiment and having a transformable structure.
  • the configuration of the device for the smart character toy 1110 shown in FIG. 15 is all or part of any one of the smart character toy 1110, the terminal 1120, or the processor 1130 of FIG. 14, or separately Can exist. In the former case, as described above, the configuration of FIG. 15 may be built in or detachable from the device.
  • the device 1200 for the smart character toy 1110 of FIG. 15 includes a sensor unit 1201, an object recognition/extraction unit 1202, an object data processing unit 1203, an artificial intelligence data processing unit 1204, and a service control unit ( 1205), a memory 1206, an output unit 1207, a data communication unit 1208, and the like. Meanwhile, the memory 1206 may be embedded in the smart character toy 1110, for example, but may be replaced by using an external memory (not shown).
  • the term'object' is a concept including a person, that is, an object, and is not limited thereto, and includes not only living things such as humans, but also non-living or inanimate objects such as furniture, home appliances, and other devices.
  • the data processing method of the smart character toy 1110 may be regarded as a business model and includes a service method through the smart character toy 1110.
  • the smart character toy 1110 data processing method is as follows.
  • the sensor unit 1201 collects sensing data using various sensors (S1301), and the object recognition/extraction unit 1202 receives and recognizes the object from the sensing data collected in this way. Data on the recognized object is extracted (S1302).
  • the service control unit 1205 determines the service mode of the smart character toy 1110 (S1303), controls the artificial intelligence data processing unit 1204 to process intelligent data according to the determined service mode, and outputs the output unit 1207. It is output through (S1305).
  • the sensor unit 1201 is expressed as a single component for convenience, but may be built into the smart character toy 1110 or implemented as one or more sensors for the same, or a combination thereof.
  • the sensor unit 1201 senses at least one of information in the smart character toy 1110, information about the surrounding environment surrounding the smart character toy 1110 or the object (object), and generates a sensing signal corresponding thereto. Let it.
  • the service control unit 1205 may control the driving or operation of the smart character toy 1110 or perform data processing, functions, or operations related to an application program installed in the smart character toy 1110 based on such a sensing signal. .
  • the sensor unit 1201 includes a proximity sensor, an illumination sensor, a touch sensor, an acceleration sensor, a magnetic sensor, a gravity sensor, and a gyro. Scope sensor, motion sensor, RGB sensor, infrared sensor (IR), finger scan sensor, ultrasonic sensor, optical sensor, e.g. For example, including camera), microphone, battery gauge, environmental sensor (barometer, hygrometer, thermometer, radiation sensor, heat sensor, gas sensor, etc.), chemical sensor (electronic nose, healthcare Sensor, biometric sensor, etc.). Meanwhile, the smart character toy 1110 disclosed in the present specification may be utilized by combining information sensed by at least two or more of the above-described sensors.
  • the sensor unit 1201 may further include a location information module to acquire the location (or current location) of the smart character toy 1110 or the object, and may include a global positioning system (GPS) or a wireless-fidelity (Wi-Fi) module. ) Module can be used.
  • GPS global positioning system
  • Wi-Fi wireless-fidelity
  • the smart character toy 1110 utilizes a GPS module
  • the location of the smart character toy 1110 may be obtained using a signal transmitted from a GPS satellite.
  • the smart character toy 1110 uses a Wi-Fi module, based on information of a wireless access point (AP) that transmits or receives a Wi-Fi module and a wireless signal, and the smart character toy 1110 You can get the location of.
  • AP wireless access point
  • the location information module may perform any function among other parts of the wireless communication unit in order to obtain data on the location of the smart character toy 1110 as a substitute or additionally.
  • an ultrasonic sensor may be used, which may obtain location information of an object by using ultrasonic waves.
  • the camera includes at least one of a camera sensor (eg, CCD, CMOS, etc.), a photo sensor (or image sensor), and a laser sensor.
  • the camera and the laser sensor are combined with each other to detect a touch of a sensing target for a 3D stereoscopic image.
  • the photosensor may be stacked on the display device, and the photosensor is configured to scan the motion of a sensing object close to the touch screen. More specifically, the photo sensor scans the contents placed on the photo sensor by mounting a photo diode and a transistor (TR) in a row/column and using an electrical signal that changes according to the amount of light applied to the photo diode.
  • TR transistor
  • the photosensor calculates the coordinates of the object to be detected according to the amount of light change, and through this, position information of the object may be obtained.
  • the camera sensor may acquire image data on the current state of the object, and may transmit the acquired image data to a device registered in advance through this.
  • the camera processes image frames of still images or moving pictures obtained by an image sensor in a photographing mode or a video call mode.
  • the processed image frame may be displayed on the display unit and may be stored in the memory 1206.
  • Another camera may be further disposed on the other side of the smart character toy 1110.
  • the other camera may include a plurality of lenses arranged along at least one line.
  • the plurality of lenses may be arranged in a matrix format.
  • Such a camera may be referred to as an “array camera”.
  • an image may be photographed in various ways using a plurality of lenses, and an image of better quality may be obtained.
  • the smart character toy 1110 may be provided with a fingerprint recognition sensor that recognizes a fingerprint, and the service control unit 1205 may use fingerprint information detected through the fingerprint recognition sensor as an authentication means.
  • the fingerprint recognition sensor may be embedded in a display unit or a user input unit.
  • the output unit 1207 may generate an output related to visual, auditory or tactile sense, and may include at least one of a display, an audio output unit, a hap tip unit, and a light output unit.
  • the display unit can implement a touch screen together with a touch sensor, and this touch screen functions as a user input unit providing an input interface between the smart character toy 1110 and the object, and at the same time, between the smart character toy 1110 and the object. Can provide an output interface of.
  • the sound output unit may output audio data received from the wireless communication unit or stored in the memory 1206 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like.
  • the sound output unit also outputs sound signals related to functions (eg, a call signal reception sound, a message reception sound, etc.) performed by the smart character toy 1110.
  • the sound output unit may include a receiver, a speaker, and a buzzer.
  • Another sound output unit may be additionally disposed on the body of the smart character toy 1110.
  • the other sound output unit may implement a stereo function together with the existing sound output unit.
  • the haptic module generates various tactile effects that the user can feel.
  • a typical example of the tactile effect generated by the haptic unit may be vibration.
  • the intensity and pattern of vibration generated by the haptic unit may be controlled by user selection or setting of the service control unit 1205. Two or more of these haptic units may be provided depending on the configuration aspect of the smart character toy 1110.
  • the light output unit outputs a signal for notifying the occurrence of an event using light from the light source of the smart character toy 1110.
  • the signal output by the light output unit is implemented as the smart character toy 1110 emits light of a single color or multiple colors, and the signal output may be terminated by detecting an event confirmation of an object or a registered device user.
  • the display unit is a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), It may include at least one of a flexible display, a 3D display, and an e-ink display.
  • LCD liquid crystal display
  • TFT LCD thin film transistor-liquid crystal display
  • OLED organic light-emitting diode
  • the microphone is configured to receive the user's voice and other sounds.
  • the microphone may be provided in a plurality of locations and configured to receive stereo sound.
  • the interface unit serves as a passage for various types of external devices connected to the smart character toy 1110.
  • These interface units include a wired/wireless headset port, an external charger port, a wired/wireless data port, an external memory card port, a port for connecting a device equipped with an identification unit, an audio input/output (I/O) port, and a video I/O. It may include at least one of a port and an earphone port.
  • appropriate control related to the connected external device may be performed.
  • the interface unit serves as a passage for all external devices connected to the smart character toy 1110.
  • the interface unit receives data from an external device, receives power, and transmits it to each component inside the smart character toy 1110, or transmits data inside the smart character toy 1110 to an external device.
  • a wired/wireless headset port for example, a wired/wireless headset port, an external charger port, a wired/wireless data port, a memory card port, a port to connect a device equipped with an identification module, an audio input/output (I/O) port, a video An I/O port, an earphone port, and the like may be included in the interface unit.
  • the power supply unit receives external power and internal power under the control of the service control unit 1205 to supply power to each of the components included in the smart character toy 1110.
  • the power supply unit includes a battery, and the battery may be a built-in battery or a replaceable battery.
  • the power supply unit may include a connection port, and the connection port may be configured as an example of an interface to which an external charger supplying power for charging the battery is electrically connected.
  • the power supply unit may be configured to charge the battery in a wireless manner without using the connection port.
  • the user input unit (not shown) is for receiving information from the user, and when information is input through the user input unit, the service control unit 1205 may control the operation of the smart character toy 1110 to correspond to the input information. .
  • the memory 1206 is a flash memory type, a hard disk type, a solid state disk type, an SDD type, a multimedia card micro type. ), card-type memory (e.g., SD or XD memory), random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read (EEPROM) -only memory), programmable read-only memory (PROM), magnetic memory, magnetic disk, and optical disk.
  • card-type memory e.g., SD or XD memory
  • RAM random access memory
  • SRAM static random access memory
  • ROM read-only memory
  • EEPROM electrically erasable programmable read
  • PROM programmable read-only memory
  • magnetic memory magnetic disk, and optical disk.
  • the smart character toy 1110 may be operated in connection with a web storage that performs a storage function of the memory 1206 on the Internet.
  • the smart character toy 1110 may be configured to provide an internal space accommodating various electronic components, as shown in FIG. 17.
  • the interface unit becomes a path through which the smart character toy 1110 can be connected to an external device.
  • the interface unit is a connection terminal for connection with other devices (eg, earphones, external speakers), a port for short-range communication (eg, an infrared port (IrDA Port), a Bluetooth port), a wireless device. LAN port, etc.], or at least one of a power supply terminal for supplying power to the artificial intelligence character toy 1110.
  • the object recognition and extraction unit 1202 recognizes an object from data sensed through the above-described sensor unit 1201 and extracts data sensed through at least one sensor related to the recognized object.
  • the object data processing unit 1203 processes the object data extracted by the object recognition and extraction unit 1202.
  • the artificial intelligence data processing unit 1204 includes an artificial intelligence module, and generates output data of the smart character toy 1110 based on the collected sensor data through the artificial intelligence module.
  • the artificial intelligence module including a big data module, processes input data including the sensed data and audio data of the recognized object with big data, and a service mode for communication with the object from the big data processed data It can generate output data including intelligent data about.
  • the generated intelligent data may include at least one of interactive data, notification data, and control data for a linked device according to the service mode.
  • the service mode may be at least one of a conversation service mode, a notification service mode, a device control service mode, and an object safety service mode.
  • the service control unit 1205 controls overall operations of the smart character toy 1110.
  • the smart character toy 1110 is divided into at least two or more parts in a detachable structure (for example, a spherical joint form), as shown in FIG. 17, and the first part includes at least a part of the sensor unit and the output unit. It is built-in, and the second part may include at least a data processing unit including the artificial intelligence module and a control unit.
  • the sensor unit embedded in the first part includes sensors related to sight and hearing, and senses at least one of audio data, image data, and video data.
  • At least a portion of the output unit embedded in the first part includes at least one of a speaker and a microphone, and outputs the generated output data in an audio format through the speaker and/or audio input from an object through the microphone. You can receive data.
  • the service control unit 1205 detects whether the first part and the second part are separated, and when the first part and the second part are separated and then reconnected, the first part and the second part are connected to the first part and the second part.
  • the built-in configuration can be recognized, and the recognized components of each part can be controlled so that they are interlocked with each other.
  • the service control unit 1205 transmits notification data to a pre-registered device, and transmits the notification data according to the transmission of the notification data.
  • the sensor of the separated first part may be randomly turned on and sensed data may be transmitted to the pre-registered device.
  • the service control unit 1205 collects sensing data immediately before separation through a sensor built in the first part immediately before separation, and after transmitting the notification data, the service control unit 1205
  • the sensing data transmitted according to the feedback received from the pre-registered device may be transmitted to the pre-registered device.
  • the service control unit 1205 may support and provide a foreign language interpretation, a smart sensor function for analyzing and processing various data in connection with a platform, and a smart character toy 1110 and a service.
  • the artificial intelligence data processing unit 1204 may be implemented in the form of an artificial intelligence speaker, through which it is possible to communicate with a recognized object, and control or communicate peripheral devices, audiobooks, music, shopping, alarms, and schedules. It can provide various artificial intelligence service functions such as.
  • a camera sensor, an iris recognition sensor, a fingerprint recognition sensor, a motion (motion recognition) sensor, a lighting sensor, etc. built in the smart character toy 1110 are combined, and according to the surrounding situation or state of the object, in advance. It is possible to intelligently perform a set operation or the like, and provide various information to the object or to a device registered in advance in relation to the object.
  • 21 is a diagram illustrating a service system according to an embodiment of the present invention.
  • a smart character toy 1110 is provided on the right side, and a platform or services for an artificial intelligence speaker embedded in the smart character toy 1110 is shown on the left.
  • an example of implementing a smart home through an artificial intelligence speaker of the smart character toy 1110 is also shown.
  • Such an artificial intelligence speaker can be applied to an open open platform (open platform).
  • the artificial intelligence speaker can apply a location service technology through a beacon, and through this, the location of the character toy 1110 itself can be known, thereby enabling a loss prevention service.
  • various artificial intelligence speaker technologies can be applied through data communication with other devices as well as the loss prevention service.
  • the artificial intelligence speaker built into the smart character toy 1110 may function as a main device or a sub device for realizing a smart home or IoT service, as shown in FIG. 21. have.
  • the artificial intelligence speaker built into the smart character toy 1110 is indirectly connected to the IoT environment by interlocking with the artificial intelligence (AI) device 810, that is, at least one other speech recognition speaker.
  • AI artificial intelligence
  • the other speech recognition speaker is located in a living room and the other speech recognition speaker has substantially control over various devices in the home, the user living in the room goes near the other speech recognition speaker in the living room and Even without a command, if a voice command is given to the artificial intelligence speaker built in the smart character toy 1110 in the room, the artificial intelligence speaker built in the smart character toy 1110 performs data communication with the other speech recognition speaker in the living room. Through this, it is possible to conveniently control various devices in the home.
  • the artificial intelligence speaker of the smart character toy may be implemented in an oval or circular shape, as shown in FIG. 21, but is not limited thereto.
  • hardware having a diameter of 40 to 50 mm and a thickness of less than 1 to 5 mm can be implemented as
  • the artificial intelligence speaker built into the smart character toy 1110 can communicate with a user, aid in learning and recommend food, as well as music selection.
  • a user can communicate with a user, aid in learning and recommend food, as well as music selection.
  • at least one or more actions related to intelligence such as-AI speaker, language intelligence, which provides AI consultation, in-depth question and answer, voice recognition, interpretation function, etc., emotion, reputation analysis, social Issue detection, emotional intelligence about personal emotion sign data, language, knowledge learning, prediction, early detection, learning about complex logic reasoning, and game reasoning intelligence, image recognition, scare, behavior understanding, event, disaster detection, etc.
  • Location tracking intelligence for preventing lost or lost, convenient intelligence for controlling heating, gas, TV, washing machine, refrigerator, home appliances, etc., and detection intelligence for fire alarms, motion detection sensors, etc. may be performed.
  • the artificial intelligence speaker of the smart character toy 1110 in FIG. 21 may perform data communication using various wired/wireless communication protocols of FIG. 14 such as other AI devices 1810 or other devices.
  • FIG. 17 an embodiment of a detachable structure of the smart character toy 1110 described above is shown.
  • the scope of the present invention is not limited thereto.
  • the smart character toy 1110 is largely divided into a head part 1410 and a body part 1420, and at least one sensor is built into the head part 1410, and the body Part 1420 includes an artificial intelligence module and the like.
  • Such a model of the smart character toy 1110 may be formed through the 3D printer 1140 of FIG. 14 described above.
  • FIG. 17 shows a combined form.
  • both the head part 1410 and the body part 1420 have a storage space for embedding the above-described components, and this may be implemented in a form that can be opened or closed. Therefore, if there is an error or failure in one configuration for the smart character toy 1110, it can be replaced.
  • head part 1410 and the body part 1420 may be implemented in a spherical joint shape and may be attached/removed.
  • the smart character toy 1110 can be used in various ways through this separation structure.
  • FIG. 18 four head shapes, one body, and arm and leg shapes are provided, and a combination of these can form various smart character toys 1110 as shown in FIGS. 19A and 19B. have. At this time, both sides of the body may be implemented in a form in which the head is detachable/attachable.
  • a first head is coupled to one side of the body part and a second head is coupled to the other side, and in the case of (b) of FIG. 19, a third head and the other side are provided on one side of the body part. It is a structure in which the fourth head is combined.
  • a plurality of heads may be combined with one body, or one head may be alternately replaced and combined.
  • the head of each doll has a structure that can be opened and closed, for example, a part of the head is detachable, and a sensor may be installed inside the detached head. Through this, the user can optionally add, modify, or replace a desired function by replacing the sensor inside the head.
  • the body of the doll of FIG. 19 may have an artificial intelligence speaker installed therein.
  • one artificial intelligence character toy 1110 can provide the same effect as having multiple toys. May be.
  • a smart character toy with an artificial intelligence (AI) function built into it such as figures and dolls according to the present invention
  • AI artificial intelligence
  • a smart character toy with an artificial intelligence (AI) function built into it has a structure that can be transformed into various shapes, and can be used for various functions and purposes.
  • AI artificial intelligence
  • the movement is recognized for the safety of the object (person) and the movement accordingly-Regular/irregularly smart Reports or conversations to the terminal registered in the character toy, emergency contact to public institutions when a pathological phenomenon is found, contact with the relevant institution due to gas leaks or electrical problems, and related door locks/opens, etc. can be performed. .
  • the smart character toy provides today's weather by itself or through communication with nearby devices, etc., providing karaoke functions, and interlocking with home appliances-washing machine function control, air conditioner function control, TV function control In addition to -, it can contribute to the convenience of daily life by performing a notification function for not only checking the location of the child, checking the route, etc.
  • the smart character toy provides language acquisition/learning functions such as sound fairy tales and audiobooks to the subject by itself or in conjunction with peripheral devices capable of outputting audio/video data, and creativity through imagination. It can help improve and help prevent dementia with various horse games.
  • the smart character toy according to the present invention can be combined in various shapes in terms of design through a spherical joint shape, that is, structuring, for example, the upper and lower faces are different or the front and rear faces are different. Through this, you will be able to tell a character such as a storytelling story.
  • the smart character toy is produced in the form of a person or animal that the object is familiar with, it provides a familiar and familiar feeling, and through this, it is possible to not only alleviate the rejection of various functions provided by the artificial intelligence speaker, that is, but also provide a sense of stability. have.
  • a smart character toy with an artificial intelligence function includes a memory, a sensor unit for recognizing an object and collecting data sensed through at least one or more sensors related to the recognized object, and an artificial intelligence unit. And a data processing unit that generates output data of the smart character toy based on the collected sensor data through the artificial intelligence module, a control unit that controls the overall operation of the smart character toy, and the generated smart character toy.
  • the smart character toy is divided into at least two or more parts with a detachable structure, the first part has at least a part of the sensor unit and the output unit built-in, and the second part is at least the A data processing unit including an artificial intelligence module and a control unit are included, and at least a part of the sensor unit embedded in the first part includes sensors related to sight and hearing, and stores at least one of audio data, image data, and video data.
  • Sensing and at least a part of the output unit built in the first part includes at least one of a speaker and a microphone, and outputs the generated output data in an audio format through the speaker and/or from an object through the microphone
  • the artificial intelligence module built in the second part including a big data module, processes the input data including the sensed data and the audio data of the recognized object big data
  • Output data including intelligent data on a service mode for communication with the object is generated from the data processed data, and the generated intelligent data is, according to the service mode, interactive data, notification data, and linked devices.
  • control data for It includes at least one of control data for, and the service mode is at least one of a conversation service mode, a notification service mode, a device control service mode, and an object safety service mode
  • the control unit comprises: Whether to separate Is detected, the first part and the second part are separated and then reconnected, recognizes the configuration built into the first part and the second part, controls the recognized configurations of each part to interoperate with each other, and the When the first part and the second part are separated and the separated time is greater than or equal to a predefined time, notification data is transmitted to a pre-registered device, and feedback is received from the pre-registered device according to the transmission of the notification data.
  • the sensor of the separated first part is randomly turned on to transmit the sensed data to the pre-registered device, and when the first part and the second part are separated, the first part is embedded in the first part immediately before separation.
  • the sensing data immediately before the separation is collected through the sensor and transmitted to the pre-registered device together with the sensing data transmitted according to the feedback received from the pre-registered device after transmission of the notification data.
  • connection or connection members of the lines between the components shown in the drawings exemplarily represent functional connections and/or physical or circuit connections. It may be referred to as a connection, or circuit connections.
  • essential or important
  • it may not be an essential component for the application of the present invention.
  • the embodiments according to the present invention described above may be implemented in the form of program instructions that can be executed through various computer components and recorded in a computer-readable recording medium.
  • the computer-readable recording medium may include program instructions, data files, data structures, and the like alone or in combination.
  • the program instructions recorded on the computer-readable recording medium may be specially designed and configured for the present invention or may be known and usable to those skilled in the computer software field.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magnetic-optical media such as floptical disks. medium), and a hardware device specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.
  • Examples of program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.
  • the hardware device can be changed to one or more software modules to perform the processing according to the present invention, and vice versa.

Landscapes

  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

A method and an apparatus for creating a virtual showroom are provided. A virtual showroom creating method according to an embodiment of the present invention comprises the steps of: creating a user character on the basis of first user information; obtaining first user activity information, and creating a user item on the basis of the first user activity information; displaying a virtual showroom area in which the user item is displayed; and displaying, in the showroom area, a virtual item created on the basis of second content information. In addition, a smart character toy having an artificial intelligence function according to an embodiment of the present invention may comprise: a memory; a sensor unit for recognizing an object, and collecting data sensed through at least one sensor related to the recognized object; and an artificial intelligence module.

Description

인공지능 기능이 내장된 스마트 캐릭터 장난감 및 가상 쇼룸 생성 방법 및 그 장치Smart character toy with built-in artificial intelligence function and virtual showroom creation method and device
본 발명의 실시예들은 가상 쇼룸 생성 방법 및 그 장치에 관한 것이다. 또한 본 발명은 스마트 캐릭터 장난감에 관한 것으로, 보다 상세하게는 캐릭터 장난감에 인공지능(AI: Artificial Intelligence) 기능을 내장하여 어떤 조건에서 다양한 모양으로 변신까지 가능하도록 구현한 스마트 캐릭터 장난감에 관한 것이다.Embodiments of the present invention relate to a method and apparatus for creating a virtual showroom. In addition, the present invention relates to a smart character toy, and more particularly, to a smart character toy implemented to transform into various shapes under certain conditions by embedding an artificial intelligence (AI) function in the character toy.
인터넷 공간 상에서 구현되는 가상의 공간은 AR과 VR을 통해 매우 폭넓게 사용되고 있으며, 이는 특히 학습이나 놀이 공간으로의 가능성을 인정받고 있다.Virtual spaces implemented on the Internet are widely used through AR and VR, and this has been particularly recognized for its potential as a learning or play space.
이러한 가상의 공간 내에서 사용자들은 다양한 캐릭터를 생성하고 이를 게임이나 쇼핑 등에 이용할 수 있다.In this virtual space, users can create various characters and use them for games or shopping.
이러한 가상 공간 내에서의 캐릭터는 사용자에 의해 생성되는 것이 일반적이며, 운영자 측은 캐릭터와 관련된 다양한 가상의 상품을 사용자에게 판매함으로써 수익을 추구하는 것이 일반적이다.Characters in such a virtual space are generally created by a user, and the operator generally seeks profit by selling various virtual goods related to the character to the user.
그러나, 가상 공간 내에서 생성되는 캐릭터는 미리 정해져 있는 캐릭터 특징들의 조합을 사용자가 단순 선택하도록 하는 것인데, 캐릭터 종류의 한계로 인하여 개인마다 구별되는 특징들을 확장하기 어렵고, 오프라인 상에서의 놀이와의 연계가 어려운 한계가 있다. 뿐만 아니라, 다른 사용자의 캐릭터와의 상호 관계를 형성하기 어려운 한계가 있다.However, the character created in the virtual space allows the user to simply select a combination of predetermined character characteristics. Due to the limitation of character types, it is difficult to expand the distinguished characteristics for each individual, and connection with offline play is difficult. There is a difficult limit. In addition, there is a limitation in that it is difficult to form a mutual relationship with other users' characters.
뿐만 아니라, 사용자가 가상의 캐릭터를 온라인 상에서 이용할 수 있는 가상의 공간도, 사용자가 구매한 온라인 객체에 의해 꾸며지는 것이기 때문에, 이를 이용하는 사용자에게 지속적인 흥미를 유발시키기 어려운 한계가 있다.In addition, since the virtual space in which the user can use the virtual character online is decorated by the online object purchased by the user, it is difficult to induce continuous interest in the user who uses the virtual space.
한편, 종래에는 봉제 형태나 레고와 같은 형태의 조립 가능한 장난감이었다. 후자와 같이 조립 가능한 장난감도 조립 후에는 미리 정해진 형태를 가지게 된다.On the other hand, conventionally, it was a plush type or an assembleable toy in a form like Lego. Toys that can be assembled like the latter also have a predetermined shape after assembly.
성별을 떠나 대부분의 유소년기 아이들은 많은 시간을 장난감을 가지고 놀면서 성장하고 그 과정에서 아이들의 지능 계발 등에 도움이 되는 긍정적인 기능을 하고 있다. 비단 유소년기의 아이들뿐만 아니라 1인 가구가 늘고 복잡하고 빠르게 발전해 나가는 사회에서 성인들도 외로움을 느끼거나 인간관계나 사회관계에 대한 어려움 등으로 인해 심리적인 불안감을 느끼고 이의 해소에도 장난감은 도움이 되고 있다. Regardless of gender, most childhood children grow up by spending a lot of time playing with toys, and in the process, they play a positive function that helps children develop their intelligence. Not only children in childhood, but also in a society where single-person households are increasing, and adults are feeling loneliness or psychological anxiety due to difficulties in human or social relations, and toys are helpful in resolving this. have.
최근에는 고가의 피규어 수집을 취미로 하는 일부 마니아층이 관심을 끌었으나, 이는 개인의 만족감 고취, 재테크 수단 등의 목적에 그치고 통상 진열장에 보관할 뿐이다.Recently, some enthusiasts who collect expensive figures as a hobby have attracted attention, but this is only for the purpose of inspiring personal satisfaction and financial means, and is usually kept in showcases.
이와 같이, 종래 장난감은 디지털화 되고 있는 사회에서 잠깐의 아날로그적인 감성을 주는 역할을 수행할 순 있으나 그 이상의 기능이나 역할은 수행하지 못하고 있다.As described above, conventional toys can perform a role that gives a brief analogue sensibility in a digitized society, but cannot perform a function or role beyond that.
본 발명이 해결하고자 하는 기술적 과제는 사용자의 활동 정보를 이용하여 사용자의 개인화된 특성이 충분히 반영된 가상의 쇼룸을 제공하는 방법 및 그 장치에 관한 것이다.The technical problem to be solved by the present invention relates to a method and apparatus for providing a virtual showroom in which the user's personalized characteristics are sufficiently reflected by using the user's activity information.
본 발명의 일 과제는, 인공지능(AI) 기능이 내장된 스마트 장난감을 통하여 종래 장난감이 가지고 있는 한계를 벗어나 사람이나 다른 개체(entity)와 (데이터) 커뮤니케이션이 가능하도록 하는데 있다.An object of the present invention is to enable (data) communication with a person or other entity (data) beyond the limitations of conventional toys through a smart toy with an artificial intelligence (AI) function embedded therein.
본 발명의 다른 과제는, 다양한 센서가 포함된 센서부를 스마트 장난감에 내장하여 그로부터 수집한 센싱 정보와 그에 기초한 인공지능(AI) 기능을 활용하여, 장난감 고유의 기능인 정서적, 심리적 안정감 제공을 더욱 증대하고 일상생활에서 다양한 상황에서 다양한 역할을 수행할 수 있도록 하는데 있다.Another object of the present invention is to further increase the provision of emotional and psychological stability, which is a unique function of the toy, by using the sensing information collected therefrom by embedding a sensor unit including various sensors in a smart toy and an artificial intelligence (AI) function based thereon. It is intended to be able to perform various roles in various situations in daily life.
본 발명의 또 다른 과제는, 다양한 형상의 외관으로 변신 가능한 스마트 장난감을 구현하여 제공하는 데 있다.Another object of the present invention is to provide a smart toy that can be transformed into a variety of shapes.
본 발명에서 이루고자 하는 기술적 과제들은 상기 기술적 과제로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present invention are not limited to the above technical problems, and other technical problems that are not mentioned will be clearly understood by those of ordinary skill in the art from the following description.
상기 기술적 과제를 해결하기 위한, 본 발명의 일 실시예에 따른 제1 컨텐츠를 제공하는 컴퓨팅장치에 의해 수행되는 가상 쇼룸 생성 방법은 제1 사용자 정보를 기초로 유저 캐릭터를 생성하는 단계, 제1 사용자 활동 정보를 획득하고, 상기 제1 사용자 활동 정보를 기초로 유저 아이템을 생성하는 단계, 상기 유저 아이템이 표시된 가상의 쇼룸 영역을 디스플레이 하는 단계 및 제2 컨텐츠 정보를 기초로 생성된 가상 아이템을 상기 쇼룸 영역에 표시하는 단계를 포함할 수 있다.In order to solve the above technical problem, a method for creating a virtual showroom performed by a computing device that provides first content according to an embodiment of the present invention includes generating a user character based on first user information, a first user Acquiring activity information, generating a user item based on the first user activity information, displaying a virtual showroom area in which the user item is displayed, and displaying a virtual item generated based on the second content information in the showroom It may include displaying on the area.
일 실시예에서 상기 유저 아이템을 생성하는 단계는, 상기 제1 사용자 활동 정보가 획득되지 않은 경우, 제1 사용자 단말로 사용자의 활동 요청 알림을 전송하는 단계를 포함할 수 있다.In an embodiment, the generating of the user item may include transmitting a notification of a user's activity request to a first user terminal when the first user activity information is not obtained.
일 실시예에서 상기 제1 사용자 활동 정보는, 제1 사용자의 컨텐츠 이용 정보를 포함하고, 상기 유저 아이템을 생성하는 단계는, 상기 컨텐츠에 포함된 객체와 대응되는 유저 아이템을 생성하는 단계를 포함할 수 있다.In one embodiment, the first user activity information includes content use information of a first user, and generating the user item includes generating a user item corresponding to an object included in the content. I can.
일 실시예에서 상기 제1 사용자 활동 정보는, 제1 사용자의 쇼핑몰 이용 정보를 포함하고, 상기 유저 아이템을 생성하는 단계는, 쇼핑몰 상품 중 상기 제1 사용자의 쇼핑몰 이용 정보를 기초로 정해진 상품에 대응되는 유저 아이템을 생성하는 단계를 포함할 수 있다.In one embodiment, the first user activity information includes shopping mall use information of a first user, and generating the user item corresponds to a product determined based on the shopping mall use information of the first user among shopping mall products. It may include the step of creating a user item to be used.
일 실시예에서 상기 가상의 쇼룸 영역을 디스플레이 하는 단계는, 상기 유저 아이템에 대한 사용자 입력에 응답하여, 상기 유저 아이템에 대응되는 쇼핑몰의 상품 정보를 상기 쇼룸 영역에 디스플레이 하는 단계를 포함할 수 있다.In an embodiment, displaying the virtual showroom area may include displaying product information of a shopping mall corresponding to the user item in the showroom area in response to a user input for the user item.
일 실시예에서 상기 가상 아이템은 상기 제2 컨텐츠에 포함된 객체와 대응되는 쇼핑몰의 상품 정보를 기초로 생성될 수 있다.In an embodiment, the virtual item may be generated based on product information of a shopping mall corresponding to an object included in the second content.
일 실시예에서 상기 제2 컨텐츠는, 제2 사용자의 가상의 쇼룸 영역 컨텐츠이고, 상기 가상 아이템을 상기 쇼룸 영역에 표시하는 단계는, 상기 제1 사용자 정보를 이용하여 제2 사용자 정보를 획득하는 단계 및 제2 사용자 활동 정보를 기초로 상기 가상 아이템을 표시하는 단계를 포함할 수 있다.In one embodiment, the second content is a virtual showroom area content of a second user, and displaying the virtual item in the showroom area includes obtaining second user information using the first user information. And displaying the virtual item based on the second user activity information.
본 발명의 다른 실시예에 따른 가상 쇼룸 생성 장치는 제1 컨텐츠 및 제2 컨텐츠를 수신하는 컨텐츠 수신부, 제1 사용자 정보를 기초로 유저 캐릭터를 생성하는 유저 캐릭터 생성부, 제1 사용자 활동 정보를 획득하고, 상기 제1 사용자 활동 정보를 기초로 유저 아이템을 생성하는 유저 아이템 생성부, 상기 유저 아이템이 표시된 가상의 쇼룸 영역을 디스플레이 하는 디스플레이부 및 제2 컨텐츠 정보를 기초로 생성된 가상 아이템을 상기 쇼룸 영역에 표시하는 가상 아이템 생성부를 포함할 수 있다.According to another embodiment of the present invention, a virtual showroom generating apparatus includes a content receiving unit receiving first and second contents, a user character generating unit generating a user character based on first user information, and acquiring first user activity information. And a user item generation unit that generates a user item based on the first user activity information, a display unit that displays a virtual showroom area in which the user item is displayed, and a virtual item generated based on second content information in the showroom. It may include a virtual item generating unit to be displayed on the area.
또한, 상술한 문제점을 해결하기 위한 본 발명의 다른 실시예에 따른 인공지능 기능이 내장된 캐릭터 장난감은, 메모리; 객체를 인지하고 상기 인지한 객체와 관련된 적어도 하나 이상의 센서를 통하여 센싱한 데이터를 수집하는 센서부; 인공지능부를 포함하고, 상기 인공지능모듈을 통하여 상기 수집된 센서 데이터에 기초하여 상기 캐릭터 장난감의 출력 데이터를 생성하는 데이터 처리부; 상기 캐릭터 장난감의 동작 전반을 제어하는 제어부; 및 상기 생성된 캐릭터 장난감의 출력 데이터를 출력하는 출력부;를 포함하는 것을 특징으로 한다.In addition, a character toy having an artificial intelligence function according to another embodiment of the present invention for solving the above-described problem includes a memory; A sensor unit that recognizes an object and collects data sensed through at least one sensor related to the recognized object; A data processing unit comprising an artificial intelligence unit and generating output data of the character toy based on the collected sensor data through the artificial intelligence module; A control unit for controlling the overall operation of the character toy; And an output unit for outputting output data of the generated character toy.
본 발명의 일실시예에 따르면, 상기 캐릭터 장난감은, 분리 가능한 구조로 적어도 둘 이상의 파트로 구분되고, 제1 파트는 상기 센서부와 출력부의 적어도 일부가 내장되고, 제2 파트는 적어도 상기 인공지능모듈을 포함한 데이터 처리부와 제어부를 포함하는 것을 특징으로 한다.According to an embodiment of the present invention, the character toy is divided into at least two parts in a detachable structure, the first part has at least a part of the sensor part and the output part built-in, and the second part is at least the artificial intelligence. It characterized in that it comprises a data processing unit including a module and a control unit.
본 발명의 일실시예에 따르면, 상기 제1 파트에 내장된 상기 센서부의 적어도 일부는, 시각과 청각과 관련된 센서가 포함되어, 오디오 데이터, 이미지 데이터 및 비디오 데이터 중 적어도 하나 이상을 센싱하는 것을 특징으로 한다.According to an embodiment of the present invention, at least a part of the sensor unit built in the first part includes a sensor related to sight and hearing, and senses at least one of audio data, image data, and video data. It is done.
본 발명의 일실시예에 따르면, 상기 제1 파트에 내장된 상기 출력부의 적어도 일부는, 스피커와 마이크로폰 중 적어도 하나를 포함하고, 상기 스피커를 통하여 상기 생성된 출력 데이터를 오디오 형태로 출력 및/또는 상기 마이크로폰을 통해 객체로부터 입력되는 오디오 데이터를 수신하는 것을 특징으로 한다.According to an embodiment of the present invention, at least a part of the output unit built in the first part includes at least one of a speaker and a microphone, and outputs the generated output data in an audio format through the speaker and/or And receiving audio data input from an object through the microphone.
본 발명의 일실시예에 따르면, 상기 제2 파트에 내장된 인공지능모듈은, 빅데이터 모듈을 포함하여, 상기 센싱된 데이터와 상기 인지된 객체의 오디오 데이터를 포함한 입력 데이터를 빅데이터 처리하고, 빅데이터 처리된 데이터로부터 상기 객체와의 커뮤니케이션을 위한 서비스 모드에 관한 지능형 데이터를 포함한 출력 데이터를 생성하는 것을 특징으로 한다.According to an embodiment of the present invention, the artificial intelligence module embedded in the second part, including a big data module, processes input data including the sensed data and audio data of the recognized object with big data, It is characterized in that output data including intelligent data on a service mode for communication with the object is generated from the data processed by big data.
본 발명의 일실시예에 따르면, 상기 생성되는 지능형 데이터는, 상기 서비스 모드에 따라, 대화형 데이터, 알림 데이터 및 연동된 기기에 대한 제어 데이터 중 적어도 하나를 포함하는 것을 특징으로 한다.According to an embodiment of the present invention, the generated intelligent data includes at least one of interactive data, notification data, and control data for a linked device according to the service mode.
본 발명의 일실시예에 따르면, 상기 서비스 모드는, 대화 서비스 모드, 알림 서비스 모드, 기기 제어 서비스 모드 및 객체 안전 서비스 모드 중 적어도 하나인 것을 특징으로 한다.According to an embodiment of the present invention, the service mode is at least one of a conversation service mode, a notification service mode, a device control service mode, and an object safety service mode.
본 발명의 일실시예에 따르면, 상기 제어부는, 상기 제1 파트와 제2 파트의 분리 여부를 감지하고, 상기 제1 파트와 제2 파트가 분리되고 이후 다시 연결되면, 상기 제1 파트와 제2 파트에 내장된 구성을 인지하고, 인지된 각 파트의 구성들이 상호 연동되도록 제어하는 것을 특징으로 한다.According to an embodiment of the present invention, the controller detects whether the first part and the second part are separated, and when the first part and the second part are separated and then reconnected, the first part and the second part It is characterized in that it recognizes the configurations built into 2 parts, and controls the recognized configurations of each part to be interlocked.
본 발명의 일실시예에 따르면, 상기 제어부는, 상기 제1 파트와 제2 파트가 분리되고, 상기 분리된 시간이 미리 정의된 시간 이상이면, 미리 등록된 기기로 알림 데이터를 전송하고, 상기 알림 데이터 전송에 따른 상기 미리 등록된 기기로부터 피드백이 수신되면, 상기 분리된 제1 파트의 센서를 임의 턴-온 시켜 센싱한 데이터를 상기 미리 등록된 기기로 전송하는 것을 특징으로 한다.According to an embodiment of the present invention, when the first part and the second part are separated and the separated time is greater than or equal to a predefined time, the control unit transmits notification data to a pre-registered device, and the notification When feedback is received from the pre-registered device according to data transmission, the sensor of the separated first part is randomly turned on and sensed data is transmitted to the pre-registered device.
본 발명의 일실시예에 따르면, 상기 제어부는, 상기 제1 파트와 제2 파트가 분리될 때, 분리 직전에 상기 제1 파트에 내장된 센서를 통해 분리 직전의 센싱 데이터를 수집하고, 상기 알림 데이터 전송 이후에 상기 미리 등록된 기기로부터 수수신한 피드백에 따라 전송되는 센싱 데이터와 함께 상기 미리 등록된 기기로 전송하는 것을 특징으로 한다.According to an embodiment of the present invention, when the first part and the second part are separated, the control unit collects sensing data immediately before separation through a sensor built in the first part immediately before separation, and the notification After data transmission, the sensing data is transmitted to the pre-registered device along with the sensing data transmitted according to the feedback received from the pre-registered device.
상기와 같은 본 발명에 따르면 아래에 기재된 효과를 얻을 수 있다. 다만, 본 발명을 통해 얻을 수 있는 효과는 이에 제한되지 않는다.According to the present invention as described above, the effects described below can be obtained. However, the effect obtained through the present invention is not limited thereto.
첫째, 본 발명에 따르면, 인공지능(AI) 기능이 내장된 스마트 장난감을 통하여 종래 장난감이 가지고 있는 한계를 벗어나 사람이나 다른 개체와 (데이터) 커뮤니케이션이 가능하도록 할 수 있는 효과가 있다.First, according to the present invention, there is an effect of enabling (data) communication with a person or other object beyond the limitations of conventional toys through a smart toy with an artificial intelligence (AI) function embedded therein.
둘째, 본 발명에 따르면, 다양한 센서가 포함된 센서부를 스마트 장난감에 내장하여 그로부터 수집한 센싱 정보와 그에 기초한 인공지능(AI) 기능을 활용하여, 장난감 고유의 기능인 정서적, 심리적 안정감 제공을 더욱 증대하고 일상생활에서 다양한 상황에서 다양한 역할을 수행할 수 있도록 할 수 있는 효과가 있다.Second, according to the present invention, by using a sensor unit including various sensors in a smart toy and using the sensing information collected therefrom and an artificial intelligence (AI) function based thereon, the provision of emotional and psychological stability, which is a unique function of the toy, is further increased. It has the effect of being able to perform various roles in various situations in daily life.
셋째, 본 발명에 따르면, 다양한 형상의 외관으로 변신 가능한 스마트 장난감을 구현하여 제공할 수 있는 효과가 있다.Third, according to the present invention, there is an effect that can be provided by implementing a smart toy that can be transformed into an appearance of various shapes.
도 1은 본 발명의 일 실시예에 따른 가상 쇼룸 생성 방법의 순서도이다.1 is a flowchart of a method of creating a virtual showroom according to an embodiment of the present invention.
도 2는 도 1의 일부 동작을 상세히 설명하기 위한 도면이다.FIG. 2 is a diagram for explaining some operations of FIG. 1 in detail.
도 3 및 도 4는 본 발명의 일 실시예에 따른 유저 아이템을 설명하기 위한 도면이다.3 and 4 are diagrams for explaining a user item according to an embodiment of the present invention.
도 5는 본 발명의 일 실시예에 따라 커스터마이징된 유저 아이템을 설명하기 위한 도면이다.5 is a diagram illustrating a customized user item according to an embodiment of the present invention.
도 6은 본 발명의 일 실시예에 따른 가상의 쇼룸과 연동된 컨텐츠의 객체 정보를 설명하기 위한 도면이다.6 is a diagram for describing object information of content linked to a virtual showroom according to an embodiment of the present invention.
도 7 및 도 8은 본 발명의 일 실시예에 따른 컨텐츠 정보를 이용하여 생성된 가상 아이템을 설명하기 위한 도면이다.7 and 8 are diagrams for explaining a virtual item created using content information according to an embodiment of the present invention.
도 9는 도 1의 일부 동작을 상세히 설명하기 위한 도면이다.9 is a diagram for explaining in detail some operations of FIG. 1.
도 10 및 도 11은 본 발명의 일 실시예에 따른 제2 사용자 정보를 기초로 생성된 가상 아이템을 설명하기 위한 도면이다.10 and 11 are diagrams for explaining a virtual item generated based on second user information according to an embodiment of the present invention.
도 12는 본 발명의 일 실시예에 따른 가상 쇼룸 생성 장치의 하드웨어 블록도이다.12 is a hardware block diagram of an apparatus for generating a virtual showroom according to an embodiment of the present invention.
도 13은 본 발명의 일 실시예에 따른 가상 쇼룸 생성 장치의 하드웨어 구성 및 동작을 설명하기 위한 도면이다.13 is a diagram for describing a hardware configuration and operation of an apparatus for generating a virtual showroom according to an embodiment of the present invention.
도 14는 본 발명의 일실시예에 따른 스마트 캐릭터 장난감이 포함된 서비스 시스템의 개략도이다.14 is a schematic diagram of a service system including a smart character toy according to an embodiment of the present invention.
도 15는 본 발명의 일실시예에 따른 상기 스마트 캐릭터 장난감의 구성 블록도이다.15 is a block diagram showing the configuration of the smart character toy according to an embodiment of the present invention.
도 16은 본 발명의 일실시예에 따른 상기 서비스 시스템 내 상기 스마트 캐릭터 장난감 데이터 처리 방법을 설명하기 위해 도시한 순서도이다.16 is a flowchart illustrating a method of processing the smart character toy data in the service system according to an embodiment of the present invention.
도 17은 본 발명의 일실시예에 따른 상기 스마트 캐릭터 장난감의 외관 및 구성을 설명하기 위해 도시한 도면이다.17 is a diagram illustrating the appearance and configuration of the smart character toy according to an embodiment of the present invention.
도 18 내지 20은 본 발명의 일실시예에 따라 구현되어 변신 가능한 구조를 가진 스마트 캐릭터 장난감을 설명하기 위해 도시한 도면이다.18 to 20 are diagrams illustrating a smart character toy implemented according to an embodiment of the present invention and having a transformable structure.
도 21은 본 발명의 일실시예에 따른 서비스 시스템을 설명하기 위해 도시한 도면이다.21 is a diagram illustrating a service system according to an embodiment of the present invention.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이러한 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 본 명세서에 기재되어 있는 특정 형상, 구조 및 특성은 본 발명의 정신과 범위를 벗어나지 않으면서 일 실시예로부터 다른 실시예로 변경되어 구현될 수 있다. 또한, 각각의 실시예 내의 개별 구성요소의 위치 또는 배치도 본 발명의 정신과 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 행하여지는 것이 아니며, 본 발명의 범위는 특허청구범위의 청구항들이 청구하는 범위 및 그와 균등한 모든 범위를 포괄하는 것으로 받아들여져야 한다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 구성요소를 나타낸다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The detailed description of the present invention described below refers to the accompanying drawings, which illustrate specific embodiments in which the present invention may be practiced. These embodiments are described in detail sufficient to enable a person skilled in the art to practice the present invention. It should be understood that the various embodiments of the present invention are different from each other, but need not be mutually exclusive. For example, specific shapes, structures, and characteristics described in the present specification may be changed and implemented from one embodiment to another without departing from the spirit and scope of the present invention. In addition, it should be understood that the position or arrangement of individual elements in each embodiment may be changed without departing from the spirit and scope of the present invention. Accordingly, the detailed description to be described below is not made in a limiting sense, and the scope of the present invention should be taken as encompassing the scope claimed by the claims of the claims and all scopes equivalent thereto. Like reference numerals in the drawings indicate the same or similar elements over several aspects.
이하에서는, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 여러 실시예에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings in order to enable those of ordinary skill in the art to easily implement the present invention.
이하 도 1은 본 발명의 일 실시예에 따른 가상 쇼룸 생성 방법을 나타낸다.1 shows a method of creating a virtual showroom according to an embodiment of the present invention.
일 실시예에 따른 가상 쇼룸 생성 방법은, 사용자의 활동 정보를 기초로 유저 아이템이 생성되도록 할 수 있다. In the method of creating a virtual showroom according to an embodiment, a user item may be generated based on the user's activity information.
일 실시예에 따르면, 상기 사용자의 활동 정보는 온라인 상의 다양한 활동 정보를 지수화한 온라인 활동 지수를 반영한 것일 수 있는 데, 예컨대, 사용자가 온라인 쇼핑몰에서의 구매 및/또는 관심도 등을 반영한 것일 수 있다.According to an embodiment, the user's activity information may reflect an online activity index obtained by indexing various online activity information. For example, the user's purchase and/or interest in an online shopping mall may be reflected.
선택적으로, 상기 사용자의 활동 정보는, 오프라인 상의 다양한 활동 정보를 지수화한 오프라인 활동 지수를 반영한 것일 수 있는 데, 예컨대, 사용자가 오프라인 쇼핑몰에서의 구매 및/또는 관심도 등을 반영한 것일 수 있다. 즉, 사용자가 오프라인 쇼핑몰에서 구매 및/또는 관심을 보인 다양한 상품에 대한 정보를 바탕으로 오프라인 활동 지수가 구현되고, 이를 이용하여 사용자의 활동 정보에 대한 데이터를 구축할 수 있다.Optionally, the user's activity information may reflect an offline activity index obtained by indexing various offline activity information. For example, the user's purchase and/or interest in an offline shopping mall may be reflected. That is, the offline activity index is implemented based on information on various products that the user has purchased and/or shown interest in the offline shopping mall, and data on the user's activity information can be constructed using this.
도 1에 도시된 각 단계는 서버와 같은 컴퓨팅 장치에 의해 구현될 수 있다.Each step shown in FIG. 1 may be implemented by a computing device such as a server.
도 1을 참조하면, 단계 S110에서, 제1 사용자 정보를 기초로 유저 캐릭터가 생성될 수 있다. 사용자 정보란 사용자의 정적 정보로 사용자의 개인 정보, 사용자 입력 정보를 포함할 수 있다. 따라서, 일 실시예에 따라 사용자 정보를 기초로 생성된 유저 캐릭터는 사용자가 직접 지정한 형태로 생성될 수 있다.Referring to FIG. 1, in step S110, a user character may be generated based on first user information. The user information is static information of the user, and may include personal information of the user and user input information. Accordingly, according to an embodiment, a user character generated based on user information may be generated in a form directly designated by the user.
이후, 단계 S120에서 제1 사용자 활동 정보를 기초로 유저 아이템이 생성될 수 있다. 사용자 활동 정보는 사용자의 동적 정보로 사용자가 이용한 컨텐츠 정보를 포함하고, 보다 구체적으로 사용자가 상기 컨텐츠를 이용함으로써 서버에서 생성되는 로데이터(raw data)를 가공하여 획득할 수 있는 모든 정보를 포함할 수 있다. 상기 컨텐츠는 영상 컨텐츠, 음악 컨텐츠, 광고 컨텐츠 및 웹 컨텐츠등 사용자에게 제공되는 모든 형태의 컨텐츠를 포함할 수 있다.Thereafter, in step S120, a user item may be generated based on the first user activity information. User activity information is dynamic information of the user and includes content information used by the user, and more specifically, includes all information that can be obtained by processing raw data generated by the server by the user using the content. I can. The content may include all types of content provided to a user, such as video content, music content, advertisement content, and web content.
예를 들어 제1 사용자가 영상 컨텐츠를 이용하는 경우, 제1 사용자 활동 정보는 영상 컨텐츠의 장르, 분야, 시대적 배경, 장소 및 영상에 포함된 객체 등 영상 컨텐츠 자체에 대한 정보를 포함할 수 있고, 제1 사용자의 영상 컨텐츠 시청 여부, 시청 시간, 시청 구간 및 시청 횟수 등 사용자와 컨텐츠 간의 인터랙션 정보를 포함할 수도 있다.For example, when a first user uses video content, the first user activity information may include information on the video content itself, such as genre, field, historical background, place, and object included in the video content. 1 It may include interaction information between the user and the content, such as whether the user views the video content, the viewing time, the viewing period and the number of viewing.
다른 예에서, 제1 사용자 활동 정보는 상기 제1 사용자가 쇼핑몰에서 선택한 상품과 관련된 정보, 제1 사용자의 개인 정보 및 제1 사용자의 쇼핑몰 방문 기록과 관련된 정보를 포함할 수 있다.In another example, the first user activity information may include information related to a product selected by the first user in a shopping mall, personal information of the first user, and information related to a shopping mall visit record of the first user.
본 명세서에서 상기 쇼핑몰은 일 실시예에 따른 가상의 쇼룸과 연계된 것일 수 있는 데, 본 발명은 반드시 이에 한정되는 것은 아니고, 가상의 쇼룸과 연계되지 않은 다른 쇼핑몰을 포함할 수 있다. 다만 이 경우 제1 사용자가 가상의 쇼룸과 연계되지 않은 다른 쇼핑몰에서 활동한 정보에 대하여 제1 사용자 및/또는 다른 쇼핑몰에 의한 데이터화 작업을 거칠 수 있으며, 이 데이터로부터 획득할 수 있는 정보를 기초로 유저 아이템이 생성될 수 있다.In the present specification, the shopping mall may be linked to a virtual showroom according to an embodiment, but the present invention is not limited thereto, and may include other shopping malls that are not linked to the virtual showroom. However, in this case, the first user and/or other shopping mall may perform data conversion work on the information of the first user's activity in another shopping mall that is not connected with the virtual showroom, and based on the information that can be obtained from this data. User items can be created.
몇몇 실시예에서 유저 아이템은 쇼룸 영역에 디스플레이 되도록 사용자에 의해 정해진 아이템일 수 있다. 사용자는 컨텐츠 이용 중, 쇼룸 영역에 디스플레이 하고 싶은 객체를 지정할 수 있고, 해당 객체와 대응되는 유저 아이템을 가상의 쇼룸 영역에 디스플레이 할 수 있다. 이 경우, 컨텐츠 제공 서버의 데이터 베이스와 가상 쇼룸 제공 서버의 데이터 베이스는 사전에 정보를 공유하거나, 필요시 정보를 주고 받도록 네트워크 통신 연결을 구축할 수 있다. In some embodiments, the user item may be an item determined by the user to be displayed in the showroom area. While using the content, the user may designate an object to be displayed in the showroom area, and display a user item corresponding to the object in the virtual showroom area. In this case, the database of the content providing server and the database of the virtual showroom providing server may share information in advance or establish a network communication connection to exchange information when necessary.
예를 들어 유저 아이템은 제1 사용자가 쇼핑몰에서 선택한 상품과 대응되는 객체일 수 있다. 유저 아이템은 제1 사용자가 쇼핑몰에서 구매한 상품과 대응되는 객체일 수 있고, 쇼핑몰의 상품 중 유저 아이템으로 기 지정된 상품일 수 있다. 구체적으로, 쇼핑몰에서 구체 관절 인형과 관련된 상품이 판매되는 경우 상기 유저 아이템은 사용자가 지정한 구체 관절 인형에 대응되는 객체일 수 있고. 구체 관절 인형의 장신구에 대응되는 객체일 수도 있으며, 구체 관절 인형의 집 또는 가구에 대응되는 객체일 수도 있다. For example, the user item may be an object corresponding to a product selected by the first user in a shopping mall. The user item may be an object corresponding to a product purchased by the first user in the shopping mall, and may be a product previously designated as a user item among products of the shopping mall. Specifically, when a product related to a spherical joint doll is sold in a shopping mall, the user item may be an object corresponding to a spherical joint doll designated by a user. It may be an object corresponding to the ornament of the spherical joint doll, or may be an object corresponding to the house or furniture of the spherical joint doll.
단계 S130에서, 유저 아이템이 표시된 가상의 쇼룸 영역이 디스플레이 될 수 있다. 또한, 가상의 쇼룸 영역은 그래픽 사용자 인터페이스(graphical user interface, GUI)영역으로 사용자의 입력이 수신되는 영역일 수 있다. In step S130, a virtual showroom area in which the user item is displayed may be displayed. In addition, the virtual showroom area is a graphical user interface (GUI) area and may be an area in which a user's input is received.
일 실시예에서 가상의 쇼룸 영역은 지정된 사용자의 입력에 한하여 조작될 수 있다. 다만, 쇼룸 영역을 조작할 수 있는 사용자의 수가 한정되는 것은 아니다. 예를 들어 하나의 쇼룸 영역은 지정된 한 명의 사용자에 의하여만 조작될 수도 있고, 지정된 복수의 사용자에 의해 조작될 수도 있다. In an embodiment, the virtual showroom area may be manipulated only by input from a designated user. However, the number of users who can manipulate the showroom area is not limited. For example, one showroom area may be operated by only one designated user, or may be operated by a plurality of designated users.
일 실시예에서 쇼룸 영역에 대한 조작이 수행됨으로써, 상기 쇼룸 영역 자체에 대한 옵션 정보가 변경될 수 있고, 상기 쇼룸 영역에 디스플레이 된 유저 캐릭터, 유저 아이템 및 가상 아이템에 대한 다양한 속성 정보가 변경될 수 있다. In one embodiment, by performing an operation on the showroom area, option information on the showroom area itself may be changed, and various attribute information on user characters, user items, and virtual items displayed in the showroom area may be changed. have.
예를 들어 쇼룸 영역에 디스플레이된 유저 캐릭터가 구체 관절 인형과 관련된 객체와 대응되는 경우 사용자는 유저 캐릭터를 조작하여 인형의 자세를 바꾸거나 착장 변경을 수행할 수 있고, 하나 이상의 유저 아이템들이 가구 및 인테리어와 관련된 객체들인 경우 사용자는 유저 아이템을 조작하여 가구의 위치를 재배치하거나 방 구조를 변경하는 인테리어 설계 시뮬레이션을 수행할 수도 있으며, 상기 하나 이상의 유저 아이템들이 자동차와 관련된 상품에 대응되는 객체들인 경우 사용자는 자동차의 도색을 변경하거나 타이어 변경을 수행하는 조작을 가할 수 있다. For example, when a user character displayed in the showroom area corresponds to an object related to a spherical joint doll, the user can manipulate the user character to change the posture or change of the doll's clothing. In the case of objects related to the user, the user may manipulate the user item to rearrange the furniture or perform an interior design simulation to change the room structure.If the one or more user items are objects corresponding to a product related to a vehicle, the user An operation can be applied to change the paint color of the vehicle or to perform a tire change.
단계 S140에서, 쇼룸 영역에 제2 컨텐츠 정보를 기초로 생성된 가상 아이템이 표시될 수 있다.In step S140, a virtual item generated based on the second content information may be displayed in the showroom area.
제2 컨텐츠는 유저 아이템과 관련된 제1 컨텐츠와 상이한 컨텐츠 일 수 있다. 예를 들어 제1 컨텐츠가 제공되는 인스턴스와 제2 컨텐츠가 제공되는 인스턴스는 상이할 수 있다. 인스턴스는 하나의 컨텐츠를 제공하는 객체 단위로, 각각의 인스턴스는 서로 상이한 컨텐츠 제공자에 의해 제공된 컨텐츠가 표시될 수 있다. 예를 들어 제1 컨텐츠가 쇼핑몰 페이지인 경우 제2 컨텐츠는 쇼핑몰과 별도로 사용자가 이용한 영상, 만화 또는 광고 컨텐츠일 수 있다.The second content may be content different from the first content related to the user item. For example, an instance in which the first content is provided and an instance in which the second content is provided may be different. An instance is an object unit that provides one content, and each instance may display content provided by a different content provider. For example, when the first content is a shopping mall page, the second content may be an image, cartoon, or advertisement content used by a user separately from the shopping mall.
선택적으로, 제1 컨텐츠와 제2 컨텐츠는 동일한 컨텐츠 제공자로부터 제공된 컨텐츠일 수도 있다. 이 경우, 각각 상이한 인스턴스에서 제공되나 동일한 컨텐츠 제공 서버로부터 수신된 컨텐츠일 수도 있다.Optionally, the first content and the second content may be content provided from the same content provider. In this case, the content may be provided in different instances, but received from the same content providing server.
일 실시예에서 제2 컨텐츠 정보를 기초로 생성된 가상 아이템은 상기 제2 컨텐츠에 포함된 객체에 대응될 수 있다. 예를 들어 사용자가 광고 컨텐츠를 시청한 경우, 광고된 물품에 대응되는 가상 아이템이 생성될 수 있다. 또는, 제1 사용자와 쇼핑몰 구매 내역이 유사한 제2 사용자의 유저 아이템이 제1 사용자의 가상 아이템으로 표시될 수도 있다. 상세한 설명은 이하 도 8에서 후술한다.In an embodiment, a virtual item generated based on the second content information may correspond to an object included in the second content. For example, when a user views advertisement content, a virtual item corresponding to the advertised article may be created. Alternatively, a user item of a second user whose purchase details are similar to that of the first user may be displayed as a virtual item of the first user. A detailed description will be given later in FIG. 8.
다른 실시예에서 쇼룸 영역의 배경은 제2 컨텐츠 정보를 기초로 표시될 수 있다. 예를 들어 제2 컨텐츠가 영상 컨텐츠인 경우, 쇼룸 영역의 배경은 상기 영상 컨텐츠의 배경과 대응될 수 있다. 선택적 실시예에서, 쇼룸 영역의 배경에 표시될 컨텐츠가 사용자의 입력을 기초로 정해질 수도 있다. 상세한 설명은 이하 도 7에서 후술한다.In another embodiment, the background of the showroom area may be displayed based on the second content information. For example, when the second content is video content, the background of the showroom area may correspond to the background of the video content. In an optional embodiment, content to be displayed in the background of the showroom area may be determined based on a user's input. A detailed description will be given later in FIG. 7.
도 2는 사용자 활동 정보를 기초로 생성되는 유저 아이템에 대하여 상세히 설명하기 위한 도면이다.2 is a diagram for explaining in detail a user item generated based on user activity information.
도 2를 참조할 때, 일 실시예에 따른 유저 아이템은 기 획득된 사용자 활동 정보를 기초로 생성될 수 있다. Referring to FIG. 2, a user item according to an embodiment may be generated based on previously acquired user activity information.
따라서, 단계 S210에서 제1 사용자의 활동 정보가 획득 되었는지 여부가 확인될 수 있다. 만약, 사용자의 활동 정보가 존재하는 경우 전술한 단계 S120에 따라 유저 아이템이 생성될 수 있다.Accordingly, it may be checked whether the activity information of the first user is acquired in step S210. If there is activity information of the user, a user item may be generated according to step S120 described above.
반면 기 획득된 사용자 활동 정보가 없는 경우 단계 S220에서 사용자 단말로 사용자의 활동을 요청하는 알림을 전달할 수 있다.On the other hand, when there is no previously acquired user activity information, a notification requesting the user's activity may be delivered to the user terminal in step S220.
일 실시예에서 사용자에게 제공된 다양한 컨텐츠중 지정된 조건에 따라 해당 컨텐츠와 관련된 유저 아이템이 생성될 수 있으나, 사용자의 활동을 요청하는 알람이 수신된 직후 사용자에게 제공된 컨텐츠에 대하여는 유저 아이템이 반드시 생성될 수 있다. 또한, 이와 같이 사용자의 활동을 요청하는 알림을 사용자 단말로 전달함으로써, 쇼룸 영역에 대한 사용자의 이용이 지속적으로 유지될 수 있다.In one embodiment, a user item related to the corresponding content may be generated according to a specified condition among various contents provided to the user, but a user item may be necessarily generated for the content provided to the user immediately after an alarm requesting the user's activity is received. have. In addition, by transmitting the notification requesting the user's activity to the user terminal as described above, the user's use of the showroom area can be continuously maintained.
도 3은 일 실시예에 따른 유저 아이템 및 유저 캐릭터를 설명하기 위한 예시도이다.3 is an exemplary diagram for describing a user item and a user character according to an exemplary embodiment.
도 3을 참조할 때, 가상의 쇼룸 영역(200)에는 적어도 하나의 유저 캐릭터(210) 및 유저 아이템(201, 211)이 표시될 수 있다. 상기 유저 아이템은 쇼룸 영역에 디스플레이 되도록 사용자에 의해 지정된 아이템으로, 사용자의 활동 정보를 기초로 생성된 아이템일 수 있다. Referring to FIG. 3, at least one user character 210 and user items 201 and 211 may be displayed in the virtual showroom area 200. The user item is an item designated by the user to be displayed in the showroom area, and may be an item generated based on the user's activity information.
이하, 본 발명의 이해를 용이하게 하기 위해, 제1 컨텐츠는 쇼핑몰 페이지이며 본 발명의 일 실시예에 따른 사용자 활동 정보는 사용자 쇼핑몰 이용 정보임을 가정하여 설명한다. Hereinafter, in order to facilitate understanding of the present invention, it is assumed that the first content is a shopping mall page, and user activity information according to an embodiment of the present invention is user shopping mall use information.
다만, 이하 후술되는 쇼핑몰 및 상품과 관련된 설명은 본 발명의 이해를 용이하기 위한 일 예시일 뿐, 본 발명의 가상 쇼룸 생성 방법이 반드시 쇼핑몰 컨텐츠에 한정되어 동작하는 것은 아님에 유의한다.However, it should be noted that the descriptions related to shopping malls and products to be described below are only examples for facilitating understanding of the present invention, and the method of creating a virtual showroom of the present invention is not necessarily limited to shopping mall contents.
본 발명의 일 실시예에 따른 상기 유저 캐릭터(210)는 사용자 정보를 기초로 생성될 수 있다. 유저 캐릭터(210)는 사용자에 의해 생성될 수 있고, 생성된 유저 캐릭터(210)의 형태 또는 속성도 사용자에 의해 조작될 수 있다. 예를 들어 사용자가 구체 관절 인형과 관련된 쇼핑몰(110)을 이용하는 경우, 사용자가 선택한 인형 상품(111)과 대응되는 유저 캐릭터(210)가 생성될 수 있다.The user character 210 according to an embodiment of the present invention may be generated based on user information. The user character 210 may be created by a user, and the shape or attribute of the generated user character 210 may be manipulated by the user. For example, when a user uses the shopping mall 110 related to a spherical joint doll, a user character 210 corresponding to the doll product 111 selected by the user may be generated.
본 발명의 일 실시예에 따른 하나 이상의 유저 아이템(201, 211) 각각은 다양한 컨텐츠에 대한 사용자의 활동 정보를 기초로 생성될 수 있다. 예를 들어 구체 관절 인형과 관련된 쇼핑몰(110) 상품 정보를 기초로 인형 옷에 대응되는 유저 아이템(211)이 생성되고, 여성 의류 쇼핑몰(120)의 의류 상품(121) 정보를 기초로 여성 의류에 대응되는 유저 아이템(201)이 동시에 생성될 수도 있다. 이 경우 유저 아이템은 사용자가 쇼핑몰에서 구매한 상품 정보를 기초로 생성될 수도 있고, 쇼핑몰의 상품 중 쇼룸에서 디스플레이 되도록 사용자가 지정한 상품 정보를 기초로 생성될 수도 있음은 물론이다.Each of the one or more user items 201 and 211 according to an embodiment of the present invention may be generated based on user activity information for various contents. For example, a user item 211 corresponding to the doll clothes is created based on product information of the shopping mall 110 related to the spherical joint doll, and the female clothes are added based on the information of the clothing product 121 in the women's clothing shopping mall 120. Corresponding user items 201 may be created at the same time. In this case, the user item may be generated based on product information purchased by the user at the shopping mall, or may be generated based on product information designated by the user to be displayed in a showroom among products of the shopping mall.
도 4는 일 실시예에 따른 유저 아이템의 생성 조건을 설명하기 위한 도면이다. 도시된 바를 참조할 때 본 발명의 일 실시예에 따르면 컨텐츠의 객체가 지정된 조건을 만족하는 경우 해당 객체에 대응되는 유저 아이템이 생성될 수 있다. 또한, 사용자는 상기 유저 아이템 생성 조건을 변경함으로써 유저 아이템으로 생성 되는 상품을 다양화 할 수 있다.4 is a diagram for describing a condition for generating a user item according to an exemplary embodiment. Referring to the diagram, according to an embodiment of the present invention, when an object of content satisfies a specified condition, a user item corresponding to the object may be generated. In addition, the user can diversify products created as user items by changing the user item creation conditions.
예를 들어 쇼핑몰(140)의 장바구니(141)에 포함된 상품에 한하여 상기 상품에 대응되는 유저 아이템(202)이 쇼룸(200)에 표시 되도록 지정된 경우, 사용자는 쇼룸에 디스플레이 하고자 하는 유저 아이템에 대응되는 상품을 장바구니에 담을 수 있다.For example, if the user item 202 corresponding to the product is designated to be displayed in the showroom 200 only for products included in the shopping cart 141 of the shopping mall 140, the user corresponds to the user item to be displayed in the showroom. You can put the items in the shopping cart.
또한, 일 실시예에 따라 사용자는 컨텐츠에 포함된 객체 중 제1 조건을 만족하는 객체에 대응되는 유저 아이템이 표시되는 영역(205)과 제2 조건을 만족하는 객체에 대응되는 유저 아이템이 표시되는 영역(206)을 지정할 수 있다. 즉, 쇼룸 영역에 표시되는 유저 아이템 각각을 사용자가 지정하지 않더라도, 사용자 활동 정보가 바뀜에 따라 각각의 조건을 만족하는 객체 및 해당 객체에 대응되는 유저 아이템도 변경될 수 있다.In addition, according to an embodiment, the user displays an area 205 in which a user item corresponding to an object that satisfies the first condition is displayed among objects included in the content, and a user item corresponding to an object that satisfies the second condition is displayed. Area 206 can be designated. That is, even if the user does not designate each user item displayed in the showroom area, an object that satisfies each condition and a user item corresponding to the object may also be changed as user activity information changes.
도 5는 본 발명의 일 실시예에 따라 커스터마이징(Customizing) 된 유저 아이템을 설명하기 위한 도면이다. 일 실시예에서 유저 아이템의 속성 중 적어도 하나가 변경 됨에 따라 상기 유저 아이템에 대응되는 컨텐츠의 객체 정보가 변경 될 수 있다. 예를 들어 쇼핑몰의 상품 정보를 기초로 생성된 유저 아이템은 사용자에 의해 수정될 수 있고, 수정된 유저 아이템의 속성 정보를 기초로 유저 아이템에 대응되는 상품의 옵션 정보가 변경될 수 있다.5 is a view for explaining a customized user item according to an embodiment of the present invention. In an embodiment, as at least one of the attributes of the user item is changed, object information of the content corresponding to the user item may be changed. For example, a user item generated based on product information of a shopping mall may be modified by a user, and option information of a product corresponding to the user item may be changed based on attribute information of the modified user item.
일 실시예에서 사용자는 쇼룸 영역이 제공되는 인스턴스(200)와 별도로 제공되는 인스턴스(150)에서 유저 아이템의 속성 중 적어도 하나를 변경할 수 있다. 예를 들어 유저 아이템의 비율, 색상, 재질 및 구성 등 유저 아이템의 속성 중 적어도 하나의 속성 정보가 변경될 수 있다. In an embodiment, the user may change at least one of the attributes of the user item in the instance 150 provided separately from the instance 200 provided with the showroom area. For example, attribute information of at least one of attributes of a user item such as a ratio, color, material, and composition of the user item may be changed.
이 경우, 유저 아이템의 속성 정보가 변경되는 동작이 수행되는 인스턴스(150)에서 제1 컨텐츠가 제공되는 인스턴스(110)로 상기 변경된 유저 아이템의 속성 정보가 전달될 수 있다. 예를 들어 쇼핑몰 인스턴스(110)에서 상기 유저 아이템의 속성 정보에 대응되는 상품의 옵션 정보가 변경될 수 있다. 즉, 쇼룸의 유저 아이템 속성 정보를 변경함으로써, 상기 유저 아이템에 대응되는 객체의 옵션 정보도 변경될 수 있다.In this case, the attribute information of the changed user item may be transmitted from the instance 150 in which the operation of changing the attribute information of the user item is performed to the instance 110 in which the first content is provided. For example, in the shopping mall instance 110, option information of a product corresponding to attribute information of the user item may be changed. That is, by changing the user item attribute information of the showroom, option information of the object corresponding to the user item may also be changed.
도 6를 참조할 때, 본 발명의 일 실시예에 따라 유저 아이템에 대한 사용자 입력(220)에 응답하여, 상기 유저 아이템에 대응되는 제1 컨텐츠의 객체 정보(230)가 더 디스플레이 될 수 있다. 마찬가지로 가상 아이템에 대한 사용자 입력에 응답하여, 가상 아이템에 대응되는 제2 컨텐츠의 객체 정보도 더 디스플레이 될 수 있음은 물론이다.Referring to FIG. 6, in response to a user input 220 for a user item according to an embodiment of the present invention, object information 230 of the first content corresponding to the user item may be further displayed. Similarly, in response to a user input for the virtual item, object information of the second content corresponding to the virtual item may be further displayed.
쇼룸 영역(200a, 200b)에 표시된 유저 아이템 또는 가상 아이템에 대한 사용자 입력에 응답하여 컨텐츠의 객체 정보(230)가 디스플레이 됨으로써, 사용자는 각각의 아이템에 대응되는 컨텐츠 정보 및 컨텐츠에 포함된 객체 정보 중 적어도 하나를 획득할 수 있다.The object information 230 of the content is displayed in response to a user input for the user item or virtual item displayed in the showroom areas 200a and 200b, so that the user can select among the content information corresponding to each item and object information included in the content. At least one can be obtained.
이하 도 7 내지 도 11을 참조하여, 가상 아이템에 대하여 상세히 설명한다.Hereinafter, a virtual item will be described in detail with reference to FIGS. 7 to 11.
일 실시예에서 가상 아이템과 유저 아이템은 각각 상이한 조건을 기초로 생성될 수 있다. 구체적으로, 사용자가 컨텐츠에서 선택한 객체를 기초로 유저 아이템이 생성되는 경우, 가상 아이템은 사용자가 컨텐츠에서 선택하지 않은 객체를 기초로 생성될 수 있다. In an embodiment, the virtual item and the user item may be generated based on different conditions, respectively. Specifically, when a user item is generated based on an object selected by the user from the content, the virtual item may be generated based on an object not selected from the content by the user.
예를 들어, 사용자가 쇼핑몰에서 구매한 상품과 대응되는 유저 아이템이 생성된 경우, 사용자가 쇼핑몰에서 구매하지 않은 상품과 대응되는 가상 아이템이 생성될 수 있다. 이 경우 본 발명의 몇몇 실시예에 따른 가상 쇼룸 영역에서는 향후 사용자의 구매 가능성이 존재하는 상품에 대한 정보가 더 표시될 수 있다. 이 경우 유저 아이템과 대응되는 제1 컨텐츠와 가상 아이템이 대응되는 제2 컨텐츠는 동일한 컨텐츠일 수 있다.For example, when a user item corresponding to a product purchased by a user in a shopping mall is generated, a virtual item corresponding to a product not purchased by the user in the shopping mall may be generated. In this case, in the virtual showroom area according to some embodiments of the present invention, information on a product for which a user may purchase in the future may be further displayed. In this case, the first content corresponding to the user item and the second content corresponding to the virtual item may be the same content.
선택적 실시예에서, 제2 컨텐츠에 포함된 객체를 기초로 가상 아이템이 생성될 수도 있다. 이하 도 7 및 도 8를 참조하여 제1 컨텐츠와 상이한 제2 컨텐츠를 기초로 생성된 가상 아이템에 대하여 상세히 설명한다.In an optional embodiment, a virtual item may be generated based on an object included in the second content. Hereinafter, a virtual item generated based on second content different from the first content will be described in detail with reference to FIGS. 7 and 8.
일 실시예에 따른 쇼룸 영역에는 제2 컨텐츠(310)에 포함된 객체에 대응되는 가상 아이템(203) 및 제3 컨텐츠(320)에 포함된 객체에 대응되는 가상 아이템(204)이 표시될 수 있다. In the showroom area according to an embodiment, a virtual item 203 corresponding to an object included in the second content 310 and a virtual item 204 corresponding to an object included in the third content 320 may be displayed. .
일 실시예에서 하나 이상의 가상 아이템에 대응되는 객체 각각은 단일 컨텐츠에 포함된 객체일 수 있다. 이 경우, 쇼룸 영역에 표시된 제1 가상 아이템와 대응되는 객체와 제2 가상 아이템과 대응되는 객체는 동일한 컨텐츠에 포함된 객체일 수도 있다. In an embodiment, each object corresponding to one or more virtual items may be an object included in a single content. In this case, the object corresponding to the first virtual item displayed in the showroom area and the object corresponding to the second virtual item may be objects included in the same content.
다른 실시예에서 하나 이상의 가상 아이템에 대응되는 각각의 개체는 서로 상이한 컨텐츠에 포함된 객체일 수도 있다. 이 경우, 제1 가상 아이템과 대응되는 객체와 제2 가상 아이템과 대응되는 객체는 서로 상이한 컨텐츠에 포함된 객체일 수 있다.In another embodiment, each object corresponding to one or more virtual items may be objects included in different contents. In this case, the object corresponding to the first virtual item and the object corresponding to the second virtual item may be objects included in different contents.
예를 들어 도 7에 도시된 바와 같이 쇼룸 영역에 표시된 가상 아이템(203)은 사용자에게 제공된 영상 컨텐츠(310)의 선반 객체(311)와 대응되고, 쇼룸 영역에 표시된 다른 가상 아이템(204)은 사용자에게 제공된 웹툰 컨텐츠(320)의 가방 객체(321)와 대응될 수 있다.For example, as shown in FIG. 7, the virtual item 203 displayed in the showroom area corresponds to the shelf object 311 of the image content 310 provided to the user, and the other virtual item 204 displayed in the showroom area corresponds to the user. It may correspond to the bag object 321 of the webtoon content 320 provided to the user.
또한, 본 발명의 또 다른 실시예에서 외부 컨텐츠를 기초로 쇼룸 영역의 배경이 표시될 수 있다. 이 경우 본 발명의 일 실시예에 따른 가상 쇼룸 생성 장치는 외부 컨텐츠 제공 서버로부터 컨텐츠 배경 정보를 수신할 수 있고, 상기 수신한 컨텐츠 배경 정보를 기초로 쇼룸 영역의 배경을 생성할 수 있다.Also, in another embodiment of the present invention, the background of the showroom area may be displayed based on external content. In this case, the apparatus for generating a virtual showroom according to an embodiment of the present invention may receive content background information from an external content providing server, and may generate a background of the showroom area based on the received content background information.
예를 들어 사용자가 복수의 외부 컨텐츠(310, 320)를 제공 받은 경우, 일 실시예에 따른 쇼룸 영역의 배경은 복수의 외부 컨텐츠 중 하나의 컨텐츠 배경 정보와 대응될 수 있다. 상기 외부 컨텐츠 배경 정보(310)가 주택의 거실 배경 정보를 포함하는 경우, 도 7에 도시되지는 않았으나 쇼룸 영역(200)의 배경에 주택의 거실 풍경이 표시될 수 있다. 또한, 본 발명의 일 실시예에 따른 쇼룸 영역의 배경 정보는 복수의 외부 컨텐츠의 정보를 종합하여 생성될 수도 있고, 다른 사용자의 쇼룸 영역의 배경 정보를 기초로 생성될 수도 있다.For example, when a user is provided with a plurality of external contents 310 and 320, the background of the showroom area according to an embodiment may correspond to the background information of one of the plurality of external contents. When the external content background information 310 includes the background information of the living room of the house, although not shown in FIG. 7, the landscape of the living room of the house may be displayed on the background of the showroom area 200. In addition, the background information of the showroom area according to an embodiment of the present invention may be generated by synthesizing information on a plurality of external contents, or may be generated based on background information of the showroom area of another user.
전술한 실시예에서는 따른 사용자의 컨텐츠 이용 정보를 기초로 별도의 사용자 입력 없이 쇼룸 영역의 배경 정보가 획득되는 경우에 대하여 설명하였다. 하지만, 본 발명의 몇몇 실시예에 따른 가상 쇼룸 생성 방법은 이에 한하지 않고 사용자 입력에 응답하여, 사용자가 직접 지정한 컨텐츠 배경 정보와 대응되는 쇼룸 영역의 배경이 생성될 수도 있음은 물론이다.In the above-described embodiment, a case where background information of a showroom area is obtained without a separate user input based on the user's content use information has been described. However, the method of creating a virtual showroom according to some embodiments of the present invention is not limited thereto, and a background of the showroom area corresponding to the content background information directly designated by the user may be generated in response to a user input.
도 8을 참조할 때, 특정 컨텐츠(330)에 포함된 객체(331)와 관련된 가상 아이템(240)이 생성될 수 있다. 예를 들어, 영상 컨텐츠인 영화(330)에 등장하는 등장 인물(331)과 대응되는 가상 아이템(240)이 쇼룸 영역(200)에 디스플레이 되는 경우, 생성되는 가상 아이템(240)은 등장 인물의 캐릭터 인형 객체일 수 있고, 등장 인물이 착용한 의상 객체일 수도 있다.Referring to FIG. 8, a virtual item 240 related to an object 331 included in a specific content 330 may be generated. For example, when a virtual item 240 corresponding to a character 331 appearing in the movie 330, which is an image content, is displayed in the showroom area 200, the generated virtual item 240 is a character of the character It may be a doll object or a costume object worn by a character.
즉, 본 실시예에 따른 가상 쇼룸 영역은 유저 아이템과 관련된 제1 컨텐츠와 다른 인스턴스에서 제공된 제2 컨텐츠 정보를 이용하여, 제2 컨텐츠에 포함된 객체와 관련된 가상 아이템을 표시할 수 있다.That is, the virtual showroom area according to the present embodiment may display a virtual item related to an object included in the second content by using the first content related to the user item and the second content information provided in a different instance.
이하 도 9 내지 도 11을 참조하여 본 발명의 일 실시예에 따라 제2 사용자 활동 정보를 기초로 생성된 가상 아이템에 대하여 상세히 설명한다.Hereinafter, a virtual item generated based on second user activity information according to an embodiment of the present invention will be described in detail with reference to FIGS. 9 to 11.
단계 S141에서 제1 사용자 정보를 이용하여 제2 사용자 정보가 획득될 수 있다.In step S141, second user information may be obtained by using the first user information.
제2 사용자의 정보 및 상기 제2 사용자 활동 정보 중 적어도 하나는 제1 사용자 정보 및 제1 사용자 활동 정보 중 적어도 하나와 동일할 수 있다. 예를 들어 제1 컨텐츠가 쇼핑몰인 경우, 제2 사용자가 쇼핑몰에서 선택한 복수개의 상품 중 적어도 하나는 제1 사용자가 쇼핑몰에서 선택한 상품과 동일할 수 있다. 또는 제2 사용자의 연령대와 제1 사용자의 연령대가 동일할 수도 있다. 뿐만 아니라, 제2 사용자의 쇼핑몰 방문 주기 또는 방문 패턴이 제1 사용자의 쇼핑몰 방문 주기 또는 방문 패턴과 유사할 수도 있다. At least one of the second user information and the second user activity information may be the same as at least one of the first user information and the first user activity information. For example, when the first content is a shopping mall, at least one of the plurality of products selected by the second user in the shopping mall may be the same as the product selected by the first user in the shopping mall. Alternatively, the age range of the second user and the age range of the first user may be the same. In addition, the second user's shopping mall visit cycle or visit pattern may be similar to the first user's shopping mall visit cycle or visit pattern.
단계 S142에서 제2 사용자 활동 정보를 기초로 생성된 가상 아이템이 가상 쇼룸 영역에 표시될 수 있다. 일 실시예에서, 제2 사용자의 유저 아이템 또는 제2 사용자의 가상 아이템 중 어느 하나가 제1 사용자의 쇼룸 영역에 표시될 수 있고, 제2 사용자의 유저 캐릭터가 제1 사용자의 쇼룸 영역에 표시될 수 있다.In step S142, a virtual item generated based on the second user activity information may be displayed in the virtual showroom area. In one embodiment, either the user item of the second user or the virtual item of the second user may be displayed in the showroom area of the first user, and the user character of the second user may be displayed in the showroom area of the first user. I can.
제1 사용자의 사용자 정보와 제2 사용자의 사용자 정보는 적어도 하나의 공통점이 존재하는 바, 제1 사용자의 쇼룸 영역에 제2 사용자의 유저 아이템을 표시함으로써 제1 사용자에게 구매 가능성이 높은 새로운 상품에 대한 정보를 더 제공할 수 있다.The user information of the first user and the user information of the second user have at least one thing in common. By displaying the user item of the second user in the showroom area of the first user, a new product that is highly likely to be purchased by the first user is displayed. You can provide more information about it.
이하 도 10을 참조하여 제2 사용자 정보를 획득하는 방법에 대하여 상세히 설명한다. 일 실시예에서 상기 제1 사용자의 사용자 정보를 기초로 제2 사용자 정보가 획득될 수 있고, 상기 제2 사용자 정보를 기초로 가상 아이템이 생성될 수 있다.Hereinafter, a method of acquiring second user information will be described in detail with reference to FIG. 10. In an embodiment, second user information may be obtained based on user information of the first user, and a virtual item may be generated based on the second user information.
예를 들어 도 10에 도시된 바와 같이 사용자 A의 쇼룸 영역(200)이 디스플레이 되는 경우, 생성되는 가상 아이템(250)은 사용자 B의 정보를 기초로 생성될 수 있다. 이 경우, 사용자 B의 사용자 정보(420)와 사용자 A의 정보(410)중 적어도 하나의 정보는 관련성이 있을 수 있다. 구체적으로 사용자 B의 구매 내역 리스트(421) 또는 최근 본 상품 리스트(422)에 포함된 상품 중 적어도 하나가 사용자 A의 구매 내역(411)에 포함된 상품 중 어느 하나와 동일할 수 있다.For example, as illustrated in FIG. 10, when the showroom area 200 of user A is displayed, the generated virtual item 250 may be generated based on user B's information. In this case, at least one of the user information 420 of the user B and the information 410 of the user A may be related. Specifically, at least one of the products included in the purchase history list 421 of the user B or the recently viewed product list 422 may be the same as any one of the products included in the purchase history 411 of the user A.
또한, 도 11을 참조할 때, 제2 사용자 정보를 기초로 생성된 가상 아이템(250)에 대한 사용자 입력에 응답하여, 제2 사용자의 쇼룸 영역(500)이 디스플레이 될 수 있다. 제2 사용자의 쇼룸 영역(500)이 디스플레이 됨으로써, 제1 사용자는 제2 사용자의 유저 아이템 및 제2 사용자의 쇼룸에 표시된 가상 아이템에 대한 정보를 더 획득 할 수 있다.Also, referring to FIG. 11, in response to a user input for the virtual item 250 generated based on the second user information, the showroom area 500 of the second user may be displayed. By displaying the showroom area 500 of the second user, the first user may further acquire information on the user item of the second user and the virtual item displayed in the showroom of the second user.
이후, 상기 제2 사용자의 쇼룸 영역(500)에 포함된 제2 사용자의 유저 아이템 또는 제2 사용자의 쇼룸에 표시된 가상 아이템에 대한 제1 사용자의 입력에 응답하여, 유저 아이템 또는 가상 아이템 각각에 대응되는 상품 정보가 더 표시될 수 있음은 물론이다.Thereafter, in response to a first user's input for a second user's user item included in the second user's showroom area 500 or a virtual item displayed in the second user's showroom, each of the user items or virtual items is corresponding. It goes without saying that the product information that is used may be further displayed.
도 12는 본 발명의 일 실시예에 따른 가상 쇼룸 생성 장치의 하드웨어 블록도이다.12 is a hardware block diagram of an apparatus for generating a virtual showroom according to an embodiment of the present invention.
일 실시예에 따른 가상 쇼룸 생성 장치(600)는 사용자 인터페이스(610), 사용자 정보 제공부(630), 쇼룸 제공부(640 및 컨텐츠 제공부(620)를 더 포함할 수 있다.The apparatus 600 for generating a virtual showroom according to an embodiment may further include a user interface 610, a user information providing unit 630, a showroom providing unit 640 and a content providing unit 620.
일 실시예에 따른 사용자 인터페이스(610)는 사용자로부터 입력을 수신하고, 출력 데이터를 출력할 수 있다. 일 실시예에서 사용자 인터페이스(610)를 통해 가상의 쇼룸 인터페이스, 쇼핑몰 인터페이스 및 컨텐츠가 출력될 수 있고, 사용자 인터페이스(610)를 통해 컨텐츠 제공부(620), 사용자 정보 제공부(630) 및 쇼룸 제공부(640)로 사용자 입력이 전달될 수 있다. The user interface 610 according to an embodiment may receive an input from a user and output output data. In one embodiment, a virtual showroom interface, a shopping mall interface, and contents may be output through the user interface 610, and the content providing unit 620, the user information providing unit 630, and the showroom system are provided through the user interface 610. User input may be transmitted to study 640.
일 실시예에 따른 컨텐츠 제공부(620)는 컨텐츠 DB(621)와 컨텐츠를 구성하는 객체에 대한 정보가 저장된 객체 DB(622)를 포함할 수 있다. 컨텐츠 DB(621)는 사용자별로 이용한 컨텐츠와 관련된 정보가 저장될 수 있다. 컨텐츠 제공부(620)는 컨텐츠에 포함된 객체에 대한 정보를 사용자 정보 제공부(630) 및 쇼룸 제공부(640)로 전달할 수 있다. 또한 사용자에게 제공되는 컨텐츠를 사용자 인터페이스(610)로 전달할 수도 있다. 또한 도시되지는 않았으나, 일 실시예에 따른 컨텐츠 제공부(620)는 컨텐츠 배경 정보 DB를 더 포함할 수 있다. 이 경우, 쇼룸 제공부(640)는 컨텐츠 제공부(620)에서 획득한 컨텐츠 배경 정보를 이용하여 쇼룸의 배경 정보를 획득할 수 있다.The content providing unit 620 according to an embodiment may include a content DB 621 and an object DB 622 in which information on an object constituting the content is stored. The content DB 621 may store information related to content used for each user. The content providing unit 620 may transmit information on an object included in the content to the user information providing unit 630 and the showroom providing unit 640. In addition, content provided to the user may be delivered to the user interface 610. Also, although not shown, the content providing unit 620 according to an embodiment may further include a content background information DB. In this case, the showroom providing unit 640 may obtain background information of the showroom by using the content background information obtained from the content providing unit 620.
일 실시예에 따른 사용자 정보 제공부(630)는 사용자의 활동 내역 및 사용자 활동 내역과 관련된 컨텐츠 정보가 포함된 사용자의 동적 정보가 저장된 활동 정보DB(631)와 사용자의 개인 정보를 포함하는 사용자의 정적 정보가 저장된 사용자 DB(632)를 포함할 수 있다. 일 실시예에서 사용자 정보 제공부(630)는 쇼룸 제공부(640)로 사용자 활동 정보 및 사용자 정보를 전달할 수 있고, 사용자 인터페이스(610)로 사용자 활동 정보과 관련된 컨텐츠 정보를 전달할 수 있다.The user information providing unit 630 according to an embodiment includes an activity information DB 631 storing user's dynamic information including user's activity details and content information related to the user's activity details, and user's personal information including user's personal information. It may include a user DB 632 in which static information is stored. In an embodiment, the user information providing unit 630 may transmit user activity information and user information to the showroom providing unit 640 and may transmit content information related to user activity information to the user interface 610.
일 실시예에 따른 쇼룸 제공부(640)는 쇼룸 생성부(641), 유저 캐릭터 생성부(646), 유저 아이템 생성부(642), 가상 아이템 생성부(643), 유저 아이템 DB(644) 및 가상 아이템 DB(645)를 포함할 수 있다.The showroom providing unit 640 according to an embodiment includes a showroom generating unit 641, a user character generating unit 646, a user item generating unit 642, a virtual item generating unit 643, a user item DB 644, and It may include a virtual item DB (645).
일 실시예에 따른 쇼룸 생성부(641)는 유저 아이템 생성부(642) 및 가상 아이템 생성부(643)로부터 생성된 유저 아이템 및 가상 아이템 정보를 전달받아 쇼룸을 생성할 수 있다. The showroom generation unit 641 according to an embodiment may generate a showroom by receiving user item and virtual item information generated from the user item generation unit 642 and the virtual item generation unit 643.
일 실시예에 따른 유저 캐릭터 생성부(646)는 사용자 정보 제공부(630)의 사용자 정보 DB(632)로부터 사용자 정보를 수신하고, 사용자 정보를 기초로 유저 캐릭터를 생성하여, 생성된 유저 캐릭터 정보를 쇼룸 생성부(631)에 전달할 수 있다.The user character generation unit 646 according to an embodiment receives user information from the user information DB 632 of the user information providing unit 630, generates a user character based on the user information, and generates user character information. May be transmitted to the showroom generation unit 631.
일 실시예에 따른 유저 아이템 생성부(642)는 사용자 정보 제공부(630)의 활동 정보 DB(631)로부터 사용자 활동 정보를 수신하고, 사용자 활동 정보를 기초로 유저 아이템을 생성하며, 생성된 유저 아이템 정보를 쇼룸 생성부(641)에 전달할 수 있다.The user item generation unit 642 according to an embodiment receives user activity information from the activity information DB 631 of the user information providing unit 630, generates a user item based on the user activity information, and generates a user. Item information may be delivered to the showroom generation unit 641.
일 실시예에 따른 가상 아이템 생성부(643)는 컨텐츠 제공부(620)로부터 전달받은 객체 정보 또는 사용자 정보 제공부(630)로부터 전달받은 사용자 정보 또는 사용자 활동 정보 중 적어도 하나를 기초로 가상 아이템을 생성할 수 있다. 또한 가상 아이템 생성부(643)는 생성된 가상 아이템 정보를 쇼룸 생성부(641)로 전달할 수 있다.The virtual item creation unit 643 according to an embodiment generates a virtual item based on at least one of object information transmitted from the content providing unit 620 or user information or user activity information transmitted from the user information providing unit 630. Can be generated. In addition, the virtual item generation unit 643 may transmit the generated virtual item information to the showroom generation unit 641.
일 실시예에 따른 유저 아이템 DB(644)에는 쇼룸에 표시된 유저 아이템에 대한 정보와 각각의 유저 아이템에 대응되는 컨텐츠 또는 컨텐츠에 포함된 객체와 관련된 정보가 저장될 수 있다. The user item DB 644 according to an embodiment may store information on user items displayed in a showroom, content corresponding to each user item, or information related to an object included in the content.
일 실시예에 따른 가상 아이템 DB(645)에는 쇼룸에 표시된 가상 아이템에 대한 정보와 각각의 가상 아이템에 대응되는 컨텐츠 또는 컨텐츠에 포함된 객체와 관련된 정보가 저장될 수 있다.The virtual item DB 645 according to an embodiment may store information on virtual items displayed in a showroom, content corresponding to each virtual item, or information related to an object included in the content.
도 13에 도시된 바와 같이, 본 발명의 일 실시예에 따른 가상 쇼룸 생성 방법을 수행하는 컴퓨팅 장치(700)는 프로세서(701), 메모리(702), 네트워크 인터페이스(703), 디스플레이(704) 및 스토리지(705)를 포함하고 몇몇 실시예에서 시스템 버스를 더 포함할 수 있다. As shown in FIG. 13, the computing device 700 performing the virtual showroom creation method according to an embodiment of the present invention includes a processor 701, a memory 702, a network interface 703, a display 704, and Storage 705 and may further include a system bus in some embodiments.
메모리(702)에 로드 되어 저장되는 하나 이상의 인스트럭션(710, 711, 712, 713)은 프로세서(701)를 통하여 실행된다. 본 실시예에 따른 가상 쇼룸 생성 방법을 수행하는 컴퓨팅 장치(700)는 별도의 설명이 없더라도 도 1 내지 도 11을 참조하여 설명한 가상 쇼룸 생성 방법을 수행할 수 있는 점을 유의한다.One or more instructions 710, 711, 712, and 713 that are loaded and stored in the memory 702 are executed through the processor 701. Note that the computing device 700 performing the virtual showroom generation method according to the present exemplary embodiment can perform the virtual showroom generation method described with reference to FIGS. 1 to 11 even without a separate description.
네트워크 인터페이스(703)는 생성되는 가상의 쇼룸 정보를 사용자 단말로 전달할 수 있다. 또한 외부 서버로부터 컨텐츠 정보, 쇼핑몰 상품 정보를 수신할 수 있다. 상기 수신된 정보는 스토리지(705)에 저장되도록 할 수 있다.The network interface 703 may transmit the generated virtual showroom information to the user terminal. Also, content information and shopping mall product information may be received from an external server. The received information may be stored in the storage 705.
스토리지(705)는 유저 아이템 또는 가상 아이템과 관련된 사용자의 컨텐츠 이용 정보를 포함하는 활동 정보 DB(721) 및 사용자의 개인 정보가 저장된 사용자 DB(722)를 포함할 수 있다.The storage 705 may include an activity information DB 721 including user content usage information related to a user item or a virtual item, and a user DB 722 in which personal information of the user is stored.
상기 하나 이상의 인스트럭션은, 유저 캐릭터 생성 인스트럭션(710) 유저 아이템 생성 인스트럭션(711), 쇼룸 영역 디스플레이 인스트럭션(712) 및 가상 아이템 생성 인스트럭션(713)을 포함할 수 있다.The one or more instructions may include a user character creation instruction 710, a user item creation instruction 711, a showroom area display instruction 712, and a virtual item creation instruction 713.
일 실시예에서, 유저 캐릭터 생성 인스트럭션(710)이 실행됨으로써 제1 사용자 정보를 기초로 유저 아이템이 생성될 수 있다.In an embodiment, a user item may be generated based on the first user information by executing the user character creation instruction 710.
일 실시예에서, 유저 아이템 생성 인스트럭션(711)이 실행됨으로써 제1 사용자 활동 정보를 기초로 유저 아이템이 생성될 수 있다.In an embodiment, a user item may be generated based on the first user activity information by executing the user item creation instruction 711.
일 실시예에서, 쇼룸 영역 디스플레이 인스트럭션(712)이 실행됨으로써 유저 아이템이 표시된 가상의 쇼룸 영역이 디스플레이 될 수 있다.In one embodiment, a virtual showroom area in which a user item is displayed may be displayed by executing the showroom area display instruction 712.
일 실시예에서, 가상 아이템 표시 인스트럭션(713)이 실행됨으로써 제2 컨텐츠 정보를 기초로 생성된 가상 아이템이 상기 쇼룸 영역에 표시될 수 있다.In an embodiment, a virtual item generated based on the second content information may be displayed in the showroom area by executing the virtual item display instruction 713.
이하, 본 명세서에서는 본 발명에 따라 인공지능(AI: Artificial Intelligence) 기능이 내장된 스마트 장난감(또는 인공지능 장난감)을 통하여 종래 장난감이 가지고 있는 한계를 벗어나 사람이나 다른 개체(entity)와 (데이터) 커뮤니케이션이 가능하도록 하는데, 이를 위해 다양한 센서가 포함된 센서부를 스마트 장난감에 내장하거나 부착하여 그를 통해 수집한 센싱 정보와 그에 기초한 인공지능(AI) 기능을 활용하여, 장난감 고유의 기능인 정서적, 심리적 안정감 제공을 더욱 증대하고 일상생활에서 다양한 상황에서 다양한 역할을 수행하는 방법 등에 대해 기술한다. 더불어, 본 발명에 따른 스마트 캐릭터 장난감은 적어도 일부 구성이 탈/부착 가능한 구조로 가지도록 구조화하고, 이를 통해 다양한 형상의 외관으로 변신 가능한 스마트 장난감을 구현하는 방법에 대해서도 기술한다.Hereinafter, in the present specification, through a smart toy (or artificial intelligence toy) with an artificial intelligence (AI) function built-in according to the present invention, a person or other entity and (data) To enable communication, a sensor unit including various sensors is built-in or attached to a smart toy, and the sensing information collected through it and the artificial intelligence (AI) function based thereon are utilized to provide emotional and psychological stability, which is a unique function of the toy. It will further increase the skills and describe how to play various roles in various situations in daily life. In addition, the smart character toy according to the present invention is structured to have at least some components in a detachable/attachable structure, and a method of implementing a smart toy that can be transformed into various shapes through this is also described.
도 14는 본 발명의 일실시예에 따른 스마트 캐릭터 장난감이 포함된 서비스 시스템(1100)의 개략도이다.14 is a schematic diagram of a service system 1100 including a smart character toy according to an embodiment of the present invention.
도 14를 참조하면, 스마트 캐릭터 장난감(1110)이 포함된 서비스 시스템(1100)은, 상기 스마트 캐릭터 장난감(1110)와 프로세서(1130)를 포함하여 구성된다. 다만, 본 발명에 따른 서비스 시스템(1100)의 구성은 이에 한정되는 것은 아니다. 실시예에 따라, 상기 서비스 시스템(1100)은 도 14에 도시된 바와 같이, 단말(1120), 3D(3 Dimensional) 프린터(1140) 등 중 적어도 하나 이상을 더 포함하여 구현될 수도 있다. Referring to FIG. 14, a service system 1100 including a smart character toy 1110 includes the smart character toy 1110 and a processor 1130. However, the configuration of the service system 1100 according to the present invention is not limited thereto. According to an embodiment, the service system 1100 may further include at least one of a terminal 1120 and a 3D (3D) printer 1140 as shown in FIG. 14.
이하 본 명세서에서는 편의상 상기 단말(1120)과 3D 프린터(1140)가 포함된 서비스 시스템(1100)을 예로 하여 설명한다.Hereinafter, for convenience, the service system 1100 including the terminal 1120 and the 3D printer 1140 will be described as an example.
한편, 도 14의 각 구성요소 사이에는 적어도 하나의 통신 프로토콜을 이용하는 통신 네트워크를 통하여 데이터 커뮤니케이션이 이루어질 수 있다. 다시 말해, 상기 서비스 시스템(1100) 내에 각 구성요소는 하나의 통신 프로토콜을 이용하여 상호간에 데이터 커뮤니케이션을 수행할 수도 있고 그렇지 않을 수도 있다. 전자의 경우, 상기 하나의 통신 프로토콜은 상기 스마트 캐릭터 장난감(1110)이 포함된 서비스 시스템(1100)을 위한 전용 프로토콜일 수 있다. 다만, 상기 전용 프로토콜이 별도로 정의될 필요는 없으며, 기존의 통신 프로토콜에서 결정될 수 있다.Meanwhile, data communication may be performed between each component of FIG. 14 through a communication network using at least one communication protocol. In other words, each component in the service system 1100 may or may not perform data communication with each other using one communication protocol. In the former case, the one communication protocol may be a dedicated protocol for the service system 1100 including the smart character toy 1110. However, the dedicated protocol need not be defined separately, and may be determined from an existing communication protocol.
상기 스마트 캐릭터 장난감(1110)은, 적어도 하나 이상의 센서와 AI 기능 수행을 위한 모듈을 내장하거나 부착할 수 있다. 실시예에 따라, 상기 스마트 캐릭터 장난감(1110)은 적어도 하나의 단말(1120) 및/또는 적어도 하나의 프로세서(1130)와 통신 네트워크를 통하여 데이터 커뮤니케이션을 수행할 수 있다. 이러한 스마트 캐릭터 장난감(1110)의 구조, 기능 등에 대해서는 본 명세서 내 해당 부분에서 상세히 후술한다.The smart character toy 1110 may incorporate or attach at least one sensor and a module for performing an AI function. According to an embodiment, the smart character toy 1110 may perform data communication with at least one terminal 1120 and/or at least one processor 1130 through a communication network. The structure, function, etc. of the smart character toy 1110 will be described later in detail in a corresponding part of the present specification.
상기 단말(1130)은, 상기 스마트 캐릭터 장난감(1110) 및/또는 상기 프로세서(1130)와 데이터 커뮤니케이션할 수 있다. The terminal 1130 may communicate data with the smart character toy 1110 and/or the processor 1130.
실시예에 따라, 상기 단말(1130)에 디스플레이가 구비된 경우에는, 상기 스마트 캐릭터 장난감(1110)에서 수신한 데이터를 사람이 볼 수 있도록 출력할 수 있다. According to an embodiment, when the terminal 1130 is equipped with a display, data received from the smart character toy 1110 may be output so that a person can see it.
실시예에 따라, 상기 단말(1130)은 상기 스마트 캐릭터 장난감(1110)으로부터 수신한 데이터를 그를 대신하여 상기 프로세서(1130)로 업로드하고, 데이터를 다운로드하여 상기 스마트 캐릭터 장난감(1110)으로 전달할 수 있다. According to an embodiment, the terminal 1130 may upload data received from the smart character toy 1110 to the processor 1130 instead of it, download the data, and transmit the data to the smart character toy 1110. .
실시예에 따라, 상기 스마트 캐릭터 장난감(1110)에서 특정 신호가 수신되면, 그에 반응하여 특정 기능을 수행할 수 있다. 예컨대, 상기에서, 단말(1130)이 부모 소유이고 상기 스마트 캐릭터 장난감(1110)으로부터 정지영상 또는 동영상 데이터 수신되면, 그를 화면을 통하여 출력하고, 긴급 호출 신호가 수신되면, 그에 상응하여 부모가 상기 긴급 호출 신호에 따른 상황을 빠르게 인식할 수 있도록 조치를 할 수 있다. 이러한 단말(1120)의 동작은 미리 정의되거나 사용자의 설정에 따를 수 있으며, 상기 스마트 캐릭터 장난감(1110)의 신호에 정의되어 포함될 수 있다. 이때, 본 발명의 권리범위는 전술한 실시예나 설명에 의해 한정되는 것이 아님을 미리 밝혀 둔다.According to an embodiment, when a specific signal is received from the smart character toy 1110, a specific function may be performed in response thereto. For example, in the above, when the terminal 1130 is owned by a parent and still image or video data is received from the smart character toy 1110, it is output through the screen, and when an emergency call signal is received, the parent Actions can be taken to quickly recognize the situation according to the call signal. The operation of the terminal 1120 may be defined in advance or according to a user's setting, and may be defined and included in the signal of the smart character toy 1110. At this time, it should be noted in advance that the scope of the present invention is not limited by the above-described embodiments or description.
상기 프로세서(1130)는 실시예에 따라 다양한 기능을 수행할 수 있다. 예컨대, 상기 프로세서(1130)가 서버(server)와 같은 기능을 수행할 때에는, 상기 스마트 캐릭터 장난감(1110)의 데이터를 수신하여 저장하거나 그에 반응하여 제어 신호를 전송할 수 있다. 여기서, 상기 서버라 함은 클라우드 서버 등을 포함하며, 상기 스마트 캐릭터 장난감(1110)을 제공하는 제조업체나 상기 장난감을 판매하는 판매업체 등에서 제공하는 서비스 서버 등을 수 있다. The processor 1130 may perform various functions according to embodiments. For example, when the processor 1130 performs a function such as a server, it may receive and store data of the smart character toy 1110 or transmit a control signal in response thereto. Here, the server may include a cloud server, and may be a service server provided by a manufacturer providing the smart character toy 1110 or a vendor selling the toy.
본 발명의 다른 실시예에 따르면, 상기 프로세서(1130)는 홈이나 빌딩 내 전반적인 제어를 담당하는 개체이거나 홈 내 가전과 같은 특정 디바이스의 중앙연산장치(CPU: Central Processing Unit)나 제어장치일 수도 있다.According to another embodiment of the present invention, the processor 1130 may be an entity in charge of overall control in a home or a building, or may be a central processing unit (CPU) or a control device of a specific device such as a home appliance. .
상기 3D 프린터(1140)는, 상기 스마트 캐릭터 장난감(1110) 전체 또는 일부 구성을 디자인, 제조 등을 수행하는 개체이다. 본 명세서에서는 비록 3D 프린터를 예로 하여 설명하나, 이에 의해 본 발명의 권리범위가 제한되는 것은 아니다. 따라서, 상기 스마트 캐릭터 장난감(1110)의 전체 또는 일부 구성을 디자인, 제조 등을 수행 가능한 개체면 상기 3D 프린터(1140)를 대신할 수 있다.The 3D printer 1140 is an entity that designs, manufactures, etc. the entire or part of the smart character toy 1110. In the present specification, although a 3D printer is described as an example, the scope of the present invention is not limited thereto. Accordingly, the 3D printer 1140 may be substituted for the entire or partial configuration of the smart character toy 1110 as long as it is an object capable of designing, manufacturing, or the like.
한편, 상기 스마트 캐릭터 장난감(1110)이 자체적으로 수집한 데이터를 프로세싱하지 못하는 경우에는 상기 단말(1120)과 프로세서(1130) 중 적어도 하나에서 이를 처리하도록 구현할 수 있다.On the other hand, when the smart character toy 1110 cannot process the data collected by itself, at least one of the terminal 1120 and the processor 1130 may process it.
또한, 상기 단말(1120)과 프로세서(1130) 중 적어도 하나는 상기 스마트 캐릭터 장난감(1110)과의 데이터 커뮤니케이션을 위하여 어플리케이션, 프로그램 등과 같은 소프트웨어를 다운로드 받아 설치할 수도 있다.In addition, at least one of the terminal 1120 and the processor 1130 may download and install software such as an application or a program for data communication with the smart character toy 1110.
상기 단말(1130)로, 단말 장치, 터미널(Terminal), MS(Mobile Station), MSS(Mobile Subscriber Station), SS(Subscriber Station), AMS(Advanced Mobile Station), WT(Wireless terminal), MTC(Machine-Type Communication) 장치, M2M(Machine-to-Machine) 장치, D2D 장치(Device-to-Device) 장치 중 적어도 하나를 일실시예로 할 수 있다. To the terminal 1130, a terminal device, a terminal, a mobile station (MS), a mobile subscriber station (MSS), a subscriber station (SS), an advanced mobile station (AMS), a wireless terminal (WT), a machine -Type Communication) device, a machine-to-machine (M2M) device, and at least one of a device-to-device (D2D) device may be used as an embodiment.
물론, 어디까지나 이는 예시에 불과할 뿐이며, 본 발명에서의 단말은 상술한 예시들 이외에도 현재 개발되어 상용화되었거나 또는 향후 개발될 데이터 또는 신호 전송이 가능한 모든 장치를 포함하는 개념으로 해석되어야 한다.Of course, this is only an example, and the terminal in the present invention should be interpreted as a concept including all devices capable of transmitting data or signals that are currently developed and commercialized, or to be developed in the future, in addition to the above-described examples.
더불어, 도 14에서는 설명의 편의상 하나의 단말 및 하나의 프로세서가 도시되었으나, 본 발명의 권리범위가 이에 한정되는 것은 아니다. 따라서, 본 명세서에서 단지 '단말'이라고 기술하더라도 그것은 문맥에 따라 그리고 실시예에 따라 복수의 단말들이나 복수의 프로세서들을 의미할 수도 있다. In addition, in FIG. 14, one terminal and one processor are illustrated for convenience of description, but the scope of the present invention is not limited thereto. Therefore, even if it is only described as'terminal' in this specification, it may mean a plurality of terminals or a plurality of processors depending on the context and embodiments.
한편, 상기 프로세서(1140)는, 클라우드(Cloud) 서버, IMS(IP Multimedia Subsystem) 서버, 텔레포니 어플리케이션(Telephony Application) 서버, IM(Instant Messaging) 서버, MGCF(Media Gateway Control Function) 서버, MSG(Messaging Gateway) 서버, CSCF(Call Session Control Function) 서버 등 중 어느 하나일 수 있다. Meanwhile, the processor 1140 includes a cloud server, an IP Multimedia Subsystem (IMS) server, a telephony application server, an instant messaging (IM) server, a media gateway control function (MGCF) server, and a messaging (MSG) server. Gateway) server, CSCF (Call Session Control Function) server, and the like.
한편, 상기 단말(1130) 또는/및 서비스 서버(1140)는 PC(Personal Computer), 노트북 컴퓨터, 태블릿 PC(Tablet Personal Computer) 등 데이터 커뮤니케이션이 가능한 개체를 지칭하는 장치로 구현될 수도 있다.Meanwhile, the terminal 1130 or/and the service server 1140 may be implemented as a device indicating an entity capable of data communication such as a personal computer (PC), a notebook computer, and a tablet personal computer (PC).
한편, 유/무선 통신 네트워크는 상기 서비스 시스템(1100)의 구성요소들 사이의 센싱 데이터 외에 텍스트(Text), 디지털 이미지, 디지털 영상, 디지털 음성 정보 등 다양한 데이터 커뮤니케이션이 가능하도록 지원하는 데이터 통신망을 의미하며, 그 종류에는 특별히 제한되지 않는다.Meanwhile, the wired/wireless communication network refers to a data communication network that supports various data communication such as text, digital image, digital image, and digital audio information in addition to sensing data between components of the service system 1100. And, the kind is not particularly limited.
예를 들어, 상기 유/무선 통신 네트워크는, 인터넷 프로토콜(IP)을 통하여 대용량 데이터 커뮤니케이션을 지원하는 아이피(IP: Internet Protocol)망 또는 서로 다른 IP 망을 통합한 올 아이피(All IP) 망일 수 있다. For example, the wired/wireless communication network may be an IP (Internet Protocol) network supporting large-capacity data communication through Internet Protocol (IP) or an All IP network integrating different IP networks. .
또한, 상기 유/무선 통신 네트워크는 유선망, Wibro(Wireless Broadband)망, WCDMA를 포함하는 이동 통신망, HSDPA(High Speed Downlink Packet Access)망 및 LTE(Long Term Evolution) 망을 포함하는 이동 통신망, LTE advanced(LTE-A)를 포함하는 이동 통신망, 위성 통신망 및 와이파이(Wi-Fi)망 중 하나이거나 또는 이들 중 적어도 하나 이상의 결합에 의하여 형성될 수도 있다.In addition, the wired/wireless communication network includes a wired network, a wireless broadband (Wibro) network, a mobile communication network including WCDMA, a high speed downlink packet access (HSDPA) network, and a mobile communication network including a long term evolution (LTE) network, and LTE advanced. It may be formed by one of a mobile communication network including (LTE-A), a satellite communication network, and a Wi-Fi network, or a combination of at least one or more of them.
도 15는 본 발명의 일실시예에 따른 상기 스마트 캐릭터 장난감(1110)의 구성 블록도이고, 도 16은 본 발명의 일실시예에 따른 상기 서비스 시스템(1100) 내 상기 스마트 캐릭터 장난감(1110) 데이터 처리 방법을 설명하기 위해 도시한 순서도이고, 도 17은 본 발명의 일실시예에 따른 상기 스마트 캐릭터 장난감(1110)의 외관 및 구성을 설명하기 위해 도시한 도면이고, 도 18 내지 20은 본 발명의 일실시예에 따라 구현되어 변신 가능한 구조를 가진 스마트 캐릭터 장난감(1110)을 설명하기 위해 도시한 도면이다.15 is a block diagram showing the configuration of the smart character toy 1110 according to an embodiment of the present invention, and FIG. 16 is a data of the smart character toy 1110 in the service system 1100 according to an embodiment of the present invention. It is a flow chart shown to explain the processing method, Figure 17 is a view showing to explain the appearance and configuration of the smart character toy 1110 according to an embodiment of the present invention, Figures 18 to 20 are A diagram illustrating a smart character toy 1110 implemented according to an embodiment and having a transformable structure.
도 15에 도시된 스마트 캐릭터 장난감(1110)을 위한 장치의 구성은, 전술한 도 14의 스마트 캐릭터 장난감(1110), 단말(1120) 또는 프로세서(1130) 중 어느 하나의 전부 또는 그 일부이거나 별도에 존재할 수 있다. 전자의 경우, 도 15의 구성은 전술한 바와 같이, 상기 기기의 내부에 내장되거나 탈/부착 가능한 형태일 수 있다.The configuration of the device for the smart character toy 1110 shown in FIG. 15 is all or part of any one of the smart character toy 1110, the terminal 1120, or the processor 1130 of FIG. 14, or separately Can exist. In the former case, as described above, the configuration of FIG. 15 may be built in or detachable from the device.
도 15의 스마트 캐릭터 장난감(1110)을 위한 장치(1200)는, 센서부(1201), 객체 인식/추출부(1202), 객체 데이터 처리부(1203), 인공지능 데이터 처리부(1204), 서비스 제어부(1205), 메모리(1206), 출력부(1207), 데이터 통신부(1208) 등 중 적어도 하나 이상을 포함한다. 한편, 상기 메모리(1206)는 예를 들어, 스마트 캐릭터 장난감(1110)에 내장될 수도 있으나, 외부 메모리(미도시)를 이용하여 대체될 수도 있다.The device 1200 for the smart character toy 1110 of FIG. 15 includes a sensor unit 1201, an object recognition/extraction unit 1202, an object data processing unit 1203, an artificial intelligence data processing unit 1204, and a service control unit ( 1205), a memory 1206, an output unit 1207, a data communication unit 1208, and the like. Meanwhile, the memory 1206 may be embedded in the smart character toy 1110, for example, but may be replaced by using an external memory (not shown).
본 명세서에서 '객체'라 함은 사람 즉, 대상을 포함하는 개념으로 반드시 이에 한정되는 것은 아니며, 사람과 같은 생물뿐만 아니라 가구, 가전, 기타 기기 등과 같은 비생물 또는 무생물도 포함하는 개념이다.In the present specification, the term'object' is a concept including a person, that is, an object, and is not limited thereto, and includes not only living things such as humans, but also non-living or inanimate objects such as furniture, home appliances, and other devices.
이하에서는 도 15의 스마트 캐릭터 장난감을 위한 장치(1200)의 각 구성을 도 16의 스마트 캐릭터 장난감(1110) 데이터 처리 방법과 함께 설명한다. 여기서, 상기 스마트 캐릭터 장난감(1110) 데이터 처리 방법이라 함은 비즈니스 모델로서 상기 스마트 캐릭터 장난감(1110)을 통한 서비스 방법도 포함하는 의미로 볼 수 있다.Hereinafter, each configuration of the device 1200 for a smart character toy of FIG. 15 will be described together with a data processing method of the smart character toy 1110 of FIG. 16. Here, the data processing method of the smart character toy 1110 may be regarded as a business model and includes a service method through the smart character toy 1110.
도 15와 16을 참조하면, 스마트 캐릭터 장난감(1110) 데이터 처리 방법은, 다음과 같이.15 and 16, the smart character toy 1110 data processing method is as follows.
먼저, 센서부(1201)는 각종 센서를 이용하여 센싱 데이터를 수집하고(S1301), 객체 인식/추출부(1202)는 이렇게 수집된 센서부(1201)의 센싱 데이터를 수신하여 그로부터 객체를 인식하고 인식한 객체에 대한 데이터를 추출한다(S1302).First, the sensor unit 1201 collects sensing data using various sensors (S1301), and the object recognition/extraction unit 1202 receives and recognizes the object from the sensing data collected in this way. Data on the recognized object is extracted (S1302).
서비스 제어부(1205)는 스마트 캐릭터 장난감(1110)의 서비스 모드를 판단하고(S1303), 인공지능 데이터 처리부(1204)를 제어하여 상기 판단된 서비스 모드에 따른 지능형 데이터를 처리하고 출력부(1207)를 통해 출력한다(S1305).The service control unit 1205 determines the service mode of the smart character toy 1110 (S1303), controls the artificial intelligence data processing unit 1204 to process intelligent data according to the determined service mode, and outputs the output unit 1207. It is output through (S1305).
상기에서, 센서부(1201)는 편의상 하나의 구성으로 표현되었으나, 스마트 캐릭터 장난감(1110)에 내장 또는 그를 위한 하나 또는 그 이상의 센서들 또는 그 조합으로 구현될 수 있다.In the above, the sensor unit 1201 is expressed as a single component for convenience, but may be built into the smart character toy 1110 or implemented as one or more sensors for the same, or a combination thereof.
예컨대, 센서부(1201)는 스마트 캐릭터 장난감(1110) 내 정보, 스마트 캐릭터 장난감(1110) 또는 객체(대상)를 둘러싼 주변 환경 정보 및 객체 정보 중 적어도 하나를 센싱하고, 이에 대응하는 센싱 신호를 발생시킨다. 서비스 제어부(1205)는 이러한 센싱 신호에 기초하여, 스마트 캐릭터 장난감(1110)의 구동 또는 동작을 제어하거나, 스마트 캐릭터 장난감(1110)에 설치된 응용프로그램과 관련된 데이터 처리, 기능 또는 동작을 수행할 수 있다. For example, the sensor unit 1201 senses at least one of information in the smart character toy 1110, information about the surrounding environment surrounding the smart character toy 1110 or the object (object), and generates a sensing signal corresponding thereto. Let it. The service control unit 1205 may control the driving or operation of the smart character toy 1110 or perform data processing, functions, or operations related to an application program installed in the smart character toy 1110 based on such a sensing signal. .
센서부(1201)는 근접센서(proximity sensor), 조도센서(illumination sensor), 터치센서(touch sensor), 가속도센서(acceleration sensor), 자기센서(magnetic sensor), 중력센서(G-sensor), 자이로스코프센서(gyroscope sensor), 모션센서(motion sensor), RGB 센서, 적외선센서(IR: infrared sensor), 지문인식센서(finger scan sensor), 초음파센서(ultrasonic sensor), 광센서(optical sensor, 예를 들어, 카메라를 포함), 마이크로폰 (microphone), 배터리게이지(battery gauge), 환경센서(기압계, 습도계, 온도계, 방사능감지센서, 열감지센서, 가스감지센서 등), 화학센서(전자코, 헬스케어센서, 생체인식센서 등) 중 적어도 하나 이상을 포함할 수 있다. 한편, 본 명세서에 개시된 스마트 캐릭터 장난감(1110)은, 상기한 센서들 중 적어도 둘 이상의 센서들에 의해 센싱되는 정보들을 조합하여 활용할 수도 있다.The sensor unit 1201 includes a proximity sensor, an illumination sensor, a touch sensor, an acceleration sensor, a magnetic sensor, a gravity sensor, and a gyro. Scope sensor, motion sensor, RGB sensor, infrared sensor (IR), finger scan sensor, ultrasonic sensor, optical sensor, e.g. For example, including camera), microphone, battery gauge, environmental sensor (barometer, hygrometer, thermometer, radiation sensor, heat sensor, gas sensor, etc.), chemical sensor (electronic nose, healthcare Sensor, biometric sensor, etc.). Meanwhile, the smart character toy 1110 disclosed in the present specification may be utilized by combining information sensed by at least two or more of the above-described sensors.
상기 센서부(1201)는 스마트 캐릭터 장난감(1110) 또는 객체의 위치(또는 현재 위치)를 획득하기 위하여 위치정보모듈을 더 포함할 수 있으며, GPS(Global Positioning System) 또는 Wi-Fi(Wireless-Fidelity) 모듈을 이용할 수 있다. 예를 들어, 스마트 캐릭터 장난감(1110)은 GPS모듈을 활용하면, GPS 위성에서 보내는 신호를 이용하여 스마트 캐릭터 장난감(1110)의 위치를 획득할 수 있다. 다른 예로서, 스마트 캐릭터 장난감(1110)는 Wi-Fi모듈을 활용하면, Wi-Fi모듈과 무선 신호를 송신 또는 수신하는 무선 AP(Wireless Access Point)의 정보에 기반하여, 스마트 캐릭터 장난감(1110)의 위치를 획득할 수 있다. 필요에 따라서, 위치정보모듈은 치환 또는 부가적으로 스마트 캐릭터 장난감(1110)의 위치에 관한 데이터를 얻기 위해 무선 통신부의 다른 부 중 어느 기능을 수행할 수 있다. 상기 위치정보모듈의 하나로 초음파 센서가 이용될 수 있는데 이는 초음파를 이용하여, 객체의 위치정보를 획득할 수 있다.The sensor unit 1201 may further include a location information module to acquire the location (or current location) of the smart character toy 1110 or the object, and may include a global positioning system (GPS) or a wireless-fidelity (Wi-Fi) module. ) Module can be used. For example, when the smart character toy 1110 utilizes a GPS module, the location of the smart character toy 1110 may be obtained using a signal transmitted from a GPS satellite. As another example, the smart character toy 1110 uses a Wi-Fi module, based on information of a wireless access point (AP) that transmits or receives a Wi-Fi module and a wireless signal, and the smart character toy 1110 You can get the location of. If necessary, the location information module may perform any function among other parts of the wireless communication unit in order to obtain data on the location of the smart character toy 1110 as a substitute or additionally. As one of the location information modules, an ultrasonic sensor may be used, which may obtain location information of an object by using ultrasonic waves.
한편, 상기 센서부의 하나로, 카메라는 카메라 센서(예를 들어, CCD, CMOS 등), 포토 센서(또는 이미지 센서) 및 레이저 센서 중 적어도 하나를 포함한다. 카메라와 레이저 센서는 서로 조합되어, 3차원 입체영상에 대한 감지대상의 터치를 감지할 수 있다. 포토 센서는 디스플레이 소자에 적층될 수 있는데, 이러한 포토 센서는 터치 스크린에 근접한 감지대상의 움직임을 스캐닝하도록 이루어진다. 보다 구체적으로, 포토 센서는 행/열에 Photo Diode와 TR(Transistor)를 실장하여 Photo Diode에 인가되는 빛의 양에 따라 변화되는 전기적 신호를 이용하여 포토 센서 위에 올려지는 내용물을 스캔한다. 즉, 포토 센서는 빛의 변화량에 따른 감지대상의 좌표 계산을 수행하며, 이를 통하여 객체의 위치정보가 획득될 수 있다. 또한, 상기 카메라 센서는 객체의 현재 상태 등에 대한 이미지 데이터를 획득할 수 있으며, 이를 통해 미리 등록된 기기로 상기 획득한 이미지 데이터를 전송할 수도 있다.Meanwhile, as one of the sensor units, the camera includes at least one of a camera sensor (eg, CCD, CMOS, etc.), a photo sensor (or image sensor), and a laser sensor. The camera and the laser sensor are combined with each other to detect a touch of a sensing target for a 3D stereoscopic image. The photosensor may be stacked on the display device, and the photosensor is configured to scan the motion of a sensing object close to the touch screen. More specifically, the photo sensor scans the contents placed on the photo sensor by mounting a photo diode and a transistor (TR) in a row/column and using an electrical signal that changes according to the amount of light applied to the photo diode. That is, the photosensor calculates the coordinates of the object to be detected according to the amount of light change, and through this, position information of the object may be obtained. In addition, the camera sensor may acquire image data on the current state of the object, and may transmit the acquired image data to a device registered in advance through this.
카메라는 촬영 모드 또는 화상통화 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부에 표시될 수 있으며, 메모리(1206)에 저장될 수 있다.The camera processes image frames of still images or moving pictures obtained by an image sensor in a photographing mode or a video call mode. The processed image frame may be displayed on the display unit and may be stored in the memory 1206.
스마트 캐릭터 장난감(1110)의 다른 면에는 다른 카메라가 더 배치될 수 있다. 상기 다른 카메라는 적어도 하나의 라인을 따라 배열되는 복수의 렌즈를 포함할 수 있다. 복수의 렌즈는 행렬 (matrix) 형식으로 배열될 수도 있다. 이러한 카메라는, "어레이(array) 카메라"로 명명될 수 있다. 상기 카메라가 어레이 카메라로 구성되는 경우, 복수의 렌즈를 이용하여 다양한 방식으로 영상을 촬영할 수 있으며, 보다 나은 품질의 영상을 획득할 수 있다.Another camera may be further disposed on the other side of the smart character toy 1110. The other camera may include a plurality of lenses arranged along at least one line. The plurality of lenses may be arranged in a matrix format. Such a camera may be referred to as an “array camera”. When the camera is configured as an array camera, an image may be photographed in various ways using a plurality of lenses, and an image of better quality may be obtained.
스마트 캐릭터 장난감(1110)에는 객체가 사람인 경우, 지문을 인식하는 지문인식센서가 구비될 수 있으며, 서비스 제어부(1205)는 지문인식센서를 통하여 감지되는 지문정보를 인증수단으로 이용할 수 있다. 상기 지문인식센서는 디스플레이부 또는 사용자 입력부에 내장될 수 있다.When the object is a person, the smart character toy 1110 may be provided with a fingerprint recognition sensor that recognizes a fingerprint, and the service control unit 1205 may use fingerprint information detected through the fingerprint recognition sensor as an authentication means. The fingerprint recognition sensor may be embedded in a display unit or a user input unit.
출력부(1207)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있으며, 디스플레이, 음향출력부, 햅팁부, 광출력부 중 적어도 하나를 포함할 수 있다. 디스플레이부는 터치 센서와 함께 터치 스크린을 구현할 수 있고, 이러한 터치 스크린은, 스마트 캐릭터 장난감(1110)과 객체 사이의 입력 인터페이스를 제공하는 사용자 입력부로써 기능함과 동시에, 스마트 캐릭터 장난감(1110)과 객체 사이의 출력 인터페이스를 제공할 수 있다. The output unit 1207 may generate an output related to visual, auditory or tactile sense, and may include at least one of a display, an audio output unit, a hap tip unit, and a light output unit. The display unit can implement a touch screen together with a touch sensor, and this touch screen functions as a user input unit providing an input interface between the smart character toy 1110 and the object, and at the same time, between the smart character toy 1110 and the object. Can provide an output interface of.
음향 출력부는 호신호 수신, 통화모드 또는 녹음모드, 음성인식모드, 방송수신모드 등에서 무선 통신부로부터 수신되거나 메모리(1206)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력부는 스마트 캐릭터 장난감(1110)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력부에는 리시버(receiver), 스피커, 버저(buzzer) 등이 포함될 수 있다. 스마트 캐릭터 장난감(1110) 바디에는 다른 음향 출력부가 추가로 배치될 수 있다. 상기 다른 음향 출력부는 기존 음향 출력부와 함께 스테레오 기능을 구현할 수 있다.The sound output unit may output audio data received from the wireless communication unit or stored in the memory 1206 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like. The sound output unit also outputs sound signals related to functions (eg, a call signal reception sound, a message reception sound, etc.) performed by the smart character toy 1110. The sound output unit may include a receiver, a speaker, and a buzzer. Another sound output unit may be additionally disposed on the body of the smart character toy 1110. The other sound output unit may implement a stereo function together with the existing sound output unit.
햅틱부(haptic module)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱부가 발생시키는 촉각 효과의 대표적인 예로는 진동이 될 수 있다. 햅틱부에서 발생하는 진동의 세기와 패턴 등은 사용자의 선택 또는 서비스 제어부(1205)의 설정에 의해 제어될 수 있다. 이러한 햅틱부는 스마트 캐릭터 장난감(1110)의 구성 태양에 따라 2개 이상이 구비될 수 있다. The haptic module generates various tactile effects that the user can feel. A typical example of the tactile effect generated by the haptic unit may be vibration. The intensity and pattern of vibration generated by the haptic unit may be controlled by user selection or setting of the service control unit 1205. Two or more of these haptic units may be provided depending on the configuration aspect of the smart character toy 1110.
광출력부는 스마트 캐릭터 장난감(1110)의 광원의 빛을 이용하여 이벤트 발생을 알리기 위한 신호를 출력한다. 광출력부가 출력하는 신호는 스마트 캐릭터 장난감(1110)에서 단색이나 복수 색의 빛을 발광함에 따라 구현되고, 이러한 신호 출력은 객체나 등록된 기기 사용자의 이벤트 확인을 감지함에 의하여 종료될 수 있다. The light output unit outputs a signal for notifying the occurrence of an event using light from the light source of the smart character toy 1110. The signal output by the light output unit is implemented as the smart character toy 1110 emits light of a single color or multiple colors, and the signal output may be terminated by detecting an event confirmation of an object or a registered device user.
출력부(1207)의 하나로, 디스플레이부는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다. As one of the output units 1207, the display unit is a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), It may include at least one of a flexible display, a 3D display, and an e-ink display.
마이크로폰은 사용자의 음성, 기타 소리 등을 입력 받도록 이루어진다. 마이크로폰은 복수의 개소에 구비되어 스테레오 음향을 입력 받도록 구성될 수 있다.The microphone is configured to receive the user's voice and other sounds. The microphone may be provided in a plurality of locations and configured to receive stereo sound.
인터페이스부(미도시)는 스마트 캐릭터 장난감(1110)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부는, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 외부 메모리 카드 포트, 식별부가 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O 포트, 이어폰 포트 중 적어도 하나를 포함할 수 있다. 스마트 캐릭터 장난감(1110)에서는, 상기 인터페이스부에 외부 기기가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 적절할 제어를 수행할 수 있다.The interface unit (not shown) serves as a passage for various types of external devices connected to the smart character toy 1110. These interface units include a wired/wireless headset port, an external charger port, a wired/wireless data port, an external memory card port, a port for connecting a device equipped with an identification unit, an audio input/output (I/O) port, and a video I/O. It may include at least one of a port and an earphone port. In the smart character toy 1110, in response to the external device being connected to the interface unit, appropriate control related to the connected external device may be performed.
인터페이스부는 스마트 캐릭터 장난감(1110)에 연결되는 모든 외부 기기와의 통로 역할을 한다. 인터페이스부는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 스마트 캐릭터 장난감(1110) 내부의 각 구성요소에 전달하거나, 스마트 캐릭터 장난감(1110) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트(port), 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드 포트, 식별모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O 포트(port), 이어폰 포트 등이 인터페이스부에 포함될 수 있다. The interface unit serves as a passage for all external devices connected to the smart character toy 1110. The interface unit receives data from an external device, receives power, and transmits it to each component inside the smart character toy 1110, or transmits data inside the smart character toy 1110 to an external device. For example, a wired/wireless headset port, an external charger port, a wired/wireless data port, a memory card port, a port to connect a device equipped with an identification module, an audio input/output (I/O) port, a video An I/O port, an earphone port, and the like may be included in the interface unit.
전원공급부(미도시)는 서비스 제어부(1205)의 제어 하에서, 외부의 전원, 내부의 전원을 인가받아 스마트 캐릭터 장난감(1110)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원공급부는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체 가능한 형태의 배터리가 될 수 있다. 또한, 전원공급부는 연결포트를 구비할 수 있으며, 연결포트는 배터리의 충전을 위하여 전원을 공급하는 외부 충전기가 전기적으로 연결되는 인터페이스의 일 예로서 구성될 수 있다. 다른 예로서, 전원공급부는 상기 연결포트를 이용하지 않고 무선방식으로 배터리를 충전하도록 이루어질 수 있다.The power supply unit (not shown) receives external power and internal power under the control of the service control unit 1205 to supply power to each of the components included in the smart character toy 1110. The power supply unit includes a battery, and the battery may be a built-in battery or a replaceable battery. In addition, the power supply unit may include a connection port, and the connection port may be configured as an example of an interface to which an external charger supplying power for charging the battery is electrically connected. As another example, the power supply unit may be configured to charge the battery in a wireless manner without using the connection port.
사용자 입력부(미도시)는 사용자로부터 정보를 입력받기 위한 것으로서, 사용자 입력부를 통해 정보가 입력되면, 서비스 제어부(1205)는 입력된 정보에 대응되도록 스마트 캐릭터 장난감(1110)의 동작을 제어할 수 있다. The user input unit (not shown) is for receiving information from the user, and when information is input through the user input unit, the service control unit 1205 may control the operation of the smart character toy 1110 to correspond to the input information. .
메모리(1206)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광 디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 스마트 캐릭터 장난감(1110)는 인터넷상에서 상기 메모리(1206)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작될 수도 있다. The memory 1206 is a flash memory type, a hard disk type, a solid state disk type, an SDD type, a multimedia card micro type. ), card-type memory (e.g., SD or XD memory), random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read (EEPROM) -only memory), programmable read-only memory (PROM), magnetic memory, magnetic disk, and optical disk. The smart character toy 1110 may be operated in connection with a web storage that performs a storage function of the memory 1206 on the Internet.
스마트 캐릭터 장난감(1110)은, 도 17와 같이, 각종 전자부품들을 수용하는 내부 공간을 마련하도록 구성될 수도 있다. The smart character toy 1110 may be configured to provide an internal space accommodating various electronic components, as shown in FIG. 17.
인터페이스부는 스마트 캐릭터 장난감(1110)를 외부기기와 연결시킬 수 있는 통로가 된다. 예를 들어, 인터페이스부는 다른 장치(예를 들어, 이어폰, 외장 스피커)와의 연결을 위한 접속단자, 근거리 통신을 위한 포트[예를 들어, 적외선 포트(IrDA Port), 블루투스 포트(Bluetooth Port), 무선 랜 포트 등], 또는 인공지능 캐릭터 장난감(1110)에 전원을 공급하기 위한 전원공급단자 중 적어도 하나일 수 있다. The interface unit becomes a path through which the smart character toy 1110 can be connected to an external device. For example, the interface unit is a connection terminal for connection with other devices (eg, earphones, external speakers), a port for short-range communication (eg, an infrared port (IrDA Port), a Bluetooth port), a wireless device. LAN port, etc.], or at least one of a power supply terminal for supplying power to the artificial intelligence character toy 1110.
객체 인식 및 추출부(1202)는 전술한 센서부(1201)를 통하여 센싱된 데이터로부터 객체를 인지하고 상기 인지한 객체와 관련된 적어도 하나 이상의 센서를 통하여 센싱된 데이터를 추출한다.The object recognition and extraction unit 1202 recognizes an object from data sensed through the above-described sensor unit 1201 and extracts data sensed through at least one sensor related to the recognized object.
객체 데이터 처리부(1203)는 상기 객체 인식 및 추출부(1202)에서 추출된 객체 데이터를 가공한다.The object data processing unit 1203 processes the object data extracted by the object recognition and extraction unit 1202.
인공지능 데이터 처리부(1204)는 인공 지능 모듈을 포함하고, 상기 인공지능 모듈을 통하여 상기 수집된 센서 데이터에 기초하여 상기 스마트 캐릭터 장난감(1110)의 출력 데이터를 생성한다. 상기 인공지능 모듈은, 빅데이터 모듈을 포함하여, 상기 센싱된 데이터와 상기 인지된 객체의 오디오 데이터를 포함한 입력 데이터를 빅데이터 처리하고, 빅데이터 처리된 데이터로부터 상기 객체와의 커뮤니케이션을 위한 서비스 모드에 관한 지능형 데이터를 포함한 출력 데이터를 생성할 수 있다. 상기에서, 생성되는 지능형 데이터는, 상기 서비스 모드에 따라, 대화형 데이터, 알림 데이터 및 연동된 기기에 대한 제어 데이터 중 적어도 하나를 포함할 수 있다. 상기 서비스 모드는, 대화 서비스 모드, 알림 서비스 모드, 기기 제어 서비스 모드 및 객체 안전 서비스 모드 중 적어도 하나일 수 있다.The artificial intelligence data processing unit 1204 includes an artificial intelligence module, and generates output data of the smart character toy 1110 based on the collected sensor data through the artificial intelligence module. The artificial intelligence module, including a big data module, processes input data including the sensed data and audio data of the recognized object with big data, and a service mode for communication with the object from the big data processed data It can generate output data including intelligent data about. In the above, the generated intelligent data may include at least one of interactive data, notification data, and control data for a linked device according to the service mode. The service mode may be at least one of a conversation service mode, a notification service mode, a device control service mode, and an object safety service mode.
상기 서비스 제어부(1205)는, 스마트 캐릭터 장난감(1110)의 동작 전반을 제어한다. The service control unit 1205 controls overall operations of the smart character toy 1110.
한편, 상기 스마트 캐릭터 장난감(1110)은, 도 17와 같이, 분리 가능한 구조(예를 들어, 구체관절 형태)로 적어도 둘 이상의 파트로 구분되고, 제1 파트는 상기 센서부와 출력부의 적어도 일부가 내장되고, 제2 파트는 적어도 상기 인공지능 모듈을 포함한 데이터 처리부와 제어부를 포함할 수 있다. 여기서, 상기 제1 파트에 내장된 상기 센서부의 적어도 일부는, 시각과 청각과 관련된 센서가 포함되어, 오디오 데이터, 이미지 데이터 및 비디오 데이터 중 적어도 하나 이상을 센싱할 수 있다. 상기 제1 파트에 내장된 상기 출력부의 적어도 일부는, 스피커와 마이크로폰 중 적어도 하나를 포함하고, 상기 스피커를 통하여 상기 생성된 출력 데이터를 오디오 형태로 출력 및/또는 상기 마이크로폰을 통해 객체로부터 입력되는 오디오 데이터를 수신할 수 있다.On the other hand, the smart character toy 1110 is divided into at least two or more parts in a detachable structure (for example, a spherical joint form), as shown in FIG. 17, and the first part includes at least a part of the sensor unit and the output unit. It is built-in, and the second part may include at least a data processing unit including the artificial intelligence module and a control unit. Here, at least a part of the sensor unit embedded in the first part includes sensors related to sight and hearing, and senses at least one of audio data, image data, and video data. At least a portion of the output unit embedded in the first part includes at least one of a speaker and a microphone, and outputs the generated output data in an audio format through the speaker and/or audio input from an object through the microphone. You can receive data.
또한, 상기 서비스 제어부(1205)는, 상기 제1 파트와 제2 파트의 분리 여부를 감지하고, 상기 제1 파트와 제2 파트가 분리되고 이후 다시 연결되면, 상기 제1 파트와 제2 파트에 내장된 구성을 인지하고, 인지된 각 파트의 구성들이 상호 연동되도록 제어할 수 있다. 상기 서비스 제어부(1205)는, 상기 제1 파트와 제2 파트가 분리되고, 상기 분리된 시간이 미리 정의된 시간 이상이면, 미리 등록된 기기로 알림 데이터를 전송하고, 상기 알림 데이터 전송에 따른 상기 미리 등록된 기기로부터 피드백이 수신되면, 상기 분리된 제1 파트의 센서를 임의 턴-온 시켜 센싱한 데이터를 상기 미리 등록된 기기로 전송할 수 있다. 상기 서비스 제어부(1205)는, 상기 제1 파트와 제2 파트가 분리될 때, 분리 직전에 상기 제1 파트에 내장된 센서를 통해 분리 직전의 센싱 데이터를 수집하고, 상기 알림 데이터 전송 이후에 상기 미리 등록된 기기로부터 수수신한 피드백에 따라 전송되는 센싱 데이터와 함께 상기 미리 등록된 기기로 전송할 수 있다.In addition, the service control unit 1205 detects whether the first part and the second part are separated, and when the first part and the second part are separated and then reconnected, the first part and the second part are connected to the first part and the second part. The built-in configuration can be recognized, and the recognized components of each part can be controlled so that they are interlocked with each other. When the first part and the second part are separated and the separated time is greater than or equal to a predefined time, the service control unit 1205 transmits notification data to a pre-registered device, and transmits the notification data according to the transmission of the notification data. When feedback is received from a pre-registered device, the sensor of the separated first part may be randomly turned on and sensed data may be transmitted to the pre-registered device. When the first part and the second part are separated, the service control unit 1205 collects sensing data immediately before separation through a sensor built in the first part immediately before separation, and after transmitting the notification data, the service control unit 1205 The sensing data transmitted according to the feedback received from the pre-registered device may be transmitted to the pre-registered device.
그 밖에, 상기 서비스 제어부(1205)는, 외국어 통역, 플랫폼과 연결하여 각종 데이터를 검색하고 제공, 스마트 캐릭터 장난감(1110)과 서비스 간의 분석 처리를 위한 스마트 센서 기능 등을 지원하고 제공할 수 있다.In addition, the service control unit 1205 may support and provide a foreign language interpretation, a smart sensor function for analyzing and processing various data in connection with a platform, and a smart character toy 1110 and a service.
한편, 상기 인공지능 데이터 처리부(1204)는 인공지능 스피커의 형태로 구현될 수 있으며, 이를 통해 인지한 객체와 대화가 가능하며, 주변 기기를 제어나 통신, 오디오북, 음악, 쇼핑, 알람, 스케쥴 등 다양한 인공지능 서비스 기능을 제공할 수 있다. 상기 인공지능 서비스의 하나로, 스마트 캐릭터 장난감(1110)에 내장된 카메라센서, 홍채인식센서, 지문인식센서, 모션(동작 인식)센서, 조명센서 등을 조합하여, 객체의 주변 상황이나 상태 등에 따라 미리 설정된 동작 등을 지능적으로 수행할 수 있으며, 상기 객체나 상기 객체와 관련하여 미리 등록된 기기에 다양한 정보를 제공할 수도 있다.On the other hand, the artificial intelligence data processing unit 1204 may be implemented in the form of an artificial intelligence speaker, through which it is possible to communicate with a recognized object, and control or communicate peripheral devices, audiobooks, music, shopping, alarms, and schedules. It can provide various artificial intelligence service functions such as. As one of the above artificial intelligence services, a camera sensor, an iris recognition sensor, a fingerprint recognition sensor, a motion (motion recognition) sensor, a lighting sensor, etc., built in the smart character toy 1110 are combined, and according to the surrounding situation or state of the object, in advance. It is possible to intelligently perform a set operation or the like, and provide various information to the object or to a device registered in advance in relation to the object.
도 21은 본 발명의 일실시예에 따른 서비스 시스템을 설명하기 위해 도시한 도면이다.21 is a diagram illustrating a service system according to an embodiment of the present invention.
도 21을 참조하면, 우측에 스마트 캐릭터 장난감(1110)이 제공되고 좌측에 스마트 캐릭터 장난감(1110)에 내장되는 인공지능 스피커에 대한 플랫폼이나 서비스들이 도시되었다. 또한, 상기 스마트 캐릭터 장난감(1110)의 인공지능 스피커를 통한 스마트 홈 구현 예시도 도시되었다.Referring to FIG. 21, a smart character toy 1110 is provided on the right side, and a platform or services for an artificial intelligence speaker embedded in the smart character toy 1110 is shown on the left. In addition, an example of implementing a smart home through an artificial intelligence speaker of the smart character toy 1110 is also shown.
이러한 인공지능 스피커는, 도 21에 도시된 바와 같이, 개방형 오픈 플랫폼(open platform)을 적용할 수 있다. 또한, 상기 인공지능 스피커는, 비콘(beacon)을 통하여 위치 서비스 기술을 적용할 수 있으며, 이를 통해 캐릭터 장남감(1110) 자체의 위치를 알 수 있어 분실 방지 서비스도 가능하다. 더불어, 상기 비콘을 통하여 상기 스마트 캐릭터 장난감(1110) 주변의 타디바이스의 위치도 실시간으로 확인할 수 있어 상기 분실 방지 서비스뿐만 아니라 타디바이스와 데이터 커뮤니케이션을 통하여 다양한 인공지능 스피커 기술을 적용할 수 있다.Such an artificial intelligence speaker, as shown in FIG. 21, can be applied to an open open platform (open platform). In addition, the artificial intelligence speaker can apply a location service technology through a beacon, and through this, the location of the character toy 1110 itself can be known, thereby enabling a loss prevention service. In addition, since the location of other devices around the smart character toy 1110 can be checked in real time through the beacon, various artificial intelligence speaker technologies can be applied through data communication with other devices as well as the loss prevention service.
본 발명에 따른 스마트 캐릭터 장난감(1110)에 내장된 인공지능 스피커는 도 21에 도시된 바와 같이, 스마트홈이나 IoT 서비스 구현을 위한 메인 디바이스(main device) 또는 서브 디바이스(sub device)로 기능할 수도 있다.The artificial intelligence speaker built into the smart character toy 1110 according to the present invention may function as a main device or a sub device for realizing a smart home or IoT service, as shown in FIG. 21. have.
그리고, 도 21에 도시된 바와 같이, 상기 스마트 캐릭터 장난감(1110)에 내장된 인공지능 스피커는 인공지능(AI) 디바이스(810) 즉, 적어도 하나의 타음성 인식 스피커와 연동하여 간접적으로 IoT 환경에 관여할 수도 있다. 예를 들어, 거실에 타음성 인식 스피커가 위치하고 상기 타음성 인식 스피커가 실질적으로 홈 내 다양한 디바이스에 대한 제어권을 가졌다고 할 때, 방에 거주하는 사용자는 상기 거실의 타음성 인식 스피커 근처로 가서 음성 명령을 하지 않더라도 방에서 상기 스마트 캐릭터 장난감(1110)에 내장된 인공지능 스피커에 음성 명령을 하면, 상기 스마트 캐릭터 장난감(1110)에 내장된 인공지능 스피커에서 상기 거실의 타음성 인식 스피커와 데이터 커뮤니케이션을 통해 상기 홈 내 다양한 디바이스에 대한 제어를 편리하게 수행할 수 있다. 이와 같이, 스마트 캐릭터 장난감(1110)에 내장된 초소형의 인공지능 스피커를 활용하여 가전 등 다양한 디바이스에 대한 제어가 가능하다. 실시예에 따라, 상기 스마트 캐릭터 장난감의 인공지능 스피커는 도 21과 같이, 타원형이나 원형으로 구현될 수 있으나 반드시 이에 한정되는 것은 아니며, 초소형 예컨대, 직경은 40 내지 50mm, 두께 1 내지 5mm 미만의 하드웨어로 구현될 수 있다.And, as shown in FIG. 21, the artificial intelligence speaker built into the smart character toy 1110 is indirectly connected to the IoT environment by interlocking with the artificial intelligence (AI) device 810, that is, at least one other speech recognition speaker. You can also get involved. For example, when the other speech recognition speaker is located in a living room and the other speech recognition speaker has substantially control over various devices in the home, the user living in the room goes near the other speech recognition speaker in the living room and Even without a command, if a voice command is given to the artificial intelligence speaker built in the smart character toy 1110 in the room, the artificial intelligence speaker built in the smart character toy 1110 performs data communication with the other speech recognition speaker in the living room. Through this, it is possible to conveniently control various devices in the home. In this way, it is possible to control various devices such as home appliances by using the ultra-small artificial intelligence speaker built into the smart character toy 1110. Depending on the embodiment, the artificial intelligence speaker of the smart character toy may be implemented in an oval or circular shape, as shown in FIG. 21, but is not limited thereto. For example, hardware having a diameter of 40 to 50 mm and a thickness of less than 1 to 5 mm Can be implemented as
실시예에 따르면, 본 발명에 따른 스마트 캐릭터 장난감(1110)에 내장된 인공지능 스피커는 사용자와 대화를 수행할 수 있으며, 음악 선곡뿐만 아니라 학습을 도와주고 음식 추천 등도 수행할 수 있다. 예를 들어, 다음과 같은 지능과 관련된 적어도 하나 이상의 동작을 수행할 수 있다 - 인공 지능 스피커는, AI 상담, 심층 질의 응답, 음성인식, 통역 기능 등을 제공하는 언어 지능, 감성, 평판 분석, 소셜 이슈 감지, 개인의 감정 기호 데이터에 관한 감성 지능, 언어, 지식학습, 예측, 조기 감지, 복합 논리 추론 등과 관한 학습 및 게임 추론 지능, 이미지 인식, 상홍, 행동 이해, 사건, 재난 감지 등에 관한 시각 지능, 미아나 분실 방지 등에 관한 위치 추적 지능, 난방, 가스, TV, 세탁기, 냉장고, 가전 등 제어에 관한 편리 지능, 화재경보, 동작감지 센서 등에 관한 감지 지능 등을 수행할 수도 있다.According to an embodiment, the artificial intelligence speaker built into the smart character toy 1110 according to the present invention can communicate with a user, aid in learning and recommend food, as well as music selection. For example, it is possible to perform at least one or more actions related to intelligence, such as-AI speaker, language intelligence, which provides AI consultation, in-depth question and answer, voice recognition, interpretation function, etc., emotion, reputation analysis, social Issue detection, emotional intelligence about personal emotion sign data, language, knowledge learning, prediction, early detection, learning about complex logic reasoning, and game reasoning intelligence, image recognition, scare, behavior understanding, event, disaster detection, etc. , Location tracking intelligence for preventing lost or lost, convenient intelligence for controlling heating, gas, TV, washing machine, refrigerator, home appliances, etc., and detection intelligence for fire alarms, motion detection sensors, etc. may be performed.
한편, 도 21에서 스마트 캐릭터 장난감(1110)의 인공지능 스피커는 타 AI 디바이스(1810)나 타디바이스 등과 전술한 도 14의 다양한 유/무선 통신 프로토콜을 이용하여 데이터 커뮤니케이션을 수행할 수 있다.Meanwhile, the artificial intelligence speaker of the smart character toy 1110 in FIG. 21 may perform data communication using various wired/wireless communication protocols of FIG. 14 such as other AI devices 1810 or other devices.
도 17을 참조하면, 전술한 스마트 캐릭터 장난감(1110)의 분리 가능한 구조의 일실시예가 도시되었다. 다만, 본 발명의 권리범위가 이에 의해 한정되는 것은 아니다.Referring to FIG. 17, an embodiment of a detachable structure of the smart character toy 1110 described above is shown. However, the scope of the present invention is not limited thereto.
도 17의 (a)를 참조하면, 스마트 캐릭터 장난감(1110)은 크게 헤드 파트(1410)와 바디 파트(1420)로 구분되고, 상기 헤드 파트(1410)에는 적어도 하나의 센서가 내장되고, 상기 바디 파트(1420)에는 인공지능 모듈 등이 포함된다.Referring to FIG. 17A, the smart character toy 1110 is largely divided into a head part 1410 and a body part 1420, and at least one sensor is built into the head part 1410, and the body Part 1420 includes an artificial intelligence module and the like.
이러한, 스마트 캐릭터 장난감(1110)의 모형은 전술한 도 14의 3D 프린터(1140)를 통하여 형성될 수 있다.Such a model of the smart character toy 1110 may be formed through the 3D printer 1140 of FIG. 14 described above.
도 17의 (a)가 분리된 형태라면, 도 17의 (b)는 결합된 형태를 도시한 것이다.If (a) of FIG. 17 is a separated form, (b) of FIG. 17 shows a combined form.
도 17을 참조하면, 상기 헤드 파트(1410)와 바디 파트(1420) 모두 전술한 구성들을 내장하기 위한 수납 공간을 구비하고, 이는 개폐 가능한 형태로 구현될 수 있다. 따라서, 스마트 캐릭터 장난감(1110)을 위한 일구성에 오류가 있거나 고장이 있는 경우에는 교체 가능하다.Referring to FIG. 17, both the head part 1410 and the body part 1420 have a storage space for embedding the above-described components, and this may be implemented in a form that can be opened or closed. Therefore, if there is an error or failure in one configuration for the smart character toy 1110, it can be replaced.
상기 헤드 파트(1410)와 바디 파트(1420)와 연결된 다른 부분은 구체관절형태로 구현되어 탈/부착될 수도 있다.Other parts connected to the head part 1410 and the body part 1420 may be implemented in a spherical joint shape and may be attached/removed.
예컨대, 도 18 내지 20을 참조하면, 상기 스마트 캐릭터 장난감(1110)은 이렇게 분리 구조를 통하여 다양하게 이용 가능하다.For example, referring to FIGS. 18 to 20, the smart character toy 1110 can be used in various ways through this separation structure.
도 18를 참조하면, 4개의 헤드 형상과 하나의 바디 그리고 팔과 다리 형상이 제공되고, 이들의 조합으로 도 19의 (a)와 (b)와 같이 다양한 스마트 캐릭터 장난감(1110)을 형성할 수 있다. 이때, 상기 바디의 일측과 양측은 모두 헤드가 탈/부착 가능한 형태로 구현될 수 있다.Referring to FIG. 18, four head shapes, one body, and arm and leg shapes are provided, and a combination of these can form various smart character toys 1110 as shown in FIGS. 19A and 19B. have. At this time, both sides of the body may be implemented in a form in which the head is detachable/attachable.
도 19의 (a)의 경우, 상기 바디 파트의 일측에 제1 헤드와 타측에 제2 헤드가 결합된 구조이고, 도 19의 (b)의 경우, 상기 바디 파트의 일측에 제3 헤드와 타측에 제4 헤드가 결합된 구조이다.In the case of (a) of FIG. 19, a first head is coupled to one side of the body part and a second head is coupled to the other side, and in the case of (b) of FIG. 19, a third head and the other side are provided on one side of the body part. It is a structure in which the fourth head is combined.
이와 같이, 하나의 바디에 복수의 헤드를 결합하거나 하나의 헤드를 번갈아 교체하여 결합할 수 있다.In this way, a plurality of heads may be combined with one body, or one head may be alternately replaced and combined.
도 19에 도시된 바와 같이, 각 인형의 머리 부분에는 개폐 가능한 구조 예를 들어, 헤드의 일부분이 탈착 가능하고, 상기 탈착된 헤드 내부에 센서를 설치할 수 있다. 이를 통해, 사용자는 임의로 헤드 내부의 센서를 교체하여 원하는 기능을 추가, 수정, 교체 등을 할 수도 있다.As shown in FIG. 19, the head of each doll has a structure that can be opened and closed, for example, a part of the head is detachable, and a sensor may be installed inside the detached head. Through this, the user can optionally add, modify, or replace a desired function by replacing the sensor inside the head.
한편, 도 19의 인형의 바디는 인공지능 스피커가 내장될 수 있다.Meanwhile, the body of the doll of FIG. 19 may have an artificial intelligence speaker installed therein.
또한, 도 20의 (a) 내지 (f)와 같이, 헤드의 전면과 후면을 서로 다른 얼굴 형상으로 구현하여, 하나의 인공지능 캐릭터 장난감(1110)으로 다수의 장난감을 가진 것과 같은 효과를 제공할 수도 있다.In addition, as shown in (a) to (f) of Figure 20, by implementing the front and rear of the head in different face shapes, one artificial intelligence character toy 1110 can provide the same effect as having multiple toys. May be.
이상 상술한 바와 같이, 본 발명에 따른 피규어, 인형 등과 같이 인공지능(AI)이 기능이 내장된 스마트캐릭터 장난감은 다양한 형상으로 변신이 가능한 구조를 가지며, 다양한 기능과 목적에 활용될 수 있다. 예를 들어, 본 발명에 따르면, 정서적인 면에서 상기 스마트 캐릭터 장난감에 내장에 인공지능을 통하여 사람과 커뮤니케이션을 통하여 외로움을 덜 느끼도록 할 수 있다. 다시 말해, 스마트 캐릭터 장난감을 가지고 노는 사람의 상황을 인지하고 인지한 상황에 맞는 대화, (선호) 음악 등을 제공하여 심리적 안정감을 제공할 수 있다. 이를 통해, 병리적인 장애가 있거나 1인 가족이나 핵가족화되어 가는 사회에서 독거노인이나 아이들과 같이 사회성이 상대적으로 부족하거나 키덜트 성인 등에게 스마트 캐릭터 장난감에 대한 애정을 가질 수 있도록 하여 취미로 승화시키고 정신적인 치료나 심리적인 불안 등의 해소에 도움을 주고 나아가 제품 구매 욕구도 고취할 수 있다. 더불어, 비단 그런 상황이나 사람뿐만 아니라 스마트 캐릭터 장난감은 일반인들에게도 비 오는 날에 듣기 좋은 음악을 추천하거나 먹기 좋은 음식을 주문하고 냉장고 안 식재료로 할 수 있는 요리를 추천하는 등 일상생활의 비서와 같이 인공지능 비서 기능을 수행할 수 있다.As described above, a smart character toy with an artificial intelligence (AI) function built into it, such as figures and dolls according to the present invention, has a structure that can be transformed into various shapes, and can be used for various functions and purposes. For example, according to the present invention, it is possible to feel less loneliness through communication with a person through artificial intelligence embedded in the smart character toy from an emotional perspective. In other words, it is possible to provide a sense of psychological stability by recognizing the situation of a person playing with a smart character toy and providing dialogue, (preferred) music, etc. according to the recognized situation. Through this, in a society where there is a pathological disorder, a single family or a nuclear family, sociality is relatively insufficient, such as the elderly or children living alone, or kidult adults can have love for smart character toys, sublimating into a hobby and mental It can help relieve treatment or psychological anxiety, and further inspire the desire to purchase products. In addition, not only such situations and people, but also smart character toys are like a secretary in everyday life, such as recommending music that is good to listen to on rainy days, ordering food that is easy to eat, and recommending dishes that can be made with ingredients in the refrigerator. It can perform the function of an artificial intelligence assistant.
또한, 본 발명에 따르면, 건강이 염려되는 노인계층이나 아이들 장애가 있거나 주변 상황이나 위치에 위험 요소가 있는 경우에 대상(사람)의 안전을 위하여 움직임을 인지하여 그에 따른 동작 - 정기/비정기적으로 스마트 캐릭터 장난감에 등록된 단말로의 보고나 대화, 병리적인 현상 발견시의 공공기관 등에 긴급 연락, 가스 누출이나 전기적인 문제에 따른 해당 기관 등과의 연락, 관련 도어 락/오픈 등 -을 수행할 수 있다.In addition, according to the present invention, when there is a disability of the elderly or children who are concerned about health, or there is a risk factor in the surrounding situation or location, the movement is recognized for the safety of the object (person) and the movement accordingly-Regular/irregularly smart Reports or conversations to the terminal registered in the character toy, emergency contact to public institutions when a pathological phenomenon is found, contact with the relevant institution due to gas leaks or electrical problems, and related door locks/opens, etc. can be performed. .
그리고, 본 발명에 따르면, 스마트 캐릭터 장난감은 자체적으로 또는 주변의 연동 가능한 기기 등과 커뮤니케이션을 통하여 오늘의 날씨 제공, 노래방 기능 제공, 댁내 가전제품과의 연동 - 세탁기 기능 제어, 에어컨 기능 제어, TV 기능 제어 등 -, 뿐만 아니라 자녀의 위치 확인, 경로 확인 등에 대한 알림 기능도 수행하여 일상생활의 편의에 기여할 수 있다.In addition, according to the present invention, the smart character toy provides today's weather by itself or through communication with nearby devices, etc., providing karaoke functions, and interlocking with home appliances-washing machine function control, air conditioner function control, TV function control In addition to -, it can contribute to the convenience of daily life by performing a notification function for not only checking the location of the child, checking the route, etc.
더불어, 본 발명에 따르면, 스마트 캐릭터 장난감은 자체적으로 또는 오디오/비디오 데이터 출력이 가능한 주변 기기와 연동하여 대상에게 소리 동화, 오디어북과 같은 언어 습득/학습 기능을 제공하고, 상상력 발휘를 통한 창의성 향상에 도움을 주고 다양한 말 게임으로 치매 예방에 도움을 줄 수 있다.In addition, according to the present invention, the smart character toy provides language acquisition/learning functions such as sound fairy tales and audiobooks to the subject by itself or in conjunction with peripheral devices capable of outputting audio/video data, and creativity through imagination. It can help improve and help prevent dementia with various horse games.
한편, 본 발명에 따른 스마트 캐릭터 장난감은 전술한 바와 같이, 구체관절 형태 즉, 구조화를 통하여 디자인 측면에서도 다양한 형상 예컨대, 위아래 얼굴이 다르게 하거나 앞뒤 얼굴이 다르게 하는 등 조합이 가능하다. 이를 통해, 구연동화와 같은 캐릭터 구연도 할 수 있을 것이다. 상기 스마트 캐릭터 장난감은 대상이 익숙한 사람이나 동물 형태로 제작하면, 익숙하여 친근감을 제공하고 이를 통해 인공지능 스피커 즉, 인공지능 기능에서 제공하는 다양한 기능에 대한 거부감을 완화할 뿐만 아니라 안정감을 제공할 수 있다. 게다가, 기존의 피규어나 봉제인형의 외관에 본 발명의 스마트 캐릭터 장난감 구성을 조합할 수도 있다.On the other hand, as described above, the smart character toy according to the present invention can be combined in various shapes in terms of design through a spherical joint shape, that is, structuring, for example, the upper and lower faces are different or the front and rear faces are different. Through this, you will be able to tell a character such as a storytelling story. When the smart character toy is produced in the form of a person or animal that the object is familiar with, it provides a familiar and familiar feeling, and through this, it is possible to not only alleviate the rejection of various functions provided by the artificial intelligence speaker, that is, but also provide a sense of stability. have. In addition, it is also possible to combine the configuration of the smart character toy of the present invention with the appearance of an existing figure or stuffed toy.
본 발명의 다른 일실시예에 따른 인공지능 기능이 내장된 스마트 캐릭터 장난감은, 메모리, 객체를 인지하고 상기 인지한 객체와 관련된 적어도 하나 이상의 센서를 통하여 센싱한 데이터를 수집하는 센서부, 인공지능부를 포함하고, 상기 인공지능모듈을 통하여 상기 수집된 센서 데이터에 기초하여 상기 스마트 캐릭터 장난감의 출력 데이터를 생성하는 데이터 처리부, 상기 스마트 캐릭터 장난감의 동작 전반을 제어하는 제어부, 및 상기 생성된 스마트 캐릭터 장난감의 출력 데이터를 출력하는 출력부를 포함하고, 상기 스마트 캐릭터 장난감은, 분리 가능한 구조로 적어도 둘 이상의 파트로 구분되고, 제1 파트는 상기 센서부와 출력부의 적어도 일부가 내장되고, 제2 파트는 적어도 상기 인공지능모듈을 포함한 데이터 처리부와 제어부를 포함하고, 상기 제1 파트에 내장된 상기 센서부의 적어도 일부는, 시각과 청각과 관련된 센서가 포함되어, 오디오 데이터, 이미지 데이터 및 비디오 데이터 중 적어도 하나 이상을 센싱하며, 상기 제1 파트에 내장된 상기 출력부의 적어도 일부는, 스피커와 마이크로폰 중 적어도 하나를 포함하고, 상기 스피커를 통하여 상기 생성된 출력 데이터를 오디오 형태로 출력 및/또는 상기 마이크로폰을 통해 객체로부터 입력되는 오디오 데이터를 수신하고, 상기 제2 파트에 내장된 인공지능모듈은, 빅데이터 모듈을 포함하여, 상기 센싱된 데이터와 상기 인지된 객체의 오디오 데이터를 포함한 입력 데이터를 빅데이터 처리하고, 빅데이터 처리된 데이터로부터 상기 객체와의 커뮤니케이션을 위한 서비스 모드에 관한 지능형 데이터를 포함한 출력 데이터를 생성하고, 상기 생성되는 지능형 데이터는, 상기 서비스 모드에 따라, 대화형 데이터, 알림 데이터 및 연동된 기기에 대한 제어 데이터 중 적어도 하나를 포함하고, 상기 서비스 모드는, 대화 서비스 모드, 알림 서비스 모드, 기기 제어 서비스 모드 및 객체 안전 서비스 모드 중 적어도 하나이며, 상기 제어부는, 상기 제1 파트와 제2 파트의 분리 여부를 감지하고, 상기 제1 파트와 제2 파트가 분리되고 이후 다시 연결되면, 상기 제1 파트와 제2 파트에 내장된 구성을 인지하고, 인지된 각 파트의 구성들이 상호 연동되도록 제어하고, 상기 제1 파트와 제2 파트가 분리되고, 상기 분리된 시간이 미리 정의된 시간 이상이면, 미리 등록된 기기로 알림 데이터를 전송하고, 상기 알림 데이터 전송에 따른 상기 미리 등록된 기기로부터 피드백이 수신되면, 상기 분리된 제1 파트의 센서를 임의 턴-온 시켜 센싱한 데이터를 상기 미리 등록된 기기로 전송하고, 상기 제1 파트와 제2 파트가 분리될 때, 분리 직전에 상기 제1 파트에 내장된 센서를 통해 분리 직전의 센싱 데이터를 수집하고, 상기 알림 데이터 전송 이후에 상기 미리 등록된 기기로부터 수수신한 피드백에 따라 전송되는 센싱 데이터와 함께 상기 미리 등록된 기기로 전송하는 것을 특징으로 한다.A smart character toy with an artificial intelligence function according to another embodiment of the present invention includes a memory, a sensor unit for recognizing an object and collecting data sensed through at least one or more sensors related to the recognized object, and an artificial intelligence unit. And a data processing unit that generates output data of the smart character toy based on the collected sensor data through the artificial intelligence module, a control unit that controls the overall operation of the smart character toy, and the generated smart character toy. Including an output unit for outputting output data, the smart character toy is divided into at least two or more parts with a detachable structure, the first part has at least a part of the sensor unit and the output unit built-in, and the second part is at least the A data processing unit including an artificial intelligence module and a control unit are included, and at least a part of the sensor unit embedded in the first part includes sensors related to sight and hearing, and stores at least one of audio data, image data, and video data. Sensing, and at least a part of the output unit built in the first part includes at least one of a speaker and a microphone, and outputs the generated output data in an audio format through the speaker and/or from an object through the microphone Receives the input audio data, the artificial intelligence module built in the second part, including a big data module, processes the input data including the sensed data and the audio data of the recognized object big data, Output data including intelligent data on a service mode for communication with the object is generated from the data processed data, and the generated intelligent data is, according to the service mode, interactive data, notification data, and linked devices. It includes at least one of control data for, and the service mode is at least one of a conversation service mode, a notification service mode, a device control service mode, and an object safety service mode, and the control unit comprises: Whether to separate Is detected, the first part and the second part are separated and then reconnected, recognizes the configuration built into the first part and the second part, controls the recognized configurations of each part to interoperate with each other, and the When the first part and the second part are separated and the separated time is greater than or equal to a predefined time, notification data is transmitted to a pre-registered device, and feedback is received from the pre-registered device according to the transmission of the notification data. , The sensor of the separated first part is randomly turned on to transmit the sensed data to the pre-registered device, and when the first part and the second part are separated, the first part is embedded in the first part immediately before separation. The sensing data immediately before the separation is collected through the sensor and transmitted to the pre-registered device together with the sensing data transmitted according to the feedback received from the pre-registered device after transmission of the notification data.
본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, "필수적인", "중요하게" 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.Specific implementations described in the present invention are examples, and do not limit the scope of the present invention in any way. For brevity of the specification, descriptions of conventional electronic configurations, control systems, software, and other functional aspects of the systems may be omitted. In addition, the connection or connection members of the lines between the components shown in the drawings exemplarily represent functional connections and/or physical or circuit connections. It may be referred to as a connection, or circuit connections. In addition, if there is no specific mention such as "essential", "important", etc., it may not be an essential component for the application of the present invention.
본 발명의 명세서(특히 특허청구범위에서)에서 "상기"의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 본 발명에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 발명의 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 본 발명에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 본 발명이 한정되는 것은 아니다. 본 발명에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 본 발명을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 발명의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.In the specification of the present invention (especially in the claims), the use of the term "above" and the reference term similar thereto may correspond to both the singular and the plural. In addition, when a range is described in the present invention, the invention to which an individual value falling within the range is applied (unless otherwise stated), and each individual value constituting the range is described in the detailed description of the invention. Same as. Finally, unless explicitly stated or contradictory to the steps constituting the method according to the present invention, the steps may be performed in an appropriate order. The present invention is not necessarily limited according to the order of description of the steps. The use of all examples or illustrative terms (for example, etc.) in the present invention is merely for describing the present invention in detail, and the scope of the present invention is limited by the above examples or illustrative terms unless limited by the claims. It does not become. In addition, those skilled in the art can recognize that various modifications, combinations, and changes may be configured according to design conditions and factors within the scope of the appended claims or their equivalents.
이상 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.The embodiments according to the present invention described above may be implemented in the form of program instructions that can be executed through various computer components and recorded in a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the computer-readable recording medium may be specially designed and configured for the present invention or may be known and usable to those skilled in the computer software field. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magnetic-optical media such as floptical disks. medium), and a hardware device specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device can be changed to one or more software modules to perform the processing according to the present invention, and vice versa.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항과 한정된 실시예 및 도면에 의하여 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위하여 제공된 것일 뿐, 본 발명이 상기 실시예에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정과 변경을 꾀할 수 있다.In the above, the present invention has been described by specific matters such as specific elements and limited embodiments and drawings, but this is provided only to aid in a more general understanding of the present invention, and the present invention is not limited to the above embodiments. Anyone with ordinary knowledge in the technical field to which the invention pertains can make various modifications and changes from these descriptions.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention is limited to the above-described embodiments and should not be defined, and all ranges equivalent to or equivalently changed from the claims to be described later as well as the claims to be described later are the scope of the spirit of the present invention. It will be said to belong to.

Claims (13)

  1. 제1 컨텐츠를 제공하는 컴퓨팅장치에 의해 수행되는 가상 쇼룸 생성 방법에 있어서,In the virtual showroom creation method performed by a computing device that provides a first content,
    제1 사용자 정보를 기초로 유저 캐릭터를 생성하는 단계;Creating a user character based on the first user information;
    제1 사용자 활동 정보를 기초로 유저 아이템을 생성하는 단계;Creating a user item based on the first user activity information;
    상기 유저 아이템이 표시된 가상의 쇼룸 영역을 디스플레이 하는 단계; 및Displaying a virtual showroom area in which the user item is displayed; And
    제2 컨텐츠 정보를 기초로 생성된 가상 아이템을 상기 쇼룸 영역에 표시하는 단계;Displaying a virtual item generated based on second content information in the showroom area;
    를 포함하는 가상 쇼룸 생성 방법.Virtual showroom creation method comprising a.
  2. 제1 항에 있어서,The method of claim 1,
    상기 유저 아이템을 생성하는 단계는,The step of creating the user item,
    상기 제1 사용자 활동 정보가 획득되지 않은 경우, 제1 사용자 단말로 사용자의 활동 요청 알림을 전송하는 단계를 포함하는,In case the first user activity information is not obtained, transmitting a notification of the user's activity request to the first user terminal,
    가상 쇼룸 생성 방법.How to create a virtual showroom.
  3. 제1 항에 있어서,The method of claim 1,
    상기 제1 사용자 활동 정보는,The first user activity information,
    제1 사용자의 컨텐츠 이용 정보를 포함하고,Including content use information of the first user,
    상기 유저 아이템을 생성하는 단계는,The step of creating the user item,
    상기 컨텐츠에 포함된 객체와 대응되는 유저 아이템을 생성하는 단계를 포함하는,Including the step of creating a user item corresponding to the object included in the content,
    가상 쇼룸 생성 방법.How to create a virtual showroom.
  4. 제3 항에 있어서,The method of claim 3,
    상기 제1 사용자 활동 정보는,The first user activity information,
    제1 사용자의 쇼핑몰 이용 정보를 포함하고,Including shopping mall use information of the first user,
    상기 유저 아이템을 생성하는 단계는,The step of creating the user item,
    쇼핑몰 상품 중 상기 제1 사용자의 쇼핑몰 이용 정보를 기초로 정해진 상품에 대응되는 유저 아이템을 생성하는 단계를 포함하는,Including the step of generating a user item corresponding to a product determined based on the shopping mall usage information of the first user among shopping mall products,
    가상 쇼룸 생성 방법.How to create a virtual showroom.
  5. 제4 항에 있어서,The method of claim 4,
    상기 가상의 쇼룸 영역을 디스플레이 하는 단계는,Displaying the virtual showroom area,
    상기 유저 아이템에 대한 사용자 입력에 응답하여, 상기 유저 아이템에 대응되는 쇼핑몰의 상품 정보를 상기 쇼룸 영역에 디스플레이 하는 단계를 포함하는,In response to a user input for the user item, displaying product information of a shopping mall corresponding to the user item in the showroom area,
    가상 쇼룸 생성 방법.How to create a virtual showroom.
  6. 제4 항에 있어서,The method of claim 4,
    상기 가상 아이템은The virtual item is
    상기 제2 컨텐츠에 포함된 객체와 대응되는 쇼핑몰의 상품 정보를 기초로 생성된,Created based on product information of the shopping mall corresponding to the object included in the second content,
    가상 쇼룸 생성 방법.How to create a virtual showroom.
  7. 제4 항에 있어서,The method of claim 4,
    상기 제2 컨텐츠는,The second content,
    제2 사용자의 가상의 쇼룸 영역 컨텐츠이고,It is the contents of the virtual showroom area of the second user,
    상기 가상 아이템을 상기 쇼룸 영역에 표시하는 단계는,Displaying the virtual item in the showroom area,
    상기 제1 사용자 정보를 이용하여 제2 사용자 정보를 획득하는 단계; 및Acquiring second user information by using the first user information; And
    제2 사용자 활동 정보를 기초로 상기 가상 아이템을 표시하는 단계를 포함하는,Including the step of displaying the virtual item based on the second user activity information,
    가상 쇼룸 생성 방법.How to create a virtual showroom.
  8. 제1 컨텐츠 및 제2 컨텐츠를 수신하는 컨텐츠 수신부;A content receiver for receiving first content and second content;
    제1 사용자 정보를 기초로 유저 캐릭터를 생성하는 유저 캐릭터 생성부;A user character generation unit that generates a user character based on the first user information;
    제1 사용자 활동 정보를 기초로 유저 아이템을 생성하는 유저 아이템 생성부;A user item generation unit that generates a user item based on the first user activity information;
    상기 유저 아이템이 표시된 가상의 쇼룸 영역을 디스플레이 하는 디스플레이부; 및A display unit that displays a virtual showroom area in which the user item is displayed; And
    제2 컨텐츠 정보를 기초로 생성된 가상 아이템을 상기 쇼룸 영역에 표시하는 가상 아이템 생성부;A virtual item generator configured to display a virtual item generated based on second content information in the showroom area;
    를 포함하는 가상 쇼룸 생성 장치.Virtual showroom creation device comprising a.
  9. 인공지능 기능이 내장된 스마트 캐릭터 장난감에 있어서,In the smart character toy with built-in artificial intelligence function,
    메모리;Memory;
    객체를 인지하고 상기 인지한 객체와 관련된 적어도 하나 이상의 센서를 통하여 센싱한 데이터를 수집하는 센서부;A sensor unit that recognizes an object and collects data sensed through at least one sensor related to the recognized object;
    인공지능모듈을 포함하고, 상기 인공지능모듈을 통하여 상기 수집된 센서 데이터에 기초하여 상기 캐릭터 장난감의 출력 데이터를 생성하는 데이터 처리부;A data processing unit comprising an artificial intelligence module and generating output data of the character toy based on the collected sensor data through the artificial intelligence module;
    상기 캐릭터 장난감의 동작 전반을 제어하는 제어부; 및A control unit for controlling the overall operation of the character toy; And
    상기 생성된 캐릭터 장난감의 출력 데이터를 출력하는 출력부;를 포함하며,Includes; an output unit for outputting the output data of the generated character toy,
    상기 캐릭터 장난감은,The character toy,
    분리 가능한 구조로 적어도 둘 이상의 파트로 구분되고,It is divided into at least two parts with a separable structure,
    제1 파트는 상기 센서부와 출력부의 적어도 일부가 내장되고,The first part includes at least a part of the sensor unit and the output unit,
    제2 파트는 적어도 상기 인공지능모듈을 포함한 데이터 처리부와 제어부를 포함하며,The second part includes at least a data processing unit and a control unit including the artificial intelligence module,
    상기 제2 파트에 내장된 인공지능모듈은,The artificial intelligence module built into the second part,
    빅데이터 모듈을 포함하여, 상기 센싱된 데이터와 상기 인지된 객체의 오디오 데이터를 포함한 입력 데이터를 빅데이터 처리하고, 빅데이터 처리된 데이터로부터 상기 객체와의 커뮤니케이션을 위한 서비스 모드에 관한 지능형 데이터를 포함한 출력 데이터를 생성하는 것을 특징으로 하는 인공지능 기능이 내장된 스마트 캐릭터 장난감.Including a big data module, big data processing input data including the sensed data and audio data of the recognized object, and including intelligent data on a service mode for communication with the object from the big data processed data A smart character toy with an artificial intelligence function, characterized in that it generates output data.
  10. 제9항에 있어서,The method of claim 9,
    상기 제1 파트에 내장된 상기 센서부의 적어도 일부는,At least a portion of the sensor unit built in the first part,
    시각과 청각과 관련된 센서가 포함되어, 오디오 데이터, 이미지 데이터 및 비디오 데이터 중 적어도 하나 이상을 센싱하는 것을 특징으로 하는 인공지능 기능이 내장된 스마트 캐릭터 장난감.A smart character toy with a built-in artificial intelligence function, characterized in that it includes sensors related to sight and hearing, and senses at least one of audio data, image data, and video data.
  11. 제9항에 있어서,The method of claim 9,
    상기 제1 파트에 내장된 상기 출력부의 적어도 일부는,At least a portion of the output unit built in the first part,
    스피커와 마이크로폰 중 적어도 하나를 포함하고,Including at least one of a speaker and a microphone,
    상기 스피커를 통하여 상기 생성된 출력 데이터를 오디오 형태로 출력 및/또는 상기 마이크로폰을 통해 객체로부터 입력되는 오디오 데이터를 수신하는 것을 특징으로 하는 인공지능 기능이 내장된 스마트 캐릭터 장난감.A smart character toy with an artificial intelligence function, characterized in that the generated output data is output in an audio format through the speaker and/or audio data input from an object is received through the microphone.
  12. 제9항에 있어서,The method of claim 9,
    상기 생성되는 지능형 데이터는,The generated intelligent data,
    상기 서비스 모드에 따라, 대화형 데이터, 알림 데이터 및 연동된 기기에 대한 제어 데이터 중 적어도 하나를 포함하는 것을 특징으로 하는 인공지능 기능이 내장된 스마트 캐릭터 장난감.According to the service mode, a smart character toy with an artificial intelligence function, comprising at least one of interactive data, notification data, and control data for a linked device.
  13. 제9항에 있어서,The method of claim 9,
    상기 서비스 모드는,The service mode,
    대화 서비스 모드, 알림 서비스 모드, 기기 제어 서비스 모드 및 객체 안전 서비스 모드 중 적어도 하나인 것을 특징으로 하는 인공지능 기능이 내장된 스마트 캐릭터 장난감.A smart character toy with an artificial intelligence function, characterized in that at least one of a conversation service mode, a notification service mode, a device control service mode, and an object safety service mode.
PCT/KR2020/000578 2019-11-11 2020-01-13 Smart character toy having artificial intelligence function, and method and apparatus for creating virtual showroom WO2021095992A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20190143748 2019-11-11
KR10-2019-0143748 2019-11-11

Publications (1)

Publication Number Publication Date
WO2021095992A1 true WO2021095992A1 (en) 2021-05-20

Family

ID=75912088

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/000578 WO2021095992A1 (en) 2019-11-11 2020-01-13 Smart character toy having artificial intelligence function, and method and apparatus for creating virtual showroom

Country Status (1)

Country Link
WO (1) WO2021095992A1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR970000432A (en) * 1995-06-23 1997-01-21 구자홍 Air gap welding device of scroll compressor
KR100894569B1 (en) * 2007-11-20 2009-04-24 전인자 Humanized doll with adaptive function
KR20130116618A (en) * 2012-04-16 2013-10-24 박상규 Product advertising method using smart connecting and interactive e-commerce method using the same
US20130317950A1 (en) * 2012-05-23 2013-11-28 International Business Machines Corporation Customizing a three dimensional virtual store based on user shopping behavior
KR20150052929A (en) * 2013-11-06 2015-05-15 에임바이오 주식회사 System and method for marketing in online shopping mall using the user's postscript of goods
KR102072175B1 (en) * 2018-11-01 2020-01-31 (주)아이유디자인 Smart character toy embedded artificiall intelligence function

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR970000432A (en) * 1995-06-23 1997-01-21 구자홍 Air gap welding device of scroll compressor
KR100894569B1 (en) * 2007-11-20 2009-04-24 전인자 Humanized doll with adaptive function
KR20130116618A (en) * 2012-04-16 2013-10-24 박상규 Product advertising method using smart connecting and interactive e-commerce method using the same
US20130317950A1 (en) * 2012-05-23 2013-11-28 International Business Machines Corporation Customizing a three dimensional virtual store based on user shopping behavior
KR20150052929A (en) * 2013-11-06 2015-05-15 에임바이오 주식회사 System and method for marketing in online shopping mall using the user's postscript of goods
KR102072175B1 (en) * 2018-11-01 2020-01-31 (주)아이유디자인 Smart character toy embedded artificiall intelligence function

Similar Documents

Publication Publication Date Title
US11107368B1 (en) System for wireless devices and intelligent glasses with real-time connectivity
US20220337693A1 (en) Audio/Video Wearable Computer System with Integrated Projector
US11327628B2 (en) Method for processing live streaming data and electronic device
US10681225B1 (en) Image and augmented reality based networks using mobile devices and intelligent electronic glasses
US20180241864A1 (en) Wearable Devices
EP3673644A1 (en) Electronic device operating in associated state with external audio device based on biometric information and method therefor
US20200022051A1 (en) Method and system for realizing function by causing elements of hardware to perform linkage operation
CN113473164A (en) Live broadcast data processing method and device, computer equipment and medium
WO2018124633A1 (en) Electronic device and method for delivering message by same
WO2019088483A1 (en) Apparatus and method for performing viewer gaze analysis
EP3655204A1 (en) Electronic device capable of moving and operating method thereof
WO2018048130A1 (en) Content playback method and electronic device supporting same
CN111970523A (en) Information display method, device, terminal, server and storage medium
CN108966198A (en) Method for connecting network, device, intelligent glasses and storage medium
JP2017156514A (en) Electronic signboard system
CN109358744A (en) Information sharing method, device, storage medium and wearable device
CN113867606A (en) Information display method and device, electronic equipment and storage medium
CN109074679A (en) The Instant Ads based on scene strengthened with augmented reality
WO2020256161A1 (en) Artificial intelligence home robot and control method therefor
WO2018075523A1 (en) Audio/video wearable computer system with integrated projector
US11544968B2 (en) Information processing system, information processingmethod, and recording medium
WO2020027442A1 (en) Method for storing information on basis of image acquired through camera module, and electronic device using same
CN111382355A (en) Live broadcast management method, device and equipment based on geographic object and storage medium
WO2021095992A1 (en) Smart character toy having artificial intelligence function, and method and apparatus for creating virtual showroom
WO2021085812A1 (en) Electronic apparatus and method for controlling same

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20887581

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 19.09.2022)

122 Ep: pct application non-entry in european phase

Ref document number: 20887581

Country of ref document: EP

Kind code of ref document: A1