WO2020054957A1 - 상품과 관련된 증강 현실, 가상 현실 또는 혼합 현실 컨텐츠를 제공하는 디스플레이 장치, 방법 및 서버 - Google Patents

상품과 관련된 증강 현실, 가상 현실 또는 혼합 현실 컨텐츠를 제공하는 디스플레이 장치, 방법 및 서버 Download PDF

Info

Publication number
WO2020054957A1
WO2020054957A1 PCT/KR2019/008489 KR2019008489W WO2020054957A1 WO 2020054957 A1 WO2020054957 A1 WO 2020054957A1 KR 2019008489 W KR2019008489 W KR 2019008489W WO 2020054957 A1 WO2020054957 A1 WO 2020054957A1
Authority
WO
WIPO (PCT)
Prior art keywords
product
display device
information
content
user
Prior art date
Application number
PCT/KR2019/008489
Other languages
English (en)
French (fr)
Inventor
진병각
Original Assignee
나모웹비즈주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 나모웹비즈주식회사 filed Critical 나모웹비즈주식회사
Priority to CN201980060021.3A priority Critical patent/CN112703524A/zh
Publication of WO2020054957A1 publication Critical patent/WO2020054957A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0633Lists, e.g. purchase orders, compilation or processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42201Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] biosensors, e.g. heat sensor for presence detection, EEG sensors or any limb activity sensors worn by the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47202End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting content on demand, e.g. video on demand
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video

Definitions

  • the present invention relates to a display device, method and server for providing augmented reality, virtual reality or mixed reality content related to a product.
  • Augmented Reality refers to a technology that superimposes a 3D virtual image on a real image or background and displays it as a single image. Augmented reality has the advantage of providing the user with a better sense of reality and additional information than the real environment by providing a mixed image of reality and virtual.
  • Korean Patent Publication No. 2017-0054146 which is a prior art, discloses a method for providing augmented reality.
  • Augmented reality, virtual reality, or mixed reality content related to a product that recognizes the user by photographing the user's face and determines and provides the optimal content to be provided to the user using the recognized user information among a plurality of content related to the product. It is intended to provide a display device, method and server for providing a.
  • the augmented reality, virtual reality, or mixed reality content related to a product that adjusts the angle of the display device based on the user's gaze and adjusts the output position of the content so that the user can view the content according to the adjusted display device angle It is intended to provide a display device, method, and server provided.
  • a second photographing unit for photographing the face a measuring unit for measuring the angle of the display device
  • a receiving unit for receiving recognition information related to at least one of information about the product and information about the user's face, and an output unit for outputting content related to the recognition information, wherein the output unit is an angle of the measured display device. It is possible to provide a display device for adjusting the output position of the content based on the.
  • photographing a product through a first camera provided in a display device photographing a user's face through a second camera provided in the display device, and measuring an angle of the display device
  • Receiving the recognition information and outputting the content related to the recognition information, wherein the step of outputting the content is to provide the content to adjust the output position of the content based on the measured angle of the display device Can provide a method.
  • the receiving unit for receiving information about the product and the user's face of the product photographed by the display device from the display device, for the received product
  • An analysis unit that analyzes information and information on a user's face, extracts product recognition information based on the analyzed product information, and extracts user recognition information based on the analyzed user's face information.
  • a transmission unit for transmitting recognition information including the extracted product recognition information and user recognition information to the display device, wherein content related to the product is output from the display device based on the recognition information, and the content Is based on the angle of the display device measured by the display device It can provide power to the server where the regulation.
  • any one of the above-described problem solving means of the present invention by photographing a product and outputting content related to the product to augmented reality, augmented reality related to a product to enable a user to intuitively grasp the appearance and detailed information about the product , It may provide a display device, method and server for providing virtual reality or mixed reality content.
  • Augmented reality, virtual reality, or mixed reality content related to a product that recognizes the user by photographing the user's face and determines and provides the optimal content to be provided to the user using the recognized user information among a plurality of content related to the product. It is possible to provide a display device, method and server for providing a.
  • the augmented reality, virtual reality, or mixed reality content related to a product that adjusts the angle of the display device based on the user's gaze and adjusts the output position of the content so that the user can view the content according to the adjusted display device angle It is possible to provide a display device, method, and server provided.
  • FIG. 1 is a block diagram of a content providing system according to an embodiment of the present invention.
  • FIGS. 2A and 2B are exemplary views illustrating a display device according to an exemplary embodiment of the present invention.
  • FIG. 3 is a configuration diagram of a display device according to an embodiment of the present invention.
  • 4A to 4E are exemplary views for explaining a process of providing content related to a product in a display device according to an embodiment of the present invention.
  • FIG. 5 is a flowchart of a method of providing content related to a product in a display device according to an embodiment of the present invention.
  • FIG. 6 is a configuration diagram of a server according to an embodiment of the present invention.
  • FIG. 7 is a flowchart of a method of providing content related to a product in a display device in a server according to an embodiment of the present invention.
  • unit includes a unit realized by hardware, a unit realized by software, and a unit realized by using both. Further, one unit may be realized by using two or more hardware, and two or more units may be realized by one hardware.
  • Some of the operations or functions described in this specification as being performed by a terminal or device may be performed instead on a server connected to the corresponding terminal or device. Similarly, some of the operations or functions described as being performed by the server may be performed in a terminal or device connected to the corresponding server.
  • the content providing system 1 may include a display device 110 and a server 120.
  • the display device 110 and the server 120 exemplarily show components that can be controlled by the content providing system 1.
  • Each component of the content providing system 1 of FIG. 1 is generally connected through a network.
  • the display device 110 may be connected to the server 120 simultaneously or at a time interval.
  • Network refers to a connection structure capable of exchanging information between nodes such as terminals and servers, and a local area network (LAN), a wide area network (WAN), and the Internet (WWW: World) Wide Web), wired and wireless data communication networks, telephone networks, and wired and wireless television communication networks.
  • wireless data communication networks include 3G, 4G, 5G, 3rd Generation Partnership Project (3GPP), Long Term Evolution (LTE), World Interoperability for Microwave Access (WIMAX), Wi-Fi, Bluetooth communication, infrared communication, ultrasound Communication, Visible Light Communication (VLC), LiFi, and the like are included, but are not limited thereto.
  • the display device 110 may photograph the product 100 through the first camera 111 provided in the display device 110.
  • the display device 110 may photograph a user's face through the second camera 112 provided in the display device 110.
  • the display device 110 may measure the angle of the display device 110.
  • the display device 110 may transmit information on the photographed product 100 and information on the photographed user's face to the server 120.
  • the display device 110 may receive recognition information related to information on the analyzed product 100 and information on a user's face from the server 120.
  • the identification information may include user identification information including member information, past purchase history, preferred products and preference information, and product identification information including an identifier of the product 100.
  • the display device 110 may determine content to be output based on the user identification information and the product identification information. For example, the display device 110 may determine optimal content based on past purchase history, preferred product, and preference information among a plurality of contents for the product 100.
  • the display device 110 may change the content to be output as the state of the product 100 changes.
  • the display device 110 may output content related to the recognition information. At this time, the display device 110 may adjust the output position of the content based on the measured angle of the display device 110. For example, the display apparatus 110 adjusts the output location of the content based on the measured angle of the display apparatus 110 and the location of the user derived from the image of the user's face photographed from the second photographing unit 112. You can.
  • the display device 110 may receive a touch command or a voice command from the user for the displayed content.
  • the display device 110 may store various contents for each product through a database.
  • Various contents may include, for example, contents for promotions, contents for advertisements, contents for functions, augmented reality contents, and the like.
  • the display device 110 is located in front of a plurality of products on a display stand where a plurality of products are displayed, and through the moving mechanism provided in the display device 110 on the rail 130, any one of the plurality of products is moved forward. Can be moved.
  • the server 120 may receive information about a product photographed from the display device 110 and information about a photographed user's face.
  • the server 120 may extract information related to the received product by analyzing information on the received product and information on the user's face.
  • the identification information may include user identification information including member information, past purchase history, preferred products and preference information, and product identification information including an identifier of the product.
  • the server 120 may transmit the extracted recognition information to the display device 110.
  • FIGS. 2A and 2B are exemplary views illustrating a display device according to an exemplary embodiment of the present invention.
  • the display device 110 is located in front of a plurality of products on a display stand where a plurality of products are displayed.
  • the display device 110 may include a first camera 111, a second camera 112, a display module 113, a microphone 114, and a moving mechanism 115.
  • the first camera 111 is provided on the rear surface of the display device 110 to photograph the product 100 located behind the display device 110.
  • the second camera 112 is provided on the front surface of the display device 110 to photograph a face of a user watching the display device 110.
  • the display module 113 may output content related to the product 100 through the display panel.
  • the display module 113 is equipped with a touch sensor, and may receive a touch input for content output from the user.
  • the microphone 114 may receive a voice input for content output from the user.
  • the moving mechanism 115 may cause the display device 110 to move in front of any one of a plurality of products.
  • the display device 110 may be moved in front of any one of a plurality of products by a user through the moving mechanism 115 on the rail 130.
  • FIG. 2B is a side view of a display device according to an embodiment of the present invention.
  • the display device 110 may further include a hinge 116.
  • the hinge 116 may be an electronic or mechanical hinge.
  • the hinge 116 may allow the inclination of the display device 110 to be manually or automatically adjusted. Since the gaze angle of the user varies according to the height difference of each user, the user's gaze is the front of the display device 110 by manually or automatically adjusting the inclination of the display device 110 through the hinge 116. This is to allow you to stare at.
  • the inclination of the display device 110 corresponds to a first angle (for example, 0 °)
  • the tilt of the display device 110 may be adjusted (117) to a second angle (for example, 60 °) to suit.
  • the display device 110 includes a first photographing unit 310, a second photographing unit 320, a measuring unit 330, a transmitting unit 340, a receiving unit 350, and a content determining unit 360 ), An output unit 370, an input unit 380, and a database 390.
  • the first photographing unit 310 may photograph the product 100 through the first camera 111 provided in the display device 110.
  • the first camera 111 is installed on the back of the display device 110
  • the first photographing unit 310 is the product 100 through the first camera 111 installed on the back of the display device 110 You can shoot the front.
  • the second photographing unit 320 may photograph a user's face through the second camera 112 provided in the display device 110.
  • the second camera 112 is installed on the front of the display device 110, and the second photographing unit 320 photographs the user's face through the second camera 112 installed on the front of the display device 110. You can.
  • the measurement unit 330 may measure the angle of the display device 110. For example, after the inclination is adjusted so that the screen of the display device 110 corresponds to the user's gaze, the measurement unit 330 may measure the angle of the display device 110.
  • the angle of the display device 110 may mean an angle formed by the display stand and the display panel of the display device 110.
  • the measurement unit 330 may measure the angle of the display device 110 based on the position where the display panel is supported by the hinge 116 (see FIG. 2).
  • the transmission unit 340 may transmit information on the photographed product and information on the photographed user's face to the server 120.
  • information on the photographed product and information on the photographed user's face may be a product image and a face image.
  • the reception unit 350 may receive recognition information related to at least one of information about the product 100 analyzed and information about the user's face from the server 120.
  • the identification information may include user identification information including member information, past purchase history, preferred products and preference information, and product identification information including an identifier of the product 100.
  • the content determination unit 360 may determine content to be output based on the user recognition information and the product recognition information.
  • the content determination unit 360 may determine optimal content based on past purchase history, preferred products and preference information (eg, preferred colors, preferred designs, etc.) among a plurality of contents for the product 100. have.
  • preferred products and preference information eg, preferred colors, preferred designs, etc.
  • the content determination unit 360 may change the content to be output as the state of the product 100 changes.
  • the change of the state of the product 100 may include a shape change, a function change, and the like of the product 100.
  • the content determination unit 360 displays content related to the appearance or basic functions of the product 100. Optimal content can be determined.
  • the content determination unit 360 includes the internal configuration, operation process, and internal function of the product 100 Related content can be determined as optimal content.
  • the output unit 370 may output content related to the recognition information. At this time, the output unit 370 may adjust the output position of the content based on the measured angle of the display device 110.
  • the output unit 370 determines the output position of the content based on the measured angle of the display device 110 and the user's viewing position derived from the image of the user's face photographed from the second photographing unit 112. Can be adjusted.
  • the display device 110 derives the user's viewing position (including the user's gaze angle) from the image of the user's face photographed from the second photographing unit 112, and the angle and the user of the display device 110
  • the output position of the content may be adjusted in consideration of the viewing position of.
  • the content of the present invention includes augmented reality content
  • the user's gaze angle is determined in determining the output location of the augmented reality content output on the product 100 projected on the display device 110. It must be considered.
  • the input unit 380 may receive a touch command or a voice command from the user for the displayed content.
  • the input unit 380 may receive a touch command for the displayed content from the user through a touch sensor provided on the display.
  • the input unit 380 may receive a voice command for the displayed content from the user through the microphone.
  • the touch command or the voice command may include a next operation command according to a scenario of content, a command for explaining each detailed function of the product 100, an advertisement or promotion output command, and the like.
  • the database 390 may store various contents for each product.
  • Various contents include, for example, contents for promotions, contents for advertisements, contents for functions, and the like, and various contents may be represented by augmented reality, virtual reality, or mixed reality content. This can provide an advantage that a user can intuitively check information related to a product by providing the content related to the product through augmented reality, virtual reality, or mixed reality content.
  • 4A to 4E are exemplary views for explaining a process of providing content related to a product in a display device according to an embodiment of the present invention.
  • FIG. 4A is an exemplary diagram for explaining a process of recommending a product model based on user recognition information in a display device according to an embodiment of the present invention.
  • content related to user recognition information eg, a recommended product, a recommendation
  • the user identification information may include, for example, a member number, past purchase history, preferred products, and preference information.
  • the display device 110 may output content to the display device 110 based on user recognition information. For example, the display device 110 outputs user information to the first area 400 of the screen, outputs a chat window to the second area 410 of the screen, and content related to the third area 420 of the screen. Can output User information such as age, purchased products, and interested products may be displayed in the first area 400. A chat window capable of chatting between the chatbot and the user may be displayed in the second area 410.
  • a recommendation model for example, a model of a user's preferred color related to a product desired by the user may be output in the third area 420.
  • 4B to 4E are exemplary views in which promotional content related to a product is output from a display device according to an embodiment of the present invention.
  • the display device 110 may output content related to the product 100.
  • the display device 110 is located in front of a plurality of products on a display rack where a plurality of products are displayed on the rail 130, and the plurality of products are displayed on the rail 130 by a user through a movement mechanism provided in the display device.
  • An augmented reality, virtual reality, or mixed reality content related to the product 100 which is moved in front of one of the products and photographed at the moved location, may be output.
  • the display device 110 may output augmented reality, virtual reality, or mixed reality content related to the model selected by the user from the recommendation model output in FIG. 4A.
  • the display device 110 may output content related to the appearance of the product.
  • the display device 110 may output augmented reality, virtual reality, or mixed reality content related to the product 100.
  • the display device 110 may output the product 100 while rotating it 360 degrees so that the user can check the appearance of the product.
  • the display device 110 may output augmented reality, virtual reality, or mixed reality content related to a product function.
  • the display device 110 may receive an output of content related to the function of the product 100 from a user through a touch command or voice command, and output augmented reality, virtual reality, or mixed reality content related to the function.
  • the function may include, for example, the model name, size, weight, power consumption, capacity, etc. of the product 100.
  • the display device 110 receives an output of content related to the internal configuration of the product 100 through a touch command or a voice command from a user and receives augmented reality, virtual reality, or mixed reality content related to the internal configuration.
  • the display device 110 may output augmented reality, virtual reality, or mixed reality content related to the internal configuration.
  • the display device 110 receives an output of content related to the operation of the product 100 through a touch command or a voice command from a user and outputs augmented reality, virtual reality, or mixed reality content related to the operation. You can. For example, when the product photographed through the display device 110 is a rice cooker, the display device 110 may output augmented reality, virtual reality, or mixed reality content related to the operation of the rice cooker.
  • FIG. 5 is a flowchart of a method for providing augmented reality, virtual reality, or mixed reality content related to a product in a display device according to an embodiment of the present invention.
  • the method for providing augmented reality, virtual reality, or mixed reality content related to a product in the display device 110 shown in FIG. 5 is time-series by the content providing system 1 according to the embodiment shown in FIGS. 1 to 4E. It includes the steps to be processed. Accordingly, even if omitted, the display device 110 according to the embodiment illustrated in FIGS. 1 to 4E is also applied to a method of providing augmented reality, virtual reality, or mixed reality content related to a product.
  • the display device 110 may photograph the product 100 through the first camera 111 provided in the display device 110.
  • the display device 110 may photograph a user's face through the second camera 112 provided in the display device 110.
  • the display apparatus 110 may measure the angle of the display apparatus 110.
  • the display device 110 may transmit information on the photographed product and information on the photographed user's face to the server 120.
  • the display device 110 may receive recognition information related to at least one of information about the product 100 analyzed and information about the user's face from the server 120.
  • the display device 110 may output content related to the recognition information.
  • the content includes augmented reality, virtual reality, or mixed reality content, and the display device 110 may adjust the output position of the content based on the measured angle of the display device 110.
  • steps S510 to S560 may be further divided into additional steps or combined into fewer steps, according to an embodiment of the present invention.
  • some steps may be omitted if necessary, and the order between the steps may be switched.
  • the server 120 may include a reception unit 610, an analysis unit 620, an extraction unit 630, and a transmission unit 640.
  • the reception unit 610 may receive information about the product 100 photographed by the display device 110 and information about a user's face from the display device 110.
  • the analysis unit 620 may analyze information on the received product 100 and information on the user's face. For example, the analysis unit 620 may analyze the outline, color, and the like of the product 100 based on the received information about the product 100. For another example, the analysis unit 620 may analyze the facial feature points of the user based on the received information about the user's face.
  • the extracting unit 630 may extract product recognition information based on the analyzed product information and user recognition information based on the analyzed user's face information.
  • the transmission unit 640 may transmit the recognition information including the extracted product recognition information and user recognition information to the display device 110.
  • FIG. 7 is a flowchart of a method for providing augmented reality, virtual reality, or mixed reality content related to a product in a display device in a server according to an embodiment of the present invention.
  • the method for providing augmented reality, virtual reality, or mixed reality content related to a product in the server 120 shown in FIG. 7 is time-series by the content providing system 1 according to the embodiment shown in FIGS. 1 to 6. Includes steps to be processed. Therefore, even if omitted, the server 120 according to the embodiment shown in FIGS. 1 to 6 is also applied to a method of providing augmented reality, virtual reality, or mixed reality content related to a product.
  • the server 120 may receive information on a product photographed by the display device 110 and information on a user's face from the display device 110.
  • the server 120 may analyze information on the received product and information on the user's face.
  • the server 120 may extract product recognition information based on the analyzed product information and user recognition information based on the analyzed user's face information.
  • the server 120 may transmit the recognition information including the extracted product recognition information and user recognition information to the display device 110.
  • steps S710 to S740 may be further divided into additional steps or combined into fewer steps, according to an embodiment of the present invention.
  • some steps may be omitted if necessary, and the order between the steps may be switched.
  • a method of providing augmented reality, virtual reality, or mixed reality content related to a product in a display device and a server described through FIGS. 1 to 7 includes computer programs stored in a medium executed by a computer or instructions executable by a computer Can also be implemented in the form of a recording medium.
  • the method of providing augmented reality, virtual reality, or mixed reality content related to a product in the display device and the server described with reference to FIGS. 1 to 7 may also be implemented in the form of a computer program stored in a medium executed by a computer. have.
  • Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media.
  • computer readable media may include computer storage media.
  • Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.

Abstract

상품과 관련된 증강 현실, 가상 현실 또는 혼합 현실 컨텐츠를 제공하는 디스플레이 장치는 상기 디스플레이 장치에 구비된 제 1 카메라를 통해 상품을 촬영하는 제 1 촬영부, 상기 디스플레이 장치에 구비된 제 2 카메라를 통해 사용자의 얼굴을 촬영하는 제 2 촬영부, 상기 디스플레이 장치의 각도를 측정하는 측정부, 상기 촬영된 상품에 대한 정보 및 상기 촬영된 사용자의 얼굴에 대한 정보를 서버로 전송하는 전송부, 상기 서버로부터 분석된 상기 상품에 대한 정보 및 상기 사용자의 얼굴에 대한 정보 중 적어도 하나와 관련된 인식 정보를 수신하는 수신부 및 상기 인식 정보와 관련된 컨텐츠를 출력하는 출력부를 포함하되, 상기 출력부는 상기 측정된 디스플레이 장치의 각도에 기초하여 상기 컨텐츠의 출력 위치를 조절한다.

Description

상품과 관련된 증강 현실, 가상 현실 또는 혼합 현실 컨텐츠를 제공하는 디스플레이 장치, 방법 및 서버
본 발명은 상품과 관련된 증강 현실, 가상 현실 또는 혼합 현실 컨텐츠를 제공하는 디스플레이 장치, 방법 및 서버에 관한 것이다.
증강 현실(AR, Augmented Reality)이란 현실의 이미지나 배경에 3차원의 가상 이미지를 겹쳐서 하나의 영상으로 보여주는 기술을 말한다. 증강 현실은 현실과 가상을 혼합된 영상으로 제공함으로써, 실제 환경 보다 나은 현실감과 부가 정보를 사용자에게 제공한다는 장점을 가지고 있다.
이러한 증강 현실 서비스와 관련하여, 선행기술인 한국공개특허 제 2017-0054146호는 증강 현실 제공 방법을 개시하고 있다.
최근, 증강 현실을 이용한 다양한 서비스가 제공되고 있다. 그러나, 이러한 종래의 서비스들은 스마트폰 또는 HMD (Head mounted Display)를 이용할 필요가 있다.
즉, 종래의 서비스들은 스마트폰 또는 HMD가 필수적으로 요구됨에 따라 상용화된 서비스들이 많지 않다.
상품을 촬영하여 상품과 관련된 컨텐츠를 증강 현실, 가상 현실 또는 혼합 현실로 출력함으로써, 사용자가 상품에 대한 외관 및 상세 정보를 직관적으로 파악할 수 있도록 하는 상품과 관련된 증강 현실, 가상 현실 또는 혼합 현실 컨텐츠를 제공하는 디스플레이 장치, 방법 및 서버를 제공하고자 한다.
사용자의 얼굴을 촬영하여 사용자를 인식하고, 상품과 관련된 복수의 컨텐츠 중 인식된 사용자 정보를 이용하여 사용자에게 제공할 최적의 컨텐츠를 결정하여 제공하도록 하는 상품과 관련된 증강 현실, 가상 현실 또는 혼합 현실 컨텐츠를 제공하는 디스플레이 장치, 방법 및 서버를 제공하고자 한다.
사용자의 시선에 기초하여 디스플레이 장치의 각도가 조절되고, 조절된 디스플레이 장치의 각도에 따라 사용자가 컨텐츠를 시청하기 적합하도록 컨텐츠의 출력 위치를 조절하는 상품과 관련된 증강 현실, 가상 현실 또는 혼합 현실 컨텐츠를 제공하는 디스플레이 장치, 방법 및 서버를 제공하고자 한다.
다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
상술한 기술적 과제를 달성하기 위한 수단으로서, 본 발명의 일 실시예는, 디스플레이 장치에 구비된 제 1 카메라를 통해 상품을 촬영하는 제 1 촬영부, 상기 디스플레이 장치에 구비된 제 2 카메라를 통해 사용자의 얼굴을 촬영하는 제 2 촬영부, 상기 디스플레이 장치의 각도를 측정하는 측정부, 상기 촬영된 상품에 대한 정보 및 상기 촬영된 사용자의 얼굴에 대한 정보를 서버로 전송하는 전송부, 상기 서버로부터 분석된 상기 상품에 대한 정보 및 상기 사용자의 얼굴에 대한 정보 중 적어도 하나와 관련된 인식 정보를 수신하는 수신부 및 상기 인식 정보와 관련된 컨텐츠를 출력하는 출력부를 포함하되, 상기 출력부는 상기 측정된 디스플레이 장치의 각도에 기초하여 상기 컨텐츠의 출력 위치를 조절하는 것인 디스플레이 장치를 제공할 수 있다.
본 발명의 다른 실시예는, 디스플레이 장치에 구비된 제 1 카메라를 통해 상품을 촬영하는 단계, 상기 디스플레이 장치에 구비된 제 2 카메라를 통해 사용자의 얼굴을 촬영하는 단계, 상기 디스플레이 장치의 각도를 측정하는 단계, 상기 촬영된 상품에 대한 정보 및 상기 촬영된 사용자의 얼굴에 대한 정보를 서버로 전송하는 단계, 상기 서버로부터 분석된 상기 상품에 대한 정보 및 상기 사용자의 얼굴에 대한 정보 중 적어도 하나와 관련된 인식 정보를 수신하는 단계 및 상기 인식 정보와 관련된 컨텐츠를 출력하는 단계를 포함하되, 상기 컨텐츠를 출력하는 단계는 상기 측정된 디스플레이 장치의 각도에 기초하여 상기 컨텐츠의 출력 위치를 조절하는 것인 컨텐츠 제공 방법을 제공할 수 있다.
본 발명의 또 다른 실시예는, 본 발명의 또 다른 실시예는, 디스플레이 장치로부터 상기 디스플레이 장치에 의해 촬영된 상품에 대한 정보 및 사용자의 얼굴에 대한 정보를 수신하는 수신부, 상기 수신한 상품에 대한 정보 및 사용자의 얼굴에 대한 정보를 분석하는 분석부, 상기 분석된 상품에 대한 정보에 기초하여 상품 인식 정보를 추출하고, 상기 분석된 사용자의 얼굴에 대한 정보에 기초하여 사용자 인식 정보를 추출하는 추출부, 상기 추출된 상품 인식 정보 및 사용자 인식 정보를 포함하는 인식 정보를 상기 디스플레이 장치로 전송하는 전송부를 포함하되, 상기 인식 정보에 기초하여 상기 상품과 관련된 컨텐츠가 상기 디스플레이 장치에서 출력되고, 상기 컨텐츠는 상기 디스플레이 장치에서 측정된 상기 디스플레이 장치의 각도에 기초하여 출력 위치가 조절되는 것인 서버를 제공할 수 있다.
상술한 과제 해결 수단은 단지 예시적인 것으로서, 본 발명을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 기재된 추가적인 실시예가 존재할 수 있다.
전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 상품을 촬영하여 상품과 관련된 컨텐츠를 증강 현실로 출력함으로써, 사용자가 상품에 대한 외관 및 상세 정보를 직관적으로 파악할 수 있도록 하는 상품과 관련된 증강 현실, 가상 현실 또는 혼합 현실 컨텐츠를 제공하는 디스플레이 장치, 방법 및 서버를 제공할 수 있다.
사용자의 얼굴을 촬영하여 사용자를 인식하고, 상품과 관련된 복수의 컨텐츠 중 인식된 사용자 정보를 이용하여 사용자에게 제공할 최적의 컨텐츠를 결정하여 제공하도록 하는 상품과 관련된 증강 현실, 가상 현실 또는 혼합 현실 컨텐츠를 제공하는 디스플레이 장치, 방법 및 서버를 제공할 수 있다.
사용자의 시선에 기초하여 디스플레이 장치의 각도가 조절되고, 조절된 디스플레이 장치의 각도에 따라 사용자가 컨텐츠를 시청하기 적합하도록 컨텐츠의 출력 위치를 조절하는 상품과 관련된 증강 현실, 가상 현실 또는 혼합 현실 컨텐츠를 제공하는 디스플레이 장치, 방법 및 서버를 제공할 수 있다.
상품의 상태에 따라 컨텐츠의 시나리오에 대응하는 컨텐츠를 제공하도록 하는 상품과 관련된 컨텐츠를 제공하는 디스플레이 장치 및 방법을 제공할 수 있다.
도 1은 본 발명의 일 실시예에 따른 컨텐츠 제공 시스템의 구성도이다.
도 2a 및 도 2b는 본 발명의 일 실시예에 따른 디스플레이 장치를 도시한 예시적인 도면이다.
도 3은 본 발명의 일 실시예에 따른 디스플레이 장치의 구성도이다.
도 4a 내지 도 4e는 본 발명의 일 실시예에 따른 디스플레이 장치에서 상품과 관련된 컨텐츠를 제공하는 과정을 설명하기 위한 예시적인 도면이다.
도 5는 본 발명의 일 실시예에 따른 디스플레이 장치에서 상품과 관련된 컨텐츠를 제공하는 방법의 순서도이다.
도 6은 본 발명의 일 실시예에 따른 서버의 구성도이다.
도 7은 본 발명의 일 실시예에 따른 서버에서 디스플레이 장치에서 상품과 관련된 컨텐츠를 제공하는 방법의 순서도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다.
본 명세서에 있어서 단말 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말 또는 디바이스에서 수행될 수도 있다.
이하 첨부된 도면을 참고하여 본 발명의 일 실시예를 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 컨텐츠 제공 시스템의 구성도이다. 도 1을 참조하면, 컨텐츠 제공 시스템(1)은 디스플레이 장치(110) 및 서버(120)를 포함할 수 있다. 디스플레이 장치(110) 및 서버(120)는 컨텐츠 제공 시스템(1)에 의하여 제어될 수 있는 구성요소들을 예시적으로 도시한 것이다.
도 1의 컨텐츠 제공 시스템(1)의 각 구성요소들은 일반적으로 네트워크(network)를 통해 연결된다. 예를 들어, 도 1에 도시된 바와 같이, 디스플레이 장치(110)는 서버(120)와 동시에 또는 시간 간격을 두고 연결될 수 있다.
네트워크는 단말들 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 근거리 통신망(LAN: Local Area Network), 광역 통신망(WAN: Wide Area Network), 인터넷 (WWW: World Wide Web), 유무선 데이터 통신망, 전화망, 유무선 텔레비전 통신망 등을 포함한다. 무선 데이터 통신망의 일례에는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 블루투스 통신, 적외선 통신, 초음파 통신, 가시광 통신(VLC: Visible Light Communication), 라이파이(LiFi) 등이 포함되나 이에 한정되지는 않는다.
디스플레이 장치(110)는 디스플레이 장치(110)에 구비된 제 1 카메라(111)를 통해 상품(100)을 촬영할 수 있다.
디스플레이 장치(110)는 디스플레이 장치(110)에 구비된 제 2 카메라(112)를 통해 사용자의 얼굴을 촬영할 수 있다.
디스플레이 장치(110)는 디스플레이 장치(110)의 각도를 측정할 수 있다.
디스플레이 장치(110)는 촬영된 상품(100)에 대한 정보 및 촬영된 사용자의 얼굴에 대한 정보를 서버(120)로 전송할 수 있다.
디스플레이 장치(110)는 서버(120)로부터 분석된 상품(100)에 대한 정보 및 사용자의 얼굴에 대한 정보 등과 관련된 인식 정보를 수신할 수 있다. 여기서, 인식 정보는 회원 정보, 과거 구매 이력, 선호 상품 및 선호 정보 중 등을 포함하는 사용자 인식 정보 및 상품(100)의 식별자를 포함하는 상품 인식 정보를 포함할 수 있다.
디스플레이 장치(110)는 사용자 인식 정보 및 상품 인식 정보에 기초하여 출력될 컨텐츠를 결정할 수 있다. 예를 들어, 디스플레이 장치(110)는 상품(100)에 대한 복수의 컨텐츠 중 과거 구매 이력, 선호 상품 및 선호 정보 중 등에 기초한 최적 컨텐츠를 결정할 수 있다.
디스플레이 장치(110)는 상품(100)의 상태가 변경됨에 따라 출력될 컨텐츠를 변경할 수 있다.
디스플레이 장치(110)는 인식 정보와 관련된 컨텐츠를 출력할 수 있다. 이 때, 디스플레이 장치(110)는 측정된 디스플레이 장치(110)의 각도에 기초하여 컨텐츠의 출력 위치를 조절할 수 있다. 예를 들어, 디스플레이 장치(110)는 측정된 디스플레이 장치(110)의 각도 및 제 2 촬영부(112)로부터 촬영된 사용자의 얼굴의 이미지로부터 도출된 사용자의 위치에 기초하여 컨텐츠의 출력 위치를 조절할 수 있다.
디스플레이 장치(110)는 표시된 컨텐츠에 대해 사용자로부터 터치 명령 또는 음성 명령 중 등을 입력받을 수 있다.
디스플레이 장치(110)는 데이터베이스를 통해 각 상품마다 다양한 컨텐츠를 저장할 수 있다. 다양한 컨텐츠는 예를 들어, 프로모션에 대한 컨텐츠, 광고에 대한 컨텐츠, 기능에 대한 컨텐츠, 증강 현실 컨텐츠 등을 포함할 수 있다.
이러한 디스플레이 장치(110)는 복수의 상품이 진열된 진열대 상에서 복수의 상품의 전방에 위치하며, 레일(130) 상에서 디스플레이 장치(110)에 구비된 이동 기구를 통해 복수의 상품 중 어느 하나의 전방으로 이동될 수 있다.
서버(120)는 디스플레이 장치(110)로부터 촬영된 상품에 대한 정보 및 촬영된 사용자의 얼굴에 대한 정보를 수신할 수 있다.
서버(120)는 수신한 상품에 대한 정보 및 사용자의 얼굴에 대한 정보를 분석하여 관련된 인식 정보를 추출할 수 있다. 여기서, 인식 정보는 회원 정보, 과거 구매 이력, 선호 상품 및 선호 정보 등을 포함하는 사용자 인식 정보 및 상품의 식별자를 포함하는 상품 인식 정보를 포함할 수 있다.
서버(120)는 추출된 인식 정보를 디스플레이 장치(110)로 전송할 수 있다.
도 2a 및 도 2b는 본 발명의 일 실시예에 따른 디스플레이 장치를 도시한 예시적인 도면이다. 여기서, 디스플레이 장치(110)는 복수의 상품이 진열된 진열대 상에서 복수의 상품의 전방에 위치한다.
도 2a는 본 발명의 일 실시예에 따른 디스플레이 장치의 정면도이다. 도 2a를 참조하면, 디스플레이 장치(110)는 제 1 카메라(111), 제 2 카메라(112), 디스플레이 모듈(113), 마이크(114), 이동 기구(115)를 포함할 수 있다.
제 1 카메라(111)는 디스플레이 장치(110)의 후면에 구비되어, 디스플레이 장치(110)의 후방에 위치한 상품(100)을 촬영할 수 있다.
제 2 카메라(112)는 디스플레이 장치(110)의 전면에 구비되어, 디스플레이 장치(110)를 시청하는 사용자의 얼굴을 촬영할 수 있다.
디스플레이 모듈(113)은 디스플레이 패널을 통해 상품(100)과 관련된 컨텐츠를 출력할 수 있다.
디스플레이 모듈(113)은 터치 센서가 탑재되어, 사용자로부터 출력된 컨텐츠에 대한 터치 입력을 수신할 수 있다.
마이크(114)는 사용자로부터 출력된 컨텐츠에 대한 음성 입력을 수신할 수 있다.
이동 기구(115)는 디스플레이 장치(110)가 복수의 상품 중 어느 하나의 전방으로 이동되도록 할 수 있다. 예를 들어, 디스플레이 장치(110)는 레일(130) 상에서 이동 기구(115)를 통해 사용자에 의해 복수의 상품 중 어느 하나의 상품의 전방으로 이동될 수 있다.
도 2b는 본 발명의 일 실시예에 따른 디스플레이 장치의 측면도이다. 도 2a 및 도 2b를 참조하면, 디스플레이 장치(110)는 힌지(hinge; 116)를 더 포함할 수 있다. 여기서, 힌지(116)는 전자식 또는 기계식 힌지일 수 있다.
힌지(116)는 디스플레이 장치(110)의 기울기가 수동 또는 자동으로 조절되도록 할 수 있다. 이는, 사용자별 신장 차이에 따라 사용자의 시선 각도도 달라지게 되므로, 힌지(116)를 통해 디스플레이 장치(110)의 기울기를 수동 또는 자동으로 조절되도록 함으로써, 사용자의 시선이 디스플레이 장치(110)의 정면을 응시할 수 있도록 하기 위함이다.
예를 들어, 디스플레이 장치(110)의 기울기가 제 1 각도(예를 들어, 0°)에 해당하는 경우, 사용자는 힌지(116)를 통해 사용자의 시선이 디스플레이 장치(110)의 정면을 응시하기에 적합하도록 디스플레이 장치(110)의 기울기를 제 2 각도(예를 들어, 60°)로 조절(117)할 수 있다.
도 3은 본 발명의 일 실시예에 따른 디스플레이 장치의 구성도이다. 도 3을 참조하면, 디스플레이 장치(110)는 제 1 촬영부(310), 제 2 촬영부(320), 측정부(330), 전송부(340), 수신부(350), 컨텐츠 결정부(360), 출력부(370), 입력부(380) 및 데이터베이스(390)를 포함할 수 있다.
제 1 촬영부(310)는 디스플레이 장치(110)에 구비된 제 1 카메라(111)를 통해 상품(100)을 촬영할 수 있다. 여기서, 제 1 카메라(111)는 디스플레이 장치(110)의 후면에 설치된 것으로, 제 1 촬영부(310)는 디스플레이 장치(110)의 후면에 설치된 제 1 카메라(111)를 통해 상품(100)의 정면을 촬영할 수 있다.
제 2 촬영부(320)는 디스플레이 장치(110)에 구비된 제 2 카메라(112)를 통해 사용자의 얼굴을 촬영할 수 있다. 여기서, 제 2 카메라(112)는 디스플레이 장치(110)의 정면에 설치된 것으로, 제 2 촬영부(320)는 디스플레이 장치(110)의 정면에 설치된 제 2 카메라(112)를 통해 사용자의 얼굴을 촬영할 수 있다.
측정부(330)는 디스플레이 장치(110)의 각도를 측정할 수 있다. 예를 들어, 측정부(330)는 디스플레이 장치(110)의 화면이 사용자의 시선과 대응되도록 기울기가 조절된 후, 디스플레이 장치(110)의 각도를 측정할 수 있다. 여기서, 디스플레이 장치(110)의 각도는 진열대와 디스플레이 장치(110)의 디스플레이 패널이 이루는 각도를 의미할 수 있다.
측정부(330)는 디스플레이 패널이 힌지(116; 도 2 참조)에 의해 지지되는 위치에 기초하여 디스플레이 장치(110)의 각도를 측정할 수 있다.
전송부(340)는 촬영된 상품에 대한 정보 및 촬영된 사용자의 얼굴에 대한 정보를 서버(120)로 전송할 수 있다. 여기서, 촬영된 상품에 대한 정보 및 촬영된 사용자의 얼굴에 대한 정보는 상품 이미지 및 얼굴 이미지일 수 있다.
수신부(350)는 서버(120)로부터 분석된 상품(100)에 대한 정보 및 사용자의 얼굴에 대한 정보 중 적어도 하나와 관련된 인식 정보를 수신할 수 있다. 여기서, 인식 정보는 회원 정보, 과거 구매 이력, 선호 상품 및 선호 정보 중 등을 포함하는 사용자 인식 정보 및 상품(100)의 식별자를 포함하는 상품 인식 정보를 포함할 수 있다.
컨텐츠 결정부(360)는 사용자 인식 정보 및 상품 인식 정보에 기초하여 출력될 컨텐츠를 결정할 수 있다.
예를 들어, 컨텐츠 결정부(360)는 상품(100)에 대한 복수의 컨텐츠 중 과거 구매 이력, 선호 상품 및 선호 정보(예를 들어, 선호 색상, 선호 디자인 등) 중 등에 기초한 최적 컨텐츠를 결정할 수 있다.
예를 들어, 컨텐츠 결정부(360)는 상품(100)의 상태가 변경됨에 따라 출력될 컨텐츠를 변경할 수 있다. 여기서, 상품(100)의 상태의 변경은 상품(100)의 형상 변화, 기능 변화 등을 포함할 수 있다.
예를 들어, 상품(100)에 구비된 도어가 닫혀진 경우(예컨대, 사용자가 상품(100)을 열지 않은 경우), 컨텐츠 결정부(360)는 상품(100)의 외관 또는 기본 기능과 관련된 컨텐츠를 최적 컨텐츠로 결정할 수 있다. 이에 반해, 상품(100)에 구비된 도어가 열린 경우(예컨대, 사용자가 상품(100)을 열은 경우), 컨텐츠 결정부(360)는 상품(100)의 내부 구성, 동작 과정, 내부 기능 등과 관련된 컨텐츠를 최적 컨텐츠로 결정할 수 있다.
출력부(370)는 인식 정보와 관련된 컨텐츠를 출력할 수 있다. 이 때, 출력부(370)는 측정된 디스플레이 장치(110)의 각도에 기초하여 컨텐츠의 출력 위치를 조절할 수 있다.
예를 들어, 출력부(370)는 측정된 디스플레이 장치(110)의 각도 및 제 2 촬영부(112)로부터 촬영된 사용자의 얼굴의 이미지로부터 도출된 사용자의 시청 위치에 기초하여 컨텐츠의 출력 위치를 조절할 수 있다.
즉, 디스플레이 장치(110)는 제 2 촬영부(112)로부터 촬영된 사용자의 얼굴의 이미지로부터 사용자의 시청 위치(사용자의 시선 각도를 포함함)를 도출하고, 디스플레이 장치(110)의 각도 및 사용자의 시청 위치를 고려하여 컨텐츠의 출력 위치를 조절할 수 있다.
이는, 사용자별로 신장 차이가 존재하므로, 사용자 마다의 시선 각도를 고려하여 사용자가 컨텐츠의 시청에 적합하도록 컨텐츠의 출력 위치를 조정함으로써, 각 사용자의 시선과 대응되는 위치에 컨텐츠가 출력되도록 하기 위함이다. 특히, 후술하는 바와 같이, 본 발명의 컨텐츠는 증강 현실 컨텐츠를 포함하므로, 디스플레이 장치(110)에 비춰지는 상품(100) 상에 출력되는 증강 현실 컨텐츠의 출력 위치를 결정함에 있어 사용자의 시선 각도가 반드시 고려될 필요가 있다.
입력부(380)는 표시된 컨텐츠에 대해 사용자로부터 터치 명령 또는 음성 명령 등을 입력받을 수 있다. 예를 들어, 입력부(380)는 디스플레이에 구비된 터치 센서를 통해 사용자로부터 표시된 컨텐츠에 대한 터치 명령을 입력받을 수 있다. 다른 예를 들어, 입력부(380)는 마이크를 통해 사용자로부터 표시된 컨텐츠에 대한 음성 명령을 입력받을 수 있다. 여기서, 터치 명령 또는 음성 명령은 컨텐츠의 시나리오에 따른 다음 동작 명령, 상품(100)에 대한 각각의 상세 기능을 설명하기 위한 명령, 광고 또는 프로모션 출력 명령 등을 포함할 수 있다.
데이터베이스(390)는 각 상품마다 다양한 컨텐츠를 저장할 수 있다. 다양한 컨텐츠는 예를 들어, 프로모션에 대한 컨텐츠, 광고에 대한 컨텐츠, 기능에 대한 컨텐츠 등을 포함하며, 이러한 다양한 컨텐츠는 증강 현실, 가상 현실 또는 혼합 현실 컨텐츠로 표현되는 것일 수 있다. 이는, 상품과 관련된 컨텐츠를 증강 현실, 가상 현실 또는 혼합 현실 컨텐츠를 통해 제공함으로써, 사용자는 상품과 관련된 정보를 직관적으로 확인할 수 있다는 장점을 제공할 수 있다.
도 4a 내지 도 4e는 본 발명의 일 실시예에 따른 디스플레이 장치에서 상품과 관련된 컨텐츠를 제공하는 과정을 설명하기 위한 예시적인 도면이다.
도 4a는 본 발명의 일 실시예에 따른 디스플레이 장치에서 사용자 인식 정보에 기초하여 상품 모델을 추천하는 과정을 설명하기 위한 예시적인 도면이다. 도 4a를 참조하면, 디스플레이 장치(110)는 디스플레이 장치(110)에 구비된 카메라를 통해 상품의 촬영 없이 사용자의 얼굴만 촬영된 경우, 사용자 인식 정보와 관련된 컨텐츠(예를 들어, 추천 상품, 추천 모델 등)를 출력할 수 있다. 사용자 인식 정보는 예를 들어, 회원 번호, 과거 구매 이력, 선호 상품 및 선호 정보 등을 포함할 수 있다.
디스플레이 장치(110)는 사용자 인식 정보에 기초하여 컨텐츠를 디스플레이 장치(110)에 출력할 수 있다. 예를 들어, 디스플레이 장치(110)는 화면의 제 1 영역(400)에 사용자 정보를 출력하고, 화면 제 2 영역(410)에 채팅창을 출력하고, 화면의 제 3 영역(420)에 관련 컨텐츠를 출력할 수 있다. 제 1 영역(400)에는 나이, 구매 상품, 관심 상품 등과 같은 사용자 정보가 출력될 수 있다. 제 2 영역(410)에는 챗봇과 사용자 간의 채팅이 가능한 채팅창이 출력될 수 있다. 예를 들어, 챗봇이 "어떤 상품을 찾으세요"라고 질문한 후, 사용자가 "밥솥 추천해줘"라고 응답한 경우, 챗봇은 "오른쪽과 같이 추천해드려요"라는 메시지를 제공할 수 있다. 제 3 영역(420)에는 사용자가 원하는 상품과 관련된 추천 모델(예를 들어, 사용자의 선호 색상의 모델)이 출력될 수 있다.
도 4b 내지 도 4e는 본 발명의 일 실시예에 따른 디스플레이 장치에서 상품과 관련된 프로모션 컨텐츠가 출력된 예시적인 도면이다.
디스플레이 장치(110)는 상품(100)과 관련된 컨텐츠를 출력할 수 있다. 예를 들어, 디스플레이 장치(110)는 레일(130) 상에서 복수의 상품이 진열된 진열대 상에서 복수의 상품의 전방에 위치하여 레일(130) 상에서 사용자에 의해 디스플레이 장치에 구비된 이동 기구를 통해 복수의 상품 중 어느 하나의 상품의 전방으로 이동되고, 이동된 위치에서 촬영된 상품(100)과 관련된 증강 현실, 가상 현실 또는 혼합 현실 컨텐츠를 출력할 수 있다. 다른 예를 들어, 디스플레이 장치(110)는 도 4a에서 출력된 추천 모델로부터 사용자에 의해 선택된 모델과 관련된 증강 현실, 가상 현실 또는 혼합 현실 컨텐츠를 출력할 수도 있다.
이하에서는, 디스플레이 장치(110)에서 카메라를 통해 상품 및 사용자의 얼굴이 촬영됨으로써, 상품 및 사용자 얼굴에 대한 인식 정보와 관련된 컨텐츠를 출력하는 경우에 대해 설명하도록 한다.
도 4b를 참조하면, 디스플레이 장치(110)는 상품의 외관과 관련된 컨텐츠를 출력할 수 있다. 예를 들어, 디스플레이 장치(110)는 상품(100)에 관한 증강 현실, 가상 현실 또는 혼합 현실 컨텐츠를 출력할 수 있다. 예를 들어, 디스플레이 장치(110)는 상품의 외관을 사용자가 모두 확인할 수 있도록 상품(100)의 외관을 360도로 회전시키며 출력할 수 있다.
도 4c를 참조하면, 디스플레이 장치(110)는 상품의 기능과 관련된 증강 현실, 가상 현실 또는 혼합 현실 컨텐츠를 출력할 수 있다. 예를 들어, 디스플레이 장치(110)는 사용자로부터 터치 명령 또는 음성 명령을 통해 상품(100)의 기능과 관련된 컨텐츠의 출력을 입력받아 기능과 관련된 증강 현실, 가상 현실 또는 혼합 현실 컨텐츠를 출력할 수 있다. 기능은 예를 들어, 상품(100)의 모델명, 크기, 중량, 소비전력, 용량 등을 포함할 수 있다.
도 4d를 참조하면, 디스플레이 장치(110)는 사용자로부터 터치 명령 또는 음성 명령을 통해 상품(100)의 내부 구성과 관련된 컨텐츠의 출력을 입력받아 내부 구성과 관련된 증강 현실, 가상 현실 또는 혼합 현실 컨텐츠를 출력할 수 있다. 이와 달리, 사용자가 상품(100)을 제어한 경우(예컨대, 상품(100)을 열은 경우), 디스플레이 장치(110)가 내부 구성과 관련된 증강 현실, 가상 현실 또는 혼합 현실 컨텐츠를 출력할 수 있다.
도 4e를 참조하면, 디스플레이 장치(110)는 사용자로부터 터치 명령 또는 음성 명령을 통해 상품(100)의 동작과 관련된 컨텐츠의 출력을 입력받아 동작과 관련된 증강 현실, 가상 현실 또는 혼합 현실 컨텐츠를 출력할 수 있다. 예를 들어, 디스플레이 장치(110)를 통해 촬영된 상품이 밥솥인 경우, 디스플레이 장치(110)는 밥솥의 동작과 관련된 증강 현실, 가상 현실 또는 혼합 현실 컨텐츠를 출력할 수 있다.
도 5는 본 발명의 일 실시예에 따른 디스플레이 장치에서 상품과 관련된 증강 현실, 가상 현실 또는 혼합 현실 컨텐츠를 제공하는 방법의 순서도이다. 도 5에 도시된 디스플레이 장치(110)에서 상품과 관련된 증강 현실, 가상 현실 또는 혼합 현실 컨텐츠를 제공하는 방법은 도 1 내지 도 4e에 도시된 실시예에 따른 컨텐츠 제공 시스템(1)에 의해 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 1 내지 도 4e에 도시된 실시예에 따른 디스플레이 장치(110)에서 상품과 관련된 증강 현실, 가상 현실 또는 혼합 현실 컨텐츠를 제공하는 방법에도 적용된다.
단계 S510에서 디스플레이 장치(110)는 디스플레이 장치(110)에 구비된 제 1 카메라(111)를 통해 상품(100)을 촬영할 수 있다.
단계 S520에서 디스플레이 장치(110)는 디스플레이 장치(110)에 구비된 제 2 카메라(112)를 통해 사용자의 얼굴을 촬영할 수 있다.
단계 S530에서 디스플레이 장치(110)는 디스플레이 장치(110)의 각도를 측정할 수 있다.
단계 S540에서 디스플레이 장치(110)는 촬영된 상품에 대한 정보 및 촬영된 사용자의 얼굴에 대한 정보를 서버(120)로 전송할 수 있다.
단계 S550에서 디스플레이 장치(110)는 서버(120)로부터 분석된 상품(100)에 대한 정보 및 사용자의 얼굴에 대한 정보 중 적어도 하나와 관련된 인식 정보를 수신할 수 있다.
단계 S560에서 디스플레이 장치(110)는 인식 정보와 관련된 컨텐츠를 출력할 수 있다. 이 때, 컨텐츠는 증강 현실, 가상 현실 또는 혼합 현실 컨텐츠 등을 포함하며, 디스플레이 장치(110)는 측정된 디스플레이 장치(110)의 각도에 기초하여 컨텐츠의 출력 위치를 조절할 수 있다.
상술한 설명에서, 단계 S510 내지 S560은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 전환될 수도 있다.
도 6은 본 발명의 일 실시예에 따른 서버의 구성도이다. 도 6을 참조하면, 서버(120)는 수신부(610), 분석부(620), 추출부(630) 및 전송부(640)를 포함할 수 있다.
수신부(610)는 디스플레이 장치(110)로부터 디스플레이 장치(110)에 의해 촬영된 상품(100)에 대한 정보 및 사용자의 얼굴에 대한 정보를 수신할 수 있다.
분석부(620)는 수신한 상품(100)에 대한 정보 및 사용자의 얼굴에 대한 정보를 분석할 수 있다. 예를 들어, 분석부(620)는 수신한 상품(100)에 대한 정보에 기초하여 상품(100)의 윤곽선, 색상 등을 분석할 수 있다. 다른 예를 들어, 분석부(620)는 수신한 사용자의 얼굴에 대한 정보에 기초하여 사용자의 얼굴 특징점을 분석할 수 있다.
추출부(630)는 분석된 상품에 대한 정보에 기초하여 상품 인식 정보를 추출하고, 분석된 사용자의 얼굴에 대한 정보에 기초하여 사용자 인식 정보를 추출할 수 있다.
전송부(640)는 추출된 상품 인식 정보 및 사용자 인식 정보를 포함하는 인식 정보를 디스플레이 장치(110)로 전송할 수 있다.
도 7은 본 발명의 일 실시예에 따른 서버에서 디스플레이 장치에서 상품과 관련된 증강 현실, 가상 현실 또는 혼합 현실 컨텐츠를 제공하는 방법의 순서도이다. 도 7에 도시된 서버(120)에서 상품과 관련된 증강 현실, 가상 현실 또는 혼합 현실 컨텐츠를 제공하는 방법은 도 1 내지 도 6에 도시된 실시예에 따른 컨텐츠 제공 시스템(1)에 의해 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 1 내지 도 6에 도시된 실시예에 따른 서버(120)에서 상품과 관련된 증강 현실, 가상 현실 또는 혼합 현실 컨텐츠를 제공하는 방법에도 적용된다.
단계 S710에서 서버(120)는 디스플레이 장치(110)로부터 디스플레이 장치(110)에 의해 촬영된 상품에 대한 정보 및 사용자의 얼굴에 대한 정보를 수신할 수 있다.
단계 S720에서 서버(120)는 수신한 상품에 대한 정보 및 사용자의 얼굴에 대한 정보를 분석할 수 있다.
단계 S730에서 서버(120)는 분석된 상품에 대한 정보에 기초하여 상품 인식 정보를 추출하고, 분석된 사용자의 얼굴에 대한 정보에 기초하여 사용자 인식 정보를 추출할 수 있다.
단계 S740에서 서버(120)는 추출된 상품 인식 정보 및 사용자 인식 정보를 포함하는 인식 정보를 디스플레이 장치(110)로 전송할 수 있다.
상술한 설명에서, 단계 S710 내지 S740은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 전환될 수도 있다.
도 1 내지 도 7을 통해 설명된 디스플레이 장치 및 서버에서 상품과 관련된 증강 현실, 가상 현실 또는 혼합 현실 컨텐츠를 제공하는 방법은 컴퓨터에 의해 실행되는 매체에 저장된 컴퓨터 프로그램 또는 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 또한, 도 1 내지 도 7을 통해 설명된 디스플레이 장치 및 서버에서 상품과 관련된 증강 현실, 가상 현실 또는 혼합 현실 컨텐츠를 제공하는 방법은 컴퓨터에 의해 실행되는 매체에 저장된 컴퓨터 프로그램의 형태로도 구현될 수 있다.
컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (20)

  1. 상품과 관련된 컨텐츠를 제공하는 디스플레이 장치에 있어서,
    상기 디스플레이 장치에 구비된 제 1 카메라를 통해 상품을 촬영하는 제 1 촬영부;
    상기 디스플레이 장치에 구비된 제 2 카메라를 통해 사용자의 얼굴을 촬영하는 제 2 촬영부;
    상기 디스플레이 장치의 각도를 측정하는 측정부;
    상기 촬영된 상품에 대한 정보 및 상기 촬영된 사용자의 얼굴에 대한 정보를 서버로 전송하는 전송부;
    상기 서버로부터 분석된 상기 상품에 대한 정보 및 상기 사용자의 얼굴에 대한 정보 중 적어도 하나와 관련된 인식 정보를 수신하는 수신부; 및
    상기 인식 정보와 관련된 컨텐츠를 출력하는 출력부를 포함하되,
    상기 출력부는 상기 측정된 디스플레이 장치의 각도에 기초하여 상기 컨텐츠의 출력 위치를 조절하는 것인, 디스플레이 장치.
  2. 제 1 항에 있어서,
    상기 인식 정보는 회원 정보, 과거 구매 이력, 선호 상품 및 선호 정보 중 적어도 하나를 포함하는 사용자 인식 정보 및 상품의 식별자를 포함하는 상품 인식 정보를 포함하는 것인, 디스플레이 장치.
  3. 제 2 항에 있어서,
    상기 사용자 인식 정보 및 상기 상품 인식 정보에 기초하여 출력될 컨텐츠를 결정하는 컨텐츠 결정부를 더 포함하는 것인, 디스플레이 장치.
  4. 제 3 항에 있어서,
    상기 컨텐츠 결정부는 상기 상품에 대한 복수의 컨텐츠 중 상기 과거 구매 이력, 선호 상품 및 선호 정보 중 적어도 어느 하나에 기초한 최적 컨텐츠를 결정하는 것인, 디스플레이 장치.
  5. 제 1 항에 있어서,
    각 상품마다 다양한 컨텐츠를 저장하는 데이터베이스를 더 포함하고,
    상기 다양한 컨텐츠는 프로모션에 대한 컨텐츠, 광고에 대한 컨텐츠, 기능에 대한 컨텐츠 중 적어도 하나를 포함하는 것인, 디스플레이 장치.
  6. 제 5 항에 있어서,
    상기 다양한 컨텐츠는 증강 현실, 가상 현실 또는 혼합 현실 컨텐츠를 포함하는 것인, 디스플레이 장치.
  7. 제 3 항에 있어서,
    상기 컨텐츠 결정부는 상기 상품의 상태가 변경됨에 따라 상기 출력될 컨텐츠를 변경하는 것인, 디스플레이 장치.
  8. 제 1 항에 있어서,
    상기 표시된 컨텐츠에 대해 사용자로부터 터치 명령 또는 음성 명령 중 적어도 하나를 입력받는 입력부를 더 포함하는 것인, 디스플레이 장치.
  9. 제 1 항에 있어서,
    상기 디스플레이 장치는 복수의 상품이 진열된 진열대 상에서 상기 복수의 상품의 전방에 위치하고,
    상기 디스플레이 장치는, 상기 디스플레이 장치가 상기 복수의 상품 중 어느 하나의 전방으로 이동되기 위한 이동 기구를 포함하는 것인, 디스플레이 장치.
  10. 제 1 항에 있어서,
    상기 출력부는 상기 측정된 디스플레이 장치의 각도 및 상기 제 2 촬영부로부터 촬영된 상기 사용자의 얼굴의 이미지로부터 도출된 상기 사용자의 위치에 기초하여 상기 컨텐츠의 출력 위치를 조절하는 것인, 디스플레이 장치.
  11. 디스플레이 장치에서 상품과 관련된 컨텐츠를 제공하는 방법에 있어서,
    상기 디스플레이 장치에 구비된 제 1 카메라를 통해 상품을 촬영하는 단계;
    상기 디스플레이 장치에 구비된 제 2 카메라를 통해 사용자의 얼굴을 촬영하는 단계;
    상기 디스플레이 장치의 각도를 측정하는 단계;
    상기 촬영된 상품에 대한 정보 및 상기 촬영된 사용자의 얼굴에 대한 정보를 서버로 전송하는 단계;
    상기 서버로부터 분석된 상기 상품에 대한 정보 및 상기 사용자의 얼굴에 대한 정보 중 적어도 하나와 관련된 인식 정보를 수신하는 단계; 및
    상기 인식 정보와 관련된 컨텐츠를 출력하는 단계를 포함하되,
    상기 컨텐츠를 출력하는 단계는 상기 측정된 디스플레이 장치의 각도에 기초하여 상기 컨텐츠의 출력 위치를 조절하는 것인, 컨텐츠 제공 방법.
  12. 제 11 항에 있어서,
    상기 인식 정보는 회원 정보, 과거 구매 이력, 선호 상품 및 선호 정보 중 적어도 하나를 포함하는 사용자 인식 정보 및 상품의 식별자를 포함하는 상품 인식 정보를 포함하는 것인, 컨텐츠 제공 방법.
  13. 제 12 항에 있어서,
    상기 사용자 인식 정보 및 상기 상품 인식 정보에 기초하여 출력될 컨텐츠를 결정하는 단계를 더 포함하는 것인, 컨텐츠 제공 방법.
  14. 제 13 항에 있어서,
    상기 컨텐츠를 결정하는 단계는 상기 상품에 대한 복수의 컨텐츠 중 상기 과거 구매 이력, 선호 상품 및 선호 정보 중 적어도 어느 하나에 기초한 최적 컨텐츠를 결정하는 것인, 컨텐츠 제공 방법.
  15. 제 11 항에 있어서,
    데이터베이스에 각 상품마다 다양한 컨텐츠가 저장되고,
    상기 다양한 컨텐츠는 프로모션에 대한 컨텐츠, 광고에 대한 컨텐츠, 기능에 대한 컨텐츠 중 적어도 하나를 포함하는 것인, 컨텐츠 제공 방법.
  16. 제 15 항에 있어서,
    상기 다양한 컨텐츠는 증강 현실, 가상 현실 또는 혼합 현실 컨텐츠를 포함하는 것인, 컨텐츠 제공 방법.
  17. 제 13 항에 있어서,
    상기 컨텐츠를 결정하는 단계는 상기 상품의 상태가 변경됨에 따라 상기 출력될 컨텐츠를 변경하는 것인, 컨텐츠 제공 방법.
  18. 제 11 항에 있어서,
    상기 표시된 컨텐츠에 대해 사용자로부터 터치 명령 또는 음성 명령 중 적어도 하나를 입력받는 단계를 더 포함하는 것인, 컨텐츠 제공 방법.
  19. 제 11 항에 있어서,
    상기 컨텐츠를 출력하는 단계는 상기 측정된 디스플레이 장치의 각도 및 상기 제 2 촬영부로부터 촬영된 상기 사용자의 얼굴의 이미지로부터 도출된 상기 사용자의 위치에 기초하여 상기 컨텐츠의 출력 위치를 조절하는 것인, 컨텐츠 제공 방법.
  20. 상품과 관련된 컨텐츠를 제공하는 서버에 있어서,
    디스플레이 장치로부터 상기 디스플레이 장치에 의해 촬영된 상품에 대한 정보 및 사용자의 얼굴에 대한 정보를 수신하는 수신부;
    상기 수신한 상품에 대한 정보 및 사용자의 얼굴에 대한 정보를 분석하는 분석부;
    상기 분석된 상품에 대한 정보에 기초하여 상품 인식 정보를 추출하고, 상기 분석된 사용자의 얼굴에 대한 정보에 기초하여 사용자 인식 정보를 추출하는 추출부;
    상기 추출된 상품 인식 정보 및 사용자 인식 정보를 포함하는 인식 정보를 상기 디스플레이 장치로 전송하는 전송부를 포함하되,
    상기 인식 정보에 기초하여 상기 상품과 관련된 컨텐츠가 상기 디스플레이 장치에서 출력되고,
    상기 컨텐츠는 상기 디스플레이 장치에서 측정된 상기 디스플레이 장치의 각도에 기초하여 출력 위치가 조절되는 것인, 서버.
PCT/KR2019/008489 2018-09-14 2019-07-10 상품과 관련된 증강 현실, 가상 현실 또는 혼합 현실 컨텐츠를 제공하는 디스플레이 장치, 방법 및 서버 WO2020054957A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201980060021.3A CN112703524A (zh) 2018-09-14 2019-07-10 提供与商品相关的增强现实、虚拟现实或混合现实内容的显示装置、方法及服务器

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180109935A KR102188929B1 (ko) 2018-09-14 2018-09-14 증강 현실, 가상 현실 또는 혼합 현실 컨텐츠를 제공하는 디스플레이 장치, 방법 및 서버
KR10-2018-0109935 2018-09-14

Publications (1)

Publication Number Publication Date
WO2020054957A1 true WO2020054957A1 (ko) 2020-03-19

Family

ID=69777900

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/008489 WO2020054957A1 (ko) 2018-09-14 2019-07-10 상품과 관련된 증강 현실, 가상 현실 또는 혼합 현실 컨텐츠를 제공하는 디스플레이 장치, 방법 및 서버

Country Status (3)

Country Link
KR (1) KR102188929B1 (ko)
CN (1) CN112703524A (ko)
WO (1) WO2020054957A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102417084B1 (ko) * 2020-12-02 2022-07-06 주식회사 픽스트리 멀티채널 미디어 송수신 방법 및 시스템
WO2023157112A1 (ja) * 2022-02-16 2023-08-24 日本電気株式会社 陳列支援システム、陳列支援方法、および記録媒体

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009105559A (ja) * 2007-10-22 2009-05-14 Nec Saitama Ltd 撮影画像からの認識対象検出処理方法およびカメラ付き携帯型電子機器
KR20100127138A (ko) * 2009-05-25 2010-12-03 엘지전자 주식회사 디스플레이장치 및 그의 시야각 조절 방법
JP2013054593A (ja) * 2011-09-05 2013-03-21 Toshiba Tec Corp 情報処理装置及びプログラム
KR20130117303A (ko) * 2012-04-18 2013-10-25 삼성전자주식회사 증강 현실 이미지를 디스플레이하기 위한 방법 및 그 전자 장치
KR20160023208A (ko) * 2014-08-21 2016-03-03 엘지전자 주식회사 미러 디스플레이 장치 및 그의 동작 방법
KR20160027576A (ko) * 2014-09-01 2016-03-10 유형근 얼굴인식형 인터랙티브 디지털 사이니지장치
KR20170054146A (ko) * 2015-11-09 2017-05-17 에스케이텔레콤 주식회사 증강 현실 제공 방법

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102880974A (zh) * 2012-09-12 2013-01-16 江苏乐买到网络科技有限公司 一种用于向用户发送商品团购信息的系统
KR101553067B1 (ko) * 2012-11-22 2015-09-15 강원대학교산학협력단 증강현실 내비케이터
CN105096180A (zh) * 2015-07-20 2015-11-25 北京易讯理想科技有限公司 基于增强现实的商品信息显示方法及装置
CN107507017A (zh) * 2017-07-07 2017-12-22 阿里巴巴集团控股有限公司 一种线下导购方法和装置
CN107358451A (zh) * 2017-07-17 2017-11-17 竹间智能科技(上海)有限公司 一种交互式智能魔镜
CN108009891A (zh) * 2017-12-15 2018-05-08 杨智勇 基于富媒体显示商品信息的系统及货架及信息展示方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009105559A (ja) * 2007-10-22 2009-05-14 Nec Saitama Ltd 撮影画像からの認識対象検出処理方法およびカメラ付き携帯型電子機器
KR20100127138A (ko) * 2009-05-25 2010-12-03 엘지전자 주식회사 디스플레이장치 및 그의 시야각 조절 방법
JP2013054593A (ja) * 2011-09-05 2013-03-21 Toshiba Tec Corp 情報処理装置及びプログラム
KR20130117303A (ko) * 2012-04-18 2013-10-25 삼성전자주식회사 증강 현실 이미지를 디스플레이하기 위한 방법 및 그 전자 장치
KR20160023208A (ko) * 2014-08-21 2016-03-03 엘지전자 주식회사 미러 디스플레이 장치 및 그의 동작 방법
KR20160027576A (ko) * 2014-09-01 2016-03-10 유형근 얼굴인식형 인터랙티브 디지털 사이니지장치
KR20170054146A (ko) * 2015-11-09 2017-05-17 에스케이텔레콤 주식회사 증강 현실 제공 방법

Also Published As

Publication number Publication date
KR20200031216A (ko) 2020-03-24
KR102188929B1 (ko) 2020-12-09
CN112703524A (zh) 2021-04-23

Similar Documents

Publication Publication Date Title
WO2021020667A1 (ko) 원격 재활 훈련 제공 방법 및 프로그램
US20180007317A1 (en) Transmission terminal, transmission method, and computer-readable recording medium storing transmission program
WO2015012441A1 (en) Digital device and control method thereof
WO2018128472A1 (en) Virtual reality experience sharing
WO2016072714A1 (en) Electronic device and method for providing filter in electronic device
WO2020054957A1 (ko) 상품과 관련된 증강 현실, 가상 현실 또는 혼합 현실 컨텐츠를 제공하는 디스플레이 장치, 방법 및 서버
WO2011053027A2 (en) Image providing system and method
EP2471002A2 (en) Apparatus and method for synchronizing e-book content with video content and system thereof
WO2015126006A1 (en) Head mounted display and method for controlling the same
WO2015030307A1 (en) Head mounted display device and method for controlling the same
WO2018074618A1 (ko) 영상을 위한 효과 공유 방법 및 시스템
WO2012081887A2 (en) Method and apparatus for providing advertisement service in mobile communication system
WO2018174366A1 (ko) IoT가 가능한 광고형 3D 프린터 운영 시스템
WO2023096392A1 (ko) 동영상 자동 제작 시스템
WO2018097384A1 (ko) 밀집도 알림 장치 및 방법
WO2014115918A1 (ko) 광고 제공 시스템 및 방법
WO2023191556A1 (ko) 증강현실 콘텐츠 출력 장치
WO2017188519A1 (en) Multi-vision device
WO2022004947A1 (ko) 전자 가격 표시기 및 그 제어 방법
WO2021033811A1 (ko) 하프 미러 셀프 사진 촬영 시스템 및 하프 미러 셀프 사진 촬영 시스템을 이용한 심리 상담 방법
WO2017209436A1 (ko) 양방향 텔레스크린 제어 방법 및 그를 위한 장치
WO2018097392A1 (en) Integrated plastic surgery consultation and travel schedule management system and method thereof
WO2022092746A1 (ko) 스마트기기의 디스플레이 영역에 표시된 피사체의 안면 트래킹 방법
WO2021251599A1 (en) Electronic apparatus and control method thereof
WO2021125721A1 (en) Electronic apparatus and control method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19859736

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205 DATED 09/07/2021)

122 Ep: pct application non-entry in european phase

Ref document number: 19859736

Country of ref document: EP

Kind code of ref document: A1