KR102268045B1 - An apparatus and method for proceeding information of products being displayed in the show window - Google Patents

An apparatus and method for proceeding information of products being displayed in the show window Download PDF

Info

Publication number
KR102268045B1
KR102268045B1 KR1020140080053A KR20140080053A KR102268045B1 KR 102268045 B1 KR102268045 B1 KR 102268045B1 KR 1020140080053 A KR1020140080053 A KR 1020140080053A KR 20140080053 A KR20140080053 A KR 20140080053A KR 102268045 B1 KR102268045 B1 KR 102268045B1
Authority
KR
South Korea
Prior art keywords
user
show window
gesture
displayed
products
Prior art date
Application number
KR1020140080053A
Other languages
Korean (ko)
Other versions
KR20160001466A (en
Inventor
임재혁
김지덕
권재욱
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020140080053A priority Critical patent/KR102268045B1/en
Priority to PCT/KR2014/008973 priority patent/WO2015199283A1/en
Publication of KR20160001466A publication Critical patent/KR20160001466A/en
Application granted granted Critical
Publication of KR102268045B1 publication Critical patent/KR102268045B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K17/00Methods or arrangements for effecting co-operative working between equipments covered by two or more of main groups G06K1/00 - G06K15/00, e.g. automatic card files incorporating conveying and reading operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/22Source localisation; Inverse modelling

Abstract

본 발명은 쇼 윈도우 내에 전시된 제품들의 정보를 제공하기 위한 것으로, 복수의 제품이 수용되는 쇼 윈도우에 있어서, 상기 쇼 윈도우 및 쇼 윈도우 주변을 스캔하는 스캔부와, 상기 쇼 윈도우의 적어도 일부에 화상 정보를 영사하는 표시부, 및, 상기 스캔된 결과에 근거하여 상기 쇼 윈도우 주변에 위치한 사용자의 제스처를 감지하고, 상기 제스처에 근거하여 상기 복수의 제품 중 적어도 하나에 관련된 화상 정보가 상기 쇼 윈도우 상에 표시되도록 상기 표시부를 제어하는 제어부를 포함하는 것을 특징으로 한다. The present invention is to provide information on products displayed in a show window. In a show window accommodating a plurality of products, a scan unit for scanning the show window and the periphery of the show window, and an image on at least a part of the show window a display unit for projecting information, and a gesture of a user located around the show window is detected based on the scanned result, and image information related to at least one of the plurality of products is displayed on the show window based on the gesture. and a control unit for controlling the display unit to be displayed.

Description

쇼 윈도우에 전시된 제품의 제품 정보 제공 장치 및 방법{AN APPARATUS AND METHOD FOR PROCEEDING INFORMATION OF PRODUCTS BEING DISPLAYED IN THE SHOW WINDOW}Apparatus and method for providing product information of products displayed in the show window {AN APPARATUS AND METHOD FOR PROCEEDING INFORMATION OF PRODUCTS BEING DISPLAYED IN THE SHOW WINDOW}

본 발명은 쇼 윈도우 내에 전시된 제품들의 정보를 제공하기 위한 것이다.
The present invention is to provide information on products displayed in a show window.

일반적으로 대형 백화점이나 쇼핑몰등에서는 견본 제품이나 실제 제품등을 유리와 같이 투과성 높은 구조물(쇼 윈도우(Show Window)) 내부에 전시한다. 이러한 경우 행인들은 쇼 윈도우를 통해 상기 제품들을 육안으로 확인할 수 있으며, 이에 따른 구매 욕구의 상승으로 인해 잠재적인 고객으로 전환될 수 있다. In general, in large department stores or shopping malls, sample products or actual products are displayed inside a highly transparent structure (show window) such as glass. In this case, passers-by may visually check the products through the show window, and thus may be converted into potential customers due to an increase in purchase desire.

한편, 현재는 발달된 정보 통신 기술을 이용하여 이러한 구매 욕구의 상승 효과를 증가시키기 위한 방법이 활발하게 연구중인 실정이다. 예를 들어 현재에는 정보 통신 기술을 이용하여 사용자에게 보다 능동적으로 원하는 정보를 제공할 수 있도록 한다. 이를 위해 현재에는 디지털 사이니지(digital signage)와 같이 디지털화된 제품의 정보를 사용자에게 제공하며, 사용자와 상호 작용할 수 있도록 하는 방법도 등장하고 있는 실정이다.Meanwhile, a method for increasing the synergistic effect of such a purchase desire using developed information and communication technology is being actively studied. For example, currently, information and communication technology is used to more actively provide desired information to a user. To this end, currently, information on digitized products, such as digital signage, is provided to the user, and a method for interacting with the user is also emerging.

하지만 이러한 디지털 사이니지등과 같은 방법은, 사용자에게 실제 제품 또는 견본이 아닌, 단지 디지털 이미지만을 제공할 수 있다는 한계가 있으며, 그 구현에 있어서도 디지털 사이니지의 경우 디스플레이 패널의 면적이 넓을수록 고 비용을 요함으로 많은 비용이 소모된다는 문제가 있다. 이에 따라 사용자에게 실제 제품 견본을 제공할 수 있으면서도, 보다 저 비용으로 상기 제품과 관련된 다양한 정보를 사용자에게 제공할 수 있도록 하는 방법이 절실하게 필요한 상황이다.
However, such a digital signage method has a limitation in that it can provide only a digital image, not an actual product or sample, to the user, and in the implementation of digital signage, the larger the area of the display panel, the higher the cost. There is a problem that a lot of cost is consumed by requiring Accordingly, there is an urgent need for a method capable of providing a user with an actual product sample and providing a variety of information related to the product to the user at a lower cost.

본 발명의 목적은, 사용자에게 실제 제품 또는 실제 제품 견본을 보여주면서도, 사용자가 상호작용하여 사용자가 원하는 정보를 제공할 수 있도록 하는 장치 및 방법을 제공함에 있다. SUMMARY OF THE INVENTION An object of the present invention is to provide an apparatus and method for providing information desired by a user by interacting with the user while showing an actual product or an actual product sample to the user.

본 발명의 다른 목적은, 사용자와 상호작용하여 사용자가 원하는 정보를 제공할 수 있도록 하면서도, 소요되는 비용을 최소화할 수 있도록 하는 하는 장치 및 방법을 제공함에 있다.
Another object of the present invention is to provide an apparatus and method for minimizing costs while interacting with a user to provide desired information to the user.

상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따르면, 본 발명의 실시 예에 따른 제품 정보 제공 장치는, 복수의 제품이 수용되는 쇼 윈도우에 있어서, 상기 쇼 윈도우 및 쇼 윈도우 주변을 스캔하는 스캔부와, 상기 쇼 윈도우의 적어도 일부에 화상 정보를 영사하는 표시부, 및, 상기 스캔된 결과에 근거하여 상기 쇼 윈도우 주변에 위치한 사용자의 제스처를 감지하고, 상기 제스처에 근거하여 상기 복수의 제품 중 적어도 하나에 관련된 화상 정보가 상기 쇼 윈도우 상에 표시되도록 상기 표시부를 제어하는 제어부를 포함하는 것을 특징으로 한다. According to one aspect of the present invention to achieve the above or other object, the product information providing apparatus according to an embodiment of the present invention, in a show window accommodating a plurality of products, scans the show window and the periphery of the show window A scanning unit, a display unit for projecting image information on at least a portion of the show window, and detecting a gesture of a user located in the vicinity of the show window based on the scanned result, based on the gesture, among the plurality of products and a control unit controlling the display unit so that at least one related image information is displayed on the show window.

일 실시 예에 있어서, 상기 제어부는, 상기 복수의 제품 중, 상기 제스처에 대응되는 어느 하나의 제품과 관련된 정보가 표시된 상기 쇼 케이스 내부의 특정 위치를 스캔하도록 상기 스캔부를 제어하며, 상기 스캔된 이미지가 영사되도록 상기 표시부를 제어하는 것을 특징으로 한다. In an embodiment, the controller controls the scan unit to scan a specific location inside the showcase where information related to any one product corresponding to the gesture is displayed among the plurality of products, and the scanned image is characterized in that the display unit is controlled to be projected.

일 실시 예에 있어서, 상기 제어부는, 상기 쇼 윈도우 내부에서 적어도 하나의 광고가 표시된 특정 위치를 스캔하도록 상기 스캔부를 제어하며, 상기 스캔된 이미지가 영사되도록 상기 표시부를 제어하는 것을 특징으로 한다. In an embodiment, the control unit controls the scan unit to scan a specific position where at least one advertisement is displayed within the show window, and controls the display unit to project the scanned image.

일 실시 예에 있어서, 상기 제어부는, 상기 스캔한 이미지에 대한 고개의 제스처에 근거하여, 상기 스캔되는 이미지가 영사되는 위치 및 크기 중 적어도 하나가 변경되도록 상기 표시부를 제어하는 것을 특징으로 한다. In an embodiment, the controller controls the display unit to change at least one of a location and a size at which the scanned image is projected, based on a gesture of the head with respect to the scanned image.

일 실시 예에 있어서, 상기 제품들 각각에 관련된 정보들이 저장된 메모리를 더 포함하며, 상기 제어부는, 상기 제품들 중 상기 제스처에 대응되는 어느 하나에 제품에 관련된 정보를 상기 메모리로부터 독출하여 상기 쇼 윈도우의 적어도 일부 영역에 영사되도록 상기 표시부를 제어하는 것을 특징으로 한다. In one embodiment, further comprising a memory in which information related to each of the products is stored, wherein the control unit reads information related to a product to any one of the products corresponding to the gesture from the memory to display the show window It is characterized in that the display unit is controlled to be projected on at least a partial area of the .

일 실시 예에 있어서, 상기 제어부는, 상기 제품들 중 상기 제스처에 대응되는 어느 하나에 관련된 정보를, 그 제품에 부착된 무선 칩으로부터 수신하여 상기 쇼 윈도우의 적어도 일부 영역에 영사되도록 상기 표시부를 제어하는 것을 특징으로 한다. In an embodiment, the control unit controls the display unit to receive information related to any one of the products corresponding to the gesture from a wireless chip attached to the product and project the information to at least a partial area of the show window. characterized in that

일 실시 예에 있어서, 상기 스캔부는, 상기 쇼 윈도우에 비치는 사용자의 영상을 스캔하고, 상기 제어부는, 상기 스캔된 결과를 이용하여 사용자와의 거리 및 상기 사용자의 제스처를 감지하는 것을 특징으로 한다. In an embodiment, the scan unit scans an image of a user reflected on the show window, and the control unit detects a distance to the user and a gesture of the user using the scanned result.

일 실시 예에 있어서, 상기 화상 정보는, 상기 제품과 관련된 이벤트에 대한 정보, 상기 제품에 대해 검색된 정보, 및, 상기 제품과 관련된 다른 제품에 대한 정보 중 적어도 하나를 포함하는 정보임을 특징으로 한다. In an embodiment, the image information is characterized in that it is information including at least one of information on an event related to the product, information searched for on the product, and information on another product related to the product.

일 실시 예에 있어서, 상기 제어부는, 상기 복수의 제품 중 적어도 하나를 사용자로부터 선택받기 위한 선택 영역이 상기 쇼 윈도우 상에 표시되도록 상기 표시부를 제어하고, 상기 선택 영역 상에서 감지되는 사용자의 제스처에 근거하여 상기 제품들 중 적어도 하나에 관련된 화상 정보가 영사되도록 상기 표시부를 제어하는 것을 특징으로 한다. In an embodiment, the control unit controls the display unit so that a selection area for receiving at least one of the plurality of products to be selected by a user is displayed on the show window, and based on the user's gesture sensed on the selection area to control the display unit to project image information related to at least one of the products.

일 실시 예에 있어서, 상기 선택 영역은, 상기 쇼 윈도우 내부에 수용되는 제품들이 적어도 하나 비치도록, 상기 쇼 윈도우의 적어도 일부 영역에 형성되며, 상기 비치는 제품들 중, 사용자의 제스처에 대응되는 적어도 하나의 제품들이 다른 제품들과 구분되게 표시되는 영역임을 특징으로 한다. In an embodiment, the selection area is formed in at least a portion of the show window so that at least one product accommodated in the show window is reflected, and among the reflected products, at least one corresponding to a user's gesture It is characterized as an area where the products of the product are displayed separately from other products.

일 실시 예에 있어서, 상기 제어부는, 상기 쇼 윈도우에 비친 사용자의 영상을 스캔한 결과로부터 사용자의 시선 방향을 더 감지하고, 상기 사용자의 시선 방향에 근거하여 상기 선택 영역을 설정하는 것을 특징으로 한다. In an embodiment, the controller further detects a user's gaze direction from a result of scanning the user's image reflected on the show window, and sets the selection area based on the user's gaze direction. .

일 실시 예에 있어서, 상기 제어부는, 사용자의 시선 방향에 근거하여 상기 선택 영역을 통해 비처보이는 제품들 중 어느 하나를 선택 및 선택된 제품이 다른 제품들과 구분되도록 상기 표시부를 제어하고, 상기 선택된 제품에 대한 사용자의 제스처가 감지되면, 상기 선택된 제품에 관련된 정보가 상기 선택 영역의 적어도 일부에 표시되도록 상기 표시부를 제어하는 것을 특징으로 한다. In an embodiment, the control unit selects any one of the products visible through the selection area based on the user's gaze direction and controls the display unit to distinguish the selected product from other products, and the selected product When a user's gesture is detected, the display unit is controlled so that information related to the selected product is displayed on at least a part of the selection area.

일 실시 예에 있어서, 상기 제어부는, 사용자의 시선 방향 및, 감지된 사용자의 제스처에 근거하여 상기 쇼 윈도우 상에서 영사되는 화상 정보의 위치를 결정하는 것을 특징으로 한다. In an embodiment, the controller determines the position of the image information projected on the show window based on the user's gaze direction and the detected user's gesture.

일 실시 예에 있어서, 상기 제어부는, 사용자의 키 높이 및, 사용자의 위치에 근거하여 상기 화상 정보가 영사되는 상기 쇼 윈도우 상의 위치 및 상기 화상 정보의 크기를 결정하는 것을 특징으로 한다. In an embodiment, the controller determines a position on the show window to which the image information is projected and a size of the image information based on the height of the user and the position of the user.

일 실시 예에 있어서, 상기 제어부는, 상기 스캔부의 일부 동작을 사용자가 제어할 수 있도록 하는 적어도 하나의 그래픽 객체가 상기 쇼 윈도우에 표시되도록 상기 표시부를 제어하고, 상기 그래픽 객체는, 상기 스캔부가 스캔하는 상기 쇼 윈도우 내부의 위치 및 상기 스캔부의 줌 인이나 줌 아웃 동작과 관련된 것임을 특징으로 한다. In an embodiment, the control unit controls the display unit to display at least one graphic object allowing a user to control some operations of the scanning unit to be displayed in the show window, and the graphic object is scanned by the scanning unit. It is characterized in that it is related to a position inside the show window and a zoom-in or zoom-out operation of the scan unit.

일 실시 예에 있어서, 상기 제어부는, 상기 제스처에 대응되는 제품에 대한 정보를 특정 이동 단말기로 전송하기 위한 그래픽 객체가 상기 쇼 윈도우에 더 표시되도록 상기 표시부를 제어하고, 상기 그래픽 객체에 대한 사용자의 제스처가 감지되는 경우, 상기 정보를 상기 사용자의 이동 단말기로 전송하는 것을 특징으로 한다. In an embodiment, the control unit controls the display unit to further display a graphic object for transmitting information about a product corresponding to the gesture to a specific mobile terminal in the show window, and controls the user's response to the graphic object. When a gesture is detected, the information is transmitted to the user's mobile terminal.

일 실시 예에 있어서, 상기 스캔부는, 레이저 스캔 방식을 이용하여, 상기 쇼 윈도우 및 쇼 윈도우 주변을 스캔하는 것을 특징으로 한다. In an embodiment, the scan unit scans the show window and the periphery of the show window by using a laser scan method.

일 실시 예에 있어서, 상기 제어부는, 상기 화상 정보가 표시되는 상태에서, 상기 쇼 윈도우에 비치는 사용자의 영상에 근거하여 동일한 사용자가 상기 쇼 윈도우 주변에 있는지를 감지하고, 상기 감지 결과에 근거하여 상기 화상 정보의 표시를 중지하는 것을 특징으로 한다. In an embodiment, the control unit is, in a state in which the image information is displayed, detects whether the same user is in the vicinity of the show window based on an image of the user reflected on the show window, and based on the detection result, the It is characterized in that the display of image information is stopped.

일 실시 예에 있어서, 상기 스캔부는, 상기 쇼 윈도우를 스캔하여 상기 쇼 윈도우 상의 온도 분포를 더 스캔하고, 상기 제어부는, 상기 스캔된 결과에 근거하여 상기 쇼 윈도우 상에서 상기 사용자의 터치가 감지된 지점을 감지하고, 감지된 지점에 근거하여 상기 복수의 제품 중 적어도 하나에 관련된 화상 정보가 상기 쇼 윈도우 상에 표시되도록 하는 것을 특징으로 한다.In an embodiment, the scan unit scans the show window to further scan a temperature distribution on the show window, and the control unit is a point at which the user's touch is sensed on the show window based on the scanned result. is detected, and image information related to at least one of the plurality of products is displayed on the show window based on the sensed point.

상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따르면, 본 발명의 실시 예에 따른 제품 정보 제공 방법은, 복수의 제품이 수용되는 쇼 윈도우에 있어서, 상기 쇼 윈도우 및 쇼 윈도우 주변을 스캔하는 단계와, 상기 스캔된 결과에 근거하여 상기 쇼 윈도우 주변에 위치한 사용자의 제스처를 감지하는 단계와, 상기 감지된 제스처에 근거하여 상기 복수의 제품 중 적어도 하나를 사용자로부터 선택받는 단계, 및, 상기 선택된 적어도 하나의 제품에 관련된 화상 정보를 상기 쇼 윈도우의 적어도 일부 영역에 영사하는 단계를 포함하는 것을 특징으로 한다.
According to an aspect of the present invention in order to achieve the above or other objects, the method for providing product information according to an embodiment of the present invention includes, in a show window in which a plurality of products are accommodated, scanning the show window and the surroundings of the show window. detecting a gesture of a user located in the vicinity of the show window based on the scanned result; receiving at least one of the plurality of products selected from the user based on the detected gesture; and, and projecting image information related to at least one product onto at least a partial area of the show window.

본 발명에 따른 제품 정보 제공 장치 및 그 방법의 효과에 대해 설명하면 다음과 같다.The effect of the product information providing apparatus and the method according to the present invention will be described as follows.

본 발명의 실시 예들 중 적어도 하나에 의하면, 본 발명은 쇼 윈도우를 통해, 사용자의 제스처에 근거한 제품의 제품 정보가 제공되도록 할 수 있으므로, 실제 제품 및 견본을 사용자가 확인할 수 있도록 하면서도, 사용자가 원하는 다양한 정보가 제공되도록 한다는 장점이 있다. According to at least one of the embodiments of the present invention, the present invention can provide product information of a product based on a user's gesture through the show window, so that the user can check the actual product and sample, while allowing the user to It has the advantage of providing a variety of information.

본 발명의 실시 예들 중 적어도 하나에 의하면, 본 발명은 쇼 윈도우를 스캔하여 사용자의 제스처를 감지하고, 그에 대응되는 제품 정보가 상기 쇼 윈도우에 영사되도록 함으로써, 일반적인 쇼 윈도우를 이용하면서도, 사용자와 상호작용하여 사용자가 원하는 정보가 제공될 수 있도록 한다는 장점이 있다.
According to at least one of the embodiments of the present invention, the present invention scans the show window to detect the user's gesture, and allows product information corresponding thereto to be projected on the show window, so that the user can interact with the user while using the general show window. It has the advantage that it works so that the information desired by the user can be provided.

도 1은 본 발명의 실시 예에 따른 제품 정보 제공 장치의 구성을 도시한 블록 구성도이다.
도 2는 본 발명의 실시 예에 따른 제품 정보 제공 장치의 동작 과정을 도시한 흐름도이다.
도 3은 사용자의 제스처에 대응되는 어느 하나의 진열품을 선택하는 동작 과정을 보다 자세히 도시한 흐름도이다.
도 4는 사용자의 시선 방향 및 사용자의 제스처에 근거하여 어느 하나의 진열품이 선택되는 동작 과정을 보다 자세히 도시한 흐름도이다.
도 5a 및 도 5b는, 본 발명의 실시 예에 따른 제품 정보 제공 장치가 설치된 예 및 본 발명의 실시 예에 따라 쇼 윈도우에 표시되는 화상 정보의 예를 보이는 예시도이다.
도 6a 및 도 6b는, 본 발명의 실시 예에 따른 제품 정보 제공 장치에서 사용자의 위치 및 사용자의 키 높이에 따라 쇼 윈도우에 표시되는 화상 정보의 위치가 다르게 결정되는 예를 보이는 예시도이다.
도 7은, 본 발명의 실시 예에 따른 제품 정보 제공 장치에서, 사용자의 시선 방향 변경 및, 사용자의 제스처에 근거하여 화상 정보가 제공되는 예시도이다.
도 8은, 본 발명의 실시 예에 따른 제품 정보 제공 장치에서, 사용자의 선택에 따라 쇼 윈도우 상에 특정 광고와 관련된 이미지가 영사되는 예시도이다.
도 9는, 본 발명의 실시 예에 따른 제품 정보 제공 장치에서, 화상 정보가 표시되는 상태를 제어할 수 있는 그래픽 객체들 및 그에 따라 수행되는 기능의 예를 보이고 있는 예시도이다.
1 is a block diagram illustrating a configuration of an apparatus for providing product information according to an embodiment of the present invention.
2 is a flowchart illustrating an operation process of an apparatus for providing product information according to an embodiment of the present invention.
3 is a flowchart illustrating in more detail an operation process of selecting any one display item corresponding to a user's gesture.
4 is a flowchart illustrating in more detail an operation process in which any one display item is selected based on the user's gaze direction and the user's gesture.
5A and 5B are exemplary views showing an example in which a product information providing apparatus according to an embodiment of the present invention is installed and an example of image information displayed on a show window according to an embodiment of the present invention.
6A and 6B are exemplary views illustrating an example in which the position of image information displayed on a show window is determined differently according to a user's position and a user's height in the product information providing apparatus according to an embodiment of the present invention.
7 is an exemplary diagram in which image information is provided based on a change in a user's gaze direction and a user's gesture in the device for providing product information according to an embodiment of the present invention.
8 is an exemplary diagram in which an image related to a specific advertisement is projected on a show window according to a user's selection in the device for providing product information according to an embodiment of the present invention.
9 is an exemplary diagram showing examples of graphic objects capable of controlling a state in which image information is displayed and functions performed accordingly in the device for providing product information according to an embodiment of the present invention.

본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "구성된다." 또는 "포함한다." 등의 용어는 명세서상에 기재된 여러 구성 요소들, 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.It should be noted that technical terms used herein are used only to describe specific embodiments, and are not intended to limit the present invention. Also, as used herein, the singular expression includes the plural expression unless the context clearly dictates otherwise. As used herein, "consisting of." or "includes." The term such as etc. should not be construed as necessarily including all of the various components or steps described in the specification, and some components or some steps may not be included, or additional components or steps may not be included. It should be construed as being able to include more.

또한, 본 명세서에 개시된 기술을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 기술의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. In addition, in describing the technology disclosed in the present specification, if it is determined that a detailed description of a related known technology may obscure the gist of the technology disclosed in this specification, the detailed description thereof will be omitted.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예들을 상세히 설명하도록 한다. Hereinafter, embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings.

먼저 본 발명의 완전한 이해를 돕기 위해, 본 발명의 기본 원리를 설명하면 본 발명에서는, 사용자와 상호작용하여 사용자가 원하는 정보를 능동적으로 제공할 수 있도록 하는데 있어서, 터치스크린이 아니라 일반적인 쇼 윈도우를 이용할 수 있도록 하기 위한 것이다. 이를 위해 본 발명은, 일정 거리 이내에 쇼 윈도우에 사람(이하 '사용자'라고 칭하기로 한다)이 위치하는 경우에, 상기 쇼 윈도우를 통해 비치는 사용자의 영상을 이용하여, 사용자의 제스처를 감지하고, 사용자의 제스처에 대응되는 특정 제품 또는 견본품에 관련된 정보가 상기 쇼 윈도우의 적어도 일부 영역에 영사(projection)될 수 있도록 한다. 이에 따라 본 발명은 쇼 윈도우 전체를 터치 스크린으로 구성하지 않음에도 불구하고, 사용자의 터치 등, 사용자의 제스처를 감지하고 그에 따라 특정 제품과 관련된 정보가 제공되도록 할 수 있다.First, in order to help a complete understanding of the present invention, the basic principle of the present invention will be described. In the present invention, a general show window, not a touch screen, is used in interaction with a user to actively provide desired information. in order to be able to To this end, in the present invention, when a person (hereinafter referred to as a 'user') is located in the show window within a certain distance, the user's gesture is sensed using the image of the user reflected through the show window, and the user Information related to a specific product or sample corresponding to the gesture of can be projected on at least a partial area of the show window. Accordingly, the present invention can detect a user's gesture, such as a user's touch, and provide information related to a specific product accordingly, even though the entire show window is not configured as a touch screen.

이를 위해 본 발명은, 상기 사용자의 제스처를 감지할 수 있는 수단 및 쇼 윈도우 내부에 진열된 제품 또는 견본품들 및 상기 제품 또는 견본품들에 대한 정보를 스캔(scan)하기 위한 수단등을 포함할 수 있다. 여기서 상기 감지 수단은 다양한 것이 될 수 있다. 예를 들어 상기 감지 수단은, 상기 쇼 윈도우 주변에 설치된 적외선 센서 또는 레이저 센서등일 수 있다. 또는 상기 감지 수단 및 스캔 수단은 하나의 스캐너(scanner)일 수 있다. 이는 상기 스캐너가 상기 쇼 윈도우에 비치는 사용자의 영상을 스캔하여 사용자와 쇼 윈도우 사이의 거리 및 사용자의 제스처를 감지할 수도 있기 때문이다. To this end, the present invention may include means for detecting the user's gesture and means for scanning products or samples displayed in the show window and information on the products or samples. . Here, the sensing means may be various. For example, the sensing means may be an infrared sensor or a laser sensor installed around the show window. Alternatively, the sensing means and the scanning means may be a single scanner. This is because the scanner may scan the user's image reflected on the show window to detect the distance between the user and the show window and the user's gesture.

도 1은 이러한 본 발명의 실시 예에 따른 제품 정보 제공 장치의 구성을 도시하고 있는 것이다. 이하의 설명에서는 하나의 스캐너, 즉 상기 감지 수단 및 스캔 수단이 하나의 스캐너로 구성되는 경우를 가정하여 설명하기로 한다. 1 is a diagram illustrating the configuration of an apparatus for providing product information according to an embodiment of the present invention. In the following description, it is assumed that one scanner, that is, a case in which the sensing means and the scanning means are configured as one scanner.

도 1을 참조하여 살펴보면, 본 발명의 실시 예에 따른 제품 정보 제공 장치(100)는, 스캔부(104)와 표시부(106) 및 상기 스캔부(104)와 표시부(106)에 연결되며 연결된 각 구성 요소를 제어하는 제어부(102)를 포함하여 구성될 수 있다. Referring to FIG. 1 , the device 100 for providing product information according to an embodiment of the present invention is connected to the scan unit 104 and the display unit 106 and the scan unit 104 and the display unit 106, and each connected It may be configured to include a control unit 102 for controlling the components.

여기서 상기 표시부(106)는 상기 쇼 윈도우에 수용된 복수의 제품 중 적어도 하나에 관련된 정보를 화상 정보 형태로 상기 쇼 윈도우 상에 표시할 수 있다. 예를 들어 상기 표시부(106)는 빔 프로젝터(beam projector)의 형태로 구현되어, 상기 쇼 윈도우 내부에 수용된 복수의 제품 중 적어도 하나의 제품과 관련된 화상 정보를 상기 쇼 윈도우 상의 적어도 일부에 영사(projection)할 수 있다. 이러한 경우, 쇼 윈도우 외부에 위치한 사용자는 상기 쇼 윈도우의 뒷면, 즉 제품 또는 견본품(이하 진열품이라 칭한다)들이 진열되는 방향의 면(이하 내부 면이라 한다)에 영사되는 화상 정보를 통해 자신이 선택한 제품과 관련된 정보를 확인할 수 있다. Here, the display unit 106 may display information related to at least one of a plurality of products accommodated in the show window in the form of image information on the show window. For example, the display unit 106 is implemented in the form of a beam projector, and image information related to at least one product among a plurality of products accommodated in the show window is projected onto at least a part of the show window. )can do. In this case, the user located outside the show window selects the product selected by the user through image information projected on the back side of the show window, that is, the side in the direction in which the products or samples (hereinafter referred to as display items) are displayed (hereinafter referred to as the inner side). related information can be found.

스캔부(104)는 상기 쇼 윈도우 주변을 스캔할 수 있다. 예를 들어 스캔부(104)는 레이저(laser) 스캔 방식에 따라 상기 쇼 윈도우 내부에 위치한 진열품들을 스캔하여, 상기 진열품들 각각과 관련된 이미지를 생성할 수 있다. 또는 제어부(102)는 상기 쇼 윈도우 내부의 특정 위치, 예를 들어 쇼 윈도우 내부에 수용된 진열품들과 관련된 정보들이 표시된 위치 또는 상기 쇼 윈도우 내부에 광고가 표시된 위치를 스캔하여, 스캔된 위치에서 표시되는 정보를 포함하는 이미지를 생성할 수도 있다. 그리고 이처럼 스캔부(104)에서 스캔된 이미지는, 제어부(102)의 제어에 따라 상기 표시부(106)를 통해 상기 쇼 윈도우 상의 적어도 일부 영역에 영사될 수 있다. The scan unit 104 may scan around the show window. For example, the scan unit 104 may scan the display items located inside the show window according to a laser scanning method to generate an image related to each of the display items. Alternatively, the control unit 102 scans a specific position within the show window, for example, a position where information related to displays accommodated in the show window is displayed or a position where an advertisement is displayed inside the show window, and is displayed at the scanned position. It is also possible to create an image containing information. Also, the image scanned by the scan unit 104 may be projected on at least a partial area of the show window through the display unit 106 under the control of the control unit 102 .

한편 스캔부(104)는, 상기 쇼 윈도우를 스캔하여 상기 쇼 윈도우에 비치는 영상에 관련된 이미지를 생성할 수도 있다. 이러한 경우 스캔부(104)는 상기 쇼 윈도우에 비치는 사용자의 영상과 관련된 이미지를 통해, 사용자와 상기 쇼 윈도우 사이의 거리를 감지할 수 있다. 그리고 스캔부(104)는 상기 쇼 윈도우에 비친 사용자의 영상으로부터 사용자의 눈동자를 인식하여 사용자의 시선이 향하는 방향을 인식할 수도 있다.Meanwhile, the scan unit 104 may scan the show window and generate an image related to an image reflected on the show window. In this case, the scan unit 104 may detect a distance between the user and the show window through an image related to the user's image reflected on the show window. In addition, the scan unit 104 may recognize the direction in which the user's gaze is directed by recognizing the user's pupils from the user's image reflected on the show window.

한편 스캔부(104)는 상기 쇼 윈도우를 다양한 방식으로 스캔할 수 있다. 예를 들어 상술한 바와 같이, 단순히 상기 쇼 윈도우에 비친 사용자의 영상을 스캔하여 사용자의 키 높이나, 사용자의 시선이 향하는 방향 또는 사용자가 취하고 있는 제스처를 감지할 수 있다. 뿐만 아니라 상기 스캔부(104)는 상기 쇼 윈도우를 스캔하여, 상기 쇼 윈도우 상에서 온도의 변화가 일정 수준 이상 급격하게 변동되는 지점을 검색할 수도 있다. 이러한 경우 스캔부(104)는 상기 쇼 윈도우에 비친 사용자의 영상 및, 상기 쇼 윈도우 상에서 온도 변화가 급격하게 발생하는 지점에 근거하여 사용자가 쇼 윈도우의 일 지점에 터치를 하고 있는지 여부 및, 상기 상기 터치가 가해진 쇼 윈도우 상의 지점을 감지할 수도 있다. Meanwhile, the scan unit 104 may scan the show window in various ways. For example, as described above, by simply scanning the image of the user reflected on the show window, the height of the user, the direction of the user's gaze, or the gesture the user is taking may be detected. In addition, the scan unit 104 may scan the show window to search for a point in the show window where the change in temperature abruptly changes over a certain level. In this case, the scan unit 104 determines whether the user is touching a point of the show window based on the user's image reflected on the show window and a point at which the temperature change abruptly occurs on the show window, and the It is also possible to detect a point on the show window where a touch is applied.

한편, 제어부(102)는 상술한 바와 같이 연결된 각 구성요소, 즉 상기 표시부(106) 및 스캔부(104)를 제어할 수 있다. 여기서 제어부(102)는 상기 스캔부(104)가 쇼 윈도우를 스캔한 결과로부터, 쇼 윈도우를 바라보고 있는 사용자의 시선 및 상기 사용자까지의 거리를 감지할 수 있다. 그리고 상기 쇼 윈도우를 스캔한 결과로부터 상기 쇼 윈도우에 대한 터치를 포함하는 사용자의 제스처를 감지할 수도 있다. Meanwhile, the controller 102 may control each component connected as described above, that is, the display unit 106 and the scan unit 104 . Here, the control unit 102 may detect the gaze of the user looking at the show window and the distance to the user from the scan result of the scan unit 104 scanning the show window. In addition, a user's gesture including a touch on the show window may be detected from a result of scanning the show window.

제어부(102)는 이러한 사용자의 제스처를 감지하여, 상기 사용자의 제스처가 상기 쇼 윈도우 내부에 진열된 진열품들 중 어느 하나를 선택하기 위한 것인지를 판단할 수 있다. 그리고 상기 제스처가, 상기 진열품들 중 어느 하나를 선택하기 위한 것으로 판단되는 경우, 제어부(102)는 상기 제스처에 대응되는 진열품과 관련된 화상 정보가 상기 쇼 윈도우 상의 적어도 일부에 표시되도록 상기 표시부(106)를 제어할 수 있다. The controller 102 may detect the user's gesture and determine whether the user's gesture is for selecting any one of the display items displayed in the show window. And when it is determined that the gesture is for selecting any one of the display items, the controller 102 controls the display unit 106 so that image information related to the display item corresponding to the gesture is displayed on at least a part of the show window. can control

여기서 제어부(102)는 상기 화상 정보를 상기 쇼 윈도우에 비치는 사용자의 영상에 근거하여 상기 쇼 윈도우 상에 표시할 수 있다. 예를 들어 제어부(102)는 상기 사용자의 영상에 근거하여 사용자의 키 높이 및 상기 쇼 윈도우와 사용자와의 거리를 감지할 수 있다. 그리고 제어부(102)는 상기 감지된 사용자의 키 높이 및 상기 거리에 근거하여 상기 화상 정보가 표시되도록 할 수도 있다. 이에 따라 상기 화상 정보는 상기 사용자의 키 높이가 달라지는 경우 또는 상기 사용자와 쇼 윈도우 사이의 거리가 달라지는 경우 그 위치 또는 크기가 달라질 수 있다. Here, the control unit 102 may display the image information on the show window based on the user's image projected on the show window. For example, the controller 102 may detect a height of the user and a distance between the show window and the user based on the user's image. In addition, the control unit 102 may display the image information based on the sensed height of the user and the distance. Accordingly, the position or size of the image information may change when the height of the user changes or when the distance between the user and the show window changes.

한편 상기 화상 정보는, 상기 스캔부(104)에서 스캔한 정보일 수 있다. 예를 들어 상기 화상 정보는, 상기 스캔부(104)가 상기 진열품을 직접 스캔한 이미지일 수 있고, 또는 상기 진열품과 관련된 정보가 표시된 특정 위치를 상기 스캔부(104)가 스캔한 이미지일 수도 있다. Meanwhile, the image information may be information scanned by the scanning unit 104 . For example, the image information may be an image scanned directly by the scanning unit 104 of the display item, or may be an image scanned by the scanning unit 104 at a specific location where information related to the display unit is displayed. .

또는 상기 화상 정보는, 사용자가 특정 진열품을 선택하는 경우, 해당 진열품에 대응되는 미리 저장된 정보일 수도 있다. 이러한 경우 상기 미리 저장된 정보는 상기 메모리(108)에 저장된 정보일 수 있다. Alternatively, when the user selects a specific display item, the image information may be information stored in advance corresponding to the display item. In this case, the previously stored information may be information stored in the memory 108 .

또는 상기 화상 정보는, 해당 진열품에 부착된 태그(tag)로부터 수신된 정보일 수도 있다. 이러한 경우 상기 진열품에 부착된 태그에는, 해당 제품에 관련된 각종 정보가 저장된 RF(Radio Frequency) 칩 또는 NFC(Near Field Communication) 칩등이 포함된 것일 수 있다. Alternatively, the image information may be information received from a tag attached to the display product. In this case, the tag attached to the display product may include a radio frequency (RF) chip or a near field communication (NFC) chip in which various information related to the corresponding product is stored.

한편 제어부(102)는 이처럼 미리 저장되거나, 미리 지정된 정보들 외에, 웹 검색등을 통한 결과 등을 상기 화상 정보로 표시할 수도 있다. 예를 들어 제어부(102)는 사용자의 선택에 따라 현재 사용자의 제스처에 대응되는 진열품과 관련된 이벤트 정보 또는 네티즌(netizen)들의 평가 등과 같은 정보를 검색할 수 있고, 검색된 정보가 상기 화상 정보로 표시되도록 할 수도 있다. 또는 제어부(102)는 상기 진열품과 관련된 전문가의 소견이나 제안등, 상기 진열품과 관련된 다양한 정보를 상기 화상 정보로 표시할 수도 있다. 이를 위해 본 발명의 실시 예에 따른 제품 정보 제공 장치(100)는 외부의 서버와 연결가능한 통신 수단(도시되지 않음)을 더 구비할 수도 있음은 물론이다. Meanwhile, the control unit 102 may display, as the image information, a result of a web search, etc. in addition to the previously stored or pre-specified information as described above. For example, the controller 102 may search for information such as event information related to a display item corresponding to the current user's gesture or evaluation of netizens according to the user's selection, and display the retrieved information as the image information. You may. Alternatively, the control unit 102 may display various information related to the display product, such as an expert opinion or suggestion related to the display product, as the image information. To this end, it goes without saying that the product information providing apparatus 100 according to an embodiment of the present invention may further include a communication means (not shown) connectable to an external server.

또한 제어부(102)는 상기 쇼 윈도우를 통해 감지되는 사용자의 제스처에 근거하여, 상기 쇼 윈도우 내부의 특정 지점을 스캔한 이미지를 상기 화상 정보로 표시할 수도 있다. 예를 들어 제어부(102)는 사용자의 제스처에 근거하여 상기 쇼 윈도우 내부에 표시된 광고등이 표시된 위치등을 스캔할 수도 있으며, 상기 스캔된 정보를 사용자의 선택에 따라 확대하여 표시하거나 또는 사용자가 선택하는 쇼 윈도우 상의 위치에 표시되도록 할 수도 있다. 여기서 상기 사용자의 선택은, 쇼 윈도우 상에 가해지는 사용자의 터치를 포함하는 사용자의 제스처로 이루어질 수 있다. Also, the controller 102 may display an image scanned at a specific point inside the show window as the image information based on a user's gesture detected through the show window. For example, the control unit 102 may scan a position where an advertisement light displayed inside the show window is displayed based on a user's gesture, and enlarge and display the scanned information according to a user's selection or a user's selection It can also be displayed in a position on the show window that Here, the user's selection may be made by a user's gesture including a user's touch applied to the show window.

한편, 제어부(102)는 상기 쇼 윈도우 상에서 감지되는 사용자의 제스처에 근거하여, 진열품들 중 적어도 하나를 선택하기 위한 다양한 방법을 사용할 수 있다. 예를 들어 제어부(102)는 상기 쇼 윈도우에 비치는 사용자의 영상으로부터 사용자의 위치를 판단하고, 상기 사용자의 위치에 근거하여 사용자의 제스처가 감지될 수 있는 영역(이하 선택 영역이라고 칭한다)을 상기 쇼 윈도우 상의 일부에 형성할 수 있다. Meanwhile, the controller 102 may use various methods for selecting at least one of the display items based on the user's gesture detected on the show window. For example, the control unit 102 determines the user's location from the user's image projected on the show window, and selects an area (hereinafter referred to as a selection area) in which a user's gesture can be detected based on the user's location. It can be formed in a part on the window.

상기 선택 영역은, 진열품들 중에서 사용자가 관련 정보를 원하는 어느 하나를 보다 정확하게 선택하기 위해 사용될 수 있다. 예를 들어 제어부(102)는 상기 선택 영역이 형성되면, 상기 선택 영역을 통해 비치는 제품들 중 사용자의 시선 또는 제스처에 대응되는 어느 하나의 진열품을 다른 진열품들과 구분되게 표시할 수 있다. 그리고 사용자의 선택에 따라 상기 구분되게 표시된 어느 하나의 진열품과 관련된 화상 정보가 상기 쇼 윈도우 상의 적어도 일부에 영사되도록 상기 표시부(106)를 제어할 수도 있다. The selection area may be used to more accurately select any one for which the user desires related information among the displayed items. For example, when the selection area is formed, the controller 102 may display any one display item corresponding to the user's gaze or gesture among the products reflected through the selection area to be distinguished from other display items. In addition, according to a user's selection, the display unit 106 may be controlled so that image information related to any one display item displayed separately is projected on at least a part of the show window.

이러한 경우 상기 선택 영역은 현재 쇼 윈도우 상에서, 사용자가 서 있는 위치에 대응되게 설정될 수 있으며, 사용자의 위치를 중심으로 사용자의 팔 길이(대략 1m 정도)에 근거하여 형성될 수 있다. 이러한 선택 영역은 상기 쇼 윈도우 상에서 표시되거나 또는 표시되지 않을 수 있으며, 사용자의 시선 방향에 따라 그 위치가 이동되는 영역일 수 있다. In this case, the selection area may be set to correspond to the position where the user is standing on the current show window, and may be formed based on the user's arm length (about 1 m) around the user's position. Such a selection area may or may not be displayed on the show window, and may be an area whose position is moved according to the user's gaze direction.

한편 메모리(108)는 본 발명의 실시 예에 따른 제품 정보 제공 장치(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(108)는 본 발명의 실시 예에 따른 제품 정보 제공 장치(100)에서 구동되는 다수의 응용 프로그램(application program) 또는 애플리케이션(application)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수도 있다. Meanwhile, the memory 108 stores data supporting various functions of the product information providing apparatus 100 according to an embodiment of the present invention. The memory 108 may store a plurality of application programs driven in the device 100 for providing product information according to an embodiment of the present invention, or data and instructions for operation of applications. At least some of these application programs may be downloaded from an external server through wireless communication.

또한 상기 메모리(108)에는, 상술한 바와 같이 상기 진열품들 각각에 관련된 정보가 미리 저장되어 있을 수도 있으며, 이러한 경우 상기 진열품들 중 어느 하나에 관련된 정보를 제어부(102)에 인가할 수도 있다. 이러한 경우 제어부(102)는 상기 스캔부(104)가 상기 쇼 윈도우 주변에서 스캔한 이미지 외에 상기 메모리(108)에 기 저장된 정보를 사용자의 선택에 따라 상기 쇼 윈도우 상의 적어도 일부에 표시할 수 있다. In addition, information related to each of the display items may be previously stored in the memory 108 as described above, and in this case, information related to any one of the display items may be applied to the controller 102 . In this case, the control unit 102 may display information pre-stored in the memory 108 in addition to the images scanned around the show window by the scan unit 104 on at least a portion of the show window according to a user's selection.

도 2는 이러한 본 발명의 실시 예에 따른 제품 정보 제공 장치의 동작 과정을 도시한 것이다. 2 is a diagram illustrating an operation process of an apparatus for providing product information according to an embodiment of the present invention.

도 2를 참조하여 살펴보면, 본 발명의 실시 예에 따른 제품 정보 제공 장치(100)의 제어부(102)는, 상기 스캔부(104)를 제어하여 쇼 윈도우 및 상기 쇼 윈도우 주변을 스캔한다(S200). 상기 S200 단계에서 스캔부(104)는 기 설정된 시간을 주기로 쇼 윈도우 내부에 진열된 진열품들 또는 상기 쇼 윈도우 내부의 특정 지점을 스캔하여 스캔된 결과를 이미지 형태로 제어부(102)에 인가할 수 있다. 또한 상기 스캔부(104)는 상기 쇼 윈도우를 스캔하여 그 스캔된 결과를 이미지 형태로 제어부(102)에 인가할 수 있다. 뿐만 아니라 상기 스캔부(104)는 상기 쇼 윈도우를 스캔하여 상기 쇼 윈도우의 열 분포에 관련된 이미지를 제어부(102)에 인가할 수도 있다. Referring to FIG. 2 , the controller 102 of the product information providing apparatus 100 according to an embodiment of the present invention controls the scan unit 104 to scan the show window and the vicinity of the show window ( S200 ). . In step S200, the scan unit 104 scans the display items displayed inside the show window or a specific point inside the show window at a preset time period and applies the scanned result to the control unit 102 in the form of an image. . Also, the scan unit 104 may scan the show window and apply the scanned result to the control unit 102 in the form of an image. In addition, the scan unit 104 may scan the show window and apply an image related to the heat distribution of the show window to the control unit 102 .

한편 제어부(102)는 상기 S200 단계에서 스캔된 결과를 분석하여, 상기 쇼 윈도우 주변에 위치한 사용자가 있는지 및 상기 사용자의 제스처가 있는지를 감지한다(S202). 예를 들어 제어부(102)는 상기 쇼 윈도우에 비친 영상으로부터 상기 쇼 윈도우 주변에 사용자가 있는지 여부를 감지할 수 있고, 상기 쇼 윈도우와 상기 사용자간의 거리를 추정할 수도 있다. Meanwhile, the control unit 102 analyzes the scan result in step S200, and detects whether there is a user located around the show window and a gesture of the user (S202). For example, the controller 102 may detect whether there is a user around the show window from the image reflected on the show window, and may estimate a distance between the show window and the user.

예를 들어 제어부(102)는 상기 쇼 윈도우에 비친 사용자의 영상으로부터, 사용자 신체의 각 비율에 근거하여 작은 신체를 가진 사용자인지(예를 들어 어린 아이) 또는 사용자가 쇼 윈도우로부터 일정 거리 이상 멀어진 위치에 있는지를 판단할 수 있다. For example, the control unit 102 determines whether the user has a small body (eg, a small child) based on the respective proportions of the user's body from the image of the user reflected on the show window, or the position where the user is more than a certain distance away from the show window It can be determined whether in

또는 제어부(102)는 이러한 판단을 위해, 상기 쇼 윈도우에 대한 열 분포를 스캔한 결과를 이용할 수도 있음은 물론이다. 이러한 경우 쇼 윈도우에 가깝게 있는 사용자의 경우, 상기 쇼 윈도우에 사용자의 영상이 비치는 부분은 다른 부분에 비해 온도가 일정 수준 높을 수 있기 때문이다. Alternatively, the controller 102 may use a result of scanning the heat distribution for the show window for this determination. In this case, in the case of a user who is close to the show window, the portion where the user's image is reflected on the show window may have a higher temperature than other portions.

한편 제어부(102)는, 상기 쇼 윈도우에 비친 사용자의 영상으로부터 사용자의 제스처를 감지할 수 있다. 예를 들어 제어부(102)는 상기 쇼 윈도우에 비친 사용자의 영상을 분석하여, 쇼 윈도우를 바라보고 있는 사용자를 구분할 수 있고, 상기 구분된 사용자의 팔 또는 손가락 등을 인식할 수 있다. 그리고 상기 인식된 사용자의 팔 또는 손가락의 움직임을 감지하여, 사용자가 진열된 제품들 중 어느 하나를 지정하기 위한 제스처를 취하였는지를 판단할 수 있다. Meanwhile, the controller 102 may detect the user's gesture from the user's image reflected on the show window. For example, the controller 102 may analyze the user's image reflected on the show window to distinguish the user who is looking at the show window, and may recognize the divided user's arm or finger. In addition, by detecting the recognized movement of the user's arm or finger, it may be determined whether the user has made a gesture for designating any one of the displayed products.

한편, 상기 S202 단계에서 상기 쇼 윈도우 내부에 진열된 진열품들 중 어느 하나를 지정하기 위한 사용자의 제스처가 감지되면, 제어부(102)는 상기 감지된 제스처에 대응되는 진열품을 선택할 수 있다(S204). 예를 들어 제어부(102)는 사용자의 손가락 끝이 향하는 방향에 위치한 진열품이 상기 사용자의 제스처에 의해 지정된 것으로 선택할 수 있다. 여기서 제어부(102)는 상기 쇼 윈도우에 비친 사용자의 영상으로부터, 상기 사용자의 손가락 끝이 향하는 방향에 위치하는 진열품이 상기 사용자에 의해 선택된 것으로 판단할 수 있다. Meanwhile, when a user's gesture for designating any one of the display items displayed in the show window is detected in step S202, the controller 102 may select a display item corresponding to the detected gesture (S204). For example, the controller 102 may select a display item located in a direction to which the user's fingertip is directed as designated by the user's gesture. Here, the controller 102 may determine, from the user's image reflected on the show window, that the display item positioned in the direction to which the user's fingertip faces is selected by the user.

또는 제어부(102)는 상기 쇼 윈도우에 반사되는 진열품들의 영상을 이용하여 상기 사용자의 제스처에 대응되는 진열품을 선택할 수도 있다. 예를 들어 상기 쇼 윈도우의 내부 면(이하의 설명에서 상기 쇼 윈도우에서 진열품들이 진열되는 방향의 면을 내부 면 이라하고, 타면을 외부면이라 하기로 한다)에는, 상기 쇼 윈도우 내부에 진열된 진열품들의 이미지들이 반사될 수 있다. 그리고 이처럼 반사되는 이미지는 상기 스캔부(104)에 의해 스캔될 수 있다. Alternatively, the controller 102 may select a display item corresponding to the user's gesture by using the images of the display items reflected in the show window. For example, on the inner surface of the show window (in the following description, the side in the direction in which displays are displayed in the show window will be referred to as the inner surface, and the other surface will be referred to as the outer surface) of the display products displayed inside the show window. images of them may be reflected. And the reflected image may be scanned by the scanning unit 104 .

이러한 경우 제어부(102)는 상기 쇼 윈도우 내부에 반사되는 이미지로부터 사용자의 손가락 끝이 향하는 방향에 대응되는 어느 하나의 진열품의 반사된 이미지를 찾을 수 있으며, 그 반사된 이미지에 대응되는 진열품이 사용자의 제스처에 의해 선택된 것으로 판단할 수 있다. In this case, the controller 102 may find a reflected image of any one display item corresponding to the direction in which the user's fingertip points from the image reflected inside the show window, and the display item corresponding to the reflected image is the user's It may be determined that the selection is made by a gesture.

한편 이러한 제스처는 상기 쇼 윈도우에 대한 사용자의 터치를 포함할 수 있다. 예를 들어 제어부(102)는 사용자가 상기 쇼 윈도우 상에 터치를 가한 경우에, 상기 진열품들 중 어느 하나가 상기 터치에 대응하여 선택된 것으로 판단할 수 있다. 이러한 경우 제어부(102)는 상기 쇼 윈도우에 반사되는 진열품들의 이미지들 중, 상기 터치에 대응되는 진열품의 반사된 이미지를 선택하고, 상기 선택된 이미지에 대응되는 진열품이 사용자에 의해 지정된 것으로 판단할 수도 있다. Meanwhile, such a gesture may include a user's touch on the show window. For example, when the user applies a touch to the show window, the controller 102 may determine that any one of the display items is selected in response to the touch. In this case, the controller 102 may select the reflected image of the display item corresponding to the touch from among the images of the display items reflected in the show window, and determine that the display item corresponding to the selected image is designated by the user. .

한편, 이처럼 쇼 윈도우에 가해지는 사용자의 터치는, 다양한 방법으로 감지될 수 있다. 예를 들어 제어부(102)는 상기 스캔부(104)를 통해 상기 쇼 윈도우 상의 온도 분포 상태를 스캔하고, 상기 온도 분포 상태를 스캔한 결과에 근거하여 상기 쇼 윈도우 상에서 사용자의 터치가 가해진 지점을 감지할 수도 있다. 이는 사용자가 상기 쇼 윈도우 상의 일 지점을 터치하는 경우, 해당 지점의 온도가 일정 수준 이상 증가할 것이기 때문이다. Meanwhile, the user's touch applied to the show window may be sensed in various ways. For example, the control unit 102 scans a temperature distribution state on the show window through the scan unit 104 , and detects a point where a user's touch is applied on the show window based on a result of scanning the temperature distribution state You may. This is because, when the user touches a point on the show window, the temperature of the corresponding point will increase by a certain level or more.

한편, 이처럼 사용자의 제스처에 근거하여 특정 진열품이 선택되면, 제어부(102)는 상기 선택된 진열품과 관련된 화상 정보를 쇼 윈도우 상에 영사할 수 있다(S206). 여기서 상기 영사되는 화상 정보는, 상기 선택된 진열품을 직접 스캔한 이미지 또는 상기 선택된 진열품과 관련된 정보가 표시된 상기 쇼 윈도우 내부의 특정 위치를 스캔한 이미지일 수 있다. 또는 화상 정보는 상기 메모리(108) 또는 상기 진열품의 태그에 부착된 RF칩등으로부터 수신되는 기 저장된 정보일 수 있다. Meanwhile, when a specific display item is selected based on the user's gesture as described above, the controller 102 may project image information related to the selected display item on the show window ( S206 ). Here, the projected image information may be an image scanned directly from the selected display item or an image scanned from a specific location in the show window in which information related to the selected display item is displayed. Alternatively, the image information may be pre-stored information received from the memory 108 or an RF chip attached to a tag of the display product.

또는 상기 화상 정보는, 상기 선택된 진열품에 대한 네티즌 또는 다른 사용자의 평가 정보등 웹 검색 결과를 보여주는 정보일 수도 있다. 또는 상기 화상 정보는, 전문가들의 소견이나 다른 사용자들의 제안 등에 대한 정보일 수도 있다. 즉, 상기 선택된 진열품이, 핸드백이라고 하는 경우, 상기 제어부(102)는, 패션 디자이너들 또는 다른 사용자들로부터, 상기 핸드백과 어울리는 다른 의복 또는 다른 소품에 대한 정보를 상기 화상 정보로 표시할 수도 있다. 그리고 이러한 화상 정보는 사용자의 선택에 따라 적어도 하나 이상 상기 쇼 윈도우 상에 표시될 수 있음은 물론이다. Alternatively, the image information may be information showing a web search result, such as evaluation information of a netizen or another user on the selected display product. Alternatively, the image information may be information on opinions of experts or suggestions of other users. That is, when the selected display item is a handbag, the controller 102 may display information about other clothes or other accessories matching the handbag from fashion designers or other users as the image information. And it goes without saying that at least one such image information may be displayed on the show window according to a user's selection.

한편, 이처럼 쇼 윈도우 상에 화상 정보가 영사되는 시간은, 상기 사용자가 상기 쇼 윈도우 주변에 머무르는 시간에 근거하여 결정될 수 있다. 예를 들어 제어부(102)는 상기 S206 단계에서 화상 정보가 영사되면, 상기 쇼 윈도우를 통해 비치는 사용자의 영상을 스캔하여, 사용자가 상기 쇼 윈도우 주변에 있는지 여부를 감지할 수 있다. 그리고 상기 쇼 윈도우 주변에 사용자가 없는 경우 즉시 또는 일정 시간이 경과되면 상기 화상 정보의 영사를 중지할 수 있다. Meanwhile, the time during which the image information is projected on the show window may be determined based on the time the user stays around the show window. For example, when image information is projected in step S206 , the controller 102 may scan an image of a user reflected through the show window to detect whether the user is in the vicinity of the show window. In addition, if there is no user around the show window, the projection of the image information may be stopped immediately or when a predetermined time has elapsed.

그리고 상기 쇼 윈도우 주변에 사용자가 있는 경우, 제어부(102)는 상기 사용자가, 동일한 사용자인지 여부에 근거하여 상기 화상 정보가 상기 쇼 윈도우 상에 표시되는 상태를 유지할지 여부를 결정할 수 있다. 즉, 현재 쇼 윈도우 주변에 위치한 사용자가, 현재 영사되는 화상 정보의 출력을 선택한 사용자와 동일인이라고 판단되는 경우, 제어부(102)는 현재 화상 정보가 쇼 윈도우 상에 영사되는 상태를 유지할 수 있다. 또한 만약 사용자가 상기 쇼 윈도우 주변에서 이동하는 경우라면, 제어부(102)는 상기 화상 정보가 영사되는 위치를 상기 사용자의 이동된 위치에 근거하여 변경할 수도 있음은 물론이다. And when there is a user around the show window, the control unit 102 may determine whether to maintain a state in which the image information is displayed on the show window based on whether the user is the same user. That is, when it is determined that the user located in the vicinity of the current show window is the same person as the user who selected to output the currently projected image information, the controller 102 may maintain a state in which the current image information is projected on the show window. Also, if the user moves around the show window, it goes without saying that the controller 102 may change the location where the image information is projected based on the user's moved location.

그러나 제어부(102)는, 상기 쇼 윈도우 주변에 위치한 사용자가 동일한 사용자가 아니라고 판단되는 경우, 상기 화상 정보의 영사를 중지할 수 있다. 이러한 경우 제어부(102)는 이전 사용자의 제스처에 따라 화상 정보를 제공하는 동작을 종료하고, 새로운 사용자의 제스처에 근거하여 새로운 화상 정보가 상기 쇼 윈도우 상에 출력될 수 있도록 한다. However, when it is determined that the users located around the show window are not the same user, the control unit 102 may stop the projection of the image information. In this case, the controller 102 terminates the operation of providing image information according to the previous user's gesture, and allows new image information to be output on the show window based on the new user's gesture.

한편, 본 발명의 실시 예에 따른 제품 정보 제공 장치(100)는. 상기 쇼 윈도우 상의 일부 영역을 선택 영역으로 설정하고, 상기 선택 영역 상에서 감지되는 사용자의 제스처에 근거하여 특정 진열품이 선택되도록 할 수도 있다. 이는 비록 사용자가 상기 쇼 윈도우 상에서 같은 지점을 터치 하거나 또는 같은 방향을 선택하기 위한 제스처(예를 들어 특정 진열품이 위치한 방향으로 손가락질을 하는 제스처)을 하는 경우에도 사용자의 위치나 사용자의 눈 높이, 또는 사용자의 시선 방향과 상기 쇼 윈도우가 이루는 각도에 따라 서로 다른 진열품이 선택될 수도 있기 때문이다. On the other hand, the product information providing apparatus 100 according to an embodiment of the present invention. A partial area on the show window may be set as a selection area, and a specific display item may be selected based on a user's gesture detected on the selection area. Even when the user touches the same point on the show window or makes a gesture to select the same direction (for example, a gesture of pointing a finger in the direction in which a specific display item is located), the user's position, the user's eye height, or This is because different display items may be selected according to the user's gaze direction and the angle formed by the show window.

도 3은, 도 2에서 보인 동작 과정 중, 이처럼 일정 영역을 선택 영역으로 설정하여 사용자의 제스처에 대응되는 어느 하나의 진열품을 선택하는 동작 과정을 도시한 것이다. FIG. 3 shows an operation process of selecting any one display item corresponding to a user's gesture by setting a predetermined area as a selection area in this way, among the operation process shown in FIG. 2 .

도 3을 참조하여 살펴보면, 상기 S202 단계에서 사용자의 제스처가 감지되는 경우, 제어부(102)는 상기 선택 영역을 설정할 수 있다(S300). 여기서 제어부(102)는 상기 설정된 선택 영역이 상기 쇼 윈도우 상에서 구분될 수 있도록, 상기 표시부(106)를 제어하여 상기 선택 영역의 경계를 표시하기 위한 그래픽 객체를 상기 쇼 윈도우 상에 영사할 수 있다. Referring to FIG. 3 , when the user's gesture is detected in step S202 , the controller 102 may set the selection area ( S300 ). Here, the control unit 102 may control the display unit 106 to project a graphic object for displaying a boundary of the selection area on the show window so that the set selection area can be distinguished on the show window.

한편 이처럼 선택 영역이 설정되면, 제어부(102)는 상기 선택 영역 상에서 감지되는 사용자의 제스처에 근거하여 상기 진열품들 중 어느 하나를 선택할 수 있다(S302). 예를 들어 제어부(102)는 현재 쇼 윈도우 내부에 진열된 진열품들의 개수에 대응하여 상기 선택 영역을 복수개로 구획할 수 있다. 그리고 복수개로 구획된 상기 선택 영역의 영역들 중 상기 사용자의 제스처에 의해 선택되는 영역에 대응되는 진열품을 선택할 수 있다. Meanwhile, when the selection area is set as described above, the control unit 102 may select any one of the display items based on the user's gesture sensed on the selection area ( S302 ). For example, the control unit 102 may divide the selection area into a plurality of items corresponding to the number of display items currently displayed in the show window. In addition, a display item corresponding to an area selected by the user's gesture may be selected from among the plurality of partitioned selection areas.

여기서 제어부(102)는, 현재 사용자의 위치 및, 사용자의 눈 높이 또는 사용자의 시선 방향에 근거하여, 상기 복수개로 구획된 각 영역에 특정 진열품이 대응되도록 설정할 수 있다. 예를 들어 제어부(102)는 사용자가 쇼 윈도우의 정면을 바라보고 있는 경우, 상기 쇼 윈도우의 내부에 반사되는 진열품들의 이미지에 근거하여 상기 선택 영역을 복수개로 구획하고, 구획된 각 영역에 대응되는 진열품들을 결정할 수 있다. Here, the control unit 102 may set a specific display item to correspond to each of the plurality of regions based on the current user's position and the user's eye height or the user's gaze direction. For example, when the user is looking at the front of the show window, the control unit 102 divides the selection area into a plurality based on the images of display items reflected in the inside of the show window, and divides the selection area into a plurality of areas corresponding to the divided areas. You can decide which items to display.

한편 이와는 달리 사용자가 쇼 윈도우의 측면을 바라보고 있는 경우 제어부(102)는 사용자가 정면을 바라보고 있는 경우와는 다르게, 상기 선택 영역을 구획할 수 있다. 예를 들어 제어부(102)는 사용자가 측면을 바라보고 있는 사용자의 시선 방향에 근거하여, 상기 선택 영역을 서로 다른 크기의 복수의 영역으로 구획하고, 상기 사용자의 위치에 가까운 진열품들의 순서대로 상기 복수개로 구획된 각 영역들이 대응되도록 설정할 수도 있다. 이러한 경우 제어부(102)는, 비록 동일한 쇼 윈도우 상의 지점에서 제스처(예를 들어 터치)가 감지되는 경우라도, 사용자의 시선이 향하는 방향이 서로 다른 경우 서로 다른 진열품이 선택되고 서로 다른 화상 정보가 쇼 윈도우 상에 표시될 수도 있다. On the other hand, when the user is looking at the side of the show window, the control unit 102 may divide the selection area differently from the case in which the user is looking at the front. For example, the control unit 102 divides the selection area into a plurality of areas of different sizes based on the gaze direction of the user in which the user is facing the side, and the plurality of items in the order of display items close to the location of the user. It is also possible to set each region partitioned by . In this case, the control unit 102, even if a gesture (eg, a touch) is detected at a point on the same show window, when the user's gaze direction is different, different display items are selected and different image information is displayed. It may be displayed on a window.

한편 제어부(102)는 상기 쇼 윈도우 상의 일부 영역에 선택 영역이 설정되면, 상기 선택 영역을 통해 보이는 상기 쇼 윈도우 내부의 진열품들 중, 사용자의 선택에 따른 어느 하나가 다른 진열품들과 구분되게 표시되도록 할 수도 있다. 그리고 사용자의 제스처(예를 들어 터치)에 근거하여 상기 구분되게 표시된 진열품에 관련된 화상 정보가,상기 쇼 윈도우 상의 적어도 일부분에 영사되도록 할 수 있다. 그리고 여기서 상기 사용자의 선택은 사용자의 시선이 될 수도 있다. 이러한 경우 제어부(102)는 사용자의 시선 방향에 근거하여 상기 선택 영역을 설정 및, 사용자의 시선 방향에 대응되는 진열품을 선택할 수 있으며, 이에 따라 사용자의 시선 방향에 대응되는 진열품에 관련된 정보가 상기 쇼 윈도우 상에 표시될 수도 있다. On the other hand, when a selection area is set in a partial area on the show window, the control unit 102 may display any one of the display items in the show window visible through the selection area according to the user's selection to be displayed separately from other display items. You may. In addition, image information related to the displayed items can be projected on at least a portion of the show window based on the user's gesture (eg, touch). And here, the user's selection may be the user's gaze. In this case, the controller 102 may set the selection area based on the user's gaze direction and select a display item corresponding to the user's gaze direction, and accordingly, information related to the display item corresponding to the user's gaze direction is displayed in the show. It may be displayed on a window.

도 4는, 이러한 경우에 사용자의 시선 방향 및 사용자의 제스처에 근거하여 어느 하나의 제품이 선택되는 동작 과정을 보다 자세히 도시한 것이다. 4 illustrates in more detail an operation process in which any one product is selected based on the user's gaze direction and the user's gesture in this case.

도 4를 참조하여 살펴보면, 본 발명의 실시 예에 따른 제품 정보 제공 장치(100)의 제어부(102)는, 상기 S202 단계에서 사용자의 제스처가 감지되면, 사용자의 시선 방향에 근거하여 쇼 윈도우 상의 일부 영역을 상기 선택 영역으로 설정할 수 있다(S400). 예를 들어 제어부(102)는 상기 쇼 윈도우를 통해 비치는 사용자의 영상으로부터, 사용자의 눈동자가 향하는 방향을 인식하고, 사용자의 눈높이 및 상기 인식된 방향에 근거하여 일정 크기의 영역, 예를 들어 일반적인 사용자의 팔 길이에 해당되는 영역(약 1m 가량)을 상기 선택 영역으로 설정할 수 있다. Referring to FIG. 4 , when the user's gesture is detected in step S202, the control unit 102 of the product information providing apparatus 100 according to an embodiment of the present invention is a part of the show window based on the user's gaze direction. An area may be set as the selection area (S400). For example, the control unit 102 recognizes the direction the user's pupils face from the user's image reflected through the show window, and based on the user's eye level and the recognized direction, a region of a certain size, for example, a general user An area corresponding to the length of the arm (about 1 m) may be set as the selection area.

그리고 제어부(102)는 상기 설정된 선택 영역을 통해 비치는 진열품들 중 사용자의 시선 방향에 대응되는 진열품을 구분되게 표시할 수 있다(S402). 예를 들어 제어부(102)는 쇼 윈도우에 비치는 사용자의 눈동자로부터 사용자의 시선 방향을 인식할 수 있으며, 인식된 사용자의 시선 방향에 대응되는 진열품을 선택할 수 있다. 그리고 제어부(102)는 상기 선택 영역 상에서 상기 사용자의 시선 방향에 대응되는 진열품이 표시되는 영역이, 상기 선택 영역의 다른 영역과 구분될 수 있도록 상기 표시부(106)를 제어할 수 있다.In addition, the control unit 102 may display the display items corresponding to the user's gaze direction from among the display items reflected through the set selection area ( S402 ). For example, the controller 102 may recognize the user's gaze direction from the user's pupil reflected in the show window, and may select a display item corresponding to the recognized user's gaze direction. In addition, the controller 102 may control the display unit 106 so that an area on the selection area where display items corresponding to the user's gaze direction are displayed can be distinguished from other areas of the selection area.

예를 들어 제어부(102)는 상기 쇼 윈도우의 내부 면에 반사되는 상기 진열품들의 이미지들을 이용하여, 상기 사용자의 시선 방향에 대응되는 진열품이 상기 쇼 윈도우에서 표시되는 영역을 인식할 수 있다. 그리고 제어부(102)는 상기 인식된 영역에 가이드 라인(guide line)과 같은 그래픽 객체가 표시되도록 상기 표시부(106)를 제어할 수 있다. 이러한 경우 상기 표시부(106)는 상기 제어부(102)의 제어에 따라 상기 선택 영역의 경계를 표시함과 동시에, 상기 인식된 영역의 주변에 가이드 라인을 표시하여, 상기 인식된 영역에서 비처 보이는 진열품이 현재 선택되어 있음을 사용자에게 표시할 수 있다. For example, the controller 102 may recognize an area in which the display item corresponding to the user's gaze direction is displayed in the show window by using the images of the display items reflected on the inner surface of the show window. In addition, the controller 102 may control the display unit 106 to display a graphic object such as a guide line in the recognized area. In this case, the display unit 106 displays the boundary of the selection area under the control of the control unit 102 and at the same time displays a guide line around the recognized area, so that the displayed items visible in the recognized area are displayed. You can indicate to the user that it is currently selected.

이처럼 상기 선택 영역 내의 일 영역이 다른 영역과 구분되게 표시되면, 제어부(102)는 상기 구분되게 표시된 쇼 윈도우 상의 영역에 대한 사용자의 선택이 있는지 감지한다(S404). 여기서 사용자의 선택은, 상기 영역에 대한 사용자의 터치 또는 사용자의 제스처를 통해 이루어질 수 있다. 그리고 상기 S404 단계의 감지 결과, 사용자의 선택이 있는 경우라면, 제어부(102)는 상기 S206 단계로 진행하여, 상기 구분되게 표시된 영역에 대응되는 진열품, 즉, 상기 사용자의 시선 방향에 대응되는 진열품에 관련된 화상 정보가 상기 쇼 윈도우 상에 영사되도록 상기 표시부(106)를 제어한다. As such, when one area within the selection area is displayed to be distinguished from other areas, the control unit 102 detects whether a user has selected an area on the separately displayed show window (S404). Here, the user's selection may be made through a user's touch on the region or a user's gesture. And if there is a user's selection as a result of the detection in step S404, the control unit 102 proceeds to step S206, and displays the display item corresponding to the separately displayed area, that is, the display item corresponding to the user's gaze direction. The display unit 106 is controlled so that related image information is projected on the show window.

그러나 만약 상기 S404 단계의 감지 결과, 상기 구분되게 표시된 영역에 대한 사용자의 선택이 없는 경우라면, 제어부(102)는 사용자의 시선 방향이 변경되었는지 여부를 더 감지할 수 있다(S406). 그리고 상기 S406 단계의 감지 결과 사용자의 시선 방향이 변경되지 않은 경우라면 다시 상기 S404 단계로 진행하여 상기 구분되게 표시된 영역에 대한 사용자의 선택이 있는지 여부를 감지한다. However, as a result of the detection in step S404, if there is no user selection for the separately displayed area, the controller 102 may further detect whether the user's gaze direction is changed (S406). If the user's gaze direction is not changed as a result of the detection in step S406, the process proceeds to step S404 to detect whether the user selects the separately displayed area.

그러나 만약, 상기 S406 단계의 감지 결과, 사용자의 시선 방향이 변경된 경우라면, 제어부(102)는 상기 변경된 사용자의 시선 방향에 대응되는 진열품을, 상기 선택 영역 상의 다른 진열품들과 구분되게 표시할 수 있다(S408). 그리고 제어부(102)는 S404 단계로 진행하여, 현재 구분되게 표시된 쇼 윈도우 상의 영역에 대한 사용자의 감지가 있는지 여부를 다시 감지한다. However, as a result of the detection in step S406, if the user's gaze direction is changed, the controller 102 may display the display items corresponding to the changed user's gaze direction to be distinguished from other display products on the selection area. (S408). Then, the control unit 102 proceeds to step S404, and detects again whether there is a user's detection of an area on the currently displayed show window to be distinguished.

여기서 제어부(102)는, 만약 변경된 사용자의 시선에 대응되는 진열품이 표시되는 위치가, 현재 설정된 선택 영역을 벗어난 쇼 윈도우 상의 영역에서 비처보이는 경우라면, 상기 사용자의 시선 방향 변경에 근거하여 상기 선택 영역의 위치를 변경할 수도 있음은 물론이다. 예를 들어 제어부(102)는, 이를 상기 쇼 윈도우를 스캔한 결과에 근거하여 판단할 수 있다. 즉, 제어부(102)는, 현재 설정된 선택 영역에 해당되는 상기 쇼 윈도우 내부 면의 영역 내에서, 상기 변경된 사용자의 시선에 대응되는 진열품의 이미지가 반사되는지 여부에 근거하여, 상기 변경된 시선 방향에 대응되는 진열품이 표시되는 위치가 현재 설정된 선택 영역을 벗어낫는지 여부를 판단할 수 있다. Here, the controller 102 is configured to, if the display item corresponding to the changed user's gaze is displayed in an area on the show window that is out of the currently set selection area, the selection area based on the change in the user's gaze direction Of course, you can change the location of the . For example, the controller 102 may determine this based on a result of scanning the show window. That is, the controller 102 responds to the changed gaze direction based on whether an image of a display product corresponding to the changed user's gaze is reflected within the area of the inner surface of the show window corresponding to the currently set selection area. It may be determined whether the position at which the displayed items are displayed is out of the currently set selection area.

이상의 설명에서는 본 발명의 실시 예에 따른 제품 정보 제공 장치의 구성 및 그 장치의 동작 과정에 대해서 자세히 설명하였다. In the above description, the configuration of the device for providing product information according to an embodiment of the present invention and the operation process of the device have been described in detail.

이하의 설명에서는, 이러한 본 발명의 실시 예에 따른 제품 정보 제공 장치가 설치된 예 및 본 발명의 실시 예에 따라 쇼 윈도우 상에 사용자가 선택한 진열품에 관련된 화상 정보를 표시하는 예를 도면을 참조하여 보다 자세히 살펴보기로 한다. In the following description, an example in which the product information providing apparatus according to an embodiment of the present invention is installed and an example in which image information related to a display item selected by a user is displayed on a show window according to an embodiment of the present invention will be described with reference to the drawings. Let's take a closer look.

우선 도 5a는, 본 발명의 실시 예에 따른 제품 정보 제공 장치가 설치된 예를 보이고 있는 것이다. First, FIG. 5A shows an example in which an apparatus for providing product information according to an embodiment of the present invention is installed.

도 5a에서 보이고 있는 것처럼, 본 발명의 실시 예에 따른 제품 정보 제공 장치(100)는 쇼 윈도우(520) 외부에서 감지되는 사용자(500)의 제스처가 있는 경우, 상기 제스처에 근거하여, 쇼 윈도우(520) 내부에 진열된 진열품(510)과 관련된 화상 정보를, 상기 쇼 윈도우(520) 내부 면의 일 영역에 영사할 수 있다. 여기서 상기 사용자의 제스처는, 상술한 바와 같이 상기 쇼 윈도우(520)를 통해 비치는 사용자의 영상을 스캔한 결과, 또는 상기 쇼 윈도우(520) 상의 온도 분포를 스캔한 결과에 근거하여 감지될 수 있다. As shown in FIG. 5A , when there is a gesture of the user 500 detected outside the show window 520 , the product information providing apparatus 100 according to an embodiment of the present invention, based on the gesture, the show window ( 520) Image information related to the display items 510 displayed therein may be projected onto one area of the inner surface of the show window 520 . Here, the user's gesture may be detected based on a result of scanning the user's image reflected through the show window 520 or a result of scanning the temperature distribution on the show window 520 as described above.

이처럼 사용자의 제스처가 감지되면, 제어부(102)는 감지된 제스처에 대응되는 진열품들을 선택하고 선택된 진열품과 관련된 화상 정보가 상기 쇼 윈도우(520) 상에 표시될 수 있도록 한다. 여기서 제어부(102)는 상기 사용자의 제스처에 대응되는 진열품을 선택하기 위해, 상기 쇼 윈도우(520)의 내부 면에 반사되는 진열품(510)의 이미지를 이용하거나, 또는 상기 쇼 윈도우(520) 상에 설정된 선택 영역을 이용할 수도 있다. As such, when the user's gesture is detected, the control unit 102 selects display items corresponding to the sensed gesture and enables image information related to the selected display item to be displayed on the show window 520 . Here, in order to select a display item corresponding to the user's gesture, the control unit 102 uses the image of the display item 510 reflected on the inner surface of the show window 520 or on the show window 520 . You can also use the set selection area.

또한 상기 화상 정보는 상기 진열품(510)을 직접 스캔한 이미지 또는 상기 진열품(522)과 관련된 정보가 표시된 상기 쇼 윈도우(520) 주변의 특정 위치를 스캔한 이미지가 될 수 있으며, 또는 상기 진열품(520)에 대한 웹 검색 결과 등 다양한 정보가 상기 화상 정보가 될 수 있다. In addition, the image information may be an image scanned directly from the display product 510 or a scanned image of a specific location around the show window 520 in which information related to the display product 522 is displayed, or the display product 520 . ), various information such as a web search result may be the image information.

도 5b는 이처럼 쇼 윈도우(520)에 표시되는 화상 정보의 예를 보이고 있는 것이다. FIG. 5B shows an example of image information displayed on the show window 520 as described above.

본 발명의 실시 예에 따른 제품 정보 제공 장치(100)는 사용자의 제스처에 대응되는 특정 진열품과 관련된 화상 정보(570)를 상기 쇼 윈도우(520)의 적어도 일부 영역에 표시할 수 있다. 이러한 경우 상기 화상 정보는 상기 도 5a 및 도 5b에서 보이고 있는 것처럼, 쇼 윈도우(520)의 적어도 일부 영역에 영사되는 것일 수 있다. 이처럼 본 발명에서는 레이저 스캐닝/프로젝터(Laser Scanning/Projector) 방식을 이용하여 사용자의 제스처를 감지 및 사용자가 원하는 정보가 영사되도록 함으로써, 터치스크린이 아닌, 유리와 같이 일반적인 재질의 쇼 윈도우를 이용함에도 불구하고, 사용자의 제스처에 대응되는 특정 진열품에 대한 다양한 관련 정보가 사용자에게 제공될 수 있도록 한다. The product information providing apparatus 100 according to an embodiment of the present invention may display image information 570 related to a specific display item corresponding to a user's gesture on at least a partial area of the show window 520 . In this case, the image information may be projected on at least a partial area of the show window 520 as shown in FIGS. 5A and 5B . As such, in the present invention, a user's gesture is sensed and the user's desired information is projected using a laser scanning/projector (Laser Scanning/Projector) method, so that despite using a show window of a general material such as glass, not a touch screen, and various related information on a specific display item corresponding to the user's gesture can be provided to the user.

한편, 이러한 본 발명의 실시 예에 따른 제품 정보 제공 장치(100)는, MEMS(Micro Electro Mechanical System)을 이용한 고밀도 집적 방식을 이용하여 그 크기를 소형화할 수도 있음은 물론이다. 뿐만 아니라, 상술한 도 5a 및 도 5b의 설명에서는 설명의 편의상 본 발명의 실시 예에 따른 제품 정보 제공 장치가 하나인 경우를 가정하여 설명하였으나, 하나 뿐만 아니라 복수의 제품 정보 제공 장치(100)가 쇼 윈도우 내부에 구비될 수도 있음은 물론이다. 이러한 경우 상기 구비된 복수의 장치는 상호 협동하여 서로 간에 정보를 교환할 수 있음은 물론이며, 이러한 경우 보다 정확하게 사용자의 제스처를 감지 및 사용자의 제스처에 대응되는 진열품을 보다 정확하고 빠르게 감지할 수도 있음은 물론이다. Meanwhile, it goes without saying that the product information providing apparatus 100 according to an embodiment of the present invention may be downsized by using a high-density integration method using a micro electro mechanical system (MEMS). In addition, in the description of FIGS. 5A and 5B, it is assumed that there is one product information providing apparatus according to an embodiment of the present invention for convenience of explanation, but not only one but also a plurality of product information providing apparatuses 100 Of course, it may be provided inside the show window. In this case, the provided plurality of devices can cooperate with each other to exchange information with each other, and in this case, the user's gesture can be detected more accurately and the display item corresponding to the user's gesture can be detected more accurately and quickly. is of course

한편 도 6a 및 도 6b는, 본 발명의 실시 예에 따른 제품 정보 제공 장치에서 사용자의 위치 및 사용자의 키 높이에 따라 쇼 윈도우에 표시되는 정보의 위치가 다르게 결정되는 예를 보이는 예시도이다. Meanwhile, FIGS. 6A and 6B are exemplary views showing an example in which the position of information displayed on the show window is determined differently according to the position of the user and the height of the user's height in the device for providing product information according to an embodiment of the present invention.

상술한 설명에서 언급한 바와 같이, 본 발명의 실시 예에 따른 제품 정보 제공 장치(100)의 제어부(102)는 상기 쇼 윈도우를 통해 비치는 사용자의 영상에 근거하여, 상기 쇼 윈도우와 사용자 사이의 거리를 추정할 수 있다. 예를 들어 제어부(102)는, 상기 쇼 윈도우에 비친 사용자의 영상으로부터, 신체의 비율 또는, 상기 스캔된 영상에 대한 3차원 깊이(depth)를 추정한 결과로부터 상기 사용자와 상기 쇼 윈도우 사이의 거리를 추정할 수 있다. As mentioned in the above description, the control unit 102 of the product information providing apparatus 100 according to an embodiment of the present invention based on the user's image projected through the show window, the distance between the show window and the user can be estimated. For example, the controller 102 may be configured to control a distance between the user and the show window from a result of estimating a proportion of a body or a 3D depth of the scanned image from the image of the user reflected on the show window. can be estimated.

이러한 경우 제어부(102)는 상기 추정된 사용자와 쇼 윈도우 사이의 거리에 근거하여, 상기 쇼 윈도우에 표시되는 화상 정보의 크기 및 위치가 달라지도록 할 수도 있다. 도 6a는 이러한 경우의 예를 보이고 있는 것이다. In this case, the controller 102 may change the size and position of the image information displayed on the show window based on the estimated distance between the user and the show window. 6A shows an example of such a case.

예를 들어 사용자(600)와 쇼 윈도우 사이의 거리가 가까운 경우, 본 발명의 실시 예에 따른 제품 정보 제공 장치(100)의 제어부(102)는, 도 6a의 (a)에서 보이고 있는 것과 같은 크기로 화상 정보(602)가 쇼 윈도우 상에 표시되도록 할 수 있다. For example, when the distance between the user 600 and the show window is close, the controller 102 of the product information providing apparatus 100 according to an embodiment of the present invention has the same size as that shown in (a) of FIG. 6A . The raw image information 602 can be displayed on the show window.

그러나 만약 사용자가 상기 도 6a의 (a)에서 보이고 있는 것보다 먼 거리에 위치한 경우라면, 제어부(102)는 이러한 거리에 근거하여 상기 쇼 윈도우 상에 표시되는 화상 정보의 크기가 달라지도록 할 수 있다. 이러한 경우 도 6a의 (b)에서 보이고 있는 것처럼, 제어부(102)는 사용자(610)와 멀어진 거리에 근거하여 보다 큰 화상 정보(612)가 쇼 윈도우 상에 표시되도록 할 수도 있다. However, if the user is located at a greater distance than shown in (a) of FIG. 6A, the controller 102 may change the size of the image information displayed on the show window based on this distance. . In this case, as shown in (b) of FIG. 6A , the controller 102 may display larger image information 612 on the show window based on the distance away from the user 610 .

뿐만 아니라, 본 발명의 실시 예에 따른 제품 정보 제공 장치(100)는 사용자의 키 높이에 따라 상기 화상 정보가 표시되는 위치가 달라지도록 할 수도 있다. 도 6b는 이러한 예를 보이고 있는 것이다. In addition, the product information providing apparatus 100 according to an embodiment of the present invention may change the position at which the image information is displayed according to the height of the user. 6B shows such an example.

우선 도 6b의 (a)는, 제어부(102)가 사용자(650)의 키 높이에 근거하여 결정되는 위치에 화상 정보(652)를 표시하는 예를 보이고 있는 것이다. 예를 들어 제어부(102)는 상기 쇼 윈도우에 비치는 사용자의 영상에 근거하여, 사용자의 키 높이를 감지할 수 있으며, 상기 감지된 키 높이에 근거하여 상기 화상 정보가 영사되는 쇼 윈도우 상의 위치를 결정할 수 있다. 이에 따라 도 6b의 (a)에서 보이고 있는 것처럼, 상기 화상 정보(652)는 사용자(650)의 머리 높이 또는 눈 높이에 해당되는 위치에 표시될 수 있다. First, FIG. 6B (a) shows an example in which the control unit 102 displays the image information 652 at a position determined based on the height of the user 650 . For example, the controller 102 may detect the height of the user's height based on the user's image reflected on the show window, and determine a position on the show window where the image information is projected based on the detected height of the key. can Accordingly, as shown in (a) of FIG. 6B , the image information 652 may be displayed at a position corresponding to the user's 650's head height or eye height.

이와 마찬가지로, 제어부(102)는 체구가 작은 사용자, 예를 들어 어린아이 등의 사용자가 특정 진열품에 대한 제스처를 취하는 경우, 상기 어린아이의 키 높이를 감지하고 이에 따라 상기 화상 정보가 표시되는 위치를 변경할 수 있다. 이에 따라 도 6b의 (b)에서 보이고 있는 것처럼, 상기 어린아이(660)의 머리 높이 또는 눈 높이에 해당되는 쇼 윈도우 상의 위치에 화상 정보(662)가 표시될 수 있다. Similarly, when a small user, for example, a user such as a child, makes a gesture on a specific display item, the control unit 102 detects the height of the child's height and determines the position where the image information is displayed accordingly. can be changed Accordingly, as shown in (b) of FIG. 6B , image information 662 may be displayed at a position on the show window corresponding to the head height or eye height of the child 660 .

한편, 상술한 도 6b의 설명에서는 사용자의 키 높이에 근거하여 상기 화상 정보가 표시되는 위치를 결정하는 것을 기재하였으나, 이와는 달리 상기 쇼 윈도우에 비친 사용자의 영상으로부터, 사용자의 머리 부분 또는 사용자의 눈동자에 대응되는 쇼 윈도우 상의 위치를 결정할 수도 있음은 물론이다. Meanwhile, in the description of FIG. 6B described above, it is described that the position at which the image information is displayed is determined based on the height of the user's height. Of course, it is also possible to determine a position on the show window corresponding to .

한편 상술한 도 4의 설명에 의하면, 본 발명의 실시 예에 따른 제품 정보 제공 장치(100)는, 사용자의 시선 방향에 근거하여 상기 쇼 윈도우의 일정 영역을 선택 영역으로 설정하고, 상기 선택 영역을 통해 감지되는 사용자의 제스처에 근거하여 화상 정보가 표시되는 동작 과정을 설명한 바 있다. Meanwhile, according to the above description of FIG. 4 , the product information providing apparatus 100 according to an embodiment of the present invention sets a predetermined area of the show window as a selection area based on the user's gaze direction, and selects the selection area. The operation process of displaying image information based on the user's gesture sensed through the above has been described.

도 7은, 이러한 경우에 본 발명의 실시 예에 따른 제품 정보 제공 장치에서, 사용자의 시선 방향 변경 및, 사용자의 제스처에 근거하여 제품 정보가 제공되는 예를 보이고 있는 것이다. 7 illustrates an example in which product information is provided based on a user's gaze direction change and a user's gesture in the product information providing apparatus according to an embodiment of the present invention in this case.

본 발명의 실시 예에 따른 제품 정보 제공 장치(100)의 제어부(102)는, 쇼 윈도우에 비친 사용자의 눈동자 영상으로부터 사용자의 시선 방향을 인식할 수 있으며, 상기 사용자의 시선 방향에 근거하여 쇼 윈도우 상의 일정 영역을 선택 영역으로 설정할 수 있다(상기 S300 단계). The controller 102 of the product information providing apparatus 100 according to an embodiment of the present invention may recognize the user's gaze direction from the user's pupil image reflected on the show window, and based on the user's gaze direction, the show window A certain area of the image may be set as a selection area (step S300 above).

이러한 경우, 제어부(102)는, 상기 선택 영역 상에서 상기 사용자의 시선 방향에 대응되는 진열품이 표시되는 영역을 다른 영역들과 구분되게 표시할 수 있다. 도 7의 (a)는 이처럼 상기 사용자의 시선 방향에 의해 설정되는 선택 영역(700) 및 상기 선택 영역 내에서 특정 진열품이 표시되는 영역이 가이드라인(712)을 통해 표시된 예를 보이고 있는 것이다. In this case, the controller 102 may display an area in which the display item corresponding to the user's gaze direction is displayed on the selection area to be distinguished from other areas. 7A shows an example in which the selection area 700 set by the user's gaze direction and the area in which a specific display item is displayed within the selection area are displayed through guide lines 712 as described above.

한편 이러한 상태에서, 제어부(102)는 사용자의 시선 방향이 변경되었는지 여부를 감지할 수 있다. 예를 들어 제어부(102)는 상기 쇼 윈도우를 스캔한 결과, 사용자의 눈동자가 향하는 방향이 변경되는 경우 사용자의 시선 방향이 변경된 것으로 판단할 수 있다. 이러한 경우 제어부(102)는 상기 사용자의 시선 방향 변경에 근거하여 선택 영역(700)의 위치가 변경되도록 할 수도 있다. 도 7의 (b)는 이처럼 사용자의 시선 방향 변경에 의하여 선택 영역(700)의 위치가 변경되는 예를 보이고 있는 것이다. Meanwhile, in this state, the controller 102 may detect whether the user's gaze direction is changed. For example, as a result of scanning the show window, the controller 102 may determine that the user's gaze direction is changed when the direction to which the user's pupils face is changed. In this case, the controller 102 may change the position of the selection area 700 based on the change in the user's gaze direction. 7B shows an example in which the position of the selection area 700 is changed by the change of the user's gaze direction as described above.

한편 이처럼 사용자의 시선 방향이 변경되면, 사용자의 시선 방향에 대응되는 진열품 역시 다른 것으로 변경될 수 있다. 이러한 경우 제어부(102)는 상기 변경된 사용자의 시선 방향에 대응되는 진열품을 선택할 수 있으며, 변경된 시선 방향에 대응되는 진열품이 표시되는 상기 선택 영역 상의 일부 영역을 상기 가이드라인(712)을 통해 표시할 수도 있다. 이에 따라 도 7의 (b)에서 보이고 있는 것과 같이, 다른 진열품이 표시되는 쇼 윈도우 상의 영역에 상기 가이드라인(712)이 표시될 수 있다. Meanwhile, when the user's gaze direction is changed as described above, the display items corresponding to the user's gaze direction may also be changed to another one. In this case, the control unit 102 may select a display item corresponding to the changed gaze direction of the user, and may display a partial area on the selection area in which the display product corresponding to the changed gaze direction is displayed through the guideline 712 . have. Accordingly, as shown in (b) of FIG. 7 , the guideline 712 may be displayed in an area on the show window where other display items are displayed.

한편 이러한 상태에서, 사용자로부터 현재 선택된 진열품에 대한 제스처가 감지되는 경우, 제어부(102)는 이를 감지할 수 있다. 그리고 제어부(102)는 상기 감지된 제스처에 근거하여 현재 선택된 진열품과 관련된 화상 정보(718)를 상기 쇼 윈도우 상의 일부 영역에 표시할 수 있다. 예를 들어 이러한 사용자의 제스처는, 상기 쇼 윈도우 상에서 구분되게 표시된 특정 영역에 대한 사용자의 터치 입력 일수 있다. 도 7의 (c) 및 (d)는 이러한 예를 보이고 있는 것이다. Meanwhile, in this state, when a gesture for the display item currently selected by the user is detected, the controller 102 may detect it. In addition, the control unit 102 may display image information 718 related to the currently selected display item on a partial area of the show window based on the detected gesture. For example, the user's gesture may be a user's touch input for a specific region that is distinguished and displayed on the show window. 7 (c) and (d) show such an example.

한편 상술한 설명에서는, 사용자의 시선 방향에 따라, 쇼 윈도우를 통해 비치는 진열품들 중 어느 하나가 선택되고, 상기 선택된 진열품이 표시되는 상기 쇼 윈도우 상의 영역에 대한 사용자의 제스처에 근거하여, 상기 선택된 진열품에 관련된 화상 정보가 표시되는 예를 설명하였으나, 이와는 다른 방법이 사용될 수도 있음은 물론이다. Meanwhile, in the above description, any one of the display items reflected through the show window is selected according to the user's gaze direction, and the selected display item is selected based on the user's gesture with respect to an area on the show window in which the selected display item is displayed. Although an example in which image information related to is displayed has been described, it goes without saying that a method other than this may be used.

예를 들어 제어부(102)는, 상기 선택 영역이 설정되면, 사용자의 시선 방향의 변경이 아니라 사용자의 특정 제스처에 근거하여 특정 진열품이 선택된 것으로 인식할 수도 있음은 물론이다. 즉, 제어부(102)는 상기 선택 영역의 적어도 일부에 커서와 같은 그래픽 객체가 복수개 표시되도록 표시부(106)를 제어하고, 상기 그래픽 객체에 대한 사용자의 제스처(예를 들어 터치)에 근거하여 특정 진열품이 선택된 것으로 인식할 수도 있다. For example, when the selection area is set, the controller 102 may recognize that a specific display item is selected based on a specific gesture of the user rather than a change of the user's gaze direction. That is, the control unit 102 controls the display unit 106 to display a plurality of graphic objects such as cursors on at least a part of the selection area, and based on the user's gesture (for example, touch) on the graphic object, a specific display product. may be recognized as selected.

그리고 이처럼 쇼 윈도우 상의 일부 영역을 선택 영역으로 설정하고, 상기 선택 영역을 통해 비치는 진열품들 중 어느 하나가 사용자에 의해 선택되도록 하는 경우, 사용자는 보다 정밀하게 원하는 특정 진열품을 선택할 수 있으며, 선택한 진열품에 대한 정보를 쇼 윈도우 상에서 확인할 수 있다. In this way, when a partial area on the show window is set as a selection area and any one of the displays reflected through the selection area is selected by the user, the user can more precisely select a desired specific display item, and You can check the information on the show window.

한편 상술한 설명에 의하면, 본 발명의 실시 예에 따른 제품 정보 제공 장치(100)는, 상기 쇼 윈도우 주변에 위치한 다른 광고가 표시된 영역을 스캔하고, 사용자의 선택에 따라 상기 스캔된 이미지를 화상 정보로 상기 쇼 윈도우 상에 표시할 수도 있음을 언급한 바 있다. Meanwhile, according to the above description, the product information providing apparatus 100 according to an embodiment of the present invention scans an area where other advertisements located around the show window are displayed, and displays the scanned image as image information according to a user's selection. As mentioned above, it can also be displayed on the show window.

도 8은, 이러한 경우에 본 발명의 실시 예에 따른 제품 정보 제공 장치에서, 사용자의 선택에 따라 쇼 윈도우 상에 특정 광고와 관련된 이미지가 영사되는 예를 보이고 있는 것이다. FIG. 8 shows an example in which an image related to a specific advertisement is projected on a show window according to a user's selection in the product information providing apparatus according to an embodiment of the present invention in this case.

본 발명의 실시 예예 따른 제품 정보 제공 장치(100)는, 사용자의 제스처에 근거하여 쇼 윈도우 내부에 진열된 진열품들 뿐만 아니라, 특정 광고가 표시된 영역이 선택된 것으로 인식할 수도 있다. 예를 들어 도 8에서 보이고 있는 것과 같이, 제어부(102)는 상기 쇼 윈도우 내부에 특정 광고가 표시된 영역이 비쳐 보이는 상기 쇼 윈도우 상의 지점에 대한 사용자의 제스처가 감지되는 경우, 상기 사용자의 제스처를 상기 특정 광고에 대한 것으로 인식하고, 그와 관련된 화상 정보가 상기 쇼 윈도우 상에 표시되도록 할 수 있다. The product information providing apparatus 100 according to an embodiment of the present invention may recognize that an area in which a specific advertisement is displayed as well as display items displayed in the show window is selected based on the user's gesture. For example, as shown in FIG. 8 , when a user's gesture is detected for a point on the show window where an area in which a specific advertisement is displayed in the show window is detected, the control unit 102 sets the user's gesture as the It may be recognized as for a specific advertisement, and image information related thereto may be displayed on the show window.

예를 들어 제어부(102)는 사용자의 제스처가 감지되면, 상기 쇼 윈도우의 내부 면에 비치는 영상을 이용하여, 상기 제스처가 상기 쇼 윈도우 내부에 특정 광고가 표시된 영역에 대한 것임을 감지할 수 있다. 이러한 경우 제어부(102)는 도 8에서 보이고 있는 것처럼, 사용자의 제스처에 대응되는 특정 광고가 표시된 영역(810)이 스캔되도록 상기 스캔부(104)를 제어하고, 상기 스캔된 결과를 화상 정보(812)로서 상기 쇼 윈도우의 적어도 일부 영역에 표시할 수 있다. 이러한 경우 상기 스캔된 결과, 즉 상기 특정 광고가 표시된 영역(810)을 스캔한 이미지는 사용자의 키 높이 및 상기 사용자와 쇼 윈도우 사이의 거리에 근거하여 그 크기 및 위치가 결정될 수 있다. For example, when the user's gesture is detected, the controller 102 may detect that the gesture is for a region where a specific advertisement is displayed inside the show window, using an image reflected on the inner surface of the show window. In this case, as shown in FIG. 8 , the controller 102 controls the scanning unit 104 to scan an area 810 in which a specific advertisement corresponding to the user's gesture is displayed, and displays the scanned result as image information 812 . ) may be displayed on at least a partial area of the show window. In this case, the size and location of the scanned result, that is, the scanned image of the area 810 in which the specific advertisement is displayed, may be determined based on the height of the user and the distance between the user and the show window.

한편 이처럼 화상 정보(812)가 쇼 윈도우 상의 일부 영역에 표시되면, 제어부(102)는 상기 화상 정보(812)가 표시되는 크기 또는 위치를 자유롭게 변경할 수 있다. 예를 들어 제어부(102)는 상기 화상 정보(812)가 표시되는 쇼 윈도우 상의 영역에 대한 사용자의 터치를 감지할 수 있으며, 상기 터치에 이어지는 감지되는 사용자의 드래그 제스처 입력을 감지할 수 있다. On the other hand, when the image information 812 is displayed in a partial area on the show window as described above, the controller 102 can freely change the size or position of the image information 812 displayed. For example, the controller 102 may detect a user's touch on an area on the show window where the image information 812 is displayed, and detect a user's drag gesture input detected following the touch.

이러한 경우 제어부(102)는 상기 감지된 사용자의 드래그 제스처에 근거하여 상기 화상 정보(812)가 표시되는 위치가 변경되도록 할 수도 있다. 도 8에서 표시되는 화상 정보(814)는 이처럼 상기 사용자의 드래그 제스처에 근거하여 그 위치가 변경된 경우의 예를 보이고 있는 것이다. 또한 이와 마찬가지로 상기 쇼 윈도우 상에 표시되는 화상 정보의 크기 역시 얼마든지 사용자의 제스처에 근거하여 그 크기가 변경될 수 있다. In this case, the controller 102 may change the position at which the image information 812 is displayed based on the detected user's drag gesture. The image information 814 displayed in FIG. 8 shows an example in which the position is changed based on the user's drag gesture as described above. Also, likewise, the size of the image information displayed on the show window may also be changed based on a user's gesture.

한편 도 8에서는, 특정 광고가 표시되는 영역을 스캔한 이미지가 화상 정보로 표시되는 경우에, 상기 화상 정보가 쇼 윈도우 상에서 표시되는 위치 및 상기 화상 정보의 크기가 변경되는 예를 보였으나, 이는 상기 특정 광고에 관련된 화상 정보가 표시되는 경우에 국한되는 것이 아님은 물론이다. 즉, 특정 진열품과 관련되어 상기 쇼 윈도우 상에 표시되는 각종 화상 정보 역시, 이러한 사용자의 제스처 입력에 근거하여 그 크기 또는 위치가 변경될 수도 있음은 물론이다. On the other hand, in FIG. 8 , when an image scanned in an area in which a specific advertisement is displayed is displayed as image information, an example is shown in which the position at which the image information is displayed on the show window and the size of the image information are changed. Needless to say, it is not limited to a case in which image information related to a specific advertisement is displayed. That is, it goes without saying that the size or position of various image information displayed on the show window in relation to a specific display item may also be changed based on the user's gesture input.

한편 이러한 경우, 제어부(102)는 상기 사용자의 제스처 입력에 근거하여 상기 화상 정보의 출력되는 상태를 변경하거나 또는 다양한 기능을 제공할 수 있는 그래픽 객체를 상기 쇼 윈도우 상에 더 표시할 수도 있음은 물론이다. 이러한 경우 제어부(102)는 상기 쇼 윈도우 상에 표시된 그래픽 객체들에 대한 사용자의 제스처에 근거하여 상기 화상 정보의 크기 또는 위치를 변경하거나 또는 관련된 다양한 기능이 수행되도록 할 수도 있다. Meanwhile, in this case, the controller 102 may change the output state of the image information based on the user's gesture input or further display a graphic object capable of providing various functions on the show window. to be. In this case, the controller 102 may change the size or position of the image information or perform various related functions based on the user's gesture with respect to the graphic objects displayed on the show window.

도 9는, 이러한 본 발명의 실시 예에 따른 제품 정보 제공 장치에서, 화상 정보가 표시되는 상태를 제어할 수 있는 그래픽 객체들 및 그에 따라 수행되는 기능의 예를 보이고 있는 것이다.FIG. 9 shows examples of graphic objects capable of controlling a state in which image information is displayed and functions performed accordingly in the product information providing apparatus according to an embodiment of the present invention.

우선 도 9의 (a)를 참조하여 살펴보면, 도 9의 (a)는, 상술한 바와 같이 화상 정보가 상기 쇼 윈도우에 표시되는 상태를 제어할 수 있는 각종 그래픽 객체가 표시되는 예를 보이고 있는 것이다.First, referring to Fig. 9 (a), Fig. 9 (a) shows an example of displaying various graphic objects capable of controlling the state in which image information is displayed in the show window as described above. .

예를 들어 제어부(102)는, 특정 진열품을 선택하기 위한 사용자의 제스처가 감지되는 경우, 서로 다른 기능들에 각각 대응되는 복수의 그래픽 객체(900, 910, 912, 914)가 상기 쇼 윈도우 상에 표시되도록 할 수 있다. 이러한 경우 제어부(102)는 상기 그래픽 객체들 중 적어도 하나에 대한 사용자의 제스처에 근거하여, 상기 특정 진열품에 관련된 화상 정보(920)가 표시되는 상태가 제어되도록 할 수 있다.For example, when a user's gesture for selecting a specific display item is detected, the controller 102 may display a plurality of graphic objects 900 , 910 , 912 , 914 corresponding to different functions on the show window. can be displayed. In this case, the controller 102 may control a state in which the image information 920 related to the specific display item is displayed based on the user's gesture with respect to at least one of the graphic objects.

예를 들어 제어부(102)는 상기 그래픽 객체 'zoom'(910)에 대한 사용자의 제스처에 근거하여, 상기 화상 정보가 쇼 윈도우 상에 표시되는 크기를 결정할 수 있다. 또한 제어부(102)는 커서 모양의 그래픽 객체들(900) 중 적어도 하나에 대한 사용자의 제스처에 근거하여 상기 쇼 윈도우 상에 표시되는 화상 정보(920)의 위치가 변경되도록 할 수도 있다. For example, the controller 102 may determine a size at which the image information is displayed on the show window based on the user's gesture with respect to the graphic object 'zoom' 910 . Also, the controller 102 may change the position of the image information 920 displayed on the show window based on a user's gesture with respect to at least one of the cursor-shaped graphic objects 900 .

뿐만 아니라 제어부(102)는 상기 화상 정보의 표시 또는 제스처의 인식과 관련된 기능들을 상기 그래픽 객체들을 통해 제어되도록 할 수도 있다. 예를 들어 제어부(102)는 사용자가 그래픽 객체'gesture'(914)를 선택하기 위한 제스처를 취하는 경우, 상기 사용자의 제스처에 대한 응답으로, 상기 그래픽 객체(914)에 대한 제스처를 제외하고 다른 제스처를 인식하는 기능을 오프(off)할 수도 있다. 이러한 경우 제어부(102)는 상기 사용자가 다시 그래픽 객체(914)를 선택하거나, 또는 일정 시간이 경과하거나, 다른 사용자가 감지될 때까지, 상기 사용자의 제스처를 인식하는 기능이 오프되도록 할 수도 있다. In addition, the controller 102 may control functions related to display of the image information or recognition of a gesture through the graphic objects. For example, when the user makes a gesture for selecting the graphic object 'gesture' 914 , the controller 102 responds to the user's gesture with other gestures except for the gesture on the graphic object 914 . It is also possible to turn off the function to recognize In this case, the control unit 102 may turn off the function of recognizing the user's gesture until the user selects the graphic object 914 again, a predetermined time elapses, or another user is detected.

한편, 본 발명의 실시 예에 다른 제품 정보 제공 장치(100)의 제어부(102)는 상기 화상 정보를, 연결 가능한 주변 기기에 전송할 수도 있다. 예를 들어 도 9의 (a)에서 사용자가 그래픽 객체'mms'(912)를 선택하는 경우, 제어부(102)는 기 설정된 근거리 통신 수단, 예를 들어 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여 연결가능한 주변 기기에 상기 화상 정보(920)에 대응되는 정보가 전송되도록 할 수도 있다. Meanwhile, the controller 102 of the product information providing apparatus 100 according to an embodiment of the present invention may transmit the image information to a connectable peripheral device. For example, when the user selects the graphic object 'mms' 912 in FIG. 9A , the controller 102 controls a preset short-range communication means, for example, Bluetooth™, Radio Frequency Identification (RFID). ), Infrared Data Association (IrDA), UWB (Ultra Wideband), ZigBee, NFC (Near Field Communication), Wi-Fi (Wireless-Fidelity), Wi-Fi Direct, Wireless USB (Wireless Universal Serial Bus) technologies Information corresponding to the image information 920 may be transmitted to a connectable peripheral device using at least one of them.

이러한 경우 도 9의 (b)에서 보이고 있는 것처럼, 사용자의 이동 단말기(960)에는 상기 쇼 윈도우에 표시되는 화상 정보(920)에 대응되는 정보가 전송될 수 있으며, 이러한 경우 사용자는 이동 단말기(960)를 통해 자신이 선택한 진열품과 관련된 정보를 확인할 수도 있다. In this case, as shown in FIG. 9(b), information corresponding to the image information 920 displayed in the show window may be transmitted to the user's mobile terminal 960, and in this case, the user's mobile terminal 960 ), you can also check information related to the display item you have selected.

한편 상술한 본 발명의 설명에서는 구체적인 실시 예에 관해 설명하였으나, 여러 가지 변형이 본 발명의 범위에서 벗어나지 않고 실시할 수 있다. 특히 본 발명의 실시 예에서는 하나의 스캐너, 즉 상기 감지 수단 및 스캔 수단이 하나의 스캐너로 구성되는 경우를 가정하여 설명하였으나, 본 발명이 이에 국한되는 것이 아님은 물론이며, 이에 따라 본 발명이 이러한 실시 예에 한정되는 것이 아님은 물론이다. 즉 비록 스캐너가 사용자의 위치 및 사용자의 제스처를 감지할 수 있다고 하더라도, 상기 제스처 및 거리등을 보다 더 정확하게 판단하기 위해 부가적인 감지 수단을 더 사용할 수도 있음은 당연하기 때문이다. Meanwhile, in the above description of the present invention, specific embodiments have been described, but various modifications may be made without departing from the scope of the present invention. In particular, in the embodiment of the present invention, it has been described assuming that one scanner, that is, the sensing means and the scanning means are configured as one scanner, but the present invention is not limited thereto, and accordingly, the Of course, it is not limited to the embodiment. That is, although the scanner can detect the user's position and user's gesture, it is natural that additional sensing means may be further used to more accurately determine the gesture and the distance.

또한 상술한 본 발명의 실시 예에서는, 설명의 편의상, 복수의 진열품 중 어느 하나가 사용자의 제스처에 의해 선택되는 것을 예로 들어 설명하였으나, 이 뿐만 아니라 얼마든지 동시 또는 순차적으로 복수의 진열품들이 사용자의 제스처에 의해 선택되고 선택된 진열품들에 관련된 화상 정보들이 적어도 하나 이상 상기 쇼 윈도우 상의 적어도 일부에 표시될 수도 있음은 물론이다. In addition, in the above-described embodiment of the present invention, for convenience of explanation, it has been described that any one of the plurality of display items is selected by the user's gesture. Of course, at least one image information selected by and related to the selected displays may be displayed on at least a portion of the show window.

따라서 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석 되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Therefore, those of ordinary skill in the art to which the present invention pertains will be able to make various modifications and variations without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

Claims (20)

복수의 제품이 수용되는 쇼 윈도우에 있어서,
상기 쇼 윈도우 및 쇼 윈도우 주변을 스캔하는 스캔부;
상기 쇼 윈도우의 적어도 일부에 화상 정보를 영사하는 표시부; 및,
상기 스캔된 결과에 근거하여 상기 쇼 윈도우 주변에 위치한 사용자의 제스처를 감지하고, 상기 제스처에 근거하여 상기 복수의 제품 중 적어도 하나에 관련된 화상 정보가 상기 쇼 윈도우 상에 표시되도록 상기 표시부를 제어하는 제어부를 포함하며.
상기 제어부는,
상기 스캔부의 일부 동작을 사용자가 제어할 수 있도록 하는 적어도 하나의 그래픽 객체가 상기 쇼 윈도우에 표시되도록 상기 표시부를 제어하고,
상기 기 설정된 그래픽 객체에 대한 사용자의 제스처가 감지되는 경우, 상기 정보를 상기 사용자의 이동 단말기로 전송하는 것을 특징으로 하는 제품 정보 제공 장치.
In the show window in which a plurality of products are accommodated,
a scanning unit that scans the show window and a periphery of the show window;
a display unit for projecting image information on at least a portion of the show window; and;
A controller configured to detect a gesture of a user located around the show window based on the scanned result, and control the display unit to display image information related to at least one of the plurality of products on the show window based on the gesture. includes.
The control unit is
controlling the display unit so that at least one graphic object allowing a user to control some operations of the scan unit is displayed on the show window;
When a user's gesture with respect to the preset graphic object is detected, the information is transmitted to the user's mobile terminal.
제1항에 있어서, 상기 제어부는,
상기 복수의 제품 중, 상기 제스처에 대응되는 어느 하나의 제품과 관련된 정보가 표시된 상기 쇼 윈도우 내부의 특정 위치를 스캔하도록 상기 스캔부를 제어하며, 상기 스캔된 이미지가 영사되도록 상기 표시부를 제어하는 것을 특징으로 하는 제품 정보 제공 장치.
According to claim 1, wherein the control unit,
controlling the scan unit to scan a specific position inside the show window where information related to any one product corresponding to the gesture among the plurality of products is displayed, and controlling the display unit to project the scanned image A device for providing product information.
삭제delete 삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 스캔부는,
상기 쇼 윈도우에 비치는 사용자의 영상을 스캔하고,
상기 제어부는,
상기 스캔된 결과를 이용하여 사용자와의 거리 및 상기 사용자의 제스처를 감지하는 것을 특징으로 하는 제품 정보 제공 장치.
According to claim 1,
The scan unit,
Scan the user's image reflected in the show window,
The control unit is
The device for providing product information, characterized in that by detecting the distance to the user and the user's gesture by using the scanned result.
삭제delete 제1항에 있어서, 상기 제어부는,
상기 복수의 제품 중 적어도 하나를 사용자로부터 선택받기 위한 선택 영역이 상기 쇼 윈도우 상에 표시되도록 상기 표시부를 제어하고,
상기 선택 영역 상에서 감지되는 사용자의 제스처에 근거하여 상기 제품들 중 적어도 하나에 관련된 화상 정보가 영사되도록 상기 표시부를 제어하는 것을 특징으로 하는 제품 정보 제공 장치.
According to claim 1, wherein the control unit,
controlling the display unit so that a selection area for receiving at least one selection from the plurality of products is displayed on the show window;
and controlling the display unit to project image information related to at least one of the products based on a user's gesture detected on the selection area.
제9항에 있어서, 상기 선택 영역은,
상기 쇼 윈도우 내부에 수용되는 제품들이 적어도 하나 비치도록, 상기 쇼 윈도우의 적어도 일부 영역에 형성되며,
상기 비치는 제품들 중, 사용자의 제스처에 대응되는 적어도 하나의 제품들이 다른 제품들과 구분되게 표시되는 영역임을 특징으로 하는 제품 정보 제공 장치.
10. The method of claim 9, wherein the selection area,
It is formed in at least a portion of the show window so that at least one product accommodated in the show window is reflected,
The apparatus for providing product information, characterized in that, among the reflected products, at least one product corresponding to a user's gesture is displayed to be distinguished from other products.
삭제delete 제9항에 있어서, 상기 제어부는,
사용자의 시선 방향에 근거하여 상기 선택 영역을 통해 비처보이는 제품들 중 어느 하나를 선택 및 선택된 제품이 다른 제품들과 구분되도록 상기 표시부를 제어하고,
상기 선택된 제품에 대한 사용자의 제스처가 감지되면, 상기 선택된 제품에 관련된 정보가 상기 선택 영역의 적어도 일부에 표시되도록 상기 표시부를 제어하는 것을 특징으로 하는 제품 정보 제공 장치.
10. The method of claim 9, wherein the control unit,
Selecting any one of the products visible through the selection area based on the user's gaze direction and controlling the display unit so that the selected product is distinguished from other products,
When a user's gesture with respect to the selected product is detected, the product information providing apparatus according to claim 1, wherein the display unit is controlled to display information related to the selected product on at least a portion of the selection area.
삭제delete 삭제delete 제1항에 있어서, 상기 그래픽 객체는,
상기 스캔부가 스캔하는 상기 쇼 윈도우 내부의 위치 및 상기 스캔부의 줌 인이나 줌 아웃 동작과 관련된 그래픽 객체를 더 포함하는 것을 특징으로 하는 제품 정보 제공 장치.
According to claim 1, wherein the graphic object,
The device for providing product information, characterized in that it further comprises a position within the show window scanned by the scan unit and a graphic object related to a zoom-in or zoom-out operation of the scan unit.
삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 스캔부는,
상기 쇼 윈도우를 스캔하여 상기 쇼 윈도우 상의 온도 분포를 더 스캔하고,
상기 제어부는,
상기 스캔된 결과에 근거하여 상기 쇼 윈도우 상에서 상기 사용자의 터치가 감지된 지점을 감지하고, 감지된 지점에 근거하여 상기 복수의 제품 중 적어도 하나에 관련된 화상 정보가 상기 쇼 윈도우 상에 표시되도록 하는 것을 특징으로 하는 제품 정보 제공 장치.
According to claim 1,
The scan unit,
scan the show window to further scan the temperature distribution on the show window;
The control unit is
detecting a point where the user's touch is sensed on the show window based on the scanned result, and displaying image information related to at least one of the plurality of products on the show window based on the detected point Characterized product information providing device.
복수의 제품이 수용되는 쇼 윈도우에 있어서,
상기 쇼 윈도우 및 쇼 윈도우 주변을 스캔하는 단계;
상기 스캔된 결과에 근거하여 상기 쇼 윈도우 주변에 위치한 사용자의 제스처를 감지하는 단계;
상기 감지된 제스처에 근거하여 상기 복수의 제품 중 적어도 하나를 사용자로부터 선택받는 단계; 및,
상기 선택된 적어도 하나의 제품에 관련된 화상 정보를 상기 쇼 윈도우의 적어도 일부 영역에 영사하는 단계를 포함하며,
상기 회상 정보는,
상기 선택된 적어도 하나의 제품에 관련된 화상 정보의 전송과 관련된 그래픽 객체를 더 포함하고,
상기 화상 정보를 영사하는 단계는,
상기 그래픽 객체에 대한 사용자의 제스처가 감지되는 경우, 상기 선택된 적어도 하나의 제품에 관련된 화상 정보를 상기 사용자의 이동 단말기로 전송하는 단계를 더 포함하는 것을 특징으로 하는 제품 정보 제공 방법.
In the show window in which a plurality of products are accommodated,
scanning the show window and its surroundings;
detecting a user's gesture located around the show window based on the scanned result;
receiving a selection from a user of at least one of the plurality of products based on the sensed gesture; and;
Projecting image information related to the at least one selected product on at least a partial area of the show window,
The recall information is
Further comprising a graphic object related to the transmission of image information related to the selected at least one product,
The step of projecting the image information,
and transmitting image information related to the selected at least one product to the user's mobile terminal when the user's gesture with respect to the graphic object is detected.
KR1020140080053A 2014-06-27 2014-06-27 An apparatus and method for proceeding information of products being displayed in the show window KR102268045B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020140080053A KR102268045B1 (en) 2014-06-27 2014-06-27 An apparatus and method for proceeding information of products being displayed in the show window
PCT/KR2014/008973 WO2015199283A1 (en) 2014-06-27 2014-09-25 Apparatus and method for providing product information of product exhibited in show window

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140080053A KR102268045B1 (en) 2014-06-27 2014-06-27 An apparatus and method for proceeding information of products being displayed in the show window

Publications (2)

Publication Number Publication Date
KR20160001466A KR20160001466A (en) 2016-01-06
KR102268045B1 true KR102268045B1 (en) 2021-06-22

Family

ID=54938351

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140080053A KR102268045B1 (en) 2014-06-27 2014-06-27 An apparatus and method for proceeding information of products being displayed in the show window

Country Status (2)

Country Link
KR (1) KR102268045B1 (en)
WO (1) WO2015199283A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102254794B1 (en) * 2016-12-26 2021-05-21 미쓰비시덴키 가부시키가이샤 Touch panel input device, touch gesture determination device, touch gesture determination method, and touch gesture determination program
CN111353842A (en) * 2018-12-24 2020-06-30 阿里巴巴集团控股有限公司 Processing method and system of push information
US11379081B2 (en) * 2020-08-17 2022-07-05 Dynascan Technology Corp. Touch system and method of operating the same

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100064177A (en) * 2008-12-04 2010-06-14 삼성전자주식회사 Electronic device and method for displaying
KR101122883B1 (en) * 2011-03-18 2012-03-20 (주)티원시스템즈 The showcase with transparent display
KR20130056028A (en) * 2011-11-21 2013-05-29 엘지전자 주식회사 Showcase system including transparent display panel and method for operating the same
KR20130115586A (en) * 2012-04-12 2013-10-22 (주)에스앤지그룹 Smart refrgerator comprising transparent display pannel for providing digital contents
WO2014021658A1 (en) * 2012-08-01 2014-02-06 Samsung Electronics Co., Ltd. Transparent display apparatus and display method thereof

Also Published As

Publication number Publication date
WO2015199283A1 (en) 2015-12-30
KR20160001466A (en) 2016-01-06

Similar Documents

Publication Publication Date Title
US20210096651A1 (en) Vehicle systems and methods for interaction detection
US20220301041A1 (en) Virtual fitting provision device and provision method therefor
US20180224947A1 (en) Individually interactive multi-view display system for non-stationary viewing locations and methods therefor
US20150310539A1 (en) In-store object highlighting by a real world user interface
EP2381339A2 (en) User interface using hologram and method thereof
EP2194468A1 (en) Electronic apparatus and displaying method thereof
KR102402048B1 (en) Electronic apparatus and the controlling method thereof
KR102268045B1 (en) An apparatus and method for proceeding information of products being displayed in the show window
US20170038912A1 (en) Information providing device
KR101872272B1 (en) Method and apparatus for controlling of electronic device using a control device
JP2010157115A (en) Merchandise selling device
WO2016053320A1 (en) Gesture based manipulation of three-dimensional images
JP6886024B2 (en) Head mounted display
KR20160011272A (en) Goods purchase apparatus, and goods purchase system including the same
KR20110138975A (en) Apparatus for detecting coordinates, display device, security device and electronic blackboard including the same
KR101575063B1 (en) multi-user recognition multi-touch interface apparatus and method using depth-camera
US10437415B2 (en) System, method, and device for controlling a display
KR20160023208A (en) Mirror display device and operating method thereof
US20190244581A1 (en) Information processing apparatus and non-transitory computer readable medium
KR101494445B1 (en) Apparatus and method for displaying promotion image using transparent display, and recording medium thereof
JP2016051468A (en) Information processing apparatus, control method of the same, and program
JP2021079686A5 (en)
JP6586904B2 (en) Image display device, display control method, and display control program
WO2019202617A1 (en) System and method for detecting and storing the position of articles in a sales point
US11954241B2 (en) Information display system and information display method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant