KR102268045B1 - An apparatus and method for proceeding information of products being displayed in the show window - Google Patents
An apparatus and method for proceeding information of products being displayed in the show window Download PDFInfo
- Publication number
- KR102268045B1 KR102268045B1 KR1020140080053A KR20140080053A KR102268045B1 KR 102268045 B1 KR102268045 B1 KR 102268045B1 KR 1020140080053 A KR1020140080053 A KR 1020140080053A KR 20140080053 A KR20140080053 A KR 20140080053A KR 102268045 B1 KR102268045 B1 KR 102268045B1
- Authority
- KR
- South Korea
- Prior art keywords
- user
- show window
- gesture
- displayed
- products
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K17/00—Methods or arrangements for effecting co-operative working between equipments covered by two or more of main groups G06K1/00 - G06K15/00, e.g. automatic card files incorporating conveying and reading operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/22—Source localisation; Inverse modelling
Abstract
본 발명은 쇼 윈도우 내에 전시된 제품들의 정보를 제공하기 위한 것으로, 복수의 제품이 수용되는 쇼 윈도우에 있어서, 상기 쇼 윈도우 및 쇼 윈도우 주변을 스캔하는 스캔부와, 상기 쇼 윈도우의 적어도 일부에 화상 정보를 영사하는 표시부, 및, 상기 스캔된 결과에 근거하여 상기 쇼 윈도우 주변에 위치한 사용자의 제스처를 감지하고, 상기 제스처에 근거하여 상기 복수의 제품 중 적어도 하나에 관련된 화상 정보가 상기 쇼 윈도우 상에 표시되도록 상기 표시부를 제어하는 제어부를 포함하는 것을 특징으로 한다. The present invention is to provide information on products displayed in a show window. In a show window accommodating a plurality of products, a scan unit for scanning the show window and the periphery of the show window, and an image on at least a part of the show window a display unit for projecting information, and a gesture of a user located around the show window is detected based on the scanned result, and image information related to at least one of the plurality of products is displayed on the show window based on the gesture. and a control unit for controlling the display unit to be displayed.
Description
본 발명은 쇼 윈도우 내에 전시된 제품들의 정보를 제공하기 위한 것이다.
The present invention is to provide information on products displayed in a show window.
일반적으로 대형 백화점이나 쇼핑몰등에서는 견본 제품이나 실제 제품등을 유리와 같이 투과성 높은 구조물(쇼 윈도우(Show Window)) 내부에 전시한다. 이러한 경우 행인들은 쇼 윈도우를 통해 상기 제품들을 육안으로 확인할 수 있으며, 이에 따른 구매 욕구의 상승으로 인해 잠재적인 고객으로 전환될 수 있다. In general, in large department stores or shopping malls, sample products or actual products are displayed inside a highly transparent structure (show window) such as glass. In this case, passers-by may visually check the products through the show window, and thus may be converted into potential customers due to an increase in purchase desire.
한편, 현재는 발달된 정보 통신 기술을 이용하여 이러한 구매 욕구의 상승 효과를 증가시키기 위한 방법이 활발하게 연구중인 실정이다. 예를 들어 현재에는 정보 통신 기술을 이용하여 사용자에게 보다 능동적으로 원하는 정보를 제공할 수 있도록 한다. 이를 위해 현재에는 디지털 사이니지(digital signage)와 같이 디지털화된 제품의 정보를 사용자에게 제공하며, 사용자와 상호 작용할 수 있도록 하는 방법도 등장하고 있는 실정이다.Meanwhile, a method for increasing the synergistic effect of such a purchase desire using developed information and communication technology is being actively studied. For example, currently, information and communication technology is used to more actively provide desired information to a user. To this end, currently, information on digitized products, such as digital signage, is provided to the user, and a method for interacting with the user is also emerging.
하지만 이러한 디지털 사이니지등과 같은 방법은, 사용자에게 실제 제품 또는 견본이 아닌, 단지 디지털 이미지만을 제공할 수 있다는 한계가 있으며, 그 구현에 있어서도 디지털 사이니지의 경우 디스플레이 패널의 면적이 넓을수록 고 비용을 요함으로 많은 비용이 소모된다는 문제가 있다. 이에 따라 사용자에게 실제 제품 견본을 제공할 수 있으면서도, 보다 저 비용으로 상기 제품과 관련된 다양한 정보를 사용자에게 제공할 수 있도록 하는 방법이 절실하게 필요한 상황이다.
However, such a digital signage method has a limitation in that it can provide only a digital image, not an actual product or sample, to the user, and in the implementation of digital signage, the larger the area of the display panel, the higher the cost. There is a problem that a lot of cost is consumed by requiring Accordingly, there is an urgent need for a method capable of providing a user with an actual product sample and providing a variety of information related to the product to the user at a lower cost.
본 발명의 목적은, 사용자에게 실제 제품 또는 실제 제품 견본을 보여주면서도, 사용자가 상호작용하여 사용자가 원하는 정보를 제공할 수 있도록 하는 장치 및 방법을 제공함에 있다. SUMMARY OF THE INVENTION An object of the present invention is to provide an apparatus and method for providing information desired by a user by interacting with the user while showing an actual product or an actual product sample to the user.
본 발명의 다른 목적은, 사용자와 상호작용하여 사용자가 원하는 정보를 제공할 수 있도록 하면서도, 소요되는 비용을 최소화할 수 있도록 하는 하는 장치 및 방법을 제공함에 있다.
Another object of the present invention is to provide an apparatus and method for minimizing costs while interacting with a user to provide desired information to the user.
상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따르면, 본 발명의 실시 예에 따른 제품 정보 제공 장치는, 복수의 제품이 수용되는 쇼 윈도우에 있어서, 상기 쇼 윈도우 및 쇼 윈도우 주변을 스캔하는 스캔부와, 상기 쇼 윈도우의 적어도 일부에 화상 정보를 영사하는 표시부, 및, 상기 스캔된 결과에 근거하여 상기 쇼 윈도우 주변에 위치한 사용자의 제스처를 감지하고, 상기 제스처에 근거하여 상기 복수의 제품 중 적어도 하나에 관련된 화상 정보가 상기 쇼 윈도우 상에 표시되도록 상기 표시부를 제어하는 제어부를 포함하는 것을 특징으로 한다. According to one aspect of the present invention to achieve the above or other object, the product information providing apparatus according to an embodiment of the present invention, in a show window accommodating a plurality of products, scans the show window and the periphery of the show window A scanning unit, a display unit for projecting image information on at least a portion of the show window, and detecting a gesture of a user located in the vicinity of the show window based on the scanned result, based on the gesture, among the plurality of products and a control unit controlling the display unit so that at least one related image information is displayed on the show window.
일 실시 예에 있어서, 상기 제어부는, 상기 복수의 제품 중, 상기 제스처에 대응되는 어느 하나의 제품과 관련된 정보가 표시된 상기 쇼 케이스 내부의 특정 위치를 스캔하도록 상기 스캔부를 제어하며, 상기 스캔된 이미지가 영사되도록 상기 표시부를 제어하는 것을 특징으로 한다. In an embodiment, the controller controls the scan unit to scan a specific location inside the showcase where information related to any one product corresponding to the gesture is displayed among the plurality of products, and the scanned image is characterized in that the display unit is controlled to be projected.
일 실시 예에 있어서, 상기 제어부는, 상기 쇼 윈도우 내부에서 적어도 하나의 광고가 표시된 특정 위치를 스캔하도록 상기 스캔부를 제어하며, 상기 스캔된 이미지가 영사되도록 상기 표시부를 제어하는 것을 특징으로 한다. In an embodiment, the control unit controls the scan unit to scan a specific position where at least one advertisement is displayed within the show window, and controls the display unit to project the scanned image.
일 실시 예에 있어서, 상기 제어부는, 상기 스캔한 이미지에 대한 고개의 제스처에 근거하여, 상기 스캔되는 이미지가 영사되는 위치 및 크기 중 적어도 하나가 변경되도록 상기 표시부를 제어하는 것을 특징으로 한다. In an embodiment, the controller controls the display unit to change at least one of a location and a size at which the scanned image is projected, based on a gesture of the head with respect to the scanned image.
일 실시 예에 있어서, 상기 제품들 각각에 관련된 정보들이 저장된 메모리를 더 포함하며, 상기 제어부는, 상기 제품들 중 상기 제스처에 대응되는 어느 하나에 제품에 관련된 정보를 상기 메모리로부터 독출하여 상기 쇼 윈도우의 적어도 일부 영역에 영사되도록 상기 표시부를 제어하는 것을 특징으로 한다. In one embodiment, further comprising a memory in which information related to each of the products is stored, wherein the control unit reads information related to a product to any one of the products corresponding to the gesture from the memory to display the show window It is characterized in that the display unit is controlled to be projected on at least a partial area of the .
일 실시 예에 있어서, 상기 제어부는, 상기 제품들 중 상기 제스처에 대응되는 어느 하나에 관련된 정보를, 그 제품에 부착된 무선 칩으로부터 수신하여 상기 쇼 윈도우의 적어도 일부 영역에 영사되도록 상기 표시부를 제어하는 것을 특징으로 한다. In an embodiment, the control unit controls the display unit to receive information related to any one of the products corresponding to the gesture from a wireless chip attached to the product and project the information to at least a partial area of the show window. characterized in that
일 실시 예에 있어서, 상기 스캔부는, 상기 쇼 윈도우에 비치는 사용자의 영상을 스캔하고, 상기 제어부는, 상기 스캔된 결과를 이용하여 사용자와의 거리 및 상기 사용자의 제스처를 감지하는 것을 특징으로 한다. In an embodiment, the scan unit scans an image of a user reflected on the show window, and the control unit detects a distance to the user and a gesture of the user using the scanned result.
일 실시 예에 있어서, 상기 화상 정보는, 상기 제품과 관련된 이벤트에 대한 정보, 상기 제품에 대해 검색된 정보, 및, 상기 제품과 관련된 다른 제품에 대한 정보 중 적어도 하나를 포함하는 정보임을 특징으로 한다. In an embodiment, the image information is characterized in that it is information including at least one of information on an event related to the product, information searched for on the product, and information on another product related to the product.
일 실시 예에 있어서, 상기 제어부는, 상기 복수의 제품 중 적어도 하나를 사용자로부터 선택받기 위한 선택 영역이 상기 쇼 윈도우 상에 표시되도록 상기 표시부를 제어하고, 상기 선택 영역 상에서 감지되는 사용자의 제스처에 근거하여 상기 제품들 중 적어도 하나에 관련된 화상 정보가 영사되도록 상기 표시부를 제어하는 것을 특징으로 한다. In an embodiment, the control unit controls the display unit so that a selection area for receiving at least one of the plurality of products to be selected by a user is displayed on the show window, and based on the user's gesture sensed on the selection area to control the display unit to project image information related to at least one of the products.
일 실시 예에 있어서, 상기 선택 영역은, 상기 쇼 윈도우 내부에 수용되는 제품들이 적어도 하나 비치도록, 상기 쇼 윈도우의 적어도 일부 영역에 형성되며, 상기 비치는 제품들 중, 사용자의 제스처에 대응되는 적어도 하나의 제품들이 다른 제품들과 구분되게 표시되는 영역임을 특징으로 한다. In an embodiment, the selection area is formed in at least a portion of the show window so that at least one product accommodated in the show window is reflected, and among the reflected products, at least one corresponding to a user's gesture It is characterized as an area where the products of the product are displayed separately from other products.
일 실시 예에 있어서, 상기 제어부는, 상기 쇼 윈도우에 비친 사용자의 영상을 스캔한 결과로부터 사용자의 시선 방향을 더 감지하고, 상기 사용자의 시선 방향에 근거하여 상기 선택 영역을 설정하는 것을 특징으로 한다. In an embodiment, the controller further detects a user's gaze direction from a result of scanning the user's image reflected on the show window, and sets the selection area based on the user's gaze direction. .
일 실시 예에 있어서, 상기 제어부는, 사용자의 시선 방향에 근거하여 상기 선택 영역을 통해 비처보이는 제품들 중 어느 하나를 선택 및 선택된 제품이 다른 제품들과 구분되도록 상기 표시부를 제어하고, 상기 선택된 제품에 대한 사용자의 제스처가 감지되면, 상기 선택된 제품에 관련된 정보가 상기 선택 영역의 적어도 일부에 표시되도록 상기 표시부를 제어하는 것을 특징으로 한다. In an embodiment, the control unit selects any one of the products visible through the selection area based on the user's gaze direction and controls the display unit to distinguish the selected product from other products, and the selected product When a user's gesture is detected, the display unit is controlled so that information related to the selected product is displayed on at least a part of the selection area.
일 실시 예에 있어서, 상기 제어부는, 사용자의 시선 방향 및, 감지된 사용자의 제스처에 근거하여 상기 쇼 윈도우 상에서 영사되는 화상 정보의 위치를 결정하는 것을 특징으로 한다. In an embodiment, the controller determines the position of the image information projected on the show window based on the user's gaze direction and the detected user's gesture.
일 실시 예에 있어서, 상기 제어부는, 사용자의 키 높이 및, 사용자의 위치에 근거하여 상기 화상 정보가 영사되는 상기 쇼 윈도우 상의 위치 및 상기 화상 정보의 크기를 결정하는 것을 특징으로 한다. In an embodiment, the controller determines a position on the show window to which the image information is projected and a size of the image information based on the height of the user and the position of the user.
일 실시 예에 있어서, 상기 제어부는, 상기 스캔부의 일부 동작을 사용자가 제어할 수 있도록 하는 적어도 하나의 그래픽 객체가 상기 쇼 윈도우에 표시되도록 상기 표시부를 제어하고, 상기 그래픽 객체는, 상기 스캔부가 스캔하는 상기 쇼 윈도우 내부의 위치 및 상기 스캔부의 줌 인이나 줌 아웃 동작과 관련된 것임을 특징으로 한다. In an embodiment, the control unit controls the display unit to display at least one graphic object allowing a user to control some operations of the scanning unit to be displayed in the show window, and the graphic object is scanned by the scanning unit. It is characterized in that it is related to a position inside the show window and a zoom-in or zoom-out operation of the scan unit.
일 실시 예에 있어서, 상기 제어부는, 상기 제스처에 대응되는 제품에 대한 정보를 특정 이동 단말기로 전송하기 위한 그래픽 객체가 상기 쇼 윈도우에 더 표시되도록 상기 표시부를 제어하고, 상기 그래픽 객체에 대한 사용자의 제스처가 감지되는 경우, 상기 정보를 상기 사용자의 이동 단말기로 전송하는 것을 특징으로 한다. In an embodiment, the control unit controls the display unit to further display a graphic object for transmitting information about a product corresponding to the gesture to a specific mobile terminal in the show window, and controls the user's response to the graphic object. When a gesture is detected, the information is transmitted to the user's mobile terminal.
일 실시 예에 있어서, 상기 스캔부는, 레이저 스캔 방식을 이용하여, 상기 쇼 윈도우 및 쇼 윈도우 주변을 스캔하는 것을 특징으로 한다. In an embodiment, the scan unit scans the show window and the periphery of the show window by using a laser scan method.
일 실시 예에 있어서, 상기 제어부는, 상기 화상 정보가 표시되는 상태에서, 상기 쇼 윈도우에 비치는 사용자의 영상에 근거하여 동일한 사용자가 상기 쇼 윈도우 주변에 있는지를 감지하고, 상기 감지 결과에 근거하여 상기 화상 정보의 표시를 중지하는 것을 특징으로 한다. In an embodiment, the control unit is, in a state in which the image information is displayed, detects whether the same user is in the vicinity of the show window based on an image of the user reflected on the show window, and based on the detection result, the It is characterized in that the display of image information is stopped.
일 실시 예에 있어서, 상기 스캔부는, 상기 쇼 윈도우를 스캔하여 상기 쇼 윈도우 상의 온도 분포를 더 스캔하고, 상기 제어부는, 상기 스캔된 결과에 근거하여 상기 쇼 윈도우 상에서 상기 사용자의 터치가 감지된 지점을 감지하고, 감지된 지점에 근거하여 상기 복수의 제품 중 적어도 하나에 관련된 화상 정보가 상기 쇼 윈도우 상에 표시되도록 하는 것을 특징으로 한다.In an embodiment, the scan unit scans the show window to further scan a temperature distribution on the show window, and the control unit is a point at which the user's touch is sensed on the show window based on the scanned result. is detected, and image information related to at least one of the plurality of products is displayed on the show window based on the sensed point.
상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따르면, 본 발명의 실시 예에 따른 제품 정보 제공 방법은, 복수의 제품이 수용되는 쇼 윈도우에 있어서, 상기 쇼 윈도우 및 쇼 윈도우 주변을 스캔하는 단계와, 상기 스캔된 결과에 근거하여 상기 쇼 윈도우 주변에 위치한 사용자의 제스처를 감지하는 단계와, 상기 감지된 제스처에 근거하여 상기 복수의 제품 중 적어도 하나를 사용자로부터 선택받는 단계, 및, 상기 선택된 적어도 하나의 제품에 관련된 화상 정보를 상기 쇼 윈도우의 적어도 일부 영역에 영사하는 단계를 포함하는 것을 특징으로 한다.
According to an aspect of the present invention in order to achieve the above or other objects, the method for providing product information according to an embodiment of the present invention includes, in a show window in which a plurality of products are accommodated, scanning the show window and the surroundings of the show window. detecting a gesture of a user located in the vicinity of the show window based on the scanned result; receiving at least one of the plurality of products selected from the user based on the detected gesture; and, and projecting image information related to at least one product onto at least a partial area of the show window.
본 발명에 따른 제품 정보 제공 장치 및 그 방법의 효과에 대해 설명하면 다음과 같다.The effect of the product information providing apparatus and the method according to the present invention will be described as follows.
본 발명의 실시 예들 중 적어도 하나에 의하면, 본 발명은 쇼 윈도우를 통해, 사용자의 제스처에 근거한 제품의 제품 정보가 제공되도록 할 수 있으므로, 실제 제품 및 견본을 사용자가 확인할 수 있도록 하면서도, 사용자가 원하는 다양한 정보가 제공되도록 한다는 장점이 있다. According to at least one of the embodiments of the present invention, the present invention can provide product information of a product based on a user's gesture through the show window, so that the user can check the actual product and sample, while allowing the user to It has the advantage of providing a variety of information.
본 발명의 실시 예들 중 적어도 하나에 의하면, 본 발명은 쇼 윈도우를 스캔하여 사용자의 제스처를 감지하고, 그에 대응되는 제품 정보가 상기 쇼 윈도우에 영사되도록 함으로써, 일반적인 쇼 윈도우를 이용하면서도, 사용자와 상호작용하여 사용자가 원하는 정보가 제공될 수 있도록 한다는 장점이 있다.
According to at least one of the embodiments of the present invention, the present invention scans the show window to detect the user's gesture, and allows product information corresponding thereto to be projected on the show window, so that the user can interact with the user while using the general show window. It has the advantage that it works so that the information desired by the user can be provided.
도 1은 본 발명의 실시 예에 따른 제품 정보 제공 장치의 구성을 도시한 블록 구성도이다.
도 2는 본 발명의 실시 예에 따른 제품 정보 제공 장치의 동작 과정을 도시한 흐름도이다.
도 3은 사용자의 제스처에 대응되는 어느 하나의 진열품을 선택하는 동작 과정을 보다 자세히 도시한 흐름도이다.
도 4는 사용자의 시선 방향 및 사용자의 제스처에 근거하여 어느 하나의 진열품이 선택되는 동작 과정을 보다 자세히 도시한 흐름도이다.
도 5a 및 도 5b는, 본 발명의 실시 예에 따른 제품 정보 제공 장치가 설치된 예 및 본 발명의 실시 예에 따라 쇼 윈도우에 표시되는 화상 정보의 예를 보이는 예시도이다.
도 6a 및 도 6b는, 본 발명의 실시 예에 따른 제품 정보 제공 장치에서 사용자의 위치 및 사용자의 키 높이에 따라 쇼 윈도우에 표시되는 화상 정보의 위치가 다르게 결정되는 예를 보이는 예시도이다.
도 7은, 본 발명의 실시 예에 따른 제품 정보 제공 장치에서, 사용자의 시선 방향 변경 및, 사용자의 제스처에 근거하여 화상 정보가 제공되는 예시도이다.
도 8은, 본 발명의 실시 예에 따른 제품 정보 제공 장치에서, 사용자의 선택에 따라 쇼 윈도우 상에 특정 광고와 관련된 이미지가 영사되는 예시도이다.
도 9는, 본 발명의 실시 예에 따른 제품 정보 제공 장치에서, 화상 정보가 표시되는 상태를 제어할 수 있는 그래픽 객체들 및 그에 따라 수행되는 기능의 예를 보이고 있는 예시도이다. 1 is a block diagram illustrating a configuration of an apparatus for providing product information according to an embodiment of the present invention.
2 is a flowchart illustrating an operation process of an apparatus for providing product information according to an embodiment of the present invention.
3 is a flowchart illustrating in more detail an operation process of selecting any one display item corresponding to a user's gesture.
4 is a flowchart illustrating in more detail an operation process in which any one display item is selected based on the user's gaze direction and the user's gesture.
5A and 5B are exemplary views showing an example in which a product information providing apparatus according to an embodiment of the present invention is installed and an example of image information displayed on a show window according to an embodiment of the present invention.
6A and 6B are exemplary views illustrating an example in which the position of image information displayed on a show window is determined differently according to a user's position and a user's height in the product information providing apparatus according to an embodiment of the present invention.
7 is an exemplary diagram in which image information is provided based on a change in a user's gaze direction and a user's gesture in the device for providing product information according to an embodiment of the present invention.
8 is an exemplary diagram in which an image related to a specific advertisement is projected on a show window according to a user's selection in the device for providing product information according to an embodiment of the present invention.
9 is an exemplary diagram showing examples of graphic objects capable of controlling a state in which image information is displayed and functions performed accordingly in the device for providing product information according to an embodiment of the present invention.
본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "구성된다." 또는 "포함한다." 등의 용어는 명세서상에 기재된 여러 구성 요소들, 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.It should be noted that technical terms used herein are used only to describe specific embodiments, and are not intended to limit the present invention. Also, as used herein, the singular expression includes the plural expression unless the context clearly dictates otherwise. As used herein, "consisting of." or "includes." The term such as etc. should not be construed as necessarily including all of the various components or steps described in the specification, and some components or some steps may not be included, or additional components or steps may not be included. It should be construed as being able to include more.
또한, 본 명세서에 개시된 기술을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 기술의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. In addition, in describing the technology disclosed in the present specification, if it is determined that a detailed description of a related known technology may obscure the gist of the technology disclosed in this specification, the detailed description thereof will be omitted.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예들을 상세히 설명하도록 한다. Hereinafter, embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings.
먼저 본 발명의 완전한 이해를 돕기 위해, 본 발명의 기본 원리를 설명하면 본 발명에서는, 사용자와 상호작용하여 사용자가 원하는 정보를 능동적으로 제공할 수 있도록 하는데 있어서, 터치스크린이 아니라 일반적인 쇼 윈도우를 이용할 수 있도록 하기 위한 것이다. 이를 위해 본 발명은, 일정 거리 이내에 쇼 윈도우에 사람(이하 '사용자'라고 칭하기로 한다)이 위치하는 경우에, 상기 쇼 윈도우를 통해 비치는 사용자의 영상을 이용하여, 사용자의 제스처를 감지하고, 사용자의 제스처에 대응되는 특정 제품 또는 견본품에 관련된 정보가 상기 쇼 윈도우의 적어도 일부 영역에 영사(projection)될 수 있도록 한다. 이에 따라 본 발명은 쇼 윈도우 전체를 터치 스크린으로 구성하지 않음에도 불구하고, 사용자의 터치 등, 사용자의 제스처를 감지하고 그에 따라 특정 제품과 관련된 정보가 제공되도록 할 수 있다.First, in order to help a complete understanding of the present invention, the basic principle of the present invention will be described. In the present invention, a general show window, not a touch screen, is used in interaction with a user to actively provide desired information. in order to be able to To this end, in the present invention, when a person (hereinafter referred to as a 'user') is located in the show window within a certain distance, the user's gesture is sensed using the image of the user reflected through the show window, and the user Information related to a specific product or sample corresponding to the gesture of can be projected on at least a partial area of the show window. Accordingly, the present invention can detect a user's gesture, such as a user's touch, and provide information related to a specific product accordingly, even though the entire show window is not configured as a touch screen.
이를 위해 본 발명은, 상기 사용자의 제스처를 감지할 수 있는 수단 및 쇼 윈도우 내부에 진열된 제품 또는 견본품들 및 상기 제품 또는 견본품들에 대한 정보를 스캔(scan)하기 위한 수단등을 포함할 수 있다. 여기서 상기 감지 수단은 다양한 것이 될 수 있다. 예를 들어 상기 감지 수단은, 상기 쇼 윈도우 주변에 설치된 적외선 센서 또는 레이저 센서등일 수 있다. 또는 상기 감지 수단 및 스캔 수단은 하나의 스캐너(scanner)일 수 있다. 이는 상기 스캐너가 상기 쇼 윈도우에 비치는 사용자의 영상을 스캔하여 사용자와 쇼 윈도우 사이의 거리 및 사용자의 제스처를 감지할 수도 있기 때문이다. To this end, the present invention may include means for detecting the user's gesture and means for scanning products or samples displayed in the show window and information on the products or samples. . Here, the sensing means may be various. For example, the sensing means may be an infrared sensor or a laser sensor installed around the show window. Alternatively, the sensing means and the scanning means may be a single scanner. This is because the scanner may scan the user's image reflected on the show window to detect the distance between the user and the show window and the user's gesture.
도 1은 이러한 본 발명의 실시 예에 따른 제품 정보 제공 장치의 구성을 도시하고 있는 것이다. 이하의 설명에서는 하나의 스캐너, 즉 상기 감지 수단 및 스캔 수단이 하나의 스캐너로 구성되는 경우를 가정하여 설명하기로 한다. 1 is a diagram illustrating the configuration of an apparatus for providing product information according to an embodiment of the present invention. In the following description, it is assumed that one scanner, that is, a case in which the sensing means and the scanning means are configured as one scanner.
도 1을 참조하여 살펴보면, 본 발명의 실시 예에 따른 제품 정보 제공 장치(100)는, 스캔부(104)와 표시부(106) 및 상기 스캔부(104)와 표시부(106)에 연결되며 연결된 각 구성 요소를 제어하는 제어부(102)를 포함하여 구성될 수 있다. Referring to FIG. 1 , the
여기서 상기 표시부(106)는 상기 쇼 윈도우에 수용된 복수의 제품 중 적어도 하나에 관련된 정보를 화상 정보 형태로 상기 쇼 윈도우 상에 표시할 수 있다. 예를 들어 상기 표시부(106)는 빔 프로젝터(beam projector)의 형태로 구현되어, 상기 쇼 윈도우 내부에 수용된 복수의 제품 중 적어도 하나의 제품과 관련된 화상 정보를 상기 쇼 윈도우 상의 적어도 일부에 영사(projection)할 수 있다. 이러한 경우, 쇼 윈도우 외부에 위치한 사용자는 상기 쇼 윈도우의 뒷면, 즉 제품 또는 견본품(이하 진열품이라 칭한다)들이 진열되는 방향의 면(이하 내부 면이라 한다)에 영사되는 화상 정보를 통해 자신이 선택한 제품과 관련된 정보를 확인할 수 있다. Here, the
스캔부(104)는 상기 쇼 윈도우 주변을 스캔할 수 있다. 예를 들어 스캔부(104)는 레이저(laser) 스캔 방식에 따라 상기 쇼 윈도우 내부에 위치한 진열품들을 스캔하여, 상기 진열품들 각각과 관련된 이미지를 생성할 수 있다. 또는 제어부(102)는 상기 쇼 윈도우 내부의 특정 위치, 예를 들어 쇼 윈도우 내부에 수용된 진열품들과 관련된 정보들이 표시된 위치 또는 상기 쇼 윈도우 내부에 광고가 표시된 위치를 스캔하여, 스캔된 위치에서 표시되는 정보를 포함하는 이미지를 생성할 수도 있다. 그리고 이처럼 스캔부(104)에서 스캔된 이미지는, 제어부(102)의 제어에 따라 상기 표시부(106)를 통해 상기 쇼 윈도우 상의 적어도 일부 영역에 영사될 수 있다. The
한편 스캔부(104)는, 상기 쇼 윈도우를 스캔하여 상기 쇼 윈도우에 비치는 영상에 관련된 이미지를 생성할 수도 있다. 이러한 경우 스캔부(104)는 상기 쇼 윈도우에 비치는 사용자의 영상과 관련된 이미지를 통해, 사용자와 상기 쇼 윈도우 사이의 거리를 감지할 수 있다. 그리고 스캔부(104)는 상기 쇼 윈도우에 비친 사용자의 영상으로부터 사용자의 눈동자를 인식하여 사용자의 시선이 향하는 방향을 인식할 수도 있다.Meanwhile, the
한편 스캔부(104)는 상기 쇼 윈도우를 다양한 방식으로 스캔할 수 있다. 예를 들어 상술한 바와 같이, 단순히 상기 쇼 윈도우에 비친 사용자의 영상을 스캔하여 사용자의 키 높이나, 사용자의 시선이 향하는 방향 또는 사용자가 취하고 있는 제스처를 감지할 수 있다. 뿐만 아니라 상기 스캔부(104)는 상기 쇼 윈도우를 스캔하여, 상기 쇼 윈도우 상에서 온도의 변화가 일정 수준 이상 급격하게 변동되는 지점을 검색할 수도 있다. 이러한 경우 스캔부(104)는 상기 쇼 윈도우에 비친 사용자의 영상 및, 상기 쇼 윈도우 상에서 온도 변화가 급격하게 발생하는 지점에 근거하여 사용자가 쇼 윈도우의 일 지점에 터치를 하고 있는지 여부 및, 상기 상기 터치가 가해진 쇼 윈도우 상의 지점을 감지할 수도 있다. Meanwhile, the
한편, 제어부(102)는 상술한 바와 같이 연결된 각 구성요소, 즉 상기 표시부(106) 및 스캔부(104)를 제어할 수 있다. 여기서 제어부(102)는 상기 스캔부(104)가 쇼 윈도우를 스캔한 결과로부터, 쇼 윈도우를 바라보고 있는 사용자의 시선 및 상기 사용자까지의 거리를 감지할 수 있다. 그리고 상기 쇼 윈도우를 스캔한 결과로부터 상기 쇼 윈도우에 대한 터치를 포함하는 사용자의 제스처를 감지할 수도 있다. Meanwhile, the
제어부(102)는 이러한 사용자의 제스처를 감지하여, 상기 사용자의 제스처가 상기 쇼 윈도우 내부에 진열된 진열품들 중 어느 하나를 선택하기 위한 것인지를 판단할 수 있다. 그리고 상기 제스처가, 상기 진열품들 중 어느 하나를 선택하기 위한 것으로 판단되는 경우, 제어부(102)는 상기 제스처에 대응되는 진열품과 관련된 화상 정보가 상기 쇼 윈도우 상의 적어도 일부에 표시되도록 상기 표시부(106)를 제어할 수 있다. The
여기서 제어부(102)는 상기 화상 정보를 상기 쇼 윈도우에 비치는 사용자의 영상에 근거하여 상기 쇼 윈도우 상에 표시할 수 있다. 예를 들어 제어부(102)는 상기 사용자의 영상에 근거하여 사용자의 키 높이 및 상기 쇼 윈도우와 사용자와의 거리를 감지할 수 있다. 그리고 제어부(102)는 상기 감지된 사용자의 키 높이 및 상기 거리에 근거하여 상기 화상 정보가 표시되도록 할 수도 있다. 이에 따라 상기 화상 정보는 상기 사용자의 키 높이가 달라지는 경우 또는 상기 사용자와 쇼 윈도우 사이의 거리가 달라지는 경우 그 위치 또는 크기가 달라질 수 있다. Here, the
한편 상기 화상 정보는, 상기 스캔부(104)에서 스캔한 정보일 수 있다. 예를 들어 상기 화상 정보는, 상기 스캔부(104)가 상기 진열품을 직접 스캔한 이미지일 수 있고, 또는 상기 진열품과 관련된 정보가 표시된 특정 위치를 상기 스캔부(104)가 스캔한 이미지일 수도 있다. Meanwhile, the image information may be information scanned by the
또는 상기 화상 정보는, 사용자가 특정 진열품을 선택하는 경우, 해당 진열품에 대응되는 미리 저장된 정보일 수도 있다. 이러한 경우 상기 미리 저장된 정보는 상기 메모리(108)에 저장된 정보일 수 있다. Alternatively, when the user selects a specific display item, the image information may be information stored in advance corresponding to the display item. In this case, the previously stored information may be information stored in the
또는 상기 화상 정보는, 해당 진열품에 부착된 태그(tag)로부터 수신된 정보일 수도 있다. 이러한 경우 상기 진열품에 부착된 태그에는, 해당 제품에 관련된 각종 정보가 저장된 RF(Radio Frequency) 칩 또는 NFC(Near Field Communication) 칩등이 포함된 것일 수 있다. Alternatively, the image information may be information received from a tag attached to the display product. In this case, the tag attached to the display product may include a radio frequency (RF) chip or a near field communication (NFC) chip in which various information related to the corresponding product is stored.
한편 제어부(102)는 이처럼 미리 저장되거나, 미리 지정된 정보들 외에, 웹 검색등을 통한 결과 등을 상기 화상 정보로 표시할 수도 있다. 예를 들어 제어부(102)는 사용자의 선택에 따라 현재 사용자의 제스처에 대응되는 진열품과 관련된 이벤트 정보 또는 네티즌(netizen)들의 평가 등과 같은 정보를 검색할 수 있고, 검색된 정보가 상기 화상 정보로 표시되도록 할 수도 있다. 또는 제어부(102)는 상기 진열품과 관련된 전문가의 소견이나 제안등, 상기 진열품과 관련된 다양한 정보를 상기 화상 정보로 표시할 수도 있다. 이를 위해 본 발명의 실시 예에 따른 제품 정보 제공 장치(100)는 외부의 서버와 연결가능한 통신 수단(도시되지 않음)을 더 구비할 수도 있음은 물론이다. Meanwhile, the
또한 제어부(102)는 상기 쇼 윈도우를 통해 감지되는 사용자의 제스처에 근거하여, 상기 쇼 윈도우 내부의 특정 지점을 스캔한 이미지를 상기 화상 정보로 표시할 수도 있다. 예를 들어 제어부(102)는 사용자의 제스처에 근거하여 상기 쇼 윈도우 내부에 표시된 광고등이 표시된 위치등을 스캔할 수도 있으며, 상기 스캔된 정보를 사용자의 선택에 따라 확대하여 표시하거나 또는 사용자가 선택하는 쇼 윈도우 상의 위치에 표시되도록 할 수도 있다. 여기서 상기 사용자의 선택은, 쇼 윈도우 상에 가해지는 사용자의 터치를 포함하는 사용자의 제스처로 이루어질 수 있다. Also, the
한편, 제어부(102)는 상기 쇼 윈도우 상에서 감지되는 사용자의 제스처에 근거하여, 진열품들 중 적어도 하나를 선택하기 위한 다양한 방법을 사용할 수 있다. 예를 들어 제어부(102)는 상기 쇼 윈도우에 비치는 사용자의 영상으로부터 사용자의 위치를 판단하고, 상기 사용자의 위치에 근거하여 사용자의 제스처가 감지될 수 있는 영역(이하 선택 영역이라고 칭한다)을 상기 쇼 윈도우 상의 일부에 형성할 수 있다. Meanwhile, the
상기 선택 영역은, 진열품들 중에서 사용자가 관련 정보를 원하는 어느 하나를 보다 정확하게 선택하기 위해 사용될 수 있다. 예를 들어 제어부(102)는 상기 선택 영역이 형성되면, 상기 선택 영역을 통해 비치는 제품들 중 사용자의 시선 또는 제스처에 대응되는 어느 하나의 진열품을 다른 진열품들과 구분되게 표시할 수 있다. 그리고 사용자의 선택에 따라 상기 구분되게 표시된 어느 하나의 진열품과 관련된 화상 정보가 상기 쇼 윈도우 상의 적어도 일부에 영사되도록 상기 표시부(106)를 제어할 수도 있다. The selection area may be used to more accurately select any one for which the user desires related information among the displayed items. For example, when the selection area is formed, the
이러한 경우 상기 선택 영역은 현재 쇼 윈도우 상에서, 사용자가 서 있는 위치에 대응되게 설정될 수 있으며, 사용자의 위치를 중심으로 사용자의 팔 길이(대략 1m 정도)에 근거하여 형성될 수 있다. 이러한 선택 영역은 상기 쇼 윈도우 상에서 표시되거나 또는 표시되지 않을 수 있으며, 사용자의 시선 방향에 따라 그 위치가 이동되는 영역일 수 있다. In this case, the selection area may be set to correspond to the position where the user is standing on the current show window, and may be formed based on the user's arm length (about 1 m) around the user's position. Such a selection area may or may not be displayed on the show window, and may be an area whose position is moved according to the user's gaze direction.
한편 메모리(108)는 본 발명의 실시 예에 따른 제품 정보 제공 장치(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(108)는 본 발명의 실시 예에 따른 제품 정보 제공 장치(100)에서 구동되는 다수의 응용 프로그램(application program) 또는 애플리케이션(application)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수도 있다. Meanwhile, the
또한 상기 메모리(108)에는, 상술한 바와 같이 상기 진열품들 각각에 관련된 정보가 미리 저장되어 있을 수도 있으며, 이러한 경우 상기 진열품들 중 어느 하나에 관련된 정보를 제어부(102)에 인가할 수도 있다. 이러한 경우 제어부(102)는 상기 스캔부(104)가 상기 쇼 윈도우 주변에서 스캔한 이미지 외에 상기 메모리(108)에 기 저장된 정보를 사용자의 선택에 따라 상기 쇼 윈도우 상의 적어도 일부에 표시할 수 있다. In addition, information related to each of the display items may be previously stored in the
도 2는 이러한 본 발명의 실시 예에 따른 제품 정보 제공 장치의 동작 과정을 도시한 것이다. 2 is a diagram illustrating an operation process of an apparatus for providing product information according to an embodiment of the present invention.
도 2를 참조하여 살펴보면, 본 발명의 실시 예에 따른 제품 정보 제공 장치(100)의 제어부(102)는, 상기 스캔부(104)를 제어하여 쇼 윈도우 및 상기 쇼 윈도우 주변을 스캔한다(S200). 상기 S200 단계에서 스캔부(104)는 기 설정된 시간을 주기로 쇼 윈도우 내부에 진열된 진열품들 또는 상기 쇼 윈도우 내부의 특정 지점을 스캔하여 스캔된 결과를 이미지 형태로 제어부(102)에 인가할 수 있다. 또한 상기 스캔부(104)는 상기 쇼 윈도우를 스캔하여 그 스캔된 결과를 이미지 형태로 제어부(102)에 인가할 수 있다. 뿐만 아니라 상기 스캔부(104)는 상기 쇼 윈도우를 스캔하여 상기 쇼 윈도우의 열 분포에 관련된 이미지를 제어부(102)에 인가할 수도 있다. Referring to FIG. 2 , the
한편 제어부(102)는 상기 S200 단계에서 스캔된 결과를 분석하여, 상기 쇼 윈도우 주변에 위치한 사용자가 있는지 및 상기 사용자의 제스처가 있는지를 감지한다(S202). 예를 들어 제어부(102)는 상기 쇼 윈도우에 비친 영상으로부터 상기 쇼 윈도우 주변에 사용자가 있는지 여부를 감지할 수 있고, 상기 쇼 윈도우와 상기 사용자간의 거리를 추정할 수도 있다. Meanwhile, the
예를 들어 제어부(102)는 상기 쇼 윈도우에 비친 사용자의 영상으로부터, 사용자 신체의 각 비율에 근거하여 작은 신체를 가진 사용자인지(예를 들어 어린 아이) 또는 사용자가 쇼 윈도우로부터 일정 거리 이상 멀어진 위치에 있는지를 판단할 수 있다. For example, the
또는 제어부(102)는 이러한 판단을 위해, 상기 쇼 윈도우에 대한 열 분포를 스캔한 결과를 이용할 수도 있음은 물론이다. 이러한 경우 쇼 윈도우에 가깝게 있는 사용자의 경우, 상기 쇼 윈도우에 사용자의 영상이 비치는 부분은 다른 부분에 비해 온도가 일정 수준 높을 수 있기 때문이다. Alternatively, the
한편 제어부(102)는, 상기 쇼 윈도우에 비친 사용자의 영상으로부터 사용자의 제스처를 감지할 수 있다. 예를 들어 제어부(102)는 상기 쇼 윈도우에 비친 사용자의 영상을 분석하여, 쇼 윈도우를 바라보고 있는 사용자를 구분할 수 있고, 상기 구분된 사용자의 팔 또는 손가락 등을 인식할 수 있다. 그리고 상기 인식된 사용자의 팔 또는 손가락의 움직임을 감지하여, 사용자가 진열된 제품들 중 어느 하나를 지정하기 위한 제스처를 취하였는지를 판단할 수 있다. Meanwhile, the
한편, 상기 S202 단계에서 상기 쇼 윈도우 내부에 진열된 진열품들 중 어느 하나를 지정하기 위한 사용자의 제스처가 감지되면, 제어부(102)는 상기 감지된 제스처에 대응되는 진열품을 선택할 수 있다(S204). 예를 들어 제어부(102)는 사용자의 손가락 끝이 향하는 방향에 위치한 진열품이 상기 사용자의 제스처에 의해 지정된 것으로 선택할 수 있다. 여기서 제어부(102)는 상기 쇼 윈도우에 비친 사용자의 영상으로부터, 상기 사용자의 손가락 끝이 향하는 방향에 위치하는 진열품이 상기 사용자에 의해 선택된 것으로 판단할 수 있다. Meanwhile, when a user's gesture for designating any one of the display items displayed in the show window is detected in step S202, the
또는 제어부(102)는 상기 쇼 윈도우에 반사되는 진열품들의 영상을 이용하여 상기 사용자의 제스처에 대응되는 진열품을 선택할 수도 있다. 예를 들어 상기 쇼 윈도우의 내부 면(이하의 설명에서 상기 쇼 윈도우에서 진열품들이 진열되는 방향의 면을 내부 면 이라하고, 타면을 외부면이라 하기로 한다)에는, 상기 쇼 윈도우 내부에 진열된 진열품들의 이미지들이 반사될 수 있다. 그리고 이처럼 반사되는 이미지는 상기 스캔부(104)에 의해 스캔될 수 있다. Alternatively, the
이러한 경우 제어부(102)는 상기 쇼 윈도우 내부에 반사되는 이미지로부터 사용자의 손가락 끝이 향하는 방향에 대응되는 어느 하나의 진열품의 반사된 이미지를 찾을 수 있으며, 그 반사된 이미지에 대응되는 진열품이 사용자의 제스처에 의해 선택된 것으로 판단할 수 있다. In this case, the
한편 이러한 제스처는 상기 쇼 윈도우에 대한 사용자의 터치를 포함할 수 있다. 예를 들어 제어부(102)는 사용자가 상기 쇼 윈도우 상에 터치를 가한 경우에, 상기 진열품들 중 어느 하나가 상기 터치에 대응하여 선택된 것으로 판단할 수 있다. 이러한 경우 제어부(102)는 상기 쇼 윈도우에 반사되는 진열품들의 이미지들 중, 상기 터치에 대응되는 진열품의 반사된 이미지를 선택하고, 상기 선택된 이미지에 대응되는 진열품이 사용자에 의해 지정된 것으로 판단할 수도 있다. Meanwhile, such a gesture may include a user's touch on the show window. For example, when the user applies a touch to the show window, the
한편, 이처럼 쇼 윈도우에 가해지는 사용자의 터치는, 다양한 방법으로 감지될 수 있다. 예를 들어 제어부(102)는 상기 스캔부(104)를 통해 상기 쇼 윈도우 상의 온도 분포 상태를 스캔하고, 상기 온도 분포 상태를 스캔한 결과에 근거하여 상기 쇼 윈도우 상에서 사용자의 터치가 가해진 지점을 감지할 수도 있다. 이는 사용자가 상기 쇼 윈도우 상의 일 지점을 터치하는 경우, 해당 지점의 온도가 일정 수준 이상 증가할 것이기 때문이다. Meanwhile, the user's touch applied to the show window may be sensed in various ways. For example, the
한편, 이처럼 사용자의 제스처에 근거하여 특정 진열품이 선택되면, 제어부(102)는 상기 선택된 진열품과 관련된 화상 정보를 쇼 윈도우 상에 영사할 수 있다(S206). 여기서 상기 영사되는 화상 정보는, 상기 선택된 진열품을 직접 스캔한 이미지 또는 상기 선택된 진열품과 관련된 정보가 표시된 상기 쇼 윈도우 내부의 특정 위치를 스캔한 이미지일 수 있다. 또는 화상 정보는 상기 메모리(108) 또는 상기 진열품의 태그에 부착된 RF칩등으로부터 수신되는 기 저장된 정보일 수 있다. Meanwhile, when a specific display item is selected based on the user's gesture as described above, the
또는 상기 화상 정보는, 상기 선택된 진열품에 대한 네티즌 또는 다른 사용자의 평가 정보등 웹 검색 결과를 보여주는 정보일 수도 있다. 또는 상기 화상 정보는, 전문가들의 소견이나 다른 사용자들의 제안 등에 대한 정보일 수도 있다. 즉, 상기 선택된 진열품이, 핸드백이라고 하는 경우, 상기 제어부(102)는, 패션 디자이너들 또는 다른 사용자들로부터, 상기 핸드백과 어울리는 다른 의복 또는 다른 소품에 대한 정보를 상기 화상 정보로 표시할 수도 있다. 그리고 이러한 화상 정보는 사용자의 선택에 따라 적어도 하나 이상 상기 쇼 윈도우 상에 표시될 수 있음은 물론이다. Alternatively, the image information may be information showing a web search result, such as evaluation information of a netizen or another user on the selected display product. Alternatively, the image information may be information on opinions of experts or suggestions of other users. That is, when the selected display item is a handbag, the
한편, 이처럼 쇼 윈도우 상에 화상 정보가 영사되는 시간은, 상기 사용자가 상기 쇼 윈도우 주변에 머무르는 시간에 근거하여 결정될 수 있다. 예를 들어 제어부(102)는 상기 S206 단계에서 화상 정보가 영사되면, 상기 쇼 윈도우를 통해 비치는 사용자의 영상을 스캔하여, 사용자가 상기 쇼 윈도우 주변에 있는지 여부를 감지할 수 있다. 그리고 상기 쇼 윈도우 주변에 사용자가 없는 경우 즉시 또는 일정 시간이 경과되면 상기 화상 정보의 영사를 중지할 수 있다. Meanwhile, the time during which the image information is projected on the show window may be determined based on the time the user stays around the show window. For example, when image information is projected in step S206 , the
그리고 상기 쇼 윈도우 주변에 사용자가 있는 경우, 제어부(102)는 상기 사용자가, 동일한 사용자인지 여부에 근거하여 상기 화상 정보가 상기 쇼 윈도우 상에 표시되는 상태를 유지할지 여부를 결정할 수 있다. 즉, 현재 쇼 윈도우 주변에 위치한 사용자가, 현재 영사되는 화상 정보의 출력을 선택한 사용자와 동일인이라고 판단되는 경우, 제어부(102)는 현재 화상 정보가 쇼 윈도우 상에 영사되는 상태를 유지할 수 있다. 또한 만약 사용자가 상기 쇼 윈도우 주변에서 이동하는 경우라면, 제어부(102)는 상기 화상 정보가 영사되는 위치를 상기 사용자의 이동된 위치에 근거하여 변경할 수도 있음은 물론이다. And when there is a user around the show window, the
그러나 제어부(102)는, 상기 쇼 윈도우 주변에 위치한 사용자가 동일한 사용자가 아니라고 판단되는 경우, 상기 화상 정보의 영사를 중지할 수 있다. 이러한 경우 제어부(102)는 이전 사용자의 제스처에 따라 화상 정보를 제공하는 동작을 종료하고, 새로운 사용자의 제스처에 근거하여 새로운 화상 정보가 상기 쇼 윈도우 상에 출력될 수 있도록 한다. However, when it is determined that the users located around the show window are not the same user, the
한편, 본 발명의 실시 예에 따른 제품 정보 제공 장치(100)는. 상기 쇼 윈도우 상의 일부 영역을 선택 영역으로 설정하고, 상기 선택 영역 상에서 감지되는 사용자의 제스처에 근거하여 특정 진열품이 선택되도록 할 수도 있다. 이는 비록 사용자가 상기 쇼 윈도우 상에서 같은 지점을 터치 하거나 또는 같은 방향을 선택하기 위한 제스처(예를 들어 특정 진열품이 위치한 방향으로 손가락질을 하는 제스처)을 하는 경우에도 사용자의 위치나 사용자의 눈 높이, 또는 사용자의 시선 방향과 상기 쇼 윈도우가 이루는 각도에 따라 서로 다른 진열품이 선택될 수도 있기 때문이다. On the other hand, the product
도 3은, 도 2에서 보인 동작 과정 중, 이처럼 일정 영역을 선택 영역으로 설정하여 사용자의 제스처에 대응되는 어느 하나의 진열품을 선택하는 동작 과정을 도시한 것이다. FIG. 3 shows an operation process of selecting any one display item corresponding to a user's gesture by setting a predetermined area as a selection area in this way, among the operation process shown in FIG. 2 .
도 3을 참조하여 살펴보면, 상기 S202 단계에서 사용자의 제스처가 감지되는 경우, 제어부(102)는 상기 선택 영역을 설정할 수 있다(S300). 여기서 제어부(102)는 상기 설정된 선택 영역이 상기 쇼 윈도우 상에서 구분될 수 있도록, 상기 표시부(106)를 제어하여 상기 선택 영역의 경계를 표시하기 위한 그래픽 객체를 상기 쇼 윈도우 상에 영사할 수 있다. Referring to FIG. 3 , when the user's gesture is detected in step S202 , the
한편 이처럼 선택 영역이 설정되면, 제어부(102)는 상기 선택 영역 상에서 감지되는 사용자의 제스처에 근거하여 상기 진열품들 중 어느 하나를 선택할 수 있다(S302). 예를 들어 제어부(102)는 현재 쇼 윈도우 내부에 진열된 진열품들의 개수에 대응하여 상기 선택 영역을 복수개로 구획할 수 있다. 그리고 복수개로 구획된 상기 선택 영역의 영역들 중 상기 사용자의 제스처에 의해 선택되는 영역에 대응되는 진열품을 선택할 수 있다. Meanwhile, when the selection area is set as described above, the
여기서 제어부(102)는, 현재 사용자의 위치 및, 사용자의 눈 높이 또는 사용자의 시선 방향에 근거하여, 상기 복수개로 구획된 각 영역에 특정 진열품이 대응되도록 설정할 수 있다. 예를 들어 제어부(102)는 사용자가 쇼 윈도우의 정면을 바라보고 있는 경우, 상기 쇼 윈도우의 내부에 반사되는 진열품들의 이미지에 근거하여 상기 선택 영역을 복수개로 구획하고, 구획된 각 영역에 대응되는 진열품들을 결정할 수 있다. Here, the
한편 이와는 달리 사용자가 쇼 윈도우의 측면을 바라보고 있는 경우 제어부(102)는 사용자가 정면을 바라보고 있는 경우와는 다르게, 상기 선택 영역을 구획할 수 있다. 예를 들어 제어부(102)는 사용자가 측면을 바라보고 있는 사용자의 시선 방향에 근거하여, 상기 선택 영역을 서로 다른 크기의 복수의 영역으로 구획하고, 상기 사용자의 위치에 가까운 진열품들의 순서대로 상기 복수개로 구획된 각 영역들이 대응되도록 설정할 수도 있다. 이러한 경우 제어부(102)는, 비록 동일한 쇼 윈도우 상의 지점에서 제스처(예를 들어 터치)가 감지되는 경우라도, 사용자의 시선이 향하는 방향이 서로 다른 경우 서로 다른 진열품이 선택되고 서로 다른 화상 정보가 쇼 윈도우 상에 표시될 수도 있다. On the other hand, when the user is looking at the side of the show window, the
한편 제어부(102)는 상기 쇼 윈도우 상의 일부 영역에 선택 영역이 설정되면, 상기 선택 영역을 통해 보이는 상기 쇼 윈도우 내부의 진열품들 중, 사용자의 선택에 따른 어느 하나가 다른 진열품들과 구분되게 표시되도록 할 수도 있다. 그리고 사용자의 제스처(예를 들어 터치)에 근거하여 상기 구분되게 표시된 진열품에 관련된 화상 정보가,상기 쇼 윈도우 상의 적어도 일부분에 영사되도록 할 수 있다. 그리고 여기서 상기 사용자의 선택은 사용자의 시선이 될 수도 있다. 이러한 경우 제어부(102)는 사용자의 시선 방향에 근거하여 상기 선택 영역을 설정 및, 사용자의 시선 방향에 대응되는 진열품을 선택할 수 있으며, 이에 따라 사용자의 시선 방향에 대응되는 진열품에 관련된 정보가 상기 쇼 윈도우 상에 표시될 수도 있다. On the other hand, when a selection area is set in a partial area on the show window, the
도 4는, 이러한 경우에 사용자의 시선 방향 및 사용자의 제스처에 근거하여 어느 하나의 제품이 선택되는 동작 과정을 보다 자세히 도시한 것이다. 4 illustrates in more detail an operation process in which any one product is selected based on the user's gaze direction and the user's gesture in this case.
도 4를 참조하여 살펴보면, 본 발명의 실시 예에 따른 제품 정보 제공 장치(100)의 제어부(102)는, 상기 S202 단계에서 사용자의 제스처가 감지되면, 사용자의 시선 방향에 근거하여 쇼 윈도우 상의 일부 영역을 상기 선택 영역으로 설정할 수 있다(S400). 예를 들어 제어부(102)는 상기 쇼 윈도우를 통해 비치는 사용자의 영상으로부터, 사용자의 눈동자가 향하는 방향을 인식하고, 사용자의 눈높이 및 상기 인식된 방향에 근거하여 일정 크기의 영역, 예를 들어 일반적인 사용자의 팔 길이에 해당되는 영역(약 1m 가량)을 상기 선택 영역으로 설정할 수 있다. Referring to FIG. 4 , when the user's gesture is detected in step S202, the
그리고 제어부(102)는 상기 설정된 선택 영역을 통해 비치는 진열품들 중 사용자의 시선 방향에 대응되는 진열품을 구분되게 표시할 수 있다(S402). 예를 들어 제어부(102)는 쇼 윈도우에 비치는 사용자의 눈동자로부터 사용자의 시선 방향을 인식할 수 있으며, 인식된 사용자의 시선 방향에 대응되는 진열품을 선택할 수 있다. 그리고 제어부(102)는 상기 선택 영역 상에서 상기 사용자의 시선 방향에 대응되는 진열품이 표시되는 영역이, 상기 선택 영역의 다른 영역과 구분될 수 있도록 상기 표시부(106)를 제어할 수 있다.In addition, the
예를 들어 제어부(102)는 상기 쇼 윈도우의 내부 면에 반사되는 상기 진열품들의 이미지들을 이용하여, 상기 사용자의 시선 방향에 대응되는 진열품이 상기 쇼 윈도우에서 표시되는 영역을 인식할 수 있다. 그리고 제어부(102)는 상기 인식된 영역에 가이드 라인(guide line)과 같은 그래픽 객체가 표시되도록 상기 표시부(106)를 제어할 수 있다. 이러한 경우 상기 표시부(106)는 상기 제어부(102)의 제어에 따라 상기 선택 영역의 경계를 표시함과 동시에, 상기 인식된 영역의 주변에 가이드 라인을 표시하여, 상기 인식된 영역에서 비처 보이는 진열품이 현재 선택되어 있음을 사용자에게 표시할 수 있다. For example, the
이처럼 상기 선택 영역 내의 일 영역이 다른 영역과 구분되게 표시되면, 제어부(102)는 상기 구분되게 표시된 쇼 윈도우 상의 영역에 대한 사용자의 선택이 있는지 감지한다(S404). 여기서 사용자의 선택은, 상기 영역에 대한 사용자의 터치 또는 사용자의 제스처를 통해 이루어질 수 있다. 그리고 상기 S404 단계의 감지 결과, 사용자의 선택이 있는 경우라면, 제어부(102)는 상기 S206 단계로 진행하여, 상기 구분되게 표시된 영역에 대응되는 진열품, 즉, 상기 사용자의 시선 방향에 대응되는 진열품에 관련된 화상 정보가 상기 쇼 윈도우 상에 영사되도록 상기 표시부(106)를 제어한다. As such, when one area within the selection area is displayed to be distinguished from other areas, the
그러나 만약 상기 S404 단계의 감지 결과, 상기 구분되게 표시된 영역에 대한 사용자의 선택이 없는 경우라면, 제어부(102)는 사용자의 시선 방향이 변경되었는지 여부를 더 감지할 수 있다(S406). 그리고 상기 S406 단계의 감지 결과 사용자의 시선 방향이 변경되지 않은 경우라면 다시 상기 S404 단계로 진행하여 상기 구분되게 표시된 영역에 대한 사용자의 선택이 있는지 여부를 감지한다. However, as a result of the detection in step S404, if there is no user selection for the separately displayed area, the
그러나 만약, 상기 S406 단계의 감지 결과, 사용자의 시선 방향이 변경된 경우라면, 제어부(102)는 상기 변경된 사용자의 시선 방향에 대응되는 진열품을, 상기 선택 영역 상의 다른 진열품들과 구분되게 표시할 수 있다(S408). 그리고 제어부(102)는 S404 단계로 진행하여, 현재 구분되게 표시된 쇼 윈도우 상의 영역에 대한 사용자의 감지가 있는지 여부를 다시 감지한다. However, as a result of the detection in step S406, if the user's gaze direction is changed, the
여기서 제어부(102)는, 만약 변경된 사용자의 시선에 대응되는 진열품이 표시되는 위치가, 현재 설정된 선택 영역을 벗어난 쇼 윈도우 상의 영역에서 비처보이는 경우라면, 상기 사용자의 시선 방향 변경에 근거하여 상기 선택 영역의 위치를 변경할 수도 있음은 물론이다. 예를 들어 제어부(102)는, 이를 상기 쇼 윈도우를 스캔한 결과에 근거하여 판단할 수 있다. 즉, 제어부(102)는, 현재 설정된 선택 영역에 해당되는 상기 쇼 윈도우 내부 면의 영역 내에서, 상기 변경된 사용자의 시선에 대응되는 진열품의 이미지가 반사되는지 여부에 근거하여, 상기 변경된 시선 방향에 대응되는 진열품이 표시되는 위치가 현재 설정된 선택 영역을 벗어낫는지 여부를 판단할 수 있다. Here, the
이상의 설명에서는 본 발명의 실시 예에 따른 제품 정보 제공 장치의 구성 및 그 장치의 동작 과정에 대해서 자세히 설명하였다. In the above description, the configuration of the device for providing product information according to an embodiment of the present invention and the operation process of the device have been described in detail.
이하의 설명에서는, 이러한 본 발명의 실시 예에 따른 제품 정보 제공 장치가 설치된 예 및 본 발명의 실시 예에 따라 쇼 윈도우 상에 사용자가 선택한 진열품에 관련된 화상 정보를 표시하는 예를 도면을 참조하여 보다 자세히 살펴보기로 한다. In the following description, an example in which the product information providing apparatus according to an embodiment of the present invention is installed and an example in which image information related to a display item selected by a user is displayed on a show window according to an embodiment of the present invention will be described with reference to the drawings. Let's take a closer look.
우선 도 5a는, 본 발명의 실시 예에 따른 제품 정보 제공 장치가 설치된 예를 보이고 있는 것이다. First, FIG. 5A shows an example in which an apparatus for providing product information according to an embodiment of the present invention is installed.
도 5a에서 보이고 있는 것처럼, 본 발명의 실시 예에 따른 제품 정보 제공 장치(100)는 쇼 윈도우(520) 외부에서 감지되는 사용자(500)의 제스처가 있는 경우, 상기 제스처에 근거하여, 쇼 윈도우(520) 내부에 진열된 진열품(510)과 관련된 화상 정보를, 상기 쇼 윈도우(520) 내부 면의 일 영역에 영사할 수 있다. 여기서 상기 사용자의 제스처는, 상술한 바와 같이 상기 쇼 윈도우(520)를 통해 비치는 사용자의 영상을 스캔한 결과, 또는 상기 쇼 윈도우(520) 상의 온도 분포를 스캔한 결과에 근거하여 감지될 수 있다. As shown in FIG. 5A , when there is a gesture of the
이처럼 사용자의 제스처가 감지되면, 제어부(102)는 감지된 제스처에 대응되는 진열품들을 선택하고 선택된 진열품과 관련된 화상 정보가 상기 쇼 윈도우(520) 상에 표시될 수 있도록 한다. 여기서 제어부(102)는 상기 사용자의 제스처에 대응되는 진열품을 선택하기 위해, 상기 쇼 윈도우(520)의 내부 면에 반사되는 진열품(510)의 이미지를 이용하거나, 또는 상기 쇼 윈도우(520) 상에 설정된 선택 영역을 이용할 수도 있다. As such, when the user's gesture is detected, the
또한 상기 화상 정보는 상기 진열품(510)을 직접 스캔한 이미지 또는 상기 진열품(522)과 관련된 정보가 표시된 상기 쇼 윈도우(520) 주변의 특정 위치를 스캔한 이미지가 될 수 있으며, 또는 상기 진열품(520)에 대한 웹 검색 결과 등 다양한 정보가 상기 화상 정보가 될 수 있다. In addition, the image information may be an image scanned directly from the
도 5b는 이처럼 쇼 윈도우(520)에 표시되는 화상 정보의 예를 보이고 있는 것이다. FIG. 5B shows an example of image information displayed on the
본 발명의 실시 예에 따른 제품 정보 제공 장치(100)는 사용자의 제스처에 대응되는 특정 진열품과 관련된 화상 정보(570)를 상기 쇼 윈도우(520)의 적어도 일부 영역에 표시할 수 있다. 이러한 경우 상기 화상 정보는 상기 도 5a 및 도 5b에서 보이고 있는 것처럼, 쇼 윈도우(520)의 적어도 일부 영역에 영사되는 것일 수 있다. 이처럼 본 발명에서는 레이저 스캐닝/프로젝터(Laser Scanning/Projector) 방식을 이용하여 사용자의 제스처를 감지 및 사용자가 원하는 정보가 영사되도록 함으로써, 터치스크린이 아닌, 유리와 같이 일반적인 재질의 쇼 윈도우를 이용함에도 불구하고, 사용자의 제스처에 대응되는 특정 진열품에 대한 다양한 관련 정보가 사용자에게 제공될 수 있도록 한다. The product
한편, 이러한 본 발명의 실시 예에 따른 제품 정보 제공 장치(100)는, MEMS(Micro Electro Mechanical System)을 이용한 고밀도 집적 방식을 이용하여 그 크기를 소형화할 수도 있음은 물론이다. 뿐만 아니라, 상술한 도 5a 및 도 5b의 설명에서는 설명의 편의상 본 발명의 실시 예에 따른 제품 정보 제공 장치가 하나인 경우를 가정하여 설명하였으나, 하나 뿐만 아니라 복수의 제품 정보 제공 장치(100)가 쇼 윈도우 내부에 구비될 수도 있음은 물론이다. 이러한 경우 상기 구비된 복수의 장치는 상호 협동하여 서로 간에 정보를 교환할 수 있음은 물론이며, 이러한 경우 보다 정확하게 사용자의 제스처를 감지 및 사용자의 제스처에 대응되는 진열품을 보다 정확하고 빠르게 감지할 수도 있음은 물론이다. Meanwhile, it goes without saying that the product
한편 도 6a 및 도 6b는, 본 발명의 실시 예에 따른 제품 정보 제공 장치에서 사용자의 위치 및 사용자의 키 높이에 따라 쇼 윈도우에 표시되는 정보의 위치가 다르게 결정되는 예를 보이는 예시도이다. Meanwhile, FIGS. 6A and 6B are exemplary views showing an example in which the position of information displayed on the show window is determined differently according to the position of the user and the height of the user's height in the device for providing product information according to an embodiment of the present invention.
상술한 설명에서 언급한 바와 같이, 본 발명의 실시 예에 따른 제품 정보 제공 장치(100)의 제어부(102)는 상기 쇼 윈도우를 통해 비치는 사용자의 영상에 근거하여, 상기 쇼 윈도우와 사용자 사이의 거리를 추정할 수 있다. 예를 들어 제어부(102)는, 상기 쇼 윈도우에 비친 사용자의 영상으로부터, 신체의 비율 또는, 상기 스캔된 영상에 대한 3차원 깊이(depth)를 추정한 결과로부터 상기 사용자와 상기 쇼 윈도우 사이의 거리를 추정할 수 있다. As mentioned in the above description, the
이러한 경우 제어부(102)는 상기 추정된 사용자와 쇼 윈도우 사이의 거리에 근거하여, 상기 쇼 윈도우에 표시되는 화상 정보의 크기 및 위치가 달라지도록 할 수도 있다. 도 6a는 이러한 경우의 예를 보이고 있는 것이다. In this case, the
예를 들어 사용자(600)와 쇼 윈도우 사이의 거리가 가까운 경우, 본 발명의 실시 예에 따른 제품 정보 제공 장치(100)의 제어부(102)는, 도 6a의 (a)에서 보이고 있는 것과 같은 크기로 화상 정보(602)가 쇼 윈도우 상에 표시되도록 할 수 있다. For example, when the distance between the
그러나 만약 사용자가 상기 도 6a의 (a)에서 보이고 있는 것보다 먼 거리에 위치한 경우라면, 제어부(102)는 이러한 거리에 근거하여 상기 쇼 윈도우 상에 표시되는 화상 정보의 크기가 달라지도록 할 수 있다. 이러한 경우 도 6a의 (b)에서 보이고 있는 것처럼, 제어부(102)는 사용자(610)와 멀어진 거리에 근거하여 보다 큰 화상 정보(612)가 쇼 윈도우 상에 표시되도록 할 수도 있다. However, if the user is located at a greater distance than shown in (a) of FIG. 6A, the
뿐만 아니라, 본 발명의 실시 예에 따른 제품 정보 제공 장치(100)는 사용자의 키 높이에 따라 상기 화상 정보가 표시되는 위치가 달라지도록 할 수도 있다. 도 6b는 이러한 예를 보이고 있는 것이다. In addition, the product
우선 도 6b의 (a)는, 제어부(102)가 사용자(650)의 키 높이에 근거하여 결정되는 위치에 화상 정보(652)를 표시하는 예를 보이고 있는 것이다. 예를 들어 제어부(102)는 상기 쇼 윈도우에 비치는 사용자의 영상에 근거하여, 사용자의 키 높이를 감지할 수 있으며, 상기 감지된 키 높이에 근거하여 상기 화상 정보가 영사되는 쇼 윈도우 상의 위치를 결정할 수 있다. 이에 따라 도 6b의 (a)에서 보이고 있는 것처럼, 상기 화상 정보(652)는 사용자(650)의 머리 높이 또는 눈 높이에 해당되는 위치에 표시될 수 있다. First, FIG. 6B (a) shows an example in which the
이와 마찬가지로, 제어부(102)는 체구가 작은 사용자, 예를 들어 어린아이 등의 사용자가 특정 진열품에 대한 제스처를 취하는 경우, 상기 어린아이의 키 높이를 감지하고 이에 따라 상기 화상 정보가 표시되는 위치를 변경할 수 있다. 이에 따라 도 6b의 (b)에서 보이고 있는 것처럼, 상기 어린아이(660)의 머리 높이 또는 눈 높이에 해당되는 쇼 윈도우 상의 위치에 화상 정보(662)가 표시될 수 있다. Similarly, when a small user, for example, a user such as a child, makes a gesture on a specific display item, the
한편, 상술한 도 6b의 설명에서는 사용자의 키 높이에 근거하여 상기 화상 정보가 표시되는 위치를 결정하는 것을 기재하였으나, 이와는 달리 상기 쇼 윈도우에 비친 사용자의 영상으로부터, 사용자의 머리 부분 또는 사용자의 눈동자에 대응되는 쇼 윈도우 상의 위치를 결정할 수도 있음은 물론이다. Meanwhile, in the description of FIG. 6B described above, it is described that the position at which the image information is displayed is determined based on the height of the user's height. Of course, it is also possible to determine a position on the show window corresponding to .
한편 상술한 도 4의 설명에 의하면, 본 발명의 실시 예에 따른 제품 정보 제공 장치(100)는, 사용자의 시선 방향에 근거하여 상기 쇼 윈도우의 일정 영역을 선택 영역으로 설정하고, 상기 선택 영역을 통해 감지되는 사용자의 제스처에 근거하여 화상 정보가 표시되는 동작 과정을 설명한 바 있다. Meanwhile, according to the above description of FIG. 4 , the product
도 7은, 이러한 경우에 본 발명의 실시 예에 따른 제품 정보 제공 장치에서, 사용자의 시선 방향 변경 및, 사용자의 제스처에 근거하여 제품 정보가 제공되는 예를 보이고 있는 것이다. 7 illustrates an example in which product information is provided based on a user's gaze direction change and a user's gesture in the product information providing apparatus according to an embodiment of the present invention in this case.
본 발명의 실시 예에 따른 제품 정보 제공 장치(100)의 제어부(102)는, 쇼 윈도우에 비친 사용자의 눈동자 영상으로부터 사용자의 시선 방향을 인식할 수 있으며, 상기 사용자의 시선 방향에 근거하여 쇼 윈도우 상의 일정 영역을 선택 영역으로 설정할 수 있다(상기 S300 단계). The
이러한 경우, 제어부(102)는, 상기 선택 영역 상에서 상기 사용자의 시선 방향에 대응되는 진열품이 표시되는 영역을 다른 영역들과 구분되게 표시할 수 있다. 도 7의 (a)는 이처럼 상기 사용자의 시선 방향에 의해 설정되는 선택 영역(700) 및 상기 선택 영역 내에서 특정 진열품이 표시되는 영역이 가이드라인(712)을 통해 표시된 예를 보이고 있는 것이다. In this case, the
한편 이러한 상태에서, 제어부(102)는 사용자의 시선 방향이 변경되었는지 여부를 감지할 수 있다. 예를 들어 제어부(102)는 상기 쇼 윈도우를 스캔한 결과, 사용자의 눈동자가 향하는 방향이 변경되는 경우 사용자의 시선 방향이 변경된 것으로 판단할 수 있다. 이러한 경우 제어부(102)는 상기 사용자의 시선 방향 변경에 근거하여 선택 영역(700)의 위치가 변경되도록 할 수도 있다. 도 7의 (b)는 이처럼 사용자의 시선 방향 변경에 의하여 선택 영역(700)의 위치가 변경되는 예를 보이고 있는 것이다. Meanwhile, in this state, the
한편 이처럼 사용자의 시선 방향이 변경되면, 사용자의 시선 방향에 대응되는 진열품 역시 다른 것으로 변경될 수 있다. 이러한 경우 제어부(102)는 상기 변경된 사용자의 시선 방향에 대응되는 진열품을 선택할 수 있으며, 변경된 시선 방향에 대응되는 진열품이 표시되는 상기 선택 영역 상의 일부 영역을 상기 가이드라인(712)을 통해 표시할 수도 있다. 이에 따라 도 7의 (b)에서 보이고 있는 것과 같이, 다른 진열품이 표시되는 쇼 윈도우 상의 영역에 상기 가이드라인(712)이 표시될 수 있다. Meanwhile, when the user's gaze direction is changed as described above, the display items corresponding to the user's gaze direction may also be changed to another one. In this case, the
한편 이러한 상태에서, 사용자로부터 현재 선택된 진열품에 대한 제스처가 감지되는 경우, 제어부(102)는 이를 감지할 수 있다. 그리고 제어부(102)는 상기 감지된 제스처에 근거하여 현재 선택된 진열품과 관련된 화상 정보(718)를 상기 쇼 윈도우 상의 일부 영역에 표시할 수 있다. 예를 들어 이러한 사용자의 제스처는, 상기 쇼 윈도우 상에서 구분되게 표시된 특정 영역에 대한 사용자의 터치 입력 일수 있다. 도 7의 (c) 및 (d)는 이러한 예를 보이고 있는 것이다. Meanwhile, in this state, when a gesture for the display item currently selected by the user is detected, the
한편 상술한 설명에서는, 사용자의 시선 방향에 따라, 쇼 윈도우를 통해 비치는 진열품들 중 어느 하나가 선택되고, 상기 선택된 진열품이 표시되는 상기 쇼 윈도우 상의 영역에 대한 사용자의 제스처에 근거하여, 상기 선택된 진열품에 관련된 화상 정보가 표시되는 예를 설명하였으나, 이와는 다른 방법이 사용될 수도 있음은 물론이다. Meanwhile, in the above description, any one of the display items reflected through the show window is selected according to the user's gaze direction, and the selected display item is selected based on the user's gesture with respect to an area on the show window in which the selected display item is displayed. Although an example in which image information related to is displayed has been described, it goes without saying that a method other than this may be used.
예를 들어 제어부(102)는, 상기 선택 영역이 설정되면, 사용자의 시선 방향의 변경이 아니라 사용자의 특정 제스처에 근거하여 특정 진열품이 선택된 것으로 인식할 수도 있음은 물론이다. 즉, 제어부(102)는 상기 선택 영역의 적어도 일부에 커서와 같은 그래픽 객체가 복수개 표시되도록 표시부(106)를 제어하고, 상기 그래픽 객체에 대한 사용자의 제스처(예를 들어 터치)에 근거하여 특정 진열품이 선택된 것으로 인식할 수도 있다. For example, when the selection area is set, the
그리고 이처럼 쇼 윈도우 상의 일부 영역을 선택 영역으로 설정하고, 상기 선택 영역을 통해 비치는 진열품들 중 어느 하나가 사용자에 의해 선택되도록 하는 경우, 사용자는 보다 정밀하게 원하는 특정 진열품을 선택할 수 있으며, 선택한 진열품에 대한 정보를 쇼 윈도우 상에서 확인할 수 있다. In this way, when a partial area on the show window is set as a selection area and any one of the displays reflected through the selection area is selected by the user, the user can more precisely select a desired specific display item, and You can check the information on the show window.
한편 상술한 설명에 의하면, 본 발명의 실시 예에 따른 제품 정보 제공 장치(100)는, 상기 쇼 윈도우 주변에 위치한 다른 광고가 표시된 영역을 스캔하고, 사용자의 선택에 따라 상기 스캔된 이미지를 화상 정보로 상기 쇼 윈도우 상에 표시할 수도 있음을 언급한 바 있다. Meanwhile, according to the above description, the product
도 8은, 이러한 경우에 본 발명의 실시 예에 따른 제품 정보 제공 장치에서, 사용자의 선택에 따라 쇼 윈도우 상에 특정 광고와 관련된 이미지가 영사되는 예를 보이고 있는 것이다. FIG. 8 shows an example in which an image related to a specific advertisement is projected on a show window according to a user's selection in the product information providing apparatus according to an embodiment of the present invention in this case.
본 발명의 실시 예예 따른 제품 정보 제공 장치(100)는, 사용자의 제스처에 근거하여 쇼 윈도우 내부에 진열된 진열품들 뿐만 아니라, 특정 광고가 표시된 영역이 선택된 것으로 인식할 수도 있다. 예를 들어 도 8에서 보이고 있는 것과 같이, 제어부(102)는 상기 쇼 윈도우 내부에 특정 광고가 표시된 영역이 비쳐 보이는 상기 쇼 윈도우 상의 지점에 대한 사용자의 제스처가 감지되는 경우, 상기 사용자의 제스처를 상기 특정 광고에 대한 것으로 인식하고, 그와 관련된 화상 정보가 상기 쇼 윈도우 상에 표시되도록 할 수 있다. The product
예를 들어 제어부(102)는 사용자의 제스처가 감지되면, 상기 쇼 윈도우의 내부 면에 비치는 영상을 이용하여, 상기 제스처가 상기 쇼 윈도우 내부에 특정 광고가 표시된 영역에 대한 것임을 감지할 수 있다. 이러한 경우 제어부(102)는 도 8에서 보이고 있는 것처럼, 사용자의 제스처에 대응되는 특정 광고가 표시된 영역(810)이 스캔되도록 상기 스캔부(104)를 제어하고, 상기 스캔된 결과를 화상 정보(812)로서 상기 쇼 윈도우의 적어도 일부 영역에 표시할 수 있다. 이러한 경우 상기 스캔된 결과, 즉 상기 특정 광고가 표시된 영역(810)을 스캔한 이미지는 사용자의 키 높이 및 상기 사용자와 쇼 윈도우 사이의 거리에 근거하여 그 크기 및 위치가 결정될 수 있다. For example, when the user's gesture is detected, the
한편 이처럼 화상 정보(812)가 쇼 윈도우 상의 일부 영역에 표시되면, 제어부(102)는 상기 화상 정보(812)가 표시되는 크기 또는 위치를 자유롭게 변경할 수 있다. 예를 들어 제어부(102)는 상기 화상 정보(812)가 표시되는 쇼 윈도우 상의 영역에 대한 사용자의 터치를 감지할 수 있으며, 상기 터치에 이어지는 감지되는 사용자의 드래그 제스처 입력을 감지할 수 있다. On the other hand, when the
이러한 경우 제어부(102)는 상기 감지된 사용자의 드래그 제스처에 근거하여 상기 화상 정보(812)가 표시되는 위치가 변경되도록 할 수도 있다. 도 8에서 표시되는 화상 정보(814)는 이처럼 상기 사용자의 드래그 제스처에 근거하여 그 위치가 변경된 경우의 예를 보이고 있는 것이다. 또한 이와 마찬가지로 상기 쇼 윈도우 상에 표시되는 화상 정보의 크기 역시 얼마든지 사용자의 제스처에 근거하여 그 크기가 변경될 수 있다. In this case, the
한편 도 8에서는, 특정 광고가 표시되는 영역을 스캔한 이미지가 화상 정보로 표시되는 경우에, 상기 화상 정보가 쇼 윈도우 상에서 표시되는 위치 및 상기 화상 정보의 크기가 변경되는 예를 보였으나, 이는 상기 특정 광고에 관련된 화상 정보가 표시되는 경우에 국한되는 것이 아님은 물론이다. 즉, 특정 진열품과 관련되어 상기 쇼 윈도우 상에 표시되는 각종 화상 정보 역시, 이러한 사용자의 제스처 입력에 근거하여 그 크기 또는 위치가 변경될 수도 있음은 물론이다. On the other hand, in FIG. 8 , when an image scanned in an area in which a specific advertisement is displayed is displayed as image information, an example is shown in which the position at which the image information is displayed on the show window and the size of the image information are changed. Needless to say, it is not limited to a case in which image information related to a specific advertisement is displayed. That is, it goes without saying that the size or position of various image information displayed on the show window in relation to a specific display item may also be changed based on the user's gesture input.
한편 이러한 경우, 제어부(102)는 상기 사용자의 제스처 입력에 근거하여 상기 화상 정보의 출력되는 상태를 변경하거나 또는 다양한 기능을 제공할 수 있는 그래픽 객체를 상기 쇼 윈도우 상에 더 표시할 수도 있음은 물론이다. 이러한 경우 제어부(102)는 상기 쇼 윈도우 상에 표시된 그래픽 객체들에 대한 사용자의 제스처에 근거하여 상기 화상 정보의 크기 또는 위치를 변경하거나 또는 관련된 다양한 기능이 수행되도록 할 수도 있다. Meanwhile, in this case, the
도 9는, 이러한 본 발명의 실시 예에 따른 제품 정보 제공 장치에서, 화상 정보가 표시되는 상태를 제어할 수 있는 그래픽 객체들 및 그에 따라 수행되는 기능의 예를 보이고 있는 것이다.FIG. 9 shows examples of graphic objects capable of controlling a state in which image information is displayed and functions performed accordingly in the product information providing apparatus according to an embodiment of the present invention.
우선 도 9의 (a)를 참조하여 살펴보면, 도 9의 (a)는, 상술한 바와 같이 화상 정보가 상기 쇼 윈도우에 표시되는 상태를 제어할 수 있는 각종 그래픽 객체가 표시되는 예를 보이고 있는 것이다.First, referring to Fig. 9 (a), Fig. 9 (a) shows an example of displaying various graphic objects capable of controlling the state in which image information is displayed in the show window as described above. .
예를 들어 제어부(102)는, 특정 진열품을 선택하기 위한 사용자의 제스처가 감지되는 경우, 서로 다른 기능들에 각각 대응되는 복수의 그래픽 객체(900, 910, 912, 914)가 상기 쇼 윈도우 상에 표시되도록 할 수 있다. 이러한 경우 제어부(102)는 상기 그래픽 객체들 중 적어도 하나에 대한 사용자의 제스처에 근거하여, 상기 특정 진열품에 관련된 화상 정보(920)가 표시되는 상태가 제어되도록 할 수 있다.For example, when a user's gesture for selecting a specific display item is detected, the
예를 들어 제어부(102)는 상기 그래픽 객체 'zoom'(910)에 대한 사용자의 제스처에 근거하여, 상기 화상 정보가 쇼 윈도우 상에 표시되는 크기를 결정할 수 있다. 또한 제어부(102)는 커서 모양의 그래픽 객체들(900) 중 적어도 하나에 대한 사용자의 제스처에 근거하여 상기 쇼 윈도우 상에 표시되는 화상 정보(920)의 위치가 변경되도록 할 수도 있다. For example, the
뿐만 아니라 제어부(102)는 상기 화상 정보의 표시 또는 제스처의 인식과 관련된 기능들을 상기 그래픽 객체들을 통해 제어되도록 할 수도 있다. 예를 들어 제어부(102)는 사용자가 그래픽 객체'gesture'(914)를 선택하기 위한 제스처를 취하는 경우, 상기 사용자의 제스처에 대한 응답으로, 상기 그래픽 객체(914)에 대한 제스처를 제외하고 다른 제스처를 인식하는 기능을 오프(off)할 수도 있다. 이러한 경우 제어부(102)는 상기 사용자가 다시 그래픽 객체(914)를 선택하거나, 또는 일정 시간이 경과하거나, 다른 사용자가 감지될 때까지, 상기 사용자의 제스처를 인식하는 기능이 오프되도록 할 수도 있다. In addition, the
한편, 본 발명의 실시 예에 다른 제품 정보 제공 장치(100)의 제어부(102)는 상기 화상 정보를, 연결 가능한 주변 기기에 전송할 수도 있다. 예를 들어 도 9의 (a)에서 사용자가 그래픽 객체'mms'(912)를 선택하는 경우, 제어부(102)는 기 설정된 근거리 통신 수단, 예를 들어 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여 연결가능한 주변 기기에 상기 화상 정보(920)에 대응되는 정보가 전송되도록 할 수도 있다. Meanwhile, the
이러한 경우 도 9의 (b)에서 보이고 있는 것처럼, 사용자의 이동 단말기(960)에는 상기 쇼 윈도우에 표시되는 화상 정보(920)에 대응되는 정보가 전송될 수 있으며, 이러한 경우 사용자는 이동 단말기(960)를 통해 자신이 선택한 진열품과 관련된 정보를 확인할 수도 있다. In this case, as shown in FIG. 9(b), information corresponding to the
한편 상술한 본 발명의 설명에서는 구체적인 실시 예에 관해 설명하였으나, 여러 가지 변형이 본 발명의 범위에서 벗어나지 않고 실시할 수 있다. 특히 본 발명의 실시 예에서는 하나의 스캐너, 즉 상기 감지 수단 및 스캔 수단이 하나의 스캐너로 구성되는 경우를 가정하여 설명하였으나, 본 발명이 이에 국한되는 것이 아님은 물론이며, 이에 따라 본 발명이 이러한 실시 예에 한정되는 것이 아님은 물론이다. 즉 비록 스캐너가 사용자의 위치 및 사용자의 제스처를 감지할 수 있다고 하더라도, 상기 제스처 및 거리등을 보다 더 정확하게 판단하기 위해 부가적인 감지 수단을 더 사용할 수도 있음은 당연하기 때문이다. Meanwhile, in the above description of the present invention, specific embodiments have been described, but various modifications may be made without departing from the scope of the present invention. In particular, in the embodiment of the present invention, it has been described assuming that one scanner, that is, the sensing means and the scanning means are configured as one scanner, but the present invention is not limited thereto, and accordingly, the Of course, it is not limited to the embodiment. That is, although the scanner can detect the user's position and user's gesture, it is natural that additional sensing means may be further used to more accurately determine the gesture and the distance.
또한 상술한 본 발명의 실시 예에서는, 설명의 편의상, 복수의 진열품 중 어느 하나가 사용자의 제스처에 의해 선택되는 것을 예로 들어 설명하였으나, 이 뿐만 아니라 얼마든지 동시 또는 순차적으로 복수의 진열품들이 사용자의 제스처에 의해 선택되고 선택된 진열품들에 관련된 화상 정보들이 적어도 하나 이상 상기 쇼 윈도우 상의 적어도 일부에 표시될 수도 있음은 물론이다. In addition, in the above-described embodiment of the present invention, for convenience of explanation, it has been described that any one of the plurality of display items is selected by the user's gesture. Of course, at least one image information selected by and related to the selected displays may be displayed on at least a portion of the show window.
따라서 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석 되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Therefore, those of ordinary skill in the art to which the present invention pertains will be able to make various modifications and variations without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.
Claims (20)
상기 쇼 윈도우 및 쇼 윈도우 주변을 스캔하는 스캔부;
상기 쇼 윈도우의 적어도 일부에 화상 정보를 영사하는 표시부; 및,
상기 스캔된 결과에 근거하여 상기 쇼 윈도우 주변에 위치한 사용자의 제스처를 감지하고, 상기 제스처에 근거하여 상기 복수의 제품 중 적어도 하나에 관련된 화상 정보가 상기 쇼 윈도우 상에 표시되도록 상기 표시부를 제어하는 제어부를 포함하며.
상기 제어부는,
상기 스캔부의 일부 동작을 사용자가 제어할 수 있도록 하는 적어도 하나의 그래픽 객체가 상기 쇼 윈도우에 표시되도록 상기 표시부를 제어하고,
상기 기 설정된 그래픽 객체에 대한 사용자의 제스처가 감지되는 경우, 상기 정보를 상기 사용자의 이동 단말기로 전송하는 것을 특징으로 하는 제품 정보 제공 장치.
In the show window in which a plurality of products are accommodated,
a scanning unit that scans the show window and a periphery of the show window;
a display unit for projecting image information on at least a portion of the show window; and;
A controller configured to detect a gesture of a user located around the show window based on the scanned result, and control the display unit to display image information related to at least one of the plurality of products on the show window based on the gesture. includes.
The control unit is
controlling the display unit so that at least one graphic object allowing a user to control some operations of the scan unit is displayed on the show window;
When a user's gesture with respect to the preset graphic object is detected, the information is transmitted to the user's mobile terminal.
상기 복수의 제품 중, 상기 제스처에 대응되는 어느 하나의 제품과 관련된 정보가 표시된 상기 쇼 윈도우 내부의 특정 위치를 스캔하도록 상기 스캔부를 제어하며, 상기 스캔된 이미지가 영사되도록 상기 표시부를 제어하는 것을 특징으로 하는 제품 정보 제공 장치. According to claim 1, wherein the control unit,
controlling the scan unit to scan a specific position inside the show window where information related to any one product corresponding to the gesture among the plurality of products is displayed, and controlling the display unit to project the scanned image A device for providing product information.
상기 스캔부는,
상기 쇼 윈도우에 비치는 사용자의 영상을 스캔하고,
상기 제어부는,
상기 스캔된 결과를 이용하여 사용자와의 거리 및 상기 사용자의 제스처를 감지하는 것을 특징으로 하는 제품 정보 제공 장치.
According to claim 1,
The scan unit,
Scan the user's image reflected in the show window,
The control unit is
The device for providing product information, characterized in that by detecting the distance to the user and the user's gesture by using the scanned result.
상기 복수의 제품 중 적어도 하나를 사용자로부터 선택받기 위한 선택 영역이 상기 쇼 윈도우 상에 표시되도록 상기 표시부를 제어하고,
상기 선택 영역 상에서 감지되는 사용자의 제스처에 근거하여 상기 제품들 중 적어도 하나에 관련된 화상 정보가 영사되도록 상기 표시부를 제어하는 것을 특징으로 하는 제품 정보 제공 장치.
According to claim 1, wherein the control unit,
controlling the display unit so that a selection area for receiving at least one selection from the plurality of products is displayed on the show window;
and controlling the display unit to project image information related to at least one of the products based on a user's gesture detected on the selection area.
상기 쇼 윈도우 내부에 수용되는 제품들이 적어도 하나 비치도록, 상기 쇼 윈도우의 적어도 일부 영역에 형성되며,
상기 비치는 제품들 중, 사용자의 제스처에 대응되는 적어도 하나의 제품들이 다른 제품들과 구분되게 표시되는 영역임을 특징으로 하는 제품 정보 제공 장치.
10. The method of claim 9, wherein the selection area,
It is formed in at least a portion of the show window so that at least one product accommodated in the show window is reflected,
The apparatus for providing product information, characterized in that, among the reflected products, at least one product corresponding to a user's gesture is displayed to be distinguished from other products.
사용자의 시선 방향에 근거하여 상기 선택 영역을 통해 비처보이는 제품들 중 어느 하나를 선택 및 선택된 제품이 다른 제품들과 구분되도록 상기 표시부를 제어하고,
상기 선택된 제품에 대한 사용자의 제스처가 감지되면, 상기 선택된 제품에 관련된 정보가 상기 선택 영역의 적어도 일부에 표시되도록 상기 표시부를 제어하는 것을 특징으로 하는 제품 정보 제공 장치. 10. The method of claim 9, wherein the control unit,
Selecting any one of the products visible through the selection area based on the user's gaze direction and controlling the display unit so that the selected product is distinguished from other products,
When a user's gesture with respect to the selected product is detected, the product information providing apparatus according to claim 1, wherein the display unit is controlled to display information related to the selected product on at least a portion of the selection area.
상기 스캔부가 스캔하는 상기 쇼 윈도우 내부의 위치 및 상기 스캔부의 줌 인이나 줌 아웃 동작과 관련된 그래픽 객체를 더 포함하는 것을 특징으로 하는 제품 정보 제공 장치.
According to claim 1, wherein the graphic object,
The device for providing product information, characterized in that it further comprises a position within the show window scanned by the scan unit and a graphic object related to a zoom-in or zoom-out operation of the scan unit.
상기 스캔부는,
상기 쇼 윈도우를 스캔하여 상기 쇼 윈도우 상의 온도 분포를 더 스캔하고,
상기 제어부는,
상기 스캔된 결과에 근거하여 상기 쇼 윈도우 상에서 상기 사용자의 터치가 감지된 지점을 감지하고, 감지된 지점에 근거하여 상기 복수의 제품 중 적어도 하나에 관련된 화상 정보가 상기 쇼 윈도우 상에 표시되도록 하는 것을 특징으로 하는 제품 정보 제공 장치.
According to claim 1,
The scan unit,
scan the show window to further scan the temperature distribution on the show window;
The control unit is
detecting a point where the user's touch is sensed on the show window based on the scanned result, and displaying image information related to at least one of the plurality of products on the show window based on the detected point Characterized product information providing device.
상기 쇼 윈도우 및 쇼 윈도우 주변을 스캔하는 단계;
상기 스캔된 결과에 근거하여 상기 쇼 윈도우 주변에 위치한 사용자의 제스처를 감지하는 단계;
상기 감지된 제스처에 근거하여 상기 복수의 제품 중 적어도 하나를 사용자로부터 선택받는 단계; 및,
상기 선택된 적어도 하나의 제품에 관련된 화상 정보를 상기 쇼 윈도우의 적어도 일부 영역에 영사하는 단계를 포함하며,
상기 회상 정보는,
상기 선택된 적어도 하나의 제품에 관련된 화상 정보의 전송과 관련된 그래픽 객체를 더 포함하고,
상기 화상 정보를 영사하는 단계는,
상기 그래픽 객체에 대한 사용자의 제스처가 감지되는 경우, 상기 선택된 적어도 하나의 제품에 관련된 화상 정보를 상기 사용자의 이동 단말기로 전송하는 단계를 더 포함하는 것을 특징으로 하는 제품 정보 제공 방법. In the show window in which a plurality of products are accommodated,
scanning the show window and its surroundings;
detecting a user's gesture located around the show window based on the scanned result;
receiving a selection from a user of at least one of the plurality of products based on the sensed gesture; and;
Projecting image information related to the at least one selected product on at least a partial area of the show window,
The recall information is
Further comprising a graphic object related to the transmission of image information related to the selected at least one product,
The step of projecting the image information,
and transmitting image information related to the selected at least one product to the user's mobile terminal when the user's gesture with respect to the graphic object is detected.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140080053A KR102268045B1 (en) | 2014-06-27 | 2014-06-27 | An apparatus and method for proceeding information of products being displayed in the show window |
PCT/KR2014/008973 WO2015199283A1 (en) | 2014-06-27 | 2014-09-25 | Apparatus and method for providing product information of product exhibited in show window |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140080053A KR102268045B1 (en) | 2014-06-27 | 2014-06-27 | An apparatus and method for proceeding information of products being displayed in the show window |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20160001466A KR20160001466A (en) | 2016-01-06 |
KR102268045B1 true KR102268045B1 (en) | 2021-06-22 |
Family
ID=54938351
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140080053A KR102268045B1 (en) | 2014-06-27 | 2014-06-27 | An apparatus and method for proceeding information of products being displayed in the show window |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102268045B1 (en) |
WO (1) | WO2015199283A1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102254794B1 (en) * | 2016-12-26 | 2021-05-21 | 미쓰비시덴키 가부시키가이샤 | Touch panel input device, touch gesture determination device, touch gesture determination method, and touch gesture determination program |
CN111353842A (en) * | 2018-12-24 | 2020-06-30 | 阿里巴巴集团控股有限公司 | Processing method and system of push information |
US11379081B2 (en) * | 2020-08-17 | 2022-07-05 | Dynascan Technology Corp. | Touch system and method of operating the same |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100064177A (en) * | 2008-12-04 | 2010-06-14 | 삼성전자주식회사 | Electronic device and method for displaying |
KR101122883B1 (en) * | 2011-03-18 | 2012-03-20 | (주)티원시스템즈 | The showcase with transparent display |
KR20130056028A (en) * | 2011-11-21 | 2013-05-29 | 엘지전자 주식회사 | Showcase system including transparent display panel and method for operating the same |
KR20130115586A (en) * | 2012-04-12 | 2013-10-22 | (주)에스앤지그룹 | Smart refrgerator comprising transparent display pannel for providing digital contents |
WO2014021658A1 (en) * | 2012-08-01 | 2014-02-06 | Samsung Electronics Co., Ltd. | Transparent display apparatus and display method thereof |
-
2014
- 2014-06-27 KR KR1020140080053A patent/KR102268045B1/en active IP Right Grant
- 2014-09-25 WO PCT/KR2014/008973 patent/WO2015199283A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2015199283A1 (en) | 2015-12-30 |
KR20160001466A (en) | 2016-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210096651A1 (en) | Vehicle systems and methods for interaction detection | |
US20220301041A1 (en) | Virtual fitting provision device and provision method therefor | |
US20180224947A1 (en) | Individually interactive multi-view display system for non-stationary viewing locations and methods therefor | |
US20150310539A1 (en) | In-store object highlighting by a real world user interface | |
EP2381339A2 (en) | User interface using hologram and method thereof | |
EP2194468A1 (en) | Electronic apparatus and displaying method thereof | |
KR102402048B1 (en) | Electronic apparatus and the controlling method thereof | |
KR102268045B1 (en) | An apparatus and method for proceeding information of products being displayed in the show window | |
US20170038912A1 (en) | Information providing device | |
KR101872272B1 (en) | Method and apparatus for controlling of electronic device using a control device | |
JP2010157115A (en) | Merchandise selling device | |
WO2016053320A1 (en) | Gesture based manipulation of three-dimensional images | |
JP6886024B2 (en) | Head mounted display | |
KR20160011272A (en) | Goods purchase apparatus, and goods purchase system including the same | |
KR20110138975A (en) | Apparatus for detecting coordinates, display device, security device and electronic blackboard including the same | |
KR101575063B1 (en) | multi-user recognition multi-touch interface apparatus and method using depth-camera | |
US10437415B2 (en) | System, method, and device for controlling a display | |
KR20160023208A (en) | Mirror display device and operating method thereof | |
US20190244581A1 (en) | Information processing apparatus and non-transitory computer readable medium | |
KR101494445B1 (en) | Apparatus and method for displaying promotion image using transparent display, and recording medium thereof | |
JP2016051468A (en) | Information processing apparatus, control method of the same, and program | |
JP2021079686A5 (en) | ||
JP6586904B2 (en) | Image display device, display control method, and display control program | |
WO2019202617A1 (en) | System and method for detecting and storing the position of articles in a sales point | |
US11954241B2 (en) | Information display system and information display method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |