KR102443797B1 - Apparatus and method for spatial image recommendation through eye tracking - Google Patents
Apparatus and method for spatial image recommendation through eye tracking Download PDFInfo
- Publication number
- KR102443797B1 KR102443797B1 KR1020220039895A KR20220039895A KR102443797B1 KR 102443797 B1 KR102443797 B1 KR 102443797B1 KR 1020220039895 A KR1020220039895 A KR 1020220039895A KR 20220039895 A KR20220039895 A KR 20220039895A KR 102443797 B1 KR102443797 B1 KR 102443797B1
- Authority
- KR
- South Korea
- Prior art keywords
- gaze
- image
- spatial
- time
- source image
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/43—Querying
- G06F16/432—Query formulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/44—Browsing; Visualisation therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/44—Browsing; Visualisation therefor
- G06F16/444—Spatial browsing, e.g. 2D maps, 3D or virtual spaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
Abstract
Description
본 발명은 시선 추적을 통한 공간 이미지 추천 장치 및 방법에 관한 것으로, 보다 상세하게는 사용자의 시선 추적을 통하여 사용자에게 추천 공간 이미지를 제공할 수 있는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for recommending a spatial image through eye tracking, and more particularly, to an apparatus and method for providing a recommended spatial image to a user through eye tracking.
개인 일상 생활에서 뉴스, 메일, 동영상, SNS, 메신저 등의 서비스를 사용할 때 디스플레이 기반(PC 모니터, 테블릿, TV, 핸드폰 등)으로 정보 소비가 늘어나고 있다. When using services such as news, mail, video, SNS, and messenger in personal daily life, information consumption is increasing due to display-based (PC monitor, tablet, TV, mobile phone, etc.).
현대인의 경우 일과 시간 중 50% 이상 디스플레이를 응시하고 있고 핸드폰의 경우 거의 24시간 신체에 밀착하고 있다. In the case of modern people, they stare at the display more than 50% of the time during the day, and in the case of cell phones, they are in close contact with the body for almost 24 hours.
시선을 추적해서 사용자의 의도를 파악하는 기술은 광고, 마케팅, 커뮤니케이션 영역에서 많이 있어 왔다. 근래에는 컴퓨터, 휴대전화, TV 등과 같은 전자제품에 전방 카메라가 기본적으로 탑재되어 있어서 이를 이용하면 간단한 시선 정보를 수집할 수 있게 되었다. There have been many technologies in the fields of advertising, marketing, and communication to identify the intention of a user by tracking the gaze. In recent years, electronic products such as computers, mobile phones, and TVs are equipped with front cameras by default, so simple gaze information can be collected by using them.
이상의 배경기술에 기재된 사항은 발명의 배경에 대한 이해를 돕기 위한 것으로서, 공개된 종래 기술이 아닌 사항을 포함할 수 있다.The matters described in the background art above are intended to help the understanding of the background of the invention, and may include matters that are not disclosed prior art.
본 발명은 상기한 종래의 사정을 감안하여 제안된 것으로, 사용자의 시선을 추적하여 사용자의 시선이 공간 이미지 중에서 어디에 주로 머물러 있는지에 따라 적절한 추천 공간 이미지를 제공할 수 있도록 하는 시선 추적을 통한 공간 이미지 추천 장치 및 방법을 제공함에 그 목적이 있다.The present invention has been proposed in view of the above-described conventional circumstances, and a spatial image through eye tracking that tracks the user's gaze to provide an appropriate recommended spatial image according to where the user's gaze mainly stays among the spatial images. An object of the present invention is to provide a recommended apparatus and method.
상기와 같은 목적을 달성하기 위하여 본 발명의 바람직한 실시양태에 따른 시선 추적을 통한 공간 이미지 추천 장치는, 다수의 공간 이미지 각각의 특징들에 대한 정보를 포함하는 공간 이미지 테이블을 저장하는 저장 모듈; 및 연산 처리 기능을 갖는 제어 모듈;을 포함하고, 상기 제어 모듈은, 상기 저장 모듈에 저장된 복수의 명령들에 기초하여, 사용자의 단말로부터 수신된 검색어에 상응하는 공간 이미지를 상기 공간 이미지 테이블에서 탐색하여 소스 이미지로서 상기 단말에게로 전송하고, 상기 소스 이미지를 표시하는 상기 단말로부터 상기 소스 이미지에 대한 사용자의 시선 움직임 데이터를 수집하고, 상기 수집된 시선 움직임 데이터 및 상기 공간 이미지 테이블을 근거로 시선 움직임을 분석하고, 상기 시선 움직임의 분석 결과를 근거로 상기 소스 이미지와 상기 공간 이미지 테이블의 다른 공간 이미지 간의 유사도를 계산하고, 상기 계산된 공간 이미지 간의 유사도에 근거하여 상기 다수의 공간 이미지들 중에서 상기 소스 이미지와 유사한 공간 이미지를 추천 공간 이미지로서 상기 단말에게로 제공한다.In order to achieve the above object, an apparatus for recommending a spatial image through eye tracking according to a preferred embodiment of the present invention includes: a storage module for storing a spatial image table including information on features of a plurality of spatial images; and a control module having an arithmetic processing function, wherein the control module searches the spatial image table for a spatial image corresponding to a search word received from a user's terminal based on a plurality of commands stored in the storage module. to transmit to the terminal as a source image, collect user's gaze movement data for the source image from the terminal displaying the source image, and gaze movement based on the collected gaze movement data and the spatial image table , calculates a similarity between the source image and another spatial image in the spatial image table based on the analysis result of the gaze movement, and calculates a similarity between the spatial images from among the plurality of spatial images based on the calculated similarity between the spatial images. A spatial image similar to the image is provided to the terminal as a recommended spatial image.
상기 시선 움직임 데이터는 상기 소스 이미지에 대한 상기 사용자의 시선의 시간별 위치 정보를 포함하고, 상기 제어 모듈은, 상기 시선 움직임 데이터를 근거로 상기 소스 이미지 상에서의 시선의 움직임을 분석하여 상기 소스 이미지의 특징들 각각에 상기 사용자의 시선이 향하는 주시 시간을 계산하고, 특징들 각각의 주시 시간에 기초하여 공간 이미지 간의 유사도를 계산할 수 있다.The gaze movement data includes time-based location information of the user's gaze with respect to the source image, and the control module analyzes the gaze movement on the source image based on the gaze movement data to determine the characteristics of the source image. A gaze time to which the user's gaze is directed may be calculated for each of the features, and a degree of similarity between spatial images may be calculated based on the gaze time of each of the features.
상기 특징들은 상기 공간 이미지 상에 나타난 객체들 및 상기 공간 이미지의 분위기를 포함하고, 상기 제어 모듈은, 상기 사용자의 시선이 상기 객체들 각각에 일정 시간 이상 지속하여 위치하는 시간을 상기 객체들 각각에 대한 주시 시간으로 결정하고, 상기 사용자의 시선이 상기 객체들 중 어느 것에도 일정 시간 이상 지속하여 위치하지 않는 시간을 상기 분위기에 대한 주시 시간으로 결정할 수 있다.The features include the objects displayed on the spatial image and the atmosphere of the spatial image, and the control module is configured to determine a time for which the user's gaze continues to be located on each of the objects for a predetermined time or more to each of the objects. may be determined as a gaze time for the atmosphere, and a time in which the user's gaze is not located on any of the objects for a predetermined time or longer may be determined as the gaze time for the atmosphere.
상기 제어 모듈은, 상기 분위기에 대한 주시 시간을 이용하여 상기 소스 이미지의 분위기 가중치를 계산하고, 상기 객체들 각각에 대한 주시 시간을 이용하여 상기 소스 이미지의 객체별 가중치를 계산하고, 계산된 상기 분위기 가중치 및 객체별 가중치를 근거로 상기 공간 이미지 간의 유사도를 계산할 수 있다.The control module is configured to calculate an atmosphere weight of the source image by using the gaze time for the atmosphere, calculate a weight for each object of the source image by using the gaze time for each of the objects, and calculate the calculated atmosphere The similarity between the spatial images may be calculated based on the weight and the weight for each object.
상기 분위기 가중치는 하기의 식 1을 통해 계산되고, 상기 객체별 가중치는 하기의 식 2를 통해 계산될 수 있다.The atmosphere weight may be calculated through
(식 1)(Equation 1)
(식 2)(Equation 2)
(T1i는 상기 소스 이미지의 i번째 객체에 상기 사용자의 시선이 일정 시간 이상 지속하여 위치한 시간을 의미하고, T2는 상기 사용자의 시선이 객체들 중 어느 객체에도 일정 시간 이상 지속하여 위치하지 않은 시간을 의미한다)(T1 i means a time when the user's gaze is continuously located on the i-th object of the source image for a predetermined time or more, and T2 is a time when the user's gaze is not located on any of the objects for a predetermined time or more means)
상기 제어 모듈은, 상기 소스 이미지의 분위기와 상기 다른 공간 이미지의 분위기 간의 유사도를 구하고, 상기 소스 이미지의 객체와 상기 다른 공간 이미지의 객체 간의 유사도를 구하고, 계산된 분위기 간의 유사도 및 객체 간의 유사도를 이용하여 공간 이미지 간의 유사도를 구하되, 상기 분위기 간의 유사도에 상기 분위기 가중치를 적용하고, 상기 객체 간의 유사도에 상기 객체별 가중치를 적용하여 상기 소스 이미지와 상기 다른 공간 이미지 간의 유사도를 계산할 수 있다.The control module obtains the similarity between the atmosphere of the source image and the atmosphere of the other spatial image, obtains the similarity between the object of the source image and the object of the other spatial image, and uses the calculated similarity between atmospheres and the similarity between objects Thus, the similarity between the spatial images is obtained, and the atmosphere weight is applied to the similarity between the atmospheres, and the weight for each object is applied to the similarity between the objects to calculate the similarity between the source image and the other spatial image.
상기 제어 모듈은, 사용자가 상기 소스 이미지를 바라본 시점부터 이미지 추천 메뉴가 선택되기 전까지의 시선 움직임 데이터를 상기 단말로부터 수집할 수 있다.The control module may collect gaze movement data from the terminal when the user looks at the source image until the image recommendation menu is selected.
한편, 본 발명의 바람직한 실시양태에 따른 시선 추적을 통한 공간 이미지 추천 방법은, 시선 추적을 통한 공간 이미지 추천 장치에서 수행되는 방법으로서, 다수의 공간 이미지 각각의 특징들에 대한 정보를 포함하는 공간 이미지 테이블에서 사용자의 단말로부터 수신된 검색어에 상응하는 공간 이미지를 탐색하여 소스 이미지로서 상기 단말에게로 전송하는 단계; 상기 소스 이미지를 표시하는 상기 단말로부터 상기 소스 이미지에 대한 사용자의 시선 움직임 데이터를 수집하는 단계; 상기 수집된 시선 움직임 데이터 및 상기 공간 이미지 테이블을 근거로 시선 움직임을 분석하는 단계; 상기 시선 움직임의 분석 결과를 근거로 상기 소스 이미지와 상기 공간 이미지 테이블의 다른 공간 이미지 간의 유사도를 계산하는 단계; 및 상기 계산된 공간 이미지 간의 유사도에 근거하여 상기 다수의 공간 이미지들 중에서 상기 소스 이미지와 유사한 공간 이미지를 추천 공간 이미지로서 상기 단말에게로 제공하는 단계;를 포함한다.On the other hand, the spatial image recommendation method through eye tracking according to a preferred embodiment of the present invention is a method performed in a spatial image recommendation device through eye tracking, and a spatial image including information on features of each of a plurality of spatial images. Searching for a spatial image corresponding to the search word received from the user's terminal in the table and transmitting it to the terminal as a source image; collecting the user's gaze movement data with respect to the source image from the terminal displaying the source image; analyzing the gaze movement based on the collected gaze movement data and the spatial image table; calculating a similarity between the source image and another spatial image of the spatial image table based on the analysis result of the gaze movement; and providing a spatial image similar to the source image from among the plurality of spatial images as a recommended spatial image to the terminal based on the calculated similarity between the spatial images.
이러한 구성의 본 발명에 따르면, 사용자의 시선을 추적하여 사용자의 시선이 공간 이미지 중에서 어디에 주로 머물러 있는지에 따라 적절한 추천 공간 이미지를 제공해 줄 수 있다.According to the present invention having such a configuration, it is possible to provide an appropriate recommended spatial image according to where the user's gaze mainly stays among the spatial images by tracking the user's gaze.
도 1은 본 발명의 실시예에 따른 시선 추적을 통한 공간 이미지 추천 장치가 채용된 시스템의 구성도이다.
도 2는 도 1에 도시된 서버의 내부 구성도이다.
도 3은 본 발명의 실시예에서 검색어에 따라 제공되는 공간 이미지(즉, 소스 이미지)의 일 예를 나타낸 도면이다.
도 4 및 도 5는 도 1에 도시된 데이터베이스에 저장된 공간 이미지 테이블을 설명하기 위한 도면이다.
도 6은 본 발명의 실시예에서 시선 추적에 의해 수집되는 시선 움직임 데이터의 일 예를 나타낸 도면이다.
도 7은 본 발명의 실시예에서 공간 이미지 간의 유사도를 계산하는 과정을 설명하기 위해 채용되는 도면이다.
도 8은 본 발명의 실시예에 따른 시선 추적을 통한 공간 이미지 추천 방법을 설명하기 위한 플로우차트이다.1 is a block diagram of a system employing a spatial image recommendation apparatus through eye tracking according to an embodiment of the present invention.
FIG. 2 is an internal configuration diagram of the server shown in FIG. 1 .
3 is a diagram illustrating an example of a spatial image (ie, a source image) provided according to a search word in an embodiment of the present invention.
4 and 5 are diagrams for explaining a spatial image table stored in the database shown in FIG. 1 .
6 is a diagram illustrating an example of gaze movement data collected by gaze tracking in an embodiment of the present invention.
7 is a diagram employed to explain a process of calculating a similarity between spatial images in an embodiment of the present invention.
8 is a flowchart for explaining a spatial image recommendation method through eye tracking according to an embodiment of the present invention.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다.Since the present invention can have various changes and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail.
그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It is to be understood that this does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다. Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings. In describing the present invention, in order to facilitate the overall understanding, the same reference numerals are used for the same components in the drawings, and duplicate descriptions of the same components are omitted.
도 1은 본 발명의 실시예에 따른 시선 추적을 통한 공간 이미지 추천 장치가 채용된 시스템의 구성도이다.1 is a block diagram of a system employing a spatial image recommendation apparatus through eye tracking according to an embodiment of the present invention.
도 1의 시스템은, 단말(10), 카메라(20), 서버(30), 및 데이터베이스(40)를 포함할 수 있다. 본 발명의 시스템은 단말(10)로부터의 검색어에 상응하는 공간 이미지(소스 이미지)를 단말(10)에게로 제공한 후에 사용자의 시선 움직임을 추적 및 분석하고, 시선 움직임 분석 결과를 근거로 기저장된 공간 이미지 간의 유사도를 계산하고, 계산된 유사도에 근거하여 검색어에 상응하는 공간 이미지와 유사한 추천 공간 이미지를 결정하여 제공하는 서비스를 수행할 수 있다.The system of FIG. 1 may include a
도 1의 각 구성요소들은 일반적으로 네트워크를 통해 연결된다. 예를 들어, 도 1에 도시된 바와 같이, 단말(10)은 네트워크(도시 생략)를 통해 서버(30)와 연결된다.Each component of FIG. 1 is generally connected through a network. For example, as shown in FIG. 1 , the
상술한 네트워크로는 무선 통신 방식의 네트워크 또는 유선 통신 방식의 네트워크가 있을 수 있다.The above-described network may be a wireless communication type network or a wired communication type network.
예를 들어, 무선 통신 방식의 네트워크는 무선랜(Wireless LAN (WLAN)), 와이브로(Wireless Broadband (Wibro)), WCDMA(Wideband CDMA), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution (LTE)), LTE-A(Long Term Evolution-Advanced), 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra-Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication (NFC)), 초음파 통신(Ultra Sound Communication (USC)), 가시광 통신(Visible Light Communication (VLC)), 와이 파이(Wi-Fi) 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.For example, a wireless communication type network includes a wireless LAN (WLAN), a wireless broadband (Wibro), a wideband CDMA (WCDMA), an IEEE 802.16, a long term evolution (LTE), LTE-A (Long Term Evolution-Advanced), Bluetooth (Bluetooth), RFID (Radio Frequency Identification), Infrared Data Association (IrDA), UWB (Ultra-Wideband), ZigBee, Near Field Communication (Near) Field Communication (NFC)), ultrasonic communication (Ultra Sound Communication (USC)), visible light communication (VLC), Wi-Fi (Wi-Fi), and the like may be included, but are not limited thereto.
한편, 유선 통신 방식의 네트워크는 유선 LAN(Local Area Network), 유선 WAN(Wide Area Network), 전력선 통신(Power Line Communication (PLC)), USB 통신, 이더넷(Ethernet), 시리얼 통신(serial communication), 광/동축 케이블 통신 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.On the other hand, wired communication type networks include wired LAN (Local Area Network), wired WAN (Wide Area Network), Power Line Communication (PLC), USB communication, Ethernet, serial communication, It may include, but is not limited to, optical/coaxial cable communication.
단말(10)은 사용자가 사용하는 전자기기로서, 카메라(20)가 설치되어 있다.The
단말(10)은 시선 추적을 통한 공간 이미지 추천 서비스를 받기 위해 소정의 검색어 입력이 가능하다.The
단말(10)은 사용자의 키입력에 의한 소정의 검색어를 네트워크(도시 생략)를 통해 서버(30)에게로 전송할 수 있다.The
단말(10)은 검색어에 상응하는 공간 이미지를 수신할 수 있다. 여기서, 검색어에 상응하는 공간 이미지는 사용자의 시선 움직임 데이터 생성을 위한 소스 이미지(source image)라고 할 수 있다.The
물론, 사용자는 단말(10)에 화면표시된 소스 이미지가 마음에 들지 않으면 교체 요청을 할 수 있다.Of course, if the user does not like the source image displayed on the screen of the
단말(10)은 카메라(20)와 연계하여 소스 이미지에서의 사용자의 시선 움직임을 추적하고, 추적에 따라 시선 움직임 데이터를 생성할 수 있다. 시선 움직임 데이터는 소스 이미지에 대한 사용자의 시선의 시간별 위치 정보를 포함할 수 있다. 물론, 사용자의 시선 움직임을 추적하기 전에 소정의 테스트 이미지에 사용자의 시선을 맞추는 영점 조절 작업이 먼저 수행될 수 있다. 여기서, 테스트 이미지는 굳이 공간 이미지일 필요는 없다. 시선 움직임 추적 전에 소정의 테스트 이미지를 통해서 테스트 이미지의 외곽 끝을 바라보는 작업을 수행하고 나서, 테스트 이미지와 동일한 사이즈의 소스 이미지를 제공할 수 있다. 이후, 단말(10)은 사용자의 시선 움직임을 추적하고, 추적에 따라 시선 움직임 데이터를 생성할 수 있을 것이다. The
단말(10)은 시선 움직임 데이터를 서버(30)에게로 전송할 수 있다. The
예를 들어, 단말(10)은 검색어에 상응하는 공간 이미지(즉, 소스 이미지)를 수신하여 화면표시하면, 사용자는 소스 이미지내의 각종의 객체(예컨대, 창문, 테이블, 의자, 소파 등)를 제각기의 시간으로 응시할 수도 있고 소스 이미지를 전체적으로 훑어볼 수 있다. 그에 따라, 시선이 제 1 객체에 소정 시간 머물러 있다가 제 2 객체로 이동할 수도 있고, 어느 객체는 시선이 순간적으로 지나쳐 갈 수도 있다.For example, when the terminal 10 receives and displays a space image (ie, a source image) corresponding to a search word, the user selects various objects (eg, a window, a table, a chair, a sofa, etc.) in the source image, respectively. You can stare at the time of , or scan the source image in its entirety. Accordingly, the gaze may stay on the first object for a predetermined time and then move to the second object, and the gaze may momentarily pass by an object.
이와 같이 단말(10)은 소스 이미지내에서 사용자의 시선이 움직인 위치 정보를 실시간으로 생성할 수 있다. As described above, the terminal 10 may generate information about the location of the user's gaze in the source image in real time.
단말(10)은 시선 움직임 추적에 따른 시선 움직임 데이터를 생성할 수 있는 프로세서(도시 생략)를 포함한다.The terminal 10 includes a processor (not shown) capable of generating eye movement data according to eye movement tracking.
여기서, 사용자의 시선 움직임을 추적하고 시선 움직임 데이터를 생성하는 방식은 당업자라면 주지의 기술로 충분히 이해할 수 있으므로, 그에 대한 상세한 설명은 생략하기로 한다.Here, a method of tracking a user's gaze movement and generating gaze movement data can be fully understood by those skilled in the art, and thus a detailed description thereof will be omitted.
단말(10)은 이미지 추천 요청을 서버(30)에게로 전송할 수 있다. 이미지 추천 요청은 사용자의 해당 메뉴(예컨대, 이미지 추천 요청 메뉴) 선택에 의해 이루어질 수 있다. 이미지 추천 요청 메뉴는 소스 이미지가 표시되는 영역과는 무관한 위치에 배치되어 있을 수 있다. 이때, 이미지 추천 요청은 시선 움직임 데이터를 포함할 수 있다. 즉, 단말(10)은 사용자가 소스 이미지를 바라본 시점부터 이미지 추천 요청 메뉴가 선택되기 전까지의 시선 움직임 데이터를 수집해 둔다고 볼 수 있다. 그래서, 이미지 추천 요청을 서버(30)에게로 전송할 때에는 단말(10)은 이미지 추천이 선택되기 전까지 수집해둔 시선 움직임 데이터를 전송할 수 있다.The terminal 10 may transmit an image recommendation request to the
물론, 시선 움직임 데이터 중에서 사용자의 시선이 소스 이미지의 범위를 벗어난 시선 움직임 데이터가 있을 수 있는데, 이와 같이 소스 이미지의 범위를 벗어난 시선 움직임 데이터는 서버(30)로의 전송에서 제외됨이 바람직하다.Of course, among the gaze movement data, there may be gaze movement data in which the user's gaze exceeds the range of the source image. As such, it is preferable that the gaze movement data out of the range of the source image is excluded from transmission to the
상기의 설명에서는 단말(10)이 사용자가 소스 이미지를 바라본 시점부터 이미지 추천 요청 메뉴가 선택되기 전까지의 시선 움직임 데이터를 수집하는 것으로 하였다. 그러나, 이와 다르게 하여도 무방하다. 예를 들어, 단말(10)은 이미지 추천 요청 메뉴가 선택되기 전까지 시선 움직임 데이터를 실시간으로 서버(30)에게로 전송하고, 서버(30)는 단말(10)로부터의 이미지 추천 요청을 수신하기 전까지 시선 움직임 데이터를 단말(10)로부터 수집하는 것으로 하여도 된다. 그리고, 단말(10)은 이미지 추천 요청을 전송할 시점이 되면 시선 움직임 데이터 전송을 중단할 수 있다. In the above description, it is assumed that the terminal 10 collects eye movement data from the time the user looks at the source image until the image recommendation request menu is selected. However, it may be done differently from this. For example, the terminal 10 transmits gaze movement data to the
본 발명의 실시예에서, 시선 움직 데이터를 수집하는 주체가 그리 중요한 것은 아니다. 서버(30)의 입장에서는 시선 움직임 데이터를 수신하는 시점이 언제든지 간에 시선 움직임 데이터를 근거로 시선 움직임 분석을 행할 수만 있으면 된다.In an embodiment of the present invention, the subject collecting the eye movement data is not very important. From the standpoint of the
단말(10)은 서버(30)로부터의 추천 공간 이미지를 수신할 수 있다.The terminal 10 may receive a recommended space image from the
단말(10)은 수신한 추천 공간 이미지를 화면표시할 수 있다.The terminal 10 may display the received recommended space image on the screen.
그에 따라, 단말(10)은 입력 모듈(도시 생략), 표시 모듈(도시 생략), 및 통신 모듈(도시 생략)을 포함할 수 있다. Accordingly, the terminal 10 may include an input module (not shown), a display module (not shown), and a communication module (not shown).
필요에 따라, 단말(10)은 시선 움직임 데이터를 저장하는 저장 모듈(도시 생략)을 더 포함할 수 있다.If necessary, the terminal 10 may further include a storage module (not shown) for storing gaze movement data.
단말(10)은 연산 처리 기능을 갖는 컴퓨팅 장치로서, 카메라(20)가 설치된 이동형 장치이거나 또는 고정형 장치일 수 있다. 예컨대, 단말(10)은 컴퓨터, PC(personal computer), 스마트폰, 네비게이션, 랩톱 컴퓨터, 태블릿 컴퓨터, 웨어러블 장치 또는 태블릿 등을 의미할 수 있으나, 본 발명의 실시 예들이 이에 한정되는 것은 아니다.The terminal 10 is a computing device having an arithmetic processing function, and may be a mobile device in which the
도 1에서는 단말(10)을 하나만 도시하였으나, 실제로는 다수의 단말(10)이 존재하는 것으로 이해하는 것이 좋다. Although only one
상술한 단말(10)은 사용자 단말 또는 고객 단말이라고 하여도 무방하다.The above-described
카메라(20)는 단말(10)에 설치된 전자기기로서, 사용자의 시선 움직임을 추적할 수 있다. 즉, 단말(10)의 화면에는 검색어에 상응하는 공간 이미지(즉, 소스 이미지)가 디스플레이될 것이고, 사용자가 소스 이미지를 보면서 시선을 움직이게 되면 카메라(20)가 시선 움직임을 추적할 수 있다.The
예를 들어, 카메라(20)는 거치 형태로 단말(10)에 설치될 수도 있고, 웹캠 형태로 단말(10)에 부착되거나 내장될 수도 있다. For example, the
서버(30)는 본 발명의 실시예에 따른 시선 추적을 통한 공간 이미지 추천 장치가 될 수 있다. 물론, 필요에 따라서는 본 발명의 실시예에 따른 시선 추적을 통한 공간 이미지 추천 장치가 서버(30)에 포함되는 것으로 할 수도 있다.The
서버(30)는 사용자에게 시선 추적을 통한 공간 이미지 추천 서비스를 제공할 수 있다. The
서버(30)는 단말(10)로부터의 검색어를 수신할 수 있다.The
서버(30)는 검색어를 수신함에 따라 데이터베이스(40)에서 해당 검색어에 상응하는 공간 이미지를 탐색할 수 있다. 여기서, 서버(30)는 탐색된 공간 이미지가 1개라면 탐색된 1개의 공간 이미지를 소스 이미지로서 단말(10)에게로 전송할 수 있다. 한편, 탐색된 공간 이미지가 여러 개라면 서버(30)는 탐색된 여러 개의 공간 이미지 중에서 랜덤하게 1개의 공간 이미지를 소스 이미지로 선정하여 단말(10)에게로 전송할 수 있다. 상술한 소스 이미지는 단말(10)에서 사용자의 시선 움직임 데이터를 생성할 수 있도록 하기 위해 제공되는 공간 이미지이다. As the
물론, 필요에 따라서는 단말(10)에게로 제공되는 소스 이미지를 복수개로 할 수도 있다.Of course, if necessary, a plurality of source images provided to the terminal 10 may be provided.
서버(30)는 단말(10)에서의 시선 움직임 추적에 따른 시선 움직임 데이터를 수신 또는 수집할 수 있다. 일 예로, 서버(30)는 단말(10)로부터의 이미지 추천 요청을 수신할 수 있는데, 이 경우 이미지 추천 요청은 시선 움직임 데이터를 포함할 수 있다. 따라서, 서버(30)는 이미지 추천 요청을 수신함과 더불어 시선 움직임 데이터를 수신한다고 볼 수 있다. 다른 예로서, 서버(30)는 이미지 추천 요청을 수신하기 전까지 단말(10)로부터 시선 움직임 데이터를 실시간으로 수신하여 저장해 둠으로써 시선 움직임 데이터를 수집한다고 볼 수 있다. 결국, 서버(30)의 입장에서는 수신 및 수집이 기술적으로 그리 큰 차이가 아니다.The
서버(30)가 수신 또는 수집하는 시선 움직임 데이터는 사용자의 시선이 소스 이미지의 범위내에 있는 것들이다. 이는 단말(10)에서 사용자의 시선이 소스 이미지의 범위를 벗어난 시선 움직임 데이터는 전송에서 제외하였기 때문이다.The gaze movement data received or collected by the
이하에서는 서버(30)가 시선 움직임 데이터를 실시간으로 수집하는 것으로 하고 설명한다.Hereinafter, it is assumed that the
서버(30)는 단말(10)로부터의 이미지 추천 요청을 수신함에 따라 그동안 수집해둔 시선 움직임 데이터를 근거로 사용자의 시선 움직임을 분석할 수 있다. 앞서 설명하였듯이, 각각의 시선 움직임 데이터는 소스 이미지에 대한 사용자의 시선의 시간별 위치 정보를 포함하므로, 서버(30)는 시선 움직임 데이터를 근거로 소스 이미지내에서 시선이 소스 이미지의 어느 특징을 주시하는지를 판단할 수 있다. 여기서, 특징은 공간 이미지(소스 이미지 포함)상에 나타난 객체들 및 공간 이미지(소스 이미지 포함)의 분위기를 포함할 수 있다. 또한, 주시하는지의 여부는 일정 시간 이상 위치하는지에 따라 판별가능하다.As the
즉, 서버(30)는 시선 움직임 데이터를 근거로 소스 이미지 상에서의 사용자의 시선의 움직임을 분석(또는 해석)하여 소스 이미지의 특징 각각에 대해 사용자의 시선이 향하는 주시 시간을 계산할 수 있다. 다시 말해서, 서버(30)는 소스 이미지내의 특징들 각각에 대해 시선이 얼마의 시간동안 머물렀는지를 계산할 수 있다. 예를 들어, 객체 1에 5개의 포커싱 위치가 있고 5개의 포커싱 위치에서의 머문 시간을 총합하면 객체 1에 시선이 머문 시간을 계산할 수 있다.That is, the
한편, 서버(30)는 시선 움직임 분석 결과를 근거로 소스 이미지의 분위기 가중치(MW, Mood Weight) 및 객체별 가중치(OW1 ~ OWn)(Object Weight)를 구한 후에 이를 데이터베이스(40)내의 공간 이미지 간의 유사도(TSIM, Total Similarity)에 반영할 수 있다. 여기서, 공간 이미지 간의 유사도(TSIM)는 비교대상이 되는 두 공간 이미지 간의 분위기 유사도 및 객체 간의 유사도를 근거로 생성될 수 있다. 예를 들어, 각각의 공간 이미지마다 분위기 및 하나 이상의 객체가 존재한다. 따라서, 공간 이미지 1과 공간 이미지 2 간의 유사도를 계산한다고 가정하였을 경우, 서버(30)는 공간 이미지 1의 분위기와 공간 이미지 2의 분위기 간의 유사도(MSIM, Mood Similarity)를 구할 수 있고, 공간 이미지 1의 객체와 공간 이미지 2의 객체 간의 유사도(OSIM, Object Similarity)를 구할 수 있다. 여기서, 공간 이미지 1의 객체와 공간 이미지 2의 객체는 상호 동일한 타입이어야 할 것이다. 서버(30)는 상술한 두 공간 이미지 간의 분위기 유사도(MSIM) 및 객체 간의 유사도(OSIM)를, 데이터베이스(40)내의 공간 이미지 테이블의 정보를 근거로 구할 수 있다. 특히, 서버(30)는 딥러닝 알고리즘에 따라 미리 학습된 모델을 통해 두 공간 이미지 간의 분위기 유사도(MSIM) 및 객체 간의 유사도(OSIM)를 구할 수 있다. 그리고, 서버(30)는 계산된 두 공간 이미지 간의 분위기 유사도(MSIM) 및 객체 간의 유사도(OSIM)를 합산하고, 합산 결과치를 두 공간 이미지 간의 유사도(TSIM)라고 할 수 있다.On the other hand, the
이와 같이 하면 서버(30)는 데이터베이스(40)내의 모든 공간 이미지 간의 유사도를 구할 수 있다.In this way, the
그리고, 서버(30)는 계산된 공간 이미지 간의 유사도(TSIM)에 근거하여 검색어에 상응하는 소스 이미지와 유사한 추천 공간 이미지를 결정할 수 있다. 이어, 서버(30)는 결정된 추천 공간 이미지를 단말(10)에게로 전송할 수 있다.In addition, the
데이터베이스(40)는 다수의 공간 이미지 각각의 특징들에 대한 정보를 포함하는 공간 이미지 테이블을 저장한다. 여기서, 특징들은 공간 이미지 상에 나타난 객체들 및 공간 이미지의 분위기를 포함할 수 있다.The
상술한 도 1에서는 데이터베이스(40)를 독립적으로 구성시켰으나, 필요에 따라서는 서버(30)에 포함되는 것으로 보아도 무방하다.Although the
도 2는 도 1에 도시된 서버(30)의 내부 구성도이고, 도 3은 본 발명의 실시예에서 검색어에 따라 제공되는 공간 이미지(즉, 소스 이미지)의 일 예를 나타낸 도면이고, 도 4 및 도 5는 도 1에 도시된 데이터베이스에 저장된 공간 이미지 테이블을 설명하기 위한 도면이고, 도 6은 본 발명의 실시예에서 시선 추적에 의해 수집되는 시선 움직임 데이터의 일 예를 나타낸 도면이고, 도 7은 본 발명의 실시예에서 공간 이미지 간의 유사도를 계산하는 과정을 설명하기 위해 채용되는 도면이다.FIG. 2 is an internal configuration diagram of the
서버(30)는 통신 모듈(32), 저장 모듈(34), 및 제어 모듈(36)를 포함할 수 있다. 필요에 따라, 통신 모듈(32)과 저장 모듈(34) 및 제어 모듈(36)은 통신 모듈부와 저장 모듈부 및 제어 모듈부라고도 칭할 수 있다.The
통신 모듈(32)은 단말(10)과 데이터를 주고받을 수 있다. 통신 모듈(32)는 무선 통신 방식 또는 유선 통신 방식에 따라 단말(10)과 데이터를 주고받을 수 있다. The
저장 모듈(34)은 서버(30)의 동작에 필요한 데이터를 저장할 수 있다. 실시 예들에 따라, 저장 모듈(34)은 통신 모듈(32)에서 수신한 단말(10)로부터의 시선 움직임 데이터를 저장할 수 있다. The
또한, 저장 모듈(34)은 제어 모듈(36)이 데이터베이스(40)에서 읽어낸 공간 이미지 테이블을 저장할 수 있다.Also, the
필요에 따라, 저장 모듈(34)은 데이터베이스일 수 있으나, 이에 한정되는 것은 아니다.If necessary, the
저장 모듈(34)은 서버(30)에 의해 수행되는 일련의 동작들을 수행하기 위한 명령어(instruction)들로 구성되는 프로그램을 저장할 수 있다.The
저장 모듈(34)은 비휘발성 메모리 장치 또는 휘발성 메모리 장치를 포함할 수 있다. 실시 예들에 따라, 저장 모듈(34)은 제어 모듈(36)에 포함되어 구성될 수 있으나, 이에 한정되는 것은 아니다.The
제어 모듈(36)은 서버(30)의 전반적인 동작들을 제어할 수 있다. The
제어 모듈(36)은 통신 모듈(32)을 통해 단말(10)로부터의 검색어를 수신할 수 있다.The
제어 모듈(36)은 데이터베이스(40)의 공간 이미지 테이블에서 해당 검색어에 상응하는 소스 이미지(도 3 참조)를 탐색할 수 있다. 보다 구체적으로는, 제어 모듈(36)은 탐색된 소스 이미지를 단말(10)에게로 전송하되, 1개의 소스 이미지를 전송할 수 있다. 예를 들어, 탐색된 소스 이미지가 1개라면 제어 모듈(36)은 탐색된 1개의 소스 이미지를 단말(10)에게로 전송할 수 있다. 한편, 탐색된 소스 이미지가 여러 개라면 제어 모듈(36)은 탐색된 여러 개의 소스 이미지 중에서 랜덤하게 1개의 소스 이미지를 선정하여 단말(10)에게로 전송할 수 있다. 상술한 소스 이미지는 단말(10)에서 사용자의 시선 움직임 데이터를 생성할 수 있도록 하기 위한 공간 이미지이다. 소스 이미지는 데이터베이스(40)의 다수의 공간 이미지들 중에서 검색어에 상응하는 공간 이미지이다. The
여기서, 소스 이미지는 도 3에 예시한 바와 같이 다양한 객체를 포함할 수 있다. 예를 들어, 창문(1), 벽(2), 테이블(3), 바닥(4) 등을 객체라고 할 수 있다.Here, the source image may include various objects as illustrated in FIG. 3 . For example, a window (1), a wall (2), a table (3), a floor (4), etc. can be called objects.
그리고, 상술한 공간 이미지 테이블은 도 4에 예시한 바와 같이 공간 이미지별 분위기(무드)의 정보(예컨대, 레벨값 또는 속성값)를 포함할 수 있다. 여기서, 분위기는 따뜻한 분위기, 차가운 분위기 등과 같이 공간 이미지마다의 느낌을 의미할 수 있다. In addition, as illustrated in FIG. 4 , the above-described spatial image table may include information (eg, a level value or an attribute value) of an atmosphere (mood) for each spatial image. Here, the atmosphere may mean a feeling for each spatial image, such as a warm atmosphere or a cold atmosphere.
또한, 공간 이미지 테이블은 도 5에 예시한 바와 같이 공간 이미지별 객체마다의 위치, 타입, 속성의 정보를 포함할 수 있다. 여기서, 위치는 공간 이미지내에서 해당 객체가 자리잡고 있는 위치를 의미할 수 있다. 타입은 테이블, 소파 등과 같이 해당 객체의 종류를 의미할 수 있다. 속성은 해당 객체의 크기, 색상 등이 될 수 있다.In addition, as illustrated in FIG. 5 , the spatial image table may include information on the location, type, and property of each object for each spatial image. Here, the position may mean a position where the corresponding object is located in the spatial image. A type may mean a type of a corresponding object, such as a table or sofa. The properties may be the size, color, etc. of the corresponding object.
따라서, 데이터베이스(40)의 공간 이미지 테이블이라고 하면 도 4의 공간 이미지 테이블 및 도 5의 공간 이미지 테이블을 총칭할 수 있다.Accordingly, the spatial image table of FIG. 4 and the spatial image table of FIG. 5 may be collectively referred to as the spatial image table of the
제어 모듈(36)은 단말(10)에서의 시선 움직임 추적에 따른 시선 움직임 데이터(도 6 참조)를 실시간으로 수집할 수 있다. 예를 들어, 도 3과 같은 소스 이미지에 대하여 시간에 따른 시선의 위치 정보가 도 6과 같을 수 있다. 사용자가 창문(1)을 보고 나서 벽(2)을 본 후에 테이블(3)을 보는 것으로 가정하였을 경우, 창문(1)에는 포커싱된 시선이 7군데 위치하고, 벽(2)에는 포커싱된 시선이 5군데 위치하고, 테이블(3)에는 포커싱된 시선이 10군데 위치할 수 있다. 그리고, 포커싱된 시선의 위치별로 시선이 머무른 시간이 상이할 수 있다. 여기서, 포커싱되었다라는 것은 사용자의 시선이 해당 위치의 객체를 주시한 것으로 이해할 수 있다. 이와 같이 단말(10)은 시선 움직임 추적에 따른 시선 움직임 데이터를 실시간으로 전송할 수 있다. 그에 따라, 제어 모듈(36)은 실시간으로 전송되어 오는 시선 움직임 데이터를 수집할 수 있다. The
제어 모듈(36)은 수집되는 시선 움직임 데이터를 저장 모듈(34)에 저장시킬 수 있다. 다시 말해서, 단말(10)은 사용자가 소스 이미지를 바라본 시점부터 이미지 추천 메뉴가 선택되기 전까지의 시선 움직임 데이터를 실시간으로 생성하여 서버(30)에게로 전송할 수 있다. 그에 따라, 제어 모듈(36)은 이미지 추천 요청을 수신하기 전까지의 시선 움직임 데이터를 실시간으로 수집하여 저장 모듈(34)에 저장시킬 수 있다. 여기서, 이미지 추천 요청은 사용자가 이미지 추천 요청 메뉴를 선택함에 따라 단말(10)에서 생성되는 것으로 한다.The
제어 모듈(36)은 단말(10)로부터의 이미지 추천 요청을 수신함에 따라 저장 모듈(34)에 저장해둔 시선 움직임 데이터를 근거로 사용자의 시선 움직임을 분석할 수 있다.The
시선 움직임 분석의 경우, 제어 모듈(36)은 수집된 시선 움직임 데이터 및 공간 이미지 테이블을 근거로 소스 이미지내에서 사용자의 시선이 소스 이미지의 어느 특징을 주시하는지를 판단할 수 있다. 다시 말해서, 제어 모듈(36)은 수집된 시선 움직임 데이터를 근거로 소스 이미지 상에서의 사용자의 시선의 움직임을 분석(또는 해석이라고 할 수 있음)하여 소스 이미지의 특징들 각각에 사용자의 시선이 향하는 주시 시간을 계산할 수 있다. 즉, 제어 모듈(36)은 시선 움직임 데이터를 근거로 사용자가 소스 이미지 내에 나타난 특징들(예컨대, 객체들 또는 분위기)을 주시하는지 여부를 결정할 수 있고, 주시가 계속되는 주시 시간을 계산할 수 있다.In the case of gaze movement analysis, the
사용자의 시선이 소스 이미지 상에 나타난 객체들 중 특정 객체에 계속하여 위치하는 경우, 해당 사용자는 상기 특정 객체를 주시하는 것으로 여겨질 수 있다. 반면, 사용자의 시선이 소스 이미지 상에 나타난 객체들 중 어느 객체에도 계속하여 위치하지 않는 경우, 해당 사용자는 특정 객체를 주시한다기 보다는 소스 이미지의 분위기를 주시하는 것으로 여겨질 수 있다.When the user's gaze is continuously positioned on a specific object among the objects displayed on the source image, the user may be considered to be gazing at the specific object. On the other hand, when the user's gaze is not continuously positioned on any of the objects displayed on the source image, the user may be considered to be gazing at the atmosphere of the source image rather than gazing at a specific object.
실시 예들에 따라, 제어 모듈(36)은 시선 움직임 데이터의 시계열 분석을 통해, 사용자의 시선이 소스 이미지에 나타낸 객체들 각각에 일정 시간 이상 지속하여 위치하는지 여부를 판단할 수 있다. 이 때, 상기 일정 시간은 미리 정해질 수도 있고, 변경될 수도 있다. 예를 들어, 제어 모듈(36)은 도 5의 공간 이미지 테이블을 참조하여, 사용자의 시선의 위치와 소스 이미지 상의 객체들의 위치를 비교함으로써 사용자의 시선이 소스 이미지에 나타낸 객체들 각각에 일정 시간 이상 지속하여 위치하는지 여부를 판단할 수 있다. 이 때, 제어 모듈(36)은 소스 이미지 상의 객체들 각각을 포함하는 소정의 영역을 설정하고, 상기 소정의 영역에 사용자의 시선의 위치가 포함되는 경우 사용자의 시선이 소스 이미지에 나타낸 객체에 위치하는 것으로 판단할 수 있다. According to embodiments, the
이 때, 제어 모듈(36)은 사용자의 시선이 상기 소정의 영역에 위치하는 시간에 비례하여 상기 소정의 영역의 크기를 감소시킬 수 있다. 사용자가 특정 객체를 주시하는 경우, 처음에는 특정 객체를 중심으로 넓은 영역을 주시하다가, 시간이 경과할수록 특정 객체를 중심으로 더 좁은 영역을 집중해서 주시를 하게 된다. 이에, 사용자의 시선이 위치하는 시간이 경과함에 따라 주시 여부를 판단하는 소정의 영역의 크기를 감소시키면, 사용자 시선이 특정 객체를 주시하는지 여부를 높은 신뢰도로 판단할 수 있다.In this case, the
제어 모듈(36)은 시선 움직임 데이터의 분석을 통해, 사용자의 시선이 객체들 각각에 일정 이상 지속하여 위치하는 시간(T1)을 계산할 수 있다. 이 때, 제어 모듈(36)은 소스 이미지 상에 나타난 객체들 별로 사용자의 시선이 일정 이상 지속하여 위치하는 시간(T1)을 계산할 수 있다. 또한, 제어 모듈(36)은 시선 움직임 데이터의 분석을 통해 사용자의 시선이 소스 이미지 상에 나타난 객체들 중 어느 것에도 일정 시간 이상 지속하여 위치하지 않는 시간(T2)을 계산할 수 있다.The
제어 모듈(36)은 사용자의 시선이 객체들 각각에 일정 시간 이상 지속하여 위치하는 시간(T1)을 객체들 각각에 대한 주시 시간으로 결정할 수 있다. 한편, 제어 모듈(36)은 사용자의 시선이 객체들 중 어느 것에도 일정 시간 이상 지속하여 위치하지 않는 시간(T2)을 분위기에 대한 주시 시간으로 결정할 수 있다.The
이와 같이 시선 움직임 분석을 한 이후에는, 제어 모듈(36)은 분위기에 대한 주시 시간(즉, T2)을 이용하여 소스 이미지의 분위기 가중치(MW, Mood Weight)를 계산한다. 또한, 제어 모듈(36)은 객체들 각각에 대한 주시 시간(즉, T1)을 이용하여 소스 이미지의 객체별 가중치(OW1 ~ OWn)(Object Weight)를 계산한다. 이후, 제어 모듈(36)은 도 7에서와 같이 계산한 소스 이미지의 분위기 가중치(MW) 및 객체별 가중치(OWi)를 근거로 공간 이미지 간의 유사도(TSIM, Total Similarity)를 계산할 수 있다.After analyzing the gaze movement in this way, the
여기서, 소스 이미지의 분위기 가중치(MW)는 하기의 식 1을 통해 구할 수 있고, 소스 이미지의 객체별 가중치(OWi)는 하기의 식 2를 통해 구할 수 있다.Here, the atmosphere weight (MW) of the source image can be obtained through
(식 1)(Equation 1)
(식 2)(Equation 2)
상기 식 1 및 식 2에서, T1i는 상기 소스 이미지의 i번째 객체에 상기 사용자의 시선이 일정 시간 이상 지속하여 위치한 시간을 의미하고, T2는 상기 사용자의 시선이 객체들 중 어느 객체에도 일정 시간 이상 지속하여 위치하지 않은 시간을 의미한다. In
일정 시간은 적절하게 설정될 수 있다.The predetermined time may be appropriately set.
여기서, 객체별 가중치에는 해당 객체에 시선이 머무는 시간이 고려되므로, 가장 많은 시간 동안 시선이 머문 객체에 대한 가중치가 다른 객체의 가중치에 비해 큰 값이 될 것이다.Here, since the time the gaze stays on the corresponding object is considered for the weight for each object, the weight of the object on which the gaze stays for the most time will be larger than the weight of other objects.
상술한 가중치(MW, OWi)를 공간 이미지 간의 유사도(TSIM)에 반영하는 것에 대해 부연설명한다. Reflecting the above-described weights (MW, OW i ) to the degree of similarity (TSIM) between spatial images will be described in detail.
도 7에 예시한 바와 같이, 제어 모듈(36)은 비교대상인 공간 이미지 1의 분위기와 공간 이미지 2의 분위기 간의 유사도(MSIM)를 계산하고, 공간 이미지 1의 객체(예컨대, 의자, 창문 등)와 공간 이미지 2의 객체(예컨대, 의자, 창문 등) 간의 유사도(OSIM1, OSIM2)를 계산한다. 여기서, 공간 이미지 1은 공간 이미지 테이블의 공간 이미지이되 검색어에 상응하는 소스 이미지이고, 공간 이미지 2는 공간 이미지 테이블의 공간 이미지들 중에서 소스 이미지 이외의 공간 이미지이다. As illustrated in FIG. 7 , the
그리고 나서, 제어 모듈(36)은 계산된 분위기 간의 유사도(MSIM) 및 객체 간의 유사도(OSIM1, OSIM2)를 총합하여 공간 이미지 간의 유사도(TSIM)를 구한다. 이때, 제어 모듈(36)은 계산된 분위기 간의 유사도(MSIM)에 분위기 가중치(MW)를 적용하고, 계산된 객체 간의 유사도(OSIM1, OSIM2)에 객체별 가중치(OWi)를 적용하여 공간 이미지 간의 유사도(TSIM)를 구한다. 여기서, 적용이라고 함은 합하거나 곱하는 것을 의미할 수 있다. 상술한 공간 이미지 간의 유사도(TSIM)는 소스 이미지(예컨대, 공간 이미지 1)와 다른 공간 이미지 간의 유사도(TSIM)를 의미한다.Then, the
즉, 제어 모듈(36)은 소스 이미지와 공간 이미지 테이블의 다른 공간 이미지간의 유사도를 계산할 수 있다. 이와 같이 하면 소스 이미지(예컨대, 공간 이미지 1)와 공간 이미지 2 간의 유사도(TSIM), 소스 이미지(예컨대, 공간 이미지 1)와 공간 이미지 3 간의 유사도(TSIM), 소스 이미지(예컨대, 공간 이미지 1)와 공간 이미지 4 간의 유사도(TSIM) 등을 구할 수 있다. 만약, 소스 이미지가 공간 이미지 1이 아니라 공간 이미지 3이었다면, 소스 이미지(공간 이미지 3)와 공간 이미지 1 간의 유사도(TSIM), 소스 이미지(공간 이미지 3)와 공간 이미지 2 간의 유사도(TSIM), 소스 이미지(공간 이미지 3)와 공간 이미지 4 간의 유사도(TSIM) 등을 구할 수 있다.That is, the
상기 열거한 공간 이미지의 수는 4개로 한정되는 것이 아니라, 더 많이 있을 수 있다.The number of spatial images listed above is not limited to four, but may be more.
이와 같이 가중치(MW, OWi)가 반영된 공간 이미지 간의 유사도(TSIM)를 구하게 되면, 제어 모듈(36)은 계산된 공간 이미지 간의 유사도(TSIM)에 근거하여 검색어에 상응하는 소스 이미지와 유사한 추천 공간 이미지(예컨대, 1 ~ 2개 정도)를 결정할 수 있다. 이 경우, 제어 모듈(36)은 공간 이미지 테이블내의 공간 이미지들 중에서 소스 이미지의 객체들 중에서 시선이 가장 오랫동안 머문 객체와 유사한 객체를 포함하는 공간 이미지를 추천 공간 이미지로 결정할 수 있다.When the similarity (TSIM) between the spatial images to which the weights (MW, OW i ) is reflected is obtained, the
제어 모듈(36)은 결정된 추천 공간 이미지를 통신 모듈(32)을 통해 단말(10)에게로 전송할 수 있다.The
제어 모듈(36)은 서버(30)의 동작을 위한 일련의 연산들 또는 판단들을 수행할 수 있는 장치를 의미할 수 있다. 예를 들어, 제어 모듈(36)는 CPU(central processing unit), MCU(micro controller unit), GPU(graphical processing unit), ASIC(application specific integrated circuit), 또는 FPGA(field programmable gate array)일 수 있으나, 이에 한정되는 것은 아니다.The
또한, 본 발명의 실시예에서는 제어 모듈(36)은 적어도 하나의 프로세서를 포함할 수 있는데, 적어도 하나의 프로세서가 서버(30)에서 수행되는 동작들을 제어할 수 있으며 시선 추적을 통한 공간 이미지 추천 서비스 동작이 수행되도록 서버(30) 내에 포함되는 다른 구성들을 제어할 수 있다. 따라서, 제어 모듈(36)이 시선 추적을 통한 공간 이미지 추천 서비스 동작이 수행되도록 제어하는 경우를 예로 들어 설명하더라도, 제어 모듈(36)에 포함되는 적어도 하나의 프로세서가 시선 추적을 통한 공간 이미지 추천 서비스 동작이 수행되도록 제어할 수 있음은 자명하다 할 것이다.In addition, in the embodiment of the present invention, the
도 8은 본 발명의 실시예에 따른 시선 추적을 통한 공간 이미지 추천 방법을 설명하기 위한 플로우차트이다.8 is a flowchart for explaining a spatial image recommendation method through eye tracking according to an embodiment of the present invention.
먼저, 서버(30)는 단말(10)로부터의 검색어를 수신한다(S10).First, the
서버(30)는 검색어를 수신함에 따라 데이터베이스(40)에서 해당 검색어에 상응하는 공간 이미지를 탐색하여 소스 이미지로서 단말(10)에게로 전송한다(S20).Upon receiving the search word, the
이어, 단말(10)은 카메라(20)와 연계하여 소스 이미지에서의 사용자의 시선 움직임을 추적하고, 추적에 따라 실시간으로 시선 움직임 데이터를 생성하여 서버(30)에게로 전송한다(S30).Next, the terminal 10 tracks the user's gaze movement in the source image in association with the
그에 따라, 서버(30)는 단말(10)로부터의 시선 움직임 데이터를 수집하여 저장 모듈(34)에 저장시킨다(S40).Accordingly, the
이후, 서버(30)는 단말(10)로부터의 이미지 추천 요청을 수신한다(S50).Thereafter, the
서버(30)는 단말(10)로부터의 이미지 추천 요청을 수신함에 따라 그동안 수집해둔 시선 움직임 데이터를 근거로 사용자의 시선 움직임을 분석한다(S60).When the
그리고 나서, 서버(30)는 시선 움직임 분석 결과를 근거로 공간 이미지 간의 유사도(TSIM)를 계산한다(S70). 예를 들어, 시선 움직임 분석 결과를 근거로 소스 이미지의 분위기 가중치(MW) 및 객체별 가중치(OW1 ~ OWn)를 구한 후에 이들을 근거로 공간 이미지 간의 유사도(TSIM)를 계산한다.Then, the
서버(30)는 계산된 공간 이미지 간의 유사도(TSIM)에 근거하여 검색어에 상응하는 소스 이미지와 유사한 추천 공간 이미지를 결정한다(S80).The
이어, 서버(30)는 결정된 추천 공간 이미지를 단말(10)에게로 전송한다(S90).Next, the
또한, 상술한 본 발명의 시선 추적을 통한 공간 이미지 추천 방법은, 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 방법을 구현하기 위한 기능적인(function) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.In addition, the spatial image recommendation method through eye tracking of the present invention described above can be implemented as a computer-readable code on a computer-readable recording medium. The computer-readable recording medium includes all types of recording devices in which data readable by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage device. In addition, the computer-readable recording medium is distributed in a computer system connected through a network, so that the computer-readable code can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the method can be easily inferred by programmers in the art to which the present invention pertains.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical spirit of the present invention, and various modifications and variations will be possible without departing from the essential characteristics of the present invention by those skilled in the art to which the present invention pertains. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed by the following claims, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.
10 : 단말 20 :카메라
30 : 서버 32 : 통신 모듈
34 : 저장 모듈 36 : 제어 모듈
40 : 데이터베이스10: terminal 20: camera
30: server 32: communication module
34: storage module 36: control module
40: database
Claims (10)
연산 처리 기능을 갖는 제어 모듈;을 포함하고,
상기 제어 모듈은, 상기 저장 모듈에 저장된 복수의 명령들에 기초하여,
사용자의 단말로부터 수신된 검색어에 상응하는 공간 이미지를 상기 공간 이미지 테이블에서 탐색하여 소스 이미지로서 상기 단말에게로 전송하고,
상기 소스 이미지를 표시하는 상기 단말로부터 상기 소스 이미지에 대한 사용자의 시선 움직임 데이터를 수집하고,
상기 수집된 시선 움직임 데이터 및 상기 공간 이미지 테이블을 근거로 시선 움직임을 분석하고,
상기 시선 움직임의 분석 결과를 근거로 상기 소스 이미지와 상기 공간 이미지 테이블의 다른 공간 이미지 간의 유사도를 계산하고,
상기 계산된 공간 이미지 간의 유사도에 근거하여 상기 다수의 공간 이미지들 중에서 상기 소스 이미지와 유사한 공간 이미지를 추천 공간 이미지로서 상기 단말에게로 제공하고,
상기 시선 움직임 데이터는 상기 소스 이미지에 대한 상기 사용자의 시선의 시간별 위치 정보를 포함하고, 상기 제어 모듈은 상기 시선 움직임 데이터를 근거로 상기 소스 이미지 상에서의 시선의 움직임을 분석하여 상기 소스 이미지의 특징들 각각에 상기 사용자의 시선이 향하는 주시 시간을 계산하고, 특징들 각각의 주시 시간에 기초하여 공간 이미지 간의 유사도를 계산하고,
상기 특징들은 상기 공간 이미지 상에 나타난 객체들 및 상기 공간 이미지의 분위기를 포함하고, 상기 제어 모듈은 상기 사용자의 시선이 상기 객체들 각각에 일정 시간 이상 지속하여 위치하는 시간을 상기 객체들 각각에 대한 주시 시간으로 결정하고, 상기 사용자의 시선이 상기 객체들 중 어느 것에도 일정 시간 이상 지속하여 위치하지 않는 시간을 상기 분위기에 대한 주시 시간으로 결정하고,
상기 제어 모듈은
상기 분위기에 대한 주시 시간을 이용하여 상기 소스 이미지의 분위기 가중치를 계산하고, 상기 객체들 각각에 대한 주시 시간을 이용하여 상기 소스 이미지의 객체별 가중치를 계산하고, 계산된 상기 분위기 가중치 및 객체별 가중치를 근거로 상기 공간 이미지 간의 유사도를 계산하고,
상기 소스 이미지는 n개의 객체들을 포함하고, 상기 분위기 가중치는 하기의 식 1을 통해 계산되고,
상기 객체별 가중치는 하기의 식 2를 통해 계산되는,
시선 추적을 통한 공간 이미지 추천 장치.
(식 1)
(식 2)
(T1i는 상기 소스 이미지의 i(i≤n)번째 객체에 상기 사용자의 시선이 일정 시간 이상 지속하여 위치한 시간을 의미하고, T2는 상기 사용자의 시선이 객체들 중 어느 객체에도 일정 시간 이상 지속하여 위치하지 않은 시간을 의미한다.)a storage module for storing a spatial image table including information on characteristics of each of the plurality of spatial images; and
Including; a control module having an arithmetic processing function;
The control module, based on the plurality of commands stored in the storage module,
Searching for a spatial image corresponding to the search word received from the user's terminal in the spatial image table and transmitting it to the terminal as a source image,
Collecting the user's gaze movement data for the source image from the terminal displaying the source image,
Analyze the gaze movement based on the collected gaze movement data and the spatial image table,
calculating a similarity between the source image and another spatial image of the spatial image table based on the analysis result of the gaze movement;
providing a spatial image similar to the source image among the plurality of spatial images to the terminal as a recommended spatial image based on the calculated similarity between the spatial images;
The gaze movement data includes time-based location information of the user's gaze with respect to the source image, and the control module analyzes the gaze movement on the source image based on the gaze movement data to obtain features of the source image. calculating the gaze time to which the user's gaze is directed to each, and calculating the similarity between spatial images based on the gaze time of each feature,
The features include the objects displayed on the spatial image and the atmosphere of the spatial image, and the control module determines the time for which the user's gaze continues to be located on each of the objects for a predetermined time or longer for each of the objects. determining the gaze time, and determining the time when the user's gaze is not located on any of the objects for a certain period of time or longer as the gaze time for the atmosphere;
The control module is
The atmosphere weight of the source image is calculated using the gaze time for the atmosphere, the weight of each object of the source image is calculated using the gaze time of each of the objects, and the calculated atmosphere weight and the weight for each object are calculated. Calculate the similarity between the spatial images based on
The source image includes n objects, and the atmosphere weight is calculated through Equation 1 below,
The weight for each object is calculated through Equation 2 below,
Spatial image recommendation device through eye tracking.
(Equation 1)
(Equation 2)
(T1 i means the time when the user's gaze is continuously located on the i(i≤n)-th object of the source image for a predetermined time or more, and T2 is the time when the user's gaze is continuously located on any of the objects for a predetermined time or more It means the time when it is not located.)
상기 제어 모듈은,
상기 소스 이미지의 분위기와 상기 다른 공간 이미지의 분위기 간의 유사도를 구하고, 상기 소스 이미지의 객체와 상기 다른 공간 이미지의 객체 간의 유사도를 구하고, 계산된 분위기 간의 유사도 및 객체 간의 유사도를 이용하여 공간 이미지 간의 유사도를 구하되, 상기 분위기 간의 유사도에 상기 분위기 가중치를 적용하고, 상기 객체 간의 유사도에 상기 객체별 가중치를 적용하여 상기 소스 이미지와 상기 다른 공간 이미지 간의 유사도를 계산하는,
시선 추적을 통한 공간 이미지 추천 장치.The method of claim 1,
The control module is
The degree of similarity between the atmosphere of the source image and the atmosphere of the other spatial image is obtained, the degree of similarity between the object of the source image and the object of the other spatial image is obtained, and the degree of similarity between spatial images using the calculated similarity between atmospheres and the similarity between objects calculating the similarity between the source image and the other spatial image by applying the atmosphere weight to the degree of similarity between the atmospheres, and applying the weight for each object to the degree of similarity between the objects,
Spatial image recommendation device through eye tracking.
상기 제어 모듈은,
사용자가 상기 소스 이미지를 바라본 시점부터 이미지 추천 요청 메뉴가 선택되기 전까지의 시선 움직임 데이터를 상기 단말로부터 수집하는,
시선 추적을 통한 공간 이미지 추천 장치.The method of claim 1,
The control module is
Collecting gaze movement data from the terminal from the time the user looks at the source image until the image recommendation request menu is selected,
Spatial image recommendation device through eye tracking.
다수의 공간 이미지 각각의 특징들에 대한 정보를 포함하는 공간 이미지 테이블에서 사용자의 단말로부터 수신된 검색어에 상응하는 공간 이미지를 탐색하여 소스 이미지로서 상기 단말에게로 전송하는 단계;
상기 소스 이미지를 표시하는 상기 단말로부터 상기 소스 이미지에 대한 사용자의 시선 움직임 데이터를 수집하는 단계;
상기 수집된 시선 움직임 데이터 및 상기 공간 이미지 테이블을 근거로 시선 움직임을 분석하는 단계;
상기 시선 움직임의 분석 결과를 근거로 상기 소스 이미지와 상기 공간 이미지 테이블의 다른 공간 이미지 간의 유사도를 계산하는 단계; 및
상기 계산된 공간 이미지 간의 유사도에 근거하여 상기 다수의 공간 이미지들 중에서 상기 소스 이미지와 유사한 공간 이미지를 추천 공간 이미지로서 상기 단말에게로 제공하는 단계;를 포함하고,
상기 시선 움직임 데이터는 상기 소스 이미지에 대한 상기 사용자의 시선의 시간별 위치 정보를 포함하고,
상기 특징들은 상기 공간 이미지 상에 나타난 객체들 및 상기 공간 이미지의 분위기를 포함하고
상기 시선 움직임을 분석하는 단계는 상기 시선 움직임 데이터를 근거로 상기 소스 이미지 상에서의 시선의 움직임을 분석하여 상기 소스 이미지의 특징들 각각에 상기 사용자의 시선이 향하는 주시 시간을 계산하되, 상기 사용자의 시선이 상기 객체들 각각에 일정 시간 이상 지속하여 위치하는 시간을 상기 객체들 각각에 대한 주시 시간으로 결정하고, 상기 사용자의 시선이 상기 객체들 중 어느 것에도 일정 시간 이상 지속하여 위치하지 않는 시간을 상기 분위기에 대한 주시 시간으로 결정하고,
상기 공간 이미지 간의 유사도를 계산하는 단계는 상기 특징들 각각의 주시 시간에 기초하여 공간 이미지 간의 유사도를 계산하되, 상기 분위기에 대한 주시 시간을 이용하여 상기 소스 이미지의 분위기 가중치를 계산하고, 상기 객체들 각각에 대한 주시 시간을 이용하여 상기 소스 이미지의 객체별 가중치를 계산하고, 계산된 상기 분위기 가중치 및 객체별 가중치를 근거로 상기 공간 이미지 간의 유사도를 계산하고,
상기 소스 이미지는 n개의 객체들을 포함하고, 상기 분위기 가중치는 하기의 식 1을 통해 계산되고,
상기 객체별 가중치는 하기의 식 2를 통해 계산되는,
시선 추적을 통한 공간 이미지 추천 방법.
(식 1)
(식 2)
(T1i는 상기 소스 이미지의 i(i≤n)번째 객체에 상기 사용자의 시선이 일정 시간 이상 지속하여 위치한 시간을 의미하고, T2는 상기 사용자의 시선이 객체들 중 어느 객체에도 일정 시간 이상 지속하여 위치하지 않은 시간을 의미한다.)As a method performed in a spatial image recommendation device through eye tracking,
retrieving a spatial image corresponding to a search word received from a user's terminal in a spatial image table including information on characteristics of each of a plurality of spatial images and transmitting it to the terminal as a source image;
collecting the user's gaze movement data with respect to the source image from the terminal displaying the source image;
analyzing the gaze movement based on the collected gaze movement data and the spatial image table;
calculating a similarity between the source image and another spatial image of the spatial image table based on the analysis result of the gaze movement; and
providing, as a recommended spatial image, a spatial image similar to the source image among the plurality of spatial images to the terminal based on the calculated similarity between the spatial images;
The gaze movement data includes time-based location information of the user's gaze with respect to the source image,
The characteristics include objects appearing on the spatial image and an atmosphere of the spatial image,
In the analyzing the gaze movement, the gaze movement on the source image is analyzed based on the gaze movement data to calculate a gaze time at which the user's gaze is directed to each of the features of the source image, but the user's gaze A time to be continuously located on each of the objects for a predetermined time or more is determined as a gaze time for each of the objects, and a time during which the user's gaze is not located on any of the objects for a certain period of time or longer is said Determined by the watch time for the atmosphere,
Calculating the similarity between the spatial images includes calculating the similarity between spatial images based on the gaze time of each of the features, calculating the atmosphere weight of the source image using the gaze time for the atmosphere, and calculating a weight for each object of the source image using the gaze time for each, and calculating a similarity between the spatial images based on the calculated atmosphere weight and weight for each object;
The source image includes n objects, and the atmosphere weight is calculated through Equation 1 below,
The weight for each object is calculated through Equation 2 below,
A spatial image recommendation method through eye tracking.
(Equation 1)
(Equation 2)
(T1 i means the time when the user's gaze is continuously located on the i(i≤n)-th object of the source image for a predetermined time or more, and T2 is the time when the user's gaze is continuously located on any of the objects for a predetermined time or more It means the time when it is not located.)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/KR2022/095071 WO2023191259A1 (en) | 2022-03-30 | 2022-03-30 | Device and method for recommending spatial image through gaze tracking |
KR1020220039895A KR102443797B1 (en) | 2022-03-30 | 2022-03-30 | Apparatus and method for spatial image recommendation through eye tracking |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220039895A KR102443797B1 (en) | 2022-03-30 | 2022-03-30 | Apparatus and method for spatial image recommendation through eye tracking |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102443797B1 true KR102443797B1 (en) | 2022-09-16 |
Family
ID=83445180
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220039895A KR102443797B1 (en) | 2022-03-30 | 2022-03-30 | Apparatus and method for spatial image recommendation through eye tracking |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102443797B1 (en) |
WO (1) | WO2023191259A1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101350526B1 (en) | 2009-07-10 | 2014-01-10 | 페킹 유니버시티 | Image manipulation based on tracked eye movement |
KR101564042B1 (en) | 2014-03-14 | 2015-10-29 | 동양대학교 산학협력단 | A method on the characteristics of space search shown at observation seen in the process of perception and recognition of space and system thereof |
KR20200114838A (en) * | 2019-03-29 | 2020-10-07 | 경북대학교 산학협력단 | Electronic apparatus and control method thereof |
KR102234609B1 (en) * | 2020-07-23 | 2021-04-02 | 주식회사 어반베이스 | Apparatus and method for recommending goods based on analysis of image database |
KR20210109275A (en) * | 2020-02-27 | 2021-09-06 | 삼성전자주식회사 | Method and apparatus of predicting user's object of interest |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101850101B1 (en) * | 2012-01-31 | 2018-04-19 | 한국전자통신연구원 | Method for providing advertising using eye-gaze |
KR101978299B1 (en) * | 2012-10-24 | 2019-05-14 | 에스케이플래닛 주식회사 | Apparatus for service contents in contents service system |
-
2022
- 2022-03-30 WO PCT/KR2022/095071 patent/WO2023191259A1/en unknown
- 2022-03-30 KR KR1020220039895A patent/KR102443797B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101350526B1 (en) | 2009-07-10 | 2014-01-10 | 페킹 유니버시티 | Image manipulation based on tracked eye movement |
KR101564042B1 (en) | 2014-03-14 | 2015-10-29 | 동양대학교 산학협력단 | A method on the characteristics of space search shown at observation seen in the process of perception and recognition of space and system thereof |
KR20200114838A (en) * | 2019-03-29 | 2020-10-07 | 경북대학교 산학협력단 | Electronic apparatus and control method thereof |
KR20210109275A (en) * | 2020-02-27 | 2021-09-06 | 삼성전자주식회사 | Method and apparatus of predicting user's object of interest |
KR102234609B1 (en) * | 2020-07-23 | 2021-04-02 | 주식회사 어반베이스 | Apparatus and method for recommending goods based on analysis of image database |
Also Published As
Publication number | Publication date |
---|---|
WO2023191259A1 (en) | 2023-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10838967B2 (en) | Emotional intelligence for a conversational chatbot | |
US20200327311A1 (en) | Image clustering method and apparatus, electronic device, and storage medium | |
US11036991B2 (en) | Information display method, device, and system | |
WO2020199932A1 (en) | Model training method, face recognition method, device and apparatus, and storage medium | |
CN110245213B (en) | Questionnaire generation method, device, equipment and storage medium | |
US11397462B2 (en) | Real-time human-machine collaboration using big data driven augmented reality technologies | |
Avrahami et al. | Below the surface: Unobtrusive activity recognition for work surfaces using RF-radar sensing | |
US20200394216A1 (en) | Method and device for video processing, electronic device, and storage medium | |
US20150046496A1 (en) | Method and system of generating an implicit social graph from bioresponse data | |
KR20150122666A (en) | Method and device for calibration-free gaze estimation | |
CN113301442B (en) | Method, device, medium, and program product for determining live broadcast resource | |
CN110135497B (en) | Model training method, and method and device for estimating strength of facial action unit | |
CN104243276B (en) | A kind of contact person recommends method and device | |
US20140333746A1 (en) | Method and apparatus for inquiring information | |
JP7224442B2 (en) | Method and apparatus for reducing false positives in face recognition | |
JP2023541752A (en) | Neural network model training methods, image retrieval methods, equipment and media | |
CN113723159A (en) | Scene recognition model training method, scene recognition method and model training device | |
KR20130024739A (en) | System and method for analyzing experience in real time | |
KR102443797B1 (en) | Apparatus and method for spatial image recommendation through eye tracking | |
KR101720584B1 (en) | Method, server and computer program for generating thumbnail image | |
CN111343338B (en) | Wallpaper switching method and device, mobile terminal and storage medium | |
CN113313735B (en) | Panoramic video data processing method and device | |
KR102402684B1 (en) | Method for providing an information of self skin condition based on big data in non-facing environment | |
CN116453005A (en) | Video cover extraction method and related device | |
CN112256976B (en) | Matching method and related device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |