KR102443797B1 - Apparatus and method for spatial image recommendation through eye tracking - Google Patents

Apparatus and method for spatial image recommendation through eye tracking Download PDF

Info

Publication number
KR102443797B1
KR102443797B1 KR1020220039895A KR20220039895A KR102443797B1 KR 102443797 B1 KR102443797 B1 KR 102443797B1 KR 1020220039895 A KR1020220039895 A KR 1020220039895A KR 20220039895 A KR20220039895 A KR 20220039895A KR 102443797 B1 KR102443797 B1 KR 102443797B1
Authority
KR
South Korea
Prior art keywords
gaze
image
spatial
time
source image
Prior art date
Application number
KR1020220039895A
Other languages
Korean (ko)
Inventor
김태현
Original Assignee
쉐어잇 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 쉐어잇 주식회사 filed Critical 쉐어잇 주식회사
Priority to PCT/KR2022/095071 priority Critical patent/WO2023191259A1/en
Priority to KR1020220039895A priority patent/KR102443797B1/en
Application granted granted Critical
Publication of KR102443797B1 publication Critical patent/KR102443797B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/432Query formulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/44Browsing; Visualisation therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/44Browsing; Visualisation therefor
    • G06F16/444Spatial browsing, e.g. 2D maps, 3D or virtual spaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer

Abstract

A device for recommending a spatial image through eye tracking and a method thereof are disclosed. According to the present invention, the device comprises a control module having a calculation processing function. The control module is able to search a spatial image corresponding to a search keyword from a terminal of a user in a spatial image table, transmit the spatial image as a source image to a terminal, collect an eye movement data of the user for the source image from the terminal displaying the source image, analyze the eye movement based on the collected eye movement data and the spatial image table, calculate the similarity between the source image and another spatial image of the spatial image table based on the results of analysis of eye movement, and provide a spatial image similar to the source image as a recommended spatial image among a large number of spatial images to the terminal based on the calculated similarity between the spatial images. The present is able to recommend a proper spatial image.

Description

시선 추적을 통한 공간 이미지 추천 장치 및 방법{Apparatus and method for spatial image recommendation through eye tracking}Apparatus and method for spatial image recommendation through eye tracking}

본 발명은 시선 추적을 통한 공간 이미지 추천 장치 및 방법에 관한 것으로, 보다 상세하게는 사용자의 시선 추적을 통하여 사용자에게 추천 공간 이미지를 제공할 수 있는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for recommending a spatial image through eye tracking, and more particularly, to an apparatus and method for providing a recommended spatial image to a user through eye tracking.

개인 일상 생활에서 뉴스, 메일, 동영상, SNS, 메신저 등의 서비스를 사용할 때 디스플레이 기반(PC 모니터, 테블릿, TV, 핸드폰 등)으로 정보 소비가 늘어나고 있다. When using services such as news, mail, video, SNS, and messenger in personal daily life, information consumption is increasing due to display-based (PC monitor, tablet, TV, mobile phone, etc.).

현대인의 경우 일과 시간 중 50% 이상 디스플레이를 응시하고 있고 핸드폰의 경우 거의 24시간 신체에 밀착하고 있다. In the case of modern people, they stare at the display more than 50% of the time during the day, and in the case of cell phones, they are in close contact with the body for almost 24 hours.

시선을 추적해서 사용자의 의도를 파악하는 기술은 광고, 마케팅, 커뮤니케이션 영역에서 많이 있어 왔다. 근래에는 컴퓨터, 휴대전화, TV 등과 같은 전자제품에 전방 카메라가 기본적으로 탑재되어 있어서 이를 이용하면 간단한 시선 정보를 수집할 수 있게 되었다. There have been many technologies in the fields of advertising, marketing, and communication to identify the intention of a user by tracking the gaze. In recent years, electronic products such as computers, mobile phones, and TVs are equipped with front cameras by default, so simple gaze information can be collected by using them.

이상의 배경기술에 기재된 사항은 발명의 배경에 대한 이해를 돕기 위한 것으로서, 공개된 종래 기술이 아닌 사항을 포함할 수 있다.The matters described in the background art above are intended to help the understanding of the background of the invention, and may include matters that are not disclosed   prior art.

선행기술 1 : 대한민국 등록특허 제10-1564042호(공간주시특성을 이용한 공간탐색 특성정보 추출방법)Prior art 1: Republic of Korea Patent Registration No. 10-1564042 (Spatial search characteristic information extraction method using spatial gaze characteristic) 선행기술 2 : 대한민국 등록특허 제10-1350526호(추적된 시선 움직임에 기초한 이미지 조작)Prior art 2: Republic of Korea Patent Registration No. 10-1350526 (image manipulation based on tracked gaze movement)

본 발명은 상기한 종래의 사정을 감안하여 제안된 것으로, 사용자의 시선을 추적하여 사용자의 시선이 공간 이미지 중에서 어디에 주로 머물러 있는지에 따라 적절한 추천 공간 이미지를 제공할 수 있도록 하는 시선 추적을 통한 공간 이미지 추천 장치 및 방법을 제공함에 그 목적이 있다.The present invention has been proposed in view of the above-described conventional circumstances, and a spatial image through eye tracking that tracks the user's gaze to provide an appropriate recommended spatial image according to where the user's gaze mainly stays among the spatial images. An object of the present invention is to provide a recommended apparatus and method.

상기와 같은 목적을 달성하기 위하여 본 발명의 바람직한 실시양태에 따른 시선 추적을 통한 공간 이미지 추천 장치는, 다수의 공간 이미지 각각의 특징들에 대한 정보를 포함하는 공간 이미지 테이블을 저장하는 저장 모듈; 및 연산 처리 기능을 갖는 제어 모듈;을 포함하고, 상기 제어 모듈은, 상기 저장 모듈에 저장된 복수의 명령들에 기초하여, 사용자의 단말로부터 수신된 검색어에 상응하는 공간 이미지를 상기 공간 이미지 테이블에서 탐색하여 소스 이미지로서 상기 단말에게로 전송하고, 상기 소스 이미지를 표시하는 상기 단말로부터 상기 소스 이미지에 대한 사용자의 시선 움직임 데이터를 수집하고, 상기 수집된 시선 움직임 데이터 및 상기 공간 이미지 테이블을 근거로 시선 움직임을 분석하고, 상기 시선 움직임의 분석 결과를 근거로 상기 소스 이미지와 상기 공간 이미지 테이블의 다른 공간 이미지 간의 유사도를 계산하고, 상기 계산된 공간 이미지 간의 유사도에 근거하여 상기 다수의 공간 이미지들 중에서 상기 소스 이미지와 유사한 공간 이미지를 추천 공간 이미지로서 상기 단말에게로 제공한다.In order to achieve the above object, an apparatus for recommending a spatial image through eye tracking according to a preferred embodiment of the present invention includes: a storage module for storing a spatial image table including information on features of a plurality of spatial images; and a control module having an arithmetic processing function, wherein the control module searches the spatial image table for a spatial image corresponding to a search word received from a user's terminal based on a plurality of commands stored in the storage module. to transmit to the terminal as a source image, collect user's gaze movement data for the source image from the terminal displaying the source image, and gaze movement based on the collected gaze movement data and the spatial image table , calculates a similarity between the source image and another spatial image in the spatial image table based on the analysis result of the gaze movement, and calculates a similarity between the spatial images from among the plurality of spatial images based on the calculated similarity between the spatial images. A spatial image similar to the image is provided to the terminal as a recommended spatial image.

상기 시선 움직임 데이터는 상기 소스 이미지에 대한 상기 사용자의 시선의 시간별 위치 정보를 포함하고, 상기 제어 모듈은, 상기 시선 움직임 데이터를 근거로 상기 소스 이미지 상에서의 시선의 움직임을 분석하여 상기 소스 이미지의 특징들 각각에 상기 사용자의 시선이 향하는 주시 시간을 계산하고, 특징들 각각의 주시 시간에 기초하여 공간 이미지 간의 유사도를 계산할 수 있다.The gaze movement data includes time-based location information of the user's gaze with respect to the source image, and the control module analyzes the gaze movement on the source image based on the gaze movement data to determine the characteristics of the source image. A gaze time to which the user's gaze is directed may be calculated for each of the features, and a degree of similarity between spatial images may be calculated based on the gaze time of each of the features.

상기 특징들은 상기 공간 이미지 상에 나타난 객체들 및 상기 공간 이미지의 분위기를 포함하고, 상기 제어 모듈은, 상기 사용자의 시선이 상기 객체들 각각에 일정 시간 이상 지속하여 위치하는 시간을 상기 객체들 각각에 대한 주시 시간으로 결정하고, 상기 사용자의 시선이 상기 객체들 중 어느 것에도 일정 시간 이상 지속하여 위치하지 않는 시간을 상기 분위기에 대한 주시 시간으로 결정할 수 있다.The features include the objects displayed on the spatial image and the atmosphere of the spatial image, and the control module is configured to determine a time for which the user's gaze continues to be located on each of the objects for a predetermined time or more to each of the objects. may be determined as a gaze time for the atmosphere, and a time in which the user's gaze is not located on any of the objects for a predetermined time or longer may be determined as the gaze time for the atmosphere.

상기 제어 모듈은, 상기 분위기에 대한 주시 시간을 이용하여 상기 소스 이미지의 분위기 가중치를 계산하고, 상기 객체들 각각에 대한 주시 시간을 이용하여 상기 소스 이미지의 객체별 가중치를 계산하고, 계산된 상기 분위기 가중치 및 객체별 가중치를 근거로 상기 공간 이미지 간의 유사도를 계산할 수 있다.The control module is configured to calculate an atmosphere weight of the source image by using the gaze time for the atmosphere, calculate a weight for each object of the source image by using the gaze time for each of the objects, and calculate the calculated atmosphere The similarity between the spatial images may be calculated based on the weight and the weight for each object.

상기 분위기 가중치는 하기의 식 1을 통해 계산되고, 상기 객체별 가중치는 하기의 식 2를 통해 계산될 수 있다.The atmosphere weight may be calculated through Equation 1 below, and the weight for each object may be calculated through Equation 2 below.

(식 1)(Equation 1)

Figure 112022034431070-pat00001
Figure 112022034431070-pat00001

(식 2)(Equation 2)

Figure 112022034431070-pat00002
Figure 112022034431070-pat00002

(T1i는 상기 소스 이미지의 i번째 객체에 상기 사용자의 시선이 일정 시간 이상 지속하여 위치한 시간을 의미하고, T2는 상기 사용자의 시선이 객체들 중 어느 객체에도 일정 시간 이상 지속하여 위치하지 않은 시간을 의미한다)(T1 i means a time when the user's gaze is continuously located on the i-th object of the source image for a predetermined time or more, and T2 is a time when the user's gaze is not located on any of the objects for a predetermined time or more means)

상기 제어 모듈은, 상기 소스 이미지의 분위기와 상기 다른 공간 이미지의 분위기 간의 유사도를 구하고, 상기 소스 이미지의 객체와 상기 다른 공간 이미지의 객체 간의 유사도를 구하고, 계산된 분위기 간의 유사도 및 객체 간의 유사도를 이용하여 공간 이미지 간의 유사도를 구하되, 상기 분위기 간의 유사도에 상기 분위기 가중치를 적용하고, 상기 객체 간의 유사도에 상기 객체별 가중치를 적용하여 상기 소스 이미지와 상기 다른 공간 이미지 간의 유사도를 계산할 수 있다.The control module obtains the similarity between the atmosphere of the source image and the atmosphere of the other spatial image, obtains the similarity between the object of the source image and the object of the other spatial image, and uses the calculated similarity between atmospheres and the similarity between objects Thus, the similarity between the spatial images is obtained, and the atmosphere weight is applied to the similarity between the atmospheres, and the weight for each object is applied to the similarity between the objects to calculate the similarity between the source image and the other spatial image.

상기 제어 모듈은, 사용자가 상기 소스 이미지를 바라본 시점부터 이미지 추천 메뉴가 선택되기 전까지의 시선 움직임 데이터를 상기 단말로부터 수집할 수 있다.The control module may collect gaze movement data from the terminal when the user looks at the source image until the image recommendation menu is selected.

한편, 본 발명의 바람직한 실시양태에 따른 시선 추적을 통한 공간 이미지 추천 방법은, 시선 추적을 통한 공간 이미지 추천 장치에서 수행되는 방법으로서, 다수의 공간 이미지 각각의 특징들에 대한 정보를 포함하는 공간 이미지 테이블에서 사용자의 단말로부터 수신된 검색어에 상응하는 공간 이미지를 탐색하여 소스 이미지로서 상기 단말에게로 전송하는 단계; 상기 소스 이미지를 표시하는 상기 단말로부터 상기 소스 이미지에 대한 사용자의 시선 움직임 데이터를 수집하는 단계; 상기 수집된 시선 움직임 데이터 및 상기 공간 이미지 테이블을 근거로 시선 움직임을 분석하는 단계; 상기 시선 움직임의 분석 결과를 근거로 상기 소스 이미지와 상기 공간 이미지 테이블의 다른 공간 이미지 간의 유사도를 계산하는 단계; 및 상기 계산된 공간 이미지 간의 유사도에 근거하여 상기 다수의 공간 이미지들 중에서 상기 소스 이미지와 유사한 공간 이미지를 추천 공간 이미지로서 상기 단말에게로 제공하는 단계;를 포함한다.On the other hand, the spatial image recommendation method through eye tracking according to a preferred embodiment of the present invention is a method performed in a spatial image recommendation device through eye tracking, and a spatial image including information on features of each of a plurality of spatial images. Searching for a spatial image corresponding to the search word received from the user's terminal in the table and transmitting it to the terminal as a source image; collecting the user's gaze movement data with respect to the source image from the terminal displaying the source image; analyzing the gaze movement based on the collected gaze movement data and the spatial image table; calculating a similarity between the source image and another spatial image of the spatial image table based on the analysis result of the gaze movement; and providing a spatial image similar to the source image from among the plurality of spatial images as a recommended spatial image to the terminal based on the calculated similarity between the spatial images.

이러한 구성의 본 발명에 따르면, 사용자의 시선을 추적하여 사용자의 시선이 공간 이미지 중에서 어디에 주로 머물러 있는지에 따라 적절한 추천 공간 이미지를 제공해 줄 수 있다.According to the present invention having such a configuration, it is possible to provide an appropriate recommended spatial image according to where the user's gaze mainly stays among the spatial images by tracking the user's gaze.

도 1은 본 발명의 실시예에 따른 시선 추적을 통한 공간 이미지 추천 장치가 채용된 시스템의 구성도이다.
도 2는 도 1에 도시된 서버의 내부 구성도이다.
도 3은 본 발명의 실시예에서 검색어에 따라 제공되는 공간 이미지(즉, 소스 이미지)의 일 예를 나타낸 도면이다.
도 4 및 도 5는 도 1에 도시된 데이터베이스에 저장된 공간 이미지 테이블을 설명하기 위한 도면이다.
도 6은 본 발명의 실시예에서 시선 추적에 의해 수집되는 시선 움직임 데이터의 일 예를 나타낸 도면이다.
도 7은 본 발명의 실시예에서 공간 이미지 간의 유사도를 계산하는 과정을 설명하기 위해 채용되는 도면이다.
도 8은 본 발명의 실시예에 따른 시선 추적을 통한 공간 이미지 추천 방법을 설명하기 위한 플로우차트이다.
1 is a block diagram of a system employing a spatial image recommendation apparatus through eye tracking according to an embodiment of the present invention.
FIG. 2 is an internal configuration diagram of the server shown in FIG. 1 .
3 is a diagram illustrating an example of a spatial image (ie, a source image) provided according to a search word in an embodiment of the present invention.
4 and 5 are diagrams for explaining a spatial image table stored in the database shown in FIG. 1 .
6 is a diagram illustrating an example of gaze movement data collected by gaze tracking in an embodiment of the present invention.
7 is a diagram employed to explain a process of calculating a similarity between spatial images in an embodiment of the present invention.
8 is a flowchart for explaining a spatial image recommendation method through eye tracking according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다.Since the present invention can have various changes and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail.

그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It is to be understood that this does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다. Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings. In describing the present invention, in order to facilitate the overall understanding, the same reference numerals are used for the same components in the drawings, and duplicate descriptions of the same components are omitted.

도 1은 본 발명의 실시예에 따른 시선 추적을 통한 공간 이미지 추천 장치가 채용된 시스템의 구성도이다.1 is a block diagram of a system employing a spatial image recommendation apparatus through eye tracking according to an embodiment of the present invention.

도 1의 시스템은, 단말(10), 카메라(20), 서버(30), 및 데이터베이스(40)를 포함할 수 있다. 본 발명의 시스템은 단말(10)로부터의 검색어에 상응하는 공간 이미지(소스 이미지)를 단말(10)에게로 제공한 후에 사용자의 시선 움직임을 추적 및 분석하고, 시선 움직임 분석 결과를 근거로 기저장된 공간 이미지 간의 유사도를 계산하고, 계산된 유사도에 근거하여 검색어에 상응하는 공간 이미지와 유사한 추천 공간 이미지를 결정하여 제공하는 서비스를 수행할 수 있다.The system of FIG. 1 may include a terminal 10 , a camera 20 , a server 30 , and a database 40 . The system of the present invention provides the terminal 10 with a spatial image (source image) corresponding to the search word from the terminal 10, then tracks and analyzes the user's gaze movement, and stores pre-stored images based on the gaze movement analysis result. A service may be performed by calculating the similarity between spatial images, and determining and providing a recommended spatial image similar to a spatial image corresponding to a search word based on the calculated similarity.

도 1의 각 구성요소들은 일반적으로 네트워크를 통해 연결된다. 예를 들어, 도 1에 도시된 바와 같이, 단말(10)은 네트워크(도시 생략)를 통해 서버(30)와 연결된다.Each component of FIG. 1 is generally connected through a network. For example, as shown in FIG. 1 , the terminal 10 is connected to the server 30 through a network (not shown).

상술한 네트워크로는 무선 통신 방식의 네트워크 또는 유선 통신 방식의 네트워크가 있을 수 있다.The above-described network may be a wireless communication type network or a wired communication type network.

예를 들어, 무선 통신 방식의 네트워크는 무선랜(Wireless LAN (WLAN)), 와이브로(Wireless Broadband (Wibro)), WCDMA(Wideband CDMA), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution (LTE)), LTE-A(Long Term Evolution-Advanced), 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra-Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication (NFC)), 초음파 통신(Ultra Sound Communication (USC)), 가시광 통신(Visible Light Communication (VLC)), 와이 파이(Wi-Fi) 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.For example, a wireless communication type network includes a wireless LAN (WLAN), a wireless broadband (Wibro), a wideband CDMA (WCDMA), an IEEE 802.16, a long term evolution (LTE), LTE-A (Long Term Evolution-Advanced), Bluetooth (Bluetooth), RFID (Radio Frequency Identification), Infrared Data Association (IrDA), UWB (Ultra-Wideband), ZigBee, Near Field Communication (Near) Field Communication (NFC)), ultrasonic communication (Ultra Sound Communication (USC)), visible light communication (VLC), Wi-Fi (Wi-Fi), and the like may be included, but are not limited thereto.

한편, 유선 통신 방식의 네트워크는 유선 LAN(Local Area Network), 유선 WAN(Wide Area Network), 전력선 통신(Power Line Communication (PLC)), USB 통신, 이더넷(Ethernet), 시리얼 통신(serial communication), 광/동축 케이블 통신 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.On the other hand, wired communication type networks include wired LAN (Local Area Network), wired WAN (Wide Area Network), Power Line Communication (PLC), USB communication, Ethernet, serial communication, It may include, but is not limited to, optical/coaxial cable communication.

단말(10)은 사용자가 사용하는 전자기기로서, 카메라(20)가 설치되어 있다.The terminal 10 is an electronic device used by a user, and a camera 20 is installed therein.

단말(10)은 시선 추적을 통한 공간 이미지 추천 서비스를 받기 위해 소정의 검색어 입력이 가능하다.The terminal 10 may input a predetermined search word in order to receive a spatial image recommendation service through eye tracking.

단말(10)은 사용자의 키입력에 의한 소정의 검색어를 네트워크(도시 생략)를 통해 서버(30)에게로 전송할 수 있다.The terminal 10 may transmit a predetermined search word by the user's key input to the server 30 through a network (not shown).

단말(10)은 검색어에 상응하는 공간 이미지를 수신할 수 있다. 여기서, 검색어에 상응하는 공간 이미지는 사용자의 시선 움직임 데이터 생성을 위한 소스 이미지(source image)라고 할 수 있다.The terminal 10 may receive a spatial image corresponding to the search word. Here, the spatial image corresponding to the search word may be referred to as a source image for generating gaze movement data of the user.

물론, 사용자는 단말(10)에 화면표시된 소스 이미지가 마음에 들지 않으면 교체 요청을 할 수 있다.Of course, if the user does not like the source image displayed on the screen of the terminal 10, he/she may request a replacement.

단말(10)은 카메라(20)와 연계하여 소스 이미지에서의 사용자의 시선 움직임을 추적하고, 추적에 따라 시선 움직임 데이터를 생성할 수 있다. 시선 움직임 데이터는 소스 이미지에 대한 사용자의 시선의 시간별 위치 정보를 포함할 수 있다. 물론, 사용자의 시선 움직임을 추적하기 전에 소정의 테스트 이미지에 사용자의 시선을 맞추는 영점 조절 작업이 먼저 수행될 수 있다. 여기서, 테스트 이미지는 굳이 공간 이미지일 필요는 없다. 시선 움직임 추적 전에 소정의 테스트 이미지를 통해서 테스트 이미지의 외곽 끝을 바라보는 작업을 수행하고 나서, 테스트 이미지와 동일한 사이즈의 소스 이미지를 제공할 수 있다. 이후, 단말(10)은 사용자의 시선 움직임을 추적하고, 추적에 따라 시선 움직임 데이터를 생성할 수 있을 것이다. The terminal 10 may track the user's gaze movement in the source image in connection with the camera 20 and generate gaze movement data according to the tracking. The gaze movement data may include location information of the user's gaze with respect to the source image according to time. Of course, before tracking the user's gaze movement, a zero point adjustment operation of matching the user's gaze to a predetermined test image may be performed first. Here, the test image need not necessarily be a spatial image. A source image having the same size as the test image may be provided after performing a task of looking at the outer edge of the test image through a predetermined test image before eye movement tracking. Thereafter, the terminal 10 may track the user's gaze movement and generate gaze movement data according to the tracking.

단말(10)은 시선 움직임 데이터를 서버(30)에게로 전송할 수 있다. The terminal 10 may transmit gaze movement data to the server 30 .

예를 들어, 단말(10)은 검색어에 상응하는 공간 이미지(즉, 소스 이미지)를 수신하여 화면표시하면, 사용자는 소스 이미지내의 각종의 객체(예컨대, 창문, 테이블, 의자, 소파 등)를 제각기의 시간으로 응시할 수도 있고 소스 이미지를 전체적으로 훑어볼 수 있다. 그에 따라, 시선이 제 1 객체에 소정 시간 머물러 있다가 제 2 객체로 이동할 수도 있고, 어느 객체는 시선이 순간적으로 지나쳐 갈 수도 있다.For example, when the terminal 10 receives and displays a space image (ie, a source image) corresponding to a search word, the user selects various objects (eg, a window, a table, a chair, a sofa, etc.) in the source image, respectively. You can stare at the time of , or scan the source image in its entirety. Accordingly, the gaze may stay on the first object for a predetermined time and then move to the second object, and the gaze may momentarily pass by an object.

이와 같이 단말(10)은 소스 이미지내에서 사용자의 시선이 움직인 위치 정보를 실시간으로 생성할 수 있다. As described above, the terminal 10 may generate information about the location of the user's gaze in the source image in real time.

단말(10)은 시선 움직임 추적에 따른 시선 움직임 데이터를 생성할 수 있는 프로세서(도시 생략)를 포함한다.The terminal 10 includes a processor (not shown) capable of generating eye movement data according to eye movement tracking.

여기서, 사용자의 시선 움직임을 추적하고 시선 움직임 데이터를 생성하는 방식은 당업자라면 주지의 기술로 충분히 이해할 수 있으므로, 그에 대한 상세한 설명은 생략하기로 한다.Here, a method of tracking a user's gaze movement and generating gaze movement data can be fully understood by those skilled in the art, and thus a detailed description thereof will be omitted.

단말(10)은 이미지 추천 요청을 서버(30)에게로 전송할 수 있다. 이미지 추천 요청은 사용자의 해당 메뉴(예컨대, 이미지 추천 요청 메뉴) 선택에 의해 이루어질 수 있다. 이미지 추천 요청 메뉴는 소스 이미지가 표시되는 영역과는 무관한 위치에 배치되어 있을 수 있다. 이때, 이미지 추천 요청은 시선 움직임 데이터를 포함할 수 있다. 즉, 단말(10)은 사용자가 소스 이미지를 바라본 시점부터 이미지 추천 요청 메뉴가 선택되기 전까지의 시선 움직임 데이터를 수집해 둔다고 볼 수 있다. 그래서, 이미지 추천 요청을 서버(30)에게로 전송할 때에는 단말(10)은 이미지 추천이 선택되기 전까지 수집해둔 시선 움직임 데이터를 전송할 수 있다.The terminal 10 may transmit an image recommendation request to the server 30 . The image recommendation request may be made by a user's selection of a corresponding menu (eg, an image recommendation request menu). The image recommendation request menu may be disposed at a position independent of an area where the source image is displayed. In this case, the image recommendation request may include gaze movement data. That is, it can be seen that the terminal 10 collects eye movement data from the point in time when the user looks at the source image until the image recommendation request menu is selected. Therefore, when transmitting the image recommendation request to the server 30 , the terminal 10 may transmit the gaze movement data collected before the image recommendation is selected.

물론, 시선 움직임 데이터 중에서 사용자의 시선이 소스 이미지의 범위를 벗어난 시선 움직임 데이터가 있을 수 있는데, 이와 같이 소스 이미지의 범위를 벗어난 시선 움직임 데이터는 서버(30)로의 전송에서 제외됨이 바람직하다.Of course, among the gaze movement data, there may be gaze movement data in which the user's gaze exceeds the range of the source image. As such, it is preferable that the gaze movement data out of the range of the source image is excluded from transmission to the server 30 .

상기의 설명에서는 단말(10)이 사용자가 소스 이미지를 바라본 시점부터 이미지 추천 요청 메뉴가 선택되기 전까지의 시선 움직임 데이터를 수집하는 것으로 하였다. 그러나, 이와 다르게 하여도 무방하다. 예를 들어, 단말(10)은 이미지 추천 요청 메뉴가 선택되기 전까지 시선 움직임 데이터를 실시간으로 서버(30)에게로 전송하고, 서버(30)는 단말(10)로부터의 이미지 추천 요청을 수신하기 전까지 시선 움직임 데이터를 단말(10)로부터 수집하는 것으로 하여도 된다. 그리고, 단말(10)은 이미지 추천 요청을 전송할 시점이 되면 시선 움직임 데이터 전송을 중단할 수 있다. In the above description, it is assumed that the terminal 10 collects eye movement data from the time the user looks at the source image until the image recommendation request menu is selected. However, it may be done differently from this. For example, the terminal 10 transmits gaze movement data to the server 30 in real time until the image recommendation request menu is selected, and the server 30 receives the image recommendation request from the terminal 10 until The eye movement data may be collected from the terminal 10 . And, when the time comes to transmit the image recommendation request, the terminal 10 may stop transmitting the gaze movement data.

본 발명의 실시예에서, 시선 움직 데이터를 수집하는 주체가 그리 중요한 것은 아니다. 서버(30)의 입장에서는 시선 움직임 데이터를 수신하는 시점이 언제든지 간에 시선 움직임 데이터를 근거로 시선 움직임 분석을 행할 수만 있으면 된다.In an embodiment of the present invention, the subject collecting the eye movement data is not very important. From the standpoint of the server 30, it is only necessary to be able to analyze the gaze movement based on the gaze movement data at any time when the gaze movement data is received.

단말(10)은 서버(30)로부터의 추천 공간 이미지를 수신할 수 있다.The terminal 10 may receive a recommended space image from the server 30 .

단말(10)은 수신한 추천 공간 이미지를 화면표시할 수 있다.The terminal 10 may display the received recommended space image on the screen.

그에 따라, 단말(10)은 입력 모듈(도시 생략), 표시 모듈(도시 생략), 및 통신 모듈(도시 생략)을 포함할 수 있다. Accordingly, the terminal 10 may include an input module (not shown), a display module (not shown), and a communication module (not shown).

필요에 따라, 단말(10)은 시선 움직임 데이터를 저장하는 저장 모듈(도시 생략)을 더 포함할 수 있다.If necessary, the terminal 10 may further include a storage module (not shown) for storing gaze movement data.

단말(10)은 연산 처리 기능을 갖는 컴퓨팅 장치로서, 카메라(20)가 설치된 이동형 장치이거나 또는 고정형 장치일 수 있다. 예컨대, 단말(10)은 컴퓨터, PC(personal computer), 스마트폰, 네비게이션, 랩톱 컴퓨터, 태블릿 컴퓨터, 웨어러블 장치 또는 태블릿 등을 의미할 수 있으나, 본 발명의 실시 예들이 이에 한정되는 것은 아니다.The terminal 10 is a computing device having an arithmetic processing function, and may be a mobile device in which the camera 20 is installed or a fixed device. For example, the terminal 10 may mean a computer, a personal computer (PC), a smart phone, a navigation system, a laptop computer, a tablet computer, a wearable device, or a tablet, but embodiments of the present invention are not limited thereto.

도 1에서는 단말(10)을 하나만 도시하였으나, 실제로는 다수의 단말(10)이 존재하는 것으로 이해하는 것이 좋다. Although only one terminal 10 is illustrated in FIG. 1 , it is better to understand that a plurality of terminals 10 exist in reality.

상술한 단말(10)은 사용자 단말 또는 고객 단말이라고 하여도 무방하다.The above-described terminal 10 may be referred to as a user terminal or a customer terminal.

카메라(20)는 단말(10)에 설치된 전자기기로서, 사용자의 시선 움직임을 추적할 수 있다. 즉, 단말(10)의 화면에는 검색어에 상응하는 공간 이미지(즉, 소스 이미지)가 디스플레이될 것이고, 사용자가 소스 이미지를 보면서 시선을 움직이게 되면 카메라(20)가 시선 움직임을 추적할 수 있다.The camera 20 is an electronic device installed in the terminal 10 and may track the gaze movement of the user. That is, a spatial image (ie, a source image) corresponding to the search word will be displayed on the screen of the terminal 10 , and when the user moves his gaze while looking at the source image, the camera 20 may track the gaze movement.

예를 들어, 카메라(20)는 거치 형태로 단말(10)에 설치될 수도 있고, 웹캠 형태로 단말(10)에 부착되거나 내장될 수도 있다. For example, the camera 20 may be installed in the terminal 10 in a stationary form, or may be attached to or embedded in the terminal 10 in the form of a webcam.

서버(30)는 본 발명의 실시예에 따른 시선 추적을 통한 공간 이미지 추천 장치가 될 수 있다. 물론, 필요에 따라서는 본 발명의 실시예에 따른 시선 추적을 통한 공간 이미지 추천 장치가 서버(30)에 포함되는 것으로 할 수도 있다.The server 30 may be a spatial image recommendation apparatus through eye tracking according to an embodiment of the present invention. Of course, if necessary, the apparatus 30 for recommending a spatial image through eye tracking according to an embodiment of the present invention may be included in the server 30 .

서버(30)는 사용자에게 시선 추적을 통한 공간 이미지 추천 서비스를 제공할 수 있다. The server 30 may provide a spatial image recommendation service through eye tracking to the user.

서버(30)는 단말(10)로부터의 검색어를 수신할 수 있다.The server 30 may receive a search term from the terminal 10 .

서버(30)는 검색어를 수신함에 따라 데이터베이스(40)에서 해당 검색어에 상응하는 공간 이미지를 탐색할 수 있다. 여기서, 서버(30)는 탐색된 공간 이미지가 1개라면 탐색된 1개의 공간 이미지를 소스 이미지로서 단말(10)에게로 전송할 수 있다. 한편, 탐색된 공간 이미지가 여러 개라면 서버(30)는 탐색된 여러 개의 공간 이미지 중에서 랜덤하게 1개의 공간 이미지를 소스 이미지로 선정하여 단말(10)에게로 전송할 수 있다. 상술한 소스 이미지는 단말(10)에서 사용자의 시선 움직임 데이터를 생성할 수 있도록 하기 위해 제공되는 공간 이미지이다. As the server 30 receives the search word, the server 30 may search for a spatial image corresponding to the search word in the database 40 . Here, if there is one searched spatial image, the server 30 may transmit one searched spatial image to the terminal 10 as a source image. On the other hand, if there are several searched spatial images, the server 30 may randomly select one spatial image from among several searched spatial images as a source image and transmit it to the terminal 10 . The above-described source image is a spatial image provided to enable the terminal 10 to generate the user's gaze movement data.

물론, 필요에 따라서는 단말(10)에게로 제공되는 소스 이미지를 복수개로 할 수도 있다.Of course, if necessary, a plurality of source images provided to the terminal 10 may be provided.

서버(30)는 단말(10)에서의 시선 움직임 추적에 따른 시선 움직임 데이터를 수신 또는 수집할 수 있다. 일 예로, 서버(30)는 단말(10)로부터의 이미지 추천 요청을 수신할 수 있는데, 이 경우 이미지 추천 요청은 시선 움직임 데이터를 포함할 수 있다. 따라서, 서버(30)는 이미지 추천 요청을 수신함과 더불어 시선 움직임 데이터를 수신한다고 볼 수 있다. 다른 예로서, 서버(30)는 이미지 추천 요청을 수신하기 전까지 단말(10)로부터 시선 움직임 데이터를 실시간으로 수신하여 저장해 둠으로써 시선 움직임 데이터를 수집한다고 볼 수 있다. 결국, 서버(30)의 입장에서는 수신 및 수집이 기술적으로 그리 큰 차이가 아니다.The server 30 may receive or collect eye movement data according to eye movement tracking in the terminal 10 . For example, the server 30 may receive an image recommendation request from the terminal 10 . In this case, the image recommendation request may include gaze movement data. Accordingly, it can be seen that the server 30 receives gaze movement data as well as receiving the image recommendation request. As another example, it can be seen that the server 30 collects the gaze motion data by receiving and storing the gaze motion data from the terminal 10 in real time until the image recommendation request is received. After all, from the standpoint of the server 30, reception and collection are not technically very different.

서버(30)가 수신 또는 수집하는 시선 움직임 데이터는 사용자의 시선이 소스 이미지의 범위내에 있는 것들이다. 이는 단말(10)에서 사용자의 시선이 소스 이미지의 범위를 벗어난 시선 움직임 데이터는 전송에서 제외하였기 때문이다.The gaze movement data received or collected by the server 30 are those in which the user's gaze is within the range of the source image. This is because, in the terminal 10, gaze movement data in which the user's gaze exceeds the range of the source image is excluded from transmission.

이하에서는 서버(30)가 시선 움직임 데이터를 실시간으로 수집하는 것으로 하고 설명한다.Hereinafter, it is assumed that the server 30 collects gaze movement data in real time.

서버(30)는 단말(10)로부터의 이미지 추천 요청을 수신함에 따라 그동안 수집해둔 시선 움직임 데이터를 근거로 사용자의 시선 움직임을 분석할 수 있다. 앞서 설명하였듯이, 각각의 시선 움직임 데이터는 소스 이미지에 대한 사용자의 시선의 시간별 위치 정보를 포함하므로, 서버(30)는 시선 움직임 데이터를 근거로 소스 이미지내에서 시선이 소스 이미지의 어느 특징을 주시하는지를 판단할 수 있다. 여기서, 특징은 공간 이미지(소스 이미지 포함)상에 나타난 객체들 및 공간 이미지(소스 이미지 포함)의 분위기를 포함할 수 있다. 또한, 주시하는지의 여부는 일정 시간 이상 위치하는지에 따라 판별가능하다.As the server 30 receives the image recommendation request from the terminal 10 , the server 30 may analyze the user's gaze movement based on the gaze movement data collected so far. As described above, since each gaze movement data includes time-based location information of the user's gaze with respect to the source image, the server 30 determines which feature of the source image the gaze gazes at in the source image based on the gaze motion data. can judge Here, the feature may include objects appearing on the spatial image (including the source image) and the atmosphere of the spatial image (including the source image). In addition, whether or not to gaze can be determined depending on whether the position is located for a predetermined time or longer.

즉, 서버(30)는 시선 움직임 데이터를 근거로 소스 이미지 상에서의 사용자의 시선의 움직임을 분석(또는 해석)하여 소스 이미지의 특징 각각에 대해 사용자의 시선이 향하는 주시 시간을 계산할 수 있다. 다시 말해서, 서버(30)는 소스 이미지내의 특징들 각각에 대해 시선이 얼마의 시간동안 머물렀는지를 계산할 수 있다. 예를 들어, 객체 1에 5개의 포커싱 위치가 있고 5개의 포커싱 위치에서의 머문 시간을 총합하면 객체 1에 시선이 머문 시간을 계산할 수 있다.That is, the server 30 may analyze (or interpret) the movement of the user's gaze on the source image based on the gaze movement data to calculate the gaze time at which the user's gaze is directed for each feature of the source image. In other words, the server 30 may calculate how long the gaze stayed on for each of the features in the source image. For example, if the object 1 has 5 focusing positions and the total time spent at the 5 focusing positions is totaled, the time spent by the gaze on the object 1 may be calculated.

한편, 서버(30)는 시선 움직임 분석 결과를 근거로 소스 이미지의 분위기 가중치(MW, Mood Weight) 및 객체별 가중치(OW1 ~ OWn)(Object Weight)를 구한 후에 이를 데이터베이스(40)내의 공간 이미지 간의 유사도(TSIM, Total Similarity)에 반영할 수 있다. 여기서, 공간 이미지 간의 유사도(TSIM)는 비교대상이 되는 두 공간 이미지 간의 분위기 유사도 및 객체 간의 유사도를 근거로 생성될 수 있다. 예를 들어, 각각의 공간 이미지마다 분위기 및 하나 이상의 객체가 존재한다. 따라서, 공간 이미지 1과 공간 이미지 2 간의 유사도를 계산한다고 가정하였을 경우, 서버(30)는 공간 이미지 1의 분위기와 공간 이미지 2의 분위기 간의 유사도(MSIM, Mood Similarity)를 구할 수 있고, 공간 이미지 1의 객체와 공간 이미지 2의 객체 간의 유사도(OSIM, Object Similarity)를 구할 수 있다. 여기서, 공간 이미지 1의 객체와 공간 이미지 2의 객체는 상호 동일한 타입이어야 할 것이다. 서버(30)는 상술한 두 공간 이미지 간의 분위기 유사도(MSIM) 및 객체 간의 유사도(OSIM)를, 데이터베이스(40)내의 공간 이미지 테이블의 정보를 근거로 구할 수 있다. 특히, 서버(30)는 딥러닝 알고리즘에 따라 미리 학습된 모델을 통해 두 공간 이미지 간의 분위기 유사도(MSIM) 및 객체 간의 유사도(OSIM)를 구할 수 있다. 그리고, 서버(30)는 계산된 두 공간 이미지 간의 분위기 유사도(MSIM) 및 객체 간의 유사도(OSIM)를 합산하고, 합산 결과치를 두 공간 이미지 간의 유사도(TSIM)라고 할 수 있다.On the other hand, the server 30 obtains the atmosphere weight (MW, Mood Weight) of the source image and the weights (OW 1 ~ OW n ) (Object Weight) of the source image based on the gaze movement analysis result, and then stores the results in the space in the database 40 . It can be reflected in the similarity between images (TSIM, Total Similarity). Here, the similarity between spatial images (TSIM) may be generated based on the similarity between atmospheres and objects between two spatial images to be compared. For example, there is an atmosphere and one or more objects for each spatial image. Therefore, assuming that the similarity between spatial image 1 and spatial image 2 is calculated, the server 30 may obtain a similarity (MSIM, Mood Similarity) between the atmosphere of spatial image 1 and the atmosphere of spatial image 2, and spatial image 1 The degree of similarity (OSIM, Object Similarity) between the object of and the object of spatial image 2 can be obtained. Here, the object of the spatial image 1 and the object of the spatial image 2 should be of the same type. The server 30 may obtain the atmosphere similarity (MSIM) between the two spatial images and the similarity between objects (OSIM) based on the information of the spatial image table in the database 40 . In particular, the server 30 may obtain an atmosphere similarity (MSIM) between two spatial images and a similarity between objects (OSIM) through a model trained in advance according to a deep learning algorithm. In addition, the server 30 may sum the calculated atmosphere similarity (MSIM) between the two spatial images and the similarity between objects (OSIM), and the sum result may be referred to as a similarity (TSIM) between the two spatial images.

이와 같이 하면 서버(30)는 데이터베이스(40)내의 모든 공간 이미지 간의 유사도를 구할 수 있다.In this way, the server 30 can obtain the similarity between all spatial images in the database 40 .

그리고, 서버(30)는 계산된 공간 이미지 간의 유사도(TSIM)에 근거하여 검색어에 상응하는 소스 이미지와 유사한 추천 공간 이미지를 결정할 수 있다. 이어, 서버(30)는 결정된 추천 공간 이미지를 단말(10)에게로 전송할 수 있다.In addition, the server 30 may determine a recommended spatial image similar to the source image corresponding to the search word based on the calculated similarity between spatial images (TSIM). Then, the server 30 may transmit the determined recommended space image to the terminal 10 .

데이터베이스(40)는 다수의 공간 이미지 각각의 특징들에 대한 정보를 포함하는 공간 이미지 테이블을 저장한다. 여기서, 특징들은 공간 이미지 상에 나타난 객체들 및 공간 이미지의 분위기를 포함할 수 있다.The database 40 stores a spatial image table including information on characteristics of each of a plurality of spatial images. Here, the features may include objects appearing on the spatial image and the atmosphere of the spatial image.

상술한 도 1에서는 데이터베이스(40)를 독립적으로 구성시켰으나, 필요에 따라서는 서버(30)에 포함되는 것으로 보아도 무방하다.Although the database 40 is configured independently in FIG. 1 described above, it may be regarded as being included in the server 30 if necessary.

도 2는 도 1에 도시된 서버(30)의 내부 구성도이고, 도 3은 본 발명의 실시예에서 검색어에 따라 제공되는 공간 이미지(즉, 소스 이미지)의 일 예를 나타낸 도면이고, 도 4 및 도 5는 도 1에 도시된 데이터베이스에 저장된 공간 이미지 테이블을 설명하기 위한 도면이고, 도 6은 본 발명의 실시예에서 시선 추적에 의해 수집되는 시선 움직임 데이터의 일 예를 나타낸 도면이고, 도 7은 본 발명의 실시예에서 공간 이미지 간의 유사도를 계산하는 과정을 설명하기 위해 채용되는 도면이다.FIG. 2 is an internal configuration diagram of the server 30 shown in FIG. 1 , and FIG. 3 is a diagram illustrating an example of a spatial image (ie, a source image) provided according to a search word in an embodiment of the present invention, and FIG. 4 and FIG. 5 is a diagram for explaining a spatial image table stored in the database shown in FIG. 1 , FIG. 6 is a diagram illustrating an example of gaze movement data collected by gaze tracking in an embodiment of the present invention, and FIG. 7 is a diagram employed to explain a process of calculating the similarity between spatial images in an embodiment of the present invention.

서버(30)는 통신 모듈(32), 저장 모듈(34), 및 제어 모듈(36)를 포함할 수 있다. 필요에 따라, 통신 모듈(32)과 저장 모듈(34) 및 제어 모듈(36)은 통신 모듈부와 저장 모듈부 및 제어 모듈부라고도 칭할 수 있다.The server 30 may include a communication module 32 , a storage module 34 , and a control module 36 . If necessary, the communication module 32, the storage module 34, and the control module 36 may also be referred to as a communication module unit, a storage module unit, and a control module unit.

통신 모듈(32)은 단말(10)과 데이터를 주고받을 수 있다. 통신 모듈(32)는 무선 통신 방식 또는 유선 통신 방식에 따라 단말(10)과 데이터를 주고받을 수 있다. The communication module 32 may exchange data with the terminal 10 . The communication module 32 may exchange data with the terminal 10 according to a wireless communication method or a wired communication method.

저장 모듈(34)은 서버(30)의 동작에 필요한 데이터를 저장할 수 있다. 실시 예들에 따라, 저장 모듈(34)은 통신 모듈(32)에서 수신한 단말(10)로부터의 시선 움직임 데이터를 저장할 수 있다. The storage module 34 may store data necessary for the operation of the server 30 . According to embodiments, the storage module 34 may store gaze movement data from the terminal 10 received by the communication module 32 .

또한, 저장 모듈(34)은 제어 모듈(36)이 데이터베이스(40)에서 읽어낸 공간 이미지 테이블을 저장할 수 있다.Also, the storage module 34 may store the spatial image table read by the control module 36 from the database 40 .

필요에 따라, 저장 모듈(34)은 데이터베이스일 수 있으나, 이에 한정되는 것은 아니다.If necessary, the storage module 34 may be a database, but is not limited thereto.

저장 모듈(34)은 서버(30)에 의해 수행되는 일련의 동작들을 수행하기 위한 명령어(instruction)들로 구성되는 프로그램을 저장할 수 있다.The storage module 34 may store a program composed of instructions for performing a series of operations performed by the server 30 .

저장 모듈(34)은 비휘발성 메모리 장치 또는 휘발성 메모리 장치를 포함할 수 있다. 실시 예들에 따라, 저장 모듈(34)은 제어 모듈(36)에 포함되어 구성될 수 있으나, 이에 한정되는 것은 아니다.The storage module 34 may include a non-volatile memory device or a volatile memory device. According to embodiments, the storage module 34 may be included in the control module 36, but is not limited thereto.

제어 모듈(36)은 서버(30)의 전반적인 동작들을 제어할 수 있다. The control module 36 may control overall operations of the server 30 .

제어 모듈(36)은 통신 모듈(32)을 통해 단말(10)로부터의 검색어를 수신할 수 있다.The control module 36 may receive a search word from the terminal 10 through the communication module 32 .

제어 모듈(36)은 데이터베이스(40)의 공간 이미지 테이블에서 해당 검색어에 상응하는 소스 이미지(도 3 참조)를 탐색할 수 있다. 보다 구체적으로는, 제어 모듈(36)은 탐색된 소스 이미지를 단말(10)에게로 전송하되, 1개의 소스 이미지를 전송할 수 있다. 예를 들어, 탐색된 소스 이미지가 1개라면 제어 모듈(36)은 탐색된 1개의 소스 이미지를 단말(10)에게로 전송할 수 있다. 한편, 탐색된 소스 이미지가 여러 개라면 제어 모듈(36)은 탐색된 여러 개의 소스 이미지 중에서 랜덤하게 1개의 소스 이미지를 선정하여 단말(10)에게로 전송할 수 있다. 상술한 소스 이미지는 단말(10)에서 사용자의 시선 움직임 데이터를 생성할 수 있도록 하기 위한 공간 이미지이다. 소스 이미지는 데이터베이스(40)의 다수의 공간 이미지들 중에서 검색어에 상응하는 공간 이미지이다. The control module 36 may search for a source image (refer to FIG. 3 ) corresponding to the corresponding search term in the spatial image table of the database 40 . More specifically, the control module 36 transmits the searched source image to the terminal 10, but may transmit one source image. For example, if there is one searched source image, the control module 36 may transmit one searched source image to the terminal 10 . On the other hand, if there are several searched source images, the control module 36 may randomly select one source image from among several searched source images and transmit it to the terminal 10 . The above-described source image is a spatial image for generating the user's gaze movement data in the terminal 10 . The source image is a spatial image corresponding to a search term among a plurality of spatial images in the database 40 .

여기서, 소스 이미지는 도 3에 예시한 바와 같이 다양한 객체를 포함할 수 있다. 예를 들어, 창문(1), 벽(2), 테이블(3), 바닥(4) 등을 객체라고 할 수 있다.Here, the source image may include various objects as illustrated in FIG. 3 . For example, a window (1), a wall (2), a table (3), a floor (4), etc. can be called objects.

그리고, 상술한 공간 이미지 테이블은 도 4에 예시한 바와 같이 공간 이미지별 분위기(무드)의 정보(예컨대, 레벨값 또는 속성값)를 포함할 수 있다. 여기서, 분위기는 따뜻한 분위기, 차가운 분위기 등과 같이 공간 이미지마다의 느낌을 의미할 수 있다. In addition, as illustrated in FIG. 4 , the above-described spatial image table may include information (eg, a level value or an attribute value) of an atmosphere (mood) for each spatial image. Here, the atmosphere may mean a feeling for each spatial image, such as a warm atmosphere or a cold atmosphere.

또한, 공간 이미지 테이블은 도 5에 예시한 바와 같이 공간 이미지별 객체마다의 위치, 타입, 속성의 정보를 포함할 수 있다. 여기서, 위치는 공간 이미지내에서 해당 객체가 자리잡고 있는 위치를 의미할 수 있다. 타입은 테이블, 소파 등과 같이 해당 객체의 종류를 의미할 수 있다. 속성은 해당 객체의 크기, 색상 등이 될 수 있다.In addition, as illustrated in FIG. 5 , the spatial image table may include information on the location, type, and property of each object for each spatial image. Here, the position may mean a position where the corresponding object is located in the spatial image. A type may mean a type of a corresponding object, such as a table or sofa. The properties may be the size, color, etc. of the corresponding object.

따라서, 데이터베이스(40)의 공간 이미지 테이블이라고 하면 도 4의 공간 이미지 테이블 및 도 5의 공간 이미지 테이블을 총칭할 수 있다.Accordingly, the spatial image table of FIG. 4 and the spatial image table of FIG. 5 may be collectively referred to as the spatial image table of the database 40 .

제어 모듈(36)은 단말(10)에서의 시선 움직임 추적에 따른 시선 움직임 데이터(도 6 참조)를 실시간으로 수집할 수 있다. 예를 들어, 도 3과 같은 소스 이미지에 대하여 시간에 따른 시선의 위치 정보가 도 6과 같을 수 있다. 사용자가 창문(1)을 보고 나서 벽(2)을 본 후에 테이블(3)을 보는 것으로 가정하였을 경우, 창문(1)에는 포커싱된 시선이 7군데 위치하고, 벽(2)에는 포커싱된 시선이 5군데 위치하고, 테이블(3)에는 포커싱된 시선이 10군데 위치할 수 있다. 그리고, 포커싱된 시선의 위치별로 시선이 머무른 시간이 상이할 수 있다. 여기서, 포커싱되었다라는 것은 사용자의 시선이 해당 위치의 객체를 주시한 것으로 이해할 수 있다. 이와 같이 단말(10)은 시선 움직임 추적에 따른 시선 움직임 데이터를 실시간으로 전송할 수 있다. 그에 따라, 제어 모듈(36)은 실시간으로 전송되어 오는 시선 움직임 데이터를 수집할 수 있다. The control module 36 may collect gaze movement data (refer to FIG. 6 ) according to gaze movement tracking in the terminal 10 in real time. For example, with respect to the source image shown in FIG. 3 , location information of the gaze according to time may be the same as in FIG. 6 . If it is assumed that the user looks at the table 3 after looking at the window 1 and then the wall 2, 7 focused gazes are located on the window 1, and 5 focused gazes are located on the wall 2 It is located in several places, the table 3 may be positioned in 10 places of the focused gaze. In addition, the length of time the gaze stays may be different for each location of the focused gaze. Here, being focused can be understood as the user's gaze looking at the object at the corresponding location. As described above, the terminal 10 may transmit gaze movement data according to the gaze movement tracking in real time. Accordingly, the control module 36 may collect gaze movement data transmitted in real time.

제어 모듈(36)은 수집되는 시선 움직임 데이터를 저장 모듈(34)에 저장시킬 수 있다. 다시 말해서, 단말(10)은 사용자가 소스 이미지를 바라본 시점부터 이미지 추천 메뉴가 선택되기 전까지의 시선 움직임 데이터를 실시간으로 생성하여 서버(30)에게로 전송할 수 있다. 그에 따라, 제어 모듈(36)은 이미지 추천 요청을 수신하기 전까지의 시선 움직임 데이터를 실시간으로 수집하여 저장 모듈(34)에 저장시킬 수 있다. 여기서, 이미지 추천 요청은 사용자가 이미지 추천 요청 메뉴를 선택함에 따라 단말(10)에서 생성되는 것으로 한다.The control module 36 may store the collected gaze movement data in the storage module 34 . In other words, the terminal 10 may generate and transmit gaze movement data in real time from the point in time when the user views the source image until the image recommendation menu is selected to the server 30 . Accordingly, the control module 36 may collect and store the gaze movement data in real time until the image recommendation request is received in the storage module 34 . Here, it is assumed that the image recommendation request is generated in the terminal 10 as the user selects the image recommendation request menu.

제어 모듈(36)은 단말(10)로부터의 이미지 추천 요청을 수신함에 따라 저장 모듈(34)에 저장해둔 시선 움직임 데이터를 근거로 사용자의 시선 움직임을 분석할 수 있다.The control module 36 may analyze the user's gaze movement based on the gaze movement data stored in the storage module 34 upon receiving the image recommendation request from the terminal 10 .

시선 움직임 분석의 경우, 제어 모듈(36)은 수집된 시선 움직임 데이터 및 공간 이미지 테이블을 근거로 소스 이미지내에서 사용자의 시선이 소스 이미지의 어느 특징을 주시하는지를 판단할 수 있다. 다시 말해서, 제어 모듈(36)은 수집된 시선 움직임 데이터를 근거로 소스 이미지 상에서의 사용자의 시선의 움직임을 분석(또는 해석이라고 할 수 있음)하여 소스 이미지의 특징들 각각에 사용자의 시선이 향하는 주시 시간을 계산할 수 있다. 즉, 제어 모듈(36)은 시선 움직임 데이터를 근거로 사용자가 소스 이미지 내에 나타난 특징들(예컨대, 객체들 또는 분위기)을 주시하는지 여부를 결정할 수 있고, 주시가 계속되는 주시 시간을 계산할 수 있다.In the case of gaze movement analysis, the control module 36 may determine which feature of the source image the user's gaze focuses on in the source image based on the collected gaze movement data and the spatial image table. In other words, the control module 36 analyzes (or may be referred to as an interpretation) the movement of the user's gaze on the source image based on the collected gaze movement data, so that the gaze of the user's gaze is directed to each of the features of the source image. time can be calculated. That is, the control module 36 may determine whether the user gazes at features (eg, objects or atmosphere) appearing in the source image based on the gaze movement data, and may calculate a gaze time during which the gaze continues.

사용자의 시선이 소스 이미지 상에 나타난 객체들 중 특정 객체에 계속하여 위치하는 경우, 해당 사용자는 상기 특정 객체를 주시하는 것으로 여겨질 수 있다. 반면, 사용자의 시선이 소스 이미지 상에 나타난 객체들 중 어느 객체에도 계속하여 위치하지 않는 경우, 해당 사용자는 특정 객체를 주시한다기 보다는 소스 이미지의 분위기를 주시하는 것으로 여겨질 수 있다.When the user's gaze is continuously positioned on a specific object among the objects displayed on the source image, the user may be considered to be gazing at the specific object. On the other hand, when the user's gaze is not continuously positioned on any of the objects displayed on the source image, the user may be considered to be gazing at the atmosphere of the source image rather than gazing at a specific object.

실시 예들에 따라, 제어 모듈(36)은 시선 움직임 데이터의 시계열 분석을 통해, 사용자의 시선이 소스 이미지에 나타낸 객체들 각각에 일정 시간 이상 지속하여 위치하는지 여부를 판단할 수 있다. 이 때, 상기 일정 시간은 미리 정해질 수도 있고, 변경될 수도 있다. 예를 들어, 제어 모듈(36)은 도 5의 공간 이미지 테이블을 참조하여, 사용자의 시선의 위치와 소스 이미지 상의 객체들의 위치를 비교함으로써 사용자의 시선이 소스 이미지에 나타낸 객체들 각각에 일정 시간 이상 지속하여 위치하는지 여부를 판단할 수 있다. 이 때, 제어 모듈(36)은 소스 이미지 상의 객체들 각각을 포함하는 소정의 영역을 설정하고, 상기 소정의 영역에 사용자의 시선의 위치가 포함되는 경우 사용자의 시선이 소스 이미지에 나타낸 객체에 위치하는 것으로 판단할 수 있다. According to embodiments, the control module 36 may determine whether the user's gaze is continuously located on each of the objects shown in the source image for a predetermined time or more through time series analysis of the gaze movement data. In this case, the predetermined time may be predetermined or may be changed. For example, the control module 36 refers to the spatial image table of FIG. 5 , and compares the position of the user's gaze with the positions of the objects on the source image so that the user's gaze is placed on each of the objects indicated in the source image for a certain period of time or longer. It can be determined whether or not it is continuously located. At this time, the control module 36 sets a predetermined area including each of the objects on the source image, and when the location of the user's gaze is included in the predetermined area, the user's gaze is located on the object shown in the source image It can be judged that

이 때, 제어 모듈(36)은 사용자의 시선이 상기 소정의 영역에 위치하는 시간에 비례하여 상기 소정의 영역의 크기를 감소시킬 수 있다. 사용자가 특정 객체를 주시하는 경우, 처음에는 특정 객체를 중심으로 넓은 영역을 주시하다가, 시간이 경과할수록 특정 객체를 중심으로 더 좁은 영역을 집중해서 주시를 하게 된다. 이에, 사용자의 시선이 위치하는 시간이 경과함에 따라 주시 여부를 판단하는 소정의 영역의 크기를 감소시키면, 사용자 시선이 특정 객체를 주시하는지 여부를 높은 신뢰도로 판단할 수 있다.In this case, the control module 36 may reduce the size of the predetermined area in proportion to the time the user's gaze is located in the predetermined area. When the user gazes at a specific object, the user initially looks at a wide area centered on the specific object, and as time elapses, the user focuses on a narrower area centered on the specific object. Accordingly, if the size of the predetermined area for determining whether to gaze is reduced as the time at which the user's gaze is positioned elapses, it is possible to determine with high reliability whether the user's gaze gazes at a specific object.

제어 모듈(36)은 시선 움직임 데이터의 분석을 통해, 사용자의 시선이 객체들 각각에 일정 이상 지속하여 위치하는 시간(T1)을 계산할 수 있다. 이 때, 제어 모듈(36)은 소스 이미지 상에 나타난 객체들 별로 사용자의 시선이 일정 이상 지속하여 위치하는 시간(T1)을 계산할 수 있다. 또한, 제어 모듈(36)은 시선 움직임 데이터의 분석을 통해 사용자의 시선이 소스 이미지 상에 나타난 객체들 중 어느 것에도 일정 시간 이상 지속하여 위치하지 않는 시간(T2)을 계산할 수 있다.The control module 36 may calculate a time T1 at which the user's gaze is continuously located on each of the objects for a predetermined period or more through analysis of the gaze movement data. In this case, the control module 36 may calculate a time T1 at which the user's gaze continues to be located for each object displayed on the source image for a predetermined period or more. In addition, the control module 36 may calculate a time T2 during which the user's gaze is not located on any of the objects displayed on the source image for a predetermined period of time or longer through analysis of the gaze movement data.

제어 모듈(36)은 사용자의 시선이 객체들 각각에 일정 시간 이상 지속하여 위치하는 시간(T1)을 객체들 각각에 대한 주시 시간으로 결정할 수 있다. 한편, 제어 모듈(36)은 사용자의 시선이 객체들 중 어느 것에도 일정 시간 이상 지속하여 위치하지 않는 시간(T2)을 분위기에 대한 주시 시간으로 결정할 수 있다.The control module 36 may determine a time T1 at which the user's gaze is continuously located on each of the objects for a predetermined time or more as the gaze time for each of the objects. Meanwhile, the control module 36 may determine a time T2 in which the user's gaze is not positioned on any of the objects for a predetermined time or longer as the gaze time for the atmosphere.

이와 같이 시선 움직임 분석을 한 이후에는, 제어 모듈(36)은 분위기에 대한 주시 시간(즉, T2)을 이용하여 소스 이미지의 분위기 가중치(MW, Mood Weight)를 계산한다. 또한, 제어 모듈(36)은 객체들 각각에 대한 주시 시간(즉, T1)을 이용하여 소스 이미지의 객체별 가중치(OW1 ~ OWn)(Object Weight)를 계산한다. 이후, 제어 모듈(36)은 도 7에서와 같이 계산한 소스 이미지의 분위기 가중치(MW) 및 객체별 가중치(OWi)를 근거로 공간 이미지 간의 유사도(TSIM, Total Similarity)를 계산할 수 있다.After analyzing the gaze movement in this way, the control module 36 calculates the mood weight (MW, Mood Weight) of the source image using the gaze time (ie, T2) for the atmosphere. In addition, the control module 36 calculates the weights OW 1 to OW n (Object Weight) for each object of the source image by using the gaze time (ie, T1 ) for each of the objects. Thereafter, the control module 36 may calculate a similarity (TSIM, Total Similarity) between spatial images based on the atmosphere weight (MW) of the source image and the weight (OW i ) of each object calculated as in FIG. 7 .

여기서, 소스 이미지의 분위기 가중치(MW)는 하기의 식 1을 통해 구할 수 있고, 소스 이미지의 객체별 가중치(OWi)는 하기의 식 2를 통해 구할 수 있다.Here, the atmosphere weight (MW) of the source image can be obtained through Equation 1 below, and the weight OW i for each object of the source image can be obtained through Equation 2 below.

(식 1)(Equation 1)

Figure 112022034431070-pat00003
Figure 112022034431070-pat00003

(식 2)(Equation 2)

Figure 112022034431070-pat00004
Figure 112022034431070-pat00004

상기 식 1 및 식 2에서, T1i는 상기 소스 이미지의 i번째 객체에 상기 사용자의 시선이 일정 시간 이상 지속하여 위치한 시간을 의미하고, T2는 상기 사용자의 시선이 객체들 중 어느 객체에도 일정 시간 이상 지속하여 위치하지 않은 시간을 의미한다. In Equations 1 and 2, T1 i means the time the user's gaze is continuously located on the i-th object of the source image for a predetermined time or more, and T2 is the time when the user's gaze is located on any of the objects for a predetermined time. It means the time when it is not located continuously for more than one time.

일정 시간은 적절하게 설정될 수 있다.The predetermined time may be appropriately set.

여기서, 객체별 가중치에는 해당 객체에 시선이 머무는 시간이 고려되므로, 가장 많은 시간 동안 시선이 머문 객체에 대한 가중치가 다른 객체의 가중치에 비해 큰 값이 될 것이다.Here, since the time the gaze stays on the corresponding object is considered for the weight for each object, the weight of the object on which the gaze stays for the most time will be larger than the weight of other objects.

상술한 가중치(MW, OWi)를 공간 이미지 간의 유사도(TSIM)에 반영하는 것에 대해 부연설명한다. Reflecting the above-described weights (MW, OW i ) to the degree of similarity (TSIM) between spatial images will be described in detail.

도 7에 예시한 바와 같이, 제어 모듈(36)은 비교대상인 공간 이미지 1의 분위기와 공간 이미지 2의 분위기 간의 유사도(MSIM)를 계산하고, 공간 이미지 1의 객체(예컨대, 의자, 창문 등)와 공간 이미지 2의 객체(예컨대, 의자, 창문 등) 간의 유사도(OSIM1, OSIM2)를 계산한다. 여기서, 공간 이미지 1은 공간 이미지 테이블의 공간 이미지이되 검색어에 상응하는 소스 이미지이고, 공간 이미지 2는 공간 이미지 테이블의 공간 이미지들 중에서 소스 이미지 이외의 공간 이미지이다. As illustrated in FIG. 7 , the control module 36 calculates a similarity (MSIM) between the atmosphere of spatial image 1 and the atmosphere of spatial image 2, which is a comparison target, and compares the object (eg, chair, window, etc.) of spatial image 1 and The degree of similarity (OSIM1, OSIM2) between objects (eg, chair, window, etc.) of spatial image 2 is calculated. Here, spatial image 1 is a spatial image of the spatial image table and is a source image corresponding to a search term, and spatial image 2 is a spatial image other than the source image among spatial images of the spatial image table.

그리고 나서, 제어 모듈(36)은 계산된 분위기 간의 유사도(MSIM) 및 객체 간의 유사도(OSIM1, OSIM2)를 총합하여 공간 이미지 간의 유사도(TSIM)를 구한다. 이때, 제어 모듈(36)은 계산된 분위기 간의 유사도(MSIM)에 분위기 가중치(MW)를 적용하고, 계산된 객체 간의 유사도(OSIM1, OSIM2)에 객체별 가중치(OWi)를 적용하여 공간 이미지 간의 유사도(TSIM)를 구한다. 여기서, 적용이라고 함은 합하거나 곱하는 것을 의미할 수 있다. 상술한 공간 이미지 간의 유사도(TSIM)는 소스 이미지(예컨대, 공간 이미지 1)와 다른 공간 이미지 간의 유사도(TSIM)를 의미한다.Then, the control module 36 calculates the similarity between the spatial images (TSIM) by summing the calculated similarities between atmospheres (MSIM) and objects (OSIM1, OSIM2). At this time, the control module 36 applies an atmosphere weight (MW) to the calculated similarity between atmospheres (MSIM), and applies a weight (OW i ) for each object to the calculated similarities between objects (OSIM1, OSIM2), so that the spatial images are separated. Find the similarity (TSIM). Here, application may mean summing or multiplying. The above-described similarity between spatial images (TSIM) means a similarity (TSIM) between a source image (eg, spatial image 1) and another spatial image.

즉, 제어 모듈(36)은 소스 이미지와 공간 이미지 테이블의 다른 공간 이미지간의 유사도를 계산할 수 있다. 이와 같이 하면 소스 이미지(예컨대, 공간 이미지 1)와 공간 이미지 2 간의 유사도(TSIM), 소스 이미지(예컨대, 공간 이미지 1)와 공간 이미지 3 간의 유사도(TSIM), 소스 이미지(예컨대, 공간 이미지 1)와 공간 이미지 4 간의 유사도(TSIM) 등을 구할 수 있다. 만약, 소스 이미지가 공간 이미지 1이 아니라 공간 이미지 3이었다면, 소스 이미지(공간 이미지 3)와 공간 이미지 1 간의 유사도(TSIM), 소스 이미지(공간 이미지 3)와 공간 이미지 2 간의 유사도(TSIM), 소스 이미지(공간 이미지 3)와 공간 이미지 4 간의 유사도(TSIM) 등을 구할 수 있다.That is, the control module 36 may calculate the similarity between the source image and other spatial images in the spatial image table. In this way, the similarity (TSIM) between the source image (eg, spatial image 1) and spatial image 2, the similarity (TSIM) between the source image (eg, spatial image 1) and spatial image 3, and the source image (eg, spatial image 1) and the similarity (TSIM) between the spatial image 4 and the like can be obtained. If the source image was spatial image 3 instead of spatial image 1, the similarity between the source image (spatial image 3) and spatial image 1 (TSIM), the similarity between the source image (spatial image 3) and spatial image 2 (TSIM), and the source The similarity (TSIM) between the image (spatial image 3) and the spatial image 4 may be obtained.

상기 열거한 공간 이미지의 수는 4개로 한정되는 것이 아니라, 더 많이 있을 수 있다.The number of spatial images listed above is not limited to four, but may be more.

이와 같이 가중치(MW, OWi)가 반영된 공간 이미지 간의 유사도(TSIM)를 구하게 되면, 제어 모듈(36)은 계산된 공간 이미지 간의 유사도(TSIM)에 근거하여 검색어에 상응하는 소스 이미지와 유사한 추천 공간 이미지(예컨대, 1 ~ 2개 정도)를 결정할 수 있다. 이 경우, 제어 모듈(36)은 공간 이미지 테이블내의 공간 이미지들 중에서 소스 이미지의 객체들 중에서 시선이 가장 오랫동안 머문 객체와 유사한 객체를 포함하는 공간 이미지를 추천 공간 이미지로 결정할 수 있다.When the similarity (TSIM) between the spatial images to which the weights (MW, OW i ) is reflected is obtained, the control module 36 performs a recommendation space similar to the source image corresponding to the search word based on the calculated similarity (TSIM) between the spatial images. Images (eg, about 1 or 2) may be determined. In this case, the control module 36 may determine, among the spatial images in the spatial image table, a spatial image including an object similar to an object on which the gaze has stayed the longest among objects of the source image as the recommended spatial image.

제어 모듈(36)은 결정된 추천 공간 이미지를 통신 모듈(32)을 통해 단말(10)에게로 전송할 수 있다.The control module 36 may transmit the determined recommended space image to the terminal 10 through the communication module 32 .

제어 모듈(36)은 서버(30)의 동작을 위한 일련의 연산들 또는 판단들을 수행할 수 있는 장치를 의미할 수 있다. 예를 들어, 제어 모듈(36)는 CPU(central processing unit), MCU(micro controller unit), GPU(graphical processing unit), ASIC(application specific integrated circuit), 또는 FPGA(field programmable gate array)일 수 있으나, 이에 한정되는 것은 아니다.The control module 36 may refer to a device capable of performing a series of operations or judgments for the operation of the server 30 . For example, the control module 36 may be a central processing unit (CPU), a micro controller unit (MCU), a graphic processing unit (GPU), an application specific integrated circuit (ASIC), or a field programmable gate array (FPGA). , but is not limited thereto.

또한, 본 발명의 실시예에서는 제어 모듈(36)은 적어도 하나의 프로세서를 포함할 수 있는데, 적어도 하나의 프로세서가 서버(30)에서 수행되는 동작들을 제어할 수 있으며 시선 추적을 통한 공간 이미지 추천 서비스 동작이 수행되도록 서버(30) 내에 포함되는 다른 구성들을 제어할 수 있다. 따라서, 제어 모듈(36)이 시선 추적을 통한 공간 이미지 추천 서비스 동작이 수행되도록 제어하는 경우를 예로 들어 설명하더라도, 제어 모듈(36)에 포함되는 적어도 하나의 프로세서가 시선 추적을 통한 공간 이미지 추천 서비스 동작이 수행되도록 제어할 수 있음은 자명하다 할 것이다.In addition, in the embodiment of the present invention, the control module 36 may include at least one processor, and the at least one processor may control the operations performed in the server 30 and provide a spatial image recommendation service through eye tracking. It is possible to control other components included in the server 30 so that the operation is performed. Accordingly, even if the control module 36 controls the spatial image recommendation service operation through eye tracking to be performed as an example, at least one processor included in the control module 36 performs the spatial image recommendation service through eye tracking. It will be obvious that the operation can be controlled to be performed.

도 8은 본 발명의 실시예에 따른 시선 추적을 통한 공간 이미지 추천 방법을 설명하기 위한 플로우차트이다.8 is a flowchart for explaining a spatial image recommendation method through eye tracking according to an embodiment of the present invention.

먼저, 서버(30)는 단말(10)로부터의 검색어를 수신한다(S10).First, the server 30 receives a search term from the terminal 10 (S10).

서버(30)는 검색어를 수신함에 따라 데이터베이스(40)에서 해당 검색어에 상응하는 공간 이미지를 탐색하여 소스 이미지로서 단말(10)에게로 전송한다(S20).Upon receiving the search word, the server 30 searches for a spatial image corresponding to the search word in the database 40 and transmits it to the terminal 10 as a source image (S20).

이어, 단말(10)은 카메라(20)와 연계하여 소스 이미지에서의 사용자의 시선 움직임을 추적하고, 추적에 따라 실시간으로 시선 움직임 데이터를 생성하여 서버(30)에게로 전송한다(S30).Next, the terminal 10 tracks the user's gaze movement in the source image in association with the camera 20 , and generates and transmits gaze movement data in real time according to the tracking to the server 30 ( S30 ).

그에 따라, 서버(30)는 단말(10)로부터의 시선 움직임 데이터를 수집하여 저장 모듈(34)에 저장시킨다(S40).Accordingly, the server 30 collects the gaze movement data from the terminal 10 and stores it in the storage module 34 (S40).

이후, 서버(30)는 단말(10)로부터의 이미지 추천 요청을 수신한다(S50).Thereafter, the server 30 receives an image recommendation request from the terminal 10 (S50).

서버(30)는 단말(10)로부터의 이미지 추천 요청을 수신함에 따라 그동안 수집해둔 시선 움직임 데이터를 근거로 사용자의 시선 움직임을 분석한다(S60).When the server 30 receives the image recommendation request from the terminal 10, the server 30 analyzes the user's gaze movement based on the gaze movement data collected so far (S60).

그리고 나서, 서버(30)는 시선 움직임 분석 결과를 근거로 공간 이미지 간의 유사도(TSIM)를 계산한다(S70). 예를 들어, 시선 움직임 분석 결과를 근거로 소스 이미지의 분위기 가중치(MW) 및 객체별 가중치(OW1 ~ OWn)를 구한 후에 이들을 근거로 공간 이미지 간의 유사도(TSIM)를 계산한다.Then, the server 30 calculates a similarity (TSIM) between spatial images based on the gaze motion analysis result (S70). For example, after obtaining the atmospheric weight (MW) of the source image and the weights (OW 1 to OW n ) of the source image based on the gaze movement analysis result, the similarity (TSIM) between spatial images is calculated based on these.

서버(30)는 계산된 공간 이미지 간의 유사도(TSIM)에 근거하여 검색어에 상응하는 소스 이미지와 유사한 추천 공간 이미지를 결정한다(S80).The server 30 determines a recommended spatial image similar to the source image corresponding to the search term based on the calculated similarity between spatial images (TSIM) (S80).

이어, 서버(30)는 결정된 추천 공간 이미지를 단말(10)에게로 전송한다(S90).Next, the server 30 transmits the determined recommended space image to the terminal 10 (S90).

또한, 상술한 본 발명의 시선 추적을 통한 공간 이미지 추천 방법은, 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 방법을 구현하기 위한 기능적인(function) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.In addition, the spatial image recommendation method through eye tracking of the present invention described above can be implemented as a computer-readable code on a computer-readable recording medium. The computer-readable recording medium includes all types of recording devices in which data readable by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage device. In addition, the computer-readable recording medium is distributed in a computer system connected through a network, so that the computer-readable code can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the method can be easily inferred by programmers in the art to which the present invention pertains.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical spirit of the present invention, and various modifications and variations will be possible without departing from the essential characteristics of the present invention by those skilled in the art to which the present invention pertains. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed by the following claims, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.

10 : 단말 20 :카메라
30 : 서버 32 : 통신 모듈
34 : 저장 모듈 36 : 제어 모듈
40 : 데이터베이스
10: terminal 20: camera
30: server 32: communication module
34: storage module 36: control module
40: database

Claims (10)

다수의 공간 이미지 각각의 특징들에 대한 정보를 포함하는 공간 이미지 테이블을 저장하는 저장 모듈; 및
연산 처리 기능을 갖는 제어 모듈;을 포함하고,
상기 제어 모듈은, 상기 저장 모듈에 저장된 복수의 명령들에 기초하여,
사용자의 단말로부터 수신된 검색어에 상응하는 공간 이미지를 상기 공간 이미지 테이블에서 탐색하여 소스 이미지로서 상기 단말에게로 전송하고,
상기 소스 이미지를 표시하는 상기 단말로부터 상기 소스 이미지에 대한 사용자의 시선 움직임 데이터를 수집하고,
상기 수집된 시선 움직임 데이터 및 상기 공간 이미지 테이블을 근거로 시선 움직임을 분석하고,
상기 시선 움직임의 분석 결과를 근거로 상기 소스 이미지와 상기 공간 이미지 테이블의 다른 공간 이미지 간의 유사도를 계산하고,
상기 계산된 공간 이미지 간의 유사도에 근거하여 상기 다수의 공간 이미지들 중에서 상기 소스 이미지와 유사한 공간 이미지를 추천 공간 이미지로서 상기 단말에게로 제공하고,
상기 시선 움직임 데이터는 상기 소스 이미지에 대한 상기 사용자의 시선의 시간별 위치 정보를 포함하고, 상기 제어 모듈은 상기 시선 움직임 데이터를 근거로 상기 소스 이미지 상에서의 시선의 움직임을 분석하여 상기 소스 이미지의 특징들 각각에 상기 사용자의 시선이 향하는 주시 시간을 계산하고, 특징들 각각의 주시 시간에 기초하여 공간 이미지 간의 유사도를 계산하고,
상기 특징들은 상기 공간 이미지 상에 나타난 객체들 및 상기 공간 이미지의 분위기를 포함하고, 상기 제어 모듈은 상기 사용자의 시선이 상기 객체들 각각에 일정 시간 이상 지속하여 위치하는 시간을 상기 객체들 각각에 대한 주시 시간으로 결정하고, 상기 사용자의 시선이 상기 객체들 중 어느 것에도 일정 시간 이상 지속하여 위치하지 않는 시간을 상기 분위기에 대한 주시 시간으로 결정하고,
상기 제어 모듈은
상기 분위기에 대한 주시 시간을 이용하여 상기 소스 이미지의 분위기 가중치를 계산하고, 상기 객체들 각각에 대한 주시 시간을 이용하여 상기 소스 이미지의 객체별 가중치를 계산하고, 계산된 상기 분위기 가중치 및 객체별 가중치를 근거로 상기 공간 이미지 간의 유사도를 계산하고,
상기 소스 이미지는 n개의 객체들을 포함하고, 상기 분위기 가중치는 하기의 식 1을 통해 계산되고,
상기 객체별 가중치는 하기의 식 2를 통해 계산되는,
시선 추적을 통한 공간 이미지 추천 장치.
(식 1)
Figure 112022073553078-pat00015

(식 2)
Figure 112022073553078-pat00016

(T1i는 상기 소스 이미지의 i(i≤n)번째 객체에 상기 사용자의 시선이 일정 시간 이상 지속하여 위치한 시간을 의미하고, T2는 상기 사용자의 시선이 객체들 중 어느 객체에도 일정 시간 이상 지속하여 위치하지 않은 시간을 의미한다.)
a storage module for storing a spatial image table including information on characteristics of each of the plurality of spatial images; and
Including; a control module having an arithmetic processing function;
The control module, based on the plurality of commands stored in the storage module,
Searching for a spatial image corresponding to the search word received from the user's terminal in the spatial image table and transmitting it to the terminal as a source image,
Collecting the user's gaze movement data for the source image from the terminal displaying the source image,
Analyze the gaze movement based on the collected gaze movement data and the spatial image table,
calculating a similarity between the source image and another spatial image of the spatial image table based on the analysis result of the gaze movement;
providing a spatial image similar to the source image among the plurality of spatial images to the terminal as a recommended spatial image based on the calculated similarity between the spatial images;
The gaze movement data includes time-based location information of the user's gaze with respect to the source image, and the control module analyzes the gaze movement on the source image based on the gaze movement data to obtain features of the source image. calculating the gaze time to which the user's gaze is directed to each, and calculating the similarity between spatial images based on the gaze time of each feature,
The features include the objects displayed on the spatial image and the atmosphere of the spatial image, and the control module determines the time for which the user's gaze continues to be located on each of the objects for a predetermined time or longer for each of the objects. determining the gaze time, and determining the time when the user's gaze is not located on any of the objects for a certain period of time or longer as the gaze time for the atmosphere;
The control module is
The atmosphere weight of the source image is calculated using the gaze time for the atmosphere, the weight of each object of the source image is calculated using the gaze time of each of the objects, and the calculated atmosphere weight and the weight for each object are calculated. Calculate the similarity between the spatial images based on
The source image includes n objects, and the atmosphere weight is calculated through Equation 1 below,
The weight for each object is calculated through Equation 2 below,
Spatial image recommendation device through eye tracking.
(Equation 1)
Figure 112022073553078-pat00015

(Equation 2)
Figure 112022073553078-pat00016

(T1 i means the time when the user's gaze is continuously located on the i(i≤n)-th object of the source image for a predetermined time or more, and T2 is the time when the user's gaze is continuously located on any of the objects for a predetermined time or more It means the time when it is not located.)
삭제delete 삭제delete 삭제delete 삭제delete 제 1항에 있어서,
상기 제어 모듈은,
상기 소스 이미지의 분위기와 상기 다른 공간 이미지의 분위기 간의 유사도를 구하고, 상기 소스 이미지의 객체와 상기 다른 공간 이미지의 객체 간의 유사도를 구하고, 계산된 분위기 간의 유사도 및 객체 간의 유사도를 이용하여 공간 이미지 간의 유사도를 구하되, 상기 분위기 간의 유사도에 상기 분위기 가중치를 적용하고, 상기 객체 간의 유사도에 상기 객체별 가중치를 적용하여 상기 소스 이미지와 상기 다른 공간 이미지 간의 유사도를 계산하는,
시선 추적을 통한 공간 이미지 추천 장치.
The method of claim 1,
The control module is
The degree of similarity between the atmosphere of the source image and the atmosphere of the other spatial image is obtained, the degree of similarity between the object of the source image and the object of the other spatial image is obtained, and the degree of similarity between spatial images using the calculated similarity between atmospheres and the similarity between objects calculating the similarity between the source image and the other spatial image by applying the atmosphere weight to the degree of similarity between the atmospheres, and applying the weight for each object to the degree of similarity between the objects,
Spatial image recommendation device through eye tracking.
제 1항에 있어서,
상기 제어 모듈은,
사용자가 상기 소스 이미지를 바라본 시점부터 이미지 추천 요청 메뉴가 선택되기 전까지의 시선 움직임 데이터를 상기 단말로부터 수집하는,
시선 추적을 통한 공간 이미지 추천 장치.
The method of claim 1,
The control module is
Collecting gaze movement data from the terminal from the time the user looks at the source image until the image recommendation request menu is selected,
Spatial image recommendation device through eye tracking.
시선 추적을 통한 공간 이미지 추천 장치에서 수행되는 방법으로서,
다수의 공간 이미지 각각의 특징들에 대한 정보를 포함하는 공간 이미지 테이블에서 사용자의 단말로부터 수신된 검색어에 상응하는 공간 이미지를 탐색하여 소스 이미지로서 상기 단말에게로 전송하는 단계;
상기 소스 이미지를 표시하는 상기 단말로부터 상기 소스 이미지에 대한 사용자의 시선 움직임 데이터를 수집하는 단계;
상기 수집된 시선 움직임 데이터 및 상기 공간 이미지 테이블을 근거로 시선 움직임을 분석하는 단계;
상기 시선 움직임의 분석 결과를 근거로 상기 소스 이미지와 상기 공간 이미지 테이블의 다른 공간 이미지 간의 유사도를 계산하는 단계; 및
상기 계산된 공간 이미지 간의 유사도에 근거하여 상기 다수의 공간 이미지들 중에서 상기 소스 이미지와 유사한 공간 이미지를 추천 공간 이미지로서 상기 단말에게로 제공하는 단계;를 포함하고,
상기 시선 움직임 데이터는 상기 소스 이미지에 대한 상기 사용자의 시선의 시간별 위치 정보를 포함하고,
상기 특징들은 상기 공간 이미지 상에 나타난 객체들 및 상기 공간 이미지의 분위기를 포함하고
상기 시선 움직임을 분석하는 단계는 상기 시선 움직임 데이터를 근거로 상기 소스 이미지 상에서의 시선의 움직임을 분석하여 상기 소스 이미지의 특징들 각각에 상기 사용자의 시선이 향하는 주시 시간을 계산하되, 상기 사용자의 시선이 상기 객체들 각각에 일정 시간 이상 지속하여 위치하는 시간을 상기 객체들 각각에 대한 주시 시간으로 결정하고, 상기 사용자의 시선이 상기 객체들 중 어느 것에도 일정 시간 이상 지속하여 위치하지 않는 시간을 상기 분위기에 대한 주시 시간으로 결정하고,
상기 공간 이미지 간의 유사도를 계산하는 단계는 상기 특징들 각각의 주시 시간에 기초하여 공간 이미지 간의 유사도를 계산하되, 상기 분위기에 대한 주시 시간을 이용하여 상기 소스 이미지의 분위기 가중치를 계산하고, 상기 객체들 각각에 대한 주시 시간을 이용하여 상기 소스 이미지의 객체별 가중치를 계산하고, 계산된 상기 분위기 가중치 및 객체별 가중치를 근거로 상기 공간 이미지 간의 유사도를 계산하고,
상기 소스 이미지는 n개의 객체들을 포함하고, 상기 분위기 가중치는 하기의 식 1을 통해 계산되고,
상기 객체별 가중치는 하기의 식 2를 통해 계산되는,
시선 추적을 통한 공간 이미지 추천 방법.
(식 1)
Figure 112022073553078-pat00017

(식 2)
Figure 112022073553078-pat00018

(T1i는 상기 소스 이미지의 i(i≤n)번째 객체에 상기 사용자의 시선이 일정 시간 이상 지속하여 위치한 시간을 의미하고, T2는 상기 사용자의 시선이 객체들 중 어느 객체에도 일정 시간 이상 지속하여 위치하지 않은 시간을 의미한다.)
As a method performed in a spatial image recommendation device through eye tracking,
retrieving a spatial image corresponding to a search word received from a user's terminal in a spatial image table including information on characteristics of each of a plurality of spatial images and transmitting it to the terminal as a source image;
collecting the user's gaze movement data with respect to the source image from the terminal displaying the source image;
analyzing the gaze movement based on the collected gaze movement data and the spatial image table;
calculating a similarity between the source image and another spatial image of the spatial image table based on the analysis result of the gaze movement; and
providing, as a recommended spatial image, a spatial image similar to the source image among the plurality of spatial images to the terminal based on the calculated similarity between the spatial images;
The gaze movement data includes time-based location information of the user's gaze with respect to the source image,
The characteristics include objects appearing on the spatial image and an atmosphere of the spatial image,
In the analyzing the gaze movement, the gaze movement on the source image is analyzed based on the gaze movement data to calculate a gaze time at which the user's gaze is directed to each of the features of the source image, but the user's gaze A time to be continuously located on each of the objects for a predetermined time or more is determined as a gaze time for each of the objects, and a time during which the user's gaze is not located on any of the objects for a certain period of time or longer is said Determined by the watch time for the atmosphere,
Calculating the similarity between the spatial images includes calculating the similarity between spatial images based on the gaze time of each of the features, calculating the atmosphere weight of the source image using the gaze time for the atmosphere, and calculating a weight for each object of the source image using the gaze time for each, and calculating a similarity between the spatial images based on the calculated atmosphere weight and weight for each object;
The source image includes n objects, and the atmosphere weight is calculated through Equation 1 below,
The weight for each object is calculated through Equation 2 below,
A spatial image recommendation method through eye tracking.
(Equation 1)
Figure 112022073553078-pat00017

(Equation 2)
Figure 112022073553078-pat00018

(T1 i means the time when the user's gaze is continuously located on the i(i≤n)-th object of the source image for a predetermined time or more, and T2 is the time when the user's gaze is continuously located on any of the objects for a predetermined time or more It means the time when it is not located.)
삭제delete 삭제delete
KR1020220039895A 2022-03-30 2022-03-30 Apparatus and method for spatial image recommendation through eye tracking KR102443797B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/KR2022/095071 WO2023191259A1 (en) 2022-03-30 2022-03-30 Device and method for recommending spatial image through gaze tracking
KR1020220039895A KR102443797B1 (en) 2022-03-30 2022-03-30 Apparatus and method for spatial image recommendation through eye tracking

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220039895A KR102443797B1 (en) 2022-03-30 2022-03-30 Apparatus and method for spatial image recommendation through eye tracking

Publications (1)

Publication Number Publication Date
KR102443797B1 true KR102443797B1 (en) 2022-09-16

Family

ID=83445180

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220039895A KR102443797B1 (en) 2022-03-30 2022-03-30 Apparatus and method for spatial image recommendation through eye tracking

Country Status (2)

Country Link
KR (1) KR102443797B1 (en)
WO (1) WO2023191259A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101350526B1 (en) 2009-07-10 2014-01-10 페킹 유니버시티 Image manipulation based on tracked eye movement
KR101564042B1 (en) 2014-03-14 2015-10-29 동양대학교 산학협력단 A method on the characteristics of space search shown at observation seen in the process of perception and recognition of space and system thereof
KR20200114838A (en) * 2019-03-29 2020-10-07 경북대학교 산학협력단 Electronic apparatus and control method thereof
KR102234609B1 (en) * 2020-07-23 2021-04-02 주식회사 어반베이스 Apparatus and method for recommending goods based on analysis of image database
KR20210109275A (en) * 2020-02-27 2021-09-06 삼성전자주식회사 Method and apparatus of predicting user's object of interest

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101850101B1 (en) * 2012-01-31 2018-04-19 한국전자통신연구원 Method for providing advertising using eye-gaze
KR101978299B1 (en) * 2012-10-24 2019-05-14 에스케이플래닛 주식회사 Apparatus for service contents in contents service system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101350526B1 (en) 2009-07-10 2014-01-10 페킹 유니버시티 Image manipulation based on tracked eye movement
KR101564042B1 (en) 2014-03-14 2015-10-29 동양대학교 산학협력단 A method on the characteristics of space search shown at observation seen in the process of perception and recognition of space and system thereof
KR20200114838A (en) * 2019-03-29 2020-10-07 경북대학교 산학협력단 Electronic apparatus and control method thereof
KR20210109275A (en) * 2020-02-27 2021-09-06 삼성전자주식회사 Method and apparatus of predicting user's object of interest
KR102234609B1 (en) * 2020-07-23 2021-04-02 주식회사 어반베이스 Apparatus and method for recommending goods based on analysis of image database

Also Published As

Publication number Publication date
WO2023191259A1 (en) 2023-10-05

Similar Documents

Publication Publication Date Title
US10838967B2 (en) Emotional intelligence for a conversational chatbot
US20200327311A1 (en) Image clustering method and apparatus, electronic device, and storage medium
US11036991B2 (en) Information display method, device, and system
WO2020199932A1 (en) Model training method, face recognition method, device and apparatus, and storage medium
CN110245213B (en) Questionnaire generation method, device, equipment and storage medium
US11397462B2 (en) Real-time human-machine collaboration using big data driven augmented reality technologies
Avrahami et al. Below the surface: Unobtrusive activity recognition for work surfaces using RF-radar sensing
US20200394216A1 (en) Method and device for video processing, electronic device, and storage medium
US20150046496A1 (en) Method and system of generating an implicit social graph from bioresponse data
KR20150122666A (en) Method and device for calibration-free gaze estimation
CN113301442B (en) Method, device, medium, and program product for determining live broadcast resource
CN110135497B (en) Model training method, and method and device for estimating strength of facial action unit
CN104243276B (en) A kind of contact person recommends method and device
US20140333746A1 (en) Method and apparatus for inquiring information
JP7224442B2 (en) Method and apparatus for reducing false positives in face recognition
JP2023541752A (en) Neural network model training methods, image retrieval methods, equipment and media
CN113723159A (en) Scene recognition model training method, scene recognition method and model training device
KR20130024739A (en) System and method for analyzing experience in real time
KR102443797B1 (en) Apparatus and method for spatial image recommendation through eye tracking
KR101720584B1 (en) Method, server and computer program for generating thumbnail image
CN111343338B (en) Wallpaper switching method and device, mobile terminal and storage medium
CN113313735B (en) Panoramic video data processing method and device
KR102402684B1 (en) Method for providing an information of self skin condition based on big data in non-facing environment
CN116453005A (en) Video cover extraction method and related device
CN112256976B (en) Matching method and related device

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant