KR20150108575A - Apparatus identifying the object based on observation scope and method therefor, computer readable medium having computer program recorded therefor - Google Patents

Apparatus identifying the object based on observation scope and method therefor, computer readable medium having computer program recorded therefor Download PDF

Info

Publication number
KR20150108575A
KR20150108575A KR1020140031521A KR20140031521A KR20150108575A KR 20150108575 A KR20150108575 A KR 20150108575A KR 1020140031521 A KR1020140031521 A KR 1020140031521A KR 20140031521 A KR20140031521 A KR 20140031521A KR 20150108575 A KR20150108575 A KR 20150108575A
Authority
KR
South Korea
Prior art keywords
region
interest
information
roi
user
Prior art date
Application number
KR1020140031521A
Other languages
Korean (ko)
Other versions
KR102213865B1 (en
Inventor
전혁준
신형철
장언동
전병기
Original Assignee
에스케이플래닛 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이플래닛 주식회사 filed Critical 에스케이플래닛 주식회사
Priority to KR1020140031521A priority Critical patent/KR102213865B1/en
Priority to PCT/KR2014/010555 priority patent/WO2015133699A1/en
Publication of KR20150108575A publication Critical patent/KR20150108575A/en
Application granted granted Critical
Publication of KR102213865B1 publication Critical patent/KR102213865B1/en

Links

Images

Classifications

    • G06F17/30
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)

Abstract

In the present invention, disclosed are an apparatus and a method for identifying an object based on an observation scope, and a recording medium recorded with a computer program. Accordingly, the present invention collects position information of eyes which look at content displayed on a display, sets a region of interest according to the detected position of the eyes, and can check an object in the region of interest. A quick and accurate search can be carried out by using the method, compared to an existing image search.

Description

주시 영역 기반 객체 식별 장치 및 방법, 컴퓨터 프로그램이 기록된 기록매체{Apparatus identifying the object based on observation scope and method therefor, computer readable medium having computer program recorded therefor}[0001] The present invention relates to an object-based object identification apparatus and method, and a recording medium on which a computer program is recorded.

본 발명은 주시 영역 기반 객체 식별 장치 및 방법, 컴퓨터 프로그램이 기록된 기록매체에 관한 것으로, 특히 사용자가 주시하는 영역을 중심으로 관심 영역을 설정하고 해당 관심 영역을 객체 후보 영역으로 하여 객체를 식별 및 검색하는 주시 영역 기반 객체 식별 장치 및 방법, 컴퓨터 프로그램이 기록된 기록매체에 관한 것이다.The present invention relates to an apparatus and method for identifying an object based on a viewing area and a recording medium on which a computer program is recorded. More particularly, the present invention relates to a method and apparatus for identifying and identifying objects by setting a region of interest And a recording medium on which a computer program is recorded.

디지털 컨텐츠에 대한 수요가 증가하면서 우리 주변에는 방대한 양의 멀티미디어 컨텐츠(비디오, 음악, 영상, 이미지 등)가 끈임 없이 생성, 제작, 유통 및 서비스되고 있다. 그 중에서도 디지털 영상 및 이미지는 고성능, 휴대용 디지털 카메라의 보급과 대용량 저장장치나 휴대용 저장매체의 가격하락과 함께 가히 폭발적으로 그 수가 증가하고 있다. 이에 따라 이러한 영상 및 이미지가 포함하고 있는 정보를, 필요시 효율적으로 찾아내고 원하는 대상을 다른 것과 정확하게 식별하고 분류하여 검색하는 서비스 장치, 사용자 장치 및 방법에 대한 수요도 점점 늘어나고 있다.As the demand for digital contents grows, a huge amount of multimedia contents (video, music, image, image, etc.) are generated, produced, distributed and serviced around us. Among them, digital images and images are explosively increasing in number with the spread of high-performance, portable digital cameras and falling prices of mass storage devices and portable storage media. Accordingly, there is a growing demand for a service apparatus, a user apparatus, and a method for efficiently searching for information included in such images and images, and for accurately identifying and classifying desired objects as others.

이에 따라 특정한 목적을 가지고 사물을 관찰하는 경우, 영상 또는 이미지 내에서 관심의 대상이 되는 영역인 관심 영역(region-of-interest: ROI)에 대한 집중도가 그렇지 않은 영역에 비해 높으므로 아이 트래킹을 통한 관심 영역의 검출에 대한 기술이 활용되고 있다.Accordingly, when objects are observed with a specific purpose, the degree of focus on the region-of-interest (ROI), which is an area of interest in the image or image, Techniques for detecting regions of interest are being utilized.

아이 트래킹 기술은 전면 카메라 및 아이 트래킹 센서를 통하여 안구의 움직임(시선)을 검출한 후 검출된 안구의 움직임에 따라 사용자가 원하는 특정 동작을 수행하는 기술이다. 예를 들어, 사용자가 단말기를 사용하기 위해 화면을 바라보면 자동으로 전원이 온되거나 화면에서 눈을 떼면 자동으로 슬립모드로 진입하는 동작을 수행할 수 있다. 또한, 사용자가 눈을 깜박이거나 눈동자의 좌우 움직임에 따라 스크롤이나 페이지 넘김 등을 수행할 수도 있을 것이다.The eye tracking technique detects eye movements (eye line) through the front camera and the eye tracking sensor, and then performs a specific operation desired by the user according to the detected movement of the eyeball. For example, when the user looks at the screen to use the terminal, the user can automatically enter the sleep mode when the power is turned on or when the user eyes the screen. In addition, the user may blink the eyes or perform the scroll or page turn according to the left and right movements of the eyes.

그러나 아이 트래킹을 통한 관심 영역의 검출은 관심 영역 내에 존재하는 객체의 식별정보를 확인하고 이와 유사도가 높은 이미지를 검색하여 그 결과를 제시하지는 않으므로 사용자에 의한 별도의 객체 식별 요청이 필요하다.However, the detection of the ROI through eye tracking requires identification of the object existing in the ROI and does not present the result of retrieving the image having high similarity. Therefore, a separate object identification request is required by the user.

본 발명의 목적은 아이 트래킹을 통해 관심 영역을 선택하고, 선택된 관심 영역에 한하여 객체를 검출하므로, 전체 이미지 또는 영상에 대한 객체 검출에 비해 신속하고 정확하게 객체를 검출하는 주시 영역 기반 객체 식별 장치 및 방법, 컴퓨터 프로그램이 기록된 기록매체를 제공하는데 있다.An object of the present invention is to provide a viewing area-based object identifying apparatus and method for detecting an object quickly and accurately as compared with object detection for an entire image or image, by selecting an area of interest through eye tracking and detecting an object only for a selected area of interest , And a recording medium on which a computer program is recorded.

본 발명의 다른 목적은 관심 영역에 대한 객체를 검출하여 객체에 대한 정보를 관심 영역 데이터베이스에 저장하고 객체에 대응되는 웹페이지 정보가 존재하는 경우 해당 웹페이지 정보도 연동하여 저장하고 이를 제공하는 주시 영역 기반 객체 식별 장치 및 방법, 컴퓨터 프로그램이 기록된 기록매체를 제공하는데 있다.Another object of the present invention is to provide a method and apparatus for detecting an object for a region of interest, storing information about the object in the region of interest database, storing the corresponding web page information when the corresponding web page information exists, Based object identification apparatus and method, and a recording medium on which a computer program is recorded.

본 발명의 실시예에 따른 주시 영역 기반 객체 식별 장치는 컨텐츠가 표시된 디스플레이 상의 시선을 감지하여 시선 대응 영역을 추출하는 시선 대응 영역 추출부; 시선 대응 영역을 기준으로 관심 영역을 선택하는 관심 영역 선택부; 및 관심 영역 내의 객체를 식별하는 검색부:를 포함한다.A viewing area-based object identification apparatus according to an exemplary embodiment of the present invention includes a line-of-sight corresponding area extractor for extracting a line-of-sight corresponding area by sensing a line of sight on a display screen on which content is displayed; A region of interest selector for selecting a region of interest based on the line of sight corresponding region; And a search unit for identifying an object in the ROI.

본 발명과 관련된 일 예로서 식별된 객체의 정보를 바탕으로 유사도가 높은 이미지를 검색하고 그 결과를 제공하는 데이터베이스;를 더 포함한다.As an example related to the present invention, the present invention further includes a database for searching an image having high similarity based on the information of the identified object and providing the result.

본 발명과 관련된 일 예로서 컨텐츠는 텍스트, 사진, 동영상 및 웹페이지를 포함한다.As one example related to the present invention, the content includes text, photographs, moving pictures, and web pages.

본 발명의 실시예에 따른 주시 영역 기반 객체 식별 방법은 디스플레이 상에 표시된 컨텐츠를 응시하는 사용자의 시선 각도 정보에 따른 관찰 영상의 위치 정보를 누적하는 시선 확인 단계; 누적된 위치 정보를 기준으로 관심 영역(ROI)을 설정하는 관심 영역 설정 단계; 관심 영역의 특징을 추출한 후 객체 식별을 위한 검색부를 통해 객체 식별 정보를 확인하는 객체 확인 단계; 및 식별된 객체 정보를 기반으로 미리 구성된 관심 영역 데이터베이스로부터 유사도가 이미지를 검색하여 그 결과를 획득하는 검색 단계;를 포함한다.A method of identifying an object based on a viewing area according to an exemplary embodiment of the present invention includes: a sight line checking step of accumulating position information of an observation image according to gaze angle information of a user gazing at contents displayed on a display; A ROI setting step of setting an ROI based on the accumulated position information; An object identification step of identifying the object identification information through a search unit for object identification after extracting features of a region of interest; And a retrieving step of retrieving an image of similarity from a pre-configured ROI database based on the identified object information and obtaining the result.

본 발명과 관련된 일 예로서 객체 확인 단계는 관심 영역과 해당 관심 영역에 대해 추출된 특징과 식별된 객체에 대한 정보를 관심 영역 데이터베이스에 저장하며, 객체에 대응되는 웹페이지 정보가 존재할 경우 해당 웹페이지 정보를 연동하여 관심 영역 데이터베이스에 저장하는 단계;를 포함한다.As an example related to the present invention, the object identification step stores information on the extracted region and the identified object for the region of interest and the region of interest in the region of interest database, and when the corresponding web page information exists, And storing the information in the interest area database in association with each other.

본 발명과 관련된 일 예로서 검색 단계에서 획득된 관심 영역의 검색 결과는 유사도가 이미지와 해당 관심 영역에 대응되는 웹페이지 정보를 구비하며, 대응되는 웹페이지 정보를 제공한다.As an example related to the present invention, the search result of the ROI obtained in the search step has web page information in which the similarity corresponds to the image and the ROI, and provides the corresponding web page information.

본 발명과 관련된 일 예로서 시선 확인 단계는 시간이 경과함에 따라 사용자의 시선에 따른 시선 위치 정보를 나타내는 지표점을 누적하는 방식으로 실행된다.As an example related to the present invention, the gaze confirmation step is executed in such a manner that index points representing gaze position information according to the user's gaze are accumulated over time.

본 발명과 관련된 일 예로서 컨텐츠는 텍스트, 사진, 동영상 및 웹페이지를 포함한다.As one example related to the present invention, the content includes text, photographs, moving pictures, and web pages.

컴퓨터 프로그램이 기록된 기록매체에는 상술한 실시예에 따른 방법을 수행하는 컴퓨터 프로그램이 저장될 수 있다.A computer program for carrying out the method according to the above-described embodiment can be stored in the recording medium on which the computer program is recorded.

본 발명은 아이 트래킹(eye tracking)을 통해 관심 영역을 선택하고, 선택된 관심 영역에 한하여 객체를 검출하므로, 전체 이미지 또는 영상에 대한 객체 검출에 비해 신속하고 정확하게 객체를 검출할 수 있는 효과가 있다.According to the present invention, an object region is selected through eye tracking, and an object is detected only for a selected region of interest. Therefore, the object can be detected more quickly and accurately than an object detection for an entire image or an image.

또한, 본 발명은 관심 영역에 대한 객체를 검출하여 객체에 대한 정보를 관심 영역 데이터베이스에 저장하고 객체에 대응되는 웹페이지 정보가 존재하는 경우 해당 웹페이지 정보도 연동하여 저장하고 이를 제공할 수 있는 효과가 있다.In addition, the present invention detects an object for a region of interest, stores information about the object in the region of interest database, stores the corresponding web page information when the corresponding web page information exists, .

도 1은 본 발명의 실시예에 따라 시선 대응 영역을 추출하기 위한 아이 트래커를 도시한 도면이다.
도 2는 본 발명의 실시예에 따라 이미지에 대한 사용자의 관찰 영역의 위치 정보를 누적하는 단계를 나타내는 도면이다.
도 3은 본 발명의 실시예에 따라 이미지에 대한 사용자의 관심 영역을 설정하는 단계를 나타내는 도면이다.
도 4는 본 발명의 실시예에 따른 객체 식별 장치를 나타내는 도면이다.
도 5는 본 발명의 실시예에 따른 객체의 식별 및 검색을 나타내는 도면이다.
도 6은 본 발명의 실시예에 따른 객체 식별 및 검색 방법을 나타낸 순서도이다.
1 is a diagram showing an eye tracker for extracting a line-of-sight corresponding area according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating a step of accumulating positional information of a user's observation region with respect to an image according to an embodiment of the present invention.
3 is a diagram illustrating a step of setting a user's area of interest for an image according to an embodiment of the present invention.
4 is a diagram illustrating an object identification apparatus according to an embodiment of the present invention.
5 is a diagram illustrating identification and retrieval of objects according to an embodiment of the present invention.
6 is a flowchart illustrating an object identification and search method according to an embodiment of the present invention.

본 발명에서 사용되는 기술적 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It is noted that the technical terms used in the present invention are used only to describe specific embodiments and are not intended to limit the present invention. In addition, the technical terms used in the present invention should be construed in a sense generally understood by a person having ordinary skill in the art to which the present invention belongs, unless otherwise defined in the present invention, and an overly comprehensive It should not be construed as meaning or overly reduced. In addition, when a technical term used in the present invention is an erroneous technical term that does not accurately express the concept of the present invention, it should be understood that technical terms that can be understood by a person skilled in the art can be properly understood. In addition, the general terms used in the present invention should be interpreted according to a predefined or context, and should not be construed as being excessively reduced.

또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서 "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Furthermore, the singular expressions used in the present invention include plural expressions unless the context clearly dictates otherwise. The term "comprising" or "comprising" or the like in the present invention should not be construed as necessarily including the various elements or steps described in the invention, Or may include additional components or steps.

또한, 본 발명에서 사용되는 제 1, 제 2 등과 같이 서수를 포함하는 용어는 구성 요소들을 설명하는데 사용될 수 있지만 구성 요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성 요소는 제 2 구성 요소로 명명될 수 있고, 유사하게 제 2 구성 요소도 제 1 구성 요소로 명명될 수 있다.In addition, terms including ordinals such as first, second, etc. used in the present invention can be used to describe elements, but the elements should not be limited by terms. Terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals refer to like or similar elements throughout the several views, and redundant description thereof will be omitted.

또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. It is to be noted that the accompanying drawings are only for the purpose of facilitating understanding of the present invention, and should not be construed as limiting the scope of the present invention with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따라 시선 대응 영역을 추출하기 위한 아이 트래커를 도시한 도면이다. 아이 트래커(100)는 사용자의 시선에 대응하는 영역을 추출하기 위해 사용된다.1 is a diagram showing an eye tracker for extracting a line-of-sight corresponding area according to an embodiment of the present invention. The eye tracker 100 is used to extract an area corresponding to the user's line of sight.

아이 트래커(100)는 사용자의 얼굴 인식을 수행하면서 얼굴의 눈동자에 자동 포커싱을 수행할 수 있다. 자동 포커싱이 완료되면 아이 트래커(100)는 눈동자를 포함하는 얼굴 영상을 수집할 수 있다.The eye tracker 100 can perform automatic focusing on the pupil of the face while performing face recognition of the user. Upon completion of the automatic focusing, the eye tracker 100 can collect a face image including a pupil.

아이 트래커(100)는 내부에 저장된 아이 트래킹 알고리즘을 참조할 수 있다. 먼저 아이 트래커(100)는 영상의 얼굴 분석을 수행하여 얼굴의 눈동자 부위 추출을 수행한다. 그리고 눈동자 부위에서 눈동자가 바라보는 시선 각도를 확인한다.The eye tracker 100 may refer to an eye tracking algorithm stored therein. First, the eye tracker 100 performs facial analysis of the image to extract the pupil region of the face. Check the eye angle of the pupil in the pupil area.

신뢰성 있는 위치 측정을 위해 눈동자의 시선 위치 정보를 수집하기 전에 아이 트래커(100)는 초기에 위치 설정을 실행할 수 있다. 아이 트래커(100)는 이를 통해 사용자의 시선 위치 정보가 디스플레이(200)의 영역 중 어느 부위를 바라보는지를 확인, 보정할 수 있다.The eye tracker 100 can initially perform positioning before collecting the eye position information of the pupil for reliable position measurement. The eye tracker 100 can confirm and correct which part of the area of the display 200 the user's gaze position information looks at.

도 2는 본 발명의 실시예에 따라 이미지에 대한 사용자의 관찰 영역의 위치 정보를 누적하는 단계를 나타내는 도면이고, 도 3은 본 발명의 실시예에 따라 이미지에 대한 사용자의 관심 영역을 설정하는 단계를 나타내는 도면이다.FIG. 2 is a diagram illustrating a step of accumulating positional information of a user's observation region with respect to an image according to an embodiment of the present invention. FIG. 3 is a flowchart illustrating a process of setting a user's region of interest Fig.

본 발명의 아이 트래킹 기능은 일정 주기에 따라 운용되거나 실시간으로 적용될 수 있다. 이에 따라 아이 트래커(100)는 일정 주기에 따라 수집되는 시선 위치 정보에 대응하는 디스플레이(200)의 해당 영역을 추출할 수 있다.The eye tracking function of the present invention can be operated in a constant period or in real time. Accordingly, the eye tracker 100 can extract the corresponding region of the display 200 corresponding to the eye position information collected in a predetermined period.

구체적으로, 아이 트래커(100)가 일정 주기(예를 들어, 0.2초)에 따라 전달되는 시선 위치 정보를 추출하는 경우, 일정 주기 별로 시선 위치 정보를 추출하여 디스플레이부(200)의 해당 영역에 시선 대응 영역을 표시하고 이를 누적할 수 있다.Specifically, when the eye tracker 100 extracts visual line position information transmitted according to a predetermined period (for example, 0.2 seconds), it extracts line-of-sight position information for each predetermined period, The corresponding regions can be displayed and accumulated.

예를 들어, 아이 트래킹 모드가 실행되는 순간을 0초로 상정하고, 0.2초 후의 시선 위치 정보를 추출하여 지표점(400)을 선정하고, 다시 0.2초 후의 시선 위치 정보를 추출하여 지표점(400)을 선정한다. 시간이 경과함에 따라 디스플레이(200)에는 사용자의 시선에 따른 시선 위치 정보를 나타내는 지표점(400)이 누적된다.For example, it is assumed that the moment when the eye tracking mode is executed is assumed to be 0 second, the eye point information after 0.2 seconds is extracted to select the eye point 400, the eye point information after 0.2 seconds again, . As time elapses, index points (400) indicating eye position information according to the user's gaze are accumulated on the display (200).

시선 위치 정보 추출은 일정 주기마다 반복되므로, 사용자의 시선이 집중되는 영역, 예를 들어 미리 정해진 횟수 이상으로 해당 영역에 시선 위치 정보가 추출되는 경우, 해당 영역은 객체 식별 장치(600)에 의해 사용자에 있어서 관심 영역으로 판단될 수 있다.Since the line-of-sight position information extraction is repeated at regular intervals, when the line-of-sight position information is extracted in an area in which the user's line of sight is concentrated, for example, a predetermined number of times or more, It can be judged to be a region of interest.

도 2에서는 사용자의 얼굴, 넥타이, 가방, 비행기, 구름, 건물 및 캐리어에 사용자의 시선이 집중됨을 알 수 있다. 이 중에서 집중되는 사용자의 시선 위치 정보가 미리 정해진 기준 이상인 경우, 도면에서는 얼굴, 넥타이, 가방 및 캐리어를 관심 영역으로 판단할 수 있다.In FIG. 2, it can be seen that the user's attention is focused on the face, the tie, the bag, the airplane, the clouds, the building and the carrier of the user. In the case where the focused eye position information of the user is more than a predetermined reference, the face, the tie, the bag and the carrier can be judged as the region of interest in the figure.

관심 영역인지 여부에 대한 구체적인 판단 기준은 밀집도를 예로 들 수 있다. 즉, 디스플레이(200)에 인식되는 사용자의 시선 위치 정보가 디스플레이(200)에는 지표점(400)으로 나타날 수 있고, 전체 디스플레이(200)에서 이러한 복수의 지표점(400)의 밀집도가 미리 정해진 범위 이상인 영역을 관심 영역으로 판단할 수 있다.A specific criterion for whether or not the region of interest is a density is, for example, density. That is, the user's line of sight position information recognized on the display 200 may appear as an index point 400 on the display 200 and the density of the plurality of index points 400 on the entire display 200 may fall within a predetermined range Or more can be judged as the region of interest.

또한 관심 영역의 판단 기준인 지표점(400)의 밀집도는 상대적인 것으로 설정될 수 있다. 즉, 디스플레이(200)에 인식되는 사용자의 시선 위치 정보 중에 지표점(400)의 밀집도가 높은 순으로 몇 개의 영역에 대해서 관심 영역으로 판단할 수도 있다.Also, the density of the landmark 400, which is a criterion of the region of interest, may be set to be relatively high. In other words, it is possible to determine that some areas are in the descending order of density of the landmark points 400 among the user's sight line position information recognized on the display 200 as an area of interest.

이와 같이 아이 트래킹을 수행하여 별다른 터치 동작이나 입력 버튼 제어 동작을 수행하지 않고도 사용자의 시선이 집중되는 영역을 파악할 수 있어, 신뢰성이 우수한 관심 영역의 설정이 가능하다.By performing eye tracking in this way, it is possible to grasp the area where the user's gaze is concentrated without performing any other touch operation or input button control operation, and it is possible to set the area of interest with high reliability.

도 3에서 장방형으로 형성된 관심 영역의 모서리의 설정 기준은 시선 위치 정보에 의해 형성되는 지표점(400)의 밀집도가 미리 정해진 범위 이하인 경우로 설정될 수 있다. 즉, 지표점(400)의 밀집도가 높은 영역의 면적이 클수록, 이에 대응하여 관심 영역으로 설정되는 영역의 면적도 증가할 수 있다.In FIG. 3, the setting reference of the corner of the ROI formed in the rectangle may be set to a case where the density of the surface point 400 formed by the line-of-sight position information is less than or equal to a predetermined range. That is, the larger the area of the area having the high density of the landmark points 400, the larger the area of the area set as the area of interest correspondingly.

도 3에서는 얼굴(501), 넥타이(502), 가방(503) 및 캐리어(504)가 관심 영역으로 설정되었으나 관심 영역의 설정 기준에 따라 더 많은 객체가, 또는 더 적은 수의 객체가 관심 영역으로 설정될 수도 있을 것이다.3, the face 501, the tie 502, the bag 503, and the carrier 504 are set as the region of interest, but according to the setting criterion of the region of interest, more objects, or a smaller number of objects, .

도 3에서 관심 영역이 설정되었으나 이는 지표점(400)의 밀집도에 의한 기준에 의해 관심 영역의 위치가 어디인지가 선택된 것으로, 현 단계에서 객체 식별 장치(600)가 각각의 관심 영역 내의 객체를 식별, 즉, 사람의 얼굴, 넥타이, 가방 및 캐리어임을 식별한 것은 아니다.3, the location of the region of interest is selected according to the criterion based on the density of the landmark 400. At this stage, the object identification apparatus 600 identifies an object in each ROI , That is, it does not identify a person's face, necktie, bag, and carrier.

관심 영역 내의 객체를 식별하는 과정에 대해서는 도 4를 참조하여 설명한다. 도 4는 본 발명의 실시예에 따른 객체 식별 장치를 나타내는 도면이다.The process of identifying an object in the region of interest will be described with reference to FIG. 4 is a diagram illustrating an object identification apparatus according to an embodiment of the present invention.

본 발명의 실시예에 따른 객체 식별 장치(600)는 시선 대응 영역 추출부(610), 관심 영역 선택부(620), 검색부(630) 및 데이터베이스(640)를 포함할 수 있다.The object identifying apparatus 600 according to the embodiment of the present invention may include a line-of-sight corresponding region extracting unit 610, a region of interest selecting unit 620, a searching unit 630, and a database 640.

시선 대응 영역 추출부(610)는 아이 트래커(100)가 추출한 사용자의 시선 위치 정보를 수집하여 시선이 집중되는 영역을 추출할 수 있다. 즉, 관심 영역 후보군을 선정할 수 있다.The line-of-sight correspondence region extracting unit 610 may collect the line-of-sight position information of the user extracted by the eye-tracker 100 and extract the region where the line of sight is concentrated. That is, candidate regions of interest can be selected.

관심 영역 선택부(620)는 시선 대응 영역 추출부(610)에서 추출된 관심 영역 후보군 중에서 미리 정해진 기준 이상으로 시선이 집중되는 영역을 관심 영역으로 선택할 수 있다.The ROI selection unit 620 may select a ROI that is focused more than a predetermined reference among the ROI candidates extracted by the ROI extraction unit 610 as the ROI.

검색부(630)는 관심 영역 내의 객체의 특징을 추출하는 기능을 수행한다. The search unit 630 performs a function of extracting features of objects in the ROI.

이를 위해 하나 이상의 테스트 세트(미도시)와 연결되어 각각의 객체를 학습한다. To do this, one or more test sets (not shown) are connected to learn each object.

예를 들어, 복수의 테스트 세트가 검색부(630)와 연결되어, 제1 검색부는 사람의 얼굴을 검색하고, 이를 위해 제1 테스트 세트는 제1 검색부가 얼굴에 대한 학습이 가능하도록 여러 얼굴에 대한 데이터를 제1 검색부에 제공하여 제1 검색부가 얼굴을 검색할 수 있도록 한다.For example, a plurality of test sets may be associated with the search unit 630 so that the first search unit searches for a face of a person, and a first test set includes a plurality of test sets, To the first search unit so that the first search unit can search for a face.

제2 검색부는 가방을 검색하고, 이를 위해 제2 테스트 세트는 제2 검색부가 가방에 대한 학습이 가능하도록 여러 가방에 대한 데이터를 제2 검색부에 제공하여 제2 검색부가 가방의 형상을 검색할 수 있도록 한다.The second search unit searches the bag, and for this purpose, the second test set provides data for the various bags to the second search unit so that the second search unit can learn about the bag so that the second search unit searches for the shape of the bag .

제3 검색부는 캐리어를 검색하고, 이를 위해 제3 테스트 세트는 제3 검색부가 캐리어에 대한 학습이 가능하도록 여러 캐리어에 대한 데이터를 제3 검색부에 제공하여 제3 검색부가 캐리어의 형상을 검색할 수 있도록 한다.The third search unit searches for the carrier, and for this, the third test set provides the third search unit with data for several carriers so that the third search unit can learn about the carrier, so that the third search unit searches for the shape of the carrier .

제4 검색부는 구두를 검색하고, 이를 위해 제4 테스트 세트는 제4 검색부가 구두에 대한 학습이 가능하도록 여러 구두에 대한 데이터를 제4 검색부에 제공하여 제4 검색부가 구두의 형상을 검색할 수 있도록 한다.The fourth search unit searches for the slip, and for this purpose, the fourth test set provides the data for various slip to the fourth search unit so that the fourth search unit can learn about the slip, so that the fourth search unit searches for the shape of the slip .

객체 및 이미지의 크기는 매번 상이할 수 있으며, 동일한 객체인 경우에도 이미지(300)의 크기에 따라 이미지(300) 내에서 차지하는 크기가 상이할 수 있으므로 테스트 세트는 검색부(630)가 하나의 객체가 갖는 여러 사이즈에 대해 학습하도록 한다.Since the sizes of the objects and images may be different each time and the size of the image 300 may be different depending on the size of the image 300 even in the case of the same object, As shown in FIG.

이러한 과정을 통해 학습된 검색부(630)는 이미지(300) 내에서 관심 영역 내의 객체를 검색할 수 있게 된다. 다른 이미지에서도 검색부(630)는 해당 객체를 자동으로 식별, 검색할 수 있게 되어 사람이 이미지마다 관심 영역 내의 객체를 일일이 검색하지 않아도 된다.The learned search unit 630 can search for an object in the region of interest 300 within the image 300. The search unit 630 can automatically identify and search the object even in other images so that the person does not have to search for objects in the region of interest for each image.

이와 같이 관심 영역으로 선별된 영역에 대해서만 검색부(630)가 객체를 검색하므로 신뢰성이 개선될 수 있고, 검색 속도가 향상될 수 있다. 이러한 객체의 검색에 의해 객체가 무엇인지를 식별할 수 있게 된다.Since the search unit 630 searches only the region selected as the ROI, the reliability can be improved and the search speed can be improved. By searching for these objects, it is possible to identify what the object is.

데이터베이스(640)는 식별된 객체 정보와 추출된 객체의 특징을 바탕으로 유사도가 높은 이미지를 검색하고 그 결과를 제공한다.The database 640 searches an image having high similarity based on the identified object information and the characteristics of the extracted object, and provides the result.

데이터베이스(640)는 관심 영역에 대해 추출된 특징과 식별된 객체에 대한 정보를 저장하며, 객체에 대응하는 웹페이지 정보가 존재하는 경우, 해당 웹페이지의 정보도 연동하여 데이터베이스(640)에 저장한다.The database 640 stores the extracted features and the information about the identified object. If the web page information corresponding to the object exists, the database 640 also stores the information of the corresponding web page in the database 640 .

도 5는 본 발명의 실시예에 따른 객체의 식별 및 검색을 나타내는 도면이다.5 is a diagram illustrating identification and retrieval of objects according to an embodiment of the present invention.

도 5에서는 캐리어(504)를 예로 들어 설명한다. 캐리어(504)가 관심 영역으로 선택되면 검색부(630)는 관심 영역 내의 객체인 캐리어(504)의 특징 정보를 추출한다. 특징 정보로는 색상, 비율, 형상, 크기 등의 정보를 포함할 수 있다. 검색부(630)는 추출한 특징 정보를 바탕으로 객체를 식별할 수 있다. 이에 의해, 관심 영역 내의 객체가 캐리어임을 확인한다.In Fig. 5, the carrier 504 will be described as an example. When the carrier 504 is selected as the ROI, the search unit 630 extracts the feature information of the carrier 504, which is an object in the ROI. The feature information may include information such as color, ratio, shape, and size. The search unit 630 can identify the object based on the extracted feature information. This confirms that the object in the region of interest is a carrier.

이와 같이, 사용자가 주시하는 관심 영역에 대한 특징을 추출하여 데이터베이스(640)에 객체 정보를 포함하는 해당 웹페이지 링크와 연동하여 저장한 후, 관심 영역의 특징과 유사성이 높은 특징을 검색하여 유사 이미지(510) 및 관련 웹페이지(520)를 검색 결과로 제공할 수 있게 된다.In this way, the feature of the interest area that the user views is extracted and stored in the database 640 in association with the corresponding web page link including the object information, and then the feature having high similarity with the feature of the ROI is retrieved, (510) and related web page (520) as search results.

도 6은 본 발명의 실시예에 따른 객체 식별 및 검색 방법을 나타낸 순서도이다. 처음으로, 아이 트래킹 모드를 실행하고(S100), 시선 각도 정보에 따른 이미지의 위치 정보를 누적한다(S200). 이에 따라 아이 트래커(100)는 인식된 얼굴에서 눈 부위를 추출하고, 해당 눈 부위에서 눈동자의 시선 각도에 대한 정보를 수집할 수 있다.6 is a flowchart illustrating an object identification and search method according to an embodiment of the present invention. First, the eye tracking mode is executed (S100), and the position information of the image according to the gaze angle information is accumulated (S200). Accordingly, the eye tracker 100 can extract the eye part from the recognized face, and collect information on the eye angle of the pupil in the eye part.

구체적으로, 동공(pupil)은, 눈의 중심 부분이며 홍채(iris)에 의하여 둘러써여 있는 동그란 부분이다. 동공은, 눈의 다른 부분에 비하여 어두우며, 동양인의 경우 통상적으로 검은색이다.Specifically, a pupil is a central portion of the eye and a rounded portion surrounded by an iris. The pupil is darker than other parts of the eye, and is usually black for Asians.

사용자의 시선은, 동공과 밀접한 관련이 있을 수 있다. 예를 들어, 사용자가 관심을 가지고 주시하는 지점은 동공의 중심점이 향하는 방향과 실질적으로 일치할 수 있음을 의미한다.The user's gaze may be closely related to the pupil. For example, the point of interest with which the user is interested can be substantially coincident with the direction of the pupil center point.

동공의 중심점은, 획득한 눈의 이미지에서, 중심에 위치하며 상대적으로 어두운 형태 및/또는 색상 상의 특징에 기초하여 추출될 수 있다. 예를 들어, 둥근 형태의 동공의 이미지의 중심지점을 동공의 중심점으로 결정할 수 있다.The center point of the pupil can be extracted based on the relatively dark shape and / or color feature located in the center of the acquired eye image. For example, the center point of the image of the pupil in the round shape can be determined as the center point of the pupil.

얼굴의 움직임은 카메라(110)를 통하여 촬영한 사용자의 얼굴 이미지를 통하여 감지할 수 있다. 즉, 얼굴 이미지에서 이마, 눈, 코, 입, 귀 등 특징적인 요소에 기초하여 얼굴의 지향방향을 추출할 수 있다.The movement of the face can be detected through the face image of the user photographed through the camera 110. That is, the direction of the face can be extracted based on characteristic elements such as forehead, eyes, nose, mouth, ear, and the like in the face image.

얼굴의 움직임과 산출한 동공의 중심점에 기초하여 시선 방향을 산출할 수 있다. 예를 들어, 사용자가 현재 디스플레이(200)의 어느 지점을 응시하고 있는지를 판단할 수 있다. 이와 같이 디스플레이(200)에 표시된 컨텐츠를 응시하는 사용자의 시선 방향 및 위치를 산출할 수 있게 된다.The gaze direction can be calculated based on the motion of the face and the calculated center point of the pupil. For example, it may determine which point of the current display 200 the user is staring at. Thus, it is possible to calculate the gaze direction and position of the user gazing at the content displayed on the display 200. [

컨텐츠는 텍스트, 사진, 영상(영화, 음악 및 웹 페이지를 포함할 수 있다. 아이 트래킹 모드는 컨텐츠가 화면에 표시된 후에 선택될 수 있다.The content may include text, pictures, images (movies, music, and web pages.) The eye tracking mode may be selected after content is displayed on the screen.

사용자의 시선 각도 정보에 따른 이미지의 위치 정보는 일정 주기로 수집되는 시선 위치 정보를 근거로 하여 누적될 수 있다. 예를 들어, 일정 주기로 사용자의 시선에 대응하여 디스플레이(200)에 지표점(400)을 생성하고, 이러한 복수의 지표점(400)이 디스플레이(200)에 누적된다.The position information of the image according to the user's gaze angle information can be accumulated based on the gaze position information collected at regular intervals. For example, an index point 400 is generated in the display 200 in response to a user's gaze at a predetermined period, and the plurality of index points 400 are accumulated in the display 200.

다음으로, 누적된 위치 정보를 기준으로 관심 영역을 설정한다(S300). 관심 영역의 설정 여부 기준은 디스플레이의 복수의 지표점(400)의 밀집도일 수 있다. 즉, 밀집도가 미리 정해진 범위 이상인 영역을 관심 영역으로 설정할 수 있다. 또는 밀집도가 높은 영역 순으로 상위 몇 개를 관심 영역으로 설정할 수도 있다.Next, a region of interest is set based on the accumulated position information (S300). The criteria for setting the region of interest may be the density of the plurality of index points 400 of the display. That is, an area having a density greater than or equal to a predetermined range can be set as a region of interest. Or a region with a high density may be set as an interest region.

다음으로, 관심 영역의 객체 식별 정보를 확인한다(S400). 이는 관심 영역에 대해 검색부(630)를 통한 검색으로 확인될 수 있다. 즉, 아이 트래킹에 의한 주시 영역을 중심으로 선택된 관심 영역을 객체 후보 영역으로 하여 객체를 식별하고 검색한다. 이에 따라 객체가 캐리어임을 식별하게 된다.Next, the object identification information of the region of interest is confirmed (S400). This can be confirmed by searching through the search unit 630 for the region of interest. That is, the object region is identified and retrieved by using the region of interest selected by the eye tracking based on the eye tracking as the object candidate region. This identifies the object as a carrier.

관심 영역의 객체 식별 정보를 확인하는 단계는 관심 영역과 해당 관심 영역에 대해 추출된 특징 및 식별된 객체에 대한 정보를 관심 영역 데이터베이스(640)에 저장하고, 컨텐츠에 대응되는 웹페이지 정보가 존재할 경우 해당 웹페이지 정보도 연동 저장하는 단계를 포함할 수 있다.The step of verifying the object identification information of the ROI includes storing the ROI in the ROI database 640 and the information about the extracted object and the identified ROI in the ROI database 640, And storing the corresponding web page information in association with each other.

다음으로 데이터베이스(640)로부터 식별된 객체와 유사도가 높은 이미지를 검색하여 그 결과를 획득한다(S500). 획득하는 결과는 이전 단계에서 식별된 객체와 유사도가 높은 이미지 및 대응되는 웹페이지 정보를 포함할 수 있다. Next, an image having high similarity to the object identified from the database 640 is retrieved and the result is obtained (S500). The acquired result may include an image having high similarity to the object identified in the previous step and corresponding web page information.

이러한 과정에 의해, 사용자의 시선이 집중되는 것에 의해 관심 영역을 선택하고, 선택된 관심 영역을 객체 후보 영역으로 하여 객체를 식별 및 검색함으로써, 전체 이미지 또는 영상에 대한 객체 검출에 비해 신속하고 정확하게 객체를 검출할 수 있다.By this process, an attention area is selected by focusing the user's attention, and the object is identified and retrieved by using the selected area of interest as an object candidate area. Thus, compared with the object detection for the whole image or image, Can be detected.

또한, 본 발명은 관심 영역에 대한 객체를 검출하여 객체에 대한 정보를 관심 영역 데이터베이스에 저장하고 객체에 대응되는 웹페이지 정보가 존재하는 경우 해당 웹페이지 정보도 연동하여 저장하고 이를 제공할 수 있다.In addition, the present invention detects an object for a region of interest, stores information about the object in the region of interest database, and when there is web page information corresponding to the object, the web page information is also linked and stored.

본 발명의 실시예에 따른 객체 식별 장치 및 방법은 컴퓨터 프로그램으로 작성 가능하며, 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 해당 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 정보저장매체(computer readable media)에 저장되고, 컴퓨터나 본 발명의 실시예에 따른 사용자 장치 등에 의하여 읽혀지고 실행될 수 있다.The object identification apparatus and method according to an embodiment of the present invention can be written in a computer program, and the codes and code segments constituting the computer program can be easily deduced by a computer programmer in the field. In addition, the computer program may be stored in a computer-readable medium and readable and executed by a computer or a user device according to an embodiment of the present invention.

정보저장매체는 자기 기록매체, 광 기록매체 및 캐리어 웨이브 매체를 포함한다. 본 발명의 실시예에 따른 관심 영역 추정 방법을 구현하는 컴퓨터 프로그램은 사용자 장치 등의 내장 메모리에 저장 및 설치될 수 있다. 또는, 본 발명의 실시예에 따른 관심 영역 추정 서비스 방법을 구현하는 컴퓨터 프로그램을 저장 및 설치한 스마트 카드 등의 외장 메모리가 인터페이스를 통해 단말 등에 장착될 수도 있다.The information storage medium includes a magnetic recording medium, an optical recording medium, and a carrier wave medium. A computer program implementing the ROI estimation method according to an embodiment of the present invention may be stored and installed in a built-in memory such as a user equipment. Alternatively, an external memory such as a smart card storing and installing a computer program implementing the ROI service method according to an embodiment of the present invention may be mounted on a terminal or the like through an interface.

전술된 내용은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or essential characteristics thereof. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

100: 아이 트래커 110: 카메라
200: 디스플레이 300: 이미지
400: 지표점 501: 얼굴
502: 넥타이 503: 가방
504: 캐리어 600: 객체 식별 장치
610: 시선 대응 영역 추출부 620: 관심 영역 선택부
630: 검색부 640: 데이터베이스
100: Eye Tracker 110: Camera
200: Display 300: Image
400: surface point 501: face
502: Tie 503: Bag
504: Carrier 600: Object Identification Device
610: line-of-sight correspondence region extracting unit 620:
630 search unit 640 database

Claims (10)

컨텐츠가 표시된 디스플레이 상의 시선을 감지하여 시선 대응 영역을 추출하는 시선 대응 영역 추출부;
상기 시선 대응 영역을 기준으로 관심 영역을 선택하는 관심 영역 선택부; 및
상기 관심 영역 내의 객체를 식별하는 검색부:를 포함하는 것을 특징으로 하는 객체 식별 장치.
A line-of-sight corresponding region extracting unit for extracting a line-of-sight corresponding region by sensing a line of sight on the display on which the content is displayed;
A region of interest selector for selecting a region of interest based on the line of sight corresponding region; And
And a search unit for identifying an object in the region of interest.
제1항에 있어서,
식별된 상기 객체의 정보를 바탕으로 유사도가 높은 이미지를 검색하고 그 결과를 제공하는 데이터베이스;를 포함하는 것을 특징으로 하는 객체 식별 장치.
The method according to claim 1,
And a database for searching an image having a high degree of similarity based on the information of the identified object and providing the result.
제1항에 있어서,
상기 컨텐츠는 텍스트, 사진, 동영상 및 웹페이지를 포함하는 것을 특징으로 하는 객체 식별 장치.
The method according to claim 1,
Wherein the contents include text, pictures, moving pictures, and web pages.
디스플레이 상에 표시된 컨텐츠를 응시하는 사용자의 시선 각도 정보에 따른 관찰 영상의 위치 정보를 누적하는 시선 확인 단계;
상기 누적된 위치 정보를 기준으로 관심 영역(ROI)을 설정하는 관심 영역 설정 단계;
상기 관심 영역의 특징을 추출한 후 객체 식별을 위한 검색부를 통해 객체 식별 정보를 확인하는 객체 확인 단계; 및
식별된 객체 정보를 기반으로 미리 구성된 관심 영역 데이터베이스로부터 유사도가 이미지를 검색하여 그 결과를 획득하는 검색 단계;를 포함하는 것을 특징으로 하는 주시 영역 기반 객체 식별 방법.
A gaze confirmation step of accumulating position information of an observation image according to gaze angle information of a user gazing at contents displayed on a display;
A ROI setting step of setting ROIs based on the accumulated position information;
An object identifying step of identifying the object identification information through a search unit for object identification after extracting features of the ROI; And
And a retrieval step of retrieving the similarity image from the pre-configured ROI database based on the identified object information and obtaining the result.
제4항에 있어서,
상기 객체 확인 단계는 상기 관심 영역과 해당 관심 영역에 대해 추출된 특징과 식별된 객체에 대한 정보를 상기 관심 영역 데이터베이스에 저장하며, 상기 객체에 대응되는 웹페이지 정보가 존재할 경우 해당 웹페이지 정보를 연동하여 상기 관심 영역 데이터베이스에 저장하는 단계;를 포함하는 것을 특징으로 하는 주시 영역 기반 객체 식별 방법.
5. The method of claim 4,
Wherein the object identifying step stores information on the extracted region and the identified region of interest in the region of interest and the region of interest, and if the corresponding web page information exists in the region of interest, And storing the ROI in the RO area database.
제5항에 있어서,
상기 검색 단계에서 획득된 상기 관심 영역의 검색 결과는 유사도가 이미지와 해당 관심 영역에 대응되는 웹페이지 정보를 구비하며, 상기 대응되는 웹페이지 정보를 제공하는 것을 특징으로 하는 주시 영역 기반 객체 식별 방법.
6. The method of claim 5,
Wherein the search result of the ROI obtained in the searching step includes web page information in which the similarity corresponds to the image and the ROI, and the corresponding web page information is provided.
제4항에 있어서,
상기 시선 확인 단계는 시간이 경과함에 따라 상기 사용자의 시선에 따른 시선 위치 정보를 나타내는 지표점을 누적하는 방식으로 실행되는 것을 특징으로 하는 주시 영역 기반 객체 식별 방법.
5. The method of claim 4,
Wherein the gaze confirmation step is performed in such a manner that index points representing gaze position information according to the gaze of the user are accumulated as time elapses.
제4항에 있어서,
상기 컨텐츠는 텍스트, 사진, 동영상 및 웹페이지를 포함하는 것을 특징으로 하는 주시 영역 기반 객체 식별 방법.
5. The method of claim 4,
Wherein the content includes text, pictures, moving pictures, and a web page.
제4항에 있어서,
상기 시선 확인 단계는, 상기 사용자의 얼굴을 인식하는 단계; 상기 인식된 얼굴로부터 상기 사용자의 눈동자를 자동 포커싱하는 단계; 및 상기 눈동자의 중심점을 기준으로 시선을 확인하는 것을 특징으로 하는 주시 영역 기반 객체 식별 방법.
5. The method of claim 4,
The visual line confirmation step may include recognizing the face of the user; Automatically focusing the user's pupils from the recognized face; And a line of sight is identified based on a center point of the pupil.
제4항 내지 제9항 중 어느 한 항에 따른 방법을 수행하는 컴퓨터 프로그램이 기록된 기록매체.
10. A recording medium on which a computer program for performing the method according to any one of claims 4 to 9 is recorded.
KR1020140031521A 2014-03-06 2014-03-18 Apparatus identifying the object based on observation scope and method therefor, computer readable medium having computer program recorded therefor KR102213865B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020140031521A KR102213865B1 (en) 2014-03-18 2014-03-18 Apparatus identifying the object based on observation scope and method therefor, computer readable medium having computer program recorded therefor
PCT/KR2014/010555 WO2015133699A1 (en) 2014-03-06 2014-11-05 Object recognition apparatus, and recording medium in which method and computer program therefor are recorded

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140031521A KR102213865B1 (en) 2014-03-18 2014-03-18 Apparatus identifying the object based on observation scope and method therefor, computer readable medium having computer program recorded therefor

Publications (2)

Publication Number Publication Date
KR20150108575A true KR20150108575A (en) 2015-09-30
KR102213865B1 KR102213865B1 (en) 2021-02-08

Family

ID=54246506

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140031521A KR102213865B1 (en) 2014-03-06 2014-03-18 Apparatus identifying the object based on observation scope and method therefor, computer readable medium having computer program recorded therefor

Country Status (1)

Country Link
KR (1) KR102213865B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11231776B2 (en) 2019-07-16 2022-01-25 Samsung Electronics Co., Ltd. Method and apparatus for predicting intention of user
KR102442268B1 (en) * 2022-02-15 2022-09-15 주식회사 메이팜소프트 Interest part analyzing system and method in web page

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050085442A (en) * 2002-12-19 2005-08-29 브리티쉬 텔리커뮤니케이션즈 파블릭 리미티드 캄퍼니 Searching images
JP2006155238A (en) * 2004-11-29 2006-06-15 Hiroshima Univ Information processor, processing method, and processing program, portable terminal, and computer-readable recording medium
KR20120127790A (en) * 2011-05-16 2012-11-26 경북대학교 산학협력단 Eye tracking system and method the same
WO2013085192A1 (en) * 2011-12-08 2013-06-13 (주)네오위즈게임즈 Method and apparatus for providing quest in online game

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050085442A (en) * 2002-12-19 2005-08-29 브리티쉬 텔리커뮤니케이션즈 파블릭 리미티드 캄퍼니 Searching images
JP2006155238A (en) * 2004-11-29 2006-06-15 Hiroshima Univ Information processor, processing method, and processing program, portable terminal, and computer-readable recording medium
KR20120127790A (en) * 2011-05-16 2012-11-26 경북대학교 산학협력단 Eye tracking system and method the same
WO2013085192A1 (en) * 2011-12-08 2013-06-13 (주)네오위즈게임즈 Method and apparatus for providing quest in online game

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11231776B2 (en) 2019-07-16 2022-01-25 Samsung Electronics Co., Ltd. Method and apparatus for predicting intention of user
KR102442268B1 (en) * 2022-02-15 2022-09-15 주식회사 메이팜소프트 Interest part analyzing system and method in web page

Also Published As

Publication number Publication date
KR102213865B1 (en) 2021-02-08

Similar Documents

Publication Publication Date Title
CN111062312B (en) Gesture recognition method, gesture control device, medium and terminal equipment
CN109886078B (en) Retrieval positioning method and device for target object
TWI742300B (en) Method and system for interfacing with a user to facilitate an image search for a person-of-interest
US9626551B2 (en) Collation apparatus and method for the same, and image searching apparatus and method for the same
KR101363017B1 (en) System and methed for taking pictures and classifying the pictures taken
JP6013241B2 (en) Person recognition apparatus and method
US9672421B2 (en) Method and apparatus for recording reading behavior
CN106464802B (en) The image capture of enhancing
CN109343700B (en) Eye movement control calibration data acquisition method and device
US20140176749A1 (en) Collecting Photos
CN109375765B (en) Eyeball tracking interaction method and device
JP6369470B2 (en) Information processing system
KR101455200B1 (en) Learning monitering device and method for monitering of learning
EP2905680A1 (en) Information processing apparatus, information processing method, and program
CN102054165A (en) Image processing apparatus and image processing method
US20140016831A1 (en) Apparatus for retrieving information about a person and an apparatus for collecting attributes
CN112732071A (en) Calibration-free eye movement tracking system and application
JP2016200969A (en) Image processing apparatus, image processing method, and program
CN110546596A (en) Sight tracking method and terminal for executing same
CN113409056B (en) Payment method and device, local identification equipment, face payment system and equipment
CN110909685A (en) Posture estimation method, device, equipment and storage medium
Zhang et al. ReflecTouch: Detecting grasp posture of smartphone using corneal reflection images
KR102213865B1 (en) Apparatus identifying the object based on observation scope and method therefor, computer readable medium having computer program recorded therefor
CN110832438A (en) Wearable terminal display system, wearable terminal display method, and program
JP6567638B2 (en) Noseprint matching system, noseprint matching method, and noseprint matching program

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant