KR102415366B1 - Method and system for retrieving associative image through multimodality ranking model using different modal features - Google Patents

Method and system for retrieving associative image through multimodality ranking model using different modal features Download PDF

Info

Publication number
KR102415366B1
KR102415366B1 KR1020200040455A KR20200040455A KR102415366B1 KR 102415366 B1 KR102415366 B1 KR 102415366B1 KR 1020200040455 A KR1020200040455 A KR 1020200040455A KR 20200040455 A KR20200040455 A KR 20200040455A KR 102415366 B1 KR102415366 B1 KR 102415366B1
Authority
KR
South Korea
Prior art keywords
image
features
extracting
search
computer system
Prior art date
Application number
KR1020200040455A
Other languages
Korean (ko)
Other versions
KR20210123119A (en
Inventor
조근희
이승욱
서재권
이수열
김재명
이완
신철규
Original Assignee
네이버 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버 주식회사 filed Critical 네이버 주식회사
Priority to KR1020200040455A priority Critical patent/KR102415366B1/en
Publication of KR20210123119A publication Critical patent/KR20210123119A/en
Application granted granted Critical
Publication of KR102415366B1 publication Critical patent/KR102415366B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5846Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using extracted text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2457Query processing with adaptation to user needs
    • G06F16/24578Query processing with adaptation to user needs using ranking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Library & Information Science (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

서로 다른 모달의 피처를 이용한 복합 랭킹 모델을 통해 연관 이미지를 검색하는 방법 및 시스템이 개시된다. 연관 이미지 검색 방법은, 초기 질의에 대응되는 문서를 검색하여 검색 결과를 제공하는 단계; 상기 검색 결과에서 이미지가 선택되는 경우 서로 다른 모달(modal)의 복수 개의 피처를 추출하는 단계; 및 상기 복수 개의 피처를 입력 질의로 하여 상기 이미지와 관련 있는 연관 이미지를 검색하는 단계를 포함한다.A method and system for retrieving related images through a complex ranking model using different modal features are disclosed. The related image search method includes: searching for a document corresponding to an initial query and providing a search result; extracting a plurality of features having different modals when an image is selected from the search result; and retrieving a related image related to the image by using the plurality of features as an input query.

Description

서로 다른 모달의 피처를 이용한 복합 랭킹 모델을 통해 연관 이미지를 검색하는 방법 및 시스템{METHOD AND SYSTEM FOR RETRIEVING ASSOCIATIVE IMAGE THROUGH MULTIMODALITY RANKING MODEL USING DIFFERENT MODAL FEATURES}Method and system for searching related images through complex ranking model using features of different modal

아래의 설명은 이미지를 검색하는 기술에 관한 것이다.The description below relates to techniques for retrieving images.

인터넷을 이용하는 대부분의 사용자는 브라우저를 통하여 인터넷에 접속한 후 인터넷 포털 사이트를 통하여 정보를 검색한다. 사용자가 인터넷 포털의 검색창에 검색어를 입력하면 인터넷 포털은 데이터베이스에서 검색어에 대응하는 다양한 정보를 추출하여 검색 결과로서 사용자에게 제공한다.Most users who use the Internet access the Internet through a browser and then search for information through an Internet portal site. When the user inputs a search term into the search box of the Internet portal, the Internet portal extracts various information corresponding to the search term from the database and provides the search result to the user.

검색 결과는 사전, 지식 정보, 블로그, 카페, 전문자료, 사이트, 책, 뉴스, 웹 페이지, 이미지나 동영상 등과 같은 카테고리로 나뉘어 전달될 수 있다.The search results may be divided into categories such as dictionaries, knowledge information, blogs, cafes, specialized materials, sites, books, news, web pages, images or videos, and delivered.

최근에는 이미지를 기반으로 한 다양한 서비스가 등장하고 있는 가운데, 인터넷 상에서 발견한 이미지에 대하여 관련 컨텐츠를 검색하고자 하는 사용자 니즈가 증가하고 있다.Recently, while various image-based services have appeared, user needs to search for related contents for images found on the Internet are increasing.

예컨대, 한국등록특허 제10-1103671호(등록일 2012년 01월 02일)에는 사용자에 의해 입력된 질의에 대하여 질의와 연관된 이미지 그룹 내에서 질의와 매칭된 이미지를 추출하여 검색 결과로 제공하는 기술이 개시되어 있다.For example, in Korea Patent Registration No. 10-1103671 (registration date of January 02, 2012), there is a technology for extracting an image matched with a query from an image group related to the query with respect to a query input by a user and providing it as a search result. has been disclosed.

일반적인 이미지 검색은 사용자로부터 입력된 검색어와 매칭되는 정보(예컨대, 태그, 명칭, 주석 등)가 첨부된 이미지를 일정 기준으로 정렬하여 보여주는 것에 불과하고 확장된 서비스를 제공하는데 한계가 있다.A general image search is only showing images to which information (eg, tags, names, comments, etc.) that matches a search word input from a user is attached and displayed according to a predetermined standard, and there is a limitation in providing an extended service.

텍스트 기반의 초기 질의에 따른 검색 결과에서 이미지가 선택되는 경우 멀티모달(multimodal) 질의를 입력 질의로 하는 추가 이미지 검색을 통해 연관 이미지를 제공할 수 있는 방법 및 시스템을 제공한다.A method and system for providing a related image through an additional image search using a multimodal query as an input query when an image is selected from a search result according to a text-based initial query are provided.

추가 이미지 검색에서 서로 다른 모달(modal)을 가진 피처를 이용한 복합 랭킹 모델(multimodality ranking model)을 통해 관련성이 높은 대량의 연관 이미지를 빠르게 검색할 수 있는 방법 및 시스템을 제공한다.To provide a method and system for quickly searching for a large number of related images with high relevance through a multimodality ranking model using features with different modal in additional image search.

컴퓨터 시스템에서 실행되는 연관 이미지 검색 방법에 있어서, 상기 컴퓨터 시스템은 메모리에 포함된 컴퓨터 판독가능한 명령들을 실행하도록 구성된 적어도 하나의 프로세서를 포함하고, 상기 연관 이미지 검색 방법은, 상기 적어도 하나의 프로세서에 의해, 초기 질의에 대응되는 문서를 검색하여 검색 결과를 제공하는 단계; 상기 적어도 하나의 프로세서에 의해, 상기 검색 결과에서 이미지가 선택되는 경우 서로 다른 모달(modal)의 복수 개의 피처를 추출하는 단계; 및 상기 적어도 하나의 프로세서에 의해, 상기 복수 개의 피처를 입력 질의로 하여 상기 이미지와 관련 있는 연관 이미지를 검색하는 단계를 포함하는 연관 이미지 검색 방법을 제공한다.A method for retrieving an associative image executed on a computer system, the computer system comprising at least one processor configured to execute computer readable instructions contained in a memory, the method for retrieving an associative image comprising: , providing a search result by searching for a document corresponding to the initial query; extracting, by the at least one processor, a plurality of features having different modals when an image is selected from the search result; and retrieving, by the at least one processor, a related image related to the image by using the plurality of features as an input query.

일 측면에 따르면, 상기 추출하는 단계는, 상기 초기 질의에 해당되는 텍스트, 상기 이미지가 포함된 문서의 문맥, 및 상기 이미지의 비주얼 워드를 추출하는 단계를 포함할 수 있다.According to one aspect, the extracting may include extracting a text corresponding to the initial query, a context of a document including the image, and a visual word of the image.

다른 측면에 따르면, 상기 추출하는 단계는, 상기 복수 개의 피처 중 하나로서, 개체 인식 기술을 통해 상기 문서로부터 적어도 하나의 개체 ID를 인식하는 단계를 포함할 수 있다.According to another aspect, the extracting may include recognizing, as one of the plurality of features, at least one entity ID from the document through entity recognition technology.

또 다른 측면에 따르면, 상기 추출하는 단계는, 상기 복수 개의 피처 중 하나로서, 상기 이미지를 수치화한 비주얼 워드를 추출하는 단계를 포함할 수 있다.According to another aspect, the extracting may include extracting, as one of the plurality of features, a visual word obtained by quantifying the image.

또 다른 측면에 따르면, 상기 이미지를 수치화한 비주얼 워드를 추출하는 단계는, 로컬 디스크립터 추출 기술, 또는 딥러닝 기반 임베딩 기술을 통해 상기 이미지를 수치화하는 단계를 포함할 수 있다.According to another aspect, the step of extracting the digitized visual word of the image may include digitizing the image through a local descriptor extraction technique or a deep learning-based embedding technique.

또 다른 측면에 따르면, 상기 이미지를 수치화한 비주얼 워드를 추출하는 단계는, CNN 모델을 통해 상기 이미지로부터 CNN 피처를 추출하는 단계; 및 상기 CNN 피처를 벡터 양자화(Vector Quantization)를 통해 워드로 표현하는 단계를 포함할 수 있다.According to another aspect, the step of extracting the digitized visual word of the image may include: extracting a CNN feature from the image through a CNN model; and expressing the CNN feature as a word through vector quantization.

또 다른 측면에 따르면, 상기 이미지를 수치화한 비주얼 워드를 추출하는 단계는, 워드 병합(concatenate) 방식을 통해 상기 비주얼 워드의 조합을 만드는 단계를 포함할 수 있다.According to another aspect, the step of extracting the visual word obtained by digitizing the image may include creating a combination of the visual word through a word concatenate method.

또 다른 측면에 따르면, 상기 복수 개의 피처는 상기 초기 질의에 해당되는 텍스트, 상기 이미지가 포함된 문서로부터 인식된 개체 ID, 및 상기 이미지에서 추출된 비주얼 워드를 포함하고, 상기 검색하는 단계는, 상기 텍스트, 상기 개체 ID, 및 상기 비주얼 워드를 입력 질의로 하는 랭킹 모델을 통해 상기 연관 이미지를 정렬하는 단계를 포함할 수 있다.According to another aspect, the plurality of features includes text corresponding to the initial query, an entity ID recognized from a document including the image, and a visual word extracted from the image, and the searching includes: It may include arranging the related image through a ranking model using the text, the entity ID, and the visual word as input queries.

또 다른 측면에 따르면, 상기 검색하는 단계는, 상기 입력 질의에 포함되는 상기 개체 ID와 상기 비주얼 워드 중 적어도 하나에 해당되는 텀의 개수를 제한하는 단계를 포함할 수 있다.According to another aspect, the searching may include limiting the number of terms corresponding to at least one of the entity ID and the visual word included in the input query.

상기 연관 이미지 검색 방법을 상기 컴퓨터 시스템에 실행시키기 위해 비-일시적인 컴퓨터 판독가능한 기록 매체에 저장되는 컴퓨터 프로그램을 제공한다.There is provided a computer program stored in a non-transitory computer-readable recording medium for executing the related image retrieval method in the computer system.

상기 연관 이미지 검색 방법을 컴퓨터에 실행시키기 위한 프로그램이 기록되어 있는 비-일시적인 컴퓨터 판독 가능한 기록 매체를 제공한다.There is provided a non-transitory computer-readable recording medium in which a program for executing the related image search method on a computer is recorded.

컴퓨터 시스템에 있어서, 메모리에 포함된 컴퓨터 판독가능한 명령들을 실행하도록 구성된 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 초기 질의에 대응되는 문서를 검색하여 검색 결과를 제공하는 문서 검색부; 상기 검색 결과에서 이미지가 선택되는 경우 서로 다른 모달의 복수 개의 피처를 추출하는 피처 추출부; 및 상기 복수 개의 피처를 입력 질의로 하여 상기 이미지와 관련 있는 연관 이미지를 검색하는 이미지 검색부를 포함하는 컴퓨터 시스템을 제공한다.A computer system comprising: at least one processor configured to execute computer readable instructions contained in a memory, the at least one processor comprising: a document search unit that searches for a document corresponding to an initial query and provides a search result; a feature extracting unit for extracting a plurality of features of different modals when an image is selected from the search result; and an image search unit configured to search for a related image related to the image by using the plurality of features as an input query.

본 발명의 실시예들에 따르면, 텍스트 기반의 초기 질의에 따른 검색 결과에서 이미지가 선택되는 경우 멀티모달 질의를 입력 질의로 하는 추가 이미지 검색을 통해 연관 이미지를 제공할 수 있다.According to embodiments of the present invention, when an image is selected from a search result according to a text-based initial query, a related image may be provided through an additional image search using a multimodal query as an input query.

본 발명의 실시예들에 따르면, 추가 이미지 검색에서 서로 다른 모달을 가진 피처를 이용한 복합 랭킹 모델을 통해 관련성이 높은 대량의 연관 이미지를 빠르게 검색할 수 있다.According to embodiments of the present invention, it is possible to quickly search for a large number of highly relevant images through a complex ranking model using features with different modals in additional image search.

도 1은 본 발명의 일 실시예에 따른 네트워크 환경의 예를 도시한 도면이다.
도 2는 본 발명의 일 실시예에 있어서 전자 기기 및 서버의 내부 구성을 설명하기 위한 블록도이다.
도 3은 본 발명의 일 실시예에 따른 서버의 프로세서가 포함할 수 있는 구성요소의 예를 도시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 서버가 수행할 수 있는 방법의 예를 도시한 흐름도이다.
도 5는 본 발명의 일 실시예에 있어서 텍스트 기반 정보 검색 환경을 설명하기 위한 예시 도면이다.
도 6은 본 발명의 일 실시예에 있어서 연관 이미지 검색에 사용되는 피처를 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 있어서 연관 이미지 검색을 위한 색인 구조를 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시예에 있어서 포스팅 리스트 문제를 설명하기 위한 예시 도면이다.
도 9는 본 발명의 일 실시예에 있어서 포스팅 리스트 문제를 해결하는 방법을 설명하기 위한 예시 도면이다.
1 is a diagram illustrating an example of a network environment according to an embodiment of the present invention.
2 is a block diagram illustrating the internal configuration of an electronic device and a server according to an embodiment of the present invention.
3 is a diagram illustrating an example of components that a processor of a server may include according to an embodiment of the present invention.
4 is a flowchart illustrating an example of a method that a server may perform according to an embodiment of the present invention.
5 is an exemplary diagram for explaining a text-based information retrieval environment according to an embodiment of the present invention.
6 is a diagram for explaining a feature used for a related image search according to an embodiment of the present invention.
7 is a diagram for explaining an index structure for a related image search according to an embodiment of the present invention.
8 is an exemplary diagram for explaining a posting list problem in an embodiment of the present invention.
9 is an exemplary diagram for explaining a method of solving a posting list problem in an embodiment of the present invention.

이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 발명의 실시예들은 이미지를 검색하는 기술에 관한 것이다.Embodiments of the present invention relate to techniques for retrieving images.

본 명세서에서 구체적으로 개시되는 것들을 포함하는 실시예들은 서로 다른 모달의 피처를 이용한 복합 랭킹 모델을 통해 연관도가 높은 이미지를 랭킹할 수 있고, 이를 통해 보다 많은 이미지를 빠르게 탐색할 수 있고 이미지 간 연관도를 향상시켜 연관 이미지의 검색 품질을 높일 수 있다.Embodiments including those specifically disclosed herein can rank images with high relevance through a complex ranking model using different modal features, and through this, more images can be quickly searched for and association between images It is possible to improve the search quality of the related image by improving the image.

도 1은 본 발명의 일실시예에 따른 네트워크 환경의 예를 도시한 도면이다. 도 1의 네트워크 환경은 복수의 전자 기기들(110, 120, 130, 140), 복수의 서버들(150, 160) 및 네트워크(170)를 포함하는 예를 나타내고 있다. 이러한 도 1은 발명의 설명을 위한 일례로 전자 기기의 수나 서버의 수가 도 1과 같이 한정되는 것은 아니다.1 is a diagram illustrating an example of a network environment according to an embodiment of the present invention. The network environment of FIG. 1 shows an example including a plurality of electronic devices 110 , 120 , 130 , 140 , a plurality of servers 150 , 160 , and a network 170 . 1 is an example for explaining the invention, and the number of electronic devices or the number of servers is not limited as in FIG. 1 .

복수의 전자 기기들(110, 120, 130, 140)은 컴퓨터 시스템으로 구현되는 고정형 단말이거나 이동형 단말일 수 있다. 복수의 전자 기기들(110, 120, 130, 140)의 예를 들면, 스마트폰(smart phone), 휴대폰, 내비게이션, 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿 PC, 게임 콘솔(game console), 웨어러블 디바이스(wearable device), IoT(internet of things) 디바이스, VR(virtual reality) 디바이스, AR(augmented reality) 디바이스 등이 있다. 일례로 도 1에서는 전자 기기(110)의 예로 스마트폰의 형상을 나타내고 있으나, 본 발명의 실시예들에서 전자 기기(110)는 실질적으로 무선 또는 유선 통신 방식을 이용하여 네트워크(170)를 통해 다른 전자 기기들(120, 130, 140) 및/또는 서버(150, 160)와 통신할 수 있는 다양한 물리적인 컴퓨터 시스템들 중 하나를 의미할 수 있다.The plurality of electronic devices 110 , 120 , 130 , and 140 may be a fixed terminal implemented as a computer system or a mobile terminal. Examples of the plurality of electronic devices 110 , 120 , 130 , 140 include a smart phone, a mobile phone, a navigation device, a computer, a notebook computer, a digital broadcasting terminal, a personal digital assistant (PDA), and a portable multimedia player (PMP). ), tablet PCs, game consoles, wearable devices, Internet of things (IoT) devices, virtual reality (VR) devices, augmented reality (AR) devices, and the like. As an example, in FIG. 1 , the shape of a smartphone is shown as an example of the electronic device 110 , but in embodiments of the present invention, the electronic device 110 is substantially different through the network 170 using a wireless or wired communication method. It may refer to one of various physical computer systems capable of communicating with the electronic devices 120 , 130 , 140 and/or the servers 150 and 160 .

통신 방식은 제한되지 않으며, 네트워크(170)가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망, 위성망 등)을 활용하는 통신 방식뿐만 아니라 기기들간의 근거리 무선 통신 역시 포함될 수 있다. 예를 들어, 네트워크(170)는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크(170)는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.The communication method is not limited, and a communication method using a communication network (eg, a mobile communication network, a wired Internet, a wireless Internet, a broadcasting network, a satellite network, etc.) that the network 170 may include, as well as a short-distance wireless communication between devices may be included. can For example, the network 170 may include a personal area network (PAN), a local area network (LAN), a campus area network (CAN), a metropolitan area network (MAN), a wide area network (WAN), and a broadband network (BBN). , the Internet, and the like. In addition, the network 170 may include any one or more of a network topology including a bus network, a star network, a ring network, a mesh network, a star-bus network, a tree or a hierarchical network, etc. not limited

서버(150, 160) 각각은 복수의 전자 기기들(110, 120, 130, 140)과 네트워크(170)를 통해 통신하여 명령, 코드, 파일, 컨텐츠, 서비스 등을 제공하는 컴퓨터 장치 또는 복수의 컴퓨터 장치들로 구현될 수 있다. 예를 들어, 서버(150)는 네트워크(170)를 통해 접속한 복수의 전자 기기들(110, 120, 130, 140)로 제1 서비스를 제공하는 시스템일 수 있으며, 서버(160) 역시 네트워크(170)를 통해 접속한 복수의 전자 기기들(110, 120, 130, 140)로 제2 서비스를 제공하는 시스템일 수 있다. 보다 구체적인 예로, 서버(150)는 복수의 전자 기기들(110, 120, 130, 140)에 설치되어 구동되는 컴퓨터 프로그램으로서의 어플리케이션을 통해, 해당 어플리케이션이 목적하는 서비스(일례로, 검색 서비스 등)를 제1 서비스로서 복수의 전자 기기들(110, 120, 130, 140)로 제공할 수 있다. 다른 예로, 서버(160)는 상술한 어플리케이션의 설치 및 구동을 위한 파일을 복수의 전자 기기들(110, 120, 130, 140)로 배포하는 서비스를 제2 서비스로서 제공할 수 있다.Each of the servers 150 and 160 communicates with the plurality of electronic devices 110 , 120 , 130 , 140 and the network 170 through a computer device or a plurality of computers that provides commands, codes, files, contents, services, etc. It can be implemented in devices. For example, the server 150 may be a system that provides a first service to a plurality of electronic devices 110 , 120 , 130 , 140 connected through the network 170 , and the server 160 is also a network ( It may be a system that provides the second service to the plurality of electronic devices 110 , 120 , 130 , and 140 connected through 170 . As a more specific example, the server 150 provides a service (eg, a search service, etc.) targeted by the application through an application as a computer program installed and driven in the plurality of electronic devices 110 , 120 , 130 , 140 . The first service may be provided to the plurality of electronic devices 110 , 120 , 130 , and 140 . As another example, the server 160 may provide a service for distributing a file for installing and driving the above-described application to the plurality of electronic devices 110 , 120 , 130 , and 140 as the second service.

도 2는 본 발명의 일실시예에 있어서 전자 기기 및 서버의 내부 구성을 설명하기 위한 블록도이다. 도 2에서는 전자 기기에 대한 예로서 전자 기기(110), 그리고 서버(150)의 내부 구성을 설명한다. 또한, 다른 전자 기기들(120, 130, 140)이나 서버(160) 역시 상술한 전자 기기(110) 또는 서버(150)와 동일한 또는 유사한 내부 구성을 가질 수 있다.2 is a block diagram for explaining the internal configuration of an electronic device and a server according to an embodiment of the present invention. In FIG. 2 , the internal configuration of the electronic device 110 and the server 150 will be described as an example of the electronic device. In addition, other electronic devices 120 , 130 , 140 or server 160 may also have the same or similar internal configuration to the aforementioned electronic device 110 or server 150 .

전자 기기(110)와 서버(150)는 메모리(211, 221), 프로세서(212, 222), 통신 모듈(213, 223) 그리고 입출력 인터페이스(214, 224)를 포함할 수 있다. 메모리(211, 221)는 비-일시적인 컴퓨터 판독 가능한 기록매체로서, RAM(random access memory), ROM(read only memory), 디스크 드라이브, SSD(solid state drive), 플래시 메모리(flash memory) 등과 같은 비소멸성 대용량 저장 장치(permanent mass storage device)를 포함할 수 있다. 여기서 ROM, SSD, 플래시 메모리, 디스크 드라이브 등과 같은 비소멸성 대용량 저장 장치는 메모리(211, 221)와는 구분되는 별도의 영구 저장 장치로서 전자 기기(110)나 서버(150)에 포함될 수도 있다. 또한, 메모리(211, 221)에는 운영체제와 적어도 하나의 프로그램 코드(일례로 전자 기기(110)에 설치되어 구동되는 브라우저나 특정 서비스의 제공을 위해 전자 기기(110)에 설치된 어플리케이션 등을 위한 코드)가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 메모리(211, 221)와는 별도의 컴퓨터에서 판독 가능한 기록매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록매체를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록매체가 아닌 통신 모듈(213, 223)을 통해 메모리(211, 221)에 로딩될 수도 있다. 예를 들어, 적어도 하나의 프로그램은 개발자들 또는 어플리케이션의 설치 파일을 배포하는 파일 배포 시스템(일례로, 상술한 서버(160))이 네트워크(170)를 통해 제공하는 파일들에 의해 설치되는 컴퓨터 프로그램(일례로 상술한 어플리케이션)에 기반하여 메모리(211, 221)에 로딩될 수 있다.The electronic device 110 and the server 150 may include memories 211 and 221 , processors 212 and 222 , communication modules 213 and 223 , and input/output interfaces 214 and 224 . The memories 211 and 221 are non-transitory computer-readable recording media, and are non-transitory computer-readable recording media, such as random access memory (RAM), read only memory (ROM), disk drive, solid state drive (SSD), flash memory, and the like. It may include a permanent mass storage device. Here, a non-volatile mass storage device such as a ROM, SSD, flash memory, disk drive, etc. may be included in the electronic device 110 or the server 150 as a separate permanent storage device distinct from the memories 211 and 221 . In addition, in the memories 211 and 221 , an operating system and at least one program code (eg, a browser installed and driven in the electronic device 110 or codes for an application installed in the electronic device 110 to provide a specific service) can be stored. These software components may be loaded from a computer-readable recording medium separate from the memories 211 and 221 . The separate computer-readable recording medium may include a computer-readable recording medium such as a floppy drive, a disk, a tape, a DVD/CD-ROM drive, and a memory card. In another embodiment, the software components may be loaded into the memories 211 and 221 through the communication modules 213 and 223 rather than the computer-readable recording medium. For example, the at least one program is a computer program installed by files provided through the network 170 by a file distribution system (eg, the above-described server 160 ) for distributing installation files of developers or applications. It may be loaded into the memories 211 and 221 based on (eg, the above-described application).

프로세서(212, 222)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(211, 221) 또는 통신 모듈(213, 223)에 의해 프로세서(212, 222)로 제공될 수 있다. 예를 들어 프로세서(212, 222)는 메모리(211, 221)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.The processors 212 and 222 may be configured to process instructions of a computer program by performing basic arithmetic, logic, and input/output operations. Commands may be provided to the processors 212 and 222 by the memories 211 and 221 or the communication modules 213 and 223 . For example, the processors 212 and 222 may be configured to execute received instructions according to program codes stored in a recording device such as the memories 211 and 221 .

통신 모듈(213, 223)은 네트워크(170)를 통해 전자 기기(110)와 서버(150)가 서로 통신하기 위한 기능을 제공할 수 있으며, 전자 기기(110) 및/또는 서버(150)가 다른 전자 기기(일례로 전자 기기(120)) 또는 다른 서버(일례로 서버(160))와 통신하기 위한 기능을 제공할 수 있다. 일례로, 전자 기기(110)의 프로세서(212)가 메모리(211)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이 통신 모듈(213)의 제어에 따라 네트워크(170)를 통해 서버(150)로 전달될 수 있다. 역으로, 서버(150)의 프로세서(222)의 제어에 따라 제공되는 제어 신호나 명령, 컨텐츠, 파일 등이 통신 모듈(223)과 네트워크(170)를 거쳐 전자 기기(110)의 통신 모듈(213)을 통해 전자 기기(110)로 수신될 수 있다. 예를 들어 통신 모듈(213)을 통해 수신된 서버(150)의 제어 신호나 명령, 컨텐츠, 파일 등은 프로세서(212)나 메모리(211)로 전달될 수 있고, 컨텐츠나 파일 등은 전자 기기(110)가 더 포함할 수 있는 저장 매체(상술한 영구 저장 장치)로 저장될 수 있다.The communication modules 213 and 223 may provide a function for the electronic device 110 and the server 150 to communicate with each other through the network 170 , and the electronic device 110 and/or the server 150 may communicate with each other through the network 170 . A function for communicating with an electronic device (eg, the electronic device 120 ) or another server (eg, the server 160 ) may be provided. For example, a request generated by the processor 212 of the electronic device 110 according to a program code stored in a recording device such as the memory 211 is transmitted to the server 150 through the network 170 under the control of the communication module 213 . ) can be transferred. Conversely, a control signal, command, content, file, etc. provided under the control of the processor 222 of the server 150 passes through the communication module 223 and the network 170 to the communication module 213 of the electronic device 110 . ) through the electronic device 110 may be received. For example, a control signal, command, content, file, etc. of the server 150 received through the communication module 213 may be transmitted to the processor 212 or the memory 211 , and the content or file may be transmitted to the electronic device ( 110) may be stored as a storage medium (the above-described permanent storage device) that may further include.

입출력 인터페이스(214)는 입출력 장치(215)와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 입력 장치는 키보드, 마우스, 마이크로폰, 카메라 등의 장치를, 그리고 출력 장치는 디스플레이, 스피커, 햅틱 피드백 디바이스(haptic feedback device) 등과 같은 장치를 포함할 수 있다. 다른 예로 입출력 인터페이스(214)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. 입출력 장치(215)는 전자 기기(110)와 하나의 장치로 구성될 수도 있다. 또한, 서버(150)의 입출력 인터페이스(224)는 서버(150)와 연결되거나 서버(150)가 포함할 수 있는 입력 또는 출력을 위한 장치(미도시)와의 인터페이스를 위한 수단일 수 있다. 보다 구체적인 예로, 전자 기기(110)의 프로세서(212)가 메모리(211)에 로딩된 컴퓨터 프로그램의 명령을 처리함에 있어서 서버(150)나 전자 기기(120)가 제공하는 데이터를 이용하여 구성되는 서비스 화면이나 컨텐츠가 입출력 인터페이스(214)를 통해 디스플레이에 표시될 수 있다.The input/output interface 214 may be a means for interfacing with the input/output device 215 . For example, the input device may include a device such as a keyboard, mouse, microphone, camera, and the like, and the output device may include a device such as a display, a speaker, a haptic feedback device, and the like. As another example, the input/output interface 214 may be a means for an interface with a device in which functions for input and output are integrated into one, such as a touch screen. The input/output device 215 may be configured as one device with the electronic device 110 . In addition, the input/output interface 224 of the server 150 may be a means for interfacing with a device (not shown) for input or output that is connected to the server 150 or that the server 150 may include. As a more specific example, a service configured using data provided by the server 150 or the electronic device 120 when the processor 212 of the electronic device 110 processes a command of a computer program loaded into the memory 211 . A screen or content may be displayed on the display through the input/output interface 214 .

또한, 다른 실시예들에서 전자 기기(110) 및 서버(150)는 도 2의 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 전자 기기(110)는 상술한 입출력 장치(215) 중 적어도 일부를 포함하도록 구현되거나 또는 트랜시버(transceiver), GPS(Global Positioning System) 모듈, 카메라, 각종 센서, 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다. 보다 구체적인 예로, 전자 기기(110)가 스마트폰인 경우, 일반적으로 스마트폰이 포함하고 있는 가속도 센서나 자이로 센서, 카메라 모듈, 각종 물리적인 버튼, 터치패널을 이용한 버튼, 입출력 포트, 진동을 위한 진동기 등의 다양한 구성요소들이 전자 기기(110)에 더 포함되도록 구현될 수 있다.In addition, in other embodiments, the electronic device 110 and the server 150 may include more components than those of FIG. 2 . However, there is no need to clearly show most of the prior art components. For example, the electronic device 110 is implemented to include at least a portion of the above-described input/output device 215 or other components such as a transceiver, a global positioning system (GPS) module, a camera, various sensors, and a database. may include more. As a more specific example, when the electronic device 110 is a smart phone, an acceleration sensor or a gyro sensor, a camera module, various physical buttons, a button using a touch panel, an input/output port, and a vibrator for vibration generally included in the smart phone Various components such as may be implemented to be further included in the electronic device 110 .

이하에서는 서로 다른 모달의 피처를 이용한 복합 랭킹 모델을 통해 연관 이미지를 검색하는 방법 및 시스템의 구체적인 실시예를 설명하기로 한다.Hereinafter, a specific embodiment of a method and system for searching a related image through a complex ranking model using different modal features will be described.

도 3은 본 발명의 일실시예에 따른 서버의 프로세서가 포함할 수 있는 구성요소의 예를 도시한 블록도이고, 도 4는 본 발명의 일실시예에 따른 서버가 수행할 수 있는 방법의 예를 도시한 흐름도이다.3 is a block diagram illustrating an example of components that a processor of a server may include according to an embodiment of the present invention, and FIG. 4 is an example of a method that the server may perform according to an embodiment of the present invention is a flowchart showing

본 실시예에 따른 서버(150)는 검색 서비스를 제공하는 플랫폼 역할을 한다.The server 150 according to the present embodiment serves as a platform for providing a search service.

서버(150)는 전자 기기(110)의 사용자에 의해 텍스트 기반으로 입력된 질의에 대해 질의와 대응되는 문서를 검색 결과로 제공하게 되는데, 이때 검색 결과에는 이미지 컨텐츠가 포함될 수 있다.The server 150 provides a document corresponding to the query as a search result for a text-based query input by the user of the electronic device 110 . In this case, the search result may include image content.

서버(150)는 텍스트 기반의 초기 질의에 따른 검색 결과에서 특정 이미지가 선택되는 경우 이미지 뷰어를 통해 해당 이미지를 노출할 수 있고, 이와 아울러 이미지 뷰어에 노출된 이미지와 연관된 이미지(이하, '연관 이미지'라 칭함)를 제공할 수 있다.When a specific image is selected from the search result according to the text-based initial query, the server 150 may expose the corresponding image through the image viewer, and also an image associated with the image exposed to the image viewer (hereinafter, 'related image') ') can be provided.

서버(150)는 이미지 컨텐츠의 재탐색을 통해 이미지와 관련이 높은 다른 이미지를 다양한 각도에서 탐색하고 소비할 수 있는 연관 이미지 검색 서비스를 제공한다.The server 150 provides a related image search service that can search for and consume other images highly related to the image from various angles through re-search of the image content.

특히, 본 실시예에 따른 서버(150)는 초기 질의에 따른 검색 결과에서 선택됨에 따라 이미지 뷰어에 현재 노출된 이미지에 대해 초기 질의에 해당되는 텍스트와 이미지의 문맥, 이미지 자체의 시각적 유사도를 고려한 복합 랭킹 모델을 통해 연관 이미지를 서비스할 수 있다.In particular, the server 150 according to the present embodiment considers the context of text and image corresponding to the initial query for the image currently exposed to the image viewer as it is selected from the search results according to the initial query, and the visual similarity of the image itself. A related image can be serviced through a ranking model.

서버(150)의 프로세서(222)는 도 4에 따른 연관 이미지 검색 방법을 수행하기 위한 구성요소로서 도 3에 도시된 바와 같이, 문서 검색부(310), 피처 추출부(320), 및 이미지 검색부(330)를 포함할 수 있다. 실시예에 따라 프로세서(222)의 구성요소들은 선택적으로 프로세서(222)에 포함되거나 제외될 수도 있다. 또한, 실시예에 따라 프로세서(222)의 구성요소들은 프로세서(222)의 기능의 표현을 위해 분리 또는 병합될 수도 있다.The processor 222 of the server 150 is a component for performing the related image search method according to FIG. 4 , and as shown in FIG. 3 , a document search unit 310 , a feature extraction unit 320 , and an image search unit It may include a unit 330 . Depending on the embodiment, components of the processor 222 may be selectively included in or excluded from the processor 222 . In addition, according to an embodiment, the components of the processor 222 may be separated or combined to express the functions of the processor 222 .

이러한 프로세서(222) 및 프로세서(222)의 구성요소들은 도 4의 연관 이미지 검색 방법이 포함하는 단계들(S410 내지 S430)을 수행하도록 서버(150)를 제어할 수 있다. 예를 들어, 프로세서(222) 및 프로세서(222)의 구성요소들은 메모리(221)가 포함하는 운영체제의 코드와 적어도 하나의 프로그램의 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다.The processor 222 and the components of the processor 222 may control the server 150 to perform the steps S410 to S430 included in the related image search method of FIG. 4 . For example, the processor 222 and components of the processor 222 may be implemented to execute instructions according to the code of the operating system included in the memory 221 and the code of at least one program.

여기서, 프로세서(222)의 구성요소들은 서버(150)에 저장된 프로그램 코드가 제공하는 명령에 따라 프로세서(222)에 의해 수행되는 서로 다른 기능들(different functions)의 표현들일 수 있다. 예를 들어, 서버(150)가 질의에 대응되는 문서를 검색하도록 상술한 명령에 따라 서버(150)를 제어하는 프로세서(222)의 기능적 표현으로서 문서 검색부(310)가 이용될 수 있다.Here, the components of the processor 222 may be expressions of different functions performed by the processor 222 according to instructions provided by the program code stored in the server 150 . For example, the document search unit 310 may be used as a functional representation of the processor 222 that controls the server 150 according to the above-described command so that the server 150 searches for a document corresponding to the query.

프로세서(222)는 서버(150)의 제어와 관련된 명령이 로딩된 메모리(221)로부터 필요한 명령을 읽어들일 수 있다. 이 경우, 상기 읽어들인 명령은 프로세서(222)가 이후 설명될 단계들(S410 내지 S430)을 실행하도록 제어하기 위한 명령을 포함할 수 있다. 이후 설명될 단계들(S410 내지 S430)은 도 4에 도시된 순서와 다른 순서로 수행될 수 있으며, 단계들(S410 내지 S430) 중 일부가 생략되거나 추가의 과정이 더 포함될 수 있다.The processor 222 may read a necessary command from the memory 221 in which the command related to the control of the server 150 is loaded. In this case, the read command may include a command for controlling the processor 222 to execute steps S410 to S430 to be described later. Steps S410 to S430 to be described later may be performed in an order different from that shown in FIG. 4 , and some of the steps S410 to S430 may be omitted or additional processes may be further included.

도 4를 참조하면, 단계(S410)에서 문서 검색부(310)는 전자 기기(110)로부터 전자 기기(110)의 사용자에 의해 텍스트로 입력된 검색어로서 초기 질의가 수신되는 경우 초기 질의에 대응되는 문서를 검색하여 초기 질의에 대한 검색 결과를 전자 기기(110)로 제공할 수 있다. 검색 결과에는 이미지가 포함된 문서가 적어도 하나 이상 포함될 수 있다.Referring to FIG. 4 , in step S410 , the document search unit 310 responds to the initial query as a search word input as text by the user of the electronic device 110 from the electronic device 110 . The search result for the initial query may be provided to the electronic device 110 by searching for a document. The search result may include at least one document including an image.

단계(S420)에서 피처 추출부(320)는 전자 기기(110)의 사용자가 의해 검색 결과에서 이미지(이하, '대상 이미지'라 칭함)가 선택되는 경우 대상 이미지와 관련 있는 연관 이미지를 재탐색하기 위한 피처를 추출할 수 있다. 이때, 피처 추출부(320)는 대상 이미지의 검색에 이용된 초기 질의에 해당되는 텍스트, 대상 이미지가 포함된 문서의 문맥, 대상 이미지 자체로부터 이미지 재탐색을 위한 세 가지 피처를 생성할 수 있다.In step S420 , the feature extraction unit 320 re-searches a related image related to the target image when an image (hereinafter, referred to as a 'target image') is selected from the search result by the user of the electronic device 110 . features can be extracted for In this case, the feature extractor 320 may generate three features for image re-search from the text corresponding to the initial query used for searching the target image, the context of the document including the target image, and the target image itself.

단계(S430)에서 이미지 검색부(330)는 대상 이미지에 대해 서로 다른 모달의 세 가지 피처를 입력 질의로 하여 연관 이미지를 검색할 수 있다. 이미지 검색부(330)는 텍스트와 문맥, 이미지로부터 추출된, 서로 다른 성격을 가진 피처들을 입력 질의로 하는 복합 랭킹 모델을 통해 대상 이미지와 연관도가 높은 이미지를 정렬함으로써 연관 이미지 검색 결과를 제공할 수 있다.In step S430 , the image search unit 330 may search for a related image by using three different modal features as an input query for the target image. The image search unit 330 provides a related image search result by arranging images with high relevance to the target image through a complex ranking model using features with different characteristics extracted from text, context, and images as input queries. can

도 5는 본 발명의 일 실시예에 있어서 텍스트 기반 정보 검색 환경을 설명하기 위한 예시 도면이다.5 is an exemplary diagram for explaining a text-based information retrieval environment according to an embodiment of the present invention.

도 5는 검색 서비스 화면(500)의 예시를 나타내고 있다.5 shows an example of the search service screen 500 .

도 5를 참조하면, 프로세서(222)는 검색 서비스 화면(500)을 통해 검색어(501)가 입력되는 경우 검색어(501)를 초기 질의로 하여 해당 질의에 대응되는 문서를 검색 결과로 제공할 수 있다. 이때, 초기 질의에 대한 검색 결과는 통합 검색 결과로서, 인터넷 정보 검색에서 검색어(501)와 관련된 웹 문서, 뉴스, 블로그, 이미지, 동영상 등 모든 자료를 항목 별로 구분하여 보여주는 검색 방식에 따른 것이다.Referring to FIG. 5 , when a search word 501 is input through the search service screen 500 , the processor 222 may use the search word 501 as an initial query and provide a document corresponding to the query as a search result. . In this case, the search result for the initial query is an integrated search result, according to a search method that shows all data such as web documents, news, blogs, images, and videos related to the search word 501 in Internet information search by category.

프로세서(222)는 초기 질의에 따른 통합 검색 결과에서 특정 이미지(즉, 대상 이미지)가 선택되는 경우 이미지 뷰어(510)를 통해 대상 이미지를 노출할 수 있고, 이와 아울러 이미지 뷰어(510)에 노출된 대상 이미지와 관련이 있는 이미지, 즉 연관 이미지(520)를 제공할 수 있다.When a specific image (ie, target image) is selected from the integrated search result according to the initial query, the processor 222 may expose the target image through the image viewer 510, and in addition, An image related to the target image, that is, the related image 520 may be provided.

다시 말해, 프로세서(222)는 이미지 뷰어(510)에 현재 노출된 대상 이미지에 대해 연관 이미지(520)를 제공하여 해당 이미지와 관련이 높은 다른 이미지를 다양한 각도에서 탐색하고 소비할 수 있는 서비스를 제공한다.In other words, the processor 222 provides a related image 520 with respect to the target image currently exposed to the image viewer 510 to provide a service that allows users to search for and consume other images highly related to the image from various angles. do.

연관 이미지(520)를 판단하는 기준은 다음과 같이 3가지 관점에서 정의될 수 있다.The criterion for determining the related image 520 may be defined from three viewpoints as follows.

(1) 첫째, 연관 이미지(520)는 대상 이미지의 검색에 이용된 최초의 검색 질의와 관련이 있어야 한다. 예를 들어, '홍길동'을 검색한 후 검색 결과에서 홍길동 사진이 선택될 때 최초 질의 '홍길동'과 관련된 이미지가 연관도가 높은 것으로 판단한다.(1) First, the related image 520 must be related to the first search query used to search for the target image. For example, when a picture of Hong Gil-dong is selected from the search results after searching for 'Hong Gil-dong', it is determined that the image related to the initial query 'Hong Gil-dong' has a high degree of relevance.

(2) 둘째, 이미지 뷰어(510)에 현재 노출된 대상 이미지의 이벤트와 관련이 있어야 한다. 예를 들어, 대상 이미지가 특정 드라마와 관련된 사진이라면 해당 드라마의 영상으로 분류된 '홍길동' 사진이 연관도가 높은 것으로 판단한다.(2) Second, it must be related to the event of the target image currently exposed to the image viewer 510 . For example, if the target image is a picture related to a specific drama, it is determined that the picture of 'Hong Gil-dong' classified as an image of the corresponding drama has a high degree of relevance.

(3) 셋째, 이미지 뷰어(510)에 현재 노출된 대상 이미지와 시각적으로 유사한 이미지이어야 한다. 시각적으로 유사하다는 것은 같은 이벤트 내에 포함된 이미지일 확률이 높기 때문이다.(3) Third, it must be an image that is visually similar to the target image currently exposed to the image viewer 510 . Visual similarity is because there is a high probability that the image is included in the same event.

본 실시예에서는 상기한 3가지 기준을 바탕으로 이미지를 정렬할 수 있는 랭킹 모델을 제공한다.In this embodiment, a ranking model capable of aligning images based on the above three criteria is provided.

도 6을 참조하면, 프로세서(222)는 연관 이미지 검색에서 사용하기 위한 피처로서 텍스트 기반 필드(601), 텍스트 기반 개체명 인식 필드(602), 및 비주얼 워드(603)를 생성할 수 있다. 이때, 텍스트 기반 필드(601)는 대상 이미지의 검색 시에 이용된 초기 질의를 의미하는 것이고, 텍스트 기반 개체명 인식 필드(602)는 대상 이미지가 포함된 문서의 언어적 정보인 문맥을 의미하는 것이고, 비주얼 워드(603)는 대상 이미지를 수치화한 비주얼 벡터를 의미한다.Referring to FIG. 6 , the processor 222 may generate a text-based field 601 , a text-based entity name recognition field 602 , and a visual word 603 as features for use in an associated image search. In this case, the text-based field 601 means an initial query used when searching for a target image, and the text-based entity name recognition field 602 means a context that is linguistic information of a document including the target image. , the visual word 603 means a visual vector obtained by digitizing the target image.

도 7은 텍스트 기반 필드(601), 텍스트 기반 개체명 인식 필드(602), 및 비주얼 워드(603)에 대한 색인 구조를 나타낸 것이다.7 shows an index structure for a text-based field 601 , a text-based entity name recognition field 602 , and a visual word 603 .

텍스트 기반 필드(601)에 대해서는 전통적인 자연어 기반 검색 처리 기술에 따른 자연어 색인 구조(701)를 적용한다.For the text-based field 601, a natural language index structure 701 according to a traditional natural language-based search processing technique is applied.

텍스트 기반 개체명 인식 필드(602)는 이미지가 포함된 문서의 문맥으로, 객체(인물 또는 사물), 장소(위치), 이벤트명(예컨대, 방송 프로그램 이름 등) 등 주요 개체 ID를 인식하는 것으로, 텍스트 기반 단어의 공존(co-existence)을 이용한 개체 인식 기술(named entity tagging)에 따른 색인 구조(702)를 적용한다. 이미지 별 관련 개체로서 객체, 장소, 이벤트명 등을 모두 포함하는 데이터베이스가 사전에 구축되어 있으며, 이러한 데이터베이스에서 매칭되는 개체를 추출하는 방식으로 개체 ID를 식별할 수 있다.The text-based entity name recognition field 602 recognizes main entity IDs such as an object (person or thing), a place (location), and an event name (eg, broadcast program name, etc.) in the context of a document containing an image, An index structure 702 according to named entity tagging using text-based word co-existence is applied. As a related entity for each image, a database including all objects, places, event names, etc. is built in advance, and object IDs can be identified by extracting matching objects from these databases.

비주얼 워드(603)는 이미지를 수치화(vectorization)하는 기술에 따른 색인 구조(703)를 적용하는 것으로, 이때 이미지를 수치화하여 역색인(inverted index) 구조가 적용될 수 있다. 이미지에서 비주얼 워드를 추출하여 이미지를 수치화하는 방법은 로컬 디스크립터(local descriptor) 추출 기술, 혹은 딥러닝 기반 임베딩 기술을 이용할 수 있다.The visual word 603 applies an index structure 703 according to a technology for digitizing an image. In this case, an inverted index structure may be applied by digitizing the image. A method of extracting a visual word from an image and digitizing the image may use a local descriptor extraction technique or a deep learning-based embedding technique.

비주얼 워드(603)는 딥러닝을 이용하여 이미지를 수치화하는 기술에 따른 색인 구조(703) 이외에도, 실시예에 따라서는 이미지의 시그니처(signature)인 로컬 디스크립터를 이용한 색인 구조(704)를 이용하는 것 또한 가능하다. 다시 말해, 비주얼 워드(603)는 딥러닝 기술을 이용한 색인 구조(703)와 로컬 디스크립터를 이용한 색인 구조(704) 중 하나의 색인 구조를 이용할 수 있다.In addition to the index structure 703 according to the technology of digitizing an image using deep learning, the visual word 603 uses an index structure 704 using a local descriptor that is a signature of the image according to an embodiment. It is possible. In other words, the visual word 603 may use one of the index structure 703 using a deep learning technique and the index structure 704 using a local descriptor.

본 실시예에서는 정보 검색을 위해 사용자가 입력한 초기 질의는 물론이고, 이미지의 문맥을 고려하기 위해 텍스트 기반 개체 인식을 이용한 대상 이미지의 문서 내 객체, 장소, 이벤트명 등의 개체 ID를 복합 랭킹 모델(610)의 입력 질의로 사용할 수 있다. 아울러, 이미지 자체의 유사도를 고려하기 위해 이미지를 비주얼 워드로 수치화하여 색인하는 구조를 포함하여 비주얼 워드를 텍스트와 개체 ID와 함께 복합 랭킹 모델(610)의 입력 질의로 사용할 수 있다.In this embodiment, object IDs such as object, place, and event name in the document of the target image using text-based object recognition to consider the context of the image as well as the initial query input by the user for information retrieval is a complex ranking model It can be used as an input query of (610). In addition, in order to consider the similarity of the image itself, it is possible to use the visual word as an input query of the complex ranking model 610 together with text and object ID, including a structure in which an image is digitized as a visual word and indexed.

따라서, 복합 랭킹 모델(610)은 서로 다른 모달을 가진 세 가지 피처, 즉 텍스트와 개체 ID, 그리고 비주얼 워드를 입력 질의로 하여 연관 이미지를 정렬할 수 있다.Accordingly, the composite ranking model 610 may sort the related images using three features having different modalities, that is, text, entity ID, and visual word as input queries.

이미지를 수치화하는 기술 중 하나인 딥러닝에서는 CNN 모델을 이용하여 피처를 추출한 다음 벡터 양자화(Vector Quantization)를 통해 CNN 피처를 워드로 표현할 수 있다. 이러한 방식은 워드 사전 사이즈(word vocabulary size)에 따라 제한된 워드 수로 인해 포스팅 리스트(posting list)가 과도하게 커지는 문제가 있다.In deep learning, which is one of the techniques for digitizing images, features can be extracted using a CNN model, and then CNN features can be expressed as words through vector quantization. This method has a problem in that the posting list becomes excessively large due to the limited number of words according to the word vocabulary size.

도 8을 참조하면, 딥러닝 기술을 이용한 색인 구조(703)에서 비주얼 워드 사전의 크기가 4096개라고 할 때 포스팅 리스트를 보면 문서가 4096개의 비주얼 워드 중 최소 1개 이상을 갖게 된다. 예를 들어, 문서 개수가 60억 건인 경우 포스팅 리스트의 평균 크기는 60억개/4096개가 된다. 이처럼 포스팅 리스트가 커지면 질의 시간(query time)에서 검색 엔진에 주어진 시간 내에 결과를 생성하기 어려운 문제가 있다.Referring to FIG. 8 , when the size of the visual word dictionary is 4096 in the index structure 703 using deep learning technology, the document has at least one of 4096 visual words when looking at the posting list. For example, if the number of documents is 6 billion, the average size of the posting list is 6 billion / 4096. As such, when the posting list grows, there is a problem in that it is difficult to generate results within the time given to the search engine at the query time.

이러한 문제를 개선하기 위해 워드 사전의 크기를 늘릴 필요가 있으며, 이때 워드 사전의 크기를 늘리기 위한 방법 중 일례로는 각 비주얼 워드의 조합(combination)을 만들 수 있다.In order to solve this problem, it is necessary to increase the size of the word dictionary. In this case, as an example of a method for increasing the size of the word dictionary, a combination of each visual word may be created.

도 9를 참조하면, 프로세서(222)는 순열(permutation), 윈도잉(windowing) 등과 같은 병합(concatenate) 방식을 통해 비주얼 워드의 조합을 만들 수 있다. 2개의 비주얼 워드를 하나의 워드로 조합하는 경우 워드 사전의 크기를 늘릴 수 있고 이를 통해 포스팅 리스트의 평균 크기를 (문서 개수/224개)로 줄일 수 있다.Referring to FIG. 9 , the processor 222 may create a combination of visual words through a concatenation method such as permutation and windowing. When two visual words are combined into one word, the size of the word dictionary can be increased, and through this, the average size of the posting list can be reduced to (number of documents/2 24 ).

비주얼 워드의 조합을 만드는 것은 1개의 워드로 2개의 비주얼 워드의 공존(co-existence) 검색이 가능하다는 이점이 있다. 뿐만 아니라, 조합된 비주얼 워드를 각 워드의 중요도(strength)에 따라 우선 순위를 적용하면 보다 적은 워드의 비교를 통해 유사 이미지를 효율적으로 찾아낼 수 있다.Creating a combination of visual words has the advantage that co-existence of two visual words can be searched with one word. In addition, if priority is applied to the combined visual words according to the strength of each word, similar images can be efficiently found through comparison of fewer words.

더 나아가, 역색인을 이용한 검색 기법에서 주어진 응답 시간을 보장하기 위해서는 세 가지 모달에서 생성되는 피처에 해당되는 텀(term)의 개수를 일부 제한할 수 있다. 일례로, 프로세서(222)는 복합 랭킹 모델(610)의 입력 질의에 포함되는 개체 ID와 비주얼 워드 중 적어도 하나에 해당되는 텀의 개수를 제한할 수 있다. 이때, 초기 질의(텍스트)는 연관 이미지를 검색하기 위해 가장 중요한 피처이므로 텀의 개수를 제한하는 대상에서 제외시킬 수 있다.Furthermore, in order to guarantee a given response time in a search technique using an inverse index, the number of terms corresponding to features generated in three modals may be partially limited. As an example, the processor 222 may limit the number of terms corresponding to at least one of an object ID and a visual word included in the input query of the complex ranking model 610 . In this case, since the initial query (text) is the most important feature to search for a related image, it can be excluded from the subject of limiting the number of terms.

이처럼 본 발명의 실시예들에 따르면, 텍스트 기반의 초기 질의에 따른 검색 결과에서 이미지가 선택되는 경우 멀티모달 질의를 입력 질의로 하는 추가 이미지 검색을 통해 연관 이미지를 제공할 수 있다. 그리고, 본 발명의 실시예들에 따르면, 추가 이미지 검색에서 서로 다른 모달을 가진 피처를 이용한 복합 랭킹 모델을 통해 관련성이 높은 대량의 연관 이미지를 빠르게 검색할 수 있다.As such, according to embodiments of the present invention, when an image is selected from a search result according to a text-based initial query, a related image may be provided through an additional image search using a multimodal query as an input query. And, according to embodiments of the present invention, it is possible to quickly search for a large number of highly related images through a complex ranking model using features with different modals in additional image search.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented as a hardware component, a software component, and/or a combination of the hardware component and the software component. For example, the apparatus and components described in the embodiments may include a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), and a programmable logic unit (PLU). It may be implemented using one or more general purpose or special purpose computers, such as a logic unit, microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications executed on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be embodied in any tangible machine, component, physical device, computer storage medium or device for interpretation by or providing instructions or data to the processing device. have. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수 개의 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 어플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. In this case, the medium may be to continuously store a program executable by a computer, or to temporarily store it for execution or download. In addition, the medium may be various recording means or storage means in the form of a single or several hardware combined, it is not limited to a medium directly connected to any computer system, and may exist distributed over a network. Examples of the medium include a hard disk, a magnetic medium such as a floppy disk and a magnetic tape, an optical recording medium such as CD-ROM and DVD, a magneto-optical medium such as a floppy disk, and those configured to store program instructions, including ROM, RAM, flash memory, and the like. In addition, examples of other media may include recording media or storage media managed by an app store that distributes applications, sites that supply or distribute other various software, and servers.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible from the above description by those skilled in the art. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (20)

컴퓨터 시스템에서 실행되는 연관 이미지 검색 방법에 있어서,
상기 컴퓨터 시스템은 메모리에 포함된 컴퓨터 판독가능한 명령들을 실행하도록 구성된 적어도 하나의 프로세서를 포함하고,
상기 연관 이미지 검색 방법은,
상기 적어도 하나의 프로세서에 의해, 초기 질의에 대응되는 문서를 검색하여 검색 결과를 제공하는 단계;
상기 적어도 하나의 프로세서에 의해, 상기 검색 결과에서 이미지가 선택되는 경우 서로 다른 모달(modal)의 복수 개의 피처를 추출하는 단계; 및
상기 적어도 하나의 프로세서에 의해, 상기 복수 개의 피처를 입력 질의로 하여 상기 이미지와 관련 있는 연관 이미지를 검색하는 단계
를 포함하고,
상기 복수 개의 피처를 추출하는 단계는,
상기 이미지를 수치화한 비주얼 워드를 추출하는 단계; 및
상기 복수 개의 피처 중 하나로서, 상기 비주얼 워드의 조합(combination)을 만드는 단계
를 포함하는 연관 이미지 검색 방법.
A method for retrieving a related image executed in a computer system, the method comprising:
the computer system comprising at least one processor configured to execute computer readable instructions contained in a memory;
The related image search method includes:
providing, by the at least one processor, a search result by searching for a document corresponding to an initial query;
extracting, by the at least one processor, a plurality of features of different modals when an image is selected from the search result; and
retrieving, by the at least one processor, a related image related to the image using the plurality of features as an input query;
including,
The step of extracting the plurality of features comprises:
extracting a visual word obtained by digitizing the image; and
creating a combination of the visual word as one of the plurality of features;
A related image search method comprising a.
제1항에 있어서,
상기 복수 개의 피처를 추출하는 단계는,
상기 복수 개의 피처 중 하나로서, 초기 질의에 해당되는 텍스트, 및 상기 이미지가 포함된 문서의 문맥을 추출하는 단계
를 더 포함하는 연관 이미지 검색 방법.
According to claim 1,
The step of extracting the plurality of features comprises:
extracting, as one of the plurality of features, the text corresponding to the initial query, and the context of a document including the image;
A related image search method further comprising a.
제1항에 있어서,
상기 복수 개의 피처를 추출하는 단계는,
상기 복수 개의 피처 중 하나로서, 개체 인식 기술을 통해 상기 문서로부터 적어도 하나의 개체 ID를 인식하는 단계
를 더 포함하는 연관 이미지 검색 방법.
According to claim 1,
The step of extracting the plurality of features comprises:
recognizing, as one of the plurality of features, at least one entity ID from the document through entity recognition technology;
A related image search method further comprising a.
삭제delete 제1항에 있어서,
상기 이미지를 수치화한 비주얼 워드를 추출하는 단계는,
로컬 디스크립터 추출 기술, 또는 딥러닝 기반 임베딩 기술을 통해 상기 이미지를 수치화하는 단계
를 포함하는 연관 이미지 검색 방법.
According to claim 1,
The step of extracting the visual word obtained by digitizing the image is
Numericalizing the image through local descriptor extraction technology or deep learning-based embedding technology
A related image search method comprising a.
제1항에 있어서,
상기 이미지를 수치화한 비주얼 워드를 추출하는 단계는,
CNN 모델을 통해 상기 이미지로부터 CNN 피처를 추출하는 단계; 및
상기 CNN 피처를 벡터 양자화(Vector Quantization)를 통해 워드로 표현하는 단계
를 포함하는 연관 이미지 검색 방법.
According to claim 1,
The step of extracting the visual word obtained by digitizing the image is
extracting CNN features from the image through a CNN model; and
Expressing the CNN feature as a word through vector quantization
A related image search method comprising a.
제1항에 있어서,
상기 비주얼 워드의 조합을 만드는 단계는,
워드 병합(concatenate) 방식을 통해 상기 비주얼 워드의 조합을 만드는 단계
를 포함하는 연관 이미지 검색 방법.
According to claim 1,
The step of creating a combination of the visual word is,
Creating a combination of the visual words through a word concatenate method
A related image search method comprising a.
제1항에 있어서,
상기 검색하는 단계는,
상기 복수 개의 피처를 입력 질의로 하는 랭킹 모델을 통해 상기 연관 이미지를 정렬하는 단계
를 포함하는 연관 이미지 검색 방법.
According to claim 1,
The searching step is
Sorting the related images through a ranking model using the plurality of features as input queries
A related image search method comprising a.
제8항에 있어서,
상기 검색하는 단계는,
상기 입력 질의에 포함되는 상기 복수 개의 피처 중 적어도 하나에 해당되는 텀의 개수를 제한하는 단계
를 포함하는 연관 이미지 검색 방법.
9. The method of claim 8,
The searching step is
limiting the number of terms corresponding to at least one of the plurality of features included in the input query;
A related image search method comprising a.
제1항 내지 제3항, 제5항 내지 제9항 중 어느 한 항의 연관 이미지 검색 방법을 상기 컴퓨터 시스템에 실행시키기 위해 비-일시적인 컴퓨터 판독가능한 기록 매체에 저장되는 컴퓨터 프로그램.A computer program stored in a non-transitory computer readable recording medium for executing the method of any one of claims 1 to 3, 5 to 9, in the computer system. 제1항 내지 제3항, 제5항 내지 제9항 중 어느 한 항의 연관 이미지 검색 방법을 컴퓨터에 실행시키기 위한 프로그램이 기록되어 있는 비-일시적인 컴퓨터 판독 가능한 기록 매체.[Claim 10] A non-transitory computer-readable recording medium in which a program for executing the related image retrieval method of any one of claims 1 to 3 and 5 to 9 on a computer is recorded. 컴퓨터 시스템에 있어서,
메모리에 포함된 컴퓨터 판독가능한 명령들을 실행하도록 구성된 적어도 하나의 프로세서
를 포함하고,
상기 적어도 하나의 프로세서는,
초기 질의에 대응되는 문서를 검색하여 검색 결과를 제공하는 문서 검색부;
상기 검색 결과에서 이미지가 선택되는 경우 서로 다른 모달의 복수 개의 피처를 추출하는 피처 추출부; 및
상기 복수 개의 피처를 입력 질의로 하여 상기 이미지와 관련 있는 연관 이미지를 검색하는 이미지 검색부
를 포함하고,
상기 피처 추출부는,
상기 이미지를 수치화한 비주얼 워드를 추출하고,
상기 복수 개의 피처 중 하나로서, 상기 비주얼 워드의 조합을 만드는 것
을 특징으로 하는 컴퓨터 시스템.
In a computer system,
at least one processor configured to execute computer readable instructions contained in memory
including,
the at least one processor,
a document search unit that searches for a document corresponding to the initial query and provides a search result;
a feature extracting unit for extracting a plurality of features of different modals when an image is selected from the search result; and
An image search unit that searches for a related image related to the image by using the plurality of features as an input query
including,
The feature extraction unit,
Extracting the visual word digitizing the image,
one of said plurality of features, making a combination of said visual words;
A computer system characterized by a.
제12항에 있어서,
상기 피처 추출부는,
상기 복수 개의 피처 중 하나로서, 초기 질의에 해당되는 텍스트, 및 상기 이미지가 포함된 문서의 문맥을 추출하는 것
을 특징으로 하는 컴퓨터 시스템.
13. The method of claim 12,
The feature extraction unit,
Extracting the text corresponding to the initial query and the context of a document including the image as one of the plurality of features
A computer system characterized by a.
제12항에 있어서,
상기 피처 추출부는,
상기 복수 개의 피처 중 하나로서, 개체 인식 기술을 통해 상기 문서로부터 적어도 하나의 개체 ID를 인식하는 것
을 특징으로 하는 컴퓨터 시스템.
13. The method of claim 12,
The feature extraction unit,
one of said plurality of features, recognizing at least one entity ID from said document through entity recognition technology;
A computer system characterized by a.
삭제delete 제12항에 있어서,
상기 피처 추출부는,
로컬 디스크립터 추출 기술, 또는 딥러닝 기반 임베딩 기술을 통해 상기 이미지를 수치화하는 것
을 특징으로 하는 컴퓨터 시스템.
13. The method of claim 12,
The feature extraction unit,
Numericalizing the image through local descriptor extraction technology, or deep learning-based embedding technology
A computer system characterized by a.
제12항에 있어서,
상기 피처 추출부는,
CNN 모델을 통해 상기 이미지로부터 CNN 피처를 추출한 후,
상기 CNN 피처를 벡터 양자화를 통해 워드로 표현하는 것
을 특징으로 하는 컴퓨터 시스템.
13. The method of claim 12,
The feature extraction unit,
After extracting the CNN features from the image through the CNN model,
Expressing the CNN feature as a word through vector quantization
A computer system characterized by a.
제12항에 있어서,
상기 피처 추출부는,
워드 병합 방식을 통해 상기 비주얼 워드의 조합을 만드는 것
을 특징으로 하는 컴퓨터 시스템.
13. The method of claim 12,
The feature extraction unit,
Creating a combination of the above visual words through a word merging method
A computer system characterized by a.
제12항에 있어서,
상기 이미지 검색부는,
상기 복수 개의 피처를 입력 질의로 하는 랭킹 모델을 통해 상기 연관 이미지를 정렬하는 것
을 특징으로 하는 컴퓨터 시스템.
13. The method of claim 12,
The image search unit,
Sorting the related image through a ranking model using the plurality of features as an input query
A computer system characterized by a.
제19항에 있어서,
상기 이미지 검색부는,
상기 입력 질의에 포함되는 상기 복수 개의 피처 중 적어도 하나에 해당되는 텀의 개수를 제한하는 것
을 특징으로 하는 컴퓨터 시스템.
20. The method of claim 19,
The image search unit,
limiting the number of terms corresponding to at least one of the plurality of features included in the input query
A computer system characterized by a.
KR1020200040455A 2020-04-02 2020-04-02 Method and system for retrieving associative image through multimodality ranking model using different modal features KR102415366B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200040455A KR102415366B1 (en) 2020-04-02 2020-04-02 Method and system for retrieving associative image through multimodality ranking model using different modal features

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200040455A KR102415366B1 (en) 2020-04-02 2020-04-02 Method and system for retrieving associative image through multimodality ranking model using different modal features

Publications (2)

Publication Number Publication Date
KR20210123119A KR20210123119A (en) 2021-10-13
KR102415366B1 true KR102415366B1 (en) 2022-07-01

Family

ID=78115176

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200040455A KR102415366B1 (en) 2020-04-02 2020-04-02 Method and system for retrieving associative image through multimodality ranking model using different modal features

Country Status (1)

Country Link
KR (1) KR102415366B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024076156A1 (en) * 2022-10-07 2024-04-11 삼성전자주식회사 Electronic device and method for identifying image combined with text in multimedia content
KR102594547B1 (en) * 2022-11-28 2023-10-26 (주)위세아이텍 Apparatus and method for image retrieval based on multimodal feature

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005107931A (en) * 2003-09-30 2005-04-21 Ricoh Co Ltd Image search apparatus

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013075316A1 (en) * 2011-11-24 2013-05-30 Microsoft Corporation Interactive multi-modal image search
JP2019531547A (en) * 2016-09-08 2019-10-31 エイアイキュー ピーティーイー.リミテッド Object detection with visual search queries
KR101976081B1 (en) * 2017-07-17 2019-08-28 경희대학교 산학협력단 Method, system and computer program for semantic image retrieval based on topic modeling

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005107931A (en) * 2003-09-30 2005-04-21 Ricoh Co Ltd Image search apparatus

Also Published As

Publication number Publication date
KR20210123119A (en) 2021-10-13

Similar Documents

Publication Publication Date Title
US8577882B2 (en) Method and system for searching multilingual documents
CN111046221B (en) Song recommendation method, device, terminal equipment and storage medium
KR20190114195A (en) Method and system for extracting topic keyword
JP2017220230A (en) Map image retrieval method based on content of image, map image retrieval system, and computer program
KR102415366B1 (en) Method and system for retrieving associative image through multimodality ranking model using different modal features
US10621252B2 (en) Method for searching in a database
CN105637509A (en) Searching and annotating within images
KR102277240B1 (en) Method and system for extracting synonym by using keyword relation structure
KR101747532B1 (en) Method and system for recommending course for travel related query
KR102315068B1 (en) Method and system for determining document consistence to improve document search quality
KR20200097949A (en) Method and system for extracting synonym by using keyword relation structure
KR102264481B1 (en) Method, system, and non-transitory computer readable record medium for grouping channels within social network services
KR102151598B1 (en) Method and system for providing relevant keywords based on keyword attribute
KR102195191B1 (en) Method and system for extracting new keyword by using keyword relation structure
KR101789234B1 (en) Data tagging apparatus and method thereof, and data search method using the same
KR102353338B1 (en) Method and system for retrieving videos based on content analysis
KR102227741B1 (en) Method and system for searching poi based on title matching score
KR20230120759A (en) Method for retrieving videos of real-time using content analysis
KR102192376B1 (en) Method and system for extracting foreign synonym using transliteration model
KR102141192B1 (en) Method and apparatus for collecting news common pharases based on media
KR101944404B1 (en) Method and system for providing stock price information
US10963924B1 (en) Media processing techniques for enhancing content
KR102426056B1 (en) Method, system, and computer program for dedecting multimodal abusing pattern to select document
KR102206289B1 (en) Method and system for integrating poi search coverage
KR20210119112A (en) Method, system, and computer program for providing comparison results by comparing common features of products

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant