KR20200141387A - System, method and program for searching image data by using deep-learning algorithm - Google Patents

System, method and program for searching image data by using deep-learning algorithm Download PDF

Info

Publication number
KR20200141387A
KR20200141387A KR1020200065356A KR20200065356A KR20200141387A KR 20200141387 A KR20200141387 A KR 20200141387A KR 1020200065356 A KR1020200065356 A KR 1020200065356A KR 20200065356 A KR20200065356 A KR 20200065356A KR 20200141387 A KR20200141387 A KR 20200141387A
Authority
KR
South Korea
Prior art keywords
appearance
image data
individual
server
characteristic
Prior art date
Application number
KR1020200065356A
Other languages
Korean (ko)
Inventor
이종혁
Original Assignee
(주)사맛디
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)사맛디 filed Critical (주)사맛디
Priority to KR1020200065356A priority Critical patent/KR20200141387A/en
Publication of KR20200141387A publication Critical patent/KR20200141387A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/735Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/75Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Library & Information Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to an image data search method using a deep learning algorithm, to a device thereof, and to a program. According to one embodiment of the present invention, the image data search method comprises the steps of: calculating individual appearance characteristics for a plurality of appearance classification criteria by inputting input image data into an appearance characteristic recognition model by a server (S200); generating, by the server, appearance description data by combining a plurality of individual appearance characteristics with respect to the input image data (S400); and extracting the image data corresponding to a combination of the appearance classification criteria matched with an abstract characteristic corresponding to a search keyword in a matching algorithm by receiving of a search keyword from a specific user by the server (S600).

Description

딥러닝 알고리즘을 이용한 영상데이터 검색방법, 장치 및 프로그램 {SYSTEM, METHOD AND PROGRAM FOR SEARCHING IMAGE DATA BY USING DEEP-LEARNING ALGORITHM}Image data search method, device and program using deep learning algorithm {SYSTEM, METHOD AND PROGRAM FOR SEARCHING IMAGE DATA BY USING DEEP-LEARNING ALGORITHM}

본 발명은 딥러닝 알고리즘을 이용한 영상데이터 검색방법, 장치 및 프로그램에 관한 것이다.The present invention relates to an image data search method, apparatus, and program using a deep learning algorithm.

최근 인터넷의 발달로 소셜 미디어 네트워크 서비스가 급격히 성장하고 있다. 그 결과, 멀티미디어의 양이 폭발 적으로 증가하면서 효과적인 이미지 검색 시스템이 요구되며, 이미지 어노테이션은 폭발적으로 증가하는 웹이미 지에 따른 효율적인 이미지 검색의 필요성으로 인해 그 중요도가 점점 높아지고 있다.With the recent development of the Internet, social media network services are rapidly growing. As a result, as the amount of multimedia is explosively increased, an effective image retrieval system is required, and image annotations are becoming increasingly important due to the necessity of efficient image retrieval according to explosively increasing web images.

대부분의 이미지 검색 연구는 주로 이미지의 내용을 분석하는 내용 기반 이미지 검색(CBIR: Content-based Image Retrieval) 방법이 많이 진행되어 왔다. 내용 기반 이미지 검색은 색상, 텍스처 및 형태와 같은 시각적 특징을 이용하여 이미지의 내용을 분석한다. 이러한 방법은 정의하는 태그의 개수가 적을 경우에는 잘 작동하지 만, 데이터셋이 커지고 태그의 종류가 다양해짐에 따라 성능이 떨어지게 된다.Most of the image retrieval studies have been mainly conducted on a Content-based Image Retrieval (CBIR) method that analyzes the contents of an image. Content-based image search analyzes the content of an image using visual features such as color, texture, and shape. This method works well when the number of defined tags is small, but performance deteriorates as the data set becomes larger and the types of tags diversify.

텍스트 기반 이미지 검색(TBIR: Text-based Image Retrieval)은 텍스트를 쿼리로 하여 텍스트에 대응되는 이미지를 검색하는 방식이다. 이 방식은 이미지의 시각적 내용이 수동으로 태깅된 텍스트 디스크립터에 의해 표현되며, 데이터베이스 관리 시스템에서 이미지 검색을 수행하는데 사용된다. 즉, 기존의 이미지 또는 영상 검색 방식은 사용자가 직접 태깅한 정보를 기반으로 검색이 이루어진다. 사용자가 영상에 키워드를 잘못 태깅하면 검색 결과가 부정확해지는 문제점이 존재하였다. 또한, 사용자마다 정의하는 키워드에 차이가 존재할 수 있어서, 이미지를 검색하는 사용자가 선택한 키워드에 따라 제공되는 결과가 상이한 문제가 존재하였다.Text-based Image Retrieval (TBIR) is a method of searching for images corresponding to text by querying text. In this method, the visual content of the image is represented by a manually tagged text descriptor, and is used to perform image search in a database management system. That is, in the existing image or video search method, a search is performed based on information directly tagged by a user. There is a problem that the search result is inaccurate when the user incorrectly tags the keyword in the video. In addition, since there may be differences in keywords defined for each user, there is a problem that the results provided according to the keywords selected by the user searching for images are different.

본 발명은, 특정한 대상체의 외형을 나타내는 추상적 용어을 기반으로 사용자가 원하는 영상데이터를 정확하게 추출하는, 딥러닝 알고리즘을 이용한 영상데이터 검색방법, 장치 및 프로그램을 제공하고자 한다.An object of the present invention is to provide an image data search method, apparatus, and program using a deep learning algorithm that accurately extracts image data desired by a user based on an abstract term representing the appearance of a specific object.

또한, 본 발명은 추상적 용어의 정의가 변경되는 등의 외형특성 인식모델에 변형이 필요한 상황에서, 최소한의 학습데이터 추가 트레이닝으로 변형이 가능한, 딥러닝 알고리즘을 이용한 영상데이터 검색방법, 장치 및 프로그램을 제공하고자 한다.In addition, the present invention provides an image data retrieval method, apparatus, and program using a deep learning algorithm that can be transformed with a minimum amount of additional training data in a situation where a transformation is required in an external characteristic recognition model such as a change in the definition of an abstract term. I want to provide.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems that are not mentioned will be clearly understood by those skilled in the art from the following description.

본 발명의 일실시예에 따른 영상데이터 검색방법은, 컴퓨터가 입력영상데이터를 외형특성 인식모델에 입력하여, 복수의 외형분류기준에 대한 개별외형특성을 산출하는 단계; 컴퓨터가 상기 입력영상데이터에 대한 복수의 개별외형특성을 조합하여 외형서술데이터를 생성하는 단계; 및 컴퓨터가 특정한 사용자로부터 검색키워드를 입력받음에 따라, 매칭알고리즘에서 상기 검색키워드에 대응하는 추상적 특성에 매칭된 외형분류기준 조합에 해당하는 영상데이터를 추출하는 단계;를 포함하고, 상기 외형분류기준은, 특정한 대상체의 외형을 서술하기 위한 특정한 분류기준으로서, 상기 대상체의 동일한 분류기준 내의 다양한 외형특성을 표현하는 복수의 개별외형특성을 포함하는 것이다.An image data retrieval method according to an embodiment of the present invention includes the steps of: inputting the input image data into an appearance characteristic recognition model by a computer, and calculating individual appearance characteristics for a plurality of appearance classification criteria; Generating, by a computer, appearance description data by combining a plurality of individual appearance characteristics with respect to the input image data; And extracting image data corresponding to a combination of appearance classification criteria matched with an abstract characteristic corresponding to the search keyword from a matching algorithm, as the computer receives a search keyword from a specific user. Including, the appearance classification criteria Is a specific classification standard for describing the appearance of a specific object, and includes a plurality of individual external characteristics expressing various external characteristics within the same classification standard of the object.

또한, 다른 일실시예로, 상기 외형특성 인식모델은 상이한 외형 분류기준을 판단하는 복수의 개별특성인식모듈을 포함하고, 상기 개별특성인식모듈은 영상데이터의 특정한 외형분류기준에 포함된 개별외형특성을 산출하는 것이고, 상기 개별외형특성 산출단계는, 상기 외형특성 인식모델 내의 각각의 개별특성인식모듈에 상기 입력영상데이터를 입력하여, 상기 입력영상데이터에 대한 복수의 개별외형특성을 산출하는 것을 특징으로 한다.In another embodiment, the appearance characteristic recognition model includes a plurality of individual characteristic recognition modules for determining different appearance classification criteria, and the individual characteristic recognition module is an individual appearance characteristic included in a specific appearance classification standard of image data. In the step of calculating the individual appearance characteristics, the input image data is input to each individual characteristic recognition module in the appearance characteristic recognition model to calculate a plurality of individual appearance characteristics for the input image data. To do.

또한, 다른 일실시예로, 상기 개별특성인식모듈은, 복수의 학습용 영상데이터에 대해 특정한 외형분류기준의 개별외형특성을 매칭하여 딥러닝 학습모델을 통해 트레이닝이 된 것이다.In addition, in another embodiment, the individual characteristic recognition module is trained through a deep learning learning model by matching individual appearance characteristics of a specific appearance classification criterion with respect to a plurality of training image data.

또한, 다른 일실시예로, 상기 외형특성 인식모델은, 대상체 유형별로 상이한 개별특성인식모듈의 조합을 포함하는 것을 특징으로 한다.In addition, in another embodiment, the external feature recognition model is characterized in that it includes a combination of individual feature recognition modules different for each object type.

또한, 다른 일실시예로, 개별특성인식모듈이 구축되지 않은, 특정한 대상체의 미학습 외형분류기준이 존재하는 경우, 상기 외형서술데이터 생성단계는, 입력개별외형특성과 산출개별외형특성을 조합하여 외형서술데이터를 생성하되, 상기 입력개별외형특성은 상기 입력영상데이터를 제공한 영상제공자 클라이언트 또는 전문가클라이언트로부터 상기 미학습 외형분류기준에 대해 획득된 것이고, 상기 산출개별외형특성은 상기 개별특성인식모듈에 상기 입력영상데이터를 입력함에 따라 산출된 것이다.In addition, in another embodiment, when there is an unlearned appearance classification criterion for a specific object in which the individual characteristic recognition module is not built, the step of generating the appearance description data is performed by combining the input individual appearance characteristics and the calculated individual appearance characteristics. Create appearance description data, wherein the input individual appearance characteristics are obtained for the unlearned appearance classification criteria from an image provider client or expert client who provided the input image data, and the calculated individual appearance characteristics are the individual characteristics recognition module. It is calculated by inputting the input image data to.

또한, 다른 일실시예로, 특정한 대상체에 대한 신규 외형분류기준이 추가되는 경우, 컴퓨터가 학습용 영상데이터에 대한 신규 외형분류기준의 개별외형특성을 획득하여, 신규 학습데이터셋을 구축하는 단계; 및 컴퓨터가 상기 신규 학습데이터셋을 기반으로 신규 개별특성인식모듈을 트레이닝하여, 상기 외형특성인식모델에 추가하는 단계;를 더 포함한다.In addition, in another embodiment, when a new appearance classification standard for a specific object is added, the computer obtains individual appearance characteristics of the new appearance classification standard for the training image data, and constructs a new learning data set; And training, by the computer, a new individual feature recognition module based on the new learning data set, and adding it to the external feature recognition model.

또한, 다른 일실시예로, 컴퓨터가 이미 구축된 개별특성인식모듈에 의해 외형서술데이터가 획득된 상기 입력영상데이터를 신규 개별특성인식모듈에 입력하여 신규 외형분류기준에 대해 상세정보를 추가하는 단계; 및 컴퓨터가 각각의 추상적 특성에 상기 신규 외형분류기준의 개별외형특성을 매칭하여 상기 매칭알고리즘을 업데이트하는 단계;를 더 포함한다.In addition, in another embodiment, the step of adding detailed information for the new appearance classification criteria by inputting the input image data, in which the appearance description data has been obtained by the individual characteristic recognition module already built, into a new individual characteristic recognition module. ; And updating the matching algorithm by matching, by a computer, individual external characteristics of the new external appearance classification criteria with each abstract characteristic.

또한, 다른 일실시예로, 컴퓨터가 전문가클라이언트로부터 상기 추상적 특성과 상기 외형분류기준 조합을 매칭하는 설정데이터를 수신하여, 상기 매칭알고리즘을 설정하는 단계;를 더 포함한다.In another embodiment, the method further includes: receiving, by a computer from an expert client, setting data matching the combination of the abstract characteristic and the appearance classification criteria, and setting the matching algorithm.

또한, 다른 일실시예로, 상기 외형서술데이터 생성단계는, 상기 입력영상데이터에 대한 복수의 개별외형특성에 대응하는 코드값을 추출하는 단계; 및 상기 복수의 코드값을 조합하여, 코드열 형태의 외형서술데이터를 생성하는 단계;를 포함한다.In another embodiment, the step of generating the appearance description data may include extracting code values corresponding to a plurality of individual appearance characteristics of the input image data; And generating external description data in the form of a code string by combining the plurality of code values.

또한, 다른 일실시예로, 컴퓨터가 사용자클라이언트로부터 기준영상데이터를 획득하되, 상기 기준영상데이터는 동일한 대상체 중에서 유사한 외형특성을 가지는 것을 포함하는 이미지를 검색하기 위한 기준인, 기준영상데이터 획득단계; 상기 기준영상데이터를 상기 외형특성 인식모델에 입력하여, 복수의 외형분류기준에 대한 개별외형특성을 산출하는 단계; 컴퓨터가 상기 기준영상데이터에 대한 복수의 개별외형특성을 조합하여 외형서술데이터를 생성하는 단계; 및 컴퓨터가 상기 기준영상데이터와 동일한 외형서술데이터를 포함하는 영상데이터를 추출하는 단계;를 포함한다.In another embodiment, a reference image data acquiring step, which is a reference for searching for an image in which a computer obtains reference image data from a user client, the reference image data having similar appearance characteristics among the same object; Inputting the reference image data into the appearance characteristic recognition model to calculate individual appearance characteristics for a plurality of appearance classification criteria; Generating, by a computer, appearance description data by combining a plurality of individual appearance characteristics with respect to the reference image data; And extracting, by a computer, image data including the same outline description data as the reference image data.

또한, 다른 일실시예로, 컴퓨터가 사용자클라이언트로부터 추가영상데이터 제공요청을 수신함에 따라, 적어도 하나의 외형분류기준이 상이한 영상데이터를 순차적으로 제공하는 단계; 및 사용자에 의해 추가영상데이터 중에서 하나 이상의 영상데이터가 선택되면, 컴퓨터가 선택된 영상데이터의 외형서술데이터를 기반으로 개인화 추상적 특성을 설정하는 단계;를 더 포함한다.In another embodiment, as the computer receives a request to provide additional image data from a user client, sequentially providing image data having different appearance classification criteria; And when one or more image data is selected from the additional image data by the user, the computer setting a personalized abstract characteristic based on the appearance description data of the selected image data.

또한, 다른 일실시예로, 상기 선택된 영상데이터의 외형서술데이터에 상응하는 추상적 특성이 존재하는 경우, 컴퓨터가 사용자클라이언트에 상기 선택된 영상데이터 추출에 적합한 추상적 특성을 제공하는 단계;를 더 포함한다.Further, as another embodiment, when there is an abstract characteristic corresponding to the outline description data of the selected image data, providing, by a computer, an abstract characteristic suitable for extracting the selected image data to a user client.

또한, 다른 일실시예로, 상기 영상데이터가 복수의 프레임을 포함하는 동영상데이터인 경우, 상기 개별외형특성 산출단계는, 상기 동영상데이터 내의 각각의 프레임에 대해 수행되는 것을 특징으로 하고, 상기 외형서술데이터 생성단계는, 각 프레임에 대한 복수의 개별외형특성을 순차적으로 나열하여 생성되는 것을 특징으로 하고, 상기 추상적 특성은 특정한 형상변화 또는 동작을 나타내는 표현이다.In another embodiment, when the image data is moving image data including a plurality of frames, the step of calculating the individual appearance characteristics is performed for each frame in the moving image data, and the appearance description The data generation step is characterized in that it is generated by sequentially listing a plurality of individual appearance characteristics for each frame, and the abstract characteristic is an expression representing a specific shape change or motion.

본 발명의 다른 일실시예에 따른 영상데이터 검색프로그램은, 하드웨어와 결합되어 상기 언급된 영상데이터 검색방법을 실행하며, 매체에 저장된다.The image data search program according to another embodiment of the present invention is combined with hardware to execute the aforementioned image data search method, and is stored in a medium.

본 발명의 또 다른 일실시예에 따른 영상데이터 검색장치는, 하나 이상의 컴퓨터를 포함하고, 상기 언급된 영상데이터 검색방법을 수행한다.An image data search apparatus according to another embodiment of the present invention includes one or more computers, and performs the aforementioned image data search method.

상기와 같은 본 발명에 따르면, 아래와 같은 다양한 효과들을 가진다.According to the present invention as described above, it has various effects as follows.

첫째, 각 대상체의 외형을 표현하기 위해 사용되는 추상적 특성(예를 들어, 패션의류에서 '빈티지'와 같은 감성적 용어)로 검색 시에, 해당 추상적 특성에 부합하는 영상데이터를 자동으로 추출하여 제공할 수 있다.First, when searching for an abstract characteristic used to express the appearance of each object (for example, an emotional term such as'vintage' in fashion clothing), image data matching the abstract characteristic will be automatically extracted and provided. I can.

둘째, 각각의 개별특성인식모듈을 학습하여 두면, 새로운 입력영상데이터가 획득되는 경우(예를 들어, 쇼핑몰 페이지에 새로운 상품이 계속해서 추가되는 경우)에 추가적인 학습 없이 각 입력영상데이터에 대한 외형서술데이터를 생성하여 추상적 특성을 기반으로 검색이 가능하도록 할 수 있다.Second, by learning each individual feature recognition module, when new input image data is acquired (for example, when new products are continuously added to the shopping mall page), the appearance of each input image data is described without additional learning. Data can be created to enable search based on abstract characteristics.

셋째, 외형특성 인식모델을 재학습 또는 추가 학습시켜야 하는 상황을 최소화할 수 있다. 예를 들어, 추상적 용어의 외형특성 정의가 달리지는 경우에, 새롭게 학습을 수행할 필요없이 추상적 용어(즉, 추상적 특성)에 매칭된 개별외형특성 조합(즉, 외형적 서술정보)만을 수정하여, 변경된 정의에 따라 검색이 되도록 할 수 있다. 즉, 추상적 특성의 정의가 달라지더라도 개별특성인식모듈을 추가 학습하지 않아도 된다. 또한, 예를 들어, 특정한 대상체에 대해 새로운 외형분류기준이 추가되는 경우에, 신규 개별특성인식모듈만 학습시키면 되고 기존 개별특성인식모듈은 그대로 활용할 수 있다.Third, it is possible to minimize the situation in which the external characteristic recognition model needs to be re-learned or additionally learned. For example, if the definition of the external characteristics of an abstract term is different, only the individual external characteristic combination (i.e., external description information) matched with the abstract term (i.e., abstract characteristic) is modified without the need to perform new learning, Search can be made according to the changed definition. That is, even if the definition of the abstract feature is different, it is not necessary to additionally learn the individual feature recognition module. In addition, for example, when a new appearance classification criterion is added for a specific object, only a new individual characteristic recognition module needs to be learned, and the existing individual characteristic recognition module can be used as it is.

도 1은 본 발명의 일실시예에 따른 영상데이터 검색시스템의 구성도이다.
도 2 및 도 4 내지 도 11은 본 발명의 실시예들에 따른 영상데이터 검색방법의 순서도이다.
도 3은 본 발명의 일실시예에 따른 대상체별 외형특성 인식모델을 포함하는 서버의 예시도면이다.
1 is a block diagram of an image data search system according to an embodiment of the present invention.
2 and 4 to 11 are flow charts of a method for searching image data according to embodiments of the present invention.
3 is an exemplary diagram of a server including an external characteristic recognition model for each object according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments to be posted below, but may be implemented in a variety of different forms, and only these embodiments make the posting of the present invention complete, and common knowledge in the art It is provided to completely inform the scope of the invention to those who have, and the invention is only defined by the scope of the claims. The same reference numerals refer to the same components throughout the specification.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used as meanings that can be commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not interpreted ideally or excessively unless explicitly defined specifically.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.The terms used in the present specification are for describing exemplary embodiments and are not intended to limit the present invention. In this specification, the singular form also includes the plural form unless specifically stated in the phrase. As used in the specification, “comprises” and/or “comprising” do not exclude the presence or addition of one or more other elements other than the mentioned elements.

본 명세서에서 '컴퓨터'는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 컴퓨터는 데스크 탑 PC, 노트북(Note Book) 뿐만 아니라 스마트폰(Smart phone), 태블릿 PC, 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone; Personal Communication Service phone), 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000)의 이동 단말기, 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA; Personal Digital Assistant) 등도 해당될 수 있다. 또한, 헤드마운트 디스플레이(Head Mounted Display; HMD) 장치가 컴퓨팅 기능을 포함하는 경우, HMD장치가 컴퓨터가 될 수 있다. 또한, 컴퓨터는 클라이언트로부터 요청을 수신하여 정보처리를 수행하는 서버(10)가 해당될 수 있다.In the present specification, a'computer' includes all various devices capable of performing arithmetic processing and providing results to a user. For example, computers are not only desktop PCs and notebooks, but also smart phones, tablet PCs, cellular phones, PCS phones, and synchronous/asynchronous systems. A mobile terminal of the International Mobile Telecommunication-2000 (IMT-2000), a Palm Personal Computer (PC), a personal digital assistant (PDA), and the like may also be applicable. In addition, when a head mounted display (HMD) device includes a computing function, the HMD device may be a computer. In addition, the computer may correspond to the server 10 that receives a request from a client and performs information processing.

본 명세서에서 '대상체'는 검색을 수행하는 특정한 분류 또는 카테고리의 물품을 의미한다. 예를 들어, 쇼핑몰에서 원하는 물품의 이미지를 검색하고자 할 때, 사용자가 물품 카테고리 중에서 의류 검색을 수행하는 경우, 대상체는 의류일 수 있다.In the present specification, "object" refers to an article of a specific classification or category for performing a search. For example, when a user wants to search for an image of a desired item in a shopping mall, when a user searches for clothes among item categories, the object may be clothes.

본 명세서에서, '영상데이터'는 특정한 대상체를 포함하는 2차원 또는 3차원의 정적 또는 동적 이미지를 의미한다. 즉, '영상데이터'는 하나의 프레임인 정적 영상데이터일 수도 있고, 복수의 프레임이 연속되는 동적 영상데이터(즉, 동영상데이터)일 수도 있다.In the present specification,'image data' means a two-dimensional or three-dimensional static or dynamic image including a specific object. That is,'image data' may be static image data that is one frame, or dynamic image data (ie, moving image data) in which a plurality of frames are consecutive.

본 명세서에서, '학습용 영상데이터'는 학습모델의 트레이닝에 이용되는 영상데이터를 의미한다.In the present specification,'learning image data' means image data used for training a learning model.

본 명세서에서, '입력영상데이터'는 학습모델에 입력되어 학습결과를 획득하고자 하는 영상데이터이다.In this specification,'input image data' is image data that is input to a learning model to obtain a learning result.

본 명세서에서, '기준영상데이터'는 사용자가 검색하고자 하는 대상체의 기준이 되는 영상데이터를 의미한다. 즉, '기준영상데이터'는 동일한 대상체 중에서 유사한 외형특성을 가지는 것을 포함하는 이미지를 검색하기 위한 기준이다. 예를 들어, 사용자가 특정한 이미지 내에 포함된 대상체 외형과 유사한 것을 검색하고자 할 때, 기준영상데이터는 사용자에 의해 입력된 이미지일 수 있다.In the present specification,'reference image data' means image data that is a reference of an object to be searched by a user. That is, the'reference image data' is a criterion for searching for images including those having similar appearance characteristics among the same objects. For example, when a user wants to search for something similar to an external shape of an object included in a specific image, the reference image data may be an image input by the user.

본 명세서에서 '외형분류기준'은 특정한 대상체의 외형을 서술(description)하거나 주석 삽입(annotation)을 위해 필요한 외형 표현의 분류기준을 의미한다. 즉, '외형분류기준'은 특정한 대상체의 외형을 서술하기 위한 특정한 분류기준으로서, 상기 대상체의 동일한 분류기준 내의 다양한 외형특성을 표현하는 복수의 개별외형특성을 포함예를 들어, 대상체가 의류인 경우, 외형분류기준은 의류의 외형에 대한 분류기준으로, 패턴(Pattern), 색상(Color), 핏(fit), 기장(Length) 등이 해당될 수 있다. 즉, 특정한 대상체에 대해 외형분류기준이 많아지면, 대상체에 속하는 특정한 물품의 외형을 상세히 기술할 수 있다.In the present specification, the'appearance classification standard' refers to a classification standard of an appearance expression necessary for describing the appearance of a specific object or for annotation. That is, the'appearance classification standard' is a specific classification standard for describing the appearance of a specific object, and includes a plurality of individual appearance characteristics expressing various external characteristics within the same classification standard of the object. For example, when the object is clothing , The appearance classification standard is a classification standard for the appearance of clothing, and may correspond to a pattern, color, fit, length, and the like. That is, when the appearance classification standard for a specific object increases, the external shape of a specific article belonging to the object can be described in detail.

본 명세서에서 '개별외형특성'은 특정한 외형분류기준 내에 포함되는 다양한 특성을 의미한다. 예를 들어, 외형분류기준이 색상인 경우, 개별외형특성은 다양한 개별 색상을 의미한다.In this specification,'individual appearance characteristics' refers to various characteristics included in a specific appearance classification standard. For example, if the appearance classification criterion is color, the individual appearance characteristics mean various individual colors.

본 명세서에서 '영상제공자 클라이언트(40)'는 특정한 영상데이터를 서버(10)에 업로드하는 영상제공자의 클라이언트를 의미한다. 예를 들어, 쇼핑몰에 판매물품의 이미지를 업로드하는 경우, 영상제공자 클라이언트(40)는 쇼핑몰에 이미지를 업로드하는 자의 클라이언트이다.In the present specification, the'image provider client 40' refers to a client of an image provider that uploads specific image data to the server 10. For example, when uploading an image of a product for sale to a shopping mall, the image provider client 40 is a client of a person who uploads the image to the shopping mall.

본 명세서에서 '사용자 클라이언트(20)'는 영상데이터 검색을 수행하는 사용자의 클라이언트를 의미한다.In this specification, the'user client 20' refers to a client of a user who searches for image data.

본 명세서에서 '전문가 클라이언트(30)'는 학습용 영상데이터에 개별외형특성을 부여(즉, 학습용 영상데이터의 레이블링(Lableing))하거나, 입력영상데이터에 미학습 외형분류기준 내의 개별외형특성을 부여하는 역할을 수행하는 전문가의 클라이언트를 의미한다.In this specification, the'expert client 30' gives individual appearance characteristics to the learning image data (i.e., labeling the learning image data) or gives the input image data individual appearance characteristics within the unlearned appearance classification criteria. It means the client of the expert who plays the role.

본 명세서에서 '추상적 특성'은 특정한 대상체에 대해 부여되는 추상적인 특성을 의미한다. 예를 들어, '추상적 특성'은 특정한 대상체에 대한 감성적 특성(예를 들어, 의류인 경우, 빈티지와 같은 감성적 또는 유행적 표현)일 수 있다. 또한, 예를 들어, '추상적 특성'은, 영상데이터가 동영상인 경우, 형상변화 또는 동작의 의미일 수 있다.In the present specification, "abstract characteristic" refers to an abstract characteristic given to a specific object. For example, the'abstract characteristic' may be an emotional characteristic for a specific object (for example, in the case of clothing, an emotional or fashionable expression such as vintage). In addition, for example,'abstract characteristic' may mean a shape change or motion when the image data is a moving picture.

이하, 도면들을 참조하여 본 발명의 실시예들에 따른 영상데이터 검색장치, 방법 및 프로그램에 대한 상세한 설명을 기재한다.Hereinafter, a detailed description of an image data search apparatus, method, and program according to embodiments of the present invention will be described with reference to the drawings.

도 1은 본 발명의 일실시예에 따른 영상데이터 검색시스템의 구성도이다.1 is a block diagram of an image data search system according to an embodiment of the present invention.

도 2는 본 발명의 일실시예에 따른 영상데이터 검색방법의 순서도이다.2 is a flowchart of an image data search method according to an embodiment of the present invention.

도 1 및 도 2을 참조하면, 본 발명의 일실시예에 따른 영상데이터 검색방법은, 서버(10)가 입력영상데이터를 외형특성 인식모델(100)에 입력하여, 복수의 외형분류기준에 대한 개별외형특성을 산출하는 단계(S200); 서버(10)가 상기 입력영상데이터에 대한 복수의 개별외형특성을 조합하여 외형서술데이터를 생성하는 단계(S400); 및 서버(10)가 특정한 사용자로부터 검색키워드를 입력받음에 따라, 매칭알고리즘(200)에서 상기 검색키워드에 대응하는 추상적 특성에 매칭된 외형분류기준 조합에 해당하는 영상데이터를 추출하는 단계(S600);를 포함한다. 이하, 각 단계에 대한 상세한 설명을 기술한다.1 and 2, in the image data search method according to an embodiment of the present invention, the server 10 inputs the input image data into the appearance characteristic recognition model 100, and the plurality of appearance classification criteria Calculating individual appearance characteristics (S200); Generating, by the server 10, external appearance description data by combining a plurality of individual appearance characteristics of the input image data (S400); And extracting image data corresponding to a combination of appearance classification criteria matched with an abstract characteristic corresponding to the search keyword in the matching algorithm 200 as the server 10 receives a search keyword from a specific user (S600). Includes; Hereinafter, a detailed description of each step will be described.

서버(10)가 입력영상데이터를 외형특성 인식모델(100)에 입력하여, 복수의 외형분류기준에 대한 개별외형특성을 산출한다(S200). 즉, 서버(10)는 외형특성 분석이 진행되지 않은 신규 입력영상데이터를 외형특성 인식모델(100)에 제공하여, 특정한 대상체의 외형분류기준별로 개별외형특성을 산출한다.The server 10 inputs the input image data into the appearance characteristic recognition model 100 to calculate individual appearance characteristics for a plurality of appearance classification criteria (S200). That is, the server 10 provides new input image data for which the external characteristic analysis has not been performed to the external characteristic recognition model 100 to calculate individual external characteristics for each external classification standard of a specific object.

일실시예로, 상기 외형특성 인식모델(100)은, 도 1에서와 같이, 상이한 외형 분류기준을 판단하는 복수의 개별특성인식모듈(110)을 포함한다. 즉, 상기 외형특성 인식모델(100)은 각각의 외형분류기준을 인식하는 것으로 특화된 복수의 개별특성인식모듈(110)을 포함한다. 특정한 대상체의 외형분류기준이 많을 수록, 서버(10)는 다수의 개별특성인식모듈(110)을 외형특성 인식모델(100) 내에 포함한다. 상기 개별특성인식모듈(110)은 영상데이터의 특정한 외형분류기준에 포함된 개별외형특성을 산출하는 것이다.In one embodiment, the appearance characteristic recognition model 100 includes a plurality of individual characteristic recognition modules 110 for determining different appearance classification criteria, as shown in FIG. 1. That is, the appearance characteristic recognition model 100 includes a plurality of individual characteristic recognition modules 110 specialized to recognize each appearance classification criterion. The more the external classification criteria of a specific object are, the more the server 10 includes a plurality of individual characteristic recognition modules 110 in the external characteristic recognition model 100. The individual characteristic recognition module 110 calculates individual external characteristics included in a specific external classification standard of image data.

일실시예로, 상기 개별외형특성 산출단계(S200)는, 상기 외형특성 인식모델(100) 내의 각각의 개별특성인식모듈(110)에 입력영상데이터를 입력하여, 상기 입력영상데이터에 대한 복수의 개별외형특성을 산출한다. 이를 통해, 서버(10)는 입력영상데이터에 대한 각 외형분류기준의 개별외형특성을 모두 획득한다.In one embodiment, in the step of calculating the individual appearance characteristics (S200), by inputting input image data to each individual characteristic recognition module 110 in the appearance characteristic recognition model 100, a plurality of Calculate individual appearance characteristics. Through this, the server 10 acquires all the individual appearance characteristics of each appearance classification criterion for the input image data.

또한, 일실시예로, 상기 개별특성인식모듈(110)은, 복수의 학습용 영상데이터에 대해 특정한 외형분류기준의 개별외형특성을 매칭하여 딥러닝 학습모델을 통해 트레이닝이 된 것이다. 즉, 개별특성인식모듈(110)은 특정한 딥러닝 알고리즘으로 구축되는 것으로, 복수의 외형분류기준 중에서 특정한 하나와 학습용 영상데이터를 매칭하여 학습을 수행한 것이다.In addition, in an embodiment, the individual characteristic recognition module 110 is trained through a deep learning learning model by matching individual external characteristics of a specific external classification standard with respect to a plurality of training image data. That is, the individual characteristic recognition module 110 is constructed with a specific deep learning algorithm, and learning is performed by matching a specific one of a plurality of appearance classification criteria with image data for learning.

이를 위해, 서버(10)는 다음과 같이 각각의 개별특성인식모듈(110)을 트레이닝하는 과정을 수행할 수 있다.To this end, the server 10 may perform a process of training each individual characteristic recognition module 110 as follows.

먼저, 서버(10)는 특정한 대상체에 대한 복수의 학습용 영상데이터를 획득한다. 예를 들어, 대상체가 특정한 의류 유형(예를 들어, 셔츠)인 경우, 서버(10)는 여러 셔츠의 이미지를 획득한다. 서버(10)는 기존에 저장되어 있는 영상데이터 중에서 전문가에 의해 선별될 수도 있고, 학습에 용이한 대상체 이미지를 신규로 획득할 수도 있다.First, the server 10 acquires a plurality of training image data for a specific object. For example, when the object is a specific type of clothing (eg, a shirt), the server 10 acquires images of several shirts. The server 10 may be selected by an expert from among image data previously stored, or may newly acquire an object image that is easy to learn.

서버(10)는 각각의 외형분류기준 정의 및 각 외형분류기준에 대한 복수의 개별외형특성을 획득한다. 즉, 서버(10)는 복수의 외형분류기준을 설정함에 따라 개별특성인식모듈(110)의 초기 개수를 설정한다. 그리고, 서버(10)는 각 외형분류기준 내의 복수의 개별외형특성을 설정함에 따라, 각 외형분류기준에 대해 학습용 영상데이터를 레이블링할 특징(feature) 종류를 설정한다. The server 10 obtains a plurality of individual appearance characteristics for each appearance classification standard definition and each appearance classification standard. That is, the server 10 sets the initial number of individual characteristic recognition modules 110 according to the setting of a plurality of appearance classification criteria. In addition, the server 10 sets a type of feature for labeling the training image data for each appearance classification criterion as a plurality of individual appearance characteristics in each appearance classification criterion are set.

일실시예로, 서버(10)는 특정한 대상체 외형 분석에 대한 전문가 클라이언트(30)로부터 특정한 대상체 외형을 분석하기 위한 복수의 외형분류기준 및 각 외형분류기준 내의 복수의 개별외형특성을 설정받을 수 있다. 예를 들어, 의류에 대한 외형특성 인식모델(100)을 구축하는 경우, 서버(10)는 의류 전문가인 디자이너의 클라이언트로부터 외형분류기준 및 이에 포함되는 개별외형특성을 입력받을 수 있다.In an embodiment, the server 10 may receive a plurality of appearance classification criteria for analyzing the appearance of a specific object and a plurality of individual appearance characteristics within each appearance classification standard from the expert client 30 for analyzing the appearance of a specific object. . For example, when constructing the outer appearance characteristic recognition model 100 for clothing, the server 10 may receive an appearance classification standard and individual appearance characteristics included therein from a client of a designer who is a clothing expert.

그 후, 서버(10)는 학습용 영상데이터를 각 외형분류기준의 복수의 개별외형특성으로 레이블링한다. 즉, 서버(10)는 각각의 학습용 영상데이터에 대해 복수의 외형분류기준별로 적어도 하나의 개별외형특성을 입력받아서 매칭한다. 예를 들어, 특정한 대상체에 대해 10개의 외형분류기준을 설정한 경우, 서버(10)는 해당 대상체를 포함한 각각의 학습용 영상데이터에 대해 10개의 외형분류기준별로 하나의 개별외형특성을 입력받고, 학습용 영상데이터와 10개의 개별유형특성을 매칭한 학습데이터셋을 형성한다.Thereafter, the server 10 labels the training image data with a plurality of individual appearance characteristics of each appearance classification criterion. That is, the server 10 receives and matches at least one individual appearance characteristic for each of a plurality of appearance classification criteria for each training image data. For example, when 10 external classification criteria are set for a specific object, the server 10 receives one individual external characteristic for each of the 10 external classification criteria for each learning image data including the corresponding object, and A training data set that matches the image data and 10 individual type characteristics is formed.

그 후, 서버(10)는 학습용 영상데이터와 이에 대해 레이블링된 특정한 외형분류기준의 개별외형특성을 매칭하여 트레이닝(Training)을 수행한다. 즉, 서버(10)가, A 외형분류기준에 대한 개별특성인식모듈(110)을 트레이닝하는 경우, 학습데이터셋에서 학습용 영상데이터와 이에 매칭된 A 외형분류기준의 개별외형특성만을 추출하여 딥러닝 학습모델에 입력한다. 이를 통해, 서버(10)는 각각의 외형분류기준의 개별외형특성을 인식할 수 있는 각각의 개별특성인식모듈(110)을 구축한다.Thereafter, the server 10 performs training by matching the training image data with individual appearance characteristics of a specific external classification standard labeled therefor. That is, when the server 10 trains the individual characteristic recognition module 110 for the A appearance classification criterion, deep learning by extracting only the training image data and the individual appearance characteristics of the A appearance classification criterion matched from the training dataset. Enter into the learning model. Through this, the server 10 constructs each individual characteristic recognition module 110 capable of recognizing individual external characteristics of each external classification standard.

또한, 다른 일실시예로, 상기 외형특성 인식모델(100)은, 도 3에서와 같이, 대상체 유형별로 상이한 개별특성인식모듈(110)의 조합을 포함한다. 예를 들어, 동일한 대분류 내에 속하는 패션잡화 유형(예를 들어, 신발, 지갑, 가방)은 상이한 외형분류기준을 가지므로, 서버(10)는 대상체 유형별로 개별특성인식모듈(110)의 조합을 생성하여 특정한 대상체 외형 인식을 위한 특화 외형특성인식모델을 생성한다.In addition, in another embodiment, the external feature recognition model 100 includes a combination of individual feature recognition modules 110 different for each object type, as shown in FIG. 3. For example, fashion miscellaneous goods types (for example, shoes, wallets, bags) belonging to the same major category have different appearance classification criteria, so the server 10 creates a combination of individual characteristic recognition modules 110 for each object type. Thus, a specialized external feature recognition model for recognizing the external appearance of a specific object is created.

또한, 다른 일실시예로, 복수의 대상체에 대한 각 외형특성 인식모델(100)은 특정한 개별특성인식모듈(110)을 공유하여 사용할 수 있다. 예를 들어, 개별특성인식모듈(110)이 색상 인식을 수행하는 경우, 대상체 유형에 무관하게 동일하게 색상인식모듈은 범용적으로 사용될 수 있으므로, 서버(10)는 대상체별로 구별되는 복수의 외형특성 인식모델(100)에서 범용 색상인식모듈을 사용할 수 있다.In addition, in another embodiment, each external characteristic recognition model 100 for a plurality of objects may share and use a specific individual characteristic recognition module 110. For example, when the individual characteristic recognition module 110 performs color recognition, the color recognition module can be used universally regardless of the object type, so that the server 10 provides a plurality of external characteristics distinguished for each object. A universal color recognition module can be used in the recognition model 100.

서버(10)가 상기 입력영상데이터에 대한 복수의 개별외형특성을 조합 또는 나열하여 외형서술데이터를 생성한다(S400). 특정한 대상체에 대해 외형분류기준이 세부적으로 나누어져 있으면, 상기 외형서술데이터는 해당 대상체의 외형을 개별외형특성을 통해 구체적으로 서술한다.The server 10 generates appearance description data by combining or listing a plurality of individual appearance characteristics for the input image data (S400). If the external appearance classification criteria for a specific object are divided in detail, the external appearance description data specifically describes the external appearance of the object through individual external characteristics.

또한, 다른 일실시예로, 상기 외형서술데이터 생성단계(S400)는, 도 4에서와 같이, 상기 입력영상데이터에 대한 복수의 개별외형특성에 대응하는 코드값을 추출하는 단계(S410); 및 상기 복수의 코드값을 조합하여, 코드열 형태의 외형서술데이터를 생성하는 단계(S411);를 포함한다. 즉, 서버(10)가 개별외형특성을 코드화함에 따라 외형서술데이터를 코드열로 생성할 수 있고, 이를 통해 외형서술데이터의 처리가 효율적으로 될 수 있다.In another embodiment, the step of generating the appearance description data (S400) may include extracting a code value corresponding to a plurality of individual appearance characteristics of the input image data (S410); And generating external description data in the form of a code string by combining the plurality of code values (S411). That is, as the server 10 codes the individual appearance characteristics, the appearance description data can be generated as a code string, and through this, the processing of the appearance description data can be efficiently performed.

또한, 다른 일실시예로, 개별특성인식모듈(110)이 구축되지 않은, 특정한 대상체의 미학습 외형분류기준이 존재하는 경우(예를 들어, 대상체의 외형분류기준 중에서 딥러닝 학습모델을 통해 인식하기 어려운 것이 존재하거나 새로운 외형분류기준이 생성됨에 따라 아직 개별특성인식모듈(110)이 구축되지 못한 경우), 서버(10)는 전문가클라이언트 또는 영상제공자 클라이언트(40)로부터 해당 미학습 외형분류기준에 대해 입력영상데이터의 개별외형특성을 입력받는다.In addition, as another embodiment, when there is an unlearned external classification standard of a specific object for which the individual characteristic recognition module 110 is not constructed (for example, recognition through a deep learning learning model among external classification standards of the object) If there is something difficult to do or the individual characteristic recognition module 110 has not yet been constructed due to the creation of a new external classification standard), the server 10 is based on the unlearned external classification standard from the expert client or the image provider client 40. For each, the individual appearance characteristics of the input image data are input.

구체적으로, 상기 외형서술데이터 생성단계(S400)에서, 서버(10)가 입력개별외형특성과 산출개별외형특성을 조합하여 외형서술데이터를 생성한다. 상기 입력개별외형특성은 상기 입력영상데이터를 제공한 영상제공자 클라이언트(40) 또는 전문가클라이언트로부터 상기 미학습 외형분류기준에 대해 획득된 것이고, 상기 산출개별외형특성은 상기 개별특성인식모듈(110)에 상기 입력영상데이터를 입력함에 따라 산출된 것이다.Specifically, in the appearance description data generation step (S400), the server 10 generates the appearance description data by combining the input individual appearance characteristics and the calculated individual appearance characteristics. The input individual appearance characteristics are obtained for the unlearned appearance classification criteria from an image provider client 40 or an expert client that provided the input image data, and the calculated individual appearance characteristics are obtained from the individual characteristic recognition module 110. It is calculated by inputting the input image data.

서버(10)가 특정한 사용자로부터 검색키워드를 입력받음에 따라, 매칭알고리즘(200)에서 상기 검색키워드에 대응하는 추상적 특성에 매칭된 외형분류기준 조합에 해당하는 영상데이터를 추출한다(S600). 사용자가 특정한 대상체의 추상적 특성 중 어느 하나인 검색키워드 또는 추상적 특성과 유사한 키워드로 판단되는 검색키워드를 기반으로 원하는 영상데이터를 검색하고자 하는 경우, 서버(10)는 매칭알고리즘(200)에서 검색키워드에 대응하는 추상적 특성에 매칭된 외형분류기준 조합을 추출하고, 외형서술데이터 내에 해당 외형분류기준 조합이 있는 영상데이터를 추출한다. As the server 10 receives a search keyword from a specific user, the matching algorithm 200 extracts image data corresponding to a combination of appearance classification criteria matched with an abstract characteristic corresponding to the search keyword (S600). When a user wants to search for desired image data based on a search keyword that is one of the abstract characteristics of a specific object or a search keyword that is similar to the abstract characteristic, the server 10 uses the matching algorithm 200 to search for the desired image data. A combination of appearance classification criteria matching the corresponding abstract characteristics is extracted, and image data having a corresponding combination of appearance classification criteria in the appearance description data is extracted.

일실시예로, 추상적 특성은 특정한 외형분류기준에 대해 복수의 개별외형특성이 매칭될 수도 있다. 또한, 특정 외형분류기준이 특정한 추상적 특성을 정의하는데 고려되지 않는 경우, 서버(10)는 특정한 외형분류기준을 해당 추상적 특성에 매칭하지 않을 수도 있다. 예를 들어, 추상적특성 X를 정의하는데 있어서 외형분류기준 1이 고려될 필요가 없는 경우(즉, 외형분류기준 1의 모든 개별외형특성이 적용된 대상체가 추상적특성 X에 포함될 수 있는 경우), 서버(10)는 외형분류기준 1을 추상적 특성 X에 매칭하지 않을 수도 있다. 또한, 서버(10)는 외형분류기준 2의 복수의 개별외형특성을 추상적 특성 X에 매칭할 수도 있다.In one embodiment, the abstract characteristic may be matched with a plurality of individual appearance characteristics for a specific appearance classification criterion. In addition, when a specific appearance classification standard is not considered in defining a specific abstract characteristic, the server 10 may not match the specific external classification standard with the corresponding abstract characteristic. For example, when defining the abstract characteristic X, the appearance classification criterion 1 does not need to be considered (that is, when an object to which all the individual appearance characteristics of the appearance classification criterion 1 is applied can be included in the abstract characteristic X), the server ( 10) may not match the appearance classification criterion 1 with the abstract characteristic X. In addition, the server 10 may match a plurality of individual appearance characteristics of the appearance classification criterion 2 with the abstract characteristic X.

또한, 다른 일실시예로, 도 5에서와 같이, 특정한 대상체에 대한 신규 외형분류기준이 추가되는 경우, 서버(10)가 학습용 영상데이터에 대한 신규 외형분류기준의 개별외형특성을 획득하여, 신규 학습데이터셋을 구축하는 단계(S700); 및 서버(10)가 상기 신규 학습데이터셋을 기반으로 신규 개별특성인식모듈(110)을 트레이닝하여, 상기 외형특성인식모델에 추가하는 단계(S710);를 더 포함한다. 즉, 특정한 대상체에 대한 새로운 외형분류기준이 추가되는 경우(예를 들어, 의류의 외형특성을 나누는 새로운 기준이 추가된 경우), 서버(10)는 기존의 개별특성인식모듈(110)을 변경하지 않고 새로운 외형분류기준에 대한 개별특성인식모듈(110)만 추가 구축하여 외형특성 인식모델(100)을 새로운 외형분류기준이 추가된 상황에 맞게 변경할 수 있다.In addition, as another embodiment, as shown in FIG. 5, when a new appearance classification standard for a specific object is added, the server 10 acquires individual appearance characteristics of the new appearance classification standard for the learning image data, Building a learning data set (S700); And training, by the server 10, a new individual characteristic recognition module 110 based on the new learning data set, and adding it to the external characteristic recognition model (S710). That is, when a new external classification standard for a specific object is added (for example, a new standard for dividing the external characteristics of clothing is added), the server 10 does not change the existing individual characteristic recognition module 110. It is possible to change the external characteristic recognition model 100 according to the situation in which the new external classification standard is added by additionally constructing only the individual characteristic recognition module 110 for the new external classification standard.

먼저, 서버(10)가 학습용 영상데이터에 대한 신규 외형분류기준의 개별외형특성을 획득하여, 신규 학습데이터셋을 구축한다(S700). 일실시예로, 기존에 다른 개별특성인식모듈(110)을 트레이닝하기 위해 이용된 영상데이터를 동일하게 활용하여 신규 개별특성인식모듈(110)을 구축하는 경우, 서버(10)는 전문가 클라이언트(30)로부터 학습용 영상데이터 각각에 대해 신규 외형분류기준의 개별외형특성을 입력받는다. 또한, 다른 일실시예로, 서버(10)는 신규 외형분류기준에 대한 개별특성인식모듈(110)을 트레이닝하기 위한 신규 영상데이터를 획득하고, 이에 대해 신규 외형분류기준의 개별외형특성을 각각 입력받아서 신규 학습데이터셋을 구축한다.First, the server 10 acquires individual appearance characteristics of the new appearance classification criteria for the training image data, and constructs a new training data set (S700). In one embodiment, when constructing a new individual characteristic recognition module 110 by using the same image data used to train another individual characteristic recognition module 110 in the past, the server 10 is an expert client 30 ), the individual appearance characteristics of the new appearance classification standard are input for each learning image data. In addition, in another embodiment, the server 10 acquires new image data for training the individual characteristic recognition module 110 for the new appearance classification criteria, and inputs individual appearance characteristics of the new appearance classification criteria, respectively. And construct a new training data set.

그 후, 서버(10)가 상기 신규 학습데이터셋을 기반으로 신규 개별특성인식모듈(110)을 트레이닝하여, 상기 외형특성인식모델에 추가한다(S710). 이를 통해, 서버(10)는 기존에 복수의 외형특성인식모델에 복수의 기존 개별특성인식모듈(110)과 함께 신규 개별특성인식모듈(110)을 추가한다.Thereafter, the server 10 trains the new individual feature recognition module 110 based on the new learning data set, and adds it to the external feature recognition model (S710). Through this, the server 10 adds a new individual characteristic recognition module 110 together with a plurality of existing individual characteristic recognition modules 110 to the existing plurality of external characteristic recognition models.

또한, 다른 일실시예로, 도 6에서와 같이, 서버(10)가 이미 구축된 개별특성인식모듈(110)에 의해 외형서술데이터가 획득된 상기 입력영상데이터를 신규 개별특성인식모듈(110)에 입력하여 신규 외형분류기준에 대해 개별외형특성을 추가하는 단계(S720);를 더 포함한다. 즉, 서버(10)는 기존에 획득된 입력영상데이터의 외형서술데이터를 신규 외형분류기준을 반영하도록 업데이트하는 과정을 수행한다. 이를 위해, 서버(10)는 신규 개별특성인식모듈(110)에 모든 입력영상데이터를 삽입하여 개별외형특성을 산출하는 과정을 수행한다.In addition, in another embodiment, as shown in FIG. 6, the input image data obtained by the external description data obtained by the individual characteristic recognition module 110 in which the server 10 has already been constructed is a new individual characteristic recognition module 110. It further includes a step (S720) of inputting and adding individual appearance characteristics for the new appearance classification criteria. That is, the server 10 performs a process of updating the appearance description data of the previously acquired input image data to reflect the new appearance classification criteria. To this end, the server 10 inserts all the input image data into the new individual characteristic recognition module 110 to calculate the individual appearance characteristics.

또한, 다른 일실시예로, 도 7에서와 같이, 서버(10)가 각각의 추상적 특성에 상기 신규 외형분류기준의 개별외형특성을 매칭하여 상기 매칭알고리즘(200)을 업데이트하는 단계(S730);를 더 포함한다. 즉, 서버(10)는 사용자가 추상적 특성에 대응하는 키워드를 기반으로 영상데이터 검색을 수행하는 경우에 신규 외형분류기준을 반영하여 최적 검색결과를 제공하기 위해, 매칭알고리즘(200) 내 각각의 추상적 특성에 대해 신규 외형분류기준의 개별외형특성을 연결한다. In another embodiment, as shown in FIG. 7, the server 10 updating the matching algorithm 200 by matching the individual appearance characteristics of the new appearance classification criteria with each abstract characteristic (S730); It includes more. That is, when the user searches for image data based on a keyword corresponding to an abstract characteristic, the server 10 reflects the new appearance classification criteria and provides the optimal search result. For characteristics, the individual external characteristics of the new external classification standard are linked.

또한, 다른 일실시예로, 도 8에서와 같이, 서버(10)가 전문가클라이언트로부터 상기 추상적 특성과 상기 외형분류기준 조합을 매칭하는 설정데이터를 수신하여, 매칭알고리즘(200)을 설정하는 단계(S800);를 더 포함한다. 추상적 특성의 정의는 지역적 차이, 시대변화, 새로운 정의 정립 등의 요인에 의해 변경되거나 상이할 수 있다. 예를 들어, 대상체가 패션의류 또는 패션잡화인 경우, 특정한 패션트랜드 또는 감성적 특성을 나타내는 추상적 특성은 시대 변화에 따라 변경될 수도 있고, 전세계 지역에 따라 상이하게 정의될 수 있다(예를 들어, '빈티지'라는 추상적 특성(즉, 감성적 특성)은 과거와 현재에 다른 외형을 가지는 것으로 정의될 수 있다.) 따라서, 서버(10)는 매칭알고리즘(200) 내의 추상적 특성과 개별외형특성 조합의 매칭관계를 추가 또는 변경 설정할 수 있다.In another embodiment, as shown in FIG. 8, the server 10 receives setting data matching the combination of the abstract characteristic and the appearance classification criteria from an expert client, and sets the matching algorithm 200 ( S800); further includes. The definition of abstract characteristics may be changed or different due to factors such as regional differences, changes in the times, and establishment of new definitions. For example, when the object is fashion clothing or fashion accessories, abstract characteristics representing specific fashion trends or emotional characteristics may change according to the change of the times, and may be defined differently according to regions around the world (for example, ' The abstract characteristic (ie, emotional characteristic) of'vintage' can be defined as having a different appearance in the past and the present.) Therefore, the server 10 is a matching relationship between the combination of abstract characteristics in the matching algorithm 200 and individual appearance characteristics. You can add or change settings.

일실시예로, 특정한 추상적 특성에 대한 정의가 변경되는 경우, 서버(10)는 전문가 클라이언트(30)로부터 현시점의 해당 추상적 특성에 대한 외형분류기준 조합을 입력받는다. 이 때, 서버(10)는 변경 전의 추상적 특성과 외형분류기준 조합을 과거 특정시점의 해당 추상적 특성의 정의로 설정할 수 있다. 이를 통해, 서버(10)는 시대 변화에 따른 특정한 추상적 특성의 정의 또는 서술정보를 누적할 수 있다.In one embodiment, when the definition of a specific abstract characteristic is changed, the server 10 receives a combination of appearance classification criteria for the current abstract characteristic from the expert client 30. In this case, the server 10 may set the combination of the abstract characteristic before the change and the appearance classification criterion as the definition of the corresponding abstract characteristic at a specific point in the past. Through this, the server 10 may accumulate definition or description information of specific abstract characteristics according to changes in the times.

또한, 다른 일실시예로, 지역별로 동일한 추상적 특성을 상이한 외형으로 정의하여야 함에 따라, 서버(10)는 전문가 클라이언트(30)로부터 각 지역별 외형분류기준 조합을 설정받아서 저장할 수 있다.In addition, in another embodiment, since the same abstract characteristic for each region must be defined as a different appearance, the server 10 may receive and store a combination of external classification criteria for each region from the expert client 30.

또한, 다른 일실시예로, 도 9에서와 같이, 서버(10)가 사용자 클라이언트(20)로부터 기준영상데이터를 획득하는 단계(S900; 기준영상데이터 획득단계); 상기 기준영상데이터를 상기 외형특성 인식모델(100)에 입력하여, 복수의 외형분류기준에 대한 개별외형특성을 산출하는 단계(S910); 서버(10)가 상기 기준영상데이터에 대한 복수의 개별외형특성을 조합하여 외형서술데이터를 생성하는 단계(S920); 및 서버(10)가 상기 기준영상데이터와 동일 또는 유사한 외형서술데이터를 포함하는 영상데이터를 추출하는 단계(S930);를 포함한다. 즉, 사용자가 추상적 특성에 상응하는 키워드를 기반으로 검색하는 것이 아니라 사용자가 가지고 있는 특정한 대상체 이미지(즉, 기준영상데이터)를 기반으로 검색을 수행하는 경우, 서버(10)는 기준영상데이터에 대한 외형서술데이터를 생성하고, 동일 또는 유사한 외형서술데이터를 포함하는 영상데이터를 추출하여 사용자 클라이언트(20)에 제공한다.In addition, as another embodiment, as shown in FIG. 9, the server 10 obtaining reference image data from the user client 20 (S900; reference image data acquisition step); Inputting the reference image data into the appearance characteristic recognition model 100 to calculate individual appearance characteristics for a plurality of appearance classification criteria (S910); Generating, by the server 10, appearance description data by combining a plurality of individual appearance characteristics with respect to the reference image data (S920); And extracting, by the server 10, image data including appearance description data identical or similar to the reference image data (S930). That is, when a user does not search based on a keyword corresponding to an abstract characteristic, but performs a search based on a specific object image (ie, reference image data) that the user has, the server 10 Appearance description data is generated, and image data including the same or similar appearance description data is extracted and provided to the user client 20.

먼저, 서버(10)가 사용자 클라이언트(20)로부터 기준영상데이터를 획득한다(S900). 즉, 서버(10)는 사용자 클라이언트(20)에 저장되거나 사용자가 온라인에서 검색한 기준영상데이터를 수신한다. First, the server 10 acquires the reference image data from the user client 20 (S900). That is, the server 10 receives the reference image data stored in the user client 20 or searched online by the user.

그 후, 서버(10)는 상기 기준영상데이터를 상기 외형특성 인식모델(100)에 입력하여 각 외형분류기준에 포함된 개별외형특성을 산출한다(S910). 즉, 서버(10)는 기준영상데이터 외형특성을 텍스트정보로 서술하기 위한 복수의 개별외형특성을 각각의 개별특성인식모듈(110)을 통해 획득한다. Thereafter, the server 10 inputs the reference image data into the appearance characteristic recognition model 100 to calculate individual appearance characteristics included in each appearance classification criterion (S910). That is, the server 10 acquires a plurality of individual external characteristics for describing the external characteristics of the reference image data as text information through each individual characteristic recognition module 110.

그 후, 서버(10)는 상기 기준영상데이터에 대한 복수의 개별외형특성을 조합하여 외형서술데이터를 생성한다(S920). Thereafter, the server 10 generates appearance description data by combining a plurality of individual appearance characteristics with respect to the reference image data (S920).

그 후, 서버(10)가 상기 기준영상데이터와 동일한 외형서술데이터를 포함하는 영상데이터를 추출한다. 일실시예로, 기준영상데이터와 동일한 외형서술데이터를 포함하는 영상데이터를 검색하는 경우, 서버(10)는 기준영상데이터와 동일한 외형서술데이터를 가지는 입력영상데이터를 탐색하여 제공한다. After that, the server 10 extracts image data including the same outline description data as the reference image data. In one embodiment, in the case of searching for image data including outline description data identical to the reference image data, the server 10 searches for and provides input image data having the same outline description data as the reference image data.

또한, 다른 일실시예로, 기준영상데이터와 유사한 범위까지 영상데이터를 검색하는 경우, 서버(10)는 기준영상데이터의 외형서술데이터 내에 포함된 복수의 외형분류기준 중에서 중요도가 낮은 것부터 유사범위까지 확장하고, 확장된 하나 이상의 외형서술데이터를 포함하는 영상데이터를 추출한다. 이를 위해, 서버(10)는 특정한 대상체의 복수 외형분류기준에 대해 중요도 순위(예를 들어, 중요도 순위가 높을수록 유사범위까지 검색범위 확장 시에 고정값으로 유지되는 것)를 포함할 수 있고, 특정한 외형분류기준 내에서 개별외형특성 간의 유사도를 포함할 수 있다.In addition, in another embodiment, in the case of searching for image data to a range similar to the reference image data, the server 10 includes from a low importance to a similar range among a plurality of appearance classification criteria included in the appearance description data of the reference image data. It expands and extracts image data including one or more extended outline description data. To this end, the server 10 may include an importance ranking for a plurality of appearance classification criteria of a specific object (for example, the higher the importance ranking, the higher the priority, the higher the search range is maintained at a fixed value), The degree of similarity between individual appearance characteristics within a specific appearance classification criterion may be included.

또한, 다른 일실시예로, 도 10에서와 같이, 서버(10)가 사용자 클라이언트(20)로부터 추가영상데이터 제공요청을 수신함에 따라, 적어도 하나의 외형분류기준이 상이한 영상데이터를 순차적으로 제공하는 단계(S1000); 및 사용자에 의해 추가영상데이터 중에서 하나 이상의 영상데이터가 선택되면, 서버(10)가 선택된 영상데이터의 외형서술데이터를 기반으로 개인화 추상적 특성을 설정하는 단계(S1010);를 더 포함한다. 즉, 검색키워드 기반으로 검색 수행 시에, 서버(10)는 검색키워드에 상응하는 추상적 특성의 서술정보에서 적어도 하나의 외형분류기준을 다른 개별외형특성으로 변경하면서 검색범위를 확장하여 추가영상데이터를 사용자 클라이언트(20)에 제공한다. 그 후, 서버(10)는 사용자로부터 확장된 검색범위에서 원하는 하나 이상의 영상이미지를 선택받는다. 그 후, 서버(10)는 선택된 영상이미지를 기반으로 사용자가 입력한 검색키워드 또는 추상적 특성에 대해 개인화를 수행한다. 예를 들어, 일반적인 추상적 특성의 외형 정의와 사용자가 생각하고 있는 추상적 특성의 외형 정의가 상이할 수 있으므로, 서버(10)는 확장된 검색결과에서 사용자에 의해 선택된 영상이미지의 외형서술데이터를 기반으로 사용자가 생각하는 추상적 특성의 서술정보 또는 외형 정의(즉, 개인화된 추상적 특성의 서술정보)를 설정한다. 이를 통해, 해당 사용자가 추후에도 동일한 검색키워드 또는 추상적 특성으로 검색을 수행하면, 서버(10)는 일반적인 추상적 특성의 서술정보를 기반으로 검색하지 않고, 개인화된 추상적 특성의 서술정보를 기반으로 검색을 수행하여 사용자가 원하는 이미지를 먼저 제공할 수 있게 된다.In another embodiment, as shown in FIG. 10, as the server 10 receives a request for providing additional image data from the user client 20, at least one external classification criterion is sequentially provided. Step S1000; And when one or more image data is selected from the additional image data by the user, the server 10 setting a personalized abstract characteristic based on the appearance description data of the selected image data (S1010). That is, when performing a search based on a search keyword, the server 10 expands the search range and provides additional image data while changing at least one appearance classification criterion from the description information of the abstract characteristic corresponding to the search keyword to another individual appearance characteristic. Provided to the user client 20. After that, the server 10 receives one or more desired image images from the extended search range from the user. Thereafter, the server 10 personalizes a search keyword or abstract characteristic input by the user based on the selected video image. For example, since the external definition of the general abstract characteristic and the external definition of the abstract characteristic that the user is thinking may be different, the server 10 is based on the external description data of the video image selected by the user in the expanded search result. Set the description information or appearance definition of the abstract characteristic that the user thinks (that is, the description information of the personalized abstract characteristic). Through this, if the user performs a search with the same search keyword or abstract characteristic in the future, the server 10 does not search based on the description information of the general abstract characteristic, but performs a search based on the description information of the personalized abstract characteristic. By doing so, the user can first provide the desired image.

또한, 다른 일실시예로, 도 11에서와 같이, 상기 선택된 영상데이터의 외형서술데이터에 상응하는 추상적 특성이 존재하는 경우, 서버(10)가 사용자 클라이언트(20)에 상기 선택된 영상데이터 추출에 적합한 추상적 특성을 제공하는 단계(S1020);를 더 포함한다. 즉, 서버(10)는 특정한 추상적 특성에 대해 사용자가 알고 있는 외형 정의와 일반적으로 사용되는 외형 정의가 상이함을 안내하고, 실제 사용자가 생각하는 외형 정의에 부합하는 추상적 특성(또는 검색키워드)를 추출하여 제공한다. 이를 통해, 사용자가 추후 재검색 시에 원하는 검색결과를 얻을 수 있는 검색키워드를 인지하도록 할 수 있다.In addition, in another embodiment, as shown in FIG. 11, when there is an abstract characteristic corresponding to the outline description data of the selected image data, the server 10 provides the user client 20 to the user client 20 for extracting the selected image data. It further includes; providing an abstract characteristic (S1020). That is, the server 10 notifies that the external appearance definition known to the user for a specific abstract characteristic is different from the commonly used appearance definition, and provides an abstract characteristic (or search keyword) that matches the external appearance definition that the actual user thinks. It is extracted and provided. Through this, it is possible for the user to recognize a search keyword for obtaining a desired search result when re-searching later.

또한, 다른 일실시예로, 상기 영상데이터가 복수의 프레임을 포함하는 동영상데이터인 경우, 추상적 특성은 특정한 형상변화 또는 동작을 나타내는 표현일 수 있다. 즉, 추상적 특성은 특정한 동작 또는 형상변화를 나타내는 텍스트 표현일 수 있다.In addition, in another embodiment, when the image data is moving image data including a plurality of frames, the abstract characteristic may be an expression indicating a specific shape change or motion. That is, the abstract characteristic may be a textual expression representing a specific motion or shape change.

이를 위해, 서버(10)는 동영상인 입력영상데이터의 복수 프레임에 대한 개별외형특성(즉, 각 외형분류기준에 속하는 개별외형특성) 조합을 시계열적으로 나열한 외형서술데이터를 생성한다. 구체적으로, 상기 개별외형특성 산출단계(S200)는, 상기 동영상데이터 내의 각각의 프레임에 대해 수행하고, 상기 외형서술데이터 생성단계(S400)는, 각 프레임에 대한 복수의 개별외형특성을 순차적으로 나열하여 생성한다.To this end, the server 10 generates appearance description data in which combinations of individual appearance characteristics (that is, individual appearance characteristics belonging to each appearance classification criterion) for a plurality of frames of input image data, which are moving images, are arranged in time series. Specifically, the individual appearance characteristic calculation step (S200) is performed for each frame in the moving picture data, and the appearance description data generation step (S400) sequentially lists a plurality of individual appearance characteristics for each frame. Generated by

또한, 다른 일실시예로, 서버(10)는 각 추상적 특성(예를 들어, 형상변화 또는 동작을 나타내는 표현)과 각각의 외형분류기준 내 개별외형특성의 시계열데이터를 매칭한 매칭알고리즘(200)을 포함한다. 이를 통해, 영상데이터 검색단계(S600)에서, 서버(10)는 사용자가 원하는 추상적 특성(즉, 특정한 동작 또는 형상변화)에 해당하는 동영상데이터를 탐색하여 제공한다.In addition, in another embodiment, the server 10 is a matching algorithm 200 in which each abstract characteristic (for example, an expression representing a shape change or motion) and time series data of individual appearance characteristics within each appearance classification criterion are matched. Includes. Through this, in the image data search step (S600), the server 10 searches for and provides video data corresponding to an abstract characteristic (ie, a specific motion or shape change) desired by the user.

본 발명의 또 다른 일실시예에 따른 영상데이터 검색장치는, 하나 이상의 컴퓨터를 포함하고, 상기 언급된 영상데이터 검색방법을 수행한다.An image data search apparatus according to another embodiment of the present invention includes one or more computers, and performs the aforementioned image data search method.

이상에서 전술한 본 발명의 일 실시예에 따른 영상데이터 검색방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.The image data retrieval method according to an embodiment of the present invention described above may be implemented as a program (or application) to be executed in combination with a computer, which is hardware, and stored in a medium.

상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버(10) 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버(10) 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다. The above-described program includes C, C++, JAVA, machine language, etc. that can be read by the computer's processor (CPU) through the computer's device interface in order for the computer to read the program and execute the methods implemented as programs It may include a code (Code) coded in the computer language of. Such code may include a functional code related to a function defining necessary functions for executing the methods, and a control code related to an execution procedure necessary for the processor of the computer to execute the functions according to a predetermined procedure. can do. In addition, such code may further include additional information required for the processor of the computer to execute the functions or code related to a memory reference to which location (address address) of the internal or external memory of the computer should be referenced. have. In addition, when the processor of the computer needs to communicate with any other computer or server 10 at a remote location in order to execute the functions, the code may use the communication module of the computer It may further include a communication related code for how to communicate with the server 10 or the like, and what information or media to transmit and receive during communication.

상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버(10) 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.The stored medium is not a medium that stores data for a short moment, such as a register, cache, memory, etc., but a medium that stores data semi-permanently and can be read by a device. Specifically, examples of the storage medium include, but are not limited to, ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like. That is, the program may be stored in various recording media on various servers 10 to which the computer can access, or on various recording media on the computer of the user. In addition, the medium may be distributed over a computer system connected through a network, and computer-readable codes may be stored in a distributed manner.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. In the above, embodiments of the present invention have been described with reference to the accompanying drawings, but those of ordinary skill in the art to which the present invention pertains can be implemented in other specific forms without changing the technical spirit or essential features. You can understand. Therefore, the embodiments described above are illustrative in all respects, and should be understood as non-limiting.

Claims (15)

서버가 입력영상데이터를 외형특성 인식모델에 입력하여, 복수의 외형분류기준에 대한 개별외형특성을 산출하는 단계;
서버가 상기 입력영상데이터에 대한 복수의 개별외형특성을 조합하여 외형서술데이터를 생성하는 단계; 및
서버가 특정한 사용자로부터 검색키워드를 입력받음에 따라, 매칭알고리즘에서 상기 검색키워드에 대응하는 추상적 특성에 매칭된 외형분류기준 조합에 해당하는 영상데이터를 추출하는 단계;를 포함하고,
상기 외형분류기준은, 특정한 대상체의 외형을 서술하기 위한 특정한 분류기준으로서, 상기 대상체의 동일한 분류기준 내의 다양한 외형특성을 표현하는 복수의 개별외형특성을 포함하는 것인, 영상데이터 검색방법.
Calculating individual appearance characteristics for a plurality of appearance classification criteria by inputting the input image data into an appearance characteristic recognition model by the server;
Generating, by a server, appearance description data by combining a plurality of individual appearance characteristics with respect to the input image data; And
In response to the server receiving a search keyword from a specific user, extracting image data corresponding to a combination of appearance classification criteria matched with an abstract characteristic corresponding to the search keyword from a matching algorithm; Including,
The appearance classification standard is a specific classification standard for describing the appearance of a specific object, and includes a plurality of individual appearance characteristics expressing various external appearance characteristics within the same classification standard of the object.
제1항에 있어서,
상기 외형특성 인식모델은 상이한 외형 분류기준을 판단하는 복수의 개별특성인식모듈을 포함하고,
상기 개별특성인식모듈은 영상데이터의 특정한 외형분류기준에 포함된 개별외형특성을 산출하는 것이고,
상기 개별외형특성 산출단계는,
상기 외형특성 인식모델 내의 각각의 개별특성인식모듈에 상기 입력영상데이터를 입력하여, 상기 입력영상데이터에 대한 복수의 개별외형특성을 산출하는 것을 특징으로 하는, 영상데이터 검색방법.
The method of claim 1,
The appearance characteristic recognition model includes a plurality of individual characteristic recognition modules for determining different appearance classification criteria,
The individual characteristic recognition module is to calculate individual appearance characteristics included in a specific appearance classification standard of image data,
The step of calculating the individual appearance characteristics,
And calculating a plurality of individual appearance characteristics for the input image data by inputting the input image data into each individual characteristic recognition module in the appearance characteristic recognition model.
제2항에 있어서,
상기 개별특성인식모듈은,
복수의 학습용 영상데이터에 대해 특정한 외형분류기준의 개별외형특성을 매칭하여 딥러닝 학습모델을 통해 트레이닝이 된 것인, 영상데이터 검색방법.
The method of claim 2,
The individual characteristic recognition module,
An image data search method that is trained through a deep learning learning model by matching individual appearance characteristics of a specific appearance classification standard with respect to a plurality of training image data.
제2항에 있어서,
상기 외형특성 인식모델은, 대상체 유형별로 상이한 개별특성인식모듈의 조합을 포함하는 것을 특징으로 하는, 영상데이터 검색방법.
The method of claim 2,
The external feature recognition model, characterized in that it comprises a combination of individual feature recognition modules that are different for each object type.
제2항에 있어서,
개별특성인식모듈이 구축되지 않은, 특정한 대상체의 미학습 외형분류기준이 존재하는 경우,
상기 외형서술데이터 생성단계는,
입력개별외형특성과 산출개별외형특성을 조합하여 외형서술데이터를 생성하되, 상기 입력개별외형특성은 상기 입력영상데이터를 제공한 영상제공자 클라이언트 또는 전문가클라이언트로부터 상기 미학습 외형분류기준에 대해 획득된 것이고, 상기 산출개별외형특성은 상기 개별특성인식모듈에 상기 입력영상데이터를 입력함에 따라 산출된 것인, 영상데이터 검색방법.
The method of claim 2,
If there is an unlearned appearance classification criterion for a specific object for which the individual characteristic recognition module is not established,
The step of generating the appearance description data,
Appearance description data is generated by combining the input individual appearance characteristics and the calculated individual appearance characteristics, and the input individual appearance characteristics are obtained for the unlearned appearance classification criteria from the image provider client or expert client that provided the input image data. , The calculated individual appearance characteristic is calculated by inputting the input image data to the individual characteristic recognition module.
제2항에 있어서,
특정한 대상체에 대한 신규 외형분류기준이 추가되는 경우,
서버가 학습용 영상데이터에 대한 신규 외형분류기준의 개별외형특성을 획득하여, 신규 학습데이터셋을 구축하는 단계; 및
서버가 상기 신규 학습데이터셋을 기반으로 신규 개별특성인식모듈을 트레이닝하여, 상기 외형특성 인식모델에 추가하는 단계;를 더 포함하는, 영상데이터 검색방법.
The method of claim 2,
When a new cosmetic classification standard is added for a specific subject,
Obtaining, by the server, individual appearance characteristics of a new appearance classification criterion for the training image data, and constructing a new training data set; And
The server training a new individual feature recognition module based on the new learning data set, and adding it to the external feature recognition model.
제6항에 있어서,
서버가 이미 구축된 개별특성인식모듈에 의해 외형서술데이터가 획득된 상기 입력영상데이터를 신규 개별특성인식모듈에 입력하여 신규 외형분류기준에 대해 상세정보를 추가하는 단계; 및
서버가 각각의 추상적 특성에 상기 신규 외형분류기준의 개별외형특성을 매칭하여 상기 매칭알고리즘을 업데이트하는 단계;를 더 포함하는, 영상데이터 검색방법.
The method of claim 6,
Inputting the input image data from which the appearance description data has been obtained by the individual characteristic recognition module already established by the server into a new individual characteristic recognition module, and adding detailed information about the new appearance classification criteria; And
The method further comprising, updating the matching algorithm by matching, by a server, individual external characteristics of the new external appearance classification criteria with each abstract characteristic.
제1항에 있어서,
서버가 전문가클라이언트로부터 상기 추상적 특성과 상기 외형분류기준 조합을 매칭하는 설정데이터를 수신하여, 상기 매칭알고리즘을 설정하는 단계;를 더 포함하는, 영상데이터 검색방법.
The method of claim 1,
Receiving, by a server, setting data matching the combination of the abstract characteristic and the appearance classification criteria from an expert client, and setting the matching algorithm.
제1항에 있어서,
상기 외형서술데이터 생성단계는,
상기 입력영상데이터에 대한 복수의 개별외형특성에 대응하는 코드값을 추출하는 단계; 및
상기 복수의 코드값을 조합하여, 코드열 형태의 외형서술데이터를 생성하는 단계;를 포함하는, 영상데이터 검색방법.
The method of claim 1,
The step of generating the appearance description data,
Extracting code values corresponding to a plurality of individual appearance characteristics of the input image data; And
Comprising the step of combining the plurality of code values to generate appearance description data in the form of a code string.
제1항에 있어서,
서버가 사용자클라이언트로부터 기준영상데이터를 획득하되, 상기 기준영상데이터는 동일한 대상체 중에서 유사한 외형특성을 가지는 것을 포함하는 이미지를 검색하기 위한 기준인, 기준영상데이터 획득단계;
상기 기준영상데이터를 상기 외형특성 인식모델에 입력하여, 복수의 외형분류기준에 대한 개별외형특성을 산출하는 단계;
서버가 상기 기준영상데이터에 대한 복수의 개별외형특성을 조합하여 외형서술데이터를 생성하는 단계; 및
서버가 상기 기준영상데이터와 동일한 외형서술데이터를 포함하는 영상데이터를 추출하는 단계;를 포함하는, 영상데이터 검색방법.
The method of claim 1,
A reference image data acquisition step, wherein the server obtains reference image data from a user client, and the reference image data is a reference for searching for an image including those having similar appearance characteristics among the same object;
Calculating individual appearance characteristics for a plurality of appearance classification criteria by inputting the reference image data to the appearance characteristic recognition model;
Generating, by a server, appearance description data by combining a plurality of individual appearance characteristics with respect to the reference image data; And
A step of extracting, by a server, image data including outline description data identical to the reference image data.
제1항에 있어서,
서버가 사용자클라이언트로부터 추가영상데이터 제공요청을 수신함에 따라, 적어도 하나의 외형분류기준이 상이한 영상데이터를 순차적으로 제공하는 단계; 및
사용자에 의해 추가영상데이터 중에서 하나 이상의 영상데이터가 선택되면, 서버가 선택된 영상데이터의 외형서술데이터를 기반으로 개인화 추상적 특성을 설정하는 단계;를 더 포함하는, 영상데이터 검색방법.
The method of claim 1,
As the server receives a request for providing additional image data from a user client, sequentially providing image data having different appearance classification criteria; And
When one or more image data is selected from the additional image data by the user, the server setting a personalized abstract characteristic based on the external description data of the selected image data; further comprising, image data search method.
제11항에 있어서,
상기 선택된 영상데이터의 외형서술데이터에 상응하는 추상적 특성이 존재하는 경우, 서버가 사용자클라이언트에 상기 선택된 영상데이터 추출에 적합한 추상적 특성을 제공하는 단계;를 더 포함하는, 영상데이터 검색방법.
The method of claim 11,
The method further comprising, when an abstract characteristic corresponding to the outline description data of the selected image data exists, providing, by a server, an abstract characteristic suitable for extracting the selected image data to a user client.
제1항에 있어서,
상기 영상데이터가 복수의 프레임을 포함하는 동영상데이터인 경우,
상기 개별외형특성 산출단계는,
상기 동영상데이터 내의 각각의 프레임에 대해 수행되는 것을 특징으로 하고,
상기 외형서술데이터 생성단계는,
각 프레임에 대한 복수의 개별외형특성을 순차적으로 나열하여 생성되는 것을 특징으로 하고,
상기 추상적 특성은 특정한 형상변화 또는 동작을 나타내는 표현인, 영상데이터 검색방법.
The method of claim 1,
When the image data is moving image data including a plurality of frames,
The step of calculating the individual appearance characteristics,
It characterized in that it is performed for each frame in the video data,
The step of generating the appearance description data,
Characterized in that it is generated by sequentially listing a plurality of individual appearance characteristics for each frame,
The abstract characteristic is an expression representing a specific shape change or motion.
하나 이상의 컴퓨터를 포함하며, 제1항 내지 제13항 중 어느 한 항의 방법을 실행하는, 영상검색 서버장치.An image search server apparatus comprising one or more computers and executing the method of any one of claims 1 to 13. 하드웨어인 컴퓨터와 결합되어, 제1항 내지 제13항 중 어느 한 항의 방법을 실행시키기 위하여 매체에 저장된, 영상데이터 검색프로그램.An image data retrieval program combined with a computer as hardware and stored in a medium to execute the method of any one of claims 1 to 13.
KR1020200065356A 2020-05-29 2020-05-29 System, method and program for searching image data by using deep-learning algorithm KR20200141387A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200065356A KR20200141387A (en) 2020-05-29 2020-05-29 System, method and program for searching image data by using deep-learning algorithm

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200065356A KR20200141387A (en) 2020-05-29 2020-05-29 System, method and program for searching image data by using deep-learning algorithm

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020190067794A Division KR102119246B1 (en) 2019-06-10 2019-06-10 System, method and program for searching image data by using deep-learning algorithm

Publications (1)

Publication Number Publication Date
KR20200141387A true KR20200141387A (en) 2020-12-18

Family

ID=74041576

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200065356A KR20200141387A (en) 2020-05-29 2020-05-29 System, method and program for searching image data by using deep-learning algorithm

Country Status (1)

Country Link
KR (1) KR20200141387A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112699261A (en) * 2020-12-28 2021-04-23 大连工业大学 Automatic clothing image generation system and method
KR102340963B1 (en) * 2021-02-05 2021-12-20 주식회사 파인드커넥트 Method and Apparatus for Producing Video Based on Artificial Intelligence

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112699261A (en) * 2020-12-28 2021-04-23 大连工业大学 Automatic clothing image generation system and method
KR102340963B1 (en) * 2021-02-05 2021-12-20 주식회사 파인드커넥트 Method and Apparatus for Producing Video Based on Artificial Intelligence

Similar Documents

Publication Publication Date Title
Tautkute et al. Deepstyle: Multimodal search engine for fashion and interior design
CN106560809B (en) Modifying at least one attribute of an image with at least one attribute extracted from another image
CN106560810B (en) Searching using specific attributes found in images
US9678989B2 (en) System and method for use of images with recognition analysis
KR102115573B1 (en) System, method and program for acquiring user interest based on input image data
US10042866B2 (en) Searching untagged images with text-based queries
US11275906B2 (en) Natural language text conversion and method therefor
US20070081744A1 (en) System and method for use of images with recognition analysis
Al-Lohibi et al. Awjedni: a reverse-image-search application
KR20200141387A (en) System, method and program for searching image data by using deep-learning algorithm
GB2542891A (en) Modifying at least one attribute of an image with at least one attribute extracted from another image
KR102119246B1 (en) System, method and program for searching image data by using deep-learning algorithm
CN117420998A (en) Client UI interaction component generation method, device, terminal and medium
US20220100792A1 (en) Method, device, and program for retrieving image data by using deep learning algorithm
CN115827951A (en) Method, device and equipment for optimizing webpage content
CN111753861B (en) Automatic image labeling system and method for active learning
KR102366595B1 (en) System, method and program for obtaining appearance descriptive data from image data
CN112750004A (en) Cross-domain commodity cold start recommendation method and device and electronic equipment
WO2007041647A2 (en) System and method for use of images with recognition analysis
TW202004516A (en) Optimization method for searching exclusive personalized pictures
US20220253473A1 (en) Machine generated ontology
Zhou et al. Product image search with deep attribute mining and re-ranking
CN116745760A (en) Intelligent computer search engine removes search results
CN116010611A (en) Knowledge graph construction and information recommendation method and device and computer equipment
CN116894881A (en) Image generation method, device, electronic equipment and storage medium

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application