JP2022044687A - Image search method and apparatus - Google Patents

Image search method and apparatus Download PDF

Info

Publication number
JP2022044687A
JP2022044687A JP2022006614A JP2022006614A JP2022044687A JP 2022044687 A JP2022044687 A JP 2022044687A JP 2022006614 A JP2022006614 A JP 2022006614A JP 2022006614 A JP2022006614 A JP 2022006614A JP 2022044687 A JP2022044687 A JP 2022044687A
Authority
JP
Japan
Prior art keywords
image
attribute
feature vector
search
user terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022006614A
Other languages
Japanese (ja)
Other versions
JP7282218B2 (en
Inventor
勝權 崔
Seung Kwon Choe
相淵 金
Sang Yeon Kim
▲みん▼▲ちょる▼ 辛
Min Chul Shin
盛皓 咸
Sung Ho Ham
相赫 朴
Sang Hyuk Park
澤潤 金
Taek Yoon Kim
澤秀 金
Taek Soo Kim
柳薫 姜
Yoo Hoon Kang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Z Intermediate Global Corp
Naver Corp
Original Assignee
Line Corp
Naver Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Line Corp, Naver Corp filed Critical Line Corp
Publication of JP2022044687A publication Critical patent/JP2022044687A/en
Application granted granted Critical
Publication of JP7282218B2 publication Critical patent/JP7282218B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers

Abstract

PROBLEM TO BE SOLVED: To provide an image search apparatus and a method thereof.
SOLUTION: An image search method includes: a step of obtaining reference feature vectors corresponding to multiple reference images containing the same attribute; a step of obtaining a representative feature vector corresponding to the same attribute from a generative model trained based on the obtained reference feature vectors; and a step of comparing the feature vector of a target image stored in a database with the representative feature vector, so as to assign attribute tags corresponding to the same attribute to at least some of the target images.
SELECTED DRAWING: Figure 2
COPYRIGHT: (C)2022,JPO&INPIT

Description

本発明は、検索の技術分野に関し、さらに具体的には、イメージに基づく検索装置及びその方法に関する。 The present invention relates to the technical field of search, and more specifically to an image-based search device and a method thereof.

情報通信技術の発達と共に、スマートフォン、個人用コンピュータのような多様な端末を利用した情報検索が幅広く利用されている。従来は、ユーザが入力したテキストを基に文書などを検索して提供していたが、最近は、写真や絵のようなイメージを検索する場合が増加している。 With the development of information and communication technology, information retrieval using various terminals such as smartphones and personal computers is widely used. In the past, documents and the like were searched and provided based on the text entered by the user, but recently, the number of cases of searching for images such as photographs and pictures is increasing.

衣類や風景のようなイメージをテキストだけで検索することは、容易ではない。例えば、ユーザが自分が所望するスタイルの衣類を検索する場合、テキスト検索では、適切なイメージを見い出し難い場合がある。 Searching for images such as clothing and landscapes by text alone is not easy. For example, when a user searches for clothing in the style he / she desires, it may be difficult to find a suitable image by text search.

最近では、ユーザからテキストではない検索イメージが入力され、検索イメージと類似したイメージを検索するサービスも試みられているが、そのためには、データベースに保存された多くのイメージに対して、一つ一つ手動的にタグを割り当てなければならないという困難さが伴う。 Recently, a service has been tried to search for images similar to the search image by inputting a search image that is not text from the user, but for that purpose, for many images stored in the database, one by one. It comes with the difficulty of having to manually assign tags.

韓国登録特許第10-1768521号公報Korean Registered Patent No. 10-178521

本発明の一実施形態によるイメージ検索装置及びその方法は、データベースに保存されたイメージに対する属性タグの割り当てを簡便に行うことができるようにすることを技術的課題とする。 An image search device according to an embodiment of the present invention and a method thereof have a technical problem of making it possible to easily assign attribute tags to images stored in a database.

また、一実施形態によるイメージ検索装置及びその方法は、代表特徴ベクトルを利用し、ユーザが所望する種類のイメージを、さらに正確に検索することができるようにすることを技術的課題とする。 Further, the image search device according to one embodiment and the method thereof have a technical problem of being able to more accurately search for an image of a type desired by a user by using a representative feature vector.

一実施形態によるイメージ検索方法は、同一属性を含む複数の参照イメージに対応する参照特徴ベクトルを獲得する段階と、前記獲得した参照特徴ベクトルに基づいて訓練された生成モデルから、前記同一属性に対応する代表特徴ベクトルを獲得する段階と、データベースに保存されたターゲットイメージの特徴ベクトルと、前記代表特徴ベクトルとを比較し、前記ターゲットイメージのうち少なくとも一部のターゲットイメージに、前記同一属性に対応する属性タグを割り当てる段階と、を含んでもよい。 The image search method according to one embodiment corresponds to the same attribute from the stage of acquiring the reference feature vector corresponding to a plurality of reference images including the same attribute and the generation model trained based on the acquired reference feature vector. At the stage of acquiring the representative feature vector to be used, the feature vector of the target image stored in the database is compared with the representative feature vector, and at least a part of the target images corresponds to the same attribute. It may include the stage of assigning attribute tags.

一実施形態によるイメージ検索方法は、ユーザ端末から複数の検索イメージを受信する段階と、前記複数の検索イメージに対応する特徴ベクトルを獲得する段階と、前記獲得した特徴ベクトルでもって生成モデルを訓練させる段階と、前記特徴ベクトルでもって訓練された前記生成モデルから出力される代表特徴ベクトルと、データベースに保存されたターゲットイメージの特徴ベクトルとを比較し、前記複数の検索イメージに対応するターゲットイメージを決める段階と、前記決定されたターゲットイメージを、前記ユーザ端末に伝送する段階と、を含んでもよい。 In the image search method according to one embodiment, a stage of receiving a plurality of search images from a user terminal, a stage of acquiring a feature vector corresponding to the plurality of search images, and a step of training a generative model with the acquired feature vectors. The stage, the representative feature vector output from the generated model trained by the feature vector, and the feature vector of the target image stored in the database are compared, and the target image corresponding to the plurality of search images is determined. It may include a step and a step of transmitting the determined target image to the user terminal.

一実施形態によるイメージ検索装置は、プロセッサと、少なくとも1つのプログラム、及び生成モデルを保存するメモリと、ターゲットイメージを保存するデータベースと、を含むが、前記プロセッサは、前記少なくとも1つのプログラムが実行されることにより、同一属性を含む複数の参照イメージに対応する参照特徴ベクトルを獲得し、前記獲得した参照特徴ベクトルに基づいて訓練された前記生成モデルから、前記同一属性に対応する代表特徴ベクトルを獲得し、前記ターゲットイメージの特徴ベクトルと、前記代表特徴ベクトルとを比較し、前記ターゲットイメージのうち少なくとも一部のターゲットイメージに、前記同一属性に対応する属性タグを割り当てることができる。 An image retrieval device according to an embodiment includes a processor, at least one program, a memory for storing a generation model, and a database for storing a target image, wherein the processor is executed with the at least one program. By doing so, a reference feature vector corresponding to a plurality of reference images including the same attribute is acquired, and a representative feature vector corresponding to the same attribute is acquired from the generated model trained based on the acquired reference feature vector. Then, the feature vector of the target image and the representative feature vector can be compared, and an attribute tag corresponding to the same attribute can be assigned to at least a part of the target images of the target images.

他の実施形態によるイメージ検索方法は、イメージ検索装置に接続して属性を選択する段階と、前記イメージ検索装置に保存されたターゲットイメージのうち、前記選択した属性に対応する属性タグが割り当てられたターゲットイメージを、前記イメージ検索装置から受信する段階と、を含むが、前記イメージ検索装置に保存されたターゲットイメージは、複数の属性それぞれに対応する代表特徴ベクトルと、前記ターゲットイメージの特徴ベクトルとの比較結果に基づいて、前記複数の属性に対応する複数の属性タグのうち少なくとも一部の属性タグが割り当てられる。 In the image search method according to another embodiment, a step of connecting to an image search device and selecting an attribute and an attribute tag corresponding to the selected attribute among the target images stored in the image search device are assigned. The target image stored in the image search device includes a step of receiving the target image from the image search device, and the target image stored in the image search device includes a representative feature vector corresponding to each of a plurality of attributes and a feature vector of the target image. Based on the comparison result, at least a part of the attribute tags corresponding to the plurality of attributes is assigned.

本発明の一実施形態によるイメージ検索装置及びその方法は、データベースに保存されたイメージに対する属性タグの割り当てを簡便に行うことができる。 The image search device according to the embodiment of the present invention and the method thereof can easily assign attribute tags to images stored in a database.

また、本発明の一実施形態によるイメージ検索装置及びその方法は、代表特徴ベクトルを利用し、ユーザが所望する種類のイメージをさらに正確に検索するようにできる。 Further, the image search device and the method thereof according to the embodiment of the present invention can use the representative feature vector to search the image of the kind desired by the user more accurately.

ただし、本発明の一実施形態によるイメージ検索装置及びその方法が達成することができる効果は、前述のところに制限されるものではなく、言及されていない他の効果は、以下の記載から、本開示が属する技術分野で当業者に明確に理解されるであろう。 However, the effects that can be achieved by the image search device and the method thereof according to one embodiment of the present invention are not limited to those described above, and other effects not mentioned are described in the following description. It will be clearly understood by those skilled in the art in the technical field to which the disclosure belongs.

一実施形態によるイメージ検索装置及びユーザ端末を図示する図面である。It is a drawing which illustrates the image search apparatus and the user terminal by one Embodiment. 一実施形態による属性タグの割り当て方法について説明するためのフローチャートである。It is a flowchart for demonstrating the method of allocating the attribute tag by one Embodiment. 生成モデルから代表特徴ベクトルを獲得する方法について説明するための図面である。It is a drawing for demonstrating the method of acquiring the representative feature vector from a generative model. ターゲットイメージに対する属性タグの割り当て方法について説明するための例示的な図面である。It is an exemplary drawing for demonstrating the method of assigning an attribute tag to a target image. ユーザが属性を選択することができるようにするUI(user interface)画面を図示する図面である。It is a drawing which illustrates the UI (user interface) screen which allows a user to select an attribute. 一実施形態によるイメージ検索方法について説明するためのフローチャートである。It is a flowchart for demonstrating the image search method by one Embodiment. 他の実施形態によるイメージ検索方法について説明するためのフローチャートである。It is a flowchart for demonstrating the image search method by another embodiment. 検索イメージから抽出される属性別特徴ベクトルを示す図面である。It is a drawing which shows the feature vector by attribute extracted from the search image. 検索イメージの属性別特徴ベクトルのうち少なくとも一つを、代表特徴ベクトルに交換する方法について説明するための図面である。It is a drawing for demonstrating the method of exchanging at least one of the attribute-specific feature vectors of a search image with a representative feature vector. 検索イメージの属性別特徴ベクトルと、ターゲットイメージの属性別特徴ベクトルと、を比較する方法について説明するための図面である。It is a drawing for demonstrating the method of comparing the attribute-specific feature vector of a search image, and the attribute-specific feature vector of a target image. 複数のオブジェクトを含む検索イメージを図示する例示的な図面である。It is an exemplary drawing which illustrates the search image which contains a plurality of objects. 図11に図示された検索イメージの特徴ベクトルシーケンスのうち少なくとも一つを、代表特徴ベクトルに交換する方法について説明するための図面である。11 is a drawing for explaining a method of exchanging at least one of the feature vector sequences of the search image shown in FIG. 11 for a representative feature vector. 図11に図示された検索イメージに対応する検索結果イメージを図示する例示的な図面である。FIG. 11 is an exemplary drawing illustrating a search result image corresponding to the search image illustrated in FIG. 一実施形態によるイメージ検索装置の構成を図示するブロック図である。It is a block diagram which illustrates the structure of the image search apparatus by one Embodiment.

本開示は、多様な変更を加えることができ、さまざまな実施形態を有することができるが、特定実施形態を図面に例示し、それを詳細な説明を介して説明する。しかし、それは、本開示を特定の実施形態について限定するものではなく、本開示の思想及び技術範囲に含まれる全ての変更、均等物あるいは代替物を含むものであると理解されなければならない。 Although various modifications can be made and various embodiments can be included in the present disclosure, specific embodiments are illustrated in the drawings, which will be described in detail. However, it should be understood that the present disclosure is not limited to a particular embodiment and includes all modifications, equivalents or alternatives contained within the ideas and technical scope of the present disclosure.

本実施形態についての説明において、関連公知技術についての具体的な説明が要旨を必要以上に不明確にすると判断される場合、その詳細な説明を省略する。また、本実施形態の説明過程において利用される数あるいは序数(例えば、第1、第2など)は、1つの構成要素を他の構成要素と区分するための識別記号に過ぎない。 In the description of the present embodiment, if it is determined that the specific description of the related publicly known technology makes the gist unnecessarily unclear, the detailed description thereof will be omitted. Further, the number or ordinal number (for example, first, second, etc.) used in the description process of the present embodiment is merely an identification symbol for distinguishing one component from another component.

また、本明細書において、一構成要素が他の構成要素と「連結されている」としたり「接続されている」としたりして言及されたときには、前記一構成要素が前記他の構成要素と直接連結されるか、あるいは直接接続されてもいるが、特に反対となる記載が存在しない以上、中間に他の構成要素を媒介させて連結されるか、あるいは接続されもすると理解されなければならないのである。 Further, in the present specification, when one component is referred to as being "connected" or "connected" to another component, the one component is referred to as the other component. It must be understood that they are directly connected or even directly connected, but are connected or even connected via other components in the middle, as long as there is no particular opposite statement. It is.

また、本明細書において、「~部(ユニット)」、「モジュール」と表現される構成要素は、2個以上の構成要素が1つの構成要素に合わされるか、あるいは1つの構成要素がさらに細分化された機能別に2個以上に分化されもする。また、以下で説明する構成要素それぞれは、自体が担当する株機能以外にも、他の構成要素が担当する機能のうち一部または全部をさらに遂行することもでき、構成要素それぞれが担当する主機能のうち一部機能が他の構成要素によって専担されても遂行されるということは言うまでもない。 Further, in the present specification, the components expressed as "-part (unit)" and "module" are such that two or more components are combined into one component, or one component is further subdivided. It is also differentiated into two or more according to the converted functions. In addition to the stock functions that each component is in charge of, each of the components described below can also perform some or all of the functions that other components are in charge of, and each component is in charge of the main. It goes without saying that some of the functions are performed even if they are exclusively occupied by other components.

以下、本開示の技術的思想による実施形態について順に詳細に説明する。 Hereinafter, embodiments based on the technical ideas of the present disclosure will be described in detail in order.

図1は、一実施形態によるイメージ検索装置100及びユーザ端末10を図示する図面である。 FIG. 1 is a drawing illustrating an image search device 100 and a user terminal 10 according to an embodiment.

ユーザ端末10は、イメージ検索装置100に、検索条件(例えば、検索イメージ、属性など)を選択または入力して伝送し、イメージ検索装置100は、検索条件に対応する検索結果イメージを、ユーザ端末10に伝送する。一実施形態において、イメージ検索装置100は、検索条件に対応する検索結果イメージを決定するためのターゲットイメージをデータベースに保存することができる。イメージ検索装置100は、ターゲットイメージのうち検索条件に対応するターゲットイメージを、検索結果イメージとしてユーザ端末10に伝送することができる。 The user terminal 10 selects or inputs a search condition (for example, a search image, an attribute, etc.) to the image search device 100 and transmits the image, and the image search device 100 transmits a search result image corresponding to the search condition to the user terminal 10. To transmit to. In one embodiment, the image search device 100 can store a target image for determining a search result image corresponding to the search condition in the database. The image search device 100 can transmit the target image corresponding to the search condition among the target images to the user terminal 10 as a search result image.

ユーザ端末10は、ネットワークを介して、イメージ検索装置100に接続することができるデスクトップPC(personal computer)、タブレット、スマートフォン、ノート型パソコンなどを含んでもよいが、それらに限定されるものではない。 The user terminal 10 may include, but is not limited to, a desktop PC (personal computer), a tablet, a smartphone, a notebook computer, and the like that can be connected to the image search device 100 via a network.

一実施形態において、イメージ検索装置100及びユーザ端末10は、ネットワークを介して互いに連結され、互いにデータを送受信することができる。ここで、該ネットワークは、有線ネットワークと無線ネットワークとを含んでもよく、具体的には、近距離ネットワーク(LAN:local area network)、都市圏ネットワーク(MAN:metropolitan area network)、広域ネットワーク(WAN:wide area network)のような多様なネットワークを含んでもよい。また、ネットワーク10は、公知のワールドワイドウェブ(WWW:worldwide web)を含んでもよい。しかし、本発明によるネットワーク10は、前記列挙されたネットワークに限られるものではなく、公知の無線データネットワークや公知の電話ネットワーク、公知の有無線テレビネットワークを少なくとも一部として含んでもよい。 In one embodiment, the image search device 100 and the user terminal 10 are connected to each other via a network and can transmit and receive data to and from each other. Here, the network may include a wired network and a wireless network, and specifically, a short-range network (LAN: local area network), a metropolitan area network (MAN: metropolitan area network), and a wide area network (WAN:). It may include various networks such as wide area network). Further, the network 10 may include a known worldwide web (WWW: worldwide web). However, the network 10 according to the present invention is not limited to the networks listed above, and may include a known wireless data network, a known telephone network, and a known known wireless television network as at least a part thereof.

一実施形態によるイメージ検索装置100は、あらかじめ保存されたターゲットイメージに対して属性タグを割り当てることができる。本明細書において、「属性」とは、イメージに含まれたオブジェクトの特徴を意味する。前記属性は、カテゴリー別に区分される。例えば、ある衣類は、色相カテゴリーに属した赤色の属性、柄カテゴリーに属した縞模様属性、形状カテゴリーに属したワンピース属性を有することができる。また、本明細書において、「属性タグ」とは、イメージ内オブジェクトの特徴を示すためにイメージに割り当てられた情報を意味する。例えば、ある衣類の属性タグは、当該衣類の色相が赤色であり、柄は、縞模様で、形状は、ワンピースであるということ示すことができる。 The image search device 100 according to one embodiment can assign an attribute tag to a target image stored in advance. As used herein, the term "attribute" means the characteristics of the objects contained in the image. The attributes are classified by category. For example, a piece of clothing can have a red attribute that belongs to the hue category, a striped pattern attribute that belongs to the pattern category, and a one-piece attribute that belongs to the shape category. Further, in the present specification, the “attribute tag” means information assigned to an image to indicate the characteristics of an object in the image. For example, an attribute tag of a piece of clothing can indicate that the hue of the piece of clothing is red, the pattern is striped, and the shape is one piece.

イメージ検索装置100が、ターゲットイメージに対して属性タグを割り当てる方法について、図2を参照して説明する。 A method of assigning an attribute tag to a target image by the image search device 100 will be described with reference to FIG.

図2は、一実施形態による属性タグの割り当て方法について説明するためのフローチャートである。 FIG. 2 is a flowchart for explaining a method of assigning attribute tags according to an embodiment.

S210段階において、イメージ検索装置100は、同一属性を有しているか、あるいは同一属性タグが割り当てられた複数の参照イメージに対応する参照特徴ベクトルを獲得する。一実施形態において、管理者は、複数の参照イメージに対して、同一属性タグを割り当てることができる。例えば、複数の参照イメージに対して、「赤色」、「串柄」または「女性に人気ある衣類」のような同一属性タグが割り当てられる。 At the stage S210, the image search device 100 acquires reference feature vectors corresponding to a plurality of reference images having the same attribute or to which the same attribute tag is assigned. In one embodiment, the administrator can assign the same attribute tag to a plurality of reference images. For example, multiple reference images are assigned the same attribute tag, such as "red," "skewers," or "clothes popular with women."

複数の参照イメージに対応する参照特徴ベクトルは、マシンラーニングモデルによって出力されたものであってもよい。前記マシンラーニングモデルは、例えば、CNN(convolutional neural network)を含んでもよい。また、該参照特徴ベクトルは、N(Nは、1以上の整数である)次元のデータであってもよい。一実施形態において、複数の参照イメージに対応する参照特徴ベクトルは、マシンラーニングモデルによって出力された後、後処理(post processing)を介して生成されたものでもある。後処理は、例えば、マシンラーニングモデルから出力された特徴ベクトルに含まれた複数の元素をサイズ基準で整列した後、上位k個の要素の特徴ベクトル内での位置を示すインデックスを獲得し、獲得したインデックスを要素として有するインデックス特徴ベクトルを、参照特徴ベクトルとして生成する処理を含んでもよい。 The reference feature vector corresponding to the plurality of reference images may be output by the machine learning model. The machine learning model may include, for example, a CNN (convolutional neural network). Further, the reference feature vector may be N (N is an integer of 1 or more) dimension data. In one embodiment, the reference feature vector corresponding to the plurality of reference images is also generated by post processing after being output by the machine learning model. In the post-processing, for example, after arranging a plurality of elements contained in the feature vector output from the machine learning model on a size basis, an index indicating the position of the upper k elements in the feature vector is acquired and acquired. It may include a process of generating an index feature vector having the index as an element as a reference feature vector.

S220段階において、イメージ検索装置100は、複数の参照イメージに対応する参照特徴ベクトルに基づいて訓練された生成モデルから、同一属性ないし同一属性タグに対応する代表特徴ベクトルを獲得する。該生成モデルは、複数の参照イメージの参照特徴ベクトルに基づいて訓練されることにより、参照特徴ベクトルと類似した代表特徴ベクトルを生成することができる。一実施形態において、生成モデルは、敵対的生成ネットワーク(GAN:generative adversarial network)を含んでもよい。 In the S220 step, the image search device 100 acquires a representative feature vector corresponding to the same attribute or the same attribute tag from the generated model trained based on the reference feature vectors corresponding to the plurality of reference images. The generative model can generate a representative feature vector similar to the reference feature vector by training based on the reference feature vectors of the plurality of reference images. In one embodiment, the generative model may include a generative adversarial network (GAN).

図3を参照すれば、生成モデル300は、参照イメージ310a,310b,310cに対応する参照特徴ベクトル320a,320b,320cによって訓練された後、例えば、ランダムノイズを入力データとして入力し、参照特徴ベクトル320a,320b,320cと類似した代表特徴ベクトルを生成することができる。一実施形態において、生成モデル300に該当するGANは,複数のFCL(fully connected layer)からなる。FCLとは、それぞれのレイヤが少なくとも1つのノードで構成されるが、あるレイヤの各ノードが、以前レイヤ及び次のレイヤに含まれた全てのノード全部と個別的に連結されたネットワーク構造である。該GANは、イメージではない参照特徴ベクトルによって訓練されるので、CNNを含む必要がなく、FCLだけで、参照特徴ベクトルと類似した代表特徴ベクトルを生成することができる。すなわち、イメージ生成のためのGANの代わりに、代表特徴ベクトル生成のための複数のFCLからなるGANが利用されることにより、訓練が迅速になされ、処理速度も、非常に速くなる。 Referring to FIG. 3, the generative model 300 is trained by the reference feature vectors 320a, 320b, 320c corresponding to the reference images 310a, 310b, 310c, and then, for example, input random noise as input data and the reference feature vector. Representative feature vectors similar to 320a, 320b, 320c can be generated. In one embodiment, the GAN corresponding to the generative model 300 is composed of a plurality of FCLs (fully connected layers). FCL is a network structure in which each layer is composed of at least one node, but each node of one layer is individually connected to all the nodes contained in the previous layer and the next layer. .. Since the GAN is trained by a reference feature vector that is not an image, it is not necessary to include a CNN, and the FCL alone can generate a representative feature vector similar to the reference feature vector. That is, by using a GAN composed of a plurality of FCLs for generating a representative feature vector instead of a GAN for image generation, training is speeded up and the processing speed is also very fast.

一実施形態において、該生成モデルは、参照特徴ベクトル元素の平均値を獲得し、獲得した平均値を元素として有する代表特徴ベクトルを生成することもできる。 In one embodiment, the generative model can also acquire an average value of a reference feature vector element and generate a representative feature vector having the acquired average value as an element.

再び図2を参照すれば、S230段階において、イメージ検索装置100は、データベースに保存されたターゲットイメージの特徴ベクトルと、代表特徴ベクトルとを比較する。一例において、イメージ検索装置100は、ターゲットイメージの特徴ベクトルそれぞれと、代表特徴ベクトルとのディスタンス(例えば、コサインディスタンス(cosine distance))を算出することができる。特徴ベクトル間の類似性を判断するために算出されるディスタンスは、公知されたものであるので、本明細書において、詳細な説明は、省略する。 Referring to FIG. 2 again, in the step S230, the image search device 100 compares the feature vector of the target image stored in the database with the representative feature vector. In one example, the image search device 100 can calculate the distance (for example, cosine distance) between each feature vector of the target image and the representative feature vector. Since the distance calculated for determining the similarity between the feature vectors is known, detailed description thereof is omitted in the present specification.

S240段階において、イメージ検索装置100は、ターゲットイメージのうち少なくとも一部のターゲットイメージに、複数の参照イメージが有している同一属性に対応する属性タグを割り当てる。一実施形態において、イメージ検索装置100は、代表特徴ベクトル対比で既設定の値以下のディスタンスを有する特徴ベクトルに対応するターゲットイメージに、同一属性に対応する属性タグを割り当てることができる。 At the stage S240, the image search device 100 assigns an attribute tag corresponding to the same attribute possessed by the plurality of reference images to at least a part of the target images among the target images. In one embodiment, the image search device 100 can assign an attribute tag corresponding to the same attribute to a target image corresponding to a feature vector having a distance equal to or less than a preset value in comparison with a representative feature vector.

図4は、ターゲットイメージに対する属性タグ割り当て方法について説明するための図面であり、図4を参照すれば、ターゲットイメージ410a,420a,430aの特徴ベクトル410b,420b,430bそれぞれと、代表特徴ベクトルとの比較結果により、第1ターゲットイメージ410a及び第2ターゲットイメージ420aに「ジグザグ柄」の属性タグ410c,420cが割り当てられ、第3ターゲットイメージ430aには、「パーガンディ色相」の属性タグ430cが割り当てられる。図4は、1つのターゲットイメージに1つの属性タグが割り当てられるように図示しているが、1つのターゲットイメージに複数の属性タグが割り当てられてもよい。 FIG. 4 is a drawing for explaining a method of assigning an attribute tag to a target image. With reference to FIG. 4, the feature vectors 410b, 420b, 430b of the target images 410a, 420a, 430a and the representative feature vector are shown. According to the comparison result, the attribute tags 410c and 420c of the "zigzag pattern" are assigned to the first target image 410a and the second target image 420a, and the attribute tag 430c of the "pergandy hue" is assigned to the third target image 430a. Although FIG. 4 is shown so that one attribute tag is assigned to one target image, a plurality of attribute tags may be assigned to one target image.

一実施形態によれば、相対的に少数の参照イメージに基づいて、多量のターゲットイメージに対して属性タグを割り当てることができるので、管理者が一つ一つデータベースに保存されたターゲットイメージに対して属性タグを割り当てる必要がなくなる。 According to one embodiment, attribute tags can be assigned to a large number of target images based on a relatively small number of reference images, so that the administrator can assign attribute tags to each target image stored in the database. Eliminates the need to assign attribute tags.

また、一実施形態によれば、新たな属性の開発、流行などにより、ターゲットイメージに新たな属性タグを割り当てる必要が発生した場合にも、速かに新たな属性タグをターゲットイメージに割り当てることができる。例えば、管理者によって新たな属性を有する少数の参照イメージが選択されれば、イメージ検索装置100は、選択された参照イメージの参照特徴ベクトルでもって生成モデルを訓練させ、生成モデルから出力される代表特徴ベクトルと、ターゲットイメージの特徴ベクトルの比較結果により、ターゲットイメージに対し、新たな属性に対応する属性タグを割り当てることができる。 Further, according to one embodiment, even when it becomes necessary to assign a new attribute tag to the target image due to the development of a new attribute, fashion, etc., the new attribute tag can be quickly assigned to the target image. can. For example, if the administrator selects a small number of reference images with new attributes, the image search device 100 trains the generative model with the reference feature vector of the selected reference image, and the representative output from the generative model. Based on the comparison result between the feature vector and the feature vector of the target image, the attribute tag corresponding to the new attribute can be assigned to the target image.

図5は、ユーザが属性を選択することができるようにするユーザインターフェース(UI)画面500を図示する図面である。 FIG. 5 is a drawing illustrating a user interface (UI) screen 500 that allows the user to select attributes.

前述のように、データベースに保存されたターゲットイメージに対し、属性タグが割り当てられれば、ユーザは、ユーザ端末10のディスプレイに表示されたUI画面500において、特定属性を選択され行えば、簡便にイメージ検索が可能である。 As described above, if the attribute tag is assigned to the target image stored in the database, the user can easily select the specific attribute on the UI screen 500 displayed on the display of the user terminal 10. Search is possible.

図5を参照すれば、ユーザ端末10のディスプレイに検索画面500が表示されれば、ユーザは、検索画面500において、特定カテゴリー(例えば、パターン)520に属した多くの属性530のうち一部(例えば、チェック)を選択することにより、当該属性に対応する属性タグが割り当てられたターゲットイメージを、検索結果に受信することができる。 Referring to FIG. 5, if the search screen 500 is displayed on the display of the user terminal 10, the user can use a part of the many attributes 530 belonging to the specific category (for example, pattern) 520 on the search screen 500 (for example, a pattern). For example, by selecting (check), the target image to which the attribute tag corresponding to the attribute is assigned can be received in the search result.

イメージ検索装置100は、データベースに保存されたターゲットイメージのうち、ユーザ端末10によって選択された属性に対応するタグが割り当てられたターゲットイメージを、検索結果イメージとして、ユーザ端末10に伝送することができる。 The image search device 100 can transmit to the user terminal 10 as a search result image a target image to which a tag corresponding to the attribute selected by the user terminal 10 is assigned among the target images stored in the database. ..

具現例として、ユーザは、検索画面500に、属性として検索語510を入力することもできる。イメージ検索装置100は、データベースに保存されたターゲットイメージのうち、検索語510に対応する属性と係わる属性タグを有するターゲットイメージを、検索結果イメージとしてユーザ端末10に伝送することができる。 As an embodiment, the user can also input the search term 510 as an attribute on the search screen 500. Among the target images stored in the database, the image search device 100 can transmit the target image having the attribute tag related to the attribute corresponding to the search term 510 to the user terminal 10 as the search result image.

一実施形態において、イメージ検索装置100は、ユーザ端末10によって選択された属性に対応する代表特徴ベクトルと、データベースに保存されたターゲットイメージの特徴ベクトルとを比較し、代表特徴ベクトルと同一であるか、あるいは類似した特徴ベクトルに対応するターゲットイメージを、検索結果イメージとして、ユーザ端末10に伝送することができる。イメージ検索装置100は、代表特徴ベクトルとの間で既設定の値以下であるディスタンスを有する特徴ベクトルに対応するターゲットイメージを検索結果イメージとしてユーザ端末10に伝送することができる。 In one embodiment, the image search device 100 compares the representative feature vector corresponding to the attribute selected by the user terminal 10 with the feature vector of the target image stored in the database, and is it the same as the representative feature vector? , Or a target image corresponding to a similar feature vector can be transmitted to the user terminal 10 as a search result image. The image search device 100 can transmit a target image corresponding to a feature vector having a distance equal to or less than a preset value with the representative feature vector to the user terminal 10 as a search result image.

代表特徴ベクトルとの比較対象になる特徴ベクトルは、代表特徴ベクトルを出力する生成モデルを訓練させるのに利用された参照特徴ベクトルを、いかなる種類のマシンラーニングモデルが出力したかということによって相違し得る。例えば、生成モデルを訓練させるのに利用した参照特徴ベクトルが、従属(dependant)モデルによって出力された場合、比較対象になるターゲットイメージの特徴ベクトルも、従属モデルによって出力されたものでもある。該従属モデルは、特定カテゴリーの属性に対応する特徴ベクトルを出力するように訓練されたマシンラーニングモデルを意味する。例えば、該従属モデルは、色相カテゴリー専用のモデル、柄カテゴリー専用のモデルなどを含んでもよい。管理者は、ターゲットイメージに対して、色相属性のタグを割り当てる場合、参照イメージを、色相カテゴリー専用モデルに入力させ、参照イメージに対応する参照特徴ベクトルを獲得し、獲得した参照特徴ベクトルでもって生成モデルを訓練させることができる。 The feature vector to be compared with the representative feature vector can differ depending on what kind of machine learning model outputs the reference feature vector used to train the generative model that outputs the representative feature vector. .. For example, if the reference feature vector used to train the generative model is output by the dependent model, then the feature vector of the target image to be compared is also output by the dependent model. The dependent model means a machine learning model trained to output feature vectors corresponding to a particular category of attributes. For example, the dependent model may include a model dedicated to the hue category, a model dedicated to the pattern category, and the like. When assigning a hue attribute tag to a target image, the administrator inputs the reference image into the model dedicated to the hue category, acquires the reference feature vector corresponding to the reference image, and generates it with the acquired reference feature vector. You can train the model.

また、生成モデルを訓練させるのに利用した特徴ベクトルが、独立(independent)モデルによって出力された場合、比較対象になるターゲットイメージの特徴ベクトルも、独立モデルによって出力されたものでもある。該独立モデルは、属性のカテゴリーと無関係な特徴ベクトルを出力するように訓練されたマシンラーニングモデルを意味する。 Further, when the feature vector used for training the generative model is output by the independent model, the feature vector of the target image to be compared is also output by the independent model. The independent model means a machine learning model trained to output feature vectors independent of attribute categories.

図6は、一実施形態によるイメージ検索方法について説明するためのフローチャートである。 FIG. 6 is a flowchart for explaining an image search method according to an embodiment.

S610段階において、イメージ検索装置100は、ユーザ端末10から複数の検索イメージを受信する。イメージ検索装置100は、ユーザ端末10から、ネットワークを介して、複数の検索イメージを直接受信することもでき、ユーザ端末10から、複数の検索イメージを特定することができる情報(例えば、複数の検索イメージが保存されたURL、複数の検索イメージの識別情報など)を受信し、受信された情報に基づいて、複数の検索イメージを獲得することもできる。 At the stage S610, the image search device 100 receives a plurality of search images from the user terminal 10. The image search device 100 can also directly receive a plurality of search images from the user terminal 10 via the network, and information capable of identifying the plurality of search images from the user terminal 10 (for example, a plurality of searches). It is also possible to receive a URL in which an image is stored, identification information of a plurality of search images, etc., and acquire a plurality of search images based on the received information.

S620段階において、イメージ検索装置100は、複数の検索イメージに対応する特徴ベクトルを獲得する。イメージ検索装置100は、マシンラーニングモデルに複数の検索イメージを入力させ、マシンラーニングモデルから出力される特徴ベクトルを獲得することができる。前記マシンラーニングモデルは、従属モデルまたは独立モデルでもある。 At the stage S620, the image search device 100 acquires feature vectors corresponding to a plurality of search images. The image search device 100 can input a plurality of search images to the machine learning model and acquire the feature vector output from the machine learning model. The machine learning model is also a dependent model or an independent model.

S630段階において、イメージ検索装置100は、複数の検索イメージに対応する特徴ベクトルでもって生成モデルを訓練させる。生成モデルがGANである場合、GANは、生成器(generator)と区別器(discriminator)との相互作用を基に、訓練データと類似したデータを生成するように訓練される。 At the S630 stage, the image search device 100 trains the generative model with feature vectors corresponding to a plurality of search images. When the generative model is GAN, the GAN is trained to generate data similar to the training data based on the interaction between the generator and the discriminator.

S640段階において、イメージ検索装置100は、複数の検索イメージの特徴ベクトルでもって訓練された生成モデルから出力される代表特徴ベクトルと、ターゲットイメージの特徴ベクトルとを比較する。イメージ検索装置100は、ターゲットイメージの特徴ベクトルそれぞれと、代表特徴ベクトルとのディスタンスを算出することができる。 In the S640 step, the image search device 100 compares the representative feature vector output from the generated model trained with the feature vectors of the plurality of search images with the feature vector of the target image. The image search device 100 can calculate the distance between each feature vector of the target image and the representative feature vector.

前述のように、代表特徴ベクトルとの比較対象になる特徴ベクトルは、代表特徴ベクトルを出力する生成モデルを訓練させるのに利用された特徴ベクトルが、いかなる種類のマシンラーニングモデルによって出力されたかということによっても異なる。 As mentioned above, the feature vector to be compared with the representative feature vector is what kind of machine learning model output the feature vector used to train the generative model that outputs the representative feature vector. It also depends on.

S650段階において、イメージ検索装置100は、データベースに保存されたターゲットイメージのうち、複数の検索イメージに対応するターゲットイメージを検索結果イメージとしてユーザ端末10に伝送する。 At the S650 stage, the image search device 100 transmits the target images corresponding to the plurality of search images among the target images stored in the database to the user terminal 10 as search result images.

イメージ検索装置100は、代表特徴ベクトルとの間で既設定の値以下のディスタンスを有する特徴ベクトルに対応するターゲットイメージを、検索結果イメージとしてユーザ端末10に伝送することができる。 The image search device 100 can transmit a target image corresponding to a feature vector having a distance equal to or less than a preset value with the representative feature vector to the user terminal 10 as a search result image.

図6に図示された実施形態によれば、例えば、ユーザが、自分の趣向に符合する複数の検索イメージを選択すれば、イメージ検索装置100は、ユーザの趣向に符合する検索イメージ以外の他のイメージを、検索結果として提供することができる。 According to the embodiment illustrated in FIG. 6, for example, if the user selects a plurality of search images that match his / her taste, the image search device 100 uses the image search device 100 other than the search images that match the user's taste. The image can be provided as a search result.

図7は、他の実施形態によるイメージ検索方法について説明するためのフローチャートである。 FIG. 7 is a flowchart for explaining an image search method according to another embodiment.

S710段階において、イメージ検索装置100は、ユーザ端末10から検索イメージを受信する。イメージ検索装置100は、ユーザ端末10から、ネットワークを介して、検索イメージを直接受信することもでき、ユーザ端末10から、検索イメージを特定することができる情報(例えば、検索イメージが保存されたURL、検索イメージの識別情報など)を受信し、受信された情報に基づいて、検索イメージを獲得することもできる。 At the S710 stage, the image search device 100 receives the search image from the user terminal 10. The image search device 100 can also directly receive the search image from the user terminal 10 via the network, and the information that can identify the search image from the user terminal 10 (for example, the URL in which the search image is stored) is stored. , The identification information of the search image, etc.) is received, and the search image can be acquired based on the received information.

S720段階において、イメージ検索装置100は、検索イメージの属性別特徴ベクトルを獲得する。イメージ検索装置100は、複数の従属モデルそれぞれに検索イメージを入力させ、複数の従属モデルから出力される特徴ベクトルを獲得することができる。例えば、図8に図示されているように、検索イメージ810を、第1従属モデル821に入力させ、第1属性(例えば、色相属性)に対応する特徴ベクトル831を獲得し、検索イメージ810を、第2従属モデル823に入力させ、第2属性(例えば、柄属性)に対応する特徴ベクトル833を獲得し、検索イメージ810を、第3従属モデル825に入力させ、第3属性(例えば、形状属性)に対応する特徴ベクトル835を獲得することができる。 At the stage S720, the image search device 100 acquires the attribute-specific feature vector of the search image. The image search device 100 can input a search image to each of a plurality of dependent models and acquire feature vectors output from the plurality of dependent models. For example, as shown in FIG. 8, the search image 810 is input to the first dependent model 821, the feature vector 831 corresponding to the first attribute (for example, the hue attribute) is acquired, and the search image 810 is obtained. The second dependent model 823 is input to acquire the feature vector 833 corresponding to the second attribute (for example, the pattern attribute), the search image 810 is input to the third dependent model 825, and the third attribute (for example, the shape attribute) is input. ) Corresponding to the feature vector 835 can be obtained.

一実施形態において、ユーザ端末10から受信された検索イメージが2個である場合、いずれか1つの検索イメージを第1従属モデル821に入力させ、第1属性に対応する特徴ベクトルを獲得し、他の1つの検索イメージを、第2従属モデル823及び第3従属モデル825に入力させ、第2属性に対応する特徴ベクトルと、第3属性に対応する特徴ベクトルとを獲得することもできる。 In one embodiment, when the number of search images received from the user terminal 10 is two, any one of the search images is input to the first dependent model 821, the feature vector corresponding to the first attribute is acquired, and the other. It is also possible to input one search image of the above into the second dependent model 823 and the third dependent model 825, and acquire the feature vector corresponding to the second attribute and the feature vector corresponding to the third attribute.

他の実施形態において、ユーザ端末10から受信された検索イメージが3個である場合、いずれか1つの検索イメージを第1従属モデル821に入力させ、第1属性に対応する特徴ベクトルを獲得し、他の1つの検索イメージを第2従属モデル823に入力させ、第2属性に対応する特徴ベクトルを獲得し、さらに他の1つの検索イメージを第3従属モデル825に入力させ、第3属性に対応する特徴ベクトルを獲得することもできる。 In another embodiment, when the number of search images received from the user terminal 10 is three, any one of the search images is input to the first dependent model 821, and the feature vector corresponding to the first attribute is acquired. The other one search image is input to the second dependent model 823 to acquire the feature vector corresponding to the second attribute, and the other search image is input to the third dependent model 825 to correspond to the third attribute. It is also possible to acquire the feature vector to be used.

すなわち、イメージ検索装置100は、複数の検索イメージに対応する特徴ベクトルを組み合わせ、属性別特徴ベクトルを獲得することができる。 That is, the image search device 100 can combine feature vectors corresponding to a plurality of search images to acquire attribute-specific feature vectors.

図8は、属性別特徴ベクトルを抽出するために、3個の従属モデル821,823,825が利用されるように図示されているが、それは、1つの例示であるにすぎず、検索イメージとして、多様な個数の属性の特徴ベクトルを抽出するための多様な個数の従属モデルが利用され得る。 FIG. 8 is illustrated such that three dependent models 821,823,825 are used to extract attribute-specific feature vectors, but this is only an example and as a search image. , Various numbers of dependent models can be used to extract feature vectors of various numbers of attributes.

再び図7を参照すれば、S730段階において、イメージ検索装置100は、属性別特徴ベクトルのうち、ユーザ端末10によって選択された属性の特徴ベクトルを、ユーザ端末10によって選択された属性に対応する代表特徴ベクトルに変更する。ユーザは、代表特徴ベクトルに変更する属性を、ユーザ端末10を介して選択することができる。ユーザ端末10は、検索イメージに含まれたオブジェクトの属性のうち、変更する属性(例えば、色相属性)と、変更する属性の代わりとなる他の属性とを選択することができる。それに対応し、イメージ検索装置100は、属性別特徴ベクトルのうちユーザ端末10によって選択された属性の特徴ベクトルを、他の属性に対応する代表特徴ベクトルに変更することができる。 Referring to FIG. 7 again, in the S730 stage, the image search device 100 uses the feature vector of the attribute selected by the user terminal 10 among the attribute-specific feature vectors as a representative corresponding to the attribute selected by the user terminal 10. Change to a feature vector. The user can select the attribute to be changed to the representative feature vector via the user terminal 10. The user terminal 10 can select an attribute to be changed (for example, a hue attribute) and another attribute to be replaced with the attribute to be changed among the attributes of the objects included in the search image. Correspondingly, the image search device 100 can change the feature vector of the attribute selected by the user terminal 10 among the feature vectors for each attribute to the representative feature vector corresponding to the other attribute.

例えば、図9に図示されているように、第1属性の特徴ベクトル831、第2属性の特徴ベクトル833、及び第3属性の特徴ベクトル835において、ユーザ端末10によって選択された第2属性の特徴ベクトル833を、代表特徴ベクトル933に交換することができる。ここで、代表特徴ベクトル933は、第2属性専用の従属モデル823から出力される参照特徴ベクトルでもって訓練された生成モデルから出力された特徴ベクトルでもある。 For example, as shown in FIG. 9, in the feature vector 831 of the first attribute, the feature vector 833 of the second attribute, and the feature vector 835 of the third attribute, the feature of the second attribute selected by the user terminal 10 The vector 833 can be exchanged for the representative feature vector 933. Here, the representative feature vector 933 is also a feature vector output from the generative model trained with the reference feature vector output from the dependent model 823 dedicated to the second attribute.

S740段階において、イメージ検索装置100は、代表特徴ベクトルを含む属性別特徴ベクトルと、データベースに保存されたターゲットイメージの属性別特徴ベクトルとを比較する。ここで、データベースに保存されたターゲットイメージの属性別特徴ベクトルは、従属モデルから出力されたものでもある。 At the stage S740, the image search device 100 compares the attribute-specific feature vector including the representative feature vector with the attribute-specific feature vector of the target image stored in the database. Here, the attribute-specific feature vector of the target image stored in the database is also output from the dependent model.

一実施形態において、イメージ検索装置100は、図10に図示されているように、代表特徴ベクトル933を含む属性別特徴ベクトル831,933,835と、データベースに保存されたターゲットイメージの属性別特徴ベクトル1031,1033,1035との比較にあたり、同一カテゴリーに属した属性の特徴ベクトル同士比較し、属性別ディスタンスを獲得することができる。イメージ検索装置100は、ターゲットイメージの属性別特徴ベクトル1031,1033,1035それぞれに対し、第1属性に対応するディスタンス、第2属性に対応するディスタンス、及び第3属性に対応するディスタンスを算出することができる。 In one embodiment, as shown in FIG. 10, the image search device 100 includes an attribute-specific feature vector 831, 933, 835 including a representative feature vector 933, and an attribute-specific feature vector of a target image stored in a database. In comparison with 1031, 1033, 1035, feature vectors of attributes belonging to the same category can be compared with each other to obtain a distance for each attribute. The image search device 100 calculates the distance corresponding to the first attribute, the distance corresponding to the second attribute, and the distance corresponding to the third attribute for each of the attribute-specific feature vectors 1031, 1033, 1035 of the target image. Can be done.

S750段階において、イメージ検索装置100は、データベースに保存されたターゲットイメージのうち、ユーザ端末10に伝送するターゲットイメージを、前記算出された属性別ディスタンスに基づいて決定することができる。 At the stage S750, the image search device 100 can determine the target image to be transmitted to the user terminal 10 among the target images stored in the database based on the calculated distance for each attribute.

イメージ検索装置100は、属性別ディスタンスを組み合わせた結果に基づいて、データベースに保存されたターゲットイメージのうち、代表特徴ベクトルを含む属性別特徴ベクトルと、同一であるか、あるいは類似したターゲットイメージを決定することができる。一例において、イメージ検索装置100は、属性別ディスタンスを組み合わせた結果値が大きい順に、所定個数のターゲットイメージを選択することができ、または、属性別ディスタンスを組み合わせた結果値が既設定の値以上であるターゲットイメージを選択することもできる。 The image search device 100 determines a target image that is the same as or similar to the attribute-specific feature vector including the representative feature vector among the target images stored in the database, based on the result of combining the attribute-specific distances. can do. In one example, the image search device 100 can select a predetermined number of target images in descending order of the result value of combining the distances by attribute, or when the result value of combining the distances by attribute is equal to or more than the preset value. You can also select a target image.

S760段階において、イメージ検索装置100は、S750段階で選択されたターゲットイメージを、ユーザ端末10に伝送する。 In the S760 stage, the image search device 100 transmits the target image selected in the S750 stage to the user terminal 10.

図7に図示された実施形態によれば、ユーザは、検索イメージをイメージ検索装置100に伝送し、検索イメージに含まれたオブジェクトの特定属性を他の属性に変更することにより、変更された属性に対応する検索結果を受信することができる。例えば、ユーザは、赤色及び縞模様のワンピースを含む検索イメージを、イメージ検索装置100に伝送し、赤色の代わりに青色を選択し、青色及び縞模様のワンピースを含むイメージを検索結果として受けることができるのである。 According to the embodiment illustrated in FIG. 7, the user transmits the search image to the image search device 100 and changes the specific attribute of the object included in the search image to another attribute. You can receive the search results corresponding to. For example, the user may transmit a search image containing red and striped dresses to the image search device 100, select blue instead of red, and receive an image containing blue and striped dresses as a search result. You can.

図11は、複数のオブジェクト1110,1130,1150を含む検索イメージ1100を図示する例示的な図面である。 FIG. 11 is an exemplary drawing illustrating a search image 1100 that includes a plurality of objects 1110, 1130, 1150.

一実施形態において、ユーザ端末10からイメージ検索装置100に送信される検索イメージ1100は、図11に図示されているように、複数のオブジェクト1110,1130,1150を含んでもよい。図11において、複数のオブジェクト1110,1130,1150は、上着オブジェクト1110、下衣(bottoms)オブジェクト1130及びかばんオブジェクト1150を含む。この場合、イメージ検索装置100は、複数のオブジェクト1110,1130,1150それぞれに対応する部分イメージをクロッピング(cropping)して従属モデルに入力させ、従属モデルから出力されるそれぞれのオブジェクトの属性別特徴ベクトルを獲得することができる。例えば、イメージ検索装置100は、図11に図示された検索イメージ1100から、上着オブジェクト1110の属性別特徴ベクトル、下衣オブジェクト1130の属性別特徴ベクトル、及びかばんオブジェクト1150の属性別特徴ベクトルを獲得することができる。 In one embodiment, the search image 1100 transmitted from the user terminal 10 to the image search device 100 may include a plurality of objects 1110, 1130, 1150 as shown in FIG. In FIG. 11, the plurality of objects 1110, 1130, 1150 include a coat object 1110, a bottoms object 1130, and a bag object 1150. In this case, the image search device 100 crops the partial images corresponding to each of the plurality of objects 1110, 1130, and 1150 and causes them to be input to the dependent model, and the attribute-specific feature vector of each object output from the dependent model. Can be acquired. For example, the image search device 100 acquires the attribute-specific feature vector of the coat object 1110, the attribute-specific feature vector of the undergarment object 1130, and the attribute-specific feature vector of the bag object 1150 from the search image 1100 shown in FIG. can do.

イメージ検索装置100は、検索イメージ1100に含まれた複数のオブジェクト1110,1130,1150それぞれの属性別特徴ベクトルを含む特徴ベクトルシーケンスにおいて、ユーザ端末10によって選択されたオブジェクトの特定属性の特徴ベクトルを、ユーザ端末10が選択した属性に対応する代表特徴ベクトルに変更することができる。例えば、ユーザが、図11に図示された検索イメージ1100において、かばんオブジェクト1150を選択し、かばんの色相属性を他の色相に変更する場合、イメージ検索装置100は、かばんオブジェクト1150の色相属性の特徴ベクトルの代わりに、ユーザが変更する色相に対応する代表特徴ベクトルを、特徴ベクトルシーケンスに含めることができるのである。 The image search device 100 sets the feature vector of the specific attribute of the object selected by the user terminal 10 in the feature vector sequence including the attribute-specific feature vectors of each of the plurality of objects 1110, 1130, 1150 included in the search image 1100. It can be changed to the representative feature vector corresponding to the attribute selected by the user terminal 10. For example, when the user selects the bag object 1150 in the search image 1100 illustrated in FIG. 11 and changes the hue attribute of the bag to another hue, the image search device 100 is characterized by the hue attribute of the bag object 1150. Instead of a vector, a representative feature vector corresponding to the hue changed by the user can be included in the feature vector sequence.

例えば、図12に図示されているように、第1オブジェクトの属性別特徴ベクトル1210、第2オブジェクトの属性別特徴ベクトル1220及び第3オブジェクトの属性別特徴ベクトル1230のうち、第3オブジェクト1230の第1属性の特徴ベクトル1231を、代表特徴ベクトル1241に交換することができる。 For example, as shown in FIG. 12, of the attribute-specific feature vector 1210 of the first object, the attribute-specific feature vector 1220 of the second object, and the attribute-specific feature vector 1230 of the third object, the third object 1230 is the third object. The one-attribute feature vector 1231 can be exchanged for the representative feature vector 1241.

イメージ検索装置100は、代表特徴ベクトル1241を含む特徴ベクトルシーケンス1250と、データベースに保存されたターゲットイメージの特徴ベクトルシーケンスとを比較し、検索イメージ1100に対応するターゲットイメージを決定することができる。イメージ検索装置100は、代表特徴ベクトル1241を含む特徴ベクトルシーケンス1250と、ターゲットイメージの特徴ベクトルシーケンスとを比較するのにあたり、同一オブジェクトの同一カテゴリーの属性の特徴ベクトル同士比較し、各オブジェクトに係わる属性別ディスタンスを算出し、算出されたディスタンスを基に、検索結果に該当するターゲットイメージを決定することができる。一実施形態において、イメージ検索装置100は、代表特徴ベクトル1241を含む特徴ベクトルシーケンス1250と、ターゲットイメージの特徴ベクトルシーケンスとを比較した結果として算出された各オブジェクトに係わる属性別ディスタンスを組み合わせ、組み合わせ結果値に基づいて、検索結果に該当するターゲットイメージを決定することができる。 The image search device 100 can compare the feature vector sequence 1250 including the representative feature vector 1241 with the feature vector sequence of the target image stored in the database to determine the target image corresponding to the search image 1100. The image search device 100 compares the feature vector sequence 1250 including the representative feature vector 1241 with the feature vector sequence of the target image, compares the feature vectors of the attributes of the same category of the same object, and attributes related to each object. Another distance can be calculated, and the target image corresponding to the search result can be determined based on the calculated distance. In one embodiment, the image search device 100 combines the attribute-specific distances related to each object calculated as a result of comparing the feature vector sequence 1250 including the representative feature vector 1241 with the feature vector sequence of the target image, and the combination result. Based on the value, the target image corresponding to the search result can be determined.

一実施形態において、イメージ検索装置100は、検索結果として選択されたターゲットイメージを、ユーザ端末10に伝送することができる。 In one embodiment, the image search device 100 can transmit the target image selected as the search result to the user terminal 10.

他の実施形態において、イメージ検索装置100は、検索結果として選択されたターゲットイメージ内において、ユーザ端末10が選択したオブジェクトに対応する部分イメージを抽出し、抽出された部分イメージを検索イメージに合成し、検索結果として、ユーザ端末10に伝送することもできる。例えば、図11及び図13に図示されているように、イメージ検索装置100は、検索イメージ1100において、かばんオブジェクト1150を含む部分を、ターゲットイメージ内かばんオブジェクトを含む部分イメージ1311,1321,1331に交換した合成イメージ1310,1320,1330を、検索結果イメージとして、ユーザ端末10に伝送することができる。 In another embodiment, the image search device 100 extracts a partial image corresponding to the object selected by the user terminal 10 in the target image selected as the search result, and synthesizes the extracted partial image into the search image. As a search result, it can also be transmitted to the user terminal 10. For example, as shown in FIGS. 11 and 13, the image search device 100 replaces the portion including the bag object 1150 in the search image 1100 with the partial images 1311, 1321, 1331 including the bag object in the target image. The combined images 1310, 1320, and 1330 can be transmitted to the user terminal 10 as search result images.

ユーザは複数のオブジェクトを含む検索イメージを、イメージ検索装置100に伝送し、自らの趣向に符合するコーディネーションスタイルを検索結果を介して、容易に把握することができる。 The user can transmit a search image including a plurality of objects to the image search device 100, and easily grasp the coordination style that matches his / her taste through the search result.

図14は、一実施形態によるイメージ検索装置100の構成を図示するブロック図である。 FIG. 14 is a block diagram illustrating the configuration of the image search device 100 according to the embodiment.

図14を参照すれば、一実施形態に他のイメージ検索装置100は、メモリ1410、データベース1430、通信部1450及びプロセッサ1470を含んでもよい。 Referring to FIG. 14, another image retrieval device 100 may include a memory 1410, a database 1430, a communication unit 1450 and a processor 1470 in one embodiment.

メモリ1410は、少なくとも1つのプログラムを保存する。メモリ1410、データベース1430、通信部1450及びプロセッサ1470は、少なくとも1つのプログラムによって動作することができる。また、メモリ1410は、代表特徴ベクトルを生成するための生成モデルをさらに保存することができる。また、メモリ1410は、特徴ベクトル抽出のためのマシンラーニングモデルをさらに保存することができる。 Memory 1410 stores at least one program. The memory 1410, the database 1430, the communication unit 1450 and the processor 1470 can be operated by at least one program. In addition, the memory 1410 can further store a generative model for generating a representative feature vector. In addition, the memory 1410 can further store a machine learning model for feature vector extraction.

データベース1430は、ターゲットイメージ、及びターゲットイメージの特徴ベクトルを保存する。該ターゲットイメージの特徴ベクトルは、マシンラーニングモデルによって出力されたものでもある。例えば、該ターゲットイメージの特徴ベクトルは、従属モデルによって出力されたものを含んでもよく、独立モデルによって出力されたものを含んでもよい。また、複数のオブジェクトを含むターゲットイメージに対し、前記特徴ベクトルは、それぞれのオブジェクトの属性別特徴ベクトルを含む特徴ベクトルシーケンスを含んでもよい。一実施形態において、データベース1430は、ハードディスク(HDD)、SSDなどの保存装置からもなる。 Database 1430 stores the target image and the feature vector of the target image. The feature vector of the target image is also output by the machine learning model. For example, the feature vector of the target image may include the one output by the dependent model or may include the one output by the independent model. Further, for a target image including a plurality of objects, the feature vector may include a feature vector sequence including the attribute-specific feature vectors of the respective objects. In one embodiment, the database 1430 also comprises a storage device such as a hard disk (HDD) or SSD.

通信部1450は、ユーザ端末10とデータ送受信をする。通信部1450は、ユーザ端末10から検索条件を受信し、検索条件に対応する検索結果、例えば、検索結果イメージをユーザ端末10に伝送する。 The communication unit 1450 transmits / receives data to / from the user terminal 10. The communication unit 1450 receives the search condition from the user terminal 10 and transmits the search result corresponding to the search condition, for example, the search result image to the user terminal 10.

プロセッサ1470は、同一属性を有するか、あるいは同一属性タグが割り当てられた複数の参照イメージに対応する参照特徴ベクトルを獲得し、参照特徴ベクトルに基づいて訓練された生成モデルから、同一属性ないし同一属性タグに対応する代表特徴ベクトルを獲得し、ターゲットイメージの特徴ベクトルと代表特徴ベクトルとを比較し、ターゲットイメージのうち少なくとも一部のターゲットイメージに、同一属性に対応する属性タグを割り当てることができる。 The processor 1470 acquires a reference feature vector corresponding to a plurality of reference images having the same attribute or assigned the same attribute tag, and has the same attribute or the same attribute from a generation model trained based on the reference feature vector. It is possible to acquire a representative feature vector corresponding to a tag, compare the feature vector of the target image with the representative feature vector, and assign an attribute tag corresponding to the same attribute to at least a part of the target images.

また、プロセッサ1470は、ユーザ端末10から受信された検索条件に対応するターゲットイメージを選択することができる。プロセッサ1470は、ユーザ端末10が選択または入力した属性に対応する属性タグが割り当てられたターゲットイメージを選択するか、あるいはユーザ端末10が選択または入力した属性の代表特徴ベクトルと同一/類似の特徴ベクトルを有したターゲットイメージを選択することができる。 Further, the processor 1470 can select the target image corresponding to the search condition received from the user terminal 10. The processor 1470 selects a target image to which an attribute tag corresponding to the attribute selected or input by the user terminal 10 is assigned, or a feature vector identical / similar to the representative feature vector of the attribute selected or input by the user terminal 10. You can select the target image with.

また、プロセッサ1470は、ユーザ端末10から受信された複数の検索イメージに対応するターゲットイメージを選択することができる。また、プロセッサ1470は、ユーザ端末10から受信された検索イメージの属性別特徴ベクトルのうち一部を、他の属性の代表特徴ベクトルで置換し、置換された結果に基づいて、ターゲットイメージを選択することもできる。 Further, the processor 1470 can select a target image corresponding to a plurality of search images received from the user terminal 10. Further, the processor 1470 replaces a part of the attribute-specific feature vectors of the search image received from the user terminal 10 with the representative feature vectors of other attributes, and selects the target image based on the replaced result. You can also do it.

一方、前述の本開示の実施形態は、コンピュータで実行されるプログラムに作成可能であり、作成されたプログラムは、媒体にも保存される。 On the other hand, the above-described embodiment of the present disclosure can be created in a program executed by a computer, and the created program is also stored in a medium.

該媒体は、コンピュータで実行可能なプログラムを続けて保存するか、あるいは実行またはダウンロードのために臨時保存するものでもある。また、該媒体は、単一またはいくつかのハードウェアが結合された形態の多様な記録手段または保存手段でもあるが、あるコンピュータシステムに直接接続される媒体に限定されず、ネットワーク上に分散存在するでもある。該媒体の例示としては、ハードディスク、フロッピーディスク及び磁気テープのような磁気媒体;CD-ROM(compact disc read only memory)及びDVD(digital versatile disc)のような光記録媒体、フロプティカルディスク(floptical disk)のような磁気・光媒体(magneto-optical medium);及びROM(read-only memory)、RAM(random access memory)、フラッシュメモリなどを含み、プログラム命令語が保存されるように構成されたものでもある。また、他の媒体の例示として、アプリケーションを流通するアプリストアや、その他多様なソフトウェアを供給したり流通したりするサイト、サーバなどで管理する記録媒体ないし記録媒体も挙げることができる。 The medium is also a continuous storage of computer-executable programs, or a temporary storage for execution or download. The medium is also a variety of recording or storage means in the form of a single piece or a combination of several pieces of hardware, but is not limited to a medium directly connected to a computer system and is distributed on a network. It also does. Examples of such media include magnetic media such as hard disks, floppy disks and magnetic tapes; optical recording media such as CD-ROMs (compact disc read only memory) and DVDs (digital versatile discs), and floptical discs. Includes magnetic and optical medium (disk); and ROM (read-only memory), RAM (random access memory), flash memory, etc., and is configured to store program command words. It is also a thing. Further, as an example of other media, a recording medium or a recording medium managed by an app store that distributes applications, a site that supplies or distributes various other software, a server, or the like can be mentioned.

以上、本開示の技術的思想について、望ましい実施形態を挙げて詳細に説明したが、本開示の技術的思想は、前記実施形態に限定されるものではなく、本開示の技術的思想の範囲内で、当分野で当業者によってさまざまな変形及び変更が可能である。 The technical idea of the present disclosure has been described in detail with reference to desirable embodiments, but the technical idea of the present disclosure is not limited to the above-described embodiment and is within the scope of the technical idea of the present disclosure. Therefore, various modifications and changes can be made by those skilled in the art in this field.

(付記1)
イメージ検索装置によるイメージ検索方法において、
同一属性を含む複数の参照イメージに対応する参照特徴ベクトルを獲得する段階と、
前記獲得した参照特徴ベクトルに基づいて訓練された生成モデルから、前記同一属性に対応する代表特徴ベクトルを獲得する段階と、
データベースに保存されたターゲットイメージの特徴ベクトルと、前記代表特徴ベクトルとを比較し、前記ターゲットイメージのうち少なくとも一部のターゲットイメージに、前記同一属性に対応する属性タグを割り当てる段階と、を含むことを特徴とするイメージ検索方法。
(付記2)
前記イメージ検索方法は、
ユーザ端末から属性の選択を受ける段階と、
前記ターゲットイメージのうち、前記選択を受けた属性に対応する属性タグが割り当てられたターゲットイメージを決定する段階と、
前記決定されたターゲットイメージを、前記ユーザ端末に伝送する段階と、をさらに含むことを特徴とする付記1に記載のイメージ検索方法。
(付記3)
前記イメージ検索方法は、
ユーザ端末から属性の選択を受ける段階と、
前記選択された属性に対応する代表特徴ベクトルと、前記データベースに保存されたターゲットイメージの特徴ベクトルと、を比較する段階と、
前記ターゲットイメージのうち、前記比較結果に基づいて選択されたターゲットイメージを、前記ユーザ端末に伝送する段階と、をさらに含むことを特徴とする付記1に記載のイメージ検索方法。
(付記4)
前記比較する段階は、
前記ユーザ端末が選択した属性に対応する代表特徴ベクトルが、従属モデルから出力される参照特徴ベクトルに基づいて訓練された前記生成モデルから出力されたものである場合、前記選択された属性に対応する代表特徴ベクトルと、前記従属モデルから出力された前記ターゲットイメージの特徴ベクトルと、を比較し、
前記ユーザ端末が選択した属性に対応する代表特徴ベクトルが、独立モデルから出力される参照特徴ベクトルに基づいて訓練された前記生成モデルから出力されたものである場合、前記選択された属性に対応する代表特徴ベクトルと、前記独立モデルから出力された前記ターゲットイメージの特徴ベクトルと、を比較する段階を含むことを特徴とする付記3に記載のイメージ検索方法。
(付記5)
前記イメージ検索方法は、
ユーザ端末から検索イメージを受信する段階と、
前記検索イメージの属性別特徴ベクトルを獲得する段階と、
前記属性別特徴ベクトルのうち、前記ユーザ端末が選択した属性の特徴ベクトルを、前記ユーザ端末が選択した属性に対応する代表特徴ベクトルに変更する段階と、
前記代表特徴ベクトルを含む属性別特徴ベクトルと、前記データベースに保存されたターゲットイメージの属性別特徴ベクトルと、を比較する段階と、
前記データベースに保存されたターゲットイメージのうち、前記比較結果に基づいて選択されたターゲットイメージを、前記ユーザ端末に伝送する段階と、を含むことを特徴とする付記1に記載のイメージ検索方法。
(付記6)
前記比較する段階は、
前記代表特徴ベクトルを含む属性別特徴ベクトルと、前記ターゲットイメージの属性別特徴ベクトルと、を同一カテゴリーの属性同士比較し、属性別ディスタンスを獲得する段階と、
前記獲得した属性別ディスタンスの大きさを組み合わせた結果により、前記データベースに保存されたターゲットイメージのうち、前記ユーザ端末に伝送するターゲットイメージを選択する段階と、を含むことを特徴とする付記5に記載のイメージ検索方法。
(付記7)
前記イメージ検索方法は、
ユーザ端末から複数のオブジェクトを含む検索イメージを受信する段階と、
前記検索イメージに含まれた複数のオブジェクトそれぞれの属性別特徴ベクトルを含む特徴ベクトルシーケンスを獲得する段階と、
前記複数のオブジェクトのうち、前記ユーザ端末からオブジェクトの選択を受ける段階と、
前記選択されたオブジェクトの属性別特徴ベクトルのうち、前記ユーザ端末が選択した属性の特徴ベクトルを、前記ユーザ端末が選択した属性に対応する代表特徴ベクトルに変更する段階と、
前記代表特徴ベクトルを含む特徴ベクトルシーケンスと、前記データベースに保存されたターゲットイメージの特徴ベクトルシーケンスと、を比較する段階と、
前記データベースに保存されたターゲットイメージのうち、前記比較結果に基づいて選択されたターゲットイメージを、前記ユーザ端末に伝送する段階と、をさらに含むことを特徴とする付記1に記載のイメージ検索方法。
(付記8)
前記選択されたターゲットイメージを、前記ユーザ端末に伝送する段階は、
前記選択されたターゲットイメージそれぞれに含まれた複数のオブジェクトのうち、前記ユーザ端末が選択したオブジェクトに対応する部分イメージを、前記検索イメージに合成する段階と、
前記部分イメージが合成された検索イメージを、検索結果として、前記ユーザ端末に伝送する段階と、を含むことを特徴とする付記7に記載のイメージ検索方法。
(付記9)
イメージ検索装置によるイメージ検索方法において、
ユーザ端末から複数の検索イメージを受信する段階と、
前記複数の検索イメージに対応する特徴ベクトルを獲得する段階と、
前記獲得した特徴ベクトルでもって生成モデルを訓練させる段階と、
前記特徴ベクトルでもって訓練された前記生成モデルから出力される代表特徴ベクトルと、データベースに保存されたターゲットイメージの特徴ベクトルと、を比較し、前記複数の検索イメージに対応するターゲットイメージを決定する段階と、
前記決定されたターゲットイメージを、前記ユーザ端末に伝送する段階と、を含むことを特徴とするイメージ検索方法。
(付記10)
前記生成モデルは、
複数のFCL(fully connected layer)を含むGAN(generative adversarial network)を含むことを特徴とする付記1または9に記載のイメージ検索方法。
(付記11)
付記1ないし10のうちいずれか1項に記載のイメージ検索方法を装置のコンピュータに実行させるコンピュータプログラム。
(付記12)
プロセッサと、
少なくとも1つのプログラム、及び生成モデルを保存するメモリと、
ターゲットイメージを保存するデータベースと、を含むが、
前記プロセッサは、前記少なくとも1つのプログラムが実行されることにより、
同一属性を含む複数の参照イメージに対応する参照特徴ベクトルを獲得し、
前記獲得した参照特徴ベクトルに基づいて訓練された前記生成モデルから、前記同一属性に対応する代表特徴ベクトルを獲得し、
前記ターゲットイメージの特徴ベクトルと、前記代表特徴ベクトルとを比較し、前記ターゲットイメージのうち少なくとも一部のターゲットイメージに、前記同一属性に対応する属性タグを割り当てることを特徴とするイメージ検索装置。
(付記13)
ユーザ端末装置によるイメージ検索方法において、
イメージ検索装置に接続して属性を選択する段階と、
前記イメージ検索装置に保存されたターゲットイメージのうち、前記選択した属性に対応する属性タグが割り当てられたターゲットイメージを、前記イメージ検索装置から受信する段階と、を含むが、
前記イメージ検索装置に保存されたターゲットイメージは、
複数の属性それぞれに対応する代表特徴ベクトルと、前記ターゲットイメージの特徴ベクトルとの比較結果に基づいて、前記複数の属性に対応する複数の属性タグのうち少なくとも一部の属性タグが割り当てられたことを特徴とするイメージ検索方法。
(Appendix 1)
In the image search method using the image search device,
At the stage of acquiring reference feature vectors corresponding to multiple reference images containing the same attribute,
From the generated model trained based on the acquired reference feature vector, the stage of acquiring the representative feature vector corresponding to the same attribute, and
A step of comparing the feature vector of the target image stored in the database with the representative feature vector and assigning an attribute tag corresponding to the same attribute to at least a part of the target images of the target images is included. An image search method featuring.
(Appendix 2)
The image search method is
At the stage of receiving attribute selection from the user terminal,
Among the target images, the stage of determining the target image to which the attribute tag corresponding to the selected attribute is assigned, and
The image search method according to Appendix 1, further comprising a step of transmitting the determined target image to the user terminal.
(Appendix 3)
The image search method is
At the stage of receiving attribute selection from the user terminal,
A step of comparing the representative feature vector corresponding to the selected attribute with the feature vector of the target image stored in the database.
The image search method according to Appendix 1, further comprising a step of transmitting a target image selected based on the comparison result to the user terminal among the target images.
(Appendix 4)
The comparison stage is
When the representative feature vector corresponding to the attribute selected by the user terminal is output from the generated model trained based on the reference feature vector output from the dependent model, it corresponds to the selected attribute. Comparing the representative feature vector with the feature vector of the target image output from the dependent model,
When the representative feature vector corresponding to the attribute selected by the user terminal is output from the generated model trained based on the reference feature vector output from the independent model, it corresponds to the selected attribute. The image search method according to Appendix 3, further comprising a step of comparing the representative feature vector and the feature vector of the target image output from the independent model.
(Appendix 5)
The image search method is
At the stage of receiving the search image from the user terminal,
At the stage of acquiring the attribute-specific feature vector of the search image,
Among the attribute-specific feature vectors, the stage of changing the feature vector of the attribute selected by the user terminal to the representative feature vector corresponding to the attribute selected by the user terminal, and
A step of comparing the attribute-specific feature vector including the representative feature vector with the attribute-specific feature vector of the target image stored in the database.
The image search method according to Appendix 1, wherein the target image selected based on the comparison result among the target images stored in the database is transmitted to the user terminal.
(Appendix 6)
The comparison stage is
At the stage of comparing the attribute-specific feature vector including the representative feature vector and the attribute-specific feature vector of the target image between the attributes of the same category and acquiring the attribute-specific distance.
Addendum 5 is characterized by including a step of selecting a target image to be transmitted to the user terminal from the target images stored in the database based on the result of combining the acquired distance sizes for each attribute. The described image search method.
(Appendix 7)
The image search method is
At the stage of receiving a search image containing multiple objects from the user terminal,
The stage of acquiring the feature vector sequence including the attribute-specific feature vectors of each of the plurality of objects included in the search image, and
Among the plurality of objects, the stage of receiving an object selection from the user terminal and
Among the attribute-specific feature vectors of the selected object, the stage of changing the feature vector of the attribute selected by the user terminal to the representative feature vector corresponding to the attribute selected by the user terminal, and
A step of comparing the feature vector sequence including the representative feature vector with the feature vector sequence of the target image stored in the database.
The image search method according to Appendix 1, further comprising a step of transmitting a target image selected based on the comparison result to the user terminal among the target images stored in the database.
(Appendix 8)
The stage of transmitting the selected target image to the user terminal is
Among the plurality of objects included in each of the selected target images, the stage of synthesizing the partial image corresponding to the object selected by the user terminal into the search image, and
The image search method according to Appendix 7, wherein a search image in which the partial images are combined is transmitted to the user terminal as a search result.
(Appendix 9)
In the image search method using the image search device,
At the stage of receiving multiple search images from the user terminal,
The stage of acquiring the feature vectors corresponding to the plurality of search images, and
At the stage of training the generative model with the acquired feature vector,
A step of comparing the representative feature vector output from the generated model trained with the feature vector and the feature vector of the target image stored in the database to determine the target image corresponding to the plurality of search images. When,
An image search method comprising a step of transmitting the determined target image to the user terminal.
(Appendix 10)
The generative model is
The image search method according to Appendix 1 or 9, wherein a GAN (generative adversarial network) including a plurality of FCLs (fully connected layers) is included.
(Appendix 11)
A computer program that causes the computer of the apparatus to execute the image search method according to any one of Supplementary note 1 to 10.
(Appendix 12)
With the processor
A memory for storing at least one program and a generative model,
Contains a database to store the target image, but
The processor is executed by executing the at least one program.
Acquire the reference feature vector corresponding to multiple reference images containing the same attribute.
A representative feature vector corresponding to the same attribute is obtained from the generated model trained based on the obtained reference feature vector.
An image search device characterized by comparing a feature vector of the target image with the representative feature vector and assigning an attribute tag corresponding to the same attribute to at least a part of the target images of the target images.
(Appendix 13)
In the image search method by the user terminal device,
At the stage of connecting to the image search device and selecting attributes,
Among the target images stored in the image search device, the step of receiving the target image to which the attribute tag corresponding to the selected attribute is assigned from the image search device is included.
The target image saved in the image search device is
At least some of the attribute tags corresponding to the plurality of attributes are assigned based on the comparison result between the representative feature vector corresponding to each of the plurality of attributes and the feature vector of the target image. An image search method featuring.

10 ユーザ端末
100 イメージ検索装置
300 生成モデル
810,1100 検索イメージ
1310,1320,1330 合成イメージ
1410 メモリ
1430 データベース
1450 通信部
1470 プロセッサ
10 User terminal 100 Image search device 300 Generation model 810, 1100 Search image 1310, 1320, 1330 Composite image 1410 Memory 1430 Database 1450 Communication unit 1470 Processor

Claims (8)

イメージ検索装置によるイメージ検索方法において、
ユーザ端末から、検索イメージまたは前記検索イメージと関連した情報を受信する段階と、
前記ユーザ端末から属性に対する選択を受信する段階と、
前記検索イメージの属性別特徴ベクトルを獲得する段階と、
前記属性別特徴ベクトルのうち、前記ユーザ端末が選択した属性と関連した特徴ベクトルを、前記ユーザ端末が選択した属性に対応する代表特徴ベクトルに変更する段階と、
前記代表特徴ベクトルを含む属性別特徴ベクトルと、データベースに保存されたターゲットイメージの属性別特徴ベクトルとを比較する段階と、
前記データベースに保存されたターゲットイメージのうち、前記比較結果に基づいて選択されたターゲットイメージを前記ユーザ端末に伝送する段階と、を含むことを特徴とするイメージ検索方法。
In the image search method using the image search device,
The stage of receiving a search image or information related to the search image from the user terminal, and
The stage of receiving the selection for the attribute from the user terminal and
At the stage of acquiring the attribute-specific feature vector of the search image,
Among the attribute-specific feature vectors, the stage of changing the feature vector related to the attribute selected by the user terminal to the representative feature vector corresponding to the attribute selected by the user terminal, and
At the stage of comparing the attribute-specific feature vector including the representative feature vector with the attribute-specific feature vector of the target image stored in the database.
An image search method comprising a step of transmitting a target image selected based on the comparison result to the user terminal among the target images stored in the database.
前記イメージ検索方法は、
前記ユーザ端末から、前記検索イメージ内に含まれた複数のオブジェクトのうち、いずれか1つに対する選択を受信する段階をさらに含み、
前記検索イメージの属性別特徴ベクトルを獲得する段階は、
前記検索イメージ内の複数のオブジェクトに係わる属性別特徴ベクトルを獲得する段階と、
前記複数のオブジェクトに係わる属性別特徴ベクトルを含む特徴ベクトルシーケンスを構成する段階と、を含み、
前記変更する段階は、
前記ユーザ端末が選択したオブジェクトの属性別特徴ベクトルのうち、前記ユーザ端末が選択した属性と関連した特徴ベクトルを、前記ユーザ端末が選択した属性に対応する代表特徴ベクトルに変更する段階を含むことを特徴とする請求項1に記載のイメージ検索方法。
The image search method is
Further including a step of receiving a selection for any one of a plurality of objects included in the search image from the user terminal.
The stage of acquiring the attribute-specific feature vector of the search image is
At the stage of acquiring the attribute-specific feature vectors related to multiple objects in the search image,
Including a step of constructing a feature vector sequence including attribute-specific feature vectors relating to the plurality of objects.
The stage of the change is
Among the attribute-specific feature vectors of the object selected by the user terminal, the step of changing the feature vector associated with the attribute selected by the user terminal to the representative feature vector corresponding to the attribute selected by the user terminal is included. The image search method according to claim 1, which is characterized.
前記選択されたターゲットイメージを前記ユーザ端末に伝送する段階は、
前記選択されたターゲットイメージそれぞれに含まれた複数のオブジェクトのうち、前記ユーザ端末が選択したオブジェクトに対応する部分イメージを前記検索イメージに合成する段階と、
前記の部分イメージが合成された検索イメージを検索結果として前記ユーザ端末に伝送する段階と、を含むことを特徴とする請求項2に記載のイメージ検索方法。
The stage of transmitting the selected target image to the user terminal is
Among the plurality of objects included in each of the selected target images, the stage of synthesizing the partial image corresponding to the object selected by the user terminal into the search image, and
The image search method according to claim 2, further comprising a step of transmitting a search image in which the partial images are combined to the user terminal as a search result.
イメージ検索装置によるイメージ検索方法において、
ユーザ端末から、第1検索イメージ及び第2検索イメージを受信する段階と、
前記第1検索イメージから第1属性の特徴ベクトルを獲得し、前記第2検索イメージから第2属性の特徴ベクトルを獲得する段階と、
前記第1属性の特徴ベクトルと前記第2属性の特徴ベクトルとを含む属性別特徴ベクトルと、データベースに保存されたターゲットイメージの属性別特徴ベクトルとを比較する段階と、
前記比較結果によって選択されたターゲットイメージを、前記ユーザ端末に伝送する段階と、を含むことを特徴とするイメージ検索方法。
In the image search method using the image search device,
At the stage of receiving the first search image and the second search image from the user terminal,
The stage of acquiring the feature vector of the first attribute from the first search image and acquiring the feature vector of the second attribute from the second search image, and
A step of comparing the attribute-specific feature vector including the first attribute feature vector and the second attribute feature vector with the attribute-specific feature vector of the target image stored in the database.
An image search method comprising a step of transmitting a target image selected by the comparison result to the user terminal.
前記イメージ検索方法は、
同一属性を含む複数の参照イメージに対応する参照特徴ベクトルを獲得する段階と、
前記獲得した参照特徴ベクトルに基づいて訓練された生成モデルから前記同一属性に対応する代表特徴ベクトルを獲得する段階と、
前記データベースに保存されたターゲットイメージの特徴ベクトルと前記代表特徴ベクトルとを比較し、前記ターゲットイメージのうち、少なくとも一部のターゲットイメージに前記同一属性に対応する属性タグを割り当てる段階と、をさらに含むことを特徴とする請求項1ないし4のうちいずれか1項に記載のイメージ検索方法。
The image search method is
At the stage of acquiring reference feature vectors corresponding to multiple reference images containing the same attribute,
The stage of acquiring the representative feature vector corresponding to the same attribute from the generated model trained based on the acquired reference feature vector, and
It further includes a step of comparing the feature vector of the target image stored in the database with the representative feature vector and assigning an attribute tag corresponding to the same attribute to at least a part of the target images among the target images. The image search method according to any one of claims 1 to 4, wherein the image search method is characterized.
前記比較する段階は、
前記代表特徴ベクトルを含む属性別特徴ベクトルと、前記ターゲットイメージの属性別特徴ベクトルと、を同一カテゴリーの属性同士比較し、属性別ディスタンスを獲得する段階と、
前記獲得した属性別ディスタンスの大きさを組み合わせた結果により、前記データベースに保存されたターゲットイメージのうち、前記ユーザ端末に伝送するターゲットイメージを選択する段階と、を含むことを特徴とする請求項1ないし4のうちいずれか1項に記載のイメージ検索方法。
The comparison stage is
At the stage of comparing the attribute-specific feature vector including the representative feature vector and the attribute-specific feature vector of the target image between the attributes of the same category and acquiring the attribute-specific distance.
Claim 1 is characterized by including a step of selecting a target image to be transmitted to the user terminal from the target images stored in the database based on the result of combining the acquired distance sizes for each attribute. The image search method according to any one of 4 to 4.
請求項1ないし6のうち、いずれか1項に記載のイメージ検索方法を実行させるためのプログラム。 A program for executing the image search method according to any one of claims 1 to 6. プロセッサと、
少なくとも1つのプログラムを保存するメモリと、
ターゲットイメージを保存するデータベースと、を含むが、
前記プロセッサは、前記少なくとも1つのプログラムが実行されることにより、
ユーザ端末から検索イメージまたは前記検索イメージと関連した情報を受信し、
前記検索イメージの属性別特徴ベクトルを獲得し、
前記属性別特徴ベクトルのうち、前記ユーザ端末が選択した属性と関連した特徴ベクトルを、前記ユーザ端末が選択した属性に対応する代表特徴ベクトルに変更し、
前記代表特徴ベクトルを含む属性別特徴ベクトルと、前記データベースに保存されたターゲットイメージの属性別特徴ベクトルとを比較し、
前記データベースに保存されたターゲットイメージのうち、前記比較結果に基づいて選択されたターゲットイメージを前記ユーザ端末に伝送することを特徴とするイメージ検索装置。
With the processor
Memory to store at least one program,
Contains a database to store the target image, but
The processor is executed by executing the at least one program.
Receive a search image or information related to the search image from the user terminal,
Acquire the attribute-specific feature vector of the search image and
Among the attribute-specific feature vectors, the feature vector related to the attribute selected by the user terminal is changed to the representative feature vector corresponding to the attribute selected by the user terminal.
The attribute-specific feature vector including the representative feature vector is compared with the attribute-specific feature vector of the target image stored in the database.
An image search device characterized in that a target image selected based on the comparison result among the target images stored in the database is transmitted to the user terminal.
JP2022006614A 2019-01-28 2022-01-19 Image retrieval method and apparatus Active JP7282218B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020190010662A KR102221122B1 (en) 2019-01-28 2019-01-28 Image search apparatus and method
KR10-2019-0010662 2019-01-28
JP2020006627A JP7013497B2 (en) 2019-01-28 2020-01-20 Image search device and its method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020006627A Division JP7013497B2 (en) 2019-01-28 2020-01-20 Image search device and its method

Publications (2)

Publication Number Publication Date
JP2022044687A true JP2022044687A (en) 2022-03-17
JP7282218B2 JP7282218B2 (en) 2023-05-26

Family

ID=71891005

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020006627A Active JP7013497B2 (en) 2019-01-28 2020-01-20 Image search device and its method
JP2022006614A Active JP7282218B2 (en) 2019-01-28 2022-01-19 Image retrieval method and apparatus

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020006627A Active JP7013497B2 (en) 2019-01-28 2020-01-20 Image search device and its method

Country Status (3)

Country Link
JP (2) JP7013497B2 (en)
KR (1) KR102221122B1 (en)
TW (1) TWI755666B (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102401626B1 (en) * 2020-08-26 2022-05-25 엔에이치엔 주식회사 Method and system for image-based product search

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003030655A (en) * 2001-07-12 2003-01-31 Nec Corp Image recognition system and image recognition program
JP2005250596A (en) * 2004-03-01 2005-09-15 Fuji Xerox Co Ltd Image processing method, image processing device, image processing program, and storage medium
JP2011134115A (en) * 2009-12-24 2011-07-07 Canon Inc Image processing apparatus, image processing method, and program
KR20160064259A (en) * 2014-11-26 2016-06-08 주식회사 카카오 Method and server for searching similar goods
KR20160087222A (en) * 2015-01-13 2016-07-21 삼성전자주식회사 Method and Appratus For Creating Photo Story based on Visual Context Analysis of Digital Contents
KR101768521B1 (en) * 2016-05-02 2017-08-17 네이버 주식회사 Method and system providing informational data of object included in image
JP2018081452A (en) * 2016-11-15 2018-05-24 キヤノン株式会社 Image processing device, and image processing method

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101132509B1 (en) * 2010-08-04 2012-04-03 엔에이치엔(주) Mobile system, search system and search result providing method for mobile search
CN103678335B (en) * 2012-09-05 2017-12-08 阿里巴巴集团控股有限公司 The method of method, apparatus and the commodity navigation of commodity sign label
US9460518B2 (en) * 2013-04-17 2016-10-04 Yahoo! Inc. Visual clothing retrieval
TW201721519A (en) * 2015-12-01 2017-06-16 英業達股份有限公司 Virtual dressing system and virtual dressing method
US11080918B2 (en) * 2016-05-25 2021-08-03 Metail Limited Method and system for predicting garment attributes using deep learning
CN107527318B (en) * 2017-07-17 2021-06-04 复旦大学 Hair style replacement method based on generation countermeasure network model
KR101848321B1 (en) * 2017-10-27 2018-04-20 주식회사 뷰노 Method for facilitating dignosis of subject based on fovea image thereof and apparatus using the same

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003030655A (en) * 2001-07-12 2003-01-31 Nec Corp Image recognition system and image recognition program
JP2005250596A (en) * 2004-03-01 2005-09-15 Fuji Xerox Co Ltd Image processing method, image processing device, image processing program, and storage medium
JP2011134115A (en) * 2009-12-24 2011-07-07 Canon Inc Image processing apparatus, image processing method, and program
KR20160064259A (en) * 2014-11-26 2016-06-08 주식회사 카카오 Method and server for searching similar goods
KR20160087222A (en) * 2015-01-13 2016-07-21 삼성전자주식회사 Method and Appratus For Creating Photo Story based on Visual Context Analysis of Digital Contents
KR101768521B1 (en) * 2016-05-02 2017-08-17 네이버 주식회사 Method and system providing informational data of object included in image
JP2018081452A (en) * 2016-11-15 2018-05-24 キヤノン株式会社 Image processing device, and image processing method

Also Published As

Publication number Publication date
TWI755666B (en) 2022-02-21
JP2020119566A (en) 2020-08-06
JP7013497B2 (en) 2022-01-31
JP7282218B2 (en) 2023-05-26
KR102221122B1 (en) 2021-02-25
KR20200093321A (en) 2020-08-05
TW202029054A (en) 2020-08-01

Similar Documents

Publication Publication Date Title
US11615135B2 (en) Search supporting system, search supporting method and search supporting program
KR101535579B1 (en) Augmented reality interaction implementation method and system
US8917943B2 (en) Determining image-based product from digital image collection
US11551424B2 (en) Interaction analysis systems and methods
EP3069301A1 (en) Face detection and recognition
JP2012063890A (en) Annotation device
JP2018084890A (en) Information processing unit, information processing method, and program
JP6120467B1 (en) Server device, terminal device, information processing method, and program
US8831360B2 (en) Making image-based product from digital image collection
Ahmad et al. USED: a large-scale social event detection dataset
KR20200034028A (en) System and method for virtual fitting based on artificial intelligence
KR20220039578A (en) Method for providing clothing recommendation information based on user-selected clothing, and server and program using the same
JP2022044687A (en) Image search method and apparatus
JP5226651B2 (en) Similar image retrieval device, similar image retrieval method, and similar image retrieval program
Ivanov et al. Object-based tag propagation for semi-automatic annotation of images
JP2020035086A (en) Information processing system, information processing apparatus and program
JP7392205B2 (en) Method for providing clothing recommendation information based on user-selected clothing, and server using the same
JP7014232B2 (en) Search system, terminal device operation method and program
US20240078576A1 (en) Method and system for automated product video generation for fashion items
JP7179630B2 (en) Decision device, decision method and decision program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230516

R150 Certificate of patent or registration of utility model

Ref document number: 7282218

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350