JP6353118B1 - Display program, information providing apparatus, display apparatus, display method, information providing method, and information providing program - Google Patents

Display program, information providing apparatus, display apparatus, display method, information providing method, and information providing program Download PDF

Info

Publication number
JP6353118B1
JP6353118B1 JP2017094150A JP2017094150A JP6353118B1 JP 6353118 B1 JP6353118 B1 JP 6353118B1 JP 2017094150 A JP2017094150 A JP 2017094150A JP 2017094150 A JP2017094150 A JP 2017094150A JP 6353118 B1 JP6353118 B1 JP 6353118B1
Authority
JP
Japan
Prior art keywords
image
transaction
terminal device
display
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017094150A
Other languages
Japanese (ja)
Other versions
JP2018190294A (en
Inventor
智絵 鈴木
智絵 鈴木
山口 修司
修司 山口
岩崎 雅二郎
雅二郎 岩崎
立 日暮
立 日暮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2017094150A priority Critical patent/JP6353118B1/en
Application granted granted Critical
Publication of JP6353118B1 publication Critical patent/JP6353118B1/en
Publication of JP2018190294A publication Critical patent/JP2018190294A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】画像を用いた取引対象の検索における操作性を向上させる。
【解決手段】提供システム1において、端末装置100は、利用者の操作に従って、取引対象の画像を撮影しS1、情報提供装置10に送信するS2。情報提供装置10は、撮影画像の中から取引対象が撮影された範囲を抽出しS3、カテゴリを推定してカテゴリパスを特定するS4とともに、画像の特徴量を算出するS5。カテゴリパスのカテゴリ特徴量と画像の特徴量を結合して生成したS6結合特徴量に基づき、取引対象を電子商店街から検索するS7。検索した取引対象の識別情報と出品画像とを端末装置100に提供するS8。端末装置100は、出品画像を、撮影した画像と共に複数表示しS9。利用者が出品画像を選択した場合は、取引対象の識別情報をECサーバ200に送信するS10。ECサーバ200は、識別情報が示す出品対象の検索結果を価格順に並べ、端末装置100に提供するS11。
【選択図】図1
An object of the present invention is to improve operability in searching for a transaction object using an image.
In a providing system 1, a terminal device 100 captures an image of a transaction target in accordance with a user operation, and transmits it to an information providing device 10 (S2). The information providing apparatus 10 extracts a range in which the transaction object is photographed from the photographed image, S3, estimates the category and specifies the category path, and calculates the feature amount of the image, S5. A transaction target is searched from the online shopping mall based on the combined feature amount S6 generated by combining the category feature amount of the category path and the image feature amount S7. S8 for providing the terminal device 100 with the identification information and the exhibition image of the searched transaction object. The terminal device 100 displays a plurality of exhibition images together with the captured images S9. When the user selects an exhibition image, the transaction target identification information is transmitted to the EC server 200 (S10). The EC server 200 arranges the search results of the exhibition targets indicated by the identification information in order of price and provides them to the terminal device 100 (S11).
[Selection] Figure 1

Description

本発明は、表示プログラム、情報提供装置、表示装置、表示方法、情報提供方法および情報提供プログラムに関する。   The present invention relates to a display program, an information providing device, a display device, a display method, an information providing method, and an information providing program.

従来、端末装置が撮影した取引対象の画像から、電子商店街の取引対象を検索する技術が知られている。例えば、端末装置が撮影した画像から取引対象を認識した場合は、認識した取引対象を購入するためのウェブページを端末装置に表示させる技術が知られている。   2. Description of the Related Art Conventionally, a technique for searching for a transaction target in an online shopping mall from a transaction target image captured by a terminal device is known. For example, when a transaction target is recognized from an image captured by the terminal device, a technique for displaying a web page for purchasing the recognized transaction target on the terminal device is known.

“Amazonショッピングアプリ”、[online]、[平成29年4月22日検索]、インターネット<https://www.amazon.co.jp/b?node=3211799051>“Amazon Shopping App”, [online], [Search April 22, 2017], Internet <https://www.amazon.co.jp/b?node=3211799051>

しかしながら、上述した従来技術では、操作性が必ずしも良くない場合がある。   However, the conventional techniques described above may not always have good operability.

例えば、上述した従来技術では、複数の取引対象が撮影されている画像から、いずれかの取引対象を認識すると、認識した取引対象を購入するためのウェブページを表示させる。このため、利用者が所望する取引対象を認識するよりも先に他の取引対象を認識した場合には、利用者が所望しない取引対象を購入するためのウェブページを表示してしまう。   For example, in the above-described conventional technology, when one of the transaction objects is recognized from an image in which a plurality of transaction objects are captured, a web page for purchasing the recognized transaction object is displayed. For this reason, when recognizing another transaction object before recognizing the transaction object which a user desires, the web page for purchasing the transaction object which a user does not desire will be displayed.

本願は、上記に鑑みてなされたものであって、画像を用いた取引対象の検索における操作性を向上させることを目的とする。   The present application has been made in view of the above, and an object thereof is to improve operability in searching for a transaction object using an image.

本願に係る表示プログラムは、所定の画像に含まれる取引対象の画像を取得する取得手順と、前記取得手順により取得された画像を、前記取引対象を電子商店街で検索するための検索クエリを示すクエリ情報として、前記所定の画像と共に表示する表示手順とをコンピュータに実行させる。   The display program according to the present application indicates an acquisition procedure for acquiring a transaction target image included in a predetermined image, and a search query for searching the transaction target in the online shopping mall for the image acquired by the acquisition procedure. As a query information, the computer executes a display procedure for displaying together with the predetermined image.

実施形態の一態様によれば、画像を用いた取引対象の検索における操作性を向上させることができる。   According to one aspect of the embodiment, it is possible to improve operability in searching for a transaction object using an image.

図1は、実施形態に係る提供システムが実行する処理の一例を示す図である。FIG. 1 is a diagram illustrating an example of processing executed by the providing system according to the embodiment. 図2は、実施形態に係る端末装置が表示する画面の一例を説明する図である。FIG. 2 is a diagram illustrating an example of a screen displayed by the terminal device according to the embodiment. 図3は、実施形態に係る情報提供装置が実行する検索処理の一例を示す図である。FIG. 3 is a diagram illustrating an example of search processing executed by the information providing apparatus according to the embodiment. 図4は、実施形態に係る端末装置の構成例を示す図である。FIG. 4 is a diagram illustrating a configuration example of the terminal device according to the embodiment. 図5は、実施形態に係る情報提供装置の構成例を示す図である。FIG. 5 is a diagram illustrating a configuration example of the information providing apparatus according to the embodiment. 図6は、実施形態に係る出品対象データベースに登録される情報の一例を示す図である。FIG. 6 is a diagram illustrating an example of information registered in the exhibition target database according to the embodiment. 図7は、実施形態に係るカテゴリデータベースに登録される情報の一例を示す図である。FIG. 7 is a diagram illustrating an example of information registered in the category database according to the embodiment. 図8は、実施形態に係るモデルデータベースに登録される情報の一例を示す図である。FIG. 8 is a diagram illustrating an example of information registered in the model database according to the embodiment. 図9は、実施形態に係る端末装置がクエリ情報を表示する態様の一例を示す図である。FIG. 9 is a diagram illustrating an example of a mode in which the terminal device according to the embodiment displays the query information. 図10は、実施形態に係る端末装置が実行する表示処理の流れの一例を示すフローチャートである。FIG. 10 is a flowchart illustrating an example of a flow of display processing executed by the terminal device according to the embodiment. 図11は、実施形態に係る情報提供装置が実行する検索処理の流れの一例を示すフローチャートである。FIG. 11 is a flowchart illustrating an example of a flow of search processing executed by the information providing apparatus according to the embodiment. 図12は、ハードウェア構成の一例を示す図である。FIG. 12 is a diagram illustrating an example of a hardware configuration.

以下に、本願に係る表示プログラム、情報提供装置、表示装置、表示方法、情報提供方法および情報提供プログラムを実施するための形態(以下、「実施形態」と記載する。)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る表示プログラム、情報提供装置、表示装置、表示方法、情報提供方法および情報提供プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略する。   Hereinafter, a display program, an information providing apparatus, a display apparatus, a display method, an information providing method, and an information providing program according to the present application (hereinafter referred to as “embodiment”) will be described with reference to the drawings. This will be described in detail. In addition, the display program, the information providing apparatus, the display apparatus, the display method, the information providing method, and the information providing program according to the present application are not limited by this embodiment. In the following embodiments, the same parts are denoted by the same reference numerals, and redundant description is omitted.

〔1.提供システムの概要〕
以下、図1を用いて、検索装置の一例となる情報提供装置10と、表示装置の一例となる端末装置100を有する提供システム1の一例について説明する。図1は、実施形態に係る提供システムが実行する処理の一例を示す図である。図1に示す例では、提供システム1は、情報提供装置10および端末装置100を有する。なお、以下の説明では、情報提供装置10が実行する処理として、端末装置100が撮影した静止画像または動画像(以下、「画像」と総称する。)に撮影された商品等の取引対象を所定の電子商店街で検索する検索処理の一例について説明する。また、以下の説明では、端末装置100が実行する処理として、取引対象の画像を撮影すると、取引対象を電子商店街で検索するための検索クエリとして、取引対象の画像を複数表示する表示処理の一例について説明する。
[1. Overview of provision system)
Hereinafter, an example of a providing system 1 including an information providing device 10 as an example of a search device and a terminal device 100 as an example of a display device will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of processing executed by the providing system according to the embodiment. In the example illustrated in FIG. 1, the providing system 1 includes an information providing device 10 and a terminal device 100. In the following description, as processing executed by the information providing apparatus 10, a transaction target such as a product photographed in a still image or a moving image (hereinafter collectively referred to as “image”) photographed by the terminal device 100 is predetermined. An example of search processing for searching in the online shopping mall will be described. Further, in the following description, as a process executed by the terminal device 100, when a transaction target image is captured, a display process of displaying a plurality of transaction target images as a search query for searching for a transaction target in an online shopping mall. An example will be described.

情報提供装置10は、インターネット等の所定のネットワークN(例えば、図4を参照。)を介して、端末装置100と通信可能な情報処理装置であり、例えば、サーバ装置やクラウドシステム等により実現される。なお、情報提供装置10は、ネットワークNを介して、任意の数の端末装置100と通信可能であってもよく、任意の数のECサーバ200と通信可能であってもよい。また、情報提供装置10は、複数の情報処理装置が協調して以下に説明する検索処理を実行することで実現されてもよい。   The information providing apparatus 10 is an information processing apparatus that can communicate with the terminal apparatus 100 via a predetermined network N (for example, see FIG. 4) such as the Internet, and is realized by, for example, a server apparatus or a cloud system. The Note that the information providing apparatus 10 may be able to communicate with any number of terminal apparatuses 100 via the network N, and may be able to communicate with any number of EC servers 200. Moreover, the information provision apparatus 10 may be implement | achieved when a some information processing apparatus cooperates and performs the search process demonstrated below.

端末装置100は、任意の利用者が使用する情報処理装置であり、PC(Personal Computer)、サーバ装置、スマートデバイスといった情報処理装置により実現される。例えば、端末装置100は、デジタルカメラを有し、利用者の操作に従って画像を撮影する撮影機能と、撮影された画像や情報提供装置10から提供される情報、ECサーバ200から提供される情報等、任意のコンテンツを表示する表示機能とを有する。なお、以下の説明では、以下に説明する表示処理を実行させるアプリケーションをインストールしたスマートフォンを端末装置100の一例として説明する。   The terminal device 100 is an information processing device used by an arbitrary user, and is realized by an information processing device such as a PC (Personal Computer), a server device, or a smart device. For example, the terminal device 100 includes a digital camera, and has a photographing function for photographing an image according to a user's operation, a photographed image, information provided from the information providing device 10, information provided from the EC server 200, and the like. And a display function for displaying arbitrary contents. In the following description, a smartphone in which an application that executes display processing described below is installed will be described as an example of the terminal device 100.

ECサーバ200は、端末装置100に対し、電子商店街に関する各種のサービスを提供する情報処理装置であり、例えば、サーバ装置やクラウドシステム等により実現される。   The EC server 200 is an information processing device that provides various services related to the online shopping mall to the terminal device 100, and is realized by, for example, a server device or a cloud system.

〔1−1.表示処理の概要について〕
まず、端末装置100が実行する表示処理の概要について説明する。従来、電子商店街に出品されている取引対象を、端末装置100が撮影した画像を用いて検索する技術が知られている。しかしながら、従来技術では、画像から取引対象を認識した場合、取引対象を購入するためのウェブページを表示する。このため、利用者が撮影した画像に複数の取引対象が撮影されている場合、いずれかの取引対象を認識すると、認識した取引対象を購入するためのウェブページを表示してしまうので、利用者が所望する取引対象を認識するよりも先に他の取引対象を認識した場合には、利用者が所望しない取引対象を購入するためのウェブページを表示してしまう。
[1-1. Overview of display processing)
First, an overview of display processing executed by the terminal device 100 will be described. 2. Description of the Related Art Conventionally, a technique for searching for a transaction target exhibited in an online shopping mall using an image taken by a terminal device 100 is known. However, in the related art, when a transaction target is recognized from an image, a web page for purchasing the transaction target is displayed. For this reason, when a plurality of transaction objects are captured in the image captured by the user, if any of the transaction objects is recognized, a web page for purchasing the recognized transaction object is displayed. When other transaction objects are recognized before recognizing a desired transaction object, a web page for purchasing a transaction object not desired by the user is displayed.

そこで、端末装置100は、以下の表示処理を実行する。まず、端末装置100は、所定の画像に含まれる取引対象の画像を取得する。そして、端末装置100は、取引対象を電子商店街で検索するための検索クエリを示すクエリ情報として、取得された画像を、所定の画像と共に表示する。   Therefore, the terminal device 100 executes the following display process. First, the terminal device 100 acquires a transaction target image included in a predetermined image. And the terminal device 100 displays the acquired image with a predetermined image as query information which shows the search query for searching a transaction object in an online shopping mall.

例えば、端末装置100は、利用者の操作に従って画像を撮影する。そして、端末装置100は、撮影された画像に含まれる取引対象の画像を、取引対象を電子商店街で検索するための検索クエリを示すクエリ情報として、撮影した画像と共に表示する。例えば、端末装置100は、画像に撮影された取引対象の画像であって、電子商店街に登録された取引対象の画像を検索する検索装置(すなわち、情報提供装置10)に対して、撮影した画像を送信する。なお、端末装置100は、撮影した画像から特徴量やカテゴリを特定し、特定した特徴量やカテゴリを情報提供装置10へと送信してもよい。   For example, the terminal device 100 captures an image in accordance with a user operation. Then, the terminal device 100 displays the transaction target image included in the captured image as query information indicating a search query for searching for the transaction target in the online shopping mall together with the captured image. For example, the terminal device 100 captures an image of a transaction target imaged in the image, and is captured for a search device (that is, the information providing device 10) that searches for the transaction target image registered in the online shopping mall. Send an image. Note that the terminal device 100 may identify a feature amount or category from the captured image, and transmit the identified feature amount or category to the information providing device 10.

一方、情報提供装置10は、端末装置100が撮影した画像を受付けると、受付けた画像に含まれる取引対象の画像を端末装置100に提供し、その取引対象を電子商店街で検索するための検索クエリを示すクエリ候補として表示させる。例えば、情報提供装置10は、端末装置100が撮影した画像に含まれる取引対象を認識し、電子商店街に出品された取引対象のうち、認識した取引対象に対応する取引対象を検索する。例えば、情報提供装置10は、認識した取引対象そのものや、サイズ違いの取引対象、同時に使用される取引対象等、認識した取引対象と関連する取引対象等を検索する。   On the other hand, when the information providing apparatus 10 accepts an image captured by the terminal device 100, the information providing apparatus 10 provides the terminal device 100 with a transaction target image included in the received image, and searches for the transaction target in the online shopping mall. It is displayed as a query candidate indicating the query. For example, the information providing apparatus 10 recognizes a transaction target included in an image captured by the terminal device 100 and searches for a transaction target corresponding to the recognized transaction target from among the transaction targets exhibited in the online shopping mall. For example, the information providing apparatus 10 searches for a transaction object associated with the recognized transaction object, such as a recognized transaction object itself, a transaction object of a different size, or a transaction object used at the same time.

そして、情報提供装置10は、検索した取引対象の画像であって、電子商店街に登録された取引対象の画像と、電子商店街においてその取引対象を識別するための識別情報(例えば、JAN(Japan Article Number)コード)を取得する。すなわち、情報提供装置10は、電子商店街において異なる出品者が共通する取引対象を出品した場合に、それらの取引対象に対して共通で付与される識別情報を取得する。そして、情報提供装置10は、取得した画像と識別情報とを端末装置100へと送信する。   The information providing apparatus 10 then searches the transaction target image registered in the online shopping mall, and identification information for identifying the transaction target in the online shopping mall (for example, JAN ( Japan Article Number) code). That is, the information providing apparatus 10 acquires identification information commonly given to a transaction object when different exhibitors exhibit a common transaction object in the online shopping mall. Then, the information providing apparatus 10 transmits the acquired image and identification information to the terminal apparatus 100.

この結果、端末装置100は、情報提供装置10により検索された画像、すなわち、端末装置100によって撮影された画像に含まれる取引対象の画像であって、電子商店街に登録された取引対象の画像と、取引対象の識別情報とを取得する。そして、端末装置100は、取得した取引対象の画像を、撮影された画像とともに表示する。より具体的には、端末装置100は、取得した取引対象の画像を、対応する識別情報を示すクエリ情報として表示する。なお、端末装置100および情報提供装置10は、上述した処理を画像に撮影された取引対象を識別する度に実行することで、クエリ情報を随時画面上に追加表示する。   As a result, the terminal device 100 is a transaction target image included in the image retrieved by the information providing device 10, that is, the image photographed by the terminal device 100, and registered in the online shopping mall. And the identification information of the transaction object. Then, the terminal device 100 displays the acquired transaction target image together with the captured image. More specifically, the terminal device 100 displays the acquired transaction target image as query information indicating corresponding identification information. In addition, the terminal device 100 and the information providing device 10 additionally display the query information on the screen as needed by executing the above-described processing every time the transaction target captured in the image is identified.

そして、端末装置100は、クエリ情報が選択された場合は、選択されたクエリ情報が示す検索クエリを用いて電子商店街の検索を行った検索結果を表示する。例えば、端末装置100は、選択されたクエリ情報と対応する識別情報をECサーバ200へと送信することで、クエリ情報として表示された取引対象を電子商店街で検索した際の検索結果を表示する。   When the query information is selected, the terminal device 100 displays a search result obtained by searching the online shopping mall using the search query indicated by the selected query information. For example, the terminal device 100 transmits the identification information corresponding to the selected query information to the EC server 200, thereby displaying a search result when the transaction target displayed as the query information is searched in the online shopping mall. .

このように、端末装置100は、撮影された画像から複数の取引対象が認識された場合は、認識された各取引対象の画像であって、電子商店街に登録されている各取引対象の画像を、撮影された画像とともに表示する。このため、端末装置100は、画像に撮影された商品のうち、利用者が所望する取引対象の選択を受付けることができるので、画像を用いた取引対象の検索における操作性を向上させることができる。また、端末装置100は、利用者がいずれかの画像を選択した場合は、選択された画像と対応する取引対象の検索結果を表示する。このため、端末装置100は、画像に撮影された取引対象のうち、利用者が購入を所望する取引対象の検索結果を表示することができる。   In this way, when a plurality of transaction targets are recognized from the captured image, the terminal device 100 is an image of each recognized transaction target, and each transaction target image registered in the online shopping mall. Is displayed together with the photographed image. For this reason, since the terminal device 100 can accept the selection of the transaction target desired by the user among the products photographed in the image, the operability in searching for the transaction target using the image can be improved. . In addition, when the user selects any image, the terminal device 100 displays a transaction target search result corresponding to the selected image. For this reason, the terminal device 100 can display the search result of the transaction object that the user desires to purchase among the transaction objects photographed in the image.

〔1−2.検索処理の概要について〕
次に、情報提供装置10が実行する検索処理の概要について説明する。上述したように、情報提供装置10は、端末装置100から受付けた画像に撮影された取引対象を認識し、認識した取引対象の画像であって、電子商店街に登録された取引対象の画像、すなわち、出品者により登録された取引対象の画像を検索し、検索した画像をクエリ情報として端末装置100に送信する。
[1-2. Overview of search processing)
Next, an outline of search processing executed by the information providing apparatus 10 will be described. As described above, the information providing apparatus 10 recognizes the transaction target photographed in the image received from the terminal device 100, is the recognized transaction target image, and is the transaction target image registered in the online shopping mall, That is, the transaction target image registered by the seller is searched, and the searched image is transmitted to the terminal device 100 as query information.

このような処理を実現するため、例えば、各種の画像認識技術を用いて、画像から取引対象が撮影された範囲を特定し、特定した範囲を検索クエリとする類似画像検索により取引対象を検索する手法が考えられる。しかしながら、このような類似画像検索では、検索精度があまり良くない場合がある。また、このような電子商店街における類似画像検索の精度を向上させるため、利用者から取引対象が属するカテゴリの指定を受付け、指定されたカテゴリに属する取引対象の中から、類似画像検索により、画像に撮影された取引対象の検索を行うといった手法が考えられる。しかしながら、このような手法では、利用者からカテゴリの指定を受付ける必要がある。   In order to realize such processing, for example, using various image recognition techniques, a range in which the transaction target is photographed is specified from the image, and the transaction target is searched by a similar image search using the specified range as a search query. A method can be considered. However, in such a similar image search, the search accuracy may not be so good. In addition, in order to improve the accuracy of similar image search in such an online shopping mall, the specification of the category to which the transaction object belongs is accepted from the user, and the image is obtained by searching for the similar image from the transaction objects belonging to the specified category. For example, a method of searching for a transaction object photographed in the above can be considered. However, in such a method, it is necessary to accept specification of a category from the user.

そこで、情報提供装置10は、以下の検索処理を実行する。例えば、情報提供装置10は、取引対象と取引対象が属するカテゴリとの間の関係性を学習した学習器を用いて、画像に撮影された取引対象が属するカテゴリを推定する。例えば、情報提供装置10は、電子商店街に出品されている取引対象のカテゴリと、取引対象の画像として電子商店街に登録された画像との間の共起性を学習するように学習が行われたCNNを学習器(以下、「カテゴリ推定モデル」と記載する。)として保持する。なお、情報提供装置10は、取引対象の画像だけではなく、味、香り、印象等といった取引対象が有する各種の属性等といった取引対象が有する各種の特徴と、取引対象のカテゴリとの間の関係性を学習したCNNをカテゴリ推定モデルとしてもよい。そして、情報提供装置10は、取引対象の画像をカテゴリ推定モデルに入力し、取引対象が属するカテゴリを推定する。なお、カテゴリ推定モデルは、CNN以外にも、例えば、取引対象の画像を入力した際に、その取引対象が属するカテゴリを出力するように、バックプロパゲーション等の各種学習手法により学習が行われたニューラルネットワーク等、各種の分類処理を実行する任意のモデルにより実現可能である。   Therefore, the information providing apparatus 10 executes the following search process. For example, the information providing apparatus 10 estimates the category to which the transaction target photographed in the image belongs, using a learning device that has learned the relationship between the transaction target and the category to which the transaction target belongs. For example, the information providing apparatus 10 performs learning so as to learn the co-occurrence between a transaction target category exhibited in an online shopping mall and an image registered in the electronic shopping mall as a transaction target image. The received CNN is held as a learning device (hereinafter referred to as “category estimation model”). Note that the information providing apparatus 10 is not limited to the image of the transaction target, but the relationship between the various characteristics of the transaction target such as various attributes of the transaction target such as taste, fragrance, and impression, and the category of the transaction target. CNN having learned sex may be used as a category estimation model. And the information provision apparatus 10 inputs the image of transaction object into a category estimation model, and estimates the category to which transaction object belongs. In addition to the CNN, the category estimation model is learned by various learning methods such as backpropagation so that when a transaction target image is input, the category to which the transaction target belongs is output. It can be realized by an arbitrary model that executes various classification processes such as a neural network.

ここで、電子商店街においては、木構造等の階層構造を有するカテゴリ分類が採用される場合がある。そこで、情報提供装置10は、上述した学習器を用いて、階層構造を有するカテゴリの中から取引対象が属するカテゴリの推定を行う。このような推定は、例えば、所定の階層のカテゴリに属する取引対象の画像と、そのカテゴリとの間の共起性を学習した学習器により実現可能である。そして、情報提供装置10は、最上位のカテゴリ、すなわち、ルートカテゴリから、推定されたカテゴリまでのカテゴリパスを特定する。   Here, in an online shopping mall, category classification having a hierarchical structure such as a tree structure may be employed. Therefore, the information providing apparatus 10 uses the learning device described above to estimate a category to which the transaction target belongs from categories having a hierarchical structure. Such estimation can be realized by, for example, a learning device that learns the co-occurrence between an image of a transaction target belonging to a category of a predetermined hierarchy and the category. Then, the information providing apparatus 10 specifies a category path from the highest category, that is, the root category to the estimated category.

なお、情報提供装置10は、カテゴリの階層構造において子ノードを有さない最下位の末端にあるカテゴリ、すなわち、リーフカテゴリ以外にも、任意の階層のカテゴリと、そのカテゴリに属する取引対象の画像との関係性を学習した学習器を用いて、取引対象が属するカテゴリの推定を行ってもよい。すなわち、情報提供装置10は、ルートカテゴリ以外のカテゴリであれば、任意の階層に属するカテゴリの中から、取引対象が属するカテゴリの推定を行ってよい。   In addition to the category at the lowest end that does not have child nodes in the hierarchical structure of the category, that is, the leaf category, the information providing apparatus 10 includes a category in an arbitrary hierarchy and a transaction target image belonging to the category. The category to which the transaction object belongs may be estimated using a learning device that has learned the relationship between the transaction object and the transaction object. That is, the information providing apparatus 10 may estimate the category to which the transaction object belongs from the categories belonging to any hierarchy as long as it is a category other than the root category.

続いて、情報提供装置10は、端末装置100から受付けた画像に撮影された取引対象の特徴量を取得する。例えば、情報提供装置10は、各種の画像認識技術を用いて、受付けた画像から取引対象が撮影された範囲を抽出し、抽出した範囲の画像特徴量を取得する。なお、このような画像特徴量の取得は、GIST(http://ilab.usc.edu/siagian/Research/Gist/Gist.html)、カラーヒストグラム、色分布などの広域特徴量やSIFT(Scale-Invariant Feature Transform)、SURF(Speed-Up Robust Features)、局所画像特徴量等、画像が有する特徴量を取得する任意の技術が採用可能である。なお、ニューラルネットで生成される特徴量も利用可能である。   Subsequently, the information providing apparatus 10 acquires the feature quantity of the transaction target captured in the image received from the terminal apparatus 100. For example, the information providing apparatus 10 uses various image recognition techniques to extract a range in which the transaction target is photographed from the received image, and acquires an image feature amount of the extracted range. In addition, acquisition of such an image feature amount includes GIST (http://ilab.usc.edu/siagian/Research/Gist/Gist.html), color histogram, color distribution, and other wide-area feature amounts and SIFT (Scale- Any technique for acquiring a feature amount of an image, such as an Invariant Feature Transform), SURF (Speed-Up Robust Features), or a local image feature amount, can be employed. Note that feature quantities generated by a neural network can also be used.

また、情報提供装置10は、推定されたカテゴリの特徴量(以下、「カテゴリ特徴量」と記載する。)を取得する。より具体的には、情報提供装置10は、ルートカテゴリから推定したカテゴリまでのカテゴリパスが有する特徴を示す特徴量をカテゴリ特徴量として算出する。なお、このようなカテゴリ特徴量は、例えば、類似するカテゴリパス同士のカテゴリ特徴量が類似し、類似しないカテゴリパス同士のカテゴリ特徴量が類似しないように、各カテゴリパスの分散表現を学習し、学習した分散表現をカテゴリ特徴量とすることで実現可能である。なお、情報提供装置10は、カテゴリパスの特徴を示すことができるのあれば、任意の特徴量算出技術により算出された特徴量をカテゴリ特徴量として採用してもよい。   In addition, the information providing apparatus 10 acquires a feature amount of the estimated category (hereinafter referred to as “category feature amount”). More specifically, the information providing apparatus 10 calculates a feature amount indicating a feature of a category path from the root category to the estimated category as a category feature amount. In addition, such a category feature quantity learns the distributed expression of each category path so that the category feature quantities of similar category paths are similar and the category feature quantities of dissimilar category paths are not similar, for example, This can be realized by using the learned distributed expression as a category feature amount. Note that the information providing apparatus 10 may adopt a feature amount calculated by an arbitrary feature amount calculation technique as a category feature amount as long as the feature of the category path can be indicated.

そして、情報提供装置10は、取得したカテゴリ特徴量と、画像特徴量とを用いて、画像に撮影された取引対象に対応する取引対象を、電子商店街に出品された取引対象の中から検索する。より具体的には、情報提供装置10は、カテゴリ特徴量と画像特徴量とを結合した結合特徴量を生成し、生成した結合特徴量を用いて、画像に撮影された取引対象に対応する取引対象を検索する。   Then, the information providing apparatus 10 uses the acquired category feature value and image feature value to search for a transaction object corresponding to the transaction object photographed in the image from among the transaction objects exhibited in the online shopping mall. To do. More specifically, the information providing apparatus 10 generates a combined feature amount obtained by combining the category feature amount and the image feature amount, and uses the generated combined feature amount to perform a transaction corresponding to the transaction target captured in the image. Search for a target.

例えば、情報提供装置10は、電子商店街に出品された取引対象ごとに、カテゴリ特徴量と画像特徴量とを結合した結合特徴量を算出し、保持する。そして、情報提供装置10は、端末装置100から受付けた画像から生成した結合特徴量と、保持した結合特徴量とを比較することで、撮影された取引対象と結合特徴量が類似する取引対象を、電子商店街に出品された取引対象から特定する。その後、情報提供装置10は、特定した取引対象の画像と、識別情報とを端末装置100に送信する。   For example, the information providing apparatus 10 calculates and holds a combined feature amount obtained by combining a category feature amount and an image feature amount for each transaction target exhibited in an online shopping mall. Then, the information providing apparatus 10 compares the combined feature amount generated from the image received from the terminal device 100 with the held combined feature amount, so that a transaction target having a similar combined feature amount to the photographed transaction target is obtained. , And specify from the transaction objects listed in the online shopping mall. Thereafter, the information providing apparatus 10 transmits the identified transaction target image and identification information to the terminal apparatus 100.

このように、情報提供装置10は、撮影された画像から、撮影された取引対象が属するカテゴリを推定するとともに、取引対象の画像特徴量を取得し、カテゴリ特徴量と画像特徴量とを用いて、画像に撮影された取引対象に対応する取引対象を電子商店街から検索する。そして、情報提供装置10は、画像に含まれる取引対象の画像をクエリ情報として撮影した画像とともに表示する端末装置100に対し、検索した取引対象の画像を提供する。このため、情報提供装置10は、利用者に取引対象のカテゴリを指定させずとも、カテゴリを用いた取引対象の検索を行うことができるので、精度良く取引対象の画像検索を実現することができる。   Thus, the information providing apparatus 10 estimates the category to which the photographed transaction object belongs from the photographed image, acquires the image feature quantity of the transaction object, and uses the category feature quantity and the image feature quantity. The transaction object corresponding to the transaction object photographed in the image is searched from the online shopping mall. Then, the information providing apparatus 10 provides the searched transaction target image to the terminal device 100 that displays the transaction target image included in the image together with the image captured as the query information. For this reason, since the information providing apparatus 10 can search for a transaction target using the category without allowing the user to specify the category of the transaction target, the image search of the transaction target can be realized with high accuracy. .

〔1−3.提供システムにおける処理の一例について〕
続いて、図1を用いて、提供システム1における処理の流れの一例を説明する。なお、以下の説明では、電子商店街に出品された取引対象を「出品対象」と記載し、出品対象の画像、すなわち、電子商店街に登録された取引対象の画像を「出品画像」と記載し、端末装置100が撮影した画像を「撮影画像」と記載する。
[1-3. Example of processing in the providing system)
Next, an example of a processing flow in the providing system 1 will be described with reference to FIG. In the following description, a transaction object that has been listed on the online shopping mall is referred to as an “exhibition object”, and an image to be displayed, that is, an image of a transaction object that is registered in the electronic shopping mall is described as an “exhibition image”. An image captured by the terminal device 100 is referred to as a “captured image”.

例えば、図1に示す例では、端末装置100は、利用者の操作に従って、取引対象の画像を撮影する(ステップS1)。図1に示す例では、端末装置100は、ワイン、カメラ、マグカップに入った珈琲、ティッシュペーパー、および缶ジュースを含む画像を撮影する。このような場合、端末装置100は、撮影した取引対象の画像を情報提供装置10に送信する(ステップS2)。   For example, in the example illustrated in FIG. 1, the terminal device 100 captures a transaction target image in accordance with a user operation (step S <b> 1). In the example illustrated in FIG. 1, the terminal device 100 captures an image including wine, a camera, a bag in a mug, tissue paper, and can juice. In such a case, the terminal device 100 transmits the captured transaction target image to the information providing device 10 (step S2).

このような場合、情報提供装置10は、撮影画像の中から取引対象が撮影された範囲を抽出する(ステップS3)。そして、情報提供装置10は、各カテゴリに属する取引対象の特徴を学習した学習器を用いて、撮影画像から抽出した範囲に撮影された取引対象が属するカテゴリを推定し、推定したカテゴリのカテゴリパスを特定する(ステップS4)。また、情報提供装置10は、取引対象が撮影された画像の特徴量、すなわち、画像特徴量を算出する(ステップS5)。   In such a case, the information providing apparatus 10 extracts a range in which the transaction target is photographed from the photographed image (step S3). And the information provision apparatus 10 estimates the category to which the transaction object image | photographed in the range extracted from the picked-up image using the learning device which learned the characteristic of the transaction object which belongs to each category, and the category path | pass of the estimated category Is specified (step S4). Further, the information providing apparatus 10 calculates the feature amount of the image in which the transaction target is photographed, that is, the image feature amount (step S5).

そして、情報提供装置10は、推定したカテゴリパスのカテゴリ特徴量と、画像特徴量とを結合した結合特徴量を生成し(ステップS6)、結合特徴量に基づいて、撮影された取引対象を電子商店街から検索する(ステップS7)。そして、情報提供装置10は、電子商店街から検索した取引対象の識別情報と出品画像とを端末装置100に提供する(ステップS8)。   Then, the information providing apparatus 10 generates a combined feature amount obtained by combining the estimated category path category feature amount and the image feature amount (step S6), and based on the combined feature amount, the captured transaction target is electronically generated. Search from the shopping street (step S7). Then, the information providing device 10 provides the terminal device 100 with the transaction target identification information and the exhibition image retrieved from the online shopping mall (step S8).

このような場合、端末装置100は、出品画像を選択可能な状態で、撮影した画像とともに複数表示する(ステップS9)。例えば、図1に示す例では、端末装置100は、画面上を、撮影画像ウインドウCW、画像表示ウインドウPW、および操作ウインドウMWに分割する。そして、端末装置100は、撮影画像ウインドウCWに撮影画像を配置して表示するとともに、画像表示ウインドウPWに、情報提供装置10から取得した出品画像をクエリ情報として並べて表示する。例えば、図1に示す例では、端末装置100は、ステップS1にて撮影された取引対象である缶ジュースの出品画像、珈琲豆の出品画像、ワインの出品画像、およびティッシュの出品画像を並べて表示する。なお、端末装置100は、各出品画像を、取引対象が認識される度に追加していってもよい。また、端末装置100は、操作ウインドウMWに、画像の撮影に関する各種操作を受付けるためのアイコンを表示する。   In such a case, the terminal device 100 displays a plurality of the displayed images together with the captured images in a state where the exhibition images can be selected (step S9). For example, in the example illustrated in FIG. 1, the terminal device 100 divides the screen into a captured image window CW, an image display window PW, and an operation window MW. And the terminal device 100 arrange | positions and displays a picked-up image on the picked-up image window CW, and displays the exhibition image acquired from the information provision apparatus 10 side by side as query information on the image display window PW. For example, in the example illustrated in FIG. 1, the terminal device 100 displays the exhibition image of the can juice, the exhibition image of peas, the exhibition image of wine, and the exhibition image of tissue, which are photographed in step S1, side by side. To do. The terminal device 100 may add each exhibition image every time a transaction target is recognized. In addition, the terminal device 100 displays icons for accepting various operations related to image capturing in the operation window MW.

また、端末装置100は、画像表示ウインドウPWに並べて表示された出品画像を利用者が選択した場合は、出品画像が選択された取引対象の識別情報をECサーバ200に送信する(ステップS10)。このような場合、ECサーバ200は、受信した識別情報が示す出品対象、すなわち、出品画像が選択された出品対象の検索結果を価格順にリスティングした検索結果を生成し、生成した検索結果を端末装置100に提供する(ステップS11)。   Further, when the user selects an exhibition image displayed side by side in the image display window PW, the terminal device 100 transmits the identification information of the transaction target for which the exhibition image is selected to the EC server 200 (step S10). In such a case, the EC server 200 generates a search result listing the search results of the exhibition object indicated by the received identification information, that is, the exhibition object for which the exhibition image is selected, in order of price, and the generated search result is the terminal device. 100 (step S11).

〔2.端末装置が実行する処理について〕
続いて、図2を用いて、端末装置100における画面遷移の一例を説明する。図2は、実施形態に係る端末装置が表示する画面の一例を説明する図である。なお、図2に示す例では、端末装置100が表示する画面の一例を第1状態から第7状態に分けて記載した。
[2. About processing executed by terminal device]
Next, an example of screen transition in the terminal device 100 will be described with reference to FIG. FIG. 2 is a diagram illustrating an example of a screen displayed by the terminal device according to the embodiment. In the example illustrated in FIG. 2, an example of a screen displayed by the terminal device 100 is described in the first state to the seventh state.

例えば、端末装置100は、表示処理を実行させるためのアプリケーションが起動された場合には、第1状態に示す画面を表示する。例えば、端末装置100は、撮影画像ウインドウCWにカメラが撮影しているプレビュー画像を明度を低下させた状態で表示するとともに、画像表示ウインドウPWに「スキャンを開始してください」等といったメッセージを表示する。また、端末装置100は、操作ウインドウMW上に、履歴ボタンHB、撮影ボタンSB、およびカメラロールボタンRBを表示する。   For example, when an application for executing display processing is activated, the terminal device 100 displays a screen shown in the first state. For example, the terminal device 100 displays the preview image captured by the camera in the captured image window CW in a state in which the brightness is lowered, and displays a message such as “Start scanning” on the image display window PW. To do. Further, the terminal device 100 displays a history button HB, a shooting button SB, and a camera roll button RB on the operation window MW.

一方、端末装置100は、例えば、利用者が撮影ボタンSBを選択した場合には、第2状態に示すように、撮影中である旨を示す形状に変化させた撮影ボタンSBを表示するとともに、カメラが撮影する画像の撮影を開始する。そして、端末装置100は、第2状態に示すように、撮影画像を撮影画像ウインドウCWに表示するとともに、撮影した画像を情報提供装置10に順次送信する。   On the other hand, for example, when the user selects the shooting button SB, the terminal device 100 displays the shooting button SB that has been changed to a shape indicating that shooting is in progress, as shown in the second state. Start shooting an image taken by the camera. Then, as shown in the second state, the terminal device 100 displays the captured image in the captured image window CW and sequentially transmits the captured image to the information providing device 10.

ここで、利用者が端末装置100を移動させながら画像(動画像)を撮影したものとする。このような場合、端末装置100は、撮影した画像を順次情報提供装置10へと送信し、情報提供装置10が認識した取引対象の出品画像を受付ける。すなわち、端末装置100は、動画像から取引対象が認識される度に、認識された取引対象を電子商店街で検索するための検索クエリを示すクエリ情報として、認識された取引対象の画像を追加表示する。   Here, it is assumed that the user has taken an image (moving image) while moving the terminal device 100. In such a case, the terminal device 100 sequentially transmits the captured images to the information providing device 10 and accepts the exhibition image to be traded recognized by the information providing device 10. That is, each time the transaction target is recognized from the moving image, the terminal device 100 adds the recognized transaction target image as query information indicating a search query for searching the recognized transaction target in the online shopping mall. indicate.

例えば、情報提供装置10が撮影画像から缶ジュースを認識し、缶ジュースの出品画像と識別情報とを端末装置100に提供したものとする。このような場合、端末装置100は、第2状態に示すように、情報提供装置10から、缶ジュースの出品画像と識別情報とを受付けた場合は、受付けた缶ジュースの出品画像をクエリ情報C1として画像表示ウインドウPWに表示する。   For example, it is assumed that the information providing device 10 recognizes can juice from a captured image and provides the terminal device 100 with an exhibition image of can juice and identification information. In such a case, as shown in the second state, when the terminal device 100 receives the can juice exhibition image and the identification information from the information providing device 10, the terminal device 100 uses the received can juice exhibition image as the query information C1. Is displayed on the image display window PW.

また、情報提供装置10は、撮影画像からマグカップに入った珈琲を認識する。このような場合、情報提供装置10は、CNNを用いた画像検索により、マグカップに入った珈琲の画像から、出品対象となる珈琲豆の識別情報と出品画像とを提供する。例えば、情報提供装置10は、マグカップに入った珈琲の画像から出品対象である珈琲豆との関係性を学習したCNNを用いた画像検索により、出品対象となる珈琲豆の識別情報と出品画像とを提供する。このような場合、端末装置100は、第3状態に示すように、マグカップに入った珈琲ではなく、珈琲豆の出品画像をクエリ情報C2として表示する。なお、情報提供装置10は、マグカップそのものを認識し、出品対象となるマグカップの識別情報と出品画像とを提供してもよい。   Moreover, the information provision apparatus 10 recognizes the wrinkle that has entered the mug from the photographed image. In such a case, the information providing apparatus 10 provides the identification information and the exhibition image of the coffee beans to be exhibited from the image of the basket that has entered the mug by the image search using the CNN. For example, the information providing apparatus 10 performs the image search using the CNN that learned the relationship with the coffee beans to be displayed from the image of the coffee beans in the mug, and the identification information and the display images of the coffee beans to be displayed. I will provide a. In such a case, as shown in the third state, the terminal device 100 displays the display image of the coffee beans as the query information C2 instead of the coffee beans that have entered the mug. The information providing apparatus 10 may recognize the mug itself and provide identification information and an exhibition image of the mug to be exhibited.

また、情報提供装置10は、ワインの出品画像と識別情報とを提供する。この結果、端末装置100は、ワインの出品画像をクエリ情報C3として表示する。また、情報提供装置10は、ティッシュペーパーの出品画像と識別情報とを提供する。この結果、端末装置100は、ティッシュペーパーの出品画像をクエリ情報C4として表示する。このように、端末装置100は、情報提供装置10が撮影画像から認識した順に、取引対象の出品画像をクエリ情報として順に追加表示する。そして、端末装置100は、画像表示ウインドウPW上で、横方向のスクロール操作を受付けた場合は、順に追加表示したクエリ情報C1〜C4をスクロールさせる。なお、端末装置100は、クエリ情報C1〜C4をカルーセル表示してもよい。   In addition, the information providing apparatus 10 provides a wine exhibition image and identification information. As a result, the terminal device 100 displays the wine exhibition image as the query information C3. Further, the information providing apparatus 10 provides an exhibition image and identification information of tissue paper. As a result, the terminal device 100 displays the exhibition image of the tissue paper as the query information C4. As described above, the terminal device 100 additionally displays the exhibition images to be traded in order as query information in the order in which the information providing device 10 recognizes the captured images. When the terminal device 100 accepts a horizontal scroll operation on the image display window PW, the terminal device 100 scrolls the query information C1 to C4 additionally displayed in order. Note that the terminal device 100 may display the query information C1 to C4 in a carousel.

ここで、利用者が、珈琲豆のクエリ情報C2およびワインのクエリ情報C3を選択し、取引対象の検索を指示する操作を行ったものとする。このような場合、端末装置100は、選択された複数のクエリ情報が示す複数の検索クエリを用いて電子商店街の検索を行なった検索結果を表示する。例えば、端末装置100は、クエリ情報C2に対応する識別情報、すなわち、珈琲豆の識別情報と、クエリ情報C3に対応する識別情報、すなわち、ワインの識別情報とをECサーバ200に送信する。このような場合、ECサーバ200は、受付けた識別情報が付された出品対象を検索し、検索結果を端末装置100へと送信する。   Here, it is assumed that the user selects the query information C2 for coffee beans and the query information C3 for wine, and performs an operation for instructing a search for a transaction target. In such a case, the terminal device 100 displays a search result obtained by searching the online shopping mall using a plurality of search queries indicated by the selected plurality of query information. For example, the terminal device 100 transmits to the EC server 200 identification information corresponding to the query information C2, that is, identification information of red beans, and identification information corresponding to the query information C3, that is, wine identification information. In such a case, the EC server 200 searches for an exhibition target to which the received identification information is attached, and transmits the search result to the terminal device 100.

この結果、端末装置100は、第4状態に示すように、電子商店街における取引対象の検索結果であって、撮影した取引対象のうち、利用者が所望する取引対象である珈琲豆とワインの検索結果を表示することができる。例えば、端末装置100は、電子商店街に出品された珈琲豆とワインとを安価な順に並べた検索結果を表示する。   As a result, as shown in the fourth state, the terminal device 100 is the search result of the transaction target in the online shopping mall, and among the photographed transaction targets, the peas and wine that are the transaction targets desired by the user Search results can be displayed. For example, the terminal device 100 displays a search result in which coffee beans and wine exhibited in an online shopping mall are arranged in ascending order.

そして、端末装置100は、検索結果の中から利用者がいずれかの出品対象を選択した場合は、出品対象を販売するコンテンツをECサーバ200から取得し、第5状態に示すように、取得したコンテンツを表示する。この結果、端末装置100は、画像を用いた取引対象の購入を適切に補助することができる。   Then, when the user selects one of the exhibition targets from the search result, the terminal device 100 acquires the content for selling the exhibition target from the EC server 200 and acquires the content as shown in the fifth state. Display content. As a result, the terminal device 100 can appropriately assist the purchase of the transaction target using the image.

ここで、第1状態に示す場合に、利用者がカメラロールボタンRBを選択した場合は、端末装置100は、第6状態に示す様に、端末装置100が過去に撮影した画像を並べた、所謂カメラロールCRと、検索ボタンDBとを表示する。すなわち、端末装置100は、端末装置100が所定の記憶領域に保持する画像を並べて表示する。そして、例えば、端末装置100は、利用者がカメラロールCR上からいずれかの画像を選択し、検索ボタンDBを選択した場合は、選択した画像を情報提供装置10へと送信することで、選択した画像に撮影された取引対象の出品画像と識別情報とを取得する。   Here, in the case of the first state, when the user selects the camera roll button RB, the terminal device 100 arranges images taken by the terminal device 100 in the past as shown in the sixth state. A so-called camera roll CR and a search button DB are displayed. That is, the terminal device 100 displays the images that the terminal device 100 holds in a predetermined storage area side by side. For example, when the user selects one of the images on the camera roll CR and selects the search button DB, the terminal device 100 transmits the selected image to the information providing device 10 to select the image. The exhibition image and identification information of the transaction target photographed in the image obtained are acquired.

そして、端末装置100は、第3状態に示すように、選択された画像を撮影画像ウインドウCWに表示するとともに、取得した出品画像をクエリ情報として表示する。すなわち、端末装置100は、カメラロールボタンRBが選択された場合は、過去に撮影された画像を並べて表示し、表示された画像を利用者が選択した場合は、選択された画像に含まれる取引対象の画像を、クエリ情報として複数表示する。   Then, as shown in the third state, the terminal device 100 displays the selected image in the captured image window CW and displays the acquired exhibition image as query information. That is, when the camera roll button RB is selected, the terminal device 100 displays images taken in the past side by side. When the user selects a displayed image, the terminal device 100 includes a transaction included in the selected image. A plurality of target images are displayed as query information.

また、端末装置100は、第1状態に示す場合に、利用者が履歴ボタンHBを選択した場合には、第7状態に示すように、利用者が過去に購入した取引対象の出品画像や価格等を履歴として表示する。そして、端末装置100は、履歴として表示された出品画像のうち、いずれかの出品画像を選択した場合は、第5状態に示すように、選択された出品画像と対応する出品対象を販売するコンテンツをECサーバ200から取得して表示する。   Further, in the case where the terminal device 100 is shown in the first state, when the user selects the history button HB, as shown in the seventh state, the exhibition image or price of the transaction target purchased by the user in the past is displayed. Etc. are displayed as a history. Then, when any one of the exhibition images displayed as the history is selected, the terminal device 100 sells the exhibition object corresponding to the selected exhibition image, as shown in the fifth state. Is acquired from the EC server 200 and displayed.

〔3.情報提供装置が実行する処理の一例について〕
続いて、図3を用いて、情報提供装置10が実行する検索処理の一例を説明する。図3は、実施形態に係る情報提供装置が実行する検索処理の一例を示す図である。例えば、情報提供装置10は、出品対象に関する各種の情報が格納された出品対象データベース31を保持する。出品対象データベース31には、出品対象である取引対象を識別する出品対象ID(Identifier)、カテゴリパス、出品画像、識別情報、結合特徴量、および出品情報等といった情報が登録されている。
[3. Example of processing executed by information providing device)
Next, an example of search processing executed by the information providing apparatus 10 will be described with reference to FIG. FIG. 3 is a diagram illustrating an example of search processing executed by the information providing apparatus according to the embodiment. For example, the information providing apparatus 10 holds an exhibition object database 31 in which various information related to the exhibition object is stored. In the exhibition object database 31, information such as an exhibition object ID (Identifier) for identifying a transaction object that is an exhibition object, a category path, an exhibition image, identification information, a combined feature amount, and exhibition information are registered.

情報提供装置10は、このような出品対象データベース31に登録された情報を用いて、同一のカテゴリに属する取引対象を選択し、選択した取引対象の結合特徴量が有する特徴量を学習器であるCNNに学習させる(ステップS1)。すなわち、情報提供装置10は、カテゴリとそのカテゴリに属する出品対象との共起性をCNNに学習させる。   The information providing apparatus 10 is a learning device that selects the transaction target belonging to the same category using the information registered in the exhibition target database 31 as described above, and the feature amount of the selected combined feature amount of the transaction target is a learning device. Let CNN learn (step S1). That is, the information providing apparatus 10 causes the CNN to learn the co-occurrence of a category and an exhibition target belonging to the category.

なお、上述したCNNの学習については、以下に説明する検索処理の前段階として実行されればよい。また、情報提供装置10は、CNNの学習を自装置で実行する必要はなく、例えば、所定の学習装置によって学習が行われたCNNを用いて、以下に説明する検索処理を実行してもよい。   Note that the above-described learning of CNN may be executed as a pre-stage of search processing described below. In addition, the information providing apparatus 10 does not have to perform CNN learning by itself, and may execute a search process described below using, for example, the CNN learned by a predetermined learning apparatus. .

続いて、情報提供装置10は、撮影画像を端末装置100から受付ける(ステップS2)。このような場合、情報提供装置10は、撮影画像にバーコードが含まれているか否かを判定し(ステップS3)、バーコードが含まれている場合は、かかるバーコードと対応する取引対象の識別情報と出品画像とを端末装置100に提供する(ステップS4)。   Subsequently, the information providing apparatus 10 receives a captured image from the terminal apparatus 100 (step S2). In such a case, the information providing apparatus 10 determines whether or not a bar code is included in the captured image (step S3). If the bar code is included, the information providing apparatus 10 determines the transaction target corresponding to the bar code. The identification information and the exhibition image are provided to the terminal device 100 (step S4).

また、情報提供装置10は、撮影画像からバーコードが撮影されていなかった取引対象を認識し(ステップS5)、認識した取引対象が撮影された範囲を対象画像として抽出する(ステップS6)。そして、情報提供装置10は、対象画像をCNNに入力し、リーフカテゴリを推定する(ステップS7)。また、情報提供装置10は、推定したリーフカテゴリまでのカテゴリパスを取得する(ステップS8)。そして、情報提供装置10は、取得したカテゴリパスの特徴量、すなわち、カテゴリ特徴量を取得する(ステップS9)。   Further, the information providing apparatus 10 recognizes a transaction target for which a barcode has not been captured from the captured image (step S5), and extracts a range where the recognized transaction target is captured as a target image (step S6). Then, the information providing apparatus 10 inputs the target image to the CNN and estimates a leaf category (Step S7). Further, the information providing apparatus 10 acquires a category path up to the estimated leaf category (step S8). Then, the information providing apparatus 10 acquires the feature amount of the acquired category path, that is, the category feature amount (step S9).

また、情報提供装置10は、対象画像の画像特徴量を取得し(ステップS10)、カテゴリ特徴量と画像特徴量とを結合した結合特徴量を生成する(ステップS11)。そして、情報提供装置10は、結合特徴量を用いて、撮影された取引対象と対応する出品対象の検索を行い(ステップS12)、検索した出品対象の識別情報と出品画像とを取得する(ステップS13)。その後、情報提供装置10は、識別情報と出品画像とを端末装置100に提供する(ステップS14)。   The information providing apparatus 10 acquires the image feature amount of the target image (step S10), and generates a combined feature amount obtained by combining the category feature amount and the image feature amount (step S11). Then, the information providing apparatus 10 searches the exhibition object corresponding to the photographed transaction object using the combined feature amount (step S12), and acquires the searched identification information and the exhibition image of the exhibition object (step S12). S13). Thereafter, the information providing device 10 provides the identification information and the exhibition image to the terminal device 100 (step S14).

なお、情報提供装置10は、端末装置100からストリーミング送信された画像から、取引対象を認識する度に、ステップS6〜ステップS13に示す処理を実行することで、撮影された取引対象の出品画像と識別情報とを端末装置100に随時提供することとなる。   The information providing apparatus 10 executes the processing shown in Steps S6 to S13 each time the transaction object is recognized from the image stream-transmitted from the terminal device 100, so that the displayed exhibition image of the transaction object is captured. The identification information is provided to the terminal device 100 as needed.

〔4.処理のバリエーションについて〕
続いて、情報提供装置10および端末装置100が実行する処理のバリエーションの一例について説明する。
[4. About processing variations)
Then, an example of the variation of the process which the information provision apparatus 10 and the terminal device 100 perform is demonstrated.

〔4−1.検索について〕
上述した例では、端末装置100は、電子商店街に出品された出品対象のうち、撮影された取引対象と同じ出品対象の出品画像を、その出品対象を検索するためのクエリ情報として表示した。しかしながら、実施形態は、これに限定されるものではない。例えば、端末装置100は、撮影された画像に含まれる取引対象の画像を、その取引対象およびその取引対象と関連する他の取引対象を電子商店街で検索するための検索クエリを示すクエリ情報として表示してもよい。例えば、端末装置100は、撮影された取引対象と類似する出品対象を検索するためのクエリ情報を表示してもよい。また、端末装置100は、撮影された画像に含まれる取引対象と関連する他の取引対象の画像を、他の取引対象を電子商店街で検索するための検索クエリを示すクエリ情報として表示してもよい。
[4-1. About search)
In the example described above, the terminal device 100 displays the exhibition image of the same exhibition object as the photographed transaction object among the exhibition objects exhibited in the online shopping mall as query information for searching for the exhibition object. However, the embodiment is not limited to this. For example, the terminal device 100 uses the transaction target image included in the captured image as query information indicating a search query for searching the transaction target and other transaction targets related to the transaction target in the online shopping mall. It may be displayed. For example, the terminal device 100 may display query information for searching for an exhibition object similar to the photographed transaction object. In addition, the terminal device 100 displays other transaction target images related to the transaction target included in the photographed image as query information indicating a search query for searching other transaction targets in the online shopping mall. Also good.

より具体的な例を挙げると、端末装置100は、缶ジュースが撮影された場合は、容量が同じ缶ジュースだけではなく、内容物が同じであって、容量が異なる缶ジュースやペットボトルに入れられたジュースを検索するためのクエリ情報を表示してもよい。このようなクエリ情報は、検索対象となる出品対象ごとに異なる画像であってもよく、例えば、ある1つのクエリ情報に、類似する複数の出品対象を検索するための複数の識別情報を対応付けることで実現してもよい。   To give a more specific example, the terminal device 100, when canned juice is photographed, is put not only in canned juice having the same capacity, but also in canned juices and plastic bottles having the same contents and different capacities. Query information for searching for the juice obtained may be displayed. Such query information may be a different image for each exhibition target to be searched. For example, a plurality of identification information for searching for a plurality of similar exhibition targets is associated with one query information. It may be realized with.

このような表示を行う場合、情報提供装置10は、画像に撮影された取引対象に対応する出品対象として、画像に撮影された取引対象と類似する出品対象、または、画像に撮影された取引対象と所定の関連性を有する出品対象を検索することとなる。例えば、情報提供装置10は、上述した検索処理を実行することで、缶ジュースが撮影された画像から、撮影された缶ジュースと同一の出品対象を特定し、特定した出品対象の識別情報を取得する。また、情報提供装置10は、取得した識別情報を用いて、撮影された缶ジュースと類似する他の出品対象(例えば、内容物が同じで容量が異なる出品対象や容器が異なる出品対象等)の識別情報を取得する。   When performing such a display, the information providing apparatus 10 uses the exhibition object similar to the transaction object photographed in the image as the exhibition object corresponding to the transaction object photographed in the image, or the transaction object photographed in the image. And the exhibition object having a predetermined relevance. For example, the information providing apparatus 10 executes the above-described search process to identify the same exhibition object as the photographed can juice from the photograph of the can juice photographed, and obtains the identification information of the identified exhibition object To do. In addition, the information providing apparatus 10 uses the acquired identification information to identify other listings similar to the photographed can juice (for example, listings with the same contents but different capacities, listings with different containers, etc.). Get identification information.

そして、情報提供装置10は、撮影された缶ジュースと同一の出品対象の出品画像と、取得した複数の識別情報とを対応付けて端末装置100へと送信する。このような場合、端末装置100は、受付けた出品画像をクエリ情報として表示するとともに、そのクエリ情報が選択された場合は、出品画像が示す出品対象のみならず、その出品対象と類似する他の出品対象を含む検索結果を表示することとなる。   Then, the information providing apparatus 10 associates the exhibition image that is the same as the photographed can juice with the exhibition object and the acquired plurality of pieces of identification information, and transmits them to the terminal device 100. In such a case, the terminal device 100 displays the received exhibition image as query information. When the query information is selected, the terminal device 100 displays not only the exhibition object indicated by the exhibition image but also other similar objects to the exhibition object. The search result including the exhibition object will be displayed.

また、端末装置100は、クエリ情報が示す取引対象そのもの以外にも、クエリ情報が示す取引対象と関連する取引対象の検索結果を表示してもよい。例えば、一般的なプリンタは、インクやトナーがプリンタ内部に設置されているため、画像検索によりインクやトナーを購入する場合は、プリンタのカバー等を取り外して、写真を撮影する必要がある。そこで、端末装置100は、プリンタが撮影された場合は、プリンタ本体を検索するためのクエリ情報のみならず、そのプリンタで使用されるインクやトナー等を検索するクエリ情報を表示する。   Moreover, the terminal device 100 may display the search result of the transaction object related to the transaction object indicated by the query information in addition to the transaction object itself indicated by the query information. For example, in a general printer, ink and toner are installed inside the printer. Therefore, when purchasing ink or toner by image search, it is necessary to take a picture by removing the printer cover or the like. Therefore, when the printer is photographed, the terminal device 100 displays not only query information for searching the printer body but also query information for searching for ink, toner, etc. used in the printer.

例えば、端末装置100は、プリンタが撮影された画像を情報提供装置10へと送信する。このような場合、情報提供装置10は、撮影されたプリンタの識別情報を取得し、取得した識別情報から、撮影されたプリンタで使用されるインクやトナー等、撮影されたプリンタと関連する他の出品対象を特定し、特定した出品対象の識別情報を取得する。そして、情報提供装置10は、撮影されたプリンタの出品画像と、取得した複数の識別情報とを対応付けて端末装置100に提供してもよい。   For example, the terminal device 100 transmits an image captured by the printer to the information providing device 10. In such a case, the information providing apparatus 10 acquires the identification information of the photographed printer, and from the acquired identification information, other information related to the photographed printer, such as ink and toner used in the photographed printer. The exhibition object is specified, and the identification information of the specified exhibition object is acquired. Then, the information providing device 10 may provide the terminal device 100 with the photographed printer exhibition image and the acquired plurality of identification information in association with each other.

また、情報提供装置10は、プリンタ、インク、トナー等、特定した出品対象ごとに出品画像と識別情報との組を端末装置100に提供してもよい。このような場合、情報提供装置10は、プリンタを撮影した場合に、プリンタそのものを検索するためのクエリ情報のみならず、撮影されたプリンタで使用するインクやトナーを検索するためのクエリ情報をも表示することができる。なお、情報提供装置10は、撮影されたプリンタのマニュアル等を特定し、特定したマニュアルの識別情報を提供してもよい。   Further, the information providing apparatus 10 may provide the terminal apparatus 100 with a set of an exhibition image and identification information for each specified exhibition target such as a printer, ink, toner, or the like. In such a case, the information providing apparatus 10 has not only query information for searching for the printer itself but also query information for searching for ink and toner to be used in the taken printer when the printer is shot. Can be displayed. The information providing apparatus 10 may specify a photographed printer manual and provide identification information of the specified manual.

なお、検索結果の表示順序については、任意の順序が採用可能である。例えば、端末装置100は、選択されたクエリ情報と対応する識別情報が付与された出品対象を、価格順に並べた検索結果を表示してもよく、利用者の属性に応じた順序で並べた検索結果を表示してもよい。また、端末装置100は、例えば、販売数順、閲覧数順、人気順、各出品者が電子商店街に対して提供する報酬(例えば、広告額)の順等、任意の順序で並び替えが行われた検索結果を表示して良い。また、端末装置100は、飲食料に属する出品対象を、カロリーの順に並べて表示してもよい。また、端末装置100は、検索結果として、若しくは、検索結果中に、各出品対象に対するレビューの文面を合わせて表示してもよい。   Note that any order can be adopted as the display order of the search results. For example, the terminal device 100 may display the search results in which the listing objects to which the identification information corresponding to the selected query information is assigned are arranged in order of price, and the search is arranged in the order corresponding to the attribute of the user. Results may be displayed. In addition, the terminal device 100 can be rearranged in an arbitrary order such as, for example, sales order, browsing order, popularity order, or a reward (for example, advertising amount) provided by each exhibitor to the online shopping mall. The search results that have been performed may be displayed. Moreover, the terminal device 100 may arrange and display the exhibition objects belonging to the food and drink in the order of calories. Further, the terminal device 100 may display a review text for each exhibition target together as a search result or in the search result.

また、端末装置100は、複数のクエリ情報が選択された場合は、選択されたクエリ情報と対応する識別情報ごとに、出品対象の検索を行ってもよく、例えば、選択されたクエリ情報と対応する取引対象がセット商品となっている出品対象の検索を行ってもよい。より具体的な例を挙げると、端末装置100は、珈琲豆を示すクエリ情報と、ワインを示すクエリ情報とが選択された場合は、珈琲豆とワインとのセット商品を検索してもよい。   In addition, when a plurality of pieces of query information are selected, the terminal device 100 may search for an exhibition target for each piece of identification information corresponding to the selected query information. For example, the terminal device 100 corresponds to the selected query information. You may search the exhibition object whose transaction object is set goods. As a more specific example, the terminal device 100 may search for a set product of red beans and wine when query information indicating red beans and query information indicating wine are selected.

また、端末装置100は、選択された複数のクエリ情報と対応する出品対象をそれぞれ購入した場合に、最安値となるように、出品対象の検索結果を表示してもよい。例えば、端末装置100は、珈琲豆を示すクエリ情報と、ワインを示すクエリ情報とが選択された場合は、珈琲豆とワインとをそれぞれ購入した際に、送料を含めて最安値となる出品対象の組み合わせを検索する。   Further, the terminal device 100 may display the search result of the exhibition object so that the lowest price is obtained when each of the exhibition objects corresponding to the plurality of selected query information is purchased. For example, when the query information indicating coffee beans and the query information indicating wine are selected, the terminal device 100 exhibits the lowest price including shipping costs when purchasing coffee beans and wine, respectively. Search for combinations of.

例えば、A店で珈琲豆が「500円」で販売されており、B店で珈琲豆が「700円」、ワインが「1000円」で販売されているものとする。また、購入物品や数に係わらず、A店での送料は「400円」であり、B店での送料は「600円」であるものとする。このような場合、珈琲豆をA店で購入し、ワインをB店で購入した場合、送料がそれぞれにかかるため、合計金額は、「2500円」となる。一方、珈琲豆とワインとをB店で購入した場合、送料が「600円」で済むため、合計金額は「2300円」となる。このような場合、端末装置100は、検索結果として、B店の珈琲豆およびワインを表示してもよい。   For example, it is assumed that coffee beans are sold at “500 yen” at store A, coffee beans are sold at “700 yen”, and wine is sold at “1000 yen” at store B. In addition, the shipping fee at the store A is “400 yen” and the shipping fee at the store B is “600 yen”, regardless of the number of purchased items and the number. In such a case, when the coffee beans are purchased at the store A and the wine is purchased at the store B, the shipping fee is charged for each, so the total amount is “2500 yen”. On the other hand, if the beans and wine are purchased at the store B, the shipping fee is “600 yen”, so the total amount is “2300 yen”. In such a case, the terminal device 100 may display the coffee beans and wine from the store B as search results.

〔4−2.クエリ情報の表示形式について〕
上述した例では、端末装置100は、図2に示す表示態様で、クエリ情報の表示を行った。しかしながら、実施形態は、これに限定されるものではない。例えば、端末装置100は、撮影された取引対象の出品画像をクエリ情報として表示するのであれば、任意の画面レイアウトにおける任意の位置にクエリ情報を表示して良い。
[4-2. Query information display format)
In the example described above, the terminal device 100 displays the query information in the display mode illustrated in FIG. However, the embodiment is not limited to this. For example, the terminal device 100 may display the query information at an arbitrary position in an arbitrary screen layout as long as the photographed exhibition image of the transaction object is displayed as the query information.

また、例えば、端末装置100は、撮影された取引対象のうちどの取引対象と対応するクエリ情報であるかを示す情報を表示してもよい。例えば、端末装置100は、受信した出品画像と対応する取引対象が撮影された範囲を囲むアイコンを撮影画像ウインドウCWに表示してもよい。また、例えば、端末装置100は、利用者がクエリ情報を選択した際に、選択したクエリ情報と対応する取引対象が撮影された範囲を囲むアイコンを表示してもよい。このような処理は、例えば、情報提供装置10が、出品画像と識別情報との組とともに、端末装置100が撮影した画像のうち、その識別情報が示す取引対象が撮影された範囲を示す範囲情報を端末装置100へと通知することで、実現可能である。   Further, for example, the terminal device 100 may display information indicating which transaction target is the query information corresponding to the captured transaction target. For example, the terminal device 100 may display an icon surrounding the range in which the transaction object corresponding to the received exhibition image is captured in the captured image window CW. Further, for example, when the user selects query information, the terminal device 100 may display an icon surrounding a range in which a transaction target corresponding to the selected query information is captured. Such processing includes, for example, range information indicating a range in which the transaction target indicated by the identification information is photographed among the images photographed by the terminal device 100 together with the combination of the exhibition image and the identification information. Is notified to the terminal device 100.

また、端末装置100は、出品画像を受信した場合は、撮影された画像のうち、受信した出品画像と対応する取引対象が撮影された範囲に受信した出品画像を重ねて表示し、その後、出品画像が画像表示ウインドウPWに落ちていくといった対応で、クエリ情報の表示を行ってもよい。このように、端末装置100は、撮影された取引対象のうちどの取引対象と対応するクエリ情報であるかを示す情報を表示することで、操作性をさらに向上させることができる。   In addition, when receiving the exhibition image, the terminal device 100 displays the received exhibition image in a range in which the transaction object corresponding to the received exhibition image is captured, and then displays the exhibition image. Query information may be displayed in response to an image falling on the image display window PW. Thus, the terminal device 100 can further improve the operability by displaying the information indicating which transaction object corresponds to the transaction object among the photographed transaction objects.

なお、端末装置100は、取引対象の画像を撮影する際に、クエリ情報と共に、クエリ情報若しくはクエリ情報が示す検索クエリに関する情報であって、電子商店街に登録された情報を合わせて表示してもよい。例えば、情報提供装置10は、取引対象の画像(すなわち、クエリ情報)と、対応する識別情報と共に、識別情報が示す取引対象の販売価格であって、最も安い販売価格を端末装置100へと送信する。このような場合、端末装置100は、クエリ情報として、取引対象の画像を表示するとともに、かかる画像に情報提供装置10から受付けた販売価格を示す数値を重ねて表示してもよい。このような表示を行うことで、端末装置100は、クエリ情報に電子商店街における最安値を重ねて表示することができる。   The terminal device 100 displays the query information or information related to the search query indicated by the query information together with the query information and the information registered in the online shopping mall together with the query information when photographing the transaction target image. Also good. For example, the information providing apparatus 10 transmits the image of the transaction target (that is, query information) and the corresponding identification information together with the sales price of the transaction target indicated by the identification information to the terminal device 100. To do. In such a case, the terminal device 100 may display the transaction target image as the query information, and may superimpose a numerical value indicating the sales price received from the information providing device 10 on the image. By performing such a display, the terminal device 100 can display the lowest price in the online shopping mall on the query information.

なお、端末装置100は、撮影画像から抽出された画像に、電子商店街における最安値を重ねて表示してもよい。また、端末装置100は、販売対象となる取引対象のうち、販売数が最も多い店舗における取引対象の販売価格、閲覧数が最も多い店舗における取引対象の販売価格、人気が最も多い取引対象の販売価格、利用者の属性に応じて選択された取引対象の販売価格等、任意の基準で選択された取引対象の販売価格をクエリ情報と重ねて表示してもよい。また、端末装置10は、クエリ情報と、販売価格とを並べて表示してもよく、送料、取引対象を販売する店舗の名称、店舗や出品対象に対する評価やレビュー等、電子商店街に登録された各種の情報のうち、販売価格以外の情報を表示してもよい。   Note that the terminal device 100 may display the lowest price in the online shopping mall on the image extracted from the captured image. In addition, the terminal device 100 is a transaction target sales price at a store with the largest number of sales, a sales price at a transaction target at a store with the largest number of views, and a sale with the most popular transaction target among the transaction targets to be sold. The sales price of the transaction target selected on the basis of an arbitrary criterion such as the price and the sales price of the transaction target selected according to the user attribute may be displayed overlapping the query information. Further, the terminal device 10 may display the query information and the sales price side by side. The shipping cost, the name of the store that sells the transaction target, and the evaluation and review of the store and the listing target are registered in the online shopping mall. Among various types of information, information other than the sales price may be displayed.

〔4−3.履歴の表示形式について〕
ここで、端末装置100は、クエリ情報として取得した画像の履歴(以下、「履歴画像」と記載する)を表示する際に、任意の形式で表示を行ってよい。例えば、端末装置100は、画像を撮影した結果、出品画像をクエリ情報として受信した際、または、カメラロールCRから過去に画像が選択され、出品画像をクエリ情報として受信した場合は、撮影した画像や選択された画像と、受信したクエリ情報とを対応付けて記憶しておく。そして、端末装置100は、カメラロールCRから画像が選択された場合は、選択された画像と対応付けて記憶されたクエリ情報を表示してもよい。すなわち、端末装置100は、過去に撮影された画像が選択された場合は、履歴画像として、選択された画像に含まれる複数の取引対象の画像の組をクエリ情報として表示してもよい。
[4-3. (History display format)
Here, the terminal device 100 may display an image history acquired as query information (hereinafter referred to as “history image”) in an arbitrary format. For example, when the terminal device 100 receives an exhibition image as query information as a result of taking an image, or when an image is selected in the past from the camera roll CR and the exhibition image is received as query information, the captured image is taken. Or the selected image and the received query information are stored in association with each other. Then, when an image is selected from the camera roll CR, the terminal device 100 may display the query information stored in association with the selected image. That is, when an image captured in the past is selected, the terminal device 100 may display a plurality of transaction target images included in the selected image as query information as a history image.

また、端末装置100は、履歴画像として、過去にクエリ情報として受信した出品画像を、時系列順に並べて表示してもよい。また、端末装置100は、履歴画像として、過去に服襟情報として受信した出品画像のうち、利用者が過去にクエリ情報として選択した回数、利用者が対応する出品対象を購入した回数、利用者が対応する出品対象を閲覧した回数等、利用者が過去に撮影した取引対象を容易に検索することができるのであれば、任意の順序でクエリ情報の履歴を表示してもよい。   Further, the terminal device 100 may display the exhibition images received as the query information in the past as a history image, arranged in chronological order. In addition, the terminal device 100 determines, as the history image, the number of times that the user has selected as query information in the past among the exhibition images received as the collar information in the past, the number of times the user has purchased the corresponding exhibition target, the user The history of query information may be displayed in an arbitrary order as long as the user can easily search for transaction objects photographed in the past, such as the number of times the corresponding exhibition object is viewed.

ここで、過去に撮影した動画像から、利用者が所望する取引対象が撮影された範囲を検索するのは、手間がかかると考えられる。そこで、端末装置100は、過去に撮影した動画像から生成されたパノラマ写真と、動画像に含まれる複数の取引対象を検索するためのクエリ情報との組を表示してもよい。例えば、情報提供装置10は、動画像を受信すると、受信した動画像から取引対象の認識等を行うとともに、動画像から横長のパノラマ写真を生成する。このようなパノラマ写真の生成は、動画像から横長の写真を生成する任意の技術が採用可能である。なお、情報提供装置10は、動画像のうち、取引対象が認識された範囲のみを繋げたパノラマ写真を生成してもよい。そして、情報提供装置10は、生成したパノラマ写真と、クエリ情報となる出品画像を端末装置100に送信する。   Here, it is considered that it takes time and effort to search a range in which a transaction target desired by the user is captured from moving images captured in the past. Therefore, the terminal device 100 may display a set of a panoramic photograph generated from a previously captured moving image and query information for searching for a plurality of transaction targets included in the moving image. For example, when the information providing apparatus 10 receives a moving image, the information providing apparatus 10 recognizes a transaction target from the received moving image and generates a horizontally long panoramic photo from the moving image. Such a panoramic photo can be generated by any technique for generating a horizontally long photo from a moving image. In addition, the information provision apparatus 10 may produce | generate the panoramic photograph which connected only the range by which the transaction object was recognized among moving images. Then, the information providing apparatus 10 transmits the generated panoramic photograph and the exhibition image serving as the query information to the terminal apparatus 100.

このような場合、端末装置100は、パノラマ写真とクエリ情報とを対応付けて記憶する。また、端末装置100は、カメラロールCRからパノラマ写真が選択された場合は、パノラマ写真の一部を撮影画像ウインドウCWに配置して表示するとともに、パノラマ写真のうち、撮影画像ウインドウCW上に表示されている範囲に撮影されている取引対象のクエリ情報を表示する。そして、端末装置100は、パノラマ写真に対するスクロール操作が行われた場合は、パノラマ写真をスクロールさせるとともに、画像表示ウインドウPWに表示されるクエリ情報を、撮影画像ウインドウCW上に表示されている範囲に撮影されている取引対象のクエリ情報に順次切り替える。このような処理を実行することで、端末装置100は、動画像から利用者が所望する取引対象を探す際の操作性を向上させることができる。   In such a case, the terminal device 100 stores the panoramic photograph and the query information in association with each other. Further, when a panoramic photo is selected from the camera roll CR, the terminal device 100 arranges and displays a part of the panoramic photo in the captured image window CW, and displays the panoramic photo on the captured image window CW. Display the query information of the transaction target that has been photographed in the range. When the scroll operation is performed on the panoramic photo, the terminal device 100 scrolls the panoramic photo and displays the query information displayed on the image display window PW within the range displayed on the captured image window CW. Switch sequentially to the query information of the transaction object being photographed. By executing such processing, the terminal device 100 can improve operability when searching for a transaction target desired by a user from a moving image.

なお、例えば、端末装置100は、撮影画像ウインドウCWに表示された画像の拡大や縮小に応じて、表示されるクエリ情報を変更してもよい。すなわち、端末装置100は、画像全体に撮影されている取引対象のクエリ情報のうち、画面上に表示されている取引対象のクエリ情報のみを表示してもよい。   For example, the terminal device 100 may change the displayed query information according to the enlargement or reduction of the image displayed in the captured image window CW. That is, the terminal device 100 may display only the transaction target query information displayed on the screen among the transaction target query information captured in the entire image.

〔4−4.クエリ情報として表示される画像について〕
上述した例では、端末装置100は、撮影された取引対象の画像であって、電子商店街に登録された画像である出品画像をクエリ情報として表示した。しかしながら、実施形態は、これに限定されるものではない。例えば、情報提供装置10は、撮影された取引対象を検索するための識別情報と、撮影された画像から抽出した取引対象の画像とを端末装置100に提供してもよい。このような場合、情報提供装置10は、撮影された画像から抽出された取引対象の画像そのものをクエリ情報として表示することとなる。
[4-4. (Images displayed as query information)
In the above-described example, the terminal device 100 displays an exhibition image that is a captured image of a transaction and registered in the online shopping mall as query information. However, the embodiment is not limited to this. For example, the information providing apparatus 10 may provide the terminal device 100 with identification information for searching for a photographed transaction object and a transaction object image extracted from the photographed image. In such a case, the information providing apparatus 10 displays the transaction target image itself extracted from the captured image as query information.

なお、端末装置100は、各種の画像認識技術を用いて、撮影された画像から取引対象の画像を抽出し、抽出した画像を情報提供装置10へと送信する。このような場合、情報提供装置10は、受信した画像から取引対象の識別情報を特定し、特定した識別情報を端末装置100へと送信する。このような場合、端末装置100は、抽出した画像をクエリ情報として表示し、表示されたクエリ情報が選択された場合は、情報提供装置10から受信した識別情報を用いて、電子商店街における検索結果を表示してもよい。   Note that the terminal device 100 extracts a transaction target image from the captured image using various image recognition techniques, and transmits the extracted image to the information providing device 10. In such a case, the information providing apparatus 10 identifies the identification information of the transaction target from the received image, and transmits the identified identification information to the terminal apparatus 100. In such a case, the terminal device 100 displays the extracted image as query information. When the displayed query information is selected, the terminal device 100 uses the identification information received from the information providing device 10 to search in the online shopping mall. Results may be displayed.

〔4−5.情報提供装置が実行する処理について〕
ここで、情報提供装置10は、撮影された全ての取引対象について、上述した検索処理を実行する必要はない。例えば、情報提供装置10は、図3に示すように、取引対象に付与されたバーコードを識別することができる場合は、識別したバーコードを用いて、撮影された取引対象と同一の出品対象を特定し、特定した出品対象の出品画像や識別情報を提供してもよい。
[4-5. Regarding processing executed by information providing device]
Here, it is not necessary for the information providing apparatus 10 to execute the above-described search process for all photographed transactions. For example, as shown in FIG. 3, when the information providing apparatus 10 can identify the barcode assigned to the transaction object, the information display apparatus 10 uses the identified barcode to display the same exhibition object as the photographed transaction object. May be specified, and an exhibition image and identification information of the identified exhibition target may be provided.

また、情報提供装置10は、上述した検索処理を、出品対象が属するカテゴリごとに段階的に実行してもよい。例えば、情報提供装置10は、全カテゴリを、最上位カテゴリが共通する複数のカテゴリ群に分割する。具体的な例を挙げると、情報提供装置10は、ファッションに属するカテゴリ群、飲食料に属するカテゴリ群、パソコン機器に属するカテゴリ群等に分割する。また、情報提供装置10は、カテゴリ群ごとに、そのカテゴリ群のリーフカテゴリと、そのリーフカテゴリに属する出品情報の結合特徴量との関係を学習させたCNNを保持する。   Moreover, the information provision apparatus 10 may perform the search process mentioned above in steps for every category to which the exhibition object belongs. For example, the information providing apparatus 10 divides all categories into a plurality of category groups that share the highest category. As a specific example, the information providing apparatus 10 divides into a category group belonging to fashion, a category group belonging to food and drink, a category group belonging to personal computer equipment, and the like. Further, the information providing apparatus 10 holds, for each category group, a CNN that learns the relationship between the leaf category of the category group and the combined feature amount of the exhibition information belonging to the leaf category.

そして、情報提供装置10は、撮影された取引対象の画像から、取引対象がどのカテゴリ群に属する取引対象であるかを推定し、推定したカテゴリ群に対応するCNNを用いて、取引対象が属するリーフカテゴリを特定してもよい。なお、取引対象がどのカテゴリ群に属するかを推定する際は、任意の分類技術が採用可能である。   Then, the information providing apparatus 10 estimates which category group the transaction target belongs to from the photographed transaction target image, and the transaction target belongs using the CNN corresponding to the estimated category group. A leaf category may be specified. In addition, when estimating which category group a transaction object belongs to, any classification technique can be employed.

また、例えば、情報提供装置10は、ファッションに属するカテゴリ群と対応するCNNを用いて、取引対象がファッションに属するか否かを判定し、取引対象がファッションに属さないと判定された場合は、飲食料に属するカテゴリ群と対応するCNNを用いて、取引対象が飲食料に属するか否かを判定してもよい。すなわち、情報提供装置10は、取引対象が属するカテゴリを段階的に推定してもよい。例えば、情報提供装置10は、あるカテゴリ群と対応するCNNに取引対象の画像を入力した際に、各リーフカテゴリに属する確度が所定の閾値を下回る場合は、そのカテゴリ群に取引対象が属していないと判定してもよい。また、情報提供装置10は、取引対象の画像特徴量を取得する際、カテゴリ群ごとに学習を行ったCNN等の学習器を用いて、取引対象の画像特徴量を取得してもよい。   Further, for example, the information providing apparatus 10 determines whether the transaction target belongs to fashion using the CNN corresponding to the category group belonging to fashion, and when it is determined that the transaction target does not belong to fashion, You may determine whether a transaction object belongs to a food / beverage using CNN corresponding to the category group which belongs to a food / beverage. That is, the information providing apparatus 10 may estimate the category to which the transaction target belongs in a stepwise manner. For example, when the information providing apparatus 10 inputs an image of a transaction target to a CNN corresponding to a certain category group, and the accuracy belonging to each leaf category falls below a predetermined threshold, the transaction target belongs to that category group. It may be determined that there is not. Moreover, when the information providing apparatus 10 acquires the image feature quantity of the transaction target, the information providing apparatus 10 may acquire the image feature quantity of the transaction target using a learning device such as CNN that has learned for each category group.

また、画像に含まれる特徴点の共通性に基づいて、撮影された取引対象と同一又は関連する取引対象を検索する技術が知られている。例えば、隣接する画素間の色彩の差等に基づいて、画像に含まれる境界を特徴点として特定し、特定した特徴点同士の位置関係等の共通性に基づいて、撮影された取引対象と同一又は関連する取引対象を検索する技術が知られている。そこで、情報提供装置10は、上述した検索処理に先駆けて、特徴点を用いた出品対象の検索を行えるか否かを判定し、特徴点を用いた出品対象の適切な検索を行える場合は、特徴点を用いて出品対象の検索を行い、特徴点を用いて出品対象の適切な検索を行えないと判定した場合は、CNNを用いたリーフカテゴリの推定等、上述した検索処理を実行してもよい。   A technique for searching for a transaction object that is the same as or related to a photographed transaction object based on the commonality of feature points included in the image is also known. For example, a boundary included in an image is specified as a feature point based on a color difference between adjacent pixels, etc., and is identical to a photographed transaction target based on commonality such as a positional relationship between the specified feature points Alternatively, a technique for searching for related transaction objects is known. Therefore, prior to the above-described search processing, the information providing apparatus 10 determines whether or not a search for an exhibition target using a feature point can be performed, and when an appropriate search for an exhibition target using a feature point can be performed, If it is determined that the search target is searched using the feature point, and the search target is not appropriately searched using the feature point, the above-described search process such as estimation of the leaf category using the CNN is executed. Also good.

例えば、情報提供装置10は、撮影画像に含まれる特徴点を用いて、撮影された取引対象と対応する出品対象を検索できるか否かを判定する。例えば、情報提供装置10は、特徴点を用いた出品対象の検索を適切に行えた画像の特徴や、特徴点を用いた出品対象の検索が適切に行えなかった画像の特徴を学習したCNNを用いて、撮影画像が特徴点を用いた出品画像の検索に適しているか否かを判定する。   For example, the information providing apparatus 10 uses the feature points included in the photographed image to determine whether or not the exhibition object corresponding to the photographed transaction object can be searched. For example, the information providing apparatus 10 uses the CNN that has learned the feature of the image that has been appropriately searched for the exhibition target using the feature points and the feature of the image that has not been properly searched for the exhibition target using the feature points. It is used to determine whether or not the photographed image is suitable for a search for exhibition images using feature points.

そして、情報提供装置10は、特徴点を用いた出品対象の検索が適切に行えると判定した場合は、特徴点を用いて、撮影された取引対象と対応する出品対象の検索を行う。一方、情報提供装置10は、特徴点を用いた出品対象の検索が適切に行えないと判定した場合は、取引対象の結合特徴量を生成し、生成した結合特徴量を用いて、出品対象の検索を行ってもよい。また、例えば、情報提供装置10は、特徴点を用いた出品対象の検索を実行し、所定の確度算出技術を用いて検索結果の確度を算出し、算出した確度が所定の閾値を下回る場合は、上述した検索処理を実行してもよい。   And when it determines with the information provision apparatus 10 being able to search the exhibition object using a feature point appropriately, it searches the exhibition object corresponding to the image | photographed transaction object using a feature point. On the other hand, if the information providing apparatus 10 determines that the search for the exhibition target using the feature points cannot be appropriately performed, the information providing apparatus 10 generates a combined feature amount of the transaction target, and uses the generated combined feature amount, A search may be performed. In addition, for example, the information providing apparatus 10 executes a search for an exhibition target using a feature point, calculates the accuracy of a search result using a predetermined accuracy calculation technique, and the calculated accuracy is below a predetermined threshold. The search process described above may be executed.

〔4−6.結合特徴量について〕
上述した情報提供装置10は、カテゴリ特徴量と画像特徴量とを結合した結合特徴量を用いて、出品対象の検索を実行した。ここで、情報提供装置10は、カテゴリ特徴量と画像特徴量とを総合的に用いるのであれば、任意の手法で出品対象の検索を実行してもよい。
[4-6. (About combined features)
The information providing apparatus 10 described above executes a search for an exhibition target using a combined feature value obtained by combining the category feature value and the image feature value. Here, the information providing apparatus 10 may execute the search for the exhibition object by an arbitrary method as long as the category feature amount and the image feature amount are comprehensively used.

例えば、特徴量同士の比較処理は、ユークリッド距離やマンハッタン距離等といった所定の距離関数の値(すなわち、特徴量空間における距離)や、コサイン類似度等といった特徴量空間における向きの比較によって実現可能である。ここで、情報提供装置10は、カテゴリ特徴量同士の比較結果と、画像特徴量同士の比較結果とを総合的に用いて、出品対象の検索を実行してもよい。   For example, comparison processing between feature quantities can be realized by comparing the direction in a feature quantity space such as a value of a predetermined distance function (that is, a distance in the feature quantity space) such as a Euclidean distance or a Manhattan distance, or a cosine similarity. is there. Here, the information providing apparatus 10 may perform a search for an exhibition target by comprehensively using the comparison result between the category feature amounts and the comparison result between the image feature amounts.

また、例えば、情報提供装置10は、カテゴリ特徴量と画像特徴量とを単純に結合した結合特徴量を生成してもよい。例えば、情報提供装置10は、カテゴリ特徴量の値を上位の値とし、画像特徴量の値を下位の値とする結合特徴量を生成し、生成した結合特徴量同士の比較結果に基づいて、出品対象の検索を実行してもよい。このような処理を実行した場合、結合特徴量同士のユークリッド距離を算出した場合は、カテゴリ同士の比較結果がより重要視された検索結果を得ることができる。   Further, for example, the information providing apparatus 10 may generate a combined feature amount by simply combining the category feature amount and the image feature amount. For example, the information providing apparatus 10 generates a combined feature value having a category feature value as an upper value and an image feature value as a lower value, and based on a comparison result between the generated combined feature values, You may perform the search of exhibition object. When such a process is executed, if the Euclidean distance between the combined feature amounts is calculated, a search result in which the comparison result between categories is more important can be obtained.

また、例えば、情報提供装置10は、カテゴリ特徴量の値を下位の値とし、画像特徴量の値を上位の値として、カテゴリ特徴量と画像特徴量とを結合した結合特徴量を生成し、生成した結合特徴量同士の比較結果に基づいて、出品対象の検索を実行してもよい。このような処理を実行した場合、結合特徴量同士のユークリッド距離を算出した場合は、画像の比較結果(すなわち、外観の比較結果)がより重要視された検索結果を得ることができる。   Further, for example, the information providing apparatus 10 generates a combined feature value obtained by combining the category feature value and the image feature value, with the category feature value as a lower value and the image feature value as an upper value. A search for an exhibition target may be executed based on a comparison result between the generated combined feature amounts. When such a process is executed, when the Euclidean distance between the combined feature amounts is calculated, a search result in which the image comparison result (that is, the appearance comparison result) is more important can be obtained.

また、情報提供装置10は、任意の重みづけや次元圧縮等を行って、結合特徴量を生成してもよい。例えば、情報提供装置10は、カテゴリ特徴量と画像特徴量とのそれぞれを独立したベクトルとし、出品対象のカテゴリ特徴量と画像特徴量とのそれぞれとのユークリッド距離を求め、各ユークリッド距離の重みを考慮した加重平均を求めることにより、出品対象の検索を行ってもよい。前述した結合特徴量の上位および下位の値の設定は、この荷重を適切に設定することでも実現可能である。すなわち、情報提供装置10は、カテゴリ特徴量同士の比較結果と、画像特徴量同士の比較結果とを総合的に用いることができるのあれば、任意の設計が採用された特徴量空間を用いて、出品対象の検索を行ってよい。   Further, the information providing apparatus 10 may generate a combined feature amount by performing arbitrary weighting, dimension compression, and the like. For example, the information providing apparatus 10 uses the category feature quantity and the image feature quantity as independent vectors, obtains the Euclidean distance between the category feature quantity and the image feature quantity to be listed, and calculates the weight of each Euclidean distance. You may search for an exhibition object by calculating | requiring the weighted average which considered. The above-described setting of the upper and lower values of the combined feature amount can also be realized by appropriately setting this load. That is, the information providing apparatus 10 uses a feature amount space in which an arbitrary design is adopted as long as the comparison result between the category feature amounts and the comparison result between the image feature amounts can be used comprehensively. , You may search for an exhibition object.

また、情報提供装置10は、カテゴリ特徴量と画像特徴量とで異なる特徴量空間を生成し、生成した特徴量空間での出品対象の検索を行ってもよい。ここで、情報提供装置10は、カテゴリ特徴量の比較に用いる距離関数と、画像特徴量の比較に用いる距離関数とで、異なる距離関数を採用してもよい。   Further, the information providing apparatus 10 may generate different feature amount spaces for the category feature amount and the image feature amount, and may search for an exhibition target in the generated feature amount space. Here, the information providing apparatus 10 may employ different distance functions for the distance function used for comparing the category feature values and the distance function used for comparing the image feature values.

なお、情報提供装置10は、取引対象が各カテゴリに属する確度に基づいて、カテゴリ特徴量の算出を行ってもよい。例えば、情報提供装置10は、CNNに取引対象の画像を入力した際に、第1カテゴリに属する確度「40」、第2カテゴリに属する確度「40」、および第3カテゴリに属する確度「20」をCNNが出力した場合、ルートカテゴリから第1カテゴリまでの第1カテゴリパスと、ルートカテゴリから第2カテゴリまでの第2カテゴリパスと、ルートカテゴリから第3カテゴリまでの第3カテゴリパスを特定する。   The information providing apparatus 10 may calculate the category feature amount based on the probability that the transaction target belongs to each category. For example, when the information providing apparatus 10 inputs an image to be traded to the CNN, the accuracy “40” belonging to the first category, the accuracy “40” belonging to the second category, and the accuracy “20” belonging to the third category. Are output, the first category path from the root category to the first category, the second category path from the root category to the second category, and the third category path from the root category to the third category are specified. .

そして、情報提供装置10は、第1カテゴリパスの特徴量と第2カテゴリパスの特徴量と第3カテゴリパスの特徴量とを、第1カテゴリから第3カテゴリに属する確度に応じた重みづけて合計した特徴量をカテゴリ特徴量として生成する。例えば、情報提供装置10は、第1カテゴリパスの特徴量に0.4を積算した値と、第2カテゴリパスの特徴量に0.4を積算した値と、第3カテゴリパスの特徴量に0.2を積算した値との合計をカテゴリ特徴量とする。   Then, the information providing apparatus 10 weights the feature quantity of the first category path, the feature quantity of the second category path, and the feature quantity of the third category path according to the accuracy belonging to the first category to the third category. The total feature amount is generated as a category feature amount. For example, the information providing apparatus 10 adds the value obtained by adding 0.4 to the feature value of the first category path, the value obtained by adding 0.4 to the feature value of the second category path, and the feature value of the third category path. The total of the value obtained by integrating 0.2 is set as the category feature amount.

なお、情報提供装置10は、確度が所定の値を超えたカテゴリのみを用いて、カテゴリ特徴量を算出してもよい。例えば、情報提供装置10は、第1カテゴリパスの特徴量と第2カテゴリパスの特徴量とを合計し、2で除算した値を特徴量としてもよい。   Note that the information providing apparatus 10 may calculate a category feature amount using only a category whose accuracy exceeds a predetermined value. For example, the information providing apparatus 10 may add the feature amount of the first category path and the feature amount of the second category path and divide by 2 as the feature amount.

〔4−7.学習について〕
ここで、上述した情報提供装置10は、取引対象とその取引対象が属するカテゴリのカテゴリパスとの関係をCNNに学習させるのではなく、取引対象とその取引対象が属するリーフカテゴリとの関係をCNNに学習させ、取引対象が属すると推定されたリーフカテゴリから、カテゴリパスを取得した。この結果、情報提供装置10は、例えば、電子商店街のようにカテゴリの階層構造が動的に変化するような場合にも、再学習を行うことなく、カテゴリパスを考慮したカテゴリ特徴量を算出することができる。
[4-7. About learning)
Here, the information providing apparatus 10 described above does not cause the CNN to learn the relationship between the transaction target and the category path of the category to which the transaction target belongs, but rather the relationship between the transaction target and the leaf category to which the transaction target belongs. The category path was acquired from the leaf category estimated to belong to the transaction category. As a result, the information providing apparatus 10 calculates the category feature amount in consideration of the category path without performing re-learning even when the hierarchical structure of the category dynamically changes as in an online shopping mall, for example. can do.

しかしながら、実施形態は、これに限定されるものではない。例えば、情報提供装置10は、取引対象とその取引対象が属するカテゴリのカテゴリパスとの関係をCNNに学習させ、撮影画像に含まれる取引対象が属するカテゴリまでのカテゴリパスを推定してもよい。また、情報提供装置10は、最下層のリーフカテゴリ以外にも、任意の階層のカテゴリとそのカテゴリに属する取引対象との関係性をCNNに学習させ、取引対象が属するカテゴリの推定を行ってもよい。   However, the embodiment is not limited to this. For example, the information providing apparatus 10 may cause the CNN to learn the relationship between the transaction target and the category path of the category to which the transaction target belongs, and estimate the category path to the category to which the transaction target included in the photographed image belongs. Further, the information providing apparatus 10 may cause the CNN to learn the relationship between a category in an arbitrary hierarchy and a transaction target belonging to the category other than the leaf category in the lowest layer, and estimate the category to which the transaction target belongs. Good.

また、情報提供装置10は、電子商店街に登録された出品画像以外にも、例えば、マイクロブログ等に投稿された取引対象の画像や、ウェブ検索等で取得可能な取引対象の画像を学習データとして採用してもよい。このように、情報提供装置10は、出品画像のみならず、一般的な画像を学習データとして採用することで、利用者が撮影した撮影画像から取引対象の識別情報を精度よく特定することができる。   In addition to the exhibition image registered in the online shopping mall, the information providing apparatus 10 learns, for example, a transaction target image posted on a microblog or a transaction target image that can be acquired by web search or the like. May be adopted. In this manner, the information providing apparatus 10 can accurately identify the transaction target identification information from the captured image taken by the user by adopting not only the exhibition image but also a general image as learning data. .

〔4−8.認識対象について〕
ここで、端末装置100は、取引対象の認識精度を向上させるための操作を利用者から受付けてもよい。例えば、端末装置100は、撮影された画像を表示するとともに、利用者が画像上をタップした場合は、タップした位置を情報提供装置10に送信する。このような場合、情報提供装置10は、タップされた位置に撮影されている取引対象を識別し、識別した取引対象の識別情報を取得してもよい。また、情報提供装置10は、タップされた位置に撮影されている取引対象の識別情報のみを取得してもよい。
[4-8. About recognition target)
Here, the terminal device 100 may accept an operation for improving the recognition accuracy of the transaction target from the user. For example, the terminal device 100 displays a captured image and transmits the tapped position to the information providing device 10 when the user taps on the image. In such a case, the information providing apparatus 10 may identify the transaction target photographed at the tapped position and acquire the identified transaction target identification information. Moreover, the information provision apparatus 10 may acquire only the identification information of the transaction object currently image | photographed in the tapped position.

〔5.端末装置の構成〕
次に、図4を用いて、実施形態に係る端末装置100の構成について説明する。図4は、実施形態に係る端末装置の構成例を示す図である。図4に示すように、端末装置100は、通信部110と、入力部120と、出力部130と、カメラ140と、制御部150とを有する。
[5. Configuration of terminal device]
Next, the configuration of the terminal device 100 according to the embodiment will be described with reference to FIG. FIG. 4 is a diagram illustrating a configuration example of the terminal device according to the embodiment. As illustrated in FIG. 4, the terminal device 100 includes a communication unit 110, an input unit 120, an output unit 130, a camera 140, and a control unit 150.

通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークNと有線または無線で接続され、情報提供装置10およびECサーバ200との間で情報の送受信を行う。   The communication unit 110 is realized by, for example, a NIC (Network Interface Card). The communication unit 110 is connected to the network N by wire or wireless, and transmits and receives information between the information providing apparatus 10 and the EC server 200.

入力部120は、利用者から各種操作を受け付ける入力装置である。例えば、入力部120は、キーボードやマウスや操作キー等によって実現される。出力部130は、各種情報を表示するための表示装置である。例えば、出力部130は、液晶ディスプレイ等によって実現される。なお、端末装置100にタッチパネルが採用される場合には、入力部120と出力部130とは一体化される。カメラ140は、動画像や静止画像等の画像を撮影可能なカメラであり、各種のデジタルカメラにより実現される。   The input unit 120 is an input device that receives various operations from the user. For example, the input unit 120 is realized by a keyboard, a mouse, an operation key, or the like. The output unit 130 is a display device for displaying various information. For example, the output unit 130 is realized by a liquid crystal display or the like. In addition, when a touch panel is employ | adopted for the terminal device 100, the input part 120 and the output part 130 are integrated. The camera 140 is a camera that can capture images such as moving images and still images, and is realized by various digital cameras.

制御部150は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等のプロセッサによって、端末装置100内部の記憶装置に記憶されている各種プログラムがRAM等を作業領域として実行されることにより実現される。また、制御部150は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。   The control unit 150 is a controller. For example, various programs stored in a storage device inside the terminal device 100 are stored in a RAM or the like by a processor such as a CPU (Central Processing Unit) or an MPU (Micro Processing Unit). This is realized by being executed as a work area. The control unit 150 is a controller, and may be realized by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

図4に示すように、制御部150は、要求部151と、操作制御部152と、表示制御部153とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部150の内部構成は、図4に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部150が有する各処理部の接続関係は、図4に示した接続関係に限られず、他の接続関係であってもよい。   As illustrated in FIG. 4, the control unit 150 includes a request unit 151, an operation control unit 152, and a display control unit 153, and realizes or executes functions and operations of information processing described below. Note that the internal configuration of the control unit 150 is not limited to the configuration illustrated in FIG. 4, and may be another configuration as long as information processing described later is performed. Further, the connection relationship between the processing units included in the control unit 150 is not limited to the connection relationship illustrated in FIG. 4, and may be another connection relationship.

要求部151は、ECサーバ200に対し、識別情報を送信することで、識別情報が示す取引対象であって、電子商店街に出品された取引対象である出品対象の検索結果を要求する。例えば、要求部151は、画面上に表示されたクエリ情報が選択され、電子商限外の検索を行うための所定の操作が行われた場合は、クエリ情報と対応する識別情報をECサーバ200に送信し、検索結果を取得する。そして、要求部151は、検索結果を取得した場合は、表示制御部153に検索結果を出力する。   The request unit 151 transmits the identification information to the EC server 200 to request a search result of the exhibition object that is the transaction object indicated by the identification information and is the transaction object exhibited in the online shopping mall. For example, when the query information displayed on the screen is selected and a predetermined operation for performing a search outside the electronic commerce limit is performed, the requesting unit 151 transmits the identification information corresponding to the query information to the EC server 200. To get search results. If the request unit 151 acquires the search result, the request unit 151 outputs the search result to the display control unit 153.

操作制御部152は、入力部120を介して受け付けた利用者の操作にしたがって、各種制御を実行する。例えば、操作制御部152は、利用者の選択処理や各種操作の内容を、要求部151や表示制御部153に出力し、各種制御を実行させる。なお、操作制御部152が出力する操作内容としては、例えば、画面上におけるスクロール操作やタップ等の選択操作等である。   The operation control unit 152 executes various controls according to user operations received via the input unit 120. For example, the operation control unit 152 outputs the selection process of the user and the contents of various operations to the request unit 151 and the display control unit 153 to execute various controls. The operation content output by the operation control unit 152 includes, for example, a scroll operation on the screen, a selection operation such as a tap, and the like.

表示制御部153は、撮影画像やクエリ情報、検索結果等の各種コンテンツの表示を行う。例えば、表示制御部153は、制御部150が、表示処理を実行させる表示プログラムやアプリケーションをRAMを作業領域として実行することで、図4に示すように撮影部154、取得部155、および表示部156として動作する。   The display control unit 153 displays various contents such as captured images, query information, and search results. For example, the display control unit 153 causes the control unit 150 to execute a display program or application for executing display processing using the RAM as a work area, so that the imaging unit 154, the acquisition unit 155, and the display unit are configured as illustrated in FIG. It operates as 156.

撮影部154は、画像を撮影する。例えば、撮影部154は、撮影ボタンSBがタップされた場合は、カメラ140を用いて、静止画像または動画像の撮影を行う。また、撮影部154は、撮影した画像を端末装置100が有する不揮発性の記憶領域(図示は、省略)に登録する。なお、撮影部154は、所謂クラウド上に存在する端末装置100用の記憶領域に、撮影した画像を登録してもよい。   The imaging unit 154 captures an image. For example, when the shooting button SB is tapped, the shooting unit 154 uses the camera 140 to take a still image or a moving image. In addition, the photographing unit 154 registers the photographed image in a nonvolatile storage area (not illustrated) included in the terminal device 100. The photographing unit 154 may register the photographed image in a storage area for the terminal device 100 that exists on a so-called cloud.

取得部155は、撮影された画像に含まれる取引対象の画像を取得する。例えば、取得部155は、撮影した画像に含まれる取引対象の画像であって、電子商店街に登録された取引対象の画像を取得する。例えば、取得部155は、撮影部154によって撮影された画像を情報提供装置10に対してストリーミング形式で送信する。そして、取得部155は、撮影された取引対象であって、電子商店街に登録された取引対象の画像(すなわち、出品画像)と、取引対象を電子商店街で識別する識別情報を情報提供装置10から取得する。すなわち、取得部155は、画像に撮影された取引対象の画像であって、電子商店街に登録された取引対象の画像を検索する情報提供装置10に対して、カメラ140を用いて撮影された画像を出力する。   The acquisition unit 155 acquires a transaction target image included in the photographed image. For example, the acquisition unit 155 acquires a transaction target image included in the photographed image and registered in the online shopping mall. For example, the acquisition unit 155 transmits the image captured by the imaging unit 154 to the information providing apparatus 10 in a streaming format. Then, the acquisition unit 155 is an information providing apparatus that captures an image of a transaction object that has been photographed and is registered in the online shopping mall (that is, an exhibition image) and identification information that identifies the transaction object in the electronic shopping mall. Get from 10. That is, the acquisition unit 155 is a transaction target image captured in the image and is captured using the camera 140 with respect to the information providing apparatus 10 that searches for the transaction target image registered in the online shopping mall. Output an image.

表示部156は、撮影された画像に含まれる取引対象の画像を、取引対象を電子商店街で検索するための検索クエリを示すクエリ情報として、撮影した画像と共に複数表示する。例えば、表示部156は、撮影画像ウインドウCWに撮影部154が撮影した画像を表示する。また、表示部156は、取得部155によって出品画像と対応する識別情報とが取得される度に、取得された出品画像をクエリ情報として画像表示ウインドウPWに順次追加表示する。そして、表示部156は、例えば、利用者が画像表示ウインドウPW上でスクロール操作を行った場合は、画像表示ウインドウPW上に表示したクエリ情報をスクロールさせる。すなわち、表示部156は、出品画像を、出品画像が示す取引対象を電子商店街で検索するための検索クエリである識別情報を示す情報として表示する。   The display unit 156 displays a plurality of transaction target images included in the captured image together with the captured image as query information indicating a search query for searching the transaction target in the online shopping mall. For example, the display unit 156 displays an image captured by the imaging unit 154 in the captured image window CW. Further, the display unit 156 additionally displays the acquired exhibition image as query information sequentially on the image display window PW every time the acquisition unit 155 acquires the exhibition image and the corresponding identification information. For example, when the user performs a scroll operation on the image display window PW, the display unit 156 scrolls the query information displayed on the image display window PW. In other words, the display unit 156 displays the exhibition image as information indicating identification information that is a search query for searching for a transaction target indicated by the exhibition image in the online shopping mall.

また、表示部156は、表示したクエリ情報が選択された場合は、選択されたクエリ情報と対応する識別情報を要求部151に出力する。この結果、要求部151は、選択されたクエリ情報と対応する識別情報を用いた電子商店街の検索結果をECサーバ200から取得する。そして、表示部156は、取得された検索結果を表示する。なお、表示部156は、複数のクエリ情報が選択された場合は、選択された複数のクエリ情報と対応する複数の識別情報を用いた検索結果を表示することとなる。   Further, when the displayed query information is selected, the display unit 156 outputs identification information corresponding to the selected query information to the request unit 151. As a result, the requesting unit 151 acquires a search result of the online shopping mall from the EC server 200 using the identification information corresponding to the selected query information. The display unit 156 displays the acquired search result. When a plurality of pieces of query information are selected, the display unit 156 displays search results using a plurality of pieces of identification information corresponding to the selected pieces of query information.

なお表示部156は、情報提供装置10が撮影された取引対象と類似もしくは関連する取引対象を検索する場合、撮影された取引対象と関連する他の取引対象の出品画像をクエリ情報として表示することとなる。また、表示部156は、情報提供装置10が撮影された取引対象の出品画像と、その取引対象およびその取引対象と類似若しくは関連する取引対象の識別情報とを対応付けて提供する場合は、撮影画像に含まれる取引対象の画像を、その取引対象およびその取引対象と類似もしくは関連する他の取引対象を電子商店街で検索するための検索クエリを示すクエリ情報として表示することとなる。   In addition, when the information providing apparatus 10 searches for a transaction target similar to or related to the photographed transaction target, the display unit 156 displays an exhibition image of another transaction target related to the photographed transaction target as query information. It becomes. In addition, the display unit 156 shoots when the transaction target exhibition image captured by the information providing device 10 is associated with the transaction target and transaction target identification information similar to or related to the transaction target. The image of the transaction object included in the image is displayed as query information indicating a search query for searching the transaction object and other transaction objects similar or related to the transaction object in the online shopping mall.

なお、表示部156は、情報提供装置10が出品画像ではなく、撮影画像のうち取引対象が含まれる領域の画像を提供する場合は、その画像をクエリ情報として表示してもよい。また、例えば、取得部155は、撮影された画像のうち、取引対象が含まれる領域を画像解析技術等によって特定し、特定した範囲のみを情報提供装置10に送信することで、取引対象の識別情報を取得する。このような場合、表示部156は、撮影画像のうち取得部155によって特定された範囲を、クエリ情報として表示してもよい。   Note that the display unit 156 may display the image as query information when the information providing apparatus 10 provides an image of an area including a transaction target in the captured image instead of the exhibition image. In addition, for example, the acquisition unit 155 identifies an area including the transaction target in the photographed image using an image analysis technique or the like, and transmits only the specified range to the information providing apparatus 10, thereby identifying the transaction target. Get information. In such a case, the display unit 156 may display the range specified by the acquisition unit 155 in the captured image as query information.

また、表示部156は、カメラロールボタンRBが選択された場合は、過去に撮影された画像を不揮発性の記憶領域やクラウド上の記憶領域から読出し、読み出した画像を並べて表示する。そして、取得部155は、表示された画像のいずれかを利用者が選択した場合は、選択された画像を情報提供装置10に送信し、出品画像や識別情報を取得する。そして、表示部156は、取得された出品画像をクエリ情報として表示してもよい。   In addition, when the camera roll button RB is selected, the display unit 156 reads images captured in the past from a nonvolatile storage area or a storage area on the cloud, and displays the read images side by side. Then, when the user selects any of the displayed images, the acquisition unit 155 transmits the selected image to the information providing apparatus 10 and acquires the exhibition image and the identification information. Then, the display unit 156 may display the acquired exhibition image as query information.

また、表示部156は、履歴として、同一の画像に含まれる複数の取引対象の画像の組を表示してもよい。例えば、取得部155は、撮影または選択された画像と、画像から取得された出品画像と識別情報との組とを対応付けて所定の記憶領域に格納する。そして、表示部156は、過去に撮影された画像が選択された場合は、選択された画像と対応付けられた全ての出品画像をクエリ情報として表示してもよい。すなわち、表示部156は、クエリ情報の履歴を表示する場合は、取得元となる画像単位で、クエリ情報の履歴を表示してもよい。   The display unit 156 may display a set of a plurality of transaction target images included in the same image as the history. For example, the acquisition unit 155 stores the image captured or selected in association with the set of the exhibition image acquired from the image and the identification information in a predetermined storage area. And when the image image | photographed in the past is selected, the display part 156 may display all the exhibition images matched with the selected image as query information. That is, when displaying the history of query information, the display unit 156 may display the history of query information in units of images that are acquisition sources.

また、表示部156は、撮影された動画像から生成されたパノラマ写真と、その動画像に含まれる取引対象の画像の組とを表示してもよい。例えば、取得部155は、情報提供装置10によって生成されたパノラマ写真と、出品画像および識別情報とを対応付けて所定の記憶領域に登録する。また、表示部156は、カメラロールボタンRBが選択された場合は、パノラマ写真若しくは生成元となる動画像のサムネイルを表示し、サムネイルが選択された場合は、パノラマ写真とともに、対応付けられた出品画像をクエリ情報として表示してもよい。また、表示部156は、パノラマ写真のうち表示されている範囲に撮影されている取引対象の出品画像のみをクエリ情報として表示してもよく、パノラマ写真のスクロールに応じて、表示するクエリ情報を変更してもよい。   The display unit 156 may display a panoramic photograph generated from the captured moving image and a set of transaction target images included in the moving image. For example, the acquisition unit 155 associates the panoramic photograph generated by the information providing apparatus 10 with the exhibition image and the identification information and registers them in a predetermined storage area. Further, when the camera roll button RB is selected, the display unit 156 displays a panoramic photo or a thumbnail of a moving image as a generation source. When a thumbnail is selected, the display unit 156 displays an associated exhibition together with the panoramic photo. An image may be displayed as query information. In addition, the display unit 156 may display only the exhibition images to be traded that are photographed in the displayed range of the panoramic photo as the query information, and display the query information to be displayed according to the scrolling of the panoramic photo. It may be changed.

なお、表示部156は、撮影画像のうち、クエリ情報と対応する取引対象が識別された範囲に所定のアイコンを表示してもよく、クエリ情報と対応する取引対象が識別された場所にクエリ情報を表示してから、徐々に画像表示ウインドウPWへと移動させてもよい。また、表示部156は、選択されたクエリ情報を強調表示してもよく、撮影画像のうち、選択されたクエリ情報と対応する取引対象が識別された範囲に所定のアイコンを表示してもよい。
〔6.情報提供装置の構成〕
続いて、上記した情報提供装置10が有する機能構成の一例について説明する。図5は、実施形態に係る情報提供装置の構成例を示す図である。図5に示すように、情報提供装置10は、通信部20、記憶部30、および制御部40を有する。
The display unit 156 may display a predetermined icon in a range in which a transaction target corresponding to the query information is identified in the captured image, and the query information is displayed at a place where the transaction target corresponding to the query information is identified. May be gradually moved to the image display window PW. In addition, the display unit 156 may highlight the selected query information, and may display a predetermined icon in a range in which a transaction target corresponding to the selected query information is identified in the captured image. .
[6. Configuration of information providing device]
Subsequently, an example of a functional configuration of the information providing apparatus 10 described above will be described. FIG. 5 is a diagram illustrating a configuration example of the information providing apparatus according to the embodiment. As illustrated in FIG. 5, the information providing apparatus 10 includes a communication unit 20, a storage unit 30, and a control unit 40.

通信部20は、例えば、NIC等によって実現される。そして、通信部20は、ネットワークNと有線または無線で接続され、端末装置100やECサーバ200との間で情報の送受信を行う。   The communication unit 20 is realized by a NIC or the like, for example. The communication unit 20 is connected to the network N by wire or wirelessly and transmits / receives information to / from the terminal device 100 or the EC server 200.

記憶部30は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部30は、出品対象データベース31、カテゴリデータベース32、およびモデルデータベース33を記憶する。   The storage unit 30 is realized by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disk. In addition, the storage unit 30 stores an exhibition object database 31, a category database 32, and a model database 33.

以下、図6〜図8を用いて、各データベース31〜33に登録される情報の一例について説明する。例えば、出品対象データベース31には、出品対象に関する各種の情報が登録される。例えば、図6は、実施形態に係る出品対象データベースに登録される情報の一例を示す図である。図6に示す例では、出品対象データベース31には、「出品対象ID」、「カテゴリパス」、「出品画像」、「識別情報」、「結合特徴量」、「出品情報」といった項目を有する情報が登録される。   Hereinafter, an example of information registered in each of the databases 31 to 33 will be described with reference to FIGS. For example, in the exhibition target database 31, various types of information related to the exhibition target are registered. For example, FIG. 6 is a diagram illustrating an example of information registered in the exhibition target database according to the embodiment. In the example shown in FIG. 6, the exhibition target database 31 includes information items such as “exhibition target ID”, “category path”, “exhibition image”, “identification information”, “joining feature amount”, and “exhibition information”. Is registered.

ここで、「出品対象ID」とは、出品対象を一意に示す識別子である。また、「カテゴリパス」とは、対応付けられた「出品対象ID」が示す出品対象が属するカテゴリのカテゴリパスである。また、「出品画像」とは、対応付けられた「出品対象ID」が示す出品対象の画像であって、出品者によって電子商店街に登録された画像である。また、「識別情報」とは、対応付けられた「出品対象ID」が示す出品対象として登録された取引対象を識別する識別情報であり、異なる「出品対象ID」が示す出品対象であっても、同一の取引対象に対しては、同一の値が識別情報として登録される。また、「結合特徴量」とは、対応付けられた「出品対象ID」が示す出品対象のカテゴリ特徴量および画像特徴量から生成される結合特徴量である。また、「出品情報」とは、対応付けられた「出品対象ID」が示す出品対象の価格や説明文等といった、各種出品対象に関する情報である。   Here, the “exhibition target ID” is an identifier that uniquely indicates the exhibition target. The “category path” is the category path of the category to which the exhibition object indicated by the associated “exhibition object ID” belongs. Further, the “exhibition image” is an image of the exhibition target indicated by the associated “exhibition target ID”, and is an image registered in the online shopping mall by the exhibitor. Further, the “identification information” is identification information for identifying a transaction object registered as an exhibition object indicated by the associated “exhibition object ID”, and may be an exhibition object indicated by a different “exhibition object ID”. For the same transaction object, the same value is registered as identification information. The “combined feature amount” is a combined feature amount generated from the category feature amount and the image feature amount of the exhibition object indicated by the associated “exhibition object ID”. Further, the “exhibition information” is information relating to various exhibition targets such as the price and description of the exhibition target indicated by the associated “exhibition target ID”.

例えば、図6に示す例では、出品対象データベース31には、出品対象ID「出品対象#A」、カテゴリパス「カテゴリ#1>カテゴリ#1−1・・・」、出品画像「画像#A」、識別情報「識別情報#A」、結合特徴量「結合特徴量#A」、出品情報「出品情報#A」が対応付けて登録されている。このような情報は、出品対象ID「出品対象#A」が示す出品対象が、カテゴリパス「カテゴリ#1>カテゴリ#1−1・・・」が示すカテゴリに属しており、出品画像が「画像#A」である旨を示す。また、このような情報は、出品対象ID「出品対象#A」が示す出品対象が、識別情報「識別情報#A」が示す取引対象であり、結合特徴量が「結合特徴量#A」であり、出品情報が「出品情報#A」である旨を示す。   For example, in the example shown in FIG. 6, the exhibition object database 31 includes an exhibition object ID “exhibition object #A”, a category path “category # 1> category # 1-1...”, And an exhibition image “image #A”. , Identification information “identification information #A”, combined feature value “combined feature value #A”, and exhibition information “exhibition information #A” are registered in association with each other. In such information, the exhibition object indicated by the exhibition object ID “exhibition object #A” belongs to the category indicated by the category path “category # 1> category # 1-1...”, And the exhibition image is “image”. #A ". Further, in such information, the exhibition object indicated by the exhibition object ID “exhibition object #A” is the transaction object indicated by the identification information “identification information #A”, and the combined feature amount is “combined feature amount #A”. Yes, indicating that the exhibition information is “exhibition information #A”.

なお、図6に示す例では、「出品対象#A」、「カテゴリ#1」、「画像#A」、「識別情報#A」、「結合特徴量#A」、「出品情報#A」等といった概念的な値を記載したが、実際には、各出品対象を識別するための数値や文字列、カテゴリを示す数値や文字列、画像データ、取引対象を識別するための数値や文字列、特徴量の値、出品対象に関する各種の情報等が登録されることとなる。   In the example shown in FIG. 6, “exhibition target #A”, “category # 1”, “image #A”, “identification information #A”, “combined feature amount #A”, “exhibition information #A”, etc. However, in reality, numerical values and character strings for identifying each listing object, numerical values and character strings indicating categories, image data, numerical values and character strings for identifying transaction objects, The value of the feature amount, various information related to the exhibition object, and the like are registered.

カテゴリデータベース32には、電子商店街におけるカテゴリの構造が登録される。例えば、図7は、実施形態に係るカテゴリデータベースに登録される情報の一例を示す図である。図7に示すように、カテゴリデータベース32には、「第1階層カテゴリ」、「第2階層カテゴリ」、「第3階層カテゴリ」、および「カテゴリ特徴量」が対応付けて登録されている。なお、図7に示す例では、電子商店街におけるカテゴリが3段階の階層構造を有する例について記載したが、実際には、カテゴリデータベース32には、任意の階数の階層構造を有するカテゴリの情報が登録されていてもよい。   In the category database 32, the category structure in the online shopping mall is registered. For example, FIG. 7 is a diagram illustrating an example of information registered in the category database according to the embodiment. As illustrated in FIG. 7, “first hierarchy category”, “second hierarchy category”, “third hierarchy category”, and “category feature amount” are registered in the category database 32 in association with each other. In the example illustrated in FIG. 7, an example in which the categories in the online shopping mall have a three-level hierarchical structure is described. However, in reality, the category database 32 includes information on categories having a hierarchical structure having an arbitrary number of floors. It may be registered.

ここで、「第1階層カテゴリ」、「第2階層カテゴリ」、および「第3階層カテゴリ」は、各階層のカテゴリを示す情報である。また、「カテゴリ特徴量」とは、対応付けられた「第1階層カテゴリ」、「第2階層カテゴリ」、および「第3階層カテゴリ」からなるカテゴリパスが有するカテゴリ特徴量である。   Here, “first hierarchy category”, “second hierarchy category”, and “third hierarchy category” are information indicating the category of each hierarchy. Further, the “category feature amount” is a category feature amount that a category path including the associated “first layer category”, “second layer category”, and “third layer category” has.

例えば、図7に示す例では、カテゴリデータベース32には、第1階層カテゴリ「カテゴリ#1」、第2階層カテゴリ「カテゴリ#1−1」、第3階層カテゴリ「カテゴリ#1−1−1」、およびカテゴリ特徴量「特徴量#1−1−1」が対応付けて登録されている。このような情報は、「カテゴリ#1」の下位カテゴリとして「カテゴリ#1−1」が存在し、「カテゴリ#1−1」の下位カテゴリとして「カテゴリ#1−1−1」が存在しており、「カテゴリ#1」から「カテゴリ#1−1」を辿り「カテゴリ#1−1−1」へと至るカテゴリパスのカテゴリ特徴量が「特徴量#1−1−1」である旨を示す。   For example, in the example illustrated in FIG. 7, the category database 32 includes a first hierarchy category “category # 1”, a second hierarchy category “category # 1-1”, and a third hierarchy category “category # 1-1-1”. And the category feature quantity “feature quantity # 1-1-1” are registered in association with each other. Such information includes “category # 1-1” as a lower category of “category # 1” and “category # 1-1-1” as a lower category of “category # 1-1”. The category feature amount of the category path that follows “category # 1-1” from “category # 1” to “category # 1-1-1” is “feature amount # 1-1-1”. Show.

なお、図7に示す例では、「カテゴリ#1」、「特徴量#1−1−1」等といった概念的な値を記載したが、実際には、カテゴリを示す数値や文字列および特徴量の値が登録されることとなる。   In the example shown in FIG. 7, conceptual values such as “category # 1”, “feature amount # 1-1-1”, and the like are described. Will be registered.

モデルデータベース33には、情報提供装置10が使用する各種の分類器や学習器等といったモデルが登録される。例えば、図8は、実施形態に係るモデルデータベースに登録される情報の一例を示す図である。図8に示すように、モデルデータベース33には、「モデル種別」および「モデルデータ」といった情報が登録される。なお、図8に示す例では、「モデルデータ#1」等といった概念的な値を記載したが、実際には、モデルの各種パラメータ等といったデータが登録される。   In the model database 33, models such as various classifiers and learning devices used by the information providing apparatus 10 are registered. For example, FIG. 8 is a diagram illustrating an example of information registered in the model database according to the embodiment. As shown in FIG. 8, information such as “model type” and “model data” is registered in the model database 33. In the example shown in FIG. 8, conceptual values such as “model data # 1” are described, but actually, data such as various parameters of the model is registered.

ここで、「モデル種別」とは、どのような処理に用いられるモデルであるかを示す情報である。また、「モデルデータ」とは、対応付けられた「モデル種別」が示す処理に用いられるモデルの各種パラメータ等といったデータである。   Here, the “model type” is information indicating what kind of process the model is used for. The “model data” is data such as various parameters of the model used for the process indicated by the associated “model type”.

例えば、図8に示す例では、モデルデータベース33には、撮影画像に含まれる取引対象が属するカテゴリを推定する「カテゴリ推定モデル」として、モデルデータ「モデルデータ#1」が登録されており、撮影画像から特徴量を用いた取引対象を検索できるか否かを判定する「判定モデル」として、モデルデータ「モデルデータ#2」が登録されている。また、モデルデータベース33には、画像特徴量を取得する「画像特徴量取得モデル」として、モデルデータ「モデルデータ#3」が登録されており、カテゴリ特徴量を取得する「カテゴリ特徴量取得モデル」として、モデルデータ「モデルデータ#4」が登録されている。   For example, in the example illustrated in FIG. 8, model data “model data # 1” is registered in the model database 33 as a “category estimation model” for estimating the category to which the transaction target included in the captured image belongs. Model data “model data # 2” is registered as a “determination model” for determining whether a transaction target using a feature amount can be searched from an image. In the model database 33, model data “model data # 3” is registered as an “image feature amount acquisition model” for acquiring image feature amounts, and a “category feature amount acquisition model” for acquiring category feature amounts. Model data “model data # 4” is registered.

図5に戻り、説明を続ける。制御部40は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等のプロセッサによって、情報提供装置10内部の記憶装置に記憶されている各種プログラムがRAM等を作業領域として実行されることにより実現される。また、制御部40は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。図5に示すように、制御部40は、受付部41、判定部42、抽出部43、推定部44、取得部45、結合部46、検索部47、提供部48、および学習部49を有する。   Returning to FIG. 5, the description will be continued. The control unit 40 is a controller. For example, various programs stored in a storage device inside the information providing apparatus 10 are stored in a RAM or the like by a processor such as a CPU (Central Processing Unit) or an MPU (Micro Processing Unit). Is implemented as a work area. The control unit 40 is a controller, and may be realized by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). As illustrated in FIG. 5, the control unit 40 includes a reception unit 41, a determination unit 42, an extraction unit 43, an estimation unit 44, an acquisition unit 45, a combination unit 46, a search unit 47, a provision unit 48, and a learning unit 49. .

受付部41は、端末装置100が撮影画像を受付ける。より具体的には、受付部41は、画像に含まれる取引対象の画像をクエリ情報と撮影した画像とともに表示する端末装置100から、撮影画像を受付ける。   In the reception unit 41, the terminal device 100 receives a captured image. More specifically, the reception unit 41 receives a captured image from the terminal device 100 that displays the transaction target image included in the image together with the query information and the captured image.

判定部42は、撮影画像に含まれる特徴点を用いて撮影画像に撮影された取引対象と対応する出品対象を検索できるか否かを判定する。例えば、判定部42は、モデルデータベース33に登録された判定モデルを用いて、撮影画像に含まれる特徴点から出品対象を適切に検索することができるか否かを判定する。そして、判定部42は、撮影画像に含まれる特徴点から出品対象を適切に検索することができると判定した場合は、検索部47に対して撮影画像を出力するとともに、特徴点を用いた検索を指示する。一方、判定部42は、撮影画像に含まれる特徴点から出品対象を適切に検索することができないと判定した場合は、撮影画像を抽出部43に出力する。   The determination unit 42 determines whether it is possible to search for an exhibition target corresponding to a transaction target photographed in the photographed image using a feature point included in the photographed image. For example, using the determination model registered in the model database 33, the determination unit 42 determines whether or not the exhibition target can be appropriately searched from the feature points included in the photographed image. When the determination unit 42 determines that the exhibition target can be appropriately searched from the feature points included in the captured image, the determination unit 42 outputs the captured image to the search unit 47 and performs a search using the feature points. Instruct. On the other hand, when the determination unit 42 determines that the exhibition target cannot be appropriately searched from the feature points included in the captured image, the determination unit 42 outputs the captured image to the extraction unit 43.

抽出部43は、撮影画像から取引対象が撮影された範囲を抽出する。例えば、抽出部43は、各種の画像認識技術を用いて、撮影画像から取引対象が撮影された範囲を抽出する。そして、抽出部43は、抽出した範囲を推定部44および取得部45に出力する。   The extraction part 43 extracts the range where the transaction object was imaged from the captured image. For example, the extraction unit 43 uses various image recognition techniques to extract a range in which the transaction target is captured from the captured image. Then, the extraction unit 43 outputs the extracted range to the estimation unit 44 and the acquisition unit 45.

推定部44は、取引対象の特徴とその取引対象が属するカテゴリとの間の関係性を学習した学習器を用いて、画像に撮影された取引対象が属するカテゴリを推定する。より具体的には、推定部44は、階層構造を有する複数のカテゴリのうち、画像に撮影された取引対象が属するカテゴリを推定する。例えば、推定部44は、抽出部43が撮影画像から抽出した範囲を受付けると、モデルデータベース33に登録されたカテゴリ推定モデルを読出し、読み出したカテゴリ推定モデルを用いて、抽出部43によって抽出された範囲に撮影された取引対象が属するカテゴリを推定する。   The estimation unit 44 estimates the category to which the transaction target photographed in the image belongs, using a learning device that has learned the relationship between the characteristics of the transaction target and the category to which the transaction target belongs. More specifically, the estimation unit 44 estimates a category to which a transaction target photographed in the image belongs among a plurality of categories having a hierarchical structure. For example, when the estimation unit 44 receives the range extracted from the captured image by the extraction unit 43, the estimation unit 44 reads out the category estimation model registered in the model database 33, and the extraction unit 43 uses the read category estimation model. Estimate the category to which the transaction object photographed in the range belongs.

また、推定部44は、カテゴリデータベース32を参照し、推定されたカテゴリのカテゴリパスを取得する。また、推定部44は、カテゴリデータベース32に、取得したカテゴリパスのカテゴリ特徴量が登録されていない場合は、カテゴリ特徴量取得モデルをモデルデータベース33から読出し、読み出したカテゴリ特徴量取得モデルを用いて、取得したカテゴリパスのカテゴリ特徴量を取引対象のカテゴリ特徴量として取得する。そして、推定部44は、取得したカテゴリ特徴量をカテゴリデータベース33に登録する。一方、推定部44は、カテゴリデータベース32に、取得したカテゴリパスのカテゴリ特徴量が登録されている場合は、かかるカテゴリ特徴量を取引対象のカテゴリ特徴量とする。   Further, the estimation unit 44 refers to the category database 32 and acquires the category path of the estimated category. Further, when the category feature quantity of the acquired category path is not registered in the category database 32, the estimation unit 44 reads the category feature quantity acquisition model from the model database 33, and uses the read category feature quantity acquisition model. The category feature amount of the acquired category path is acquired as the category feature amount of the transaction target. Then, the estimation unit 44 registers the acquired category feature amount in the category database 33. On the other hand, when the category feature amount of the acquired category path is registered in the category database 32, the estimation unit 44 sets the category feature amount as a transaction target category feature amount.

取得部45は、画像に撮影された取引対象の特徴量を取得する。例えば、取得部45は、画像特徴量取得モデルをモデルデータベース33から読出し、撮影画像のうち、抽出部43によって抽出された範囲を画像特徴量取得モデルに入力することで、撮影された取引対象の画像特徴量を取得する。   The acquisition unit 45 acquires the feature quantity of the transaction target photographed in the image. For example, the acquisition unit 45 reads the image feature amount acquisition model from the model database 33, and inputs the range extracted by the extraction unit 43 in the captured image to the image feature amount acquisition model, so that the captured transaction target Get the image feature.

結合部46は、カテゴリ特徴量と画像特徴量とを結合した結合特徴量を生成する。例えば、結合部46は、撮影画像に基づいて推定部44が取得した取引対象のカテゴリ特徴量と、取得部45が取得した取引対象の画像特徴量とを結合した結合特徴量を生成する。そして、結合部46は、結合特徴量を検索部47に出力する。   The combining unit 46 generates a combined feature value obtained by combining the category feature value and the image feature value. For example, the combining unit 46 generates a combined feature amount obtained by combining the transaction target category feature amount acquired by the estimation unit 44 based on the captured image and the transaction target image feature amount acquired by the acquisition unit 45. Then, the combining unit 46 outputs the combined feature amount to the search unit 47.

なお、推定部44、取得部45、結合部46は、上述した処理を、出品対象データベース31に登録された出品対象ごとに予め実行することで、各出品対象の結合特徴量を算出し、算出した結合特徴量をあらかじめ出品対象データベース31に登録しておく。例えば、推定部44は、出品対象データベース31に登録されたカテゴリパスから、出品対象のカテゴリ特徴量を取得する。また、取得部45は、出品対象データベース31に登録された出品画像から、出品対象の画像特徴量を取得する。そして、結合部46は、出品対象のカテゴリ特徴量と画像特徴量とを結合した結合特徴量を生成し、生成した結合特徴量を出品対象データベース31に登録する。   In addition, the estimation part 44, the acquisition part 45, and the coupling | bond part 46 calculate the coupling | bonding feature-value of each exhibition object by performing previously the process mentioned above for every exhibition object registered into the exhibition object database 31, and are calculated. The combined feature quantity is registered in the exhibition object database 31 in advance. For example, the estimation unit 44 acquires the category feature amount of the exhibition target from the category path registered in the exhibition target database 31. In addition, the acquisition unit 45 acquires the image feature amount of the exhibition target from the exhibition image registered in the exhibition target database 31. Then, the combining unit 46 generates a combined feature value obtained by combining the category feature value to be displayed and the image feature value, and registers the generated combined feature value in the display target database 31.

検索部47は、カテゴリ特徴量と画像特徴量とを用いて、撮影された取引対象に対応する出品対象を検索する。より具体的には、検索部47は、取引対象が属するカテゴリパスのカテゴリ特徴量と、取引対象の画像特徴量とを用いて、撮影された取引対象に対応する出品対象を検索する。   The search unit 47 uses the category feature value and the image feature value to search for an exhibition object corresponding to the photographed transaction object. More specifically, the search unit 47 uses the category feature amount of the category path to which the transaction target belongs and the image feature amount of the transaction target to search for an exhibition target corresponding to the photographed transaction target.

例えば、検索部47は、撮影画像と特徴点を用いた検索を指示とを判定部42から受付けた場合は、撮影画像が有する特徴点を算出する。また、検索部47は、出品対象データベース31に登録された出品画像のうち、撮影画像が有する特徴点と類似する特徴点を有する出品画像を検索する。そして、検索部47は、撮影画像が有する特徴点と類似する特徴点を有する出品画像を特定した場合は、特定した出品画像と、その出品画像に対応付けられていた識別情報との組を抽出する。   For example, when the search unit 47 receives an instruction to search using a captured image and feature points from the determination unit 42, the search unit 47 calculates the feature points of the captured image. In addition, the search unit 47 searches the exhibition images registered in the exhibition target database 31 for exhibition images having feature points similar to the feature points of the photographed image. And when the search part 47 specified the exhibition image which has the feature point similar to the feature point which a picked-up image has, it extracts the group of the specified exhibition image and the identification information matched with the exhibition image To do.

一方、検索部47は、結合部46から結合特徴量を受付けた場合は、結合部46によって生成された結合特徴量、すなわち、撮影された取引対象の結合特徴量と、出品対象データベース31に登録された結合特徴量とを比較することで、撮影された取引対象と対応する出品対象を検索する。例えば、検索部47は、撮影された取引対象そのものとなる出品対象や、撮影された取引対象と類似もしくは所定の関連性を有する出品対象を検索する。そして、検索部47は、検索した出品対象の画像と、その画像に対応付けられていた識別情報との組を抽出する。   On the other hand, when the search unit 47 receives the combined feature value from the combining unit 46, the search unit 47 registers the combined feature value generated by the combining unit 46, that is, the photographed transaction target combined feature value and the exhibition target database 31. By comparing with the combined feature value thus obtained, the exhibition object corresponding to the photographed transaction object is searched. For example, the search unit 47 searches for an exhibition object that is a photographed transaction object itself, or an exhibition object that is similar or has a predetermined relevance to the photographed transaction object. Then, the search unit 47 extracts a set of the searched exhibition target image and the identification information associated with the image.

すなわち、検索部47は、特徴点を用いて撮影画像に撮影された取引対象と対応する出品対象を検索できると判定された場合は、撮影画像に含まれる特徴点を用いて撮影された取引対象と対応する出品対象を検索する。一方、検索部47は、特徴点を用いて撮影画像に撮影された取引対象と対応する出品対象を検索できないと判定された場合は、推定されたカテゴリ特徴量と、取得された画像特徴量とを用いて、撮影画像に撮影された取引対象に対応する出品対象を検索する。   That is, when it is determined that the search unit 47 can search for the exhibition object corresponding to the transaction object photographed in the photographed image using the feature point, the transaction object photographed using the feature point included in the photographed image. And search for corresponding listings. On the other hand, if the search unit 47 determines that it is not possible to search for the exhibition target corresponding to the transaction target photographed in the photographed image using the feature point, the estimated category feature amount and the acquired image feature amount Is used to search for an exhibition object corresponding to the transaction object photographed in the photographed image.

提供部48は、推定部44と、取得部45と、検索部47とが受付部41により受付けられた撮影画像から検索した取引対象の画像を端末装置100に提供する。より具体的には、提供部48は、撮影画像に含まれる取引対象の画像を端末装置100に提供し、取引対象を電子商店街で検索するための検索クエリを示すクエリ候補として表示させる。例えば、提供部48は、検索部47が出品対象データベース31から抽出した出品画像と識別情報との組を、端末装置100へと送信する。この結果、提供部48は、撮影画像に含まれる取引対象の画像であって、電子商店街に登録された取引対象の画像を提供することとなる。   The providing unit 48 provides the terminal device 100 with the transaction target image searched from the captured image received by the receiving unit 41 by the estimating unit 44, the acquiring unit 45, and the searching unit 47. More specifically, the providing unit 48 provides the transaction target image included in the photographed image to the terminal device 100 and displays it as a query candidate indicating a search query for searching the transaction target in the online shopping mall. For example, the providing unit 48 transmits a set of the exhibition image and the identification information extracted by the search unit 47 from the exhibition target database 31 to the terminal device 100. As a result, the providing unit 48 provides a transaction target image included in the photographed image and registered in the online shopping mall.

学習部49は、各種モデルの学習を行い、モデルデータベース33に学習したモデルを登録する。例えば、学習部49は、出品対象データベース31に登録された出品画像と、その出品画像と対応付けられたカテゴリパスのリーフカテゴリとの組を抽出する。そして、学習部49は、抽出した出品画像とリーフカテゴリとの組の関係性を学習させた学習器をカテゴリ推定モデルとして生成する。なお、学習部49は、出品画像と対応づけられた識別情報を用いて、ウェブ上の取引対象の画像を収集し、収集した画像と、その画像に撮影された取引対象が属するリーフカテゴリとの間の関係性をカテゴリ推定モデルに学習させてもよい。   The learning unit 49 learns various models and registers the learned models in the model database 33. For example, the learning unit 49 extracts a set of an exhibition image registered in the exhibition object database 31 and a leaf category of a category path associated with the exhibition image. And the learning part 49 produces | generates the learning device which learned the relationship of the group of the extracted exhibition image and leaf category as a category estimation model. Note that the learning unit 49 uses the identification information associated with the exhibition image to collect the transaction target image on the web, and the collected image and the leaf category to which the transaction target photographed in the image belongs. The relationship between the categories may be learned by the category estimation model.

また、学習部49は、特徴点を用いて適切な出品対象の検索を行えた画像や、特徴点を用いて適切な出品対象の検索を行えなかった画像等を学習データとして取得する。そして、学習部49は、取得した学習データを用いて、判定モデルの学習を行う。例えば、学習部49は、特徴点を用いて適切な出品対象の検索を行えた画像が有する特徴を学習するように、判定モデルの学習を行う。   In addition, the learning unit 49 acquires, as learning data, an image that has been searched for an appropriate exhibition object using the feature points, an image that has not been searched for an appropriate exhibition object using the feature points, and the like. The learning unit 49 learns the determination model using the acquired learning data. For example, the learning unit 49 learns the determination model so as to learn the features of an image that has been searched for an appropriate exhibition target using the feature points.

また、学習部49は、類似するカテゴリパスのカテゴリ特徴量が類似し、類似しないカテゴリパスのカテゴリ特徴量が類似しなくなるように、カテゴリ特徴量を算出するカテゴリ特徴量取得モデルの学習を行う。また、学習部49は、類似する画像の画像特徴量が類似し、類似しない画像の画像特徴量が類似しなくなるように、画像特徴量を算出する画像特徴量取得モデルの学習を行う。なお、このようなカテゴリ特徴量取得モデルや、画像特徴量取得モデルの学習は、分類器を学習するための任意の技術が採用可能である。   The learning unit 49 also learns a category feature quantity acquisition model for calculating category feature quantities so that category feature quantities of similar category paths are similar and category feature quantities of dissimilar category paths are not similar. In addition, the learning unit 49 learns an image feature amount acquisition model for calculating an image feature amount so that image feature amounts of similar images are similar and image feature amounts of dissimilar images are not similar. It should be noted that any technique for learning a classifier can be employed for learning such a category feature quantity acquisition model or image feature quantity acquisition model.

このように、情報提供装置10は、端末装置100が撮影した撮影画像を受付けると、クエリ情報として表示させる画像を検索し、検索した画像をクエリ情報として端末装置100へと送信することで、検索した画像をクエリ情報として表示させる。例えば、情報提供装置10は、撮影画像に含まれる取引対象の画像であって、電子商店街に出品された出品対象の画像を端末装置100にクエリ情報として表示させる。すなわち、情報提供装置10は、撮影画像に含まれる取引対象の画像をクエリ情報として表示するように、端末装置100を制御する。   As described above, when the information providing apparatus 10 accepts a captured image taken by the terminal device 100, the information providing apparatus 10 searches for an image to be displayed as query information, and transmits the searched image to the terminal device 100 as query information. Displayed as query information. For example, the information providing apparatus 10 causes the terminal apparatus 100 to display an image of a transaction target included in the photographed image and displayed on the online shopping mall as query information. That is, the information providing apparatus 10 controls the terminal apparatus 100 so as to display the transaction target image included in the captured image as the query information.

ここで、情報提供装置10は、クエリ情報として表示させる画像と、その画像がクエリ情報である旨を示す属性情報(例えば、画像の名称や画像の属性を示す情報)とともに送信する。このような場合、端末装置100は、情報提供装置10から受信した属性情報が、その属性情報とともに受信しが画像がクエリ情報である旨を示す場合は、受信した画像をクエリ情報として表示すればよい。また、情報提供装置10は、画像をクエリ情報として端末装置100に表示させるための命令文(例えば、各種のプログラムやスクリプト等)とともにクエリ情報として表示させる画像を端末装置100へ送信してもよい。このような処理の結果、情報提供装置10は、検索した画像をクエリ情報として端末装置100に表示させることができる。   Here, the information providing apparatus 10 transmits the image to be displayed as the query information and attribute information indicating that the image is the query information (for example, information indicating the name of the image and the attribute of the image). In such a case, if the attribute information received from the information providing device 10 indicates that the image is query information received together with the attribute information, the terminal device 100 displays the received image as query information. Good. In addition, the information providing apparatus 10 may transmit an image to be displayed as query information to the terminal apparatus 100 together with a command statement (for example, various programs or scripts) for causing the terminal apparatus 100 to display an image as query information. . As a result of such processing, the information providing apparatus 10 can display the searched image on the terminal apparatus 100 as query information.

〔7.クエリ情報を表示する態様について〕
ここで、端末装置100がクエリ情報を追加表示する処理の一例について説明する。例えば、図9は、実施形態に係る端末装置がクエリ情報を表示する態様の一例を示す図である。なお、図9に示す例では、端末装置100が画面奥方向に対して左方向から右方向に回転しながら画像を撮影した場合と、端末装置100が画面奥方向に対して右方向から左方向に回転しながら画像を撮影した場合とで、クエリ情報を表示する態様の一例について記載した。また、図9に示す例では、端末装置100が有するカメラ140の撮影範囲を実線の長方形の枠で記載した。
[7. How to display query information)
Here, an example of processing in which the terminal device 100 additionally displays query information will be described. For example, FIG. 9 is a diagram illustrating an example of a mode in which the terminal device according to the embodiment displays the query information. In the example illustrated in FIG. 9, the terminal device 100 captures an image while rotating from the left to the right with respect to the back direction of the screen, and the terminal device 100 has the left direction from the right with respect to the back direction of the screen. An example in which query information is displayed when an image is taken while rotating in the above is described. In the example illustrated in FIG. 9, the shooting range of the camera 140 included in the terminal device 100 is described with a solid rectangular frame.

例えば、図9中(A)に示すように、端末装置100が画面左方向から画面右方向へと回転しながら動画像を撮影している場合は、ワイン、カメラ、缶ジュース、珈琲、およびティッシュペーパーの順で取引対象が撮影範囲に含まれることとなる。この結果、端末装置100は、図9中(B)に示すように、画面左側から、ワイン、カメラ、缶ジュース、珈琲、ティッシュペーパーの順でクエリ情報を並べて表示する。   For example, as shown in FIG. 9A, when the terminal device 100 is capturing a moving image while rotating from the left side of the screen to the right side of the screen, wine, a camera, can juice, grapes, and tissue Transaction objects will be included in the shooting range in the order of paper. As a result, as shown in FIG. 9B, the terminal device 100 displays the query information side by side in the order of wine, camera, canned juice, grapes, and tissue paper from the left side of the screen.

一方、図9中(C)に示すように、端末装置100が画面右方向から画面左方向へと回転しながら動画像を撮影している場合は、ティッシュ、珈琲、缶ジュース、カメラ、ワインの順で取引対象が撮影範囲に含まれることとなる。この結果、端末装置100は、図9中(D)に示すように、画面左側からティッシュペーパー、珈琲、缶ジュース、カメラ、ワインの順でクエリ情報となる出品画像を取得し、画面上に表示することとなる。   On the other hand, as shown in FIG. 9C, when the terminal device 100 is capturing a moving image while rotating from the right side of the screen to the left side of the screen, the tissue of the tissue, straw, can juice, camera, wine In this order, the transaction target is included in the shooting range. As a result, as shown in FIG. 9 (D), the terminal device 100 obtains an exhibition image serving as query information in the order of tissue paper, rice cake, canned juice, camera, wine from the left side of the screen, and displays it on the screen. Will be.

なお、端末装置100は、端末装置100の回転する向きに応じて、クエリ情報を並べる方向を切り替えてもよい。例えば、端末装置100は、利用者が端末装置100を所定の方向に動かしながら動画像を撮影した場合は、取引対象が認識される度に、認識された取引対象の画像を所定の方向に向けて並べるように表示してもよい。   Note that the terminal device 100 may switch the direction in which the query information is arranged according to the direction in which the terminal device 100 rotates. For example, when the user captures a moving image while moving the terminal device 100 in a predetermined direction, the terminal device 100 directs the recognized transaction target image in the predetermined direction each time the transaction target is recognized. They may be displayed in a line.

例えば、端末装置100は、図9中(A)に示すように、端末装置100が画面左方向から画面右方向へと回転しながら動画像を撮影している場合は、ジャイロセンサを用いて、端末装置100が画面左方向から画面右方向へと回転している旨を特定する。このような場合、端末装置100は、図9中(B)に示すように、画面左側から、ワイン、カメラ、缶ジュース、珈琲、ティッシュペーパーの順でクエリ情報を並べて表示する。   For example, as illustrated in FIG. 9A, the terminal device 100 uses a gyro sensor when the terminal device 100 captures a moving image while rotating from the left side of the screen to the right side of the screen. It is specified that the terminal device 100 is rotating from the left side of the screen to the right side of the screen. In such a case, as shown in FIG. 9B, the terminal device 100 displays the query information side by side in the order of wine, camera, canned juice, grapes, and tissue paper from the left side of the screen.

一方、端末装置100は、図9中(C)に示すように、端末装置100が画面右方向から画面左方向へと回転しながら動画像を撮影している場合は、ジャイロセンサを用いて、端末装置100が画面右方向から画面左方向へと回転している旨を特定する。このような場合、端末装置100は、画面右側から、ティッシュペーパー、珈琲、缶ジュース、カメラ、ワインの順でクエリ情報を並べて表示してもよい。   On the other hand, as shown in FIG. 9C, the terminal device 100 uses a gyro sensor when the terminal device 100 is capturing a moving image while rotating from the right side of the screen to the left side of the screen. It is specified that the terminal device 100 is rotating from the right side of the screen to the left side of the screen. In such a case, the terminal device 100 may display the query information side by side in the order of tissue paper, rice cake, canned juice, camera, and wine from the right side of the screen.

〔8.情報提供装置が実行する処理の流れの一例〕
続いて、図10、図11を用いて、端末装置100および情報提供装置10が実行する処理の流れの一例を説明する。図10は、実施形態に係る端末装置が実行する表示処理の流れの一例を示すフローチャートである。また、図11は、実施形態に係る情報提供装置が実行する検索処理の流れの一例を示すフローチャートである。
[8. Example of flow of processing executed by information providing apparatus]
Subsequently, an example of a flow of processing executed by the terminal device 100 and the information providing device 10 will be described with reference to FIGS. 10 and 11. FIG. 10 is a flowchart illustrating an example of a flow of display processing executed by the terminal device according to the embodiment. FIG. 11 is a flowchart illustrating an example of a flow of search processing executed by the information providing apparatus according to the embodiment.

まず、図10を用いて、端末装置100が実行する表示処理の流れの一例を説明する。なお、端末装置100は、利用者の操作に応じて画像の撮影が開始された場合は、画像の撮影を停止させるための操作が行われるまで、図10に示す処理を繰り返し実行する。まず、端末装置100は、画像を撮影し(ステップS101)、撮影した画像を画面上に表示させる(ステップS102)。また、端末装置100は、撮影した画像を情報提供装置10に送信する(ステップS103)。そして、端末装置100は、ECサイトにおける出品画像を受信したか否かを判定し(ステップS104)、受信した場合は(ステップS104:Yes)、受信した出品画像をクエリ情報として並べて表示し(ステップS105)、ステップS101へ戻る。一方、端末装置100は、出品画像を受信していない場合は(ステップS104:No)、ステップS101へ戻る。   First, an example of the flow of display processing executed by the terminal device 100 will be described with reference to FIG. Note that the terminal device 100 repeatedly executes the process illustrated in FIG. 10 until an operation for stopping image capturing is performed when image capturing is started in response to a user operation. First, the terminal device 100 captures an image (step S101), and displays the captured image on the screen (step S102). In addition, the terminal device 100 transmits the captured image to the information providing device 10 (step S103). Then, the terminal device 100 determines whether or not an exhibition image on the EC site has been received (step S104). If received (step S104: Yes), the received exhibition image is displayed side by side as query information (step S104). S105), the process returns to step S101. On the other hand, when the terminal device 100 has not received the exhibition image (step S104: No), the terminal device 100 returns to step S101.

次に、図11を用いて、情報提供装置10が実行する検索処理の流れについて説明する。まず、情報提供装置10は、端末装置100が撮影した画像を受付けると(ステップS201)、特徴点を用いた出品対象の検索が可能か否かを判定し(ステップS202)、可能であると判定した場合は(ステップS202:Yes)、特徴点から撮影された取引対象と対応する出品対象を特定する(ステップS203)。   Next, the flow of search processing executed by the information providing apparatus 10 will be described with reference to FIG. First, when the information providing apparatus 10 accepts an image captured by the terminal device 100 (step S201), the information providing apparatus 10 determines whether or not a search for an exhibition target using a feature point is possible (step S202), and determines that it is possible. If it has been done (step S202: Yes), the exhibition object corresponding to the transaction object photographed from the feature point is specified (step S203).

一方、情報提供装置10は、特徴点を用いた出品対象の検索が可能ではないと判定した場合は(ステップS202:No)、撮影画像から取引対象が撮影された範囲を抽出し(ステップS204)、リーフカテゴリの特徴を学習したモデルを用いて、抽出した範囲に撮影された取引対象が属するリーフカテゴリを推定する(ステップS205)。そして、情報提供装置10は、所定のカテゴリから推定したリーフカテゴリまでのカテゴリパスが有するカテゴリ特徴量を取得する(ステップS206)。   On the other hand, when the information providing apparatus 10 determines that the search for the exhibition target using the feature points is not possible (step S202: No), the information providing apparatus 10 extracts the range in which the transaction target is captured from the captured image (step S204). The leaf category to which the transaction object photographed in the extracted range belongs is estimated using the model in which the features of the leaf category are learned (step S205). And the information provision apparatus 10 acquires the category feature-value which the category path | route from the predetermined category to the estimated leaf category has (step S206).

また、情報提供装置10は、抽出された画像が有する画像特徴量を取得する(ステップS207)。なお、ステップS205〜ステップS207の処理は、任意の順番で実行されてもよく、並行して実行されてもよい。そして、情報提供装置10は、カテゴリ特徴量と画像特徴量とを結合した結合特徴量を取得し(ステップS208)、取得した結合特徴量を用いて、出品対象を検索する(ステップS209)。また、情報提供装置10は、ステップS203またはステップS209の検索を行った結果、撮影された取引対象と対応する出品対象を特定した場合は、特定した出品対象の識別情報と出品画像とを端末装置100に提供し(ステップS210)、処理を終了する。   Further, the information providing apparatus 10 acquires an image feature amount included in the extracted image (Step S207). Note that the processing in steps S205 to S207 may be executed in an arbitrary order, or may be executed in parallel. Then, the information providing apparatus 10 acquires a combined feature amount obtained by combining the category feature amount and the image feature amount (step S208), and searches for an exhibition target using the acquired combined feature amount (step S209). Further, when the information providing apparatus 10 specifies the exhibition object corresponding to the photographed transaction object as a result of the search in step S203 or step S209, the information providing apparatus 10 displays the identified identification information and the exhibition image of the exhibition object. 100 (step S210), and the process ends.

〔9.変形例〕
上記では、情報提供装置10および端末装置100による検索処理や表示処理の一例について説明した。しかしながら、実施形態は、これに限定されるものではない。以下、検索処理や表示処理のバリエーションについて説明する。
[9. (Modification)
In the above, an example of search processing and display processing by the information providing device 10 and the terminal device 100 has been described. However, the embodiment is not limited to this. Hereinafter, variations of search processing and display processing will be described.

〔9−1.画像クエリについて〕
上述した例では、端末装置100は、情報提供装置10から受付けた出品画像をクエリ情報として表示し、クエリ情報が選択された場合は、クエリ情報と対応する識別情報を用いて、電子商店街の検索を行った。しかしながら、実施形態は、これに限定されるものではない。例えば、端末装置100および情報提供装置10は、画像クエリを用いた検索を行ってもよい。
[9-1. About image queries)
In the example described above, the terminal device 100 displays the exhibition image received from the information providing device 10 as the query information. When the query information is selected, the terminal device 100 uses the identification information corresponding to the query information to I did a search. However, the embodiment is not limited to this. For example, the terminal device 100 and the information providing device 10 may perform a search using an image query.

例えば、端末装置100は、撮影画像のうち、取引対象が含まれる領域をクエリ情報として表示し、クエリ情報が選択された場合は、選択されたクエリ情報を画像クエリとして用いて電子商店街の検索を行った検索結果を表示してもよい。より具体的な例を挙げると、端末装置100は、情報提供装置10が撮影画像から抽出した取引対象の画像を受付け、受付けた画像をクエリ情報として表示する。なお、端末装置100は、撮影画像から取引対象が撮影された範囲を自装置で認識し、認識した範囲をクエリ情報として表示してもよい。   For example, the terminal device 100 displays an area including a transaction target in the captured image as query information. When the query information is selected, the terminal device 100 searches the online shopping mall using the selected query information as an image query. You may display the search result which performed. To give a more specific example, the terminal device 100 accepts a transaction target image extracted from the photographed image by the information providing device 10 and displays the accepted image as query information. In addition, the terminal device 100 may recognize the range in which the transaction target is captured from the captured image, and display the recognized range as query information.

そして、端末装置100は、表示したクエリ情報が選択された場合は、選択されたクエリ情報を情報提供装置10へと送信する。このような場合、情報提供装置10は、端末装置100から受信した画像から対応する出品対象を検索し、検索した出品対象の出品対象IDや識別情報を端末装置100に通知する。この結果、端末装置100は、情報提供装置10から受付けた識別情報や出品対象IDを用いた電子商店街の検索を行い、検索結果を表示する。なお、端末装置100は、クエリ情報として表示した画像そのものをクエリ画像としてECサーバ200に送信し、撮影された取引対象と対応する出品対象の検索を行ってもよい。   Then, when the displayed query information is selected, the terminal device 100 transmits the selected query information to the information providing device 10. In such a case, the information providing apparatus 10 searches for a corresponding exhibition object from the image received from the terminal apparatus 100 and notifies the terminal apparatus 100 of the exhibition object ID and identification information of the retrieved exhibition object. As a result, the terminal device 100 searches the online shopping mall using the identification information received from the information providing device 10 and the exhibition target ID, and displays the search result. Note that the terminal device 100 may transmit the image itself displayed as the query information to the EC server 200 as a query image, and perform a search for an exhibition target corresponding to the photographed transaction target.

〔9−2.クエリ情報の選択について〕
また、端末装置100は、クエリ情報が選択された場合は、選択されたクエリ情報が示す検索クエリと対応する取引対象の購入に関するコンテンツを表示してもよい。例えば、端末装置100は、選択されたクエリ情報と対応する識別情報と対応付けられた出品対象のうち、販売価格が最も安い出品対象を識別情報ごとに特定する。そして、端末装置100は、ECサーバ200が提供する電子商店街において、特定した出品対象を買物カートに投入し、買い物カートに投入された出品対象の購入確認画面を表示してもよい。すなわち、端末装置100は、選択されたクエリ情報と対応する出品対象の検索結果ではなく、選択されたクエリ情報と対応する出品対象の購入に関するコンテンツを表示してもよい。
[9-2. (Selecting query information)
Further, when the query information is selected, the terminal device 100 may display the content related to the purchase of the transaction target corresponding to the search query indicated by the selected query information. For example, the terminal device 100 specifies, for each piece of identification information, a listing target with the lowest selling price among the listing targets associated with the identification information corresponding to the selected query information. Then, the terminal device 100 may put the specified listing object in the shopping cart in the online shopping mall provided by the EC server 200 and display a purchase confirmation screen for the listing target placed in the shopping cart. That is, the terminal device 100 may display content related to the purchase of the exhibition target corresponding to the selected query information, instead of the search result of the exhibition target corresponding to the selected query information.

〔9−3.送信される情報について〕
上述した例では、端末装置100は、撮影した画像を情報提供装置10に送信した。しかしながら、実施形態は、これに限定されるものではない。例えば、端末装置100は、撮影画像が有する特徴点や特徴量、カテゴリ等を情報提供装置10に送信してもよい。このような場合、情報提供装置10は、撮影画像に代えて、受信した特徴点や特徴量からカテゴリ特徴量が画像特徴量を取得し、取得したカテゴリ特徴量や画像特徴量から撮影された取引対象と対応する出品対象を検索してもよい。また、このような処理を実行する場合、端末装置100は、図5に示す判定部42、抽出部43、推定部44、取得部45、および結合部46を有することとなる。
[9-3. (Information to be sent)
In the example described above, the terminal device 100 transmits the captured image to the information providing device 10. However, the embodiment is not limited to this. For example, the terminal device 100 may transmit a feature point, a feature amount, a category, and the like that the captured image has to the information providing device 10. In such a case, the information providing apparatus 10 acquires the image feature amount from the received feature point or feature amount instead of the photographed image, and obtains the image feature amount from the received category feature amount or image feature amount. You may search the exhibition object corresponding to the object. Moreover, when performing such a process, the terminal device 100 will have the determination part 42, the extraction part 43, the estimation part 44, the acquisition part 45, and the coupling | bond part 46 which are shown in FIG.

〔9−4.店舗情報の履歴について〕
ここで、端末装置100は、画像を撮影した際に、GPS(Global Positioning System)等の位置測位システムを用いて、端末装置100の現在位置を特定する。そして、端末装置100は、特定した位置に基づいて、画像を撮影した際に端末装置100が所在した地域名、施設名、店舗名等の位置情報を取得し、取得した位置情報を画像と共に保持する。そして、端末装置100は、カメラロールCRにおいて、画像が選択された場合は、対応付けて保持した位置情報を利用者に提供することで、その画像に撮影された取引対象がどの店舗やどの施設にある取引対象であったかを利用者に提示してもよい。
[9-4. About the history of store information)
Here, the terminal device 100 specifies the current position of the terminal device 100 using a position positioning system such as GPS (Global Positioning System) when taking an image. Then, based on the specified position, the terminal device 100 acquires location information such as the name of the area where the terminal device 100 is located, the name of the facility, the store name, etc. when the image is taken, and holds the acquired location information together with the image To do. Then, when an image is selected in the camera roll CR, the terminal device 100 provides the user with the positional information held in association with each other, so that the transaction target photographed in the image is which store or which facility It may be shown to the user whether the transaction was in

〔9−5.処理の実行主体について〕
なお、上述した検索処理および表示処理は、端末装置100が単体で実行してもよい。また、上述した検索処理および表示処理は、任意の粒度で分割され、情報提供装置10および端末装置100が分割された任意の処理を実行することで実現されてもよい。例えば、撮影画像から取引対象を認識する処理は、端末装置100が実行してもよく、情報提供装置10が実行してもよい。
[9-5. (Processing subject)
Note that the above-described search processing and display processing may be executed by the terminal device 100 alone. Further, the search process and the display process described above may be divided by an arbitrary granularity, and may be realized by executing the arbitrary processes in which the information providing apparatus 10 and the terminal apparatus 100 are divided. For example, the process of recognizing a transaction target from a captured image may be executed by the terminal device 100 or the information providing device 10.

また、情報提供装置10が有する各データベース31〜33は、外部のストレージサーバに保持されていてもよい。また、情報提供装置10は、判定部42を有する判定サーバ、抽出部43を有する抽出サーバ、推定部44を有する推定サーバ、取得部45を有する取得サーバ、結合部46、検索部47、および提供部48を有する検索サーバ、および学習部49を有する学習サーバが協調して動作することで、実現されてもよい。   The databases 31 to 33 included in the information providing apparatus 10 may be held in an external storage server. Further, the information providing apparatus 10 includes a determination server having a determination unit 42, an extraction server having an extraction unit 43, an estimation server having an estimation unit 44, an acquisition server having an acquisition unit 45, a combining unit 46, a search unit 47, and a provision The search server having the unit 48 and the learning server having the learning unit 49 may operate in cooperation with each other.

また、提供システム1は、全カテゴリを、最上位カテゴリが共通する複数のカテゴリ群に分割し、分割されたカテゴリ群ごとに、上述した検索処理を実行する情報提供装置10を有し、カテゴリ群ごとに段階的な出品対象の検索を行ってもよい。例えば、提供システム1は、ファッションに属するカテゴリ群に対応する第1の情報提供装置により、撮影された取引対象と対応する出品情報が適切に検索されなかった場合には、飲食料に属するカテゴリ群に対応する第2の情報提供装置により、撮影された取引対象と対応する出品情報の検索を行えばよい。そして、提供システム1は、撮影された取引対象と対応する出品情報が適切に検索されるまで、随時検索対象となるカテゴリ群の切り替えを行えばよい。   Further, the providing system 1 includes an information providing apparatus 10 that divides all categories into a plurality of category groups that share the highest category, and executes the above-described search processing for each of the divided category groups. You may search for the exhibition object stepwise for every. For example, in the case where the first information providing apparatus corresponding to the category group belonging to fashion has not properly searched for the exhibition information corresponding to the photographed transaction object, the providing system 1 determines the category group belonging to the food and drink The exhibition information corresponding to the photographed transaction object may be searched by the second information providing apparatus corresponding to. And the providing system 1 should just switch the category group used as search object at any time until the exhibition information corresponding to the image | photographed transaction object is searched appropriately.

〔9−6.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、逆に、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[9-6. Others]
In addition, among the processes described in the above embodiment, all or part of the processes described as being automatically performed can be performed manually, and conversely, the processes described as being performed manually. All or a part of the above can be automatically performed by a known method. In addition, the processing procedures, specific names, and information including various data and parameters shown in the document and drawings can be arbitrarily changed unless otherwise specified. For example, the various types of information illustrated in each drawing is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。   Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured.

また、上記してきた各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。   In addition, the above-described embodiments can be appropriately combined within a range in which processing contents do not contradict each other.

〔9−7.プログラム〕
また、上述した実施形態に係る情報提供装置10および端末装置100は、例えば図12に示すような構成のコンピュータ1000によって実現される。図12は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
[9-7. program〕
Further, the information providing apparatus 10 and the terminal apparatus 100 according to the above-described embodiment are realized by a computer 1000 having a configuration as shown in FIG. 12, for example. FIG. 12 is a diagram illustrating an example of a hardware configuration. The computer 1000 is connected to an output device 1010 and an input device 1020, and an arithmetic device 1030, a primary storage device 1040, a secondary storage device 1050, an output IF (Interface) 1060, an input IF 1070, and a network IF 1080 are connected via a bus 1090. Have

演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。一次記憶装置1040は、RAM等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等により実現される。   The arithmetic device 1030 operates based on a program stored in the primary storage device 1040 and the secondary storage device 1050, a program read from the input device 1020, and the like, and executes various processes. The primary storage device 1040 is a memory device such as a RAM that temporarily stores data used by the arithmetic device 1030 for various arithmetic operations. The secondary storage device 1050 is a storage device in which data used by the arithmetic device 1030 for various calculations and various databases are registered, such as ROM (Read Only Memory), HDD (Hard Disk Drive), flash memory, and the like. It is realized by.

出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。   The output IF 1060 is an interface for transmitting information to be output to an output device 1010 that outputs various types of information such as a monitor and a printer. For example, USB (Universal Serial Bus), DVI (Digital Visual Interface), This is realized by a standard connector such as HDMI (registered trademark) (High Definition Multimedia Interface). The input IF 1070 is an interface for receiving information from various input devices 1020 such as a mouse, a keyboard, and a scanner, and is realized by, for example, a USB.

なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置であってもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体であってもよい。   The input device 1020 includes, for example, an optical recording medium such as a CD (Compact Disc), a DVD (Digital Versatile Disc), and a PD (Phase change rewritable disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), and a tape. It may be a device that reads information from a medium, a magnetic recording medium, a semiconductor memory, or the like. The input device 1020 may be an external storage medium such as a USB memory.

ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。   The network IF 1080 receives data from other devices via the network N and sends the data to the arithmetic device 1030, and transmits data generated by the arithmetic device 1030 to other devices via the network N.

演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。   The arithmetic device 1030 controls the output device 1010 and the input device 1020 via the output IF 1060 and the input IF 1070. For example, the arithmetic device 1030 loads a program from the input device 1020 or the secondary storage device 1050 onto the primary storage device 1040, and executes the loaded program.

例えば、コンピュータ1000が情報提供装置10として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部40の機能を実現する。また、例えば、コンピュータ1000が端末装置100として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部150の機能を実現する。   For example, when the computer 1000 functions as the information providing device 10, the arithmetic device 1030 of the computer 1000 implements the function of the control unit 40 by executing a program loaded on the primary storage device 1040. Further, for example, when the computer 1000 functions as the terminal device 100, the arithmetic device 1030 of the computer 1000 implements the function of the control unit 150 by executing a program loaded on the primary storage device 1040.

〔10.効果〕
上述したように、端末装置100は、所定の画像(例えば、撮影した画像や、所定の記憶領域に保持された画像)に含まれる取引対象の画像を取得する。そして、端末装置100は、、取引対象を電子商店街で検索するための検索クエリを示すクエリ情報として、取得した画像を所定の画像と共に表示する。このため、端末装置100は、クエリ情報を用いて、取引対象を電子商店街で検索するための検索クエリを利用者に提示するとともに、利用者から検索クエリの指定を受付けることができるので、画像を用いた取引対象の検索における操作性を向上させることができる。
[10. effect〕
As described above, the terminal device 100 acquires a transaction target image included in a predetermined image (for example, a captured image or an image held in a predetermined storage area). And the terminal device 100 displays the acquired image with a predetermined image as query information which shows the search query for searching transaction object in an online shopping mall. For this reason, since the terminal device 100 can present the search query for searching the transaction target in the online shopping mall to the user using the query information, and can accept the specification of the search query from the user. It is possible to improve the operability in searching for a transaction object using.

例えば、端末装置100は、画像の撮影を行い、撮影した画像に含まれる取引対象の画像を取得する。このため、端末装置100は、利用者が撮影した取引対象を電子商店街で検索するための情報を画面上に表示するので、画像を用いた取引対象の検索における操作性を向上させることができる。   For example, the terminal device 100 captures an image and acquires a transaction target image included in the captured image. For this reason, since the terminal device 100 displays on the screen information for searching for a transaction target photographed by the user in the online shopping mall, the operability in searching for the transaction target using an image can be improved. .

また、端末装置100は、所定の画像に含まれる取引対象の画像であって、電子商店街に登録された取引対象の画像、すなわち、出品対象の出品画像を取得し、取得した出品画像をクエリ情報として表示する。このため、端末装置100は、実際に電子商店街に出品されている出品対象の出品画像をクエリ情報として表示することができる結果、画像を用いた取引対象の検索における操作性を向上させることができる。   Further, the terminal device 100 acquires a transaction target image included in the predetermined image, which is a transaction target image registered in the online shopping mall, that is, an exhibition target exhibition image, and queries the acquired exhibition image. Display as information. For this reason, the terminal device 100 can display the exhibition image of the exhibition object actually exhibited in the online shopping mall as the query information. As a result, the operability in searching for the transaction object using the image can be improved. it can.

また、端末装置100は、取引対象の画像と、電子商店街においてその取引対象を識別する識別情報とを取得する。そして、端末装置100は、取引対象の画像をクエリ情報として表示し、その画像が選択された場合は、選択された画像と対応する識別情報を用いて電子商店街の検索を行った検索結果を表示する。このため、端末装置100は、クエリ情報として表示された画像に含まれる取引対象の検索結果を表示することができる。   In addition, the terminal device 100 acquires a transaction target image and identification information for identifying the transaction target in the online shopping mall. And the terminal device 100 displays the image of transaction object as query information, When the image is selected, the search result which searched the online shopping mall using the identification information corresponding to the selected image is displayed. indicate. For this reason, the terminal device 100 can display the search result of the transaction target included in the image displayed as the query information.

また、端末装置100は、電子商店街に登録された取引対象の画像を検索する情報提供装置10により検索された画像を取得する。このため、端末装置100は、自装置における処理負荷を増大させることなく、撮影画像を用いた取引対象の検索を実現することができる。   Further, the terminal device 100 acquires an image searched by the information providing device 10 that searches for an image of a transaction target registered in the online shopping mall. For this reason, the terminal device 100 can implement | achieve the search of the transaction object using a picked-up image, without increasing the processing load in an own apparatus.

また、端末装置100は、クエリ情報が選択された場合は、選択されたクエリ情報が示す検索クエリを用いて電子商店街の検索を行った検索結果を表示する。また、端末装置100は、複数のクエリ情報が選択された場合は、選択された複数のクエリ情報が示す複数の検索クエリを用いて電子商店街の検索を行なった検索結果を表示する。このため、端末装置100は、利用者が選択したクエリ情報と対応する取引対象の検索結果を表示することができる。   Further, when the query information is selected, the terminal device 100 displays a search result obtained by searching the online shopping mall using the search query indicated by the selected query information. Further, when a plurality of pieces of query information are selected, the terminal device 100 displays a search result obtained by searching the online shopping mall using a plurality of search queries indicated by the selected pieces of query information. For this reason, the terminal device 100 can display the search result of the transaction object corresponding to the query information selected by the user.

また、端末装置100は、所定の画像に含まれる取引対象と関連する他の取引対象の画像を、他の取引対象を電子商店街で検索するための検索クエリを示すクエリ情報として表示する。このため、端末装置100は、撮影した取引対象と関連する他の取引対象を検索するためのクエリ情報を表示することができる。   Moreover, the terminal device 100 displays the image of the other transaction object relevant to the transaction object contained in the predetermined image as query information indicating a search query for searching for another transaction object in the online shopping mall. For this reason, the terminal device 100 can display the query information for searching for another transaction object related to the photographed transaction object.

また、端末装置100は、取引対象の画像を、その取引対象およびその取引対象と関連する他の取引対象を電子商店街で検索するための検索クエリを示すクエリ情報として表示する。このため、端末装置100は、実際に撮影した画像をクエリ情報として表示することができる。   Moreover, the terminal device 100 displays the transaction target image as query information indicating a search query for searching the transaction target and other transaction targets related to the transaction target in the online shopping mall. For this reason, the terminal device 100 can display an actually captured image as query information.

また、端末装置100は、スクロール可能な態様で、複数のクエリ情報を表示する。このため、端末装置100は、撮影画像から認識された各取引対象のクエリ情報を、利用者に対して提示することができる。   Moreover, the terminal device 100 displays a plurality of query information in a scrollable manner. For this reason, the terminal device 100 can present the query information of each transaction object recognized from the captured image to the user.

また、端末装置100は、所定の画像のうち、取引対象が含まれる領域をクエリ情報として表示し、そのクエリ情報が選択された場合は、選択されたクエリ情報を画像クエリとして用いて電子商店街の検索を行った検索結果を表示する。このため、端末装置100は、情報提供装置10における検索結果を行わずとも、画像を用いた取引対象の検索を実現することができる。   In addition, the terminal device 100 displays an area including a transaction target in the predetermined image as query information. When the query information is selected, the terminal device 100 uses the selected query information as an image query to store in the online shopping mall. Displays the search results of the search. For this reason, the terminal device 100 can implement | achieve the search of the transaction object using an image, without performing the search result in the information provision apparatus 10. FIG.

また、端末装置100は、クエリ情報が選択された場合は、選択されたクエリ情報が示す検索クエリと対応する取引対象の購入に関するコンテンツを表示する。このため、端末装置100は、画像を用いた取引対象の購入を実現することができる。   Further, when the query information is selected, the terminal device 100 displays the content related to the purchase of the transaction target corresponding to the search query indicated by the selected query information. For this reason, the terminal device 100 can realize purchase of a transaction target using an image.

また、端末装置100は、所定の記憶領域に保持する画像を並べて表示し、表示された画像を利用者が選択した場合は、選択された画像に含まれる取引対象の画像を、クエリ情報として複数表示する。このため、端末装置100は、撮影画像の履歴の中から、利用者が選択した画像に含まれる取引対象を検索するためのクエリ情報を表示することができる。   Further, the terminal device 100 displays the images held in a predetermined storage area side by side, and when the user selects the displayed image, a plurality of transaction target images included in the selected image are used as query information. indicate. For this reason, the terminal device 100 can display query information for searching for a transaction target included in an image selected by the user from a history of captured images.

また、端末装置100は、所定の動画像から取引対象が認識される度に、その認識された取引対象を電子商店街で検索するための検索クエリを示すクエリ情報として、認識された取引対象の画像を追加表示する。このため、端末装置100は、取引対象が認識される度に、表示されるクエリ情報を追加することができる。   In addition, every time a transaction target is recognized from a predetermined moving image, the terminal device 100 uses the recognized transaction target as query information indicating a search query for searching for the recognized transaction target in the online shopping mall. Display additional images. For this reason, the terminal device 100 can add the displayed query information each time a transaction target is recognized.

また、端末装置100は、利用者が端末装置100を所定の方向に動かしながら動画像を撮影した場合は、取引対象が認識される度に、その認識された取引対象の画像を所定の方向に向けて並べるように表示する。このため、端末装置100は、クエリ情報と撮影された取引対象との対応を利用者に対して提示することができる。   In addition, when the user captures a moving image while moving the terminal device 100 in a predetermined direction, the terminal device 100 moves the recognized transaction target image in a predetermined direction every time the transaction target is recognized. Display in a line. For this reason, the terminal device 100 can present the correspondence between the query information and the photographed transaction object to the user.

また、端末装置100は、履歴画像として、同一の画像に含まれる複数の取引対象の画像の組を表示する。このため、端末装置100は、画像単位で、認識された取引対象を検索するためのクエリ情報を表示することができる。   In addition, the terminal device 100 displays a set of a plurality of transaction target images included in the same image as the history image. For this reason, the terminal device 100 can display the query information for searching the recognized transaction object for each image.

また、端末装置100は、履歴画像として、撮影した動画像から生成されたパノラマ写真と、動画像に含まれる複数の取引対象の画像の組とを表示する。このため、端末装置100は、動画像から取引対象が撮影された範囲を探す手間を削減することができる。   Further, the terminal device 100 displays a panoramic photograph generated from the captured moving image and a set of a plurality of transaction target images included in the moving image as a history image. For this reason, the terminal device 100 can reduce the effort which searches the range by which the transaction object was image | photographed from the moving image.

また、情報提供装置10は、端末装置100が撮影した画像を受付ける。そして、情報提供装置10は、受付けられた画像に含まれる取引対象の画像を端末装置100に提供し、取引対象を電子商店街で検索するための検索クエリを示すクエリ候補として表示させる。このため、情報提供装置10は、画像を用いた取引対象の検索における操作性を向上させることができる。   In addition, the information providing apparatus 10 receives an image captured by the terminal device 100. And the information provision apparatus 10 provides the terminal device 100 with the image of the transaction object contained in the received image, and displays it as a query candidate which shows the search query for searching a transaction object in an online shopping mall. For this reason, the information provision apparatus 10 can improve the operativity in the search of the transaction object using an image.

また、情報提供装置10は、画像に含まれる取引対象の画像であって、電子商店街に登録された取引対象の画像を提供する。このため、情報提供装置10は、画像を用いた取引対象の検索における操作性を向上させることができる。   Further, the information providing apparatus 10 provides a transaction target image included in the image and registered in the online shopping mall. For this reason, the information provision apparatus 10 can improve the operativity in the search of the transaction object using an image.

以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。   As described above, some of the embodiments of the present application have been described in detail with reference to the drawings. However, these are merely examples, and various modifications, including the aspects described in the disclosure section of the invention, based on the knowledge of those skilled in the art, It is possible to implement the present invention in other forms with improvements.

また、上記してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、推定部は、推定手段や推定回路に読み替えることができる。   Moreover, the above-mentioned “section (module, unit)” can be read as “means”, “circuit”, and the like. For example, the estimation unit can be read as estimation means or an estimation circuit.

1 提供システム
10 情報提供装置
20、110 通信部
30 記憶部
31 出品対象データベース
32 カテゴリデータベース
33 モデルデータベース
40、150 制御部
41 受付部
42 判定部
43 抽出部
44 推定部
45 取得部
46 結合部
47 検索部
48 提供部
49 学習部
100 端末装置
120 入力部
130 出力部
140 カメラ
151 要求部
152 操作制御部
153 表示制御部
154 撮影部
155 取得部
156 表示部
200 ECサーバ
DESCRIPTION OF SYMBOLS 1 Provision system 10 Information provision apparatus 20,110 Communication part 30 Storage part 31 Exhibit object database 32 Category database 33 Model database 40,150 Control part 41 Reception part 42 Judgment part 43 Extraction part 44 Estimation part 45 Acquisition part 46 Combination part 47 Search Unit 48 providing unit 49 learning unit 100 terminal device 120 input unit 130 output unit 140 camera 151 request unit 152 operation control unit 153 display control unit 154 photographing unit 155 acquisition unit 156 display unit 200 EC server

Claims (21)

所定の画像に含まれる取引対象の画像を取得する取得手順と、
前記取得手順により取得された画像を、前記取引対象を電子商店街で検索するための検索クエリを示すクエリ情報として、前記所定の画像と共に表示し、当該取引対象と関連する他の取引対象の画像を、当該他の取引対象を電子商店街で検索するための検索クエリを示すクエリ情報として表示する表示手順と
をコンピュータに実行させるための表示プログラム。
An acquisition procedure for acquiring a transaction target image included in a predetermined image;
The image acquired by the acquisition procedure is displayed together with the predetermined image as query information indicating a search query for searching for the transaction object in the online shopping mall, and an image of another transaction object related to the transaction object A display program for causing a computer to execute a display procedure for displaying as a query information indicating a search query for searching for another transaction object in the online shopping mall.
前記取得手順は、前記表示プログラムを実行する端末装置により撮影された画像に含まれる取引対象の画像を取得する
ことを特徴とする請求項1に記載の表示プログラム。
The display program according to claim 1, wherein the acquisition procedure acquires a transaction target image included in an image captured by a terminal device that executes the display program.
前記取得手順は、前記所定の画像に含まれる取引対象の画像であって、電子商店街に登録された取引対象の画像を取得する
ことを特徴とする請求項1または2に記載の表示プログラム。
The acquisition procedure, the a trading target image included in a predetermined image display program according to claim 1 or 2, characterized in that to obtain an image of the transaction subjects enrolled in the online shopping mall.
前記取得手順は、前記取引対象の画像と、前記電子商店街において当該取引対象を識別する識別情報とを取得し、
前記表示手順は、前記取引対象の画像を前記クエリ情報として表示し、当該画像が選択された場合は、選択された画像と対応する識別情報を用いて前記電子商店街の検索を行った検索結果を表示する
ことを特徴とする請求項1〜のうちいずれか1つに記載の表示プログラム。
The acquisition procedure acquires the image of the transaction object and identification information for identifying the transaction object in the online shopping mall,
The display procedure displays the transaction target image as the query information, and when the image is selected, a search result obtained by searching the online shopping mall using identification information corresponding to the selected image. display program according to any one of claims 1-3, characterized in that displaying the.
前記取得手順は、電子商店街に登録された取引対象の画像を検索する検索装置により検索された前記取引対象の画像を取得する
ことを特徴とする請求項1〜のうちいずれか1つに記載の表示プログラム。
The acquisition procedure to any one of claims 1-4, characterized in that to obtain an image of the transaction object searched by the search device for searching an image of the transaction subjects enrolled in the online shopping mall Display program described.
前記表示手順は、前記クエリ情報が選択された場合は、選択されたクエリ情報が示す検索クエリを用いて電子商店街の検索を行った検索結果を表示する
ことを特徴とする請求項1〜のうちいずれか1つに記載の表示プログラム。
Wherein the display step, if the query information is selected, according to claim 1 to 5, characterized in that displaying the search result of the search of the online shopping mall using the search query indicated by the selected query information A display program according to any one of the above.
前記表示手順は、複数の前記クエリ情報が選択された場合は、選択された複数のクエリ情報が示す複数の検索クエリを用いて電子商店街の検索を行なった検索結果を表示する
ことを特徴とする請求項1〜のうちいずれか1つに記載の表示プログラム。
The display procedure, when a plurality of the query information is selected, displays a search result obtained by searching the online shopping mall using a plurality of search queries indicated by the selected plurality of query information. The display program according to any one of claims 1 to 6 .
前記表示手順は、前記所定の画像に含まれる取引対象の画像を、当該取引対象および当該取引対象と関連する他の取引対象を電子商店街で検索するための検索クエリを示すクエリ情報として表示する
ことを特徴とする請求項1〜のうちいずれか1つに記載の表示プログラム。
The display procedure displays an image of a transaction target included in the predetermined image as query information indicating a search query for searching the transaction target and another transaction target related to the transaction target in an online shopping mall. The display program according to any one of claims 1 to 7 , wherein:
前記表示手順は、スクロール可能な態様で、複数の前記クエリ情報を表示する
ことを特徴とする請求項1〜のうちいずれか1つに記載の表示プログラム。
The display program according to any one of claims 1 to 8 , wherein the display procedure displays a plurality of the query information in a scrollable manner.
前記取得手順は、前記所定の画像のうち、取引対象が含まれる領域を前記取引対象の画像として取得し、
前記表示手順は、前記取得手順により取得された前記取引対象の画像を前記クエリ情報として表示し、当該クエリ情報が選択された場合は、選択されたクエリ情報を画像クエリとして用いて電子商店街の検索を行った検索結果を表示する
ことを特徴とする請求項1または2に記載の表示プログラム。
The acquisition procedure acquires a region including a transaction target in the predetermined image as the transaction target image,
The display procedure displays the image of the transaction object acquired by the acquisition procedure as the query information, and when the query information is selected, the selected query information is used as an image query of the online shopping mall. The display program according to claim 1 or 2 , wherein a search result of the search is displayed.
前記表示手順は、前記クエリ情報が選択された場合は、選択されたクエリ情報が示す検索クエリと対応する取引対象の購入に関するコンテンツを表示する
ことを特徴とする請求項1または2に記載の表示プログラム。
Wherein the display step, if the query information is selected, the display according to claim 1 or 2, wherein the displaying content related to purchase transactions object corresponding to the search query indicated by the selected query information program.
前記表示手順は、前記表示プログラムを実行する端末装置が保持する画像を並べて表示し、表示された画像を利用者が選択した場合は、選択された画像に含まれる取引対象の画像を、前記クエリ情報として複数表示する
ことを特徴とする請求項1〜1のうちいずれか1つに記載の表示プログラム。
In the display procedure, images held by a terminal device that executes the display program are displayed side by side. When a user selects a displayed image, the transaction target image included in the selected image is displayed as the query. A display program according to any one of claims 1 to 11, wherein a plurality of information is displayed.
前記取得手順は、所定の動画像に含まれる取引対象の画像を取得し、
前記表示手順は、前記動画像から取引対象が認識される度に、当該認識された取引対象を前記電子商店街で検索するための検索クエリを示すクエリ情報として、当該認識された取引対象の画像を追加表示する
ことを特徴とする請求項1〜1のうちいずれか1つに記載の表示プログラム。
The acquisition procedure acquires a transaction target image included in a predetermined moving image,
Each time the transaction object is recognized from the moving image, the display procedure uses the image of the recognized transaction object as query information indicating a search query for searching the recognized transaction object in the online shopping mall. the display program according to any one of claims 1 to 1 2, characterized by additionally displayed.
前記表示手順は、利用者が前記所定の動画像を撮影した端末装置を所定の方向に動かしながら、当該動画像を撮影した場合は、前記取引対象が認識される度に、当該認識された取引対象の画像を前記所定の方向に向けて並べるように表示する
ことを特徴とする請求項1に記載の表示プログラム。
In the display procedure, when the user captures the moving image while moving the terminal device that has captured the predetermined moving image in a predetermined direction, the recognized transaction display program according to claim 1 3, characterized by displaying an image of the object as arranged toward the predetermined direction.
前記表示手順は、前記取得手順により取得された画像の履歴のうち、同一の画像に含まれる複数の取引対象の画像の組を表示する
ことを特徴とする請求項1〜1のうちいずれか1つに記載の表示プログラム。
The display procedure of the history of the image acquired by the acquisition procedure, any one of claims 1 to 1 4, characterized by displaying a plurality of sets of transactions subject images included in the same image The display program according to one.
前記表示手順は、動画像から生成されたパノラマ写真と、前記動画像に含まれる複数の取引対象の画像の組とを表示する
ことを特徴とする請求項1〜1のうちいずれか1つに記載の表示プログラム。
The display procedure, and panoramic photographs generated from the moving image, any one of claims 1 to 1 5, characterized in that displaying the set of plurality of transaction target image included in the moving picture Display program described in.
端末装置が撮影した画像を受付ける受付部と、
前記受付部によって受付けられた画像に含まれる取引対象の画像を前記端末装置に提供し、前記取引対象を電子商店街で検索するための検索クエリを示すクエリ情報として表示させ、当該取引対象と関連する他の取引対象の画像を前記端末装置に提供し、当該他の取引対象を電子商店街で検索するための検索クエリを示すクエリ情報として表示させる提供部と
を有することを特徴とする情報提供装置。
A reception unit for receiving an image taken by the terminal device;
Wherein providing the transaction subject to the image included in the receiving unit the image received by the terminal device, to display the previous SL transaction target as the query information indicating a search query for searching in the online shopping mall, the transaction object And a providing unit that provides the terminal device with an image of another transaction object related to, and displays it as query information indicating a search query for searching for the other transaction object in the online shopping mall. Information providing device.
所定の画像に含まれる取引対象の画像を取得する取得部と、
前記取得部により取得された画像を、前記取引対象を電子商店街で検索するための検索クエリを示すクエリ情報として、前記所定の画像と共に表示し、当該取引対象と関連する他の取引対象の画像を、当該他の取引対象を電子商店街で検索するための検索クエリを示すクエリ情報として表示する表示部と
を有することを特徴とする表示装置。
An acquisition unit that acquires an image of a transaction target included in a predetermined image;
The image acquired by the acquisition unit is displayed together with the predetermined image as query information indicating a search query for searching for the transaction target in the online shopping mall, and an image of another transaction target related to the transaction target. And a display unit that displays the query information indicating a search query for searching for the other transaction object in the online shopping mall.
表示装置が実行する表示方法であって、
所定の画像に含まれる取引対象の画像を取得する取得工程と、
前記取得工程により取得された画像を、前記取引対象を電子商店街で検索するための検索クエリを示すクエリ情報として、前記所定の画像と共に表示し、当該取引対象と関連する他の取引対象の画像を、当該他の取引対象を電子商店街で検索するための検索クエリを示すクエリ情報として表示する表示工程と
を含むことを特徴とする表示方法。
A display method executed by a display device,
An acquisition step of acquiring a transaction target image included in the predetermined image; and
The image acquired by the acquisition step is displayed together with the predetermined image as query information indicating a search query for searching for the transaction object in the online shopping mall, and an image of another transaction object related to the transaction object And a display step of displaying as a query information indicating a search query for searching for the other transaction object in the online shopping mall.
情報提供装置が実行する情報提供方法であって、
端末装置が撮影した画像を受付ける受付工程と、
前記受付工程によって受付けられた画像に含まれる取引対象の画像を前記端末装置に提供し、前記取引対象を電子商店街で検索するための検索クエリを示すクエリ情報として表示させ、当該取引対象と関連する他の取引対象の画像を前記端末装置に提供し、当該他の取引対象を電子商店街で検索するための検索クエリを示すクエリ情報として表示させる提供工程と
を含むことを特徴とする情報提供方法。
An information providing method executed by the information providing apparatus,
A reception process for receiving an image taken by the terminal device;
Wherein providing the transaction subject to the images included in the image received by the receiving step to the terminal device, to display the previous SL transaction target as the query information indicating a search query for searching in the online shopping mall, the transaction object Providing an image of another transaction object related to the terminal device to the terminal device, and displaying it as query information indicating a search query for searching the other transaction object in the online shopping mall. Information provision method.
端末装置が撮影した画像を受付ける受付手順と、
前記受付手順によって受付けられた画像に含まれる取引対象の画像を前記端末装置に提供し、前記取引対象を電子商店街で検索するための検索クエリを示すクエリ情報として表示させ、当該取引対象と関連する他の取引対象の画像を前記端末装置に提供し、当該他の取引対象を電子商店街で検索するための検索クエリを示すクエリ情報として表示させる提供手順と
をコンピュータに実行させるための情報提供プログラム。
A reception procedure for receiving an image taken by the terminal device;
Wherein providing the transaction subject to the images included in the image received by the reception process to the terminal device, to display the previous SL transaction target as the query information indicating a search query for searching in the online shopping mall, the transaction object For providing the terminal device with an image of another transaction object related to, and displaying the other transaction object as query information indicating a search query for searching in the online shopping mall. Information provision program.
JP2017094150A 2017-05-10 2017-05-10 Display program, information providing apparatus, display apparatus, display method, information providing method, and information providing program Active JP6353118B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017094150A JP6353118B1 (en) 2017-05-10 2017-05-10 Display program, information providing apparatus, display apparatus, display method, information providing method, and information providing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017094150A JP6353118B1 (en) 2017-05-10 2017-05-10 Display program, information providing apparatus, display apparatus, display method, information providing method, and information providing program

Publications (2)

Publication Number Publication Date
JP6353118B1 true JP6353118B1 (en) 2018-07-04
JP2018190294A JP2018190294A (en) 2018-11-29

Family

ID=62779956

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017094150A Active JP6353118B1 (en) 2017-05-10 2017-05-10 Display program, information providing apparatus, display apparatus, display method, information providing method, and information providing program

Country Status (1)

Country Link
JP (1) JP6353118B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101992986B1 (en) * 2019-01-21 2019-09-30 주식회사 종달랩 A recommending learning methods of apparel materials using image retrieval
KR101992988B1 (en) * 2019-01-21 2019-06-25 주식회사 종달랩 An online shopping mall system recommending apparel materials using dynamic learning method
JP7106475B2 (en) * 2019-03-15 2022-07-26 ヤフー株式会社 Provision device, provision method and provision program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013168132A (en) * 2012-01-17 2013-08-29 Toshiba Corp Commodity retrieval device, method and program
WO2014017392A1 (en) * 2012-07-24 2014-01-30 日本電気株式会社 Information processing device, data processing method thereof, and program
JP2015064901A (en) * 2009-08-07 2015-04-09 グーグル インコーポレイテッド Architecture for responding to visual query
JP2016006660A (en) * 2008-08-08 2016-01-14 株式会社ニコン Retrieval support system
US20160205447A1 (en) * 2013-01-02 2016-07-14 Imdb.Com, Inc. Associating collections with subjects
JP6120467B1 (en) * 2016-06-24 2017-04-26 サイジニア株式会社 Server device, terminal device, information processing method, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016006660A (en) * 2008-08-08 2016-01-14 株式会社ニコン Retrieval support system
JP2015064901A (en) * 2009-08-07 2015-04-09 グーグル インコーポレイテッド Architecture for responding to visual query
JP2013168132A (en) * 2012-01-17 2013-08-29 Toshiba Corp Commodity retrieval device, method and program
WO2014017392A1 (en) * 2012-07-24 2014-01-30 日本電気株式会社 Information processing device, data processing method thereof, and program
US20160205447A1 (en) * 2013-01-02 2016-07-14 Imdb.Com, Inc. Associating collections with subjects
JP6120467B1 (en) * 2016-06-24 2017-04-26 サイジニア株式会社 Server device, terminal device, information processing method, and program

Also Published As

Publication number Publication date
JP2018190294A (en) 2018-11-29

Similar Documents

Publication Publication Date Title
JP6310599B1 (en) SEARCH DEVICE, SEARCH METHOD, AND SEARCH PROGRAM
US11397982B2 (en) Imagery and annotations
JP7196885B2 (en) Search system, search method, and program
US9558510B2 (en) System and method to create listings using image and voice recognition
US10482512B2 (en) Systems and methods for facilitating the retail shopping experience online
KR101511050B1 (en) Method, apparatus, system and computer program for offering and displaying a product information
TWI444918B (en) A provider, a provider, a provider, and a computer-readable recording medium that memorizes the program
WO2017000109A1 (en) Search method, search apparatus, user equipment, and computer program product
US20080278481A1 (en) Photo generated 3-d navigable storefront
KR20110031346A (en) Image capture for purchases
CN107835994A (en) Pass through the task focused search of image
JP5395920B2 (en) Search device, search method, search program, and computer-readable recording medium storing the program
JP2018084890A (en) Information processing unit, information processing method, and program
JP6185216B1 (en) Information providing system, information providing apparatus, information providing method, and program
JP6353118B1 (en) Display program, information providing apparatus, display apparatus, display method, information providing method, and information providing program
JP6120467B1 (en) Server device, terminal device, information processing method, and program
CN113255713A (en) Machine learning for digital image selection across object variations
US20230177569A1 (en) Systems and methods for creating a navigable path between pages of a network platform based on linking database entries of the network platform
EP4066132A1 (en) Automatic item recommendations based on visual attributes and complementarity
JP6396568B1 (en) PROVIDING PROGRAM, PROVIDING DEVICE, PROVIDING METHOD, TERMINAL DEVICE, AND INFORMATION PROVIDING DEVICE
JP2014194648A (en) Content retrieval system, content retrieval server, terminal device, content retrieval method, and content retrieval program
JP6152188B1 (en) Information processing apparatus, information processing method, and program
KR20110114843A (en) System and method for providing information according to image data
JP6982035B2 (en) Search device, search method and search program
CN115757899A (en) Information searching and displaying method and related equipment

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180607

R150 Certificate of patent or registration of utility model

Ref document number: 6353118

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250