JP7227799B2 - Image retrieval device, image retrieval method and computer program - Google Patents
Image retrieval device, image retrieval method and computer program Download PDFInfo
- Publication number
- JP7227799B2 JP7227799B2 JP2019046127A JP2019046127A JP7227799B2 JP 7227799 B2 JP7227799 B2 JP 7227799B2 JP 2019046127 A JP2019046127 A JP 2019046127A JP 2019046127 A JP2019046127 A JP 2019046127A JP 7227799 B2 JP7227799 B2 JP 7227799B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- search
- name information
- predetermined
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、画像検索装置、画像検索方法およびコンピュータプログラムに関するものである。 The present invention relates to an image search device, an image search method, and a computer program.
従来、コンピュータを使用してユーザの求める画像を検索する画像検索装置は、入力されたキーワードに基づいて画像を検索する。画像検索装置は、サーバに保存される複数の画像にそれぞれ紐づけられるキーワードと、ユーザが入力したキーワードと、を比較して、検索結果をユーザに提示する。 2. Description of the Related Art Conventionally, an image search device that uses a computer to search for an image desired by a user searches for images based on an input keyword. The image search device compares the keywords associated with each of the images stored in the server with the keywords input by the user, and presents the search results to the user.
特許文献1の技術では、設定されたキーワードに関連するサムネイル画像を複数枚表示させる。この場合において、サーバコンピュータは、キーワードごとのサムネイル画像の表示枚数に、キーワードごとの検出率を反映する。キーワードごとの検出率は、画像検索する際に、ユーザによって入力される。これにより、ユーザが考える各キーワードに対する重要度を検索に反映させることが可能なサーバコンピュータが、開示されている。
In the technique of
特許文献1では、Webページに記載されているテキストと、入力されたキーワードと、に基づいて画像検索する。しかしながら、Webページに記載されているテキストが人の主観で設定されたものである為、特許文献1の技術では、人の認識外の情報に基づいて検索することができない。
In
さらに、キーワードによって示される複数のオブジェクト同士の関連性が各画像に設定されていない為、特許文献1では、画像に示される複数のオブジェクト間の関連性を含めて検索することができない。
Furthermore, since the relationships between the objects indicated by the keywords are not set in each image, in
そこで本発明は、上記の課題を解決する為になされたものであり、画像検索の精度を向上させることが可能な画像検索装置、画像検索方法およびコンピュータプログラムの提供を目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide an image search apparatus, an image search method, and a computer program capable of improving the accuracy of image search.
画像検索装置は、画像に含まれる複数のオブジェクトのオブジェクト名情報と、画像に含まれる複数のオブジェクト間の所定の関係性を示す関係名称情報とを含む検索用データを算出する特徴抽出部と、検索用データを画像に対応付けて記憶する記憶部と、オブジェクト名情報または関係名称情報のうち少なくともいずれか一方を検索クエリとして入力を受け付ける入力部と、検索クエリに基づいて記憶部を検索し、検索クエリに対応する所定の画像を抽出する検索部と、検索結果を出力する出力部と、を備える。 The image search device comprises: a feature extraction unit for calculating search data including object name information of a plurality of objects included in an image and relationship name information indicating a predetermined relationship between the plurality of objects included in the image; a storage unit for storing search data in association with an image; an input unit for accepting input of at least one of object name information and related name information as a search query; searching the storage unit based on the search query; A search unit for extracting a predetermined image corresponding to a search query, and an output unit for outputting search results.
本発明によると、画像検索の精度を向上させることができる。 According to the present invention, the accuracy of image retrieval can be improved.
以下、本実施形態を添付図面に基づいて説明するが、当該図面に記載の構成に限定されない。本実施形態は、画像を検索する画像検索装置に関するものである。本実施形態の画像検索装置1は、例えば、空港、駅、港、百貨店、ホテル、イベント会場などの各種施設において入場者を監視する監視システムに用いることができる。本実施形態の画像検索装置1は、ウェブ上での通常の画像検索エンジンとは異なり、一つの画像に含まれる複数のオブジェクトと各オブジェクト間の関係性(物理的関係性)とを自動的に算出して保存する。これにより、本実施形態によれば、記憶部に蓄積された画像の中から検索目的に関連する画像を精度よく抽出できるとともに、使い勝手が向上する。
Although the present embodiment will be described below with reference to the accompanying drawings, the present invention is not limited to the configuration described in the drawings. The present embodiment relates to an image retrieval device for retrieving images. The
本実施形態に係る画像検索装置1が適用される監視システムは、通常、何かテーマまたはモチーフを決めて特定の被写体を意図的に撮影するのではなく、特定の監視対象領域を淡々と撮影する。したがって、監視の結果取得された画像には、雑多な複数のオブジェクトが主従の関係なく写っている。本実施形態に係る画像検索装置1は、複数のオブジェクト間の画像上の位置に基づいて物理的関係性を決定し、画像に対応付けて保存する。
A surveillance system to which the image retrieval
監視システムに限らず、複数のオブジェクトが写っている静止画像または動画像についても同様に、各オブジェクト間の物理的関係性を自動的に抽出して、その画像に対応付けて保存することができる。 Not limited to surveillance systems, it is also possible to automatically extract the physical relationships between objects in still images or moving images in which a plurality of objects are captured, and store them in association with the images. .
ウェブサイトなどで提供されている画像検索サービスは、撮影者の意図に沿った説明文(例えば「入学式」「結婚式」など)が画像に対応付けられるか、あるいは、解析者による画像解析結果に沿った説明文(例えば「学生の登校風景」「海開きで賑わう浜辺」など)が画像に対応付けられるだけである。すなわち、ウェブ上で提供されている画像検索エンジンは、オブジェクト間の物理的関係性を考慮しておらず、その画像の検索に使用する語句または説明文も少数である。以下の説明に明らかなように、本実施形態に係る画像検索装置1は、ウェブ上の画像検索エンジンを含む従来技術と全く異なる点に留意すべきである。
Image search services provided on websites, etc., are associated with descriptive text (e.g., "entrance ceremony", "wedding", etc.) that matches the intention of the photographer, or the image analysis result by the analyst. Descriptions (for example, "students going to school", "busy beach at the opening of the sea", etc.) are simply associated with the images. That is, the image search engines offered on the Web do not consider the physical relationships between objects and use only a few words or phrases to search for the images. As will be apparent from the following description, it should be noted that the
図1は、画像検索装置1の概略図である。本実施例における画像検索装置1は、画像データ蓄積部123に保存される複数の画像の中から、ユーザの目的の画像(以下、所定の画像と示す場合がある)を検索する。
FIG. 1 is a schematic diagram of an
画像検索装置1は、「入力部」の一例としての検索クエリ入力部120と、検索部121と、特徴抽出部122と、画像データ蓄積部123と、特徴データ蓄積部124と、「出力部」の一例としての検索結果出力部125と、画像データ取得部126とを有する。
The
検索クエリ入力部120は、ユーザから検索クエリを受け付ける機能である。検索クエリは、オブジェクト名情報1242(図4参照)または関係名称情報1244(図5参照)のうち少なくともいずれか一方を含む。なお、「オブジェクト」は、図中において「物体」と示す場合がある。オブジェクト名情報1242は、画像に含まれる複数のオブジェクトを示す。関係名称情報1244は、複数のオブジェクトの間の関係性を示す。
The search
検索クエリ入力部120は、例えば、出力装置11(以降、モニタ11と示す場合がある)に表示されたUI(User Interface)である。検索クエリ入力部120は、検索部121と単方向に通信可能に接続される。なお、検索クエリ入力部120は、図3にて後述する。
The search
検索部121は、検索クエリに基づいて記憶部12(図2にて後述)を検索し、検索クエリに対応する所定の画像を抽出する機能である。検索部121は、画像データ蓄積部123、特徴データ蓄積部124および検索結果出力部125と単方向に通信可能に接続される。検索部121は、特徴抽出部122と双方向に通信可能に接続されてもよい。検索部121は、図8にて後述する。
The
特徴抽出部122は、画像から検索用データ(図4~6参照)を算出する機能である。検索用データには、オブジェクト名情報1242および関係名称情報1244が含まれる。特徴抽出部122は、画像データ蓄積部123と単方向に通信可能に接続される。特徴抽出部122は、特徴データ蓄積部124と双方向に通信可能に接続される。特徴抽出部122は、図9にて後述する。
The
画像データ蓄積部123は、複数の画像を保存するデータベースである。画像データ蓄積部123は、画像データ取得部126と単方向に通信可能に接続される。特徴データ蓄積部124は、検索用データを保存するデータベースである。
The image
検索結果出力部125は、検索結果を出力する機能である。検索結果出力部125は、例えば、モニタ11に検索結果を表示させる。なお、検索結果出力部125は、モニタ11に検索結果を表示することに限らず、通信インターフェース(図中、通信I/F(InterFace))16(図2参照)を介して外部端末に検索結果を出力してもよい。検索結果出力部125は、図7にて後述する。
The search
画像データ取得部126は、画像データ蓄積部123に複数の画像データを保存する機能である。画像データ取得部126は、例えば、監視カメラ等によって撮影された動画データを取得し、動画のフレームごとの画像を画像データ蓄積部123に保存する。なお、画像データ取得部126は、監視カメラ等によって撮影された動画データに限らず、複数の画像データ(静止画像、動画像のいずれでもよい)をインターネット上等から取得してもよい。画像データ取得部126は、例えば、画像2を取得する。画像データ取得部126は、例えば、画像2を画像データ蓄積部123に保存する。
The image
画像2は、例えば、監視カメラによって撮影された動画データの中の1フレームの画像である。画像2には、例えば、駅5構内が表示される。画像2には、例えば、入口51と、人21,25,29,33,37,40,と、が表示される。
An
人21は、子供である。人21は、服22および靴23を身に着け、鞄24を持つ。人25は、大人の女性である。人25は、スーツ26および靴27を身に着け、鞄28を持つ。人29は、大人の男性である。人29は、スーツ30および靴31を身に着け、飲み物32を持つ。人33は、大人の男性である。人33は、私服34および靴35を身に着け、鞄36を持つ。人37は、子供である。人37は、私服38および靴39を身に着ける。人40は、大人の女性である。人40は、私服41および靴42を身に着ける。そして、人33と人37とは手をつないで接触しており、同様に、人40と人37も手をつないで接触している。
図2は、画像検索装置1のハードウェア構成図である。画像検索装置1は、モニタ11(図中、出力部11)と、入力装置13と、記憶部12と、CPU14と、メモリ15と、通信インターフェース16と、各機能11~16を双方向に通信可能に接続するデータ伝送路17と、を有する。
FIG. 2 is a hardware configuration diagram of the
モニタ11は、例えば、パーソナルコンピュータに設けられるディスプレイまたは、携帯情報端末、携帯電話(いわゆるスマートフォン)、ウェアラブル端末に設けられるディスプレイ等である。入力装置13は、例えば、キーボードまたはマウス等である。なお、入力装置13は、マイクであってもよい。この場合には、検索クエリ入力部120は、音声によって入力されたデータを、検索クエリを示す文章データに変換する機能を有してもよい。さらに、入力装置13と出力装置11とをタブレットまたはAR(Augmented Reality)ディスプレイのように一体化させてもよい。
The
記憶部12は、例えば、ハードディスクまたはSSD(Solid State Drive)等の不揮発性記憶装置である。記憶媒体の種類は問わない。記憶部12は、検索クエリ入力部120と、検索部121と、特徴抽出部122と、検索結果出力部125と、画像データ取得部126と、のコンピュータプログラム(以下、プログラム)を記憶する。記憶部12は、画像データ蓄積部123および特徴データ蓄積部124といった、データベースも記憶する。
The
CPU14は、メモリ15を介して記憶部12から各プログラムを読み込んで実行する。メモリ15は、例えば、「RAM(Random Access Memory)」等の揮発性記憶装置である。
The
通信インターフェース16は、例えば、LAN(Local Area Network)、インターネット、SAN(Storage Area Network)などの通信ネットワークを介して外部装置と通信する装置である。
The
図3は、検索クエリ入力部120の説明図である。検索クエリ入力部120は、モニタ11に、複数のオブジェクト名入力欄1201(1),1201(2)と、関係名入力欄1202と、検索ボタン1203と、を表示させる。オブジェクト名入力欄1201(1),1201(2)は、特に区別しない場合には、オブジェクト名入力欄1201と示す場合がある。
FIG. 3 is an explanatory diagram of the search
オブジェクト名入力欄1201は、オブジェクト名情報1242を受け付ける機能である。オブジェクト名入力欄1201(1)には、例えば、「人」と入力される。オブジェクト名入力欄1201(2)には、例えば、「鞄」と入力される。
The object
なお、オブジェクト名入力欄1201は、オブジェクト名情報1242を受け付ける機能に限らず、「オブジェクトID(IDentification)」1241(図4参照)を受け付ける機能を有してもよい。検索クエリ入力部120は、オブジェクト名入力欄1201(1),1201(2)を二つ表示させることに限らず、三つ以上のオブジェクト名入力欄1201をモニタ11に表示してもよい。
Note that the object
関係名入力欄1202は、関係名称情報1244を受け付ける機能である。関係名入力欄1202には、例えば、「持っている」と入力される。
The relationship
なお、関係名入力欄1202には、関係名称情報1244を受け付ける機能に限らず、「関係性ID」1243(図5参照)を受け付ける機能を有してもよい。検索クエリ入力部120は、関係名入力欄1202を一つ表示させることに限らず、二つ以上の関係名称情報1244を表示させてもよい。
Note that the relationship
すなわち、ユーザは、「人」が「鞄」を「持っている」画像を検索する。検索ボタン1203は、画像検索を実行させるボタンである。
That is, the user searches for an image in which a "person" "holds" a "bag". A
検索クエリ入力部120は、複数のオブジェクト名入力欄1201と、少なくとも一つの関係名入力欄1202と、をモニタ11のスクロール方向に並べて表示させる。モニタ11のスクロール方向は、例えば、モニタ11の上下方向(図中S方向)である。
The search
すなわち、検索クエリ入力部120は、例えば、オブジェクト名入力欄1201(1)をモニタ11の上側に表示させる。検索クエリ入力部120は、例えば、オブジェクト名入力欄1201(2)を、オブジェクト名入力欄1201(1)から下方向に表示させる。検索クエリ入力部120は、例えば、関係名入力欄1202を、オブジェクト名入力欄1201(2)から下方向に表示させる。
That is, the search
これにより、携帯電話等に設けられる縦に長いモニタ11を使用する場合であっても、ユーザは、下方向にスクロールすることによって、複数のオブジェクト名入力欄1201と、少なくとも一つの関係名入力欄1202と、を表示させることができる。これにより、検索クエリ入力部120の操作性を向上させることができる。
As a result, even when using a vertically
オブジェクト名入力欄1201および関係名入力欄1202が受け付ける情報は、プルダウンメニューによって選択されてもよい。プルダウンメニューに表示される情報は、特徴データ蓄積部124に保存される情報が表示されてもよい。
The information received by the object
図4は、オブジェクト名情報1242の説明図である。特徴データ蓄積部124には、「オブジェクトID」1241と、オブジェクト名情報1242と、が保存される。
FIG. 4 is an explanatory diagram of the
「オブジェクトID」1241には、オブジェクト名情報1242を識別する情報が保存される。オブジェクト名情報1242には、画像に含まれるオブジェクトの名称が保存される。オブジェクト名情報1242には、例えば、「人」、「車」、「電車」、「鞄」または「ステッカー」等が保存される。
The “object ID” 1241 stores information for identifying the
図5は、関係名称情報1244の説明図である。特徴データ蓄積部124には、「関係性ID」1243と、関係名称情報1244と、が保存される。
FIG. 5 is an explanatory diagram of the
「関係性ID」1243には、関係名称情報1244を識別する情報が保存される。関係名称情報1244には、各オブジェクト間の関係性を示す情報が保存される。各オブジェクト間の関係性は、物理的関係性を示す。関係名称情報1244には、例えば、「持っている」、「乗っている」、「くっついている」、「触れている」または「ぶら下がっている」等が保存される。
Information for identifying the
図6は、検索用データの説明図である。特徴データ蓄積部124には、「画像ID」1245と、「組み合わせID」1246と、各オブジェクトの識別情報1241(1),1241(2)と、各オブジェクトの位置情報1247(1),1247(2)と、各オブジェクトの大きさの情報1248(1),1248(2)と、「関係性ID」1243と、が保存される。なお、図中において特徴データ蓄積部124には、一つの画像に対して二つのオブジェクトが含まれる検索用データが保存される場合を示すが、一つの画像に対して三つ以上のオブジェクトが含まれる検索用データが保存されてもよい。図中において、「関係性ID」1243、「画像ID」1245および「組み合わせID」1246は、文字が枠内に収まらない場合が考えられるため、符号を直接記載する。
FIG. 6 is an explanatory diagram of search data. The feature
「画像ID」1245には、画像を識別する情報が保存される。「画像ID」が「0」の画像には、例えば、画像2を示す。「組み合わせID」1246には、「オブジェクト1ID」1241(1)と、「オブジェクト2ID」1241(2)と、「関係性ID」1243と、の組み合わせを識別する情報が保存される。
“Image ID” 1245 stores information for identifying an image. For example, an
「オブジェクト1ID」1241(1)および「オブジェクト2ID」1241(2)には、オブジェクトを識別する情報が保存される。「オブジェクト1ID」1241(1)と、「オブジェクト2ID」1241(2)とは、「オブジェクトID」1241(図4参照)に対応する。
"
オブジェクトの位置情報1247(1),1247(2)には、オブジェクトの位置情報が保存される。なお、位置情報は、例えば、画像端から画素数を数えることによって算出されてもよい。位置情報は、画像上のx座標及びy座標の二次元座標を用いて示されてもよい。なお、位置情報は、三次元座標を用いて示されてもよい。 Object position information 1247(1) and 1247(2) stores object position information. Note that the position information may be calculated, for example, by counting the number of pixels from the edge of the image. The location information may be indicated using two-dimensional coordinates of x and y coordinates on the image. Note that the position information may be indicated using three-dimensional coordinates.
オブジェクトの大きさの情報1248(1),1248(2)には、オブジェクトの大きさの情報が保存される。なお、大きさの情報は、例えば、画像上の画素数で算出されてもよい。大きさの情報は、各オブジェクトの重心から各オブジェクトの端部の長さによって算出されてもよい。オブジェクトの大きさは、画像上のオブジェクト体の幅w及び高さhを用いて示されてもよい。 Object size information 1248(1) and 1248(2) stores object size information. Note that the size information may be calculated by, for example, the number of pixels on the image. The size information may be calculated by the length of the edge of each object from the centroid of each object. The size of an object may be indicated using the width w and height h of the object volume on the image.
図7は、検索結果出力部125の説明図である。検索結果出力部125は、モニタ11に、検索部121の検索した所定の画像を表示させる。検索結果出力部125は、例えば、所定の画像である画像2を表示する。
FIG. 7 is an explanatory diagram of the search
図8は、検索部121の処理の流れ図である。画像検索装置1が起動後、検索部121は、複数の画像データを画像データ蓄積部123から取得し、検索用データを特徴データ蓄積部124から取得する(S11)。検索部121は、検索クエリ入力部120の検索ボタン1203が押されることによって(S12:Yes)、画像検索処理(S13~S15)を実行する。
FIG. 8 is a flow chart of processing of the
なお、検索部121の処理を説明する場合において、図3に示す「人」、「鞄」および「持っている」を、検索クエリ入力部120に入力された場合を一例に挙げて説明する。
When describing the processing of the
検索部121は、検索クエリ入力部120から、「人」および「鞄」を示すオブジェクト名情報1242と、「持っている」を示す関係名称情報1244と、を取得する(S13)。検索部121は、所定の画像を複数の画像の中から検索する(S14)。所定の画像は、例えば、「人」および「鞄」のオブジェクト名情報1242と、「持っている」の関係名称情報1244と、を含む検索用データを有する。
The
図6の検索用データに示すように、「組み合わせID」1246が「1」の場合には、「オブジェクト1ID」1241(1)は「0」を示し、「オブジェクト2ID」1241(2)は「3」を示し、「関係性ID」1243は、「0」を示す。「オブジェクトID」1241の「0」は、「人」を示す(図4参照)。「オブジェクトID」1241の「3」は、「鞄」を示す。「関係性ID」1243の「0」は、「持っている」を示す。
As shown in the search data of FIG. 6, when the "combination ID" 1246 is "1", the "
検索部121は、「画像ID」1245の「0」の画像が、「人」および「鞄」のオブジェクト名情報1242と、「持っている」の関係名称情報1244と、を含むと判定する。検索部121は、画像2を所定の画像として設定する。
The
検索部121は、画像2を検索結果出力部125へ送信する(S15)。検索部121は、画像2に含まれるオブジェクトの情報および、オブジェクト間の関係性の情報を検索結果出力部125に送信する。検索部121の処理は、検索を続行する場合(S16:No)には、処理(S12)に戻る。検索部121の処理は、検索を終了する場合(S16:Yes)には、終了する。
The
図9は、特徴抽出部122の処理の流れ図である。特徴抽出部122は、例えば、画像データ蓄積部123に新たに画像が追加された場合に実行される。なお、特徴抽出部122は、ユーザによって実行されてもよい。特徴抽出部122は、スケジューラ等に設定された所定周期で実行されてもよい。
FIG. 9 is a flow chart of processing of the
特徴抽出部122は、画像データ蓄積部123から少なくとも一つの画像データを取得する(S21)。画像抽出部122は、例えば、画像データ蓄積部123に新しく追加された画像データを取得してもよい。画像抽出部122は、画像データ蓄積部123に保存される全ての画像データを取得してもよい。
The
特徴抽出部122は、オブジェクト名情報1242(図4参照)を算出する(S22)。特徴抽出部122は、処理(S22)にて算出したオブジェクト名情報1242を用いて、関係名称情報1244(図5参照)を算出する(S23)。
The
なお、特徴抽出部122の処理(S22,23)は、例えば、CNN(Convolutional Neural Network)を用いることによって、オブジェクト名情報1242および関係名称情報1244を算出する。特徴抽出部122は、オブジェクトの位置情報およびオブジェクトの大きさの情報を算出してもよい。特徴抽出部122の検索用データの算出式を以下の数式1に示す。
Note that the processing (S22, 23) of the
(o1,x1,y1,w1,h1,c1,o2,x2,y2,w2,h2,c2,r,cr)=φ(I;θ)・・・式(1) (o1, x1, y1, w1, h1, c1, o2, x2, y2, w2, h2, c2, r, cr)=φ(I; θ) Equation (1)
数式1の右辺において、「φ」は、CNNの式を示す。「I」は、入力画像のデータを示す。「θ」は、CNNのパラメータを示す。パラメータ「θ」は、画像に示される複数のオブジェクトのデータおよび、画像に示される複数のオブジェクトの間の関連性のデータを算出する為に、特徴抽出部122に設定される。特徴抽出部122は、「I」および「θ」を用いて、「φ」の式によって検索用データを算出する。
In the right side of
数式1の左辺は、検索用データを示す。「o1」および「o2」は、各オブジェクトの名称1242を示す。「x1」、「x2」、「y1」および「y2」は各オブジェクトの位置1247を示す。「w1」、「w2」、「h1」および「h2」は、各オブジェクトの大きさ1248を示す。「c1」および「c2」は、各オブジェクトの推定の信頼度を示す。「r」は、関係名称情報1244を示す。「cr」は、関係名称情報1244の推定の信頼度を示す。なお、「o1」および「o2」を「o」と示すように、各オブジェクト間で特に区別しない場合には、略記して各検索用データを示す場合がある。
The left side of
なお、特徴抽出部122は、各オブジェクト間の関係名称情報1244を算出することに限らず、各オブジェクトの状態を示す状態名称情報を算出してもよい。すなわち、特徴抽出部122は、例えば、人の表情等を読み取ることによって、「笑っている」等の状態名称情報を算出する。検索部は、状態名称情報に基づいて、画像検索をしてもよい。
Note that the
特徴抽出部122は、各オブジェクト間の距離に基づいて関係名称情報1244を算出する。図10は、A領域の拡大図である。特徴抽出部122は、例えば、オブジェクトの重心の位置を、オブジェクトの位置情報(図中、ひし形のマークとして示す)として算出する。位置情報は、例えば、y座標および画像のx座標の二次元情報で示される。
The
特徴抽出部122は、人21の位置情報(x11,y11)を算出する。特徴抽出部122は、鞄23の位置情報(x12,y12)を算出する。特徴抽出部122は、人25の位置情報(x21,y21)を算出する。特徴抽出部122は、鞄26の位置情報(x22,y22)を算出する。
The
特徴抽出部122は、各位置情報間の距離を算出する。特徴抽出部122は、所定距離以内にある各オブジェクト同士を、関係性を有するオブジェクトとして判定する。すなわち、例えば、位置情報(x11,y11)および位置情報(x12,y12)の間の距離が所定距離以内であるため、特徴抽出部122は、人25および鞄26の間で関係名称情報1244を算出する。位置情報(x11,y11)および位置情報(x22,y22)の間の距離が所定距離よりも長いため、特徴抽出部122は、人25および鞄23の間の関係名称情報1244を算出しない。
The
なお、特徴抽出部122は、オブジェクトの重心の位置情報に基づいて各オブジェクトの距離を算出することに限らず、各オブジェクトの外形の最短距離によって各オブジェクトの距離を算出してもよい。各オブジェクトの位置情報は、二次元空間に限らず、三次元空間で位置情報を算出してもよい。
Note that the
図9に戻り、特徴抽出部122は、算出した検索用データを特徴データ蓄積部124に送信する(S24)。特徴抽出部122は、処理(S24)の後に終了する。
Returning to FIG. 9, the
検索部121は、検索ボタン1203が押される前に、画像データ蓄積部123および特徴データ蓄積部124から画像データおよび検索用データを取得することができる。これにより、検索部121は、画像検索(S13~S15)の際に、画像データ蓄積部123と、特徴データ蓄積部124と、の通信頻度を抑制することができる。
The
なお、検索部121は、画像データおよび検索用データ取得処理(S11)を画像検索開始処理(S12:Yes)の後に実行してもよい。これにより、待機状態の場合において、検索部121は、メモリ15の使用量を抑制することができる。
Note that the
特徴抽出部122は、画像検索開始処理(S12:Yes)の後に、画像データ蓄積部123の複数の画像から検索用データを算出してもよい。この場合において、検索部121は、検索用データを特徴抽出部122から取得してもよい。これにより、特徴データ蓄積部124に保存されるデータ容量を削減することができる。
The
ユーザは、一つのオブジェクトの情報と、一つの関連性の情報と、を検索クエリ入力部120に入力してもよい。この場合には、検索部121は、任意のオブジェクトのデータを特徴データ蓄積部124の中から選択する。検索部121は、検索クエリのオブジェクトと、選択した任意のオブジェクトと、の関連性のデータを取得する。検索部121は、取得した関連性のデータと、検索クエリの関連性のデータと、を比較することによって画像検索してもよい。
A user may input information on one object and information on one relationship into the search
検索結果出力部125には、所定の画像に含まれる複数のオブジェクトが強調表示されてもよい。図11はオブジェクトを強調表示する検索結果出力部125の説明図である。
A plurality of objects included in a predetermined image may be highlighted in the search
検索結果出力部125は、検索クエリに含まれる所定のオブジェクトと、検索クエリに含まれる所定の関係名称情報と、を表示させる。検索結果出力部125は、例えば、人21と、鞄22と、「持っている」1244(1)と、モニタ11に表示させる。
The search
検索結果出力部125は、複数の所定のオブジェクトを離間してそれぞれ表示させる。検索結果出力部125は、表示される複数の所定のオブジェクト間に、所定の関係名称情報を表示させる。検索結果出力部125は、例えば、人21および鞄22を離間して表示させ、人21および鞄22の間に関連性を示すように「持っている」1244(1)を表示させる。
The search
検索結果出力部125は、検索クエリに含まれない他の関係名称情報と、所定のオブジェクトと、他のオブジェクトと、の間の他の関係性表示させる。検索結果出力部125は、ステッカー43と、「くっついている」1244(2)とを、表示させる。
The search
検索結果出力部125は、他のオブジェクトを、表示される所定のオブジェクトから離間して表示させる。検索結果出力部125は、他の関係名称情報を、表示される所定のオブジェクトと、表示される他のオブジェクトと、の間に表示させる。検索結果出力部125は、鞄22およびステッカー43を離間して表示させ、鞄22およびステッカー43の間に関連性を示すように「くっついている」1244(2)を表示させる。
The search
検索結果出力部125は、所定のオブジェクトと、所定の関係名称情報と、他のオブジェクトと、他の関係名称情報と、を画面のスクロール方向に並べて表示させる。検索結果出力部125は、例えば、モニタ11のスクロール方向(S方向)において、人21の下方向に人25を表示し、鞄22の下方向に鞄28を表示し、「持っている」1244(1)の下方向に「持っている」1244(3)を表示させる。
The search
検索結果出力部125は、検索クエリを表示させてもよい。検索クエリを表示することによって、ユーザが入力した情報を確認することができる。
The search
検索結果出力部125は、図7,11で示すレイアウトに限らず、視認性を向上させるために他の表示方法を採用してもよい。検索結果出力部125は、オブジェクトの推定の信頼度「c」(数式1参照)に応じて、表示するオブジェクトの画像の大きさを設定してもよい。これにより、画像検索装置1は、検索結果の視認性を向上させることができる。
The search
本実施例に示す画像検索装置1は、入力部120と、検索部121と、特徴抽出部122と、出力部125と、記憶部12と、を備えることによって、関係名称情報1244を使用して画像検索することができる。その結果、画像検索装置1は、画像検索の精度を向上させることができる。
The
関係名称情報1244は、各オブジェクト間の物理的関係性を示すため、特徴抽出部122が各オブジェクト間の位置情報に基づいて関係名称情報1244を算出することができる。
Since the
特徴抽出部122は、画像に含まれるオブジェクト名情報1242を算出することができる。これにより、特徴抽出部122は、人の認識から漏れるオブジェクト名情報1242も特徴データ蓄積部1244に保存することができる。その結果、ユーザが自らオブジェクト名情報を入力せずともよくなるため、使い勝手が向上する。
The
特徴抽出部122は、各オブジェクトの位置情報に基づいて、物理的関係性を有する各オブジェクト間の関係名称情報1244を算出する為、所定の距離以上のオブジェクト間の関係名称情報1244を算出することを抑制する。これにより、特徴抽出部122は、余分な関係名称情報1244を算出することを抑制することができる。
In order to calculate the
検索クエリ入力部120は、検索クエリが文字で入力される機能を有するため、画像検索装置1の使い勝手が向上する。
Since the search
検索クエリ入力部120は、オブジェクト名入力欄1201と、関係名入力欄1202と、をモニタ11のスクロール方向に並べて表示する機能を有するため、モニタ11に収まりきらない欄を表示することができる。これにより、画像検索装置11の使い勝手が向上する。
Since the search
検索結果出力部125は、複数の所定のオブジェクトを他のオブジェクトよりも強調して表示させる機能を有する。これにより、ユーザは、画像内に複数のオブジェクトが表示される場合であっても、所定のオブジェクトを容易に発見することができる。
The search
検索結果出力部125は、所定の関係名称情報を表示させる機能を有する。これにより、ユーザは、どのオブジェクト同士が所定の関係性を有しているかを、容易に把握することができる。
The search
検索結果出力部125は、他のオブジェクトと、他の関係名称情報と、を表示させる機能を有する。これにより、ユーザは、他のオブジェクトと、他の関係名称情報と、を把握することができる。
The search
検索結果出力部125は、複数の所定のオブジェクトを離間してそれぞれ表示させる機能と、表示される複数の所定のオブジェクト間に、所定の関係名称情報を表示させる機能と、他のオブジェクトを表示される所定のオブジェクトから離間して表示させる機能と、他の関係名称情報を、表示される所定のオブジェクトおよび、表示される他のオブジェクト、の間に表示させる機能と、所定のオブジェクト、所定の関係名称情報、他のオブジェクトおよび、他の関係名称情報、画面のスクロール方向に並べて表示させる機能と、を有する。これにより、検索結果出力部125は、検索結果の視認性を向上させることができる。
The search
本実施例は、第1実施例の変形例に相当するため、第1実施例との相違を中心に説明する。図12は、画像検索装置1aの概略図である。本実施例における画像検索装置1aは、学習部127によって、特徴抽出部122aに設定されるパラメータを学習する。
Since this embodiment corresponds to a modification of the first embodiment, differences from the first embodiment will be mainly described. FIG. 12 is a schematic diagram of the
画像検索装置1aは、検索クエリ入力部120aと、検索部121と、特徴抽出部122aと、画像データ蓄積部123aと、特徴データ蓄積部124aと、検索結果出力部125aと、画像データ取得部126と、学習部127と、を有する。検索クエリ入力部120aは、ユーザから検索クエリを受け付ける機能である。検索クエリ入力部120aは、例えば、モニタ11に表示されたUIである。検索クエリ入力部120aは、検索部121および学習部127と単方向に通信可能に接続される。
The
特徴抽出部122aは、画像から検索用データを算出する機能である。特徴抽出部122aは、画像データ蓄積部123aと単方向に通信可能に接続される。特徴抽出部122aは、特徴データ蓄積部124aおよび学習部127と双方向に通信可能に接続される。特徴抽出部122aは、検索部121と双方向に通信可能に接続されてもよい。
The feature extraction unit 122a has a function of calculating search data from an image. The feature extraction unit 122a is connected to the image
画像データ蓄積部123aは、複数の画像を保存するデータベースである。画像データ蓄積部123aには、学習部127で使用される学習用画像が保存される。特徴データ蓄積部124aは、画像ごとの検索用データを保存するデータベースである。特徴データ蓄積部124aには、学習用画像に含まれる検索用データを示す教師データが保存される。
The image
学習部127は、パラメータ「θ」を学習する機能である。学習部127は、画像データ蓄積部123、特徴データ蓄積部124aおよび検索結果出力部125aと単方向に通信可能に接続される。なお、学習処理は、図13にて後述する。
The
検索結果出力部125aは、検索部121の検索結果をユーザへ出力する機能である。検索結果出力部125aは、例えば、モニタ11に表示されるUIである。検索結果出力部125aは、学習部127の学習結果を出力してもよい。
The search
図13は、学習処理の流れ図である。学習処理は、学習部127の処理(S30,S31,S36,S37)と、特徴抽出部122aの処理(S32~S35,S38)と、にて実行される。学習処理は、ユーザからの操作に限らず、所定周期で実行されてもよい。 FIG. 13 is a flow chart of the learning process. The learning process is performed by the processes of the learning unit 127 (S30, S31, S36, S37) and the processes of the feature extraction unit 122a (S32 to S35, S38). The learning process is not limited to the user's operation, and may be executed at predetermined intervals.
学習部127は、学習用画像のデータを画像データ蓄積部123から複数取得する(S30)。学習部127は、複数の学習用画像それぞれに対応する教師データを特徴データ蓄積部124aから取得する(S31)。
The
特徴抽出部122aは、パラメータ「θ」を初期化する(S32)。特徴抽出部122aがCNNで構成されている場合には、特徴抽出部122aは、例えば、ガウス分布や一様分布からランダムに値を抽出することよって、パラメータ「θ」を初期化する。学習部127は、複数の学習用画像のデータを特徴抽出部122aに送信する(S33)。
The feature extraction unit 122a initializes the parameter "θ" (S32). When the feature extraction unit 122a is composed of a CNN, the feature extraction unit 122a initializes the parameter "θ" by, for example, randomly extracting values from a Gaussian distribution or a uniform distribution. The
特徴抽出部122aは、学習用画像から検索用データを算出する(S34)。すなわち、学習部127は、学習用画像に示される複数のオブジェクトのデータおよび、学習用画像に示される複数のオブジェクトの間の関連性のデータを、学習前のデータとして特徴抽出部122に算出させる。特徴抽出部122aは、学習用画像ごとに算出した複数の検索用データを学習部127に送信する(S35)。
The feature extraction unit 122a calculates search data from the learning image (S34). That is, the
学習部127は、教師データと、特徴抽出部122aが算出した学習前の検索用データと、に基づいてパラメータの更新値を算出する(S36)。学習部127は、例えば、特徴抽出部122aから受信した複数の検索用データと、特徴データ蓄積部124から受信した複数の教師データと、を学習用画像ごとに対応させる。学習部127は、検索用データと、教師データと、の誤差を算出する。学習部127は、算出した誤差に基づいて、複数のパラメータの更新値を計算する。
The
学習部127は、例えば、二乗誤差の計算方法を用いることによって、各オブジェクトの位置「x」,「y」および各オブジェクトの大きさ「w」,「h」(数式1参照)の誤差を算出する。学習部127は、例えば、「Softmax cross entropy」を用いることによって、推定の信頼度「c」,「cr」の誤差を算出する。学習部127は、例えば、誤差逆伝播法を用いることによって、算出した各誤差の値からパラメータの更新値を算出する。
The
学習部127は、パラメータの更新値を特徴抽出部122aに送信する(S37)。特徴抽出部122aは、パラメータの値を更新する(S38)。特徴抽出部122aは、例えば、確率的勾配降下法を用いることによって、パラメータを更新する。
The
学習部127は、学習を継続するか終了するかを決定する(S39)。学習を続行する場合(S39:No)には、学習部127の処理は、処理(S33)に移動する。学習を終了する場合(S39:Yes)には、学習部127の処理は、終了する。
The
なお、学習部127の終了処理は、ユーザによって操作されてもよい。学習部127は、更新後のパラメータにて算出された検索用データおよび教師データの誤差と、更新前のパラメータにて算出された検索用データおよび教師データの誤差と、の差分を監視することによって、学習を続行させるかどうかを判断してもよい。
Note that the end processing of the
なお、検索開始処理(S12:Yes)(図8参照)が実行された場合には、特徴抽出部122aは、画像データ蓄積部123から複数の画像を取得し、検索用データを算出してもよい。これにより、検索部121は、パラメータが更新された特徴抽出部122aによって算出された検索用データに基づいて画像検索することができる。
Note that when the search start process (S12: Yes) (see FIG. 8) is executed, the feature extraction unit 122a acquires a plurality of images from the image
このように構成される本実施例では、第1の実施例と同様の作用効果を奏する。さらに、本実施例によれば、画像検索装置1aは、学習部127を備える為、特徴抽出部122aのパラメータを更新することができる。これにより、特徴抽出部122aは、検索用データを算出する精度を向上させることができる。その結果、画像検索装置1aは、画像検索の精度を向上させることができる。
The present embodiment configured in this manner has the same effects as those of the first embodiment. Furthermore, according to the present embodiment, the
本実施例は、第1実施例および第2実施例の変形例に相当するため、第1実施例および第2実施例との相違を中心に説明する。図14は、画像検索装置1bの概略図である。本実施例における画像検索装置1bは、入力画像に基づいて、所定の画像を検索する。
Since the present embodiment corresponds to a modified example of the first and second embodiments, the differences from the first and second embodiments will be mainly described. FIG. 14 is a schematic diagram of the
画像検索装置1bは、検索クエリ入力部120bと、検索部121bと、特徴抽出部122bと、画像データ蓄積部123aと、特徴データ蓄積部124aと、検索結果出力部125aと、画像データ取得部126と、学習部127と、を有する。
The
検索クエリ入力部120bは、ユーザから入力画像を受け付ける機能である。入力画像には、所定の画像に含まれる複数のオブジェクトと同一または類似する複数のオブジェクトが表示される。検索クエリ入力部120bは、例えば、モニタ11に表示されたUIである。検索クエリ入力部120bは、検索部121bおよび学習部127と単方向に通信可能に接続される。検索クエリ入力部120bは、図15にて後述する。
The search
特徴抽出部122bは、画像から検索用データを算出する機能である。特徴抽出部122bは、画像データ蓄積部123aと単方向に通信可能に接続される。特徴抽出部122bは、検索部121b、特徴データ蓄積部124bおよび学習部127と双方向に通信可能に接続される。
The
特徴抽出部122bは、入力画像のデータから検索クエリを算出する。検索部121bは、特徴抽出部122にて算出された検索クエリに基づいて記憶部12を検索し、検索クエリに対応する所定の画像を抽出する機能である。検索部121bは、画像データ蓄積部123a、特徴データ蓄積部124aおよび検索結果出力部125aと単方向に通信可能に接続される。検索部121bと特徴抽出部122bとの処理は、図16にて後述する。
The
図15は、検索クエリ入力部120bの説明図である。検索クエリ入力部120bは、画像入力欄1204と、検索ボタン1203と、が表示される。画像入力欄1204は、入力画像を入力する領域である。ユーザは、所定の画像に含まれるオブジェクトの画像を入力してもよい。ユーザは、所定の画像に含まれるオブジェクトに類似するオブジェクトの画像を入力してもよい。ユーザは、所定の画像に類似する画像を入力してもよい。
FIG. 15 is an explanatory diagram of the search
画像入力欄1204は、例えば、モニタ11の中央に表示される。ユーザは、1枚の画像を入力することに限らず、複数の画像を入力してもよい。この場合には、画像入力欄1204は、例えば、モニタ11のスクロール方向に並べて複数表示されてもよい。
The
図16は、画像検索処理の流れ図である。画像検索処理は、検索ボタン1203をユーザが押すことによって実行されてもよい。検索部121bは、検索クエリ入力部120bから入力画像のデータを取得(S41)する。検索部121bは、特徴抽出部122bへ入力画像のデータを送信する(S42)。
FIG. 16 is a flowchart of image search processing. Image search processing may be executed by the user pressing a
特徴抽出部122bは、入力画像から検索クエリを算出する(S43)。特徴抽出部122bは、検索部121bに検索クエリを送信する(S44)。
The
検索部121bは、特徴抽出部122bから取得した入力画像の検索クエリと、特徴データ蓄積部124に保存される複数の画像の検索用データとを比較することによって、複数の画像の中から所定の画像を検索する(S45)。検索部121bは、所定の画像を検索結果出力部125aへ送信する(S46)。
The
なお、画像検索装置1bは、入力画像と複数の画像との類似度に基づいて所定の画像を検索してもよい。この場合において、特徴抽出部122bは、例えば、CNNを用いることによって、画像から特徴ベクトルを算出する。
Note that the
特徴ベクトルは、例えば、画像に示される特徴を示すm次元(mは所定の定数)のデータ群である。特徴ベクトルには、画像に含まれる複数のオブジェクトの特徴と、前記画像に含まれる複数のオブジェクト間の関係性の特徴と、が含まれる。特徴抽出部122bは、オブジェクトの色の特徴およびオブジェクトの模様の特徴等を特徴ベクトルとして算出してもよい。
A feature vector is, for example, an m-dimensional (m is a predetermined constant) data group representing features shown in an image. A feature vector includes features of a plurality of objects included in an image and features of relationships between the plurality of objects included in the image. The
特徴抽出部122bは、入力画像から算出した特徴ベクトルおよび、記憶部12に保存される画像から算出した特徴ベクトル、に基づいて、入力画像に対する類似度を記憶部12に保存される画像ごとに複数算出する。検索部121bは、複数の類似度に基づいて記憶部12を検索し、所定の画像を抽出する。
Based on the feature vector calculated from the input image and the feature vector calculated from the image stored in the
なお、特徴抽出部122bは、CNNの「Activation map」を用いて画像からオブジェクトが表示される領域の情報を算出してもよい。特徴抽出部122bは、算出した領域の特徴ベクトルを算出することによって、入力画像および複数の画像に示される同一のオブジェクトに関する類似度を向上させることができる。
Note that the
特徴抽出部122bは、例えば、入力画像の特徴ベクトルと、複数の画像の特徴ベクトルと、の類似度を、ユークリッド距離を用いて計算してもよい。すなわち、m種類の特徴を軸としたm次元において、入力画像の特徴ベクトルと、複数の画像の特徴ベクトルと、の距離を測ることによって、特徴抽出部122bは、類似度を算出する。
The
学習部127は、特徴抽出部122bに画像の特徴ベクトルを算出するパラメータを設定してもよい。学習部127は、複数の画像を色補正して特徴ベクトルを算出する処理を特徴抽出部122bに学習させてもよい。これにより、検索部121bは、色補正なしで算出した類似度よりも高い類似度を算出することができる。
The
検索結果出力部125bは、類似度に基づいて所定の画像を出力してもよい。検索結果出力部125bは、例えば、類似度の高い方から順番に複数の所定の画像を並べてモニタ11に表示させてもよい。これにより、画像検索装置1bは、視認性を向上させることができる。
The search result output unit 125b may output a predetermined image based on the degree of similarity. For example, the search result output unit 125b may arrange a plurality of predetermined images in descending order of similarity and display them on the
このように構成される本実施例では、第1,2実施例と同様の作用効果を奏する。さらに、本実施例によれば、画像検索装置1bは、検索クエリ入力部120bと、入力画像から検索クエリを算出する特徴抽出部122bと、を備える為、入力画像に類似する画像を検索することができる。これにより、ユーザは、入力画像を入力する事によって画像検索することができる。
The present embodiment configured in this manner has the same effects as those of the first and second embodiments. Furthermore, according to the present embodiment, the
さらに、特徴抽出部122bは、画像の特徴ベクトルを算出する機能と、入力画像および画像データ記憶部123aに保存される画像の間の類似度を記憶部に保存される画像ごとに複数算出する機能と、を有する。検索部は、複数の類似度に基づいて記憶部を検索し、所定の画像を抽出する機能を有する。これにより、画像検索装置1bは、入力画像と、画像データ蓄積部123aと、の間の類似度に基づいて画像検索することができる。
Further, the
本実施例は、第1実施例~第3実施例の変形例に相当するため、第1実施例~第3実施例との相違を中心に説明する。図17は、画像検索装置1cの概略図である。本実施例における画像検索装置1cは、入力された検索クエリによって画像検索し、入力画像に基づいて、検索結果の複数の所定の画像を並び変えて表示させる。
Since this embodiment corresponds to modifications of the first to third embodiments, the differences from the first to third embodiments will be mainly described. FIG. 17 is a schematic diagram of the
画像検索装置1cは、検索クエリ入力部120cと、検索部121cと、特徴抽出部122cと、画像データ蓄積部123aと、特徴データ蓄積部124aと、検索結果出力部125aと、画像データ取得部126と、学習部127と、を有する。
The
検索クエリ入力部120cは、ユーザから検索クエリおよび入力画像を受け付ける機能である。検索クエリ入力部120cは、検索クエリを文字で受け付ける。検索クエリ入力部120cは、例えば、モニタ11に表示されたUIである。検索クエリ入力部120cは、検索部121cおよび学習部127と単方向に通信可能に接続される。検索クエリ入力部120cは、図18にて後述する。
The search
特徴抽出部122cは、画像から検索用データを算出する機能と、画像のデータから特徴ベクトルを算出する機能と、である。特徴抽出部122cは、画像データ蓄積部123cと単方向に通信可能に接続される。特徴抽出部122cは、検索部121c、特徴データ蓄積部124aおよび学習部127と双方向に通信可能に接続される。
The
検索部121cは、検索クエリに基づいて記憶部12を検索し、検索クエリに対応する所定の画像を抽出する機能である。検索部121cは、画像データ蓄積部123a、特徴データ蓄積部124aおよび検索結果出力部125aと単方向に通信可能に接続される。検索部121bおよび特徴抽出部122bの処理は、図19にて後述する。
The
図18は、検索クエリ入力部120cの説明図である。検索クエリ入力部120cは、オブジェクト名入力欄1201と、関係名入力欄1202と、検索ボタン1203と、画像入力欄1204と、をモニタ11に表示させる。オブジェクト名入力欄1201および関係名入力欄1202には、例えば、「人」および「鞄」を示すオブジェクト名情報1242と、「持っている」を示す関係名称情報1244dと、が入力される。
FIG. 18 is an explanatory diagram of the search
図19は、画像検索処理の流れ図である。検索部121cは、検索クエリ入力部120cから入力画像と検索クエリとを取得する(S51)。検索部121cは、複数の画像から少なくとも一つの所定の画像を検索する(S52)。検索部121cは、例えば、第1実施例における検索処理(S12~S15)(図8参照)と同様にして、複数の画像の中から複数の所定の画像を検索する。
FIG. 19 is a flowchart of image search processing. The
特徴抽出部122cは、検索部121cから、入力画像のデータと、複数の所定の画像のデータと、を取得する。特徴抽出部121cは、入力画像に含まれる特徴ベクトルを算出する。特徴抽出部121cは、所定の画像に含まれる特徴ベクトルを算出する。特徴抽出部121cは、算出した特徴ベクトルに基づいて、入力画像に対しての類似度を所定の画像ごとに算出する(S53)。
The
特徴抽出部122cは、検索部121cに複数の類似度のデータを送信する(S54)。検索部121cは、検索結果出力部125cに、複数の所定の画像のデータと、所定の画像に設定される類似度のデータと、を送信する。検索結果出力部125cは、類似度に基づいて、複数の所定の画像をモニタ11に表示させる(S55)。たとえば、検索結果出力部125cは、複数の所定の画像のうち類似度が上位に位置する画像を、他の画像よりも優先してモニタに表示する。
The
このように構成される本実施例では、第1~第3の実施例と同様の作用効果を奏する。さらに、本実施例によれば、画像検索装置1cは、検索クエリ入力部120cと、検索部121cと、を有する事によって、検索クエリにて検索した画像を並び替えて表示することができる。画像検索装置1cは、検索部121cで検索した画像を、入力画像との類似度に基づいて表示することができる。これにより、画像検索装置は、検索結果の視認性を向上させることができる。
The present embodiment configured in this manner has the same effects as those of the first to third embodiments. Furthermore, according to this embodiment, the
本実施例は、第1実施例~第4実施例の変形例に相当するため、第1実施例~第4実施例との相違を中心に説明する。図20は、オブジェクトの情報の説明図である。本実施例における画像検索装置は、入力された上位キーワード1258から下位キーワード1259を算出し、下位キーワード1259に基づいて画像検索する。検索部121dは、上位キーワード1258から複数の下位キーワード1259を算出する処理を有する。
Since this embodiment corresponds to modifications of the first to fourth embodiments, differences from the first to fourth embodiments will be mainly described. FIG. 20 is an explanatory diagram of object information. The image search apparatus according to this embodiment calculates a
上位キーワード1258は、所定の画像の特徴を示すキーワードである。上位キーワード1258は、ユーザによって検索クエリ入力部に入力される。下位キーワード1259は、上位キーワード1258を構成するオブジェクトの名称である。なお、下位キーワードは、所定の画像に含まれるオブジェクトの性質を示してもよい。下位キーワード1259は、上位キーワード1258の性質を示してもよい。
The high-
ユーザが、例えば、「女性社員」を検索クエリ入力部へ入力する。検索部121dは、「女性社員」を示すデータを入力部から取得する。
A user inputs, for example, "female employee" into the search query input section. The
検索部121dは、「女性社員」に対応する複数の下位キーワード1259を算出する。検索部121dは、例えば、「女性」、「スーツ」、「パンプス」または「靴」等を示すデータを算出する。なお、検索部121dは、画像検索履歴に基づいて上位キーワード1258から下位キーワード1259を推定してもよい。
The
検索部121dは、特徴データ蓄積部に保存される検索用データと、「女性社員」に対応する複数の下位キーワード1259と、を比較して所定の画像を少なくとも一つ検索する。検索部は、検索結果出力部に所定の画像のデータを送信する。出力部は、所定の画像を表示する。
The
本実施例に示す画像検索装置は、一つの上位キーワード1258をユーザが入力した場合でも、複数の下位キーワード1259を用いて画像検索することができる。これにより、画像検索装置は、画像検索の精度が向上する。
The image retrieval apparatus shown in this embodiment can perform image retrieval using a plurality of
本実施例は、第1実施例~第4実施例の変形例に相当するため、第1実施例~第4実施例との相違を中心に説明する。本実施例における画像検索装置は、動画に映る複数のオブジェクトの時間経過による変化に基づいて画像検索する。以下、本実施例の画像検索装置を駅5の中を移動する人25,29を一例に挙げながら説明する。
Since this embodiment corresponds to modifications of the first to fourth embodiments, differences from the first to fourth embodiments will be mainly described. The image retrieval apparatus according to the present embodiment performs image retrieval based on changes over time of a plurality of objects appearing in a moving image. The image retrieval apparatus of this embodiment will be described below by taking
図21は、駅5の概略図である。駅5には、例えば、入口51と、券売機52と、改札口53と、が設けられる。駅5内を移動する人25,29は、監視カメラ等の動画を撮影する機器によって撮影される。
21 is a schematic diagram of
人25は、例えば、入口51から券売機52へ向かい、券売機52で切符を購入し、改札口53へ向かう。人29は、改札口53から出た後、入口51へ向かう。
For example, the
図22(1)は、駅5構内を移動する人25,29の情報の説明図である。特徴データ蓄積部124eは、「特徴ID」1261と、特徴情報1262と、前時間特徴1263と、後時間特徴1264と、を有する。「特徴ID」1261には、人25,29の特徴情報1262を識別する情報が保存される。
FIG. 22(1) is an explanatory diagram of information of
特徴情報1262には、人25,29の特徴を示すデータが保存される。特徴情報1262には、例えば、「電車に乗る人」または「電車から降りた人」等が保存される。前時間特徴1263と、後時間特徴1264とは、人25,29の時間経過の状態を示す。すなわち、人25,29が「財布を持っている」状態から「券売機から改札へ向かう」状態に移る場合には、人25,29は、「電車に乗る人」の特徴を有する。
The
図22(2)は、前時間特徴1263の詳細を示す図である。前時間特徴1263は、「前特徴ID」12631と、第1オブジェクト12632と、第2オブジェクト12633と、関係性12634と、を有する。「前特徴ID」12631には、前時間特徴1263を識別する為の情報が保存される。
FIG. 22(2) is a diagram showing the details of the
第1オブジェクト12632および第2オブジェクト12633には、オブジェクトの情報が保存される。第1オブジェクト12632には、例えば、「人」等が保存される。第2オブジェクト12633には、例えば、「財布」または「改札口」等が保存される。
Object information is stored in the
関係性12634には、第1オブジェクト12632と、第2オブジェクト12633と、の関連性の情報が保存される。関係性12634には、例えば、「持っている」または「通過」等が保存される。
Information on the relationship between the
図22(3)は、後時間特徴1264の詳細を示す図である。後時間特徴1264は、「後特徴ID」12641と、第1オブジェクト12642と、第2オブジェクト12643と、関連性12644と、を有する。「後特徴ID」12641には、後時間特徴1264を識別する為の情報が保存される。
FIG. 22(3) is a diagram showing the details of the post-time features 1264. FIG.
第1オブジェクト12642および第2オブジェクト12643には、オブジェクトの情報が保存される。第1オブジェクト12642には、例えば、「人」等が保存される。第2オブジェクト12643には、例えば、「切符」または「入口」等が保存される。関連性12644には、第1オブジェクト12642と、第2オブジェクト12643と、の関連性が保存される。関連性12644には、例えば、「持っている」または「通過」等が保存される。
Object information is stored in the
ユーザは、例えば、「電車に乗る人」と入力部に入力する。検索部は、「電車に乗る人」を示すデータを入力部から取得する。検索部は、駅5を撮影する動画の中に、「財布を持っている」状態から「券売機から改札へ向かう」状態に移る人25,29を検索する。
The user inputs, for example, "person on train" to the input unit. The search unit acquires data indicating "a person on the train" from the input unit. The search unit searches for
位置情報291において、検索部は、人25が「財布」を「持っている」状態であると認識する。位置情報292において、検索部は、人25が「切符」を「持っている」状態であると認識する。人25が位置情報291から位置情報292に移動する為、検索部は、人25を「電車に乗る人」と判定する。
In the
検索部は、人25の映る所定の画像を所定の画像として、画像データ蓄積部に保存される動画データから抽出する。検索部は、所定の画像を出力部へ送信する。検索結果出力部は、所定の画像をモニタへ表示する。
The search unit extracts a predetermined image including the
本実施例に示す画像検索装置は、時間によって変動するオブジェクトまたはオブジェクト間の関連性に基づいて所定の画像を検索することができる。 The image retrieval apparatus shown in this embodiment can retrieve a predetermined image based on objects that change with time or relationships between objects.
本実施例は、第1実施例~第4実施例の変形例に相当するため、第1実施例~第4実施例との相違を中心に説明する。本実施例における画像検索装置1fは、複数のユーザによって画像検索され、ユーザごとに隔離した画像データ蓄積部123を有する。図23は、画像検索装置1fのハードウェア構成図である。画像検索装置1fには、ネットワーク7を介して、複数の端末6(1)~6(n)(nは任意の整数)が接続される。端末6(1)~6(n)は、特に区別しない場合には、端末6と示す場合がある。
Since this embodiment corresponds to modifications of the first to fourth embodiments, differences from the first to fourth embodiments will be mainly described. The
画像検索装置1fは、記憶部12fと、CPU14と、メモリ15と、通信インターフェース16と、データ伝送路17と、有する。記憶部12fには、検索部121と、特徴抽出部122と、画像データ取得部126と、端末データベース128(1)~128(n)と、を有する。端末データベース128(1)~128(n)は、特に区別しない場合には、端末データベース128と示す場合がある。画像検索装置1fは、いわゆるクラウドとして知られているように、ネットワーク上に設けられた一つまたは複数のコンピュータ上に設けることができる。
The
端末データベース128は、端末6ごとに画像データと検索用データとを記憶するデータベースである。端末データベース128ごとに保存されるデータが隔離されることによって、ユーザは、対応する端末6以外の他の端末6からのアクセスが制限される。例えば、端末データベース128(1)は、端末6(1)からアクセス可能であり、端末6(2)からのアクセスが制限される。端末データベース128は、画像データ蓄積部123(1)~123(n)と、特徴データ蓄積部124(1)~124(n)と、を有する。
The
端末6は、通信インターフェース(図中、通信I/Fと示す)61(1)~61(n)と、検索クエリ入力部120と、検索結果出力部125と、を有するコンピュータである。通信インターフェース61(1)~61(n)は、特に区別しない場合には、通信インターフェース61と示す場合がある。
The
通信インターフェース61は、例えば、LANの接続端子、SANの接続端子または無線通信の接続装置である。検索クエリ入力部120と、検索結果出力部125と、は、各端末6の記憶部に記憶される。
The
ユーザは、例えば、複数の端末6の内の端末6(1)を使用する。ユーザは、検索クエリ入力部125に検索クエリを入力する。端末6(1)は、通信インターフェース61(1)を介して検索クエリと端末(1)とを識別する情報を画像検索装置1fへ送信する。
A user uses, for example, terminal 6(1) of a plurality of
画像検索装置1fは、取得した検索クエリに基づいて検索部121にて画像検索をする。検索部121は、端末(1)を識別する情報に基づいて、端末データベース128(1)を選択する。検索部121は、特徴データ蓄積部124(1)に保存される検索用データと、端末6(1)から取得した検索クエリと、に基づいて、画像データ蓄積部123(1)に保存される複数の画像の中から所定の画像を検索する。
The
画像検索装置1fは、通信インターフェース16を介して、所定の画像を端末6(1)に送信する。検索結果出力部125は、取得した所定の画像を検索結果出力部125によって出力する。
The
本実施例に示す画像検索装置1fは、複数の端末6で一台の画像検索装置1fを共有して使用することができる。これにより、複数のユーザが画像検索装置1fを使用することができる。
The
記憶部12に保存される画像データおよび検索用データが端末データベース128ごとに隔離されるため、画像検索装置1fは、異なる属性の複数のユーザによって使用されても、他のユーザに対してデータを隠蔽することができる。
Since the image data and search data stored in the
本実施例は、第1実施例~第4実施例の変形例に相当するため、第1実施例~第4実施例との相違を中心に説明する。本実施例における画像検索システムは、ユーザが複数の監視カメラ9の動画データ中から画像検索をする機能を有する。図23は、画像検索システム8の説明図である。画像検索システム8は、画像検索装置81,82(1)~82(n)を有する。「p」は、任意の定数である。画像検索装置82(1)~82(p)は、特に区別しない場合には、画像検索装置82と示す場合がある。画像検索装置81がユーザごとにデータを追加学習させることによって、画像検索装置82は生成される。
Since this embodiment corresponds to modifications of the first to fourth embodiments, differences from the first to fourth embodiments will be mainly described. The image search system in this embodiment has a function of allowing the user to search for images from video data of a plurality of
各画像検索装置82は、ネットワーク7を介して、複数の端末6と、監視カメラ9(1)~9(q)と、双方向に通信可能に接続される。「q」は、任意の定数である。監視カメラ9(1)~9(q)は、特に区別しない場合には、監視カメラ9と示す場合がある。なお、監視カメラ9は、動画を撮影する他の機器でもよい。
Each
ユーザは、端末6を操作することによって、監視カメラ9の撮影データの中から所定の画像を検索する。すなわち、ユーザは、例えば、端末6(1)を選択する。ユーザは、端末6(1)を操作して、各監視カメラ9の中から一つ選択する。ユーザは、例えば、監視カメラ9(1)を選択する。
By operating the
ユーザは、画像検索装置82にて監視カメラ9(1)の撮影データの中から所定の画像を検索する。本実施例において、ユーザに対応する画像検索装置82は、例えば、画像検索装置82(1)である。画像検索装置82(1)は、監視カメラ9(1)から撮影データを取得することによって画像検索する。画像検索装置82(1)は、検索結果の画像を端末6(1)に送信する。端末6(1)は、検索結果の画像を出力する。
The user searches for a predetermined image from the photographed data of the surveillance camera 9 ( 1 ) using the
本実施例に示す画像検索システム8は、各端末6および各監視カメラ9とネットワーク7を介して接続されることによって、ユーザが各監視カメラの撮影データを利用して画像検索することができる。
The
なお、本発明は上述の実施形態に限定されず、様々な変形例が含まれる。上記実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることもできる。また、ある実施形態の構成に他の実施形態の構成を加えることもできる。また、各実施形態の構成の一部について、他の構成を追加・削除・置換することもできる。 In addition, the present invention is not limited to the above-described embodiments, and includes various modifications. The above embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the described configurations. Also, part of the configuration of one embodiment can be replaced with the configuration of another embodiment. Moreover, the configuration of another embodiment can be added to the configuration of one embodiment. Also, a part of the configuration of each embodiment can be added, deleted, or replaced with another configuration.
上記各構成、機能、処理部、処理手段等は、それらの一部や全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスク、SSD(Solid State Drive)等の記録装置、ICカード、SDカード、DVD等の記録媒体に格納することができる。 Some or all of the above configurations, functions, processing units, processing means, etc. may be realized by hardware, for example, by designing integrated circuits. Moreover, each of the above configurations, functions, etc. may be realized by software by a processor interpreting and executing a program for realizing each function. Information such as programs, tables, and files that implement each function can be stored in recording devices such as memories, hard disks, SSDs (Solid State Drives), and recording media such as IC cards, SD cards, and DVDs.
また、上述した実施形態に含まれる技術的特徴は、特許請求の範囲に明示された組み合わせに限らず、適宜組み合わせることができる。 Moreover, the technical features included in the above-described embodiments are not limited to the combinations specified in the claims, and can be combined as appropriate.
1…画像検索装置,2…画像,120…検索クエリ入力部,121…検索部,122…特徴抽出部,123…画像データ蓄積部,124…特徴データ蓄積部,125…検索結果出力部,126…画像データ取得部
REFERENCE SIGNS
Claims (15)
画像に含まれる複数のオブジェクトのオブジェクト名情報と、前記画像に含まれる複数のオブジェクト間の所定の関係性を示す関係名称情報とを含む検索用データを算出する特徴抽出部と、
前記検索用データを前記画像に対応付けて記憶する記憶部と、
前記オブジェクト名情報または前記関係名称情報のうち少なくともいずれか一方を検索クエリとして入力を受け付ける入力部と、
前記検索クエリに基づいて前記記憶部を検索し、前記検索クエリに対応する所定の画像を抽出する検索部と、
検索結果を出力する出力部と、を備え、
前記入力部は、
前記検索クエリを文字で受け付ける機能と、
複数のオブジェクトを含む入力画像を受け付ける機能とを有し、
前記検索部は、前記文字で受け付けた検索クエリに対応する所定の画像を前記記憶部から複数抽出する機能を有し、
前記特徴抽出部は、
前記画像に含まれる複数のオブジェクトの特徴と、前記画像に含まれる複数のオブジェクト間の関係性の特徴と、を示す特徴ベクトルを算出する機能と、
前記所定の画像から算出した特徴ベクトルおよび、前記入力画像から算出した特徴ベクトル、に基づいて、前記入力画像に対する類似度を前記所定の画像ごとに複数算出する機能と、を有し、
さらに、前記出力部は、前記類似度に基づいて、前記所定の画像を出力する機能を有する
画像検索装置。 An image retrieval device,
a feature extraction unit that calculates search data including object name information of a plurality of objects included in an image and relationship name information indicating a predetermined relationship between the plurality of objects included in the image;
a storage unit that stores the search data in association with the image;
an input unit that receives input of at least one of the object name information and the relationship name information as a search query;
a search unit that searches the storage unit based on the search query and extracts a predetermined image corresponding to the search query;
and an output unit that outputs search results,
The input unit
a function of accepting the search query as text;
and a function of accepting an input image containing a plurality of objects,
The search unit has a function of extracting from the storage unit a plurality of predetermined images corresponding to the search query received in the form of characters,
The feature extraction unit is
A function of calculating a feature vector indicating features of a plurality of objects included in the image and features of relationships between the plurality of objects included in the image;
a function of calculating a plurality of degrees of similarity to the input image for each predetermined image based on the feature vector calculated from the predetermined image and the feature vector calculated from the input image;
Further, the image retrieval device, wherein the output unit has a function of outputting the predetermined image based on the degree of similarity.
画像に含まれる複数のオブジェクトのオブジェクト名情報と、前記画像に含まれる複数のオブジェクト間の所定の関係性を示す関係名称情報とを含む検索用データを算出する特徴抽出部と、
前記検索用データを前記画像に対応付けて記憶する記憶部と、
前記オブジェクト名情報または前記関係名称情報のうち少なくともいずれか一方を検索クエリとして入力を受け付ける入力部と、
前記検索クエリに基づいて前記記憶部を検索し、前記検索クエリに対応する所定の画像を抽出する検索部と、
検索結果を出力する出力部と、
前記画像から前記検索用データを算出する為のパラメータを学習する学習部と、を備え、
さらに、前記特徴抽出部は、前記パラメータを有し、
さらに、前記記憶部には、
前記学習部が学習する際に用いる学習用画像と、
前記学習用画像に含まれる検索用データを示す教師データと、が記憶され、
前記学習部は、
前記学習用画像に含まれる検索用データを、パラメータ更新前の特徴抽出部に学習前データとして算出させる機能と、
前記教師データおよび前記学習前データに基づいて、前記パラメータの更新値を学習する機能と、
前記パラメータの更新値に基づいて、前記特徴抽出部の前記パラメータを更新する機能と、を有する
画像検索装置。 An image retrieval device,
a feature extraction unit that calculates search data including object name information of a plurality of objects included in an image and relationship name information indicating a predetermined relationship between the plurality of objects included in the image;
a storage unit that stores the search data in association with the image;
an input unit that receives input of at least one of the object name information and the relationship name information as a search query;
a search unit that searches the storage unit based on the search query and extracts a predetermined image corresponding to the search query;
an output unit that outputs search results;
a learning unit that learns parameters for calculating the search data from the image,
Furthermore, the feature extraction unit has the parameter,
Furthermore, in the storage unit,
a learning image used when the learning unit learns;
and teacher data indicating search data included in the learning image are stored,
The learning unit
A function of calculating, as pre-learning data, the feature extraction unit before parameter update, using search data included in the learning image;
a function of learning updated values of the parameters based on the teacher data and the pre-learning data;
and a function of updating the parameters of the feature extraction unit based on updated values of the parameters.
画像に含まれる複数のオブジェクトのオブジェクト名情報と、前記画像に含まれる複数のオブジェクト間の所定の関係性を示す関係名称情報とを含む検索用データを算出する特徴抽出部と、
前記検索用データを前記画像に対応付けて記憶する記憶部と、
前記オブジェクト名情報または前記関係名称情報のうち少なくともいずれか一方を検索クエリとして入力を受け付ける入力部と、
前記検索クエリに基づいて前記記憶部を検索し、前記検索クエリに対応する所定の画像を抽出する検索部と、
検索結果を出力する出力部と、を備え、
前記検索クエリに含まれるオブジェクト名情報は、複数の所定のオブジェクトを示し、
前記出力部は、前記所定の画像に含まれる前記所定のオブジェクトを他のオブジェクトよりも強調して表示させる機能を有し、
前記検索クエリに含まれる関係名称情報は、所定の関係名称情報を示し、
他の関係名称情報は、前記所定のオブジェクトと、前記他のオブジェクトと、の間の関係性を示し、
さらに、前記出力部は、
前記他のオブジェクトと、前記他の関係名称情報と、を表示させる機能と、
前記複数の所定のオブジェクトを離間してそれぞれ表示させる機能と、
前記表示される複数の所定のオブジェクト間に、前記所定の関係名称情報を表示させる機能と、
前記他のオブジェクトを前記表示される所定のオブジェクトから離間して表示させる機能と、
前記他の関係名称情報を、前記表示される所定のオブジェクトおよび、前記表示される他のオブジェクト、の間に表示させる機能と、
前記所定のオブジェクト、前記所定の関係名称情報、前記他のオブジェクトおよび、前記他の関係名称情報、画面のスクロール方向に並べて表示させる機能と、を有する
画像検索装置。 An image retrieval device,
a feature extraction unit that calculates search data including object name information of a plurality of objects included in an image and relationship name information indicating a predetermined relationship between the plurality of objects included in the image;
a storage unit that stores the search data in association with the image;
an input unit that receives input of at least one of the object name information and the relationship name information as a search query;
a search unit that searches the storage unit based on the search query and extracts a predetermined image corresponding to the search query;
and an output unit that outputs search results,
the object name information included in the search query indicates a plurality of predetermined objects;
The output unit has a function of displaying the predetermined object included in the predetermined image in a more emphasized manner than other objects,
The related name information included in the search query indicates predetermined related name information,
other relationship name information indicates the relationship between the predetermined object and the other object;
Furthermore, the output unit
a function of displaying the other object and the other related name information;
a function of displaying the plurality of predetermined objects spaced apart from each other;
a function of displaying the predetermined relationship name information between the plurality of predetermined objects to be displayed;
a function of displaying the other object spaced apart from the predetermined object to be displayed;
a function of displaying the other related name information between the displayed predetermined object and the displayed other object;
An image search device comprising the predetermined object, the predetermined related name information, the other object, the other related name information, and a function of displaying them side by side in the scroll direction of the screen.
請求項1から3の何れか一項に記載の画像検索装置。 4. The image retrieval apparatus according to claim 1, wherein said predetermined relationship indicates a physical relationship between said objects.
画像に含まれる前記複数のオブジェクトそれぞれの位置情報を算出する機能と、
前記関係名称情報を前記位置情報に基づいて算出する機能と、を有する
請求項1から3の何れか一項に記載の画像検索装置。 The feature extraction unit is
a function of calculating position information of each of the plurality of objects included in the image;
4. The image retrieval device according to claim 1, further comprising a function of calculating said related name information based on said position information.
請求項2または3に記載の画像検索装置。 4. The image retrieval apparatus according to claim 2, wherein said input unit has a function of accepting said retrieval query in characters.
前記オブジェクト名情報を受け付ける複数のオブジェクト名入力欄と、前記関係名称情報を受け付ける少なくとも一つの関係名入力欄と、を表示させる機能と、
前記複数のオブジェクト名入力欄および前記少なくとも一つの関係名入力欄を、画面のスクロール方向に並べて表示させる機能と、を有する
請求項1または6に記載の画像検索装置。 The input unit
a function of displaying a plurality of object name input fields for receiving the object name information and at least one relationship name input field for receiving the relationship name information;
7. The image retrieval device according to claim 1, further comprising a function of displaying the plurality of object name input fields and the at least one relationship name input field side by side in the scroll direction of the screen.
前記特徴抽出部は、前記入力画像から検索クエリを算出する機能を有し、
前記検索部は、前記入力画像から算出された検索クエリに対応する所定の画像を前記記憶部から抽出する機能を有する
請求項1から3の何れか一項に記載の画像検索装置。 The input unit has a function of accepting an input image containing a plurality of objects,
The feature extraction unit has a function of calculating a search query from the input image,
4. The image search device according to claim 1, wherein the search unit has a function of extracting from the storage unit a predetermined image corresponding to a search query calculated from the input image.
前記画像に含まれる複数のオブジェクトの特徴と、前記画像に含まれる複数のオブジェクト間の関係性の特徴と、を示す特徴ベクトルを算出する機能と、
前記入力画像から算出した特徴ベクトルおよび、前記記憶部に保存される画像から算出した特徴ベクトル、に基づいて、前記入力画像に対する類似度を前記記憶部に保存される画像ごとに複数算出する機能と、を有し、
前記検索部は、複数の前記類似度に基づいて前記記憶部を検索し、所定の画像を抽出する機能を有する
請求項8に記載の画像検索装置。 Furthermore, the feature extraction unit
A function of calculating a feature vector indicating features of a plurality of objects included in the image and features of relationships between the plurality of objects included in the image;
a function of calculating a plurality of degrees of similarity to the input image for each image stored in the storage unit based on the feature vector calculated from the input image and the feature vector calculated from the image stored in the storage unit; , has
9. The image search device according to claim 8, wherein the search unit has a function of searching the storage unit based on a plurality of similarities and extracting a predetermined image.
前記検索用データを画像に対応付けて記憶するステップと、
前記オブジェクト名情報または前記関係名称情報のうち少なくともいずれか一方が検索クエリとして文字で入力されると共に、複数のオブジェクトを含む入力画像が入力されるステップと、
前記検索クエリに基づいて記憶部を検索するステップと、
前記文字で受け付けた検索クエリに対応する所定の画像を前記記憶部から複数抽出するステップと、
検索結果を出力するステップと、を有し、
前記検索用データを算出するステップは、
前記画像に含まれる複数のオブジェクトの特徴と、前記画像に含まれる複数のオブジェクト間の関係性の特徴と、を示す特徴ベクトルを算出するステップと、
前記所定の画像から算出した特徴ベクトルおよび、前記入力画像から算出した特徴ベクトル、に基づいて、前記入力画像に対する類似度を前記所定の画像ごとに複数算出するステップと、を有し、
さらに、前記検索結果を出力するステップは、前記類似度に基づいて、前記所定の画像を出力する機能を有する
画像検索方法。 calculating search data including object name information of a plurality of objects included in an image and relationship name information indicating a predetermined relationship between the plurality of objects included in the image;
a step of storing the search data in association with an image;
a step of inputting at least one of the object name information and the related name information in characters as a search query, and inputting an input image including a plurality of objects;
searching a storage unit based on the search query;
a step of extracting a plurality of predetermined images from the storage unit corresponding to the search query accepted in the form of characters;
and outputting search results;
The step of calculating the search data includes:
calculating a feature vector indicating features of a plurality of objects included in the image and features of relationships between the plurality of objects included in the image;
calculating a plurality of degrees of similarity to the input image based on the feature vector calculated from the predetermined image and the feature vector calculated from the input image;
Further, in the image retrieval method, the step of outputting the retrieval result has a function of outputting the predetermined image based on the degree of similarity.
前記検索用データを画像に対応付けて記憶するステップと、
前記オブジェクト名情報または前記関係名称情報のうち少なくともいずれか一方が検索クエリとして入力されるステップと、
前記検索クエリに基づいて記憶部を検索するステップと、
前記検索クエリに対応する所定の画像を抽出するステップと、
検索結果を出力するステップと、
前記画像から前記検索用データを算出する為のパラメータを学習するステップと、を有し、
さらに、前記記憶部には、
前記パラメータを学習する学習部が学習する際に用いる学習用画像と、
前記学習用画像に含まれる検索用データを示す教師データと、が記憶され、
前記パラメータを学習するステップは、
前記学習用画像に含まれる検索用データを、パラメータ更新前に学習前データとして算出させるステップと、
前記教師データおよび前記学習前データに基づいて、前記パラメータの更新値を学習するステップと、
前記パラメータの更新値に基づいて、前記パラメータを更新するステップと、を有する
画像検索方法。 calculating search data including object name information of a plurality of objects included in an image and relationship name information indicating a predetermined relationship between the plurality of objects included in the image;
a step of storing the search data in association with an image;
at least one of the object name information and the relationship name information is input as a search query;
searching a storage unit based on the search query;
extracting a predetermined image corresponding to the search query;
a step of outputting search results;
learning parameters for calculating the search data from the image;
Furthermore, in the storage unit,
a learning image used when a learning unit that learns the parameter learns;
and teacher data indicating search data included in the learning image are stored,
The step of learning the parameters includes:
calculating the search data included in the learning image as pre-learning data before updating the parameters;
learning updated values of the parameters based on the teacher data and the pre-learning data;
and updating the parameters based on updated values of the parameters.
前記検索用データを画像に対応付けて記憶するステップと、
前記オブジェクト名情報または前記関係名称情報のうち少なくともいずれか一方が検索クエリとして入力されるステップと、
前記検索クエリに基づいて記憶部を検索するステップと、
前記検索クエリに対応する所定の画像を抽出するステップと、
検索結果を出力するステップと、を有し、
前記検索クエリに含まれるオブジェクト名情報は、複数の所定のオブジェクトを示し、
前記検索クエリに含まれる関係名称情報は、所定の関係名称情報を示し、
他の関係名称情報は、前記所定のオブジェクトと、前記他のオブジェクトと、の間の関係性を示し、
さらに、前記検索結果を出力するステップは、
前記所定の画像に含まれる前記所定のオブジェクトを他のオブジェクトよりも強調して表示させるステップと、
前記他のオブジェクトと、前記他の関係名称情報と、を表示させるステップと、
前記複数の所定のオブジェクトを離間してそれぞれ表示させるステップと、
前記表示される複数の所定のオブジェクト間に、前記所定の関係名称情報を表示させるステップと、
前記他のオブジェクトを前記表示される所定のオブジェクトから離間して表示させるステップと、
前記他の関係名称情報を、前記表示される所定のオブジェクトおよび、前記表示される他のオブジェクト、の間に表示させるステップと、
前記所定のオブジェクト、前記所定の関係名称情報、前記他のオブジェクトおよび、前記他の関係名称情報、画面のスクロール方向に並べて表示させるステップと、を有する画像検索方法。 calculating search data including object name information of a plurality of objects included in an image and relationship name information indicating a predetermined relationship between the plurality of objects included in the image;
a step of storing the search data in association with an image;
at least one of the object name information and the relationship name information is input as a search query;
searching a storage unit based on the search query;
extracting a predetermined image corresponding to the search query;
and outputting search results;
the object name information included in the search query indicates a plurality of predetermined objects;
The related name information included in the search query indicates predetermined related name information,
other relationship name information indicates the relationship between the predetermined object and the other object;
Furthermore, the step of outputting the search results includes:
a step of displaying the predetermined object included in the predetermined image in a more emphasized manner than other objects;
a step of displaying the other object and the other related name information;
displaying the plurality of predetermined objects separately;
a step of displaying the predetermined relationship name information between the plurality of predetermined objects to be displayed;
displaying the other object spaced apart from the predetermined object to be displayed;
displaying the other related name information between the displayed predetermined object and the displayed other object;
and displaying the predetermined object, the predetermined related name information, the other object, and the other related name information side by side in a screen scroll direction.
前記コンピュータ上に、
画像に含まれる複数のオブジェクトのオブジェクト名情報と、前記画像に含まれる複数のオブジェクト間の所定の関係性を示す関係名称情報とを含む検索用データを算出する特徴抽出部と、
前記検索用データを画像に対応付けて記憶する記憶部と、
前記オブジェクト名情報または前記関係名称情報のうち少なくともいずれか一方を検索クエリとして文字で入力を受け付けると共に、複数のオブジェクトを含む入力画像を受け付ける入力部と、
前記検索クエリに基づいて前記記憶部を検索し、前記検索クエリに対応する所定の画像を抽出すると共に、前記文字で受け付けた検索クエリに対応する所定の画像を前記記憶部から複数抽出する検索部と、
検索結果を出力する出力部と、をそれぞれ実現させ、
前記入力部に、
前記検索クエリを文字で受け付ける機能と、
複数のオブジェクトを含む入力画像を受け付ける機能とを実行させ、
前記検索部に、前記文字で受け付けた検索クエリに対応する所定の画像を前記記憶部から複数抽出する機能を実行させ、
前記特徴抽出部に、
前記画像に含まれる複数のオブジェクトの特徴と、前記画像に含まれる複数のオブジェクト間の関係性の特徴と、を示す特徴ベクトルを算出する機能と、
前記所定の画像から算出した特徴ベクトルおよび、前記入力画像から算出した特徴ベクトル、に基づいて、前記入力画像に対する類似度を前記所定の画像ごとに複数算出する機能と、を実行させ、
さらに、前記出力部に、前記類似度に基づいて、前記所定の画像を出力する機能を実行させるためのコンピュータプログラム。 A computer program for causing a computer to function as an image retrieval device,
on the computer,
a feature extraction unit that calculates search data including object name information of a plurality of objects included in an image and relationship name information indicating a predetermined relationship between the plurality of objects included in the image;
a storage unit that stores the search data in association with an image;
an input unit that receives at least one of the object name information and the related name information as a search query in the form of characters, and receives an input image that includes a plurality of objects;
A search unit that searches the storage unit based on the search query, extracts a predetermined image corresponding to the search query, and extracts a plurality of predetermined images from the storage unit that correspond to the search query received in the form of characters. and,
Realize an output unit that outputs the search results, and
In the input section,
a function of accepting the search query as text;
and executing a function of accepting an input image containing a plurality of objects,
causing the search unit to execute a function of extracting a plurality of predetermined images from the storage unit corresponding to the search query received in the form of characters;
In the feature extraction unit,
A function of calculating a feature vector indicating features of a plurality of objects included in the image and features of relationships between the plurality of objects included in the image;
a function of calculating a plurality of degrees of similarity to the input image for each predetermined image based on the feature vector calculated from the predetermined image and the feature vector calculated from the input image;
Further, the computer program for causing the output unit to execute a function of outputting the predetermined image based on the degree of similarity.
前記コンピュータ上に、
画像に含まれる複数のオブジェクトのオブジェクト名情報と、前記画像に含まれる複数のオブジェクト間の所定の関係性を示す関係名称情報とを含む検索用データを算出する為のパラメータを有する特徴抽出部と、
前記検索用データを画像に対応付けて記憶する記憶部と、
前記オブジェクト名情報または前記関係名称情報のうち少なくともいずれか一方を検索クエリとして入力を受け付ける入力部と、
前記検索クエリに基づいて前記記憶部を検索し、前記検索クエリに対応する所定の画像を抽出する検索部と、
検索結果を出力する出力部と、
前記パラメータを学習する学習部と、をそれぞれ実現させ、
さらに、前記記憶部に、
前記学習部が学習する際に用いる学習用画像と、
前記学習用画像に含まれる検索用データを示す教師データと、を記憶させ、
前記学習部に、
前記学習用画像に含まれる検索用データを、パラメータ更新前の特徴抽出部に学習前データとして算出させる機能と、
前記教師データおよび前記学習前データに基づいて、前記パラメータの更新値を学習する機能と、
前記パラメータの更新値に基づいて、前記特徴抽出部の前記パラメータを更新する機能と、を実行させるためのコンピュータプログラム。 A computer program for causing a computer to function as an image retrieval device,
on the computer,
a feature extraction unit having parameters for calculating search data including object name information of a plurality of objects included in an image and relationship name information indicating a predetermined relationship between the plurality of objects included in the image; ,
a storage unit that stores the search data in association with an image;
an input unit that receives input of at least one of the object name information and the relationship name information as a search query;
a search unit that searches the storage unit based on the search query and extracts a predetermined image corresponding to the search query;
an output unit that outputs search results;
and a learning unit that learns the parameters,
Furthermore, in the storage unit,
a learning image used when the learning unit learns;
storing teacher data indicating search data included in the learning image;
to the learning unit,
A function of calculating, as pre-learning data, the feature extraction unit before parameter update, using search data included in the learning image;
a function of learning updated values of the parameters based on the teacher data and the pre-learning data;
A computer program for executing a function of updating the parameter of the feature extraction unit based on the updated value of the parameter.
前記コンピュータ上に、
画像に含まれる複数のオブジェクトのオブジェクト名情報と、前記画像に含まれる複数のオブジェクト間の所定の関係性を示す関係名称情報とを含む検索用データを算出する特徴抽出部と、
前記検索用データを画像に対応付けて記憶する記憶部と、
前記オブジェクト名情報または前記関係名称情報のうち少なくともいずれか一方を検索クエリとして入力を受け付ける入力部と、
前記検索クエリに基づいて前記記憶部を検索し、前記検索クエリに対応する所定の画像を抽出する検索部と、
検索結果を出力する出力部と、をそれぞれ実現させ、
前記検索クエリに含まれるオブジェクト名情報は、複数の所定のオブジェクトを示し、
前記出力部に、前記所定の画像に含まれる前記所定のオブジェクトを他のオブジェクトよりも強調して表示させる機能を実現させ、
前記検索クエリに含まれる関係名称情報は、所定の関係名称情報を示し、
他の関係名称情報は、前記所定のオブジェクトと、前記他のオブジェクトと、の間の関係性を示し、
さらに、前記出力部に、
前記他のオブジェクトと、前記他の関係名称情報と、を表示させる機能と、
前記複数の所定のオブジェクトを離間してそれぞれ表示させる機能と、
前記表示される複数の所定のオブジェクト間に、前記所定の関係名称情報を表示させる機能と、
前記他のオブジェクトを前記表示される所定のオブジェクトから離間して表示させる機能と、
前記他の関係名称情報を、前記表示される所定のオブジェクトおよび、前記表示される他のオブジェクト、の間に表示させる機能と、
前記所定のオブジェクト、前記所定の関係名称情報、前記他のオブジェクトおよび、前記他の関係名称情報、画面のスクロール方向に並べて表示させる機能と、を実行させるためのコンピュータプログラム。 A computer program for causing a computer to function as an image retrieval device,
on the computer,
a feature extraction unit that calculates search data including object name information of a plurality of objects included in an image and relationship name information indicating a predetermined relationship between the plurality of objects included in the image;
a storage unit that stores the search data in association with an image;
an input unit that receives input of at least one of the object name information and the relationship name information as a search query;
a search unit that searches the storage unit based on the search query and extracts a predetermined image corresponding to the search query;
Realize an output unit that outputs the search results, and
the object name information included in the search query indicates a plurality of predetermined objects;
causing the output unit to display the predetermined object included in the predetermined image in a more emphasized manner than other objects;
The related name information included in the search query indicates predetermined related name information,
other relationship name information indicates the relationship between the predetermined object and the other object;
Furthermore, in the output unit,
a function of displaying the other object and the other related name information;
a function of displaying the plurality of predetermined objects spaced apart from each other;
a function of displaying the predetermined relationship name information between the plurality of predetermined objects to be displayed;
a function of displaying the other object spaced apart from the predetermined object to be displayed;
a function of displaying the other related name information between the displayed predetermined object and the displayed other object;
A computer program for executing the predetermined object, the predetermined related name information, the other object, the other related name information, and a function of displaying them side by side in the scroll direction of the screen.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019046127A JP7227799B2 (en) | 2019-03-13 | 2019-03-13 | Image retrieval device, image retrieval method and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019046127A JP7227799B2 (en) | 2019-03-13 | 2019-03-13 | Image retrieval device, image retrieval method and computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020149337A JP2020149337A (en) | 2020-09-17 |
JP7227799B2 true JP7227799B2 (en) | 2023-02-22 |
Family
ID=72430766
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019046127A Active JP7227799B2 (en) | 2019-03-13 | 2019-03-13 | Image retrieval device, image retrieval method and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7227799B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7362075B2 (en) | 2021-05-25 | 2023-10-17 | ソフトバンク株式会社 | Information processing device, information processing method, and information processing program |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005141776A (en) | 2005-02-07 | 2005-06-02 | Fuji Xerox Co Ltd | Image extraction device and method |
JP2017076282A (en) | 2015-10-15 | 2017-04-20 | ヤフー株式会社 | Information processing device, information processing method, and information processing program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04237377A (en) * | 1991-01-21 | 1992-08-25 | Kokusai Denshin Denwa Co Ltd <Kdd> | Image retrieving system using arrangment and color attribute of keyword |
JPH05274356A (en) * | 1991-03-07 | 1993-10-22 | Electron Maaketeingu:Kk | Object retrieving system |
JP3661287B2 (en) * | 1996-08-02 | 2005-06-15 | 富士ゼロックス株式会社 | Image registration apparatus and method |
-
2019
- 2019-03-13 JP JP2019046127A patent/JP7227799B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005141776A (en) | 2005-02-07 | 2005-06-02 | Fuji Xerox Co Ltd | Image extraction device and method |
JP2017076282A (en) | 2015-10-15 | 2017-04-20 | ヤフー株式会社 | Information processing device, information processing method, and information processing program |
Also Published As
Publication number | Publication date |
---|---|
JP2020149337A (en) | 2020-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11501514B2 (en) | Universal object recognition | |
JP6397144B2 (en) | Business discovery from images | |
CN106105185B (en) | Indicate method, mobile device and the computer readable storage medium of the profile of user | |
JP5358083B2 (en) | Person image search device and image search device | |
US8781235B2 (en) | Object recognition apparatus, recognition method thereof, and non-transitory computer-readable storage medium | |
JP5134664B2 (en) | Annotation device | |
CN104008317B (en) | Authenticating device and authentication method | |
JP6961363B2 (en) | Information processing system, information processing method and program | |
IL263532A (en) | Method, system and computer program product for interactively identifying same individuals or objects present in video recordings | |
CN110325983A (en) | Image retrieving apparatus and image search method | |
JP5963609B2 (en) | Image processing apparatus and image processing method | |
JP7238902B2 (en) | Information processing device, information processing method, and program | |
US20100142769A1 (en) | Information processing apparatus and information processing method | |
US20150002389A1 (en) | Method for Recognizing a Performed Gesture, Device, User Terminal and Associated Computer Program | |
CN106471440A (en) | Eye tracking based on efficient forest sensing | |
CN112771522A (en) | Biometric authentication device, biometric authentication method, and biometric authentication program | |
JP7227799B2 (en) | Image retrieval device, image retrieval method and computer program | |
US9851784B2 (en) | Movement line conversion and analysis system, method and program | |
JP2024045460A (en) | Information processing system, information processing device, information processing method, and program | |
JP6958795B1 (en) | Information processing methods, computer programs and information processing equipment | |
WO2020115910A1 (en) | Information processing system, information processing device, information processing method, and program | |
WO2010087451A1 (en) | Image display device, image display method, and image display program | |
JP7007022B2 (en) | Information processing equipment, information processing methods and programs | |
US11210335B2 (en) | System and method for judging situation of object | |
KR101608248B1 (en) | Apparatus and method for classifying photograph |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210415 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220324 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220412 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220613 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220617 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220809 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221005 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230117 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230210 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7227799 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |