JP2020149337A - 画像検索装置、画像検索方法およびコンピュータプログラム - Google Patents

画像検索装置、画像検索方法およびコンピュータプログラム Download PDF

Info

Publication number
JP2020149337A
JP2020149337A JP2019046127A JP2019046127A JP2020149337A JP 2020149337 A JP2020149337 A JP 2020149337A JP 2019046127 A JP2019046127 A JP 2019046127A JP 2019046127 A JP2019046127 A JP 2019046127A JP 2020149337 A JP2020149337 A JP 2020149337A
Authority
JP
Japan
Prior art keywords
image
search
unit
name information
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019046127A
Other languages
English (en)
Other versions
JP7227799B2 (ja
Inventor
田村 雅人
Masahito Tamura
雅人 田村
廣池 敦
Atsushi Hiroike
敦 廣池
俊明 垂井
Toshiaki Tarui
俊明 垂井
智明 吉永
Tomoaki Yoshinaga
智明 吉永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2019046127A priority Critical patent/JP7227799B2/ja
Publication of JP2020149337A publication Critical patent/JP2020149337A/ja
Application granted granted Critical
Publication of JP7227799B2 publication Critical patent/JP7227799B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】画像検索の精度を向上させること。【解決手段】画像検索装置1は、画像に含まれる複数のオブジェクトのオブジェクト名情報と、画像に含まれる複数のオブジェクト間の所定の関係性を示す関係名称情報とを含む検索用データを算出する特徴抽出部122と、検索用データを画像に対応付けて記憶する記憶部と、オブジェクト名情報または関係名称情報のうち少なくともいずれか一方を検索クエリとして入力を受け付ける入力部120と、検索クエリに基づいて記憶部を検索し、検索クエリに対応する所定の画像を抽出する検索部121と、検索結果を出力する出力部125と、を備える。【選択図】図1

Description

本発明は、画像検索装置、画像検索方法およびコンピュータプログラムに関するものである。
従来、コンピュータを使用してユーザの求める画像を検索する画像検索装置は、入力されたキーワードに基づいて画像を検索する。画像検索装置は、サーバに保存される複数の画像にそれぞれ紐づけられるキーワードと、ユーザが入力したキーワードと、を比較して、検索結果をユーザに提示する。
特許文献1の技術では、設定されたキーワードに関連するサムネイル画像を複数枚表示させる。この場合において、サーバコンピュータは、キーワードごとのサムネイル画像の表示枚数に、キーワードごとの検出率を反映する。キーワードごとの検出率は、画像検索する際に、ユーザによって入力される。これにより、ユーザが考える各キーワードに対する重要度を検索に反映させることが可能なサーバコンピュータが、開示されている。
特開2013−003727号公報
特許文献1では、Webページに記載されているテキストと、入力されたキーワードと、に基づいて画像検索する。しかしながら、Webページに記載されているテキストが人の主観で設定されたものである為、特許文献1の技術では、人の認識外の情報に基づいて検索することができない。
さらに、キーワードによって示される複数のオブジェクト同士の関連性が各画像に設定されていない為、特許文献1では、画像に示される複数のオブジェクト間の関連性を含めて検索することができない。
そこで本発明は、上記の課題を解決する為になされたものであり、画像検索の精度を向上させることが可能な画像検索装置、画像検索方法およびコンピュータプログラムの提供を目的とする。
画像検索装置は、画像に含まれる複数のオブジェクトのオブジェクト名情報と、画像に含まれる複数のオブジェクト間の所定の関係性を示す関係名称情報とを含む検索用データを算出する特徴抽出部と、検索用データを画像に対応付けて記憶する記憶部と、オブジェクト名情報または関係名称情報のうち少なくともいずれか一方を検索クエリとして入力を受け付ける入力部と、検索クエリに基づいて記憶部を検索し、検索クエリに対応する所定の画像を抽出する検索部と、検索結果を出力する出力部と、を備える。
本発明によると、画像検索の精度を向上させることができる。
第1実施例に係る画像検索装置の概略図。 画像検索装置のハードウェア構成図。 検索クエリ入力部の説明図。 オブジェクト名情報の説明図。 関連名称情報の説明図。 検索用データの説明図。 検索結果出力部の説明図。 検索部の処理の流れ図。 特徴抽出部の処理の流れ図。 A領域の拡大図。 オブジェクトを強調表示する検索結果出力部の説明図。 第2実施例に係る画像検索装置の概略図。 学習処理の流れ図。 第3実施例に係る画像検索装置の概略図。 検索クエリ入力部の説明図。 画像検索処理の流れ図。 第4実施例に係る画像検索装置の概略図。 検索クエリ入力部の説明図。 画像検索処理の流れ図。 第5実施例に係るオブジェクト名情報の説明図。 第6実施例に係る駅の概略図。 オブジェクト名情報の説明図。 第7実施例に係る画像検索装置のハードウェア構成図。 第8実施例に係る画像検索システムのハードウェア構成図。
以下、本実施形態を添付図面に基づいて説明するが、当該図面に記載の構成に限定されない。本実施形態は、画像を検索する画像検索装置に関するものである。本実施形態の画像検索装置1は、例えば、空港、駅、港、百貨店、ホテル、イベント会場などの各種施設において入場者を監視する監視システムに用いることができる。本実施形態の画像検索装置1は、ウェブ上での通常の画像検索エンジンとは異なり、一つの画像に含まれる複数のオブジェクトと各オブジェクト間の関係性(物理的関係性)とを自動的に算出して保存する。これにより、本実施形態によれば、記憶部に蓄積された画像の中から検索目的に関連する画像を精度よく抽出できるとともに、使い勝手が向上する。
本実施形態に係る画像検索装置1が適用される監視システムは、通常、何かテーマまたはモチーフを決めて特定の被写体を意図的に撮影するのではなく、特定の監視対象領域を淡々と撮影する。したがって、監視の結果取得された画像には、雑多な複数のオブジェクトが主従の関係なく写っている。本実施形態に係る画像検索装置1は、複数のオブジェクト間の画像上の位置に基づいて物理的関係性を決定し、画像に対応付けて保存する。
監視システムに限らず、複数のオブジェクトが写っている静止画像または動画像についても同様に、各オブジェクト間の物理的関係性を自動的に抽出して、その画像に対応付けて保存することができる。
ウェブサイトなどで提供されている画像検索サービスは、撮影者の意図に沿った説明文(例えば「入学式」「結婚式」など)が画像に対応付けられるか、あるいは、解析者による画像解析結果に沿った説明文(例えば「学生の登校風景」「海開きで賑わう浜辺」など)が画像に対応付けられるだけである。すなわち、ウェブ上で提供されている画像検索エンジンは、オブジェクト間の物理的関係性を考慮しておらず、その画像の検索に使用する語句または説明文も少数である。以下の説明に明らかなように、本実施形態に係る画像検索装置1は、ウェブ上の画像検索エンジンを含む従来技術と全く異なる点に留意すべきである。
図1は、画像検索装置1の概略図である。本実施例における画像検索装置1は、画像データ蓄積部123に保存される複数の画像の中から、ユーザの目的の画像(以下、所定の画像と示す場合がある)を検索する。
画像検索装置1は、「入力部」の一例としての検索クエリ入力部120と、検索部121と、特徴抽出部122と、画像データ蓄積部123と、特徴データ蓄積部124と、「出力部」の一例としての検索結果出力部125と、画像データ取得部126とを有する。
検索クエリ入力部120は、ユーザから検索クエリを受け付ける機能である。検索クエリは、オブジェクト名情報1242(図4参照)または関係名称情報1244(図5参照)のうち少なくともいずれか一方を含む。なお、「オブジェクト」は、図中において「物体」と示す場合がある。オブジェクト名情報1242は、画像に含まれる複数のオブジェクトを示す。関係名称情報1244は、複数のオブジェクトの間の関係性を示す。
検索クエリ入力部120は、例えば、出力装置11(以降、モニタ11と示す場合がある)に表示されたUI(User Interface)である。検索クエリ入力部120は、検索部121と単方向に通信可能に接続される。なお、検索クエリ入力部120は、図3にて後述する。
検索部121は、検索クエリに基づいて記憶部12(図2にて後述)を検索し、検索クエリに対応する所定の画像を抽出する機能である。検索部121は、画像データ蓄積部123、特徴データ蓄積部124および検索結果出力部125と単方向に通信可能に接続される。検索部121は、特徴抽出部122と双方向に通信可能に接続されてもよい。検索部121は、図8にて後述する。
特徴抽出部122は、画像から検索用データ(図4〜6参照)を算出する機能である。検索用データには、オブジェクト名情報1242および関係名称情報1244が含まれる。特徴抽出部122は、画像データ蓄積部123と単方向に通信可能に接続される。特徴抽出部122は、特徴データ蓄積部124と双方向に通信可能に接続される。特徴抽出部122は、図9にて後述する。
画像データ蓄積部123は、複数の画像を保存するデータベースである。画像データ蓄積部123は、画像データ取得部126と単方向に通信可能に接続される。特徴データ蓄積部124は、検索用データを保存するデータベースである。
検索結果出力部125は、検索結果を出力する機能である。検索結果出力部125は、例えば、モニタ11に検索結果を表示させる。なお、検索結果出力部125は、モニタ11に検索結果を表示することに限らず、通信インターフェース(図中、通信I/F(InterFace))16(図2参照)を介して外部端末に検索結果を出力してもよい。検索結果出力部125は、図7にて後述する。
画像データ取得部126は、画像データ蓄積部123に複数の画像データを保存する機能である。画像データ取得部126は、例えば、監視カメラ等によって撮影された動画データを取得し、動画のフレームごとの画像を画像データ蓄積部123に保存する。なお、画像データ取得部126は、監視カメラ等によって撮影された動画データに限らず、複数の画像データ(静止画像、動画像のいずれでもよい)をインターネット上等から取得してもよい。画像データ取得部126は、例えば、画像2を取得する。画像データ取得部126は、例えば、画像2を画像データ蓄積部123に保存する。
画像2は、例えば、監視カメラによって撮影された動画データの中の1フレームの画像である。画像2には、例えば、駅5構内が表示される。画像2には、例えば、入口51と、人21,25,29,33,37,40,と、が表示される。
人21は、子供である。人21は、服22および靴23を身に着け、鞄24を持つ。人25は、大人の女性である。人25は、スーツ26および靴27を身に着け、鞄28を持つ。人29は、大人の男性である。人29は、スーツ30および靴31を身に着け、飲み物32を持つ。人33は、大人の男性である。人33は、私服34および靴35を身に着け、鞄36を持つ。人37は、子供である。人37は、私服38および靴39を身に着ける。人40は、大人の女性である。人40は、私服41および靴42を身に着ける。そして、人33と人37とは手をつないで接触しており、同様に、人40と人37も手をつないで接触している。
図2は、画像検索装置1のハードウェア構成図である。画像検索装置1は、モニタ11(図中、出力部11)と、入力装置13と、記憶部12と、CPU14と、メモリ15と、通信インターフェース16と、各機能11〜16を双方向に通信可能に接続するデータ伝送路17と、を有する。
モニタ11は、例えば、パーソナルコンピュータに設けられるディスプレイまたは、携帯情報端末、携帯電話(いわゆるスマートフォン)、ウェアラブル端末に設けられるディスプレイ等である。入力装置13は、例えば、キーボードまたはマウス等である。なお、入力装置13は、マイクであってもよい。この場合には、検索クエリ入力部120は、音声によって入力されたデータを、検索クエリを示す文章データに変換する機能を有してもよい。さらに、入力装置13と出力装置11とをタブレットまたはAR(Augmented Reality)ディスプレイのように一体化させてもよい。
記憶部12は、例えば、ハードディスクまたはSSD(Solid State Drive)等の不揮発性記憶装置である。記憶媒体の種類は問わない。記憶部12は、検索クエリ入力部120と、検索部121と、特徴抽出部122と、検索結果出力部125と、画像データ取得部126と、のコンピュータプログラム(以下、プログラム)を記憶する。記憶部12は、画像データ蓄積部123および特徴データ蓄積部124といった、データベースも記憶する。
CPU14は、メモリ15を介して記憶部12から各プログラムを読み込んで実行する。メモリ15は、例えば、「RAM(Random Access Memory)」等の揮発性記憶装置である。
通信インターフェース16は、例えば、LAN(Local Area Network)、インターネット、SAN(Storage Area Network)などの通信ネットワークを介して外部装置と通信する装置である。
図3は、検索クエリ入力部120の説明図である。検索クエリ入力部120は、モニタ11に、複数のオブジェクト名入力欄1201(1),1201(2)と、関係名入力欄1202と、検索ボタン1203と、を表示させる。オブジェクト名入力欄1201(1),1201(2)は、特に区別しない場合には、オブジェクト名入力欄1201と示す場合がある。
オブジェクト名入力欄1201は、オブジェクト名情報1242を受け付ける機能である。オブジェクト名入力欄1201(1)には、例えば、「人」と入力される。オブジェクト名入力欄1201(2)には、例えば、「鞄」と入力される。
なお、オブジェクト名入力欄1201は、オブジェクト名情報1242を受け付ける機能に限らず、「オブジェクトID(IDentification)」1241(図4参照)を受け付ける機能を有してもよい。検索クエリ入力部120は、オブジェクト名入力欄1201(1),1201(2)を二つ表示させることに限らず、三つ以上のオブジェクト名入力欄1201をモニタ11に表示してもよい。
関係名入力欄1202は、関係名称情報1244を受け付ける機能である。関係名入力欄1202には、例えば、「持っている」と入力される。
なお、関係名入力欄1202には、関係名称情報1244を受け付ける機能に限らず、「関係性ID」1243(図5参照)を受け付ける機能を有してもよい。検索クエリ入力部120は、関係名入力欄1202を一つ表示させることに限らず、二つ以上の関係名称情報1244を表示させてもよい。
すなわち、ユーザは、「人」が「鞄」を「持っている」画像を検索する。検索ボタン1203は、画像検索を実行させるボタンである。
検索クエリ入力部120は、複数のオブジェクト名入力欄1201と、少なくとも一つの関係名入力欄1202と、をモニタ11のスクロール方向に並べて表示させる。モニタ11のスクロール方向は、例えば、モニタ11の上下方向(図中S方向)である。
すなわち、検索クエリ入力部120は、例えば、オブジェクト名入力欄1201(1)をモニタ11の上側に表示させる。検索クエリ入力部120は、例えば、オブジェクト名入力欄1201(2)を、オブジェクト名入力欄1201(1)から下方向に表示させる。検索クエリ入力部120は、例えば、関係名入力欄1202を、オブジェクト名入力欄1201(2)から下方向に表示させる。
これにより、携帯電話等に設けられる縦に長いモニタ11を使用する場合であっても、ユーザは、下方向にスクロールすることによって、複数のオブジェクト名入力欄1201と、少なくとも一つの関係名入力欄1202と、を表示させることができる。これにより、検索クエリ入力部120の操作性を向上させることができる。
オブジェクト名入力欄1201および関係名入力欄1202が受け付ける情報は、プルダウンメニューによって選択されてもよい。プルダウンメニューに表示される情報は、特徴データ蓄積部124に保存される情報が表示されてもよい。
図4は、オブジェクト名情報1242の説明図である。特徴データ蓄積部124には、「オブジェクトID」1241と、オブジェクト名情報1242と、が保存される。
「オブジェクトID」1241には、オブジェクト名情報1242を識別する情報が保存される。オブジェクト名情報1242には、画像に含まれるオブジェクトの名称が保存される。オブジェクト名情報1242には、例えば、「人」、「車」、「電車」、「鞄」または「ステッカー」等が保存される。
図5は、関係名称情報1244の説明図である。特徴データ蓄積部124には、「関係性ID」1243と、関係名称情報1244と、が保存される。
「関係性ID」1243には、関係名称情報1244を識別する情報が保存される。関係名称情報1244には、各オブジェクト間の関係性を示す情報が保存される。各オブジェクト間の関係性は、物理的関係性を示す。関係名称情報1244には、例えば、「持っている」、「乗っている」、「くっついている」、「触れている」または「ぶら下がっている」等が保存される。
図6は、検索用データの説明図である。特徴データ蓄積部124には、「画像ID」1245と、「組み合わせID」1246と、各オブジェクトの識別情報1241(1),1241(2)と、各オブジェクトの位置情報1247(1),1247(2)と、各オブジェクトの大きさの情報1248(1),1248(2)と、「関係性ID」1243と、が保存される。なお、図中において特徴データ蓄積部124には、一つの画像に対して二つのオブジェクトが含まれる検索用データが保存される場合を示すが、一つの画像に対して三つ以上のオブジェクトが含まれる検索用データが保存されてもよい。図中において、「関係性ID」1243、「画像ID」1245および「組み合わせID」1246は、文字が枠内に収まらない場合が考えられるため、符号を直接記載する。
「画像ID」1245には、画像を識別する情報が保存される。「画像ID」が「0」の画像には、例えば、画像2を示す。「組み合わせID」1246には、「オブジェクト1ID」1241(1)と、「オブジェクト2ID」1241(2)と、「関係性ID」1243と、の組み合わせを識別する情報が保存される。
「オブジェクト1ID」1241(1)および「オブジェクト2ID」1241(2)には、オブジェクトを識別する情報が保存される。「オブジェクト1ID」1241(1)と、「オブジェクト2ID」1241(2)とは、「オブジェクトID」1241(図4参照)に対応する。
オブジェクトの位置情報1247(1),1247(2)には、オブジェクトの位置情報が保存される。なお、位置情報は、例えば、画像端から画素数を数えることによって算出されてもよい。位置情報は、画像上のx座標及びy座標の二次元座標を用いて示されてもよい。なお、位置情報は、三次元座標を用いて示されてもよい。
オブジェクトの大きさの情報1248(1),1248(2)には、オブジェクトの大きさの情報が保存される。なお、大きさの情報は、例えば、画像上の画素数で算出されてもよい。大きさの情報は、各オブジェクトの重心から各オブジェクトの端部の長さによって算出されてもよい。オブジェクトの大きさは、画像上のオブジェクト体の幅w及び高さhを用いて示されてもよい。
図7は、検索結果出力部125の説明図である。検索結果出力部125は、モニタ11に、検索部121の検索した所定の画像を表示させる。検索結果出力部125は、例えば、所定の画像である画像2を表示する。
図8は、検索部121の処理の流れ図である。画像検索装置1が起動後、検索部121は、複数の画像データを画像データ蓄積部123から取得し、検索用データを特徴データ蓄積部124から取得する(S11)。検索部121は、検索クエリ入力部120の検索ボタン1203が押されることによって(S12:Yes)、画像検索処理(S13〜S15)を実行する。
なお、検索部121の処理を説明する場合において、図3に示す「人」、「鞄」および「持っている」を、検索クエリ入力部120に入力された場合を一例に挙げて説明する。
検索部121は、検索クエリ入力部120から、「人」および「鞄」を示すオブジェクト名情報1242と、「持っている」を示す関係名称情報1244と、を取得する(S13)。検索部121は、所定の画像を複数の画像の中から検索する(S14)。所定の画像は、例えば、「人」および「鞄」のオブジェクト名情報1242と、「持っている」の関係名称情報1244と、を含む検索用データを有する。
図6の検索用データに示すように、「組み合わせID」1246が「1」の場合には、「オブジェクト1ID」1241(1)は「0」を示し、「オブジェクト2ID」1241(2)は「3」を示し、「関係性ID」1243は、「0」を示す。「オブジェクトID」1241の「0」は、「人」を示す(図4参照)。「オブジェクトID」1241の「3」は、「鞄」を示す。「関係性ID」1243の「0」は、「持っている」を示す。
検索部121は、「画像ID」1245の「0」の画像が、「人」および「鞄」のオブジェクト名情報1242と、「持っている」の関係名称情報1244と、を含むと判定する。検索部121は、画像2を所定の画像として設定する。
検索部121は、画像2を検索結果出力部125へ送信する(S15)。検索部121は、画像2に含まれるオブジェクトの情報および、オブジェクト間の関係性の情報を検索結果出力部125に送信する。検索部121の処理は、検索を続行する場合(S16:No)には、処理(S12)に戻る。検索部121の処理は、検索を終了する場合(S16:Yes)には、終了する。
図9は、特徴抽出部122の処理の流れ図である。特徴抽出部122は、例えば、画像データ蓄積部123に新たに画像が追加された場合に実行される。なお、特徴抽出部122は、ユーザによって実行されてもよい。特徴抽出部122は、スケジューラ等に設定された所定周期で実行されてもよい。
特徴抽出部122は、画像データ蓄積部123から少なくとも一つの画像データを取得する(S21)。画像抽出部122は、例えば、画像データ蓄積部123に新しく追加された画像データを取得してもよい。画像抽出部122は、画像データ蓄積部123に保存される全ての画像データを取得してもよい。
特徴抽出部122は、オブジェクト名情報1242(図4参照)を算出する(S22)。特徴抽出部122は、処理(S22)にて算出したオブジェクト名情報1242を用いて、関係名称情報1244(図5参照)を算出する(S23)。
なお、特徴抽出部122の処理(S22,23)は、例えば、CNN(Convolutional Neural Network)を用いることによって、オブジェクト名情報1242および関係名称情報1244を算出する。特徴抽出部122は、オブジェクトの位置情報およびオブジェクトの大きさの情報を算出してもよい。特徴抽出部122の検索用データの算出式を以下の数式1に示す。
(o1,x1,y1,w1,h1,c1,o2,x2,y2,w2,h2,c2,r,cr)=φ(I;θ)・・・式(1)
数式1の右辺において、「φ」は、CNNの式を示す。「I」は、入力画像のデータを示す。「θ」は、CNNのパラメータを示す。パラメータ「θ」は、画像に示される複数のオブジェクトのデータおよび、画像に示される複数のオブジェクトの間の関連性のデータを算出する為に、特徴抽出部122に設定される。特徴抽出部122は、「I」および「θ」を用いて、「φ」の式によって検索用データを算出する。
数式1の左辺は、検索用データを示す。「o1」および「o2」は、各オブジェクトの名称1242を示す。「x1」、「x2」、「y1」および「y2」は各オブジェクトの位置1247を示す。「w1」、「w2」、「h1」および「h2」は、各オブジェクトの大きさ1248を示す。「c1」および「c2」は、各オブジェクトの推定の信頼度を示す。「r」は、関係名称情報1244を示す。「cr」は、関係名称情報1244の推定の信頼度を示す。なお、「o1」および「o2」を「o」と示すように、各オブジェクト間で特に区別しない場合には、略記して各検索用データを示す場合がある。
なお、特徴抽出部122は、各オブジェクト間の関係名称情報1244を算出することに限らず、各オブジェクトの状態を示す状態名称情報を算出してもよい。すなわち、特徴抽出部122は、例えば、人の表情等を読み取ることによって、「笑っている」等の状態名称情報を算出する。検索部は、状態名称情報に基づいて、画像検索をしてもよい。
特徴抽出部122は、各オブジェクト間の距離に基づいて関係名称情報1244を算出する。図10は、A領域の拡大図である。特徴抽出部122は、例えば、オブジェクトの重心の位置を、オブジェクトの位置情報(図中、ひし形のマークとして示す)として算出する。位置情報は、例えば、y座標および画像のx座標の二次元情報で示される。
特徴抽出部122は、人21の位置情報(x11,y11)を算出する。特徴抽出部122は、鞄23の位置情報(x12,y12)を算出する。特徴抽出部122は、人25の位置情報(x21,y21)を算出する。特徴抽出部122は、鞄26の位置情報(x22,y22)を算出する。
特徴抽出部122は、各位置情報間の距離を算出する。特徴抽出部122は、所定距離以内にある各オブジェクト同士を、関係性を有するオブジェクトとして判定する。すなわち、例えば、位置情報(x11,y11)および位置情報(x12,y12)の間の距離が所定距離以内であるため、特徴抽出部122は、人25および鞄26の間で関係名称情報1244を算出する。位置情報(x11,y11)および位置情報(x22,y22)の間の距離が所定距離よりも長いため、特徴抽出部122は、人25および鞄23の間の関係名称情報1244を算出しない。
なお、特徴抽出部122は、オブジェクトの重心の位置情報に基づいて各オブジェクトの距離を算出することに限らず、各オブジェクトの外形の最短距離によって各オブジェクトの距離を算出してもよい。各オブジェクトの位置情報は、二次元空間に限らず、三次元空間で位置情報を算出してもよい。
図9に戻り、特徴抽出部122は、算出した検索用データを特徴データ蓄積部124に送信する(S24)。特徴抽出部122は、処理(S24)の後に終了する。
検索部121は、検索ボタン1203が押される前に、画像データ蓄積部123および特徴データ蓄積部124から画像データおよび検索用データを取得することができる。これにより、検索部121は、画像検索(S13〜S15)の際に、画像データ蓄積部123と、特徴データ蓄積部124と、の通信頻度を抑制することができる。
なお、検索部121は、画像データおよび検索用データ取得処理(S11)を画像検索開始処理(S12:Yes)の後に実行してもよい。これにより、待機状態の場合において、検索部121は、メモリ15の使用量を抑制することができる。
特徴抽出部122は、画像検索開始処理(S12:Yes)の後に、画像データ蓄積部123の複数の画像から検索用データを算出してもよい。この場合において、検索部121は、検索用データを特徴抽出部122から取得してもよい。これにより、特徴データ蓄積部124に保存されるデータ容量を削減することができる。
ユーザは、一つのオブジェクトの情報と、一つの関連性の情報と、を検索クエリ入力部120に入力してもよい。この場合には、検索部121は、任意のオブジェクトのデータを特徴データ蓄積部124の中から選択する。検索部121は、検索クエリのオブジェクトと、選択した任意のオブジェクトと、の関連性のデータを取得する。検索部121は、取得した関連性のデータと、検索クエリの関連性のデータと、を比較することによって画像検索してもよい。
検索結果出力部125には、所定の画像に含まれる複数のオブジェクトが強調表示されてもよい。図11はオブジェクトを強調表示する検索結果出力部125の説明図である。
検索結果出力部125は、検索クエリに含まれる所定のオブジェクトと、検索クエリに含まれる所定の関係名称情報と、を表示させる。検索結果出力部125は、例えば、人21と、鞄22と、「持っている」1244(1)と、モニタ11に表示させる。
検索結果出力部125は、複数の所定のオブジェクトを離間してそれぞれ表示させる。検索結果出力部125は、表示される複数の所定のオブジェクト間に、所定の関係名称情報を表示させる。検索結果出力部125は、例えば、人21および鞄22を離間して表示させ、人21および鞄22の間に関連性を示すように「持っている」1244(1)を表示させる。
検索結果出力部125は、検索クエリに含まれない他の関係名称情報と、所定のオブジェクトと、他のオブジェクトと、の間の他の関係性表示させる。検索結果出力部125は、ステッカー43と、「くっついている」1244(2)とを、表示させる。
検索結果出力部125は、他のオブジェクトを、表示される所定のオブジェクトから離間して表示させる。検索結果出力部125は、他の関係名称情報を、表示される所定のオブジェクトと、表示される他のオブジェクトと、の間に表示させる。検索結果出力部125は、鞄22およびステッカー43を離間して表示させ、鞄22およびステッカー43の間に関連性を示すように「くっついている」1244(2)を表示させる。
検索結果出力部125は、所定のオブジェクトと、所定の関係名称情報と、他のオブジェクトと、他の関係名称情報と、を画面のスクロール方向に並べて表示させる。検索結果出力部125は、例えば、モニタ11のスクロール方向(S方向)において、人21の下方向に人25を表示し、鞄22の下方向に鞄28を表示し、「持っている」1244(1)の下方向に「持っている」1244(3)を表示させる。
検索結果出力部125は、検索クエリを表示させてもよい。検索クエリを表示することによって、ユーザが入力した情報を確認することができる。
検索結果出力部125は、図7,11で示すレイアウトに限らず、視認性を向上させるために他の表示方法を採用してもよい。検索結果出力部125は、オブジェクトの推定の信頼度「c」(数式1参照)に応じて、表示するオブジェクトの画像の大きさを設定してもよい。これにより、画像検索装置1は、検索結果の視認性を向上させることができる。
本実施例に示す画像検索装置1は、入力部120と、検索部121と、特徴抽出部122と、出力部125と、記憶部12と、を備えることによって、関係名称情報1244を使用して画像検索することができる。その結果、画像検索装置1は、画像検索の精度を向上させることができる。
関係名称情報1244は、各オブジェクト間の物理的関係性を示すため、特徴抽出部122が各オブジェクト間の位置情報に基づいて関係名称情報1244を算出することができる。
特徴抽出部122は、画像に含まれるオブジェクト名情報1242を算出することができる。これにより、特徴抽出部122は、人の認識から漏れるオブジェクト名情報1242も特徴データ蓄積部1244に保存することができる。その結果、ユーザが自らオブジェクト名情報を入力せずともよくなるため、使い勝手が向上する。
特徴抽出部122は、各オブジェクトの位置情報に基づいて、物理的関係性を有する各オブジェクト間の関係名称情報1244を算出する為、所定の距離以上のオブジェクト間の関係名称情報1244を算出することを抑制する。これにより、特徴抽出部122は、余分な関係名称情報1244を算出することを抑制することができる。
検索クエリ入力部120は、検索クエリが文字で入力される機能を有するため、画像検索装置1の使い勝手が向上する。
検索クエリ入力部120は、オブジェクト名入力欄1201と、関係名入力欄1202と、をモニタ11のスクロール方向に並べて表示する機能を有するため、モニタ11に収まりきらない欄を表示することができる。これにより、画像検索装置11の使い勝手が向上する。
検索結果出力部125は、複数の所定のオブジェクトを他のオブジェクトよりも強調して表示させる機能を有する。これにより、ユーザは、画像内に複数のオブジェクトが表示される場合であっても、所定のオブジェクトを容易に発見することができる。
検索結果出力部125は、所定の関係名称情報を表示させる機能を有する。これにより、ユーザは、どのオブジェクト同士が所定の関係性を有しているかを、容易に把握することができる。
検索結果出力部125は、他のオブジェクトと、他の関係名称情報と、を表示させる機能を有する。これにより、ユーザは、他のオブジェクトと、他の関係名称情報と、を把握することができる。
検索結果出力部125は、複数の所定のオブジェクトを離間してそれぞれ表示させる機能と、表示される複数の所定のオブジェクト間に、所定の関係名称情報を表示させる機能と、他のオブジェクトを表示される所定のオブジェクトから離間して表示させる機能と、他の関係名称情報を、表示される所定のオブジェクトおよび、表示される他のオブジェクト、の間に表示させる機能と、所定のオブジェクト、所定の関係名称情報、他のオブジェクトおよび、他の関係名称情報、画面のスクロール方向に並べて表示させる機能と、を有する。これにより、検索結果出力部125は、検索結果の視認性を向上させることができる。
本実施例は、第1実施例の変形例に相当するため、第1実施例との相違を中心に説明する。図12は、画像検索装置1aの概略図である。本実施例における画像検索装置1aは、学習部127によって、特徴抽出部122aに設定されるパラメータを学習する。
画像検索装置1aは、検索クエリ入力部120aと、検索部121と、特徴抽出部122aと、画像データ蓄積部123aと、特徴データ蓄積部124aと、検索結果出力部125aと、画像データ取得部126と、学習部127と、を有する。検索クエリ入力部120aは、ユーザから検索クエリを受け付ける機能である。検索クエリ入力部120aは、例えば、モニタ11に表示されたUIである。検索クエリ入力部120aは、検索部121および学習部127と単方向に通信可能に接続される。
特徴抽出部122aは、画像から検索用データを算出する機能である。特徴抽出部122aは、画像データ蓄積部123aと単方向に通信可能に接続される。特徴抽出部122aは、特徴データ蓄積部124aおよび学習部127と双方向に通信可能に接続される。特徴抽出部122aは、検索部121と双方向に通信可能に接続されてもよい。
画像データ蓄積部123aは、複数の画像を保存するデータベースである。画像データ蓄積部123aには、学習部127で使用される学習用画像が保存される。特徴データ蓄積部124aは、画像ごとの検索用データを保存するデータベースである。特徴データ蓄積部124aには、学習用画像に含まれる検索用データを示す教師データが保存される。
学習部127は、パラメータ「θ」を学習する機能である。学習部127は、画像データ蓄積部123、特徴データ蓄積部124aおよび検索結果出力部125aと単方向に通信可能に接続される。なお、学習処理は、図13にて後述する。
検索結果出力部125aは、検索部121の検索結果をユーザへ出力する機能である。検索結果出力部125aは、例えば、モニタ11に表示されるUIである。検索結果出力部125aは、学習部127の学習結果を出力してもよい。
図13は、学習処理の流れ図である。学習処理は、学習部127の処理(S30,S31,S36,S37)と、特徴抽出部122aの処理(S32〜S35,S38)と、にて実行される。学習処理は、ユーザからの操作に限らず、所定周期で実行されてもよい。
学習部127は、学習用画像のデータを画像データ蓄積部123から複数取得する(S30)。学習部127は、複数の学習用画像それぞれに対応する教師データを特徴データ蓄積部124aから取得する(S31)。
特徴抽出部122aは、パラメータ「θ」を初期化する(S32)。特徴抽出部122aがCNNで構成されている場合には、特徴抽出部122aは、例えば、ガウス分布や一様分布からランダムに値を抽出することよって、パラメータ「θ」を初期化する。学習部127は、複数の学習用画像のデータを特徴抽出部122aに送信する(S33)。
特徴抽出部122aは、学習用画像から検索用データを算出する(S34)。すなわち、学習部127は、学習用画像に示される複数のオブジェクトのデータおよび、学習用画像に示される複数のオブジェクトの間の関連性のデータを、学習前のデータとして特徴抽出部122に算出させる。特徴抽出部122aは、学習用画像ごとに算出した複数の検索用データを学習部127に送信する(S35)。
学習部127は、教師データと、特徴抽出部122aが算出した学習前の検索用データと、に基づいてパラメータの更新値を算出する(S36)。学習部127は、例えば、特徴抽出部122aから受信した複数の検索用データと、特徴データ蓄積部124から受信した複数の教師データと、を学習用画像ごとに対応させる。学習部127は、検索用データと、教師データと、の誤差を算出する。学習部127は、算出した誤差に基づいて、複数のパラメータの更新値を計算する。
学習部127は、例えば、二乗誤差の計算方法を用いることによって、各オブジェクトの位置「x」,「y」および各オブジェクトの大きさ「w」,「h」(数式1参照)の誤差を算出する。学習部127は、例えば、「Softmax cross entropy」を用いることによって、推定の信頼度「c」,「cr」の誤差を算出する。学習部127は、例えば、誤差逆伝播法を用いることによって、算出した各誤差の値からパラメータの更新値を算出する。
学習部127は、パラメータの更新値を特徴抽出部122aに送信する(S37)。特徴抽出部122aは、パラメータの値を更新する(S38)。特徴抽出部122aは、例えば、確率的勾配降下法を用いることによって、パラメータを更新する。
学習部127は、学習を継続するか終了するかを決定する(S39)。学習を続行する場合(S39:No)には、学習部127の処理は、処理(S33)に移動する。学習を終了する場合(S39:Yes)には、学習部127の処理は、終了する。
なお、学習部127の終了処理は、ユーザによって操作されてもよい。学習部127は、更新後のパラメータにて算出された検索用データおよび教師データの誤差と、更新前のパラメータにて算出された検索用データおよび教師データの誤差と、の差分を監視することによって、学習を続行させるかどうかを判断してもよい。
なお、検索開始処理(S12:Yes)(図8参照)が実行された場合には、特徴抽出部122aは、画像データ蓄積部123から複数の画像を取得し、検索用データを算出してもよい。これにより、検索部121は、パラメータが更新された特徴抽出部122aによって算出された検索用データに基づいて画像検索することができる。
このように構成される本実施例では、第1の実施例と同様の作用効果を奏する。さらに、本実施例によれば、画像検索装置1aは、学習部127を備える為、特徴抽出部122aのパラメータを更新することができる。これにより、特徴抽出部122aは、検索用データを算出する精度を向上させることができる。その結果、画像検索装置1aは、画像検索の精度を向上させることができる。
本実施例は、第1実施例および第2実施例の変形例に相当するため、第1実施例および第2実施例との相違を中心に説明する。図14は、画像検索装置1bの概略図である。本実施例における画像検索装置1bは、入力画像に基づいて、所定の画像を検索する。
画像検索装置1bは、検索クエリ入力部120bと、検索部121bと、特徴抽出部122bと、画像データ蓄積部123aと、特徴データ蓄積部124aと、検索結果出力部125aと、画像データ取得部126と、学習部127と、を有する。
検索クエリ入力部120bは、ユーザから入力画像を受け付ける機能である。入力画像には、所定の画像に含まれる複数のオブジェクトと同一または類似する複数のオブジェクトが表示される。検索クエリ入力部120bは、例えば、モニタ11に表示されたUIである。検索クエリ入力部120bは、検索部121bおよび学習部127と単方向に通信可能に接続される。検索クエリ入力部120bは、図15にて後述する。
特徴抽出部122bは、画像から検索用データを算出する機能である。特徴抽出部122bは、画像データ蓄積部123aと単方向に通信可能に接続される。特徴抽出部122bは、検索部121b、特徴データ蓄積部124bおよび学習部127と双方向に通信可能に接続される。
特徴抽出部122bは、入力画像のデータから検索クエリを算出する。検索部121bは、特徴抽出部122にて算出された検索クエリに基づいて記憶部12を検索し、検索クエリに対応する所定の画像を抽出する機能である。検索部121bは、画像データ蓄積部123a、特徴データ蓄積部124aおよび検索結果出力部125aと単方向に通信可能に接続される。検索部121bと特徴抽出部122bとの処理は、図16にて後述する。
図15は、検索クエリ入力部120bの説明図である。検索クエリ入力部120bは、画像入力欄1204と、検索ボタン1203と、が表示される。画像入力欄1204は、入力画像を入力する領域である。ユーザは、所定の画像に含まれるオブジェクトの画像を入力してもよい。ユーザは、所定の画像に含まれるオブジェクトに類似するオブジェクトの画像を入力してもよい。ユーザは、所定の画像に類似する画像を入力してもよい。
画像入力欄1204は、例えば、モニタ11の中央に表示される。ユーザは、1枚の画像を入力することに限らず、複数の画像を入力してもよい。この場合には、画像入力欄1204は、例えば、モニタ11のスクロール方向に並べて複数表示されてもよい。
図16は、画像検索処理の流れ図である。画像検索処理は、検索ボタン1203をユーザが押すことによって実行されてもよい。検索部121bは、検索クエリ入力部120bから入力画像のデータを取得(S41)する。検索部121bは、特徴抽出部122bへ入力画像のデータを送信する(S42)。
特徴抽出部122bは、入力画像から検索クエリを算出する(S43)。特徴抽出部122bは、検索部121bに検索クエリを送信する(S44)。
検索部121bは、特徴抽出部122bから取得した入力画像の検索クエリと、特徴データ蓄積部124に保存される複数の画像の検索用データとを比較することによって、複数の画像の中から所定の画像を検索する(S45)。検索部121bは、所定の画像を検索結果出力部125aへ送信する(S46)。
なお、画像検索装置1bは、入力画像と複数の画像との類似度に基づいて所定の画像を検索してもよい。この場合において、特徴抽出部122bは、例えば、CNNを用いることによって、画像から特徴ベクトルを算出する。
特徴ベクトルは、例えば、画像に示される特徴を示すm次元(mは所定の定数)のデータ群である。特徴ベクトルには、画像に含まれる複数のオブジェクトの特徴と、前記画像に含まれる複数のオブジェクト間の関係性の特徴と、が含まれる。特徴抽出部122bは、オブジェクトの色の特徴およびオブジェクトの模様の特徴等を特徴ベクトルとして算出してもよい。
特徴抽出部122bは、入力画像から算出した特徴ベクトルおよび、記憶部12に保存される画像から算出した特徴ベクトル、に基づいて、入力画像に対する類似度を記憶部12に保存される画像ごとに複数算出する。検索部121bは、複数の類似度に基づいて記憶部12を検索し、所定の画像を抽出する。
なお、特徴抽出部122bは、CNNの「Activation map」を用いて画像からオブジェクトが表示される領域の情報を算出してもよい。特徴抽出部122bは、算出した領域の特徴ベクトルを算出することによって、入力画像および複数の画像に示される同一のオブジェクトに関する類似度を向上させることができる。
特徴抽出部122bは、例えば、入力画像の特徴ベクトルと、複数の画像の特徴ベクトルと、の類似度を、ユークリッド距離を用いて計算してもよい。すなわち、m種類の特徴を軸としたm次元において、入力画像の特徴ベクトルと、複数の画像の特徴ベクトルと、の距離を測ることによって、特徴抽出部122bは、類似度を算出する。
学習部127は、特徴抽出部122bに画像の特徴ベクトルを算出するパラメータを設定してもよい。学習部127は、複数の画像を色補正して特徴ベクトルを算出する処理を特徴抽出部122bに学習させてもよい。これにより、検索部121bは、色補正なしで算出した類似度よりも高い類似度を算出することができる。
検索結果出力部125bは、類似度に基づいて所定の画像を出力してもよい。検索結果出力部125bは、例えば、類似度の高い方から順番に複数の所定の画像を並べてモニタ11に表示させてもよい。これにより、画像検索装置1bは、視認性を向上させることができる。
このように構成される本実施例では、第1,2実施例と同様の作用効果を奏する。さらに、本実施例によれば、画像検索装置1bは、検索クエリ入力部120bと、入力画像から検索クエリを算出する特徴抽出部122bと、を備える為、入力画像に類似する画像を検索することができる。これにより、ユーザは、入力画像を入力する事によって画像検索することができる。
さらに、特徴抽出部122bは、画像の特徴ベクトルを算出する機能と、入力画像および画像データ記憶部123aに保存される画像の間の類似度を記憶部に保存される画像ごとに複数算出する機能と、を有する。検索部は、複数の類似度に基づいて記憶部を検索し、所定の画像を抽出する機能を有する。これにより、画像検索装置1bは、入力画像と、画像データ蓄積部123aと、の間の類似度に基づいて画像検索することができる。
本実施例は、第1実施例〜第3実施例の変形例に相当するため、第1実施例〜第3実施例との相違を中心に説明する。図17は、画像検索装置1cの概略図である。本実施例における画像検索装置1cは、入力された検索クエリによって画像検索し、入力画像に基づいて、検索結果の複数の所定の画像を並び変えて表示させる。
画像検索装置1cは、検索クエリ入力部120cと、検索部121cと、特徴抽出部122cと、画像データ蓄積部123aと、特徴データ蓄積部124aと、検索結果出力部125aと、画像データ取得部126と、学習部127と、を有する。
検索クエリ入力部120cは、ユーザから検索クエリおよび入力画像を受け付ける機能である。検索クエリ入力部120cは、検索クエリを文字で受け付ける。検索クエリ入力部120cは、例えば、モニタ11に表示されたUIである。検索クエリ入力部120cは、検索部121cおよび学習部127と単方向に通信可能に接続される。検索クエリ入力部120cは、図18にて後述する。
特徴抽出部122cは、画像から検索用データを算出する機能と、画像のデータから特徴ベクトルを算出する機能と、である。特徴抽出部122cは、画像データ蓄積部123cと単方向に通信可能に接続される。特徴抽出部122cは、検索部121c、特徴データ蓄積部124aおよび学習部127と双方向に通信可能に接続される。
検索部121cは、検索クエリに基づいて記憶部12を検索し、検索クエリに対応する所定の画像を抽出する機能である。検索部121cは、画像データ蓄積部123a、特徴データ蓄積部124aおよび検索結果出力部125aと単方向に通信可能に接続される。検索部121bおよび特徴抽出部122bの処理は、図19にて後述する。
図18は、検索クエリ入力部120cの説明図である。検索クエリ入力部120cは、オブジェクト名入力欄1201と、関係名入力欄1202と、検索ボタン1203と、画像入力欄1204と、をモニタ11に表示させる。オブジェクト名入力欄1201および関係名入力欄1202には、例えば、「人」および「鞄」を示すオブジェクト名情報1242と、「持っている」を示す関係名称情報1244dと、が入力される。
図19は、画像検索処理の流れ図である。検索部121cは、検索クエリ入力部120cから入力画像と検索クエリとを取得する(S51)。検索部121cは、複数の画像から少なくとも一つの所定の画像を検索する(S52)。検索部121cは、例えば、第1実施例における検索処理(S12〜S15)(図8参照)と同様にして、複数の画像の中から複数の所定の画像を検索する。
特徴抽出部122cは、検索部121cから、入力画像のデータと、複数の所定の画像のデータと、を取得する。特徴抽出部121cは、入力画像に含まれる特徴ベクトルを算出する。特徴抽出部121cは、所定の画像に含まれる特徴ベクトルを算出する。特徴抽出部121cは、算出した特徴ベクトルに基づいて、入力画像に対しての類似度を所定の画像ごとに算出する(S53)。
特徴抽出部122cは、検索部121cに複数の類似度のデータを送信する(S54)。検索部121cは、検索結果出力部125cに、複数の所定の画像のデータと、所定の画像に設定される類似度のデータと、を送信する。検索結果出力部125cは、類似度に基づいて、複数の所定の画像をモニタ11に表示させる(S55)。たとえば、検索結果出力部125cは、複数の所定の画像のうち類似度が上位に位置する画像を、他の画像よりも優先してモニタに表示する。
このように構成される本実施例では、第1〜第3の実施例と同様の作用効果を奏する。さらに、本実施例によれば、画像検索装置1cは、検索クエリ入力部120cと、検索部121cと、を有する事によって、検索クエリにて検索した画像を並び替えて表示することができる。画像検索装置1cは、検索部121cで検索した画像を、入力画像との類似度に基づいて表示することができる。これにより、画像検索装置は、検索結果の視認性を向上させることができる。
本実施例は、第1実施例〜第4実施例の変形例に相当するため、第1実施例〜第4実施例との相違を中心に説明する。図20は、オブジェクトの情報の説明図である。本実施例における画像検索装置は、入力された上位キーワード1258から下位キーワード1259を算出し、下位キーワード1259に基づいて画像検索する。検索部121dは、上位キーワード1258から複数の下位キーワード1259を算出する処理を有する。
上位キーワード1258は、所定の画像の特徴を示すキーワードである。上位キーワード1258は、ユーザによって検索クエリ入力部に入力される。下位キーワード1259は、上位キーワード1258を構成するオブジェクトの名称である。なお、下位キーワードは、所定の画像に含まれるオブジェクトの性質を示してもよい。下位キーワード1259は、上位キーワード1258の性質を示してもよい。
ユーザが、例えば、「女性社員」を検索クエリ入力部へ入力する。検索部121dは、「女性社員」を示すデータを入力部から取得する。
検索部121dは、「女性社員」に対応する複数の下位キーワード1259を算出する。検索部121dは、例えば、「女性」、「スーツ」、「パンプス」または「靴」等を示すデータを算出する。なお、検索部121dは、画像検索履歴に基づいて上位キーワード1258から下位キーワード1259を推定してもよい。
検索部121dは、特徴データ蓄積部に保存される検索用データと、「女性社員」に対応する複数の下位キーワード1259と、を比較して所定の画像を少なくとも一つ検索する。検索部は、検索結果出力部に所定の画像のデータを送信する。出力部は、所定の画像を表示する。
本実施例に示す画像検索装置は、一つの上位キーワード1258をユーザが入力した場合でも、複数の下位キーワード1259を用いて画像検索することができる。これにより、画像検索装置は、画像検索の精度が向上する。
本実施例は、第1実施例〜第4実施例の変形例に相当するため、第1実施例〜第4実施例との相違を中心に説明する。本実施例における画像検索装置は、動画に映る複数のオブジェクトの時間経過による変化に基づいて画像検索する。以下、本実施例の画像検索装置を駅5の中を移動する人25,29を一例に挙げながら説明する。
図21は、駅5の概略図である。駅5には、例えば、入口51と、券売機52と、改札口53と、が設けられる。駅5内を移動する人25,29は、監視カメラ等の動画を撮影する機器によって撮影される。
人25は、例えば、入口51から券売機52へ向かい、券売機52で切符を購入し、改札口53へ向かう。人29は、改札口53から出た後、入口51へ向かう。
図22(1)は、駅5構内を移動する人25,29の情報の説明図である。特徴データ蓄積部124eは、「特徴ID」1261と、特徴情報1262と、前時間特徴1263と、後時間特徴1264と、を有する。「特徴ID」1261には、人25,29の特徴情報1262を識別する情報が保存される。
特徴情報1262には、人25,29の特徴を示すデータが保存される。特徴情報1262には、例えば、「電車に乗る人」または「電車から降りた人」等が保存される。前時間特徴1263と、後時間特徴1264とは、人25,29の時間経過の状態を示す。すなわち、人25,29が「財布を持っている」状態から「券売機から改札へ向かう」状態に移る場合には、人25,29は、「電車に乗る人」の特徴を有する。
図22(2)は、前時間特徴1263の詳細を示す図である。前時間特徴1263は、「前特徴ID」12631と、第1オブジェクト12632と、第2オブジェクト12633と、関係性12634と、を有する。「前特徴ID」12631には、前時間特徴1263を識別する為の情報が保存される。
第1オブジェクト12632および第2オブジェクト12633には、オブジェクトの情報が保存される。第1オブジェクト12632には、例えば、「人」等が保存される。第2オブジェクト12633には、例えば、「財布」または「改札口」等が保存される。
関係性12634には、第1オブジェクト12632と、第2オブジェクト12633と、の関連性の情報が保存される。関係性12634には、例えば、「持っている」または「通過」等が保存される。
図22(3)は、後時間特徴1264の詳細を示す図である。後時間特徴1264は、「後特徴ID」12641と、第1オブジェクト12642と、第2オブジェクト12643と、関連性12644と、を有する。「後特徴ID」12641には、後時間特徴1264を識別する為の情報が保存される。
第1オブジェクト12642および第2オブジェクト12643には、オブジェクトの情報が保存される。第1オブジェクト12642には、例えば、「人」等が保存される。第2オブジェクト12643には、例えば、「切符」または「入口」等が保存される。関連性12644には、第1オブジェクト12642と、第2オブジェクト12643と、の関連性が保存される。関連性12644には、例えば、「持っている」または「通過」等が保存される。
ユーザは、例えば、「電車に乗る人」と入力部に入力する。検索部は、「電車に乗る人」を示すデータを入力部から取得する。検索部は、駅5を撮影する動画の中に、「財布を持っている」状態から「券売機から改札へ向かう」状態に移る人25,29を検索する。
位置情報291において、検索部は、人25が「財布」を「持っている」状態であると認識する。位置情報292において、検索部は、人25が「切符」を「持っている」状態であると認識する。人25が位置情報291から位置情報292に移動する為、検索部は、人25を「電車に乗る人」と判定する。
検索部は、人25の映る所定の画像を所定の画像として、画像データ蓄積部に保存される動画データから抽出する。検索部は、所定の画像を出力部へ送信する。検索結果出力部は、所定の画像をモニタへ表示する。
本実施例に示す画像検索装置は、時間によって変動するオブジェクトまたはオブジェクト間の関連性に基づいて所定の画像を検索することができる。
本実施例は、第1実施例〜第4実施例の変形例に相当するため、第1実施例〜第4実施例との相違を中心に説明する。本実施例における画像検索装置1fは、複数のユーザによって画像検索され、ユーザごとに隔離した画像データ蓄積部123を有する。図23は、画像検索装置1fのハードウェア構成図である。画像検索装置1fには、ネットワーク7を介して、複数の端末6(1)〜6(n)(nは任意の整数)が接続される。端末6(1)〜6(n)は、特に区別しない場合には、端末6と示す場合がある。
画像検索装置1fは、記憶部12fと、CPU14と、メモリ15と、通信インターフェース16と、データ伝送路17と、有する。記憶部12fには、検索部121と、特徴抽出部122と、画像データ取得部126と、端末データベース128(1)〜128(n)と、を有する。端末データベース128(1)〜128(n)は、特に区別しない場合には、端末データベース128と示す場合がある。画像検索装置1fは、いわゆるクラウドとして知られているように、ネットワーク上に設けられた一つまたは複数のコンピュータ上に設けることができる。
端末データベース128は、端末6ごとに画像データと検索用データとを記憶するデータベースである。端末データベース128ごとに保存されるデータが隔離されることによって、ユーザは、対応する端末6以外の他の端末6からのアクセスが制限される。例えば、端末データベース128(1)は、端末6(1)からアクセス可能であり、端末6(2)からのアクセスが制限される。端末データベース128は、画像データ蓄積部123(1)〜123(n)と、特徴データ蓄積部124(1)〜124(n)と、を有する。
端末6は、通信インターフェース(図中、通信I/Fと示す)61(1)〜61(n)と、検索クエリ入力部120と、検索結果出力部125と、を有するコンピュータである。通信インターフェース61(1)〜61(n)は、特に区別しない場合には、通信インターフェース61と示す場合がある。
通信インターフェース61は、例えば、LANの接続端子、SANの接続端子または無線通信の接続装置である。検索クエリ入力部120と、検索結果出力部125と、は、各端末6の記憶部に記憶される。
ユーザは、例えば、複数の端末6の内の端末6(1)を使用する。ユーザは、検索クエリ入力部125に検索クエリを入力する。端末6(1)は、通信インターフェース61(1)を介して検索クエリと端末(1)とを識別する情報を画像検索装置1fへ送信する。
画像検索装置1fは、取得した検索クエリに基づいて検索部121にて画像検索をする。検索部121は、端末(1)を識別する情報に基づいて、端末データベース128(1)を選択する。検索部121は、特徴データ蓄積部124(1)に保存される検索用データと、端末6(1)から取得した検索クエリと、に基づいて、画像データ蓄積部123(1)に保存される複数の画像の中から所定の画像を検索する。
画像検索装置1fは、通信インターフェース16を介して、所定の画像を端末6(1)に送信する。検索結果出力部125は、取得した所定の画像を検索結果出力部125によって出力する。
本実施例に示す画像検索装置1fは、複数の端末6で一台の画像検索装置1fを共有して使用することができる。これにより、複数のユーザが画像検索装置1fを使用することができる。
記憶部12に保存される画像データおよび検索用データが端末データベース128ごとに隔離されるため、画像検索装置1fは、異なる属性の複数のユーザによって使用されても、他のユーザに対してデータを隠蔽することができる。
本実施例は、第1実施例〜第4実施例の変形例に相当するため、第1実施例〜第4実施例との相違を中心に説明する。本実施例における画像検索システムは、ユーザが複数の監視カメラ9の動画データ中から画像検索をする機能を有する。図23は、画像検索システム8の説明図である。画像検索システム8は、画像検索装置81,82(1)〜82(n)を有する。「p」は、任意の定数である。画像検索装置82(1)〜82(p)は、特に区別しない場合には、画像検索装置82と示す場合がある。画像検索装置81がユーザごとにデータを追加学習させることによって、画像検索装置82は生成される。
各画像検索装置82は、ネットワーク7を介して、複数の端末6と、監視カメラ9(1)〜9(q)と、双方向に通信可能に接続される。「q」は、任意の定数である。監視カメラ9(1)〜9(q)は、特に区別しない場合には、監視カメラ9と示す場合がある。なお、監視カメラ9は、動画を撮影する他の機器でもよい。
ユーザは、端末6を操作することによって、監視カメラ9の撮影データの中から所定の画像を検索する。すなわち、ユーザは、例えば、端末6(1)を選択する。ユーザは、端末6(1)を操作して、各監視カメラ9の中から一つ選択する。ユーザは、例えば、監視カメラ9(1)を選択する。
ユーザは、画像検索装置82にて監視カメラ9(1)の撮影データの中から所定の画像を検索する。本実施例において、ユーザに対応する画像検索装置82は、例えば、画像検索装置82(1)である。画像検索装置82(1)は、監視カメラ9(1)から撮影データを取得することによって画像検索する。画像検索装置82(1)は、検索結果の画像を端末6(1)に送信する。端末6(1)は、検索結果の画像を出力する。
本実施例に示す画像検索システム8は、各端末6および各監視カメラ9とネットワーク7を介して接続されることによって、ユーザが各監視カメラの撮影データを利用して画像検索することができる。
なお、本発明は上述の実施形態に限定されず、様々な変形例が含まれる。上記実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることもできる。また、ある実施形態の構成に他の実施形態の構成を加えることもできる。また、各実施形態の構成の一部について、他の構成を追加・削除・置換することもできる。
上記各構成、機能、処理部、処理手段等は、それらの一部や全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスク、SSD(Solid State Drive)等の記録装置、ICカード、SDカード、DVD等の記録媒体に格納することができる。
また、上述した実施形態に含まれる技術的特徴は、特許請求の範囲に明示された組み合わせに限らず、適宜組み合わせることができる。
1…画像検索装置,2…画像,120…検索クエリ入力部,121…検索部,122…特徴抽出部,123…画像データ蓄積部,124…特徴データ蓄積部,125…検索結果出力部,126…画像データ取得部

Claims (15)

  1. 画像検索装置であって、
    画像に含まれる複数のオブジェクトのオブジェクト名情報と、前記画像に含まれる複数のオブジェクト間の所定の関係性を示す関係名称情報とを含む検索用データを算出する特徴抽出部と、
    前記検索用データを前記画像に対応付けて記憶する記憶部と、
    前記オブジェクト名情報または前記関係名称情報のうち少なくともいずれか一方を検索クエリとして入力を受け付ける入力部と、
    前記検索クエリに基づいて前記記憶部を検索し、前記検索クエリに対応する所定の画像を抽出する検索部と、
    検索結果を出力する出力部と、を備える
    画像検索装置。
  2. 前記所定の関係性は、前記各オブジェクト間の物理的関係性を示す
    請求項1に記載の画像検索装置。
  3. 前記特徴抽出部は、
    画像に含まれる前記複数のオブジェクトそれぞれの位置情報を算出する機能と、
    前記関係名称情報を前記位置情報に基づいて算出する機能と、を有する
    請求項1に記載の画像検索装置。
  4. 前記入力部は、前記検索クエリを文字で受け付ける機能を有する
    請求項1に記載の画像検索装置。
  5. 前記入力部は、
    前記オブジェクト名情報を受け付ける複数のオブジェクト名入力欄と、前記関係名称情報を受け付ける少なくとも一つの関係名入力欄と、を表示させる機能と、
    前記複数のオブジェクト名入力欄および前記少なくとも一つの関係名入力欄を、画面のスクロール方向に並べて表示させる機能と、を有する
    請求項4に記載の画像検索装置。
  6. 前記入力部は、複数のオブジェクトを含む入力画像を受け付ける機能を有し、
    前記特徴抽出部は、前記入力画像から検索クエリを算出する機能を有し、
    前記検索部は、前記入力画像から算出された検索クエリに対応する所定の画像を前記記憶部から抽出する機能を有する
    請求項1に記載の画像検索装置。
  7. さらに、前記特徴抽出部は、
    前記画像に含まれる複数のオブジェクトの特徴と、前記画像に含まれる複数のオブジェクト間の関係性の特徴と、を示す特徴ベクトルを算出する機能と、
    前記入力画像から算出した特徴ベクトルおよび、前記記憶部に保存される画像から算出した特徴ベクトル、に基づいて、前記入力画像に対する類似度を前記記憶部に保存される画像ごとに複数算出する機能と、を有し、
    前記検索部は、前記複数の類似度に基づいて前記記憶部を検索し、所定の画像を抽出する機能を有する
    請求項6に記載の画像検索装置。
  8. 前記入力部は、複数のオブジェクトを含む入力画像を受け付ける機能を有し、
    前記検索部は、前記文字で受け付けた検索クエリに対応する所定の画像を前記記憶部から複数抽出する機能を有し、
    前記特徴抽出部は、
    前記画像に含まれる複数のオブジェクトの特徴と、前記画像に含まれる複数のオブジェクト間の関係性の特徴と、を示す特徴ベクトルを算出する機能と、
    前記所定の画像から算出した特徴ベクトルおよび、前記入力画像から算出した特徴ベクトル、に基づいて、前記入力画像に対する類似度を前記所定の画像ごとに複数算出する機能と、を有し、
    さらに、前記出力部は、前記類似度に基づいて、前記所定の画像を出力する機能を有する
    請求項4に記載の画像検索装置。
  9. さらに、前記特徴抽出部は、前記画像から前記検索用データを算出する為のパラメータを有し、
    さらに、前記画像検索装置は、前記パラメータを学習する学習部を有し、
    さらに、前記記憶部には、
    前記学習部が学習する際に用いる学習用画像と、
    前記学習用画像に含まれる検索用データを示す教師データと、が記憶され、
    前記学習部は、
    前記学習用画像に含まれる検索用データを、パラメータ更新前の特徴抽出部に学習前データとして算出させる機能と、
    前記教師データおよび前記学習前データに基づいて、前記パラメータの更新値を学習する機能と、
    前記パラメータの更新値に基づいて、前記特徴抽出部の前記パラメータを更新する機能と、を有する
    請求項1に記載の画像検索装置。
  10. 前記検索クエリに含まれるオブジェクト名情報は、複数の所定のオブジェクトを示し、
    前記出力部は、前記所定の画像に含まれる前記所定のオブジェクトを他のオブジェクトよりも強調して表示させる機能を有する
    請求項1に記載の画像検索装置。
  11. 前記検索クエリに含まれる関係名称情報は、所定の関係名称情報を示し、
    さらに、前記出力部は、前記所定の関係名称情報を表示させる機能を有する
    請求項10に記載の画像検索装置。
  12. 他の関係名称情報は、前記所定のオブジェクトと、前記他のオブジェクトと、の間の関係性を示し、
    さらに、前記出力部は、前記他のオブジェクトと、前記他の関係名称情報と、を表示させる機能を有する
    請求項11に記載の画像検索装置。
  13. さらに、前記出力部は、
    前記複数の所定のオブジェクトを離間してそれぞれ表示させる機能と、
    前記表示される複数の所定のオブジェクト間に、前記所定の関係名称情報を表示させる機能と、
    前記他のオブジェクトを前記表示される所定のオブジェクトから離間して表示させる機能と、
    前記他の関係名称情報を、前記表示される所定のオブジェクトおよび、前記表示される他のオブジェクト、の間に表示させる機能と、
    前記所定のオブジェクト、前記所定の関係名称情報、前記他のオブジェクトおよび、前記他の関係名称情報、画面のスクロール方向に並べて表示させる機能と、を有する
    請求項12に記載の画像検索装置。
  14. 画像に含まれる複数のオブジェクトのオブジェクト名情報と、前記画像に含まれる複数のオブジェクト間の所定の関係性を示す関係名称情報とを含む検索用データを算出し、
    前記検索用データを画像に対応付けて記憶し、
    前記オブジェクト名情報または前記関係名称情報のうち少なくともいずれか一方が検索クエリとして入力され、
    前記検索クエリに基づいて記憶部を検索し、
    前記検索クエリに対応する所定の画像を抽出し、
    検索結果を出力する
    画像検索方法。
  15. コンピュータを、画像検索装置として機能させるためのコンピュータプログラムであって、
    前記コンピュータ上に、
    画像に含まれる複数のオブジェクトのオブジェクト名情報と、前記画像に含まれる複数のオブジェクト間の所定の関係性を示す関係名称情報とを含む検索用データを算出する特徴抽出部と、
    前記検索用データを画像に対応付けて記憶する記憶部と、
    前記オブジェクト名情報または前記関係名称情報のうち少なくともいずれか一方を検索クエリとして入力を受け付ける入力部と、
    前記検索クエリに基づいて前記記憶部を検索し、前記検索クエリに対応する所定の画像を抽出する検索部と、
    検索結果を出力する出力部と、をそれぞれ実現させるためのコンピュータプログラム。

JP2019046127A 2019-03-13 2019-03-13 画像検索装置、画像検索方法およびコンピュータプログラム Active JP7227799B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019046127A JP7227799B2 (ja) 2019-03-13 2019-03-13 画像検索装置、画像検索方法およびコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019046127A JP7227799B2 (ja) 2019-03-13 2019-03-13 画像検索装置、画像検索方法およびコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2020149337A true JP2020149337A (ja) 2020-09-17
JP7227799B2 JP7227799B2 (ja) 2023-02-22

Family

ID=72430766

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019046127A Active JP7227799B2 (ja) 2019-03-13 2019-03-13 画像検索装置、画像検索方法およびコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP7227799B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022180942A (ja) * 2021-05-25 2022-12-07 ソフトバンク株式会社 情報処理装置、情報処理方法及び情報処理プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04237377A (ja) * 1991-01-21 1992-08-25 Kokusai Denshin Denwa Co Ltd <Kdd> キーワードの配置および色属性を用いる画像検索方式
JPH05274356A (ja) * 1991-03-07 1993-10-22 Electron Maaketeingu:Kk オブジェクト検索システム
JPH1049542A (ja) * 1996-08-02 1998-02-20 Fuji Xerox Co Ltd 画像登録装置および方法
JP2005141776A (ja) * 2005-02-07 2005-06-02 Fuji Xerox Co Ltd 画像抽出装置および方法
JP2017076282A (ja) * 2015-10-15 2017-04-20 ヤフー株式会社 情報処理装置、情報処理方法および情報処理プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04237377A (ja) * 1991-01-21 1992-08-25 Kokusai Denshin Denwa Co Ltd <Kdd> キーワードの配置および色属性を用いる画像検索方式
JPH05274356A (ja) * 1991-03-07 1993-10-22 Electron Maaketeingu:Kk オブジェクト検索システム
JPH1049542A (ja) * 1996-08-02 1998-02-20 Fuji Xerox Co Ltd 画像登録装置および方法
JP2005141776A (ja) * 2005-02-07 2005-06-02 Fuji Xerox Co Ltd 画像抽出装置および方法
JP2017076282A (ja) * 2015-10-15 2017-04-20 ヤフー株式会社 情報処理装置、情報処理方法および情報処理プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022180942A (ja) * 2021-05-25 2022-12-07 ソフトバンク株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP7362075B2 (ja) 2021-05-25 2023-10-17 ソフトバンク株式会社 情報処理装置、情報処理方法及び情報処理プログラム

Also Published As

Publication number Publication date
JP7227799B2 (ja) 2023-02-22

Similar Documents

Publication Publication Date Title
US10846552B1 (en) Universal object recognition
US11294953B2 (en) Similar face retrieval method, device and storage medium
US10691946B2 (en) Information display method, device, and system
JP6397144B2 (ja) 画像からの事業発見
US10846327B2 (en) Visual attribute determination for content selection
CN104008317B (zh) 认证设备和认证方法
US9098888B1 (en) Collaborative text detection and recognition
US9076069B2 (en) Registering metadata apparatus
US20140169623A1 (en) Action recognition based on depth maps
JP5963609B2 (ja) 画像処理装置、画像処理方法
US8781235B2 (en) Object recognition apparatus, recognition method thereof, and non-transitory computer-readable storage medium
WO2014050281A1 (ja) 人物認証用辞書更新方法、人物認証用辞書更新装置、記録媒体及び人物認証システム
CN108304757A (zh) 身份识别方法及装置
JP2018148399A (ja) 情報処理システム、情報処理方法及びプログラム
US20160306870A1 (en) System and method for capture, classification and dimensioning of micro-expression temporal dynamic data into personal expression-relevant profile
CN106471440A (zh) 基于高效森林感测的眼睛跟踪
CN108875582A (zh) 身份验证方法、装置、设备、存储介质及程序
TW202125323A (zh) 利用人工智慧模組學習臉部辨識的處理方法
US9851784B2 (en) Movement line conversion and analysis system, method and program
KR101743169B1 (ko) 얼굴 정보를 이용한 실종 가족 찾기 시스템 및 방법 그리고 이를 구현하는 프로그램을 기록한 기록 매체
JP7227799B2 (ja) 画像検索装置、画像検索方法およびコンピュータプログラム
CN112989922A (zh) 基于人工智能的脸部识别方法、装置、设备和存储介质
JP6958795B1 (ja) 情報処理方法、コンピュータプログラム及び情報処理装置
WO2021164122A1 (zh) 智能化用户识别方法、装置及计算机可读存储介质
Chakraborty et al. Person reidentification using multiple egocentric views

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210415

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220412

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230210

R150 Certificate of patent or registration of utility model

Ref document number: 7227799

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150