JP2020140488A - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2020140488A
JP2020140488A JP2019036033A JP2019036033A JP2020140488A JP 2020140488 A JP2020140488 A JP 2020140488A JP 2019036033 A JP2019036033 A JP 2019036033A JP 2019036033 A JP2019036033 A JP 2019036033A JP 2020140488 A JP2020140488 A JP 2020140488A
Authority
JP
Japan
Prior art keywords
image
images
information processing
unit
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019036033A
Other languages
English (en)
Inventor
侑吾 西川
Yugo Nishikawa
侑吾 西川
拓也 生駒
Takuya Ikoma
拓也 生駒
昌希 内田
Masaki Uchida
昌希 内田
伊藤 直之
Naoyuki Ito
直之 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2019036033A priority Critical patent/JP2020140488A/ja
Publication of JP2020140488A publication Critical patent/JP2020140488A/ja
Priority to JP2023106533A priority patent/JP2023130409A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

【課題】対象物を含む画像を適切に抽出することが可能な情報処理装置等を提供すること。【解決手段】一つの側面に係る情報処理装置は、ネットワークを介して対象物に関連する画像を検索する検索部と、検索された各画像の特徴量を抽出する抽出部と、前記特徴量に基づき前記各画像を複数のクラスタに分類する分類部と、前記クラスタ夫々に分類された画像数に応じて、前記画像を抽出する画像抽出部とを備える。これにより、対象物を含む画像を適切に抽出することが可能となる。【選択図】図1

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。
画像認識技術に基づき、多数の画像から所望の画像を抽出する技術がある。例えば、特許文献1には、タブレット端末等の情報処理端末からインターネットを介してサーバにアクセスし、所望の写真を注文する写真注文システムが開示されている。当該写真注文システムでは、ユーザが予め特定人物を登録しておくことで、サーバから取得した複数の写真の中から特定人物が写っている写真が抽出され、ユーザ端末に表示される。
特開2013−161394号公報
しかしながら、特許文献1に係る発明は、特定人物と特徴が類似する人物の写真も抽出されてしまう恐れがある。
一つの側面では、対象物を含む画像を適切に抽出することが可能な情報処理装置等を提供することにある。
一つの側面に係る情報処理装置は、ネットワークを介して対象物に関連する画像を検索する検索部と、検索された各画像の特徴量を抽出する抽出部と、前記特徴量に基づき前記各画像を複数のクラスタに分類する分類部と、前記クラスタ夫々に分類された画像数に応じて、前記画像を抽出する画像抽出部とを備えることを特徴とする。
一つの側面では、対象物を含む画像を適切に抽出することが可能となる。
画像抽出システムの概要を示す説明図である。 サーバの構成例を示すブロック図である。 検索履歴DBのレコードレイアウトの一例を示す説明図である。 抽出画像DBのレコードレイアウトの一例を示す説明図である。 画像特徴量を抽出する動作を説明する説明図である。 画像特徴量に基づくクラスタリング処理を示す説明図である。 画像特徴量に基づくクラスタ分類により所望画像を抽出する際の処理手順を示すフローチャートである。 実施形態2のサーバの構成例を示すブロック図である。 頻度集計DBのレコードレイアウトの一例を示す説明図である。 各種類の物体の出現頻度に応じて所望画像を抽出する動作を説明する説明図である。 各種類の物体の出現頻度に応じて所望画像を抽出する際の処理手順を示すフローチャートである。 実施形態3のサーバの構成例を示すブロック図である。 類語辞書のレコードレイアウトの一例を示す説明図である。 類語を用いて所望画像を抽出する際の処理手順を示すフローチャートである。 上述した形態のサーバの動作を示す機能ブロック図である。
以下、本発明をその実施形態を示す図面に基づいて詳述する。
(実施形態1)
実施形態1は、多数の画像から画像特徴量に基づくクラスタ分類により所望画像を抽出する形態に関する。図1は、画像抽出システムの概要を示す説明図である。本実施形態のシステムは、情報処理装置1及び情報共有サーバ2を含み、各装置はインターネット等のネットワークNを介して情報の送受信を行う。
情報処理装置1は、種々の情報に対する処理、記憶及び送受信を行う情報処理装置である。情報処理装置1は、例えばサーバ装置、パーソナルコンピュータ等である。本実施形態において、情報処理装置1はサーバ装置であるものとし、以下では簡潔のためサーバ1と読み替える。
情報共有サーバ2は、SNS(Social Networking Service:ソーシャル・ネットワーク・サービス)を管理するサーバ装置、またはウェブ検索エンジンとして機能するサーバ装置である。なお、本実施形態において、情報共有サーバ2はSNSを管理するサーバ装置であるものとし、以下では簡潔のためSNSサーバ2と読み替える。SNSサーバ2は、ユーザの登録・管理、ユーザが投稿したテキスト情報または画像の管理等、種々の情報に対する処理、記憶及び送受信を行う情報処理装置である。
本実施形態に係るサーバ1は、不特定多数の人物がネットワークNを介してSNSサーバ2にアップロードした各投稿記事に含まれる画像から、ある対象物が被写体として含まれる画像を収集する。例えばマーケティングへの応用を想定して、サーバ1は、商品名(対象物の名称)を検索クエリとして検索を行い、ある商品が撮像された画像を収集する。
一方で、商品名を検索クエリとした画像検索を行った場合であっても、商品名と同表記の異義語や検索テキストを含む商品に関係ない被写体の画像が検索される恐れがある。この場合、例えばディープラーニング、パターンマッチング等による画像認識を行い、画像から対象商品を認識して所望の画像を抽出することが考えられる。
しかし、SNSから収集する画像群から特定の対象物(個体)のみを認識して抽出することには困難が伴う。例えば不特定多数の画像群から特定の「犬」の画像を抽出する場合、犬らしい被写体を含む画像を抽出することは容易であっても、その中から特定の犬(個体)の画像を抽出することは容易ではない。この場合、例えば該当する犬のみの特徴をディープラーニング等で学習したモデルや、あるいは該当する犬を認識するためのパターンマッチングのモデル(ルール)を事前に用意しなければならず、困難が伴う。
そこで本実施形態では、SNSから検索した画像群のクラスタリングを行い、クラスタリング結果から、対象商品が含まれるものと推定される画像を推定して抽出する。具体的には、サーバ1は、後述するように機械学習によって構築したモデルを用いて各画像の特徴量を抽出し、抽出した特徴量を複数のクラスタに分割する。なお、特徴量抽出処理の詳細については後述する。
サーバ1は、各クラスタに分割した特徴量のうち、同一クラスタ内の同じ元画像の複数の特徴量は1つとしてカウントした画像数を集計する。そしてサーバ1は、集計した各クラスタの画像数に基づき、いずれかのクラスタに分類された画像群が対象物を含む画像群であるものとして抽出する。例えばサーバ1は、画像数が最多のクラスタに分類された画像群を抽出する。
上述の如く、サーバ1は対象物の名称(商品名)を検索クエリとして画像検索を行っている。従って、検索された画像では、対象物が被写体として含まれる画像が、その他の物体を含む画像よりも多いと推定される。そこで本実施形態では、上記のようにクラスタリングを行い、画像数が最多のクラスタに属する画像群を抽出する。これにより、対象物自体を認識せずとも、対象物が含まれるものと推定される画像群を抽出する。
図2は、サーバ1の構成例を示すブロック図である。サーバ1は、制御部11、記憶部12、通信部13、入力部14、表示部15、読取部16及び大容量記憶部17を含む。各構成はバスBで接続されている。
制御部11はCPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)等の演算処理装置を含み、記憶部12に記憶された制御プログラム1Pを読み出して実行することにより、サーバ1に係る種々の情報処理、制御処理等を行う。なお、図2では制御部11を単一のプロセッサであるものとして説明するが、マルチプロセッサであっても良い。
記憶部12はRAM(Random Access Memory)、ROM(Read Only Memory)等のメモリ素子を含み、制御部11が処理を実行するために必要な制御プログラム1P又はデータ等を記憶している。また、記憶部12は、制御部11が演算処理を実行するために必要なデータ等を一時的に記憶する。通信部13は通信に関する処理を行うための通信モジュールであり、ネットワークNを介して、SNSサーバ2との間で情報の送受信を行う。
入力部14は、マウス、キーボード、タッチパネル、ボタン等の入力デバイスであり、受け付けた操作情報を制御部11へ出力する。表示部15は、液晶ディスプレイ又は有機EL(electroluminescence)ディスプレイ等であり、制御部11の指示に従い各種情報を表示する。
読取部16は、CD(Compact Disc)−ROM又はDVD(Digital Versatile Disc)−ROMを含む可搬型記憶媒体1aを読み取る。制御部11が読取部16を介して、制御プログラム1Pを可搬型記憶媒体1aより読み取り、大容量記憶部17に記憶しても良い。また、ネットワークN等を介して他のコンピュータから制御部11が制御プログラム1Pをダウンロードし、大容量記憶部17に記憶しても良い。さらにまた、半導体メモリ1bから、制御部11が制御プログラム1Pを読み込んでも良い。
大容量記憶部17は、例えばハードディスク等を含む大容量の記憶装置である。大容量記憶部17は、検索履歴DB171、抽出画像DB172及び物体検出モデル173を含む。検索履歴DB171は、SNSサーバ2から検索した対象物に関連する画像の情報を記憶している。抽出画像DB172は、検索された画像の内、対象物を含むものとして抽出した画像に関する情報を記憶している。物体検出モデル173は、画像内の物体を検出する検出器であり、機械学習により生成された学習済みモデルである。
なお、本実施形態において記憶部12及び大容量記憶部17は一体の記憶装置として構成されていても良い。また、大容量記憶部17は複数の記憶装置により構成されていても良い。更にまた、大容量記憶部17はサーバ1に接続された外部記憶装置であっても良い。
なお、本実施形態では、サーバ1は一台の情報処理装置であるものとして説明するが、複数台により分散して処理させても良く、または仮想マシンにより構成されていても良い。
図3は、検索履歴DB171のレコードレイアウトの一例を示す説明図である。検索履歴DB171は、検索ID列、検索クエリ列、検索日時列及び検索画像列を含む。検索ID列は、各検索の履歴データを識別するために、一意に特定される検索の履歴データのIDを記憶している。検索クエリ列は、対象物を検索する際の使われる検索クエリを記憶している。検索クエリは、例えばキーワード検索、ハッシュタグ検索等に用いる単語である。検索日時列は、対象物に関連する画像を検索した日時情報を記憶している。検索画像列は、検索された対象物に関連する画像を記憶している。
図4は、抽出画像DB172のレコードレイアウトの一例を示す説明図である。抽出画像DB172は、検索ID列及び抽出画像列を含む。検索ID列は、対象物に関連する画像を検索した履歴データのIDを記憶している。抽出画像列は、収集対象外の画像を取り除いて収集対象の画像を記憶している。
図5は、画像特徴量を抽出する動作を説明する説明図である。サーバ1の制御部11は、対象物を表す検索クエリ(例えば、対象物の固有名称)を入力部14により受け付ける。制御部11は、受け付けた検索クエリに基づき、不特定多数の人物がネットワークNを介してSNSサーバ2にアップロードした各投稿記事に含まれる画像から、対象物に関連する画像群を通信部13により検索する。
制御部11は、検索した対象物に関連する画像群を大容量記憶部17の検索履歴DB171に記憶する。具体的には、制御部11は、検索IDを振って、検索クエリ、検索日時、及び検索された対象物に関連する画像群を一つのレコードとして検索履歴DB171に記憶する。
制御部11は、検索した画像ごとに、画像内に含まれる各被写体(物体)に対応する画像領域の特徴量を抽出する。例えば制御部11は、画像内の物体を検出する物体検出モデル173であって、ディープラーニングにより構築された物体検出モデル173の一部を用いて画像特徴量を抽出する。
サーバ1の制御部11は、所定の教師データを用いて教師用画像の特徴量を学習するディープラーニングを行うことで物体検出モデル173を構築(生成)する。例えば、物体検出モデル173はCNN(Convolution Neural Network)であり、画像の入力を受け付ける入力層と、画像内の物体を検出した検出結果を出力する出力層と、各物体に対応する画像領域の特徴量を抽出する中間層とを有する。
入力層は、検索された対象物に関する画像群に含まれる各画像の画素の画素値の入力を受け付ける複数のニューロンを有し、入力された画素値を中間層に受け渡す。中間層は、画像特徴量を抽出する複数のニューロンを有し、抽出した画像領域の特徴量を出力層に受け渡す。例えば物体検出モデル173がCNNである場合、中間層は、入力層から入力された各画素の画素値を畳み込むコンボリューション層と、コンボリューション層で畳み込んだ画素値をマッピングするプーリング層とが交互に連結された構成を有する。中間層は、領域の画素情報を圧縮しながら最終的に画像特徴量を抽出する。出力層は、中間層から出力された画像特徴量に基づいて、画像内の物体を検出した検出結果を出力する。
例えば制御部11は、物体検出モデル173として、CNNの一種であるR−CNN(Regins with CNN)、セマンティックセグメンテーション、YOLO(You Look Only Once)、SSD(Single Shot MultiBox Detector)等のニューラルネットワークを構築してある。R−CNN、セマンティックセグメンテーション等はいずれも、画像内に含まれる各物体の画像領域を特定して、特定した画像領域毎に各物体が何であるかを識別するニューラルネットワークである。物体検出モデル173は、図5に示すように、入力層において画像の入力を受け付けた場合、中間層にて画像内の各物体に対応する画像領域を特定して各領域の特徴量を抽出し、各画像領域に含まれる物体が何であるかを識別した識別結果が出力層から出力されるよう構成されている。
しかしながら、既に述べたように、特定の対象物(個体)を検出可能な物体検出モデル173を構築することは難しく、物体検出モデル173は画像内の物体の一般名称(種類)を検出するに留まる。そこで本実施の形態では、物体検出モデル173を用いて対象物を直接検出するのではなく、物体検出モデル173から出力層を除去して入力層及び中間層のみを用いることで、物体検出モデル173の一部を、各物体に対応する画像領域の特徴量を抽出するための抽出モデルとして用いる(図5下側参照)。制御部11は物体検出モデル173(の入力層及び中間層)を用いて、SNSから検索した各画像から、画像内に含まれる各物体に対応する画像領域の特徴量を抽出する。
なお、本実施の形態において制御部11は、ディープラーニングによって構築された物体検出モデル173を用いて画像特徴量を抽出するものとするが、例えば制御部11は、A−KAZE(Accelerated KAZE)、SIFT(Scale Invariant Feature Transform)、SURF(Speeded-Up Robust Features)、ORB(Oriented FAST and Rotated BRIEF)、HOG(Histograms of Oriented Gradients)等の局所特徴量抽出方法を用いて特徴量を抽出しても良い。すなわち制御部11は、検索した各画像の特徴量を抽出可能であればよく、その抽出方法は特に限定されない。
図6は、画像特徴量に基づくクラスタリング処理を示す説明図である。サーバ1の制御部11は、抽出した各画像領域の特徴量に応じて、クラスタ分類(クラスタリング)を行う。クラスタリング処理に関しては、例えば、K−means法(k平均法)、X−means法を利用しても良い。K−means法は、非階層型クラスタリングのアルゴリズムであり、予め決められたクラスタ数「k」個に分類する。X−means法は、K−means法の変形であり、最適なクラスタ数「k」を自動的に推定するアルゴリズムである。制御部11は、各物体に対応する画像領域ごとに行い、各画像領域をいずれかのクラスタに分類する。
制御部11は、各クラスタに分類した画像領域の数を集計する。そして、制御部11は、集計した各クラスタの画像領域の数に基づき、複数のクラスタのいずれかを選択する。例えば制御部11は、画像数が最多のクラスタを選択しても良い。制御部11は、選択したクラスタに分類された画像領域を有する画像群を抽出する。
図6では、画像A、画像B、画像C及び画像Dのクラスタリングを行う様子を図示している。例えば、サーバ1の制御部11は、上述したクラスタリング処理によりクラスタ分類を行い、「クラスタ1」、「クラスタ2」及び「クラスタ3」に分類する。制御部11は、それぞれの「クラスタ1」、「クラスタ2」及び「クラスタ3」に分類した画像領域の数を集計し、集計した画像領域の数が多いクラスタを選択する。例えば、クラスタそれぞれに分類された画像領域の数が多いクラスタがクラスタ1である場合、制御部11は、対象物に対し画像領域の特徴量がクラスタ1に多く含まれることを推定してクラスタ1を選択する。これにより、制御部11は、選択したクラスタ1に分類された画像領域を有する画像群(画像A、画像B及び画像C)を抽出する。
制御部11は、抽出した対象物の画像群を検索IDに対応付けて大容量記憶部17の抽出画像DB172に記憶する。また、制御部11は、上記で抽出した対象物の画像群に対して対象物の情報をラベリングすることで、対象物の画像を学習するための教師データを生成する。具体的には、制御部11は、抽出した画像において、上記で選択したクラスタ(上述の例では「クラスタ1」)に分類された画像領域に対して対象物の固有名称(例えば商品名)を関連付けた教師データを生成する。これにより、例えば制御部11は当該教師データを用いて物体検出モデル173の再学習を行うことで、特定の対象物(個体)を検出可能なモデルを構築することができる。
図7は、画像特徴量に基づくクラスタ分類により所望画像を抽出する際の処理手順を示すフローチャートである。サーバ1の制御部11は、対象物を表す検索クエリ(例えば、対象物の固有名称)を入力部14により受け付ける(ステップS101)。制御部11は、受け付けた検索クエリに基づき、不特定多数の人物がネットワークNを介してSNSサーバ2にアップロードした各投稿記事に含まれる画像から、対象物に関連する画像群を通信部13により検索する(ステップS102)。制御部11は、検索した対象物に関連する画像群を大容量記憶部17の検索履歴DB171に記憶する(ステップS103)。
制御部11は、検索した対象物に関連する画像ごとに、画像内に含まれる各物体に対応する画像領域の特徴量を抽出する(ステップS104)。制御部11は、抽出した各画像領域の特徴量に応じて、クラスタ分類を行う(ステップS105)。制御部11は、各クラスタに分類した画像領域の数を集計する(ステップS106)。制御部11は、集計した各クラスタに分類した画像領域の数に基づき、複数のクラスタのいずれかを選択する(ステップS107)。例えば制御部11は、画像領域の数が最多のクラスタを選択しても良い。制御部11は、選択したクラスタに分類された画像領域を有する画像群を抽出する(ステップS108)。
制御部11は、抽出した画像群を検索IDに対応付けて大容量記憶部17の抽出画像DB172に記憶する(ステップS109)。制御部11は、ステップS108で抽出した画像群に対し、ステップS107で選択した画像領域に対象物の情報と関連付けた教師データを生成する(ステップS110)。
本実施形態によると、画像特徴量におけるクラスタリング処理を利用し、収集対象外の画像を取り除いて対象物の画像を抽出することができる。よって、対象物と無関係な画像を排除するため、抽出の精度を向上することが可能となる。
(実施形態2)
実施形態2は、物体検出モデル173によって、画像内の物体の種類(一般名称)を検出し、SNSから検索された画像群全体での各種類の物体の出現頻度に基づき、所望画像を抽出する形態に関する。なお、実施形態1と重複する内容については説明を省略する。
図8は、実施形態2のサーバ1の構成例を示すブロック図である。なお、図2と重複する内容については同一の符号を付して説明を省略する。大容量記憶部17は、頻度集計DB174を含む。頻度集計DB174は、複数の画像の中から検出した各種類の物体の出現頻度を記憶している。
図9は、頻度集計DB174のレコードレイアウトの一例を示す説明図である。頻度集計DB174は、検索ID列、種類列及び頻度列を含む。検索ID列は、画像を検索した履歴データのIDを記憶している。種類列は、画像の中から検出された物体の種類を記憶している。頻度列は、種類ごとの物体の出現回数を記憶している。
図10は、各種類の物体の出現頻度に応じて所望画像を抽出する動作を説明する説明図である。図10に基づき、本実施形態の概要を説明する。
本実施形態でサーバ1の制御部11は、物体検出モデル173から出力層を除去せず、本来の物体検出用のモデルとして機能させる。制御部11は、SNSサーバ2から取得した画像群を物体検出モデル173に入力し、各画像に含まれる物体の普通名称、たとえば物体の種類を示す検出結果を物体検出モデル173から取得する。これにより、図10に示すように、各物体の画像領域ごとに物体の種類を識別した結果が出力される。
制御部11は、各画像の検出結果に基づき、SNSサーバ2から取得した画像群全体での各種類の物体の出現頻度を集計する。制御部11は、集計した各種類の物体の出現頻度を検索IDに対応付け、検索ID、種類及び出現頻度を一つのレコードとして頻度集計DB174に記憶する。制御部11は、頻度が一番高い物体の種類を判定し、判定した種類の物体を含む画像群を、対象物を含む画像群として取得する。
図11は、各種類の物体の出現頻度に応じて所望画像を抽出する際の処理手順を示すフローチャートである。なお、図7と重複する内容については同一の符号を付して説明を省略する。制御部11は、物体検出モデル173を用いて、SNSサーバ2から検索した対象物に関する画像群から各画像内の物体を検出する(ステップS131)。制御部11は、検出した各画像に含まれる物体の種類に応じて、各物体の種類の出現頻度を集計する(ステップS132)。制御部11は、集計した種類ごとの出現頻度を検索IDに対応付けて頻度集計DB174に記憶する(ステップS133)。制御部11は、頻度が一番高い物体の種類を取得し、取得した種類に基づき、物体検出モデル173から出力された該種類に対応付けた画像群を抽出する(ステップS134)。制御部11は、抽出した画像群を大容量記憶部17の抽出画像DB172に記憶する(ステップS135)。
本実施形態によると、各種類の物体の出現頻度を集計し、集計した頻度に応じて画像を抽出する。これによって、例えば実施形態1の処理によって、対象物と異なる物体が誤って最多のクラスタに分類されたような場合でも、誤抽出を防止することができ、画像抽出の精度を向上することが可能となる。
(実施形態3)
実施形態3は、物体検出モデル173で検出した物体の普通名称と、対象物の名称とが類似するか否かを判定することで、所望画像を抽出する形態に関する。なお、実施形態2と重複する内容については説明を省略する。
サーバ1は、対象物に関する画像群を検索した際の検索クエリ(例えば、対象物の名称)の類語を抽出し、抽出した類語の類似度が所定閾値以上である場合、該類語に対応する画像を抽出する。類語の抽出処理に関しては、類語辞書またはWord2Vec等のベクトル化されたデータを利用して抽出しても良い。なお、本実施形態では、類語辞書を用いた例をあげて説明する。
図12は、実施形態3のサーバ1の構成例を示すブロック図である。なお、図8と重複する内容については同一の符号を付して説明を省略する。大容量記憶部17は、類語辞書175を含む。類語辞書175は、同じような意味を持つ言葉をまとめた辞書である。
図13は、類語辞書175のレコードレイアウトの一例を示す説明図である。類語辞書175は、テキスト列及び類似度列を含む。テキスト列は、物体の名称(一般名称または固有名称)に相当するテキストを記憶している。類似度列は、各テキストの類似度を記憶している。
図14は、類語を用いて所望画像を抽出する際の処理手順を示すフローチャートである。なお、図11と重複する内容については同一の符号を付して説明を省略する。制御部11は、ステップS131で検出した物体の種類の名称と、対象物に関する画像群を検索した際の検索クエリ(対象物の名称)との類似度を類語辞書175から取得する(ステップS141)。制御部11は、取得した類似度に応じて、ステップS102で検索した画像群から対象物を含む画像を抽出する(ステップS142)。例えば、制御部11は、取得した各物体の種類の名称と対象物の名称との類似度が所定の閾値以上であると判定した場合、該当物体を含む画像を抽出する。
本実施形態によると、検出された画像内の物体の種類の名称と対象物の名称との類似度により画像を抽出することで、画像抽出の精度を向上することが可能となる。
(実施形態4)
図15は、上述した形態のサーバ1の動作を示す機能ブロック図である。制御部11が制御プログラム1Pを実行することにより、サーバ1は以下のように動作する。
検索部10aは、ネットワークNを介して対象物に関連する画像群を検索する。抽出部10bは、検索された各画像の特徴量を抽出する。分類部10cは、画像特徴量に基づき、各画像を複数のクラスタのいずれかに分類する。画像抽出部10dは、クラスタに分類された画像領域を有する画像を抽出する。生成部10eは、抽出部10bが抽出した画像に対し、該画像領域に対象物の情報を関連付けたデータを生成する。検出部10fは、画像に含まれる物体を検出する。
本実施の形態4は以上の如きであり、その他は実施の形態1から3と同様であるので、対応する部分には同一の符号を付してその詳細な説明を省略する。
今回開示された実施形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
1 情報処理装置(サーバ)
11 制御部
12 記憶部
13 通信部
14 入力部
15 表示部
16 読取部
17 大容量記憶部
171 検索履歴DB
172 抽出画像DB
173 物体検出モデル
174 頻度集計DB
175 類語辞書
1a 可搬型記憶媒体
1b 半導体メモリ
1P 制御プログラム
2 情報共有サーバ(SNSサーバ)
10a 検索部
10b 抽出部
10c 分類部
10d 画像抽出部
10e 生成部
10f 検出部

Claims (8)

  1. ネットワークを介して対象物に関連する画像をテキストを用いて検索する検索部と、
    検索された各画像の特徴量を抽出する抽出部と、
    各画像の特徴量をクラスタリングする分類部と、
    前記特徴量のクラスタを構成する画像の数に応じて、前記画像を抽出する画像抽出部と
    を備えることを特徴とする情報処理装置。
  2. 前記抽出部は、前記画像内の各画像領域の前記特徴量を抽出し、
    前記分類部は、前記画像領域毎にクラスタリングを行い、
    前記画像抽出部は、
    前記特徴量のクラスタを構成する前記画像領域の数に応じて、前記複数のクラスタのいずれかを選択し、
    選択した前記クラスタを構成する前記画像領域を有する前記画像を抽出する
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記画像抽出部が抽出した前記画像に対し、前記画像領域に前記対象物の情報を関連付けたデータを生成する生成部を備える
    ことを特徴とする請求項2に記載の情報処理装置。
  4. 前記画像に含まれる物体を検出する検出部を備え、
    前記画像抽出部は、検出された前記物体の種類に応じて前記画像を抽出する
    ことを特徴とする請求項1〜3のいずれか1項に記載の情報処理装置。
  5. 前記画像抽出部は、前記検索部が検索した全ての前記画像における各種類の前記物体の出現頻度に応じて前記画像を抽出する
    ことを特徴とする請求項4に記載の情報処理装置。
  6. 前記検出部は、前記物体の種類名を特定し、
    前記画像抽出部は、前記対象物の名称と、前記物体の種類名との類似度に応じて前記画像を抽出する
    ことを特徴とする請求項4又は5に記載の情報処理装置。
  7. ネットワークを介して対象物に関連する画像を検索し、
    検索された各画像の特徴量を抽出し、
    前記特徴量に基づき前記各画像をクラスタリングし、
    前記クラスタ夫々を構成する画像の数に応じて、前記画像を抽出する
    情報処理方法。
  8. コンピュータに、
    ネットワークを介して対象物に関連する画像を検索し、
    検索された各画像の特徴量を抽出し、
    前記特徴量に基づき前記各画像をクラスタリングし、
    前記クラスタ夫々を構成する画像の数に応じて、前記画像を抽出する
    処理を実行させるプログラム。


JP2019036033A 2019-02-28 2019-02-28 情報処理装置、情報処理方法及びプログラム Pending JP2020140488A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019036033A JP2020140488A (ja) 2019-02-28 2019-02-28 情報処理装置、情報処理方法及びプログラム
JP2023106533A JP2023130409A (ja) 2019-02-28 2023-06-28 情報処理装置、情報処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019036033A JP2020140488A (ja) 2019-02-28 2019-02-28 情報処理装置、情報処理方法及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023106533A Division JP2023130409A (ja) 2019-02-28 2023-06-28 情報処理装置、情報処理方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2020140488A true JP2020140488A (ja) 2020-09-03

Family

ID=72280399

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019036033A Pending JP2020140488A (ja) 2019-02-28 2019-02-28 情報処理装置、情報処理方法及びプログラム
JP2023106533A Pending JP2023130409A (ja) 2019-02-28 2023-06-28 情報処理装置、情報処理方法及びプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023106533A Pending JP2023130409A (ja) 2019-02-28 2023-06-28 情報処理装置、情報処理方法及びプログラム

Country Status (1)

Country Link
JP (2) JP2020140488A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11841922B2 (en) 2021-02-09 2023-12-12 Awoo Intelligence, Inc. System and method for classifying and labeling images

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013105373A (ja) * 2011-11-15 2013-05-30 Yahoo Japan Corp データ取得装置、方法及びプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013105373A (ja) * 2011-11-15 2013-05-30 Yahoo Japan Corp データ取得装置、方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11841922B2 (en) 2021-02-09 2023-12-12 Awoo Intelligence, Inc. System and method for classifying and labeling images

Also Published As

Publication number Publication date
JP2023130409A (ja) 2023-09-20

Similar Documents

Publication Publication Date Title
CN107209860B (zh) 用于处理弱监督图像的方法、系统和计算机存储介质
WO2019200782A1 (zh) 样本数据分类方法、模型训练方法、电子设备及存储介质
WO2022001123A1 (zh) 关键点检测方法、装置、电子设备及存储介质
CN107683469A (zh) 一种基于深度学习的产品分类方法及装置
US8582872B1 (en) Place holder image detection via image clustering
CN111444372B (zh) 用于图像处理的系统和方法
WO2015016784A1 (en) A method and apparatus for tracking microblog messages for relevancy to an entity identifiable by an associated text and an image
WO2013160192A1 (en) Method for binary classification of a query image
Liu et al. Retagging social images based on visual and semantic consistency
CN110880007A (zh) 一种机器学习算法自动选择方法和系统
CN110413825B (zh) 面向时尚电商的街拍推荐系统
Trappey et al. An intelligent content-based image retrieval methodology using transfer learning for digital IP protection
Cao et al. Learning to match images in large-scale collections
Bouchakwa et al. A review on visual content-based and users’ tags-based image annotation: methods and techniques
JP2023130409A (ja) 情報処理装置、情報処理方法及びプログラム
Ha et al. Correlation-based deep learning for multimedia semantic concept detection
CN110083731B (zh) 图像检索方法、装置、计算机设备及存储介质
Chiu et al. Integrating content-based image retrieval and deep learning to improve wafer bin map defect patterns classification
Jain Convolutional neural network based advertisement classification models for online English newspapers
Xia et al. Clothing classification using transfer learning with squeeze and excitation block
Frikha et al. People search based on attributes description provided by an eyewitness for video surveillance applications
US11438639B2 (en) Partial-video near-duplicate detection
JP5833499B2 (ja) 高次元の特徴ベクトル集合で表現されるコンテンツを高精度で検索する検索装置及びプログラム
Nader et al. Kinship verification and recognition based on handcrafted and deep learning feature-based techniques
Hua et al. Cross-modal correlation learning with deep convolutional architecture

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221226

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230418