JP7109414B2 - 識別装置、識別方法及び識別プログラム - Google Patents

識別装置、識別方法及び識別プログラム Download PDF

Info

Publication number
JP7109414B2
JP7109414B2 JP2019169863A JP2019169863A JP7109414B2 JP 7109414 B2 JP7109414 B2 JP 7109414B2 JP 2019169863 A JP2019169863 A JP 2019169863A JP 2019169863 A JP2019169863 A JP 2019169863A JP 7109414 B2 JP7109414 B2 JP 7109414B2
Authority
JP
Japan
Prior art keywords
target
identification
extracted
area
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019169863A
Other languages
English (en)
Other versions
JP2021047650A (ja
Inventor
雅二郎 岩崎
修平 西村
拓明 田口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2019169863A priority Critical patent/JP7109414B2/ja
Publication of JP2021047650A publication Critical patent/JP2021047650A/ja
Application granted granted Critical
Publication of JP7109414B2 publication Critical patent/JP7109414B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、識別装置、識別方法及び識別プログラムに関する。
従来、クエリ画像と類似する画像を検索する技術が知られている。このような技術の一例として、端末装置が撮影した画像をクエリ画像として受信すると、クエリ画像に類似する画像を検索し、検索結果の画像が示す取引対象の情報を提供する技術が知られている。
特開2016-009459号公報
しかしながら、上述した技術では、検索精度を向上させる余地がある。
例えば、上述した技術では、利用者が検索対象としたい物体が他の物体に隠れている場合や、撮影した画像の明度が低い場合等、端末装置が撮影した画像の撮影条件が好ましくない場合は、撮影した画像をクエリ画像とする類似画像検索を精度良く行うことができなくなる。この結果、上述した技術では、利用者が所望する物体と関連する取引対象の情報を適切に提供することができない恐れがある。
本願は、上記に鑑みてなされたものであって、画像を用いた検索の検索精度を向上させることを目的とする。
本願にかかる識別装置は、動画像から抽出された複数の抽出画像ごとに、撮影対象が含まれる対象領域を特定する特定部と、前記複数の抽出画像を重畳した場合に各対象領域が重畳する態様に基づいて、各対象領域に含まれる撮影対象を識別する識別部とを有することを特徴とする。
実施形態の一態様によれば、画像を用いた検索の検索精度を向上させることができるといった効果を奏する。
図1は、実施形態に係る識別処理の一例を示す図である。 図2は、実施形態に係るスコアの付与処理の一例を示す図である。 図3は、実施形態に係る情報提供システムの構成例を示す図である。 図4は、実施形態に係る情報提供装置の構成例を示す図である。 図5は、実施形態に係る画像データベースの一例を示す図である。 図6は、実施形態に係る識別処理の手順の一例を示すフローチャートである。 図7は、情報提供装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
以下に、本願に係る識別装置、識別方法及び識別プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ説明する。なお、この実施形態により本願に係る識別装置、識別方法及び識別プログラムが限定されるものではない。また、以下の実施形態において、同一の部位には同一の符号を付し、重複する説明は省略される。
〔1.実施形態〕
図1を用いて、本実施形態の識別装置等により実現される識別処理を説明する。図1は、実施形態に係る識別処理の一例を示す図である。なお、図1では、本願に係る識別装置の一例である情報提供装置10によって、実施形態に係る識別処理などが実現されるものとする。
図1の説明に先立って、図3を用いて、実施形態に係る情報提供システム1について説明する。図3は、実施形態に係る情報提供システムの構成例を示す図である。図3に示すように、実施形態に係る情報提供システム1は、情報提供装置10と、端末装置100とを含む。情報提供装置10及び端末装置100は、ネットワークNを介して有線または無線により相互に通信可能に接続される。ネットワークNは、例えば、インターネットなどのWAN(Wide Area Network)である。なお、図3に示した情報提供システム1には、複数台の情報提供装置10及び複数台の端末装置100が含まれていてもよい。
情報提供装置10は、端末装置100が撮影した動画像に含まれる撮影対象の識別結果を提供する情報処理装置である。例えば、情報提供装置10は、各種の画像認識技術を用いて、動画像から抽出した画像である抽出画像に含まれる撮影対象を識別する。なお、情報提供装置10は、画像認識に関するアプリケーションのデータそのものを配信するサーバであってもよい。また、情報提供装置10は、端末装置100に制御情報を配信する配信装置として機能してもよい。ここで、制御情報は、例えば、JavaScript(登録商標)等のスクリプト言語やCSS(Cascading Style Sheets)等のスタイルシート言語により記述される。なお、情報提供装置10から配信される画像認識に関するアプリケーションそのものを制御情報とみなしてもよい。
端末装置100は、利用者によって利用される情報処理装置である。端末装置100は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等により実現される。また、端末装置100は、端末装置100が備える撮像部により撮像した動画像)を情報提供装置10に送信する。また、端末装置100は、情報提供装置10によって提供される情報の表示処理を実現する制御情報を情報提供装置10から受け取った場合には、制御情報に従って表示処理を実現する。なお、図1に示す例において、端末装置100は、利用者によって利用されるスマートフォンやタブレット等のスマートデバイスである場合を示す。
以下、図1を用いて、情報提供装置10が行う識別処理について説明する。なお、以下の説明では、端末装置100が利用者Uにより利用される例を示す。また、以下の説明では、端末装置100を利用者Uと同一視する場合がある。すなわち、以下では、利用者Uを端末装置100と読み替えることもできる。
まず、端末装置100は、利用者Uの操作に応じて、動画像を撮影する(ステップS1)。なお、図1の例において、利用者Uは、撮影位置を移動しながら、物体M1及びM2を撮影対象として動画像を所定時間(例えば、1秒、3秒)以上撮影したものとする。
続いて、情報提供装置10は、端末装置100が撮影した動画像を取得する(ステップS2)。続いて、情報提供装置10は、動画像から抽出した抽出画像から、撮影対象が含まれる領域である対象領域を特定する(ステップS3)。例えば、図1の例において、情報提供装置10は、ステップS2において取得した動画像から、時系列が連続する抽出画像P1~P4を抽出する。そして、情報提供装置10は、各抽出画像の中から物体M1、若しくは、物体M2が含まれる対象領域を、各種の画像認識技術を用いて特定する。
具体的な例を挙げると、情報提供装置10は、各抽出画像の中から複数の特徴点を特定し、特定した特徴点から所定の範囲に含まれる画素の特徴を選択した特徴点の特徴量として算出する。そして、情報提供装置10は、算出した特徴量に基づき、物体M1、若しくは、物体M2が含まれる対象領域を各抽出画像から特定する。
ここで、図1に示す画像AI1~AI4は、それぞれ抽出画像P1~P4に対応し、情報提供装置10が各抽出画像から特定したものを模式的に示す図である。図1の例において、情報提供装置10は、抽出画像P1から物体M1が含まれる対象領域A1-1、並びに、物体M2が含まれる対象領域A2-1を特定したものとする。また、情報提供装置10は、抽出画像P2から物体M2が含まれる対象領域A2-2を特定した一方で、物体M1が含まれる対象領域を特定できなかったものとする。また、情報提供装置10は、抽出画像P3から物体M1が含まれる対象領域A1-2を特定した一方で、物体M2が含まれる対象領域を特定できなかったものとする。また、情報提供装置10は、抽出画像P4から物体M2が含まれる対象領域A2-3を特定した一方で、物体M1が含まれる対象領域を特定できなかったものとする。
なお、特徴量の算出には、GIST(http://ilab.usc.edu/siagian/Research/Gist/Gist.html)、カラーヒストグラム、色分布などの広域特徴量やSIFT(Scale-Invariant Feature Transform)、SURF(Speed-Up Robust Features)、局所特徴量等、画像が有する特徴量を算出する任意の技術が採用可能である。また、ニューラルネットで生成される特徴量も利用可能である。
続いて、情報提供装置10は、抽出画像を重ね合わせた場合の対象領域の重畳態様を特定する(ステップS4)。例えば、図1の例において、情報提供装置10は、抽出画像P1~P4のそれぞれに含まれる特徴点を照合し、抽出画像P1~P4間で一致する特徴点(例えば、特徴量の差が所定の閾値以内である特徴点)を抽出する。ここで、図1の例において、情報提供装置10は、抽出画像P1~P4それぞれに含まれる特徴点PTを、抽出画像P1~P4間で一致する特徴点として抽出したものとする。この場合、情報提供装置10は、抽出画像P1~P4のそれぞれに含まれる特徴点PTの位置が一致するように抽出画像P1~P4を重畳させた場合に、いずれかの抽出画像に含まれる対象領域と、他の抽出画像に含まれる対象領域とが重畳する態様を示す重畳態様Cを特定する。
続いて、情報提供装置10は、対象領域に重畳態様に応じた重み付けを行う(ステップS5)。例えば、図1の例において、情報提供装置10は、重畳態様Cに基づき、対象領域に含まれる各領域に対し、他の対象領域が重畳する数に応じた重み付け(スコアの付与)を行う。言い換えると、情報提供装置10は、対象領域に含まれる領域と、撮影対象とが対応する確度を示すスコアの付与を行う。ここで、対象領域に含まれる各領域に対しスコアを付与する処理について、図2を用いて詳細に説明する。図2は、実施形態に係るスコアの付与処理の一例を示す図である。
最初に、対象領域A1-2に含まれる領域に対しスコアを付与する処理について説明する。図2に示すように、対象領域A1-2に含まれる領域の一部は、特定元の抽出画像P3以外の他の抽出画像に含まれない。この場合、情報提供装置10は、対象領域A1-2に含まれる領域に重畳する他の対象領域の数に1を合計した数を、当該領域を含む抽出画像の数で除算し、得られたスコアを、対象領域A1-2の各領域に付与する。
具体的な例を挙げると、情報提供装置10は、対象領域A1-2に対象領域A1-1が重畳し、抽出画像P1~P4に含まれる領域AR1-1に対し、スコア「2/4(対象領域A1-1+1/抽出画像P1~P4)」を付与する。また、情報提供装置10は、対象領域A1-2に他の対象領域が重畳せず、抽出画像P1~P3に含まれる領域AR1-2に対し、スコア「1/3(重畳する他の対象領域なし(0)+1/抽出画像P1~P3)」を付与する。また、情報提供装置10は、対象領域A1-2に他の対象領域が重畳せず、抽出画像P3及びP4に含まれる領域AR1-3に対し、スコア「1/2(重畳する他の対象領域なし(0)+1/抽出画像P3及びP4)」を付与する。
次に、対象領域A2-1に含まれる領域に対しスコアを付与する処理について説明する。図2に示すように、対象領域A2-1は、特定元の抽出画像P1以外の他の抽出画像にも含まれる。この場合、情報提供装置10は、対象領域A2-1に含まれる領域に重畳する他の対象領域の数に1を合計した数を、抽出画像の数で除算し、得られたスコアを、対象領域A2-1の各領域に付与する。
具体的な例を挙げると、情報提供装置10は、対象領域A2-1に対象領域A2-2及びA2-3が重畳する領域AR2-1に対し、スコア「3/4(対象領域A2-2及びA2-3+1/抽出画像P1~P4)」を付与する。また、情報提供装置10は、対象領域A2-1に対象領域A2-2のみが重畳する領域AR2-2に対し、スコア「2/4(対象領域A2-2+1/抽出画像P1~P4)」を付与する。また、情報提供装置10は、対象領域A2-3に他の対象領域が重畳しない領域AR2-3に対し、スコア「1/4(重畳する他の対象領域なし(0)+1/抽出画像P1~P4)」を付与する。
なお、図2の例において、情報提供装置10は、各抽出画像の領域のうち、対象領域A1-2及びA1-1、並びに、対象領域A2-1~A2-3のいずれも含まない領域に対しては、スコア「0」を付与してもよい。
図1の説明に戻り、情報提供装置10は、撮影された撮影対象を識別する(ステップS6)。例えば、図1の例において、情報提供装置10は、対象領域から算出する特徴量に対し重畳態様Cに応じた重み付けを行い、対象領域に含まれる撮影対象を識別する。具合的な例を挙げると、情報提供装置10は、対象領域に含まれる各領域に付与したスコアの高さに応じて、対応する領域から算出する特徴量に対する重み付けを大きく設定する。そして、情報提供装置10は、対象領域A1-1、並びに、対象領域A1-1に重畳する対象領域A1-2に含まれる各領域から算出した特徴量に基づいて、対象領域A1-1及び対象領域A1-2に含まれる撮影対象(物体M1)を識別する。また、情報提供装置10は、対象領域A2-1、並びに、対象領域A2-1に重畳する対象領域A2-2及びA2-3に含まれる各領域から算出した特徴量に基づいて、対象領域A2-1~A2-3に含まれる撮影対象(物体M2)を識別する。
続いて、情報提供装置10は、識別結果に応じた情報を端末装置100に提供する(ステップS7)。例えば、図1の例において、情報提供装置10は、物体M1及び物体M2の名称を示す情報を端末装置100に提供する。
以上のように、実施形態に係る情報提供装置10は、撮影対象を撮影した動画像から抽出した複数の抽出画像に基づいて撮影対象の識別処理を行う。従来、画像の撮影条件が悪い場合(例えば、撮影場所が暗い、撮影対象の一部が他の物体に隠れている、など)、一の画像から撮影対象を識別する際に精度が低下するという問題点があった。これに対し、実施形態に係る情報提供装置10は、複数の抽出画像から特定した対象領域と、撮影対象とが対応する確度による重み付けを用いて、対象領域から撮影対象を識別する。これにより、実施形態に係る情報提供装置10は、撮影条件によって一の抽出画像から対象領域が誤って特定された場合であっても、他の抽出画像から特定した対象領域に基づいて、誤って特定された対象領域の重みを小さくすることができるため、撮影対象の識別の精度を向上できる。また、実施形態に係る情報提供装置10は、撮影条件によって一の抽出画像から撮影対象が特定できない場合であっても、他の抽出画像に基づいて撮影対象の識別を可能とする。すなわち、実施形態に係る情報提供装置10は、画像を用いた検索の検索精度を向上させることができる。
〔2.情報提供装置の構成〕
次に、図4を用いて、情報提供装置10の構成について説明する。図4は、実施形態に係る情報提供装置の構成例を示す図である。図4に示すように、情報提供装置10は、通信部20と、記憶部30と、制御部40とを有する。
(通信部20について)
通信部20は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部20は、ネットワークNと有線または無線で接続され、端末装置100等との間で情報の送受信を行う。
(記憶部30について)
記憶部30は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。図4に示すように、記憶部30は、画像データベース31を有する。
(画像データベース31について)
画像データベース31は、利用者が端末装置100を用いて撮影した画像(動画像、若しくは、静止画像)に関する情報を記憶する。ここで、図5を用いて、画像データベース31が記憶する情報の一例を説明する。図5は、実施形態に係る画像データベースの一例を示す図である。図5の例では、画像データベース31は、「画像ID」、「抽出画像ID」、「抽出画像」、「特徴情報」、「対象領域情報」といった項目を有する。
「画像ID」は、利用者が撮影した画像を識別するための識別情報を示す。「抽出画像ID」は、利用者が撮影した画像から抽出した抽出画像を識別するための識別情報を示す。「抽出画像」は、抽出画像に関する情報を示す。なお、図5に示す例では、「抽出画像」に「抽出画像#1」といった概念的な情報が格納される例を示したが、実際には、抽出画像を示す静止画像や、抽出画像の所在を示すURL(Uniform Resource Locator)、格納場所を示すファイルパス名などが格納される。
「特徴情報」は、抽出画像から抽出した商品の特徴に関する情報を示し、例えば、抽出画像に含まれる特徴点や、抽出画像の特徴量に関する情報が格納される。「対象領域情報」は、抽出画像のうち、撮影対象が含まれる領域である対象領域に関する情報であり、例えば、抽出画像内の対象領域を示す座標等が格納される。
すなわち、図5では、画像ID「ID#1」によって識別される画像から、抽出画像ID「AID#1」によって識別される抽出画像「抽出画像#1」が抽出され、「抽出画像#1」の特徴情報が「特徴情報#1」、対象領域情報が「対象領域情報#1」である例を示す。
(制御部40について)
制御部40は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報提供装置10内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部40は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。実施形態に係る制御部40は、図4に示すように、特定部41と、抽出部42と、識別部43と、提供部44とを有し、以下に説明する情報処理の機能や作用を実現または実行する。
(特定部41について)
特定部41は、動画像から抽出された複数の抽出画像ごとに、撮影対象が含まれる対象領域を特定する。例えば、図1の例において、特定部41は、端末装置100から取得した動画像から抽出画像P1~P4を抽出し、各抽出画像の中から物体M1、若しくは、物体M2が含まれる対象領域を、各種の画像認識技術を用いて特定する。そして、特定部41は、抽出画像及び対象領域に関する情報を画像データベース31に格納する。
また、特定部41は、対象領域に含まれる撮影対象の種別をさらに特定してもよい。例えば、特定部41は、対象領域を各種の画像認識技術を用いて解析することにより、対象領域に含まれる撮影対象の種別を特定する。具体的な例を挙げると、特定部41は、図1に示す対象領域A2-1に含まれる物体M2の種別を「リンゴ」と特定する。
なお、特定部41は、対象領域に含まれる撮影対象が、情報提供装置10の管理者等により任意に設定された種別のいずれに分類されるかを特定してもよい。また、特定部41は、対象領域に含まれる撮影対象の具体的な名称を特定してもよい。また、特定部41は、抽出画像に含まれる複数の撮影対象をそれぞれ区別するための種別を特定してもよい。例えば、図1の例において、特定部41は、対象領域A1-1及びA1-2に含まれる撮影対象の種別を「撮影対象1」と特定し、対象領域A2-1~A2-3に含まれる撮影対象の種別を「撮影対象2」と特定する。
また、特定部41は、動画像から抽出された複数の抽出画像であって、時系列が連続する複数の抽出画像ごとに、撮影対象が含まれる対象領域を特定する。例えば、図1の例において、特定部41は、時系列が連続する抽出画像P1~P4ごとに、各抽出画像の中から物体M1、若しくは、物体M2が含まれる対象領域を、各種の画像認識技術を用いて特定する。
(抽出部42について)
抽出部42は、対象領域のうち、他の対象領域と重畳する態様が所定の条件を満たす領域を識別領域として抽出する。例えば、図1の例において、抽出部42は、抽出画像P1~P4のそれぞれに含まれる特徴点PTの位置が一致するように抽出画像P1~P4を重畳させた場合に、いずれかの抽出画像に含まれる対象領域と、他の抽出画像に含まれる対象領域とが重畳する態様を示す重畳態様Cを特定する。そして、抽出部42は、重畳態様Cに基づいて、抽出画像P1~P4に含まれる対象領域のうち、重畳する他の対象領域の数が最も多い領域を識別領域として抽出する。具体的な例を挙げると、図1の例において、抽出部42は、対象領域A1-2及びA1-2に含まれる各領域のうち、対象領域A1-2に対象領域A1-1が重畳する領域AR1-1を識別領域として抽出する。また、抽出部42は、対象領域A2-1~A2-3に含まれる各領域のうち、対象領域A2-1に対象領域A2-2及びA2-3が重畳する領域AR2-1を識別領域として抽出する。
また、抽出部42は、対象領域ごとに、重畳した他の対象領域の数が多い程高い値のスコアを算出し、算出したスコアが所定の条件を満たす対象領域を識別領域として抽出してもよい。例えば、図1の例において、抽出部42は、重畳態様Cに基づき、対象領域に含まれる各領域に対し、他の対象領域が重畳する数に応じて算出したスコアを付与する。そして、抽出部42は、スコアを付与した領域のうち、スコアが最も高い領域を識別領域として抽出する。具体的な例を挙げると、図1の例において、抽出部42は、対象領域A1-2及びA1-2に含まれる各領域のうち、最も高いスコアを付与した領域AR1-1を識別領域として抽出する。また、抽出部42は、対象領域A2-1~A2-3に含まれる各領域のうち、最も高いスコアを付与した領域AR2-1を識別領域として抽出する。なお、抽出部42は、対象領域ごとに、重畳した他の対象領域の数が多い程高い値のスコアを算出し、算出したスコアが所定の閾値以上である対象領域を識別領域として抽出してもよい。
また、抽出部42は、対象領域ごとに、重畳した他の対象領域の数に1を合計した値を、抽出画像の数で除算したスコアを算出してもよい。例えば、図1の例において、抽出部42は、対象領域A2-1に含まれる領域に重畳する他の対象領域の数に1を合計した数を、抽出画像の数で除算したスコアを、対象領域A2-1の各領域に付与する。
また、抽出部42は、対象領域ごとに、当該対象領域と重畳する他の対象領域の数に1を合計した値を、当該対象領域と重畳する領域を有する抽出画像の数で除算したスコアを算出してもよい。例えば、図1の例において、抽出部42は、対象領域A1-2に含まれる領域に重畳する他の対象領域の数に1を合計した数を、当該領域を含む抽出画像の数で除算したスコアを、対象領域A1-2の各領域に付与する。
また、抽出部42は、対象領域ごとに、当該対象領域に含まれる画素数が多い程より高い値のスコアを算出してもよい。例えば、抽出部42は、動画像から抽出した抽出画像の画素数、若しくは、対象領域の画素数が多い程、対象領域と、撮影対象とが対応する確度を示すスコアを高く算出する。具体的な例を挙げると、抽出部42は、対象領域ごとに算出したスコアに対し、対応する画素数に応じた値を乗算する。
なお、抽出部42は、対象領域ごとに、当該対象領域に含まれる画像数が多い程より高い値のスコアを算出してもよい。例えば、抽出部42は、動画像から抽出した抽出画像の数、若しくは、対象領域を含む抽出画像の数が多い程、当該対象領域と、撮影対象とが対応する確度を示すスコアを高く算出する。
(識別部43について)
識別部43は、複数の抽出画像を重畳した場合に各対象領域が重畳する態様に基づいて、各対象領域に含まれる撮影対象を識別する。例えば、図1の例において、識別部43は、対象領域から算出する特徴量であって、重畳態様Cに応じた重み付けを行った特徴量に基づいて、対象領域に含まれる撮影対象を識別する。
また、識別部43は、識別領域に含まれる撮影対象を識別してもよい。例えば、図1の例において、識別部43は、対象領域A1-1、並びに、対象領域A1-1に重畳する対象領域A1-2に含まれる領域のうち、識別領域として抽出された領域AR1-1の特徴量に基づいて、領域AR1-1に含まれる撮影対象(言い換えると、対象領域A1-1及びA1-2に含まれる撮影対象)を識別する。また、図1の例において、識別部43は、対象領域A2-1、並びに、対象領域A2-1に重畳する対象領域A2-2及びA2-3に含まれる領域のうち、識別領域として抽出された領域AR2-1の特徴量に基づいて、領域AR2-1に含まれる撮影対象(言い換えると、対象領域A2-1~A2-3に含まれる撮影対象)を識別する。
また、識別部43は、同一種別の撮影対象が含まれる対象領域が重畳する態様に基づいて、各対象領域に含まれる撮影対象を識別してもよい。例えば、識別部43は、各抽出画像に含まれる対象領域のうち、同一種別と特定された撮影対象が含まれる各対象領域(言い換えると、同一の撮影対象を含むと特定された各対象領域)が重畳する態様に基づいて、当該撮影対象を識別する。
また、識別部43は、重畳する対象領域のうち最も多くの対象領域に含まれる撮影対象の種別を特定し、当該重畳する対象領域から、特定した種別の撮影対象を識別してもよい。例えば、図1の例において、対象領域A2-1の種別が「梨」、対象領域A2-2及びA2-3の種別が「リンゴ」と特定された場合、対象領域A2-1~A2-3に含まれる撮影対象(物体M2)を「リンゴ」と識別する。
また、識別部43は、同一の撮影対象が撮影された領域が重なるように複数の抽出画像を重畳した場合に各対象領域が重畳する態様に基づいて、各対象領域に含まれる撮影対象を識別してもよい。例えば、図1の例において、識別部43は、物体M1が含まれる対象領域A1-1及びA1-2が重なり、物体M2が含まれる対象領域A2-1~A2-3が重なるように抽出画像P1~P4を重畳した場合の重畳態様を特定し、特定した重畳態様に基づいて、対象領域A1-1及びA1-2に含まれる撮影対象と、対象領域A2-1~A2-3に含まれる撮影対象とを特定する。なお、識別部43は、同一種別の撮影対象が含まれる対象領域が重なるように複数の抽出画像を重畳した場合に各対象領域が重畳する態様に基づいて、各対象領域に含まれる撮影対象を識別してもよい。
また、識別部43は、複数の抽出画像の各領域のうち、特徴量が類似する領域が重なるように複数の抽出画像を重畳した場合に各対象領域が重畳する態様に基づいて、各対象領域に含まれる撮影対象を識別してもよい。例えば、図1の例において、識別部43は、抽出画像P1~P4のそれぞれに含まれる特徴点を照合し、抽出画像P1~P4間で一致する特徴点PTを抽出する。そして、識別部43は、抽出画像P1~P4のそれぞれに含まれる特徴点PTの位置が一致するように抽出画像P1~P4を重畳させた重畳態様Cに基づいて、対象領域に含まれる撮影対象を識別する。
また、識別部43は、複数の抽出画像に撮影された撮影対象の動きを示すベクトルを用いて同一の撮影対象が撮影された領域が重なるように複数の抽出画像を重畳した場合に各対象領域が重畳する態様に基づいて、各対象領域に含まれる撮影対象を識別してもよい。例えば、図1の例において、識別部43は、抽出画像P1~P4に撮影された撮影対象の時間的に連続する動きをベクトル解析(例えば、オプティカルフローの技術を用いて解析)した解析結果を用いて、同一の撮影対象が撮影された領域が重なるように抽出画像P1~P4を重畳させた重畳態様を特定する。そして識別部43は、特定した重畳態様に基づき、対象領域に含まれる撮影対象を識別する。
(提供部44について)
提供部44は、撮影対象の識別結果を提供する。例えば、図1の例において、提供部44は、物体M1及び物体M2の名称を示す情報を端末装置100に提供する。
〔3.識別処理のフロー〕
図6を用いて、実施形態に係る情報提供装置10の識別処理の手順について説明する。図6は、実施形態に係る識別処理の手順の一例を示すフローチャートである。
図6に示すように、情報提供装置10は、端末装置100から動画像を取得する(ステップS101)。続いて、情報提供装置10は、動画像から抽出した抽出画像ごとに、撮影対象が含まれる対象領域を特定する(ステップS102)。続いて、情報提供装置10は、対象領域のうち、他の対象領域と重畳する態様が所定の条件を満たす領域を識別領域として抽出する(ステップS103)。例えば、情報提供装置10は、対象領域のうち、重畳する他の対象領域の数が最も多い領域を識別領域として抽出する。
続いて、情報提供装置10は、識別領域に含まれる撮影対象を識別する(ステップS104)。例えば、情報提供装置10は、識別領域として抽出された領域の特徴量に基づいて、識別領域に含まれる撮影対象を識別する。続いて、情報提供装置10は、識別結果に応じた情報を端末装置100に提供し(ステップS105)、処理を終了する。
〔4.変形例〕
上述の実施形態は一例を示したものであり、種々の変更及び応用が可能である。
〔4-1.抽出画像について〕
上述の実施形態において、特定部41が、動画像から抽出された複数の抽出画像から対象領域を特定する例を示したが、特定部41の機能はこのような例に限定されない。例えば、特定部41は、撮影対象を連続撮影した各画像から対象領域を特定してもよい。また、特定部41が対象領域を特定する各画像は、同一の撮影対象を含むものであれば、時系列が連続していなくともよい。
〔4-2.対象領域について〕
上述の実施形態において、特定部41が、撮影対象が含まれる矩形を対象領域として抽出画像から特定する例を示したが、特定部41の機能はこのような例に限定されず、任意の形状の対象領域を特定してよい。例えば、特定部41は、ピクセル単位で表現される領域を対象領域として特定してもよい。
〔4-3.抽出画像の重畳について〕
上述の実施形態において、各抽出画像に含まれる特徴点や、撮影対処の動きを示すベクトルに基づいて複数の抽出画像を重畳させる例を示したが、抽出画像を重畳させる手法はこのような例に限定されず、同一の撮影対象を含む対象領域が重畳する任意の手法が用いられてよい。例えば、重畳する対象領域に含まれる撮影対象が同一種別となるように、各抽出画像を重畳させてもよい。また、色相や明度、彩度等が一致するように各抽出画像を重畳させてもよい。
〔5.効果〕
上述してきたように、実施形態に係る情報提供装置10は、特定部41と、抽出部42と、識別部43と、提供部44とを有する。特定部41は、動画像から抽出された複数の抽出画像ごとに、撮影対象が含まれる対象領域を特定する。また、特定部41は、動画像から抽出された複数の抽出画像であって、時系列が連続する複数の抽出画像ごとに、撮影対象が含まれる対象領域を特定する。抽出部42は、対象領域のうち、他の対象領域と重畳する態様が所定の条件を満たす領域を識別領域として抽出する。識別部43は、複数の抽出画像を重畳した場合に各対象領域が重畳する態様に基づいて、各対象領域に含まれる撮影対象を識別する。また、識別部43は、識別領域に含まれる撮影対象を識別する。提供部44は、撮影対象の識別結果を提供する。
これにより、実施形態に係る情報提供装置10は、複数の画像から特定された対象領域に基づき撮影対象を識別できるため、画像を用いた検索の検索精度を向上させることができる。
また、実施形態に係る情報提供装置10において、例えば、抽出部42は、対象領域ごとに、重畳した他の対象領域の数が多い程高い値のスコアを算出し、算出したスコアが所定の条件を満たす対象領域を識別領域として抽出する。また、抽出部42は、対象領域ごとに、重畳した他の対象領域の数に1を合計した値を、抽出画像の数で除算したスコアを算出する。また、抽出部42は、対象領域ごとに、当該対象領域と重畳する他の対象領域の数に1を合計した値を、当該対象領域と重畳する領域を有する抽出画像の数で除算したスコアを算出する。また、抽出部42は、対象領域ごとに、当該対象領域に含まれる画像数が多い程より高い値のスコアを算出する。
これにより、実施形態に係る情報提供装置10は、重畳の態様に応じて算出するスコアを用いて識別領域を抽出することにより、対象領域に含まれる領域と、撮影対象とが対応する確度が高い領域を抽出して撮影対象の識別を行うことができるため、画像を用いた検索の検索精度を向上させることができる。
また、実施形態に係る情報提供装置10において、例えば、特定部41は、対象領域に含まれる撮影対象の種別をさらに特定する。そして、識別部43は、同一種別の撮影対象が含まれる対象領域が重畳する態様に基づいて、各対象領域に含まれる撮影対象を識別する。また、特定部41は、対象領域に含まれる撮影対象の種別をさらに特定する。そして、識別部43は、重畳する対象領域のうち最も多くの対象領域に含まれる撮影対象の種別を特定し、当該重畳する対象領域から、特定した種別の撮影対象を識別する。また、識別部43は、同一の撮影対象が撮影された領域が重なるように複数の抽出画像を重畳した場合に各対象領域が重畳する態様に基づいて、各対象領域に含まれる撮影対象を識別する。
これにより、実施形態に係る情報提供装置10は、同一種別の撮影対象が含まれる対象領域が重畳する態様に基づいて撮影対象の識別を行うことができるため、画像を用いた検索の検索精度を向上させることができる。
また、実施形態に係る情報提供装置10において、例えば、識別部43は、複数の抽出画像の各領域のうち、特徴量が類似する領域が重なるように複数の抽出画像を重畳した場合に各対象領域が重畳する態様に基づいて、各対象領域に含まれる撮影対象を識別する。また、識別部43は、複数の抽出画像に撮影された撮影対象の動きを示すベクトルを用いて同一の撮影対象が撮影された領域が重なるように複数の抽出画像を重畳した場合に各対象領域が重畳する態様に基づいて、各対象領域に含まれる撮影対象を識別する。
これにより、実施形態に係る情報提供装置10は、各抽出画像に含まれる対象領域のうち対応するものを重畳させ、撮影対象の識別を行うことができるため、画像を用いた検索の検索精度を向上させることができる。
〔6.ハードウェア構成〕
また、上述してきた各実施形態に係る情報提供装置10は、例えば、図7に示すような構成のコンピュータ1000によって実現される。以下、情報提供装置10を例に挙げて説明する。図7は、情報提供装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を記憶する。通信インターフェイス1500は、通信網500(実施形態のネットワークNに対応する)を介して他の機器からデータを受信してCPU1100へ送り、また、通信網500を介してCPU1100が生成したデータを他の機器へ送信する。
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、入出力インターフェイス1600を介して生成したデータを出力装置へ出力する。
メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が情報提供装置10として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部40の機能を実現する。また、HDD1400には、情報提供装置10の記憶装置内の各データが格納される。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から所定の通信網を介してこれらのプログラムを取得してもよい。
〔7.その他〕
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
また、上述した情報提供装置10は、機能によっては外部のプラットフォーム等をAPI(Application Programming Interface)やネットワークコンピューティングなどで呼び出して実現するなど、構成は柔軟に変更できる。
また、特許請求の範囲に記載した「部」は、「手段」や「回路」などに読み替えることができる。例えば、特定部は、特定手段や特定回路に読み替えることができる。
10 情報提供装置
20 通信部
30 記憶部
31 画像データベース
40 制御部
41 特定部
42 抽出部
43 識別部
44 提供部
100 端末装置

Claims (13)

  1. 動画像から抽出された複数の抽出画像ごとに、撮影対象が含まれる対象領域を特定する特定部と、
    前記対象領域のうち、他の対象領域と重畳する態様が所定の条件を満たす領域を識別領域として抽出する抽出部と、
    前記識別領域に基づいて、前記識別領域に含まれる撮影対象を識別する識別部と
    を有することを特徴とする識別装置。
  2. 前記抽出部は、
    前記対象領域ごとに、重畳した他の対象領域の数が多い程高い値のスコアを算出し、算出したスコアが所定の条件を満たす対象領域を識別領域として抽出する
    ことを特徴とする請求項に記載の識別装置。
  3. 前記抽出部は、
    前記対象領域ごとに、重畳した他の対象領域の数に1を合計した値を、前記抽出画像の数で除算したスコアを算出する
    ことを特徴とする請求項に記載の識別装置。
  4. 前記抽出部は、
    前記対象領域ごとに、当該対象領域と重畳する他の対象領域の数に1を合計した値を、当該対象領域と重畳する領域を有する抽出画像の数で除算したスコアを算出する
    ことを特徴とする請求項に記載の識別装置。
  5. 前記抽出部は、
    前記対象領域ごとに、当該対象領域に含まれる画素数が多い程より高い値のスコアを算出する
    ことを特徴とする請求項のうちいずれか1つに記載の識別装置。
  6. 前記特定部は、
    前記対象領域に含まれる撮影対象の種別をさらに特定し、
    前記識別部は、
    同一種別の撮影対象が含まれる対象領域が重畳する態様に基づいて、各対象領域に含まれる撮影対象を識別する
    ことを特徴とする請求項1~のうちいずれか1つに記載の識別装置。
  7. 前記特定部は、
    前記対象領域に含まれる撮影対象の種別をさらに特定し、
    前記識別部は、
    重畳する対象領域のうち最も多くの対象領域に含まれる撮影対象の種別を特定し、当該重畳する対象領域から、特定した種別の撮影対象を識別する
    ことを特徴とする請求項1~のうちいずれか1つに記載の識別装置。
  8. 前記識別部は、
    同一の撮影対象が撮影された領域が重なるように前記複数の抽出画像を重畳した場合に各対象領域が重畳する態様に基づいて、各対象領域に含まれる撮影対象を識別する
    ことを特徴とする請求項1~のうちいずれか1つに記載の識別装置。
  9. 前記識別部は、
    前記複数の抽出画像の各領域のうち、特徴量が類似する領域が重なるように前記複数の抽出画像を重畳した場合に各対象領域が重畳する態様に基づいて、各対象領域に含まれる撮影対象を識別する
    ことを特徴とする請求項に記載の識別装置。
  10. 前記識別部は、
    前記複数の抽出画像に撮影された撮影対象の動きを示すベクトルを用いて同一の撮影対象が撮影された領域が重なるように前記複数の抽出画像を重畳した場合に各対象領域が重畳する態様に基づいて、各対象領域に含まれる撮影対象を識別する
    ことを特徴とする請求項またはに記載の識別装置。
  11. 前記特定部は、
    動画像から抽出された複数の抽出画像であって、時系列が連続する複数の抽出画像ごとに、撮影対象が含まれる対象領域を特定する
    ことを特徴とする請求項1~10のうちいずれか1つに記載の識別装置。
  12. 識別装置が実行する識別方法であって、
    動画像から抽出された複数の抽出画像ごとに、撮影対象が含まれる対象領域を特定する特定工程と、
    前記対象領域のうち、他の対象領域と重畳する態様が所定の条件を満たす領域を識別領域として抽出する抽出工程と、
    前記識別領域に基づいて、前記識別領域に含まれる撮影対象を識別する識別工程と
    を含むことを特徴とする識別方法。
  13. 動画像から抽出された複数の抽出画像ごとに、撮影対象が含まれる対象領域を特定する特定手順と、
    前記対象領域のうち、他の対象領域と重畳する態様が所定の条件を満たす領域を識別領域として抽出する抽出手順と、
    前記識別領域に基づいて、前記識別領域に含まれる撮影対象を識別する識別手順と
    をコンピュータに実行させることを特徴とする識別プログラム。
JP2019169863A 2019-09-18 2019-09-18 識別装置、識別方法及び識別プログラム Active JP7109414B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019169863A JP7109414B2 (ja) 2019-09-18 2019-09-18 識別装置、識別方法及び識別プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019169863A JP7109414B2 (ja) 2019-09-18 2019-09-18 識別装置、識別方法及び識別プログラム

Publications (2)

Publication Number Publication Date
JP2021047650A JP2021047650A (ja) 2021-03-25
JP7109414B2 true JP7109414B2 (ja) 2022-07-29

Family

ID=74876362

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019169863A Active JP7109414B2 (ja) 2019-09-18 2019-09-18 識別装置、識別方法及び識別プログラム

Country Status (1)

Country Link
JP (1) JP7109414B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230250203A1 (en) 2020-07-14 2023-08-10 Sekisui Chemical Co., Ltd. Modified polyvinyl acetal resin, storage battery electrode composition, pigment composition

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015057730A (ja) 2014-11-19 2015-03-26 キヤノン株式会社 画像処理装置および画像処理方法
JP2019087200A (ja) 2017-11-10 2019-06-06 株式会社小松製作所 作業車両の動作を推定するための方法、システム、学習済みの分類モデルの製造方法、学習データ、及び学習データの製造方法
JP6562492B1 (ja) 2019-05-16 2019-08-21 株式会社モルフォ 画像処理装置、画像処理方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015057730A (ja) 2014-11-19 2015-03-26 キヤノン株式会社 画像処理装置および画像処理方法
JP2019087200A (ja) 2017-11-10 2019-06-06 株式会社小松製作所 作業車両の動作を推定するための方法、システム、学習済みの分類モデルの製造方法、学習データ、及び学習データの製造方法
JP6562492B1 (ja) 2019-05-16 2019-08-21 株式会社モルフォ 画像処理装置、画像処理方法及びプログラム

Also Published As

Publication number Publication date
JP2021047650A (ja) 2021-03-25

Similar Documents

Publication Publication Date Title
CN108427927B (zh) 目标再识别方法和装置、电子设备、程序和存储介质
US9036905B2 (en) Training classifiers for deblurring images
CN109871490B (zh) 媒体资源匹配方法、装置、存储介质和计算机设备
US10146992B2 (en) Image processing apparatus, image processing method, and storage medium that recognize an image based on a designated object type
EP2915102A1 (en) Detection of human actions from video data
JP5808371B2 (ja) 画像認識装置、画像認識方法及び画像認識プログラム
CN107918767B (zh) 目标检测方法、装置、电子设备及计算机可读介质
CN110728188B (zh) 图像处理方法、装置、系统和存储介质
KR102468309B1 (ko) 영상 기반 건물 검색 방법 및 장치
AU2019291969A1 (en) Computer vision systems and methods for automatically detecting, classifying, and pricing objects captured in images or videos
CN110956131B (zh) 单目标追踪方法、装置及系统
CN110569380B (zh) 一种图像标签获取方法、装置及存储介质和服务器
JP7109414B2 (ja) 識別装置、識別方法及び識別プログラム
JP6511950B2 (ja) 画像処理装置、画像処理方法及びプログラム
D’Eusanio et al. Manual annotations on depth maps for human pose estimation
JP6822484B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN109685079B (zh) 一种特征图像类别信息的生成方法和装置
CN110738175A (zh) 人脸图像处理方法、装置、计算机设备和存储介质
WO2020113020A1 (en) Providing content related to objects detected in images
CN108446737B (zh) 用于识别对象的方法和装置
CN112241752A (zh) 模型训练方法、数据处理方法、分类方法、装置、设备
JP6982035B2 (ja) 検索装置、検索方法及び検索プログラム
Kamble et al. Object recognition through smartphone using deep learning techniques
JP6132996B1 (ja) 画像処理装置,画像処理方法,画像処理プログラム
JP6717769B2 (ja) 情報処理装置及びプログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210916

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210916

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220719

R150 Certificate of patent or registration of utility model

Ref document number: 7109414

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350