JP2017201454A - 画像処理装置及びプログラム - Google Patents

画像処理装置及びプログラム Download PDF

Info

Publication number
JP2017201454A
JP2017201454A JP2016092661A JP2016092661A JP2017201454A JP 2017201454 A JP2017201454 A JP 2017201454A JP 2016092661 A JP2016092661 A JP 2016092661A JP 2016092661 A JP2016092661 A JP 2016092661A JP 2017201454 A JP2017201454 A JP 2017201454A
Authority
JP
Japan
Prior art keywords
subject
image
calculation unit
region
setting unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016092661A
Other languages
English (en)
Other versions
JP6725310B2 (ja
Inventor
貴裕 望月
Takahiro Mochizuki
貴裕 望月
住吉 英樹
Hideki Sumiyoshi
英樹 住吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2016092661A priority Critical patent/JP6725310B2/ja
Publication of JP2017201454A publication Critical patent/JP2017201454A/ja
Application granted granted Critical
Publication of JP6725310B2 publication Critical patent/JP6725310B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

【課題】背景の影響をさほど受けることなく、被写体の類似性に重きを置いた高精度の画像検索を行う。
【解決手段】画像処理装置1の被写体矩形領域設定部14は、画像Iの顕著性マップを用いて画像Iの被写体矩形領域を設定する。被写体領域設定部15は、被写体矩形領域の矩形枠上にNc個の制御点を設定し、Nc個の制御点を直線で結んだ輪郭を動的輪郭モデルの初期輪郭として設定する。被写体領域設定部15は、輪郭全体の弧長に関するエネルギーELEN、各制御点における曲率に関するエネルギーECRV、及び各制御点における画像に関するエネルギーEIMGを加算したエネルギーEを求め、エネルギーEが最小となる位置で各制御点を停止させ、その位置で被写体輪郭を設定し、被写体輪郭内の領域を被写体領域として設定する。被写体特徴算出部16は、画像I内の被写体領域の画像特徴量を被写体特徴ベクトルVOIとして算出する。
【選択図】図1

Description

本発明は、画像の特徴量を算出する画像処理装置及びプログラムに関する。
従来、被写体を含む画像を検索する手法が知られている。例えば、画像上の色、模様等の配置(以下「レイアウト」という。)を考慮した画像検索を行う場合、画像を格子状に分割した各ブロック領域から特徴量を算出し、位置が対応するブロック領域同士で特徴量を比較する手法が一般的に用いられる(例えば、特許文献1,2を参照)。
しかしながら、この手法を用いると、検索結果は、背景の類似性の影響を受けてしまい、被写体の類似性がさほど反映されることはない。このため、この手法では、利用者の意図する検索結果が得られない場合がある。
この問題を解決するために、画像の中央部のブロック領域を被写体領域上へ移動させた後、そのブロック領域について類似度を算出する際に、被写体領域に対して高い重み係数を掛ける手法が提案されている(例えば、特許文献3を参照)。
ここで、画像の中央部のブロック領域を被写体領域上へ移動させた後のブロック領域を「被写体ブロック領域」という。この手法では、被写体の類似性に重きを置いた検索結果を得ることができる。
特開平10−260983号公報 特開2001−319232号公報 特開2013−225180号公報
図12は、被写体ブロック領域内に被写体以外の背景が含まれる画像例を示す図である。図12において、四角の枠で囲まれた領域が被写体ブロック領域である。これらの被写体ブロック領域には、被写体である船とは別に背景(矢印の箇所)が含まれる。この背景は、被写体自体の画像特徴量を算出する観点からすると、余分な領域であるため、被写体ブロック領域には、被写体以外の余分な領域が含まれているといえる。
このように、被写体ブロック領域内には背景が含まれるため、前述の特許文献3による手法では、背景の影響を受けた検索結果を算出してしまい、結果として検索精度を向上させることができないという問題があった。
そこで、本発明は前記課題を解決するためになされたものであり、その目的は、背景の影響をさほど受けることなく、被写体の類似性に重きを置いた高精度の画像検索を可能とする画像処理装置及びプログラムを提供することにある。
前記課題を解決するために、請求項1の画像処理装置は、被写体を含む画像の特徴量を算出する画像処理装置において、前記画像に含まれる前記被写体が存在する視覚的注意が導かれる領域を可視化するための顕著性値を画素毎に表した顕著性マップを用いて、前記被写体を含む矩形の被写体矩形領域を設定する被写体矩形領域設定部と、前記被写体矩形領域設定部により設定された前記被写体矩形領域の前記矩形の枠上に、所定数の制御点を設定し、前記所定数の制御点を直線で結んだ輪郭の動的輪郭モデルを設定し、前記所定数の制御点の位置をそれぞれ移動させる毎に、前記動的輪郭モデルのエネルギーを算出し、前記エネルギーに基づいて、前記被写体の輪郭を被写体輪郭として設定し、前記被写体輪郭内の領域を被写体領域として設定する被写体領域設定部と、前記被写体領域設定部により設定された前記被写体領域の画像特徴量を算出する被写体特徴算出部と、を備えたことを特徴とする。
また、請求項2の画像処理装置は、請求項1に記載の画像処理装置において、前記画像から格子状の複数のブロック領域を設定するブロック設定部と、前記ブロック設定部により設定された複数のブロック領域のそれぞれについての特徴量を、全体の画像特徴量をして算出するブロック特徴算出部と、を備え、前記被写体特徴算出部により算出された前記被写体領域の画像特徴量、及び、前記ブロック特徴算出部により算出された前記全体の画像特徴量を出力する、ことを特徴とする。
また、請求項3の画像処理装置は、請求項1または2に記載の画像処理装置において、前記被写体領域設定部が、前記被写体矩形領域設定部により設定された前記被写体矩形領域の前記矩形の枠上に、所定数の制御点を設定し、前記所定数の制御点を直線で結んだ輪郭の動的輪郭モデルを設定し、前記所定数の制御点の位置をそれぞれ移動させる毎に、前記動的輪郭モデルの輪郭の弧長に関するエネルギー、前記動的輪郭モデルの曲率に関するエネルギー、及び前記動的輪郭モデルの画像の勾配に関するエネルギーの加算値を、前記動的輪郭モデルのエネルギーとして算出し、前記エネルギーが最小のときの前記所定数の制御点を結んだ輪郭を被写体輪郭として設定し、前記被写体輪郭内の領域を被写体領域として設定する、ことを特徴とする。
また、請求項4の画像処理装置は、複数の検索対象画像から要求画像に類似する画像を検索する画像処理装置において、前記複数の検索対象画像のそれぞれについて、画像特徴量を算出する前処理部と、前記要求画像について、画像特徴量を算出する特徴算出部と、前記前処理部により算出された前記複数の検索対象画像のそれぞれについての画像特徴量、及び前記特徴算出部により算出された前記要求画像の画像特徴量に基づいて、前記複数の検索対象画像のそれぞれと前記要求画像との間の類似度を算出する類似度算出部と、前記類似度算出部により算出された前記類似度に基づいて、前記複数の検索対象画像から前記要求画像に類似する画像を選択する類似画像選択部と、を備え、前記前処理部が、前記複数の検索対象画像のそれぞれについて、格子状の複数のブロック領域を設定する第1のブロック設定部と、前記複数の検索対象画像のそれぞれについて、前記第1のブロック設定部により設定された複数のブロック領域の特徴量を、全体特徴量をして算出する第1のブロック特徴算出部と、前記複数の検索対象画像のそれぞれについて、当該検索対象画像に含まれる被写体が存在する視覚的注意が導かれる領域を可視化するための顕著性値を画素毎に表した顕著性マップを用いて、前記被写体を含む矩形の被写体矩形領域を設定する第1の被写体矩形領域設定部と、前記複数の検索対象画像のそれぞれについて、前記第1の被写体矩形領域設定部により設定された前記被写体矩形領域の前記矩形の枠上に、所定数の制御点を設定し、前記所定数の制御点を直線で結んだ輪郭の動的輪郭モデルを設定し、前記所定数の制御点の位置をそれぞれ移動させる毎に、前記動的輪郭モデルの輪郭の弧長に関するエネルギー、前記動的輪郭モデルの曲率に関するエネルギー、及び前記動的輪郭モデルの画像の勾配に関するエネルギーの加算値を、前記動的輪郭モデルのエネルギーとして算出し、前記エネルギーが最小のときの前記所定数の制御点を結んだ輪郭を被写体輪郭として設定し、前記被写体輪郭内の領域を被写体領域として設定する第1の被写体領域設定部と、前記複数の検索対象画像のそれぞれについて、前記第1の被写体領域設定部により設定された前記被写体領域の画像特徴量を、被写体特徴量として算出する第1の被写体特徴算出部と、を備え、前記特徴算出部が、前記要求画像について、格子状の複数のブロック領域を設定する第2のブロック設定部と、前記第2のブロック設定部により設定された複数のブロック領域の特徴量を、全体特徴量をして算出する第2のブロック特徴算出部と、前記要求画像に含まれる被写体が存在する視覚的注意が導かれる領域を可視化するための顕著性値を画素毎に表した顕著性マップを用いて、前記被写体を含む矩形の被写体矩形領域を設定する第2の被写体矩形領域設定部と、前記第2の被写体矩形領域設定部により設定された前記被写体矩形領域の前記矩形の枠上に、所定数の制御点を設定し、前記所定数の制御点を直線で結んだ輪郭の動的輪郭モデルを設定し、前記所定数の制御点の位置をそれぞれ移動させる毎に、前記動的輪郭モデルの輪郭の弧長に関するエネルギー、前記動的輪郭モデルの曲率に関するエネルギー、及び前記動的輪郭モデルの画像の勾配に関するエネルギーの加算値を、前記動的輪郭モデルのエネルギーとして算出し、前記エネルギーが最小のときの前記所定数の制御点を結んだ輪郭を被写体輪郭として設定し、前記被写体輪郭内の領域を被写体領域として設定する第2の被写体領域設定部と、前記第2の被写体領域設定部により設定された前記被写体領域の画像特徴量を、被写体特徴量として算出する第2の被写体特徴算出部と、を備え、前記類似度算出部が、前記前処理部の前記第1のブロック特徴算出部により算出された前記複数の検索対象画像のそれぞれについての全体特徴量、及び前記特徴算出部の前記第2のブロック特徴算出部により算出された前記要求画像の全体特徴量に基づいて、前記複数の検索対象画像のそれぞれと前記要求画像との間の全体類似度を算出し、前記前処理部の前記第1の被写体特徴算出部により算出された前記複数の検索対象画像のそれぞれについての被写体特徴量、及び前記特徴算出部の前記第2の被写体特徴算出部により算出された前記要求画像の被写体特徴量に基づいて、前記複数の検索対象画像のそれぞれと前記要求画像との間の被写体類似度を算出し、前記全体類似度及び前記被写体類似度に基づいて、前記複数の検索対象画像のそれぞれと前記要求画像との間の類似度を算出する、ことを特徴とする。
また、請求項5の画像処理装置は、請求項4に記載の画像処理装置において、前記特徴算出部が、さらに、前記顕著性マップを用いて、前記第2の被写体領域設定部により設定された前記被写体輪郭の全制御点の顕著性値を平均化し、平均値に基づいて、前記被写体領域の重み係数を算出する重み係数算出部を備え、前記類似度算出部が、前記特徴算出部の前記重み係数算出部により算出された前記重み係数、前記全体類似度及び前記被写体類似度に基づいて、前記複数の検索対象画像のそれぞれと前記要求画像との間の類似度を算出する、ことを特徴とする。
また、請求項6の画像処理装置は、請求項3から5までのいずれか一項に記載の画像処理装置において、前記動的輪郭モデルの画像の勾配に関するエネルギーを、前記顕著性マップに表された顕著性値から得られる前記制御点の画素位置の勾配値とする、ことを特徴とする。
さらに、請求項7のプログラムは、コンピュータを、請求項1から6までのいずれか一項に記載の画像処理装置として機能させることを特徴とする。
以上のように、本発明によれば、背景の影響をさほど受けることなく、被写体の類似性に重きを置いた高精度の画像検索を実現することができる。
実施例1の画像処理装置の構成例を示すブロック図である。 被写体特徴処理部の処理例を示すフローチャートである。 実施例2の画像処理装置の構成例を示すブロック図である。 前処理部の処理例を示すフローチャートである。 検索処理部の処理例を示すフローチャートである。 M=4,N=4の場合のブロック領域毎の画像例を示す図である。 画像Iの顕著性マップ及び被写体矩形領域の例を示す図である。 動的輪郭モデルの初期輪郭及び制御点の例を示す図である。 画像Iの顕著性マップにおいて、エネルギーEが最小のときの被写体の輪郭の例を示す図である。 画像Iにおいて、エネルギーEが最小のときの被写体の輪郭の例を示す図である。 画像特徴ベクトルVIの例を示す図である。 被写体ブロック領域内に被写体以外の背景が含まれる画像例を示す図である。
以下、本発明を実施するための形態について図面を用いて詳細に説明する。本発明は、画像に対し、顕著性マップを用いて被写体を含む矩形の被写体矩形領域を設定し、動的輪郭モデルのエネルギーが最小となるように被写体矩形領域から被写体領域を抽出し、被写体領域の画像特徴量を算出することを特徴とする。
また、本発明は、ブロック領域の画像特徴量及び被写体領域の画像特徴量を用いて、複数の検索対象画像のそれぞれと要求画像との間の類似度を算出し、複数の検索対象画像から類似度の高い画像を選択することを特徴とする。
これにより、被写体領域は、被写体矩形領域に比べ、背景が含まれる度合いが低くなるから、被写体領域の画像特徴量は、被写体自体の特徴が反映された値となる。したがって、被写体領域の画像特徴量を画像検索に用いることで、背景の影響をさほど受けることなく、被写体の類似性に重きを置いた高精度の画像検索を実現することができる。
〔実施例1〕
まず、実施例1について説明する。実施例1は、従来のブロック領域毎の画像特徴量を算出すると共に、画像から背景を除外した被写体領域を設定し、被写体領域の画像特徴量を算出する例である。
図1は、実施例1の画像処理装置の構成例を示すブロック図である。この画像処理装置1は、ブロック設定部10、ブロック特徴算出部11、被写体特徴処理部12及び画像特徴ベクトル生成部13を備えている。
画像処理装置1は、1枚の画像Iを入力し、ブロック領域毎の画像特徴量からなる画像全体特徴ベクトルVGIを算出すると共に、被写体領域の画像特徴量である被写体特徴ベクトルVOI及び被写体領域の重み係数WIを算出する。そして、画像処理装置1は、画像Iの画像特徴ベクトルVI={VGI, VOI}及び被写体領域の重み係数WIを出力する。
ここで、画像全体特徴ベクトルVGIは、画像Iのブロック分割に基づいた画像全体の特徴量を示し、被写体特徴ベクトルVOIは、被写体の特徴量を示す。被写体領域の重み係数WIは、画像I内で被写体が目立つ程度を示し、被写体を含む画像間の類似度を算出する際に用いられる。
ブロック設定部10は、画像Iを入力し、画像Iに対して格子状にM1×M2個のブロック領域を設定し、ブロック領域毎の画像を切り出す。M1,M2は正の整数である。そして、ブロック設定部10は、ブロック領域毎の画像をブロック特徴算出部11に出力する。
図6は、M1=4,M2=4の場合のブロック領域毎の画像例を示す図である。図6に示すように、画像Iからブロック領域(m1,m2)毎の16枚の画像が切り出される。m1=1,・・・,4、m2=1,・・・,4である。
図1に戻って、ブロック特徴算出部11は、ブロック設定部10からブロック領域毎の画像を入力し、ブロック領域(m1,m2)毎に画像特徴量VGI(m1,m2)を算出し、ブロック領域(m1,m2)毎の画像特徴量VGI(m1,m2)からなる画像全体特徴ベクトルVGIを生成する。そして、ブロック特徴算出部11は、画像全体特徴ベクトルVGIを画像特徴ベクトル生成部13に出力する。
m1=1,・・・,M1、m2=1,・・・,M2とすると、画像全体特徴ベクトルVGIは、以下の式で表される。
[数1]
GI={VGI(1,1),・・・,VGI(M1,M2)} ・・・(1)
被写体特徴処理部12は、画像Iを入力し、画像Iから被写体領域を設定し、被写体特徴ベクトルVOI及び重み係数WIを算出し、被写体特徴ベクトルVOIを画像特徴ベクトル生成部13に出力し、重み係数WIを外部へ出力する。
被写体特徴処理部12は、被写体矩形領域設定部14、被写体領域設定部15、被写体特徴算出部16及び重み係数算出部17を備えている。図2は、被写体特徴処理部12の処理例を示すフローチャートである。
被写体矩形領域設定部14は、画像Iを入力し(ステップS201)、画像Iの顕著性マップを生成し、画像Iの顕著性マップを用いて、被写体を含む矩形の被写体矩形領域を設定する(ステップS202)。そして、被写体矩形領域設定部14は、画像I及び被写体矩形領域を特定するための情報を被写体領域設定部15に出力する。
顕著性マップを生成する処理及び被写体矩形領域を設定する処理は既知であり、詳細については前述の特許文献3を参照されたい。
画像の顕著性マップは、色、輝度、方向等を考慮し、画像中の物体(被写体)が存在する視覚的注意が導かれる領域を可視化したマップであり、画素毎にその位置の顕著性値で表される。画像の顕著性マップは既知であり、詳細については以下の文献を参照されたい。
[非特許文献] L.Itti, C.Koch, and E.Niebur:“A Model of Saliency-Based Visual Attention for Rapid Scene Analysis”, IEEE Transactions on Pattern Analysis and Machine Intelligence, VOl.20, No11, 1998年11月
[特許文献] 特表2007−515009号公報
図7は、画像Iの顕著性マップ及び被写体矩形領域の例を示す図である。図7に示すとおり、画像Iの顕著性マップは、各画素の位置の顕著性値で表され、顕著性値が輝度の高さで表されている。また、四角で囲んだ領域が被写体矩形領域である。
図1及び図2に戻って、被写体領域設定部15は、被写体矩形領域設定部14から画像I及び被写体矩形領域を特定するための情報を入力する。そして、被写体領域設定部15は、被写体矩形領域の矩形枠上に、Nc個の制御点{CP(1),・・・,CP(Nc)}を任意に設定する。被写体領域設定部15は、Nc個の制御点{CP(1),・・・,CP(Nc)}を直線で結んだ輪郭を、これらの制御点を持つ動的輪郭モデルの初期輪郭として設定する(ステップS203)。Ncは、予め設定される。
図8は、動的輪郭モデルの初期輪郭及び制御点の例を示す図である。図8において、丸印が制御点を示し、制御点を直線で結んだ輪郭が動的輪郭モデルの初期輪郭である。
図1及び図2に戻って、被写体領域設定部15は、以下に示す動的輪郭モデルの全制御点のエネルギーEを算出し、エネルギーEが最小となる方向へ制御点を移動させ、エネルギーEが最小となる位置で各制御点を停止させる。
尚、動的輪郭モデルのエネルギーを最小にする手法は、例えばスネーク法が用いられる。詳細については、以下の非特許文献を参照されたい。
[非特許文献] M.Kass, A.Witkin, and D.Terzopoulos:“Snakes:Active contour models,” International Journal of Computer Vision, 1(4):321-331, 1998年1月
具体的には、被写体領域設定部15は、動的輪郭モデルのエネルギーEを算出し(ステップS204)、エネルギーEが最小であるか否かを判定する(ステップS205)。
被写体領域設定部15は、ステップS205において、エネルギーEが最小でないと判定した場合(ステップS205:N)、動的輪郭モデルの面積が小さくなるように、その輪郭を収縮させる方向に、任意の制御点を任意に移動させる(ステップS206)。そして、ステップS204〜ステップS206の処理を繰り返す。被写体領域設定部15は、ステップS205において、エネルギーEが最小であると判定した場合(ステップS205:Y)、ステップS207へ移行する。
尚、被写体領域設定部15は、ステップS205におけるエネルギーEの最小の判定を、ステップS204及びステップS206の処理を所定回数行った後に行うようにしてもよい。また、被写体領域設定部15は、エネルギーEの極小点を検出した場合に、当該極小点がエネルギーEの最小点であると判定するようにしてもよい。
ステップS204において、動的輪郭モデルのエネルギーEは、以下の式にて算出される。
[数2]
E=ELEN+ECRV+EIMG ・・・(2)
動的輪郭モデルのエネルギーEは、輪郭全体の弧長に関するエネルギーELEN、各制御点における曲率(輪郭全体の曲率)に関するエネルギーECRV、及び各制御点における画像の勾配に関するエネルギーEIMGを加算することで求められる。
エネルギーELENが小さい場合は、輪郭全体の弧長が短いことを示しており、各制御点の曲率に関するエネルギーECRVが小さい場合は、輪郭の曲がり具合がきつくない(小さい、滑らかである)ことを示している。また、各制御点における画像の勾配に関するエネルギーEIMGが小さい場合は、各制御点が被写体と背景との間の境界に存在する割合が高いことを示している。したがって、動的輪郭モデルのエネルギーEが最小の場合とは、総合的に、輪郭全体の弧長が短く、各制御点の曲がり具合がきつくなく(小さく、滑らかであり)、かつ、各制御点が被写体と背景との間の境界に存在する割合が高いことを示している。
ここで、制御点CP(i)(i=1,・・・,Nc)において、制御点CP(i)のx座標をxi、制御点CP(i)のy座標をyiとする。また、x0=xNcとする。輪郭全体の弧長に関するエネルギーELENは、以下の式にて算出される。
[数3]
各制御点における曲率に関するエネルギーECRVは、以下の式にて算出される。
[数4]
各制御点における画像に関するエネルギーEIMGは、以下の式にて算出される。
[数5]
I’(i)としては、制御点CP(i)における画像エネルギーであり、画像Iにおける制御点の画素位置の画素値から得られる勾配(エッジ)情報(勾配値)が用いられる。
ここで、背景が複雑なテクスチャを持つ場合、エネルギーEが最小となる方向へ制御点を移動させる過程で、制御点が被写体と背景との間のエッジではなく、背景内のエッジで停止してしまうことがあり得る。これでは、後述するステップS207において、本来の被写体の輪郭とは大きく異なる被写体輪郭が設定されてしまう可能性がある。
そこで、被写体領域設定部15は、各制御点における画像に関するエネルギーEIMGを算出する際の画像エネルギーI’(i)として、ステップS202にて生成した画像Iの顕著性マップを利用する。すなわち、被写体領域設定部15は、画像エネルギーI’(i)として、画像Iの顕著性マップにおける顕著性値から得られる制御点の画素位置の勾配値を用いる。
画像Iの顕著性マップは、画像Iにおいて視覚的注意が導かれる被写体が存在する領域(画像I全体の中で目立つ領域)を可視化した顕著性値により構成されている。したがって、この顕著性マップを用いることで、後述するステップS207において、本来の被写体の輪郭に近い被写体輪郭を設定し、精度の高い被写体領域を設定することができる。この場合、背景と被写体との間の境界が曖昧な場合であっても、大まかな被写体領域を設定することができる。
被写体領域設定部15は、ステップS205から移行して、エネルギーEが最小のときの全制御点を直線で結んだ輪郭を、被写体の輪郭(被写体輪郭)として設定し、被写体輪郭内の領域を被写体領域として設定する(ステップS207)。そして、被写体領域設定部15は、画像I及び被写体領域を特定するための情報を被写体特徴算出部16及び重み係数算出部17に出力する。
図9は、画像Iの顕著性マップにおいて、エネルギーEが最小のときの被写体の輪郭の例を示す図であり、図10は、画像Iにおいて、エネルギーEが最小のときの被写体の輪郭の例を示す図である。図9及び図10に示すように、エネルギーEが最小のときの全制御点を直線で結ぶことで、被写体輪郭が設定される。
図9及び図10から、被写体輪郭は、図8に示した動的輪郭モデルの初期輪郭に比べ、被写体の形状に近い輪郭となっていることがわかる。つまり、図9及び図10の被写体輪郭内の領域である被写体領域は、図7に示した被写体矩形領域(従来の被写体ブロック領域)よりも、被写体以外の背景が存在する領域(背景領域)の面積が狭くなっている。
図1及び図2に戻って、被写体特徴算出部16は、被写体領域設定部15から画像I及び被写体領域を特定するための情報を入力する。そして、被写体特徴算出部16は、画像I内の被写体領域の画素のみから画像特徴量を算出し、これを被写体特徴ベクトルVOIとして画像特徴ベクトル生成部13に出力する(ステップS208)。
重み係数算出部17は、被写体領域設定部15から画像I及び被写体領域を特定するための情報を入力する。そして、重み係数算出部17は、画像Iの顕著性マップを用いて、ステップS207にて被写体領域設定部15により設定された被写体輪郭の全制御点の顕著性値を平均化する。重み係数算出部17は、以下の式にて、平均値Kaveを所定値(255)で除算することで、被写体領域の重み係数WIを求め、重み係数WIを外部へ出力する(ステップS209)。
[数6]
I=Kave/255 ・・・(6)
画像特徴ベクトル生成部13は、ブロック特徴算出部11から画像全体特徴ベクトルVGIを入力すると共に、被写体特徴処理部12の被写体特徴算出部16から被写体特徴ベクトルVOIを入力する。そして、画像特徴ベクトル生成部13は、画像全体特徴ベクトルVGI及び被写体特徴ベクトルVOIからなる画像Iの画像特徴ベクトルVI={VGI, VOI}を生成し、画像Iの画像特徴ベクトルVI={VGI, VOI}を外部へ出力する。
図11は、画像特徴ベクトルVIの例示す図である。図11に示すように、画像Iの画像特徴ベクトルVI={VGI, VOI}は、ブロック領域(m1,m2)毎の画像特徴量VGI(m1,m2)からなる画像全体特徴ベクトルVGIと、被写体領域の画像特徴量である被写体特徴ベクトルVOIとから構成される。
以上のように、実施例1の画像処理装置1によれば、被写体特徴処理部12の被写体矩形領域設定部14は、画像Iの顕著性マップを用いて画像Iの被写体矩形領域を設定する。そして、被写体領域設定部15は、被写体矩形領域の矩形枠上にNc個の制御点を設定し、Nc個の制御点を直線で結んだ輪郭を動的輪郭モデルの初期輪郭として設定する。そして、被写体領域設定部15は、動的輪郭モデルについて、輪郭全体の弧長に関するエネルギーELEN、各制御点における曲率に関するエネルギーECRV、及び各制御点における画像に関するエネルギーEIMGを加算したエネルギーEを求める。
被写体領域設定部15は、エネルギーEが最小となる方向へ制御点を移動させ、エネルギーEが最小となる位置で各制御点を停止させ、その位置で被写体輪郭を設定し、被写体輪郭内の領域を被写体領域として設定する。
被写体特徴算出部16は、画像I内の被写体領域の画像特徴量を被写体特徴ベクトルVOIとして算出する。
これにより、被写体領域は、被写体矩形領域に比べ、背景が含まれる度合いが低いから、被写体特徴ベクトルVOIは、背景の特徴がさほど反映されず、被写体自体の特徴が反映された画像特徴量となる。
したがって、被写体特徴ベクトルVOIを画像検索に用いることで、背景の影響をさほど受けることなく、被写体の類似性に重きを置いた高精度の画像検索を実現することができる。また、被写体特徴ベクトルVOIを、大量の画像を分類する処理に用いることも可能であり、被写体の類似性に重きを置いた高精度の画像分類処理を実現することができる。
さらに、被写体特徴ベクトルVOIに加え、従来のブロック領域毎の画像特徴量からなる画像全体特徴ベクトルVGIを用いることで、画像Iにおける色、模様等のレイアウトの類似性を保持しながら、背景の影響をさほど受けることなく、被写体の類似性に重きを置いた高精度の画像検索を実現することができる。また、被写体特徴ベクトルVOI及び画像全体特徴ベクトルVGIを、大量の画像を分類する処理に用いることも可能である。例えば、画像全体で分類した後、被写体の類似性に重きを置いた高精度の画像分類処理を実現することができる。
〔実施例2〕
次に、実施例2について説明する。実施例2は、実施例1にて算出したブロック領域毎の画像特徴量及び被写体領域の画像特徴量を用いて、複数の検索対象画像から要求画像に類似する画像を選択する例である。実施例2では、複数の検索対象画像のそれぞれと要求画像との間で、ブロック領域毎の画像特徴量及び被写体領域の画像特徴量を反映した類似度を算出し、複数の検索対象画像から類似度の高い画像を選択する。
図3は、実施例2の画像処理装置の構成例を示すブロック図である。この画像処理装置2は、検索対象画像DB(データベース)20、前処理部21、画像特徴ベクトルDB22及び検索処理部23を備えている。
画像処理装置2は、要求画像Qに類似する画像を、複数の検索対象画像I[1],・・・,I[ND]の中から選択して出力する。具体的には、画像処理装置2は、複数の検索対象画像I[1],・・・,I[ND]の画像特徴ベクトルVI[1],・・・,VI[ND]を算出し、1枚の要求画像Qを入力して要求画像Qの画像特徴ベクトルVQ及び重み係数WQを算出する。そして、画像処理装置2は、要求画像Qと複数の検索対象画像I[1],・・・,I[ND]との間の類似度S(1),・・・S(ND)をそれぞれ算出する。画像処理装置2は、複数の検索対象画像I[1],・・・,I[ND]のうち類似度Sの高い所定数の画像を選択して出力する。
検索対象画像DB20には、ND枚の検索対象画像I[1],・・・,I[ND]が格納されている。NDは検索対象画像数であり、2以上の整数である。
前処理部21は、図1に示した画像処理装置1と同様の処理を行う。まず、前処理部21は、検索対象画像DB20から検索対象画像I[1],・・・,I[ND]を順番に読み出す。そして、前処理部21は、検索対象画像I[1],・・・,I[ND]のそれぞれについて、画像特徴ベクトルVI[1],・・・,VI[ND]を算出し、これらを画像特徴ベクトルDB22に格納する。画像特徴ベクトルは、VI[1]={VGI[1],VOI[1]},・・・,VI[ND]={VGI[ND],VOI[ND]}である。
n=1,・・・,NDとして、画像I[n]の画像特徴ベクトルVI[n]は、ブロック領域(m1,m2)毎の画像特徴量VGI(m1,m2)からなる画像全体特徴ベクトルVGI[n]と、被写体領域の画像特徴量である被写体特徴ベクトルVOI[n]とから構成される。
画像特徴ベクトルDB22には、ND枚の検索対象画像I[1],・・・,I[ND]の画像特徴ベクトルVI[1]={VGI[1],VOI[1]},・・・,VI[ND]={VGI[ND],VOI[ND]}が格納されている。
図4は、前処理部21の処理例を示すフローチャートである。前処理部21は、パラメータn=1を設定し(ステップS401)、検索対象画像DB20から検索対象画像I[n]を読み出す(ステップS402)。
前処理部21は、検索対象画像I[n]について、画像全体特徴ベクトルVGI[n]及び被写体特徴ベクトルVOI[n]からなる画像特徴ベクトルVI[n]を算出し、これを画像特徴ベクトルDB22に格納する(ステップS403)。画像特徴ベクトルVI[n]の算出手法は、図1に示した画像処理装置1の処理と同様である。
前処理部21は、パラメータnに1を加算し(ステップS404)、パラメータnが所定の検索対象画像数NDよりも大きいか否かを判定する(ステップS405)。前処理部21は、ステップS405において、パラメータnが検索対象画像数NDよりも大きくないと判定した場合(ステップS405:N)、ステップS402へ移行する。一方、前処理部21は、ステップS405において、パラメータnが検索対象画像数NDよりも大きいと判定した場合(ステップS405:Y)、処理を終了する。
これにより、画像特徴ベクトルDB22には、検索対象画像I[n]の画像特徴ベクトルVI[n]={VGI[n],VOI[n]}が格納される(n=1,・・・,ND)。
図3に戻って、検索処理部23は、要求画像Qを入力し、要求画像Qの画像特徴ベクトルVQ及び重み係数WQを算出し、画像特徴ベクトルDB22から画像特徴ベクトルVI[1],・・・,VI[ND]を読み出す。そして、検索処理部23は、重み係数WQを用いて、要求画像Qと検索対象画像I[1],・・・,I[ND]との間の類似度S(1),・・・,S(ND)を算出し、類似度の高いR枚の画像I[n1],・・・,I[nR]を検索結果として出力する。
検索処理部23は、特徴算出部24、類似度算出部25及び類似画像選択部26を備えている。図5は、検索処理部23の処理例を示すフローチャートである。検索処理部23の特徴算出部24は、図1に示した画像処理装置1と同様の処理を行う。特徴算出部24は、要求画像Qを入力し(ステップS501)、画像全体特徴ベクトルVGQ及び被写体特徴ベクトルVOQからなる画像特徴ベクトルVQ={VGQ,VOQ}を算出すると共に、重み係数WQを算出する(ステップS502)。そして、特徴算出部24は、要求画像Qの画像特徴ベクトルVQ={VGQ,VOQ}及び重み係数WQを類似度算出部25に出力する。
類似度算出部25は、特徴算出部24から要求画像Qの画像特徴ベクトルVQ={VGQ,VOQ}及び重み係数WQを入力する。そして、類似度算出部25は、パラメータn=1を設定し(ステップS503)、画像特徴ベクトルDB22から検索対象画像I[n]の画像特徴ベクトルVI[n]={VGI[n],VOI[n]}を読み出す(ステップS504)。
類似度算出部25は、要求画像Qの画像全体特徴ベクトルVGQと検索対象画像I[n]の画像全体特徴ベクトルVGI[n]との間の画像全体の類似度SG(n)を算出すると共に、要求画像Qの被写体特徴ベクトルVOQと検索対象画像I[n]の被写体特徴ベクトルVOI[n]との間の被写体の類似度SO(n)を算出する。これらの類似度は、ベクトル同士を内積して求めたり、ユークリッド距離を0〜1に正規化したり等、一般的な算出手法にて求められる。
類似度算出部25は、画像全体の類似度SG(n)、被写体の類似度SO(n)及び要求画像Qの重み係数WQを用いて、以下の式にて、要求画像Qと検索対象画像I[n]との間の総合的な類似度S(n)を算出する(ステップS505)。そして、類似度算出部25は、類似度S(n)を類似画像選択部26に出力する。
[数7]
S(n)=(SG(n)+WQO(n))/(1+WQ) ・・・(7)
前記式(7)において、被写体が目立っている場合(重み係数WQが大きい場合)、類似度S(n)へ反映される被写体の類似度SO(n)の割合は高い。逆に、被写体が目立たない場合(重み係数WQが小さい場合)、類似度S(n)へ反映される被写体の類似度SO(n)の割合が低い。これにより、被写体の目立ち度合いに応じた類似度S(n)を得ることができる。
尚、類似度算出部25は、重み係数WQを用いることなく、類似度SG(n),SO(n)を加算することで、類似度S(n)を求めるようにしてもよい。
類似度算出部25は、パラメータnに1を加算し(ステップS506)、パラメータnが所定の検索対象画像数NDよりも大きいか否かを判定する(ステップS507)。類似度算出部25は、ステップS507において、パラメータnが検索対象画像数NDよりも大きくないと判定した場合(ステップS507:N)、ステップS504へ移行する。
一方、類似度算出部25は、ステップS507において、パラメータnが検索対象画像数NDよりも大きいと判定した場合(ステップS507:Y)、ステップS508へ移行する。
これにより、類似度算出部25において、要求画像Qと全ての検索対象画像I[n]との間の類似度S(n)が得られる(n=1,・・・,ND)。
類似画像選択部26は、類似度算出部25から全ての類似度S(n)を入力し、検索対象画像DB20に格納されたND枚の検索対象画像I[1],・・・,I[ND]から、類似度S(n)の値の高い上位R枚の画像I[n1],・・・,I[nR]を選択する。Rは、1以上の整数である。そして、類似画像選択部26は、選択したR枚の画像I[n1],・・・,I[nR]またはこれらの画像を特定するための情報を検索結果として出力する(ステップS508)。
以上のように、実施例2の画像処理装置2によれば、前処理部21は、実施例1の画像処理装置1と同様の処理にて、ND枚(n=1,・・・,ND)の検索対象画像I[n]のそれぞれについて、画像全体特徴ベクトルVGI[n]及び被写体特徴ベクトルVOI[n]からなる画像特徴ベクトルVI[n]={VGI[n],VOI[n]}を算出する。
検索処理部23の特徴算出部24は、要求画像Qについて、画像全体特徴ベクトルVGQ及び被写体特徴ベクトルVOQからなる画像特徴ベクトルVQ={VGQ,VOQ}を算出すると共に、重み係数WQを算出する。
類似度算出部25は、画像全体特徴ベクトルVGQと画像全体特徴ベクトルVGI[n]との間の類似度SG(n)を算出し、被写体特徴ベクトルVOQと被写体特徴ベクトルVOI[n]との間の類似度SO(n)を算出し、類似度SG(n),SO(n)及び重み係数WQを用いて、要求画像Qと検索対象画像I[n]との間の類似度S(n)を算出する。
類似画像選択部26は、類似度S(n)の値の高い上位R枚の画像I[n1],・・・,I[nR]を選択し、これを検索結果として出力する。
これにより、画像における色、模様等のレイアウトの類似性を保持しながら、背景の影響をさほど受けることなく、被写体の類似性に重きを置いた高精度の画像検索を実現することができる。
尚、本発明の実施例1,2による画像処理装置1,2のハードウェア構成としては、通常のコンピュータを使用することができる。画像処理装置1,2は、CPU、RAM等の揮発性の記憶媒体、ROM等の不揮発性の記憶媒体、及びインターフェース等を備えたコンピュータによって構成される。
画像処理装置1に備えたブロック設定部10、ブロック特徴算出部11、被写体特徴処理部12及び画像特徴ベクトル生成部13の各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。また、画像処理装置2に備えた前処理部21及び検索処理部23の各機能もこれらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。
また、これらのプログラムは、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記憶媒体に格納して頒布することもでき、ネットワークを介して送受信することもできる。
1,2 画像処理装置
10 ブロック設定部
11 ブロック特徴算出部
12 被写体特徴処理部
13 画像特徴ベクトル生成部
14 被写体矩形領域設定部
15 被写体領域設定部
16 被写体特徴算出部
17 重み係数算出部
20 検索対象画像DB
21 前処理部
22 画像特徴ベクトルDB
23 検索処理部
24 特徴算出部
25 類似度算出部
26 類似画像選択部

Claims (7)

  1. 被写体を含む画像の特徴量を算出する画像処理装置において、
    前記画像に含まれる前記被写体が存在する視覚的注意が導かれる領域を可視化するための顕著性値を画素毎に表した顕著性マップを用いて、前記被写体を含む矩形の被写体矩形領域を設定する被写体矩形領域設定部と、
    前記被写体矩形領域設定部により設定された前記被写体矩形領域の前記矩形の枠上に、所定数の制御点を設定し、前記所定数の制御点を直線で結んだ輪郭の動的輪郭モデルを設定し、
    前記所定数の制御点の位置をそれぞれ移動させる毎に、前記動的輪郭モデルのエネルギーを算出し、
    前記エネルギーに基づいて、前記被写体の輪郭を被写体輪郭として設定し、前記被写体輪郭内の領域を被写体領域として設定する被写体領域設定部と、
    前記被写体領域設定部により設定された前記被写体領域の画像特徴量を算出する被写体特徴算出部と、
    を備えたことを特徴とする画像処理装置。
  2. 請求項1に記載の画像処理装置において、
    前記画像から格子状の複数のブロック領域を設定するブロック設定部と、
    前記ブロック設定部により設定された複数のブロック領域のそれぞれについての特徴量を、全体の画像特徴量をして算出するブロック特徴算出部と、を備え、
    前記被写体特徴算出部により算出された前記被写体領域の画像特徴量、及び、前記ブロック特徴算出部により算出された前記全体の画像特徴量を出力する、ことを特徴とする画像処理装置。
  3. 請求項1または2に記載の画像処理装置において、
    前記被写体領域設定部は、
    前記被写体矩形領域設定部により設定された前記被写体矩形領域の前記矩形の枠上に、所定数の制御点を設定し、前記所定数の制御点を直線で結んだ輪郭の動的輪郭モデルを設定し、
    前記所定数の制御点の位置をそれぞれ移動させる毎に、前記動的輪郭モデルの輪郭の弧長に関するエネルギー、前記動的輪郭モデルの曲率に関するエネルギー、及び前記動的輪郭モデルの画像の勾配に関するエネルギーの加算値を、前記動的輪郭モデルのエネルギーとして算出し、
    前記エネルギーが最小のときの前記所定数の制御点を結んだ輪郭を被写体輪郭として設定し、前記被写体輪郭内の領域を被写体領域として設定する、ことを特徴とする画像処理装置。
  4. 複数の検索対象画像から要求画像に類似する画像を検索する画像処理装置において、
    前記複数の検索対象画像のそれぞれについて、画像特徴量を算出する前処理部と、
    前記要求画像について、画像特徴量を算出する特徴算出部と、
    前記前処理部により算出された前記複数の検索対象画像のそれぞれについての画像特徴量、及び前記特徴算出部により算出された前記要求画像の画像特徴量に基づいて、前記複数の検索対象画像のそれぞれと前記要求画像との間の類似度を算出する類似度算出部と、
    前記類似度算出部により算出された前記類似度に基づいて、前記複数の検索対象画像から前記要求画像に類似する画像を選択する類似画像選択部と、を備え、
    前記前処理部は、
    前記複数の検索対象画像のそれぞれについて、格子状の複数のブロック領域を設定する第1のブロック設定部と、
    前記複数の検索対象画像のそれぞれについて、前記第1のブロック設定部により設定された複数のブロック領域の特徴量を、全体特徴量をして算出する第1のブロック特徴算出部と、
    前記複数の検索対象画像のそれぞれについて、当該検索対象画像に含まれる被写体が存在する視覚的注意が導かれる領域を可視化するための顕著性値を画素毎に表した顕著性マップを用いて、前記被写体を含む矩形の被写体矩形領域を設定する第1の被写体矩形領域設定部と、
    前記複数の検索対象画像のそれぞれについて、前記第1の被写体矩形領域設定部により設定された前記被写体矩形領域の前記矩形の枠上に、所定数の制御点を設定し、前記所定数の制御点を直線で結んだ輪郭の動的輪郭モデルを設定し、
    前記所定数の制御点の位置をそれぞれ移動させる毎に、前記動的輪郭モデルの輪郭の弧長に関するエネルギー、前記動的輪郭モデルの曲率に関するエネルギー、及び前記動的輪郭モデルの画像の勾配に関するエネルギーの加算値を、前記動的輪郭モデルのエネルギーとして算出し、
    前記エネルギーが最小のときの前記所定数の制御点を結んだ輪郭を被写体輪郭として設定し、前記被写体輪郭内の領域を被写体領域として設定する第1の被写体領域設定部と、
    前記複数の検索対象画像のそれぞれについて、前記第1の被写体領域設定部により設定された前記被写体領域の画像特徴量を、被写体特徴量として算出する第1の被写体特徴算出部と、を備え、
    前記特徴算出部は、
    前記要求画像について、格子状の複数のブロック領域を設定する第2のブロック設定部と、
    前記第2のブロック設定部により設定された複数のブロック領域の特徴量を、全体特徴量をして算出する第2のブロック特徴算出部と、
    前記要求画像に含まれる被写体が存在する視覚的注意が導かれる領域を可視化するための顕著性値を画素毎に表した顕著性マップを用いて、前記被写体を含む矩形の被写体矩形領域を設定する第2の被写体矩形領域設定部と、
    前記第2の被写体矩形領域設定部により設定された前記被写体矩形領域の前記矩形の枠上に、所定数の制御点を設定し、前記所定数の制御点を直線で結んだ輪郭の動的輪郭モデルを設定し、
    前記所定数の制御点の位置をそれぞれ移動させる毎に、前記動的輪郭モデルの輪郭の弧長に関するエネルギー、前記動的輪郭モデルの曲率に関するエネルギー、及び前記動的輪郭モデルの画像の勾配に関するエネルギーの加算値を、前記動的輪郭モデルのエネルギーとして算出し、
    前記エネルギーが最小のときの前記所定数の制御点を結んだ輪郭を被写体輪郭として設定し、前記被写体輪郭内の領域を被写体領域として設定する第2の被写体領域設定部と、
    前記第2の被写体領域設定部により設定された前記被写体領域の画像特徴量を、被写体特徴量として算出する第2の被写体特徴算出部と、を備え、
    前記類似度算出部は、
    前記前処理部の前記第1のブロック特徴算出部により算出された前記複数の検索対象画像のそれぞれについての全体特徴量、及び前記特徴算出部の前記第2のブロック特徴算出部により算出された前記要求画像の全体特徴量に基づいて、前記複数の検索対象画像のそれぞれと前記要求画像との間の全体類似度を算出し、
    前記前処理部の前記第1の被写体特徴算出部により算出された前記複数の検索対象画像のそれぞれについての被写体特徴量、及び前記特徴算出部の前記第2の被写体特徴算出部により算出された前記要求画像の被写体特徴量に基づいて、前記複数の検索対象画像のそれぞれと前記要求画像との間の被写体類似度を算出し、
    前記全体類似度及び前記被写体類似度に基づいて、前記複数の検索対象画像のそれぞれと前記要求画像との間の類似度を算出する、ことを特徴とする画像処理装置。
  5. 請求項4に記載の画像処理装置において、
    前記特徴算出部は、さらに、
    前記顕著性マップを用いて、前記第2の被写体領域設定部により設定された前記被写体輪郭の全制御点の顕著性値を平均化し、平均値に基づいて、前記被写体領域の重み係数を算出する重み係数算出部を備え、
    前記類似度算出部は、
    前記特徴算出部の前記重み係数算出部により算出された前記重み係数、前記全体類似度及び前記被写体類似度に基づいて、前記複数の検索対象画像のそれぞれと前記要求画像との間の類似度を算出する、ことを特徴とする画像処理装置。
  6. 請求項3から5までのいずれか一項に記載の画像処理装置において、
    前記動的輪郭モデルの画像の勾配に関するエネルギーを、前記顕著性マップに表された顕著性値から得られる前記制御点の画素位置の勾配値とする、ことを特徴とする画像処理装置。
  7. コンピュータを、請求項1から6までのいずれか一項に記載の画像処理装置として機能させるためのプログラム。
JP2016092661A 2016-05-02 2016-05-02 画像処理装置及びプログラム Active JP6725310B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016092661A JP6725310B2 (ja) 2016-05-02 2016-05-02 画像処理装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016092661A JP6725310B2 (ja) 2016-05-02 2016-05-02 画像処理装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2017201454A true JP2017201454A (ja) 2017-11-09
JP6725310B2 JP6725310B2 (ja) 2020-07-15

Family

ID=60264465

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016092661A Active JP6725310B2 (ja) 2016-05-02 2016-05-02 画像処理装置及びプログラム

Country Status (1)

Country Link
JP (1) JP6725310B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021084590A1 (ja) * 2019-10-28 2021-05-06
JP7138264B1 (ja) * 2021-10-08 2022-09-15 楽天グループ株式会社 情報処理装置、情報処理方法、情報処理システム、およびプログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021084590A1 (ja) * 2019-10-28 2021-05-06
WO2021084590A1 (ja) * 2019-10-28 2021-05-06 富士通株式会社 学習方法、学習プログラム、および学習装置
JP7322965B2 (ja) 2019-10-28 2023-08-08 富士通株式会社 学習方法、学習プログラム、および学習装置
JP7138264B1 (ja) * 2021-10-08 2022-09-15 楽天グループ株式会社 情報処理装置、情報処理方法、情報処理システム、およびプログラム
WO2023058233A1 (ja) * 2021-10-08 2023-04-13 楽天グループ株式会社 情報処理装置、情報処理方法、情報処理システム、およびプログラム

Also Published As

Publication number Publication date
JP6725310B2 (ja) 2020-07-15

Similar Documents

Publication Publication Date Title
JP6631179B2 (ja) 前景画像分割方法及び装置、プログラム、並びに記録媒体
JP6716996B2 (ja) 画像処理プログラム、画像処理装置、及び画像処理方法
CN106529573A (zh) 一种结合三维点云分割和局部特征匹配的实时物体检测方法
JP2011134114A (ja) パターン認識方法およびパターン認識装置
CN112927353B (zh) 基于二维目标检测和模型对齐的三维场景重建方法、存储介质及终端
JP2012027713A (ja) 画像処理装置および方法、並びにプログラム
CN110781937B (zh) 一种基于全局视角的点云特征提取方法
CN109345536B (zh) 一种图像超像素分割方法及其装置
JP6725310B2 (ja) 画像処理装置及びプログラム
US10460449B2 (en) Image processing apparatus, image processing method, and image processing system for extracting regions of interest
JP2008084076A (ja) 画像処理装置、方法およびプログラム
CN112766348A (zh) 一种基于对抗神经网络生成样本数据的方法以及装置
JPH10111946A (ja) 画像追跡装置
CN107220481B (zh) 一种面状要素地图综合质量的定量评价方法
JP2005165969A (ja) 画像処理装置、及び方法
Lindblad et al. Exact linear time euclidean distance transforms of grid line sampled shapes
JP6278757B2 (ja) 特徴量生成装置、特徴量生成方法、およびプログラム
JP2017004052A (ja) 学習装置、方法及びプログラム
JP2008158626A (ja) テンプレート作成装置,テンプレート作成方法,その方法を実装したテンプレート作成プログラム,そのプログラムを格納した記憶媒体と、テンプレートマッチング装置,テンプレートマッチング方法,その方法を実装したテンプレートマッチングプログラム,そのプログラムを格納した記憶媒体
JP2007156954A (ja) 信頼度テーブル作成方法、オプティカルフロー推定方法、信頼度テーブル作成装置、オプティカルフロー推定装置、及びプログラム
JP6827317B2 (ja) 画像処理装置及びプログラム
JP2012118923A (ja) 領域分割装置及び領域分割方法
Heimann et al. Joint Geometry and Attribute Upsampling of Point Clouds Using Frequency-Selective Models with Overlapped Support
KR20130138457A (ko) 증강현실의 호모그래피 정확도 향상을 위한 csp 기반의 ransac 샘플링 방법
CN111047604B (zh) 一种高清图像的透明度遮罩提取方法、装置及存储介质

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20160516

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200601

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200625

R150 Certificate of patent or registration of utility model

Ref document number: 6725310

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250