JP7028099B2 - 候補領域推定装置、候補領域推定方法、及びプログラム - Google Patents

候補領域推定装置、候補領域推定方法、及びプログラム Download PDF

Info

Publication number
JP7028099B2
JP7028099B2 JP2018145608A JP2018145608A JP7028099B2 JP 7028099 B2 JP7028099 B2 JP 7028099B2 JP 2018145608 A JP2018145608 A JP 2018145608A JP 2018145608 A JP2018145608 A JP 2018145608A JP 7028099 B2 JP7028099 B2 JP 7028099B2
Authority
JP
Japan
Prior art keywords
image
boundary line
area
region
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018145608A
Other languages
English (en)
Other versions
JP2020021340A (ja
Inventor
之人 渡邉
周平 田良島
峻司 細野
潤 島村
哲也 杵渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018145608A priority Critical patent/JP7028099B2/ja
Priority to PCT/JP2019/030292 priority patent/WO2020027282A1/ja
Priority to US17/265,166 priority patent/US12008765B2/en
Publication of JP2020021340A publication Critical patent/JP2020021340A/ja
Application granted granted Critical
Publication of JP7028099B2 publication Critical patent/JP7028099B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Description

本発明は、候補領域推定装置、候補領域推定方法、及びプログラムに係り、特に、複数の対象物を表す候補領域を推定するための候補領域推定装置、候補領域推定方法、及びプログラムに関する。
従来から、画像中の単一の物体が含まれていそうな候補領域を推定する物体候補領域推定は、画像が含む物体を検索する物体検索や物体検出の前処理として広く用いられており、撮影された画像による商品検索サービスやO2O(オンライン・ツー・オフライン)サービスへの応用が期待されている。
物体候補領域推定の典型例を非特許文献1に従って概説する。まず、画像中の鋭敏に変化するような箇所である境界線を検出する。次に、スライディングウィンドウ等で切り出された各領域について、その領域がどの程度物体を過不足なく含んでいるかを表すスコアを算出する。最後に、スコアが高い上位の領域を、物体候補領域として出力する。
このような物体候補領域推定は、対象物体の領域である前景領域から境界線が多く検出され、また、対象物体ではない領域である背景領域から境界線があまり検出されないことが前提となる。例えば、背景領域から境界線が多く検出されるような場合には、背景に対して候補領域を推定してしまうなど、対象物を正確に捉えた候補領域を推定できない。言い換えると、対象物の境界線を過不足なく検出できれば、対象物の候補領域を高精度に推定できる。
境界線検出の方法については、種々の技術が発明・開示されている。例えば非特許文献2では、Canny法と呼ばれる方法が開示されている。
Canny法では、まず、画像のx方向及びy方向に、1次微分した2次元ガウス関数を畳み込み、x方向及びy方向微分値を求め、各画素における微分値から、勾配の大きさと勾配方向を求める。次に、境界線ではない画素を抑制すべく、各画素に対して、その画素が勾配方向に対して極大値であるかを判定し、極大値とならない画素を抑制する。最後に、2種の閾値(閾値1及び閾値2)を用いて、閾値1より勾配の大きさが大きい画素、及び、閾値2より勾配の大きさが大きく、かつ、境界線として検出された画素に隣接する画素を境界線として検出する。
一般的に、このような境界線検出によって検出される境界線は、畳み込むガウス関数の標準偏差、及び、閾値処理に用いる2種の閾値などのパラメータに大きく影響される。
例えば、標準偏差を大きくすると、画像の大まかな特徴を表す境界線のみが検出されるようになり、閾値を大きくすると、検出される境界線の量が減少する傾向がある。そのため、未検出及び誤検出が少ない境界線検出を行うためには、パラメータを適切に設定する必要がある。
しかしながら、パラメータの適切な値は画像によって異なるため、あらゆる画像から高精度に境界線を検出できる共通のパラメータを設定することは困難である。
このような問題を解決するべく、パラメータに依らずに高精度に境界線を検出する技術に関する取り組みがなされてきた。
例えば、非特許文献3には、大津の二値化法に基づくCanny法の閾値決定方法が記載されている。画像の画素値を2クラスへ分割する値tを大津の二値化法によって決定する。すなわち、2クラスへ分割した際のクラス内分散に対するクラス間分散の割合が最大となる値を値tとする。この値tを閾値1に、0.5×tを閾値2とすることで、画像ごとにパラメータを設定することができる。
また、特許文献1には、機械学習のアプローチによる境界線検出の方法が記載されている。人為的に境界線情報が付与されたデータを訓練画像として学習し、学習した形状の境界線を高精度に検出することができる。
特開2015-103075号公報
C. L. Zitnick and P. Doll´ar. Edge boxes: Locating object proposals from edges. In ECCV, 2014. John Canny, "A Computational Approach to Edge Detection", IEEE Trans. on PAML, Vol. 8, No. 6, Nov. 1986, pp. 679 - 698. M,Fang, G.X.Yue and Q.C.Yu, "The Study on An Application of Otsu Method in Canny Operator", in Proc.ISIP'09, 2009, Aug. 2009, pp. 109-112.
しかし、非特許文献3に記載の方法は、画像全体から閾値を決定しており、対象物の境界線が過不足なく捉えられるとは限らない、という問題があった。
また、画像から適応的に決定するのは閾値1のみであり、当該パラメータを全て適応的に決定するものではない。そのため、例えば、勾配の大きさが0.5×t(閾値2)を下回るような境界線は検出できない、という問題があった。
更に、ガウス関数の標準偏差についても、別途適切な値を設定する必要がある、という問題があった。
また、特許文献1に記載の方法は、事前に訓練画像を準備する必要があるため、画像への境界線情報の付与コスト及び学習の計算コストが必要となる、という問題があった。
また、上記パラメータについて、画像ごとに手動で適切な値を設定すれば、高精度に境界線を検出することができる。しかし、画像毎に当該パラメータの各々の値を調節することは非効率的である、という問題があった。
本発明は上記の点に鑑みてなされたものであり、画像に含まれる複数の対象物の各々を表す候補領域を高精度に推定することができる候補領域推定装置、候補領域推定方法、及びプログラムを提供することを目的とする。
本発明に係る候補領域推定装置は、複数の対象物を含む画像から、前記複数の対象物の各々について、前記対象物を含む領域の候補となる候補領域を推定する候補領域推定装置であって、前記画像と、前記画像に含まれる前記複数の対象物のうち少なくとも一つの前記対象物を含む領域を示す領域情報との入力を受け付ける入力部と、前記画像に含まれる境界線の密度と、前記領域情報が示す領域内の境界線の密度との割合に基づいて、前記画像の境界線を検出する際に用いられるパラメータを決定するパラメータ決定部と、前記パラメータを用いて、前記画像から境界線を検出する境界線検出部と、前記境界線検出部により検出された前記境界線に基づいて、前記画像に含まれる前記複数の対象物の各々について、前記対象物の前記候補領域を推定する領域推定部と、を備えて構成される。
また、本発明に係る候補領域推定方法は、複数の対象物を含む画像から、前記複数の対象物の各々について、前記対象物を含む領域の候補となる候補領域を推定する候補領域推定方法であって、前記画像と、前記画像に含まれる前記複数の対象物のうち少なくとも一つの前記対象物を含む領域を示す領域情報との入力を受け付ける入力ステップと、前記画像に含まれる境界線の密度と、前記領域情報が示す領域内の境界線の密度との割合に基づいて、前記画像の境界線を検出する際に用いられるパラメータを決定するパラメータ決定ステップと、前記パラメータを用いて、前記画像から境界線を検出する境界線検出ステップと、前記境界線検出ステップにより検出された前記境界線に基づいて、前記画像に含まれる前記複数の対象物の各々について、前記対象物の前記候補領域を推定する領域推定ステップと、を含む。
本発明に係る候補領域推定装置及び候補領域推定方法によれば、入力部が、画像と、当該画像に含まれる複数の対象物のうち少なくとも一つの当該対象物を含む領域を示す領域情報との入力を受け付け、パラメータ決定部が、当該画像に含まれる境界線の密度と、当該領域情報が示す領域内の境界線の密度との割合に基づいて、画像の境界線を検出する際に用いられるパラメータを決定する。
そして、境界線検出部が、当該パラメータを用いて、当該画像から境界線を検出し、領域推定部が、検出された当該境界線に基づいて、当該画像に含まれる当該複数の対象物の各々について、当該対象物の候補領域を推定する。
このように、画像に含まれる境界線の密度と、当該画像に含まれる複数の対象物のうち少なくとも一つの当該対象物を含む領域を示す領域情報が示す領域内の境界線の密度との割合に基づいて、画像の境界線を検出する際に用いられるパラメータを決定し、当該パラメータを用いて、当該画像から境界線を検出し、検出された当該境界線に基づいて、当該画像に含まれる当該複数の対象物の各々について、当該対象物の候補領域を推定することにより、画像に含まれる複数の対象物の各々を表す候補領域を高精度に推定することができる。
また、本発明に係る候補領域推定装置の前記パラメータ決定部は、前記画像に含まれる境界線の密度と、前記領域情報が示す領域の一部である小領域内の境界線の密度との割合に基づいて、前記パラメータを決定することができる。
また、本発明に係る候補領域推定装置の前記領域推定部は、前記領域情報が示す領域の上方の領域又は下方の領域から、前記対象物の前記候補領域を推定することができる。
また、本発明に係る候補領域推定装置の前記領域推定部は、前記領域情報が示す領域の右方の領域又は左方の領域から、前記対象物の前記候補領域を推定することができる。
また、本発明に係る候補領域推定装置の前記領域推定部は、更に、前記推定された前記対象物の前記候補領域から、前記対象物の前記候補領域が示す領域内の境界線の密度と、前記領域情報が示す領域内の境界線の密度とに基づいて、推定結果として出力する前記候補領域を選択することができる。
本発明に係るプログラムは、上記の候補領域推定装置の各部として機能させるためのプログラムである。
本発明の候補領域推定装置、候補領域推定方法、及びプログラムによれば、画像に含まれる複数の対象物の各々を表す候補領域を高精度に推定することができる。
本発明の実施の形態に係る候補領域推定装置の構成を示すブロック図である。 本発明の実施の形態に係る対象とする画像及び領域情報の一例を示すイメージ図である。 本発明の実施の形態に係る候補領域推定装置の候補領域推定処理ルーチンを示すフローチャートである。
以下、本発明の実施の形態について図面を用いて説明する。
<本発明の実施の形態に係る候補領域推定装置の構成>
図1を参照して、本発明の実施の形態に係る候補領域推定装置1の構成について説明する。図1は、本発明の実施の形態に係る候補領域推定装置の構成を示すブロック図である。
候補領域推定装置1は、CPUと、RAMと、後述する候補領域推定処理ルーチンを実行するためのプログラムを記憶したROMとを備えたコンピュータで構成され、機能的には次に示すように構成されている。
図1に示すように、本実施形態に係る候補領域推定装置1は、入力部10と、パラメータ決定部11と、境界線検出部12と、領域推定部13と、出力部14とを備えて構成される。
入力部10は、複数の対象物を含む画像101と、当該画像に含まれる複数の対象物のうち少なくとも一つの当該対象物を含む領域を示す領域情報102との入力を受け付ける。
領域情報102は、画像101が含む複数の対象物のうち少なくとも一つの当該対象物の位置を表す情報である。領域情報102は、例えば、ある対象物を囲う矩形の頂点の座標である。
図2に画像101及び領域情報102の一例を示す。図2は、複数の対象物(「AAA」、「BBB」、及び「CCC」)と、「Z」という背景とを含む画像101と、「AAA」という対象物の位置を示す領域情報102を表す図である。
なお、本発明の実施の形態において必須の構成要素ではないが、候補領域推定装置1に入力される領域情報102として、画像101に対する物体検出結果を利用することができる。この場合、画像101が含む対象物の少なくとも一つの位置を検出する物体検出装置2を外部に備える。
対象物の検出方法としては、例えば、参考文献1に記載の方法を利用すればよい。
[参考文献1]J. Redmon and A. Farhadi. YOLO9000: better, faster, stronger. In CVPR, 2017.
また、必ずしも物体検出装置2を備える必要はなく、例えば、画像101が含む対象物の少なくとも一つの位置を指定して領域情報102を作成しても良い。
そして、入力部10は、画像101及び領域情報102を、パラメータ決定部11に渡す。
パラメータ決定部11は、画像101に含まれる境界線の密度と、領域情報102が示す領域内の境界線の密度との割合に基づいて、画像101の境界線を検出する際に用いられるパラメータを決定する。
具体的には、パラメータ決定部11は、まず、画像101に含まれる境界線と、領域情報102が示す領域内の境界線とを、任意の境界線検出の方法及び予め定めたパラメータを用いて、検出する。
本実施形態では、パラメータ決定部11は、境界線検出の方法として非特許文献2に記載のCanny法を用いる場合について説明する。すなわち、パラメータ決定部11は、Canny法及び予め定めた3種のパラメータ(畳み込むガウス関数の標準偏差、及び閾値処理に用いる2種の閾値)を用いて、画像101に含まれる境界線と、領域情報102が示す領域内の境界線とを検出する。なお、当該3種のパラメータは、パラメータ決定部11が境界線を検出する際に用いるパラメータである。
次に、パラメータ決定部11は、検出した画像101に含まれる境界線の画像101全体に対する密度を求める。境界線の密度は、画像の画素数(面積)に対する、境界線が存在する画素数(境界線の量)の割合として求めればよい。
同様に、パラメータ決定部11は、検出した領域情報102が示す領域内の境界線の当該領域内の境界線の密度を求める。
次に、パラメータ決定部11は、画像101に含まれる境界線の密度と、領域情報102が示す領域内の境界線の密度とに基づいて、畳み込むガウス関数の標準偏差と、閾値処理に用いる2種の閾値との3種類のパラメータを決定する。なお、パラメータ決定部11が決定する当該3種のパラメータは、境界線検出部12が境界線を検出する際に用いるためのパラメータである。
より具体的には、パラメータ決定部11は、例えば、画像101に含まれる境界線の密度に対する、領域情報102が示す領域内の境界線の密度の割合を評価値とし、3種のパラメータが取り得る範囲をグリッドサーチすることにより、当該3種のパラメータを決定する。
当該評価値を用いることで、対象物の境界線における勾配の大きさが背景の境界線における勾配の大きさよりも大きい画像において、領域情報が示す領域における背景から検出される境界線に対する対象物から検出される境界線の割合が、画像全体における背景から検出される境界線に対する対象物から検出される境界線の割合よりも大きくなるような場合であっても、パラメータを適応的に決定することができる。
例えば、図2のように、背景が画像101全域に存在し、また、領域情報102が示す領域が対象物を過不足なく含むような場合、領域内外での背景の境界線の密度は同程度となり、対象物の境界線の密度は領域内で高くなることが期待できる。
また、当該評価値が高くなるようなパラメータを探索できれば、必ずしもグリッドサーチを行う必要はなく、例えば、ランダムサーチ、ベイズ最適化など、任意のパラメータ探索方法を用いても良い。
また、パラメータ決定部11は、画像101に含まれる境界線の密度と、領域情報102が示す領域の一部である小領域内の境界線の密度との割合に基づいて、各パラメータを決定する構成としてもよい。
この場合、パラメータ決定部11は、例えば、画像101に含まれる境界線の密度に対する、領域情報102が示す領域内の一部小領域の境界線の密度の割合を評価値とする。
一部小領域の境界線密度としては、例えば、当該領域情報で規定される領域をX×Yのグリッドへ分割し、各々のX×Y個の小領域の各々の境界線密度を算出し、その最小値を用いればよい。ここで、X、Yは自然数であり、例えば、各々2等とすればよい。
一部小領域の各々で境界線の密度を算出することで、対象物の境界線における勾配の大きさが変動するような場合に対して、頑健に評価値を算出することができる。
そして、パラメータ決定部11は、画像101、領域情報102、及び決定したパラメータを、境界線検出部12に渡す。
境界線検出部12は、パラメータを用いて、画像101から境界線を検出する。
具体的には、境界線検出部12は、任意の境界線の検出方法及びパラメータ決定部11が決定したパラメータを用いて、画像101の境界線を検出する。
ここで、境界線検出部12が用いる境界線の検出方法は限定されないが、パラメータ決定部11で用いた境界線の検出方法と同一の方法であるものとする。
そして、境界線検出部12は、画像101、領域情報102、及び検出した境界線を、領域推定部13に渡す。
領域推定部13は、境界線検出部12により検出された境界線に基づいて、画像101に含まれる複数の対象物の各々について、当該対象物を含む領域の候補となる候補領域を推定する。
具体的には、領域推定部13は、画像101及び境界線検出部12が検出した境界線に基づいて、画像101に含まれる複数の対象物の各々について、当該対象物の候補領域を、任意の領域の推定方法を用いて推定する。
領域の推定方法は、境界線を入力とする領域の推定方法であれば、任意の方法を用いることができる。例えば、非特許文献1に記載の方法を用いることで、対象物の候補領域を推定できる。
また、領域推定部13は、領域情報102が示す領域の上方の領域又は下方の領域から、当該対象物の候補領域を推定する構成としてもよい。
具体的には、画像101が含む複数の対象物の配置情報を利用できる場合、これを利用することができる。例えば、図2のように、対象物の各々が縦方向に並ぶように配置されるような画像101を対象とする場合、領域情報102が示す領域の位置の上方又は下方に他の対象物が存在する可能性があるため、領域情報102が示す領域の位置の上下の領域を対象として候補領域の推定を行えばよい。
また、領域推定部13は、領域情報102が示す領域の右方の領域又は左方の領域から、当該対象物の候補領域を推定する構成としてもよい。
上下の領域を対象として候補領域の推定を行う場合と同様に、領域情報102が示す領域の位置の左右の領域を対象として候補領域の推定を行えばよい。
また、領域推定部13は、更に、推定された対象物の候補領域から、当該対象物の候補領域が示す領域内の境界線の密度と、領域情報102が示す領域内の境界線の密度とに基づいて、推定結果103として出力する候補領域を選択する構成としてもよい。
この場合、領域推定部13は、推定した候補領域の各々について、領域情報102が示す領域内の境界線の密度と同程度(例えば±N%以内、Nは0<N<100の実数)の境界線の密度となる候補領域のみを、推定結果103として出力する。
このような構成により、領域情報102が示す領域内の境界線の密度と同程度の境界線の密度となる候補領域のみを推定結果103とするため、領域の誤推定を抑制することができる。
そして、領域推定部13は、推定結果103を出力部14に渡す。なお、推定結果103には、画像101が含む対象物の各々の位置を表す領域情報が含まれる。
出力部14は、推定結果103を出力する。
<本発明の実施の形態に係る候補領域推定装置の作用>
図3は、本発明の実施の形態に係る候補領域推定処理ルーチンを示すフローチャートである。
入力部10に画像101及び領域情報102が入力されると、候補領域推定装置1において、図3に示す候補領域推定処理ルーチンが実行される。
まず、ステップS100において、入力部10が、画像101及び領域情報102の入力を受け付ける。
ステップS110において、パラメータ決定部11は、画像101に含まれる境界線の密度と、領域情報102が示す領域内の境界線の密度との割合に基づいて、画像101の境界線を検出する際に用いられるパラメータを決定する。
ステップS120において、境界線検出部12は、上記ステップS110により決定されたパラメータを用いて、画像101から境界線を検出する。
ステップS130において、領域推定部13は、上記ステップS120により検出された境界線に基づいて、画像101に含まれる複数の対象物の各々について、当該対象物を含む領域の候補となる候補領域を推定する。
ステップS140において、出力部14は、上記ステップS130により推定された結果である推定結果103を出力する。
以上説明したように、本発明の実施形態に係る候補領域推定装置によれば、画像に含まれる境界線の密度と、当該画像に含まれる複数の対象物のうち少なくとも一つの当該対象物を含む領域を示す領域情報が示す領域内の境界線の密度との割合に基づいて、画像の境界線を検出するためのパラメータを決定し、当該パラメータを用いて、当該画像から境界線を検出し、検出された当該境界線に基づいて、当該画像に含まれる当該複数の対象物の各々について、当該対象物の候補領域を推定することにより、画像に含まれる複数の対象物の各々を表す候補領域を高精度に推定することができる。
なお、本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能である。
1 候補領域推定装置
2 物体検出装置
10 入力部
11 パラメータ決定部
12 境界線検出部
13 領域推定部
14 出力部
101 画像
102 領域情報
103 推定結果

Claims (7)

  1. 複数の対象物を含む画像から、前記複数の対象物の各々について、前記対象物を含む領域の候補となる候補領域を推定する候補領域推定装置であって、
    前記画像と、前記画像に含まれる前記複数の対象物のうち少なくとも一つの前記対象物を含む領域を示す領域情報との入力を受け付ける入力部と、
    前記画像の面積に対する境界線の量の割合を示す境界線の密度であって、前記画像に含まれる境界線の密度と、前記領域情報が示す領域内の境界線の密度との割合に基づいて、前記画像の境界線を検出する際に用いられるパラメータを決定するパラメータ決定部と、
    前記パラメータを用いて、前記画像から境界線を検出する境界線検出部と、
    前記境界線検出部により検出された前記境界線に基づいて、前記画像に含まれる前記複数の対象物の各々について、前記対象物の前記候補領域を推定する領域推定部と、
    を含む候補領域推定装置。
  2. 前記パラメータ決定部は、前記画像に含まれる境界線の密度と、前記領域情報が示す領域の一部である小領域内の境界線の密度との割合に基づいて、前記パラメータを決定する
    請求項1記載の候補領域推定装置。
  3. 前記領域推定部は、前記領域情報が示す領域の上方の領域又は下方の領域から、前記対象物の前記候補領域を推定する
    請求項1又は2記載の候補領域推定装置。
  4. 前記領域推定部は、前記領域情報が示す領域の右方の領域又は左方の領域から、前記対象物の前記候補領域を推定する
    請求項1又は2記載の候補領域推定装置。
  5. 前記領域推定部は、更に、前記推定された前記対象物の前記候補領域から、前記対象物の前記候補領域が示す領域内の境界線の密度と、前記領域情報が示す領域内の境界線の密度とに基づいて、推定結果として出力する前記候補領域を選択する
    請求項1乃至4の何れか1項記載の候補領域推定装置。
  6. 複数の対象物を含む画像から、前記複数の対象物の各々について、前記対象物を含む領域の候補となる候補領域を推定する候補領域推定方法であって、
    前記画像と、前記画像に含まれる前記複数の対象物のうち少なくとも一つの前記対象物を含む領域を示す領域情報との入力を受け付ける入力ステップと、
    前記画像の面積に対する境界線の量の割合を示す境界線の密度であって、前記画像に含まれる境界線の密度と、前記領域情報が示す領域内の境界線の密度との割合に基づいて、前記画像の境界線を検出する際に用いられるパラメータを決定するパラメータ決定ステップと、
    前記パラメータを用いて、前記画像から境界線を検出する境界線検出ステップと、
    前記境界線検出ステップにより検出された前記境界線に基づいて、前記画像に含まれる前記複数の対象物の各々について、前記対象物の前記候補領域を推定する領域推定ステップと、
    を含む候補領域推定方法。
  7. コンピュータを、請求項1乃至5の何れか1項記載の候補領域推定装置の各部として機能させるためのプログラム。
JP2018145608A 2018-08-02 2018-08-02 候補領域推定装置、候補領域推定方法、及びプログラム Active JP7028099B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018145608A JP7028099B2 (ja) 2018-08-02 2018-08-02 候補領域推定装置、候補領域推定方法、及びプログラム
PCT/JP2019/030292 WO2020027282A1 (ja) 2018-08-02 2019-08-01 候補領域推定装置、候補領域推定方法、及びプログラム
US17/265,166 US12008765B2 (en) 2018-08-02 2019-08-01 Candidate region estimation device, candidate region estimation method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018145608A JP7028099B2 (ja) 2018-08-02 2018-08-02 候補領域推定装置、候補領域推定方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2020021340A JP2020021340A (ja) 2020-02-06
JP7028099B2 true JP7028099B2 (ja) 2022-03-02

Family

ID=69231140

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018145608A Active JP7028099B2 (ja) 2018-08-02 2018-08-02 候補領域推定装置、候補領域推定方法、及びプログラム

Country Status (3)

Country Link
US (1) US12008765B2 (ja)
JP (1) JP7028099B2 (ja)
WO (1) WO2020027282A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012001862A1 (ja) 2010-06-29 2012-01-05 株式会社 日立ハイテクノロジーズ パターンマッチング用テンプレートの作成方法、及び画像処理装置
JP2017021695A (ja) 2015-07-14 2017-01-26 株式会社東芝 情報処理装置および情報処理方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5268967A (en) * 1992-06-29 1993-12-07 Eastman Kodak Company Method for automatic foreground and background detection in digital radiographic images
US5680471A (en) * 1993-07-27 1997-10-21 Kabushiki Kaisha Toshiba Image processing apparatus and method
JP2000032287A (ja) * 1998-07-15 2000-01-28 Fuji Xerox Co Ltd 画像処理装置及び画像処理方法
JP3392798B2 (ja) * 2000-02-22 2003-03-31 理想科学工業株式会社 画像属性判別方法および装置
US7596273B2 (en) * 2004-04-19 2009-09-29 Fujifilm Corporation Image processing method, image processing apparatus, and image processing program
US7911538B2 (en) * 2006-04-06 2011-03-22 Samsung Electronics Co., Ltd. Estimation of block artifact strength based on edge statistics
US7856142B2 (en) * 2007-01-26 2010-12-21 Sharp Laboratories Of America, Inc. Methods and systems for detecting character content in a digital image
US20090041344A1 (en) * 2007-08-08 2009-02-12 Richard John Campbell Methods and Systems for Determining a Background Color in a Digital Image
KR20130072073A (ko) * 2011-12-21 2013-07-01 한국전자통신연구원 영상 윤곽선 추출 장치 및 방법
JP5974589B2 (ja) * 2012-03-30 2016-08-23 ブラザー工業株式会社 画像処理装置およびプログラム
JP2014178357A (ja) * 2013-03-13 2014-09-25 Sony Corp デジタル顕微鏡装置、その撮像方法およびプログラム
JP6099457B2 (ja) * 2013-03-28 2017-03-22 株式会社Pfu 画像処理装置、領域決定方法及びコンピュータプログラム
US9070023B2 (en) * 2013-09-23 2015-06-30 Toyota Motor Engineering & Manufacturing North America, Inc. System and method of alerting a driver that visual perception of pedestrian may be difficult
JP6209069B2 (ja) 2013-11-26 2017-10-04 日本電信電話株式会社 境界検出装置、境界検出方法及びコンピュータプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012001862A1 (ja) 2010-06-29 2012-01-05 株式会社 日立ハイテクノロジーズ パターンマッチング用テンプレートの作成方法、及び画像処理装置
JP2017021695A (ja) 2015-07-14 2017-01-26 株式会社東芝 情報処理装置および情報処理方法

Also Published As

Publication number Publication date
US12008765B2 (en) 2024-06-11
US20210304415A1 (en) 2021-09-30
WO2020027282A1 (ja) 2020-02-06
JP2020021340A (ja) 2020-02-06

Similar Documents

Publication Publication Date Title
CN109325954B (zh) 图像分割方法、装置及电子设备
US9483835B2 (en) Depth value restoration method and system
EP2927873B1 (en) Image processing apparatus and image processing method
CN105184763B (zh) 图像处理方法和装置
US10748023B2 (en) Region-of-interest detection apparatus, region-of-interest detection method, and recording medium
US11308710B2 (en) Polygonal region detection
US20120321134A1 (en) Face tracking method and device
US9373053B2 (en) Image processor with edge selection functionality
Hua et al. Extended guided filtering for depth map upsampling
CN111640089A (zh) 一种基于特征图中心点的缺陷检测方法及装置
US10839529B2 (en) Image processing apparatus and image processing method, and storage medium
KR20220139292A (ko) 문자 분할 방법, 장치 및 컴퓨터 판독 가능 저장 매체
Gutzeit et al. Automatic segmentation of wood logs by combining detection and segmentation
US20160026859A1 (en) Image processing apparatus, image processing method and image processing program
CN111079793A (zh) 图标相似度的确定方法和电子设备
CN108960247B (zh) 图像显著性检测方法、装置以及电子设备
JP6787844B2 (ja) オブジェクト抽出装置およびそのスーパーピクセルラベリング方法
CN111126300A (zh) 一种人体图像检测方法、装置和电子设备及可读存储介质
Srikakulapu et al. Depth estimation from single image using defocus and texture cues
WO2023160061A1 (zh) 图像中运动对象的确定方法、装置、电子设备和存储介质
JP7028099B2 (ja) 候補領域推定装置、候補領域推定方法、及びプログラム
CN111476810B (zh) 图像边缘检测方法、装置、电子设备及存储介质
CN108038864B (zh) 一种动物目标图像的提取方法及系统
CN111476821B (zh) 基于在线学习的目标跟踪方法
JP2016126446A (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220131

R150 Certificate of patent or registration of utility model

Ref document number: 7028099

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150