JP7117177B2 - 領域特定装置及びプログラム - Google Patents

領域特定装置及びプログラム Download PDF

Info

Publication number
JP7117177B2
JP7117177B2 JP2018124108A JP2018124108A JP7117177B2 JP 7117177 B2 JP7117177 B2 JP 7117177B2 JP 2018124108 A JP2018124108 A JP 2018124108A JP 2018124108 A JP2018124108 A JP 2018124108A JP 7117177 B2 JP7117177 B2 JP 7117177B2
Authority
JP
Japan
Prior art keywords
target
image
region
candidate
extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018124108A
Other languages
English (en)
Other versions
JP2020004166A (ja
Inventor
勇鶴 李
光輝 坂元
崇之 篠原
俊明 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pasco Corp
Original Assignee
Pasco Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pasco Corp filed Critical Pasco Corp
Priority to JP2018124108A priority Critical patent/JP7117177B2/ja
Publication of JP2020004166A publication Critical patent/JP2020004166A/ja
Application granted granted Critical
Publication of JP7117177B2 publication Critical patent/JP7117177B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、領域特定装置及びプログラムに関する。
二次元画像において所定の抽出対象の物体が表された領域を特定する技術が知られている。このような技術の一例として、二次元画像の特徴量に基づいて当該二次元画像において所定の物体が表された領域を囲む矩形領域を特定する技術や、画素単位で当該画素が表す物体を特定するセマンティックセグメンテーションの技術が存在する。
また特許文献1には、複数の画像取得手段の各々が互いに異なる位置から撮影した画像に基づいて、三次元空間上の物体領域を判定する技術が記載されている。
国際公開第2011/162309号
1つの二次元画像において所定の抽出対象が表された領域を囲む矩形領域を特定する場合、例えば特定される領域の隅などの一部に当該抽出対象が実際には表れてない領域が含まれてしまうことがある。
また1つの二次元画像においてセマンティックセグメンテーションの技術を用いて所定の抽出対象が表された領域を特定する場合、輪郭がうまく抽出されなかったり部分的な抽出の欠落が発生したりすることがある。
以上のように、1つの二次元画像に基づいて当該二次元画像における所定の抽出対象が表された領域を特定する場合に特定される領域と当該抽出対象が実際に表れている領域との間に大きな差異が発生することがある。
なお特許文献1に記載の技術は、二次元画像に基づいて所定の抽出対象が表された領域として特定される領域と当該抽出対象が実際に表れている領域との差異を低減する技術ではない。
本発明は上記課題に鑑みてなされたものであって、その目的の1つは、二次元画像に基づいて所定の抽出対象が表された領域として特定される領域と当該抽出対象が実際に表れている領域との差異を低減できる領域特定装置及びプログラムを提供することにある。
(1)本発明に係る領域特定装置は、所定の抽出対象の表われ方が互いに異なる複数の参照画像のそれぞれから、前記抽出対象が表された候補領域を抽出する候補領域抽出手段と、前記参照画像をターゲット画像に変換する所与の幾何変換を、前記参照画像から抽出される前記候補領域に対して実行することで、前記ターゲット画像における当該参照画像に対応付けられる前記候補領域を特定する変換手段と、前記ターゲット画像における前記複数の前記参照画像のそれぞれに対応付けられる前記候補領域の統合結果を、前記ターゲット画像における前記抽出対象が表された領域として特定する抽出対象領域特定手段と、を含む。
(2)本発明に係る別の領域特定装置は、所定の抽出対象の表われ方が互いに異なるターゲット画像及び参照画像のそれぞれから、前記抽出対象が表された候補領域を抽出する候補領域抽出手段と、前記参照画像を前記ターゲット画像に変換する所与の幾何変換を、前記参照画像から抽出される前記候補領域に対して実行することで、前記ターゲット画像における当該参照画像に対応付けられる前記候補領域を特定する変換手段と、前記ターゲット画像における前記参照画像に対応付けられる前記候補領域と前記ターゲット画像から抽出される前記候補領域との統合結果を、前記ターゲット画像における前記抽出対象が表された領域として特定する抽出対象領域特定手段と、を含む。
(3)上記(1),(2)の領域特定装置において、前記ターゲット画像に基づいて前記参照画像を生成する参照画像生成手段、をさらに含み、前記候補領域抽出手段は、前記参照画像生成手段により生成される前記参照画像から前記候補領域を抽出する構成とすることができる。
(4)上記(3)の領域特定装置において、前記ターゲット画像は、三次元空間に配置された前記抽出対象を撮影した画像であり、前記ターゲット画像に基づいて、前記三次元空間における前記抽出対象に形成されている面を特定する面特定手段、をさらに含み、前記参照画像生成手段は、特定される前記面の法線方向を射影方向とし、前記面を囲む特定の辺の方向を所定の方向に変換する射影変換を前記ターゲット画像に対して実行することにより前記参照画像を生成する構成とすることができる。
(5)上記(1)~(4)の領域特定装置において、前記抽出対象領域特定手段は、複数の前記候補領域が重なる領域を、前記ターゲット画像における前記抽出対象が表された領域として特定する構成とすることができる。
(6)上記(1)~(4)の領域特定装置において、前記抽出対象領域特定手段は、前記候補領域の抽出の信頼度に応じて選択される前記候補領域に基づく前記統合結果を、前記ターゲット画像における前記抽出対象が表された領域として特定する構成とすることができる。
(7)上記(1)~(4)の領域特定装置において、前記抽出対象領域特定手段は、前記候補領域の抽出の信頼度の低さに応じた拡大率で拡大される前記候補領域に基づく前記統合結果を、前記ターゲット画像における前記抽出対象が表された領域として特定する構成とすることができる。
(8)本発明に係るプログラムは、所定の抽出対象の表われ方が互いに異なる複数の参照画像のそれぞれから、前記抽出対象が表された候補領域を抽出する手順、前記参照画像をターゲット画像に変換する所与の幾何変換を、前記参照画像から抽出される前記候補領域に対して実行することで、前記ターゲット画像における当該参照画像に対応付けられる前記候補領域を特定する手順、前記ターゲット画像における前記複数の前記参照画像のそれぞれに対応付けられる前記候補領域の統合結果を、前記ターゲット画像における前記抽出対象が表された領域として特定する手順、をコンピュータに実行させる。
(9)本発明に係る別のプログラムは、所定の抽出対象の表われ方が互いに異なるターゲット画像及び参照画像のそれぞれから、前記抽出対象が表された候補領域を抽出する手順、前記参照画像を前記ターゲット画像に変換する所与の幾何変換を、前記参照画像から抽出される前記候補領域に対して実行することで、前記ターゲット画像における当該参照画像に対応付けられる前記候補領域を特定する手順、前記ターゲット画像における前記参照画像に対応付けられる前記候補領域と前記ターゲット画像から抽出される前記候補領域との統合結果を、前記ターゲット画像における前記抽出対象が表された領域として特定する手順、をコンピュータに実行させる。
本発明によれば、二次元画像に基づいて所定の抽出対象が表された領域として特定される領域と当該抽出対象が実際に表れている領域との差異を低減できる。
本発明の一実施形態に係る領域特定装置の構成図である。 ターゲット画像の一例を示す図である。 抽出対象領域が示されたターゲット画像の一例を示す図である。 参照画像の一例を示す図である。 参照画像の一例を示す図である。 図4に示す参照画像に対応付けられる候補領域が示されたターゲット画像の一例を示す図である。 図5に示す参照画像に対応付けられる候補領域が示されたターゲット画像の一例を示す図である。 図6に示す候補領域と図7に示す候補領域と図3に示す抽出対象領域との関係が示されたターゲット画像の一例を示す図である。 ターゲット画像から抽出された候補領域が示されたターゲット画像の一例を示す図である。 車両に形成されている面が示されたターゲット画像の一例を示す図である。 本発明の一実施形態に係る領域特定装置の機能の一例を示す機能ブロック図である。 本発明の一実施形態に係る領域特定装置で行われる処理の流れの一例を示すフロー図である。 本発明の一実施形態に係る領域特定装置で行われる処理の流れの別の一例を示すフロー図である。
以下、本発明の一実施形態について図面に基づき詳細に説明する。
図1は、本発明の一実施形態に係る領域特定装置10の構成図である。本実施形態に係る領域特定装置10は、パーソナルコンピュータなどのコンピュータである。図1に示すように領域特定装置10は、例えば、プロセッサ12、記憶部14、表示部16、操作部18を含んでいる。
プロセッサ12は、例えば領域特定装置10にインストールされるプログラムに従って動作するCPU等のプログラム制御デバイスである。
記憶部14は、ROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部14には、プロセッサ12によって実行されるプログラムなどが記憶される。
表示部16は、液晶ディスプレイ等の表示デバイスであって、プロセッサ12の指示に従って各種の画像を表示する。
操作部18は、キーボードやマウスなどといったユーザインタフェースであって、ユーザの操作入力を受け付けて、その内容を示す信号をプロセッサ12に出力する。
なお、領域特定装置10は、ネットワークボードなどの通信インタフェース、DVD-ROMやBlu-ray(登録商標)ディスクなどの光ディスクを読み取る光ディスクドライブ、USB(Universal Serial Bus)ポートなどを含んでいてもよい。
図2は、本実施形態において、所定の抽出対象が表されている領域が特定される二次元画像であるターゲット画像20の一例を示す図である。ここで所定の抽出対象としては、例えば三次元空間に配置された車両22等の物体などが挙げられる。そして本実施形態では例えば図3に示すように、ターゲット画像20における抽出対象が表された領域が特定される。以下、このようにして特定される領域を抽出対象領域24と呼ぶこととする。図3の例では、抽出対象の一例である車両22がターゲット画像20において表された凸多角形(ここでは例えば凸五角形)の抽出対象領域24が示されている。
以下、本実施形態における抽出対象領域24の特定の一例について説明する。
本実施形態では例えば、まず、図2に示すターゲット画像20に対して互いに異なるパラメータによる射影変換が実行されることで複数の参照画像26が生成される。図4及び図5にはそれぞれ、図2に示すターゲット画像20に基づいて生成される参照画像26a及び参照画像26bが示されている。参照画像26a及び参照画像26bでは、所定の抽出対象である車両22の表われ方が互いに異なる。例えば、参照画像26a及び参照画像26bには、所定の抽出対象である車両22が、その輪郭線の向きが互いに異なるようにして表される。ここで当該輪郭線は、直線には限定されず曲線であっても構わない。
そして本実施形態では、参照画像26に対して、例えば参照画像26の特徴量を用いた画像認識処理が実行され、参照画像26において車両22が表された候補領域28が抽出される。図4には参照画像26aにおける候補領域28aが示されている。また図5には参照画像26bにおける候補領域28bが示されている。なお、参照画像26a及び参照画像26bの両方に対して所定の抽出対象を囲む矩形領域を特定する同じアルゴリズムが実行されることで、候補領域28a及び候補領域28bが抽出されてもよい。また図4及び図5に示すように、候補領域28の一部が参照画像26からはみ出ていてもよい。また学習済の機械学習モデルを用いて候補領域28が抽出されてもよい。
そして本実施形態では例えば、参照画像26における候補領域28に対して、当該参照画像26をターゲット画像20に変換する所与の幾何変換が実行される。例えば、参照画像26における候補領域28に対して、当該参照画像26に表れている、所与の抽出対象の輪郭線の向きをターゲット画像20に表れている当該抽出対象の輪郭線の向きに変換する所与の幾何変換が実行される。そして当該幾何変換が実行されることにより、ターゲット画像20における当該参照画像26に対応付けられる候補領域28が特定される。
例えば図4の参照画像26aにおける候補領域28aに対して、参照画像26aの生成の際に実行された射影変換の逆変換に相当する射影変換が実行されることにより、図6に示すようにターゲット画像20における候補領域28cが特定される。また例えば図5の参照画像26bにおける候補領域28bに対して、参照画像26bの生成の際に実行された射影変換の逆変換に相当する射影変換が実行されることにより、図7に示すようにターゲット画像20における候補領域28dが特定される。
そして本実施形態では例えば、ターゲット画像20における候補領域28cとターゲット画像20における候補領域28dとの統合結果が、ターゲット画像20における抽出対象が表された抽出対象領域24として特定される。
図8は、図6に示す候補領域28cと図7に示す候補領域28dと図3に示す抽出対象領域24との関係が示されたターゲット画像20の一例を示す図である。
図8の例では、候補領域28cの上辺と候補領域28dの上辺のうち下側にある辺が、抽出対象領域24の上辺30aとして設定される。また、候補領域28cの右辺と候補領域28dの右辺の一部とが重なっており、その共通部分が抽出対象領域24の右辺30bとして設定される。また、候補領域28cの下辺のうち候補領域28d内に存在する一部が、抽出対象領域24の右下辺30cとして設定される。また、候補領域28dの下辺のうち候補領域28c内に存在する一部が、抽出対象領域24の左下辺30dとして設定される。また、候補領域28cの左辺の一部と候補領域28dの左辺とが重なっており、その共通部分が抽出対象領域24の左辺30eとして設定される。
このように図8の例では、ターゲット画像20において候補領域28cと候補領域28dとが重複する領域の辺が抽出対象領域24の辺として設定されることとなる。このようにして、例えばターゲット画像20において候補領域28cと候補領域28dとが重なる領域が抽出対象領域24として特定されてもよい。
ここで本実施形態において、例えば図9に示すように、ターゲット画像20そのものに対して、例えばターゲット画像20の特徴量を用いた画像認識処理が実行され、ターゲット画像20において車両22が表された候補領域28eが抽出されてもよい。この場合、所定の抽出対象を囲む矩形領域を特定する上述のアルゴリズムが実行されることで候補領域28eが抽出されてもよい。
そして例えば、ターゲット画像20における候補領域28cとターゲット画像20における候補領域28dとターゲット画像20における候補領域28eとの統合結果が、ターゲット画像20における抽出対象が表された抽出対象領域24として特定されてもよい。ここで例えばターゲット画像20において候補領域28cと候補領域28dと候補領域28eとが重複する領域が抽出対象領域24として特定されてもよい。
なおこの場合に例えば候補領域28cと候補領域28eとの統合結果や、候補領域28dと候補領域28eとの統合結果が、ターゲット画像20における抽出対象が表された抽出対象領域24として特定されてもよい。
1つの二次元画像に基づいて当該二次元画像における所定の抽出対象が表された抽出対象領域24が特定される場合に、特定される抽出対象領域24と当該抽出対象が実際に表れている領域との間に大きな差異が発生することがある。
本実施形態では以上のようにして、ターゲット画像20における候補領域28の統合結果がターゲット画像20における抽出対象が表された抽出対象領域24として特定される。そのため本実施形態によれば、1つの二次元画像に基づいて抽出対象領域24が特定される場合よりも、特定される抽出対象領域24と抽出対象が実際に表れている領域との差異を低減できることとなる。
また例えば、矩形領域である抽出対象領域24が特定される場合は、図3の抽出対象領域24の左下や右下の、車両22が表されていない領域も、抽出対象領域24の一部に含まれてしまう。本実施形態では上述のように矩形領域に所与の幾何変換が実行された領域の統合結果がターゲット画像20における抽出対象が表された抽出対象領域24として特定される。そのため本実施形態によれば、抽出対象がより正確に表された多角形の抽出対象領域24が特定されることとなる。
また例えばセマンティックセグメンテーションの技術を用いて画素単位で当該画素が表す物体を特定することにより抽出対象が表された抽出対象領域24を特定することも考えられる。しかしセマンティックセグメンテーションの技術では部分的な抽出の欠落が発生しやすく、また学習に要する作業量が膨大である。一方、上述の例では、特定される抽出対象領域24内における抽出の欠落は発生していない。
なお、本実施形態において例えば、所定の角度ずつ互いに異なる射影方向となるような複数のパラメータのそれぞれによって、ターゲット画像20に対する射影変換が実行されることにより、複数の参照画像26が生成されてもよい。
また例えば候補領域28eが表す三次元の実空間における、車両22の表面までの距離分布を示すデータや、車両22の表面の位置の分布を示す点群(ポイントクラウド)のデータに基づいて、車両22に形成されている面32が特定されてもよい。図10には、特定された面32a及び面32bが示されている。なお車両22の表面までの距離分布を示すデータや点群(ポイントクラウド)のデータは、例えばターゲット画像20の撮影の際に併せて取得されてもよい。
そして例えば、面32aの法線方向を射影方向とし、面32aを囲む特定の辺の方向を所定の方向に変換する射影変換がターゲット画像20に対して実行されることにより参照画像26aが生成されてもよい。例えば、面32aの法線方向を射影方向とし、面32aの下辺の方向を水平方向に変換する射影変換がターゲット画像20に対して実行されることにより参照画像26aが生成されてもよい。また、面32bの法線方向を射影方向とし、面32aを囲む特定の辺の方向を所定の方向に変換する射影変換がターゲット画像20に対して実行されることにより参照画像26bが生成されてもよい。例えば、面32bの法線方向を射影方向とし、面32bの下辺の方向を水平方向に変換する射影変換がターゲット画像20に対して実行されることにより参照画像26bが生成されてもよい。
なお面32の特定方法は特に限定されず、上述の方法とは異なる方法により面32が特定されてもよい。
また例えば、ターゲット画像20における複数の候補領域28が重なる領域が抽出対象領域24として特定される必要はない。例えばターゲット画像20における複数の候補領域28の和集合である領域が抽出対象領域24として特定されてもよい。また例えばターゲット画像20における複数の候補領域28が重なる領域を所定倍に拡大又は縮小した領域やターゲット画像20における複数の候補領域28が重なる領域を所定長だけずらした領域が抽出対象領域24として特定されてもよい。
また例えばターゲット画像20における複数の候補領域28が重なる領域に対して抽出対象である物体の種類に応じた変形を実行した領域が抽出対象領域24として特定されてもよい。この場合、物体の種類と変形の規則との関係は予め定められていてもよい。例えば車両22の例ではターゲット画像20における複数の候補領域28が重なる領域からタイヤの部分がはみ出る可能性がある。例えばこのような種類の物体については、ターゲット画像20における複数の候補領域28が重なる領域を所定倍に拡大した上で所定長だけ下にずらした領域が抽出対象領域24として特定されてもよい。
また例えば公知の技術を用いてターゲット画像20や参照画像26からの候補領域28の抽出の信頼度が特定されるようにしてもよい。そして当該候補領域28の抽出の信頼度に応じて複数の候補領域28のうちの一部が選択されてもよい。例えば信頼度のとり得る値が0より大きく1以下である値である場合、抽出の信頼度が所定の閾値(例えば0.5)よりも大きな候補領域28が選択されてもよい。
そして選択される候補領域28に基づく統合結果がターゲット画像20における抽出対象領域24として特定されてもよい。この場合例えば参照画像26から抽出される候補領域28が選択される場合は、当該候補領域28に対して幾何変換が実行されることにより特定される、ターゲット画像20における当該参照画像26に対応付けられる候補領域28が統合の対象となる。また例えば、ターゲット画像20から抽出される候補領域28が選択される場合は、当該候補領域28が統合の対象となる。
また例えば、抽出の信頼度の低さに応じた拡大率で候補領域28が拡大されてもよい。例えば信頼度の値の逆数が示す拡大率で候補領域28が拡大されてもよい。この場合、候補領域28の中心の位置を変えることなく候補領域28が拡大されてもよい。そして拡大される候補領域28に基づく統合結果が、ターゲット画像20における抽出対象領域24として特定されてもよい。ここで参照画像26における候補領域28については、拡大された後で幾何変換が実行されることにより、ターゲット画像20における当該参照画像26に対応付けられる候補領域28が特定されてもよい。あるいは、参照画像26における候補領域28に対して幾何変換が実行されることにより特定される、ターゲット画像20における当該参照画像26に対応付けられる候補領域28が拡大されてもよい。
またここでターゲット画像20から抽出される候補領域28についても同様に抽出の信頼度の低さに応じた拡大率で拡大されてもよい。この場合、ターゲット画像20における候補領域28の中心の位置を変えることなく当該候補領域28が拡大されてもよい。そして拡大後の当該候補領域28と、ターゲット画像20における参照画像26に対応付けられる拡大後の候補領域28との統合結果が、ターゲット画像20における抽出対象領域24として特定されてもよい。
また、本実施形態における候補領域28は矩形領域である必要はない。例えばセマンティックセグメンテーションを実行することにより車両22が表されていると推定される画素群を囲む領域が候補領域28として特定されてもよい。なおこの場合は抽出対象領域24が凸多角形ではない可能性がある。また楕円抽出により候補領域28が抽出されてもよい。
またターゲット画像20から参照画像26を生成する射影変換や参照画像26における候補領域28からターゲット画像20における候補領域28を特定する射影変換は、例えば回転変換であってもよい。なおターゲット画像20から参照画像26を生成する幾何変換や参照画像26における候補領域28からターゲット画像20における候補領域28を特定する幾何変換は射影変換である必要はない。
また例えば、抽出対象は、車両22などといった立体的な物体に限定されず、例えばナンバープレートのような平面的な物体であってもよい。
また参照画像26は、ターゲット画像20に基づいて生成される画像である必要はない。例えばカメラの投影中心の位置がほぼ同じであり撮影方向のみが異なる複数の撮影画像のそれぞれが、参照画像26として用いられてもよい。また当該複数の撮影画像のうちのいずれかがターゲット画像20として用いられ、残りが参照画像26として用いられてもよい。なおこの場合、ターゲット画像20を撮影したカメラの撮影方向と参照画像26を撮影したカメラの撮影方向とがなす角度に応じたパラメータによって、参照画像26における候補領域28に対する射影変換が実行されてもよい。そして当該射影変換が実行されることにより、ターゲット画像20における当該参照画像26に対応付けられる候補領域28が特定されてもよい。
以下、本実施形態に係る領域特定装置10の機能並びに本実施形態に係る領域特定装置10で実行される処理についてさらに説明する。
図11は、本実施形態に係る領域特定装置10で実装される機能の一例を示す機能ブロック図である。なお、本実施形態に係る領域特定装置10で、図11に示す機能のすべてが実装される必要はなく、また、図11に示す機能以外の機能が実装されていても構わない。
図11に示すように、本実施形態に係る領域特定装置10には、機能的には例えば、参照画像生成部40、候補領域抽出部42、候補領域変換部44、抽出対象領域特定部46、が含まれる。これらの要素はプロセッサ12を主として実装される。
以上の機能は、コンピュータである領域特定装置10にインストールされた、以上の機能に対応する指令を含むプログラムをプロセッサ12で実行することにより実装されてもよい。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介して領域特定装置10に供給されてもよい。
参照画像生成部40は、本実施形態では例えば、ターゲット画像20に基づいて参照画像26を生成する。
ここで上述のように、参照画像生成部40が、ターゲット画像20に基づいて、三次元空間における抽出対象に形成されている面32を特定してもよい。そして参照画像生成部40が、特定される面32の法線方向を射影方向とし、当該面32を囲む特定の辺の方向を所定の方向に変換する射影変換をターゲット画像20に対して実行することにより参照画像26を生成してもよい。
候補領域抽出部42は、本実施形態では例えば、所定の抽出対象の表われ方が互いに異なる複数の参照画像26のそれぞれから、抽出対象が表された候補領域28を抽出する。ここで候補領域抽出部42は、所定の抽出対象が、その輪郭線の向きが互いに異なるようにして表された複数の参照画像26のそれぞれから、抽出対象が表された候補領域28を抽出してもよい。
あるいは、候補領域抽出部42は、本実施形態では例えば、所定の抽出対象の表われ方が互いに異なるターゲット画像20及び参照画像26のそれぞれから、抽出対象が表された候補領域28を抽出する。ここで候補領域抽出部42は、所定の抽出対象が、その輪郭線の向きが互いに異なるようにして表されたターゲット画像20及び参照画像26のそれぞれから、抽出対象が表された候補領域28を抽出してもよい。
ここで候補領域抽出部42は、参照画像生成部40により生成される参照画像26から候補領域28を抽出してもよい。
候補領域変換部44は、本実施形態では例えば、参照画像26をターゲット画像20に変換する所与の幾何変換を、参照画像26から抽出される候補領域28に対して実行する。ここで候補領域変換部44は、参照画像26に表れている、抽出対象の輪郭線の向きをターゲット画像20に表れている当該抽出対象の輪郭線の向きに変換する所与の幾何変換を、参照画像26から抽出される候補領域28に対して実行してもよい。そして候補領域変換部44は、本実施形態では例えば、当該幾何変換を実行することで、ターゲット画像20における当該参照画像26に対応付けられる候補領域28を特定する。
抽出対象領域特定部46は、本実施形態では例えば、ターゲット画像20における複数の参照画像26のそれぞれに対応付けられる候補領域28の統合結果を抽出対象領域24として特定する。
あるいは抽出対象領域特定部46は、本実施形態では例えば、ターゲット画像20における参照画像26に対応付けられる候補領域28とターゲット画像20から抽出される候補領域28との統合結果を抽出対象領域24として特定する。
ここで抽出対象領域特定部46は、上述のように、ターゲット画像20における複数の候補領域28が重なる領域を抽出対象領域24として特定してもよい。
また抽出対象領域特定部46は、上述のように、候補領域28の抽出の信頼度に応じて選択される候補領域28に基づく統合結果を抽出対象領域24として特定してもよい。
また抽出対象領域特定部46は、上述のように、候補領域28の抽出の信頼度の低さに応じた拡大率で拡大される候補領域28に基づく統合結果を抽出対象領域24として特定してもよい。
また抽出対象領域特定部46は、抽出対象領域24を示す情報を出力してもよい。抽出対象領域特定部46は例えば、図3に示す、抽出対象領域24が示されたターゲット画像20を画面に表示出力してもよい。
以下、本実施形態に係る領域特定装置10において行われる処理の流れの一例を、図12に例示するフロー図を参照しながら説明する。この例では複数の参照画像26における候補領域28に基づいて抽出対象領域24が特定される。
まず、参照画像生成部40が、ターゲット画像20に基づいて複数の参照画像26を生成する(S101)。
そして候補領域抽出部42が、S101に示す処理で生成された複数の参照画像26のそれぞれから、抽出対象が表された候補領域28を抽出する(S102)。
そして候補領域変換部44が、S102に示す処理で抽出された参照画像26における候補領域28に対して幾何変換を実行して、ターゲット画像20における当該参照画像26に対応付けられる候補領域28を特定する(S103)。
そして抽出対象領域特定部46が、S103に示す処理で特定される複数の候補領域28によって同一の抽出対象を表す領域が抽出されていることを確認する(S104)。ここで例えば、S103に示す処理で特定される複数の候補領域28についてのIntersection over Union (IoU)の値などに基づいて、上述の確認が行われてもよい。例えばIoUの値が所定の閾値以上(例えば0.5以上)である場合に、同一の抽出対象を表す領域が抽出されていると確認されるようにしてもよい。
そして同一の抽出対象を表す領域が抽出されていることが確認されなかった場合は(S104:N)、本処理例に示す処理が終了される。この場合例えば抽出対象領域24の抽出ができなかった旨が出力されてもよい。
一方、同一の抽出対象を表す領域が抽出されていることが確認された場合は(S104:Y)、抽出対象領域特定部46が抽出対象領域24を特定する(S105)。例えば、S103に示す処理で特定されたターゲット画像20における複数の参照画像26のそれぞれに対応付けられる候補領域28の統合結果が抽出対象領域24として特定される。そして本処理例に示す処理は終了される。
以下、本実施形態に係る領域特定装置10において行われる処理の流れの別の一例を、図13に例示するフロー図を参照しながら説明する。この例では1又は複数の参照画像26における候補領域28とターゲット画像20から抽出される候補領域28とに基づいて抽出対象領域24が特定される。
まず、参照画像生成部40が、ターゲット画像20に基づいて1又は複数の参照画像26を生成する(S201)。
そして候補領域抽出部42が、S201に示す処理で生成された1又は複数の参照画像26のそれぞれと、ターゲット画像20から、抽出対象が表された候補領域28を抽出する(S202)。
そして候補領域変換部44が、S202に示す処理で抽出された参照画像26における候補領域28に対して幾何変換を実行して、ターゲット画像20における当該参照画像26に対応付けられる候補領域28を特定する(S203)。
そして抽出対象領域特定部46が、S203に示す処理で特定される1又は複数の候補領域28、及び、S202に示す処理でターゲット画像20から抽出される候補領域28によって同一の抽出対象を表す領域が抽出されていることを確認する(S204)。ここで例えば、S203に示す処理で特定される候補領域28及びS202に示す処理でターゲット画像20から抽出される候補領域28についてのIntersection over Union (IoU)の値などに基づいて、上述の確認が行われてもよい。例えばIoUの値が所定の閾値以上(例えば0.5以上)である場合に、同一の抽出対象を表す領域が抽出されていると確認されるようにしてもよい。
ここで同一の抽出対象を表す領域が抽出されていることが確認されなかった場合は(S204:N)、本処理例に示す処理が終了される。この場合例えば抽出対象領域24の抽出ができなかった旨が出力されてもよい。
一方、同一の抽出対象を表す領域が抽出されていることが確認された場合は(S204:Y)。抽出対象領域特定部46が抽出対象領域24を特定する(S205)。例えば、S203に示す処理で特定されたターゲット画像20における1又は複数の参照画像26のそれぞれに対応付けられる候補領域28とS202に示す処理でターゲット画像20から抽出された候補領域28との統合結果が抽出対象領域24として特定される。そして本処理例に示す処理は終了される。
なお、本発明は上述の実施形態に限定されるものではない。
また、上述の具体的な文字列や数値、並びに、図面中の具体的な文字列は例示であり、これらの文字列や数値には限定されない。
10 領域特定装置、12 プロセッサ、14 記憶部、16 表示部、18 操作部、20 ターゲット画像、22 車両、24 抽出対象領域、26,26a、26b 参照画像、28,28a,28b,28c,28d,28e 候補領域、30a 上辺、30b 右辺、30c 右下辺、30d 左下辺、30e 左辺、32,32a,32b 面、40 参照画像生成部、42 候補領域抽出部、44 候補領域変換部、46 抽出対象領域特定部。

Claims (8)

  1. 所定の抽出対象が表れているターゲット画像に対して、互いに異なるパラメータによる所与の射影変換を実行することで、前記抽出対象の表われ方が互いに異なる複数の参照画像を生成する参照画像生成手段と、
    前記複数の参照画像のそれぞれから、前記抽出対象が表された候補領域を抽出する候補領域抽出手段と、
    前記参照画像を前記ターゲット画像に変換する、前記所与の射影変換の逆変換を、前記参照画像から抽出される前記候補領域に対して実行することで、前記ターゲット画像における当該参照画像に対応付けられる前記候補領域を特定する変換手段と、
    前記ターゲット画像における前記複数の前記参照画像のそれぞれに対応付けられる前記候補領域の統合結果を、前記ターゲット画像における前記抽出対象が表された領域として特定する抽出対象領域特定手段と、
    を含むことを特徴とする領域特定装置。
  2. 所定の抽出対象を撮影したターゲット画像、及び、当該抽出対象を前記ターゲット画像とは異なる角度から撮影した参照画像のそれぞれから、前記抽出対象が表された候補領域を抽出する候補領域抽出手段と、
    前記ターゲット画像の撮影方向と前記参照画像の撮影方向とがなす角度に応じたパラメータによる射影変換を、前記参照画像から抽出される前記候補領域に対して実行することで、前記ターゲット画像における当該参照画像に対応付けられる前記候補領域を特定する変換手段と、
    前記ターゲット画像における前記参照画像に対応付けられる前記候補領域と前記ターゲット画像から抽出される前記候補領域との統合結果を、前記ターゲット画像における前記抽出対象が表された領域として特定する抽出対象領域特定手段と、
    を含むことを特徴とする領域特定装置。
  3. 前記ターゲット画像は、三次元空間に配置された前記抽出対象を撮影した画像であり、
    前記ターゲット画像に基づいて、前記三次元空間における前記抽出対象に形成されている面を特定する面特定手段、をさらに含み、
    前記参照画像生成手段は、特定される前記面の法線方向を射影方向とし、前記面を囲む特定の辺の方向を所定の方向に変換する射影変換を前記ターゲット画像に対して実行することにより前記参照画像を生成する、
    ことを特徴とする請求項に記載の領域特定装置。
  4. 前記抽出対象領域特定手段は、複数の前記候補領域が重なる領域を、前記ターゲット画像における前記抽出対象が表された領域として特定する、
    ことを特徴とする請求項1からのいずれか一項に記載の領域特定装置。
  5. 前記抽出対象領域特定手段は、前記候補領域の抽出の信頼度に応じて選択される前記候補領域に基づく前記統合結果を、前記ターゲット画像における前記抽出対象が表された領域として特定する、
    ことを特徴とする請求項1からのいずれか一項に記載の領域特定装置。
  6. 前記抽出対象領域特定手段は、前記候補領域の抽出の信頼度の低さに応じた拡大率で拡大される前記候補領域に基づく前記統合結果を、前記ターゲット画像における前記抽出対象が表された領域として特定する、
    ことを特徴とする請求項1からのいずれか一項に記載の領域特定装置。
  7. 所定の抽出対象が表れているターゲット画像に対して、互いに異なるパラメータによる所与の射影変換を実行することで、前記抽出対象の表われ方が互いに異なる複数の参照画像を生成する手順、
    前記複数の参照画像のそれぞれから、前記抽出対象が表された候補領域を抽出する手順、
    前記参照画像を前記ターゲット画像に変換する、前記所与の射影変換の逆変換を、前記参照画像から抽出される前記候補領域に対して実行することで、前記ターゲット画像における当該参照画像に対応付けられる前記候補領域を特定する手順、
    前記ターゲット画像における前記複数の前記参照画像のそれぞれに対応付けられる前記候補領域の統合結果を、前記ターゲット画像における前記抽出対象が表された領域として特定する手順、
    をコンピュータに実行させることを特徴とするプログラム。
  8. 所定の抽出対象を撮影したターゲット画像、及び、当該抽出対象を前記ターゲット画像とは異なる角度から撮影した参照画像のそれぞれから、前記抽出対象が表された候補領域を抽出する手順、
    前記ターゲット画像の撮影方向と前記参照画像の撮影方向とがなす角度に応じたパラメータによる射影変換を、前記参照画像から抽出される前記候補領域に対して実行することで、前記ターゲット画像における当該参照画像に対応付けられる前記候補領域を特定する手順、
    前記ターゲット画像における前記参照画像に対応付けられる前記候補領域と前記ターゲット画像から抽出される前記候補領域との統合結果を、前記ターゲット画像における前記抽出対象が表された領域として特定する手順、
    をコンピュータに実行させることを特徴とするプログラム。
JP2018124108A 2018-06-29 2018-06-29 領域特定装置及びプログラム Active JP7117177B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018124108A JP7117177B2 (ja) 2018-06-29 2018-06-29 領域特定装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018124108A JP7117177B2 (ja) 2018-06-29 2018-06-29 領域特定装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2020004166A JP2020004166A (ja) 2020-01-09
JP7117177B2 true JP7117177B2 (ja) 2022-08-12

Family

ID=69100376

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018124108A Active JP7117177B2 (ja) 2018-06-29 2018-06-29 領域特定装置及びプログラム

Country Status (1)

Country Link
JP (1) JP7117177B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010226449A (ja) 2009-03-24 2010-10-07 Aisin Seiki Co Ltd 障害物検出装置
JP2011232965A (ja) 2010-04-28 2011-11-17 Hitachi Ltd 平面領域検出装置及びステレオカメラシステム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010226449A (ja) 2009-03-24 2010-10-07 Aisin Seiki Co Ltd 障害物検出装置
JP2011232965A (ja) 2010-04-28 2011-11-17 Hitachi Ltd 平面領域検出装置及びステレオカメラシステム

Also Published As

Publication number Publication date
JP2020004166A (ja) 2020-01-09

Similar Documents

Publication Publication Date Title
CN107784301B (zh) 用于识别图像中文字区域的方法和装置
JP2008146496A5 (ja)
JP4738469B2 (ja) 画像処理装置、画像処理プログラムおよび画像処理方法
US9275030B1 (en) Horizontal and vertical line detection and removal for document images
JP2015528960A (ja) フォーム認識方法及びフォーム認識装置
WO2014155715A1 (ja) 物体認識装置および物体認識方法並びにプログラム
EP2808828A2 (en) Image matching method, image matching device, model template generation method, model template generation device, and program
TW201616451A (zh) 點雲套索選取系統及方法
TW201616450A (zh) 點雲畫筆選取系統及方法
KR101478709B1 (ko) Rgb-d 영상 특징점 추출 및 특징 기술자 생성 방법 및 장치
JP6758263B2 (ja) 物体検出装置、物体検出方法及び物体検出プログラム
CN112651953A (zh) 图片相似度计算方法、装置、计算机设备及存储介质
CN110427909B (zh) 一种移动端驾驶证检测方法、系统及电子设备和存储介质
JP7117177B2 (ja) 領域特定装置及びプログラム
CN115937825B (zh) 在线俯仰角估计的bev下鲁棒车道线生成方法及装置
KR101592087B1 (ko) 배경 영상의 위치를 이용한 관심맵 생성 방법 및 이를 기록한 기록 매체
JP6082312B2 (ja) テンプレート画像候補領域決定装置、テンプレート画像候補領域決定方法、及びプログラム
CN108205641B (zh) 手势图像处理方法及装置
JP6467817B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP6586852B2 (ja) 画像処理装置
JP7415202B2 (ja) 判定方法、判定プログラム、および情報処理装置
US11508083B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP2017138742A (ja) 画像処理装置、画像処理方法及びプログラム
JP6668228B2 (ja) 被写体識別装置、方法、及びプログラム
KR102598210B1 (ko) 엔지니어링 도면의 도면 정보 인식방법, 도면 정보 인식시스템, 컴퓨터 프로그램

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210423

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220801

R150 Certificate of patent or registration of utility model

Ref document number: 7117177

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150