JP7138157B2 - 物体検出装置、物体検出方法、およびプログラム - Google Patents

物体検出装置、物体検出方法、およびプログラム Download PDF

Info

Publication number
JP7138157B2
JP7138157B2 JP2020217296A JP2020217296A JP7138157B2 JP 7138157 B2 JP7138157 B2 JP 7138157B2 JP 2020217296 A JP2020217296 A JP 2020217296A JP 2020217296 A JP2020217296 A JP 2020217296A JP 7138157 B2 JP7138157 B2 JP 7138157B2
Authority
JP
Japan
Prior art keywords
image
object region
region
area
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020217296A
Other languages
English (en)
Other versions
JP2022102515A (ja
Inventor
剛 大槻
貴史 小野
俊彦 原田
雅稔 井藤
Original Assignee
エヌ・ティ・ティ・コムウェア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エヌ・ティ・ティ・コムウェア株式会社 filed Critical エヌ・ティ・ティ・コムウェア株式会社
Priority to JP2020217296A priority Critical patent/JP7138157B2/ja
Publication of JP2022102515A publication Critical patent/JP2022102515A/ja
Application granted granted Critical
Publication of JP7138157B2 publication Critical patent/JP7138157B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、物体検出装置、物体検出方法、およびプログラムに関する。
従来より、車載カメラによって撮像される画像を蓄積し、当該画像に含まれるマンホールや道路標示等の金属物を識別することが可能な技術が知られている。例えば、特許文献1に記載された物体認識装置は、蓄積された車載カメラからの画像から俯瞰画像を生成し、当該俯瞰画像に生じる輝度差を利用して路面上に存在する金属物を識別する。具体的に、物体認識装置は、デジタル画像処理の条件を設定し、車載カメラからの画像を俯瞰画像に変換し、俯瞰画像に含まれる金属物を検出し、金属物からの相対的な自車両の位置を特定している。
特開2009-266003号公報
上述した物体認識装置のように車載カメラを用いてマンホール等や公共設備などを検出することや、位置を推定することが行われているが、位置の利用目的などに応じて、さらに高い精度で位置を検出することが望まれている。
本発明は、上記の課題に鑑みてなされたものであって、高い精度で物体の位置を検出することができる物体検出装置、物体検出方法、物体検出プログラムを提供することを目的としている。
(1)本発明の一態様は、撮像画像から物体領域を検出する検出部と、前記物体領域に対応した物体の位置を推定する位置推定部と、を備え、前記位置推定部は、前記物体領域の画像内位置を基準とした形状を有する矩形から前記物体領域の画像内位置を基準とした形状を有する台形への変換関数に基づいて前記矩形の中心点を変換し、変換した前記中心点を物体の位置として推定前記変換関数は、前記物体領域の幅に対応した長さの辺を有する前記矩形を、前記物体領域の端部座標および前記撮像画像の収束点に基づいて前記台形に変換する関数である、物体検出装置である。
)本発明の一態様は、上記の物体検出装置であって、前記位置推定部は、前記物体領域を台形補正し、台形補正された物体領域を円領域に変換し、台形補正された物体領域と、前記円領域との比較に基づいて、前記物体領域に対応した物体を選別してよい。
)本発明の一態様は、上記の物体検出装置であって、前記位置推定部は、前記物体領域の画像内位置に基づく撮像位置から物体までの距離に基づいて、前記物体領域に対応した物体を選別してよい。
)本発明の一態様は、上記の物体検出装置であって、前記位置推定部は、前記検出部により検出された前記物体領域の幅と所定の物体領域幅との比較に基づいて、前記物体領域に対応した物体を選別してよい。
)本発明の一態様は、上記の物体検出装置であって、前記位置推定部は、前記撮像画像のうち左側画像に基づいて検出された第1の中心点と前記撮像画像のうち右側画像に基づいて検出された第2の中心点との距離が、第1の所定値以内かつ第2の所定値以上である場合に、前記第1の中心点を持つ物体領域に対応した物体と前記第2の中心点を持つ物体領域に対応した物体とが同じであると判定してよい。
)本発明の一態様は、撮像画像から物体領域を検出するステップと、前記物体領域に対応した物体の位置を推定するステップと、を含み、前記物体領域の画像内位置を基準とした形状を有する矩形から前記物体領域の画像内位置を基準とした形状を有する台形への変換関数に基づいて前記矩形の中心点を変換し、変換した前記中心点を物体の位置として推定前記変換関数は、前記物体領域の幅に対応した長さの辺を有する前記矩形を、前記物体領域の端部座標および前記撮像画像の収束点に基づいて前記台形に変換する関数である、物体検出方法である。
)本発明の一態様は、コンピュータに、撮像画像から物体領域を検出するステップと、前記物体領域に対応した物体の位置を推定するステップと、を実行させ、前記物体領域の画像内位置を基準とした形状を有する矩形から前記物体領域の画像内位置を基準とした形状を有する台形への変換関数に基づいて前記矩形の中心点を変換させ、変換した前記中心点を物体の位置として推定させ前記変換関数は、前記物体領域の幅に対応した長さの辺を有する前記矩形を、前記物体領域の端部座標および前記撮像画像の収束点に基づいて前記台形に変換する関数である、プログラムである。
本発明の一態様によれば、高い精度で物体の位置を検出することができる。
実施形態の物体検出システムの一構成例を示すブロック図である。 実施形態の物体検出装置における処理手順の一例を示すフローチャートである。 実施形態における撮像画像の一例を示す図である。 実施形態の検出部の一例を示すブロック図である。 実施形態における隠れ判定処理の一例を示す図である。 実施形態における台形補正について説明するための図であり、(a)は補正前の領域を示し、(b)は補正後の領域を示す。 実施形態において物体領域を関数により領域に補正(変換)することを示す図である。 実施形態における台形補正された領域から真円領域へ変換する処理を説明するための図であり、(a)は物体領域Aを示し、(b)は領域A’を示し、(c)は真円領域A’’を示す。 実施形態における撮像画像の一例を示す図である。 実施形態における撮像画像の一例を示す図であり、(a)は物体全体を含む物体領域を示し、(b)は見切れた物体領域を示す。 物体の中心点を求めるときの課題を説明するための図であり、(a)は撮像画像の一例であり、(b)は物体領域の平面図である。 実施形態における矩形から台形への変換を説明するための図であり、(a)は矩形を示し、(b)は台形を示す。 実施形態における台形補正について説明するための図であり、(a)は補正前の矩形を示し、(b)は補正後の台形を示す。 実施形態において矩形の中心点を台形の中心点に変換することを示す図である。 右側画像および左側画像の一例を示す図である。 実施形態において右側画像の物体領域と左側画像の物体領域との一致性を判定する処理を説明するための図である。 実施形態におけるマンホールの一例を示す平面図である。 実施形態における分類部の一構成例を示すブロック図である。
以下、本発明を適用した物体検出装置、物体検出方法、物体検出プログラムを、図面を参照して説明する。
[実施形態の概要]
実施形態の物体検出システム1は、一または複数の車載装置10から送信された撮像画像を収集し、収集した撮像画像に含まれた物体を検出する。物体検出システム1は、検出した物体の位置を推定する処理や、検出した物体を分類する処理を実行する。物体検出システム1は、物体の位置情報や物体の分類情報を含む情報を作成し、作成した情報を他のシステム(不図示)に提供する。以下の実施形態において、撮像画像は、例えば、車両の右前方部に設置されたカメラにより撮像された右側画像、および車両の左前方部に設置されたカメラにより撮像された左側画像を含む。撮像画像は、右側画像および左側画像に限定されず、車両に搭載された1台のカメラにより撮像された画像であってもよく、車両の後方を撮像した画像であってもよく、さらには、車両に搭載されていない種々のカメラにより撮像された画像であってもよい。以下の実施形態において、物体がマンホールであることについて説明するが、物体検出システム1は、これに限定されず、位置の推定や、物体の分類の対象となりうる種々の物体に適用可能である。例えば、物体検出システム1は、道路に沿って設けられている電柱等にも適用可能である。
[物体検出システム1の構成]
図1は、実施形態の物体検出システム1の一構成例を示すブロック図である。物体検出システム1は、例えば、一又は複数の車載装置10と、データ収集装置20と、物体検出装置100とを備える。車載装置10、データ収集装置20、および物体検出装置100は、例えば、通信ネットワークに接続される。通信ネットワークに接続される各装置は、NIC(Network Interface Card)や無線通信モジュールなどの通信インターフェースを備えている(図1では不図示)。通信ネットワークは、例えば、インターネット、WAN(Wide Area Network)、LAN(Local Area Network)、セルラー網などを含む。
車載装置10は、カメラおよびデータ送信装置等を備え、右側画像および左側画像を含む左右画像をデータ収集装置20に送信する。データ収集装置20は、右側画像および左側画像を収集し、当該右側画像および左側画像を撮像した位置情報に対応付けて記憶する。なお、以下の説明において、右側画像および左側画像を総称して撮像画像と記載する。
物体検出装置100は、例えば、検出部110と、位置推定部120と、分類部130と、情報提供部140とを備える。検出部110、位置推定部120、分類部130、および情報提供部140といった機能部は、例えばCPU(Central Processing Unit)等のプロセッサがプログラムメモリに格納されたプログラムを実行することにより実現される。また、これらの機能部のうち一部または全部は、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、またはFPGA(Field-Programmable Gate Array)等のハードウェアにより実現されてもよいし、ソフトウェアとハードウェアが協働することで実現されてもよい。プログラムは、例えば、予め物体検出装置100のHDDやフラッシュメモリなどの記憶装置に格納される。
検出部110は、撮像画像に含まれる物体領域を検出する。物体領域は、撮像画像のうち物体を表す領域を示す情報である。位置推定部120は、物体の位置を推定する。分類部130は、物体を分類する。情報提供部140は、位置推定部120により推定された物体の位置、および分類部130により求められた物体の分類を含む情報を提供する。なお、情報提供部140は、右側画像および左側画像のそれぞれで推定された位置および分類を含む情報を提供する。
[物体検出システム1の処理]
図2は、実施形態の物体検出装置100における処理手順の一例を示すフローチャートである。物体検出装置100は、先ず、データ収集装置20から処理対象の撮像画像を取得する(ステップS100)。次に物体検出装置100は、撮像画像から検出された物体の一部が他の物体により隠れているか否かを判定する(ステップS102)。物体検出装置100は、撮像画像から検出された物体の一部が他の物体により隠れている場合、検出された物体を以降の処理対象から除外する。次に物体検出装置100は、処理対象の物体の位置を推定する(ステップS104)。実施形態の位置推定処理は、撮像画像内における物体の位置を推定する。次に物体検出装置100は、右側画像を用いて位置が推定された物体と、左側画像を用いて位置が推定された物体とが一致するか否かを判定する(ステップS106)。次に物体検出装置100は、撮像画像から検出された物体を分類する(ステップS108)。次に物体検出装置100は、物体の位置、および分類を含む情報を提供する(ステップS110)。物体検出装置100は、例えば、一致性が判定された物体ごとに、位置および分類を含む情報を提供する。位置情報の提供処理は、位置推定処理により推定された撮像画像内の位置および当該撮像画像に対応した緯度経度を含む位置情報を提供してもよく、撮像画像に対応した緯度経度および撮像画像内の位置に基づいて計算した物体の緯度経度情報を提供してもよい。なお、実施形態は、隠れ判定処理(ステップS102)、位置推定処理(ステップS104)、および一致性判定処理(ステップS106)の順で処理を実行したが、これに限定されず、どの順序で実行してもよい。
なお、物体検出装置100は、物体の位置の推定を行い、物体の分類を行わなくてもよい。この場合、物体検出装置100は、物体の位置を含み分類を含まない情報を提供する。また、物体検出装置100は、物体の分類を行い、物体の位置の推定を行わなくてもよい。この場合、物体検出装置100は、物体の分類を含み位置を含まない情報を提供してもよい。
[隠れ判定処理(ステップS102)]
以下、隠れ判定処理(ステップS102)について説明する。図3は、実施形態における撮像画像の一例を示す図である。図3に示した撮像画像は、車両の右側に設けられたカメラにより撮像された画像である。撮像画像には、2つのマンホールに対応した2つの物体領域A1,A2が含まれる。
図4は、実施形態の検出部110の一例を示すブロック図である。検出部110は、検出処理部112と、モデル構築部114とを備える。検出処理部112は、検出用モデル112Aに撮像画像を入力し、検出用モデル112Aから物体領域の推定結果を出力する。物体領域の推定結果には物体領域の形状および位置を示す情報が含まれる。検出用モデルは、機械学習モデルであり、例えば、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)である。
モデル構築部114は、検出用モデル112Aを構築する。モデル構築部114は、教師データとして撮像画像および物体領域を示す情報を取得する。モデル構築部114は、学習時において、検出用モデル112Aに撮像画像を入力する。検出用モデル112Aは、撮像画像が入力された場合に、撮像画像に含まれる物体領域Aの物体領域を示す推定結果を出力する。モデル構築部114は、検出用モデル112Aから出力された物体領域を示す情報が、教師データとしての物体領域を示す情報と一致するように検出用モデル112Aの処理パラメータを再帰的に更新する。処理パラメータは、例えば、畳み込みニューラルネットワークにおける、層数、各層のノード数、各層間のノードの結合方式、活性化関数、誤差関数、及び勾配降下アルゴリズム、プーリングの領域、カーネル、重み係数、および重み行列の少なくとも一つである。これにより、モデル構築部114は、処理パラメータを取得するために、例えば、深層学習を行う。深層学習とは、多層構造、特に3層以上のニューラルネットワークを用いた機械学習である。なお、モデル構築部114は、検出部110に含まれていなくてもよく、物体検出装置100の初期設定時やメンテナンス時に検出用モデル112Aを検出処理部112に導入することができればよい。検出用モデル112Aは、推定時において、撮影画像を入力し、物体領域の形状や位置を示す推定結果を出力する。検出処理部112は、例えば推定結果に対応したタグを付与した撮影画像を出力する。
図5は、実施形態における隠れ判定処理の一例を示す図である。検出部110は、検出処理部112により取得された物体領域を用いて、隠れ判定処理(ステップS102)を行う。例えば図5(a)に示すように、マンホールに対応した物体領域Aの一部が、障害物に対応した障害物領域Bによって隠れている場合がある。検出部110は、障害物領域Bによって一部が隠れている物体領域Aを処理対象から除外するために、以下の処理を行う。
まず、検出部110は、図5(b)に示す物体領域Aを検出する。次に検出部110は、物体領域Aに対してマンホールを真上からみた領域になるように台形補正を行うことで、図5(c)に示すような領域A’に変換する。次に検出部110は、領域A’を、図5(d)に示す真円領域A’’に変換する。次に検出部110は、領域A’と真円領域A’’との面積比率を算出する。次に検出部110は、算出した面積比率と所定値との比較に基づいて物体領域Aが障害物領域Bによって隠れているか否かを判定する。以下、各処理について説明する。
(物体領域Aから領域A’への変換処理)
図6は、実施形態における台形補正について説明するための図であり、(a)は補正前の領域Aを示し、(b)は補正後の領域A’を示す。図6(a)において、(x0,y0)は撮像画像の収束点の座標である。(x1,y1)、(x2,y2)、(x3,y3)、および(x4,y4)は物体領域Aを囲む矩形の端部座標である。wは2つの縦方向中間点(xc1,yc1)および(xc2,yc2)を結んだ物体領域Aの幅である。(x1’,y1’)、(x2’,y2’)、(x3’,y3’)、および(x4’,y4’)は物体領域Aと接する台形領域の端部座標である。台形領域は、X方向に平行な2本の底辺と、縦方向中間点(xc1,yc1)と収束点とを結ぶ直線と、縦方向中間点(xc2,yc2)と収束点とを結ぶ直線とにより定義される。図6(b)において、補正後の領域A’は、wを直径とした円領域である。補正後の領域A’は、正方形領域に接する。正方形領域は、(x1’’,y1’’)、(x2’’,y2’’)、(x3’’,y3’’)、および(x4’’,y4’’)を持つ。
検出部110は、物体領域Aの端部座標(x1,y1)、(x2,y2)、(x3,y3)、および(x4,y4)と、収束点(x0,y0)とを用いて、台形領域の端部座標(x1’,y1’)、(x2’,y2’)、(x3’,y3’)、および(x4’,y4’)を求める。検出部110は、例えば、下記の式1を用いる。
Figure 0007138157000001
次に検出部110は、正方形領域の座標(x1’’,y1’’)、(x2’’,y2’’)、(x3’’,y3’’)、および(x4’’,y4’’)を求める。検出部110は、例えば、下記の式2を用いる。
Figure 0007138157000002
次に検出部110は、台形領域を正方形領域に射影変換する公式により、台形補正の関数P1を求める。検出部110は、例えば、下記の式3および式4のように定義される関数P1を求める。式3は、関数P1により台形領域の座標(xi’,yi’)を変換することで、正方形領域の座標(xi’’,yi’’)を求める式である。式4は、P1を定義する行列である。
Figure 0007138157000003
次に検出部110は、物体領域Aを関数P1に代入することで、台形補正した領域A’を求めることができる。図7は、実施形態において物体領域Aを関数P1により領域A‘に補正(変換)することを示す図である。
(領域A’から真円領域A’’への変換処理)
図8は、実施形態における台形補正された領域A’から真円領域A’’へ変換する処理を説明するための図であり、(a)は物体領域Aを示し、(b)は領域A’を示し、(c)は真円領域A’’を示す。
先ず検出部110は、領域AのX方向最小点z1、X方向最大点z3、Y方向最小点z4、およびY方向最大点z2を検出する。これらの検出した点z1~z4は、領域Aの外周点の座標である。次に検出部110は、外周点を用いてX方向中間点(幅方向の中心)およびY方向中間点(高さ方向の中心)を求め、幅方向の中心および高さ方向の中心である領域Aの中心点z0を求める。次に検出部110は、X方向最小点z1、X方向最大点z3、Y方向最小点z2、Y方向最大点z4、および中心点z0を、関数P1を用いて台形補正する。すなわち、検出部110は、zn’=P1(zn)を用いて、台形補正後のzn’を求める。次に検出部110は、中心点z0’と外周点z1’との距離d1、中心点z0’と外周点z2’との距離d2、中心点z0’と外周点z3’との距離d3、中心点z0’と外周点z4’との距離d4を求める(dn=d(z0’-zn’))。検出部110は、距離d1,d2,d3,d4のうち最大値を真円領域A’’の半径rとして設定する(r=max(d1,d2,d3,d4))。
(隠れ判定処理)
検出部110は、領域A’に含まれる画素数N1をカウントする。検出部110は、真円領域A’’に含まれる画素数N2をカウントする。検出部110は、N2を、π×rを用いてカウントしてもよい。検出部110は、画素数N1と画素数N2の割合が所定数以下であるか否かを判定し、割合が所定数以下である場合、物体領域Aが障害物により隠された物体に対応すると判定する。検出部110は、割合が所定数以下ではない場合、物体領域Aが障害物により隠されていない物体に対応すると判定する。検出部110は、障害物により隠された物体に対応した物体領域Aを以降の処理対象から除外し、障害物により隠されていない物体に対応した物体領域Aを以降の処理対象として選別する。所定値は、予め設定された値であり、例えば、後段の位置推定が高い精度で実行できるような物体領域Aを選別するように設定された値であり、例えば、物体領域Aの80%が障害物で隠されていない物体を選別するように設定される。
(その他の物体領域Aの選別処理)
図9は、実施形態における撮像画像の一例を示す図である。検出部110は、物体領域Aの画像内位置に基づく撮像位置から物体までの距離に基づいて、物体領域Aに対応した物体を選別してよい。検出部110は、撮像画像のうち所定の範囲を物体領域Aの検出領域として設定する。検出部110は、例えば、撮像画像のY方向における位置Rminから位置Rmaxまでに含まれる領域を、検出領域として設定する。位置Rminおよび位置Rmaxは、後段の位置推定が高い精度で実行できるように、例えば、カメラの撮像可能範囲のうち鮮明且つ適切な大きさの画像を撮像することができる範囲に基づいて設定される。検出部110は、検出領域に含まれる物体領域Aである場合、当該物体領域Aを後段の処理対象に設定し、検出領域に含まれる物体領域Aではない場合、当該物体領域Aを後段の処理対象から除外する。
図10は、実施形態における撮像画像の一例を示す図であり、(a)は物体全体を含む物体領域A1を示し、(b)は見切れた物体領域A2を示す。検出部110は、物体領域の幅と所定の物体領域幅との比較に基づいて、物体領域に対応した物体を選別してよい。検出部110は、例えば、左側画像から検出した物体領域A1の幅W1と、右側画像から検出した物体領域A2の幅W2との差が所定値以上であるか否かを判定する。物体領域の幅は、撮像画像のX方向(横方向)における最小値(最右座標)と最大値(最左座標)との差である。検出部110は、幅W2が幅W1よりも所定値以上小さいと判定することにより、物体領域A2を後段の処理対象から除外する。所定値は、例えば、撮像画像にマンホールの全体が含まれていない、撮像画像から見切れたマンホール(物体)を除外するような値が設定される。
[位置推定処理(ステップS104)]
以下、位置推定処理(ステップS104)について説明する。図11は、物体の中心点を求めるときの課題を説明するための図であり、(a)は撮像画像の一例であり、(b)は物体領域の平面図である。検出部110により検出された物体領域Aを上から見た平面に変換すると、物体領域Aから計算した中心点Cが、中心点C#にずれてしまう。すなわち、図11(a)に示す物体領域Aの横方向における最左座標aと最右座標bの中間点と、物体領域Aの縦方向における最上座標cと最下座標dの中間点とから中心点Cを計算しても、中心点C#は、物体領域A#の横方向における最左座標a#と最右座標b#の中間点と、物体領域A#の縦方向における最上座標c#と最下座標d#の中間点とから計算した点からずれてしまう。
(矩形200から台形300への変換処理)
図12は、実施形態における矩形から台形への変換を説明するための図であり、(a)は矩形を示し、(b)は台形を示す。位置推定部120は、物体領域Aの画像内位置を基準とした形状を有する矩形200から物体領域Aの画像内位置を基準とした形状を有する台形300への変換関数に基づいて、矩形200の中心点Cを変換する。矩形200は、例えば、物体領域Aの中心点Cを重心とする正方形であって、一辺が物体領域AのX方向の幅と同じ長さを持つ正方形である。物体領域Aの幅は、物体領域Aの最左座標aから最右座標までの距離である。台形300は、矩形200により変換された図形であり、各辺が最左座標a、最右座標b、最上座標c、および最下座標dに接する図形である。
図13は、実施形態における台形補正について説明するための図であり、(a)は補正前の矩形200を示し、(b)は補正後の台形300を示す。図13(a)において、矩形200は、物体領域Aの幅wの長さである辺を持つ正方形である。幅wは、物体領域Aの縦方向中間点(xc1,yc1)と物体領域Aの縦方向中間点(xc2,yc2)との距離である。矩形200は、(x1’’,y1’’)、(x2’’,y2’’)、(x3’’,y3’’)、および(x4’’,y4’’)を端部座標として持つ。図13(b)において、(x0,y0)は撮像画像の収束点の座標である。(x1,y1)、(x2,y2)、(x3,y3)、および(x4,y4)は物体領域Aを囲む矩形の端部座標である。(x1’,y1’)、(x2’,y2’)、(x3’,y3’)、および(x4’,y4’)は台形300の端部座標である。台形300は、X方向に平行な2本の底辺と、縦方向中間点(xc1,yc1)と収束点とを結ぶ直線と、縦方向中間点(xc2,yc2)と収束点とを結ぶ直線とにより定義される。
位置推定部120は、平面を仮定した矩形(正方形)200を求める。位置推定部120は、例えば、下記の式5に、xc1、yc1、およびwを代入することで、矩形200の端部座標(x1’’,y1’’)、(x2’’,y2’’)、(x3’’,y3’’)、および(x4’’,y4’’)を計算する。
Figure 0007138157000004
位置推定部120は、物体領域Aの端部座標(x1,y1)、(x2,y2)、(x3,y3)、および(x4,y4)と、収束点(x0,y0)とを用いて、台形300の端部座標(x1’,y1’)、(x2’,y2’)、(x3’,y3’)、および(x4’,y4’)を求める。位置推定部120は、例えば、下記の式6を用いて、台形300の端部座標(x1’,y1’)、(x2’,y2’)、(x3’,y3’)、および(x4’,y4’)を計算する。
Figure 0007138157000005
次に位置推定部120は、矩形200の座標(x1’’,y1’’)、(x2’’,y2’’)、(x3’’,y3’’)、および(x4’’,y4’’)と、台形300の端部座標(x1’,y1’)、(x2’,y2’)、(x3’,y3’)、および(x4’,y4’)とを用いて、台形補正の関数P2を求める。位置推定部120は、例えば、下記の式7を用いる。式8は、P2を定義する行列である。
Figure 0007138157000006
次に位置推定部120は、矩形200の中心点Cを関数P2を用いて変換することにより、台形300の中心点C#を求めることができる。図14は、実施形態において矩形200の中心点Cを台形300の中心点C#に変換することを示す図である。位置推定部120は、中心点C#を、物体領域Aの位置として推定する。
[一致性の判定処理(ステップS106)]
図15は、右側画像および左側画像の一例を示す図である。例えば、撮像画像に複数のマンホールが含まれる場合、右側画像に含まれるマンホールと、左側画像に含まれるマンホールとが同一であると誤判定してしまう可能性がある。これを抑制するため、物体検出システム1は、右側画像に含まれる物体領域と左側画像に含まれる物体領域とが同一であるか否かを判定する一致性の判定処理を行う。
図16は、実施形態において右側画像の物体領域と左側画像の物体領域との一致性を判定する処理を説明するための図である。位置推定部120は、例えば、右側画像と左側画像とを重ね合わせた状態において、右側画像の物体領域ARの中心点CRと左側画像の物体領域ALの中心点CLとの距離を算出する。位置推定部120は、算出した中心点の距離が第1の所定値以内かつ第2の所定値以上である場合に、中心点CRを持つ物体領域ARに対応した物体と中心点CLを持つ物体領域ALに対応した物体とが同じであると判定する。
第1の所定値は、例えば、上述した右側画像と左側画像との位置ずれの最大値である。第2の所定値は、例えば、上述した右側画像と左側画像との位置ずれの最小値である。位置ずれの最大値は、例えば、左側画像の位置Rmin上の最端点x10に対応した右側画像内の位置x10#と、左側画像の位置Rmin上の最端点x20との距離Daである。位置ズレの最小点は、例えば、左側画像の位置Rmax上の中央点x11に対応した右側画像内の位置x11#と、左側画像の位置Rmax上の中央x21との距離Dbである。
なお、位置推定部120は、一致性の判定において、右側画像の物体領域ARの中心点CRと左側画像の物体領域ALの中心点CLとの距離を判定したが、これに限定されず、撮像画像の遠近方向(Y方向)における距離および撮像画像の横方向(X方向)の距離のそれぞれについて一致性判定のための所定値を設定しておき、右側画像および左側画像のY方向の距離と所定値との比較、および右側画像および左側画像のX方向の距離と所定値との比較に基づいて一致性を判定してもよい。この場合の所定値は、Y方向における右側画像および左側画像の位置ズレに基づいて設定し、X方向における右側画像および左側画像の位置ズレに基づいて設定してよい。
[分類処理(ステップS108)]
図17は、実施形態におけるマンホールの一例を示す平面図である。図17(a)、(b)、(c)、および(d)に示すように、マンホールは、模様、記号またはマーク、鍵穴の形状、鍵穴の位置、大きさが異なり、これらの要素によって特徴付けられている。これらの要素は、例えば、マンホールに適用された規格、マンホールの所有者や管理者を表す模様や記号、マンホールを開けるための鍵穴の形状や位置、マンホールの種類やタイプや用途、マンホールの大きさや形状などが挙げられるが、これに限定されず、他のマンホールと区別するための要素であればよい。
図18は、実施形態における分類部130の一構成例を示すブロック図である。分類部130は、例えば、変換部132と、複数の分類処理部134A、134Bおよび134Cと、直径分類部136と、モデル構築部138とを備える。変換部132、複数の分類処理部134A、134Bおよび134C、および直径分類部136といった機能部は、例えば、CPU等によりプログラムを実行することにより実現される。変換部132は、物体領域Aを表す画像を平面画像に変換する。変換部132は、位置推定部120により変換された平面画像を取得してもよい。複数の分類処理部134A、134Bおよび134Cは、互いに異なる要素に基づいて物体を分類する。直径分類部136は、直径に基づいて物体を分類する。
分類処理部134Aは、物体領域Aに含まれる物体を第1の要素に基づいて分類する第1の処理を行う。分類処理部134B、分類処理部134Cおよび直径分類部136は、第1の処理により分類された物体を第2の要素に基づいて分類する第2の処理を行う。第1の要素は、物体の模様および記号のうちの少なくとも一つであり、第2の要素は、物体の穴部の形状、位置、および大きさのうちの少なくとも一つである。分類部130は、分類処理部134Aと、分類処理部134B、分類処理部134Cおよび直径分類部136のうち何れか一つを備えていればよい。
分類処理部134Aは、模様・マーク用モデル1341に従った分類処理を行う。模様・マーク用モデル1341は、例えば、物体の模様を示すタグが付与された撮像画像を教師データとして機械学習されたモデルである。実施形態における機械学習モデルは、例えば畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)であるが、これに限定されず、パーセプトロンのニューラルネットワーク、再起型ニューラルネットワーク(RNN:Recurrent Neural Network)、残差ネットワーク(ResNet:Residual Network)等の他のニューラルネットワークを設定してもよい。また、模様・マーク用モデル1341は、決定木、回帰木、ランダムフォレスト、勾配ブースティング木、線形回帰、ロジスティック回帰、又は、SVM(サポートベクターマシン)等の教師あり学習の推定モデルを一部或いは全部に設定してもよい。
模様・マーク用モデル1341は、学習時において、撮像画像が入力された場合に、撮像画像に含まれる物体領域Aの模様やマークを示す推定結果を出力する。分類処理部134Aは、推定結果が、教師データとしてのタグと一致するように模様・マーク用モデル1341の処理パラメータを更新する。処理パラメータは、例えば、畳み込みニューラルネットワークにおける、層数、各層のノード数、各層間のノードの結合方式、活性化関数、誤差関数、及び勾配降下アルゴリズム、プーリングの領域、カーネル、重み係数、および重み行列の少なくとも一つである。分類処理部134Aは、推定時において、変換部132から供給された物体領域Aの画像を入力し、分類結果を出力する。分類処理部134Aは、例えば分類結果に対応したタグを付与した物体領域Aの画像を分類処理部134Bおよび分類処理部134Cに出力する。
分類処理部134Bは、形状用モデル1342に従った分類処理を行う。形状用モデル1342は、例えば、鍵穴の形状を示すタグが付与された撮像画像を教師データとして機械学習されたモデルである。実施形態における機械学習モデルは、例えば畳み込みニューラルネットワーク(CNN)であるが、模様・マーク用モデル1341と同様にこれに限定されず、パーセプトロンのニューラルネットワーク、再起型ニューラルネットワーク(RNN)、残差ネットワーク(ResNet)等の他のニューラルネットワークを設定してもよい。また、形状用モデル1342は、決定木、回帰木、ランダムフォレスト、勾配ブースティング木、線形回帰、ロジスティック回帰、又は、SVM(サポートベクターマシン)等の教師あり学習の推定モデルを一部或いは全部に設定してもよい。形状用モデル1342は、学習時において、撮像画像が入力された場合に、撮像画像に含まれる鍵穴の形状を示す推定結果を出力する。分類処理部134Bは、推定結果が、教師データとしてのタグと一致するように形状用モデル1341の処理パラメータを更新する。処理パラメータは、例えば、畳み込みニューラルネットワークにおける、層数、各層のノード数、各層間のノードの結合方式、活性化関数、誤差関数、及び勾配降下アルゴリズム、プーリングの領域、カーネル、重み係数、および重み行列の少なくとも一つである。分類処理部134Bは、推定時において、分類処理部134Aから供給された物体領域Aの画像を入力し、分類結果を出力する。分類処理部134Bは、例えば分類結果に対応したタグを付与した物体領域Aの画像を直径分類部136に出力する。分類処理部134Bは、例えば図17(a)および(b)に示した楕円形の鍵穴の形状と、図17(c)に示した円形の鍵穴の形状とで、2種類に分類する。
分類処理部134Cは、位置用モデル1343に従った分類処理を行う。位置用モデル1343は、例えば、鍵穴の位置を示すタグが付与された撮像画像を教師データとして機械学習されたモデルである。実施形態における機械学習モデルは、例えば畳み込みニューラルネットワークであるが、模様・マーク用モデル1341と同様にこれに限定されず、パーセプトロンのニューラルネットワーク、再起型ニューラルネットワーク(RNN)、残差ネットワーク(ResNet)等の他のニューラルネットワークを設定してもよい。また、形状用モデル1342は、決定木、回帰木、ランダムフォレスト、勾配ブースティング木、線形回帰、ロジスティック回帰、又は、SVM(サポートベクターマシン)等の教師あり学習の推定モデルを一部或いは全部に設定してもよい。位置用モデル1343は、学習時において、撮像画像が入力された場合に、撮像画像に含まれる鍵穴の位置を示す推定結果を出力する。分類処理部134Bは、推定結果が、教師データとしてのタグと一致するように形状用モデル1341の処理パラメータを更新する。処理パラメータは、例えば、畳み込みニューラルネットワークにおける、層数、各層のノード数、各層間のノードの結合方式、活性化関数、誤差関数、及び勾配降下アルゴリズム、プーリングの領域、カーネル、重み係数、および重み行列の少なくとも一つである。分類処理部134Cは、推定時において、分類処理部134Aから供給された物体領域Aの画像を入力し、分類結果を出力する。分類処理部134Cは、例えば分類結果に対応したタグを付与した物体領域Aの画像を直径分類部136に出力する。分類処理部134Cは、例えば図17(a)および(b)に示した鍵穴の位置と、図17(c)に示した鍵穴の位置とで、2種類に分類する。
直径分類部136は、物体領域Aが示す物体の直径に従った分類処理を行う。直径分類部136は、位置推定部120により求めた物体領域Aの幅wを示す情報を取得する。直径分類部136は、物体領域Aの幅wが所定値以上であるか否かを判定し、判定結果に応じて、分類結果に対応したタグを付与する。所定値は、例えば、マンホールの規格により設定されている直径である。直径分類部136は、タグを付与した物体領域Aの画像を分類結果として出力する。なお、物体検出システム1により取得した物体領域Aの幅wに関する情報を他のシステムに提供し、直径分類部136は、当該他のシステムにより取得した物体領域Aの幅wを用いて分類を行ってもよい。これにより、物体検出システム1は、他のシステムにより計算された正確な物体領域Aの幅wを用いて、高い精度で分類を行うことができる。
モデル構築部138は、模様・マーク用モデル1341、形状用モデル1342、および位置用モデル1343を構築する。モデル構築部138は、模様・マーク用モデル1341に教師データを入力し、模様・マーク用モデル1341から出力された分類結果が、教師データとしてのタグとなるように模様・マーク用モデル1341の処理パラメータを再帰的に更新する。モデル構築部138は、形状用モデル1342に教師データを入力し、形状用モデル1342から出力された分類結果が、教師データとしてのタグとなるように形状用モデル1342の処理パラメータを再帰的に更新する。モデル構築部138は、位置用モデル1343に教師データを入力し、位置用モデル1343から出力された分類結果が、教師データとしてのタグとなるように位置用モデル1343の処理パラメータを再帰的に更新する。なお、モデル構築部138は、分類部130に含まれていなくてもよく、物体検出装置100の初期設定時やメンテナンス時に各モデルを分類部130に導入することができればよい。
<実施形態の効果>
以上説明したように、実施形態の物体検出システム1によれば、撮像画像から物体領域Aを検出する検出部110と、物体領域Aに対応した物体の位置を推定する位置推定部120と、を備え、位置推定部120により、物体領域Aの画像内位置を基準とした形状を有する矩形200から物体領域Aの画像内位置を基準とした形状を有する台形300への変換関数に基づいて矩形200の中心点Cを変換し、変換した中心点C#を物体の位置として推定する物体検出装置100を実現することができる。変換関数は、例えば、物体領域Aの幅wに対応した長さの辺を有する矩形200を、物体領域Aの端部座標および撮像画像の収束点に基づいて台形300に変換する関数である。実施形態の物体検出装置100によれば、高い精度で物体の位置を検出することができる。実施形態の物体検出装置100によれば、例えば、撮像画像に含まれる物体領域Aを平面座標に変換して物体の位置を推定した場合のように、変換時に生ずる位置のズレを抑制することができる。
実施形態の物体検出システム1によれば、位置推定部120により、物体領域Aを台形補正し、台形補正された物体領域A’を円領域A’’に変換し、台形補正された物体領域A’と、円領域A’’との比較に基づいて、物体領域Aに対応した物体を選別することができる。これにより、物体検出システム1によれば、物体が障害物により隠された場合に、当該物体に対応した物体領域Aを位置推定の対象から除外することができる。この結果、物体検出システム1によれば、位置推定の精度を高くすることができる。
実施形態の物体検出システム1によれば、位置推定部120により、物体領域Aの画像内位置に基づく撮像位置から物体までの距離(Rmin~Rmax)に基づいて、物体領域Aに対応した物体を選別することができる。これにより、実施形態の物体検出システム1によれば、車載装置10から遠い位置の物体に対応した物体領域Aの位置を推定する処理を回避することができる。この結果、物体検出システム1によれば、位置推定の精度を高くすることができる。
実施形態の物体検出システム1によれば、位置推定部120により、検出部110により検出された物体領域Aの幅と所定の物体領域幅との比較に基づいて、物体領域Aに対応した物体を選別することができる。これにより、物体検出システム1によれば、例えば、撮像画像の端で見切れた物体領域Aを位置推定の処理対象から除外することができる。この結果、物体検出システム1によれば、位置推定の精度を高くすることができる。
実施形態の物体検出システム1によれば、位置推定部により、撮像画像のうち左側画像に基づいて検出された第1の中心点CLと撮像画像のうち右側画像に基づいて検出された第2の中心点CRとの距離が、第1の所定値以内Daかつ第2の所定値Db以上である場合に、第1の中心点CLを持つ物体領域Aに対応した物体と第2の中心点CRを持つ物体領域Aに対応した物体とが同じであると判定することができる。これにより、物体検出システム1によれば、右側画像および左側画像における物体のズレにより物体の同一性の誤りを抑制することができる。この結果、物体検出システム1によれば、同一であると判定された物体について、左側画像を用いて推定した位置と右側画像を用いて推定した位置とを対応付けた情報を提供することができる。
実施形態の物体検出システム1によれば、撮像画像から物体領域Aを検出する検出部110と、物体領域Aに含まれる物体を第1の要素に基づいて分類する第1の処理を実行する分類処理部134Aと、第1の処理により分類された物体を第2の要素に基づいて分類する第2の処理とを実行する分類処理部134Bおよび分類処理部134Cと、を備える分類部130(物体分類装置)を実現することできる。第1の要素は、物体の模様および記号のうちの少なくとも一つであり、第2の要素は、物体の穴部の形状、位置、および大きさのうちの少なくとも一つである。実施形態の物体検出システム1によれば、複数の段階に分けて物体を分類するので分類精度を高くすることができる。また、実施形態の物体検出システム1によれば、複数の段階に分けて物体を分類するので分類を詳細化することができる。
実施形態の物体検出システム1によれば、分類部130が、第1の要素および第1の分類結果(タグ)を教師データとして機械学習され、物体領域Aに含まれる第1の要素を入力した場合に第1の分類結果を出力する第1のモデル(1341)と、第2の要素および第2の分類結果を教師データとして機械学習され、物体領域Aに含まれる第2の要素を入力した場合に第2の分類結果を出力する第2のモデル(1342または1343)とを含む。実施形態の物体検出システム1によれば、複数の段階に分けて機械学習モデルを構築したので、各機械学習モデルの分類精度を高くすることができる。
実施形態の物体検出システム1によれば、分類部130により、検出部110により検出された物体領域Aを台形補正し、台形補正された物体領域Aに基づいて第1の処理および第2の処理を実行するので、分類精度を高くすることができる。
実施形態の物体検出システム1によれば、撮像画像から物体領域を検出する検出部110と、物体領域Aに含まれる物体を、模様および記号のうちの少なくとも一つに基づいて分類する分類処理部134A(第1の分類部)と、分類処理部134Aにより分類された物体を、穴部の形状に基づいて分類する分類処理部134B(第2の分類部)と、分類処理部134Bにより分類された物体を、穴部の位置に基づいて分類する分類処理部134C(第3の分類部)と、分類処理部134Bにより分類された物体を大きさに基づいて分類し、分類処理部134Cにより分類された物体を大きさに基づいて分類する直径分類部136と、を備える、分類部130を実現することができる。実施形態の物体検出システム1によれば、物体の模様および記号と、穴部の形状と、穴部の位置と、物体を大きさとに分けて多段階で分類処理を行うことができるので、分類精度を高くすることができる。
実施形態の物体検出システム1によれば、分類処理部134Aにより、模様および記号のうちの少なくとも一つおよび第1の分類結果を教師データとして機械学習され、物体領域Aに含まれる模様および記号のうちの少なくとも一つを入力した場合に第1の分類結果を出力する模様・マーク用モデル1341(第1のモデル)に基づく処理を行い、分類処理部134Bにより、穴部の形状および第2の分類結果を教師データとして機械学習され、分類処理部134Aにより分類された物体に対応した穴部の形状を入力した場合に第2の分類結果を出力する形状用モデル1342(第2のモデル)に基づく処理を行い、分類処理部134Cにより、穴部の位置および第3の分類結果を教師データとして機械学習され、分類処理部134Aにより分類された物体の穴部の位置を入力した場合に第3の分類結果を出力する位置用モデル1343(第3のモデル)に基づく処理を行い、直径分類部136により、物体の大きさに基づいて、分類処理部134Bにより分類された物体を分類し、分類処理部134Cにより分類された物体を分類する。これにより、実施形態の物体検出システム1によれば、物体の模様および記号と、穴部の形状と、穴部の位置とに分けて機械学習モデルを構築したので、各機械学習モデルの分類精度を高くすることができる。
なお、各実施形態および変形例について説明したが、一例であってこれらに限られず、例えば、各実施形態や各変形例のうちのいずれかや、各実施形態の一部や各変形例の一部を、他の1または複数の実施形態や他の1または複数の変形例と組み合わせて本発明の一態様を実現させてもよい。
なお、本実施形態における物体検出装置100の各処理を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムを、コンピュータシステムに読み込ませ、実行することにより、物体検出装置100に係る上述した種々の処理を行ってもよい。
なお、ここでいう「コンピュータシステム」とは、OSや周辺機器などのハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリなどの書き込み可能な不揮発性メモリ、CD-ROMなどの可搬媒体、コンピュータシステムに内蔵されるハードディスクなどの記憶装置のことをいう。
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネットなどのネットワークや電話回線などの通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic
Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置などに格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。
ここで、プログラムを伝送する「伝送媒体」は、インターネットなどのネットワーク(通信網)や電話回線などの通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
1 物体検出システム
10 車載装置
100 物体検出装置
110 検出部
120 位置推定部
130 分類部
132 変換部
134A、134B、134C 分類処理部
1341、模様・マーク用モデル
1342 形状用モデル
1343 位置用モデル
136 直径分類部
138 モデル構築部
140 情報提供部

Claims (7)

  1. 撮像画像から物体領域を検出する検出部と、
    前記物体領域に対応した物体の位置を推定する位置推定部と、を備え、
    前記位置推定部は、前記物体領域の画像内位置を基準とした形状を有する矩形から前記物体領域の画像内位置を基準とした形状を有する台形への変換関数に基づいて前記矩形の中心点を変換し、変換した前記中心点を物体の位置として推定
    前記変換関数は、前記物体領域の幅に対応した長さの辺を有する前記矩形を、前記物体領域の端部座標および前記撮像画像の収束点に基づいて前記台形に変換する関数である、
    物体検出装置。
  2. 前記位置推定部は、
    前記物体領域を台形補正し、
    台形補正された物体領域を円領域に変換し、
    台形補正された物体領域と、前記円領域との比較に基づいて、前記物体領域に対応した物体を選別する、
    請求項に記載の物体検出装置。
  3. 前記位置推定部は、前記物体領域の画像内位置に基づく撮像位置から物体までの距離に基づいて、前記物体領域に対応した物体を選別する、請求項1または2に記載の物体検出装置。
  4. 前記位置推定部は、前記検出部により検出された前記物体領域の幅と所定の物体領域幅との比較に基づいて、前記物体領域に対応した物体を選別する、請求項1からのうち何れか1項に記載の物体検出装置。
  5. 前記位置推定部は、前記撮像画像のうち左側画像に基づいて検出された第1の中心点と前記撮像画像のうち右側画像に基づいて検出された第2の中心点との距離が、第1の所定値以内かつ第2の所定値以上である場合に、前記第1の中心点を持つ物体領域に対応した物体と前記第2の中心点を持つ物体領域に対応した物体とが同じであると判定する、
    請求項1からのうち何れか1項に記載の物体検出装置。
  6. 撮像画像から物体領域を検出するステップと、
    前記物体領域に対応した物体の位置を推定するステップと、を含み、
    前記物体領域の画像内位置を基準とした形状を有する矩形から前記物体領域の画像内位置を基準とした形状を有する台形への変換関数に基づいて前記矩形の中心点を変換し、変換した前記中心点を物体の位置として推定
    前記変換関数は、前記物体領域の幅に対応した長さの辺を有する前記矩形を、前記物体領域の端部座標および前記撮像画像の収束点に基づいて前記台形に変換する関数である、
    物体検出方法。
  7. コンピュータに、
    撮像画像から物体領域を検出するステップと、
    前記物体領域に対応した物体の位置を推定するステップと、を実行させ、
    前記物体領域の画像内位置を基準とした形状を有する矩形から前記物体領域の画像内位置を基準とした形状を有する台形への変換関数に基づいて前記矩形の中心点を変換させ、変換した前記中心点を物体の位置として推定させ
    前記変換関数は、前記物体領域の幅に対応した長さの辺を有する前記矩形を、前記物体領域の端部座標および前記撮像画像の収束点に基づいて前記台形に変換する関数である、
    プログラム。
JP2020217296A 2020-12-25 2020-12-25 物体検出装置、物体検出方法、およびプログラム Active JP7138157B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020217296A JP7138157B2 (ja) 2020-12-25 2020-12-25 物体検出装置、物体検出方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020217296A JP7138157B2 (ja) 2020-12-25 2020-12-25 物体検出装置、物体検出方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2022102515A JP2022102515A (ja) 2022-07-07
JP7138157B2 true JP7138157B2 (ja) 2022-09-15

Family

ID=82273649

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020217296A Active JP7138157B2 (ja) 2020-12-25 2020-12-25 物体検出装置、物体検出方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP7138157B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003179930A (ja) 2001-12-10 2003-06-27 Nippon Hoso Kyokai <Nhk> 動オブジェクト抽出方法及び抽出装置
JP2009266003A (ja) 2008-04-25 2009-11-12 Hitachi Ltd 物体認識装置、および物体認識方法
JP2014153167A (ja) 2013-02-07 2014-08-25 Nidec Elesys Corp 物体認識装置、物体認識方法及び物体認識プログラム
JP2015210584A (ja) 2014-04-24 2015-11-24 トヨタ自動車株式会社 画像処理装置
WO2018146997A1 (ja) 2017-02-07 2018-08-16 日本電気株式会社 立体物検出装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003179930A (ja) 2001-12-10 2003-06-27 Nippon Hoso Kyokai <Nhk> 動オブジェクト抽出方法及び抽出装置
JP2009266003A (ja) 2008-04-25 2009-11-12 Hitachi Ltd 物体認識装置、および物体認識方法
JP2014153167A (ja) 2013-02-07 2014-08-25 Nidec Elesys Corp 物体認識装置、物体認識方法及び物体認識プログラム
JP2015210584A (ja) 2014-04-24 2015-11-24 トヨタ自動車株式会社 画像処理装置
WO2018146997A1 (ja) 2017-02-07 2018-08-16 日本電気株式会社 立体物検出装置

Also Published As

Publication number Publication date
JP2022102515A (ja) 2022-07-07

Similar Documents

Publication Publication Date Title
CN110348297B (zh) 一种用于识别立体停车库的检测方法、系统、终端和存储介质
CN108681692B (zh) 一种基于深度学习的遥感图像内新增建筑识别方法
CN105335955B (zh) 对象检测方法和对象检测装置
CN110892760B (zh) 基于深度学习定位终端设备
US8995714B2 (en) Information creation device for estimating object position and information creation method and program for estimating object position
JP2017059207A (ja) 画像認識方法
CN112084869A (zh) 一种基于紧致四边形表示的建筑物目标检测方法
CN109697441B (zh) 一种目标检测方法、装置及计算机设备
CN110443159A (zh) 数字识别方法、装置、电子设备及存储介质
CN113935428A (zh) 基于图像识别的三维点云聚类识别方法及系统
CN109543493A (zh) 一种车道线的检测方法、装置及电子设备
TWI497449B (zh) 非監督式調適方法與應用其之影像自動分類方法
CN112132892B (zh) 目标位置标注方法、装置及设备
CN111583119A (zh) 一种正射影像拼接方法、设备以及计算机可读介质
JP7138157B2 (ja) 物体検出装置、物体検出方法、およびプログラム
JP7138158B2 (ja) 物体分類装置、物体分類方法、およびプログラム
CN112733652B (zh) 图像目标识别方法、装置、计算机设备及可读存储介质
CN116486312B (zh) 一种视频图像的处理方法、装置、电子设备和存储介质
CN113505643A (zh) 违章目标物检测方法及相关装置
US8005261B2 (en) Model-based object classification and target recognition
CN110738229B (zh) 一种细粒度图像分类方法、装置及电子设备
CN115527050A (zh) 图像特征匹配方法、计算机设备和可读存储介质
CN115497075A (zh) 基于改进型卷积神经网络交通目标检测方法及相关装置
CN114611635A (zh) 一种对象的识别方法、装置、存储介质及电子装置
CN114782496A (zh) 一种对象的跟踪方法、装置、存储介质及电子装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220620

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220905

R150 Certificate of patent or registration of utility model

Ref document number: 7138157

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150