JP2019046007A - 座標検出装置及び学習済みモデル - Google Patents

座標検出装置及び学習済みモデル Download PDF

Info

Publication number
JP2019046007A
JP2019046007A JP2017166420A JP2017166420A JP2019046007A JP 2019046007 A JP2019046007 A JP 2019046007A JP 2017166420 A JP2017166420 A JP 2017166420A JP 2017166420 A JP2017166420 A JP 2017166420A JP 2019046007 A JP2019046007 A JP 2019046007A
Authority
JP
Japan
Prior art keywords
detection
information
center
area
corner
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017166420A
Other languages
English (en)
Other versions
JP6858101B2 (ja
Inventor
正義 林
Masayoshi Hayashi
正義 林
貴彦 深澤
Takahiko Fukazawa
貴彦 深澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PFU Ltd
Original Assignee
PFU Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PFU Ltd filed Critical PFU Ltd
Priority to JP2017166420A priority Critical patent/JP6858101B2/ja
Publication of JP2019046007A publication Critical patent/JP2019046007A/ja
Application granted granted Critical
Publication of JP6858101B2 publication Critical patent/JP6858101B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Character Input (AREA)
  • Image Analysis (AREA)

Abstract

【課題】ナンバープレート等の物体の形状を精度良く検出すること。【解決手段】座標検出装置20は、記憶部22と検出部23とを有する。記憶部22は、第一学習済みモデルとしての検出モデルと、第二学習済みモデルとしての分類モデルとを記憶する。検出モデルは、ナンバープレートのコーナー点が中心に位置するポジティブ画像を用いて機械学習により生成された学習済みモデルである。また、検出モデル及び分類モデルは、検出対象画像においてナンバープレートのコーナー点が中心に位置する領域の情報を出力する。検出部23は、ナンバープレートが撮影された検出対象画像に対して、検出モデル及び分類モデルを用いてナンバープレートのコーナー点が中心に位置する領域を検出し、検出対象画像におけるナンバープレートのコーナー点の座標を検出する。【選択図】図3

Description

本発明は、座標検出装置及び学習済みモデルに関する。
マシンビジョン技術の発展や、スマートデバイス等のカメラ搭載デバイスの普及に伴って、撮影された物体の形状を精度良く検出することが求められている。
撮影された物体の形状を検出する方法として、特徴点抽出を用いた検出方法がある。しかし、特徴点抽出を用いた検出方法では、検出の対象物毎に、抽出する特徴点の見直しや、抽出の際に使用する閾値の調節等が必要になるため、オペレータの作業負荷が大きくなる。
特開2007−085937号公報
そこで、近年、撮影された物体の形状を機械学習を用いて検出する技術についての検討が行われている。しかし、機械学習を用いた従来の検出方法では、検出精度が低かった。
開示の技術は、上記に鑑みてなされたものであって、撮影された物体の形状を精度良く検出することを目的とする。
開示の態様では、座標検出装置は、記憶部と、検出部とを有する。前記記憶部は、物体の規定点が中心に位置する画像を用いて機械学習により生成された、前記物体が撮影された入力画像において前記物体の規定点が中心に位置する領域の情報を出力する学習済みモデルを記憶する。前記検出部は、前記物体が撮影された前記入力画像に対して、前記学習済みモデルを用いて前記物体の規定点が中心に位置する領域を検出し、前記入力画像における前記物体の規定点の座標を検出する。
開示の態様によれば、物体の形状を精度良く検出することができる。
図1は、実施例1の物体形状検出システムの構成例を示す図である。 図2は、実施例1の学習モデル生成装置の構成例を示す図である。 図3は、実施例1の座標検出装置の構成例を示す図である。 図4は、実施例1の学習モデル生成装置の処理の説明に供するフローチャートである。 図5は、実施例1の学習モデル生成装置の動作の説明に供する図である。 図6は、実施例1の学習モデル生成装置の動作の説明に供する図である。 図7は、実施例1の座標検出装置の動作の説明に供する図である。 図8は、実施例1の分類モデルの動作の説明に供する図である。 図9は、実施例2の学習モデル生成装置の処理の説明に供するフローチャートである。 図10は、実施例2の学習モデル生成装置の動作の説明に供する図である。 図11は、実施例2の座標検出装置の動作の説明に供する図である。 図12は、実施例2の検出分類モデルの動作の説明に供する図である。 図13は、実施例2の検出分類モデルの動作の説明に供する図である。 図14は、実施例2の座標変換の一例を示す図である。 図15は、実施例3の文字認識装置の構成例を示す図である。 図16は、実施例3の補正部及び認識部の動作の説明に供する図である。 図17は、実施例3の透視投影変換の一例を示す図である。 図18は、実施例4の画像処理装置の構成例を示す図である。 図19は、実施例4の画像処理装置の動作の説明に供する図である。 図20は、実施例5の検出対象物体の一例を示す図である。 図21は、実施例5の検出対象物体の一例を示す図である。
以下に、本願の開示する座標検出装置及び学習済みモデルの実施例を図面に基づいて説明する。なお、この実施例により本願の開示する座標検出装置及び学習済みモデルが限定されるものではない。また、実施例において同一の機能を有する構成、及び、同一の処理を行うステップには同一の符号を付す。
[実施例1]
<物体形状検出システムの構成>
図1は、実施例1の物体形状検出システムの構成例を示す図である。図1において、物体形状検出システム1は、学習モデル生成装置10と、座標検出装置20とを有する。
学習モデル生成装置10には元画像が入力され、学習モデル生成装置10は、入力された元画像を用いて「学習済みモデル」を生成し、生成した学習済みモデルを座標検出装置20へ出力する。
座標検出装置20には形状検出の対象となる物体(以下では「検出対象物体」と呼ぶことがある)が撮影された画像(以下では「検出対象画像」と呼ぶことがある)が入力される。座標検出装置20は、学習モデル生成装置10で生成された学習済みモデルを用いて、検出対象画像に撮影されている検出対象物体の形状を検出し、検出結果を出力する。検出対象画像は、座標検出装置20への「入力画像」に相当する。
<学習モデル生成装置の構成>
図2は、実施例1の学習モデル生成装置の構成例を示す図である。図2において、学習モデル生成装置10は、データセット生成部11と、学習モデル生成部12と、記憶部13と、出力部14とを有する。
データセット生成部11には元画像が入力される。データセット生成部11は、元画像から、学習済みモデルの生成に使用される「データセット」を生成し、生成したデータセットを学習モデル生成部12へ出力する。
学習モデル生成部12は、データセット生成部11で生成されたデータセットを用いて学習済みモデルを生成し、生成した学習済みモデルを記憶部13へ出力する。つまり、データセット生成部11で生成されたデータセットが、学習済みモデルを生成する際の教師データとなる。
記憶部13は、学習モデル生成部12で生成された学習済みモデルを記憶する。
出力部14は、記憶部13に記憶されている学習済みモデルを取得し、取得した学習済みモデルを座標検出装置20へ出力する。学習モデル生成装置10から座標検出装置20への学習済みモデルの出力は、例えば、学習モデル生成装置10に対するオペレータの指示に従って行われる。
<座標検出装置の構成>
図3は、実施例1の座標検出装置の構成例を示す図である。図3において、座標検出装置20は、取得部21と、記憶部22と、検出部23とを有する。
取得部21は、学習モデル生成装置10から出力された学習済みモデルを取得し、取得した学習済みモデルを記憶部22へ出力する。
記憶部22は、取得部21で取得された学習済みモデルを記憶する。
検出部23には検出対象画像が入力され、検出部23は、記憶部22に記憶されている学習済みモデルを用いて、検出対象物体の形状を検出し、検出結果を出力する。
<学習モデル生成装置の処理>
図4は、実施例1の学習モデル生成装置の処理の説明に供するフローチャートである。
図4において、ステップS11では、データセット生成部11が、元画像から、教師データとしての学習用データセットAを生成する。
ステップS13では、学習モデル生成部12が、第一学習済みモデルとしての「検出モデル」の学習を行う。
また、ステップS15では、学習モデル生成部12が、第二学習済みモデルとしての「分類モデル」の学習を行う。
学習モデル生成部12は、ステップS13の処理とステップS15の処理とを、同時に並行して行っても良いし、また、一方の処理が済んだ後に他方の処理を行っても良い。
<学習モデル生成装置の動作>
図5及び図6は、実施例1の学習モデル生成装置の動作の説明に供する図である。図5には、検出モデルの学習の動作例を図示し、図6には、分類モデルの学習の動作例を図示する。以下、検出モデルの学習の動作例と、分類モデルの学習の動作例とに分けて説明する。また以下では、検出対象画像に撮影されている検出対象物体の一例として、自動車の矩形のナンバープレートを挙げて説明する。また以下では、検出対象物体上に存在する「規定点」の一例として、ナンバープレートの四隅に存在する「コーナー点」を挙げて説明する。コーナー点は、「頂点」と呼ばれることもある。
<検出モデルの学習の動作例:図5>
図5に示すように、データセット生成部11には、ナンバープレートNPを有する自動車の画像が元画像として複数入力され、データセット生成部11は、これら複数の元画像から、第一教師データとしてのデータセットA1と、第二教師データとしてのデータセットA2とを生成する。
データセットA1は、図5に示すように、検出対象画像においてナンバープレートNPの4個のコーナー点が不鮮明な複数の「ネガティブ画像」により形成される。
一方で、データセットA2は、図5に示すように、ナンバープレートNPの4個のコーナー点の何れか一つのコーナー点だけを含む複数の「ポジティブ画像」により形成される。
ここで、各ポジティブ画像PIにおいて、コーナー点CPは、ポジティブ画像の中心に位置する。すなわち、例えばポジティブ画像PIのアスペクト比が「x:y=1:1」の場合、コーナー点CPがx=1/2,y=1/2の位置に配置されるようにポジティブ画像PIが生成させる。換言すれば、ナンバープレートNPの四辺で形成される境界線のうちの互いに接する二辺の境界線がx=1/2でのy方向に平行な直線及びy=1/2でのx方向に平行な直線にほぼ重なるようにポジティブ画像PIが生成される。図5に示す例では、ナンバープレートNPの4個のコーナー点のうちの左下のコーナー点CPがポジティブ画像PIの中心に位置している。すなわち、図5に示す例では、ポジティブ画像PIにおいて、ナンバープレートNPの四辺のうち、左辺がx=1/2でのy方向に平行な直線にほぼ重なり、かつ、左辺と互いに接する下辺がy=1/2でのx方向に平行な直線にほぼ重なっている。
学習モデル生成部12は、データセット生成部11で生成されたデータセットA1,A2を教師データとして用いて機械学習を行って、第一学習済みモデルとしての検出モデルを生成する。検出モデルを生成する際の機械学習は、例えば、LBP(Local Binary Pattern)特徴を用いたBoostingにより行う。
<分類モデルの学習の動作例:図6>
図6に示すように、データセット生成部11には、ナンバープレートNPを有する自動車の画像が元画像として複数入力され、データセット生成部11は、これら複数の元画像から、第三教師データとしてのデータセットA3を生成する。なお、データセットA1、データセットA2及びデータセットA3により、図4のステップST11における学習用データセットAが形成される。
データセットA3は、図6に示すように、ナンバープレートNPの4個のコーナー点のうち、左上のコーナー点だけを含む複数の画像(以下では「左上コーナー点画像」と呼ぶことがある)と、右上のコーナー点だけを含む複数の画像(以下では「右上コーナー点画像」と呼ぶことがある)と、右下のコーナー点だけを含む複数の画像(以下では「右下コーナー点画像」と呼ぶことがある)と、左下のコーナー点だけを含む複数の画像(以下では「左下コーナー点画像」と呼ぶことがある)とにより形成される。左上コーナー点画像には左上のコーナー点に対応する「コーナー1」というラベルが付され、右上コーナー点画像には右上のコーナー点に対応する「コーナー2」というラベルが付され、右下コーナー点画像には右下のコーナー点に対応する「コーナー3」というラベルが付され、左下コーナー点画像には左下のコーナー点に対応する「コーナー4」というラベルが付される。なお、データセットA3を形成する各画像において、コーナー点は画像の中心に位置しなくても良い。
学習モデル生成部12は、データセット生成部11で生成されたデータセットA3を教師データとして用いて機械学習を行って、第二学習済みモデルとしての分類モデルを生成する。分類モデルを生成する際の機械学習として深層学習を用いる。分類モデルの生成は、例えば、4層のCNN(Convolutional Neural Network)により行う。
<座標検出装置の動作>
図7は、実施例1の座標検出装置の動作の説明に供する図である。
図5に示すようにして生成された検出モデル、及び、図6に示すようにして生成された分類モデルは、座標検出装置20の取得部21によって学習モデル生成装置10から取得されて記憶部22に記憶される。
図7に示すように、ナンバープレートが撮影された検出対象画像が座標検出装置20に入力されると、検出部23は、まず、検出対象画像に対して検出モデルを用いて、検出対象画像においてナンバープレートのコーナー点が中心に位置する領域の候補(以下では「コーナー点存在領域候補」と呼ぶことがある)を検出する。すなわち、学習モデル生成装置10により生成された検出モデルは、検出対象画像が入力されて、検出対象画像においてコーナー点存在領域候補を示す情報(以下では「候補情報」と呼ぶことがある)を検出部23へ出力する学習済みモデルである。また、検出モデルは、検出対象画像が入力される入力層と、出力層と、入力層から出力層までの何れかの層であって出力層以外の層に属する第一要素(第一ノード)と、第一要素と第一要素の重みとに基づいて値が算出される第二要素(第二ノード)とを有する。そして、検出モデルは、入力層に入力された検出対象画像に対し、出力層以外の各層に属する各要素を第一要素として、第一要素と第一要素の重みとに基づく演算を行うことにより候補情報を出力する。図7に示す例では、検出部23が検出対象画像に対して検出モデルを用いることにより、例えば、CA1〜CA7の7個のコーナー点存在領域候補が検出される。ここで、コーナー点存在領域候補の領域の大きさ及びアスペクト比は、図5におけるポジティブ画像PIと同一である。
検出部23は、次いで、候補情報に対して分類モデルを用いて、候補情報により示されたコーナー点存在領域候補がナンバープレートの4個のコーナー点のうちの何れのコーナー点を含む領域であるかを特定する。すなわち、学習モデル生成装置10により生成された分類モデルは、候補情報が入力されて、候補情報が示すコーナー点存在領域候補がナンバープレートの4個のコーナー点のうちの何れのコーナー点を含む領域であるかを示す情報(以下では「コーナー点第一特定情報」と呼ぶことがある)を検出部23へ出力する学習済みモデルである。また、分類モデルは、候補情報が入力される入力層と、出力層と、入力層から出力層までの何れかの層であって出力層以外の層に属する第一要素と、第一要素と第一要素の重みとに基づいて値が算出される第二要素とを有する。そして、分類モデルは、入力層に入力された候補情報に対し、出力層以外の各層に属する各要素を第一要素として、第一要素と第一要素の重みとに基づく演算を行うことによりコーナー点第一特定情報を出力する。
ここで、分類モデルの動作例について説明する。図8は、実施例1の分類モデルの動作の説明に供する図である。図8に示すように、分類モデルは、まず、コーナー点存在領域候補CA1〜CA7の各々について、コーナー1〜4の何れに対応するコーナー点を含む領域であるかの確度を算出する。図8に示す例では、分類モデルにより、コーナー点存在領域候補CA1は確度20%のコーナー4(つまり左下のコーナー)を含む領域であると分類される。同様に、コーナー点存在領域候補CA2は確度5%のコーナー1(つまり左上のコーナー)を含む領域、コーナー点存在領域候補CA3は確度15%のコーナー4(つまり左下のコーナー)を含む領域、コーナー点存在領域候補CA4は確度92%のコーナー1(つまり左上のコーナー)を含む領域、コーナー点存在領域候補CA5は確度86%のコーナー2(つまり右上のコーナー)を含む領域、コーナー点存在領域候補CA6は確度88%のコーナー4(つまり左下のコーナー)を含む領域、コーナー点存在領域候補CA7は確度91%のコーナー3(つまり右下のコーナー)を含む領域であると分類モデルによって分類される。
そして、分類モデルは、コーナー1〜4の各コーナー毎に、確度が最も高いコーナーを選択してコーナー点第一特定情報を出力する。すなわち、図7及び図8に示す例では、分類モデルは、左上のコーナー点を含む領域としてコーナー点存在領域候補CA4を選択し、選択したコーナー点存在領域候補CA4に対応付けて「コーナー1」というコーナー点第一特定情報を出力する。また、分類モデルは、右上のコーナー点を含む領域としてコーナー点存在領域候補CA5を選択し、選択したコーナー点存在領域候補CA5に対応付けて「コーナー2」というコーナー点第一特定情報を出力する。また、分類モデルは、右下のコーナー点を含む領域としてコーナー点存在領域候補CA7を選択し、選択したコーナー点存在領域候補CA7に対応付けて「コーナー3」というコーナー点第一特定情報を出力する。また、分類モデルは、左下のコーナー点を含む領域としてコーナー点存在領域候補CA6を選択し、選択したコーナー点存在領域候補CA6に対応付けて「コーナー4」というコーナー点第一特定情報を出力する。これにより、検出部23は、検出対象画像において、ナンバープレートの4個のコーナー点が存在する領域(以下では「コーナー点存在領域」と呼ぶことがある)を検出することができる。
次いで、検出部23は、図7に示すように、4個のコーナー点存在領域の各々の中心座標を抽出する。すなわち、検出部23は、「コーナー1」というコーナー点第一特定情報に対応付けられたコーナー点存在領域の中心座標をナンバープレートの左上のコーナー点の座標CO1として抽出する。また、検出部23は、「コーナー2」というコーナー点第一特定情報に対応付けられたコーナー点存在領域の中心座標をナンバープレートの右上のコーナー点の座標CO2として抽出する。また、検出部23は、「コーナー3」というコーナー点第一特定情報に対応付けられたコーナー点存在領域の中心座標をナンバープレートの右下のコーナー点の座標CO3として抽出する。また、検出部23は、「コーナー4」というコーナー点第一特定情報に対応付けられたコーナー点存在領域の中心座標をナンバープレートの左下のコーナー点の座標CO4として抽出する。このようにして、検出部23は、分類モデルを用いて検出した4個のコーナー点存在領域の各々の中心座標を、検出対象画像におけるナンバープレートの4個のコーナー点の各々の座標として検出し、検出結果として出力する。このようにして検出された4個のコーナー点の座標の外縁を直線で結ぶことにより、検出対象画像において撮影されているナンバープレートの矩形の形状を検出することができる。
以上のように、実施例1では、座標検出装置20は、記憶部22と検出部23とを有する。記憶部22は、第一学習済みモデルとしての検出モデルと、第二学習済みモデルとしての分類モデルとを記憶する。検出モデルは、ナンバープレートのコーナー点が中心に位置するポジティブ画像PIを用いて機械学習により生成された学習済みモデルである。また、検出モデル及び分類モデルは、検出対象画像においてナンバープレートのコーナー点が中心に位置する領域の情報(候補情報、コーナー点第一特定情報)を出力する。検出部23は、ナンバープレートが撮影された検出対象画像に対して、検出モデル及び分類モデルを用いてナンバープレートのコーナー点が中心に位置する領域を検出し、検出対象画像におけるナンバープレートのコーナー点の座標を検出する。つまり、検出モデル及び分類モデルは、検出対象画像においてナンバープレートのコーナー点が中心に位置する領域の情報(候補情報、コーナー点第一特定情報)を検出部23へ出力することにより、検出対象画像におけるナンバープレートのコーナー点の座標を検出する検出部23に、ナンバープレートのコーナー点が中心に位置する領域を検出させる。
より詳細には、検出モデルは、検出対象画像が入力されて、検出対象画像においてナンバープレートのコーナー点が中心に位置する領域の候補を示す情報(候補情報)を出力する。分類モデルは、候補情報が入力されて、候補情報が示すコーナー点存在領域候補がナンバープレートの4個のコーナー点のうちの何れのコーナー点を含む領域であるかを示す情報(コーナー点第一特定情報)を出力する。検出部23は、検出対象画像に対して検出モデルを用いてコーナー点存在領域候補を検出し、検出したコーナー点存在領域候補に対して分類モデルを用いてナンバープレートのコーナー点を含む領域を検出し、分類モデルを用いて検出した領域の中心座標を検出対象画像におけるナンバープレートのコーナー点の座標として検出する。
このように、ナンバープレートのコーナー点が中心に位置するポジティブ画像PIを用いて機械学習により生成された学習済みモデルを用いて検出対象画像におけるナンバープレートのコーナー点の座標を検出することにより、検出対象画像において撮影されているナンバープレートの矩形の形状を精度良く検出することができる。
[実施例2]
<物体形状検出システムの構成、学習モデル生成装置の構成、座標検出装置の構成>
実施例2の物体形状検出システム、学習モデル生成装置及び座標検出装置の各構成は、実施例1と同一であるため(図1〜3)、説明を省略する。
<学習モデル生成装置の処理>
図9は、実施例2の学習モデル生成装置の処理の説明に供するフローチャートである。
図9において、ステップS21では、データセット生成部11が、元画像から、教師データとしての学習用データセットBを生成する。
ステップS23では、学習モデル生成部12が、学習済みモデルとしての「検出分類モデル」の学習を行う。
<学習モデル生成装置の動作>
図10〜12は、実施例2の学習モデル生成装置の動作の説明に供する図である。
図10に示すように、データセット生成部11には、ナンバープレートNPを有する自動車の画像が元画像として複数入力され、データセット生成部11は、これら複数の元画像から、第一教師データとしてのデータセットB1と、第二教師データとしてのデータセットB2とを生成する。データセットB1及びデータセットB2により、図9のステップST21における学習用データセットBが形成される。
データセットB1は、図10に示すように、左上コーナー点画像と、右上コーナー点画像と、右下コーナー点画像と、左下コーナー点画像とにより形成される。つまり、データセットB1は、ナンバープレートNPの4個のコーナー点の何れか一つのコーナー点だけを含む複数の「ポジティブ画像」により形成される。左上コーナー点画像には左上のコーナー点に対応する「コーナー1」というラベルが付され、右上コーナー点画像には右上のコーナー点に対応する「コーナー2」というラベルが付され、右下コーナー点画像には右下のコーナー点に対応する「コーナー3」というラベルが付され、左下コーナー点画像には左下のコーナー点に対応する「コーナー4」というラベルが付される。
ここで、コーナー1〜4の各ラベルを付された各ポジティブ画像PIにおいて、コーナー点CPは、ポジティブ画像の中心に位置する。すなわち、例えばポジティブ画像PIのアスペクト比が「x:y=1:1」の場合、コーナー点CPがx=1/2,y=1/2の位置に配置されるようにポジティブ画像PIが生成させる。換言すれば、ナンバープレートNPの四辺で形成される境界線のうちの互いに接する二辺の境界線がx=1/2でのy方向に平行な直線及びy=1/2でのx方向に平行な直線にほぼ重なるようにポジティブ画像PIが生成される。図10に示す例では、ナンバープレートNPの4個のコーナー点のうちの左下のコーナー点CPがポジティブ画像PIの中心に位置している。すなわち、図10に示す例では、ポジティブ画像PIにおいて、ナンバープレートNPの四辺のうち、左辺がx=1/2でのy方向に平行な直線にほぼ重なり、かつ、左辺と互いに接する下辺がy=1/2でのx方向に平行な直線にほぼ重なっている。
また、データセットB2では、各元画像に対して、各元画像において撮影されているナンバープレートNPのコーナー1〜4の4個のコーナー点の座標コーナー1(x,y)、コーナー2(x,y)、コーナー3(x,y)、コーナー4(x,y)が対応付けられる。
学習モデル生成部12は、データセット生成部11で生成されたデータセットB1,B2を教師データとして用いて機械学習を行って、検出分類モデルを生成する。検出分類モデルを生成する際の機械学習として深層学習を用いる。検出分類モデルの生成は、例えば、YOLOv2をベースとした11層のFCN(Fully Convolutional Networks)により行う。
検出分類モデルの機械学習は、以下に示すように、第一段階と第二段階との二段階に分けて行われる。
すなわち、まず第一段階で、学習モデル生成部12は、データセット生成部11で生成されたデータセットB1を第一教師データとして用いて機械学習を行って、重みの初期値の学習を行う。この初期値の学習は、実施例1の分類モデルの学習に相当するものである。
次いで第二段階で、学習モデル生成部12は、第一段階で学習した初期値をフィルタ群F1〜F8の各要素の重みとしてセットした後、データセット生成部11で生成されたデータセットB2を第二教師データとして用いて機械学習を行って、検出分類モデルを生成する。
<座標検出装置の動作>
図11は、実施例2の座標検出装置の動作の説明に供する図である。
図10〜12に示すようにして生成された検出分類モデルは、座標検出装置20の取得部21によって学習モデル生成装置10から取得されて記憶部22に記憶される。
図11に示すように、ナンバープレートが撮影された検出対象画像が座標検出装置20に入力されると、検出部23は、まず、検出対象画像に対して検出分類モデルを用いて、ナンバープレートにおける4個のコーナー点存在領域CB1,CB2,CB3,CB4を検出するとともに、検出した各コーナー点存在領域の中心座標であるコーナー1S(x,y)、コーナー2S(x,y)、コーナー3S(x,y)、コーナー4S(x,y)を検出する。ここで、コーナー1S(x,y)はナンバープレートの左上のコーナー点に対応する座標であり、コーナー2S(x,y)はナンバープレートの右上のコーナー点に対応する座標であり、コーナー3S(x,y)はナンバープレートの右下のコーナー点に対応する座標であり、コーナー4S(x,y)はナンバープレートの左下のコーナー点に対応する座標である。但し、コーナー1S(x,y)、コーナー2S(x,y)、コーナー3S(x,y)、コーナー4S(x,y)の各座標は、相対座標のローカル座標である。
そこで、検出部23は、次いで、ローカル座標であるコーナー1S(x,y)、コーナー2S(x,y)、コーナー3S(x,y)、コーナー4S(x,y)を、検出対象画像における絶対座標(以下では「画像座標」と呼ぶことがある)に変換する。そして、検出部23は、コーナー1S(x,y)を座標変換した後の画像座標をナンバープレートの左上のコーナー点の座標CO1として検出する。また、検出部23は、コーナー2S(x,y)を座標変換した後の画像座標をナンバープレートの右上のコーナー点の座標CO2として検出する。また、検出部23は、コーナー3S(x,y)を座標変換した後の画像座標をナンバープレートの右下のコーナー点の座標CO3として検出する。また、検出部23は、コーナー4S(x,y)を座標変換した後の画像座標をナンバープレートの左下のコーナー点の座標CO4として検出する。このようにして、検出部23は、検出分類モデルを用いて検出した4個のコーナー点存在領域の各々の中心座標コーナー1S(x,y)、コーナー2S(x,y)、コーナー3S(x,y)、コーナー4S(x,y)を座標変換した上で検出対象画像におけるナンバープレートの4個のコーナー点の座標として検出する。このようにして検出された4個のコーナー点の画像座標の外縁を直線で結ぶことにより、検出対象画像において撮影されているナンバープレートの矩形の形状を検出することができる。
ここで、学習モデル生成装置10により生成された検出分類モデルは、検出対象画像が入力されて、検出対象画像においてコーナー点存在領域を特定し、特定したコーナー点存在領域がナンバープレートの4個のコーナー点のうちの何れのコーナー点を含む領域であるかを示す情報(以下では「コーナー点第二特定情報」と呼ぶことがある)と、コーナー点第二特定情報によって示されるコーナー点存在領域の中心座標を示す情報(以下では「中心座標情報」と呼ぶことがある)とを検出部23へ出力する学習済みモデルである。そして、検出部23は、コーナー点第二特定情報と中心座標情報とに基づいて、ナンバープレートにおける4個のコーナー点存在領域を検出するとともに、検出した各コーナー点存在領域の中心座標であるコーナー1S(x,y)、コーナー2S(x,y)、コーナー3S(x,y)、コーナー4S(x,y)を検出する。また、検出分類モデルは、検出対象画像が入力される入力層と、出力層と、入力層から出力層までの何れかの層であって出力層以外の層に属する第一要素と、第一要素と第一要素の重みとに基づいて値が算出される第二要素とを有する。そして、検出分類モデルは、入力層に入力された検出対象画像に対し、出力層以外の各層に属する各要素を第一要素として、第一要素と第一要素の重みとに基づく演算を行うことにより中心座標情報を出力する。
<検出分類モデルの動作>
図12及び図13は、実施例2の検出分類モデルの動作の説明に供する図である。
図12に示すように、検出分類モデルは、検出分類モデルに入力された検出対象画像を「M×N個」の複数のグリッドに分割し、各グリッドを順次「注目グリッドGR」に設定しながら、以下のように動作する。すなわち、検出分類モデルは、図12に示すように、矩形領域a,b,cの各領域の中心座標(以下では「矩形領域中心座標」と呼ぶことがある)が注目グリッドGR内に含まれるという条件の下で、矩形領域a,b,cの中にナンバープレートのコーナー点が発見されるように、矩形領域a,b,cを検出する。一つの注目グリッドGRに対して検出される矩形領域の数は「アンカー数」として予め設定されている。ここでは、一例として、「アンカー数=3」として、一つの注目グリッドGRに対して矩形領域a,b,cの3個の矩形領域が検出される場合について説明する。検出された矩形領域(以下では「検出矩形領域」と呼ぶことがある)は、以下の式(1)のように表される。
検出矩形領域=
(x座標,y座標,幅w,高さh,確度,
クラス確率(コーナー1,コーナー2,コーナー3,コーナー4))…式(1)
式(1)において、コーナー1〜4はそれぞれ、上記のように、ナンバープレートの左上のコーナー点、右上のコーナー点、右下のコーナー点、左下のコーナー点に対応する。また、式(1)において、「幅w」及び「高さh」は、予め決められた値である。また、式(1)における「x座標」及び「y座標」は、図13に示すように、注目グリッドGRの原点を基準にした相対座標(つまり、ローカル座標)である。また、式(1)における「確度」は、検出矩形領域内に何れかのコーナー点が含まれる確度を表す。また、式(1)における「クラス確率」は、4個のコーナー点それぞれの、検出矩形領域内における存在確率を表す。
例えば、図12に示す注目グリッドGRに対する検出矩形領域a,b,cは、以下の式(2)〜(4)のように表される。
検出矩形領域a
=(0.12,0.87,0.49,0.64,0.589,(0,0,0.9999,0))…式(2)
検出矩形領域b
=(0.16,0.77,1.77,2.11,0.010,(0,0.0001,0.9998,0.0001))…式(3)
検出矩形領域c
=(0.33,0.73,5.45,6.56,0.016,(0.54,0.23,0.05,0.19))…式(4)
よって、例えば「確度」の閾値を「0.5」とすると、確度が0.5以上であるのは検出矩形領域aであり、検出矩形領域b,cについては確度が0.5未満であるため、図12に示す注目グリッドGRに対しては、検出矩形領域b,cは除外され、検出矩形領域aが、右下のコーナー点に対するコーナー点存在領域候補として選択される。
検出分類モデルは、すべてのグリッドを注目グリッドGRに順次設定しながら以上の動作を行う。そして、検出分類モデルは、各コーナー点について、確度が最も高い検出矩形領域を最終的なコーナー点存在領域に決定する。そして、検出分類モデルは、各コーナー点について、確度が最も高い検出矩形領域を示す情報をコーナー点第二特定情報として出力し、矩形領域中心座標を示す情報を中心座標情報として出力する。
<ローカル座標から画像座標への変換>
検出部23は、例えば、以下の式(5)に従って検出矩形領域のローカル座標であるコーナー1S(x,y)、コーナー2S(x,y)、コーナー3S(x,y)、コーナー4S(x,y)を、画像座標であるコーナー1S(x',y')、コーナー2S(x',y')、コーナー3S(x',y')、コーナー4S(x',y')に変換する。よって、画像座標であるコーナー1S(x',y')、コーナー2S(x',y')、コーナー3S(x',y')、コーナー4S(x',y')がそれぞれ、検出部23から出力される座標CO1,CO2,CO3,CO4(図11)に相当する。式(5)において、「W」は検出対象画像の幅を表し、「H」は検出対象画像の高さを表す。また、式(5)において、「u」は注目グリッドGRのx方向の位置を表し、「v」は注目グリッドGRのy方向の位置を表す。
x'=W(u+x)/M
y'=H(v+y)/N …式(5)
例えば、検出対象画像のサイズが(W,H)=(1322,902)であり、グリッドの総数が(M×N)=(13×13)個であった場合、座標変換前後の座標値は図14に示すようになる。図14は、実施例2の座標変換の一例を示す図である。
以上のように、実施例2では、記憶部22は、学習済みモデルとしての検出分類モデルを記憶する。検出分類モデルは、ナンバープレートのコーナー点が中心に位置するポジティブ画像PIを用いて機械学習により生成された学習済みモデルである。また、検出分類モデルは、検出対象画像においてナンバープレートのコーナー点が中心に位置する領域の情報(コーナー点第二特定情報、中心座標情報)を出力する。検出部23は、ナンバープレートが撮影された検出対象画像に対して、検出分類モデルを用いてナンバープレートのコーナー点が中心に位置する領域を検出し、検出対象画像におけるナンバープレートのコーナー点の座標を検出する。つまり、検出分類モデルは、検出対象画像においてナンバープレートのコーナー点が中心に位置する領域の情報(コーナー点第二特定情報、中心座標情報)を出力することにより、検出対象画像におけるナンバープレートのコーナー点の座標を検出する検出部23に、ナンバープレートのコーナー点が中心に位置する領域を検出させる。
より詳細には、検出分類モデルは、検出対象画像が入力されて、検出対象画像においてナンバープレートのコーナー点が中心に位置する領域を特定し、特定した領域がナンバープレートの複数の4個のコーナー点のうちの何れのコーナー点を含む領域であるかを示す情報である情報(コーナー点第二特定情報)と、コーナー点第二特定情報によって示される領域の中心座標を示す情報(中心座標情報)とを出力する。検出部23は、検出対象画像に対して検出分類モデルを用いて、コーナー点存在領域を検出するとともに、コーナー点存在領域の中心座標を検出し、検出した中心座標を座標変換した上で検出対象画像におけるナンバープレートのコーナー点の座標として検出する。
このように、ナンバープレートのコーナー点が中心に位置するポジティブ画像PIを用いて機械学習により生成された学習済みモデルを用いて検出対象画像におけるナンバープレートのコーナー点の座標を検出することにより、検出対象画像において撮影されているナンバープレートの矩形の形状を精度良く検出することができる。
また、実施例2の検出分類モデルの機能は、実施例1の検出モデルと分類モデルの両者の機能を一体化したものに相当するため、コーナー点の座標を検出する際の演算規模は、実施例2の方が実施例1よりも小さくなる。
[実施例3]
<文字認識装置の構成>
図15は、実施例3の文字認識装置の構成例を示す図である。図15において、文字認識装置30は、座標検出装置20と、補正部31と、認識部32とを有する。
文字認識装置30に入力された検出対象画像は、座標検出装置20及び補正部31に入力される。例えば、検出対象画像には、実施例1,2と同様に、自動車の矩形のナンバープレートが撮影されている。
座標検出装置20は、実施例1または実施例2で説明したようにして、検出対象画像において、ナンバープレートの4個のコーナー点の座標CO1,CO2,CO3,CO4を検出し、検出結果として補正部31へ出力する。
補正部31は、コーナー点の座標CO1,CO2,CO3,CO4に基づいて、検出対象画像に撮影されているナンバープレートの矩形の歪みをナンバープレートの文字も一体として補正し、歪みが補正された後の矩形を有するナンバープレートの画像を認識部32へ出力する。すなわち、補正部31は、4個のコーナー点の座標CO1,CO2,CO3,CO4の外縁を直線で結ぶことにより形成される矩形の歪みを補正する。
認識部32は、歪みが補正された後の矩形の中に存在する文字を認識し、認識結果を出力する。文字の認識は、例えばOCR(Optical Character Recognition)により行われる。
<補正部及び認識部の動作>
図16は、実施例3の補正部及び認識部の動作の説明に供する図である。
図16に示すように、検出対象画像と、ナンバープレートの4個のコーナー点の座標CO1,CO2,CO3,CO4とを入力された補正部31は、座標CO1,CO2,CO3,CO4に基づいて、周知の技術である「透視投影変換」を利用して、検出対象画像に撮影されているナンバープレートの矩形の歪みを補正する。すなわち、補正部31は、座標CO1,CO2,CO3,CO4にそれぞれ対応する複数のコーナー点で囲まれる領域の形状の歪みを、透視投影変換を用いて補正する。この補正により、検出対象画像に撮影されているナンバープレートの形状が例えば台形であった場合でも、ナンバープレートの形状は長方形に補正される。また、ナンバープレートの矩形の歪みの補正に伴って、同時に、ナンバープレート内の文字の歪みも補正される。
図17は、実施例3の透視投影変換の一例を示す図である。図17は、ナンバープレートの矩形の実寸を330×165[mm]とした場合の座標変換例である。透視投影変換により、座標CO1(x',y'),CO2(x',y'),CO3(x',y'),CO4(x',y')が、座標CO1(x'',y''),CO2(x'',y''),CO3(x'',y''),CO4(x'',y'')に補正される。
以上のように、実施例3では、文字認識装置30は、座標検出装置20と、補正部31と、認識部32とを有する。座標検出装置20は、検出対象画像におけるナンバープレートの4個のコーナー点の座標CO1,CO2,CO3,CO4を検出する。補正部31は、座標CO1,CO2,CO3,CO4にそれぞれ対応する複数のコーナー点で囲まれる領域の形状の歪みを補正する。認識部32は、形状の歪みが補正された後の領域の中に存在する文字を認識する。
こうすることで、ナンバープレート内の文字の認識精度を高めることができる。また、実施例3では、検出対象画像におけるナンバープレートの形状の検出を機械学習を用いて行う一方で、機械学習による形状の検出と分離して、形状の補正及び文字認識を行っている。このため、ナンバープレート内の歪んだ文字をそのまま機械学習を用いて認識する場合よりも、用意する教師データの数が少なくて済むとともに、機械学習の学習時間を短縮することができ、また、演算量を減少させることができるので、より低スペックなプロセッサを用いて機械学習を行うことができる。
[実施例4]
<画像処理装置の構成>
図18は、実施例4の画像処理装置の構成例を示す図である。図18において、画像処理装置40は、座標検出装置20と、補正部41と、記憶部42と、重畳部43と、逆変換部44とを有する。
画像処理装置40に入力された検出対象画像は、座標検出装置20及び補正部41に入力される。
座標検出装置20は、実施例1または実施例2で説明したようにして、検出対象画像において、検出対象物体のコーナー点の座標を検出し、検出結果として補正部41へ出力する。
補正部41は、座標検出装置20で検出されたコーナー点の座標に基づいて、周知の技術である「透視投影変換」を利用して、検出対象画像に撮影されている検出対象物体の形状の歪みを補正し、歪みが補正された後の形状を有する検出対象物体の画像(以下では「形状補正後画像」と呼ぶことがある)を重畳部43へ出力する。すなわち、補正部41は、複数のコーナー点の座標の外縁を直線で結ぶことにより形成される形状の歪みを補正する。
記憶部42には、検出対象物体の画像と重畳されるコンテンツ(以下では「重畳コンテンツ」と呼ぶことがある)が予め記憶されている。記憶部42に記憶されている重畳コンテンツは歪みの無いコンテンツである。
重畳部43は、記憶部42から重畳コンテンツを取得し、取得した重畳コンテンツを形状補正後画像に重畳し、重畳コンテンツが形状補正後画像に重畳された後の画像(以下では「重畳後画像」と呼ぶことがある)を逆変換部44へ出力する。
逆変換部44は、補正部41で行われた透視投影変換と逆の変換を重畳後画像に対して行って重畳後画像の形状を歪ませ、形状を歪ませた後の重畳後画像を重畳結果として出力する。
<画像処理装置の動作>
図19は、実施例4の画像処理装置の動作の説明に供する図である。
図19に示すように、座標検出装置20は、検出対象画像において、検出対象物体のコーナー点の座標を検出する。図19では、一例として、検出対象物体の形状が「星形」であるとする。
補正部41は、座標検出装置20で検出されたコーナー点の座標に基づいて透視投影変換を行って星形の画像の歪みを補正する。すなわち、補正部41は、座標検出装置20で検出された複数の座標にそれぞれ対応する複数のコーナー点で囲まれる領域の形状の歪みを、透視投影変換を用いて補正する。この補正により、星形の画像内に設定されたマーカーの歪みも補正される。
重畳部43は、記憶部42から取得した重畳コンテンツを、星形の画像内に設定されたマーカーを基準にして、歪み補正後の星形の画像に重畳する。
逆変換部44は、補正部41で行われた透視投影変換と逆の変換を重畳後画像に対して行って重畳後画像の形状を歪ませる。
以上のように、実施例4では、画像処理装置40は、座標検出装置20と、補正部41と、重畳部43とを有する。座標検出装置20は、検出対象画像における検出対象物体の複数のコーナー点の座標を検出する。補正部41は、座標検出装置20で検出された複数の座標にそれぞれ対応する複数のコーナー点で囲まれる領域の形状の歪みを補正する。重畳部43は、歪みが補正された後の形状に所定のコンテンツを重畳する。
こうすることで、歪みを補正した後の検出対象物体の画像にコンテンツを重畳することができるため、例えば、AR(Augmented Reality)における正確な表現が可能となる。
[実施例5]
物体形状検出システム1が対象とする検出対象物体は、ナンバープレートに限定されない。例えば、検出対象物体は、道路標記等であっても良い。図20及び図21は、実施例5の検出対象物体の一例を示す図である。図20に示す道路標識には、3個のコーナー点が存在する。また、図21に示す道路標識には、8個のコーナー点が存在する。
また、コーナー点は、検出対象物体上に存在する「規定点」の一例であり、物体形状検出システム1が対象とする規定点は、コーナー点に限定されない。例えば、円形の道路標識の円周上に任意の規定点が設定されても良い。すなわち、物体形状検出システム1が対象とする規定点は、検出対象画像における検出対象物体の外縁上に存在する何れかの点であれば良い。
さらに、規定点として、検出対象画像におけるナンバープレートのネジ、ナンバープレートの封印の中心、ナンバープレート内の“・”や“−”の文字等を採用しても良い。
[他の実施例]
[1]記憶部13,22,42は、ハードウェアとして、例えば、メモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)等により実現される。記憶部13,22,42を実現するメモリの一例として、SDRAM(Synchronous Dynamic Random Access Memory)等のRAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ等が挙げられる。データセット生成部11、学習モデル生成部12、検出部23、補正部31,41、認識部32、重畳部43及び逆変換部44は、ハードウェアとして、例えばプロセッサにより実現することができる。データセット生成部11、学習モデル生成部12、検出部23、補正部31,41、認識部32、重畳部43及び逆変換部44を実現するプロセッサの一例として、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)等が挙げられる。また、データセット生成部11、学習モデル生成部12、検出部23、補正部31,41、認識部32、重畳部43及び逆変換部44は、プロセッサと周辺回路とを含むLSI(Large Scale Integrated circuit)によって実現されても良い。出力部14及び取得部21は、ハードウェアとして、例えば、無線通信モジュールまたはネットワークインタフェースモジュールにより実現される。よって例えば、学習モデル生成装置10は、パーソナルコンピュータやサーバ等のコンピュータ装置として実現される。また例えば、座標検出装置20、文字認識装置30または画像処理装置40は、スマートフォンやタブレット端末等のスマートデバイスとして実現される。
[2]物体形状検出システム1での上記説明における各処理の全部または一部は、各処理に対応するプログラムを物体形状検出システム1が有するプロセッサに実行させることによって実現してもよい。例えば、上記説明における各処理に対応するプログラムがメモリに記憶され、プログラムがプロセッサによってメモリから読み出されて実行されても良い。また、プログラムは、任意のネットワークを介して物体形状検出システム1に接続されたプログラムサーバに記憶され、そのプログラムサーバから物体形状検出システム1にダウンロードされて実行されたり、物体形状検出システム1が読み取り可能な記録媒体に記憶され、その記録媒体から読み出されて実行されても良い。物体形状検出システム1が読み取り可能な記録媒体には、例えば、メモリーカード、USBメモリ、SDカード、フレキシブルディスク、光磁気ディスク、CD−ROM、DVD、及び、Blu−ray(登録商標)ディスク等の可搬の記憶媒体が含まれる。また、プログラムは、任意の言語や任意の記述方法にて記述されたデータ処理方法であり、ソースコードやバイナリコード等の形式を問わない。また、プログラムは必ずしも単一的に構成されるものに限られず、複数のモジュールや複数のライブラリとして分散構成されるものや、OSに代表される別個のプログラムと協働してその機能を達成するものも含む。
[3]物体形状検出システム1の分散・統合の具体的形態は図示するものに限られず、物体形状検出システム1の全部または一部を、各種の付加等に応じて、または、機能負荷に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
[4]実施例3,4における補正部31,41は、透視投影変換以外の技術を用いて形状の歪みを補正しても良い。
1 物体形状検出システム
10 学習モデル生成装置
20 座標検出装置
11 データセット生成部
12 学習モデル生成部
23 検出部
31,41 補正部
32 認識部
43 重畳部

Claims (8)

  1. 物体の規定点が中心に位置する画像を用いて機械学習により生成された、前記物体が撮影された入力画像において前記物体の規定点が中心に位置する領域の情報を出力する学習済みモデルを記憶する記憶部と、
    前記物体が撮影された前記入力画像に対して、前記学習済みモデルを用いて前記物体の規定点が中心に位置する領域を検出し、前記入力画像における前記物体の規定点の座標を検出する検出部と、
    を具備する座標検出装置。
  2. 前記記憶部は、前記入力画像が入力されて、前記入力画像において前記物体の規定点が中心に位置する領域の候補を示す情報である第一情報を出力する第一学習済みモデルと、前記第一情報が入力されて、前記第一情報が示す前記候補が前記物体の複数の規定点のうちの何れの規定点を含む領域であるかを示す情報である第二情報を出力する第二学習済みモデルとを、前記学習済みモデルとして記憶し、
    前記検出部は、前記入力画像に対して前記第一学習済みモデルを用いて前記候補を検出し、検出した前記候補に対して前記第二学習済みモデルを用いて前記物体の規定点を含む領域を検出し、前記第二学習済みモデルを用いて検出した前記領域の中心座標を前記入力画像における前記物体の規定点の座標として検出する、
    請求項1に記載の座標検出装置。
  3. 前記記憶部は、前記入力画像が入力されて、前記入力画像において前記物体の規定点が中心に位置する領域を特定し、特定した前記領域が前記物体の複数の規定点のうちの何れの規定点を含む領域であるかを示す情報である第一情報と、前記第一情報によって示される前記領域の中心座標を示す情報である第二情報とを出力する前記学習済みモデルを記憶し、
    前記検出部は、前記入力画像に対して前記学習済みモデルを用いて、前記物体の規定点を含む領域を検出するとともに、検出した前記領域の中心座標を検出し、検出した前記中心座標を座標変換した上で前記入力画像における前記物体の規定点の座標として検出する、
    請求項1に記載の座標検出装置。
  4. 請求項1に記載の座標検出装置と、
    前記座標検出装置により検出された複数の前記座標にそれぞれ対応する複数の規定点で囲まれる領域の形状の歪みを補正する補正部と、
    前記形状の前記歪みが補正された後の領域の中に存在する文字を認識する認識部と、
    を具備する文字認識装置。
  5. 請求項1に記載の座標検出装置と、
    前記座標検出装置により検出された複数の前記座標にそれぞれ対応する複数の規定点で囲まれる領域の形状の歪みを補正する補正部と、
    前記歪みが補正された後の前記形状に所定のコンテンツを重畳する重畳部と、
    を具備する画像処理装置。
  6. 物体の規定点が中心に位置する画像を用いて機械学習により生成され、
    前記物体が撮影された入力画像において前記物体の規定点が中心に位置する領域の情報を出力することにより、前記入力画像における前記物体の規定点の座標を検出する検出部に、前記入力画像に対して前記物体の規定点が中心に位置する領域を検出させる、
    学習済みモデル。
  7. 前記入力画像が入力されて、前記入力画像において前記物体の規定点が中心に位置する領域の候補を示す情報である第一情報を出力する第一学習済みモデルと、前記第一情報が入力されて、前記第一情報が示す前記候補が前記物体の複数の規定点のうちの何れの規定点を含む領域であるかを示す情報である第二情報を出力する第二学習済みモデルとから形成される、
    請求項6に記載の学習済みモデル。
  8. 前記入力画像が入力されて、前記入力画像において前記物体の規定点が中心に位置する領域を特定し、特定した前記領域が前記物体の複数の規定点のうちの何れの規定点を含む領域であるかを示す情報である第一情報と、前記第一情報によって示される前記領域の中心座標を示す情報である第二情報とを出力する、
    請求項6に記載の学習済みモデル。
JP2017166420A 2017-08-31 2017-08-31 座標検出装置及び学習済みモデル Active JP6858101B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017166420A JP6858101B2 (ja) 2017-08-31 2017-08-31 座標検出装置及び学習済みモデル

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017166420A JP6858101B2 (ja) 2017-08-31 2017-08-31 座標検出装置及び学習済みモデル

Publications (2)

Publication Number Publication Date
JP2019046007A true JP2019046007A (ja) 2019-03-22
JP6858101B2 JP6858101B2 (ja) 2021-04-14

Family

ID=65814453

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017166420A Active JP6858101B2 (ja) 2017-08-31 2017-08-31 座標検出装置及び学習済みモデル

Country Status (1)

Country Link
JP (1) JP6858101B2 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019189746A1 (ja) 2018-03-30 2019-10-03 三菱ケミカル株式会社 放熱シート、放熱部材及び半導体デバイス
CN110517221A (zh) * 2019-07-05 2019-11-29 银河水滴科技(北京)有限公司 基于现实坐标的缝隙定位方法、装置和存储介质
CN111178236A (zh) * 2019-12-27 2020-05-19 清华大学苏州汽车研究院(吴江) 一种基于深度学习的车位检测方法
CN111444916A (zh) * 2020-03-26 2020-07-24 中科海微(北京)科技有限公司 面向无约束条件下的车牌定位及识别方法、系统
JP2021005164A (ja) * 2019-06-25 2021-01-14 株式会社エクサウィザーズ 文字認識装置、撮影装置、文字認識方法、および、文字認識プログラム
JP2021064139A (ja) * 2019-10-11 2021-04-22 日立造船株式会社 情報処理装置、情報処理方法、および情報処理プログラム
WO2021117363A1 (ja) * 2019-12-09 2021-06-17 コニカミノルタ株式会社 オブジェクト検出方法及びオブジェクト検出装置
JP2022102516A (ja) * 2020-12-25 2022-07-07 エヌ・ティ・ティ・コムウェア株式会社 物体分類装置、物体分類方法、およびプログラム
JP2022159995A (ja) * 2021-04-05 2022-10-18 日本システム開発株式会社 画像生成装置
CN116245950A (zh) * 2023-05-11 2023-06-09 合肥高维数据技术有限公司 用于全屏或单角缺失的屏幕角点定位方法
WO2023162223A1 (ja) * 2022-02-28 2023-08-31 富士通株式会社 学習プログラム、生成プログラム、学習方法および生成方法
JP7377482B1 (ja) 2022-05-04 2023-11-10 博遠智能科技股▲ふん▼有限公司 ナンバープレート認識のためのシステム及び方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07114689A (ja) * 1993-10-18 1995-05-02 Nippon Signal Co Ltd:The 車両登録番号認識方法
JP2007233871A (ja) * 2006-03-02 2007-09-13 Fuji Xerox Co Ltd 画像処理装置、コンピュータの制御方法及びプログラム
JP2008198078A (ja) * 2007-02-15 2008-08-28 Toyota Central R&D Labs Inc 画像検出装置
JP2016095688A (ja) * 2014-11-14 2016-05-26 株式会社デンソー 車載用情報表示装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07114689A (ja) * 1993-10-18 1995-05-02 Nippon Signal Co Ltd:The 車両登録番号認識方法
JP2007233871A (ja) * 2006-03-02 2007-09-13 Fuji Xerox Co Ltd 画像処理装置、コンピュータの制御方法及びプログラム
JP2008198078A (ja) * 2007-02-15 2008-08-28 Toyota Central R&D Labs Inc 画像検出装置
JP2016095688A (ja) * 2014-11-14 2016-05-26 株式会社デンソー 車載用情報表示装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
THOMAS WENZEL: "Additional Traffic Sign Detection using Learned Corner Representations", 2016 IEEE INTELLIGENT VEHICLES SYMPOSIUM (IV), JPN6020044807, 19 June 2016 (2016-06-19), SE, pages 316 - 321, XP032938982, ISSN: 0004391952, DOI: 10.1109/IVS.2016.7535404 *
THOMAS WENZEL: "From Corners to Rectangles - Directional Road Sign Detection using Learned Corner Representations", 2017 IEEE INTELLIGENT VEHICLES SYMPOSIUM (IV), JPN6020044808, 11 June 2017 (2017-06-11), US, pages 1039 - 1044, XP033133880, ISSN: 0004391953, DOI: 10.1109/IVS.2017.7995851 *
藤吉 弘亘: "ナンバープレートの位置検出法の評価", 電子情報通信学会技術研究報告 VOL.93 NO.134, vol. PRU93-40 (1993-07), JPN6020044809, 9 July 1993 (1993-07-09), JP, pages 45 - 52, ISSN: 0004452006 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019189746A1 (ja) 2018-03-30 2019-10-03 三菱ケミカル株式会社 放熱シート、放熱部材及び半導体デバイス
JP2021005164A (ja) * 2019-06-25 2021-01-14 株式会社エクサウィザーズ 文字認識装置、撮影装置、文字認識方法、および、文字認識プログラム
CN110517221A (zh) * 2019-07-05 2019-11-29 银河水滴科技(北京)有限公司 基于现实坐标的缝隙定位方法、装置和存储介质
JP2021064139A (ja) * 2019-10-11 2021-04-22 日立造船株式会社 情報処理装置、情報処理方法、および情報処理プログラム
JP7385417B2 (ja) 2019-10-11 2023-11-22 日立造船株式会社 情報処理装置、情報処理方法、および情報処理プログラム
WO2021117363A1 (ja) * 2019-12-09 2021-06-17 コニカミノルタ株式会社 オブジェクト検出方法及びオブジェクト検出装置
JPWO2021117363A1 (ja) * 2019-12-09 2021-06-17
JP7294454B2 (ja) 2019-12-09 2023-06-20 コニカミノルタ株式会社 オブジェクト検出方法及びオブジェクト検出装置
CN111178236B (zh) * 2019-12-27 2023-06-06 清华大学苏州汽车研究院(吴江) 一种基于深度学习的车位检测方法
CN111178236A (zh) * 2019-12-27 2020-05-19 清华大学苏州汽车研究院(吴江) 一种基于深度学习的车位检测方法
CN111444916A (zh) * 2020-03-26 2020-07-24 中科海微(北京)科技有限公司 面向无约束条件下的车牌定位及识别方法、系统
JP2022102516A (ja) * 2020-12-25 2022-07-07 エヌ・ティ・ティ・コムウェア株式会社 物体分類装置、物体分類方法、およびプログラム
JP7138158B2 (ja) 2020-12-25 2022-09-15 エヌ・ティ・ティ・コムウェア株式会社 物体分類装置、物体分類方法、およびプログラム
JP2022159995A (ja) * 2021-04-05 2022-10-18 日本システム開発株式会社 画像生成装置
WO2023162223A1 (ja) * 2022-02-28 2023-08-31 富士通株式会社 学習プログラム、生成プログラム、学習方法および生成方法
JP7377482B1 (ja) 2022-05-04 2023-11-10 博遠智能科技股▲ふん▼有限公司 ナンバープレート認識のためのシステム及び方法
CN116245950A (zh) * 2023-05-11 2023-06-09 合肥高维数据技术有限公司 用于全屏或单角缺失的屏幕角点定位方法

Also Published As

Publication number Publication date
JP6858101B2 (ja) 2021-04-14

Similar Documents

Publication Publication Date Title
JP6858101B2 (ja) 座標検出装置及び学習済みモデル
US10860837B2 (en) Deep multi-task learning framework for face detection, landmark localization, pose estimation, and gender recognition
US10733705B2 (en) Information processing device, learning processing method, learning device, and object recognition device
JP2020042816A (ja) 物体検出方法、装置、機器、記憶媒体及び車両
JP6230751B1 (ja) 物体検出装置および物体検出方法
US20140023271A1 (en) Identifying A Maximally Stable Extremal Region (MSER) In An Image By Skipping Comparison Of Pixels In The Region
CN108154149B (zh) 基于深度学习网络共享的车牌识别方法
CN105144710A (zh) 用于增加深度相机图像的精度的技术
RU2012145349A (ru) Способ и устройство обработки изображений для устранения артефактов глубины
JP2018045691A (ja) 画像視点変換装置及び方法
US9256792B2 (en) Image processing apparatus, image processing method, and program
KR102344373B1 (ko) 특징맵 생성방법 및 특징맵 생성장치
JP6031819B2 (ja) 画像処理装置、画像処理方法
CN113490947A (zh) 检测模型训练方法、装置、检测模型使用方法及存储介质
JP2013206458A (ja) 画像における外観及びコンテキストに基づく物体分類
JP2020038574A (ja) 画像学習プログラム、画像学習方法、画像認識プログラム、画像認識方法、及び画像認識装置
CN111178363B (zh) 文字识别方法、装置、电子设备以及可读存储介质
CN112991349A (zh) 图像处理方法、装置、设备和存储介质
WO2018121414A1 (zh) 电子设备、目标图像识别方法及装置
CN103765477A (zh) 通过图形匹配和环形检测而用自动模型初始化进行线跟踪
JP6828333B2 (ja) 画像処理装置及び画像処理プログラム
CN112837404B (zh) 一种平面对象的三维信息的构建方法及装置
US20140055644A1 (en) Apparatus and method for extracting object
JP2020038572A (ja) 画像学習プログラム、画像学習方法、画像認識プログラム、画像認識方法、学習データセットの生成プログラム、学習データセットの生成方法、学習データセット、及び画像認識装置
US20230009925A1 (en) Object detection method and object detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191004

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210323

R150 Certificate of patent or registration of utility model

Ref document number: 6858101

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150