JP7111175B2 - 物体認識システム、認識装置、物体認識方法および物体認識プログラム - Google Patents

物体認識システム、認識装置、物体認識方法および物体認識プログラム Download PDF

Info

Publication number
JP7111175B2
JP7111175B2 JP2020556651A JP2020556651A JP7111175B2 JP 7111175 B2 JP7111175 B2 JP 7111175B2 JP 2020556651 A JP2020556651 A JP 2020556651A JP 2020556651 A JP2020556651 A JP 2020556651A JP 7111175 B2 JP7111175 B2 JP 7111175B2
Authority
JP
Japan
Prior art keywords
image
type
learning model
server
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020556651A
Other languages
English (en)
Other versions
JPWO2020095545A1 (ja
Inventor
康則 二木
吉弘 三島
篤司 福里
淳 中山田
健治 傍田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2020095545A1 publication Critical patent/JPWO2020095545A1/ja
Application granted granted Critical
Publication of JP7111175B2 publication Critical patent/JP7111175B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Description

本発明は、判定が困難な物体の認識精度を向上させる物体認識システム、認識装置、物体認識方法、学習モデル更新方法および物体認識プログラムに関する。
近年、ドライバによる運転を自動化する自動運転技術や、運転中の危険を予測するための危険予測技術が注目されている。自動運転や危険予測を行うため、車両外部(以下、車外と記す)の画像を撮影して物体を認識する方法が各種提案されている。
例えば、特許文献1には、演算負荷を低減しながら、運転支援や自動運転において必要とされる情報を認識する画像認識装置が記載されている。特許文献1に記載された装置は、車外の静止物体の位置情報が設定された三次元地図データと、車両と静止物体との相対位置および距離に基づいて、静止物体を画像認識処理の対象物として検出し、検出された対象物が含まれる範囲を絞って画像認識処理を行う。
特開2018-73275号公報
時間の経過に伴い、標識や建築物など、新たな認識対象の物体が設置されることがある。未知の物体についての認識は困難であるし、認識対象の形状や観察方向によっては、その物体を適切に認識できない場合も存在する。そのため、物体自体は検出できたとしても、その物体の種別を判定することは難しい。特許文献1に記載された方法では、三次元地図データが更新されない限り、静止物体を画像認識処理の対象物として検出することは困難であり、また、一時的に設置されるような物体についても、考慮に入れることは困難である。
そこで、本発明は、種別が判定できない物体が検出された場合に、その物体の認識精度を向上させることができる物体認識システム、認識装置、物体認識方法、学習モデル更新方法および物体認識プログラムを提供することを目的とする。
本発明による物体認識システムは、撮像画像中の物体を認識する認識装置と、学習モデルを生成するサーバとを備え、認識装置が、学習モデルを用いて画像中の物体の種別を判定する第一物体認識部と、種別が判定できなかった画像である種別判定不可画像に含まれる物体のうち、その物体が立体物として検出された物体である場合、その種別判定不可画像をサーバに送信する画像送信部とを含み、サーバが、種別判定不可画像に対して教師ラベルが付与された学習データに基づいて学習モデルを生成する学習器と、生成された学習モデルを認識装置に送信する学習モデル送信部とを含み、認識装置の第一物体認識部が、送信された学習モデルを用いて画像中の物体の種別を判定することを特徴とする。
本発明による認識装置は、学習モデルを用いて画像中の物体の種別を判定する物体認識部と、種別が判定できなかった画像である種別判定不可画像に含まれる物体のうち、その物体が立体物として検出された物体である場合、学習モデルを生成するサーバに対してその種別判定不可画像を送信する画像送信部とを備え、物体認識部が、種別判定不可画像に対して教師ラベルが付与された学習データに基づいてサーバが生成した学習モデルを受信し、受信した学習モデルを用いて画像中の物体の種別を判定することを特徴とする。
本発明による物体認識方法は、撮像画像中の物体を認識する認識装置が、学習モデルを用いて画像中の物体の種別を判定し、認識装置が、種別が判定できなかった画像である種別判定不可画像に含まれる物体のうち、その物体が立体物として検出された物体である場合、学習モデルを生成するサーバに対してその種別判定不可画像を送信し、サーバが、種別判定不可画像に対して教師ラベルが付与された学習データに基づいて学習モデルを生成し、サーバが、生成された学習モデルを認識装置に送信し、認識装置が、送信された学習モデルを用いて画像中の物体の種別を判定することを特徴とする。
本発明による学習モデル更新方法は、学習モデルを用いて画像中の物体の種別を判定し、種別が判定できなかった画像である種別判定不可画像に含まれる物体のうち、その物体が立体物として検出された物体である場合、学習モデルを生成するサーバに対してその種別判定不可画像を送信し、種別判定不可画像に対して教師ラベルが付与された学習データに基づいてサーバが生成した学習モデルを受信し、受信した学習モデルを用いて画像中の物体の種別を判定することを特徴とする。
本発明による物体認識プログラムは、コンピュータに、学習モデルを用いて画像中の物体の種別を判定する物体認識処理、および、種別が判定できなかった画像である種別判定不可画像に含まれる物体のうち、その物体が立体物として検出された物体である場合、学習モデルを生成するサーバに対してその種別判定不可画像を送信する画像送信処理を実行させ、物体認識処理で、種別判定不可画像に対して教師ラベルが付与された学習データに基づいてサーバが生成した学習モデルを受信させ、受信された学習モデルを用いて画像中の物体の種別を判定させることを特徴とする。
本発明によれば、種別が判定できない物体が検出された場合に、その物体の認識精度を向上させることができる。
本発明による物体認識システムの第一の実施形態の構成例を示すブロック図である。 本発明による物体認識システムの動作例を示す説明図である。 種別判定不可画像を特定する方法の例を示す説明図である。 サーバに送信される種別判定不可画像の情報の例を示す説明図である。 第一の実施形態の物体認識システムの動作例を示すフローチャートである。 第一の実施形態の画像送信部の動作例を示すフローチャートである。 本発明による物体認識システムの第二の実施形態の構成例を示すブロック図である。 サーバに送信される情報の例を示す説明図である。 位置情報を集計する処理の例を示す説明図である。 第二の実施形態の物体認識システムの動作例を示すフローチャートである。 本発明による物体認識システムの第三の実施形態の構成例を示すブロック図である。 送信許可位置情報に基づいて種別判定不可画像の送信を制御する処理の例を示す説明図である。 第三の実施形態の物体認識システムの動作例を示すフローチャートである。 本発明による物体認識システムの第四の実施形態の構成例を示すブロック図である。 サーバに送信される情報の他の例を示す説明図である。 優先度ポリシの例を示す説明図である。 集計された位置情報の例を示す説明図である。 第四の実施形態の物体認識システムの動作例を示すフローチャートである。 本発明による物体認識システムの第五の実施形態の構成例を示すブロック図である。 第五の実施形態の物体認識システムの動作例を示すフローチャートである。 本発明による物体認識システムの第六の実施形態の構成例を示すブロック図である。 第六の実施形態の物体認識システムの動作例を示すフローチャートである。 本発明による物体認識システムの概要を示すブロック図である。 本発明による認識装置の概要を示すブロック図である。
以下、本発明の実施形態を図面を参照して説明する。
実施形態1.
図1は、本発明による物体認識システムの第一の実施形態の構成例を示すブロック図である。また、図2は、本発明による物体認識システムの動作例を示す説明図である。本実施形態の物体認識システム10は、認識装置100と、サーバ200とを備えている。認識装置100は、例えば、車両に搭載され、後述する撮像装置300により撮像された画像中の物体を学習モデルを用いて認識する。
認識装置100は、第一記憶部110と、学習モデル入力部120と、第一物体認識部130と、画像送信部140とを含む。認識装置100は、撮像装置300に接続され、撮像装置300によって撮像された画像を入力する。また、認識装置100は、物体検出装置400に接続され、後述する物体検出装置400によって検出された立体物検出結果を入力する。
撮像装置300は、車外の画像を撮像する。撮像装置300が画像を撮像するタイミングは、車両の走行中または停止中のいずれのタイミングでもよい。撮像装置300は、予め定めた期間ごとに画像を撮像してもよく、運転手等や制御装置の指示に応じて画像を撮像してもよい。撮像装置300は、例えば、車外の風景を撮影する車載カメラである。
物体検出装置400は、撮像装置300が撮影する範囲に存在する物体を検出する。物体検出装置400の具体例として、例えば、ミリ波情報を検知するミリ波レーダや、対象物までの距離を取得するLiDAR(Laser Imaging Detection and Ranging)、周辺の画像を撮影するステレオカメラなどが挙げられる。なお、本実施形態では、物体認識の対象とする画像は、撮像装置300により撮像されるものとする。
第一記憶部110は、第一物体認識部130が物体の種別を判定する際に用いる学習モデルを記憶する。また、第一記憶部110は、認識装置100が処理を行う際に必要な情報を記憶する。第一記憶部110は、例えば、磁気ディスク装置により実現される。
学習モデル入力部120は、後述するサーバ200から入力される学習モデルを受け付ける。学習モデル入力部120は、受け付けた学習モデルを第一記憶部110に記憶してもよく、第一物体認識部130に入力してもよい。
第一物体認識部130は、学習モデルを用いて、撮像装置300によって撮像された画像中の物体の種別を判定する。第一物体認識部130が画像から物体の種別を判定する方法は任意であり、用いられる学習モデルに応じて定められればよい。なお、学習モデルを用いて物体の種別を判定する方法は広く知られており、ここでは詳細な説明は省略する。なお、本実施形態の理解を容易にするため、初期状態で第一物体認識部130が物体判定に用いる学習モデルを、「学習モデル1」と記す。
また、本実施形態の第一物体認識部130は、種別の判定ができなかった物体の画像を特定する。以下、種別の判定ができなかった物体の画像を、種別判定不可画像と記す。第一物体認識部130は、例えば、物体の種別が一意に判定できなかった画像を種別判定不可画像と特定してもよいし、種別の尤もらしさが基準値を下回る画像を種別判定不可画像と特定してもよい。
また、第一物体認識部130が種別判定不可画像を特定する方法も任意である。第一物体認識部130は、例えば、認識対象とした画像と、その画像中の物体の範囲を示す情報(例えば、矩形を特定する座標)とで、種別判定不可画像を特定してもよい。図3は、種別判定不可画像を特定する方法の例を示す説明図である。図3に示す例では、認識対象とした画像11が「image1.jpg」であり、その画像中に含まれる物体の左上座標(x1_1,y1_1)と右下座標(x1´_1,y1´_1)とで範囲を特定していることを示す。また、第一物体認識部130は、認識対象とした画像から、特定した範囲を抽出して生成した新たな画像12を種別判定不可画像と特定してもよい。
画像送信部140は、第一物体認識部130から物体認識結果を受け取る。具体的には、画像送信部140は、第一物体認識部130から種別判定不可画像を受け取る。また、画像送信部140は、物体検出装置400から立体物検出結果を受け取る。具体的には、画像送信部140は、立体物検出結果をもとに、撮像装置300が撮影した範囲に存在する物体を検出する。
そして、画像送信部140は、物体種別の判定ができなかった画像(すなわち、種別判定不可画像)中の物体が立体物として検出された物体であるか判断する。種別判定不可画像中の物体が立体物として検出された物体である場合、画像送信部140は、その種別判定不可画像をサーバ200に送信する。
例えば、図3に示す例において、画像12に含まれるETC(Electronic Toll Collection System )ゲートの種別が判定できない一方で、ETCゲートが何らかの立体物として検出されたとする。この場合、画像送信部140は、このETCゲートを含む種別判定不可画像をサーバ200に送信する。このように、画像送信部140は、立体物として検出された物体を含む種別判定不可画像をサーバ200に送信する。
図4は、サーバに送信される種別判定不可画像の情報の例を示す説明図である。図4に示す例は、認識対象とした撮像画像に種別判定不可物体のbox座標とを対応付けた種別判定不可画像をサーバ200に送信することを示す。例えば、図4に例示する1行目のデータは、種別を判定できなかった物体が1つ存在し、2行目のデータは、種別を判定できなかった物体が2つ存在していることを示す。このように、画像送信部140は、1つの撮像画像に対して複数の種別判定不可画像を送信してもよい。
サーバ200は、第二記憶部210と、第二物体認識部220と、教師データ入力部230と、学習器240と、学習モデル送信部250とを含む。サーバ200は、認識装置100と通信可能に接続されており、例えば、クラウドサービスの一部として実現されていてもよい。
第二記憶部210は、第二物体認識部220が物体判定に用いる学習モデルを記憶する。また、第二記憶部210は、サーバ200が処理を行う際に必要な情報を記憶する。第二記憶部210は、例えば、磁気ディスク装置により実現される。
第二物体認識部220は、第二記憶部210に記憶された学習モデルを用いて、認識装置100から受信した種別判定不可画像中の物体の種別を判定する。第二物体認識部220が画像から物体の種別を判定する方法も任意であり、用いられる学習モデルに応じて定められればよい。本実施形態では、第二物体認識部220は、第一物体認識部130よりも物体認識精度が高いモデルを用いて判定を行うものとする。すなわち、第一物体認識部130が種別を判定できなかった物体であっても、第二物体認識部220が判定できる可能性があるものとする。以下、第二物体認識部220が判定に用いる学習モデルを、「学習モデル2」と記すこともある。
なお、種別判定不可画像中の物体に適切な正解ラベルを付与する観点から、第二物体認識部220が物体の種別を判定する代わりに、人手で種別判定不可画像中に正解ラベルが付与されてもよい。この場合、サーバ200は、第二記憶部210および第二物体認識部220を備えていなくてもよい。なお、サーバ200が、第二記憶部210および第二物体認識部220を備えることで、種別判定不可画像が送信された後の判定処理を自動化することができるため、より好ましい。
教師データ入力部230は、学習器240が学習に用いる教師データを入力する。教師データ入力部230は、種別判定不可画像と第二物体認識部220による判定結果とを対応付けた教師データを入力してもよいし、人手で種別判定不可画像中に正解ラベルが付与された教師データを入力してもよい。
学習器240は、入力された教師データに基づいて、認識装置100の第一物体認識部130が物体の種別の判定に用いる学習モデルの追加学習を行う。学習器240が、教師データに基づいて学習モデルを生成する(追加学習する)方法は任意であり、広く知られた方法が用いられればよい。学習器240によって生成された学習モデルを、以下「学習モデル1a」と記す。「学習モデル1a」は、「学習モデル1」と比較して新たに生成されるモデルであることから、「学習モデル1」のことを既存モデル、「学習モデル1a」のことを更新後モデルと言うこともできる。
学習モデル送信部250は、学習器240によって生成された学習モデルを認識装置100に送信する。
その後、学習モデル入力部120が送信された学習モデルを受け付けると、第一物体認識部130は、受け付けた学習モデル(すなわち、「学習モデル1a」)を用いて、撮像装置300によって撮像された画像中の物体の種別を判定する。学習モデル1aは、学習モデル1によって物体の種別の判定ができなかった画像(すなわち、種別判定不可画像)に正解ラベルを付与した学習データを用いて生成されたモデルである。このモデルは、既存のモデルでは種別が判定できない物体であっても、判定できる可能性が高まったモデルと言える。したがって、このモデルに置き換えることで、過去に種別が判定できなかった物体に対する認識精度を向上させることが可能になる。
学習モデル入力部120と、第一物体認識部130と、画像送信部140とは、プログラム(物体認識プログラム)に従って動作するコンピュータのCPUによって実現される。例えば、プログラムは、認識装置100の第一記憶部110に記憶され、CPUは、そのプログラムを読み込み、プログラムに従って、学習モデル入力部120、第一物体認識部130および画像送信部140として動作してもよい。また、学習モデル入力部120と、第一物体認識部130と、画像送信部140とは、それぞれが専用のハードウェアで実現されていてもよい。
また、第二物体認識部220と、教師データ入力部230と、学習器240と、学習モデル送信部250とは、プログラム(再学習プログラム)に従って動作するコンピュータのCPUによって実現される。例えば、プログラムは、サーバ200の第二記憶部210に記憶され、CPUは、そのプログラムを読み込み、プログラムに従って、第二物体認識部220、教師データ入力部230、学習器240および学習モデル送信部250として動作してもよい。また、第二物体認識部220と、教師データ入力部230と、学習器240と、学習モデル送信部250とは、それぞれが専用のハードウェアで実現されていてもよい。
次に、本実施形態の物体認識システム10の動作を説明する。図5は、本実施形態の物体認識システム10の動作例を示すフローチャートである。認識装置100の第一物体認識部130は、学習モデルを用いて画像中の物体の種別を判定する(ステップS11)。画像送信部140は、種別が判定できなかった画像(すなわち、種別判定不可画像)に含まれる物体のうち、その物体が立体物として検出された物体であるか否か判断する(ステップS12)。その物体が立体物として検出された物体である場合(ステップS12におけるYes)、画像送信部140は、その種別判定不可画像をサーバ200に送信する(ステップS13)。一方、その物体が立体物として検出された物体でない場合(ステップS12におけるNo)、ステップS11以降の処理が繰り返される。
サーバ200の学習器240は、認識装置100から送信された種別判定不可画像に対して教師ラベルが付与された学習データに基づいて、学習モデルを生成する(ステップS14)。学習モデル送信部250は、生成された学習モデルを認識装置100に送信する(ステップS15)。認識装置100の第一物体認識部130は、送信された学習モデルを用いて画像中の物体の種別を判定する(ステップS16)。
次に、本実施形態の画像送信部140の動作を説明する。画像送信部140は、ミリ波やLiDAR等により立体物としては検出されたが、物体の種別の判定ができない画像を選択してサーバ200にアップロード(送信)する。図6は、本実施形態の画像送信部140の動作例を示すフローチャートである。画像送信部140は、立体物が検出されたか否か判定する(ステップS21)。立体物が検出されていない場合(ステップS21におけるNo)、ステップS21以降の処理が繰り返される。
一方、立体物が検出された場合(ステップS21におけるYes)、画像送信部140は、画像中の物体の種別を判定できなかったか否か判断する(ステップS22)。種別が判定できた場合(ステップS22におけるNo)、ステップS21以降の処理が繰り返される。一方、種別が判定できなかった場合(ステップS22におけるYes)、画像送信部140は、認識対象の画像のうち、種別判定不可画像を選択し(ステップS23)、選択した画像をサーバ200に送信する(ステップS24)。
以上のように、本実施形態では、認識装置100において、第一物体認識部130が、学習モデルを用いて画像中の物体の種別を判定し、画像送信部140が、種別判定不可画像に含まれる物体のうち、その物体が立体物として検出された物体である場合、その種別判定不可画像をサーバ200に送信する。一方、サーバ200において、学習器240は、種別判定不可画像に対して教師ラベルが付与された学習データに基づいて学習モデルを生成し、学習モデル送信部250が、生成された学習モデルを認識装置100に送信する。そして、認識装置100の第一物体認識部130が、送信された学習モデルを用いて画像中の物体の種別を判定する。
よって、種別が判定できない物体が検出された場合に、その物体の認識精度を向上させることができる。具体的には、種別の判定ができなかった未知の物体の種別が判定できるようになる。
実施形態2.
次に、本発明による物体認識システムの第二の実施形態を説明する。第二の実施形態では、画像が撮影された場所の位置情報を用いて、優先的に学習に用いるデータを選択する方法を説明する。図7は、本発明による物体認識システムの第二の実施形態の構成例を示すブロック図である。本実施形態の物体認識システム10aは、認識装置100aと、サーバ200aとを備えている。
認識装置100aは、第一記憶部110と、学習モデル入力部120と、第一物体認識部130と、画像送信部140と、位置情報送信部150とを含む。すなわち、本実施形態の認識装置100aは、第一の実施形態の認識装置100と比較し、位置情報送信部150を更に含む。それ以外の構成については、第一の実施形態と同様である。
位置情報送信部150は、種別の判定ができなかった物体を撮影した場所(すなわち、種別判定不可画像が撮影された場所)の位置情報をサーバ200aに送信する。なお、位置情報送信部150の代わりに、画像送信部140が種別判定不可画像とともに位置情報をサーバ200aに送信してもよい。この場合、認識装置100aは、位置情報送信部150を備えていなくてもよい。
図8は、サーバに送信される情報の例を示す説明図である。図8に例示する位置情報は、図4に例示する種別判定不可画像に対応付けて、位置情報が送信されることを示す。
サーバ200aは、第二記憶部210と、第二物体認識部220と、教師データ入力部230と、学習器242と、学習モデル送信部250と、位置集計部260と、優先度決定部270とを含む。すなわち、本実施形態のサーバ200aは、第一の実施形態のサーバ200と比較し、位置集計部260および優先度決定部270を更に含み、学習器240の代わりに学習器242を含む。それ以外の構成については、第一の実施形態と同様である。
位置集計部260は、認識装置100aから受信した位置情報を集計する。具体的には、位置集計部260は、位置が近接する位置情報をグループ化するように集計し、種別判定不可画像が予め定めた基準よりも多く撮影された場所(以下、密集場所と記すこともある。)を特定する。位置集計部260は、例えば、グループ化された位置情報の数が予め定めた閾値よりも多く撮影された場所を特定してもよい。近接する位置情報をグループ化する方法は任意であり、クラスタリング手法など、一般に知られた方法が用いられればよい。
図9は、位置情報を集計する処理の例を示す説明図である。図9に例示する矩形21は、種別が判定できなかった物体が存在する位置を2次元で表したマップのイメージであり、矩形21内の丸印は、種別が判定できなかった物体が検出された位置(すなわち、種別判定不可画像が撮影された位置)を示す。
図9に示す例では、位置集計部260は、丸印が密集する範囲の位置情報をグループ化し、2つのグループ22を特定する。このグループ22は、種別が判定できなかった物体が複数回撮影された場所を示す。なお、図9に例示する位置情報23は、種別が判定できなかった物体が1回のみ撮影された場所を示しており、撮影回数が疎な場所であるとも言える。
優先度決定部270は、集計された位置情報が多いほど、その位置情報が示す場所で撮影された種別判定不可画像の優先度を高くするように決定する。この優先度は、学習器240が、学習に用いるデータの優先度を示す値である。具体的には、優先度決定部270は、グループ化された位置情報が示す場所で撮影された種別判定不可画像の優先度を、グループ化されていない位置情報が示す場所で撮影された種別判定不可画像の優先度よりも高く決定する。優先度決定部270は、例えば、優先度が高いことを示すフラグ(高優先度フラグ)を学習データに付与してもよい。
さらに、優先度決定部270は、グループ化された位置情報の数に応じて、優先度のランク付けを行ってもよい。具体的には、グループ化された位置情報のうち、属する位置情報の数が多いグループの優先度を高く決定してもよい。
図9に示す例では、優先度決定部270は、グループ22に属する位置情報が示す場所で撮影された種別判定不可画像の優先度を、位置情報23が示す場所で撮影された種別判定不可画像の優先度よりも高く決定する。この場合、優先度決定部270は、例えば、グループ22に属する位置情報に対応する学習データに高優先度フラグを付与してもよい。
学習器242は、優先度のより高い種別判定不可画像を含む学習データを優先的に用いて学習モデルを生成する。なお、教師データ入力部230が、優先度に応じて、学習器242に入力する学習データを制御してもよい。
学習モデル入力部120と、第一物体認識部130と、画像送信部140と、位置情報送信部150とは、プログラム(物体認識プログラム)に従って動作するコンピュータのCPUによって実現される。また、第二物体認識部220と、教師データ入力部230と、学習器242と、学習モデル送信部250と、位置集計部260と、優先度決定部270とは、プログラム(再学習プログラム)に従って動作するコンピュータのCPUによって実現される。
次に、本実施形態の物体認識システム10aの動作を説明する。図10は、本実施形態の物体認識システム10aの動作例を示すフローチャートである。種別判定不可画像をサーバに送信するまでの処理は、図5に例示するステップS11からステップS13までの処理と同様である。本実施形態では、位置情報送信部150が、さらに、種別判定不可画像が撮影された場所の位置情報をサーバ200aに送信する(ステップS21)。
位置集計部260は、認識装置100aから受信した位置情報を集計する(ステップS22)。そして、優先度決定部270は、集計された位置情報が多いほど、その位置情報が示す場所で撮影された種別判定不可画像の優先度を高くするように決定する(ステップS23)。学習器242は、優先度のより高い種別判定不可画像を含む学習データを優先的に用いて学習モデルを生成する(ステップS24)。以降、生成された学習モデルを認識装置に送信して、認識処理が行われるまでの処理は、図5に例示するステップS15からステップS16の処理と同様である。
以上のように、本実施形態では、位置情報送信部150が、種別判定不可画像が撮影された場所の位置情報をサーバ200aに送信する。位置集計部260は、受信した位置情報を集計し、優先度決定部270は、集計された位置情報が多いほど、その位置情報が示す場所で撮影された種別判定不可画像の優先度を高くするように決定する。そして、学習器242は、優先度のより高い種別判定不可画像を含む学習データを優先的に用いて学習モデルを生成する。よって、第一の実施形態の効果に加え、偶発的に種別が判定できなかった物体の追加学習頻度を低減させ、複数の車両で種別が判定できなかった物体を優先的に学習することが可能になる。
実施形態3.
次に、本発明による物体認識システムの第三の実施形態を説明する。第二の実施形態では、位置情報に基づいて、種別が判定できなかった物体が多数撮影された場所(密集場所)が特定された。本実施形態では、サーバに対して送信される種別判定不可画像を制限する方法を説明する。図11は、本発明による物体認識システムの第三の実施形態の構成例を示すブロック図である。本実施形態の物体認識システム10bは、認識装置100bと、サーバ200bとを備えている。
サーバ200bは、第二記憶部210と、第二物体認識部220と、教師データ入力部230と、学習器242と、学習モデル送信部250と、位置集計部260と、優先度決定部270と、送信許可位置情報送信部280とを含む。すなわち、本実施形態のサーバ200bは、第二の実施形態のサーバ200aと比較し、送信許可位置情報送信部280を更に含む。それ以外の構成については、第二の実施形態と同様である。
位置集計部260は、第二の実施形態と同様、位置が近接する位置情報をグループ化するように集計し、種別判定不可画像が予め定めた基準よりも多く撮影された場所(すなわち、密集場所)を特定する。言い換えると、予め定めた基準よりも多く撮影された場所(密集場所)とは、グループ化された位置情報の数が、予め定めた基準よりも多い場所とも言える。
送信許可位置情報送信部280は、サーバ200bへの送信を許可する種別判定不可画像の撮影場所を示す位置情報(以下、送信許可位置情報と記す。)を認識装置100bに送信する。具体的には、送信許可位置情報送信部280は、位置集計部260によって特定された密集場所を示す位置情報を、送信許可位置情報として認識装置100bに送信する。
認識装置100bは、第一記憶部110と、学習モデル入力部120と、第一物体認識部130と、画像送信部142と、位置情報送信部150とを含む。すなわち、本実施形態の認識装置100bは、第二の実施形態の認識装置100aと比較し、画像送信部140の代わりに画像送信部142を含む。それ以外の構成については、第二の実施形態と同様である。
画像送信部142は、送信許可位置情報が示す場所以外で撮影された種別判定不可画像のサーバ200bへの送信を抑制する。言い換えると、画像送信部142は、送信許可位置情報が示す場所で撮影された種別判定不可画像のみをサーバ200bへ送信する。そのため、サーバ200bへは、送信許可位置情報が示す場所で撮影された種別判定不可画像が集まることになる。
図12は、送信許可位置情報に基づいて種別判定不可画像の送信を制御する処理の例を示す説明図である。まず、認識装置100b(より具体的には、位置情報送信部150)が、種別判定不可画像が撮影された場所を示す位置情報26をサーバ200bに逐次送信する。サーバ200b(より具体的には、位置集計部260)が、送信された位置情報をグループ化し、グループ化された場所を示す位置情報27を認識装置100bに送信する。この情報が、送信許可位置情報に相当する。認識装置100b(より具体的には、画像送信部142)は、送信許可位置情報に基づいて、種別判定不可画像をサーバ200bへ送信する。
このように、種別判定不可画像が多く撮影された場所の画像に限定してサーバ200bへ送信させることで、サーバ200bへアップロードされる情報量を削減しつつ、学習器242が、効率的に追加学習をすることが可能になる。
学習モデル入力部120と、第一物体認識部130と、画像送信部142と、位置情報送信部150とは、プログラム(物体認識プログラム)に従って動作するコンピュータのCPUによって実現される。また、第二物体認識部220と、教師データ入力部230と、学習器242と、学習モデル送信部250と、位置集計部260と、優先度決定部270と、送信許可位置情報送信部280とは、プログラム(再学習プログラム)に従って動作するコンピュータのCPUによって実現される。
次に、本実施形態の物体認識システム10bの動作を説明する。図13は、本実施形態の物体認識システム10bの動作例を示すフローチャートである。サーバ200bが種別判定不可画像および位置情報を受信して位置情報を集計するまでの処理は、図10に例示するステップS11からステップS13およびステップS21からステップS22までの処理と同様である。
送信許可位置情報送信部280は、位置集計部260によって特定された密集場所を示す位置情報を、送信許可位置情報として認識装置100bに送信する(ステップS31)。画像送信部142は、送信許可位置情報が示す場所以外で撮影された種別判定不可画像のサーバ200bへの送信を抑制する(ステップS32)。以降、生成された学習モデルを認識装置に送信して、認識処理が行われるまでの処理は、図10に例示するステップS23からステップS24およびステップS15からステップS16の処理と同様である。
以上のように、本実施形態では、位置集計部260が、位置が近接する位置情報をグループ化するように集計して、位置情報の密集場所を特定し、送信許可位置情報送信部280が、特定された場所を示す送信許可位置情報を認識装置に送信する。そして、認識装置100bの画像送信部142が、送信許可位置情報が示す場所以外で撮影された種別判定不可画像のサーバへの送信を抑制する。よって、第二の実施形態の効果に加え、サーバ200bへアップロードされる情報量を削減しつつ、効率的に追加学習をすることが可能になる。
実施形態4.
次に、本発明による物体認識システムの第四の実施形態を説明する。第四の実施形態では、認識装置が、種別判定不可画像が撮影された時刻の情報(以下、時刻情報と記す。)をサーバに送信して、追加学習を行う方法を説明する。図14は、本発明による物体認識システムの第四の実施形態の構成例を示すブロック図である。本実施形態の物体認識システム10cは、認識装置100cと、サーバ200cとを備えている。
認識装置100cは、第一記憶部110と、学習モデル入力部120と、第一物体認識部130と、画像送信部140と、位置情報送信部150と、時刻情報送信部160とを含む。すなわち、本実施形態の認識装置100cは、第二の実施形態の認識装置100aと比較し、時刻情報送信部160を更に含む。それ以外の構成については、第二の実施形態と同様である。なお、サーバ200cが第三の実施形態における送信許可位置情報を送信する場合、画像送信部140は、第三の実施形態における画像送信部142として実現されていてもよい。
時刻情報送信部160は、種別判定不可画像が撮影された時刻を示す時刻情報をサーバ200cに送信する。なお、時刻情報送信部160の代わりに、画像送信部140が種別判定不可画像とともに時刻情報をサーバ200cに送信してもよい。この場合、認識装置100cは、時刻情報送信部160を備えていなくてもよい。
図15は、サーバに送信される情報の他の例を示す説明図である。図15に例示する情報は、図8に例示する情報に加え、各種別判定不可画像が撮影された日付および時刻が対応付けられていることを示す。
サーバ200cは、第二記憶部212と、第二物体認識部220と、教師データ入力部230と、学習器242と、学習モデル送信部250と、位置集計部260と、優先度決定部272とを含む。すなわち、本実施形態のサーバ200cは、第二の実施形態のサーバ200aと比較し、第二記憶部210および優先度決定部270の代わりに、第二記憶部212および優先度決定部272を更に含む。それ以外の構成については、第二の実施形態と同様である。なお、サーバ200cが、第三の実施形態における送信許可位置情報送信部280を備えていてもよい。
第二記憶部212は、時刻情報に基づく学習の優先度ポリシを記憶する。また、第二記憶部212は、認識装置100cから送信された時刻情報を記憶してもよい。優先度ポリシは、学習に用いられる画像の優先度を決定する方法を規定したポリシであって、その画像が撮影された時刻の時間幅に基づいて規定されるポリシである。優先度ポリシは、例えば、密集場所のうち、種別判定不可画像が撮影された各時刻の時間幅に応じて高優先度フラグを設定することを規定したポリシであってもよい。
図16は、優先度ポリシの例を示す説明図である。図16に例示する優先度ポリシは、学習の狙いに応じて、高優先度フラグを設定する種別判定不可画像の時刻情報の時間幅を規定していることを示す。例えば、ユーザが変動物を優先的に学習させたいとする。変動物を撮影した種別判定不可画像は、各車両から短い間隔で撮影されて送信されると考えられる。そこで、このような場合、時刻情報の時間幅が短い(例えば、1分など)優先度ポリシ31が規定されることが好ましい。一方、例えば、ユーザが定常物を優先的に学習させたいとする。定常物を撮影した種別判定不可画像は、各車両から長期的に撮影されて送信されると考えられる。そこで、時刻情報の時間幅が長い(例えば、3日など)優先度ポリシ32が規定されることが好ましい。
優先度決定部272は、規定された優先度ポリシにしたがって、種別判定不可画像が予め定めた基準よりも多く撮影された場所(すなわち、密集場所)で撮影された画像に対して設定する優先度を決定する。具体的には、優先度決定部272は、単一の密集場所(グループ)に属する時刻情報の時間幅を算出する。優先度決定部272は、例えば、時間幅として時刻情報のばらつきを算出してもよい。そして、優先度決定部272は、算出した時間幅と、優先度ポリシとにしたがって、種別判定不可画像に対して高優先度フラグを設定する。
学習器242は、優先度のより高い種別判定不可画像を含む学習データを優先的に用いて学習モデルを生成する。具体的には、学習器242は、高優先度フラグが設定された種別判定不可画像を優先的に選択して、追加学習を行う。なお、教師データ入力部230が、優先度に応じて、学習器242に入力する学習データを制御してもよい。
図17は、集計された位置情報の例を示す説明図である。図17に例示する矩形41は、図9と同様、種別が判定できなかった物体が存在する位置を2次元で表したマップのイメージであり、矩形41内の丸印は、種別が判定できなかった物体が検出された位置(すなわち、種別判定不可画像が撮影された位置)を示す。また、図17に示す例では、位置情報が、グループ42とグループ43の大きく2つに集計されたとする。
図17に示す例において、グループ42に属する位置情報に対応する時刻情報の時間幅が1分であり、グループ43に属する位置情報に対応する時刻情報の時間幅が3日であったとする。例えば、図16に例示する優先度ポリシ31が規定されている場合、優先度決定部272は、グループ42に含まれる位置情報で特定される種別判定不可画像に対して高優先度フラグを設定してもよい。また、例えば、図16に例示する優先度ポリシ32が規定されている場合、優先度決定部272は、グループ43に含まれる位置情報で特定される種別判定不可画像に対して高優先度フラグを設定してもよい。
学習モデル入力部120と、第一物体認識部130と、画像送信部140と、位置情報送信部150と、時刻情報送信部160とは、プログラム(物体認識プログラム)に従って動作するコンピュータのCPUによって実現される。また、第二物体認識部220と、教師データ入力部230と、学習器242と、学習モデル送信部250と、位置集計部260と、優先度決定部272とは、プログラム(再学習プログラム)に従って動作するコンピュータのCPUによって実現される。
次に、本実施形態の物体認識システム10cの動作を説明する。図18は、本実施形態の物体認識システム10cの動作例を示すフローチャートである。種別判定不可画像および位置情報をサーバ200cに送信するまでの処理は、図10に例示するステップS11からステップS13およびステップS21までの処理と同様である。本実施形態では、時刻情報送信部160が、さらに、種別判定不可画像が撮影された時刻を示す時刻情報をサーバ200cに送信する(ステップS41)。そして、位置集計部260が位置情報を集計する処理は、図10に例示するステップS22と同様である。
優先度決定部272は、優先度ポリシにしたがって、密集場所で撮影された種別判定不可画像に対して設定する優先度を決定する(ステップS42)。学習器242は、優先度のより高い種別判定不可画像を含む学習データを優先的に用いて学習モデルを生成する(ステップS24)。以降、生成された学習モデルを認識装置に送信して、認識処理が行われるまでの処理は、図10に例示するステップS15からステップS16の処理と同様である。
以上のように、本実施形態では、認識装置100cの時刻情報送信部160が、種別判定不可画像が撮影された時刻を示す時刻情報をサーバ200cに送信し、サーバ200cの優先度決定部272が、優先度ポリシにしたがって、密集場所で撮影された種別判定不可画像に対して設定する優先度を決定する。よって、上述する実施形態の効果に加え、種別の判定ができない物体の時間的な出現度合いに応じて、追加学習を行う物体を選別できる。
実施形態5.
次に、本発明による物体認識システムの第五の実施形態を説明する。第五の実施形態では、種別の判定ができなかった物体が検出された場合に、その物体を学習するためのデータを増加させて、学習器による学習を効率化する方法を説明する。
図19は、本発明による物体認識システムの第五の実施形態の構成例を示すブロック図である。本実施形態の物体認識システム10dは、認識装置100dと、サーバ200dとを備えている。
認識装置100dは、第一記憶部110と、学習モデル入力部120と、第一物体認識部130と、画像送信部140と、位置情報送信部150と、方位情報送信部170とを含む。すなわち、本実施形態の認識装置100dは、第一の実施形態の認識装置100と比較し、位置情報送信部150および方位情報送信部170を更に含む。それ以外の構成については、第一の実施形態と同様である。なお、認識装置100dが、第四の実施形態の時刻情報送信部160を含んでいてもよい。
位置情報送信部150は、第二の実施形態の位置情報送信部150と同様に、種別の判定ができなかった物体を撮影した場所(すなわち、種別判定不可画像が撮影された場所)の位置情報をサーバ200dに送信する。
方位情報送信部170は、種別判定不可画像を撮影した方位を示す方位情報をサーバ200dに送信する。方位情報は、例えば、撮像装置300が画像を撮影する方位を検出するコンパス(図示せず)によって取得され、方位情報送信部170に入力される。
サーバ200dは、第二記憶部214と、第二物体認識部222と、教師データ入力部230と、学習器240と、学習モデル送信部250と、画像データ取得部290とを含む。すなわち、本実施形態のサーバ200dは、第一の実施形態のサーバ200と比較し、画像データ取得部290を更に含み、第二記憶部210および第二物体認識部220の代わりに第二記憶部214および第二物体認識部222を含む。それ以外の構成については、第一の実施形態と同様である。なお、サーバ200dが、上述する実施形態で説明した位置集計部260および優先度決定部270を含んでいてもよい。
第二記憶部214は、位置情報及び方位情報に基づいて風景画像を特定可能な画像データベースを記憶する。画像データベースには、無人航空機によって位置情報とともに撮影された画像や、風景撮影車によって位置情報とともに撮影された画像などが格納される。
画像データ取得部290は、受信した位置情報および方位情報により特定される画像を画像データベースから取得し、取得した画像(以下、データベース画像と記す。)を第二物体認識部222に入力する。なお、このような画像を取得するサービスの例として、ストリートビュー(登録商標)などが挙げられる。
画像データ取得部290によって特定される画像は、撮像装置300によって撮影された画像(すなわち、種別判定不可画像)と同じ場所を異なる時刻で撮影した画像である。そのため、撮影される画像に含まれる物体は、同一である確率が高い。このように、同一である可能性の高い物体を撮影した画像を取得することにより、種別が判定できなかった物体について複数の画像データを準備することが可能になる。
第二物体認識部222は、第二記憶部210に記憶された学習モデルを用いて、認識装置100から受信した種別判定不可画像中の物体の種別、および、データベース画像中の物体の種別を判定する。
教師データ入力部230は、種別判定不可画像と第二物体認識部222による判定結果とを対応付けた教師データ、および、データベース画像と第二物体認識部222による判定結果とを対応付けた教師データを学習器240に入力する。なお、教師データ入力部230は、第一の実施形態と同様、各画像に対して人手で正解ラベルが付与された教師データをそれぞれ入力してもよい。
学習器240は、種別判定不可画像に対して教師ラベルが付与された学習データ、および、データベース画像対して教師ラベルが付与された学習データに基づいて学習モデルを生成する。学習器240が学習を行う方法は、第一の実施形態と同様である。
学習モデル入力部120と、第一物体認識部130と、画像送信部140と、位置情報送信部150と、方位情報送信部170とは、プログラム(物体認識プログラム)に従って動作するコンピュータのCPUによって実現される。また、第二物体認識部222と、教師データ入力部230と、学習器240と、学習モデル送信部250と、画像データ取得部290とは、プログラム(再学習プログラム)に従って動作するコンピュータのCPUによって実現される。
次に、本実施形態の物体認識システム10dの動作を説明する。図20は、本実施形態の物体認識システム10dの動作例を示すフローチャートである。種別判定不可画像をサーバに送信するまでの処理は、図5に例示するステップS11からステップS13までの処理と同様である。本実施形態では、位置情報送信部150が、さらに、種別判定不可画像が撮影された場所の位置情報をサーバ200cに送信し(ステップS21)、方位情報送信部170が、種別判定不可画像が撮影された方位を示す方位情報をサーバに送信する(ステップS51)。画像データ取得部290は、受信した位置情報および方位情報により特定される画像を画像データベースから取得する(ステップS52)。
学習器240は、教師データ入力部230によって入力された、種別判定不可画像と第二物体認識部222による判定結果とを対応付けた教師データ、および、データベース画像と第二物体認識部222による判定結果とを対応付けた教師データに基づいて、学習モデルを生成する(ステップS53)。以降、生成された学習モデルを認識装置に送信して、認識処理が行われるまでの処理は、図5に例示するステップS15からステップS16の処理と同様である。
以上のように、本実施形態では、認識装置100dの位置情報送信部150が、種別判定不可画像が撮影された場所の位置情報をサーバに送信し、方位情報送信部170が、種別判定不可画像が撮影された方位を示す方位情報をサーバに送信する。また、画像データ取得部290が、受信した位置情報および方位情報により特定される画像を画像データベース取得する。そして、学習器240は、種別判定不可画像と判定結果とを対応付けた教師データ、および、データベース画像と判定結果とを対応付けた教師データに基づいて、学習モデルを生成する。よって、第一の実施形態の効果に加え、自車で撮影された画像に加えて画像データベースの画像を学習に利用できるため、学習モデルを高精度化できる。
実施形態6.
次に、本発明による物体認識システムの第六の実施形態を説明する。第六の実施形態では、第五の実施形態で説明した画像データベースから、より適切な画像を取得する方法を説明する。
図21は、本発明による物体認識システムの第六の実施形態の構成例を示すブロック図である。本実施形態の物体認識システム10eは、認識装置100eと、サーバ200eとを備えている。
認識装置100eは、第一記憶部110と、学習モデル入力部120と、第一物体認識部130と、画像送信部140と、位置情報送信部150と、方位情報送信部170と、カメラ情報送信部180とを含む。すなわち、本実施形態の認識装置100eは、第五の実施形態の認識装置100dと比較し、カメラ情報送信部180を更に含む。それ以外の構成については、第五の実施形態と同様である。
カメラ情報送信部180は、撮像装置300に関するカメラパラメータをサーバ200eに送信する。すなわち、カメラ情報送信部180は、種別判定不可画像を撮影した撮像装置に関するカメラパラメータをサーバ200eに送信する。カメラパラメータの例として、カメラ高、焦点距離などが挙げられる。ただし、カメラパラメータは、カメラ高および焦点距離に限定されず、撮像装置300に設定され得る任意のパラメータの内容が含まれる。
サーバ200eは、第二記憶部214と、第二物体認識部222と、教師データ入力部230と、学習器240と、学習モデル送信部250と、画像データ取得部292とを含む。すなわち、本実施形態のサーバ200eは、第五の実施形態のサーバ200dと比較し、画像データ取得部290の代わりに画像データ取得部292を含む。それ以外の構成については、第五の実施形態と同様である。
画像データ取得部292は、第五の実施形態における画像データ取得部290と同様、受信した位置情報および方位情報により特定される画像を画像データベースから取得する。そして、画像データ取得部292は、受信したカメラパラメータに基づいてデータベース画像を補正する。このように補正することで、画像データベースから取得した画像を、撮像装置300によって実際に撮影された画像に近づけることが可能になる。なお、カメラパラメータに基づいて画像を補正する方法は広く知られており、ここでは詳細な説明は省略する。
学習モデル入力部120と、第一物体認識部130と、画像送信部140と、位置情報送信部150と、方位情報送信部170と、カメラ情報送信部180とは、プログラム(物体認識プログラム)に従って動作するコンピュータのCPUによって実現される。また、第二物体認識部222と、教師データ入力部230と、学習器240と、学習モデル送信部250と、画像データ取得部292とは、プログラム(再学習プログラム)に従って動作するコンピュータのCPUによって実現される。
次に、本実施形態の物体認識システム10eの動作を説明する。図22は、本実施形態の物体認識システム10eの動作例を示すフローチャートである。種別判定不可画像および位置情報をサーバに送信するまでの処理は、図20に例示するステップS11からステップS13およびステップS21までの処理と同様である。さらに、本実施形態では、カメラ情報送信部180が、種別判定不可画像を撮影した撮像装置に関するカメラパラメータをサーバ200eに送信する(ステップS61)。
その後、サーバ200eにおいて、図20に例示するステップS51からステップS52までの処理と同様に、画像データベースから画像を取得するまでの処理が行われる。そして、画像データ取得部292は、受信したカメラパラメータに基づいてデータベース画像を補正する(ステップS62)。以降、学習モデルの生成処理および生成された学習モデルを認識装置に送信して、認識処理が行われるまでの処理は、図20に例示するステップS53およびステップS15からステップS16の処理と同様である。
以上のように、本実施形態では、認識装置100eのカメラ情報送信部180が。種別判定不可画像を撮影した撮像装置300に関するカメラパラメータをサーバ200eに送信し、画像データ取得部292が、受信したカメラパラメータに基づいて、画像データベースから取得した画像を補正する。よって、第五の実施形態の効果に加え、画像データベースから取得する画像を実車両での撮影条件に近づけることができるため、画像データベースによる学習効果を向上させることができる。
次に、本発明の概要を説明する。図23は、本発明による物体認識システムの概要を示すブロック図である。本発明による物体認識システム80(例えば、物体認識システム10)は、画像中の物体を認識する認識装置30(例えば、認識装置100)と、学習モデルを生成するサーバ40(例えば、サーバ200)とを備えている。
認識装置30は、学習モデル(例えば、「学習モデル1」)を用いて画像中の物体の種別を判定する第一物体認識部310(例えば、第一物体認識部130)と、種別が判定できなかった画像である種別判定不可画像に含まれる物体のうち、その物体が立体物として検出された物体である場合、その種別判定不可画像をサーバ40に送信する画像送信部320(例えば、画像送信部140)とを含む。
サーバ40は、種別判定不可画像に対して教師ラベルが付与された学習データに基づいて学習モデル(例えば、「学習モデル1a」)を生成する学習器410(例えば、学習器240)と、生成された学習モデルを認識装置30に送信する学習モデル送信部420(例えば、学習モデル送信部250)とを含む。
そして、認識装置30の第一物体認識部310は、送信された学習モデル(例えば、「学習モデル1a」)を用いて画像中の物体の種別を判定する。
そのような構成により、種別が判定できない物体が検出された場合に、その物体の認識精度を向上させることができる。
また、サーバ40は、第一物体認識部310が用いる学習モデルよりも認識精度の高い学習モデル(例えば、「学習モデル2」)を用いて、認識装置30から受信した種別判定不可画像中の物体の種別を判定する第二物体認識部(例えば、第二物体認識部220)を含んでいてもよい。そのような構成によれば、種別判定不可画像が送信された後の判定処理を自動化することができる。
また、認識装置30(例えば、認識装置100a)は、種別判定不可画像が撮影された場所を示す位置情報をサーバに送信する位置情報送信部150を含んでいてもよい。また、サーバ40(例えば、サーバ200a)は、受信した位置情報を集計する位置集計部(例えば、位置集計部260)と、集計された位置情報が多いほど、その位置情報が示す場所で撮影された種別判定不可画像の優先度を高くするように決定する優先度決定部(例えば、優先度決定部270)とを含んでいてもよい。そして、学習器410は、優先度のより高い種別判定不可画像を含む学習データを優先的に用いて学習モデルを生成してもよい。そのような構成によれば、偶発的に種別が判定できなかった物体の追加学習頻度を低減させ、複数の車両で種別が判定できなかった物体を優先的に学習することが可能になる。
また、サーバ40(例えば、サーバ200b)は、そのサーバ40への送信を許可する種別判定不可画像の撮影場所を示す位置情報である送信許可位置情報を認識装置30に送信する送信許可位置情報送信部(例えば、送信許可位置情報送信部280)を含んでいてもよい。そして、位置集計部は、位置が近接する位置情報をグループ化するように集計して、種別判定不可画像が予め定めた基準よりも多く撮影された場所である密集場所を特定し、送信許可位置情報送信部は、特定された密集場所を示す情報を送信許可位置情報として認識装置に送信してもよい。そして、認識装置30の画像送信部320(例えば、画像送信部142)は、送信許可位置情報が示す場所以外で撮影された種別判定不可画像のサーバへの送信を抑制してもよい。そのような構成によれば、サーバへアップロードされる情報量を削減しつつ、効率的に追加学習をすることが可能になる。
また、認識装置30(例えば、認識装置100c)は、種別判定不可画像が撮影された時刻を示す時刻情報をサーバに送信する時刻情報送信部(例えば、時刻情報送信部160)を含んでいてもよい。そして、優先度決定部は、学習に用いられる画像の優先度を決定する方法を規定したポリシであって、その画像が撮影された時刻の時間幅に基づいて規定されるポリシである優先度ポリシにしたがって、密集場所で撮影された種別判定不可画像に対して設定する優先度を決定してもよい。そのような構成によれば、種別の判定ができない物体の時間的な出現度合いに応じて、追加学習を行う物体を選別できる。
また、認識装置30(例えば、認識装置100d)は、種別判定不可画像が撮影された場所の位置情報をサーバに送信する位置情報送信部(例えば、位置情報送信部150)と、種別判定不可画像が撮影された方位を示す方位情報をサーバに送信する方位情報送信部(例えば、方位情報送信部170)とを含んでいてもよい。また、サーバ40(例えば、サーバ200d)は、位置情報及び方位情報に基づいて画像を特定可能な画像データベースから、受信した位置情報および方位情報により特定される画像を取得する画像データ取得部(例えば、画像データ取得部292)を含んでいてもよい。そして、学習器410は、画像データ取得部によって取得された画像に対して教師ラベルが付与された学習データに基づいて学習モデルを生成してもよい。そのような構成によれば、自車で撮影された画像に加えて画像データベースの画像を学習に利用できるため、学習モデルを高精度化できる。
図24は、本発明による認識装置の概要を示すブロック図である。本発明による認識装置50(例えば、認識装置100)は、物体認識部510と、画像送信部520とを備えている。なお、物体認識部510および画像送信部520の内容は、図23に例示する認識装置30の第一物体認識部310および画像送信部320と同様である。そのような構成によっても、種別が判定できない物体が検出された場合に、その物体の認識精度を向上させることができる。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)撮像画像中の物体を認識する認識装置と、学習モデルを生成するサーバとを備え、前記認識装置は、学習モデルを用いて画像中の物体の種別を判定する第一物体認識部と、前記種別が判定できなかった画像である種別判定不可画像に含まれる物体のうち、当該物体が立体物として検出された物体である場合、当該種別判定不可画像を前記サーバに送信する画像送信部とを含み、前記サーバは、前記種別判定不可画像に対して教師ラベルが付与された学習データに基づいて学習モデルを生成する学習器と、生成された前記学習モデルを前記認識装置に送信する学習モデル送信部とを含み、前記認識装置の第一物体認識部は、送信された前記学習モデルを用いて画像中の物体の種別を判定することを特徴とする物体認識システム。
(付記2)サーバは、第一物体認識部が用いる学習モデルよりも認識精度の高い学習モデルを用いて、認識装置から受信した種別判定不可画像中の物体の種別を判定する第二物体認識部を含む付記1記載の物体認識システム。
(付記3)認識装置は、種別判定不可画像が撮影された場所を示す位置情報をサーバに送信する位置情報送信部を含み、サーバは、受信した前記位置情報を集計する位置集計部と、集計された位置情報が多いほど、当該位置情報が示す場所で撮影された種別判定不可画像の優先度を高くするように決定する優先度決定部とを含み、学習器は、優先度のより高い種別判定不可画像を含む学習データを優先的に用いて学習モデルを生成する付記1または付記2記載の物体認識システム。
(付記4)サーバは、当該サーバへの送信を許可する種別判定不可画像の撮影場所を示す位置情報である送信許可位置情報を認識装置に送信する送信許可位置情報送信部を含み、位置集計部は、位置が近接する位置情報をグループ化するように集計して、種別判定不可画像が予め定めた基準よりも多く撮影された場所である密集場所を特定し、前記送信許可位置情報送信部は、特定された前記密集場所を示す情報を送信許可位置情報として認識装置に送信し、認識装置の画像送信部は、前記送信許可位置情報が示す場所以外で撮影された種別判定不可画像のサーバへの送信を抑制する付記3記載の物体認識システム。
(付記5)認識装置は、種別判定不可画像が撮影された時刻を示す時刻情報をサーバに送信する時刻情報送信部を含み、優先度決定部は、学習に用いられる画像の優先度を決定する方法を規定したポリシであって当該画像が撮影された時刻の時間幅に基づいて規定されるポリシである優先度ポリシにしたがって、密集場所で撮影された種別判定不可画像に対して設定する優先度を決定する付記3または付記4記載の物体認識システム。
(付記6)認識装置は、種別判定不可画像が撮影された場所の位置情報をサーバに送信する位置情報送信部と、前記種別判定不可画像が撮影された方位を示す方位情報をサーバに送信する方位情報送信部とを含み、サーバは、位置情報及び方位情報に基づいて画像を特定可能な画像データベースから、受信した位置情報および方位情報により特定される画像を取得する画像データ取得部を含み、学習器は、画像データ取得部によって取得された画像に対して教師ラベルが付与された学習データに基づいて学習モデルを生成する付記1から付記5のうちのいずれか1つに記載の物体認識システム。
(付記7)認識装置は、種別判定不可画像を撮影した撮像装置に関するカメラパラメータをサーバに送信するカメラ情報送信部を含み、画像データ取得部は、受信したカメラパラメータに基づいて、画像データベースから取得した画像を補正する付記6記載の物体認識システム。
(付記8)画像送信部は、撮像画像と当該撮像画像中で種別が判定できなかった物体を特定する座標情報とを対応付けた画像、または、撮像画像のうち種別が判定できなかった物体が含まれる部分を抽出した画像を種別判定不可画像として送信する付記1から付記7のうちのいずれか1つに記載の物体認識システム。
(付記9)学習モデルを用いて画像中の物体の種別を判定する物体認識部と、前記種別が判定できなかった画像である種別判定不可画像に含まれる物体のうち、当該物体が立体物として検出された物体である場合、学習モデルを生成するサーバに対して当該種別判定不可画像を送信する画像送信部とを備え、前記物体認識部は、前記種別判定不可画像に対して教師ラベルが付与された学習データに基づいて前記サーバが生成した学習モデルを受信し、受信した学習モデルを用いて画像中の物体の種別を判定することを特徴とする認識装置。
(付記10)撮像画像中の物体を認識する認識装置が、学習モデルを用いて画像中の物体の種別を判定し、前記認識装置が、前記種別が判定できなかった画像である種別判定不可画像に含まれる物体のうち、当該物体が立体物として検出された物体である場合、学習モデルを生成するサーバに対して当該種別判定不可画像を送信し、前記サーバが、前記種別判定不可画像に対して教師ラベルが付与された学習データに基づいて学習モデルを生成し、前記サーバが、生成された前記学習モデルを前記認識装置に送信し、前記認識装置が、送信された前記学習モデルを用いて画像中の物体の種別を判定することを特徴とする物体認識方法。
(付記11)学習モデルを用いて画像中の物体の種別を判定し、前記種別が判定できなかった画像である種別判定不可画像に含まれる物体のうち、当該物体が立体物として検出された物体である場合、学習モデルを生成するサーバに対して当該種別判定不可画像を送信し、前記種別判定不可画像に対して教師ラベルが付与された学習データに基づいて前記サーバが生成した学習モデルを受信し、受信した学習モデルを用いて画像中の物体の種別を判定することを特徴とする学習モデル更新方法。
(付記12)コンピュータに、学習モデルを用いて画像中の物体の種別を判定する物体認識処理、および、前記種別が判定できなかった画像である種別判定不可画像に含まれる物体のうち、当該物体が立体物として検出された物体である場合、学習モデルを生成するサーバに対して当該種別判定不可画像を送信する画像送信処理を実行させ、前記物体認識処理で、前記種別判定不可画像に対して教師ラベルが付与された学習データに基づいて前記サーバが生成した学習モデルを受信させ、受信した学習モデルを用いて画像中の物体の種別を判定させるための物体認識プログラム。
以上、実施形態及び実施例を参照して本願発明を説明したが、本願発明は上記実施形態および実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
この出願は、2018年11月5日に出願された日本特許出願2018-207870を基礎とする優先権を主張し、その開示の全てをここに取り込む。
10,10a,10b,10c,10d,10e 物体認識システム
100,100a,100b,100c,100d,100e 認識装置
110 第一記憶部
120 学習モデル入力部
130 第一物体認識部
140,142 画像送信部
150 位置情報送信部
160 時刻送信部
170 方位情報送信部
180 カメラ情報送信部
200,200a,200b,200c,200d,200e サーバ
210,212,214 第二記憶部
220,222 第二物体認識部
230 教師データ入力部
240,242 学習器
250 学習モデル送信部
260 位置集計部
270,272 優先度決定部
280 送信許可位置情報送信部
290,292 画像データ取得部
300 撮像装置
400 物体検出装置

Claims (10)

  1. 撮像画像中の物体を認識する認識装置と、
    学習モデルを生成するサーバとを備え、
    前記認識装置は、
    学習モデルを用いて画像中の物体の種別を判定する第一物体認識部と、
    前記種別が判定できなかった画像である種別判定不可画像に含まれる物体のうち、当該物体が立体物として検出された物体である場合、当該種別判定不可画像を前記サーバに送信する画像送信部とを含み、
    前記サーバは、
    前記種別判定不可画像に対して教師ラベルが付与された学習データに基づいて学習モデルを生成する学習器と、
    生成された前記学習モデルを前記認識装置に送信する学習モデル送信部とを含み、
    前記認識装置の第一物体認識部は、送信された前記学習モデルを用いて画像中の物体の種別を判定する
    ことを特徴とする物体認識システム。
  2. サーバは、
    第一物体認識部が用いる学習モデルよりも認識精度の高い学習モデルを用いて、認識装置から受信した種別判定不可画像中の物体の種別を判定する第二物体認識部を含む
    請求項1記載の物体認識システム。
  3. 認識装置は、
    種別判定不可画像が撮影された場所を示す位置情報をサーバに送信する位置情報送信部を含み、
    サーバは、
    受信した前記位置情報を集計する位置集計部と、
    集計された位置情報が多いほど、当該位置情報が示す場所で撮影された種別判定不可画像の優先度を高くするように決定する優先度決定部とを含み、
    学習器は、優先度のより高い種別判定不可画像を含む学習データを優先的に用いて学習モデルを生成する
    請求項1または請求項2記載の物体認識システム。
  4. サーバは、
    当該サーバへの送信を許可する種別判定不可画像の撮影場所を示す位置情報である送信許可位置情報を認識装置に送信する送信許可位置情報送信部を含み、
    位置集計部は、位置が近接する位置情報をグループ化するように集計して、種別判定不可画像が予め定めた基準よりも多く撮影された場所である密集場所を特定し、
    前記送信許可位置情報送信部は、特定された前記密集場所を示す情報を送信許可位置情報として認識装置に送信し、
    認識装置の画像送信部は、前記送信許可位置情報が示す場所以外で撮影された種別判定不可画像のサーバへの送信を抑制する
    請求項3記載の物体認識システム。
  5. 認識装置は、種別判定不可画像が撮影された時刻を示す時刻情報をサーバに送信する時刻情報送信部を含み、
    優先度決定部は、学習に用いられる画像の優先度を決定する方法を規定したポリシであって当該画像が撮影された時刻の時間幅に基づいて規定されるポリシである優先度ポリシにしたがって、密集場所で撮影された種別判定不可画像に対して設定する優先度を決定する
    請求項3または請求項4記載の物体認識システム。
  6. 認識装置は、
    種別判定不可画像が撮影された場所の位置情報をサーバに送信する位置情報送信部と、
    前記種別判定不可画像が撮影された方位を示す方位情報をサーバに送信する方位情報送信部とを含み、
    サーバは、
    位置情報及び方位情報に基づいて画像を特定可能な画像データベースから、受信した位置情報および方位情報により特定される画像を取得する画像データ取得部を含み、
    学習器は、画像データ取得部によって取得された画像に対して教師ラベルが付与された学習データに基づいて学習モデルを生成する
    請求項1から請求項5のうちのいずれか1項に記載の物体認識システム。
  7. 学習モデルを用いて画像中の物体の種別を判定する物体認識部と、
    前記種別が判定できなかった画像である種別判定不可画像に含まれる物体のうち、当該物体が立体物として検出された物体である場合、学習モデルを生成するサーバに対して当該種別判定不可画像を送信する画像送信部とを備え、
    前記物体認識部は、前記種別判定不可画像に対して教師ラベルが付与された学習データに基づいて前記サーバが生成した学習モデルを受信し、受信した学習モデルを用いて画像中の物体の種別を判定する
    ことを特徴とする認識装置。
  8. 撮像画像中の物体を認識する認識装置が、学習モデルを用いて画像中の物体の種別を判定し、
    前記認識装置が、前記種別が判定できなかった画像である種別判定不可画像に含まれる物体のうち、当該物体が立体物として検出された物体である場合、学習モデルを生成するサーバに対して当該種別判定不可画像を送信し、
    前記サーバが、前記種別判定不可画像に対して教師ラベルが付与された学習データに基づいて学習モデルを生成し、
    前記サーバが、生成された前記学習モデルを前記認識装置に送信し、
    前記認識装置が、送信された前記学習モデルを用いて画像中の物体の種別を判定する
    ことを特徴とする物体認識方法。
  9. 学習モデルを用いて画像中の物体の種別を判定し、
    前記種別が判定できなかった画像である種別判定不可画像に含まれる物体のうち、当該物体が立体物として検出された物体である場合、学習モデルを生成するサーバに対して当該種別判定不可画像を送信し、
    前記種別判定不可画像に対して教師ラベルが付与された学習データに基づいて前記サーバが生成した学習モデルを受信し、受信した学習モデルを用いて画像中の物体の種別を判定する
    ことを特徴とする学習モデル更新方法。
  10. コンピュータに、
    学習モデルを用いて画像中の物体の種別を判定する物体認識処理、および、
    前記種別が判定できなかった画像である種別判定不可画像に含まれる物体のうち、当該物体が立体物として検出された物体である場合、学習モデルを生成するサーバに対して当該種別判定不可画像を送信する画像送信処理を実行させ、
    前記物体認識処理で、前記種別判定不可画像に対して教師ラベルが付与された学習データに基づいて前記サーバが生成した学習モデルを受信させ、受信された学習モデルを用いて画像中の物体の種別を判定させる
    ための物体認識プログラム。
JP2020556651A 2018-11-05 2019-09-17 物体認識システム、認識装置、物体認識方法および物体認識プログラム Active JP7111175B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018207870 2018-11-05
JP2018207870 2018-11-05
PCT/JP2019/036340 WO2020095545A1 (ja) 2018-11-05 2019-09-17 物体認識システム、認識装置、物体認識方法および物体認識プログラム

Publications (2)

Publication Number Publication Date
JPWO2020095545A1 JPWO2020095545A1 (ja) 2021-09-30
JP7111175B2 true JP7111175B2 (ja) 2022-08-02

Family

ID=70612342

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020556651A Active JP7111175B2 (ja) 2018-11-05 2019-09-17 物体認識システム、認識装置、物体認識方法および物体認識プログラム

Country Status (3)

Country Link
US (1) US11783602B2 (ja)
JP (1) JP7111175B2 (ja)
WO (1) WO2020095545A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11928799B2 (en) * 2020-06-29 2024-03-12 Samsung Electronics Co., Ltd. Electronic device and controlling method of electronic device
WO2022004448A1 (ja) * 2020-07-03 2022-01-06 ソニーグループ株式会社 情報処理装置、および情報処理方法、情報処理システム、並びにプログラム
EP4177733A4 (en) * 2020-07-03 2023-11-22 Sony Group Corporation INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, INFORMATION PROCESSING SYSTEM AND PROGRAM
EP4177734A4 (en) * 2020-07-03 2023-11-22 Sony Group Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, INFORMATION PROCESSING SYSTEM AND PROGRAM
JP7514468B2 (ja) 2020-07-22 2024-07-11 カラクリ株式会社 情報処理装置、システム、プログラム、及び方法
JP7508957B2 (ja) * 2020-09-09 2024-07-02 トヨタ自動車株式会社 情報管理システムおよびこれに用いられる携帯端末、画像管理サーバ
US20220254144A1 (en) * 2021-02-05 2022-08-11 Home Depot Product Authority, Llc Product image classification
JP2024079205A (ja) * 2022-11-30 2024-06-11 株式会社リコー 表示システム、表示方法およびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007006488A (ja) 2005-06-20 2007-01-11 Samsung Electronics Co Ltd イメージに係る情報をユーザーに提供する方法及びシステム、並びにこのための移動通信端末機
JP2012150552A (ja) 2011-01-17 2012-08-09 Horiuchi Denki Seisakusho:Kk 物体認識処理装置及び物体認識処理方法
JP2018097506A (ja) 2016-12-12 2018-06-21 株式会社日立製作所 衛星画像処理システム及び方法
WO2018168515A1 (ja) 2017-03-14 2018-09-20 日本電気株式会社 画像処理装置、画像処理方法及び記録媒体

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6814977B2 (ja) 2016-10-07 2021-01-20 パナソニックIpマネジメント株式会社 画像処理装置、検知装置、学習装置、画像処理方法、および画像処理プログラム
JP2018073275A (ja) 2016-11-02 2018-05-10 三菱自動車工業株式会社 画像認識装置
US11257132B1 (en) * 2018-05-04 2022-02-22 Allstate Insurance Company Processing systems and methods having a machine learning engine for providing a surface dimension output

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007006488A (ja) 2005-06-20 2007-01-11 Samsung Electronics Co Ltd イメージに係る情報をユーザーに提供する方法及びシステム、並びにこのための移動通信端末機
JP2012150552A (ja) 2011-01-17 2012-08-09 Horiuchi Denki Seisakusho:Kk 物体認識処理装置及び物体認識処理方法
JP2018097506A (ja) 2016-12-12 2018-06-21 株式会社日立製作所 衛星画像処理システム及び方法
WO2018168515A1 (ja) 2017-03-14 2018-09-20 日本電気株式会社 画像処理装置、画像処理方法及び記録媒体

Also Published As

Publication number Publication date
US20210390283A1 (en) 2021-12-16
JPWO2020095545A1 (ja) 2021-09-30
WO2020095545A1 (ja) 2020-05-14
US11783602B2 (en) 2023-10-10

Similar Documents

Publication Publication Date Title
JP7111175B2 (ja) 物体認識システム、認識装置、物体認識方法および物体認識プログラム
Wang et al. Development of UAV-based target tracking and recognition systems
US10586102B2 (en) Systems and methods for object tracking
US11074470B2 (en) System and method for automatically improving gathering of data using a data gathering device
CN113762252B (zh) 无人机智能跟随目标确定方法、无人机和遥控器
US20200012896A1 (en) Apparatus and method of data generation for object detection based on generative adversarial networks
US11887318B2 (en) Object tracking
US11288507B2 (en) Object detection in image based on stochastic optimization
US10325169B2 (en) Spatio-temporal awareness engine for priority tree based region selection across multiple input cameras and multimodal sensor empowered awareness engine for target recovery and object path prediction
WO2018161217A1 (en) A transductive and/or adaptive max margin zero-shot learning method and system
CN108932273B (zh) 图片筛选方法及装置
CN110991385A (zh) 一种识别船只行驶轨迹的方法、装置及电子设备
CN115063454B (zh) 多目标跟踪匹配方法、装置、终端及存储介质
CN111798482B (zh) 一种目标跟踪方法及设备
CN114071015A (zh) 一种联动抓拍路径的确定方法、装置、介质及设备
CN116434156A (zh) 目标检测方法、存储介质、路侧设备及自动驾驶系统
JP6443144B2 (ja) 情報出力装置、情報出力プログラム及び情報出力方法、並びに情報出力システム
CN112529954B (zh) 基于异构双目摄像设备的悬浮对象位置确定方法、装置
CN115661556B (zh) 一种图像处理方法、装置、电子设备及存储介质
JP7155265B2 (ja) 分類子をトレーニングおよび更新するための方法およびシステム
US11645838B2 (en) Object detection system, object detection method, and program
KR102543818B1 (ko) 차량 번호판 인식 시스템, 방법, 장치 및 차량 번호판 인식 관리 장치
CN118762212A (zh) 目标检测方法、装置、电子设备与存储介质
CN116127165A (zh) 车辆的位置更新方法、装置、存储介质及电子装置
CN116129368A (zh) 一种图片处理的方法、装置、系统及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210422

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220704

R151 Written notification of patent or utility model registration

Ref document number: 7111175

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151