JP2024001527A - 画像認識装置および画像認識方法 - Google Patents
画像認識装置および画像認識方法 Download PDFInfo
- Publication number
- JP2024001527A JP2024001527A JP2022100235A JP2022100235A JP2024001527A JP 2024001527 A JP2024001527 A JP 2024001527A JP 2022100235 A JP2022100235 A JP 2022100235A JP 2022100235 A JP2022100235 A JP 2022100235A JP 2024001527 A JP2024001527 A JP 2024001527A
- Authority
- JP
- Japan
- Prior art keywords
- detection
- region
- image
- area
- captured image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 16
- 238000001514 detection method Methods 0.000 claims abstract description 225
- 238000010801 machine learning Methods 0.000 abstract description 12
- 238000010586 diagram Methods 0.000 description 15
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
【課題】画像認識処理において検出対象物の検出精度を高める。【解決手段】画像認識装置10は、撮像画像を取得する画像取得部12と、所定値以上の画像サイズを有する画像を入力として機械学習された第1検出モデルを用いて、撮像画像において検出対象物が含まれる第1領域を検出する第1検出部14と、所定値未満の画像サイズを有する画像を入力として機械学習された第2検出モデルを用いて、撮像画像において検出対象物が含まれる第2領域を検出する第2検出部16と、撮像画像において第1領域と第2領域が重なる場合、第1領域および第2領域のいずれか一方の検出を無効とする判定部18と、を備える。【選択図】図1
Description
本発明は、画像認識装置および画像認識方法に関する。
車両の周囲を撮像した画像から歩行者などの対象物をパターンマッチング等の画像認識技術を用いて検出する技術が知られている。例えば、遠方用と近傍用を含む複数の認識辞書を用意し、複数の認識辞書を用いてパターンマッチングを行うことにより、検出精度を高める技術が提案されている(例えば、特許文献1参照)。
上記先行技術において、近傍に存在する検出対象物の一部分が遠方用の認識辞書によって検出対象物として検出されてしまい、検出対象物を適切に検出できないことがあった。
本発明は、上述の事情に鑑みてなされたものであり、認識辞書に基づく画像認識処理において検出対象物の検出精度を高める技術を提供することにある。
本発明のある態様の画像認識装置は、撮像画像を取得する画像取得部と、所定値以上の画像サイズを有する画像を入力として機械学習された第1検出モデルを用いて、撮像画像において検出対象物が含まれる第1領域を検出する第1検出部と、所定値未満の画像サイズを有する画像を入力として機械学習された第2検出モデルを用いて、撮像画像において検出対象物が含まれる第2領域を検出する第2検出部と、撮像画像において第1領域と第2領域が重なる場合、第1領域および第2領域のいずれか一方の検出を無効とする判定部と、を備える。
本発明の別の態様は、画像認識方法である。この方法は、撮像画像を取得するステップと、所定値以上の画像サイズを有する画像を入力として機械学習された第1検出モデルを用いて、撮像画像において検出対象物が含まれる第1領域を検出するステップと、所定値未満の画像サイズを有する画像を入力として機械学習された第2検出モデルを用いて、撮像画像において検出対象物が含まれる第2領域を検出するステップと、撮像画像において第1領域と第2領域が重なる場合、第1領域および第2領域のいずれか一方の検出を無効とするステップと、を備える。
本発明によれば、画像認識処理において検出対象物の検出精度を高めることができる。
以下、本発明の実施の形態について、図面を参照しつつ説明する。かかる実施の形態に示す具体的な数値等は、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、図面において、本発明に直接関係のない要素は図示を省略する。
(第1実施形態)
図1は、第1実施形態に係る画像認識装置10の機能構成を模式的に示すブロック図である。画像認識装置10は、画像取得部12と、第1検出部14と、第2検出部16と、判定部18と、表示制御部20とを備える。画像認識装置10は、例えば、車両などの移動体に搭載され、車両の周囲における歩行者などの人物を検出する。画像認識装置10は、所定の場所に固定して設置され、装置の周囲における人物等を検出してもよい。本実施の形態では、画像認識装置10が車両に搭載される場合について例示する。また、本実施の形態では、画像認識装置10が歩行者などの人物を検出する場合について例示する。なお、画像認識装置10が検出する検出対象物は、人物以外にも適用可能である。
図1は、第1実施形態に係る画像認識装置10の機能構成を模式的に示すブロック図である。画像認識装置10は、画像取得部12と、第1検出部14と、第2検出部16と、判定部18と、表示制御部20とを備える。画像認識装置10は、例えば、車両などの移動体に搭載され、車両の周囲における歩行者などの人物を検出する。画像認識装置10は、所定の場所に固定して設置され、装置の周囲における人物等を検出してもよい。本実施の形態では、画像認識装置10が車両に搭載される場合について例示する。また、本実施の形態では、画像認識装置10が歩行者などの人物を検出する場合について例示する。なお、画像認識装置10が検出する検出対象物は、人物以外にも適用可能である。
本実施形態において示される各機能ブロックは、例えば、ハードウェアおよびソフトウェアの連携によって実現されうる。画像認識装置10のハードウェアは、コンピュータのCPUやメモリをはじめとする素子や機械装置で実現される。画像認識装置10のソフトウェアは、コンピュータプログラム等によって実現される。
画像取得部12は、カメラ22が撮像した撮像画像を取得する。カメラ22は、車両に搭載され、車両の周囲の画像を撮像する。カメラ22は、例えば、車両の前方の画像を撮像する。カメラ22は、車両の後方を撮像してもよいし、車両の側方を撮像してもよい。画像認識装置10は、カメラ22を備えてもよいし、カメラ22を備えなくてもよい。
カメラ22は、車両の周囲の赤外線を撮像するよう構成される。カメラ22は、いわゆる赤外線サーモグラフィであり、車両の周辺の温度分布を画像化し、車両の周辺に存在する熱源を特定できるようにする。カメラ22は、波長2μm~5μm程度の中赤外線を検出するよう構成されてもよいし、波長8μm~14μm程度の遠赤外線を検出するよう構成されてもよい。なお、カメラ22は、可視光を撮像するよう構成されてもよい。カメラ22は、赤色、緑色および青色のカラー画像を撮像するよう構成されてもよいし、可視光のモノクロ画像を撮像するよう構成されてもよい。本実施の形態において、カメラ22は、遠赤外線による熱画像を撮影するカメラとして説明する。カメラ22が撮影する撮影画像は、例えば、毎秒30フレームなどの動画像である。
第1検出部14は、画像取得部12が取得する撮像画像において検出対象物が含まれる第1領域を検出する。第1検出部14は、所定値以上の画像サイズを有する画像を入力として機械学習された第1検出モデルを用いて検出対象物を検出する。第1検出モデルは、近傍に存在する検出対象物を検出するための近傍用の認識辞書である。検出対象物が歩行者の場合、第1検出モデルの機械学習に使用される入力画像のサイズの一例は、縦160ピクセル、横80ピクセルである。
第2検出部16は、画像取得部12が取得する撮像画像において検出対象物が含まれる第2領域を検出する。第2検出部16は、所定値未満の画像サイズを有する画像を入力として機械学習された第2検出モデルを用いて検出対象物を検出する。第2検出モデルは、遠方に存在する検出対象物を検出するための遠方用の認識辞書である。第2検出モデルの機械学習に使用される入力画像のサイズは、第1検出モデルの機械学習に使用される入力画像のサイズよりも小さい。検出対象物が歩行者の場合、第2検出モデルの機械学習に使用される入力画像のサイズの一例は、縦80ピクセル、横40ピクセルである。
機械学習に用いるモデルは、入力画像の画像サイズ(画素数)に対応する入力と、認識スコアを出力する出力と、入力と出力の間を接続する中間層とを含むことができる。中間層は、畳み込み層、プーリング層、全結合層などを含むことができる。中間層は、多層構造であってもよく、いわゆるディープラーニングが実行可能となるよう構成されてもよい。機械学習に用いるモデルは、畳み込みニューラルネットワーク(CNN)を用いて構築されてもよい。なお、機械学習に用いるモデルは上記に限られず、任意の機械学習モデルが用いられてもよい。
図2(a)~(d)は、学習用画像の例を示す図であり、歩行者用の検出モデルを生成するために用いる学習用画像の例を示す。図2(a),(b)は、第1検出モデルを生成するための学習用画像31~36を示す。図2(c),(d)は、第2検出モデルを生成するための学習用画像41~46を示す。図2(a),(c)は、正解データの一例であり、図2(b),(d)は、不正解データの一例である。
図示されるように、第1検出モデル用の学習用画像31~36は、画像サイズが相対的に大きく、相対的に高解像度である。第1検出モデル用の学習用画像31~36の画像サイズの一例は、160×80ピクセルである。一方、第2検出モデル用の学習用画像41~46は、画像サイズが相対的に小さく、相対的に低解像度である。第2検出モデル用の学習用画像41~46の画像サイズの一例は、80×40でピクセルである。
判定部18は、第1検出部14および第2検出部16による検出結果の有効性を判定する。判定部18は、第1検出部14または第2検出部16によって、第1領域および第2領域が重ならずに、検出対象物が含まれる領域が検出された場合、その検出を有効とする。判定部18は、第1検出部14によって第1領域が検出される一方、第2検出部16によって第1領域に重なった第2領域が検出されない場合、第1領域の検出を有効とする。判定部18は、第2検出部16によって第2領域が検出される一方、第1検出部14によって第2領域に重なった第1領域が検出されない場合、第2領域の検出を有効とする。判定部18は、撮像画像において第1領域と第2領域が重ならない場合、つまり、第1領域と第2領域が互いに離れている場合、第1領域および第2領域のそれぞれの検出を有効と判定する。
判定部18は、第1検出部14および第2検出部16の双方によって、検出対象物が含まれる領域が重なって検出された場合、撮像画像における検出された領域の重なりに応じて検出結果の有効性を判定する。判定部18は、撮像画像において第1領域と第2領域が重なる場合、つまり、第1検出部14および第2検出部16の検出対象物が重複している場合、第1領域および第2領域の一方の検出を有効とし、他方の検出を無効とする。判定部18は、例えば、撮像画像において第1領域と第2領域が重なる場合、第1領域の検出を有効とし、第2領域の検出を無効とする。判定部18は、撮像画像において第1領域と重なる第2領域の検出を無効とする。
判定部18は、第1検出部14または第2検出部16によって検出された検出領域のリストデータを管理してもよい。判定部18は、第1検出部14によって検出された第1領域のデータをリストに追加する。判定部18は、第2検出部16によって検出された第2領域のデータをリストに追加する。判定部18は、第1領域と第2領域が重なる場合、第1領域と重なる第2領域のデータをリストから削除する。この場合、リストに残った検出領域(第1領域または第2領域)が有効となり、リストから削除された検出領域(第1領域または第2領域)が無効となる。
図3は、第1領域52aと第2領域54aが重ならずに検出される撮像画像50aの一例を示す図である。第1検出部14によって検出される第1領域52aは、カメラ22から見て近くに位置するために撮像画像50aにおいて大きく見える歩行者を含む。第2検出部16によって検出される第2領域54aは、カメラ22から見て遠く位置するために撮像画像50aにおいて小さく見える歩行者を含む。
図3の場合、判定部18は、第1領域52aと第2領域54aが重ならないため、第1領域52aおよび第2領域54aの双方の検出を有効とする。これにより、第1領域52aおよび第2領域54aのそれぞれに含まれる歩行者を適切に検出できる。言い換えれば、近傍に位置する歩行者と遠方に位置する歩行者の双方を適切に検出できる。
図4は、第1領域52bと第2領域54bが重なって検出される撮像画像50bの一例を示す図である。第1検出部14によって検出される第1領域52bは、カメラ22から見て近くに位置するために撮像画像50bにおいて大きく見える歩行者を含む。第2検出部16によって検出される第2領域54bは、カメラ22から見て近くに位置する歩行者の右足部分を含む。図4の場合、第2検出部16は、近傍に位置する歩行者の部分(パーツ)を第2領域54bとして誤検出している。このような誤検出は、近傍に位置する歩行者の部分的な範囲の画像サイズが遠方用の第2検出モデルの検出サイズに近く、その部分的な範囲の輝度分布(例えば熱分布)が第2検出モデルに近似しているために発生しうる。
図4の場合、判定部18は、第1領域52bと第2領域54bが重なるため、第1領域52bの検出を有効とする一方で、第2領域54bの検出を無効とする。これにより、第2検出部16による誤検出を無効化し、第1領域52bに含まれる歩行者を適切に検出できる。
図1に戻り、表示制御部20は、判定部18の判定結果に基づいて表示用画像を生成し、生成した表示用画像を表示装置24に表示させる。表示制御部20は、判定部18によって有効とされた領域を示すための枠画像などの付加画像を撮像画像に重畳した表示用画像を生成する。表示制御部20は、判定部18が無効としていない領域の表示態様と、無効とした領域の表示態様とが互いに異なるように付加画像を重畳した表示用画像を生成する。表示制御部20は、例えば、判定部18が無効とした領域には付加画像を重畳しないようにする。表示制御部20は、判定部18が無効としていない領域、つまり、有効な領域には赤色枠などの第1付加画像を重畳し、判定部18が無効とした領域には緑色枠などの第1付加画像とは表示態様の異なる第2付加画像を重畳してもよい。
図5は、付加画像62aを重畳した表示用画像60aの一例を示す図である。図5の表示用画像60aは、図3の撮像画像50aを取得した場合に表示装置24に表示される。付加画像62aは、判定部18が無効としていない第1領域52aおよび第2領域54a(図3参照)のそれぞれに対応する位置に重畳されている。付加画像62aを重畳することにより、検出対象物を強調して表示できる。
図6は、付加画像62bを重畳した表示用画像60bの一例を示す図である。図6の表示用画像60bは、図4の撮像画像50bを取得した場合に表示装置24に表示される。付加画像62bは、判定部18が無効としていない第1領域52b(図4参照)に対応する位置に重畳されているが、判定部18が無効とした第2領域54b(図4参照)に対応する位置に重畳されていない。付加画像62bを重畳することにより、検出対象物を強調して表示できる。誤検出である第2領域54bに付加画像を重畳しないことにより、ユーザに誤った情報を伝えることを防止できる。
図7は、第1実施形態に係る画像認識方法の流れを示すフローチャートである。図7に示すフローチャートは、画像認識装置10が動作している間、または、カメラ22によって撮像がなされている間、繰り返し実行される。画像取得部12は、撮像画像を取得する(ステップS10)。第1検出部14は、近傍用の第1検出モデルを用いて、撮像画像において検出対象物が含まれる第1領域を検出する(ステップS12)。第2検出部16は、遠方用の第2検出モデルを用いて、撮像画像において検出対象物が含まれる第2領域を検出する(ステップS14)。
判定部18は、撮像画像において第1領域と第2領域が重なる場合(ステップS16のYes)、第1領域に重なる第2領域の検出を無効とする(ステップS18)。具体的には、撮影画像において第1領域および第2領域が検出され、検出された第1領域の範囲と、検出された第2領域の範囲が重なっている場合、第1領域に重なる第2領域の検出を無効とする。判定部18は、例えば、検出された第2領域の面積における90%以上が、検出された第1領域に重なっている場合に、第1領域に第2領域が重なっていると判定してもよい。
判定部18は、撮像画像において第1領域と第2領域が重ならない場合(ステップS16のNo)、ステップS18の処理をスキップする。判定部18は、第1領域と第2領域が重なる場合、第1領域の検出を有効とし、第2領域の検出を無効とする。判定部18は、無効とする第2領域以外の領域の検出を有効とする。判定部18は、第1領域と第2領域が重ならない場合、検出された第1領域および第2領域の検出を有効とする。表示制御部20は、有効とする領域に付加画像を重畳した表示用画像を生成し、表示装置24に表示させる(ステップS20)。表示制御部20は、有効とする領域が検出されている期間、付加画像を重畳した表示用画像を表示装置24に表示させる。
本実施形態によれば、第1検出部14によって検出される第1領域と、第2検出部16によって検出される第2領域とが重なる場合に、一方の領域を無効とすることにより、誤検出を防止できる。遠方用の第2検出モデルは、近傍用の第1検出モデルに比べて低解像度の学習用画像を使用するため、誤検出の可能性が相対的に高い。本実施形態によれば、近傍用の第1検出モデルによって検出される第1領域を優先することにより、第1領域と重なって誤検出される第2領域を無効化できる。これにより、検出対象物の検出精度を高めることができる。
(第2実施形態)
図8は、第2実施形態に係る画像認識装置70の機能構成を模式的に示すブロック図である。第2実施形態では、部分検出部72をさらに備え、判定部74が部分検出部72の検出結果を用いて検出の有効性を判定する点で、第1実施形態と相違する。以下、第2実施形態について、第1実施形態との相違点を中心に説明し、共通的について説明を適宜省略する。
図8は、第2実施形態に係る画像認識装置70の機能構成を模式的に示すブロック図である。第2実施形態では、部分検出部72をさらに備え、判定部74が部分検出部72の検出結果を用いて検出の有効性を判定する点で、第1実施形態と相違する。以下、第2実施形態について、第1実施形態との相違点を中心に説明し、共通的について説明を適宜省略する。
画像認識装置70は、画像取得部12と、第1検出部14と、第2検出部16と、部分検出部72と、判定部74と、表示制御部20とを備える。画像取得部12、第1検出部14、第2検出部16および表示制御部20は、第1実施形態と同様に構成される。
部分検出部72は、画像取得部12が取得する撮像画像において検出対象物の部分(パーツ)が含まれる部分領域を検出する。部分検出部72は、検出対象物の部分的な範囲の画像を入力として機械学習された部分検出モデルを用いて検出対象物の部分を検出する。部分検出モデルの学習用画像として、例えば、近傍用の第1検出モデルの学習用画像に含まれる検出対象物を部分的に切り出した画像を用いることができる。したがって、部分検出モデルの学習用画像の画像サイズは、第1検出モデルの機械学習に使用される入力画像のサイズよりも小さい。部分検出モデルの学習用画像の画像サイズは、第2検出モデルの機械学習に使用される入力画像のサイズと同程度であってもよい。
部分検出部72は、検出対象物の複数の部分のそれぞれを検出するための複数の部分検出モデルを有してもよい。検出対象物が歩行者の場合、例えば、頭、上半身、下半身、腕、脚のそれぞれを検出するための部分検出モデルを有してもよい。
部分検出部72は、第1検出部14によって検出される第1領域に含まれる検出対象物の部分を検出する。第1領域において検出対象物の部分が検出される場合、第1領域に検出対象物の全体が含まれる可能性が高いため、第1検出部14による検出が適切と考えられる。一方、第1領域において検出対象物の部分が検出されない場合、第1領域に検出対象物の全体が含まれない可能性が高いため、第1検出部14による検出が不適切であり、第1検出部14が誤検出していると考えられる。
判定部74は、第1領域または第2領域が重ならずに検出された場合、その検出を有効とする。判定部74は、第1領域および第2領域の双方が検出され、撮像画像において第1領域と第2領域が重なる場合、部分検出部72の検出結果を用いて、第1領域および第2領域の検出の有効性を判定する。
判定部74は、撮像画像において第1領域と第2領域が重なり、第1領域に部分領域が重なる場合、第1領域の検出を有効とし、第2領域の検出を無効とする。この場合、第1領域に含まれる検出対象物の部分が第2領域として検出されている可能性が高く、第2検出部16が誤検出している可能性が高い。判定部74は、撮像画像において第1領域と第2領域が重なり、第1領域と部分領域が重ならない場合、第1領域の検出を無効とし、第2領域の検出を有効とする。この場合、第1領域に検出対象物の全体が含まれる可能性が低く、第1検出部14が誤検出している可能性が高い。
図9は、第1領域52b、第2領域54bおよび部分領域56a,56b,56cが重なって検出される撮像画像50bの一例を示す図である。図9の撮像画像50bは、図4と同じであるが、部分検出部72によって第1部分領域56a、第2部分領域56bおよび第3部分領域56cが検出されている点で相違する。第1部分領域56aは、第1領域52bに含まれる歩行者の頭の検出領域である。第2部分領域56bは、第1領域52bに含まれる歩行者の上半身の検出領域である。第3部分領域56cは、第1領域52bに含まれる歩行者の下半身の検出領域である。
図9の場合、判定部74は、第1領域52bと第2領域54bが重なり、第1領域52bと部分領域56a~56cが重なるため、第1領域52bの検出を有効とし、第2領域54bの検出を無効とする。これにより、第2検出部16による誤検出を無効化し、第1領域52bに含まれる歩行者を適切に検出できる。表示制御部20は、図9の撮像画像50bを取得した場合、図6と同様の表示用画像60bを表示装置24に表示させる。
図9において、第1領域52bと部分領域56a~56cが重なる状態を示したが、第1領域52bに、第1部分領域56a、第2部分領域56bおよび第3部分領域56cのいずれかが重なっていることで、第1領域52bの検出を有効とし、第2領域54bの検出を無効としてもよい。
図9において、例えば、第1領域52bの上方に、頭部を検出した第1部分領域56aが重なっている場合に、第1領域52bの検出を有効とし、第2領域54bの検出を無効としてもよい。また、図9において、第1領域52bの上方に、上半身を検出した第2部分領域56bが重なっている場合に、第1領域52bの検出を有効とし、第2領域54bの検出を無効としてもよい。さらに、図9において、第1領域52bの下方に、下半身を検出した第3部分領域56cが重なっている場合に、第1領域52bの検出を有効とし、第2領域54bの検出を無効としてもよい。他の部分検出モデルを用いた検出であっても、歩行者が検出される範囲の適切な位置に部分領域が重なっていることで、第1領域52bの検出を有効とし、第2領域54bの検出を無効としてもよい。
図10は、第2実施形態に係る画像認識方法の流れを示すフローチャートである。図10に示すフローチャートにおけるステップS30からステップS36、ステップS42およびステップS46の処理は、図7に示すフローチャートにおけるステップS10からステップS16、ステップS18およびステップS20の処理と同一であるため、説明を省略する。
部分検出部72は、撮像画像において第1領域と第2領域が重なる場合(ステップS36のYes)、部分検出モデルを用いて、第1領域において検出対象物の部分が含まれる部分領域を検出する(ステップS38)。判定部74は、第1領域に重なる部分領域がある場合(ステップS40のYes)、第1領域に重なる第2領域の検出を無効とする(ステップS42)。判定部74は、第1領域に重なる部分領域がない場合(ステップS40のNo)、第2領域に重なる第1領域の検出を無効とする(ステップS44)。撮像画像において第1領域と第2領域が重ならない場合(ステップS36のNo)、ステップS38~S44の処理をスキップする。
本実施形態によれば、第1領域と第2領域とが重なる場合に、第1領域において検出対象物の部分の有無を検出することにより、第1領域の検出の有効性をより適切に判定できる。第1領域において検出対象物の部分が検出される場合に、第1領域の検出を有効とし、第2領域の検出を無効とすることで、第1領域と重なって誤検出される第2領域を無効化できる。一方、第1領域において検出対象物の部分が検出されない場合に、第2領域の検出を有効とし、第1領域の検出を無効とすることで、第2領域と重なって誤検出される第1領域を無効化できる。これにより、検出対象物の検出精度を高めることができる。
第2実施形態において、判定部74は、第1領域と第2領域が重なる場合に、第1領域に複数の部分領域が検出される場合に第1領域の検出を有効としてもよい。例えば、頭、上半身、下半身、腕、脚のうちのいずれか二以上の部分領域が検出される場合に第1領域の検出を有効としてもよい。
以上、本発明を上述の実施の形態を参照して説明したが、本発明は上述の実施の形態に限定されるものではなく、実施の形態に示す各構成を適宜組み合わせたものや置換したものについても本発明に含まれるものである。
10,70…画像認識装置、12…画像取得部、14…第1検出部、16…第2検出部、18,74…判定部、20…表示制御部、22…カメラ、24…表示装置、72…部分検出部。
Claims (5)
- 撮像画像を取得する画像取得部と、
所定値以上の画像サイズを有する画像を入力として機械学習された第1検出モデルを用いて、前記撮像画像において検出対象物が含まれる第1領域を検出する第1検出部と、
前記所定値未満の画像サイズを有する画像を入力として機械学習された第2検出モデルを用いて、前記撮像画像において前記検出対象物が含まれる第2領域を検出する第2検出部と、
前記撮像画像において前記第1領域と前記第2領域が重なる場合、前記第1領域および前記第2領域のいずれか一方の検出を無効とする判定部と、を備える画像認識装置。 - 前記判定部は、前記撮像画像において前記第1領域と前記第2領域が重なる場合、前記第2領域の検出を無効とする、請求項1に記載の画像認識装置。
- 機械学習された部分検出モデルを用いて、前記検出対象物の部分が含まれる部分領域を検出する部分検出部をさらに備え、
前記判定部は、
a)前記撮像画像において前記第1領域と前記第2領域が重なり、前記第1領域と前記部分領域が重なる場合、前記第2領域の検出を無効とし、
b)前記撮像画像において前記第1領域と前記第2領域が重なり、前記第1領域と前記部分領域が重ならない場合、前記第1領域の検出を無効とする、
請求項1に記載の画像認識装置。 - 前記判定部が無効としていない前記第1領域または前記第2領域の表示態様が、前記判定部が無効とした前記第1領域または前記第2領域の表示態様と異なるように、前記撮像画像に付加画像を重畳した表示用画像を表示装置に表示させる表示制御部をさらに備える、請求項1から3のいずれか一項に記載の画像認識装置。
- 撮像画像を取得するステップと、
所定値以上の画像サイズを有する画像を入力として機械学習された第1検出モデルを用いて、前記撮像画像において検出対象物が含まれる第1領域を検出するステップと、
前記所定値未満の画像サイズを有する画像を入力として機械学習された第2検出モデルを用いて、前記撮像画像において前記検出対象物が含まれる第2領域を検出するステップと、
前記撮像画像において前記第1領域と前記第2領域が重なる場合、前記第1領域および前記第2領域のいずれか一方の検出を無効とするステップと、を備える画像認識方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022100235A JP2024001527A (ja) | 2022-06-22 | 2022-06-22 | 画像認識装置および画像認識方法 |
PCT/JP2023/013908 WO2023248577A1 (ja) | 2022-06-22 | 2023-04-04 | 画像認識装置および画像認識方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022100235A JP2024001527A (ja) | 2022-06-22 | 2022-06-22 | 画像認識装置および画像認識方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024001527A true JP2024001527A (ja) | 2024-01-10 |
Family
ID=89379513
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022100235A Pending JP2024001527A (ja) | 2022-06-22 | 2022-06-22 | 画像認識装置および画像認識方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2024001527A (ja) |
WO (1) | WO2023248577A1 (ja) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5423631B2 (ja) * | 2010-09-24 | 2014-02-19 | 株式会社デンソー | 画像認識装置 |
JP5829155B2 (ja) * | 2012-03-13 | 2015-12-09 | 株式会社豊田中央研究所 | 歩行者検出装置及びプログラム |
JP2018005520A (ja) * | 2016-06-30 | 2018-01-11 | クラリオン株式会社 | 物体検出装置及び物体検出方法 |
JP2021125137A (ja) * | 2020-02-07 | 2021-08-30 | オムロン株式会社 | 画像処理装置および画像処理方法 |
-
2022
- 2022-06-22 JP JP2022100235A patent/JP2024001527A/ja active Pending
-
2023
- 2023-04-04 WO PCT/JP2023/013908 patent/WO2023248577A1/ja unknown
Also Published As
Publication number | Publication date |
---|---|
WO2023248577A1 (ja) | 2023-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6013884B2 (ja) | 物体検出装置及び物体検出方法 | |
JP6650677B2 (ja) | 映像処理装置、映像処理方法、およびプログラム | |
JP5737401B2 (ja) | 瞼検出装置 | |
JP5001930B2 (ja) | 動作認識装置及び方法 | |
JP2016143157A (ja) | 画像処理装置、画像処理方法、及び画像処理システム | |
JP6722878B2 (ja) | 顔認証装置 | |
KR20100075167A (ko) | 얼굴인식 기능을 이용한 디지털 영상 촬영 장치 및 방법 | |
JP5061563B2 (ja) | 検出装置、生体判定方法、およびプログラム | |
JP4969291B2 (ja) | 移動物体追跡装置 | |
JP2010191793A (ja) | 警告表示装置及び警告表示方法 | |
JP2015041323A (ja) | 処理装置 | |
JP2009083632A (ja) | 移動物体検出装置 | |
JP2009064395A (ja) | ポインティングデバイス、操作者の注視位置とカーソルの位置との誤差の補正をコンピュータに実行させるためのプログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体 | |
JP2011089784A (ja) | 物体方向推定装置 | |
JP2007280088A (ja) | 特定物体検出装置、特定物体検出方法、及び特定物体検出プログラム | |
WO2023248577A1 (ja) | 画像認識装置および画像認識方法 | |
JP5416489B2 (ja) | 三次元指先位置検出方法、三次元指先位置検出装置、およびプログラム | |
CN112507767B (zh) | 脸部辨识方法及其相关电脑系统 | |
JP5502149B2 (ja) | 車両周辺監視装置 | |
JP6431346B2 (ja) | 顔認識装置 | |
JP2011134119A (ja) | 車両周辺監視装置 | |
JP2011175405A (ja) | 表示装置および表示装置における操作可能範囲表示方法 | |
JP5004099B2 (ja) | カーソル移動制御方法及びカーソル移動制御装置 | |
JP4140399B2 (ja) | 視線方向検出装置および視線方向検出方法 | |
TW201328312A (zh) | 修正紅眼的影像處理方法及裝置 |