JP6971894B2 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP6971894B2
JP6971894B2 JP2018043324A JP2018043324A JP6971894B2 JP 6971894 B2 JP6971894 B2 JP 6971894B2 JP 2018043324 A JP2018043324 A JP 2018043324A JP 2018043324 A JP2018043324 A JP 2018043324A JP 6971894 B2 JP6971894 B2 JP 6971894B2
Authority
JP
Japan
Prior art keywords
image
dictionary
detection
layer
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018043324A
Other languages
English (en)
Other versions
JP2019159575A (ja
Inventor
貢己 山田
道生 山下
亮 押切
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Electronic Devices and Storage Corp
Original Assignee
Toshiba Corp
Toshiba Electronic Devices and Storage Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Electronic Devices and Storage Corp filed Critical Toshiba Corp
Priority to JP2018043324A priority Critical patent/JP6971894B2/ja
Priority to US16/121,415 priority patent/US20190279025A1/en
Publication of JP2019159575A publication Critical patent/JP2019159575A/ja
Application granted granted Critical
Publication of JP6971894B2 publication Critical patent/JP6971894B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/248Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"
    • G06V30/2504Coarse or fine approaches, e.g. resolution of ambiguities or multiscale approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Description

本発明の実施形態は、画像処理装置に関する。
従来、入力した画像から解像度の異なる画像をレイヤ化させた画像ピラミッドを生成し、画像ピラミッドを探索し、様々なサイズのオブジェクトを検出するオブジェクト検出技術がある。
オブジェクト検出技術では、より精度の高い検出ができるように画像ピラミッドのレイヤを増やすと、処理コストが増大する。
特許第5092037号公報
実施形態は、検出精度を落とすことなく、より処理コストを軽減でき、入力画像からオブジェクトの検出をすることができる、画像処理装置を提供することを目的とする。
実施形態の画像処理装置は、画像ピラミッド生成部、メモリ及び照合部を有する。画像ピラミッド生成部は、入力画像に基づいて、互いにサイズが異なる複数のレイヤ画像を有する画像ピラミッドを生成する。メモリは、第1オブジェクトを検出するための第1辞書と、前記第1オブジェクトを第1所定縮小率だけ縮小した第2オブジェクトを検出するための第2辞書とを記憶する。照合部は、前記レイヤ画像内を移動する検出枠毎に、前記第1辞書及び前記第2辞書の各々と、前記検出枠内の検出枠内画像との照合を行って尤度を算出する。
実施形態に関わる、画像処理装置の構成の一例を示すブロック図である。 実施形態に関わる、画像処理装置の検出処理を説明するための説明図である。 実施形態に関わる、画像処理装置の検出処理を説明するための説明図である。 実施形態に関わる、画像処理装置のグルーピング処理を説明するための説明図である。 実施形態に関わる、画像処理装置の検出処理の流れの一例を説明するためのフローチャートである。
(実施形態)
以下、図面を参照して実施形態を説明する。
(構成)
図1は、実施形態に関わる、画像処理装置1の構成の一例を示すブロック図である。図2は、実施形態に関わる、画像処理装置1の検出処理を説明するための説明図である。図2の文字「A」は、説明のため、模式的に示したオブジェクトの一例である。図3は、実施形態に関わる、画像処理装置1の検出処理を説明するための説明図である。図4は、実施形態に関わる、画像処理装置1のグルーピング処理を説明するための説明図である。
画像処理装置1は、メモリ11、画像ピラミッド生成部21、特徴量算出部31、及び、プロセッサ41を有する。
メモリ11は、SRAM又はDRAM等の記憶素子によって構成される。メモリ11は、画像ピラミッド生成部21、特徴量算出部31及びプロセッサ41と接続される。
メモリ11は、入力画像I、画像ピラミッドIp、第1辞書W1及び第2辞書W2等の各種データを記憶する。また、メモリ11は、照合部42のプログラムP1及び判定部43のプログラムP2も記憶する。
メモリ11は、例えばカメラ又は記憶媒体等の外部装置から入力画像Iが入力される。メモリ11は、画像ピラミッド生成部21によって入力画像Iを読み出し可能である。
メモリ11は、画像ピラミッド生成部21から画像ピラミッドIpが入力される。メモリ11は、特徴量算出部31によって画像ピラミッドIpを読み出し可能である。
第1辞書W1及び第2辞書W2は、互いに異なるサイズのオブジェクトの検出に用いる。
第1オブジェクトは、所定サイズを有する検出対象のオブジェクトである。第2オブジェクトは、第1オブジェクトを第1所定縮小率だけ縮小した、検出対象のオブジェクトである。以下、第1オブジェクト及び第2オブジェクトの両方又はいずれか一方を示すとき、オブジェクトという。
第1辞書W1は、第1オブジェクトを検出するための第1重みWz1を有する。第2辞書W2は、第2オブジェクトを検出するための第2重み量Wz2を有する。以下、第1重み量Wz1及び第2重み量Wz2の両方又はいずれか一方を示すとき、重み量Wzという。
第1重み量Wz1及び第2重み量Wz2は、互いに構造が同じである。例えば、第1重み量Wz1の構成要素数がn個であれば、第2重み量Wz2の構成要素数もn個である。
重み量Wzは、所定の学習処理によって予め生成される。図2に示すように、第1辞書W1は、オブジェクト領域A1を有する第1教師画像J1によって学習が行われる。第2辞書W2は、オブジェクト領域A1から第1所定縮小率だけ縮小されたオブジェクト領域A2を有する第2教師画像J2によって学習が行われる。オブジェクト領域A1には第1オブジェクトを配置可能である。オブジェクト領域A2には第2オブジェクトを配置可能である。図2の例では、第1所定縮小率は、0.6である。
所定の学習処理では、オブジェクトが配置された第1教師画像J1及び第2教師画像J2に基づいて算出された特徴量F(z)との演算結果が相対的に大きくなり、一方、オブジェクトが配置されていない第1教師画像J1及び第2教師画像J2に基づいて算出された特徴量F(z)との演算結果が相対的に小さくなるように、重み量Wzを生成する。
すなわち、メモリ11は、第1オブジェクトを検出するための第1辞書W1と、第1オブジェクトを第1所定縮小率だけ縮小した第2オブジェクトを検出するための第2辞書W2とを記憶する。第1辞書W1は、第1オブジェクトを有する第1教師画像J1に基づいて、所定の学習処理によって生成され、第2辞書W2は、第2オブジェクトを有する第2教師画像J2に基づいて、所定の学習処理によって生成される。第1辞書W1は、第1オブジェクトを検出するための第1重み量Wz1を有し、第2辞書W2は、第2オブジェクトを検出するための第2重み量Wz2を有する。
図3に示すように、画像ピラミッド生成部21は、画像ピラミッドIpを生成する回路である。より具体的には、画像ピラミッド生成部21は、メモリ11から読み込んだ入力画像Iに基づいて、レイヤ画像Lを有する画像ピラミッドIpを生成し、メモリ11に出力する。レイヤ画像L間の縮小率は、第2所定縮小率に設定される。
図3は、入力画像Iから第1レイヤ画像L1と、第1レイヤ画像L1を第2所定縮小率だけ縮小させた第2レイヤ画像L2を含む、画像ピラミッドIpを生成した例である。図3の例では、第2所定縮小率は、0.36であり、第2レイヤ画像L2が第1レイヤ画像L1から0.36倍に縮小される。以下、第1レイヤ画像L1及び第2レイヤ画像L2の全て又は一部を示すとき、レイヤ画像Lという。
第1所定縮小率及び第2所定縮小率は、オブジェクトの検出の精度が高くなるように、経験的又は実験的に設定される。第1所定縮小率は、第2所定縮小率よりも大きい値に設定される。図3の例では、第2所定縮小率は、第1所定縮小率の2乗に設定されるがこれに限定されない。
すなわち、画像ピラミッド生成部21は、入力画像Iに基づいて、互いにサイズが異なる複数のレイヤ画像Lを有する画像ピラミッドIpを生成する。画像ピラミッド生成部21は、第1レイヤ画像L1と、第1所定縮小率よりも小さい第2所定縮小率だけ第1レイヤ画像L1を縮小させた第2レイヤ画像L2とを含む、画像ピラミッドIpを生成する。
特徴量算出部31は、特徴量F(z)を算出する回路である。特徴量算出部31は、メモリ11から読み込んだ画像ピラミッドIpから特徴量F(z)を算出してプロセッサ41に出力する。
より具体的には、特徴量算出部31は、検出枠Dによって画像ピラミッドIpに含まれるレイヤ画像Lの各々を走査する。例えば、特徴量算出部31は、レイヤ画像L内において、検出枠Dを移動させてx方向へ走査を行い、x方向の走査が終了すると、y方向に1つ移動してx方向へ走査を行う。xy方向の走査が終了すると、特徴量算出部31は、次のレイヤに配置されたレイヤ画像Lの走査を行う。
特徴量算出部31は、レイヤ画像Lから検出枠D内の画像を取得し、特徴量F(z)を算出する。特徴量F(z)は、例えば、検出枠D内の画素の各々に基づいて、勾配を算出し、勾配を階級としてヒストグラム化することによって算出する。例えば、特徴量算出部31は、検出枠D内の画素の各々が、8つの輝度勾配方向a1〜a8のいずれであるかを算出し、輝度勾配方向a1〜a8の度数に基づいて、特徴量F(z)、(但し、z=a1〜a8)を算出する。
なお、特徴量F(z)は、これに限定されず、検出枠D内の分割領域の勾配強度に基づいて算出してもよいし、検出枠D内の画素の色相に基づいて算出してもよいし、検出枠D内の検出枠D内の画素をそのまま特徴量F(z)にしてもよいし、また、他の方法によって算出してもよい。所定の学習処理では、特徴量算出部31における特徴量F(z)の算出方法に基づいて、重み量Wzの学習が行われる。
プロセッサ41は、MPU等の処理装置によって構成される。プロセッサ41は、画像処理装置1内の各部と接続され、画像処理装置1内の各部の制御を行う。プロセッサ41は、メモリ11からプログラムP1、P2を読み込み、プログラムP1を実行することによって照合部42の機能を実現し、プログラムP2を実行することによって判定部43の機能を実現する。プロセッサ41は、外部装置と接続され、判定部43の判定結果Zを外部装置に出力する。
照合部42は、第1辞書W1及び第2辞書W2の各々と、レイヤ画像L内を移動する検出枠D内の検出枠内画像との照合を行う。より具体的には、照合部42は、第1重み量Wz1と特徴量F(z)に基づく所定の演算を行い、第1尤度を算出する。また、照合部42は、第2重み量Wz2と特徴量F(z)に基づく所定の演算を行い、第2尤度を算出する。照合部42は、第1尤度及び第2尤度と、第1尤度及び第2尤度に対応付けられたレイヤ画像Lのレイヤ方向の位置であるレイヤ方向位置及び検出枠Dの枠座標とを含む照合結果Yを判定部43に出力する。
所定の演算は、例えば、数式(1)に示すように、重み量Wz(z)と特徴量F(z)の内積演算である。数式(1)において、Scが第1尤度又は第2尤度のいずれか一方である。
Sc=ΣWz(z)・F(z)、(但し、z=1からn)
=Wz(1)×F(1)+Wz(2)×F(2)・・・Wz(n)×F(n)・・・(1)
すなわち、照合部42は、第1重み量Wz1及び第2重み量Wz2の各々と、検出枠内画像から算出した特徴量F(z)との演算によって照合を行う。
判定部43は、判定処理を行い、照合部42から入力された照合結果Yに基づいて、オブジェクトの検出数、検出位置、検出サイズ、検出スコアを含む判定結果Zを出力する。
判定部43は、第1尤度又は第2尤度の少なくとも一方が所定尤度閾値以上である検出候補を抽出する。所定尤度閾値は、第1尤度及び第2尤度に基づいて、オブジェクトが検出できるように、経験的又は実験的に設定される。検出候補が複数抽出されると、判定部43は、互いの検出候補に対応付けられたレイヤ方向位置及び枠座標に基づいて、グルーピング処理を行い、同一オブジェクトと判定された検出候補をグルーピングし、検出候補グループを生成する。
図4に示すように、グルーピング処理では、判定部43は、検出候補と全部又は一部の領域が重なり合う重複検出候補を、他の検出候補の中から抽出する。続いて、判定部43は、重なり合った部位における重なり面積Sm1と、検出候補及び重複検出候補によって区画された検出候補面積Sm2とを算出する。続いて、Sm1/Sm2の算出値が所定面積閾値以上であるとき、判定部43は、検出候補と重複検出候補を同一オブジェクトであると判定する。図4の例では、判定部43は、検出候補D1について、検出候補D1の他の検出候補D2〜D4の中から、重複検出候補D2、D3を抽出する。続いて、判定部43は、図4のハッチングによって示される重なり面積Sm1と、実線によって囲まれた検出候補面積Sm2を算出し、Sm1/Sm2の算出値が所定面積閾値以上であるとき、検出候補D1と重複検出候補D2を同一オブジェクトであると判定する。重複検出候補D3は、Sm1/Sm2の算出値が所定面積閾値未満であり、同一オブジェクトではないと判定された例である。
判定部43は、検出候補グループの数と、グルーピングされていない検出候補の数とを合計し、検出数を決定する。
判定部43は、検出位置を決定する。検出候補グループの検出位置は、検出候補グループに含まれる複数の検出候補に対応付けられた枠座標の中心位置に応じて決定される。グルーピングされていない検出候補の検出位置は、検出候補に対応付けられた枠座標の中心位置に応じて決定される。
判定部43は、レイヤ方向位置、第1尤度、第2尤度に基づいて、検出候補グループ及びグルーピングされていない検出候補の検出サイズを決定する。より具体的には、判定部43は、レイヤ方向位置におけるレイヤ画像Lの入力画像Iに対する縮小率を算出する。続いて、判定部43は、オブジェクト領域A1、A2のサイズと縮小率に基づいて、検出サイズを決定する。例えば、判定部43は、オブジェクト領域A1、A2のサイズが16画素×16画素であり、縮小率が0.5であるとき、オブジェクト領域A1、A2のサイズに縮小率の逆数を乗算し、検出サイズを32×32画素に応じて決定する。オブジェクト領域A1、A2のサイズは、第1尤度が第2尤度以上であるとき、オブジェクト領域A1のサイズが用いられ、一方、第1尤度が第2尤度未満であるとき、オブジェクト領域A2のサイズが用いられる。すなわち、判定部43は、第1尤度が第2尤度以上であるとき、第1オブジェクトのサイズに応じて検出サイズを決定し、第1尤度が第2尤度未満であるとき、第2オブジェクトのサイズに応じて検出サイズを決定する。
判定部43は、第1尤度と第2尤度のいずれか高い方を検出スコアに決定する。
なお、上述の処理は、判定部43における判定処理の一例であって、判定処理を限定するものではない。判定部43は、上述の判定処理以外の処理によってオブジェクトの検出数、検出位置、検出サイズ、検出スコアを決定してもよい。
(作用)
次に、実施形態に係る画像処理装置1の作用について説明をする。
図5は、実施形態に関わる、画像処理装置1の検出処理の流れの一例を説明するためのフローチャートである。
画像処理装置1は、入力画像Iを入力する(S1)。メモリ11は、入力された入力画像Iを記憶する。画像ピラミッド生成部21は、メモリ11に記憶された入力画像Iを読み込み、画像ピラミッドIpを生成する(S2)。画像ピラミッド生成部21は、画像ピラミッドIpをメモリ11に出力する。メモリ11は、画像ピラミッドIpを記憶する(S3)。
特徴量算出部31は、走査対象のレイヤ画像Lを決定する(S4)。S4〜S12は、繰り返して処理が行われ、特徴量算出部31は、繰り返し回数に応じ、走査対象のレイヤ画像Lを決定する。
特徴量算出部31は、検出枠Dの位置を決定する(S5)。S5〜S11は、繰り返して処理が行われ、特徴量算出部31は、繰り返し回数に応じ、レイヤ画像Lを走査する検出枠Dの位置を決定する。
特徴量算出部31は、特徴量F(z)を算出する(S6)。特徴量算出部31は、検出枠D内の画像に基づいて、特徴量F(z)を算出し、プロセッサ41に出力する。
プロセッサ41は、照合部42の処理を実行する。照合部42は、第1辞書W1に基づいて、第1尤度を算出する(S7)。照合部42は、第1尤度、レイヤ方向位置、及び、枠座標を含む照合結果Yをメモリ11に出力して記憶させる(S8)。照合部42は、第2辞書W2に基づいて、第2尤度を算出する(S9)。照合部42は、第2尤度、レイヤ方向位置、及び、枠座標を含む照合結果Yをメモリ11に出力して記憶させる(S10)。S7及びS8と、S9及びS10とは、並列的に処理されるが、直列的に処理されても構わない。
全ての位置の検出枠Dの処理が終了していないとき、処理はS5に戻る(S11:NO)。一方、全ての位置の検出枠Dの処理が終了しているとき、処理はS12に進む(S11:YES)。
全てのレイヤ画像Lの処理が終了していないとき、処理は、S4に戻る(S12:NO)。一方、全てのレイヤ画像Lの処理が終了しているとき、処理は、S13に進む(S12:YES)。
判定部43は、メモリ11から照合結果Yを読み込み、判定処理を行う(S13)。判定部43は、判定処理によってオブジェクトの検出数、検出位置、検出サイズ、検出スコアを決定する。判定部43は、判定結果Zを外部装置に出力する(S14)。
S1〜S14の処理が画像処理装置1の検出処理を構成する。
これにより、画像処理装置1では、第1辞書W1及び第2辞書W2を用い、1つのレイヤ画像Lから互いに異なるサイズの第1オブジェクト及び第2オブジェクトの検出を行う。図3の例では、例えば第1レイヤ画像L1aを有しなくても、第1レイヤ画像L1において、第2オブジェクトを検出することができる。したがって、画像処理装置1では、検出精度を落とすことなく、生成時の処理コストの高い第1レイヤ画像L1a、L2aを削減可能であり、処理コストが軽減される。
また、画像処理装置1では、第1辞書W1及び第2辞書W2において、検出枠Dに対するオブジェクトのサイズが互いに異なるように設定され、あたかも他のレイヤ画像Lも含めて探索を行うように、現レイヤ画像Lの探索を行うことができる。
つまり、画像処理装置1は、検出枠Dから抽出した検出枠内画像、又は、検出枠内画像から取得された特徴量F(z)に対してオブジェクトのサイズが互いに異なる2種類の尤度計算を行い、1つのレイヤ画像Lに対する1回の探索により、あたかも2つのレイヤ画像Lに対する探索を行ったかのような効果を得ることができる。すなわち、画像処理装置1では、1回の探索における検出枠Dの各位置において、複数の辞書を用いた複数回の尤度計算を行う。
レイヤ画像Lは、データ量が大きく、レイヤ画像Lを1個余計に処理すると、外部メモリとのアクセス頻度が増え、画像縮小処理の処理負荷の増大、メモリ必要量の増大を招く。探索1回に対しても、例えば、1辺が1000画素程度の画像に対してくまなく探索するためには、検出枠Dを数千箇所の位置に置いて、検出枠内画像を抽出し、特徴量F(z)を計算しなければならないので、処理コストが増大する。それに対して、特徴量F(z)と第1辞書W1及び第2辞書W2を用いた尤度計算は、ほぼ特徴量F(z)の次元の内積演算で済むため、尤度計算を1個余計に行うときの処理コストの増加はそれ程大きくない。
実施形態によれば、画像処理装置1は、検出精度を落とすことなく、より処理コストを軽減でき、入力画像Iからオブジェクトの検出をすることができる。
なお、実施形態では、画像処理装置1は、第1辞書W1及び第2辞書W2を有するがこれに限定されず、第3辞書を有してもよいし、それ以上の数の辞書を有してもよい。
なお、実施形態では、各部の機能は、回路の構成及びプロセッサ41が実行するプログラムP1、P2によって実現されるが、回路の構成をプロセッサ41が実行するプログラムによって実現してよいし、プログラムP1、P2によって実現される機能を回路によって構成してもよい。
本発明の実施形態を説明したが、これらの実施形態は、例として示したものであり、本発明の範囲を限定することは意図していない。これら新規の実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1・・・画像処理装置、11・・・メモリ、21・・・画像ピラミッド生成部、31・・・特徴量算出部、41・・・プロセッサ、42・・・照合部、43・・・判定部、A1、A2・・・オブジェクト領域、D・・・検出枠、I・・・入力画像、Ip・・・画像ピラミッド、J1・・・第1教師画像、J2・・・第2教師画像、P1、P2・・・プログラム、L・・・レイヤ画像、Sm1・・・重なり面積、Sm2・・・検出候補面積、W1・・・第1辞書、W2・・・第2辞書、Wz・・・重み量、Y・・・照合結果、Z・・・判定結果

Claims (4)

  1. 入力画像に基づいて、互いにサイズが異なる複数のレイヤ画像を有する画像ピラミッドを生成する画像ピラミッド生成部と、
    第1オブジェクトを検出するための第1辞書と、前記第1オブジェクトを第1所定縮小率だけ縮小した第2オブジェクトを検出するための第2辞書とを記憶するメモリと、
    前記レイヤ画像内を移動する検出枠毎に、前記第1辞書及び前記第2辞書の各々と、前記検出枠内の検出枠内画像との照合を行って尤度を算出する、照合部と、
    を有する画像処理装置。
  2. 前記第1辞書は、前記第1オブジェクトを有する第1教師画像に基づいて、所定の学習処理によって生成され、
    前記第2辞書は、前記第2オブジェクトを有する第2教師画像に基づいて、前記所定の学習処理によって生成される、
    請求項1に記載の画像処理装置。
  3. 前記第1辞書は、前記第1オブジェクトを検出するための第1重み量を有し、
    前記第2辞書は、前記第2オブジェクトを検出するための第2重み量を有し、
    前記照合部は、前記第1重み量及び前記第2重み量の各々と、前記検出枠内画像から算出した特徴量との演算によって前記照合を行う、
    請求項1に記載の画像処理装置。
  4. 前記画像ピラミッド生成部は、第1レイヤ画像と、前記第1所定縮小率よりも小さい第2所定縮小率だけ前記第1レイヤ画像を縮小させた第2レイヤ画像とを含む、前記画像ピラミッドを生成する、請求項1に記載の画像処理装置。
JP2018043324A 2018-03-09 2018-03-09 画像処理装置 Active JP6971894B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018043324A JP6971894B2 (ja) 2018-03-09 2018-03-09 画像処理装置
US16/121,415 US20190279025A1 (en) 2018-03-09 2018-09-04 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018043324A JP6971894B2 (ja) 2018-03-09 2018-03-09 画像処理装置

Publications (2)

Publication Number Publication Date
JP2019159575A JP2019159575A (ja) 2019-09-19
JP6971894B2 true JP6971894B2 (ja) 2021-11-24

Family

ID=67844544

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018043324A Active JP6971894B2 (ja) 2018-03-09 2018-03-09 画像処理装置

Country Status (2)

Country Link
US (1) US20190279025A1 (ja)
JP (1) JP6971894B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7424236B2 (ja) 2020-07-14 2024-01-30 株式会社Jvcケンウッド 画像認識装置、画像認識方法および認識辞書生成方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4561380B2 (ja) * 2005-01-24 2010-10-13 コニカミノルタホールディングス株式会社 検出装置、検出方法及び検出プログラム
JP4540661B2 (ja) * 2006-02-28 2010-09-08 三洋電機株式会社 物体検出装置
JP5442912B1 (ja) * 2013-03-13 2014-03-19 楽天株式会社 画像処理装置、画像処理方法、および画像処理プログラム
EP3092603B1 (en) * 2014-01-07 2022-05-11 ML Netherlands C.V. Dynamic updating of composite images
US9978095B2 (en) * 2014-08-30 2018-05-22 Digimarc Corporation Methods and arrangements including data migration among computing platforms, E.G. through use of steganographic screen encoding
US10463315B2 (en) * 2014-12-01 2019-11-05 Covidien Lp Adaptive alarm for physiological monitoring
JP6548920B2 (ja) * 2015-03-09 2019-07-24 株式会社東芝 情報処理装置、情報処理方法及びプログラム
JP2017021695A (ja) * 2015-07-14 2017-01-26 株式会社東芝 情報処理装置および情報処理方法

Also Published As

Publication number Publication date
JP2019159575A (ja) 2019-09-19
US20190279025A1 (en) 2019-09-12

Similar Documents

Publication Publication Date Title
CN110163193B (zh) 图像处理方法、装置、计算机可读存储介质和计算机设备
US20160358337A1 (en) Image semantic segmentation
Haloi Traffic sign classification using deep inception based convolutional networks
KR20210154164A (ko) 검출 방법 및 검출 시스템
Rashwan et al. Matrix Nets: A new deep architecture for object detection
KR102370910B1 (ko) 딥러닝 기반 소수 샷 이미지 분류 장치 및 방법
Zheng et al. Open set adversarial examples
JP6754120B2 (ja) プログラム、情報記憶媒体及び文字分割装置
Singh et al. Optical character recognition using template matching and back propagation algorithm
US11176455B2 (en) Learning data generation apparatus and learning data generation method
JP6971894B2 (ja) 画像処理装置
WO2011037097A1 (ja) パターン認識方法及び該方法を用いたパターン認識装置
Widiarti Comparing Hilditch, Rosenfeld, Zhang-Suen, and Nagendraprasad-Wang-Gupta Thinning
Watanabe et al. Japanese character segmentation for historical handwritten official documents using fully convolutional networks
CN109657577B (zh) 一种基于熵和运动偏移量的动物检测方法
CN111368831A (zh) 一种竖排文字的定位系统及方法
JP2009093500A (ja) データ処理装置
CN113658080B (zh) 一种基于特征点匹配的线扫圆柱体几何校正方法及装置
Wu et al. Improved YOLOv5s With Coordinate Attention for Small and Dense Object Detection From Optical Remote Sensing Images
Tobeta et al. E2pose: Fully convolutional networks for end-to-end multi-person pose estimation
Li et al. Box refinement: Object proposal enhancement and pruning
CN109492685B (zh) 一种用于对称特征的目标物体视觉检测方法
Alasag et al. Face recognition in low resolution images by using local Zernike moments
Kang et al. Learning text-line segmentation using codebooks and graph partitioning
Diaz-Zapata et al. Yolo-based panoptic segmentation network

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20191008

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211102

R150 Certificate of patent or registration of utility model

Ref document number: 6971894

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150