JP2018063675A - 画像処理装置および制御方法 - Google Patents

画像処理装置および制御方法 Download PDF

Info

Publication number
JP2018063675A
JP2018063675A JP2016203031A JP2016203031A JP2018063675A JP 2018063675 A JP2018063675 A JP 2018063675A JP 2016203031 A JP2016203031 A JP 2016203031A JP 2016203031 A JP2016203031 A JP 2016203031A JP 2018063675 A JP2018063675 A JP 2018063675A
Authority
JP
Japan
Prior art keywords
detection
detection area
image processing
processing apparatus
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016203031A
Other languages
English (en)
Other versions
JP6525934B2 (ja
Inventor
岩本 和成
Kazunari Iwamoto
和成 岩本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016203031A priority Critical patent/JP6525934B2/ja
Priority to EP17189300.1A priority patent/EP3309710A1/en
Priority to US15/715,338 priority patent/US11048929B2/en
Priority to CN201710954160.3A priority patent/CN107958202B/zh
Publication of JP2018063675A publication Critical patent/JP2018063675A/ja
Application granted granted Critical
Publication of JP6525934B2 publication Critical patent/JP6525934B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】被写体領域を検出する際、各検出領域間の重複関係および位置関係にかかわらず、各検出領域を適切に評価することを可能にする。
【解決手段】
画像処理装置は、撮像部によって撮像された撮像画像を取得し、撮像画像から所定の被写体の領域を検出領域として検出し、検出領域のうちの評価対象の検出領域と他の検出領域を比較することにより、評価対象の検出領域を評価する。
【選択図】 図1

Description

本発明は画像処理装置および制御方法に関する。
画像から人物や車などの特定の被写体またはその一部の領域を検出する技術が知られている。また、画像から特定の被写体が映る領域を検出する際に、誤検出を低減するための技術が知られている。例えば、特許文献1では検出された被写体領域が重複していた際、それらの重複状態から、それぞれの検出結果が誤検出か否かを判断する方法が開示されている。また特許文献2では、検出された頭部領域から所定距離以内に他の頭部領域が検出されていた場合、いずれかの検出結果を無効とする方法が開示されている。
特開2013−061802号公報 特開2012−212968号公報
しかしながら特許文献1に開示された技術では、検出された被写体領域が誤検出か否かを判断するために、検出された二つ以上の被写体領域が重複している必要がある、という課題があった。また、特許文献2に開示された技術では、注目している頭部検出領域から所定の範囲内の頭部検出領域は誤検出とみなすため、前述の所定の範囲内に存在する正しい頭部検出領域が誤検出と判断される可能性があるという課題があった。
本発明は、上記の課題を解決するためになされたもので、各検出領域間の重複関係、および位置関係にかかわらず、検出領域それぞれについて正確な評価を可能にすることを目的とする。
上記目的を達成するための、本発明の一態様による画像処理装置は以下の構成を備える。すなわち、
撮像手段によって撮像された撮像画像を取得する取得手段と、
前記撮像画像から所定の被写体の領域を検出領域として検出する検出手段と、
前記検出領域のうちの評価対象の検出領域と他の検出領域を比較することにより、前記評価対象の検出領域を評価する評価手段と、を備える。
本発明によれば、各検出領域間の重複関係、および位置関係にかかわらず、検出領域それぞれについて正確に評価することができる。
第1実施形態におけるシステムを説明するためのブロック図。 第1実施形態における被写体検出処理を示すフローチャート。 撮像装置110により得られた撮像画像の例を示す図。 撮像画像に対する被写体検出の結果の例を示す図。 注目している被写体領域と比較対象となる被写体領域を示す図。 誤検出を示すシンボルと誤検出でないことを示すシンボルを重畳した撮像画像の例を示す図。
以下、本発明の実施形態について添付の図面に基づいて説明する。
<第1実施形態>
第1実施形態では、画像中に映る被写体の領域を検出領域として検出し、各検出領域同士の特徴量(たとえばサイズ)を比較することで、各検出領域それぞれが誤検出か否かを判断する方法について説明する。
第1実施形態におけるシステムのシステム構成及びハードウェア構成の一例を図1に示す。図1において、撮像装置110は撮像を行う。画像処理装置としてのクライアント装置120は撮像装置110の駆動、撮像画像の取得、解析を行う。入力装置130はマウスやキーボードなどから構成される。表示装置140はクライアント装置120が出力した画像を表示する。なお、図1ではクライアント装置120と表示装置140とを各々独立した装置として示したがこれに限られるものではない。たとえば、クライアント装置120と表示装置140とを一体化して構成しても良いし、入力装置130と表示装置140とを一体化して構成しても良いし、クライアント装置120と入力装置130と表示装置140とを一体化して構成しても良い。
ネットワーク150は撮像装置110とクライアント装置120とを接続する。ネットワーク150は、例えばEthernet(登録商標)等の通信規格を満足する複数のルータ、スイッチ、ケーブル等から構成される。なお、本実施形態において、ネットワーク150は、撮像装置110とクライアント装置120との間の通信を行うことができるものであればよく、その通信規格、規模、構成を問わない。例えば、ネットワーク150はインターネットや有線LAN(Local Area Network)、無線LAN(Wireless LAN)、WAN(Wide Area Network)等により構成されても良い。
撮像装置110の構成について説明する。撮像部111は撮像素子と光学系とを有し、光学系の光軸と撮像素子との交点を撮像中心として被写体の像を撮像素子上に結像する。撮像素子には、CMOS(ComplementaryMetal−Oxide Semiconductor)あるいはCCD(Charged Coupled Device)等が用いられる。
信号処理部112は撮像部111によって撮像された画像信号の処理を行う。信号処理部112は、例えば、撮像部111によって撮像された画像の符号化を行う。符号化方式には、たとえば、JPEG(Joint Photographic Experts Group)を用いることができる。もちろん利用可能な符号化方式はこれに限られるものではなく、H.264/MPEG−4 AVC(以下H.264)、HEVC(High Efficiency Video Coding符号化方式)など、周知の符号化処理を用いることができる。また、信号処理部112は、複数の符号化方式の中からたとえばユーザにより選択された符号化方式を用いて符号化を行うように構成されてもよい。
駆動制御部113は撮像部111の撮像方向および画角を変更させる制御を行う。但し、駆動制御部113が撮像方向と画角の両方を変更する機能を有していなくても良い。或いは、撮像部111の撮像方向および画角は固定であってもよい。通信制御部114は信号処理部112で処理が行われた撮像画像をクライアント装置120に送信する。また、通信制御部114はクライアント装置120から撮像装置110に対する制御命令を受信する。
クライアント装置120について説明する。メモリ(記憶部)121は、CPU(制御部)122が実行するプログラム、およびCPU122が実行中の処理に用いる各種データを保存する。CPU122はメモリ121に格納されたプログラムを読み込んで実行することにより、たとえば、後述する被写体の検出領域の表示処理を行う。入力情報取得部124は入力装置130へのユーザ入力を受け付ける。表示制御部125はCPU122からの指示にしたがって映像を表示装置140へ出力する。なお、制御部をCPU122で実現する例について説明するがその他の種々のプロセッサを用いて実現してもよい。なお、CPU(制御部)122は、取得手段や、検出手段、評価手段としての機能も有するものとする。
次に、第1実施形態における処理の流れを、図2を用いて説明する。図2はクライアント装置120が、撮像装置110から撮像画像を取得し、取得した撮像画像中の被写体領域を検出し、検出した領域(検出領域)それぞれに対して誤検出の判断を行うまでの処理を表したフローチャートである。図2の処理は、クライアント装置120のCPU122がメモリ121に格納されているプログラムを実行することにより実現される。
まず、CPU122は、通信制御部123を介して撮像装置110から撮像画像を処理対象の画像として取得する(S200)。図3は、クライアント装置120が撮像装置110から取得した撮像画像300を示す図である。図3において被写体301〜309は本実施形態における検出対象の被写体である人体を表す。なお、本実施形態では被写体として人体を検出するが、この限りでは無い。人体以外、例えば、自動車などでも良い。また、被写体310は本実施形態において検出対象ではない被写体を表す。本実施形態では、非検出対象の被写体310を植木とする。また、本実施形態では、撮像装置110から取得した撮像画像に対し図2の処理を行うことにより、リアルタイムのライブ映像に対して処理が行われる。しかしながらこれに限らない。例えば、撮像装置110内に保存されている動画の各フレームに対して図2の処理を行っても良いし、クライアント装置120内に保存されている動画の各フレームに対して図2の処理を行っても良い。あるいは、クライアント装置120が録画サーバにアクセスし、録画サーバ内に保存されている動画の各フレームに対して図2に示す処理を行っても良い。
次に、CPU122は、S200で取得した撮像画像300から所定の被写体の領域検出領域として検出する、被写体検出処理を行う(S201)。被写体検出を行うため、本実施形態では、CPU122がまず、撮像画像300に対し、様々なサイズでスケーリングを行う。スケーリングを行うことで、様々なサイズの人体を検出可能とする。次に、CPU122は、各スケールの撮像画像において、特定のサイズの検出窓を用いてラスタースキャンする。CPU122は、予め学習データを用いて被写体の特徴量を計算し、保持しておく。そして、CPU122は、スキャン時に検出窓内で計算された特徴量と、学習データに基づく特徴量との誤差が閾値よりも小さい場合に被写体であると判断する。
図4は撮像画像300に対して被写体検出を行った結果を表す。図4において、検出領域401〜409はそれぞれ、被写体301〜309を検出した領域を表す。また、検出領域410、411は誤検出により検出された領域を表す。誤検出された検出領域410は植木の一部に、検出対象の被写体に近い特徴をもつ部分があり、小さな誤検出となって現れた結果である。また、誤検出された検出領域411は密集した複数の人を含めた領域が検出対象の被写体に近い特徴を持ち、大きな誤検出となって現れた例である。
次に、CPU122は、検出された被写体領域(検出領域)のリストを作成する(S202)。リスト内の各ノードには検出された被写体領域(検出領域)のサイズと中心座標が格納される。図4の例では、リストに検出領域401〜411を表すそれぞれの矩形のサイズと中心座標が格納される。
次に、CPU122は、S202で作成したリストを走査しながら、リスト内の各検出領域が誤検出か否かを判断する(S203〜S208)。誤検出か否かを判断する処理の流れは以下の通りである。
処理1:リストに格納されている検出領域の一つに注目する(S203、S208)。
処理2:注目している検出領域(評価対象の検出領域)と他の複数の検出領域を比較することにより、注目している検出領域を評価し、その評価結果に基づいて誤検出かどうかを判断する(S204)。評価は、注目している検出領域の所定の特徴量について、他の複数の検出領域の所定の特徴量に対する逸脱の度合いに基づいてなされる。本実施形態では、特徴量として検出領域のサイズが用いられ、注目している検出領域とその他の検出領域とのサイズを比較し、大きくサイズが異なっていれば誤検出であると判断する。
また、本実施形態では、注目している検出領域と大きさを比較するその他の検出領域は、注目している検出領域と同等の奥行きに存在する検出領域に限定する。これにより、注目している検出領域が誤検出でない場合、その他の検出領域とのサイズに大きな違いが現れないようにする。本実施形態では、注目している検出領域との奥行き方向の位置の差が所定範囲内である検出領域が比較対象として用いられる。本実施形態では、注目している検出領域の位置に対して撮像画像における垂直方向の座標値の差が所定範囲内の検出領域を比較対象として用いる。より具体的には、本実施形態では、注目している検出領域の中心のy座標をy´とした場合、中心のy座標がy´+α以下かつy´−β以上となる撮像画像上の領域が、注目している被写体領域と同じ奥行きの被写体領域が存在する領域として用いられる。
上記について図5を用いて説明する。図5中の一点鎖線で表した矩形500は、検出領域410に注目した場合の、比較に用いられる他の検出領域を制限するための領域を規定している。矩形500の上辺はy´−βの位置にあり、下辺はy´+αの位置にある。矩形500は検出領域410と同じ奥行きに存在するか否かを示す境界を表す。つまり、中心座標が矩形500の内側に入っている検出領域401〜403は検出領域410と同じ奥行きに存在すると判断され、検出領域404〜409、411は同じ奥行きに存在しないと判断される。つまり、図5において、注目している検出領域は検出領域410であり、検出領域410とサイズを比較する他の検出領域は、検出領域401〜403である。
本実施形態では、上述のα、βは撮像画像の各y座標毎に異なる値を設定する。設定の方法としては、例えば、撮像画像の各y座標に映る、実空間における床上の点をPとした時、Pからカメラ側5mの地点と、逆側5mの地点が、それぞれ撮像画像上のどの座標になるかを予め計測しておき、テーブルで管理する。その際、カメラ側5mに対応する撮像画像上の座標をA、逆側5mに対応する座標をBとしたとき、Aのy座標であるyAをy´+α、Bのy座標であるyBをy´−βとする。なお、上記は一例であり、この限りでは無い。たとえば、点Pからカメラ側および着側に5mの地点を用いたが、5mに限られるものではないし、カメラ側と逆側の地点までの距離が同一でなくても良い。また、上記α、βをy座標にかかわらず、一定のピクセル値で決定しても良いし、α=βとしてもよい。例えば、y座標に関わらず、α、βをそれぞれ10ピクセルに固定しても良い。
また、本実施形態では、注目している検出領域と大きさが比較される他の検出領域は、注目している検出領域と同じ奥行きに存在する検出領域としたが、この限りでは無い。例えば、階段を撮像した撮像画像では、画像中のy座標の値にかかわらず被写体領域のサイズは一定である。その場合、注目している検出領域と比較される他の検出領域には、例えば注目している検出領域以外のすべての検出領域が用いられても良いし、注目している検出領域から距離の近い順に所定数の検出領域が選択されて用いられても良い。また、撮像画像において注目している検出領域の位置に対応して設定された図形の内部に存在する検出領域を、比較対象としての他の検出領域として選択されてもよい。たとえば、注目している検出領域を中心として、円、もしくは楕円で定義可能な境界線の内部に存在する検出領域を比較対象としても良い。
上述のように、評価の結果、注目している検出領域の所定の特徴量(実施形態ではサイズ)の、他の複数の検出領域の所定の特徴量に対する逸脱の度合いが評価され、その評価結果に基づいて誤検出か否かが判定される。本実施形態では、逸脱の度合いの評価に標準偏差が用いられる。すなわち、本実施形態では、注目している検出領域が、その他の検出領域よりも大きくサイズが異なっていれば誤検出と判断し、その判断のために、標準偏差に基づく外れ値検出を行う。より具体的には、他の複数の検出領域(注目している検出領域以外の検出領域)のサイズで正規分布を作成し、注目している検出領域のサイズが、上記正規分布の平均から2σ離れていれば誤検出、離れていなければ正しい検出とみなす。ここで、σは標準偏差を表す。
上記について、図5を用いて説明する。例えば、検出領域410に注目した場合、各検出領域が同じ奥行きに存在するか否かの境界は矩形500である。中心座標が矩形500の内部に存在する検出領域401、402、403、410は同じ奥行きに存在する検出領域と判断される。検出領域401、402、403、410のサイズがそれぞれ97、100、103、90であったとする。注目している検出領域が検出領域410の場合、他の検出領域401〜403による正規分布の平均は100であり、標準偏差σは2.45である。したがって、注目している検出領域のサイズが95.10以上、104.90未満の範囲に入っていれば、注目している検出領域は誤検出ではないと判定される。検出領域410のサイズは90であり上記範囲に入っていないため、検出領域410は誤検出と判断される。
また次に、リストを走査し検出領域401に注目した場合に、他の検出領域402〜403,410の各検出領域が同じ奥行きに存在すると判定されたとする。この場合、他の検出領域402〜403,410のサイズの正規分布は平均が97.67であり、標準偏差は5.56である。注目している検出領域401のサイズは97であり、86.55以上かつ108.79以内の範囲に入っているため、誤検出ではないと判断される。
なお、本実施形態では、その他の検出領域として使用する検出領域は、現在被写体検出を行っている画像に対して検出を行った結果得られた検出領域を利用するが、この限りでは無い。例えば、現在被写体検出を行っている撮像画像に映っている被写体の数が少なければ、過去の画像に対して行った検出結果を利用しても良い。これは、過去の撮像画像について検出された検出領域についてそれぞれのサイズと中心座標を登録しておくことにより実現できる。また、本実施形態では、標準偏差に基づく外れ値検出を行うがこの限りでは無く、距離(平均値との差)に基づく外れ値検出を用いても良いし、正しいサイズを正しい検出データから機械学習しても良い。
上記処理(S204)を行った結果、注目している検出領域が誤検出であると判断された場合、CPU122は、注目している検出領域が誤検出であることをリストに記す(S205)。他方、注目している検出領域が誤検出ではないと判断された場合、CPU122は、注目している検出領域が誤検出で無いことをリストに記す(S206)。そして、CPU122は、リストの末尾の検出領域に注目しているか否かを判断し(S207)、リストの末尾の検出領域に注目していない場合、次の検出領域に注目し(S208)、
処理をS204へ戻す。こうして、リストに登録されている検出領域について誤検出か否かが順次に判断される。S207でリストの末尾に注目していると判定された場合、リスト内の各検出領域が誤検出か否かを判断する処理を終了する。
その後、S209において、CPU122は、撮像画像300を検出対象の被写体の検出結果とともに表示制御部125を用いて表示装置140に表示する。たとえば、CPU122は、図4に示されるように各検出領域を示す枠を撮像画像に重畳して表示する。但し、この際に、誤検出と判定された検出領域の枠は非表示とする。たとえば、図4において、検出領域401〜409の矩形枠が重畳表示され、検出領域410〜411の矩形枠は表示されない。なお、検出領域の枠は矩形に限られるものではなく、楕円等が用いられてもよい。
<第2実施形態>
第1実施形態では、撮像画像への検出領域の検出結果の提示において、誤検出と判定された検出領域については枠を表示しない形態を示した。したがって、ユーザは、正しく検出された検出領域を見ることができるが、誤検出と判定された検出領域が存在するか否かについては把握できない。第2実施形態では、誤検出された検出領域をユーザが把握できるような表示を行う。
S209において、CPU122は、検出領域のリストを参照しながら、誤検出か否かを判断した結果を表示装置140へ表示する。第2実施形態では、撮像画像300に対し、誤検出か否かを判断した結果をシンボルで表示することにより、各検出結果が誤検出か否かを表す。
図6は、撮像画像300に対して誤検出か否かを表すシンボルを重畳した撮像画像600を表す。図6において実線の矩形601〜609は誤検出ではない、正常検出の検出領域(誤検出ではないと判定された検出領域)であることを表すシンボルである。また破線の矩形610〜611は誤検出である検出領域であることを表すシンボルである。なお、第2実施形態では、線の種類で誤検出か否かを表したが、この限りでは無い。たとえば、誤検出か否かを表す方法は色で分けても良いし、矩形と楕円形などのように重畳される枠の形状を変えても良い。また、誤検出か否かを表す文字列を表示しても良い。
なお、第1実施形態で説明したように、誤検出か否かの判断に標準偏差を用いているので誤検出の度合いを定量的に判断することが可能である。したがって、例えば、注目している検出領域のサイズが、その他の検出領域のサイズから生成された正規分布の平均よりも2σ以上離れていた場合と3σ以上離れていた場合とでシンボルの形態を変えることで誤検出らしさを表現することも可能である。たとえば、2σ以上離れていた場合には黄色、3σ以上離れていれば赤色など、誤検出らしさをシンボルの色で表現することができる。もちろんシンボルの形態の変更は色に限られるものではなく、たとえば、シンボルの形状の変更、シンボル(図形)の境界を示す線(実線、破線など)の変更を用いることもできる。
以上のように、上記各実施形態によれば、撮像画像中の各被写体検出の結果が誤検出か否かを判断することにより、被写体検出結果の誤検出を低減することが可能である。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、S203〜S208の処理の評価結果で修正した検出領域の数を出力する出力部を有するようにしてもよい。出力部は、例えば、修正した検出領域の数を表示装置140に表示させる表示制御部125である。その他にも修正した検出領域の数を示す情報を外部の装置に出力する通信部であってもよい。例えば、撮像画像300に含まれる検出領域の数が10であり、S203〜S208の処理の結果、その中で2つが誤検出と判定された場合、出力部は、「8」を示す情報を出力する。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
110:撮像装置、111:撮像部、112:信号処理部、113:駆動制御部、114:通信制御部、120:クライアント装置、121:メモリ、122:CPU、123:通信制御部、124:入力情報取得部、125:表示制御部、130:入力装置、140:表示装置、150:ネットワーク

Claims (19)

  1. 撮像手段によって撮像された撮像画像を取得する取得手段と、
    前記撮像画像から所定の被写体の領域を検出領域として検出する検出手段と、
    前記検出領域のうちの評価対象の検出領域と他の検出領域を比較することにより、前記評価対象の検出領域を評価する評価手段と、を備えることを特徴とする画像処理装置。
  2. 前記評価手段は、前記評価対象の検出領域の所定の特徴量の、前記他の検出領域の所定の特徴量に対する逸脱の度合いを評価することを特徴とする請求項1に記載の画像処理装置。
  3. 前記逸脱の度合いは、標準偏差により判定されることを特徴とする請求項2に記載の画像処理装置。
  4. 前記所定の特徴量は、検出領域のサイズであることを特徴とする請求項2または3に記載の画像処理装置。
  5. 前記評価手段は、前記逸脱の度合いに基づいて、前記評価対象の検出領域が誤検出されたものであるかを判定することを特徴とする請求項2乃至4のいずれか1項に記載の画像処理装置。
  6. 前記検出手段により検出された検出領域を表すシンボルを、前記撮像画像に重畳して表示手段に表示させる表示制御手段をさらに備え、
    前記表示制御手段は、前記誤検出と判定された検出領域のシンボルを非表示とすることを特徴とする請求項5に記載の画像処理装置。
  7. 前記検出手段により検出された検出領域を表すシンボルを、前記撮像画像に重畳して表示手段に表示させる表示制御手段をさらに備え、
    前記表示制御手段は、前記誤検出と判定された検出領域と、その他の検出領域とで前記シンボルを異ならせることを特徴とする請求項5に記載の画像処理装置。
  8. 前記評価手段は、前記逸脱の度合いに基づいて、前記評価対象の検出領域について誤検出らしさの度合いを判定することを特徴とする請求項2乃至4のいずれか1項に記載の画像処理装置。
  9. 前記検出手段により検出された検出領域を表すシンボルを、前記撮像画像に重畳して表示手段に表示させる表示制御手段をさらに備え、
    前記表示制御手段は、前記誤検出らしさの度合いに応じて前記シンボルを異ならせることを特徴とする請求項8に記載の画像処理装置。
  10. 前記シンボルは図形であり、
    前記表示制御手段は、前記誤検出らしさの度合いに応じて、前記シンボルの形状および/または色を異ならせることを特徴とする請求項9に記載の画像処理装置。
  11. 前記シンボルは文字列であり、
    前記表示制御手段は、前記誤検出らしさの度合いに応じて、前記文字列を異ならせることを特徴とする請求項9に記載の画像処理装置。
  12. 前記他の検出領域は、前記評価対象の検出領域との奥行き方向の位置の差が所定範囲内である検出領域であることを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。
  13. 前記他の検出領域は、前記評価対象の検出領域との、前記撮像画像における垂直方向の座標値の差が所定範囲内の検出領域であることを特徴とする請求項1乃至12のいずれか1項に記載の画像処理装置。
  14. 前記他の検出領域は、前記撮像画像の前記評価対象の検出領域以外の複数の検出領域であることを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。
  15. 前記他の検出領域が、前記撮像画像において前記評価対象の検出領域から距離の近い順に選択された所定数の検出領域であることを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。
  16. 前記他の検出領域が、前記撮像画像において、前記評価対象の検出領域の位置に対応して設定された図形の内部に存在する検出領域であることを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。
  17. 前記検出手段により検出された検出領域の数を前記評価手段による評価に基づいて修正した数を出力する出力手段を備えることを特徴とする請求項1乃至16のいずれか1項に記載の画像処理装置。
  18. 画像処理装置の制御方法であって、
    撮像手段によって撮像された撮像画像を取得する取得工程と、
    前記撮像画像から所定の被写体の領域を検出領域として検出する検出工程と、
    前記検出領域のうちの評価対象の検出領域と他の検出領域を比較することにより、前記評価対象の検出領域を評価する評価工程と、を有することを特徴とする画像処理装置の制御方法。
  19. コンピュータを、請求項1乃至17のいずれか1項に記載された画像処理装置の各手段として機能させるためのプログラム。
JP2016203031A 2016-10-14 2016-10-14 画像処理装置および制御方法 Active JP6525934B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016203031A JP6525934B2 (ja) 2016-10-14 2016-10-14 画像処理装置および制御方法
EP17189300.1A EP3309710A1 (en) 2016-10-14 2017-09-05 Human body detection apparatus, control method for human body detection apparatus, and program
US15/715,338 US11048929B2 (en) 2016-10-14 2017-09-26 Human body detection apparatus, control method for human body detection apparatus
CN201710954160.3A CN107958202B (zh) 2016-10-14 2017-10-13 人体检测设备、人体检测设备的控制方法和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016203031A JP6525934B2 (ja) 2016-10-14 2016-10-14 画像処理装置および制御方法

Publications (2)

Publication Number Publication Date
JP2018063675A true JP2018063675A (ja) 2018-04-19
JP6525934B2 JP6525934B2 (ja) 2019-06-05

Family

ID=59968889

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016203031A Active JP6525934B2 (ja) 2016-10-14 2016-10-14 画像処理装置および制御方法

Country Status (4)

Country Link
US (1) US11048929B2 (ja)
EP (1) EP3309710A1 (ja)
JP (1) JP6525934B2 (ja)
CN (1) CN107958202B (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7195782B2 (ja) * 2018-06-27 2022-12-26 キヤノン株式会社 情報処理装置、制御方法及びプログラム
JP7129843B2 (ja) 2018-08-01 2022-09-02 キヤノン株式会社 画像処理装置、画像処理装置の制御方法、システム、及び、プログラム
CN108769538B (zh) * 2018-08-16 2020-09-29 Oppo广东移动通信有限公司 自动对焦方法、装置、存储介质及终端

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007274207A (ja) * 2006-03-30 2007-10-18 Fujifilm Corp 画像表示装置、撮像装置および画像表示方法
JP2008250444A (ja) * 2007-03-29 2008-10-16 Omron Corp 顔検出装置、顔検出方法及び顔検出プログラム
JP2009135824A (ja) * 2007-11-30 2009-06-18 Canon Inc 画像処理装置およびその方法
JP2010086429A (ja) * 2008-10-01 2010-04-15 Canon Inc 画像処理装置及び画像処理方法
JP2013509786A (ja) * 2009-10-30 2013-03-14 オラワークス・インコーポレイテッド イメージコンテンツに対してトリミングを実行するための方法、端末及びコンピュータ読み取り可能な記録媒体
WO2016147653A1 (ja) * 2015-03-19 2016-09-22 日本電気株式会社 オブジェクト検出装置、オブジェクト検出方法および記録媒体

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2381415A4 (en) * 2008-12-22 2018-01-24 NEC Corporation Person-judging device, method, and program
JP5726595B2 (ja) 2011-03-30 2015-06-03 セコム株式会社 画像監視装置
JP5907593B2 (ja) 2011-09-13 2016-04-26 キヤノン株式会社 画像認識装置、画像認識方法及びプログラム
US9542626B2 (en) * 2013-09-06 2017-01-10 Toyota Jidosha Kabushiki Kaisha Augmenting layer-based object detection with deep convolutional neural networks
US10657364B2 (en) * 2016-09-23 2020-05-19 Samsung Electronics Co., Ltd System and method for deep network fusion for fast and robust object detection

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007274207A (ja) * 2006-03-30 2007-10-18 Fujifilm Corp 画像表示装置、撮像装置および画像表示方法
JP2008250444A (ja) * 2007-03-29 2008-10-16 Omron Corp 顔検出装置、顔検出方法及び顔検出プログラム
JP2009135824A (ja) * 2007-11-30 2009-06-18 Canon Inc 画像処理装置およびその方法
JP2010086429A (ja) * 2008-10-01 2010-04-15 Canon Inc 画像処理装置及び画像処理方法
JP2013509786A (ja) * 2009-10-30 2013-03-14 オラワークス・インコーポレイテッド イメージコンテンツに対してトリミングを実行するための方法、端末及びコンピュータ読み取り可能な記録媒体
WO2016147653A1 (ja) * 2015-03-19 2016-09-22 日本電気株式会社 オブジェクト検出装置、オブジェクト検出方法および記録媒体

Also Published As

Publication number Publication date
EP3309710A1 (en) 2018-04-18
CN107958202B (zh) 2021-10-22
JP6525934B2 (ja) 2019-06-05
US20180107870A1 (en) 2018-04-19
CN107958202A (zh) 2018-04-24
US11048929B2 (en) 2021-06-29

Similar Documents

Publication Publication Date Title
JP6942488B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP2020061128A5 (ja)
JP7059054B2 (ja) 画像処理装置、画像処理方法およびプログラム
KR102406804B1 (ko) 딥러닝 기반 영상 내 객체 자동 검출 방법 및 시스템
US10713797B2 (en) Image processing including superimposed first and second mask images
KR102199094B1 (ko) 관심객체 검출을 위한 관심영역 학습장치 및 방법
US10013632B2 (en) Object tracking apparatus, control method therefor and storage medium
US10762372B2 (en) Image processing apparatus and control method therefor
JP2020149642A (ja) 物体追跡装置および物体追跡方法
JP2012048476A (ja) 画像処理装置
JP2017049676A (ja) 姿勢判定装置および物体検知装置
JP2021108193A (ja) 画像処理装置、画像処理方法、及びプログラム
JP7092615B2 (ja) 影検出装置、影検出方法、影検出プログラム、学習装置、学習方法、及び学習プログラム
JP2020149641A (ja) 物体追跡装置および物体追跡方法
JP6525934B2 (ja) 画像処理装置および制御方法
US11948363B2 (en) Person detection device and person detection method
JP7074174B2 (ja) 識別器学習装置、識別器学習方法およびコンピュータプログラム
KR102107137B1 (ko) 팬틸트줌 카메라를 이용한 이벤트 감지방법 및 장치
EP3883236A1 (en) Information processing apparatus, imaging apparatus, method, and storage medium
JP2018092507A (ja) 画像処理装置、画像処理方法及びプログラム
US10885348B2 (en) Information processing device, information processing method, and storage medium
JP7349288B2 (ja) 対象物認識装置、対象物認識方法、及び対象物認識プログラム
WO2020259603A1 (zh) 图像处理装置及图像处理方法
JP2022123391A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2023133967A (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190507

R151 Written notification of patent or utility model registration

Ref document number: 6525934

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151