JP7188067B2 - 人検出装置および人検出方法 - Google Patents
人検出装置および人検出方法 Download PDFInfo
- Publication number
- JP7188067B2 JP7188067B2 JP2018245230A JP2018245230A JP7188067B2 JP 7188067 B2 JP7188067 B2 JP 7188067B2 JP 2018245230 A JP2018245230 A JP 2018245230A JP 2018245230 A JP2018245230 A JP 2018245230A JP 7188067 B2 JP7188067 B2 JP 7188067B2
- Authority
- JP
- Japan
- Prior art keywords
- detection
- human body
- area
- bounding box
- human
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 181
- 238000012545 processing Methods 0.000 description 23
- 238000000034 method Methods 0.000 description 16
- 238000011161 development Methods 0.000 description 8
- 238000012544 monitoring process Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000007781 pre-processing Methods 0.000 description 4
- 238000012937 correction Methods 0.000 description 3
- 238000004378 air conditioning Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 210000000746 body region Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000010813 municipal solid waste Substances 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/147—Details of sensors, e.g. sensor lenses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/164—Detection; Localisation; Normalisation using holistic features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Vascular Medicine (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Closed-Circuit Television Systems (AREA)
Description
本発明は、魚眼カメラの画像を用いて人を検出する技術に関する。
ビルディングオートメーション(BA)やファクトリーオートメーション(FA)の分野において、画像センサにより人の「数」・「位置」・「動線」などを自動で計測し、照明や空調などの機器を最適制御するアプリケーションが必要とされている。このような用途では、できるだけ広い範囲の画像情報を取得するために、魚眼レンズ(フィッシュアイレンズ)を搭載した超広角のカメラ(魚眼カメラ、全方位カメラ、全天球カメラなどと呼ばれるが、いずれも意味は同じである。本明細書では「魚眼カメラ」の語を用いる。)を利用することが多い。
魚眼カメラで撮影された画像は大きく歪んでいる。それゆえ、魚眼カメラの画像(以後「魚眼画像」と呼ぶ。)から人体や顔などを検出する場合には、あらかじめ魚眼画像を平面展開することで歪みの少ない画像に補正した後に検出処理にかけるという方法が一般的である(特許文献1参照)。
しかしながら、従来技術では次のような問題がある。一つは、魚眼画像を平面展開するという前処理が発生することで、全体の処理コストが大きくなるという問題である。これは、リアルタイムの検出処理を困難にし、機器制御の遅延を招く可能性があり、好ましくない。二つ目の問題は、魚眼カメラの真下など、ちょうど平面展開時の境界(画像の切れ目)の位置に存在する人や物体の像が、平面展開の処理によって大きく変形してしまったり、像が分断されてしまったりして、正しく検出できない恐れがあることである。
これらの問題を回避するため、本発明者らは、魚眼画像をそのまま(「平面展開せずに」という意味である。)検出処理にかけるというアプローチを研究している。しかし、通常のカメラ画像に比べ、魚眼画像の場合は、検出対象となる人の見え方(人体の傾き、歪み、大きさ)のバリエーションが増加するため、検出が困難となる。特に、BAやFAなどのアプリケーションを想定した場合、画像中に、イス、パーソナルコンピュータ、ごみ箱、扇風機、サーキュレーターなど、人体や頭部と誤り易い物体が多く存在するため、検出精度の低下を招きやすい。
本発明は上記実情に鑑みなされたものであって、魚眼画像から高速に且つ高精度に人を検出する技術を提供することを目的とする。
上記目的を達成するために本発明は、以下の構成を採用する。
本発明の第一側面は、検出対象エリアの上方に設置された魚眼カメラにより得られた魚眼画像を解析して、前記検出対象エリア内に存在する人を検出する人検出装置であって、魚眼画像から人体候補を検出し、検出結果として、検出された人体候補それぞれの魚眼画
像上における領域を表すバウンディングボックスを出力する人体検出部と、バウンディングボックスの形状および/またはサイズに関する基準を、魚眼画像上の位置またはエリアごとに、あらかじめ記憶している基準記憶部と、前記検出結果に含まれる前記人体候補のバウンディングボックスの形状および/またはサイズを、当該人体候補の検出位置に対応する前記基準と比較することによって、当該人体候補が誤検出であるか否かを判定する誤検出判定部と、を有することを特徴とする人検出装置を提供する。
像上における領域を表すバウンディングボックスを出力する人体検出部と、バウンディングボックスの形状および/またはサイズに関する基準を、魚眼画像上の位置またはエリアごとに、あらかじめ記憶している基準記憶部と、前記検出結果に含まれる前記人体候補のバウンディングボックスの形状および/またはサイズを、当該人体候補の検出位置に対応する前記基準と比較することによって、当該人体候補が誤検出であるか否かを判定する誤検出判定部と、を有することを特徴とする人検出装置を提供する。
「魚眼カメラ」は、魚眼レンズを搭載したカメラであり、通常のカメラに比べて超広角での撮影が可能なカメラである。全方位カメラや全天球カメラも魚眼カメラの一種である。魚眼カメラは、検出対象エリアの上方から検出対象エリアを見下ろすように設置されていればよい。典型的には魚眼カメラの光軸が鉛直下向きとなるように設置されるが、魚眼カメラの光軸が鉛直方向に対して傾いていても構わない。「人体」は、人の全身でもよいし、半身(例えば、上半身、頭部と胴体など)でもよい。「バウンディングボックス」は、人体候補の領域を表す閉図形あるいは枠線であり、例えば、人体候補の領域を囲む多角形や楕円などをバウンディングボックスとして用いてよい。
本発明は、検出された人体候補のバウンディングボックスの形状やサイズの妥当性を検証するというシンプルな方法で誤検出判定を行うことにより、高精度な人検出を簡易な処理で実現することができる。しかも、魚眼画像を平面展開するなどの前処理が不要なため、高速な処理が実現できる。
バウンディングボックスの形状に関する基準は、バウンディングボックスのアスペクト比の基準を含んでもよい。魚眼画像上の位置に応じて、魚眼カメラから人体を視たときの俯角や方位角が変わるため、バウンディングボックスのアスペクト比が変化するからである。例えば、前記アスペクト比の基準は、魚眼画像の中央エリアおよび前記中央エリアに対し斜め45度にあるエリアでは、バウンディングボックスが略正方形となり、前記中央エリアの上側および下側のエリアでは、バウンディングボックスが縦長の長方形となり、前記中央エリアの左側および右側のエリアでは、バウンディングボックスが横長の長方形となる、ように設定されていてもよい。
バウンディングボックスのサイズに関する基準は、バウンディングボックスの面積の基準を含んでもよい。魚眼画像上の位置に応じて、魚眼カメラから人体までの距離が変わるため、バウンディングボックスの面積が変化するからである。例えば、前記面積の基準は、魚眼画像の中心に近いエリアほど面積が大きくなるように設定されていてもよい。
前記誤検出判定部は、誤検出と判定された人体候補を前記検出結果から除外してもよい。あるいは、前記検出結果が、検出された人体候補それぞれの信頼度の情報を含んでいる場合であれば、前記誤検出判定部は、誤検出と判定された人体候補の信頼度を下げてもよい。
本発明の第二側面は、検出対象エリアの上方に設置された魚眼カメラにより得られた魚眼画像を解析して、前記検出対象エリア内に存在する人を検出する人検出方法であって、魚眼画像から人体候補を検出し、検出結果として、検出された人体候補それぞれの魚眼画像上における領域を表すバウンディングボックスを出力する人体検出ステップと、バウンディングボックスの形状および/またはサイズに関する基準を、魚眼画像上の位置またはエリアごとに、あらかじめ記憶している基準記憶部を参照して、前記検出結果に含まれる前記人体候補のバウンディングボックスの形状および/またはサイズを、当該人体候補の検出位置に対応する前記基準と比較することによって、当該人体候補が誤検出であるか否かを判定する誤検出判定ステップと、を有することを特徴とする人検出方法を提供する。
本発明は、上記手段の少なくとも一部を有する人検出装置として捉えてもよいし、検出した人を認識(識別)する人認識装置、検出した人をトラッキングする人追跡装置、あるいは画像処理装置や監視システムとして捉えてもよい。また、本発明は、上記処理の少なくとも一部を含む人検出方法、人認識方法、人追跡方法、画像処理方法、監視方法として捉えてもよい。また、本発明は、かかる方法を実現するためのプログラムやそのプログラムを非一時的に記録した記録媒体として捉えることもできる。なお、上記手段および処理の各々は可能な限り互いに組み合わせて本発明を構成することができる。
本発明によれば、魚眼画像から高速に且つ高精度に人を検出することができる。
<適用例>
図1を参照して、本発明に係る人検出装置の適用例を説明する。人検出装置1は、検出対象エリア11の上方(例えば天井12など)に設置された魚眼カメラ10により得られた魚眼画像を解析して、検出対象エリア11内に存在する人13を検出する装置である。この人検出装置1は、例えば、オフィスや工場などにおいて、検出対象エリア11を通行する人13の検出、認識、追跡などを行う。図1の例では、魚眼画像から検出された4つの人体それぞれの領域が矩形のバウンディングボックス14で示されている。人検出装置1の検出結果は、外部装置に出力され、例えば、人数のカウント、照明や空調など各種機器の制御、不審者の監視などに利用される。
図1を参照して、本発明に係る人検出装置の適用例を説明する。人検出装置1は、検出対象エリア11の上方(例えば天井12など)に設置された魚眼カメラ10により得られた魚眼画像を解析して、検出対象エリア11内に存在する人13を検出する装置である。この人検出装置1は、例えば、オフィスや工場などにおいて、検出対象エリア11を通行する人13の検出、認識、追跡などを行う。図1の例では、魚眼画像から検出された4つの人体それぞれの領域が矩形のバウンディングボックス14で示されている。人検出装置1の検出結果は、外部装置に出力され、例えば、人数のカウント、照明や空調など各種機器の制御、不審者の監視などに利用される。
魚眼カメラ10で検出対象エリア11を見下ろすように撮影した場合、魚眼カメラ10との位置関係に依存して人体の見え方(写り方)が大きく変わる。それゆえ、魚眼画像は、バウンディングボックス14の形状やサイズが画像上の検出位置に応じて変化するという特性をもつ。人検出装置1は、このような魚眼画像の特性を考慮し、検出された人体候補のバウンディングボックス14の形状やサイズの妥当性を検証するというシンプルな方法で誤検出判定を行うことによって、誤検出でないかどうかの判定を行う点に特徴の一つを有する。また、人検出装置1は、魚眼画像をそのまま(つまり、平面展開や歪み補正などの前処理を行わずに)人検出処理に用いる点にも特徴の一つを有する。
<魚眼画像の特性>
図2は、魚眼カメラ10から取り込まれた魚眼画像の例を示す。画像座標系は、魚眼画像の左下のコーナーを原点(0,0)とし、横方向右側にx軸、縦方向上側にy軸をとる。
図2は、魚眼カメラ10から取り込まれた魚眼画像の例を示す。画像座標系は、魚眼画像の左下のコーナーを原点(0,0)とし、横方向右側にx軸、縦方向上側にy軸をとる。
光軸が鉛直下向きになるように魚眼カメラ10を設置した場合、魚眼画像の中心には、魚眼カメラ10の真下に存在する人を頭頂部から観察した像が表れる。そして、魚眼画像の端にいくにしたがって俯角が小さくなり、人を斜め上方から観察した像が表れることと
なる。また、魚眼画像中の人体は、足元が画像の中心側、頭部が画像の端側に位置し、かつ、画像の中心を通る放射状の線(図2の破線)に略平行となるような角度で写る。また、魚眼画像の中心は比較的歪みが小さいが、魚眼画像の端にいくにしたがって画像の歪みが大きくなる。
なる。また、魚眼画像中の人体は、足元が画像の中心側、頭部が画像の端側に位置し、かつ、画像の中心を通る放射状の線(図2の破線)に略平行となるような角度で写る。また、魚眼画像の中心は比較的歪みが小さいが、魚眼画像の端にいくにしたがって画像の歪みが大きくなる。
符号14a~14fは、魚眼画像中の人体の領域を囲むように配置されたバウンディングボックスを示す。本実施形態では、画像処理の便宜から、x軸またはy軸と平行な四辺から構成される矩形のバウンディングボックスが用いられる。
図2に示すように、魚眼画像の中央エリアに存在するバウンディングボックス(例えば、14a)は略正方形となる。また、中央エリアに対し斜め45度にあるエリアに存在するバウンディングボックス(例えば、14b、14c)も略正方形となる。中央エリアの上側および下側のエリアに存在するバウンディングボックス(例えば、14d)は縦長の長方形(y軸に平行な長辺をもつ長方形)となり、画像の中心に近いほど正方形に近づき、画像の中心から離れるほど縦長になる。中央エリアの左側および右側のエリアに存在するバウンディングボックス(例えば、14e、14f)は横長の長方形(x軸に平行な長辺をもつ長方形)となり、画像の中心に近いほど正方形に近づき、画像の中心から離れるほど横長になる。
このように、魚眼画像は、画像中心を基準とした方位と距離に依存してバウンディングボックスの形状(例えば、アスペクト比)が変化する、という特性を有する。魚眼画像上の位置またはエリアごとのバウンディングボックスのアスペクト比は、魚眼カメラ10の光学特性、魚眼カメラ10と検出対象エリア11の位置関係、および、平均的な人体のサイズを基に、幾何学的に計算(予測)することが可能である。
また、図2に示すように、人体の写る大きさは、魚眼画像の中心が最も大きく、端にいくほど小さくなる。すなわち、魚眼画像は、画像中心を基準とした距離に依存してバウンディングボックスのサイズ(例えば、面積)が変化する(距離が遠くなるほどサイズが小さくなる)、という特性を有する。魚眼画像上の位置またはエリアごとのバウンディングボックスの面積についても、魚眼カメラ10の光学特性、魚眼カメラ10と検出対象エリア11の位置関係、および、平均的な人体のサイズを基に、幾何学的に計算(予測)することが可能である。
<監視システム>
図3を参照して、本発明の実施形態を説明する。図3は、本発明の実施形態に係る人検出装置を適用した監視システムの構成を示すブロック図である。監視システム2は、概略、魚眼カメラ10と人検出装置1とを備えている。
図3を参照して、本発明の実施形態を説明する。図3は、本発明の実施形態に係る人検出装置を適用した監視システムの構成を示すブロック図である。監視システム2は、概略、魚眼カメラ10と人検出装置1とを備えている。
魚眼カメラ10は、魚眼レンズを含む光学系と撮像素子(CCDやCMOSなどのイメージセンサ)を有する撮像装置である。魚眼カメラ10は、例えば図1に示すように、検出対象エリア11の天井12などに、光軸を鉛直下向きにした状態で設置され、検出対象エリア11の全方位(360度)の画像を撮影するとよい。魚眼カメラ10は人検出装置1に対し有線(USBケーブル、LANケーブルなど)または無線(WiFiなど)で接続され、魚眼カメラ10で撮影された画像データは人検出装置1に取り込まれる。画像データはモノクロ画像、カラー画像のいずれでもよく、また画像データの解像度やフレームレートやフォーマットは任意である。本実施形態では、10fps(1秒あたり10枚)で取り込まれるモノクロ画像を用いることを想定している。
本実施形態の人検出装置1は、画像入力部20、人体検出部21、記憶部23、基準記憶部24、誤検出判定部25、出力部26を有している。画像入力部20は、魚眼カメラ
10から画像データを取り込む機能を有する。取り込まれた画像データは人体検出部21に引き渡される。この画像データは記憶部23に格納されてもよい。人体検出部21は、人体を検出するアルゴリズムを用いて、魚眼画像から人体候補を検出する機能を有する。人体検出辞書22は、魚眼画像に表れる人体の画像特徴があらかじめ登録されている辞書である。記憶部23は、魚眼画像、検出結果などを記憶する機能を有する。基準記憶部24は、バウンディングボックスの形状および/またはサイズに関する基準(予測値または標準値とも呼ぶ)を記憶する機能を有する。この基準は、監視システム2の稼働に先立ち(例えば、監視システム2の工場出荷時、設置時、メンテナンス時などに)、あらかじめ設定される。誤検出判定部25は、人体検出部21の検出結果を検証し、誤検出の有無を判定する機能を有する。出力部26は、魚眼画像や検出結果などの情報を外部装置に出力する機能を有する。例えば、出力部26は、外部装置としてのディスプレイに情報を表示してもよいし、外部装置としてのコンピュータに情報を転送してもよいし、外部装置としての照明装置や空調やFA装置に対し情報や制御信号を送信してもよい。
10から画像データを取り込む機能を有する。取り込まれた画像データは人体検出部21に引き渡される。この画像データは記憶部23に格納されてもよい。人体検出部21は、人体を検出するアルゴリズムを用いて、魚眼画像から人体候補を検出する機能を有する。人体検出辞書22は、魚眼画像に表れる人体の画像特徴があらかじめ登録されている辞書である。記憶部23は、魚眼画像、検出結果などを記憶する機能を有する。基準記憶部24は、バウンディングボックスの形状および/またはサイズに関する基準(予測値または標準値とも呼ぶ)を記憶する機能を有する。この基準は、監視システム2の稼働に先立ち(例えば、監視システム2の工場出荷時、設置時、メンテナンス時などに)、あらかじめ設定される。誤検出判定部25は、人体検出部21の検出結果を検証し、誤検出の有無を判定する機能を有する。出力部26は、魚眼画像や検出結果などの情報を外部装置に出力する機能を有する。例えば、出力部26は、外部装置としてのディスプレイに情報を表示してもよいし、外部装置としてのコンピュータに情報を転送してもよいし、外部装置としての照明装置や空調やFA装置に対し情報や制御信号を送信してもよい。
人検出装置1は、例えば、CPU(プロセッサ)、メモリ、ストレージなどを備えるコンピュータにより構成することができる。その場合、図3に示す構成は、ストレージに格納されたプログラムをメモリにロードし、CPUが当該プログラムを実行することによって実現されるものである。かかるコンピュータは、パーソナルコンピュータ、サーバコンピュータ、タブレット端末、スマートフォンのような汎用的なコンピュータでもよいし、オンボードコンピュータのように組み込み型のコンピュータでもよい。あるいは、図3に示す構成の全部または一部を、ASICやFPGAなどで構成してもよい。あるいは、図3に示す構成の全部または一部を、クラウドコンピューティングや分散コンピューティングにより実現してもよい。
<人検出処理>
図4は、監視システム2による人検出処理のフローチャートである。図4に沿って人検出処理の全体的な流れを説明する。なお、図4のフローチャートは、1フレームの魚眼画像に対する処理を示している。10fpsで魚眼画像が入力される場合には、図4の処理が1秒間に10回実行されることとなる。
図4は、監視システム2による人検出処理のフローチャートである。図4に沿って人検出処理の全体的な流れを説明する。なお、図4のフローチャートは、1フレームの魚眼画像に対する処理を示している。10fpsで魚眼画像が入力される場合には、図4の処理が1秒間に10回実行されることとなる。
まず、画像入力部20が魚眼カメラ10から1フレームの魚眼画像を入力する(ステップS40)。背景技術の欄で述べたように、従来は、魚眼画像の歪みを補正した平面展開画像を作成した後、検出や認識などの画像処理を行っていたが、本実施形態の監視システム2では、魚眼画像をそのまま(歪んだまま)検出や認識の処理に用いる。
次に、人体検出部21が魚眼画像から人体を検出する(ステップS41)。魚眼画像内に複数の人が存在する場合には、複数の人体が検出される。また、多くの場合、人体ではない物体(例えば、扇風機、デスクチェア、コート掛けなど、形状や色が人体と紛らわしい物)が誤って検出される場合もある。このように人体検出部21の検出結果には人体ではない物体も含まれ得るため、この段階では「人体候補」と呼ぶ。検出結果には、例えば、検出された人体候補の領域を示すバウンディングボックスの情報と、検出の信頼度(人体であることの確からしさ)の情報とが含まれるとよい。バウンディングボックスの情報は、例えば、バウンディングボックスの中心座標(x,y)(人体候補の検出位置に相当)、高さh、幅wを含むとよい。検出結果は、記憶部23に格納される。
図5は、人体検出部21の検出結果の例である。この例では、人体50、51、52、53の他、人体ではない物体54、55も人体候補として検出されてしまっている。符号50a~55aは、各人体候補のバウンディングボックスを示している。
なお、人体検出にはどのようなアルゴリズムを用いてもよい。例えば、HoGやHaa
r-likeなどの画像特徴とブースティングを組み合わせた識別器を用いてもよいし、ディープラーニング(例えば、R-CNN、Fast R-CNN、YOLO、SSDなど)による人体認識を用いてもよい。本実施形態では、人体として人の全身を検出しているが、これに限らず、上半身など体の一部を検出対象としてもよい。
r-likeなどの画像特徴とブースティングを組み合わせた識別器を用いてもよいし、ディープラーニング(例えば、R-CNN、Fast R-CNN、YOLO、SSDなど)による人体認識を用いてもよい。本実施形態では、人体として人の全身を検出しているが、これに限らず、上半身など体の一部を検出対象としてもよい。
次に、誤検出判定部25が、人体検出部21の検出結果に含まれるバウンディングボックス50a~55aのそれぞれについて、基準記憶部24に設定されている基準と比較することにより、誤検出の判定を行う(ステップS42)。図5の例では、バウンディングボックス54aと55aが条件を満たさないため、人体候補54と55が誤検出と判定される。誤検出判定の詳細は後述する。
誤検出(つまり、人体でない)と判定された人体候補が発見された場合には(ステップS43のYES)、誤検出判定部25は、記憶部23に記憶されている検出結果を修正する(ステップS44)。具体的には、誤検出判定部25は、誤検出と判定された人体候補の情報を検出結果から除外してもよいし、あるいは、誤検出と判定された人体候補の信頼度を下げてもよい。最後に、出力部26が、検出結果を外部装置に出力する(ステップS45)。以上で1フレームの魚眼画像に対する処理が終了する。
本実施形態の人検出処理によれば、魚眼画像をそのまま解析し、魚眼画像からダイレクトに人検出を行う。したがって、魚眼画像の平面展開や歪み補正といった前処理を省略でき、高速な人検出処理が可能である。魚眼画像をそのまま検出処理に用いる方法は、平面展開(歪み補正)した後に検出処理を行う方法に比べ、検出精度が低下するという課題があるが、本実施形態では、バウンディングボックスの形状やサイズの妥当性を検証することによって誤検出を排除するため、高精度な検出が実現できる。
<誤検出判定>
誤検出判定部25による誤検出判定の具体例を説明する。
誤検出判定部25による誤検出判定の具体例を説明する。
(1)アスペクト比に基づく判定
前述のように、魚眼画像は、画像中心からの方位と距離に依存してバウンディングボックスのアスペクト比が変化する、という特性を有する。この特性は計算によりあらかじめ数値化できる。図6は、魚眼画像を8×8の64個の小エリアに分割し、小エリアごとのアスペクト比h/wを計算した例である(hはバウンディングボックスのy方向の高さ、wはバウンディングボックスのx方向の幅である。)。このように求めた小エリアごとのアスペクト比の基準値(以下「基準アスペクト比」と呼ぶ)を定義したテーブルを基準記憶部24に格納しておけばよい。図6に示すように、画像中心をとおりx軸およびy軸にそれぞれ平行なA軸およびB軸を考えたとき、基準アスペクト比はA軸およびB軸に関して対称な変化を示す。この対称性を利用し、基準記憶部24には、魚眼画像の1/4の象限のテーブル(例えば、図6の網掛け部分)のみを格納しておくだけでもよい。これによりメモリ容量を削減することができる。
前述のように、魚眼画像は、画像中心からの方位と距離に依存してバウンディングボックスのアスペクト比が変化する、という特性を有する。この特性は計算によりあらかじめ数値化できる。図6は、魚眼画像を8×8の64個の小エリアに分割し、小エリアごとのアスペクト比h/wを計算した例である(hはバウンディングボックスのy方向の高さ、wはバウンディングボックスのx方向の幅である。)。このように求めた小エリアごとのアスペクト比の基準値(以下「基準アスペクト比」と呼ぶ)を定義したテーブルを基準記憶部24に格納しておけばよい。図6に示すように、画像中心をとおりx軸およびy軸にそれぞれ平行なA軸およびB軸を考えたとき、基準アスペクト比はA軸およびB軸に関して対称な変化を示す。この対称性を利用し、基準記憶部24には、魚眼画像の1/4の象限のテーブル(例えば、図6の網掛け部分)のみを格納しておくだけでもよい。これによりメモリ容量を削減することができる。
図7は、アスペクト比に基づく誤検出判定のフローチャートである。ステップS70にて、誤検出判定部25は、図4のステップS41で検出された人体候補の情報を記憶部23から読み込む。ステップS71にて、誤検出判定部25は、当該人体候補のバウンディングボックスのアスペクト比h/wを計算する。ステップS72にて、誤検出判定部25は、当該人体候補の検出位置(バウンディングボックスの中心座標)に対応する小エリアの基準アスペクト比を基準記憶部24から読み込む。ステップS73にて、誤検出判定部25は、人体候補のアスペクト比と基準アスペクト比を比較することによって、当該人体候補が人体であるか誤検出であるかを判定する。ここでは、例えば、人体候補のアスペクト比の基準アスペクト比に対する相対誤差REaが閾値Trea以下の場合に「人体」、
相対誤差REaが閾値Treaより大きい場合に「誤検出」と判定する。
相対誤差REaが閾値Treaより大きい場合に「誤検出」と判定する。
例えば、図5の人体候補51のバウンディングボックス51aのアスペクト比が1.02、対応する基準アスペクト比が1.00である場合、
相対誤差REa=|1.02-1.00|/1.00×100=2.0[%]
と求まる。例えば、閾値Trea=3%である場合、人体候補51は「人体」と判定される。一方、人体候補55のバウンディングボックス55aのアスペクト比が0.48、対応する基準アスペクト比が0.71である場合、
相対誤差REa=|0.48-0.71|/0.71×100=32.4[%]
と求まり、REa>Treaであるため、人体候補55は「誤検出」と判定される。
相対誤差REa=|1.02-1.00|/1.00×100=2.0[%]
と求まる。例えば、閾値Trea=3%である場合、人体候補51は「人体」と判定される。一方、人体候補55のバウンディングボックス55aのアスペクト比が0.48、対応する基準アスペクト比が0.71である場合、
相対誤差REa=|0.48-0.71|/0.71×100=32.4[%]
と求まり、REa>Treaであるため、人体候補55は「誤検出」と判定される。
(2)面積に基づく判定
前述のように、魚眼画像は、画像中心からの距離に依存してバウンディングボックスの面積が変化する、という特性を有する。この特性は計算によりあらかじめ数値化できる。図8は、魚眼画像を8×8の64個の小エリアに分割し、小エリアごとの面積(ピクセル数)を計算した例である。このように求めた小エリアごとの面積の基準値(以下「基準面積」と呼ぶ)を定義したテーブルを基準記憶部24に格納しておけばよい。図8に示すように、基準面積は画像中心に関して対称な変化を示す。この対称性を利用し、基準記憶部24には、魚眼画像の1/4の象限のテーブル(例えば、図8の網掛け部分)のみを格納しておくだけでもよい。これによりメモリ容量を削減することができる。
前述のように、魚眼画像は、画像中心からの距離に依存してバウンディングボックスの面積が変化する、という特性を有する。この特性は計算によりあらかじめ数値化できる。図8は、魚眼画像を8×8の64個の小エリアに分割し、小エリアごとの面積(ピクセル数)を計算した例である。このように求めた小エリアごとの面積の基準値(以下「基準面積」と呼ぶ)を定義したテーブルを基準記憶部24に格納しておけばよい。図8に示すように、基準面積は画像中心に関して対称な変化を示す。この対称性を利用し、基準記憶部24には、魚眼画像の1/4の象限のテーブル(例えば、図8の網掛け部分)のみを格納しておくだけでもよい。これによりメモリ容量を削減することができる。
図9は、面積に基づく誤検出判定のフローチャートである。ステップS90にて、誤検出判定部25は、図4のステップS41で検出された人体候補の情報を記憶部23から読み込む。ステップS91にて、誤検出判定部25は、当該人体候補のバウンディングボックスの面積を計算する。ステップS92にて、誤検出判定部25は、当該人体候補の検出位置(バウンディングボックスの中心座標)に対応する小エリアの基準面積を基準記憶部24から読み込む。ステップS93にて、誤検出判定部25は、人体候補の面積と基準面積を比較することによって、当該人体候補が人体であるか誤検出であるかを判定する。ここでは、例えば、人体候補の面積の基準面積に対する相対誤差REsが閾値Tres以下の場合に「人体」、相対誤差REsが閾値Tresより大きい場合に「誤検出」と判定する。
例えば、図5の人体候補51のバウンディングボックス51aの面積が130、対応する基準面積が144である場合、
相対誤差REs=|130-144|/144×100=9.7[%]
と求まる。例えば、閾値Tres=10%である場合、人体候補51は「人体」と判定される。一方、人体候補54のバウンディングボックス54aの面積が130、対応する基準面積が72である場合、
相対誤差REs=|130-72|/72×100=80.6[%]
と求まり、REs>Tresであるため、人体候補54は「誤検出」と判定される。
相対誤差REs=|130-144|/144×100=9.7[%]
と求まる。例えば、閾値Tres=10%である場合、人体候補51は「人体」と判定される。一方、人体候補54のバウンディングボックス54aの面積が130、対応する基準面積が72である場合、
相対誤差REs=|130-72|/72×100=80.6[%]
と求まり、REs>Tresであるため、人体候補54は「誤検出」と判定される。
(3)アスペクト比と面積の両方に基づく判定
上述した「(1)アスペクト比に基づく判定」と「(2)面積に基づく判定」を組み合わせることにより、誤検出判定の精度を向上してもよい。
上述した「(1)アスペクト比に基づく判定」と「(2)面積に基づく判定」を組み合わせることにより、誤検出判定の精度を向上してもよい。
具体的な方法の一つとして、アスペクト比の誤差と面積の誤差を個別に評価し、両方とも肯定判定だった場合に「人体」、いずれか一方でも否定判定だった場合に「誤検出」という判定結果を出力してもよい。例えば、前述の相対誤差と閾値を用いて、
REa≦Trea 且つ REs≦Tres ⇒ 人体
REa>Trea 又は REs>Tres ⇒ 誤検出
のように判定してもよい。
REa≦Trea 且つ REs≦Tres ⇒ 人体
REa>Trea 又は REs>Tres ⇒ 誤検出
のように判定してもよい。
別の方法として、アスペクト比の誤差と面積誤差を統合した総合誤差を評価し、「人体」か「誤検出」かを判定してもよい。以下は、2つの相対誤差REa、REsを重み付け加算した総合誤差REを閾値Treと比較することで判定を行う例である。wa、wbは重みである。
総合誤差RE=wa×REa+wb×REs
RE≦Tre ⇒ 人体
RE>Tre ⇒ 誤検出
総合誤差RE=wa×REa+wb×REs
RE≦Tre ⇒ 人体
RE>Tre ⇒ 誤検出
<その他>
上記実施形態は、本発明の構成例を例示的に説明するものに過ぎない。本発明は上記の具体的な形態には限定されることはなく、その技術的思想の範囲内で種々の変形が可能である。例えば、図6や図8に示したテーブルの値、上記実施形態で示した閾値などはいずれも説明のための例示にすぎない。また、上記実施形態では、矩形のバウンディングボックスを例示したが、矩形以外の形態(多角形、楕円、自由図形など)のバウンディングボックスを用いてもよい。また、上記実施形態では、アスペクト比や面積の相対誤差を評価したが、代わりに絶対誤差を評価してもよい。その場合、アスペクト比の値をその最大値で正規化したり、面積の値を魚眼画像の面積で正規化しておくとよい。
上記実施形態は、本発明の構成例を例示的に説明するものに過ぎない。本発明は上記の具体的な形態には限定されることはなく、その技術的思想の範囲内で種々の変形が可能である。例えば、図6や図8に示したテーブルの値、上記実施形態で示した閾値などはいずれも説明のための例示にすぎない。また、上記実施形態では、矩形のバウンディングボックスを例示したが、矩形以外の形態(多角形、楕円、自由図形など)のバウンディングボックスを用いてもよい。また、上記実施形態では、アスペクト比や面積の相対誤差を評価したが、代わりに絶対誤差を評価してもよい。その場合、アスペクト比の値をその最大値で正規化したり、面積の値を魚眼画像の面積で正規化しておくとよい。
<付記1>
(1)検出対象エリア(11)の上方に設置された魚眼カメラ(10)により得られた魚眼画像を解析して、前記検出対象エリア(11)内に存在する人(13)を検出する人検出装置(1)であって、
魚眼画像から人体候補を検出し、検出結果として、検出された人体候補それぞれの魚眼画像上における領域を表すバウンディングボックス(14)を出力する人体検出部(21)と、
バウンディングボックスの形状および/またはサイズに関する基準を、魚眼画像上の位置またはエリアごとに、あらかじめ記憶している基準記憶部(24)と、
前記検出結果に含まれる前記人体候補のバウンディングボックスの形状および/またはサイズを、当該人体候補の検出位置に対応する前記基準と比較することによって、当該人体候補が誤検出であるか否かを判定する誤検出判定部(25)と、
を有することを特徴とする人検出装置(1)。
(1)検出対象エリア(11)の上方に設置された魚眼カメラ(10)により得られた魚眼画像を解析して、前記検出対象エリア(11)内に存在する人(13)を検出する人検出装置(1)であって、
魚眼画像から人体候補を検出し、検出結果として、検出された人体候補それぞれの魚眼画像上における領域を表すバウンディングボックス(14)を出力する人体検出部(21)と、
バウンディングボックスの形状および/またはサイズに関する基準を、魚眼画像上の位置またはエリアごとに、あらかじめ記憶している基準記憶部(24)と、
前記検出結果に含まれる前記人体候補のバウンディングボックスの形状および/またはサイズを、当該人体候補の検出位置に対応する前記基準と比較することによって、当該人体候補が誤検出であるか否かを判定する誤検出判定部(25)と、
を有することを特徴とする人検出装置(1)。
(2)検出対象エリア(11)の上方に設置された魚眼カメラ(10)により得られた魚眼画像を解析して、前記検出対象エリア(11)内に存在する人を検出する人検出方法であって、
魚眼画像から人体候補を検出し、検出結果として、検出された人体候補それぞれの魚眼画像上における領域を表すバウンディングボックスを出力する人体検出ステップ(S41)と、
バウンディングボックスの形状および/またはサイズに関する基準を、魚眼画像上の位置またはエリアごとに、あらかじめ記憶している基準記憶部(24)を参照して、前記検出結果に含まれる前記人体候補のバウンディングボックスの形状および/またはサイズを、当該人体候補の検出位置に対応する前記基準と比較することによって、当該人体候補が誤検出であるか否かを判定する誤検出判定ステップ(S42)と、
を有することを特徴とする人検出方法。
魚眼画像から人体候補を検出し、検出結果として、検出された人体候補それぞれの魚眼画像上における領域を表すバウンディングボックスを出力する人体検出ステップ(S41)と、
バウンディングボックスの形状および/またはサイズに関する基準を、魚眼画像上の位置またはエリアごとに、あらかじめ記憶している基準記憶部(24)を参照して、前記検出結果に含まれる前記人体候補のバウンディングボックスの形状および/またはサイズを、当該人体候補の検出位置に対応する前記基準と比較することによって、当該人体候補が誤検出であるか否かを判定する誤検出判定ステップ(S42)と、
を有することを特徴とする人検出方法。
1:人検出装置
2:監視システム
10:魚眼カメラ
11:検出対象エリア
12:天井
13:人
2:監視システム
10:魚眼カメラ
11:検出対象エリア
12:天井
13:人
Claims (9)
- 検出対象エリアの上方に設置された魚眼カメラにより得られた魚眼画像を解析して、前記検出対象エリア内に存在する人を検出する人検出装置であって、
魚眼画像から人体候補を検出し、検出結果として、検出された人体候補それぞれの魚眼画像上における領域を表すバウンディングボックスを出力する人体検出部と、
バウンディングボックスの形状および/またはサイズに関する基準を、魚眼画像上の位置またはエリアごとに、あらかじめ記憶している基準記憶部と、
前記検出結果に含まれる前記人体候補のバウンディングボックスの形状および/またはサイズを、当該人体候補の検出位置に対応する前記基準と比較することによって、当該人体候補が誤検出であるか否かを判定する誤検出判定部と、
を有することを特徴とする人検出装置。 - バウンディングボックスの形状に関する基準は、バウンディングボックスのアスペクト比の基準を含む
ことを特徴とする請求項1に記載の人検出装置。 - 前記アスペクト比の基準は、
魚眼画像の中央エリアおよび前記中央エリアに対し斜め45度にあるエリアでは、バウンディングボックスが略正方形となり、
前記中央エリアの上側および下側のエリアでは、バウンディングボックスが縦長の長方形となり、
前記中央エリアの左側および右側のエリアでは、バウンディングボックスが横長の長方形となる、ように設定されている
ことを特徴とする請求項2に記載の人検出装置。 - バウンディングボックスのサイズに関する基準は、バウンディングボックスの面積の基準を含む
ことを特徴とする請求項1~3のいずれか1項に記載の人検出装置。 - 前記面積の基準は、魚眼画像の中心に近いエリアほど面積が大きくなるように設定されている
ことを特徴とする請求項4に記載の人検出装置。 - 前記誤検出判定部は、誤検出と判定された人体候補を前記検出結果から除外する
ことを特徴とする請求項1~5のいずれか1項に記載の人検出装置。 - 前記検出結果は、検出された人体候補それぞれの信頼度の情報を含んでおり、
前記誤検出判定部は、誤検出と判定された人体候補の信頼度を下げる
ことを特徴とする請求項1~5のいずれか1項に記載の人検出装置。 - 検出対象エリアの上方に設置された魚眼カメラにより得られた魚眼画像を解析して、前記検出対象エリア内に存在する人を検出する人検出方法であって、
魚眼画像から人体候補を検出し、検出結果として、検出された人体候補それぞれの魚眼画像上における領域を表すバウンディングボックスを出力する人体検出ステップと、
バウンディングボックスの形状および/またはサイズに関する基準を、魚眼画像上の位置またはエリアごとに、あらかじめ記憶している基準記憶部を参照して、前記検出結果に含まれる前記人体候補のバウンディングボックスの形状および/またはサイズを、当該人体候補の検出位置に対応する前記基準と比較することによって、当該人体候補が誤検出であるか否かを判定する誤検出判定ステップと、
を有することを特徴とする人検出方法。 - 請求項8に記載の人検出方法の各ステップをコンピュータに実行させるためのプログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018245230A JP7188067B2 (ja) | 2018-12-27 | 2018-12-27 | 人検出装置および人検出方法 |
PCT/JP2019/043051 WO2020137160A1 (ja) | 2018-12-27 | 2019-11-01 | 人検出装置および人検出方法 |
US17/294,755 US11770504B2 (en) | 2018-12-27 | 2019-11-01 | Person detection device and person detection method |
DE112019006463.0T DE112019006463T5 (de) | 2018-12-27 | 2019-11-01 | Personendetektionsvorrichtung und personendetektionsverfahren |
CN201980079231.7A CN113168693B (zh) | 2018-12-27 | 2019-11-01 | 人检测装置以及人检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018245230A JP7188067B2 (ja) | 2018-12-27 | 2018-12-27 | 人検出装置および人検出方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020107070A JP2020107070A (ja) | 2020-07-09 |
JP7188067B2 true JP7188067B2 (ja) | 2022-12-13 |
Family
ID=71126503
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018245230A Active JP7188067B2 (ja) | 2018-12-27 | 2018-12-27 | 人検出装置および人検出方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11770504B2 (ja) |
JP (1) | JP7188067B2 (ja) |
CN (1) | CN113168693B (ja) |
DE (1) | DE112019006463T5 (ja) |
WO (1) | WO2020137160A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022168621A (ja) * | 2021-04-26 | 2022-11-08 | オムロン株式会社 | 検出装置、検出装置の制御方法、学習済モデルを生成するモデル生成装置によるモデル生成方法、情報処理プログラム、および記録媒体 |
US11869250B2 (en) * | 2021-08-24 | 2024-01-09 | GM Global Technology Operations LLC | Systems and methods for detecting traffic objects |
JP2024008196A (ja) * | 2022-07-07 | 2024-01-19 | オムロン株式会社 | 情報処理装置および情報処理方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015210702A (ja) | 2014-04-28 | 2015-11-24 | キヤノン株式会社 | 画像処理装置及び画像処理方法 |
WO2017182225A1 (en) | 2016-04-21 | 2017-10-26 | Osram Gmbh | Training method and detection method for object recognition |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8855360B2 (en) * | 2008-07-23 | 2014-10-07 | Qualcomm Technologies, Inc. | System and method for face tracking |
CN102577347B (zh) * | 2009-06-29 | 2015-09-23 | 博世安防系统有限公司 | 全方位智能自动巡视和态势感知的球形监视摄像机系统和方法 |
JP5810296B2 (ja) * | 2011-06-07 | 2015-11-11 | パナソニックIpマネジメント株式会社 | 画像表示装置及び画像表示方法 |
CN103854272B (zh) * | 2012-11-28 | 2018-10-16 | 比亚迪股份有限公司 | 全景泊车系统自动找点匹配方法 |
JP2015104016A (ja) * | 2013-11-26 | 2015-06-04 | キヤノン株式会社 | 被写体検出装置、撮像装置、被写体検出装置の制御方法、被写体検出装置の制御プログラムおよび記憶媒体 |
KR101566784B1 (ko) * | 2014-04-25 | 2015-11-13 | 주식회사 영신 | 산업용 및 건설용 중장비 접근감시 및 작동제어 시스템 |
JP6381353B2 (ja) | 2014-08-08 | 2018-08-29 | キヤノン株式会社 | 画像処理装置、撮像装置、画像処理方法およびプログラム |
EP2988248B1 (en) * | 2014-07-22 | 2019-09-18 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, information processing apparatus, information processing method, and program |
CN104881866A (zh) * | 2015-04-30 | 2015-09-02 | 长安通信科技有限责任公司 | 一种扩展小孔成像模型的鱼眼相机矫正与标定方法 |
US9594984B2 (en) * | 2015-08-07 | 2017-03-14 | Google Inc. | Business discovery from imagery |
US11431893B2 (en) * | 2018-10-18 | 2022-08-30 | Panasonic Intellectual Property Management Co., Ltd. | Imaging apparatus |
-
2018
- 2018-12-27 JP JP2018245230A patent/JP7188067B2/ja active Active
-
2019
- 2019-11-01 CN CN201980079231.7A patent/CN113168693B/zh active Active
- 2019-11-01 DE DE112019006463.0T patent/DE112019006463T5/de active Pending
- 2019-11-01 US US17/294,755 patent/US11770504B2/en active Active
- 2019-11-01 WO PCT/JP2019/043051 patent/WO2020137160A1/ja active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015210702A (ja) | 2014-04-28 | 2015-11-24 | キヤノン株式会社 | 画像処理装置及び画像処理方法 |
WO2017182225A1 (en) | 2016-04-21 | 2017-10-26 | Osram Gmbh | Training method and detection method for object recognition |
Also Published As
Publication number | Publication date |
---|---|
US11770504B2 (en) | 2023-09-26 |
CN113168693B (zh) | 2024-04-30 |
US20220019768A1 (en) | 2022-01-20 |
JP2020107070A (ja) | 2020-07-09 |
WO2020137160A1 (ja) | 2020-07-02 |
DE112019006463T5 (de) | 2021-09-16 |
CN113168693A (zh) | 2021-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7192582B2 (ja) | 物体追跡装置および物体追跡方法 | |
JP7255173B2 (ja) | 人検出装置および人検出方法 | |
JP7188240B2 (ja) | 人検出装置および人検出方法 | |
JP7188067B2 (ja) | 人検出装置および人検出方法 | |
JP7272024B2 (ja) | 物体追跡装置、監視システムおよび物体追跡方法 | |
US8928778B2 (en) | Camera device, image processing system, image processing method and image processing program | |
WO2018112790A1 (zh) | 图象处理方法及装置 | |
JP6444283B2 (ja) | 姿勢判定装置 | |
JP7334432B2 (ja) | 物体追跡装置、監視システムおよび物体追跡方法 | |
JP2017156988A (ja) | 物体検出装置 | |
JP2019149006A (ja) | 画像選択プログラム、情報処理装置、システム、および画像選択方法 | |
US11462052B2 (en) | Image processing device, image processing method, and recording medium | |
TWI749370B (zh) | 臉部辨識方法及其相關電腦系統 | |
WO2017112036A2 (en) | Detection of shadow regions in image depth data caused by multiple image sensors | |
JP7338174B2 (ja) | 物体検出装置および物体検出方法 | |
JP2018063675A (ja) | 画像処理装置および制御方法 | |
JP6296769B2 (ja) | 物体検出装置 | |
WO2021140844A1 (ja) | 人体検出装置および人体検出方法 | |
Sadeghi et al. | Ocrapose ii: An ocr-based indoor positioning system using mobile phone images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211007 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221101 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221114 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7188067 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |