JP2024008196A - 情報処理装置および情報処理方法 - Google Patents

情報処理装置および情報処理方法 Download PDF

Info

Publication number
JP2024008196A
JP2024008196A JP2022109854A JP2022109854A JP2024008196A JP 2024008196 A JP2024008196 A JP 2024008196A JP 2022109854 A JP2022109854 A JP 2022109854A JP 2022109854 A JP2022109854 A JP 2022109854A JP 2024008196 A JP2024008196 A JP 2024008196A
Authority
JP
Japan
Prior art keywords
human body
color information
candidate
reference color
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022109854A
Other languages
English (en)
Inventor
大生 新川
Daiki Shinkawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2022109854A priority Critical patent/JP2024008196A/ja
Priority to PCT/JP2023/022618 priority patent/WO2024009744A1/ja
Publication of JP2024008196A publication Critical patent/JP2024008196A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

【課題】魚眼カメラで撮像された見下ろし画像で、人体の誤検出を低減することができる。【解決手段】情報処理装置は、人体の色情報を基準色情報として記憶する記憶部と、魚眼カメラによる撮像画像から人体候補を検出する検出部と、前記人体候補が検出された検出領域に対応する前記基準色情報を前記記憶部から取得し、取得した前記検出領域の前記基準色情報と、前記人体候補の色情報との類似度に基づいて、前記人体候補が人体であるか否かを判定する人体判定部と、を備える。【選択図】図1

Description

本発明は、情報処理装置および情報処理方法に関する。
近年、ファクトリーオートメーション(FA)市場では、魚眼見下ろしカメラにより人の動きを分析し、ライン生産方式およびセル生産方式などで工程の改善を図るためのアプリケーションが利用されている。人の動きを分析するためには、人体検出精度の向上が求められる。特許文献1は、撮像画像から抽出された顔候補領域の色相が肌色であるか否かを判定することにより、人物の顔として確からしい顔候補領域を顔領域として特定する技術を開示する。
特開2009-123081号公報
天井等に設置された魚眼カメラで撮像された見下ろし画像では、画像内の位置によって人の見え方が変化し、検出対象の人物の色情報は、検出される位置によって異なる。したがって、魚眼カメラによる撮像画像では色情報を用いても、誤検出を低減することは困難な場合がある。
本発明は、一側面では、魚眼カメラで撮像された見下ろし画像で、人体の誤検出を低減する技術を提供することを目的とする。
本発明は、上記目的を達成するために、以下の構成を採用する。
本開示の第一側面は、人体の色情報を基準色情報として記憶する記憶部と、魚眼カメラによる撮像画像から人体候補を検出する検出部と、人体候補が検出された検出領域に対応する基準色情報を記憶部から取得し、取得した検出領域の基準色情報と、人体候補の色情報との類似度に基づいて、人体候補が人体であるか否かを判定する人体判定部と、を備える情報処理装置である。
情報処理装置は、人体候補が検出された位置(検出領域)に応じた基準色情報と比較することで、検出された人体候補が人体であるか否かを精度良く判定し、魚眼カメラで撮像された見下ろし画像での人体の誤検出を低減することができる。
記憶部は、魚眼カメラによる撮像画像を分割した複数の領域ごとに、領域で検出された人体の色情報を基準色情報として記憶してもよい。情報処理装置は、領域ごとの基準色情報を用意することで、領域内で検出された人体候補が人体であるか否かを精度良く判定することができる。
情報処理装置は、領域で検出された人体の色情報から、領域の基準色情報を生成して記憶部に記憶させる生成部をさらに備えてもよい。生成部を備えることで、情報処理装置は、人体検出処理をしながら基準色情報を生成したり、更新したりすることができる。情報処理装置は、基準色情報を継続的に更新することができ、背景および人物の特徴等の経時
的な変化に伴う人体検出の精度の低下を抑制することができる。
生成部は、複数の撮像画像の領域でそれぞれ検出された人体の色情報に基づいて、領域に対応する基準色情報を生成してもよい。情報処理装置は、複数の学習用の撮像画像から各領域に対応する基準色情報を生成することで、より平均的な色情報マップを作成することができる。
生成部は、領域で新たに検出された人体の色情報と、領域に対応する基準色情報との相関係数が第1閾値以上である場合には、領域で新たに検出された人体の色情報に基づいて領域の基準色情報を更新し、領域で新たに検出された人体の色情報と、領域の基準色情報との相関係数が第1閾値以下の第2閾値未満である場合には、領域で新たに検出された人体の色情報を領域の新たな基準色情報として記憶部に記憶させてもよい。情報処理装置は、学習用の撮像画像から、特徴の異なる色情報を、新たな基準色情報を記憶部に記憶させる。各領域が複数の基準色情報に対応づけられ、情報処理装置は、色の特徴が異なる人物を検出するような場合でも、精度良く人体を検出することができる。
基準色情報は、領域で検出された人体を囲む枠内での画素値に基づいて生成され、人体候補の色情報は、人体候補を囲む枠内での画素値に基づいて生成されてもよい。情報処理装置は、人体と人体候補との画素値の違いに基づいて、誤検出を抑制することができる。
基準色情報は、領域で検出された人体を囲む枠内から撮像画像の背景を除く部分での画素値に基づいて生成され、人体候補の色情報は、人体候補を囲む枠内から撮像画像の背景部分を除く部分での画素値に基づいて生成されてもよい。情報処理装置は、背景部分を除いて色情報を生成することで、実際の人体および人体候補の部分のみから、基本色情報および色情報を生成することができ、精度良く人体を検出することができる。
基準色情報は、領域で検出された人体を囲む枠内での画素値のヒストグラムであり、人体候補の色情報は、人体候補を囲む枠内での画素値のヒストグラムであってもよい。情報処理装置は、人体と人体候補との画素値の分布の違いに基づいて、誤検出を抑制することができる。
人体判定部は、人体候補の色情報のヒストグラムと、検出領域に対応する基準色情報のヒストグラムとの相関係数が所定の閾値以上の場合に、人体候補が人体であると判定してもよい。情報処理装置は、ヒストグラム間の相関係数(類似度)に応じて、人体候補が人体であるか否かを判定することができる。情報処理装置は、所定の閾値を変更することで、色の特徴の違いに対する検出精度を調整することができる。
画素値のヒストグラムは、RGBごとのヒストグラムであってもよい。また、人体判定部は、人体候補の色情報のRGBごとのヒストグラムと、検出領域に対応する基準色情報のRGBごとのヒストグラムとのそれぞれの相関係数の平均値、最大値または最小値に基づいて、人体候補が人体であるか否かを判定してもよい。情報処理装置は、人体と人体候補とで色の特徴が異なる場合の誤検出を抑制することができる。
基準色情報は、領域で検出された人体を囲む枠内の画素のRGBの最頻値または平均値であり、人体候補の色情報は、人体候補を囲む枠内の画素のRGBの最頻値または平均値であってもよい。情報処理装置は、人体候補の色情報と基準色情報とを簡易な計算で比較し、精度良く人体を検出することができる。
基準色情報は、複数の撮像画像において領域で検出された人体の色情報を平均化した情報であってもよい。また、基準色情報は、複数の撮像画像において領域で検出された人体
の色情報を教師データとして学習させ、入力された人体候補の色情報が、検出領域で検出される人体の色情報であるか否かを出力する学習済みモデルであってもよい。情報処理装置は、複数の学習用の撮像画像から各領域に対応する基準色情報を生成することで、より平均的な色情報マップを作成することができる。
領域は、複数の基準色情報に対応づけられてもよい。情報処理装置は、色の特徴が異なる人物を検出するような場合でも、精度良く人体を検出することができる。
情報処理装置は、人体判定部により、人体であると判定された人体候補を、人体の検出結果としてユーザに提示する出力部をさらに備えてもよい。情報処理装置は、色情報を考慮した人体の検出結果をユーザに提示することができる。
記憶部は、魚眼カメラによる撮像画像の中心位置からの距離に応じた基準色情報を記憶してもよい。情報処理装置は、撮像画像の中心位置からの距離に応じた基準色情報を用意することで、当該距離で検出された人体候補が人体であるか否かを精度良く判定することができる。
本発明の第二側面は、コンピュータが、魚眼カメラによる撮像画像を分割した複数の領域ごとに、領域で検出された人体の色情報を、領域の基準色情報として記憶部に記憶する記憶ステップと、撮像画像から人体候補を検出する検出ステップと、領域のうち人体候補が検出された検出領域に対応する基準色情報を記憶部から取得し、取得した検出領域の基準色情報と、人体候補の色情報とに基づいて、人体候補が人体であるか否かを判定する人体判定ステップと、を含む情報処理方法である。
本発明は、かかる方法をコンピュータによって実現するためのプログラムやそのプログラムを非一時的に記録した記録媒体として捉えることもできる。なお、上記処理の各々は可能な限り互いに組み合わせて本発明を構成することができる。
本発明によれば、魚眼カメラで撮像された見下ろし画像で、人体の誤検出を低減することができる。
図1は、実施形態に係る情報処理装置の適用例を説明する図である。 図2は、情報処理装置のハードウェア構成を例示する図である。 図3は、情報処理装置の機能構成を例示する図である。 図4は、人体検出処理を例示するフローチャートである。 図5は、変形例1に係る色情報について説明する図である。 図6は、変形例2に係る色情報について説明する図である。 図7は、変形例3に係る色情報マップについて説明する図である。 図8は、変形例4に係る色情報マップについて説明する図である。
以下、本発明の一側面に係る実施の形態を、図面に基づいて説明する。
<適用例>
図1は、実施形態に係る情報処理装置の適用例を説明する図である。情報処理装置は、カメラで撮像されたカメラ画像(撮像画像)から、人体であると認識された被写体(以下、人体候補と称される)を検出し、色情報を用いて人体候補が人体であるか否かを判定する。
情報処理装置は、撮像画像を複数の領域に分割し、それぞれの領域で検出された人体の色情報を取得(生成)する。図1の例では、学習用の撮像画像1は、4×4の矩形の領域に分割されている。情報処理装置は、領域A1で検出された人体を囲む枠内の画素について、RGBごとのヒストグラムを人体の色情報として生成する。生成された色情報は、人体候補が人体であるか否かを判定するための基準となる色情報(以下、基準色情報と称される)として記憶部に記憶される。基準色情報は、各領域で検出された人体の色情報であり、撮像画像を分割した複数の領域ごとに生成される。
情報処理装置は、検出対象の撮像画像では人体候補を検出し、人体候補の色情報を生成する。図1は、情報処理装置が、撮像画像2の領域A1でパーソナルコンピュータ(PC)を人体候補として検出した例を示す。情報処理装置は、検出したPCを囲む枠内の画素について、RGBごとのヒストグラムを人体候補の色情報として生成する。
情報処理装置は、撮像画像2の領域A1で検出されたPCの色情報を、領域A1の基準色情報と比較し、これらの類似度に基づいて、人体候補として検出されたPCが人体であるか否かを判定する。情報処理装置は、例えば、人体候補(PC)の色情報のヒストグラムと基準色情報のヒストグラムとの相関係数を類似度として計算し、相関係数が所定の閾値以上である場合に、人体候補が人体であると判定することができる。
相関係数は、公知の各種方法により、例えば0以上1以下の値として計算される。図1の例では、情報処理装置は、RGBごとのヒストグラム間で相関係数を計算し、例えば、3つの相関係数の平均値を、人体であるか否かの判定するための相関係数として用いることができる。所定の閾値は、例えば、0.6以上0.9以下の値とすることができる。所定の閾値を上げることで、情報処理装置は、人体であるか否かをより精度よく判定することができる。
人体検出のための撮像に使用されるカメラは、広範囲の画像情報を取得することが可能な魚眼レンズを搭載した超広角のカメラである。魚眼レンズを搭載したカメラは、魚眼カメラ、全方位カメラ、全天球カメラなどとも呼ばれるが、本明細書では「魚眼カメラ」の語を用いる。
魚眼カメラで撮影した画像は、撮像画像内の位置によって撮影対象の見た目に歪みが生じる。例えば、魚眼カメラが天井から床面を見下ろすように配置された場合、撮影された人物の画像は、足元が中心を向き、頭頂部は外側を向いている。人体は、撮像画像の周辺では正面像、背面像または側面像となり、撮像画像の中央では上面像となる。
このため、同一人物または同じ制服を着用した人物であっても、検出される領域によって、生成される色情報は異なる。情報処理装置は、人体候補の色情報を、人体候補が検出された領域(検出領域)に対応する基準色情報と比較することで、人体候補が人体であるか否かを精度良く判定することができる。したがって、情報処理装置は、魚眼カメラで撮像された見下ろし画像での人体の誤検出を低減することができる。
なお、特定の場所に設置されたカメラの撮像画像から人体候補を検出する場合、情報処理装置は、主に撮像画像から背景画像を除いた背景差分から人体候補を検出する。この場合、背景差分に含まれる物体は、人体でない場合でも、人体候補として検出される可能性が高くなる。特に、特定の環境で人体を検出するように学習させたモデルを用いて人体を検出した場合、背景に含まれず色の異なる物体は、人体として検出されてしまう場合がある。情報処理装置は、色情報を用いて人体であるか否かを判定することで、背景差分からの物体の誤検出を低減することが可能となる。
<実施形態>
(ハードウェア構成)
図2を参照して、情報処理装置10のハードウェア構成の一例について説明する。図2は、情報処理装置10のハードウェア構成を例示する図である。情報処理装置10は、プロセッサ101、主記憶部102、補助記憶部103、通信インタフェース(I/F)104、表示部105を備える。
プロセッサ101は、補助記憶部103に記憶されたプログラムを主記憶部102に読み出して実行することにより、図3で説明する各機能構成としての機能を実現する。主記憶部102は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)等の半導体メモリである。補助記憶部103は、例えば、ハードディスクドライブ、ソリッドステートドライブ等の不揮発性のメモリである。
通信インタフェース104は、有線(USBケーブル、LANケーブルなど)または無線(WiFiなど)で通信を行うためのインタフェースである。表示部105は、人体の検出結果を表示するためのディスプレイ等である。
情報処理装置10は、パーソナルコンピュータ、サーバコンピュータ、タブレット端末、スマートフォンのような汎用的なコンピュータでもよく、オンボードコンピュータのように組み込み型のコンピュータでもよい。情報処理装置10は、各機能部の処理の一部をクラウドサーバにより実現してもよい。また、情報処理装置10の各機能部の処理の一部は、FPGAまたはASICなどの専用のハードウェア装置によって実現されてもよい。
情報処理装置10は、有線または無線でカメラ20に接続され、カメラ20で撮影された画像データ(撮像画像)を受信する。カメラ20は、レンズを含む光学系および撮像素子(CCDやCMOSなどのイメージセンサ)を有する撮像装置である。
なお、情報処理装置10の処理の一部は、カメラ20で実行されてもよい。また、情報処理装置10による人体検出の結果は、外部の装置に送信されユーザに提示されるようにしてもよい。さらに、情報処理装置10は、カメラ20と一体に構成されてもよい。
(機能構成)
図3を参照して、情報処理装置10の機能構成の一例について説明する。図3は、情報処理装置10の機能構成を例示する図である。情報処理装置10は、色情報生成部11、検出部12、人体判定部13、出力部14および色情報データベース15(色情報DB15)を含む。
色情報生成部11は、カメラ20によって撮像された撮像画像を取得し、撮像画像を分割した複数の領域ごとに、当該領域で検出された人体の色情報から、当該領域の基準色情報を生成する。撮像画像を分割した各領域と対応づけられた基準色情報のデータは、色情報マップとも称される。
色情報は、検出された人体を囲む枠内での画素値に基づいて生成される。例えば、色情報生成部11は、人体を囲む枠内の画素の画素値(輝度値)をヒストグラムとして表した情報を、人体が検出された領域の基準色情報として生成する。色情報生成部11は、RGBごとのヒストグラムを基準色情報として生成してもよい。色情報生成部11は、生成した基準色情報を、人体が検出された領域と対応づけて色情報データベース15に記憶させる。
色情報生成部11は、基準色情報と同様に、撮像画像から検出した人体候補の色情報も生成することができる。人体候補の色情報は、人体判定部13により、人体候補が人体であるか否かを判定するために用いられる。色情報生成部11は、「生成部」の一例である。
検出部12は、カメラ20によって撮像された撮像画像を取得し、撮像画像から人体候補を検出する。検出部12は、一般的な物体認識のアルゴリズムを用いて、人体候補を検出することができる。例えば、検出部12は、HoGまたはHaar-likeなどの画像特徴とブースティングとを組み合わせた識別器を用いて人体候補を検出することができる。また、検出部12は、ディープラーニング(例えば、R-CNN、Faster R-CNN、YOLO、SSDなど)による人体認識のアルゴリズムを用いて人体候補を検出してもよい。
人体判定部13は、検出部12が検出した人体候補が、人体であるか否かを判定する。人体判定部13は、撮像画像の複数の領域のうち人体候補が検出された検出領域に対応する基準色情報と、人体候補の色情報との類似度に基づいて、人体候補が人体であるか否かを判定する。検出領域は、例えば、人体候補を囲む矩形枠の中心位置が検出された領域とすることができる。
出力部14は、人体判定部13により人体であると判定された人体候補を、人体の検出結果として出力する。出力部14は、例えば、検出された人体を囲む矩形を撮像画像上に重畳表示することにより、人体の検出結果をユーザに提示することができる。
色情報データベース15は、あらかじめ色情報生成部11が作成した色情報マップを記憶する。色情報マップは、撮像画像を分割した領域と、当該領域と対応づけられた基準色情報のデータを含む。色情報マップの基準色情報は、人体の検出処理を実行しながら更新されるようにしてもよい。色情報データベース15は、「記憶部」の一例である。
(人体検出処理)
図4を参照して、人体検出処理の全体的な流れを説明する。図4は、人体検出処理を例示するフローチャートである。人体検出処理は、例えば、カメラ20の電源が入り、情報処理装置10がカメラ20から撮像画像を受信することにより開始される。なお、図4に示す人体検出処理は、カメラ20から受信する画像データの1フレーム(撮像画像)ごとに実行される処理である。また、色情報マップは、色情報生成部11によってあらかじめ作成され、色情報データベース15に記憶されているものとする。
ステップS101では、検出部12は撮像画像を取得する。検出部12は、通信インタフェース104を介して、カメラ20から撮像画像を取得することができる。なお、情報処理装置10がカメラ(撮像部)と一体に構成されている場合には、色情報生成部11は、撮像部により撮像された撮像画像を取得する。
ステップS102では、検出部12は、ステップS101で取得した撮像画像から人体候補を検出する。検出部12は、ディープラーニング等の公知の技術を使用して人体候補を検出することができる。ステップS102で複数の人体候補が検出された場合、各人体候補に対してステップS103からステップS106の人体判定処理L1が繰り返される。
ステップS103では、人体判定部13は、ステップS102で検出された人体候補が人体であるか否かを判定する。人体判定部13は、まず、撮像画像を分割した複数の領域
のうち、人体候補が検出された検出領域に対応する基準色情報を色情報データベース15から取得する。次に、人体判定部13は、取得した当該検出領域の基準色情報と、検出された人体候補の色情報との類似度に基づいて、人体候補が人体であるか否かを判定する。人体候補の色情報は、色情報生成部11により取得される。
色情報は、図1で例示したように、RGBごとのヒストグラムとする。この場合、人体判定部13は、人体候補の色情報のRGBごとのヒストグラムと、基準色情報のRGBごとのヒストグラムとの相関係数をそれぞれ計算する。
ステップS104では、人体判定部13は、ステップS103で計算した相関係数が所定の閾値以上であるか否かを判定する。人体判定部13は、例えば、RGBのヒストグラムのそれぞれの相関係数の平均値、最大値または最小値が所定の閾値以上の場合に、人体候補が人体であると判定する。なお、人体判定部13は、RGBのヒストグラムのそれぞれの相関係数が、いずれも所定の閾値以上の場合に、人体候補が人体であると判定してもよい。
相関係数が所定の閾値以上であり、人体候補が人体であるとされた場合(ステップS104:YES)、処理はステップS105に進む。相関係数が所定の閾値未満であり、人体候補が人体でないと判定された場合(ステップS104:NO)、処理はステップS106に進む。
ステップS105では、人体判定部13は、判定対象の人体候補を人体の検出結果として採用し、補助記憶部103等に保持する。ステップS106では、人体判定部13は、判定対象の人体候補を誤検出として除去する。
ステップS102で検出された各人体候補に対して、人体判定処理L1が実行されると、処理はステップS107に進む。ステップS107では、出力部14は、ステップS105で検出結果として採用された人体の情報を出力する。出力部14は、検出結果を表示部105に表示してもよい。出力部14は、例えば、検出された人体を囲む矩形を撮像画像上に重畳表示することにより、人体の検出結果をユーザに提示することができる。出力部14は、検出結果を外部装置に出力し、外部装置のディスプレイ等に表示させてもよい。
現在のフレーム(撮像画像)に対する人体検出処理が終了すると、次のフレームに対する人体検出処理が開始される。情報処理装置10は、カメラ20による撮像処理が停止されるまで図4の人体検出処理を繰り返し実行する。
上記の実施形態において、情報処理装置10は、撮像画像から人体候補を検出し、人体候補が検出された検出領域に対応する基準色情報と、人体候補の色情報との類似度に基づいて、人体候補が人体であるか否かを判定する。魚眼カメラによる撮像画像では、撮像された位置によって見え方が異なるが、情報処理装置10は、人体候補が検出された位置(検出領域)に応じた基準色情報と比較することで、検出された人体候補が人体であるか否かを精度良く判定することができる。したがって、情報処理装置10は、魚眼カメラで撮像された見下ろし画像での人体の誤検出を低減することができる。
<変形例1>
上記の実施形態は、色情報が画素値のヒストグラムである例を示す。変形例1は、色情報を、人体または人体候補を囲む枠内の画素のRGBの最頻値とする例である。なお、最頻値に限られず、色情報は、人体または人体候補を囲む枠内の画素のRGBの平均値であってもよい。
図5は、変形例1に係る色情報について説明する図である。撮像画像1は、基準色情報を生成するための学習用の撮像画像であり、撮像画像2は、人体の検出対象である撮像画像である。
色情報生成部11は、撮像画像1の領域A1で検出された人体を囲む枠内の画素について、RGBの最頻値(r,g,b)を取得し、領域A1の基準色情報として色情報データベース15に記憶させる。また、色情報生成部11は、撮像画像2の領域A1で検出されたPC(人体候補)を囲む枠内の画素について、RGBの最頻値(r,g,b)を人体候補の色情報として取得する。最頻値は、人体または人体候補を囲む枠内の画素のうち最も多く登場する画素値である。r,g,b1,,g,bは、0から255までの値で表される。
人体判定部13は、基準色情報のRGB最頻値(r,g,b)と人体候補の色情報のRGBの最頻値(r,g,b)との距離dを、以下の(式1)により計算する。
Figure 2024008196000002

人体判定部13は、距離dが所定の閾値以下の場合は、人体候補が人体であると判定し、距離dが所定の閾値より大きい場合は、人体候補が人体でないと判定することができる。なお、相関係数は、例えば、距離dが小さくなるにつれて大きくなるように換算式を定義して、算出されるようにしてもよい。この場合、人体判定部13は、ヒストグラムの場合と同様に、相関係数を所定の閾値と比較することにより、人体候補が人体であるか否かを判定することができる。
変形例1によれば、情報処理装置10は、人体候補の色情報と基準色情報とを簡易な計算で比較し、精度良く人体を検出することができる。
<変形例2>
変形例2は、人体または人体候補を囲む枠内から背景を除く部分での画素値に基づいて色情報を生成する例である。背景部分の画素を除外することで、色情報生成部11は、人体または人体候補の色情報をより正確に生成することができる。
図6は、変形例2に係る色情報について説明する図である。図6では、検出対象の撮像画像60から、検出された人体候補の色情報を生成する例について説明する。色情報生成部11は、学習用の撮像画像から人体の基準色情報も同様に生成することができる。
検出部12は、撮像画像60から人体候補を検出する。人体候補を囲む矩形の枠61は背景画像を含むため、枠61内の画素値から色情報を生成した場合、生成される色情報は、人体候補以外の背景部分の色の情報を含んでしまう。そこで、色情報生成部11は、撮像画像60と背景画像62との差分である背景差分63を取得し、背景差分63での人体候補64から色情報を生成する。
変形例2によれば、情報処理装置10は、背景部分を除いて色情報を生成することで、実際の人体および人体候補の部分のみから、基本色情報および色情報を生成することができ、精度良く人体を検出することができる。
<変形例3>
上記の実施形態は、各領域に対応する基準色情報を1つの学習用の撮像画像から生成する例を示す。変形例3は、複数の学習用の撮像画像から各領域に対応する基準色情報を生成し、色情報マップを作成する例である。
図7は、変形例3に係る色情報マップについて説明する図である。色情報生成部11は、例えば、撮像画像70および撮像画像72の領域A1で検出された人体の色情報71および色情報73を平均化することにより、領域A1に対応する基準色情報74を生成する。
色情報生成部11は、撮像画像70および撮像画像72の2つに限られず、3つ以上の撮像画像から基準色情報を生成してもよい。また、色情報生成部11は、複数の学習用の撮像画像において、領域A1で検出された人体の色情報を教師データとして学習させた学習済みモデルを基準色情報として生成してもよい。この学習済みモデルは、入力された人体候補の色情報が、検出領域で検出される人体の色情報であるか否かを出力する。
変形例3によれば、情報処理装置10は、複数の学習用の撮像画像から各領域に対応する基準色情報を生成することで、より平均的な色情報マップを作成することができる。
<変形例4>
変形例4は、変形例3と同様に、複数の学習用の撮像画像から各領域に対応する基準色情報を生成し、色情報マップを作成する例である。変形例3は、複数の学習用の撮像画像から1つの基準色情報を生成する例であるのに対し、変形例4は、複数の学習用の撮像画像から複数の基準色情報を生成する例である。変形例4では、学習用の撮像画像のいずれかの撮像画像から、現在の基準色情報と相関係数が所定の閾値未満の色情報が生成された場合、当該色情報は、新たな基準色情報として保持される。
図8は、変形例4に係る色情報マップについて説明する図である。色情報生成部11は、まず、撮像画像80で検出された人体の色情報81を、領域A1での基準色情報81として採用する。
次に、色情報生成部11は、撮像画像82で新たに検出された人体の色情報83を生成し、基準色情報81との相関係数を計算する。相関係数が所定の閾値(第1閾値)以上である場合、色情報生成部11は、色情報83に基づいて基準色情報81を更新する。色情報生成部11は、例えば、基準色情報81を色情報83と平均化することにより、基準色情報84に更新する。第1閾値は、例えば、0.6以上0.9以下の値とすることができる。
また、色情報生成部11は、撮像画像85で新たに検出された人体の色情報86を生成し、基準色情報84との相関係数を計算する。相関係数が所定の閾値(第2閾値)未満である場合、色情報生成部11は、色情報86を領域A1での新たな基準色情報86として採用し、色情報データベース15に記憶させる。第2閾値は、第1閾値以下の値であり、例えば、0.3以上0.6以下の値とすることができる。
さらに他の学習用の撮像画像がある場合も同様に、色情報生成部11は、新たに検出された人体の色情報と、基準色情報84および基準色情報86との相関係数をそれぞれ計算する。色情報生成部11は、相関係数が第1閾値以上となれば、新たに検出された人体の色情報に基づいて、当該基準色情報を更新する。また、いずれの基準色情報に対しても相関係数が第2閾値未満となった場合、色情報生成部11は、新たに検出された人体の色情報を、領域A1での新たな基準色情報として採用し、色情報データベース15に記憶させる。
変形例4によれば、情報処理装置10は、学習用の撮像画像から、特徴の異なる色情報が生成された場合、新たな基準色情報として色情報データベース15に記憶させる。各領域が複数の基準色情報に対応づけられることにより、情報処理装置10は、制服の色が異なる人物を検出するような場合でも、精度良く人体を検出することができる。
また、各領域で複数の基準色情報を採用することにより、異なる特徴を有する人物が検出された頻度等の情報を取得することができ、これらの情報は、ファクトリーオートメーションにおける工程改善に有用な情報として用いることができる。
<変形例5>
上記の実施形態では、各領域に対する基準色情報を含む色情報マップは、あらかじめ用意されている例について説明したが、色情報マップは、人体検出処理をしながら生成、更新されてもよい。人体判定部13は、図4に示す人体検出処理のステップS105で、人体候補が人体であると判定された場合、人体であると判定された人体候補の色情報を、現在の基準色情報と平均化することで、基準色情報を更新する。
変形例5によれば、情報処理装置10は、基準色情報を継続的に更新することができるため、背景および人物の特徴等の経時的な変化に伴う人体検出の精度の低下を抑制することができる。
<その他>
上記の実施形態および各変形例は、本発明の構成例を例示的に説明するものに過ぎない。本発明は上記の具体的な形態には限定されることはなく、その技術的思想の範囲内で種々の組み合わせおよび変形が可能である。
なお、上記の実施形態および各変形例では、撮像画像を4×4の矩形の領域に分割して人体検出処理を実行する例により説明したが、撮像画像の分割方法は、4×4の矩形領域に限られない。分割された領域の数は、4×4より多くても少なくてもよい。また分割された領域の形状は矩形に限られず、同心円状の領域としてもよい。また、情報処理装置10は、分割された領域ごとに基準色情報を用意する場合に限られず、撮像画像の中心位置からの距離に応じた基準色情報を用意するようにしてもよい。
<付記>
(1)人体の色情報を基準色情報として記憶する記憶部(15)と、
魚眼カメラによる撮像画像から人体候補を検出する検出部(12)と、
前記人体候補が検出された検出領域に対応する前記基準色情報を前記記憶部から取得し、取得した前記検出領域の前記基準色情報と、前記人体候補の色情報との類似度に基づいて、前記人体候補が人体であるか否かを判定する人体判定部(13)と、
を備える情報処理装置(10)。
(2)コンピュータが、
人体の色情報を基準色情報として記憶部に記憶する記憶ステップと、
魚眼カメラによる撮像画像から人体候補を検出する検出ステップ(ステップS102)と、
前記人体候補が検出された検出領域に対応する前記基準色情報を前記記憶部から取得し、取得した前記検出領域の前記基準色情報と、前記人体候補の色情報との類似度に基づいて、前記人体候補が人体であるか否かを判定する人体判定ステップ(ステップS103~S106)と、
を含む情報処理方法。
10:情報処理装置、11:色情報生成部、12:検出部、13:人体判定部、14:出力部、15:色情報データベース、20:カメラ
101:プロセッサ、102:主記憶部、103:補助記憶部、104:通信インタフェース、105:表示部

Claims (19)

  1. 人体の色情報を基準色情報として記憶する記憶部と、
    魚眼カメラによる撮像画像から人体候補を検出する検出部と、
    前記人体候補が検出された検出領域に対応する前記基準色情報を前記記憶部から取得し、取得した前記検出領域の前記基準色情報と、前記人体候補の色情報との類似度に基づいて、前記人体候補が人体であるか否かを判定する人体判定部と、
    を備える情報処理装置。
  2. 前記記憶部は、前記魚眼カメラによる撮像画像を分割した複数の領域ごとに、前記領域で検出された人体の色情報を前記基準色情報として記憶する、
    請求項1に記載の情報処理装置。
  3. 前記領域で検出された人体の色情報から、前記領域の前記基準色情報を生成して前記記憶部に記憶させる生成部をさらに備える、
    請求項2に記載の情報処理装置。
  4. 前記生成部は、複数の前記撮像画像の前記領域でそれぞれ検出された人体の色情報に基づいて、前記領域に対応する前記基準色情報を生成する、
    請求項3に記載の情報処理装置。
  5. 前記生成部は、
    前記領域で新たに検出された人体の色情報と、前記領域に対応する前記基準色情報との相関係数が第1閾値以上である場合には、前記領域で新たに検出された人体の色情報に基づいて前記領域の前記基準色情報を更新し、
    前記領域で新たに検出された人体の色情報と、前記領域の前記基準色情報との相関係数が前記第1閾値以下の第2閾値未満である場合には、前記領域で新たに検出された人体の色情報を前記領域の新たな前記基準色情報として前記記憶部に記憶させる、
    請求項3に記載の情報処理装置。
  6. 前記基準色情報は、前記領域で検出された人体を囲む枠内での画素値に基づいて生成され、
    前記人体候補の色情報は、前記人体候補を囲む枠内での画素値に基づいて生成される、請求項2から5のいずれか1項に記載の情報処理装置。
  7. 前記基準色情報は、前記領域で検出された人体を囲む枠内から前記撮像画像の背景を除く部分での画素値に基づいて生成され、
    前記人体候補の色情報は、前記人体候補を囲む枠内から前記撮像画像の背景部分を除く部分での画素値に基づいて生成される、
    請求項6に記載の情報処理装置。
  8. 前記基準色情報は、前記領域で検出された人体を囲む枠内での画素値のヒストグラムであり、
    前記人体候補の色情報は、前記人体候補を囲む枠内での画素値のヒストグラムである、請求項6に記載の情報処理装置。
  9. 前記人体判定部は、前記人体候補の色情報のヒストグラムと、前記検出領域に対応する前記基準色情報のヒストグラムとの相関係数が所定の閾値以上の場合に、前記人体候補が人体であると判定する、
    請求項8に記載の情報処理装置。
  10. 前記画素値のヒストグラムは、RGBごとのヒストグラムである、
    請求項8に記載の情報処理装置。
  11. 前記人体判定部は、前記人体候補の色情報のRGBごとのヒストグラムと、前記検出領域に対応する前記基準色情報のRGBごとのヒストグラムとのそれぞれの相関係数の平均値、最大値または最小値に基づいて、前記人体候補が人体であるか否かを判定する、
    請求項10に記載の情報処理装置。
  12. 前記基準色情報は、前記領域で検出された人体を囲む枠内の画素のRGBの最頻値または平均値であり、
    前記人体候補の色情報は、前記人体候補を囲む枠内の画素のRGBの最頻値または平均値である、
    請求項6に記載の情報処理装置。
  13. 前記基準色情報は、複数の前記撮像画像において前記領域で検出された人体の色情報を平均化した情報である、
    請求項2から5のいずれか1項に記載の情報処理装置。
  14. 前記基準色情報は、複数の前記撮像画像において前記領域で検出された人体の色情報を教師データとして学習させ、入力された前記人体候補の色情報が、前記検出領域で検出される人体の色情報であるか否かを出力する学習済みモデルである、
    請求項2から5のいずれか1項に記載の情報処理装置。
  15. 前記領域は、複数の前記基準色情報に対応づけられる、
    請求項2から5のいずれか1項に記載の情報処理装置。
  16. 前記人体判定部により、人体であると判定された前記人体候補を、人体の検出結果としてユーザに提示する出力部をさらに備える、
    請求項1から5のいずれか1項に記載の情報処理装置。
  17. 前記記憶部は、魚眼カメラによる撮像画像の中心位置からの距離に応じた前記基準色情報を記憶する、
    請求項1に記載の情報処理装置。
  18. コンピュータが、
    人体の色情報を基準色情報として記憶部に記憶する記憶ステップと、
    魚眼カメラによる撮像画像から人体候補を検出する検出ステップと、
    前記人体候補が検出された検出領域に対応する前記基準色情報を前記記憶部から取得し、取得した前記検出領域の前記基準色情報と、前記人体候補の色情報との類似度に基づいて、前記人体候補が人体であるか否かを判定する人体判定ステップと、
    を含む情報処理方法。
  19. コンピュータに、
    人体の色情報を基準色情報として記憶部に記憶する記憶ステップと、
    魚眼カメラによる撮像画像から人体候補を検出する検出ステップと、
    前記人体候補が検出された検出領域に対応する前記基準色情報を前記記憶部から取得し、取得した前記検出領域の前記基準色情報と、前記人体候補の色情報との類似度に基づいて、前記人体候補が人体であるか否かを判定する人体判定ステップと、
    を実行させるためのプログラム。
JP2022109854A 2022-07-07 2022-07-07 情報処理装置および情報処理方法 Pending JP2024008196A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022109854A JP2024008196A (ja) 2022-07-07 2022-07-07 情報処理装置および情報処理方法
PCT/JP2023/022618 WO2024009744A1 (ja) 2022-07-07 2023-06-19 情報処理装置、情報処理方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022109854A JP2024008196A (ja) 2022-07-07 2022-07-07 情報処理装置および情報処理方法

Publications (1)

Publication Number Publication Date
JP2024008196A true JP2024008196A (ja) 2024-01-19

Family

ID=89453295

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022109854A Pending JP2024008196A (ja) 2022-07-07 2022-07-07 情報処理装置および情報処理方法

Country Status (2)

Country Link
JP (1) JP2024008196A (ja)
WO (1) WO2024009744A1 (ja)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6589321B2 (ja) * 2015-03-24 2019-10-16 富士通株式会社 システム、検索方法およびプログラム
JP6973175B2 (ja) * 2018-02-27 2021-11-24 富士通株式会社 画像選択プログラム、情報処理装置、システム、および画像選択方法
JP7255173B2 (ja) * 2018-12-26 2023-04-11 オムロン株式会社 人検出装置および人検出方法
JP7188067B2 (ja) * 2018-12-27 2022-12-13 オムロン株式会社 人検出装置および人検出方法
JP7419999B2 (ja) * 2020-07-15 2024-01-23 オムロン株式会社 情報処理装置および情報処理方法

Also Published As

Publication number Publication date
WO2024009744A1 (ja) 2024-01-11

Similar Documents

Publication Publication Date Title
US10198823B1 (en) Segmentation of object image data from background image data
JP5554984B2 (ja) パターン認識方法およびパターン認識装置
US10304164B2 (en) Image processing apparatus, image processing method, and storage medium for performing lighting processing for image data
US10216979B2 (en) Image processing apparatus, image processing method, and storage medium to detect parts of an object
US9171230B2 (en) Object detection method, object detection apparatus and image pickup apparatus
JP6494253B2 (ja) 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム
CN109086718A (zh) 活体检测方法、装置、计算机设备及存储介质
TWI701609B (zh) 影像物件追蹤方法及其系統與電腦可讀取儲存媒體
JP4774818B2 (ja) 画像処理装置及び画像処理方法
JP2014505952A (ja) 画像品質の評価
JP2011165008A (ja) 画像認識装置および方法
TW201835805A (zh) 遠距離的身份辨識方法及其系統與電腦可讀取記錄媒體
JP2012530994A (ja) 半顔面検出のための方法および装置
JP6351243B2 (ja) 画像処理装置、画像処理方法
JP6157165B2 (ja) 視線検出装置及び撮像装置
WO2021084972A1 (ja) 物体追跡装置および物体追跡方法
JP2020149641A (ja) 物体追跡装置および物体追跡方法
JP2020149642A (ja) 物体追跡装置および物体追跡方法
JP2021503139A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JPWO2018078857A1 (ja) 視線推定装置、視線推定方法及びプログラム記録媒体
JP2014021602A (ja) 画像処理装置及び画像処理方法
EP3699865B1 (en) Three-dimensional face shape derivation device, three-dimensional face shape deriving method, and non-transitory computer readable medium
US11605220B2 (en) Systems and methods for video surveillance
JP2012068948A (ja) 顔属性推定装置およびその方法
JP7243372B2 (ja) 物体追跡装置および物体追跡方法