JP7405238B2 - 情報処理装置、監視システム、情報処理方法、及びプログラム - Google Patents

情報処理装置、監視システム、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP7405238B2
JP7405238B2 JP2022508085A JP2022508085A JP7405238B2 JP 7405238 B2 JP7405238 B2 JP 7405238B2 JP 2022508085 A JP2022508085 A JP 2022508085A JP 2022508085 A JP2022508085 A JP 2022508085A JP 7405238 B2 JP7405238 B2 JP 7405238B2
Authority
JP
Japan
Prior art keywords
person
information
suspiciousness
information processing
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022508085A
Other languages
English (en)
Other versions
JPWO2021186866A5 (ja
JPWO2021186866A1 (ja
Inventor
昭浩 金子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2021186866A1 publication Critical patent/JPWO2021186866A1/ja
Publication of JPWO2021186866A5 publication Critical patent/JPWO2021186866A5/ja
Application granted granted Critical
Publication of JP7405238B2 publication Critical patent/JP7405238B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/34Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Alarm Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Description

本開示は、人物を監視する技術に関する。
監視カメラによって撮影された監視映像を用いて、不審な行動をとる人物を検出し、検出した人物を監視する技術が存在する。
特許文献1には、監視映像に映った人物を含むグループを検出し、検出したグループの人物間の距離に基づいて、不審者を検知する技術が開示されている。
ここで、監視映像には、不特定多数の人物が映る可能性がある。映像に含まれる人物の外見及び行動の情報は個人情報であるため、その監視映像を監視する監視員に対してプライバシーの保護を考慮した表示をすることが要求される。これに対して、人物の監視を行う際に、プライバシーの保護を図る技術が存在する。
特許文献2には、監視映像を表示する際、登録されている人物が監視映像に含まれていた場合、当該人物が映る領域を抽出し、抽出した領域の画像である前景画像を、人物の映っていない背景画像に合成して表示する技術が開示されている。このとき、登録されていない人物が監視映像に含まれていた場合、当該人物が映る前景画像にマスク処理した画像を、背景画像に合成して表示している。
特開2019-106631号公報 特許第5159381号公報
上述のように、プライバシーの保護を考慮して、マスク処理がなされた監視映像を用いて監視を行う場合、監視映像を監視する監視員にとって、監視が困難となる場合がある。例えば、不審な人物がいる際には、監視員は、当該人物を特定する必要があるが、監視映像にマスク処理が施されていると、当該人物の特定が困難となる虞がある。このような場合、マスク処理が施されている監視映像に対して、不審な人物の領域のみマスク処理を解除することが考えられる。
しかしながら、監視映像に映る人物が不審な人物であるか否かを正確に検出していないと、マスク処理を解除することによってプライバシーを侵害する虞がある。特許文献2では、登録されていない人物の滞留時間に応じてその人物の不審度を決定し、前景画像の透明度を変えることが記載されているが、滞留時間の情報のみでは、その人物が不審な人物であるか否か正確に判断できない虞がある。
本開示は、上記課題を鑑みてなされたものであり、プライバシーの保護を図りつつ、人物を監視する際に有効な映像を提供することが可能な技術を提供することを目的の一つとする。
本開示の一態様にかかる情報処理装置は、撮影データに含まれる人物の行動を検出する行動検出手段と、前記人物の感情を検出する感情検出手段と、検出された前記人物の行動及び前記人物の感情に基づいて、前記人物を監視すべき度合いを示す不審度を算出する不審度算出手段と、算出された前記不審度に基づいて、前記撮影データのうち前記人物が映る領域の情報量を減らす処理であるマスク処理を行うマスク処理手段と、を備える。
本開示の一態様にかかる情報処理方法は、撮影データに含まれる人物の行動を検出し、前記人物の感情を検出し、検出された前記人物の行動及び前記人物の感情に基づいて、前記人物を監視すべき度合いを示す不審度を算出し、算出された前記不審度に基づいて、前記撮影データのうち前記人物が映る領域の情報量を減らす処理であるマスク処理を行う。
本開示の一態様にかかる記憶媒体は、撮影データに含まれる人物の行動を検出する処理と、前記人物の感情を検出する処理と、検出された前記人物の行動及び前記人物の感情に基づいて、前記人物を監視すべき度合いを示す不審度を算出する処理と、算出された前記不審度に基づいて、前記撮影データのうち前記人物が映る領域の情報量を減らす処理であるマスク処理を行う処理と、をコンピュータに実行させるプログラムを格納する。
本開示によれば、プライバシーの保護を図りつつ、人物を監視する際に有効な映像を提供することが可能になるという効果が得られる。
第1の実施形態にかかる監視システムの構成の一例を模式的に示す図である。 第1の実施形態にかかる情報処理装置の機能構成の一例を示すブロック図である。 第1の実施形態にかかる検出データの一例を示す図である。 第1の実施形態にかかる不審度データの一例を示す図である。 第1の実施形態にかかる監視システムの動作の一例を説明するシーケンス図である。 第1の実施形態にかかる加工処理の一例を説明するフローチャートである。 第1の実施形態にかかるマスク処理の一例を説明するフローチャートである。 第1の実施形態にかかる撮影データの一例を示す図である。 第1の実施形態にかかる加工済撮影データの一例を示す図である。 第2の実施形態にかかる監視システムの機能構成の一例を示すブロック図である。 第3の実施形態にかかる監視システムの機能構成の一例を示すブロック図である。 第3の実施形態にかかる加工処理の一例を説明するフローチャートである。 第4の実施形態にかかる監視システムの機能構成の一例を示すブロック図である。 第4の実施形態にかかる検出データの一例を示す図である。 第4の実施形態にかかる加工処理の一例を説明するフローチャートである。 第4の実施形態にかかるマスク処理の一例を説明するフローチャートである。 第5の実施形態にかかる監視システムの構成の一例を示すブロック図である。 第5の実施形態にかかる情報処理装置の機能構成の一例を示すブロック図である。 第5の実施形態にかかる情報処理装置の動作の一例を示すフローチャートである。 第1、第2、第3、第4及び第5の実施形態における情報処理装置を実現するコンピュータ装置のハードウェア構成の一例を示すブロック図である。
以下に、本開示にかかる実施形態を、図面を参照しつつ説明する。
<第1の実施形態>
第1の実施形態にかかる情報処理装置を含む監視システムについて説明する。
図1は、第1の実施形態にかかる監視システム1000の構成の一例を模式的に示す図である。図1に示すように、監視システム1000は、情報処理装置100と撮影装置200と管理端末300とを備える。情報処理装置100は、撮影装置200及び管理端末300と、ネットワークを介して通信可能に接続される。なお、監視システム1000は、情報処理装置100と撮影装置200とで構成され、監視システム1000と管理端末300とが通信可能に接続されてもよい。
撮影装置200は、撮影範囲として定められた範囲を撮影する。図1に示す状況では、点線で示された範囲が撮影範囲であり、撮影範囲の中に人物がいるので、撮影装置200が撮影した映像には人物が含まれる。
撮影装置200が撮影した映像は、動画像を構成する複数のフレームのそれぞれであってもよいし、一定の時間間隔で撮影された静止画像のそれぞれであってもよい。本明細書では、撮影装置200が撮影した映像を「撮影データ」と称する。撮影データには、フレームまたは静止画像の、画素値のデータの他に、撮影データが生成された時刻、及び撮影データを生成した撮影装置200が設置された場所の情報等が含まれてもよい。撮影装置200は、生成した撮影データを情報処理装置100に順次送信する。
情報処理装置100は、撮影装置200から撮影データを取得すると、撮影データを加工する、すなわち、撮影データにプライバシーの保護を図る処理を施す。情報処理装置100は、加工した撮影データを管理端末300に送る。本明細書において、撮影データを加工する処理を「加工処理」とも称し、加工処理が行われた撮影データを「加工済撮影データ」とも称する。
管理端末300は、ネットワークを介して情報処理装置100と通信するための入出力手段を備えた装置である。例えば、管理端末300は、パーソナルコンピュータである。管理端末300は、加工済撮影データを情報処理装置100から取得し、加工済撮影データを表示部(例えばディスプレイ装置)310により表示する。図1に示す状況では、管理端末300は、監視員によって使用されている。監視員は、管理端末300に表示される加工済撮影データを用いて、撮影装置200により撮影されている撮影範囲を監視する。このとき、監視員は、異変を認識した場合、例えば、撮影範囲付近にいる警備員に対して、異変の確認を行うよう指示を出すことができる。
すなわち、第1の実施形態にかかる監視システム1000は、撮影装置200が撮影した撮影データに対して情報処理装置100が加工処理を行い、加工済撮影データを管理端末300において表示するシステムである。
なお、第1の実施形態において、情報処理装置100と管理端末300とは異なる装置である例について説明するが、情報処理装置100と管理端末300とは、一体の装置であってもよい。
[情報処理装置100の詳細]
次に、情報処理装置100の詳細について説明する。図2は、第1の実施形態にかかる情報処理装置100の機能構成の一例を示すブロック図である。図2に示すように、情報処理装置100は、人物検出部110と、行動検出部120と、感情検出部130と、不審度算出部140と、マスク処理部150とを備える。さらに、情報処理装置100は、記憶装置160を有する。
人物検出部110は、撮影装置200が撮影した撮影データを取得すると、撮影データに含まれる人物を検出する。人物を検出する方法としては、時系列の撮影データを用いて、複数の撮影データ間の差分に基づいて人物を検出する方法、すなわち背景差分法を用いることが考えられるが、人物を検出する方法はこの例に限らない。人物を検出する方法は、例えば、撮影データの中から人型を検出することによる方法であってもよいし、その他、種々の公知の手法であってもよい。
さらに、人物検出部110は、検出した人物ごとに、人物を識別する識別情報を生成する。人物検出部110は、識別情報を記憶装置160に格納する。なお、あるフレームにおいて、前のフレームにおいて検出された人物が検出された場合、その人物に対しては、同一の識別情報が付与される(すなわち、同一の人物に対しては同一の識別情報が付与される)。このとき、人物検出部110は、人物の特徴量に基づいて人物が同一であると判断してもよいし、検出された人物の位置情報に基づいて人物が同一であると判断してもよい。
行動検出部120は、人物検出部110により検出された人物の行動を撮影データから検出する。行動検出部120は、例えば、時系列の撮影データを用いて、人物の撮影データ上の位置の変化から、「走る」、「歩く」、及び「立ち止まる」等の動作を人物の行動として検出する。このとき、行動検出部120は、検出された人物の部位を特定し、特定された部位の位置及びその位置の変化に基づいて、「寝転ぶ」及び「手を振る」といった動作を検出してもよい。また、人物が検出されてから、予め設定された時間内に、その人物が同じ場所に複数回現れる場合、行動検出部120は、「うろつき」を人物の行動として検出してもよい。なお、行動を検出する方法はこの例に限らない。このように行動検出部120は、撮影データに含まれる人物の行動を検出する。行動検出部120は、行動検出手段の一例である。
行動検出部120は、人物の行動を検出すると、検出した行動を示す情報と人物の識別情報とを対応付けて記憶装置160に格納する。
なお、撮影データから人物の行動を検出する方法は、例えば、人物が映る撮影データ上の領域と、画像データベースに登録された画像であって、人物の行動を示す情報に対応付けられた画像とのパターンマッチングにより検出する方法であってもよい。このとき、画像データベースは予め記憶装置160に格納されている。また、撮影データから人物の行動を検出する方法は、人物が映る撮影データ上の領域から人物の特徴量を抽出し、抽出した特徴量を入力とした学習モデルを用いることにより、人物の特徴量に対応する行動を出力する方法であってもよい。ここで用いられる学習モデルは、例えば、抽出された人物の特徴量と、人物の行動との関係を学習したモデルである。学習モデルは、例えば、人物の特徴量を説明変数とし、人物の行動を示す値を目的変数とした回帰分析が行われることにより導出された回帰式であるが、この例に限らない。例えば、学習モデルは、SVM(Support Vector Machine)、ニューラルネットワーク、ランダムフォレスト等の機械学習アルゴリズムによって生成されるものであってもよい。
感情検出部130は、人物検出部110により検出された人物の感情を撮影データから検出する。感情検出部130は、例えば、撮影データに含まれる人物の顔が映る領域から特徴量を検出する。そして、感情検出部130は、検出した特徴量と、特徴量と感情との関係を示すデータとに基づいて感情を検出する。特徴量と感情との関係を示すデータは、記憶装置160に予め格納されている。検出する感情は、例えば「喜ぶ」、「怒る」、「悲しむ」、「楽しむ」、「焦る」、「緊張する」などの予め定められた特徴的な感情である。また、感情検出部130は、検出された人物から特徴的な感情が検出できなかった場合、当該人物が落ち着いていることを示す「平静」を検出してもよい。また、感情検出部130は、「笑う」及び「泣く」といった、感情に起因する動作を検出してもよい。なお、これらは検出する感情の一例であり、これら以外の感情を検出してもよい。なお、感情検出部130は、人物の顔から得られる情報だけでなく、行動検出部120が検出した動作の情報も用いて、人物の感情を検出してもよい。このように感情検出部130は、人物の感情を検出する。感情検出部130は、感情検出手段の一例である。
感情検出部130は、人物の感情を検出すると、検出した感情を示す情報と人物の識別情報とを対応づけて記憶装置160に格納する。
なお、撮影データから人物の感情を検出する方法は、例えば、人物が映る撮影データ上の領域と、画像データベースに登録された画像であって、人物の感情を示す情報に対応付けられた画像とのパターンマッチングにより検出する方法であってもよい。このとき、画像データベースは予め記憶装置160に格納されている。また、撮影データから人物の感情を検出する方法は、人物が映る撮影データ上の領域から人物の特徴量を抽出し、抽出した特徴量を入力とした学習モデルを用いることにより、人物の特徴量に対応する感情を出力する方法であってもよい。ここで用いられる学習モデルは、例えば、抽出された人物の特徴量と、人物の感情との関係を学習したモデルである。学習モデルは、例えば、人物の特徴量を説明変数とし、人物の感情を示す値を目的変数とした回帰分析が行われることにより導出された回帰式であるが、この例に限らない。例えば、学習モデルは、SVM、ニューラルネットワーク、ランダムフォレスト等の機械学習アルゴリズムによって生成されるものであってもよい。
図3は、記憶装置160に格納される検出データの一例を示す図である。検出データは、人物検出部110によって検出された識別情報と、行動検出部120によって検出された行動を示す情報と、感情検出部130によって検出された感情を示す情報とが対応づけられたデータである。例えば、図3の一行目のレコードには、識別情報が「A」である人物から、「うろつき」の行動が検出され、さらに「泣く」という感情が検出されていることを表す検出データが示されている。
人物検出部110、行動検出部120、及び感情検出部130は、撮影装置200から順次送信される撮影データに応じて、随時検出処理を行う。そのため、検出データは、随時更新される。
不審度算出部140は、行動検出部120によって検出された人物の行動と、感情検出部130によって検出された人物の感情とに基づいて不審度を算出する。ここで、不審度とは、検出された人物を監視すべき度合いを示す値である。例えば、不審度が所定の値より高い人物は、監視すべき対象である、と判断することができる。
具体的には、不審度算出部140は、記憶装置160に格納される検出データから、識別情報に対応付けられた人物の行動の情報と感情の情報とを読み出す。そして、不審度算出部140は、読み出した人物の行動の情報と感情の情報とに基づいて、各人物の不審度を算出する。なお、本明細書において、不審度は0から1の範囲の値をとり、値が1に近づくほど監視すべき対象とするものとして説明するが、不審度のとる値はこの例に限らない。
人物の行動と感情と不審度との関係は、情報処理装置100の管理人によって予め設定される。これに限らず、例えば、過去に生成された検出データに基づいて、不審度を算出するための予測モデルが予め生成され、不審度算出部140は、生成された予測モデルを用いて、検出された人物の不審度を算出してもよい。このとき、検出する行動の種類のそれぞれと、検出する感情の種類のそれぞれとを説明変数とし、不審度を目的変数とした回帰分析を行って予測モデルを生成してもよい。このように、不審度算出部140は、検出された人物の行動及び人物の感情に基づいて、人物を監視すべき度合いを示す値である不審度を算出する。不審度算出部140は、不審度算出手段の一例である。
不審度算出部140は、検出された人物の行動と感情とに加え、その人物が検出された時刻の情報を用いて不審度を算出してもよい。例えば、検出された人物が「うろつき」の行動をとっていた場合、その人物が検出された時刻に応じて不審度が異なる場合がある。そこで、不審度算出部140は、時刻の情報を加味することにより、より正確に不審度を算出することが可能となる。
不審度算出部140は、不審度を算出すると、識別情報と不審度とを対応づけた不審度データを記憶装置160に格納する。図4は、第1の実施形態にかかる不審度データの一例を示す図である。図4に示す不審度データの一行目のレコードには、識別情報「A」の人物の不審度が「0.8」であることが示されている。
マスク処理部150は、不審度算出部140により算出された不審度に応じて、撮影データにおいて人物が映る領域にマスク処理を行う。ここで、マスク処理とは、画像における処理対象の領域の情報量を減らす処理を示す。また、本明細書において、情報量とは、撮影データから監視員が認識できる物体(例えば人間)の特徴の詳細さを示す量である。すなわち情報量を減らす処理とは、撮影データから監視員が認識できる人物の特徴を減らす処理を示す。マスク処理は、人物が映る領域、すなわち処理対象の領域の解像度を制御する処理であってもよいし、処理対象の領域の画素の位置を入れ替える処理であってもよい。さらに、マスク処理は、処理対象の領域に平滑化フィルタリングを行う処理であってもよいし、処理対象の領域にアバター画像(例えば、人型のイラスト画像やキャラクター画像)のような元の画像とは異なる画像を重畳させる処理であってもよい。このような処理を行うことで、例えば、監視員に、人物が存在することだけ認識できるようにしたり、人物の形だけ認識できるようにしたり、人物が着用している衣服の色や、人物の髪の色だけ認識できるようにしたりすることができる。また、マスク処理部150は、マスク処理を行った処理対象の領域に、人物の識別情報を示す処理を行ってもよい。これにより、マスク処理が施された撮影データにおいて、撮影データに含まれる人物の識別情報を監視員に提示することができる。
マスク処理部150は、具体的には、撮影装置200から取得した撮影データから人物が検出された場合に、不審度算出部140により算出された不審度の情報を、記憶装置160に格納された不審度データから、検出された人物の識別情報を利用して読み出す。マスク処理部150は、読み出した不審度が、マスク処理を行うか否かを判断する閾値以上であるか否かを判断し、閾値未満であると判断した場合に、当該閾値未満の不審度と対応付けられた識別情報の人物が映る領域にマスク処理を行う。一方、マスク処理部150は、不審度が閾値以上である人物が映る領域にはマスク処理を行わない。このようにマスク処理部150は、算出された不審度に応じて、撮影データのうち人物が映る領域の情報量を減らす処理であるマスク処理を行う。マスク処理部150は、マスク処理手段の一例である。
なお、マスク処理部150は、不審度が大きくなるにつれて、マスク処理における情報量を減らす度合いを小さくするように制御してもよい。つまり、マスク処理における情報量を減らす度合いが小さくなるほど、マスク処理を行った領域の情報量が増え(すなわち、元の撮影データの情報量に近づき)、マスク処理における情報量を減らす度合いが大きくなるほど、マスク処理を行った領域の情報量が減る。例えば、マスク処理として、解像度を制御する処理が採用されていた場合、マスク処理における情報量を減らす度合いが小さくなるにつれて、解像度の劣化の度合いを低くする処理を行う。また、例えば、マスク処理として、元の画像とは異なる画像を重畳させる処理が採用されていた場合、マスク処理における情報量を減らす度合いが小さくなるにつれて、重畳させた画像を透明に近づける処理を行う。
記憶装置160は、情報処理装置100にて生成されるデータ、または情報処理装置100にて用いられるデータを格納する。なお、記憶装置160は、管理端末300に備えられてもよいし、情報処理装置100と通信可能に接続されている図示しない装置に備えられていてもよい。
[監視システム1000の動作]
次に、監視システム1000の動作を、図5、図6及び図7を用いて説明する。以下に説明する動作においては、監視システム1000は、図1に示す状況において構築されているものとする。なお、本明細書において、フローチャートの各ステップを「S101」のように、それぞれのステップに付した番号を用いて表現する。
図5は、監視システム1000の動作を説明するシーケンス図である。撮影装置200は、撮影範囲を撮影し撮影データを生成する(S101)。撮影装置200は、撮影中断の指示があるまで撮影データを生成し続け、生成した撮影データを情報処理装置100に順次送信する。
情報処理装置100は、撮影装置200から撮影データを取得すると、取得した撮影データに対して加工処理を行う(S102)。
図6は、情報処理装置100の加工処理の動作を説明するフローチャートである。情報処理装置100の人物検出部110は、取得した撮影データにおいて、人物が撮影されているか否かを判断し、人物が撮影されている場合、換言すれば、人物を検出した場合(S201のYes)、検出した人物の識別情報を生成する(S202)。このとき、人物検出部110は、複数の人物を検出した場合、検出した人物ごとに識別情報を生成する。そして、人物検出部110は、生成した識別情報を記憶装置160に検出データとして格納する。人物を検出しなかった場合(S201のNo)、当該撮影データに対しては、マスク処理は行われない。
S202の処理がなされると、行動検出部120は、検出された人物の行動を撮影データから検出する(S203)。行動検出部120は、検出した行動を示す情報と、検出された人物の識別情報とを対応づけて検出データとして記憶装置160に格納する。
次に、感情検出部130は、検出された人物の感情を撮影データから検出する(S204)。感情検出部130は、検出した感情を示す情報と、行動検出部120によって検出された行動を示す情報と、検出された人物の識別情報とを対応づけて検出データとして記憶装置160に格納する。
不審度算出部140は、記憶装置160から検出データを読み出し、読み出した検出データを利用して、撮影データから検出された人物の不審度を算出する(S205)。ここで、検出データにおける行動を示す情報と、感情を示す情報との少なくとも一方が検出されていない人物がいる場合がある。この場合、正確に不審度を算出できず、これによりマスク処理が行われない可能性があるが、そのような人物に対してもマスク処理が行われるように、不審度算出部140は、不審度を一定の値(例えば0)に設定してもよい。不審度算出部140は、算出した不審度と算出した不審度に対応する人物の識別情報とを対応づけて不審度データとして記憶装置160に格納する。
その後、検出されたすべての人物に対して不審度が算出されていない場合(S206のNo)、情報処理装置100は、S203の処理に戻る。検出されたすべての人物に対して不審度が算出されている場合(S206のYes)、マスク処理部150は、撮影データにマスク処理を行う(S207)。本動作例では、図3に示す検出データが記憶装置160に格納され、当該検出データに基づいて、図4に示す不審度データが記憶装置160に格納されたものとする。
図7は、マスク処理部150のマスク処理の動作を説明するフローチャートである。マスク処理部150は、記憶装置160から不審度データを読み出し、撮影データのうち、識別情報によって識別される人物が映る領域ごとにマスク処理を行う。
まず、マスク処理部150は、不審度データのうち一のレコードに含まれる不審度が0.5以上であるか否かを判別する。不審度が0.5未満の場合(S208のNo)、当該不審度に対応づけられた識別情報の人物が映る領域に情報量を減らす度合いを大きくするマスク処理を行う(S209)。不審度が0.5以上であり(S208のYes)、0.8未満の場合(S210のNo)、当該不審度に対応づけられた識別情報の人物が映る領域に、S209において施されるマスク処理よりも情報量を減らす度合いが小さいマスク処理を行う(S211)。不審度が0.8以上の場合(S210のYes)、当該不審度に対応づけられた識別情報の人物が映る領域にマスク処理を行わない。すなわち、検出されたすべての人物が映る領域に処理を行った場合(S212のYes)、図7のフローチャートを終了する。検出されたすべての人物が映る領域に処理を行っていない場合(S212のNo)、情報処理装置100は、S208の処理に戻る。
本動作例においては、マスク処理部150は、図4に示される不審度データに基づいて、S207のマスク処理を行う。そのため、識別情報「A」の人物が映る領域には、マスク処理は行われず、識別情報「B」の人物が映る領域には、S209におけるマスク処理が行われ、識別情報「C」の人物が映る領域には、S211におけるマスク処理が行われる。
図8Aは、第1の実施形態にかかる動作例において撮影装置200から情報処理装置100が取得した撮影データの一例である。図8Aに示される「人物A」、「人物B」及び「人物C」は、図3及び図4に示される識別情報「A」、「B」及び「C」の人物と対応している。
図8Bは、第1の実施形態にかかる動作例において、図8Aに対して加工処理が行われた加工済撮影データの一例である。図8Bでは、人物Aが映る領域にはマスク処理が行われていないことが示されている。また、人物Bが映る領域には情報量を減らす度合いが大きいマスク処理がなされている。本動作例では、マスク処理部150は、人物Bが映る領域に別の画像を重畳している。これにより、当該加工済撮影データには、人物Bに関する特徴は映らない。また、人物Cが映る領域には情報量を減らす度合いが小さいマスク処理がなされている。本動作例では、マスク処理部150は、人物Cが透過して映るように、人物Cが映る領域に別の画像を重畳している。このとき、マスク処理部150は、監視員が人物Cの形だけ認識できるように、重畳された画像の透過率を調整してもよいし、人物Cの衣服や髪の色だけ認識できるように、重畳された画像の透過率を調整してもよい。
図5に戻り、情報処理装置100は、加工済撮影データを管理端末300に送信する(S103)。管理端末300の表示部310は、情報処理装置100から加工済撮影データを取得すると、加工済撮影データを表示する(S104)。
以上のように、第1の実施形態にかかる情報処理装置100は、撮影データに含まれる人物の行動と、人物の感情とを検出する。そして情報処理装置100は、検出した人物の行動及び人物の感情に基づいて、人物を監視すべき度合いを示す値である不審度を算出し、算出した不審度に応じて、撮影データのうち人物が映る領域の情報量を減らす処理であるマスク処理を行う。この構成により、第1の実施形態にかかる情報処理装置100は、プライバシーの保護を図りつつ、人物の監視に有効な映像を提示することが可能になるという効果が得られる。
さらに、第1の実施形態にかかる情報処理装置100は、監視すべき対象以外にはマスク処理が行われるので、監視すべき対象を際立たせて表示することができる。これにより、監視員に、効率的に監視すべき対象を認識させることができる。
さらに、第1の実施形態にかかる情報処理装置100は、不審度に応じてマスク処理の情報量を減らす度合いを変更することができる。そのため、監視員が監視に必要な情報だけ認識して監視を行うことができるので、監視員によるプライバシーの侵害を最大限防止することができる。
(変形例1)
人物検出部110は、撮影装置200が備えていてもよい。この場合、撮影装置200において、S101の処理の後、S201の処理とS202の処理を行う。そして、撮影装置200は、撮影データと、撮影データに撮影されている人物に関して生成した識別情報とを情報処理装置100に送信する。
(変形例2)
行動検出部120は、さらに、人物が所持している物品を検出してもよい。例えば、人物が刃物を所持していた場合、行動検出部120は、「刃物の所持」を示す情報と識別情報とを対応付けて検出データとして記憶装置160に格納する。
このように、第1の実施形態にかかる情報処理装置100は、人物が所持している物品を検出することにより、より正確に監視すべき人物を検出することができる。
<第2の実施形態>
次に、第2の実施形態にかかる情報処理装置を含む監視システムについて説明する。
図9は、第2の実施形態にかかる監視システム1001の構成の一例を示すブロック図である。図9に示す通り、監視システム1001は、第1の実施形態における情報処理装置100に代わり、情報処理装置101を備え、それ以外については、第1の実施形態で説明した監視システム1000と同様である。すなわち、監視システム1001は、情報処理装置101と、撮影装置200と、管理端末300とを備える。なお、図9に示す監視システム1001の構成及び動作が、第1の実施形態の説明と重複する内容については説明を省略する。
図9に示すように情報処理装置101は、第1の実施形態の情報処理装置100の構成に、さらに指示受付部170を加えた構成を備える。
例えば、監視員が、マスク処理が行われなかった人物が映る加工済撮影データから異変を認識し、撮影範囲の付近にいる警備員に対応を要請したとする。そして、警備員から対応が完了した旨の連絡が監視員に通知されたとき、その人物にマスク処理を行わないままの状態にしておく必要はない。その場合、監視員は、管理端末300に、その人物にマスク処理を行うように指示情報を入力する。このとき、指示受付部170は、管理端末300から、その人物にマスク処理を行う指示情報を受け付ける。指示情報には、マスク処理に係る情報と、マスク処理が施される人物の識別情報とが含まれる。
指示受付部170は、受け付けた指示情報に応じて、マスク処理を施す人物の不審度を変更する。具体的には、受け付けた指示情報に含まれるマスク処理の情報量を減らす度合いと識別情報とに基づいて、不審度データのうち、その識別情報に対応する不審度を、指示情報に含まれるマスク処理の情報量を減らす度合いに応じて変更する。このように、指示受付部170は、不審度を変更する指示と、不審度を変更する人物を識別する情報とを含む指示情報を受け付け、受け付けた指示情報に基づいて不審度を変更する。指示受付部170は指示受付手段の一例である。
このように、第2の実施形態の情報処理装置101は、不審度を変更する指示と、不審度を変更する人物を識別する情報とを含む指示情報を受け付ける。そして、情報処理装置101は、指示情報に応じて変更された不審度を持つ人物が映る領域に、変更された不審度に基づいたマスク処理を行う。これにより、第2の実施形態の情報処理装置101は、例えば、マスク処理が行われなかった人物の領域に対して、必要に応じてマスク処理を行うことができるので、プライバシーの保護を図ることができる。
なお、指示受付部170は、指示情報に含まれるマスク処理の情報量を減らす度合いが、指示情報を受け付けた時点のマスク処理の情報量を減らす度合いよりも小さい場合、当該指示を受け付けられない旨の通知を管理端末300に送信してもよい。これにより、人為的にマスク処理の情報量を減らす度合いを小さくすることができなくなるので、監視員によるプライバシーの侵害をさらに防止することができる。
また、指示受付部170は、指示に応じて不審度を制御した不審度データのレコードに所定時間の間、フラグをたてるよう制御してもよい。そして、不審度算出部140は、フラグをたてた不審度データのレコードに対して不審度の算出を行わないようにしてもよい。これにより、指示に応じて不審度を制御したレコードの、不審度算出部140による不審度の書き換えを防ぐことができる。
<第3の実施形態>
次に、第3の実施形態にかかる情報処理装置を含む監視システムについて説明する。
図10は、第3の実施形態にかかる監視システム1002の構成の一例を示すブロック図である。図10に示す通り、監視システム1002は、第1の実施形態における情報処理装置100に代わり、情報処理装置102を備え、それ以外については、第1の実施形態で説明した監視システム1000と同様である。すなわち、監視システム1002は、情報処理装置102と、撮影装置200と、管理端末300とを備える。なお、図10に示す監視システム1002の構成及び動作が、第1の実施形態の説明と重複する内容については説明を省略する。
図10に示すように情報処理装置102は、第1の実施形態の情報処理装置100の構成に、さらに顔照合部180を加えた構成を備える。
顔照合部180は、撮影データに含まれる人物の顔情報と、予め登録された顔情報とを照合する。具体的には、顔照合部180は、撮影データのうち、人物検出部110によって検出された人物の顔の領域から特徴量を抽出する。次に、顔照合部180は、予め登録された顔の特徴量を保持するデータベースを用いて、抽出した特徴量と合致する特徴量を探す。合致する特徴量がデータベースに含まれていた場合、顔照合部180は、合致した特徴量がある(ヒットした)と判定する。このとき、データベースは、記憶装置160に格納されていてもよいし、情報処理装置102と通信可能に接続された図示しない装置に格納されていてもよい。このように、顔照合部180は、人物の顔情報と、データベースに予め登録された顔情報との照合を行う。顔照合部180は、顔照合手段の一例である。
そして、顔照合部180は、顔情報の照合においてヒットしたと判定した人物の不審度を1として不審度データを更新する。すなわち、情報処理装置102は、撮影データのうち、照合がヒットした人物は不審度が1と高いから、この人物が映る領域には、マスク処理を行わない。
次に、監視システム1002の動作を、図11を用いて説明する。
第3の実施形態においては、図5に示すS102の処理の代わりに、図11に示す処理を行う。図11は、第3の実施形態にかかる加工処理のフローチャートの一例を示す図である。図6に示すフローチャートと同様の処理については、説明を省略する。
S202の処理の後、顔照合部180は、検出された人物の顔照合を行う。顔照合がヒットした場合(S401のYes)、顔照合部180は、顔照合がヒットした人物の識別情報に対応する不審度を1とする(S402)。顔照合がヒットしない場合(S401のNo)、S203の処理を行う。
このように、第3の実施形態にかかる情報処理装置102は、検出された人物の顔情報と、予め登録された顔情報とが合致した場合、撮影データのうち、当該人物が映る領域にマスク処理を行わない。これにより、情報処理装置102は、例えば、指名手配されている人物など、予め顔情報がわかっている人物を検出した場合に、その人物を示す映像を提示することができる。
なお、図10において、情報処理装置102は、第2の実施形態で説明した指示受付部170が記載されていないが、情報処理装置102は、指示受付部170を備えていてもよい。すなわち、第3の実施形態の監視システム1002は、第2の実施形態において説明された処理と同様の処理も行えるように構成されてもよい。
<第4の実施形態>
次に、第4の実施形態にかかる情報処理装置を含む監視システムについて説明する。
図12は、第4の実施形態にかかる監視システム1003の構成の一例を示すブロック図である。図12に示すように、監視システム1003は、第1の実施形態における情報処理装置100に代わり、情報処理装置103を備え、それ以外については、第1の実施形態で説明した監視システム1000と同様である。すなわち、監視システム1003は、情報処理装置103と、撮影装置200と、管理端末300とを備える。なお、図12に示す監視システムの構成及び動作が、第1の実施形態の説明と重複する内容については説明を省略する。
図12に示すように情報処理装置103は、第1の実施形態の情報処理装置100におけるマスク処理部150に代わりマスク処理部151を備え、さらに属性検出部190を備える。
属性検出部190は、撮影データに含まれる人物の属性を検出する。ここで、人物の属性とは、例えば、当該人物の性別、年齢、姿勢、服装、及び当該人物の歩行速度等であるが、これに限らない。このように、属性検出部190は、人物の属性を撮影データから検出する。属性検出部190は、属性検出手段の一例である。
属性検出部190は、検出された人物ごとに属性を検出し、検出した人物の属性と、人物の識別情報とを対応づけて検出データとして記憶装置160に格納する。
図13は、第4の実施形態にかかる検出データの一例を示す図である。図13に示す検出データは、識別情報と、人物の行動を示す情報と、人物の感情を示す情報と、人物の属性を示す情報とが対応づけられたデータである。例えば、図13の一行目のレコードには、識別情報が「A」である人物は、「10歳未満」の「女性」であることを表す検出データが示されている。
マスク処理部151は、不審度と、検出された属性とに基づいてマスク処理を行う。具体的には、マスク処理部151は、検出された属性の情報が加工済撮影データから認識できるようにマスク処理を行う。撮影データに含まれる人物が30代の男性であった場合、マスク処理部151は、例えば、当該人物が映る領域に、「30代」と「男性」とを示す情報を付加したアバター画像を重畳することによりマスク処理を行う。このような、属性に応じたアバター画像は、予め記憶装置160に格納されている。なお、付加する情報は、不審度に応じて取捨選択されてよい。また、アバター画像を重畳するマスク処理は、撮影データから検出されたすべての人物に対して行うのではなく、不審度に基づいて選択された人物に行ってもよい。
次に、監視システム1003の動作を、図14及び図15を用いて説明する。
第4の実施形態においては、図6に示す102の処理の代わりに、図14及び図15に示す処理を行う。図6及び図7に示すフローチャートと同様の処理については、説明を省略する。
図14は、第4の実施形態にかかる加工処理のフローチャートの一例を示す図である。図14に示すように、S204の処理の後、属性検出部190は、検出された人物ごとに属性を撮影データから検出する(S501)。そして、属性検出部190は、検出した属性と、人物の行動を示す情報と、人物の感情を示す情報と、識別情報とを対応づけて検出データとして記憶装置160に格納する。なお、本動作例においては、図13に示す検出データと、図4に示す不審度データとが記憶装置160に格納されたとする。
そして、検出されたすべての人物に不審度が算出された場合(S206のYes)、マスク処理部151は、次のようにマスク処理を行う(S502)。
図15は、第4の実施形態にかかるマスク処理のフローチャートの一例を示す図である。図15に示すように、不審度が0.5以上であり(S208のYes)、不審度が0.8未満のとき(S210のNo)、マスク処理部151は、属性に基づいて情報量を減らす度合い小さいマスク処理を行う(S503)。本動作例では、図4に示す不審度データのうち、不審度が0.5以上0.8未満であるのは、識別情報「C」の人物である。図13に示すように識別情報「C」の人物は、年齢が「30代」であり、性別が「男性」の人物である。そのため、マスク処理部151は、識別情報「C」の人物が映る領域に対して、「30代」の情報と「男性」の情報とを付加したアバターを重畳する。このとき、マスク処理部151は、例えば、アバターの色を変えたり、アバターに文字を書き込んだりすることで、年齢及び性別の情報を付加してもよい。
このように、第4の実施形態にかかる情報処理装置103は、撮影データに含まれる人物の属性を検出し、検出した属性に基づいてマスク処理を行う。これにより、情報処理装置103は、例えば、アバターに属性の情報を付加した加工済撮影データを提示することができるので、弱いマスク処理を行った人物に対しても、監視員によるプライバシーの侵害を防止することができる。
(変形例3)
例えば、10歳未満の人物がうろついていたことが検出された場合、当該人物は監視すべき対象である可能性がある。そのため、不審度算出部140は、検出された人物の行動及び感情の情報に加え、検出された人物の、属性の情報も用いて不審度を算出してもよい。
また、例えば、撮影範囲が公道であり、午前3時に生成された撮影データに10代の人物が含まれていた場合、当該人物は監視すべき対象である可能性がある。そのため、不審度算出部140は、人物の行動の情報と、人物の感情の情報と、人物の属性の情報とに加え、時刻の情報も用いて不審度を算出してもよい。このとき、時刻の情報は、撮影装置200が情報処理装置103に送る撮影データに含まれてもよい。
なお、図12において、情報処理装置103は、第2の実施形態で説明した指示受付部170及び第3の実施形態で説明した顔照合部180が記載されていないが、情報処理装置103は、指示受付部170及び顔照合部180を備えていてもよい。すなわち、第4の実施形態の監視システム1003は、第2の実施形態及び第3の実施形態において説明された処理と同様の処理も行えるように構成されてもよい。
<第5の実施形態>
次に、第5の実施形態にかかる情報処理装置を含む監視システムについて説明する。
図16は、第5の実施形態にかかる監視システム1004の構成の一例を示すブロック図である。図16に示すように、監視システム1004は、情報処理装置104と、撮影装置200とを備える。なお、図16に示す監視システム1004の構成及び動作が、第1の実施形態の説明と重複する内容については説明を省略する。
撮影装置200は、撮影範囲を撮影することにより、撮影データを生成する。
図17は、第5の実施形態にかかる情報処理装置104の機能構成の一例を示すブロック図である。図17に示すように、情報処理装置104は、行動検出部410と、感情検出部420と、不審度算出部430と、マスク処理部440とを備える。
行動検出部410は、撮影データに含まれる人物の行動を撮影データから検出する。
感情検出部420は、撮影データに含まれる人物の感情を撮影データから検出する。
不審度算出部430は、検出された人物の行動及び人物の感情に基づいて、人物の不審度を算出する。
マスク処理部440は、算出された不審度に基づいて、撮影データのうち人物が映る領域にマスク処理を行う。
次に、図18を用いて情報処理装置104の動作を説明する。図18は、情報処理装置104の動作を説明するフローチャートである。なお、図18に示す動作は、第1の実施形態における図18のS102の処理に代わって行われる動作である。
行動検出部410は、撮影装置200が生成した撮影データを用いて、撮影データに含まれる人物の行動を検出する(S601)。
感情検出部420は、撮影装置200が生成した撮影データを用いて、撮影データに含まれる人物の感情を検出する(S602)。
不審度算出部430は、行動検出部410によって検出された人物の行動と、感情検出部420によって検出された人物の感情に基づいて、人物の不審度を算出する(S603)。
マスク処理部440は、不審度算出部430によって算出された不審度に基づいて、撮影データのうち人物が映る領域にマスク処理を行う(S604)。
以上のように、第5の実施形態にかかる情報処理装置104は、撮影データに含まれる人物の行動と、人物の感情とを検出する。そして情報処理装置104は、検出した人物の行動及び人物の感情に基づいて、人物の不審度を算出し、算出した前記不審度に応じて、撮影データのうち人物が映る領域にマスク処理を行う。この構成により、第5の実施形態にかかる情報処理装置104は、プライバシーの保護を図りつつ、人物を監視する際に有効な映像を提示することが可能になるという効果が得られる。
上述した第1、第2、第3、第4及び第5の実施形態は、適宜組み合わせて実現可能である。
<情報処理装置のハードウェアの構成例>
上述した第1、第2、第3、第4及び第5の実施形態にかかる情報処理装置を構成するハードウェアについて説明する。図19は、各実施形態における情報処理装置を実現するコンピュータ装置のハードウェア構成の一例を示すブロック図である。図19が示す各ブロックは、各実施形態における情報処理装置及び情報処理方法を実現するコンピュータ装置10と、ソフトウェアとの組み合わせにより実現できる。
図19に示すように、コンピュータ装置10は、プロセッサ11、RAM(Random Access Memory)12、ROM(Read Only Memory)13、記憶装置14、入出力インタフェース15、バス16、及びドライブ装置17を備える。
記憶装置14は、プログラム(コンピュータプログラム)18を格納する。プロセッサ11は、RAM12を用いて本情報処理装置にかかるプログラム18を実行する。具体的には、例えば、プログラム18は、図5、図6、図7、図11、図14、図15及び図18に示す処理をコンピュータに実行させるプログラムを含む。プロセッサ11が、プログラム18を実行することに応じて、本情報処理装置の各構成要素(上述した、行動検出部120、410、感情検出部130、420、不審度算出部140、430、及びマスク処理部150、151、440等)の機能が実現される。プログラム18は、ROM13に記憶されていてもよい。また、プログラム18は、記憶媒体20に記録され、ドライブ装置17を用いて読み出されてもよいし、図示しない外部装置から図示しないネットワークを介してコンピュータ装置10に送信されてもよい。
入出力インタフェース15は、周辺機器(キーボード、マウス、表示装置など)19とデータをやり取りする。入出力インタフェース15は、データを取得または出力する手段として機能する。バス16は、各構成要素を接続する。
なお、情報処理装置の実現方法には様々な変形例がある。例えば、情報処理装置は、専用の装置として実現することができる。また、情報処理装置は、複数の装置の組み合わせにより実現することができる。
各実施形態の機能における各構成要素を実現するためのプログラムを記憶媒体に記録させ、該記憶媒体に記録されたプログラムをコードとして読み出し、コンピュータにおいて実行する処理方法も各実施形態の範疇に含まれる。すなわち、コンピュータ読取可能な記憶媒体も各実施形態の範囲に含まれる。また、上述のプログラムが記録された記憶媒体、及びそのプログラム自体も各実施形態に含まれる。
該記憶媒体は、例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD(Compact Disc)-ROM、磁気テープ、不揮発性メモリカード、またはROMであるが、この例に限らない。また該記憶媒体に記録されたプログラムは、単体で処理を実行しているプログラムに限らず、他のソフトウェア、拡張ボードの機能と共同して、OS(Operating System)上で動作して処理を実行するプログラムも各実施形態の範疇に含まれる。
以上、上述した実施形態を参照して本開示を説明した。しかしながら、本開示は、上述した実施形態には限定されない。即ち、本開示は、本開示のスコープ内において、種々の上記開示要素の多様な組み合わせ乃至選択等、当業者が理解し得る様々な態様を適用することができる。
この出願は、2020年3月19日に出願された日本出願特願2020-048579を基礎とする優先権を主張し、その開示の全てをここに取り込む。
10 コンピュータ装置
11 プロセッサ
12 RAM
13 ROM
14、160 記憶装置
15 入出力インタフェース
16 バス
17 ドライブ装置
18 プログラム
19 周辺機器
20 記憶媒体
100、101、102、103、104 情報処理装置
120、410 行動検出部
130、420 感情検出部
140、430 不審度算出部
150、151、440 マスク処理部
170 指示受付部
180 顔照合部
190 属性検出部
200 撮影装置
300 管理端末
310 表示部

Claims (9)

  1. 撮影データに含まれる人物の行動を検出する行動検出手段と、
    前記人物の感情を検出する感情検出手段と、
    検出された前記人物の行動及び前記人物の感情に基づいて、前記人物を監視すべき度合いを示す値である不審度を算出する不審度算出手段と、
    算出された前記不審度に基づいて、前記撮影データのうち前記人物が映る領域の情報量を減らす処理であるマスク処理を、前記領域に重畳される他の画像の透過率を前記人物の衣服及び髪の色の少なくとも一方を認識できるように調整し、前記透過率が設定された前記他の画像を前記領域に重畳することによって行うマスク処理手段と、を備える、
    情報処理装置。
  2. 前記マスク処理手段は、前記不審度が所定の値以上のとき、前記不審度が前記所定の値未満のときより、前記人物が映る領域の情報量を減らす度合いを小さくする、
    請求項1に記載の情報処理装置。
  3. 前記不審度を変更する指示と、前記不審度を変更する前記人物を識別する情報とを含む指示情報を受け付ける指示受付手段をさらに備え、
    前記マスク処理手段は、前記指示受付手段が前記指示情報を受け付けた場合、前記指示情報に応じて変更された前記不審度を持つ前記人物が映る領域に、変更された前記不審度に基づいたマスク処理を行う、
    請求項1または2に記載の情報処理装置。
  4. 前記人物の顔情報と、データベースに予め登録された顔情報との照合を行う顔照合手段をさらに備え、
    前記マスク処理手段は、前記照合において、前記人物の顔情報と、前記予め登録された顔情報とが合致した場合、前記撮影データのうち当該人物が映る領域にマスク処理を行わない、
    請求項1乃至3のいずれか一項に記載の情報処理装置。
  5. 前記人物の属性を検出する属性検出手段をさらに備え、
    前記不審度算出手段は、検出された前記人物の行動と、前記人物の感情と、前記人物の属性と、に基づいて、前記人物の前記不審度を算出する、
    請求項1乃至4のいずれか一項に記載の情報処理装置。
  6. 前記マスク処理手段は、検出された前記人物の属性に基づいて、前記人物の属性を示す情報を付加したマスク処理を行う、
    請求項5に記載の情報処理装置。
  7. 撮影範囲を撮影することにより前記撮影データを生成する撮影装置と、
    請求項1乃至6のいずれか一項に記載の情報処理装置と、を備える、
    監視システム。
  8. 撮影データに含まれる人物の行動を検出し、
    前記人物の感情を検出し、
    検出された前記人物の行動及び前記人物の感情に基づいて、前記人物を監視すべき度合いを示す不審度を算出し、
    算出された前記不審度に基づいて、前記撮影データのうち前記人物が映る領域の情報量を減らす処理であるマスク処理を、前記領域に重畳される他の画像の透過率を前記人物の衣服及び髪の色の少なくとも一方を認識できるように調整し、前記透過率が設定された前記他の画像を前記領域に重畳することによって行う、
    情報処理方法。
  9. 撮影データに含まれる人物の行動を検出する処理と、
    前記人物の感情を検出する処理と、
    検出された前記人物の行動及び前記人物の感情に基づいて、前記人物を監視すべき度合いを示す不審度を算出する処理と、
    算出された前記不審度に基づいて、前記撮影データのうち前記人物が映る領域の情報量を減らす処理であるマスク処理を、前記領域に重畳される他の画像の透過率を前記人物の衣服及び髪の色の少なくとも一方を認識できるように調整し、前記透過率が設定された前記他の画像を前記領域に重畳することによって行う処理と、をコンピュータに実行させるプログラム。
JP2022508085A 2020-03-19 2021-01-14 情報処理装置、監視システム、情報処理方法、及びプログラム Active JP7405238B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020048579 2020-03-19
JP2020048579 2020-03-19
PCT/JP2021/001032 WO2021186866A1 (ja) 2020-03-19 2021-01-14 情報処理装置、監視システム、情報処理方法、及び記憶媒体

Publications (3)

Publication Number Publication Date
JPWO2021186866A1 JPWO2021186866A1 (ja) 2021-09-23
JPWO2021186866A5 JPWO2021186866A5 (ja) 2022-10-04
JP7405238B2 true JP7405238B2 (ja) 2023-12-26

Family

ID=77770769

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022508085A Active JP7405238B2 (ja) 2020-03-19 2021-01-14 情報処理装置、監視システム、情報処理方法、及びプログラム

Country Status (3)

Country Link
US (1) US20230089155A1 (ja)
JP (1) JP7405238B2 (ja)
WO (1) WO2021186866A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI825843B (zh) * 2022-07-12 2023-12-11 致伸科技股份有限公司 一種安全認證方法及應用該方法之安全認證裝置
WO2024095396A1 (ja) * 2022-11-02 2024-05-10 三菱電機株式会社 不審者検出装置および不審者検出方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008152328A (ja) 2006-12-14 2008-07-03 Hitachi Information & Control Solutions Ltd 不審者監視システム
JP2009225398A (ja) 2008-03-19 2009-10-01 Secom Co Ltd 画像配信システム
JP2015046732A (ja) 2013-08-28 2015-03-12 キヤノン株式会社 画像処理装置、画像処理方法
JP2016162103A (ja) 2015-02-27 2016-09-05 富士通株式会社 画像処理プログラム、画像処理装置、及び画像処理方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008152328A (ja) 2006-12-14 2008-07-03 Hitachi Information & Control Solutions Ltd 不審者監視システム
JP2009225398A (ja) 2008-03-19 2009-10-01 Secom Co Ltd 画像配信システム
JP2015046732A (ja) 2013-08-28 2015-03-12 キヤノン株式会社 画像処理装置、画像処理方法
JP2016162103A (ja) 2015-02-27 2016-09-05 富士通株式会社 画像処理プログラム、画像処理装置、及び画像処理方法

Also Published As

Publication number Publication date
WO2021186866A1 (ja) 2021-09-23
JPWO2021186866A1 (ja) 2021-09-23
US20230089155A1 (en) 2023-03-23

Similar Documents

Publication Publication Date Title
US9807090B2 (en) Person authentication method
JP7278735B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7405238B2 (ja) 情報処理装置、監視システム、情報処理方法、及びプログラム
JP6253311B2 (ja) 画像処理装置、画像処理方法
US10769915B2 (en) Privacy preserving camera
JP2009246799A (ja) 画像監視装置
KR102167730B1 (ko) 영상 마스킹 장치 및 영상 마스킹 방법
JP2013003964A (ja) 顔画像検索システム、及び顔画像検索方法
JP7416165B2 (ja) 情報処理装置
JP6440327B2 (ja) 防犯システム、防犯方法、及びロボット
JP6234827B2 (ja) 犯罪リスク値導出装置およびプログラム
JPWO2019003973A1 (ja) 顔認証装置、顔認証方法およびプログラム
WO2020195732A1 (ja) 画像処理装置、画像処理方法、およびプログラムが格納された記録媒体
JP5730044B2 (ja) 顔画像認証装置
US20230394939A1 (en) Monitoring device, suspicious object detecting method, and recording medium
Poonsri et al. Improvement of fall detection using consecutive-frame voting
JP7183089B2 (ja) 情報処理装置、情報処理システム、情報処理方法、及びプログラム
WO2018104999A1 (ja) 情報処理装置、制御方法、及びプログラム
JP7423904B2 (ja) 情報出力装置、方法、及びプログラム
JP2021196741A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2021012657A (ja) 情報処理装置、情報処理方法、カメラ
JP7298729B2 (ja) 情報処理システム、情報処理装置、情報処理方法、およびプログラム
JP2005149145A (ja) 物体検出装置、物体検出方法、およびコンピュータプログラム
JP7517365B2 (ja) 画像処理システム、画像処理方法及びプログラム
JP7098180B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220808

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231127

R151 Written notification of patent or utility model registration

Ref document number: 7405238

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151