JP2020154808A - 情報処理装置、情報処理システム、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理システム、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2020154808A
JP2020154808A JP2019053363A JP2019053363A JP2020154808A JP 2020154808 A JP2020154808 A JP 2020154808A JP 2019053363 A JP2019053363 A JP 2019053363A JP 2019053363 A JP2019053363 A JP 2019053363A JP 2020154808 A JP2020154808 A JP 2020154808A
Authority
JP
Japan
Prior art keywords
information
image
information amount
amount reduction
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019053363A
Other languages
English (en)
Other versions
JP7183089B2 (ja
Inventor
英貴 大平
Hideki Ohira
英貴 大平
脩太 彌永
Shuta Yanaga
脩太 彌永
遼平 田中
Ryohei Tanaka
遼平 田中
賢司 古川
Kenji Furukawa
賢司 古川
真由美 池田
Mayumi Ikeda
真由美 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Digital Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Digital Solutions Corp filed Critical Toshiba Corp
Priority to JP2019053363A priority Critical patent/JP7183089B2/ja
Priority to US16/812,443 priority patent/US11620728B2/en
Publication of JP2020154808A publication Critical patent/JP2020154808A/ja
Application granted granted Critical
Publication of JP7183089B2 publication Critical patent/JP7183089B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/18Image warping, e.g. rearranging pixels individually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • G06F21/6254Protecting personal data, e.g. for financial or medical purposes by anonymising data, e.g. decorrelating personal data from the owner's identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • H04L63/0876Network architectures or network communication protocols for network security for authentication of entities based on the identity of the terminal or configuration, e.g. MAC address, hardware or software configuration or device fingerprint

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Bioethics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Power Engineering (AREA)
  • Computing Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】画像の情報量を適切に削減することができる情報処理装置、情報処理システム、情報処理方法、及びプログラムを提供すること。【解決手段】実施形態の情報処理装置は、画像取得部と、情報量削減度決定部と、情報量削減部と、を持つ。画像取得部は、実空間を撮影した画像を取得する。情報量削減度決定部は、前記画像に写っている被写体の属性に基づいて情報量削減度を決定する。情報量削減部は、前記情報量削減度に応じて前記画像の少なくとも一部の情報量を削減した情報量削減データを生成する。【選択図】図1

Description

本発明の実施形態は、情報処理装置、情報処理システム、情報処理方法、及びプログラムに関する。
監視カメラの画像に写っている被写体(顔など)にぼかし処理を行なった後で被写体(顔など)の特徴量を算出し照合することにより、個人を特定できる情報を削減しつつ、個々の顔を照合する技術がある(例えば、特許文献1)。
しかしながら、上述した技術では、画像にぼかし処理を行なうことでプライバシーを保護する反面、情報が削減された画像から特徴量を算出して照合することになるため、画像の照合精度が低下する場合があった。
特開2016−71639号公報
本発明が解決しようとする課題は、画像の情報量を適切に削減することができる情報処理装置、情報処理システム、情報処理方法、及びプログラムを提供することである。
実施形態の情報処理装置は、画像取得部と、情報量削減度決定部と、情報量削減部と、を持つ。画像取得部は、実空間を撮影した画像を取得する。情報量削減度決定部は、前記画像に写っている被写体の属性に基づいて情報量削減度を決定する。情報量削減部は、前記情報量削減度に応じて前記画像の少なくとも一部の情報量を削減した情報量削減データを生成する。
第1の実施形態に係る情報処理システムの概要を説明するシステム図。 人物画像から一様に情報量を削減する例を示す図。 第1の実施形態に係る人物画像から情報量を削減する例を示す図。 第1の実施形態に係る情報処理システムのハードウェア構成の一例を示すブロック図。 第1の実施形態に係る端末制御部及びサーバ制御部の機能構成の一例を示すブロック図。 人物の属性の出現頻度とぼかし強度との関連付けの設定を示す図。 第1の実施形態に係るRe−id処理の一例を示すフローチャート。 第1の実施形態に係るぼかし処理の詳細を示すフローチャート。 第2の実施形態に係る人物の部位ごとのぼかし強度の設定例を示す図。 第2の実施形態に係るぼかし処理を示すフローチャート。 第3の実施形態に係るぼかし強度をアダプティブに変更する例を示す図。 第3の実施形態に係るぼかし処理を示すフローチャート。 第4の実施形態に係るぼかし強度を説明する図。 第4の実施形態に係るぼかし処理を示すフローチャート。 第5の実施形態に係るぼかし強度を説明する図。 第5の実施形態に係る端末制御部及びサーバ制御部の機能構成の一例を示すブロック図。 第5の実施形態に係るぼかし処理を示すフローチャート。 第6の実施形態に係る人物の出現頻度を説明する図。 第6の実施形態に係る情報処理システムの概要を説明するシステム図。 第6の実施形態に係る端末制御部及びサーバ制御部の機能構成の一例を示すブロック図。 第6の実施形態に係るぼかし処理を示すフローチャート。
以下、実施形態の情報処理装置、情報処理システム、情報処理方法、及びプログラムを、図面を参照して説明する。
<第1の実施形態>
まず、本実施形態に係る情報処理システムの概要を説明する。
図1は、本実施形態に係る情報処理システム1の概要を説明するシステム図である。情報処理システム1は、駅構内や商業施設内または商店街などに設置された複数のカメラ10(10−1、10−2、10−3、・・・)で撮影された画像から人物の特徴量を算出して照合することにより、各カメラで撮影された同一人物の対応付け(Person Re−identification:Re−id)を行うシステムである。各カメラ10に接続された端末20(20−1、20−2、20−3、・・・)のそれぞれは、各カメラ10で撮影された画像に写っている被写体(人物など)の特徴量を算出し、算出した特徴量をサーバ30へ送信する。サーバ30は、各端末20から送信された特徴量を受信する。サーバ30は、各端末20から受信した特徴量同士を照合し、照合結果(類似度)に基づいて、同一人物と判定した特徴量を対応付ける。これにより、情報処理システム1は、同一人物の行動を検出することができ、構内や商業施設内または商店街などにおける人物の特徴や行動パターンなどの統計情報を収集することができる。
例えば、図示するように、地点A,B、Cの順に人物Uが移動したとする。カメラ10−1が撮影した画像には地点Aに存在するときの人物Uが写る。カメラ10−2が撮影した画像には地点Bに存在するときの人物Uが写る。カメラ10−3が撮影した画像には地点Cに存在するときの人物Uが写る。端末20−1は、カメラ10−1が撮影した地点Aに存在するときの人物Uが写った画像から人物Uの特徴量を算出して撮影時刻情報と関連付けてサーバ30へ送信する。端末20−2は、カメラ10−2が撮影した地点Bに存在するときの人物Uが写った画像から人物Uの特徴量を算出して撮影時刻情報と関連付けてサーバ30へ送信する。端末20−3は、カメラ10−3が撮影した地点Cに存在するときの人物Uが写った画像から人物Uの特徴量を算出して撮影時刻情報と関連付けてサーバ30へ送信する。サーバ30は、各端末20から送信された特徴量同士を照合し、同一人物と判定しうる特徴量を対応付ける。これにより、情報処理システム1は、ある同一人物(ここでは、人物U)の行動を検出することができる。なお、情報処理システム1は、同一人物として対応付けた特徴量が示す人物が誰であるかの個人の特定は行わない。
ところで、上述したようにカメラ10で撮影された被写体(人物など)の特徴量を照合して同一人物か否かを判定する技術では、被写体(人物など)の特徴量を収集して、少なくとも一時的にハードディスクやメモリなどの記憶媒体に保存する必要があり、プライバシー保護の観点からセキュリティレベルを高くする必要がある。しかしながら、高セキュリティ環境の構築には非常にコストがかかる。顔認証を使用した空港ゲートの開閉や指紋認証による口座管理などでは高セキュリティ環境の構築が必要であるが、個人を特定する必要がなく、例えば施設への来場者の特徴や行動パターンなどの統計情報を収集することが目的であれば、高セキュリティ環境を構築するのはコストが高いという問題がある。
そこで、端末20は、個人を特定できないように情報量を削減した情報量削減データから特徴量を算出する。例えば、端末20は、カメラ10で撮影された被写体(人物など)の画像に対して、所定の情報量削減度で情報量削減処理を行い、情報量を削減した後の情報量削減データから被写体(人物など)の特徴量を算出し、サーバ30へ送信する。これにより、端末20からサーバ30へ送信して保存される情報(特徴量)では個人を特定できないため、特徴量を保存する記憶媒体のセキュリティレベルが低くても、プライバシーに配慮したシステムとすることができる。
例えば、情報量削減度とは、画像の鮮明度、画像の解像度、画像のビット深度、画像のJPEG圧縮率、モザイクの強度、画像の塗りつぶし、画像のコントラスト、画像の明るさ、画像のアスペクト比などの値である。情報量削減データとは、元の画像に対して情報量削減度の値を適用して情報量削減処理を行なった画像のことである。画像の情報量の多少については、例えば、画像の鮮明度、画像の解像度、画像のビット深度については、値が高いほど情報量が多く、値が低いほど情報量が少ない。画像のJPEG圧縮率、モザイクの強度については、値が低いほど情報量が多く、値が高いほど情報量が少ない。画像の塗りつぶしについては、塗りつぶす領域が少ないほど情報量が多く、塗りつぶす領域が多いほど情報量が少ない。画像のコントラスト、画像の明るさについては、適切な値であれば情報量が多く、適切な値でなければ情報量は少ない。白とびが少ない、暗すぎない、物体の輪郭がはっきりしている、このような画像となる設定値ほど適切である。
ここでは、情報量削減処理として、移動平均フィルタまたはガウシアンフィルタなどを用いたぼかし処理を適用して画像の解像度を低減する例として説明する。ぼかし処理における情報量削減度をぼかし強度とし、ぼかし強度が「強」の場合、ぼかし強度が「弱」より情報量の削減度が多いものとする。
図2は、人物画像から一様に情報量を削減する例を示す図である。この図は、カメラ10で撮影された画像に写った5人の人物(U1、U2、U3、U4、U5)の人物画像に対して一様に同じ強度(「強」)のぼかし処理を行なうことにより情報量を削減する場合の例を示している。ぼかし処理前の人物画像の一例を上段に、ぼかし処理後の人物画像の一例を下段に模式的に示している。なお、人物U1が着ている服は緑であり、人物U2が着ている服は赤であり、人物U3、U4、U5が着ている服は青であるものとする。
人物U1及び人物U2の画像は、ぼかし処理を行うことにより個人特定を困難にすることができるとともに、5人の中で服の色が違うなどの特徴があるため、ぼかし処理後の画像から特徴量を算出しても照合精度に問題はない。一方、人物U3、U4、U5のように同じ色の服の人物が増えると、この3人の特徴が似通っているため、ぼかし強度が強い場合ぼかし処理後の画像では個人特定が困難なだけでなく照合精度も低下する。このように、一様にぼかし強度が強い場合、プライバシーは配慮されるものの、照合精度が低下するという問題がある。そのため、人物によってぼかし強度を適切に設定する必要がある。ぼかし強度の適切な設定値は、対象の人物の髪型、色、服装、場所などによって変わる。例えば、人物画像中の服を使って人物を特定する場合、オフィスなど、多くの人物がスーツを着ているシーンでは、服装で人物を特定することは困難である。このため、ぼかし強度を弱く設定して照合精度の低下を抑制する必要がある。一方、商業施設など、人物によっては目立つ服装を着ているシーンでは、服装から人物を容易に特定できる可能性がある。この場合、ぼかし強度を強く設定して、プライバシーへの配慮に重点を置く必要がある。
そこで、本実施形態では、画像中の人物の特定が容易か困難かによってぼかし強度を変更する。特定が容易な人物の人物画像に対しては、ぼかし強度を強くすることで、プライバシーに配慮する。特定が困難な人物の人物画像に対しては、ぼかし強度を弱くし、照合精度の低下を抑制する。人物画像ごとにぼかし強度を適切に設定することにより、特徴が似通っている人物の照合精度の低下を抑制し、プライバシーに配慮しつつ、照合精度の低下を最小限に抑えることが可能となる。
図3は、本実施形態に係る人物画像から情報量を削減する例を示す図である。この図では、服の色が他の人物とは異なる人物U1、U2の画像に対するぼかし処理のぼかし強度よりも、服の色が同じ人物U3、U4、U5の画像に対するぼかし処理のぼかし強度を弱くしている点が図2に示す例と異なる。例えば、情報処理システム1は、服の色が同じ人物がいない(または少ない場合)には、個人特定が容易であるためぼかし強度を強く設定する。一方、情報処理システム1は、服の色が同じ人物が多い場合には、個人特定が困難であるためぼかし強度を弱く設定する。
これにより、情報処理システム1は、似たような人物の出現頻度が低い人物(即ち、個人特定が容易な人物)の画像に対しては情報の削減度合いを強めることで個人特定を困難にするとともに照合精度も確保することができる。一方、情報処理システム1は、似たような人物の出現頻度が高い人物(即ち、個人特定がそもそも容易ではない人物)の画像に対しては情報の削減度合いを弱めることで照合精度の低下を抑制することができる。つまり、情報処理システム1は、画像の情報量を適切に削減することができ、プライバシー保護と人物の照合精度とを両立することができる。
以下、情報処理システム1の構成について詳しく説明する。
図4は、本実施形態に係る情報処理システム1のハードウェア構成の一例を示すブロック図である。この図において、図1に対応する構成には、同一の符号を付している。情報処理システム1は、複数のカメラ10(10−1、10−2、・・・、10−n、nは自然数)と、各カメラ10に有線または無線で接続される端末20(20−1、20−2、・・・、20−n、nは自然数)と、サーバ30とを備えている。カメラ10は、例えば、ビデオカメラ、監視カメラ、ネットワークカメラなどであり、所定の画角で実空間の画像を撮影し、撮影した画像を端末20へ送信する。画像は、静止画像でもよいし動画像でもよい。端末20及びサーバ30は、コンピュータを含む情報処理装置である。端末20とサーバ30とは、通信ネットワークを介して接続される。なお、カメラ10と端末20とは一体に構成されていてもよい。
端末20は、通信部21と、入力部22と、表示部23と、記憶部24と、端末制御部25とを備えている。サーバ30は、通信部31と、入力部32と、表示部33と、記憶部34と、サーバ制御部35とを備えている。通信部21及び通信部31は、イーサネット(登録商標)ポートやUSB(Universal Serial Bus)等のデジタル入出力ポート、Wi−Fi(登録商標)などの無線通信などを含んで構成される。通信部21及び通信部31のそれぞれは、端末制御部25及びサーバ制御部35のそれぞれによる制御に基づいて、通信ネットワークを介して通信を行う。
入力部22及び入力部32は、キーボードやマウス、タッチパッドなどを含んで構成されている。入力部22及び入力部32のそれぞれは、キーボードやマウス、タッチパッドなどに対するユーザの操作に基づいて、入力された操作を示す操作信号を端末制御部25及びサーバ制御部35のそれぞれへ出力する。なお、入力部22及び入力部32は、タッチパネルとしてディスプレイと一体に構成されてもよい。
表示部23及び表示部33は、画像やテキスト等の情報を表示するディスプレイであり、例えば、液晶ディスプレイパネル、有機EL(ElectroLuminescence)ディスプレイパネルなどを含んで構成される。なお、表示部23及び表示部33のそれぞれは、端末20及びサーバ30のそれぞれと別体でもよく、例えば、外付け型の表示装置であってもよい。
記憶部24及び記憶部34のそれぞれは、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、ROM(Read-Only Memory)、RAM(Random Access Memory)などを含み、端末制御部25及びサーバ制御部35のそれぞれが処理する各種情報や画像、プログラムなどを記憶する。なお、記憶部24及び記憶部34のそれぞれは、端末20及びサーバ30のそれぞれに内蔵されるものに限らず、USBなどのデジタル入出力ポートなどによって接続された外付け型の記憶装置であってもよい。
端末制御部25は、CPU(Central Processing Unit)を含んで構成され、記憶部24に記憶された各種プログラムを実行し、端末20の各部を制御する。例えば、端末制御部25は、カメラ10で撮影された画像を通信部21を介して取得し、取得した画像に写っている人物画像に対して情報量を削減する処理(例えば、ぼかし処理)を行う。また、端末制御部25は、処理後の人物画像から特徴量を算出し、算出した特徴量を通信部21を介してサーバ30へ送信する。サーバ制御部35は、CPUを含んで構成され、記憶部34に記憶された各種プログラムを実行し、サーバ30の各部を制御する。例えば、サーバ制御部35は、複数の端末20のそれぞれから送信された人物の特徴量を通信部31を介して取得し、取得した特徴量同士を照合し、同一人物の対応付けを行う。なお、以下の記載では、カメラ10、端末20、及びサーバ30が通信を行う際に、通信部21及び通信部31を介して行うことを省略して記載する。
次に、端末制御部25及びサーバ制御部35のそれぞれがプログラムを実行することにより実現される機能構成について詳しく説明する。
図5は、本実施形態に係る端末制御部25及びサーバ制御部35の機能構成の一例を示すブロック図である。
端末制御部25は、画像取得部251と、人物検出部253と、人物画像取得部254と、属性検出部257と、情報量削減度決定部258と、情報量削減部259と、特徴量算出部260(第1特徴量算出部)とを備えている。サーバ制御部35は、特徴量保存部351と、特徴量照合部352(第1照合部)と、表示制御部353とを備えている。
画像取得部251は、カメラ10により撮影された画像を取得する。例えば、画像取得部251は、カメラ10により撮影された画像の画像データを取得する。画像取得部251が取得する画像に対して以降の処理では、オンラインでリアルタイムに処理してもよいし、記憶部24に保存した後にオフラインで処理してもよい。
人物検出部253は、画像取得部251が取得した画像から、当該画像に写っている人物の人物画像を検出する。例えば、人物検出部253は、画像に写っている人物の全身、人物の上半身、人物の顔、人物の服などの一部または全部を検出する。人物の検出は、人物検出器、インスタンスセグメンテーション、セマンティックセグメンテーションなどの結果を使って行うことができる。人物検出器(顔検出器、上半身検出器、人物検出器)、インスタンスセグメンテーション、セマンティックセグメンテーションは、テンプレートマッチング、画像の輝度勾配情報の統計量、ディープラーニングなどを用いて実現できる。また、人物検出部253は、背景のみの画像(人物などの移動体が存在しない同一画角の画像)との差分などに基づいて人物画像を検出してもよい。なお、人物画像の検出方法は、上記に限らず任意の検出方法を適用することができる。
人物画像取得部254は、人物検出部253により検出された人物画像を取得する。例えば、人物画像取得部254は、人物検出部253により検出された人物画像の領域を画像取得部251が取得した画像から切り出した人物画像を取得して属性検出部257及び情報量削減部259へ出力する。
属性検出部257は、人物画像取得部254が取得した人物画像に基づいて、人物の属性を検出する。人物の属性とは、人物の性質や特徴を示しており、例えば、服装の色、服装の種類(スーツ、ズボンorハーフパンツorスカート、帽子の有無、メガネの有無、など)、人物の髪型(長髪or短髪など)、人物の髪の色、人物の性別、人物の年齢、文字(名前など)などである。検出する属性は、一項目であってもよいし、複数の項目であってもよい。人物の性別、人物の年齢、人物の髪型、服装の種類などは、顔属性推定や人物属性推定(Human Attribute Recognition)を用いて推定できる。服装の色や髪の色は、画像の色情報(色度など)を用いて推定できる。文字(名前など)は、文字認識を使って推定できる。顔属性推定、人物属性推定、及び文字認識は、テンプレートマッチング、画像の輝度勾配情報の統計量、ディープラーニングなどを用いて実現できる。なお、人物の属性の検出方法は、上記に限らず任意の検出方法を適用することができる。
情報量削減度決定部258は、属性検出部257が検出した属性(即ち、画像に写っている人物の属性)に基づいて、人物画像の情報量を削減する際の情報量削減度(例えば、ぼかし強度)を決定する。例えば、情報量削減度決定部258は、人物の属性の出現度に基づいてぼかし強度を決定する。属性の出現度とは、例えば、カメラ10で撮影された画像に出現した回数に基づく出現頻度である。例えば、5人のうち赤い服が1人の場合、赤い服の出現頻度は、1回であり20%となる。5人のうち青い服が3人の場合、青い服の出現頻度は、3回であり60%となる。情報量削減度決定部258は、出現頻度が低い属性の人物画像に対しては、情報量の削減度合いが多くなるように、ぼかし強度を「強」に決定する。ぼかし強度が「強」とは、個人特定が困難になる程度にぼかす量として予め設定されたレベルである。一方、情報量削減度決定部258は、出現頻度が高い属性の人物画像に対しては、情報量の削減度合いが少なくなるように、ぼかし強度を「弱」に決定する。ぼかし強度が「弱」とは、「強」よりもぼかす量が少ないレベルであり、照合精度の低下を抑制する目的で予め設定されたレベルである。
ここで、どの属性の出現頻度が高く、どの属性の出現頻度が低いかは、予め設定されていてもよい。例えば、過去の画像から事前に調査した結果に基づいて、どの属性の出現頻度が高く、どの属性の出現頻度が低いかが予め設定されてもよい。また、季節、場所、イベントの有無、イベントの内容、流行などから推測し得る出現頻度が予め設定されてもよい。例えば、就職相談会などでは、スーツを着た人が多いことが推測できるため、スーツを着ている人物の出現頻度が予め高く設定されてもよい。
図6は、人物の属性の出現頻度とぼかし強度との関連付けの設定を示す図である。この図は、服の色を属性として、服の色ごとのぼかし強度との関連付けの設定例を示している。図示する例では、緑の服の人物U1と赤の服の人物U2は、出現頻度が低く(出現回数が1回)個人特定が容易であるため、ぼかし強度が「強」に設定されている。一方、青い服の人物U3、U4、U5は、出現頻度が高く(出現回数が3回)そもそも個人特定が困難であるため、ぼかし強度が「弱」に設定されている。なお、本実施形態では、「強」と「弱」の2種類のぼかし強度を用いる例で説明するが、2種類に限定されるものではなく、属性の出現頻度などに応じて3種類以上のぼかし強度を用いてもよい。
図5に戻り、情報量削減部259は、情報量削減度決定部258により決定された情報量削減度(例えば、ぼかし強度)に応じて画像の少なくとも一部の情報量を削減した画像データ(情報量削減データ)を生成する。例えば、情報量削減部259は、情報量削減度決定部258により決定されたぼかし強度に応じて、人物画像取得部254が取得した人物画像にぼかし処理を行ない、ぼかし処理を行なった画像のデータ(ぼかし処理後の画像データ)を生成する。
特徴量算出部260は、情報量削減部259により人物画像に対してぼかし処理が行われた画像データ(情報量削減データ)から人物の特徴量を示す人物特徴量(情報量削減特徴量)を算出する。この人物特徴量(情報量削減特徴量)とは、情報量削減データそのもの、情報量削減データから算出した輝度勾配情報、情報量削減データを入力としたディープラーニングの出力、などのことである。また、特徴量算出部260は、算出した人物特徴量(情報量削減特徴量)をサーバ30へ送信する。例えば、特徴量算出部260は、算出した人物特徴量(情報量削減特徴量)と、画像の撮影時刻情報と、画像を撮影したカメラ10の識別情報とを関連付けて送信する。
特徴量保存部351は、特徴量算出部260から送信された人物特徴量(情報量削減特徴量)を受信し、受信した人物特徴量を記憶部34に保存する。例えば、特徴量保存部351は、数のカメラ10のそれぞれから受信した人物特徴量(情報量削減特徴量)と、画像の撮影時刻情報と、画像を撮影したカメラ10の識別情報とを関連付けて記憶部34に保存する。
特徴量照合部352は、特徴量保存部351により保存された、複数のカメラ10から受信した複数の人物特徴量(情報量削減特徴量)同士を照合する。人物特徴量の照合方法としては、2つの人物特徴量の内積、2つの人物特徴量のユークリッド距離、2つの人物特徴量の差の絶対値などによる方法を用いることができる。特徴量照合部352は、照合結果に基づいて同一人物と判定した特徴量の対応付けを行う。
表示制御部353は、特徴量照合部352による照合結果に基づく情報を表示部33に表示させる。例えば、表示制御部353は、人物の特徴や行動パターンなどの統計情報などを表示させる。
次に、図7を参照して、情報処理システム1における複数のカメラ10で撮影された同一人物の対応付けを行うRe−id処理の動作を説明する。図7は、本実施形態に係るRe−id処理の一例を示すフローチャートである。
端末20は、カメラ10で撮影された画像を取得する(ステップS100)。端末20は、カメラ10から取得した画像から、当該画像に写っている人物の人物画像を検出し、人物画像の領域を切り出した人物画像のデータを取得する(ステップS110)。次に、端末20は、人物画像に対してぼかし処理を実行する(ステップS120)。
図8は、ステップS120のぼかし処理の詳細を示すフローチャートである。
端末20は、カメラ10から取得した画像から検出した人物画像に基づいて、人物の属性を検出する。例えば、端末20は、図6に示す例では、人物画像から人物の服の色を検出する(ステップS1211)。次に、端末20は、検出した人物の属性に基づいてぼかし強度を決定する。例えば、図6に示す例では、端末20は、服の色が赤または緑の人物画像に対するぼかし強度を「強」に決定し、服の色が青の人物画像に対するぼかし強度を「弱」に決定する(ステップS1212)。そして、端末20は、決定したぼかし強度で人物画像をぼかした画像データ(情報量削減データ)を生成する(ステップS1213)。
図7に戻り、端末20は、ステップS1213で生成したぼかし処理後の画像データから人物特徴量を算出する(ステップS130)。そして、端末20は、算出した人物特徴量をサーバ30へ送信する(ステップS140)。
サーバ30は、端末20から送信された人物特徴量を受信すると(ステップS200)、受信した人物特徴量を記憶部34に保存する(ステップS210)。サーバ30は、保存されている複数のカメラ10から受信した複数の人物特徴量同士を照合し、照合結果に基づいて同一人物と判定した特徴量の対応付けを行う(ステップS220)。
そして、サーバ30は、照合結果に基づく情報を出力する。例えば、サーバ30は、人物の特徴や行動パターンなどの統計情報などを表示部33に表示させる(ステップS230)。
以上説明したように、本実施形態に係る情報処理システム1は、画像に写っている人物(被写体の一例)の属性に基づいてぼかし強度(情報量削減度の一例)を決定し、決定したぼかし強度に応じて画像の少なくとも一部の情報量を削減した情報量削減データを生成する。これにより、情報処理システム1は、画像に写っている被写体の属性に応じて画像の情報量を適切に削減することができる。
なお、本実施形態では、一つの属性(例えば、服の色)に基づいてぼかし強度を決定する例を説明したが、複数の属性に基づいてぼかし強度を決定してもよい。
また、情報処理システム1は、生成した情報量削減データから人物(被写体の一例)の特徴量を示す情報量削減特徴量を算出し、算出した情報量削減特徴量を照合する。これにより、情報処理システム1は、人物(被写体の一例)の属性に基づいて、個人特定が困難なるように画像の情報量を削減しつつ、情報量削減データから同一人物を検出することができる。
例えば、情報処理システム1は、人物(被写体の一例)の属性の出現頻度(出現度の一例)に基づいてぼかし強度(情報量削減度の一例)を決定する。つまり、情報処理システム1は、人物(被写体の一例)の属性の出現頻度に基づいて、画像中の人物の特定が容易か困難かを判定してぼかし強度を変更する。情報処理システム1は、同一属性の出現頻度が低い人物(特定が容易な人物)の人物画像に対しては、ぼかし強度を強くすることで、プライバシーに配慮する。一方、情報処理システム1は、同一属性の出現頻度が高い人物(特定が困難な人物)の人物画像に対しては、ぼかし強度を弱くし、照合精度の低下を抑制する。人物画像ごとにぼかし強度を適切に設定することにより、特徴が似通っている人物の照合精度の低下を抑制し、プライバシーに配慮しつつ、照合精度の低下を最小限に抑えることができる。
なお、出現頻度に代えて、出現回数などの出現度を用いてもよい。
また、情報処理システム1において、端末20は、算出した情報量削減特徴量を通信ネットワークを介してサーバ30へ送信する。これにより、通信ネットワークを介してサーバ30へ送信するデータは、個人特定が困難なデータとなるため、プライバシーに配慮した構成とすることができる。
<第2の実施形態>
次に、第2の実施形態について説明する。
本実施形態に係る情報処理システム1の基本的な構成は、図4及び図5に示す構成と同様であり、その説明を省略する。本実施形態では、人物の部位ごとにぼかし強度を決定する点が第1の実施形態と異なる。例えば、髪型、上半身の服装、下半身の服装など、部位ごとに出現頻度が異なる場合がある。このような場合、出現頻度が高い部位は情報量を多くし、出現頻度が低い部位は情報量を少なくすることで、プライバシーに配慮しつつ、単一のぼかし強度を用いる場合よりも高精度な照合が可能となる。
例えば、人物検出部253は、画像取得部251が取得した画像から、当該画像に写っている人物の部位ごとの人物画像を検出する。部位の検出は、人物検出器(顔検出器、上半身検出器、人物検出器)、インスタンスセグメンテーション、セマンティックセグメンテーションなどの結果を使って行うことができる。人物画像取得部254は、人物検出部253により検出された人物の部位ごとの部分画像を取得する。
属性検出部257は、人物画像取得部254が取得した人物画像に基づいて、人物の部位ごとの部分画像から属性を検出する。情報量削減度決定部258は、部分画像ごとの属性に基づいてぼかし強度を決定する。情報量削減部259は、人物画像において、部分画像ごとのぼかし強度に応じて部分画像ごとに情報量を削減した画像データ(情報量削減データ)を生成する。
図9は、本実施形態に係る人物の部位ごとのぼかし強度の設定例を示す図である。この図では、属性として、髪、服の色、ズボンの色の3つの部位ごとに属性を検出し、各属性の出現頻度に応じてぼかし強度を決定する例を示している。図示する例では、長髪の人物U11と帽子をかぶっている人物U15は、出現頻度が低く(出現回数が1回)個人特定が容易であるため、髪についてのぼかし強度が「強」に設定されている。一方、短髪の人物U12、U13、U14は、出現頻度が高く(出現回数が3回)そもそも個人特定が困難であるため、髪についてのぼかし強度が「弱」に設定されている。なお、この髪についてのぼかし強度は、頭(顔)の部分に対するぼかし強度としてもよい。また、赤の服の人物U11と緑の服の人物U12は、出現頻度が低く(出現回数が1回)個人特定が容易であるため、服についてのぼかし強度が「強」に設定されている。一方、青い服の人物U13、U14、U15は、出現頻度が高く(出現回数が3回)そもそも個人特定が困難であるため、服についてのぼかし強度が「弱」に設定されている。また、緑のズボンの人物U13は、出現頻度が低く(出現回数が1回)個人特定が容易であるため、ズボンについてのぼかし強度が「強」に設定されている。一方、青いズボンの人物U11、U12、U14、U15は、出現頻度が高く(出現回数が4回)そもそも個人特定が困難であるため、ズボンについてのぼかし強度が「弱」に設定されている。このように、部位ごとに、その部位ごとの属性の出現頻度に応じて、部位ごとのぼかし強度が決まる。
図10は、本実施形態に係るぼかし処理を示すフローチャートである。図示するぼかし処理は、図7のステップS120のぼかし処理において実行される処理である。
端末20は、人物画像に基づいて、部位ごとの人物の属性を検出する。例えば、端末20は、図9に示す例では、人物画像から人物の髪、服の色、ズボンの色を検出する(ステップS1221)。
次に、端末20は、部位ごとに検出した人物の属性に基づいてぼかし強度を決定する。例えば、図9に示す例では、端末20は、人物画像のうち髪(または頭(顔))の部分に対するぼかし強度を、長髪または帽子をかぶっている人物画像の場合には「強」に決定し、短髪の人物画像の場合には「弱」に決定する。また、端末20は、人物画像のうち服の部分に対するぼかし強度を、服の色が赤または緑の人物画像の場合には「強」に決定し、服の色が青の人物画像の場合には「弱」に決定する。また、端末20は、人物画像のうちズボン(下半身)の部分に対するぼかし強度を、ズボンの色が緑の人物画像の場合には「強」に決定し、ズボンの色が青の人物画像の場合には「弱」に決定する(ステップS1222)。
そして、端末20は、決定した部位ごとのぼかし強度で人物画像を部位ごとにぼかした画像データ(情報量削減データ)を生成する(ステップS1223)。
以上説明したように、本実施形態に係る情報処理システム1は、人物画像のうち1つ以上の部分画像ごとの属性に基づいてぼかし強度(情報量削減度の一例)を決定し、部分画像ごとのぼかし強度に応じて部分画像ごとに情報量を削減した情報量削減データを生成する。これにより、情報処理システム1は、出現頻度が高い部位は情報量を多くし、出現頻度が低い部位は情報量を少なくすることで、プライバシーに配慮しつつ、単一のぼかし強度を用いる場合よりも高精度な照合が可能となる。
<第3の実施形態>
次に、第3の実施形態について説明する。
本実施形態に係る情報処理システム1の基本的な構成は、図4及び図5に示す構成と同様であり、その説明を省略する。第1及び第2の実施形態では予め設定された出現頻度に応じてぼかし強度を決定した。しかし、属性の出現頻度が時間の経過とともに変化するような場合がある。このような場合、時間の経過とともに変化する出現頻度に応じてぼかし強度を変化させたほうが、固定した場合よりも、高精度な照合が可能となる。そこで、本実施形態では、時間の経過とともに変化する出現頻度に応じてぼかし強度をアダプティブに変更する構成について説明する。
図11は、本実施形態に係るぼかし強度をアダプティブに変更する例を示す図である。例えば、時刻Tでは、服の色が緑、赤、青のそれぞれの人物U1、U2、U3の出現頻度がそれぞれ1回であり、いずれもぼかし強度が「強」である。その後の時刻T+ΔTで、服の色が青の人物U3、U4、U5のみ出現頻度が増加したとする。この場合、出現頻度が増加した服の色が青の人物画像に対するぼかし強度を「強」のままとすると照合精度が低下する可能性が高い。そのため、端末20は、時刻T+ΔTで服の色が青の人物の出現頻度が増加したことを検出すると、服の色が青の人物画像に対するぼかし強度を「弱」に変更する。
図12は、本実施形態に係るぼかし処理を示すフローチャートである。図示するぼかし処理は、図7のステップS120のぼかし処理において実行される処理である。
端末20は、カメラ10から取得した画像から検出した人物画像に基づいて、人物の属性を検出する。例えば、端末20は、図6に示す例では、人物画像から人物の服の色を検出する(ステップS1231)。端末20は、検出した人物の属性(例えば、服の色)を記憶部24に保存する(ステップS1232)。端末20は、記憶部24に保存されている複数の人物の属性(例えば、服の色)に基づいて各属性の出現頻度を時間の経過に伴い随時算出して更新する(ステップS1233)。端末20は、更新された最新の出現頻度に基づいて、検出した人物の属性(例えば、服の色)のぼかし強度を決定する(ステップS1234)。そして、端末20は、決定したぼかし強度で人物画像をぼかした画像データ(情報量削減データ)を生成する(ステップS1235)。
なお、端末20は、第2の実施形態で説明したように、人物の部位ごとにぼかし強度を決定する場合にも、時間の経過とともに変化する部位ごとの属性の出現頻度に応じて部位ごとのぼかし強度をアダプティブに変更してもよい。
以上説明したように、本実施形態に係る情報処理システム1は、時間の経過とともに変化する出現頻度に応じてぼかし強度をアダプティブに変更するため、ぼかし強度を固定した場合よりも、高精度な照合が可能となる。
なお、最初から属性の出現頻度を検出してぼかし強度アダプティブに変更してもよいし、最初はぼかし強度を「強」または「弱」に設定しておき、その後、時間の経過とともに変化する出現頻度に応じてぼかし強度をアダプティブに変更してもよい。初期設定としてぼかし強度を「強」にする場合はプライバシー保護が優先となり、初期設定としてぼかし強度を「弱」にする場合は照合精度が優先となる。
<第4の実施形態>
次に、第4の実施形態について説明する。
本実施形態に係る情報処理システム1の基本的な構成は、図4及び図5に示す構成と同様であり、その説明を省略する。第3の実施形態で説明したように、時間の経過とともに変化する属性の出現頻度に応じてぼかし強度をアダプティブに変更する場合、変更後のぼかし強度でぼかした人物画像から算出した特徴量と、変更前のぼかし強度でぼかした人物画像から算出した特徴量との照合では、正しい照合ができないことがある。変更前の特徴量のみでの照合、及び変更後の特徴量のみでの照合はできるが、変化点の前後の照合ではぼかし強度が異なることから同一人物であっても特徴量が変わってしまい正しい照合ができないことがある。
例えば、図11に示すように、服の色が青の人物画像に対するぼかし強度を、時刻Tでは「強」としていたが時刻T+ΔTでは出現頻度が増加したことにより「弱」に変更した場合、時刻Tの服の色が青の人物画像と時刻T+ΔTの服の色が青の人物画像との照合を正しく行うことができない。そこで、本実施形態では、図13に示すように、端末20は、服の色が青の人物U3、U4、U5の人物画像について、出現頻度に応じて決定したぼかし強度「弱」でぼかした画像データ(情報量削減データ)を生成する場合、それに加えて、ぼかし強度「強」でぼかした画像データ(情報量削減データ)も生成する。図13は、本実施形態に係るぼかし強度を説明する図である。つまり、情報量削減部259は、人物画像から、属性の出現頻度に応じて決定したぼかし強度でぼかした画像データ(情報量削減データ)を生成するとともに、さらに当該ぼかし強度よりも高いぼかし強度でぼかした画像データ(情報量削減データ)を生成する。
図14は、本実施形態に係るぼかし処理を示すフローチャートである。図示するぼかし処理は、図7のステップS120のぼかし処理において実行される処理である。図14に示すステップS1241〜S1244の処理は、図12のステップS1231〜S1234の処理と同様である。ここでは、ステップS1245以降の処理の動作を説明する。
端末20は、ステップS1244で決定したぼかし強度が、その前に決定したぼかし強度から変更があったか否かを判定する(ステップS1245)。ステップS1245において変更がないと判定された場合(NO)、端末20は、ステップS1244で決定したぼかし強度で人物画像をぼかした画像データ(情報量削減データ)を生成する。例えば、ぼかし強度が「強」のままで変更がなかった場合、端末20は、ぼかし強度「強」で人物画像をぼかした画像データ(情報量削減データ)を生成する(ステップS1246)。
一方、ステップS1245において変更があったと判定された場合(YES)、端末20は、ステップS1244で決定したぼかし強度で人物画像をぼかした画像データ(情報量削減データ)と、変更前のぼかし強度で人物画像をぼかした画像データ(情報量削減データ)とを生成する。例えば、ぼかし強度が「強」から「弱」に変更された場合、端末20は、ぼかし強度「弱」で人物画像をぼかした画像データ(情報量削減データ)と、変更前のぼかし強度「強」で人物画像をぼかした画像データ(情報量削減データ)とを生成する(ステップS1247)。
以上説明したように、本実施形態に係る情報処理システム1は、人物画像から、属性の出現頻度に応じて決定したぼかし強度(例えば、ぼかし強度「弱」)でぼかした画像データ(情報量削減データ)を生成するとともに、さらに当該ぼかし強度よりも高いぼかし強度(例えば、ぼかし強度「強」)でぼかした画像データ(情報量削減データ)を生成する。これにより、情報処理システム1は、ぼかし強度を変更した場合に、変更の前後の照合を可能とすることができる。
なお、端末20は、ぼかし強度「弱」から「強」に変更した場合、ぼかし強度「強」でぼかした画像データ(情報量削減データ)を生成するとともに、ぼかし強度「弱」でぼかした画像データ(情報量削減データ)を生成してもよい。このように、端末20は、出現頻度の変化に応じてぼかし強度を変更した場合、変更後のぼかし強度で人物画像をぼかしたす画像データ(情報量削減データ)を生成するのに加えて、変更前のぼかし強度で人物画像をぼかした画像データ(情報量削減データ)を生成してもよい。
また、端末20は、ぼかし強度の変更の有無に関わらず、ぼかし強度が「弱」に決定された場合、ぼかし強度「弱」で人物画像をぼかした画像データ(情報量削減データ)を生成するのに加えて、変更前のぼかし強度「強」で人物画像をぼかした画像データ(情報量削減データ)を生成してもよい。また、その逆に、端末20は、ぼかし強度の変更の有無に関わらず、ぼかし強度が「強」に決定された場合、ぼかし強度「強」で人物画像をぼかした画像データ(情報量削減データ)を生成するのに加えて、変更前のぼかし強度「弱」で人物画像をぼかした画像データ(情報量削減データ)を生成してもよい。さらに、端末20は、ぼかし強度の変更の有無に関わらず、ぼかし強度「強」で人物画像をぼかした画像データ(情報量削減データ)と、ぼかし強度「弱」で人物画像をぼかした画像データ(情報量削減データ)との両方を生成してもよい。
<第5の実施形態>
次に、第5の実施形態について説明する。
図15は、本実施形態に係るぼかし強度を説明する図である。第3の実施形態で説明したように、時間の経過とともに変化する属性の出現頻度に応じてぼかし強度をアダプティブに変更する場合、出現頻度が変化した時間と、その変化に応じてぼかし強度を変更する時間とに時間差が発生する。図示する例では、時刻Tでは、服の色が緑、赤、青のそれぞれの人物U1、U2、U3の出現頻度がそれぞれ1回であり、いずれもぼかし強度が「強」であり、その後の時刻T+ΔTで、服の色が青の人物U3、U4、U5のみ出現頻度が増加しているが、ぼかし強度を変更するまでの時間差により、いずれのぼかし強度も「強」のままである。この時間差により、本来は出現頻度が増加したことにより図11に示すように服の色が青の人物画像に対するぼかし強度を「弱」に変更すべきところ、意図したぼかし強度でぼかした画像データ(情報量削減データ)の生成ができない時間が発生する。
そこで、本実施形態では、端末20は、取得した画像を一定時間保存する機能を備え、時間差によって遅れて変化したぼかし強度を、保存してある画像に遡って適用することで、出現頻度に変化があったタイミングから意図したぼかし強度でぼかした画像データ(情報量削減データ)を生成する。本実施形態に係る情報処理システム1の基本的な構成は、図4に示す構成と同様であるが、機能構成の一部が異なる。
図16は、本実施形態に係る端末制御部25A及びサーバ制御部35の機能構成の一例を示すブロック図である。なお、端末制御部25Aは、図4、5に示す端末制御部25に対応する本実施形態の機能構成である。端末制御部25Aは、画像保存部252Aをさらに備える点が、図5に示す端末制御部25の機能構成と異なる。画像保存部252Aは、画像取得部251が取得した画像を、一定時間記憶部24に保存する。なお、端末20からサーバ30への通信部分が最も画像の流出のリスクが高いため、画像の保存は端末20のみに留めておくことで、画像の流出のリスクを抑制することができ、プライバシーに配慮することができる。
情報量削減部259は、属性の出現頻度が変化することによりぼかし強度が変更された場合、保存されている画像から取得された人物画像に対して変更後のぼかし強度でぼかした画像データ(情報量削減データ)を再生成する。そして、特徴量算出部260は、再生成された画像データ(情報量削減データ)から人物特徴量を再算出してサーバ30へ送信する。これにより、出現頻度が変化した時間と、その変化に応じてぼかし強度を変更する時間との時間差の分を遡って、出現頻度が変化した時間からの画像に対して変更後のぼかし強度を適用できる。
図17は、本実施形態に係るぼかし処理を示すフローチャートである。図示するぼかし処理は、図7のステップS120のぼかし処理において実行される処理である。図17に示すステップS1251〜S1254の処理は、図12のステップS1231〜S1234の処理と同様である。ここでは、ステップS1255以降の処理の動作を説明する。
端末20は、ステップS1254で決定したぼかし強度が、その前に決定したぼかし強度から変更があったか否かを判定する(ステップS1255)。ステップS1255においてぼかし強度に変更がないと判定された場合(NO)、端末20は、ステップS1254で決定したぼかし強度で人物画像をぼかした画像データ(情報量削減データ)を生成する。例えば、ステップS1254で決定したぼかし強度が「強」のままで変更がなかった場合、端末20は、ぼかし強度「強」で人物画像をぼかした画像データ(情報量削減データ)を生成する(ステップS1259)。
一方、ステップS1255においてぼかし強度に変更があった(例えば、ステップS1254で決定したぼかし強度が「強」から「弱」に変更になった)と判定された場合(YES)、端末20は、保存してある画像(例えば、出現頻度が変化した時間からの取得画像)を取得する(ステップS1256)。そして、端末20は、取得した画像から人物画像を検出し、人物画像の領域を切り出した人物画像のデータを取得する(ステップS1257)。また、端末20は、取得した人物画像から人物の属性(例えば、服の色)を検出する。そして、端末20は、保存画像から取得した人物画像に対してぼかし強度「弱」でぼかした画像データ(情報量削減データ)を生成する(ステップS1259)。
以上説明したように、本実施形態に係る情報処理システム1は、カメラ10から取得した画像を保存する機能を有し、画像に写っている人物(被写体の一例)の属性に基づいてぼかし強度(情報量削減度の一例)を変更した場合、変更したぼかし強度に応じて、保存した画像の少なくとも一部の情報量を削減した情報量削減データを生成する。これにより、情報処理システム1は、出現頻度が変化した時間と、その変化に応じてぼかし強度を変更する時間との時間差の分を遡って、出現頻度が変化した時間からの画像に対して変更後のぼかし強度を適用できる。
<第6の実施形態>
次に、第6の実施形態について説明する。
本実施形態に係る情報処理システム1の基本的な構成は、図4に示す構成と同様であり、その説明を省略する。時間の経過とともに変化する属性の出現頻度に応じてぼかし強度をアダプティブに変更する場合、複数回撮影された人物の属性は、1回しか撮影されていない人物の属性に比べて出現頻度が高いと判定される。例えば、図18に示すように、カメラ10の撮影範囲(撮影画角)内を1回しか通り過ぎていない人物U1、U2は、出現頻度が低いと判定され、ぼかし強度が「強」となる。一方、カメラ10の撮影範囲(撮影画角)内を何回も往復した人物U3は、実際は一人の人物であって出現頻度は低いと判定されるべきところ、出現頻度が高いと判定されてしまい、ぼかし強度が「弱」となってしまうことがある。つまり、実際の属性の出現頻度と、撮影された回数から算出した属性の出現頻度とに乖離が生じ、ぼかし強度を正しく決定できないことがある。
そこで、本実施形態では、端末20において、ぼかし処理前の画像から特徴量を算出し、個人特定を目的とした高精度な照合を行うことで、複数回撮影された同一人物を特定する。図19は、本実施形態に係る情報処理システム1の概要を説明するシステム図である。この図に示す例は、端末20でぼかし処理の前に同一人物を特定するための照合を行う点が図1に示す例と異なる。端末20において、同一人物を特定し、同一人物の属性の出現頻度を重複してカウントしないで出現頻度を算出するため、実際の属性の出現頻度と、撮影された回数から算出した属性の出現頻度との乖離を抑制することが可能となる。また、個人特定が可能な特徴量は、端末20内のみに留め、サーバ30には送信されないため、プライバシーにも配慮可能である。
図20は、本実施形態に係る端末制御部25B及びサーバ制御部35の機能構成の一例を示すブロック図である。なお、端末制御部25Bは、図4、5に示す端末制御部25に対応する本実施形態の機能構成である。端末制御部25Bは、プレ特徴量算出部255B(第2特徴量算出部)と、プレ特徴量保存・照合部256B(第2照合部)とをさらに備える点が、図5に示す端末制御部25の機能構成と異なる。
プレ特徴量算出部255Bは、人物画像取得部254が取得した人物画像(即ち、ぼかし処理前の人物画像)から人物の特徴量を示す人物特徴量(情報量削減前特徴量)を算出する。この人物特徴量(情報量削減前特徴量)とは、人物画像取得部254が取得した人物画像(即ち、ぼかし処理前の人物画像)そのもの、当該人物画像から算出した輝度勾配情報、当該人物画像を入力としたディープラーニングの出力、などのことである。例えば、プレ特徴量算出部255Bは、算出した人物特徴量(情報量削減前特徴量)と、画像の撮影時刻情報と、人物画像の識別情報とを関連付けてプレ特徴量保存・照合部256Bへ出力する。
プレ特徴量保存・照合部256Bは、プレ特徴量算出部255Bから出力された人物特徴量(情報量削減前特徴量)と、画像の撮影時刻情報と、人物画像の識別情報とを関連付けて記憶部24に保存する。また、プレ特徴量保存・照合部256Bは、保存した人物特徴量(情報量削減前特徴量)同士を照合する。人物特徴量の照合方法としては、2つの人物特徴量の内積、2つの人物特徴量のユークリッド距離、2つの人物特徴量の差の絶対値などによる方法を用いることができる。プレ特徴量保存・照合部256Bは、照合結果に基づいて同一人物と判定した特徴量を算出した人物画像の識別情報に対応付けを行うことにより、同一人物の人物画像を特定する。そして、プレ特徴量保存・照合部256Bは、同一人物と特定した人物画像の識別情報を含む同一人物情報を、情報量削減度決定部258へ出力する。
情報量削減度決定部258は、プレ特徴量保存・照合部256Bから出力された同一人物情報と、属性検出部257が検出した属性(即ち、画像に写っている人物の属性)とに基づいて、属性の出現頻度を算出する。例えば、情報量削減度決定部258は、属性検出部257が検出した属性のうち同一人物の属性については複数回出現していた(複数回撮影されていた)としても出現回数は1回とカウントする。このように、情報量削減度決定部258は、同一人物の属性の出現頻度を重複してカウントしないように出現頻度を算出し、算出した出現頻度に基づいてぼかし強度を決定する。
図21は、本実施形態に係るぼかし処理を示すフローチャートである。図示するぼかし処理は、図7のステップS120のぼかし処理において実行される処理である。
端末20は、人物画像取得部254が取得した人物画像(即ち、ぼかし処理前の人物画像)から人物特徴量(情報量削減前特徴量)を算出し(ステップS1261)、算出した人物特徴量(情報量削減前特徴量)を記憶部24に保存する(ステップS1262)。端末20は、保存した人物特徴量(情報量削減前特徴量)同士を照合し(ステップS1263)、照合結果に基づいて同一人物の人物画像を特定する(ステップS1264)。
また、端末20は、カメラ10から取得した画像から検出した人物画像から人物の属性(例えば、服の色)を検出し(ステップS1265)、検出した人物の属性を記憶部24に保存する(ステップS1266)。そして、端末20は、同一人物と特定した人物画像と、検出した属性(即ち、画像に写っている人物の属性)とに基づいて、属性の出現頻度を、同一人物の属性の出現頻度を重複してカウントしないように算出する(ステップS1267)。
そして、端末20は、算出した出現頻度に基づいて、検出した人物の属性(例えば、服の色)のぼかし強度を決定し(ステップS1268)、決定したぼかし強度で人物画像をぼかした画像データ(情報量削減データ)を生成する(ステップS1269)。
以上説明したように、本実施形態に係る情報処理システム1は、情報量が削減される前の画像から人物(被写体の一例)の人物特徴量(情報量削減前特徴量)を算出し、当該人物特徴量(情報量削減前特徴量)を照合する。そして、情報処理システム1は、画像に写っている人物(被写体の一例)の属性と、情報量が削減される前の人物特徴量(情報量削減前特徴量)照合結果とに基づいて、ぼかし強度(情報量削減度の一例)を決定する。
これにより、情報処理システム1は、カメラ10の撮影範囲(撮影画角)内を同一人物が何回も往復することにより複数回撮影された場合、同一人物であることを特定して出現頻度を重複してカウントしないようにすることができるため、実際の属性の出現頻度と、撮影された回数から算出した属性の出現頻度との乖離を抑制することが可能となる。よって、画像の情報量を適切に削減することができる。
なお、プレ特徴量保存・照合部256Bは、同一人物情報を情報量削減度決定部258に代えて、または加えて属性検出部257へ出力してもよい。この場合、属性検出部257は、同一人物と特定される人物画像の属性には、同一人物である旨の情報を関連付けて送信することにより、情報量削減度決定部258で同一人物の属性の出現頻度を重複してカウントされないようにしてもよい。
<変形例>
上記実施形態では、情報量削減度決定部258は、予め設定されたぼかし強度(「強」、「弱」など)の中から選択して決定する例を説明したが、ぼかし強度を算出することにより決定してもよい。例えば、情報量削減度決定部258は、出現頻度に基づいてぼかし強度の値を算出するための計算式などを用いて、ぼかし強度を算出することにより決定してもよい。
上記実施形態では、被写体が人物の場合の例として、同一人物を検出する例を説明したが、被写体は、人物以外であってもよい。例えば、被写体は、人物に代えて、車や動物など各種の物体であってもよい。例えば、被写体は、移動可能な移動体であり、撮影された画像内で着目する物体(ターゲットオブジェクト)である。車などの各種の物体の検出は、車両検出器、文字検出器、一般物体検出器、インスタンスセグメンテーション、セマンティックセグメンテーションなどの結果を使って行うことができる。これらは、テンプレートマッチング、画像の輝度勾配情報の統計量、ディープラーニングなどを用いて実現できる。例えば、被写体が車の場合、属性は、車種や車の色である。車種については、車両認識を使って推定できる。車の色は、画像の色情報(色度など)を用いて推定できる。車両認識は、テンプレートマッチング、画像の輝度勾配情報の統計量、ディープラーニングなどを用いて実現できる。また、被写体が車の場合にも、車の色、車種、ナンバープレートなど、部位ごとに属性に基づいて情報量削減度を決定し、情報量を削減してもよい。これにより、被写体が人物以外であっても同様に、プライバシーに配慮しつつ、単一の情報量削減度を用いる場合よりも高精度な照合が可能となる。
なお、画像取得部251が取得する画像は、カラー画像に限らず、グレー画像であってもよい。グレー画像であっても、服の種類(スーツ、ズボンorハーフパンツorスカートなど)、髪型(長髪or短髪など)、帽子の有無、メガネの有無などの判別は可能である。また、色についても、グレー画像の濃度から判別してもよい。また、画像取得部251は、距離センサから距離画像を取得してもよい。
なお、上述した端末20及びサーバ30は、内部にコンピュータシステムを有している。そして、上述した端末20及びサーバ30が備える各構成の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより上述した端末20及びサーバ30が備える各構成における処理を行ってもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、インターネットやWAN、LAN、専用回線等の通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。このように、プログラムを記憶した記録媒体は、CD−ROM等の非一過性の記録媒体であってもよい。
また、記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部又は外部に設けられた記録媒体も含まれる。なお、プログラムを複数に分割し、それぞれ異なるタイミングでダウンロードした後に端末20及びサーバ30が備える各構成で合体される構成や、分割されたプログラムのそれぞれを配信する配信サーバが異なっていてもよい。さらに「コンピュータ読み取り可能な記録媒体」とは、ネットワークを介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、上述した機能の一部を実現するためのものであってもよい。さらに、上述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
また、上述した実施形態における端末20及びサーバ30が備える各機能の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。各機能は個別にプロセッサ化してもよいし、一部、又は全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。
また、上記実施形態では、情報処理システム1は、端末20とサーバ30とを備えたサーバクライアント型のシステムを例に説明したが、一体となった一つの情報処理装置として構成されてもよい。その場合、特徴量を照合する構成を備えてもよいし、備えなくてもよい。つまり、カメラ10で撮影された画像に対して出現頻度に応じたぼかし強度(情報量削減度の一例)情報量を削減するまでの構成としてもよいし、その後、特徴量を算出して同一人物の照合を行う構成としてもよい。また、カメラ10も複数台に限られるものではなく、1台であってもよい。具体的には、店舗やビルなどの施設、商店街などの街中、駅構内、駐車場などに設置される1台または複数台のカメラを用いて通行人や来場者などを単に監視及び記録するための監視装置に適用してもよい。
以上説明した少なくともひとつの実施形態によれば、実空間を撮影した画像を取得する画像取得部(251)と、前記画像に写っている被写体の属性に基づいて情報量削減度を決定する情報量削減度決定部(258)と、前記情報量削減度決定部により決定された情報量削減度に応じて前記画像の少なくとも一部の情報量を削減した情報量削減データを生成する情報量削減部(259)と、を持つことにより、画像の情報量を適切に削減することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1…情報処理システム、20…端末、21…通信部、22…入力部、23…表示部、24…記憶部、25…端末制御部、251…画像取得部、252A…画像保存部、253…人物検出部、254…人物画像取得部、255B…プレ特徴量算出部、256B…プレ特徴量保存・照合部、257…属性検出部、258…情報量削減度決定部、259…情報量削減部、260…特徴量算出部、30…サーバ、31…通信部、32…入力部、33…表示部、34…記憶部、35…サーバ制御部、351…特徴量保存部、352…特徴量照合部、353…表示制御部

Claims (14)

  1. 実空間を撮影した画像を取得する画像取得部と、
    前記画像に写っている被写体の属性に基づいて情報量削減度を決定する情報量削減度決定部と、
    前記情報量削減度決定部により決定された情報量削減度に応じて前記画像の少なくとも一部の情報量を削減した情報量削減データを生成する情報量削減部と、
    を備える情報処理装置。
  2. 前記情報量削減データから前記被写体の特徴量を示す情報量削減特徴量を算出する第1特徴量算出部と、
    前記情報量削減特徴量を照合する第1照合部と、
    を備える請求項1に記載の情報処理装置。
  3. 前記情報量削減特徴量を、通信ネットワークを介してサーバへ送信する送信部、
    を備える請求項2に記載の情報処理装置。
  4. 前記情報量削減度決定部は、前記被写体の属性の出現度に基づいて情報量削減度を決定する、
    請求項1から請求項3のいずれか1項に記載の情報処理装置。
  5. 前記情報量削減度決定部は、前記画像のうち1つ以上の部分画像ごとの属性に基づいて情報量削減度を決定し、
    前記情報量削減部は、前記部分画像ごとの情報量削減度に応じて前記部分画像の情報量を削減した前記情報量削減データを生成する、
    請求項1から請求項4のいずれか1項に記載の情報処理装置。
  6. 前記情報量削減部は、前記画像から、前記情報量削減度に応じた前記情報量削減データを生成するとともに、さらに前記情報量削減度よりも高い情報量削減度に応じた前記情報量削減データを生成する、
    請求項1から請求項5のいずれか1項に記載の情報処理装置。
  7. 前記画像取得部は、前記画像を保存する機能を有し、
    前記情報量削減部は、
    前記情報量削減度決定部が、前記画像に写っている被写体の属性に基づいて情報量削減度を変更した場合、前記情報量削減度決定部により変更された情報量削減度に応じて、前記保存された画像の少なくとも一部の情報量を削減した前記情報量削減データを生成する、
    請求項1から請求項6のいずれか1項に記載の情報処理装置。
  8. 前記情報量削減部により情報量が削減される前の前記画像から前記被写体の特徴量を示す情報量削減前特徴量を算出する第2特徴量算出部と、
    前記情報量削減前特徴量を照合する第2照合部と、をさらに備え、
    前記情報量削減度決定部は、前記画像に写っている被写体の属性と、前記情報量削減前特徴量の照合結果とに基づいて、前記情報量削減度を決定する、
    請求項1から請求項7のいずれか1項に記載の情報処理装置。
  9. 前記情報量削減度とは、前記画像をぼかすことにより情報量を削減する際のぼかし強度であり、
    前記情報量削減データとは、前記画像の少なくとも一部に対して前記ぼかし強度でぼかし処理を行なった画像データである、
    請求項1から請求項8のいずれか1項に記載の情報処理装置。
  10. 前記画像取得部と、前記情報量削減度決定部と、前記情報量削減部と、前記第1特徴量算出部と、を備えた端末と、
    前記第1照合部を備えたサーバと、を備え、
    前記端末は、前記情報量削減データから算出した前記情報量削減特徴量を前記サーバに送信し、
    前記サーバは、前記情報量削減特徴量を端末から受信する、
    請求項2に記載の情報処理装置。
  11. 前記端末は、
    前記画像から前記被写体の特徴量を示す情報量削減前特徴量を算出する第2特徴量算出部と、
    前記情報量削減前特徴量を照合する第2照合部と、
    をさらに備える請求項10に記載の情報処理装置。
  12. 端末とサーバとを備える情報処理システムであって、
    前記端末は、
    実空間を撮影した画像を取得する画像取得部と、
    前記画像に写っている被写体の属性に基づいて情報量削減度を決定する情報量削減度決定部と、
    前記情報量削減度決定部により決定された情報量削減度に応じて前記画像の少なくとも一部の情報量を削減した情報量削減データを生成する情報量削減部と、
    前記情報量削減データから前記被写体の特徴量を示す情報量削減特徴量を算出する特徴量算出部と、
    前記情報量削減特徴量を、通信ネットワークを介して前記サーバへ送信する送信部と、
    を備え、
    前記サーバは、
    前記サーバから送信された前記情報量削減特徴量を受信する受信部と、
    前記受信部が受信した前記情報量削減特徴量を照合する照合部と、
    を備える情報処理システム。
  13. 情報処理装置が、
    実空間を撮影した画像を取得し、
    前記画像に写っている被写体の属性に基づいて情報量削減度を決定し、
    前記決定した情報量削減度に応じて前記画像の少なくとも一部の情報量を削減した情報量削減データを生成する、
    情報処理方法。
  14. コンピュータに、
    画像取得部が、実空間を撮影した画像を取得させ、
    前記画像に写っている被写体の属性に基づいて情報量削減度を決定させ、
    前記決定させた情報量削減度に応じて前記画像の少なくとも一部の情報量を削減した情報量削減データを生成させる処理、
    を実行するためのプログラム。
JP2019053363A 2019-03-20 2019-03-20 情報処理装置、情報処理システム、情報処理方法、及びプログラム Active JP7183089B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019053363A JP7183089B2 (ja) 2019-03-20 2019-03-20 情報処理装置、情報処理システム、情報処理方法、及びプログラム
US16/812,443 US11620728B2 (en) 2019-03-20 2020-03-09 Information processing device, information processing system, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019053363A JP7183089B2 (ja) 2019-03-20 2019-03-20 情報処理装置、情報処理システム、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2020154808A true JP2020154808A (ja) 2020-09-24
JP7183089B2 JP7183089B2 (ja) 2022-12-05

Family

ID=72513933

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019053363A Active JP7183089B2 (ja) 2019-03-20 2019-03-20 情報処理装置、情報処理システム、情報処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US11620728B2 (ja)
JP (1) JP7183089B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7199623B1 (ja) * 2022-06-15 2023-01-05 三菱電機株式会社 情報処理装置
WO2023119643A1 (ja) 2021-12-24 2023-06-29 日本電気株式会社 認証システム、認証方法、及び記録媒体

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116052220B (zh) * 2023-02-07 2023-11-24 北京多维视通技术有限公司 行人重识别方法、装置、设备及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006287287A (ja) * 2005-03-31 2006-10-19 Hitachi Ltd 画像処理装置およびそのシステム及びそれらのプログラムの記録媒体
JP2006338092A (ja) * 2005-05-31 2006-12-14 Nec Corp パタン照合方法、パタン照合システム及びパタン照合プログラム
JP2007213181A (ja) * 2006-02-08 2007-08-23 Advanced Telecommunication Research Institute International プライバシー保護画像生成装置
JP2017158080A (ja) * 2016-03-03 2017-09-07 沖電気工業株式会社 情報処理装置、情報処理方法、プログラム、及び情報処理システム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9947077B2 (en) * 2013-12-31 2018-04-17 Thomson Licensing Video object tracking in traffic monitoring
JP6273185B2 (ja) 2014-09-30 2018-01-31 日本電信電話株式会社 監視情報共有システム、監視装置及びプログラム
US10185877B2 (en) * 2016-07-08 2019-01-22 Huawei Technologies Co., Ltd. Systems, processes and devices for occlusion detection for video-based object tracking
US11023707B2 (en) * 2017-10-27 2021-06-01 Avigilon Corporation System and method for selecting a part of a video image for a face detection operation
US20190130191A1 (en) * 2017-10-30 2019-05-02 Qualcomm Incorporated Bounding box smoothing for object tracking in a video analytics system
US10699126B2 (en) * 2018-01-09 2020-06-30 Qualcomm Incorporated Adaptive object detection and recognition
CN111133447B (zh) * 2018-02-18 2024-03-19 辉达公司 适于自主驾驶的对象检测和检测置信度的方法和系统
US11048930B2 (en) * 2018-11-09 2021-06-29 Avigilon Corporation Alias capture to support searching for an object-of-interest

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006287287A (ja) * 2005-03-31 2006-10-19 Hitachi Ltd 画像処理装置およびそのシステム及びそれらのプログラムの記録媒体
JP2006338092A (ja) * 2005-05-31 2006-12-14 Nec Corp パタン照合方法、パタン照合システム及びパタン照合プログラム
JP2007213181A (ja) * 2006-02-08 2007-08-23 Advanced Telecommunication Research Institute International プライバシー保護画像生成装置
JP2017158080A (ja) * 2016-03-03 2017-09-07 沖電気工業株式会社 情報処理装置、情報処理方法、プログラム、及び情報処理システム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
スリヨン タンスリヤボン、他2名: "状況映像における顔認識を用いた選択的人物隠蔽", 映像情報メディア学会誌, vol. 第56巻 第12号, JPN6022006774, 1 December 2002 (2002-12-01), JP, pages 1980 - 1988, ISSN: 0004710703 *
馬場口 登: "安心な映像サーベイランスのためのプライバシー保護処理", 情報処理学会研究報告, vol. 第2007巻 第1号, JPN6022006775, 12 January 2007 (2007-01-12), JP, pages 85 - 92, ISSN: 0004710702 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023119643A1 (ja) 2021-12-24 2023-06-29 日本電気株式会社 認証システム、認証方法、及び記録媒体
JP7199623B1 (ja) * 2022-06-15 2023-01-05 三菱電機株式会社 情報処理装置
WO2023242990A1 (ja) * 2022-06-15 2023-12-21 三菱電機株式会社 情報処理装置

Also Published As

Publication number Publication date
US11620728B2 (en) 2023-04-04
US20200302572A1 (en) 2020-09-24
JP7183089B2 (ja) 2022-12-05

Similar Documents

Publication Publication Date Title
KR102596897B1 (ko) 모션벡터 및 특징벡터 기반 위조 얼굴 검출 방법 및 장치
US8705813B2 (en) Identification device, identification method, and storage medium
JP6544244B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2019532532A (ja) プライバシーの保護を伴う人物の識別しおよび/または痛み、疲労、気分、および意図の識別および定量化のためのシステムおよび方法
US20190347486A1 (en) Method and apparatus for detecting a garbage dumping action in real time on video surveillance system
JP7183089B2 (ja) 情報処理装置、情報処理システム、情報処理方法、及びプログラム
CN110073363B (zh) 追踪对象的头部
CN109299658B (zh) 脸部检测方法、脸部图像渲染方法、装置及存储介质
JPWO2014125882A1 (ja) 情報処理システム、情報処理方法及びプログラム
JP6351243B2 (ja) 画像処理装置、画像処理方法
JP7151875B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP6969878B2 (ja) 識別器学習装置および識別器学習方法
JPWO2020195376A1 (ja) 監視装置、不審オブジェクト検出方法、およびプログラム
CN114698399A (zh) 人脸识别方法、装置及可读存储介质
US20160239682A1 (en) Method and system of enforcing privacy policies for mobile sensory devices
JP2018186397A (ja) 情報処理装置、映像監視システム、情報処理方法及びプログラム
CN111382606A (zh) 摔倒检测方法、摔倒检测装置和电子设备
US20150286865A1 (en) Coordination of object location data with video data
US20120321197A1 (en) Image processing apparatus, content delivery system, image processing method, and program
Perko et al. Airborne based high performance crowd monitoring for security applications
CN113989914B (zh) 一种基于人脸识别的安防监控方法及系统
CN113947795A (zh) 口罩佩戴检测方法、装置、设备及存储介质
JP5051885B2 (ja) 人物検索装置及び人物検索方法
CN115082964A (zh) 行人检测方法、装置、电子设备及存储介质
JPWO2018128138A1 (ja) 画像処理装置、映像監視システム、画像処理方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220222

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220422

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221122

R150 Certificate of patent or registration of utility model

Ref document number: 7183089

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150