JP2021149747A - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP2021149747A
JP2021149747A JP2020050713A JP2020050713A JP2021149747A JP 2021149747 A JP2021149747 A JP 2021149747A JP 2020050713 A JP2020050713 A JP 2020050713A JP 2020050713 A JP2020050713 A JP 2020050713A JP 2021149747 A JP2021149747 A JP 2021149747A
Authority
JP
Japan
Prior art keywords
image
human body
information processing
region
mask
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020050713A
Other languages
English (en)
Other versions
JP7483433B2 (ja
Inventor
真仁 沼田
Masahito Numata
真仁 沼田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020050713A priority Critical patent/JP7483433B2/ja
Publication of JP2021149747A publication Critical patent/JP2021149747A/ja
Application granted granted Critical
Publication of JP7483433B2 publication Critical patent/JP7483433B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】プライバシー保護を目的として、画像において遮蔽の必要がある領域の確認を不能または困難にすることと、画像から確認が必要である領域を確認し易くすることとの双方を実現する情報処理装置、情報処理方法およびプログラムを提供する。【解決手段】システムにおいて、情報処理装置は、撮像手段により撮像された撮像画像から、当該撮像画像に含まれる確認対象物の複数の部分領域を抽出する抽出手段と、抽出手段により抽出された複数の部分領域ごとに抽象化の度合いを決定する決定手段と、確認対象物の画像であって、決定手段により決定された抽象化の度合いに従って部分領域が抽象化された画像を生成する生成手段と、を有する。【選択図】図3

Description

本発明は、情報処理装置、情報処理方法、およびプログラムに関する。
監視を目的とした撮像装置により撮像された撮像画像に映る人物のプライバシーを保護する重要性が高まっている。一方で、プライバシーを保護すると共に、撮像画像に含まれる人物の行動に対して詳細な確認が必要な場合もある。特許文献1には、撮像画像に対して人物(頭部等)の特徴に基づいて人物が写っていると判定される領域(人体枠)を推定し、推定した領域かつ前景領域を前景領域中の人物が写っている領域とする。特許文献1では、前景物体の中でも影や人体が保持する物体を除いて、人体の領域に限定して遮蔽化する。
特開2019−92076号公報
しかしながら、特許文献1では、頭部などの特徴の検出結果に基づいて人体枠を推定する。このため、特許文献1では、頭部などの特徴の検出対象ではない領域の遮蔽化を高精度に実行することが容易ではない。特許文献1では、人物の指の形状を識別して、指と持ち物とを区別して遮蔽化する場合や、足と足元にある物とを区別して遮蔽化する場合に遮蔽化を高精度に実行することは容易ではない。すなわち、特許文献1では、プライバシーの保護はなされるものの、撮像画像に含まれる人物の行動を、詳細に確認することは容易ではない。
本発明は、以上の問題点に鑑みてなされたものであり、画像において遮蔽の必要がある領域の確認を不能または困難にすることと、画像から確認が必要である領域を確認し易くすることとの双方を実現することを目的とする。
本発明の情報処理装置は、撮像手段により撮像された撮像画像から、当該撮像画像に含まれる確認対象物の複数の部分領域を抽出する抽出手段と、前記抽出手段により抽出された前記複数の部分領域ごとに抽象化の度合いを決定する決定手段と、前記確認対象物の画像であって、前記決定手段により決定された抽象化の度合いに従って前記部分領域が抽象化された画像を生成する生成手段と、を有することを特徴とする。
本発明によれば、画像において遮蔽の必要がある領域の確認を不能または困難にすることと、画像から確認が必要である領域を確認し易くすることとの双方を実現することができる。
システムの構成を示す図である。 情報処理装置のハードウェア構成を示す図である。 情報処理装置の機能ブロックを示す図である。 人物の骨格座標を示す図である。 人体部位領域毎のプライバシー保護ランクを示す図である。 マスク出力設定の第1の例を説明する図である。 出力画像の第1の例を示す図である。 出力画像を生成する際の処理の第1の例を示すフローチャートである。 図8AのS804の詳細な処理を示すフローチャートである。 マスク出力設定の第2の例を説明する図である。 出力画像の第2の例を示す図である。 出力画像を生成する際の処理の第2の例を示すフローチャートである。 図11AのS1103の詳細な処理を示すフローチャートである。
以下、図面を参照しながら、本発明の一実施形態を説明する。なお、以下の実施形態において示す構成は一例に過ぎず、図示された構成に限定されるものではない。
(第1の実施形態)
まず、第1の実施形態を説明する。図1は、本実施形態におけるシステムの構成の一例を示す図である。本実施形態では、システムが、人物を監視する監視システムである場合を例示する。本実施形態におけるシステムは、情報処理装置100、撮像装置110、記録装置120、およびディスプレイ130を有する。
情報処理装置100、撮像装置110、および記録装置120は、ネットワーク140を介して相互に接続されている。ネットワーク140は、例えばETHERNET(登録商標)等の通信規格に準拠する、複数のルータ、スイッチ、およびケーブル等から実現される。なお、ネットワーク140は、インターネットや有線LAN(Local Area Network)、無線LAN(Wireless Lan)、またはWAN(Wide Area Network)等により実現されてもよい。
情報処理装置100は、例えば、後述する情報処理の機能を実現するためのプログラムがインストールされたパーソナルコンピュータ等によって実現される。
撮像装置110は、画像を撮像する装置である。撮像装置110は、撮像画像の画像データと、撮像画像の撮像時刻の情報と、撮像装置110を識別する情報である識別情報とを相互に関連付けて、ネットワーク140を介し、情報処理装置100や記録装置120等の外部装置へ送信する。システムが人物の動作を監視する場合、撮像画像は動画像であるのが好ましいが、静止画像であってもよい。なお、本実施形態では、システムに含まれる撮像装置110が1つである場合を例示する。しかしながら、複数の撮像装置110がシステムに含まれていてもよい。
記録装置120は、撮像装置110により撮像された撮像画像の画像データと、当該撮像画像の撮像時刻の情報と、当該撮像装置110を識別する識別情報とを相互に関連付けて記録する。記録装置120は、情報処理装置100からの要求に従って、記録したデータ(画像データ、識別情報など)を情報処理装置100へ送信する。
ディスプレイ130は、表示手段として機能し、LCD(Liquid Crystal Display)等により構成される。ディスプレイ130は、情報処理装置100の情報処理の結果や、撮像装置110が撮像した画像などを表示する。ディスプレイ130は、例えば、HDMI(登録商標)(High Definition Multimedia Interface)等の通信規格に準拠したディスプレイケーブルを介して情報処理装置100と相互に接続されている。
なお、ディスプレイ130、情報処理装置100、および記録装置120の少なくとも何れか2つまたは全ては、単一の筐体に設けられてもよい。また、情報処理装置100および撮像装置110は単一の筐体に設けられていてもよい。すなわち、撮像装置110が後述する情報処理装置100の機能および構成を有していてもよい。
なお、情報処理装置100の情報処理の結果や、撮像装置110により撮像された画像が表示される表示装置は、情報処理装置100にディスプレイケーブルを介して接続されたディスプレイ130に限定されない。情報処理装置100の情報処理の結果や、撮像装置110により撮像された画像は、ネットワーク140を介して接続された外部装置が有するディスプレイに表示されていてもよい。外部装置としては、例えば、スマートフォンや、タブレット端末などのモバイルデバイスが挙げられる。
次に、図2を参照して、各実施形態の各機能を実現するための情報処理装置100のハードウェア構成の一例を説明する。なお、ここでは、情報処理装置100のハードウェア構成について説明するが、記録装置120および撮像装置110も同様のハードウェア構成によって実現されるものとする。ただし、撮像装置110には、図2に示すハードウェア構成に加えて、画像を撮像し、撮像した画像のデジタル信号を生成するための構成(例えば、撮像ユニット(レンズ、撮像素子、絞りなど)および信号処理回路)が含まれる。
本実施形態における情報処理装置100は、CPU200と、RAM210と、ROM220と、HDD230と、I/F240と、バス250と、を有する。CPU200は、情報処理装置100を統括制御する中央処理装置である。CPU200の代わりにMPUが用いられてもよい。CPUは、Central Proccessing Unitの頭字語であり、MPUは、 Micro Proccessing Unitの頭字語である。RAM210は、CPU200が実行するコンピュータプログラムを一時的に記憶する。また、RAM210は、CPU200が処理を実行する際に用いるワークエリアを提供する。また、RAM210は、例えば、フレームメモリとして機能したり、バッファメモリとして機能したりする。RAMは、Random Access Memoryの頭字語である。
ROM220は、CPU200が情報処理装置100を制御するためのプログラムなどを記憶する。ROMは、Read Only Memoryの頭字語である。HDD230は、画像データ等を記録する記憶装置である。HDDは、Hard Disk Driveの頭字語である。I/F240は、ネットワーク140を介して、TCP/IPやHTTPなどに従って、外部装置との通信を行う。I/Fは、Interfaceの略である。CPU200、RAM210、ROM220、HDD230、およびI/F240は、バス250を介して相互に接続される。
なお、本実施形態では、CPU200が情報処理装置100における情報処理を実行する場合を例示するが、CPU200の処理のうち少なくとも一部を専用のハードウェアによって行うようにしてもよい。例えば、ディスプレイ130にGUIや画像データを表示する処理は、GPUで実行してもよい。GUIは、Graphical User Interfaceの頭字語であり、GPUは、Graphics Processing Unitの頭字語である。また、ROM220からプログラムコードを読み出してRAM210に展開する処理は、転送装置として機能するDMAによって実行してもよい。DMAは、Direct Memory Accessの頭字語である。
次に、図3を参照して、本実施形態に係る情報処理装置100の情報処理の一例について説明する。図3は、本実施形態に係る情報処理装置100の機能ブロックの一例を示す図である。なお、図3に示す各機能は、例えば、ROM220とCPU200とを用いて、情報処理装置100のROM220に格納されたコンピュータプログラムを情報処理装置100のCPU200が実行することにより実現されるものとする。
通信部300は、例えば、I/F240によって実現でき、ネットワーク140を介して、撮像装置110や記録装置120と通信を行う。通信部300は、例えば、撮像装置110で撮像された撮像画像の画像データを受信したり、撮像装置110を制御するための制御コマンドを撮像装置110へ送信したりする。なお、制御コマンドは、例えば、撮像装置110に対して画像を撮像するよう指示を行うコマンドなどを含む。
記憶部301は、例えば、RAM210やHDD230等によって実現でき、情報処理装置100による情報処理に関わる情報やデータを記憶する。記憶部301は、例えば、後述する検出部304により検出された骨格座標や、設定部303で設定されたマスク出力設定を記憶する。
操作受付部302は、キーボードやマウス等の入力装置(不図示)を介して、ユーザーが行った操作入力を受け付ける。設定部303は、マスク出力設定を実行する。マスク出力設定は、人体部位領域毎のマスク画像の出力方法の設定である。人体部位領域およびマスク出力設定の詳細については後述する。操作受付部302は、例えば、マスク出力設定のために必要なユーザーの操作入力を受け付ける。
検出部304は、撮像装置110により撮像された撮像画像に含まれる人物の人体部位を検出する。例えば、検出部304は、深層学習により学習された骨格推論モデルを使って、撮像画像に含まれる人物の骨格座標を人物の人体部位として推論する。骨格推論モデルは、撮像画像を入力して人物の骨格座標を出力する。図4は、人物の骨格座標の一例を人物のシルエットに重ねて可視化して示す図である。本実施形態では、頭部、首、肩、肘、手首、腰、膝、足首の14箇所の座標401〜414が人物の骨格座標として検出される場合を例示する。なお、本実施形態では、検出部304が、深層学習による人物の骨格座標の推論の結果に基づいて、人物の人体部位を検出する場合を例示する。しかしながら、人体部位を検出する方法は、これに限定されない。例えば、検出部304は、人物を検出し、検出した人物に対するパターンマッチングを実行することにより、人物の人体部位を検出してもよい。
抽出部305は、撮像装置110により撮像された撮像画像に含まれる人物の人体部位の領域を抽出する。以下の説明ではこの領域を必要に応じて人体部位領域と称する。例えば、抽出部305は、撮像装置110により撮像された撮像画像と、人物が含まれない画像として記憶されている背景画像とを比較することにより当該撮像画像に含まれる前景領域を抽出する。前景領域を抽出する方法の一例を説明する。まず、抽出部305は、背景画像の各画素と撮像画像の各画素との差分値を算出する。そして、抽出部305は、算出した差分値が閾値以上の画素を前景領域として抽出する。なお、前景領域の抽出には、公知の技術を用いてよい。また、背景画像は、例えば、特許文献1に記載されているようにして得られる。
次に、抽出部305は、検出部304で検出された骨格座標の各々と、前景領域とを比較して、人物の人体部位領域を抽出する。例えば、抽出部305は、肩の座標403、404と、肘の座標405、406との間の前景領域を、人体部位領域の一つである上腕の領域として抽出する。また、抽出部305は、肘の座標405、406と手首の座標407、408との間の前景領域を、人体部位領域の一つである前腕の領域として抽出する。抽出部305は、検出部304で検出された骨格座標の全てに対して、このような処理を繰り返し実行することにより人体部位領域を抽出する。例えば、抽出部305は、撮像画像に含まれる人物の顔、胴体、上腕、前腕、手、大腿、下腿、足の人体部位領域をそれぞれ抽出する。本実施形態では、例えば、人体部位領域が、撮像画像に含まれる確認対象物の複数の部分領域の一例である。
なお、抽出部305は、骨格座標が検出できなかった人体部位については、人体部位領域を抽出しないのが好ましい。例えば、肘の座標405、406は検出できても手首の座標が検出できなかった場合、抽出部305は、前腕の領域と腕の領域とを抽出しないのが好ましい。
また、本実施形態では、抽出部305が、前景領域と骨格座標とを使用して人体部位領域を抽出する場合を例示する。しかしながら、人体部位領域を抽出する方法は、これに限定されない。例えば、抽出部305は、検出部304で検出された骨格座標から、前景領域を使用せずに人体部位領域を抽出してもよい。また、本実施形態では、抽出部305は、人体の領域が、顔、胴体、上腕、前腕、手、大腿、下腿、および足の8つの領域に分類されるものとして人体部位領域を抽出する場合を例示する。しかしながら、人体の領域を分類する数は、これら8つの領域に限定されない。後述するように本実施形態では、人体部位領域の単位で遮蔽度が制御される。従って、例えば、同一の人体部位領域に、遮蔽すべき領域と監視したい領域とが混在しないように、どの領域を人体部位領域にするのかを設定するのが好ましい。また、人体部位領域の設定に応じて、どの部位を人物の人体部位(骨格座標)とするのかを設定するのが好ましい。
生成部306は、抽出部305により抽出された人体部位領域に対応するマスク画像を生成する。例えば、生成部306は、人体部位領域毎に定められたプライバシー保護ランクと、マスク出力設定とを参照し、人体部位領域毎に遮蔽度の異なるマスク画像を生成する。なお、生成部306によりマスク画像を生成する処理の一例の詳細は後述する。
合成部307は、生成部306により生成されたマスク画像と、当該マスク画像の領域以外の領域を表示する画像とを合成した出力画像を生成する。出力画像は、表示手段(ディスプレイ130等)に表示される。例えば、合成部307は、生成部306により生成されたマスク画像と、前景領域の抽出に用いられた背景画像とを合成した出力画像を生成する。また、マスク画像に合成される画像は、これに限定されずない。例えば、合成部307は、生成部306により生成されたマスク画像と、現在の処理対象の撮像画像とを合成した出力画像を生成してもよい。また、合成部307は、生成部306により生成されたマスク画像と、前景領域の抽出に用いられた背景画像とは異なる他の背景画像とを合成した出力画像を生成してもよい。
出力制御部308は、合成部307により生成された出力画像を外部装置(記録装置120、ディスプレイ130等)へ出力する。例えば、出力制御部308は、合成部307により生成された出力画像をディスプレイ130に表示させる。
図5は、人体部位領域毎のプライバシー保護ランクの一例を示す図である。図5において、テーブル500には、人体部位領域とプライバシー保護ランクとが相互に関連付けられて登録されている。図5では、プライバシーの保護ランクを5つに分類する場合を例示する。また、図5では、プライバシー保護ランクが高い(プライバシー保護ランクの値が大きい)ほど、プライバシーの保護の重要度が高い場合を例示する。図5では、プライバシー保護ランクの高い人体部位領域から順に、顔、胴体、上腕および大腿、前腕および下腿、手および足を示す。なお、プライバシー保護ランクの分類数は、5つに限定されない。さらに、プライバシー保護ランクに対応する人体部位領域の定義は、ユーザーにより設定されるようにしてもよい。
図6は、設定部303で実行されるマスク出力設定の一例を説明する図である。図6(a)は、マスク出力設定が実行される際に表示される画面の一例を示す図である。設定部303は、ランク指定部601と設定確認部602とを表示させる。ランク指定部601と設定確認部602は、例えば、同一の画面に表示される。図6(a)において、ランク指定部601は、どの人体部位領域をどのような遮蔽度のマスク画像で出力するのかをユーザーが指定するためのGUIである。なお、図6(a)では、ランク指定部601に対してランク3が指定されている状態を例示する。この状態は、図5に示すプライバシー保護ランクにおいて、ランク1とランク2の人体部位領域を相対的に遮蔽度の低いマスク画像で出力し、ランク3とランク4とランク5の人体部位領域を相対的に遮蔽度の高いマスク画像で出力することを意味する。
ユーザーは利用場面に応じて、プライバシーとして保護すべき人体部位領域を指定することができる。例えば、利用場面が店舗であれば、顔だけがマスク画像で出力されれば、プライバシーの保護として十分な場合がある。このような場合、ユーザーは、図6(a)に示すランク指定部601においてランク5を指定すればよい。一方、介護施設などの居住を伴う施設の居住者を監視する場合には、居住者の着替えなどもあるため、顔だけでなく胴体もマスク画像で出力する必要がある場合がある。このような場合、ユーザーは、図6(a)に示すランク指定部601においてランク3を指定すればよい。また、全ての人体部位領域をマスク画像で出力しない場合(すなわち、撮像画像をそのまま出力する場合)、ユーザーは、図6(a)に示すランク指定部601においてマスク出力しないを指定する。図6(a)に示す例では、ランク指定部601では、以上のようなユーザーによる指定に基づいて、相対的に遮蔽度の低いマスク画像で出力する人体部位領域と、相対的に遮蔽度の高いマスク画像で出力する人体部位領域とが設定される。本実施形態では、操作受付部302は、ランク指定部601に対するユーザーの操作入力を受け付ける。
図6(a)において、設定確認部602には、ランク指定部601に対するユーザーの指定に基づいて、どのようなマスク画像が出力されるのかが可視化して表示される。ランク指定部601と設定確認部602は、例えば、同一の画面に表示される。図6(b)では、相対的に遮蔽度の低いマスク画像で出力する人体部位領域(前腕、下腿、手、足)を相対的に薄い濃度で表示し、相対的に遮蔽度の高いマスク画像で出力する人体部位領域(顔、胴体、上腕、大腿)を相対的に濃い濃度で表示する場合を例示する。図6(b)は、図6(a)に示すランク指定部601に対するユーザーの指定に基づくマスク出力設定により記憶部301に記憶されるテーブル610の一例を示す。本実施形態では、設定部303が、ランク指定部601に対してユーザーにより指定されたランクをテーブル610に記憶することにより、マスク出力設定が実行される。本実施形態では、マスク出力設定により、どの人体部位領域をどのような遮蔽度のマスク画像で出力するのかが決定される。
図7は、出力制御部308により出力される出力画像の例を示す図である。図7(a)に示す出力画像700aは、公知の技術を用いて出力される出力画像の例である。出力画像700aは、例えば、以下のようにして得られる。まず、撮像画像と背景画像とを比較することで、撮像画像に含まれる人物を前景物体の領域(前景領域)として抽出する。このようにして抽出された前景領域を遮蔽度の高い色で塗りつぶして生成したマスク画像と、背景画像とを合成することで出力画像700aが得られる。
図7(a)に示すように、人物全体が遮蔽度の高いマスク画像で出力されると、プライバシーの保護はなされるものの、人物の行動の詳細を確認することができない。例えば、介護施設のような場所では、入居者の安全を管理するためには、入居者が手すりを持てているのかということや、入居者が手すりを持とうとして持てていないのかということ等を確認することは、入居者の転倒を予防するためには重要である。また、入居者が履物を正しく履けているのかどうかを確認することも、入居者の転倒を予防するためには重要である。人物全体が遮蔽度の高いマスク画像で出力されると、このような人体部位の細部を映像で確認することは難しい。さらに、撮像画像の中で、手と手や、足と足に重なりがあると、遮蔽度の高いマスク画像では境界が区別できない。このため、人体部位の確認はさらに難しくなる。
一方、本実施形態に係る生成部306は、人体部位領域毎に定められたプライバシー保護ランク(例えばテーブル500)と、マスク出力設定(例えばテーブル610)とを参照して、人体部位領域毎に遮蔽度を決定する。そして、生成部306は、人体部位領域のそれぞれが、決定した遮蔽度に従って抽象化されて表示されるマスク画像を生成する。そして、合成部307は、マスク画像と、背景画像とを合成した出力画像を生成する。図7(b)から図7(e)は、このようにして生成された出力画像の一例である。図6を参照しながら説明したマスク出力設定の例では、顔、胴体、上腕、大腿の人体部位領域のプライバシー保護ランク(=3、4、5)は、マスク出力設定のランク(=3)以上である。このため、生成部306は、顔、胴体、上腕、大腿の人体部位領域に対して、相対的に遮蔽度の高いマスク画像を生成する。一方、生成部306は、前腕、手、下腿、足の人体部位領域に対して、相対的に遮蔽度の低いマスク画像を生成する。
図7(b)に示す出力画像700bは、例えば、以下のようにして得られる。生成部306は、撮像画像において、マスク出力設定よりもプライバシー保護ランクのランクが低い人体部位領域に対しては、マスク処理を実行せず、撮像画像をそのままマスク画像とする。また、生成部306は、撮像画像において、プライバシー保護ランクがマスク出力設定のランク以上である人体部位領域に対しては、マスク処理を実行し、遮蔽度の高いマスク画像を生成する。そして、合成部307は、背景画像にマスク画像を合成する。このようにして生成される出力画像700bにおいては、前腕、手、下腿、足の人体部位領域の画像として、マスク処理されていない撮像画像がそのまま表示される。前腕、手、下腿、足の人体部位領域については撮像画像をそのまま出力することで、プライバシーの保護の必要性が低い人体部位領域の動きを、ユーザーに詳細に確認させることができる。
図7(c)に示す出力画像700cは、例えば、以下のようにして得られる。生成部306は、撮像画像において、マスク出力設定のランクよりもプライバシー保護ランクが低い人体部位領域に対しては、アルファ値を相対的に透明度の高いアルファ値としてマスク画像を生成する。また、生成部306は、撮像画像において、プライバシー保護ランクがマスク出力設定のランク以上である人体部位領域に対しては、アルファ値を相対的に透明度の低いアルファ値としてマスク画像を生成する。そして、合成部307は、背景画像にマスク画像を合成する。このようにして生成される出力画像700cにおいては、前腕、手、下腿、足の人体部位領域の画像として、透明度の高いマスク画像が表示される。従って、プライバシーの保護の必要性が低い人体部位領域について、プライバシーをある程度保護しつつ、動きをユーザーに確認させることができる。
図7(d)に示す出力画像700dは、例えば、以下のようにして得られる。生成部306は、撮像画像において、プライバシー保護ランクがマスク出力設定のランク以上である人体部位領域に対しては、相対的にブロックサイズの大きなモザイク画像を生成する。また、生成部306は、マスク出力設定のランクよりもプライバシー保護ランクが低い人体部位領域に対しては、相対的にブロックサイズの小さなモザイク画像を生成する。そして、合成部307は、背景画像にマスク画像を合成する。このようにして生成される出力画像700dにおいては、前腕、手、下腿、足の人体部位領域の画像として、相対的にブロックサイズの小さなモザイク画像が表示される。従って、プライバシーの保護の必要性が低い人体部位領域について、プライバシーをある程度保護しつつ、動きをユーザーに確認させることができる。
図7(e)に示す出力画像700eは、例えば、以下のようにして得られる。生成部306は、撮像画像において、プライバシー保護ランクがマスク出力設定のランク以上である人体部位領域に対しては、1つの色でマスク画像を生成する。また、生成部306は、マスク出力設定のランクよりもプライバシー保護ランクが低い人体部位領域に対しては、撮像画像の各画素の輝度値に応じて複数の階調に変換したマスク画像を生成する。例えば、生成部306は、プライバシー保護ランクがマスク出力設定のランク以上である人体部位領域の各画素を、各画素の輝度値に応じて20個の階調に変換してマスク画像を生成する。このようにして生成される出力画像700eにおいては、前腕、手、下腿、足の人体部位領域の画像として、階調が変換された画像が表示される。従って、プライバシーの保護の必要性が低い人体部位領域について、プライバシーをある程度保護しつつ、動きをユーザーに確認させることができる。
図7(b)〜図7(e)に例示するように、遮蔽度は、元の画像に対する抽象化の度合いに対応する。遮蔽度が高いほど元の画像に対する抽象化の度合いを高くする。マスク画像は、このような遮蔽度に応じて人体部位領域を表示する画像である。本実施形態では、人体部位領域毎に決定された遮蔽度に応じたマスク画像の形態として、図7(b)〜図7(e)に示す4つの形態を例示した。しかしながら、プライバシーを保護すべき人体部位領域に対するマスク画像よりも遮蔽度の低いマスク画像であれば、マスク画像の形態は、これらに限定しない。
次に、図8Aおよび図8Bに示すフローチャートを参照しながら、出力画像を生成する際の情報処理装置100の処理の一例について説明する。図8Aに示す処理は、撮像画像から抽出された人体部位領域に対応するマスク画像を生成し、当該マスク画像と当該マスク画像の領域以外の領域を表示する画像とを合成した出力画像を生成する処理である。また、図8Bに示す処理は、人体部位領域毎のプライバシー保護ランクと、マスク出力設定のランクとに応じて、遮蔽度の異なるマスク画像を生成する処理である。図8Bに示す処理は、図8AのS804の詳細な処理である。なお、図8Aおよび図8Bに示す処理は、例えば、情報処理装置100のROM220等に格納されたコンピュータプログラムを情報処理装置100のCPU200が実行することにより実現される図3に示す機能ブロックにより実行されるものとする。
図8Aに示す処理について説明する。まず、S801にて、通信部300は、撮像装置110で撮像された撮像画像を、処理対象の撮像画像として取得する。次に、S802にて、検出部304は、処理対象の撮像画像に含まれる人物の人体部位(骨格座標)を検出する。
次に、S803にて、抽出部305は、処理対象の撮像画像に含まれる人物の人体部位領域を抽出する。抽出部305は、例えば、“手”といった人体部位領域を識別するためのラベル情報と、当該ラベル情報により識別される人体部位領域を表す画像座標の配列データとを含むデータ構造を、抽出した人体部位領域の数だけ生成する。抽出部305は、例えば、抽出した1つ以上の人体部位領域をリスト構造で記憶部301に格納し、生成部306で取り扱えるようにする。
次に、S804にて、生成部306は、S803において抽出部305により抽出された人体部位領域に応じて、遮蔽度の異なるマスク画像を生成する生成処理を実行する。なお、S804において生成部306により実行される生成処理の詳細の一例は、図8Bを参照して後述する。次に、S805にて、合成部307は、S804において生成部306により生成されたマスク画像と、当該マスク画像の領域以外の領域を表示する画像とを合成した出力画像を生成する。このとき、合成部307は、例えば、生成部306により生成されたマスク画像と、撮像装置110により撮像された撮像画像に基づく画像であって人物が含まれない画像である背景画像とを合成することで出力画像を生成する。なお、合成部307により出力画像を生成するために用いられる背景画像として、例えば、撮像装置110により撮像された撮像画像のうち人物の映っていない撮像画像を用いてもよいし、他の方法により生成された人物の映ってない画像を用いてもよい。次に、S806にて、出力制御部308は、S805において合成部307により生成された出力画像を外部装置(記録装置120、ディスプレイ130等)へ出力する。以上が、図8Aに示す処理である。
次に、図8Bを参照して、図8AのS804にて実行されるマスク画像の生成処理の一例についてより詳細に説明する。まず、S811にて、生成部306は、S803において抽出部305により抽出された撮像画像における各々の人体部位領域から、注目対象の人体部位領域を決定する。本実施形態では、例えば、以下のようにして注目対象の人体部位領域が決定される。まず、生成部306は、抽出部305によりリスト構造で記憶部301に格納された人体部位領域のデータ構造から、人体部位領域を識別するためのラベル情報を参照する。そして、生成部306は、図5に示すテーブル500を参照して、プライバシー保護ランクが低い人体部位領域から順番に注目対象の人体部位領域を1つずつ選択する。
ここで、プライバシー保護ランクが低い人体部位領域から順番に注目対象とする理由を説明する。例えば、顔の前に手を持ってきている等、撮像画像の同じ画像座標に、プライバシー保護ランクが相互に異なる複数の人体部位領域が存在する場合がある。このような場合に、相対的にプライバシー保護ランクの低い人体部位領域によって、相対的にプライバシー保護ランクの高い人体部位領域に対して、遮蔽度の低いマスク画像が生成されると、プライバシーの保護が十分でなくなる虞がある。そこで、本実施形態では、生成部306は、相対的にプライバシー保護ランクが低い人体部位領域から順番にマスク画像を生成し、相対的にプライバシー保護ランクの高い人体部位領域のマスク画像を後で生成する。そして、生成部306は、相対的にプライバシー保護ランクが低い人体部位領域から順番にマスク画像に、相対的にプライバシー保護ランクの高い人体部位領域のマスク画像を上書きする。従って、相対的にプライバシー保護ランクの低い人体部位領域と、相対的にプライバシー保護ランクの高い人体部位領域とが同じ画像座標を有していても、当該画像座標において、プライバシー保護ランクの高い人体部位領域に対するマスク画像が表示される。よって、プライバシーの保護を確実に図ることができる。
次に、S812にて、生成部306は、注目対象の人体部位領域のプライバシー保護ランクと、マスク出力設定のランクとを比較して、注目対象の人体部位領域がマスク出力対象であるか否かを判定する。注目対象の人体部位領域のプライバシー保護ランクが、マスク出力設定のランク以上である場合、注目対象の人体部位領域がマスク出力対象であると判定される。そして、注目対象の人体部位領域がマスク出力対象であると判定された場合、S813の処理が実行される。S813にて、生成部306は、注目対象の人体部位領域に対して、相対的に高い遮蔽度のマスク画像を生成する。相対的に高い遮蔽度のマスク画像とは、例えば、その人体部位領域を1つの色に変換したマスク画像である。
一方、注目対象の人体部位領域のプライバシー保護ランクが、マスク出力設定のランク以上でない場合、S812において、注目対象の人体部位領域がマスク出力対象ではないと判定される。S812において、注目対象の人体部位領域がマスク出力対象ではないと判定された場合、S814にて、生成部306は、相対的に低い遮蔽度のマスク画像を生成する。相対的に低い遮蔽度のマスク画像とは、撮像画像内の人物の詳細な行動を確認できる程度のマスク画像であり、例えば、図7(b)から図7(e)を参照しながら前述したマスク画像である。
次に、S815にて、生成部306は、S803において抽出部305により抽出された全ての人体部位領域を処理したか否かを判定する。例えば、生成部306は、前述したようにして抽出部305により抽出された人体部位領域のリスト構造を全て処理したか否かを判定する。この判定の結果、全ての人体部位領域を処理していない場合、S811の処理が再び実行される。この場合、S811において、生成部306は、未処理の人体部位領域のうち、次に注目対象とする人体部位領域を決定する。そして、新たに注目対象とした人体部位領域に対して、S812〜S815の処理が繰り返される。そして、S815において、全ての人体部位領域を処理したと判定された場合、生成部306によるマスク画像の生成処理は終了する。以上のようにして図8Bに示すマスク画像の生成処理にてマスク画像が生成された後、図8Aに示すS805の処理が前述したようにして実行される。
以上説明したように本実施形態に係る情報処理装置100は、撮像画像から、確認対象となる人物を構成する複数の人体部位領域を抽出し、当該複数の人体部位領域ごとに、遮蔽度を決定する。従って、画像において遮蔽の必要がある領域の確認を不能または困難にすることと、画像から確認が必要である領域を確認し易くすることとの双方を実現することができる。より具体的には、例えば、利用場面に応じて、人物のプライバシーを保護しつつ、撮像画像における人物の詳細な行動を確認可能な出力画像を生成することができる。
また、本実施形態では、情報処理装置100は、プライバシーの保護に関する重要度(遮蔽度)の設定に関するユーザーによる操作入力を受け付け、受け付けた操作入力の内容に基づいて、人体部位領域に対する遮蔽度を決定する。従って、システムの利用場面に応じて、人体部位領域に対するプライバシーの保護に関する重要度を適切に定めることができる。
また、本実施形態では、情報処理装置100は、遮蔽度が相互に異なる複数の人体部位領域の少なくとも一部が重なる場合、当該重なる領域に対し、当該遮蔽度が最も高い人体部位領域に対するマスク画像を適用する。従って、プライバシーの保護をより確実に図ることができる。
また、本実施形態では、情報処理装置100は、人体部位領域に対する秘匿の必要性に応じて、当該人体部位領域に対する遮蔽度を決定する。従って、プライバシーの保護の重要性が高い人体部位領域のプライバシーを保護しつつ、プライバシーの保護の重要度が低い人体部位領域については、行動の詳細をユーザーに確認させることができる出力画像を生成することができる。
(第2の実施形態)
次に、第2の実施形態を説明する。第1の実施形態では、撮像画像における人物の人体部位領域のプライバシー保護ランクが、マスク出力設定のランク以上であるか否かに応じて、遮蔽率の異なるマスク画像を生成する場合を例示した。これにより、プライバシー保護ランクが低い人体部位領域については、出力画像で行動の詳細をユーザーに確認させることができる。例えば、介護施設などで、要介護者のプライバシーを保護しつつ、要介護者に対する安全な介護に役立てることができる。一方で、撮像画像における人物の姿勢によっては、人物の行動の詳細を確認する必要性が変わる場合がある。例えば、介護施設において、就寝中の人物は転倒の危険もないため、出力画像で人体部位領域を詳細に確認する必要はない。この場合、プライバシーの保護の重要性が低い人体部位領域であっても、人物の行動を詳細に確認する必要がない場合は、プライバシーの保護を優先した出力画像を出力する方が好ましい。一方で、例えば、人物が転倒している場合、プライバシーの保護よりも、人物の安全を確認可能な出力画像を出力する方が好ましい。
そこで、このような課題を解決するために、本実施形態では、撮像画像における人物の姿勢に応じて、同じ人体部位領域であっても遮蔽度の異なるマスク画像を生成する。このように本実施形態は、第1の実施形態に対し、人物の姿勢を更に考慮してマスク画像を生成するための構成および処理が主として異なる。従って、本実施形態では、第1の実施形態と異なる部分を主に説明し、第1の実施形態と同一または同等の構成要素および処理については、図1〜図8Bに付した符号と同一の符号を付す等して、詳細な説明を省略する。
図9は、本実施形態における設定部303で実行されるマスク出力設定の一例を説明する図である。図9(a)は、マスク出力設定が実行される際に表示される画面の一例を示す図である。本実施形態では、人物の姿勢に応じたマスク出力設定が実行される。設定部303は、ランク指定部601および設定確認部602に加えて、姿勢指定部901を表示させる。ランク指定部601、設定確認部602、および姿勢指定部901は、例えば、同一の画面に表示される。図9(a)において、姿勢指定部901は、マスク出力設定の対象となる人物の姿勢をユーザーが指定するためのGUIである。ユーザーは、姿勢指定部901で指定した姿勢に対して、どの人体部位領域をどのようなマスク画像で出力するのかをランク指定部601で指定する。これにより、撮像画像内の人物の姿勢に応じて、マスク出力設定を変更することができる。ランク指定部601と設定確認部602は、図6(a)を参照して説明した内容と同様であるため、ランク指定部601および設定確認部602の詳細な説明を省略する。本実施形態では、姿勢指定部901により、人物の姿勢として、立位、座位、臥位、姿勢不明、転倒、およびうずくまりの6種類の姿勢が指定可能である場合を例示する。しかしながら、指定可能な姿勢の種類はこれら6種類の姿勢に限定されない。
図9(b)は、図9(a)に示す姿勢指定部901およびランク指定部601に対するユーザーの指定に基づくマスク出力設定により記憶部301に記憶されるテーブル910の一例を示す。図9(b)に示す例では、姿勢指定部901に対してユーザーにより指定された姿勢と、ランク指定部601に対してユーザーにより指定されたランクとを相互に関連付けてテーブル910に記憶することにより、マスク出力設定実行される。本実施形態では、マスク出力設定により、人物がどの姿勢のときに当該人物のどの人体部位領域をどのような遮蔽度のマスク画像で出力するのかが決定される。
図10は、本実施形態における出力制御部308により出力される出力画像の例を示す図である。本実施形態では、検出部304は、撮像画像における人物の姿勢を推定する。そして、生成部306は、図9に示すようにして実行される、人物の姿勢に応じたマスク出力設定を参照して、人体部位領域毎に遮蔽度を決定する。そして、生成部306は、人体部位領域のそれぞれが、決定した遮蔽度で抽象化されて表示されるマスク画像を生成する。
図10(a)に示す出力画像1000aは、撮像画像における人物の姿勢が、臥位の場合に出力される出力画像の一例である。検出部304が、撮像画像における人物の姿勢を臥位と推定すると、生成部306は、テーブル910を参照し、臥位の姿勢に応じた人体部位領域のマスク画像を生成する。本実施形態では、臥位の場合のマスク出力設定としてランク1が設定されている。そこで、生成部306は、テーブル500を参照し、プライバシー保護ランクがランク1〜ランク5の全ての人体部位領域に対して、遮蔽度の高いマスク画像を生成する。
図10(b)に示す出力画像1000bは、撮像画像における人物の姿勢が、座位の場合に出力される出力画像の一例である。検出部304が、撮像画像における人物の姿勢を座位と推定すると、生成部306は、テーブル910を参照し、座位の姿勢に応じた人体部位領域のマスク画像を生成する。本実施形態では、座位の場合のマスク出力設定としてランク2が設定されている。そこで、生成部306は、テーブル500を参照し、プライバシー保護ランクがランク1の手、足の人体部位領域に対して、相対的に遮蔽度の低いマスク画像を生成し、その他の人体部位領域に対して、相対的に遮蔽度の高いマスク画像を生成する。遮蔽度の異なるマスク画像の出力画像については、図7を参照して説明した内容と同様であるため詳細な説明を省略する。
図10(c)に示す出力画像1000cは、撮像画像における人物の姿勢が、転倒の場合に出力される出力画像の一例である。検出部304が、撮像画像における人物の姿勢を転倒と推定すると、生成部306は、テーブル910を参照し、転倒の姿勢に応じた人体部位領域のマスク画像を生成する。本実施形態では、転倒の場合は「マスク出力しない」が設定されているため、生成部306は、全ての人体部位領域に対して、遮蔽度の低いマスク画像を生成する。
例えば介護施設において、図10(a)に示すように、人物の姿勢が就寝中のような臥位の姿勢のときは、入居者の安全性を出力画像1000aで詳細に確認する必要がない。本実施形態では、人物の姿勢が臥位の場合は遮蔽度の高いマスク出力する人体部位領域を多くすることで、プライバシーの保護の重要度が低い人体部位領域であっても、無用に詳細な画像を出力しないことができる。一方で、図10(b)に示すように、座位の入居者は立ち上がる可能性がある。このため、例えば、入居者が杖や手すりを持てているか否か、および、入居者の足元は安全であるか否かを、入居者のプライバシーを保護しつつ出力画像1000bで詳細に確認する必要がある。さらに、図10(c)に示すように、入居者が転倒している姿勢の場合は、入居者のプライバシーの保護の必要性よりも、入居者の安全確認の必要性の方が高くなる。この場合は、誰が転倒しているかも確認する必要があるため、プライバシーの保護の重要度が高い人体部位領域である顔を含めて出力画像1000cで確認することができる。
次に、図11Aおよび図11Bに示すフローチャートを参照しながら、出力画像を生成する際の情報処理装置100の本実施形態における処理の一例について説明する。図11Aに示す処理は、撮像画像から人体部位領域と人物の姿勢とを検出し、抽出した人体部位領域に対応するマスク画像を生成し、当該マスク画像と当該マスク画像の領域以外の領域を表示する画像とを合成した出力画像を生成する処理である。また、図11Bに示す処理は、人物の姿勢と、人体部位領域毎のプライバシー保護ランクと、マスク出力設定のランクとに応じて、遮蔽度が異なるマスク画像を生成する処理である。図11Bに示す処理は、図11AのS1103の詳細な処理である。なお、図11Aおよび図11Bに示す処理は、例えば、情報処理装置100のROM220等に格納されたコンピュータプログラムを情報処理装置100のCPU200が実行して実現される図3に示す機能ブロックにより実行されるものとする。
図11Aに示すS801〜S802の処理は、図8Aを参照して説明した内容と同様であるため、当該処理の詳細な説明を省略する。S802の処理の次にS1101の処理が実行される。S1101にて、検出部304は、S802において検出した人物の人体部位(骨格座標)に基づいて、人物の姿勢を推定する。例えば、検出部304は、深層学習により学習された姿勢推論モデルを使って、骨格座標から撮像画像に含まれる人物の姿勢を推論する。骨格推論モデルは、人物の骨格座標を入力して人物の姿勢を示す情報を出力する。さらに、検出部304は、一見似ている臥位と転倒とを区別するために、時系列での人物の姿勢の変化を検出し、検出した結果も使用して、人物の姿勢を推定してもよい。例えば、検出部304は、人物の姿勢が立位や座位の姿勢から、急激に臥位の姿勢に推移した場合に、人物の姿勢は転倒であると推定する。人物の姿勢を推定する方法は、これに限定されない。例えば、検出部304は、各骨格座標の組み合わせから、人物の姿勢をルールベースのアルゴリズムで推定してもよい。ルールベースのアルゴリズムには、例えば、決定木がある。
次に、S1102にて、抽出部305は、図8AのS803で説明したのと同様にして、処理対象の撮像画像に含まれる人物の人体部位領域を抽出する。抽出部305は、例えば、人体部位領域を識別するためのラベル情報と、当該ラベル情報により識別される人体部位領域を表す画像座標の配列データとを含むデータ構造と、当該人体部位領域が属する人物の姿勢情報とを、抽出した人体部位領域の数だけ生成する。抽出部305は、例えば、抽出した1つ以上の人体部位領域をリスト構造で記憶部301に格納し、生成部306で取り扱えるようにする。
次に、S1103にて、生成部306は、S1101において検出部304により検出された人物の姿勢と、S1102において抽出部305により抽出された人体部位領域とに応じて、遮蔽度の異なるマスク画像を生成する生成処理を実行する。S1103の次にS805、S806の処理がこの順で実行される。S805、S806の処理は、図8Aを参照して説明した内容と同様であるため、当該処理の詳細な説明を省略する。
次に、図11Bを参照して、図11AのS1003にて実行されるマスク画像の生成処理の一例についてより詳細に説明する。まず、図11Bに示すS811の処理は、図8Bを参照して説明した内容と同様であるため、当該処理の詳細な説明を省略する。S811の次にS1112の処理が実行される。S1112にて、生成部306は、注目対象の人体部位領域のプライバシー保護ランクと、注目対象の人体部位領域の属する人物の姿勢情報に対応するマスク出力設定のランクとを比較して、注目対象の人体部位領域がマスク出力対象であるか否かを判定する。注目対象の人体部位領域のプライバシー保護ランクが、注目対象の人体部位領域の属する人物の姿勢情報に対応するマスク出力設定のランク以上である場合、注目対象の人体部位領域がマスク出力対象であると判定される。そして、注目対象の人体部位領域がマスク出力対象であると判定された場合、S813の処理が実行される。
一方、注目対象の人体部位領域のプライバシー保護ランクが、注目対象の人体部位領域の属する人物の姿勢情報に対応するマスク出力設定のランク以上でない場合、注目対象の人体部位領域がマスク出力対象ではないと判定される。そして、注目対象の人体部位領域の属する人物の姿勢情報に対応するマスク出力設定のランク以上でないと判定された場合、S814の処理が実行される。図11Bに示すS813〜S815の処理は、図8Bを参照して説明した内容と同様であるため、当該処理の詳細な説明を省略する。
以上説明したように、本実施形態に係る情報処理装置100は、撮像画像から、確認対象となる人物を構成する複数の人体部位領域を抽出すると共に当該人物の姿勢を推定する。そして、情報処理装置100は、当該人物の姿勢に応じて、当該複数の人体部位領域ごとに、遮蔽度を決定する。従って、人物の姿勢に応じて出力画像の詳細な確認の必要性が変わるような場面において、プライバシーの保護を重視したマスク画像を出力することと、詳細な確認を重視したマスク画像を出力することとの釣合いを人物の姿勢に応じて変更することができる。なお、本実施形態においても第1の実施形態で説明した変形例を採用することができる。
前述した各実施形態では、人体の動きを監視する場合を例示した。しかしながら、確認対象物(観察対象物)は人体に限定されない。例えば、確認対象物(観察対象物)は、機器であってもよい。例えば、機器の動作のデモンストレーションを行う場合、部外者に見せたくない機器の領域を遮蔽度が相対的に高いマスク画像とし、部外者に詳細な動きを見せたい機器の領域を遮蔽度が相対的に低いマスク画像とすることができる。また、前述した各実施形態に係る情報処理装置100の1以上の機能を他の装置が有していてもよい。また、前述した各実施形態を組み合わせて実施してもよい。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出して実行する処理でも実現可能である。また、上述の実施形態の1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
また、以上説明した本発明の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。
100:情報処理装置、110:撮像装置、120:記録装置、130:ディスプレイ

Claims (9)

  1. 撮像手段により撮像された撮像画像から、当該撮像画像に含まれる確認対象物の複数の部分領域を抽出する抽出手段と、
    前記抽出手段により抽出された前記複数の部分領域ごとに抽象化の度合いを決定する決定手段と、
    前記確認対象物の画像であって、前記決定手段により決定された抽象化の度合いに従って前記部分領域が抽象化された画像を生成する生成手段と、を有することを特徴とする情報処理装置。
  2. 前記部分領域に対する前記抽象化の度合いを指定するためのユーザーによる操作入力を受け付ける受け付け手段を更に有し、
    前記生成手段は、前記受け付け手段により受け付けられた操作入力の内容に基づいて、前記抽出手段により抽出された複数の部分領域ごとに抽象化の度合いを決定することを特徴とする請求項1に記載の情報処理装置。
  3. 前記生成手段は、前記抽出手段により抽出された2つ以上の部分領域の少なくとも一部が相互に重なる場合、当該重なる領域を、当該2つ以上の部分領域に対する抽象化の度合いのうち、最も高い抽象化の度合いに従って抽象化することを特徴とする請求項1または2に記載の情報処理装置。
  4. 撮像手段により撮像された撮像画像に含まれる前記確認対象物の姿勢を検出する検出手段を更に有し、
    前記決定手段は、前記検出手段により検出された前記確認対象物の姿勢に基づいて、前記抽出手段により抽出された前記複数の部分領域ごとに抽象化の度合いを決定することを特徴とする請求項1〜3の何れか1項に記載の情報処理装置。
  5. 前記生成手段により生成された画像と、当該画像の領域以外の領域を表示する画像とを合成する合成手段を更に有することを特徴とする請求項1〜4の何れか1項に記載の情報処理装置。
  6. 前記抽象化の度合いは、前記部分領域の秘匿の必要性に応じて定められることを特徴とする請求項1〜5の何れか1項に記載の情報処理装置。
  7. 前記確認対象物は、人体であることを特徴とする請求項1〜6の何れか1項に記載の情報処理装置。
  8. 撮像手段により撮像された撮像画像から、当該撮像画像に含まれる確認対象物の複数の部分領域を抽出する抽出工程と、
    前記抽出工程により抽出された前記複数の部分領域ごとに抽象化の度合を決定する決定工程と、
    前記確認対象物の画像であって、前記決定工程により決定された抽象化の度合に従って前記部分領域が抽象化された画像を生成する生成工程と、を有することを特徴とする情報処理方法。
  9. 請求項1〜7の何れか1項に記載の情報処理装置の各手段としてコンピュータを機能させるためのプログラム。
JP2020050713A 2020-03-23 2020-03-23 情報処理装置、情報処理方法、およびプログラム Active JP7483433B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020050713A JP7483433B2 (ja) 2020-03-23 2020-03-23 情報処理装置、情報処理方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020050713A JP7483433B2 (ja) 2020-03-23 2020-03-23 情報処理装置、情報処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2021149747A true JP2021149747A (ja) 2021-09-27
JP7483433B2 JP7483433B2 (ja) 2024-05-15

Family

ID=77849058

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020050713A Active JP7483433B2 (ja) 2020-03-23 2020-03-23 情報処理装置、情報処理方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP7483433B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114866434A (zh) * 2022-03-09 2022-08-05 上海纽盾科技股份有限公司 网络资产的安全评估方法及应用

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4701356B2 (ja) 2006-02-08 2011-06-15 株式会社国際電気通信基礎技術研究所 プライバシー保護画像生成装置
JP5760315B2 (ja) 2010-01-07 2015-08-05 株式会社ニコン 画像判定装置
JP6469975B2 (ja) 2014-06-27 2019-02-13 株式会社 日立産業制御ソリューションズ 映像監視装置、映像監視システムおよび映像監視方法
JP6624852B2 (ja) 2015-08-27 2019-12-25 キヤノン株式会社 画像情報生成装置、画像情報生成方法、画像処理システム及びプログラム
JP6831769B2 (ja) 2017-11-13 2021-02-17 株式会社日立製作所 画像検索装置、画像検索方法、及び、それに用いる設定画面
JP6887132B2 (ja) 2018-04-12 2021-06-16 パナソニックIpマネジメント株式会社 映像処理装置、映像処理システム及び映像処理方法
JP7035886B2 (ja) 2018-07-30 2022-03-15 トヨタ自動車株式会社 画像処理装置、画像処理方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114866434A (zh) * 2022-03-09 2022-08-05 上海纽盾科技股份有限公司 网络资产的安全评估方法及应用

Also Published As

Publication number Publication date
JP7483433B2 (ja) 2024-05-15

Similar Documents

Publication Publication Date Title
JP7095770B2 (ja) 画像処理システム、画像処理方法及びプログラム
CN108024027B (zh) 图像处理设备、图像处理方法和存储介质
CN111460874A (zh) 图像处理方法及装置、图像设备及存储介质
EP2700040B1 (en) Color channels and optical markers
JP6910772B2 (ja) 撮像装置、撮像装置の制御方法およびプログラム
JP6312512B2 (ja) 遠隔見守りシステム
JP6007523B2 (ja) 生成装置、生成プログラムおよび生成方法
US20190370537A1 (en) Keypoint detection to highlight subjects of interest
TW202221380A (zh) 用於擴展現實的混淆控制介面
JP2019135810A (ja) 画像処理装置、画像処理方法およびプログラム
JP2021149747A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2020091770A (ja) 情報処理装置、情報処理システム、情報処理方法、プログラムおよび記録媒体
JP7297455B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP6744237B2 (ja) 画像処理装置、画像処理システムおよびプログラム
JP7455545B2 (ja) 情報処理装置、情報処理方法、およびプログラム
KR102544147B1 (ko) 영상분석 기반 1인 낙상 감지 시스템 및 방법
TW201839550A (zh) 在虛擬實境環境瀏覽時進行畫面切換之系統及方法,及其相關電腦程式產品
JP7370769B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP7327936B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2016042661A (ja) 情報処理装置、システム、情報処理方法及びプログラム
WO2023277043A1 (ja) 情報処理装置
JP6598828B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2020166653A (ja) 情報処理装置、情報処理方法、およびプログラム
TWM553537U (zh) 監控攝影機
JP7517365B2 (ja) 画像処理システム、画像処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230306

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240501

R150 Certificate of patent or registration of utility model

Ref document number: 7483433

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150