JP6736916B2 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP6736916B2
JP6736916B2 JP2016040506A JP2016040506A JP6736916B2 JP 6736916 B2 JP6736916 B2 JP 6736916B2 JP 2016040506 A JP2016040506 A JP 2016040506A JP 2016040506 A JP2016040506 A JP 2016040506A JP 6736916 B2 JP6736916 B2 JP 6736916B2
Authority
JP
Japan
Prior art keywords
image
information processing
comparison
area
current image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016040506A
Other languages
English (en)
Other versions
JP2017158065A (ja
Inventor
直也 守田
直也 守田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016040506A priority Critical patent/JP6736916B2/ja
Publication of JP2017158065A publication Critical patent/JP2017158065A/ja
Application granted granted Critical
Publication of JP6736916B2 publication Critical patent/JP6736916B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Description

本発明は、情報処理装置、情報処理方法、及びプログラムに関する。
従来、撮影された映像や画像において、人が動いていることを検知し、人が動いていることにより変化した領域を、モザイク処理やぼかし処理を行うことにより、プライバシーを保護する技術が知られている。
この技術において、例えば、撮影機器を予め固定位置に設置しておき、一の画像の画像データと、複数の画像を平均化した比較用データとを比較して、差分がある領域を変化した領域として検知することが知られている(例えば、特許文献1参照)。
しかし、従来技術には、撮影機器を移動させながら撮影した場合、画像の全領域を変化した領域として検知されるため、当該全領域に、モザイク処理やぼかし処理が行われるという問題があった。
そこで、撮影機器を移動させながら撮影した場合であっても、撮影された人物のプライバシーを保護することを目的とする。
情報処理装置において、現在撮影された現画像と、以前に撮影された画像に基づく比較用画像とが重なり合う領域を、前記現画像と前記比較用画像とのそれぞれを前記情報処理装置が撮影する際の前記情報処理装置の相対位置に基づいて算出し、前記現画像における前記比較用画像と重なる領域の第1の画像データと、前記比較用画像における前記現画像と重なる領域の第2の画像データを抽出する第1の抽出部と、前記第1の画像データと前記第2の画像データとを比較し、前記第1の画像データにおける前記第2の画像データから変化した領域を抽出する第2の抽出部と、前記現画像における、前記第2の抽出部により抽出された領域にマスク処理を行うマスク処理部と、を備える。
開示の技術によれば、撮影機器を移動させながら撮影した場合であっても、撮影された人物のプライバシーを保護することが可能となる。
実施形態におけるビデオ配信システムの構成例を示す図である。 実施形態に係る情報処理装置のハードウェア構成の一例を示す図である。 情報処理装置の機能ブロック図である。 マスク処理の一例を示すフローチャートである。 比較対象範囲算出処理の一例を示すフローチャートである。 比較対象範囲算出処理について説明する図である。 マスク領域設定の一例を示すフローチャートである。 比較対象範囲算出処理の他の一例を示すフローチャートである。 被写体と情報処理装置の移動に応じた撮影領域を説明する図である。
以下、図面に基づいて本発明の実施形態を説明する。図1は、実施形態におけるビデオ配信システムの構成例を示す図である。図1において、ビデオ配信システム1は、情報処理装置(撮影機器)10、及びビデオ配信サーバ20を含む。
情報処理装置10とビデオ配信サーバ20とは、インターネット等の通信回線によって通信可能に接続される。
情報処理装置10は、例えば、ビデオカメラ、スマートフォン、タブレット型端末、ノートPC(Personal Computer)等の端末である。情報処理装置10は、撮影した映像において、人が動いていることにより変化した領域を検出し、当該領域に、モザイク処理やぼかし処理等のマスク処理を行う。情報処理装置10は、マスク処理した映像を、ビデオ配信サーバ20にアップロードする。情報処理装置10にてマスク処理を行うため、ビデオ配信サーバ20からマスク処理前の映像が情報漏洩し、プライバシーを侵害するリスクを低減できる。
ビデオ配信サーバ20は、情報処理装置10にて撮影された映像を、他の端末に配信する。なお、ビデオ配信サーバ20における処理は、公知の技術を用いて行われてもよい。
図2は、実施形態に係る情報処理装置10のハードウェア構成の一例を示す図である。
情報処理装置10は、それぞれバスBで相互に接続されているドライブ装置101、HDD(Hard disk drive)102、メモリ装置103、CPU(Central Processing Unit;演算処理装置)104、通信インターフェース(I/F)105、操作I/F106、ADC(Analog-to-Digital Converter)107、レンズ/センサユニット108で構成される。
HDD102は、インストールされたプログラムを格納すると共に、必要なファイル、データ等を格納する。メモリ装置103は、コンピュータの起動時にHDD102からプログラムを読み出して格納する。そして、CPU104はメモリ装置103に格納されたプログラムに従って、後述するような各種処理を実現する。
通信I/F105は、USBポート、無線LAN(Local Area Network)カード、LANカードなどで構成されており、ネットワークに接続するために用いられる。
操作I/F106は、キーボードやディスプレイ等で実現され、情報処理装置10を操作するための操作画面が表示される。
ADC107は、レンズ/センサユニット108から入力されたアナログ映像データを、デジタル映像データに変換する。
後述する実施形態の情報処理方法がプログラムによって実現される場合、プログラムは例えば記録媒体110の配布やネットワークからのダウンロードなどによって提供される。記録媒体110は、CD−ROM(Compact Disc Read Only Memory)、フレキシブルディスク、光磁気ディスク等の様に情報を光学的、電気的或いは磁気的に記録する記録媒体、ROM(Read Only Memory)、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることができる。
また、実施形態のプログラムを記録した記録媒体110がドライブ装置101にセットされると、記録媒体110からドライブ装置101を介してHDD102にインストールされる。プログラムをネットワークからダウンロードした場合は、通信I/F105を介してHDD102にインストールされる。
ビデオ配信サーバ20のハードウェア構成は、サーバ用のコンピュータのハードウェア構成であり、図2に示す情報処理装置10のハードウェア構成例と同様である。
次に、図3を参照し、情報処理装置10の機能構成について説明する。図3は、情報処理装置10の機能ブロック図である。情報処理装置10は、ビデオ入力部11、比較用画像更新部14、画像補正処理部15、変化領域抽出部16、マスク処理部17、ビデオ出力部18、及び認証部19を有する。これら各部は、情報処理装置10にインストールされた1以上のプログラムが、情報処理装置10のCPU104に実行させる処理により実現される。
また、情報処理装置10は、現画像記憶部12、及び比較用画像記憶部13を有する。これらの記憶部は、例えば、補助記憶装置102等を用いて実現される。
現画像記憶部12は、現在(今回)撮影された映像の画像(現画像)を記憶する。
比較用画像記憶部13は、現画像記憶部12に記憶される現画像と比較するための比較用画像データを記憶する。
ビデオ入力部11は、レンズ/センサユニット108よりアナログのビデオ信号を入力し、デジタルデータに変換する。
比較用画像更新部14は、所定のルールに基づいて、比較用画像記憶部13の比較用画像データの作成、更新処理を行う。比較用画像更新部14は、例えば、以前(今回よりも前)に撮影された所定数(例えば5)フレーム分の画像が保存された場合に、当該所定数のフレームの画像データの平均を算出し、算出したデータを比較用画像データとする。
画像補正処理部15は、比較対象範囲算出処理により、情報処理装置10が移動することによる、現画像と比較用画像とのずれを検出する。そして、画像補正処理部15は、現画像における比較対象範囲の画像と、比較用画像における比較対象範囲の画像を各々生成する。なお、比較対象範囲算出処理の詳細は後述する。
変化領域抽出部16は、画像補正処理部15より出力された補正後の現画像データ(第1の画像データ)と、補正後の比較用画像データ(第2の画像データ)と比較して差分をとり、現画像データにおける変化領域を抽出する。
マスク処理部17は、マスク領域設定部171、第1のマスク画像作成部172、第2のマスク画像作成部173、及び重ね合わせ部174を有する。
マスク領域設定部171は、現画像においてマスクする領域を設定するマスク領域設定処理を行う。マスク領域設定部171は、マスク領域設定処理において、以下の処理を行う。
マスク領域設定部171は、変化領域抽出部16で抽出された現画像データにおける変化領域のうち、人物が写っている領域を、マスク領域として特定する。マスク領域設定部171は、例えば、変化領域内の各輝度値を所定の閾値で2値化して、例えばパターン認識等により人物が写っている領域を判定し、当該領域を含む(外接する)矩形や正方形等の領域をマスク領域とする。
また、マスク領域設定部171は、変化領域抽出部16により以前に撮影された画像から抽出された領域に対応する現画像における領域を、マスク領域として特定する。それにより、以前に移動していた人物が今回の画像において静止していた場合でも、プライバシーを保護することができる。なお、以前に撮影された画像から抽出された領域に対応する現画像における領域の算出は、上述した図6と同様に現画像と比較用画像のマッチング処理により算出してもよい。また、後述する図8と同様に現画像と比較用画像の位置情報と角度情報に基づいて算出してもよい。
また、マスク領域設定部171は、複数のマイクを用いて音源が位置する方向を推定し、推定した方向以外の領域を、マスク領域として特定する。それにより、例えば悲鳴が挙がった方向を推定し、その方向の範囲にはマスク処理をしないことにより、犯人等が写っている領域にマスク処理を行わないようにすることができる。
また、マスク領域設定部171は、現画像と、予め登録している画像とを例えばパターン認識によりマッチングし、現画像における登録している画像と一致する領域を、マスク領域として特定する。例えば、工場のラインにおいてベルトコンベアー上に流れている製品を写したくない場合に、ラインの画像パターンを予め登録しておく。それにより、例えば、情報処理装置10を移動させても、そのパターンにマッチ(一致)する箇所はマスク処理を行うことができる。
第1のマスク画像作成部172は、マスク領域設定部171により特定されたマスク領域内を覆う第1のマスク画像データを作成する。例えば、マスク領域内の画素の値を黒を示す値に変換することにより、マスク画像データを作成する。
第2のマスク画像作成部173は、補正後の比較用画像データ(第2の画像データ)を用いて、第2のマスク画像を作成する。それにより、マスク処理される領域内に存在する人物以外の物体を把握することができる。
第2のマスク画像作成部173は、例えば、第2のマスク画像作成部173は、第1のマスク画像作成部172により作成された第1のマスク画像データ、及び補正後の比較用画像データ(第2の画像データ)に基づき、第2のマスク画像を作成する。この場合、例えば、第1のマスク画像データと、補正後の比較用画像データにおけるマスク領域に対応する領域とを合成した後、モザイク処理やぼかし処理等のマスク処理をすることにより、第2のマスク画像を作成する。
重ね合わせ部174は、現画像記憶部12に記憶されている現画像に、第2のマスク画像作成部173で作成された第2のマスク画像を重ね合わせた画像(重ね合わせ画像)を作成する。
ビデオ出力部18は、重ね合わせ画像のビデオ信号をD/A変換し、操作I/F106の表示部に出力する。また、ビデオ出力部18は、重ね合わせ画像を、通信I/F105を介してビデオ配信サーバ20に送信する。
認証部19は、指紋やパスワード等を用いて、ユーザの認証を行う。認証部19は、ユーザの認証に成功すると、人が動いていることにより変化した領域のマスク処理を行わずに、A/D変換部122から入力した映像を、ビデオ出力部18に出力する。それにより、認証された撮影者のみが、マスク処理を受ける前の映像を見ることができる。
次に、図4を参照し、情報処理装置10の、人が動いていることにより変化した領域のマスク処理について説明する。図4は、人が動いていることにより変化した領域のマスク処理の一例を示すフローチャートである。
比較用画像更新部14は、比較用画像データを作成し、比較用画像記憶部13に記憶する(ステップS101)。
現画像記憶部12は、現在撮影された映像の画像(現画像)を記憶する(ステップS102)。
画像補正処理部15は、比較対象範囲算出処理により、情報処理装置10が移動することによる、現画像と比較用画像とのずれを検出する(ステップS103)。
続いて、画像補正処理部15は、比較対象範囲算出処理により検出した、現画像と比較用画像との間で一致する領域を比較対象範囲とし、現画像における比較対象範囲の画像と、比較用画像における比較対象範囲の画像を各々生成する(ステップS104)。
変化領域抽出部16は、補正後の現画像データと、補正後の比較用画像データと比較して差分をとり、現画像データにおける変化領域を抽出する(ステップS105)。
マスク領域設定部171は、現画像においてマスクする領域(マスク領域)を設定するマスク領域設定処理を行う(ステップS106)。なお、マスク領域設定処理の詳細は後述する。
第1のマスク画像作成部172は、マスク領域内を覆う第1のマスク画像データを作成する(ステップS107)。
第2のマスク画像作成部173は、第1のマスク画像作成部172により作成された第1のマスク画像データ、及び比較用画像のマスク領域に対応する領域の画像データに基づき、第2のマスク画像を作成する(ステップS108)。
重ね合わせ部174は、現画像に、第2のマスク画像を重ね合わせた画像(重ね合わせ画像)を作成する(ステップS109)。
ビデオ出力部18は、重ね合わせ画像を出力する(ステップS110)。
次に、図5を参照し、図4のステップS103の、画像補正処理部15による比較対象範囲算出処理について説明する。図5は、比較対象範囲算出処理の一例を示すフローチャートである。
画像補正処理部15は、比較用画像を小領域に分割する(ステップS201)。
続いて、画像補正処理部15は、各小領域について、現画像において一致する領域を探索する(ステップS202)。
続いて、画像補正処理部15は、現画像と比較用画像とで一致する各小領域を含む最少の矩形または正方形の領域を、現画像と比較用画像との間で一致する領域とする(ステップS203)。
次に、図6を参照し、画像補正処理部15による比較対象範囲算出処理について説明する。図6は、比較対象範囲算出処理について説明する図である。
情報処理装置10が移動することにより、現画像401と比較用画像402とは、例えば図6(A)に示すようなずれが生じる。
ここで、撮影するフレームレートは情報処理装置10の能力により異なるが、現画像401と比較用画像402のフレーム間での情報処理装置10の移動時間を考慮すると、それほど大きなずれはない。
そのため、図6(B)のように、比較用画像402を小領域403(タイル、例えば8×8画素)に分割し、各小領域ついて、現画像401とのマッチング処理を行う。
画像補正処理部15は、現画像401において小領域403と一致する領域を探索する。例えば、現画像401における比較対象の領域を1画素づつ横または縦にずらしながら、一致する(各画素値の差の合計が所定の閾値以下である)領域を探索する。そして、現画像401において、小領域403との差が閾値以下であり、かつ差が最も小さい領域を、一致する領域と判定する。
なお、マッチング処理は、単純に画素単位での一致の程度を判定してもよいし、画像の明暗差なども考慮し、周辺画素とあわせて画素の変化の傾向から一致の程度を判定してもよい。例えば画像のSIFT(Scale-Invariant Feature Transform)やHOG(Histograms of Oriented Gradients)特徴量の一致の程度を判定してもよい
また、比較用画像402における各小領域を順次マッチング処理をしてもよいし、例えば比較用画像402における4隅に対し並列にマッチング処理をしてもよい。
画像補正処理部15は、現画像と比較用画像とで一致する各小領域を含む最少の矩形または正方形の領域を、現画像401と比較用画像402との間で一致する領域404とする。
そして、画像補正処理部15は、現画像401における領域404の画像データを、補正後の現画像データとし、比較用画像402領域404の画像データを、補正後の比較用画像データとする。
次に、図7を参照し、図4のステップS106の、マスク領域設定部171による、現画像においてマスクする領域を設定するマスク領域設定処理の詳細について説明する。図7は、マスク領域設定の一例を示すフローチャートである。
まず、マスク領域設定部171は、変化領域抽出部16で抽出された現画像データにおける変化領域のうち、人物が写っている領域を、マスク領域として特定する(ステップS301)。
続いて、マスク領域設定部171は、変化領域抽出部16により以前に撮影された画像から抽出された領域に対応する現画像における領域を、マスク領域として特定する(ステップS302)。
続いて、マスク領域設定部171は、複数のマイクを用いて音源が位置する方向を推定し、推定した方向の領域を、マスク領域から除外する(ステップS303)。
続いて、マスク領域設定部171は、現画像と、予め登録している画像とをマッチングし、現画像における登録している画像と一致する領域を、マスク領域として特定する(ステップS304)。
<変形例>
次に、図8を参照し、図4のステップS103の画像補正処理部15による比較対象範囲算出処理の他の例として、情報処理装置10の移動情報から比較用画像を生成する例について説明する。図8は、比較対象範囲算出処理の他の一例を示すフローチャートである。
画像補正処理部15は、情報処理装置10の相対位置を取得するため、情報処理装置10の電源ON後、1枚目の現画像が記憶されると、情報処理装置10の位置情報をリセットする(ステップS401)。
画像補正処理部15は、2枚目以降の現画像が記憶される度に、現在の位置情報及び角度情報を取得する(ステップS402)。なお、現在の位置情報及び角度情報は、例えば、情報処理装置10の加速度センサを用いて取得する。
画像補正処理部15は、比較用画像更新部14により、比較用画像データの作成 、更新処理を行われると、比較用画像の位置情報及び角度情報を算出する(ステップS403)。例えば、以前に撮影された所定数フレーム分の画像データを平均した画像を比較用画像とする場合、当該所定数フレーム分の画像の位置情報及び角度情報をそれぞれ平均した値を、比較用画像の位置情報及び角度情報とする。
画像補正処理部15は、現画像と比較用画像の位置情報及び角度情報の差分を算出する(ステップS404)。
画像補正処理部15は、当該差分に基づき、比較対象範囲のX,Y座標の移動量、及び拡大縮小率を算出する(ステップS405)。
画像補正処理部15は、現画像と比較用画像との拡大・縮小率Sを判定する(ステップS406)。
現画像と比較用画像との拡大・縮小率Sが1より大きい(現画像の方が大きい)場合(ステップS406で「S>1」)、比較用画像をSに応じて拡大し、現画像の画像サイズと合わせ(ステップS407)、ステップS409の処理に進む。
現画像と比較用画像との拡大・縮小率Sが1である場合(ステップS406で「S=1」)、ステップS409の処理に進む。
現画像と比較用画像との拡大・縮小率Sが1より小さい(比較用画像の方が大きい)場合(ステップS406で「S<1」)、原画像をSに応じて拡大し、比較用画像の画像サイズと合わせ(ステップS408)、ステップS409の処理に進む。
画像補正処理部15は、現画像の比較用画像に対するX座標の移動量Xsを判定する(ステップS409)。
現画像の比較用画像に対するX座標の移動量Xsが0より大きい場合(ステップS409でXs>0)、比較用画像の比較開始位置を、X軸方向にXs分加算し(ステップS410)、ステップS412の処理に進む。
現画像の比較用画像に対するX座標の移動量Xsが0である場合(ステップS409でXs=0)、ステップS412の処理に進む。
現画像の比較用画像に対するX座標の移動量Xsが0より小さい場合(ステップS409でXs<0)、原画像の比較開始位置を、X軸方向にXs分加算し(ステップS411)、ステップS412の処理に進む。
画像補正処理部15は、現画像の比較用画像に対するY座標の移動量Ysを判定する(ステップS412)。
現画像の比較用画像に対するY座標の移動量Ysが0より大きい場合(ステップS412でYs>0)、比較用画像の比較開始位置を、Y軸方向にYs分加算し(ステップS413)、処理を終了する。
現画像の比較用画像に対するY座標の移動量Ysが0である場合(ステップS412でYs=0)、処理を終了する。
現画像の比較用画像に対するY座標の移動量Ysが0より小さい場合(ステップS412でYs<0)、原画像の比較開始位置を、Y軸方向にYs分加算し(ステップS414)、処理を終了する。
次に、図9を参照し、現画像に写る人(被写体、移動体)の移動と、情報処理装置10の移動に応じて変化する撮影される領域について説明する。図9は、被写体と情報処理装置の移動に応じた撮影領域を説明する図である。
図9(A)は、時刻がt0、t1、t2と経過するに応じた、情報処理装置10の各位置501、502、503、当該各位置における情報処理装置10から所定距離離れた地点の撮影領域511、512、513、及び移動体の各位置601、602、603の例を示す。
図9(B)は、図9(A)の情報処理装置10の各位置501、502、503で撮影した画像511a、512a、513aの例を示す。
時刻t0からt1では、移動体がX軸のプラス方向、Z軸のマイナス方向に移動しているため、画像511aで移動体が中心付近に写ると、画像512aでは移動体が左下付近に写る。また、図9(A)の例では、情報処理装置10は移動体ほど移動していないが、同じ向きに移動しているため、画像511aで円柱の静止物が右側に写ると、画像512aでは円柱の右半分が写らない状態となる。
また、時刻t1からt2では、移動体がY軸のマイナス方向に移動し、情報処理装置10はX軸にプラス方向に移動しているため、画像513aでは、移動体は中央付近に小さく写っている。
このように被写体である移動体や情報処理装置10が移動している場合でも、図8の処理を行うことにより、現画像における移動体が写っている領域をマスク処理することができる。
なお、上述した実施形態におけるシステム構成は一例であり、用途や目的に応じて様々なシステム構成例があることは言うまでもない。
例えば、情報処理装置10は、例えば1以上のコンピュータにより構成されるクラウドコンピューティングにより実現されていてもよい。
10 情報処理装置
11 ビデオ入力部
12 現画像記憶部
13 比較用画像記憶部
14 比較用画像更新部
15 画像補正処理部(「第1の抽出部」の一例)
16 変化領域抽出部(「第2の抽出部」の一例)
17 マスク処理部
171 マスク領域設定部
172 第1のマスク画像作成部
173 第2のマスク画像作成部
174 重ね合わせ部
18 ビデオ出力部
19 認証部
20 ビデオ配信サーバ
特許5408156号公報

Claims (11)

  1. 情報処理装置であって、
    現在撮影された現画像と、以前に撮影された画像に基づく比較用画像とが重なり合う領域を、前記現画像と前記比較用画像とのそれぞれを前記情報処理装置が撮影する際の前記情報処理装置の相対位置に基づいて算出し、前記現画像における前記比較用画像と重なる領域の第1の画像データと、前記比較用画像における前記現画像と重なる領域の第2の画像データを抽出する第1の抽出部と、
    前記第1の画像データと前記第2の画像データとを比較し、前記第1の画像データにおける前記第2の画像データから変化した領域を抽出する第2の抽出部と、
    前記現画像における、前記第2の抽出部により抽出された領域にマスク処理を行うマスク処理部と、
    を備えることを特徴とする情報処理装置。
  2. 前記第1の抽出部は、前記現画像を撮影する際の前記情報処理装置の位置を示す第1の位置情報と、前記比較用画像を撮影する際の前記情報処理装置の位置を示す第2の位置情報とに基づいて、前記現画像と前記比較用画像とが重なり合う領域を算出する、
    ことを特徴する請求項1に記載の情報処理装置。
  3. 前記第1の抽出部は、前記情報処理装置の加速度センサを用いて取得された、前記第1の位置情報と、前記第2の位置情報とに基づいて、前記現画像と前記比較用画像とが重なり合う領域を算出する、
    ことを特徴する請求項2に記載の情報処理装置。
  4. 前記第1の抽出部は、さらに、前記現画像の画素と、前記比較用画像の画素とをマッチングし、前記重なり合う領域を算出する、
    ことを特徴とする請求項1乃至3のいずれか一項に記載の情報処理装置。
  5. 前記第1の抽出部は、前記現画像の位置情報及び角度情報と、前記比較用画像の位置情報及び角度情報とに基づいて、前記重なり合う領域を算出する、
    ことを特徴とする請求項1乃至4のいずれか一項に記載の情報処理装置。
  6. 前記マスク処理部は、前記第2の抽出部により以前に撮影された画像から抽出された領域に対応する前記現画像における領域に、マスク処理を行う、
    ことを特徴とする請求項1乃至のいずれか一項に記載の情報処理装置。
  7. 前記マスク処理部は、複数のマイクを用いて音源が位置する方向を推定し、推定した方向以外の領域に、マスク処理を行う、
    ことを特徴とする請求項1乃至のいずれか一項に記載の情報処理装置。
  8. 前記マスク処理部は、前記現画像と、登録している画像とをマッチングし、前記現画像における前記登録している画像と一致する領域に、マスク処理を行う、
    ことを特徴とする請求項1乃至のいずれか一項に記載の情報処理装置。
  9. 前記マスク処理部は、前記第2の画像データを用いて、前記現画像における、前記第2の抽出部により抽出された領域にマスク処理を行う、
    ことを特徴とする請求項1乃至のいずれか一項に記載の情報処理装置。
  10. 情報処理装置が、
    現在撮影された現画像と、以前に撮影された画像に基づく比較用画像とが重なり合う領域を、前記現画像と前記比較用画像とのそれぞれを前記情報処理装置が撮影する際の前記情報処理装置の相対位置に基づいて算出し、前記現画像における前記比較用画像と重なる領域の第1の画像データと、前記比較用画像における前記現画像と重なる領域の第2の画像データを抽出するステップと、
    前記第1の画像データと前記第2の画像データとを比較し、前記第1の画像データにおける前記第2の画像データから変化した領域を抽出するステップと、
    前記現画像における、前記変化した領域を抽出するステップにより抽出された領域にマスク処理を行うステップと、
    を実行することを特徴とする情報処理方法。
  11. 情報処理装置に、
    現在撮影された現画像と、以前に撮影された画像に基づく比較用画像とが重なり合う領域を、前記現画像と前記比較用画像とのそれぞれを前記情報処理装置が撮影する際の前記情報処理装置の相対位置に基づいて算出し、前記現画像における前記比較用画像と重なる領域の第1の画像データと、前記比較用画像における前記現画像と重なる領域の第2の画像データを抽出するステップと、
    前記第1の画像データと前記第2の画像データとを比較し、前記第1の画像データにおける前記第2の画像データから変化した領域を抽出するステップと、
    前記現画像における、前記変化した領域を抽出するステップにより抽出された領域にマスク処理を行うステップと、
    を実行させることを特徴とするプログラム。
JP2016040506A 2016-03-02 2016-03-02 情報処理装置、情報処理方法、及びプログラム Expired - Fee Related JP6736916B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016040506A JP6736916B2 (ja) 2016-03-02 2016-03-02 情報処理装置、情報処理方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016040506A JP6736916B2 (ja) 2016-03-02 2016-03-02 情報処理装置、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2017158065A JP2017158065A (ja) 2017-09-07
JP6736916B2 true JP6736916B2 (ja) 2020-08-05

Family

ID=59810313

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016040506A Expired - Fee Related JP6736916B2 (ja) 2016-03-02 2016-03-02 情報処理装置、情報処理方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6736916B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6725733B2 (ja) * 2018-07-31 2020-07-22 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置および電子機器
WO2020027233A1 (ja) 2018-07-31 2020-02-06 ソニーセミコンダクタソリューションズ株式会社 撮像装置及び車両制御システム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11331821A (ja) * 1998-05-11 1999-11-30 Toyo Commun Equip Co Ltd 監視システム
JP4514185B2 (ja) * 2003-10-03 2010-07-28 キヤノン株式会社 カメラサーバ装置及びその制御方法、並びにコンピュータプログラム
JP2005277856A (ja) * 2004-03-25 2005-10-06 National Univ Corp Shizuoka Univ 映像コンテンツ編集システム
CN104205803A (zh) * 2012-04-03 2014-12-10 索尼公司 图像处理设备,图像处理设备的控制方法和程序
US9124762B2 (en) * 2012-12-20 2015-09-01 Microsoft Technology Licensing, Llc Privacy camera

Also Published As

Publication number Publication date
JP2017158065A (ja) 2017-09-07

Similar Documents

Publication Publication Date Title
US11004214B2 (en) Image processing apparatus, image processing method, and storage medium
US20200311890A1 (en) Image fusion processing module
JP2004062565A (ja) 画像処理装置及び方法並びにプログラム記憶媒体
EP3093822B1 (en) Displaying a target object imaged in a moving picture
WO2021168804A1 (zh) 图像处理方法、图像处理装置和图像处理系统
CN111598777A (zh) 天空云图的处理方法、计算机设备和可读存储介质
CN109726613B (zh) 一种用于检测的方法和装置
JP2018088049A (ja) 画像処理装置、画像処理方法、及びプログラム
JP6736916B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US20240205363A1 (en) Sliding Window for Image Keypoint Detection and Descriptor Generation
JP5247338B2 (ja) 画像処理装置及び画像処理方法
JP6564136B2 (ja) 画像処理装置、画像処理方法、および、プログラム
JP6406044B2 (ja) カメラ校正ユニット、カメラ校正方法、およびカメラ校正プログラム
JP5560722B2 (ja) 画像処理装置、画像表示システム、および画像処理方法
CN111885371A (zh) 图像遮挡检测方法、装置、电子设备和计算机可读介质
US20230016350A1 (en) Configurable keypoint descriptor generation
JP6777507B2 (ja) 画像処理装置および画像処理方法
US11810266B2 (en) Pattern radius adjustment for keypoint descriptor generation
JPWO2008081527A1 (ja) 認証装置および携帯端末装置、並びに認証方法
JP6600090B2 (ja) 画像処理装置、画像処理方法、および、プログラム
JP2021005798A (ja) 撮像装置、撮像装置の制御方法およびプログラム
CN115278071B (zh) 图像处理方法、装置、电子设备和可读存储介质
JP2012221002A (ja) ユーザ検知装置、ユーザ検知方法、およびユーザ検知プログラム
JP6525693B2 (ja) 画像処理装置及び画像処理方法
JP2014143630A (ja) 画像処理システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191001

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200629

R151 Written notification of patent or utility model registration

Ref document number: 6736916

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees