JP2021077996A - Image processing device and image processing method - Google Patents
Image processing device and image processing method Download PDFInfo
- Publication number
- JP2021077996A JP2021077996A JP2019203267A JP2019203267A JP2021077996A JP 2021077996 A JP2021077996 A JP 2021077996A JP 2019203267 A JP2019203267 A JP 2019203267A JP 2019203267 A JP2019203267 A JP 2019203267A JP 2021077996 A JP2021077996 A JP 2021077996A
- Authority
- JP
- Japan
- Prior art keywords
- concealment
- image
- unit
- detected
- specific part
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000000034 method Methods 0.000 claims abstract description 112
- 238000001514 detection method Methods 0.000 claims abstract description 82
- 230000008569 process Effects 0.000 claims description 101
- 238000003709 image segmentation Methods 0.000 claims description 40
- 238000002372 labelling Methods 0.000 claims description 2
- 238000013480 data collection Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 7
- 238000010801 machine learning Methods 0.000 description 5
- 230000008685 targeting Effects 0.000 description 5
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 238000010422 painting Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000005429 filling process Methods 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像処理装置および画像処理方法に関する。 The present invention relates to an image processing apparatus and an image processing method.
従来、カメラで撮影した撮影画像に映る被写体のプライバシーを保護する技術が知られる。例えば、特許文献1には、画像取得部と、人数・人流推定部と、プライバシーレベル設定部と、画像加工部と、を備える画像処理装置が開示される。
Conventionally, a technique for protecting the privacy of a subject reflected in a photographed image taken by a camera is known. For example,
特許文献1の画像処理装置において、画像取得部は画像を取得する。人数・人流推定部は、画像取得部にて取得された画像を入力として、その画像に含まれる群衆の頭部位置に対応した密度分布と当該密度分布に基づく群衆を構成する人数とを推定する。プライバシーレベル設定部は、複数の被写体のプライバシーを保護するために行う画像加工の度合いを表すプライバシーレベルを設定する。画像加工部は、画像取得部により取得された画像を入力として、人数・人流推定部による推定の結果を基に、プライバシーレベルに応じた加工処理を行う。特許文献1の画像処理装置によれば、人数・人流推定部による推定の結果が用いられるために、混雑状況化でも頭部の検出漏れが少なく、被写体の秘匿処理を適切に行うことができる。
In the image processing apparatus of
ところで、例えば、撮影画像中において検知したい対象物のサイズが小さい等、対象物の特徴が検出できない場合には、混雑状況等に関係なく、検知したい対象物の検知に失敗することがある。顔等の個人を特定することができる対象物の検知に失敗すると、顔等を秘匿化する処理に漏れが生じる可能性があり、問題となる。 By the way, when the feature of the object cannot be detected, for example, the size of the object to be detected is small in the captured image, the detection of the object to be detected may fail regardless of the congestion situation or the like. If the detection of an object that can identify an individual such as a face fails, there is a possibility that the process of concealing the face or the like may be leaked, which causes a problem.
また、撮影画像において秘匿化を行う範囲が広くなり過ぎると、撮影画像から抽出できる情報が減る。このために、撮影画像に対する過剰な秘匿化は避けることが望まれる。 Further, if the range of concealment in the captured image becomes too wide, the information that can be extracted from the captured image decreases. For this reason, it is desirable to avoid excessive concealment of captured images.
本発明は、上記の課題に鑑み、撮影画像に対して行われる個人情報の保護のための秘匿化を適切に行うことができる技術を提供することを目的とする。 In view of the above problems, an object of the present invention is to provide a technique capable of appropriately concealing a photographed image for protection of personal information.
上記目的を達成するために本発明の画像処理装置は、取得した撮影画像から、個人情報を保護する秘匿化が必要な特定部位を含む物体および前記特定部位を検知可能に設けられる検知部と、前記検知部の検知結果に基づき、前記撮影画像に対して前記秘匿化のための秘匿化処理を行う秘匿化部と、を備え、前記秘匿化処理は、前記物体および前記特定部位の両方を検知した場合と、前記物体および前記特定部位のうち前記物体のみを検知した場合とで異なる構成(第1の構成)になっている。 In order to achieve the above object, the image processing apparatus of the present invention includes an object including a specific part that needs to be concealed to protect personal information and a detection unit provided so as to be able to detect the specific part from the acquired captured image. Based on the detection result of the detection unit, the captured image is provided with a concealment unit that performs concealment processing for concealment, and the concealment processing detects both the object and the specific portion. The configuration is different (first configuration) depending on whether the object is detected or only the object is detected among the object and the specific portion.
また、上記第1の構成の画像処理装置において、前記秘匿化処理は、前記物体および前記特定部位の両方を検知した場合には、前記特定部位を対象として前記秘匿化を行う第1秘匿化処理であり、前記物体および前記特定部位のうち前記物体のみを検知した場合には、前記物体を対象として前記秘匿化を行う第2秘匿化処理である構成(第2の構成)が好ましい。 Further, in the image processing apparatus having the first configuration, when the concealment process detects both the object and the specific portion, the concealment process performs the concealment targeting the specific portion. Therefore, when only the object is detected among the object and the specific portion, a configuration (second configuration) that is a second concealment process for concealing the object is preferable.
また、上記第2の構成の画像処理装置は、取得した前記撮影画像に対してピクセル毎に意味をラベル付けする画像セグメンテーションを行う画像セグメンテーション部を更に備え、前記第2秘匿化処理は、前記画像セグメンテーションにより得られる前記物体の領域を、前記物体の特徴を削減した画像とする処理である構成(第3の構成)であってよい。 Further, the image processing apparatus having the second configuration further includes an image segmentation unit that performs image segmentation for labeling the meaning of each pixel of the acquired image, and the second concealment process is the image. It may be a configuration (third configuration) in which the region of the object obtained by segmentation is processed into an image in which the characteristics of the object are reduced.
また、上記第3の構成の画像処理装置において、前記物体の特徴を削減した画像には、前記画像セグメンテーションの際に生成された画像が適用される構成(第4の構成)であることが好ましい。 Further, in the image processing apparatus having the third configuration, it is preferable that the image generated during the image segmentation is applied to the image in which the characteristics of the object are reduced (fourth configuration). ..
また、上記第1から第4のいずれかの構成の画像処理装置において、前記秘匿化部は、前記撮影画像から得られる前記物体および前記特定部位のうちの少なくとも一方について、前記撮影画像から得られる特徴を反映しつつ前記秘匿化処理を行う構成(第5の構成)であることが好ましい。 Further, in the image processing apparatus having any of the first to fourth configurations, the concealment unit is obtained from the photographed image with respect to at least one of the object and the specific portion obtained from the photographed image. It is preferable that the configuration (fifth configuration) is such that the concealment processing is performed while reflecting the characteristics.
また、上記第1から第4のいずれかの構成の画像処理装置において、前記秘匿化部は、前記撮影画像における前記物体および前記特定部位のうちの少なくとも一方について、復号可能に暗号化することにより前記秘匿化を行う構成(第6の構成)であってよい。 Further, in the image processing apparatus having any of the first to fourth configurations, the concealment unit decryptively encrypts at least one of the object and the specific portion in the captured image. It may be the configuration (sixth configuration) for concealment.
また、上記目的を達成するために本発明の画像処理方法は、取得した撮影画像から、個人情報を保護する秘匿化が必要な特定部位を含む物体および前記特定部位の検知を試みる検知工程と、前記検知工程の検知結果に基づき、前記撮影画像に対して前記秘匿化のための秘匿化処理を行う秘匿化工程と、を備え、前記秘匿化処理は、前記物体および前記特定部位の両方を検知した場合と、前記物体および前記特定部位のうち前記物体のみを検知した場合とで異なる構成(第7の構成)になっている。 Further, in order to achieve the above object, the image processing method of the present invention includes a detection step of attempting to detect an object including a specific part that needs to be concealed to protect personal information and the specific part from the acquired photographed image. Based on the detection result of the detection step, the captured image is provided with a concealment process for performing the concealment process for concealment, and the concealment process detects both the object and the specific part. The configuration is different (seventh configuration) depending on whether the object is detected or only the object is detected among the object and the specific portion.
本発明によれば、撮影画像に対して行われる個人情報の保護のための秘匿化を適切に行うことができる。 According to the present invention, it is possible to appropriately conceal the photographed image for the protection of personal information.
以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。以下においては、本発明が車両に利用される場合を例に説明するが、本発明は車両以外のものにも広く適用できる。 Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. In the following, the case where the present invention is used for a vehicle will be described as an example, but the present invention can be widely applied to other than vehicles.
<1.個人情報保護システム>
図1は、本発明の実施形態に係る個人情報保護システム100の構成を示す図である。個人情報保護システム100は、車両用装置1とデータ収集装置2とを備える。
<1. Personal information protection system >
FIG. 1 is a diagram showing a configuration of a personal
車両用装置1は、車両に搭載して使用される端末装置である。車両は、例えば、自動車、オートバイ、電車、無人搬送車等の車輪を有する乗り物である。車両には、カメラを含む各種のセンサが搭載される。車両用装置1は、各種のセンサから各種のデータを取得する。各種のデータには、カメラで撮影された撮影画像の他に、例えば、車両の速度、車両の位置、車両の特定位置の通過時間等が含まれてよい。
The
なお、車両用装置1は、例えば、ドライブレコーダやナビゲーション装置によって兼用されてよい。ただし、車両用装置1は、ドライブレコーダやナビゲーション装置とは別の装置であってもよい。また、車両用装置1は、車載装置であってもよいし、車両の乗員が持ち運ぶことができる携帯端末であってもよい。車両用装置1が携帯端末である場合、車両用装置1は、例えばスマートフォンやタブレット等であってよい。
The
データ収集装置2は、例えばインターネットや携帯電話回線網などのネットワーク(不図示)を介して車両用装置1と通信可能に設けられる。データ収集装置2は、例えば、ネットワークを介したクラウドサービスを提供するクラウドサーバとして構成される。データ収集装置2は、データ利用者(不図示)からデータの収集要求を受け付けるとともに、受け付けた収集要求に基づいて車両用装置1から収集したデータをデータ利用者に提供する。なお、データ収集装置2は、通常、複数台の車両用装置1と通信可能に設けられ、各車両用装置1からデータを収集する。
The data collection device 2 is provided so as to be able to communicate with the
図1に示すように、車両用装置1は、個人情報保護処理部11を備える。個人情報保護処理部11は、車両に搭載される各種のセンサから得られたデータに含まれる個人情報について、個人を特定することができない状態とする保護処理を行う。車両用装置1は、各種のデータについて、適宜、個人情報を保護する保護処理を行ってデータ収集装置2に送信する。
As shown in FIG. 1, the
なお、個人情報は、原則として、特定の個人を特定できる情報のことであるが、本明細書において、個人情報はプライバシーと同義で用いられてよい。個人情報には、例えば、カメラによって撮影された撮影画像に含まれる人の顔、車のナンバープレート、車両が通過した場所を特定できる地点名標識等が含まれる。また、個人情報には、撮影画像に含まれる情報に限らず、車両識別番号(VIN:Vehicle Identification Number)や、各種の時間等が含まれてよい。個人情報には、車両用装置1が搭載される車両の乗員に関する個人情報と、車両用装置1が搭載される車両外に存在する人に関する個人情報との両方、又は、いずれか一方だけが含まれてよい。
In principle, personal information is information that can identify a specific individual, but in this specification, personal information may be used synonymously with privacy. Personal information includes, for example, a person's face included in a photographed image taken by a camera, a vehicle license plate, a point name sign that can identify a place where the vehicle has passed, and the like. Further, the personal information is not limited to the information included in the photographed image, and may include a vehicle identification number (VIN: Vehicle Identification Number), various times, and the like. The personal information includes personal information about the occupants of the vehicle on which the
個人情報保護処理部11による個人情報の保護方法としては、例えば、撮影画像の解像度を低下させる処理、撮影画像の全体又は一部を暗号化する処理、文字や数字データを暗号化する処理、撮影画像内の不要な情報(個人情報を含む)を全てマスクする処理等が挙げられる。なお、暗号化を行う場合は、データ収集装置2側において復号化を行える構成であることが好ましい。 As a method of protecting personal information by the personal information protection processing unit 11, for example, a process of lowering the resolution of the photographed image, a process of encrypting the whole or a part of the photographed image, a process of encrypting character or numerical data, and a process of photographing. Examples include processing for masking all unnecessary information (including personal information) in the image. When performing encryption, it is preferable that the data collection device 2 has a configuration in which decryption can be performed.
本実施形態では、個人情報保護処理部11は、取得した撮影画像について、車両用装置1に含まれる後述の画像処理装置3、3A(図2、図8参照)により個人情報を保護する保護処理を行う。個人情報保護処理部11は、車両識別番号等の撮影画像以外から検出された個人情報については、暗号化手段によって暗号化を行う。車両用装置1は、個人情報保護処理部11によって保護処理を行ったデータについて、送信部12を介してデータ収集装置2に送信する。
In the present embodiment, the personal information protection processing unit 11 protects the acquired captured image by the
図1に示すように、データ収集装置2は、個人情報管理部21を備える。個人情報管理部21は、車両用装置1の送信部12からデータを受信する受信部22を介して各種のデータを取得し、当該各種のデータの個人情報を管理する。個人情報管理部21は、取得したデータを個人が特定されないように加工して記憶部23に記憶させる。記憶部23に記憶されたデータは、上述のデータ利用者によって利用される。
As shown in FIG. 1, the data collection device 2 includes a personal information management unit 21. The personal information management unit 21 acquires various data via the receiving
なお、本実施形態では、車両用装置1において個人情報を保護する保護処理が行われるが、これに限定されず、データ収集装置2側にて個人情報を保護する保護処理が行われてもよい。この場合には、後述の画像処理装置3、3Aは、データ収集装置2側に含まれる。ただし、個人情報を保護する処理を行う画像処理装置3、3Aは、サーバとして構成されるデータ収集装置2ではなく、データを送信する車両用装置1側に含まれることが好ましい。また、データ収集装置2にデータを送信する装置は、車両用装置1ではなく、例えば監視カメラを備える商業施設、駅、駐車場等に設置される端末装置等であってよい。
In the present embodiment, the
<2.画像処理装置>
(2−1.第1実施形態)
[2−1−1.画像処理装置の構成]
図2は、本発明の第1実施形態に係る画像処理装置3の構成を示す図である。なお、図2においては、第1実施形態の画像処理装置3の特徴を説明するために必要な構成要素のみが示されており、一般的な構成要素についての記載は省略されている。また、図2には、理解を容易とするために画像処理装置3とは別の構成要素であるカメラ4も示されている。図2に示すように、画像処理装置3は、取得部31と、制御部32と、記憶部33と、を備える。
<2. Image processing device>
(2-1. First Embodiment)
[2-1-1. Image processing device configuration]
FIG. 2 is a diagram showing a configuration of an
取得部31は、撮影画像を取得する。本実施形態では、取得部31は、車両に搭載されるカメラ4からアナログ又はデジタルの撮影画像を所定の周期(例えば、1/30秒周期)で時間的に連続して取得する。取得部31によって取得される撮影画像の集合体がカメラ4で撮影された動画像である。取得した撮影画像がアナログの場合には、取得部31は、そのアナログの撮影画像をデジタルの撮影画像に変換(A/D変換)する。取得部31は、取得した撮影画像(A/D変換が行われた場合は変換後の画像)を制御部32に出力する。
The
なお、カメラ4は、例えば車両の前方や後方等、車両の周囲を監視するカメラである。ただし、カメラ4は、例えば、車両の室内を撮影するカメラであってもよい。 The camera 4 is a camera that monitors the surroundings of the vehicle, such as the front and the rear of the vehicle. However, the camera 4 may be, for example, a camera that photographs the interior of the vehicle.
制御部32は、画像処理装置3の全体を統括的に制御するコントローラである。制御部32は、例えば、ハードウェアプロセッサであるCPU(Central Processing Unit)、RAM(Random Access Memory)、および、ROM(Read Only Memory)等を含むコンピュータとして構成される。
The
記憶部33は、例えば、RAMやフラッシュメモリ等の半導体メモリ素子、ハードディスク、或いは、光ディスク等の可搬型の記録媒体を用いる記憶装置等で構成される。記憶部33は、ファームウェアとしてのプログラムや各種のデータを記憶する。本実施形態では、記憶部33は、物体の検知を可能とする学習済みモデル331を記憶する。学習済みモデル331は、例えばディープニューラルネットワーク(DNN:Deep Neural Network)等の機械学習のアルゴリズムにより学習を行うことで得られる。学習済みモデル331は、例えば教師あり学習により得られてよい。
The
図2に示す、検知部321および秘匿化部322は、制御部32のCPUが記憶部33に記憶されるプログラムに従って演算処理を実行することにより実現される制御部32の機能である。換言すると、画像処理装置3は、検知部321と、秘匿化部322と、を備える。
The
なお、制御部32の検知部321および秘匿化部322の少なくともいずれか1つは、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、GPU(Graphics Processing Unit)等のハードウェアで構成されてもよい。また、検知部321および秘匿化部322は、概念的な構成要素である。1つの構成要素が実行する機能を複数の構成要素に分散させたり、複数の構成要素が有する機能を1つの構成要素に統合させたりしてよい。また、取得部31は、制御部32のCPUがプログラムに従って演算処理を行うことによって実現される構成としてもよい。また、画像処理装置3の具体的なハードウェア構成に関して、実施の形態に応じて、適宜、構成要素の省略、置換、又は、追加を行ってよい。例えば、制御部32は、複数のハードウェアプロセッサを含んでもよい。
At least one of the
検知部321は、取得した撮影画像から、個人情報を保護する秘匿化が必要な特定部位を含む物体および前述の特定部位を検知可能に設けられる。本実施形態では、検知部321は、記憶部33に記憶される学習済みモデル331を用いて、秘匿化が必要な特定部位を含む所定の物体、および、所定の物体の特定部位を、撮影画像から検知する。検知部321は、取得部31から取得した撮影画像の解像度を低下させた低解像度画像を用いて、学習済みモデル331による物体検知を行うことが好ましい。これにより、検知部321における物体検知処理の処理負担を低減することができる。
The
所定の物体としては、例えば、人、自動車等の車両、および、信号機の近傍等に設けられる場所を特定する地点名標識等が挙げられる。特定部位は、特定の個人を特定したり、個人のプライバシーを推定したりすることを可能とする部位である。所定の物体が人である場合、特定部位は例えば顔である。所定の物体が車両である場合、特定部位は例えばナンバープレートである。所定の物体が地点名標識である場合、特定部位は例えば標識の文字部分である。なお、所定の物体に、複数の特定部位が含まれてもよい。また、所定の物体には、複数種類の物体が含まれてよい。検知部321に検知可能に設けられる所定の物体には、人および車両のうち、少なくとも一方が含まれることが好ましい。
Examples of the predetermined object include a person, a vehicle such as an automobile, a point name sign for specifying a place provided in the vicinity of a traffic light, and the like. A specific part is a part that makes it possible to identify a specific individual and estimate the privacy of an individual. When a predetermined object is a person, the specific part is, for example, a face. When the predetermined object is a vehicle, the specific part is, for example, a license plate. When a predetermined object is a point name sign, the specific part is, for example, a character part of the sign. In addition, a predetermined object may include a plurality of specific parts. Further, the predetermined object may include a plurality of types of objects. It is preferable that the predetermined object detectably provided in the
学習済みモデル331は、DNNを用いて物体および特定部位を検知する構成が好ましい。ただし、学習済みモデル331は、例えば、HOG(Histogram Of Gradient)特徴量を利用したSVM(Support Vector Machine)等の他の機械学習のアルゴリズムにより物体および特定部位を検知する構成であってもよい。また、検知部321は、機械学習を行った学習済みモデル331を使用することなく、例えば、テンプレートマッチング等を用いて物体および特定部位を検知する構成であってもよい。
The trained
秘匿化部322は、検知部321の検知結果に基づき、撮影画像に対して秘匿化のための秘匿化処理を行う。秘匿化処理は、個人情報を保護するために撮影画像(データ)を加工する処理である。秘匿化処理は、物体(特定部位を含む)および特定部位の両方を検知した場合と、物体(特定部位を含む)および特定部位のうち物体のみを検知した場合とで異なる。すなわち、秘匿化部322は、物体および特定部位の両方を検知した場合と、物体および特定部位のうち物体のみを検知した場合とで秘匿化の仕方を変更する。例えば、車両とナンバープレートとの両方を検知した場合と、ナンバープレートは検知できず車両のみを検知した場合とでは、秘匿化処理の仕方が変更される。
The
本構成によれば、個人情報の保護が必要である特定部位を検知できた場合に、秘匿化の範囲が過剰になることを抑制して特定部位の秘匿化を図ることができる。また、特定部位を検知できなかった場合でも、特定部位を含む物体を検知できた場合には、特定部位を検知できた場合と異なる手法で秘匿化処理を行うことができるために、個人情報の保護のための秘匿化処理に漏れが生じる可能性を低減することができる。 According to this configuration, when a specific part for which personal information needs to be protected can be detected, it is possible to prevent the range of concealment from becoming excessive and conceal the specific part. In addition, even if a specific part cannot be detected, if an object containing the specific part can be detected, the concealment process can be performed by a method different from the case where the specific part can be detected. It is possible to reduce the possibility of omission in the concealment process for protection.
なお、特定部位は物体の一部の要素であり、特定部位を検知できる場合は、通常、特定部位を含む物体も検知できる。すなわち、特定部位を含む物体および特定部位のうち特定部位のみが検知される状態は、生じる可能性が少ない。仮に、このような状態が生じた場合には、物体と特定部位との両方を検知できた場合と同様の秘匿化処理を行えばよい。これにより、個人情報を保護することができる。また、物体および特定部位の両方を検知できない場合には、個人情報を保護する対象がなく、秘匿化処理は行われない。 The specific part is a part of the object, and when the specific part can be detected, the object including the specific part can usually be detected. That is, it is unlikely that an object including a specific part and a state in which only a specific part is detected among the specific parts will occur. If such a state occurs, the same concealment processing as in the case where both the object and the specific part can be detected may be performed. As a result, personal information can be protected. In addition, if both the object and the specific part cannot be detected, there is no object to protect personal information and the concealment process is not performed.
詳細には、秘匿化部322により行われる秘匿化処理は、物体および特定部位の両方を検知した場合には、特定部位を対象として秘匿化を行う第1秘匿化処理である。第1秘匿化処理は、撮影画像中における物体全体のうち、特定部位に絞って秘匿化を行う処理である。例えば、第1秘匿化処理は、撮影画像中における車両全体のうちナンバープレートに絞って秘匿化を行う処理である。第1秘匿化処理は、例えば、特定部位を一つの色で塗りつぶす処理であってよい。また、第1秘匿化処理は、例えば、特定部位をぼかしたり、特定部位にモザイクを施したりする処理であってもよい。
Specifically, the concealment process performed by the
なお、第1秘匿化処理によって秘匿化が行われる範囲は、特定部位の検知範囲と完全に一致してもよいが、完全に一致しなくてもよい。特定部位の秘匿化処理により、個人情報の保護が図れればよい。第1秘匿化処理によって秘匿化が行われる範囲は、特定部位の検知範囲より広くすることが好ましい。これにより、特定部位の検知範囲の誤差を考慮して適切に個人情報の保護を図ることができる。 The range of concealment performed by the first concealment process may or may not completely match the detection range of the specific portion. It suffices to protect personal information by concealing a specific part. It is preferable that the range of concealment performed by the first concealment process is wider than the detection range of a specific part. As a result, personal information can be appropriately protected in consideration of an error in the detection range of a specific part.
秘匿化部322により行われる秘匿化処理は、物体および特定部位のうち物体のみを検知した場合には、物体を対象として秘匿化を行う第2秘匿化処理である。第2秘匿化処理は、撮影画像中における物体全体に対して秘匿化を行う処理である。例えば、第2秘匿化処理は、撮影画像から車両を検知できたがナンバープレートを検知できなかった場合に、撮影画像中における車両全体を秘匿化する処理である。第2秘匿化処理は、例えば、撮影画像中における物体全体を一つの色で塗りつぶす処理であってよい。また、第2秘匿化処理は、例えば、撮影画像中における物体全体をぼかしたり、物体全体にモザイクを施したりする処理であってもよい。
The concealment process performed by the
なお、第2秘匿化処理によって秘匿化が行われる範囲は、物体の検知範囲と完全に一致してもよいが、完全に一致しなくてもよい。物体の秘匿化処理により、個人情報の保護が図れればよい。第2秘匿化処理によって秘匿化が行われる範囲は、物体の検知範囲より広くすることが好ましい。これにより、物体の検知範囲の誤差を考慮して適切に個人情報の保護を図ることができる。 The range of concealment performed by the second concealment process may or may not completely match the detection range of the object. It suffices to protect personal information by concealing the object. It is preferable that the range of concealment performed by the second concealment process is wider than the detection range of the object. As a result, personal information can be appropriately protected in consideration of an error in the detection range of the object.
本実施形態では、画像処理装置3は、個人情報の保護が必要な特定部位を検知できた場合には、当該特定部分に絞って秘匿化を行う。このために、過剰に撮影画像に加工が加えられることを抑制して、物体に関する情報が過剰に削減されることを抑制することができる。一方で、本実施形態によれば、特定部位を検知できなかった場合でも、特定部位を含む物体を検知できた場合には、物体全体を対象として秘匿化を行うために、特定部位の秘匿化に漏れが生じる可能性を低減することができる。
In the present embodiment, when the
[2−1−2.画像処理装置の動作例]
図3は、本発明の第1実施形態に係る画像処理装置3の動作例を示すフローチャートである。なお、画像処理装置3は、例えば、取得部31により撮影画像が取得される毎に図3に示すフローチャートの動作を行う。
[2-1-2. Image processing device operation example]
FIG. 3 is a flowchart showing an operation example of the
ステップS1では、取得部31がカメラ4より撮影画像を取得する。取得部31は、例えば、図4に示すような撮影画像を取得する。図4に示す撮影画像には、道路Rの脇に配置される壁Wに沿って二人の人H1、H2が歩いている様子が映っている。取得部31が撮影画像を取得すると、次のステップS2に処理が進められる。
In step S1, the
ステップS2では、検知部321が物体検知処理を行う。詳細には、検知部321は、学習済みモデル331を利用して、所定の物体および所定の物体に含まれる特定部位の検知を試みる。例えば、所定の物体が人である場合、検知部321は、撮影画像に含まれる人および顔の検知を試みる。物体検知処理が完了すると、ステップS3に処理が進められる。
In step S2, the
図5は、図4に示す撮影画像に対する検知部321の検知結果を例示する図である。図5において、太枠B1〜B3はバウンディングボックスである。検知部321は、各バウンディングボックスB1〜B3内の物体に対して分類を完了している。図5に示す例では、検知部321は、撮影画像中の人H1(バウンディングボックスB1)を検知することはできているが、人H1の顔まで検知することはできていない。本例では、例えば人H1が下を向いていること等が原因となって、顔の特徴が認識されず、人H1の顔が検知できなかったと考えられる。検知部321は、撮影画像中の人H2については、人(バウンディングボックスB2)および顔(バウンディングボックスB3)の検知ができている。
FIG. 5 is a diagram illustrating the detection result of the
ステップS3では、秘匿化部322により、検知部321が所定の物体を検知したか否かが判断される。例えば、所定の物体が人である場合、撮影画像から人が検知されたか否かが判断される。所定の物体が検知されていると判断された場合(ステップS3でYes)、ステップS4に処理が進められる。一方、所定の物体が検知されていないと判断された場合(ステップS3でNo)、図3にフローチャートで示される処理が一旦終了される。なお、図3に示す例では、所定の物体が検知されることなく特定部位のみが検知されるという事態は生じないことを前提としている。
In step S3, the
図5に示す例では、人H1および人H2の両方について人の検知ができている。このために、図5に示す例では、ステップS4に処理が進められる。 In the example shown in FIG. 5, a person can be detected for both the person H1 and the person H2. Therefore, in the example shown in FIG. 5, the process proceeds to step S4.
ステップS4では、秘匿化部322により、検知部321が所定の物体に含まれる特定部位を検知したか否かが判断される。例えば、検知部321で検知された物体が人である場合、撮影画像から特定部位である顔が検知されたか否かが判断される。特定部位が検知されていると判断された場合(ステップS4でYes)、ステップS5に処理が進められる。一方、特定部位が検知されていないと判断された場合(ステップS4でNo)、ステップS6に処理が進められる。
In step S4, the
なお、ステップS4では、ステップS2において所定の物体が複数検知されている場合には、各所定の物体に対して特定部位が検知されている否かが判断される。すなわち、検知された各物体に対して、ステップS5とステップS6とのうちのいずれに処理を進めればよいかが判断される。 In step S4, when a plurality of predetermined objects are detected in step S2, it is determined whether or not a specific portion is detected for each predetermined object. That is, it is determined which of step S5 and step S6 should be performed for each of the detected objects.
図5に示す例では、人H1と人H2とが検知されているために、それぞれの人H1、H2に対して特定部位である顔が検知されたか否かが判断される。人H1については、顔が検知されていないために、ステップS6に処理を進めると判断される。人H2については、顔が検知されているために、ステップS5に処理を進めると判断される。 In the example shown in FIG. 5, since the person H1 and the person H2 are detected, it is determined whether or not the face, which is a specific part, is detected for each person H1 and H2. As for the person H1, since the face is not detected, it is determined that the process proceeds to step S6. Since the face of the person H2 is detected, it is determined that the process proceeds to step S5.
ステップS5では、秘匿化部322が、特定部位を対象とした第1秘匿化処理を行う。例えば、検知部321で検知された物体が人である場合、検知された顔を対象として第1秘匿化処理が行われる。第1秘匿化処理が完了すると、図3にフローチャートで示される処理が一旦終了される。
In step S5, the
ステップS6では、秘匿化部322が、所定の物体を対象とした第2秘匿化処理を行う。例えば、検知部321で検知された物体が人である場合、検知された人全体を対象として第2秘匿化処理が行われる。第2秘匿化処理が完了すると、図3にフローチャートで示される処理が一旦終了される。
In step S6, the
図6は、図5に示す検知結果に従って実行された秘匿化処理の結果を例示する図である。人H1に対しては、特定部位である顔が検知されていないので、ステップS6に処理が進められ、検知された人全体を対象とした秘匿化が行われている。図6に示す例では、人H1の検知を示すバウンディングボックスB1で囲まれた領域の全体に秘匿化のためのモザイクが施されている。一方、人H2に対しては、特定部位である顔が検知されているので、ステップS5に処理が進められ、検知された顔を対象とした秘匿化が行われている。図6に示す例では、人H2の顔の検知を示すバウンディングボックスB3で囲まれた領域の全体に秘匿化のためのモザイクが施されている。 FIG. 6 is a diagram illustrating the result of the concealment processing executed according to the detection result shown in FIG. Since the face, which is a specific part, has not been detected for the person H1, the process proceeds to step S6, and concealment is performed for the entire detected person. In the example shown in FIG. 6, a mosaic for concealment is applied to the entire area surrounded by the bounding box B1 indicating the detection of the person H1. On the other hand, since the face which is a specific part is detected for the person H2, the process is advanced to step S5, and the detected face is concealed. In the example shown in FIG. 6, a mosaic for concealment is applied to the entire area surrounded by the bounding box B3 indicating the detection of the face of the person H2.
なお、秘匿化のためのモザイク処理に替えて、例えばぼかし処理や塗りつぶし処理が行われてよい。また、秘匿化のための処理は、例えば、バウンディングボックスB1、B3で囲まれた領域より少し広めの範囲に施されてよい。 In addition, instead of the mosaic process for concealment, for example, a blurring process or a filling process may be performed. Further, the process for concealment may be performed in a slightly wider range than the area surrounded by the bounding boxes B1 and B3, for example.
[2−1−3.変形例]
図7は、秘匿化部322が行う秘匿化処理の変形例について説明するための図である。図7は、秘匿化処理が施された撮影画像を示す図である。なお、図7に示す例では、上述の図6と同様に、人H1には検知された人全体を対象とする秘匿化処理(第2秘匿化処理)が行われ、人H2には特定部位(顔)を対象とする秘匿化処理(第1秘匿化処理)が行われている。
[2-1-3. Modification example]
FIG. 7 is a diagram for explaining a modification of the concealment process performed by the
秘匿化部322は、秘匿化処理を行うにあたって、撮影画像から得られる物体(特定部位を含む)および特定部位のうちの少なくとも一方をCG(Computer Graphics)に置き換えてもよい。図7に示す例では、撮影画像から得られる特定部位(人H2の顔)のみがCGに置き換えられている。撮影画像から得られる物体(人H1)については、秘匿化のためにCGで置き換えるのではなくモザイクが施されている。ただし、撮影画像から得られる物体(人H1)についても、CGへの置き換えが行われてもよい。また、撮影画像から得られる物体(人H1)がCGで置き換えられ、特定部位(人H2の顔)に対してはCGへの置き換えではなくモザイク等が施されてもよい。
In performing the concealment processing, the
また、秘匿化部322は、撮影画像から得られる物体(特定部位を含む)および特定部位のうちの少なくとも一方について、撮影画像から得られる特徴を反映しつつ秘匿化処理を行ってよい。これにより、個人情報の保護を行いつつ、撮影画像から得られる情報の量が低減することを抑制することができる。
In addition, the
図7に示す例では、撮影画像から得られる特定部位(人H2の顔)のみに対して、撮影画像から得られる特徴を反映しつつ秘匿化処理が行われている。撮影画像から得られる物体(人H1)については、単に、秘匿化のためのモザイクが施されている。ただし、撮影画像から得られる物体(人H1)についても、撮影画像から得られる特徴を反映しつつ秘匿化処理が行われてよい。また、撮影画像から得られる物体(人H1)について、撮影画像から得られる特徴を反映しつつ秘匿化処理が行われ、特定部位(人H2の顔)については、単にモザイク等が施される構成としてもよい。 In the example shown in FIG. 7, the concealment processing is performed only on the specific portion (face of the person H2) obtained from the photographed image while reflecting the features obtained from the photographed image. The object (human H1) obtained from the photographed image is simply mosaicked for concealment. However, the object (person H1) obtained from the photographed image may also be concealed while reflecting the features obtained from the photographed image. Further, the object (human H1) obtained from the photographed image is concealed while reflecting the features obtained from the photographed image, and the specific part (face of the person H2) is simply mosaicked or the like. May be.
撮影画像から得られる特徴は、例えば特定部位が顔である場合には、顔の向き、視線、表情、年齢層、性別等である。撮影画像から得られる特徴は、例えば特定部位を含む物体が人である場合には、年齢、性別等である。撮影画像から得られる特徴は、例えば特定部位を含む物体が車両である場合には、車両の種別(自動車、バイク等)、自動車の用途による種別(乗用車、トラック、バス、タクシー等)、自動車のボディ種別(セダン、ミニバン、ステーションワゴン等)等である。 The features obtained from the captured image are, for example, the orientation of the face, the line of sight, the facial expression, the age group, the gender, etc. when the specific part is the face. The features obtained from the captured image are, for example, age, gender, etc. when the object including the specific part is a person. The features obtained from the captured image are, for example, when the object including a specific part is a vehicle, the type of vehicle (automobile, motorcycle, etc.), the type according to the purpose of the automobile (passenger car, truck, bus, taxi, etc.), Body type (sedans, minivans, station wagons, etc.).
図7に示す例では、撮影画像から得られる表情(笑顔)が反映されたCGが使われている。表示の他に、例えば、人H1が女の子であることが検知されている場合には、撮影画像中の女の子の顔が、笑顔の女の子のCGに置き換えられてもよい。撮影画像から得られる特徴の検知には、例えばDNN等の機械学習のアルゴリズムやテンプレートマッチング等が利用されてよい。また、撮影画像から得られる特徴は、生体センサ等のカメラ以外のセンサから得られる情報を加味して検知されてもよい。 In the example shown in FIG. 7, CG reflecting the facial expression (smile) obtained from the captured image is used. In addition to the display, for example, when it is detected that the person H1 is a girl, the face of the girl in the captured image may be replaced with the CG of the smiling girl. Machine learning algorithms such as DNN, template matching, and the like may be used to detect features obtained from captured images. Further, the features obtained from the captured image may be detected by adding information obtained from a sensor other than the camera such as a biological sensor.
また、秘匿化部322は、撮影画像における物体(特定部位を含む)および特定部位のうちの少なくとも一方について、復号可能に暗号化することにより秘匿化を行ってよい。これによれば、例えば事件を解決するために撮影画像中の個人情報の確認が必要である等の特殊な事情が生じた場合に、暗号化された撮影画像に対して復号化を行うことにより個人情報を確認することが可能になる。
Further, the
例えば、車両用装置1にて暗号化が行われ、データ収集装置2側において、所定の条件を満たした場合に復号化が行われる。所定の条件は、例えば車両用装置1の乗員から許可を得た場合等である。暗号化方式には、例えば、公知の共通鍵暗号、公開鍵暗号、又は、共通鍵暗号と公開鍵暗号のハイブリッド方式等が使用されてよい。ハイブリッド方式では、例えば、共通鍵の受け渡しの際に公開鍵と秘密鍵を用いる公開鍵暗号が使用され、画像データの暗号化には共通鍵が使用される。なお、車両用装置1は、暗号化前のデータを保存してもよいし、暗号化後のデータを保存してもよい。
For example, the
(2−2.第2実施形態)
次に、第2実施形態に係る画像処理装置について説明する。第2実施形態の画像処理装置の説明に際して、第1実施形態と重複する部分については、特に説明の必要がない場合には説明を省略する。
(2-2. Second embodiment)
Next, the image processing apparatus according to the second embodiment will be described. In the description of the image processing apparatus of the second embodiment, the description of the portion overlapping with the first embodiment will be omitted unless it is particularly necessary to explain.
[2−2−1.画像処理装置の構成]
図8は、本発明の第2実施形態に係る画像処理装置3Aの構成を示す図である。なお、図8においては、第2実施形態の画像処理装置3Aの特徴を説明するために必要な構成要素のみが示されており、一般的な構成要素についての記載は省略されている。また、図8には、理解を容易とするために画像処理装置3Aとは別の構成要素であるカメラ4も示されている。図8に示すように、画像処理装置3Aは、取得部31と、制御部32Aと、記憶部33Aと、を備える。
[2-2-1. Image processing device configuration]
FIG. 8 is a diagram showing a configuration of an image processing device 3A according to a second embodiment of the present invention. Note that FIG. 8 shows only the components necessary for explaining the features of the image processing apparatus 3A of the second embodiment, and the description of general components is omitted. Further, FIG. 8 also shows a camera 4, which is a component different from the image processing device 3A, in order to facilitate understanding. As shown in FIG. 8, the image processing device 3A includes an
取得部31は、第1実施形態と同様であるために、その説明を省略する。
Since the
制御部32Aは、第1実施形態と同様に、画像処理装置3Aの全体を統括的に制御するコントローラである。制御部32Aは、例えば、CPU、RAM、および、ROM等を含むコンピュータとして構成される。ただし、制御部32Aは、第1実施形態と異なる機能を備える。この異なる点については、後述する。 The control unit 32A is a controller that comprehensively controls the entire image processing device 3A as in the first embodiment. The control unit 32A is configured as a computer including, for example, a CPU, a RAM, a ROM, and the like. However, the control unit 32A has a function different from that of the first embodiment. This difference will be described later.
記憶部33Aも、第1実施形態と同様の構成であるが、第1学習済みモデル331と第2学習済みモデル332とを記憶する点が第1実施形態と異なる。第1学習済みモデル331は、第1実施形態の学習済みモデル331と同様であり、物体検知に使用される。第2学習済みモデル332は、後述の画像セグメンテーションに使用される。第2学習済みモデル332は、例えばDNN等の機械学習のアルゴリズムにより学習を行うことで得られる。
The
図8に示す、検知部321、秘匿化部322、および、画像セグメンテーション部323は、制御部32AのCPUが記憶部33Aに記憶されるプログラムに従って演算処理を実行することにより実現される制御部32Aの機能である。換言すると、画像処理装置3Aは、検知部321と、秘匿化部322Aと、画像セグメンテーション部323と、を備える。
The
なお、制御部32Aの各部321、322A、323の少なくともいずれか1つは、ASIC、FPGA、GPU等のハードウェアで構成されてもよい。また、各部321、322A、323は、概念的な構成要素である。1つの構成要素が実行する機能を複数の構成要素に分散させたり、複数の構成要素が有する機能を1つの構成要素に統合させたりしてよい。
In addition, at least one of each
検知部321の構成は、第1実施形態と同様であるために、その説明を省略する。なお、検知部321は、第1学習済みモデル331を用いて、秘匿化が必要な特定部位を含む所定の物体、および、所定の物体の特定部位を、撮影画像から検知する。
Since the configuration of the
画像セグメンテーション部323は、取得部31で取得した撮影画像に対してピクセル毎に意味をラベル付けする画像セグメンテーションを行う。画像セグメンテーション部323は、記憶部33Aに記憶される第2学習済みモデル332を用いて、撮影画像に対して画像セグメンテーションを行う。画像セグメンテーションにより、撮影画像に含まれる複数の要素が区分される。
The
本実施形態では、一例として、画像セグメンテーションにより、特定部位を含む物体を他の物体等の要素に対して区分するレベルでセグメンテーションが行われ、特定部位を含む物体を構成する各要素を区分するレベルのセグメンテーションは行われない。画像セグメンテーションにより、特定部位を含む物体が画像中に占める領域を抽出することができる。 In the present embodiment, as an example, by image segmentation, segmentation is performed at a level of segmenting an object containing a specific part with respect to elements such as other objects, and at a level of classifying each element constituting the object including the specific part. No segmentation is done. By image segmentation, it is possible to extract the area occupied by an object including a specific part in the image.
なお、本実施形態では、検知部321による物体検知と、画像セグメンテーション部323による画像セグメンテーションとは並行して行われる。また、画像セグメンテーション部323は、取得部31から取得した撮影画像の解像度を低下させた低解像度画像を用いて、第2学習済みモデル332による画像セグメンテーションを行うことが好ましい。これにより、画像セグメンテーション部323における画像セグメンテーションの処理負担を低減することができる。検知部321による物体検知に用いられる低解像度画像と、画像セグメンテーションに用いられる低解像度画像とは同じ解像度でもよいが、互いに異なってもよい。例えば、画像セグメンテーションに用いられる低解像度画像の方が、物体検知に用いられる低解像度画像に比べて低解像度であってよい。
In the present embodiment, the object detection by the
秘匿化部322Aは、第1実施形態と同様に、検知部321の検知結果に基づき、特定部位を対象とする第1秘匿化処理と、特定部位を含む物体を対象とする第2秘匿化処理とを切り替えて行う。秘匿化部322Aが行う第1秘匿化処理は第1実施形態と同様である。ただし、秘匿化部322Aが行う第2秘匿化処理は第1実施形態と異なる。
Similar to the first embodiment, the
第2実施形態においては、第2秘匿化処理は、画像セグメンテーションにより得られる物体(特定部位を含む)の領域を、物体の特徴を削減した画像とする処理である。物体の特徴を削減した画像とは、例えば塗りつぶし画像、ぼかし画像、モザイク画像等である。このような構成によれば、特定部位を含む物体を対象として秘匿化を行う場合に、物体の形状をなるべく残して秘匿化を行うことができる。すなわち、秘匿化処理によって撮影画像から削減される情報量を低減しつつ、適切に個人情報保護のための秘匿化を行うことができる。本実施形態では、第2秘匿化処理は、撮影画像から得られる物体(特定部位を含む)の特徴を反映しつつ秘匿化処理を行っていると解釈することができる。 In the second embodiment, the second concealment process is a process of converting a region of an object (including a specific part) obtained by image segmentation into an image in which the characteristics of the object are reduced. The image in which the characteristics of the object are reduced is, for example, a filled image, a blurred image, a mosaic image, or the like. According to such a configuration, when concealing an object including a specific part, it is possible to conceal the object while leaving the shape of the object as much as possible. That is, it is possible to appropriately conceal personal information while reducing the amount of information reduced from the captured image by the concealment process. In the present embodiment, it can be interpreted that the second concealment process performs the concealment process while reflecting the characteristics of the object (including the specific part) obtained from the captured image.
なお、第2秘匿化処理によって秘匿化が行われる範囲は、画像セグメンテーションにより得られる物体(特定部位を含む)の領域と完全に一致していてもよいが、完全に一致していなくてもよい。第2秘匿化処理によって秘匿化が行われる範囲は、例えば、画像セグメンテーションにより得られる物体の領域より少し広めであってもよい。 The range of concealment performed by the second concealment process may or may not completely match the area of the object (including a specific part) obtained by image segmentation. .. The range of concealment performed by the second concealment process may be slightly wider than the area of the object obtained by, for example, image segmentation.
[2−2−2.画像処理装置の動作例]
図9は、本発明の第2実施形態に係る画像処理装置3Aの動作例を示すフローチャートである。第2実施形態の画像処理装置3Aの動作は、概ね第1実施形態の画像処理装置3の動作と同じであるため、異なる点を中心に説明する。
[2-2-2. Image processing device operation example]
FIG. 9 is a flowchart showing an operation example of the image processing device 3A according to the second embodiment of the present invention. Since the operation of the image processing device 3A of the second embodiment is substantially the same as the operation of the
まず、取得部31がカメラ4より撮影画像を取得する(ステップS1)。取得した撮影画像を用いて、検知部321による物体検知処理(所定の物体および特定部位の検知)と、画像セグメンテーション部323による画像セグメンテーションとが並行して行われる(ステップS2A)。
First, the
図10は、図4に示す撮影画像に対する画像セグメンテーションの結果を例示する図である。画像セグメンテーションにより、道路Rと、壁Wと、人Hとがクラス分けされている。図10に示す例では、クラス分けされた各要素R、W、Hは、塗りつぶしの色を変えて区別されている。なお、クラス分けされた各要素の区別は、塗りつぶしの色を変えるのではなく、例えば、ハッチングの種類を変えること等により行われてよい。 FIG. 10 is a diagram illustrating the result of image segmentation for the captured image shown in FIG. Road R, wall W, and person H are classified by image segmentation. In the example shown in FIG. 10, each of the classified elements R, W, and H is distinguished by changing the fill color. The classification of each element may be distinguished by, for example, changing the type of hatching, instead of changing the color of the fill.
検知部321による物体検知と、画像セグメンテーション部323による画像セグメンテーションとが完了すると、検知部321により所定の物体が検知されたか否かが判断される(ステップS3)。所定の物体が検知されなかった場合(ステップS3でNo)、図3にフローチャートで示される処理が一旦終了される。所定の物体が検知された場合(ステップS3でYes)、検知部321により所定の物体に含まれる特定部位が検知されたか否かが判断される(ステップS4)。なお、ステップS4では、ステップS2において所定の物体が複数検知されている場合には、各所定の物体に対して特定部位が検知されている否かが判断される。
When the object detection by the
特定部位が検知されている場合(ステップS4でYes)、当該特定部位を対象に第1秘匿化処理が行われる(ステップS5)。特定部位が検知されていない場合(ステップS4でNo)、当該特定部位を含む物体を対象に第2秘匿化処理が行われる(ステップS6)。第2秘匿化処理は、画像セグメンテーションの結果に基づき実行される。 When a specific part is detected (Yes in step S4), the first concealment process is performed on the specific part (step S5). When the specific part is not detected (No in step S4), the second concealment process is performed on the object including the specific part (step S6). The second concealment process is executed based on the result of image segmentation.
図11は、第2実施形態の画像処理装置3Aにおいて、図4に示す撮影画像が入力された場合の秘匿化処理結果を例示する図である。この例において、検知部321の検知結果は、第1実施形態の図5に示す結果と同じである。すなわち、人H1については、人として検知されているが、特定部位である顔の検知はできていない。人H2については、人および顔の検知ができている。
FIG. 11 is a diagram illustrating the result of concealment processing when the captured image shown in FIG. 4 is input in the image processing device 3A of the second embodiment. In this example, the detection result of the
図11において、人H1については、第2秘匿化処理が行われている。すなわち、取得部31で取得した撮影画像について、画像セグメンテーションにより得られた人H1の領域が、人の特徴を削減した画像(本例では塗りつぶし画像)にされている。これにより、人H1の大きさや姿勢等の情報を残しつつ、人H1の個人情報が秘匿化されている。
In FIG. 11, the second concealment process is performed on the person H1. That is, with respect to the captured image acquired by the
本例では、詳細には、人の特徴を削減した画像には、画像セグメンテーションの際に生成される画像(図10参照)が適用されている。すなわち、物体(特定部位を含む)の特徴を削減した画像には、画像セグメンテーションの際に生成される画像が適用されている。これによれば、例えばアルファブレンド等の画像合成手法を利用して、個人情報の秘匿化を行った画像を得ることができる。 In this example, in detail, an image generated during image segmentation (see FIG. 10) is applied to an image in which human features are reduced. That is, the image generated at the time of image segmentation is applied to the image in which the characteristics of the object (including a specific part) are reduced. According to this, it is possible to obtain an image in which personal information is concealed by using an image composition method such as alpha blending.
図11において、人H2については、第1秘匿化処理が行われている。図11に示す例では、検知部321により検知された特定部位(顔)の領域がCGに置換されている。ただし、特定部位の秘匿化には、例えば塗りつぶし、ぼかし、モザイク等が利用されてよい。
In FIG. 11, the first concealment process is performed on the person H2. In the example shown in FIG. 11, the region of the specific portion (face) detected by the
<3.留意事項等>
本明細書中に開示されている種々の技術的特徴は、上記実施形態のほか、その技術的創作の主旨を逸脱しない範囲で種々の変更を加えることが可能である。すなわち、上記実施形態は、全ての点で例示であって、制限的なものではないと考えられるべきであり、本発明の技術的範囲は、上記実施形態の説明ではなく、特許請求の範囲によって示されるものであり、特許請求の範囲と均等の意味及び範囲内に属する全ての変更が含まれると理解されるべきである。また、本明細書中に示される複数の実施形態及び変形例は可能な範囲で適宜組み合わせて実施されてよい。
<3. Points to note>
The various technical features disclosed herein can be modified in addition to the above embodiments without departing from the gist of the technical creation. That is, it should be considered that the above embodiments are exemplary in all respects and are not restrictive, and the technical scope of the present invention is not the description of the above embodiments but the claims. It is shown and should be understood to include all modifications that fall within the meaning and scope of the claims. In addition, a plurality of embodiments and modifications shown in the present specification may be appropriately combined and implemented to the extent possible.
3、3A・・・画像処理装置
321・・・検知部
322、322A・・・秘匿化部
323・・・画像セグメンテーション部
3, 3A ...
Claims (7)
前記検知部の検知結果に基づき、前記撮影画像に対して前記秘匿化のための秘匿化処理を行う秘匿化部と、
を備え、
前記秘匿化処理は、前記物体および前記特定部位の両方を検知した場合と、前記物体および前記特定部位のうち前記物体のみを検知した場合とで異なる、画像処理装置。 An object including a specific part that needs to be concealed to protect personal information and a detection unit provided so as to be able to detect the specific part from the acquired captured image.
Based on the detection result of the detection unit, the concealment unit that performs the concealment processing for concealing the captured image, and the concealment unit.
With
The image processing device is different in the case where both the object and the specific portion are detected and the case where only the object is detected among the object and the specific portion.
前記物体および前記特定部位の両方を検知した場合には、前記特定部位を対象として前記秘匿化を行う第1秘匿化処理であり、
前記物体および前記特定部位のうち前記物体のみを検知した場合には、前記物体を対象として前記秘匿化を行う第2秘匿化処理である、請求項1に記載の画像処理装置。 The concealment process is
When both the object and the specific part are detected, this is the first concealment process for concealing the specific part.
The image processing apparatus according to claim 1, which is a second concealment process for concealing the object when only the object is detected among the object and the specific portion.
前記第2秘匿化処理は、前記画像セグメンテーションにより得られる前記物体の領域を、前記物体の特徴を削減した画像とする処理である、請求項2に記載の画像処理装置。 Further, an image segmentation unit for performing image segmentation for labeling the meaning of each pixel of the acquired captured image is provided.
The image processing apparatus according to claim 2, wherein the second concealment process is a process of converting a region of the object obtained by the image segmentation into an image in which the characteristics of the object are reduced.
前記検知工程の検知結果に基づき、前記撮影画像に対して前記秘匿化のための秘匿化処理を行う秘匿化工程と、
を備え、
前記秘匿化処理は、前記物体および前記特定部位の両方を検知した場合と、前記物体および前記特定部位のうち前記物体のみを検知した場合とで異なる、画像処理方法。 A detection process that attempts to detect an object containing a specific part that needs to be concealed to protect personal information and the specific part from the acquired captured image, and
Based on the detection result of the detection step, the concealment step of performing the concealment processing for concealment of the captured image, and
With
The image processing method is different from the case where both the object and the specific portion are detected and the case where only the object is detected among the object and the specific portion.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019203267A JP7431557B2 (en) | 2019-11-08 | 2019-11-08 | Image processing device and image processing method |
US17/642,479 US20220301315A1 (en) | 2019-11-08 | 2020-11-06 | Image processing device and image processing method |
CN202080064116.5A CN114424241A (en) | 2019-11-08 | 2020-11-06 | Image processing apparatus and image processing method |
DE112020005521.3T DE112020005521T5 (en) | 2019-11-08 | 2020-11-06 | Image processing device and image processing method |
PCT/JP2020/041622 WO2021090943A1 (en) | 2019-11-08 | 2020-11-06 | Image processing device and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019203267A JP7431557B2 (en) | 2019-11-08 | 2019-11-08 | Image processing device and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021077996A true JP2021077996A (en) | 2021-05-20 |
JP7431557B2 JP7431557B2 (en) | 2024-02-15 |
Family
ID=75898410
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019203267A Active JP7431557B2 (en) | 2019-11-08 | 2019-11-08 | Image processing device and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7431557B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023089747A1 (en) * | 2021-11-18 | 2023-05-25 | 日本電信電話株式会社 | Collection device, collection method, collection program, and collection system |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6273566B2 (en) | 2013-04-12 | 2018-02-07 | パナソニックIpマネジメント株式会社 | COMMUNICATION SYSTEM, IMAGE GENERATION METHOD, AND COMMUNICATION DEVICE |
JP6915995B2 (en) | 2017-02-01 | 2021-08-11 | 株式会社デンソーテン | Drive recorder |
GB2586389B (en) | 2018-03-29 | 2022-03-30 | Mitsubishi Electric Corp | Image processing device, image processing method, and monitoring system |
-
2019
- 2019-11-08 JP JP2019203267A patent/JP7431557B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023089747A1 (en) * | 2021-11-18 | 2023-05-25 | 日本電信電話株式会社 | Collection device, collection method, collection program, and collection system |
Also Published As
Publication number | Publication date |
---|---|
JP7431557B2 (en) | 2024-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021090943A1 (en) | Image processing device and image processing method | |
US9881221B2 (en) | Method and system for estimating gaze direction of vehicle drivers | |
US20040081338A1 (en) | Face identification device and face identification method | |
US11037312B2 (en) | Technologies for thermal enhanced semantic segmentation of two-dimensional images | |
US20110078802A1 (en) | Display device, drive recorder, display method and computer-readable medium | |
CN112597892B (en) | System and method for detecting remnants in automobile cabin | |
US20220028302A1 (en) | Sensor device and encryption method | |
TW201411500A (en) | Video analysis | |
KR20150092452A (en) | Black box for car using the idle time of the black box and its control method | |
JP2023111974A (en) | Image masking device and image masking method | |
JP2021176235A (en) | Image processing method | |
CN112634558A (en) | System and method for preventing removal of an item from a vehicle by an improper party | |
JP7431557B2 (en) | Image processing device and image processing method | |
EP3594842B1 (en) | A sensor device for the anonymization of the sensor data and an image monitoring device and a method for operating a sensor device for the anonymization of the sensor data | |
CN115113197A (en) | Sensor for generating tag sensor data | |
KR20220091471A (en) | information processing system, information processing method, imaging device, information processing device | |
JP5881149B2 (en) | Alarm target person detection device, alarm target person detection method, program, recording medium, and alarm target person detection system in vehicle | |
Nagendran et al. | Security and safety with facial recognition feature for next generation automobiles | |
EP3380368B1 (en) | Object detection system and method thereof | |
US20220109556A1 (en) | Sensor device and encryption method | |
EP3352450A1 (en) | Vehicle image recording apparatus and method of recording image data of an environment proximate to a vehicle | |
JP7360304B2 (en) | Image processing device and image processing method | |
Thompson et al. | Enhancing driver awareness using see-through technology | |
JP7154071B2 (en) | Driving state monitoring support system, driving state monitoring support method and program | |
US20230109171A1 (en) | Operator take-over prediction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220929 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230919 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231026 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240123 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240202 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7431557 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |