JP2021077996A - Image processing device and image processing method - Google Patents

Image processing device and image processing method Download PDF

Info

Publication number
JP2021077996A
JP2021077996A JP2019203267A JP2019203267A JP2021077996A JP 2021077996 A JP2021077996 A JP 2021077996A JP 2019203267 A JP2019203267 A JP 2019203267A JP 2019203267 A JP2019203267 A JP 2019203267A JP 2021077996 A JP2021077996 A JP 2021077996A
Authority
JP
Japan
Prior art keywords
concealment
image
unit
detected
specific part
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019203267A
Other languages
Japanese (ja)
Other versions
JP7431557B2 (en
Inventor
康貴 岡田
Yasutaka Okada
康貴 岡田
竜介 関
Ryusuke Seki
竜介 関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2019203267A priority Critical patent/JP7431557B2/en
Priority to US17/642,479 priority patent/US20220301315A1/en
Priority to CN202080064116.5A priority patent/CN114424241A/en
Priority to DE112020005521.3T priority patent/DE112020005521T5/en
Priority to PCT/JP2020/041622 priority patent/WO2021090943A1/en
Publication of JP2021077996A publication Critical patent/JP2021077996A/en
Application granted granted Critical
Publication of JP7431557B2 publication Critical patent/JP7431557B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide a technique capable of proper concealment for protecting personal information, which is to be applied to a photographic image.SOLUTION: An image processing device comprises: a detection unit provided to be capable of detecting out of an acquired photographic image an object including a specific part needing concealment for protecting personal information and the specific part; and a concealment unit which performs concealment processing for the concealment on the photographic image based on a result of the detection by the detection unit. The concealment processing is different between in a case of having detected both the object and the specific part and in a case of having detected only the object out of the object and the specific part.SELECTED DRAWING: Figure 6

Description

本発明は、画像処理装置および画像処理方法に関する。 The present invention relates to an image processing apparatus and an image processing method.

従来、カメラで撮影した撮影画像に映る被写体のプライバシーを保護する技術が知られる。例えば、特許文献1には、画像取得部と、人数・人流推定部と、プライバシーレベル設定部と、画像加工部と、を備える画像処理装置が開示される。 Conventionally, a technique for protecting the privacy of a subject reflected in a photographed image taken by a camera is known. For example, Patent Document 1 discloses an image processing device including an image acquisition unit, a number of people / person flow estimation unit, a privacy level setting unit, and an image processing unit.

特許文献1の画像処理装置において、画像取得部は画像を取得する。人数・人流推定部は、画像取得部にて取得された画像を入力として、その画像に含まれる群衆の頭部位置に対応した密度分布と当該密度分布に基づく群衆を構成する人数とを推定する。プライバシーレベル設定部は、複数の被写体のプライバシーを保護するために行う画像加工の度合いを表すプライバシーレベルを設定する。画像加工部は、画像取得部により取得された画像を入力として、人数・人流推定部による推定の結果を基に、プライバシーレベルに応じた加工処理を行う。特許文献1の画像処理装置によれば、人数・人流推定部による推定の結果が用いられるために、混雑状況化でも頭部の検出漏れが少なく、被写体の秘匿処理を適切に行うことができる。 In the image processing apparatus of Patent Document 1, the image acquisition unit acquires an image. The number / person flow estimation unit takes the image acquired by the image acquisition unit as an input and estimates the density distribution corresponding to the head position of the crowd included in the image and the number of people constituting the crowd based on the density distribution. .. The privacy level setting unit sets a privacy level indicating the degree of image processing performed to protect the privacy of a plurality of subjects. The image processing unit receives the image acquired by the image acquisition unit as an input, and performs processing processing according to the privacy level based on the estimation result by the number of people / person flow estimation unit. According to the image processing apparatus of Patent Document 1, since the result of estimation by the number of people / person flow estimation unit is used, there is little omission of detection of the head even in a crowded situation, and the subject can be appropriately concealed.

特開2019−71050号公報JP-A-2019-71050

ところで、例えば、撮影画像中において検知したい対象物のサイズが小さい等、対象物の特徴が検出できない場合には、混雑状況等に関係なく、検知したい対象物の検知に失敗することがある。顔等の個人を特定することができる対象物の検知に失敗すると、顔等を秘匿化する処理に漏れが生じる可能性があり、問題となる。 By the way, when the feature of the object cannot be detected, for example, the size of the object to be detected is small in the captured image, the detection of the object to be detected may fail regardless of the congestion situation or the like. If the detection of an object that can identify an individual such as a face fails, there is a possibility that the process of concealing the face or the like may be leaked, which causes a problem.

また、撮影画像において秘匿化を行う範囲が広くなり過ぎると、撮影画像から抽出できる情報が減る。このために、撮影画像に対する過剰な秘匿化は避けることが望まれる。 Further, if the range of concealment in the captured image becomes too wide, the information that can be extracted from the captured image decreases. For this reason, it is desirable to avoid excessive concealment of captured images.

本発明は、上記の課題に鑑み、撮影画像に対して行われる個人情報の保護のための秘匿化を適切に行うことができる技術を提供することを目的とする。 In view of the above problems, an object of the present invention is to provide a technique capable of appropriately concealing a photographed image for protection of personal information.

上記目的を達成するために本発明の画像処理装置は、取得した撮影画像から、個人情報を保護する秘匿化が必要な特定部位を含む物体および前記特定部位を検知可能に設けられる検知部と、前記検知部の検知結果に基づき、前記撮影画像に対して前記秘匿化のための秘匿化処理を行う秘匿化部と、を備え、前記秘匿化処理は、前記物体および前記特定部位の両方を検知した場合と、前記物体および前記特定部位のうち前記物体のみを検知した場合とで異なる構成(第1の構成)になっている。 In order to achieve the above object, the image processing apparatus of the present invention includes an object including a specific part that needs to be concealed to protect personal information and a detection unit provided so as to be able to detect the specific part from the acquired captured image. Based on the detection result of the detection unit, the captured image is provided with a concealment unit that performs concealment processing for concealment, and the concealment processing detects both the object and the specific portion. The configuration is different (first configuration) depending on whether the object is detected or only the object is detected among the object and the specific portion.

また、上記第1の構成の画像処理装置において、前記秘匿化処理は、前記物体および前記特定部位の両方を検知した場合には、前記特定部位を対象として前記秘匿化を行う第1秘匿化処理であり、前記物体および前記特定部位のうち前記物体のみを検知した場合には、前記物体を対象として前記秘匿化を行う第2秘匿化処理である構成(第2の構成)が好ましい。 Further, in the image processing apparatus having the first configuration, when the concealment process detects both the object and the specific portion, the concealment process performs the concealment targeting the specific portion. Therefore, when only the object is detected among the object and the specific portion, a configuration (second configuration) that is a second concealment process for concealing the object is preferable.

また、上記第2の構成の画像処理装置は、取得した前記撮影画像に対してピクセル毎に意味をラベル付けする画像セグメンテーションを行う画像セグメンテーション部を更に備え、前記第2秘匿化処理は、前記画像セグメンテーションにより得られる前記物体の領域を、前記物体の特徴を削減した画像とする処理である構成(第3の構成)であってよい。 Further, the image processing apparatus having the second configuration further includes an image segmentation unit that performs image segmentation for labeling the meaning of each pixel of the acquired image, and the second concealment process is the image. It may be a configuration (third configuration) in which the region of the object obtained by segmentation is processed into an image in which the characteristics of the object are reduced.

また、上記第3の構成の画像処理装置において、前記物体の特徴を削減した画像には、前記画像セグメンテーションの際に生成された画像が適用される構成(第4の構成)であることが好ましい。 Further, in the image processing apparatus having the third configuration, it is preferable that the image generated during the image segmentation is applied to the image in which the characteristics of the object are reduced (fourth configuration). ..

また、上記第1から第4のいずれかの構成の画像処理装置において、前記秘匿化部は、前記撮影画像から得られる前記物体および前記特定部位のうちの少なくとも一方について、前記撮影画像から得られる特徴を反映しつつ前記秘匿化処理を行う構成(第5の構成)であることが好ましい。 Further, in the image processing apparatus having any of the first to fourth configurations, the concealment unit is obtained from the photographed image with respect to at least one of the object and the specific portion obtained from the photographed image. It is preferable that the configuration (fifth configuration) is such that the concealment processing is performed while reflecting the characteristics.

また、上記第1から第4のいずれかの構成の画像処理装置において、前記秘匿化部は、前記撮影画像における前記物体および前記特定部位のうちの少なくとも一方について、復号可能に暗号化することにより前記秘匿化を行う構成(第6の構成)であってよい。 Further, in the image processing apparatus having any of the first to fourth configurations, the concealment unit decryptively encrypts at least one of the object and the specific portion in the captured image. It may be the configuration (sixth configuration) for concealment.

また、上記目的を達成するために本発明の画像処理方法は、取得した撮影画像から、個人情報を保護する秘匿化が必要な特定部位を含む物体および前記特定部位の検知を試みる検知工程と、前記検知工程の検知結果に基づき、前記撮影画像に対して前記秘匿化のための秘匿化処理を行う秘匿化工程と、を備え、前記秘匿化処理は、前記物体および前記特定部位の両方を検知した場合と、前記物体および前記特定部位のうち前記物体のみを検知した場合とで異なる構成(第7の構成)になっている。 Further, in order to achieve the above object, the image processing method of the present invention includes a detection step of attempting to detect an object including a specific part that needs to be concealed to protect personal information and the specific part from the acquired photographed image. Based on the detection result of the detection step, the captured image is provided with a concealment process for performing the concealment process for concealment, and the concealment process detects both the object and the specific part. The configuration is different (seventh configuration) depending on whether the object is detected or only the object is detected among the object and the specific portion.

本発明によれば、撮影画像に対して行われる個人情報の保護のための秘匿化を適切に行うことができる。 According to the present invention, it is possible to appropriately conceal the photographed image for the protection of personal information.

個人情報保護システムの構成を示す図Diagram showing the configuration of the personal information protection system 第1実施形態に係る画像処理装置の構成を示す図The figure which shows the structure of the image processing apparatus which concerns on 1st Embodiment 第1実施形態に係る画像処理装置の動作例を示すフローチャートA flowchart showing an operation example of the image processing apparatus according to the first embodiment. 取得部により取得される撮影画像の一例を示す図The figure which shows an example of the photographed image acquired by the acquisition part 図4に示す撮影画像に対する検知部の検知結果を例示する図The figure which illustrates the detection result of the detection part with respect to the photographed image shown in FIG. 図5に示す検知結果に従って実行された秘匿化処理の結果を例示する図The figure which illustrates the result of the concealment processing executed according to the detection result shown in FIG. 秘匿化部が行う秘匿化処理の変形例について説明するための図Diagram for explaining a modified example of the concealment process performed by the concealment unit 第2実施形態に係る画像処理装置の構成を示す図The figure which shows the structure of the image processing apparatus which concerns on 2nd Embodiment 第2実施形態に係る画像処理装置の動作例を示すフローチャートA flowchart showing an operation example of the image processing apparatus according to the second embodiment. 図4に示す撮影画像に対する画像セグメンテーションの結果を例示する図The figure which illustrates the result of the image segmentation with respect to the photographed image shown in FIG. 第2実施形態の画像処理装置において、図4に示す撮影画像が入力された場合の秘匿化処理結果を例示する図The figure which illustrates the concealment processing result when the photographed image shown in FIG. 4 is input in the image processing apparatus of 2nd Embodiment.

以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。以下においては、本発明が車両に利用される場合を例に説明するが、本発明は車両以外のものにも広く適用できる。 Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. In the following, the case where the present invention is used for a vehicle will be described as an example, but the present invention can be widely applied to other than vehicles.

<1.個人情報保護システム>
図1は、本発明の実施形態に係る個人情報保護システム100の構成を示す図である。個人情報保護システム100は、車両用装置1とデータ収集装置2とを備える。
<1. Personal information protection system >
FIG. 1 is a diagram showing a configuration of a personal information protection system 100 according to an embodiment of the present invention. The personal information protection system 100 includes a vehicle device 1 and a data collection device 2.

車両用装置1は、車両に搭載して使用される端末装置である。車両は、例えば、自動車、オートバイ、電車、無人搬送車等の車輪を有する乗り物である。車両には、カメラを含む各種のセンサが搭載される。車両用装置1は、各種のセンサから各種のデータを取得する。各種のデータには、カメラで撮影された撮影画像の他に、例えば、車両の速度、車両の位置、車両の特定位置の通過時間等が含まれてよい。 The vehicle device 1 is a terminal device mounted on a vehicle and used. The vehicle is, for example, a vehicle having wheels such as an automobile, a motorcycle, a train, and an automatic guided vehicle. The vehicle is equipped with various sensors including a camera. The vehicle device 1 acquires various data from various sensors. The various data may include, for example, the speed of the vehicle, the position of the vehicle, the passing time of a specific position of the vehicle, and the like, in addition to the captured image taken by the camera.

なお、車両用装置1は、例えば、ドライブレコーダやナビゲーション装置によって兼用されてよい。ただし、車両用装置1は、ドライブレコーダやナビゲーション装置とは別の装置であってもよい。また、車両用装置1は、車載装置であってもよいし、車両の乗員が持ち運ぶことができる携帯端末であってもよい。車両用装置1が携帯端末である場合、車両用装置1は、例えばスマートフォンやタブレット等であってよい。 The vehicle device 1 may also be used by, for example, a drive recorder or a navigation device. However, the vehicle device 1 may be a device different from the drive recorder and the navigation device. Further, the vehicle device 1 may be an in-vehicle device or a portable terminal that can be carried by a vehicle occupant. When the vehicle device 1 is a mobile terminal, the vehicle device 1 may be, for example, a smartphone, a tablet, or the like.

データ収集装置2は、例えばインターネットや携帯電話回線網などのネットワーク(不図示)を介して車両用装置1と通信可能に設けられる。データ収集装置2は、例えば、ネットワークを介したクラウドサービスを提供するクラウドサーバとして構成される。データ収集装置2は、データ利用者(不図示)からデータの収集要求を受け付けるとともに、受け付けた収集要求に基づいて車両用装置1から収集したデータをデータ利用者に提供する。なお、データ収集装置2は、通常、複数台の車両用装置1と通信可能に設けられ、各車両用装置1からデータを収集する。 The data collection device 2 is provided so as to be able to communicate with the vehicle device 1 via a network (not shown) such as the Internet or a mobile phone line network. The data collection device 2 is configured as, for example, a cloud server that provides a cloud service via a network. The data collection device 2 receives a data collection request from the data user (not shown), and provides the data user with the data collected from the vehicle device 1 based on the received collection request. The data collection device 2 is usually provided so as to be able to communicate with a plurality of vehicle devices 1 and collect data from each vehicle device 1.

図1に示すように、車両用装置1は、個人情報保護処理部11を備える。個人情報保護処理部11は、車両に搭載される各種のセンサから得られたデータに含まれる個人情報について、個人を特定することができない状態とする保護処理を行う。車両用装置1は、各種のデータについて、適宜、個人情報を保護する保護処理を行ってデータ収集装置2に送信する。 As shown in FIG. 1, the vehicle device 1 includes a personal information protection processing unit 11. The personal information protection processing unit 11 performs protection processing for personal information included in data obtained from various sensors mounted on a vehicle so that an individual cannot be identified. The vehicle device 1 appropriately performs protection processing for protecting personal information on various types of data, and transmits the various data to the data collection device 2.

なお、個人情報は、原則として、特定の個人を特定できる情報のことであるが、本明細書において、個人情報はプライバシーと同義で用いられてよい。個人情報には、例えば、カメラによって撮影された撮影画像に含まれる人の顔、車のナンバープレート、車両が通過した場所を特定できる地点名標識等が含まれる。また、個人情報には、撮影画像に含まれる情報に限らず、車両識別番号(VIN:Vehicle Identification Number)や、各種の時間等が含まれてよい。個人情報には、車両用装置1が搭載される車両の乗員に関する個人情報と、車両用装置1が搭載される車両外に存在する人に関する個人情報との両方、又は、いずれか一方だけが含まれてよい。 In principle, personal information is information that can identify a specific individual, but in this specification, personal information may be used synonymously with privacy. Personal information includes, for example, a person's face included in a photographed image taken by a camera, a vehicle license plate, a point name sign that can identify a place where the vehicle has passed, and the like. Further, the personal information is not limited to the information included in the photographed image, and may include a vehicle identification number (VIN: Vehicle Identification Number), various times, and the like. The personal information includes personal information about the occupants of the vehicle on which the vehicle device 1 is mounted, personal information about a person who exists outside the vehicle on which the vehicle device 1 is mounted, or only one of them. You can do it.

個人情報保護処理部11による個人情報の保護方法としては、例えば、撮影画像の解像度を低下させる処理、撮影画像の全体又は一部を暗号化する処理、文字や数字データを暗号化する処理、撮影画像内の不要な情報(個人情報を含む)を全てマスクする処理等が挙げられる。なお、暗号化を行う場合は、データ収集装置2側において復号化を行える構成であることが好ましい。 As a method of protecting personal information by the personal information protection processing unit 11, for example, a process of lowering the resolution of the photographed image, a process of encrypting the whole or a part of the photographed image, a process of encrypting character or numerical data, and a process of photographing. Examples include processing for masking all unnecessary information (including personal information) in the image. When performing encryption, it is preferable that the data collection device 2 has a configuration in which decryption can be performed.

本実施形態では、個人情報保護処理部11は、取得した撮影画像について、車両用装置1に含まれる後述の画像処理装置3、3A(図2、図8参照)により個人情報を保護する保護処理を行う。個人情報保護処理部11は、車両識別番号等の撮影画像以外から検出された個人情報については、暗号化手段によって暗号化を行う。車両用装置1は、個人情報保護処理部11によって保護処理を行ったデータについて、送信部12を介してデータ収集装置2に送信する。 In the present embodiment, the personal information protection processing unit 11 protects the acquired captured image by the image processing devices 3 and 3A (see FIGS. 2 and 8) described later included in the vehicle device 1. I do. The personal information protection processing unit 11 encrypts the personal information detected from other than the captured image such as the vehicle identification number by the encryption means. The vehicle device 1 transmits the data protected by the personal information protection processing unit 11 to the data collection device 2 via the transmission unit 12.

図1に示すように、データ収集装置2は、個人情報管理部21を備える。個人情報管理部21は、車両用装置1の送信部12からデータを受信する受信部22を介して各種のデータを取得し、当該各種のデータの個人情報を管理する。個人情報管理部21は、取得したデータを個人が特定されないように加工して記憶部23に記憶させる。記憶部23に記憶されたデータは、上述のデータ利用者によって利用される。 As shown in FIG. 1, the data collection device 2 includes a personal information management unit 21. The personal information management unit 21 acquires various data via the receiving unit 22 that receives data from the transmitting unit 12 of the vehicle device 1, and manages the personal information of the various data. The personal information management unit 21 processes the acquired data so that the individual is not identified and stores it in the storage unit 23. The data stored in the storage unit 23 is used by the above-mentioned data user.

なお、本実施形態では、車両用装置1において個人情報を保護する保護処理が行われるが、これに限定されず、データ収集装置2側にて個人情報を保護する保護処理が行われてもよい。この場合には、後述の画像処理装置3、3Aは、データ収集装置2側に含まれる。ただし、個人情報を保護する処理を行う画像処理装置3、3Aは、サーバとして構成されるデータ収集装置2ではなく、データを送信する車両用装置1側に含まれることが好ましい。また、データ収集装置2にデータを送信する装置は、車両用装置1ではなく、例えば監視カメラを備える商業施設、駅、駐車場等に設置される端末装置等であってよい。 In the present embodiment, the vehicle device 1 is subjected to the protection process for protecting personal information, but the present invention is not limited to this, and the data collection device 2 may perform the protection process for protecting the personal information. .. In this case, the image processing devices 3 and 3A described later are included in the data collection device 2 side. However, it is preferable that the image processing devices 3 and 3A that perform processing for protecting personal information are included not in the data collecting device 2 configured as a server but in the vehicle device 1 side that transmits data. Further, the device that transmits data to the data collection device 2 may not be the vehicle device 1, but may be, for example, a terminal device installed in a commercial facility equipped with a surveillance camera, a station, a parking lot, or the like.

<2.画像処理装置>
(2−1.第1実施形態)
[2−1−1.画像処理装置の構成]
図2は、本発明の第1実施形態に係る画像処理装置3の構成を示す図である。なお、図2においては、第1実施形態の画像処理装置3の特徴を説明するために必要な構成要素のみが示されており、一般的な構成要素についての記載は省略されている。また、図2には、理解を容易とするために画像処理装置3とは別の構成要素であるカメラ4も示されている。図2に示すように、画像処理装置3は、取得部31と、制御部32と、記憶部33と、を備える。
<2. Image processing device>
(2-1. First Embodiment)
[2-1-1. Image processing device configuration]
FIG. 2 is a diagram showing a configuration of an image processing device 3 according to the first embodiment of the present invention. Note that FIG. 2 shows only the components necessary for explaining the features of the image processing apparatus 3 of the first embodiment, and the description of general components is omitted. Further, FIG. 2 also shows a camera 4, which is a component different from the image processing device 3 for easy understanding. As shown in FIG. 2, the image processing device 3 includes an acquisition unit 31, a control unit 32, and a storage unit 33.

取得部31は、撮影画像を取得する。本実施形態では、取得部31は、車両に搭載されるカメラ4からアナログ又はデジタルの撮影画像を所定の周期(例えば、1/30秒周期)で時間的に連続して取得する。取得部31によって取得される撮影画像の集合体がカメラ4で撮影された動画像である。取得した撮影画像がアナログの場合には、取得部31は、そのアナログの撮影画像をデジタルの撮影画像に変換(A/D変換)する。取得部31は、取得した撮影画像(A/D変換が行われた場合は変換後の画像)を制御部32に出力する。 The acquisition unit 31 acquires a captured image. In the present embodiment, the acquisition unit 31 continuously acquires analog or digital captured images from the camera 4 mounted on the vehicle at a predetermined cycle (for example, 1/30 second cycle). A collection of captured images acquired by the acquisition unit 31 is a moving image captured by the camera 4. When the acquired captured image is analog, the acquisition unit 31 converts the analog captured image into a digital captured image (A / D conversion). The acquisition unit 31 outputs the acquired captured image (or the converted image if A / D conversion is performed) to the control unit 32.

なお、カメラ4は、例えば車両の前方や後方等、車両の周囲を監視するカメラである。ただし、カメラ4は、例えば、車両の室内を撮影するカメラであってもよい。 The camera 4 is a camera that monitors the surroundings of the vehicle, such as the front and the rear of the vehicle. However, the camera 4 may be, for example, a camera that photographs the interior of the vehicle.

制御部32は、画像処理装置3の全体を統括的に制御するコントローラである。制御部32は、例えば、ハードウェアプロセッサであるCPU(Central Processing Unit)、RAM(Random Access Memory)、および、ROM(Read Only Memory)等を含むコンピュータとして構成される。 The control unit 32 is a controller that comprehensively controls the entire image processing device 3. The control unit 32 is configured as, for example, a computer including a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), and the like, which are hardware processors.

記憶部33は、例えば、RAMやフラッシュメモリ等の半導体メモリ素子、ハードディスク、或いは、光ディスク等の可搬型の記録媒体を用いる記憶装置等で構成される。記憶部33は、ファームウェアとしてのプログラムや各種のデータを記憶する。本実施形態では、記憶部33は、物体の検知を可能とする学習済みモデル331を記憶する。学習済みモデル331は、例えばディープニューラルネットワーク(DNN:Deep Neural Network)等の機械学習のアルゴリズムにより学習を行うことで得られる。学習済みモデル331は、例えば教師あり学習により得られてよい。 The storage unit 33 is composed of, for example, a semiconductor memory element such as a RAM or a flash memory, a hard disk, or a storage device using a portable recording medium such as an optical disk. The storage unit 33 stores a program as firmware and various data. In the present embodiment, the storage unit 33 stores the learned model 331 that enables the detection of an object. The trained model 331 is obtained by learning by a machine learning algorithm such as a deep neural network (DNN). The trained model 331 may be obtained, for example, by supervised learning.

図2に示す、検知部321および秘匿化部322は、制御部32のCPUが記憶部33に記憶されるプログラムに従って演算処理を実行することにより実現される制御部32の機能である。換言すると、画像処理装置3は、検知部321と、秘匿化部322と、を備える。 The detection unit 321 and the concealment unit 322 shown in FIG. 2 are functions of the control unit 32 realized by the CPU of the control unit 32 executing arithmetic processing according to a program stored in the storage unit 33. In other words, the image processing device 3 includes a detection unit 321 and a concealment unit 322.

なお、制御部32の検知部321および秘匿化部322の少なくともいずれか1つは、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、GPU(Graphics Processing Unit)等のハードウェアで構成されてもよい。また、検知部321および秘匿化部322は、概念的な構成要素である。1つの構成要素が実行する機能を複数の構成要素に分散させたり、複数の構成要素が有する機能を1つの構成要素に統合させたりしてよい。また、取得部31は、制御部32のCPUがプログラムに従って演算処理を行うことによって実現される構成としてもよい。また、画像処理装置3の具体的なハードウェア構成に関して、実施の形態に応じて、適宜、構成要素の省略、置換、又は、追加を行ってよい。例えば、制御部32は、複数のハードウェアプロセッサを含んでもよい。 At least one of the detection unit 321 and the concealment unit 322 of the control unit 32 is composed of hardware such as an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), and a GPU (Graphics Processing Unit). May be done. Further, the detection unit 321 and the concealment unit 322 are conceptual components. The functions executed by one component may be distributed to a plurality of components, or the functions of the plurality of components may be integrated into one component. Further, the acquisition unit 31 may be configured to be realized by the CPU of the control unit 32 performing arithmetic processing according to a program. Further, with respect to the specific hardware configuration of the image processing device 3, the components may be omitted, replaced, or added as appropriate according to the embodiment. For example, the control unit 32 may include a plurality of hardware processors.

検知部321は、取得した撮影画像から、個人情報を保護する秘匿化が必要な特定部位を含む物体および前述の特定部位を検知可能に設けられる。本実施形態では、検知部321は、記憶部33に記憶される学習済みモデル331を用いて、秘匿化が必要な特定部位を含む所定の物体、および、所定の物体の特定部位を、撮影画像から検知する。検知部321は、取得部31から取得した撮影画像の解像度を低下させた低解像度画像を用いて、学習済みモデル331による物体検知を行うことが好ましい。これにより、検知部321における物体検知処理の処理負担を低減することができる。 The detection unit 321 is provided so as to be able to detect an object including a specific part that needs to be concealed to protect personal information and the above-mentioned specific part from the acquired captured image. In the present embodiment, the detection unit 321 uses the learned model 331 stored in the storage unit 33 to capture a predetermined object including a specific part that needs to be concealed and a specific part of the predetermined object. Detect from. It is preferable that the detection unit 321 detects an object by the trained model 331 using a low-resolution image obtained by reducing the resolution of the captured image acquired from the acquisition unit 31. As a result, the processing load of the object detection process in the detection unit 321 can be reduced.

所定の物体としては、例えば、人、自動車等の車両、および、信号機の近傍等に設けられる場所を特定する地点名標識等が挙げられる。特定部位は、特定の個人を特定したり、個人のプライバシーを推定したりすることを可能とする部位である。所定の物体が人である場合、特定部位は例えば顔である。所定の物体が車両である場合、特定部位は例えばナンバープレートである。所定の物体が地点名標識である場合、特定部位は例えば標識の文字部分である。なお、所定の物体に、複数の特定部位が含まれてもよい。また、所定の物体には、複数種類の物体が含まれてよい。検知部321に検知可能に設けられる所定の物体には、人および車両のうち、少なくとも一方が含まれることが好ましい。 Examples of the predetermined object include a person, a vehicle such as an automobile, a point name sign for specifying a place provided in the vicinity of a traffic light, and the like. A specific part is a part that makes it possible to identify a specific individual and estimate the privacy of an individual. When a predetermined object is a person, the specific part is, for example, a face. When the predetermined object is a vehicle, the specific part is, for example, a license plate. When a predetermined object is a point name sign, the specific part is, for example, a character part of the sign. In addition, a predetermined object may include a plurality of specific parts. Further, the predetermined object may include a plurality of types of objects. It is preferable that the predetermined object detectably provided in the detection unit 321 includes at least one of a person and a vehicle.

学習済みモデル331は、DNNを用いて物体および特定部位を検知する構成が好ましい。ただし、学習済みモデル331は、例えば、HOG(Histogram Of Gradient)特徴量を利用したSVM(Support Vector Machine)等の他の機械学習のアルゴリズムにより物体および特定部位を検知する構成であってもよい。また、検知部321は、機械学習を行った学習済みモデル331を使用することなく、例えば、テンプレートマッチング等を用いて物体および特定部位を検知する構成であってもよい。 The trained model 331 is preferably configured to detect an object and a specific part using DNN. However, the trained model 331 may be configured to detect an object and a specific part by another machine learning algorithm such as SVM (Support Vector Machine) using HOG (Histogram Of Gradient) features. Further, the detection unit 321 may be configured to detect an object and a specific part by using, for example, template matching, without using the trained model 331 that has undergone machine learning.

秘匿化部322は、検知部321の検知結果に基づき、撮影画像に対して秘匿化のための秘匿化処理を行う。秘匿化処理は、個人情報を保護するために撮影画像(データ)を加工する処理である。秘匿化処理は、物体(特定部位を含む)および特定部位の両方を検知した場合と、物体(特定部位を含む)および特定部位のうち物体のみを検知した場合とで異なる。すなわち、秘匿化部322は、物体および特定部位の両方を検知した場合と、物体および特定部位のうち物体のみを検知した場合とで秘匿化の仕方を変更する。例えば、車両とナンバープレートとの両方を検知した場合と、ナンバープレートは検知できず車両のみを検知した場合とでは、秘匿化処理の仕方が変更される。 The concealment unit 322 performs a concealment process for concealing the captured image based on the detection result of the detection unit 321. The concealment process is a process of processing a photographed image (data) in order to protect personal information. The concealment process differs between the case where both the object (including the specific part) and the specific part are detected and the case where only the object among the object (including the specific part) and the specific part is detected. That is, the concealment unit 322 changes the concealment method depending on whether it detects both the object and the specific part and the case where only the object is detected among the object and the specific part. For example, the method of concealment processing is changed depending on whether both the vehicle and the license plate are detected and the license plate cannot be detected and only the vehicle is detected.

本構成によれば、個人情報の保護が必要である特定部位を検知できた場合に、秘匿化の範囲が過剰になることを抑制して特定部位の秘匿化を図ることができる。また、特定部位を検知できなかった場合でも、特定部位を含む物体を検知できた場合には、特定部位を検知できた場合と異なる手法で秘匿化処理を行うことができるために、個人情報の保護のための秘匿化処理に漏れが生じる可能性を低減することができる。 According to this configuration, when a specific part for which personal information needs to be protected can be detected, it is possible to prevent the range of concealment from becoming excessive and conceal the specific part. In addition, even if a specific part cannot be detected, if an object containing the specific part can be detected, the concealment process can be performed by a method different from the case where the specific part can be detected. It is possible to reduce the possibility of omission in the concealment process for protection.

なお、特定部位は物体の一部の要素であり、特定部位を検知できる場合は、通常、特定部位を含む物体も検知できる。すなわち、特定部位を含む物体および特定部位のうち特定部位のみが検知される状態は、生じる可能性が少ない。仮に、このような状態が生じた場合には、物体と特定部位との両方を検知できた場合と同様の秘匿化処理を行えばよい。これにより、個人情報を保護することができる。また、物体および特定部位の両方を検知できない場合には、個人情報を保護する対象がなく、秘匿化処理は行われない。 The specific part is a part of the object, and when the specific part can be detected, the object including the specific part can usually be detected. That is, it is unlikely that an object including a specific part and a state in which only a specific part is detected among the specific parts will occur. If such a state occurs, the same concealment processing as in the case where both the object and the specific part can be detected may be performed. As a result, personal information can be protected. In addition, if both the object and the specific part cannot be detected, there is no object to protect personal information and the concealment process is not performed.

詳細には、秘匿化部322により行われる秘匿化処理は、物体および特定部位の両方を検知した場合には、特定部位を対象として秘匿化を行う第1秘匿化処理である。第1秘匿化処理は、撮影画像中における物体全体のうち、特定部位に絞って秘匿化を行う処理である。例えば、第1秘匿化処理は、撮影画像中における車両全体のうちナンバープレートに絞って秘匿化を行う処理である。第1秘匿化処理は、例えば、特定部位を一つの色で塗りつぶす処理であってよい。また、第1秘匿化処理は、例えば、特定部位をぼかしたり、特定部位にモザイクを施したりする処理であってもよい。 Specifically, the concealment process performed by the concealment unit 322 is a first concealment process for concealing a specific part when both an object and a specific part are detected. The first concealment process is a process of concealing a specific part of the entire object in the captured image. For example, the first concealment process is a process of concealing only the license plate of the entire vehicle in the captured image. The first concealment process may be, for example, a process of painting a specific portion with one color. Further, the first concealment process may be, for example, a process of blurring a specific portion or applying a mosaic to the specific portion.

なお、第1秘匿化処理によって秘匿化が行われる範囲は、特定部位の検知範囲と完全に一致してもよいが、完全に一致しなくてもよい。特定部位の秘匿化処理により、個人情報の保護が図れればよい。第1秘匿化処理によって秘匿化が行われる範囲は、特定部位の検知範囲より広くすることが好ましい。これにより、特定部位の検知範囲の誤差を考慮して適切に個人情報の保護を図ることができる。 The range of concealment performed by the first concealment process may or may not completely match the detection range of the specific portion. It suffices to protect personal information by concealing a specific part. It is preferable that the range of concealment performed by the first concealment process is wider than the detection range of a specific part. As a result, personal information can be appropriately protected in consideration of an error in the detection range of a specific part.

秘匿化部322により行われる秘匿化処理は、物体および特定部位のうち物体のみを検知した場合には、物体を対象として秘匿化を行う第2秘匿化処理である。第2秘匿化処理は、撮影画像中における物体全体に対して秘匿化を行う処理である。例えば、第2秘匿化処理は、撮影画像から車両を検知できたがナンバープレートを検知できなかった場合に、撮影画像中における車両全体を秘匿化する処理である。第2秘匿化処理は、例えば、撮影画像中における物体全体を一つの色で塗りつぶす処理であってよい。また、第2秘匿化処理は、例えば、撮影画像中における物体全体をぼかしたり、物体全体にモザイクを施したりする処理であってもよい。 The concealment process performed by the concealment unit 322 is a second concealment process for concealing an object when only an object is detected among the object and a specific part. The second concealment process is a process of concealing the entire object in the captured image. For example, the second concealment process is a process of concealing the entire vehicle in the photographed image when the vehicle can be detected from the photographed image but the license plate cannot be detected. The second concealment process may be, for example, a process of painting the entire object in the captured image with one color. Further, the second concealment process may be, for example, a process of blurring the entire object in the captured image or applying a mosaic to the entire object.

なお、第2秘匿化処理によって秘匿化が行われる範囲は、物体の検知範囲と完全に一致してもよいが、完全に一致しなくてもよい。物体の秘匿化処理により、個人情報の保護が図れればよい。第2秘匿化処理によって秘匿化が行われる範囲は、物体の検知範囲より広くすることが好ましい。これにより、物体の検知範囲の誤差を考慮して適切に個人情報の保護を図ることができる。 The range of concealment performed by the second concealment process may or may not completely match the detection range of the object. It suffices to protect personal information by concealing the object. It is preferable that the range of concealment performed by the second concealment process is wider than the detection range of the object. As a result, personal information can be appropriately protected in consideration of an error in the detection range of the object.

本実施形態では、画像処理装置3は、個人情報の保護が必要な特定部位を検知できた場合には、当該特定部分に絞って秘匿化を行う。このために、過剰に撮影画像に加工が加えられることを抑制して、物体に関する情報が過剰に削減されることを抑制することができる。一方で、本実施形態によれば、特定部位を検知できなかった場合でも、特定部位を含む物体を検知できた場合には、物体全体を対象として秘匿化を行うために、特定部位の秘匿化に漏れが生じる可能性を低減することができる。 In the present embodiment, when the image processing device 3 can detect a specific part for which personal information needs to be protected, the image processing device 3 focuses on the specific part and conceals it. Therefore, it is possible to suppress excessive processing of the captured image and prevent excessive reduction of information about the object. On the other hand, according to the present embodiment, even if a specific part cannot be detected, if an object including the specific part can be detected, the specific part is concealed in order to conceal the entire object. The possibility of leakage can be reduced.

[2−1−2.画像処理装置の動作例]
図3は、本発明の第1実施形態に係る画像処理装置3の動作例を示すフローチャートである。なお、画像処理装置3は、例えば、取得部31により撮影画像が取得される毎に図3に示すフローチャートの動作を行う。
[2-1-2. Image processing device operation example]
FIG. 3 is a flowchart showing an operation example of the image processing device 3 according to the first embodiment of the present invention. The image processing device 3 operates the flowchart shown in FIG. 3 every time a captured image is acquired by, for example, the acquisition unit 31.

ステップS1では、取得部31がカメラ4より撮影画像を取得する。取得部31は、例えば、図4に示すような撮影画像を取得する。図4に示す撮影画像には、道路Rの脇に配置される壁Wに沿って二人の人H1、H2が歩いている様子が映っている。取得部31が撮影画像を取得すると、次のステップS2に処理が進められる。 In step S1, the acquisition unit 31 acquires a captured image from the camera 4. The acquisition unit 31 acquires, for example, a captured image as shown in FIG. The photographed image shown in FIG. 4 shows two people H1 and H2 walking along the wall W arranged on the side of the road R. When the acquisition unit 31 acquires the captured image, the process proceeds to the next step S2.

ステップS2では、検知部321が物体検知処理を行う。詳細には、検知部321は、学習済みモデル331を利用して、所定の物体および所定の物体に含まれる特定部位の検知を試みる。例えば、所定の物体が人である場合、検知部321は、撮影画像に含まれる人および顔の検知を試みる。物体検知処理が完了すると、ステップS3に処理が進められる。 In step S2, the detection unit 321 performs the object detection process. Specifically, the detection unit 321 attempts to detect a predetermined object and a specific portion included in the predetermined object by using the trained model 331. For example, when a predetermined object is a person, the detection unit 321 attempts to detect the person and the face included in the captured image. When the object detection process is completed, the process proceeds to step S3.

図5は、図4に示す撮影画像に対する検知部321の検知結果を例示する図である。図5において、太枠B1〜B3はバウンディングボックスである。検知部321は、各バウンディングボックスB1〜B3内の物体に対して分類を完了している。図5に示す例では、検知部321は、撮影画像中の人H1(バウンディングボックスB1)を検知することはできているが、人H1の顔まで検知することはできていない。本例では、例えば人H1が下を向いていること等が原因となって、顔の特徴が認識されず、人H1の顔が検知できなかったと考えられる。検知部321は、撮影画像中の人H2については、人(バウンディングボックスB2)および顔(バウンディングボックスB3)の検知ができている。 FIG. 5 is a diagram illustrating the detection result of the detection unit 321 for the captured image shown in FIG. In FIG. 5, the thick frames B1 to B3 are bounding boxes. The detection unit 321 has completed the classification of the objects in the bounding boxes B1 to B3. In the example shown in FIG. 5, the detection unit 321 can detect the person H1 (bounding box B1) in the captured image, but cannot detect the face of the person H1. In this example, it is probable that the facial features were not recognized and the face of the person H1 could not be detected because, for example, the person H1 was facing downward. The detection unit 321 can detect a person (bounding box B2) and a face (bounding box B3) for the person H2 in the captured image.

ステップS3では、秘匿化部322により、検知部321が所定の物体を検知したか否かが判断される。例えば、所定の物体が人である場合、撮影画像から人が検知されたか否かが判断される。所定の物体が検知されていると判断された場合(ステップS3でYes)、ステップS4に処理が進められる。一方、所定の物体が検知されていないと判断された場合(ステップS3でNo)、図3にフローチャートで示される処理が一旦終了される。なお、図3に示す例では、所定の物体が検知されることなく特定部位のみが検知されるという事態は生じないことを前提としている。 In step S3, the concealment unit 322 determines whether or not the detection unit 321 has detected a predetermined object. For example, when a predetermined object is a person, it is determined whether or not the person is detected from the captured image. If it is determined that a predetermined object has been detected (Yes in step S3), the process proceeds to step S4. On the other hand, when it is determined that the predetermined object has not been detected (No in step S3), the process shown in the flowchart in FIG. 3 is temporarily terminated. In the example shown in FIG. 3, it is premised that the situation where only a specific part is detected without detecting a predetermined object does not occur.

図5に示す例では、人H1および人H2の両方について人の検知ができている。このために、図5に示す例では、ステップS4に処理が進められる。 In the example shown in FIG. 5, a person can be detected for both the person H1 and the person H2. Therefore, in the example shown in FIG. 5, the process proceeds to step S4.

ステップS4では、秘匿化部322により、検知部321が所定の物体に含まれる特定部位を検知したか否かが判断される。例えば、検知部321で検知された物体が人である場合、撮影画像から特定部位である顔が検知されたか否かが判断される。特定部位が検知されていると判断された場合(ステップS4でYes)、ステップS5に処理が進められる。一方、特定部位が検知されていないと判断された場合(ステップS4でNo)、ステップS6に処理が進められる。 In step S4, the concealment unit 322 determines whether or not the detection unit 321 has detected a specific portion included in the predetermined object. For example, when the object detected by the detection unit 321 is a person, it is determined whether or not the face, which is a specific part, is detected from the captured image. When it is determined that the specific portion has been detected (Yes in step S4), the process proceeds to step S5. On the other hand, if it is determined that the specific portion has not been detected (No in step S4), the process proceeds to step S6.

なお、ステップS4では、ステップS2において所定の物体が複数検知されている場合には、各所定の物体に対して特定部位が検知されている否かが判断される。すなわち、検知された各物体に対して、ステップS5とステップS6とのうちのいずれに処理を進めればよいかが判断される。 In step S4, when a plurality of predetermined objects are detected in step S2, it is determined whether or not a specific portion is detected for each predetermined object. That is, it is determined which of step S5 and step S6 should be performed for each of the detected objects.

図5に示す例では、人H1と人H2とが検知されているために、それぞれの人H1、H2に対して特定部位である顔が検知されたか否かが判断される。人H1については、顔が検知されていないために、ステップS6に処理を進めると判断される。人H2については、顔が検知されているために、ステップS5に処理を進めると判断される。 In the example shown in FIG. 5, since the person H1 and the person H2 are detected, it is determined whether or not the face, which is a specific part, is detected for each person H1 and H2. As for the person H1, since the face is not detected, it is determined that the process proceeds to step S6. Since the face of the person H2 is detected, it is determined that the process proceeds to step S5.

ステップS5では、秘匿化部322が、特定部位を対象とした第1秘匿化処理を行う。例えば、検知部321で検知された物体が人である場合、検知された顔を対象として第1秘匿化処理が行われる。第1秘匿化処理が完了すると、図3にフローチャートで示される処理が一旦終了される。 In step S5, the concealment unit 322 performs the first concealment process targeting a specific part. For example, when the object detected by the detection unit 321 is a person, the first concealment process is performed on the detected face. When the first concealment process is completed, the process shown in the flowchart in FIG. 3 is once terminated.

ステップS6では、秘匿化部322が、所定の物体を対象とした第2秘匿化処理を行う。例えば、検知部321で検知された物体が人である場合、検知された人全体を対象として第2秘匿化処理が行われる。第2秘匿化処理が完了すると、図3にフローチャートで示される処理が一旦終了される。 In step S6, the concealment unit 322 performs a second concealment process targeting a predetermined object. For example, when the object detected by the detection unit 321 is a person, the second concealment process is performed on the entire detected person. When the second concealment process is completed, the process shown in the flowchart in FIG. 3 is temporarily terminated.

図6は、図5に示す検知結果に従って実行された秘匿化処理の結果を例示する図である。人H1に対しては、特定部位である顔が検知されていないので、ステップS6に処理が進められ、検知された人全体を対象とした秘匿化が行われている。図6に示す例では、人H1の検知を示すバウンディングボックスB1で囲まれた領域の全体に秘匿化のためのモザイクが施されている。一方、人H2に対しては、特定部位である顔が検知されているので、ステップS5に処理が進められ、検知された顔を対象とした秘匿化が行われている。図6に示す例では、人H2の顔の検知を示すバウンディングボックスB3で囲まれた領域の全体に秘匿化のためのモザイクが施されている。 FIG. 6 is a diagram illustrating the result of the concealment processing executed according to the detection result shown in FIG. Since the face, which is a specific part, has not been detected for the person H1, the process proceeds to step S6, and concealment is performed for the entire detected person. In the example shown in FIG. 6, a mosaic for concealment is applied to the entire area surrounded by the bounding box B1 indicating the detection of the person H1. On the other hand, since the face which is a specific part is detected for the person H2, the process is advanced to step S5, and the detected face is concealed. In the example shown in FIG. 6, a mosaic for concealment is applied to the entire area surrounded by the bounding box B3 indicating the detection of the face of the person H2.

なお、秘匿化のためのモザイク処理に替えて、例えばぼかし処理や塗りつぶし処理が行われてよい。また、秘匿化のための処理は、例えば、バウンディングボックスB1、B3で囲まれた領域より少し広めの範囲に施されてよい。 In addition, instead of the mosaic process for concealment, for example, a blurring process or a filling process may be performed. Further, the process for concealment may be performed in a slightly wider range than the area surrounded by the bounding boxes B1 and B3, for example.

[2−1−3.変形例]
図7は、秘匿化部322が行う秘匿化処理の変形例について説明するための図である。図7は、秘匿化処理が施された撮影画像を示す図である。なお、図7に示す例では、上述の図6と同様に、人H1には検知された人全体を対象とする秘匿化処理(第2秘匿化処理)が行われ、人H2には特定部位(顔)を対象とする秘匿化処理(第1秘匿化処理)が行われている。
[2-1-3. Modification example]
FIG. 7 is a diagram for explaining a modification of the concealment process performed by the concealment unit 322. FIG. 7 is a diagram showing a photographed image that has undergone concealment processing. In the example shown in FIG. 7, similarly to FIG. 6 described above, the person H1 is subjected to a concealment process (second concealment process) for the entire detected person, and the person H2 is subjected to a specific part. A concealment process (first concealment process) for the (face) is being performed.

秘匿化部322は、秘匿化処理を行うにあたって、撮影画像から得られる物体(特定部位を含む)および特定部位のうちの少なくとも一方をCG(Computer Graphics)に置き換えてもよい。図7に示す例では、撮影画像から得られる特定部位(人H2の顔)のみがCGに置き換えられている。撮影画像から得られる物体(人H1)については、秘匿化のためにCGで置き換えるのではなくモザイクが施されている。ただし、撮影画像から得られる物体(人H1)についても、CGへの置き換えが行われてもよい。また、撮影画像から得られる物体(人H1)がCGで置き換えられ、特定部位(人H2の顔)に対してはCGへの置き換えではなくモザイク等が施されてもよい。 In performing the concealment processing, the concealment unit 322 may replace at least one of the object (including the specific portion) obtained from the captured image and the specific portion with CG (Computer Graphics). In the example shown in FIG. 7, only a specific part (face of human H2) obtained from the captured image is replaced with CG. The object (human H1) obtained from the photographed image is mosaiced instead of being replaced with CG for concealment. However, the object (human H1) obtained from the captured image may also be replaced with CG. Further, the object (human H1) obtained from the photographed image may be replaced with CG, and the specific portion (face of human H2) may be mosaiced or the like instead of being replaced with CG.

また、秘匿化部322は、撮影画像から得られる物体(特定部位を含む)および特定部位のうちの少なくとも一方について、撮影画像から得られる特徴を反映しつつ秘匿化処理を行ってよい。これにより、個人情報の保護を行いつつ、撮影画像から得られる情報の量が低減することを抑制することができる。 In addition, the concealment unit 322 may perform concealment processing on at least one of the object (including the specific portion) obtained from the captured image and the specific portion while reflecting the features obtained from the captured image. As a result, it is possible to prevent the amount of information obtained from the captured image from being reduced while protecting the personal information.

図7に示す例では、撮影画像から得られる特定部位(人H2の顔)のみに対して、撮影画像から得られる特徴を反映しつつ秘匿化処理が行われている。撮影画像から得られる物体(人H1)については、単に、秘匿化のためのモザイクが施されている。ただし、撮影画像から得られる物体(人H1)についても、撮影画像から得られる特徴を反映しつつ秘匿化処理が行われてよい。また、撮影画像から得られる物体(人H1)について、撮影画像から得られる特徴を反映しつつ秘匿化処理が行われ、特定部位(人H2の顔)については、単にモザイク等が施される構成としてもよい。 In the example shown in FIG. 7, the concealment processing is performed only on the specific portion (face of the person H2) obtained from the photographed image while reflecting the features obtained from the photographed image. The object (human H1) obtained from the photographed image is simply mosaicked for concealment. However, the object (person H1) obtained from the photographed image may also be concealed while reflecting the features obtained from the photographed image. Further, the object (human H1) obtained from the photographed image is concealed while reflecting the features obtained from the photographed image, and the specific part (face of the person H2) is simply mosaicked or the like. May be.

撮影画像から得られる特徴は、例えば特定部位が顔である場合には、顔の向き、視線、表情、年齢層、性別等である。撮影画像から得られる特徴は、例えば特定部位を含む物体が人である場合には、年齢、性別等である。撮影画像から得られる特徴は、例えば特定部位を含む物体が車両である場合には、車両の種別(自動車、バイク等)、自動車の用途による種別(乗用車、トラック、バス、タクシー等)、自動車のボディ種別(セダン、ミニバン、ステーションワゴン等)等である。 The features obtained from the captured image are, for example, the orientation of the face, the line of sight, the facial expression, the age group, the gender, etc. when the specific part is the face. The features obtained from the captured image are, for example, age, gender, etc. when the object including the specific part is a person. The features obtained from the captured image are, for example, when the object including a specific part is a vehicle, the type of vehicle (automobile, motorcycle, etc.), the type according to the purpose of the automobile (passenger car, truck, bus, taxi, etc.), Body type (sedans, minivans, station wagons, etc.).

図7に示す例では、撮影画像から得られる表情(笑顔)が反映されたCGが使われている。表示の他に、例えば、人H1が女の子であることが検知されている場合には、撮影画像中の女の子の顔が、笑顔の女の子のCGに置き換えられてもよい。撮影画像から得られる特徴の検知には、例えばDNN等の機械学習のアルゴリズムやテンプレートマッチング等が利用されてよい。また、撮影画像から得られる特徴は、生体センサ等のカメラ以外のセンサから得られる情報を加味して検知されてもよい。 In the example shown in FIG. 7, CG reflecting the facial expression (smile) obtained from the captured image is used. In addition to the display, for example, when it is detected that the person H1 is a girl, the face of the girl in the captured image may be replaced with the CG of the smiling girl. Machine learning algorithms such as DNN, template matching, and the like may be used to detect features obtained from captured images. Further, the features obtained from the captured image may be detected by adding information obtained from a sensor other than the camera such as a biological sensor.

また、秘匿化部322は、撮影画像における物体(特定部位を含む)および特定部位のうちの少なくとも一方について、復号可能に暗号化することにより秘匿化を行ってよい。これによれば、例えば事件を解決するために撮影画像中の個人情報の確認が必要である等の特殊な事情が生じた場合に、暗号化された撮影画像に対して復号化を行うことにより個人情報を確認することが可能になる。 Further, the concealment unit 322 may conceal at least one of the object (including the specific portion) and the specific portion in the captured image by decryptively encrypting the object (including the specific portion). According to this, when a special situation occurs, for example, it is necessary to confirm the personal information in the captured image in order to solve the case, the encrypted captured image is decrypted. It becomes possible to confirm personal information.

例えば、車両用装置1にて暗号化が行われ、データ収集装置2側において、所定の条件を満たした場合に復号化が行われる。所定の条件は、例えば車両用装置1の乗員から許可を得た場合等である。暗号化方式には、例えば、公知の共通鍵暗号、公開鍵暗号、又は、共通鍵暗号と公開鍵暗号のハイブリッド方式等が使用されてよい。ハイブリッド方式では、例えば、共通鍵の受け渡しの際に公開鍵と秘密鍵を用いる公開鍵暗号が使用され、画像データの暗号化には共通鍵が使用される。なお、車両用装置1は、暗号化前のデータを保存してもよいし、暗号化後のデータを保存してもよい。 For example, the vehicle device 1 performs encryption, and the data collection device 2 performs decryption when a predetermined condition is satisfied. The predetermined condition is, for example, when permission is obtained from the occupant of the vehicle device 1. As the encryption method, for example, a known common key cryptography, public key cryptography, or a hybrid method of common key cryptography and public key cryptography may be used. In the hybrid method, for example, public key cryptography that uses a public key and a private key when delivering a common key is used, and a common key is used for encrypting image data. The vehicle device 1 may store the data before encryption or may store the data after encryption.

(2−2.第2実施形態)
次に、第2実施形態に係る画像処理装置について説明する。第2実施形態の画像処理装置の説明に際して、第1実施形態と重複する部分については、特に説明の必要がない場合には説明を省略する。
(2-2. Second embodiment)
Next, the image processing apparatus according to the second embodiment will be described. In the description of the image processing apparatus of the second embodiment, the description of the portion overlapping with the first embodiment will be omitted unless it is particularly necessary to explain.

[2−2−1.画像処理装置の構成]
図8は、本発明の第2実施形態に係る画像処理装置3Aの構成を示す図である。なお、図8においては、第2実施形態の画像処理装置3Aの特徴を説明するために必要な構成要素のみが示されており、一般的な構成要素についての記載は省略されている。また、図8には、理解を容易とするために画像処理装置3Aとは別の構成要素であるカメラ4も示されている。図8に示すように、画像処理装置3Aは、取得部31と、制御部32Aと、記憶部33Aと、を備える。
[2-2-1. Image processing device configuration]
FIG. 8 is a diagram showing a configuration of an image processing device 3A according to a second embodiment of the present invention. Note that FIG. 8 shows only the components necessary for explaining the features of the image processing apparatus 3A of the second embodiment, and the description of general components is omitted. Further, FIG. 8 also shows a camera 4, which is a component different from the image processing device 3A, in order to facilitate understanding. As shown in FIG. 8, the image processing device 3A includes an acquisition unit 31, a control unit 32A, and a storage unit 33A.

取得部31は、第1実施形態と同様であるために、その説明を省略する。 Since the acquisition unit 31 is the same as that of the first embodiment, the description thereof will be omitted.

制御部32Aは、第1実施形態と同様に、画像処理装置3Aの全体を統括的に制御するコントローラである。制御部32Aは、例えば、CPU、RAM、および、ROM等を含むコンピュータとして構成される。ただし、制御部32Aは、第1実施形態と異なる機能を備える。この異なる点については、後述する。 The control unit 32A is a controller that comprehensively controls the entire image processing device 3A as in the first embodiment. The control unit 32A is configured as a computer including, for example, a CPU, a RAM, a ROM, and the like. However, the control unit 32A has a function different from that of the first embodiment. This difference will be described later.

記憶部33Aも、第1実施形態と同様の構成であるが、第1学習済みモデル331と第2学習済みモデル332とを記憶する点が第1実施形態と異なる。第1学習済みモデル331は、第1実施形態の学習済みモデル331と同様であり、物体検知に使用される。第2学習済みモデル332は、後述の画像セグメンテーションに使用される。第2学習済みモデル332は、例えばDNN等の機械学習のアルゴリズムにより学習を行うことで得られる。 The storage unit 33A also has the same configuration as that of the first embodiment, but is different from the first embodiment in that the first trained model 331 and the second trained model 332 are stored. The first trained model 331 is the same as the trained model 331 of the first embodiment, and is used for object detection. The second trained model 332 is used for image segmentation described later. The second trained model 332 can be obtained by learning by a machine learning algorithm such as DNN.

図8に示す、検知部321、秘匿化部322、および、画像セグメンテーション部323は、制御部32AのCPUが記憶部33Aに記憶されるプログラムに従って演算処理を実行することにより実現される制御部32Aの機能である。換言すると、画像処理装置3Aは、検知部321と、秘匿化部322Aと、画像セグメンテーション部323と、を備える。 The detection unit 321 and the concealment unit 322 and the image segmentation unit 323 shown in FIG. 8 are realized by the CPU of the control unit 32A executing arithmetic processing according to a program stored in the storage unit 33A. It is a function of. In other words, the image processing device 3A includes a detection unit 321, a concealment unit 322A, and an image segmentation unit 323.

なお、制御部32Aの各部321、322A、323の少なくともいずれか1つは、ASIC、FPGA、GPU等のハードウェアで構成されてもよい。また、各部321、322A、323は、概念的な構成要素である。1つの構成要素が実行する機能を複数の構成要素に分散させたり、複数の構成要素が有する機能を1つの構成要素に統合させたりしてよい。 In addition, at least one of each unit 321, 322A, 323 of the control unit 32A may be configured by hardware such as ASIC, FPGA, and GPU. Further, each part 321, 322A, 323 is a conceptual component. The functions executed by one component may be distributed to a plurality of components, or the functions of the plurality of components may be integrated into one component.

検知部321の構成は、第1実施形態と同様であるために、その説明を省略する。なお、検知部321は、第1学習済みモデル331を用いて、秘匿化が必要な特定部位を含む所定の物体、および、所定の物体の特定部位を、撮影画像から検知する。 Since the configuration of the detection unit 321 is the same as that of the first embodiment, the description thereof will be omitted. The detection unit 321 uses the first trained model 331 to detect a predetermined object including a specific portion that needs to be concealed and a specific portion of the predetermined object from the captured image.

画像セグメンテーション部323は、取得部31で取得した撮影画像に対してピクセル毎に意味をラベル付けする画像セグメンテーションを行う。画像セグメンテーション部323は、記憶部33Aに記憶される第2学習済みモデル332を用いて、撮影画像に対して画像セグメンテーションを行う。画像セグメンテーションにより、撮影画像に含まれる複数の要素が区分される。 The image segmentation unit 323 performs image segmentation that labels the meaning of each pixel of the captured image acquired by the acquisition unit 31. The image segmentation unit 323 performs image segmentation on the captured image using the second trained model 332 stored in the storage unit 33A. Image segmentation classifies a plurality of elements contained in a captured image.

本実施形態では、一例として、画像セグメンテーションにより、特定部位を含む物体を他の物体等の要素に対して区分するレベルでセグメンテーションが行われ、特定部位を含む物体を構成する各要素を区分するレベルのセグメンテーションは行われない。画像セグメンテーションにより、特定部位を含む物体が画像中に占める領域を抽出することができる。 In the present embodiment, as an example, by image segmentation, segmentation is performed at a level of segmenting an object containing a specific part with respect to elements such as other objects, and at a level of classifying each element constituting the object including the specific part. No segmentation is done. By image segmentation, it is possible to extract the area occupied by an object including a specific part in the image.

なお、本実施形態では、検知部321による物体検知と、画像セグメンテーション部323による画像セグメンテーションとは並行して行われる。また、画像セグメンテーション部323は、取得部31から取得した撮影画像の解像度を低下させた低解像度画像を用いて、第2学習済みモデル332による画像セグメンテーションを行うことが好ましい。これにより、画像セグメンテーション部323における画像セグメンテーションの処理負担を低減することができる。検知部321による物体検知に用いられる低解像度画像と、画像セグメンテーションに用いられる低解像度画像とは同じ解像度でもよいが、互いに異なってもよい。例えば、画像セグメンテーションに用いられる低解像度画像の方が、物体検知に用いられる低解像度画像に比べて低解像度であってよい。 In the present embodiment, the object detection by the detection unit 321 and the image segmentation by the image segmentation unit 323 are performed in parallel. Further, it is preferable that the image segmentation unit 323 performs image segmentation by the second trained model 332 using a low-resolution image obtained by reducing the resolution of the captured image acquired from the acquisition unit 31. As a result, the processing load of image segmentation in the image segmentation unit 323 can be reduced. The low-resolution image used for object detection by the detection unit 321 and the low-resolution image used for image segmentation may have the same resolution, but may be different from each other. For example, a low resolution image used for image segmentation may have a lower resolution than a low resolution image used for object detection.

秘匿化部322Aは、第1実施形態と同様に、検知部321の検知結果に基づき、特定部位を対象とする第1秘匿化処理と、特定部位を含む物体を対象とする第2秘匿化処理とを切り替えて行う。秘匿化部322Aが行う第1秘匿化処理は第1実施形態と同様である。ただし、秘匿化部322Aが行う第2秘匿化処理は第1実施形態と異なる。 Similar to the first embodiment, the concealment unit 322A has a first concealment process targeting a specific part and a second concealment process targeting an object including the specific part based on the detection result of the detection unit 321. Switch between and. The first concealment process performed by the concealment unit 322A is the same as that of the first embodiment. However, the second concealment process performed by the concealment unit 322A is different from that of the first embodiment.

第2実施形態においては、第2秘匿化処理は、画像セグメンテーションにより得られる物体(特定部位を含む)の領域を、物体の特徴を削減した画像とする処理である。物体の特徴を削減した画像とは、例えば塗りつぶし画像、ぼかし画像、モザイク画像等である。このような構成によれば、特定部位を含む物体を対象として秘匿化を行う場合に、物体の形状をなるべく残して秘匿化を行うことができる。すなわち、秘匿化処理によって撮影画像から削減される情報量を低減しつつ、適切に個人情報保護のための秘匿化を行うことができる。本実施形態では、第2秘匿化処理は、撮影画像から得られる物体(特定部位を含む)の特徴を反映しつつ秘匿化処理を行っていると解釈することができる。 In the second embodiment, the second concealment process is a process of converting a region of an object (including a specific part) obtained by image segmentation into an image in which the characteristics of the object are reduced. The image in which the characteristics of the object are reduced is, for example, a filled image, a blurred image, a mosaic image, or the like. According to such a configuration, when concealing an object including a specific part, it is possible to conceal the object while leaving the shape of the object as much as possible. That is, it is possible to appropriately conceal personal information while reducing the amount of information reduced from the captured image by the concealment process. In the present embodiment, it can be interpreted that the second concealment process performs the concealment process while reflecting the characteristics of the object (including the specific part) obtained from the captured image.

なお、第2秘匿化処理によって秘匿化が行われる範囲は、画像セグメンテーションにより得られる物体(特定部位を含む)の領域と完全に一致していてもよいが、完全に一致していなくてもよい。第2秘匿化処理によって秘匿化が行われる範囲は、例えば、画像セグメンテーションにより得られる物体の領域より少し広めであってもよい。 The range of concealment performed by the second concealment process may or may not completely match the area of the object (including a specific part) obtained by image segmentation. .. The range of concealment performed by the second concealment process may be slightly wider than the area of the object obtained by, for example, image segmentation.

[2−2−2.画像処理装置の動作例]
図9は、本発明の第2実施形態に係る画像処理装置3Aの動作例を示すフローチャートである。第2実施形態の画像処理装置3Aの動作は、概ね第1実施形態の画像処理装置3の動作と同じであるため、異なる点を中心に説明する。
[2-2-2. Image processing device operation example]
FIG. 9 is a flowchart showing an operation example of the image processing device 3A according to the second embodiment of the present invention. Since the operation of the image processing device 3A of the second embodiment is substantially the same as the operation of the image processing device 3 of the first embodiment, the differences will be mainly described.

まず、取得部31がカメラ4より撮影画像を取得する(ステップS1)。取得した撮影画像を用いて、検知部321による物体検知処理(所定の物体および特定部位の検知)と、画像セグメンテーション部323による画像セグメンテーションとが並行して行われる(ステップS2A)。 First, the acquisition unit 31 acquires a captured image from the camera 4 (step S1). Using the acquired captured image, the object detection process (detection of a predetermined object and a specific part) by the detection unit 321 and the image segmentation by the image segmentation unit 323 are performed in parallel (step S2A).

図10は、図4に示す撮影画像に対する画像セグメンテーションの結果を例示する図である。画像セグメンテーションにより、道路Rと、壁Wと、人Hとがクラス分けされている。図10に示す例では、クラス分けされた各要素R、W、Hは、塗りつぶしの色を変えて区別されている。なお、クラス分けされた各要素の区別は、塗りつぶしの色を変えるのではなく、例えば、ハッチングの種類を変えること等により行われてよい。 FIG. 10 is a diagram illustrating the result of image segmentation for the captured image shown in FIG. Road R, wall W, and person H are classified by image segmentation. In the example shown in FIG. 10, each of the classified elements R, W, and H is distinguished by changing the fill color. The classification of each element may be distinguished by, for example, changing the type of hatching, instead of changing the color of the fill.

検知部321による物体検知と、画像セグメンテーション部323による画像セグメンテーションとが完了すると、検知部321により所定の物体が検知されたか否かが判断される(ステップS3)。所定の物体が検知されなかった場合(ステップS3でNo)、図3にフローチャートで示される処理が一旦終了される。所定の物体が検知された場合(ステップS3でYes)、検知部321により所定の物体に含まれる特定部位が検知されたか否かが判断される(ステップS4)。なお、ステップS4では、ステップS2において所定の物体が複数検知されている場合には、各所定の物体に対して特定部位が検知されている否かが判断される。 When the object detection by the detection unit 321 and the image segmentation by the image segmentation unit 323 are completed, it is determined whether or not a predetermined object has been detected by the detection unit 321 (step S3). When a predetermined object is not detected (No in step S3), the process shown in the flowchart in FIG. 3 is temporarily terminated. When a predetermined object is detected (Yes in step S3), it is determined whether or not a specific portion included in the predetermined object is detected by the detection unit 321 (step S4). In step S4, when a plurality of predetermined objects are detected in step S2, it is determined whether or not a specific portion is detected for each predetermined object.

特定部位が検知されている場合(ステップS4でYes)、当該特定部位を対象に第1秘匿化処理が行われる(ステップS5)。特定部位が検知されていない場合(ステップS4でNo)、当該特定部位を含む物体を対象に第2秘匿化処理が行われる(ステップS6)。第2秘匿化処理は、画像セグメンテーションの結果に基づき実行される。 When a specific part is detected (Yes in step S4), the first concealment process is performed on the specific part (step S5). When the specific part is not detected (No in step S4), the second concealment process is performed on the object including the specific part (step S6). The second concealment process is executed based on the result of image segmentation.

図11は、第2実施形態の画像処理装置3Aにおいて、図4に示す撮影画像が入力された場合の秘匿化処理結果を例示する図である。この例において、検知部321の検知結果は、第1実施形態の図5に示す結果と同じである。すなわち、人H1については、人として検知されているが、特定部位である顔の検知はできていない。人H2については、人および顔の検知ができている。 FIG. 11 is a diagram illustrating the result of concealment processing when the captured image shown in FIG. 4 is input in the image processing device 3A of the second embodiment. In this example, the detection result of the detection unit 321 is the same as the result shown in FIG. 5 of the first embodiment. That is, the person H1 is detected as a person, but the face, which is a specific part, cannot be detected. For the person H2, the person and the face can be detected.

図11において、人H1については、第2秘匿化処理が行われている。すなわち、取得部31で取得した撮影画像について、画像セグメンテーションにより得られた人H1の領域が、人の特徴を削減した画像(本例では塗りつぶし画像)にされている。これにより、人H1の大きさや姿勢等の情報を残しつつ、人H1の個人情報が秘匿化されている。 In FIG. 11, the second concealment process is performed on the person H1. That is, with respect to the captured image acquired by the acquisition unit 31, the region of the person H1 obtained by image segmentation is made into an image (filled image in this example) in which the characteristics of the person are reduced. As a result, the personal information of the person H1 is kept secret while leaving the information such as the size and posture of the person H1.

本例では、詳細には、人の特徴を削減した画像には、画像セグメンテーションの際に生成される画像(図10参照)が適用されている。すなわち、物体(特定部位を含む)の特徴を削減した画像には、画像セグメンテーションの際に生成される画像が適用されている。これによれば、例えばアルファブレンド等の画像合成手法を利用して、個人情報の秘匿化を行った画像を得ることができる。 In this example, in detail, an image generated during image segmentation (see FIG. 10) is applied to an image in which human features are reduced. That is, the image generated at the time of image segmentation is applied to the image in which the characteristics of the object (including a specific part) are reduced. According to this, it is possible to obtain an image in which personal information is concealed by using an image composition method such as alpha blending.

図11において、人H2については、第1秘匿化処理が行われている。図11に示す例では、検知部321により検知された特定部位(顔)の領域がCGに置換されている。ただし、特定部位の秘匿化には、例えば塗りつぶし、ぼかし、モザイク等が利用されてよい。 In FIG. 11, the first concealment process is performed on the person H2. In the example shown in FIG. 11, the region of the specific portion (face) detected by the detection unit 321 is replaced with CG. However, for concealment of a specific part, for example, painting, blurring, mosaic, etc. may be used.

<3.留意事項等>
本明細書中に開示されている種々の技術的特徴は、上記実施形態のほか、その技術的創作の主旨を逸脱しない範囲で種々の変更を加えることが可能である。すなわち、上記実施形態は、全ての点で例示であって、制限的なものではないと考えられるべきであり、本発明の技術的範囲は、上記実施形態の説明ではなく、特許請求の範囲によって示されるものであり、特許請求の範囲と均等の意味及び範囲内に属する全ての変更が含まれると理解されるべきである。また、本明細書中に示される複数の実施形態及び変形例は可能な範囲で適宜組み合わせて実施されてよい。
<3. Points to note>
The various technical features disclosed herein can be modified in addition to the above embodiments without departing from the gist of the technical creation. That is, it should be considered that the above embodiments are exemplary in all respects and are not restrictive, and the technical scope of the present invention is not the description of the above embodiments but the claims. It is shown and should be understood to include all modifications that fall within the meaning and scope of the claims. In addition, a plurality of embodiments and modifications shown in the present specification may be appropriately combined and implemented to the extent possible.

3、3A・・・画像処理装置
321・・・検知部
322、322A・・・秘匿化部
323・・・画像セグメンテーション部
3, 3A ... Image processing device 321 ... Detection unit 322, 322A ... Concealment unit 323 ... Image segmentation unit

Claims (7)

取得した撮影画像から、個人情報を保護する秘匿化が必要な特定部位を含む物体および前記特定部位を検知可能に設けられる検知部と、
前記検知部の検知結果に基づき、前記撮影画像に対して前記秘匿化のための秘匿化処理を行う秘匿化部と、
を備え、
前記秘匿化処理は、前記物体および前記特定部位の両方を検知した場合と、前記物体および前記特定部位のうち前記物体のみを検知した場合とで異なる、画像処理装置。
An object including a specific part that needs to be concealed to protect personal information and a detection unit provided so as to be able to detect the specific part from the acquired captured image.
Based on the detection result of the detection unit, the concealment unit that performs the concealment processing for concealing the captured image, and the concealment unit.
With
The image processing device is different in the case where both the object and the specific portion are detected and the case where only the object is detected among the object and the specific portion.
前記秘匿化処理は、
前記物体および前記特定部位の両方を検知した場合には、前記特定部位を対象として前記秘匿化を行う第1秘匿化処理であり、
前記物体および前記特定部位のうち前記物体のみを検知した場合には、前記物体を対象として前記秘匿化を行う第2秘匿化処理である、請求項1に記載の画像処理装置。
The concealment process is
When both the object and the specific part are detected, this is the first concealment process for concealing the specific part.
The image processing apparatus according to claim 1, which is a second concealment process for concealing the object when only the object is detected among the object and the specific portion.
取得した前記撮影画像に対してピクセル毎に意味をラベル付けする画像セグメンテーションを行う画像セグメンテーション部を更に備え、
前記第2秘匿化処理は、前記画像セグメンテーションにより得られる前記物体の領域を、前記物体の特徴を削減した画像とする処理である、請求項2に記載の画像処理装置。
Further, an image segmentation unit for performing image segmentation for labeling the meaning of each pixel of the acquired captured image is provided.
The image processing apparatus according to claim 2, wherein the second concealment process is a process of converting a region of the object obtained by the image segmentation into an image in which the characteristics of the object are reduced.
前記物体の特徴を削減した画像には、前記画像セグメンテーションの際に生成された画像が適用される、請求項3に記載の画像処理装置。 The image processing apparatus according to claim 3, wherein the image generated at the time of the image segmentation is applied to the image in which the characteristics of the object are reduced. 前記秘匿化部は、前記撮影画像から得られる前記物体および前記特定部位のうちの少なくとも一方について、前記撮影画像から得られる特徴を反映しつつ前記秘匿化処理を行う、請求項1から4のいずれか1項に記載の画像処理装置。 Any of claims 1 to 4, wherein the concealment unit performs the concealment processing on at least one of the object and the specific portion obtained from the photographed image while reflecting the features obtained from the photographed image. The image processing apparatus according to item 1. 前記秘匿化部は、前記撮影画像における前記物体および前記特定部位のうちの少なくとも一方について、復号可能に暗号化することにより前記秘匿化を行う、請求項1から4のいずれか1項に記載の画像処理装置。 The concealment unit according to any one of claims 1 to 4, wherein the concealment unit performs the concealment by decryptively encrypting at least one of the object and the specific portion in the captured image. Image processing device. 取得した撮影画像から、個人情報を保護する秘匿化が必要な特定部位を含む物体および前記特定部位の検知を試みる検知工程と、
前記検知工程の検知結果に基づき、前記撮影画像に対して前記秘匿化のための秘匿化処理を行う秘匿化工程と、
を備え、
前記秘匿化処理は、前記物体および前記特定部位の両方を検知した場合と、前記物体および前記特定部位のうち前記物体のみを検知した場合とで異なる、画像処理方法。
A detection process that attempts to detect an object containing a specific part that needs to be concealed to protect personal information and the specific part from the acquired captured image, and
Based on the detection result of the detection step, the concealment step of performing the concealment processing for concealment of the captured image, and
With
The image processing method is different from the case where both the object and the specific portion are detected and the case where only the object is detected among the object and the specific portion.
JP2019203267A 2019-11-08 2019-11-08 Image processing device and image processing method Active JP7431557B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019203267A JP7431557B2 (en) 2019-11-08 2019-11-08 Image processing device and image processing method
US17/642,479 US20220301315A1 (en) 2019-11-08 2020-11-06 Image processing device and image processing method
CN202080064116.5A CN114424241A (en) 2019-11-08 2020-11-06 Image processing apparatus and image processing method
DE112020005521.3T DE112020005521T5 (en) 2019-11-08 2020-11-06 Image processing device and image processing method
PCT/JP2020/041622 WO2021090943A1 (en) 2019-11-08 2020-11-06 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019203267A JP7431557B2 (en) 2019-11-08 2019-11-08 Image processing device and image processing method

Publications (2)

Publication Number Publication Date
JP2021077996A true JP2021077996A (en) 2021-05-20
JP7431557B2 JP7431557B2 (en) 2024-02-15

Family

ID=75898410

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019203267A Active JP7431557B2 (en) 2019-11-08 2019-11-08 Image processing device and image processing method

Country Status (1)

Country Link
JP (1) JP7431557B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023089747A1 (en) * 2021-11-18 2023-05-25 日本電信電話株式会社 Collection device, collection method, collection program, and collection system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6273566B2 (en) 2013-04-12 2018-02-07 パナソニックIpマネジメント株式会社 COMMUNICATION SYSTEM, IMAGE GENERATION METHOD, AND COMMUNICATION DEVICE
JP6915995B2 (en) 2017-02-01 2021-08-11 株式会社デンソーテン Drive recorder
GB2586389B (en) 2018-03-29 2022-03-30 Mitsubishi Electric Corp Image processing device, image processing method, and monitoring system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023089747A1 (en) * 2021-11-18 2023-05-25 日本電信電話株式会社 Collection device, collection method, collection program, and collection system

Also Published As

Publication number Publication date
JP7431557B2 (en) 2024-02-15

Similar Documents

Publication Publication Date Title
WO2021090943A1 (en) Image processing device and image processing method
US9881221B2 (en) Method and system for estimating gaze direction of vehicle drivers
US20040081338A1 (en) Face identification device and face identification method
US11037312B2 (en) Technologies for thermal enhanced semantic segmentation of two-dimensional images
US20110078802A1 (en) Display device, drive recorder, display method and computer-readable medium
CN112597892B (en) System and method for detecting remnants in automobile cabin
US20220028302A1 (en) Sensor device and encryption method
TW201411500A (en) Video analysis
KR20150092452A (en) Black box for car using the idle time of the black box and its control method
JP2023111974A (en) Image masking device and image masking method
JP2021176235A (en) Image processing method
CN112634558A (en) System and method for preventing removal of an item from a vehicle by an improper party
JP7431557B2 (en) Image processing device and image processing method
EP3594842B1 (en) A sensor device for the anonymization of the sensor data and an image monitoring device and a method for operating a sensor device for the anonymization of the sensor data
CN115113197A (en) Sensor for generating tag sensor data
KR20220091471A (en) information processing system, information processing method, imaging device, information processing device
JP5881149B2 (en) Alarm target person detection device, alarm target person detection method, program, recording medium, and alarm target person detection system in vehicle
Nagendran et al. Security and safety with facial recognition feature for next generation automobiles
EP3380368B1 (en) Object detection system and method thereof
US20220109556A1 (en) Sensor device and encryption method
EP3352450A1 (en) Vehicle image recording apparatus and method of recording image data of an environment proximate to a vehicle
JP7360304B2 (en) Image processing device and image processing method
Thompson et al. Enhancing driver awareness using see-through technology
JP7154071B2 (en) Driving state monitoring support system, driving state monitoring support method and program
US20230109171A1 (en) Operator take-over prediction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240202

R150 Certificate of patent or registration of utility model

Ref document number: 7431557

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150