JP2021177597A - Imaging device and imaging system - Google Patents

Imaging device and imaging system Download PDF

Info

Publication number
JP2021177597A
JP2021177597A JP2020082334A JP2020082334A JP2021177597A JP 2021177597 A JP2021177597 A JP 2021177597A JP 2020082334 A JP2020082334 A JP 2020082334A JP 2020082334 A JP2020082334 A JP 2020082334A JP 2021177597 A JP2021177597 A JP 2021177597A
Authority
JP
Japan
Prior art keywords
image
processing unit
image processing
personal information
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020082334A
Other languages
Japanese (ja)
Inventor
元紀 神沢
Motonori Kanzawa
宗弘 中谷
Munehiro Nakatani
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2020082334A priority Critical patent/JP2021177597A/en
Priority to US17/221,922 priority patent/US20210350159A1/en
Publication of JP2021177597A publication Critical patent/JP2021177597A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Astronomy & Astrophysics (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

To allow a proper protection of personal information of an image taken by an imaging device equipped to such a mobile body as a drone or a vehicle.SOLUTION: The imaging device, which is equipped on or equipped in a mobile body, includes: a camera for taking an image around the mobile body; an image processing unit for processing the image taken by the camera; and a post-processing unit for transferring or recording the image processed by the image processing unit. The image processing unit detects personal information in an image taken by the camera, and performs image processing including mosaic processing to make the personal information unrecognizable.SELECTED DRAWING: Figure 5

Description

本発明は、撮像装置及び撮像システムに関する。 The present invention relates to an imaging device and an imaging system.

近年、ドローンと称される飛行体にカメラを搭載して、上空から撮影を行うことが行われている。ドローンの飛行は、現時点では多くの国で何らかの規制がある。例えば日本では、航空法により人家の密集地帯での飛行が禁止されている。しかしながら、今後ドローンの飛行の安全性が確保されれば、規制が緩和され、人家の密集地帯でのドローンの飛行が認められる可能性が高い。 In recent years, a camera has been mounted on an air vehicle called a drone to shoot from the sky. Drone flight is currently subject to some restrictions in many countries. For example, in Japan, the Aviation Law prohibits flying in densely populated areas. However, if the safety of drone flight is ensured in the future, it is highly likely that regulations will be relaxed and drone flight will be permitted in densely populated areas.

ところで、ドローンに搭載されたカメラは上空から撮像を行うため、地上から撮影した場合には写らない個人情報が撮影画像に含まれる可能性がある。したがって、ドローンに搭載されたカメラで撮影された画像の場合、一般的なカメラとは異なる個人情報の保護機能が必要である。例えば、塀で道路側から隠れた家屋のベランダや、2階以上の階の窓などは、本来は地上からは見えない箇所であり、それらの箇所が撮影されることは好ましくない。 By the way, since the camera mounted on the drone takes an image from the sky, there is a possibility that the photographed image contains personal information that cannot be captured when the image is taken from the ground. Therefore, in the case of an image taken by a camera mounted on a drone, a personal information protection function different from that of a general camera is required. For example, the veranda of a house hidden from the road side by a fence, windows on the second floor and above, etc. are originally invisible from the ground, and it is not preferable to photograph these parts.

また、ドローンのような飛行体とは別に、撮影画像のプライバシーが問題になる例として、道路を走行する自動車に搭載されるドライブレコーダがある。ドライブレコーダの場合にも、撮影された画像に含まれる個人情報の保護が問題になっている。すなわち、ドライブレコーダで撮影された画像には、人物の顔や、建物の表札などの個人情報が含まれるケースが多々あり、撮影された画像が公開された場合に問題になることがある。 In addition to flying objects such as drones, there is a drive recorder mounted on a car traveling on the road as an example in which the privacy of captured images becomes a problem. Even in the case of drive recorders, the protection of personal information contained in captured images has become a problem. That is, there are many cases where an image taken by a drive recorder contains personal information such as a person's face or a nameplate of a building, which may cause a problem when the taken image is released.

従来、ドローンやドライブレコーダで撮影された画像をネットや放送などで公開する際には、画像中の個人情報が含まれる箇所にモザイクをかける等の編集作業を行った上で、公開するようにしていた。 Conventionally, when publishing an image taken with a drone or drive recorder on the net or broadcasting, edit work such as applying a mosaic to the part containing personal information in the image before publishing it. Was there.

特許文献1には、飛行船で撮影した監視映像を、飛行船からセンタ装置に無線伝送し、センタ装置に設置された画像処理装置において、プライバシーを保つように低解像度の画像などに変換する技術が記載されている。 Patent Document 1 describes a technique for wirelessly transmitting a surveillance image taken by an airship from an airship to a center device and converting the image processing device installed in the center device into a low-resolution image or the like so as to maintain privacy. Has been done.

特開2016−119628号公報Japanese Unexamined Patent Publication No. 2016-119628

特許文献1に記載されるように、プライバシー保護のために、飛行体が撮影した画像に処理を施すことは従来から知られている。しかしながら、上述したドローンにこの技術をそのまま適用したとしても、個人情報の保護が適正に行えない可能性がある。すなわち、通常、ドローンに搭載されたカメラが撮影した画像は、そのドローンを操縦するコントローラに無線伝送され、コントローラ内のメモリなどに記録される。
ここで、特許文献1に記載された画像処理装置をコントローラに内蔵させることで、プライバシー保護がなされた記録画像になる筈である。
As described in Patent Document 1, it has been conventionally known to process an image taken by an air vehicle for privacy protection. However, even if this technology is applied to the above-mentioned drone as it is, there is a possibility that personal information cannot be properly protected. That is, normally, the image taken by the camera mounted on the drone is wirelessly transmitted to the controller that controls the drone and recorded in a memory or the like in the controller.
Here, by incorporating the image processing device described in Patent Document 1 into the controller, a recorded image with privacy protection should be obtained.

ところが、ドローンから無線伝送される画像信号が不正に別の機器で受信された場合には、その画像信号についてはプライバシー保護のための画像処理が施されていない。このため、結果的に個人情報が保護されていない画像が流出してしまうおそれがある。
もちろん、ドローンからコントローラへの無線伝送時に、画像信号を暗号化して不正受信を防止することは可能であるが、暗号化が破られることは希ではない。
However, when the image signal wirelessly transmitted from the drone is illegally received by another device, the image signal is not subjected to image processing for privacy protection. Therefore, as a result, there is a possibility that an image in which personal information is not protected may be leaked.
Of course, during wireless transmission from the drone to the controller, it is possible to encrypt the image signal to prevent unauthorized reception, but it is not uncommon for the encryption to be broken.

また、ドローンで撮影した画像は、ドローンの飛行を操縦するために操作者がコントローラ側でリアルタイムにモニタする必要がある。したがって、ドローンで撮影した画像は、暗号化や復号化にそれほど時間を要しないようにする必要があり、あまり強力な暗号化をするのは好ましくない。 In addition, the image taken by the drone needs to be monitored by the operator in real time on the controller side in order to control the flight of the drone. Therefore, it is necessary that the image taken by the drone does not require much time for encryption and decryption, and it is not preferable to perform very strong encryption.

自動車用のドライブレコーダの場合にも、ドライブレコーダで記録した画像を利用する際に、プライバシー保護のための画像処理を行うのが一般的であるため、通常はドライブレコーダに画像を記録する際には、プライバシー保護は考慮されていない。 Even in the case of a drive recorder for automobiles, when using the image recorded by the drive recorder, it is common to perform image processing for privacy protection, so usually when recording the image on the drive recorder. Is not considered for privacy protection.

本発明は、これらの点に鑑み、撮影した画像の個人情報保護が適切に行える撮像装置及び撮像システムを提供することを目的とする。 In view of these points, an object of the present invention is to provide an imaging device and an imaging system that can appropriately protect personal information of captured images.

本発明の撮像装置は、移動体に搭載又は内蔵される撮像装置であって、移動体の周囲を撮影するカメラと、カメラが撮影した画像を処理する画像処理部と、画像処理部が処理した画像を伝送又は記録する後処理部とを備え、画像処理部は、カメラが撮影した画像に含まれる個人情報を検出し、個人情報を判別不能にする画像処理を施すものである。 The image pickup device of the present invention is an image pickup device mounted on or built in a moving body, and is processed by a camera that photographs the surroundings of the moving body, an image processing unit that processes an image taken by the camera, and an image processing unit. It is provided with a post-processing unit for transmitting or recording an image, and the image processing unit detects personal information included in an image taken by a camera and performs image processing that makes the personal information indistinguishable.

また、本発明の撮像システムは、撮像装置を内蔵した移動体と、撮像装置から伝送される画像信号を受信するコントローラとを備える撮像システムである。
ここで、撮像装置は、移動体の周囲を撮影するカメラと、カメラが撮影した画像に含まれる個人情報を検出し、個人情報を判別不能にする画像処理を施す画像処理部と、画像処理部が処理した画像をコントローラに伝送する伝送処理部と、を備える。
コントローラは、伝送処理部が伝送した画像を受信して表示する表示部と、移動体の移動を操作する操作部と、を備える。
Further, the image pickup system of the present invention is an image pickup system including a moving body having a built-in image pickup device and a controller for receiving an image signal transmitted from the image pickup device.
Here, the image pickup apparatus includes a camera that photographs the surroundings of the moving object, an image processing unit that detects personal information contained in the image captured by the camera and performs image processing that makes the personal information indistinguishable, and an image processing unit. It is provided with a transmission processing unit that transmits the image processed by the camera to the controller.
The controller includes a display unit that receives and displays an image transmitted by the transmission processing unit, and an operation unit that operates the movement of the moving body.

本発明によれば、移動体に内蔵又は搭載されたカメラで撮影した画像が、撮像装置内で個人情報を判別不能にする画像処理が施された上で、伝送又は記録されるため、個人情報の保護を適切に行うことができる。
例えば、記録された画像信号には、既に個人情報が判別できないように画像処理が施されているため、記録された画像信号が公開されても、画像信号に含まれる個人情報は、適切に保護される。また、撮像装置で撮影した画像信号を受信した側では、その受信した画像信号には、既に個人情報が判別できないように画像処理が施されているため、個人情報を適切に保護することができる。
According to the present invention, an image taken by a camera built in or mounted on a moving body is transmitted or recorded after being subjected to image processing that makes personal information indistinguishable in the image pickup apparatus. Therefore, personal information is transmitted or recorded. Can be properly protected.
For example, since the recorded image signal has already been subjected to image processing so that the personal information cannot be identified, even if the recorded image signal is released, the personal information contained in the image signal is appropriately protected. Will be done. Further, on the side receiving the image signal taken by the image pickup device, the received image signal has already been subjected to image processing so that the personal information cannot be discriminated, so that the personal information can be appropriately protected. ..

本発明の一実施の形態例による撮像システムの概略構成例を示す図である。It is a figure which shows the schematic structure example of the image pickup system by one Embodiment of this invention. 本発明の一実施の形態例による撮像システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the image pickup system by one Embodiment of this invention. 本発明の一実施の形態例による画像処理時の優先順位の一覧を示す図である。It is a figure which shows the list of priority at the time of image processing by one Embodiment of this invention. 本発明の一実施の形態例による複数の画像認識処理部で順に処理が行われる流れを示すフローチャートである。It is a flowchart which shows the flow which the processing is performed in order in a plurality of image recognition processing units according to the example of one Embodiment of this invention. 本発明の一実施の形態例による第1画像認識処理部での画像処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the image processing in the 1st image recognition processing unit by one Embodiment of this invention. 本発明の一実施の形態例による第2画像認識処理部での画像処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the image processing in the 2nd image recognition processing part by the Example of 1 Embodiment of this invention.

以下、本発明の一実施の形態例(以下、「本例」と称する)を、図面を参照して説明する。 Hereinafter, an example of an embodiment of the present invention (hereinafter, referred to as “this example”) will be described with reference to the drawings.

[システム構成]
図1は、本例の撮像システムの構成例を示す。
本例の撮像システムは、ドローン100とコントローラ200とで構成される。
ドローン100は、コントローラ200からの指示で飛行する飛行体である。ドローン100は、カメラ101(図2)などで構成された撮像装置を内蔵して、飛行中の周囲を撮影することができる。
コントローラ200は、ドローン100と無線通信を行う端末であり、ドローン100に対して飛行する方向や高度を指示することができる。また、コントローラ200は、ドローン100で撮影した画像信号を受信して、表示を行うことができる。
[System configuration]
FIG. 1 shows a configuration example of the imaging system of this example.
The imaging system of this example includes a drone 100 and a controller 200.
The drone 100 is an air vehicle that flies according to instructions from the controller 200. The drone 100 has a built-in image pickup device composed of a camera 101 (FIG. 2) and the like, and can photograph the surroundings during flight.
The controller 200 is a terminal that wirelessly communicates with the drone 100, and can instruct the drone 100 in the direction and altitude of flight. Further, the controller 200 can receive the image signal captured by the drone 100 and display it.

[装置の内部構成]
図2は、ドローン100とコントローラ200の内部構成の例を示すブロック図である。
ドローン100は、カメラ101、プロペラ102、無線LANモジュール103、バッテリ104、及びセンサ105を備える。
また、ドローン100は、撮影制御モジュール111、画像処理制御モジュール112、飛行制御モジュール113、データ送受信モジュール114、電源制御モジュール115、第1画像認識処理部121、及び第2画像認識処理部122を備える。
但し、画像認識処理部121,122は、図2では2つの例を示すが、この画像認識処理部の数は一例であり、2つに限定されない。
[Internal configuration of device]
FIG. 2 is a block diagram showing an example of the internal configuration of the drone 100 and the controller 200.
The drone 100 includes a camera 101, a propeller 102, a wireless LAN module 103, a battery 104, and a sensor 105.
Further, the drone 100 includes a photographing control module 111, an image processing control module 112, a flight control module 113, a data transmission / reception module 114, a power supply control module 115, a first image recognition processing unit 121, and a second image recognition processing unit 122. ..
However, although the image recognition processing units 121 and 122 show two examples in FIG. 2, the number of the image recognition processing units is only one example and is not limited to two.

カメラ101は、ドローン100の周囲を一定のフレーム周期で撮影する。カメラ101での撮影は、撮影制御モジュール111からの指示に基づいて行われる。
プロペラ102は、飛行制御モジュール113からの指示に基づいて回転し、ドローン100を指示された高度及び方向に飛行させることができる。
The camera 101 photographs the surroundings of the drone 100 at a constant frame cycle. The shooting with the camera 101 is performed based on the instruction from the shooting control module 111.
The propeller 102 can rotate based on the instruction from the flight control module 113 to fly the drone 100 in the instructed altitude and direction.

無線LANモジュール103は、データ送受信モジュール114の制御に基づいて、コントローラ200と無線通信を行う。無線LANモジュール103による無線通信でカメラ101が撮影した画像信号は、コントローラ200に無線伝送される。
また、無線LANモジュール103は、飛行する高度や方向などの飛行についての指示をコントローラ200から受信し、受信した飛行についての指示を、飛行制御モジュール113に供給する。
また、撮影についての指示をコントローラ200から無線LANモジュール103が受信した場合には、無線LANモジュール103は、受信した撮影についての指示を、撮影制御モジュール111に供給する。
The wireless LAN module 103 wirelessly communicates with the controller 200 based on the control of the data transmission / reception module 114. The image signal captured by the camera 101 by wireless communication by the wireless LAN module 103 is wirelessly transmitted to the controller 200.
Further, the wireless LAN module 103 receives an instruction regarding flight such as the altitude and direction of flight from the controller 200, and supplies the received instruction regarding flight to the flight control module 113.
When the wireless LAN module 103 receives an instruction for shooting from the controller 200, the wireless LAN module 103 supplies the received instruction for shooting to the shooting control module 111.

バッテリ104は、ドローン100内の各部を作動させるのに必要な電源を供給する。バッテリ104による電源供給やバッテリ残量の管理は、電源制御モジュール115により行われる。
センサ105は、ドローン100の飛行状態を検出し、検出した飛行状態のデータを飛行制御モジュール113に供給する。例えば、センサ105は、ドローン100の地上からの飛行高度を検出する機能を備える。また、センサ105は、GPS(Global Positioning System)などを利用した測位部を備えて、ドローン100の飛行位置を検出する機能を備えてもよい。測位部を備える場合には、センサ105は、測位によって得られた高度(標高)を飛行高度としてもよい。
The battery 104 supplies the power required to operate each part of the drone 100. The power supply by the battery 104 and the management of the remaining battery level are performed by the power control module 115.
The sensor 105 detects the flight state of the drone 100 and supplies the detected flight state data to the flight control module 113. For example, the sensor 105 has a function of detecting the flight altitude of the drone 100 from the ground. Further, the sensor 105 may be provided with a positioning unit using GPS (Global Positioning System) or the like, and may have a function of detecting the flight position of the drone 100. When the positioning unit is provided, the sensor 105 may use the altitude (elevation) obtained by the positioning as the flight altitude.

撮影制御モジュール111は、コントローラ200から無線伝送で受信した指示に基づいて、カメラ101での撮影を実行させる。例えば、撮影アングルやズーム倍率などの指示を受信したとき、撮影制御モジュール111は、それらの指示に基づいた撮影状態となるようにカメラ101でも撮影を制御する。
なお、コントローラ200側では、ドローン100が飛行中には、カメラ101が撮影した画像をモニタして飛行方向などを指示する必要がある。このため、カメラ101は、ドローン100が飛行中には、常時画像を撮影する。
The photographing control module 111 causes the camera 101 to perform photographing based on the instruction received from the controller 200 by wireless transmission. For example, when receiving instructions such as a shooting angle and a zoom magnification, the shooting control module 111 also controls shooting with the camera 101 so that the shooting state is based on those instructions.
On the controller 200 side, while the drone 100 is in flight, it is necessary to monitor the image taken by the camera 101 and instruct the flight direction and the like. Therefore, the camera 101 constantly captures an image while the drone 100 is in flight.

画像処理制御モジュール112は、カメラ101が撮影して取得した画像信号についての処理(画像処理)を実行する画像処理部である。
画像処理制御モジュール112は、画像処理を実行する際には、第1画像認識処理部121や第2画像認識処理部122を使用して、画像内の各領域に含まれる物体や人物を認識する。そして、画像処理制御モジュール112は、認識した結果に基づいて、画像内の一部の領域の個人情報が判別できないように画像処理を実行する。
各画像認識処理部121及び122は、人物や物体を認識する際には、例えば機械学習処理によって認識を行う。また、各画像認識処理部121,122は、飛行制御モジュール113やカメラ101から飛行位置(マップ上の絶対位置)、飛行高度、カメラの向きを取得して、これらのデータを参照して認識するようにしてもよい。各画像認識処理部121、122を使って行われる画像処理の詳細については後述する。
The image processing control module 112 is an image processing unit that executes processing (image processing) on an image signal captured and acquired by the camera 101.
When executing image processing, the image processing control module 112 uses the first image recognition processing unit 121 and the second image recognition processing unit 122 to recognize an object or a person included in each area in the image. .. Then, the image processing control module 112 executes image processing based on the recognized result so that the personal information of a part of the area in the image cannot be determined.
When recognizing a person or an object, the image recognition processing units 121 and 122 perform recognition by, for example, machine learning processing. Further, the image recognition processing units 121 and 122 acquire the flight position (absolute position on the map), the flight altitude, and the direction of the camera from the flight control module 113 and the camera 101, and recognize by referring to these data. You may do so. The details of the image processing performed by using the image recognition processing units 121 and 122 will be described later.

そして、画像処理制御モジュール112で画像処理が実行された画像信号は、データ送受信モジュール114の制御により、無線LANモジュール103を介してコントローラ200側に伝送される。データ送受信モジュール114や無線LANモジュール103は、画像処理が行われた画像信号を伝送するための後処理部である。 Then, the image signal for which image processing has been executed by the image processing control module 112 is transmitted to the controller 200 side via the wireless LAN module 103 under the control of the data transmission / reception module 114. The data transmission / reception module 114 and the wireless LAN module 103 are post-processing units for transmitting an image signal that has undergone image processing.

本例の場合には、無線LANモジュール103から無線伝送される画像信号は、画像処理制御モジュール112で処理された画像信号である。但し、第1画像認識処理部121や第2画像認識処理部122が、撮影した画像内から個人情報を認識できない場合、つまり個人情報が含まれない画像は、画像処理制御モジュール112による個人情報が判別できないようにする画像処理を行わないで、そのまま無線LANモジュール103経由で無線伝送される。 In the case of this example, the image signal wirelessly transmitted from the wireless LAN module 103 is an image signal processed by the image processing control module 112. However, if the first image recognition processing unit 121 or the second image recognition processing unit 122 cannot recognize the personal information from the captured image, that is, the image that does not include the personal information, the personal information by the image processing control module 112 is used. It is wirelessly transmitted via the wireless LAN module 103 as it is without performing image processing that makes it impossible to distinguish.

コントローラ200は、無線LANモジュール201、バッテリ202、表示モジュール203、操作モジュール204、電源制御モジュール205、及び記録モジュール206を備える。
無線LANモジュール201は、ドローン100に対して飛行状態や撮影状態などの指令を無線伝送すると共に、ドローン100から無線伝送された画像信号を受信する。
バッテリ202は、電源制御モジュール205の制御に基づいて、コントローラ200の各部を作動させる電源を供給する。
The controller 200 includes a wireless LAN module 201, a battery 202, a display module 203, an operation module 204, a power supply control module 205, and a recording module 206.
The wireless LAN module 201 wirelessly transmits commands such as a flight state and a shooting state to the drone 100, and receives an image signal wirelessly transmitted from the drone 100.
The battery 202 supplies power to operate each part of the controller 200 under the control of the power control module 205.

表示モジュール203は、画像を表示する表示部を備え、ドローン100から伝送された画像を表示すると共に、ドローン100の操作に必要な情報を表示する。
操作モジュール204は、ドローン100の飛行を制御するためのユーザ操作を受け付ける操作部である。なお、操作モジュール204は、表示部に組み込まれたタッチパネルで構成して、画面上のタッチ操作で、飛行のための操作が行えるようにしてもよい。
記録モジュール206は、ドローン100から伝送された画像を、内蔵されたメモリなどに記録する。
The display module 203 includes a display unit for displaying an image, displays an image transmitted from the drone 100, and displays information necessary for operating the drone 100.
The operation module 204 is an operation unit that accepts user operations for controlling the flight of the drone 100. The operation module 204 may be configured with a touch panel incorporated in the display unit so that operations for flight can be performed by touch operations on the screen.
The recording module 206 records the image transmitted from the drone 100 in a built-in memory or the like.

なお、コントローラ200は、ドローン100の飛行などを操作する専用の装置として構成してもよいが、例えばスマートフォンやタブレット端末などの情報処理端末に、コントローラとして機能するためのアプリケーションプログラムを実装して、ドローン制御用のコントローラとしてもよい。 The controller 200 may be configured as a dedicated device for operating the flight of the drone 100, etc., but for example, an application program for functioning as a controller may be mounted on an information processing terminal such as a smartphone or a tablet terminal. It may be a controller for drone control.

[撮影した画像の処理]
画像処理制御モジュール112は、第1画像認識処理部121及び第2画像認識処理部122により、カメラ101が撮影した画像内から認識された物体などに基づいて、個人情報が判別できないようにする画像処理を実行する。
次に、この画像処理制御モジュール112は、接続された画像認識処理部121,122で個人情報を判別したとき、予め決められた条件に基づいて、その個人情報が撮影画像から判別できないように画像処理を行う。
ここで、画像処理制御モジュール112が行う画像処理には、例えば該当する個人情報が含まれる領域を、一定画素間隔でモザイク状に色や輝度が変化する画像とするモザイク処理を行って、個人情報が判別できないようにする処理がある。但し、画像処理制御モジュール112がモザイク処理を行うのは一例であり、その他の処理で個人情報が判別できないようにしてもよい。
[Processing of captured images]
The image processing control module 112 is an image that prevents personal information from being discriminated by the first image recognition processing unit 121 and the second image recognition processing unit 122 based on an object recognized from the image captured by the camera 101. Execute the process.
Next, when the connected image recognition processing units 121 and 122 determine the personal information, the image processing control module 112 displays an image so that the personal information cannot be determined from the captured image based on predetermined conditions. Perform processing.
Here, in the image processing performed by the image processing control module 112, for example, a mosaic process is performed in which the area including the corresponding personal information is converted into an image whose color and brightness change in a mosaic pattern at regular pixel intervals, and the personal information is personal information. There is a process that makes it impossible to determine. However, the image processing control module 112 performs mosaic processing as an example, and personal information may not be discriminated by other processing.

第1画像認識処理部121と第2画像認識処理部122は、それぞれ設定された対象物(特定の物体または人)を個人情報として判別する。
ここでは、第1画像認識処理部121は、撮影した画像に含まれる人の顔を個人情報として判別し、判別した顔にモザイク処理を行って、個人情報が判別できないようにする。
また、第2画像認識処理部122は、撮影した画像に含まれる特定の対象物を個人情報として判別する。
The first image recognition processing unit 121 and the second image recognition processing unit 122 discriminate each set object (specific object or person) as personal information.
Here, the first image recognition processing unit 121 discriminates the face of a person included in the captured image as personal information, and performs mosaic processing on the discriminated face so that the personal information cannot be discriminated.
In addition, the second image recognition processing unit 122 determines a specific object included in the captured image as personal information.

図3は、第2画像認識処理部122が個人情報として判別する対象物の属性のリストと、対象物の属性ごとの優先順位の設定例を示す。
図3の例のリストでは、優先順位が1位の対象物として、建物の2階以上の窓が設定されている。以下、図3のリストでは、2階以上の階の建物全体、庭、1階の窓、1階の建物全体、玄関、壁、屋根が、それぞれの優先順位と共に設定されている。
FIG. 3 shows a list of the attributes of the object that the second image recognition processing unit 122 determines as personal information, and an example of setting the priority order for each attribute of the object.
In the list of examples in FIG. 3, windows on the second floor and above of the building are set as objects having the highest priority. Below, in the list of FIG. 3, the entire building on the second and higher floors, the garden, the windows on the first floor, the entire building on the first floor, the entrance, the walls, and the roof are set with their respective priorities.

図3に示すリストの優先順位は、対象物にモザイク処理を施す際に、カメラ101が撮影した1フレームの画像に、モザイク処理を施す最大の範囲に制限するために使用される。
すなわち、画像処理制御モジュール112には、モザイク処理を施す最大の範囲として、50%などの値が設定されている。
The priority of the list shown in FIG. 3 is used to limit the one-frame image taken by the camera 101 to the maximum range in which the mosaic processing is applied when the object is subjected to the mosaic processing.
That is, a value such as 50% is set in the image processing control module 112 as the maximum range for performing mosaic processing.

そして、各画像認識処理部121,122は、モザイク処理を施す際に、設定された最大値の領域まで1フレーム内にモザイク処理を施し、それ以上の範囲には対象物があってもモザイク処理を施さないようにする。これは、撮影した画像をコントローラ200側に伝送して、その画像でドローン100を操縦する際に、モザイク処理が施された画像から飛行位置などが判別できなくなることを防ぐためである。 Then, when performing the mosaic processing, the image recognition processing units 121 and 122 perform the mosaic processing within one frame up to the set maximum value area, and even if there is an object in the range beyond that, the mosaic processing is performed. Do not apply. This is to prevent the flight position and the like from being indistinguishable from the mosaic-processed image when the captured image is transmitted to the controller 200 side and the drone 100 is operated with the image.

このモザイク処理を施す範囲に制限を行う上で、どの対象物にモザイク処理を施すかは、図3のリストに付与した優先順位で決定される。つまり、各画像認識処理部121,122は、優先順位が高い対象物から順にモザイク処理を施し、設定値(50%など)を超えたとき、そのフレームについてはそれ以上モザイク処理を施さないようにする。 In limiting the range of applying the mosaic processing, which object is subjected to the mosaic processing is determined by the priority given to the list of FIG. That is, the image recognition processing units 121 and 122 perform mosaic processing in order from the object having the highest priority, and when the set value (50%, etc.) is exceeded, the frame is not further mosaic processed. do.

図4は、画像認識処理部121と122において、順に処理が行われる流れを示すフローチャートである。
まず、画像処理制御モジュール112は、カメラ101で1フレームの撮像画像が生成されたか否かを判断する(ステップS1)。このステップS1で、1フレームの撮像画像が生成されたと判断したとき(ステップS1のYES)、画像処理制御モジュール112は、該当する1フレームの画像を取得する(ステップS2)。
FIG. 4 is a flowchart showing a flow in which processing is sequentially performed in the image recognition processing units 121 and 122.
First, the image processing control module 112 determines whether or not the captured image of one frame is generated by the camera 101 (step S1). When it is determined in step S1 that the captured image of one frame has been generated (YES in step S1), the image processing control module 112 acquires the image of the corresponding one frame (step S2).

そして、画像処理制御モジュール112は、取得した1フレームの画像を、第1画像認識処理部121へ渡す(ステップS3)。第1画像認識処理部121は、人物の顔の認識処理により対象箇所にモザイク処理を施し、モザイク処理を施した1フレームの画像を、画像処理制御モジュール112に送る(ステップS4)。 Then, the image processing control module 112 passes the acquired one-frame image to the first image recognition processing unit 121 (step S3). The first image recognition processing unit 121 performs mosaic processing on the target portion by the recognition processing of the face of a person, and sends the image of one frame to which the mosaic processing is performed to the image processing control module 112 (step S4).

その後、画像処理制御モジュール112は、第1画像認識処理部121から取得した1フレームの画像を、第2画像認識処理部122へ渡す(ステップS5)。第2画像認識処理部122は、予め決められた対象物を検出したとき、該当箇所にモザイク処理を施し、モザイク処理を施した1フレームの画像を、画像処理制御モジュール112に送る(ステップS6)。 After that, the image processing control module 112 passes the one-frame image acquired from the first image recognition processing unit 121 to the second image recognition processing unit 122 (step S5). When the second image recognition processing unit 122 detects a predetermined object, the corresponding portion is subjected to mosaic processing, and the mosaic-processed one-frame image is sent to the image processing control module 112 (step S6). ..

このようにして1フレームの画像に対するモザイク処理が行われ、画像処理制御モジュール112は、ステップS1に戻って、次の1フレームの画像が供給されるまで待機する。
また、ステップS1で、カメラ101で次の1フレームの撮像画像が生成されないと判断したとき(ステップS1のNO)、画像処理制御モジュール112は、画像処理を終了する。
Mosaic processing is performed on the image of one frame in this way, and the image processing control module 112 returns to step S1 and waits until the image of the next one frame is supplied.
Further, when it is determined in step S1 that the captured image of the next one frame is not generated by the camera 101 (NO in step S1), the image processing control module 112 ends the image processing.

図5は、第1画像認識処理部121が、撮影した画像に含まれる人の顔を個人情報として判別する際の処理例を示すフローチャートである。
まず、第1画像認識処理部121は、カメラ101が撮影した1フレームの画像に含まれる顔を顔認識処理で検出し、検出した1フレームの画像内の対象物(顔)の面積が100ピクセル×100ピクセル以上か否かを判断する(ステップS11)。このステップS11で、対象物の面積が100ピクセル×100ピクセル以上である場合(ステップS11のYES)、第1画像認識処理部121は、対象物である顔の箇所をモザイクに置き換える画像処理を施す(ステップS12)。
FIG. 5 is a flowchart showing a processing example when the first image recognition processing unit 121 discriminates a human face included in a captured image as personal information.
First, the first image recognition processing unit 121 detects a face included in the one-frame image taken by the camera 101 by face recognition processing, and the area of the object (face) in the detected one-frame image is 100 pixels. It is determined whether or not it is × 100 pixels or more (step S11). In step S11, when the area of the object is 100 pixels × 100 pixels or more (YES in step S11), the first image recognition processing unit 121 performs image processing for replacing the face portion of the object with a mosaic. (Step S12).

また、第1画像認識処理部121は、顔を検出した場合であっても、対象物(顔)の面積が100ピクセル×100ピクセル未満である場合(ステップS11のNO)、モザイクに置き換える画像処理を実行しない。
第1画像認識処理部121は、図4のフローチャートに示す画像処理を、カメラ101が撮影したすべてのフレームに対して実行する。
Further, even when the first image recognition processing unit 121 detects a face, if the area of the object (face) is less than 100 pixels × 100 pixels (NO in step S11), the image processing is replaced with a mosaic. Do not execute.
The first image recognition processing unit 121 executes the image processing shown in the flowchart of FIG. 4 for all the frames captured by the camera 101.

図6は、第2画像認識処理部122が、撮影した画像に含まれる対象物を個人情報として判別する際の処理例を示すフローチャートである。
まず、第1画像認識処理部121は、画像解析処理でカメラ101が撮影した1フレームの画像に含まれる対象物を検出する。ここで検出する対象物は、図3のリストに示したものである。
FIG. 6 is a flowchart showing a processing example when the second image recognition processing unit 122 discriminates an object included in the captured image as personal information.
First, the first image recognition processing unit 121 detects an object included in the one-frame image taken by the camera 101 in the image analysis process. The objects to be detected here are those shown in the list of FIG.

そして、第1画像認識処理部121は、検出した1フレームの画像内の対象物の面積が100ピクセル×100ピクセル以上か否かを判断する(ステップS21)。このステップS21で、対象物の画像内の面積が100ピクセル×100ピクセル以上である場合(ステップS21のYes)、第1画像認識処理部121は、飛行制御モジュール113から現在のドローン100の飛行高度のデータを取得し、高度が2m以上か否かを判断する(ステップS22)。 Then, the first image recognition processing unit 121 determines whether or not the area of the object in the detected one frame image is 100 pixels × 100 pixels or more (step S21). In step S21, when the area in the image of the object is 100 pixels × 100 pixels or more (Yes in step S21), the first image recognition processing unit 121 starts the flight altitude of the current drone 100 from the flight control module 113. Data is acquired and it is determined whether or not the altitude is 2 m or more (step S22).

このステップS22で、飛行高度が2m以上であると判断したとき(ステップS22のYES)、第1画像認識処理部121は、ドローン100の現在位置が道路上か否かを判断する(ステップS23)。このドローン100の現在位置が道路上か否かの判断は、例えばドローン100が持つ地図データと現在の飛行位置のデータから、飛行制御モジュール113によって行われる。 When it is determined in step S22 that the flight altitude is 2 m or more (YES in step S22), the first image recognition processing unit 121 determines whether or not the current position of the drone 100 is on the road (step S23). .. The flight control module 113 determines whether or not the current position of the drone 100 is on the road, for example, from the map data of the drone 100 and the data of the current flight position.

ステップS23で、ドローン100の現在位置が道路上でないと判断したとき(ステップS23のNO)、並びに、ステップS22で、飛行高度が2m未満と判断したとき(ステップS22のNO)、第2画像認識処理部122は、対象物との三次元距離(直線距離)は5m以上か否かを判断する(ステップS24)。ステップS24で、対象物との距離が5m以上でないと判断したとき(ステップS24のNO)、第2画像認識処理部122は、該当する対象物の領域にモザイク処理を施す(ステップS25)。 When it is determined in step S23 that the current position of the drone 100 is not on the road (NO in step S23), and when it is determined in step S22 that the flight altitude is less than 2 m (NO in step S22), the second image recognition The processing unit 122 determines whether or not the three-dimensional distance (straight line distance) from the object is 5 m or more (step S24). When it is determined in step S24 that the distance to the object is not 5 m or more (NO in step S24), the second image recognition processing unit 122 performs mosaic processing on the area of the object (step S25).

また、ステップS21で、対象物の画像内の面積が100ピクセル×100ピクセル以上でないと判断したとき(ステップS21のNO)、ステップS23で、ドローン100の現在位置が道路上であると判断したとき(ステップS23のYES)、及びステップS24で、対象物との距離が5m以上であると判断したとき(ステップS24のYES)には、第2画像認識処理部122は、対象物にモザイク処理を施さないで、処理を終了する。 Further, in step S21, when it is determined that the area in the image of the object is not 100 pixels × 100 pixels or more (NO in step S21), and in step S23, when it is determined that the current position of the drone 100 is on the road. (YES in step S23), and when it is determined in step S24 that the distance to the object is 5 m or more (YES in step S24), the second image recognition processing unit 122 performs mosaic processing on the object. No processing is performed, and the process ends.

なお、画像認識処理部121及び122でモザイク処理を施した1フレーム内の面積が、上述した設定値(50%など)を超えたときは、画像認識処理部121及び122は、その時点で、そのフレームについてはそれ以上モザイク処理を施さないようにする。
画像認識処理部121及び122でのモザイク処理は、図4で説明した順に実行されるため、例えば第1画像認識処理部121でのモザイク処理で、既に設定値までモザイク処理が行われた場合には、第2画像認識処理部122でのモザイク処理は実行されない。
When the area in one frame subjected to mosaic processing by the image recognition processing units 121 and 122 exceeds the above-mentioned set value (50% or the like), the image recognition processing units 121 and 122 are at that time. The frame should not be further mosaicked.
Since the mosaic processing in the image recognition processing units 121 and 122 is executed in the order described with reference to FIG. 4, for example, when the mosaic processing in the first image recognition processing unit 121 has already performed the mosaic processing up to the set value. Is not executed by the second image recognition processing unit 122.

上述したように、ドローン100内のカメラ101で撮影した画像は、画像処理制御モジュール112で個人情報が判別できないようにするモザイク処理が施された上で、コントローラ200に伝送され、コントローラ200の表示モジュール203に表示される。また、コントローラ200の記録モジュール206で記録される画像も、モザイク処理が施された画像になる。 As described above, the image taken by the camera 101 in the drone 100 is subjected to mosaic processing so that the personal information cannot be discriminated by the image processing control module 112, and then transmitted to the controller 200 to display the controller 200. Displayed on module 203. Further, the image recorded by the recording module 206 of the controller 200 is also an image subjected to mosaic processing.

ドローン100の操縦者は、コントローラ200の表示モジュール203に表示された画像を見ながら、ドローン100の飛行方向などを操縦することになる。このとき、表示画像には、人物の顔や建物の窓などの個人情報が含まれる箇所は、モザイク処理されているので、個人情報の保護を適切に行うことができる。また、記録される画像も、コントローラ200に表示される画像と同じであり、適切な個人情報の保護を行うことが可能になる。 The operator of the drone 100 controls the flight direction of the drone 100 and the like while looking at the image displayed on the display module 203 of the controller 200. At this time, since the display image includes a portion containing personal information such as a person's face or a window of a building, the personal information can be appropriately protected. Further, the recorded image is the same as the image displayed on the controller 200, and it is possible to appropriately protect personal information.

さらに、万一、ドローン100から無線伝送される画像信号が、不正に別の機器で受信されたとしても、その画像信号も、モザイク処理で個人情報が判別できないようにしてあるため、人の顔などの個人情報が含まれる画像が流出することがない。 Further, even if the image signal wirelessly transmitted from the drone 100 is illegally received by another device, the personal information of the image signal cannot be identified by the mosaic processing, so that the human face cannot be identified. Images containing personal information such as will not be leaked.

また、モザイク処理を施す際には、1フレーム内の処理面積が設定値までに制限するようにしたため、ドローン100の操縦者は、コントローラ200の表示モジュール203に表示される画像を見て、最低限の画像内容の判別が可能であり、画像処理で操縦ができなくなるといった事態の発生を防止することができる。 Further, when performing the mosaic processing, the processing area in one frame is limited to the set value, so that the operator of the drone 100 sees the image displayed on the display module 203 of the controller 200 and at least It is possible to discriminate the limited image content, and it is possible to prevent the occurrence of a situation in which maneuvering becomes impossible due to image processing.

[変形例]
なお、本発明は、上述した実施の形態例に限定されるものではなく、本発明の要旨を逸脱しない範囲で、変形や変更が可能である。
例えば、図3に示した対象物や優先順位は一例であり、画像処理制御モジュール112は、その他のものをモザイク処理する対象物としてもよい。
例えば、画像処理制御モジュール112は、家の表札、車のナンバープレート、ベランダ、道路(地上)から見えない部屋の窓、洗濯物などのプライベート空間内のものや、プライベート空間そのものを、モザイク処理する対象物としてもよい。
[Modification example]
The present invention is not limited to the above-described embodiment, and can be modified or modified without departing from the gist of the present invention.
For example, the object and the priority shown in FIG. 3 are examples, and the image processing control module 112 may be an object for mosaic processing of other objects.
For example, the image processing control module 112 mosaic-processes things in a private space such as a house nameplate, a car license plate, a veranda, a window of a room that cannot be seen from the road (ground), laundry, and the private space itself. It may be an object.

また、上述した実施の形態例では、1フレーム内の処理面積が設定値に達したとき、それ以上モザイク処理を施さないようにした。これに対して、画像認識処理部121,122は、1フレーム内でモザイク処理を施す面積が増えた場合には、モザイク処理を施す際の1つのモザイクのサイズを小さくした低解像度画像としてもよい。但し、その場合でも、ドローン100の操縦者は、飛行の操縦がそれなりに可能な画像とする必要がある。 Further, in the above-described embodiment, when the processing area in one frame reaches the set value, the mosaic processing is not performed any more. On the other hand, when the area to be subjected to the mosaic processing in one frame is increased, the image recognition processing units 121 and 122 may be a low-resolution image in which the size of one mosaic at the time of performing the mosaic processing is reduced. .. However, even in that case, the operator of the drone 100 needs to make an image capable of maneuvering the flight as it is.

また、コントローラ200からの指示で、画像処理制御モジュール112は、画像内の特定箇所のモザイク処理を解除してもよい。例えば、コントローラ200の表示モジュール203で表示された画像内の特定箇所が操縦者のタッチ操作で指定されたとき、画像処理制御モジュール112は、該当箇所のモザイク処理を解除して、コントローラ200に伝送し、操縦を邪魔するようなモザイク処理を施さないようにしてもよい。 Further, the image processing control module 112 may cancel the mosaic processing of a specific portion in the image according to the instruction from the controller 200. For example, when a specific part in the image displayed by the display module 203 of the controller 200 is specified by the touch operation of the operator, the image processing control module 112 cancels the mosaic processing of the corresponding part and transmits it to the controller 200. However, it is possible not to apply the mosaic processing that interferes with the maneuvering.

また、ドローン100は、画像処理が施された画像信号をコントローラ200に無線伝送するようにしたが、ドローン100内に記録モジュールを設けて、画像処理が施された画像信号を記録モジュールが記録してもよい。 Further, the drone 100 wirelessly transmits the image processed image signal to the controller 200, but a recording module is provided in the drone 100, and the recording module records the image processed image signal. You may.

また、ドローン100又はコントローラ200は、外部から何らかの緊急信号を受信した場合には、モザイク処理を施さないようにしてもよい。
さらに、画像認識処理部121,122は、予め登録された人物や物体については、モザイク処理を施す対象物から除外してもよい。
Further, the drone 100 or the controller 200 may not perform the mosaic processing when receiving some emergency signal from the outside.
Further, the image recognition processing units 121 and 122 may exclude the person or the object registered in advance from the object to be subjected to the mosaic processing.

また、上述した実施の形態例では、2つの画像認識処理部121及び122を設置した例について説明したが、より多くの数の画像認識処理部を設置して、それぞれの画像認識処理部で、より細かく対象物を検出してモザイク処理を施すようにしてもよい。この場合、画像処理制御モジュール112は、複数の画像認識処理部で、画像から対象物を検出するアルゴリズムを変更するようにしてもよい。例えば、特定の1つの画像認識処理部では、ディープラーニングによって、画像から対象物を検出するようにしてもよい。 Further, in the above-described embodiment, the example in which the two image recognition processing units 121 and 122 are installed has been described, but a larger number of image recognition processing units are installed in each image recognition processing unit. The object may be detected in more detail and mosaic processing may be performed. In this case, the image processing control module 112 may change the algorithm for detecting an object from an image in a plurality of image recognition processing units. For example, one specific image recognition processing unit may detect an object from an image by deep learning.

また、上述した実施の形態例では、個人情報を判別できなくする処理として、該当箇所にモザイク処理を施す例について説明した。これに対して、個人情報を判別できなくする処理として、その他の処理を施してもよい。例えば、画像処理制御モジュール112は、個人情報が含まれる領域を単色などで塗りつぶす処理、個人情報が含まれる領域を輪郭線で示した画像とするワイヤーフレーム化する処理、または個人情報が含まれる領域をアニメーション画像化する処理を行ってもよい。あるいは、これらの処理を組み合わせてもよい。 Further, in the above-described embodiment example, an example in which a mosaic process is performed on the relevant portion has been described as a process for making the personal information indistinguishable. On the other hand, other processing may be performed as a processing for making the personal information indistinguishable. For example, the image processing control module 112 includes a process of filling an area containing personal information with a single color or the like, a process of forming a wire frame of an area containing personal information into an image shown by an outline, or an area containing personal information. May be processed to make an animation image. Alternatively, these processes may be combined.

また、上述した実施の形態例では、カメラ101は、ドローン100に内蔵されたものとした。これに対して、ドローン100に外付けされたカメラであっても、同様に処理してもよい。
さらに、本発明の撮像装置や撮像システムの適用例として、ドローンを適用した点についても一例であり、その他の移動体としての撮像装置や撮影システムに適用してもよい。例えば、ドライブレコーダと称される自動車に搭載される撮像装置に、本発明は適用してもよい。
Further, in the above-described embodiment, the camera 101 is built in the drone 100. On the other hand, even if the camera is externally attached to the drone 100, the same processing may be performed.
Further, as an application example of the image pickup device or the image pickup system of the present invention, the point where the drone is applied is also an example, and the image pickup device or the image pickup system as another moving body may be applied. For example, the present invention may be applied to an image pickup device mounted on an automobile called a drive recorder.

100…ドローン、101…カメラ、102…プロペラ、103…無線LANモジュール、104…バッテリ、105…センサ、111…撮影制御モジュール、112…画像処理制御モジュール、113…飛行制御モジュール、114…データ送受信モジュール、115…電源制御モジュール、121…第1画像認識処理部、122…第2画像認識処理部、200…コントローラ、201…無線LANモジュール、202…バッテリ、203…表示モジュール、204…操作モジュール、205…電源制御モジュール、206…記録モジュール
100 ... Drone, 101 ... Camera, 102 ... Propeller, 103 ... Wireless LAN module, 104 ... Battery, 105 ... Sensor, 111 ... Shooting control module, 112 ... Image processing control module, 113 ... Flight control module, 114 ... Data transmission / reception module , 115 ... power control module, 121 ... first image recognition processing unit, 122 ... second image recognition processing unit, 200 ... controller, 201 ... wireless LAN module, 202 ... battery, 203 ... display module, 204 ... operation module, 205 … Power control module, 206… Recording module

Claims (8)

移動体に搭載又は内蔵される撮像装置であって、
前記移動体の周囲を撮影するカメラと、
前記カメラが撮影した画像を処理する画像処理部と、
前記画像処理部が処理した画像を伝送又は記録する後処理部と、を備え、
前記画像処理部は、前記カメラが撮影した画像に含まれる個人情報を検出し、前記個人情報を判別不能にする画像処理を施すようにした
撮像装置。
An imaging device mounted on or built into a moving body.
A camera that captures the surroundings of the moving object,
An image processing unit that processes images taken by the camera, and
A post-processing unit for transmitting or recording an image processed by the image processing unit is provided.
The image processing unit is an imaging device that detects personal information contained in an image taken by the camera and performs image processing that makes the personal information indistinguishable.
前記個人情報が含まれている領域を判別不能にする画像処理は、モザイク処理、単色で塗りつぶす処理、ワイヤーフレーム化する処理、アニメーション画像化する処理のいずれかである
請求項1に記載の撮像装置。
The imaging device according to claim 1, wherein the image processing that makes the area containing personal information indistinguishable is any one of a mosaic processing, a single color filling process, a wireframe processing, and an animation image processing. ..
前記画像処理部は、前記移動体の現在位置の属性を取得し、取得した属性に基づいて、撮影した画像内の所定領域を個人情報が含まれている領域と判定する
請求項1又は2に記載の撮像装置。
The image processing unit acquires the attribute of the current position of the moving body, and based on the acquired attribute, determines that a predetermined area in the captured image is an area containing personal information according to claim 1 or 2. The imaging device described.
前記画像処理部は、前記移動体の現在の高さ情報を取得し、取得した高さ情報に基づいて、撮影した画像内の所定領域を個人情報が含まれている領域と判定する
請求項1又は2に記載の撮像装置。
The image processing unit acquires the current height information of the moving body, and based on the acquired height information, determines a predetermined area in the captured image as an area containing personal information. Or the image pickup apparatus according to 2.
前記画像処理部は、撮影した画像内の対象物までの距離を検出し、検出した距離に基づいて、撮影した画像内の所定領域を個人情報が含まれている領域と判定する
請求項1又は2に記載の撮像装置。
The image processing unit detects the distance to the object in the captured image, and determines that a predetermined area in the captured image is a region containing personal information based on the detected distance. 2. The image pickup apparatus according to 2.
前記画像処理部は、前記カメラが撮影した画像の画面全体に対する前記画像処理が施された領域の比率が、予め設定した所定値以下となるように、前記画像処理が行われる領域を制限する
請求項1〜5のいずれか1項に記載の撮像装置。
The image processing unit limits the area where the image processing is performed so that the ratio of the image processed area to the entire screen of the image captured by the camera is equal to or less than a preset predetermined value. Item 2. The image pickup apparatus according to any one of Items 1 to 5.
前記画像処理が施された領域の比率が、予め設定した所定値以下となるように、前記画像処理が行われる領域を制限する際には、予め設定した対象物の優先順位に基づいて、制限する領域を選択する
請求項6に記載の撮像装置。
When limiting the area where the image processing is performed so that the ratio of the area where the image processing is performed is equal to or less than a preset predetermined value, the limitation is made based on the priority of the preset object. The imaging apparatus according to claim 6, wherein the region to be processed is selected.
撮像装置を内蔵した移動体と、前記撮像装置から伝送される画像信号を受信するコントローラとを備える撮像システムであり、
前記撮像装置は、
前記移動体の周囲を撮影するカメラと、
前記カメラが撮影した画像に含まれる個人情報を検出し、前記個人情報を判別不能にする画像処理を施す画像処理部と、
前記画像処理部が処理した画像を前記コントローラに伝送する伝送処理部と、を備え、
前記コントローラは、前記伝送処理部が伝送した画像を受信して表示する表示部と、
前記移動体の移動を操作する操作部と、を備える
撮像システム。
It is an imaging system including a moving body having a built-in imaging device and a controller for receiving an image signal transmitted from the imaging device.
The image pickup device
A camera that captures the surroundings of the moving object,
An image processing unit that detects personal information contained in an image taken by the camera and performs image processing that makes the personal information indistinguishable.
A transmission processing unit that transmits an image processed by the image processing unit to the controller is provided.
The controller includes a display unit that receives and displays an image transmitted by the transmission processing unit.
An imaging system including an operation unit for operating the movement of the moving body.
JP2020082334A 2020-05-08 2020-05-08 Imaging device and imaging system Pending JP2021177597A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020082334A JP2021177597A (en) 2020-05-08 2020-05-08 Imaging device and imaging system
US17/221,922 US20210350159A1 (en) 2020-05-08 2021-04-05 Imaging device and imaging system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020082334A JP2021177597A (en) 2020-05-08 2020-05-08 Imaging device and imaging system

Publications (1)

Publication Number Publication Date
JP2021177597A true JP2021177597A (en) 2021-11-11

Family

ID=78409596

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020082334A Pending JP2021177597A (en) 2020-05-08 2020-05-08 Imaging device and imaging system

Country Status (2)

Country Link
US (1) US20210350159A1 (en)
JP (1) JP2021177597A (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7478622B2 (en) * 2020-08-20 2024-05-07 本田技研工業株式会社 Information processing device, information processing method, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6379811B2 (en) * 2014-07-30 2018-08-29 カシオ計算機株式会社 Display device, display control method, and display control program
JP7143661B2 (en) * 2018-07-24 2022-09-29 トヨタ自動車株式会社 Information processing system, program, and control method
KR102182806B1 (en) * 2020-01-15 2020-11-25 주식회사 포드론 Method, Apparaus and System for Managing Video Photographed by Drone

Also Published As

Publication number Publication date
US20210350159A1 (en) 2021-11-11

Similar Documents

Publication Publication Date Title
EP2977843B1 (en) Robot cleaner and method for controlling it
US20210092326A1 (en) Surveillance system with fixed camera and temporary cameras
JP4470992B2 (en) Video management system
US10742935B2 (en) Video surveillance system with aerial camera device
JP7052583B2 (en) Monitoring system
KR101397453B1 (en) System for monitoring an image and method thereof
KR101363066B1 (en) Monitoring system for crime-ridden district using unmanned flight vehicle
US10455187B2 (en) 360° Camera system
JP2008160496A (en) Monitoring system
JP2014149620A (en) Photographing system
US11112798B2 (en) Methods and apparatus for regulating a position of a drone
KR20200132137A (en) Device For Computing Position of Detected Object Using Motion Detect and Radar Sensor
JP2021177597A (en) Imaging device and imaging system
JP4850108B2 (en) Inboard monitoring and recording system
JP7089926B2 (en) Control system
JP2016118994A (en) Monitoring system
JP2009301175A (en) Monitoring method
JP6482853B2 (en) Image processing device
WO2017082388A1 (en) Security device, security control method, program, and storage medium
JP6482854B2 (en) Image acquisition device
US20120120242A1 (en) Security-enhanced cctv system
KR101445361B1 (en) Site Monitoring System
JP2020057981A (en) Image creation system, image creation apparatus, and method of controlling image creation apparatus
KR101061868B1 (en) Monitoring system using dual surveillance camera
KR20200021841A (en) Surveillance system using drone

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240220