WO2020040080A1 - 監視システム、監視方法、およびプログラム - Google Patents

監視システム、監視方法、およびプログラム Download PDF

Info

Publication number
WO2020040080A1
WO2020040080A1 PCT/JP2019/032252 JP2019032252W WO2020040080A1 WO 2020040080 A1 WO2020040080 A1 WO 2020040080A1 JP 2019032252 W JP2019032252 W JP 2019032252W WO 2020040080 A1 WO2020040080 A1 WO 2020040080A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
target information
unit
input target
input
Prior art date
Application number
PCT/JP2019/032252
Other languages
English (en)
French (fr)
Inventor
野崎 正浩
Original Assignee
株式会社東芝
東芝インフラシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社東芝, 東芝インフラシステムズ株式会社 filed Critical 株式会社東芝
Priority to SG11202101636VA priority Critical patent/SG11202101636VA/en
Priority to EP19852847.3A priority patent/EP3843381B1/en
Publication of WO2020040080A1 publication Critical patent/WO2020040080A1/ja
Priority to US17/177,308 priority patent/US11463659B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/602Providing cryptographic facilities or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • G06F21/6254Protecting personal data, e.g. for financial or medical purposes by anonymising data, e.g. decorrelating personal data from the owner's identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/70Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer
    • G06F21/82Protecting input, output or interconnection devices
    • G06F21/84Protecting input, output or interconnection devices output devices, e.g. displays or monitors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/913Television signal processing therefor for scrambling ; for copy protection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2358/00Arrangements for display data security
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/913Television signal processing therefor for scrambling ; for copy protection
    • H04N2005/91357Television signal processing therefor for scrambling ; for copy protection by modifying the video signal

Definitions

  • Embodiments of the present invention relate to a monitoring system, a monitoring method, and a program.
  • a problem to be solved by the present invention is to provide a surveillance system, a surveillance method, and a program that can improve convenience in a system for masking a part of a surveillance camera.
  • the monitoring system includes an acquisition unit, an extraction unit, an encryption processing unit, and a generation unit.
  • the acquisition unit acquires an image captured by the monitoring camera from one or more monitoring cameras that capture an image of a work area in which the presented input target information is input to the input terminal.
  • the extraction unit extracts the input target information from the captured image acquired by the acquisition unit.
  • the encryption processing unit encrypts the input target information extracted by the extraction unit.
  • the generation unit displays, at the position of the input target information, a partial image that displays information encrypted by the encryption processing unit with respect to the captured image obtained by the obtaining unit, and displays the input target information. To generate a replacement image in which is not visible.
  • FIG. 1 is a diagram illustrating an example of a configuration of a monitoring system 1 according to an embodiment. The figure which shows an example of sheet C.
  • FIG. 1 is a diagram illustrating an example of a configuration of a monitoring system 1 according to the embodiment.
  • the monitoring system 1 includes, for example, an input terminal 10, one or more monitoring cameras 50, and a monitoring device 100.
  • the monitoring camera 50 and the monitoring device 100 are connected to each other by a network NW, and communicate with each other via the network NW.
  • the network NW includes, for example, a part or all of a WAN (Wide Area Network), a LAN (Local Area Network), the Internet, a dedicated line, a wireless base station, a provider, and the like.
  • the input terminal 10 is installed in the work area A and operated by the input person B.
  • the input person B prepares a sheet C on which information to be input is described at hand.
  • the input person B inputs the input target information described on the sheet C to the input terminal 10 by operating a keyboard, for example.
  • the input terminal 10 may have a voice recognition function, and input target information may be input based on information collected by a microphone.
  • the input terminal 10 is, for example, a tablet terminal or a personal computer.
  • FIG. 2 is a diagram showing an example of the sheet C.
  • input target information C1 is described on the sheet C.
  • the input target information C1 is, for example, 16 characters or numbers, and is described in a frame.
  • the sheet C may include additional information such as identification information, type, and date of the input target information C1.
  • the monitoring camera 50 captures an image of the work area A and generates captured image data.
  • the captured image data may be still image data or moving image data.
  • the captured image data may be referred to as a captured image.
  • the monitoring camera 50 transmits the generated captured image to the monitoring device 100 via the network NW.
  • a plurality of monitoring cameras 50 are installed in the work area A, and a monitoring camera 51 that captures an image of the work from behind the input person B and a monitoring camera that captures the face of the input person B from the front of the input person B It includes a camera 52 and the like.
  • the work area A is not limited to one, but may be plural. Further, the plurality of work areas A may be prepared in the same room, or may be prepared in different rooms.
  • the observer monitors the situation in the work area A while viewing the image processed by the monitoring apparatus 100 with respect to the image captured by the monitoring camera 50.
  • FIG. 3 is a diagram illustrating an example of the configuration of the monitoring device 100.
  • the monitoring device 100 includes, for example, a communication device 110, an input device 120, a display device 130, a first storage unit 140, a second storage unit 150, an image processing unit 160, and a system control unit 170.
  • the communication device 110 has hardware for connecting to a network NW using a cellular network, a Wi-Fi network, or the like.
  • the communication device 110 includes an antenna, a transmission / reception device, and the like.
  • the input device 120 includes, for example, some or all of various keys, buttons, dial switches, a mouse, a microphone, a touch panel formed integrally with the display device 130, and the like.
  • the display device 130 includes, for example, an LCD (Liquid Crystal Display) or an organic EL (Electroluminescence) display device.
  • the display device 130 may include a speaker, a lamp, and the like.
  • the first storage unit 140 and the second storage unit 150 are realized by, for example, a random access memory (RAM), a flash memory, an SD card, a register, and the like.
  • the first storage unit 140 temporarily stores the captured image generated by the monitoring camera 50 as captured image data 141. Further, the first storage unit 140 stores the history data 142.
  • the history data 142 is information in which input target information is associated with an image generated based on the input target information.
  • the second storage unit 150 may be an external storage device such as a NAS (Network Attached Storage) that the monitoring device 100 can access via a network.
  • the second storage unit 150 stores the replacement image data 151 generated by the image processing unit 160 and the history.
  • the image processing unit 160 includes, for example, an acquisition unit 161, an extraction unit 162, an encryption processing unit 163, a generation unit 164, a determination unit 165, and a deletion unit 166. Some or all of these components are realized by, for example, a processor such as a CPU (Central Processing Unit) executing a program (software) stored in the first storage unit 140. Some or all of the functions of these constituent elements are performed by hardware such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), and GPU (Graphics Processing Unit). (Including a circuit part), or may be realized by cooperation of software and hardware.
  • the program may be stored in a storage device such as an HDD (Hard Disk Drive) or a flash memory in advance, or may be stored in a removable storage medium such as a DVD or a CD-ROM. It may be installed by being attached.
  • the image processing unit 160 performs the following processing for each frame included in the moving image data.
  • the acquisition unit 161 acquires a captured image from the monitoring camera 50 using the communication device 110.
  • the acquisition unit 161 temporarily stores the acquired captured image in the first storage unit 140.
  • FIG. 4 shows an example of the captured image.
  • the captured image D10 illustrated in FIG. 4 is an image captured by the monitoring camera 51 from behind the input person B.
  • the extraction unit 162 extracts input target information from the captured image acquired by the acquisition unit 161. For example, the extraction unit 162 recognizes the input target information based on a predetermined format of the input target information by performing image analysis of the captured image using a character recognition technique, and includes the recognized input target information. Extract the target image.
  • the character recognition technology is a technology for recognizing characters and numerals included in an image.
  • the “predetermined format of the input target information” includes, for example, a character string composed of a predetermined number of characters, a character string composed of a predetermined number of characters, a combination of characters and numerals, and This includes that the position and the position of the numeral are predetermined.
  • the predetermined format of the input target information may include the arrangement of letters and numbers, that the letters and numbers are arranged in one row horizontally, and the letters and numbers are arranged in two rows vertically. It includes being out.
  • the extraction unit 162 extracts the input target information based on, for example, the input area corresponding to the “predetermined format of the input target information”.
  • the input area includes, for example, a frame printed on the sheet C as shown in FIG. 2, an input field displayed on a monitor of the input terminal 10, and the like. By doing so, the extraction unit 162 can extract the input target information even when part of the input target information is displayed on the monitor during input.
  • the extraction unit 162 also recognizes all characters and numbers included in the captured image, and uses the characters and numbers that match the predetermined format of the input target information among the recognized characters and numbers as the input target information. May be extracted.
  • the extraction unit 162 determines an image area including the extracted input target information (hereinafter, referred to as a target area), and cuts out an image of the target area (hereinafter, referred to as a target image). For example, the extraction unit 162 determines a target area along the input area.
  • the present invention is not limited to this, and the extracting unit 162 may determine the target area along the minimum circumscribed rectangle of the recognized character or number.
  • the minimum circumscribed rectangle is a rectangular figure set so that a character or number string (or a single character or number) recognized as input target information does not protrude, and has a minimum area. .
  • the extraction unit 162 may determine a target area by providing a predetermined margin outside the input area or the circumscribed minimum rectangle.
  • the extraction unit 162 includes a target image D11 including the input target information displayed on the sheet C and a target image including the input target information displayed on the monitor of the input terminal 10. D12 is extracted.
  • the encryption processing unit 163 encrypts the input target information extracted by the extraction unit 162 to generate encrypted information.
  • the encryption information includes characters (such as hiragana, katakana, and alphabets) and numbers.
  • the encryption processing unit 163 encrypts the input target information using a predetermined encryption algorithm.
  • the encryption processing unit 163 may perform encryption using key information, or may perform encryption according to a predetermined rule. Further, the encryption processing unit 163 may generate key information for decryption in the encryption processing.
  • the generation unit 164 generates a partial image based on the information encrypted by the encryption processing unit 163.
  • the partial image is, for example, an image in which the input target information is invisible, and is an image displaying information for acquiring the encryption information generated by the encryption processing unit 163.
  • the generation unit 164 generates a partial image in which encryption information is superimposed on a filled image (mask image).
  • the generation unit 164 may generate a partial image that displays a code (including a one-dimensional code or a two-dimensional code) that encodes the encryption information, and generates a mosaic image in which the encryption information is embedded as a partial image. May be.
  • the partial image is not limited to this, and the partial image is an image in which the input target information is invisible, and displays information for obtaining key information for decrypting the information encrypted by the encryption processing unit 163. It may be.
  • the generation unit 164 generates a partial image in which key information is superimposed on a solid image.
  • the generation unit 164 may generate a partial image that displays a code obtained by encoding the key information, or may generate a mosaic image in which the key information is embedded as a partial image.
  • the generation unit 164 replaces the captured image acquired by the acquisition unit 161 with the target image, displays the partial image in the target area (the position of the input target information), and renders the input target information invisible. Generate The generation unit 164 outputs the generated replacement image to the system control unit 170.
  • FIG. 5 is a diagram showing an example of the replacement image.
  • the replacement image data D20 includes a partial image D21 replaced with the target image D11, and a partial image D22 replaced with the target image D12.
  • the partial image D21 and the partial image D22 are the same, but the present invention is not limited to this.
  • the partial image D21 and the partial image D22 may include different pieces of encryption information. Specifically, the input target information extracted when three characters are input is different from the input target information extracted when ten characters are input. For this reason, the encryption information may change during input, and a different image may be displayed in the replacement image, or the encryption information displayed in the target area included in the monitor may be switched every time one character is input.
  • the generation unit 164 stores the input target information extracted by the extraction unit 162 in the history data 142 in association with the partial image generated based on the input target information.
  • the determination unit 165 determines whether the input target information extracted by the extraction unit 162 matches the input target information already encrypted by the encryption processing unit 163. For example, the determination unit 165 refers to the history data 142 and determines whether the input target information extracted by the extraction unit 162 is registered. When the determination unit 165 determines that the extracted input target information matches the already encrypted input target information, the generation unit 164 reads the input target information from the history data 142 without performing a process of generating a partial image. A replacement image is generated based on the partial image.
  • the deletion unit 166 deletes the corresponding captured image from the first storage unit 140. Further, the deletion unit 166 may delete a captured image whose storage period has exceeded the threshold.
  • the decryption processing unit 167 When the decryption processing unit 167 is instructed to decrypt the encryption information included in the replacement image using the input device 120, the decryption processing unit 167 decrypts the encryption information based on the replacement image input by the system control unit 170. The decryption processing unit 167 outputs the decrypted information to the system control unit 170 and causes the display device 130 to display the decrypted information.
  • the system control unit 170 includes, for example, a data management unit 171 and a display control unit 172. Some or all of these components are realized by, for example, a processor such as a CPU executing a program (software) stored in the second storage unit 150. Some or all of the functions of these components may be realized by hardware such as an LSI, an ASIC, an FPGA, a GPU, or the like, or may be realized by cooperation of software and hardware. .
  • the data management unit 171 stores the replacement image generated by the generation unit 164 in the second storage unit 150, instead of the captured image captured by the monitoring camera 50.
  • the display control unit 172 causes the display device 130 to display the replacement image generated by the generation unit 164 instead of the captured image captured by the monitoring camera 50.
  • the display control unit 172 may cause the display device 130 to display the replacement image based on the replacement image input from the image processing unit 160, and read the replacement image stored in the second storage unit 150 by the data management unit 171 to display the replacement image. 130 may be displayed.
  • the display control unit 172 reads the instructed replacement image from the second storage unit 150 and causes the display device 130 to display the replacement image.
  • the display control unit 172 causes the display device 130 to display the input target information decrypted by the decryption processing unit 167.
  • FIG. 6 is a flowchart illustrating an example of a process performed by the monitoring device 100.
  • the monitoring device 100 performs the following processing for each captured image.
  • monitoring device 100 executes the following processing for each frame included in the operation.
  • the obtaining unit 161 obtains a captured image from the monitoring camera 50 using the communication device 110 (Step S101).
  • the extraction unit 162 extracts input target information from the captured image acquired by the acquisition unit 161 (Step S102).
  • the determination unit 165 determines whether the input target information extracted by the extraction unit 162 matches the input target information already encrypted by the encryption processing unit 163 with reference to the history data 142 (step S103). ).
  • the extraction unit 162 determines a target region (step S104), and determines the determined target region. Is cut out (step S105).
  • the encryption processing unit 163 encrypts the input target information extracted by the extraction unit 162 (Step S106).
  • the generation unit 164 generates a partial image based on the information encrypted by the encryption processing unit 163 (Step S107).
  • the generation unit 164 generates a replacement image that displays a partial image in the target area from which the target image has been cut out in Step S105 (Step S108). Then, the generation unit 164 outputs the replacement image to the system control unit 170.
  • the data management unit 171 stores the replacement image output from the generation unit 164 in the second storage unit 150 (Step S109).
  • the display control unit 172 causes the display unit 130 to display the replacement image generated by the generation unit 164 (Step S110).
  • step S103 when the input target information extracted by the extraction unit 162 matches the input target information already encrypted by the encryption processing unit 163, the generation unit 164 sets the input target information extracted by the extraction unit 162 to the input target information.
  • the partial image associated with the target information is read from the first storage unit 140, and a replacement image is generated based on the read partial image (step S111).
  • step S111 is executed at the timing when the same input target information as the already input input target information is extracted from the captured image.
  • the generation unit 164 diverts the partial image generated first when the input target information is captured by the monitoring camera 50, Thereafter, it is displayed in a target area corresponding to the input target information extracted from the captured image.
  • the monitoring device 100 can cause the display device 130 to display the replacement image in which the input target information is not displayed. Therefore, it is possible to keep the input target information confidential to the observer who monitors the work area A while looking at the display device 130. In many cases, confidentiality is imposed on the input person B, but confidentiality may not be imposed on the observer in some cases. This is particularly beneficial in this case.
  • the monitoring apparatus 100 can display a replacement image including encryption information or the like on the display device 130 or transmit the replacement image to an external device having a monitor at the time of monitoring in almost real time by a monitor or when viewing a past image. Can be. By doing so, it becomes possible to obtain the input target information by decrypting the input target information that is invisible, using the encryption information or the like displayed in the replacement image. Therefore, even when a scene in which the user wants to check the captured image captured by the monitoring camera 50 by comparing the input target information later appears, the input target information can be easily acquired. On the other hand, in the case of a captured image in which the target area is simply replaced with a mask image, it is inconvenient because even if a scene where the user wants to check the captured image by comparing input target information later appears.
  • an acquisition unit that acquires a captured image captured by the surveillance camera from one or more surveillance cameras that captures a work area for inputting presented input target information to an input terminal.
  • An extraction unit that extracts the input target information from the captured image acquired by the acquisition unit; an encryption processing unit that encrypts the input target information extracted by the extraction unit; and the acquisition unit
  • a partial image that displays information encrypted by the encryption processing unit is displayed at the position of the input target information, and the replacement image that makes the input target information invisible
  • a generation unit that generates the input information.
  • the replacement screen it is possible to check the input target information while making the input target information unrecognizable. Therefore, the convenience in a system for masking a part of the surveillance camera can be improved.
  • the image processing unit 160 may execute different processing according to the subject including the target area in the captured image. For example, different processing may be executed when the subject including the target area is the sheet C and when the subject including the target area is the monitor of the input terminal 10. This is because the input target information in the sheet C in the image does not change, but the input target information in the monitor changes according to the input operation.
  • different processing may be executed when the subject including the target area is the sheet C and when the subject including the target area is the monitor of the input terminal 10. This is because the input target information in the sheet C in the image does not change, but the input target information in the monitor changes according to the input operation.
  • the image processing unit 160 generates a partial image in the sheet C on the image based on the encrypted information obtained by encrypting the input target information extracted from the sheet C on the image.
  • the image processing unit 160 replaces the partial image on the monitor on the image with the input target information extracted from inside the monitor on the image, and encrypts the input target information extracted from the sheet C on the image. Generated based on encryption information. By doing so, the processing load of the encryption processing can be reduced.
  • input target information extracted from the monitor changes during input, even in such a scene, a partial image including the same encryption information can be displayed, and the replacement screen can be easily viewed. .
  • the encryption processing unit 163 may change the algorithm for encrypting the captured image.
  • the predetermined switching timing is, for example, when a predetermined time has elapsed, when the input target information to be extracted is different from the previously extracted input target information, or when a predetermined format of the input target information is different from the previous format. included.
  • the encryption processing unit 163 may change the algorithm for encrypting the captured image according to a predetermined format of the input target information.
  • Reference Signs List 1 monitoring system 10 input terminal, 50 monitoring camera, 100 monitoring device, 110 communication device, 120 input device, 130 display device, 140 first storage unit, 150 second storage unit, 160 .., An image processing unit, 161, an acquisition unit, 162, an extraction unit, 163, an encryption processing unit, 164, a generation unit, 165, a determination unit, 166, a deletion unit, 170, a system control unit, 171, a data management unit, 172 ... Display control unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Bioethics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

実施形態の監視システムは、取得部と、抽出部と、暗号化処理部と、生成部と、を持つ。取得部は、提示された入力対象情報を入力端末に入力する作業エリアを撮像する一以上の監視カメラから、前記監視カメラにより撮像された撮像画像を取得する。抽出部は、前記取得部により取得された前記撮像画像の中から前記入力対象情報を抽出する。暗号化処理部は、前記抽出部により抽出された前記入力対象情報を暗号化する。生成部は、前記取得部により取得された前記撮像画像に対して、前記暗号化処理部により暗号化された情報を表示する部分画像を前記入力対象情報の位置に表示して、前記入力対象情報を視認不能とした置換画像を生成する。

Description

監視システム、監視方法、およびプログラム
 本発明の実施形態は、監視システム、監視方法、およびプログラムに関する。
 従来、監視カメラにより撮像された監視画像中に不都合な対象物が映っている場合、監視画像中の不都合な部分をマスクすると共に、マスク領域に「公開禁止部分のため表示できません」などの文字情報を挿入するものが知られている。しかしながら、従来の技術では、マスクした部分に表示されるはずであった情報を間接的にも取得することができず、不便な場合があった。
特開2003-153252号公報 特開2004-62560号公報 特開2011-193115号公報 特開2005-323007号公報 再公表WO2006/115156号公報 特開2001-69494号公報 特開2010-62699号公報
 本発明が解決しようとする課題は、監視カメラの一部をマスクするシステムにおける利便性を向上させることができる監視システム、監視方法、およびプログラムを提供することである。
 実施形態の監視システムは、取得部と、抽出部と、暗号化処理部と、生成部と、を持つ。取得部は、提示された入力対象情報を入力端末に入力する作業エリアを撮像する一以上の監視カメラから、前記監視カメラにより撮像された撮像画像を取得する。抽出部は、前記取得部により取得された前記撮像画像の中から前記入力対象情報を抽出する。暗号化処理部は、前記抽出部により抽出された前記入力対象情報を暗号化する。生成部は、前記取得部により取得された前記撮像画像に対して、前記暗号化処理部により暗号化された情報を表示する部分画像を前記入力対象情報の位置に表示して、前記入力対象情報を視認不能とした置換画像を生成する。
実施形態の監視システム1の構成の一例を示す図。 シートCの一例を示す図。 監視装置100の構成の一例を示す図。 撮像画像の一例を示す図。 置換画像の一例を示す図。 監視装置100による処理の一例を示すフローチャート。
 以下、実施形態の監視システム、監視方法、およびプログラムを、図面を参照して説明する。
[全体構成]
 図1は、実施形態の監視システム1の構成の一例を示す図である。監視システム1は、例えば、入力端末10と、一以上の監視カメラ50と、監視装置100とを備える。監視カメラ50と監視装置100は、ネットワークNWによって互いに接続されており、このネットワークNWを介して互いに通信する。ネットワークNWは、例えば、WAN(Wide Area Network)やLAN(Local Area Network)、インターネット、専用回線、無線基地局、プロバイダなどのうちの一部または全部を含む。
 入力端末10は、作業エリアAに設置され、入力者Bにより操作される。入力者Bは、手元に入力対象情報が記載されているシートCを用意する。入力者Bは、例えばキーボードを操作することにより、シートCに記載されている入力対象情報を入力端末10に入力する。なお、入力端末10は、音声認識機能を備え、マイクにより収音された情報に基づいて入力対象情報が入力されてもよい。入力端末10は、例えば、タブレット端末やパーソナルコンピュータなどである。
 図2は、シートCの一例を示す図である。シートCには、入力対象情報C1が記載されている。入力対象情報C1は、例えば、16個の文字あるいは数字であって、枠内に記載されている。なお、シートCには、入力対象情報C1の識別情報や種別、日付などの付属情報が記載されてもよい。
 監視カメラ50は、作業エリアAを撮像し、撮像画像データを生成する。撮像画像データは、静止画像データであってもよく、動画データであってもよい。以下、撮像画像データを、撮像画像と記載する場合もある。監視カメラ50は、生成した撮像画像を、ネットワークNWを介して監視装置100に送信する。監視カメラ50は、例えば、作業エリアAに複数設置されており、入力者Bの後ろ側から作業の様子を撮像する監視カメラ51と、入力者Bの前側から入力者Bの顔を撮像する監視カメラ52などを含む。なお、作業エリアAは一つに限られず、複数であってもよい。また、複数の作業エリアAは、同じ部屋に用意されてもよく、別の部屋にそれぞれ用意されてもよい。
 監視員は、監視カメラ50により撮像された撮像画像に対して監視装置100により画像処理された画像を見ながら、作業エリアAでの様子を監視する。
[監視装置]
 図3は、監視装置100の構成の一例を示す図である。監視装置100は、例えば、通信装置110と、入力装置120と、表示装置130と、第1記憶部140と、第2記憶部150と、画像処理部160と、システム制御部170とを備える。
 通信装置110は、セルラー網やWi-Fi網等を用いて、ネットワークNWに接続するためのハードウェアを有する。例えば、通信装置110は、アンテナおよび送受信装置などを有する。入力装置120は、例えば、各種キー、ボタン、ダイヤルスイッチ、マウス、マイク、表示装置130と一体として形成されるタッチパネルなどのうち一部または全部を含む。表示装置130は、例えば、LCD(Liquid Crystal Display)や有機EL(Electroluminescence)表示装置を含む。表示装置130は、スピーカーやランプなどを含んでもよい。
 第1記憶部140と第2記憶部150は、例えば、RAM(Random Access Memory)、フラッシュメモリ、SDカード、レジスタなどによって実現される。第1記憶部140は、監視カメラ50により生成された撮像画像を撮像画像データ141として一時的に格納する。また、第1記憶部140は、履歴データ142を格納する。履歴データ142は、入力対象情報と、この入力対象情報に基づいて生成された画像とを対応付けた情報である。第2記憶部150は、監視装置100がネットワークを介してアクセス可能なNAS(Network Attached Storage)などの外部記憶装置であってもよい。第2記憶部150は、画像処理部160により生成された置換画像データ151と、履歴を格納する。
 画像処理部160は、例えば、取得部161と、抽出部162と、暗号化処理部163と、生成部164と、判定部165と、削除部166とを備える。これらの構成要素のうち一部または全部は、例えば、CPU(Central Processing Unit)などのプロセッサが、第1記憶部140に記憶されたプログラム(ソフトウェア)を実行することで実現される。また、これらの構成要素の機能のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)等のハードウェア(回路部:circuitryを含む)によって実現されていてもよいし、ソフトウェアとハードウェアの協働によって実現されていてもよい。プログラムは、予めHDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。
 画像処理部160は、撮像画像が動画データである場合、動画データに含まれるフレームごとに、以下の処理を実行する。
 取得部161は、通信装置110を用いて、監視カメラ50から撮像画像を取得する。
取得部161は、取得した撮像画像を第1記憶部140に一時的に格納する。撮像画像の一例を、図4に示す。図4に示す撮像画像D10は、監視カメラ51により入力者Bの後ろから撮像された画像である。
 抽出部162は、取得部161により取得された撮像画像の中から入力対象情報を抽出する。例えば、抽出部162は、文字認識の技術を用いて撮像画像を画像解析することにより、入力対象情報の予め決められた形式に基づいて入力対象情報を認識するとともに、認識した入力対象情報を含む対象画像を抽出する。文字認識の技術とは、画像に含まれる文字や数字を認識する技術である。
 「入力対象情報の予め決められた形式」には、例えば、所定数の文字で構成される文字列であること、所定数の数字で構成されること、文字と数字を組み合わせであって文字の位置と数字の位置が予め決められていることなどが含まれる。また、入力対象情報の予め決められた形式には、文字や数字の並び方が含まれていてもよく、文字や数字が横に一列に並んでいること、文字や数字が縦に二列に並んでいることなどが含まれる。
 抽出部162は、例えば、「入力対象情報の予め決められた形式」に対応する入力エリアに基づいて、入力対象情報を抽出する。入力エリアには、例えば、図2に示したようなシートCに印刷されている枠や、入力端末10のモニターに表示される入力欄などが含まれる。こうすることにより、入力途中において入力対象の情報の一部がモニターに表示されている状態であっても、抽出部162は、入力対象情報を抽出することができる。また抽出部162は、撮像画像に含まれるすべての文字や数字を認識して、認識された文字や数字のうち入力対象情報の予め決められた形式に合致する文字や数字を、入力対象情報として抽出してもよい。
 抽出部162は、抽出した入力対象情報を含む画像領域(以下、対象領域と記す)を決定し、対象領域の画像(以下、対象画像と記す)を切り出す。例えば、抽出部162は、入力エリアに沿って対象領域を決定する。これに限られず、抽出部162は、認識した文字や数字の外接最小矩形に沿って対象領域を決定してもよい。外接最小矩形とは、入力対象情報として認識した文字や数字の列(一つの文字や数字でもよい)がはみ出さないように設定される矩形図形であって、その面積が最小となる図形である。抽出部162は、入力エリアや外接最小矩形の外側に所定の余白を設けて、対象領域を決定してもよい。
 例えば、抽出部162は、図4に示す撮像画像D10から、シートCに表示されている入力対象情報を含む対象画像D11と、入力端末10のモニターに表示されている入力対象情報を含む対象画像D12とを抽出する。
 暗号化処理部163は、抽出部162により抽出された入力対象情報を暗号化し、暗号情報を生成する。暗号情報は、文字(ひらがな、カタカナ、アルファベットなど)や数字などを含む。例えば、暗号化処理部163は、所定の暗号アルゴリズムを用いて入力対象情報を暗号化する。
 暗号化処理には、様々なアルゴリズムが利用可能である。例えば、暗号化処理部163は、鍵情報を用いて暗号化するものであってもよく、所定のルールに従って暗号化するものであってもよい。また、暗号化処理部163は、暗号化処理において、復号のための鍵情報を生成してもよい。
 生成部164は、暗号化処理部163により暗号化された情報に基づいて、部分画像を生成する。部分画像とは、例えば、入力対象情報が視認不能な画像であって、暗号化処理部163により生成された暗号情報を取得するための情報を表示する画像である。
 生成部164は、塗りつぶし画像(マスク画像)に暗号情報を重畳させた部分画像を生成する。また、生成部164は、暗号情報をエンコードしたコード(一次元コードや二次元コードなどを含む)を表示する部分画像を生成してもよく、暗号情報が埋め込まれたモザイク画像を部分画像として生成してもよい。
 またこれに限られず、部分画像は、入力対象情報が視認不能な画像であって、暗号化処理部163により暗号化された情報を復号するための鍵情報を取得するための情報を表示する画像であってもよい。例えば、生成部164は、塗りつぶし画像に鍵情報を重畳させた部分画像を生成する。また、生成部164は、鍵情報をエンコードしたコードを表示する部分画像を生成してもよく、鍵情報が埋め込まれたモザイク画像を部分画像として生成してもよい。
 生成部164は、取得部161により取得された撮像画像に対して、対象画像に替えて、部分画像を対象領域に(入力対象情報の位置)表示して入力対象情報を視認不能とした置換画像を生成する。生成部164は、生成した置換画像を、システム制御部170に出力する。
 図5は、置換画像の一例を示す図である。置換画像データD20は、対象画像D11と置き換えられた部分画像D21と、対象画像D12と置き換えられた部分画像D22とを含む。
 なお、図5に示す例では、部分画像D21と部分画像D22とが一緒であるがこれに限られない。例えば、入力対象情報の入力途中であれば、部分画像D21と部分画像D22とが異なる暗号情報を含む場合がある。具体的には、3文字が入力された時点で抽出される入力対象情報と、10文字が入力された時点で抽出される入力対象情報とは異なる。このため、入力途中において暗号情報が変化し、置換画像において異なる画像が表示される場合や、一文字入力するごとにモニターに含まれる対象領域に表示される暗号情報が切り替わる場合がある。
 生成部164は、抽出部162により抽出された入力対象情報と、この入力対象情報に基づいて生成された部分画像とを対応付けて、履歴データ142に格納する。
 判定部165は、抽出部162により抽出された入力対象情報が、既に暗号化処理部163により暗号化された入力対象情報と合致するか否かを判定する。例えば、判定部165は、履歴データ142を参照し、抽出部162により抽出された入力対象情報が登録されているか否かを判定する。抽出された入力対象情報が既に暗号化された入力対象情報と合致することが判定部165により判定された場合、生成部164は、部分画像を生成する処理をせずに、履歴データ142から読み出した部分画像に基づいて、置換画像を生成する。
 削除部166は、生成部164により置換画像が生成された場合、対応する撮像画像を第1記憶部140から削除する。また、削除部166は、格納期間が閾値を超えた撮像画像を削除してもよい。
 復号処理部167は、入力装置120を用いて置換画像に含まれる暗号情報の復号が指示された場合、システム制御部170により入力する置換画像に基づいて、暗号情報を復号する。復号処理部167は、復号した情報をシステム制御部170に出力し、表示装置130に表示させる。
 システム制御部170は、例えば、データ管理部171と、表示制御部172とを備える。これらの構成要素のうち一部または全部は、例えば、CPUなどのプロセッサが、第2記憶部150に記憶されたプログラム(ソフトウェア)を実行することで実現される。
また、これらの構成要素の機能のうち一部または全部は、LSIやASIC、FPGA、GPU等のハードウェアによって実現されていてもよいし、ソフトウェアとハードウェアの協働によって実現されていてもよい。
 データ管理部171は、監視カメラ50により撮像された撮像画像に替えて、生成部164により生成された置換画像を、第2記憶部150に格納する。
 表示制御部172は、監視カメラ50により撮像された撮像画像に替えて、生成部164により生成された置換画像を、表示装置130に表示させる。表示制御部172は、画像処理部160から入力された置換画像に基づいて表示装置130に表示させてもよく、データ管理部171により第2記憶部150に格納された置換画像を読み出して表示装置130に表示させてもよい。
 また表示制御部172は、過去の画像の閲覧が指示された場合、第2記憶部150から指示された置換画像を読み出し、表示装置130に表示させる。入力装置120を用いて暗号情報の復号が指示された場合、表示制御部172は、復号処理部167により復号された入力対象情報を表示装置130に表示させる。
[フローチャート]
 図6は、監視装置100による処理の一例を示すフローチャートである。監視装置100は、撮像画像ごとに、以下の処理を実行する。撮像画像が動画の一部である場合、監視装置100は、動作に含まれるフレームごとに以下の処理を実行する。
 まず、取得部161は、通信装置110を用いて、監視カメラ50から撮像画像を取得する(ステップS101)。抽出部162は、取得部161により取得された撮像画像から入力対象情報を抽出する(ステップS102)。判定部165は、履歴データ142を参照し、抽出部162により抽出された入力対象情報が、既に暗号化処理部163により暗号化された入力対象情報と合致するか否かを判定する(ステップS103)。
 抽出部162により抽出された入力対象情報が、既に暗号化処理部163により暗号化された入力対象情報と合致しない場合、抽出部162は、対象領域を決定し(ステップS104)、決定した対象領域を切り出す(ステップS105)。暗号化処理部163は、抽出部162により抽出された入力対象情報を暗号化する(ステップS106)。生成部164は、暗号化処理部163により暗号化された情報に基づいて、部分画像を生成する(ステップS107)。次いで、生成部164は、ステップS105において対象画像が切り出された対象領域に、部分画像を表示する置換画像を生成する(ステップS108)。そして、生成部164は、置換画像をシステム制御部170に出力する。
 データ管理部171は、生成部164から出力された置換画像を、第2記憶部150に格納する(ステップS109)。表示制御部172は、生成部164により生成された置換画像を、表示部130に表示させる(ステップS110)。
 一方、ステップS103において、抽出部162により抽出された入力対象情報が、既に暗号化処理部163により暗号化された入力対象情報と合致する場合、生成部164は、抽出部162により抽出された入力対象情報に対応付けられた部分画像を第1記憶部140から読み出し、読み出した部分画像に基づいて置換画像を生成する(ステップS111)。例えば、既に暗号化されている入力対象情報と同じ入力対象情報が撮像画像から抽出されたタイミングで、ステップS111が実行される。画像上のシートCに表示されている入力対象情報は入力作業中変化しないため、生成部164は、入力対象情報が監視カメラ50により撮像された際に最初に生成された部分画像を流用し、それ以降に撮像画像から抽出された入力対象情報に対応する対象領域に表示させる。
 このように、監視装置100は、入力対象情報が表示されていない置換画像を表示装置130に表示させることができる。よって、表示装置130を見ながら作業エリアAを監視している監視員に対して、入力対象情報を秘密にすることができる。入力者Bには守秘義務が課せられている場合が多いが、監視員までには守秘義務が課せられていない場合もある。この場合に特に有益である。
 また監視装置100は、監視員によるほとんどリアルタイムでの監視時や、過去画像の閲覧時において、暗号情報等を含む置換画像を表示装置130に表示させることや、モニターを有する外部装置に送信することができる。こうすることにより、置換画像に表示されている暗号情報等を用いて、視認不能となっている入力対象情報を復号することにより、入力対象情報を取得することが可能となる。従って、後で入力対象情報を突き合わせて監視カメラ50により撮像された撮像画像を確認したい場面が出てきた場合であっても、入力対象情報を簡単に取得することができる。一方、対象領域をマスク画像で置き換えただけの撮像画像である場合、後で入力対象情報を突き合わせて撮像画像を確認したい場面が出てきてもできないため、不便であった。
 以上説明した少なくとも一つの実施形態によれば、提示された入力対象情報を入力端末に入力する作業エリアを撮像する一以上の監視カメラから、前記監視カメラにより撮像された撮像画像を取得する取得部と、前記取得部により取得された前記撮像画像の中から前記入力対象情報を抽出する抽出部と、前記抽出部により抽出された前記入力対象情報を暗号化する暗号化処理部と、前記取得部により取得された前記撮像画像に対して、前記暗号化処理部により暗号化された情報を表示する部分画像を前記入力対象情報の位置に表示して、前記入力対象情報を視認不能とした置換画像を生成する生成部と、を備えることにより、置換画面では入力対象情報を視認不能としつつ、入力対象情報を確認したい場合には確認することができる。よって、監視カメラの一部をマスクするシステムにおける利便性を向上させることができる。
 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、請求の範囲に記載された発明とその均等の範囲に含まれるものである。
 例えば、画像処理部160は、撮像画像において対象領域を含む被写体に応じて、異なる処理を実行してもよい。例えば、対象領域を含む被写体がシートCである場合と、対象領域を含む被写体が入力端末10のモニターである場合とで、異なる処理を実行してもよい。画像内のシートC内の入力対象情報は変化しないが、モニター内の入力対象情報は入力作業に応じて変化するからである。以下、その具体例について説明する。
 画像処理部160は、画像上のシートC内の部分画像を、画像上のシートC内から抽出された入力対象情報を暗号化した暗号情報に基づいて生成する。一方、画像処理部160は、画像上のモニターにおける部分画像を、画像上のモニター内から抽出された入力対象情報に替えて、画像上のシートC内から抽出された入力対象情報を暗号化した暗号情報に基づいて生成する。こうすることにより、暗号化処理の処理負荷を軽減させることができる。また、モニター内から抽出される入力対象情報は入力途中において変化するが、このような場面であっても、同じ暗号情報を含む部分画像を表示することができ、置換画面を見易くすることができる。
 また暗号化処理部163は、所定の切り替えタイミングに到達した場合、撮像画像を暗号化するアルゴリズムを変更してもよい。所定の切り替えタイミングとは、所定時間が経過した場合、抽出される入力対象情報が前回抽出された入力対象情報と異なる場合、入力対象情報の予め決められた形式が前回の形式と異なる場合などが含まれる。また暗号化処理部163は、入力対象情報の予め決められた形式に応じて、撮像画像を暗号化するアルゴリズムを変更してもよい。
1…監視システム、10…入力端末、50…監視カメラ、100…監視装置、110…通信装置、120…入力装置、130…表示装置、140…第1記憶部、150…第2記憶部、160…画像処理部、161…取得部、162…抽出部、163…暗号化処理部、164…生成部、165…判定部、166…削除部、170…システム制御部、171…データ管理部、172…表示制御部

Claims (8)

  1.  提示された入力対象情報を入力端末に入力する作業エリアを撮像する一以上の監視カメラから、前記監視カメラにより撮像された撮像画像を取得する取得部と、
     前記取得部により取得された前記撮像画像の中から前記入力対象情報を抽出する抽出部と、
     前記抽出部により抽出された前記入力対象情報を暗号化する暗号化処理部と、
     前記取得部により取得された前記撮像画像に対して、前記暗号化処理部により暗号化された情報を表示する部分画像を前記入力対象情報の位置に表示して、前記入力対象情報を視認不能とした置換画像を生成する生成部と、
     を備える監視システム。
  2.  提示された入力対象情報を入力端末に入力する作業エリアを撮像する一以上の監視カメラから、前記監視カメラにより撮像された撮像画像を取得する取得部と、
     前記取得部により取得された前記撮像画像の中から前記入力対象情報を抽出する抽出部と、
     前記抽出部により抽出された前記入力対象情報を暗号化する暗号化処理部と、
     前記取得部により取得された前記撮像画像に対して、前記暗号化処理部により暗号化された情報を復号するための鍵情報を表示する部分画像を前記入力対象情報の位置に表示して、前記入力対象情報を視認不能とした置換画像を生成する生成部と、
     を備える監視システム。
  3.  前記監視カメラにより撮像された前記撮像画像を記憶部に格納させ、
     前記生成部により前記置換画像が生成された場合、前記撮像画像に替えて前記置換画像を前記記憶部に格納させるデータ管理部をさらに備える、
     請求項1または2に記載の監視システム。
  4.  前記監視カメラにより撮像された前記撮像画像を表示装置に表示させ、
     前記生成部により前記置換画像が生成された場合、前記撮像画像に替えて前記置換画像を前記表示装置に表示させる表示制御部をさらに備える、
     請求項1から3のうちいずれか一項に記載の監視システム。
  5.  前記抽出部により抽出された前記入力対象情報が、既に前記暗号化処理部により暗号化された前記入力対象情報と合致するか否かを判定する判定部を更に備え、
     前記生成部は、前記判定部により合致すると判定された場合、既に前記暗号化処理部により変換された前記視認不能な画像に基づいて、前記置換画像を生成する、
     請求項1から4のうちいずれか一項に記載の監視システム。
  6.  前記暗号化処理部は、所定の切り替えタイミングに到達した場合、前記撮像画像を暗号化するアルゴリズムを変更する、
     請求項1から5のうちいずれか一項に記載の監視システム。
  7.  コンピュータが、
     提示された入力対象情報を入力端末に入力する作業エリアを撮像する一以上の監視カメラから、前記監視カメラにより撮像された撮像画像を取得し、
     取得された前記撮像画像の中から前記入力対象情報を抽出し、
     抽出された前記入力対象情報を暗号化し、
     前記撮像画像に対して、暗号化された情報を表示する部分画像を前記入力対象情報の位置に表示して、前記入力対象情報を視認不能とした置換画像を生成する、
     監視方法。
  8.  コンピュータに、
     提示された入力対象情報を入力端末に入力する作業エリアを撮像する一以上の監視カメラから、前記監視カメラにより撮像された撮像画像を取得させ、
     取得された前記撮像画像の中から前記入力対象情報を抽出させ、
     抽出された前記入力対象情報を暗号化させ、
     前記撮像画像に対して、暗号化された情報を表示する部分画像を前記入力対象情報の位置に表示して、前記入力対象情報を視認不能とした置換画像を生成させる、
     プログラム。
PCT/JP2019/032252 2018-08-20 2019-08-19 監視システム、監視方法、およびプログラム WO2020040080A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
SG11202101636VA SG11202101636VA (en) 2018-08-20 2019-08-19 Monitoring system, monitoring method, and program
EP19852847.3A EP3843381B1 (en) 2018-08-20 2019-08-19 Monitoring system, monitoring method, and program
US17/177,308 US11463659B2 (en) 2018-08-20 2021-02-17 Monitoring system, monitoring method, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018154186A JP7134784B2 (ja) 2018-08-20 2018-08-20 監視システム、監視方法、およびプログラム
JP2018-154186 2018-08-20

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/177,308 Continuation US11463659B2 (en) 2018-08-20 2021-02-17 Monitoring system, monitoring method, and storage medium

Publications (1)

Publication Number Publication Date
WO2020040080A1 true WO2020040080A1 (ja) 2020-02-27

Family

ID=69593096

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/032252 WO2020040080A1 (ja) 2018-08-20 2019-08-19 監視システム、監視方法、およびプログラム

Country Status (5)

Country Link
US (1) US11463659B2 (ja)
EP (1) EP3843381B1 (ja)
JP (1) JP7134784B2 (ja)
SG (1) SG11202101636VA (ja)
WO (1) WO2020040080A1 (ja)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001069494A (ja) 1999-08-31 2001-03-16 Matsushita Electric Ind Co Ltd 監視カメラ装置及び監視カメラの表示方法
JP2003153252A (ja) 2001-11-13 2003-05-23 Toshiba Corp 遠隔監視システム及び画像処理装置
JP2004062560A (ja) 2002-07-30 2004-02-26 Omron Corp 顔照合装置および顔照合方法
JP2005286468A (ja) * 2004-03-29 2005-10-13 Mitsubishi Electric Corp マスキング機能付き監視システムおよびカメラ、並びに該カメラとともに用いられるマスク解除装置
JP2005323007A (ja) 2004-05-06 2005-11-17 Matsushita Electric Ind Co Ltd 記録再生装置、及び記録再生方法
WO2006115156A1 (ja) 2005-04-25 2006-11-02 Matsushita Electric Industrial Co., Ltd. 監視カメラシステム、撮影装置および映像表示装置
JP2006333337A (ja) * 2005-05-30 2006-12-07 Kyocera Corp 画像秘匿化装置及び画像配信システム
JP2009177699A (ja) * 2008-01-28 2009-08-06 Oki Data Corp 画像形成装置
JP2010062699A (ja) 2008-09-02 2010-03-18 Fujitsu Ltd 画像解析装置および画像解析プログラム
JP2011193115A (ja) 2010-03-12 2011-09-29 Panasonic Corp 顔マスキング装置及び方法
JP2017046196A (ja) * 2015-08-27 2017-03-02 キヤノン株式会社 画像情報生成装置、画像情報生成方法、画像処理システム及びプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3522635B2 (ja) * 1999-08-03 2004-04-26 ヴィジョンアーツ株式会社 画像ファイルを記録したコンピュータ読み取り可能な記録媒体、この記録媒体の作成装置、画像ファイル作成プログラムを記録した媒体、画像ファイル送信装置、画像ファイル処理装置、画像ファイル処理プログラムを記録した媒体
US8938671B2 (en) * 2005-12-16 2015-01-20 The 41St Parameter, Inc. Methods and apparatus for securely displaying digital images
KR100877747B1 (ko) * 2006-10-18 2009-01-12 포스데이타 주식회사 디지털 비디오 레코더 및 그의 입력 영상 보호 장치 및방법
US8823798B2 (en) 2011-12-23 2014-09-02 Xerox Corporation Obscuring identification information in an image of a vehicle
US10489603B2 (en) * 2015-03-19 2019-11-26 Kbytes Solutions Private Limited Method and apparatus for image privacy protection
CN108206930A (zh) * 2016-12-16 2018-06-26 杭州海康威视数字技术股份有限公司 基于隐私遮蔽显示图像的方法及装置
JP7047394B2 (ja) * 2018-01-18 2022-04-05 セイコーエプソン株式会社 頭部装着型表示装置、表示システム、及び、頭部装着型表示装置の制御方法
US11301897B2 (en) * 2018-04-11 2022-04-12 Intel Corporation Secure visual transactions for mobile devices

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001069494A (ja) 1999-08-31 2001-03-16 Matsushita Electric Ind Co Ltd 監視カメラ装置及び監視カメラの表示方法
JP2003153252A (ja) 2001-11-13 2003-05-23 Toshiba Corp 遠隔監視システム及び画像処理装置
JP2004062560A (ja) 2002-07-30 2004-02-26 Omron Corp 顔照合装置および顔照合方法
JP2005286468A (ja) * 2004-03-29 2005-10-13 Mitsubishi Electric Corp マスキング機能付き監視システムおよびカメラ、並びに該カメラとともに用いられるマスク解除装置
JP2005323007A (ja) 2004-05-06 2005-11-17 Matsushita Electric Ind Co Ltd 記録再生装置、及び記録再生方法
WO2006115156A1 (ja) 2005-04-25 2006-11-02 Matsushita Electric Industrial Co., Ltd. 監視カメラシステム、撮影装置および映像表示装置
JP2006333337A (ja) * 2005-05-30 2006-12-07 Kyocera Corp 画像秘匿化装置及び画像配信システム
JP2009177699A (ja) * 2008-01-28 2009-08-06 Oki Data Corp 画像形成装置
JP2010062699A (ja) 2008-09-02 2010-03-18 Fujitsu Ltd 画像解析装置および画像解析プログラム
JP2011193115A (ja) 2010-03-12 2011-09-29 Panasonic Corp 顔マスキング装置及び方法
JP2017046196A (ja) * 2015-08-27 2017-03-02 キヤノン株式会社 画像情報生成装置、画像情報生成方法、画像処理システム及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3843381A4

Also Published As

Publication number Publication date
SG11202101636VA (en) 2021-03-30
US11463659B2 (en) 2022-10-04
JP7134784B2 (ja) 2022-09-12
JP2020031280A (ja) 2020-02-27
US20210168333A1 (en) 2021-06-03
EP3843381B1 (en) 2024-08-07
EP3843381A4 (en) 2022-05-18
EP3843381A1 (en) 2021-06-30

Similar Documents

Publication Publication Date Title
US8868927B1 (en) Method and apparatus for secure data input and output
US20190260747A1 (en) Securing a transaction performed from a non-secure terminal
US10467427B2 (en) Method and apparatus for providing secure image encryption and decryption
US10999313B2 (en) Facilitating network security analysis using virtual reality display devices
US20180068423A1 (en) Image processing apparatus, image processing method, and storage medium
RU2017141176A (ru) Способы и системы кодирования
CN105809042A (zh) 信息保护、显示方法及信息保护、显示装置及终端
US9768959B2 (en) Computer security system and method to protect against keystroke logging
CN110472430B (zh) 一种基于区块链的医患数据打包共享方法及系统
US11188938B2 (en) Dynamic machine-readable codes
JP2007206762A (ja) 二次元コードを用いた通信方法および通信装置
WO2021159644A1 (zh) 一种截屏管理方法、装置及移动终端
JPWO2017026356A1 (ja) 画像処理装置、画像処理方法およびプログラム
US10003462B2 (en) Key generating method and apparatus
US11558375B1 (en) Password protection with independent virtual keyboard
CN103853991A (zh) 防止计算机装置屏幕键盘被侧录的方法及装置
CN108052828B (zh) 录屏文件的生成方法、装置、终端及存储介质
WO2020040080A1 (ja) 監視システム、監視方法、およびプログラム
CN109067799A (zh) 数据传输方法、系统及设备
US20230164142A1 (en) Authentication server, authentication system, control method of authentication server, and storage medium
CN112270004B (zh) 内容加密方法、装置及电子设备
CN115688059A (zh) 图像数据的处理方法及装置、电子设备和存储介质
JP2017158080A (ja) 情報処理装置、情報処理方法、プログラム、及び情報処理システム
CN115134473B (zh) 图像加密方法和装置
Cheng A Novel Rubbing Encryption Algorithm and the Implementation of a Web Based One-Time Password Token

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19852847

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019852847

Country of ref document: EP

Effective date: 20210322