WO2020049958A1 - 情報処理システム、情報処理方法、端末装置および情報処理装置 - Google Patents

情報処理システム、情報処理方法、端末装置および情報処理装置 Download PDF

Info

Publication number
WO2020049958A1
WO2020049958A1 PCT/JP2019/031661 JP2019031661W WO2020049958A1 WO 2020049958 A1 WO2020049958 A1 WO 2020049958A1 JP 2019031661 W JP2019031661 W JP 2019031661W WO 2020049958 A1 WO2020049958 A1 WO 2020049958A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
specific object
unit
terminal device
communication unit
Prior art date
Application number
PCT/JP2019/031661
Other languages
English (en)
French (fr)
Inventor
幹朗 石丸
健太 遠藤
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2020541092A priority Critical patent/JPWO2020049958A1/ja
Priority to CN201980055080.1A priority patent/CN112585605A/zh
Priority to EP19856653.1A priority patent/EP3848839A4/en
Priority to US17/268,039 priority patent/US20210319144A1/en
Publication of WO2020049958A1 publication Critical patent/WO2020049958A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6209Protecting access to data via a platform, e.g. using keys or access control rules to a single file or object, e.g. in a secure envelope, encrypted and accessed using a key, or with access control rules appended to the object itself
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/70Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer
    • G06F21/82Protecting input, output or interconnection devices
    • G06F21/84Protecting input, output or interconnection devices output devices, e.g. displays or monitors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/913Television signal processing therefor for scrambling ; for copy protection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/913Television signal processing therefor for scrambling ; for copy protection
    • H04N2005/91357Television signal processing therefor for scrambling ; for copy protection by modifying the video signal

Definitions

  • the present disclosure relates to an information processing system, an information processing method, a terminal device, and an information processing device.
  • SNS Social Networking Service
  • the present disclosure has an object to provide an information processing system, an information processing method, a terminal device, and an information processing device capable of both viewing an original image before processing and viewing an image after processing.
  • an information processing system includes an image sensor that converts received light into an image, an image processing unit that detects a specific object in the image, and an output interface that outputs an image.
  • the processor receives the image transmitted from the terminal device by the second communication unit, and when the image received by the second communication unit is an image in which the specific object is detected by the image processing unit. Then, a mask process for masking a specific object is performed.
  • FIG. 1 is a diagram schematically illustrating a configuration of an example of an information processing system applicable to each embodiment.
  • FIG. 2 is a diagram schematically illustrating a flow of processing by the information processing system according to the first embodiment.
  • FIG. 3 is a block diagram illustrating an example of a hardware configuration of a server applicable to the first embodiment.
  • FIG. 2 is a block diagram illustrating an example of a hardware configuration of a terminal device applicable to the first embodiment.
  • FIG. 3 is a block diagram illustrating an example of a hardware configuration of an imaging unit applicable to the first embodiment.
  • FIG. 3 is a diagram illustrating an example in which the imaging unit according to the first embodiment is formed by a stacked CIS having a two-layer structure.
  • FIG. 3 is a diagram illustrating an example in which the imaging unit according to the first embodiment is formed by a three-layer stacked CIS.
  • FIG. 3 is an example functional block diagram for explaining functions of the terminal device according to the first embodiment.
  • FIG. 4 is a diagram schematically illustrating a state where a specific object is detected from a captured image, which is applicable to the first embodiment.
  • FIG. 4 is a diagram schematically illustrating a state where a specific object is detected from a captured image, which is applicable to the first embodiment.
  • FIG. 5 is a flowchart illustrating an example of a process performed by the server according to the first embodiment.
  • FIG. 5 is a diagram illustrating an example in which mask processing is performed on each rectangular area included in a captured image according to the first embodiment.
  • FIG. 5 is a diagram illustrating an example in which mask processing is performed on each rectangular area included in a captured image according to the first embodiment.
  • FIG. 4 is a diagram schematically illustrating an example of a method of encrypting a rectangular area in an image compressed and encoded by the JPEG method, which is applicable to the first embodiment.
  • 5 is an example sequence chart illustrating an overall operation of the information processing system according to the first embodiment.
  • 13 is a flowchart illustrating an example of a process performed by a server according to the second embodiment.
  • 13 is an example sequence chart illustrating an overall operation of the information processing system according to the second embodiment.
  • FIG. 13 is a diagram illustrating an example of a configuration of an information processing system according to a third embodiment.
  • FIG. 1 is a diagram schematically illustrating a configuration of an example of an information processing system applicable to each embodiment.
  • the information processing system 1 includes a server 10 and a terminal device 30 connected by a network 2 such as the Internet as a hardware configuration.
  • the server 10 is configured in a distributed manner by, for example, a plurality of information processing devices and storage devices on the cloud network 3.
  • the present invention is not limited thereto, and the server 10 may be configured by one information processing device including, for example, a storage device.
  • the terminal device 30 is, for example, a mobile terminal such as a smartphone or a tablet computer, and includes an imaging function.
  • the user 31 can transmit a captured image captured using the imaging function of the terminal device 30 to the network 2.
  • the information processing system 1 may further include terminal devices 40 and 41 connectable to the network 2.
  • the terminal device 40 is shown as a mobile terminal
  • the terminal device 41 is shown as a desktop personal computer (PC).
  • the server 10 provides a closed service, for example, SNS (Social Networking Service) to a person who has registered an account.
  • SNS Social Networking Service
  • the terminal devices 30, 40, and 41 are equipped with specific application software, and use the application software to register an account with the server 10, whereby the service can be used.
  • the application software is used by being mounted on each of the terminal devices 30, 40 and 41.
  • the application software is not limited to this, and may be operated on the server 10.
  • the service can be used by accessing the server 10 from a browser application installed in each of the terminal devices 30, 40, and 41.
  • description will be made assuming that the application software is installed in the terminal devices 30 and 40.
  • the service provided by the server 10 is an SNS, and application software for using the service is referred to as an SNS application.
  • the user 31 of the terminal device 30 sets account information including identification information (for example, a user name and a password) for identifying the user 31 using an SNS application mounted on the terminal device 30, and transmits the set account information to the server. 10 to register an account.
  • the server 10 authenticates the user 31 based on the account information transmitted from the terminal device 30, and when the authentication is successful, permits the user 31 to log in to the SNS.
  • the user 31 can transmit a captured image captured using the imaging function of the terminal device 30 to the server 10 via the network 2, for example. it can.
  • the server 10 can store the captured image transmitted from the terminal device 30 and publish the captured image via SNS.
  • the terminal device 40 it is assumed that the user (not shown) of the terminal device 40 has registered account information in the server 10 using the SNS application.
  • FIG. 2 is a diagram schematically illustrating a flow of processing by the information processing system 1 according to the first embodiment.
  • the user 31 accesses the server 10 using the SNS application in the terminal device 30 and logs in to the SNS. After logging in to the SNS, the user 31 captures an image of a subject using the imaging function of the terminal device 30 (step S1).
  • the SNS application analyzes the captured image and detects a specific object included in the captured image (Step S2).
  • the specific object to be detected by the terminal device 30 refers to an image indicating personal information itself or an image that may include personal information among images included in the captured image. More specifically, the face image is an image showing the personal information itself. The image of the license plate of the vehicle is also considered to be an image showing the personal information itself. Also, the image of the open window of the building may contain personal information.
  • the SNS application when a specific object is detected from a captured image, the SNS application adds identification information (referred to as a detection flag) indicating the detection to the captured image.
  • the terminal device 30 transmits the captured image to the server 10 via the network 2 using the SNS application (Step S3).
  • the server 10 analyzes the captured image and determines a specific object included in the captured image. To detect. Then, the server 10 performs a reversible mask process on the detected specific object (Step S4). Due to the mask processing, the captured image is in a state where the original image of the specific object portion cannot be determined.
  • the server 10 stores the captured image subjected to the mask processing (referred to as a mask processed image) in a storage device such as a hard disk drive, and registers the image in the SNS.
  • a user who has registered an account in the SNS obtains a mask processing image registered in the SNS using the terminal device 40 on which the SNS application is installed.
  • the user accesses the server 10 using the SNS application in the terminal device 40, logs in to the SNS, and requests the server 10 for the masked image (step S10).
  • the request for the mask processing image by the terminal device 40 is based on the legitimate access performed by logging in to the SNS.
  • the request for the mask processing image may be regarded as a request for the mask processing image by the user logging in to the SNS from the terminal device 30, or a display screen by the SNS application during operation of the SNS application.
  • the switching of the page may be regarded as a request for the mask processing image.
  • scrolling the page of the display screen by the SNS application, or enlarging or reducing the display on the display screen may be regarded as the request for the mask processing image.
  • the request for the masked image means that the user Includes processing to operate the SNS application without being aware of its existence.
  • the server 10 performs a release process of releasing the mask applied to the masked image in response to the request for the masked image by the authorized access (step S11). Thereby, the terminal device 40 can acquire an image (referred to as an image without a mask) in which the mask of the mask processing image is released by the SNS application (step S12).
  • the terminal device 41 acquires a mask processing image registered in the SNS without accessing the SNS.
  • the terminal device 41 accesses the server 10 based on the address of the mask processing image acquired by any method, and requests the mask processing image without logging in to the SNS (step S20).
  • the request for the mask processing image by the terminal device 41 is due to an unauthorized access performed without logging in to the SNS.
  • the server 10 does not perform any processing related to the mask in response to the request for the mask processing image due to the unauthorized access. Therefore, the terminal device 41 acquires the masked image as it is after the mask processing, and cannot recognize the original image at the position where the mask processing has been performed.
  • the server 10 cancels the masking process of the masked image registered in the SNS by releasing the masked image of the masked image with respect to the request by the regular access made by logging in to the SNS. An image without a mask is used. On the other hand, the server 10 does not cancel the mask processing of the mask processing image for a request due to unauthorized access to the mask processing image without logging in to the SNS.
  • the browsing of the masked image and the browsing of the masked image of the image including the specific object registered in the SNS are compatible. It is possible. At this time, the information processing system 1 cancels the processing, that is, the mask processing for the image requested by the user under the management of the SNS, and performs the mask processing for the image requested by the user outside the management of the SNS. Leave it alone. Therefore, it is possible to suppress the spread of, for example, on the Internet, an unmasked image in which mask processing has been canceled from a masked image registered in the SNS.
  • FIG. 3 is a block diagram illustrating an example of a hardware configuration of the server 10 applicable to the first embodiment.
  • a server 10 includes a CPU (Central Processing Unit) 1000, a ROM (Read Only Memory) 1001, a RAM (Random Access Memory) 1002, a storage 1003, and a communication I / O connected to a bus 1010, respectively.
  • F1004 Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the storage 1003 is a nonvolatile large-capacity storage medium such as a hard disk drive or a flash memory.
  • the storage 1003 may be built in the hardware of the server 10 or may be an external storage device for the server 10.
  • the CPU 1000 controls the entire operation of the server 10 using the RAM 1002 as a work memory in accordance with programs stored in the ROM 1001 and the storage 1003.
  • the program includes a program for providing the SNS described above.
  • the communication I / F 1004 controls communication with the network 2 according to an instruction from the CPU 1000.
  • FIG. 4 is a block diagram illustrating an example of a hardware configuration of the terminal device 30 applicable to the first embodiment.
  • a terminal device 30 includes a CPU 3000, a ROM 3001, a RAM 3002, an imaging unit 3003, a display control unit 3004, a storage 3005, a storage device 3006, an input device 3006, a data I / F 3007 connected to a bus 3010, respectively. , A communication I / F 3008.
  • the storage 3005 is a nonvolatile large-capacity storage medium such as a hard disk drive or a flash memory.
  • CPU 3000 controls the overall operation of terminal device 30 using RAM 3002 as a work memory according to programs stored in ROM 3001 and storage 3005.
  • the program includes the SNS application described above.
  • the imaging unit 3003 includes an imaging element, an optical system (such as a lens) for irradiating light from a subject to the imaging element, and a configuration for controlling the imaging element and processing a signal output from the imaging element. .
  • the imaging unit 3003 captures a still image or a moving image under the control of the CPU 3000.
  • the image captured by the image capturing unit 3003 is stored in the RAM 3002. In the following, unless otherwise specified, the captured image captured by the imaging unit 3003 is a still image.
  • the display control unit 3004 generates a display signal that can be displayed by the display device 3020 based on the display control signal generated by the CPU 3000.
  • the display device 3020 includes, for example, an LCD (Liquid Crystal Display) and a drive circuit that drives the LCD.
  • the input device 3006 for example, a pointing device that outputs coordinate information corresponding to a position touched by a finger or the like can be used. It is preferable that the input device 3006 and the display device 3020 be integrally formed as a so-called touch panel.
  • the data I / F 3007 is an interface for exchanging data with an external device.
  • USB Universal Serial Bus
  • Bluetooth registered trademark
  • the communication I / F 3008 controls communication with the network 20 according to an instruction from the CPU 3000.
  • FIG. 5 is a block diagram illustrating an example of a hardware configuration of the imaging unit 3003 applicable to the first embodiment.
  • the imaging unit 3003 includes a pixel unit 3100, a signal processing unit 3101, a memory unit 3102, an I / F unit 3103, an image processing unit 3104, and an element control unit 3105, and each of these units is a CMOS (Complementary @ Metal).
  • CMOS Complementary @ Metal
  • This is a CMOS image sensor (CIS) integrally formed using Oxide (Semiconductor).
  • the pixel portion 3100 is provided with a plurality of scanning lines and a plurality of signal lines. At an intersection of each scanning line and each signal line, a pixel circuit is arranged, and a plurality of scanning circuits and a plurality of signal lines are provided. A pixel circuit is provided. In the pixel circuit, for example, a photodiode is used as a photoelectric conversion element, and a microlens and a color filter are formed over the photodiode.
  • the pixel unit 3100 includes a row scanning circuit, an AD (Analog to digital) converter for each row, and a column scanning circuit.
  • each pixel circuit is scanned for each row by a row scanning circuit, and an analog pixel signal output for each row is converted into digital pixel data by an AD converter.
  • the pixel data subjected to AD conversion for each row is sequentially transferred to the signal processing unit 3101 by the column scanning circuit.
  • the signal processing unit 3101 performs signal processing such as CDS (Correlated Double Sampling) processing, AGC (Auto Gain Control) processing, and WB (White Balance) processing on the pixel data transferred from the pixel unit 3100.
  • the image data subjected to signal processing by the signal processing unit 3101 is transferred to the memory unit 3102 and the I / F unit 3103.
  • the memory unit 3102 stores the image data processed by the signal processing unit 3101.
  • the memory portion 3102 has a capacity capable of storing image data for one frame (for all pixel circuits of the pixel portion 3100), for example.
  • the image processing unit 3104 is, for example, a DSP (Digital Signal Processor), and performs predetermined image processing on image data stored in the memory unit 3102.
  • the image processing unit 3104 performs a detection process of detecting a predetermined specific object included in an image (captured image) based on the image data stored in the memory unit 3102.
  • the image processing unit 3104 detects a specific object using, for example, a detection process based on pattern recognition using a known technique.
  • the invention is not limited thereto, and the image processing unit 3104 may detect a specific object by using a technique such as deep learning.
  • the image processing unit 3104 writes a detection flag indicating that fact in the memory unit 3102.
  • the I / F unit 3103 is an interface that controls communication between the imaging unit 3003 and the outside.
  • the I / F unit 3103 can apply an interface corresponding to MIPI (Mobile Industry Processor Interface).
  • MIPI Mobile Industry Processor Interface
  • the present invention is not limited thereto, and the I / F unit 3103 may apply an interface of a unique method to the imaging unit 3003.
  • the I / F unit 3103 outputs the image data transferred from the signal processing unit 3101 or the image data (captured image) stored in the memory unit 3102 to the outside of the imaging unit 3003.
  • the I / F unit 3103 externally outputs, for example, designated image data of the image data transferred from the signal processing unit 3101 and the image data stored in the memory unit 3102 in accordance with an instruction from the outside. .
  • the element control unit 3105 controls the entire operation of the imaging unit 3003. For example, the element control unit 3105 generates a timing signal for synchronously controlling the operations of the row scanning circuit, the AD converter, and the column scanning circuit in the pixel unit 3100. The element control unit 3105 controls the timing at which the image processing unit 3104 starts image processing.
  • the pixel unit 3100, the signal processing unit 3101, the memory unit 3102, the I / F unit 3103, the image processing unit 3104, and the element control unit 3105 included in the imaging unit 3003 have been described as being formed on one substrate.
  • the imaging unit 3003 may be a stacked CIS in which a plurality of semiconductor chips are stacked.
  • the imaging unit 3003 can be formed with a two-layer structure in which semiconductor chips are stacked in two layers.
  • FIG. 6 is a diagram illustrating an example in which the imaging unit 3003 according to the first embodiment is formed by a stacked CIS having a two-layer structure.
  • a pixel portion 3100 is formed on a first layer semiconductor chip
  • a memory + logic portion 3200 is formed on a second layer semiconductor chip.
  • the memory + logic unit 3200 includes, for example, a signal processing unit 3101, a memory unit 3102, an I / F unit 3103, an image processing unit 3104, and an element control unit 3105.
  • the first layer semiconductor chip may include the pixel portion 3100 and the signal processing portion 3101.
  • the imaging unit 3003 is configured as one solid-state imaging device by bonding the first-layer semiconductor chip and the second-layer semiconductor chip while making electrical contact with each other.
  • the imaging unit 3003 can be formed with a three-layer structure in which semiconductor chips are stacked in three layers.
  • FIG. 7 is a diagram illustrating an example in which the imaging unit 3003 according to the first embodiment is formed by a three-layer stacked CIS.
  • a pixel portion 3100 is formed in a first-layer semiconductor chip
  • a memory portion 3102 is formed in a second-layer semiconductor chip
  • a logic portion 3201 is formed in a third-layer semiconductor chip.
  • the logic unit 3201 includes, for example, a signal processing unit 3101, an I / F unit 3103, an image processing unit 3104, and an element control unit 3105.
  • the first layer semiconductor chip may include the pixel portion 3100 and the signal processing portion 3101. As shown on the right side of FIG. 7, the semiconductor chip of the first layer, the semiconductor chip of the second layer, and the semiconductor chip of the third layer are attached to each other while making electrical contact with each other. As a solid-state imaging device.
  • FIG. 8 is an example functional block diagram for explaining functions of the terminal device 30 according to the first embodiment.
  • the terminal device 30 includes an imaging processing unit 300, an object detection unit 301, an application unit 302, and a communication unit 303.
  • the application unit 302 includes an encoding unit 320, a UI unit 321, and an authentication requesting unit 322.
  • the imaging processing unit 300 and the object detection unit 301 are functions realized by the imaging unit 3003 described with reference to FIG.
  • the imaging processing unit 300 corresponds to the functions of the pixel unit 3100, the signal processing unit 3101, and the element control unit 3105 in FIG.
  • the object detection unit 301 corresponds to the functions of the memory unit 3102 and the image processing unit 3104 in FIG.
  • the function of the application unit 302 is, for example, a function realized by the above-described SNS application.
  • a program (SNS application) for realizing each function in the application unit 302 (the encoding unit 320, the UI unit 321 and the authentication requesting unit 322) in the terminal device 30 is stored on a computer connected to a network such as the Internet, It is provided by being downloaded via the network. Further, the program may be provided or distributed via a network such as the Internet. Further, the program is provided in an installable or executable format on a computer-readable recording medium such as a CD (Compact Disk), a flexible disk (FD), or a DVD (Digital Versatile Disk). May be.
  • CD Compact Disk
  • FD flexible disk
  • DVD Digital Versatile Disk
  • the program has a module configuration including an encoding unit 320, a UI unit 321 and an authentication requesting unit 322.
  • a module configuration including an encoding unit 320, a UI unit 321 and an authentication requesting unit 322.
  • the CPU 3000 reads out the program from a storage medium such as the ROM 3001 or the storage 3005 and executes the program, the above-described units are loaded onto the main storage device such as the RAM 3002, and the encoding unit 320 and the UI unit 321 are loaded.
  • the authentication request unit 322 is generated on the main storage device.
  • the encoding unit 320 performs an encoding process such as compression encoding on the captured image output from the imaging unit 3003.
  • a JPEG Joint Photographic Experts Group
  • an image is divided into blocks of a fixed size (for example, 8 pixels ⁇ 8 pixels), and discrete cosine transform is performed in block units to convert image information from a spatial domain to information in a frequency domain.
  • this block is called a DCT (Discrete Cosine Transform) block.
  • the encoding unit 320 performs a quantization process and a Huffman compression process on the image converted into the information in the frequency domain, reduces the amount of information, and compression-encodes the original image.
  • the encoding unit 320 stores the compression-encoded image in a file in a predetermined format. At this time, the encoding unit 320 can further store the metadata regarding the image in the file.
  • the encoding unit 320 can store the compression-encoded image in an Exif (Exchangeable image file format) file.
  • the metadata is stored in an application marker segment area defined in the Exif format.
  • a UI (User Interface) unit 321 provides a user interface for user operation.
  • the UI unit 321 generates a display control signal for causing the display device 3020 to display an operation screen.
  • the UI unit 321 receives a user operation on the input device 3006, and controls the operation of each unit (for example, the imaging unit 3003 and the authentication request unit 322) of the terminal device 30 according to the user operation.
  • the authentication request unit 322 transmits authentication information (account information) for logging in to the SNS and an authentication request for the authentication information to the server 10 and requests authentication of the terminal device 30.
  • the authentication request unit 322 can, for example, nonvolatilely store account information input by the user 31 in a predetermined area of the storage 3005.
  • the authentication requesting unit 322 can automatically transmit the stored account information to the server 10 when the SNS application is activated.
  • the communication unit 303 performs communication with the network 2 under the control of the UI unit 321.
  • the communication unit 303 transmits the captured image encoded by the encoding unit 320 and stored in the file, and the account information by the authentication requesting unit 322.
  • FIG. 9 is an example functional block diagram for explaining the function of the server 10 according to the first embodiment.
  • the server 10 includes a communication unit 100, an authentication unit 101, a decoding unit 102, an analysis unit 103, a mask processing unit 104, and a storage unit 105.
  • the communication unit 100, the authentication unit 101, the decoding unit 102, the analysis unit 103, the mask processing unit 104, and the storage unit 105 are realized by a program operating on the CPU 1000.
  • the present invention is not limited to this, and some or all of the communication unit 100, the authentication unit 101, the decoding unit 102, the analysis unit 103, the mask processing unit 104, and the storage unit 105 are configured by hardware circuits operating in cooperation with each other. Is also good.
  • the communication unit 100 performs communication with the network 2.
  • the authentication unit 101 performs an authentication process in response to an authentication request including account information received by the communication unit 100.
  • the decoding unit 102 decodes the image received by the communication unit 100 to decode the compression code, and acquires metadata added to the image.
  • the analysis unit 103 analyzes the decoded image decoded by the decoding unit 102, and detects a specific object included in the decoded image.
  • the mask processing unit 104 performs a mask process on the image according to the analysis result of the analysis unit 103. At this time, the mask processing unit 104 can perform a mask process on the compression-encoded image before being decoded by the decoding unit 102. The mask processing unit 104 also cancels the mask processing performed on the image. The mask processing unit 104 performs a mask process and a mask release process according to the authentication result of the authentication unit 101.
  • the storage unit 105 stores the image output from the mask processing unit 104 in, for example, the storage 1003.
  • the storage unit 105 also performs a process of reading an image from the storage 1003.
  • a process in which the storage unit 105 stores an image in the storage 1003 is described as “store an image in the storage unit 105”, and a process of reading an image from the storage 1003 is referred to as “storage unit 105”. Read the image from. "
  • a program for realizing each function according to the first embodiment in the server 10 is a file in an installable format or an executable format in a CD (Compact Disk), a flexible disk (FD), and a DVD (Digital Versatile Disk).
  • the program is provided by being recorded on a computer-readable recording medium such as a computer.
  • the program may be stored on a computer connected to a network such as the Internet, and provided by being downloaded via the network. Further, the program may be provided or distributed via a network such as the Internet.
  • the program has a module configuration including a communication unit 100, an authentication unit 101, a decoding unit 102, an analysis unit 103, a mask processing unit 104, and a storage unit 105.
  • a communication unit 100 As actual hardware, when the CPU 1000 reads out the program from a storage medium such as the ROM 1001 or the storage 1003 and executes the program, the above-described units are loaded on the main storage device such as the RAM 1002, and the communication unit 100 and the authentication unit 101 , A decoding unit 102, an analysis unit 103, a mask processing unit 104, and a storage unit 105 are generated on a main storage device.
  • FIG. 10 is an example flowchart illustrating upload processing of a captured image by the terminal device 30 according to the first embodiment.
  • the terminal device 30 Prior to execution of the processing according to the flow of FIG. 10, the terminal device 30 is loaded with application software (SNS application) corresponding to a service (for example, SNS) provided by the information processing system 1 according to the first embodiment.
  • SNS application application software
  • SNS service
  • step S100 the SNS application is started in the terminal device 30 in response to a user operation.
  • the authentication requesting unit 322 transmits account information to the server 10 and requests authentication.
  • the server 10 performs authentication based on the account information transmitted from the terminal device 30 by the authentication unit 101.
  • the SNS provided by the server 10 can be used from the terminal device 30.
  • the terminal device 30 performs imaging by the imaging processing unit 300 in response to a user operation instructing imaging (step S101).
  • the captured image obtained by the imaging is passed to the object detection unit 301.
  • the terminal device 30 causes the object detection unit 301 to execute a specific object detection process on the captured image passed from the imaging processing unit 300.
  • the specific object is, for example, an image from which personal information can be specified, and a face, a license plate of a vehicle, an open window, or the like can be applied.
  • the object detection unit 301 detects a specific object using a detection method based on known pattern recognition. Note that the specific object detection process may be executed by the object detection unit 301 and the CPU 3000 of the terminal device 30 in cooperation with each other.
  • the captured image captured and acquired in step S101 is applied as the target of the specific object detection in step S102, but this is not limited to this example.
  • the terminal device 30 may perform a specific object detection by the object detection unit 301 in step S102 on a captured image that is captured by the imaging unit 3003 and stored in the storage 3005 or the like.
  • the object detection unit 301 executes a specific object detection process on a captured image read from the storage 1003 in response to a user operation or the like.
  • step S103 the terminal device 30 determines whether or not the object detection unit 301 has detected a specific object from the captured image.
  • the object detection unit 301 shifts the processing to step S104.
  • step S104 the terminal device 30 causes the object detection unit 301 to add a detection flag indicating that a specific object has been detected to the captured image.
  • the detection flag is, for example, a value “1” indicating that a specific object has been detected, and a value “0” indicating that the specific object has not been detected.
  • the default value of the detection flag is “0”.
  • step S104 the value of the detection flag is changed from “0” to “1”. As described above, when the object detection processing is executed in cooperation with the object detection unit 301 and the CPU 3000, the detection flag may be added by the object detection unit 301 or may be added by the CPU 3000.
  • FIGS. 11 and 12 are diagrams schematically illustrating a state where a specific object is detected from a captured image, which is applicable to the first embodiment.
  • FIG. 11 shows an example where the specific object is a face.
  • each rectangular area 51a including a face is detected as a specific object area.
  • FIG. 12 shows an example in which a specific object is an open window.
  • each rectangular area 51b including the open window is detected as the specific object area.
  • step S103 when it is determined in step S103 that no specific object is detected from the captured image (step S103, “No”), the object detection unit 301 skips the processing of step S104 and shifts the processing to step S105. Let it. In this case, the value of the detection flag is maintained at “0”.
  • step S105 the terminal device 30 performs an encoding process on the captured image acquired in step S101 by the encoding unit 320.
  • the encoding unit 320 compresses and encodes the captured image according to the JPEG method and stores the compressed and encoded image in an Exif format file.
  • the encoding unit 320 includes the detection flag in the metadata of the captured image and stores the detection flag in the application marker segment area defined in the Exif format.
  • the terminal device 30 transmits the captured image encoded in step S105 and stored in the file to the server 10 by the communication unit 303 in response to a user operation.
  • the specific object detection is performed on the still image, but this is not limited to this example.
  • the processing according to the flowchart of FIG. 10 may be processing for a moving image.
  • the terminal device 30 causes the object detection unit 301 to execute a specific object detection process for each frame of the moving image.
  • the object detection unit 301 adds a detection flag of a value “1” to the frame in which the specific object is detected (“Yes” in step S103) as metadata of the frame (step S104). .
  • step S105 the terminal device 30 uses the encoding unit 320 to convert the moving image H.264 (ITU-T Rec. H.264
  • the detection flag is described as being added as metadata to each frame. However, this is not limited to this example. For example, data in which detection flags for a plurality of frames are associated with frame numbers is separately created, and The data may be added to the moving image data.
  • the terminal device 30 may transmit the moving image as a file to the server 10 or may transmit the moving image as stream data.
  • FIG. 13 is a flowchart illustrating an example of a process performed by the server 10 according to the first embodiment.
  • the server 10 uses the communication unit 100 to detect access via the network 2.
  • the server 10 determines whether the access detected by the authentication unit 101 in step S200 is an access from an access source that has received the authentication request.
  • the server 10 ends the series of processes in the flowchart of FIG. Let it. Not limited to this, the authentication unit 101 may request account information for the access and prompt authentication processing.
  • step S200 determines that the access detected in step S200 is an access for which the authentication request has been received (step S201, “Yes”)
  • step S202 the authentication unit 101 determines whether the authentication for the received authentication request is successful. If the authentication unit 101 determines that the authentication for the received authentication request has not been successful (step S202, “NG”), the authentication unit 101 ends the series of processes in the flowchart of FIG.
  • step S203 the server 10 determines, for example, by the communication unit 100, which of the access detected in step S200 requires registration or acquisition of an image. If the communication unit 100 determines that the access detected in step S200 is a request for image registration (step S203, “Registration”), the process proceeds to step S204. On the other hand, when the communication unit 100 determines that the access detected in step S200 is a request to acquire an image (step S203, “acquisition”), the server 10 shifts the processing to step S210.
  • step S203 If the communication unit 100 determines in step S203 that the access detected in step S200 is neither registration nor acquisition of an image, the communication unit 100 ends a series of processes in the flowchart of FIG. 13 and proceeds to another process. Can be migrated.
  • step S204 the server 10 receives, by the communication unit 100, the file storing the image transmitted from the access source whose access has been detected in step S200.
  • the access source is, for example, the terminal device 30, and the communication unit 100 receives the file storing the captured image transmitted in step S106 in the flowchart of FIG.
  • the server 10 causes the decoding unit 102 to extract and decode the compression-encoded captured image from the file received in step S204, thereby decoding the captured image.
  • the decoded decoded image is bitmap data having luminance information and color information for each pixel.
  • the decoding unit 102 also stores the compression-encoded captured image stored in the file.
  • the decoding unit 102 acquires metadata from the file.
  • step S206 the server 10 uses the decoding unit 102 to determine whether or not the metadata acquired in step S205 includes a detection flag indicating that the specific object has been detected.
  • the decoding unit 102 determines that the detection flag is not included (step S206, “No”), the process proceeds to step S209.
  • the decoding unit 102 determines that the detection flag is included (step S206, “Yes”), the decoding unit 102 shifts the processing to step S207.
  • step S207 the server 10 analyzes the captured image decoded in step S205 by the analysis unit 103, detects all detectable specific objects from the captured image, and identifies each detected specific object. Get the containing rectangular area.
  • the analysis unit 103 passes the acquired coordinates of a rectangular area (hereinafter, referred to as a specific object area) including all the specific objects to the mask processing unit 104.
  • the server 10 uses the mask processing unit 104 to store the compression-encoded captured image held by the decoding unit 102 in step S204 based on the coordinates of the specific object area passed from the analysis unit 103.
  • a reversible mask process is performed on an area corresponding to the specific object area.
  • FIG. 14 is a diagram illustrating an example in which mask processing is performed on each rectangular area 51a included in the above-described captured image 50a illustrated in FIG. 11 according to the first embodiment. 14, in the captured image 50a ', each rectangular area 52a corresponding to each rectangular area 51a in FIG. 11 is masked, and the face included in each rectangular area 51a is unknown.
  • FIG. 15 is a diagram illustrating an example in which mask processing is performed on each rectangular area 51b included in the captured image 50b illustrated in FIG. 12 described above according to the first embodiment. In the captured image 50b 'in FIG. 15, a mask is applied to each of the rectangular regions 52b corresponding to each of the rectangular regions 51b in FIG. 12, and an open window included in each of the rectangular regions 51b is unknown.
  • an object that can specify personal information and is included in the original captured images 50a and 50b can be made indistinguishable.
  • the reversible mask processing by the mask processing unit 104 will be described using a more specific example.
  • the mask processing unit 104 rearranges the information in the rectangular area in the image, thereby making it difficult to determine the information in the rectangular area and masking the rectangular area. Also, by rearranging the information in the masked rectangular area in the original order, the mask can be released and the information in the rectangular area can be returned to the original easily identifiable information.
  • the mask processing unit 104 rearranges the information in the rectangular area, for example, by encrypting the information in the rectangular area.
  • the mask processing unit 104 encrypts information in the rectangular area using a key given in advance, masks the information, decrypts the encryption in the rectangular area using the key, and decrypts the information in the rectangular area. In the original order.
  • a method of rearranging information by performing replacement and transposition according to a predetermined key can be applied.
  • encryption using a hash function such as SHA-1 (Secure @ Hash @ Algorithm-1) or MD5 (Message @ Digest @ Algorithm @ 5) may be used.
  • an image 50c is a bitmap image and includes a face 501 as a specific object.
  • compression encoding is performed in units of DCT blocks having a fixed size of 8 pixels ⁇ 8 pixels.
  • the image 50c is divided into blocks of 8 ⁇ 8 pixels corresponding to DCT blocks, and a rectangular area 502 including a plurality of blocks 500 including a face 501 is extracted. It is conceivable that data compressed and encoded by the JPEG method is encrypted in units of DCT blocks corresponding to the blocks 500 included in the rectangular area 502.
  • the mask processing unit 104 performs the mask processing for each specific object area.
  • the present invention is not limited to this example.
  • the mask processing unit 104 may encrypt the entire captured image included in the file received in step S204. Further, the mask processing unit 104 can also encrypt the file itself received in step S204.
  • the mask processing unit 104 has been described to perform the mask processing on the compression-encoded captured image, but this is not limited to this example.
  • the mask processing unit 104 performs a mask process on the captured image decoded as the bitmap image in step S205, and compresses the captured image of the bitmap image subjected to the mask process again by the JPEG method or the like. It may be.
  • step S208 when the mask processing is performed by the mask processing unit 104 in step S208, the server 10 shifts the processing to step S209.
  • step S209 the server 10 receives the captured image (image file) on which the mask processing has been performed in step S208 by the storage unit 105, or receives the image in step S204 if the processing has shifted from step S206 to step S209.
  • the captured image (image file) is stored in, for example, the storage 1003, and the captured image is registered in the SNS.
  • the storage unit 105 stores the information indicating the position of each specific object area detected in step S207 in the storage 1003 in association with the captured image.
  • the server 10 decodes the compression code of the moving image received in step S205 by the decoding unit 102, and generates a bitmap image for each frame. Is generated (step S205).
  • the server 10 also detects the specific object area by the analysis unit 103 for each frame that is a bitmap image, based on the detection flag acquired by the decoding unit 102 and added to the moving image as metadata (step S206, step S207).
  • the server 10 performs a mask process on the detected specific object region by the mask processing unit 104 (Step S208).
  • the server 10 transmits the moving image including each frame, which is a bitmap image, subjected to the mask processing in step S208 by the storage unit 105, for example, to the H.264 image.
  • the compression-encoded moving image is stored in the storage 1003, and the moving image is registered in the SNS (step S209).
  • the present invention is not limited to this, and the server 10 may store the moving image in which each frame is a bitmap image, which is not subjected to the compression encoding, in the storage 1003.
  • the storage unit 105 stores information indicating the position of each specific object area detected in each frame in the storage 1003 in association with each frame.
  • step S203 if it is determined that the access detected in step S200 is a request to acquire an image (step S203, “acquisition”), the process proceeds to step S210.
  • step S210 the storage unit 105 in the server 10 acquires a file in which the captured image requested to be acquired is stored, for example, from a registered image stored in the storage 1003 and registered in the SNS.
  • step S211 the server 10 determines whether or not the metadata stored in the file acquired in step S210 includes a detection flag indicating that the specific object has been detected by the mask processing unit 104. I do.
  • step S211 “No”
  • the process proceeds to step S213.
  • Step S212 the mask processing unit 104 cancels the mask applied to the captured image based on the information indicating the position of the specific object area associated with the captured image acquired in step S210.
  • the mask processing unit 104 decrypts the encryption when the mask is applied to the specific object area in the captured image by encryption.
  • the captured image can be viewed in a state where the image is not masked and has been received in step S204.
  • the server 10 causes the communication unit 100 to include, in the access source whose access has been detected in step S200, the captured image acquired in step S210 (a detection flag indicating that the specific object has been detected). If no, the captured image (if the detection flag is included) whose mask has been released in step S212 is transmitted. When the captured image is transmitted, a series of processes in the flowchart of FIG. 13 ends.
  • step S200 is an access from an access source that has not been authenticated in the authentication process by the server 10 (for example, an unauthorized access from the terminal device 41)
  • the process in step S211 is not performed. Therefore, when a captured image registered in the SNS is acquired due to unauthorized access, the acquired captured image remains masked, and an image included in the specific object area cannot be identified. Therefore, diffusion of personal information included in the specific object area can be suppressed.
  • the server 10 uses the decoding unit 102 to decode the moving image acquired from the registered image in step S210. It decodes the compression code to generate a bitmap image for each frame, and acquires a detection flag added as metadata added to the moving image. If the image requested to be acquired is a moving image stored in the storage 1003 without being compression-encoded, the decoding process of the compression code is omitted.
  • the server 10 determines the frame based on the information indicating the position of the specific object area associated with the frame. Is released (step S212). The server 10 sends each frame whose mask has been released by, for example, the mask processing unit 104 to H.264.
  • the data is compression-encoded by a predetermined method such as the H.264 method and transmitted (step S213).
  • FIG. 17 is a sequence chart illustrating an example of an entire operation of the information processing system 1 according to the first embodiment.
  • the terminal device 30 transmits a still image captured by the image capturing unit 3003 as a still image to the server 10.
  • the application unit 302 transmits account information to the server 10 by the authentication request unit 322, and requests the server 10 for authentication (step S300). Step S301). If the account information transmitted from the terminal device 30 is appropriate, the server 10 notifies the terminal device 30 of the authentication (step S302). Thus, the SNS function provided by the server 10 can be used from the terminal device 30.
  • imaging is performed by the imaging processing unit 309 of the imaging unit 3003 in response to a user operation, and a captured image is obtained (step S303).
  • the imaging unit 3003 detects the specific object from the captured image acquired by the imaging using the object detection unit 301 (step S304).
  • the object detection unit 301 adds a detection flag indicating that the specific object is detected to the captured image (step S305), and adds the detection image to which the detection flag has been added.
  • the information is passed to the application unit 302.
  • the captured image is passed to the encoding unit 320 in the application unit 302.
  • the terminal device 30 performs an encoding process on the captured image passed from the object detection unit 301 by the encoding unit 320 (step S306).
  • This encoding process compression and encoding are performed on the captured image by, for example, the JPEG method, and metadata including a detection flag is added.
  • the encoding unit 320 stores each of the encoded data in a file in a predetermined format (for example, an Exif format) and passes the data to the communication unit 303.
  • the communication unit 303 transmits the file in which the data passed from the encoding unit 320 is stored to the server 10 according to, for example, a user operation, and uploads a captured image to the server 10 (Step S307).
  • the decoding unit 102 When the server 10 receives the file containing the captured image uploaded from the terminal device 30, the decoding unit 102 performs a decoding process on the received file (step S310). That is, the decoding unit 102 acquires metadata from the received file. At the same time, the decoding unit 102 decodes the compression-encoded captured image stored in the file. The decoding unit 102 passes the decoded captured image to the analysis unit 103 and holds the captured image before decoding.
  • the server 10 causes the analysis unit 103 to execute the decoding passed from the decoding unit 102.
  • the captured image is analyzed, and all detectable specific objects included in the decoded captured image are detected (step S311).
  • the analysis unit 103 passes position information indicating the position of the specific object detected from the decoded captured image to the mask processing unit 104.
  • the mask processing unit 104 performs a mask process on the captured image (compression-coded captured image) before decoding, which is stored in the decoding unit 102, based on the position information passed from the analysis unit 103 (step S312). ).
  • the server 10 registers the captured image subjected to the mask processing in the SNS.
  • steps S320 to S324 show an example of processing in a case where the server 10 is accessed by regular access to log in to the SNS and a captured image registered in the SNS is acquired.
  • account information is transmitted from the SNS application to the server 10 from, for example, the terminal device 40 on which the SNS application is mounted, and authentication is requested (step S320).
  • the server 10 notifies the terminal device 40 that the authentication has been performed (step S321). Thereby, the function of the SNS provided by the server 10 can be used from the terminal device 40.
  • the terminal device 40 requests the server 10 to browse the captured image registered in the SNS by the SNS application in response to, for example, a user operation (step S322).
  • the server 10 releases the mask applied to the captured image registered in the SNS (Step S323).
  • the server 10 transmits the captured image with the mask removed to the terminal device 40 (Step S324).
  • the terminal device 40 decodes the captured image, decodes the compression code, and displays it on the display. Since the mask on the specific object has been released from the captured image, the captured image can be viewed on the terminal device 40 so that the specific object can be identified.
  • steps S330 to S332 show an example of processing in a case where the server 10 is accessed by unauthorized access to acquire a captured image registered in the SNS without logging in to the SNS.
  • the terminal device 41 accesses the server 10 without sending the account information and requests for authentication, and accesses the server 10 without authentication by the server 10 and requests a captured image to be registered in the SNS (step S330). .
  • the server 10 does not release the mask applied to the captured image for a request from an unauthorized access source (step S331). Therefore, the terminal device 41 acquires the captured image with the mask applied (step S332). In the captured image, since the specific object remains masked, the specific object cannot be identified in the captured image viewed on the terminal device 41. Therefore, even if the captured image leaks from the terminal device 41 to, for example, the Internet, it is possible to prevent the personal information included in the specific object from being diffused.
  • the processing (mask processing) on the registered image is canceled or the processing is performed as it is, depending on whether the access to the server 10 is the regular access or the unauthorized access. Can be controlled, and both the processed and non-processed states of the image can be compatible. In addition, since the image is kept processed for unauthorized access, the diffusion of, for example, personal information contained in the image before the processing can be suppressed.
  • the terminal device 30 detects whether or not at least one specific object is included in the captured image (FIG. 10, step S103), and the server 10 determines whether or not the captured image includes at least one specific object. Is included, the captured image is analyzed to detect the specific object region (FIG. 13, step S207). This is not limited to this example, and the terminal device 30 may detect all the specific objects that can be detected from the captured image.
  • the terminal device 30 acquires a specific object area and its coordinates for all detected specific objects (for example, step S103 in FIG. 10).
  • the terminal device 30 adds the acquired coordinates of all the specific object areas as metadata to the captured image (for example, step S104 in FIG. 10).
  • step S207 in FIG. 13 the processing of step S207 in FIG. 13 (step S311 in FIG. 17) can be omitted.
  • the mask processing unit 104 performs a mask process on each specific object area based on the coordinates of each specific object area included in the metadata added to the captured image (step S207 in FIG. 13 and FIG. 17). Step S312).
  • the terminal device 30 acquires each specific object area included in the captured image, so that the load of the server 10 is reduced with respect to the processing of the first embodiment described above. It is possible to reduce.
  • the server 10 registers a captured image on which reversible mask processing has been performed, and releases the mask of the captured image for regular access.
  • the server 10 registers the captured image without performing the masking process, and performs the masking process on the captured image in response to an acquisition request of the captured image due to unauthorized access. I have to.
  • the mask processing can use an irreversible method.
  • FIG. 18 is an example flowchart illustrating a process in the server 10 according to the second embodiment. Note that in FIG. 18, processes common to the above-described flowchart of FIG. 13 are denoted by the same reference numerals. Further, the processing of the terminal device 30 when the captured image is registered in the SNS provided by the server 10 can apply the processing described in FIG. 10 as it is.
  • step S200 the server 10 detects access via the network 2 by the communication unit 100, and in the next step S201, the authentication unit 101 determines that the access detected in step S200 is an authentication request. Is determined to be an access from an access source that has already received.
  • step S200 determines whether the access detected in step S200 is an access for which the authentication request has been received. If the authentication unit 101 determines that the authentication for the received authentication request has not been successful (step S202, “NG”), the series of processes in the flowchart of FIG. 18 ends.
  • step S203 the server 10 determines, for example, by the communication unit 100, which of the access detected in step S200 requires registration or acquisition of an image. If the communication unit 100 determines that the access detected in step S200 is a request for image registration (step S203, “Registration”), the process proceeds to step S204. On the other hand, if the communication unit 100 determines that the access detected in step S200 is a request to acquire an image (step S203, “acquisition”), the process proceeds to step S210.
  • step S204 the server 10 receives, by the communication unit 100, the file storing the image transmitted from the access source whose access has been detected in step S200.
  • the access source is, for example, the terminal device 30, and the communication unit 100 receives the file storing the captured image transmitted in step S106 in the flowchart of FIG.
  • the server 10 causes the decoding unit 102 to extract and decode the compression-encoded captured image from the file received in step S204, thereby decoding the captured image.
  • the decoding unit 102 also stores the compression-encoded captured image stored in the received file.
  • the decoding unit 102 acquires metadata from the file.
  • step S206 the server 10 uses the decoding unit 102 to determine whether or not the metadata acquired in step S205 includes a detection flag indicating that the specific object has been detected. If the decoding unit 102 determines that the detection flag is not included (step S206, “No”), the process proceeds to step S209 ′. On the other hand, when the decoding unit 102 determines that the detection flag is included (step S206, “Yes”), the decoding unit 102 shifts the processing to step S207.
  • step S207 the server 10 analyzes the captured image decoded in step S205 by the analysis unit 103, and detects a specific object region from the captured image.
  • the analysis unit 103 holds the coordinates of the detected specific object area in association with the captured image.
  • the process proceeds to step S209 '.
  • the mask processing on the detected specific object area in step S208 in FIG. 13 is not executed when a captured image is registered.
  • the server 10 stores in the storage unit 105 the captured image (image file) received in step S204 and the coordinates of the specific object area associated with the captured image in step S207. To be stored.
  • the captured image is registered in the SNS, a series of processing according to the flowchart in FIG. 18 ends.
  • step S203 if it is determined that the access detected in step S200 is a request to acquire an image (step S203, “acquisition”), the process proceeds to step S210.
  • the server 10 acquires, from the storage unit 105, a file in which the captured image requested to be acquired is stored, for example, from a registered image stored in the storage 1003 and registered in the SNS.
  • step S210 When the registered image is obtained in step S210, the process proceeds to step S213. That is, in the second embodiment, since the registered image has not been subjected to the mask processing, the determination processing based on the detection flag in step S211 in FIG. 13 and the mask release processing in step S212 are omitted.
  • step S213 the server 10 causes the communication unit 100 to transmit the captured image acquired in step S210 to the access source whose access has been detected in step S200.
  • the captured image is transmitted, a series of processes in the flowchart of FIG. 18 ends.
  • step S201 when the authentication unit 101 determines that the access detected in step S200 is not an access for which the authentication request has been received (step S201, “No”), the server 10 proceeds to step S220. Migrate.
  • step S220 the server 10 determines, for example, by the communication unit 100, whether the access detected in step S200 is a request to acquire an image. If the communication unit 100 determines that the access does not request acquisition of an image (step S220, “No”), the communication unit 100 ends the series of processes in the flowchart of FIG.
  • step S220 when the communication unit 100 determines that the access is a request for acquiring an image (step S220, “Yes”), the server 10 shifts the processing to step S221.
  • step S221 the server 10 acquires, by the mask processing unit 104, a captured image requested from the access source of the access detected in step S200 among the captured images registered in step S209 '.
  • the server 10 performs a mask process on the acquired captured image in a region corresponding to the specific object in the captured image based on the coordinates of the specific object associated with the captured image.
  • the server 10 causes the communication unit 100 to transmit the captured image subjected to the mask processing to the access source of the access detected in step S200.
  • step S222 When the captured image subjected to the mask processing is transmitted in step S222, a series of processing according to the flowchart in FIG.
  • the present invention is not limited to this, and the entire captured image may be replaced with a solid image or the like. The same applies to the case where the captured image is a moving image.
  • the captured image acquired by unauthorized access to the SNS is masked and included in the specific object area.
  • the image cannot be identified. Therefore, diffusion of personal information included in the specific object area can be suppressed.
  • the mask processing for the area of the captured image corresponding to the specific object area irreversible, it becomes impossible for the receiving side of the captured image to identify the image included in the specific object area. Therefore, diffusion of personal information included in the specific object area can be more effectively suppressed.
  • the registered captured image since the registered captured image itself is not subjected to the masking process, the registered captured image is accessed without logging in to the SNS by any method, for example. In such a case, an original captured image may be obtained. Therefore, it is preferable to separately take measures against unauthorized access.
  • FIG. 19 is an example sequence chart illustrating an overall operation of the information processing system 1 according to the second embodiment.
  • the terminal device 30 transmits a still image captured by the image capturing unit 3003 as a still image to the server 10.
  • the processing in steps S300 to S310 is the same as the processing described with reference to FIG. Therefore, the description here is omitted.
  • the mask processing of step S312 in FIG. 17 is omitted.
  • steps S320 to S324 show an example of processing in a case where the terminal device 40 accesses the server 10 by regular access, logs in to the SNS, and acquires a captured image registered in the SNS, for example. ing.
  • the process of FIG. 19 omits the process of unmasking in step S323 in FIG.
  • the processing in steps S320 to S322 is the same as the processing in steps S320 to S322 in FIG. 17, and a description thereof will be omitted.
  • the server 10 uses the communication unit 100 in step S324 ′.
  • the captured image requested by the terminal device 40 is transmitted (step S324).
  • the terminal device 40 decodes the captured image, decodes the compression code, and displays it on the display. Since the captured image has not been subjected to the mask processing, the captured image can be viewed on the terminal device 40 so that the specific object can be identified.
  • steps S340 to S342 show an example of processing when the server 10 is accessed by unauthorized access to acquire a captured image registered in the SNS without logging in to the SNS.
  • the terminal device 41 accesses the server 10 without transmitting the account information and requests for authentication, and accesses the server 10 without authentication by the server 10 and requests a captured image to be registered in the SNS (step S340). .
  • the server 10 performs irreversible mask processing on the requested captured image by the mask processing unit 104 (step S341). Therefore, the terminal device 41 obtains the captured image irreversibly masked and masked (step S342). In the captured image, since the specific object is masked irreversibly, the specific object cannot be identified in the captured image viewed on the terminal device 41. Therefore, even if the captured image leaks from the terminal device 41 to, for example, the Internet, it is possible to prevent the personal information included in the specific object from being diffused.
  • the requested image is processed (masked) or processed according to whether the access to the server 10 is the authorized access or the unauthorized access. Can be controlled, and the processed and non-processed states of the image can be compatible. Further, for unauthorized access, since the image is irreversibly processed, the diffusion of, for example, personal information contained in the image before the processing can be suppressed.
  • the process of detecting all the specific objects detectable from the captured image in the terminal device 30 described in the modification of the first embodiment described above is also a modification. It is possible to apply.
  • FIG. 20 is a diagram illustrating an example of a configuration of an information processing system according to the third embodiment.
  • an information processing system 1 'according to the third embodiment includes a server 10 and a server 11.
  • the server 10 provides the SNS (service #A) described in the first embodiment or the second embodiment.
  • service #A the SNS described in the first embodiment
  • the server 11 provides the service #B.
  • the service #B is used by performing an authentication process, and may be an SNS or another service.
  • the service #B is an SNS different from the service #A.
  • the service #A and the service #B cooperate.
  • a user who has logged in to the server 11 and has become able to use the service #B is provided by the server 10 without an explicit log-in process to the server 10.
  • Service #A can be used.
  • the user 31 accesses the server 10 from the terminal device 30 and logs in to the service #A, and registers an image captured by the terminal device 30 in the service #A.
  • the terminal device 30 registers the captured image in the storage 1003 of the server 10 by, for example, the processing of steps S300 to S312 in FIG.
  • the server 10 performs a mask process on the captured image for the specific object area included in the captured image, stores the masked image in the storage 1003, and registers the captured image in the service #A.
  • the terminal device 40 has an SNS application (B) for using the service #B.
  • the functional configuration of the terminal device 40 is equivalent to the configuration described with reference to FIG. 8, and the function of the SNS application (B) is also equivalent to the function of the application unit 302 in FIG.
  • the user 42 activates the SNS application (B) in the terminal device 40, transmits account information of the service #B to the server 11, and requests authentication.
  • the terminal device 40 logs in to the service #B.
  • the function of the service #B can be used from the terminal device 40.
  • the service #B cooperates with the service #A, and the terminal device 40 becomes able to use the function of the service #A by logging in to the service #B in cooperation with the services. And In this case, the terminal device 40 can acquire the captured image stored in the storage 1003 and registered in the service #A via the service #B.
  • the terminal device 40 When the server 10 receives the acquisition request for the captured image registered in the service #A via the service #B (server 11), the terminal device 40 performs the authentication processing in step S320 and step S321 in FIG. 17, for example. Then, it is considered that the acquisition request for the captured image has been transmitted. Therefore, the server 10 releases the mask applied to the specific object area of the captured image according to the process of step S322 in FIG. 17, and transmits the unmasked captured image to the terminal device via the service #B (server 11). Send to 40. This allows the terminal device 40 to browse the captured image so that the specific object can be identified.
  • a captured image registered in the service #A is acquired from the terminal device 41 without logging in to either the service #A or the service #B.
  • the server 10 does not release the mask applied to the captured image for a request from an unauthorized access source. Therefore, the terminal device 41 acquires the captured image with the mask applied, and cannot identify the specific object in the captured image viewed on the terminal device 41. Therefore, even if the captured image leaks from the terminal device 41 to, for example, the Internet, it is possible to prevent the personal information included in the specific object from being diffused.
  • the present disclosure is applicable to a case where a plurality of services cooperate.
  • An image sensor that converts received light into an image
  • An image processing unit that detects a specific object with respect to the image, An output interface for outputting the image
  • a solid-state imaging device comprising: A first communication unit that transmits an image output from the output interface;
  • a terminal device comprising: A second communication unit;
  • a processor An information processing device comprising: Has, The processor comprises: The image transmitted from the terminal device is received by the second communication unit, When the image received by the second communication unit is an image in which the specific object is detected by the image processing unit, an information processing system that performs a mask process for masking the specific object.
  • the processor comprises: The image in which the specific object is masked is stored in a storage unit, Upon receiving an access request for the image stored in the storage unit, determine whether the source of the access request is permitted to access the image, The information processing system according to (1), wherein when it is determined that access to the image is permitted, the mask is released. (3) The processor comprises: The information processing system according to (1) or (2), wherein the specific object is reversibly masked by the mask processing. (4) The processor comprises: The information processing system according to any one of (1) to (3), wherein the specific object is masked by encrypting a predetermined area including the specific object in the image in which the specific object is detected. .
  • the processor comprises: Storing the received image in a storage unit, Upon receiving an access request for the image stored in the storage unit, determine whether the source of the access request is permitted to access the image, The information processing system according to (1), wherein when it is determined that access to the image is not permitted, mask processing for masking the specific object of the image is performed.
  • the processor comprises: The information processing system according to (5), wherein the specific object is irreversibly masked by the mask processing.
  • the image processing unit When the specific object is detected from the image output from the image sensor, adding detection information indicating that the specific object has been detected to the image,
  • the first communication unit includes: Transmitting the image to which the detection information is added,
  • the processor comprises: The information according to any one of (1) to (6), wherein the specific object included in the image is masked when the detection information is added to the image received by the second communication unit. Processing system.
  • the processor comprises: When the detection information is added to the image received by the second communication unit, position information indicating a position of the specific object in the image is obtained, and the specific object is identified based on the position information.
  • the information processing system according to (7), wherein masking is performed.
  • the image processing unit Detecting the specific object from the image output from the image sensor, to obtain position information indicating the position of the detected specific object on the image
  • the first communication unit includes: To the image output from the output interface, adding the position information as the detection information and transmitting,
  • the processor comprises: The information processing system according to (7), wherein the specific object included in the image is masked based on the position information added to the image communicated by the second communication unit.
  • the information processing device The information processing system according to any one of (1) to (9), including a plurality of information processing devices operating in cooperation.
  • the image processing unit Detecting the specific object from the image output from the image sensor, to obtain position information indicating the position of the detected specific object on the image, The communication unit, The terminal device according to (12), wherein the position information is added to the image output from the output interface as the detection information and transmitted.
  • a processor A communication unit that performs detection of a specific object with respect to an image in which light received by the image sensor is converted, and performs communication with a terminal device that transmits the image. With The processor comprises: The image transmitted from the terminal device is received by the communication unit, When the image received by the communication unit is an image in which the specific object is detected by the terminal device, an information processing apparatus that performs a mask process for masking the specific object.
  • the processor comprises: The specific object stores the masked in a storage unit, Upon receiving an access request for the image stored in the storage unit, determine whether the source of the access request is permitted to access the image, The information processing apparatus according to (14), wherein when it is determined that access to the image is permitted, the mask is released.
  • the processor comprises: The information processing apparatus according to (14) or (15), wherein the specific object is reversibly masked by the mask processing.
  • the processor comprises: The information processing apparatus according to any one of (14) to (16), wherein the specific object is masked by encrypting a predetermined area including the specific object in the image in which the specific object is detected. .
  • the processor comprises: Storing the received image in a storage unit, Upon receiving an access request for the image stored in the storage unit, determine whether the source of the access request is permitted to access the image, The information processing apparatus according to (14), wherein when it is determined that access to the image is not permitted, the specific object of the image is masked. (19)
  • the processor comprises: The information processing apparatus according to (18), wherein the specific object is irreversibly masked by the mask processing. (20)
  • the processor comprises: When detection information indicating that the specific object is detected is added to the image received by the communication unit, the specific object included in the image is masked (14) to (19). ).
  • the processor comprises: When the detection information is added to the image received by the communication unit, obtains position information indicating the position of the specific object in the image, and masks the specific object based on the position information.
  • the information processing device (20).
  • the processor comprises: Masking the specific object included in the image based on position information indicating the position of the specific object on the image, which is added as the detection information to the image communicated by the communication unit; The information processing device according to (1).

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioethics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)

Abstract

端末装置(30)は、受光した光を画像に変換するイメージセンサ(3100)と、画像に対して特定のオブジェクトの検出を行う画像処理部(3104)と、画像を出力する出力インタフェース(3103)と、を含む固体撮像素子(3003)と、出力インタフェースから出力される画像を送信する第1の通信部(303)と、を備える。情報処理装置(10)は、第2の通信部(100)と、プロセッサ(1000)と、を備え、プロセッサは、端末装置から送信された画像を第2の通信部により受信し、第2の通信部により受信された画像が画像処理部により特定のオブジェクトが検出された画像である場合に、特定のオブジェクトをマスクするマスク処理を行う。

Description

情報処理システム、情報処理方法、端末装置および情報処理装置
 本開示は、情報処理システム、情報処理方法、端末装置および情報処理装置に関する。
 インターネットの発達に伴い、SNS(Social Networking Service)などの、アカウント登録を行い特定のアプリケーションソフトを利用するユーザに限定して利用可能としたサービスが普及している。また、このようなサービスに対して、ユーザ自らが撮像した撮像画像を公開する機会も増加している。一般的には、SNSなどのサービスでは、アクセスがサービス内で閉じているため、当該サービス内で公開された撮像画像が顔などの個人情報を含んでいる場合であっても、大きな問題への発展を防ぐことが可能である。
 一方、SNSに公開された撮像画像がSNSの外部に持ち出された場合に、当該撮像画像がインターネット上に流出してしまうおそれがある。一旦インターネット上に流出してしまった情報を回収することは、極めて困難であるため、撮像画像の公開を行う者、あるいは、SNS側において、予めプライバシー保護に対する何らかの対策を講じておくことが必要となってくる。このような対策の一例として、撮像画像から顔が検出された場合に、検出された顔の領域に対して当該顔の識別を困難とするためのマスク処理など何らかの加工を施して、プライバシーの保護を図る技術が知られている(例えば特許文献1)。公開される撮像画像に対してこのような加工を施すことで、当該撮像画像がSNS外に持ち出された場合であっても、プライバシー保護が可能である。
特開2009-194687号公報
 しかしながら、従来の撮像画像に対するプライバシー保護対策では、撮像画像に対して直接的に加工を施すため、例えSNS内であっても、未加工であるオリジナルの撮像画像を閲覧することができない状態となっていた。
 本開示は、加工前の元画像の閲覧と、加工後の画像の閲覧とを両立可能な情報処理システム、情報処理方法、端末装置および情報処理装置を提供することを目的とする。
 上記目的を達成するために、本開示の情報処理システムは、受光した光を画像に変換するイメージセンサと、画像に対して特定のオブジェクトの検出を行う画像処理部と、画像を出力する出力インタフェースと、を含む固体撮像素子と、出力インタフェースから出力される画像を送信する第1の通信部と、を備える端末装置と、第2の通信部と、プロセッサと、を備える情報処理装置と、を有し、プロセッサは、端末装置から送信された画像を第2の通信部により受信し、第2の通信部により受信された画像が画像処理部により特定のオブジェクトが検出された画像である場合に、特定のオブジェクトをマスクするマスク処理を行う。
各実施形態に適用可能な情報処理システムの一例の構成を概略的に示す図である。 第1の実施形態に係る情報処理システムによる処理の流れを概略的に示す図である。 第1の実施形態に適用可能なサーバのハードウェア構成の例を示すブロック図である。 第1の実施形態に適用可能な端末装置のハードウェア構成の例を示すブロック図である。 第1の実施形態に適用可能な撮像部のハードウェア構成の例を示すブロック図である。 第1の実施形態に係る撮像部を2層構造の積層型CISにより形成した例を示す図である。 第1の実施形態に係る撮像部を3層構造の積層型CISにより形成した例を示す図である。 第1の実施形態に係る端末装置の機能を説明するための一例の機能ブロック図である。 第1の実施形態に係るサーバの機能を説明するための一例の機能ブロック図である。 第1の実施形態に係る端末装置による、撮像画像のアップロード処理を示す一例のフローチャートである。 第1の実施形態に適用可能な、撮像画像から特定のオブジェクトが検出された様子を模式的に示す図である。 第1の実施形態に適用可能な、撮像画像から特定のオブジェクトが検出された様子を模式的に示す図である。 第1の実施形態に係るサーバにおける処理を示す一例のフローチャートである。 第1の実施形態に係る、撮像画像に含まれる各矩形領域にマスク処理を施した例を示す図である。 第1の実施形態に係る、撮像画像に含まれる各矩形領域にマスク処理を施した例を示す図である。 第1の実施形態に適用可能な、JPEG方式で圧縮符号化された画像内の矩形領域に対して暗号化を施す方法の例について概略的に説明するための図である。 第1の実施形態に係る情報処理システムの全体の動作を示す一例のシーケンスチャートである。 第2の実施形態に係るサーバにおける処理を示す一例のフローチャートである。 第2の実施形態に係る情報処理システムの全体の動作を示す一例のシーケンスチャートである。 、第3の実施形態に係る情報処理システムの構成の例を示す図である。
 以下、本開示の実施形態について、図面に基づいて詳細に説明する。なお、以下の実施形態において、同一の部位には同一の符号を付することにより、重複する説明を省略する。
[各実施形態に適用可能なシステムの概要]
 図1は、各実施形態に適用可能な情報処理システムの一例の構成を概略的に示す図である。図1において、情報処理システム1は、ハードウェア構成としては、例えばインターネットであるネットワーク2により接続されるサーバ10と端末装置30とを含む。
 サーバ10は、例えばクラウドネットワーク3上の複数の情報処理装置およびストレージ装置により分散的に構成される。これに限らず、サーバ10は、例えばストレージ装置を含む1の情報処理装置により構成してもよい。端末装置30は、例えばスマートフォンやタブレット型コンピュータといったモバイル端末であり、撮像機能を含む。ユーザ31は、端末装置30の撮像機能を用いて撮像した撮像画像を、ネットワーク2上に送信することができる。
 情報処理システム1は、さらに、ネットワーク2に接続可能な端末装置40および41を含んでいてもよい。この例では、端末装置40がモバイル端末、端末装置41がデスクトップ型のパーソナルコンピュータ(PC)として示されている。
 情報処理システム1において、サーバ10は、アカウント登録を行った者に対して閉じたサービス、例えばSNS(Social Networking Service)を提供する。端末装置30、40および41は、特定のアプリケーションソフトウェアを搭載し、このアプリケーションソフトウェアを用いてサーバ10に対してアカウント登録を行うことで、当該サービスを利用可能となる。当該アプリケーションソフトウェアは、各端末装置30、40および41に搭載されて利用される。
 これに限らず、当該アプリケーションソフトウェアは、サーバ10上において稼働されるものでもよい。この場合、各端末装置30、40および41に搭載されるブラウザアプリケーションからサーバ10にアクセスすることで、当該サービスの利用が可能となる。以下では、端末装置30および40に当該アプリケーションソフトウェアが搭載されているものとして説明を行う。また、以下では、サーバ10により提供されるサービスがSNSであるものとし、当該サービスを利用するためのアプリケーションソフトウェアを、SNSアプリと呼ぶ。
 端末装置30のユーザ31は、端末装置30に搭載されるSNSアプリを用いてユーザ31を識別するための識別情報(例えばユーザ名およびパスワード)を含むアカウント情報を設定し、設定したアカウント情報をサーバ10に送信してアカウント登録を行う。サーバ10は、端末装置30から送信されたアカウント情報に基づきユーザ31の認証を行い、認証が成功した場合に、当該ユーザ31によるSNSへのログインを許可する。
 ユーザ31は、端末装置30においてSNSアプリを用いて当該SNSにログインすることで、例えば端末装置30が有する撮像機能を用いて撮像した撮像画像を、ネットワーク2を介してサーバ10に送信することができる。サーバ10は、端末装置30から送信された撮像画像を保存するとともに、当該撮像画像をSNSを通じて公開することができる。
 端末装置40においても同様に、端末装置40のユーザ(図示しない)により、当該SNSアプリを用いてサーバ10に対してアカウント情報を登録しているものとする。
[第1の実施形態]
(第1の実施形態に係る処理の概要)
 次に、第1の実施形態に係る情報処理システムについて説明する。図2は、第1の実施形態に係る情報処理システム1による処理の流れを概略的に示す図である。ユーザ31は、端末装置30においてSNSアプリによりサーバ10にアクセスし、SNSにログインする。SNSにログイン後、ユーザ31は、端末装置30の撮像機能を用いて被写体の撮像を行う(ステップS1)。端末装置30において、SNSアプリは、撮像された撮像画像を解析し、撮像画像に含まれる特定のオブジェクトの検出を行う(ステップS2)。
 ここで、端末装置30が検出する対象となる特定のオブジェクトは、撮像画像に含まれる画像のうち、個人情報そのものを示す画像や、個人情報を含む可能性のある画像を指す。より具体的には、顔の画像は、個人情報そのものを示す画像である。また、車両のナンバープレートの画像も、個人情報そのものを示す画像であると考えられる。また、建物の開いた窓の画像は、個人情報を含む可能性がある。端末装置30において、SNSアプリは、撮像画像から特定のオブジェクトが検出された場合に、その旨を示す識別情報(検出フラグと呼ぶ)を当該撮像画像に付加する。
 端末装置30は、撮像画像を、SNSアプリによりネットワーク2を介してサーバ10に送信する(ステップS3)。サーバ10は、端末装置30から受信した撮像画像に特定のオブジェクトが検出されたことを示す検出フラグが付加されている場合、当該撮像画像を解析して、当該撮像画像に含まれる特定のオブジェクトを検出する。そして、サーバ10は、検出された特定のオブジェクトに対して可逆のマスク処理を施す(ステップS4)。マスク処理により、当該撮像画像は、特定のオブジェクトの部分の元画像が判別不能の状態となる。サーバ10は、マスク処理を施した撮像画像(マスク処理画像と呼ぶ)を、ハードディスクドライブといったストレージ装置に格納し、SNSに登録する。
 この、サーバ10においてSNSに登録されたマスク処理画像を取得する際の処理について説明する。先ず、SNSにアカウント登録されたユーザがSNSアプリが搭載された端末装置40により、SNSに登録されたマスク処理画像を取得する例について説明する。ユーザは、端末装置40においてSNSアプリによりサーバ10にアクセスしてSNSにログインし、サーバ10に対して当該マスク処理画像を要求する(ステップS10)。この端末装置40によるマスク処理画像の要求は、SNSにログインすることで行われる正規のアクセスによるものである。
 なお、マスク処理画像の要求とは、ユーザが端末装置30からSNSにログインすることを以て当該マスク処理画像の要求と見做してもよいし、SNSアプリを操作中に、当該SNSアプリによる表示画面のページの切り替えを以て当該マスク処理画像の要求と見做してもよい。また、SNSアプリを操作中に、当該SNSアプリによる表示画面のページをスクロールすることや、当該表示画面における表示の拡大あるいは縮小を行うことを以て当該マスク処理画像の要求と見做してもよい。
 なお、ユーザは、SNSアプリの表示画面に表示される画像がマスク処理を施されているか否かを認識している必要はなく、ここでいうマスク処理画像の要求とは、ユーザが画像情報の存在を意識せずにSNSアプリを操作する処理を含む。
 サーバ10は、この正規のアクセスによるマスク処理画像の要求に応じて、マスク処理画像に施されたマスクを解除する解除処理を行う(ステップS11)。これにより、端末装置40は、SNSアプリにより、マスク処理画像のマスクが解除された画像(マスク無し画像と呼ぶ)を取得することができる(ステップS12)。
 次に、例えば端末装置41から、SNSへのアクセスを行わずに、SNSに登録されたマスク処理画像を取得する例について説明する。端末装置41は、何らかの方法により取得したマスク処理画像のアドレスに基づきサーバ10にアクセスし、SNSにログインすることなく、当該マスク処理画像を要求する(ステップS20)。この端末装置41によるマスク処理画像の要求は、SNSへのログインを経ずに行われる不正のアクセスによるものである。
 サーバ10は、この不正のアクセスによるマスク処理画像の要求に対して、マスクに関する処理を何も行わない。したがって、端末装置41は、マスク処理されたままのマスク処理画像を取得することになり、マスク処理された位置の元の画像を認識できない。
 このように、第1の実施形態では、サーバ10は、SNSに登録されるマスク処理画像に対する、SNSにログインしてなされる正規アクセスによる要求については、当該マスク処理画像のマスク処理を解除してマスク無し画像とする。一方、サーバ10は、当該マスク処理画像に対する、SNSにログインせずになされる不正アクセスによる要求については、当該マスク処理画像のマスク処理を解除しない。
 したがって、第1の実施形態に係る情報処理システム1では、SNSに登録される、特定のオブジェクトを含む画像の、マスク処理が解除された画像の閲覧と、マスク処理された画像の閲覧とが両立可能である。このとき、情報処理システム1は、SNSの管理下においてユーザに要求された画像については、加工すなわちマスク処理を解除し、SNSの管理外においてユーザに要求された画像については、マスク処理を施したままとする。そのため、SNSに登録されたマスク処理画像からマスク処理を解除したマスク無し画像の例えばインターネット上への拡散を抑制することが可能である。
(第1の実施形態に係る情報処理システムのより詳細な構成)
 次に、第1の実施形態に係る情報処理システム1のより詳細な構成について説明する。
 図3は、第1の実施形態に適用可能なサーバ10のハードウェア構成の例を示すブロック図である。なお、ここでは、サーバ10が1の情報処理装置により構成されるものとして説明を行う。図3において、サーバ10は、それぞれバス1010に接続される、CPU(Central Processing Unit)1000と、ROM(Read Only Memory)1001と、RAM(Random Access Memory)1002と、ストレージ1003と、通信I/F1004と、を含む。
 ストレージ1003は、ハードディスクドライブやフラッシュメモリといった不揮発性の大容量記憶媒体である。ストレージ1003は、サーバ10のハードウェアに内蔵されていてもよいし、サーバ10に対する外部記憶装置であってもよい。
 CPU1000は、ROM1001およびストレージ1003に記憶されるプログラムに従い、RAM1002をワークメモリとして用いて、サーバ10の全体の動作を制御する。当該プログラムには、上述したSNSを提供するためのプログラムが含まれる。通信I/F1004は、CPU1000の指示に従い、ネットワーク2に対する通信を制御する。
 図4は、第1の実施形態に適用可能な端末装置30のハードウェア構成の例を示すブロック図である。図4において、端末装置30は、それぞれバス3010に接続されるCPU3000と、ROM3001と、RAM3002と、撮像部3003と、表示制御部3004と、ストレージ3005と、入力デバイス3006と、データI/F3007と、通信I/F3008と、を含む。
 ストレージ3005は、ハードディスクドライブやフラッシュメモリといった不揮発性の大容量記憶媒体である。CPU3000は、ROM3001およびストレージ3005に記憶されるプログラムに従い、RAM3002をワークメモリとして用いて、この端末装置30の全体の動作を制御する。当該プログラムには、上述したSNSアプリが含まれる。
 撮像部3003は、撮像素子と、被写体からの光を撮像素子に照射させるための光学系(レンズなど)と、撮像素子の制御および撮像素子から出力される信号の処理を行う構成と、を含む。撮像部3003は、CPU3000の制御に従い静止画像または動画像の撮像を行う。撮像部3003により撮像された撮像画像は、RAM3002に記憶される。なお、以下では、特に記載の無い限り、撮像部3003により撮像された撮像画像は、静止画像であるものとする。
 表示制御部3004は、CPU3000により生成された表示制御信号に基づき表示デバイス3020が表示可能な表示信号を生成する。表示デバイス3020は、例えばLCD(Liquid Crystal Display)と、LCDを駆動する駆動回路とを含む。入力デバイス3006は、例えば手指などにより接触された位置に応じた座標情報を出力するポインティングデバイスを適用することができる。入力デバイス3006と、表示デバイス3020とを一体的に形成した、所謂タッチパネルとして構成すると、好ましい。
 データI/F3007は、外部の装置との間でデータの受け渡しを行うためのインタフェースであって、例えばUSB(Universal Serial Bus)やBluetooth(登録商標)を適用することができる。通信I/F3008は、CPU3000の指示に従い、ネットワーク20に対する通信を制御する。
 図5は、第1の実施形態に適用可能な撮像部3003のハードウェア構成の例を示すブロック図である。なお、図5において、光学系は省略されている。撮像部3003は、画素部3100と、信号処理部3101と、メモリ部3102と、I/F部3103と、画像処理部3104と、素子制御部3105と、を含み、これら各部がCMOS(Complementary Metal Oxide Semiconductor)を用いて一体的に形成されたCMOSイメージセンサ(CIS)である。
 画素部3100は、複数の走査線と、複数の信号線とが設けられており、各走査線と各信号線の交差部には、それぞれ画素回路が配置されて、2次元格子状に複数の画素回路が設けられる。画素回路は、例えばフォトダイオードを光電変換素子として用い、フォトダイオード上にマイクロレンズおよびカラーフィルタが形成される。また、画素部3100は、行走査回路と、行毎のAD(Analog to Digital)変換器と、列走査回路とを含む。画素部3100は、行走査回路により各画素回路が行毎に走査され、行毎に出力されたアナログ方式による画素信号をAD変換器によりディジタル方式による画素データに変換する。行毎にAD変換された画素データは、列走査回路により順次、信号処理部3101に転送される。
 信号処理部3101は、画素部3100から転送された画素データに対してCDS(Correlated Double Sampling)処理、AGC(Auto Gain Control)処理、WB(White Balance)処理などの信号処理を施す。信号処理部3101で信号処理された画像データは、メモリ部3102およびI/F部3103に転送される。メモリ部3102は、信号処理部3101により信号処理された画像データを記憶する。メモリ部3102は、例えば1フレーム分(画素部3100の全画素回路分)の画像データを記憶可能な容量を有する。
 画像処理部3104は、例えばDSP(Digital Signal Processor)であって、メモリ部3102に記憶された画像データに対して所定の画像処理を施す。第1の実施形態においては、画像処理部3104は、メモリ部3102に記憶された画像データによる画像(撮像画像)に含まれる、予め定められた特定のオブジェクトを検出する検出処理を行う。画像処理部3104は、例えば、既知の技術による、パターン認識に基づく検出処理を用いて、特定のオブジェクトの検出を行う。これに限らず、画像処理部3104は、ディープラーニングなどの手法を用いて特定のオブジェクトの検出を行うようにしてもよい。画像処理部3104は、メモリ部3102に記憶された撮像画像から特定のオブジェクトが検出された場合、その旨を示す検出フラグをメモリ部3102に書き込む。
 I/F部3103は、撮像部3003と外部との通信を制御するインタフェースである。I/F部3103は、例えばMIPI(Mobile Industry Processor Interface)に対応したインタフェースを適用することができる。これに限らず、I/F部3103は、当該撮像部3003に独自の方式のインタフェースを適用してもよい。
 例えば、I/F部3103は、信号処理部3101から転送された画像データまたはメモリ部3102に記憶される画像データ(撮像画像)を、撮像部3003の外部に出力する。I/F部3103は、例えば、外部からの指示に従い、信号処理部3101から転送された画像データと、メモリ部3102に記憶された画像データとのうち、指定された画像データを外部に出力する。
 素子制御部3105は、この撮像部3003の全体の動作を制御する。例えば、素子制御部3105は、画素部3100における行走査回路、AD変換器および列走査回路の動作を同期制御するためのタイミング信号を生成する。また、素子制御部3105は、画像処理部3104が画像処理を開始するためのタイミングを制御する。
 上述では、撮像部3003が含む、画素部3100、信号処理部3101、メモリ部3102、I/F部3103、画像処理部3104および素子制御部3105が1の基板上に形成されるように説明したが、これはこの例に限定されない。例えば、撮像部3003を、複数の半導体チップが積層されて形成された積層型CISとしてもよい。
 一例として、撮像部3003を半導体チップを2層に積層した2層構造により形成することができる。図6は、第1の実施形態に係る撮像部3003を2層構造の積層型CISにより形成した例を示す図である。図6の構造では、第1層の半導体チップに画素部3100を形成し、第2層の半導体チップにメモリ+ロジック部3200を形成している。メモリ+ロジック部3200は、例えば、信号処理部3101、メモリ部3102、I/F部3103、画像処理部3104および素子制御部3105を含む。なお、第1層の半導体チップが画素部3100と信号処理部3101とを含む構成でもよい。図6の右側に示されるように、第1層の半導体チップと、第2層の半導体チップとを電気的に接触させつつ貼り合わせることで、撮像部3003を1の固体撮像素子として構成する。
 別の例として、撮像部3003を半導体チップを3層に積層した3層構造により形成することができる。図7は、第1の実施形態に係る撮像部3003を3層構造の積層型CISにより形成した例を示す図である。図7の構造では、第1層の半導体チップに画素部3100を形成し、第2層の半導体チップにメモリ部3102を形成し、第3層の半導体チップにロジック部3201を形成している。この場合、ロジック部3201は、例えば、信号処理部3101、I/F部3103、画像処理部3104および素子制御部3105を含む。なお、第1層の半導体チップが画素部3100と信号処理部3101とを含む構成でもよい。図7の右側に示されるように、第1層の半導体チップと、第2層の半導体チップと、第3層の半導体チップとを電気的に接触させつつ貼り合わせることで、撮像部3003を1の固体撮像素子として構成する。
 図8は、第1の実施形態に係る端末装置30の機能を説明するための一例の機能ブロック図である。図8において、端末装置30は、撮像処理部300と、オブジェクト検出部301と、アプリケーション部302と、通信部303と、を含む。また、アプリケーション部302は、エンコード部320と、UI部321と、認証要求部322と、を含む。
 これら各部のうち、撮像処理部300およびオブジェクト検出部301は、図5を用いて説明した撮像部3003において実現される機能である。例えば、撮像処理部300は、図5における画素部3100、信号処理部3101および素子制御部3105の機能に対応する。また、オブジェクト検出部301は、図5におけるメモリ部3102および画像処理部3104の機能に対応する。
 図8において、アプリケーション部302の機能は、例えば上述したSNSアプリにより実現される機能である。
 端末装置30におけるアプリケーション部302(エンコード部320、UI部321および認証要求部322)における各機能を実現するためのプログラム(SNSアプリ)は、インターネットなどのネットワークに接続されたコンピュータ上に格納し、当該ネットワークを介してダウンロードさせることにより提供される。また、当該プログラムをインターネットなどのネットワークを経由して提供または配布するように構成してもよい。さらに、当該プログラムを、インストール可能な形式または実行可能な形式のファイルでCD(Compact Disk)、フレキシブルディスク(FD)、DVD(Digital Versatile Disk)などのコンピュータで読み取り可能な記録媒体に記録して提供してもよい。
 当該プログラムは、エンコード部320、UI部321および認証要求部322を含むモジュール構成となっている。実際のハードウェアとしては、CPU3000がROM3001やストレージ3005などの記憶媒体から当該プログラムを読み出して実行することにより、上述した各部がRAM3002などの主記憶装置上にロードされ、エンコード部320、UI部321および認証要求部322が主記憶装置上に生成されるようになっている。
 アプリケーション部302において、エンコード部320は、撮像部3003から出力された撮像画像に対して圧縮符号化などの符号化処理を施す。ここでは、撮像画像に施す圧縮符号化方式として、JPEG(Joint Photographic Experts Group)方式を適用するものとする。JPEG方式においては、画像を固定サイズ(例えば8画素×8画素)のブロックに分割し、このブロック単位で離散コサイン変換を行って画像情報を空間領域から周波数領域の情報に変換する。以下、このブロックをDCT(Discrete Cosine Transform)ブロックと呼ぶ。エンコード部320は、周波数領域の情報に変換された画像に対して量子化処理およびハフマン圧縮処理を施して情報量を削減して、元の画像を圧縮符号化する。
 エンコード部320は、圧縮符号化した画像を所定の形式でファイルに格納する。このとき、エンコード部320は、当該画像に関するメタデータを、当該ファイルにさらに格納することができる。画像をJPEG方式で圧縮符号化する場合、エンコード部320は、圧縮符号化した画像をExif(Exchangeable image file format)形式のファイルに格納することができる。メタデータは、Exif形式に規定されるアプリケーションマーカセグメント領域に格納される。
 UI(User Interface)部321は、ユーザ操作のためのユーザインタフェースを提供する。UI部321は、表示デバイス3020に対して操作画面を表示させるための表示制御信号を生成する。また、UI部321は、入力デバイス3006に対するユーザ操作を受け付け、ユーザ操作に応じて端末装置30の各部(例えば撮像部3003および認証要求部322)の動作を制御する。
 認証要求部322は、サーバ10に対して、SNSにログインするための認証情報(アカウント情報)と、当該認証情報に対する認証要求とを送信し、端末装置30の認証を要求する。認証要求部322は、例えば、ユーザ31により入力されたアカウント情報を、ストレージ3005の所定領域に不揮発に記憶することができる。認証要求部322は、当該SNSアプリの起動時に、記憶されたアカウント情報を自動的にサーバ10に送信することができる。
 通信部303は、UI部321の制御に従い、ネットワーク2に対する通信を行う。エンコード部320によりエンコードされファイルに格納された撮像画像や、認証要求部322によるアカウント情報の送信は、この通信部303により行われる。
 図9は、第1の実施形態に係るサーバ10の機能を説明するための一例の機能ブロック図である。図9において、サーバ10は、通信部100と、認証部101と、デコード部102と、解析部103と、マスク処理部104と、記憶部105と、を含む。これら通信部100、認証部101、デコード部102、解析部103、マスク処理部104および記憶部105は、CPU1000上で動作するプログラムにより実現される。これに限らず、通信部100、認証部101、デコード部102、解析部103、マスク処理部104および記憶部105の一部または全部を、互いに協働して動作するハードウェア回路により構成してもよい。
 通信部100は、ネットワーク2に対する通信を行う。認証部101は、通信部100により受信された、アカウント情報を含む認証要求に応じて認証処理を行う。デコード部102は、通信部100により受信された画像をデコードして圧縮符号を復号すると共に、画像に付加されるメタデータを取得する。解析部103は、デコード部102によりデコードされた復号画像を解析し、当該復号画像に含まれる特定のオブジェクトの検出を行う。
 マスク処理部104は、解析部103の解析結果に応じて、画像に対してマスク処理を施す。このとき、マスク処理部104は、デコード部102によりデコードされる前の、圧縮符号化された画像に対してマスク処理を施すことができる。また、マスク処理部104は、画像に対して施されたマスク処理の解除も行う。マスク処理部104は、認証部101による認証結果に応じて、マスク処理やマスク解除処理を実行する。
 記憶部105は、マスク処理部104から出力された画像を、例えばストレージ1003に格納する。また、記憶部105は、ストレージ1003から画像を読み出す処理も行う。以下、特に記載の無い限り、記憶部105がストレージ1003に画像を格納する処理を、「記憶部105に画像を格納する」ように記述し、ストレージ1003から画像を読み出す処理を、「記憶部105から画像を読み出す」のように記述する。
 サーバ10における第1の実施形態に係る各機能を実現するためのプログラムは、インストール可能な形式または実行可能な形式のファイルでCD(Compact Disk)、フレキシブルディスク(FD)、DVD(Digital Versatile Disk)などのコンピュータで読み取り可能な記録媒体に記録して提供される。これに限らず、当該プログラムを、インターネットなどのネットワークに接続されたコンピュータ上に格納し、当該ネットワークを介してダウンロードさせることにより提供してもよい。また、当該プログラムをインターネットなどのネットワークを経由して提供または配布するように構成してもよい。
 当該プログラムは、通信部100、認証部101、デコード部102、解析部103、マスク処理部104および記憶部105を含むモジュール構成となっている。実際のハードウェアとしては、CPU1000がROM1001やストレージ1003などの記憶媒体から当該プログラムを読み出して実行することにより、上述した各部がRAM1002などの主記憶装置上にロードされ、通信部100、認証部101、デコード部102、解析部103、マスク処理部104および記憶部105が主記憶装置上に生成されるようになっている。
(第1の実施形態に係る処理の詳細)
 次に、第1の実施形態に係る情報処理システム1における処理について、より詳細に説明する。図10は、第1の実施形態に係る端末装置30による、撮像画像のアップロード処理を示す一例のフローチャートである。なお、図10のフローによる処理の実行に先立って、端末装置30には、第1の実施形態に係る情報処理システム1が提供するサービス(例えばSNS)に対応するアプリケーションソフトウェア(SNSアプリ)が搭載されているものとする。また、端末装置30のユーザ31は、当該SNSにログインするためのアカウント情報を、サーバ10に対して予め登録しているものとする。
 ステップS100で、端末装置30において、ユーザ操作に応じてSNSアプリが起動される。SNSアプリが起動されると、認証要求部322は、アカウント情報をサーバ10に送信し、認証を要求する。サーバ10は、認証部101により、端末装置30から送信されたアカウント情報に基づき認証を行い、認証が成功した場合に、サーバ10により提供されるSNSを端末装置30から利用可能となる。
 端末装置30は、撮像処理部300により、撮像を指示するユーザ操作に応じて撮像を行う(ステップS101)。撮像により取得された撮像画像は、オブジェクト検出部301に渡される。次のステップS102で、端末装置30は、オブジェクト検出部301により、撮像処理部300から渡された撮像画像に対して特定のオブジェクトの検出処理を実行する。特定のオブジェクトは、例えば個人情報の特定が可能な画像であって、顔や車両のナンバープレート、開いた窓などを適用することができる。オブジェクト検出部301は、既知のパターン認識に基づく検出方法を用いて、特定のオブジェクトの検出を行う。なお、特定のオブジェクトの検出処理は、オブジェクト検出部301と端末装置30のCPU3000とで、協働して実行してもよい。
 なお、ここでは、ステップS102での特定オブジェクト検出の対象として、ステップS101で撮像され取得された撮像画像を適用しているが、これはこの例に限定されない。例えば、端末装置30は、撮像部3003により撮像された後にストレージ3005などに記憶された撮像画像を対象として、ステップS102でオブジェクト検出部301により特定オブジェクト検出を行ってもよい。例えば、オブジェクト検出部301は、ユーザ操作などに応じてストレージ1003から読み出した撮像画像に対して、特定オブジェクトの検出処理を実行する。
 次のステップS103で、端末装置30は、オブジェクト検出部301により、撮像画像から特定のオブジェクトが検出されたか否かを判定する。オブジェクト検出部301は、撮像画像から少なくとも1つの特定のオブジェクトが検出されたと判定した場合(ステップS103、「Yes」)、処理をステップS104に移行させる。
 ステップS104で、端末装置30は、オブジェクト検出部301により、特定のオブジェクトが検出された旨を示す検出フラグを、当該撮像画像に付加する。検出フラグは、例えば、値が「1」で特定のオブジェクトが検出された旨を示し、値が「0」で特定のオブジェクトが検出されなかったことを示すものとする。また、検出フラグは、デフォルト値が「0」であるものとする。ステップS104では、検出フラグの値が「0」から「1」に変更される。前述のように、オブジェクトの検出処理をオブジェクト検出部301とCPU3000とで協働して実行した場合は、検出フラグをオブジェクト検出部301で付加してもよいし、CPU3000で付加してもよい。
 図11および図12は、第1の実施形態に適用可能な、撮像画像から特定のオブジェクトが検出された様子を模式的に示す図である。図11は、特定のオブジェクトが顔である場合の例を示している。図11の例では、撮像画像50aにおいて、顔を含む各矩形領域51aが特定オブジェクト領域としてそれぞれ検出されている。図12は、特定のオブジェクトが開いた窓である場合の例を示している。図12の例では、図11の例と同様に、撮像画像50bにおいて、開いた窓を含む各矩形領域51bが特定オブジェクト領域として検出されている。
 一方、ステップS103で、撮像画像から1つも特定のオブジェクトが検出されないと判定した場合(ステップS103、「No」)、オブジェクト検出部301は、ステップS104の処理をスキップして処理をステップS105に移行させる。この場合、検出フラグの値は、「0」が維持される。
 ステップS105で、端末装置30は、エンコード部320により、ステップS101において取得された撮像画像に対してエンコード処理を施す。例えば、エンコード部320は、当該撮像画像をJPEG方式により圧縮符号化し、圧縮符号化した画像をExif形式のファイルに格納する。また、エンコード部320は、検出フラグを当該撮像画像のメタデータに含めて、Exif形式に規定されるアプリケーションマーカセグメント領域に格納する。
 次のステップS106で、端末装置30は、通信部303により、ユーザ操作に応じて、ステップS105でエンコードされファイルに格納された撮像画像を、サーバ10に向けて送信する。
 なお、上述では、図10のフローチャートによる処理において、静止画像を対象として特定オブジェクト検出を行うように説明したが、これはこの例に限定されない。例えば、図10のフローチャートにより処理は、動画像を対象とした処理であってもよい。この場合、端末装置30は、ステップS102で、オブジェクト検出部301により、動画像のフレーム毎に特定オブジェクトの検出処理を実行する。端末装置30において、オブジェクト検出部301は、特定オブジェクトが検出された(ステップS103、「Yes」)フレームに対して、値「1」の検出フラグを当該フレームのメタデータとして付加する(ステップS104)。
 端末装置30は、ステップS105で、エンコード部320により、動画像をH.264(ITU-T Rec. H.264 | ISO/IEC 14496-10 Advanced Video Coding)方式など所定の方式で圧縮符号化し、圧縮符号化した動画像をステップS106でサーバ10に向けて送信する。上述では、検出フラグがメタデータとしてフレーム毎に付加されるように説明したが、これはこの例に限定されず、例えば複数フレーム分の検出フラグをフレーム番号に関連付けたデータを別途作成し、メタデータとして動画像データに付加してもよい。また、端末装置30は、動画像をファイルとしてサーバ10に向けて送信してもよいし、ストリームデータとして送信してもよい。
 図13は、第1の実施形態に係るサーバ10における処理を示す一例のフローチャートである。ステップS200で、サーバ10は、通信部100により、ネットワーク2を介したアクセスの検出を行う。次のステップS201で、サーバ10は、認証部101により、ステップS200で検出されたアクセスが、認証要求を受信済みのアクセス元からのアクセスであるか否かを判定する。
 サーバ10は、認証部101により、ステップS200で検出されたアクセスが認証要求を受信済みのアクセスではないと判定した場合(ステップS201、「No」)、この図13のフローチャートによる一連の処理を終了させる。これに限らず、認証部101は、当該アクセスに対して、アカウント情報を要求して認証処理を促してもよい。
 一方、サーバ10は、認証部101により、ステップS200で検出されたアクセスが認証要求を受信済みのアクセスであると判定した場合(ステップS201、「Yes」)、処理をステップS202に移行させる。ステップS202で、認証部101は、この受信済みの認証要求に対する認証が成功しているか否かを判定する。認証部101は、受信済みの認証要求に対する認証が成功していないと判定した場合(ステップS202、「NG」)、この図13のフローチャートによる一連の処理を終了させる。
 一方、サーバ10は、認証部101により、受信済みの認証要求に対する認証が成功していると判定した場合(ステップS202、「OK」)、処理をステップS203に移行させる。ステップS203で、サーバ10は、例えば通信部100により、ステップS200で検出されたアクセスが画像の登録および取得の何れを要求するものであるかを判定する。通信部100は、ステップS200で検出されたアクセスが画像の登録を要求するものであると判定した場合(ステップS203、「登録」)、処理をステップS204に移行させる。一方、サーバ10は、通信部100により、ステップS200で検出されたアクセスが画像の取得を要求するものであると判定した場合(ステップS203、「取得」)、処理をステップS210に移行させる。
 なお、通信部100は、ステップS203で、ステップS200で検出されたアクセスが画像の登録および取得の何れでもないと判定した場合、例えば図13のフローチャートによる一連の処理を終了させ、他の処理に移行させることができる。
 ステップS204で、サーバ10は、通信部100により、ステップS200でアクセスが検出されたアクセス元から送信された、画像が格納されたファイルを受信する。このアクセス元は、例えば端末装置30であって、通信部100は、図10のフローチャートにおけるステップS106で送信された撮像画像が格納されたファイルを受信する。
 次のステップS205で、サーバ10は、デコード部102により、ステップS204で受信したファイルから圧縮符号化された撮像画像を取り出してデコードし、撮像画像を復号する。この復号された復号撮像画像は、画素毎に輝度情報および色情報を持つビットマップデータである。なお、デコード部102は、ファイルに格納される、圧縮符号化された撮像画像も保持しておく。また、デコード部102は、当該ファイルからメタデータを取得する。
 次のステップS206で、サーバ10は、デコード部102により、ステップS205で取得したメタデータに、特定オブジェクトが検出された旨を示す検出フラグが含まれるか否かを判定する。デコード部102は、当該検出フラグが含まれないと判定した場合(ステップS206、「No」)、処理をステップS209に移行させる。一方、デコード部102は、当該検出フラグが含まれると判定した場合(ステップS206、「Yes」)、処理をステップS207に移行させる。
 ステップS207で、サーバ10は、解析部103により、ステップS205でデコードされた撮像画像を解析し、当該撮像画像から、検出可能な全ての特定のオブジェクトを検出し、検出された各特定のオブジェクトを含む矩形領域を取得する。解析部103は、取得された、全ての特定のオブジェクトを含む矩形領域(以下、特定オブジェクト領域と呼ぶ)の座標を、マスク処理部104に渡す。
 次のステップS208で、サーバ10は、マスク処理部104により、解析部103から渡された特定オブジェクト領域の座標に基づき、ステップS204においてデコード部102により保持される、圧縮符号化された撮像画像の当該特定オブジェクト領域に対応する領域に、可逆のマスク処理を施す。
 図14は、第1の実施形態に係る、上述した図11に示した撮像画像50aに含まれる各矩形領域51aにマスク処理を施した例を示す図である。図14において、撮像画像50a’は、図11の各矩形領域51aに対応する各矩形領域52aにマスクが掛けられ、各矩形領域51aに含まれる顔が判別不明となっている。同様に、図15は、第1の実施形態に係る、上述した図12に示した撮像画像50bに含まれる各矩形領域51bにマスク処理を施した例を示す図である。図15において、撮像画像50b’は、図12の各矩形領域51bに対応する各矩形領域52bにマスクが掛けられ、各矩形領域51bに含まれる開いた窓が判別不明となっている。
 このように、マスク処理により、元の撮像画像50aおよび50bに含まれる、個人情報を特定可能なオブジェクトを識別不能にできる。
 マスク処理部104による可逆のマスク処理について、より具体的な例を用いて説明する。マスク処理部104は、画像内における矩形領域内の情報を並べ替えることで、当該矩形領域内の情報を判別困難とし、当該矩形領域にマスクを掛けることができる。また、マスクを掛けた当該矩形領域内の情報を元の順序に並び替えることで、マスクを解除し当該矩形領域内の情報を元の判別容易な情報に戻すことができる。
 マスク処理部104は、例えば当該矩形領域内の情報を暗号化することで、当該矩形領域内の情報を並べ替える。マスク処理部104は、予め与えられたキーを用いて当該矩形領域内の情報を暗号化してマスクを掛け、当該キーを用いて当該矩形領域内の暗号を復号して、当該矩形領域内の情報を元の順序に並び替える。このような暗号化の例として、所定のキーに従い置換と転置を行うことで情報の並び替えを行う方式が適用できる。これに限らず、SHA-1(Secure Hash Algorithm-1)やMD5(Message Digest Algorithm 5)といったハッシュ関数を用いた暗号化を用いてもよい。
 ここで、画像がJPEG方式で圧縮符号化されている場合、このJPEG方式のデータフォーマットに対して暗号化を施す必要がある。図16を用いて、第1の実施形態に適用可能な、JPEG方式で圧縮符号化された画像内の矩形領域に対して暗号化を施す方法の例について、概略的に説明する。図16において、画像50cは、ビットマップ画像であって、特定オブジェクトとして顔501が含まれている。一般的には、JPEG方式では、上述したように、8画素×8画素の固定サイズを有するDCTブロックを単位として圧縮符号化処理がなされる。
 例えば、画像50cをDCTブロックに対応した8画素×8画素のブロック500に分割し、顔501を含む複数のブロック500による矩形領域502を抽出する。JPEG方式で圧縮符号化したデータにおいて、この矩形領域502に含まれる各ブロック500に対応する各DCTブロック単位で暗号化を施すことが考えられる。
 なお、上述では、マスク処理部104が特定オブジェクト領域毎にマスク処理を施すように説明したが、これはこの例に限定されない。例えば、マスク処理部104は、ステップS204で受信されたファイルに含まれる撮像画像の全体を暗号化してもよい。さらに、マスク処理部104は、ステップS204で受信されたファイルそのものに暗号化を施すこともできる。
 また、上述では、マスク処理部104は、圧縮符号化された撮像画像に対してマスク処理を施すように説明したが、これはこの例に限定されない。例えば、マスク処理部104は、ステップS205でデコードされビットマップ画像とされた撮像画像に対してマスク処理を施し、このマスク処理を施されたビットマップ画像による撮像画像をJPEG方式などにより再び圧縮符号化してもよい。
 図13のフローチャートの説明に戻り、サーバ10は、マスク処理部104により、ステップS208でマスク処理を施すと、処理をステップS209に移行させる。
 ステップS209で、サーバ10は、記憶部105により、ステップS208でマスク処理が施された撮像画像(画像ファイル)、または、処理がステップS206からこのステップS209に移行した場合にはステップS204で受信された撮像画像(画像ファイル)を、例えばストレージ1003に格納し、当該撮像画像をSNSに登録する。このとき、記憶部105は、ステップS207で検出された各特定オブジェクト領域の位置を示す情報を、当該撮像画像と関連付けてストレージ1003に格納する。撮像画像がSNSに登録されると、図13のフローチャートによる一連の処理が終了される。
 なお、ステップS204で受信された画像が圧縮符号化された動画像である場合、サーバ10は、デコード部102により、ステップS205で受信した動画像の圧縮符号を復号してフレーム毎のビットマップ画像を生成する(ステップS205)。サーバ10は、また、デコード部102により取得された、当該動画像にメタデータとして付加された検出フラグに基づき、それぞれビットマップ画像であるフレーム毎に特定オブジェクト領域を解析部103により検出する(ステップS206、ステップS207)。サーバ10は、マスク処理部104により、検出された特定オブジェクト領域に対してマスク処理を施す(ステップS208)。
 サーバ10は、例えば記憶部105により、ステップS208でマスク処理を施された、それぞれビットマップ画像である各フレームを含む動画像をH.264方式など所定の方式で圧縮符号化し、圧縮符号化された動画像を例えばストレージ1003に格納し、当該動画像をSNSに登録する(ステップS209)。これに限らず、サーバ10は、圧縮符号化を行わない、各フレームがビットマップ画像である動画像を、ストレージ1003に格納してもよい。記憶部105は、各フレームにおいて検出された、各特定オブジェクト領域の位置を示す情報を、各フレームに関連付けて、ストレージ1003に格納する。
 上述したステップS203において、ステップS200で検出されたアクセスが画像の取得を要求するものであると判定した場合(ステップS203、「取得」)、処理がステップS210に移行される。ステップS210で、サーバ10において記憶部105は、取得が要求された撮像画像が格納されるファイルを、例えばストレージ1003に格納されSNSに登録された登録画像から取得する。
 次のステップS211で、サーバ10は、マスク処理部104により、ステップS210で取得されたファイルに格納されるメタデータに、特定オブジェクトが検出された旨を示す検出フラグが含まれるか否かを判定する。マスク処理部104は、当該検出フラグが含まれないと判定した場合(ステップS211、「No」)、処理をステップS213に移行させる。
 一方、サーバ10は、マスク処理部104により、当該検出フラグが含まれると判定した場合(ステップS211、「Yes」)、処理をステップS212に移行させる。ステップS212で、マスク処理部104は、ステップS210で取得された撮像画像に関連付けられた特定オブジェクト領域の位置を示す情報に基づき、当該撮像画像に掛けられたマスクを解除する。マスク処理部104は、例えばマスクが当該撮像画像における特定オブジェクト領域に対する暗号化により掛けられている場合、この暗号を復号する。これにより、当該撮像画像は、マスクが掛けられていない、ステップS204で受信された状態で閲覧することが可能となる。
 次のステップS213で、サーバ10は、通信部100により、ステップS200でアクセスが検出されたアクセス元に、ステップS210で取得された撮像画像(特定オブジェクトが検出された旨を示す検出フラグが含まれない場合)、もしくは、ステップS212でマスクが解除された撮像画像(当該検出フラグが含まれる場合)を送信する。撮像画像が送信されると、この図13のフローチャートによる一連の処理が終了される。
 なお、ステップS200において検出されたアクセスが、サーバ10による認証処理で認証されていないアクセス元からのアクセス(例えば端末装置41からの不正アクセス)である場合、ステップS211の処理が実行されない。そのため、不正アクセスによりSNSに登録された撮像画像を取得した場合、取得された撮像画像はマスクが掛かったままであり、特定オブジェクト領域に含まれる画像を識別できない。したがって、特定オブジェクト領域に含まれる個人情報の拡散を抑制できる。
 なお、ステップS203で取得が要求された画像が動画像であって、当該動画像が圧縮符号化されている場合、サーバ10は、デコード部102により、ステップS210で登録画像から取得した動画像の圧縮符号を復号してフレーム毎のビットマップ画像を生成すると共に、当該動画像に付加されたメタデータとして付加された検出フラグを取得する。なお、取得が要求された画像が圧縮符号化されずにストレージ1003に格納された動画像である場合には、この圧縮符号の復号処理は、省略される。
 サーバ10は、マスク処理部104により、値「1」とされた検出フラグが付加されたフレームに対して(ステップS211)、当該フレームに関連付けられた特定オブジェクト領域の位置を示す情報に基づき当該フレームに掛けられたマスクを解除する(ステップS212)。サーバ10は、例えばマスク処理部104により、マスクを解除された各フレームをH.264方式など所定の方式で圧縮符号化して、送信する(ステップS213)。
 図17は、第1の実施形態に係る情報処理システム1の全体の動作を示す一例のシーケンスチャートである。なお、以下では、端末装置30が撮像部3003により撮像された、静止画像による撮像画像を、サーバ10に送信するものとして説明を行う。
 端末装置30において、搭載されるSNSアプリが起動されると(ステップS300)、アプリケーション部302は、認証要求部322によりサーバ10にアカウント情報が送信され、サーバ10に対して認証が要求される(ステップS301)。サーバ10は、端末装置30から送信されたアカウント情報が適正なものである場合、認証した旨を端末装置30に通知する(ステップS302)。これにより、端末装置30から、サーバ10により提供されるSNSの機能を利用可能となる。
 端末装置30に対する認証後、端末装置30において、ユーザ操作に応じて、撮像部3003の撮像処理部309により撮像が行われ、撮像画像が取得される(ステップS303)。端末装置30は、撮像部3003により、オブジェクト検出部301により、撮像により取得された撮像画像に対して特定オブジェクトの検出を行う(ステップS304)。当該撮像画像から特定オブジェクトが検出されると、オブジェクト検出部301は、特定オブジェクトが検出された旨を示す検出フラグを当該撮像画像に付加し(ステップS305)、検出フラグが付加された撮像画像をアプリケーション部302に渡す。当該撮像画像は、アプリケーション部302においてエンコード部320に渡される。
 端末装置30は、エンコード部320により、オブジェクト検出部301から渡された撮像画像に対してエンコード処理を行う(ステップS306)。このエンコード処理により、当該撮像画像に対して、例えばJPEG方式により圧縮符号化と、検出フラグを含むメタデータの付加とが行われる。エンコード部320は、エンコードした各データを、所定の形式(例えばExif形式)のファイルに格納して、通信部303に渡す。通信部303は、例えばユーザ操作に応じて、エンコード部320から渡された各データが格納されたファイルを、サーバ10に送信し、サーバ10に対して撮像画像のアップロードを行う(ステップS307)。
 サーバ10は、端末装置30からアップロードされた、撮像画像が格納されたファイルを受信すると、デコード部102により、受信したファイルに対するデコード処理を行う(ステップS310)。すなわち、デコード部102は、受信したファイルからメタデータを取得する。それと共に、デコード部102は、当該ファイルに格納される、圧縮符号化された撮像画像を復号する。デコード部102は、復号した復号撮像画像を解析部103に渡すと共に、復号前の撮像画像を保持する。
 ファイルから取得したメタデータに、当該ファイルに格納される撮像画像から特定オブジェクトが検出された旨を示す検出フラフが含まれる場合、サーバ10は、解析部103により、デコード部102から渡された復号撮像画像を解析して、当該復号撮像画像に含まれる、検出可能な全ての特定オブジェクトの検出を行う(ステップS311)。解析部103は、復号撮像画像から検出された特定オブジェクトの位置を示す位置情報をマスク処理部104に渡す。マスク処理部104は、解析部103から渡された位置情報に基づき、デコード部102に保持される、復号前の撮像画像(圧縮符号化された撮像画像)に対してマスク処理を行う(ステップS312)。サーバ10は、マスク処理された撮像画像を、SNSに登録する。
 図17において、ステップS320~ステップS324は、サーバ10に対して正規アクセスによりアクセスしてSNSにログインし、SNSに登録される撮像画像を取得する場合の処理の例を示している。SNSアプリが搭載される例えば端末装置40からサーバ10に対して、当該SNSアプリからアカウント情報が送信され、認証が要求される(ステップS320)。サーバ10は、端末装置40から送信されたアカウント情報が適正なものである場合、認証した旨を端末装置40に通知する(ステップS321)。これにより、端末装置40から、サーバ10により提供されるSNSの機能を利用可能となる。
 端末装置40は、例えばユーザ操作に応じて、SNSアプリによりサーバ10に対してSNSに登録される撮像画像の閲覧を要求する(ステップS322)。サーバ10は、この要求に応じて、SNSに登録される撮像画像に施されるマスクを解除する(ステップS323)。サーバ10は、マスクを解除した撮像画像を、端末装置40に送信する(ステップS324)。端末装置40は、当該撮像画像をデコードし圧縮符号を復号してディスプレイに表示される。当該撮像画像は、特定オブジェクトに掛けられたマスクが解除されているため、端末装置40上で、特定オブジェクトを識別可能に当該撮像画像を閲覧できる。
 図17において、ステップS330~ステップS332は、サーバ10に対して不正アクセスによりアクセスして、SNSにログインせずにSNSに登録される撮像画像を取得する場合の処理の例を示している。例えば端末装置41からサーバ10に対して、アカウント情報の送信および認証要求を行わずに、サーバ10による認証無しでアクセスしてSNSに登録される撮像画像が要求されたものとする(ステップS330)。
 サーバ10は、認証されていないアクセス元からの要求については、撮像画像に掛けられたマスクの解除を行わない(ステップS331)。したがって、端末装置41は、マスクが掛けられた撮像画像を取得することになる(ステップS332)。当該撮像画像は、特定オブジェクトにマスクが掛けられたままであるため、端末装置41上で閲覧される当該撮像画像において、特定オブジェクトを識別できない。そのため、端末装置41から当該撮像画像が例えばインターネットに流出しても、特定オブジェクトに含まれる個人情報が拡散されることが防がれる。
 このように、第1の実施形態では、サーバ10へのアクセスが正規アクセスおよび不正アクセスの何れであるかに応じて、登録される画像に対する加工(マスク処理)を解除するか、加工されたままにするかを制御でき、画像に対する加工および非加工の状態を両立できる。また、不正アクセスに対しては、画像を加工したままとしているので、加工前の画像に含まれる例えば個人情報の拡散を抑制できる。
(第1の実施形態の変形例)
 なお、上述では、端末装置30では撮像画像に対して少なくとも1の特定オブジェクトが含まれるか否かを検出し(図10、ステップS103)、サーバ10は、撮像画像に対して少なくとも1の特定オブジェクトが含まれている場合に、当該撮像画像を解析して特定オブジェクト領域を検出している(図13、ステップS207)。これはこの例に限定されず、端末装置30において、撮像画像から検出可能な全ての特定オブジェクトを検出するようにしてもよい。
 すなわち、端末装置30は、検出された全ての特定オブジェクトについて、特定オブジェクト領域およびその座標を取得する(例えば図10のステップS103)。端末装置30は、取得された全ての特定オブジェクト領域の座標を、メタデータとして撮像画像に付加する(例えば図10のステップS104)。
 この場合、サーバ10側では、特定オブジェクト領域の取得を行う必要がないため、例えば図13におけるステップS207(図17におけるステップS311)の処理を省略することができる。サーバ10においてマスク処理部104は、撮像画像に付加されるメタデータに含まれる、各特定オブジェクト領域の座標に基づき、各特定オブジェクト領域に対するマスク処理を実行する(図13のステップS207、図17のステップS312)。
 第1の実施形態の変形例によれば、撮像画像に含まれる各特定オブジェクト領域を、端末装置30側で取得するため、上述した第1の実施形態の処理に対して、サーバ10の負荷を軽減することが可能である。
[第2の実施形態]
 次に、第2の実施形態について説明する。上述した第1の実施形態では、サーバ10は、可逆にマスク処理を施した撮像画像を登録し、正規アクセスに対して、撮像画像のマスクを解除していた。これに対して、第2の実施形態では、サーバ10は、撮像画像にマスク処理を施さずに登録を行い、不正アクセスによる撮像画像の取得要求に対して、当該撮像画像にマスク処理を施すようにしている。第2の実施形態では、マスク処理は、非可逆な方法を用いることができる。
 図18は、第2の実施形態に係るサーバ10における処理を示す一例のフローチャートである。なお、図18において、上述した図13のフローチャートと共通する処理は、同一の符号を付して示している。また、撮像画像をサーバ10が提供するSNSに登録する場合の端末装置30の処理は、図10で説明した処理をそのまま適用できる。
 図18において、ステップS200で、サーバ10は、通信部100により、ネットワーク2を介したアクセスの検出を行い、次のステップS201で、認証部101により、ステップS200で検出されたアクセスが、認証要求を受信済みのアクセス元からのアクセスであるか否かを判定する。
 サーバ10は、認証部101により、ステップS200で検出されたアクセスが認証要求を受信済みのアクセスであると判定した場合(ステップS201、「Yes」)、処理をステップS202に移行させる。ステップS202で、認証部101は、この受信済みの認証要求に対する認証が成功しているか否かを判定する。認証部101は、受信済みの認証要求に対する認証が成功していないと判定した場合(ステップS202、「NG」)、この図18のフローチャートによる一連の処理を終了させる。
 一方、サーバ10は、認証部101により、受信済みの認証要求に対する認証が成功していると判定した場合(ステップS202、「OK」)、処理をステップS203に移行させる。ステップS203で、サーバ10は、例えば通信部100により、ステップS200で検出されたアクセスが画像の登録および取得の何れを要求するものであるかを判定する。通信部100は、ステップS200で検出されたアクセスが画像の登録を要求するものであると判定した場合(ステップS203、「登録」)、処理をステップS204に移行させる。一方、通信部100は、ステップS200で検出されたアクセスが画像の取得を要求するものであると判定した場合(ステップS203、「取得」)、処理をステップS210に移行させる。
 ステップS204で、サーバ10は、通信部100により、ステップS200でアクセスが検出されたアクセス元から送信された、画像が格納されたファイルを受信する。このアクセス元は、例えば端末装置30であって、通信部100は、図10のフローチャートにおけるステップS106で送信された撮像画像が格納されたファイルを受信する。
 次のステップS205で、サーバ10は、デコード部102により、ステップS204で受信したファイルから圧縮符号化された撮像画像を取り出してデコードし、撮像画像を復号する。デコード部102は、受信したファイルに格納される、圧縮符号化された撮像画像も保持しておく。また、デコード部102は、当該ファイルからメタデータを取得する。
 次のステップS206で、サーバ10は、デコード部102により、ステップS205で取得したメタデータに、特定オブジェクトが検出された旨を示す検出フラグが含まれるか否かを判定する。デコード部102は、当該検出フラグが含まれないと判定した場合(ステップS206、「No」)、処理をステップS209’に移行させる。一方、デコード部102は、当該検出フラグが含まれると判定した場合(ステップS206、「Yes」)、処理をステップS207に移行させる。
 ステップS207で、サーバ10は、解析部103により、ステップS205でデコードされた撮像画像を解析し、当該撮像画像から、特定オブジェクト領域を検出する。解析部103は、検出された特定オブジェクト領域の座標を、当該撮像画像と関連付けて保持する。ステップS207で特定オブジェクト領域の検出が行われると、処理がステップS209’に移行される。第2の実施形態では、図13におけるステップS208の、検出された特定オブジェクト領域に対するマスク処理は、撮像画像の登録時には実行されない。
 次のステップS209’で、サーバ10は、記憶部105により、ステップS204で受信された撮像画像(画像ファイル)と、ステップS207で当該撮像画像に関連付けられた特定オブジェクト領域の座標と、をストレージ1003に格納する。撮像画像がSNSに登録されると、図18のフローチャートによる一連の処理が終了される。
 上述したステップS203において、ステップS200で検出されたアクセスが画像の取得を要求するものであると判定した場合(ステップS203、「取得」)、処理がステップS210に移行される。ステップS210で、サーバ10は、記憶部105により、取得が要求された撮像画像が格納されるファイルを、例えばストレージ1003に格納されSNSに登録された登録画像から取得する。
 ステップS210で登録画像が取得されると、処理がステップS213に移行される。すなわち、第2の実施形態では、登録画像にはマスク処理が施されていないため、図13におけるステップS211の検出フラグによる判定処理と、ステップS212のマスク解除処理とが省略される。ステップS213で、サーバ10は、通信部100により、ステップS200でアクセスが検出されたアクセス元に、ステップS210で取得された撮像画像を送信する。撮像画像が送信されると、この図18のフローチャートによる一連の処理が終了される。
 上述したステップS201において、サーバ10は、認証部101により、ステップS200で検出されたアクセスが認証要求を受信済みのアクセスではないと判定した場合(ステップS201、「No」)、処理をステップS220に移行させる。ステップS220で、サーバ10は、例えば通信部100により、ステップS200で検出されたアクセスが画像の取得を要求するものであるか否かを判定する。通信部100は、当該アクセスが画像の取得を要求するものではないと判定した場合(ステップS220、「No」)、この図18のフローチャートによる一連の処理を終了させる。
 一方、サーバ10は、通信部100により、当該アクセスが画像の取得を要求するものであると判定した場合(ステップS220、「Yes」)、処理をステップS221に移行させる。ステップS221で、サーバ10は、マスク処理部104により、ステップS209’で登録された撮像画像のうち、ステップS200にて検出されたアクセスのアクセス元に要求された撮像画像を取得する。サーバ10は、取得した撮像画像について、当該撮像画像に関連付けられた特定オブジェクトの座標に基づき、当該撮像画像の特定オブジェクトに対応する領域に、マスク処理を施す。次のステップS222で、サーバ10は、通信部100により、マスク処理を施した撮像画像を、ステップS200にて検出されたアクセスのアクセス元に送信する。
 ステップS222でマスク処理を施した撮像画像が送信されると、この図18のフローチャートによる一連の処理が終了される。
 第2の実施形態では、ステップS221において、当該撮像画像に対して、非可逆のマスク処理を施すことが好ましい。非可逆のマスク処理の例としては、当該撮像画像の特定オブジェクト領域に対応する領域を、領域内が均一色のベタ画像や、所定のアイコン画像といった別の画像に置き換える処理が考えられる。これに限らず、当該撮像画像の全体を、ベタ画像などに置き換えてもよい。当該撮像画像が動画像の場合も同様である。
 このように、撮像画像の特定オブジェクト領域に対応する領域を非可逆にマスク処理することで、SNSに対する不正アクセスにより取得された撮像画像はマスクが掛けられた状態とされ、特定オブジェクト領域に含まれる画像を識別できない。したがって、特定オブジェクト領域に含まれる個人情報の拡散を抑制できる。また、特定オブジェクト領域に対応する撮像画像の領域に対するマスク処理を非可逆とすることで、当該撮像画像の受信側では特定オブジェクト領域に含まれる画像の識別が不可能となる。そのため、特定オブジェクト領域に含まれる個人情報の拡散をより効果的に抑制できる。
 なお、第2の実施形態の場合、登録された撮像画像自体にはマスク処理が施されていないので、登録された撮像画像に対して、例えば何らかの方法によりSNSへのログイン無しでアクセスされてしまった場合、オリジナルの撮像画像が取得されてしまう可能性がある。そのため、別途、不正アクセスに対する対策を講じることが好ましい。
 図19は、第2の実施形態に係る情報処理システム1の全体の動作を示す一例のシーケンスチャートである。なお、以下では、端末装置30が撮像部3003により撮像された、静止画像による撮像画像を、サーバ10に送信するものとして説明を行う。また、図19において、端末装置30において撮像画像を取得し、その撮像画像をサーバ10に登録するまでの処理のうち、ステップS300~ステップS310の処理は、図17を用いて説明した処理と同一であるので、ここでの説明を省略する。また、図19の処理では、図17におけるステップS312のマスク処理が省略されている。
 図19において、ステップS320~ステップS324は、例えば端末装置40が、サーバ10に対して正規アクセスによりアクセスしてSNSにログインし、SNSに登録される撮像画像を取得する場合の処理の例を示している。第2の実施形態の場合、登録された撮像画像は、マスク処理が施されてないため、図19の処理は、図17におけるステップS323のマスク解除の処理が省略されたものとなっている。図19において、ステップS320~ステップS322の処理は、図17のステップS320~ステップS322の処理と同一であるので、ここでの説明を省略する。
 図19において、ステップS324’で、サーバ10は、通信部100により。端末装置40から要求された撮像画像を送信する(ステップS324)。端末装置40は、当該撮像画像をデコードし圧縮符号を復号してディスプレイに表示される。当該撮像画像は、マスク処理が施されてないため、端末装置40上で、特定オブジェクトを識別可能に当該撮像画像を閲覧できる。
 図19において、ステップS340~ステップS342は、サーバ10に対して不正アクセスによりアクセスして、SNSにログインせずにSNSに登録される撮像画像を取得する場合の処理の例を示している。例えば端末装置41からサーバ10に対して、アカウント情報の送信および認証要求を行わずに、サーバ10による認証無しでアクセスしてSNSに登録される撮像画像が要求されたものとする(ステップS340)。
 サーバ10は、ステップS340の端末装置41からの要求に応じて、マスク処理部104により、要求された撮像画像に対して非可逆にマスク処理を行う(ステップS341)。したがって、端末装置41は、非可逆にマスク処理されマスクが掛けられた撮像画像を取得することになる(ステップS342)。当該撮像画像は、特定オブジェクトに非可逆にマスクが掛けられているため、端末装置41上で閲覧される当該撮像画像において、特定オブジェクトを識別できない。そのため、端末装置41から当該撮像画像が例えばインターネットに流出しても、特定オブジェクトに含まれる個人情報が拡散されることが防がれる。
 このように、第2の実施形態では、サーバ10へのアクセスが正規アクセスおよび不正アクセスの何れであるかに応じて、要求された画像に対して加工(マスク処理)を施すか、加工を行わないかを制御でき、画像に対する加工および非加工の状態を両立できる。また、不正アクセスに対しては、画像に非可逆に加工を施しているので、加工前の画像に含まれる例えば個人情報の拡散を抑制できる。
 なお、この第2の実施形態についても、上述した第1の実施形態の変形例にて説明した、端末装置30において、撮像画像から検出可能な全ての特定オブジェクトを検出する処理を、変形例として適用することが可能である。
[第3の実施形態]
 次に、第3の実施形態について説明する。上述では、第1の実施形態および第2の実施形態をサーバ10による単独のサービスに対して適用した例について説明したが、これはこの例に限定されない。すなわち、本開示は、連携する複数のサービスについても適用可能である。
 図20は、第3の実施形態に係る情報処理システムの構成の例を示す図である。図20において、第3の実施形態に係る情報処理システム1’は、サーバ10と、サーバ11とを含む。サーバ10は、第1の実施形態または第2の実施形態で説明したSNS(サービス#Aとする)を提供する。以下では、サーバ10は、サービス#Aといして、第1の実施形態で説明したSNSを提供するものとする。サーバ11は、サービス#Bを提供する。サービス#Bは、認証処理を行うことで利用となるもので、SNSであってもよいし、他のサービスであってもよい。ここでは、サービス#Bは、サービス#Aとは異なるSNSであるものとする。
 サービス#Aおよびサービス#Bは、連携しており、例えばサーバ11にログインしてサービス#Bを利用可能となったユーザは、サーバ10への明示的なログイン処理無しに、サーバ10により提供されるサービス#Aを利用できる。
 一例として、ユーザ31が端末装置30からサーバ10にアクセスしてサービス#Aにログインし、端末装置30により撮像された撮像画像をサービス#Aに登録するものとする。端末装置30は、例えば図17のステップS300~ステップS312の処理により、サーバ10のストレージ1003に撮像画像を登録する。このとき、サーバ10は、撮像画像を、当該撮像画像に含まれる特定オブジェクト領域に対してマスク処理を施して、ストレージ1003に格納し、撮像画像のサービス#Aへの登録を行う。
 ここで、端末装置40は、サービス#Bを利用するためのSNSアプリ(B)が搭載されているものとする。端末装置40の機能構成は、図8を用いて説明した構成と同等であり、このSNSアプリ(B)の機能も、図8におけるアプリケーション部302の機能と同等であるものとする。ユーザ42は、端末装置40においてSNSアプリ(B)を起動させてサーバ11に対してサービス#Bのアカウント情報を送信し、認証を要求する。端末装置40は、サーバ11による認証が成功すると、サービス#Bにログインする。これにより、端末装置40からサービス#Bの機能が利用可能となる。
 ここで、サービス#Bがサービス#Aと連携しており、このサービス同士の連携により、端末装置40は、サービス#Bに対してログインすることにより、サービス#Aの機能が利用可能となるものとする。この場合、端末装置40は、ストレージ1003に格納されサービス#Aに登録された撮像画像を、サービス#Bを介して取得可能となる。
 サーバ10は、サービス#Aに登録された撮像画像に対する取得要求を、サービス#B(サーバ11)を介して受信した場合、端末装置40が、例えば図17のステップS320およびステップS321による認証処理を経て当該撮像画像に対する取得要求を送信したと見做す。そのため、サーバ10は、図17のステップS322の処理に従い、当該撮像画像の特定オブジェクト領域に掛かるマスクを解除し、マスクが解除された撮像画像を、サービス#B(サーバ11)を介して端末装置40に送信する。これにより、端末装置40では、特定オブジェクトを識別可能に当該撮像画像を閲覧できる。
 次に、例えば端末装置41から、サービス#Aおよびサービス#Bの何れにもログインせずに、サービス#Aに登録された撮像画像を取得する場合について説明する。この場合には、図17のステップS330~ステップS332により説明したように、サーバ10は、認証されていないアクセス元からの要求については、撮像画像に掛けられたマスクの解除を行わない。したがって、端末装置41は、マスクが掛けられた撮像画像を取得することになり、端末装置41上で閲覧される当該撮像画像において、特定オブジェクトを識別できない。そのため、端末装置41から当該撮像画像が例えばインターネットに流出しても、特定オブジェクトに含まれる個人情報が拡散されることが防がれる。
 このように、本開示は、複数のサービスが連携する場合についても、適用可能である。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
 なお、本技術は以下のような構成も取ることができる。
(1)
 受光した光を画像に変換するイメージセンサと、
 前記画像に対して特定のオブジェクトの検出を行う画像処理部と、
 前記画像を出力する出力インタフェースと、
を含む固体撮像素子と、
 前記出力インタフェースから出力される画像を送信する第1の通信部と、
を備える端末装置と、
 第2の通信部と、
 プロセッサと、
を備える情報処理装置と、
を有し、
 前記プロセッサは、
 前記端末装置から送信された画像を前記第2の通信部により受信し、
 前記第2の通信部により受信された画像が前記画像処理部により前記特定のオブジェクトが検出された画像である場合に、該特定のオブジェクトをマスクするマスク処理を行う
情報処理システム。
(2)
 前記プロセッサは、
 前記特定のオブジェクトがマスクされた前記画像を格納部に格納し、
 前記格納部に格納された該画像に対するアクセス要求を受信した場合に、該アクセス要求の送信元が該画像にアクセスを許可されているか否かを判定し、
 該画像に対するアクセスを許可されていると判定した場合に、前記マスクを解除する
前記(1)に記載の情報処理システム。
(3)
 前記プロセッサは、
 前記マスク処理により前記特定のオブジェクトを可逆にマスクする
前記(1)または(2)に記載の情報処理システム。
(4)
 前記プロセッサは、
 前記特定のオブジェクトが検出された画像の、該特定のオブジェクトを含む所定領域を暗号化することで、該特定のオブジェクトをマスクする
前記(1)乃至(3)の何れかに記載の情報処理システム。
(5)
 前記プロセッサは、
 前記受信した画像を格納部に格納し、
 前記格納部に格納された該画像に対するアクセス要求を受信した場合に、該アクセス要求の送信元が該画像にアクセスを許可されているか否かを判定し、
 該画像に対するアクセスを許可されていないと判定した場合に、該画像の前記特定のオブジェクトをマスクするマスク処理を行う
前記(1)に記載の情報処理システム。
(6)
 前記プロセッサは、
 前記マスク処理により前記特定のオブジェクトを非可逆にマスクする
前記(5)に記載の情報処理システム。
(7)
 前記画像処理部は、
 前記イメージセンサから出力された画像から前記特定のオブジェクトが検出された場合に、該画像に対して該特定のオブジェクトが検出された旨を示す検出情報を付加し、
 前記第1の通信部は、
 前記検出情報が付加された前記画像を送信し、
 前記プロセッサは、
 前記第2の通信部により受信された画像に前記検出情報が付加されている場合に、該画像に含まれる前記特定のオブジェクトをマスクする
前記(1)乃至(6)の何れかに記載の情報処理システム。
(8)
 前記プロセッサは、
 前記第2の通信部により受信された画像に前記検出情報が付加されている場合に、該画像における前記特定のオブジェクトの位置を示す位置情報を取得し、該位置情報に基づき該特定のオブジェクトをマスクする
前記(7)に記載の情報処理システム。
(9)
 前記画像処理部は、
 前記イメージセンサから出力される画像から前記特定のオブジェクトを検出し、検出された該特定のオブジェクトの該画像上での位置を示す位置情報を取得し、
 前記第1の通信部は、
 前記出力インタフェースから出力される画像に、前記位置情報を前記検出情報として付加して送信し、
 前記プロセッサは、
 前記第2の通信部により通信された画像に付加される前記位置情報に基づき、該画像に含まれる前記特定のオブジェクトをマスクする
前記(7)に記載の情報処理システム。
(10)
 前記情報処理装置は、
 協働して動作する複数の情報処理装置を含む
前記(1)乃至(9)の何れかに記載の情報処理システム。
(11)
 端末装置が備える固定撮像素子が含むイメージセンサが、受光した光を画像に変換する変換ステップと、
 前記固定撮像素子が含む画像処理部が前記画像に対して特定のオブジェクトの検出を行う検出ステップと、
 前記固定撮像素子が含む出力インタフェースが前記画像を出力する出力ステップと、
 前記端末装置が備える第1の通信部が前記出力ステップにより出力される画像を送信する送信ステップと、
 情報処理装置が備えるプロセッサが、前記端末装置から送信された画像を第2の通信部により受信する受信ステップと、
 前記プロセッサが、前記受信ステップにより受信された画像が前記検出ステップにより前記特定のオブジェクトが検出された画像である場合に、該特定のオブジェクトをマスクする処理ステップと、
を有する情報処理方法。
(12)
 受光した光を画像に変換するイメージセンサと、
 前記画像から特定のオブジェクトを検出する画像処理部と、
 前記画像を出力する出力インタフェースと、
を含む固体撮像素子と、
 前記出力インタフェースから出力される画像を送信する通信部と、
を備え、
 前記画像処理部は、
 前記画像から前記特定のオブジェクトが検出された場合に、該画像に対して該特定のオブジェクトが検出された旨を示す検出情報を付加し、
 前記通信部は、
 前記検出情報が付加された前記画像を送信する
端末装置。
(13)
 前記画像処理部は、
 前記イメージセンサから出力される画像から前記特定のオブジェクトを検出し、検出された該特定のオブジェクトの該画像上での位置を示す位置情報を取得し、
 前記通信部は、
 前記出力インタフェースから出力される画像に、前記位置情報を前記検出情報として付加して送信する
前記(12)に記載の端末装置。
(14)
 プロセッサと、
 イメージセンサにより受光した光が変換された画像に対して特定のオブジェクトの検出を行い、該画像を送信する端末装置と通信を行う通信部と、
を備え、
 前記プロセッサは、
 前記端末装置から送信された前記画像を前記通信部により受信し、
 前記通信部により受信された前記画像が前記端末装置により前記特定のオブジェクトが検出された画像である場合に、該特定のオブジェクトをマスクするマスク処理を行う
情報処理装置。
(15)
 前記プロセッサは、
 前記特定のオブジェクトが前記マスクされた前記を格納部に格納し、
 前記格納部に格納された該画像に対するアクセス要求を受信した場合に、該アクセス要求の送信元が該画像にアクセスを許可されているか否かを判定し、
 該画像に対するアクセスを許可されていると判定した場合に、前記マスクを解除する
前記(14)に記載の情報処理装置。
(16)
 前記プロセッサは、
 前記マスク処理により前記特定のオブジェクトを可逆にマスクする
前記(14)または(15)に記載の情報処理装置。
(17)
 前記プロセッサは、
 前記特定のオブジェクトが検出された画像の、該特定のオブジェクトを含む所定領域を暗号化することで、該特定のオブジェクトをマスクする
前記(14)乃至(16)の何れかに記載の情報処理装置。
(18)
 前記プロセッサは、
 前記受信した画像を格納部に格納し、
 前記格納部に格納された該画像に対するアクセス要求を受信した場合に、該アクセス要求の送信元が該画像にアクセスを許可されているか否かを判定し、
 該画像に対するアクセスを許可されていないと判定した場合に、該画像の前記特定のオブジェクトをマスクする
前記(14)に記載の情報処理装置。
(19)
 前記プロセッサは、
 前記マスク処理により前記特定のオブジェクトを非可逆にマスクする
前記(18)に記載の情報処理装置。
(20)
 前記プロセッサは、
 前記通信部により受信された画像に、前記特定のオブジェクトが検出された旨を示す検出情報が付加されている場合に、該画像に含まれる前記特定のオブジェクトをマスクする
前記(14)乃至(19)の何れかに記載の情報処理装置。
(21)
 前記プロセッサは、
 前記通信部により受信された画像に前記検出情報が付加されている場合に、該画像における前記特定のオブジェクトの位置を示す位置情報を取得し、該位置情報に基づき該特定のオブジェクトをマスクする
前記(20)に記載の情報処理装置。
(22)
 前記プロセッサは、
 前記通信部により通信された画像に前記検出情報として付加される、前記特定のオブジェクトの該画像上での位置を示す位置情報に基づき、該画像に含まれる前記特定のオブジェクトをマスクする
前記(20)に記載の情報処理装置。
1 情報処理システム
2 ネットワーク
10,11 サーバ
30,40,41 端末装置
50a,50a’,50b,50b’ 撮像画像
51a,51b,52a,52b 矩形領域
100 通信部
101 認証部
102 デコード部
103 解析部
104 マスク処理部
105 記憶部
300 撮像処理部
301 オブジェクト検出部
302 アプリケーション部
303 通信部
320 エンコード部
322 認証要求部
3003 撮像部
3100 画素部
3101 信号処理部
3102 メモリ部
3103 I/F部
3104 画像処理部
3105 素子制御部

Claims (18)

  1.  受光した光を画像に変換するイメージセンサと、
     前記画像に対して特定のオブジェクトの検出を行う画像処理部と、
     前記画像を出力する出力インタフェースと、
    を含む固体撮像素子と、
     前記出力インタフェースから出力される画像を送信する第1の通信部と、
    を備える端末装置と、
     第2の通信部と、
     プロセッサと、
    を備える情報処理装置と、
    を有し、
     前記プロセッサは、
     前記端末装置から送信された画像を前記第2の通信部により受信し、
     前記第2の通信部により受信された画像が前記画像処理部により前記特定のオブジェクトが検出された画像である場合に、該特定のオブジェクトをマスクするマスク処理を行う
    情報処理システム。
  2.  前記プロセッサは、
     前記特定のオブジェクトがマスクされた前記画像を格納部に格納し、
     前記格納部に格納された該画像に対するアクセス要求を受信した場合に、該アクセス要求の送信元が該画像にアクセスを許可されているか否かを判定し、
     該画像に対するアクセスを許可されていると判定した場合に、前記マスクを解除する
    請求項1に記載の情報処理システム。
  3.  前記プロセッサは、
     前記特定のオブジェクトが検出された画像の、該特定のオブジェクトを含む所定領域を暗号化することで、該特定のオブジェクトをマスクする
    請求項1に記載の情報処理システム。
  4.  前記プロセッサは、
     前記受信した画像を格納部に格納し、
     前記格納部に格納された該画像に対するアクセス要求を受信した場合に、該アクセス要求の送信元が該画像にアクセスを許可されているか否かを判定し、
     該画像に対するアクセスを許可されていないと判定した場合に、該画像の前記特定のオブジェクトをマスクするマスク処理を行う
    請求項1に記載の情報処理システム。
  5.  前記画像処理部は、
     前記イメージセンサから出力された画像から前記特定のオブジェクトが検出された場合に、該画像に対して該特定のオブジェクトが検出された旨を示す検出情報を付加し、
     前記第1の通信部は、
     前記検出情報が付加された前記画像を送信し、
     前記プロセッサは、
     前記第2の通信部により受信された画像に前記検出情報が付加されている場合に、該画像に含まれる前記特定のオブジェクトをマスクする
    請求項1に記載の情報処理システム。
  6.  前記プロセッサは、
     前記第2の通信部により受信された画像に前記検出情報が付加されている場合に、該画像における前記特定のオブジェクトの位置を示す位置情報を取得し、該位置情報に基づき該特定のオブジェクトをマスクする
    請求項5に記載の情報処理システム。
  7.  前記画像処理部は、
     前記イメージセンサから出力される画像から前記特定のオブジェクトを検出し、検出された該特定のオブジェクトの該画像上での位置を示す位置情報を取得し、
     前記第1の通信部は、
     前記出力インタフェースから出力される画像に、前記位置情報を前記検出情報として付加して送信し、
     前記プロセッサは、
     前記第2の通信部により通信された画像に付加される前記位置情報に基づき、該画像に含まれる前記特定のオブジェクトをマスクする
    請求項5に記載の情報処理システム。
  8.  前記情報処理装置は、
     協働して動作する複数の情報処理装置を含む
    請求項1に記載の情報処理システム。
  9.  端末装置が備える固定撮像素子が含むイメージセンサが、受光した光を画像に変換する変換ステップと、
     前記固定撮像素子が含む画像処理部が前記画像に対して特定のオブジェクトの検出を行う検出ステップと、
     前記固定撮像素子が含む出力インタフェースが前記画像を出力する出力ステップと、
     前記端末装置が備える第1の通信部が前記出力ステップにより出力される画像を送信する送信ステップと、
     情報処理装置が備えるプロセッサが、前記端末装置から送信された画像を第2の通信部により受信する受信ステップと、
     前記プロセッサが、前記受信ステップにより受信された画像が前記検出ステップにより前記特定のオブジェクトが検出された画像である場合に、該特定のオブジェクトをマスクする処理ステップと、
    を有する情報処理方法。
  10.  受光した光を画像に変換するイメージセンサと、
     前記画像から特定のオブジェクトを検出する画像処理部と、
     前記画像を出力する出力インタフェースと、
    を含む固体撮像素子と、
     前記出力インタフェースから出力される画像を送信する通信部と、
    を備え、
     前記画像処理部は、
     前記画像から前記特定のオブジェクトが検出された場合に、該画像に対して該特定のオブジェクトが検出された旨を示す検出情報を付加し、
     前記通信部は、
     前記検出情報が付加された前記画像を送信する
    端末装置。
  11.  前記画像処理部は、
     前記イメージセンサから出力される画像から前記特定のオブジェクトを検出し、検出された該特定のオブジェクトの該画像上での位置を示す位置情報を取得し、
     前記通信部は、
     前記出力インタフェースから出力される画像に、前記位置情報を前記検出情報として付加して送信する
    請求項10に記載の端末装置。
  12.  プロセッサと、
     イメージセンサにより受光した光が変換された画像に対して特定のオブジェクトの検出を行い、該画像を送信する端末装置と通信を行う通信部と、
    を備え、
     前記プロセッサは、
     前記端末装置から送信された前記画像を前記通信部により受信し、
     前記通信部により受信された前記画像が前記端末装置により前記特定のオブジェクトが検出された画像である場合に、該特定のオブジェクトをマスクするマスク処理を行う
    情報処理装置。
  13.  前記プロセッサは、
     前記特定のオブジェクトが前記マスクされた画像を格納部に格納し、
     前記格納部に格納された該画像に対するアクセス要求を受信した場合に、該アクセス要求の送信元が該画像にアクセスを許可されているか否かを判定し、
     該画像に対するアクセスを許可されていると判定した場合に、前記マスクを解除する
    請求項12に記載の情報処理装置。
  14.  前記プロセッサは、
     前記特定のオブジェクトが検出された画像の、該特定のオブジェクトを含む所定領域を暗号化することで、該特定のオブジェクトをマスクする
    請求項12に記載の情報処理装置。
  15.  前記プロセッサは、
     前記受信した画像を格納部に格納し、
     前記格納部に格納された該画像に対するアクセス要求を受信した場合に、該アクセス要求の送信元が該画像にアクセスを許可されているか否かを判定し、
     該画像に対するアクセスを許可されていないと判定した場合に、該画像の前記特定のオブジェクトをマスクする
    請求項12に記載の情報処理装置。
  16.  前記プロセッサは、
     前記通信部により受信された画像に、前記特定のオブジェクトが検出された旨を示す検出情報が付加されている場合に、該画像に含まれる前記特定のオブジェクトをマスクする
    請求項12に記載の情報処理装置。
  17.  前記プロセッサは、
     前記通信部により受信された画像に前記検出情報が付加されている場合に、該画像における前記特定のオブジェクトの位置を示す位置情報を取得し、該位置情報に基づき該特定のオブジェクトをマスクする
    請求項16に記載の情報処理装置。
  18.  前記プロセッサは、
     前記通信部により通信された画像に前記検出情報として付加される、前記特定のオブジェクトの該画像上での位置を示す位置情報に基づき、該画像に含まれる前記特定のオブジェクトをマスクする
    請求項16に記載の情報処理装置。
PCT/JP2019/031661 2018-09-06 2019-08-09 情報処理システム、情報処理方法、端末装置および情報処理装置 WO2020049958A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020541092A JPWO2020049958A1 (ja) 2018-09-06 2019-08-09 情報処理システム、情報処理方法、端末装置および情報処理装置
CN201980055080.1A CN112585605A (zh) 2018-09-06 2019-08-09 信息处理系统、信息处理方法、终端装置和信息处理装置
EP19856653.1A EP3848839A4 (en) 2018-09-06 2019-08-09 INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING PROCESS, TERMINAL DEVICE, AND INFORMATION PROCESSING DEVICE
US17/268,039 US20210319144A1 (en) 2018-09-06 2019-08-09 Information processing system, information processing method, terminal apparatus, and information processing apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018167374 2018-09-06
JP2018-167374 2018-09-06

Publications (1)

Publication Number Publication Date
WO2020049958A1 true WO2020049958A1 (ja) 2020-03-12

Family

ID=69722526

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/031661 WO2020049958A1 (ja) 2018-09-06 2019-08-09 情報処理システム、情報処理方法、端末装置および情報処理装置

Country Status (5)

Country Link
US (1) US20210319144A1 (ja)
EP (1) EP3848839A4 (ja)
JP (1) JPWO2020049958A1 (ja)
CN (1) CN112585605A (ja)
WO (1) WO2020049958A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6635221B1 (ja) * 2018-08-31 2020-01-22 ソニー株式会社 撮像装置、撮像システム、撮像方法および撮像プログラム
KR102544626B1 (ko) * 2019-01-23 2023-06-19 한국전자통신연구원 마스킹 영역 처리 시스템 및 방법
KR102454677B1 (ko) * 2021-01-25 2022-10-17 주식회사 노타 암호 키 기반 영상의 개인정보 비 식별화 및 복원 기술

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006319775A (ja) * 2005-05-13 2006-11-24 Matsushita Electric Ind Co Ltd 映像配信システム
JP2009033738A (ja) * 2007-07-04 2009-02-12 Sanyo Electric Co Ltd 撮像装置、画像ファイルのデータ構造
JP2009194687A (ja) 2008-02-15 2009-08-27 Sony Corp 画像処理装置、カメラ装置、通信システム、画像処理方法、およびプログラム
JP2015184909A (ja) * 2014-03-24 2015-10-22 キヤノン株式会社 画像処理システム、データ管理方法及びプログラム
JP2017184120A (ja) * 2016-03-31 2017-10-05 株式会社Medi Plus 画像処理システム
US20180189461A1 (en) * 2016-12-31 2018-07-05 Entefy Inc. System and method of applying multiple adaptive privacy control layers to encoded media file types
JP2019050553A (ja) * 2017-09-07 2019-03-28 キヤノン株式会社 画像処理装置、画像提供装置、それらの制御方法及びプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4698261B2 (ja) * 2005-03-25 2011-06-08 Necフィールディング株式会社 暗号通信システムと方法、及びプログラム
JP2006319668A (ja) * 2005-05-12 2006-11-24 Sharp Corp 情報処理装置、ユーザ端末および画像処理システム
JP4671133B2 (ja) * 2007-02-09 2011-04-13 富士フイルム株式会社 画像処理装置
US8233677B2 (en) * 2007-07-04 2012-07-31 Sanyo Electric Co., Ltd. Image sensing apparatus and image file data structure
JP2012244416A (ja) * 2011-05-19 2012-12-10 Canon Inc システム、暗号処理装置
US20140229544A1 (en) * 2013-02-12 2014-08-14 BackPeddle, LLC Sharing content in social networks
US10467387B2 (en) * 2016-06-23 2019-11-05 Oath Inc. Computerized system and method for modifying a media file by automatically applying security features to select portions of media file content
US20200026866A1 (en) * 2016-09-27 2020-01-23 Varsha Parikh Method and device for covering private data
KR101859433B1 (ko) * 2017-02-14 2018-05-21 에스케이텔레콤 주식회사 영상 모자이크 처리 방법 및 이를 위한 장치
US10931836B2 (en) * 2018-03-29 2021-02-23 Ricoh Company, Ltd. Communication system, image processing method, and recording medium

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006319775A (ja) * 2005-05-13 2006-11-24 Matsushita Electric Ind Co Ltd 映像配信システム
JP2009033738A (ja) * 2007-07-04 2009-02-12 Sanyo Electric Co Ltd 撮像装置、画像ファイルのデータ構造
JP2009194687A (ja) 2008-02-15 2009-08-27 Sony Corp 画像処理装置、カメラ装置、通信システム、画像処理方法、およびプログラム
JP2015184909A (ja) * 2014-03-24 2015-10-22 キヤノン株式会社 画像処理システム、データ管理方法及びプログラム
JP2017184120A (ja) * 2016-03-31 2017-10-05 株式会社Medi Plus 画像処理システム
US20180189461A1 (en) * 2016-12-31 2018-07-05 Entefy Inc. System and method of applying multiple adaptive privacy control layers to encoded media file types
JP2019050553A (ja) * 2017-09-07 2019-03-28 キヤノン株式会社 画像処理装置、画像提供装置、それらの制御方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3848839A4

Also Published As

Publication number Publication date
CN112585605A (zh) 2021-03-30
JPWO2020049958A1 (ja) 2021-08-12
EP3848839A4 (en) 2021-10-20
EP3848839A1 (en) 2021-07-14
US20210319144A1 (en) 2021-10-14

Similar Documents

Publication Publication Date Title
CA2994699C (en) Systems and methods for authenticating photographic image data
WO2020049958A1 (ja) 情報処理システム、情報処理方法、端末装置および情報処理装置
US8743224B2 (en) Context based management for secure augmented reality applications
KR102090696B1 (ko) 영상수신장치, 영상수신장치의 영상 복원 방법, 및 영상 시스템의 영상 마스킹 및 복원 방법
CN109074440B (zh) 用于多因素事件授权的配置
JP6277868B2 (ja) ドキュメント管理システム、ドキュメント再現装置、ドキュメント管理方法、およびコンピュータプログラム
CN114125284A (zh) 图像处理方法、电子设备及存储介质
WO2022143060A1 (zh) 一种屏幕采集方法、终端及存储介质
JP6211125B2 (ja) 画像処理システム
US9451128B2 (en) Mobile data processing having secured association with multifunction device
WO2022269358A1 (en) Method for preventing screen capture
JP7501369B2 (ja) 撮像素子、撮像装置および方法
US11265475B2 (en) Image capturing apparatus, client apparatus, method for controlling image capturing apparatus, method for controlling client apparatus, and non-transitory computer-readable storage medium
WO2018090685A1 (zh) 图像数据加密方法及装置、网络摄像机
JP2000059771A (ja) 画像撮像装置および画像データ利用システム
JP2013197889A (ja) 画像処理装置、画像処理方法
JP2006157470A (ja) 携帯端末
JP2007215001A (ja) 画像処理装置、画像処理システム及び画像処理方法
US20240104232A1 (en) Information processing apparatus, control method thereof, storage medium, and information processing system
WO2016195060A1 (ja) 画像処理システム、サーバ装置、サーバ装置の制御方法、及びプログラム
US11936978B2 (en) Method and image-capturing device for installing the image-capturing device on a network
JP2012203820A (ja) 認証システムおよび認証方法
CN111787271A (zh) 视频会议控制方法、装置、设备以及计算机可读存储介质
CN117917086A (zh) 检查设备的位置
JP2022035543A (ja) ロボット用ソフトウェアのライセンス管理方法、ライセンス管理プログラムおよびロボットシステム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19856653

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020541092

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019856653

Country of ref document: EP

Effective date: 20210406