WO2016195060A1 - 画像処理システム、サーバ装置、サーバ装置の制御方法、及びプログラム - Google Patents

画像処理システム、サーバ装置、サーバ装置の制御方法、及びプログラム Download PDF

Info

Publication number
WO2016195060A1
WO2016195060A1 PCT/JP2016/066546 JP2016066546W WO2016195060A1 WO 2016195060 A1 WO2016195060 A1 WO 2016195060A1 JP 2016066546 W JP2016066546 W JP 2016066546W WO 2016195060 A1 WO2016195060 A1 WO 2016195060A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
captured image
unit
server device
terminal
Prior art date
Application number
PCT/JP2016/066546
Other languages
English (en)
French (fr)
Inventor
水野 大輔
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2017522271A priority Critical patent/JPWO2016195060A1/ja
Priority to US15/579,068 priority patent/US20180173858A1/en
Publication of WO2016195060A1 publication Critical patent/WO2016195060A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/10Protecting distributed programs or content, e.g. vending or licensing of copyrighted material ; Digital rights management [DRM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2347Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving video stream encryption
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/254Management at additional data server, e.g. shopping server, rights management server
    • H04N21/2541Rights Management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • H04N21/2743Video hosting of uploaded data from client

Definitions

  • the present invention is based on a Japanese patent application: Japanese Patent Application No. 2015-114741 (filed on June 5, 2015), and the entire description of the application is incorporated herein by reference.
  • the present invention relates to an image processing system, a server device, a server device control method, and a program.
  • Patent Document 1 before a document is read and stored in an HDD (Hard Disk Drive), if the document is a banknote, a document requiring copyright protection, processing such as color conversion and digital watermark synthesis is performed on image data.
  • HDD Hard Disk Drive
  • processing such as color conversion and digital watermark synthesis is performed on image data.
  • the technology applied to is described.
  • Patent Document 2 describes a technique for collating browsing moving image data that can be browsed on a site on a network.
  • the technique described in Patent Document 2 includes a moving image database in which a plurality of registered moving image data is registered as information. And in the technique described in patent document 2, browsing moving image data and the registered moving image data registered into the moving image database are collated.
  • there is a technique of adding identification data to browsing moving image data and deleting the browsing moving image data to which identification data is added. are listed.
  • Patent Document 2 is a technique for preventing the disclosure of images including copyrighted works.
  • the technique described in Patent Document 2 cannot prevent a captured image including a copyrighted work from being stored and duplicated in an information processing device (such as a PC (Personal Computer)) used by the user.
  • an information processing device such as a PC (Personal Computer)
  • the present invention provides an image processing system, a server device, a server device control method, and a program that contribute to appropriately managing captured images in a state in which a load on a terminal device used by a user is reduced. For the purpose.
  • an image processing system includes one or more terminal devices and a server device connected to the terminal devices.
  • the terminal device includes a photographing unit that photographs a subject and generates a photographed image.
  • the terminal device further includes an image transmission unit that transmits the captured image to the server device when the imaging unit generates the captured image.
  • the image transmission unit deletes the captured image from the terminal device.
  • the server device includes a determination unit that determines whether the received captured image includes predetermined information. Further, when the received captured image includes predetermined information, the server device executes predetermined processing including at least one of visibility reduction processing and output prevention processing of the captured image. A part.
  • a server device includes an image receiving unit that receives an image from a terminal device.
  • the server device further includes a determination unit that determines whether the received image includes predetermined information.
  • the server device further includes: an image processing unit that executes predetermined processing including at least one of visibility reduction processing and output prevention processing when the received image includes predetermined information. Prepare.
  • a method for controlling a server device includes an image receiving unit that receives an image from a terminal device.
  • the control method includes a step of determining whether or not the received image includes predetermined information. Further, the control method includes a step of executing a predetermined process including at least one of a visibility reduction process and an output prevention process of the image when the received image includes predetermined information.
  • this method is tied to a specific machine called a server device connected to one or more terminal devices.
  • a program that is executed by a computer that controls a server device.
  • the server device includes an image receiving unit that receives an image from a terminal device.
  • the program causes the computer to execute processing for determining whether or not the received image includes predetermined information. Further, when the received image includes predetermined information, the program executes processing for executing predetermined processing including at least one of visibility reduction processing and output prevention processing of the image on the computer.
  • the program can be recorded on a computer-readable storage medium.
  • the storage medium may be non-transient such as a semiconductor memory, a hard disk, a magnetic recording medium, an optical recording medium, or the like.
  • the present invention can also be embodied as a computer program product.
  • an image processing system a server device, a server device control method, and a program that contribute to appropriately managing captured images in a state where the load on a terminal device used by a user is reduced are provided.
  • FIG. 1 is a diagram illustrating an example of an overall configuration of an image processing system 1 according to a first embodiment.
  • 1 is a diagram illustrating an example of an image processing system 1 according to a first embodiment.
  • 4 is a flowchart illustrating an example of operations of the server device 10 and the terminal device 20. It is a figure which shows an example of the whole structure of the image processing system 1a which concerns on 2nd Embodiment. It is a figure which shows an example of the image processing system 1a which concerns on 2nd Embodiment.
  • an image processing system that contributes to appropriately managing captured images in a state where the load on the terminal device used by the user is reduced is desired.
  • the image processing system 1000 shown in FIG. 1 includes one or more terminal devices 1010 and a server device 1020 connected to the terminal device 1010.
  • the terminal device 1010 includes an imaging unit 1011 and an image transmission unit 1012.
  • the server device 1020 includes a determination unit 1021 and an image processing unit 1022.
  • two or more terminal devices 1010 and two or more captured images 1001 are denoted by the same reference numerals, but this means that two or more terminal devices 1010 and two or more captured images 1001 are the same. It is not intended to indicate.
  • Each terminal device 1010 and each captured image 1001 are assumed to be independent.
  • the terminal device 1010 is an information processing device operated by a user.
  • the server device 1020 is an information processing device having a higher processing capability than the terminal device 1010.
  • the photographing unit 1011 of the terminal device 1010 photographs a subject and generates a photographed image (captured image data) 1001.
  • the captured image 1001 is a still image and / or a moving image.
  • image data formats There are various image data formats, but the details are not limited. In the following description, the captured image data is also simply referred to as a captured image.
  • the image transmission unit 1012 of the terminal device 1010 transmits the captured image 1001 to the server device 1020 when the imaging unit 1011 generates the captured image 1001. Then, when the captured image 1001 is transmitted to the server device 1020, the image transmission unit 1012 deletes the captured image 1001 from the terminal 1010. That is, the terminal device 1010 does not save the generated captured image 1001 in a storage area (not shown) of the terminal device 1010.
  • the server device 1020 is connected to the terminal device 1010 and receives a captured image from the terminal device 1010. Then, when the determination unit 1021 of the server device 1020 receives the captured image 1001 from the terminal device 1010, the determination unit 1021 determines whether the received captured image 1001 includes predetermined information. For example, the determination unit 1021 may determine whether or not a specific subject (such as a copyrighted work) is included in the captured image. In the following description, the copyrighted work means a copyrighted work to be protected.
  • the image processing unit 1022 of the server apparatus 1020 executes predetermined processing including at least one of visibility reduction processing and output prevention processing of the captured image 1001. .
  • the image processing unit 1022 may execute a process for reducing the visibility of the captured image (for example, a process for reducing the resolution).
  • the server apparatus 1020 executes a process for determining whether or not there is a copyrighted work in the photographed image. Therefore, the image processing system 1000 contributes to reducing the load on the terminal device 1010 used by the user. Further, in the image processing system 1000, the terminal device 1010 deletes the captured image from the terminal device 1010. Then, the server apparatus 1020 processes the image so as to suppress storage, duplication, and disclosure of the image including predetermined information (a predetermined subject or the like). Therefore, the image processing system 1000 contributes to appropriately managing the captured image 1001 while reducing the load on the terminal device 1010 used by the user.
  • FIG. 2 is a block diagram showing an example of the overall configuration of the image processing system 1 according to the present embodiment.
  • the image processing system 1 includes a server device 10 and one or more terminal devices 20.
  • the server device 10 and each terminal device 20 are connected via the network 30.
  • one terminal device 20 is shown, but this is not intended to limit the number of terminal devices 20.
  • the network 30 may use a telephone line, a cellular phone line, Wi-Fi (Wireless Fidelity), or the like. There are various methods for realizing the network 30, but the details are not limited.
  • the system of the network 30 is different depending on the implementation form of the image processing system 1.
  • the server apparatus 10 is an information processing apparatus that is connected to the network 30 and includes one or two or more virtual terminals 11_1 to 11_n (n is a natural number of one or more). If the server apparatus 10 can implement
  • the terminal device 20 is an information processing device that is operated by a user and includes a photographing function (camera).
  • the terminal device 20 may be a smartphone, a mobile phone, a digital camera, a tablet, a game machine, a PDA (Personal Digital Assistant), or the like.
  • the details of the terminal device 20 are not limited as long as the functions described in this document can be realized.
  • the terminal device 20 includes a photographing unit 21, an encryption unit 22, a temporary storage area 23, an authentication client unit 24, an image transmission unit 25, a screen display unit 26, and a screen information reception unit 27. Is done.
  • FIG. 2 mainly describes modules related to the terminal device 20 according to the present embodiment.
  • Each module of the terminal device 20 may be realized by a computer program that causes a computer mounted on the terminal device 20 to execute an operation on the terminal device 20 using the hardware thereof.
  • the photographing unit (camera) 21 photographs a subject and generates a photographed image.
  • the imaging unit 21 includes a lens, an image sensor (not shown), and the like.
  • the imaging unit 21 outputs the generated captured image to the encryption unit 22.
  • the photographing unit 21 may generate a still image as a photographed image.
  • the data format of the photographed image may be a JPEG (Joint Photographic Experts Group) format, a RAW format, or the like, and details of the data format are not limited.
  • the photographing unit 21 may generate a moving image as a photographed image.
  • the data format of the photographed image may be an MPEG (Moving Picture Experts Group) format, an MOV format, an AVI format, or the like, and details of the data format are not limited. .
  • the encryption unit 22 encrypts the captured image generated by the imaging unit 21. Then, the encryption unit 22 associates terminal identification information with the encrypted captured image.
  • the terminal identification information is information for identifying the terminal device 20 and includes characters, numbers, symbols, and the like. In the following description, the terminal identification information is also expressed as a terminal ID.
  • the encryption unit 22 stores the encrypted captured image associated with the terminal identification information in the temporary storage area 23. Even when the terminal device 20 includes a storage device such as an HDD (Hard Disk Disk Drive), the terminal device 20 does not store the captured image in the storage device or the like. Further, the terminal device 20 does not store the unencrypted captured image in the temporary storage area 23.
  • HDD Hard Disk Disk Drive
  • the authentication client unit 24 requests the server device 10 to authenticate the user who uses the terminal device 20 via the network 30.
  • the authentication client unit 24 may transmit information (hereinafter referred to as user identification information) for identifying a user who uses the terminal device 20 to the server device 10 via the network 30.
  • the user identification information is information for identifying the terminal device 20, and may be configured to include at least one of letters, numbers, and symbols. Then, the authentication client unit 24 receives, from the server device 10, whether or not the user who uses the terminal device 20 can be authenticated via the network 30.
  • the image transmission unit 25 transmits the captured image to the server device 10. Specifically, the image transmission unit 25 transmits the captured image encrypted by the encryption unit 22 to the server device 10. More specifically, the image transmission unit 25 associates terminal identification information with the encrypted captured image and transmits the captured image to the server device 10.
  • the image transmission unit 25 deletes the captured image from the terminal device 20. Specifically, when the captured image encrypted by the encryption unit 22 is transmitted to the server apparatus 10, the image transmission unit 25 deletes the encrypted captured image from the temporary storage area 23.
  • the server device 10 may transmit a reception completion signal to the terminal device 20 that is the transmission source of the captured image. Then, the image transmission unit 25 may delete the encrypted captured image from the temporary storage area 23 when receiving a reception completion signal of the captured image from the server device 10.
  • the screen display unit 26 includes a liquid crystal panel, an organic EL (Electro Luminescence) panel, and the like, and displays information so that the user can visually recognize it. Specifically, the screen display unit 26 displays the screen information transmitted from the server device 10.
  • the screen information means information related to the display screen.
  • the virtual terminal 11 of the server device 10 generates screen information and transmits it to the terminal device 20.
  • the screen information receiving unit 27 receives screen information from the server device 10.
  • the screen information receiving unit 27 may receive the compressed screen information from the server device 10.
  • the screen information receiving unit 27 decompresses the screen information and outputs it to the screen display unit 26.
  • the server device 10 includes virtual terminals 11_1 to 11_n (n is a natural number equal to or greater than 1), a database 12, an authentication server unit 13, an image receiving unit 14, a virtual terminal selecting unit 15, a decrypting unit 16, and a determining unit. 17, an image processing unit 18, and a screen information transmission unit 19.
  • FIG. 2 mainly describes modules related to the server device 10 according to the present embodiment.
  • Each module of the server device 10 may be realized by a computer program that causes the computer installed in the server device 10 to execute an operation on the server device 10 using its hardware.
  • the virtual terminals 11_1 to 11_n control the captured image output process. Specifically, each of the virtual terminals 11_1 to 11_n corresponds to at least one terminal device 20. Then, each of the virtual terminals 11_1 to 11_n controls the output process for the captured image generated by the corresponding terminal device 20.
  • the virtual terminals 11_1 to 11_n may store information in which the own virtual terminals 11_1 to 11_n are associated with the terminal identification information of the terminal device 20. Further, the virtual terminals 11_1 to 11_n generate screen information to be displayed on the corresponding terminal device 20. In the following description, the screen information is simply referred to as a display screen. In the following description, the virtual terminals 11_1 to 11_n are referred to as virtual terminals 11 when it is not necessary to distinguish them.
  • the database 12 is extracted from one or more images and stores first image information corresponding to each image.
  • the database 12 stores the feature amount extracted from the image of the copyrighted work as the first image information corresponding to the image.
  • the database 12 stores information related to the image of the copyrighted work regarding the copyrighted work.
  • the authentication server unit 13 determines whether or not to authenticate a user who uses the terminal device 20. Specifically, the authentication server unit 13 determines whether or not to authenticate a user who uses the terminal device 20.
  • the authentication server unit 13 includes a storage unit (not shown) that stores user identification information and terminal identification information in association with each other. When authenticating user identification information, the authentication server unit 13 returns an authentication result and terminal identification information corresponding to the user identification information to the terminal device 20.
  • the image receiving unit 14 receives the encrypted captured image from the terminal device 20.
  • the virtual terminal selection unit 15 selects a virtual terminal based on terminal identification information associated with the captured image. Specifically, the virtual terminal selection unit 15 compares the terminal identification information associated with the captured image with the terminal identification information associated with the virtual terminals 11_1 to 11_n, and selects the virtual terminal 11.
  • the decrypting unit 16 decrypts the encrypted captured image.
  • the determination unit 17 determines whether or not the received captured image includes predetermined information (a predetermined subject or the like). Specifically, first, the determination unit 17 extracts second image information from the captured image decoded by the decoding unit 16. Here, it is assumed that the first image information extraction method and the second image information extraction method are the same. That is, the determination unit 17 uses the same method as the first image information extraction method to extract feature amounts as second image information from the captured image.
  • the determination unit 17 collates the first image information stored in the database 12 with the second image information included in the received captured image, and determines whether or not the captured image includes predetermined information. Judging. For example, the determination unit 17 may calculate a collation result between the first image information and the second image information as the evaluation value. Then, the determination unit 17 may determine that the captured image includes predetermined information when the calculated evaluation value exceeds a predetermined threshold. The determination unit 17 may determine that the captured image does not include predetermined information when the calculated evaluation value is equal to or less than a predetermined threshold.
  • the determination unit 17 determines that the captured image includes predetermined information based on a result of collation between the first image information and the second image information.
  • the database 12 stores the feature amount extracted from the image of the copyrighted work as the first image information. For this reason, when it is determined that the captured image includes predetermined information, it is estimated that the captured image includes a copyrighted work.
  • the image processing unit 18 executes predetermined processing including at least one of visibility reduction processing and output prevention processing of the captured image. That is, when the database 12 stores the first information extracted from the image of the literary work and it is determined that the photographed image includes the literary work, the image processing unit 18 performs a process for reducing the visibility of the photographed image and outputs it. A predetermined process including at least one of the prevention processes is executed.
  • the image processing unit 18 may perform processes such as masking the captured image and reducing the resolution as the process of reducing the visibility of the captured image. Further, the image processing unit 18 may delete the captured image as a process for preventing the output of the captured image. For example, when executing the masking process, the image processing unit 18 may fill the photographed image or the copyrighted work in the photographed image with one or two or more colors. Alternatively, when executing the masking process, the image processing unit 18 may fill the photographed image or the copyrighted work in the photographed image with a predetermined character, pattern, or the like. Note that the processing executed by the image processing unit 18 is not limited to the above processing as long as the visibility of the captured image can be reduced and / or the output can be prevented, and the details thereof are not limited.
  • the image processing unit 18 stores the captured image in the virtual terminal 11 selected by the virtual terminal selection unit 15 when the captured image exists after the above-described predetermined processing is performed on the captured image. That is, the image processing unit 18 stores the captured image in the virtual terminal 11 corresponding to the terminal device 20 that is the transmission source of the captured image. Here, it is assumed that the image processing unit 18 stores the captured image on which the visibility reduction processing or the like has been executed in the selected virtual terminal 11.
  • the image processing unit 18 stores the received captured image in the selected virtual terminal 11 when the predetermined processing is not performed on the captured image. It should be noted that the image processing unit 18 cannot save the photographed image when the photographed image is deleted.
  • the screen information transmission unit 19 transmits the screen information to the terminal device 20 that is the transmission source of the captured image. Specifically, the screen information transmission unit 19 acquires screen information from the virtual terminal 11 selected by the virtual terminal selection unit 15. Then, the screen information transmission unit 19 compresses the acquired screen information and packetizes it. Then, the screen information transmission unit 19 transmits the packetized screen information to the terminal device 20 that is the transmission source of the captured image via the network 30.
  • FIG. 3 is a diagram illustrating an example of the image processing system 1.
  • the image processing system 1 illustrated in FIG. 3 includes terminal devices 201 and 202 and a server device 10 including virtual terminals 11_1 and 11_2. Note that the internal configurations of the terminal devices 201 and 202 shown in FIG. 3 are the same as those of the terminal device 20 shown in FIG.
  • terminal identification information 301 (“terminal ID: 1000A”) is assigned to the terminal device 201. Also, in the image processing system 1 shown in FIG. 3, terminal identification information 310 (“terminal ID: 1000A”) is assigned to the virtual terminal 11_1. In the image processing system 1 illustrated in FIG. 3, terminal identification information 302 (“terminal ID: 2000B”) is assigned to the terminal device 202. Also, in the image processing system 1 shown in FIG. 3, terminal identification information 320 (“terminal ID: 2000B”) is assigned to the virtual terminal 11_2.
  • the photographing unit 21 of the terminal device 201 generates the photographed image 311.
  • the image transmission unit 25 of the terminal device 201 transmits data 313 in which the captured image 311 is associated with the terminal identification information 312 (“terminal ID: 1000A”) to the server device 10.
  • the virtual terminal selection unit 15 of the server device 10 compares the terminal identification information 312 associated with the captured image 311 with the terminal identification information 310 and 320 associated with the virtual terminals 11_1 and 11_2, and selects a virtual terminal. To do.
  • the terminal identification information 312 associated with the captured image 311 and the terminal identification information 310 associated with the virtual terminal 11_1 are “terminal ID: 1000A”. Therefore, the virtual terminal selection unit 15 selects the virtual terminal 11_1 as the virtual terminal 11 corresponding to the terminal device 201 that is the transmission source of the captured image 311. Then, the virtual terminal 11_1 controls output processing of the captured image 311 and the like.
  • the photographing unit 21 of the terminal device 202 generates a photographed image 321.
  • the image transmission unit 25 of the terminal device 202 transmits data 323 in which the captured image 321 is associated with the terminal identification information 322 (“terminal ID: 2000B”) to the server device 10.
  • the virtual terminal selection unit 15 of the server device 10 selects the virtual terminal 11_2 based on the terminal identification information 322 associated with the captured image 321.
  • the virtual terminal 11_2 controls output processing of the captured image 321 and the like.
  • the database 12 stores, as first image information, a feature amount extracted from an image of a copyrighted work.
  • FIG. 4 is a flowchart showing an example of the operation of the server device 10 and the terminal device 20.
  • step S ⁇ b> 1 the authentication client unit 24 of the terminal device 20 transmits an authentication request to the server device 10.
  • the authentication client unit 24 may transmit user identification information of a user who uses the terminal device 20 and an authentication request to the server device 10.
  • step S2 the authentication server unit 13 of the server device 10 executes an authentication process. For example, when receiving the user identification information, the authentication server unit 13 may determine whether to authenticate the user of the terminal device 20 based on the user identification information. Then, when authenticating the user of the terminal device 20, the authentication server unit 13 refers to the storage unit (not shown) of the server device based on the user identification information and searches for the terminal identification information of the terminal device 20. .
  • step S3 the authentication server unit 13 of the server device 10 transmits terminal identification information to the terminal device 20.
  • step S4 the authentication client unit 24 of the terminal device 20 receives the terminal identification information from the server device 10.
  • step S5 the photographing unit 21 of the terminal device 20 generates a photographed image. Specifically, the photographing unit 21 photographs a subject and generates a photographed image.
  • step S6 the encryption unit 22 of the terminal device 20 encrypts the captured image.
  • step S7 the encryption unit 22 associates terminal identification information with the captured image.
  • step S ⁇ b> 8 the encryption unit 22 stores the captured image associated with the terminal identification information in the temporary storage area 23 of the terminal device 20.
  • step S ⁇ b> 9 the image transmission unit 25 of the terminal device 20 transmits the captured image associated with the terminal identification information to the server device 10.
  • the image transmission unit 25 transmits the captured image and the terminal identification information to the server device 10.
  • the image transmission unit 25 connects the server device 10 and the terminal device 20. Later, the encrypted captured image or the like may be transmitted to the server device 10.
  • the image transmission unit 25 may try to connect the server device 10 and the terminal device 20.
  • the terminal device 20 may transmit an encrypted captured image or the like to the server device 10.
  • the terminal device 20 suspends transmission of a captured image or the like until the server device 10 and the terminal device 20 are connected based on a user operation. You may do it. Then, when the server device 10 and the terminal device 20 are connected based on a user operation, the terminal device 20 may transmit an encrypted captured image or the like to the server device 10.
  • step S10 the image receiving unit 14 of the server device 10 receives a captured image.
  • the image receiving unit 14 transmits a signal indicating completion of reception of the captured image to the terminal device 20 that is the transmission source of the captured image.
  • step S ⁇ b> 11 when the terminal device 20 receives a signal indicating completion of reception of the captured image, the image transmission unit 25 deletes the captured image from the temporary storage area 23 of the terminal device 20.
  • step S12 the decoding unit 16 of the server device 10 decodes the captured image. Specifically, the captured image received by the image receiving unit 14 of the server device 10 is an encrypted captured image. Therefore, the decryption unit 16 decrypts the encrypted captured image and restores the captured image generated by the capturing unit 21 of the terminal device 20.
  • step S13 the determination unit 17 of the server device 10 determines whether the captured image includes a copyrighted work. Specifically, the determination unit 17 extracts a feature amount (second image information) from the captured image. Then, the determination unit 17 collates the first image information extracted from the image of the copyrighted work with the second feature amount extracted from the photographed image. Then, the determination unit 17 determines whether or not the photographed image includes a pre-registered work based on the collation result.
  • there are various methods (algorithms) for collating the feature quantities extracted from the image but the details are not limited.
  • step S13 If the determination unit 17 determines that the captured image includes a copyrighted work (Yes branch of step S13), the process proceeds to step S14. On the other hand, when the determination unit 17 determines that the photographed image does not include a copyrighted work (No branch in step S13), the process proceeds to step S15.
  • step S14 the image processing unit 18 of the server apparatus 10 performs predetermined processing such as deletion of the captured image, masking, and resolution reduction on the captured image. And it changes to step S15.
  • the user may be able to determine (select) the content of the predetermined process in advance.
  • the terminal device 20 transmits the content of the process selected by the user and the user identification information to the server device 10.
  • the server device 10 may store the content of the process selected by the user and the user identification information in association with each other.
  • the image processing unit 18 of the server device 10 may specify the content of the process for the captured image based on the user identification information and execute the specified process for the captured image.
  • step S15 the virtual terminal selection unit 15 of the server device 10 searches for the virtual terminal 11. Specifically, the virtual terminal selection unit 15 identifies the corresponding virtual terminal 11 from the virtual terminals 11_1 to 11_n based on the terminal identification information associated with the captured image.
  • step S ⁇ b> 16 the image processing unit 18 of the server device 10 stores the captured image in the identified virtual terminal 11.
  • the image processing unit 18 stores the captured image on which the predetermined process has been performed in the identified virtual terminal 11.
  • the image processing unit 18 stores the captured image in the identified virtual terminal 11.
  • step 17 the virtual terminal 11 executes a captured image display process or the like in the virtual terminal 11.
  • the virtual terminal 11 generates screen information of the captured image.
  • the virtual terminal 11 may generate screen information of a captured image using an image display application program or the like executed in the virtual terminal 11.
  • step S14 when a predetermined process is performed on the captured image, the virtual terminal 11 generates screen information regarding the captured image on which the predetermined process is performed.
  • the virtual terminal 11 transmits the generated screen information to the corresponding terminal device 20.
  • the screen display unit 26 of the terminal device 20 displays the received screen information.
  • the image processing unit 18 of the server device 10 performs predetermined processing (deletion, masking, resolution reduction, etc.) on the captured image. Then, the screen display unit 26 displays a display screen in which deletion, masking, resolution reduction processing, and the like are performed on the captured image.
  • the server device 10 may notify the user that the captured image has been deleted or processed.
  • the server apparatus 10 notifies the user of the deletion or processing of the photographed image, it is preferable to automatically notify the user using an e-mail, a message, or the like without going through an artificial operation.
  • a gateway or the like on the network performs predetermined processing (deletion, masking, resolution reduction, etc.) on the captured image. You may do it. That is, the function (processing) of the server device 10 may be distributed to two or more devices.
  • the image processing system 1 when the captured image includes pre-registered image information (for example, a feature amount extracted from an image of a copyrighted work), the image processing system 1 according to the present embodiment applies to the captured image. , Visibility reduction processing, output prevention processing, and the like are executed. As a result, the image processing system 1 according to the present embodiment contributes to preventing publication of an image of a copyrighted work.
  • pre-registered image information for example, a feature amount extracted from an image of a copyrighted work
  • the server device 10 performs image processing on the captured image. Further, in the image processing system 1 according to the present embodiment, the server device 10 stores a captured image. That is, since the image processing system 1 according to the present embodiment is a so-called thin client system, the load on the terminal device 20 can be reduced. Therefore, the image processing system 1 according to the present embodiment contributes to appropriately managing captured images while reducing the load on the terminal device 20 used by the user.
  • each terminal device 20 and each virtual terminal 11 included in the server device 10 are associated with each other, and the virtual terminal 11 performs a captured image storage process, an output process, and the like. Control. That is, in the image processing system 1 according to the present embodiment, even when there are two or more terminal devices 20, different virtual terminals 11 control captured image storage processing, output processing, and the like. As a result, in the image processing system 1 according to the present embodiment, even when there are two or more terminal devices 20, the server device 10 controls the processing for each terminal device 20 independently. To contribute.
  • the terminal device 20 automatically transmits the captured image to the server device 10 after generating the captured image (that is, without user operation). Then, the server device 10 determines whether or not the received captured image includes a copyrighted work. Therefore, the image processing system 1 according to the present embodiment contributes to determining whether or not a literary work is reflected in a captured image easily and quickly.
  • the server device 10 determines whether or not the photographed image includes a copyrighted work. Therefore, the image processing system 1 according to the present embodiment contributes to preventing the determination of the presence or absence of a copyrighted work in a captured image from being avoided.
  • the captured image is not stored in the terminal device 20. Therefore, the image processing system 1 according to the present embodiment contributes to easily preventing the photographed image including the copyrighted work from being released by deleting the photographed image data in the server device 10.
  • This embodiment is a mode for determining whether or not to execute a predetermined process on a captured image based on position information.
  • the description of the same part as the above embodiment is omitted.
  • the same components as those of the above-described embodiment are denoted by the same reference numerals, and the description thereof is omitted.
  • the description of the same operational effects as those of the above-described embodiment is also omitted.
  • FIG. 5 is a block diagram showing an example of the overall configuration of the image processing system 1a according to the present embodiment. 2 is different from the image processing system 1a shown in FIG. 5 in that the terminal device 20a shown in FIG. In the following description, differences from the first embodiment will be described in detail.
  • terminal device 20a First, the terminal device 20a according to the present embodiment will be described in detail.
  • the position information acquisition unit 28 acquires position information. Specifically, when the shooting unit 21 generates a shot image, the position information acquisition unit 28 acquires position information. Here, it is assumed that the position information acquired by the position information acquisition unit 28 is a position where a captured image is generated (a position where a subject is captured). For example, when the terminal device 20a connects to the server device 10 via a wireless LAN (Local Area Network), the location information acquisition unit 28 may specify an access point of the wireless LAN as location information.
  • LAN Local Area Network
  • the image transmission unit 25a associates position information with the captured image and transmits the captured image to the server device 10a. Specifically, the image transmission unit 25a associates position information and terminal identification information with the captured image, and transmits the captured image to the server device 10a.
  • server device 10a Next, the server device 10a according to the present embodiment will be described in detail.
  • the image receiving unit 14a receives a captured image associated with position information from the terminal device 20a. Specifically, the image receiving unit 14a receives a captured image in which position information and terminal identification information are associated with each other from the terminal device 20a.
  • the determination unit 17a includes at least one of a visibility reduction process and an output prevention process for the captured image based on the position information associated with the captured image. It is determined whether or not to execute a predetermined process. Specifically, when the position information associated with the captured image satisfies a predetermined condition, the determination unit 17a performs a predetermined process on the captured image.
  • the determination unit 17a may determine that the photographed image is an image including a copyrighted work. Then, the determination unit 17a may perform a process for reducing the visibility of the photographed image, a process for preventing output, and the like on the photographed image including the copyrighted work.
  • FIG. 6 is a diagram illustrating an example of the image processing system 1a.
  • An image processing system 1a illustrated in FIG. 6 includes terminal devices 201a and 202a and a server device 10a including virtual terminals 11_1a and 11_2a. Note that the internal configurations of the terminal apparatuses 201a and 202a shown in FIG. 6 are the same as those of the terminal apparatus 20a described above.
  • terminal identification information 401 (“terminal ID: 1000A”) is assigned to the terminal device 201a. Further, in the image processing system 1a shown in FIG. 6, terminal identification information 410 (“terminal ID: 1000A”) is assigned to the virtual terminal 11_1a. Further, in the image processing system 1a shown in FIG. 6, terminal identification information 402 (“terminal ID: 2000B”) is assigned to the terminal device 202a. Further, in the image processing system 1a illustrated in FIG. 6, terminal identification information 420 (“terminal ID: 2000B”) is assigned to the virtual terminal 11_2a.
  • the imaging unit 21 of the terminal device 201a generates a captured image 411.
  • the position information acquisition unit 28 of the terminal device 201a acquires position information 413 indicating the shooting position of the shot image 411.
  • the image transmission unit 25 of the terminal device 201a transmits data 414 in which the captured image 411, the terminal identification information 412 and the position information 413 are associated with each other to the server device 10a.
  • the determination unit 17a of the server apparatus 10a determines whether or not to execute a predetermined process on the captured image 411 based on the position information 413 associated with the captured image 411. Then, the virtual terminal selection unit 15 of the server 10a selects the virtual terminal 11_1a based on the terminal identification information 412 associated with the captured image 411. Then, the virtual terminal 11_1a controls the output processing of the captured image 411 and the like.
  • the photographing unit 21 of the terminal device 202a generates a photographed image 421.
  • the position information acquisition unit 28 of the terminal device 202a acquires the position information 423 of the shooting position of the shot image 421.
  • the image transmission unit 25 of the terminal device 202a transmits data 424 in which the captured image 421, the terminal identification information 422, and the position information 423 are associated with each other to the server device 10a.
  • the determination unit 17a of the server device 10a determines whether or not to execute a predetermined process on the captured image 421 based on the position information 423.
  • the virtual terminal selection unit 15 of the server device 10a selects the virtual terminal 11_2a based on the terminal identification information 422.
  • the image processing system 1a according to the present embodiment determines whether or not to perform the process of reducing the visibility of the captured image, the process of preventing the output, or the like on the captured image according to the capturing position. To do. That is, the image processing system 1a according to the present embodiment determines whether or not the photographed image includes a copyrighted work that cannot be photographed according to the photographing position. For this reason, the image processing system 1a according to the present embodiment applies to a photographed image when the photographing position satisfies a predetermined condition even if it is unclear whether or not the photographed image includes a copyrighted work that cannot be photographed. The visibility reduction processing is executed. Therefore, the image processing system 1a according to the present embodiment contributes to more reliably preventing the publication of an image of a literary work.
  • the server device further includes a database that is extracted from one or more images and stores first image information corresponding to each image, and the determination unit includes the first image information. And the second image information included in the received captured image to determine whether or not the captured image includes the predetermined information.
  • the terminal device further includes an encryption unit for encrypting the captured image,
  • the image transmission unit transmits the captured image encrypted by the encryption unit to the server device, and when the server device receives the encrypted captured image, the encrypted captured image is transmitted.
  • the terminal device includes a temporary storage area for storing the captured image encrypted by the encryption unit, and the image transmission unit transmits the captured image encrypted by the encryption unit.
  • the image processing system according to mode 3 wherein the encrypted captured image is deleted from the temporary storage area.
  • Mode 5 The image processing system according to any one of modes 2 to 4, wherein the database stores a feature amount extracted from an image of a copyrighted work as the first image information.
  • the server device includes one or more virtual terminals corresponding to one or more of the terminal devices, and the virtual terminal controls output processing of the captured image.
  • the image processing system according to any one of the above.
  • the image transmission unit associates terminal identification information with the captured image and transmits the captured image to the server device, and the virtual terminal includes the own virtual terminal and the terminal identification information. Storing the associated information, and when receiving the captured image, the server device further includes a virtual terminal selection unit that selects the virtual terminal based on the terminal identification information associated with the captured image. And the image processing unit stores the captured image in the virtual terminal selected by the virtual terminal selection unit when the captured image exists after the predetermined processing is performed on the captured image.
  • the terminal device further includes a location information acquisition unit that acquires location information, and the image transmission unit associates the location information with the captured image and transmits the captured image to the server device. Then, the determination unit determines whether to execute the predetermined process on the captured image based on the position information associated with the captured image.

Abstract

画像処理システムは、1又は2以上の端末装置と、端末装置と接続するサーバ装置と、を含む。画像処理システムにおいて、端末装置は、被写体を撮影し、撮影画像を生成する、撮影部と、撮影部が撮影画像を生成した場合、当該撮影画像をサーバ装置に送信する、画像送信部と、を備え、画像送信部は、撮影画像をサーバ装置に送信した場合、当該撮影画像を当該端末装置から削除し、サーバ装置は、受信した撮影画像が所定の情報を含むか否かを判断する、判断部と、受信した撮影画像が所定の情報を含む場合、撮影画像の視認性の低減処理、出力の防止処理の少なくともいずれかを含む、所定の処理を実行する、画像加工部と、を備える。

Description

画像処理システム、サーバ装置、サーバ装置の制御方法、及びプログラム
[関連出願についての記載]
 本発明は、日本国特許出願:特願2015-114741号(2015年6月5日出願)に基づくものであり、同出願の全記載内容は引用をもって本書に組み込み記載されているものとする。
 本発明は、画像処理システム、サーバ装置、サーバ装置の制御方法、及びプログラムに関する。
 近年、SNS(Social Networking Service)等の普及により、カメラで撮影した画像(撮影画像)を、ネットワークを介して、公開することが容易になっている。しかし、著作権の保護対象の著作物を含む撮影画像であっても、容易に保存、複製、公開等が可能であり、意図せず著作権侵害となる場合がある。
 特許文献1においては、原稿を読み取り、HDD(Hard Disk Drive)に蓄積する前に、原稿が紙幣、著作権保護の必要な文書等である場合、色変換、電子透かし合成等の処理を画像データに施す技術が記載されている。
 特許文献2においては、ネットワーク上のサイトにおいて閲覧可能な状態とされる、閲覧動画データを照合する技術が記載されている。特許文献2に記載された技術においては、複数の登録動画データが情報として登録された動画データベースを備える。そして、特許文献2に記載された技術においては、閲覧動画データと、動画データベースに登録された登録動画データとを照合する。そして、特許文献2に記載された技術においては、閲覧動画データが動画データベースに登録されていた場合、閲覧動画データに識別データを付加し、識別データが付加された閲覧動画データを削除する技術が記載されている。
特開2006-050082号公報 特開2009-070349号公報
 なお、上述先行技術文献の各開示を、本書に引用をもって繰り込むものとする。以下の分析は、本発明の観点からなされたものである。
 上述の通り、著作権侵害を防止するために、著作権の保護対象の著作物が、撮影画像に含まれるか否かを判断することが求められる。ここで、著作物の有無を判断するためには、判断対象の著作物を登録したデータベースを、予め準備する必要がある。しかし、著作権の保護対象の著作物は多様である。そのため、判断対象の著作物の種類が増加するほど、判断対象の著作物を登録した、データベースのサイズは増大する。また、データベースのサイズが増大するほど、著作物の有無を判断する処理の負荷は増大する。
 特許文献1に記載された技術では、判断対象を紙幣等に限定しており、多様な著作物に対応することについては、一切記載及び示唆されていない。さらに、特許文献1に記載された技術を用いて、多様な著作物に対応する場合、ユーザが使用する画像処理装置の負荷が増大する。
 特許文献2に記載された技術は、著作物を含む画像の公開を防止するための技術である。しかし、特許文献2に記載された技術では、著作物を含む撮影画像を、ユーザが使用する情報処理装置(PC(Personal Computer)等)に保存、複製することは防止できない。
 そこで、本発明は、ユーザが使用する端末装置の負荷を低減させた状態で、適切に撮影画像を管理することに貢献する画像処理システム、サーバ装置、サーバ装置の制御方法、及びプログラムを提供することを目的とする。
 第1の視点によれば、画像処理システムが提供される。該画像処理システムは、1又は2以上の端末装置と、前記端末装置と接続するサーバ装置と、を含む。
 該端末装置は、被写体を撮影し、撮影画像を生成する、撮影部を備える。
 さらに、該端末装置は、前記撮影部が前記撮影画像を生成した場合、当該撮影画像を前記サーバ装置に送信する、画像送信部を備える。前記画像送信部は、前記撮影画像を前記サーバ装置に送信した場合、当該撮影画像を当該端末装置から削除する。
 該サーバ装置は、受信した前記撮影画像が所定の情報を含むか否かを判断する、判断部を備える。
 さらに、該サーバ装置は、受信した前記撮影画像が所定の情報を含む場合、前記撮影画像の視認性の低減処理、出力の防止処理の少なくともいずれかを含む、所定の処理を実行する、画像加工部を備える。
 第2の視点によれば、サーバ装置が提供される。該サーバ装置は、端末装置から画像を受信する、画像受信部を備える。
 さらに、該サーバ装置は、受信した前記画像が所定の情報を含むか否かを判断する、判断部を備える。
 さらに、該サーバ装置は、受信した前記画像が所定の情報を含む場合、前記画像の視認性の低減処理、出力の防止処理の少なくともいずれかを含む、所定の処理を実行する、画像加工部を備える。
 第3の視点によれば、サーバ装置の制御方法が提供される。該サーバ装置は、端末装置から画像を受信する、画像受信部を備える。該制御方法は、受信した前記画像が所定の情報を含むか否かを判断する工程を含む。
 さらに、該制御方法は、受信した前記画像が所定の情報を含む場合、前記画像の視認性の低減処理、出力の防止処理の少なくともいずれかを含む、所定の処理を実行する工程を含む。
 なお、本方法は、1又は2以上の端末装置と接続するサーバ装置という、特定の機械に結び付けられている。
 第4の視点によれば、サーバ装置を制御するコンピュータに実行させるプログラムが提供される。該サーバ装置は、端末装置から画像を受信する、画像受信部を備える。該プログラムは、受信した前記画像が所定の情報を含むか否かを判断する処理を該コンピュータに実行させる。
 さらに、該プログラムは、受信した前記画像が所定の情報を含む場合、前記画像の視認性の低減処理、出力の防止処理の少なくともいずれかを含む、所定の処理を実行する処理を該コンピュータに実行させる。
 なお、該プログラムは、コンピュータが読み取り可能な記憶媒体に記録することができる。記憶媒体は、半導体メモリ、ハードディスク、磁気記録媒体、光記録媒体等の非トランジェント(non-transient)なものとすることができる。本発明は、コンピュータプログラム製品として具現することも可能である。
 各視点によれば、ユーザが使用する端末装置の負荷を低減させた状態で、適切に撮影画像を管理することに貢献する画像処理システム、サーバ装置、サーバ装置の制御方法、及びプログラムが提供される。
一実施形態の概要を説明するための図である。 第1の実施形態に係る画像処理システム1の全体構成の一例を示す図である。 第1の実施形態に係る画像処理システム1の一例を示す図である。 サーバ装置10及び端末装置20の動作の一例を示すフローチャートである。 第2の実施形態に係る画像処理システム1aの全体構成の一例を示す図である。 第2の実施形態に係る画像処理システム1aの一例を示す図である。
 初めに、図1を用いて一実施形態の概要について説明する。なお、この概要に付記した図面参照符号は、理解を助けるための一例として各要素に便宜上付記したものであり、この概要の記載はなんらの限定を意図するものではない。
 上述の通り、ユーザが使用する端末装置の負荷を低減させた状態で、適切に撮影画像を管理することに貢献する画像処理システムが望まれる。
 そこで、図1に示す画像処理システム1000を提供する。画像処理システム1000は、1又は2以上の端末装置1010と、端末装置1010と接続するサーバ装置1020と、を含む。端末装置1010は、撮影部1011と、画像送信部1012とを備える。また、サーバ装置1020は、判断部1021と、画像加工部1022とを備える。なお、図1においては、2以上の端末装置1010、及び2以上撮影画像1001に同一の符号を付すが、これは、2以上の端末装置1010、及び2以上の撮影画像1001が同一であることを示す趣旨ではない。各端末装置1010、及び各撮影画像1001は、夫々、独立しているものとする。
 端末装置1010は、ユーザが操作する情報処理装置である。一方、サーバ装置1020は、端末装置1010より処理能力が高い情報処理装置である。
 端末装置1010の撮影部1011は、被写体を撮影し、撮影画像(撮影画像データ)1001を生成する。ここで、撮影画像1001とは、静止画、及び/又は動画であるものとする。また、画像のデータフォーマットは各種あるが、その詳細は問わない。なお、以下の説明では、撮影画像データを、単に撮影画像とも呼ぶ。
 端末装置1010の画像送信部1012は、撮影部1011が撮影画像1001を生成した場合、当該撮影画像1001をサーバ装置1020に送信する。そして、画像送信部1012は、撮影画像1001をサーバ装置1020に送信した場合、当該撮影画像1001を当該端末1010から削除する。つまり、端末装置1010は、生成した撮影画像1001を、当該端末装置1010の記憶領域(図示せず)に保存しない。
 サーバ装置1020は、端末装置1010と接続し、端末装置1010から撮影画像を受信する。そして、サーバ装置1020の判断部1021は、端末装置1010から撮影画像1001を受信した場合、受信した撮影画像1001が所定の情報を含むか否かを判断する。例えば、特定の被写体(著作権の保護対象の著作物等)が撮影画像に含まれるか否かを、判断部1021は判断しても良い。なお、以下の説明において、著作物とは、著作権の保護対象の著作物を意味するものとする。
 サーバ装置1020の画像加工部1022は、受信した撮影画像1001が所定の情報を含む場合、撮影画像1001の視認性の低減処理、出力の防止処理の少なくともいずれかを含む、所定の処理を実行する。例えば、画像加工部1022は、著作物等が撮影画像に含まれる場合、撮影画像の視認性を低減させる処理(例えば、解像度を低減させる処理)等を実行しても良い。
 以上の通り、サーバ装置1020が、撮影画像における著作物の有無を判断する処理を実行する。そのため、画像処理システム1000は、ユーザが使用する端末装置1010の負荷を低減することに貢献する。さらに、画像処理システム1000においては、端末装置1010は撮影画像を端末装置1010から削除する。そして、サーバ装置1020は、所定の情報(所定の被写体等)を含む画像の保存、複製、公開を抑制するように、当該画像を加工する。従って、画像処理システム1000は、ユーザが使用する端末装置1010の負荷を低減させた状態で、適切に撮影画像1001を管理することに貢献する。
[第1の実施形態]
 第1の実施形態について、図面を用いてより詳細に説明する。
 図2は、本実施形態に係る画像処理システム1の全体構成の一例を示すブロック図である。画像処理システム1は、サーバ装置10と、1又は2以上の端末装置20とを含んで構成される。サーバ装置10と、各端末装置20とは、ネットワーク30を介して接続する。なお、図2においては、1つの端末装置20を示すが、これは、端末装置20の数を限定する趣旨ではない。
 ネットワーク30は、電話回線、携帯電話回線、Wi-Fi(Wireless Fidelity)等を用いても良い。ネットワーク30の実現方法には、各種の方式があるがその詳細は問わない。画像処理システム1の実現形態に応じて、ネットワーク30の方式は異なるものとする。
 サーバ装置10は、ネットワーク30に接続し、1又は2以上の仮想端末11_1~11_n(nは1以上の自然数)を備える情報処理装置である。サーバ装置10は、本書で説明する機能を実現できれば、その詳細は問わない。
 端末装置20は、ユーザが操作し、撮影機能(カメラ)を備える情報処理装置である。例えば、端末装置20は、スマートフォン、携帯電話、デジタルカメラ、タブレット、ゲーム機、PDA(Personal Digital Assistant)等であっても良い。端末装置20は、本書で説明する機能を実現できれば、その詳細は問わない。
 次に、端末装置20の内部構成について詳細に説明する。
 端末装置20は、撮影部21と、暗号化部22と、一時保存領域23と、認証クライアント部24と、画像送信部25と、画面表示部26と、画面情報受信部27とを含んで構成される。図2は、簡単のため、本実施形態に係る端末装置20に関係するモジュールを主に記載する。
 端末装置20の各モジュールは、端末装置20に搭載されたコンピュータに、そのハードウェアを用いて、端末装置20に動作を実行させるコンピュータプログラムにより実現しても良い。
 撮影部(カメラ)21は、被写体を撮影し、撮影画像を生成する。撮影部21は、レンズ、撮像素子(図示せず)等を含んで構成される。撮影部21は、生成した撮影画像を、暗号化部22に対して出力する。
 撮影部21は、撮影画像として、静止画を生成しても良い。撮影部21が、撮影画像として、静止画を生成する場合、撮影画像のデータフォーマットは、JPEG(Joint Photographic Experts Group)形式、RAW形式等であっても良く、データフォーマットの詳細は問わない。
 または、撮影部21は、撮影画像として、動画を生成しても良い。撮影部21が、撮影画像として、動画を生成する場合、撮影画像のデータフォーマットは、MPEG(Moving Picture Experts Group)形式、MOV形式、AVI形式等であっても良く、データフォーマットの詳細は問わない。
 暗号化部22は、撮影部21が生成した撮影画像を暗号化する。そして、暗号化部22は、暗号化された撮影画像に、端末識別情報を対応付ける。ここで、端末識別情報とは、端末装置20を識別するための情報であり、文字、数字、記号等を含んで構成される。以下の説明では、端末識別情報を、端末IDとも表記する。
 そして、暗号化部22は、端末識別情報が対応付けられ、暗号化された撮影画像を、一時保存領域23に保存する。端末装置20がHDD(Hard Disk Drive)等、ストレージ装置を備える場合であっても、端末装置20は、撮影画像をストレージ装置等に保存しない。また端末装置20は、暗号化されていない撮影画像を一時保存領域23に保存しない。
 認証クライアント部24は、ネットワーク30を介して、サーバ装置10に対して、端末装置20を使用するユーザの認証を要求する。例えば、認証クライアント部24は、ネットワーク30を介して、サーバ装置10に対して、端末装置20を使用するユーザを識別する情報(以下、ユーザ識別情報と呼ぶ)を送信しても良い。ここで、ユーザ識別情報は、端末装置20を識別するための情報であり、文字、数字、記号のうち、少なくともいずれかを含んで構成されても良い。そして、認証クライアント部24は、ネットワーク30を介して、端末装置20を使用するユーザの認証の可否を、サーバ装置10から受信する。
 画像送信部25は、撮影画像をサーバ装置10に送信する。具体的には、画像送信部25は、暗号化部22が暗号化した撮影画像をサーバ装置10に送信する。より具体的には、画像送信部25は、暗号化された撮影画像に端末識別情報を対応付けて、当該撮影画像をサーバ装置10に送信する。
 また、画像送信部25は、撮影画像をサーバ装置10に送信した場合、当該撮影画像を端末装置20から削除する。具体的には、画像送信部25は、暗号化部22が暗号化した撮影画像をサーバ装置10に送信した場合、暗号化された撮影画像を、一時保存領域23から削除する。
 または、サーバ装置10は、撮影画像を受信した場合、撮影画像の送信元の端末装置20に、受信完了の信号を送信しても良い。そして、画像送信部25は、サーバ装置10から、撮影画像の受信完了の信号を受信した場合、暗号化された撮影画像を、一時保存領域23から削除しても良い。
 画面表示部26は、液晶パネル、有機EL(Electro Luminescence)パネル等を含んで構成され、ユーザが視認できるように、情報を表示する。具体的には、画面表示部26は、サーバ装置10から送信された画面情報を表示する。ここで、画面情報とは、表示画面に関する情報を意味する。本実施形態に係る画像処理システム1においては、サーバ装置10の仮想端末11が画面情報を生成し、端末装置20に送信する。
 画面情報受信部27は、サーバ装置10から画面情報を受信する。画面情報受信部27は、圧縮された画面情報を、サーバ装置10から受信しても良い。画面情報受信部27は、圧縮された画面情報を受信した場合、当該画面情報を解凍し、画面表示部26に対して出力する。
 次に、サーバ装置10の内部構成について詳細に説明する。
 サーバ装置10は、仮想端末11_1~11_n(nは1以上の自然数)と、データベース12と、認証サーバ部13と、画像受信部14と、仮想端末選択部15と、復号部16と、判断部17と、画像加工部18と、画面情報送信部19と、を含んで構成される。図2は、簡単のため、本実施形態に係るサーバ装置10に関係するモジュールを主に記載する。
 サーバ装置10の各モジュールは、サーバ装置10に搭載されたコンピュータに、そのハードウェアを用いて、サーバ装置10に動作を実行させるコンピュータプログラムにより実現しても良い。
 仮想端末11_1~11_nは、撮影画像の出力処理を制御する。具体的には、各仮想端末11_1~11_nは、少なくとも一の端末装置20に対応する。そして、各仮想端末11_1~11_nは、対応する端末装置20が生成する撮影画像に関して、出力処理を制御する。仮想端末11_1~11_nは、自仮想端末11_1~11_nと、端末装置20の端末識別情報と、を対応付けた情報を記憶しても良い。また、仮想端末11_1~11_nは、対応する端末装置20に表示させる、画面情報を生成する。以下の説明では、画面情報を、単に、表示画面と呼ぶ。また、以下の説明では、各仮想端末11_1~11_nを区別する必要がない場合、仮想端末11と呼ぶ。
 データベース12は、1又は2以上の画像から抽出され、当該各画像に対応する第1の画像情報を格納する。ここで、本実施形態に係る画像処理システム1においては、データベース12は、著作物の画像から抽出された特徴量を、当該画像に対応する第1の画像情報として格納する。以下の説明においては、データベース12は、著作権の保護対象の著作物に関して、当該著作物の画像に関する情報を格納するものとする。
 認証サーバ部13は、端末装置20を使用するユーザを認証するか否かを判断する。具体的には、認証サーバ部13は、端末装置20を使用するユーザを、認証するか否かを判断する。
 さらに、認証サーバ部13は、ユーザ識別情報と、端末識別情報とを対応付けて記憶する、記憶部(図示せず)を備える。認証サーバ部13は、ユーザ識別情報を認証する場合、認証結果と、当該ユーザ識別情報に対応する端末識別情報とを、端末装置20に返信する。
 画像受信部14は、暗号化された撮影画像を、端末装置20から受信する。
 仮想端末選択部15は、画像受信部14が撮影画像を受信した場合、撮影画像に対応付けられた端末識別情報に基づいて、仮想端末を選択する。具体的には、仮想端末選択部15は、撮影画像に対応付けられた端末識別情報と、仮想端末11_1~11_nに対応付けられた端末識別情報とを照合し、仮想端末11を選択する。
 復号部16は、画像受信部14が暗号化された撮影画像を受信した場合、当該暗号化された撮影画像を復号する。
 判断部17は、受信した撮影画像が、所定の情報(所定の被写体等)を含むか否かを判断する。具体的には、まず、判断部17は、復号部16が復号した撮影画像から、第2の画像情報を抽出する。ここで、第1の画像情報の抽出方法と、第2の画像情報の抽出方法とが、同一であるものとする。つまり、判断部17は、第1の画像情報の抽出方法と同一の方法を用いて、撮影画像から、第2の画像情報として、特徴量を抽出する。
 そして、判断部17は、データベース12に格納される第1の画像情報と、受信した撮影画像に含まれる第2の画像情報と、を照合し、当該撮影画像が所定の情報を含むか否かを判断する。例えば、判断部17は、第1の画像情報と、第2の画像情報との照合結果を、評価値として算出しても良い。そして、判断部17は、算出した評価値が所定の閾値を越える場合、当該撮影画像が所定の情報を含むと判断しても良い。また、判断部17は、算出した評価値が所定の閾値以下である場合、当該撮影画像が所定の情報を含まないと判断しても良い。
 ここで、判断部17は、第1の画像情報と、第2の画像情報との照合結果に基づいて、撮影画像が所定の情報を含むと判断したとする。そして、上述の通り、データベース12は、著作物の画像から抽出された特徴量を、第1の画像情報として格納するとする。そのため、撮影画像が所定の情報を含むと判断された場合、撮影画像は著作物を含むことが推定される。
 画像加工部18は、受信した撮影画像が所定の情報を含む場合、撮影画像の視認性の低減処理、出力の防止処理の少なくともいずれかを含む、所定の処理を実行する。つまり、データベース12が著作物の画像から抽出された第1の情報を格納し、撮影画像が著作物を含むと判断された場合、画像加工部18は、撮影画像の視認性の低減処理、出力の防止処理の少なくともいずれかを含む、所定の処理を実行する。
 例えば、画像加工部18は、撮影画像の視認性の低減処理として、当該撮影画像をマスキング、解像度の低減等の処理を実行しても良い。また、画像加工部18は、撮影画像の出力の防止処理として、当該撮影画像を削除しても良い。例えば、画像加工部18は、マスキング処理を実行する場合、1又は2以上の色で、撮影画像、又は撮影画像内の著作物を塗り潰しても良い。または、画像加工部18は、マスキング処理を実行する場合、所定の文字、模様等で、撮影画像、又は撮影画像内の著作物を塗り潰しても良い。なお、撮影画像の視認性を低減可能、及び/又は出力を防止可能であれば、画像加工部18が実行する処理は、上記の処理に限定されず、その詳細は問わない。
 そして、画像加工部18は、撮影画像に上記の所定の処理を実行後に、撮影画像が存在する場合、仮想端末選択部15が選択した仮想端末11に、当該撮影画像を保存する。つまり、画像加工部18は、撮影画像の送信元の端末装置20に対応する、仮想端末11に、当該撮影画像を保存する。ここで、画像加工部18は、視認性の低減処理等が実行された撮影画像を、選択された仮想端末11に保存するものとする。
 また、画像加工部18は、撮影画像に上記の所定の処理を実行しない場合、受信した撮影画像を、選択された仮想端末11に保存する。なお、画像加工部18は、撮影画像を削除した場合、撮影画像を保存不可であることは勿論である。
 画面情報送信部19は、撮影画像の送信元の端末装置20に、画面情報を送信する。具体的には、画面情報送信部19は、仮想端末選択部15が選択した仮想端末11から、画面情報を取得する。そして、画面情報送信部19は、取得した画面情報を圧縮し、パケット化する。そして、画面情報送信部19は、ネットワーク30を介して、当該パケット化した画面情報を、撮影画像の送信元の端末装置20に送信する。
 図3は、画像処理システム1の一例を示す図である。図3に示す画像処理システム1は、端末装置201、202と、仮想端末11_1、11_2を備えるサーバ装置10とを含んで構成される。なお、図3に示す端末装置201、202の内部構成は、図2に示す端末装置20と同一であるものとする。
 図3に示す画像処理システム1において、端末識別情報301(「端末ID:1000A」)が、端末装置201に割り当てられている。また、図3に示す画像処理システム1において、端末識別情報310(「端末ID:1000A」)が、仮想端末11_1に割り当てられている。また、図3に示す画像処理システム1において、端末識別情報302(「端末ID:2000B」)が、端末装置202に割り当てられている。また、図3に示す画像処理システム1において、端末識別情報320(「端末ID:2000B」)が、仮想端末11_2に割り当てられている。
 例えば、端末装置201の撮影部21が、撮影画像311を生成したとする。その場合、端末装置201の画像送信部25は、撮影画像311と、端末識別情報312(「端末ID:1000A」)とを対応付けたデータ313を、サーバ装置10に送信する。
 サーバ装置10の仮想端末選択部15は、撮影画像311に対応付けられた端末識別情報312と、仮想端末11_1、11_2に対応付けられた端末識別情報310、320とを照合し、仮想端末を選択する。ここで、撮影画像311に対応付けられた端末識別情報312と、仮想端末11_1に対応付けられた端末識別情報310とが、「端末ID:1000A」である。そのため、仮想端末選択部15は、撮影画像311の送信元である端末装置201に対応する仮想端末11として、仮想端末11_1を選択する。そして、仮想端末11_1は、撮影画像311の出力処理等を制御する。
 また、端末装置202の撮影部21が、撮影画像321を生成したとする。その場合、端末装置202の画像送信部25は、撮影画像321と、端末識別情報322(「端末ID:2000B」)とを対応付けたデータ323を、サーバ装置10に送信する。そして、サーバ装置10の仮想端末選択部15は、撮影画像321に対応付けられた端末識別情報322に基づいて、仮想端末11_2を選択する。そして、仮想端末11_2は、撮影画像321の出力処理等を制御する。
 次に、サーバ装置10、及び端末装置20の動作について説明する。なお、以下の説明においては、データベース12は、著作権の保護対象の著作物の画像から抽出された特徴量を、第1の画像情報として格納するものとする。
 図4は、サーバ装置10、及び端末装置20の動作の一例を示すフローチャートである。
 ステップS1において、端末装置20の認証クライアント部24は、認証要求をサーバ装置10に送信する。例えば、認証クライアント部24は、端末装置20を使用するユーザのユーザ識別情報と、認証要求とをサーバ装置10に送信しても良い。
 ステップS2において、サーバ装置10の認証サーバ部13は、認証処理を実行する。例えば、認証サーバ部13は、ユーザ識別情報を受信した場合、当該ユーザ識別情報に基づいて、端末装置20のユーザを認証するか否かを判断しても良い。そして、認証サーバ部13は、端末装置20のユーザを認証する場合、ユーザ識別情報に基づいて、サーバ装置の記憶部(図示せず)を参照し、当該端末装置20の端末識別情報を検索する。
 ステップS3において、サーバ装置10の認証サーバ部13は、端末装置20に、端末識別情報を送信する。
 ステップS4において、端末装置20の認証クライアント部24は、サーバ装置10から、端末識別情報を受信する。
 ステップS5において、端末装置20の撮影部21は、撮影画像を生成する。具体的には、撮影部21は、被写体を撮影し、撮影画像を生成する。
 ステップS6において、端末装置20の暗号化部22は、撮影画像を暗号化する。ステップS7において、暗号化部22は、撮影画像に端末識別情報を対応付ける。ステップS8において、暗号化部22は、端末識別情報を対応付けた撮影画像を、端末装置20の一時保存領域23に保存する。
 ステップS9において、端末装置20の画像送信部25は、サーバ装置10に、端末識別情報を対応づけた撮影画像を送信する。ここで、画像送信部25は、撮影画像と、端末識別情報とを、サーバ装置10に送信する。
 なお、暗号化部22が一時保存領域23に撮影画像を保存した時に、サーバ装置10と端末装置20とが接続されていない場合、画像送信部25は、サーバ装置10と端末装置20とが接続後に、暗号化された撮影画像等をサーバ装置10に、送信しても良い。
 例えば、サーバ装置10と端末装置20とが接続されていない場合、画像送信部25は、サーバ装置10と端末装置20との接続を試みても良い。そして、サーバ装置10と端末装置20とが接続に成功した場合、端末装置20は、暗号化された撮影画像等をサーバ装置10に、送信しても良い。
 または、サーバ装置10と端末装置20とが接続されていない場合、ユーザの操作に基づいて、サーバ装置10と端末装置20とが接続されるまで、端末装置20は、撮影画像等の送信を保留しても良い。そして、ユーザの操作に基づいて、サーバ装置10と端末装置20とが接続された場合、端末装置20は、暗号化された撮影画像等をサーバ装置10に、送信しても良い。
 ステップS10において、サーバ装置10の画像受信部14は、撮影画像を受信する。画像受信部14は、撮影画像の受信完了の信号を、撮影画像の送信元の端末装置20に送信する。ステップS11において、端末装置20が、撮影画像の受信完了の信号を受信した場合、画像送信部25は、当該端末装置20の一時保存領域23から、撮影画像を削除する。
 ステップS12において、サーバ装置10の復号部16は、撮影画像を復号する。具体的には、サーバ装置10の画像受信部14が受信する撮影画像は、暗号化された撮影画像である。そこで、復号部16は、暗号化された撮影画像を復号し、端末装置20の撮影部21が生成した撮影画像に復元する。
 ステップS13において、撮影画像が著作物を含むか否かを、サーバ装置10の判断部17は判断する。具体的には、判断部17は、撮影画像から特徴量(第2の画像情報)を抽出する。そして、判断部17は、著作物の画像から抽出された第1の画像情報と、撮影画像から抽出された第2の特徴量とを照合する。そして、撮影画像が、予め登録された著作物を含むか否かを、判断部17は照合結果に基づいて判断する。ここで、画像から抽出された特徴量を照合する方法(アルゴリズム)は各種あるが、その詳細は問わない。
 撮影画像が著作物を含む、と判断部17が判断した場合(ステップS13のYes分岐)には、ステップS14に遷移する。一方、撮影画像が著作物を含まない、と判断部17が判断した場合(ステップS13のNo分岐)には、ステップS15に遷移する。
 ステップS14において、サーバ装置10の画像加工部18は、撮影画像の削除、マスキング、解像度の低減等、所定の処理を撮影画像に実行する。そして、ステップS15に遷移する。
 ここで、端末装置20において、ユーザが予め、当該所定の処理の内容を決定(選択)可能であっても良い。その場合、端末装置20は、ユーザによって選択された処理の内容と、ユーザ識別情報とをサーバ装置10に送信する。そして、サーバ装置10は、ユーザによって選択された処理の内容と、ユーザ識別情報とを対応付けて記憶しても良い。そして、サーバ装置10の画像加工部18は、ユーザ識別情報に基づいて、撮影画像に対する処理の内容を特定し、撮影画像に対して、特定された処理を実行しても良い。
 ステップS15において、サーバ装置10の仮想端末選択部15は、仮想端末11を検索する。具体的には、仮想端末選択部15は、仮想端末11_1~11_nから、撮影画像に対応付けられた端末識別情報に基づいて、対応する仮想端末11を特定する。
 ステップS16において、サーバ装置10の画像加工部18は、特定された仮想端末11に、撮影画像を保存する。ここで、ステップS14において、撮影画像に対して所定の処理を実行した場合、画像加工部18は、当該所定の処理が実行された撮影画像を、特定された仮想端末11に保存する。また、ステップS14において、撮影画像に対して所定の処理を実行していない場合には、画像加工部18は、特定された仮想端末11に、当該撮影画像を保存する。
 ステップ17において、仮想端末11は、当該仮想端末11内で、撮影画像の表示処理等を実行する。仮想端末11は、撮影画像の画面情報を生成する。例えば、仮想端末11は、当該仮想端末11内で実行される、画像表示のアプリケーションプログラム等を用いて、撮影画像の画面情報を生成しても良い。ステップS14において、撮影画像に対して所定の処理を実行した場合、仮想端末11は、当該所定の処理が実行された撮影画像に関して、画面情報を生成する。
 そして、仮想端末11は、対応する端末装置20に、生成した画面情報を送信する。ステップS18において、端末装置20の画面表示部26は、受信した画面情報を表示する。
 ここで、撮影画像が著作物を含む場合には、サーバ装置10の画像加工部18は、当該撮影画像に対して所定の処理(削除、マスキング、解像度の低減等)を実行する。そして、画面表示部26は、撮影画像に対して、削除、マスキング、解像度の低減処理等が実行された表示画面を表示する。
 なお、サーバ装置10の画像加工部18が撮影画像に対して所定の処理を実行した場合、サーバ装置10は、撮影画像が削除、又は加工されたことを、ユーザに通知しても良い。サーバ装置10が、撮影画像の削除、又は加工を、ユーザに通知する場合、電子メール、メッセージ等を用いて、人為的な操作を介さずに、自動的に通知することが好ましい。
 [変形例1]
 本実施形態に係る画像処理システム1の変形例1として、サーバ装置10に替えて、ネットワーク上のゲートウェイ等が、撮影画像に対して、所定の処理(削除、マスキング、解像度の低減等)を実行しても良い。つまり、上記のサーバ装置10の機能(処理)を2以上の装置等に分散させても良い。
 以上のように、本実施形態に係る画像処理システム1は、撮影画像が、予め登録された画像情報(例えば、著作物の画像から抽出された特徴量)を含む場合、当該撮影画像に対して、視認性の低減処理、出力の防止処理等を実行する。その結果、本実施形態に係る画像処理システム1は、著作物の画像等が公開されることを防止することに貢献する。
 また、本実施形態に係る画像処理システム1においては、サーバ装置10が撮影画像に対して、画像処理を実行する。また、本実施形態に係る画像処理システム1においては、サーバ装置10が撮影画像を保存する。つまり、本実施形態に係る画像処理システム1は、所謂、シンクライアントシステムであるため、端末装置20の負荷を低減できる。従って、本実施形態に係る画像処理システム1は、ユーザが使用する端末装置20の負荷を低減させた状態で、適切に撮影画像を管理することに貢献する。
 また、本実施形態に係る画像処理システム1においては、各端末装置20と、サーバ装置10が備える各仮想端末11と、を対応付けて、仮想端末11が撮影画像の保存処理、出力処理等を制御する。つまり、本実施形態に係る画像処理システム1は、2以上の端末装置20が存在する場合であっても、異なる仮想端末11が撮影画像の保存処理、出力処理等を制御する。その結果、本実施形態に係る画像処理システム1は、2以上の端末装置20が存在する場合であっても、サーバ装置10が、各端末装置20に対する処理を、夫々、独立させて制御することに貢献する。
 また、本実施形態に係る画像処理システム1においては、端末装置20は、撮影画像を生成後、自動的に(即ち、ユーザの操作を介さずに)、サーバ装置10に撮影画像を送信する。そして、サーバ装置10は、受信した撮影画像が、著作物を含むか否かを判断する。そのため、本実施形態に係る画像処理システム1は、容易かつ迅速に、撮影画像に著作物が写っているか否かを判断することに貢献する。
 また、本実施形態に係る画像処理システム1においては、撮影画像が著作物を含むか否かを、サーバ装置10が判断する。そのため、本実施形態に係る画像処理システム1は、撮影画像内の著作物の有無を判断することが、回避されることを防止することに貢献する。
 また、本実施形態に係る画像処理システム1においては、端末装置20に撮影画像を保存しない。そのため、本実施形態に係る画像処理システム1は、サーバ装置10内の撮影画像データを削除することで、著作物を含む撮影画像が公開されることを容易に防止することに貢献する。
[第2の実施形態]
 次に、第2の実施形態について、図面を用いて詳細に説明する。
 本実施形態は、位置情報に基づいて、撮影画像に対して所定の処理を実行するか否か判断する形態である。なお、本実施形態における説明では、上記の実施形態と重複する部分の説明は省略する。さらに、本実施形態における説明では、上記の実施形態と同一の構成要素には、同一の符号を付し、その説明を省略する。また、本実施形態における説明では、上記の実施形態と同一の作用効果についても、その説明を省略する。
 図5は、本実施形態に係る画像処理システム1aの全体構成の一例を示すブロック図である。図2に示す画像処理システム1と、図5に示す画像処理システム1aとの相違点は、図5に示す端末装置20aが位置情報取得部28を含んで構成される点である。以下の説明では、第1の実施形態と相違する点について詳細に説明する。
 まず、本実施形態に係る端末装置20aについて詳細に説明する。
 位置情報取得部28は、位置情報を取得する。具体的には、撮影部21が撮影画像を生成した場合、位置情報取得部28は位置情報を取得する。ここで、位置情報取得部28が取得する位置情報は、撮影画像が生成された位置(被写体が撮影された位置)であるものとする。例えば、端末装置20aが無線LAN(Local Area Network)を介してサーバ装置10に接続する場合、位置情報取得部28は、無線LANのアクセスポイントを、位置情報として特定しても良い。
 本実施形態に係る画像送信部25aは、撮影画像に位置情報を対応付けて、当該撮影画像をサーバ装置10aに送信する。具体的には、画像送信部25aは、撮影画像に、位置情報と端末識別情報とを対応付けて、撮影画像をサーバ装置10aに送信する。
 次に、本実施形態に係るサーバ装置10aについて詳細に説明する。
 本実施形態に係る画像受信部14aは、位置情報が対応付けられた撮影画像を、端末装置20aから受信する。具体的には、画像受信部14aは、位置情報と端末識別情報とが対応付けられた、撮影画像を端末装置20aから受信する。
 本実施形態に係る判断部17aは、撮影画像に対応付けられた位置情報に基づいて、当該撮影画像に対して、撮影画像の視認性の低減処理、出力の防止処理の少なくともいずれかを含む、所定の処理を実行するか否かを判断する。具体的には、撮影画像に対応付けられた位置情報が、所定の条件を満たす場合、判断部17aは、当該撮影画像に対して所定の処理を実行する。
 例えば、撮影画像に対応付けられた位置情報が、美術館の敷地内であることを示す場合、当該撮影画像が著作物を含む画像である、と判断部17aは判断しても良い。そして、判断部17aは、著作物を含む撮影画像に対して、撮影画像の視認性の低減処理、出力の防止処理等を実行しても良い。
 図6は、画像処理システム1aの一例を示す図である。図6に示す画像処理システム1aは、端末装置201a、202aと、仮想端末11_1a、11_2aを備えるサーバ装置10aとを含んで構成される。なお、図6に示す端末装置201a、202aの内部構成は、上述の端末装置20aと同一であるものする。
 図6に示す画像処理システム1aにおいて、端末識別情報401(「端末ID:1000A」)が、端末装置201aに割り当てられている。また、図6に示す画像処理システム1aにおいて、端末識別情報410(「端末ID:1000A」)が仮想端末11_1aに割り当てられている。また、図6に示す画像処理システム1aにおいて、端末識別情報402(「端末ID:2000B」)が端末装置202aに割り当てられている。また、図6に示す画像処理システム1aにおいて、端末識別情報420(「端末ID:2000B」)が、仮想端末11_2aに割り当てられている。
 例えば、端末装置201aの撮影部21が撮影画像411を生成したとする。その場合、端末装置201aの位置情報取得部28は、撮影画像411の撮影位置を示す、位置情報413を取得する。そして、端末装置201aの画像送信部25は、撮影画像411と、端末識別情報412と、位置情報413とを対応付けたデータ414を、サーバ装置10aに送信する。
 サーバ装置10aの判断部17aは、撮影画像411に対応付けられた位置情報413に基づいて、撮影画像411に所定の処理を実行するか否かを判断する。そして、サーバ10aの仮想端末選択部15は、撮影画像411に対応付けられた端末識別情報412に基づいて、仮想端末11_1aを選択する。そして、仮想端末11_1aは、撮影画像411の出力処理等を制御する。
 また、端末装置202aの撮影部21が撮影画像421を生成したとする。その場合、端末装置202aの位置情報取得部28は、撮影画像421の撮影位置の位置情報423を取得する。そして、端末装置202aの画像送信部25は、撮影画像421と、端末識別情報422と、位置情報423とを対応付けたデータ424を、サーバ装置10aに送信する。そして、サーバ装置10aの判断部17aは、位置情報423に基づいて、撮影画像421に所定の処理を実行するか否かを判断する。そして、サーバ装置10aの仮想端末選択部15は、端末識別情報422に基づいて、仮想端末11_2aを選択する。
 以上のように、本実施形態に係る画像処理システム1aは、撮影位置に応じて、撮影画像に対して、撮影画像の視認性の低減処理、出力の防止処理等を実行するか否かを判断する。つまり、本実施形態に係る画像処理システム1aは、撮影画像が撮影不可の著作物を含むか否かを、撮影位置に応じて判断する。そのため、本実施形態に係る画像処理システム1aは、撮影画像に撮影不可の著作物が含まれるか否かが、不明確であっても、撮影位置が所定の条件を満たす場合、撮影画像に対して視認性の低減処理等を実行する。そのため、本実施形態に係る画像処理システム1aは、著作物の画像が公開されることを、より一層確実に防止することに貢献する。
 上述の実施形態の一部又は全部は、以下の形態のようにも記載され得るが、以下には限られない。
 (形態1)上記第1の視点に係る画像処理システムの通りである。
 (形態2)前記サーバ装置は、1又は2以上の画像から抽出され、当該各画像に対応する第1の画像情報を格納する、データベースをさらに備え、前記判断部は、前記第1の画像情報と、前記受信した撮影画像に含まれる第2の画像情報と、を照合し、当該撮影画像が前記所定の情報を含むか否かを判断する、形態1に記載の画像処理システム。
 (形態3)前記端末装置は、前記撮影画像を暗号化する、暗号化部をさらに備え、
 前記画像送信部は、前記暗号化部が暗号化した前記撮影画像を、前記サーバ装置に送信し、前記サーバ装置は、暗号化された前記撮影画像を受信した場合、当該暗号化された撮影画像を復号する、復号部をさらに備え、前記判断部は、前記復号部が復号した前記撮影画像から、前記第2の画像情報を抽出する、形態2に記載の画像処理システム。
 (形態4)前記端末装置は、前記暗号化部が暗号化した前記撮影画像を保存する、一時保存領域を備え、前記画像送信部は、前記暗号化部が暗号化した前記撮影画像を送信した場合、当該暗号化された前記撮影画像を、前記一時保存領域から削除する、形態3に記載の画像処理システム。
 (形態5)前記データベースは、著作物の画像から抽出された特徴量を、前記第1の画像情報として格納する、形態2乃至4のいずれか一に記載の画像処理システム。
 (形態6)前記サーバ装置は、1又は2以上の前記端末装置に対応する、1又は2以上の仮想端末を備え、前記仮想端末は、前記撮影画像の出力処理を制御する、形態1乃至5のいずれか一に記載の画像処理システム。
 (形態7)前記画像送信部は、前記撮影画像に、端末識別情報を対応付けて、当該撮影画像を前記サーバ装置に送信し、前記仮想端末は、自仮想端末と、端末識別情報と、を対応付けた情報を記憶し、前記サーバ装置は、前記撮影画像を受信した場合、当該撮影画像に対応付けられた前記端末識別情報に基づいて、前記仮想端末を選択する、仮想端末選択部をさらに備え、前記画像加工部は、前記撮影画像に前記所定の処理を実行後に、前記撮影画像が存在する場合、前記仮想端末選択部が選択した前記仮想端末に、当該撮影画像を保存する、形態6に記載の画像処理システム。
 (形態8)前記端末装置は、位置情報を取得する、位置情報取得部をさらに備え、前記画像送信部は、前記撮影画像に前記位置情報を対応付けて、当該撮影画像を前記サーバ装置に送信し、前記判断部は、前記撮影画像に対応付けられた前記位置情報に基づいて、当該撮影画像に対して前記所定の処理を実行するか否かを判断する、形態1乃至7のいずれか一に記載の画像処理システム。
 (形態9)上記第2の視点に係るサーバ装置の通りである。
 (形態10)上記第3の視点に係るサーバ装置の制御方法の通りである。
 (形態11)上記第4の視点に係るプログラムの通りである。
 なお、上記の形態9乃至11に示す形態は、形態1に示す形態と同様に、形態2乃至8に示す形態に展開することが可能である。
 なお、上記の特許文献の各開示を、本書に引用をもって繰り込むものとする。本発明の全開示(請求の範囲を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態の変更・調整が可能である。また、本発明の全開示の枠内において種々の開示要素(各請求項の各要素、各実施形態の各要素、各図面の各要素等を含む)の多様な組み合わせ、ないし、選択が可能である。すなわち、本発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。特に、本書に記載した数値範囲については、当該範囲内に含まれる任意の数値ないし小範囲が、別段の記載のない場合でも具体的に記載されているものと解釈されるべきである。
1、1a、1000 画像処理システム
10、10a、1020 サーバ装置
11_1~11_n、11_2、11_1a、11_2a 仮想端末
12 データベース
13 認証サーバ部
14、14a 画像受信部
15 仮想端末選択部
16 復号部
17、17a、1021 判断部
18、1022 画像加工部
19 画面情報送信部
20、20a、201、201a、202、202a、1010 端末装置
21、1011 撮影部
22 暗号化部
23 一時保存領域
24 認証クライアント部
25、25a、1012 画像送信部
26 画面表示部
27 画面情報受信部
28 位置情報取得部
30 ネットワーク
301、302、310、312、320、322、401、402、410、412、420、422 端末識別情報
311、321、411、421、1001 撮影画像
313、323、414、424 データ
413、423 位置情報

Claims (10)

  1.  1又は2以上の端末装置と、前記端末装置と接続するサーバ装置と、を含む画像処理システムであって、
     前記端末装置は、
     被写体を撮影し、撮影画像を生成する、撮影部と、
     前記撮影部が前記撮影画像を生成した場合、当該撮影画像を前記サーバ装置に送信する、画像送信部と、
     を備え、
     前記画像送信部は、前記撮影画像を前記サーバ装置に送信した場合、当該撮影画像を当該端末装置から削除し、
     前記サーバ装置は、
     受信した前記撮影画像が所定の情報を含むか否かを判断する、判断部と、
     受信した前記撮影画像が所定の情報を含む場合、前記撮影画像の視認性の低減処理、出力の防止処理の少なくともいずれかを含む、所定の処理を実行する、画像加工部と、
     を備える画像処理システム。
  2.  前記サーバ装置は、
     1又は2以上の画像から抽出され、当該各画像に対応する第1の画像情報を格納する、データベースをさらに備え、
     前記判断部は、前記第1の画像情報と、前記受信した撮影画像に含まれる第2の画像情報と、を照合し、当該撮影画像が前記所定の情報を含むか否かを判断する、請求項1に記載の画像処理システム。
  3.  前記端末装置は、
     前記撮影画像を暗号化する、暗号化部をさらに備え、
     前記画像送信部は、前記暗号化部が暗号化した前記撮影画像を、前記サーバ装置に送信し、
     前記サーバ装置は、
     暗号化された前記撮影画像を受信した場合、当該暗号化された撮影画像を復号する、復号部をさらに備え、
     前記判断部は、前記復号部が復号した前記撮影画像から、前記第2の画像情報を抽出する、請求項2に記載の画像処理システム。
  4.  前記端末装置は、前記暗号化部が暗号化した前記撮影画像を保存する、一時保存領域を備え、
     前記画像送信部は、前記暗号化部が暗号化した前記撮影画像を送信した場合、当該暗号化された前記撮影画像を、前記一時保存領域から削除する、請求項3に記載の画像処理システム。
  5.  前記サーバ装置は、1又は2以上の前記端末装置に対応する、1又は2以上の仮想端末を備え、
     前記仮想端末は、前記撮影画像の出力処理を制御する、請求項1乃至4のいずれか一に記載の画像処理システム。
  6.  前記画像送信部は、前記撮影画像に端末識別情報を対応付けて、当該撮影画像を前記サーバ装置に送信し、
     前記仮想端末は、自仮想端末と、端末識別情報と、を対応付けた情報を記憶し、
     前記サーバ装置は、
     前記撮影画像を受信した場合、当該撮影画像に対応付けられた前記端末識別情報に基づいて、前記仮想端末を選択する、仮想端末選択部をさらに備え、
     前記画像加工部は、前記撮影画像に前記所定の処理を実行後に、前記撮影画像が存在する場合、前記仮想端末選択部が選択した前記仮想端末に、当該撮影画像を保存する、請求項5に記載の画像処理システム。
  7.  前記端末装置は、
     位置情報を取得する、位置情報取得部をさらに備え、
     前記画像送信部は、前記撮影画像に前記位置情報を対応付けて、当該撮影画像を前記サーバ装置に送信し、
     前記判断部は、前記撮影画像に対応付けられた前記位置情報に基づいて、当該撮影画像に対して前記所定の処理を実行するか否かを判断する、請求項1乃至6のいずれか一に記載の画像処理システム。
  8.  端末装置から画像を受信する、画像受信部と、
     受信した前記画像が所定の情報を含むか否かを判断する、判断部と、
     受信した前記画像が所定の情報を含む場合、前記画像の視認性の低減処理、出力の防止処理の少なくともいずれかを含む、所定の処理を実行する、画像加工部と、
     を備えるサーバ装置。
  9.  端末装置から画像を受信する、画像受信部を備えるサーバ装置の制御方法であって、
     受信した前記画像が所定の情報を含むか否かを判断する工程と、
     受信した前記画像が所定の情報を含む場合、前記画像の視認性の低減処理、出力の防止処理の少なくともいずれかを含む、所定の処理を実行する工程と、
     を含むサーバ装置の制御方法。
  10.  端末装置から画像を受信する、画像受信部を備えるサーバ装置を制御するコンピュータに実行させるプログラムであって、
     受信した前記画像が所定の情報を含むか否かを判断する処理と、
     受信した前記画像が所定の情報を含む場合、前記画像の視認性の低減処理、出力の防止処理の少なくともいずれかを含む、所定の処理を実行する処理と、
     を、前記コンピュータに実行させるプログラム。
PCT/JP2016/066546 2015-06-05 2016-06-03 画像処理システム、サーバ装置、サーバ装置の制御方法、及びプログラム WO2016195060A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017522271A JPWO2016195060A1 (ja) 2015-06-05 2016-06-03 画像処理システム、サーバ装置、サーバ装置の制御方法、及びプログラム
US15/579,068 US20180173858A1 (en) 2015-06-05 2016-06-03 Image processing system, server apparatus, controlling method thereof, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-114741 2015-06-05
JP2015114741 2015-06-05

Publications (1)

Publication Number Publication Date
WO2016195060A1 true WO2016195060A1 (ja) 2016-12-08

Family

ID=57440591

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/066546 WO2016195060A1 (ja) 2015-06-05 2016-06-03 画像処理システム、サーバ装置、サーバ装置の制御方法、及びプログラム

Country Status (3)

Country Link
US (1) US20180173858A1 (ja)
JP (1) JPWO2016195060A1 (ja)
WO (1) WO2016195060A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007299171A (ja) * 2006-04-28 2007-11-15 Fujifilm Corp 画像管理サーバ
JP2008172651A (ja) * 2007-01-15 2008-07-24 Dainippon Printing Co Ltd 撮影画像管理システム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7619657B2 (en) * 2000-10-04 2009-11-17 Fujifilm Corp. Recording apparatus, communications apparatus, recording system, communications system, and methods therefor for setting the recording function of the recording apparatus in a restricted state
US7702821B2 (en) * 2005-09-15 2010-04-20 Eye-Fi, Inc. Content-aware digital media storage device and methods of using the same
US20070153091A1 (en) * 2005-12-29 2007-07-05 John Watlington Methods and apparatus for providing privacy in a communication system
JP4281097B2 (ja) * 2007-09-12 2009-06-17 香椎子 小舘 動画データの照合システム
US7987140B2 (en) * 2008-02-26 2011-07-26 International Business Machines Corporation Digital rights management of captured content based on criteria regulating a combination of elements
US8413256B2 (en) * 2008-08-26 2013-04-02 Cox Communications, Inc. Content protection and digital rights management (DRM)

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007299171A (ja) * 2006-04-28 2007-11-15 Fujifilm Corp 画像管理サーバ
JP2008172651A (ja) * 2007-01-15 2008-07-24 Dainippon Printing Co Ltd 撮影画像管理システム

Also Published As

Publication number Publication date
JPWO2016195060A1 (ja) 2018-05-24
US20180173858A1 (en) 2018-06-21

Similar Documents

Publication Publication Date Title
US10075618B2 (en) Security feature for digital imaging
JP4931924B2 (ja) メディアデータ処理装置及びメディアデータ処理方法
US9189060B2 (en) Method of controlling information processing apparatus and information processing apparatus
AU2018409900B2 (en) Providing security to mobile devices via image evaluation operations that electronically analyze image data received from cameras of the mobile devices
CN103282925A (zh) 在上载到因特网网站的多媒体中保护用户隐私的系统和方法
US10165178B2 (en) Image file management system and imaging device with tag information in a communication network
CN102970307B (zh) 密码安全系统和密码安全方法
US10339283B2 (en) System and method for creating, processing, and distributing images that serve as portals enabling communication with persons who have interacted with the images
WO2016188154A1 (zh) 图像处理方法及装置
WO2015170409A1 (ja) 撮像装置及び撮像システム
EP3043285B1 (en) Method and electronic device for managing data
JP5931032B2 (ja) 文書管理サーバー及びプログラム並びに文書閲覧システム及びプログラム
JP6277868B2 (ja) ドキュメント管理システム、ドキュメント再現装置、ドキュメント管理方法、およびコンピュータプログラム
JPWO2017026356A1 (ja) 画像処理装置、画像処理方法およびプログラム
JP2007233796A (ja) データ保護システムおよびデータ保護システムのデータ保護方法
WO2020049958A1 (ja) 情報処理システム、情報処理方法、端末装置および情報処理装置
JP2015041319A (ja) データ管理装置、データ管理方法、及びプログラム
US20090268056A1 (en) Digital camera with portrait image protecting function and portrait image protecting method thereof
US20210383029A1 (en) Information processing program, information processing device, and information processing method
CN111400768A (zh) 基于人脸和行为识别的加密分享平台及加密分享方法
JP6471698B2 (ja) 情報処理装置、情報処理方法、プログラム、及びサーバ
KR101846163B1 (ko) 공유 정보를 보호하는 방법 및 시스템
WO2016195060A1 (ja) 画像処理システム、サーバ装置、サーバ装置の制御方法、及びプログラム
JP6288109B2 (ja) カメラ端末装置、シンクライアントサーバ装置、カメラシステム、および制御方法
JP2005286823A (ja) 画像入力装置、通信システム、制御方法、コンピュータプログラム及び記憶媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16803491

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15579068

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2017522271

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16803491

Country of ref document: EP

Kind code of ref document: A1