WO2024070328A1 - 情報作成方法、画像ファイル、情報作成装置、及びプログラム - Google Patents

情報作成方法、画像ファイル、情報作成装置、及びプログラム Download PDF

Info

Publication number
WO2024070328A1
WO2024070328A1 PCT/JP2023/029986 JP2023029986W WO2024070328A1 WO 2024070328 A1 WO2024070328 A1 WO 2024070328A1 JP 2023029986 W JP2023029986 W JP 2023029986W WO 2024070328 A1 WO2024070328 A1 WO 2024070328A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
encrypted
image file
image
image data
Prior art date
Application number
PCT/JP2023/029986
Other languages
English (en)
French (fr)
Inventor
潤 小林
啓 山路
俊輝 小林
祐也 西尾
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Publication of WO2024070328A1 publication Critical patent/WO2024070328A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/64Protecting data integrity, e.g. using checksums, certificates or signatures

Definitions

  • the technology disclosed herein relates to an information creation method, an image file, an information creation device, and a program.
  • JP2006-345450A discloses an image verification system having an imaging device that applies anti-tampering processing to an image file including a captured image and its associated information, and an image verification device that verifies that the image file has not been tampered with.
  • the imaging device has a user interface providing means that provides a user interface for allowing a user to select items of the associated information to be subject to anti-tampering processing, an encryption means that creates encrypted associated information by encrypting the associated information selected by the user interface, and an addition means that adds the encrypted associated information to the image file to create an added image file.
  • the image verification device has a decryption means that decrypts the encrypted associated information to create decrypted associated information, and a comparison means that compares each item of the decrypted associated information with each corresponding item of the associated information.
  • JP 2009-225229 A discloses an imaging device having an imaging element that captures an image of a subject and outputs image data, and a condition acquisition means that acquires the shooting conditions at the time of shooting.
  • the imaging device described in JP 2009-225229 A has a generation section that generates first shooting information and second shooting information that is more detailed than the first shooting information based on the shooting conditions acquired by the condition acquisition means, a conversion section that converts the second shooting information into encrypted third shooting information, and a means for generating an image file in which the first shooting information and the third shooting information are added to the image data, and recording the image file on a recording medium.
  • JP2016-122917A discloses a signature generation device.
  • the signature generation device described in JP2016-122917A has a data acquisition unit that acquires multiple pieces of data including first data that are related to each other, and a signature generation unit that generates first signature data for the first data and correlation information based on the first data, correlation information indicating the correlation between the multiple pieces of data, and a signature key.
  • One embodiment of the technology disclosed herein provides an information creation method, an image file, an information creation device, and a program that can improve the security of related information that is related to image data.
  • a first aspect of the technology disclosed herein is an information creation method that includes an acquisition step of acquiring related information related to image data, an encryption step of generating first encrypted information by encrypting the related information, and an attachment step of directly or indirectly attaching additional information to the image data, where the additional information includes the first encrypted information, and timing information regarding the time when the first encrypted information was generated, or reliability information.
  • a second aspect of the technology disclosed herein is an image file that includes incidental information of image data, the incidental information including first encrypted information obtained by encrypting associated information related to the image data, and timing information regarding the time when the first encrypted information was generated, or reliability information.
  • a third aspect of the technology disclosed herein is an information creation device that includes a processor, which acquires related information related to image data, generates first encrypted information by encrypting the related information, and directly or indirectly attaches additional information to the image data, where the additional information includes the first encrypted information, and timing information related to when the first encrypted information was generated, or reliability information.
  • a fourth aspect of the technology disclosed herein is a program for causing a computer to execute a process, the process including an acquisition step of acquiring related information related to image data, an encryption step of generating first encrypted information by encrypting the related information, and an attachment step of directly or indirectly attaching additional information to the image data, the additional information including the first encrypted information and timing information regarding the time when the first encrypted information was generated, or reliability information.
  • FIG. 1 is a conceptual diagram showing an example of an embodiment in which an imaging device is used.
  • FIG. 2 is a conceptual diagram showing an example of a relationship between an imaging device and a receiving device.
  • 2 is a block diagram showing an example of a hardware configuration and main functions of an electrical system of the imaging apparatus;
  • 2 is a block diagram showing an example of a hardware configuration and main functions of an electrical system of a receiving device;
  • 1 is a conceptual diagram showing an example of the correlation between an image sensor, a distance measurement sensor, an electronic compass, a NVM, a GNSS device, a network, and an acquisition unit.
  • 11 is a conceptual diagram illustrating an example of a correlation between an acquisition unit and an association unit.
  • FIG. 13 is a conceptual diagram illustrating an example of the correlation between the NVM, an association unit, and an encryption unit.
  • FIG. 13 is a conceptual diagram showing an example of processing contents when metadata is directly attached to image data.
  • FIG. 13 is a conceptual diagram showing an example of processing contents when metadata is indirectly attached to image data.
  • FIG. 2 is a conceptual diagram showing an example of correlation between a transmitting unit and a receiving unit.
  • FIG. 13 is a conceptual diagram illustrating an example of the correlation between a receiving unit and a generating unit.
  • 10 is a conceptual diagram showing an example of the correlation between a receiving unit, a generating unit, and a comparing unit.
  • 10 is a conceptual diagram showing an example of the correlation between a receiving unit, a comparing unit, and an executing unit.
  • FIG. 10 is a flowchart showing an example of the flow of an image file creation process according to the first embodiment.
  • 10 is a flowchart showing an example of the flow of an image file receiving process according to the first embodiment.
  • FIG. 11 is a functional block diagram showing an example of functions of a processor included in an imaging device according to a second embodiment.
  • 1 is a conceptual diagram showing an example of the correlation between a UI device, a network, an acquisition unit, and an editing unit.
  • 11 is a conceptual diagram illustrating an example of a correlation between an acquisition unit and an association unit.
  • FIG. FIG. 13 is a conceptual diagram illustrating an example of the correlation between the NVM, an association unit, and an encryption unit.
  • 10 is a flowchart showing an example of the flow of an image file creation process according to the second embodiment.
  • FIG. 13 is a conceptual diagram showing a modified example of the second association information.
  • FIG. 2 is a conceptual diagram showing an example of the relationship between an imaging device, an editing device, and a receiving device.
  • 1 is a conceptual diagram showing an example of the correlation between an association unit, an encryption unit, a transmission unit, an attachment unit, a network, and a storage device.
  • 13A and 13B are conceptual diagrams showing modified examples of the contents of metadata included in an image file.
  • FIG. 13 is a conceptual diagram showing an example of processing content of a comparison unit.
  • FIG. 13 is a conceptual diagram showing a modified example of the first association information.
  • 13 is a conceptual diagram showing an example of a process performed by an encryption unit to generate fourth association information.
  • FIG. 13 is a conceptual diagram showing an example of a process performed by an encryption unit to generate fifth association information.
  • FIG. 11 is a conceptual diagram showing an example of a form in which an image file creation process is performed by an external device in response to a request from an imaging device, and the processing result is received by the imaging device.
  • an imaging device 10 captures an image of an imaging target area 12 designated as a subject.
  • the imaging target area 12 is determined by an angle of view designated by a user of the imaging device 10 (hereinafter referred to as "user").
  • the imaging target area 12 includes a plurality of people, a road, etc.
  • the imaging device 10 is an example of an "information creation device" according to the technology of the present disclosure.
  • the imaging device 10 generates an image file 16 by capturing an image of the imaging target area 12 according to instructions given by the photographer 14.
  • Examples of the file format of the image file 16 include JPEG (Joint Photographic Experts Group) and TIFF (Tag Image File Format).
  • the image file 16 includes image data 18 that indicates an image showing the imaging target area 12, and metadata 20 about the image data 18.
  • the metadata 20 is data that accompanies the image data 18.
  • An example of the format of the metadata 20 is EXIF (Exchangeable image file format).
  • image file 16 is an example of an "image file” according to the technology of the present disclosure.
  • Image data 18 is an example of “image data” according to the technology of the present disclosure.
  • metadata 20 is an example of "accompanying information” according to the technology of the present disclosure.
  • the imaging device 10 is a consumer digital camera. Examples of consumer digital cameras include interchangeable lens digital cameras and fixed lens digital cameras. A consumer digital camera is merely one example, and the imaging device 10 may also be an industrial digital camera.
  • the technology disclosed herein may also be used when the imaging device 10 is an imaging device mounted on various electronic devices such as a drive recorder, a smart device, a wearable terminal, a cell observation device, an ophthalmic observation device, or a surgical microscope.
  • the technology disclosed herein may also be used when the imaging device 10 is an imaging device mounted on various modalities such as an endoscope device, an ultrasound diagnostic device, an X-ray imaging device, a CT (Computed Tomography) device, or an MRI (Magnetic Resonance Imaging) device.
  • the image file 16 is sent from the photographer 14 to a receiving site 22.
  • a receiving device 24 is installed at the receiving site 22.
  • An example of the receiving device 24 is a personal computer.
  • the receiving device 24 is used by a recipient 26 at the receiving site 22.
  • the recipient 26 receives the image file 16 sent from the photographer 14 via the receiving device 24.
  • the receiving device 24 may also be a smart device, a server, etc.
  • the image file 16 is transferred via a network 28.
  • Examples of the network 28 include a WAN (Wide Area Network) or a LAN (Local Area Network).
  • the imaging device 10 and the receiving device 24 are communicatively connected to the network 28.
  • the imaging device 10 may be connected to the network 28 wirelessly or wired, and the same can be said for the receiving device 24.
  • the imaging device 10 may also be connected to the network 28 via a communication device such as a smart device, and the same can be said for the receiving device 24.
  • the image file 16 is transferred via the network 28, but this is merely one example.
  • the image file 16 may be transferred via a portable storage medium such as a Universal Serial Bus (USB) memory, or the imaging device 10 may be directly connected to the receiving device 24, and the image file 16 may be transferred from the imaging device 10 to the receiving device 24.
  • USB Universal Serial Bus
  • the recipient 26 When the recipient 26 at the receiving site 22 receives the image file 16 from the photographer 14, the recipient 26 refers to the metadata 20 included in the received image file 16 and uses the receiving device 24 or the like to perform some kind of processing (e.g., editing, etc.) on the image file 16 or manages the image file 16.
  • some kind of processing e.g., editing, etc.
  • the recipient 26 if, for example, the whole or part of the metadata 20 is altered by a person (hereinafter referred to as a "third party") not intended by the photographer 14, or if part of the metadata 20 is deleted by a third party, the recipient 26 will end up performing some kind of processing on the image file 16 or managing the image file 16 using metadata 20 that is not intended by the photographer 14. To avoid such a situation, it is important that the photographer 14 provides the recipient 26 with highly reliable metadata 20.
  • the imaging device 10 performs an image file creation process (see, for example, Figures 3 and 13), and the receiving device 24 performs an image file receiving process (see, for example, Figures 4 and 14). This will be explained in more detail below.
  • the imaging device 10 includes a computer 30, an image sensor 32, a UI (User Interface) device 34, an electronic compass 36, a distance measurement sensor 38, a GNSS (Global Navigation Satellite System) device 39, and a communication I/F (Interface) 40.
  • the computer 30 is an example of a "computer" related to the technology disclosed herein.
  • Computer 30 includes a processor 42, a non-volatile memory (NVM) 44, and a random access memory (RAM) 46.
  • NVM non-volatile memory
  • RAM random access memory
  • Processor 42, NVM 44, and RAM 46 are connected to a bus 48.
  • Processor 42 is an example of a "processor" according to the technology disclosed herein.
  • Processor 42 is a processing device including a DSP (Digital Signal Processor), a CPU (Central Processing Unit), and a GPU (Graphics Processing Unit), and the DSP and GPU operate under the control of the CPU and are responsible for executing image-related processing.
  • a processing device including a DSP, a CPU, and a GPU is given as an example of processor 42, but this is merely one example, and processor 42 may be one or more CPUs and one or more GPUs, one or more CPUs and DSPs with integrated GPU functionality, one or more CPUs and DSPs without integrated GPU functionality, or may be equipped with a TPU (Tensor Processing Unit).
  • NVM 44 is a non-volatile storage device that stores various programs and various parameters.
  • NVM 44 is a flash memory (such as an EEPROM (Electrically Erasable and Programmable Read Only Memory)).
  • RAM 46 is a memory that temporarily stores information, and is used as a work memory by processor 42.
  • An example of RAM 46 is a DRAM (Dynamic Random Access Memory) or an SRAM (Static Random Access Memory).
  • the image sensor 32 is connected to the bus 48.
  • An example of the image sensor 32 is a CMOS (Complementary Metal Oxide Semiconductor) image sensor.
  • the image sensor 32 generates image data 18 by capturing an image of the imaging target area 12 (see FIG. 1) under the control of the processor 42.
  • CMOS image sensor is given as an example of the image sensor 32, but this is merely one example, and the image sensor 32 may be other types of image sensors, such as a CCD (Charge Coupled Device) image sensor.
  • CCD Charge Coupled Device
  • the UI device 34 is connected to the bus 48.
  • the UI device 34 receives instructions from the photographer 14 (see Figures 1 and 2) and outputs a signal indicating the received instructions to the processor 42.
  • the UI device 34 also presents various information to the photographer 14 under the control of the processor 42.
  • the presentation of various information is realized, for example, by displaying the various information on a display or outputting the various information as sound from a speaker.
  • the electronic compass 36 detects the direction of the imaging direction of the imaging device 10 (e.g., the direction of the optical axis of the imaging lens attached to the imaging device 10) based on geomagnetism.
  • the distance measurement sensor 38 measures the imaging distance.
  • the imaging distance refers to the distance from the imaging device 10 (e.g., the light receiving surface of the image sensor 32) to the imaging target area 12 (e.g., a specific person included in the imaging target area 12 shown in FIG. 1).
  • a first example of the distance measurement sensor 38 is a distance measurement sensor using image surface phase difference pixels applied to the image sensor 32.
  • a second example of the distance measurement sensor 38 is a distance measurement sensor that uses multiple phase difference pixels and is provided in the imaging device 10 as a sensor separate from the image sensor 32.
  • a third example of the distance measurement sensor 38 is a TOF (Time Of Flight) type distance measurement sensor. In this way, the distance measurement sensor 38 may be any sensor that can measure the imaging distance.
  • TOF Time Of Flight
  • the GNSS device 39 receives radio waves transmitted from multiple satellites (not shown) and calculates the latitude and longitude that can identify the current position of the imaging device 10 based on the received radio waves.
  • the communication I/F 40 is an interface including a communication processor and an antenna, etc., and is connected to the bus 48.
  • the communication standard applied to the communication I/F 40 may be, for example, a wireless communication standard including 5G (5th Generation Mobile Communication System), Wi-Fi (registered trademark), Bluetooth (registered trademark), etc., or a wired communication standard including Ethernet (registered trademark), Fast Ethernet (registered trademark), Gigabit Ethernet (registered trademark), etc.
  • An image file creation program 50 is stored in NVM 44.
  • Image file creation program 50 is an example of a "program" according to the technology of the present disclosure.
  • Processor 42 reads image file creation program 50 from NVM 44 and executes the read image file creation program 50 on RAM 46 to perform image file creation processing.
  • the image file creation processing is realized by processor 42 operating as acquisition unit 42A, association unit 42B, encryption unit 42C, attachment unit 42D, and transmission unit 42E in accordance with image file creation program 50 executed by processor 42 on RAM 46.
  • the receiving device 24 includes a computer 52, a UI device 54, and a communication I/F 56.
  • the computer 52 includes a processor 58, an NVM 60, and a RAM 62.
  • the processor 58, the NVM 60, the RAM 62, the UI device 54, and the communication I/F 56 are connected to a bus 64.
  • the hardware configuration of the computer 52 (i.e., the processor 58, the NVM 60, and the RAM 62) is basically the same as the hardware configuration of the computer 30 shown in FIG. 3, so a description of the hardware configuration of the computer 52 will be omitted here.
  • the role played by the UI-based device 54 in the receiving device 24 is basically the same as the role played by the UI-based device 34 in the imaging device 10 shown in FIG. 3, so a description of it will be omitted here.
  • the role played by the communication I/F 56 in the receiving device 24 is basically the same as the role played by the communication I/F 40 in the imaging device 10 shown in FIG. 3, so a description of it will be omitted here.
  • An image file receiving program 66 is stored in the NVM 60.
  • the processor 58 reads the image file receiving program 66 from the NVM 60 and executes the read image file receiving program 66 on the RAM 62 to perform the image file receiving process.
  • the image file receiving process is realized by the processor 58 operating as a receiving unit 58A, a generating unit 58B, a comparing unit 58C, and an executing unit 58D in accordance with the image file receiving program 66 executed on the RAM 62.
  • FIGS. 5 to 9 show an example of the processing contents of the acquisition unit 42A, association unit 42B, encryption unit 42C, attachment unit 42D, and transmission unit 42E in the imaging device 10.
  • the acquisition unit 42A executes an imaging process and an acquisition process.
  • the imaging process is a process of acquiring image data 18 obtained by imaging using the image sensor 32 from the image sensor 32.
  • the acquisition process is also a process of acquiring related information 68 related to the image data 18.
  • the imaging process is an example of an "imaging process” according to the technology of the present disclosure.
  • the acquisition process is also an example of an "acquisition process” according to the technology of the present disclosure.
  • the acquisition process is automatically executed after the image data 18 is acquired. That is, the acquisition process is automatically executed after the imaging process.
  • the acquisition unit 42A performs the imaging process and the acquisition process consecutively by synchronizing the end of the imaging process with the start of the acquisition process (for example, starting the acquisition process at the timing when the imaging process ends).
  • Imager information 68A is an example of "imager information” according to the technology of the present disclosure.
  • Image capture time information 68B is an example of "image capture time information” according to the technology of the present disclosure.
  • Image capture device position information 68C is an example of "image capture device position information” according to the technology of the present disclosure.
  • Subject position information 68D is an example of "subject position information” according to the technology of the present disclosure.
  • the photographer information 68A is information that can identify the person who captured the image using the imaging device 10 to obtain the image data 18, i.e., the photographer 14.
  • One example of the photographer information 68A is information that indicates the name of the photographer 14 (e.g., name or handle name, etc.).
  • the photographer information 68A is stored in the NVM 44, and is acquired from the NVM 44 by the acquisition unit 42A.
  • the acquisition unit 42A acquires the photographer information 68A from the NVM 44, but this is merely one example.
  • the photographer information 68A may be acquired by the acquisition unit 42A from a server or the like via the network 28, or the photographer information 68A may be manually input via the UI device 34 and acquired by the acquisition unit 42A.
  • the imaging time information 68B is information that indicates the time when imaging was performed using the imaging device 10 to obtain the image data 18.
  • the imaging time information 68B is acquired by the acquisition unit 42A via the network 28.
  • the imaging time information 68B is acquired by the acquisition unit 42A through the network 28, but this is merely one example.
  • the imaging time information 68B may be acquired by the acquisition unit 42A from a real-time clock built into the imaging device 10 or a real-time clock built into an external device (e.g., a smart device) connected to the imaging device 10, or imaging time information 68B manually input via the UI device 34 may be acquired by the acquisition unit 42A.
  • imaging time information 68B is given as information included in related information 68, but this is merely one example.
  • information included in related information 68 may be information indicating the time required for exposure performed by image sensor 32.
  • Information included in related information 68 may also be information indicating the time interval between frames.
  • Information included in related information 68 may also be information indicating the time when imaging to obtain a moving image was started.
  • Information included in related information 68 may also be information indicating the time when imaging to obtain a moving image was ended.
  • Information included in related information 68 may also be information indicating the time from when imaging to obtain a moving image was started to when it was ended. In this way, it is sufficient that information indicating the time related to imaging using imaging device 10 is included in related information 68.
  • the imaging device position information 68C is information indicating the position where the imaging device 10 captured the image to obtain the image data 18 (e.g., the position of the imaging device 10 at the time the image was captured), and is acquired from the GNSS device 39 by the acquisition unit 42A. That is, the GNSS device 39 calculates the latitude and longitude that can identify the current position of the imaging device 10, and information indicating the calculated latitude and longitude is acquired by the acquisition unit 42A as the imaging device position information 68C.
  • the imaging device position information 68C is acquired by the acquisition unit 42A from the GNSS device 39, but this is merely one example.
  • information indicating latitude and longitude manually input via the UI device 34 may be acquired by the acquisition unit 42A as the imaging device position information 68C.
  • information indicating latitude and longitude calculated by a GNSS device built into an external device (e.g., a smart device, etc.) connected to the imaging device 10 may be acquired by the acquisition unit 42A as the imaging device position information 68C.
  • the subject position information 68D is information indicating the position of the imaging target area 12 (here, as an example, the latitude and longitude of the imaging target area 12) and is calculated by the acquisition unit 42A.
  • the acquisition unit 42A calculates the subject position information 68D based on the imaging device position information 68C, distance information 70, and orientation information 72.
  • the distance information 70 is information indicating the imaging distance measured by the distance measurement sensor 38 and is acquired from the distance measurement sensor 38 by the acquisition unit 42A.
  • the orientation information 72 is information indicating the orientation detected by the electronic compass 36 and is acquired from the electronic compass 36 by the acquisition unit 42A.
  • subject position information 68D is calculated by the acquisition unit 42A
  • subject position information 68D manually input via the UI device 34 may be acquired by the acquisition unit 42A.
  • the imaging device position information 68C and the subject position information 68D contain unacceptable information 74.
  • the unacceptable information 74 is information indicating that modification and deletion are not permitted.
  • the unacceptable information 74 contained in the imaging device position information 68C is information indicating that modification and deletion of the imaging device position information 68C is not permitted
  • the unacceptable information 74 contained in the subject position information 68D is information indicating that modification and deletion of the subject position information 68D is not permitted.
  • the image capturer 14 or the recipient 26 can determine whether the information is not permitted to be modified or deleted by checking whether the information contains unacceptable information 74. For example, in the first embodiment, the image capturer 14 or the recipient 26 can recognize that the image capturer position information 68C and the subject position information 68D are not permitted to be modified or deleted because the image capturer position information 68C and the subject position information 68D contain unacceptable information 74.
  • the acquisition unit 42A includes the unacceptable information 74 in one or more pieces of information (here, as an example, the imaging device position information 68C and the subject position information 68D) selected from the multiple pieces of information included in the related information 68 in accordance with the instruction received by the UI device 34.
  • the unacceptable information 74 in one or more pieces of information (here, as an example, the imaging device position information 68C and the subject position information 68D) selected from the multiple pieces of information included in the related information 68 in accordance with the instruction received by the UI device 34.
  • one or more pieces of information that include the unacceptable information 74 may be predetermined, and in this case, the acquisition unit 42A includes the unacceptable information 74 in the one or more pieces of information that are predetermined.
  • the association unit 42B generates first association information 76.
  • the first association information 76 is generated by associating reliability information 78 with the related information 68 acquired by the acquisition unit 42A.
  • the reliability information 78 is an example of "reliability information" related to the technology disclosed herein.
  • the reliability information 78 is information that indicates the reliability of the related information 68.
  • related information 68 that is highly likely to be altered or deleted can be said to be information with low reliability.
  • related information 68 that is less likely to be altered or deleted can be said to be information with high reliability.
  • the reliability of the related information 68 depends on the source of the related information 68.
  • the source of the related information 68 can be one indicator for the recipient 26, etc. to judge the reliability of the related information 68.
  • the source of the related information 68 is a source with high security (e.g., a source where it is difficult to modify or delete the related information 68)
  • the recipient 26, etc. can judge that the reliability of the related information 68 is also high
  • the source of the related information 68 is a source with low security (e.g., a source where it is easy to modify or delete the related information 68)
  • the recipient 26, etc. can judge that the reliability of the related information 68 is also low.
  • An example of a source with high security is the network 28 or GNSS.
  • An example of a source with medium security is when the processor 42 obtains some information in cooperation with other sensors that measure distance or direction.
  • An example of a source with low security i.e., a source that is more susceptible to third party intervention than the network 28 or GNSS
  • the UI device 34 or a readable/writable memory e.g., NVM 44.
  • the related information 68 obtained by manual input or the related information 68 obtained from the readable/writable memory can be said to be less reliable than the related information 68 obtained through a page of a public address on the network 28. Therefore, in the first embodiment, information regarding whether the related information 68 is information obtained through the network 28 is used as an example of reliability information 78.
  • the reliability information 78 includes first reliability information 78A, second reliability information 78B, third reliability information 78C, and fourth reliability information 78D.
  • the association unit 42B associates the first reliability information 78A with the imager information 68A, the second reliability information 78B with the image capture time information 68A, the third reliability information 78C with the image capture device position information 68C, and the fourth reliability information 78D with the subject position information 68D.
  • the first reliability information 78A is information that can identify the source of the photographer information 68A.
  • the photographer information 68A is information acquired from the NVM 44 by the acquisition unit 42A. Therefore, in this first embodiment, information indicating that the photographer information 68A was acquired from the NVM 44 is applied as an example of the first reliability information 78A.
  • the fact that such first reliability information 78A is associated with the photographer information 68A means that the photographer information 68A is not information obtained through the network 28.
  • the associating unit 42B automatically associates the first reliability information 78A with the imager information 68A after the imager information 68A is acquired from the NVM 44 by the acquiring unit 42A in a manner similar to the automatic execution of the acquisition process after the imaging process.
  • the reason for doing so is to prevent any time lag during which a third party can create false reliability information 78 and associate it with the imager information 68A.
  • the second reliability information 78B is information that can identify the source of the imaging time information 68B.
  • the imaging time information 68B is information obtained through the network 28. Therefore, in this first embodiment, information indicating that the imaging time information 68B was obtained through the network 28 is applied as an example of the second reliability information 78B.
  • the fact that such second reliability information 78B is associated with the imaging time information 68B means that the imaging time information 68B is information obtained through the network 28.
  • the second reliability information 78B is also automatically associated with the image capture time information 68B after the image capture time information 68B is acquired via the network 28.
  • the third reliability information 78C is information that can identify the source of the imaging device position information 68C.
  • the imaging device position information 68C is information obtained through GNSS. Therefore, in this first embodiment, information indicating that the imaging device position information 68C was obtained through GNSS is applied as an example of the third reliability information 78C.
  • the fact that such third reliability information 78C is associated with the imaging device position information 68C means that the imaging device position information 68C is not information obtained through a highly reliable GNSS.
  • the third reliability information 78C is also automatically associated with the imaging device position information 68C after the imaging device position information 68C is acquired via GNSS.
  • the fourth reliability information 78D is information that can identify the source of the subject position information 68D.
  • the subject position information 68D is information acquired through internal processing by the processor 42 (i.e., calculation of the subject position information 68D by the acquisition unit 42A based on the imaging device position information 68C, the distance information 70, and the orientation information 72). Therefore, in the first embodiment, as an example of the fourth reliability information 78D, information indicating that the subject position information 68D was acquired through internal processing by the processor 42 is applied.
  • fourth reliability information 78D is associated with the subject position information 68D means that the subject position information 68D is information acquired by the processor 42, which has a slightly higher reliability, performing internal processing in cooperation with another device (e.g., the electronic compass 36 or the distance sensor 38, etc.).
  • the fourth reliability information 78D is also automatically associated with the subject position information 68D after the subject position information 68D is acquired through internal processing by the processor 42.
  • the encryption unit 42C generates second association information 80 using the first association information 76.
  • the second association information 80 differs from the first association information 76 in that the association information 68 has been replaced with encryption information 82, and in that the second association information 80 includes time information 86.
  • the encryption unit 42C executes an encryption process.
  • the encryption process is a process for generating encrypted information 82 by encrypting the related information 68 included in the first association information 76.
  • the encrypted information 82 is an example of the "first encrypted information" related to the technology of the present disclosure.
  • the encryption process is automatically performed after the acquisition process in a manner similar to how the acquisition process is automatically performed after the imaging process.
  • the reason for this is to prevent any time gap for a third party to alter the related information 68, delete the related information 68, or encrypt the altered related information 68.
  • the NVM 44 stores a hash function 84.
  • Examples of the hash function 84 include SHA-256, SHA-384, and SHA-512.
  • the encryption unit 42C obtains the hash function 84 from the NVM 44, and generates encrypted information 82 by encrypting (i.e., hashing) the related information 68 using the obtained hash function 84.
  • the encrypted information 82 includes a first hash value 82A, a second hash value 82B, a third hash value 82C, and a fourth hash value 82D.
  • the first hash value 82A is a value obtained by hashing the photographer information 68A using a hash function 84.
  • the second hash value 82B is a value obtained by hashing the imaging time information 68B using a hash function 84.
  • the third hash value 82C is a value obtained by hashing the imaging device position information 68C using a hash function 84.
  • the fourth hash value 82D is a value obtained by hashing the subject position information 68D using a hash function 84.
  • the reliability information 78 associated with the related information 68 is inherited and associated with the encrypted information 82 as is. That is, the first reliability information 78A is associated with the first hash value 82A, the second reliability information 78B is associated with the second hash value 82B, the third reliability information 78C is associated with the third hash value 82C, and the fourth reliability information 78D is associated with the fourth hash value 82D.
  • the encryption unit 42C In the encryption process, the encryption unit 42C generates timing information 86, which is information about the time when the encryption information 82 was generated, and includes the generated timing information 86 in the second association information 80. For example, in the encryption process, the timing information 86 is included in the second association information 80 by being associated with the encryption information 82.
  • information generated using the image capture time information 68B is used as an example of the time information 86.
  • An example of the timing at which the time information 86 is generated is the timing at which encryption (here, hashing is used as an example) of the related information 68 is completed.
  • the timing information 86 includes information indicating the timing of generation, such as that the encrypted information 82 was generated at the time of image capture, and the image capture time information 68B. Note that this is merely one example, and the timing information 86 may be the image capture time information 68B itself.
  • the timing information 86 may also be information indicating the time at which the encryption of the related information 68 actually ends. In this case, for example, the timing information 86 may be acquired by the encryption unit 42C via the network 28 at the timing when the encryption of the related information 68 ends, or may be acquired by the encryption unit 42C from a real-time clock built into the imaging device 10 at the timing when the encryption of the related information 68 ends.
  • the attachment unit 42D executes an attachment process of directly or indirectly attaching the related information 68, the second association information 80, and the hash function 84 to the image data 18 as metadata 20.
  • the attachment process includes a creation process.
  • the creation process is a process of creating an image file 16.
  • the image file 16 is created by converting the image data 18 and the metadata 20 into a file according to a default file format.
  • the attachment unit 42D directly attaches the metadata 20 to the image data 18, for example, as shown in FIG. 8A, the image file 16 includes the related information 68, the second association information 80, and the hash function 84 as metadata 20.
  • FIG. 8B shows an example of a case where the attachment unit 42D indirectly attaches the metadata 20 to the image data 18.
  • the indirect attachment of the metadata 20 to the image data 18 is achieved by including access information 85 in the metadata 20 in the image file 16.
  • the attachment process includes a recording process of recording the metadata 20 on the recording medium 4 of the external server 2 (e.g., a process in which the attachment unit 42D uploads the metadata 20 to the server 2 and causes the server 2 to record it on the recording medium 4), and a creation process of creating an image file 16 that includes access information 85 for accessing the metadata 20 in the recording medium 4 (e.g., information for enabling access to the metadata 20 stored on the recording medium 4 of the server 2).
  • a recording process of recording the metadata 20 on the recording medium 4 of the external server 2 e.g., a process in which the attachment unit 42D uploads the metadata 20 to the server 2 and causes the server 2 to record it on the recording medium 4
  • a creation process of creating an image file 16 that includes access information 85 for accessing the metadata 20 in the recording medium 4 (e.g., information for enabling access to the metadata 20 stored on the recording medium 4 of the server 2).
  • Examples of the recording medium 4 include a hard disk, a magnetic tape, or a flash memory.
  • Examples of access include a process of searching for and viewing information (here, as an example, metadata 20) on the network 28, a process of reading information (here, as an example, metadata 20) from a memory (here, as an example, the recording medium 4), or a process of writing information to a memory.
  • Examples of the access information 85 include an identification ID (identifier), a URL (Uniform Resource Locator), or a download password.
  • the metadata 20 contained in the image file 16 and the metadata 20 contained in the recording medium 20 may be the same data, or may be partially or entirely different data.
  • a first example of a case in which the metadata 20 contained in the image file 16 differs from the metadata 20 contained in the recording medium 20 is an example in which all of the related information 68, second association information 80, and hash function 84 shown in FIG. 8A are recorded on the recording medium 20, and metadata 20 other than the related information 68, second association information 80, and hash function 84 shown in FIG. 8A are recorded in the image file 16.
  • a second example of a case in which the metadata 20 included in the image file 16 differs from the metadata 20 included in the recording medium 20 is one in which part of the related information 68, second association information 80, and hash function 84 shown in FIG. 8A (e.g., related information 68) is recorded on the recording medium 20, and metadata 20 including the remainder (e.g., second association information 80 and hash function 84) is recorded in the image file 16.
  • a third example of a case in which the metadata 20 contained in the image file 16 and the metadata 20 contained in the recording medium 20 are different is when the access information 85 is recorded as metadata 20 in the image file 16, and the metadata 20 other than the access information 85 is recorded on the recording medium 20.
  • the metadata 20 is directly attached to the image data 18, but the technology of the present disclosure is not limited to this, and the technology of the present disclosure also includes an example in which the attachment unit 42D indirectly attaches the metadata 20 to the image data 18.
  • the attachment unit 42D automatically includes the related information 68 in the metadata 20 after the acquisition process in a manner similar to the way that the acquisition process is automatically performed after the imaging process. The reason for doing so is to prevent any time leeway for a third party to modify or delete the related information 68 before it is included in the metadata 20.
  • the attachment unit 42D automatically includes the second association information 80 and the hash function 84 in the metadata 20 after the encryption step, in a manner similar to the way that the acquisition step is automatically performed after the imaging step.
  • the reason for doing so is to prevent any time leeway for a third party to modify or delete the second association information 80 and the hash function 84 before they are included in the metadata 20.
  • the transmission unit 42E transmits the image file 16 created by the attachment unit 42D to the receiving device 24 via the communication I/F 40 (see FIG. 3).
  • the receiving device 24 receives the image file 16 transmitted from the transmission unit 42E via the communication I/F 56 (see FIG. 4). In this way, the image file 16 is handed over from the photographer 14 to the recipient 26 (see FIG. 2).
  • FIGS. 10 to 12 show an example of the processing contents of the receiving unit 58A, generating unit 58B, comparing unit 58C, and executing unit 58D in the receiving device 24.
  • the generation unit 58B acquires the image file 16 received by the reception unit 58A from the reception unit 58A.
  • the generation unit 58B executes a generation process.
  • the generation process is a process of generating verification information 88 using the related information 68 and a hash function 84.
  • the generation process is an example of a "generation process" related to the technology of the present disclosure.
  • the generation unit 58B obtains the related information 68 and the hash function 84 from the metadata 20 included in the image file 16, and generates verification information 88 by hashing the related information 68 using the hash function 84.
  • the verification information 88 includes a fifth hash value 88A, a sixth hash value 88B, a seventh hash value 88C, and an eighth hash value 88D.
  • the fifth hash value 88A is a value obtained by hashing the photographer information 68A (see FIG. 6) included in the related information 68 using the hash function 84.
  • the sixth hash value 88B is a value obtained by hashing the imaging time information 68A (see FIG. 6) included in the related information 68 using the hash function 84.
  • the seventh hash value 88C is a value obtained by hashing the imaging device position information 68C included in the related information 68 using the hash function 84.
  • the eighth hash value 88D is a value obtained by hashing the subject position information 68D using the hash function 84.
  • the comparison unit 58C acquires from the receiving unit 58A the image file 16 received by the receiving unit 58A (i.e., the same image file 16 as the image file 16 acquired by the generating unit 58B).
  • the comparison unit 58C extracts the encryption information 82 from the second association information 80 in the metadata 20 included in the image file 16 acquired from the receiving unit 58A.
  • the comparison unit 58C acquires the verification information 88 generated by the generation unit 58B from the generation unit 58B.
  • the comparison unit 58C executes a comparison process.
  • the comparison process is an example of a "comparison process" according to the technology of the present disclosure.
  • the comparison process is a process of comparing the verification information 88 acquired from the generation unit 58B with the encrypted information 82 extracted from the second association information 80. Note that, as shown in FIG. 8B, when the metadata 20 is recorded on the recording medium 4 of the server 2, the verification of the modification or deletion of the metadata 20 in the comparison process may be performed within the server 2, or may be performed by a device (such as a personal computer or a server other than the server 2) communicably connected to the server 2.
  • the comparison unit 58C compares the fifth hash value 88A included in the verification information 88 with the first hash value 82A included in the encryption information 82 to determine whether the fifth hash value 88A and the first hash value 82A match.
  • the comparison unit 58C also compares the sixth hash value 88B included in the verification information 88 with the second hash value 82B included in the encryption information 82 to determine whether the sixth hash value 88B and the second hash value 82B match.
  • the comparison unit 58C also compares the seventh hash value 88C included in the verification information 88 with the third hash value 82C included in the encryption information 82 to determine whether the seventh hash value 88C and the third hash value 82C match.
  • the comparison unit 58C also compares the eighth hash value 88D included in the verification information 88 with the fourth hash value 82D included in the encryption information 82 to determine whether the eighth hash value 88D and the fourth hash value 82D match.
  • the execution unit 58D obtains the comparison result 90 from the comparison unit 58C.
  • the comparison result 90 includes a first comparison result 90A, a second comparison result 90B, a third comparison result 90C, and a fourth comparison result 90D.
  • the first comparison result 90A is the result of the comparison by the comparison unit 58C between the fifth hash value 88A and the first hash value 82A (i.e., the result of determining whether the fifth hash value 88A and the first hash value 82A match).
  • the second comparison result 90B is the result of the comparison by the comparison unit 58C between the sixth hash value 88B and the second hash value 82B (i.e., the result of determining whether the sixth hash value 88B and the second hash value 82B match).
  • the third comparison result 90C is the result of the comparison by the comparison unit 58C between the seventh hash value 88C and the third hash value 82C (i.e., the result of determining whether the seventh hash value 88C and the third hash value 82C match).
  • the fourth comparison result 90D is the result of the comparison between the eighth hash value 88D and the fourth hash value 82D by the comparison unit 58C (i.e., the result of determining whether the eighth hash value 88D and the fourth hash value 82D match).
  • the execution unit 58D acquires from the receiving unit 58A the image file 16 received by the receiving unit 58A (i.e., the same image file 16 as the image file 16 acquired by the generating unit 58B and the comparing unit 58C). The execution unit 58D also extracts the reliability information 78 and the timing information 86 from the second association information 80 in the metadata 20 included in the image file 16 acquired from the receiving unit 58A.
  • the execution unit 58D executes processing based on the comparison result 90 obtained from the comparison unit 58C, the reliability information 78 extracted from the second association information 80, and the timing information 86 extracted from the second association information 80.
  • Preventive processing refers to processing that prevents a recipient 26 who uses the metadata 20 from suffering any disadvantage due to, for example, the metadata 20 being altered or a part of the metadata 20 being deleted.
  • a first example of preventive processing is a process in which the comparison result 90, reliability information 78, and timing information 86 are presented to the recipient 26 via a UI device 34 (e.g., a display) or the photographer 14 is notified.
  • a UI device 34 e.g., a display
  • a second example of preventive processing is a process in which a numerical value indicating the possibility that related information 68 included in metadata 20 has been altered or part of related information 68 has been deleted is calculated based on comparison result 90, reliability information 78, and timing information 86, and information based on the calculated numerical value is output to a specific output destination (e.g., UI-based device 34, NVM 44, or an external device on network 28, etc.).
  • a specific output destination e.g., UI-based device 34, NVM 44, or an external device on network 28, etc.
  • a third example of preventive processing is the process of calculating a numerical value indicating the possibility as described above, and including information based on the calculated numerical value in the metadata 20.
  • a fourth example of preventive processing is a process of calculating the degree of difference between the time indicated by the timing information 86 and the time indicated by the image capture time information 68B included in the metadata 20 of the image file 16, and outputting information based on the calculated degree of difference to a specific output destination.
  • information based on the degree of difference is information that indicates the degree of difference itself, or alert information determined according to the degree of difference.
  • alert information is information that calls for greater caution the greater the degree of difference.
  • a fifth example of preventive processing is a process in which the degree of difference is calculated as described above, and information based on the calculated degree of difference (e.g., a flag corresponding to the degree of difference) is included in the metadata 20.
  • a sixth example of preventive processing is a process in which, as described above, a numerical value indicating the possibility or a degree of difference is calculated, and if the numerical value indicating the possibility or the degree of difference exceeds a threshold, the image file 16 is deleted, a flag is assigned to the image file 16, or the image file 16 is stored in a specific storage area.
  • preventive processing may be executed by the execution unit 58D based on one or two pieces of information among the comparison result 90, the reliability information 78, and the timing information 86.
  • FIG. 13 The flow of the image file creation process shown in the flowchart in FIG. 13 is an example of an "information creation method" related to the technology of the present disclosure.
  • step ST10 the acquisition unit 42A determines whether or not one frame's worth of image has been captured by the image sensor 32. In step ST10, if one frame's worth of image has not been captured by the image sensor 32 (e.g., capturing an image for a still image), the determination is negative and the image file creation process proceeds to step ST26. In step ST10, if one frame's worth of image has been captured by the image sensor 32, the determination is positive and the image file creation process proceeds to step ST12.
  • step ST12 the acquisition unit 42A acquires image data 18 from the image sensor 32. After the processing of step ST12 is executed, the image file creation processing proceeds to step ST14.
  • step ST14 the acquisition unit 42A acquires related information 68 related to the image data 18. After the processing of step ST14 is executed, the image file creation processing proceeds to step ST16.
  • step ST16 the association unit 42B generates first association information 76 by associating the association information 68 and reliability information 78 acquired in step ST14. After the processing of step ST16 is executed, the image file creation processing proceeds to step ST18.
  • step ST18 the encryption unit 42C generates encrypted information 82 by encrypting the associated information 68 included in the first association information 76 generated in step ST16 using a hash function 84.
  • the image file creation processing proceeds to step ST20.
  • step ST20 the encryption unit 42C generates timing information 86. Then, the encryption unit 42C generates second association information 80 based on the encryption information 82 generated in step ST18, the reliability information 78 used in step ST16, and the timing information 86. After the process of step ST20 is executed, the image file creation process proceeds to step ST22.
  • step ST22 the attachment unit 42D creates an image file 16 by attaching the related information 68 acquired in step ST14, the second association information 80 generated in step ST20, and the hash function 84 used in step ST18 to the image data 18 as metadata 20.
  • the image file creation process proceeds to step ST24.
  • step ST24 the sending unit 42E sends the image file 16 created in step ST22 to the receiving device 24. After the processing of step ST24 is executed, the image file creation processing proceeds to step ST26.
  • step ST26 the transmission unit 42E determines whether or not the conditions for terminating the image file creation process have been satisfied.
  • a condition for terminating the image file creation process is that an instruction to terminate the image file creation process has been accepted by the UI device 34. If the conditions for terminating the image file creation process are not satisfied in step ST26, the determination is negative, and the image file creation process proceeds to step ST10. If the conditions for terminating the image file creation process are satisfied in step ST26, the determination is positive, and the image file creation process terminates.
  • step ST50 the receiving unit 58A determines whether or not the image file 16 transmitted from the transmitting unit 42E of the imaging device 10 has been received by executing the process of step ST24 shown in FIG. 13. If the image file 16 has not been received in step ST50, the determination is negative, and the image file receiving process proceeds to step ST60. If the image file 16 has been received in step ST50, the determination is positive, and the image file receiving process proceeds to step ST52.
  • step ST52 the generation unit 58B generates verification information 88 by encrypting the related information 68 included in the metadata 20 of the image file 16 received in step ST50 using a hash function 84 included in the metadata 20.
  • step ST52 the image file receiving processing proceeds to step ST54.
  • step ST54 the comparison unit 58C extracts the encryption information 82 from the second association information 80 included in the metadata 20 of the image file 16 received in step ST50.
  • the comparison unit 58C then compares the encryption information 82 extracted from the second association information 80 with the verification information 88 generated in step ST52.
  • the receiving process proceeds to step ST56.
  • step ST56 the execution unit 58D extracts the reliability information 78 and the timing information 86 from the second association information 80 contained in the metadata 20 of the image file 16 received in step ST50. After the processing of step ST56 is executed, the image file receiving processing proceeds to step ST58.
  • step ST58 the execution unit 58D executes processing (e.g., the preventive processing described above) based on the comparison result 90 resulting from the comparison of the encryption information 82 and the verification information 88 in step ST54, the reliability information 78 extracted from the second association information 80 in step ST56, and the timing information 86 extracted from the second association information 80 in step ST56.
  • processing e.g., the preventive processing described above
  • the image file receiving processing proceeds to step ST60.
  • step ST60 the execution unit 58D determines whether or not the conditions for terminating the image file receiving process have been satisfied.
  • a condition for terminating the image file receiving process is that an instruction to terminate the image file receiving process has been accepted by the UI device 54. If the conditions for terminating the image file receiving process are not satisfied in step ST60, the determination is negative, and the image file receiving process proceeds to step ST50. If the conditions for terminating the image file receiving process are satisfied in step ST60, the determination is positive, and the image file receiving process terminates.
  • the imaging device 10 acquires the associated information 68 related to the image data 18, and generates encrypted information 82 by encrypting the associated information 68.
  • the imaging device 10 creates the image file 16 by attaching the encrypted information 82 to the image data 18 as metadata 20.
  • the imaging device 10 includes timing information 86 in the metadata 20 of the image file 16.
  • the timing information 86 is information related to the time when the encrypted information 82 was generated. Therefore, for example, when the recipient 26 or the like receives the image file 16 from the imager 14, the recipient 26 or the like can infer the validity of the time when the related information 68 was encrypted by referring to the timing information 86 included in the metadata 20 of the image file 16.
  • the recipient 26 or the like can determine that the reliability of the related information 68 is high, and conversely, if the recipient 26 or the like feels that there is something abnormal about the time when the related information 68 was encrypted, the recipient 26 or the like can determine that the reliability of the related information 68 is low. In this way, by including the timing information 86 in the metadata 20 of the image file 16, the security of the related information 68 can be increased.
  • reliability information 78 is included in the metadata 20 by the imaging device 10.
  • the reliability information 78 is information that indicates the reliability of the related information 68. Therefore, for example, when a recipient 26 etc. receives an image file 16 from the imager 14, the recipient 26 etc. can determine the reliability of the related information 68 by referring to the reliability information 78 included in the metadata 20 of the image file 16. In this way, by including the reliability information 78 in the metadata 20 of the image file 16, the security of the related information 68 can be increased.
  • the imaging device 10 includes related information 68 in the metadata 20.
  • the recipient 26 or the like can receive related information 68 related to the image data 18 by receiving the image file 16 itself or the metadata 20 included in the image file 16 from the imager 14. This allows the recipient 26 or the like to easily obtain the related information 68.
  • information on whether the related information 68 was obtained through the network 28 is used as an example of reliability information 78. Therefore, if the related information 68 was obtained through the network 28, the recipient 26 or the like can be made to determine that the related information 68 was obtained from a public page and therefore had high security. If the related information 68 was not obtained through the network 28 or GNSS, the recipient 26 or the like can be made to determine that the related information 68 was not highly secure.
  • the imaging device 10 creates an image file 16 that includes the related information 68 and the encrypted information 82. That is, the image file 16 includes not only the encrypted information 82, but also the related information 68, which is the information before it is encrypted. This allows, for example, the receiving device 24 to realize not only processing using the encrypted information 82, but also processing using the related information 68.
  • the related information 68 includes photographer information 68A, image capture time information 68B, image capture device position information 68C, and subject position information 68D.
  • the related information 68 is encrypted and included in the metadata 20 of the image file 16 as encrypted information 82. This makes it possible to improve the security of the photographer information 68A, image capture time information 68B, image capture device position information 68C, and subject position information 68D.
  • the image capture device position information 68C and the subject position information 68D contain unacceptable information 74.
  • the unacceptable information 74 is information that indicates that modification and deletion are not permitted.
  • the image capturer 14 or the recipient 26, etc. can recognize that modification and deletion of the imaging device position information 68C and the subject position information 68D are not permitted.
  • the hash function 84 used to encrypt the related information 68 is included in the metadata 20. Therefore, the recipient 26 or the like who receives the image file 16 from the photographer 14 can easily obtain the hash function 84 used to encrypt the related information 68.
  • the image file 16 transmitted from the imaging device 10 is received by the receiving device 24, and the receiving device 24 obtains a hash function 84 from the image file 16.
  • the receiving device 24 then encrypts (i.e., hashes) the related information 68 using the hash function 84 to generate verification information 88, and compares the verification information 88 with the encrypted information 82.
  • the recipient 26 or the like can determine that it is highly likely that the related information 68 has been altered or that a portion of the related information 68 has been deleted.
  • the recipient 26 or the like can determine that it is low likely that the related information 68 has been altered or that a portion of the related information 68 has been deleted.
  • the process of encrypting the related information 68 in the imaging device 10 is automatically executed after the related information 68 is acquired. This means that, for example, there is no time for the related information 68 to be altered or part of the related information 68 to be deleted between the time when the encrypted information 82 is generated from the related information 68, and therefore the reliability of the related information 68 can be improved.
  • the related information 68 is automatically acquired after the image data 18 is acquired in the imaging device 10.
  • the related information 68 is automatically acquired after the image data 18 is acquired in the imaging device 10.
  • the image data 18 obtained by imaging using the image sensor 32 is acquired from the image sensor 32 by the acquisition unit 42A, and then the related information 68 is automatically acquired by the acquisition unit 42A.
  • the unacceptable information 74 is included in the imaging device position information 68C and the subject position information 68D, but this is merely one example.
  • the unacceptable information 74 may be included in the imaging device position information 68C or the subject position information 68D, or the unacceptable information 74 may be included in other information included in the related information 68 (for example, the photographer information 68A or the imaging time information 68B, etc.).
  • the unacceptable information 74 may be assigned to the entire related information 68.
  • the timing information 86 is included directly in the second association information 80, but this is merely one example.
  • the timing information 86 may also be encrypted in a manner similar to the way in which the association information 68 is encrypted, and the encrypted information of the timing information 86 may be included in the second association information 80.
  • the timing information 86 before encryption may also be included in the metadata 20 of the image file 16 as part of the association information 68.
  • the image file creation process according to the second embodiment is realized by the processor 42 further operating as an editing unit 42F, as compared to the image file creation process according to the first embodiment.
  • the editing unit 42F executes an editing process.
  • the editing process is a process of editing the image data 18.
  • the editing process is performed by the imaging device 10, but this is merely one example.
  • the editing process may be performed by a smart device, a personal computer, a server, or the like that is communicatively connected to the imaging device 10.
  • the UI-based device 34 receives an editing instruction 92 from the photographer 14 or the like.
  • the editing instruction 92 refers to, for example, an instruction regarding the specific content for editing the image data 18.
  • the editing unit 42F edits the image data 18 in accordance with the editing instruction 92.
  • the UI device 34 accepts editor information 68E.
  • Editor information 68E is information about an editor.
  • An editor refers to a person who edits image data 18. Examples of information about an editor include the name of the editor, the nickname of the editor, information indicating the location of the editor, or contact information for the editor.
  • the editor may be the photographer 14 or a person other than the photographer 14.
  • the editing unit 42F includes editing related information, which is information related to editing, in the related information 68.
  • the editing unit 42F includes the editor information 68E received by the UI device 34 in the related information 68.
  • the editing unit 42F acquires the editing time information 68F through the network 28 and includes the editing time information 68F in the related information 68.
  • the editing time information 68F is information indicating the time when editing was performed on the image data 18. Examples of the time when editing was performed on the image data 18 include the time when editing of the image data 18 was started, or the time when editing of the image data 18 was completed.
  • the editing time information 68F may include information indicating the total time required to edit the image data 18.
  • the editing instructions 92 and editor information 68E may be received by the UI device 34, this is merely one example.
  • the editing instructions 92 or editor information 68E may be provided to the editing unit 42F from an external device (e.g., a smart device, a personal computer, or a server) communicatively connected to the imaging device 10.
  • the editor information 68E may be stored in the NVM 44.
  • the editing unit 42F may obtain the editor information 68E from the NVM 44 at the time when editing is performed on the image data 18.
  • the association unit 42B generates fifth reliability information 78E and sixth reliability information 78F, and includes the generated fifth reliability information 78E and sixth reliability information 78F in the reliability information 78.
  • the association unit 42B also associates the fifth reliability information 78E with the editor information 68E, and associates the sixth reliability information 78F with the editing time information 68F.
  • the fifth reliability information 78E is information that can identify the source of the editor information 68E.
  • the editor information 68E is information obtained by the editing unit 42F from the UI-based device 34. Therefore, in the second embodiment, information indicating that the editor information 68E was obtained from the UI-based device 34 is applied as an example of the fifth reliability information 78E.
  • the fact that such fifth reliability information 78E is associated with the editor information 68E means that the editor information 68E is not information obtained through the network 28.
  • the fifth reliability information 78E is automatically associated with the editor information 68E after the editing process in a similar manner to how the acquisition process is automatically performed after the imaging process. The reason for doing so is to prevent any time gap from occurring in which a third party creates false reliability information 78 and associates it with the editor information 68E.
  • the sixth reliability information 78F is information that can identify the source of the edit time information 68F.
  • the edit time information 68F is information obtained through the network 28. Therefore, in the second embodiment, information indicating that the edit time information 68F was obtained through the network 28 is applied as an example of the sixth reliability information 78F.
  • the fact that such sixth reliability information 78F is associated with the edit time information 68F means that the edit time information 68F is information obtained through the network 28.
  • the sixth reliability information 78F is automatically associated with the editing time information 68F after the editing process in a similar manner to how the acquisition process is automatically performed after the imaging process.
  • the reason for this is to prevent a third party from creating false reliability information 78 and linking it to the edit time information 68F.
  • the encryption unit 42C encrypts the editor information 68E and the edit time information 68F using a hash function 84 in a manner similar to the encryption (i.e., hashing) described in the first embodiment above.
  • a hash function 84 in a manner similar to the encryption (i.e., hashing) described in the first embodiment above.
  • an eleventh hash value 82E obtained by encrypting the editor information 68E and a twelfth hash value 82F obtained by encrypting the edit time information 68F are included in the encrypted information 82.
  • the fifth reliability information 78E is associated with the eleventh hash value 82E
  • the sixth reliability information 78F is associated with the twelfth hash value 82F.
  • the encryption unit 42C In the encryption process, the encryption unit 42C generates timing information 94, which is information about the time when the 11th hash value 82E and the 12th hash value 82F were generated, and includes the timing information 94 in the second association information 80, similar to the timing information 86 in the first embodiment described above.
  • information generated using the edit time information 68F is applied as an example of the time information 94.
  • An example of the timing at which the time information 94 is generated is the timing at which the encryption (here, hashing is taken as an example) of the related information 68 is completed.
  • the timing information 94 includes information indicating that the eleventh hash value 82E and the twelfth hash value 82F were generated at the time when the image data 18 was edited, and the edit time information 68F.
  • the timing information 94 may also include information indicating the total time required to edit the image data 18.
  • the time information 94 may be the editing time information 68F itself.
  • the time information 94 may also be information indicating the time when the encryption of the eleventh hash value 82E and the twelfth hash value 82F is actually completed.
  • the time information 94 may be acquired by the encryption unit 42C via the network 28 at the timing when the encryption of the editor information 68E and the editing time information 68F is completed, or may be acquired by the encryption unit 42C from a real-time clock built into the imaging device 10 at the timing when the encryption of the eleventh hash value 82E and the twelfth hash value 82F is completed.
  • a ninth hash value 88E and a tenth hash value 88F are generated as information included in the verification information 88 in a similar manner to the first embodiment in which a fifth hash value 88A, a sixth hash value 88B, a seventh hash value 88C, and an eighth hash value 88D are generated as information included in the verification information 88.
  • the ninth hash value 88E is a hash value obtained by hashing the editor information 68E using the hash function 84
  • the tenth hash value 88F is a hash value obtained by hashing the edit time information 68F using the hash function 84.
  • the ninth hash value 88E is compared with the eleventh hash value 82E, and the tenth hash value 88F is compared with the twelfth hash value 82F, in a manner similar to the processing performed by the comparison unit 58C according to the first embodiment.
  • These comparison results are then handled by the execution unit 58D according to the first embodiment in a manner similar to that of the first embodiment.
  • FIG. 19 shows an example of the flow of an image file creation process according to the second embodiment.
  • the flowchart shown in FIG. 19 differs from the flowchart shown in FIG. 13 in that steps ST21A to ST21E are inserted between steps ST20 and ST22.
  • steps ST21A to ST21E are inserted between steps ST20 and ST22.
  • step ST21A of the image file creation process shown in FIG. 19 the editing unit 42F determines whether or not the editing instruction 92 and the editor information 68E have been accepted by the UI device 34. In step ST21A, if the editing instruction 92 and the editor information 68E have not been accepted by the UI device 34, the determination is negative and the image file creation process proceeds to step ST22. In step ST21A, if the editing instruction 92 and the editor information 68E have been accepted by the UI device 34, the determination is positive and the image file creation process proceeds to step ST21B.
  • step ST21B the editing unit 42F edits the image data 18 acquired in step ST12 in response to the editing instruction 92 accepted by the UI device 34 in step ST21A.
  • the editing unit 42F also generates editing time information 68F using information obtained via the network 28.
  • the editing unit 42F then updates the related information 68 by including in the related information 68 the editor information 68E and the editing time information 68F accepted by the UI device 34 in step ST21A.
  • step ST21C the image file creation processing proceeds to step ST21C.
  • step ST21C the association unit 42B updates the first association information 76 by associating the fifth reliability information 78E with the editor information 68E and associating the sixth reliability information 78F with the edit time information 68F.
  • step ST21D the image file creation process proceeds to step ST21D.
  • step ST21D the encryption unit 42C generates an eleventh hash value 82E and a twelfth hash value 82F by encrypting the editor information 68E and the edit time information 68F included in the related information 68 using a hash function 84.
  • the image file creation processing proceeds to step ST21E.
  • step ST21E the encryption unit 42C generates timing information 94.
  • the encryption unit 42C then updates the second association information 80 using the eleventh hash value 82E, the twelfth hash value 82F, the fifth reliability information 78E, the sixth reliability information 78F, and the timing information 94. That is, the second association information 80 is updated by associating the fifth reliability information 78E with the eleventh hash value 82E, associating the sixth reliability information 78F with the twelfth hash value 82F, and associating the timing information 94 with the encryption information 82.
  • the image file creation process proceeds to step ST22.
  • the image data 18 is edited by the imaging device 10, and editing related information (here, as an example, editor information 68E and editing time information 68F) is included in the related information 68.
  • the editing related information is encrypted.
  • the editor information 68E is encrypted to generate the eleventh hash value 82E
  • the editing time information 68F is encrypted to generate the twelfth hash value 82F.
  • the eleventh hash value 82E and the twelfth hash value 82F are included in the encrypted information 82.
  • the imaging device 10 includes time information 94 in the metadata 20.
  • the time information 94 is information regarding the time when the eleventh hash value 82E and the twelfth hash value 82F were generated.
  • the recipient 26 etc. when the recipient 26 etc. receives an image file 16 from an editor (e.g., the photographer 14 etc.), the recipient 26 etc. can infer the validity of the time when the editing-related information was encrypted by referring to the timing information 94 included in the metadata 20 of the image file 16. For example, if the recipient 26 etc. feels that the time when the editing-related information was encrypted is valid, the recipient 26 etc. can determine that the reliability of the editing-related information is high, and conversely, if the recipient 26 etc. feels that there is something abnormal about the time when the editing-related information was encrypted, the recipient 26 etc. can determine that the reliability of the editing-related information is low. In this way, the security of the editing-related information can be increased by including the timing information 94 in the metadata 20 of the image file 16.
  • the metadata 20 also includes reliability information 78 provided by the imaging device 10, and the reliability information 78 includes fifth reliability information 78E and sixth reliability information 78F.
  • the fifth reliability information 78E is information that can identify the source of the editor information 68E.
  • the sixth reliability information 78F is information that can identify the source of the editing time information 68F.
  • the recipient 26 etc. can determine the reliability of the editing-related information by referring to the fifth reliability information 78E and sixth reliability information 78F included in the metadata 20 of the image file 16. In this way, by including the fifth reliability information 78E and sixth reliability information 78F in the metadata 20 of the image file 16, the security of the editing-related information can be increased.
  • the time information 86 and 94 are associated with the encryption information 82, but this is merely one example.
  • the time information 86 may be individually associated with the first hash value 82A, the second hash value 82B, the third hash value 82C, and the fourth hash value 82D, and the time information 94 may be individually associated with the eleventh hash value 82E and the twelfth hash value 82F.
  • the second association information 80 configured in this manner is stored in the metadata 20 in the same manner as in the above first and second embodiments.
  • the encrypted information corresponding to time information 86 and the encrypted information corresponding to time information 94 can be stored together in the metadata 20. That is, the first hash value 82A, the second hash value 82B, the third hash value 82C, and the fourth hash value 82D corresponding to time information 86, and the eleventh hash value 82E and the twelfth hash value 82F corresponding to time information 94 can be stored together in the metadata 20.
  • the time information 86 corresponds to the first hash value 82A, the second hash value 82B, the third hash value 82C, and the fourth hash value 82D
  • the time information 94 corresponds to the eleventh hash value 82E and the twelfth hash value 82F.
  • the first hash value 82A, the second hash value 82B, the third hash value 82C, the fourth hash value 82D, the eleventh hash value 82E, the twelfth hash value 82F, and the time information 86 and 94 can be easily handled.
  • the editing process may be performed by an editing device 100 used by an editor 98 at an editing site 96.
  • An example of the editing device 100 is a device with the same specifications as the receiving device 24.
  • the editing device 100 is connected to the network 28 in the same manner as the receiving device 24.
  • the image file 16 is transmitted from the imaging device 10 to the editing device 100 via the network 28, and the image file 16 edited by the editing device 100 is transmitted to the receiving device 24 via the network 28.
  • the image file creation process may be distributed and performed by the imaging device 10 and the editing device 100.
  • the image file creation process shown in FIG. 13 is performed by the imaging device 10
  • the processes of steps ST21A to ST26 included in the image file creation process shown in FIG. 19 are performed by the editing device 100.
  • the destination of the image file 16 sent by the imaging device 10 is the editing device 100
  • the destination of the edited image file 16 sent by the editing device 100 is the receiving device 24.
  • the image file receiving process may be performed by the editing device 100.
  • the timing information 94 may also be encrypted in a manner similar to the way in which the associated information 68 is encrypted, and the encrypted information of the timing information 94 may be included in the second association information 80.
  • the timing information 94 before encryption may also be included in the metadata 20 of the image file 16 as part of the associated information 68.
  • the encryption unit 42C according to the third embodiment differs from the encryption unit 42C described in each of the above embodiments in that it generates third association information 102 instead of second association information 80.
  • the third association information 102 differs from the second association information 80 in that it has re-encrypted information 104 instead of encryption information 82.
  • the re-encrypted information 104 is an example of the "first encryption information" according to the technology disclosed herein, and is generated based on encryption information 82 (e.g., first hash value 82A, second hash value 82B, third hash value 82C, and fourth hash value 82D, etc.).
  • the encryption unit 42C generates a private key 106, and also generates a public key 108 that corresponds to the private key 106.
  • the public key 108 is acquired by the transmission unit 42E.
  • the transmission unit 42E transmits it to the storage device 110 on the network 28.
  • the storage device 110 receives the public key 108 transmitted from the transmission unit 42E, and stores the received public key 108.
  • An example of the storage device 110 is a server or a personal computer that is communicatively connected to the network 28.
  • the sending unit 42E provides the attachment unit 42D with a URL 112 that can identify the location on the network 28 where the public key 108 is stored (e.g., the location where the public key 108 is stored by the storage device 110).
  • the encryption unit 42C generates re-encrypted information 104 by encrypting the encrypted information 82 using the private key 106.
  • the re-encrypted information 104 is information in which the first hash value 82A, the second hash value 82B, the third hash value 82C, the fourth hash value 82D, the eleventh hash value 82E, and the twelfth hash value 82F are encrypted using the private key 106.
  • the first hash value 82A, the second hash value 82B, the third hash value 82C, the fourth hash value 82D, the eleventh hash value 82E, and the twelfth hash value 82F are examples of the "first hash value" according to the technology disclosed herein.
  • the attachment unit 42D creates an image file 16 by attaching metadata 20 to image data 18.
  • the attachment unit 42D creates an image file 16 using the image data 18, related information 68, hash function 84, third association information 102, and URL 112.
  • the metadata 20 includes the associated information 68 and the hash function 84. Also, in this third embodiment, the metadata 20 includes the third association information 102 instead of the second association information 80. Furthermore, in this third embodiment, the metadata 20 includes the URL 112 as information required to obtain the public key 108.
  • the comparison unit 58C extracts the re-encryption information 104 from the third association information 102 included in the metadata 20 of the image file 16.
  • the comparison unit 58C also obtains the public key 108 via the network 28 using the URL 112 included in the metadata 20 of the image file 16. That is, the comparison unit 58C identifies the location on the network 28 where the public key 108 is stored (for example, the location where the public key 108 is stored by the storage device 110) from the URL 112, and obtains the public key 108 from the identified location.
  • the comparison unit 58C generates encrypted information 82 (e.g., the first hash value 82A, the second hash value 82B, the third hash value 82C, the fourth hash value 82D, the eleventh hash value 82E, and the twelfth hash value 82F) by decrypting the re-encrypted information 104 using the public key 108.
  • the encrypted information 82 obtained by decrypting the re-encrypted information 104 using the public key 108 is the "first information" according to the technology disclosed herein.
  • the first hash value 82A, the second hash value 82B, the third hash value 82C, the fourth hash value 82D, the eleventh hash value 82E, and the twelfth hash value 82F included in the encrypted information 82 obtained by decrypting the re-encrypted information 104 using the public key 108 are examples of the "second hash value" according to the technology disclosed herein.
  • the comparison unit 58C compares the verification information 88 with the encrypted information 82 in the same manner as in each of the above embodiments. That is, the comparison unit 58C compares the fifth hash value 88A, the sixth hash value 88B, the seventh hash value 88C, the eighth hash value 88D, the ninth hash value 88E, and the tenth hash value 88F with the first hash value 82A, the second hash value 82B, the third hash value 82C, the fourth hash value 82D, the eleventh hash value 82E, and the twelfth hash value 82F.
  • the comparison unit 58C compares the verification information 88 with the encrypted information 82 generated based on the re-encryption information 104. This makes it possible to obtain the same effects as the above embodiments.
  • the re-encrypted information 104 is information generated based on the encrypted information 82 obtained by hashing the related information 68 and the private key 106.
  • the re-encrypted information 104 can be said to be information obtained by performing double encryption on the related information 68.
  • the re-encrypted information 104 is included in the metadata 20 of the image file 16.
  • the image file 16 is then received and handled by the recipient 26, editor 98, or the like in the same manner as in each of the above embodiments.
  • the information that is compared with the verification information 88 by the comparison unit 58C in the receiving device 24 used by the recipient 26 or the editing device 100 used by the editor 98 is the encrypted information 82 generated by decrypting the re-encrypted information 104 with the public key 108. Therefore, compared to a case where the related information 68 is simply hashed, it is possible to determine whether the related information 68 has been altered while ensuring a high level of security.
  • the comparison unit 58C obtains the public key 108 from the network 28 by using the URL 112 in the metadata 20 of the image file 16. Therefore, the public key 108 can be easily obtained by a legitimate user (e.g., the recipient 26 or the editor 98) who handles the image file 16.
  • the URL 112 is included in the metadata 20
  • the public key 108 may also be included in the metadata 20.
  • a legitimate user who handles the image file 16 e.g., the recipient 26 or the editor 98
  • the related information 68 included photographer information 68A, image capture time information 68B, image capture device position information 68C, subject position information 68D, editor information 68E, and editing time information 68F, but in this fourth embodiment, an example will be described in which the related information 68 also includes a thumbnail image 114, as shown in Fig. 25. Note that in this fourth embodiment, the same components as those described in the above-mentioned embodiments are denoted by the same reference numerals and their description will be omitted, and only the parts that differ from the above-mentioned embodiments will be described.
  • the acquisition unit 42A generates a thumbnail image 114 by thumbnailizing (i.e., reducing) the image data 18.
  • the acquisition unit 42A then includes the thumbnail image 114 in the related information 68.
  • the thumbnail image 114 is an example of a "thumbnail image" according to the technology of the present disclosure.
  • the associating unit 42B generates the first association information 76.
  • the seventh reliability information 78G is associated with the thumbnail image 114.
  • the seventh reliability information 78G is information that can identify the source of the thumbnail image 114.
  • the thumbnail image 114 is information acquired through internal processing by the processor 42 (i.e., the thumbnail processing of the image data 18 by the acquisition unit 42A). Therefore, in the fourth embodiment, information indicating that the thumbnail image 114 was acquired through internal processing by the processor 42 is applied as an example of the seventh reliability information 78G.
  • the fact that such seventh reliability information 78G is associated with the thumbnail image 114 means that the thumbnail image 114 is not information acquired through the network 28.
  • the seventh reliability information 78G is also automatically associated with the thumbnail image 114 after the thumbnail image 114 is acquired through internal processing by the processor 42 in a manner similar to the association between the first reliability information 78A and the photographer information 68A.
  • the encryption unit 42C generates the fourth association information 116.
  • the fourth association information 116 includes image encryption information 118, seventh reliability information 78G, and time information 120.
  • the encryption unit 42C generates the image encryption information 118 by encrypting the thumbnail image 114 in the same manner as in each of the above embodiments, and includes the generated image encryption information 118 in the fourth association information 116.
  • the encryption unit 42C also includes the above-mentioned second association information 80 or third association information 102 in the fourth association information 116.
  • the image encryption information 118 is associated with seventh reliability information 78G and timing information 120.
  • the timing information 120 includes information indicating that the thumbnail image 114 was generated and information indicating the time when the thumbnail image 114 was generated.
  • the fourth association information 116 including the image encryption information 118 (i.e., information obtained by encrypting the thumbnail image 114) is included in the metadata 20 of the image file 16 in a manner similar to the above embodiments.
  • the attachment unit 42D creates the image file 16 by attaching the fourth association information 116 including the image encryption information 118 to the image data 18 as metadata 20. This can improve the security of the thumbnail image 114.
  • the related information 68 included a thumbnail image 114, but the technology of the present disclosure is not limited to this, and the related information 68 may also include text information.
  • the text information is encrypted in the same manner as in the above embodiments and included in the metadata 20 of the image file 16, thereby improving the security of the text information.
  • the thumbnail image 114 may be an image that does not change in association with changes to the image data 18 (e.g., editing by the editing unit 42F). In this case, the security of the thumbnail image 114 that does not change in association with changes to the image data 18 can be improved.
  • the encryption unit 42C may generate fifth association information 122, and include image encryption information 124 in the fifth association information 122.
  • the image encryption information 124 is information generated by encrypting the image data 18.
  • the image encryption information 124 is an example of "second encryption information" related to the technology of the present disclosure.
  • the fifth association information 122 also includes the second association information 80, the third association information 102, or the fourth association information 116 described above.
  • the fifth association information 122 is associated with the eighth reliability information 78H and the timing information 86.
  • the eighth reliability information 78H is information that can identify the source of the image data 18.
  • the eighth reliability information 78H includes information that indicates that imaging was performed to obtain the image data 18, and information equivalent to the imaging time information 68B (see FIG. 5).
  • the fifth association information 122 including the image encryption information 124 (i.e., information obtained by encrypting the image data 18) is included in the metadata 20 of the image file 16 in a manner similar to that of each of the above embodiments.
  • the attachment unit 42D creates the image file 16 by attaching the fifth association information 122 including the image encryption information 124 to the image data 18 as metadata 20. This can increase the security of the image data 18.
  • the image file creation process is executed by the computer 30 in the imaging device 10, but the technology of the present disclosure is not limited to this.
  • the technology of the present disclosure is not limited to this.
  • FIG. 28 shows that as shown in FIG. 28,
  • the image file creation process may be performed by a computer 128 in the external device 126.
  • An example of the computer 128 is a server computer for a cloud service.
  • the computer 128 is an example of an "information creation device” and a "computer” according to the technology of the present disclosure.
  • the computer 128 includes a processor 130, an NVM 132, and a RAM 134.
  • An image file creation program 50 is stored in the NVM 132.
  • the imaging device 10 requests the external device 126 to execute an image file creation process via the network 28.
  • the processor 130 of the external device 126 reads the image file creation program 50 from the NVM 132, and executes the image file creation program 50 on the RAM 134.
  • the processor 130 performs the image file creation process in accordance with the image file creation program 50 executed on the RAM 134.
  • the processor 130 then provides the processing result obtained by executing the image file creation process to the imaging device 10 via the network 28.
  • FIG. 28 shows an example of a form in which the external device 126 executes the image file creation process, but this is merely one example.
  • the image capture device 10 and the external device 126 may execute the image file creation process in a distributed manner, or multiple devices including the image capture device 10 and the external device 126 may execute the image file creation process in a distributed manner.
  • FIG. 28 shows an example of a form in which the processor 130 of the external device 126 performs image file creation processing
  • the technology of the present disclosure is not limited to this.
  • the processor 130 may be made to perform image file receiving processing in response to a request from the receiving device 24.
  • the image file creation program 50 is stored in the NVM 44, but the technology disclosed herein is not limited to this.
  • the image file creation program 50 may be stored in a solid state drive (SSD), USB memory, magnetic tape, etc.
  • the image file creation program 50 may be stored in any portable, computer-readable, non-transitory storage medium.
  • the image file creation program 50 stored in the non-transitory storage medium is installed in the imaging device 10.
  • the processor 42 executes the image file creation process according to the image file creation program 50.
  • the image file creation program 50 may be stored in a storage device such as another computer or server device connected to the imaging device 10 via a network, and the image file creation program 50 may be downloaded and installed in the imaging device 10 in response to a request from the imaging device 10.
  • image file creation program 50 it is not necessary to store the entire image file creation program 50 in a storage device such as another computer or server device connected to the imaging device 10, or in the NVM 44; only a portion of the image file creation program 50 may be stored.
  • the imaging device 10 shown in FIG. 3 has a built-in computer 30, the technology disclosed herein is not limited to this, and for example, the computer 30 may be provided outside the imaging device 10.
  • processors listed below can be used as hardware resources for executing the image file creation process described in each of the above embodiments.
  • An example of a processor is a CPU, which is a general-purpose processor that functions as a hardware resource for executing the image file creation process by executing software, i.e., a program.
  • Another example of a processor is a dedicated electronic circuit, which is a processor with a circuit configuration designed specifically for executing specific processing, such as an FPGA, PLD, or ASIC. All of the processors have built-in or connected memory, and all of the processors use the memory to execute the image file creation process.
  • the hardware resource that executes the image file creation process may be composed of one of these various processors, or may be composed of a combination of two or more processors of the same or different types (for example, a combination of multiple FPGAs, or a combination of a CPU and an FPGA). Also, the hardware resource that executes the image file creation process may be a single processor.
  • a configuration using a single processor firstly, there is a configuration in which one processor is configured using a combination of one or more CPUs and software, and this processor functions as a hardware resource that executes the image file creation process. Secondly, there is a configuration in which a processor is used that realizes the functions of the entire system, including multiple hardware resources that execute the image file creation process, on a single IC (Integrated Circuit) chip, as typified by SoCs (System-on-a-chip). In this way, the image file creation process is realized using one or more of the various processors mentioned above as hardware resources.
  • IC Integrated Circuit
  • the hardware structure of these various processors can be electronic circuits that combine circuit elements such as semiconductor elements.
  • the above image file creation process is merely one example. It goes without saying that unnecessary steps can be deleted, new steps can be added, and the processing order can be changed without departing from the spirit of the invention.
  • the grammatical concept of "A or B” includes not only the concept of "either one of A and B,” but also the concept synonymous with “at least one of A and B.”
  • “A or B” includes the meaning that it could be just A, just B, or a combination of A and B.
  • the same concept as “A or B” is also applied when three or more things are expressed by connecting them with “or.”
  • the additional information includes time information regarding the time when the first encrypted information was generated, or reliability information.
  • the reliability information is information regarding whether or not the related information was obtained through a network.
  • the encryption step includes generating first encrypted information by hashing the related information;
  • the information creation method according to any one of Supplementary Note 1 to Supplementary Note 8, wherein the additional information includes a hash function used for hashing.
  • the first encrypted information is information generated based on a first hash value obtained by hashing the related information and a private key;
  • the information creation method according to claim 10 wherein the first information is a second hash value generated based on the first encrypted information and the public key.
  • the encryption step generates second encrypted information by encrypting the image data;
  • the information creating method according to any one of Supplementary Note 1 to Supplementary Note 16, wherein the attaching step attaches the second encrypted information to the image data as auxiliary information.
  • An image file including supplementary information of image data The additional information is First encrypted information obtained by encrypting related information related to the image data; time information or reliability information regarding a time when the first encryption information was generated; Collateral information is an image file that contains related information.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Bioethics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)

Abstract

情報作成方法は、画像データに関連する関連情報を取得する取得工程と、関連情報を暗号化した第1暗号化情報を生成する暗号化工程と、第1暗号化情報を付帯情報として画像データに付帯させる付帯工程と、を含む。付帯情報は、第1暗号化情報が生成された時期に関する時期情報、又は、信頼性情報を含む。

Description

情報作成方法、画像ファイル、情報作成装置、及びプログラム
 本開示の技術は、情報作成方法、画像ファイル、情報作成装置、及びプログラムに関する。
 特開2006-345450号公報には、撮像する画像及びその付帯情報を含む画像ファイルに改竄防止処理を施す撮像装置と、画像ファイルが改竄されていないことを検証する画像検証装置とを有する画像検証システムが開示されている。特開2006-345450号公報に記載の画像検証システムにおいて、撮像装置は、付帯情報のうち改竄防止処理の対象とする項目をユーザに選択させるためのユーザインタフェースを提供するユーザインタフェース提供手段と、ユーザインタフェースにより選択された付帯情報を暗号化した暗号化付帯情報を作成する暗号化手段と、暗号化付帯情報を画像ファイルに付加して付加画像ファイルを作成する付加手段と、を有する。特開2006-345450号公報に記載の画像検証システムにおいて、画像検証装置は、暗号化付帯情報を復号化して復号化付帯情報を作成する復号化手段と、復号化付帯情報の各項目と、対応する付帯情報の各項目と、を照合する照合手段と、を有する。
 特開2009-225229号公報には、被写体を撮像して画像データを出力する撮像素子と、撮影時の撮影条件を取得する条件取得手段と、を有する撮像装置が開示されている。特開2009-225229号公報に記載の撮像装置は、条件取得手段により取得された撮影条件に基づいて、第1の撮影情報および該第1の撮影情報よりも詳細な第2の撮影情報を生成する生成部と、第2の撮影情報を暗号化された第3の撮影情報へと変換する変換部と、画像データに第1の撮影情報および第3の撮影情報を付加した画像ファイルを生成して、画像ファイルを記録媒体に記録する手段と、を有する。
 特開2016-122917号公報には、署名生成装置が開示されている。特開2016-122917号公報に記載の署名生成装置は、相互に関連する第1のデータを含む複数のデータを取得するデータ取得部と、第1のデータ、複数のデータ間の相関関係を示す相関情報、及び署名鍵に基づいて、第1のデータ及び相関情報に対する第1の署名データを生成する署名生成部と、を有する。
 本開示の技術に係る一つの実施形態は、画像データに関連する関連情報のセキュリティ性を高めることができる情報作成方法、画像ファイル、情報作成装置、及びプログラムを提供する。
 本開示の技術に係る第1の態様は、画像データに関連する関連情報を取得する取得工程と、関連情報を暗号化した第1暗号化情報を生成する暗号化工程と、付帯情報を画像データに直接的に、又は、間接的に付帯させる付帯工程と、を含み、付帯情報が、第1暗号化情報、及び、第1暗号化情報が生成された時期に関する時期情報、又は、信頼性情報を含む情報作成方法である。
 本開示の技術に係る第2の態様は、画像データの付帯情報を含む画像ファイルであって、付帯情報が、画像データに関連する関連情報を暗号化して得た第1暗号化情報と、第1暗号化情報が生成された時期に関する時期情報、又は、信頼性情報 と、を含む画像ファイルである。
 本開示の技術に係る第3の態様は、プロセッサを備え、プロセッサが、画像データに関連する関連情報を取得し、関連情報を暗号化した第1暗号化情報を生成し、付帯情報を画像データに直接的に、又は、間接的に付帯させ、付帯情報が、第1暗号化情報、及び、第1暗号化情報が生成された時期に関する時期情報、又は、信頼性情報を含む情報作成装置である。
 本開示の技術に係る第4の態様は、コンピュータに処理を実行させるためのプログラムであって、処理が、画像データに関連する関連情報を取得する取得工程と、関連情報を暗号化した第1暗号化情報を生成する暗号化工程と、付帯情報を画像データに直接的に、又は、間接的に付帯させる付帯工程と、を含み、付帯情報が、第1暗号化情報、及び、第1暗号化情報が生成された時期に関する時期情報、又は、信頼性情報を含むプログラムである。
撮像装置が用いられている態様の一例を示す概念図である。 撮像装置と受取装置との関係の一例を示す概念図である。 撮像装置の電気系のハードウェア構成及び要部機能の一例を示すブロック図である。 受取装置の電気系のハードウェア構成及び要部機能の一例を示すブロック図である。 イメージセンサ、測距センサ、電子コンパス、NVM、GNSS装置、ネットワーク、及び取得部の相関の一例を示す概念図である。 取得部と関連付け部との相関の一例を示す概念図である。 NVM、関連付け部、及び暗号化部の相関の一例を示す概念図である。 メタデータを画像データに直接的に付帯させる場合の処理内容の一例を示す概念図である。 メタデータを画像データに間接的に付帯させる場合の処理内容の一例を示す概念図である。 送信部と受信部との相関の一例を示す概念図である。 受信部と生成部との相関の一例を示す概念図である。 受信部、生成部、及び比較部の相関の一例を示す概念図である。 受信部、比較部、及び実行部の相関の一例を示す概念図である。 第1実施形態に係る画像ファイル作成処理の流れの一例を示すフローチャートである。 第1実施形態に係る画像ファイル受取処理の流れの一例を示すフローチャートである。 第2実施形態に係る撮像装置に含まれるプロセッサの機能の一例を示す機能ブロック図である。 UI系装置、ネットワーク、取得部、及び編集部の相関の一例を示す概念図である。 取得部及び関連付け部の相関の一例を示す概念図である。 NVM、関連付け部、及び暗号化部の相関の一例を示す概念図である。 第2実施形態に係る画像ファイル作成処理の流れの一例を示すフローチャートである。 第2関連付け情報の変形例を示す概念図である。 撮像装置、編集装置、及び受取装置の関係の一例を示す概念図である。 関連付け部、暗号化部、送信部、付帯部、ネットワーク、及び保管装置の相関の一例を示す概念図である。 画像ファイルに含まれるメタデータの内容の変形例を示す概念図である。 比較部の処理内容の一例を示す概念図である。 第1関連付け情報の変形例を示す概念図である。 暗号化部が第4関連付け情報を生成する処理内容の一例を示す概念図である。 暗号化部が第5関連付け情報を生成する処理内容の一例を示す概念図である。 撮像装置の要求に応じて画像ファイル作成処理が外部装置によって行われ、処理結果が撮像装置によって受け取られる形態例を示す概念図である。
 以下、添付図面に従って本開示の技術に係る情報作成方法、画像ファイル、情報作成装置、及びプログラムの実施形態の一例について説明する。
 [第1実施形態]
 一例として図1に示すように、撮像装置10は、被写体として指定された撮像対象領域12を撮像する。撮像対象領域12は、撮像装置10のユーザ(以下、「ユーザ」と称する)によって指定された画角によって定められる。図1に示す例では、撮像対象領域12に、複数の人物及び道路等が含まれている。撮像装置10は、本開示の技術に係る「情報作成装置」の一例である。
 撮像装置10は、撮像者14から与えられる指示に従って撮像対象領域12を撮像することにより画像ファイル16を生成する。画像ファイル16のファイルフォーマットとしては、例えば、JPEG(Joint Photographic Experts Group)又はTIFF(Tag Image File Format)が挙げられる。画像ファイル16には、撮像対象領域12が写った画像を示す画像データ18と、画像データ18についてのメタデータ20と、が含まれている。メタデータ20は、画像データ18に付帯するデータである。メタデータ20のフォーマットの一例としては、EXIF(Exchangeable image file format)が挙げられる。
 本第1実施形態において、画像ファイル16は、本開示の技術に係る「画像ファイル」の一例である。また、画像データ18は、本開示の技術に係る「画像データ」の一例である。更に、メタデータ20は、本開示の技術に係る「付帯情報」の一例である。
 撮像装置10は、民生用のデジタルカメラである。民生用のデジタルカメラの一例としては、レンズ交換式のデジタルカメラ又はレンズ固定式のデジタルカメラが挙げられる。民生用のデジタルカメラは、あくまでも一例に過ぎず、撮像装置10が産業用のデジタルカメラであっても成立する。本開示の技術は、撮像装置10が、ドライブレコーダ、スマートデバイス、ウェアラブル端末、細胞観察装置、眼科観察装置、又は外科顕微鏡等の各種の電子機器に搭載される撮像装置であっても成立する。また、本開示の技術は、撮像装置10が、内視鏡装置、超音波診断装置、エックス線撮像装置、CT(Computed Tomography)装置、又はMRI(Magnetic Resonance Imaging)装置等の各種のモダリティに搭載される撮像装置であっても成立する。
 一例として図2に示すように、画像ファイル16は、撮像者14から受取現場22に送られる。受取現場22には、受取装置24が設置されている。受取装置24の一例としては、例えば、パーソナル・コンピュータが挙げられる。受取装置24は、受取現場22の受取者26によって用いられる。受取者26は、撮像者14から送られた画像ファイル16を、受取装置24を介して受け取る。
 ここでは、受取装置24の一例として、パーソナル・コンピュータを挙げているが、これは、あくまでも一例に過ぎず、受取装置24は、スマートデバイス又はサーバ等であってもよい。
 画像ファイル16の受け渡しは、ネットワーク28を介して行われる。ネットワーク28の一例としては、WAN(Wide Area Network)又はLAN(Local Area Network)等が挙げられる。撮像装置10及び受取装置24は、ネットワーク28に通信可能に接続されている。ネットワーク28に対しては、撮像装置10が、無線方式で接続されていてもよいし、有線方式で接続されていてもよく、受取装置24についても同様のことが言える。また、撮像装置10は、スマートデバイス等の通信機器を介してネットワーク28に接続されていてもよく、受取装置24についても同様のことが言える。
 ここでは、画像ファイル16の受け渡しがネットワーク28を介して行われる形態例を挙げているが、これは、あくまでも一例に過ぎない。例えば、USB(Universal Serial Bus)メモリ等の可搬型記憶媒体を介して画像ファイル16の受け渡しが行われるようにしてもよいし、撮像装置10が受取装置24と直接接続されて、撮像装置10から受取装置24に画像ファイル16の受け渡しが行われるようにしてもよい。
 ところで、受取現場22の受取者26は、撮像者14から画像ファイル16を受け取ると、例えば、受け取った画像ファイル16に含まれるメタデータ20を参照しながら、受取装置24等を用いて画像ファイル16に対して何らかの処理(例えば、編集等)を行ったり、画像ファイル16を管理したりする。ここで、例えば、メタデータ20の全体又は一部が、撮像者14が意図しない者(以下、「第三者」と称する)によって改変されたり、メタデータ20の一部が第三者によって削除されたりすると、受取者26は、撮像者14が意図しない内容のメタデータ20を用いて画像ファイル16に対して何らかの処理を行ったり、画像ファイル16を管理したりすることになってしまう。このような事態を回避するためには、撮像者14から受取者26に信頼性の高いメタデータ20を提供することが重要となる。
 そこで、このような事情に鑑み、本第1実施形態では、撮像装置10によって画像ファイル作成処理が行われ(例えば、図3及び図13参照)、かつ、受取装置24によって画像ファイル受取処理(例えば、図4及び図14参照)が行われる。以下、より詳しく説明する。
 一例として図3に示すように、撮像装置10は、コンピュータ30、イメージセンサ32、UI(User Interface)系装置34、電子コンパス36、測距センサ38、GNSS(Global Navigation Satellite System)装置39、及び通信I/F(Interface)40を備えている。コンピュータ30は、本開示の技術に係る「コンピュータ」の一例である。
 コンピュータ30は、プロセッサ42、NVM(Non-volatile memory)44、及びRAM(Random Access Memory)46を備えている。プロセッサ42、NVM44、及びRAM46は、バス48に接続されている。プロセッサ42は、本開示の技術に係る「プロセッサ」の一例である。
 プロセッサ42は、DSP(Digital Signal Processor)、CPU(Central Processing Unit)、及びGPU(Graphics Processing Unit)を含む処理装置であり、DSP及びGPUは、CPUの制御下で動作し、画像に関する処理の実行を担う。ここでは、プロセッサ42の一例として、DSP、CPU、及びGPUを含む処理装置を挙げているが、これはあくまでも一例に過ぎず、プロセッサ42は、1つ以上のCPU及び1つ以上のGPUであってもよいし、GPU機能を統合した1つ以上のCPU及びDSPであってもよいし、GPU機能を統合していない1つ以上のCPU及びDSPであってもよいし、TPU(Tensor Processing Unit)が搭載されていてもよい。
 NVM44は、各種プログラム及び各種パラメータ等を記憶する不揮発性の記憶装置である。NVM44としては、例えば、フラッシュメモリ(例えば、EEPROM(Electrically Erasable and Programmable Read Only Memory))が挙げられる。RAM46は、一時的に情報が記憶されるメモリであり、プロセッサ42によってワークメモリとして用いられる。RAM46としては、例えば、DRAM(Dynamic Random Access Memory)又はSRAM(Static Random Access Memory)等が挙げられる。
 イメージセンサ32は、バス48に接続されている。イメージセンサ32の一例としては、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサが挙げられる。イメージセンサ32は、プロセッサ42の制御下で、撮像対象領域12(図1参照)を撮像することで画像データ18を生成する。
 ここでは、イメージセンサ32の一例としてCMOSイメージセンサを挙げているが、これは、あくまでも一例に過ぎず、イメージセンサ32は、CCD(Charge Coupled Device)イメージセンサ等の他種類のイメージセンサであってもよい。
 UI系装置34は、バス48に接続されている。UI系装置34は、撮像者14(図1及び図2参照)からの指示を受け付け、受け付けた指示を示す信号をプロセッサ42に出力する。また、UI系装置34は、プロセッサ42の制御下で、各種情報を撮像者14に提示する。各種情報の提示は、例えば、各種情報がディスプレイに表示されたり、各種情報がスピーカから音声として出力されたりすることによって実現される。
 電子コンパス36は、地磁気に基づいて、撮像装置10による撮像方向(例えば、撮像装置10に取り付けられている撮像レンズの光軸の方向)の方位を検出する。
 測距センサ38は、撮像距離を測定する。本第1実施形態において、撮像距離とは、撮像装置10(例えば、イメージセンサ32の受光面)から撮像対象領域12(例えば、図1に示す撮像対象領域12に含まれる特定の人物)までの距離を指す。測距センサ38の第1例としては、イメージセンサ32に対して適用された像面位相差画素を用いた測距センサが挙げられる。測距センサ38の第2例としては、複数の位相差画素が用いられており、イメージセンサ32とは別体のセンサとして撮像装置10に設けられた測距センサが挙げられる。測距センサ38の第3例としては、TOF(Time Of Flight)方式の測距センサが挙げられる。このように、測距センサ38は、撮像距離を測定可能なセンサであれば如何なるセンサであってもよい。
 GNSS装置39は、複数の衛星(図示省略)から発信される電波を受信し、受信した電波に基づいて撮像装置10の現在位置を特定可能な緯度及び経度を算出する。
 通信I/F40は、通信プロセッサ及びアンテナ等を含むインタフェースであり、バス48に接続されている。通信I/F40に対して適用される通信規格は、例えば、5G(5th Generation Mobile Communication System)、Wi-Fi(登録商標)、又はBluetooth(登録商標)等を含む無線通信規格であってもよいし、イーサネット(登録商標)、ファスト・イーサネット(登録商標)、又はギガビット・イーサネット(登録商標)等を含む有線通信規格であってもよい。
 NVM44には、画像ファイル作成プログラム50が記憶されている。画像ファイル作成プログラム50は、本開示の技術に係る「プログラム」の一例である。プロセッサ42は、NVM44から画像ファイル作成プログラム50を読み出し、読み出した画像ファイル作成プログラム50をRAM46上で実行することにより画像ファイル作成処理を行う。画像ファイル作成処理は、プロセッサ42がRAM46上で実行する画像ファイル作成プログラム50に従って、取得部42A、関連付け部42B、暗号化部42C、付帯部42D、及び送信部42Eとして動作することによって実現される。
 一例として図4に示すように、受取装置24は、コンピュータ52、UI系装置54、及び通信I/F56を備えている。コンピュータ52は、プロセッサ58、NVM60、及びRAM62を備えている。プロセッサ58、NVM60、RAM62、UI系装置54、及び通信I/F56は、バス64に接続されている。
 なお、コンピュータ52のハードウェア構成(すなわち、プロセッサ58、NVM60、及びRAM62)は、図3に示すコンピュータ30のハードウェア構成と基本的に同じなので、ここでは、コンピュータ52のハードウェア構成に関する説明は省略する。また、受取装置24においてUI系装置54が担う役割は、図3に示す撮像装置10においてUI系装置34が担う役割と基本的に同じなので、ここでの説明は省略する。更に、受取装置24において通信I/F56が担う役割も、図3に示す撮像装置10において通信I/F40が担う役割と基本的に同じなので、ここでの説明は省略する。
 NVM60には、画像ファイル受取プログラム66が記憶されている。プロセッサ58は、NVM60から画像ファイル受取プログラム66を読み出し、読み出した画像ファイル受取プログラム66をRAM62上で実行することにより画像ファイル受取処理を行う。画像ファイル受取処理は、プロセッサ58がRAM62上で実行する画像ファイル受取プログラム66に従って、受信部58A、生成部58B、比較部58C、及び実行部58Dとして動作することによって実現される。
 図5~図9には、撮像装置10での取得部42A、関連付け部42B、暗号化部42C、付帯部42D、及び送信部42Eの処理内容の一例が示されている。
 一例として図5に示すように、取得部42Aは、撮像工程と取得工程とを実行する。撮像工程は、イメージセンサ32によって撮像が行われることによって得られた画像データ18をイメージセンサ32から取得する工程である。また、取得工程は、画像データ18に関連する関連情報68を取得する工程である。なお、撮像工程は、本開示の技術に係る「撮像工程」の一例である。また、取得工程は、本開示の技術に係る「取得工程」の一例である。
 ここで、第三者によって正規の関連情報68でない情報(すなわち、偽の関連情報68)が作られる時間的な余地が生じないようにするために、取得工程は、画像データ18が取得された後に自動的に実行される。すなわち、取得工程は、撮像工程の後に自動的に実行される。例えば、取得部42Aは、撮像工程の終了と取得工程の開始とを同期させること(例えば、撮像工程が終了したタイミングで取得工程を開始すること)により、撮像工程と取得工程とを連続して行う。
 関連情報68には、撮像者情報68A、撮像時刻情報68B、撮像装置位置情報68C、及び被写体位置情報68Dが含まれている。ここで、撮像者情報68Aは、本開示の技術に係る「撮像者情報」の一例である。また、撮像時刻情報68Bは、本開示の技術に係る「撮像時間情報」の一例である。また、撮像装置位置情報68Cは、本開示の技術に係る「撮像装置位置情報」の一例である。更に、被写体位置情報68Dは、本開示の技術に係る「被写体位置情報」の一例である。
 撮像者情報68Aは、画像データ18を得るために撮像装置10を用いた撮像を行った者、すなわち、撮像者14を特定可能な情報である。撮像者情報68Aの一例としては、撮像者14の名称(例えば、氏名又はハンドルネーム等)を示す情報が挙げられる。撮像者情報68Aは、NVM44に記憶されており、NVM44から取得部42Aによって取得される。
 ここでは、説明の便宜上、NVM44から取得部42Aによって撮像者情報68Aが取得される形態例を挙げているが、これは、あくまでも一例に過ぎない。例えば、撮像者情報68Aは、ネットワーク28を通じてサーバ等から取得部42Aによって取得されてもよいし、UI系装置34を介して手入力された撮像者情報68Aが取得部42Aによって取得されてもよい。
 撮像時刻情報68Bは、画像データ18を得るために撮像装置10を用いた撮像が行われた時刻を示す情報である。例えば、撮像時刻情報68Bは、ネットワーク28を通じて取得部42Aによって取得される。
 ここでは、説明の便宜上、撮像時刻情報68Bがネットワーク28を通じて取得部42Aによって取得される形態例を挙げているが、これは、あくまでも一例に過ぎない。例えば、撮像時刻情報68Bは、撮像装置10に内蔵されているリアルタイムクロック、又は、撮像装置10に接続されている外部装置(例えば、スマートデバイス等)に内蔵されているリアルタイムクロックから取得部42Aによって取得されてもよいし、UI系装置34を介して手入力された撮像時刻情報68Bが取得部42Aによって取得されてもよい。
 また、ここでは、説明の便宜上、関連情報68に含まれる情報として、撮像時刻情報68Bを挙げているが、これは、あくまでも一例に過ぎない。例えば、関連情報68に含まれる情報は、イメージセンサ32によって行われた露光に要した時間を示す情報であってもよい。また、関連情報68に含まれる情報は、フレーム間の時間間隔を示す情報であってもよい。また、関連情報68に含まれる情報は、動画像を得るための撮像を開始した時刻を示す情報であってもよい。また、関連情報68に含まれる情報は、動画像を得るための撮像が終了した時刻を示す情報であってもよい。また、関連情報68に含まれる情報は、動画像を得るための撮像を開始してから終了するまでの時間を示す情報であってもよい。このように、撮像装置10を用いた撮像に関する時間を示す情報が関連情報68に含まれていればよい。
 撮像装置位置情報68Cは、画像データ18を得るために撮像装置10による撮像が行われた位置(例えば、撮像が行われた時点での撮像装置10の位置)を示す情報であり、取得部42AによってGNSS装置39から取得される。すなわち、GNSS装置39が、撮像装置10の現在位置を特定可能な緯度及び経度を算出し、算出した緯度及び経度を示す情報が撮像装置位置情報68Cとして取得部42Aによって取得される。
 ここでは、説明の便宜上、撮像装置位置情報68Cが取得部42AによってGNSS装置39から取得される形態例を挙げているが、これは、あくまでも一例に過ぎない。例えば、UI系装置34を介して手入力された緯度及び経度を示す情報が取得部42Aによって撮像装置位置情報68Cとして取得されてもよい。また、例えば、撮像装置10に接続されている外部装置(例えば、スマートデバイス等)に内蔵されているGNSS装置によって算出された緯度及び経度を示す情報が撮像装置位置情報68Cとして取得部42Aによって取得されてもよい。
 被写体位置情報68Dは、撮像対象領域12の位置(ここでは、一例として、撮像対象領域12の緯度及び経度)を示す情報であり、取得部42Aによって算出される。取得部42Aは、撮像装置位置情報68C、距離情報70、及び方位情報72に基づいて被写体位置情報68Dを算出する。距離情報70は、測距センサ38によって測定された撮像距離を示す情報であり、取得部42Aによって測距センサ38から取得される。方位情報72は、電子コンパス36によって検出された方位を示す情報であり、取得部42Aによって電子コンパス36から取得される。
 ここでは、説明の便宜上、被写体位置情報68Dが取得部42Aによって算出される形態例を挙げて説明したが、これは、あくまでも一例に過ぎない。例えば、UI系装置34を介して手入力された被写体位置情報68Dが取得部42Aによって取得されてもよい。
 撮像装置位置情報68C及び被写体位置情報68Dには、不許容情報74が含まれている。不許容情報74は、改変及び削除が許容されていない旨を示す情報である。すなわち、撮像装置位置情報68Cに含まれている不許容情報74は、撮像装置位置情報68Cの改変及び削除が許容されていない旨を示す情報であり、被写体位置情報68Dに含まれている不許容情報74は、被写体位置情報68Dの改変及び削除が許容されていない旨を示す情報である。
 従って、撮像者14又は受取者26は、不許容情報74が含まれている情報であるか否かを確認することで、改変及び削除が許容されていない情報であるか否かを判断することが可能となる。例えば、本第1実施形態では、撮像装置位置情報68C及び被写体位置情報68Dに不許容情報74が含まれているので、撮像者14又は受取者26は、撮像装置位置情報68C及び被写体位置情報68Dの改変及び削除が許容されていないことを認識することができる。
 取得部42Aは、関連情報68に含まれる複数の情報から、UI系装置34によって受け付けられた指示に従って選択された1つ以上の情報(ここでは、一例として、撮像装置位置情報68C及び被写体位置情報68D)に不許容情報74を含める。
 なお、関連情報68に含まれる複数の情報のうち、不許容情報74を含める1つ以上の情報が予め定められていてもよく、この場合、取得部42Aが、予め定められている1つ以上の情報に不許容情報74を含める。
 一例として図6に示すように、関連付け部42Bは、第1関連付け情報76を生成する。第1関連付け情報76は、信頼性情報78と、取得部42Aによって取得された関連情報68とが関連付けられることによって生成される。信頼性情報78は、本開示の技術に係る「信頼性情報」の一例である。
 信頼性情報78は、関連情報68の信頼性を示す情報である。ここで、改変されたり削除されたりする度合いの高い関連情報68は、信頼性の低い情報と言える。逆に、改変されたり削除されたりする度合いの低い関連情報68は、信頼性の高い情報と言える。
 関連情報68の信頼性は、関連情報68の出処によって左右される。つまり、関連情報68の出処は、受取者26等が関連情報68の信頼性を判断するための1つの指標となり得る。例えば、関連情報68の出処がセキュリティ性の高い出処(例えば、関連情報68に対する改変又は削除等が困難な出処)であれば、受取者26等は、関連情報68の信頼性も高いと判断することができ、関連情報68の出処がセキュリティ性の低い出処(例えば、関連情報68に対する改変又は削除等が容易な出処)であれば、受取者26等は、関連情報68の信頼性も低いと判断することができる。
 セキュリティ性の高い出処の一例としては、ネットワーク28又はGNSSが挙げられる。セキュリティ性が中程度の場合の一例としては、プロセッサ42が、距離又は方位などを測定する他のセンサと連携して何らかの情報を得た場合が挙げられる。セキュリティ性の低い出処(すなわち、ネットワーク28又はGNSSよりも第三者が介入し易い出処)の一例としては、UI系装置34又は読み書き自在なメモリ(例えば、NVM44)等が挙げられる。この場合、手入力で得られた関連情報68又は読み書き自在なメモリから得られた関連情報68は、ネットワーク28上の公的なアドレスのページを通じて得られた関連情報68に比べ、信頼性が低い関連情報68と言える。そこで、本第1実施形態では、信頼性情報78の一例として、関連情報68がネットワーク28を通じて得られた情報であるか否かに関する情報が適用されている。
 信頼性情報78は、第1信頼性情報78A、第2信頼性情報78B、第3信頼性情報78C、及び第4信頼性情報78Dを含む。関連付け部42Bは、撮像者情報68Aに第1信頼性情報78Aを関連付け、撮像時刻情報68Aに第2信頼性情報78Bを関連付け、撮像装置位置情報68Cに第3信頼性情報78Cを関連付け、被写体位置情報68Dに第4信頼性情報78Dを関連付ける。
 第1信頼性情報78Aは、撮像者情報68Aの出処を特定可能な情報である。本第1実施形態では、撮像者情報68Aが、NVM44から取得部42Aによって取得された情報である。そのため、本第1実施形態では、第1信頼性情報78Aの一例として、撮像者情報68AがNVM44から取得された旨を示す情報が適用されている。このような第1信頼性情報78Aが撮像者情報68Aに関連付けられているということは、撮像者情報68Aがネットワーク28を通じて得られた情報でないことを意味する。
 ここで、関連付け部42Bは、撮像工程の後に取得工程が自動的に実行されるのと同様の要領で、撮像者情報68AがNVM44から取得部42Aによって取得された後に自動的に撮像者情報68Aに第1信頼性情報78Aを関連付ける。このようにする理由は、第三者によって偽の信頼性情報78が作られて撮像者情報68Aに関連付けられる時間的な余地が生じないようにするためである。
 第2信頼性情報78Bは、撮像時刻情報68Bの出処を特定可能な情報である。本第1実施形態では、撮像時刻情報68Bが、ネットワーク28を通じて取得された情報である。そのため、本第1実施形態では、第2信頼性情報78Bの一例として、撮像時刻情報68Bがネットワーク28を通じて取得された旨を示す情報が適用されている。このような第2信頼性情報78Bが撮像時刻情報68Bに関連付けられているということは、撮像時刻情報68Bがネットワーク28を通じて得られた情報であることを意味する。
 また、第1信頼性情報78Aと撮像者情報68Aとの関連付けと同様の要領で、第2信頼性情報78Bも、撮像時刻情報68Bがネットワーク28を通じて取得された後に自動的に撮像時刻情報68Bに関連付けられる。
 第3信頼性情報78Cは、撮像装置位置情報68Cの出処を特定可能な情報である。本第1実施形態では、撮像装置位置情報68Cが、GNSSを通じて取得された情報である。そのため、本第1実施形態では、第3信頼性情報78Cの一例として、撮像装置位置情報68CがGNSSを通じて取得された旨を示す情報が適用されている。このような第3信頼性情報78Cが撮像装置位置情報68Cに関連付けられているということは、撮像装置位置情報68Cが信頼性の高いGNSSを通じて得られた情報でないことを意味する。
 また、第1信頼性情報78Aと撮像者情報68Aとの関連付けと同様の要領で、第3信頼性情報78Cも、撮像装置位置情報68CがGNSSを通じて取得された後に自動的に撮像装置位置情報68Cに関連付けられる。
 第4信頼性情報78Dは、被写体位置情報68Dの出処を特定可能な情報である。本第1実施形態では、被写体位置情報68Dが、プロセッサ42による内部処理(すなわち、取得部42Aによって撮像装置位置情報68C、距離情報70、及び方位情報72に基づいて行われた被写体位置情報68Dの算出)を通じて取得された情報である。そのため、本第1実施形態では、第4信頼性情報78Dの一例として、被写体位置情報68Dがプロセッサ42による内部処理を通じて取得された旨を示す情報が適用されている。このような第4信頼性情報78Dが被写体位置情報68Dに関連付けられているということは、被写体位置情報68Dが、信頼性が少し高いプロセッサ42が他のデバイス(例えば、電子コンパス36又は測距センサ38等)と連携して内部処理を行うことで得た情報であることを意味する。
 また、第1信頼性情報78Aと撮像者情報68Aとの関連付けと同様の要領で、第4信頼性情報78Dも、被写体位置情報68Dがプロセッサ42による内部処理を通じて取得された後に自動的に被写体位置情報68Dに関連付けられる。
 一例として図7に示すように、暗号化部42Cは、第1関連付け情報76を用いて第2関連付け情報80を生成する。第2関連付け情報80は、第1関連付け情報76と比べ、関連情報68が暗号化情報82に置き換えられた点、及び時期情報86を含む点が異なる。
 暗号化部42Cは、暗号化工程を実行する。暗号化工程は、第1関連付け情報76に含まれる関連情報68を暗号化した暗号化情報82を生成する工程である。暗号化情報82は、本開示の技術に係る「第1暗号化情報」の一例である。
 暗号化工程は、撮像工程の後に取得工程が自動的に実行されるのと同様の要領で、取得工程の後に自動的に実行される。このようにする理由は、第三者によって関連情報68が改変されたり、関連情報68が削除されたり、改変された関連情報68が暗号化されたりする時間的な余地が生じないようにするためである。
 NVM44には、ハッシュ関数84が記憶されている。ハッシュ関数84の一例としては、SHA-256、SHA-384、又はSHA-512等が挙げられる。暗号化部42Cは、NVM44からハッシュ関数84を取得し、取得したハッシュ関数84を用いて関連情報68を暗号化(すなわち、ハッシュ化)することにより暗号化情報82を生成する。
 暗号化情報82は、第1ハッシュ値82A、第2ハッシュ値82B、第3ハッシュ値82C、及び第4ハッシュ値82Dを含む。第1ハッシュ値82Aは、撮像者情報68Aに対してハッシュ関数84を用いたハッシュ化が行われることによって得られた値である。第2ハッシュ値82Bは、撮像時刻情報68Bに対してハッシュ関数84を用いたハッシュ化が行われることによって得られた値である。第3ハッシュ値82Cは、撮像装置位置情報68Cに対してハッシュ関数84を用いたハッシュ化が行われることによって得られた値である。第4ハッシュ値82Dは、被写体位置情報68Dに対してハッシュ関数84を用いたハッシュ化が行われることによって得られた値である。
 暗号化情報82には、関連情報68に関連付けられている信頼性情報78がそのまま引き継がれて関連付けられる。すなわち、第1ハッシュ値82Aに対して第1信頼性情報78Aが関連付けられ、第2ハッシュ値82Bに対して第2信頼性情報78Bが関連付けられ、第3ハッシュ値82Cに対して第3信頼性情報78Cが関連付けられ、第4ハッシュ値82Dに対して第4信頼性情報78Dが関連付けられる。
 暗号化部42Cは、暗号化工程において、暗号化情報82が生成された時期に関する情報である時期情報86を生成し、生成した時期情報86を第2関連付け情報80に含める。例えば、暗号化工程において、時期情報86は、暗号化情報82に関連付けられることによって第2関連付け情報80に含められる。
 本第1実施形態では、時期情報86の一例として、撮像時刻情報68Bを利用して生成された情報が適用されている。時期情報86が生成されるタイミングの一例としては、関連情報68の暗号化(ここでは、一例として、ハッシュ化)が終了したタイミングが挙げられる。
 時期情報86には、暗号化情報82が撮像時に生成された旨のような生成のタイミングを示す情報と、撮像時刻情報68Bとが含まれている。なお、これは、あくまでも一例に過ぎず、時期情報86は、撮像時刻情報68Bそのものであってもよい。また、時期情報86は、実際に関連情報68の暗号化が終了した時点での時刻を示す情報であってもよい。この場合、例えば、時期情報86は、関連情報68の暗号化が終了したタイミングでネットワーク28を通じて暗号化部42Cによって取得されてもよいし、撮像装置10に内蔵されているリアルタイムクロックから関連情報68の暗号化が終了したタイミングで暗号化部42Cによって取得されてもよい。
 一例として図8A及び図8Bに示すように、付帯部42Dは、関連情報68、第2関連付け情報80、及びハッシュ関数84をメタデータ20として画像データ18に直接的に、又は、間接的に付帯させる付帯工程を実行する。付帯工程には、作成工程が含まれている。作成工程は、画像ファイル16を作成する作成工程である。作成工程では、画像データ18及びメタデータ20が既定のファイルフォーマットに従ってファイル化されることによって画像ファイル16が作成される。ここで、付帯部42Dがメタデータ20を画像データ18に直接的に付帯させる場合、例えば、図8Aに示すように、画像ファイル16には、関連情報68、第2関連付け情報80、及びハッシュ関数84がメタデータ20として含まれる。
 これに対し、図8Bには、付帯部42Dがメタデータ20を画像データ18に間接的に付帯させる場合の一例が示されている。メタデータ20の画像データ18への間接的な付帯は、アクセス情報85を画像ファイル16内のメタデータ20に含めることによって実現される。
 図8Bに示す例において、付帯工程は、メタデータ20を外部のサーバ2の記録媒体4に記録する記録工程(例えば、付帯部42Dがメタデータ20をサーバ2にアップロードしてサーバ2に対して記録媒体4に記録させる工程)と、記録媒体4内のメタデータ20にアクセスするためのアクセス情報85(例えば、サーバ2の記録媒体4に保管されているメタデータ20へのアクセスを可能にするための情報)を含む画像ファイル16を作成する作成工程と、を含む。
 記録媒体4の一例としては、ハードディスク、磁気テープ、又は、フラッシュメモリ等が挙げられる。アクセスの一例としては、ネットワーク28上の情報(ここでは、一例として、メタデータ20)を探して閲覧する処理、メモリ(ここでは、一例として、記録媒体4)から情報(ここでは、一例として、メタデータ20)の読み出しを行う処理、又はメモリに対して情報の書き込みを行う処理等が挙げられる。また、アクセス情報85の一例としては、識別ID(identifier)、URL(Uniform Resource Locator)、又はダウンロードパスワード等が挙げられる。
 このように、画像ファイル16内のメタデータ20にアクセス情報85を含めておくことで、画像ファイル16の利用等が正式に許可されているユーザは、画像ファイル16内のメタデータ20に含まれているアクセス情報85を利用することにより、記録媒体4内のメタデータ20へのアクセスが可能となる。
 画像ファイル16に含まれるメタデータ20と記録媒体20に含まれるメタデータ20は同一のデータであってもよいし、一部又は全部が異なるデータであってもよい。
 画像ファイル16に含まれるメタデータ20と記録媒体20に含まれるメタデータ20とが異なる場合の第1例としては、図8Aに示す関連情報68、第2関連付け情報80、及びハッシュ関数84のうちの全部が記録媒体20に記録され、図8Aに示す関連情報68、第2関連付け情報80、及びハッシュ関数84以外のメタデータ20が画像ファイル16に記録される形態例が挙げられる。
 画像ファイル16に含まれるメタデータ20と記録媒体20に含まれるメタデータ20とが異なる場合の第2例としては、図8Aに示す関連情報68、第2関連付け情報80、及びハッシュ関数84のうちの一部(例えば、関連情報68)が記録媒体20に記録され、残り(例えば、第2関連付け情報80及びハッシュ関数84)を含むメタデータ20が画像ファイル16に記録される形態例が挙げられる。
 画像ファイル16に含まれるメタデータ20と記録媒体20に含まれるメタデータ20とが異なる場合の第3例としては、アクセス情報85が画像ファイル16にメタデータ20として記録され、アクセス情報85以外のメタデータ20が記録媒体20に記録される形態例が挙げられる。
 このように、メタデータ20を画像ファイル16と記録媒体4とに分散させておくことで、メタデータ20に対するセキュリティ性を高めることができる。
 なお、各実施形態では、本開示の技術の理解を容易にするために、メタデータ20を画像データ18に直接的に付帯させる形態例を挙げて説明するが、本開示の技術はこれに限定されず、本開示の技術には、付帯部42Dがメタデータ20を画像データ18に間接的に付帯させる例も含まれる。
 付帯部42Dは、撮像工程の後に取得工程が自動的に実行されるのと同様の要領で、取得工程の後に自動的に関連情報68をメタデータ20に含める。このようにする理由は、関連情報68をメタデータ20に含める前段階で、第三者によって関連情報68が改変されたり削除されたりする時間的な余地を生じさせないためである。
 付帯部42Dは、撮像工程の後に取得工程が自動的に実行されるのと同様の要領で、暗号化工程の後に自動的に第2関連付け情報80及びハッシュ関数84をメタデータ20に含める。このようにする理由は、第2関連付け情報80及びハッシュ関数84をメタデータ20に含める前段階で、第三者によって第2関連付け情報80及びハッシュ関数84が改変されたり削除されたりする時間的な余地を生じさせないためである。
 一例として図9に示すように、撮像装置10において、送信部42Eは、付帯部42Dによって作成された画像ファイル16を、通信I/F40(図3参照)を介して受取装置24に送信する。受取装置24では、送信部42Eから送信された画像ファイル16を、通信I/F56(図4参照)を介して受信する。これにより、撮像者14から受取者26に画像ファイル16が受け渡される(図2参照)。
 図10~図12には、受取装置24での受信部58A、生成部58B、比較部58C、及び実行部58Dの処理内容の一例が示されている。
 一例として図10に示すように、生成部58Bは、受信部58Aによって受信された画像ファイル16を受信部58Aから取得する。生成部58Bは、生成工程を実行する。生成工程は、関連情報68とハッシュ関数84とを用いて検証情報88を生成する工程である。生成工程は、本開示の技術に係る「生成工程」の一例である。
 生成工程において、生成部58Bは、画像ファイル16に含まれるメタデータ20から関連情報68及びハッシュ関数84を取得し、関連情報68に対してハッシュ関数84を用いたハッシュ化を行うことにより検証情報88を生成する。検証情報88は、第5ハッシュ値88A、第6ハッシュ値88B、第7ハッシュ値88C、及び第8ハッシュ値88Dを含む。
 第5ハッシュ値88Aは、関連情報68に含まれる撮像者情報68A(図6参照)に対してハッシュ関数84を用いたハッシュ化が行われることによって得られた値である。第6ハッシュ値88Bは、関連情報68に含まれる撮像時刻情報68A(図6参照)に対してハッシュ関数84を用いたハッシュ化が行われることによって得られた値である。第7ハッシュ値88Cは、関連情報68に含まれる撮像装置位置情報68Cに対してハッシュ関数84を用いたハッシュ化が行われることによって得られた値である。第8ハッシュ値88Dは、被写体位置情報68Dに対してハッシュ関数84を用いたハッシュ化が行われることによって得られた値である。
 一例として図11に示すように、比較部58Cは、受信部58Aによって受信された画像ファイル16(すなわち、生成部58Bによって取得された画像ファイル16と同じ画像ファイル16)を受信部58Aから取得する。比較部58Cは、受信部58Aから取得した画像ファイル16に含まれるメタデータ20内の第2関連付け情報80から暗号化情報82を抽出する。
 比較部58Cは、生成部58Bによって生成された検証情報88を生成部58Bから取得する。ここで、比較部58Cは、比較工程を実行する。比較工程は、本開示の技術に係る「比較工程」の一例である。比較工程は、生成部58Bから取得した検証情報88と、第2関連付け情報80から抽出した暗号化情報82とを比較する工程である。なお、図8Bに示すように、メタデータ20がサーバ2の記録媒体4に記録されている場合、比較工程におけるメタデータ20の改変、又は、削除の検証は、サーバ2内で実行されてもよいし、サーバ2に通信可能に接続された装置(パーソナル・コンピュータ、又は、サーバ2以外のサーバ等)によって実行されてもよい。
 比較部58Cは、検証情報88に含まれる第5ハッシュ値88Aと暗号化情報82に含まれる第1ハッシュ値82Aとを比較することで、第5ハッシュ値88Aと第1ハッシュ値82Aとが一致しているか否かを判定する。また、比較部58Cは、検証情報88に含まれる第6ハッシュ値88Bと暗号化情報82に含まれる第2ハッシュ値82Bとを比較することで、第6ハッシュ値88Bと第2ハッシュ値82Bとが一致しているか否かを判定する。また、比較部58Cは、検証情報88に含まれる第7ハッシュ値88Cと暗号化情報82に含まれる第3ハッシュ値82Cとを比較することで、第7ハッシュ値88Cと第3ハッシュ値82Cとが一致しているか否かを判定する。更に、比較部58Cは、検証情報88に含まれる第8ハッシュ値88Dと暗号化情報82に含まれる第4ハッシュ値82Dとを比較することで、第8ハッシュ値88Dと第4ハッシュ値82Dとが一致しているか否かを判定する。
 一例として図12に示すように、実行部58Dは、比較部58Cから比較結果90を取得する。比較結果90には、第1比較結果90A、第2比較結果90B、第3比較結果90C、及び第4比較結果90Dが含まれている。
 第1比較結果90Aは、比較部58Cによって第5ハッシュ値88Aと第1ハッシュ値82Aとが比較された結果(すなわち、第5ハッシュ値88Aと第1ハッシュ値82Aとが一致しているか否かが判定された結果)である。第2比較結果90Bは、比較部58Cによって第6ハッシュ値88Bと第2ハッシュ値82Bとが比較された結果(すなわち、第6ハッシュ値88Bと第2ハッシュ値82Bとが一致しているか否かが判定された結果)である。第3比較結果90Cは、比較部58Cによって第7ハッシュ値88Cと第3ハッシュ値82Cとが比較された結果(すなわち、第7ハッシュ値88Cと第3ハッシュ値82Cとが一致しているか否かが判定された結果)である。第4比較結果90Dは、比較部58Cによって第8ハッシュ値88Dと第4ハッシュ値82Dとが比較された結果(すなわち、第8ハッシュ値88Dと第4ハッシュ値82Dとが一致しているか否かが判定された結果)である。
 実行部58Dは、受信部58Aによって受信された画像ファイル16(すなわち、生成部58B及び比較部58Cによって取得された画像ファイル16と同じ画像ファイル16)を受信部58Aから取得する。また、実行部58Dは、受信部58Aから取得した画像ファイル16に含まれるメタデータ20内の第2関連付け情報80から信頼性情報78及び時期情報86を抽出する。
 実行部58Dは、比較部58Cから取得した比較結果90、第2関連付け情報80から抽出した信頼性情報78、及び第2関連付け情報80から抽出した時期情報86に基づく処理を実行する。
 比較結果90、信頼性情報78、及び時期情報86に基づく処理の一例としては、予防処理が挙げられる。予防処理とは、例えば、メタデータ20が改変されたり、メタデータ20の一部が削除されたりしていることに起因して、メタデータ20を用いた受取者26が不利益を被ることを事前に予防する処理を指す。
 予防処理の第1例としては、比較結果90、信頼性情報78、及び時期情報86を、UI系装置34(例えば、ディスプレイ)を介して受取者26に提示したり、撮像者14に対して通知したりする処理が挙げられる。
 予防処理の第2例としては、比較結果90、信頼性情報78、及び時期情報86に基づいて、メタデータ20に含まれている関連情報68が改変されたり、関連情報68の一部が削除されたりしている可能性を示す数値を算出し、算出した数値に基づく情報を特定の出力先(例えば、UI系装置34、NVM44、又はネットワーク28上の外部装置等)に出力する処理が挙げられる。
 予防処理の第3例としては、上述したように可能性を示す数値を算出し、算出した数値に基づく情報をメタデータ20に含める処理が挙げられる。
 予防処理の第4例としては、時期情報86により示される時刻と、画像ファイル16のメタデータ20に含まれる撮像時刻情報68Bにより示される時刻との相違度を算出し、算出した相違度に基づく情報を特定の出力先に出力する処理が挙げられる。相違度に基づく情報の一例としては、相違度そのものを示す情報、又は、相違度に応じて定められたアラート情報が挙げられる。アラート情報の一例としては、相違度が大きいほど、大きな注意を促す情報が挙げられる。
 予防処理の第5例としては、上述したように相違度を算出し、算出した相違度に基づく情報(例えば、相違度に応じたフラグ)をメタデータ20に含める処理が挙げられる。
 予防処理の第6例としては、上述したように可能性を示す数値又は相違度を算出し、可能性を示す数値又は相違度が閾値を超える場合に画像ファイル16を削除したり、画像ファイル16にフラグを付与したり、画像ファイル16を特定の格納領域に格納したりする処理が挙げられる。
 なお、ここでは、比較結果90、信頼性情報78、及び時期情報86に基づいて実行部58Dによって予防処理が実行される形態例を挙げたが、これは、あくまでも一例に過ぎない。例えば、比較結果90、信頼性情報78、及び時期情報86のうちの1つの情報又は2つの情報に基づいて実行部58Dによって予防処理が実行されるようにしてもよい。
 次に、撮像装置10及び受取装置24の本開示の技術に係る部分の作用について図13及び図14を参照しながら説明する。
 先ず、撮像装置10の本開示の技術に係る部分の作用について図13を参照しながら説明する。図13に示すフローチャートによって示される画像ファイル作成処理の流れは、本開示の技術に係る「情報作成方法」の一例である。
 図13に示す画像ファイル作成処理では、先ず、ステップST10で、取得部42Aは、イメージセンサ32によって1フレーム分の撮像が行われたか否かを判定する。ステップST10において、イメージセンサ32によって1フレーム分の撮像(例えば、静止画像用の撮像)が行われていない場合は、判定が否定されて、画像ファイル作成処理はステップST26へ移行する。ステップST10において、イメージセンサ32によって1フレーム分の撮像が行われた場合は、判定が肯定されて、画像ファイル作成処理はステップST12へ移行する。
 ステップST12で、取得部42Aは、イメージセンサ32から画像データ18を取得する。ステップST12の処理が実行された後、画像ファイル作成処理はステップST14へ移行する。
 ステップST14で、取得部42Aは、画像データ18に関連する関連情報68を取得する。ステップST14の処理が実行された後、画像ファイル作成処理はステップST16へ移行する。
 ステップST16で、関連付け部42Bは、ステップST14で取得された関連情報68と信頼性情報78とを関連付けることにより第1関連付け情報76を生成する。ステップST16の処理が実行された後、画像ファイル作成処理はステップST18へ移行する。
 ステップST18で、暗号化部42Cは、ステップST16で生成された第1関連付け情報76に含まれる関連情報68を、ハッシュ関数84を用いて暗号化することにより、暗号化情報82を生成する。ステップST18の処理が実行された後、画像ファイル作成処理はステップST20へ移行する。
 ステップST20で、暗号化部42Cは、時期情報86を生成する。そして、暗号化部42Cは、ステップST18で生成した暗号化情報82と、ステップST16で用いられた信頼性情報78と、時期情報86とに基づいて第2関連付け情報80を生成する。ステップST20の処理が実行された後、画像ファイル作成処理はステップST22へ移行する。
 ステップST22で、付帯部42Dは、ステップST14で取得された関連情報68と、ステップST20で生成された第2関連付け情報80と、ステップST18で用いられたハッシュ関数84とをメタデータ20として画像データ18に付帯させることで、画像ファイル16を作成する。ステップST22の処理が実行された後、画像ファイル作成処理はステップST24へ移行する。
 ステップST24で、送信部42Eは、ステップST22で作成された画像ファイル16を受取装置24に送信する。ステップST24の処理が実行された後、画像ファイル作成処理はステップST26へ移行する。
 ステップST26で、送信部42Eは、画像ファイル作成処理が終了する条件を満足したか否かを判定する。画像ファイル作成処理が終了する条件の一例としては、画像ファイル作成処理を終了させる指示がUI系装置34によって受け付けられた、という条件が挙げられる。ステップST26において、画像ファイル作成処理が終了する条件を満足していない場合は、判定が否定されて、画像ファイル作成処理はステップST10へ移行する。ステップST26において、画像ファイル作成処理が終了する条件を満足した場合は、判定が肯定されて、画像ファイル作成処理が終了する。
 次に、受取装置24の本開示の技術に係る部分の作用について図14を参照しながら説明する。
 図14に示す受取処理では、先ず、ステップST50で、受信部58Aは、図13に示すステップST24の処理が実行されることによって撮像装置10の送信部42Eから送信された画像ファイル16を受信したか否かを判定する。ステップST50において、画像ファイル16を受信していない場合は、判定が否定されて、画像ファイル受取処理はステップST60へ移行する。ステップST50において、画像ファイル16を受信した場合は、判定が肯定されて、画像ファイル受取処理はステップST52へ移行する。
 ステップST52で、生成部58Bは、ステップST50で受信された画像ファイル16のメタデータ20に含まれる関連情報68を、メタデータ20に含まれるハッシュ関数84を用いて暗号化することにより、検証情報88を生成する。ステップST52の処理が実行された後、画像ファイル受取処理はステップST54へ移行する。
 ステップST54で、比較部58Cは、ステップST50で受信された画像ファイル16のメタデータ20に含まれる第2関連付け情報80から暗号化情報82を抽出する。そして、比較部58Cは、第2関連付け情報80から抽出した暗号化情報82と、ステップST52で生成された検証情報88とを比較する。ステップST54の処理が実行された後、受取処理はステップST56へ移行する。
 ステップST56で、実行部58Dは、ステップST50で受信された画像ファイル16のメタデータ20に含まれる第2関連付け情報80から信頼性情報78及び時期情報86を抽出する。ステップST56の処理が実行された後、画像ファイル受取処理はステップST58へ移行する。
 ステップST58で、実行部58Dは、ステップST54で暗号化情報82と検証情報88とが比較された結果である比較結果90、ステップST56で第2関連付け情報80から抽出した信頼性情報78、及びステップST56で第2関連付け情報80から抽出した時期情報86に基づく処理(例えば、上述した予防処理)を実行する。ステップST58の処理が実行された後、画像ファイル受取処理はステップST60へ移行する。
 ステップST60で、実行部58Dは、画像ファイル受取処理が終了する条件を満足したか否かを判定する。画像ファイル受取処理が終了する条件の一例としては、画像ファイル受取処理を終了させる指示がUI系装置54によって受け付けられた、という条件が挙げられる。ステップST60において、画像ファイル受取処理が終了する条件を満足していない場合は、判定が否定されて、画像ファイル受取処理はステップST50へ移行する。ステップST60において、画像ファイル受取処理が終了する条件を満足した場合は、判定が肯定されて、画像ファイル受取処理が終了する。
 以上説明したように、本第1実施形態では、撮像装置10によって、画像データ18に関連する関連情報68が取得され、関連情報68が暗号化された暗号化情報82が生成される。撮像装置10は、暗号化情報82をメタデータ20として画像データ18に付帯させることにより画像ファイル16を作成する。
 そして、本第1実施形態では、撮像装置10によって、画像ファイル16のメタデータ20に時期情報86が含められる。時期情報86は、暗号化情報82が生成された時期に関する情報である。従って、例えば、受取者26等は、撮像者14から画像ファイル16を受け取った場合に、画像ファイル16のメタデータ20に含まれる時期情報86を参照することで、関連情報68が暗号化された時期の妥当性を推測することができる。例えば、受取者26等は、関連情報68が暗号化された時期に妥当性を感じれば、関連情報68の信頼性が高いと判断することができ、逆に、受取者26等は、関連情報68が暗号化された時期に異常性を感じれば、関連情報68の信頼性が低いと判断することができる。このように、画像ファイル16のメタデータ20に時期情報86を含めることで、関連情報68のセキュリティ性を高めることができる。
 また、メタデータ20には、撮像装置10によって信頼性情報78が含められる。信頼性情報78は、関連情報68の信頼性を示す情報である。従って、例えば、受取者26等は、撮像者14から画像ファイル16を受け取った場合に、画像ファイル16のメタデータ20に含まれる信頼性情報78を参照することで、関連情報68の信頼性の高低を判断することができる。このように、画像ファイル16のメタデータ20に信頼性情報78を含めることで、関連情報68のセキュリティ性を高めることができる。
 また、本第1実施形態では、撮像装置10によって、メタデータ20に関連情報68が含められる。この場合、例えば、受取者26等は、撮像者14から画像ファイル16そのもの、又は、画像ファイル16に含まれるメタデータ20を受け取ることにより、画像データ18に関連する関連情報68を受け取ることができる。これにより、受取者26等は、関連情報68を容易に入手することができる。
 また、本第1実施形態では、信頼性情報78の一例として、関連情報68がネットワーク28を通じて得られた情報であるか否かに関する情報が適用されている。従って、関連情報68がネットワーク28を通じて得られた情報であれば、関連情報68が公的なページから得られたセキュリティ性の高い情報であると受取者26等に対して判断させることができる。関連情報68がネットワーク28又はGNSSを通じて得られた情報でなければ、関連情報68がセキュリティ性が高くない情報であると受取者26等に対して判断させることができる。
 また、本第1実施形態では、撮像装置10によって、関連情報68及び暗号化情報82を含む画像ファイル16が作成される。すなわち、暗号化情報82だけでなく、暗号化される前の情報である関連情報68も画像ファイル16に含まれる。これにより、例えば、受取装置24等は、暗号化情報82を使用した処理だけでなく、関連情報68を使用した処理も実現することができる。
 また、本第1実施形態では、関連情報68に、撮像者情報68A、撮像時刻情報68B、撮像装置位置情報68C、及び被写体位置情報68Dが含まれている。関連情報68は、暗号化され、暗号化情報82として画像ファイル16のメタデータ20に含まれる。よって、撮像者情報68A、撮像時刻情報68B、撮像装置位置情報68C、及び被写体位置情報68Dのセキュリティ性を高めることができる。
 また、本第1実施形態では、撮像者情報68A、撮像時刻情報68B、撮像装置位置情報68C、及び被写体位置情報68Dのうちの撮像装置位置情報68C及び被写体位置情報68Dに不許容情報74が含まれている。不許容情報74は、改変及び削除が許容されていない旨を示す情報である。
 従って、撮像者14又は受取者26等は、撮像装置位置情報68C及び被写体位置情報68Dの改変及び削除が許容されていないことを認識することができる。これにより、撮像者14又は受取者26等は、改変及び削除が許容されている情報(ここでは、一例として、撮像装置位置情報68C及び被写体位置情報68D)と、改変及び削除が許容されていない情報(ここでは、一例として、撮像装置位置情報68C及び被写体位置情報68D)とを別々に取り扱うことができる。また、撮像者14又は受取者26等の意図に反して撮像装置位置情報68C及び被写体位置情報68Dが改変されたり削除されたりすることを抑制することもできる。
 また、本第1実施形態では、関連情報68の暗号化に用いたハッシュ関数84がメタデータ20に含まれている。従って、撮像者14から画像ファイル16を受け取った受取者26等は、関連情報68の暗号化に用いたハッシュ関数84を容易に入手することができる。
 また、本第1実施形態では、撮像装置10から送信された画像ファイル16が受取装置24によって受信され、受取装置24によって画像ファイル16からハッシュ関数84が取得される。そして、受取装置24によって、関連情報68に対してハッシュ関数84を用いた暗号化(すなわち、ハッシュ化)が行われることで検証情報88が生成され、検証情報88と暗号化情報82とが比較される。これにより、例えば、検証情報88と暗号化情報82とが一致していない場合、受取者26等は、関連情報68が改変されていたり関連情報68の一部が削除されたりしている可能性が高いと判断することができる。逆に、例えば、検証情報88と暗号化情報82とが一致している場合、受取者26等は、関連情報68が改変されていたり関連情報68の一部が削除されたりしている可能性が低いと判断することができる。
 また、本第1実施形態では、撮像装置10において、関連情報68が暗号化される処理が、関連情報68が取得された後に自動的に実行される。これにより、例えば、関連情報68から暗号化情報82が生成されるまでの間に関連情報68が改変されたり関連情報68の一部が削除されたりする時間的な余地が生じないので、関連情報68の信頼性を高めることができる。
 また、本第1実施形態では、撮像装置10において、画像データ18が取得された後に関連情報68が自動的に取得される。これにより、例えば、関連情報68をメタデータ20に含める前段階で、第三者によって関連情報68が改変されたり、第三者によって関連情報68が削除されたり、第三者によって偽の関連情報68が作成されたりする時間的な余地が生じないので、関連情報68の信頼性を高めることができる。
 また、本第1実施形態では、イメージセンサ32によって撮像が行われることによって得られた画像データ18がイメージセンサ32から取得部42Aによって取得された後に取得部42Aによって関連情報68が自動的に取得される。これにより、例えば、第三者によって正規の関連情報68でない情報(すなわち、偽の関連情報68)が作られる時間的な余地が生じないので、関連情報68の信頼性を高めることができる。
 なお、上記第1実施形態では、撮像装置位置情報68C及び被写体位置情報68Dに不許容情報74が含まれる形態例を挙げて説明したが、これは、あくまでも一例に過ぎない。例えば、撮像装置位置情報68C又は被写体位置情報68Dに不許容情報74が含まれるようにしてもよいし、関連情報68に含まれる他の情報(例えば、撮像者情報68A又は撮像時刻情報68B等)に不許容情報74が含まれるようにしてもよい。また、関連情報68の全体に対して不許容情報74が付与されるようにしてもよい。
 また、上記第1実施形態では、時期情報86がそのまま、第2関連付け情報80に含まれる形態例を挙げて説明したが、これは、あくまでも一例に過ぎない。例えば、関連情報68が暗号化されるのと同様の要領で、時期情報86も暗号化され、時期情報86が暗号化された情報が第2関連付け情報80に含まれるようにしてもよい。また、この場合、暗号化される前の時期情報86を関連情報68の一部として画像ファイル16のメタデータ20に含めるようにしてもよい。
 [第2実施形態]
 上記第1実施形態では、撮像装置10によって撮像が行われることによって得られた画像データ18そのものが撮像者14から受取者26に渡される形態例を挙げたが、本第2実施形態では、画像データ18が撮像者14等によって編集されて、編集後の画像データ18が受取者26に渡される形態例について説明する。なお、本第2実施形態では、上記第1実施形態で説明した構成要素と同一の構成要素については同一の符号を付して説明を省略し、上記第1実施形態と異なる部分について説明する。
 一例として図15に示すように、本第2実施形態に係る画像ファイル作成処理は、上記第1実施形態に係る画像ファイル作成処理に比べ、プロセッサ42が、編集部42Fとして更に動作することによって実現される。編集部42Fは、編集工程を実行する。編集工程は、画像データ18を編集する工程である。
 なお、本第2実施形態では、撮像装置10によって編集工程が行われる形態例を挙げているが、これは、あくまでも一例に過ぎない。例えば、撮像装置10に通信可能に接続されたスマートデバイス、パーソナル・コンピュータ、又はサーバ等によって編集工程が行われるようにしてもよい。
 一例として図16に示すように、UI系装置34は、撮像者14等から編集指示92を受け付ける。編集指示92とは、例えば、画像データ18を編集する具体的な内容等の指示を指す。編集部42Fは、UI系装置34によって受け付けられた編集指示92がUI系装置34によって受け付けられた場合に、編集指示92に応じて画像データ18を編集する。
 UI系装置34は、編集者情報68Eを受け付ける。編集者情報68Eは、編集者に関する情報である。編集者とは、画像データ18の編集を行った者を指す。編集者に関する情報の一例としては、編集者の氏名、編集者のニックネーム、編集者の所在を示す情報、又は編集者の連絡先等が挙げられる。編集者は、撮像者14であってもよいし、撮像者14以外の者であってもよい。
 編集部42Fは、編集に関連する情報である編集関連情報を関連情報68に含める。例えば、本第2実施形態において、編集部42Fは、UI系装置34によって受け付けられた編集者情報68Eを関連情報68に含める。また、上記第1実施形態で取得部42Aがネットワーク28を通じて撮像時刻情報68Bを取得した要領で、編集部42Fは、ネットワーク28を通じて編集時刻情報68Fを取得し、編集時刻情報68Fを関連情報68に含める。編集時刻情報68Fは、画像データ18に対して編集が行われた時刻を示す情報である。画像データ18に対して編集が行われた時刻の一例としては、画像データ18に対して編集が開始された時刻、又は画像データ18に対する編集が終了した時刻が挙げられる。また、編集時刻情報68Fには、画像データ18に対する編集に要した総時間を示す情報が含まれていてもよい。
 なお、ここでは、UI系装置34によって編集指示92及び編集者情報68Eが受け付けられる形態例を挙げているが、これは、あくまでも一例に過ぎない。例えば、撮像装置10に対して通信可能に接続された外部装置(例えば、スマートデバイス、パーソナル・コンピュータ、又はサーバ等)から編集部42Fに対して編集指示92又は編集者情報68Eが与えられてもよい。編集者情報68Eは、NVM44に記憶されていてもよい。この場合、画像データ18に対する編集が行われたタイミングで編集部42FによってNVM44から編集者情報68Eが取得されるようにしてもよい。
 一例として図17に示すように、関連付け部42Bは、第5信頼性情報78E及び第6信頼性情報78Fを生成し、生成した第5信頼性情報78E及び第6信頼性情報78Fを信頼性情報78に含める。また、関連付け部42Bは、編集者情報68Eに第5信頼性情報78Eを関連付け、編集時刻情報68Fに第6信頼性情報78Fを関連付ける。
 第5信頼性情報78Eは、編集者情報68Eの出処を特定可能な情報である。本第2実施形態では、編集者情報68Eが、UI系装置34から編集部42Fによって取得された情報である。そのため、本第2実施形態では、第5信頼性情報78Eの一例として、編集者情報68EがUI系装置34から取得された旨を示す情報が適用されている。このような第5信頼性情報78Eが編集者情報68Eに関連付けられているということは、編集者情報68Eがネットワーク28を通じて得られた情報でないことを意味する。
 本第2実施形態では、撮像工程の後に取得工程が自動的に実行されるのと同様の要領で、第5信頼性情報78Eが、編集工程の後に自動的に編集者情報68Eに関連付けられる。このようにする理由は、第三者によって偽の信頼性情報78が作られて編集者情報68Eに関連付けられる時間的な余地が生じないようにするためである。
 第6信頼性情報78Fは、編集時刻情報68Fの出処を特定可能な情報である。本第2実施形態では、編集時刻情報68Fが、ネットワーク28を通じて取得された情報である。そのため、本第2実施形態では、第6信頼性情報78Fの一例として、編集時刻情報68Fがネットワーク28を通じて取得された旨を示す情報が適用されている。このような第6信頼性情報78Fが編集時刻情報68Fに関連付けられているということは、編集時刻情報68Fがネットワーク28を通じて得られた情報であることを意味する。
 本第2実施形態では、撮像工程の後に取得工程が自動的に実行されるのと同様の要領で、第6信頼性情報78Fが、編集工程の後に自動的に編集時刻情報68Fに関連付けられ
る。このようにする理由は、第三者によって偽の信頼性情報78が作られて編集時刻情報68Fに関連付けられる時間的な余地が生じないようにするためである。
 一例として図18に示すように、暗号化部42Cは、上記第1実施形態で説明した暗号化(すなわち、ハッシュ化)と同様の要領で、編集者情報68E及び編集時刻情報68Fに対してハッシュ関数84を用いた暗号化を行う。これにより、編集者情報68Eが暗号化された第11ハッシュ値82Eと、編集時刻情報68Fが暗号化された第12ハッシュ値82Fが暗号化情報82に含まれる。そして、第11ハッシュ値82Eには第5信頼性情報78Eが関連付けられ、第12ハッシュ値82Fには第6信頼性情報78Fが関連付けられる。
 暗号化部42Cは、暗号化工程において、第11ハッシュ値82E及び第12ハッシュ値82Fが生成された時期に関する情報である時期情報94を生成し、上記第1実施形態の時期情報86と同様に、時期情報94を第2関連付け情報80に含める。
 本第2実施形態では、時期情報94の一例として、編集時刻情報68F(図16及び図17参照)を利用して生成された情報が適用されている。時期情報94が生成されるタイミングの一例としては、関連情報68の暗号化(ここでは、一例として、ハッシュ化)が終了したタイミングが挙げられる。
 時期情報94には、第11ハッシュ値82E及び第12ハッシュ値82Fが画像データ18に対する編集が行われたタイミングで生成された旨を示す情報と、編集時刻情報68Fとが含まれている。なお、時期情報94には、画像データ18に対する編集に要した総時間を示す情報が含まれていてもよい。
 時期情報94は、編集時刻情報68Fそのものであってもよい。また、時期情報94は、実際に第11ハッシュ値82E及び第12ハッシュ値82Fが終了した時点での時刻を示す情報であってもよい。この場合、例えば、時期情報94は、編集者情報68E及び編集時刻情報68Fの暗号化が終了したタイミングでネットワーク28を通じて暗号化部42Cによって取得されてもよいし、撮像装置10に内蔵されているリアルタイムクロックから、第11ハッシュ値82E及び第12ハッシュ値82Fの暗号化が終了したタイミングで暗号化部42Cによって取得されてもよい。
 本第2実施形態でも、上記第1実施形態で検証情報88に含まれる情報として第5ハッシュ値88A、第6ハッシュ値88B、第7ハッシュ値88C、及び第8ハッシュ値88Dが生成されるのと同様の要領で、検証情報88に含まれる情報として第9ハッシュ値88E及び第10ハッシュ値88Fが生成される。第9ハッシュ値88Eは、ハッシュ関数84を用いて編集者情報68Eがハッシュ化されたハッシュ値であり、第10ハッシュ値88Fは、ハッシュ関数84を用いて編集時刻情報68Fがハッシュ化されたハッシュ値である。
 また、本第2実施形態でも、上記第1実施形態に係る比較部58Cで行われる処理と同様の要領で、第9ハッシュ値88Eと第11ハッシュ値82Eとが比較され、第10ハッシュ値88Fと第12ハッシュ値82Fとが比較される。そして、これらの比較結果は、上記第1実施形態に係る実行部58Dによって、上記第1実施形態と同様の要領で取り扱われる。
 図19には、本第2実施形態に係る画像ファイル作成処理の流れの一例が示されている。図19に示すフローチャートは、図13に示すフローチャートに比べ、ステップST20の処理とステップST22の処理との間に、ステップST21A~ステップST21Eの処理が挿入されている点が異なる。ここでは、ステップST21A~ステップST21Eの処理について説明する。
 図19に示す画像ファイル作成処理のステップST21Aで、編集部42Fは、UI系装置34によって編集指示92及び編集者情報68Eが受け付けられたか否かを判定する。ステップST21Aにおいて、UI系装置34によって編集指示92及び編集者情報68Eが受け付けられていない場合は、判定が否定されて、画像ファイル作成処理はステップST22へ移行する。ステップST21Aにおいて、UI系装置34によって編集指示92及び編集者情報68Eが受け付けられた場合は、判定が肯定されて、画像ファイル作成処理はステップST21Bへ移行する。
 ステップST21Bで、編集部42Fは、ステップST21AでUI系装置34によって受け付けられた編集指示92に応じて、ステップST12で取得された画像データ18を編集する。また、編集部42Fは、ネットワーク28を通じて得た情報を用いて編集時刻情報68Fを生成する。そして、編集部42Fは、ステップST21AでUI系装置34によって受け付けられた編集者情報68Eと、編集時刻情報68Fとを関連情報68に含めることにより関連情報68を更新する。ステップST21Bの処理が実行された後、画像ファイル作成処理はステップST21Cへ移行する。
 ステップST21Cで、関連付け部42Bは、編集者情報68Eに第5信頼性情報78Eを関連付け、編集時刻情報68Fに第6信頼性情報78Fを関連付けることにより第1関連付け情報76を更新する。ステップST21Cの処理が実行された後、画像ファイル作成処理はステップST21Dへ移行する。
 ステップST21Dで、暗号化部42Cは、関連情報68に含まれる編集者情報68E及び編集時刻情報68Fを、ハッシュ関数84を用いて暗号化することにより、第11ハッシュ値82E及び第12ハッシュ値82Fを生成する。ステップST21Dの処理が実行された後、画像ファイル作成処理はステップST21Eへ移行する。
 ステップST21Eで、暗号化部42Cは、時期情報94を生成する。そして、暗号化部42Cは、第11ハッシュ値82E、第12ハッシュ値82F、第5信頼性情報78E、第6信頼性情報78F、及び時期情報94を用いて第2関連付け情報80を更新する。すなわち、第2関連付け情報80の更新は、第11ハッシュ値82Eに第5信頼性情報78Eが関連付けられ、第12ハッシュ値82Fに第6信頼性情報78Fが関連付けられ、暗号化情報82に時期情報94が関連付けられることによって実現される。ステップST21Eの処理が実行された後、画像ファイル作成処理はステップST22へ移行する。
 以上説明したように、本第2実施形態では、撮像装置10によって、画像データ18が編集されて、編集関連情報(ここでは、一例として、編集者情報68E及び編集時刻情報68F)が関連情報68に含められる。編集関連情報は、暗号化される。本第2実施形態では、編集者情報68Eが暗号化されることによって第11ハッシュ値82Eが生成され、編集時刻情報68Fが暗号化されることによって第12ハッシュ値82Fが生成される。第11ハッシュ値82E及び第12ハッシュ値82Fは、暗号化情報82に含められる。そして、本第2実施形態では、撮像装置10によって、メタデータ20に時期情報94が含められる。時期情報94は、第11ハッシュ値82E及び第12ハッシュ値82Fが生成された時期に関する情報である。
 従って、例えば、受取者26等は、編集者(例えば、撮像者14等)から画像ファイル16を受け取った場合に、画像ファイル16のメタデータ20に含まれる時期情報94を参照することで、編集関連情報が暗号化された時期の妥当性を推測することができる。例えば、受取者26等は、編集関連情報が暗号化された時期に妥当性を感じれば、編集関連情報の信頼性が高いと判断することができ、逆に、受取者26等は、編集関連情報が暗号化された時期に異常性を感じれば、編集関連情報の信頼性が低いと判断することができる。このように、画像ファイル16のメタデータ20に時期情報94を含めることで、編集関連情報のセキュリティ性を高めることができる。
 また、メタデータ20には、撮像装置10によって信頼性情報78が含められており、信頼性情報78には、第5信頼性情報78E及び第6信頼性情報78Fが含められている。第5信頼性情報78Eは、編集者情報68Eの出処を特定可能な情報である。第6信頼性情報78Fは、編集時刻情報68Fの出処を特定可能な情報である。
 従って、例えば、受取者26等は、編集者(例えば、撮像者14等)から画像ファイル16を受け取った場合に、画像ファイル16のメタデータ20に含まれる第5信頼性情報78E及び第6信頼性情報78Fを参照することで、編集関連情報の信頼性の高低を判断することができる。このように、画像ファイル16のメタデータ20に第5信頼性情報78E及び第6信頼性情報78Fを含めることで、編集関連情報のセキュリティ性を高めることができる。
 なお、上記第2実施形態では、暗号化情報82に時期情報86及び94が関連付けられる形態例が挙げているが、これは、あくまでも一例に過ぎない。例えば、図20に示すように、第1ハッシュ値82A、第2ハッシュ値82B、第3ハッシュ値82C、及び第4ハッシュ値82Dに対して、時期情報86が個別に関連付けられ、第11ハッシュ値82E及び第12ハッシュ値82Fに対して、時期情報94が個別に関連付けられてもよい。このように構成された第2関連付け情報80は、上記第1及び第2実施形態と同様の要領でメタデータ20に保存される。
 このように、時期情報86及び94が存在する場合、時期情報86に対応する暗号化された情報と、時期情報94に対応する暗号化された情報とを纏めてメタデータ20に保存することができる。すなわち、時期情報86に対応する第1ハッシュ値82A、第2ハッシュ値82B、第3ハッシュ値82C、及び第4ハッシュ値82Dと、時期情報94に対応する第11ハッシュ値82E及び第12ハッシュ値82Fとを纏めてメタデータ20に保存することができる。これにより、メタデータ20内において、時期情報86と第1ハッシュ値82A、第2ハッシュ値82B、第3ハッシュ値82C、及び第4ハッシュ値82Dとが対応していること、並びに、時期情報94と第11ハッシュ値82E及び第12ハッシュ値82Fとが対応していることが明確になる。この結果、第1ハッシュ値82A、第2ハッシュ値82B、第3ハッシュ値82C、第4ハッシュ値82D、第11ハッシュ値82E、第12ハッシュ値82F、並びに、時期情報86及び94の取り扱いが容易になる。
 上記第2実施形態では、撮像装置10において編集工程が実行される形態例を挙げたが、本開示の技術はこれに限定されず、例えば、図21に示すように、編集現場96の編集者98によって用いられる編集装置100によって編集工程が実行されるようにしてもよい。編集装置100の一例としては、受取装置24と同じ仕様の装置が挙げられる。編集装置100は、受取装置24と同様の要領で、ネットワーク28に接続されている。例えば、画像ファイル16は、ネットワーク28を介して撮像装置10から編集装置100に送信され、編集装置100によって編集された画像ファイル16は、ネットワーク28を介して受取装置24に送信される。
 このように編集装置100によって編集工程が実行される場合、画像ファイル作成処理は、撮像装置10と編集装置100とによって分散して実行されるようにしてもよい。例えば、図13に示す画像ファイル作成処理は、撮像装置10によって実行され、図19に示す画像ファイル作成処理に含まれるステップST21A~ステップST26の処理は、編集装置100によって実行される。この場合、例えば、撮像装置10による画像ファイル16の送信先は、編集装置100であり、編集装置100による編集済みの画像ファイル16の送信先は、受取装置24である。また、編集装置100によって編集工程が実行される場合、画像ファイル受取処理が編集装置100によって行われるようにしてもよい。
 上記第2実施形態では、編集者情報68E及び編集時刻情報68Fに不許容情報74が含まれていない形態例を挙げたが、これは、あくまでも一例に過ぎず、上記第1実施形態と同様の要領で、編集者情報68E又は編集時刻情報68Fに不許容情報74が含まれるようにしてもよい。
 上記第2実施形態では、時期情報94がそのまま、第2関連付け情報80に含まれる形態例を挙げて説明したが、これは、あくまでも一例に過ぎない。例えば、関連情報68が暗号化されるのと同様の要領で、時期情報94も暗号化され、時期情報94が暗号化された情報が第2関連付け情報80に含まれるようにしてもよい。また、この場合、暗号化される前の時期情報94を関連情報68の一部として画像ファイル16のメタデータ20に含めるようにしてもよい。
 [第3実施形態]
 上記各実施形態では、暗号化情報82がメタデータ20に含まれる形態例を挙げて説明したが、本第3実施形態では、暗号化情報82が更に暗号化された情報がメタデータ20に含まれる形態例について説明する。なお、本第3実施形態では、上記各実施形態で説明した構成要素と同一の構成要素については同一の符号を付して説明を省略し、上記各実施形態と異なる部分について説明する。
 一例として図22に示すように、本第3実施形態に係る暗号化部42Cは、上記各実施形態で説明した暗号化部42Cに比べ、第2関連付け情報80に代えて第3関連付け情報102を生成する点が異なる。第3関連付け情報102は、第2関連付け情報80に比べ、暗号化情報82に代えて再暗号化情報104を有する点が異なる。再暗号化情報104は、本開示の技術に係る「第1暗号化情報」の一例であり、暗号化情報82(例えば、第1ハッシュ値82A、第2ハッシュ値82B、第3ハッシュ値82C、及び第4ハッシュ値82D等)に基づいて生成される。
 暗号化部42Cは、秘密鍵106を生成し、かつ、秘密鍵106に対応する公開鍵108を生成する。公開鍵108は、送信部42Eによって取得される。送信部42Eは、ネットワーク28上の保管装置110に送信する。保管装置110は、送信部42Eから送信された公開鍵108を受信し、受信した公開鍵108を保管する。保管装置110の一例としては、ネットワーク28に対して通信可能に接続されたサーバ又はパーソナル・コンピュータ等が挙げられる。
 送信部42Eは、ネットワーク28上で公開鍵108が保管されている場所(例えば、保管装置110によって公開鍵108が保管されている場所)を特定可能なURL112を付帯部42Dに提供する。
 暗号化部42Cは、暗号化情報82を、秘密鍵106を用いて暗号化することにより再暗号化情報104を生成する。例えば、再暗号化情報104は、第1ハッシュ値82A、第2ハッシュ値82B、第3ハッシュ値82C、第4ハッシュ値82D、第11ハッシュ値82E、及び第12ハッシュ値82Fが秘密鍵106を用いて暗号化された情報である。ここで、第1ハッシュ値82A、第2ハッシュ値82B、第3ハッシュ値82C、第4ハッシュ値82D、第11ハッシュ値82E、及び第12ハッシュ値82Fは、本開示の技術に係る「第1ハッシュ値」の一例である。
 一例として図23に示すように、上記各実施形態と同様に、付帯部42Dは、画像データ18にメタデータ20を付帯させることで画像ファイル16を作成する。本第3実施形態では、付帯部42Dが、画像データ18、関連情報68、ハッシュ関数84、第3関連付け情報102、及びURL112を用いて画像ファイル16を作成する。
 本第3実施形態では、メタデータ20に、関連情報68及びハッシュ関数84が含まれる。また、本第3実施形態では、メタデータ20に、第2関連付け情報80に代えて第3関連付け情報102が含まれる。更に、本第3実施形態では、メタデータ20に、公開鍵108の取得に要する情報としてURL112が含まれる。
 一例として図24に示すように、比較部58Cは、画像ファイル16のメタデータ20に含まれる第3関連付け情報102から再暗号化情報104を抽出する。また、比較部58Cは、画像ファイル16のメタデータ20に含まれるURL112を用いて、ネットワーク28を通じて公開鍵108を取得する。すなわち、比較部58Cは、ネットワーク28上で公開鍵108が保管されている場所(例えば、保管装置110によって公開鍵108が保管されている場所)をURL112から特定し、特定した場所から公開鍵108を取得する。
 比較部58Cは、公開鍵108を用いて再暗号化情報104を復号することにより暗号化情報82(例えば、第1ハッシュ値82A、第2ハッシュ値82B、第3ハッシュ値82C、第4ハッシュ値82D、第11ハッシュ値82E、及び第12ハッシュ値82F)を生成する。ここで、公開鍵108を用いて再暗号化情報104が復号されることによって得られた暗号化情報82は、本開示の技術に係る「第1情報」である。また、公開鍵108を用いて再暗号化情報104が復号されることによって得られた暗号化情報82に含まれる第1ハッシュ値82A、第2ハッシュ値82B、第3ハッシュ値82C、第4ハッシュ値82D、第11ハッシュ値82E、及び第12ハッシュ値82Fは、本開示の技術に係る「第2ハッシュ値」の一例である。
 比較部58Cは、上記各実施形態と同様の要領で、検証情報88と暗号化情報82とを比較する。すなわち、第5ハッシュ値88A、第6ハッシュ値88B、第7ハッシュ値88C、第8ハッシュ値88D、第9ハッシュ値88E、及び第10ハッシュ値88Fと、第1ハッシュ値82A、第2ハッシュ値82B、第3ハッシュ値82C、第4ハッシュ値82D、第11ハッシュ値82E、及び第12ハッシュ値82Fとが、比較部58Cによって比較される。
 以上説明したように、本第3実施形態では、比較部58Cによって、検証情報88と、再暗号化情報104に基づいて生成された暗号化情報82とが比較される。これにより、上記各実施形態と同様の効果を得ることができる。
 また、本第3実施形態では、再暗号化情報104は、関連情報68に対するハッシュ化が行われることによって得られた暗号化情報82と秘密鍵106とに基づいて生成された情報である。換言すると、再暗号化情報104は、関連情報68に対して二重の暗号化が行われることによって得られた情報とも言える。
 再暗号化情報104は画像ファイル16のメタデータ20に含まれる。そして、画像ファイル16は、上記各実施形態と同様の要領で、受取者26又は編集者98等によって受け取られて取り扱われる。受取者26によって用いられる受取装置24又は編集者98によって用いられる編集装置100で比較部58Cによって検証情報88と比較される情報は、再暗号化情報104が公開鍵108によって復号されることで生成された暗号化情報82である。従って、単に関連情報68がハッシュ化されただけの場合に比べ、高度なセキュリティ性を担保した上で、関連情報68が改変されたか否か等を特定することができる。
 また、本第3実施形態では、比較部58Cが、画像ファイル16のメタデータ20内のURL112を利用することでネットワーク28から公開鍵108を取得する。従って、画像ファイル16を取り扱う正規のユーザ(例えば、受取者26又は編集者98)に対して公開鍵108を容易に取得させることができる。
 なお、上記第3実施形態では、メタデータ20にURL112を含める形態例を挙げて説明したが、これは、あくまでも一例に過ぎず、メタデータ20に公開鍵108を含めるようにしてもよい。この場合、画像ファイル16を取り扱う正規のユーザ(例えば、受取者26又は編集者98)は、迅速に公開鍵108を入手することができる。
 [第4実施形態]
 上記各実施形態では、関連情報68に撮像者情報68A、撮像時刻情報68B、撮像装置位置情報68C、被写体位置情報68D、編集者情報68E、及び編集時刻情報68Fが含まれている形態例を挙げて説明したが、本第4実施形態では、例えば、図25に示すように、関連情報68にサムネイル画像114も含まれている形態例について説明する。なお、本第4実施形態では、上記各実施形態で説明した構成要素と同一の構成要素については、同一の符号を付して説明を省略し、上記各実施形態と異なる部分について説明する。
 一例として図25に示すように、取得部42Aは、画像データ18をサムネイル化(すなわち、縮小化)することによりサムネイル画像114を生成する。そして、取得部42Aは、関連情報68にサムネイル画像114を含める。サムネイル画像114は、本開示の技術に係る「サムネイル画像」の一例である。
 関連付け部42Bは、第1関連付け情報76を生成する。第1関連付け情報76では、サムネイル画像114に対して第7信頼性情報78Gが関連付けられている。
 第7信頼性情報78Gは、サムネイル画像114の出処を特定可能な情報である。本第4実施形態では、サムネイル画像114が、プロセッサ42による内部処理(すなわち、取得部42Aによる画像データ18に対するサムネイル化の処理)を通じて取得された情報である。そのため、本第4実施形態では、第7信頼性情報78Gの一例として、サムネイル画像114がプロセッサ42による内部処理を通じて取得された旨を示す情報が適用されている。このような第7信頼性情報78Gがサムネイル画像114に関連付けられているということは、サムネイル画像114がネットワーク28を通じて得られた情報でないことを意味する。
 また、第7信頼性情報78Gも、第1信頼性情報78Aと撮像者情報68Aとの関連付けと同様の要領で、サムネイル画像114がプロセッサ42による内部処理を通じて取得された後に自動的にサムネイル画像114に関連付けられる。
 一例として図26に示すように、暗号化部42Cは、第4関連付け情報116を生成する。第4関連付け情報116は、画像暗号化情報118、第7信頼性情報78G、及び時期情報120を含む。暗号化部42Cは、上記各実施形態と同様の要領でサムネイル画像114を暗号化することにより画像暗号化情報118を生成し、生成した画像暗号化情報118を第4関連付け情報116に含める。また、暗号化部42Cは、上述した第2関連付け情報80又は第3関連付け情報102も第4関連付け情報116に含める。
 画像暗号化情報118には、第7信頼性情報78G及び時期情報120が関連付けられている。時期情報120には、サムネイル画像114が生成された旨を示す情報と、サムネイル画像114が生成された時刻を示す情報とが含まれている。
 以上説明したように、本第4実施形態では、画像暗号化情報118(すなわち、サムネイル画像114が暗号化された情報)を含む第4関連付け情報116が、上記各実施形態と同様の要領で画像ファイル16のメタデータ20に含められる。換言すると、付帯部42Dが、画像暗号化情報118を含む第4関連付け情報116をメタデータ20として画像データ18に付帯させることで画像ファイル16を作成する。よって、サムネイル画像114のセキュリティ性を高めることができる。
 なお、上記第4実施形態では、関連情報68がサムネイル画像114を含む形態例を挙げて説明したが、本開示の技術はこれに限定されず、関連情報68には、テキスト情報が含まれていてもよい。この場合も、上記各実施形態と同様の要領でテキスト情報が暗号化されて画像ファイル16のメタデータ20に含められるので、テキスト情報のセキュリティ性を高めることができる。
 また、サムネイル画像114は、画像データ18の変更(例えば、編集部42Fによる編集)に伴って変更されない画像であってもよい。この場合、画像データ18の変更に伴って変更されないサムネイル画像114のセキュリティ性を高めることができる。
 上記第4実施形態では、第4関連付け情報116に、サムネイル画像114が暗号化された画像暗号化情報118が含まれる形態例を挙げたが、本開示の技術はこれに限定されない。例えば、図27に示すように、暗号化部42Cは、第5関連付け情報122を生成し、第5関連付け情報122に画像暗号化情報124を含めるようにしてもよい。画像暗号化情報124は、画像データ18が暗号化されることによって生成された情報である。画像暗号化情報124は、本開示の技術に係る「第2暗号化情報」の一例である。
 第5関連付け情報122は、上述した第2関連付け情報80、第3関連付け情報102、又は第4関連付け情報116も含む。第5関連付け情報122には、第8信頼性情報78H及び時期情報86が関連付けられる。第8信頼性情報78Hは、画像データ18の出処を特定可能な情報である。第8信頼性情報78Hには、画像データ18を得るための撮像が行われた旨を示す情報と、撮像時刻情報68B(図5参照)に相当する情報とが含まれている。
 このように画像暗号化情報124(すなわち、画像データ18が暗号化された情報)を含む第5関連付け情報122は上記各実施形態と同様の要領で画像ファイル16のメタデータ20に含められる。換言すると、付帯部42Dが、画像暗号化情報124を含む第5関連付け情報122をメタデータ20として画像データ18に付帯させることで画像ファイル16を作成する。これにより、画像データ18のセキュリティ性を高めることができる。
 [その他の変形例]
 上記各実施形態では、撮像装置10内のコンピュータ30によって画像ファイル作成処理が実行される形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、図28に示すように、ネットワーク28を介して撮像装置10と通信可能に接続された
外部装置126内のコンピュータ128によって画像ファイル作成処理が実行されるようにしてもよい。コンピュータ128の一例としては、クラウドサービス用のサーバコンピュータが挙げられる。コンピュータ128は、本開示の技術に係る「情報作成装置」及び「コンピュータ」の一例である。
 図28に示す例では、コンピュータ128は、プロセッサ130、NVM132、及びRAM134を備えている。NVM132には、画像ファイル作成プログラム50が記憶されている。
 撮像装置10は、ネットワーク28を介して外部装置126に対して画像ファイル作成処理の実行を要求する。これに応じて、外部装置126のプロセッサ130は、NVM132から画像ファイル作成プログラム50を読み出し、画像ファイル作成プログラム50をRAM134上で実行する。プロセッサ130は、RAM134上で実行する画像ファイル作成プログラム50に従って画像ファイル作成処理を行う。そして、プロセッサ130は、画像ファイル作成処理が実行されることで得られた処理結果を、ネットワーク28を介して撮像装置10に提供する。
 図28には、外部装置126に対して画像ファイル作成処理を実行させる形態例が示されているが、これは、あくまでも一例に過ぎない。例えば、撮像装置10と外部装置126とが画像ファイル作成処理を分散して実行するようにしてもよいし、撮像装置10と外部装置126を含む複数の装置とが画像ファイル作成処理を分散して実行するようにしてもよい。
 また、図28に示す例では、外部装置126のプロセッサ130に対して画像ファイル作成処理を行わせる形態例を挙げているが、本開示の技術はこれに限定されない。例えば、プロセッサ130に対して画像ファイル作成処理を行わせるのと同様の要領で、受取装置24からの要求に応じて、プロセッサ130に対して画像ファイル受取処理を行わせるようにしてもよい。
 上記各実施形態では、NVM44に画像ファイル作成プログラム50が記憶されている形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、画像ファイル作成プログラム50がSSD(Solid State Drive)、USBメモリ、又は磁気テープな
どの可搬型のコンピュータ読取可能な非一時的記憶媒体に記憶されていてもよい。非一時的記憶媒体に記憶されている画像ファイル作成プログラム50は、撮像装置10にインストールされる。プロセッサ42は、画像ファイル作成プログラム50に従って、画像ファイル作成処理を実行する。
 また、ネットワークを介して撮像装置10に接続される他のコンピュータ又はサーバ装置等の記憶装置に画像ファイル作成プログラム50を記憶させておき、撮像装置10の要求に応じて画像ファイル作成プログラム50がダウンロードされ、撮像装置10にインストールされるようにしてもよい。
 撮像装置10に接続される他のコンピュータ又はサーバ装置等の記憶装置、又はNVM44に画像ファイル作成プログラム50の全てを記憶させておく必要はなく、画像ファイル作成プログラム50の一部を記憶させておいてもよい。
 また、図3に示す撮像装置10にはコンピュータ30が内蔵されているが、本開示の技術はこれに限定されず、例えば、コンピュータ30が撮像装置10の外部に設けられるようにしてもよい。
 上記各実施形態では、本開示の技術がソフトウェア構成によって実現される形態例を挙げて説明しているが、本開示の技術はこれに限定されず、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、又はPLD(Programmable Logic Device)を含むデバイスを適用してもよい。また、ハードウェア構成及びソフトウェア構成の組み合わせを用いてもよい。
 上記各実施形態で説明した画像ファイル作成処理を実行するハードウェア資源としては、次に示す各種のプロセッサを用いることができる。プロセッサとしては、例えば、ソフトウェア、すなわち、プログラムを実行することで、画像ファイル作成処理を実行するハードウェア資源として機能する汎用的なプロセッサであるCPUが挙げられる。また、プロセッサとしては、例えば、FPGA、PLD、又はASICなどの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電子回路が挙げられる。何れのプロセッサにもメモリが内蔵又は接続されており、何れのプロセッサもメモリを使用することで画像ファイル作成処理を実行する。
 画像ファイル作成処理を実行するハードウェア資源は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、又はCPUとFPGAとの組み合わせ)で構成されてもよい。また、画像ファイル作成処理を実行するハードウェア資源は1つのプロセッサであってもよい。
 1つのプロセッサで構成する例としては、第1に、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが、画像ファイル作成処理を実行するハードウェア資源として機能する形態がある。第2に、SoC(System-on-a-chip)などに代表されるように、画像ファイル作成処理を実行する複数のハードウェア資源を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、画像ファイル作成処理は、ハードウェア資源として、上記各種のプロセッサの1つ以上を用いて実現される。
 更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電子回路を用いることができる。また、上記の画像ファイル作成処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
 なお、ここでは、撮像装置10によって行われる画像ファイル作成処理について言及したが、受取装置24によって行われる画像ファイル作成処理についても同様のことが言える。
 以上に示した記載内容及び図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、及び効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、及び効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容及び図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことは言うまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容及び図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。
 本明細書において、「A又はB」という文法的な概念には、「AとBの何れか1つ」という概念の他に、「A及びBのうちの少なくとも1つ」と同義の概念も含まれる。つまり、「A又はB」には、Aだけであってもよいし、Bだけであってもよいし、A及びBの組み合わせであってもよい、という意味が含まれる。また、本明細書において、3つ以上の事柄を「又は」で結び付けて表現する場合も、「A又はB」と同様の考え方が適用される。
 本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
 以上の実施形態に関し、更に以下の付記を開示する。
 (付記1)
 画像データに関連する関連情報を取得する取得工程と、
 関連情報を暗号化した第1暗号化情報を生成する暗号化工程と、
 第1暗号化情報を付帯情報として画像データに付帯させる付帯工程と、を含み、
 付帯情報は、第1暗号化情報が生成された時期に関する時期情報、又は、信頼性情報を含む
 情報作成方法。
 (付記2)
 画像データに関連する関連情報を取得する取得工程と、
 前記関連情報を暗号化した第1暗号化情報を生成する暗号化工程と、
 付帯情報を前記画像データに直接的に、又は、間接的に付帯させる付帯工程と、を含み、
 前記付帯情報は、前記第1暗号化情報、及び、前記第1暗号化情報が生成された時期に関する時期情報、又は、信頼性情報を含む
 情報作成方法。
 (付記3)
 信頼性情報は、関連情報がネットワークを通じて得られた情報であるか否かに関する情報である
 付記1又は付記2に記載の情報作成方法。
 (付記4)
 付帯情報は、時期情報が異なる複数の第1暗号化情報を含む
 付記1から付記3の何れか1つに記載の情報作成方法。
 (付記5)
 付帯工程は、関連情報及び第1暗号化情報を含む画像ファイルを作成する作成工程を含む
 付記1から付記4の何れか1つに記載の情報作成方法。
 (付記6)
 関連情報は、改変又は削除が許容されていない旨を示す情報を含む
 付記1から付記5の何れか1つに記載の情報作成方法。
 (付記7)
 関連情報は、テキスト情報又はサムネイル画像を含む
 付記1から付記6の何れか1つに記載の情報作成方法。
 (付記8)
 サムネイル画像は、画像データの変更に伴って変更されない画像である
 付記7に記載の情報作成方法。
 (付記9)
 暗号化工程は、関連情報に対するハッシュ化を行うことにより第1暗号化情報を生成し、
 付帯情報は、ハッシュ化に用いるハッシュ関数を含む
 付記1から付記8の何れか1つに記載の情報作成方法。
 (付記10)
 関連情報とハッシュ関数とを用いて検証情報を生成する生成工程と、
 検証情報と、第1暗号化情報、又は、第1暗号化情報に基づいて生成される第1情報とを比較する比較工程と、を含む
 付記9に記載の情報作成方法。
 (付記11)
 第1暗号化情報に基づいて第1情報が生成される場合、
 第1暗号化情報は、関連情報に対するハッシュ化を行うことにより得た第1ハッシュ値と秘密鍵とに基づいて生成された情報であり、
 第1情報は、第1暗号化情報と公開鍵とに基づいて生成された第2ハッシュ値である
 付記10に記載の情報作成方法。
 (付記12)
 付帯情報は、公開鍵、又は、公開鍵の取得に要する情報を含む
 付記11に記載の情報作成方法。
 (付記13)
 暗号化工程は、取得工程の後に自動的に実行される
 付記1から付記12の何れか1つに記載の情報作成方法。
 (付記14)
 取得工程は、画像データが取得された後に自動的に実行される
 付記13に記載の情報作成方法。
 (付記15)
 撮像を行うことにより画像データを取得する撮像工程を含み、
 取得工程は、撮像工程の後に自動的に実行される
 付記14に記載の情報作成方法。
 (付記16)
 関連情報は、撮像者情報、撮像時間情報、撮像装置位置情報、又は被写体位置情報を含む
 付記1から付記15の何れか1つに記載の情報作成方法。
 (付記17)
 暗号化工程は、画像データを暗号化した第2暗号化情報を生成し、
 付帯工程は、第2暗号化情報を付帯情報として画像データに付帯させる
 付記1から付記16の何れか1つに記載の情報作成方法。
 (付記18)
 付帯工程は、付帯情報を記録媒体に記録させ、画像データを含む画像ファイルに付帯情報へのアクセス情報を記録させることで、画像データに付帯情報を間接的に付帯させる
 付記1から付記17の何れか1つに記載の情報作成方法。
 (付記19)
 画像データの付帯情報を含む画像ファイルであって、
 付帯情報は、
 画像データに関連する関連情報を暗号化して得た第1暗号化情報と、
 第1暗号化情報が生成された時期に関する時期情報、又は、信頼性情報と、を含み、
 付帯情報は、関連情報を含む
 画像ファイル。

Claims (20)

  1.  画像データに関連する関連情報を取得する取得工程と、
     前記関連情報を暗号化した第1暗号化情報を生成する暗号化工程と、
     付帯情報を前記画像データに直接的に、又は、間接的に付帯させる付帯工程と、を含み、
     前記付帯情報は、前記第1暗号化情報、及び、前記第1暗号化情報が生成された時期に関する時期情報、又は、信頼性情報を含む
     情報作成方法。
  2.  前記信頼性情報は、前記関連情報がネットワークを通じて得られた情報であるか否かに関する情報である
     請求項1に記載の情報作成方法。
  3.  前記付帯情報は、前記時期情報が異なる複数の前記第1暗号化情報を含む
     請求項1に記載の情報作成方法。
  4.  前記付帯工程は、前記関連情報及び前記第1暗号化情報を含む画像ファイルを作成する作成工程を含む
     請求項1に記載の情報作成方法。
  5.  前記関連情報は、改変又は削除が許容されていない旨を示す情報を含む
     請求項1に記載の情報作成方法。
  6.  前記関連情報は、テキスト情報又はサムネイル画像を含む
     請求項1に記載の情報作成方法。
  7.  前記サムネイル画像は、前記画像データの変更に伴って変更されない画像である
     請求項6に記載の情報作成方法。
  8.  前記暗号化工程は、前記関連情報に対するハッシュ化を行うことにより前記第1暗号化情報を生成し、
     前記付帯情報は、前記ハッシュ化に用いるハッシュ関数を含む
     請求項1に記載の情報作成方法。
  9.  前記関連情報と前記ハッシュ関数とを用いて検証情報を生成する生成工程と、
     前記検証情報と、前記第1暗号化情報、又は、前記第1暗号化情報に基づいて生成される第1情報とを比較する比較工程と、を含む
     請求項8に記載の情報作成方法。
  10.  前記第1暗号化情報に基づいて前記第1情報が生成される場合、
     前記第1暗号化情報は、前記関連情報に対するハッシュ化を行うことにより得た第1ハッシュ値と秘密鍵とに基づいて生成された情報であり、
     前記第1情報は、前記第1暗号化情報と公開鍵とに基づいて生成された第2ハッシュ値である
     請求項9に記載の情報作成方法。
  11.  前記付帯情報は、前記公開鍵、又は、前記公開鍵の取得に要する情報を含む
     請求項10に記載の情報作成方法。
  12.  前記暗号化工程は、前記取得工程の後に自動的に実行される
     請求項1に記載の情報作成方法。
  13.  前記取得工程は、前記画像データが取得された後に自動的に実行される
     請求項12に記載の情報作成方法。
  14.  撮像を行うことにより前記画像データを取得する撮像工程を含み、
     前記取得工程は、前記撮像工程の後に自動的に実行される
     請求項13に記載の情報作成方法。
  15.  前記関連情報は、撮像者情報、撮像時間情報、撮像装置位置情報、又は被写体位置情報を含む
     請求項1に記載の情報作成方法。
  16.  前記暗号化工程は、前記画像データを暗号化した第2暗号化情報を生成し、
     前記付帯工程は、前記第2暗号化情報を前記付帯情報として前記画像データに付帯させる
     請求項1に記載の情報作成方法。
  17.  前記付帯工程は、前記付帯情報を記録媒体に記録させ、前記画像データを含む画像ファイルに前記付帯情報へのアクセス情報を記録させることで、前記画像データに前記付帯情報を間接的に付帯させる
     請求項1に記載の情報作成方法。
  18.  画像データの付帯情報を含む画像ファイルであって、
     前記付帯情報は、
     画像データに関連する関連情報を暗号化して得た第1暗号化情報と、
     前記第1暗号化情報が生成された時期に関する時期情報、又は、信頼性情報と、を含む
     画像ファイル。
  19.  プロセッサを備え、
     前記プロセッサは、
     画像データに関連する関連情報を取得し、
     前記関連情報を暗号化した第1暗号化情報を生成し、
     付帯情報を前記画像データに直接的に、又は、間接的に付帯させ、
     前記付帯情報は、前記第1暗号化情報、及び、前記第1暗号化情報が生成された時期に関する時期情報、又は、信頼性情報を含む
     情報作成装置。
  20.  コンピュータに処理を実行させるためのプログラムであって、
     前記処理は、
     画像データに関連する関連情報を取得する取得工程と、
     前記関連情報を暗号化した第1暗号化情報を生成する暗号化工程と、
     付帯情報を前記画像データに直接的に、又は、間接的に付帯させる付帯工程と、を含み、
     前記付帯情報は、前記第1暗号化情報、及び、前記第1暗号化情報が生成された時期に関する時期情報、又は、信頼性情報を含む
     プログラム。
PCT/JP2023/029986 2022-09-29 2023-08-21 情報作成方法、画像ファイル、情報作成装置、及びプログラム WO2024070328A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-156886 2022-09-29
JP2022156886 2022-09-29

Publications (1)

Publication Number Publication Date
WO2024070328A1 true WO2024070328A1 (ja) 2024-04-04

Family

ID=90477311

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/029986 WO2024070328A1 (ja) 2022-09-29 2023-08-21 情報作成方法、画像ファイル、情報作成装置、及びプログラム

Country Status (1)

Country Link
WO (1) WO2024070328A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000215379A (ja) * 1998-11-17 2000-08-04 Ricoh Co Ltd デジタル計測機器及び画像計測機器
JP2006165650A (ja) * 2004-12-02 2006-06-22 Matsushita Electric Ind Co Ltd メタデータ管理装置
JP2016110041A (ja) * 2014-12-10 2016-06-20 キヤノン株式会社 顕微鏡システムおよびその制御方法、及びプログラム
JP2017059943A (ja) * 2015-09-15 2017-03-23 キヤノン株式会社 撮影装置、情報処理方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000215379A (ja) * 1998-11-17 2000-08-04 Ricoh Co Ltd デジタル計測機器及び画像計測機器
JP2006165650A (ja) * 2004-12-02 2006-06-22 Matsushita Electric Ind Co Ltd メタデータ管理装置
JP2016110041A (ja) * 2014-12-10 2016-06-20 キヤノン株式会社 顕微鏡システムおよびその制御方法、及びプログラム
JP2017059943A (ja) * 2015-09-15 2017-03-23 キヤノン株式会社 撮影装置、情報処理方法及びプログラム

Similar Documents

Publication Publication Date Title
JP4764536B2 (ja) 画像計測機器
KR101720268B1 (ko) 환자정보 보호를 위한 의료영상의 클라우드 데이터베이스 구축 및 판독 방법
US7796776B2 (en) Digital image pickup device, display device, rights information server, digital image management system and method using the same
US7650511B2 (en) Information processing method, falsification verification method and device, storage medium, and program
JP4785168B2 (ja) メタデータの認証および媒体信号の透かしへのメタデータの埋込
US20120095922A1 (en) Image data sales system, image data sales method, camera, and server apparatus
US20040201751A1 (en) Secure digital photography system
JPH11308564A (ja) デジタル証拠カメラシステム、復号化鍵取得・登録システム、及びデジタル画像編集システム
US7558704B2 (en) Method and device for time verifying measurement data
US10389536B2 (en) Imaging systems with data encryption and embedding capabalities
US20200184083A1 (en) Video recording apparatus and video recording verification system, and video recording method and video verification method
WO2024070328A1 (ja) 情報作成方法、画像ファイル、情報作成装置、及びプログラム
JP5737116B2 (ja) 情報提供システム
JP5563361B2 (ja) 撮像装置、画像保存方法およびプログラム
JP2009225229A (ja) 撮像装置、画像ファイル生成方法および画像ファイル作成プログラム
JP2000059771A (ja) 画像撮像装置および画像データ利用システム
JP2006279518A (ja) 画像証明補助機能付き電子カメラおよび画像証明システム
WO2024070161A1 (ja) 画像ファイル作成方法、画像ファイル、画像ファイル作成装置、及びプログラム
JP2011223109A (ja) 撮像装置および画像ファイル生成方法
US12002127B2 (en) Robust selective image, video, and audio content authentication
JP2016103775A (ja) カメラ装置及び検証システム及び情報処理方法及びプログラム
JP2005286823A (ja) 画像入力装置、通信システム、制御方法、コンピュータプログラム及び記憶媒体
US20210287322A1 (en) Robust selective image, video, and audio content authentication
WO2024122396A1 (ja) 画像処理装置および方法
WO2021039055A1 (ja) 撮像装置、画像データ処理方法、プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23871570

Country of ref document: EP

Kind code of ref document: A1